請大家記住,沒有任何AI能完全免於偏見,因為,它們是基於用於訓練的數據所固有的。意識到這一限制,並批判性地評估回應的答案,才是始終如一的好做法。(圖/取自網路)
作者/黃丙喜
ChatGPT等各種AI 人工智慧應用軟體紛紛上市,一群資深媒體人在台灣大學聚會,相互言談中驚訝發現,這群新聞老兵居然自學各種影音人工智慧軟體,而且運用在生活中,增添不少樂趣。
好用,有趣,但有缺陷
他們共同的感覺是,對話式人工智慧的時代確實應該是不可逆的趨勢;但是,AI機器人也很會自動生成,甚而加料瞎掰,另外,也似乎具有令人愉快的性格,這種資訊的偏差可能導致人們決策的錯誤,不能沒有必要的警覺。
我們應該如何提示ChatGPT等AI機器人,以避免這種資訊的偏差呢?懂得給機器人正確的提問( prompt)非常重要。綜合陳明德、張憶里、阮淑祥、黃兆徽、李道霖、陳柏村和陳麗娟等產學界人士的經驗,為了最小化ChatGPT的資訊偏差風險,關鍵在於以一種鼓勵平衡和批判性分析的方式來構建你的提示。
AI機器人回答你的資訊,其實是它經閱讀了大量被蒐集的資料,也就是大數據之後,再加上一些被設計的邏輯推理等程式,以之生成出來的。它當然不會十全十美,也必然存在一些難以避免的缺陷。這是聊天機器人等人工智慧使用者必須要有的第一認識。
減少偏差,有哪些好方法?
那麼,根據陳明德、張憶里等七人的使用經驗,他們提供的完善運用聊天式AI機器人的建議是:
1. 請求多角度觀點:特別要求ChatGPT就某一話題提供多種觀點。例如,「你能提供[話題]的利弊各是什麼嗎?」
2. 請求基於證據的回應:特別鼓勵基於事實、研究或廣泛接受的理論的回應。例如,「最新研究對[話題]有什麼說法?」
3. 尋求反駁論點:特別明確要求提供某一特定立場或觀點的反駁論點。例如,「[普遍觀點]有哪些強有力的反對論點?」
4. 鼓勵批判性分析:特別提出對問題進行批判性審查的要求。例如,「你能分析[論點/政策]的優點和缺點嗎?」
5. 要求扮演反對者角色:特別要求ChatGPT採取與普遍信念相反的立場,以探索替代觀點。例如,「你能從反對[普遍接受觀點]的角度論述嗎?」
6. 詢問潛在偏見:特別直接詢問特定論點或來源可能存在的偏見。例如,「[來源/論點]中可能存在哪些偏見?」
7. 要求澄清和理由:如果回應看起來過於片面,要求進一步的澄清或理由。例如,「你能解釋為什麼你認為[陳述]是這樣的嗎?」
8. 避免引導性問題:中立地提出問題,不要暗示期望的答案。
問你的問題,也是好體會
你有試試問聊天AI機器人自己的問題嗎?甚至好玩的也像問算命師一樣,問問它你的今生未來。事實如何,你自己一定比較能夠冷暖、虛實自知,再從中做客觀比對,也試試改變一些問法,不失有趣的學習。
通過使用上述這些方法,我們可以促使ChatGPT提供更平衡和全面的回應,減少從中所得資訊的偏差可能性。
最後,請大家記住,沒有任何AI能完全免於偏見,因為,它們是基於用於訓練的數據所固有的。意識到這一限制,並批判性地評估回應的答案,才是始終如一的好做法。
黃丙喜,筆耕公共政策三十年,期為國泰民安增動力,為社會公義添喉舌。
現任國家公益發展協進會理事長、台科大酷點校園董事長,曾任跨國企業公共事務主管,先後在台灣科技大學、新加坡南洋理工大學、芬蘭厄爾托大學教授IMBA/EMBA學程,並任國發會、經濟部、衛福部專案顧問,負責政策前瞻、國會溝通和危機管理。