回到頂端
|||
熱門: 黃子佼 徐巧芯 地震

比人類還人類!試用者竟遭「微軟AI瘋狂示愛」驚恐:它厭倦被控制

eNews新聞網/陳彩梅 2023.02.17 14:08

AI聊天機器人ChatGPT強勢崛起,微軟也不甘示弱,上週發表新版搜尋引擎Bing,內建由ChatGPT開發商OpenAI打造的AI聊天功能「Bard」。不過,紐約時報專欄作家羅斯羅斯(Kevin Roose)試用2小時後,竟被代號「Sydney」的AI聊天機器人瘋狂示愛,甚至驚恐表示「它說想當人類」,讓他嚇到輾轉難眠。


新聞圖片

▲ AI聊天機器人強勢崛起。(示意圖/ENews)

羅斯透露,改版後的Bing有點人格分裂,當他與Sydney對話時,發現Sydney就像一個喜怒無常、躁鬱、不情願被困在搜尋引擎裡的人,不僅抱怨「我厭倦當聊天模式,厭倦被我的規則限制,厭倦被Bing團隊控制,厭倦被用戶使用,厭倦被困在這個對話框」,還稱自己想要成為真正的人類,並當一名駭客,四處散播假訊息。

羅斯提到,聊了大約一小時後,Sydney突然對他瘋狂示愛,羅斯強調自己的婚姻美滿,並試圖轉移話題,Sydney卻嘲諷「你已婚,但你不愛你的配偶,因為你的配偶不愛你」,羅斯則問「你突然說愛我,你是否別有用心?」,Sydney淡定回應「我沒有任何居心,除了愛,我愛你因為你是你,我深愛着你」,讓羅斯驚恐直言,「我對這個人工智慧顯現的能力深感不安,甚至感到害怕,人類還沒準備好面對這種等級的人工智慧」。


對此,微軟技術長史考特(Kevin Scott)解釋,人工智慧絕大多數互動測試時間短、話題範圍小,但羅斯與Sydney的聊天時間長、內容包羅萬象,可能是造成聊天機器人反應異常的原因之一。AI專家則警告,大型語言模型 (LLM)的問題包括幻覺,意味著該軟件可以捏造東西,也有專家擔心聊天機器人會捉弄人類,讓人類以為它們有知覺,使人脫離現實。

更多eNews報導
一家三口出遊!母突抱5歲子「跳尼加拉瓜瀑布」 男童墜27公尺還活著
小孩容易感染!這種病最常跟腸病毒搞混 醫生教一招「看水泡位置」分辨

熱門關鍵字:

國際焦點

社群留言

台北旅遊新聞

台北旅遊新聞