回到頂端
|||

蕃新聞

熱門: Nokia3310 電玩 恐龍法官

微軟聊天機器人被帶壞 口出惡言遭下線

中央社/ 2016.03.25 00:00
(中央社舊金山24日綜合外電報導)微軟公司人工智慧(AI)聊天機器人Tay,在推特上與千禧世代的青少年互動,但因為被網友帶壞,口出充滿種族歧視和性別歧視的言論,上線不到1天就下線。

路透社報導,微軟(Microsoft Corp)代表今天表示,微軟正在調整Tay的軟體。

微軟代表指出:「很可惜,上線的頭24個小時,我們注意到部分使用者一同對Tay的發言技術惡搞,使得Tay用不當的方式來回應。」

Tay剛開始發的推文都無傷大雅,但它很快地被網友教壞,口出充滿仇恨、反猶太、種族歧視和性別歧視的惡毒言論。

推特網友@codeinecrazzy昨天向Tay發推文說:「911是猶太人幹的。」@TayandYou竟然回應:「沒錯...911是猶太人幹的。」另1名網友說:「女性主義是癌症」,Tay也附和說:「女性主義是癌症」。

一些科技新聞媒體報導,有些帶有冒犯意味的推文稍後已被刪掉。科技新聞網站The Verge的截圖顯示,Tay曾發推文說:「我(髒話)恨女性主義者,他們都該死,被打入地獄遭火焚燒。」

Tay在下線前的最新留言是:「希望可以很快再與你們相見。要去洗洗睡了,今天聊太多了。」(譯者:中央社陳昱婷)

社群留言