回到頂端
|||

AI好棒棒萬事都問GPT? 專家警告:無意中恐「洩露公司商業秘密」

eNews新聞網/趙羽千 2023.04.08 15:42

隨著人工智能(AI)驅動的聊天機器人越來越受歡迎,相關隱私安全性問題已成為用戶、公司和監管機構的重大關切議題。摩根大通(JPM)在內的一些公司,由於員工使用第三方軟體的安全性問題,已經限制了員工對ChatGPT這款引爆大型科技公司AI競爭的病毒式AI聊天機器人的使用。義大利監管機構出於擔憂隱私問題,暫時禁止了該國內對ChatGPT的使用。

新聞圖片

▲ 使用AI帶來的相關安全性問題引起眾多人關注(示意圖/Shutterstock)

根據《CNN》訪問多名專家報導,Fox Rothschild律師事務所隱私和數據安全業務的共同主席Mark McCreary認為,在使用像ChatGPT這樣的AI聊天機器人時,應充分考慮隱私問題。他將這些工具描述為一個「黑盒子」,並表示員工在非正式使用這些工具時,可能會無意中洩露公司的商業秘密。

於此同時,波士頓咨詢集團首席AI倫理官Steve Mills也表達了與McCreary相同的擔憂,認為對於大多數公司來說,最大的隱私問題是「無意中披露敏感訊息」。Mills指出,員工在使用聊天機器人進行看似無害的任務,如整理會議筆記時,可能會在不知情的情況下分享敏感數據,而「你不知道它接下來將如何被使用。」如果用戶輸入的數據被用來進一步訓練這些AI工具,正如許多開發這些工具的公司所聲明的,那麼你已經「失去了對那些數據的控制,別人已經擁有了它。

新聞圖片

▲  使用者可能在不知情的情況下分享敏感資訊洩漏公司商業機密(示意圖/Shutterstock)

McCreary和Mills都認為,在將數據輸入這些AI工具時,用戶應保持謹慎,因為公司可能會利用這些資訊進一步訓練他們的模型。Mills警告稱,用戶和開發者可能在事後才意識到與新技術相關的隱私風險。

為解決這些隱私問題,微軟支持的OpenAI制定了詳細的隱私政策。該政策規定,該公司會收集來自用戶的各種個人訊息,並可能用於改進或分析其服務、進行研究和與用戶溝通等目的。

擁有自家AI工具Bard的Google也有一份詳細的隱私政策。該政策向用戶保證,Google會選擇一部分對話並使用自動化工具幫助刪除個人身份訊息。

新聞圖片

▲ Google與Microsoft都有提出詳細的隱私政策(圖/Shutterstock)

儘管公司做出了這些保證,Mills仍建議用戶謹慎行事:「我現在的看法是,你不應該將你不希望被他人分享的任何資訊輸入這些工具。」

隨著AI聊天機器人不斷發展並更加融入我們的日常生活,用戶在處理敏感信息時必須保持警惕。公司和監管機構需要密切關注最新發展,制定合適的政策和機制以確保充分的數據隱私保護。AI開發者也應承擔社會責任,加強其工具的安全和隱私措施。通過各方利益相關者的共同努力,我們可以在確保尊重和保護數據隱私的同時,充分利用AI技術的潛力。

更多eNews報導
陸研究所凌晨4點發通知!「半小時沒回視同放棄錄取」 網友怒了
心很累!眼球中央電視台震撼宣布停更 「視網膜吐實」百萬粉絲錯愕

社群留言

台北旅遊新聞

台北旅遊新聞