(中央社訊息服務20230530 15:38:30) 你今天ChatGPT了嗎?生成式人工智慧(Generative AI)的討論持續升溫,人人善用多種AI工具,利用人工智慧生成內容(AIGC, AI Generated Content)於不同情境,即使是一般的使用者都能擁有文字、程式、圖像、影音的產製能力,將大幅提升職場人的工作效率與生產力。而採用AI技術雖可以增加人類的生產力,各式重組或重現的生成內容,更需避免遭有心人士不當使用,衍生法律與倫理的爭議。
鑑於生成式人工智慧技術的快速發展,資策會科技法律研究所(科法所)綜觀國際上主要國家對人工智慧的治理趨勢,為讓各界瞭解人工智慧技術對當下法律的衝擊,在國家科學及技術委員會(國科會)科技辦公室的指導下,於5月30日舉辦「2023科技法制變革論壇─AI生成時代所帶動的ChatGPT法制與產業新趨勢」,由國科會科技辦公室副執行秘書楊佳玲、資策會副執行長蕭博仁、科法所所長蕭宏宜代表出席,並邀請6位專家學者共同與談,一起探討AI應用的適法性、透明性、安全性等問題。現場廣邀近150名對人工智慧技術與科技法律有興趣的業界人士參與,普及至科技、金融、法律、通訊傳播各領域。
國科會科技辦公室副執行秘書楊佳玲致詞時指出,未來由人類智慧與人工智慧所構築的人機協作世界,雖然為我們帶來無限可能的想像空間,然而人工智慧的治理趨勢、風險管理、倫理道德與監理架構等面向,更是政府在推動科技發展政策時要考量的法律議題。國科會非常重視人工智慧法制議題,日後將持續擴大研究動能與掌握AI目前及未來的關鍵趨勢,希望藉由資策會科法所今天所辦理的這場論壇,以及長期對科技法律政策的研析,促成相關政策的推動,帶動法律邁入生成式AI新時代。
資策會副執行長蕭博仁表示,自ChatGPT推出以來,大家體會到生成式人工智慧發展迅速,人人都渴望用生成式AI技術創造萬能工具。資策會為第三方協力機構,持續關注AI工具的應用,由科法所從科技政策的視角,觀察人工智慧政策進程,掌握國內外法規制定的動態,進而提供臺灣科技發展所需的資源與協助,打造可信任AI的數位環境。
資策會科法所所長蕭宏宜認為,因AIGC工具的廣泛應用,生成式AI以資料、算力、算法共同協作出內容,若使用者提出惡意指令、錯誤資訊或不實話術,由人輸入的內容將會觸發系統上的漏洞。AI模型的學習能力也可能讓生成內容產生隱私、侵權與歧視的風險。在政府未予以管控的狀況下,造成犯罪機會的增加。如何因應生成內容於個人資料保護、著作權、營業秘密、甚至虛假訊息防制等不同議題所產生的挑戰,成為國內外日益關切的議題,希望能夠藉此次的論壇、透過專家間的交流,協助大家掌握法規脈動。 資策會科法所關注人工智慧在國際上的動態,主要國家開始積極對AI技術發展布局,如歐盟提出著名的人工智慧法草案(AI ACT);美國提出「人工智慧風險管理框架」(AI RMF 1.0),且白宮在5月4日召集了Google、微軟和另外兩家人工智慧開發公司負責人,也正研議生成式人工智慧在政府及企業可能帶來的衝擊與影響。G7也在4月底的數位部長會議中,特別提到未來將集結各主要國家及相關重要的產學研國際組織,針對生成式AI的重要議題形成共識等。
事實上,面對AI生成的時代,社會需為此趨勢發展預做準備。人類將邁向一個世界存有人類智慧和人工智慧兩套系統,實現人機協作雙贏的前景。在各界經歷數位調適的過程中,勢必面對調整與其相對應的管理規範或手段,以符合科技發展實際情狀,同時兼顧國際接軌,企盼能夠成為產業發展關鍵助力。
【資策會科技法律研究所官網】 https://stli.iii.org.tw/
【新聞聯絡人】 資策會科法所 顏翩翩 Tel: (02) 6631-1084 Email: [email protected]