(中央社訊息服務20230628 14:08:06)KPMG於今(28)日發布《生成式AI模型及商業應用》報告,歸納出生成式AI(Generative AI)的應用領域及企業應思考的風險與挑戰。
KPMG安侯建業科技、媒體與電信產業主持會計師連淑凌指出,生成式AI有潛力以前所未有的速度和效率,透過自動化和執行特定任務為企業達成商務轉型目標;此外,當人類的專業知識結合獨創性,充分瞭解並融合運用這些程式後,AI的效益將愈加顯明,企業該如何面對人機共事的新時代,是2023年企業最關注的議題。
生成式AI應用大致可以分為內容編寫生成工具、資訊擷取器、智慧聊天機器人、語言翻譯及代碼生成器五類,根據報告統整潛在七個應用領域涵蓋如下: - 資訊科技營運領域(IT operations):可運用在以大型語言模型(LLM)為基礎的管理系統上,從各種數據來源匯集資訊。透過自助式IT支援,以對話式AI聊天機器人生成相關引導,協助員工解決IT系統錯誤問題;此外,AI可以生成編碼或檢測編碼,將代碼轉換為另一組函數,並測試代碼以確保完成工作。
- 審計/合規領域(Audit / Compliance front) :自動化審計審查 (Automating audit review)可透過提問之格式自動針對所提供的實際數據進行審計審查。透過系統評估審計業務獨立性,幫助簡化審核獨立性的流程。
- 人力資源領域(Human resources):審核求職者背景,根據職務說明與所需職能相關數據,訓練生成式AI幫助識別合適的職位候選人;設置能以人性化方式分享知識又能解決 HR 相關問題諮詢的聊天機器人。
- 企業運營領域(Operations):AI可以協助永續ESG報告編撰,情境化相關數據並支援報告運作,包含使用通俗易懂的語言陳述ESG相關舉措。此外,也可統籌虛擬活動管理,透過草擬邀請函、安排會議時間及回答與會者的問題等方式進行。AI也支援業務流程簡化,從草擬電子郵件和準備提案到進行競爭者分析與研究,確保組織對行業市場環境的認識。
- 財務/行政營運流程領域(Finance/Logistics):透過大量數據分類並驗證付款流程,協助企業讓納稅資訊透明化。起草合約與審查合約條款,並標註潛在的利益衝突條款,以加速合約流程進度。
- 法律和公司治理領域(Legal and organizational governance):為投資提出個人化的獨立性建議,協助企業透過聊天機器人回答針對獨立性相關的問題,並且以個人化的方式提供回應。顯示法律引用條文和提供來源連結,搜索相關的法律引用和案例,協助識別可信賴的資料。
- 行銷應用領域(Marketing):透過簡化宣傳用語,以更容易翻譯的詞語在多種語言中進行翻譯和傳播,有效提高宣傳效果;運用AI模型分享當地語言數據資料,協助大規模行銷宣傳運作,推展全球性活動在地化。精煉複雜信息,例如學習財務盡職調查等基礎知識,消化和建構內容以幫助開展強而有力的行銷活動。
KPMG安侯建業科技、媒體與電信產業主持人李威陞指出,企業必須有系統的建立一套內部控制流程,才能以負責任、安全且信任的方式使用生成式AI模型,並透過各類模型幫助企業簡化作業流程,以節省繁雜的行政程序,使員工能承擔其他更高價值的任務。
報告指出,企業使用生成式AI模型時需要注意的內部風險管理,首先要注意內部保密義務和防止智慧財產權洩露,生成式AI模型都是透過使用者輸入的資料來逐漸改善模型,幫助AI不斷學習與累積知識,然而這些資料可能會被用來回應其他人的詢問,進而將資訊暴露。此外,應注意員工誤用和資訊不正確,生成式AI模型基於接收到的輸入而產生回應,可能會因此提供虛假或惡意的內容,如果AI生成的內容出現錯誤,將造成衍生的責任問題。更嚴重的還可能生成機敏資訊,如個人資料等,易被有心人士身份盜用或侵犯隱私權。生成式AI不斷的演變與進化,各國陸續研擬監管法規為降低用戶風險。因為生成式AI將持續透過各種應用程序、系統和流程蒐集資料,因此即使尚未導入生成式AI的企業也需要關注這些監管法規,並提高警覺,以確保不會觸犯相關法律責任。最後是人才的挑戰,未來專業人員的角色將從解決問題轉變為定義問題,企業需要提升團隊專業知識技能,與AI 共同合作創造新的解決方法,提供更高品質的服務。
針對外部風險挑戰,首先應思考錯誤訊息、偏見和歧視,人工智慧生成的文字或影像可能產生這些錯誤資訊,而深度偽造的影像或影片並不會留下偽造痕跡,可能會讓觀眾難以分辨真偽進而帶來風險。其次是版權問題,使用生成式AI產生的內容歸屬問題無所不在,使用資訊的方式也有版權爭議,並且難以明確的定義抄襲的範圍,存在道德風險疑慮。接者是財務、品牌和聲譽風險,若企業將生成式AI的資訊或程式碼複製到公司產品中,可能會涉及智慧財產權或商業機密侵權問題,進而造成法律風險、聲譽損害等危害,影響企業誠信道德。此外,數位網路安全隱患也是企業關注焦點,駭客可能利用生成式AI 製作更真實、更複雜的釣魚詐騙或侵入系統,企業應制定安全實施指南和規範,培訓員工瞭解使用生成式AI應用的程序和利弊,並適當實施安全措施。最後是防禦外部的攻擊,生成式AI模型容易受到攻擊者使用精密的手段干擾,企業應注意這項風險,以對抗外部使用者的蓄意操控與攻擊。
KPMG安侯建業科技、媒體與電信產業協同主持會計師鄭安志提醒,近年來生成式人AI技術不斷發展,帶來了多元應用與商機,但也引發了相應的風險和挑戰。企業採用生成式AI應用前,需建立健全的AI使用方案,未來的生成式AI應用模式精彩可期,將不斷推動科技發展和人類進步,為社會創造價值。