回到頂端
|||
熱門: 油價 趙露思 五月天演唱會

揭秘人工智慧及其未來展望~中央研究院士暨美國國家發明家科學院院士郭宗杰教授獲邀到中國醫藥大學發表專題演講

中央社/ 2025.01.06 11:22

(中央社訊息服務20250106 11:22:31)AI浪潮崛起,應用領域越加廣泛深遠,已然成為各方產業爭相跨域發展的目標。12月9日,中國醫藥大學暨醫療體系蔡長海董事長邀請中央研究院院士暨美國國家發明家學院院士郭宗杰教授蒞校演講,以科學經驗分享綠能結合人工智慧,達成節能減碳的綠色AI(Green AI),以及medical AI(智慧醫療)的應用。郭宗杰院士強調,醫生在醫院裡面看實際的臨床狀況然後判斷,那是困難的,人是不會被AI取代掉,可是有些固定一成不變的,AI是可以取代的。

中央研究院士暨美國國家發明家科學院郭宗杰院士獲邀到中國醫藥大學發表專題演講--揭秘人工智慧及其未來展望。

大師開講,會場師生聆聽踴躍。

中國醫藥大學暨醫療體系舉辦的《領域專家演講系列》,蔡長海董事長邀請郭宗杰院士以Demystify Artificial Intelligence and Its Future Outlook「揭秘人工智慧及其未來展望」為題發表演講,由周德陽院長主持。洪明奇校長、林正介副校長、王陸海副校長、林昭庚講座教授、校院務發展委員會鄭隆賓執行長、附設醫院陳韋成主任秘書、人工智慧中心張詩聖主任、張坤正副院長、等校院主管全程參與,並透過視訊方式鼓勵校院醫護同仁師生踴躍聆聽。會後開放提問會場氣氛熱絡,對於「Green AI」極富前景性的演說,讓在場師生獲益良多。

美國南加州大學(USC)電機及計算機傑出講座教授郭宗杰院士,專精於多媒體通訊技術,在影像壓縮技術、電影後製的特效領域上皆擁有多項專利技術。隨著永續思潮崛起,他發現目前人工智慧技術,包括深度學習(Deep Learning)、神經網絡等,都需消耗大量資源,於是掌握這項契機,致力投入專研如何使用低耗能來進行機器學習的「Green AI」,為人工智慧帶來更節能、更有效率的突破性發展,未來發展前景不可限量。

郭宗杰院士演講時開宗明義的切入主題,AI的重要性,大家都看得出來,特別是ChatGPT出來之後,幾乎整個社會都是震動,它的重要性不言不喻。但是AI卻是非常的神秘,很多人都不知道AI可以做什麼、AI不可以做什麼,我們怎麼樣利用這個工具,太多的宣傳有點太誇張了,已經穿鑿附會到很奇怪的地步。所以,我希望能夠把AI神秘的面紗能夠解開來,然後深度學習,然後綠色的學習,然後在醫學上的應用。

首先是關於人工智慧(AI)這個詞是1956年在美國達特茅斯研討會議裡面定下來的。英國一個很有名的學者叫Turing(圖靈)給這個概念下一個定義叫圖靈測試。1980年,心理學家John Searle(約翰•瑟爾)舉了一個例子挑戰圖靈測試和人的智慧的關係。一個房間裡面有一個不懂中文人,他跟外面的溝通是經過門縫裡的紙條傳遞,以中文字條從門縫塞進來。雖然這個人不懂中文,但他有很多工具,拿到中文紙條就可用翻譯機去翻譯成他的母語,然後去找回答資料,再把它翻譯成中文,然後從門縫塞出去。按照圖靈測試的定義,這個人是懂得中文的。但是按照John Searle測試,這個人是不懂中文的。他們的矛盾在哪裡?這房間裡面其實是人機混合的,不只有一個人。這個人到底懂不懂中文?嚴格來說,他是不懂的,他腦袋裡面沒有中文的。可是對房間外面的人來講,他看起來是懂的。這是intelligence解釋上的一個挑戰。

什麼叫做intelligence?一般來說,它有兩個定義。一個叫Weak AI(弱人工智慧),一個叫Strong AI (強人工智慧) 。弱人工智慧就是按照圖靈定義的,能通過圖靈測試。它可以模擬一個人,滿足那個輸入/輸出的關係,但它實際不知道裡面的內容。

榮獲美國國科會總統教授學者獎的郭宗杰院士經驗分享,神經網路能做很多的問答,可是它有沒有人的智慧?其實是沒有的。強 AI 可以Human Intelligence (人類智能)為代表,它可以思考、瞭解、分析、有邏輯的。強AI和弱 AI其實有很大的一個差距,弱AI是「以繁馭繁」,強AI是「以簡馭繁」。人腦袋記憶能力不強,計算也慢。人做很多的判斷是怎麼來的,坦白說我也不知道人怎麼會那麼厲害。當我們觀察事情,我們就把知識濃縮在腦袋某個地方。在看到相關東西的時候,我們會有聯想。而且人也會反芻,有些東西可能不能馬上決定,可是兩、三天後就有想法了。除此之外,我們會綜合判斷。人腦袋會用很多東西,我們都說不出來那是什麼。反之,弱 AI是以繁馭繁。例如,ChatGPT裡面的模型都是上億,甚至不止億的參數,裡面到底在搞什麼?它用非常繁雜的模型去掌握繁雜的世界,以繁馭繁,但它是沒有什麼思考能力的。

換言之,Intelligence是一個統稱,有兩個層次,一個是強的,像人一樣,一個是弱的,是機器可以做到的。而人腦的這部分,我認為在我有生之年,機器都不能達到。人腦實在太奇妙了,所以大家不要擔心人腦被電腦去取代。但很多工作會被電腦取代,只要那個工作本身是固定、一成不變的,那AI是可以取代。新聞報道AI通過醫學測試,但是不要擔心,因為很多東西是沒辦法考的。如果有考試樣本題庫,讓電腦去學,然後去答考題,這是容易的。一個醫生在醫院裡看實際的狀況,做決定判斷,那是困難的,所以醫生是不會被AI取代掉。

強AI與弱AI的區分,可以用一個例子來說明,小孩子識別狗和貓,他看過幾隻狗和貓,就知道他們有什麼不同。可是一個Kaggle 數據集要2,500隻狗、2,500隻貓做訓練,才能判斷狗跟貓。人頭腦裝不了那麼多圖片,然而有個奇妙的方法,是機器做不到的。

再舉一個科學家和他的馬車夫的故事為例。科學家到處演講,馬車夫在下面聽,聽得耳熟能詳。有次科學家說你上臺幫我講好了,我坐在下面聽。馬車夫在臺上講的頭頭是道,演講非常的好,然後有人問問題,馬車夫就傻了對不對?露餡了。所以表面上說,感覺AI好像什麼都懂,其實它並不真懂。再用ImageNet物件數據集為例,它可用於物件識別。如果給一個圖片沒有飛機,只有藍天,它應該說沒有物件。但它會說:「是飛機」,因為藍天和飛機是最常見的組合。這個判斷是很奇怪的,目前用弱AI訓練方法是不能做正確判斷的。

AI一開始的進展為什麼那麼慢?從1956年這個名詞出來到2012年,差不多有這個六十年的時間,非常的牛步,沒有突破。那些人比較笨嗎?到了2012年後就突然取得重大進展,現在人就比較聰明嗎?當然不是。有人說問題在於沒有大的數據集、沒有GPU、沒有神經網絡,郭宗杰院士認為最大的關鍵是AI這個題目被改了。怎麼改呢?前面的六十年,人想要做強AI,要模擬人的思維。關於電腦視覺的發展,人要做分割(segmentation),做邊緣偵測(Edge detection),可是這問題要機器做很難,不能做得完美。關於語言學習,人要學文法,可是神經網絡,不需要邊緣偵測,也不需要文法,只需要給它很多圖片或句子就夠了。 弱AI不知道文法,它看幾千萬的句子,模型就慢慢建起來。以前AI失敗的原因,是人想做強AI,希望它能夠推廣,舉一反三,可是這非常難,你要學人類智慧,但學不了。那現在能成功,就是專注於弱AI,只要求滿足輸入/輸出的關係,不要求理解裡面的邏輯。只要給這AI系統大量輸入/輸出的配對,進行訓練,它就可以建一個模型來達到弱AI的效果。

現代AI的主要驅動叫「監督式的學習」,就是要有數額龐大、配對的輸入/輸出。以前的AI,只給少量的輸入/輸出配對,然後要推廣。監督式的學習需要標註,很耗時。另一種監督式的學習稱為自我監督(self-supervised) 。就是給一個句子,然後你把一個字遮住,相當於填充題,用這個來訓練。進去是一個部分被遮住的句子,出來是完整的句子,現在流行的 transformer就是以這種方式訓練。

接下來講弱AI發展的現況。弱AI可以分成三類。第一類是傳統的機器學習(Classic Machine Learning),它前半段都是用人去找特徵,人再厲害也很難找到很多特徵,因為人的思維是有限的。第二類是深度學習(Deep Learning),使用一大堆網路模型參數去滿足輸入/輸出的關係。第三類是綠色學習(Green Learning),它不需要提早定好模型,而是用信號處理方法,一個階段接者一個階段做,每一個階段 會有個間接的結果。處理方法基本上用統計工具,可以調適到合適的模型。綠色學習有非線性的部分,一般來講,它能自動生成好特徵,不需要靠人去設計,特徵數目比人設計出來的多很多,使用這些特徵去做更好的決定。對比的看,深度學習從頭到尾就是一個固定大模型。

傳統的機器學習方法主要適用於小數據量,當數據量變大時,它不知道如何有效的使用。深度學習需要用大數據量來訓練,但它不知道數據量和系統性能的關係。綠色學習可適用於大數據量或者小數據量,也能理解數據的價值。數據量是不是越多越好呢?其實不見得,數據多對多樣性(diversity) 有幫助,但是多也不一定絕對有用,因為人常拿到容易的資料。就統計上來講,大機率的資料是普通的簡單的資料,小機率的資料是寶貴的資料。深度學習需要收集很多資料做標註,可是對資料不是很瞭解。花很多精力在資料清理,模型微調,抱怨機器不夠用,這個現象現在是非常普遍的。綠色學習了解數據的價值並能收集有價值的數據,提高資料收集效率。

深度學習有很多問題,比如說大量二氧化碳的碳排,容易被攻擊產生錯誤答案。關於後者,就是你把輸入的影像做點微調,答案就錯了。對醫生來講,可能不在乎數學,但在乎邏輯,醫生非常聰明,不會接受一個黑盒子沒有道理的演算法。

綠色學習沒有計算神經元,它的模型是按照資料來設計的,有模組化。做一個大系統工程一定要模組化,模組化才可以容易偵錯。它使用前饋 (feedforward training) 訓練,沒有反向傳播(backpropagation),所以它的訓練比深度學習快得多。它有三個步驟,第一步是要找一個好的表示(representation),第二步是要找一組好的特徵,最後一步使用傳統的機器學習工具做出決定。第一和第二個步驟在傳統機器學習統稱為特徵工程,基本上靠人手動設計。深度學習沒有模組化,從頭到尾就是一個黑盒子。在綠色學習,第一個步驟,用統計去找一些好的表示,不需要標註。第二個步驟需要標註。郭宗杰院士團隊發展了一套”判別特徵測試”(Discriminant Feature Test)的工具作為第二步驟的主要部分。

關於綠色學習的醫學應用,我們的實驗室跟南加大醫學院從2020到現在已合作五年了,關於前列腺MRI圖片的分割和偵測。我們把攝護腺分割出來,然後是偵測什麼地方有不正常的腫瘤病變。另外我們也跟哈佛醫學院合作一個「肌萎縮側索硬化症」(ALS)偵測計畫,ALS的資料庫很小,因為很難收集。但我們發現它跟年齡、性別、體重沒有什麼關係,然後我們用MRI掃描去量,把重要的區域分割出來,然後做訓練跟學習,綠色學習比深度學習更準確,但需要較少的資源。

評價一個AI系統,要考慮到三個東西:一是準確性,一是效率 (模型大小,計算複雜度多少、二氧化碳的碳排量),一是可解釋性。可解釋才可長久嘛,可解釋才可以改進,可解釋才能進到科學的主流。一個不可以解釋的東西塞在那裡,大家哪裡有什麼辦法跟進,所以這三個都要考慮。在這三方面,至少效率跟可解釋性,綠色學習絕對贏過深度學習。

郭宗杰院士說,目前美國的醫學院都在比誰的AI比較強。機器跟人的互動跟合作,AI是絕對必走的路,它能夠降低價格,增加服務的品質。因此我們對AI需要有更多的瞭解,不對AI做過多幻想,知道AI可以做什麼,不可以做什麼,人可以做什麼,不需要做什麼。因此人跟機器將有最好的合作,達到智慧醫療(medical AI),降低醫療的成本,增加醫療服務品質,造福人類。 郭宗杰院士演講分享「揭秘人工智慧及其未來展望」科學研究的經驗心得。

周德陽院長致贈郭宗杰院士伴手禮致謝。

蔡長海董事長、洪明奇校長偕校院主管與郭宗杰院士合影。

熱門關鍵字:

P5

社群留言

台北旅遊新聞

台北旅遊新聞