人工智慧對人類生活的影響

新聞焦點:
人工智慧改變人類生活樣態
什麼時候會有長照機器人?
2030年來臨時,AI有什麼做不到的?
AI不斷發展,人類該加強的是人文教育?!

人工智慧改變人類生活樣態

在這幾年的AI熱潮中,現今台灣每週至少會有一場大型AI研討會。黃肇雄表示,抱著「玩耍」與「學習」的心態,他很樂於和年輕人探討AI的話題。黃肇雄指出,人工智慧近三年產生三點重大突破,包括電腦或機器人可以看懂東西、聽懂東西,最大的突破在於是電腦可以從任何角度辨識出東西,例如自駕車已經能夠辨識行人或垃圾桶。

陳彥呈表示,人工智慧擅長的是優化已知的重複性工作。AI的好壞及對人類的影響等議題很像是工業革命時期人們的議論。有些工作是可由人工智慧替代,像是現階段醫療影像已經進步到高度自動化過濾大量不正常影像,剩下的再交給人類處理。AI立即取代的是不太需要動腦的單調工作,但是電腦短時間內是無法取代掉需要複雜思考的事情。

趙育萱觀察到,在進行聊天應用分析後,觀察到人類對機器講話時自己的態度會變化。當聊天機器人出現時,人們比較容易說實話,在醫療和其他諮詢上可能達到更準確的方向。趙育萱也舉例說明,以往人們在詢問金融產品時,會產生利益衝突,金融消費者其實無法開誠佈公地與理財專員討論最適合的產品。若由機器人作為理財專員,人類反而能夠更放心的諮詢,近年即產生了不錯的成果,像是新加坡的銀行OCBC即利用理專機器人在一個月內成交了近三到四筆的理專個案,這是很大的業績成長。

 
 

程世嘉說,就務實面而言,科技本身是中立的,但當技術本身中立時,也會有使用者本身非惡意,而產生惡意的情況。例如人工智慧不斷優化時,可能在過程中傷害到一些資源或人類,或是拆解不應該拆解的物品。程世嘉解釋,失誤會導致惡果,比如歐洲目前將近百分之七十的保險決策是由電腦決定。歐盟發現這是嚴重的問題,因此去年歐洲通過一項相關法律,因應機器進行決策帶來的衝擊,儘管公布AI決策的過程可能阻礙科技進展,但也是另一個產業發展的可能性。此項法律將在明年上路,保障那些被AI淘汰的人有權利了解AI篩選過程。

趙式隆表示,AI之所以重要,是因為每個人所知遠比能夠說出來的多,例如自動駕駛特別好用,是因為開車屬於經驗法則,目前AI透過訓練過程,將經驗法則傳達給機器,因此當機器能夠做到時,人類是有可能無法完整掌控的。趙式隆指出,人工智慧分成兩個領域,一個是可以對答如流(目前尚無法達到),另一部分則是在特定領域做到專業學習,例如讓電腦練習一千次,電腦的學習時間會比人類來得快速。但遊戲規則是由人類來制定,因此不必過於擔心被取代。AI就像在帶小孩,需要人去帶,AI訓練師也就衍生了。

黃肇雄表示,AI對於人類而言,是利大於弊,哲學思考都是以一百年為單位,我們若以一百年為單位來思考人類的前途,AI勢必是有潛在的危險,這個危險也跟人類如何運用AI有關。作為一個聰明人,應該以創業人的態度,在了解他的風險後也同時抱持樂觀,正面思考AI如何幫助人類的生活,例如長照、酒測的運用。

程世嘉認為,人工智慧無法分辨好壞,只能分辨模式。人類提供什麼樣的資料,就會轉移到人工智慧上,也就是說人工智慧並不會主動製造歧視,所謂的歧視都是人類的歧視,而且是人類所提供資料而造的歧視。

 

什麼時候會有長照機器人?

 

陳彥呈表示,台灣在20年前即開始研究長照機器人的可能性,但早期由於硬體限制,而使得長照機器人仍無法有效地推廣,2012、2013年電腦技術有所突破、準備開始推廣時,仍然碰到許多困難,再加上老人非常排斥感應器的穿戴,例如智慧型手環等,因此在推廣上仍相當困難。

黃肇雄進一步指出,長者需要的不只是手環,而是幫忙長者站起來或幫忙洗澡,這是一些需要體力的照顧。過去思考這個問題,原因在於電腦看不懂老人的需求,但現在機器手臂可以做非常細微的動作,若以三至五年為期,有無可能發展長照機器人?

陳彥呈回應,即便機器手臂可以舉軟球,但照顧人還是與機器運作不太一樣,無法制式化訓練機器人,稍有不慎即有可能傷到長者,在長照部份,AI並無法獲得更多的資料來比對長者的需求,因此在細微度部份仍有待商榷。

「AI取代的是工作,而不是任務(task)」,程世嘉表示,長期照顧是許多任務組成,每一個動作都是一個任務,包括抱起長者、陪伴長者及餵長者吃藥等都是一個任務,這是許多任務的結合,以目前的角度來看,仍無法做到。

趙育萱表示,若要以機器人來取代看護,目前還不太可能,但已有許多事情由機器人來取代,例如利用手機螢幕來偵測長者情況,這是可以做得到的,也可以避免老人家小病拖成大病。

黃肇雄指出,目前若要發展萬能的長照機器人可能成本相當高,但如果要發展第一代長照機器人,其工作只是讓老人家不摔倒或者只是陪老人說話,可能一年內可以做到,這也是有市場的;但若如果要將老人家照顧得無微不至或者需要比較複雜的程式,可能要多花幾年才能完全做到。

長照其實是智慧家庭需求的縮影版,趙式隆表示,以照顧老人家的機器人而言,目前已有幾個部份在持續發展中,從機器發展方面來看,像是幫忙跌倒的老人家站起來,要將機器人手臂訓練到跟人的手臂很像,到目前都還不能完全做到。陪同聊天方面,曾看過一個與亡者對話的聊天機器人,透過截取過去家人或好朋友的對話紀錄,加上一些關鍵字的提示以及相關對話情境搭配,讓使用者能得到心靈層次的安慰。

至於監控部份,趙式隆說,目前華碩的ZENBO也做得不錯,或者像是將機器人做得像隻狗,能夠進一步偵測家裡的情況,或者像是物聯網於家庭安全所做的監測。整體而言,機器人在各方面的任務(task),包括硬體到軟體都有人在做,但若就一個全面性的智慧家庭需求解決方案而言,可能還需要一些時間來發展。

 

2030年來臨時,AI有什麼做不到的?

黃肇雄表示,AI是全面以技術的角度入侵,對於人類而言,似乎被威脅的成份較大。

很多人在思考什麼是人適合做的?什麼事是AI適合做的?趙式隆指出,例如有人認為在情感、領導力或說服力等方面,有人認為這是AI所做不到的,個人持不同看法,因為就人工智慧的形成而言,只要提供足夠的database,相信AI也可以做出相當程度的政治判斷。舉例來講,有些有亞斯伯格症的人,表現得不符合社會期待,但長大後就比較得體,有人認為,亞斯伯格症無法體解別人的情感,但亞斯伯格症者可以透過他人的反應進而避免做這些事,就這個角度來看,AI也可以做到。

陳彥呈指出,美國產業幾乎只要每隔10年或20年都會有新興企業崛起,政府能否提供政策方面的輔助,例如中國大陸或者歐美政府所做,或者像是台灣近來拍板通過新創企業的鬆綁,只要在自由市場的機制下都是可行的。關於2030年的預測,若以市場的角度來看的話,所有的預測似乎都顯得太狂妄,究竟AI在2030年會發展到什麼情況,是很難預測的。

陳彥呈說,但若講到有什麼做不到,弱AI或強AI在碰到過去未曾處理的狀況時,似乎仍無法做得很好。同時,要注意的是,AI也會犯錯,當AI犯錯時,並非只花百分之二十或三十的人力來檢視即可,而是應該要全面檢視。當人類無法掌握AI所犯的錯,就無法全面自動化

 
 

AI不斷發展,人類該加強的是人文教育?!

 

黃肇雄說,剛剛世嘉提到會造成AI偏差所反映的是人的行為,若期待一個良善的AI,那就應該要有一個良善的人,因此人文教育相對而言是相當重要的。

程世嘉表示,科技應該要為人文服務,但是人文與科技之間界線已愈來愈模糊,原因在於機器人也會寫文章。未來發展的趨勢在於數位化、科技化,「生命是演算,生活是資料處理」已將成為必然的教條。過去以為電腦做不到的事情,例如模仿畢卡索的畫,現在已經可以做到,甚而創造出新的繪畫風格,電腦也許無法成為莎士比亞或金庸,但確定的是電腦已經可以寫作。

趙育萱也分享了個人經驗,她說,小時候有許多切身之痛,例如媽媽送我去學書法時,臨摹了許多古文,但這些古文從來沒有進到自己的腦袋裡。又或者過去唸高中時,很痛恨背古文,每次只要碰到背古文就是零分,但心裡很確定的是,自己很喜歡人文。因此我認為人文教育應該定位在思想層次,而不是定位在如何背誦古文。對於古文,只要有模糊認知,懂得如何GOOGLE即可。人類之所以為人,「人之異於禽獸幾希矣」,人類如何做出「幾希」的決策,在於如何能夠做得比機器判斷更好。