cwlogo

切換側邊選單 天下全閱讀 切換搜尋選單
切換會員選單

壞人都在用AI了,好人一定要善用!

精華簡文

壞人都在用AI了,好人一定要善用!

科技急速發展下,為生活帶來便利,卻也衍生人類生存挑戰、民主治理、網攻威脅等難題。 圖片來源:shutterstock

瀏覽數

5766

壞人都在用AI了,好人一定要善用!

天下雜誌666期

AI能用來協尋失蹤兒童,能化身盲人的眼睛,卻也能化為惡意病毒打穿你,甚至取代你的工作。如潘朵拉盒子打開般的AI道德難題,該如何面對?

全球經濟局勢動盪,新科技浪潮來襲,走過高速發展年代的台灣企業,該如何打破僵局、逆勢突圍?《天下》長期關注全球產業動態,陪伴台灣企業成長 >> >>

在AI(人工智慧)領域,有個經典的道德難題:當一台無人車無可避免地,只能選擇撞上老人或嬰兒時,你會取誰的性命?

在2016年,DeepMind研發的AlphaGo打敗韓國頂尖棋士李世乭之後,有關AI的道德難題增加了好多個。(延伸閱讀:無人車該撞嬰兒還老人?AI道德難題,挑戰人類社會

難題一:從社交媒體加速假新聞散播、臉書個資外洩介入美國總統大選、在租屋、聘雇和貸款廣告上的種族歧視……,愈來愈多人擔心,演算法加重歧視,成了民主社會的毒瘤。

難題二:機器決策出事了,誰來負責?

難題三:AI取代人類工作,導致大規模失業。

難題四:AI成電腦駭客的新武器,加劇網路恐攻的威脅。

「在人類歷史上,從來沒有像此刻,對未來充滿這麼多的不確定性。科技明明一直在進步,卻愈來愈多人無法預測未來,」愛卡拉互動媒體共同創辦人暨執行長程世嘉形容。

這些難題,有如潘朵拉的盒子被打開,全球已無法視而不見,只能面對。

突圍1 好人不能無力防禦!

「好人一定要善用AI,因為壞人都在用AI了,」國際知名駭客、本土資安新創公司奧義智慧共同創辦人吳明蔚指出突圍之道。

吳明蔚形容,在資訊時代,資安是沒有煙硝的衝突,因為追蹤不易,所以隨時在發生,更加肆無忌憚。

網路攻擊在科技和AI進步下,電腦病毒早已不是人在寫,變成機器在寫。他描述病毒的產製模式是,一開始生出100隻病毒,經過市面上60家防毒軟體掃描,剩下5隻「漏網之毒」。壞人只要下參數、調數據,這5隻就能去欺負人了。

左起為法國國家倫理諮詢委員芙樂莉、奧義智慧共同創辦人吳明蔚、微軟大中華區首席法律顧問克蘭頓和愛卡拉互動媒體共同創辦人暨執行長程世嘉。(劉國泰攝)

這使得資安已經成為資誠聯合會計師事務所最新「全球企業領袖調查」,全球CEO最擔憂的前五大威脅之一。(延伸閱讀:敵暗我明!知名駭客談資安:壞人都在用AI了,好人一定要善用AI!

但讓吳明蔚興奮的是,過去有A I,但沒有數據和可靠的運算能力,也沒辦法落實想做的事,但現在好人、壞人都做得到了。所以,一定要擁抱科技。

突圍2 大廠自律,導入道德感

AI可以載舟,也可以覆舟,因此全球科技大廠也紛紛走上自律之路。

微軟成立人工智慧倫理道德委員會,確保自己做的是「負責任的研發」。這個委員會由微軟全球執行副總裁沈向洋和微軟二把手總裁史密斯(Brad Smith)主導,帶領部門的資深主管,確保公司內任何AI技術研究與開發,奉行六大原則:公平、可靠和安全、隱私與保障、包容、透明、負責。(見76頁表)

導入道德感,微軟利用A I「做好事」。微軟大中華區首席法律顧問克蘭頓(Tim Cranton)舉例,微軟就用A I協尋失蹤兒童和保護受虐兒。(延伸閱讀:讓AI有道德!微軟:AI強化人類能力,不是取代人類智慧

過去,微軟用人工做這件事,但承辦人員看一些受虐兒照片,往往情緒受創。

如今,透過AI,能短時間內大量分析,有助於保護需要幫助的兒童,也可以協尋失蹤兒童。「我們能透過影像DNA系統,由電腦分析孩童的長相,預估小孩長大成人後的可能長相,」克蘭頓解釋。

另一個廣為人知的應用,是一款手機app:「Seeing AI」。過去盲人要靠手杖和導盲磚,才能在外移動;去餐廳用餐,要靠朋友或店員念菜單,才有辦法點餐。

但Seeing AI化身盲人的眼睛,只要用手滑過智慧眼鏡的鏡架,眼鏡拍照後,運用影像辨識技術,馬上能告訴盲人周遭環境、菜單的內容,甚至是吃飯對象的表情。

在歐洲,哲學界開始思索,科技對個人和民主社會的衝擊。

突圍3 政府與教育系統必須介入

政治哲學及精神分析學家、現為法國國家倫理諮詢委員芙樂莉(Cynthia Fleury)主張,科技快速迭代,人類技能很快就跟不上時代,仰賴政府和教育系統積極介入。

「科技是可以為善的,特別是在民主政治,只要保有特定機制,讓公民能持續改進這套系統,科技將能帶來更大公共利益,」芙樂莉深具信心。

芙樂莉在法國積極倡議:要重視平等。她強調,面對AI衝擊,不只是解決數位落差而已。數位落差通常追求的是,不分城鄉,人人能夠上網。

但她進一步要求,政府應該確保的平等是,每個人都能利用科技工具,實踐生存意義:「科技一定要為他們帶來能力。」

其次,她認為,整個社會必須充分明白,科技不是中立的。科技是人創造的,人就有認知、情緒方面的偏差。(延伸閱讀:會造假、操控、歧視,AI科技沒有你想得中立

第三,這個社會必須確保,AI是促進人類自由,不是剝奪人類的選擇權

芙樂莉認為,AI研發過程應保持公開透明:「我們應該訓練AI生產鏈的所有關係人,從工程師、設計師到消費者,都要理解一個產品背後牽涉的倫理,確保所有演算法都是公開透明的。」

對使用機器人的企業課稅

最後,芙樂莉呼籲,科技對勞工造成威脅,職業訓練變得刻不容緩。她在法國提倡「公民時間」(citizen time),如果工作者是為了學習因應未來的新知,企業不能隨意將其解雇,影響他原來的工作權。

芙樂莉甚至提出,為了縮短人和機器人之間的不公平競爭,政府應該思考,是不是要對使用機器人的企業課稅,以縮短人與機器人的差距。

在無法補救科技缺失前,由人做最後的決策。當科技愈來愈強,確保科技必須為人服務,被好人所用,甚至扶助弱勢(人類),將成為人類文明的新挑戰。(責任編輯:黃韵庭)

【延伸閱讀】

►►2019 CWEF完整演講精華

「松子跟花生傻傻分不清?」台灣AI如何讓機器有「智慧視覺」
AI怎麼用才道德?有請達賴喇嘛弟子到MIT開課
被抓的駭客與抓人的警察,17年後合作賺資安財!

●更多內容,請見《天下雜誌》666期《2019,改變台灣的十大趨勢!未來,十路突圍

關鍵字:

好友人數

文章下載

PDF下載 付費閱讀
 

【新訂戶專屬】現在訂閱天下,12週只要$399