cwlogo

切換側邊選單 天下全閱讀 切換搜尋選單
切換會員選單

AI怎麼用才道德?有請達賴喇嘛弟子到MIT開課

精華簡文

AI怎麼用才道德?有請達賴喇嘛弟子到MIT開課

集物理、哲學、宗教背景於一身的達賴弟子丹增.普亞達西(Tenzin Priyadarshi)強調,若AI使用是建構在有偏見的演算法、數據上,將會是大災難。 圖片來源:黃亦筠

瀏覽數

5263

AI怎麼用才道德?有請達賴喇嘛弟子到MIT開課

Web Only

3年前,一襲紅衣袈裟的他,加入MIT媒體實驗室,啟動科技道德專案。這位4年多前,就預言臉書將遭反噬的仁波切,為何加入頂尖科技研究室?他又如何思考科技與道德的疆界?

全球宗教領袖達賴喇嘛,與美國頂尖科技研究所——MIT麻省理工學院媒體實驗室,有什麼交集?

這不是腦筋急轉彎,而是真有其人。一位集物理、哲學、宗教背景於一身的達賴弟子,丹增.普亞達西(Tenzin Priyadarshi)。

不到40歲的普亞達西,原本就是2009年成立MIT達賴喇嘛倫理與價值觀研究中心主任,在正統教授知識技能的校園,推動「價值觀領導力」。

「從小學到大學,學校教育只重視技能,完全沒有強調價值觀的重要,這是政界、商界持續貪腐的理由,」他認為。

2015年,MIT媒體實驗室主持人伊藤穰一登門拜訪,邀請普亞達西參與他與LinkedIn創辦人霍夫曼合組的AI基金,並且主持一項全新專案,探索科技與道德。

普亞達西一襲紅衣袈裟、紅鞋的身影,開始出現在各大AI實驗室、甚至坎城廣告獎會場,與科學家、廣告人思辯,如何因應以人工智慧為首的科技,引發的道德挑戰。

一言難盡的人生

與普亞達西約在以新潮設計著稱的信義區飯店採訪,也是他落腳居住的地方。問他不覺得吵?「不會啊!嫌吵的人,一定沒去過MIT大學部教室,」這位10歲起,在廟裡住了7年的出家人,回應令人會心一笑。

仁波切跨界科技,一如普亞達西的人生般,一言難盡。

出身在印度婆羅門教家庭,普亞達西的父親是印度所得稅局局長,在種姓制度嚴明的印度社會,屬於上流階層。於《袈裟背後:藏傳佛教僧侶的科學思想》一書中,說到自己的皈依過程。

雖然一開始信奉印度教,6歲起,他就會看到一些影像與夢境。隨著夢境愈來愈頻繁,10歲那一年,他從寄宿學校出走。當時,他口袋裡只有5塊美元,搭車到了當年釋迦牟尼佛弘法的王舍城,找到夢裡的寺廟,決定修習佛教。

跟其餘出家人不同,普亞達西的父親雖然同意他出家學佛,但條件是不能放棄學校教育。於是從10歲開始,他每天早上4點起床,打坐、早課念完,8點就得背著書包去上學。學校3點下課,他得趕回廟裡,開始做晚課,晚課做完,還得寫學校作業,常常10點多才能上床睡覺。

最後,他在達賴喇嘛門下,受戒剃度。但因為這樣的雙軌教育,他也對數學、物理、電腦感到興趣。17歲,他決定到美國雪城大學唸現代物理,他的同學很多去了華爾街做金融工程。他轉學到哈佛念哲學。同時間,也完成印度佛教大學學位。2001年畢業,他落腳MIT,成為麻省理工學院第一位佛教導師。

問普亞達西什麼是目前AI領域,最普遍的倫理問題?

「太多了,」他說。大從國家層次,現行的法規能不能有效治理使用AI;企業採用AI,勞工失業的社會成本,誰來負責;運用AI造成的公平競爭問題等等。

從道德哲學層次,「演算法是不是問了一個對的、不帶偏見的問題?什麼樣的演算法是『對』的?」他舉例。

什麼樣的演算法是對的?

普亞達西認為,AI靠程式,一旦問錯了命題,程式就會寫入偏見。所以工程師必須經過一定的訓練,意識到自己的程式碼,會讓人產生偏見。更有甚者,工程師可以有自覺地,研發新科技來解決偏見問題。

譬如MIT媒體實驗室正在研發的「鏡頭」(lenses)。MIT研發中的鏡頭,會針對同一組數據,用不同的視角去分析,有如照相機、顯微鏡換鏡頭一般。這個工具希望透過移動視角,能解決固定視角產生的偏見。

除了程式本身,普亞達西分析,偏見的另一個來源是數據。AI需要大數據訓練,但數據可能是帶著偏見蒐集來的,因為數據不乾淨,結果就有偏見。如果用有偏見的數據訓練AI,在用結果來做決策,就可能是大災難。

他舉例,運用AI的確可以很快得出一個結論:某個地區、某種特質的人容易犯罪。問題是,AI的結論是靠著數據累積訓練出來的,機器學習常常用的是20年累積的數據。但如果該區域這一、兩年做了社區重建,已經有了很大的改變,這些最新的變化,不見得會被機器讀到。用舊數據替特定區域的人貼標籤,就是一種偏見。

「中國現在用AI來抓犯人,用得不好,就可能是大災難,」他提醒。

該用AI抓犯人嗎?

「大家必須有共通社會規範,社會會一直演化、變動,沒有任何結論是固定不會改變的,」普亞達西提醒。

使用AI的人,尤其是律師、檢察官、調查官不能光靠電腦的計算就做結論,甚至改變一個人的人生。「專業人士不能說,這不是我的錯,這是AI算出來的,不是我的責任,」他說。

反之,專業人士必須依舊遵守道德標準,要認知道電腦依據的是過去的資料,所有的事都是可能改變的。尤其是會影響人一生的決定(如:假釋與否),專業者不能放棄自己做調查、分析,如此,偏誤的影響才會比較溫和,可以保護我們的社會。

不同於部份宗教界人士反對使用科技。普亞達西認為,現在才想讓時光倒流,已經太遲了。科技時代的道德倫理,不是斷然地說,什麼能做,什麼不能做。比較建設性的做法是,在發展科技時,能將追求人類福祉的目標擺入,讓道德成為科技運用的最適疆界(ethics as optimization)。

他認為,在大數據的時代,廣告公司可以蒐集人所有的行為,比每個人都更了解自己,業者的關鍵問題早已不是「科技做不做得到」,而是「科技該用在哪裡」。

讓倫理決定科技的最適疆界

舉例來說,演算法根據過去的瀏覽與購買紀錄,不斷推薦藍色喀什米爾毛衣給消費者,最多只會讓人每天都穿一樣顏色的衣服而已。但如果是個酒癮者,我們還該縱容演算法,不斷推播威士忌、伏特加酒的廣告,鼓勵消費嗎?

「如果要以人類福祉作成本,去創造商品銷售,就不是該做的事,」他曾在坎城廣告節,對全球頂尖廣告從業人員說。

運用科技謀利,不該以人類福祉做成本,也要考慮對社會的影響。普亞達西在MIT大學部開的課是「同理心」。他認為,缺乏同理心是當代社會嚴重的公衛疾病。

4年多前,他開始呼籲,臉書的演算法,會使同理心缺乏的問題更加嚴重。

普亞達西強調,臉書的創造者應該不是刻意要讓用戶活在同溫層裡,但科技演算法讓事情自然而然變得如此。因為臉書的演算法是根據自己興趣聚合,不考慮公眾與社會的需求,訊息迭加的結果,偏激的聲音就會彼此加強。

社群軟體改變人類與社會、世界連結的方式,吸收資訊的方法。「假新聞只是真實問題的一種症狀,」他分析,要解決假新聞的問題,臉書的演算法必須從社會道德的層面加入一些參數,打破純粹靠同溫層來理解社會、吸收資訊。(責任編輯:賴品潔)

關鍵字:

好友人數

文章下載

PDF下載 付費閱讀
 

【立即訂閱】深度觀點不間斷,每天不到7元