close

【文/盧沛樺】

AI能用來協尋失蹤兒童,能化身盲人的眼睛,卻也能化為惡意病毒打穿你,甚至取代你的工作。如潘朵拉盒子打開般的AI道德難題,該如何面對?

在AI(人工智慧)領域,有個經典的道德難題:當一台無人車無可避免地,只能選擇撞上老人或嬰兒時,你會取誰的性命?

在2016年,DeepMind研發的AlphaGo打敗韓國頂尖棋士李世乭之後,有關AI的道德難題增加了好多個。

難題一:從社交媒體加速假新聞散播、臉書個資外洩介入美國總統大選、在租屋、聘雇和貸款廣告上的種族歧視……,愈來愈多人擔心,演算法加重歧視,成了民主社會的毒瘤。

難題二:機器決策出事了,誰來負責?

難題三:AI取代人類工作,導致大規模失業。

難題四:AI成電腦駭客的新武器,加劇網路恐攻的威脅。

「在人類歷史上,從來沒有像此刻,對未來充滿這麼多的不確定性。科技明明一直在進步,卻愈來愈多人無法預測未來,」愛卡拉互動媒體共同創辦人暨執行長程世嘉形容。

這些難題,有如潘朵拉的盒子被打開,全球已無法視而不見,只能面對。

突圍1 好人不能無力防禦!

「好人一定要善用AI,因為壞人都在用AI了,」國際知名駭客、本土資安新創公司奧義智慧共同創辦人吳明蔚指出突圍之道。

吳明蔚形容,在資訊時代,資安是沒有煙硝的衝突,因為追蹤不易,所以隨時在發生,更加肆無忌憚。

網路攻擊在科技和AI進步下,電腦病毒早已不是人在寫,變成機器在寫。他描述病毒的產製模式是,一開始生出100隻病毒,經過市面上60家防毒軟體掃描,剩下5隻「漏網之毒」。壞人只要下參數、調數據,這5隻就能去欺負人了。

這使得資安已經成為資誠聯合會計師事務所最新「全球企業領袖調查」,全球CEO最擔憂的前五大威脅之一。

但讓吳明蔚興奮的是,過去有A I,但沒有數據和可靠的運算能力,也沒辦法落實想做的事,但現在好人、壞人都做得到了。所以,一定要擁抱科技。

突圍2 大廠自律,導入道德感

AI可以載舟,也可以覆舟,因此全球科技大廠也紛紛走上自律之路。

微軟成立人工智慧倫理道德委員會,確保自己做的是「負責任的研發」。這個委員會由微軟全球執行副總裁沈向洋和微軟二把手總裁史密斯(Brad Smith)主導,帶領部門的資深主管,確保公司內任何AI技術研究與開發,奉行六大原則:公平、可靠和安全、隱私與保障、包容、透明、負責。

導入道德感,微軟利用A I「做好事」。微軟大中華區首席法律顧問克蘭頓(Tim Cranton)舉例,微軟就用A I協尋失蹤兒童和保護受虐兒。

過去,微軟用人工做這件事,但承辦人員看一些受虐兒照片,往往情緒受創。

如今,透過AI,能短時間內大量分析,有助於保護需要幫助的兒童,也可以協尋失蹤兒童。「我們能透過影像DNA系統,由電腦分析孩童的長相,預估小孩長大成人後的可能長相,」克蘭頓解釋。

另一個廣為人知的應用,是一款手機app:「Seeing AI」。過去盲人要靠手杖和導盲磚,才能在外移動;去餐廳用餐,要靠朋友或店員念菜單,才有辦法點餐。

但Seeing AI化身盲人的眼睛,只要用手滑過智慧眼鏡的鏡架,眼鏡拍照後,運用影像辨識技術,馬上能告訴盲人周遭環境、菜單的內容,甚至是吃飯對象的表情。

在歐洲,哲學界開始思索,科技對個人和民主社會的衝擊。

突圍3 政府與教育系統必須介入

政治哲學及精神分析學家、現為法國國家倫理諮詢委員芙樂莉(Cynthia Fleury)主張,科技快速迭代,人類技能很快就跟不上時代,仰賴政府和教育系統積極介入。

「科技是可以為善的,特別是在民主政治,只要保有特定機制,讓公民能持續改進這套系統,科技將能帶來更大公共利益,」芙樂莉深具信心。

芙樂莉在法國積極倡議:要重視平等。她強調,面對AI衝擊,不只是解決數位落差而已。數位落差通常追求的是,不分城鄉,人人能夠上網。

但她進一步要求,政府應該確保的平等是,每個人都能利用科技工具,實踐生存意義:「科技一定要為他們帶來能力。」

其次,她認為,整個社會必須充分明白,科技不是中立的。科技是人創造的,人就有認知、情緒方面的偏差。

第三,這個社會必須確保,AI是促進人類自由,不是剝奪人類的選擇權。

芙樂莉認為,AI研發過程應保持公開透明:「我們應該訓練AI生產鏈的所有關係人,從工程師、設計師到消費者,都要理解一個產品背後牽涉的倫理,確保所有演算法都是公開透明的。」

文章轉自 : https://udn.com/news/story/6841/3645655

部落格文章每月更新。

其他連結:
 
如有任何問題、建議或回饋,歡迎以下留言給我,或來信 johngp009@gmail.com
喜歡的朋友,歡迎分享與訂閱!
arrow
arrow
    文章標籤
    AI 人工智慧
    全站熱搜

    Hans Cho 發表在 痞客邦 留言(0) 人氣()