8.01.2020

AI 的道德思辨:責任、取代、不透明

最近在研究跟人工智能(AI)有關的議題,筆記一下目前的心得,主要介紹三個常見爭議。有興趣的人可以進一步讀SEP的〈Ethics of Artificial Intelligence and Robotics〉條目。

責任:對照人類


自駕車看起來很快就會普及,很多人關心自駕車出車禍誰要負責。我覺得這個問題不是問題:
  1. 法律可以規定,在預設情況下,製造商要負責。
  2. 製造商可以跟車主簽契約,說在特定情況下(改造或不當使用之類)車主要負責。
如果以上規定不會侵犯什麼重要權利,那誰負責任的問題就不會是問題。

就算是問題,可能也不會比現有的問題更難解決。

事實上,路上還沒有自駕車,我們就已經有很多責任歸屬的問題,像是「某起車禍是車主沒注意,還是ABS系統出問題?」ABS也仰賴微電腦計算即時數據來決定煞車頻率。你可以把「自駕」理解成比ABS更進階的運算系統,責任歸屬問題不會因為多了一個系統就從可以解決變成無法解決。

有些人可能會說,可是自駕車還有很多問題,像是如果必須在犧牲三個老人和犧牲三個小孩之間做選擇,要怎麼辦?

對,但是人開車也會有這種問題。為什麼一旦換成機器開車,這種問題就會變得特別重要?

我認為比較合理的回應,就是一旦換成機器開車,這種問題就會變成是社會應該預先做好選擇的問題。就像人要考駕照,AI開車之前也一定要經過審查,我們不可能讓「若有機會撞小孩,就撞小孩」的AI發動引擎上路。

然而若我們要審查自駕車AI,也一定會審查它在各種情況下會怎麼做,這不只是因為它可能會出車禍,也是因為社會必須掌握每台自駕車的動向,整體自駕車運行的效率才會成為可能。

目前來說,我認為關於AI責任的議題,一個思考方式在於「對照人類」。

AI可能有很多缺點,但只要表現得比人好,就有理由用。交通事故一直位居人類主要死因,如果AI上路能減少10%事故,而且沒有本文後述的歧視問題,那我們該問的或許是「為什麼該讓人類開車?」而不是「為什麼該讓機器開車?」

取代:對照過去


有些人認為AI會取代人類,因為我們可以預見許多「現在需要人類做的工作」在將來會由機器做。

這種擔憂有幾分合理,我認為是有趣的問題。綜觀歷史,每當新技術出現,人類就會白操心:
  • 古希臘人:人會寫字,就不用記東西,記憶會衰退。
  • 18世紀的歐洲人:蒸氣機發明了,大家要丟工作了。
  • 19世紀的美洲人:電話發明之後大家都會宅在家,社會會變得冷漠。
  • 1945年的紐約人:微電腦不可靠,「電梯操作員」操作的電梯才安全。
當然這並不是說新技術不會讓人失業,電話接線員、保齡球童、路燈點燈工...歷史上已經消失的工作應該比存在的工作還多。

然而,過去那些對於新技術的擔憂,多大程度是正確指向了那些後來真的消失了的工作?2013年ETC取代了臺灣的國道收費員,這消息出現前,引發多少人預見且擔憂?

擔憂是一種有認知意義的心理狀態,指向可能會在未來發生的某件你不喜歡的事情。「理論上」這種心理狀態的出現,代表有東西值得你擔憂,但不見得都是這樣。要知道自己現在的擔憂有多準確,你可以比較一下自己過去的類似擔憂有多準確,或者和自己類似的人類在過去的類似擔憂有多準確。

岔題一下,你可以在〈我們應該立法禁止你覺得噁心的事嗎?〉這篇文章看到一樣思考方式,只是主角從擔憂和丟工作換成噁心和社會崩解。

不透明


有些AI不透明,意思是說就連製造者也無法掌握這些AI的判斷規則。這裡的細節我不懂,總之跟類神經網路和機器學習有關係:工程師給AI資料,AI給判斷,工程師用正回饋和負回饋回應判斷,AI據此調整判斷規則,工程師可以觀察AI對哪些資料有哪些判斷,但很難把判斷規則給逆向工程出來。

AI的判斷規則不透明是個問題,因為這樣一來:
  1. AI比較難對人類說明自己如何做判斷。
  2. 人類比較難發現這些判斷是否內含偏見。
關於(1),有時候人類不但需要準確的判斷結果,還需要知道判斷背後的理由。比較直接的像是法律、醫學判斷。比較不直接的可能像是學校和公司是否錄取特定人的判斷,若個案抱怨為何他沒被錄取,你可能沒義務跟他說明,但若社會懷疑你在錄取規則上歧視特定族群,就是另一回事了。

關於(2),機器學習出來的結果有多好,仰賴當初餵給AI的資料有多好,如果資料偏頗,機器學得越好,結果就會越偏頗。

例如分享這篇文章的臉書討論串就有朋友提到,用於「選美」的AI給深色皮膚的人比較低的分數。又例如,過去Amazon嘗試用AI篩選求職者,結果發現AI大量篩去女性

AI本身不會有偏見,但機器學習訓練出來的AI會反映資料內含的偏見,而資料內含的偏見不見得會被人發現。

當然,先前的說法應該也可以適用在這:AI可能有很多缺點,但只要表現得比人好,就有理由用。如果AI歧視女性或特定族群,是因為生產機器學習資料的環境本來就歧視女性或特定族群,這並不代表AI表現得比人差。

在這我是認為可以正面看待:AI議題給我們一個機會審視社會上的歧視。Amazon把公司人力資料餵給AI,結果養出一個歧視女性求職者的AI,他們應該回頭審視自己的人力狀況和多元性程度,其他單位也一樣。(照前則報導,當時Amazon的管理階層有74%是男性)

看不見的問題很難解決,涉及歧視爭議的問題也很難解決。我在〈只剩梅克爾又怎樣?──歧視的證據與難題〉這篇文章討論了一些歧視辨認和證據的問題,我相信AI引發的歧視爭議也避不開這些問題。

2 則留言:

  1. 身為在專業領域半隻腳踩過水的人,我有一些本質或者說內涵上的疑問,AI的定義有很多版本,以比較嚴格的標準檢視,其實那只是自動機,功能比較多不代表能有智慧
    其次關於演算法,用上不只一個演算法,有些演算法的不由數學理論推出,因此我們也不知道適用範圍有多廣;而有些演算法則基於機率統計的理論,說白話點就是,數據多能使正確率上升,但百分百就別想,預測未來跟估算未來事件的可能機率兩件事有很大差別
    再三,工程師要做的願景不是單一車次事件,通過物聯網車輛間的資訊互通,講的恐怖一點,大部分車開在哪我都知道,人在哪,或者沒連上網的物件也被物聯網捕捉住,在此背景下基本上,要撞車,三寶指數要破百,體能要夠好才能給計算機帶來驚喜
    最後,自駕車有被發現在路上偷跑(當然駕駛座上一定有人,純粹滿足法律需求),而會被發現的理由,人工智慧不足,變成人工智障,轉彎轉太慢被後面的車叭

    回覆刪除
  2. 如果,人工智能取代了人類,那樣,人類變被迫做一些永遠無犯錯的事,而同時,人類會變得很迷惑!
    我舉個例子: A人類 ,要由 H地方 去到P地方,如果過去的日子,A 會在途中 遇到 C人類,從而和 C 相熟,繼而交流!
    而,如由人工智能所指定的路線,而人工智能只以最快時間到達目的地,A和C,可能不會相識!
    而A 只過着 亳無 人類 邏輯思維 的 日常生活!而且改變全人類!

    回覆刪除