最近在研究跟人工智能(AI)有關的議題,筆記一下目前的心得,主要介紹三個常見爭議。有興趣的人可以進一步讀SEP的〈Ethics of Artificial Intelligence and Robotics〉條目。責任:對照人類
自駕車看起來很快就會普及,很多人關心自駕車出車禍誰要負責。我覺得這個問題不是問題:
- 法律可以規定,在預設情況下,製造商要負責。
- 製造商可以跟車主簽契約,說在特定情況下(改造或不當使用之類)車主要負責。
如果以上規定不會侵犯什麼重要權利,那誰負責任的問題就不會是問題。
就算是問題,可能也不會比現有的問題更難解決。
事實上,路上還沒有自駕車,我們就已經有很多責任歸屬的問題,像是「某起車禍是車主沒注意,還是ABS系統出問題?」ABS也仰賴微電腦計算即時數據來決定煞車頻率。你可以把「自駕」理解成比ABS更進階的運算系統,責任歸屬問題不會因為多了一個系統就從可以解決變成無法解決。
有些人可能會說,可是自駕車還有很多問題,像是如果必須在犧牲三個老人和犧牲三個小孩之間做選擇,要怎麼辦?
對,但是人開車也會有這種問題。為什麼一旦換成機器開車,這種問題就會變得特別重要?
我認為比較合理的回應,就是一旦換成機器開車,這種問題就會變成是社會應該預先做好選擇的問題。就像人要考駕照,AI開車之前也一定要經過審查,我們不可能讓「若有機會撞小孩,就撞小孩」的AI發動引擎上路。
然而若我們要審查自駕車AI,也一定會審查它在各種情況下會怎麼做,這不只是因為它可能會出車禍,也是因為社會必須掌握每台自駕車的動向,整體自駕車運行的效率才會成為可能。
目前來說,我認為關於AI責任的議題,一個思考方式在於「對照人類」。
AI可能有很多缺點,但只要表現得比人好,就有理由用。交通事故一直位居人類主要死因,如果AI上路能減少10%事故,而且沒有本文後述的歧視問題,那我們該問的或許是「為什麼該讓人類開車?」而不是「為什麼該讓機器開車?」
取代:對照過去
有些人認為AI會取代人類,因為我們可以預見許多「現在需要人類做的工作」在將來會由機器做。
這種擔憂有幾分合理,我認為是有趣的問題。綜觀歷史,每當新技術出現,人類就會白操心:
- 古希臘人:人會寫字,就不用記東西,記憶會衰退。
- 18世紀的歐洲人:蒸氣機發明了,大家要丟工作了。
- 19世紀的美洲人:電話發明之後大家都會宅在家,社會會變得冷漠。
- 1945年的紐約人:微電腦不可靠,「電梯操作員」操作的電梯才安全。
當然這並不是說新技術不會讓人失業,電話接線員、保齡球童、路燈點燈工...歷史上已經消失的工作應該比存在的工作還多。
然而,過去那些對於新技術的擔憂,多大程度是正確指向了那些後來真的消失了的工作?2013年ETC取代了臺灣的國道收費員,這消息出現前,引發多少人預見且擔憂?
擔憂是一種有認知意義的心理狀態,指向可能會在未來發生的某件你不喜歡的事情。「理論上」這種心理狀態的出現,代表有東西值得你擔憂,但不見得都是這樣。要知道自己現在的擔憂有多準確,你可以比較一下自己過去的類似擔憂有多準確,或者和自己類似的人類在過去的類似擔憂有多準確。
不透明
有些AI不透明,意思是說就連製造者也無法掌握這些AI的判斷規則。這裡的細節我不懂,總之跟類神經網路和機器學習有關係:工程師給AI資料,AI給判斷,工程師用正回饋和負回饋回應判斷,AI據此調整判斷規則,工程師可以觀察AI對哪些資料有哪些判斷,但很難把判斷規則給逆向工程出來。
AI的判斷規則不透明是個問題,因為這樣一來:
- AI比較難對人類說明自己如何做判斷。
- 人類比較難發現這些判斷是否內含偏見。
關於(1),有時候人類不但需要準確的判斷結果,還需要知道判斷背後的理由。比較直接的像是法律、醫學判斷。比較不直接的可能像是學校和公司是否錄取特定人的判斷,若個案抱怨為何他沒被錄取,你可能沒義務跟他說明,但若社會懷疑你在錄取規則上歧視特定族群,就是另一回事了。
關於(2),機器學習出來的結果有多好,仰賴當初餵給AI的資料有多好,如果資料偏頗,機器學得越好,結果就會越偏頗。
AI本身不會有偏見,但機器學習訓練出來的AI會反映資料內含的偏見,而資料內含的偏見不見得會被人發現。
當然,先前的說法應該也可以適用在這:AI可能有很多缺點,但只要表現得比人好,就有理由用。如果AI歧視女性或特定族群,是因為生產機器學習資料的環境本來就歧視女性或特定族群,這並不代表AI表現得比人差。
在這我是認為可以正面看待:AI議題給我們一個機會審視社會上的歧視。Amazon把公司人力資料餵給AI,結果養出一個歧視女性求職者的AI,他們應該回頭審視自己的人力狀況和多元性程度,其他單位也一樣。(照前則報導,當時Amazon的管理階層有74%是男性)