8.11.2020

9/5 糕講堂|異見的自由:對抗仇恨歧視言論的多元手段(已額滿)

糕講堂是哲學哲學雞蛋糕主辦的哲學講座,我們介紹有趣的哲學問題並促發思考,讓沒有哲學背景的人也能享受哲學的樂趣。

在《異見的自由》裡,普立茲獎得主路易斯(Anthony Lewis)耙梳美國憲法第一修正案的辯論歷史,重現言論權和其他權利的各種角力。在書裡,你可以看到兩百年來美國大法官如何激辯「造成立即傷害」、「教唆顛覆政府」、「毀損名譽」、「色情猥褻」、「令人不快與冒犯」各種原則。

除了上述,現代人也討論我們該不該有發表歧視言論和仇恨言論的自由。這些爭議難解之處,在於這類言論的傷害往往幽微和間接,以致於傳統用來畫定言論自由界線的「傷害原則」及其衍生原則較難處理。

在這次糕講堂,我們會先稍微介紹傳統討論言論自由的經典「傷害原則」脈絡,在理論上說明言論自由為何重要,接下來,我們會對歧視、仇恨言論的傷害給出一些分析,並討論在「法律禁制」之外,有哪些對抗這些言論的方式。

這門課不會介紹《異見的自由》主要內容,這門課會是一個概論,讓你概括了解相關理論基礎、言論種類和傷害種類的分析方法,以及關於應對方案的常見討論。透過這門課,我們希望提供一些理論背景,讓大家後續閱讀《異見的自由》時能看出更多有趣的東西,也希望讓大家握有好用的理論工具,能在自己感興趣的公共討論裡發揮想法,並抵抗歧視、仇恨言論的影響。

8.01.2020

AI 的道德思辨:責任、取代、不透明

最近在研究跟人工智能(AI)有關的議題,筆記一下目前的心得,主要介紹三個常見爭議。有興趣的人可以進一步讀SEP的〈Ethics of Artificial Intelligence and Robotics〉條目。

責任:對照人類


自駕車看起來很快就會普及,很多人關心自駕車出車禍誰要負責。我覺得這個問題不是問題:
  1. 法律可以規定,在預設情況下,製造商要負責。
  2. 製造商可以跟車主簽契約,說在特定情況下(改造或不當使用之類)車主要負責。
如果以上規定不會侵犯什麼重要權利,那誰負責任的問題就不會是問題。

就算是問題,可能也不會比現有的問題更難解決。

事實上,路上還沒有自駕車,我們就已經有很多責任歸屬的問題,像是「某起車禍是車主沒注意,還是ABS系統出問題?」ABS也仰賴微電腦計算即時數據來決定煞車頻率。你可以把「自駕」理解成比ABS更進階的運算系統,責任歸屬問題不會因為多了一個系統就從可以解決變成無法解決。

有些人可能會說,可是自駕車還有很多問題,像是如果必須在犧牲三個老人和犧牲三個小孩之間做選擇,要怎麼辦?

對,但是人開車也會有這種問題。為什麼一旦換成機器開車,這種問題就會變得特別重要?

我認為比較合理的回應,就是一旦換成機器開車,這種問題就會變成是社會應該預先做好選擇的問題。就像人要考駕照,AI開車之前也一定要經過審查,我們不可能讓「若有機會撞小孩,就撞小孩」的AI發動引擎上路。

然而若我們要審查自駕車AI,也一定會審查它在各種情況下會怎麼做,這不只是因為它可能會出車禍,也是因為社會必須掌握每台自駕車的動向,整體自駕車運行的效率才會成為可能。

目前來說,我認為關於AI責任的議題,一個思考方式在於「對照人類」。

AI可能有很多缺點,但只要表現得比人好,就有理由用。交通事故一直位居人類主要死因,如果AI上路能減少10%事故,而且沒有本文後述的歧視問題,那我們該問的或許是「為什麼該讓人類開車?」而不是「為什麼該讓機器開車?」

取代:對照過去


有些人認為AI會取代人類,因為我們可以預見許多「現在需要人類做的工作」在將來會由機器做。

這種擔憂有幾分合理,我認為是有趣的問題。綜觀歷史,每當新技術出現,人類就會白操心:
  • 古希臘人:人會寫字,就不用記東西,記憶會衰退。
  • 18世紀的歐洲人:蒸氣機發明了,大家要丟工作了。
  • 19世紀的美洲人:電話發明之後大家都會宅在家,社會會變得冷漠。
  • 1945年的紐約人:微電腦不可靠,「電梯操作員」操作的電梯才安全。
當然這並不是說新技術不會讓人失業,電話接線員、保齡球童、路燈點燈工...歷史上已經消失的工作應該比存在的工作還多。

然而,過去那些對於新技術的擔憂,多大程度是正確指向了那些後來真的消失了的工作?2013年ETC取代了臺灣的國道收費員,這消息出現前,引發多少人預見且擔憂?

擔憂是一種有認知意義的心理狀態,指向可能會在未來發生的某件你不喜歡的事情。「理論上」這種心理狀態的出現,代表有東西值得你擔憂,但不見得都是這樣。要知道自己現在的擔憂有多準確,你可以比較一下自己過去的類似擔憂有多準確,或者和自己類似的人類在過去的類似擔憂有多準確。

岔題一下,你可以在〈我們應該立法禁止你覺得噁心的事嗎?〉這篇文章看到一樣思考方式,只是主角從擔憂和丟工作換成噁心和社會崩解。

不透明


有些AI不透明,意思是說就連製造者也無法掌握這些AI的判斷規則。這裡的細節我不懂,總之跟類神經網路和機器學習有關係:工程師給AI資料,AI給判斷,工程師用正回饋和負回饋回應判斷,AI據此調整判斷規則,工程師可以觀察AI對哪些資料有哪些判斷,但很難把判斷規則給逆向工程出來。

AI的判斷規則不透明是個問題,因為這樣一來:
  1. AI比較難對人類說明自己如何做判斷。
  2. 人類比較難發現這些判斷是否內含偏見。
關於(1),有時候人類不但需要準確的判斷結果,還需要知道判斷背後的理由。比較直接的像是法律、醫學判斷。比較不直接的可能像是學校和公司是否錄取特定人的判斷,若個案抱怨為何他沒被錄取,你可能沒義務跟他說明,但若社會懷疑你在錄取規則上歧視特定族群,就是另一回事了。

關於(2),機器學習出來的結果有多好,仰賴當初餵給AI的資料有多好,如果資料偏頗,機器學得越好,結果就會越偏頗。

例如分享這篇文章的臉書討論串就有朋友提到,用於「選美」的AI給深色皮膚的人比較低的分數。又例如,過去Amazon嘗試用AI篩選求職者,結果發現AI大量篩去女性

AI本身不會有偏見,但機器學習訓練出來的AI會反映資料內含的偏見,而資料內含的偏見不見得會被人發現。

當然,先前的說法應該也可以適用在這:AI可能有很多缺點,但只要表現得比人好,就有理由用。如果AI歧視女性或特定族群,是因為生產機器學習資料的環境本來就歧視女性或特定族群,這並不代表AI表現得比人差。

在這我是認為可以正面看待:AI議題給我們一個機會審視社會上的歧視。Amazon把公司人力資料餵給AI,結果養出一個歧視女性求職者的AI,他們應該回頭審視自己的人力狀況和多元性程度,其他單位也一樣。(照前則報導,當時Amazon的管理階層有74%是男性)

看不見的問題很難解決,涉及歧視爭議的問題也很難解決。我在〈只剩梅克爾又怎樣?──歧視的證據與難題〉這篇文章討論了一些歧視辨認和證據的問題,我相信AI引發的歧視爭議也避不開這些問題。