12.14.2020

1/16 糕講堂|六個好用的思考技巧 X《斜槓思考》

糕講堂是哲學哲學雞蛋糕主辦的哲學講座,我們介紹有趣的哲學問題並促發思考,讓沒有哲學背景的人也能享受哲學的樂趣。

《斜槓思考》是美國幽默作家亞當斯(Scott Adams)的新作,哲學雞蛋糕腦闆朱家安從國小就開始看亞當斯的呆伯特(Dilbert)漫畫,超級喜歡,這次很快跟時報出版談了合作,來介紹這本書。

在《斜槓思考》裡,亞當斯談如何避免低效率的思考,訣竅在於注意各種不好的案例並且避開。亞當斯長期用blog、推特和直播參與公共討論,這讓他在《斜槓思考》裡舉的案例和歸納出來的建議都很實際,像是:

  • 舉證責任:要求人證明事情沒發生不合理,你不可能證明川普沒在替俄羅斯做事,所以舉證責任應該是反過來。
  • 舉例說明:如果某個想法、策略、方案有問題,一定有辦法舉例說明,反過來說,無法舉例卻堅持會有問題的人的意見可以先忽略。
  • 替代方案:某個方案有問題╱成本很高╱會導致傷害,不代表那個方案不該實施,要看其他方案有沒有更好。

《斜槓思考》腦闆跟先前介紹的《故事經濟學》都是在談後設的思考。《故事經濟學》教你思考別人的思考,注意故事散佈的模式;《斜槓思考》教你思考自己的思考,注意自己習慣決策的模式。

這次糕講堂,我們綜合《斜槓思考》的內容和腦闆的筆戰經驗,精選出六個好用的思考技巧,在課程裡跟大家分享,希望能讓大家都變成更有戰力,不是,更會思考的人 : )

12.04.2020

12/26 糕講堂|我如何從右派變成左派 X《善良的歧視主義者》

糕講堂是哲學哲學雞蛋糕主辦的哲學講座,我們介紹有趣的哲學問題並促發思考,讓沒有哲學背景的人也能享受哲學的樂趣。

你好,我是哲學雞蛋糕腦闆朱家安,如之前在臉書上的介紹,《善良的歧視主義者》是我這幾年看過最棒的歧視議題入門書,結構全面,說明清晰,入門該知道的概念裡面都有。在這次糕講堂,順著書裡介紹的各種概念,我想分享我是怎麼從右派變成左派。

在高中和大學階段,我的立場接近自由至上主義(Libertarianism),注重自由和言論自由,認為政府最好只需要維持秩序和溫飽,讓人們發揮自由選擇並為自己的選擇負責。當時我支持死刑反對文言文必修質疑動物權,並且認為歧視言論只是沒禮貌的言論,沒什麼大不了的。

到了今天,這些立場有的保留下來,有的已經改變,以常見的政治立場分類,我跟十年前一樣不保守,但比十年前「左」很多。在這場糕講堂裡,我會說明自己前後立場的差異,並試圖探索改變的原因。

我還在準備講座內容,不過我預想屆時應該會:

  • 說明我的前後兩種立場可以如何在政治哲學上分類,並佐以海德特(Jonathan Haidt)對自由╱保守派的分析。
  • 試圖說明讓我改變立場的主要理由,並佐以《善良的歧視主義者》當中介紹的一些概念,例如「特權」、「刻板印象威脅」。
  • 分享這種立場轉變讓我學到的一些事情。

最後,在這次糕講堂,如果參加者願意,我也歡迎大家分享自己立場改變和政治啟蒙的經驗。

11.20.2020

12/5 糕講堂|物化的七種樣貌

糕講堂是哲學哲學雞蛋糕主辦的哲學講座,我們介紹有趣的哲學問題並促發思考,讓沒有哲學背景的人也能享受哲學的樂趣。

《「色情就是不行!」這種想法真的不行》這本書以西方為主,介紹人類管制管制色情的歷史和龐雜因素,了解這些因素,你就會知道「管制色情」就像其他很多價值觀禁忌一樣只是一種工具,往往是用來實現其他目的。像是中世紀歐洲,淫亂對中下階級來說不是問題,只在上流階級是問題,因為只有上流階級的財產多到讓人有理由避免「血統混亂」造成的繼承紛爭。

書裡還有很多其他案例,讀過這些案例,就會知道要判斷色情禁制是否合理,得要往前追,去比較背後目的和人類自由,並思考替代方案。如果你對色情暴力、言論自由、創作分級等當代議題感興趣,書裡有很多可以對照的例子跟想法。

這次糕講堂,我們想來談談「物化」。怎樣算是物化女性?只要是色情的展現,都難免物化嗎?我們也有可能物化男性嗎?如果物化就是「把人當工具」,為什麼請人來修水電不算是物化水電工?

在這門課裡,我們會介紹當代哲學家納思邦(Martha Nussbaum)對物化的七種分析。大致上納思邦認為物化是多義概念,我們必須掌握此概念可能對應的各種意思,才能準確評估物化現象和討論物化。藉由這次課程,我們希望能提供大家一套有用的工具,來理解書中關於色情表現如何對女性造成傷害的討論,並對書中案例做出自己的判斷。

8.11.2020

9/5 糕講堂|異見的自由:對抗仇恨歧視言論的多元手段(已額滿)

糕講堂是哲學哲學雞蛋糕主辦的哲學講座,我們介紹有趣的哲學問題並促發思考,讓沒有哲學背景的人也能享受哲學的樂趣。

在《異見的自由》裡,普立茲獎得主路易斯(Anthony Lewis)耙梳美國憲法第一修正案的辯論歷史,重現言論權和其他權利的各種角力。在書裡,你可以看到兩百年來美國大法官如何激辯「造成立即傷害」、「教唆顛覆政府」、「毀損名譽」、「色情猥褻」、「令人不快與冒犯」各種原則。

除了上述,現代人也討論我們該不該有發表歧視言論和仇恨言論的自由。這些爭議難解之處,在於這類言論的傷害往往幽微和間接,以致於傳統用來畫定言論自由界線的「傷害原則」及其衍生原則較難處理。

在這次糕講堂,我們會先稍微介紹傳統討論言論自由的經典「傷害原則」脈絡,在理論上說明言論自由為何重要,接下來,我們會對歧視、仇恨言論的傷害給出一些分析,並討論在「法律禁制」之外,有哪些對抗這些言論的方式。

這門課不會介紹《異見的自由》主要內容,這門課會是一個概論,讓你概括了解相關理論基礎、言論種類和傷害種類的分析方法,以及關於應對方案的常見討論。透過這門課,我們希望提供一些理論背景,讓大家後續閱讀《異見的自由》時能看出更多有趣的東西,也希望讓大家握有好用的理論工具,能在自己感興趣的公共討論裡發揮想法,並抵抗歧視、仇恨言論的影響。

8.01.2020

AI 的道德思辨:責任、取代、不透明

最近在研究跟人工智能(AI)有關的議題,筆記一下目前的心得,主要介紹三個常見爭議。有興趣的人可以進一步讀SEP的〈Ethics of Artificial Intelligence and Robotics〉條目。

責任:對照人類


自駕車看起來很快就會普及,很多人關心自駕車出車禍誰要負責。我覺得這個問題不是問題:
  1. 法律可以規定,在預設情況下,製造商要負責。
  2. 製造商可以跟車主簽契約,說在特定情況下(改造或不當使用之類)車主要負責。
如果以上規定不會侵犯什麼重要權利,那誰負責任的問題就不會是問題。

就算是問題,可能也不會比現有的問題更難解決。

事實上,路上還沒有自駕車,我們就已經有很多責任歸屬的問題,像是「某起車禍是車主沒注意,還是ABS系統出問題?」ABS也仰賴微電腦計算即時數據來決定煞車頻率。你可以把「自駕」理解成比ABS更進階的運算系統,責任歸屬問題不會因為多了一個系統就從可以解決變成無法解決。

有些人可能會說,可是自駕車還有很多問題,像是如果必須在犧牲三個老人和犧牲三個小孩之間做選擇,要怎麼辦?

對,但是人開車也會有這種問題。為什麼一旦換成機器開車,這種問題就會變得特別重要?

我認為比較合理的回應,就是一旦換成機器開車,這種問題就會變成是社會應該預先做好選擇的問題。就像人要考駕照,AI開車之前也一定要經過審查,我們不可能讓「若有機會撞小孩,就撞小孩」的AI發動引擎上路。

然而若我們要審查自駕車AI,也一定會審查它在各種情況下會怎麼做,這不只是因為它可能會出車禍,也是因為社會必須掌握每台自駕車的動向,整體自駕車運行的效率才會成為可能。

目前來說,我認為關於AI責任的議題,一個思考方式在於「對照人類」。

AI可能有很多缺點,但只要表現得比人好,就有理由用。交通事故一直位居人類主要死因,如果AI上路能減少10%事故,而且沒有本文後述的歧視問題,那我們該問的或許是「為什麼該讓人類開車?」而不是「為什麼該讓機器開車?」

取代:對照過去


有些人認為AI會取代人類,因為我們可以預見許多「現在需要人類做的工作」在將來會由機器做。

這種擔憂有幾分合理,我認為是有趣的問題。綜觀歷史,每當新技術出現,人類就會白操心:
  • 古希臘人:人會寫字,就不用記東西,記憶會衰退。
  • 18世紀的歐洲人:蒸氣機發明了,大家要丟工作了。
  • 19世紀的美洲人:電話發明之後大家都會宅在家,社會會變得冷漠。
  • 1945年的紐約人:微電腦不可靠,「電梯操作員」操作的電梯才安全。
當然這並不是說新技術不會讓人失業,電話接線員、保齡球童、路燈點燈工...歷史上已經消失的工作應該比存在的工作還多。

然而,過去那些對於新技術的擔憂,多大程度是正確指向了那些後來真的消失了的工作?2013年ETC取代了臺灣的國道收費員,這消息出現前,引發多少人預見且擔憂?

擔憂是一種有認知意義的心理狀態,指向可能會在未來發生的某件你不喜歡的事情。「理論上」這種心理狀態的出現,代表有東西值得你擔憂,但不見得都是這樣。要知道自己現在的擔憂有多準確,你可以比較一下自己過去的類似擔憂有多準確,或者和自己類似的人類在過去的類似擔憂有多準確。

岔題一下,你可以在〈我們應該立法禁止你覺得噁心的事嗎?〉這篇文章看到一樣思考方式,只是主角從擔憂和丟工作換成噁心和社會崩解。

不透明


有些AI不透明,意思是說就連製造者也無法掌握這些AI的判斷規則。這裡的細節我不懂,總之跟類神經網路和機器學習有關係:工程師給AI資料,AI給判斷,工程師用正回饋和負回饋回應判斷,AI據此調整判斷規則,工程師可以觀察AI對哪些資料有哪些判斷,但很難把判斷規則給逆向工程出來。

AI的判斷規則不透明是個問題,因為這樣一來:
  1. AI比較難對人類說明自己如何做判斷。
  2. 人類比較難發現這些判斷是否內含偏見。
關於(1),有時候人類不但需要準確的判斷結果,還需要知道判斷背後的理由。比較直接的像是法律、醫學判斷。比較不直接的可能像是學校和公司是否錄取特定人的判斷,若個案抱怨為何他沒被錄取,你可能沒義務跟他說明,但若社會懷疑你在錄取規則上歧視特定族群,就是另一回事了。

關於(2),機器學習出來的結果有多好,仰賴當初餵給AI的資料有多好,如果資料偏頗,機器學得越好,結果就會越偏頗。

例如分享這篇文章的臉書討論串就有朋友提到,用於「選美」的AI給深色皮膚的人比較低的分數。又例如,過去Amazon嘗試用AI篩選求職者,結果發現AI大量篩去女性

AI本身不會有偏見,但機器學習訓練出來的AI會反映資料內含的偏見,而資料內含的偏見不見得會被人發現。

當然,先前的說法應該也可以適用在這:AI可能有很多缺點,但只要表現得比人好,就有理由用。如果AI歧視女性或特定族群,是因為生產機器學習資料的環境本來就歧視女性或特定族群,這並不代表AI表現得比人差。

在這我是認為可以正面看待:AI議題給我們一個機會審視社會上的歧視。Amazon把公司人力資料餵給AI,結果養出一個歧視女性求職者的AI,他們應該回頭審視自己的人力狀況和多元性程度,其他單位也一樣。(照前則報導,當時Amazon的管理階層有74%是男性)

看不見的問題很難解決,涉及歧視爭議的問題也很難解決。我在〈只剩梅克爾又怎樣?──歧視的證據與難題〉這篇文章討論了一些歧視辨認和證據的問題,我相信AI引發的歧視爭議也避不開這些問題。

7.28.2020

上了哲學課之後,這些大學生更少吃肉了


一則新的研究發表在《Cognition》,研究者找了 UC Riverside 四門課的大學生共一千一百多名,分成兩組,一組讀一篇主張吃素才道德的哲學論文,另一組讀一篇討論慈善行為的哲學論文,兩組都安排讀後的小組討論,並且推薦他們可以去看相關的網路影片。
研究者追蹤學生上課幾週之後在校園中的點數卡消費(!),發現若以美金$4.99以上的食物來比較,「吃素」組的肉食消費從上課之前的 52% 減少到 45%,「慈善」組則沒有影響。同樣方向的差異也反映在事後的道德立場問卷調查上。

這個研究是三人合作 Eric Schwitzgebel、Brad Cokelet 和 Peter Singer。Singer 倡議動物權和效益主義,是2005年《Time》的全球百大影響力人物。Schwitzgebel 出名於他的一系列「道德哲學才不會讓人變道德呢!」研究,他觀察自己哲學同儕的生活表現,發現以道德哲學為專長的人,比起做形上學、知識論的人,在一些「一般認為是道德的行為」表現上沒有更好,這些行為包括:
  • 捐款給慈善單位
  • 回覆學生求助的電子郵件
  • 捐血
  • 捐器官
  • 不在演講會場嘰嘰喳喳
  • 參加會議老實交報名費
  • 不摔門
  • 不會借圖書館的書不還
當然,Schwitzgebel 觀察的道德哲學家各自有道德立場,在新的研究裡,給實驗組學生讀的則是「支持吃素」的論文,很有針對性。Schwitzgebel 等人在論文裡表示目前還看不出是什麼細節導致學生改變消費行為。而針對因果關係,可以問的問題也很多,像是這種改變能持續多久、能否期待在其他道德議題上也有效等等。

不過至少有兩件事可以確定:
  1. 如果你在 UC Riverside 用點數卡消費,老師查得到你吃了些什麼。
  2. 那篇主張吃素才道德的哲學論文,作者應該相當得意。
目前得要學術單位權限才能下載 Schwitzgebel 等人的論文(若誰有剛好有 .pdf 檔案,歡迎跟我分享),你可以在《Daily Nous》的報導和 Schwitzgebel 去年的網誌找到更多細節。