大數據的陰暗面 — 談演算法的社會監理
李宣緯博士 美國內布拉斯加州大學社會系博士後研究員、FinTech Taiwan 創始會員
或許不容易想像,抽象的數學方程式和電晶體的一開一關這種客觀、精準又不帶情緒的心智與物理操作,可以大幅度衝擊人類社會的公平性。
演算法早已滲入人類生活的各個層面。我們如何搜尋資訊、看得到怎樣的網路訊息、被怎樣的廣告盯上,或用怎樣的價格買到保險、負擔多少利息支付房貸,乃至於工作上誰被錄取、誰被解雇,再再無法脫離演算法的控制。近年來熱門的大數據,更助推了這場數位世界與人類社會的緊密融合。依靠不斷出現的模式和關聯性,各種資訊被用來預測人類行為,聰明有資源的人得到洞見,企業得到更優渥的利潤,大數據遂成為顯學。然而建構在間接證據上的判斷、各種假設的交互推論、難以追蹤的邏輯,這過於美好的一切會沒有代價嗎?
在新書”毀滅性數學武器 (Weapons of Math Destruction)”
中,作者
Cathy O’Neil 提到演算法在各領域中作為最佳化工具所造成的社會問題。身為數學家與資料科學家,O’Neil 認為演算法不過是人類意識的載體,雖然只是中性的操作步驟,使用在不同情境卻有不同風險。複雜的取捨過程中經常有人權益受到損害,
但演算法的擁有者卻往往以數學的客觀和權威性作為面對質疑者的擋箭牌。縱使人類在被這種機器智慧包圍前,社會上不乏各種不平等。演算法難以理解的模糊以及所造成影響的全面性,卻是人類未曾經歷過的挑戰。
書中以美國教師評鑑制度為例,為了篩選出績效不佳的教師以提升教學品質,雖然仍有綜合其他考量,中小學教師被以演算法為基礎的評鑑制度評分。第一代的評鑑制度與學生標準化測驗的成績掛勾,但因為如此變相懲罰貧窮社區的教師而被改良。第二代的評鑑制度被稱為價值附加模型,計算學生的”預期”成績和實際成績差異,教師因為學生表現超出預期而得到獎賞,反之遭到懲罰。看似合理的機制,實則仍然充滿問題。首先是如何決定學生的預期成績,綜合全國的統計數據再經過某些專家計算的公式真的適用於某個社區的班級嗎?再者在平均25個人的小班級,各種結果都充滿雜訊和不確定性。預測和實際成績都是隨機變數,搭配取樣的小樣本,教師的評鑑成績有很大的波動。有老師用同樣的教學方式連續兩年可以一年績優卻一年不及格,更有一些教師在這個制度下被解雇。作者想研究評鑑機制的演算法,卻以機密為由被拒。面對演算法的未知,教師得不到反饋,不知道如何改進,成為制度下的受害者。
同樣是來自書中的例子,演算法被廣泛運用於包含預防犯罪、累犯審查等刑事正義上。警方擁有不精準的人臉辨識系統和資料庫,在一些地區過度使用警力造成當地居民與警方的緊張,近期
”黑人的命也是命 (Black Lives Matter)”
抗爭或多或少與這種執法過當有關。以大麻使用為例,白人和黑人的使用比例相差不大,黑人卻有高達十倍於白人的機率因持有大麻被逮捕。演算法擅長在過去經驗中發現模式並強化,警方在某些社區內加強取締,發現了更多非暴力犯罪的案件,進而更加強取締,演算法自我增強機制的執法結果,最後卻造成讓人訝異的不平等。另外判斷罪犯累犯機率的計算方式,也被隱藏在演算法的黑盒子裡。量表中存在高中是否輟學、是否住在高犯罪率的社區、是否有家人在監獄等問題,
無意外的,如果在上述問題中回答是,罪犯將在監獄中待上更多時間。人們因為沒做過的事而受懲罰,受害最深的往往是最弱勢的族群,他們連理解自己被什麼樣的機制衡量的機會也沒有。
現代社會中媒體、廣告商互相分享交換消費者資訊甚至隱私,人們被各種機制評分和預測,多數時我們卻毫不知情,更遑論發現被歧視的可能。然而最近這種質疑演算法的聲音和團體也開始出現。麻省理工學院的學生Joy Buolamwini
因為身為非洲裔,無法與許多臉部辨識的人工智慧互動,深深體認演算法的不平等。她成立了”演算法正義聯盟 (The
Algorithm Justice League)”,旨在發現各種演算法的盲點與系統性偏誤,追求在演算法影響下更公平的社會。
面對這種科技劇變,速度太快、動能太大,類似物理世界中的亂流,人類歷史也充滿許多不連續的變化和調整。社會往往在刺激下被迫迅速做出反應,重大轉彎的政府決策也不罕見。處理演算法偏誤沒有萬靈丹,多管齊下的解決方法卻是必然。首先必須加強對演算法的風險認知,人們需要有它們可以被質疑的勇氣和環境。從源頭開始,設計演算法的資料科學家組成必須追求多元,減少偏誤的可能,同時企業內部應該加強審查,甚至如同微軟般成立人工智慧倫理委員會。社會可以提供第三方認證機構,縱使在程式碼因商業機密不開源的情況下,對演算法進行大量不同情境的統計測試,提升透明度,並公布它們的種種特性與風險。政府作為社會個體的保護者,更有責任理解並管制演算法。或許未來在演算法的影響更深更廣後,政府可以以類似成立食品藥物監督管制局的精神,成立演算法與人工智慧監督管制局,審查各種程式並保護人民。然而在此之前,演算法造成的差別待遇已經與現今法律產生太多碰撞,立法與執法者必須加速處理回應。
一切終將回歸人類如何理解平等這種價值。長久以來社會學家持續探討在歷史變遷中不同族群因為哪些原因受到不合理對待或被制度化的歧視。該如何在例如追求精準和公平等種種價值衝突中取捨妥協?什麼是社會作為一個整體共同追求的原則?怎樣才算達到合理分配的正義?商業利益加上複雜的數理邏輯,剝奪了人們的討論空間,演算法正在逐漸侵蝕社會正義的基礎,受害最深的卻是一個個最弱勢的渺小個體。我們不該把道德難題外包給演算法,並期待它們提供神奇的解決方案。演算法只是人性的一面鏡子,人類有多少種偏見,演算法就能有多少偏見,甚至加深擴大這些不公義的影響程度。我們需要一個涵蓋個人、企業、社會、國家全面性監理演算法的反饋機制。
U cool!
回覆刪除Man