在台灣,AI如日中天。如同以往的生技,奈米等等。如果產品沒有冠上AI兩字,代表不夠水準。研究計畫如果沒有加上AI兩字,代表不夠先進。然而許多研究人員,並沒有選修過AI的完整課程,對AI內涵也沒有深入了解。只是使用一些演算法,代入數據,得到結果,然後自我做出解釋,就可成為AI專家。
那麼AI是萬能嗎?首先要從其輸入數據開始,使用的數據不正確或是不完備,就產生不正確的結果。第二點在於是否採用獨立的數據進行驗證,而且這些獨立數據也必須準確與正確。
盲目相信AI,而缺乏驗證,其結果就以這兩篇論文加以顯示。在〝越扶越貧的方法〞此篇文章,顯示錯誤演算對人權的傷害。Google開發預測武漢肺炎感染人數的人工智慧,結果計算失準。
AI已經在許多領域發揮功能,但也出現許多失敗個案。眾多的AI演算是否正確?最確實的判別方式即是獨立驗證而不是盲從。
附錄I.
計算失準!日本確診數打破AI預期
2021年1月8日
週五
https://tw.news.yahoo.com/%E8%A8%88%E7%AE%97%E5%A4%B1%E6%BA%96-%E6%97%A5%E6%9C%AC%E7%A2%BA%E8%A8%BA%E6%95%B8%E6%89%93%E7%A0%B4ai%E9%A0%90%E6%9C%9F-%E7%B6%B2%E5%8F%8B%E9%85%B8-google%E6%89%8B%E4%B8%8B%E7%95%99%E6%83%85-065516762.html
日本近來疫情嚴峻,使得政府再度對於部分地區發布「緊急事態宣言」,希望能緩止疫情擴散。然而日本新冠肺炎的疫情變化如此劇烈,就連AI人工智慧的預測,都無法料想得到。
美國Google於去年開發出可以算出未來的疫情感染人數的人工智慧(AI),並於2020年11月正式在日本啟用,預測日本的疫情走向。由於近來日本疫情快速升溫,Google便預測東京在1月14日時將來到疫情高峰,預計當天光是東京都的新增確診病例可能會有4806人,全國新增確診病例恐達8984人。
然而即使已經測出這個數字,Google卻顯然還是低估了疫情在日本的擴散速度。以1月7日為例,Google預測當天全日本會有6132人確診,東京則占1854人。然而日本在1月7日公布的數字,卻是全國有7571人確診,東京則飆破兩千大關來到2447人。也就是說往後的日本,確診數很可能遠比預測來的嚴重。
附錄II.愈扶愈貧的方法:AI
演算法
2020年12月28日 BY BILLY
TONG
https://www.cup.com.hk/2020/12/28/algorithms-poverty-trap/
踏入數碼年代,網絡經濟看來是大勢所趨,近年各地政府極力推廣電子支付,市民的生活與互聯網關係日深。可是,網絡經濟其實暗藏很多陷阱,「麻省理工科技評論」的專題報道就警告,一些
AI 演算法正在製造貧窮,影響低收入家庭獲得貸款和政府補助的機會。
不少私人企業,例如銀行、信貸機構、租務中介,甚至人力資源公司,過去數十年一直都有自己的信用評分系統,以評估顧客或調查對象的信用度,從而相應調整所提供的服務。與過往不同,很多機構都以
AI
演算法來取代人手,大大增強數據處理能力。這些機構會從各種網上途徑收集數據,例如公共紀錄、社交媒體、網上搜尋紀錄和銀行交易情況,以此作綜合評估。
這些演算法,也變相決定了人們會獲得甚麼水平的醫療和教育服務、可否買到車輛、能否獲批樓宇貸款、能否取得某些工作機會等。一個人若果被系統判定為信用破產,就難以挽救。更可怕的是,私人企業甚少公開這些方程式,人們無從得知信用評分的基礎,有機會不自覺墮入信貸陷阱,而很多時最受影響的,正正是中低收入階層,因為他們往往最需要財政資源。
在
2000
年代後,美國政府也引入演算法技術來提升社福制度的效率。有意見認為,在疫情期間,申領失業救濟的個案急升,有關部門難以應付,造成延誤,若果加快演算法改革,往後就能更快更可靠地處理申請。可是政府的採購過程缺透明度,難以被問責,即使演算過程出錯,受害人也時常被蒙在鼓裡。2013
到
15 年,密芝根州政府就錯誤把 3.4
萬宗失業救濟申請誤列為虛報。
費城法援律師 Julia
Simon-Mishel 向「麻省理工科技評論」表示,根本沒有任何官方指引告訴律師如何跟進這些情況,將受害人置於極為不利的位置。就以密芝根州的事件為例,很多平民蒙受損失,有人破產,有人變得一無所有。巴爾的摩大學教授 Michele
Gilman 做了二十多年民事律師,經常與政府、信貸公司和租主對簿公堂,她亦留意到近年愈來愈多案件涉及
AI 演算程式。
Gilman
呼籲同業們要好好充實有關知識,以保障求助人的利益。有一次,一名身體殘障的長者被中止聯邦醫療補助的家居護理服務,於是向她求助,律師團隊都找不出原因,因為一個人身體狀況愈惡化,理論上獲得家居護理服務的時數就愈長。直到上庭的時候,政府護士表示部門剛剛更新了演算程式,她自己也無法解釋計算準則,Gilman
就意識到問題的嚴重性。
2020
年
9 月,Gilman
發表報告 Poverty
Lawgorithms,內容分為消費者法、家庭法、房屋和公共福利等範疇,旨在為法律同業提供更清晰的指引,以處理有關
AI
演算法的糾紛。例如如果有房客因為信用不佳而無法租屋,律師第一步應該查證輸入的數據是否正確,根據公平信用報告法案,分析機構有責任核實數據準確與否,但執行上時常有錯漏。
Gilman
希望她的報告能夠敲響警鐘,皆因現時很多同業未意識到問題的重要性,而關心該議題的人散落美國各地,無法團結起來。她希望能夠建立一個群體,讓大家一起接受訓練和交流知識。她認為,最終大部分的個案都會涉及演算法,長遠而言,民事律師應該推動一場社會運動,喚起公眾討論,也迫使政客們要完善相關法律機制。
|