IEEE Instrumentation
& Measurement Magazine, May 2020. by Veronica Scotti
https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=9082795
在十一月的一個沉悶的夜晚,我留意著我的辛勞。由於焦慮不堪,幾乎是痛苦,我收集了周圍的生活工具,以便將火光注入到腳下無生命的事物之中。(瑪麗·雪萊著,科學怪人,第5章)
最近,我們觀察到了人工智慧(AI)領域的驚人發展,該領域目的在於覆蓋人類活動的任何領域,以減少與無聊的日常工作相關的人們其工作量。AI被定義為以電腦執行通常與人類相關的任務的能力。
這項新技術的增強,應用於新產品(一般為機器人和AI),帶來了一些應考慮和解決的問題,這些問題與以下方面有關:
1.道德影響和
2.法律法規。
談論這個問題意味著談論我們的未來,那時AI將被視為對我們生活的正常補充。
倫理
即使這個問題與人類(例如生物遺傳學)的關係不是很明顯。但是不可否認的是,使用AI在有用的機器中來幫助人類(例如,減少時間,精力等的浪費)。與這項技術的發展有關的一些倫理意義仍然是不可避免的。
如今,人工智慧已不再是一台簡單的機器,它可以在短時間內正確地進行計算或操作,但它正在迅速成為對我們生活的一種補充,作為一種人類自我的改變。
最初人工智慧被認為是通過為此目的設計的演算法在人工指導或監視下執行活動的有用元素。這種想法是在避免不必要浪費時間的情況下,生活會更舒適。
先前的AI產品集中在三個主要方面,這些方面代表了AI所需的關鍵任務:
1.查找知識。
2.分析收集的知識。
3.就此知識出決定。
但是現在,情況發生了變化。新的AI產品目的在於變得與人類越來越相似。它們被設計為能夠自主學習,因此Rosenberg稱它們為“大腦”
[1],因為它們具有執行不可預測的活動的技能,而這是在他們的原先設計師中是沒有的的想法。
而且,新的趨勢是人工智慧將使用與人類相同的感覺和思維,使用的算法將再現人類的情感和人類行為的特徵。並且在可能的情況下不受到嚴格的理性參數限制。對於科學家,技術專家和設計師而言,這種情況代表了一個相關且至關重要的道德挑戰,因為他們應該考慮到這種方法對AI的影響。可以將其視為一種新的Frankestein生物,它有可能導致終結斯蒂芬·霍金的思想
任何以技術專家,設計師,製造商或用戶身份參與AI世界的人都應該意識到,這並不是產生新穎而令人興奮的東西的簡單活動。相反,它意味著與人類地位和人類變化有關的其他評估。因為它不是進化,而是帶來利益和風險的革命。
與AI相關的限制和風險是什麼?
從這個角度出發,在重新考慮AI概念必須考慮到每個人必須是在要保留的元素層次結構中最相關的元素。因此,必須保護賦予人們的基本權利,即使這可能會延遲該領域的技術進步。顯然第一個方面涉及人類生命的保護,(也涉及各種形式的生命,這必須是代表最重要的里程碑。許多人都同意了這一方面,因為它是如此明顯和自然。沒有人會故意將AI視為對生命危險的對象,除非在與戰爭有關的應用中例外。
但是這不是完全正確的。考慮無人駕駛汽車及其理念。生產它們的目的是使人類駕駛員在旅途中不用花費時間從事駕駛車輛。並且車輛準備在數學和理性的基礎上面對障礙。如果車輛允許高速的行駛,和當行人在道路上行走而不允許車輛傷害他人。那會發生什麼情況?您認為汽車的決定是什麼?您期望的決定是什麼?如果您認為前兩個問題會得到相同的答案,那麼您將完全不會滿意,因為這取決於用於生產裝配在車輛中的AI的技術。如果車輛設計成能夠保護車內的駕駛員和乘客,則即使在人為障礙的情況下,它也不會照顧障礙物。另一方面,如果車輛配備了人類的情感或感覺,則可以嘗試避開障礙物,尤其是在人類的情況下,並同時保護乘客。
但是,如果將車輛設計為完整的,有意識的AI,經過訓練以學習和定向,以自身為主要角色而無視其他人,會發生什麼?
我知道這個例子似乎是一個悖論,但是AI可以成為一個個體,特別是考慮到AI的發展與提高自主工作和思考能力有關,其特權可能與人類或我們的期望大不相同。從倫理的角度來看,生產商,設計師和科學家的任務艱鉅而棘手,因為這些AI產品的複雜性是由許多不同的技術元素加以組合結果。這些技術元素並不總是以相同的方式或預期相互作用的方式。
另一個考慮因素可能是指授予人們的其他基本權利,例如隱私。有一些設備的例子,這些設備通常用於在家中播放音樂,查找食譜,播放電影或提供建議,這些設備可記錄房屋中的任何事件(例如對話等),並且在未經所有者明確許可下,它們會傳輸這些數據。作為一種間諜,可以觀察任何動靜並隨時準備傳達此機密信息。原來的目的是幫助用戶快速找到最適合其興趣和習慣的消息。但是,在這種情況下,必須通知用戶此工具的功能,以便他們告知AI禁用此設備,並決定是否以及何時限制以減少其隱私。通常這些是來自製造商的說明,意識到此情況的設計人員應考慮使用這些設備侵犯隱私的可能性。因此應採取適當的注意事項以避免這種影響或確保正確告知用戶。
值得深入研究的另一點與認知偏差有關。對於AI工具而言,這似乎是一個幾乎未知的概念,這些工具經過合理的編程以防止它們受到與人類息息相關的文化或起源的密切影響。儘管AI系統是由人為設計的,可能會引入典型的人為偏見,但技術進步可能會為這種風險提供解決方案。並且還能實現AI根據數學和邏輯參數,從客觀角度考慮消息,在合理的基礎上並做出決策的能力。考慮到有時AI僅無法執行合理的操作/活動並因此可能導致尷尬的後果,因此甚至需要對這能力判別方面以及上述其他方面(人類生命,安全,隱私)進行分析和評估。正如AI倫理實驗室[2]所宣稱,在2018年出現了與Google搜索結果中圖片偏向相關的問題,因為在某人尋找教授或CEO的情況下,所顯示的圖片僅為白人。因此圖像搜索結果代表對女性和有色人種表現出極大的偏見。
如今斷言偏差不屬於AI,這並不完全正確。在這一領域,設計師還有許多工作要做,不僅要改進技術,而且要改進管理相關道德方面的方式,並應對可能出現的新問題,始終首先考慮人類。。
責任
正如2015年以前的文章[3]已經的概述,由於缺乏監管,由於這些技術產品與眾多要素(包括道德要素)相關的一些薄弱環節,仍在爭論源自人工智慧的法律含義。從法律的角度來評估不同的問題:
AI
失敗時的責任,以及AI因人工智慧產生的意外影響或後果的責任。
第一種情況顯然比第二種情況簡單。很明顯,如果AI不遵守聲明的要求或存在某些缺陷,以至於某人(或直接對某物)造成損害。那麼對AI負有責任的人就要承擔責任,他們有義務根據侵權法或不符合合同責任計劃。通常,賠償要求是基於參與AI生產和貿易的人員的過失而提出的。包括缺乏有關AI使用和功能的完整信息,而不僅只限於嚴格考慮的故障。
誰是負責的人?
涉及AI技術的主體(設計人員,製造商,貿易商)種類繁多,無法針對此問題提供確定且可靠的答案,因為其中任何一個都有可能因AI產品造成的損害而被訴諸法院。根據任何國家/地區的法律命令,參與審判的條件可能會有所不同,尤其是在舉證責任方面有時原告很難證明缺陷,以及損害與缺陷之間的關係。但是參與AI實施過程的每一方都有可能被視為對其結果負責。
第二個假設具有更複雜的特徵,這些特徵是指AI產生的負面或有害的後果,而不是製造商或法律認為應承擔責任的主體所預期的事實。根據一般法律原則,即不承擔任何責任,拒絕承擔責任,這在這裡意味著疏忽大意。因此很難斷定由AI不明行為引起的損害賠償責任,應由製造商以及與製造商有聯繫涉及的其他製造商加以承擔。由於無罪的無知,而完全忽略了AI原本可以執行的活動。
當AI具有增強的嵌入式自我學習能力時,此問題將加劇。其目的是使AI具有遵循人的思想的感覺,同時考慮到很難區分損壞是否是由製造商的產品缺陷引起的。本來可以通過勤奮了解或檢測,來避免問題。或者相同的損害是否由AI自主的行為造成。
誰將對不可預測的事情負責?
法律專家想知道是否可以為AI賦予身份和人格。因此,如有必要,責任將直接加在IT上。只要涉及民法,製造商或AI會直接通過保險等方式承擔責任及其後果通常是損害賠償,例如,採用其他可用於確保賠償損失的補救措施。
此外,如果考慮到需要具有法律行為能力才有的刑事責任。例如嬰兒不必承擔責任,這種考慮就變得更加微妙。這就是為什麼此事需要新的法律框架來解決的主要原因。
最後,人工智慧在專利領域未被公認為法人。最近歐洲專利局(EPO)拒絕了將AI認定為發明人的專利申請,因為是要求AI為專利保護的產品的設計者。
EPO拒絕發布機器的專利並為其註冊專利,因為發明人只能是人類或無論如何都可以指代人類的法人實體。歐洲專利局(EPO)在2019年11月討論了此案,
EPO的決定已於2020年1月在其網站上發布(www.EPO.org)。它們的依據是發明人只能是自然人,不包括任何其他情況。
EPO網站說:EPO在其決定中認為,對歐洲專利制度法律框架內的解釋,得出這樣的結論。即歐洲專利中指定的發明人必須是自然人。聽起來機器顯然不是權利人,但考慮到AI的能力,未來的情況也必須改變[4]。
歐洲機器人法律項目
歐盟委員會已著手應對AI領域新法律框架的挑戰。該委員會專門開展了一個特殊項目(Robolaw項目於2014年結束),以提供明確的規則。使受害者能夠獲得賠償或損害賠償。並且同時,不要因為擔心在與AI相關的故障或缺陷的情況下受到譴責,而阻止設計師改進他們的研究。
根據對基本權利的高度保護的需要,歐盟委員會概述了規範機器人技術的前景,具有倫理可接受性和面向社會需求的兩項要求,這些要求確定了RRI(responsible
research and innovation)概念(負責任的研究和創新),以確保考慮和評估最相關的因素。該項目的成果由D.6.2規範機器人技術指南[5]代表。由於團隊研究案例的時間有限,並且AI涉及的各個領域都沒有專家參與,例如從事軍事活動的機器人。因此本文檔僅關注AI的某些可能應用。歐盟任命的團隊從技術,道德和法律角度對AI的每個考慮領域(無人駕駛汽車,手術設備,prosthesis)進行了分析,概述了有關AI法規的問題,並向歐盟提供建議,鼓勵成員國在領域上採取正確的法律和立法方法。
最近,由歐盟委員會任命的一些專家小組發布了另一份有關可信賴AI的道德準則的文件[6],目的在加強必須嵌入AI的框架。儘管缺乏統一和同質的法律特別框架,該框架基於根據現有法規,對AI新方法進行解釋,但此指南尤其側重於道德問題,並且該指南認識到AI系統需要以人為中心,致力於將其應用於為人類服務和其共同利益,以改善人類福祉和自由為目標。人工智慧在提供巨大機會的同時,也帶來了某些風險。必須適當並按比例處理。該文件還概述了設計和生產AI時必須考慮的要求條件,以尊重人類基本人權:
1.人的代理和監督,包括基本權利,人的代理和人的監督。
2.技術的強韌性和安全性,包括對攻擊和安全性的抵禦能力,後備計劃以及總體安全性,準確性,可靠性和可重複性。
3.隱私和數據處理,包括尊重隱私,數據品質和完整性以及對數據的存取。
4.透明度,包括可追溯性,可解釋性和溝通能力。
5.多樣性,不歧視和公平,包括避免不公平的偏見,可及性和通用設計以及利益相關者的參與。
6.社會和環境福祉,包括可持續性和友好環境,社會影響,社會與民主。
7.責任制,包括審計,負面影響的最小化和報告,權衡和補救。
本文件中與AI相關的考慮方面當然非常相關。因為它們適合於AI產生尊重法律的目標。但是與AI的實際功能相比,AI的定義似乎被簡化了。實際上,該文檔給出的AI定義是:
人工智慧或人工智慧系統是人類設計的軟體(可能還有硬體)系統,給定一個複雜的目標,它通過數據採集,解釋所收集的結構化或結構化環境來感知物理或數字維度,從該數據得出的非結構化數據,對知識的推理或對消息的處理,並決定為實現給定目標而應採取的最佳措施。人工智慧系統可以使用符號規則或學習數值模型,還可以通過分析環境如何受先前行為影響來適應其行為,該行為僅提及人類設計的人工智慧,不包括可能由另一個人設計的其他實體。這可能而且應該要求對此定義進行更深入的思考。
計量學的作用
前面的章節部分考慮了AI的道德和法律方面,因為它們似乎是這種快速發展的技術提出的最相關的方面問題。可能會出現另一個問題:計量學(Metrolgy)是否可以在這種情況下發揮作用?
當然,答案是肯定的。這不僅是因為儀器和測量期刊在提供實體和現象的定量知識方面的普遍重要性,而且還因為涉及到計量學,且需要對其基本原理有深入了解,非常具體的任務。
上一節中介紹的道德和法律問題,都與AI實體基於感測器的輸出或可用數據而做出的決策。通常以自主方式,以隱式或顯式相關。爭議最大的問題是如何根據現有數據評估該決定是正確的,或者至少是最佳決定。
計量在這裡有著關鍵重要的作用。眾所皆知,測量設備提供的數據總是受到不確定性的影響[7],而根據這些數據做出決策時,決策錯誤的風險與不確定性直接相關。
因此,必須指示任何AI實體考慮使用的輸入數據的不確定性。或者在必要時對其進行評估,以確保它適合於預期的目的。並且評估錯誤決策的後果,以最小化這種風險。
不考慮這量測問題可能會導致嚴重後果,例如由於自動控制系統使用的單一迎角傳感器故障,導致兩架波音737
MAX飛機最近墜毀。由於可以通過組合其他可用數據,例如來自人工視覺和其他人的數據,來獲取這種與迎角有關的消息,因此在控制系統的AI中嵌入一些計量能力可以避免這種失敗的悲劇性後果。儘管其準確性不如正常迎角感測器提供的信息準確,但此消息足夠準確以識別感測器的故障。
此外,我們可能希望AI在未來會越來越多地引用大數據,並使用從這些數據中推斷出的消息來整合來自其嵌入式感測器的消息。並根據以此做出更恰當的決策。但是這需要對檢測到的數據進行驗證並考慮其不確定性。這再次是計量學和計量學家的關鍵任務。如果不考慮相關的計量問題,可能會使AI實體的設計者,要對這可能造成的不幸事件負責。
結論
此篇文章對一個令人興奮的新領域,簡短概述了尋找國際共識的重要性,以確立AI責任的法律概念並定義特定的道德要求,以確保保護人類的基本權利並避免這些產品的複雜性而產生負面後果。
已經經歷了數百年,我們的法律框架(考慮到大陸法系和普通法系,僅指西方國家的法律命令),僅需要對仍然適用的規則進行新的解釋。我們需要的第一個要素是改變(或演變)我們處理這些產品的方式,這些產品是工程(生產等)過程和想像力的結合,有時會嚇倒人們,尤其是當他們不完全意識到可能的影響時,潘多拉的箱子再次打開了! |