久久人妻无码aⅴ毛片花絮,久久国产精品成人影院,九九精品国产亚洲av日韩,久久婷婷人人澡人人喊人人爽,妓院一钑片免看黄大片

中國人權(quán)領(lǐng)域唯一專業(yè)網(wǎng)站
首頁>出版物>《人權(quán)》雜志

人權(quán)與人工智能:一個(gè)亟待解決的議題

來源:《人權(quán)》2019年第5期作者:[美]馬蒂亞斯·里塞
字號:默認(rèn)超大| 打印|

  內(nèi)容提要:人工智能的日益普及為人權(quán)帶來巨大的挑戰(zhàn)。短期挑戰(zhàn)包括科技參與《世界人權(quán)宣言》涵蓋的所有權(quán)利的方式,例如有效的歧視性算法的使用。中期挑戰(zhàn)包括工作性質(zhì)的變化,這種變化可能會引起對很多人作為社會參與者地位的質(zhì)疑。從長期來看,人類可能不得不與在智力上和在道德上更優(yōu)越的機(jī)器共存,即使這只是高度推測性的。人工智能也賦予了曾經(jīng)被許多人認(rèn)為晦澀的道德辯論新的關(guān)聯(lián)性。

  關(guān)鍵詞:人權(quán) 人工智能 道德性

  
人工智能給人權(quán)帶來新的挑戰(zhàn)。人類生活的不可侵犯性是人權(quán)背后的中心概念。一個(gè)潛在的預(yù)設(shè)是,相對于其他生命形式,人類具有等級上的優(yōu)越性,與人類相比其他的生命形式都只配獲得較少的保護(hù)。這些基本假設(shè)因?yàn)閷⒌絹淼拇嬖谖锒柺苜|(zhì)疑,這些存在物并不以我們熟悉的方式活著,但是它們可能是具有感知能力的,并且在智力上,或許最終在道德上,比人類更優(yōu)越。誠然,這些假設(shè)的景象或許永遠(yuǎn)不會成真,并且無論如何都是人無法把握的未來的一部分,但是將該問題提上議事日程至關(guān)重要??萍冀o各個(gè)人權(quán)領(lǐng)域帶來的威脅或挑戰(zhàn)已經(jīng)非常普遍。本文分別從短期、中期、長期的角度來分析這些挑戰(zhàn)。本文的主要目的是激起人們在人權(quán)領(lǐng)域內(nèi)對人工智能的興趣。①

  一、人工智能(AI)與人權(quán)

  
人工智能(AI,Artificial Intelligence)在我們的日常生活中越來越常見,這反映出我們越來越傾向于在算法中尋找建議或是直接依賴算法進(jìn)行抉擇。“智能”是對未來做出預(yù)測以及能夠解決復(fù)雜問題的能力。AI就是通過機(jī)器所展示出的這種能力,如智能手機(jī)、平板電腦、筆記本電腦、無人機(jī)、自動(dòng)駕駛汽車或機(jī)器人等機(jī)器。從家庭的支持以及陪伴(包括性伴侶)到警務(wù)與戰(zhàn)爭的各類任務(wù),此類機(jī)器可能均可以承擔(dān)。只要可以獲得所需要的數(shù)據(jù),算法可以按我們所要求的速度做任何能夠被寫成編碼的事情,并且可以在設(shè)計(jì)框架中執(zhí)行據(jù)此所確定的任務(wù)。在所有這些領(lǐng)域中的進(jìn)步都是非常顯著的。算法的有效性通過“大數(shù)據(jù)”不斷得到提升:大量的關(guān)于全世界人類活動(dòng)和其他進(jìn)程的數(shù)據(jù)都可以被獲得。這種數(shù)據(jù)使得一種特殊的被稱為“機(jī)器學(xué)習(xí)”的人工智能類型可以通過模式檢測推斷接下來會發(fā)生什么。算法在任何測試中都比人類表現(xiàn)更好,盡管人類的偏見也滲透其中:任何人類設(shè)計(jì)的系統(tǒng)都會反映人類的偏見,并且算法所依賴的數(shù)據(jù)反映過去,從而將現(xiàn)狀自動(dòng)化,除非采取預(yù)防措施。②但是算法是不受干擾的:與人類不同,當(dāng)同樣的問題出現(xiàn)兩次時(shí)算法都能就同樣的問題得出同樣的結(jié)論。③

  哲學(xué)辯論似乎有種脫離現(xiàn)實(shí)的感覺,但在人工智能的背景下,許多此類辯論帶著緊迫性重新出現(xiàn)。以“電車難題”為例,它迫使個(gè)人面對失控的電車做出選擇,根據(jù)個(gè)人做出的不同選擇電車會殺死不同數(shù)量的人。它通過這種方式挑戰(zhàn)人們關(guān)于義務(wù)論道德與結(jié)果主義道德的直覺。這些選擇不僅決定了誰死亡,而且決定了一些否則不會受到影響的人是否被用作工具去拯救他人。許多大學(xué)教師都展示了這些案例只是為了讓學(xué)生質(zhì)疑他們的相關(guān)性,因?yàn)樵诂F(xiàn)實(shí)生活中,選擇永遠(yuǎn)不會是這種模式化。但是,一旦需要對自動(dòng)駕駛車輛(剛剛第一次在路邊造成不幸)進(jìn)行編程,這些問題就會產(chǎn)生新的公共關(guān)聯(lián)性和緊迫性。

  另外,哲學(xué)家們長期以來一直對心靈(mind)的本質(zhì)感到困惑。其中一個(gè)問題是,心靈在大腦之外是否還有更多東西。不管它是什么,大腦也是一個(gè)復(fù)雜的算法。但是,大腦是否就由此被充分描述完全了呢,還是這種說法并未認(rèn)識到那些使人類與眾不同的東西,比如意識(consciousness)?意識是作為某人或某物的智性經(jīng)驗(yàn),如人們所說的“像那樣是一種什么感覺”。如果說心靈除了大腦什么都沒有,那么在大數(shù)據(jù)時(shí)代,算法很快就會在幾乎所有事情上超越人類:他們會更準(zhǔn)確地預(yù)測你會喜歡哪本書或下一次去哪里度假;比人類更安全地駕駛汽車;在人類大腦發(fā)出警報(bào)之前預(yù)測健康狀況;給諸如接受哪些工作、在哪里生活、收養(yǎng)哪種寵物、對于某些人成為父母是否合理以及與現(xiàn)在在一起的人交往下去是否明智等事項(xiàng)提供中肯的建議。網(wǎng)絡(luò)廣告則通過評估一個(gè)人訂購過什么以及之前點(diǎn)擊了什么來預(yù)估該展示什么廣告,以迎合人們的偏好。

  如果心靈只是一個(gè)復(fù)雜的算法,那么人類似乎除了給予某些機(jī)器與人類共同的道德地位沒有多少其他選擇。“動(dòng)物”的道德地位問題之所以會被提出是由于人類與其他物種之間的連續(xù)性:在道德相關(guān)屬性方面,一個(gè)物種越與人類相似,就越應(yīng)該被視為共同生活中的一個(gè)同行者,正如蘇·唐納森(Sue Donaldson)和威爾·金里卡(Will Kymlicka)在《動(dòng)物政治學(xué):動(dòng)物權(quán)利的政治理論》中做的那樣。④這類推論可能最終也會被應(yīng)用在機(jī)器身上。誠然,機(jī)器上設(shè)有開關(guān)是事實(shí),但人們不應(yīng)該由此而轉(zhuǎn)移注意力。為了測試某些可能性,未來的機(jī)器可能以一種不那么容易被關(guān)上的方式被組裝或者連接互聯(lián)網(wǎng)。更重要的是,他們可能會通過情緒或者某種行為來表達(dá)他們的情感:他們甚至可能擔(dān)心會被關(guān)掉,并會急切地為此想做些什么?;蛘?,未來的機(jī)器可能會以半機(jī)械人的形態(tài)出現(xiàn),即其一部分由有機(jī)體組成,而同時(shí)人類尋求以非有機(jī)體來改變提升自己。人類和非人類的區(qū)別可能日益模糊。一旦將大腦電子化并且在電腦上上傳和存儲成為可能,就像人類胚胎現(xiàn)在可以被儲存那樣,人們關(guān)于人的觀念可能會發(fā)生改變。⑤

  即便在此之前,新一代人也將以新的方式與機(jī)器一起成長。如今典型的計(jì)算機(jī)用戶在電腦不好用的時(shí)候可能會毫不猶豫地砸碎筆記本電腦而不會感到一點(diǎn)不安。但是,那些與機(jī)器人保姆一起成長的人可能會對機(jī)器人有不同的態(tài)度,因?yàn)槠鋵W(xué)習(xí)能力使其能夠以遠(yuǎn)遠(yuǎn)超出父母通常所做的方式照顧他們。早在2007年,一名美國上校就取消了一次機(jī)器人地雷清掃演習(xí),因?yàn)橛幸淮我粋€(gè)機(jī)器人喪失一條腿后仍然繼續(xù)向前爬行,他認(rèn)為這種行動(dòng)是不人道的。⑥像《西部世界》或《善地》這樣的科幻小說展示了人與機(jī)器一起生活,且只能通過切開它們才能將它們與人類辨別開的世界是什么情形。一個(gè)由 Hanson Robotics公司研發(fā)的、擁有參與訪談能力的、名為索菲亞的類人機(jī)器人在2017年10月份成為沙特阿拉伯的一名公民;后來,索菲亞被評為聯(lián)合國開發(fā)計(jì)劃署(UNDP)首位創(chuàng)新冠軍,也是第一位擁有聯(lián)合國頭銜的非人類。⑦未來可能會記住這些歷史性的時(shí)刻。寵物世界也不甘落后。亞馬遜公司的創(chuàng)始人及首席執(zhí)行官貝佐斯近期剛收養(yǎng)了一只名為SpotMini的寵物犬。這是一種多功能的機(jī)器人寵物,能夠打開門,自己動(dòng)手,甚至可以裝洗碗機(jī),并且如果貝佐斯愿在亞馬遜上購物的話,SpotMini也不需要外出。

  如果確實(shí)心靈除大腦之外還有更多東西,處理人工智能以及其他類人機(jī)器人會更容易。意識,或者對大腦和良心的同時(shí)擁有,可能會使人類與眾不同。如何理解質(zhì)性經(jīng)驗(yàn)以及如何理解意識,是一個(gè)開放性問題。但即使關(guān)于意識的考慮可能與人工智能系統(tǒng)具有道德性的觀點(diǎn)相矛盾,他們也不會阻礙這些系統(tǒng)成為法律參與者,比如擁有自己的財(cái)產(chǎn),犯罪,并以法律上可執(zhí)行的方式負(fù)責(zé)。畢竟,公司也同樣缺乏意識,但我們已經(jīng)以這種方式對待它們很長時(shí)間了。正如將公司的責(zé)任與涉及其中的人的責(zé)任區(qū)分開存在巨大的困難一樣,很可能在智能機(jī)器方面也會出現(xiàn)類似的問題。

  二、純智能的道德性

  
另一個(gè)長期存在而最近獲得關(guān)注的哲學(xué)問題是理性與道德之間的聯(lián)系。當(dāng)人們對純智能的道德性進(jìn)行思考的時(shí)候就會提出這個(gè)問題。“奇點(diǎn)”這個(gè)術(shù)語經(jīng)常用來指代機(jī)器在智力方面超越人類的時(shí)刻。⑧從那時(shí)起,人類就成功地創(chuàng)造出比自己更聰明的東西,而這種新型大腦很可能會產(chǎn)生比它自身更聰明的東西,以此類推發(fā)展下去,而且速度可能還會很快。這種情況可以持續(xù)多長時(shí)間將會有限度的。但是在過去的幾十年中由于計(jì)算能力的迅速增長,超級智能的能力范疇超出了人們現(xiàn)在所能理解的范圍。一些參與人工智能辯論的人著重強(qiáng)調(diào)了奇點(diǎn)和超級智能,而其他人則認(rèn)為與更緊迫的現(xiàn)實(shí)問題相比,它們無關(guān)緊要。確實(shí),奇點(diǎn)可能永遠(yuǎn)都不會出現(xiàn),即使出現(xiàn)也可能是幾十年或幾百年后的事情。但是,過去數(shù)十年的數(shù)字技術(shù)發(fā)展仍然將這些主題(奇點(diǎn)和因?yàn)槌壷悄艿拇嬖诙a(chǎn)生的道德后果)納入人權(quán)議程。⑨

  為了解決人工智能潛在的道德問題,哲學(xué)家們最好考慮一下大衛(wèi)·休謨和伊曼努爾·康德之間關(guān)于理性能否決定價(jià)值的爭論。休謨的代表學(xué)說認(rèn)為理性不能決定價(jià)值:一個(gè)理智的存在物、理性或智慧(假設(shè)這些都具有相似性),可能會有任何目標(biāo)以及任何一種態(tài)度,特別是對人類的態(tài)度。⑩如果是這樣的話,超級智能(或者說任何人工智能,但尤其是超級智能)可能會有任何類型的價(jià)值承諾,包括那些會讓人類感到相當(dāng)荒謬的價(jià)值觀(如一些文獻(xiàn)中提到的將宇宙中的回形針數(shù)量最大化的價(jià)值承諾)。?如果我們認(rèn)可這樣一個(gè)超級智能會比人類聰明得多,并因此可能會優(yōu)先考慮與人類不同的價(jià)值承諾,那么人們又怎么知道這些想法是錯(cuò)誤的呢?

  與此相反,康德的觀點(diǎn)認(rèn)為道德源于理性??档碌?ldquo;絕對命令”要求所有理性存在物永遠(yuǎn)都不要以純粹工具的方式去利用自己或任何其他理性存在物的理性能力。尤其是對其他理性存在物的無理暴力和欺騙(這對康德來說總是太像純粹的工具化)。?思考絕對命令的另一種方式要求每個(gè)人的行動(dòng)都要通過一般化測試(generalization test)。某些行動(dòng)是不被允許的,因?yàn)楫?dāng)每個(gè)人都這樣做的話他們根本行不通。比如偷竊和欺騙是不可普遍化的,因此不能被允許。如果每個(gè)人都有偷竊的權(quán)利,就不會有財(cái)產(chǎn);如果每個(gè)人都有說謊的權(quán)利,就不會有溝通??档峦茖?dǎo)的要點(diǎn)是,任何有智慧的存在物都會因?yàn)榍址钙渌硇源嬖谖锒萑肱c其自身的矛盾。粗略地說,僅僅是我們的理性選擇給予了任何事物以價(jià)值,這同樣意味著我們通過給某些事物賦值也給予了我們賦值這個(gè)能力本身以價(jià)值。這個(gè)觀點(diǎn)是說我們周圍世界的事物并不是以某種獨(dú)立的方式就有了價(jià)值。他們可能是有價(jià)值,假設(shè)我們知道上帝存在并且上帝賦予他們以價(jià)值,或者假設(shè)我們有理由認(rèn)為事物天生就是有價(jià)值的,就像物理定律應(yīng)用于它們一樣。但根據(jù)康德所探索的人類理性的局限性,這些選擇并不存在。所以這讓人類理性本身成為任何價(jià)值的唯一來源。但是,如果是這樣,那么我們必須感激我們自身這種進(jìn)行價(jià)值判斷的能力。因此,為了追求自己的利益而貶低其他理性存在物反過來也會貶低他們價(jià)值判斷的能力,而這些能力與我們必須珍視的自身的價(jià)值判斷能力是相同的。因此,某些錯(cuò)誤對待他人的方式會導(dǎo)致一個(gè)人與自己產(chǎn)生矛盾,就像數(shù)學(xué)推理中的缺陷一樣。如果康德是對的,一個(gè)超級智能可能是道德行為的真正榜樣。由于人類的本性在判斷和價(jià)值承諾上非常狹隘,人工智能可能會縮小人類與他們在石器時(shí)代形成的小群體導(dǎo)向的基因試圖在全球背景下運(yùn)作時(shí)所造成的鴻溝。?

  如果像這樣的論點(diǎn)能夠成立——當(dāng)然也存在疑問——我們就沒有理由擔(dān)心超級智能。可以說,在一個(gè)智能機(jī)器發(fā)展的時(shí)代,人類有足夠的理性來為卑微的人類提供保護(hù)。但是,由于許多從當(dāng)代標(biāo)準(zhǔn)來說很聰明的哲學(xué)家反對康德的觀點(diǎn),這個(gè)問題遠(yuǎn)未得到解決。人類的理性無法從超智能的角度想象這些事情會是什么樣子。

  當(dāng)然,即使價(jià)值不能僅僅從理性中獲得,某種道德也可以由超級智慧來掌控。還有一種霍布斯式的方法,設(shè)想在沒有共同權(quán)威的自然狀態(tài)下,以某種屬性為特征,以自我保護(hù)為目標(biāo)的人類會發(fā)生什么。?霍布斯認(rèn)為,這些人不會像康德所設(shè)想那樣,僅僅通過頭腦清晰的思考,就按照共同的價(jià)值觀行事,他認(rèn)為如果沒有共同的權(quán)威,人們很快就會體驗(yàn)到生活的骯臟。他們絕不是卑鄙無恥的人,作為個(gè)體,他們會因?yàn)閷ξ磥碓馐芮址傅念A(yù)測而感到有必要互相攻擊。畢竟,即使他們知道自己應(yīng)該合作,給懷疑的另一方以利益,他們也不能保證對方會給他們同樣的好處,并考慮到自己承擔(dān)的風(fēng)險(xiǎn)而感到必須要首先進(jìn)行攻擊。除非只有一個(gè)超級智能,或者所有的超級智能都是緊密相連的,不過這樣的推理可能也同樣適用于這樣的機(jī)器,它們將受制于某種共同的權(quán)威。霍布斯的自然狀態(tài)描述了超級智能對于其他智能的初始狀態(tài)。這種共同的權(quán)威是否也會給人類帶來好處還不清楚。?

  或許T.M.斯坎倫(T.M.Scanlon)關(guān)于對價(jià)值的適當(dāng)回應(yīng)的觀點(diǎn)會有所幫助。?超級智能在對它觀察到的周遭事物會做出適當(dāng)回應(yīng),在這個(gè)意義上超級智能可能是“道德的”。既然人類大腦的能力確實(shí)令人震驚,并能在人類身上激發(fā)出值得尊敬的能力,那么人類或許就有機(jī)會獲得一些保護(hù),甚至可以在一個(gè)由人類和機(jī)器組成的混合社會中獲得某種程度的解放。?但是,動(dòng)物的能力也是如此,而這通常不會導(dǎo)致人類以適當(dāng)尊重的方式對待它們或者對待環(huán)境。人類沒有表現(xiàn)出一種開明的人類中心主義,而是常常將自然工具化。希望在這類問題上,超級智能可以比人類理性表現(xiàn)得更好,這將意味著獨(dú)特的人類生命將得到一些保護(hù),因?yàn)樗档米鹬?。我們沒有辦法確切地知道這一點(diǎn),但也沒有理由過于悲觀。

  三、人權(quán)與價(jià)值一致性問題

  
所有這些事情都是未來的一部分,我們無法知道它何時(shí)會實(shí)現(xiàn)甚至是否會實(shí)現(xiàn)。但從人權(quán)的角度來看,這些設(shè)想很重要,因?yàn)槿祟愋枰?xí)慣與新類型的生物共享他們數(shù)千年來建立的社會世界。到目前為止,其他生物從未長期阻礙人類的發(fā)展,它們所能期待的最好的結(jié)果是一些共生的安排,比如寵物、牲畜或動(dòng)物園的展覽。所有這一切都可以解釋為什么會有一份以貌似值得保護(hù)的獨(dú)特的人類生活為基礎(chǔ)的《世界人權(quán)宣言》(UDHR),這種保護(hù)是在個(gè)體層面上的,而人類不愿給予其他物種這種保護(hù)。從哲學(xué)的角度來看,我們也許可以論證以個(gè)人權(quán)利形式給予人類特殊保護(hù)是合理的,而不用明確說對其他動(dòng)物或環(huán)境做任何事情都是可以的。但如果是智能機(jī)器,情況就完全不同了。人類控制動(dòng)物,因?yàn)槿祟惪梢源蛟煲粋€(gè)動(dòng)物處于從屬地位的環(huán)境。但這么對待人工智能也許是不可能的。在一個(gè)某些智能玩家是機(jī)器的世界里,需要制定一些規(guī)則。這些智能玩家必須被設(shè)計(jì)得尊重人權(quán),即使他們足夠聰明和強(qiáng)大到可以侵犯人權(quán)。與此同時(shí),他們也必須被賦予適當(dāng)?shù)谋Wo(hù)自己的能力。最終《世界人權(quán)宣言》的規(guī)則同樣適用于這些智能機(jī)器也不是不可能的。?

  當(dāng)務(wù)之急是確保這些發(fā)展有一個(gè)良好的開端。與此相關(guān)的挑戰(zhàn)是價(jià)值取向的問題,這個(gè)問題的出現(xiàn)要遠(yuǎn)遠(yuǎn)地早于何為純粹智能的道德這樣的問題變得相關(guān)之前。無論人工智能系統(tǒng)究竟是如何生成的,重要的是要確保它們的價(jià)值觀與人類價(jià)值觀一致,以盡可能地避免超級智能具有與我們截然不同的價(jià)值觀帶來的風(fēng)險(xiǎn)?!堵?lián)合國商業(yè)和人權(quán)指導(dǎo)原則》(UN Guide Principles on Business and Human Rights)也暗示我們現(xiàn)在需要解決價(jià)值一致問題?!堵?lián)合國企業(yè)和人權(quán)指導(dǎo)原則》的宗旨是將人權(quán)納入企業(yè)決策。這些原則也適用于人工智能。這意味著我們要解決諸如“最嚴(yán)重的潛在影響是什么”,“誰是最脆弱的群體”以及“如何確保獲得救濟(jì)”等問題。?早在1942年,人工智能界就認(rèn)識到了艾薩克·阿西莫夫(Isaac Asimov)在他的短篇小說《東奔西跑》(Runaround)中指出的價(jià)值取向的問題。在小說中,阿西莫夫闡述了他著名的“機(jī)器人三定律”(Three Laws of Robotics),在該小說中“三定律”來自2058年的一本指南。所謂“三鐵律”,是指:(1)機(jī)器人不得傷害人類,也不得因不作為而讓人類受到傷害;(2)機(jī)器人必須服從人類的命令,但與第一定律相抵觸的除外;(3)機(jī)器人必須保護(hù)自己的存在,只要這種保護(hù)不違反第一或第二定律。?

  不過,長期以來這些定律都被認(rèn)為太不具體,而且很多人做出各種努力來取代這些定律,這些努力與《聯(lián)合國商業(yè)和人權(quán)指導(dǎo)原則》或人權(quán)運(yùn)動(dòng)的任何其他部分可能并沒有任何聯(lián)系。例如,在2017年,劍橋的未來生命研究所(the Future of Life Institute)與由麻省理工學(xué)院物理學(xué)家馬克斯·特格馬克(Max Tegmark)和Skype聯(lián)合創(chuàng)始人賈恩·塔林(Jaan Tallinn)創(chuàng)辦的MA在加州Asilomar會議中心舉辦了一場關(guān)于有益的人工智能的會議,旨在提出指導(dǎo)人工智能未來進(jìn)一步發(fā)展的原則。在由此產(chǎn)生的23條《阿西洛瑪原則》(Asilomar Principles)中,有13條列在“倫理和價(jià)值觀”的標(biāo)題下。這些原則堅(jiān)持認(rèn)為,無論人工智能在哪里造成傷害,它應(yīng)該能夠確定它為什么會這樣做,并且當(dāng)一個(gè)人工智能系統(tǒng)涉及司法決策時(shí),它的推理應(yīng)該能夠被人類審計(jì)人員驗(yàn)證。這些原則回應(yīng)了人們的擔(dān)憂,即人工智能可以以非常快的速度推理,并能夠接觸到非常廣泛的數(shù)據(jù),以至于人工智能的決策越來越不透明,如果分析出錯(cuò)它們也不可能被發(fā)現(xiàn)。這些原則還堅(jiān)持價(jià)值取向一致性,敦促“高度自治的人工智能系統(tǒng)應(yīng)該以能夠確保它們的目標(biāo)和行為在整個(gè)運(yùn)行過程中與人類價(jià)值觀保持一致的方式被設(shè)計(jì)”(原則10)。這些人類價(jià)值觀在原則11中表現(xiàn)得很明確,包括“人的尊嚴(yán)、權(quán)利、自由和文化多樣性”[2]。

  堅(jiān)持人權(quán)的前提是我們假設(shè)某些哲學(xué)爭論已經(jīng)被解決了:存在以權(quán)利的形式存在的普世價(jià)值,并且我們大致知道有哪些權(quán)利。正如《阿西洛瑪原則》所表明的,人工智能領(lǐng)域中有一些人相信人權(quán)已經(jīng)以某種方式被確立起來。但其他人則急于避免他們所認(rèn)為的道德帝國主義。他們認(rèn)為價(jià)值一致性問題應(yīng)該以不同的方式解決,例如,通過一種群策群力的方式,教會人工智能吸收來自世界各地的輸入。因此,這又是一個(gè)哲學(xué)問題呈現(xiàn)出新的相關(guān)性的例子:在決定是否愿意將人權(quán)原則納入人工智能設(shè)計(jì)的過程中時(shí),關(guān)于人在哲學(xué)上對元倫理學(xué)的偏向性理解必然發(fā)揮作用。[22]

  人權(quán)也有其優(yōu)勢,因?yàn)樵谑澜绺鞯赜性S許多多人權(quán)本土化形式,而且對這些權(quán)利的全球支持是實(shí)質(zhì)性的。同樣,盡管《聯(lián)合國商業(yè)和人權(quán)指導(dǎo)原則》已經(jīng)出臺,但有可能的是,某些將會成為領(lǐng)先的人工智能生產(chǎn)國的國家,并無意以人權(quán)精神解決價(jià)值一致性的問題。不過,這并不一定會阻礙其他地方為推動(dòng)人權(quán)問題的解決而作出的努力。也許有一天,人工智能系統(tǒng)可以就如何最好地與人類保持一致交流想法,但前提是人類自身能夠以統(tǒng)一的方式設(shè)計(jì)人工智能,并對價(jià)值一致問題提出相同的解決方案。然而,即使是人權(quán)也會繼續(xù)有詆毀者存在,所以這種情況發(fā)生的希望也很小。

  無論如何,我們需要的是人權(quán)界和人工智能界更多的互動(dòng),這樣所創(chuàng)造出的未來才不會缺少在人權(quán)領(lǐng)域的投入(很明顯,所創(chuàng)造的未來如果沒有人工智能領(lǐng)域并不會有任何風(fēng)險(xiǎn)。)朝著這個(gè)方向邁出的重要一步是,一些國際人權(quán)組織決定在人權(quán)事業(yè)中廣泛使用人工智能設(shè)備。在這一階段,一些人權(quán)組織正在試驗(yàn)在人權(quán)調(diào)查中使用機(jī)器學(xué)習(xí),并且也在關(guān)注使用機(jī)器學(xué)習(xí)中可能產(chǎn)生的歧視,尤其是在警察、刑事司法和獲得基本經(jīng)濟(jì)和社會服務(wù)方面。更廣泛地說,一些人權(quán)組織關(guān)注的是自動(dòng)化對社會的影響,包括工作和謀生的權(quán)利。在人權(quán)運(yùn)動(dòng)和這一發(fā)展背后的工程師之間需要有更多這樣的互動(dòng),而這種互動(dòng)最好是雙向的。

  四、“人工愚蠢”與公司權(quán)力

  
現(xiàn)階段有很多比未來的智能機(jī)器更緊迫的問題。《世界人權(quán)宣言》中的每一項(xiàng)人權(quán)的行使都以某種方式受到科技的影響。例如,如果在醫(yī)療保健、保險(xiǎn)承保、假釋決定等領(lǐng)域中使用的算法是種族歧視或性別歧視的,反歧視條款就會受到威脅,因?yàn)檫@些算法的學(xué)習(xí)借鑒了性別歧視或種族主義;言論和表達(dá)自由,以及任何個(gè)人自決自由,都會受到大量假新聞的侵蝕,包括制作任何人在做任何事的假視頻,包括從未發(fā)生或由不同人犯下的恐怖主義行為。人工智能參與了這些假新聞作品的創(chuàng)作和傳播。

  政治參與越是依賴于互聯(lián)網(wǎng)和社交媒體,它們同樣越是受到技術(shù)進(jìn)步的威脅,從部署甚至更復(fù)雜的網(wǎng)絡(luò)機(jī)器人參與網(wǎng)絡(luò)辯論的可能性,到對計(jì)算票數(shù)的設(shè)備的黑客攻擊,或?qū)φ残姓蛟O(shè)施的黑客攻擊以制造混亂。人工智能與“人工愚蠢”(Artificial Stupidity)總是如影隨形:對手所做的努力不僅是要破壞人工智能可能帶來的成果,而且是要把它們變成它們的對立面。某國通過網(wǎng)絡(luò)操縱選舉是一個(gè)警鐘,更糟的情況可能還會發(fā)生。如果人工智能的使用缺乏足夠的透明度和人類監(jiān)督的可能性,司法權(quán)利可能受到威脅。一個(gè)人工智能系統(tǒng)已經(jīng)預(yù)測了歐洲人權(quán)法院(European Court of Human Rights)數(shù)百起案件的結(jié)果,預(yù)測結(jié)果的準(zhǔn)確率達(dá)到79%[23];隨著準(zhǔn)確率的提高,使用人工智能來做出決定的做法也更具吸引力。在法庭訴訟中使用人工智能可能有助于為窮人提供法律咨詢(一些國際組織在印度等國已推行了這類法律援助項(xiàng)目);但是,如果算法給出的法律建議令人費(fèi)解,并且其算法的基礎(chǔ)超出了現(xiàn)有的(或者可能是任何)人類的審查能力,也可能導(dǎo)致卡夫卡式的情況。算法的公平性開始引起大量的關(guān)注。[24]

  不僅通過無人機(jī)或機(jī)器人士兵,還通過因人類活動(dòng)和存在被電子記錄而提高的個(gè)人的易理解性和可追溯性,人類有關(guān)安全與隱私的任何權(quán)利都有可能受到損害。關(guān)于人類的可用數(shù)據(jù)量可能會大幅增加,尤其是一旦生物特征傳感器能夠監(jiān)測人類健康。比如,它們可能會在人們沐浴時(shí)進(jìn)行檢查并提交數(shù)據(jù),這或許是符合一個(gè)人的切身利益的,因?yàn)樗鼈兛梢栽谀承┘膊〕蔀檎嬲龁栴}之前將他們診斷出來。這些數(shù)據(jù)的存在本身就可能給人們公民權(quán)利和社會權(quán)利帶來挑戰(zhàn),而且這些數(shù)據(jù)很可能是私家占有,不是被數(shù)據(jù)主體占有,而是被生成這些數(shù)據(jù)的實(shí)體之外的實(shí)體占有。如今,人工智能領(lǐng)域的領(lǐng)先企業(yè)比以往任何時(shí)候的石油公司都更強(qiáng)大,而且這可能只是它們崛起的開始。

  過去,人在復(fù)雜社會中的地位首先由土地所有權(quán)決定,工業(yè)革命之后則是由工廠所有權(quán)決定的。隨之而來的高度不平等的結(jié)構(gòu)給許多人帶來不利后果。不平等的數(shù)據(jù)所有權(quán)也會給社會上的許多人同樣帶來不利后果。如果諸如Alphabet公司(谷歌的母公司及其子公司)、蘋果公司、Facebook公司,或者特斯拉公司等的威力不受公共利益的約束,人類可能最終淪落到一個(gè)由公司主導(dǎo)的世界,如瑪格麗特·阿特伍德(Margaret Atwood)的小說《羚羊與秧雞》(Oryx and Crake)或大衛(wèi)·福斯特·華萊士(David Foster Wallace)的《無盡的玩笑》(Infinite Jest)中所描述的那樣。“劍橋分析”(the Cambridge-Analytica)的丑聞給我們敲響了警鐘。馬克·扎克伯格(Mark Zuckerberg)2018年4月10日對美國議員做出的證言揭示出資深立法者對互聯(lián)網(wǎng)公司依賴市場數(shù)據(jù)的經(jīng)營模式多么無知。這種無知為公司走向權(quán)力鋪平了道路。請考慮一個(gè)相關(guān)的觀點(diǎn):政府在網(wǎng)絡(luò)安全方面需要私營部門的幫助。一些相關(guān)專家很聰明、報(bào)價(jià)高昂,但他們從不會為政府工作。鑒于政府在這方面的過度擴(kuò)張,人們只能希望可以為了政府的安全指派他們?yōu)檎?wù)。如果這些努力不能奏效的話,那么只有企業(yè)才能提供最高級別的網(wǎng)絡(luò)安全。

  五、巨大的脫節(jié):科技和不平等

  
本文所要討論的最后一個(gè)話題是人工智能和不平等,以及其與人權(quán)的聯(lián)系。2018年是《世界人權(quán)宣言》發(fā)布70周年。這是一個(gè)好時(shí)機(jī),可以來思考在許多情況下技術(shù)是如何具有創(chuàng)造社會不平等的潛力,或其無意中成功創(chuàng)造了不平等,并從而對人權(quán)產(chǎn)生影響。首先,托馬斯·皮凱蒂(Thomas Piketty)警告稱,在和平時(shí)期放任資本主義自生自棄,會導(dǎo)致越來越嚴(yán)重的經(jīng)濟(jì)不平等。那些掌握經(jīng)濟(jì)的人比那些僅僅在其中工作的人從中獲利要大。因此,隨著時(shí)間的推移,人生中的機(jī)遇將越來越依賴于出生時(shí)的社會地位。[25]

  此外,越來越清楚的是,那些要么創(chuàng)新技術(shù),要么知道如何利用技術(shù)擴(kuò)大影響的人可以爭取到越來越高的工資。人工智能只會強(qiáng)化這些趨勢,讓各領(lǐng)域的領(lǐng)導(dǎo)者們以更容易的方式擴(kuò)大自己的影響力。這反過來又使人工智能生產(chǎn)商成為價(jià)格更高昂的技術(shù)供應(yīng)商。最近,沃爾特·謝德爾(Walter Scheidel)指出,從歷史上看不平等現(xiàn)象的大幅減少只是在應(yīng)對一些如流行病、社會崩潰、自然災(zāi)害或戰(zhàn)爭等災(zāi)難時(shí)才會發(fā)生;否則,人們很難凝聚足夠的要求變革的政治意愿。[26]

  在19世紀(jì)的英國,最初的勒德分子因?yàn)閾?dān)心就業(yè)問題而搗毀了織布機(jī)。但到目前為止,每一次的技術(shù)創(chuàng)新最終創(chuàng)造的就業(yè)崗位都超過了它所摧毀的崗位。雖然技術(shù)變革并非對每個(gè)人而言都有利,但其對社會整體和全人類而言是一件好事??赡芪磥頃泻芏喙ぷ鲘徫?,比如那些開發(fā)、監(jiān)督或以創(chuàng)新方式使用技術(shù)的人,以及那些不可替代的創(chuàng)造性職業(yè),這些崗位數(shù)量最終將超過那些因人工智能而失業(yè)的人。但是,空抱著這種希望是很天真的,因?yàn)樗那疤崾菍逃w系進(jìn)行徹底改革以使人們具有競爭力。另一種替代選擇是,人們希望一種既創(chuàng)造就業(yè)機(jī)會又縮短工作時(shí)間的結(jié)合,以實(shí)現(xiàn)更多人共享工作、提高工資來使人們過上體面的生活。無論哪種方式,歐洲國家都比美國有更大的希望,因?yàn)樵诿绹芏嗳嗽诩夹g(shù)與教育的競爭中落后,而且美國在國家層面上的團(tuán)結(jié)非常薄弱,薄弱到甚至連全民醫(yī)保都存在爭議。[27]而在制造業(yè)和廉價(jià)勞動(dòng)力方面具有相對優(yōu)勢的發(fā)展中國家將如何應(yīng)對這一切,誰也說不準(zhǔn)。

  在這種背景下,我們有理由擔(dān)心人工智能會在社會中造成越來越大的技術(shù)鴻溝,會將數(shù)百萬人排除在外,使他們成為多余的市場參與者,進(jìn)而潛在地削弱他們在政治生活中的地位。在土地所有權(quán)作為財(cái)富的標(biāo)志的時(shí)代,富人是需要普羅大眾的,因?yàn)橥恋厮袡?quán)的意義在于收取租金。在財(cái)富由工廠的所有權(quán)決定的時(shí)代,所有者需要平民大眾來操作機(jī)器和購買東西。但對于那些在技術(shù)分化中處于劣勢的人來說,他們可能根本就不會被需要。F.司各特·菲茨杰拉德(F.Scott Fitzgerald)在他1926年的短篇小說《富家子弟》(The Rich Boy)中有一句名言:“讓我來告訴你一些跟富豪有關(guān)的事。他們跟你我非常不一樣”。人工智能可能會以一種驚人的方式證實(shí)這一說法。

  正如種族隔離制度下的南非一樣,最終可能會出現(xiàn)新的班圖斯坦人,或者更有可能出現(xiàn)的情況是,獨(dú)立由公司擁有的城鎮(zhèn)里提供有完善的社會服務(wù),而其他人則無權(quán)享有。或許他們也會給予這些“其他人”剛剛夠的供給,以確保他們不會忽然公然反抗。只要任何意義上比實(shí)際需要的人數(shù)多的人作為參與者,社會結(jié)構(gòu)就可能解體。盡管那時(shí)的世界可能有足夠的財(cái)富以為人們提供體面的生活,但只要有辦法避免暴力沖突破壞現(xiàn)在的生活狀態(tài),特權(quán)階層可能就沒有政治意愿去那么做。所有這些從人權(quán)的角度而言都是極壞的消息。與人類生活中不斷增長的算法所帶來的更直接的擔(dān)憂相比,類似這樣的場景是在更遙遠(yuǎn)的未來才會出現(xiàn)的,但可能不會像超級智能的到來那樣遙遠(yuǎn)。不平等加劇帶來的機(jī)遇和挑戰(zhàn)將在《世界人權(quán)宣言》的下一個(gè)七十年間到來。

  盡管美國是包括人工智能在內(nèi)的全球技術(shù)中心,但在打造一個(gè)全國性大團(tuán)結(jié)的社會環(huán)境方面,美國的實(shí)踐遠(yuǎn)遠(yuǎn)少于許多歐洲國家,而這種團(tuán)結(jié)結(jié)合持續(xù)不斷的努力,將會使人工智能造福于全體人民。美國的社會流動(dòng)性低得驚人。研究發(fā)現(xiàn),現(xiàn)在多達(dá)50%的工作容易受到自動(dòng)化影響,包括傳統(tǒng)被認(rèn)為安全的職業(yè),如法律、會計(jì)和醫(yī)學(xué)。[28]或者正如聯(lián)合國極端貧困和人權(quán)問題特別報(bào)告員菲利普·阿爾斯通(Philip Alston)在談到2017年對美國的正式訪問時(shí)所指出的:“自動(dòng)化和機(jī)器人化已經(jīng)使許多中年工人失去了他們曾自認(rèn)為有保障的工作。在21世紀(jì)的經(jīng)濟(jì)環(huán)境下,只有很小的一部分人能夠避免因?yàn)樗麄儫o法控制的惡劣情況而陷入貧困的可能。”[29]

  人們常說應(yīng)該只有當(dāng)技術(shù)變革所產(chǎn)生的好處能夠被廣泛地共享時(shí),該變革才可以被允許繼續(xù)下去。[30]但正如剛剛提到的,反對不平等的激進(jìn)措施只有在亂世才會發(fā)生,不然人們不會希望生活在這樣的時(shí)代。近幾十年來不平等的深化,以及選舉當(dāng)選總統(tǒng)的人心懷貪婪與仇恨,完全缺乏正常的同理心,這些因素在使更多人享受美國的財(cái)富方面并不是一個(gè)好兆頭,不論情況在會議和政治活動(dòng)中聽起來有多好。

  不平等的深化給人權(quán)也帶來很不好的影響,對于我們所面臨的風(fēng)險(xiǎn)再怎么強(qiáng)調(diào)也不為過。馬克思在《論猶太人問題》中的觀點(diǎn)是正確的,完全以權(quán)利為基礎(chǔ)的解放是沒有吸引力的。[31]一個(gè)建立在以權(quán)利為基礎(chǔ)的理想之上的社會錯(cuò)失了太多。在過去70年中,人權(quán)運(yùn)動(dòng)通常沒有能夠重視一個(gè)更大的話題,即國內(nèi)和全球的分配正義,而對于這個(gè)話題而言,人權(quán)必須成為其中一部分。人工智能可能最終會危及啟蒙運(yùn)動(dòng)的遺產(chǎn),因?yàn)樵诖髷?shù)據(jù)和機(jī)器學(xué)習(xí)的時(shí)代個(gè)性日益受到來自四面八方的威脅。同樣,因?yàn)檫@里受到威脅的是對社會整體的關(guān)注,而這種關(guān)注體現(xiàn)在現(xiàn)代關(guān)于分配或社會正義的思考中,人工智能同樣有可能會這樣做。只有在啟蒙精神和工業(yè)化帶來的技術(shù)可能性的引領(lǐng)下,這種關(guān)于分配和社會正義的現(xiàn)代思考才有可能實(shí)現(xiàn)。

  六、結(jié)論

  本文分別從短期、中期和長期角度探索了在人工智能越來越普及的環(huán)境下,人權(quán)可能面臨的諸多挑戰(zhàn)。其中一些挑戰(zhàn)已然現(xiàn)實(shí)存在,另一些挑戰(zhàn)則需要我們現(xiàn)在給予關(guān)注,即使它們可能在很長一段時(shí)間內(nèi)無關(guān)緊要。日益加劇的不平等以及人工智能的產(chǎn)生很可能成為《世界人權(quán)宣言》下一個(gè)七十年的禍根。人類社會有充分的理由將人工智能置于其關(guān)注事項(xiàng)的首位。

 ?。ǎ勖溃蓠R蒂亞斯·里塞(Mathias Risse),哈佛大學(xué)Lucius N.Littauer哲學(xué)和公共管理教授、哈佛大學(xué)約翰肯尼迪政府學(xué)院Carr人權(quán)政策中心主任。原文為:Mathias Risse,“Human Rights and Artificial Intelligence:An Urgently Needed Agenda”,41 Human Rights Quarterly,No.1(2019),pp.1-16.譯者:張馨月,中國人民大學(xué)法學(xué)院碩士研究生;校對者:陸海娜,中國人民大學(xué)法學(xué)院副教授,法學(xué)博士。)

  注解:

  
①For introductory discussions of AI,see Keith Frankish & William M.Ramsey eds.,The Cambridge Handbook of Artificial Intelligence,Cambridge University Press,2014;Jerry Kaplan,Artificial Intelligence:What Everyone Needs to Know,Oxford University Press,2016;Margaret A.Boden,AI:Its Nature and Future,Oxford University Press 2016.For background on philosophy of technology much beyond what will be discussed here,see David M.Kaplan ed.,Readings in the Philosophy of Technology,Rowman & Littlefield Publishers,2009;Robert C.Scharff & Val Dusek eds.,Philosophy of Technology:The Technological Condition:An Anthology,Blackwell Publishers 2014;Don Ihde,Philosophy of Technology:An Introduction,Paragon House(1998);Peter-Paul Verbeek,What Things Do:Philosophical Reflections on Technology,Agency,and Design,Pennsylvania State University Press,2005.See also Sheila Jasanoff,The Ethics of Invention:Technology and the Human Future,W.W.Norton & Company,2016.Specifically on philosophy and artificial intelligence,see Matt Carter,Minds and Computers:An Introduction to the Philosophy of Artificial Intelligence,Edinburgh University Press,2007.For an early discussion of how the relationship between humans and machines may evolve,see Norbert Wiener,The Human Use Of Human Beings:Cybernetics And Society,Coubleday,1956.

 ?、赟ee Daniel Kahneman,Discussion at Beneficial AI Conference:What Makes People Happy?(2017).On this subject,see also Julia Angwin et.al.Machine Bias,ProPublica(2016).On fairness in machine learning,also see Reuben Binns,“Fairness in Machine Learning:Lessons from Political  Philosophy”,81 Proceedings of Machine Learning Res.149(2018);Brent Daniel Mittelstadt et al.,“The Ethics of Algorithms:Mapping the Debate”,3 Big Data Soc.1(2016);Osonde A.Osoba & William Welser,An Intelligence in Our Image:The Risks of Bias and Errors inArtificial Intelligence,RAND Research Report 2017.

  ③On Big Data,see Viktor Mayer-Schnberger & Kenneth Cukier, Big Data:A Revolution That Will Transform How We Live,Work,and Think,Hodder,2014.On machine learning,see Pedro Domingos,The Master Algorithm:How the Quest for the Ultimate Learning Machine Will Remake Our World,Basic Books,2018.On how algorithms can be used in unfair,greedy,and otherwise perverse ways,see Cathy O'Neil,Weapons of Math Destruction:How Big Data Increases Inequality and Threatens Democracy,Penguin Books,2017.That algorithms can do a lot of good is of course also behind much of the potential that social science has for improving the lives of individuals and societies,see e.g.,J.D.Trout, The Empathy Gap:Building Bridgesto the Good Life and the Good Society,Viking,2009.

 ?、躍ue Donaldson and Will Kymlicka,Zoopolis:A Political Theory of Animal Rights,Oxford University Press,2013.

 ?、軫or exploration of these possibilities,see Yuval Noah Harari,Homo Deus:A Brief History of Tomorrow,Harper,2017.

 ?、轜endell Wallach & Colin Allen,Moral Machines:Teaching Robots Right from Wrong,Oxford University Press,2010.

 ?、逽ee Sophia(Robot),Wikipedia.

 ?、郌or one author who thinks the singularity is near,see Ray Kurzweil,The Singularity is Near:When Humans Transcend Biology,Penguin Books,2005.

 ?、酓avid J.Chalmers,“The Singularity:A Philosophical Analysis”,17 J.of Consciousness Stud.,7(2010);Nick Bostrom,Superintelligence:Paths,Dangers,Strategies Oxford University Press,2016;Amnon H.Eden et al.eds.,Singularity Hypotheses:A Scientific and Philosophical Assessment,Springer 2012.

 ?、釪avid Hume,An Enquiry Concerning the Principles of Morals(J.B.Schneewind ed.,1983)(1751).

  ?First apparently in Nick Bostrom,“Ethical Issues in Advanced Artificial Intelligence”,in George Eric Lasker et al eds.,Cognitive,Emotive and Ethical Aspects of Decision Making in Humans and in Artificial Intelligence,International Institute for Advanced Studies in Systems Research and Cybernetics,2003.

  ?Immanuel Kant,Groundwork for the Metaphysics of Morals(Arnulf Zweig trans.,Thomas E.Hill,Jr.& Arnulf Zweig eds.,(2002)(1785).

  ?Steve Petersen,“Superintelligence as Superethical”,in Patrick Lin,Keith Abney,Ryan Jenkins eds.,Robot Ethics 2.0:From Autonomous Cars to Artificial Intelligence,2017,p.322;Chalmers,supra note ⑨.See also Kahneman,supra note ②.

  ?Thomas Hobbes,Leviathan(1651).

  ?For the point about Hobbes,see Peter Railton,“Talk at New York University:Machine Morality”(2017).

  ?T.M.Scanlon,“What is Morality?”,in Jennifer M Shephard et al eds.,The Harvard Sampler:Liberal Education for the Twenty First Century Harvard University,2011.

  ?For speculation on what such mixed societies could be like,see Max Tegmark,Life 3.0:Being Human in the Age of Artificial Intelligence,Allen Lane,2017,p.161.

  ?Margaret Boden argues that machines can never be moral and thus responsible agents;she also thinks it is against human dignity to be supplied with life companions or care givers of sorts that are machines.See Margaret Boden,Panel at Beneficial AI Conference:AI and Ethics(2017).For impact of technology on human interaction,see also Sherry Turkle,Alone Together:Why We ExpectMorefrom Technology and Less from Each Other,Basic Books,2017.Others argue that certain types of AI would have moral rights or deserve other types of moral consideration;for Matthew Liao's and Eric Schwitzgebel's views on this,see S.Matthew Liao,Presentation,New York University Ethics and Artificial Intelligence Conference:Intelligence and Moral Status(2017).

  ?John Gerard Ruggie, Just Business:Multinational Corporations and Human Rights,W.W.Norton & Company,2013.

  ?Isaac Asimov,I,Robot,“Three Laws of Robotics”(1970)(1942).

  [2]Asilomar AI Principles,F(xiàn)uture of Life Inst.(2017),How Do We Align Artificial Intelligence with Human Values?,F(xiàn)uture of Life Inst.(2017).

  [22]On how machines could actually acquire values,see Bostrom,supra note ⑨,185-227;Wallach & Allen,supra note ⑥.

  [23]Nikolaos Aletras et al,“Predicting Judicial Decisions of the European Court of Human Rights:A Natural Language Processing Perspective”(2016).

  [24]Jane Wakefield,“AI Predicts Outcome of Human Rights Cases”,BBC News,23 Oct.2016.

  [25]Thomas Piketty,Capital in the Twenty-first Century,The Belknap Press of Harvard University,2014.

  [26]Walter Scheidel,Great Leveler:Violence and the History of Inequality from the Stone Age tothe Twenty-First Century,Princeton University Press,2017.

  [27]Claudia Goldin and Lawrence Katz,The Race Between Education and Technology,Belknap Press of Harvard University Press,2008.

  [28]Cate Brown,The Rise of Artificial Intelligence and the Threat to Our Human Rights,Rights Info(2017).

  [29]United Nations Office of High Commissioner for Human Rights,The Rise of Artificial Intelligence and the Threat to our Human Rights(2017).On the technological divide,see also Nancy Scola,Is Tech Dividing America?How an Engine of Prosperity Split the Haves From the Have-Nots—And how we can fix it,Politico(2018);see also Nicolas Yan,Automated Inequality,Harv.Pol.Rev.(2 Oct.2016).On AI and the future of work,see also Erik Brynjolfssonand Andrew McAfee,The Second Machine Age:Work,Progress,and Prosperity in a Time of BrilliantTechnologies,W.W.Norton & Company,2016;Jerry Kaplan,Humans Need Not Apply:A Guide to Wealth and Work inthe Age of Artificial Intelligence,Yale University Press,2016.

  [30]See,e.g.,AI and the Future of Work Congress.

  [31]Karl Marx,On the Jewish Question(Helen Lederer trans.,1958)(1844).

Abstract:The increasing presence of artificial intelligence creates enormous challenges for human rights.Among the short-term challenges are ways in which technology engages just about all rights on the UDHR,as exemplified through use of effectively discriminatory algorithms.Medium-term challenges include changes in the nature of work that could call into question many people's status as participants in society.In the long-term humans may have to live with machines that are intellectually and possibly morally superior,even though this is highly speculative.Artificial intelligence also gives a new relevance to moral debates that used to strike many as arcane.

  (責(zé)任編輯葉傳星)