人工智能與人權(quán):警惕風(fēng)險(xiǎn),把握機(jī)遇
保加利亞科學(xué)院教授
瑪麗亞娜·托多羅娃
非常榮幸參加“中歐人權(quán)研討會(huì)”,我來(lái)講一下人工智能與人權(quán)。這是一個(gè)涉及社會(huì)政治層面的重要議題,它深刻影響著我們權(quán)利的行使和人的尊嚴(yán)保障。
隨著人工智能系統(tǒng)被廣泛應(yīng)用于司法、醫(yī)療等領(lǐng)域,它正在重新定義權(quán)利保護(hù)的邊界,甚至可能在人權(quán)保障方面存在風(fēng)險(xiǎn)。這項(xiàng)技術(shù)是一把雙刃劍——既帶來(lái)諸如促進(jìn)平等、增強(qiáng)社會(huì)賦能和推動(dòng)全球正義的新機(jī)遇,同時(shí)也伴隨著不容忽視的新型風(fēng)險(xiǎn),這些風(fēng)險(xiǎn)可能影響公民自由。
當(dāng)前的挑戰(zhàn)在于準(zhǔn)確識(shí)別并界定人工智能帶來(lái)的倫理困境。此外,不完善的技術(shù)視角可能強(qiáng)化危險(xiǎn)的刻板印象。美國(guó)的面部識(shí)別技術(shù)就是典型案例:該系統(tǒng)對(duì)深色皮膚人群的錯(cuò)誤識(shí)別率明顯偏高;人力資源平臺(tái)中針對(duì)女性高管的算法偏見(jiàn)也導(dǎo)致了無(wú)依據(jù)的差異化對(duì)待。而這類技術(shù)被應(yīng)用在了邊境管控或警務(wù)工作中。
不僅如此,人工智能還可能使殘障人士、特定語(yǔ)言群體或社會(huì)經(jīng)濟(jì)地位較低者遭受歧視。這種由自動(dòng)化系統(tǒng)引發(fā)的偏見(jiàn),延續(xù)了歷史形成的地域性和結(jié)構(gòu)性不平等。
關(guān)于人工智能的“幻覺(jué)”問(wèn)題,我們必須保持高度警惕。這些系統(tǒng)生成的內(nèi)容往往具有迷惑性的專業(yè)外表,實(shí)則可能包含嚴(yán)重錯(cuò)誤——在法律和醫(yī)療等關(guān)鍵領(lǐng)域尤其危險(xiǎn)。已有案例表明:AI工具可能推薦錯(cuò)誤的治療方案,或虛構(gòu)不存在的法律判例。當(dāng)這類虛假內(nèi)容以法律文書(shū)等形式出現(xiàn)時(shí),不僅會(huì)損害個(gè)人權(quán)益,還將從根本上動(dòng)搖公眾對(duì)民主制度的信任基礎(chǔ)。
我們同時(shí)觀察到,面部識(shí)別、圖像識(shí)別及預(yù)測(cè)性分析等監(jiān)控工具雖有助于風(fēng)險(xiǎn)防范,卻不可避免地侵蝕著個(gè)人自由——尤其是結(jié)社自由,因?yàn)槌掷m(xù)的監(jiān)控狀態(tài)會(huì)導(dǎo)致人們產(chǎn)生心理畏懼。隨著人工智能系統(tǒng)開(kāi)始通過(guò)生物傳感器解讀情緒狀態(tài),我們正面臨全新的倫理挑戰(zhàn)。值得注意的是,人工智能的控制范圍正在持續(xù)擴(kuò)張,其影響力已達(dá)到前所未有的程度。
(來(lái)源:中國(guó)人權(quán)研究會(huì))