當前,人工智能技術迅猛發(fā)展,且已被廣泛用于生產(chǎn)生活場景,從智能家居到汽車的自動駕駛,從醫(yī)療診斷的精準輔助再到具有劃時代意義的生成式人工智能等。人工智能技術為人類社會生活帶來了巨大便利,同時伴隨人工智能的發(fā)展也引發(fā)出一系列關于人權風險的隱憂。
“人工智能的人權風險”是一個復雜而敏感的議題,不僅涉及到技術層面的倫理考量,也觸及人類社會對于公平、正義和尊嚴的深層次追求。在人工智能技術快速發(fā)展的同時,必須深入思考人工智能的人權風險,利用法制手段約束和引導人工智能技術的發(fā)展。
人工智能帶來哪些人權風險?
當前人工智能正處于弱人工智能時代,關于人工智能的人權風險可以分為三類,分別是一般人權風險,潛在人權風險,以及強人工智能和超人工智能的人權風險。

仿生機器人吸引參觀者注意。佟郁 攝
一般人權風險涉及與數(shù)據(jù)有關的人權風險,以及算法偏見和歧視性決策。
如果說石油是工業(yè)的“血液”,那么數(shù)據(jù)就是人工智能的“神經(jīng)系統(tǒng)”,數(shù)據(jù)對于人工智能的發(fā)展至關重要,然而與數(shù)據(jù)有關的各個環(huán)節(jié)都存在著一定的人權風險。
在數(shù)據(jù)收集階段,未經(jīng)用戶明確同意的收集,超過必要限度的收集會侵犯用戶的隱私權;人臉識別技術利用人臉進行監(jiān)控、追蹤或識別身份等,增加了隱私權被侵犯的風險。
在數(shù)據(jù)處理階段,脫敏技術的不完善,用戶的隱私無法得到保護,系統(tǒng)自身的網(wǎng)絡漏洞,將會造成被攻擊之后數(shù)據(jù)泄露的后果。
在數(shù)據(jù)使用階段,很多技術公司在獲取用戶信息之后又將其轉手賣出,這是對普通民眾個人信息權的嚴重侵犯;而近期大火的生成式人工智能,在驚艷世人的同時,也會產(chǎn)生虛假信息,從而侵犯他人的名譽權,隨意使用和重組他人作品,可能會構成對他人知識產(chǎn)權的侵犯。
在數(shù)據(jù)存儲階段,集中存儲增加了使用便利性,也增加了泄露風險。例如近年來發(fā)生的某平臺的信息泄露事件,不僅嚴重侵犯了相關當事人的隱私權,更影響了社會的穩(wěn)定。
算法偏見,是指在信息的生產(chǎn)、分發(fā)及核查的過程中對用戶造成的非中立立場影響,導致片面、失實等信息觀念的傳播。算法偏見可能是由于算法設計和開發(fā)者自身的偏見,也可能是訓練數(shù)據(jù)的偏見,更有可能是在人機交互的過程中,機器無意識且不加選擇地習得人類的一切倫理與喜好,包括偏見。
從技術角度來看,算法偏見無法避免。算法偏見會使人的平等權在無形之中被侵害,某些群體將逐漸成為機器歧視的對象,壓縮了他們的網(wǎng)絡生存空間。同時,算法偏見引發(fā)的歧視性決策,會使某些群體的權益受到嚴重侵害。
潛在人權風險方面,隨著人工智能的進一步發(fā)展,其決策的正確性和高效性已超越了人類主體,可以預見的是,在未來,許多領域的決策主體都將從人變?yōu)闄C器。在提升效率的同時,更極大地增加了人權風險,最為棘手的就是責任承擔問題。如,智能駕駛普及后,出現(xiàn)交通事故該由誰承擔責任,這引發(fā)了學界和實務界爭論。傳統(tǒng)法學的主體均為人,如果機器決策成為常態(tài),人的主體地位會受到極大沖擊,這會影響法學的發(fā)展方向。
人工智能極大地提升各行各業(yè)的效率,同時也可能引發(fā)史上最嚴重“下崗潮”。人工智能技術能夠高效完成許多重復性、低技能的工作,這種現(xiàn)象將導致大量從事這類工作的勞動力失業(yè)。
未來的社會是高度互聯(lián)化的社會,具備一定技術素養(yǎng)才能在社會中立足,可是人工智能技術具有一定的門檻,對于無法掌握這些技術的民眾,可能就很難適應社會,這會影響社會的平等,影響部分民眾基本人權的實現(xiàn)。
強人工智能和超人工智能將對人類社會產(chǎn)生極大的沖擊。當前最為先進的生成式人工智能也只是弱人工智能的一種,其所能進行的文本生成技術,也只是人類大腦功能的一部分,并沒有達到真正像“人類思考”(強人工智能),更不會超越人類(超人工智能)。在未來,人工智能不僅能像人類一樣思考和工作,更能夠學習人類的撒謊、貪婪等品質,作出對人類有危害的決策,如果機器演化出人類主宰世界的意識,更可能通過各種手段清除人類而主宰整個世界。任何技術的發(fā)展都應當“以人為本”,更好地促進人類的發(fā)展。

人工智能沉浸式體驗項目“AI之夢”吸引參觀者體驗。湯彥俊 攝
如何約束人工智能技術應用?
當前,人工智能發(fā)展的速度已超出預期,縱觀全球各個主體的立法速度,落后于人工智能技術發(fā)展的速度。也就是說,如果任憑人工智能技術的發(fā)展,很快就會出現(xiàn)人工智能領域無法可依、亂象叢生的局面。
對人工智能進行法律規(guī)制,可從以下幾個方面進行。
首先,加強行政監(jiān)管式規(guī)制方案。
應當建立實質性的人工智能算法人權保護標準,及其相配套的審查和懲罰機制。通過標準化的方法實現(xiàn)算法決策機制一定程度的可視化乃至量化,并以此為基礎對算法應用進行進一步規(guī)制。
通過行政方式收集信息和數(shù)據(jù),評估人權的保護狀況。因為算法提供者沒有足夠動力,而算法使用者雖有動力卻無實力負擔信息收集成本。
以行政介入方式確保少數(shù)群體權益得到充分表達,以規(guī)范形式給予少數(shù)群體訴求表達的渠道和正當性,可降低其表達訴求的行為成本并提高其訴求得到采納的機會。
其次,完善數(shù)據(jù)、算法等相關立法。
數(shù)據(jù)作為人工智能時代最重要的資源,對數(shù)據(jù)的規(guī)制應當進一步細化,對于數(shù)據(jù)的收集、流動、跨境流動,數(shù)據(jù)的存儲、處理,數(shù)據(jù)的使用、刪除及銷毀等,都應當建立相關的法律規(guī)制。
進行算法有關的立法,應要求AI系統(tǒng)的設計者和使用者公開其算法的工作原理、數(shù)據(jù)來源及決策邏輯,特別是對于影響個人權益的重大決策;應確保AI決策過程可以被人類理解和審查,提供決策理由的解釋,尤其是當決策結果對個人產(chǎn)生重大影響時;應建立定期審查與審計流程,檢測并糾正算法中的偏見,確保決策過程的公正性和無歧視性。
再次,通過市場進行規(guī)制。
市場自發(fā)秩序驅動算法用戶自主選擇,促使人工智能算法與傳統(tǒng)服務競爭,用戶最終選擇在人權保護方面表現(xiàn)最佳的服務。在充分競爭的市場中,用戶可選擇其他提供公平服務的競爭者,這使得不公正的算法服務提供者逐漸被淘汰。由于算法服務的邊際效應遞減,公平服務提供者可因更多用戶而降低平均成本,增強競爭力。在市場規(guī)范中,行政管理問題得以解決,不需要復雜的歧視還原和監(jiān)管體系。市場主體自發(fā)調整,以滿足用戶選擇,實現(xiàn)價值沖突的均衡,替代低效的自上而下監(jiān)管,促進算法服務的人權保護。
最后,保障知情、選擇與申訴權。
應當確保用戶了解服務的人工智能屬性、服務提供方身份、采集的信息、隱私保護政策和申訴渠道等實質性權利。服務提供方也有義務解釋說明其條款。
確保公共部門場景中,至少提供“2+1”的選項(兩個以上不同的人工智能程序及傳統(tǒng)方案)。商業(yè)行為場景中,至少要求提供傳統(tǒng)解決方案或選擇不接受服務。
確保能夠向算法提供方要求重新判斷和提供判斷依據(jù)等。在人權范疇內權利受到侵害時,主張停止侵害和侵權賠償?shù)取M瑫r有向政府指定行政機關說明情況尋求救濟的權利。
人工智能的發(fā)展速度迅猛,其存在的“技術黑箱”,也讓人工智能專家對很多現(xiàn)象無法解釋??梢哉f,人工智能像是一個強有力的推進器,讓人類社會再一次經(jīng)歷騰飛,在這美好的背后,更要警惕其帶來的人權風險,通過法律規(guī)制引導保障人工智能技術健康、向善發(fā)展。(完)
受訪者簡介:

肖君擁,北京理工大學法學院教授、博士生導師,國家人權教育培訓基地北京理工大學科技人權研究中心執(zhí)行主任。中國法學會法理學研究會和憲法學研究會理事。著有《人民主權論》《國際人權法講義》《人權的道德維度》等。主講《國際人權法》獲北京市高校優(yōu)質本科課程。曾數(shù)次參加聯(lián)合國人權理事會大會和邊會發(fā)言,多次赴美國、歐洲等地參加國際人權對話交流。

京公網(wǎng)安備 11010102003980號