文/郭德香 王瑩
摘要:隨著人工智能技術(shù)的飛速發(fā)展和數(shù)字經(jīng)濟(jì)時(shí)代的來(lái)臨,人工智能算法自動(dòng)化決策被廣泛應(yīng)用于社會(huì)生活的各個(gè)領(lǐng)域。必須要注意到,自動(dòng)化決策作為算法技術(shù)的一種,本身具有的內(nèi)生性風(fēng)險(xiǎn)為當(dāng)前法律規(guī)制體系帶來(lái)了新的挑戰(zhàn)。為了管控自動(dòng)化決策所衍生的應(yīng)用風(fēng)險(xiǎn),應(yīng)當(dāng)在堅(jiān)持算法發(fā)展與技術(shù)規(guī)制平衡的原則下,遵循內(nèi)外部同時(shí)監(jiān)管的二元監(jiān)管思路,并不斷推動(dòng)算法自動(dòng)化決策的場(chǎng)景化治理。在法律規(guī)制層面,應(yīng)完善自動(dòng)化決策風(fēng)險(xiǎn)評(píng)估機(jī)制,實(shí)現(xiàn)分級(jí)分類(lèi)管理,完善算法影響評(píng)估機(jī)制并確立算法侵權(quán)責(zé)任機(jī)制,以更好防范自動(dòng)化決策風(fēng)險(xiǎn),增強(qiáng)自動(dòng)化決策的可信賴性。
關(guān)鍵詞:自動(dòng)化決策 算法規(guī)制 人工智能 算法責(zé)任
一、引言
《中華人民共和國(guó)個(gè)人信息保護(hù)法》第73條第2款首次以法律法規(guī)層面明確“自動(dòng)化決策”一詞,自動(dòng)化決策是指通過(guò)計(jì)算機(jī)程序自動(dòng)分析、評(píng)估個(gè)人的行為習(xí)慣、興趣愛(ài)好或者經(jīng)濟(jì)、健康、信用狀況等,并進(jìn)行決策的活動(dòng)。然而,涉及到個(gè)人信息和海量數(shù)據(jù)處理的自動(dòng)化決策過(guò)程在特定情形下隱藏著潛在的危險(xiǎn)。固然,在理想狀態(tài)下自動(dòng)化決策被設(shè)想為完全價(jià)值中立的,但算法本身的“黑箱”特征注定了算法決策的隱蔽性,自動(dòng)化決策技術(shù)的深度應(yīng)用不可避免的會(huì)對(duì)個(gè)人主體權(quán)益產(chǎn)生影響,可能會(huì)出現(xiàn)削弱人類(lèi)主體性或決策結(jié)果有失公正的情況。在這種現(xiàn)實(shí)背景下,對(duì)自動(dòng)化決策進(jìn)行全面且有效的法律規(guī)制迫在眉睫。
二、算法自動(dòng)化決策的應(yīng)用現(xiàn)狀與法律風(fēng)險(xiǎn)
決策行為原本是指人類(lèi)在信息和數(shù)據(jù)的基礎(chǔ)上,通過(guò)自身的認(rèn)知和邏輯推理,得出一定結(jié)果的過(guò)程。算法技術(shù)的發(fā)展使得決策能夠由機(jī)器輔助或者直接作出。在數(shù)字經(jīng)濟(jì)時(shí)代,伴隨著人工智能的深度學(xué)習(xí)和不斷優(yōu)化,算法自動(dòng)化決策開(kāi)始廣泛應(yīng)用于社會(huì)生活的各個(gè)領(lǐng)域,有助于時(shí)間的節(jié)約和效率的提升。然而,算法自動(dòng)化決策所帶來(lái)的風(fēng)險(xiǎn)挑戰(zhàn)也必須予以重視,其自身的內(nèi)生性風(fēng)險(xiǎn)為當(dāng)前的算法治理體系帶來(lái)了新的挑戰(zhàn),且目前對(duì)于算法技術(shù)的法律規(guī)制多呈現(xiàn)相對(duì)滯后性、碎片化特征,法律規(guī)制還有待完善。
(一)自動(dòng)化決策深度嵌入數(shù)字經(jīng)濟(jì)
自動(dòng)化決策遵循“大數(shù)據(jù),小定律”的技術(shù)范式,在具體行業(yè)場(chǎng)景中,自動(dòng)化決策通過(guò)個(gè)人征信、用戶畫(huà)像、個(gè)性化展示等服務(wù)或產(chǎn)品呈現(xiàn)出來(lái)。數(shù)字經(jīng)濟(jì)時(shí)代的科技運(yùn)用,讓個(gè)人的信息和行為經(jīng)歷刻畫(huà)在每個(gè)人的“數(shù)字皮膚”之上,極大的提高決策的效率性和精準(zhǔn)性,大數(shù)據(jù)分析和自動(dòng)化決策無(wú)疑為商業(yè)競(jìng)爭(zhēng)者提供了無(wú)可比擬的競(jìng)爭(zhēng)優(yōu)勢(shì),提升經(jīng)濟(jì)效益的同時(shí),也助力推動(dòng)新業(yè)態(tài)模式的興起。從商業(yè)應(yīng)用的角度來(lái)看,通過(guò)對(duì)海量客戶數(shù)據(jù)的深入分析,自動(dòng)化決策能夠?qū)崿F(xiàn)對(duì)個(gè)體用戶需求的精確把握。這一能力不僅為企業(yè)提供了前所未有的個(gè)性化服務(wù)和建議,更在多個(gè)商業(yè)領(lǐng)域中展現(xiàn)出其實(shí)質(zhì)性優(yōu)勢(shì)。在市場(chǎng)銷(xiāo)售領(lǐng)域,自動(dòng)化決策的應(yīng)用范圍不斷拓展,已不僅僅局限于于用戶行為的分析。它能夠生成個(gè)性化的產(chǎn)品或服務(wù)推薦,為銷(xiāo)售團(tuán)隊(duì)創(chuàng)建“智能銷(xiāo)售助手”,提供更為準(zhǔn)確和高效的銷(xiāo)售建議和解決方案。這種創(chuàng)新的工具和策略,為市場(chǎng)銷(xiāo)售注入了全新的智能化動(dòng)力。
例如,電商平臺(tái)利用數(shù)據(jù)分析來(lái)預(yù)測(cè)用戶購(gòu)買(mǎi)行為,從而優(yōu)化產(chǎn)品推薦系統(tǒng)。該系統(tǒng)基于大數(shù)據(jù)分析,實(shí)時(shí)監(jiān)測(cè)用戶行為,并根據(jù)歷史數(shù)據(jù)動(dòng)態(tài)調(diào)整商品推薦,以滿足每位顧客獨(dú)特的購(gòu)物偏好。這使得平臺(tái)能夠提高轉(zhuǎn)化率和客戶滿意度,同時(shí)降低庫(kù)存積壓和成本。再如,銀行通過(guò)整合內(nèi)部數(shù)據(jù)與外部來(lái)源,可以建立一個(gè)全面的客戶關(guān)系管理系統(tǒng),該系統(tǒng)利用自然語(yǔ)言處理技術(shù),分析客戶的電子郵件、社交媒體互動(dòng)和在線交易記錄,從而揭示客戶的需求模式和興趣點(diǎn),這些信息被用來(lái)定制個(gè)性化的營(yíng)銷(xiāo)活動(dòng)和服務(wù)方案,極大地提升了客戶忠誠(chéng)度和業(yè)務(wù)成果。類(lèi)似的案例不勝枚舉。無(wú)論是在零售業(yè)、金融服務(wù)業(yè)還是其他行業(yè),自動(dòng)化決策都以其智能、高效和創(chuàng)新的特性,幫助企業(yè)適應(yīng)市場(chǎng)變化,把握商機(jī),在競(jìng)爭(zhēng)激烈的市場(chǎng)中占據(jù)有利地位。這些應(yīng)用實(shí)例清晰地說(shuō)明了自動(dòng)化決策如何結(jié)合數(shù)字經(jīng)濟(jì)發(fā)展特點(diǎn),從而在各個(gè)層面上為企業(yè)帶來(lái)實(shí)質(zhì)性的優(yōu)勢(shì)。
(二)自動(dòng)化決策的內(nèi)生性風(fēng)險(xiǎn)帶來(lái)治理困境
自動(dòng)化決策遵循“算法形式主義”,通過(guò)輸入、輸出和目標(biāo)的規(guī)則表達(dá),將決策結(jié)果的產(chǎn)生公式化,算法的動(dòng)態(tài)演化和不可解釋性使這一轉(zhuǎn)譯過(guò)程具有內(nèi)生性風(fēng)險(xiǎn)。內(nèi)生性風(fēng)險(xiǎn)與技術(shù)本身的特性密切相關(guān)。這種風(fēng)險(xiǎn)是由于技術(shù)的設(shè)計(jì)缺陷、操作失誤或維護(hù)不當(dāng)所引起的問(wèn)題。例如,軟件漏洞、硬件故障或者過(guò)時(shí)的技術(shù)標(biāo)準(zhǔn)等都屬于內(nèi)生性風(fēng)險(xiǎn),這類(lèi)風(fēng)險(xiǎn)通常需要通過(guò)深入分析技術(shù)實(shí)現(xiàn)細(xì)節(jié)來(lái)識(shí)別和評(píng)估。大數(shù)據(jù)技術(shù)和人工智能技術(shù)的發(fā)展都需要對(duì)人類(lèi)生活信息進(jìn)行記錄,人工智能技術(shù)在學(xué)習(xí)的過(guò)程中也有可能將人類(lèi)某些偏見(jiàn)和價(jià)值情緒一概習(xí)得,且算法的黑箱性特點(diǎn)導(dǎo)致算法運(yùn)行程序的不透明,可能會(huì)導(dǎo)致“信息繭房”“算法歧視”“算法暴政”等危害性結(jié)果。在當(dāng)今數(shù)字化的時(shí)代,算法技術(shù)已經(jīng)成為企業(yè)和組織決策中不可或缺的一部分。然而,由于算法決策過(guò)程往往缺乏透明度,導(dǎo)致了所謂的算法“黑箱”現(xiàn)象,即公眾對(duì)算法如何得出決策結(jié)果幾乎一無(wú)所知。這種“黑箱”式的決策過(guò)程將決策的各個(gè)環(huán)節(jié)分割開(kāi)來(lái),分別交給數(shù)據(jù)采集、分析、判斷等不同的模塊處理。當(dāng)人們面對(duì)算法提供的決策結(jié)果時(shí),往往不知道背后的推理原理和整個(gè)決策流程。這種情況下,對(duì)于結(jié)果接受的不再是基于人類(lèi)理性的判斷,而是算法的機(jī)械邏輯。當(dāng)前對(duì)于自動(dòng)化決策的設(shè)計(jì)及運(yùn)行程序缺乏必要的記錄,這就導(dǎo)致難以對(duì)其開(kāi)展有效的評(píng)估和驗(yàn)證,對(duì)特定的決策結(jié)果進(jìn)行合理化解釋更是困難重重。
(三)當(dāng)前對(duì)于算法技術(shù)的法律規(guī)制供給不足
從國(guó)內(nèi)法律規(guī)定看,近年來(lái)我國(guó)的算法立法取得了明顯的進(jìn)展,相關(guān)規(guī)范文件數(shù)量也大幅增加。然而,算法治理的規(guī)則散落分布于不同的法律規(guī)定之中,這些規(guī)定主要體現(xiàn)在知識(shí)產(chǎn)權(quán)保護(hù)、個(gè)人信息保護(hù)等多個(gè)方面,但它們并未形成一個(gè)統(tǒng)一的框架。這種分散的狀態(tài)導(dǎo)致了在具體執(zhí)行時(shí),對(duì)于算法行為的界定和處理缺乏明確的尺度和標(biāo)準(zhǔn)。在這個(gè)過(guò)程中,裁量權(quán)的運(yùn)用往往不夠一致,認(rèn)定標(biāo)準(zhǔn)也難以達(dá)成共識(shí),這無(wú)疑增加了治理工作的難度。隨著算法技術(shù)的飛速發(fā)展,新出現(xiàn)的問(wèn)題和挑戰(zhàn)層出不窮,如數(shù)據(jù)隱私、算法偏見(jiàn)等問(wèn)題,都需要法律層面進(jìn)行及時(shí)而有效的應(yīng)對(duì)。
然而,在現(xiàn)有的法規(guī)體系下,面對(duì)這些新興議題時(shí),相關(guān)部門(mén)的響應(yīng)速度似乎有所滯后。平臺(tái)企業(yè)作為推動(dòng)技術(shù)發(fā)展的重要力量,他們對(duì)于遵守算法合規(guī)要求有著迫切需求,但現(xiàn)行的法規(guī)卻難以滿足他們?nèi)找嬖鲩L(zhǎng)的合規(guī)需求。因此,我們必須正視這一問(wèn)題,尋找解決之道,以確保技術(shù)進(jìn)步與社會(huì)治理的和諧共存。在制定相關(guān)法規(guī)時(shí),還必須進(jìn)一步明確算法問(wèn)責(zé)的標(biāo)準(zhǔn)和程序。這意味著算法決策的每一步都應(yīng)受到嚴(yán)格監(jiān)督,確保透明度和問(wèn)責(zé)制得到充分執(zhí)行。只有這樣,才能防止權(quán)力濫用,并保護(hù)個(gè)人隱私與數(shù)據(jù)安全。同時(shí),通過(guò)對(duì)算法設(shè)計(jì)進(jìn)行合理限制,可以確保其符合倫理和社會(huì)價(jià)值觀,避免算法偏見(jiàn)和歧視等問(wèn)題的發(fā)生。
三、算法自動(dòng)化決策的治理邏輯
在經(jīng)濟(jì)系統(tǒng)發(fā)生深刻變革的今天,對(duì)于自動(dòng)化決策治理的邏輯與方式亦必須與時(shí)俱進(jìn),作出相應(yīng)的調(diào)整。這要求我們從傳統(tǒng)的“規(guī)則”治理邏輯轉(zhuǎn)向更加注重“代碼”層面的治理邏輯。這樣的轉(zhuǎn)變不僅僅是對(duì)現(xiàn)有治理體系的完善,更是為了最大化地挖掘和利用算法技術(shù)中所蘊(yùn)含的巨大潛力。
(一)堅(jiān)持算法發(fā)展與技術(shù)規(guī)制平衡原則
算法自動(dòng)化決策并非一無(wú)是處的“壞”技術(shù)。在法律層面對(duì)其進(jìn)行規(guī)范與約束時(shí),我們必須全面考量它對(duì)行業(yè)進(jìn)步的深遠(yuǎn)影響。在判定責(zé)任界限時(shí)要充分考慮行業(yè)的發(fā)展水平這一核心要素,甚至當(dāng)考慮到特定行業(yè)內(nèi)的特殊需求以及對(duì)社會(huì)所能提供的價(jià)值時(shí),也應(yīng)適度地接受算法出現(xiàn)偶發(fā)性錯(cuò)誤的可能性。這不僅要求技術(shù)規(guī)制能夠適應(yīng)不斷變化的商業(yè)創(chuàng)新步伐,而且還需要它展現(xiàn)出更為靈活的治理方式。具體到算法技術(shù)規(guī)制的實(shí)施層面,其尺度和標(biāo)準(zhǔn)的確立,關(guān)鍵在于如何精確衡量技術(shù)治理過(guò)程中的成本與由此帶來(lái)的效能提升之間的價(jià)值平衡。這種平衡不僅關(guān)乎效率,更關(guān)乎公平、透明以及可持續(xù)發(fā)展的理念。在制定相關(guān)法規(guī)時(shí),我們必須確保這些規(guī)定既能促進(jìn)科技創(chuàng)新,又不至于過(guò)度限制或阻礙市場(chǎng)的活力,應(yīng)該根據(jù)不同行業(yè)的特性、市場(chǎng)環(huán)境以及技術(shù)進(jìn)步的動(dòng)態(tài)特征,靈活調(diào)整規(guī)制策略。
因此,在完善法律法規(guī)和監(jiān)管框架的同時(shí),我們還應(yīng)該采取一系列創(chuàng)新措施,以促進(jìn)算法技術(shù)的合理應(yīng)用和健康發(fā)展。通過(guò)建立透明、公正的數(shù)據(jù)使用機(jī)制,確保用戶能夠理解算法決策背后的邏輯和過(guò)程,同時(shí)也讓利益相關(guān)者有機(jī)會(huì)參與到算法設(shè)計(jì)中來(lái),共同推動(dòng)技術(shù)向更加公平、可持續(xù)的方向發(fā)展。這種方法不僅有助于減少因信息不對(duì)稱導(dǎo)致的市場(chǎng)扭曲現(xiàn)象,而且還能增強(qiáng)社會(huì)整體對(duì)算法技術(shù)的信任和接受度??傊鎸?duì)經(jīng)濟(jì)與科技的雙重轉(zhuǎn)型,我們應(yīng)立足長(zhǎng)遠(yuǎn),既要保障創(chuàng)新動(dòng)力的釋放,又要防范潛在的風(fēng)險(xiǎn),確保人工智能等新興技術(shù)能夠?yàn)槿祟?lèi)帶來(lái)福祉,而非成為未來(lái)發(fā)展的障礙。通過(guò)這樣的治理策略,可以有助于走向一個(gè)更加智能、更加公平、更具包容性的數(shù)字時(shí)代。
(二)遵循內(nèi)外部二元監(jiān)管思路
在當(dāng)今這個(gè)快速發(fā)展的時(shí)代,現(xiàn)代治理理念已經(jīng)不再局限于傳統(tǒng)的單一治理模式,而是提倡一種更為開(kāi)放和綜合的治理思想。這種理念認(rèn)為,要想有效應(yīng)對(duì)日益復(fù)雜多變的社會(huì)問(wèn)題,就必須打破現(xiàn)有的系統(tǒng)壁壘,實(shí)現(xiàn)各個(gè)社會(huì)子系統(tǒng)間的結(jié)構(gòu)耦合。對(duì)于涉及自動(dòng)化決策的監(jiān)管,這種理念同樣適用。在人工智能技術(shù)迅猛發(fā)展、自動(dòng)化決策頻繁出現(xiàn)的背景下,僅僅依靠單一部門(mén)或機(jī)構(gòu)來(lái)進(jìn)行監(jiān)管已顯得力不從心。因此,需要通過(guò)跨部門(mén)、跨學(xué)科的合作與協(xié)調(diào),形成一個(gè)協(xié)同監(jiān)管的體系,以確保自動(dòng)化決策既能發(fā)揮其優(yōu)勢(shì),又能避免潛在的風(fēng)險(xiǎn)和不公正現(xiàn)象。
具體而言,這一監(jiān)管理念在保有傳統(tǒng)監(jiān)管方式的基礎(chǔ)上,引入特定責(zé)任主體,例如我國(guó)個(gè)人信息保護(hù)法所明確的個(gè)人信息保護(hù)負(fù)責(zé)人。該責(zé)任主體不僅需要在企業(yè)設(shè)計(jì)算法時(shí)介入,而且還要對(duì)其實(shí)施全程監(jiān)控。如果企業(yè)在開(kāi)發(fā)算法的過(guò)程中未能及時(shí)向責(zé)任主體報(bào)告,那么企業(yè)將不可避免地面臨行政處罰。責(zé)任主體在算法設(shè)計(jì)的早期階段就可以介入,與算法設(shè)計(jì)師進(jìn)行溝通,告知他們可能的法律風(fēng)險(xiǎn)。這一措施旨在幫助算法設(shè)計(jì)師們避免未來(lái)可能出現(xiàn)的法律問(wèn)題,確保他們的算法設(shè)計(jì)符合法律規(guī)定,從而保護(hù)消費(fèi)者權(quán)益和社會(huì)公共利益。
算法設(shè)計(jì)完成之后,還需要對(duì)算法的決策后果進(jìn)行深入的評(píng)估。這一過(guò)程涉及多個(gè)層面,包括但不限于算法的透明度、公平性、隱私保護(hù)以及對(duì)不同群體的影響等。通過(guò)這種全面的評(píng)估,責(zé)任主體能夠?qū)λ惴ǖ臐撛诤蠊M(jìn)行準(zhǔn)確判斷,并在后續(xù)的算法評(píng)估報(bào)告中詳細(xì)披露所有相關(guān)信息。這些報(bào)告中不僅包括了算法設(shè)計(jì)師的名字,還包括了對(duì)算法運(yùn)行負(fù)責(zé)的具體員工,確保所有責(zé)任都能明確歸屬。如果責(zé)任主體發(fā)現(xiàn)某個(gè)算法在運(yùn)行中存在歧視現(xiàn)象,或者其結(jié)果對(duì)某些群體不公,或者有侵害消費(fèi)者利益的風(fēng)險(xiǎn),他們將采取行動(dòng)要求算法的使用者進(jìn)行改正,這可能意味著需要重新調(diào)整算法的參數(shù)或邏輯結(jié)構(gòu),以消除任何可能引起爭(zhēng)議的因素。
(三)推動(dòng)算法自動(dòng)化決策場(chǎng)景化治理
在數(shù)字化轉(zhuǎn)型的浪潮中,應(yīng)用場(chǎng)景已經(jīng)成為城市治理領(lǐng)域的新興關(guān)鍵元素。這些場(chǎng)景不僅體現(xiàn)了以用戶為中心的思維方式,而且它們強(qiáng)調(diào)互動(dòng)性的運(yùn)行模式、快速響應(yīng)變化的敏捷治理策略,以及與市民和社會(huì)各方面共同創(chuàng)造價(jià)值的能力。具體到算法自動(dòng)化決策的治理過(guò)程中,我們必須認(rèn)識(shí)到算法應(yīng)用中一個(gè)關(guān)鍵的規(guī)律——即不同的應(yīng)用場(chǎng)景會(huì)導(dǎo)致算法性質(zhì)上的巨大差異。正因?yàn)檫@樣的差異性,我們不能僅僅依賴于抽象的理論框架來(lái)進(jìn)行算法設(shè)計(jì)和優(yōu)化,而是應(yīng)該更加關(guān)注于對(duì)不同場(chǎng)景下的具體需求和特征的深入理解與歸納。這種場(chǎng)景化的要求使得我們能夠針對(duì)每個(gè)特定的用戶群體、面臨特定的風(fēng)險(xiǎn)類(lèi)型、所使用的算法技術(shù)以及監(jiān)管環(huán)境等因素,制定出更為精準(zhǔn)和有效的解決方案。因此,場(chǎng)景化不僅是一種方法論上的轉(zhuǎn)變,更是對(duì)算法應(yīng)用實(shí)踐的一次深刻洞察。通過(guò)細(xì)致地分析不同場(chǎng)景的特點(diǎn),我們可以確保算法設(shè)計(jì)的每一步都緊密貼合實(shí)際,從而最大限度地提高算法的實(shí)用性和有效性。簡(jiǎn)而言之,場(chǎng)景化的要求推動(dòng)了算法設(shè)計(jì)從理論層面走向?qū)嵺`層面的進(jìn)步,為算法的應(yīng)用提供了更加堅(jiān)實(shí)的基礎(chǔ)。
四、算法自動(dòng)化決策的法律規(guī)制進(jìn)路
對(duì)算法自動(dòng)化決策進(jìn)行立法規(guī)制時(shí),橫向?qū)用嫔弦粩嗤七M(jìn)場(chǎng)景化治理的精細(xì)化,完善相應(yīng)評(píng)估機(jī)制,縱向?qū)用嫔弦?/span>將算法技術(shù)優(yōu)化與用戶交互體驗(yàn)視為核心樞紐,通過(guò)這一軸線,從事前準(zhǔn)備階段到執(zhí)行過(guò)程以及事后階段的全流程進(jìn)行精心設(shè)計(jì)和動(dòng)態(tài)治理,積極探索出符合我國(guó)國(guó)情的法律規(guī)制路徑。
(一)完善算法決策風(fēng)險(xiǎn)評(píng)估機(jī)制
在推進(jìn)算法自動(dòng)化決策安全評(píng)估與風(fēng)險(xiǎn)監(jiān)測(cè)制度的過(guò)程中,必須深入理解治理機(jī)制的動(dòng)態(tài)化和靈活性的重要性。不僅要有前瞻性地預(yù)見(jiàn)到算法技術(shù)可能帶來(lái)的風(fēng)險(xiǎn),還要具備快速響應(yīng)并采取有效措施的能力。因此,構(gòu)建一個(gè)全面的評(píng)估框架,應(yīng)當(dāng)是一個(gè)動(dòng)態(tài)、分階段實(shí)施的策略。這個(gè)框架應(yīng)當(dāng)從對(duì)自動(dòng)化決策技術(shù)的分類(lèi)入手,細(xì)致地將它們分為不同的等級(jí)或類(lèi)別,然后針對(duì)每個(gè)類(lèi)別設(shè)計(jì)出相應(yīng)的評(píng)估標(biāo)準(zhǔn)和監(jiān)測(cè)指標(biāo),確保對(duì)技術(shù)應(yīng)用的全生命周期都能進(jìn)行細(xì)致的監(jiān)控和評(píng)估,從而及時(shí)發(fā)現(xiàn)潛在的安全隱患,并迅速采取應(yīng)對(duì)措施。最終目的是要構(gòu)建一個(gè)既全面又實(shí)用的評(píng)估框架,它不僅可以用來(lái)指導(dǎo)未來(lái)算法的開(kāi)發(fā)與應(yīng)用,還能為政策制定者提供決策支持,以應(yīng)對(duì)人工智能技術(shù)發(fā)展帶來(lái)的挑戰(zhàn)和機(jī)遇。
在《人工智能法案》中,歐盟構(gòu)建了一套以風(fēng)險(xiǎn)為基礎(chǔ)的人工智能治理框架。該框架要求對(duì)人工智能系統(tǒng)的潛在影響進(jìn)行全面而細(xì)致的評(píng)估,并將結(jié)果分為四個(gè)不同等級(jí):最小風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)以及不可接受風(fēng)險(xiǎn)。在當(dāng)前的治理實(shí)踐中,我國(guó)需要借鑒國(guó)際社會(huì)的有益做法,實(shí)施分類(lèi)分級(jí)的治理策略,這一策略要求對(duì)那些可能引發(fā)重大政治和經(jīng)濟(jì)安全的關(guān)鍵領(lǐng)域進(jìn)行優(yōu)先處理。具體來(lái)說(shuō),對(duì)于那些關(guān)系到人民生命安全、健康以及重大財(cái)產(chǎn)利益的關(guān)鍵行業(yè)需要給予特別關(guān)注。例如,金融行業(yè)作為國(guó)家經(jīng)濟(jì)的重要支柱,它的穩(wěn)定與安全直接關(guān)聯(lián)著整個(gè)社會(huì)的經(jīng)濟(jì)安全。因此,必須強(qiáng)化對(duì)該行業(yè)的監(jiān)管,確保其能夠有效抵御風(fēng)險(xiǎn),維護(hù)市場(chǎng)秩序,保障金融體系的穩(wěn)健運(yùn)行。此外,面對(duì)國(guó)家重大安全問(wèn)題,以及擁有市場(chǎng)支配地位的大型互聯(lián)網(wǎng)平臺(tái),我國(guó)也需要制定專(zhuān)門(mén)的算法規(guī)制措施。
(二)完善算法影響評(píng)估機(jī)制
影響評(píng)估制度深植于協(xié)同治理的理念之中,它致力于將多樣化的治理主體聚集在一個(gè)共同的管理平臺(tái)之上,以實(shí)現(xiàn)優(yōu)勢(shì)互補(bǔ)。在這個(gè)框架內(nèi),監(jiān)管機(jī)構(gòu)、被監(jiān)管者、第三方以及公眾都能發(fā)揮作用,共同推進(jìn)治理目標(biāo)的達(dá)成。影響評(píng)估作為一種科學(xué)且系統(tǒng)的治理工具,已經(jīng)被廣泛應(yīng)用于眾多領(lǐng)域,包括但不限于環(huán)境治理和數(shù)據(jù)治理。面對(duì)人工智能、大數(shù)據(jù)等新興技術(shù)帶來(lái)的治理挑戰(zhàn),建立一套科學(xué)有效的算法影響評(píng)估機(jī)制顯得尤為迫切,通過(guò)研究算法對(duì)社會(huì)行為和個(gè)體選擇的潛在影響,為制定相關(guān)政策提供理論依據(jù)和實(shí)踐指導(dǎo)。
首先,協(xié)作治理的理念應(yīng)當(dāng)成為算法影響評(píng)估制度構(gòu)建的核心指導(dǎo)原則。這意味著,在算法決策過(guò)程中,需要各方主體之間的緊密合作,包括政府、企業(yè)、學(xué)者以及公眾等,共同參與到算法的設(shè)計(jì)、開(kāi)發(fā)和應(yīng)用之中。其次,開(kāi)放性和責(zé)任性是算法影響評(píng)估機(jī)制設(shè)計(jì)中不可忽視的關(guān)鍵要素。開(kāi)放性要求評(píng)估制度能夠容納各種不同的聲音和觀點(diǎn),確保評(píng)估的全面性和公正性。而責(zé)任性則強(qiáng)調(diào)評(píng)估過(guò)程應(yīng)對(duì)所帶來(lái)的后果負(fù)責(zé),保證算法技術(shù)的使用不會(huì)造成不良的社會(huì)影響。這兩個(gè)維度相輔相成,缺一不可。最后,必須在算法影響評(píng)估制度的構(gòu)建過(guò)程中,始終貫穿“技術(shù)-組織-社會(huì)”的系統(tǒng)論思維。這種思維方式要求我們不僅僅關(guān)注技術(shù)本身的影響,還要深入理解組織結(jié)構(gòu)和社會(huì)互動(dòng)的復(fù)雜性。因此,我們需要在各類(lèi)系統(tǒng)框架的廣泛比較中,尋找那些能夠適應(yīng)不同應(yīng)用場(chǎng)景的、具有差異化特征的評(píng)估模型。
(三)確立算法侵權(quán)責(zé)任機(jī)制
在算法技術(shù)發(fā)生侵權(quán)的情形之后,首先要完成的是對(duì)于算法侵權(quán)相關(guān)關(guān)系以及責(zé)任主體的判定。與一般侵權(quán)案件不同,由于算法決策過(guò)程中涉及復(fù)雜的技術(shù)邏輯與數(shù)據(jù)分析,其因果關(guān)系的判定變得更加困難。在傳統(tǒng)侵權(quán)法律框架下,必然性因果關(guān)系和蓋然性因果關(guān)系成為了判斷責(zé)任歸屬的重要標(biāo)準(zhǔn)。然而,在算法環(huán)境中,這兩種關(guān)系往往并不成立,因?yàn)樗惴ㄟ\(yùn)行時(shí)所依據(jù)的相關(guān)關(guān)系是動(dòng)態(tài)的,它可能會(huì)隨著時(shí)間、地點(diǎn)以及情境的變化而發(fā)生改變。因此,面對(duì)算法侵權(quán)案件時(shí)需要采取一種更為靈活和多元的視角來(lái)分析問(wèn)題。在此基礎(chǔ)上,對(duì)算法侵權(quán)責(zé)任的界定也必須充分考慮到個(gè)案的具體情況,對(duì)各種責(zé)任主體的身份和作用進(jìn)行細(xì)致的劃分。例如,在某些情況下,算法設(shè)計(jì)者可能未能遵循既定的技術(shù)操作規(guī)范,或者故意規(guī)避倫理道德甚至法律,從而主動(dòng)設(shè)定了不當(dāng)規(guī)則,最終導(dǎo)致第三人合法權(quán)益受損。在這種情況下,設(shè)計(jì)者應(yīng)當(dāng)承擔(dān)起相應(yīng)的法律責(zé)任。另一方面,如果算法是基于自主學(xué)習(xí)能力和主動(dòng)探索行為形成的自我規(guī)則,并且設(shè)計(jì)者對(duì)算法風(fēng)險(xiǎn)的控制程度相對(duì)較低,那么在一定程度上,設(shè)計(jì)者可以因主觀惡意和過(guò)錯(cuò)的程度有限而進(jìn)行免責(zé)。這意味著,在某些情況下,設(shè)計(jì)者可能因?yàn)槠湓谠O(shè)計(jì)過(guò)程中的失誤或疏忽,而無(wú)需承擔(dān)全部或部分的侵權(quán)責(zé)任。
在算法風(fēng)險(xiǎn)侵權(quán)的情境中,還應(yīng)當(dāng)謹(jǐn)慎處理風(fēng)險(xiǎn)性損害的賠償問(wèn)題,以一種有條件、有限度的方式來(lái)承認(rèn)和補(bǔ)償受害者。這種賠償不應(yīng)僅僅基于金錢(qián)的支付,而更應(yīng)注重于對(duì)受害者精神或財(cái)產(chǎn)上的實(shí)際損害進(jìn)行合理的評(píng)估和賠償,特別是在預(yù)防性支出方面。為了確保這類(lèi)賠償?shù)墓叫院凸?,可以采用?dòng)態(tài)系統(tǒng)論和場(chǎng)景論的方法來(lái)審視和界定“嚴(yán)重性”要素的認(rèn)定過(guò)程。通過(guò)對(duì)不同場(chǎng)景下算法風(fēng)險(xiǎn)的具體分析,可以動(dòng)態(tài)地調(diào)整和界定嚴(yán)重精神損害的評(píng)價(jià)要素,從而為受害者提供更加個(gè)性化和針對(duì)性的支持。此外,除了金錢(qián)賠償外,還應(yīng)考慮到其他非金錢(qián)的補(bǔ)償方式,如停止侵害、消除影響、恢復(fù)名譽(yù)、賠禮道歉以及不作為禁令等。
五、結(jié)語(yǔ)
在人工智能技術(shù)飛速發(fā)展的推動(dòng)下,算法自動(dòng)化決策技術(shù)已經(jīng)與我們的社會(huì)生活實(shí)現(xiàn)了深度融合。這種融合不僅帶來(lái)了創(chuàng)新的機(jī)遇和提升效率的可能,也帶來(lái)了前所未有的風(fēng)險(xiǎn)和挑戰(zhàn)。算法技術(shù)的黑箱效應(yīng)使得監(jiān)管機(jī)構(gòu)難以準(zhǔn)確識(shí)別潛在的風(fēng)險(xiǎn)并進(jìn)行有效防范,也讓責(zé)任追究變得更加復(fù)雜和困難。因此,需要采取一種平衡技術(shù)發(fā)展與法律規(guī)制的策略,采用協(xié)同治理的理念,通過(guò)完善算法決策風(fēng)險(xiǎn)評(píng)估機(jī)制和算法影響評(píng)估制度來(lái)加強(qiáng)對(duì)自動(dòng)化決策過(guò)程的全面監(jiān)控。同時(shí),對(duì)于算法侵權(quán)行為,需要確立起一套有效的責(zé)任機(jī)制,以防止濫用和不當(dāng)使用算法帶來(lái)的負(fù)面后果,從而構(gòu)建一個(gè)更加公平、安全、透明的數(shù)字環(huán)境,在技術(shù)帶來(lái)的便利的同時(shí),避免其潛在的危險(xiǎn)和問(wèn)題,實(shí)現(xiàn)技術(shù)向善的愿景。(參考文獻(xiàn)略)(作者郭德香為鄭州大學(xué)法學(xué)院教授、博士生導(dǎo)師,王瑩為鄭州大學(xué)法學(xué)院碩士研究生。本文是河南省教育廳軟科學(xué)項(xiàng)目:重大公共衛(wèi)生應(yīng)急體系建設(shè)的法治化路徑及對(duì)策研究(22B330004)的階段性成果之一)