《中國經(jīng)濟(jì)周刊》 記者 王紅茹|北京報(bào)道
隨著科技的飛速進(jìn)步,人工智能(AI)已逐漸滲透到社會(huì)生活的方方面面,從千行百業(yè)到衣食住行,AI技術(shù)在賦能發(fā)展和提升效率的同時(shí),也帶來了一系列新問題和新挑戰(zhàn)。尤其是在公共管理領(lǐng)域,如何在享受技術(shù)紅利的同時(shí),又規(guī)避安全風(fēng)險(xiǎn),至關(guān)重要。比如人臉識(shí)別技術(shù)是AI領(lǐng)域的一個(gè)重要應(yīng)用,但如何在使用的同時(shí)保護(hù)好個(gè)人隱私和數(shù)據(jù)安全?AI成為創(chuàng)作者是否會(huì)引發(fā)知識(shí)產(chǎn)權(quán)深刻變革?AI法律監(jiān)管體系如何完善?……
AI到底應(yīng)該如何“管”?針對(duì)上述問題,《中國經(jīng)濟(jì)周刊》記者邀請(qǐng)了清華大學(xué)公共管理學(xué)院教授、人工智能治理研究中心主任梁正,北京市政協(xié)經(jīng)濟(jì)委員會(huì)副主任、振興國際智庫理事長(zhǎng)李志起,中國政法大學(xué)傳播法研究中心副主任朱巍,對(duì)外經(jīng)濟(jì)貿(mào)易大學(xué)數(shù)字經(jīng)濟(jì)與法律創(chuàng)新研究中心主任許可,從各自的專業(yè)領(lǐng)域來解疑釋惑、建言獻(xiàn)策。
梁正:AI大模型對(duì)公共管理帶來機(jī)遇與挑戰(zhàn)
AI大模型是指具有極其大規(guī)模參數(shù)(通常在10億個(gè)以上)和超強(qiáng)計(jì)算資源的機(jī)器學(xué)習(xí)模型,它的應(yīng)用有助于賦能政府的治理轉(zhuǎn)型,通過構(gòu)建“智能體”來推動(dòng)公共服務(wù)的智慧化躍升,并為政府長(zhǎng)期以來的數(shù)字化建設(shè)提供新的技術(shù)助力。具體而言,AI大模型為公共管理轉(zhuǎn)型提供了以下潛力。
第一,深度挖掘政務(wù)大數(shù)據(jù),優(yōu)化政務(wù)決策模式。傳統(tǒng)政務(wù)決策模式往往受限于決策者的有限理性,只能實(shí)現(xiàn)決策方案的局部最優(yōu),并遵循“漸進(jìn)式”的決策優(yōu)化邏輯。相比之下,AI大模型能抓取海量的政務(wù)大數(shù)據(jù),從中提煉出有價(jià)值的信息,利用強(qiáng)大的數(shù)據(jù)處理能力開展訓(xùn)練和分析,以預(yù)測(cè)為導(dǎo)向?qū)崿F(xiàn)全局最優(yōu)決策。在這一方面,AI大模型不僅可以直接提高預(yù)測(cè)的可靠性與準(zhǔn)確率,而且能夠?yàn)闆Q策者提供間接性的信息支持。
第二,創(chuàng)造虛擬行政人員,推動(dòng)新型政民互動(dòng)。傳統(tǒng)政民互動(dòng)方式以行政人員與公民的點(diǎn)對(duì)點(diǎn)交流為主,這既可能引發(fā)公眾對(duì)于行政人員自由裁量權(quán)的擔(dān)憂,也可能增加行政人員的工作負(fù)擔(dān)和職業(yè)倦怠。相比之下,大模型可以同時(shí)處理多項(xiàng)公民訴求,實(shí)現(xiàn)情境性、個(gè)性化的響應(yīng)與反饋,保證服務(wù)的效率與一致性,并將行政人員從繁瑣化、機(jī)械化與重復(fù)性的行政事務(wù)中解放出來。
第三,推動(dòng)組織數(shù)據(jù)集成,整合跨領(lǐng)域政務(wù)運(yùn)作。龐大政府組織往往面臨著不同部門的“信息煙囪”與“各自為政”等困境,這不僅源于部門間缺乏數(shù)據(jù)共享動(dòng)機(jī),而且受到數(shù)據(jù)標(biāo)準(zhǔn)不一致的制約。相比之下,大模型可以解決復(fù)雜數(shù)據(jù)的整合問題,為數(shù)據(jù)的獲取、傳輸、存儲(chǔ)、訓(xùn)練、分析與應(yīng)用提供技術(shù)支撐。同時(shí),大模型可以適用于不同的政務(wù)服務(wù)場(chǎng)景,這為不同部門間共享和協(xié)調(diào)本部門數(shù)據(jù)提供了有效激勵(lì)。
盡管如此,仍需警惕AI大模型的開發(fā)與使用帶來的公共價(jià)值困境。
首先是AI大模型的“黑匣子”問題。人工智能技術(shù)一直被詬病于不可訪問性、不透明性和不可解釋性的“黑匣子”屬性,政務(wù)大模型中的“智能涌現(xiàn)”(指人工智能大模型參數(shù)量超過一定規(guī)模后能力會(huì)陡然提升,可能會(huì)出現(xiàn)預(yù)期之外的能力)更是加劇了這一問題。大模型“智能”背后原因和邏輯的缺失會(huì)降低其結(jié)果的可信性與合法性。
其次是AI大模型的隱私與價(jià)值問題。AI大模型依賴于海量的政務(wù)數(shù)據(jù)作為輸入,這些數(shù)據(jù)通常涵蓋了公民的個(gè)人信息,造成模型訓(xùn)練與公民隱私間的沖突。同時(shí),AI大模型的輸出可能會(huì)面臨價(jià)值權(quán)衡的問題,在美國和荷蘭發(fā)生的一些人工智能事故就反映了效率與公平間的張力,造成了惡劣的社會(huì)影響。
最后是AI大模型的風(fēng)險(xiǎn)與問責(zé)問題。AI大模型的高度技術(shù)復(fù)雜性降低了公共管理者在行政流程中的自主性,并可能產(chǎn)生技術(shù)依賴,導(dǎo)致管理者難以進(jìn)行有效監(jiān)督和審核,造成公共風(fēng)險(xiǎn)的累積與放大。同時(shí),AI大模型在公共問責(zé)上存在著“多手”和“多眼”的問題:能否厘清不同主體的問責(zé)分配,以及能否滿足不同利益相關(guān)者的訴求。
因此,需要通過合理的治理機(jī)制和倫理監(jiān)管,確保其應(yīng)用既符合技術(shù)進(jìn)步的要求,也顧及公共利益和道德倫理的標(biāo)準(zhǔn)。在這一方面,公共管理者應(yīng)當(dāng)始終堅(jiān)持“以人為本”的基本原則,以公眾的實(shí)際感受為尺度,鼓勵(lì)公眾參與到人工智能大模型的部署、運(yùn)行、評(píng)估與反饋中來。
李志起:AI人臉識(shí)別技術(shù)需規(guī)范與發(fā)展并行
隨著科技的飛速進(jìn)步,人工智能(AI)已逐漸滲透到我們生活的方方面面,其中人臉識(shí)別技術(shù)作為AI領(lǐng)域的一個(gè)重要應(yīng)用,正廣泛應(yīng)用于安全監(jiān)控、金融支付、身份驗(yàn)證等多個(gè)領(lǐng)域。然而,任何技術(shù)的雙刃劍效應(yīng)都不容忽視,人臉識(shí)別技術(shù)在帶來便利的同時(shí),也引發(fā)了一系列關(guān)于隱私保護(hù)、數(shù)據(jù)安全和倫理道德的討論,近期上海市要求不得對(duì)旅客進(jìn)行“強(qiáng)制刷臉”核驗(yàn)的通知也引發(fā)輿論的廣泛關(guān)注。
人臉識(shí)別技術(shù)的廣泛應(yīng)用,為社會(huì)治理和公共服務(wù)提供了強(qiáng)有力的技術(shù)支撐。比如,在公共安全領(lǐng)域,人臉識(shí)別技術(shù)可以幫助警方迅速鎖定犯罪嫌疑人,提高案件偵破效率;在商業(yè)領(lǐng)域,該技術(shù)可以提升客戶體驗(yàn),實(shí)現(xiàn)無接觸支付等功能。但是,技術(shù)的雙刃劍效應(yīng)也在人臉識(shí)別技術(shù)上表現(xiàn)得淋漓盡致。一方面,由于人臉識(shí)別技術(shù)的高度精確性,使得個(gè)人隱私泄露的風(fēng)險(xiǎn)大大增加,一旦數(shù)據(jù)被濫用或泄露,后果不堪設(shè)想。另一方面,誤識(shí)和濫用的可能性也引發(fā)了公眾對(duì)于技術(shù)可靠性的擔(dān)憂。
因此,規(guī)范AI人臉識(shí)別技術(shù)的發(fā)展勢(shì)在必行。首先,需要從立法層面對(duì)人臉識(shí)別技術(shù)進(jìn)行規(guī)范。2023年8月8日,國家網(wǎng)信辦發(fā)布了《人臉識(shí)別技術(shù)應(yīng)用安全管理規(guī)定(試行)(征求意見稿)》,對(duì)明確人臉識(shí)別技術(shù)的使用范圍、數(shù)據(jù)處理方式和責(zé)任主體,確保個(gè)人隱私不受侵犯等方面擬作出新規(guī)定;2024年7月1日起即將施行的消保法首部配套行政法規(guī)——《消費(fèi)者權(quán)益保護(hù)法實(shí)施條例》也要求不得過度收集消費(fèi)者個(gè)人信息。筆者同時(shí)認(rèn)為,對(duì)于違規(guī)使用人臉識(shí)別技術(shù)的行為,還應(yīng)給予嚴(yán)厲的法律制裁,以此來保護(hù)公民的合法權(quán)益。
其次,行業(yè)內(nèi)部應(yīng)建立起嚴(yán)格的自律機(jī)制。企業(yè)作為技術(shù)開發(fā)和應(yīng)用的主體,有責(zé)任也有義務(wù)確保其所使用的技術(shù)不會(huì)侵犯用戶隱私。這就要求企業(yè)在開發(fā)和應(yīng)用人臉識(shí)別技術(shù)時(shí),必須遵循相關(guān)的法律法規(guī),同時(shí)還需要建立起完善的數(shù)據(jù)保護(hù)機(jī)制,確保用戶數(shù)據(jù)的安全性和完整性。
此外,公眾對(duì)于人臉識(shí)別技術(shù)的認(rèn)知和接受程度也是影響其發(fā)展的重要因素。因此,加強(qiáng)公眾的科學(xué)素養(yǎng)教育,提高公眾對(duì)于新技術(shù)的認(rèn)知和理解能力,也是推動(dòng)人臉識(shí)別技術(shù)規(guī)范發(fā)展的關(guān)鍵一環(huán)。只有當(dāng)公眾充分了解并信任這項(xiàng)技術(shù)時(shí),它才能更好地服務(wù)于社會(huì)。
同時(shí),必須要注意的一個(gè)問題是,規(guī)范人臉識(shí)別技術(shù)并不等于簡(jiǎn)單“一刀切”叫停該技術(shù)的發(fā)展。人臉識(shí)別技術(shù)作為人工智能領(lǐng)域的一個(gè)分支,其發(fā)展也必將受到人工智能技術(shù)整體發(fā)展趨勢(shì)的影響。隨著5G、云計(jì)算、大數(shù)據(jù)等技術(shù)的不斷發(fā)展,人臉識(shí)別技術(shù)也將迎來更多的應(yīng)用場(chǎng)景和發(fā)展機(jī)遇。因此,在規(guī)范人臉識(shí)別技術(shù)發(fā)展的同時(shí),我們還應(yīng)積極探索其在各個(gè)領(lǐng)域的應(yīng)用潛力,推動(dòng)其與其他技術(shù)的融合發(fā)展。比如,我們應(yīng)進(jìn)一步鼓勵(lì)技術(shù)創(chuàng)新,通過技術(shù)手段來提高人臉識(shí)別技術(shù)的準(zhǔn)確性和可靠性,應(yīng)充分考慮不同地區(qū)和群體的實(shí)際需求,確保人臉識(shí)別技術(shù)的普及和惠及面。因此,在推廣人臉識(shí)別技術(shù)時(shí),需要充分考慮不同地區(qū)和群體的實(shí)際需求,確保技術(shù)的普及和惠及面。
公眾期待一個(gè)更加智能化、便捷化、安全化的社會(huì)環(huán)境,人臉識(shí)別技術(shù)無疑將是實(shí)現(xiàn)這一目標(biāo)的重要工具之一。在這一技術(shù)的發(fā)展中,只有通過全社會(huì)的共同努力和協(xié)同治理,才能確保人臉識(shí)別技術(shù)能夠健康、有序地發(fā)展,并最終造福于人類社會(huì)。
朱巍:AI創(chuàng)作或引發(fā)知識(shí)產(chǎn)權(quán)深刻變革
AI大模型的快速發(fā)展在全球范圍內(nèi)帶來了空前的生成式人工智能(AIGC)熱潮。比如,人們只需要輸入一些提示詞,AI就能相應(yīng)地產(chǎn)出你想要的文章、視頻、音頻、圖像等。當(dāng)前,生成式人工智能正在引發(fā)新一輪人工智能革命,AIGC不僅改變了信息和知識(shí)的生產(chǎn)方式,重塑了人類與技術(shù)的交互模式,還開啟了我們對(duì)于通用人工智能的無窮想象。但人工智能也有“成長(zhǎng)的煩惱”,比如,一個(gè)近在眼前的問題是:AI作品是否享有著作權(quán)?
基于現(xiàn)有的法律體系,這些生成的作品是否受到著作權(quán)法保護(hù)有一定爭(zhēng)議,應(yīng)該分類型來具體分析。
第一個(gè)問題:明確AI作品版權(quán)主體。
AI作品的著作權(quán)涉及多個(gè)主體。首先,AI使用者是第一個(gè)主體。比如,AI使用者通過AI工具畫了幾幅畫,這些畫到底有沒有版權(quán)?從此前法院判例看,AI使用者擁有這些畫的版權(quán)。但這個(gè)判例的基礎(chǔ),是基于AI服務(wù)提供者與網(wǎng)民協(xié)議缺乏具體版權(quán)約定的情況下作出的。若使用者在接受服務(wù)之前,與服務(wù)提供者之間有版權(quán)協(xié)議的話,版權(quán)的最終歸屬權(quán)還是要看協(xié)議約定。
AI作品的第二個(gè)主體是AI服務(wù)提供者,主要是指人工智能的軟件或平臺(tái)有沒有對(duì)生成作品的版權(quán)。這個(gè)需要根據(jù)使用者協(xié)議來進(jìn)行判斷,AI在使用的過程中,如果與AI生成者沒有特殊性約定,AI作品的著作權(quán)歸使用者,平臺(tái)很難獲得版權(quán)。
第三個(gè)主體是AI學(xué)習(xí)的物料版權(quán)問題。AI之所以會(huì)變得智能,肯定要學(xué)習(xí)很多物料。AI機(jī)器在學(xué)習(xí)的過程當(dāng)中,需要使用大量的享有版權(quán)的內(nèi)容,才可以不斷地去完善。那么,AI學(xué)習(xí)過程中使用享有版權(quán)的內(nèi)容構(gòu)不構(gòu)成侵權(quán),這也是目前法律上一個(gè)具有爭(zhēng)議性的問題。據(jù)了解,目前不管是國內(nèi)還是國際規(guī)定,AI學(xué)習(xí)的物料應(yīng)當(dāng)是之前有版權(quán)或之后獲得版權(quán)人許可。
第二個(gè)問題:AI版權(quán)立法應(yīng)跟得上時(shí)代發(fā)展。
AI沒有出現(xiàn)之前,一個(gè)作品之所以擁有版權(quán)的一個(gè)基本原則叫“額頭出汗”原則,“額頭出汗”原則(或稱辛勤原則)是一條知識(shí)產(chǎn)權(quán)法律原則,尤其關(guān)系到著作權(quán)法。根據(jù)這條法律原則,作者通過創(chuàng)作時(shí)所付出的勞動(dòng)就可獲得著作權(quán)。但是在AI出現(xiàn)以后,獲得的作品是否付出了相關(guān)勞動(dòng)就不好判斷,因?yàn)榇蟛糠止ぷ魇怯葾I完成,這給版權(quán)權(quán)利授權(quán)造成沖擊?,F(xiàn)在所有的版權(quán)制度,基本都是基于工業(yè)革命時(shí)代形成的版權(quán)體系。即便我國的著作權(quán)法已經(jīng)修改了三次,其實(shí)也是工業(yè)時(shí)代的著作權(quán)法,并不是互聯(lián)網(wǎng)時(shí)代的法律。
第三個(gè)問題:以技術(shù)對(duì)技術(shù)的版權(quán)保護(hù)模式。
針對(duì)AI著作權(quán)問題,用區(qū)塊鏈技術(shù)+智能合約的方式加以分配更為妥當(dāng)。區(qū)塊鏈以分布記賬的方式確保作品的可追溯、不可篡改,智能合約則側(cè)重作品使用的利益分配。二者結(jié)合,可以將技術(shù)在一定程度上代替制度,妥善處理AI作品使用、處分和利益分配等問題。
其實(shí)版權(quán)保護(hù)的核心不在于不讓使用未經(jīng)權(quán)利人許可的內(nèi)容,重點(diǎn)在于鼓勵(lì)創(chuàng)新。所以要做到既鼓勵(lì)創(chuàng)新、保護(hù)權(quán)利人,又能平衡社會(huì)整體發(fā)展的權(quán)利,區(qū)塊鏈中的智能合約的分成制度是可以做到的,可以將當(dāng)前的著作權(quán)法中的相關(guān)規(guī)定放到區(qū)塊鏈上,這就是法律的技術(shù)化過程。
總之,人類創(chuàng)作方式的變革,將會(huì)引發(fā)知識(shí)產(chǎn)權(quán)的深刻變革,引發(fā)知識(shí)產(chǎn)權(quán)的主體、客體和內(nèi)容三個(gè)方面的深刻變革。我們的思維不應(yīng)僅停留在工業(yè)時(shí)代的立法,應(yīng)全面進(jìn)入到AI時(shí)代。
許可:AI不斷進(jìn)化,法律應(yīng)改進(jìn)式創(chuàng)新
40年前,英國社會(huì)學(xué)家科林格里奇曾言:當(dāng)某項(xiàng)科技還沒完全成熟和廣泛應(yīng)用之時(shí),法律尚有機(jī)會(huì)和能力去影響其發(fā)展,但此時(shí)我們并不知道它會(huì)帶來何種社會(huì)后果;相反,當(dāng)我們可以清楚預(yù)見到某項(xiàng)科技引發(fā)的后果時(shí),它往往已經(jīng)成熟且被廣泛使用,以至于法律很難對(duì)其作出實(shí)質(zhì)性改變了。這就是“科林格里奇困境”。當(dāng)然,人工智能恰恰是這樣一種影響未知但又潛力無窮的科技。不僅如此,人工智能作為“未完成之事物”,進(jìn)一步加劇了科林格里奇困境。
為了化解人工智能的科林格里奇困境,各國紛紛未雨綢繆。但是,各國爭(zhēng)先恐后的立法未必是最佳的回應(yīng)舉措。其中道理至為簡(jiǎn)明:如果缺乏對(duì)人工智能規(guī)律和趨勢(shì)的充分認(rèn)識(shí),只能陷入“法令滋彰,盜賊多有”的窘境,而這正是科林格里奇困境的本質(zhì)問題。然則,有無解決之道?
其實(shí),解決問題的關(guān)鍵是放棄整全式的人工智能立法構(gòu)想。與科技的顛覆性創(chuàng)新不同,法律永遠(yuǎn)是改進(jìn)式的創(chuàng)新。新的立法絕不是要廢止在同一調(diào)整范圍內(nèi)的一切舊法,而是通過補(bǔ)充使之完善。將此觀點(diǎn)運(yùn)用于我國的人工智能立法,一方面可以從既有制度汲取經(jīng)驗(yàn),另一方面則應(yīng)采取應(yīng)改盡改的原則,使法律與人工智能發(fā)展同頻共振。
就前者論之,我國的算法規(guī)制可首先作為人工智能法律的重要內(nèi)容。2021年12月,國家網(wǎng)信辦會(huì)同工信部、公安部、市場(chǎng)監(jiān)管總局出臺(tái)了《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》,該規(guī)定可謂對(duì)算法相關(guān)問題的階段性法律回應(yīng);2022年11月,國家網(wǎng)信辦聯(lián)合工信部、公安部發(fā)布了《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》,明確了深度合成服務(wù)的適用范圍、深度合成服務(wù)提供者、使用者以及技術(shù)支持者的相關(guān)義務(wù)規(guī)定與安全主體責(zé)任,加強(qiáng)了對(duì)互聯(lián)網(wǎng)信息服務(wù)深度合成的監(jiān)督和管理。
其次,個(gè)人信息保護(hù)法下自動(dòng)化決策規(guī)則對(duì)于人工智能治理有重要參考價(jià)值。所謂自動(dòng)化決策,是指通過計(jì)算機(jī)程序自動(dòng)分析、評(píng)估個(gè)人的行為習(xí)慣、興趣愛好或者經(jīng)濟(jì)、健康、信用狀況等,并進(jìn)行決策的活動(dòng)。該法規(guī)定:“個(gè)人信息處理者利用個(gè)人信息進(jìn)行自動(dòng)化決策,應(yīng)當(dāng)保證決策的透明度和結(jié)果公平、公正,不得對(duì)個(gè)人在交易價(jià)格等交易條件上實(shí)行不合理的差別待遇?!薄巴ㄟ^自動(dòng)化決策方式作出對(duì)個(gè)人權(quán)益有重大影響的決定,個(gè)人有權(quán)要求個(gè)人信息處理者予以說明,并有權(quán)拒絕個(gè)人信息處理者僅通過自動(dòng)化決策的方式作出決定?!?/p>
再次,規(guī)范科技倫理的審查工作有利于降低人工智能的倫理風(fēng)險(xiǎn)。2023年9月,科技部等部委聯(lián)合發(fā)布《科技倫理審查辦法(試行)》,規(guī)定“具有輿論社會(huì)動(dòng)員能力和社會(huì)意識(shí)引導(dǎo)能力的算法模型、應(yīng)用程序及系統(tǒng)的研發(fā)”及“面向存在安全、人身健康風(fēng)險(xiǎn)等場(chǎng)景的具有高度自主能力的自動(dòng)化決策系統(tǒng)的研發(fā)”均需要開展倫理審查復(fù)核。
最后,生成式人工智能規(guī)則為人工智能立法提供經(jīng)驗(yàn)儲(chǔ)備。2023年7月,國家網(wǎng)信辦等聯(lián)合發(fā)布《生成式人工智能服務(wù)管理暫行辦法》,規(guī)定了生成式人工智能服務(wù)提供者與使用者的合規(guī)舉措,確立了分類分級(jí)監(jiān)管與行業(yè)部門監(jiān)管相輔相成的監(jiān)管體系。就后者論之,人工智能的發(fā)展也給個(gè)人信息保護(hù)法、數(shù)據(jù)安全法、網(wǎng)絡(luò)安全法、電子商務(wù)法、著作權(quán)法、民法典等一系列法律帶來了沖擊,亟待通過修法予以調(diào)適。
(本文刊發(fā)于《中國經(jīng)濟(jì)周刊》2024年第9期)