AI應“善管”

《中國經(jīng)濟周刊》 記者 王紅茹|北京報道

隨著科技的飛速進步,人工智能(AI)已逐漸滲透到社會生活的方方面面,從千行百業(yè)到衣食住行,AI技術在賦能發(fā)展和提升效率的同時,也帶來了一系列新問題和新挑戰(zhàn)。尤其是在公共管理領域,如何在享受技術紅利的同時,又規(guī)避安全風險,至關重要。比如人臉識別技術是AI領域的一個重要應用,但如何在使用的同時保護好個人隱私和數(shù)據(jù)安全?AI成為創(chuàng)作者是否會引發(fā)知識產(chǎn)權深刻變革?AI法律監(jiān)管體系如何完善?……

AI到底應該如何“管”?針對上述問題,《中國經(jīng)濟周刊》記者邀請了清華大學公共管理學院教授、人工智能治理研究中心主任梁正,北京市政協(xié)經(jīng)濟委員會副主任、振興國際智庫理事長李志起,中國政法大學傳播法研究中心副主任朱巍,對外經(jīng)濟貿(mào)易大學數(shù)字經(jīng)濟與法律創(chuàng)新研究中心主任許可,從各自的專業(yè)領域來解疑釋惑、建言獻策。

梁正:AI大模型對公共管理帶來機遇與挑戰(zhàn)

AI大模型是指具有極其大規(guī)模參數(shù)(通常在10億個以上)和超強計算資源的機器學習模型,它的應用有助于賦能政府的治理轉型,通過構建“智能體”來推動公共服務的智慧化躍升,并為政府長期以來的數(shù)字化建設提供新的技術助力。具體而言,AI大模型為公共管理轉型提供了以下潛力。

第一,深度挖掘政務大數(shù)據(jù),優(yōu)化政務決策模式。傳統(tǒng)政務決策模式往往受限于決策者的有限理性,只能實現(xiàn)決策方案的局部最優(yōu),并遵循“漸進式”的決策優(yōu)化邏輯。相比之下,AI大模型能抓取海量的政務大數(shù)據(jù),從中提煉出有價值的信息,利用強大的數(shù)據(jù)處理能力開展訓練和分析,以預測為導向實現(xiàn)全局最優(yōu)決策。在這一方面,AI大模型不僅可以直接提高預測的可靠性與準確率,而且能夠為決策者提供間接性的信息支持。

第二,創(chuàng)造虛擬行政人員,推動新型政民互動。傳統(tǒng)政民互動方式以行政人員與公民的點對點交流為主,這既可能引發(fā)公眾對于行政人員自由裁量權的擔憂,也可能增加行政人員的工作負擔和職業(yè)倦怠。相比之下,大模型可以同時處理多項公民訴求,實現(xiàn)情境性、個性化的響應與反饋,保證服務的效率與一致性,并將行政人員從繁瑣化、機械化與重復性的行政事務中解放出來。

第三,推動組織數(shù)據(jù)集成,整合跨領域政務運作。龐大政府組織往往面臨著不同部門的“信息煙囪”與“各自為政”等困境,這不僅源于部門間缺乏數(shù)據(jù)共享動機,而且受到數(shù)據(jù)標準不一致的制約。相比之下,大模型可以解決復雜數(shù)據(jù)的整合問題,為數(shù)據(jù)的獲取、傳輸、存儲、訓練、分析與應用提供技術支撐。同時,大模型可以適用于不同的政務服務場景,這為不同部門間共享和協(xié)調本部門數(shù)據(jù)提供了有效激勵。

盡管如此,仍需警惕AI大模型的開發(fā)與使用帶來的公共價值困境。

首先是AI大模型的“黑匣子”問題。人工智能技術一直被詬病于不可訪問性、不透明性和不可解釋性的“黑匣子”屬性,政務大模型中的“智能涌現(xiàn)”(指人工智能大模型參數(shù)量超過一定規(guī)模后能力會陡然提升,可能會出現(xiàn)預期之外的能力)更是加劇了這一問題。大模型“智能”背后原因和邏輯的缺失會降低其結果的可信性與合法性。

其次是AI大模型的隱私與價值問題。AI大模型依賴于海量的政務數(shù)據(jù)作為輸入,這些數(shù)據(jù)通常涵蓋了公民的個人信息,造成模型訓練與公民隱私間的沖突。同時,AI大模型的輸出可能會面臨價值權衡的問題,在美國和荷蘭發(fā)生的一些人工智能事故就反映了效率與公平間的張力,造成了惡劣的社會影響。

最后是AI大模型的風險與問責問題。AI大模型的高度技術復雜性降低了公共管理者在行政流程中的自主性,并可能產(chǎn)生技術依賴,導致管理者難以進行有效監(jiān)督和審核,造成公共風險的累積與放大。同時,AI大模型在公共問責上存在著“多手”和“多眼”的問題:能否厘清不同主體的問責分配,以及能否滿足不同利益相關者的訴求。

因此,需要通過合理的治理機制和倫理監(jiān)管,確保其應用既符合技術進步的要求,也顧及公共利益和道德倫理的標準。在這一方面,公共管理者應當始終堅持“以人為本”的基本原則,以公眾的實際感受為尺度,鼓勵公眾參與到人工智能大模型的部署、運行、評估與反饋中來。

李志起:AI人臉識別技術需規(guī)范與發(fā)展并行

隨著科技的飛速進步,人工智能(AI)已逐漸滲透到我們生活的方方面面,其中人臉識別技術作為AI領域的一個重要應用,正廣泛應用于安全監(jiān)控、金融支付、身份驗證等多個領域。然而,任何技術的雙刃劍效應都不容忽視,人臉識別技術在帶來便利的同時,也引發(fā)了一系列關于隱私保護、數(shù)據(jù)安全和倫理道德的討論,近期上海市要求不得對旅客進行“強制刷臉”核驗的通知也引發(fā)輿論的廣泛關注。

人臉識別技術的廣泛應用,為社會治理和公共服務提供了強有力的技術支撐。比如,在公共安全領域,人臉識別技術可以幫助警方迅速鎖定犯罪嫌疑人,提高案件偵破效率;在商業(yè)領域,該技術可以提升客戶體驗,實現(xiàn)無接觸支付等功能。但是,技術的雙刃劍效應也在人臉識別技術上表現(xiàn)得淋漓盡致。一方面,由于人臉識別技術的高度精確性,使得個人隱私泄露的風險大大增加,一旦數(shù)據(jù)被濫用或泄露,后果不堪設想。另一方面,誤識和濫用的可能性也引發(fā)了公眾對于技術可靠性的擔憂。

因此,規(guī)范AI人臉識別技術的發(fā)展勢在必行。首先,需要從立法層面對人臉識別技術進行規(guī)范。2023年8月8日,國家網(wǎng)信辦發(fā)布了《人臉識別技術應用安全管理規(guī)定(試行)(征求意見稿)》,對明確人臉識別技術的使用范圍、數(shù)據(jù)處理方式和責任主體,確保個人隱私不受侵犯等方面擬作出新規(guī)定;2024年7月1日起即將施行的消保法首部配套行政法規(guī)——《消費者權益保護法實施條例》也要求不得過度收集消費者個人信息。筆者同時認為,對于違規(guī)使用人臉識別技術的行為,還應給予嚴厲的法律制裁,以此來保護公民的合法權益。

其次,行業(yè)內(nèi)部應建立起嚴格的自律機制。企業(yè)作為技術開發(fā)和應用的主體,有責任也有義務確保其所使用的技術不會侵犯用戶隱私。這就要求企業(yè)在開發(fā)和應用人臉識別技術時,必須遵循相關的法律法規(guī),同時還需要建立起完善的數(shù)據(jù)保護機制,確保用戶數(shù)據(jù)的安全性和完整性。

此外,公眾對于人臉識別技術的認知和接受程度也是影響其發(fā)展的重要因素。因此,加強公眾的科學素養(yǎng)教育,提高公眾對于新技術的認知和理解能力,也是推動人臉識別技術規(guī)范發(fā)展的關鍵一環(huán)。只有當公眾充分了解并信任這項技術時,它才能更好地服務于社會。

同時,必須要注意的一個問題是,規(guī)范人臉識別技術并不等于簡單“一刀切”叫停該技術的發(fā)展。人臉識別技術作為人工智能領域的一個分支,其發(fā)展也必將受到人工智能技術整體發(fā)展趨勢的影響。隨著5G、云計算、大數(shù)據(jù)等技術的不斷發(fā)展,人臉識別技術也將迎來更多的應用場景和發(fā)展機遇。因此,在規(guī)范人臉識別技術發(fā)展的同時,我們還應積極探索其在各個領域的應用潛力,推動其與其他技術的融合發(fā)展。比如,我們應進一步鼓勵技術創(chuàng)新,通過技術手段來提高人臉識別技術的準確性和可靠性,應充分考慮不同地區(qū)和群體的實際需求,確保人臉識別技術的普及和惠及面。因此,在推廣人臉識別技術時,需要充分考慮不同地區(qū)和群體的實際需求,確保技術的普及和惠及面。

公眾期待一個更加智能化、便捷化、安全化的社會環(huán)境,人臉識別技術無疑將是實現(xiàn)這一目標的重要工具之一。在這一技術的發(fā)展中,只有通過全社會的共同努力和協(xié)同治理,才能確保人臉識別技術能夠健康、有序地發(fā)展,并最終造福于人類社會。

朱?。?span style="text-indent: 2em;">AI創(chuàng)作或引發(fā)知識產(chǎn)權深刻變革

AI大模型的快速發(fā)展在全球范圍內(nèi)帶來了空前的生成式人工智能(AIGC)熱潮。比如,人們只需要輸入一些提示詞,AI就能相應地產(chǎn)出你想要的文章、視頻、音頻、圖像等。當前,生成式人工智能正在引發(fā)新一輪人工智能革命,AIGC不僅改變了信息和知識的生產(chǎn)方式,重塑了人類與技術的交互模式,還開啟了我們對于通用人工智能的無窮想象。但人工智能也有“成長的煩惱”,比如,一個近在眼前的問題是:AI作品是否享有著作權?

基于現(xiàn)有的法律體系,這些生成的作品是否受到著作權法保護有一定爭議,應該分類型來具體分析。

第一個問題:明確AI作品版權主體。

AI作品的著作權涉及多個主體。首先,AI使用者是第一個主體。比如,AI使用者通過AI工具畫了幾幅畫,這些畫到底有沒有版權?從此前法院判例看,AI使用者擁有這些畫的版權。但這個判例的基礎,是基于AI服務提供者與網(wǎng)民協(xié)議缺乏具體版權約定的情況下作出的。若使用者在接受服務之前,與服務提供者之間有版權協(xié)議的話,版權的最終歸屬權還是要看協(xié)議約定。

AI作品的第二個主體是AI服務提供者,主要是指人工智能的軟件或平臺有沒有對生成作品的版權。這個需要根據(jù)使用者協(xié)議來進行判斷,AI在使用的過程中,如果與AI生成者沒有特殊性約定,AI作品的著作權歸使用者,平臺很難獲得版權。

第三個主體是AI學習的物料版權問題。AI之所以會變得智能,肯定要學習很多物料。AI機器在學習的過程當中,需要使用大量的享有版權的內(nèi)容,才可以不斷地去完善。那么,AI學習過程中使用享有版權的內(nèi)容構不構成侵權,這也是目前法律上一個具有爭議性的問題。據(jù)了解,目前不管是國內(nèi)還是國際規(guī)定,AI學習的物料應當是之前有版權或之后獲得版權人許可。

第二個問題:AI版權立法應跟得上時代發(fā)展。

AI沒有出現(xiàn)之前,一個作品之所以擁有版權的一個基本原則叫“額頭出汗”原則,“額頭出汗”原則(或稱辛勤原則)是一條知識產(chǎn)權法律原則,尤其關系到著作權法。根據(jù)這條法律原則,作者通過創(chuàng)作時所付出的勞動就可獲得著作權。但是在AI出現(xiàn)以后,獲得的作品是否付出了相關勞動就不好判斷,因為大部分工作是由AI完成,這給版權權利授權造成沖擊?,F(xiàn)在所有的版權制度,基本都是基于工業(yè)革命時代形成的版權體系。即便我國的著作權法已經(jīng)修改了三次,其實也是工業(yè)時代的著作權法,并不是互聯(lián)網(wǎng)時代的法律。

第三個問題:以技術對技術的版權保護模式。

針對AI著作權問題,用區(qū)塊鏈技術+智能合約的方式加以分配更為妥當。區(qū)塊鏈以分布記賬的方式確保作品的可追溯、不可篡改,智能合約則側重作品使用的利益分配。二者結合,可以將技術在一定程度上代替制度,妥善處理AI作品使用、處分和利益分配等問題。

其實版權保護的核心不在于不讓使用未經(jīng)權利人許可的內(nèi)容,重點在于鼓勵創(chuàng)新。所以要做到既鼓勵創(chuàng)新、保護權利人,又能平衡社會整體發(fā)展的權利,區(qū)塊鏈中的智能合約的分成制度是可以做到的,可以將當前的著作權法中的相關規(guī)定放到區(qū)塊鏈上,這就是法律的技術化過程。

總之,人類創(chuàng)作方式的變革,將會引發(fā)知識產(chǎn)權的深刻變革,引發(fā)知識產(chǎn)權的主體、客體和內(nèi)容三個方面的深刻變革。我們的思維不應僅停留在工業(yè)時代的立法,應全面進入到AI時代。

許可:AI不斷進化,法律應改進式創(chuàng)新

40年前,英國社會學家科林格里奇曾言:當某項科技還沒完全成熟和廣泛應用之時,法律尚有機會和能力去影響其發(fā)展,但此時我們并不知道它會帶來何種社會后果;相反,當我們可以清楚預見到某項科技引發(fā)的后果時,它往往已經(jīng)成熟且被廣泛使用,以至于法律很難對其作出實質性改變了。這就是“科林格里奇困境”。當然,人工智能恰恰是這樣一種影響未知但又潛力無窮的科技。不僅如此,人工智能作為“未完成之事物”,進一步加劇了科林格里奇困境。

為了化解人工智能的科林格里奇困境,各國紛紛未雨綢繆。但是,各國爭先恐后的立法未必是最佳的回應舉措。其中道理至為簡明:如果缺乏對人工智能規(guī)律和趨勢的充分認識,只能陷入“法令滋彰,盜賊多有”的窘境,而這正是科林格里奇困境的本質問題。然則,有無解決之道?

其實,解決問題的關鍵是放棄整全式的人工智能立法構想。與科技的顛覆性創(chuàng)新不同,法律永遠是改進式的創(chuàng)新。新的立法絕不是要廢止在同一調整范圍內(nèi)的一切舊法,而是通過補充使之完善。將此觀點運用于我國的人工智能立法,一方面可以從既有制度汲取經(jīng)驗,另一方面則應采取應改盡改的原則,使法律與人工智能發(fā)展同頻共振。

就前者論之,我國的算法規(guī)制可首先作為人工智能法律的重要內(nèi)容。2021年12月,國家網(wǎng)信辦會同工信部、公安部、市場監(jiān)管總局出臺了《互聯(lián)網(wǎng)信息服務算法推薦管理規(guī)定》,該規(guī)定可謂對算法相關問題的階段性法律回應;2022年11月,國家網(wǎng)信辦聯(lián)合工信部、公安部發(fā)布了《互聯(lián)網(wǎng)信息服務深度合成管理規(guī)定》,明確了深度合成服務的適用范圍、深度合成服務提供者、使用者以及技術支持者的相關義務規(guī)定與安全主體責任,加強了對互聯(lián)網(wǎng)信息服務深度合成的監(jiān)督和管理。

其次,個人信息保護法下自動化決策規(guī)則對于人工智能治理有重要參考價值。所謂自動化決策,是指通過計算機程序自動分析、評估個人的行為習慣、興趣愛好或者經(jīng)濟、健康、信用狀況等,并進行決策的活動。該法規(guī)定:“個人信息處理者利用個人信息進行自動化決策,應當保證決策的透明度和結果公平、公正,不得對個人在交易價格等交易條件上實行不合理的差別待遇?!薄巴ㄟ^自動化決策方式作出對個人權益有重大影響的決定,個人有權要求個人信息處理者予以說明,并有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。”

再次,規(guī)范科技倫理的審查工作有利于降低人工智能的倫理風險。2023年9月,科技部等部委聯(lián)合發(fā)布《科技倫理審查辦法(試行)》,規(guī)定“具有輿論社會動員能力和社會意識引導能力的算法模型、應用程序及系統(tǒng)的研發(fā)”及“面向存在安全、人身健康風險等場景的具有高度自主能力的自動化決策系統(tǒng)的研發(fā)”均需要開展倫理審查復核。

最后,生成式人工智能規(guī)則為人工智能立法提供經(jīng)驗儲備。2023年7月,國家網(wǎng)信辦等聯(lián)合發(fā)布《生成式人工智能服務管理暫行辦法》,規(guī)定了生成式人工智能服務提供者與使用者的合規(guī)舉措,確立了分類分級監(jiān)管與行業(yè)部門監(jiān)管相輔相成的監(jiān)管體系。就后者論之,人工智能的發(fā)展也給個人信息保護法、數(shù)據(jù)安全法、網(wǎng)絡安全法、電子商務法、著作權法、民法典等一系列法律帶來了沖擊,亟待通過修法予以調適。

(本文刊發(fā)于《中國經(jīng)濟周刊》2024年第9期)


頂部