在過去的一段時間里,國產(chǎn)AI模型所展現(xiàn)的能力不僅讓國內(nèi)使用者驚嘆連連,也在國際資本市場掀起了驚濤駭浪。很快關(guān)于企業(yè)決策者下令全面部署或?qū)覣I模型的新聞紛紛見諸于報端。我們相信,隨著訓(xùn)練成本和應(yīng)用成本的逐步降低,基于AI模型的應(yīng)用將迅速得到推廣,隨之而來的也有法律方面的多重挑戰(zhàn)。本文將重點介紹中國企業(yè)在部署AI模型過程中一些需要注意的法律事項,以期協(xié)助企業(yè)更好地應(yīng)用AI模型,從法律層面助力企業(yè)健康發(fā)展。注意事項一:應(yīng)重點關(guān)注商業(yè)秘密的保護(hù),對于企業(yè)數(shù)據(jù)和信息是否用于AI模型訓(xùn)練進(jìn)行合同約定和技術(shù)防范AI模型的使用依賴于數(shù)據(jù)和信息流動,因此相關(guān)使用行為需要符合《中華人民共和國數(shù)據(jù)安全法》《中華人民共和國個人信息保護(hù)法》及相關(guān)法律法規(guī)的要求。除此之外,企業(yè)在部署AI模型過程中還需要關(guān)注一類特殊風(fēng)險,即AI模型可能會利用被輸入的數(shù)據(jù)不斷訓(xùn)練和發(fā)展自身,從而帶來企業(yè)商業(yè)秘密或者保密信息被泄露的風(fēng)險。筆者查閱了幾家知名國產(chǎn)AI模型的服務(wù)協(xié)議,絕大多數(shù)都提到可能會將使用者輸入模型的內(nèi)容和模型向使用者輸出的內(nèi)容用于AI模型和相關(guān)產(chǎn)品的訓(xùn)練,并且部分模型還要求使用者就輸入內(nèi)容給予AI模型提供方“免費、長期、全球范圍和可轉(zhuǎn)讓”的授權(quán),只有少數(shù)服務(wù)協(xié)議提到如果使用者不希望模型提供方處理、使用其數(shù)據(jù),可以聯(lián)系反饋意見。也就是說,如果企業(yè)聯(lián)網(wǎng)部署了AI模型,其員工所輸入的內(nèi)容(包括但不限于技術(shù)秘密、經(jīng)營秘密和其他保密信息等)將可能會被用于AI訓(xùn)練,從而導(dǎo)致其在法律上喪失商業(yè)秘密的可保護(hù)性,也可能導(dǎo)致這些數(shù)據(jù)或信息被第三方進(jìn)一步知悉和使用。因此,企業(yè)在部署AI時應(yīng)特別關(guān)注對輸入內(nèi)容的保護(hù),一方面需要與AI模型提供方就數(shù)據(jù)權(quán)屬和使用進(jìn)行書面約定,另一方面也要在技術(shù)上采取預(yù)防措施(比如僅進(jìn)行本地部署、避免數(shù)據(jù)上傳等),防范商業(yè)秘密和其他保密信息的泄露。注意事項二:AI模型的可問責(zé)性存疑,應(yīng)對人機(jī)責(zé)任的邊界建立指引AI的可問責(zé)性存疑主要涉及三個方面:1.免責(zé)約定。目前幾乎所有的AI模型服務(wù)協(xié)議都約定了對使用者較為嚴(yán)苛的免責(zé)條款,AI模型提供方不對服務(wù)的連續(xù)性、完整性、合法性、準(zhǔn)確性、及時性等承擔(dān)責(zé)任,也不保證AI模型符合使用方的期待和需求。因此企業(yè)如果由于使用中存在的問題追究模型提供方的責(zé)任,將在法律方面面臨較大挑戰(zhàn)。2.“黑盒效應(yīng)”。AI模型的運行在輸入、輸出端是相對清晰的,但中間階段的運行存在不透明性且欠缺可解釋性,這給企業(yè)維權(quán)帶來了較大困難。實踐中我們注意到,在智能駕駛領(lǐng)域存在一些案例,消費者在發(fā)生交通事故后與主機(jī)廠商就智能駕駛系統(tǒng)是否正常運行、是否存在質(zhì)量缺陷等發(fā)生爭議,消費者在這類糾紛中的舉證能力有限,進(jìn)行AI模型部署的企業(yè)也可能在實際使用過程中面臨類似問題。3.責(zé)任邊界。企業(yè)部署AI模型后將不可避免地涉及AI與員工之間的權(quán)責(zé)分配問題。相比于傳統(tǒng)辦公軟件,除了搜索功能之外,AI在推理能力、分析能力、決策能力和執(zhí)行效率方面有著顯著的優(yōu)勢,但是關(guān)于員工可以在哪些業(yè)務(wù)領(lǐng)域使用AI、如何保護(hù)企業(yè)的商業(yè)秘密及保密信息、如何確保決策結(jié)果的可靠性等方面,建議企業(yè)設(shè)立制度性文件予以指導(dǎo),并根據(jù)使用過程中出現(xiàn)的問題不斷更新。否則,在缺乏制度指引的情況下,貿(mào)然部署AI模型無異于一場“技術(shù)冒險”,可能會給企業(yè)帶來不可估量的風(fēng)險,更難以追究相關(guān)方的責(zé)任。注意事項三:AI模型的可靠性有待驗證,應(yīng)有其他備選方案和交叉驗證機(jī)制,以防范對第三方的違約風(fēng)險盡管AI模型已經(jīng)表現(xiàn)出了驚人的能力,其可靠性仍有待考驗,這既體現(xiàn)在硬件支持方面,也體現(xiàn)在數(shù)據(jù)污染、數(shù)據(jù)缺失所導(dǎo)致的“AI幻覺”等方面。具體而言:1.系統(tǒng)故障。現(xiàn)階段AI模型的運營依賴于大量資源的投入,尤其在算力方面,需要有大量芯片、顯卡、內(nèi)存、存儲設(shè)備等硬件支持。AI模型規(guī)模龐大、系統(tǒng)復(fù)雜,對于運營、維護(hù)、故障排除等都有很高的要求,而且AI模型還可能遭遇各類型的網(wǎng)絡(luò)攻擊。一旦系統(tǒng)出現(xiàn)故障,可能會對企業(yè)經(jīng)營造成負(fù)面影響。2.假設(shè)偏見。區(qū)別于傳統(tǒng)辦公軟件,AI模型在決策方面表現(xiàn)出了更加強(qiáng)大的能力。但是,也有分析指出,AI模型在給出分析和決策意見時可能存在結(jié)果不穩(wěn)定的情況,實踐中可能存在“千人千面”的結(jié)果。造成這一狀況的原因既可能是數(shù)據(jù)污染或算法缺陷導(dǎo)致的,也有可能是使用人在輸入內(nèi)容時表現(xiàn)出了一定的傾向或預(yù)設(shè)立場所導(dǎo)致的。如此情形下,不同員工使用AI模型會產(chǎn)生不同的結(jié)果,可能會對企業(yè)決策造成困擾,也可能導(dǎo)致商品或服務(wù)的品質(zhì)不穩(wěn)定。3.AI幻覺。AI模型在生成內(nèi)容時,有時為了呈現(xiàn)邏輯上的完整性,可能會生產(chǎn)出完全虛構(gòu)、不準(zhǔn)確的事實而誤導(dǎo)用戶。筆者在使用AI模型進(jìn)行信息或法律檢索過程中就曾多次遇到AI模型提供的內(nèi)容包含不存在的案例或數(shù)據(jù)的情形。有鑒于上述情形,企業(yè)在部署AI模型時應(yīng)著重考慮其硬件和軟件方面的可靠性,尤其是交付的商品或服務(wù)需要利用AI模型所生成的內(nèi)容時,應(yīng)當(dāng)設(shè)置其他備選方案和交叉驗證機(jī)制,以預(yù)防由于AI模型的可靠性缺失而導(dǎo)致對于第三方的違約風(fēng)險。注意事項四:關(guān)注AI模型相關(guān)的風(fēng)險信息一方面,在我國國內(nèi)部署AI模型的企業(yè)需要關(guān)注相關(guān)模型是否按照國內(nèi)的法律法規(guī)履行了模型、算法等備案義務(wù)。企業(yè)如果利用AI模型對外提供人工智能服務(wù)的,還要對自身所提供的服務(wù)是否需要進(jìn)行安全評估和備案等進(jìn)行分析和審查。另一方面,被部署的AI模型是否涉及貿(mào)易管制和制裁、國家安全審查等限制和風(fēng)險,對于從事跨國業(yè)務(wù)的企業(yè)也是需要關(guān)注的重點,并應(yīng)做好相關(guān)的應(yīng)對預(yù)案。以上一至四注意事項涉及企業(yè)對內(nèi)、對外部署和應(yīng)用AI模型過程中可能遇到的風(fēng)險和挑戰(zhàn)。筆者建議,企業(yè)在正式部署前和部署過程中需要組織跨部門的團(tuán)隊識別和評估相關(guān)風(fēng)險,有針對性地制定解決方案。此外,建議編制使用AI模型的內(nèi)部指引文件,對涉及部門的員工進(jìn)行培訓(xùn)和指導(dǎo),以期在風(fēng)險可控的基礎(chǔ)上最大化AI模型對于業(yè)務(wù)的幫助。注意事項五:算法歧視所引發(fā)的監(jiān)管和消費糾紛風(fēng)險2024年11月,國家互聯(lián)網(wǎng)信息辦公室等五部門發(fā)布了《關(guān)于開展“清朗·網(wǎng)絡(luò)平臺算法典型問題治理”專項行動的通知》,明確提出將治理算法“信息繭房”“大數(shù)據(jù)殺熟”等現(xiàn)象,相信監(jiān)管部門將在解決算法歧視等問題上進(jìn)一步加強(qiáng)監(jiān)督。對于企業(yè)而言,如果在對外業(yè)務(wù)中部署AI模型或應(yīng)用,需要關(guān)注潛在的算法歧視問題,尤其重點關(guān)注濫用個人信息進(jìn)行個性化推薦和設(shè)置不合理的交易價格等方面。注意事項六:AI虛假內(nèi)容所引發(fā)的欺詐風(fēng)險在當(dāng)前熱門AI應(yīng)用中,虛擬數(shù)字人、智能聊天機(jī)器人、廣告文案和圖片創(chuàng)作是最先落地的應(yīng)用領(lǐng)域之一。筆者長期關(guān)注廣告法領(lǐng)域,并注意到在一些廣告圖片創(chuàng)作中的模特、產(chǎn)品以及場景是虛構(gòu)的,這當(dāng)然有利于商家節(jié)省聘請模特、產(chǎn)品打樣、廣告拍攝等成本,但也同樣帶來了虛假廣告的違規(guī)風(fēng)險。實踐中,就曾經(jīng)有因產(chǎn)品效果涉嫌修圖而被處罰的案例。由于AI生成內(nèi)容存在一定的自主性和不可控性,企業(yè)在營銷和售后業(yè)務(wù)中部署AI模型或應(yīng)用可能會存在虛假宣傳、消費欺詐等法律風(fēng)險,需要有針對性地采取預(yù)防措施。注意事項七:AI算法應(yīng)用中的壟斷和不正當(dāng)競爭風(fēng)險2024年7月1日實施的《最高人民法院關(guān)于審理壟斷民事糾紛案件適用法律若干問題的解釋》第二十四條,以及2024年12月25日發(fā)布的《中華人民共和國反不正當(dāng)競爭法(修訂草案)》第十三條,都增加了不得利用數(shù)據(jù)和算法實施壟斷和不正當(dāng)競爭行為的禁止性規(guī)定。對于企業(yè)而言,如果在對外業(yè)務(wù)中部署AI模型或應(yīng)用,尤其是使用或提供“動態(tài)定價”等功能時,需要特別關(guān)注壟斷或不正當(dāng)競爭方面的風(fēng)險。就平臺企業(yè)而言,除了橫向和縱向壟斷風(fēng)險,還需要關(guān)注是否涉及幫助平臺內(nèi)經(jīng)營者達(dá)成軸輻協(xié)議的壟斷法律風(fēng)險。注意事項八:AI相關(guān)的知識產(chǎn)權(quán)侵權(quán)風(fēng)險使用AI模型過程中所引發(fā)的知識產(chǎn)權(quán)侵權(quán)風(fēng)險已經(jīng)逐漸引發(fā)社會關(guān)注和大量討論。幾家知名國產(chǎn)AI模型的服務(wù)協(xié)議幾乎都明確約定AI模型提供方不對輸出內(nèi)容的知識產(chǎn)權(quán)、肖像權(quán)、名譽(yù)權(quán)、榮譽(yù)權(quán)、隱私權(quán)等承擔(dān)不侵權(quán)的法律義務(wù)和責(zé)任;相反,還可能會要求使用者對輸入、輸出內(nèi)容及未來的使用承擔(dān)法律義務(wù)。值得關(guān)注的是,部分AI模型的服務(wù)協(xié)議對于輸出內(nèi)容的商業(yè)化使用存在限制性規(guī)定,隨意使用還可能導(dǎo)致對AI模型提供方的違約或侵權(quán)風(fēng)險。以上五至八注意事項主要涉及企業(yè)對外部署和應(yīng)用AI模型過程中可能遇到的風(fēng)險和挑戰(zhàn)。筆者建議,企業(yè)在正式部署前和部署過程中應(yīng)當(dāng)?shù)玫酵獠繉I(yè)顧問在技術(shù)和法律風(fēng)險評估方面的支持,將法律意識與商品、服務(wù)結(jié)合起來,以避免因為違反法律而給企業(yè)形象和持續(xù)運營埋下隱患。(作者:沈程,北京君合(上海)律師事務(wù)所)【責(zé)任編輯:宋安勇】