企业部署AI模型的八个注意事项

分享到

在过去的一段时间里,国产AI模型所展现的能力不仅让国内使用者惊叹连连,也在国际资本市场掀起了惊涛骇浪。很快关于企业决策者下令全面部署或对接AI模型的新闻纷纷见诸于报端。

我们相信,随着训练成本和应用成本的逐步降低,基于AI模型的应用将迅速得到推广,随之而来的也有法律方面的多重挑战。

本文将重点介绍中国企业在部署AI模型过程中一些需要注意的法律事项,以期协助企业更好地应用AI模型,从法律层面助力企业健康发展。

注意事项一:应重点关注商业秘密的保护,对于企业数据和信息是否用于AI模型训练进行合同约定和技术防范

AI模型的使用依赖于数据和信息流动,因此相关使用行为需要符合《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》及相关法律法规的要求。除此之外,企业在部署AI模型过程中还需要关注一类特殊风险,即AI模型可能会利用被输入的数据不断训练和发展自身,从而带来企业商业秘密或者保密信息被泄露的风险。

笔者查阅了几家知名国产AI模型的服务协议,绝大多数都提到可能会将使用者输入模型的内容和模型向使用者输出的内容用于AI模型和相关产品的训练,并且部分模型还要求使用者就输入内容给予AI模型提供方“免费、长期、全球范围和可转让”的授权,只有少数服务协议提到如果使用者不希望模型提供方处理、使用其数据,可以联系反馈意见。

也就是说,如果企业联网部署了AI模型,其员工所输入的内容(包括但不限于技术秘密、经营秘密和其他保密信息等)将可能会被用于AI训练,从而导致其在法律上丧失商业秘密的可保护性,也可能导致这些数据或信息被第三方进一步知悉和使用。

因此,企业在部署AI时应特别关注对输入内容的保护,一方面需要与AI模型提供方就数据权属和使用进行书面约定,另一方面也要在技术上采取预防措施(比如仅进行本地部署、避免数据上传等),防范商业秘密和其他保密信息的泄露。

注意事项二:AI模型的可问责性存疑,应对人机责任的边界建立指引

AI的可问责性存疑主要涉及三个方面:

1.免责约定。目前几乎所有的AI模型服务协议都约定了对使用者较为严苛的免责条款,AI模型提供方不对服务的连续性、完整性、合法性、准确性、及时性等承担责任,也不保证AI模型符合使用方的期待和需求。因此企业如果由于使用中存在的问题追究模型提供方的责任,将在法律方面面临较大挑战。

2.“黑盒效应”。AI模型的运行在输入、输出端是相对清晰的,但中间阶段的运行存在不透明性且欠缺可解释性,这给企业维权带来了较大困难。实践中我们注意到,在智能驾驶领域存在一些案例,消费者在发生交通事故后与主机厂商就智能驾驶系统是否正常运行、是否存在质量缺陷等发生争议,消费者在这类纠纷中的举证能力有限,进行AI模型部署的企业也可能在实际使用过程中面临类似问题。

3.责任边界。企业部署AI模型后将不可避免地涉及AI与员工之间的权责分配问题。相比于传统办公软件,除了搜索功能之外,AI在推理能力、分析能力、决策能力和执行效率方面有着显著的优势,但是关于员工可以在哪些业务领域使用AI、如何保护企业的商业秘密及保密信息、如何确保决策结果的可靠性等方面,建议企业设立制度性文件予以指导,并根据使用过程中出现的问题不断更新。否则,在缺乏制度指引的情况下,贸然部署AI模型无异于一场“技术冒险”,可能会给企业带来不可估量的风险,更难以追究相关方的责任。

注意事项三:AI模型的可靠性有待验证,应有其他备选方案和交叉验证机制,以防范对第三方的违约风险

尽管AI模型已经表现出了惊人的能力,其可靠性仍有待考验,这既体现在硬件支持方面,也体现在数据污染、数据缺失所导致的“AI幻觉”等方面。具体而言:

1.系统故障。现阶段AI模型的运营依赖于大量资源的投入,尤其在算力方面,需要有大量芯片、显卡、内存、存储设备等硬件支持。AI模型规模庞大、系统复杂,对于运营、维护、故障排除等都有很高的要求,而且AI模型还可能遭遇各类型的网络攻击。一旦系统出现故障,可能会对企业经营造成负面影响。

2.假设偏见。区别于传统办公软件,AI模型在决策方面表现出了更加强大的能力。但是,也有分析指出,AI模型在给出分析和决策意见时可能存在结果不稳定的情况,实践中可能存在“千人千面”的结果。造成这一状况的原因既可能是数据污染或算法缺陷导致的,也有可能是使用人在输入内容时表现出了一定的倾向或预设立场所导致的。如此情形下,不同员工使用AI模型会产生不同的结果,可能会对企业决策造成困扰,也可能导致商品或服务的品质不稳定。

3.AI幻觉。AI模型在生成内容时,有时为了呈现逻辑上的完整性,可能会生产出完全虚构、不准确的事实而误导用户。笔者在使用AI模型进行信息或法律检索过程中就曾多次遇到AI模型提供的内容包含不存在的案例或数据的情形。有鉴于上述情形,企业在部署AI模型时应着重考虑其硬件和软件方面的可靠性,尤其是交付的商品或服务需要利用AI模型所生成的内容时,应当设置其他备选方案和交叉验证机制,以预防由于AI模型的可靠性缺失而导致对于第三方的违约风险。

注意事项四:关注AI模型相关的风险信息

一方面,在我国国内部署AI模型的企业需要关注相关模型是否按照国内的法律法规履行了模型、算法等备案义务。企业如果利用AI模型对外提供人工智能服务的,还要对自身所提供的服务是否需要进行安全评估和备案等进行分析和审查。

另一方面,被部署的AI模型是否涉及贸易管制和制裁、国家安全审查等限制和风险,对于从事跨国业务的企业也是需要关注的重点,并应做好相关的应对预案。

以上一至四注意事项涉及企业对内、对外部署和应用AI模型过程中可能遇到的风险和挑战。笔者建议,企业在正式部署前和部署过程中需要组织跨部门的团队识别和评估相关风险,有针对性地制定解决方案。此外,建议编制使用AI模型的内部指引文件,对涉及部门的员工进行培训和指导,以期在风险可控的基础上最大化AI模型对于业务的帮助。

注意事项五:算法歧视所引发的监管和消费纠纷风险

2024年11月,国家互联网信息办公室等五部门发布了《关于开展“清朗·网络平台算法典型问题治理”专项行动的通知》,明确提出将治理算法“信息茧房”“大数据杀熟”等现象,相信监管部门将在解决算法歧视等问题上进一步加强监督。

对于企业而言,如果在对外业务中部署AI模型或应用,需要关注潜在的算法歧视问题,尤其重点关注滥用个人信息进行个性化推荐和设置不合理的交易价格等方面。   

注意事项六:AI虚假内容所引发的欺诈风险

在当前热门AI应用中,虚拟数字人、智能聊天机器人、广告文案和图片创作是最先落地的应用领域之一。

笔者长期关注广告法领域,并注意到在一些广告图片创作中的模特、产品以及场景是虚构的,这当然有利于商家节省聘请模特、产品打样、广告拍摄等成本,但也同样带来了虚假广告的违规风险。实践中,就曾经有因产品效果涉嫌修图而被处罚的案例。

由于AI生成内容存在一定的自主性和不可控性,企业在营销和售后业务中部署AI模型或应用可能会存在虚假宣传、消费欺诈等法律风险,需要有针对性地采取预防措施。

注意事项七:AI算法应用中的垄断和不正当竞争风险

2024年7月1日实施的《最高人民法院关于审理垄断民事纠纷案件适用法律若干问题的解释》第二十四条,以及2024年12月25日发布的《中华人民共和国反不正当竞争法(修订草案)》第十三条,都增加了不得利用数据和算法实施垄断和不正当竞争行为的禁止性规定。

对于企业而言,如果在对外业务中部署AI模型或应用,尤其是使用或提供“动态定价”等功能时,需要特别关注垄断或不正当竞争方面的风险。

就平台企业而言,除了横向和纵向垄断风险,还需要关注是否涉及帮助平台内经营者达成轴辐协议的垄断法律风险。

注意事项八:AI相关的知识产权侵权风险

使用AI模型过程中所引发的知识产权侵权风险已经逐渐引发社会关注和大量讨论。

几家知名国产AI模型的服务协议几乎都明确约定AI模型提供方不对输出内容的知识产权、肖像权、名誉权、荣誉权、隐私权等承担不侵权的法律义务和责任;相反,还可能会要求使用者对输入、输出内容及未来的使用承担法律义务。

值得关注的是,部分AI模型的服务协议对于输出内容的商业化使用存在限制性规定,随意使用还可能导致对AI模型提供方的违约或侵权风险。

以上五至八注意事项主要涉及企业对外部署和应用AI模型过程中可能遇到的风险和挑战。笔者建议,企业在正式部署前和部署过程中应当得到外部专业顾问在技术和法律风险评估方面的支持,将法律意识与商品、服务结合起来,以避免因为违反法律而给企业形象和持续运营埋下隐患。

(作者:沈程 ,北京君合(上海)律师事务所)

 

【责任编辑:宋安勇】