人们对人工智能 (AI) 兴趣的飙升和快速增长使其成为技术交易的主要焦点,但标准收购协议却没有跟上步伐。
人工智能公司给潜在买家带来了标准交易方法可能无法解决的独特风险,例如人工智能对数据的依赖及其洞察力的动态性质所带来的风险。人工智能公司的买家应考虑针对人工智能的特定属性、问题和风险制定标准并购协议,以最大限度地降低交易风险并准确了解人工智能系统的输出和预测能力。
以下是支持定制方法的人工智能交易的五个潜在风险:
- 目标公司可能使用客户数据、第三方许可数据或其他可能产生重大风险或损害人工智能价值的数据集来训练其人工智能。
- 客户合同可能禁止使用客户数据作为培训数据,或限制使用在现场或部门基础上对其数据进行训练的人工智能。
- 第三方培训数据许可协议可能包含可能已被违反的使用和领域限制,可能由拟议的交易触发,或者可能限制收购者对此类数据和使用此类数据构建的模型的使用。
- 任何训练数据使用限制,无论是合同还是监管,都可能损害人工智能公司技术的价值,限制从此类训练数据开发的算法和技术的类型,或者限制人工智能公司将其技术商业化的方式。
- 对这些培训数据流、合同和许可证进行以人工智能为重点的尽职调查可以帮助及早识别风险。
- 训练数据所有权可能不确定,从而产生诉讼风险。
- 确定训练数据的所有权是一项复杂且不确定的工作。使用但不属于人工智能公司所有的训练数据可能会受到第三方所有权索赔、侵权索赔、隐私和监管问题或额外责任的影响。
- 上述任何一种情况都可能危及目标公司当前的运营,产生诉讼风险,并危及使用此类训练数据构建的任何算法和模型的所有权。
- 关于知识产权所有权和知识产权改进的标准表述可能还不够。
- 由第三方提供的训练数据训练的人工智能生成的输出数据可能容易受到数据提供商的所有权声明的影响。
- 第三方数据提供商可能要求其拥有对其数据的修改、改进或派生,从而导致对目标算法的所有权以及使用人工智能模型生成的输出数据的权利的混合主张,以进一步训练和改进其算法。
- 关于人工智能产生的知识产权的法定保护尚不确定。买家应评估人工智能在多大程度上产生了实质性知识产权,并评估了有效性和可执行性挑战的风险
- 定义应用于人工智能系统独特部分的权利的协议可以帮助缓解这些问题。如果存在歧义,公司可以分离数据集和算法,以最大程度地减少交叉污染风险。
- 不充分的保密性或排他性条款可能会将人工智能系统的训练数据输入和材料技术暴露给第三方模仿者。
- 如果训练数据和人工智能技术不是人工智能公司专有、保密或专有的,竞争对手可能会使用相同的数据和技术来构建类似、竞争或相同的模型。使用开源或公开数据集和机器学习流程开发的人工智能模型尤其如此。
- 公司应该了解用于构建人工智能系统的数据和算法的来源,并最好保持这些来源的进入壁垒。
- 如果没有动态再训练和更新的数据源,动态人工智能模型的价值可能会萎缩。
- 买家应考虑目标公司的人工智能模型是静态的还是需要动态再训练。如果不考虑终止后数据生命周期问题,拥有人工智能算法可能没有意义,特别是当需要在终止后使用此类数据来维持算法的价值时。
- 买方应将尽职调查和合同保护工作的重点放在确保收购后材料数据源的持续可用性上。
除此之外,人工智能领域的立法保护尚未完全成熟,在成熟之前,公司应通过确保其交易和协议解决使用和使用所带来的独特风险来保护其知识产权、数据、算法和模型。培训数据、基于人工智能的技术以及此类技术生成的任何输出数据的所有权。
ChatGPT、ChatGPT中国站、国内ChatGPT、人工智能、AI、OpenAI、ChatGPT国内、ChatGPT官网、ChatGPT中文版、ChatGPT体验、ChatGPT国内站点、ChatGPT中文网、ChatGPT国内、中国版ChatGPT、ChatGPT中国镜像、ChatGPT国内镜像、AI全家桶、AI导航、MJ绘画、AI绘画技术、人工智能绘画、AI艺术创作、智能绘图软件
© 版权声明
文章版权归作者所有,未经允许请勿转载。