需要询问生成式 AI 工具提供商的 8 个知识产权和商业问题

AI资讯2年前 (2023)发布 GPTHub
9 0
需要询问生成式 AI 工具提供商的 8 个知识产权和商业问题

随着越来越多的生成人工智能产品进入市场,有兴趣整合这些技术的公司必须通过平衡实施速度和技术能力与财务和法律考虑来评估此类产品。此类工具的提供商正在从技术角度挑战极限,同时尝试评估道德考虑、调整模型以反映问题并建立用户护栏。

公司并不能仅仅因为自己是“用户”而不是“开发者”而免受生成式人工智能工具带来的法律、监管和道德问题的影响。事实上,使用第三方生成式人工智能工具来开发面向公众的内容的公司可能会成为第三方要求和监管询问的最初接收者,这些内容涉及分发给基本不张扬的公众的生成式人工智能来源的内容。

在使用生成式人工智能产品或服务之前,公司应考虑解决以下重点关注核心知识产权(“IP”)和商业考虑的问题。其他法律领域,包括数据隐私、网络安全、就业和国际贸易,也可能很重要,需要单独考虑。

1. 生成式人工智能工具的计划使用适用哪些条款?

  • 根据不同类型的协议,可以使用相同(或基本相似)的生成式人工智能工具,以适应不同的使用类型,例如“企业”或“免费”等级。工具还可能具有多种适用的法律条款来管理其使用,例如使用条款、可接受的使用政策、隐私政策或数据处理协议。
  • 根据提供商的不同,企业许可证可以提供截然不同的权利和风险分配,从而推动或抑制客户的业务。虽然成本可能更高,但客户应考虑签订企业协议,以更明确地规定其用例并在协议期限内确保某些设定条款(因为在线使用条款通常可能会不时更新)提供商)。

2. 生成式人工智能工具的训练数据来源有哪些?

  • 迄今为止提供的生成式人工智能工具已经在广泛的数据集上进行了训练,其中一些数据集得到了完全明确的授权,而其他数据集主要来自互联网。此类数据集通常包括第一方数据、直接从第三方获得许可的数据(根据商业许可或开放数据许可)以及从网络和其他来源抓取的数据的某种组合。
    • 如果工具的许可方不是训练数据的所有者或主要来源(这种情况经常发生),则许可方可能无法全面了解用于开发其生成式 AI 工具的训练数据中的差距和限制。
    • 如果任何可用的模型卡中均未包含有关培训数据的详细背景信息,则提出该领域的详细问题以评估许可方培训计划以及工具的准确性和可靠性的优缺点是很有价值的。
  • 由于生成式人工智能工具供应商可能拒绝向潜在客户提供有关此问题的具体信息,因此客户最终可能会面临商业决策,即潜在利益在多大程度上超过围绕特定工具的开发和培训可能存在的法律或技术风险。提供商的声誉和客户对他们的信任程度是做出此业务决策的另一个关键因素。

3. 提供商是否愿意同意有关客户使用生成人工智能工具的陈述、保证或赔偿?

  • 提供商对其模型的训练过程及其基础训练数据来源的洞察力可以显着影响他们在任何协议中同意客户保护的意愿(例如,如果训练数据是从第三方网站“抓取”的,而不是从第三方网站获取)根据付费许可证,该许可证本身包含有关此类培训数据的陈述、保证或赔偿)。
  • 已经提起多起集体诉讼,以知识产权和隐私为由质疑生成式人工智能工具。科技行业普遍认为,使用受版权保护的材料来训练机器学习模型是一种合理使用,并且抓取公共数据并不侵犯隐私。在法院解决此类问题之前,用户应特别注意训练数据集是否获得授权以及工具提供商提供商业保护的程度。
  • 特别是对于免费许可证(但在许多情况下也包括付费许可证),提供商可能会拒绝提供客户在典型软件许可证场景中可能期望的陈述、保证或赔偿。他们可能会遇到阻力,原因是第三方数据依赖量大、量化这种新型风险的挑战以及跟踪构建和测试生成人工智能工具的所有元素的困难/不可能。

4. 提供商采取了哪些步骤来监控其生成式人工智能工具的质量以及该工具针对哪些应用程序进行了测试?

  • 尽管这是一个已知问题,但由生成人工智能工具自信地将错误响应(通常称为“幻觉”)断言为事实仍然是一个关键挑战。对于某些行业,例如医疗保健或金融,这可能会在可预见的未来限制生成式人工智能工具的有意义实施。
  • 为了评估生成式人工智能工具的持续可靠性并保持质量,让人类参与其中至关重要,尤其是在生成的内容在外部共享的情况下。

5. 生成式人工智能工具提供商希望或需要对客户数据拥有哪些权利?

  • 根据输入数据的敏感性和客户用例的独特性,客户可能希望也可能不希望通过合同允许生成式 AI 工具提供商将输入用作训练数据,以进一步开发和完善提供商算法/模型。如果根据客户的单独合同义务需要对输入数据进行保密,或者有限的使用具有其他竞争价值,则客户应与每个生成式人工智能工具提供商达成广泛的保密条款,并禁止使用客户数据来进一步训练提供商的算法或模型。
  • 由于生成式人工智能工具的输出可以密切模拟相关的训练数据,因此当客户将此类工具用于利基用例或数据可能间接归因于此类客户时,这可能会特别令人担忧。例如,在某些情况下,通过定制提示,竞争对手可能能够对客户使用给定生成人工智能工具的性质进行逆向工程,包括输入或输出。
  • 作为客户,应尽可能避免提供有关输入的陈述、保证或赔偿,特别是如果提供商打算根据此类输入来训练其生成式人工智能工具,因为此类条款可能会导致广泛的责任风险。至少包括限制客户责任的责任限制条款。
  • 如果客户打算代表自己的客户或以与其他第三方关系相关的方式使用生成式人工智能工具,则客户应考虑是否需要修改这些协议。它还应该考虑需要对潜在的工具提供商施加哪些义务(包括保密标准),以避免需要重新谈判现有合同的条款。
  • 生成式人工智能工具的提供商可能会反驳说,他们需要对客户数据获得更广泛的许可,以改进其产品、解决安全问题或用于其他监管目的。客户应根据具体情况评估此类提供商的合同要求,并随着客户内部使用生成式人工智能工具(以及输入的性质)的发展而不断监控它们。
  • 此外,提供商可能希望拥有客户提供的“反馈”或“建议”的广泛权利,无论其是否包含机密的客户信息。在这种情况下,明确排除机密客户信息和客户数据的任何反馈使用非常重要。

6. 谁拥有与该工具的输出相关的知识产权?

  • 根据客户的使用案例,分配工具输出和相关知识产权的唯一所有权可能很重要,也可能不重要。如果用户能够阻止竞争对手使用输出至关重要,那么客户必须考虑禁止在这些领域使用生成式人工智能,或采取特殊程序以确保最终产品中存在足够的人类创作表达以保证知识产权保护。
  • 迄今为止,美国专利商标局、美国版权局和美国联邦法院拒绝注册任何仅由生成式人工智能工具创造的发明或作品。
    • 美国版权局已经认识到,使用生成式人工智能工具创建的作品至少可以部分注册,具体取决于人类创作的表达程度以及人类对任何此类工具输出的控制程度。
    • 根据客户使用的性质以及与生成人工智能工具提供商的协议条款,可能会对某些输出要求商业秘密保护。
    • 此外,在客户和提供商之间,客户可能希望将与输出相关的任何当前或未来的知识产权分配给自己,以防标准和美国知识产权的发展,并考虑到注册知识产权的外国司法管辖区可以用于生成式人工智能开发。
  • 由于免费生成式人工智能工具的可访问性,表单协议中经常包含允许向多个客户提供相同输出的语言。如果客户认为任何产出都是实质性或专有的,那么从知识产权所有权的角度来看,产出中缺乏排他性分配会产生实质性风险,并且客户不能承担排他性使用。

7. 提供商如何评估和实施与生成人工智能相关的规则和法规并监控更新?

  • 生成式人工智能的发展速度意味着对现行法规的解释非常有限。监管机构现在才开始讨论针对特定用途的生成式人工智能的指导方针和法规。
  • 务实的生成式人工智能工具提供商应该已经考虑到当前监管解释(例如 GDPR)和拟议法规(例如欧盟人工智能法案)对其运营的影响。提供商还应监控行业和政府声明、事件和出版物,以考虑可能的监管领域并尽量减少未来的产品中断,例如用户注意、偏见和敏感应用程序等领域。

8. 如果客户收到监管机构或其他第三方关于生成人工智能工具操作的问题,提供商是否有义务提供信息并帮助客户做出反应?

  • 迄今为止围绕算法的执法情况以及监管机构对生成人工智能问题的早期声明表明,了解算法的训练和操作方式对于充分回答这些问题至关重要。生成式人工智能工具的典型客户可能无法掌握所有相关信息。
  • 客户应考虑在生成式人工智能工具的任何商业协议中添加审计或信息权,以及提供商协助客户合规工作的一些义务。
  • 客户应避免出于提供商合规性的目的向提供商授予过于宽泛的权利来共享机密客户信息或专有数据。此类许可可能超出保密保护义务的惯例例外,并使提供商能够过度广泛地使用此类数据。

 

ChatGPTChatGPT中国站国内ChatGPT人工智能AIOpenAIChatGPT国内ChatGPT官网ChatGPT中文版ChatGPT体验ChatGPT国内站点ChatGPT中文网ChatGPT国内中国版ChatGPTChatGPT中国镜像ChatGPT国内镜像AI全家桶AI导航MJ绘画AI绘画技术人工智能绘画AI艺术创作智能绘图软件

© 版权声明

相关文章