
为了满足发展需求,考虑使用人工智能工具?在面试时,以下问题需要问一下。 自从2022年底发布了ChatGPT以来,网络上充满了各种悲观或乐观的情绪。无论你喜欢与否,人工智能都将进入你的开发团队。即使你不计划开发人工智能产品或使用人工智能开发机器人编写代码,它仍然可能被整合到用于构建、测试和运行手动编写的源代码的工具和平台中。
人工智能工具带来了与众不同的风险。这些风险可能抵消自动化带来的巨大生产力效益,这些自动化以前需要人类大脑来执行。这些风险涉及人工智能的训练、构建、托管和使用方式,与开发者目前使用的其他软件工具不同。了解风险是管理风险的第一步,为了帮助你了解即将到来的人工智能工具相关的潜在风险,我们编写了一些面试问题,可以作为人工智能入职考察的一部分。
无论人工智能的类型或希望实现的目标如何,都应该问以下问题:
- 你将使用的人工智能服务器托管在哪里?
现代人工智能目前需要专用且昂贵的硬件来完成当今头条新闻中出现的惊人任务。除非你计划收购一个全新的数据中心,否则你的人工智能机器人将远程工作,并需要与使用远程访问和异地数据存储的远程人类工作者一样的安全考虑。
当代码离开边界时,有什么保护措施来防止知识产权的丢失?从智能电视到汽车,所有的数据都在向制造商报告使用情况。一些人正在使用这些数据改进他们的软件,但另一些人正在将其出售给广告商。准确了解你的人工智能工具将如何使用或处理源代码或其他用于其主要任务的私人数据。
- 你的输入是否会被用于未来的人工智能训练?
人工智能模型的持续训练将成为所有者和那些数据被用于训练模型的人越来越关注的领域。例如,所有者可能希望防止广告商将人工智能机器人偏向于有利于其客户的方向。在网上分享作品的艺术家已经发现人工智能图像生成机器人复制了他们的风格,他们非常担心其原创作者的身份丧失或被盗。
- 结果的准确性如何?
ChatGPT最著名的缺点是其结果的不准确性。它会自信地断言虚假的事物为真理。这被称为人工智能的“幻觉”。了解人工智能可能产生幻觉的方式和地点,可以在它产生幻觉时对其进行管理。
此外,人工智能所有者和开发者将面临一系列安全问题。这些新的担忧包括对人工智能训练模型的威胁。这些威胁可能会破坏其结果或披露有关模型运作方式的专有信息。此外,人工智能模型将需要与API、网络、移动应用程序和其他需要进行安全构建的应用程序进行集成。
在开发过程中引入人工智能工具(如人工智能安全扫描仪)所带来的风险时,开发人员需要提出具体问题。
- 人工智能工具是否最适合此用例?
了解人工智能擅长和不擅长的领域至关重要。任务可以进一步细分为根据学习到的规则做出决策或编写内容通过学习到的规则,人工智能在前一方面表现更好。任务偏离越远,人工智能的表现就越差。
如果工具未能捕捉到内容或产生了不存在的幻觉,有什么保障措施?
在你的流程中永远不要引入单点故障,特别是一种可能导致幻觉的故障。依靠传统的纵深防御方法或管理风险的”瑞士奶酪”方法,在这种方法中,即使一层出现问题,下一层也会发挥作用。
需要什么来监督工具的结果?这个问题实际上是重新包装的传统日志指南的一部分。第一部分是捕获关键事件数据,第二部分是审查日志。在人工智能进一步发展并且其缺点被理解或缓解之前,人类在工作流程中仍然是不可或缺的。
越来越多的开发者正在”雇佣”ChatGPT来编写源代码。初步报告表明,ChatGPT能够使用多种编程语言编写源代码,并能流利地使用所有常见的和公开讨论的语言。然而,由于测试版的训练和模型限制,它生成的代码并不总是完美的。通常会包含可能改变软件操作方式的业务逻辑缺陷、可能融合不同版本软件的语法错误以及其他看似人为的问题。换句话说,ChatGPT是一个初级开发人员。在使用由初级开发人员编写的代码时,必须考虑如何管理它。
谁将成为它的管理者,并确保代码具备功能性、可优化性、高质量性,并符合安全标准?初级开发人员需要高级开发人员的指导。每一行代码都需要进行测试,有些甚至需要进行修正。然而,初步报告显示,这种审核过程比从头开始编写代码更快、更容易。
- 它是通过注入或重新混合训练代码来进行培训的吗?
一个更隐蔽的威胁是,有时像GitHub Copilot这样的人工智能机器人生成的源代码会完全复制其训练数据中的代码块。这需要使用反剽窃工具来管理版权风险。
- 机器人从哪里获取其训练数据?
人工智能模型的优劣取决于其训练数据。如果机器人是通过陈旧或不正确的代码进行训练的,它也将产生陈旧和不正确的结果。
- 引擎托管在哪里?
同样,分析源代码的人工智能机器人需要将源代码传输到其处理设施。在数据离开公司后,需要特别关注数据的保护、使用和处理方式。
去年12月发布的ChatGPT预示着软件开发的新时代。重要的是要适应这些变化,而不是被它们打倒。在采用这些新工具时,要明白一条原则随着变革越大而保持不变:防止安全事件发生总比被安全事件击垮要好。