欧洲议会通过 AI Act 草案|Meta AI负责人LeCun表示生成型人工智能仍不如狗聪明|谷歌也担心泄密风险 警告员工谨慎使用AI办公

AI资讯2年前 (2023)发布 GPTHub
6 0
欧洲议会通过 AI Act 草案|Meta AI负责人LeCun表示生成型人工智能仍不如狗聪明|谷歌也担心泄密风险 警告员工谨慎使用AI办公

欧洲议会周三投票通过了 AI Act 草案,料将打响西方世界全面监管 AI 领域的第一枪。起草的规定包括禁止在公共场所进行实时、远程生物识别监控,并禁止在开发面部识别数据库时采集监控录像或抓取互联网信息。欧洲议会的法案版本还寻求禁止所谓的预测性警务系统,此类系统分析先前的犯罪行为和其它数据,并试图预测未来的非法活动。这项立法草案旨在规范企业如何使用大数据训练 AI 模型,在某些情况下将要求企业在使用 AI 生成内容时予以披露。企业还需要在设计 AI 模式时设法防止非法内容的生成,并需要披露模型训练中使用的有版权数据的摘要。在某些违规情况下,企业将被处以最高相当于其全球收入 6% 或 7% 的罚款。

 

 

据CNBC报道,Meta公司的首席人工智能科学家Yann LeCun表示,生成型人工智能系统甚至还不如狗聪明,因为它们对现实世界的基本现实没有了解。LeCun说,人工智能有一天可能会超过人类的智力,但即便真的到了这一地步也不应该被视为一种威胁。

 

LeCun昨天在巴黎举行的Viva Tech会议上说,我们今天使用的生成性人工智能的问题在于它非常有限,而且纯粹是在文本上进行训练。他说,相比之下,人类的很多知识都与语言无关。因此,人类经验的一部分没有被人工智能捕捉到。

他还说,虽然生成性人工智能可以通过美国的律师考试–成为律师所需的考试,但它的先天缺陷决定了它不能装载洗碗机,而这是一个孩子可以在5分钟内就可以学会的。”它告诉你[是]我们缺少一些真正的大东西……不仅要达到人类水平的智能,甚至是狗的智能。”

在另一个人类发展的直觉的例子中,还没有被复制到人工智能中;Yann LeCun说,一个五个月大的婴儿会看到一个物体漂浮着,并不会太在意,但仅仅四个月后,婴儿会意识到这个东西不应该漂浮,并会表示惊讶。

他承认,研究人员仍然不知道如何在人工智能中复制这种类型的东西,在研究人员捉摸不透的同时,在动物和人类智能方面也不会取得重大进展。

自从去年生成性人工智能以ChatGPT的形式迸发以来,有两种担心已经凸显出来,它是否会取代人类工作者,是否会对人类构成危险?LeCun认为不会。

他想象在未来,每个人都会有自己的人工智能助手,比他们更聪明,会协助你的日常生活。他说,人工智能将被设计成可以控制并服从于人类,而且聪明和想要接管世界之间没有任何关联。

 

 

行业领导者谷歌在全球推广人工智能(AI)聊天机器人的同时,该公司也在警告员工注意聊天机器人的使用,包括ChatGPT与谷歌自家产品Bard。知情人士透露,谷歌已建议员工不要将其机密材料输入给人工智能聊天机器人,同时该公司还提醒IT工程师避免直接使用聊天机器人生成的代码。

人们在使用这些聊天机器人的时候,会与其进行对话。一方面,人类评审员可能会阅读这些聊天记录;另一方面,研究人员发现,人工智能可以吸收并复制相关对话数据给其他人,从而产生信息泄漏风险。

而谷歌对此回应称,其聊天机器人Bard可以生成一些不受欢迎的代码建议,但它仍然对IT工程师们会有所帮助。谷歌还表示,其目标是对人工智能技术保持足够的透明度。

这些担忧表明,谷歌希望避免人工智能对公司的商业化运作造成损害,这种谨慎的态度也体现出企业对人工智能的使用限制,正越发成为某种具有共性的企业安全标准。

在此之前,包括三星、亚马逊、德意志银行等大型企业都对员工使用人工智能设置了一定的“护栏”,以确保不会对公司运营造成风险。

根据社交网站Fishbowl对12000名受访者的调查,截至今年1月,约43%的专业人士在工作中使用了ChatGPT或其他人工智能工具,而且通常都没有告诉他们的老板。

谷歌告诉媒体,它已经与爱尔兰数据保护委员会进行了详细的对话,并正在解决监管机构的问题。谷歌在6月1日更新的隐私声明也指出:“不要在与Bard的对话中包含机密或敏感信息。”

一些公司已经开发了软件来解决这些问题。例如,保护网站免受网络攻击并提供云服务的Cloudflare正在推广一种功能,可以让企业对某些数据进行标记,并限制其向外部流动。

谷歌和微软也在向企业客户提供对话工具,这些工具的价格更高,但不会将数据吸收到公共人工智能模型中。Bard和ChatGPT的默认设置是保存用户的历史对话记录,用户也可以选择删除。

微软消费者业务首席营销官Yusuf Mehdi曾表示,公司不希望员工使用公共聊天机器人工作是“有道理的”。

Cloudflare首席执行官Matthew Prince指出,在聊天机器人中输入机密信息,就像“让一群博士生随意查看你所有的私人记录”。

© 版权声明

相关文章