微软的冷漠与风险:加速AI发展背后的担忧

AI资讯2年前 (2023)发布 GPTHub
9 0

微软之所以全力投入AI技术,原因很简单:它坚信成为AI领导者将再次成为科技巨头。

在搜索和浏览器领域,微软与谷歌之间存在巨大差距,但凭借AI技术的推动,微软相信可以缩小差距,甚至重新成为竞争的主导者。

不久前,微软的首席财务官Amy Hood告诉分析师,只要微软在搜索广告市场占据1%的份额,价值就相当于20亿美元。目前,谷歌占据85%的搜索市场份额,而必应只有9%。如果微软能够逐步接近谷歌,将会有巨大的增长空间和利润。

AI技术不仅局限于搜索领域,还可以为云计算、生产工具等产品提供强大的支持。

微软的冷漠与风险:加速AI发展背后的担忧

AI引起担忧

微软雄心勃勃地追求目标,但面临着许多挑战,不仅仅来自竞争对手。各国政府、伦理学家以及许多AI研究人员都认为,如果快速发展的AI技术处理不当,可能会对社会造成重大威胁,甚至危及人类未来。

Geoffrey Hinton是AI领域的顶级专家,他在谷歌工作了将近10年,最近离开谷歌。他认为谷歌在使用AI技术方面存在一些问题。Hinton表示:“在谷歌能够正确理解如何控制AI之前,不应再扩大规模。”

不仅Hinton有这样的担忧。今年3月,1000多名AI研究人员、科技领军人物和其他领域的人士发表了一封公开信,呼吁暂停开发比GPT-4更强大的AI工具,因为他们认为AI竞赛已经失控,没有人能够准确预测AI的发展,并且无法有效控制AI。微软已经向GPT-4的开发者OpenAI投资了130亿美元。

国际先进人工智能协会(AAAI)成立已经约40年。4月初,一些AAAI代表发表了一封公开信,讨论了AI带来的威胁,微软的首席科学官Eric Horvitz也在信上签署了名字。

微软的冷漠反应

面对上述警告,微软采取了怎样的态度呢?他们或者置之不理,或者毫不在乎。微软是否不知道这些威胁的存在?实际上不是这样!为了防范风险,微软在内部建立了几个安全团队,包括“负责任AI办公室”(Office of Responsible AI),但这些团队似乎只是为了表面功夫。

微软内部的AI组织是权力派系,伦理和社会团队被嵌入到AI组织中,但他们的权力有限。在2020年之前,伦理和社会团队由30名工程师、设计师和哲学家组成,他们与AI开发团队合作,以确保AI符合伦理标准。他们会将“负责任AI办公室”发布的模糊声明翻译成可执行的规则,以确保所推出的产品符合规定。

团队中的一名成员解释说:“人们会查看‘负责任AI办公室’发布的准则,然后问:如何应用这些准则?我们的工作就是告诉他们如何应用,以在没有规则的情况下创造规则。”

然而,在接下来的日子里,微软加速了AI的开发,并裁减了伦理和社会团队的人数。

在2022年4月,就在微软发布必应AI聊天机器人的几个月前,伦理和社会团队遭到了大规模裁员,最终只剩下7人。微软毫不掩饰自己的意图,他们的目标是快速推出AI聊天机器人,不希望有任何人阻碍他们的步伐。

微软的AI副总裁John Montgomery在裁员会议上解释说:“CTO和CEO对我们施加了巨大的压力,要求我们积极引入OpenAI的最新模型以及即将推出的模型,并迅速交付给客户。”他认为伦理和社会团队阻碍了他们的进展。

团队中的一位成员认为,从商业角度来看,裁员是可以理解的,但团队非常担心对社会的影响。Montgomery直接回应说:“我能重新考虑吗?我不能。很不幸,压力还是一样的。我看到的你看不到,也许这是好事。要做香肠,有很多东西要被碾碎。”

尽管进行了裁员,但微软似乎觉得这还不够,于是在3月6日,整个团队都被解散了!

与此同时,微软内部的AI研究人员对AI技术有些担忧,外界也有很多人对此表示担忧。今年5月,白宫邀请微软、谷歌、OpenAI以及Anthropic(一家AI创业公司)的高管们开会,会议由副总统Kamala Harris主持(拜登也曾短暂出现在会场),他警告说:“你们正在做着具有巨大潜力但也伴随巨大风险的事情。对于确保产品的安全性,私营企业有道德、伦理和法律责任。”

美国政府可以说这样说,但是最终如何行动谁也无法控制,毕竟连微软自己也无法控制。

对于各种担忧,微软似乎只是假装关心。就在会议当天,微软为希望使用必应聊天机器人的用户开放了大门,取消了安全屏障,向开发者开放了该技术。

那么为什么他们还要冒着这些风险呢?微软传达出明确的信息:尽管存在各种风险,我们仍要加快前进。

© 版权声明

相关文章