
Image source:AI全家桶
北京6月23日电(TiPost)——2022年11月30日,OpenAI开发的人工智能(AI)聊天机器人产品ChatGPT发布。
OpenAI大概没有想到,ChatGPT这个原本是向消费者展示GPT能力的产品,会引起投资者、企业家、独角兽、大公司、学术界、经济学家,甚至当年中国科技部部长的广泛关注 200天。 与此同时,谷歌、微软、阿里巴巴等30多家科技巨头、初创公司和机构也加入了这场争论,引发了全球人工智能模型的“军备竞赛”。
《中国大型人工智能模型图谱研究报告》显示,截至今年5月28日,国内已发布79个参数超10亿的大型模型。 美国和中国占全球发布的大型车型总数的80%以上。
业界的一个基本共识是,ChatGPT的出现标志着通用人工智能的开始和强人工智能的转折点。 这是人工智能技术创新和应用成果领域的重大突破,也是新时代数字化的“发电厂”。
在ChatGPT的帮助下,所有的数字系统和行业都值得以SaaS(软件即服务)服务的方式重做,可供各个行业访问。 未来,更多人希望ChatGPT能够让企业数字化业务流程更快、更高效、更智能。
然而,与OpenAI和微软公布的摩根士丹利、Stripe等公司使用的ChatGPT商业案例相比,国内的“大模型大战”却出现了一个奇怪的现象:
虽然技术和产品能力看起来很强,但产品到了客户手里就出现了各种Bug。 公开大模型对话的企业,无一不是在谈论自己强大的技术能力和场景化的解决方案,有的甚至公开合作信息,但很少谈论在公共场合商业落地案例的过程。
一位业内人士向钛邮App透露,某上市公司在电话会议上投诉称,使用了某互联网巨头研发的价值数十亿的AI模型产品。 尽管号称全球巨头同类产品,能够3分钟制作PPT,但该上市公司在将大型模型集成到系统中时却出现了“连接崩溃”的情况。
近日在上海举行的人工智能行业应用论坛上,一位人工智能大模型企业家甚至表示,这几个月发布的十多个大语言模型都非常相似。 目前的情况是,只有OpenAI能够实现通用人工智能的商业化,并拥有市场上的大多数用户。 此外,国内AI大语言模型尚未达到商业化水平。
PPT式大模型可以服务多种行业,但商业化应用时存在诸多漏洞
“在我看来,ChatGPT能否真正在这次AI 2.0浪潮中发展,取决于它是否有商业模式,以及客户是否愿意付费。无论我们如何训练像GPT这样的大型模型,如果没有应用,没有场景, 没有付费客户,没有商业模式,他们就无法成功。” 6月2日,在上海临港圆桌会议上,云计算上市公司首创在线执行总裁姚伟表示,AI大模型的商业化对于行业发展极为重要。
从客户角度来看,企业也迫切需要生成式AI带来业务转型。
根据创业者服务平台GoDaddy对美国1003家小型企业的调查显示,ChatGPT是小型企业中使用最广泛的生成式AI产品,使用率为70%; 38%的受访者在过去几个月尝试过生成式人工智能; 营销、内容创建和商业建议是生成式人工智能在企业中的三大用例; 75% 的受访者对其业务中生成式人工智能的表现非常满意。
随着海外大模型日新月异,OpenAI 推出了 ChatGPT Plus 试点订阅服务,每月 20 美元,ChatGPT/GPT-4 向开发者开放 API,价格不断下降,带动大模型在应用场景的不断落地。
同时,多款国产大型车型也相继发布。 基于2000亿美元的生成式人工智能市场前景和50万亿美元的数字经济产业规模,人工智能大模型有望在中国拥有最大的商业发展范围。
创新工场董事长兼首席执行官李开复曾表示,AI 2.0时代已进入生产力提升应用爆发期,这呈现出巨大的平台机会,是中国首次参与AI领域平台竞争的机会。
具体来说,结合大模相关企业的发展信息、股票研报以及微软近期披露的应用场景,TiPost App总结了ChatGPT类产品在以下七个行业的主要商业应用:
- 企业运营:日常办公文件的撰写与整理; 营销对话机器人、市场分析、销售策略咨询; 起草法律文件、案例分析、法律文章整理; 人力资源简历筛选、预招聘、员工培训。
教育:协助评估学生学习状况,提供职业规划建议; 根据学生情况和兴趣定制学习内容; 论文初稿和审查; 通过GPT帮助低收入国家/家庭获得平等的教育资源。
游戏/媒体:定制游戏、动态生成NPC交互、定制剧情、开放式结局; 海外文案内容生成、语言翻译及辅助广告投放及运营; 数字虚拟人直播; 游戏平台代码重构; 人工智能生成的副本。
零售/电商:舆情、投诉、突发事件监测分析; 撰写和提供品牌营销内容; 自动化库存管理; 自动或完成SKU品类选择、数量、价格分配; 客户购物趋势分析和洞察。
金融/保险:个人财务顾问; 贷款信息汇总及初审; 识别和检测欺诈风险活动; 客户服务中心分析和内容洞察; 保险索赔处理和分析; 投资者报告/研究报告摘要。
制造/汽车:生产计划和供应链计划状态查询; 生产线预测性维护协助; 产品质量分析与追溯; 自动驾驶、虚拟汽车助手全场景模拟训练; 在线汽车品牌及配置对比分析。
生命科学:研发阶段的靶点发现和药效; 医学文献内容检索、重点摘要提取、相关法规整理; 医药代表培训及知识库建立; 分诊指导助理、诊疗助理、术后护理康复助理。
此外,ChatGPT的大模型和生成式AI技术也将延伸到图像、视频、数字人等领域的各种复杂场景,利用海量数据资源和算法实现商业应用和迭代更新。
OpenAI曾做过一项研究,估计美国19%的工作岗位中至少有50%的工作职责会受到人工智能的影响。 80%的工作中至少有10%的工作职责也会受到影响,其中数学家、会计师和审计师、新闻分析师、法律秘书和行政助理以及税务师等职位最容易受到大规模影响。 GPT 模型。
但以上内容大多只是理论性的,以PPT演示的方式畅想AI前沿技术的智能化升级。 尽管实施过程中参数规模竞争较多,但大规模产业化部署仍较少,后续模型修正和迭代进化进展缓慢。
无论是数据呈现“废话”,还是中英文翻译不准确,计算能力不足,还是价格高昂,认为AI将全面辅助购物、金融、制造的想法都是片面的。 向客户提交应用程序并不是一件容易的事,并且可能会导致冲突和问题。
例如,在科大讯飞举行的新闻发布会上,当被问到一个专业的医学问题时,“治疗闭角型青光眼应该用什么药?” ChatGPT 使用阿托品进行反应。 TiPost App也试图回答这个问题,但回答大多是错误的或不是根据中国药品法规可以购买的药品。 正确答案是毛果芸香碱。

此外,由于大型模型通常使用英文数据而不是中文互联网数据,因此可能会出现语言障碍。 例如,当输入“鱼香肉丝”时,可能会出现活鱼切丝的尴尬画面,导致商业化过程中出现一些问题。
一位金融公司高管此前向TiPost App表示,由于ChatGPT的数学计算能力较差,无法实时更新一些信息,国内大型模型产品在金融领域的效果并不理想。 汇率、贷款信息可能存在错误,也可能出现信息不对称。
在人工智能公司第四范式4月份的发布会上,某银行代表提到,金融行业的信息不对称可能会导致信贷产品利率或存款利率上涨,但即使提供了所有信息,做出的选择也可能会出现问题。 不是最优的。
“我们是金融行业,服务大众,我传达的任何信息都必须准确。” 上述代表认为,大模型在企业落地面临的挑战主要包括内容可信风险、数据安全风险、落地成本高等。
在制造业中,内容问题可能会产生更严重的影响。 由于人为缺陷和错误受到严格限制,一些高精度工艺要求具有最小程度的准确性。 一旦人工智能系统出错,就可能引发事故。
清华大学慧贤讲师、人工智能公司轩辕科技创始人周博文告诉TiPost App,像ChatGPT这样的大型模型进展很快,但问题是它们可能正在严重“胡说八道”。 尤其是在专业领域,外人看是内行,内行人看是外行。 同时,内容的原作者将其视为抄袭,但普通用户却将其视为创意。 事实上,它还不具备独创性的想法。
此外,语言问题也需要注意。
据《连线》报道,今年至少有 15 篇 arXiv 研究论文探讨了大型模型的多语言性。 然而,研究人员发现,包括ChatGPT在内的人工智能系统更擅长将其他语言翻译成英语,而很难将英语重写成其他语言,尤其是韩语和非拉丁文字。 而且,ChatGPT在回答事实性问题或总结非英语复杂文本方面表现较差,并且更有可能捏造信息。
在5月举行的美国国会听证会上,OpenAI首席执行官Sam Altman表示,ChatGPT开发团队正在采取措施缩小语言差距。 他希望与政府和其他组织合作获取数据集,以增强 ChatGPT 的语言技能并回答正确的内容。
商业案例很少提及,一些大型模型在应用中遇到障碍
业内人士告诉TiPost App,GPT已经实现了真正的智能化,下一个成功点是在大模型的产品化、商业化、工程化和应用场景上。
据卓石咨询报告显示,2022年全球人工智能市场预计将达到1997亿美元,年复合增长率为29.4%,2027年预计将达到5624亿美元,年复合增长率为23.0 2022 年至 2027 年的百分比。
“今天的AI技术能力与5个月前相比已经有了很大的不同,我们在系统平台上放置了更强大的产品,而销售和服务,从业务角度来看,才刚刚开始,从接触到新的东西需要时间。” “从技术到最终采购。”科大讯飞创始人兼首席执行官黄伟对钛邮App表示。 大模型刚刚发布,还没有大规模商用案例。
商业案例的稀缺是当前国内人工智能大模型趋势的重要特征。 据 TiPost App 统计,就连 AI 行业巨头商汤科技最近也披露了仅 10 多家大型模型客户的数字,其中大部分都不是垂直行业的龙头企业。
5月30日,生成式人工智能(AIGC)公司UM Question向香港联交所提交招股说明书。
报告显示,2022年,UM Question的总营收为5亿元,前五名客户基本都是AIoT(物联网)企业,其中大部分购买UM Question的智能手表等智能物联网解决方案。 该客户合作已超过三年,而非其AIGC业务服务。
早在4月下旬,UM Question就宣布推出AI大模型“序列猴”,并开始内部测试和探索。 UM Question创始人兼CEO李志飞告诉TiPost App,UM Question不需要外部融资来支持研发投入。 除了大型车型外,公司其他业务烧钱并不多。 “(大型模型)可能是我全力以赴的最后一件事,”他说。 不过TiPost App在招股书中并没有看到大机型的具体商业收入。
这意味着AIGC行业,包括ChatGPT大模型,目前不太可能产生大规模的收入。
当然,过去几年,当AI技术应用于落地场景时,商业客户也很难公开自己的身份。 这并不是因为客户处于高度机密的行业,而是因为人工智能太广泛了,每个人都想乘上“数字经济”的浪潮。
例如,去年10月,TiPost App走访了浙江台州一家领先的缝纫机设备制造商,该公司是全球销量排名第一的公司。 AI技术领军商汤科技作为该公司的物流机器设备和AI技术供应商,合作打造“智能集约化仓库”。
TiPost App参观了AI技术的实际商用后,被告知,制造龙头不愿透露与旷视科技的合作,并不是因为上市公司的披露要求,而是因为该公司董事长想要 声称这是他们自主开发的人工智能技术应用,而不是旷视科技的。 据其在上交所披露,该公司募集资金超过10亿元人民币,用于投资建设智能工厂。
因此,TiPost App在今年3月与旷视科技CEO尹奇谈及此事时,他坦言,人工智能这个词已经被大家过度使用,人工智能的普及让人工智能企业很难推广自己。 有些事情三年前就被别人谈过了,所以“我们需要接受目前的情况”。
“我不介意我们的客户不说是旷视做的。比如华为为运营商做了那么多,但早期大家只知道华为是一家伟大的公司,而不是他们。” 后来华为也做了To C的产品,所以他们开始做一些品牌推广,如果客户愿意说,说明他们也认为从这个角度来说这个很重要。中国需要给资本市场一些话题性 ,甚至有的O2O公司说AI,这说明无论相关与否,大家都在做AI。” 尹奇告诉TiPost App。
多家传统制造企业创始人告诉钛邮App,他们希望与做大型模型的AI技术研发公司合作,主要是因为初创企业受限于算力、数据、电力等高成本,无法自行精炼大型模型 。 通过与AI公司团队进行数据合作,他们可以了解技术秘密,然后建立自己的团队。
“我们永远不会与人工智能公司长期合作,因为价格太高。”一位供应商告诉TiPost App。
据第四范式4月份发布的招股书显示,虽然该公司2022年同比增长52.7%,但其客户来源相当多元化,近三年前五名客户几乎没有重复。 客户群不是很固定。
第四范式创始人兼CEO戴文元向钛邮App解释,前十大客户的变化并不意味着客户每年都在变化,而且客户保留率很高,有时甚至达到每年90%。
企业如何应对大型模型的应用?
解决大模型实现问题,主要有三个方面:提高内容可信度; 解决计算成本高、重复训练、资源有限的问题; 大模型的价格需要不断降低或者可以采用垂直领域模型来实现。
首先要解决的问题是提高内容可信度。
周博文在谈到TiPost App时表示,我们应该开发一个通用的大规模模型,能够解决不同用户的实际问题。 它应该通过商业交付持续应用反馈,甚至需要评估来解决内容的可信度问题。
中国科学院院士、清华大学人工智能研究院名誉院长张波认为,ChatGPT缺乏自学习能力,这是ChatGPT最致命的缺陷。 因此,需要优化更多的数据来进一步解决实际应用问题。
“不要以为ChatGPT可以解决所有AI问题。没有重新学习的能力,它无法应对变化。这一点无论是国内还是国外的ChatGPT都是一样的。当我问美国的ChatGPT时,他们给出了相同的答案。一些 “中国的ChatGPT模型表现良好,而其他模型则不正确。这给我们提出了一个重大问题。我们需要将其应用于决策问题,这需要进一步解决。”张博说。
商汤科技物流事业部负责人徐庆才在近期的一次交流中提到,当前,大型模式需要走向垂直化。 将场景与统一的模型和框架结合起来可以提高内容的准确性。
“目前还存在一定的差距,这个差距来自于技术上的不可行性以及缺乏好的方法来实现这一点。这就是我们现在需要考虑的,新技术是否能够弥补这个差距。我们相信这些问题很快就会得到解决。” 解决了。”徐庆才说道。
第二个问题是解决计算能力成本高和培训资源稀缺的问题。
AI算力公司联合创始人张欣向钛邮焦点提到,对于GPT-3模型来说,在现有的千卡集群上训练一个月总共花费超过1200万美元,单个训练周期需要1个月的时间。 月。 今年上半年,整个行业(培训卡)连续涨价超过25%。 然而,即使在这种情况下,也没有人能够使用商用国产芯片来训练大型模型。
在数据、算力、算法三要素中,算力是大模型的基础和竞争力。 但国产芯片相比英伟达显卡,在软件适应性和稳定性方面仍存在不足。 张鑫认为,国产芯片与英伟达显卡的解耦能力较弱。 他们认为,未来几个月,可能会逐步使用国产芯片来训练高达数十亿、甚至更大规模的模型,但积累计算能力仍然是一个重要的挑战。
立三科技联合创始人兼联席CEO孔德海认为,算力问题可以从四个方面解决:一是协作,很多计算可以在云端运行,根据需求进行协调; 第二,模型小型化,小模型可以在单机上运行,数据质量很高; 第三,再训练,重复训练有助于在有限条件下改善用户体验; 第四,综合计算。
目前,AI大规模模型的算力主要集中在训练和推理部分。 成本最高的是早期的模型训练,大多使用智能计算中心或自有资金配备NVIDIA A800/H800显卡的服务器,或者使用更实惠的云服务器进行训练。 推理部分需要较少的计算能力,而且并不昂贵。 大多数模型应用需要公有云和私有云的混合模式,并购买一定的云服务以更好地容纳大型模型应用。
最后,还有定价问题。
定价是大型车型商业化的最重要因素。 由于训练成本高、数据选取困难,数十亿参数的模型价格可达数万元,高昂的价格让很多客户犹豫购买。
戴文元告诉TiPost App,并不是所有场景或客户都能接受数十亿参数的模型成本。 这是客户需要做出的选择。 即使参数是数十亿、万亿,也仅仅代表了他们的最高能力,但并不是所有场景都一定能够将技术释放给客户。 此外,垂直大模型的数据生成规模会更小,场景会更加人性化,聊天的思维能力会更高。
例如,彭博社此前发布了大型金融模型BloombergGPT,应用于其垂直领域; Medialink还发布了国内首个医学语言模型MedGPT,可以在真实的医疗场景中发挥实用的临床价值。 医疗、金融、电商等领域都需要大型垂直模型。
多位人工智能业内人士告诉钛邮App,从行业角度来看,通用模型就像一本“百科全书”,能够解答任何问题,并适应不同的行业环境,而垂直模型就像是单一领域的专家,这是 专业但受众有限。 然而,大型垂直模型的发展将不断提高各领域模型的性能。
今年6月16日,OpenAI进行了更新,将GPT模型的价格降低了75%,将GPT-3.5-turbo的输入代币价格降低了25%,最新价格为每1k代币0.0001美元。 Ultraman还提到,OpenAI正在开发新技术,该技术将允许用更少的数据和更低的价格来训练模型。
“当模型足够大时,它可以将问题概括为常见问题并自然地输出。也许将来99%以上的常见对象或事件都可以由单个模型处理。好处是, 可能会加速商业化,带来更好的技术能力,与原来的方法相比,可能会缩短产业化应用的周期。” 商汤科技联合创始人、大设备事业群总裁杨帆告诉TiPost App。
360创始人兼董事长周鸿祎近日表示,ChatGPT的出现代表着超级AI时代的到来。 大型模型属于通用人工智能,在很多维度上已经超越了人类。 同时,大模型是工业革命级的生产力工具,将带来新的工业革命,赋能各行业。 它们可以在实体经济数字化、智能化转型过程中发挥重要作用。
“我相信中国发展大型模型不存在难以逾越的技术壁垒。我们应该感谢OpenAI的成功,为我们指明了技术方向和路线。中国的科技公司在产品化、场景化、商业化方面有很大的优势。我坚信 相信我们能够建造出这个大型模型。” 周鸿祎表示,未来中国不会只有一款大型车型。
不过,从投资角度来看,嘉寓资本董事长兼创始合伙人卫哲近日提到,“我们不碰大模型”。
卫哲认为,在互联网行业摸爬滚打多年,大家已经清楚地看到,头部企业总是占据60-70%的市场份额,搜索引擎、电商等领域也不例外。 人工智能也是如此,大型模型在中国甚至在中国以外的世界,包括美国,都很难胜出超过两个。
大模型是典型的赢家通吃领域。 它需要更多的资金、更多的计算能力和更多的人才。 更好的计算能力意味着更多的人使用它,更多的人使用它意味着更多的数据。 更多数据意味着更好的计算能力结果。 大型车型注定是巨头们的必争之地。 巨头有钱、有技术,最重要的是有数据。
对于当前的“模型之战”,正如周鸿祎所说,大模型的关键是让更多人使用,将大模型能力与更多场景结合,创造更多落地应用。
所以总结一下,能做大模型的公司只有少数,初创企业的机会很少。 甚至可以说,如果一家公司不能将大型车型商业化,那么在这一轮的竞争中肯定会失败。