阿里云为什么对大模型持续乐观?

针对性快速响应 2024年09月22日 02:30:02

在大模型行业集体迷茫之际,阿里云却在2024云栖大会上释放了诸多积极信号。

大模型走红快两年,目前的发展状态和此前业界的预期还有较大差距,一些大模型公司开始出现战略摇摆。但阿里巴巴集团CEO、阿里云智能集团董事长兼CEO吴泳铭在演讲中表示,过去22个月,AI发展的速度超过任何历史时期。

一方面是大模型技术快速迭代以及技术可用性大幅提升。去年,大模型还只能帮助程序员写简单的代码,今天已经能直接理解需求,完成复杂的编程任务。去年,大模型的数学能力还只有中学生水平,今天已达到国际奥赛金牌水平,并在物理、化学、生物等多方面学科接近博士水平。

另一方面,模型推理成本指数级下降,已经远远超过摩尔定律。以通义千问为例,一年来,通义千问API在阿里云百炼上的调用价格下降了97%以上,百万Tokens调用花费最低已经降到了3毛钱,未来还有继续下降的趋势。

吴泳铭给当下大模型发展状态的定义是“AGI变革的早期阶段”,要实现真正的AGI,下一代模型需要具备更大规模、更通用、更泛化的知识体系,同时也将具备更复杂更多层次的逻辑推理能力。在他看来,全世界先进模型竞争的投入门槛,将达到数十亿、数百亿美金的级别。

从2024云栖大会上的一系列发布来看,阿里云对大模型的乐观不只停留在口号上,而是要继续实打实投入。

阿里云和同行态度的强烈反差,背后是彼此对大模型应用落地前景认知的差异导致的。

大模型的想象空间不只在手机屏幕

大模型太多,应用却太少是当下整个行业面临的问题,大模型要跑起来、更要用起来,需要走好落地应用“最后一公里”。

从各家基础模型公司和应用层公司的探索来看,目前大模型的落地应用分为B端和C端两个方向。

在B端场景中,大模型目前已经在金融、工业、教育、医疗、政务等行业中得到应用,对研发设计、生产制造、经营管理、营销服务业务环节带来一些助力。但整体来看,很多企业对大模型的应用还在探索阶段,大模型依然面临落地难、落地成本高的问题。

C端场景的边际成本更低,被大模型从业者寄予了更多期待。AI助理被认为是大模型时代的超级应用,无论是以月之暗面为代表的大模型创业公司,还是腾讯、字节跳动、百度等互联网大厂,都相继推出了AI助理类应用。但豆包、Kimi等多个AI助手应用的表现还没达到人们的高预期,产品形态依然在演进,暂时看不到移动互联网时代超级应用爆发的势头。

很多从业者对大模型的落地应用感到迷茫,一个重要的原因是他们把对大模型应用落地的场景局限在手机屏幕上。

吴泳铭在2024云栖大会上给出了不一样的答案。在他看来,AI最大的想象力绝对不是在手机屏幕上,AI最大的想象力是在通过渗透数字世界、接管数字世界,并改变物理世界。

过去三十年,互联网浪潮的本质是连接,互联网连接了人、信息、商业和工厂,通过连接提高了世界的协作效率,创造了巨大的价值,改变了人们的生活方式。但生成式AI是通过生产力的供给创造了新的价值,从而为世界创造了更大的内在价值,也就是总体提高了整个世界的生产力水平。这种价值创造,可能是移动互联网连接价值的十倍、几十倍。

正因为如此,我们更应该跳出移动互联网的视角来看AI大模型的未来。很长一段时间,AI的焦点主要集中在模拟人类的感知能力,比如自然语言理解、语音识别、视觉识别。但是生成式AI的崛起,带来了质的飞跃,AI不再仅仅局限于感知,而是首次展现了思考推理和创造的力量。

吴泳铭表示,AI模型可以通过对物理世界数据的Token化,理解真实世界的方方面面,比如人类行走、奔跑、驾驶车辆、使用工具,绘画、作曲、写作、表达、教学、编程的技巧,甚至是开公司创业。理解之后,AI就可以模仿人类去执行物理世界的任务,这将带来新的产业革命。

这样的变革已经在一些行业发生,比如汽车行业。之前的自动驾驶技术,是靠人来写算法规则,几十万行代码,仍然无法穷尽所有的驾驶场景。采用“端到端”的大模型技术训练后,AI模型直接学习海量人类驾驶视觉数据,让汽车具备了超越大部分司机的驾驶能力。

在吴泳铭看来,机器人将是下一个迎来巨变的行业。未来,所有能移动的物体都会变成智能机器人。它可以是工厂里的机械臂、工地里的起重机、仓库里的搬运工、救火现场的消防员、包括家庭里的宠物狗、保姆、助理。工厂里会有很多机器人,在AI大模型的指挥下,生产机器人。现在每个城市家庭里有一辆或者两辆车,未来每个家庭可能会有两三个机器人,帮助人们提升生活当中的效率。

从这个角度来看,AI驱动的数字世界连接着具备AI能力的物理世界,将会大幅提升整个世界的生产力,对物理世界的运行效率产生革命性的影响。AI大模型的价值也不仅仅局限在商业领域,更重要的是将给社会生活带来巨大改变。

这是一个更大的历史机遇,也值得更多从业者积极投入、提前布局。能够抓住这个历史机遇的企业,将释放出比移动互联网高速增长时代更大的价值。

强大的基建才能催生AI新未来

在颠覆式的新浪潮下,坚定的技术乐观派才会真正走在时代前面,引领变革的发生。

在吴泳铭看来,人们对新技术革命,往往对短期高估,又对长期低估。因为在新技术应用早期,渗透率还比较低,人们经验没有发生过此类事件,大部分人的本能会产生怀疑,这很正常。但新技术革命会在人们的怀疑中成长,很多人会在迟疑中错过。

不同于传统IT时代,AI时代对基础设施的性能、效率要求更高。业界先进的模型参数规模和数据规模仍在持续增长,巨头之争已经从千亿模型向万亿模型发展。

比如,GPT-4模型具有1.8万亿参数,在约 13万亿个Token上进行了训练,算力需求相当于在大约2.5万张A100加速卡上运行90~100天。Meta在原有1.6万张A100卡集群基础上又建设两个具有约2.5万张H100加速卡集群,用来加速LLaMA3的训练。由此可见,万卡已经成为未来先进大模型训练的新起点。

尽管先进模型的门槛提升至几十上百亿美金,但头部大厂在投入上未曾迟疑。在海外,谷歌、微软、亚马逊、英伟达、Meta、苹果和xAI,每年在前沿技术上的投资高达 4000 亿美元,大部分资金都投向大模型和AI基础设施。

国内大厂中,阿里云投入压强最高,AI基础设施、基础模型、对外投资全覆盖。本届云栖上,吴泳铭表示,“阿里云正在以前所未有的强度投入AI技术研发和基础设施建设。”

过去一年,阿里云从以CPU为主导的传统计算体系,加速向以GPU为主导的AI计算体系演进,新增算力超50%都是AI算力。阿里云CTO周靖人在演讲中表示,阿里云正在围绕AI时代树立AI基础设施的新标准,全面升级从服务器到计算、存储、网络、数据处理、模型训练和推理平台的技术架构体系,让数据中心成为一台超级计算机,为每个AI和应用提供高性能、高效的算力服务。

周靖人在2024云栖大会现场展示了阿里云全系列产品家族面向AI的升级:最新上线的磐久AI服务器,并提供AI算法预测GPU故障,准确率达92%;为AI设计的高性能网络架构HPN7.0,可稳定连接超过10万个GPU ,模型端到端训练性能提升10%以上;人工智能平台PAI,已实现万卡级别的训练推理一体化弹性调度,AI算力有效利用率超90%。

在模型层,阿里云也持续饱和式投入,几乎保持以月为周期迭代基础模型。大会现场,阿里云宣布通义旗舰模型Qwen-Max全方位升级,性能接近GPT-4o,同时还发布了开源模型Qwen2.5系列,成为仅次于美国Llama的世界级模型群。

其中,Qwen2.5全系列模型都在18T tokens数据上进行预训练,相比Qwen2,整体性能提升18%以上,拥有更多的知识、更强的编程和数学能力。Qwen2.5全系列涵盖多个尺寸的大语言模型、多模态模型、数学模型和代码模型,每个尺寸都有基础版本、指令跟随版本、量化版本,总计上架100多个模型,刷新业界纪录。

今年,大部分大模型厂商都试图通过降低大模型的使用门槛来推动大模型在更多行业落地。得益于基础设施的强大,阿里云在降低企业和开发者使用成本方面也是最积极也是最激进的厂商之一。

今年5月,阿里云抛出重磅炸弹,通义千问GPT-4级主力模型Qwen-Long价格直降97%,1块钱即可买200万tokens,相当于5本《新华字典》的文字量。降价后,Qwen-Long价格约为GPT-4价格的1/400,击穿全球底价。

本次云栖大会上,阿里云再次宣布百炼平台上的三款通义千问主力模型大幅降价。Qwen-Turbo价格直降85%,低至百万tokens0.3元,Qwen-Plus和Qwen-Max分别再降价80%和50%。其中,Qwen-Plus推理能力追平GPT4,是效果、速度及成本均衡的最优选择,降价后,Qwen-Plus同等规模较行业价格低84%。

同时,阿里云还在持续坚持开源模型路线。通义大模型一年多来坚持全尺寸、全模态开源,多次登上HuggingFace开源榜首,同时,通义开源模型累计下载量已经突破4000万,通义原生模型和衍生模型总数超过5万,受到开源社区众多开发者的追捧。

从模型服务到AI云服务,阿里云持续投入的强度堪称“中国卷王”,无论行业如何争论,反正开源闭源全覆盖,从底层基础设施到上层的大模型平台和模型社区全栈建设,布局的广度和深度,甚至全球无出其右。

阿里云的乐观和信心来自坚定的信念。少有人知道的是,阿里云从2018年便投入大模型研发,因此能够在ChatGPT掀起新一轮AI浪潮后迅速站稳国内基模第一的身位,而在前年云栖大会上,阿里云即提出MaaS模型即服务的理念,此后引领了全球云厂商面向AI时代的MaaS变革。

如今,阿里云看到的路是,只有提前布局,打造更强的基建,才能让所有人都能用上最先进的大模型,让企业和开发者以最低的成本使用AI,让整个行业更快拨云见日。

分享