李彦宏:AI应用价值远超模型芯片 文心大模型4.5 Turbo引领开发者未来

4月25日,WpBull.comAGI从百度Create开发者大会获悉,百度创始人、董事长兼CEO李彦宏在武汉现场正式发布了文心大模型4.5 Turbo和文心大模型X1 Turbo两款重磅产品。李彦宏指出,当前市场上以DeepSeek为代表的部分AI模型仍存在模态单一、幻觉率高、响应速度慢及成本昂贵等突出问题,而百度此次推出的全新模型正是为了破解这些行业痛点。

在演讲中,李彦宏特别提到DeepSeek的崛起以及MCP(模型上下文协议)逐渐成为行业标准的趋势,同时强调代码智能体和通用智能体等多智能体协作产品正受到广泛关注。值得注意的是,过去一年开源中国社区开发者数量激增150万,但开发者群体普遍存在焦虑情绪——面对快速迭代的模型技术,他们担心自己开发的应用会迅速过时失去价值。

李彦宏:AI应用价值远超模型芯片 文心大模型4.5 Turbo引领开发者未来

“大模型领域正经历日新月异的变化,去年第四季度发布了49个新模型,今年一季度就新增55个,高峰时一周甚至出现8个模型更新。”李彦宏形象地描述道。这种激烈的市场竞争虽然推动了技术进步,但也让开发者陷入两难境地——既渴望抓住机遇,又害怕被技术浪潮淹没。

李彦宏坦言,当前大模型发展对开发者而言是一把双刃剑。一方面需要紧跟技术前沿,另一方面更要善于选择合适的场景和基础模型。他强调:”AI应用才是价值创造的真正载体,没有实际应用,再先进的模型和芯片都失去意义。”这一观点与此前李彦宏关于中国大模型数量过多(国内200多模型实际使用率低)、百模大战浪费社会资源等言论一脉相承。

李彦宏:AI应用价值远超模型芯片 文心大模型4.5 Turbo引领开发者未来

早在2024年7月,李彦宏就曾尖锐指出开源模型存在”智商税”现象。他认为理性分析会发现,闭源模型如ChatGPT和文心一言在同等效果下成本更低。今年4月百度Create大会上,他再次强调开源AI模型将逐渐落后,并指出DeepSeek-V3/R1虽在全球风靡,但仍有明显局限。

李彦宏特别指出DeepSeek的三个短板:首先它是单模态模型,无法处理声音、图像等多媒体内容;其次幻觉率较高,在商业场景中存在安全隐患;最后国内市场同类API调用价格普遍更低且响应更快。针对这些问题,百度全新推出的文心大模型4.5 Turbo和X1 Turbo展现出显著优势。

文心4.5 Turbo版在速度上实现80%价格降幅,每百万tokens输入成本降至0.8元,输出成本3.2元,仅为DeepSeek-V3的40%。文心X1 Turbo版更是将DeepSeek R1调用价格压缩至25%,输入输出成本分别为1元/百万tokens和4元/百万tokens。此外,百度还展示了基于昆仑芯三代P800的全自研3万卡集群,该集群既能承载千亿参数大模型全量训练,也能支持1000个客户的百亿参数模型精调。

“在中国开发应用,我们如今更有底气。”李彦宏在演讲结尾充满信心地表示,并重申”应用创造未来,开发者创造未来”的行业理念。(本文首发于WpBull.comApp,作者|林志佳)

文章网址:https://www.wpbull.com/ai/28960.html