在DeepSeek掀起行业开放浪潮之际,百度无疑是国内响应最为迅捷、行动最为果断的企业之一。3月16日即将发布的文心大模型4.5,无疑是百度在“大模型”领域的一次期中大考,也是其技术实力的又一次全面展示。 据百度方面透露,文心大模型4.5在基础模型能力上实现了大幅提升,不仅具备原生多模态能力,还展现了深度思考等高级功能,堪称百度史上最强大的模型。 具体而言,文心大模型4.5拥有当前行业内几乎最强的RAG(检索增强生成)能力,这是衡量大模型优劣的重要标准之一。百度的RAG技术能够在理解用户需求阶段不断对知识点进行拆解、细化问题,在检索阶段向大模型展开搜索排序优化,并将搜索返回的异构信息统一表示,最终在大模型的生成阶段综合不同来源的信息独自判断。尤其结合百度实时和全面的搜索生态,基于大模型的逻辑推理能力,一举解决信息冲突等问题,生成准确率高、时效性好的答案。 自文心一言发布以来,百度便一直强调检索增强的重要性,并经过近两年的技术沉淀,不断提升这一能力的价值,赢得了业界的广泛认可。此次文心大模型4.5更是在百度自研的iRAG等技术加持下,将百度搜索的亿级图片资源与强大的基础模型能力相结合,生成种类繁多的真实图片。iRAG技术在生成特定物品、特定人物以及特定人物与任意背景结合的图像时,在准确率、真实性上都有显著突破,极大减少了幻觉现象。 其呈现的整体效果远远超过传统的文生图原生系统,不仅去掉了AI的“机械味”,而且成本极低。在影视作品、漫画作品、连续画本、海报制作等领域,为用户提供了广阔的创作空间。可以预见,文心大模型4.5正式上线后,用户将能够以几乎零成本的操作,复刻出以往需要高昂成本才能制作的宣传海报。 此外,文心一言还将上线深度搜索功能,为用户提供专家级内容回复,实现多模态输入与输出。同时,深度搜索功能还提供多项工具调用,包括高级联网、文档问答、图片理解等,极大提升了用户处理多场景任务的效能。 值得注意的是,在2月27日百度宣布将发布文心大模型4.5的消息后,2月28日凌晨,OpenAI便迅速发布了GPT-4.5模型,双方似乎正在暗自较劲。然而,有报道称OpenAI前员工安德烈·卡帕西提前体验了GPT-4.5后认为,GPT-4.5主要提升在非推理密集型任务上的改进,这些任务多与情商有关,而在数学、代码等领域,GPT-4.5并不拥有最强的能力。 从先前文心一言和ChatGPT的对比来看,文心一言在中文语境与本土化方面往往有着GPT难以比拟的优势,尤其在问答准确性、实时性上,文心一言的幻觉较少,对时事的反应也更加迅捷。因此,百度的文心大模型4.5的深度思考能力和极强的多模态功能,对中国用户而言,或许在未来能带来更好的体验。 更重要的是,文心一言将于4月1日全面免费开放给PC端和App端用户体验,而GPT-4.5虽然接入了API,但OpenAI计划逐步转向GPT-5的免费基础版(额度受限),付费用户需升级至Plus/Pro版本。从这点上说,免费且开源的文心大模型4.5在普惠性上无疑带给了用户更多的诚意。 在DeepSeek横空出世后,百度并没有故步自封,反而以开放的姿态直面变化。此前,百度已宣布文心一言将于4月1日起全面免费,并陆续推出文心大模型4.5系列,在6月30日起正式开源。同时,百度还将全面接入DeepSeek和文心大模型最新的深度搜索功能,搜索用户可免费使用这些功能。 在百度全面转向开源、开放的战略转轨下,百度旗下的搜索、地图、小度等产品也相继接入DeepSeek,将AI浪潮引发的产品升级红利分享给了更多百度系用户。从大模型到搜索,百度的开源、免费策略共同打出了一套开放“组合拳”。 李彦宏带领下的百度正展开一场自我变革,这场变革需要坚定的决心和勇气。更重要的是,这场开放过程将带给用户、公司乃至整个行业真正的价值。李彦宏曾表示,开源4.5系列的决策源自于对技术领先地位的坚定信心,开源将进一步促进文心大模型的广泛应用,并在更多场景中扩大其影响力。 在AI大模型竞争日益激烈的今天,百度以一种更加开放的策略试图占据主动权。而在这场竞争中,更多应用层面的创新无疑将惠及全球范围内的越来越多用户。 “过去,我们谈论摩尔定律时,每18个月性能水平或价格都会减半。但今天,当我们谈论大语言模型时,增加的成本基本上降低了,可以在12个月内降低90%以上。”百度CEO李彦宏在世界政府峰会上曾如此说道。 能够在DeepSeek冲击中迅速调整船头,不一味固守“闭源”,这既是百度战略转折的勇气,也离不开百度长年以来技术沉淀的支撑。李彦宏曾表示,创新的本质就是降低成本、提高生产力。在AI行业,“技术实力”正在取代“故事性”,逐渐成为该行业的核心竞争力。 当下,能够撑起百度文心大模型强功能、快更迭、免费开源的根本,源于百度在技术上的底气。其中,百度在大模型上训练成本的持续降低离不开昆仑芯和百舸平台的助力。近期,百度智能云成功点亮昆仑芯三代万卡集群,这是国内首个正式点亮的自研万卡集群,并计划进一步点亮三万卡集群。 昆仑芯万卡集群具有极强的规模效应,可以通过任务并行调度、弹性算力管理等方式提高计算资源利用率,降低算力成本。同时,百度的百舸平台还能对大规模集群进行高效的部署管理,通过优化的拥塞控制算法、集合通信算法策略等提升通信效率,降低模型训练成本。 此外,为提升GPU的有效利用率,百舸还在持续优化并完善模型的分布式训练策略。同时,为了保证大规模集群执行训练任务的稳定性,百舸提供全面的故障诊断手段,快速自动侦测到导致训练任务异常的节点故障。加上百度自研的BCCL技术,已经将故障恢复时间从小时级降低到分钟级,保障集群有效训练率达到98%。 在以上技术的合力下,到24年初的财报会上,李彦宏表示文心大模型的推理成本已经降低至一年前的1%。此次文心大模型4.5能够迅速推出,最大的原因之一就是推理成本的不断降低。 有观点指出,百度在模型推理部署上的优势尤其是在飞桨深度学习框架的支持下得以体现。飞桨和文心的联合优化实现了推理性能提升和推理成本降低。而面对机遇与风险并存的未来,人们可以预见的是,文心大模型4.5的推出以及近期百度频频开放的动作远远不是终点。 “我们仍需对芯片、数据中心和云基础设施进行持续投入,来训练更好、更智能的下一代模型。”李彦宏曾如此展望未来。 |
说点什么...