李彦宏:正式发布文心大模型4.0工具版

电商报 2024-04-16 10:39:56
行业观察 2024-04-16 10:39:56 阅读 1371 评论 0

4月16日,百度创始人、董事长兼首席执行官李彦宏在Create 2024百度AI开发者大会上,正式发布文心大模型4.0的工具版。他表示:

“近几个月来,文心大模型在代码生成、代码解释、代码优化等通用能力方面实现了进一步的显著提升,达到国际领先水平。今天,我们正式发布文心大模型4.0的工具版。现在,大家可以在工具版上,体验代码解释器功能,通过自然语言交互,就能实现对复杂数据和文件的处理与分析,还可以生成图表或文件,能够快速洞察数据中的特点、分析变化趋势、为后续的决策提供高效和精准的支撑。”

format-jpg

“文心一言从去年3月16日首发,到今天是一年零一个月的时间。我们的用户数突破了2亿,每天API的调用量也突破了2亿,服务客户数或者说企业达到了8.5万,利用千帆平台开发的AI原生应用数超过了19万。”

"文心大模型已经成为了中国最领先、应用最广泛的AI基础模型。不仅如此,相比一年前,文心大模型的算法训练效率提升到了原来的5.1倍,周均训练有效率达到98.8%,推理性能提升了105倍,推理的成本降到了原来的1%。也就是说,客户原来一天调用1万次,同样成本之下,现在一天可以调用100万次。"

format-jpg

同时,李彦宏在Create 2024百度AI开发者大会上,分享了百度过去一年实践出来的、开发AI原生应用的具体思路和工具。他强调:

"大语言模型本身并不直接创造价值,基于大模型开发出来的AI应用才能满足真实的市场需求。今天我想跟大家分享的是一些基于大模型开发AI原生应用的具体思路和工具。这是我们百度根据过去一年的实践,踩了无数的坑,交了高昂的学费换来的。"

"第一是MoE。未来大型的AI原生应用基本都是MoE的,这里所说的MoE不是一般的学术概念,而是大小模型的混用,不依赖一个模型来解决所有问题。

format-jpg

第二是小模型。小模型推理成本低,响应速度快,在一些特定场景中,经过精调后的小模型,它的使用效果可以媲美大模型。这就是我们发布ERNIE Speed,ERNIE Lite、ERNIE Tiny三个轻量模型的原因。我们通过大模型,压缩蒸馏出来一个基础模型,然后再用数据去训练,这比从头开始训小模型,效果要好很多,比基于开源模型训出来的模型,效果更好,速度更快,成本更低。

第三是智能体。智能体是当前非常热的一个话题,随着智能体能力的提升,会不断催生出大量的AI原生应用。智能体机制,包括理解、规划、反思和进化,它让机器像人一样思考和行动,可以自主完成复杂任务,在环境中持续学习、实现自我迭代和自我进化。在一些复杂系统中,我们还可以让不同的智能体互动,相互协作,更高质量地完成任务。这些智能体能力,我们已经开发出来了,并且向开发者全面开放。"

format-jpg

声明:
  1. 该内容为作者独立观点,不代表电商报观点或立场,文章为作者本人上传,版权归原作者所有,未经允许不得转载。
  2. 电商号平台仅提供信息存储服务,如发现文章、图片等侵权行为,侵权责任由作者本人承担。
  3. 如对本稿件有异议或投诉,请联系:info@dsb.cn
请勿发布不友善或者负能量的内容。与人为善,比聪明更重要!
讨论数量: 0
暂无评论