您的位置: 首页 > 科技频道

再开源两款大模型,腾讯慢慢来

出处:北京商报 作者:魏蔚 网编:陶凤 2024-11-05

图片:腾讯混元3D资产展示

同行几乎每月都在发布大模型开源消息,腾讯的类似新闻发生在6个月前。11月5日,腾讯将MoE模型“混元Large”以及混元3D生成大模型“Hunyuan3D-1.0”正式开源,这两个模型已在腾讯业务场景落地,支持企业及开发者精调、部署等不同场景的使用需求。“慢工出细活”,腾讯机器学习平台总监,腾讯混元大语言模型算法负责人康战辉向媒体介绍新开源的MoE模型“混元Large”时表示;“不是什么都唯快不破”,7月腾讯集团高级执行副总裁汤道生谈到大模型C(用户)端产品元宝上线时间时说。巧合的是,第三方机构QuestMobile11月5日披露的AIGC(人工智能生成内容)App月活数据显示,9月豆包、文小言、Kimi等排名前十,元宝不在榜单中。

腾讯混元Large模型总参数量389B,激活参数量52B ,上下文长度256K。除了这些大模型的常规数据,康战辉在3个多小时的沟通会上多次强调MoE架构。“腾讯混元Large是目前开源领域参数规模最大、效果最好的MoE模型”。

MoE(Mixture of Experts),即混合专家模型,是目前国内外主流的大模型结构。2024年初,腾讯混元宣布在国内率先采用MoE架构模型,总体性能比上一代Dense模型提升50%。此后,腾讯混元推出基于MoE架构的多模态理解大模型以及基础模型“混元turbo”。

之所以强调MoE架构,“是因为腾讯做MoE架构很早,我们很早发现这里面的潜力,所以一直在延续”,康战辉解释,“本质上来讲,MoE是一个高性价比的东西,同等算力下,模型参数量越大,MoE的性价比更高,更适合复杂的任务。Dense模型的优势在于完成一些相对简单的任务”。

不过他也表示,“架构的选择长期看是殊途同归,罗马在哪里是很清楚的,路怎么走各家不一样”。

另一款开源的腾讯混元3D生成大模型,首批包含轻量版和标准版,轻量版仅需10s即可生成高质量3D资产,目前已在技术社区公开发布,包含模型权重、推理代码、模型算法等完整模型,可供开发者、研究者等各类用户免费使用。

在应用层面,腾讯混元3D模型负责人郭春超介绍,目前腾讯3D生成相关技术已经开始应用于UGC 3D创作、商品素材合成、游戏3D资产生成等腾讯业务中。腾讯地图基于腾讯混元3D大模型,发布了自定义3D导航车标功能,支持用户创作个性化的 3D 导航车标,相比传统的3D车标重建方案,速度提升了91%。

对于开源节奏,腾讯没有遮掩,态度是“不急于为了开源而开源”“在内部业务打磨好再开源”“要开就要有诚意,与公司内应用模型同宗同源”。

有关推广策略和营收等则不是腾讯当天的重点,“开源有利于大模型厂商形成更开放的生态,吸引到更多研究者或开发者来丰富基于这些模型的应用和服务,相应地也能推动模型持续地优化迭代。尽管模型本身是开源的,但仍然可以在这个基础上提供多种形式的服务,包括定制开发、技术支持、培训等”,易观分析研究合伙人陈晨告诉北京商报记者。

北京商报记者 魏蔚

右侧广告

本网站所有内容属北京商报社有限公司,未经许可不得转载。 商报总机:010-64101978 媒体合作:010-64101871

商报地址:北京市朝阳区和平里西街21号 邮编:100013 法律顾问:北京市中同律师事务所(010-82011988)

网上有害信息举报  违法和不良信息举报电话:010-84276691 举报邮箱:bjsb@bbtnews.com.cn

ICP备案编号:京ICP备08003726号-1  京公网安备11010502045556号  互联网新闻信息服务许可证11120220001号