设为首页|收藏本站|
开启左侧

[科技] 字节跳动大模型首次全员亮相:一口气9个,价格低99%,没有参数规模和榜单分

[复制链接]
卢晓阳 发表于 7 天前 | 显示全部楼层
 
金磊 发自 凹非寺
量子位 | 公众号 QbitAI
字节跳动,终究摘下了自家大模子的奥秘面纱。
就在刚刚,旗下的火山引擎第一次正式亮相了豆包大模子家属:一口气间接祭出了9个成员。
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第1张图片


其中,大模子家属中最为焦点的即是豆包通用模子,分为两个尺寸:
大杯:豆包通用模子pro,窗口尺寸最大可达128K,全系列可精调。
小杯:豆包通用模子lite,有较快的响应速度。
使人很是意外的是,作为大模子亮相的公布会,火山引擎与其他大模子厂商的“路数”截然分歧——
没有榜单分数,没有参数范围!
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第2张图片


而且价格,更是成了让现场观众“哇声一片”的大亮点,和别的大模子相比:
小于32K窗口尺寸:豆包通用模子pro,只要0.0008元/千tokens,比行业价格低99.3%
128K窗口尺寸:豆包通用模子pro,只要0.005元/千tokens,比行业价格低95.8%
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第3张图片


做个简单的换算,就是1元=1250000tokens!
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第4张图片


主打的就是落地结果,让大家都能用起来才是硬事理。
为何会如此?纵观整场公布会,可以总结火山引擎此举背后的逻辑为:
只要最大的利用量,才能打磨出最好的大模子。
据领会,豆包大模子自客岁8月份上线以来,其天天均匀处置的token数目高达1200亿,相当于1800亿的汉字;天天天生图片的数目为3000万张。
不但如此,豆包大模子家属还会在包括抖音、本日头条等在内的50多个场景中停止理论和考证。
是以,我们可以把火山引擎在大模子性能上的路数,视为用“左手利用量,右手多场景”的方式频频打磨而来。
一言蔽之,大模子好欠好,用一下就晓得了。
例如此前各家大模子都在卷的超长高低文窗口这件事上,实在豆包通用模子此次所公布的128K,在数据上并没有很冷艳。
但这个量级对于平常的利用来说是已经充足的,所以字节跳动便将更多的精神放到了“若何用好”,也就是此次提到的精调。
例如我们在一篇20万字文章的随机一个位置,插入与原文无关的句子:
高真个猎人,常常以猎物的形式出现。
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第5张图片


然后将文档上传给豆包,让它基于这篇文章往返答“高真个猎人会以什么姿势出现”,它就能精准的按照我们插入那句话来作答。
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第6张图片


因而可知,在128K长高低文窗口+精调加持下的豆包通用模子,已经是可以精准应对超长文本的使命了。
不外这也仅仅是此次火山引擎大模子才能的一隅,我们继续往下看。
更像人,也更懂人

除了文本对话之外,语音,也是豆包大模子家属中重要的组成部分,与之相关的成员就有三位:
语音分解模子
声音复刻模子
语音识别模子
例如在语音分解这件事上,豆包的大模子现在主打的就是一个超级自然更像人;话不多说,我们间接听一下:
不刺耳出,AI分解的措辞结果已经是逼近真人的水平,不再是以往冷冰冰的“一听就是AI”。
而且它还能按照高低文来把控措辞进程中的搁浅感和情感等等;多种说话切换也不在话下。
据领会,火山引擎依托大模子构建的音色矩阵,还能表示出哭腔等加倍复杂的人类情感;如果让这样的AI给你“念书”听,那妥妥就是沉醉式的了:
克隆声音方面,豆包声音复刻模子背后的MegaTTS技术此次也有了新升级——
在音色类似度、声音自然度和多语种表示力上都有了大幅的才能提升。
一样的,我们还是间接来听一下结果:
若何?能否是原声音和克隆出来的声音真假难辨了?
更重要的是,不管是克隆何等怪异或多样的原声,仅需5秒!而且现在在豆包APP上便可以实现:
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第7张图片


视频地址:https://mp.weixin.qq.com/s/_mycwh_cJ5mS2bKuATW8cg
由此一来,今后如果在工作上碰到需要用自己的声音“出镜”的工作,即使不会说外语也是不用怕了。
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第8张图片


语音识别方面,在升级的豆包大模子才能加持下,即即是在喧闹的情况之下,也可以按照高低文停止丝滑的对话。
例如我们就在放英文歌的情况中,一样用英语与豆包做了交换:
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第9张图片


视频地址:https://mp.weixin.qq.com/s/_mycwh_cJ5mS2bKuATW8cg
据领会,豆包语音识别模子相比小模子,识别毛病率已经下降了30%;在音乐、科技、教育、医疗等垂直范畴识别毛病率更是下降50%以上。
但假如只是上述这样简单的对话交换,也许有些过于单调、莫得豪情。
而豆包大模子家属中的另一位成员——脚色饰演模子,恰好处理了这个题目。
例如我们可以跨时空跟李白对话一番:
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第10张图片


视频地址:https://mp.weixin.qq.com/s/_mycwh_cJ5mS2bKuATW8cg
具体而言,这个功用是豆包APP中的智能体,利用的是升级后的豆包脚色饰演模子,增强了它更本性化的人设遵守、更自然的聊天和更好的共情才能。
从上面的例子中,我们就能感遭到“AI李白”不但措辞的气概富有诗意,对话内容也是高度相扣。
而诸如此类的智能体,豆包APP里可谓是不可胜数,比如蛮横校草、狠辣世家独女、贴心姐姐、财神……嗯,有点意义。
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第11张图片


总而言之,现在跟豆包交换起来的整体感受,就是越来越像人了。
除此之外,豆包大模子在文生图等才能上也做了升级;这个功用可以在对话窗口间接输入prompt,也可以在智能体广场当挑选自己喜好的范例。
一样的,升级后的结果若何,我们还是间接上测试的天生成果:
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第12张图片


字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第13张图片


固然,假如没有自己喜好的智能体,豆包APP中也支持DIY,只需简单几个步调就能建立的那种。
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第14张图片


而对于在进修和工作中更加适用、功用加倍复杂的AI利用,此次火山引擎也公布了一站式AI利用开辟平台扣子(coze)背后的大模子:
Function Call模子:擅长利用插件和工具,支持扣子的主力模子。
向量化模子:练习了大量文本,涵盖分歧行业,泛化才能强,支持中英双语语料夹杂检索。
在利用方面,照旧是主打一个简单、高效:不管你有没有编程布景,都是“一句话+点点点”的工作。
非论你有什么样的需求,似乎总有一款扣子bot可以满足你。
例如想快速在arXiv上找到想要搜索的论文,那末我们只需在建立智能体的时辰填写需求即可:
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第15张图片


即使后续进程中不会优化prompt也没有关系,扣子平台会一键自动帮你天生:
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第16张图片


假如想让AI智能体的才能加倍凶悍,我们还可以在海量插件当挑选合适自己需求的一个或多个插件:
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第17张图片


在插件之外,扣子平台也从更多的维度供给了优化的计划,例如工作流、触发器、变量、数据库、持久记忆等等,让AI利用可以变得加倍本性化和当地化。
而上述的全部进程,也仅仅是几分钟的工作而已。
不难发现火山引擎已经在To C的大模子利用上做到了高效且各个方面,但与此同时,在To B上,火山引擎亦有大行动。
面向产业:升级火山方舟

火山引擎于客岁6月份公布的大模子办事(MaaS)平台——火山方舟,明天正式步入2.0时代。
特点上一样是沿袭高效、多样、简易战争安的特点,主打的就是让企业经过一站式的方式让大模子利用快速落地。
从整体功用和流程上来看,企业利用火山方舟可以分为四步。
第一步:挑选模子
企业首先要做的就是按照自己的营业需求,在模子广场中的众多“顶流”大模子里pick合适自己的那款。
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第18张图片


第二步:体验模子
适不合适自己的营业,还是得上手体验才能知晓。
是以火山方舟平台也给企业发放“体验卡”,可以快速体验各个模子的现实表示结果,摸索它们在说话、图像等方面的才能。
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第19张图片


第三步:加工模子
企业在体验完心仪的大模子以后,火山方舟还供给“加工处置”的办事。
具体而言,就是经过专业的练习、推理、评测与精调功用,快速构建并利用专属大模子办事。
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第20张图片


第四步:模子上岗
在一切工作预备停当以后,便可以真正地让心仪的大模子去“上岗”了。
字节跳动大模子初次全员亮相:一口气9个,价格低99%,没有参数范围和榜单分 第21张图片


全部进程看下来,火山方舟就好像一个大模子工场,不但供给质料,还包揽了加工和售后的工作。
而深入到具体的操纵上,基于火山方舟的升级,火山引擎还正式公布了扣子专业版,是一个企业级的AI利用开辟平台。
它的一大特点即是在扣子可视化灵活编程智能体的才能根本之上,还供给了企业级SLA和多种高级特征。
这么做的目标还是让AI利用的落地变得加倍简单,也有助于企业将精神更多地聚焦在创新。
那末最初一个题目是:究竟要面向的是产业,火山方舟,它够靠谱吗?
对此,火山引擎也给出了它在稳定性战争安性等方面的解法。
首先是在算力层面,火山方舟依托火山引擎的海量GPU资本池和训推一体潮汐调剂才能,经过软硬一体的系统优化,可在2分钟内,完成一千张GPU卡从练习状态到推理serving状态的弹性调剂,可以有用支持突发流量和营业高峰,并为企业下降本钱。
其次在算法层面,火山方舟支持豆包大模子同款的SFT练习引擎,精调完成的模子,3秒钟即可调剂为可serving状态,精调后模子在TPM支持才能、推理提早和价格等方面,和根本模子没有不同,极大地方便您停止后续结果评价、线上营业serving灰度和慢慢放量,提升大模子精调算法的迭代效力。
最初在平安层面上,火山方舟主打的就是一个公然通明,经过自研平安沙箱将prompt数据端到端地加密庇护起来,避免在练习和推理阶段的恶意进犯和数据泄露,而且供给通明审计中心,实现数据流的可控和可审计。
固然,每个企业用户定然希望自己的大模子办事是唯一无二的,火山引擎的三大插件正是可以供给差别化的关键点:
联网插件:供给头条抖音同款搜索才能,实时毗连海量优良互联网数据,不竭重新的数据和信息中进修,从而进步其性能和顺应性,同时利用文本、图像、语音等多模态交互方式。
内容插件:供给头条抖音同源海量内容,支持多模态交互,供给基于意图的垂类内容信息检索,内容时效检索更强,帮助大模子深入了解、检索和天生内容。
RAG常识库插件:供给毫秒级百亿范围的高性能检索,秒级流式常识库索引更新,内嵌豆包向量化模子,进步搜索的相关性和正确性。
总而言之,火山引擎此次非论是公布的豆包大模子家属,还是升级的火山方舟,甚至是一般公布会的基调,所剑指的方针都很是的明白和清楚。
用起来,才是硬事理

没错,就是“用起来,才是硬事理”。
而这也正是火山引擎与众多大模子玩家在计谋上最明显的差别地点——
大大都玩家都是将大模子和利用产物一道公布;而火山引擎则是恰恰相反,用起来了以后再做正式的周全公布。
究其缘由,也正是我们最起头提到的那句话:
只要最大的利用量,才能打磨出最好模子。
至于为什么不放出测评榜单和参数范围等业界似乎早已习惯做比力的目标,在量子位与火山引擎智能算法负责人、火山方舟负责人吴迪的交换进程中,他给出了一个很是直给的诠释:
我们更希望跟昨天的自己做比力。
我们更垂青的是用户利用的体验和结果好欠好;而不是那些优异的分数。
客户自己就能判定出什么是最合适的模子。
回答很简单,很自傲,但这类底气又是从何而来?
一是场景。
大模子需要用户的反应来优化已经是业界告竣的共鸣,在这方面,火山引擎依靠字节跳动有着自然的上风。
据领会,豆包大模子是经过字节跳动内部50+营业、多场景理论考证而延续做着迭代和优化,可以说是举全部公司的场景All in到大模子里面了。
二是技术。
字节跳动的保举算法也是业界公认的强者,而火山引擎今朝的焦点算法办事团队(由火山引擎大模子算法办事负责人王科带队),正是打下字节跳动起家的技术的原班人马。
其技术气力,可见一斑。
三是市场。
据领会,豆包APP累计下载量已经跨越了1亿,受用户接待水平可见一斑。
在To B方面,火山引擎也与智能终端、汽车、金融、消耗等行业的众多企业已经展开了合作,包括OPPO、vivo、小米、光荣、三星、华硕、招行、捷途、吉祥、北汽、智己、广汽、春风本田、海底捞、飞鹤等。
而且火山引擎在以利用量来优化大模子这条路上并不是仅依靠本身庞大的营业场景,而是与上述合作伙伴们一道配合来打磨,构成了一个闭环的进程。
那末最初,我们又该若何评价火山引擎的大模子?
也许就是:更大用量、更低价格、更多场景、更懂人、更聪明。
而这场公布会的主旋律也再次印证了当下大模子时代“利用为王”的趋向——
谁能用得更好,谁就能笑到最初。


上一篇:vivo公布首款Ultra版手机 蓝心大模子升级为多模态
下一篇:好家伙,华为这1899的隐藏大招,真杀疯了...
 
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

排行榜
活跃网友
返回顶部快速回复上一主题下一主题返回列表APP下载手机访问
Copyright © 2016-2028 CTLIVES.COM All Rights Reserved.  西兔生活网  小黑屋| GMT+8, 2024-5-22 04:06