切换到宽版
开启辅助访问
登录
立即注册
搜索
搜索
搜索
首页
Portal
论坛
同城
人才网
工具
菲龙网工具
个人中心
关于我们
每日签到
本地新闻
时事评论
华人世界
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
严选
话费充值
便民电话
贺词页面
瀑布流页
汇率查询
APP下载
每日签到
我的任务
道具商店
每日签到
我的任务
道具商店
更改用户名
关于菲龙网
About US
联系菲龙网
活动回顾
加入我们
本版
用户
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
“卷王”豆包上桌,压力给到了谁?
菲龙网编辑部7
有 744 人收听 TA
148341
主题
148358
回复
174492
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/111
中国养老金发展报告:企业年金政策应提高弹性
0/107
多家银行补发高管2023年延期薪酬:有人补百万,也有人被扣回
0/107
2024年险资举牌高达20次,2025年还会继续吗?
0/96
畅通世界 惠享湾区 中信银行发行大湾主题信用卡
0/68
国开行再添一名高管,进出口银行王鹏出任党委委员
0/62
银行信息数据安全“雷区”:过度收集客户信息
0/74
江苏农商联合银行获批筹建
0/60
多家银行补发高管2023年工资:有人补百万,也有人被扣回
0/71
工行行长刘珺:针对银行业“内卷”,大行要带头坚决不打“价格战”
查看TA的全部帖子>>
“卷王”豆包上桌,压力给到了谁?
时间:2025-1-4 13:48
0
140
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
文|科技新知 思原
大模型赛道打了一年的价格战,还在继续……
就在新年前一天,阿里云宣布2024年度第三轮大模型降价,通义千问视觉理解模型全线降价超80%。
同样,前不久火山引擎的Force大会上,除了大力宣传豆包外,最值得关注的还是价格的再次下降。目前豆包视觉理解模型输入价格为0.003元/千tokens,1块钱可处理284张720P的图片。
此前去年5月份,豆包通用模型pro-32k版,推理输入价格为0.0008元/千tokens,价格不到1厘。此举迫使阿里云对其三款通义千问核心模型进行新一轮降价,降幅高达90%。而百度智能云则更为激进,宣布文心大模型旗下的两款主打产品——ENIRE Speed与ENIRE Lite,将全面免费开放。
按照火山引擎总裁谭待的说法,"市场需要充分竞争,降低成本是技术优化的结果,做得最好才能活下来"。显然,在这场大模型的军备竞赛中,豆包想要上演"大力出奇迹"的戏码。
但在字节大肆内卷之下,也有质疑不断:豆包的价格真的足够便宜吗?为什么大模型要卷价格?未来价格还会成为企业拿单重点吗?
降价夸张?满是套路
想要理解大模型商家的套路,就需要了解大模型的商业模式。据"远川科技评论"梳理,目前来看各家提供的服务主要可分为三种:
一是包含模型推理的基础服务,指的是根据输入的信息内容,给出回答的过程。简单来说就是"实际使用"模型的过程。这部分各家都有不同的模型标准。
二是模型精调,厂商可以根据客户需求按token使用量(训练文本*训练迭代次数)计费,训练完成后出账,按量后付费。
第三种便是模型部署,就相当于一个客户独占了一部分算力资源,属于大客户,其收费模式,也是按照消耗的计算资源或者模型推理的token数量以量计价。
这3种收费模式,代表的也是大模型开发由浅入深的过程。而各大科技公司疯狂砍价的,其实是第一种基础服务,即标准版模型的推理费用。而这部分定价又分成了"输入"和"输出"两部分。简单来说,输入就是用户提问的内容,而输出则是大模型的回答。
在调用大模型时往往会根据输入和输出的token数量,进行双向计费。这种细微差异,很容易成为大模型公司的套路。
例如,豆包的通用模型Doubao Pro-32k,输入价格为"0.8元/百万tokens",按照官方说法是比行业便宜了99.3%,一些主流模型也都开始了降价,比如阿里云三款通义千问主力模型Qwen-Turbo价格较之前直降85%,低至百万tokens 0.3元,Qwen-Plus和Qwen-Max的输入价格分别再降价80%和50%,分别为0.8元/百万tokens和20元/百万tokens。
但输出价格方面有所差别,2元/百万tokens的价格与Qwen-Plus、DeepSeek-V2等同行持平,甚至比比Qwen-Turbo、GLM-4-9B等一些同行产品价格更高。
再看最新的豆包视觉理解模型Doubao-vision-pro-32k,输入化为每百万tokens的售价为3元,大概是0.4美元,输出直接来到了9元,大概为1.23美元。按照豆包说法,这个售价比行业平均价格便宜85%。
但对比几个直接竞争者:阿里的多模态模型Qwen-VL系列在最近降价后与其价格一致;多模态的Gemini 1.5 Flash模型每百万输入tokens报价为0.075 美元、每百万输出tokens成本为0.3美元,对于较小的上下文(小于128k)还另有折扣价;GPT-4o mini则是输入0.15美元,输出0.6美元。
不过不止豆包,国内其他厂商基本也都有类似的降价"套路"。例如百度宣布免费的ERNIE-Speed-8K,如果实际部署,收费就变成了5元/百万tokens。还有阿里的Qwen-Max,实际与字节跳动的豆包通用模型Pro-32k一样,只是降低了输入的价格。
值得一提的是,标准模型推理的降价确实可以让中小开发者降低成本,但只要稍微更进一步的使用,就涉及到了模型微调和模型部署,然而这两项服务一直都不是价格战的主角,并且也没有太大降价幅度。
简单来说,各家降价最狠的其实都是轻量级的预置模型;相比之下,性能更强悍的"超大杯"模型,实际降价幅度没有那么夸张。例如精调的Doubao-pro系列的价格都在50元/百万tokens,比阿里、腾讯这些厂商的旗舰主力模型价格更高。
各大厂商风风火火的掀起的价格战,就像是打网游,用各种形式吸引玩家,再在游戏中加上各种玩法,总之就是想要变强就要氪金。当然,即便如此,各个大厂也算是真金白银的付出很多,那么为什么这些厂商在一直围绕价格大费周章呢?
想做好,热度不能停
纵观大模型行业,字节跳动一定算不上起跑最快的那一批选手,甚至今年年初,字节跳动CEO梁汝波在内部讲话中提到"迟钝"二字,直指字节对大模型的敏感度不如创业公司。
"直到2023年才开始讨论GPT,而业内做得比较好的大模型创业公司都是在2018年至2021年创立的。"他说。
后来者往往是最需要内卷的那个,字节跳动也是如此。从今年年中开始,便开始制造一轮又一轮热度。
除了上文所说的,豆包在B端的让利降价意图明显外,C端市场豆包也是全力出击。
面向C端,无论是线上平台,还是线下公开场所,都能看到豆包的身影。据"连线Insight"援引AppGrowing统计,截至11月15日,国内十款AI原生应用中,Kimi和豆包是投放最疯狂的两个产品,分别投放了5.4亿元和4亿元。
拉长时间线看,豆包的投流显然更猛烈。据AppGrowing统计,2024年4月—5月,豆包投放金额预计为1500万元-1750万元。6月上旬,豆包再次启动新一轮大规模的广告投放活动,投放金额高达1.24亿元。
除了投流外,豆包还有抖音这一流量池,字节几乎屏蔽了除了豆包以外所有AI应用在抖音上的投放。目的也很明确,就是要彻底解决大模型应用的"用户焦虑"。
然而,现实往往事与愿违。据"智能涌现"报道,字节内部反思——豆包目前的用户活跃度并不算高。豆包每周仅活跃2至3天,且每天用户发送消息轮次仅为5到6次,单次2分钟左右,用户人均使用时长仅为10分钟左右。上述这些数据在过去一年中的增长幅度并不显著。
简单来说,不计成本的投流,虽然让豆包成了国内用户数量断层式第一的AI软件,但仍然算不上是一款killer app。
字节管理层对此的判断是,像豆包这样的AI对话类产品可能只是AI产品的"中间态"。字节内部判断,付费订阅模式在中国不太可能走通。而时长和轮次太低,又导致潜在的广告空间较小,这都构成了这类产品的隐形天花板。
所以长期来看,更低门槛、更"多模态"的产品形式更具落地可能,剪映和即梦可能是合适的入口,这也是此次大会豆包将部分重点放在视频模型的本质原因。
但站在用户角度,根据"财经杂志"报道,大部分用户买单的原因是产品和服务能带来价值,价值不光是解决具体问题,如提升工作效率、提供情感陪伴等,市场上还有一类价值是"符合政策方向"。更重要的要具备找到具体客户并交付的能力,这考验的是AI公司在技术和产品之外的能力,甚至在很多时候,这项能力比技术实力更能帮助AI公司成长。
中国的AI市场和美国不同,很难通过平台销售软件的模式打开市场,大部分时候需要抓住一个个的项目和工程来实现商业化。而这些项目和工程的来源,往往与自身热度有关。
"一家成熟的企业在布局大模型时,很难会去考虑一个不成熟的产品或者企业。在不考虑成本的情况下,大品牌往往是首选,这不仅是技术上的信任,更多是服务、整体质量的信任",一位科技企业管理人员向「科技新知」表示,"毕竟小厂的风险还是有的,就像买车,开着开着车厂倒闭了,那就损失大了"。
初创公司大肆制造热点新闻,大概率是为了融资,是为了活下去,而豆包这种本就有背景的,则是想要靠着热度去找到并且固定更多客户,但圈内一个默认的事实就是,无论是谁、无论技术多厉害,都要善于保持热度,毕竟酒好也怕巷子深。
淘汰赛,或告别价格战
其实不止豆包,目前市面上所有二线及以下的大模型厂商,都处在花钱买流量的阶段,为的是留住用户。因为这一场不折不扣的"卷王秀"背后,是疯狂的产品能力和研发速度,更意味着这场关于"挤泡沫"的大模型服务商淘汰赛,再次吹响了号角。
2024年已经经历了一轮淘汰赛洗礼,让大模型去九存一,产业格局更加合理,只留下了约10%的大模型进入决赛圈。
然而,这并不是结束,而是开始。只是在「科技新知」看来,新一轮淘汰赛的重点,价格不再是主导因素而是技术。
目前科技公司们也开始陆续意识到,仅发布一个免费的应用,并不能为公司带来直接收益,C端用户量很难增长,获客成本已经明显提升。更重要的是去直接触及那些愿意付费的B 端客户,例如金融、政务、汽车等行业。
但是通常有大量公司集中进入某个行业时,会出现持久的价格战,因为各家都需要打造一个标杆客户,来为之后的市场拓展铺路。简单粗暴的价格战会让一些公司主动或被动退出,待市场稳定后,再将价格恢复常态。
但矛盾之处在于,"有钱"的领域大家都想进入。而长久的价格战下,技术成本变成了制胜关键,简单来说,同样的解决方案和报价下,谁的技术成本更低,谁就能亏得更少,活得更久。
而技术成本取决于企业的硬件成本和算法逻辑,这点目前国内主流的大模型厂商基本处在同一水准,并且迭代和互相追赶的速度也不相上下,但这不代表可以高枕无忧。
今年9月,OpenAI的"王炸"o1模型的问世也让各家看到了差距,与现有的大模型相比,o1最大的特点就是"推理式AI",它在回答复杂问题时会花费更多时间来逐步推演问题。这种延时思考并不是缺点,反而让o1更接近人类真实的逻辑推理方式。
从"生成式AI"到"推理式AI",o1的推出预示着AI进入了一个全新的阶段。而更令人震惊的是,在o1发布的3个月后,下一代o系列产品o3便横空出世,并且o3有完整版和mini版,新功能是可将模型推理时间设置为低、中、高,模型思考时间越高,效果越好。mini版更精简,针对特定任务进行了微调,将在1月底推出,之后不久推出o3完整版。
这也意味着快速迭代下,目前主流的生成式AI,即将成为历史产品。
"价格是影响大模型企业的因素,但更重要的还是技术能力,"一位大模型应用开发者向「科技新知」表示,"目前国内如阿里、昆仑万维等企业也都推出类o1模型,虽然有差距,但也代表了他们也都认同这一趋势。"
一位业内专家也表示,国内企业走的思路是集成思维链、用搜索方式提升深度推理能力、加入反思策略和算法提升逻辑推理性能,但目前还未完全超过OpenAI。
值得一提的是,国内最近比较火的DeepSeek-V3,采用的蒸馏技术给行业提供了新思路,但同时也陷入"优化GPT"的争论。
而针对AI训练可能使用合成数据(大模型生成数据)这一话题,伦敦大学学院(UCL)名誉教授和计算机科学家彼得·本特利表达了担忧,称"如果继续在其他AI的输出上训练AI,结果可能是模型崩溃。确保高质量AI的唯一方法是,为其提供人类的高质量内容。"
"缺乏参照的现成开源架构,不清楚o1模型做后训练时强化学习的方式以及使用的数据集,树搜索、COT未开源,训练数据污染、国产模型推理性能提升困难,这些都是目前国内企业的难点,"该专家补充道,"不过若有支持o1架构的开源模型出现会加速这一过程,过程中会有两三家先跑,其他家后跟进。"
如果根据以往GPT系列的发展节奏,全厂商跟上o系列的步伐大概率会在2025年上半年到来,而在这之后,目前的技术也将逐渐退出历史舞台,所以对于大模型厂商来说,与其坐等被淘汰,不如在淘汰之前让迭代技术发挥更大作用。
总的来看,未来价格虽仍会是影响企业拿单的因素之一,但随着技术的快速迭代和行业的发展,技术能力将越发关键,只有不断提升技术、降低成本、优化服务,大模型厂商才能在即将到来的淘汰赛中存活下来。
参考资料:
[1]《豆包再降价,字节"饱和式"进攻仍在继续》,连线Insight
[2]《大模型价格战,还能再狠一点》,远川科技评论
[3]《中国大模型洗牌年将开启,暗藏两大逻辑》,财经
[4]《字节内部判断AI对话类产品天花板可能不高,提升剪映即梦优先级》,智能涌现
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
关闭
站长推荐
/1
【点击免费下载】菲龙网移动APP客户端
【点击免费下载】菲龙网移动APP客户端,新闻/娱乐/生活资讯生活通,带你了解菲律宾多一点!
查看 »
扫码添加微信客服
快速回复
返回列表
返回顶部