切换到宽版
开启辅助访问
登录
立即注册
搜索
搜索
搜索
首页
Portal
论坛
同城
人才网
工具
菲龙网工具
个人中心
关于我们
每日签到
本地新闻
时事评论
华人世界
中国新闻
新闻视频
国际新闻
娱乐新闻
科技新闻
菲龙广场
房产网
菲龙速聘
二手交易
便民电话
美食餐厅
旅游签证
物流速运
商品买卖
二手车市场
严选
话费充值
便民电话
贺词页面
瀑布流页
汇率查询
APP下载
每日签到
我的任务
道具商店
每日签到
我的任务
道具商店
更改用户名
关于菲龙网
About US
联系菲龙网
活动回顾
加入我们
本版
用户
菲龙网
»
论坛
›
新闻频道
›
科技新闻
›
微软开源爆火1bit大模型推理框架!千亿参数模型量化后单 ...
菲龙网编辑部7
有 744 人收听 TA
147801
主题
147818
回复
173934
积分
收听TA
发消息
加好友
本文来自
科技新闻
订阅
|
收藏
(
2953
)
菲龙网编辑部7发布过的帖子
0/84
临港新片区:国际再保险功能区登记保费规模突破100亿元
0/78
独家丨《金融产品网络营销管理办法》有望发布,涉及贷款、理财、支付等领域
0/75
北银理财一日开型产品5个多月规模增长近18亿元丨机警理财日报
0/80
美团企业版携手银行,「智慧食堂」探路对公场景金融
0/76
个人养老金制度推广至全国,中信保诚人寿布局智慧养老新模式
0/74
连收7张罚单,这家万亿大行怎么了?
0/70
唐山银行入选“2024新质生产力金融服务典范案例”
0/84
能兑换“狗头金”的京东黄金水饺 价值堪比熊猫币
0/79
直播预告:云上会|多元资产配置助力蔚然养老
查看TA的全部帖子>>
微软开源爆火1bit大模型推理框架!千亿参数模型量化后单CPU可跑
时间:2024-10-23 09:55
0
140
|
复制链接
|
互动交流
显示全部楼层
阅读模式
直达楼层
马上注册,结交更多好友
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
西风 发自 凹非寺
量子位 | 公众号 QbitAI
微软开源1bit大模型推理框架!
现在1000亿参数大模型量化后单CPU可跑,速度可达每秒5-7个token。
就是今年爆火论文
The Era of 1-bit LLMs
的官方代码实现,开源不到一周GitHub已揽获
7.9k Star
。
传统大模型参数以16位浮点数(如FP16或BF16)形式的存储,而BitNet b1.58将其统统变成了
三进制
,也就是
{-1, 0, 1}
。
这里的“1.58 bit”指每个参数可以用1.58位的信息来表示。
转换之后,
矩阵中的计算就只会涉及到加法
,因此会让大模型在保持一定精度的同时,显著减少所需的存储空间和计算资源,也显著提升了在本地设备上运行LLM的可能性。
这个项目开源后,在X上也受到了一波高度关注。
千亿参数模型量化后单CPU可跑
bitnet.cpp
是1bit LLM(例如 BitNet b1.58)的官方推理框架。
该框架配备了一系列优化内核,支持在CPU上进行快速且无损的1.58bit模型推理,未来将扩展支持NPU和GPU。
bitnet.cpp的
首版主要支持CPU推理
。
具体性能改进方面,在ARM CPU上,该框架可实现
1.37至5.07倍的加速
,而且更大的模型将有更显著的性能提升。
同时,它能将
能耗降低55.4%至70.0%
,进一步增强效率。
在x86 CPU上,
加速效果介于2.37至6.17倍
之间,
能耗减少71.9%至82.2%
。
网友们也发现了华点,在x86上的性能增益量比ARM更大。
此外,bitnet.cpp能使千亿参数模型量化后单CPU可跑,速度可达每秒5-7个token,接近人类阅读速度。
微软还展示了使用bitnet.cpp推理框架支持的不同1 bit LLM。
6页论文,引入1 bit LLM
1 bit LLM的实现方法,微软在一年前就有相关研究,称为BitNet(一种Transformer),用
BitLinear
替换了nn.Linear。
今年二月,BitNet原班人马在上一篇论文的基础之上做了优化,提出BitNet b1.58,在原始BitNet的基础上增加了一个额外的
0值
。
然后这篇内容只有6页的论文引发热议:
BitNet b1.58模型的权重被量化为三元值{-1, 0, 1},
相当于在二进制系统中使用了1.58 bit来表示每个权重
。
采用了absmean量化函数来约束权重,将权重矩阵通过其平均绝对值进行缩放,然后四舍五入到最接近的整数值(-1、0或1)。
激活量化中,激活值被缩放到[−Qb, Qb]的范围,以此来消除零点量化。
在架构设计上,BitNet b1.58借鉴了Llama,使用了RMSNorm、SwiGLU、旋转位置编码等组件,并移除了所有偏置项。这种设计使其能够轻松集成到主流的开源框架中。
实验中,与Llama相比,BitNet b1.58
在矩阵乘法方面节省了71.4倍的计算能耗。
这种方法发布后,也有不少人在这项研究的基础之上进行探索。
其中一个问题是,BitNet b1.58将每个参数仅用三元值表示,但是所有这些都需要从头开始训练模型,并不是谁都有预算来进行LLM预训练。
而Huggingface Transformers最近整合了BitNet b1.58,运用了一些技巧,使得
现有模型可以直接微调到1.58bit
。
感兴趣的童鞋可以自行查阅。
不过也有网友指出了这种方法的局限:
总之,1 bit LLM具有巨大的潜力。
但也正如网友所言,1 bit LLM关键还得是能在实践中证明自己。
参考链接:
[1]https://github.com/microsoft/BitNet
[2]https://x.com/rohanpaul_ai/status/1847814379657462201
[3]https://x.com/rohanpaul_ai/status/1848172443258728860?s=46&t=iTysI4vQLQqCNJjSmBODPw
[4]https://huggingface.co/blog/zh/1_58_llm_extreme_quantization
回复
举报
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
|
立即注册
点我进行验证
本版积分规则
发表回复
回帖后跳转到最后一页
关闭
站长推荐
/1
【点击免费下载】菲龙网移动APP客户端
【点击免费下载】菲龙网移动APP客户端,新闻/娱乐/生活资讯生活通,带你了解菲律宾多一点!
查看 »
扫码添加微信客服
快速回复
返回列表
返回顶部