首页AI 工具
ChatGLM-6B

ChatGLM-6B

Tsinghua KEG
6188人喜欢过
entry-slick
entry-slick
ChatGLM-6B简介

ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于General Language Model (GLM) 架构,具有62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需6GB 显存)。 ChatGLM-6B 使用了和ChatGPT 相似的技术,针对中文问答和对话进行了优化。经过约1T 标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的加持,62 亿参数的ChatGLM-6B 已经能生成相当符合人类偏好的回答,更多信息请参考我们的博客。

为了方便下游开发者针对自己的应用场景定制模型,我们同时实现了基于P-Tuning v2 的高效参数微调方法(使用指南) ,INT4 量化级别下最低只需7GB 显存即可启动微调。

不过,由于ChatGLM-6B 的规模较小,目前已知其具有相当多的局限性,如事实性/数学逻辑错误,可能生成有害/有偏见内容,较弱的上下文能力,自我认知混乱,以及对英文指示生成与中文指示完全矛盾的内容。请大家在使用前了解这些问题,以免产生误解。更大的基于1300 亿参数GLM-130B 的ChatGLM 正在内测开发中。

官网

https://github.com/THUDM/ChatGLM-6B

社区动态
好说新闻
ChatGLM-6B V1.1全面升级


训练数据增加英文指令微调数据以平衡中英文数据比例,提升英文能力,加强中英互译,解决英文回答中夹杂中文词语的现象。



【升级】ChatGLM-6B ...
link
【升级】ChatGLM-6B V1.1:平衡微调数据,提升英文能力,加强中英互译
‍‍加快迭代~
1
分享