StableLM

Stability AI
6人喜欢过
entry-slick
entry-slick
entry-slick
StableLM简介

今天,Stability AI 发布了一种新的开源语言模型 StableLM。该模型的 Alpha 版本有 30 亿和 70 亿参数,后续还有 150 亿到 650 亿参数模型。开发人员可以出于商业或研究目的自由检查、使用和调整我们的 StableLM 基本模型,但要遵守 CC BY-SA-4.0 许可的条款。

2022 年,Stability AI 推动了 Stable Diffusion 的公开发布,这是一种革命性的图像模型,代表了专有 AI 的透明、开放和可扩展的替代方案。随着 StableLM 模型套件的推出,Stability AI 继续让所有人都能使用基础人工智能技术。我们的 StableLM 模型可以生成文本和代码,并将为一系列下游应用程序提供支持。他们展示了小型高效模型如何通过适当的培训提供高性能。

StableLM 的发布建立在我们与非营利性研究中心 EleutherAI 开源早期语言模型的经验之上。这些语言模型包括 GPT-J、GPT-NeoX 和 Pythia 套件,它们在 The Pile 开源数据集上进行了训练。许多最近的开源语言模型继续建立在这些努力的基础上,包括 Cerebras-GPT 和 Dolly-2。

StableLM 在建立在 The Pile 上的新实验数据集上进行训练,但数据集大了三倍,包含 1.5 万亿个内容标记。我们将在适当的时候发布有关数据集的详细信息。这个数据集的丰富性使 StableLM 在会话和编码任务中表现出惊人的高性能,尽管它的参数量很小,只有 3 到 70 亿个(相比之下,GPT-3 有 1750 亿个参数)。

我们还发布了一组经过指令微调的研究模型。最初,这些经过微调的模型将使用五个最近的开源数据集的组合用于会话代理:Alpaca、GPT4All、Dolly、ShareGPT 和 HH。这些经过微调的模型仅供研究使用,并根据非商业 CC BY-NC-SA 4.0 许可发布,符合斯坦福大学的 Alpaca 许可

语言模型将构成我们数字经济的支柱,我们希望每个人都能在他们的设计中发表意见。像 StableLM 这样的模型展示了我们对透明、可访问和支持的 AI 技术的承诺:

透明的。我们开源我们的模型以提高透明度和培养信任。研究人员可以“深入了解”以验证性能、研究可解释性技术、识别潜在风险并帮助制定保障措施。公共和私营部门的组织可以针对自己的应用程序调整(“微调”)这些开源模型,而无需共享敏感数据或放弃对其 AI 功能的控制。

无障碍。我们为边缘设计,以便日常用户可以在本地设备上运行我们的模型。使用这些模型,开发人员可以构建与广泛使用的硬件兼容的独立应用程序,而不是依赖一两家公司的专有服务。通过这种方式,人工智能的经济利益将由广大的用户和开发者社区共享。对我们模型的开放、细粒度访问允许广泛的研究和学术社区开发超越封闭模型的可解释性和安全技术。

支持。我们建立模型来支持我们的用户,而不是取代他们。我们专注于高效、专业和实用的 AI 性能——而不是追求神一般的智能。我们开发的工具可帮助普通人和日常公司使用 AI 来释放创造力、提高生产力并开辟新的经济机会。

这些模型现在在我们的 GitHub 存储库中可用。我们将在不久的将来发布一份完整的技术报告,并期待在我们推出 StableLM 套件时与开发人员和研究人员持续合作。此外,我们将启动众包 RLHF 计划,并与 Open Assistant 等社区合作,为 AI 助手创建一个开源数据集。

官网

https://stability.ai/blog/stability-ai-launches-the-first-of-its-stablelm-suite-of-language-models

社区动态
好说新闻
2023 年的 ChatGPT 就像AI时代的“排头兵”,一“月”之间让人们有了“AI袭来”的实感,功成名就的它也俨然成了 AI 界的王者,名利双收、饱受追捧。不过AI的世界永远不缺挑战者,在本周,谷歌有了新动作,而几款免费的“类ChatGPT”AI 也纷纷崭露头角,或是表现不俗、或是开源进取,让科技圈每天都有新话题上演。
Claude 免费开测 被誉为ChatGPT「最强竞品」与 ChatGPT 繁琐的注册门槛相反,Claude 可以说是把“门把手”给拆了。从上周末开始,只要适当的上网姿势、注册一个 Slack 免费账号,就能在几分钟内完成注册、开箱即用这个 Claude 神器。
尽管 OpenAI 的 ChatGPT、GPT-4 是公认的强悍,但 Claude 就算不说旗鼓相当,也是潜力非凡了。经网友测试,不管是算算数、设计代码,还是中文写作、成语接龙,它都能和 ChatGPT 打个来回。再加上当前的“免费”加成,比起 ChatGPT 的一些限制,也确实算得上是值得一试的 ChatGPT “最强竞品”了。
👉 点击前往「Claude」资料页
SD开发商开源大语言模型StableLM 能否再现 SD 潮流Stable Diffusion 是目前最主流也是最重要的AI绘画模型之一,开源社区的大佬们基于它创作了许多有意思的插件和模型,在 ChatGPT 流行之前,就让一些朋友先体验到了 AI 的神器。
image
分享
好说新闻
Stability AI 发布的开源模型Stable Diffusion,是目前最主流也是最重要的AI绘画模型之一。
基于 Stable Diffusion,开发者社区创作了许多有意思的插件和模型,例如可以控制图形形状的 Control Net 项目等,相关的开发项目超过1000个。
现在,这家热衷于开源的AI公司又想搞一个大事情——发布一个类似 ChatGPT 的开源大语言模型。
人人都有大语言模型2023年可以说大语言模型井喷的一年,这几个月以来,几乎每个星期都有一个新的大语言模型面世。大模型、小模型、文本生成的、多模态的、闭源的、开源的……现在就是大语言模型的春天,各家百花齐放。这份热闹不仅属于微软、Google、百度、阿里等互联网大厂,也属于所有与AI相关的科技公司。
和现有的大模型相比,StableLM 大语言模型有什么特别的呢?
根据官方的介绍,目前 StableLM 是一个开源且透明的模型,允许研究人员和开发者自由地检查、使用和修改代码。就像 Stable Diffusion 一样,用户们都可以自由地配置 Stable LM,打造专为自己需求而量身定制的大语言模型。目前 StableLM Alpha 版本模型的参数大小为30亿和70亿,未来 Stability AI 还会提供150亿和650亿参数大小的模型版本。
尽管和 GPT-3 模型的 1750亿 参数相比,StableLM 的模型大小要小得多,但 Stability AI 表示 StableLM 是基于一个比The Pile数据集还要大3倍的扩展数据集训练而成,在编码和自然语言对话方面都有不错的表现。
image
分享
好说新闻
今天,Stability AI发布了一款名为StableLM的新开源语言模型。该模型的α版本已经提供了30亿和70亿个参数,随后还将推出150亿到650亿个参数的模型。开发人员可以自由地检查、使用和适应我们的StableLM基础模型,用于商业或研究目的,但需遵守CC BY-SA-4.0许可证的条款。
在2022年,Stability AI推动了革命性的图像模型Stable Diffusion的公开发布,该模型代表了专有AI的透明、开放和可扩展的替代方案。随着StableLM一系列模型的推出,Stability AI正在继续让基础AI技术为所有人所使用。我们的StableLM模型可以生成文本和代码,并将驱动一系列下游应用。它们展示了小型和高效的模型如何在适当的训练下实现高性能。
StableLM的推出基于我们与非营利性研究中心EleutherAI共同开源早期语言模型的经验。这些语言模型包括GPT-J、GPT-NeoX和Pythia套件,它们都是在The Pile开源数据集上进行训练的。许多最近的开源语言模型继续在这些努力的基础上进行改进,包括Cerebras-GPT和Dolly-2。
StableLM是在一个新的实验数据集上进行训练的,该数据集是基于The Pile构建的,但是规模是原版数据集的三倍,拥有1.5万亿个内容标记。我们将在适当的时候公布数据集的详细信息。尽管StableLM只有30到70亿个参数(相比之下,GPT-3有1750亿个参数),但该数据集的丰富性使其在对话和编码任务方面表现出惊人的高性能。
image
分享