Stable Diffusion 开发商推出动画版 SDK,开启 AI 动画生成时代
Stable Diffusion 把人们带入了“AI绘画”的时代。今天,SD 开发商 Stability AI 发布了 Stable Animation SDK,这是一个为艺术家和开发人员设计的工具,用于实现最先进的 Stable Diffusion 模型,生成惊人的动画。
没错,又一次的“AI创作”革命又要来了,这次从“静态”转变为了“动态”,AI动画不再陌生。
据官网介绍,Stable Animation (简称SA)用户目前可以通过 SDK 以不同的方式来创建动画:通过文字提示词(不使用图像),源图像或源视频。

目前通过 Stability AI 的动画端点(animation endpoint),艺术家可以使用所有的 Stable Diffusion 模型,包括 Stable Diffusion 2.0 和 Stable Diffusion XL ,生成动画。

据官方介绍,Stable Animation SDK 目前提供了三种创建动画的方式:
文字生成动画:用户输入一个文本提示(与 Stable Diffusion 相同),并调整各种参数来产生动画。

文字输入+初始图像输入:用户提供一个初始图像,作为他们动画的起点。与图像一起使用文本提示来产生最终输出动画。

输入视频+文字输入:用户提供一个初始视频作为他们动画的基础。通过调整各种参数,他们最终得到一个最终输出的动画,还会受到文本提示的指导。

SA SDK 的用法
目前的 Stable Animation 开放了 SDK 的使用,我们暂时不能纯本地部署、运行它,而是需要通过 Stability AI 的算力、付出一定的金钱来进行使用。
从官方提供的使用帮助来看,目前可以自定义的参数还是丰富的,除了SD里常见的 Prompts 外,像模型、风格预设、视频尺寸 等常用的选项也已经是可选设置的状态,对艺术家和开发人员来说已经有了一定程度的可用性。
可以说,只要付出了金钱,就能好好地发挥创意了。

值得一提的是,我们在可选模型中看到了 SD1.5,这是时至今日大家依旧喜欢使用的版本,很多LoRA和CheckPoint 也是基于这个版本开发,这也让 SA 未来的扩展前景更加光明。

在视频生成方面,SA 提供了像是 光影、景深、3D渲染、帧率、遮罩 等多个参数维度,在一定程度上满足了专业领域的需求。
相信随着 Stable Animation SDK 的发布,开发者们会为这项新的“视频SD”技术开发更多有趣的用法和玩法,值得大家一起期待!