这几天很热门的 ai 工具是:「Luma dream machine」,一款 AI 生成 5 秒钟动态视频的在线服务,并且号称有逼真的物理反应、电影运镜和人物动作,可类比之前 Open AI 公布的 Sora ,不过 Sora 虽然效果惊人〔还可生成一分钟视频〕,却尚未对一般用户开放。而 「Luma dream machine」 已经可以让一般用户直接试用,提供每天最多生成 10 个短片,每个月最多生成 30 个视频的免费账号额度。
如果想要试试看 AI 直接生成逼真视频效果,那么「 Luma dream machine」会是目前能够让我们马上可以体验看看的选择,在电影运镜与真实物理效果上,也确实比 Pika 之类 AI 生成动态画面的成品更突出。
Luma AI 网站上宣称的几个特色为:
- 免费生成 5 秒钟短片。
- 符合物理引擎,像是真实世界模拟。
- 滑顺电影感的运镜。
- 逼真的人物互动。
而我针对上面宣传的几个特色,实际去测试后,目前的心得是:
- 大自然、城市风景短片,用电影般运镜呈现动态场景,基本上没有问题,很多时候效果很不错。
- 如果人、物是在背景移动〔例如路人〕,或是做简单的动作,也没大问题,效果可接受。
- 但人物如果要做太精细的动作,在物理反应或画面细节上就容易出错。〔这也合理〕
- 对中文或英文的指令理解,似乎不一定 100% 符合指令中描述的细节。
- 当然,或许可以通过「设计更精准的指令」来解决上述问题,或是多次生成找到更好的结果,这边我就临时没有继续尝试下去。
例如下面这个雨中场景的短片〔可点击这个链接,观看短片播放〕,就可以注意到背景与路人基本上稳定,但前景的两个主角虽然有拟真的跑步动作但也有明显的错误,而指令虽然是英文但也没有 100% 符合。
下面是我实际测试的几段短片的合辑,可以看看从一般用户角度出发,生成的视频可能出现的各种成功、失败情况。
Luma AI 用文字指令生成视频
无论如何,我们都可以注册一个免费账号,试试看「https://lumalabs.ai/dream-machine」。
接着在指令列,输入对于视频场景、动作的描述。可输入中文指令,也可输入英文指令。通过「Enhance prompt」可以帮助指令最佳化,但也可能是因为这样而对于中英文指令似乎都无法 100% 掌握。
等待一小段时间,就可以根据我们的文字指令,生成 5 秒中的短视频。
在视频上点击右键,选择下载,就能获得 MP4 文件。
下面这段山谷溪流小船的视频〔点击链接播放〕效果就不错。
Luma AI 用照片生成短片
另外一个很适合「Luma dream machine」的使用方式,是把经典图片、真实照片中的人物变成电影短片场景。
例如我可以在指令列先上传一张狮子照片,然后辅助指令描述,让 AI 根据照片来生成。
这时候 Luma AI 会根据照片内的实景、人物生成更多的影格,最后串联出一个电影短片。
例如这个狮子走过草地的照片变成的电影短片〔点击观看〕,草地的场景被自动延伸生成,狮子也从侧面多出了正面,虽然多少有些不自然的地方,但也足够让人惊艳。
我还下载了一张第一次世界大战时的黑白照片,尝试让 AI 把照片中的军队动起来。
最后,Luma AI 自动延伸了房屋后的场景,并让军队往前前进〔点击观看视频〕,虽然,视频一开始的动作还好,但很明显的视频后段前进的步伐非常不自然〔人物动作依然比较容易出错〕。
在 Open AI 的 Sora 尚未开放前,就让我们来试试看「 Luma dream machine」,体验一下 AI 生成视频的效果吧!