2024年的AI视频,究竟何去何从 * { margin: 0; padding: 0; outline: 0; } body { font-family: “PingFang SC”, system-ui, -apple-system, BlinkMacSystemFont, “Helvetica Neue”, “Hiragino Sans GB”, “Microsoft YaHei UI”, “Microsoft YaHei”, Arial, sans-serif; line-height: 1.6; } .__page_content__ { max-width: 667px; margin: 0 auto; padding: 20px; text-size-adjust: 100%; color: rgba(0, 0, 0, 0.9); padding-bottom: 64px; } .title { user-select: text; font-size: 22px; line-height: 1.4; margin-bottom: 14px; font-weight: 500; } .__meta__ { color: rgba(0, 0, 0, 0.3); font-size: 15px; line-height: 20px; hyphens: auto; word-break: break-word; margin-bottom: 50px; } .__meta__ .nick_name { color: 576B95; } .__meta__ .copyright { color: rgba(0, 0, 0, 0.3); background-color: rgba(0, 0, 0, 0.05); padding: 0 4px; margin: 0 10px 10px 0; } blockquote.source { padding: 10px; margin: 30px 0; border-left: 5px solid ccc; color: #333; font-style: italic; word-wrap: break-word; } blockquote.source a { cursor: pointer; text-decoration: underline; } .item_show_type_0 > section { margin-top: 0; margin-bottom: 24px; } a { color: 576B95; text-decoration: none; cursor: default; } .text_content { margin-bottom: 50px; user-select: text; font-size: 17px; white-space: pre-wrap; word-wrap: break-word; line-height: 28px; hyphens: auto; } .picture_content .picture_item { margin-bottom: 30px; } .picture_content .picture_item .picture_item_label { text-align: center; } img { max-width: 100%; } .pay_subscribe_notice { margin: 30px 0; padding: 20px; background: fffbe6; border: 1px solid ffe58f; border-radius: 8px; } .pay_subscribe_badge { display: inline-block; padding: 4px 12px; background: faad14; color: fff; border-radius: 4px; font-size: 14px; font-weight: 500; margin-bottom: 12px; } .pay_subscribe_desc { font-size: 15px; line-height: 1.8; color: rgba(0, 0, 0, 0.7); margin-bottom: 12px; } .pay_subscribe_hint { font-size: 13px; color: rgba(0, 0, 0, 0.4); } .__bottom-bar__ { display: flex; justify-content: space-between; align-items: center; position: fixed; bottom: 0; left: 0; right: 0; height: 64px; padding: 8px 20px; background: white; box-sizing: border-box; border-top: 1px solid rgba(0, 0, 0, 0.2); } .__bottom-bar__ .left { display: flex; align-items: center; font-size: 15px; white-space: nowrap; } .__bottom-bar__ .right { display: flex; } .__bottom-bar__ .sns_opr_btn { display: flex; align-items: center; user-select: none; background: transparent; border: 0; color: rgba(0, 0, 0, 0.9); font-size: 14px; } .__bottom-bar__ .sns_opr_btn:not(:last-child) { margin-right: 16px; } .__bottom-bar__ .sns_opr_btn > img { margin-right: 4px; }

2024年的AI视频,究竟何去何从

原创 数字生命卡兹克 数字生命卡兹克 2024-02-04 19:09 天津

原文地址: https://mp.weixin.qq.com/s/GhGWrU29HW1kFVJyqzUx_A

前几天在A16Z上看到了一篇文章:

看完了有一点感触,正好我自己也在各种不同的场合表达过过AI视频现状的看法和展望。

那我想,不如就写一篇文章,结合A16Z的观点,来一起聊聊这个话题。

2023为什么是AI视频突破的一年,AI视频还缺少什么,以及对2024年AI视频的展望。

2023是AI视频爆发的一年,从最开始时,只有Runway的Gen1和wonder studio勉强可看,但是基本不可用。

直到8月,RunwayGen2正式推出。

Nicolas Neubert做了《创世纪》AI预告片,我做了《流浪地球3》的AI预告片,AI生成式视频,正式走向大众眼前。

直到2024年初,已经有数十家AI视频公司成立,且推出产品,而更有不计其数的大厂的产品正在路上:比如Meta、Google、腾讯、字节、阿里、商汤等等等等。

A16Z总结了一张图2023年关键节点图,我觉得总结的非常完整。

今年,我自己也整体体验了非常多的产品,除了最常用的Runway、PIKA、Pixverse之外,还有SVD、Genmo、Moonvalley、domo、Morph等等等等。太多了,也太卷了。

同样的,这里直接放A16Z总结的图。

但是,绝大多数的产品都并不完善,在可控性上,只有为数不多的几家产品支持了,比如Runway的运动笔刷、比如PIKA的区域修改,大部分的产品都只有文生图和图生图,生成3~4秒的视频,然后就没了。

也可以从图中看出,大部分的公司,都是小公司,大厂的动作有点慢,不过2024年上半年,大厂的AI生成式视频产品,可能会是涌现式喷发。

但是不要忘了,AI视频的第一次正式全员亮相,是在去年八月。

距离今天,也仅仅过了6个月而已。

说说AI视频的问题。

很多人在交流的时候,经常问我一个问题是,你觉得AI生成式视频,距离终点的进度走到了多少?或者说,你觉得能全面给行业降负还有多久。

虽然我觉得这个问题太大太空,但是我每次还是会说,现在的进度大概是5%到10%的地步吧。

离你们心中那个饼,还有90%的路。

在我心中,有一个最核心的问题需要解决:

物理规律

这个问题不解决,我不认为会对现在的影视行业会造成很大的冲击。

众所周知,视频里面,是包含大量的交互镜头的,人与人、人与物体、物体与物体的交互,等等。

比如我的玻璃杯子我放在空中,让他垂直落下,他应该掉在地上然后碎掉,或者高度不够的话,杯子会在地上弹起。

但是你让AI去做的话,你就会发现,变形变得你妈妈都不认识了。

或者一个人物戴着头盔转下头,头盔没了,脸也不要了。

这就是一个很离谱的事情,AI并不懂这个世界的物理规律,而一个不懂物理规律的视频,你认为他的上限能高到哪里去呢?

影视里,我们的最喜欢看的,是关系,是交互。

《海边的曼彻斯特》里有很多苦衷的两人之间的亲吻相拥。

《环太平洋》里机甲一拳将怪兽砸到海中的快感。

《复仇者联盟4》里钢铁侠那一个响指的浪漫。

没有这些,那一切都是空镜,一切都是转场,这样的镜头,怎么好看呢?

所以我们需要让AI视频,拥有物理引擎。

现在就我知道的,有两条路线,一条以Runway为代表,做世界模型;一条以商汤为代表,做3D。

先说世界模型。

Runway很久以前发了一个帖子,简单的介绍了一下世界模型。

但是不要以为他就开始干了,他的原话是:

We are building a team to tackle those challenges. If you’re interested in joining this research effort, we’d love to hear from you.

翻译过来是:我们正在组建一个团队来应对这些挑战。如果您有兴趣加入这项研究工作,我们很乐意听取您的意见。

。。。

就,怎么说呢…

斯坦福有一个团队在我的映像中也在做,但是世界模型遇到的最大的问题是:数据收集的问题。

世界模型最麻烦的就是对物理现实的数据收集,人类的抽象能力很强,看到一个球,可能会识别出这是足球或者头;看到一个白色的物体,可能是桌子或是一堵墙。

但是现在大部分的视频数据,有大量的垃圾噪点,怎么能抽象的把大量的噪音抽离,只留关键的物理信息?这是一个非常坑的点。

自动驾驶其实就是这个方向的最落地的应用之一,但是自动驾驶要的数据,并不是那么多,来来回回就是道路、街道、人物、车子那些东西了,但是也搞了N久,现在离L4还很远。

当你要做生成式AI视频的通用世界模型的时候,那数据要的就不是那一丁点了。。那是海量的数据。

一个炸弹炸在屎上屎应该如何散开?我一巴掌打到你脸上你肌肉应该如何颤抖?鲨鱼在水中追你的时候水是如何散开的??

这都是物理规律,我们能很容易的想象到,但是对于AI来说,太难。难的不是后期的训练,而是前期的数据收集。

在我跟大佬们的交流中,他们说现在最痛苦的点是:

“人经历过千万年的进化,对于世界的常识,是藏在基因里的,会自动把一些冗余的信息以极快的速度,一步一步剔除直到只剩到最关键的信息,然后做做一些思考推断。但是机器没有,机器现在不懂抽象,所以需要人去做类似人类抽象化过程的学习算法,来抽离关键信息,收集视频数据。”

这个点非常痛苦。

这也是我对于所谓的AI视频的通用世界模型没有那么多信心的原因。

另一条路,就是AI 3D + AI视频。

商汤的一部分技术就是走的这条路。

他们曾经发了一篇论文:https://story2motion.github.io/

这个项目很有意思,从故事可以直接生成动作,非常连贯。

如果给一张图,能直接分离场景和主体,然后3D建模后,再用Story to motion生成轨迹和动作呢?

不需要什么世界模型,3D世界中的物理引擎,游戏行业都做了N多年了,非常成熟了。

只要能分离建模,那就没问题。

而AI 3D,我之前也写过一篇评测文章,现在正在冉冉升起的阶段:AI时代的生成式3D大模型全面评测 - “ChatGPT时刻”的前夜

还没有那么成熟,但是按照现在这卷的速度,AI 3D,可能要不了半年,就能达到MJ的V4的程度。

当AI 3D和AI视频结合,那就是王炸。

所以我也能理解为什么MJ给自己定的星辰大海是AI视频,但在做AI视频之前,先从英伟达挖了一个专门搞3D的大佬去做AI 3D。

当然,这里面也有很多坑,3D建模的精度问题、贴图问题、骨骼问题、渲染问题等等。不过相比世界模型,我觉得这玩意的难度,还是小不少的。

总结一下,AI视频当然还有很多问题,比如一致性、比如时长、比如运动幅度、比如可控性等等。

但是我认为没有一个,像物理规律这样重要。

我期待后面大厂们加大筹码,疯狂开卷。

早一点解决这个问题。

早一点迎来,那超级的“颠覆时刻”。

我真的很想看到那一天。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章。

数字生命卡兹克

![](data:image/svg+xml,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E%3C!— Icon from Lucide by Lucide Contributors - https://github.com/lucide-icons/lucide/blob/main/LICENSE —%3E%3Cg fill=‘none’ stroke=‘%23888888’ stroke-linecap=‘round’ stroke-linejoin=‘round’ stroke-width=‘2’%3E%3Cpath d=‘M2.062 12.348a1 1 0 0 1 0-.696a10.75 10.75 0 0 1 19.876 0a1 1 0 0 1 0 .696a10.75 10.75 0 0 1-19.876 0’/%3E%3Ccircle cx=‘12’ cy=‘12’ r=‘3’/%3E%3C/g%3E%3C/svg%3E) 阅读![](data:image/svg+xml,%3Csvg width=‘25’ height=‘24’ viewBox=‘0 0 25 24’ fill=‘none’ xmlns=‘http://www.w3.org/2000/svg’%3E%3Cpath fill-rule=‘evenodd’ clip-rule=‘evenodd’ d=‘M16.154 6.797l-.177 2.758h4.009c1.346 0 2.359 1.385 2.155 2.763l-.026.148-1.429 6.743c-.212.993-1.02 1.713-1.977 1.783l-.152.006-13.707-.006c-.553 0-1-.448-1-1v-8.58a1 1 0 0 1 1-1h2.44l1.263-.03.417-.018.168-.015.028-.005c1.355-.315 2.39-2.406 2.58-4.276l.01-.16.022-.572.022-.276c.074-.707.3-1.54 1.08-1.883 2.054-.9 3.387 1.835 3.274 3.62zm-2.791-2.52c-.16.07-.282.294-.345.713l-.022.167-.019.224-.023.604-.014.204c-.253 2.486-1.615 4.885-3.502 5.324l-.097.018-.204.023-.181.012-.256.01v8.218l9.813.004.11-.003c.381-.028.72-.304.855-.709l.034-.125 1.422-6.708.02-.11c.099-.668-.354-1.308-.87-1.381l-.098-.007h-5.289l.26-4.033c.09-1.449-.864-2.766-1.594-2.446zM7.5 11.606l-.21.005-2.241-.001v8.181l2.45.001v-8.186z’ fill=‘%23000’/%3E%3C/svg%3E) 赞 ![](data:image/svg+xml;charset=utf8,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E %3Cg fill=‘none’ fill-rule=‘evenodd’%3E %3Cpath d=‘M0 0h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M13.707 3.288l7.171 7.103a1 1 0 0 1 .09 1.32l-.09.1-7.17 7.104a1 1 0 0 1-1.705-.71v-3.283c-2.338.188-5.752 1.57-7.527 5.9-.295.72-1.02.713-1.177-.22-1.246-7.38 2.952-12.387 8.704-13.294v-3.31a1 1 0 0 1 1.704-.71zm-.504 5.046l-1.013.16c-4.825.76-7.976 4.52-7.907 9.759l.007.287c1.594-2.613 4.268-4.45 7.332-4.787l1.581-.132v4.103l6.688-6.623-6.688-6.623v3.856z’/%3E %3C/g%3E%3C/svg%3E) 分享 ![](data:image/svg+xml;charset=utf8,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ xmlns:xlink=‘http://www.w3.org/1999/xlink’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E %3Cdefs%3E %3Cpath id=‘a62bde5b-af55-42c8-87f2-e10e8a48baa0-a’ d=‘M0 0h24v24H0z’/%3E %3C/defs%3E %3Cg fill=‘none’ fill-rule=‘evenodd’%3E %3Cmask id=‘a62bde5b-af55-42c8-87f2-e10e8a48baa0-b’ fill=‘%23fff’%3E %3Cuse xlink:href=‘%23a62bde5b-af55-42c8-87f2-e10e8a48baa0-a’/%3E %3C/mask%3E %3Cg mask=‘url(%23a62bde5b-af55-42c8-87f2-e10e8a48baa0-b)‘%3E %3Cg transform=‘translate(0 -2.349)‘%3E %3Cpath d=‘M0 2.349h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M16.45 7.68c-.954 0-1.94.362-2.77 1.113l-1.676 1.676-1.853-1.838a3.787 3.787 0 0 0-2.63-.971 3.785 3.785 0 0 0-2.596 1.112 3.786 3.786 0 0 0-1.113 2.687c0 .97.368 1.938 1.105 2.679l7.082 6.527 7.226-6.678a3.787 3.787 0 0 0 .962-2.618 3.785 3.785 0 0 0-1.112-2.597A3.687 3.687 0 0 0 16.45 7.68zm3.473.243a4.985 4.985 0 0 1 1.464 3.418 4.98 4.98 0 0 1-1.29 3.47l-.017.02-7.47 6.903a.9.9 0 0 1-1.22 0l-7.305-6.73-.008-.01a4.986 4.986 0 0 1-1.465-3.535c0-1.279.488-2.56 1.465-3.536A4.985 4.985 0 0 1 7.494 6.46c1.24-.029 2.49.4 3.472 1.29l.01.01L12 8.774l.851-.85.01-.01c1.046-.951 2.322-1.434 3.59-1.434 1.273 0 2.52.49 3.472 1.442z’/%3E %3C/g%3E %3C/g%3E %3C/g%3E%3C/svg%3E) 推荐 ![](data:image/svg+xml,%3Csvg width=‘25’ height=‘24’ viewBox=‘0 0 25 24’ fill=‘none’ xmlns=‘http://www.w3.org/2000/svg’%3E%3Cpath d=‘M22.242 7a2.5 2.5 0 0 0-2.5-2.5h-14a2.5 2.5 0 0 0-2.5 2.5v8.5a2.5 2.5 0 0 0 2.5 2.5h2.5v1.59a1 1 0 0 0 1.707.7l1-1a.569.569 0 0 0 .034-.03l1.273-1.273a.6.6 0 0 0-.8-.892v-.006L9.441 19.1l.001-2.3h-3.7l-.133-.007A1.3 1.3 0 0 1 4.442 15.5V7l.007-.133A1.3 1.3 0 0 1 5.742 5.7h14l.133.007A1.3 1.3 0 0 1 21.042 7v4.887a.6.6 0 1 0 1.2 0V7z’ fill=‘%23000’ fill-opacity=’.9’/%3E%3Crect x=‘14.625’ y=‘16.686’ width=‘7’ height=‘1.2’ rx=’.6’ fill=‘%23000’ fill-opacity=’.9’/%3E%3Crect x=‘18.725’ y=‘13.786’ width=‘7’ height=‘1.2’ rx=’.6’ transform=‘rotate(90 18.725 13.786)’ fill=‘%23000’ fill-opacity=’.9’/%3E%3C/svg%3E) 留言