第一个同时为人类和Agent设计的AI视频产品,它叫,LibTV。 * { margin: 0; padding: 0; outline: 0; } body { font-family: “PingFang SC”, system-ui, -apple-system, BlinkMacSystemFont, “Helvetica Neue”, “Hiragino Sans GB”, “Microsoft YaHei UI”, “Microsoft YaHei”, Arial, sans-serif; line-height: 1.6; } .__page_content__ { max-width: 667px; margin: 0 auto; padding: 20px; text-size-adjust: 100%; color: rgba(0, 0, 0, 0.9); padding-bottom: 64px; } .title { user-select: text; font-size: 22px; line-height: 1.4; margin-bottom: 14px; font-weight: 500; } .__meta__ { color: rgba(0, 0, 0, 0.3); font-size: 15px; line-height: 20px; hyphens: auto; word-break: break-word; margin-bottom: 50px; } .__meta__ .nick_name { color: 576B95; } .__meta__ .copyright { color: rgba(0, 0, 0, 0.3); background-color: rgba(0, 0, 0, 0.05); padding: 0 4px; margin: 0 10px 10px 0; } blockquote.source { padding: 10px; margin: 30px 0; border-left: 5px solid ccc; color: #333; font-style: italic; word-wrap: break-word; } blockquote.source a { cursor: pointer; text-decoration: underline; } .item_show_type_0 > section { margin-top: 0; margin-bottom: 24px; } a { color: 576B95; text-decoration: none; cursor: default; } .text_content { margin-bottom: 50px; user-select: text; font-size: 17px; white-space: pre-wrap; word-wrap: break-word; line-height: 28px; hyphens: auto; } .picture_content .picture_item { margin-bottom: 30px; } .picture_content .picture_item .picture_item_label { text-align: center; } img { max-width: 100%; } .pay_subscribe_notice { margin: 30px 0; padding: 20px; background: fffbe6; border: 1px solid ffe58f; border-radius: 8px; } .pay_subscribe_badge { display: inline-block; padding: 4px 12px; background: faad14; color: fff; border-radius: 4px; font-size: 14px; font-weight: 500; margin-bottom: 12px; } .pay_subscribe_desc { font-size: 15px; line-height: 1.8; color: rgba(0, 0, 0, 0.7); margin-bottom: 12px; } .pay_subscribe_hint { font-size: 13px; color: rgba(0, 0, 0, 0.4); } .__bottom-bar__ { display: flex; justify-content: space-between; align-items: center; position: fixed; bottom: 0; left: 0; right: 0; height: 64px; padding: 8px 20px; background: white; box-sizing: border-box; border-top: 1px solid rgba(0, 0, 0, 0.2); } .__bottom-bar__ .left { display: flex; align-items: center; font-size: 15px; white-space: nowrap; } .__bottom-bar__ .right { display: flex; } .__bottom-bar__ .sns_opr_btn { display: flex; align-items: center; user-select: none; background: transparent; border: 0; color: rgba(0, 0, 0, 0.9); font-size: 14px; } .__bottom-bar__ .sns_opr_btn:not(:last-child) { margin-right: 16px; } .__bottom-bar__ .sns_opr_btn > img { margin-right: 4px; }

第一个同时为人类和Agent设计的AI视频产品,它叫,LibTV。

原创 数字生命卡兹克 数字生命卡兹克 2026-03-18 11:00 北京

原文地址: https://mp.weixin.qq.com/s/A8Unxhp-OU79VsTFa7mJPA

我昨天发了一篇文章,中间有一个观点。

就是AI时代,你的产品,可能得同时为了人类和Agent共同设计。

我前几天出去给人分享的时候,在PPT上也写过这个判断。

未来的很多产品,可能都会是两个入口并存。

一边是为人类而设计的UI界面,一边是纯粹为了Agent而设计的Skills。

而昨晚,Liblib发了一个他们的AI视频产品,我觉得非常有意思。

因为,他们的产品,应该是我第一个看到的。

为人和Agent共同而设计的AI视频产品。

而且,用一种很优雅的姿态,解决了一个在交互设计领域一直以来都很绝望的问题,就是怎么同时兼顾专业用户和普通用户。

这个东西,名叫LibTV。

网址在此:https://www.liblib.tv/

这个产品,让我一时间,不知道从哪下笔。

因为,这玩意真的就是面向人类和Agent双向出击。

给人类用的,就是极度全面、复杂、专业、需要连线和节点的无限画布。

给Agent用的,就是一个使用起来极度简单、无需理解、开箱即用的SKills。

先说这个给人类用的无限画布。

先给大家看一个工作界面,这是一个大佬叫毕加索隆,在上面做的片子《索拉里斯之船》,我非常喜欢这个片子和他的艺术风格。

而这,这是他的画布界面。

看的我脑壳疼。

就咋说呢…虽然节点式的画布看着复杂,对普通用户来说确实有点难上手。

但是我觉得只要是希望能创作最顶级AI短片AI广告的那些专业创作者,我相信他们绝对会喜欢这个产品,因为,真的太顶了,你能想象到的一切功能,LibTV都给你做了上去。。。

支持剧本、图片、视频、音频全链路。

你可以,一口气,直接在这里面,完成所有素材的制作。

比如,生成图片。

当然,你也可以自己传一张图片上去,进行处理。

而LibTV这个画布,对图片的处理,我感觉就是变态级的。

高清、扩图、重绘、擦除、抠图这些都正常做了,自不必说。

还有两个他们雕花雕的很有趣的。

一个是多角度,直接就预设好了一堆的视角,你一张图扔进去了,就非常非常便捷的,可以出任意视角的图,而且稳定性极高,左边的3D的预览做的也非常有意思。

一个是灯光。

真的,一键改成各种角度的光,极其稳定,轮廓光也能生成。效果非常好,我就随手改了一个右侧50%亮度带有轮廓光的打光,还有一个左侧的75%亮度的效果。

而当你想继续用这张图生成后续的内容的时候。

你就可以引用这张图,反推Prompt成文本,或者图生图,或者生视频,等等等等。

比如我们选择继续生图,你就能看到一个非常多功能的输入框。

有预设风格,有尺寸,有比例,还能选模型。

然后还有个非常离谱,雕花雕的贼细的摄像机控制。

我第一次见到真的有UI,把相机的实物和镜头的实物,还有各种光圈和焦距全扔进来的。。。

这真的是,正儿八经的摄像机控制了。。。

而且,还有更多的功能和预设,被藏在了/的命令里,你敲一下就能看到了。

我们可以直接来生成个,剧情推演的四宫格,看看后面的动态演变帧。

没一会,四宫格就生成好了。

然后,你还可以用工具栏的网格切分功能,把图片提取出来。

比如我们是四宫格,就可以选中四宫格切分,再选中右上和左下。

然后,这两张图就被提取出来了。

他们真的,我觉得已经把基于工程能力上的雕花雕到极致了。

而所有的图片的处理,其实最后,都是为了视频服务的。

你可以给最终的图片节点连线,调用现在几乎所有的视频模型来帮你生成。

为啥我说是几乎所有呢。。。

因为缺了现在最大的那个爹,Seedance 2.0。

不过也能理解,Seedance 2.0现在几乎没有对外开放,自己内部排队都排N个小时,就看Lib啥时候能钞能力发作,把Seedance 2.0给拿下来了,我是真的很想在这种画布上,来去创作视频的,太顺了。

生成完的视频,你也可以继续剪辑、超分,还有个有趣的东西,叫解析。

其实就是你可以对它,进行一个更细节的拉片。

而这个东西,也就是他们自己比较独有的,脚本节点。

你可以给一段剧本,来帮你生成对应的分镜脚本。

你也可以通过角色设定+一段话,来生成一段分镜脚本。

当然,也都可以合并在一起。

这套流程,其实对做AI短剧或者AI漫剧,就非常的有用了。

还有音频节点,音频驱动数字人。

或者生成音乐等等。。。

功能太多了,我就不列完了,我觉得,你是个AI创作者,你就可以上去试试看,这是一个我现在应该见到的,非常非常完整的AI视频创作工具。

并且,里面的积分和会员,是跟原来的liblib直接打通的,所以你原来的会员和积分,也可以没有任何成本的迁移到LibTV上来用。

面向人类的部分说完了。

接下来,说一下面向Agent的部分。

我觉得LibTV这次做了一个很好的示范,不过可能也是第一次尝试,所以在入口上,没有那么的激进。

点开你的头像,然后就能看到一个Access key的东西。

点它。

你就能看到一个弹窗了,这个弹窗里,有Skills的链接,还有你自己的key。

这个key的意思,就是你的Agent在用LibTV时候的一个凭证。

让你的Agent,包括Claude Code、Codex、OpenClaw等等安装这个LibTV skill也非常的简单。

直接一句话:

帮我安装https://github.com/libtv-labs/libtv-skills这个skill。

跑一会后,就OK了。

在弹出这么一段以后,因为里面没有自带的key,所以其实还用不了,就跟小龙虾里面NanoBanana之类的Skills一样,所以,记得把你的Key直接发给它。

然后就OK了。

因为LibTV自己能力的丰富性,所以,几乎你能想象到的一切,无论是写脚本、生图、改图、生视频、编辑视频、生成音乐等等。

你全都可以让LibTV来干,甚至有了它之后,你几乎就不需要那些各种各样的生图生视频的Skills了。

就这一个Skills,全部搞定,我感觉这玩意已经可以进入到我的必装Skills列表里面了。

而且我看了一下他们的Skills,其实用户侧暴露的东西还比较少,几乎最重要的功能,就是触发和通信。

所有的一些改分镜、模型调用、做漫剧等等偏向知识型的能力,应该都是他们后端部分的Skills去处理了。

所以,大概的交互流程其实就是,用户提出一个Prompt,比如说是要生图生视频或者改图改视频啥的,通过Skills的机制,触发了LibTV,LibTV将用户的内容原封不动的传到了LibTV的后端Agent上,然后后端Agent根据自己的内部Skills开始调用模型进行创作,最后再通过通信,给用户侧进行返回。

这个做法,其实我是比较认同,因为现在的很多Skills,大半都是直接开源出来给大家的,然后里面的一些核心经验和Know-how,其实都是裸奔的。

没有壁垒,就没有保护,没有保护,就很难有商业化的空间,没有商业化,那这个生态,就很难转起来。

所以,用户侧的Skills只负责触发和通信,真正的能力全部跑在他们自己的后端Agent上。

这也意味着,他们可以不断迭代自己后端的Prompt、模型调用策略、分镜生成逻辑,而这些东西,外面是看不到的。

这个思路我觉得对很多想做Skills的团队都很有参考价值,你对外发布的,完全可以是接口,不是大脑。

Agent生态需要开放,但开放不等于把自己的核心竞争力全部掏出来送给别人。

用起来也很简单,我用Claude Code举个例子。

比如说,我们可以先生图。

我把我想生的图,直接扔给了Agent:

帮我生成一下图片:黑白、模糊的歌剧芭蕾舞者,使用Canon K-35拍摄,风格为Jeanloup Sieff,16:9,2K,帮我生成4张。 

这时候,就会自动调用LibTV的Skills,来触发这个生图任务。

LibTV把这个Promtp传到了他们的后端Agent,然后自动开始跟后端进行轮询。

大概几十秒以后,图片生成成功,我们拿到了生图的结果链接,同时帮我们把这四张图片,自动下载了本地,还会返回给你一个他们的画布项目链接。

这个是我觉得非常屌的地方,可以直接跟画布打通,你的每一个任务,就会自动以一个真实的项目放在你的画布里,所有的节点也都是串好的。

所以你也可以,跟你真实项目联动上,这个觉得非常的好。

生成出来的图长这样,我自动拼了一下。

效果还是相当不错的,现在,我觉得第一张图很不错,我想让他驱动成一个10s的视频。

我就可以继续直接说。

这时候,Skill就会自动把你这张图,传到后端,来去帮你生成视频了。

大概自动轮询两分钟以后,这个视频就生成完了,自动放在了你的本地。

可以看看这个视频。

这只是一个非常简单的,没有跟其他的Skills去搭配的生图生视频的玩法。

你也可以,一句话,来帮你复刻一个爆款视频,然后生成一个TVC广告。

或者,一句话,给一首歌,配上MV。

这个case我觉得挺有意思的,来自Fine大佬。

Prompt也究极简单:根据坂本龙一《Rain》音乐,做一个MV视频。

虽然我觉得还有很多优化的空间,但是毕竟我们从来不指望,Agent能一次性给我们一百分的东西,能给出70分的东西,我们再手动优化成100分的内容,这个我觉得就是未来创作的核心。

毕竟,还有那个,整个为人类设计的无限画布嘛。

Agent出初稿,人类去无限画布上优化,这个就是我觉得,可能未来最普遍的创作方式了。

同时为人类和Agent设计,完美解决了专业用户和普通用户的使用问题。

专业用户,你就去用无限画布。节点连线、参数调整、模型选择、摄像机控制、光圈焦距等等等等,都是为了方便你最好的控制,你是专业创作者,那这些复杂度,就是你的武器。

而普通用户,你都不需要打开这个画布。你装一个Skills,跟Agent说一句,Agent就会调用LibTV的Skills,后端Agent自己去处理分镜、选模型、调参数、生成视频,你什么都不用懂,但最后的结果,就全部会直接给你,你完全可以感受到,言出法随的魅力。

同一个产品,同一套底层能力,但通过两个完全不同的入口,分别服务了两类完全不同的用户。

这就是我昨天说的那个判断的具体形态。

两个入口背后,其实都是底层功能的原子化能力的重组。

这个形态,我觉得可能才是Agent时代产品设计的真正答案。

就目前来说,绝对不是非此即彼,也不是UI死了Skills活了。

是两条路同时走,各自服务各自的用户,最终汇入同一个能力内核。

从此。

人类与Agent共生。

天下大同。

以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。

>/ 作者:卡兹克

>/ 投稿或爆料,请联系邮箱:wzglyay@virxact.com

数字生命卡兹克

![](data:image/svg+xml,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E%3C!— Icon from Lucide by Lucide Contributors - https://github.com/lucide-icons/lucide/blob/main/LICENSE —%3E%3Cg fill=‘none’ stroke=‘%23888888’ stroke-linecap=‘round’ stroke-linejoin=‘round’ stroke-width=‘2’%3E%3Cpath d=‘M2.062 12.348a1 1 0 0 1 0-.696a10.75 10.75 0 0 1 19.876 0a1 1 0 0 1 0 .696a10.75 10.75 0 0 1-19.876 0’/%3E%3Ccircle cx=‘12’ cy=‘12’ r=‘3’/%3E%3C/g%3E%3C/svg%3E) 阅读![](data:image/svg+xml,%3Csvg width=‘25’ height=‘24’ viewBox=‘0 0 25 24’ fill=‘none’ xmlns=‘http://www.w3.org/2000/svg’%3E%3Cpath fill-rule=‘evenodd’ clip-rule=‘evenodd’ d=‘M16.154 6.797l-.177 2.758h4.009c1.346 0 2.359 1.385 2.155 2.763l-.026.148-1.429 6.743c-.212.993-1.02 1.713-1.977 1.783l-.152.006-13.707-.006c-.553 0-1-.448-1-1v-8.58a1 1 0 0 1 1-1h2.44l1.263-.03.417-.018.168-.015.028-.005c1.355-.315 2.39-2.406 2.58-4.276l.01-.16.022-.572.022-.276c.074-.707.3-1.54 1.08-1.883 2.054-.9 3.387 1.835 3.274 3.62zm-2.791-2.52c-.16.07-.282.294-.345.713l-.022.167-.019.224-.023.604-.014.204c-.253 2.486-1.615 4.885-3.502 5.324l-.097.018-.204.023-.181.012-.256.01v8.218l9.813.004.11-.003c.381-.028.72-.304.855-.709l.034-.125 1.422-6.708.02-.11c.099-.668-.354-1.308-.87-1.381l-.098-.007h-5.289l.26-4.033c.09-1.449-.864-2.766-1.594-2.446zM7.5 11.606l-.21.005-2.241-.001v8.181l2.45.001v-8.186z’ fill=‘%23000’/%3E%3C/svg%3E) 赞 ![](data:image/svg+xml;charset=utf8,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E %3Cg fill=‘none’ fill-rule=‘evenodd’%3E %3Cpath d=‘M0 0h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M13.707 3.288l7.171 7.103a1 1 0 0 1 .09 1.32l-.09.1-7.17 7.104a1 1 0 0 1-1.705-.71v-3.283c-2.338.188-5.752 1.57-7.527 5.9-.295.72-1.02.713-1.177-.22-1.246-7.38 2.952-12.387 8.704-13.294v-3.31a1 1 0 0 1 1.704-.71zm-.504 5.046l-1.013.16c-4.825.76-7.976 4.52-7.907 9.759l.007.287c1.594-2.613 4.268-4.45 7.332-4.787l1.581-.132v4.103l6.688-6.623-6.688-6.623v3.856z’/%3E %3C/g%3E%3C/svg%3E) 分享 ![](data:image/svg+xml;charset=utf8,%3Csvg xmlns=‘http://www.w3.org/2000/svg’ xmlns:xlink=‘http://www.w3.org/1999/xlink’ width=‘24’ height=‘24’ viewBox=‘0 0 24 24’%3E %3Cdefs%3E %3Cpath id=‘a62bde5b-af55-42c8-87f2-e10e8a48baa0-a’ d=‘M0 0h24v24H0z’/%3E %3C/defs%3E %3Cg fill=‘none’ fill-rule=‘evenodd’%3E %3Cmask id=‘a62bde5b-af55-42c8-87f2-e10e8a48baa0-b’ fill=‘%23fff’%3E %3Cuse xlink:href=‘%23a62bde5b-af55-42c8-87f2-e10e8a48baa0-a’/%3E %3C/mask%3E %3Cg mask=‘url(%23a62bde5b-af55-42c8-87f2-e10e8a48baa0-b)‘%3E %3Cg transform=‘translate(0 -2.349)‘%3E %3Cpath d=‘M0 2.349h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M16.45 7.68c-.954 0-1.94.362-2.77 1.113l-1.676 1.676-1.853-1.838a3.787 3.787 0 0 0-2.63-.971 3.785 3.785 0 0 0-2.596 1.112 3.786 3.786 0 0 0-1.113 2.687c0 .97.368 1.938 1.105 2.679l7.082 6.527 7.226-6.678a3.787 3.787 0 0 0 .962-2.618 3.785 3.785 0 0 0-1.112-2.597A3.687 3.687 0 0 0 16.45 7.68zm3.473.243a4.985 4.985 0 0 1 1.464 3.418 4.98 4.98 0 0 1-1.29 3.47l-.017.02-7.47 6.903a.9.9 0 0 1-1.22 0l-7.305-6.73-.008-.01a4.986 4.986 0 0 1-1.465-3.535c0-1.279.488-2.56 1.465-3.536A4.985 4.985 0 0 1 7.494 6.46c1.24-.029 2.49.4 3.472 1.29l.01.01L12 8.774l.851-.85.01-.01c1.046-.951 2.322-1.434 3.59-1.434 1.273 0 2.52.49 3.472 1.442z’/%3E %3C/g%3E %3C/g%3E %3C/g%3E%3C/svg%3E) 推荐 ![](data:image/svg+xml,%3Csvg width=‘25’ height=‘24’ viewBox=‘0 0 25 24’ fill=‘none’ xmlns=‘http://www.w3.org/2000/svg’%3E%3Cpath d=‘M22.242 7a2.5 2.5 0 0 0-2.5-2.5h-14a2.5 2.5 0 0 0-2.5 2.5v8.5a2.5 2.5 0 0 0 2.5 2.5h2.5v1.59a1 1 0 0 0 1.707.7l1-1a.569.569 0 0 0 .034-.03l1.273-1.273a.6.6 0 0 0-.8-.892v-.006L9.441 19.1l.001-2.3h-3.7l-.133-.007A1.3 1.3 0 0 1 4.442 15.5V7l.007-.133A1.3 1.3 0 0 1 5.742 5.7h14l.133.007A1.3 1.3 0 0 1 21.042 7v4.887a.6.6 0 1 0 1.2 0V7z’ fill=‘%23000’ fill-opacity=’.9’/%3E%3Crect x=‘14.625’ y=‘16.686’ width=‘7’ height=‘1.2’ rx=’.6’ fill=‘%23000’ fill-opacity=’.9’/%3E%3Crect x=‘18.725’ y=‘13.786’ width=‘7’ height=‘1.2’ rx=’.6’ transform=‘rotate(90 18.725 13.786)’ fill=‘%23000’ fill-opacity=’.9’/%3E%3C/svg%3E) 留言