一键将老视频超清修复,Topaz出的这个新AI工具有点强。 * { margin: 0; padding: 0; outline: 0; } body { font-family: “PingFang SC”, system-ui, -apple-system, BlinkMacSystemFont, “Helvetica Neue”, “Hiragino Sans GB”, “Microsoft YaHei UI”, “Microsoft YaHei”, Arial, sans-serif; line-height: 1.6; } .__page_content__ { max-width: 667px; margin: 0 auto; padding: 20px; text-size-adjust: 100%; color: rgba(0, 0, 0, 0.9); padding-bottom: 64px; } .title { user-select: text; font-size: 22px; line-height: 1.4; margin-bottom: 14px; font-weight: 500; } .__meta__ { color: rgba(0, 0, 0, 0.3); font-size: 15px; line-height: 20px; hyphens: auto; word-break: break-word; margin-bottom: 50px; } .__meta__ .nick_name { color: 576B95; } .__meta__ .copyright { color: rgba(0, 0, 0, 0.3); background-color: rgba(0, 0, 0, 0.05); padding: 0 4px; margin: 0 10px 10px 0; } blockquote.source { padding: 10px; margin: 30px 0; border-left: 5px solid ccc; color: #333; font-style: italic; word-wrap: break-word; } blockquote.source a { cursor: pointer; text-decoration: underline; } .item_show_type_0 > section { margin-top: 0; margin-bottom: 24px; } a { color: 576B95; text-decoration: none; cursor: default; } .text_content { margin-bottom: 50px; user-select: text; font-size: 17px; white-space: pre-wrap; word-wrap: break-word; line-height: 28px; hyphens: auto; } .picture_content .picture_item { margin-bottom: 30px; } .picture_content .picture_item .picture_item_label { text-align: center; } img { max-width: 100%; } .pay_subscribe_notice { margin: 30px 0; padding: 20px; background: fffbe6; border: 1px solid ffe58f; border-radius: 8px; } .pay_subscribe_badge { display: inline-block; padding: 4px 12px; background: faad14; color: fff; border-radius: 4px; font-size: 14px; font-weight: 500; margin-bottom: 12px; } .pay_subscribe_desc { font-size: 15px; line-height: 1.8; color: rgba(0, 0, 0, 0.7); margin-bottom: 12px; } .pay_subscribe_hint { font-size: 13px; color: rgba(0, 0, 0, 0.4); } .__bottom-bar__ { display: flex; justify-content: space-between; align-items: center; position: fixed; bottom: 0; left: 0; right: 0; height: 64px; padding: 8px 20px; background: white; box-sizing: border-box; border-top: 1px solid rgba(0, 0, 0, 0.2); } .__bottom-bar__ .left { display: flex; align-items: center; font-size: 15px; white-space: nowrap; } .__bottom-bar__ .right { display: flex; } .__bottom-bar__ .sns_opr_btn { display: flex; align-items: center; user-select: none; background: transparent; border: 0; color: rgba(0, 0, 0, 0.9); font-size: 14px; } .__bottom-bar__ .sns_opr_btn:not(:last-child) { margin-right: 16px; } .__bottom-bar__ .sns_opr_btn > img { margin-right: 4px; }
一键将老视频超清修复,Topaz出的这个新AI工具有点强。
原创 数字生命卡兹克 数字生命卡兹克 2025-02-21 09:01 北京
经常有群友问我有没有什么把视频修复的工具。
而我过去最推荐的,也是我心中目前最牛逼的视频修复工具,自然就是TopazVideoAI了。
这玩意儿我2023年就写过教程,传送门在此:视频一键无损超清放大 - 最强AI视频修复工具TopazVideoAI
但,斗转星移,日月如梭,现在已经2025年了。
我们在进化,而Topaz他们家,自然也再进化,前两天他们家又整了个新活,搞了个叫Starlight的新东西。
号称能修复“不可能”的视频,直接把视频修复这事,又推上了一层台阶。
2月6号的时候,Starlight测试链接都没影呢,他们就光靠一个NASA火箭发射的老视频修复预告,就在X上怒刷80多万播放。
给大家看一下这个修复的效果。
老录像里的纹理、边缘、光影全给你救活了,连最怕的人脸变形都没翻车,稳得一批!
从Topaz在社交媒体和外网的评价也看得出来,他们对自己的新产品效果很满意。
蹦蹦跳跳地在youtube和X上发了一大堆修复视频,他们在官网更是特意强调:“有史以来第一个用Diffusion model做视频修复”。
没错,就是你现在脑子里可能闪过的Stable Diffusion和Sora用的那个Diffusion技术。
之前基本上视频超分和修复的天就是TopazVideo了,而他们用的还是深度学习那一套,在视频修复上,需要你去选很多模型和很多参数,极其麻烦。
而且你就算把模型和参数都调好了,TopazVideoAI可以开始逐帧修复了,但帧与帧之间的关联依赖算法拼接,容易导致动态画面特别是一些大幅度的人物动作时出现不连贯,还是需要我们一点一点手动调整参数优化。
要不然基本上都会出现抖动、闪烁或细节不一致的问题,超级烦。
但是Diffusion mode就牛逼了,以通过类似人类大脑补全缺失信息的能力,去想象合理的画面内容,把视频里面模糊的地方重建成更真实的细节。
其实就跟之前AI绘图的重绘增强magnific.ai几乎一样,只不过一个是图的,一个是视频的。
最关键的是,现在也更自动化,不需要再手动改参数了,上传原视频就一键给你修复,爽歪歪好吧。
而且,这个修复神器现在是内测版(正式版没说啥时候上),可以免费白嫖。
也不需要排队,登录即用,使用方法也贼简单:
登陆注册 - 上传要修复的视频 - 点修复 - 等20分钟 - 修复成功。
你需要做的,只是点两下鼠标而已。
Starlight的测试网址在此(记得开魔法):https://app.topazlabs.com/starlight
可以用邮箱或者apple账号、谷歌账号注册,登陆成功后Starlight测试版界面长这样。
测试版目前的使用额度是每周可以修复3条视频,单条视频最长不超过10秒,如果你上传超过10秒的素材它会让你裁剪。
第一步,你直接拖拽原始视频文件或者浏览文件夹上传。
当视频上传成功以后,点击页面左边蓝色的【Render】按钮。
我上传的是15秒的视频,所以进度条会出现这个蓝色的框,狂炫的范围就是最后修复的部分了。
Render按钮上面出现这个修复进度条,Status显示的是“processing”就是上传成功了。
他们后台应该是有点算力爆炸的,一条视频我测的时候大概是等二十到三十分钟左右修复好。
如果等了很久还是没反馈修复好的结果,或者状态提示“failed”,很大可能是网络问题。不用慌,刷新一下网页试试。等他重新加载一小会,滚动一下左半边的界面能看到“Render history”,就能找到之前进行中的修复任务了。
修复完成的界面是这个样子,修复前后的视频拼一块,看得很直观的。
我相信你也直观的看到了,修复的效果了。
除了要等的时间久点,其他步骤都很丝滑,一味地点鼠标就行了,本懒人的福音。
最后,视频修复成功,对比一下修复前后。
这画质,这清晰度。1955年的老视频,修复完直接穿越2025。
再贴几个我跑的case。
比如已经赛博包浆的1995年街头采访的修复效果。
还有86版西游记。
真的,老素材有救了,特别是家里小时候,那些存的非常珍贵的影片。
不过不知道是不是放出来的测试版还不是最好的模型,或者也是扩散模型的通病,我跑了十几条case,多少还是发现了一些槽点。
比如黑白视频的修复效果相对彩色会差一点。尤其是黑白+原始视频太模糊的双重debuff,圆筒火箭变扁铁,背景的铁架更是碎成渣。
虽然比之前的模型修复效果好,但动作幅度太猛还是会崩那么几帧。
还有一些太模糊的文字细节和混乱的背景,还是不好修复。
必过说实话这玩意他要是都能补齐,那我真的也愿意给它磕一个,人都看不清那是啥字,别说AI了。
边缘处的人脸,有的时候也有点效果不太好,logo也是。
不过原视频基础就这样,本身这些细节也糊成马赛克了,没必要难为AI。
整体来说,瑕不掩瑜。这个修复效果已经很不错了。
没拍好的新素材、模糊的老视频等等等等……全都有救了。
我们每个人的手机里、电脑里,多少都躺着一些珍贵但画质不太好的视频。
可能是小时候爸妈用老相机录下的生日,可能是毕业时和同学们胡闹的傻乎乎的短片,又或者是第一次自己出去旅行时录下的风景。
也许不清晰、不完美,但它们都记录着再也回不去的时刻。
但现在,有机会,用最新的AI工具,让他们重生。
人类一直在努力对抗时间。我们造相机,拍视频,就是想把流动的时光凝固,让我们从时间的尽头,回头看那段冲向自己的人生。
所以,也别让你的回忆在硬盘里继续积灰了。
生活总是匆匆向前,让过去的画面清晰一点。
未尝不是对回忆最好的温柔。
以上,既然看到这里了,如果觉得不错,随手点个赞、在看、转发三连吧,如果想第一时间收到推送,也可以给我个星标⭐~谢谢你看我的文章,我们,下次再见。
>/ 作者:卡兹克、稳稳
>/ 投稿或爆料,请联系邮箱:wzglyay@gmail.com
数字生命卡兹克
 阅读 赞  分享 ‘%3E %3Cg transform=‘translate(0 -2.349)‘%3E %3Cpath d=‘M0 2.349h24v24H0z’/%3E %3Cpath fill=‘%23576B95’ d=‘M16.45 7.68c-.954 0-1.94.362-2.77 1.113l-1.676 1.676-1.853-1.838a3.787 3.787 0 0 0-2.63-.971 3.785 3.785 0 0 0-2.596 1.112 3.786 3.786 0 0 0-1.113 2.687c0 .97.368 1.938 1.105 2.679l7.082 6.527 7.226-6.678a3.787 3.787 0 0 0 .962-2.618 3.785 3.785 0 0 0-1.112-2.597A3.687 3.687 0 0 0 16.45 7.68zm3.473.243a4.985 4.985 0 0 1 1.464 3.418 4.98 4.98 0 0 1-1.29 3.47l-.017.02-7.47 6.903a.9.9 0 0 1-1.22 0l-7.305-6.73-.008-.01a4.986 4.986 0 0 1-1.465-3.535c0-1.279.488-2.56 1.465-3.536A4.985 4.985 0 0 1 7.494 6.46c1.24-.029 2.49.4 3.472 1.29l.01.01L12 8.774l.851-.85.01-.01c1.046-.951 2.322-1.434 3.59-1.434 1.273 0 2.52.49 3.472 1.442z’/%3E %3C/g%3E %3C/g%3E %3C/g%3E%3C/svg%3E) 推荐 ’ fill=‘%23000’ fill-opacity=’.9’/%3E%3C/svg%3E) 留言