近日,一段拍摄于 100 年前的老北京城影像被央视转发,在微博上火了。据了解,该视频出自一位 B 站的 UP 主大谷的游戏创作小屋。作者大谷利用 AI 技术,把一段拍摄于 1920 年的北京城黑白视频,渲染成了高清流畅的彩色视频,配以颇具地方特色的 BGM,还原了百年前老北京城的民风民俗,颇有内味。 据大谷介绍,这部拍摄于百年前的黑白视频由于年代久远,视频画质有很多噪点,帧数、分辨率都很低。于是他使用了三款开源的 AI 工具来对视频进行处理,分别是:
下面就让我们来了解一下这三款视频修复常用的 AI 工具,感兴趣的朋友也可以学着用起来,自己处理老旧视频哦。 视频补帧工具 DAIN帧数 (FPS)对于一部视频的流畅度来说影响很大,在正常播放速度下,低于 30 FPS 的视频会让人觉得卡顿,高于 60 FPS 的话肉眼则分辨不出区别。帧数越高的视频带来的流畅度一定是更高的,尤其是在慢镜头下,差别尤为明显: 上图来自另一 AI 补帧工具 SUPER SLOMO 的示例,将原片 30 FPS 的汽车甩尾镜头放慢 8 倍后,实际 FPS 不足 4 FPS,肉眼可见的卡顿。而通过 AI 补帧技术,能够将慢放后的视频维持在 240 FPS,流畅程度可见一斑。 通常来说,补帧的核心述求是在两个连续帧之间插入中间帧,从而提高视频的 FPS,而补帧工具需要解决的问题就是如何通过 AI 算法自动生成中间帧。DAIN 全称 Depth-Aware Video Frame Interpolation,即基于深度感知的视频帧插值工具。DAIN 团队提出了深度感知帧内插模型,开发了一个深度感知流投影层来生成中间帧。 测试环境
安装使用 下载资料库: $ git clone https://github.com/baowenbo/DAIN.git 在构建Pytorch扩展之前,请确保您具有 $ python -c "import torch; print(torch.__version__)" 生成 PyTorch 扩展: $ cd DAIN $ cd my_package $ ./build.sh 生成 PWCNet 所需的 Correlation 包: $ cd ../PWCNet/correlation_package_pytorch1_0 $ ./build.sh 测试预训练模型: 制作模型权重目录和 Middlebury 数据集目录: $ cd DAIN $ mkdir model_weights $ mkdir MiddleBurySet 下载预训练的模型, $ cd model_weights $ wget http://vllab1.ucmerced.edu/~wenbobao/DAIN/best.pth 和 Middlebury 数据集: $ cd ../MiddleBurySet $ wget http://vision.middlebury.edu/flow/data/comp/zip/other-color-allframes.zip $ unzip other-color-allframes.zip $ wget http://vision.middlebury.edu/flow/data/comp/zip/other-gt-interp.zip $ unzip other-gt-interp.zip $ cd .. 预安装: $ cd PWCNet/correlation_package_pytorch1_0 $ sh build.sh $ cd ../my_package $ sh build.sh $ cd .. 下载结果 用以下方法下载插值结果: $ wget http://vllab1.ucmerced.edu/~wenbobao/DAIN/UCF101_DAIN.zip $ wget http://vllab1.ucmerced.edu/~wenbobao/DAIN/Vimeo90K_interp_DAIN.zip $ wget http://vllab1.ucmerced.edu/~wenbobao/DAIN/Middlebury_eval_DAIN.zip $ wget http://vllab1.ucmerced.edu/~wenbobao/DAIN/Middlebury_other_DAIN.zip 慢动作生成: 此模型完全有能力在对网络体系结构进行少量修改的情况下产生慢动作效果。通过指定 $ CUDA_VISIBLE_DEVICES=0 python demo_MiddleBury_slowmotion.py --netName DAIN_slowmotion --time_step 0.25 或设置 $ CUDA_VISIBLE_DEVICES=0 python demo_MiddleBury_slowmotion.py --netName DAIN_slowmotion --time_step 0.125 $ CUDA_VISIBLE_DEVICES=0 python demo_MiddleBury_slowmotion.py --netName DAIN_slowmotion --time_step 0.1 分别生成 x8 和 x10 慢动作。或者你想用 x100 慢动作拍些好玩的东西也没问题。 $ CUDA_VISIBLE_DEVICES=0 python demo_MiddleBury_slowmotion.py --netName DAIN_slowmotion --time_step 0.01 可通过以下方法创建gif动画: $ cd MiddleBurySet/other-result-author/[random number]/Beanbags $ convert -delay 1 *.png -loop 0 Beanbags.gif //1*10ms delay 祝玩得开心!
分辨率提升工具 ESRGAN我们知道,分辨率对于图像的清晰度将产生直接的影响。一张低分辨率的小图片,如果我们直接放大的话很多细节将变成“马赛克”,这点相信大家都很有经验。因此,直接采用普通的插值算法进行图片放大的话,图中物体的边缘就会变得模糊,而超分辨率算法就是为了解决这种问题。 ESRGAN 是一种增强型超分辨率生成对抗网络,能通过 AI 在图像超分辨率期间生成真实纹理,实现图像分辨率的提升,效果如下图所示: 测试环境
安装使用 1.克隆此 github 存储库。 git clone https://github.com/xinntao/ESRGAN cd ESRGAN 2.将低分辨率图像放置在 3.从 Google 云端硬盘或百度云端硬盘下载经过预训练的模型。将模型放在 4.作者提供了两种具有高感知质量和高 PSNR 性能的模型。运行测试:提供 ESRGAN模型和 RRDB_PSNR 模型,可以配置 python test.py 5.结果在
黑白图像着色工具 DeOldifyDeOldify 是用于着色和恢复旧图像及视频的深度学习项目。它采用了 NoGAN 这样一种新型的、高效的图像到图像的 GAN 训练方法,细节处理效果更好,渲染也更逼真:
NoGAN 是作者开发的一种新型 GAN 训练模型,用于解决之前 DeOldify 模型中的一些关键问题。NoGAN 训练结合了 GAN 训练的优点(好看的色彩),同时消除了令人讨厌的副作用(如视频中的闪烁物体)。视频由孤立的图像生成,而不添加任何时间建模。该过程执行 30-60 分钟 “NoGAN” 训练的 GAN 部分,每次使用 1% 至 3% 的图像网络(imagenet)数据。然后,与静止图像着色一样,在重建视频之前对各个帧进行“去旧化”(DeOldify),即使在移动场景中的渲染也非常一致: 目前,DeOldify 有三种型号可供选择,每一种都有关键优势和劣势,因此具有不同的用例。三种型号分别为:Artistic(艺术型)、Stable(稳定型)、Video(视频专用)。 测试环境
-c conda forge jupyterlab
prereqs:conda install-c anaconda tensorflow gpu pip install tensorboardX
安装使用 打开命令行并导航到要安装的根文件夹,输入以下命令: git clone https://github.com/jantic/DeOldify.git DeOldify cd DeOldify conda env create -f environment.yml 然后开始使用这些命令运行: source activate deoldify jupyter lab 通过控制台中提供的 URL 开始在 Jupyter Lab 中运行。
想要自己动手把黑白老视频变成彩色高清视频的朋友,现在就可以行动起来啦。 |