服务器都被挤爆,效果爆炸的开源漫画变身 AI!

Դ未知

ߣ老铁外链

14

2021-11-21 14:46:11

这届网友为了看一眼自己在动漫里的样子,可真是拼了。

“始作俑者”是一款可以把人像变动漫的生成器。

只需一张图片或一段视频,无论男女老少、明星素人都可以一睹自己的“动漫风采”~

什么“国民老婆”王冰冰:

什么“国民妹妹”IU:

什么科技圈大佬、EDG 成员、金发美女、容嬷嬷……

发丝、眉宇,甚至眼神里流露出来的情绪,都给你“描绘”得淋漓尽致……

▲ 视频效果

这也难怪网友把服务器都给挤爆了。

随便翻翻大家的作品,简直是深不见底。

再看看 GitHub 上的相关项目,果然也冲上了趋势榜第一名。

这个 AnimeGAN,真是厉害了!

如何给自己捏一个动漫脸?

看完展示的效果,你是不是也想打造一个自己专属的漫画脸了呢?

这个可以有,现在就手把手教你。

第一种方法就 very very 简单了,只需要上传一张照片就可以。

提供在线玩法的网站(链接见文末),就是那个著名的抱抱脸 (Hugging Face)。

它专门开设了一个在线 AnimeGANv2 的 App,直接把图片“丢”进去就好。

BUT!!!

也正如刚才提到的,现在这个 AI 着实有点太火了,简单的在线方法,就等同于排大队。

这不,等了 5259 秒之后,前面还有 15 人……

如果不想排队怎么办?

接下来,就是第二种方法了 —— 上代码!

热心网友在苦等了 3 小时之后,终于还是忍不住了,强烈安利 Colab 版本(链接见文末):

先运行一下文档里的前两段代码,然后只需要简单修改照片路径即可。

当然,如果想加大难度挑战一下,AnimeGANv2 的 GitHub 项目也是有的哈:

以上介绍的方法都是用图片转换,如果你想用视频的话,在 AnimeGANv2 项目中执行下面这两条命令就 OK:

当然,该项目的 Pytorch 实现也有,不过 Pytorch 版本目前只支持图片转换;如果想转视频,暂时就需要你自己写个脚本了~

风格迁移 + GAN

那么,如此效果的背后,到底是用了什么原理呢?

AnimeGAN 是来自武汉大学和湖北工业大学的一项研究,采用的是神经风格迁移 + 生成对抗网络(GAN)的组合。

它其实是基于 CartoonGAN 的改进,并提出了一个更加轻量级的生成器架构。

AnimeGAN 的生成器可以视作一个对称的编码器-解码器网络,由标准卷积、深度可分离卷积、反向残差块、上采样和下采样模块组成。

为了有效减少生成器的参数数量,AnimeGAN 的网络中使用了 8 个连续且相同的 IRB(inverted residual blocks)。

在生成器中,具有 1×1 卷积核的最后一个卷积层不使用归一化层,跟随其后的是 tanh 非线性激活函数。

上图中,K 为内核大小,C 为特征图数量,S 为每个卷积层的跨度,H 是特征图的高度,W 是特征图的宽度,Resize 值用于设置特征图大小的插值方法,⊕表示逐元素加法。

而此次的 V2 版本,是基于第一代 AnimeGAN 的升级,主要解决了模型生成的图像中存在高频伪影的问题。

具体而言,所采取的措施是使用特征的层归一化(layer normalization),来防止网络在生成的图像中产生高频伪影。

作者认为,层归一化可以使 feature map 中的不同通道,具有相同的特征属性分布,可以有效地防止局部噪声的产生。

AnimeGANv2 的生成器参数大小为 8.6MB,而 AnimeGAN 的生成器参数大小为 15.8MB。

它俩使用的鉴别器大致相同,区别在于 AnimeGANv2 使用的是层归一化,而不是实例归一化(instance normalization)。

网友:我变漂亮了

这个 AI 可算是圈了一众粉丝。

有些网友“冲进二次元”之后,发现了自己惊人的美貌:

它把我变漂亮了!

而且非常骄傲的晒出了自己的漫画脸。

还有网友看完比尔盖茨的效果之后,直呼:

天!盖茨看起来聪明又性感。

就连新海诚导演都曾转发过 AnimeGAN 的作品呢。

One More Thing

最后,大家上手之前一定要注意,虽然 AnimeGAN 展示的效果都是比较好的,但这有一个大前提:

照片一定要高清、五官尽量要清晰!

不然画风可能就会变得诡异(作者亲测,欲哭无泪)……

那么,你在漫画里是什么样子?

佭ϴý Ѷ Media8ý

在线客服

外链咨询

扫码加我微信

微信:juxia_com

返回顶部