今天给宝子们的分享的是一种全新的理念来控制GAN生成的图像,与现有方法不同,这种新方法是通过直接在图像上拖拽任意点来完成操作和变形的。这种拖拽操作方式可以让我们很灵活和精确地操控图像中的对象,包括它们的姿势、形状、表情以及在图像中的布局等等。
这篇论文研究了一种新的控制GAN的方法,老六把相关资料已经打包整理好放到文末了,有兴趣学习研究可以自取。
Drag Your GAN介绍
看到这个视频你有没有被震撼到?再给宝子说下好消息,作者公开授权可商用!大家放心玩,哈哈!
为了实现这种拖拽操作,论文作者提出了他们的方法DragGAN。DragGAN主要由两部分组成:
第一,一个特征监督机制,可以跟踪拖拽的点,并引导它移动到目标位置;
第二,一个点跟踪方法,可以持续地定位被拖拽的点。
论文中做了许多实验来测试DragGAN,结果表明它在图像操作和点跟踪方面都优于现有方法。DragGAN可以操控很多种类的对象,像动物、车辆、人物、场景等等。论文最后也展示了一些通过GAN反转操作真实图片的例子。
小白游戏网想说,这篇论文提出了一种全新的基于拖拽交互的方法来灵活控制和编辑GAN生成的图像,这种方法更加强大通用,可以得到更加逼真自然的变形效果。我觉得这是一个非常创新且有趣的工作。