讲者介绍
古纾旸:17级中国科学技术大学和微软亚洲研究院(MSRA)联合培养博士生,目前在MSRA视觉计算组实习,导师为郭百宁博士和陈栋博士。主要研究领域为计算机视觉中的生成模型,具体研究方向有图像风格迁移,生成对抗网络,人脸图像编辑等。目前已多次在CVPR等会议上发表过学术论文。
报告题目:Generative model is more than just GANs
报告摘要:近些年来,随着深度学习和对抗生成网络的兴起,图像生成领域取得了巨大的进步。然而,对于计算机视觉领域的生成问题,并非只有生成对抗网络这样唯一的解决途径。在本次演讲中,我们将以两篇工作为例,介绍常见的生成模型,以及对于生成模型中的不同问题我们的解决方案:
- With GAN: 在肖像编辑的问题中,我们怎么利用GAN同时解决多样性,高质量和可控性的问题。
- Without GAN: 在图像风格迁移的任务中,我们怎么解决局部信息和全局信息难以同时保留的问题。
Spotlight:
- 深度学习时代生成模型概述;
- 基于条件对抗生成网络的肖像编辑;
- 基于深层特征重排列的图像风格迁移。
论文推荐
近年来,深度学习和对抗生成网络的兴起使得图像生成领域取得了一系列的突破。SFFAI22分享嘉宾古纾旸同学为大家精选了两篇肖像编辑和风格迁移方面的文章,帮你更好的去理解和感受深度学习和对抗生成网络在图像生成方面的应用。
Mask-Guided Portrait Editing with Conditional GANs
推荐理由:本文通过结合图像分割的信息,利用条件对抗生成网络,提出一种新颖的方式来进行多样性,高质量,可控的肖像编辑。
Arbitrary Style Transfer with Deep Feature Reshuffle
推荐理由:本文提出了一种基于深层特征重排列的方法来进行任意图像风格迁移的任务。在理论和实验上都证明了我们的方法可以同时满足整体特征迁移和局部风格迁移的约束。
参考资料
https://www.bilibili.com/video/BV1Xb411V7a5/
https://bbs.sffai.com/d/58-generative-model-is-more-than-just-gans