We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
非常感谢您分享您的代码,我现在有一些疑问希望请教一下。
The text was updated successfully, but these errors were encountered:
您好~ 很抱歉由于之前春节期间没有check这边的issue,回复的比较慢。 关于您提出的几点问题: 1)请参考论文中Method部分的最后一个section。简单来说,由于3D生成模型的inversion难度更大,因此需要对latent code进行finetune。注:此次训练的不是用于face swapping的模块 2)如果一段视频中换脸与被换脸的人保持一致,可以尝试根据其中某几帧来finetune对应的latent code,可以较大程度上降低所需时间 3)主要因为我们训练时未对对于部分做过于细致的约束,因此会导致生成时有一定偏差 4)可以在训练代码损失函数处加上对于约束 5)可以尝试用多视角的图片进行finetune latent code
Sorry, something went wrong.
非常感谢您分享您的代码,我现在有一些疑问希望请教一下。 看到您的代码,想问下推理的时候执行run_3dSwap.py的时候,为什么不能直接预测呢,而是要先给定src 图片跟dst图片,然后训练一下才能预测呢?我之前看deepfacelab的代码,推理或者合成的时候,只需要给出dst的视频帧序列或者图片序列,就可以根据模型合成换脸视频。请问您的代码可以只给定dst的视频帧图片,就可以合成换脸的视频吗? 因为run_3dSwap.py换一张图片就需要几分钟的时间,那针对需要大量换脸的比较长的视频中的图片,有没有比较好的方法可以缩短合成时间呢? 我用您github上分享的预训练模型用 CelebA-HD 数据集中的两张照片进行合成,默认使用您给定的参数,发现合成的时候下牙跟舌头合成的不清晰,脸的两侧微笑那里也比较假,dst是不露齿的,但是合成的图片是露齿的,而且眼睛的颜色是dst图片的颜色,请问这是什么原因呢?(合成效果图如下) 您的代码中可以加一些专门针对眼睛,嘴或者眉毛的优化方法吗?请问在哪里修改代码比较好呢? 我现在有自己的数据集,src数据集表情,角度比较丰富,dst数据集也是一个视频切的图片。请问用这个数据集训练的话,是不是比CelebA-HD或者ffhq数据集更好的构建某个人的三维模型呢,那我用自己的数据集训练的话,run_3dSwap.py那里out_name是dst中的一张照片,那in_name怎么写呢,是随便选src中的一张照片就可以吗? 谢谢!
您好,我在run_3dSwap.py的时候缺少数据,No such file or directory: ‘/new/3dSwap/datasets/CelebA-HD/final_crops/gsy_src_2.jpg’,请问是因为您提到的第一点问题吗,请问是我加一张数据来解决这个问题吗
No branches or pull requests
非常感谢您分享您的代码,我现在有一些疑问希望请教一下。
The text was updated successfully, but these errors were encountered: