CodeFormer是由南洋理工大学和商汤科技联合研究中心S-Lab提出的一种新型人脸复原模型,该模型在NeurIPS 2022上发表。它基于VQGAN(Vector Quantized Generative Adversarial Network)和Transformer技术,通过预训练的VQGAN离散码本空间来改变复原任务的固有范式,将人脸复原任务转换为Code序列的预测任务。这种方法大幅度降低了复原任务映射的不确定性,并且VQGAN的码本先验为复原任务提供了丰富的人脸细节。通过Transformer全局建模,模型对严重退化的情况具有更强的鲁棒性,使得复原的人脸更加真实。
相关导航
暂无评论...