CogView是一个用于通用领域文本到图像生成的预训练Transformer模型。该模型包含410亿参数,能够生成高质量、多样化的图像。模型的训练思路采用抽象到具体的方式,先 pretrain 获得通用知识,然后 finetune 在特定域生成图像,能显著提升生成质量。值得一提的是,论文还提出了两种帮助大模型稳定训练的技巧:PB-relax 和 Sandwich-LN。
数据统计
相关导航
PALP
内容创作者经常希望使用个人主题创建个性化图片,超越传统的文本到图像模型的能力。此外,他们可能希望生成的图片包含特定的位置、风格、氛围等。现有的个性化方法可能会在个性化能力和与复杂文本提示的对齐之间做出妥协。这种权衡可能会阻碍用户提示和主题的忠实性。我们提出了一种新的方法,专注于单个提示的个性化方法,以解决这个问题。我们将这种方法称为提示对齐个性化。尽管这种方法可能看起来有限,但我们的方法在改进文本对齐方面表现出色,可以创建具有复杂和复杂提示的图像,这对于当前技术来说可能是一个挑战。具体而言,我们的方法使用额外的得分蒸馏采样项,使个性化模型与目标提示保持对齐。我们在多次拍摄和单次拍摄设置中展示了我们方法的多功能性,并进一步展示了它可以组合多个主题或从艺术作品等参考图像中获取灵感。我们定量和定性地与现有基线和最先进的技术进行比较。
暂无评论...