网问答>>[alphaXiv速递] Kaiming新作,高度压缩的Tokenizer可直接用于图像生成
问题
已解决

[alphaXiv速递] Kaiming新作,高度压缩的Tokenizer可直接用于图像生成

时间:2026-01-21 15:12:51
[alphaXiv速递] Kaiming新作,高度压缩的Tokenizer可直接用于图像生成
最佳回答
Kaiming新作提出了一种高度压缩的1D Tokenizer(TiTok),无需训练独立的生成模型,仅通过测试时优化即可直接用于图像生成任务。 该研究挑战了传统图像生成中“压缩标记器+生成模型”的范式,证明极致压缩的标记器(如仅32个离散标记)可通过解码器内在的生成能力完成多样化任务。以下是关键内容梳理:一、核心方法:1D标记器与测试时优化TiTok架构极致压缩:使用Vision Transformer (ViT)编码器将图像压缩为32个离散标记(传统二维标记器通常生成数百至数千个空间排列的标记),并通过向量量化(VQ)生成离散潜在空间。全局信息编码:1D标记器放弃空间排列,每个标记捕获更多全局语义(如场景光照、主体类型),解码器需从最少信息中重建复杂内容,从而发展出强大表示能力。图:TiTok将图像压缩为32个离散标记,解码器从中重建完整图像基于梯度的测试时优化优化流程:初始化标记(可来自种子图像或随机);计算目标函数(如CLIP文本相似度、重建损失)相对于标记特征的梯度;使用Adam优化器更新标记,结合正则化技术(噪声注入、L2正则化)防止过拟合。关键机制:通过直通估计器(straight-through estimator)将梯度反向传播通过离散标记,实现端到端优化。二、主要发现:压缩与生成质量的反直觉关系压缩提升生成质量TiTok-LL-32模型(32个标记,码本大小4096)在生成质量上显著优于更多标记或更大码本的变体。极致压缩迫使标记器学习更泛化的表示,解码器需更复杂以重建图像,反而提升了生成效果。图:更高压缩(更少标记、更小码本)导致更好生成质量离散潜在空间至关重要向量量化(VQ)提供的离散瓶颈对生成性能起关键正则化作用,连续VAE变体表现明显更差。1D标记器的独特性传统2D标记器(如VQGAN)在该方法中失效,表明高度压缩的全局信息编码是1D标记器成功的核心。三、应用场景:灵活的图像生成与编辑文本引导图像编辑优化标记以最大化CLIP与文本提示的相似性,实现主体转换(如蓝鸦背景替换)同时保留姿势和结构。图:蓝鸦在不同背景下的转换,保留原始姿势复制粘贴编辑直接复制参考图像的标记到目标图像,转移照明或图像质量等属性(如将高质量图像的标记粘贴到低质量图像上)。图:跨图像转移照明和质量属性图像修复与无条件生成修复:优化标记以最小化未遮蔽区域的重建损失,结合周期性“标记重置”保持连贯性。无条件生成:从随机标记初始化,针对文本提示或其他目标优化,生成多样化图像。图:成功修复遮蔽区域并保持视觉连贯性四、局限性与未来方向当前局限极致压缩可能限制细粒度细节控制;需仔细调整优化超参数;绝对生成质量未超越专用生成模型(如Stable Diffusion)。未来工作探索更高压缩比(如更少标记);研究替代优化策略(如扩散模型结合);扩展至自然图像以外的领域(如医学影像、3D数据)。五、意义:范式转变与高效生成系统理论贡献:挑战“表示学习与生成分离”的传统观念,证明极致压缩的标记器可兼具表示与生成能力。实际价值:降低计算部署成本,通过语义解耦提高可解释性,支持即插即用的目标函数(如灵活切换文本引导或属性编辑)。研究启示:强制模型学习最大程度压缩的表示,可能是开发更强大视觉AI系统的关键。参考文献核心论文:Yu, Q., et al. (2024). An image is worth 32 tokens for reconstruction and generation. NeurIPS.关键技术基础:CLIP(Radford et al., 2021)、VQ-VAE(van den Oord et al., 2017)、VQGAN-CLIP(Crowson et al., 2022)。
时间:2026-01-21 15:12:58
本类最有帮助
Copyright © 2008-2013 www.wangwenda.com All rights reserved.冀ICP备12000710号-1
投诉邮箱: