地址:安平
电话:0793-986625
传真:0781-986290
邮箱:guigang1760@163.com
机器之心专栏
微软亚洲研究院
本文提出了 TinyMIM,微软它是亚研M用第一个成功地使小模型受益于 MIM 预训练的模型。
一 、提出研究动机
掩码建模(MIM,知识蒸馏 MAE)被证明是非常有效的自监督训练方法。然而 ,改进如图 1 所示 ,小型MIM 对于更大的微软模型效果相对更好 。当模型很小的亚研M用时候(例如 ViT-T 5M 参数,这样的提出模型对于现实世界非常重要),MIM 甚至可能必定程度上降低模型的知识蒸馏效果。例如用 MAE 训练的改进 ViT-L 比普通监督训练的模型在 ImageNet 上的分类效果提升 3.3% ,但是小型用 MAE 训练的 ViT-T 比普通监督训练的模型在 ImageNet 上的分类效果降低了 0.6% 。
在这篇工作中我们提出了 TinyMIM ,微软其在保持 ViT 结构不变并且不修改结构引入其他归纳偏置(inductive bias)的亚研M用基础上