[論文メモ] Efficient Training of Visual Transformers with Small Datasets
少量データでVision Transformer(ViT)を学習するときにサブタスクとしてパッチ間の距離を学習することで精度を向上させる。
ViTは大量のデータセットで学習することで高いパフォーマンスを発揮するが、逆にデータセットが小さいと精度が出にくい。
最近のViT(第二世代)はそれを克服するためconvolutionなどを利用し、データがそこまで大きくなくても(言うてImageNet1Kクラス)ResNet等を凌ぐ精度を出している。
しかし、寄り小さいデータセットのときにどうなのかについては明らかではない。その辺りに焦点を当てた論文。
実際、小さいデータセットだと精度がいまいち。
そこでパッチ間の距離を予測する自己教師ありのサブタスクを導入することでブーストさせる。
手法
一般的にViTは入力をのパッチにして扱う。一部のViTではconvolutionやpoolingを導入してパッチのマージを行い出力のパッチ数が入力と異なることがある。そこで出力は、ただし基本とする。
入力画像をとして、その最終的な埋め込みを、とする(は埋め込みの次元サイズ)。このからランダムに2つの埋め込み()を選択し距離を計算する。
次にとをMLP()に通して距離を予測させる()。
この予測した距離が先程の距離と等しくなるようにL1 lossで学習をする。
はミニバッチ。
最終的なlossは元のクラス分類のlossと合わせて。
なお、元のアーキテクチャと比較のため基本的に対象のViTのアーキテクチャは変えず、追加のMLPをくっつけるだけにする。
Swin Transformerは出力がだが、T2TとCvTは[14 \times 14]なのでのAvgPoolをして出力を揃える。これはあくまで距離予測タスクにのみ使用し、クラス分類に影響はしない。
実験結果
データセットのサイズ等は表1を参照。
距離学習に使うパッチペアのサンプル数をとして比較した結果が表2。距離学習は有効そう。
スクラッチからの学習でepoch数による比較結果が表3,4。小さいデータセットのときはそこそこ効果が高そう。
またSwin-Tに関して、Swin-Tにはrelative positional embeddingが入っていて距離学習は必要ないのではないかと思うが距離学習を行うことで精度が向上している。
fine-tuningでも効果あり(表5)
所感
パッチ間の距離を追加で予測するだけで精度が向上するとのこと。
positional encodingを使っていてもブーストされるのは少し意外(まあ最終的な埋め込みまで位置情報が残っているとは思わないが)。
IN-100は試行回数が5回なのでそこそこ信用できそう。
他は書いていないということは試行回数が1回とかかもしれないが、それでもSwin-Tの精度向上を見ると効果はありそう。
ただなんでそんなに効果があるのか少々不思議。距離を予測するにはセマンティックな情報を扱う必要があり、より良い情報が埋め込まれるから?ほんとに?