
Details
Preliminaries
- Continual Learning https://engineering-ladder.tistory.com/94
- Taxonomy of Continual Learning

Replay methods ์๋ ๋ฐ์ดํฐ๋ค์ 1% ์ ๋ , external memory๋ก ์ ์ฅํด์ Pseudo Rehearsal : ๊ณผ๊ฑฐ ์ํ๋ค์ generate https://ffighting.tistory.com/entry/iCaRL-%ED%95%B5%EC%8B%AC-%EB%A6%AC%EB%B7%B0
Regularization-based methods ํ๋ผ๋ฏธํฐ๊ฐ ๋๋ฌด ๋ฐ๋์ง ์๋๋ก ์ ์ฝ์ ์ค
Parameter isolation ๊ฐ class seg ๋ณ๋ก ๋ชจ๋ธ์ ํ์ตํ๊ณ ๊ทธ ํ๋ผ๋ฏธํฐ๋ค์ ์ด๋ป๊ฒ ํฉ์น ์ง ๋์ค์ ๊ณ ๋ฏผ
TL;DR
- task : class incremental learning / domain incremental learning / task-agnostic learning
- problem : catastrophic forgetting.
- idea : prompt learning ! ์ด๋ฏธ์ง๊ฐ ์ฃผ์ด์ก์ ๋ ์ ์ฒด M๊ฐ์ prompt pool ์ค์ N๊ฐ์ ๊ฐ๊น์ด prompt๋ฅผ ๋ฝ๊ณ (Learning to Prompt, L2P), ViT ๋น์ ํ ํฐ ์์ prependํด์ ์ด๋ฏธ์ง ๋ถ๋ฅ.
- architecture : ViT-B/16
- objective : CrossEntropyLoss + diversifying prompt-selection.
- baseline : CIL variants(finetuning sequentially, BiC, EWC, DER++..)
- data : split CIFAR100, 5-datasets
- result : SOTA. ๊ทธ๋ฅ iid finetuning๋ณด๋จ ๋ฎ์.
- contribution : ๊ฐ๋จํ ์์ด๋์ด/์ํคํ ์ณ๋ก SOTA.