
TL;DR
- I read this because.. : multi-task learning with uncertainty!
- task : semantic segmentation, instance segmentation, pixel-wise metric depth
- problem : ์ด์ ์ ๋ฉํฐํ์คํฌ ์ ๊ทผ๋ฒ์ loss๋ค์ ๊ฐ์คํฉ์ธ๋ฐ ์ด ๊ฐ์ค์ ๋ฐ๋ผ ์ฑ๋ฅ์ด ๋งค์ฐ ์๋ฏผํ๊ฒ ์์ง์ธ๋ค.
- idea : output y์ ๋ํด ๊ฐ์ฐ์์์ผ๋ก ๊ฐ์ ํ๊ณ MLE์ ๋ฐ๋ผ ์ถ์ ํ๋ฉด $\sigma$์ ์ํด ๊ฐ task ์์ฒด์ noise์ ์๋์ ์ธ weight๋ฅผ ๊ตฌํ ์ ์๋ค. ์ฆ model weight $W$์ task dependent $\sigma_{task}$๋ฅผ ๊ฐ์ด ์ต์ ํํ์.
- architecture : DeepLab V3(ResNet101 -> Atrous Spatial Pyramid Pooling) + 3๊ฐ ํ์คํฌ์ ๋ง๋ decoder
- objective : CE(semantic segmentation), L1(instance segmentation, depth estimation)
- baseline : task specific model, weighted multi-task model
- data : CityScapes benchmark, depth image๋ SGM์ด๋ผ๋ ๋ชจ๋ธ๋ก pseudo-label ์ฌ์ฉ
- evaluation : IoU, Instance Mean Error, Inverse Depth Mean Error
- result : 3๊ฐ์ ํ์คํฌ๋ก ํ์ตํ๊ฒ segmentation, depth ์์ธก์์ sota. instance segmentation์ 2๊ฐ๋ก ํ์ตํ ๊ณณ์์ sota
- contribution : 3 ํ์คํฌ๋ก ํ์ตํ ๋ชจ๋ธ์ด ์ฒ์์ด๋ผ๊ณ ํ๋น
- limitation / things I cannot understand : ๋์ถฉ ๊ฒฐ๋ก ์ ์ผ๋ก ๋ณด๋ฉด ํ์ต ๊ฐ๋ฅํ weight ์ถ๊ฐํ๊ณ ์ด๊ฒ ๋๋ฐ๊ธฐ ๋์ง ์๋๋ก Regularization term ์ถ๊ฐํ๊ฑด๋ฐ mle ๊ด์ ์ผ๋ก ํด์๋๋๊น ๋ณด๊ธฐ์ ์๋ฆ๋ต๋น
Details
motivation

multi-task loss weight์ ๋ฐ๋ผ ์ฑ๋ฅ์ด ๋๋ฐ๊ธฐ ํจ
Architecture

Homoscedastic uncertainty as task-dependent uncertainty
- Epistemic uncertainty
- model์ ์ํ uncertainty, training data์ ๋ถ์กฑ์ผ๋ก ์ธํ Uncertainty
- Aleatroic uncertainty
- ๋ฐ์ดํฐ์ ์ํ uncertainty, data๊ฐ ํํํ ์ ์๋ ์ ๋ณด์ ๋ํ uncertainty.
- Data-dependent, Hetroscedatic
- input data์ ๋ชจ๋ธ ์์ํ์ ์ํด ๊ฒฐ์ ๋๋ uncertainty
- Task-dependent, Homoscedastic
- input data์ ์์กดํ์ง ์๋ uncertainty
- Data-dependent, Hetroscedatic
- ๋ฐ์ดํฐ์ ์ํ uncertainty, data๊ฐ ํํํ ์ ์๋ ์ ๋ณด์ ๋ํ uncertainty.
๋ญ๋ผ๋์ง ์์๋ฟ๋ค.. ์ด์จ๋ ์ด ๋ ผ๋ฌธ์์๋ ๋ง์ง๋ง task-dependent uncertainty์ ๋ํด ์ธก์ ํ ๊ฑฐ์
Multi-task likelihoods
๋ด๋ด๋คํธ์ํฌ์ ์์ํ์ $f^W(x)$๋ผ๊ณ ํ์. regression ๋ฌธ์ ์์๋ Output์ ๊ฐ์ฐ์์์ ๋ฐ๋ฅด๋ ๊ฑธ๋ก ๊ฐ์ ํ ์ ์์

์ด๋ $\sigma$๋ Noise scalar
๋ถ๋ฅ๋ฌธ์ ์ ๋ํด์๋ softmax๋ฅผ ์ทจํด์ ํ๋ฅ ๋ถํฌ๋ก ๋ง๋ฆ

multiple-model output์ ๋ํด์๋ factorizeํด์ ์ด๋ ๊ฒ ํํํ ์ ์์.

maximum likelihood estimation์ ๋ฐ๋ฅด๋ฉด Log likelihood๋ ์ด๋ ๊ฒ ์ธ ์ ์์

๋๊ฐ์ gaussian์ ๋ฐ๋ฅด๋ ๋ชจ๋ธ ์์ํ์ ๋ํ Log likehlihood์ ๋ํด์๋ ์๋์ ๊ฐ์ด ์ธ ์ ์์

์ด๋ ์ด์ $\mathcal{L}(W, \sigma_1, \sigma_2)$์ ๋ํ minimisation ๋ฌธ์ ๋ก ๋ณผ ์ ์์

์ด๋ ๊ฒ ๋๋ฉด $\sigma_1$, $\sigma_2$๋ ๊ฐ loss 1, 2์ ์๋์ ์ธ Weight๊ฐ ๋๊ณ , ๋ง์ง๋ง ํญ์ธ $log\sigma_1\sigma_2$๋ regularization term์ด ๋๋ค.
๋ถ๋ฅ ๋ฌธ์ ์ ๋ํด์๋ scalar $\sigma$๋ก scale๋ softmax๋ก ํ์ฅ์์ผ์ ๋ณด์.

์ด๋ ๊ฒ ๋๋ฉด log likelihood๋ ์๋์ ๊ฐ์ ๊ผด์ด ๋๊ณ ,

์ด๋ ๋ค์ joint loss๋ฅผ ํ์ตํ๋ ๋ชจ์์ด ๋๋ค.

์ญ์ ์ฌ๊ธฐ์๋ $\sigma_1$, $\sigma_2$๊ฐ ๋ชจ๋ธ์ ์๋์ ์ธ weight๋ก ๋ณผ ์ ์๋ค.
Result
