Capturing the Temporal Dependence of Training Data Influence
Review
| ๋๋ค์ | ํ์คํ | ๋ณ์ (0/5) |
|---|---|---|
| ๋๊น์ค | ํ์ต์์ ์ธ์ ํ์ต๋์๋๊ฐ๊ฐ ๋ฐ์ดํฐ ์ํฅ๋ ฅ์ ์ข์ฐํ๋ค๋ ๊ด์ ์ด ์๊ฐํด๋ณด์ง ๋ชปํ ํฌ์ธํธ๋ก ๋งค์ฐ ์ ์ ํจ. ๋ฐ์ดํฐ ์ํฅ๋ ฅ์ด๋ผ๋ ๊ฐ๋ ๋ ์ฒ์ ์๊ฒ ๋์๋๋ฐ ์ผ์ข ์ ๋ฐ์ดํฐ Ablation study๋ฅผ ํตํด ํด๋น ๋ฐ์ดํฐ์ ์ํฅ๋ ฅ์ ์ธก์ ํ๋ค๋.. ํด๋น ๋ ผ๋ฌธ์ ๋ฐฑ๊ทธ๋ผ์ด๋๋ง์ผ๋ก๋ ์์๊ฐ๋๊ฒ ๋ง์ ๋ ผ๋ฌธ | 4.5 |
| ๋ง์คํนํ ์ดํ | ์์ด๋์ด๋ ์ง๊ด์ ์ธ๋ฐ, ๊ทธ๊ฒ์ ํ์ธํ๋ ๋ฐฉ์์ด ์ธ์์ ์. ์ง๊ด์ ์ธ ์์ด๋์ด๋ฅผ, ํ ํฌ๋์ปฌํ๊ฒ ์ ํ์ด๋ธ ๋ ผ๋ฌธ์ด๋ผ๊ณ ์๊ฐํจ. ํ์ต ๊ฒฝ๋ก๋ผ๋ ํํ์ด ์๊ฐ๋ณด๋ค ๋ง์ ์ธ์ฌ์ดํธ๋ก ์ด์ด์ง ์ ์์ ๊ฒ ๊ฐ์. | 4.3 |
| ๊ทค | ์ด๋ฐ ๋ฐ์ดํฐ๊ฐ ๋ ํฐ ์ํฅ์ ๋ฏธ์น๋ค๋ ๊ฒ์ ์ด๋์ ๋ ์ง๊ด์ ์ด๊ธด ํ๋ฐ, ์ด๋ ์ฌ์ฉํ ๋ฐ์ดํฐ๊ฐ ํ์ต ์ ๊ณผ์ ์์ ๊ฐ์ฅ ๋์ ์ํฅ๋ ฅ์ ์ ์งํ๋ค๋๊ฒ ํต์ฌ์ธ๊ฒ ๊ฐ์. ์ด ๊ด์ ์์ ๋ณด๋ฉด ๋ชจ๋ธ ์ฑ๋ฅ์ ๋ชจ๋ธ์ ์ด๊ธฐ ํ์ต ๋จ๊ณ์ ํฌ์ ๋๋ ๋ฐ์ดํฐ๋ฅผ ์ผ๋ง๋ ํ์ง ์ข์ ๊ฒ์ ์ฐ๋๋์ ๋ฐ๋ผ ๋ง์ด ๋ฌ๋ผ์ง๋ฏ ์ถ๋ค | 4.5 |
| ์๋ฉด์ฅ์ | ์๊ฐ์ถ๊น์ง ๊ณ ๋ คํ LOO๋ผ๋, ์ง์ง ๋จธ๋ฆฌ๋ฅผ ์ป์ด๋ง์ ๊ธฐ๋ถ! ์ ๋ถํฐ curriculum-learning์ ์ค์์ฑ์ ์ธ์งํ๊ณ ์์ผ๋ฉด์๋ ๋ง์ ์คํํด๋ณด๋ฉด ์ ๋๋ง ์ฑ๋ฅ์ด ์์ค๋ฅผ๊น? ๋ผ๊ณ ์๊ฐํ๋๋ฐ, ๊ทธ ์ด์ ๋ฅผ ์ฆ๋ช ํด์ค ๋ ผ๋ฌธ์ด์์ ์คํ๋ ์ด๋ ๊ฒ ์ผ๋ฌด์ง์๊ฐ ์๋ค,,, | 4.4 |
| ์ด์ดํฐ | ํ๋ จ ๋ฐ์ดํฐ์ ์์๊ฐ ์ค์ํ ๊ฑฐ๋ผ๊ณ ๋ ์๊ฐํด๋ณด์ง ๋ชปํ๋๋ฐ ์ด๊ธฐ ํ๋ จ๋จ๊ณ์ ๋ฐ์ดํฐ ์ ์ ์ด ๋ชจ๋ธ์ ํฐ ์ํฅ ๋ฏธ์นจ์ ์๊ฒ ๋๋ค. ๊ณ์ฐ ํจ์จ์ ์ผ๋ก ๋ง๋ค์ด์ ์ค์ ์ ์ผ๋ก ๊ตฌํํ ๊ฒ๋ ๋๋จํ๋ค | 4.3 |
| 7์ผ | ๋ฐ์ดํฐ ์์ฒด์ ๋ํ perturbation์ด ์๋ ์๊ฐ์ถ์ ํจ๊ผ ๊ณ ๋ คํ ๋ฐ์ ์์ฒด๊ฐ ๋๋ฌด ์ฐธ์ ํ๋ค. 10๋ ๊ฐ๊น์ด ์ง์๋ Influence function์ ๋์ฒดํ ์ ์๋ ์๋ก์ด ์ ๊ทผ๋ฒ์ด ๋ฑ์ฅํ๊ตฌ๋! | 4.6 |
| ์ฌ๊ณผ | ํ๋ จ ๋ฐ์ดํฐ์ ์ค์์ฑ์ ๊ทธ ์ ๋ถํฐ๋ ๋ง์ด ๊ฐ์กฐ๋์์ง๋ง, ์๊ฐ๋ณ๋ก ๋ฐ์ดํฐ๋ฅผ ๋ถ๋ฆฌํด์ ์ธก์ ํ ๋ถ๋ถ์ ์ด ๋ ผ๋ฌธ์ Novelty๊ฐ ํฌ๋ค๊ณ ์๊ฐํจ. Vector๋ก ๋ฐ์ดํฐ๋ฅผ ์๊ฐ์ถ์ ์ํด ์ํ์ ์ผ๋ก ๋ถ์ํ ์ ๋ ์๋ฏธ๊ฐ ์์. | 4.8 |
TL; DR
- ๋ฐ์ดํฐ์ ๊ฐ์น๋ ๋ฐ์ดํฐ๊ฐ โ๋ฌด์์ด๋โ ๋ณด๋ค โํ์ต ์์ ์ ์ธ์ ๋ฑ์ฅํ๋โ์ ์ํด ๊ฒฐ์ ๋๋ค
- ํด๋น ๋ ผ๋ฌธ์ ํ์ต ๊ฒฝ๋ก(trajectory)์ ๋ฐ์ดํฐ์ ๋ฑ์ฅ ์๊ธฐ๋ฅผ ๊ณ ๋ คํ๋ ์๋ก์ด ๋ฐ์ดํฐ ์ํฅ๋ ฅ ์ ์ TSLOO๋ฅผ ์ ์ํจ
Summary
- Capturing the Temporal Dependence of Training Data Influence, ICLRโ25 Oral | Link
- Citation: 14
Introduction
Background
Data Influence Estimation
- ๋ฐ์ดํฐ ์ํฅ๋ ฅ ์ถ์ (data influence estimation): ํน์ ํ๋ จ ๋ฐ์ดํฐ๊ฐ ๋ชจ๋ธ์ ์์ธก ํ๋์ ์ด๋ค ์ํฅ์ ๋ฏธ์น๋์ง ์ดํดํ๊ธฐ ์ํ ๋ฐฉ๋ฒ
- ๋ชจ๋ธ์ ํฌ๋ช ์ฑ ๋ฐ ์ฑ ์์ฑ, AI ์ ์๊ถ ๋ ผ์, ๋ฑ ์ฌ๋ฌ ๋ถ์ผ์์ ์ค์ํ ์ญํ ์ ํจ
- ๋๋ถ๋ถ์ ๋ฐ์ดํฐ ์ํฅ๋ ฅ ์ถ์ ๊ธฐ๋ฒ์ ๋ค์์ ๋ฐ์ฌ์ค์ ์ง๋ฌธ(counterfactual question)์ ๋ตํ๋ ๊ฒ์ ๋ชฉํ๋ก ํจ:
โ Q: โํน์ ํ๋ จ ๋ฐ์ดํฐ๊ฐ ์์๋๋ผ๋ฉด ๋ชจ๋ธ์ ํ๋์ ์ด๋ป๊ฒ ๋ฌ๋ผ์ก์๊น?โ
LOO Influence
- Leave-One-Out(LOO): ํน์ ํ๋ จ ๋ฐ์ดํฐ ํ๋๋ฅผ ์ ๊ฑฐํ์ ๋, ๋ชจ๋ธ์ ๊ฒฐ๊ณผ๊ฐ ์ผ๋ง๋ ๋ฌ๋ผ์ง๋์ง๋ฅผ ์ธก์ ํ๋ ๊ฐ
- ์์ ์ธ๊ธํ ๋ฐ์ฌ์ค์ ์ํฅ(counterfactual impact)์ ๋ณดํต LOO ์ํฅ๋ ฅ์ผ๋ก ์ ์๋จ
- ํ๋ จ ๋ฐ์ดํฐ์
๏ปฟ์์ ํน์ ๋ฐ์ดํฐ ๏ปฟ๋ฅผ ์ ๊ฑฐํ์ ๋, ๊ฒ์ฆ ๋ฐ์ดํฐ๏ปฟ์์์ ์์ค ๋ณํ๋์ ์ธก์
- ๏ปฟ: ํ์ต ์๊ณ ๋ฆฌ์ฆ
- ๏ปฟ: ์์ค ํจ์
โ LOO๋ โ์ด ๋ฐ์ดํฐ ํ๋๊ฐ ๋ชจ๋ธ์ ์ต์ข ์์ธก์ ์ผ๋ง๋ ๊ธฐ์ฌํ๋๊ฐโ๋ฅผ ์ ๋ํํ ์งํ
- ๊ธฐ์กด LOO ์ฐ๊ตฌ์ ๊ฐ์ : Permutation-invariant assumption (๋ฐ์ดํฐ ์์ด ๋ถ๋ณ)
- ํ์ต ์๊ณ ๋ฆฌ์ฆ ๏ปฟ์ ๋ฐ์ดํฐ ์์์ ์ํฅ์ ๋ฐ์ง ์๋๋ค.
(i.e., ๋ฐ์ดํฐ๊ฐ ์ด๋ค ์์๋ก ๋ค์ด์ค๋ ํ์ต ๊ฒฐ๊ณผ๋ ๋์ผํ๋ค.)
- ํ์ต ์๊ณ ๋ฆฌ์ฆ ๏ปฟ์ ๋ฐ์ดํฐ ์์์ ์ํฅ์ ๋ฐ์ง ์๋๋ค.
- ๊ธฐ์กด LOO ์ฐ๊ตฌ์ ๋ํ์ ์ธ ์: Influence Function
- ๋ฐ์ดํฐ ํ๋๋ฅผ ๋ฏธ์ธํ๊ฒ perturb ํ์ ๋์ ์ํฅ์ ๊ทผ์ฌํ๋ ๋ฐฉ๋ฒ
Detail
- Q: โ์ด๋ฏธ ๋ค ํ์ต ๋๋ ์ด ๋ชจ๋ธ์์, ํน์ ๋ฐ์ดํฐ z* ๊ฐ ์์๋ค๋ฉด ๊ฒฐ๊ณผ๊ฐ ์ด๋ป๊ฒ ๋ฌ๋ผ์ก์๊น?โ
โ ์ค์ ๋ก ๋ค์ ํ์ตํ์ง ์๊ณ , ๋ชจ๋ธ์ ์ต์ข ํ๋ผ๋ฏธํฐ ๏ปฟ ์์ ํน์ ๋ฐ์ดํฐ ๏ปฟ ํ๋๋ฅผ โ์กฐ๊ธ ์ฝํ๊ฒ ๋ง๋ค๋ฉดโ ํ๋ผ๋ฏธํฐ๊ฐ ์ด๋ ๋ฐฉํฅ์ผ๋ก ์์ง์ผ์ง๋ฅผ ๋ฏธ๋ถ์ผ๋ก ๊ทผ์ฌ
- ํ์ต์ ๊ณผ์ ์ ๋ณด๋ ๊ฒ์ด ์๋, ์ต์ข ๋ชจ๋ธ ๊ฒฐ๊ณผ(๏ปฟ)๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ๋ฐ์ดํฐ์ ์ํฅ๋ ฅ์ ํ๋จํ๋ ๋ฐฉ์
- ๋ฐ์ดํฐ ํ๋๋ฅผ ๋ฏธ์ธํ๊ฒ perturb ํ์ ๋์ ์ํฅ์ ๊ทผ์ฌํ๋ ๋ฐฉ๋ฒ
Motivation
- ํ์ง๋ง ํ๋์ ํ์ต ํจ๋ฌ๋ค์(ํนํ foundation model pretraining)์ ๋ ์ด์ ๋ฐ์ดํฐ ์์ด ๋ถ๋ณ(permutation-invariant) ๊ฐ์ ์ ๋ง์กฑํ์ง ์์
- ์ด์ 1) ์ ๊ฒฝ๋ง ํ์ต์ non-convex ์ต์ ํ์ด๋ฉฐ, ์ด๊ธฐ ์กฐ๊ฑด/ํ์ต ๊ฒฝ๋ก์ ๋ฏผ๊ฐ
- ๊ฐ์ ๋ฐ์ดํฐ๋ผ๋ ์ด๋ค ์์๋ก ๋ณด๋๋์ ๋ฐ๋ผ ๋ค๋ฅธ ํ๋ผ๋ฏธํฐ ๊ถค์ (trajectory)๋ก ๊ฐ ์ ์์
- ์ด์ 2) ์ฌ๋ฌ ๋จ๊ณ์ ์ปค๋ฆฌํ๋ผ์ด ์กด์ฌํ๊ณ , ์๋ ดํ์ง ์๋ ํ์ต๊ตฌ์กฐ
- ๋๊ท๋ชจ pretraining ์์๋ ๊ฐ ๋ฐ์ดํฐ ํฌ์ธํธ๊ฐ ์๋์ ์ผ๋ก ๋งค์ฐ ์ ํ๋ ํ์๋ง ์ฌ์ฉ๋๋ฉฐ, ํ์ต์ด ์์ ํ ์๋ ดํ๊ธฐ ์ ์ ์ข
๋ฃ๋๋ ๊ฒฝ์ฐ๊ฐ ๋ง์
โ ์ด๋ก ์ธํด ๋ฐ์ดํฐ๊ฐ ํ์ต ๊ถค์ ์ ์ด๋ ์์ ์์ ๋ฑ์ฅํ๋์ง(timing)๊ฐ ์ต์ข ๋ชจ๋ธ์ ๋ฏธ์น๋ ์ํฅ์ด ๋ฌ๋ผ์ง ์ ์์
- ๋๊ท๋ชจ pretraining ์์๋ ๊ฐ ๋ฐ์ดํฐ ํฌ์ธํธ๊ฐ ์๋์ ์ผ๋ก ๋งค์ฐ ์ ํ๋ ํ์๋ง ์ฌ์ฉ๋๋ฉฐ, ํ์ต์ด ์์ ํ ์๋ ดํ๊ธฐ ์ ์ ์ข
๋ฃ๋๋ ๊ฒฝ์ฐ๊ฐ ๋ง์
- ์ด์ 1) ์ ๊ฒฝ๋ง ํ์ต์ non-convex ์ต์ ํ์ด๋ฉฐ, ์ด๊ธฐ ์กฐ๊ฑด/ํ์ต ๊ฒฝ๋ก์ ๋ฏผ๊ฐ
- ๊ธฐ์กด์๋ permutation-invariant ๊ฐ์ ์ ๊ทธ๋๋ก ์ฌ์ฉํ์์ด์ ์์ ์์กด์ ์ํฅ๋ ฅ(order-dependent influence)์ ์ ํํ ๋ฐ์ํ์ง ๋ชปํจ
โ ํ๋ MLํ์ต ๋ํฅ์ ๋ง๋ ์๋ก์ด ์ํฅ๋ ฅ ์ ์๊ฐ ํ์ํ๋ค!
So in this Paperโฆ
- Trajectory-specific LOO ์ ์
- RQ: ํ๋ จ ๋ฐ์ดํฐ ๏ปฟ ๊ฐย ๏ปฟ๋ฒ์งธ iteration์์ ๋ฑ์ฅํ์ ๋ย ์ด๋ฅผ ์ ๊ฑฐํ๋ฉด ์ต์ข ๋ชจ๋ธ(๊ฒ์ฆ loss)์ ์ผ๋ง๋ ๋ฌ๋ผ์ง๊น?
- ๊ธฐ์กด LOO๋ฅผ ์๊ฐ์ถ(timing)๊น์ง ํ์ฅํ ๊ฐ๋
- ๋ค์๊ณผ ๊ฐ์ ์ง๋ฌธ์ ๋๋ตํ ์ ์๊ฒ ๋จ:
- ์ด๋ค ๋ฐ์ดํฐ๊ฐย ์ธ์ ย ๋ฑ์ฅํ๋๋์ ๋ฐ๋ผ ์ํฅ๋ ฅ์ด ์ด๋ป๊ฒ ๋ฌ๋ผ์ง๋๊ฐ?
- ๋ค์ ๋ฑ์ฅํ ๋ฐ์ดํฐ๋ ์ ๋ฐ์ดํฐ์ ์ํฅ๋ ฅ์๋ ์ํฅ์ ๋ฏธ์น๋๊ฐ?
- Trajectory-specific LOO๋ฅผ ๊ณ์ฐํ๊ธฐ ์ํด Data Value Embedding ์ ์
- Trajectory-specific LOO๋ฅผ ์ ํํ ๊ณ์ฐํ๋ ค๋ฉด ํน์ iteration์์ ๏ปฟ๋ง ๋นผ๊ณ ์ ์ฒด ํ์ต์ ๋ค์ ๋๋ ค์ผ ํจ โ ๋น์ฉ์ด ๋๋ฌด ํผ
- ๊ทธ๋์ ๋ ผ๋ฌธ์ data value embedding(DVEmb)์ ๋์ ํด trajectory-specific LOO๋ฅผ ํจ์จ์ ์ผ๋ก ๊ทผ์ฌํ๊ณ ์ ํจ
Contribution
- TS-LOO(trajectory-specific leave-one-out) ์ ์
- ๋ฐ์ดํฐ๊ฐ ๋ช ๋ฒ์งธ iteration์ ๋ฑ์ฅํ๋์ง(timing)๊น์ง ํฌํจํด ๋ฐ์ดํฐ์ ์ํฅ๋ ฅ์ ์ ์
- Data Value Embedding(DVEmb) ์ ์
- ๊ฐ ํ๋ จ ์ํ์ ๋์ ์ํฅ(ํ์ต ์ ๊ณผ์ ์ ํ ํจ๊ณผ)์ ํ๋์ ๋ฒกํฐ๋ก ์์ถ
- ์ถ๊ฐ์ ์ธ ์ฌํ์ต ์์ด per-sample gradient ์ ์ฅ + backward ๊ณ์ฐ + ์์ถ(๋๋ค ํ๋ก์ ์ /๋ ์ด์ด๋ณ ๊ทผ์ฌ)
- ์คํ ๋ฐ ๊ฒฐ๊ณผ
- ๊ธฐ์กด ๋ฐฉ๋ฒ์ธ Influence Function์ ๋ฌ๋ฆฌ ground-truth LOO ๊ณผ ๋์ ์ ์ฌ์ฑ์ ๋ณด์
- ๋ฐ์ดํฐ ์ํฅ์ด ์ด๋ฐ high-impact โ ์ค๋ฐ low-impact โ ํ๋ฐ ์ฌ์์น์ 3๊ตฌ๊ฐ์ผ๋ก ๋ํ๋๋ค๋ ๊ฒ์ ๋ฐ๊ฒฌ
Methods
Trajectory-Specific Leave One Out Influence (TSLOO)
โ๋ฐ์ดํฐ ๏ปฟ๋ฅผย ์ธ์ (๏ปฟ)ย ํ์ต์์ ์ ๊ฑฐํ๋๋โ์ ๋ฐ๋ผ ์ต์ข ๋ชจ๋ธ์ ๊ฒ์ฆ ์์ค์ด ์ผ๋ง๋ ๋ฌ๋ผ์ง๋์ง๋ฅผ ์ธก์ ํ๋ ์๊ฐ(trajectory) ์์กด์ LOO
Details
- SGD trajectory
- Counterfactual trajectory
- ๏ปฟ : ๋ชจ๋ ๋ฐ์ดํฐ๋ฅผ ์๋ ์์๋๋ก ํ์ตํ์ ๋์ ์ต์ข ํ๋ผ๋ฏธํฐ
- ๏ปฟ : ๏ปฟ ์์ ์์ ๏ปฟ๋ง ์ ๊ฑฐํ๊ณ ์ดํ ๋์ผํ๊ฒ ํ์ตํ์ ๋์ ์ต์ข ํ๋ผ๋ฏธํฐ
- ํ๋ จ ๋ฐ์ดํฐ ๏ปฟ๋ฅผ, ๊ทธ๊ฒ์ด ์ค์ ๋ก ์ฌ์ฉ๋ ์์ ๏ปฟ์์๋ง ์ ๊ฑฐํ์ ๋, ์ต์ข ๋ชจ๋ธ์ ๊ฒ์ฆ ๋ฐ์ดํฐ ๏ปฟ์ ๋ํ ์์ค์ด ์ผ๋ง๋ ๋ฌ๋ผ์ง๋๊ฐ?
- TSLOO๋ย ํ์ต ๊ฒฝ๋ก(trajectory)์ timing์ ๋ช
์์ ์ผ๋ก ํฌํจํจ
- ๋์ผํ ๋ฐ์ดํฐ๋ผ๋ย ์ด๋ฐ vs ํ๋ฐย ๋ฑ์ฅ ์ ์ํฅ๋ ฅ์ด ๋ฌ๋ผ์ง ์ ์์
- ๋ฐ์ดํฐ ๊ฐ ์ํธ์์ฉ๊น์ง ๋ฐ์ ๊ฐ๋ฅ
- e.g., ์ด๋ ค์ด ๋ฐ์ดํฐ๊ฐ ํ๋ฐ์ ๋ฑ์ฅํ๋ฉด ์ด๋ฐ์ ๋ฑ์ฅํ๋ ๋ฐ์ดํฐ์ ์ํฅ์ด ์ฆํญ/๊ฐ์
โ โ๋ฐ์ดํฐ ์ํฅ๋ ฅโ์ ๋จ์ผ ํฌ์ธํธ์ ๊ณ ์ ๋ ๊ฐ์ด ์๋๋ผย ํ์ต ์งํ ์ํ์ ๋ฐ๋ผ ๋ฌ๋ผ์ง๋ ๊ฐ
- ํ์ง๋ง ๏ปฟ ์์ ์์ ๏ปฟ๋ฅผ ์ ๊ฑฐํ ๋ฐ์ฌ์ค(counterfactual) ์ ํ์ต์ ์๊ตฌํ๋ฏ๋ก ์ง์ ๊ณ์ฐํ๊ธฐ์๋ ๋งค์ฐ ๋น์ (โ ๊ทธ๋์ Data Value Embedding ์ ์ ์ํจ !)
Data Value Embedding
Background
- TSLOO ๋ ๊ฐ๋
์ ์ผ๋ก๋ ๋ช
ํํ์ง๋ง, ํน์ ์์ ๏ปฟ์์ ๋ฐ์ดํฐ ๏ปฟ๋ฅผ ์ ๊ฑฐํ ๋ค ํ์ต ์ ์ฒด๋ฅผ ๋ค์ ๋๋ ค์ผ ํ๋ฏ๋ก ์ ํํ ๊ณ์ฐ์ ํ์ค์ ์ผ๋ก ๋ถ๊ฐ๋ฅํจ
โ ๋ฐ์ดํฐ๋ฅผ ์ค์ ๋ก ์ ๊ฑฐํ์ง ์๊ณ , โ๊ทธ ๋ฐ์ดํฐ๊ฐ ํ์ต ๊ฒฝ๋ก๋ฅผ ๋ฐ๋ผ ์ด๋ค ์ํฅ์ ๋์ ํด์ ๋ฏธ์ณค๋๊ฐโ๋ฅผ ๋ฒกํฐ ํํ๋ก ์์ฝํ์ !! (์ด๊ฒ์ดย Data Value Embedding (DVE))
- ์์ ๋ดค๋ TSLOO (์๋ ์)๋ฅผ ์ฌํ์ต ์์ด ๊ทผ์ฌํ๊ณ ์ ํจ
- ๏ปฟ : ๋ชจ๋ ๋ฐ์ดํฐ๋ฅผ ์๋ ์์๋๋ก ํ์ตํ์ ๋์ ์ต์ข ํ๋ผ๋ฏธํฐ
- ๏ปฟ : ts ์์ ์์ z*๋ง ์ ๊ฑฐํ๊ณ ์ดํ ๋์ผํ๊ฒ ํ์ตํ์ ๋์ ์ต์ข ํ๋ผ๋ฏธํฐ
โ ์ด ๋์ ์ฐจ์ด๋ฅผ ์ฌํ์ต ์์ด ๋น ๋ฅด๊ฒ ๊ทผ์ฌํ๊ณ ์ ํจ
Data Value Embedding
TSLOO ์์์์ (1) ๊ฒ์ฆ ๋ฐ์ดํฐ์ ์์กดํ๋ ๋ถ๋ถ (2) ํ๋ จ ๋ฐ์ดํฐ ๊ณ ์ ํญ์ ๋ถ๋ฆฌํ์ฌ ๊ณ์ฐํ์
- ์์ TSLOO ์์์ (1) interpolation, (2) 1์ฐจ Taylor ๊ทผ์ฌ ์ ๊ธฐ๋ฐํ์ฌ, ๋ค์๊ณผ ๊ฐ์ด ๋ํ๋ผ ์ ์์
(1) Interpolation
- ๋ฐ์ดํฐ๋ฅผ ์์ ํ ์ ๊ฑฐํ ๋ชจ๋ธโ๊ณผ โ์ ๊ฑฐํ์ง ์์ ๋ชจ๋ธโ ์ฌ์ด๋ฅผ ์ฐ์์ ์ผ๋ก ์ด์ด์ ๊ฐ์ฃผํ๋ ๋ฐฉ๋ฒ
- ์ผ๋ฐ์ ์ผ๋ก โ๋ฐ์ดํฐ์ ๊ฑฐโ๋ ๋ถ์ฐ์ ์ฌ๊ฑด์. ๊ทผ๋ฐ ์ด๊ฑฐ๋ฅผ ๋ฏธ๋ถ ๊ฐ๋ฅํ ์ฐ์ ๋ณํ๋ก ๋ฐ๊ฟ์ค
(2) 1์ฐจ Taylor ๊ทผ์ฌ
- ์ง๊ด: ์กฐ๊ธ๋ง ๋ฐ๋๋ฉด, ๊ฒฐ๊ณผ๋ ๊ฑฐ์ ์ง์ ์ฒ๋ผ ์กฐ๊ธ๋ง ๋ฐ๋๋ค
- ๊ฒ์ฆ ์์ค ๋ณํ โ (๊ฒ์ฆ ์์ค์ ๊ธฐ์ธ๊ธฐ) ร (ํ๋ผ๋ฏธํฐ๊ฐ ์ผ๋ง๋ ์์ง์๋์ง)
โ ๋ฐ์ดํฐ ํ๋ ์ ๊ฑฐ๋ก ์ธํ ์์ค ๋ณํ๋ โ์ง๊ธ ๋ชจ๋ธ์ด ๋ฏผ๊ฐํ ๋ฐฉํฅโ๊ณผ โ๊ทธ ๋ฐ์ดํฐ๊ฐ ํ๋ผ๋ฏธํฐ๋ฅผ ๋ฐ์ด๋ธ ๋ฐฉํฅโ์ ๊ณฑ์ผ๋ก ๋ณผ ์ ์์
- ์ง๊ด: ์กฐ๊ธ๋ง ๋ฐ๋๋ฉด, ๊ฒฐ๊ณผ๋ ๊ฑฐ์ ์ง์ ์ฒ๋ผ ์กฐ๊ธ๋ง ๋ฐ๋๋ค
- ์ผ์ชฝ ๋ฒกํฐ: ๊ฒ์ฆ ๋ฐ์ดํฐ ๏ปฟ์ ๋ํ ์ต์ข
gradient
- ์ด ๊ฒ์ฆ ์ํ์ ๋ ์ ๋ง์ถ๋ ค๋ฉด ํ๋ผ๋ฏธํฐ๋ฅผ ์ด๋ ๋ฐฉํฅ์ผ๋ก ์์ง์ฌ์ผ ํ ๊น?
- ์ค๋ฅธ์ชฝ ๋ฒกํฐ: ํ๋ จ ๋ฐ์ดํฐ ๏ปฟ๊ฐ ํ์ต ๊ฒฝ๋ก๋ฅผ ๋ฐ๋ผ ๋์ ์ํจ ์ํฅ(ํ์ต trajectory์ ์์กด)
- ๏ปฟ: ๋ฐ์ดํฐ ๏ปฟ ๊ฐ ๊ทธ ์๊ฐ ๋ชจ๋ธ์ ์ผ๋ง๋, ์ด๋ ๋ฐฉํฅ์ผ๋ก ๋ฐ์๋?
- ๏ปฟ: ๊ทธ๋ ๋ฐ๋ฆฐ ํจ๊ณผ๊ฐ, ์ดํ ํ์ต์ ๊ฑฐ์น๋ฉฐ ์ผ๋ง๋ ์ด์๋จ์๋๊ฐ?
โ ์ค๋ฅธ์ชฝ์ ๋ฏธ๋ฆฌ ๊ณ์ฐํด์ ๋ฒกํฐ๋ก ์ ์ฅ
(์ค๋ฅธ์ชฝ์ด ๋ฏธ๋ฆฌ ๊ณ์ฐ๋์ด์์ผ๋ฉด, ์ด๋ค ๏ปฟ์ด ๋ค์ด์ค๋๋ผ๋ ๋ด์ ๋ง ํ๋ฉด ๋จ)
โ TSLOO(์ต์ข ์์ค ๋ณํ)๋ โ๊ฒ์ฆ ๋ฐ์ดํฐ์ ์ต์ข gradientโ์ โํ๋ จ ๋ฐ์ดํฐ ํ๋๊ฐ ํ์ต ๊ถค์ ์ ๋ฐ๋ผ ๋์ ์ํจ ์ํฅโ์ ๋ด์ ์ผ๋ก ๊ทผ์ฌ๋๋ค
- Data Value Embedding(DVEmb): TSLOO ๊ทผ์ฌ์์์ ํ๋ จ ๋ฐ์ดํฐ ๊ณ ์ ํญ์ ๋ถ๋ฆฌํ ๋ฒกํฐ
- ๏ปฟย ๊ฐ ๏ปฟย ์์ ์ ๋ค์ด์์ ๋ ๊ทธ ์ํฅ์ดย ํ์ต ์ข ๋ฃ ์์ ๊น์ง ์ด๋ป๊ฒ ๋์ / ์ ํ๋์๋์ง ํ๋์ ๋ฒกํฐ๋ก ์์ถํ ํํ
Detail
- ๏ปฟ๋ํ๋ จ ๋ฐ์ดํฐ ๏ปฟ๊ฐ ๏ปฟ์์ ์ ๋ชจ๋ธ ํ๋ผ๋ฏธํฐ ๏ปฟ์ ๊ฐํ ์ํฅ
โโ(๐๐ก๐ ,๐งโ)์ด,์ดํ ํ์ต ๊ณผ์ ์์ ๊ฐ ๋จ๊ณ์ Hessian(๊ณก๋ฅ ์ ๋ณด) ๐ป๐Hk์ ํ์ต๋ฅ ๐๐ฮทk์ ์ํด
(๐ผโ๐๐๐ป๐)(Iโฮทk Hk) ํํ๋ก ๋ฐ๋ณต์ ์ผ๋ก ๋ณํ๋๋ฉด์ ํ์ต ์ข ๋ฃ ์์ ๊น์ง ๋์ ๋ ์ ์ฒด ์ํฅ์ ํ๋์ ๋ฒกํฐ๋ก ์์ถํ ํํ- Hessian(2์ฐจ ๋ฏธ๋ถ): Gradient(1์ฐจ ๋ฏธ๋ถ)์ด ์ผ๋ง๋ ๋น ๋ฅด๊ฒ ๋ณํ๋์ง๋ฅผ ๋ํ๋
โ ๋ฐ์ดํฐ ํ๋ z^* ์ gradient ์ํฅ์ด ์ดํ ํ์ต step๋ค์ ๊ฑฐ์น๋ฉด์ ์ด๋ป๊ฒ ๋ณํ((IโฮทkHk)) ๋๋๊ฐ
- ๏ปฟ๋ํ๋ จ ๋ฐ์ดํฐ ๏ปฟ๊ฐ ๏ปฟ์์ ์ ๋ชจ๋ธ ํ๋ผ๋ฏธํฐ ๏ปฟ์ ๊ฐํ ์ํฅ
- ๋ฐ์ดํฐ ํ๋ ๏ปฟ๊ฐ ํ์ต ๊ฒฝ๋ก ์ ์ฒด์ ๋ฏธ์น ๋์ ์ํฅ์ ๋ฒกํฐ๋ก ํํํ ๊ฒ
โ ์ด๋ ํ์ต ๊ณผ์ ์์์ ํด๋น ๋ฐ์ดํฐ๊ฐ ๊ฐ์ง๋ ๊ฐ์น(value)๋ฅผ ํํํจ
- ์ดํ ์ํฅ๋ ฅ ๊ณ์ฐ์ ๊ฒ์ฆ gradient์ DVEmb์ dot-product์ผ๋ก ์ฆ์ ์ํ๊ฐ๋ฅํจ
- ์ดํ ์ด๋ค ๊ฒ์ฆ ๋ฐ์ดํฐ๊ฐ ์๋, ์ด ๋ฒกํฐ๋ฅผ ๋ค์ ๊ณ์ฐํ ํ์๊ฐ ์์
[Theory] Approximation Error Bound (์ด๋ก ์ ๋ณด์ฆ)
- ์ด๋ฌํ ๊ทผ์ฌ๊ฐ ํ์ต ์คํ ์ T๊ฐ ์ปค์ ธ๋ (ํ์ต์ด ๊ธธ์ด์ ธ๋) ์ค๋ฅ๊ฐ ํญ๋ฐํ์ง ์๋๋ค๋ ์ด๋ก
Computation of DBEmb
์์์ ์ ์ํ ์์ ์ค์ ๋ก ๊ณ์ฐํด๋ณด๊ณ ์ ํจ
- Key Idea
- ํ์ต ์ค ๊ฐ ์ํ์ gradient๋ฅผ โํต์งธ๋กโ ์ ์ฅํ์ง ์๊ณ , ๋์ค์ gradient๋ฅผ ์ฌ๊ตฌ์ฑํ ์ ์๋ ๊ตฌ์ฑ์์(activation, backprop ์ ํธ)๋ง ์ ์ฅ (Step 1)
- ํ์ต ๋(T-1)์์ ์์ํด์ 0๊น์ง ๊ฑฐ๊พธ๋ก ๋ด๋ ค์ค๋ฉด์ DVEmb๋ฅผ ์ฌ๊ท์ ์ผ๋ก ๊ณ์ฐ (Step 2)
Step 1: Store Pre-sample training Gradient Information at Each Iteration
Key Idea
ํ์ต ์ค ๊ฐ ์ํ์ gradient๋ฅผ โํต์งธ๋กโ ์ ์ฅํ์ง ์๊ณ , ๋์ค์ gradient๋ฅผ ์ฌ๊ตฌ์ฑํ ์ ์๋ ๊ตฌ์ฑ์์(activation, backprop ์ ํธ)๋ง ์ ์ฅ๋ฌธ์ ์ํฉ
- ํ์ต ์ค ๊ฐ ์ํ ๏ปฟ์ gradient ๋ฒกํฐ๊ฐ ํ์ํจ. ํ์ง๋ง ํ๋ผ๋ฏธํฐ ์๊ฐ ๏ปฟ๋ฉด, gradient๋ ๊ธธ์ด ๏ปฟ์ง๋ฆฌ ๋ฒกํฐ๊ฐ ํ์
- ๋งค stept=1..T, ๋ฐฐ์นB๊ฐ ์ํ๋ง๋ค ์ ์ฅํ๋ฉด:
โ โ๋ชจ๋ธ ํฌ๊ธฐ ๋ฒกํฐ๋ฅผ ์๋ฐฑ๋ง ๊ฐ ์ ์ฅโ ํ๋ ๊ผด์. ์ฆ ๋ถ๊ฐ๋ฅ
- ์ํ ๋ณ gradient ๋ฅผ ํ๋์ฉ ๋ค ๊ตฌํ๋ฉด, ์ํ๋ง๋ค backpropagation์ ํด์ผํด์ ํ์ต์ด ๋๋ฌด ๋๋ ค์ง
- ์ถ๊ฐ ๋น์ฉ์ด batch ํฌ๊ธฐ B๋งํผ ๋์
ํด๊ฒฐ ๋ฐฉ์
- gradient๋ฅผ ํต์งธ๋ก ์ ์ฅํ์ง ๋ง๊ณ ๋ถํด๋ ๊ตฌ์ฑ์์๋ง ์ ์ฅ
- ๋ณดํต ์ํ์ gradient๋ ๋ค์๊ณผ ๊ฐ์ด ํํ ๊ฐ๋ฅ:
- ๏ปฟ: ๊ทธ ์ํ์ activation(์ค๊ฐ ํํ)
- ๏ปฟ: ๊ทธ ์ํ์ output derivative(์ญ์ ํ ์ ํธ)
- ๏ปฟ: outer product
โ gradient๋ โactivation ร ์ญ์ ํ ์ ํธโ๋ก ์กฐ๋ฆฝ ๊ฐ๋ฅํ๊ธฐ ๋๋ฌธ์,
โ๊ฑฐ๋ํ๏ปฟ ๋ฒกํฐ ๋์ ๏ปฟ, ๏ปฟ ๊ฐ์ ๊ตฌ์ฑ์์๋ง ์ ์ฅ - ๋ณดํต ์ํ์ gradient๋ ๋ค์๊ณผ ๊ฐ์ด ํํ ๊ฐ๋ฅ:
- ํฐ ๋ชจ๋ธ์ด๋ผ๋ฉด ๊ตฌ์ฑ์์๋ ํฌ๊ธฐ ๋๋ฌธ์, ์ด๋ฅผ ์ถ๊ฐ์ ์ผ๋ก ์์ถํ์ฌ ์ ์ฅ
- ๏ปฟ, ๏ปฟ ์์ฒด๋ ํฌ๋ฏ๋ก, ๋๋ค ํ๋ก์ ์ ์ผ๋ก ์ฐจ์์ ๏ปฟ๋ก ๋ฎ์ถฐ ์ ์ฅ
- ์ ํํ gradient ์ ์ฒด๊ฐ ์๋ ์ํฅ๋ ฅ ๊ณ์ฐ์ ํ์ํ โ๊ธฐํ(๋ฐฉํฅ/์ ์ฌ๋)โ๋ฅผ ์ ์งํ๊ณ ์ ํจ
- ํ์ต ์ค ๊ฐ ์ํ ๏ปฟ์ gradient ๋ฒกํฐ๊ฐ ํ์ํจ. ํ์ง๋ง ํ๋ผ๋ฏธํฐ ์๊ฐ ๏ปฟ๋ฉด, gradient๋ ๊ธธ์ด ๏ปฟ์ง๋ฆฌ ๋ฒกํฐ๊ฐ ํ์
Step2: Backpropagating Data Value Embedding
Key Idea
DVEmb๋ โ๋ฏธ๋ step๋ค์ ๋์ ํจ๊ณผโ๊ฐ ๋ค์ด๊ฐ์ ์ ๋ฐฉํฅ์ผ๋ก ๊ณ์ฐํ๊ธฐ ์ด๋ ค์
โ ํ์ต ๋(T-1)์์ ์์ํด์ 0๊น์ง ๊ฑฐ๊พธ๋ก ๋ด๋ ค์ค๋ฉด์ DVEmb๋ฅผ ์ฌ๊ท์ ์ผ๋ก ๋ง๋ค์- ๊ตฌํ๊ณ ์ ํ๋ ๊ฒ: ๊ฐ ํ๋ จ ๋ฐ์ดํฐ๊ฐ ํ์ต์ด ๋๋ ๋๊น์ง ์ผ๋ง๋, ์ด๋ค ๋ฐฉํฅ์ผ๋ก ์ํฅ์ ๋์ ํ๋์ง๋ฅผ ๋ํ๋ด๋ ๋ฒกํฐ ๏ปฟ๋ฅผ ๊ตฌํ๊ณ ์ถ์
โ ๋ฐ์ดํฐ๊ฐ ๋ชจ๋ธ์ด ๋ฏธ์น๋ โ์ต์ข ์ํฅโ์ ๋ฏธ๋ ํ์ต๊น์ง ๋ค ๋ฐ์ํด์ผ ์ ์ ์์. ๊ทธ๋์, ๋ง์ง๋ง ํ์ต step ๋ถํฐ ๊ณผ๊ฑฐ๋ก ๊ฑฐ๊พธ๋ก ๊ณ์ฐํ๊ณ ์ ํจ
ํด๊ฒฐ ๋ฐฉ์ (๊ณ์ฐ๋ฒ)
- ๋ง์ง๋ง step์์๋ ๋ฏธ๋๊ฐ ์์ผ๋ฏ๋ก
- DVEmb = ๊ทธ ์์ ์ gradient ร ํ์ต๋ฅ
- ์กฐ๊ธ ์ step์์๋
- ์ด ๋ฐ์ดํฐ์ ํ์ฌ gradient+ ์ดํ step๋ค์์ ์ด๋ฏธ ๊ณ์ฐ๋ ์ํฅ์ ํ ๋ฒ์ ๋ฐ์
- ์ด๋ ๋ฏธ๋ step๋ค์ ๋์ ํจ๊ณผ๋ฅผ ํ๋์ ์์ฝ ํ๋ ฌ M ์ ๊ณ์ ์ ์ฅํด ๋๊ธฐ ๋๋ฌธ์ ๋งค๋ฒ โ๋ฏธ๋ ์ ์ฒด๋ฅผ ๋ค์ ๊ณ์ฐโํ์ง ์์๋ ๋จ
โ ๋ฏธ๋ ํ์ต์ ์ํฅ์ ์์ฝํ ์ํ๋ก, ๊ฐ ํ๋ จ ๋ฐ์ดํฐ์ ์ต์ข ์ํฅ ๋ฒกํฐ๋ฅผ ๊ฑฐ๊พธ๋ก ๊ณ์ฐํ๋ ๊ณผ์
- ๊ตฌํ๊ณ ์ ํ๋ ๊ฒ: ๊ฐ ํ๋ จ ๋ฐ์ดํฐ๊ฐ ํ์ต์ด ๋๋ ๋๊น์ง ์ผ๋ง๋, ์ด๋ค ๋ฐฉํฅ์ผ๋ก ์ํฅ์ ๋์ ํ๋์ง๋ฅผ ๋ํ๋ด๋ ๋ฒกํฐ ๏ปฟ๋ฅผ ๊ตฌํ๊ณ ์ถ์
Experiment
Fidelity Evaluation
- Data Value Embedding(DVEmb)์ด ์ง์ง Leave-One-Out(TSLOO)๊ฐ์ ์ผ๋ง๋ ์ ํํ๊ฒ ๊ทผ์ฌํ๋์ง ํ์ธํ๊ณ ์ ํจ
- DVEmb์ ์ค์ ๋ก ๊ทธ ๋ฐ์ดํฐ๋ฅผ ๋นผ๊ณ ๋ค์ ํ์ตํ์ ๋์ ์ํฅ(ground-truth LOO)์ ๋น๊ต
Setting
- Data: MNIST
- Model: ๊ฐ๋จํ MLP (trained with standard SGD)
- Ground-truth LOO: ํ ๋ฐ์ดํฐ ํฌ์ธํธ ๏ปฟ ๋ฅผ ์ค์ ๋ก ์ ๊ฑฐํ์ฌ ๋ชจ๋ธ์ ๋ค์ ํ์ตํจ. ์ต์ข
validation loss ๋ณํ ์ธก์
- SGD๋ก ํ์ต๋ MLP์ ์งง์ ํ์ต(3 epochs)์ผ๋ก ์งํ
- Exp setting
- Single-epoch removal (a, b): ๋ฐ์ดํฐ ๏ปฟ ๋ฅผ ํน์ epoch ํ ๋ฒ๋ง ์ ๊ฑฐํ๊ณ , ๋๋จธ์ง epoch์์๋ ๊ทธ๋๋ก ์ฌ์ฉ
โ ํน์ ๋ฐ์ดํฐ๊ฐโ์ด ์์ (๏ปฟ)์ ๋น ์ก์ ๋ ์ํฅโ ์ ๋ณด๊ณ ์ ํจ (TSLOO ์ธํ )
- All-epoch removal (c, d): ๋ฐ์ดํฐ ๏ปฟ ๋ฅผ ๋ชจ๋ epoch์์ ์ ๊ฑฐ
โ ์ ํต์ ์ธ LOO์ ๋ ๊ฐ๊น์ด ์ธํ
- Single-epoch removal (a, b): ๋ฐ์ดํฐ ๏ปฟ ๋ฅผ ํน์ epoch ํ ๋ฒ๋ง ์ ๊ฑฐํ๊ณ , ๋๋จธ์ง epoch์์๋ ๊ทธ๋๋ก ์ฌ์ฉ
ํ ์ค๋ช
- ์ ํ๋: ํ๋์ ํ๋ จ ๋ฐ์ดํฐ ํฌ์ธํธ
- x ์ถ: Ground-truth LOO score (ํด๋น ๋ฐ์ดํฐ์ ์ค์ ์ํฅ๋ ฅ)
- y ์ถ:
- (a, c) Data Value Embedding์ด ์์ธกํ ์ํฅ๋ ฅ
- ๋ฐ์ดํฐ๊ฐ ์ฌ์ฉ๋ ์์ ๊ณผ ์ดํ ํ์ต ๊ฒฝ๋ก๋ฅผ ๋ชจ๋ ๊ณ ๋ คํ์ฌ ๋ฐ์ดํฐ์ ์ํฅ๋ ฅ์ ํ๊ฐ
- (b, d) Influence Function์ด ์์ธกํ ์ํฅ๋ ฅ
- ์๊ฐ ๊ณ ๋ ค X, ๋ชจ๋ธ์ ์ต์ข ์ํ๋ง์ ๊ธฐ์ค์ผ๋ก ๋ฐ์ดํฐ์ ์ํฅ๋ ฅ์ ํ๊ฐ
- (a, c) Data Value Embedding์ด ์์ธกํ ์ํฅ๋ ฅ
โ ์ด์์ ์ธ ๊ฒฝ์ฐ: ์ ๋ค์ด y = x ์ถ์ ์ฌ๋ผ์ ์๋ ์ํฉ
์ด๋ ์์ธก๊ฐ์ด ์ค์ LOO์ ๋์ผํ๋ค๋ ์๋ฏธ๋ก, ํด๋น ๋ ผ๋ฌธ์ด ์ ์ํ โ๋ฐ์ดํฐ ๊ฐ์น ์ถ์ ์ด ์ ํํจโ์ ๋ํ๋
- (a), (c)๋ Data Value Embedding๊ณผ Ground-truth LOO์์ ์๊ด๊ด๊ณ๋ฅผ ๋ํ๋ธ ํ
- ์๊ด๊ณ์๊ฐ ์ฝ 0.74์ด๋ฉฐ, ์ ๋ค์ด ๋๊ฐ์ y=x ๊ทผ์ฒ์ ๋ฐ์ง๋์ด ์์
โ DVEmb๊ฐ Ground-truth LOO๋ฅผ ์ ๊ทผ์ฌํ๊ณ ์์
- (b), (d)๋ Influence Function๊ณผ Ground-truth LOO์ ์ ์๊ด๊ด๊ณ๋ฅผ ๋ํ๋ธ ํ
- ์๊ด๊ณ์๊ฐ 0 ๋ฐ ์์์ด๋ฉฐ, ์ ๋ค์ด ํฉ์ด์ ธ ์์
โ Influence Function์ LOO๋ฅผ ๊ฑฐ์ ์ค๋ช ํ์ง ๋ชปํจ
โ ๋ฐ์ดํฐ ์ํฅ์ ์ต์ข ๋ชจ๋ธ ์ํ๋ง์ผ๋ก๋ ์ค๋ช ํ ์ ์๊ณ , ํ์ต ๊ฒฝ๋ก๋ฅผ ๋ฐ๋ผ ๋์ ๋ ํจ๊ณผ๋ก ์ดํดํด์ผ ํจ
- Data Value Embedding(DVEmb)์ด ์ง์ง Leave-One-Out(TSLOO)๊ฐ์ ์ผ๋ง๋ ์ ํํ๊ฒ ๊ทผ์ฌํ๋์ง ํ์ธํ๊ณ ์ ํจ
Analyzing Training Dynamics of Foundation Models
- Data Value Embedding(DVEmb)์ ํ์ฉํด LLM ์ฌ์ ํ์ต(pretraining) ๊ณผ์ ์์ ๋ฐ์ดํฐ์ ์ํฅ๋ ฅ์ด ์๊ฐ์ ๋ฐ๋ผ ์ด๋ป๊ฒ ๋ณํ๋์ง ๋ถ์
- Setting:
- Model: Pythia-410M
- Dataset: Pile (1% subset)
- ๊ท๋ชจ ์ฝ 800GB ํ ์คํธ๋ก ์ด๋ฃจ์ด์ง LLM์ฉ ๋ํ์ ์ธ pretraining dataset
ํ ์ค๋ช
- y์ถ(Influence Score): ํ๋ จ ๋ฐ์ดํฐ์ Data Value Embedding๊ณผ, ์ค๊ฐ ์ฒดํฌํฌ์ธํธ์์์ gradient๋ฅผ ๋ด์ ํ ๊ฐ
- ๋ชจ๋ธ์ ๋ํ ๋ฐ์ดํฐ ์ํฅ๋ ฅ์ ํ์ต ์์ ์ ๋ฐ๋ผ 3๊ฐ์ง ๊ตฌ๊ฐ์ผ๋ก ๋๋ ์ ์์:
- High-impact Warmup Phase (์ด๊ธฐ ๊ณ ์ํฅ ๊ตฌ๊ฐ)
- ํ์ต ์ด๋ฐ ์์ฃผ ์งง์ ๊ตฌ๊ฐ์ ๋ฐ์ดํฐ ์ํฅ์ด ๋น์ ์์ ์ผ๋ก ํผ
- ๋ชจ๋ธ์ loss๊ฐ ๋น ๋ฅด๊ฒ ๊ฐ์ํ๊ณ , ๋ชจ๋ธ์ ๊ธฐ๋ณธ ํํ ๋ฐ ๋ฐฉํฅ์ฑ์ด ๊ฒฐ์ ๋๋ ๋ถ๋ถ
โ ์ด๊ธฐ ๋ฐ์ดํฐ๊ฐ ๋ชจ๋ธ ์ ์ฒด ์ฑ๊ฒฉ์ ํฌ๊ฒ ์ข์ฐํจ
- Low-impact Basin (์ค๋ฐ ์ ์ํฅ ๊ตฌ๊ฐ)
- ๋ฐ์ดํฐ ์ํฅ๋ ฅ์ด ์ ๋ฐ์ ์ผ๋ก ๋ฎ๊ณ ์์ ์
- ํด๋น ๊ตฌ๊ฐ์ ๋ฐ์ดํฐ๋ ์ด๋ฏธ ์ ํด์ง ๋ฐฉํฅ์ ๋ฐ๋ผ ๋ฏธ์ธ์กฐ์ ํ๋ ์ญํ
- Gradual Ascent (ํ๋ฐ ์ ์ง์ ์์น)
- ํ์ต ํ๋ฐ์ผ๋ก ๊ฐ์๋ก (๋์ค์ ๋ฑ์ฅํ ๋ฐ์ดํฐ์ผ์๋ก) ์ํฅ๋ ฅ์ด ๋ค์ ์ฆ๊ฐ
โ LLM ํ์ต์์์ ๋ฐ์ดํฐ์ ๊ฐ์น๋ ๊ณ ์ ๋ ๊ฒ์ด ์๋๋ผ, ํ์ตํ๋ ์๊ฐ์ ์์น์ ๋ฐ๋ผ ๋ค๋ฅด๊ฒ ์์ฉํจ
- High-impact Warmup Phase (์ด๊ธฐ ๊ณ ์ํฅ ๊ตฌ๊ฐ)
Analyzing Training Dynamics of Foundation Models - Explanation
- ๊ทธ๋ ๋ค๋ฉด ์ ์ด๋ฐ ํ์์ด ์ผ์ด๋ ๊น? ์ ๋ํ ์คํ
- ์ ํ์ต ์ด๋ฐ ๋ฐ์ดํฐ๋ ์ค๋ ์ํฅ๋ ฅ์ด ๋จ๊ณ , ์ค๊ฐ ๋ฐ์ดํฐ๋ ์ฝํ๊ณ , ํ๋ฐ ๋ฐ์ดํฐ๋ ๋ค์ ์ํฅ๋ ฅ์ด ์ปค์ง๋ ๊ฒ์ธ๊ฐ?
ํ ์ค๋ช
- x์ถ: ํ์ต ๋จ๊ณ (iteration)
- y์ถ(Influence Score): ํด๋น ๋ฐ์ดํฐ๋ค์ ํ๊ท ์ํฅ๋ ฅ
- ๊ฐ์ด ํด์๋ก ๋ชจ๋ธ ํ๋ผ๋ฏธํฐ์ ๊ฐํ๊ฒ ๋จ์์์
- Train Batch Idx
- 1000โ2000 (๋ณด๋ผ์): ํ์ต ์์ฃผ ์ด๋ฐ์ ์ฌ์ฉ๋ ๋ฐ์ดํฐ๋ค
- 5000โ6000, 10000โ11000 (์ฃผํฉ/๋นจ๊ฐ): ํ์ต ์ค๋ฐ ๋ฐ์ดํฐ๋ค
- 15000โ16000, 20000โ21000, 25000โ26000 (๋ ธ๋): ํ์ต ํ๋ฐ ๋ฐ์ดํฐ๋ค
โ ๊ฐ ๊ณก์ ์ โ๊ทธ ์์ ์ ํ์ต์ ๋ฑ์ฅํ ๋ฐ์ดํฐ ๋ฌถ์์ด, ์ดํ ํ์ต์ด ์งํ๋๋ฉด์ ์ผ๋ง๋ ์ํฅ๋ ฅ์ ์ ์ง/์์คํ๋๊ฐโ๋ฅผ ๋ํ๋
Explanation (1): ์ด๊ธฐ ํ๋ผ๋ฏธํฐ ์ ๋ฐ์ดํธ ํจ๊ณผ
- ํ์ต์ ์์ฃผ ์ด๋ฐ์๋ gradient ํฌ๊ธฐ๊ฐ ๋งค์ฐ ํฌ๊ธฐ ๋๋ฌธ์ ํ๋ผ๋ฏธํฐ๊ฐ ํฌ๊ฒ, ๋ง์ด ์์ง์
โ ๊ทธ๋์ ์ด ์์ ์ ๋ค์ด์จ ๋ฐ์ดํฐ๋ ๋ชจ๋ธ์ ๊ธฐ๋ณธ ๋ฐฉํฅ(์ด๊ธฐ ๊ตฌ์กฐ) ์ ๊ฒฐ์ ํ๊ฒ ๋๊ณ , ์ดํ ํ์ต ๋ด๋ด ๊ทธ ํ์ ์ด ๋จ์
- ๋ณด๋ผ์ ๊ณก์ ์ ๋ณด๋ฉด, ์ด๋ฐ์๋ ๋งค์ฐ ๋์ influence score์ ๊ฐ์ง. ์ดํ ํ๋ จ์ด ์งํ๋จ์ ๋ฐ๋ผ ์ํฅ๋ ฅ์ด ๋ด๋ ค๊ฐ๊ธฐ๋ ํ์ง๋ง, ์ ์ฒด ํ์ต ์์ ์ ํตํ์ด์ ๋ชจ๋ ์์ ์ ๋ฐ์ดํฐ๋ณด๋ค ์ํฅ๋ ฅ์ด ์์ ์์
โ ํ์ต ์ด๋ฐ์ ์ฌ์ฉํ ๋ฐ์ดํฐ์ ์ํฅ์ด ํ์ต ์ ๋ฐ์ ๊ฑธ์ณ๋์ ์ํฅ๋ ฅ์ ์ ์งํจ(ํ์ต ์ด๋ฐ์ ์ด๋ค ๋ฐ์ดํฐ๋ฅผ ์ฌ์ฉํ๋์ง์ ์ฌ๋ถ๊ฐ ์ค์ํ๋ค)
Explanation (2): ์ดํ ๋ฐ์ดํฐ์ ์ํ ์ํฅ ํฌ์ (Influence Saturation)
- ์ด๋ค ๋ฐ์ดํฐ์ ์ํฅ๋ ฅ์ ๊ทธ ๋ค์ ๋น์ทํ ๋ฐ์ดํฐ๊ฐ ๊ณ์ ๋์ค๋ฉด ํฌํ(saturation)๋์ด ๋ ์ด์ ์ปค์ง์ง ์๊ณ ์คํ๋ ค ์ค์ด๋ค์
- ์ด๋ฏธ ์ถฉ๋ถํ ๋ฐฐ์ด ๋ด์ฉ์ ๋ํด์๋ ์ด์ ์ ๋ฑ์ฅํ ๋ฐ์ดํฐ์ ๊ฐ๋ณ ๊ธฐ์ฌ๋๊ฐ ์ ์ ํฌ์๋จ
catastrophic forgetting ๊ณผ๋ ๋ค๋ฆ!
- catastrophic forgetting: ์ ๊ฒฝ๋ง์ด ์๋ก์ด ๋ฐ์ดํฐ(๋๋ ํ์คํฌ)๋ฅผ ํ์ตํ๋ ๊ณผ์ ์์ ์ด์ ์ ํ์ตํ ์ ๋ณด๋ ๋ฅ๋ ฅ์ ๊ธ๊ฒฉํ๊ฒ ์์ด๋ฒ๋ฆฌ๋ ํ์
- Influence Saturation ์ํฉ ์:
- ์ด๋ฐ์ ์ด๋ค ๋ฐ์ดํฐ ๏ปฟ๊ฐ quantum computing ๋ด์ฉ์ ๊ฐ๋ฅด์นจ โ ๊ทธ ๋ค ํ์ต ๊ณผ์ ์์ ๋น์ทํ ๋ฐ์ดํฐ๋ค์ด ๋ฑ์ฅ
- ๋ชจ๋ธ ์
์ฅ: โ์, ์ด ๊ฐ๋
์ ์ฌ๋ฌ ์์ ์์ ์ถฉ๋ถํ ๋ฐฐ์ ๊ธฐ ๋๋ฌธ์ ์ด๋ฐ ๋ฐ์ดํฐ ํ๋์ ์์กดํ ํ์๊ฐ ์๋คโ (๊ธฐ์ฌ๋ ๋ถ์ฐ)
โ ์ด๋ฐ ๋ฐ์ดํฐ์ ๊ฐ๋ณ influence score ๋ ๊ฐ์, ํ์ง๋ง ๊ทธ ๊ฐ๋ ์ ์ฌ๋ผ์ง์ง ์์(์ด๊ฒ catastrophic forgetting๊ณผ๋ ๋ค๋ฅธ ์ ์)
- Fig4์์ , ์ค๋ฐ ๋ฐ์ดํฐ (๋นจ๊ฐ์, Low-impact Basin)์ ์ํฅ๋ ฅ์ ๊ณ์ ๊ฐ์ํ๋๋ฐ, ๋์ค์๋ ํ์ต ํ๋ฐ ๋ฐ์ดํฐ๋ณด๋ค๋ ๋ฎ์์ง
- ๋ฏธ๋ ๋ฐ์ดํฐ์ ๋ง์ด ๋ฎ์ฌ์ ์ํฅ๋ ฅ์ด ๋ ๋ง์ด ํฌ์๋จ
- ๊ทธ๋ ๋ค๋ฉด ์ ์ด๋ฐ ํ์์ด ์ผ์ด๋ ๊น? ์ ๋ํ ์คํ

















