EvoLM: In Search of Lost Language Model Training Dynamics
๐กLanguage Model์ ์ฑ๋ฅ์ด ์ผ๋ง๋ ํฐ ๋ฐ์ดํฐ์ ์ผ๋ก ์ค๋ ํ์ตํ๋๊ฐ๋ณด๋ค ์ด๋ค ๋จ๊ณ์์ ์ด๋ป๊ฒ, ์ธ์ ํ์ตํ๋๊ฐ๊ฐ ๋ ์ค์ํ๋ฉฐ CPT(Continued Pre-Training)๊ฐ ์ง๋ ํ์ต ๋ฐ ๊ฐํ ํ์ต์ ์ฑ๋ฅ์ ๊ฒฐ์ ํ๋ค.
Capturing the Temporal Dependence of Training Data Influence
๐ก๋ฐ์ดํฐ์ ๊ฐ์น๋ ๋ฐ์ดํฐ๊ฐ โ๋ฌด์์ด๋โ ๋ณด๋ค โํ์ต ์์ ์ ์ธ์ ๋ฑ์ฅํ๋โ์ ์ํด ๊ฒฐ์ ๋๋คํด๋น ๋ ผ๋ฌธ์ ํ์ต ๊ฒฝ๋ก(trajectory)์ ๋ฐ์ดํฐ์ ๋ฑ์ฅ ์๊ธฐ๋ฅผ ๊ณ ๋ คํ๋ ์๋ก์ด ๋ฐ์ดํฐ ์ํฅ๋ ฅ ์ ์ TSLOO๋ฅผ ์ ์ํจ
AI as Humanityโs Salieri: Quantifying Linguistic Creativity of Language Models via Systematic Attribution of Machine Text against Web Text
๐กLLM์ ์ฐฝ์์ฑ์ผ๋ก ์ฌ๋์ ๋ฐ๋ผ์ก์ ์ ์์๊น? โ ใดใด์์ง ์ฐฝ์์ฑ์ ๊ธฐ๋ฐ์ผ๋ก LLM๊ณผ ์ฌ๋์ ๊ตฌ๋ถํ ์ ์์๊น? โ ์ ๊ฐ๋ฅ