Language Models Are Capable of Metacognitive Monitoring and Control of Their Internal Activations
๐กLLM์ด ์์ ์ ๋ชจ๋ธ ๋ด๋ถ์์ ์ผ์ด๋๋ ์ํ๋ฅผ ์ผ๋ง๋ ์ธ์, ํ๊ฐ, ์กฐ์ ํ ์ ์๋์ง๋ฅผ โNeurofeedbackโ (๋ชจ๋ธ์ ๋ด๋ถ ๋ ์ด์ด, ๋ฒกํฐ ์กฐ์ ๋ฐ ํ์ฑํ ์ ๋ ์ธก์ )๋ฐฉ์์ผ๋ก ์ธก์ ํ์๊ณ , ๊ทธ ๋ฅ๋ ฅ์ด ์ ํ์ ์์ ๋ณด์
Judge Decoding: Faster Speculative Sampling Requires Going Beyond Model Alignment
๐กSpeculative Decoding์์ ๋ฐ์ํ๋ ๋ณ๋ชฉ์ด Target model์ ์ ๋ ฌ(alignment) ๊ธฐ๋ฐ ๊ฒ์ฆ ๋๋ฌธ์์ ๋ฐํ๊ณ , Target model์ ์๋ฒ ๋ฉ์ผ๋ก ํ ํฐ์ ์ ๋ต์ฑ(correctness)์ ํ์ ํ๋ ์๋ก์ด ๊ฒ์ฆ ๋ฐฉ์์ธ Judge Decoding ๋ฐฉ์์ ๋์ ํจ!
Interpreting the Repeated Token Phenomenon in Large Language Models
๐กLLM์ ๊ฐ์ ๋จ์ด๋ฅผ ๊ณ์ ๋ฐ๋ณต์ํค๋ฉด ๋ชจ๋ธ์ด ์ด๋ ์๊ฐ๋ถํฐ ๊ทธ ๋จ์ด๋ฅผ ์ ๋๋ก ๋ฐ๋ณตํ์ง ๋ชปํ๊ณ ๋ถ๊ดด๋๋๋ฐ, ์ด๋ attention sink๋ฅผ ๋ง๋๋ neuron์ด ๋ฐ๋ณต๋๋ ํ ํฐ์ โ๋ฌธ์ฅ์ ์ฒซ ํ ํฐ(BoS)โ์ผ๋ก ์ค์ธํ์ฌ attention์ด ๋ชฐ๋ฆฌ๊ธฐ ๋๋ฌธ์