์ด๋ฒ ๋ ผ๋ฌธ ๋ฆฌ๋ทฐ๋ ๊ธฐ์กด ๋ฐฉ์๊ณผ ๋ค๋ฅด๊ฒ powerpoint๋ก ์์ฑํ์๋ค. ๋ ผ๋ฌธ์ ๊ฐ๋จํ ๊ฐ์๋ ๋ค์๊ณผ ๊ฐ๊ณ , ๋ ผ๋ฌธ์ ๋ํ ์์ธํ ๋ด์ฉ์ ์ฒจ๋ถ๋ powerpoint ํ์ผ์ ํ์ธํ๊ธธ ๋ฐ๋๋ค. powerpoint์ ๋ฉ๋ชจ์ ์ฌ๋ผ์ด๋ ๋ ธํธ์ ์ค๋ช ์ ์ ์ด๋์ผ๋ ์ฐธ๊ณ ํ๊ธธ ๋ฐ๋๋ค. ์ด ํฌ์คํ ์ ๋ค์์ ์ ํ๋ธ๋ฅผ ์ฐธ๊ณ ํ์ฌ ์์ฑ๋์๋ค.
The overview of this paper
NLP์ ์ค์ ํจ๋ฌ๋ค์์ general domain ๋ฐ์ดํฐ์์ ๋๊ท๋ชจ pre-training์ ํ๊ณ ํน์ task ๋๋ domain์ ์ ์ฉ์ผ๋ก ๊ตฌ์ฑ๋์ด ์๋ค. larger model์ pre-train ํ๋ ๊ฒ์ฒ๋ผ ๋ชจ๋ ํ๋ผ๋ฏธํฐ๋ฅผ ์ฌํ์ตํ๋ full fine-tuning์ ์คํ ๊ฐ๋ฅ์ฑ์ด ๋จ์ด์ง๋ค. ๋ ผ๋ฌธ์์๋ pre-trained model์ ๊ฐ์ค์น๋ฅผ freezeํ๊ณ ํ์ต ๊ฐ๋ฅํ rank decomposition ํ๋ ฌ๋ค์ Transformer architecture์ ๊ฐ layer์ ์ฃผ์ ํ๋ LoRA๋ฅผ ์ ์ํ์๋ค. ์ด๋ downstream task๋ฅผ ์ํ ํ์ต ๊ฐ๋ฅํ ํ๋ผ๋ฏธํฐ์ ์๋ฅผ ์ค์ธ๋ค. LoRA๋ fine-tuning๋ณด๋ค ๋ ์ ์ training ํ๋ผ๋ฏธํฐ๋ฅผ ๊ฐ์ง๊ณ ๋ ๋์ training throughput์ ๋ณด์ฌ์ฃผ๊ณ ์ถ๊ฐ์ inference latency๊ฐ ์๋ค.
์ถ์ฒ
https://arxiv.org/abs/2106.09685
https://www.youtube.com/watch?v=BJqwmDpa0wM