๋จผ์ ํฌ์คํธ๋ฅผ ์์ํ๊ธฐ ์ ์, ์์ฆ์ ๋ ผ๋ฌธ๋ค์ ๋ญ๊ฐ ์ด๋ฆฌ๋ ๋ถ๋์ด ๋ง์ ๊ฑด์ง,, ์ด LaMDA์ ๋ ผ๋ฌธ๋ง ํด๋ 40ํ์ด์ง๋ฅผ ๋๊ธฐ๋ ๋ถ๋์ ๋ณด์ฌ์ค๋ค. ๊ทธ๋์ ๋ณธ ํฌ์คํธ๋ ๊ตฌ๊ธ์์ ์ง์ LaMDA๋ฅผ ์๊ฐํ ๋ธ๋ก๊ทธ์ ๋ด์ฉ๋ ํจ๊ป ์ธ์ฉํ์ฌ ์์ฑ๋์๋ค๋ ์ ์ ๊ฐ์ํด์ฃผ์ จ์ผ๋ฉด ํฉ๋๋ค ใ ใ ๊ทธ๋ฌ๋ฉด ๋ฐ๋ก ๋ ผ๋ฌธ ๋ฆฌ๋ทฐ ํฌ์คํธ๋ก ๋ฐ์ด ๋ค์ด๊ฐ ๋ณผ๊น์~??
The overview of this paper
Language Model, ์ฆ LM์ ๋ฐ์ ์ ๋ฐ์ ์ ๊ฑฐ๋ญํ์ฌ NLP ๋ถ์ผ์ ์ฌ์ฉ๋์ง ์๋ ๋ถ์ผ๊ฐ ์์ ์ ๋๋ก ์์ฒญ๋ ์ฑ๋ฅ์ ์๋ํ๊ณ ์๋ค. ์๋ฅผ ๋ค์ด์, ์ธ์ด ๋ฒ์ญ, ๋ฌธ์ ์์ฝ๊ณผ ๊ฐ์ ๋ถ์ผ์๋ ์ฌ์ฉ๋๋ค. ์ด๋ค ์ค์์๋ ์คํ ์ฑ๋ด์ ์ด๋ ํ ์ฃผ์ ์ ๋ํด์๋ ๋ํ๋ฅผ ํ ์ ์๋ ๋ฅ๋ ฅ์ ์๊ตฌํ๋ค. ๊ทธ๋์ ๋์ ๋ถ์ผ์ ์ง์๊ณผ ์ ์ฌ์ ์์ฉ์ ํ์๋ก ํ๊ธฐ์ ์๋ง๋ ๊ฐ์ฅ ์ด๋ ค์ด ์ฃผ์ ์ค ํ๋์ผ ๊ฒ์ด๋ค..! ๊ฒ๋ค๊ฐ ์ฑ๋ด์ ์ฌ๋๊ณผ์ ๋ํ์์ ์ค๋ฆฌ์ ์ด์ด์ผ ํ๊ณ , ์ธ๋ถ ์ ๋ณด๋ก ์ป๊ฒ ๋ ์ ๋ณด๊ฐ ์๋ ์ ๋ณด๋ฅผ ์ฌ์ฉํด์๋ ์ ๋๋ค.
๊ตฌ๊ธ์์๋ ๋ฐ์ ๋ ์ฑ๋ด ๋ชจ๋ธ์ธ 'LaMDA'๋ฅผ ์๊ฐํ์๋ค. ์ด ๋ ผ๋ฌธ์์๋ ์ด ๋ชจ๋ธ์ ๋๋ต์ ์ธ ๊ตฌ์กฐ์ ๋ชจ๋ธ์ ์์ ์ฑ$($safety$)$, groundedness$($์ฃ์กํฉ๋๋ค ์์ธํ ํด์์ ๋ญ๋ผ ํด์ผํ ์ง ๋ชจ๋ฅด๊ฒ ๋ค์ ใ ใ $)$, ๋ง์ง๋ง์ผ๋ก ๋์ ํ๋ฆฌํฐ์ ๋ํด ์ฐ๊ตฌํ์๋ค. LaMDA๋ ๋ํ์ ํนํ๋ Transformer ๊ธฐ๋ฐ์ ์ ๊ฒฝ๋ง LM์ fine-tuningํ์ฌ ์ ์๋์๊ณ , ์ฝ 1370์ต ๊ฐ์ ํ๋ผ๋ฏธํฐ๋ก ์ด๋ฃจ์ด์ ธ ์๋ค. ๊ทธ๋ฆฌ๊ณ LaMDA๋ ์ธ๋ถ์ ์ง์๋ค์ ๋ ๋ฒ๋ฆฌ์งํ๋ฉด์ ํ์ต๋์๋ค.
๋ชฉํ & ๋ฐฉ๋ฒ
LaMDA๋ ์ด 3๊ฐ์ ์ฃผ๋ ๋ชฉ์ ์ ๊ฐ์ง๊ณ ๊ฐ๋ฐ๋์๋๋ฐ, ๊ฐ๊ฐ ํ๋ฆฌํฐ, ์์ ์ฑ, groundedness์ด๋ค. ๊ฐ๊ฐ์ ๋ค์์ ๋ช ์๋ ๋ฐฉ๋ฒ๋ค๋ก ์ธก์ ๋์๋ค.
- Quality: ๋ ผ๋ฌธ์์๋ ํ๋ฆฌํฐ๋ฅผ '์ผ๋ง๋ ์๋ง๋๊ฐ$($Sensibleness$)$', '์ผ๋ง๋ ๊ตฌ์ฒด์ ์ธ๊ฐ$($Specificity$)$', '์ผ๋ง๋ ํฅ๋ฏธ๋ก์ด๊ฐ$($Interestingness$)$' ์ธ ๊ฐ์ ์ฐจ์์ผ๋ก ๋ถํดํ์๋๋ฐ, ๊ฐ๊ฐ์ ์ฌ๋์ด ํ๊ฐํ์๋ค. ๊ฐ๊ฐ ํ๋์ฉ ์ดํด๋ณด๋ฉด, Sensibleness๋ ๋ฌธ๋งฅ์ ํ๋ฆ์ ์ผ๋ง๋ ์๋ง๋ ๋๋ต์ ๋ด์๋์ง๋ฅผ ์ธก์ ํ๋ ์งํ์ด๋ค. Specificity๋ ๋ชจ๋ธ์ด ์ด์ dialog context์ ๋ํด ์ผ๋ง๋ ๊ตฌ์ฒด์ ์ธ ๋๋ต์ ๋ด์๋์ง๋ฅผ ์ธก์ ํ๋ ์งํ์ด๋ค$($๋จ, ๋ชจ๋ ๋ฌธ์ฅ์ ๋ํด ๋ณดํธ์ ์ผ๋ก ๋ตํ ์ ์๋ ๋ฌธ์ฅ์ ์น์ง ์๋๋ค.$)$. ๋ง์ง๋ง์ผ๋ก, Interestingness๋ ๋ชจ๋ธ์ด ์ผ๋ง๋ ํต์ฐฐ๋ ฅ ์๊ณ , ์์ํ์ง ๋ชปํ ์ํธ์๋ ๋ต๋ณ์ ํจ์ผ๋ก์จ ๋์ฑ ์ฌ์ค๊ฐ์ ์ฑํ ์ ๋ง๋๋๊ฐ๋ฅผ ํ๊ฐํ๋ ์งํ์ด๋ค.
- Safety: ๋ชจ๋ธ์ ๊ฐ๋ฐํ ๋, ์ข์ ์ฑ๋ฅ์ ๋ด๋ ๊ฒ๋ ์ค์ํ์ง๋ง, ๊ทธ๋งํผ AI ์ค๋ฆฌ๋ฅผ ๋ฐ๋ผ๋ ๊ฒ ๋ํ ์ค์ํ๊ฒ ์๊ฐํ์๋ค. Safety๋ ์ฑํ ์์ ๋ชจ๋ธ์ด ํ์ํด์ผ ํ๋ ๋์์ ์บก์ฒํ๋ ์์ ๋ชฉํ์ ์ค๋ช ์ธํธ๋ก ๊ตฌ์ฑ๋์ด์๋ค. ์ด๋ฌํ ๋ชฉํ๋ ๋ชจ๋ธ์ ์ถ๋ ฅ์ด ์ ์ ์๊ฒ ํผํด๊ฐ ๊ฐ๋๋ก ๊ณ ์๋ ๊ฒฐ๊ณผ๋ฅผ ๋ด๋์ง ๋ชปํ๋๋ก ํ๊ณ , ๋ถ๋นํ ํธํฅ์ ๊ฐํํ์ง ์๋๋ก ํ๊ธฐ ์ํด ์๋๋์๋ค. ์๋ฅผ ๋ค์ด, ์ด๋ฌํ ๋ชฉ์ ์ ๋ชจ๋ธ์ด ํญ๋ ฅ์ ์ด๊ฑฐ๋, ํน์ ์ง๋จ์ ๋ถ์ ํ๊ฑฐ๋, ์ ์ฑ ๋ชจ๋ ์ ํ๋ ๋ฑ์ ๋๋ต์ ํ์ง ์๋๋ก ํ์ต์์ผฐ๋ค.
- Groundedness: ํ์ฌ LM์ generated sentence๋ฅผ ๋ณด๋ฉด ๊ทธ๋ด ๋ฏ ํ๊ฒ ๋ณด์ด์ง๋ง, ์ธ๋ถ ์์ค๋ก๋ถํฐ ์ธ์์ง ์ฌ์ค์ ๋ชจ์์ ์ฌ์ค๋ค์ด๋ค. ์ด๋ฌํ ์ ์ LaMDA์๊ฒ groundedness์ ๋ํด ํ์ตํ๋๋ก ํ๊ฒ ํ์๋ค. Groundedness๋ ์ธ๋ถ ์ธ๊ณ์ ๋ํ ์ฃผ์ฅ์ ํฌํจํ๋ ๋ชจ๋ ์๋ต์ ๋น์จ๋ก ๊ถ์ ์๋ ์ธ๋ถ ์ถ์ฒ์ ์ํด ๋ท๋ฐ์นจ๋ ์ ์๋ ์ธ๋ถ ์ธ๊ณ์ ๋ํ ์ฃผ์ฅ์ด ์๋ ์๋ต์ ๋น์จ๋ก ์ ์๋๋ค. ์ด์ ๊ด๋ จ๋ ๋ฐฉ๋ฒ์ธ Informativeness๋ ๋ชจ๋ ์๋ต์ ๋น์จ๋ก ์๋ ค์ง ์์ค์ ์ํด ๋ท๋ฐ์นจ๋ ์ ์๋ ์ธ๋ถ ์ธ๊ณ์ ๋ํ ์ ๋ณด๊ฐ ํฌํจ๋ ์๋ต์ ๋น์จ๋ก ์ ์๋๋ค. ๋ฐ๋ผ์, ์ค์ ์ธ๊ณ์ ์ ๋ณด๋ฅผ ํฌํจํ๊ณ ์์ง ์์ casual response๋ Informativeness์๋ ์ํฅ์ ์ฃผ์ง๋ง, Groundedness์๋ ์ํฅ์ ์ฃผ์ง ์๋๋ค. ์๋ ค์ง ์ถ์ฒ์์ LaMDA๊ฐ ์์ฑํ ์๋ต์ ์ฌ์ค์ ๊ทผ๊ฑฐํ๋ค๊ณ ๋ณด์ฅํ์ง๋ ์์ง๋ง, ์ฌ์ฉ์ ๋๋ ์ธ๋ถ ์์คํ ์ด ํด๋น ์ถ์ฒ์ ์ ๋ขฐ์ฑ์ ๊ธฐ๋ฐ์ผ๋ก ์๋ต์ ์ ํจ์ฑ์ ํ๋จํ ์ ์๊ฒ ํ๋ค.
LaMDA Pre-training
๋ชฉ์ ๊ณผ ๋ฐฉ๋ฒ์ด ์ ์๋จ๊ณผ ํจ๊ป, LaMDA์ two-stage training์ธ pre-training๊ณผ fine-tuning์ ์๊ฐํ์๋ค. pre-training์ ๋จ๊ณ์์ ์ฐ์ 1.56์กฐ ๊ฐ๋์ ๋จ์ด๋ฅผ ํฌํจํ๊ณ ์๋ ๋ฐ์ดํฐ์ ์ ์์ฑํ์๋ค. ์ด๋ ๊ตฌ๊ธ์ด ์ด์ ์ ๊ฐ๋ฐํ๋ ์ฑ๋ด ๋ชจ๋ธ๋ณด๋ค ๋๋ต 40๋ฐฐ ๊ฐ๋ ๋ง์ ์์ ๋ฐ์ดํฐ์ด๋ค. ์ด ๋ฐ์ดํฐ๋ ๋์ค๋ค์ ๋ํ ๋ฐ์ดํฐ์ ๋ค๋ฅธ ๊ณต๊ณต ์น ๋ฌธ์๋ก๋ถํฐ ์์ง๋์๋ค. ์ด ๋ฐ์ดํฐ์ ์ ํ ํฐํํ ๊ฒฐ๊ณผ, 2.81์กฐ ๊ฐ์ SentencePiece ํ ํฐ์ผ๋ก ๋๋ ์ก๊ณ , GSPMD์ ์ฌ์ฉํ์ฌ ์ด์ ์ ํ ํฐ์ ํ ๋๋ก ๋ค์ ํ ํฐ์ ์์ธกํ๋ ๋ฐฉ์์ผ๋ก pre-train ํ์๋ค. ์ด๋ฌํ ๋ฐฉ์์ GPT์ ํฌ๊ฒ ๋ค๋ฅธ ์ ์ด ์๋ค. ์ด pre-train๋ LaMDA ๋ชจ๋ธ์ ์ด ์ธ์๋ NLP ๋ถ์ผ์์ ๋ค์ํ๊ฒ ์ฌ์ฉ๋์๋ค.
LaMDA Fine-Tuning
fine-tuning ๋จ๊ณ์์๋, LaMDA์๊ฒ ๋ฌธ์ฅ์ด ์ฃผ์ด์ก์ ๋, ๊ทธ์ ๋ํ ์๋ต์ ์์ฑํ๋ task์ safeํ๊ณ high-qualityํ ์๋ต์ ๋ถ๋ฅํ๋ task๋ฅผ ๋์์ ์งํ์ํด์ผ๋ก์จ, ํ๋์ ๋ชจ๋ธ์ multi-task๊ฐ ์ํ ๊ฐ๋ฅํ ๋ชจ๋ธ์ ๋ง๋ค์๋ค. LaMDA generator๋ ๋ ์์ฑ์ ๊ฐ์ ์๋ค ๋ํ๋ก ์ ํ๋ ๋ํ ๋ฐ์ดํฐ์ ์์ ๋ค์ ํ ํฐ์ ์์ธกํ๋๋ก ํ๋ จ๋์๊ณ , LaMDA classifier์ ๋ผ๋ฒจ๋ง๋ ๋ฐ์ดํฐ์ ๋ํด ์๋ต์ Safety and Quality rating$($SSI$)$๋ฅผ ์์ธกํ๋ฉด์ ํ์ต๋์๋ค. ์ฑํ ์ค์๋, LaMDA generator๊ฐ ๋ช ๊ฐ์ ํ๋ณด ์๋ต์ ์์ฑํ๊ณ , LaMDA classifier๊ฐ ๋ชจ๋ ํ๋ณด ์๋ต์ ๋ํด SSI๋ฅผ ๊ตฌํ์๋ค. ๊ทธ๋ฆฌ๊ณ ํ๋ณด ์๋ต๋ค์ ์ฐ์ ๋ฎ์ Safety score์ ๋ฐ๋ผ ํํฐ๋ง๋๋ค. ๊ทธ ํ์ ๋จ์ ํ๋ณด ์๋ต๋ค์ SSI score์ ๋ฐ๋ผ ๋ค์ ๋ญํฌ๋๊ณ , ๊ฐ์ฅ ์์ ์๋ ํ๋ณด๊ฐ ์๋ต์ผ๋ก ์ ํ๋๋ค. LaMDA classifier๋ก ์์ฑ ์์ ์ ์ฌ์ฉ๋๋ ํ๋ จ ๋ฐ์ดํฐ๋ฅผ ์ถ๊ฐ๋ก ํํฐ๋งํ์ฌ ๊ณ ํ์ง ์๋ต ํ๋ณด์ ๋ฐ๋๋ฅผ ๋์๋ค.
Factual Grounding
์ฌ๋๋ค์ ๊ทธ๋ค์ fact๋ฅผ ๋๊ตฌ๋ฅผ ์ฌ์ฉํ๊ฑฐ๋ ์ง์ ๋ฒ ์ด์ค๋ฅผ ์ฐธ๊ณ ํ๋ฉด์ ํ์ธํ ์ ์์ง๋ง, ๋ง์ LM๋ค์ ๊ทธ๋ค์ ์ง์์ ์ค์ง ํ๋ผ๋ฏธํฐ ์์ ๊ทธ๋ฆฌ๋ ์๋ฐ์ ์๋ค. LaMDA์ original ์๋ต์ groundedness๋ฅผ ํฅ์์ํค๊ธฐ ์ํด, LaMDA์ ์ฌ๋ ๊ฐ์ ๋ํ๋ฅผ ์์งํ์ฌ ๋ฐ์ดํฐ์ ์ ๋ง๋ค์๋ค. ์ฌ๊ธฐ์๋ ์ ๋ณด ๊ฒ์ ์ฟผ๋ฆฌ ๋ฐ ํด๋น๋๋ ๊ฒฝ์ฐ์๋ ๊ฒ์๋ ๊ฒฐ๊ณผ๋ก ์ฃผ์์ด ์ถ๊ฐ๋๋ค. ๊ทธ ๋ค์์, LaMDA์ generator์ classifier์ ์ด ๋ฐ์ดํฐ์ ์ ๊ธฐ๋ฐ์ ๋๊ณ ํ์ต์์ผฐ๋๋ฐ, ์ด๋ LaMDA์ ์ ์ ๊ฐ์ ๋ํ์์ LaMDA์ ์๋ต์ ๋ํ groundedness๋ฅผ ํฅ์์ํค๊ธฐ ์ํด, ์ธ๋ถ ์ ๋ณด ๊ฒ์ ์์คํ ์ ํ์ฉํ๊ธฐ ์ํด์์ด๋ค. ์ด๊ฒ์ ๋งค์ฐ ์ด๊ธฐ์ ์์ ์ด์ง๋ง, ์ด๋ฅผ ํตํด ํฌ๋ง์ ์ธ ๊ฒฐ๊ณผ๋ฅผ ์ป์ ์ ์์๋ค.
ํ๊ฐ
๋ ผ๋ฌธ์์ ์ ์ํ key metrics์ ๋ํ progress๋ฅผ ์ธก์ ํ๊ธฐ ์ํด, pre-trained model, fine-tuned model, ๊ทธ๋ฆฌ๊ณ ํ๋ก ๊ฐ๋ค๋ก๋ถํฐ multi-turn 2์ ์ ๋ํ๋ฅผ ์ํด ๋ํ ๋ฐ์ดํฐ๋ฅผ ์์งํ์๋ค. ๊ทธ๋ฆฌ๊ณ , ๋ ๋ค๋ฅธ ํ๋ก ๊ฐ ๊ทธ๋ฃน์๊ฒ๋ ์ด ์๋ต๋ค์ ๋ํด Quality, Safety, Groundedness๋ฅผ ํ๊ฐํ๋๋ก ํ์๋ค.
๊ทธ ๊ฒฐ๊ณผ, LaMDA๋ ๋ชจ๋ ์ฐจ์๊ณผ ๋ชจ๋ ๋ชจ๋ธ ํฌ๊ธฐ์ ๋น๊ต์๋ ๋ถ๊ตฌํ๊ณ , ๋ชจ๋ ๋ชจ๋ธ ์ค ๊ฐ์ฅ ์ข์ ์ฑ๋ฅ์ ๋ณด์ฌ์คฌ๋ค. Quality meric์ fine-tuning์ด ์๋ ์๋ ๋ชจ๋ธ์ ํ๋ผ๋ฏธํฐ ์๋ฅผ ํฅ์์์ผฐ๋ค. Safety๋ ํผ์ model์ scalingํ ๋๋ ๋ณ ์ด์ต์ด ์๋ ๊ฒ์ฒ๋ผ ๋ณด์์ง๋ง, fine-tuning๊ณผ ํจ๊ปํ ๋, ํฅ์์ ๋ณด์ฌ์คฌ๋ค. Groundedness๋ ๋ชจ๋ธ์ ํฌ๊ธฐ๊ฐ ์ปค์ง์ ๋ฐ๋ผ ํฅ์๋์๋๋ฐ, ์๋ํ๋ฉด ๋์ฑ ํฐ ๋ชจ๋ธ์ ๋ ๋ง์ ์์ ์๋ก์ด ์ง์์ ๋ํ ๋ฉ๋ชจ๋ฆฌ ์์ฉ๋์ ๊ฐ์ง๊ณ ์๊ธฐ ๋๋ฌธ์ด๋ค. ํ์ง๋ง, fine-tuning์ ํตํด ๋ชจ๋ธ์ด ์ธ๋ถ ์ง์ ์์ค์ ์ก์ธ์คํ๊ณ ์ง์์ ๊ธฐ์ตํ๋ ์ผ๋ถ ๋ถํ๋ฅผ ์ธ๋ถ ์ง์ ์์ค๋ก ํจ๊ณผ์ ์ผ๋ก ์ด๋์ํฌ ์ ์์๋ค. fine-tuning๊ณผ ํจ๊ป๋ผ๋ฉด, model์ด ์ฌ๋ ์์ค์ safety์ groundedness๋ฅผ ์ ์งํ๋ฉด์, ์ฌ๋ ์์ค์ quality์ gap์ ๋ง์ด ์ขํ ์ ์์๋ค.
์ถ์ฒ
https://ai.googleblog.com/2022/01/lamda-towards-safe-grounded-and-high.html
LaMDA: Towards Safe, Grounded, and High-Quality Dialog Models for Everything
Posted by Heng-Tze Cheng, Senior Staff Software Engineer and Romal Thoppilan, Senior Software Engineer, Google Research, Brain Team Language models are becoming more capable than ever before and are helpful in a variety of tasks — translating one languag
ai.googleblog.com
https://arxiv.org/abs/2201.08239
LaMDA: Language Models for Dialog Applications
We present LaMDA: Language Models for Dialog Applications. LaMDA is a family of Transformer-based neural language models specialized for dialog, which have up to 137B parameters and are pre-trained on 1.56T words of public dialog data and web text. While m
arxiv.org
https://jiho-ml.com/weekly-nlp-50/
https://jiho-ml.com/weekly-nlp-51/