Insight ๐
Newly spotlighted elements of LM โจ LM์ ์์๊ฐ๊ฐ ๋ณํํด๊ฐ๊ณ ์๋ค. ๋ฉฐ์น ์ ์ ์๋กญ๊ฒ ๋ฐํ๋ ๋ชจ๋ธ์ด ์ค๋์์๋ ๊ทธ ๋ฉด๋ชจ๊ฐ ๋ฑ๋ฑ์ด ํ์
๋์ด ๋ถ์กฑํ ์ ๋ค์ด๋ ๋จ์ ๋ค์ด ์ง์ ๋ฐ๊ณ ์๋ ์์ฆ์ด๋ค. ๐ฅ ๊ทธ๋งํผ LM์ ๊ทธ๊ฒ์ด ํ๋ผ๋ฏธํฐ๋ ๋ฐ์ดํฐ๋ ๋ค๋ฐฉ๋ฉด์ผ๋ก ๋น ๋ฅด๊ฒ ๋ณํํด๋๊ฐ๊ณ ์๋๋ฐ, ์ด๋ฒ ํฌ์คํ
์์ ๋ค๋ค๋ณด๊ณ ์ ํ๋ ๋ด์ฉ์ ์ค๋ ์๊ฐ ๋์ ๋ณ๋ก ๊ฑด๋๋ ค์ง์ง ์๋ค๊ฐ ์ต๊ทผ์ ์ฌ๋ฌ ์ฐ๊ตฌ(Chen et al., 2023, Ding et al., 2023, Liu et al., 2023)๋ฅผ ํตํด ๋ค์ ๊ฐ๊ด๋ฐ๊ณ ์๋ ๋ด์ฉ์ธ LM์ context window์ ๋ํด์ ์๊ธฐํด๋ณด๊ณ ์ ํ๋ค! ๐ What is the 'context window'? ๐ค ์์ํ๊ธฐ์ ์์์ ์ด๋ฒ ํฌ์คํ
์์ ์ค์ํ๊ฒ ๋ค๋ค๋ณผ ๋ด์ฉ์ธ ..
Insight ๐
Starting from ChatGPT ๐ค which is closed-source ์๋
12์, ์ฆ 2022๋
12์์ ์ ์ธ๊ณ์ ์ฌ๋๋ค์๊ฒ ์ ์์ด ์ ์ ํ ์ถฉ๊ฒฉ์ ์ค ์ฌ๊ฑด์ด ๋ฐ์ํ์๋ค. ๋ฐ๋ก ๊ทธ ์ ๋ช
ํ 'ChatGPT'์ ๋ฐํ๋ค! OpenAI์์ ๋ฐํํ ์ด ๊ฑฐ๋ ์ธ์ด ๋ชจ๋ธ(Large Language Model, LLM)์ ์ง๊ธ๊น์ง์๋ ์ฐจ์์ด ๋ค๋ฅธ ์์ฒญ๋ ์ฑ๋ฅ์ ๋ณด์ฌ์ฃผ๋ฉด์ ์ฌ๋๋ค์ ์ฌํ ๋ฐ ์ถ์ ์ ๋ฐ์ ์ผ๋ก ์ค๋ฉฐ๋ค์ด๊ฐ๊ธฐ ์์ํ๋ค. ํ์ง๋ง, ์ด ์๋ฒฝํด ๋ณด์ด๋ ChatGPT๋ ์ฌ๋ฌ ๊ฐ์ง ๋จ์ ์ ๊ฐ์ง๊ณ ์๋๋ฐ, ๊ทธ์ค์์ ์ด๋ฒ ํฌ์คํ
์์ ๋ค๋ค๋ณด๊ณ ์ ํ๋ ๋ด์ฉ์ ๋ฐ๋ก 'Closed-source' model์ด๋ผ๋ ์ ์ด๋ค. ๐ซ closed-source๊ฐ ๋ฌด์์ผ๊น? ์ด ์ฉ์ด๋ฅผ ์ฒ์ ๋ฃ๊ฒ ๋๋ค๋ฉด ๋ค์ ์์ํ ํ
๋ฐ, clos..
Insight ๐
Before Starting.. 2017๋
NLP๋ฅผ ํฌํจํ ์ง๊ธ๊น์ง์ ๋ฅ๋ฌ๋์ ํ๋๋ฅผ ๋ค์ง์ด์๋ ํ์ ์ ์ธ ๋ชจ๋ธ์ธ 'Transformer'๊ฐ ์ ์๋์๋ค. ์ด๋ฒ ํฌ์คํ
์์ ๋ค๋ค๋ณผ ๋ด์ฉ์ Transformer์ ๋ํ ์์ธํ ๋ด์ฉ์ด ์๋๊ธฐ์ ๋ฐ๋ก ๊น์ด ์์๋ณด์ง๋ ์๊ฒ ์ง๋ง, ์ด๋ฒ ํฌ์คํ
์ ์ดํดํ๊ธฐ ์ํด์๋ ์ด ๋ชจ๋ธ์ ์ฌ์ด์ฆ์ ๋ํด์๋ ์์๋ ํ์๊ฐ ์๋ค. Transformer์ ์ฌ์ด์ฆ๋ 465M ๊ฐ์ ํ๋ผ๋ฏธํฐ๋ฅผ ๊ฐ์ง๋ ๋ชจ๋ธ์ด์๋ค. ํ์ง๋ง, ๋ถ๊ณผ 3๋
๋ง์ ์ด ์ฌ์ด์ฆ๊ฐ ์ ๋ง ์๊ฒ ๋๊ปด์ง๊ฒ ํ ๋งํผ ํฐ ์ฌ์ด์ฆ์ ๋ชจ๋ธ์ธ GPT-3(175B)๊ฐ ๋์ค๊ฒ ๋์๋ค. ๊ทธ๋ฆฌ๊ณ ํ์ฌ๊น์ง๋ ์ด๋ณด๋ค ๋ ํฐ ๋ชจ๋ธ๋ค์ ๊ณ์ ๋์ค๊ณ ์๋ค. LM์ ์ฌ์ด์ฆ๊ฐ ์ด๋ ๊ฒ ์ ์ ์ปค์ง๊ฒ ๋ ์ด์ ๋ ๋ฌด์์ผ๊น? ๊ทธ ์ด์ ๋ Kaplan et al. 2020..
Paper Reading ๐/Natural Language Processing
Introduction SelFee SelFee๋ KAIST์ LK Lab์์ ๋ง๋ ์๋ก์ด instruction-following LM์ผ๋ก ์๋ต์์ self-feedback์ ์์ฑํ๊ณ ํผ๋๋ฐฑ์ ๊ธฐ๋ฐํด์ self-revise ํ๋ ๋ชจ๋ธ์ด๋ค. ChatGPT์ ์ํด ์์ฑ๋ self-feedback๊ณผ revision data๋ฅผ ํฌํจํ๋ 178K ๊ฐ์ training instance๋ฅผ ์ฌ์ฉํด์ LLaMA model(7B & 13B)์ fine-tune ํ์๋ค. SelFee์ ์๋ ์์ Vicuna Evaluation์์ ๋ SelFee(7B & 13B) ๋ชจ๋ธ์ LLaMA, Alpaca, Vicuna, Guanaco๋ฅผ ๋ฅ๊ฐํ๊ณ ChatGPT์ ๋น์ทํ ์ฑ๋ฅ์ ๋ณด์ฌ์คฌ๋ค. SelFee๋ ํนํ high-quality te..
Paper Reading ๐/Natural Language Processing
The overview of this paper ์ด ๋
ผ๋ฌธ์์๋ Self-Refine์ ์๊ฐํ์๋ค. Self-Refine์ ๋ฐ๋ณต์ ์ธ ํผ๋๋ฐฑ๊ณผ ๊ฐ์ ์ ํตํด LLM์ ์ด๊ธฐ output์ ๊ฐ์ ์ํค๊ธฐ ์ํ ๋ฐฉ๋ฒ์ด๋ค. Self-Refine์ ์ฃผ๋ ์์ด๋์ด๋ LLM์ ์ฌ์ฉํด ์ด๊ธฐ output์ ์์ฑํ๊ณ , ๊ทธ๋ค์์ ๋๊ฐ์ LLM์ด output์ ๋ํด ํผ๋๋ฐฑ์ ์ ๊ณตํ๊ณ ์ด ํผ๋๋ฐฑ์ ์ฌ์ฉํด ๋ฐ๋ณต์ ์ผ๋ก ์๊ธฐ ์์ ์ ๊ฐ์ ํด ๋๊ฐ๋ ๊ฒ์ด๋ค. ํ ๋ง๋๋ก Self-Refine์ ํ๋์ LLM์ generator, refiner, feedback provider๋ก ์ฌ์ฉํ๋ ๊ฒ์ด๋ค. Self-Refine์ ๋ชจ๋ ํ๊ฐ๋ task์์ Self-Refine์ผ๋ก ์์ฑ๋ output์ ๊ธฐ์กด์ ๋๊ฐ์ LLM์ผ๋ก ์์ฑ๋ output๋ณด๋ค human..
Paper Reading ๐/Natural Language Processing
The overview of this paper ์ด ๋
ผ๋ฌธ์์๋ ๊ฐ์ค์น๋ฅผ ์
๋ฐ์ดํธํ์ง ์๊ณ ๋์ ์ ์ธ์ด์ ํผ๋๋ฐฑ์ ํตํด language agent๋ฅผ ๊ฐํํ๊ธฐ ์ํ ์๋ก์ด ํ๋ ์์ํฌ์ธ Reflexion์ ์๊ฐํ์๋ค. ๊ตฌ์ฒด์ ์ผ๋ก, Reflexion agent๋ task ํผ๋๋ฐฑ ์ ํธ์ ๋ํด ์ธ์ด๋ก ๋ํ๋ด๊ณ , ๊ทธ๋ค์์ ์ดํ์ ์๋์ ๋ ๋์ ์์ฌ ๊ฒฐ์ ์ ์ ๋ฐํ๊ธฐ ์ํด ๋ฉ๋ชจ๋ฆฌ ๋ฒํผ์ ์ด๋ค๋ง์ reflective text๋ฅผ ์ ์งํ๋ค. Reflexion์ ๋ค์ํ ํ์
๊ณผ ์์ค์ ํผ๋๋ฐฑ ์ ํธ๋ฅผ ํฌํจํ ์ ์์ ์ ๋๋ก ์ถฉ๋ถํ ์ ์ฐํ๊ณ , ๋ค์ํ task์ ๊ฑธ์ณ์ baseline agent์ ๋นํด์ ์๋นํ ๊ฐ์ ์ ์ป์๋ค. Table of Contents 1. Introduction 2. Reflexion: reinforceme..
Paper Reading ๐/Natural Language Processing
The overview of this paper LLM์ ์ต๊ทผ์ ์์ฒญ ๋ฐ์ ํ์ผ๋, ์ด๋ค์ API ํธ์ถ์ ํตํ ํจ๊ณผ์ ์ธ ํด ์ฌ์ฉ์ ๋ํ ์ ์ฌ์ฑ์ ๋ง์กฑ๋์ง ์์ ์ฑ ๋จ์์๋ค. ์ด ๋
ผ๋ฌธ์์๋ API ํธ์ถ ์์ฑ์์ GPT-4์ ์ฑ๋ฅ์ ๋ฅ๊ฐํ๋ fine-tuned LLaMA-based model์ธ Gorilla๐ฆ๋ฅผ ์๊ฐํ์๋ค. Gorilla๋ document retriever์ ํจ๊ป ์ฌ์ฉ๋ ๋, test-time ๋ฌธ์ ๋ณํ์ ์ ์ํ๊ธฐ ์ํ ๊ฐ๋ ฅํ ๋ฅ๋ ฅ์ ๋ณด์ฌ์ฃผ๊ณ , ์ ์ฐํ ์ฌ์ฉ์ ์
๋ฐ์ดํธ ๋๋ ๋ฒ์ ๋ณํ๋ฅผ ๊ฐ๋ฅํ๊ฒ ํด ์ฃผ์๋ค. ์ด๊ฒ์ LLM์ direct ํ๊ฒ prompting ํ ๋ ์ผ๋ฐ์ ์ผ๋ก ๋ง๋ฅ๋จ๋ฆฌ๋ hallucination์ ๋ฌธ์ ์ ์ ์๋นํ ์ํํ์๋ค. ๋ํ ๋
ผ๋ฌธ์์๋ Gorilla์ ๋ฅ๋ ฅ์ ํ๊ฐํ๊ธฐ ์ํด ..
Paper Reading ๐/Natural Language Processing
The overview of this paper open-domain instruction๊ณผ ํจ๊ป LLM์ ํ์ต์ํค๋ ๊ฒ์ ์๋นํ ์ฑ๊ณต์ ๊ฐ์ ธ์๋ค. ์ด ๋
ผ๋ฌธ์์๋ ์ฌ๋ ๋์ ์ LLM์ ์ฌ์ฉํด์ ๋ค์ํ ๋ ๋ฒจ์ ๋ณต์ก๋๋ฅผ ๊ฐ์ง๋ ๋ง์ ์์ instruction data๋ฅผ ์์ฑํ๊ธฐ ์ํ ๋ฐฉ์์ ๋ณด์ฌ์ค๋ค. ์ด๊ธฐ instruction set์ ํจ๊ป ์์ํด์, ์ด instruction set๋ฅผ Evol-instruct๋ฅผ ์ฌ์ฉํด์ ๋์ฑ ๋ณต์กํ instruction์ผ๋ก step-by-step ์์ฑํ์๋ค. ๊ทธ๋ค์์, ๋ชจ๋ ์์ฑ๋ instruction ๋ฐ์ดํฐ๋ฅผ LLaMA๋ฅผ fine-tune ํ๊ธฐ ์ํด ์์๋ค. ์ด๋ ๊ฒ ํด์ ๋์จ ๋ชจ๋ธ์ด ๋ฐ๋ก WizardLM์ด๋ค. Human Evaluation & Vicuna Evaluatio..
Paper Reading ๐/Natural Language Processing
The overview of this paper ๋
ผ๋ฌธ์์๋ ๋ค๋ฅธ ๋ชจ๋ธ๋ณด๋ค ํจ์ฌ ์๊ณ code๋ฅผ ์ํ LLM์ธ phi-1์ ์๊ฐํ์๋ค. phi-1์ 1.3B Transformer model์ด๊ณ , ์น์ผ๋ก๋ถํฐ textbook ํ๋ฆฌํฐ ๋ฐ์ดํฐ์ ์ ํ์ ๋ชจ์๊ณผ ์ข
ํฉ์ ์ผ๋ก ์์ฑ๋ textbook์ ์ฌ์ฉํ๊ณ , GPT-3.5๋ก ํ๋ จ๋์๋ค. phi-1์ ์์ ๊ท๋ชจ์๋ ๋ถ๊ตฌํ๊ณ ๋์ pass@1 accuracy๋ฅผ ๋ฌ์ฑํ์๋ค. Table of Contents 1. Introduction 2. Training details and the importance of high-quality data 3. Spikes of model capability after finetuning on CodeExercises 4. Evaluati..