Research & Project ๐ฌ
Which quantization method is efficient & effective? ๐ง ๋ ์ด ์ง๋๋ฉด ์ง๋ ์๋ก ์ ์ ์ฌ์ด์ฆ๊ฐ ์ปค์ ธ๊ฐ๋ LLM์ ํ๋์์ ์ด๋ค์ ์์ฝ๊ฒ ํจ์จ์ ๋ฐ ํจ๊ณผ์ ์ผ๋ก ์ฌ์ฉํ ์ ์๋ ๋ฐฉ๋ฒ์๋ ๋ฌด์์ด ์์๊น? ์์ฆ์๋ ๋ค๋ฅธ method๋ค๋ณด๋ค๋ quantization, ์ฆ ์์ํ๋ฅผ ์ฃผ๋ก ์ฌ์ฉํ๋ ์ถ์ธ์ด๋ค. ์ด quantization์ ํตํด ์ฌ๋๋ค์ ๊ณ ์ฉ๋ RAM์ ๊ฐ์ง๋ GPU์์๋ ์ฌ์ฉํ๊ธฐ๊ฐ ํ๋ค๋ LLM์ ํจ์ฌ ํจ์จ์ ์ผ๋ก ์ฌ์ฉํ ์ ์๊ฒ ๋์๋ค! ๐ค ์ต์ํ์ ์ฑ๋ฅ ๊ฐ์๋ก ์ต์ ์ ํจ์จ์ฑ์ ๋ณด์ฌ์ฃผ๋ quantization์ ์ํด HuuggingFace์์๋ 2๊ฐ์ง quantization method๋ฅผ ์ ๊ณตํ๊ณ ์๋ค. ๋ฐ๋ก BitsAndBytes์ GPTQ์ด๋ค. ์ด๋ฅผ ํ ๋๋ก ๋ q..
Research & Project ๐ฌ
AlpaGasus2-QLoRA!! ๐ฆ ์ด๋ฒ์ ์งํํ ํ๋ก์ ํธ 'AlpaGasus2-QLoRA'์ ๋ํด์ ์ค๋ช
ํ๊ณ ์ ํ๋ค. ํ๋ก์ ํธ์ ๋ํด ์์๋ณด๊ธฐ ์ ์ ๋จผ์ ์ด ์ฐ๊ตฌ๋ฅผ ์งํํ ์ ์๋๋ก AlpaGasus๋ฅผ ์ ์ํด์ฃผ์ Lichang Chen ์ธ 10๋ถ๊ป ๊ฐ์ฌ์ ๋ง์์ ๋๋ฆฝ๋๋ค. https://arxiv.org/abs/2307.08701 AlpaGasus: Training A Better Alpaca with Fewer Data Large language models~(LLMs) obtain instruction-following capability through instruction-finetuning (IFT) on supervised instruction/response data. However, wi..
'Research & Project ๐ฌ' ์นดํ
๊ณ ๋ฆฌ์ ๊ธ ๋ชฉ๋ก
๋จ์ถํค
๋ด ๋ธ๋ก๊ทธ
๋ด ๋ธ๋ก๊ทธ - ๊ด๋ฆฌ์ ํ ์ ํ |
Q
Q
|
์ ๊ธ ์ฐ๊ธฐ |
W
W
|
๋ธ๋ก๊ทธ ๊ฒ์๊ธ
๊ธ ์์ (๊ถํ ์๋ ๊ฒฝ์ฐ) |
E
E
|
๋๊ธ ์์ญ์ผ๋ก ์ด๋ |
C
C
|
๋ชจ๋ ์์ญ
์ด ํ์ด์ง์ URL ๋ณต์ฌ |
S
S
|
๋งจ ์๋ก ์ด๋ |
T
T
|
ํฐ์คํ ๋ฆฌ ํ ์ด๋ |
H
H
|
๋จ์ถํค ์๋ด |
Shift + /
โง + /
|
* ๋จ์ถํค๋ ํ๊ธ/์๋ฌธ ๋์๋ฌธ์๋ก ์ด์ฉ ๊ฐ๋ฅํ๋ฉฐ, ํฐ์คํ ๋ฆฌ ๊ธฐ๋ณธ ๋๋ฉ์ธ์์๋ง ๋์ํฉ๋๋ค.