Paper Reading ๐/Deep Learning
์์ฆ ๋จธ์ ๋ฌ๋ ๋
ผ๋ฌธ๋ค์ ์ฝ์ด๋ณด๋ฉด zero-shot, one-shot, few-shot ๋ฑ์ ๋ง์ด ๋ณผ ์ ์๋ค. ์ด๋ฒ ํฌ์คํธ์์๋ ์ด ์ฉ์ด๋ค์ ๋ํด ์์๋ณด๊ณ ์ด method๋ค์ด ์ด๋จ ๋ ์ฌ์ฉ๋๋์ง ์์๋ณด์๋ค. Overview ๋จธ์ ๋ฌ๋์์๋ ๋ฐ์ดํฐ๊ฐ ์ถฉ๋ถํ์ง ์์ ๋ ์ฌ์ฉํ ์ ์๋ ๋ค์ํ ๋ฐฉ๋ฒ์ด ์๋ค. N-shot learning์ ๋ฅ๋ฌ๋ ๋ชจ๋ธ์ด 5๊ฐ ์ดํ์ ์ด๋ฏธ์ง๋ง์ ์ฌ์ฉํด์ ํ์ต๋ ๋์ ๊ฒฝ์ฐ์ด๋ค. N-shot learning ํ๋๋ ๊ฐ K ํด๋์ค์ labeled sample์ ์ n์ ํฌํจํ๊ณ ์๋ค. ์ด N-shot learning์ ๋ค์์ 3๊ฐ๋ก ๋๋์ด์ง๋ค: zero-shot learning, one-shot learning, few-shot learning. ์ด 3 method๋ traini..
Paper Reading ๐/Deep Learning
์ฌ๋ฌ LM๋ค์ ๊ฐ๋ฐ๋ก ์ธํ์ฌ ์ฌ๋๋ค์ ์ ๋ก ์๋ ์๋ก์ด ๊ธฐ์ ๋ค์ ๋ง๋๊ณ ์๋ค. ์ด ์๊ธฐ๋ฅผ ์ฌ๋ฌ ํฌ์คํธ์์ ํ๋ ๊ฒ ๊ฐ์๋ฐ, ChatGPT๋ ์์ง๋ ๋ฌด๊ถ๋ฌด์งํ ๊ฐ๋ฅ์ฑ์ ๋ณด์ฌ์ฃผ๊ณ ์๋ค. ์ด๋ฌํ LM๋ค์ ์ฑ๋ฅ์ ํฅ์์ํค๋ ๋ฐฉ๋ฒ์ผ๋ก ๋ง์ด ์ฌ์ฉ๋๊ณ ์๋ ๋ฐฉ๋ฒ์ด Prompt Engineering์ด๋ค. ๋ณธ ๋ธ๋ก๊ทธ์์ ๋ฆฌ๋ทฐํ ์ฌ๋ฌ ๋
ผ๋ฌธ๋ค์์๋ ๋ฑ์ฅํ๋ Prompt Engineering์ ๋ํด ๋์ฑ ์์ธํ ์ดํด๊ฐ ํ์ํ ๊ฒ ๊ฐ์์ ์ด๋ ๊ฒ ํฌ์คํธ๋ฅผ ์์ฑํด๋ณธ๋ค. ๐ค ์ฐ์ Prompt Engineering์ ๋ํด์ ์์๋ณด๊ธฐ ์ ์ Prompt๊ฐ ๋ฌด์์ธ์ง ๋ถํฐ ์์๋ณด๋๋ก ํ์! ๐ฅ Prompt๋? Prompt๋ LLM์ผ๋ก๋ถํฐ ์๋ต์ ์์ฑํ๊ธฐ ์ํ ์
๋ ฅ๊ฐ์ ์๋ฏธํ๋ค. ๋ค์์ ๊ทธ๋ฆผ์ด Prompt์ ์์์ด๋ค. ์๋ฅผ ๋ค์ด ์ค๋ช
ํ์๋ฉด, ..
Paper Reading ๐/Deep Learning
The overview of this paper RNN ์ฆ, recurrent neural network๋ ์ค๋ ์๊ฐ ๋์ ์ฌ์ฉ๋์ด์จ ์ ๊ฒฝ๋ง์ด๋ค. ํ์ง๋ง, ์๊ฐ์ ํ๋ฆ์ ๋ฐ๋ผ ์ฒ๋ฆฌํด์ผ ํ๋ ๋ฐ์ดํฐ์ ์์ด ๋ง์์ง๊ณผ task์ ๋ณต์ก๋๊ฐ ์ฆ๊ฐํจ์ ๋ฐ๋ผ์ RNN์ผ๋ก๋ถํฐ ์ฅ๊ธฐ์์กด์ฑ์ ๋ฌธ์ ๊ฐ ์กด์ฌํจ์ ์๊ฒ ๋์๋ค. (์ฅ๊ธฐ์์กด์ฑ์ ๋ํด ์ ๋ชจ๋ฅด์ ๋ค๋ฉด ์ฌ๊ธฐ๋ฅผ ์ฐธ๊ณ ํด์ฃผ์ธ์!!) ์ด๋ฅผ ํด๊ฒฐํ๊ธฐ ์ํด gating unit์ ๊ฐ์ง๊ณ ์๋ ์๋ก์ด RNN ๋ชจ๋ธ๋ค์ธ LSTM๊ณผ GRU ๋ฑ์ด ๋ฑ์ฅํ๊ฒ ๋์๋ค. ์ด ๋์ ์๋นํ ์ข์ ์ฑ๋ฅ์ ๋ณด์ฌ์ฃผ์ง๋ง, ๋ ์ค ์ด๋ค ๊ฒ์ด ๋ ์ฐ์ํ ๋ชจ๋ธ์ธ์ง์ ๋ํด์๋ ์๊ฒฌ์ด ๋ถ๋ถํ๋ค. ๊ทธ๋์ ์ด ๋
ผ๋ฌธ์ ์ด๋ฌํ ๋
ผ๋์ ์ ์ฌ์ฐ๊ณ ์ ์ข ๋ ์ธ๋ฐํ๊ฒ ์ด ๋ ๋ชจ๋ธ์ ์ฑ๋ฅ์ ๋น๊ตํด๋ณด๊ณ ์ ํ์๋ค. Table ..
Paper Reading ๐/Deep Learning
The purpose of this post LSTM network๋ ๊ฐ๋ฐ๋ ์ง ์ค๋๋ ๋ชจ๋ธ์์๋ ๋ถ๊ตฌํ๊ณ ์๋ง์ ๋ถ์ผ์์ ์ค๋ซ๋์ ์ฌ์ฉ๋์๋ ๋ชจ๋ธ์ด๋ค. ์์ฆ์๋ ๋ ์ฑ๋ฅ์ด ์ข์ ๋ชจ๋ธ๋ค์ด ๋ง์ด ๋์ค๋ฉด์ ์์ ๋งํผ์ ๋ช
์ฑ์ ๋ณด์ฌ์ฃผ์ง๋ ๋ชปํ๊ณ ์์ง๋ง, LSTM์ด ์ ๋ง ๋๋จํ๋ ๋ชจ๋ธ์ด์๋ค๋ ์ ์ ๋ณํจ์ด ์๋ค. ๊ทธ๋์!! ์ด๋ฒ ํฌ์คํธ์์๋ ์ด LSTM network์ ๋ํด์ ์์๋ณด๋ ค๊ณ ํ๋ค. ๋ณธ ํฌ์คํธ๋ colah's blog๋ฅผ ์ฐธ๊ณ ํ์ฌ ์์ฑ๋์๋ค. Table of Contents 1. RNN (Recurrent Neural Networks) 2. ์ฅ๊ธฐ์์กด์ฑ(Long-Term Dependencies) ๋ฌธ์ 3. LSTM Networks 3-1. LSTM์ ํต์ฌ ์์ด๋์ด 3-2. ๋จ๊ณ ๋ณ๋ก LSTM..
Paper Reading ๐/Deep Learning
Why I read this paper? ์ง๋ ๋ฒ ํฌ์คํธ์์ ๋ค๋ค๋ DistilBERT์ ๋ํด์ ์์ธํ ๊ณต๋ถํ๋ ์ค ์ด DistilBERT์ ๋ฉ์ธ์ด ๋๋ Knowledge Distillation์ ๋ํด์ ๋์ฑ ์์ธํ๊ฒ ์์๋ณด๊ณ ์ Knowledge Distillation์ ๋ํด ์ฒ์์ผ๋ก ์๊ฐํ ์ด ๋
ผ๋ฌธ์ ์ฐพ์ ์ฝ๊ฒ ๋์๋ค. ์ด Knowledge Distillation์ ํ์ฌ ์ ๊ฒฝ๋ง ๋ชจ๋ธ๋ค์ ๋ฌธ์ ์ ์ธ ๊ธ๊ฒฉํ๊ฒ ์ฆ๊ฐํ๋ ํ๋ผ๋ฏธํฐ ์๋ก ์ธํ ๋ชจ๋ธ์ ์ฉ๋ ๋ฌธ์ ๋ฅผ ์ํ์์ผ ์ค ์ ์๋ ๋ฐฉ๋ฒ์ผ๋ก ์กฐ๊ธ์ ์ฑ๋ฅ ์์ค์ด ์๊ธด ํด๋ ํ๊ธฐ์ ์ธ ์๊ฐ ์ ์ฝ์ ๋ณด์ฌ์คฌ๋ค. ๋ณธ ํฌ์คํธ๋ ๊ธฐ์กด์ ํฌ์คํธ๋ค๊ณผ๋ ๋ค๋ฅด๊ฒ ์ข ๋ ์ ์ฐํ ์ ๊ฐ๋ฅผ ๊ฐ์ ธ๊ฐ ๋ณด๊ณ ์ ํ๋ค. (๋
ธ๋ ฅ์ ํ์ผ๋, ๊ทธ๋ ์ง ์์ ์๋ ์์ต๋๋ค~ ^^) The overvi..
Paper Reading ๐/Deep Learning
What is the purpose of this post? ์ด๋ฒ ํฌ์คํธ์์๋ CNN network์ ์ญ์ฌ์ ๋ํด ์์๋ณด์๋ค. CNN์๋ ์ฌ๋ฌ๊ฐ์ง network๊ฐ ์์๋๋ฐ, ์๋ฅผ ๋ค์ด LeNet๊ณผ AlexNet ๋ฑ์ด ์์๋ค. ์ด๋ฒ ํฌ์คํธ์์๋ ์ด๋ ํ CNN network๋ค์ด ์์๋์ง ์์๋ณด์๋ค. Table of Contents 1. LeNet 2. AlexNet 3. VGGNet 4. GoogLeNet 5. ResNet 6. ResNeXt 7. Xception 8. MobileNet 9. DenseNet 10. EfficientNet 11. ConvNext 1. LeNet(1998) Gradient-Based Learning Applied to Document Recognition LeNet์ ์..
'Paper Reading ๐/Deep Learning' ์นดํ
๊ณ ๋ฆฌ์ ๊ธ ๋ชฉ๋ก
๋จ์ถํค
๋ด ๋ธ๋ก๊ทธ
๋ด ๋ธ๋ก๊ทธ - ๊ด๋ฆฌ์ ํ ์ ํ |
Q
Q
|
์ ๊ธ ์ฐ๊ธฐ |
W
W
|
๋ธ๋ก๊ทธ ๊ฒ์๊ธ
๊ธ ์์ (๊ถํ ์๋ ๊ฒฝ์ฐ) |
E
E
|
๋๊ธ ์์ญ์ผ๋ก ์ด๋ |
C
C
|
๋ชจ๋ ์์ญ
์ด ํ์ด์ง์ URL ๋ณต์ฌ |
S
S
|
๋งจ ์๋ก ์ด๋ |
T
T
|
ํฐ์คํ ๋ฆฌ ํ ์ด๋ |
H
H
|
๋จ์ถํค ์๋ด |
Shift + /
โง + /
|
* ๋จ์ถํค๋ ํ๊ธ/์๋ฌธ ๋์๋ฌธ์๋ก ์ด์ฉ ๊ฐ๋ฅํ๋ฉฐ, ํฐ์คํ ๋ฆฌ ๊ธฐ๋ณธ ๋๋ฉ์ธ์์๋ง ๋์ํฉ๋๋ค.