Paper Reading ๐/Natural Language Processing
What is the purpose of this paper? Transformer๋ longer-term dependency๋ฅผ ํ์ตํ ์ ์๋ ๋ฅ๋ ฅ์ด ์์ง๋ง, ๊ณ ์ ๋ ๊ธธ์ด์ ๋ฌธ๋งฅ( fixed-length context)๋ก ์ธํด ์ ํ๋ฐ๊ฒ ๋๋ค. ๋ฐ๋ผ์ ์ด ๋
ผ๋ฌธ์์๋ ์๋ก์ด ์ ๊ฒฝ๋ง architecture์ธ Transformer-XL์ ์๊ฐํ๋ค. ์ด๊ฒ์ ๊ณ ์ ๋ ๋ฌธ๋งฅ(fixed context)์ ๋จ์ ์ ํด๊ฒฐํ๋, ์๊ฐ์ ์ธ ์ผ๊ด์ฑ์ ํด์น์ง ์๋ ์๋ก์ด architecture์ด๋ค. ์ด Transforemr-XL์ longer-term dependency๋ฅผ ๊ฐ๋ฅํ๊ฒ ํ์ ๋ฟ๋ง ์๋๋ผ, context fragmentation ๋ฌธ์ ๋ฅผ ํด๊ฒฐํ์๋ค. ์ด๋ค์ ๋ํด์๋ ๋ณธ๋ฌธ์์ ์ดํด๋ณด๋๋ก ํ๊ฒ ๋ค. Table of Conten..
Paper Reading ๐/Natural Language Processing
The importance of this paper ํ์ฌ ๋ง์ Language model๋ค์ ๊ธฐ๋ฐ์ด ๋์ด์ฃผ๊ณ ์๋ Transformer, ์ด Transformer์ ๋ฐ๋ช
์ผ๋ก NLP ๋ถ์ผ๋ ์์ฒญ๋ ๋ฐ์ ์ ์ด๋ฃฉํ์๋ค. ๋ํ์ ์ผ๋ก BERT์ GPT๊ฐ ๊ฐ๊ฐ Transformer์ Encoder์ Decoder์ ์ด์ฉํ์ฌ ์ ์๋์๋ค. ๋ณธ ๋ธ๋ก๊ทธ์ ์ด์ ํฌ์คํธ๋ค์์ ๋ค๋ค๋ Language Model paper review๋ฅผ ์ฝ์ด๋ณด๊ธฐ ์ ์ ์ด ํฌ์คํธ๋ฅผ ์ ํ์ผ๋ก ์ฝ์ด๋ณด๊ธธ ๋ฐ๋๋ค. ์๋ํ๋ฉด ์ด Transformer์ ๋ํด ์์ธํ๊ฒ ์ดํด๋ฅผ ํด์ผ๋ง ์ด ๋ชจ๋ธ๋ค์ ์ดํดํ ์ ์๊ธฐ ๋๋ฌธ์ด๋ค. ๊ทธ๋ฌ๋ฉด ์ด๋ฒ ํฌ์คํธ๋ฅผ ์์ํด๋ณด๊ฒ ๋ค. $($2023.02.09 ์ถ๊ฐ$)$ Transformer ๊ตฌํ ์ฝ๋ ์ค์ต https://github.c..
Paper Reading ๐/Natural Language Processing
Pre-trained Language Modeling paper reading ์์ฆ NLP ๋ถ์ผ์์ ๋จ๊ฑฐ์ด ๊ฐ์์ธ pre-trained Language Modeling์ ๊ดํ ์ ๋ช
ํ ๋
ผ๋ฌธ๋ค์ ์ฝ๊ณ ๋ฆฌ๋ทฐ๋ฅผ ํ์๋ค. ์ด Pre-trained Language Modeling paper reading์ ์ด ํฌ์คํธ๋ง์ผ๋ก ๋๋๋ ๊ฒ์ด ์๋๋ผ ์ฐ์๋ ํฌ์คํธ๋ฅผ ์์ฑํ ์๊ฐ์ด๋ค. ์ด๋ฒ ํฌ์คํธ์์๋ ์ ๋ฒ ํฌ์คํธ์ BERT์ ์ด์ด์ GPT-1์ ๋ํด์ ๋ฆฌ๋ทฐํ์๋ค. ELMo: 'Deep contextualized word representations' reading & review BERT: 'Pre-training of Deep Bidirectional Transformers for Language Understanding..
Paper Reading ๐/Natural Language Processing
Pre-trained Language Modeling paper reading ์์ฆ NLP ๋ถ์ผ์์ ๋จ๊ฑฐ์ด ๊ฐ์์ธ pre-trained Language Modeling์ ๊ดํ ์ ๋ช
ํ ๋
ผ๋ฌธ๋ค์ ์ฝ๊ณ ๋ฆฌ๋ทฐ๋ฅผ ํ์๋ค. ์ด Pre-trained Language Modeling paper reading์ ์ด ํฌ์คํธ๋ง์ผ๋ก ๋๋๋ ๊ฒ์ด ์๋๋ผ ์ฐ์๋ ํฌ์คํธ๋ฅผ ์์ฑํ ์๊ฐ์ด๋ค. ์ด๋ฒ ํฌ์คํธ๋ ์ ๋ฒ ํฌ์คํธ์ ELMo์ ์ด์ด์ BERT์ ๋ํด์ ๋ฆฌ๋ทฐํ์๋ค. ELMo: 'Deep contextualized word representations' reading & review BERT: 'Pre-training of Deep Bidirectional Transformers for Language Understanding' r..
Paper Reading ๐/Natural Language Processing
Pre-trained Language Modeling paper reading ์์ฆ NLP ๋ถ์ผ์์ ๋จ๊ฑฐ์ด ๊ฐ์์ธ pre-trained Language Modeling์ ๊ดํ ์ ๋ช
ํ ๋
ผ๋ฌธ๋ค์ ์ฝ๊ณ ๋ฆฌ๋ทฐ๋ฅผ ํ์๋ค. ์ด Pre-trained Language Modeling paper reading์ ์ด ํฌ์คํธ๋ง์ผ๋ก ๋๋๋ ๊ฒ์ด ์๋๋ผ ์ฐ์๋ ํฌ์คํธ๋ฅผ ์์ฑํ ์๊ฐ์ด๋ค. ๊ทธ๋์ ์ด ํฌ์คํธ๋ Pre-trained Language Modeling paper reading์ ์ฒซ ์๋ง์ ์ฌ๋ ํฌ์คํธ์ด๋ค. ์์ผ๋ก์ ํฌ์คํธ ๊ณํ์ ์๋์ ๊ฐ๋ค. ELMo: 'Deep contextualized word representations' reading & review(this post) BERT: 'Pre-training of ..
Paper Reading ๐/Natural Language Processing
Why I studied Embedding Matrix? NLP ๋ถ์ผ์์ ์ค์ํ๊ฒ ์ฌ์ฉ๋๋ Emebedding Matrix๋ค์ ๋ํด ํ์ต์ ํ์๋ค. Embedding Matrix๋ฅผ ํตํด ๋ฌธ์ฅ์์ ์ด๋ ํ ๋จ์ด๋ ๋ฌธ์ฅ์ด ์ผ๋ง๋ ์ค์ํ ์๋ฏธ๋ฅผ ๊ฐ์ง๋์ง๋ฅผ ๊ณ์ฐํ ์ ์๊ฒ ๋๋ค. (์์ ): ELMo, BERT, GPT-1์ ๋ฐ๋ก ๋
ผ๋ฌธ ๋ฆฌ๋ทฐ๋ก ์ฌ๋ฆฌ๋๋ก ํ๊ฒ ์ต๋๋ค. Table of Contents 1. What is Language Model? 2. Count based word representation 2-1. TF-iDF 3. Word Embedding 3-1. Word2Vec 3-2. GloVe 1. What is Language Model? ์ธ์ด ๋ชจ๋ธ (Language Model)์ด๋, ์ธ์ด๋ฅผ ๋ชจ๋ธ๋งํ๊ธฐ ์..
Paper Reading ๐/Natural Language Processing
Why I read this paper? fake news detection ๊ณผ์ ์์ ๋ชจ๋ธ์ด ์ฃผ์ด์ง ๋ฐ์ดํฐ์ ์ด๋ ํ ๋จ์ด ๋๋ ๋ฌธ์ฅ์ ๋ํด ์ค์์ฑ์ ๋ณด์ด๋์ง ํ์
ํ๊ธฐ ์ํด CAM๊ณผ Grad-CAM์ ํ์ฉํ์ฌ Visualization์ ์งํํ ๋ถ๋ถ์ ์๊ธฐ ์ํด. Grad-CAM์ ์ด๋ฏธ์ง์ ์ ์ฉํ๊ธฐ ์ํด ๊ฐ๋ฐ๋ ๊ธฐ์ ์ธ๋ฐ ์ด๋ฅผ ์ด๋ป๊ฒ text data์ ์ ์ฉํ๋์ง ๊ถ๊ธํด์ ์ฝ๊ฒ ๋์๋ค. Table of Contents 1. Introduction 2. Methodology 3. Experiments & Results(์ผ์ ๋ถ๋ถ๋ง) 4. Conclusion 1. Introduction ์ด ๋
ผ๋ฌธ์์๋ representation space์ ํ๋ฆฌํฐ๋ฅผ ์๋ก ๋ค๋ฅธ ๊ฐ์ง์ ์ง์ง ๋ด์ค ๋ฐ์ดํฐ์
์ ๋ํ linear sepa..