[cs224n] Lecture1 - Intro & Word Vectors

2023. 10. 6. 23:59· ✍️ STUDY/NLP
목차
  1. 1. WordNet
  2. 2. One-Hot vector
  3. 3. Distributional semantics
  4. 4. Word vectors
  5. Objective function
  6. Prediction function

How do we represent the meaning of word?

1. WordNet

동의어(synonym) 및 언어의 상하관계(hypernyms)를 담고있는 사전.


But, WordNet은 아래와 같은 몇가지 문제점이 가지고 있음.

  • 뉘앙스를 반영하지 못함.(e.g. proficient는 특정 context에서만 good과 동의어 관계)
  • 새로운 단어 반영이 어려움.(e.g. wicked, badass 등)  → 업데이트가 불가능!
  • 주관적임.
  • human labor, 즉 인간의 손을 거쳐야 함.
  • 정확한 word similarity를 계산할 수 없음.

2. One-Hot vector

Word를 discrete symbol로 여기는 방식. 특정 단어의 위치에 해당하는 숫자만 1이고 나머지는 0으로 표시.


Vocabulary 안의 word 갯수가 vector의 dimension이 된다. 즉, 위 사진에서 motel과 hotel의 dimension은 15차원이 된다.

 

But, One-Hot vector 또한 아래와 같은 문제점을 지님.

  • 단어 vector가 orthogonal (수직) → 단어 간의 simlirarity를 표현하기 어려움. ( ∵  dot product가 0)

3. Distributional semantics

한 단어의 의미는 주변에 특정 단어들이 얼마만큼 등장하는지로 결정이 되며, 이는 곧 해당 단어의 context에 영향을 끼친다.

4. Word vectors

비슷한 context를 지닌 words들의 vector가 비슷하도록 만들기 위해서 Word를 dense rvector로 표현.

Word vectors 또한 distributed representation 중 하나이며, word embedding 또는 word representation라고 불림.


Word2vec

Word vector를 학습하는 framework.

Word2Vec의 Idea는 아래와 같음

  • text에 대한 large corpus를 가짐
  • 모든 단어에 대해서 vector로 표현
  • word의 center word는 c,  context words를 o로 표현 → 위 그림에서 into가 c, problems, turning, banking,crises가 o에 해당 
  • c 가 주어졌을 때, o가 등장하는 확률을 가지고 c와 o에 대한 word vector간의 similarity 결정
  • 위 확률을 maximize 하면서 word vector 조정

 

Objective function


Window size m에 대해 center word W_t​가 주어지면 그에 대한 context words를 예측.

 

Objective function은 편의를 위해 log를 사용하여 prod를 sum으로 바꾸고 −를 추가해 minimize 하도록 함.

The objective function은 average negative log likelihood라고 할 수 있음.

즉, 결국에는 Objective를 minimize를 함으로써 Likelihood를 maxmize하는 것이 최종 목표이다.

Minimizing objective function ⟺ Maximizing predictive accuracy

 

Question. How to calculate P(W_(t+j) | W_t ; θ)?

Answer : w에 대한 두가지 vector를 사용

  • V_w :  w가 center word
  • U_w :  w가 context word
  • Then,  center word c, 그리고 context word o 에 대해서 아래 그림과 같은 식이 나온다.

→ 여기서 exp는 지수함수를 의미하며, 위 식은 softmax함수를 적용한 식이다. softmax에 대한 설명은 아래에 나옴.

Prediction function


Center word와 context word 사이의 dot product를 통한 similarity를 구하고 이를 확률 분포로 만들기 위해 softmax를 적용함.

softmax에 대해서 간단히 설명하자면 아래 사진과 같다.  expotential함수를 사용하여 모든 벡터 요소의 합이 1이 되도록 0~1사이의 실수값을 반환.

* Word2Vec의 추가 학습 자료는 첨부하겠음

 

학습은 gradient descent를 사용하여 진행 가능.

첨부 파일

Word2Vec.pdf
2.25MB

 

'✍️ STUDY > NLP' 카테고리의 다른 글

[cs224n] Lecture3 - Backprop and Neural Networks  (0) 2023.11.19
[cs224n] Lecture2 - Neural Classifiers  (0) 2023.10.07
[Text Mining] 감성분석  (1) 2023.03.22
[Text Mining] 토픽모델링  (0) 2023.03.08
[Text Mining] 차원 축소  (0) 2023.02.27
  1. 1. WordNet
  2. 2. One-Hot vector
  3. 3. Distributional semantics
  4. 4. Word vectors
  5. Objective function
  6. Prediction function
'✍️ STUDY/NLP' 카테고리의 다른 글
  • [cs224n] Lecture3 - Backprop and Neural Networks
  • [cs224n] Lecture2 - Neural Classifiers
  • [Text Mining] 감성분석
  • [Text Mining] 토픽모델링
Ju_pyter
Ju_pyter
Hi🖐️ I'm interested in MultiModal & PromptLearning and dreaming of becoming a Data Scientist!
Ju_pyter
쭈의 공부기록
Ju_pyter
전체
오늘
어제
  • 📁 All posts (31)
    • ✍️ STUDY (18)
      • DeepLearning (7)
      • NLP (11)
      • Algorithms (0)
      • Multi-Modal (0)
    • 📜 Paper (4)
      • NLP (0)
      • DeepLearning (1)
      • Multi-Modal (3)
    • 💭 Ideation (0)
      • NLP (2)
      • Multi-Modal (1)
    • ❓Issue (1)
    • 🖥️ ProJects (4)
      • Deep Daiv (2)
      • Kibwa (1)
      • Hanium (1)

블로그 메뉴

  • 홈
  • 태그
  • 방명록

공지사항

인기 글

태그

  • triplet network
  • 2023 한이음
  • 화풍학습
  • 머신러닝프로젝트
  • N-GRAM
  • triplet
  • 딥러닝 기초
  • 딥러닝
  • Word2vec
  • KOTE Error
  • ImageBind
  • 자연어처리
  • 텍스트마이닝
  • cs224n
  • 한이음 ICT 멘토링
  • 한이음
  • 자연어 처리
  • 태블로
  • 정밀도
  • metric learning
  • 재현율
  • 다중 감정 분류
  • mmv
  • training_epoch_end
  • KoBERT
  • 점자 번역
  • 대조 학습
  • tri-modal
  • 그림체 학습
  • NLP

최근 댓글

최근 글

hELLO · Designed By 정상우.v4.2.1
글쓰기 / 관리자
Ju_pyter
[cs224n] Lecture1 - Intro & Word Vectors
상단으로

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.