본문 바로가기 메뉴 바로가기

공부하는 제이의 블로그

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

공부하는 제이의 블로그

검색하기 폼
  • 분류 전체보기 (53)
    • NLP (28)
      • CS224n (14)
      • 이것저것 (12)
      • HF + Pytorch (0)
    • Programming (2)
    • Image recognition (4)
      • 이것저것 (4)
    • Deep learning (일반) (15)
      • deeplearning.ai (11)
      • Meta learning (0)
    • Mathmatics for Machine Lear.. (0)
  • 방명록

Contextual Embedding (1)
Word embedding vs Contextual embedding

Traditional word embedding 방식은, fixed vocabulary 가 있고 각 vocabulary 마다 학습된 word embedding 이 있는 형태다. 마치 사전처럼 각 단어마다 그 단어의 word embedding 이 있어서 원하는 단어의 index 만 알면, 그 단어의 word embedding 을 가지고 올 수 있다. 반면, 이 단어의 word embedding 은 항상 고정된 상태로 (static) 바뀌지 않는다. 문제는 동음이의어의 단어를 embedding 할 때이다. Sentence 1: The mouse ran away, squeaking with fear. Sentence 2: Click the left mouse button twice to highlight th..

NLP /이것저것 2021. 5. 4. 17:29
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
  • bowbowbow
TAG
  • 뉴런
  • 벡터
  • weight vector
  • Statistical Language Model
  • Neural Language Model
  • neurone
  • language model
  • word embedding
  • nlp
  • cs224n
  • Elmo
  • 뉴럴넷
  • Bert
  • 언어모델
  • Attention Mechanism
  • Contextual Embedding
  • transformer
  • LM
  • GPTZero
  • Pre-trained LM
  • 워터마킹
  • neural network
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바