본문 바로가기 메뉴 바로가기

공부하는 제이의 블로그

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

공부하는 제이의 블로그

검색하기 폼
  • 분류 전체보기 (53)
    • NLP (28)
      • CS224n (14)
      • 이것저것 (12)
      • HF + Pytorch (0)
    • Programming (2)
    • Image recognition (4)
      • 이것저것 (4)
    • Deep learning (일반) (15)
      • deeplearning.ai (11)
      • Meta learning (0)
    • Mathmatics for Machine Lear.. (0)
    • 구직의 모든 것 (0)
  • 방명록

word embedding (1)
Word embedding vs Contextual embedding

Traditional word embedding 방식은, fixed vocabulary 가 있고 각 vocabulary 마다 학습된 word embedding 이 있는 형태다. 마치 사전처럼 각 단어마다 그 단어의 word embedding 이 있어서 원하는 단어의 index 만 알면, 그 단어의 word embedding 을 가지고 올 수 있다. 반면, 이 단어의 word embedding 은 항상 고정된 상태로 (static) 바뀌지 않는다. 문제는 동음이의어의 단어를 embedding 할 때이다. Sentence 1: The mouse ran away, squeaking with fear. Sentence 2: Click the left mouse button twice to highlight th..

NLP /이것저것 2021. 5. 4. 17:29
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
  • bowbowbow
TAG
  • Neural Language Model
  • neural network
  • weight vector
  • LM
  • 벡터
  • 뉴럴넷
  • Attention Mechanism
  • Bert
  • cs224n
  • Elmo
  • transformer
  • S
  • 언어모델
  • 뉴런
  • q
  • Contextual Embedding
  • word embedding
  • nlp
  • neurone
  • Pre-trained LM
  • GPTZero
  • language model
  • 워터마킹
  • Statistical Language Model
more
«   2025/11   »
일 월 화 수 목 금 토
1
2 3 4 5 6 7 8
9 10 11 12 13 14 15
16 17 18 19 20 21 22
23 24 25 26 27 28 29
30
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바