본문 바로가기 메뉴 바로가기

공부하는 제이의 블로그

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

공부하는 제이의 블로그

검색하기 폼
  • 분류 전체보기 (53)
    • NLP (28)
      • CS224n (14)
      • 이것저것 (12)
      • HF + Pytorch (0)
    • Programming (2)
    • Image recognition (4)
      • 이것저것 (4)
    • Deep learning (일반) (15)
      • deeplearning.ai (11)
      • Meta learning (0)
    • Mathmatics for Machine Lear.. (0)
  • 방명록

Neural Language Model (1)
[CS224n] Lecture8. RNN and language model

1. Traditional 한 Language modeling 언어 모델이란 건 사실 간단히 말하면, 연속적인 단어들이 주어졌을 때 그 sequence 에 대한 probability 를 주는 모델이다. 이런 언어 모델을 다양한 NLP task 에 함께 쓰이는데 예를 들어 자동 번역 모델이라든지, 음성 인식 모델에 쓰이곤 한다. 이 언어 모델을 word order 이나 word choice 에 있어서 좀 더 자주 쓰이는 패턴의 phrases 에 더 높은 probability 를 부여하는 모델이다. 그렇다면 기존의 언어 모델은 어떻게 만들어졌느냐! 간단하게 말하면 count 를 이용해서 만들어졌다. 노가다처럼 들리지만, 주어진 corpus 에서 window 를 옮겨가면서 모든 단어에 대한 co-occurre..

NLP /CS224n 2019. 5. 11. 22:41
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
  • bowbowbow
TAG
  • Pre-trained LM
  • Attention Mechanism
  • nlp
  • 뉴럴넷
  • Neural Language Model
  • cs224n
  • Contextual Embedding
  • language model
  • 언어모델
  • 워터마킹
  • LM
  • neurone
  • neural network
  • transformer
  • GPTZero
  • 벡터
  • word embedding
  • weight vector
  • Elmo
  • 뉴런
  • Statistical Language Model
  • Bert
more
«   2025/06   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바