본문 바로가기 메뉴 바로가기

공부하는 제이의 블로그

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

공부하는 제이의 블로그

검색하기 폼
  • 분류 전체보기 (53)
    • NLP (28)
      • CS224n (14)
      • 이것저것 (12)
      • HF + Pytorch (0)
    • Programming (2)
    • Image recognition (4)
      • 이것저것 (4)
    • Deep learning (일반) (15)
      • deeplearning.ai (11)
      • Meta learning (0)
    • Mathmatics for Machine Lear.. (0)
  • 방명록

Attention Mechanism (1)
[CS224N-2019W] 13. Contextual Word Representations and Pretraining

"해당 포스팅은 Stanford CS224N - 2019 winter 강좌를 정리한 내용입니다." Transformer 를 이해하기 위해서 오랜만에 다시 찾은 CS224N. 13번째 강의는 BERT, ElMo 등을 비롯한 transformer 모델이 어떻게 등장하게 됐는지부터 시작해서 transformer 모델의 구조, 그리고 대표적인 모델인 BERT에 대해서 좀 더 자세히 알아본다. 1. 기존 word vectors 의 한계 이전에 배웠던 word vector 모델로는 Word2vec, GloVe, fastText 등이있다. Pre-trained word vector model 이 배운 Voabulary 에 대해서 각 단어마다 매칭되는 word vector 가 있고, index를 사용해서 필요한 단어의..

NLP /CS224n 2021. 5. 23. 17:26
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
  • bowbowbow
TAG
  • Elmo
  • Neural Language Model
  • Attention Mechanism
  • language model
  • word embedding
  • transformer
  • 언어모델
  • 뉴럴넷
  • Contextual Embedding
  • cs224n
  • weight vector
  • LM
  • GPTZero
  • Pre-trained LM
  • neural network
  • Bert
  • 워터마킹
  • 뉴런
  • neurone
  • 벡터
  • Statistical Language Model
  • nlp
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바