본문 바로가기 메뉴 바로가기

공부하는 제이의 블로그

프로필사진
  • 글쓰기
  • 관리
  • 태그
  • 방명록
  • RSS

공부하는 제이의 블로그

검색하기 폼
  • 분류 전체보기 (53)
    • NLP (28)
      • CS224n (14)
      • 이것저것 (12)
      • HF + Pytorch (0)
    • Programming (2)
    • Image recognition (4)
      • 이것저것 (4)
    • Deep learning (일반) (15)
      • deeplearning.ai (11)
      • Meta learning (0)
    • Mathmatics for Machine Lear.. (0)
  • 방명록

벡터 (1)
뉴럴 네트워크 & 뉴런 - units 개수와 weight shape 이해하기!

오마이갓... 드디어 시원하게 벡터와, 뉴럴넷 이미지를 연관시켜서 이해함. 그동안 그렇게 봐도 이해가 안 됐던 데는 이유가 있었음. 다시 한번 뉴럴넷 (input layer - hidden layer - output layer 로 이루어진) 과 벡터를 함께 보면서 이해를 해보자.   우선, 딥러닝에서는 모든 것이 colum vector 기준. 예를 들어서 우리가 데이터 하나를 가지고 있는데, Features 가 3개가 있다. 이걸 벡터 혹은 행렬로 나타내라고 한다면  $\begin{bmatrix} x_{1} \quad x_{2} \quad x_{3}\end{bmatrix}$  가 자연스럽게 느껴짐 (나만 그런가..?). 그렇지만 벡터에서는 colum vector 기준이기 때문에  $\begin{bmatr..

Deep learning (일반) 2019. 10. 5. 19:54
이전 1 다음
이전 다음
공지사항
최근에 올라온 글
최근에 달린 댓글
Total
Today
Yesterday
링크
  • bowbowbow
TAG
  • Attention Mechanism
  • transformer
  • 뉴런
  • weight vector
  • nlp
  • Elmo
  • GPTZero
  • Bert
  • LM
  • 뉴럴넷
  • 언어모델
  • Contextual Embedding
  • Pre-trained LM
  • cs224n
  • 벡터
  • neural network
  • language model
  • Neural Language Model
  • 워터마킹
  • word embedding
  • neurone
  • Statistical Language Model
more
«   2025/05   »
일 월 화 수 목 금 토
1 2 3
4 5 6 7 8 9 10
11 12 13 14 15 16 17
18 19 20 21 22 23 24
25 26 27 28 29 30 31
글 보관함

Blog is powered by Tistory / Designed by Tistory

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.