티스토리 뷰
"해당 포스팅은 Coursera 에서 수강한 Andew Ng 의 deep learning specialization 코스를 요약한 것입니다."
이번 주 수업의 coding lab 에서도 배울 게 많았기 때문에 여기에 짧게 정리.
그 전에 알아둘 게 있는게 Convolution Neural Network 를 배울 때, 보통 conv layer / max pooling layer / fully-connected layer 로 이루어졌다고 배웠다. 그런데, fully-connected layer 를 conv layer 로 표현 ? 계산하는 게 가능하다 (왜 그렇게 하는지는 모르겠는데 이점이 있으니까 그렇게 하겠지?)
아래 슬라이드에서 첫번째 줄이 이전에 배운 classic 한 CNN 구조. conv + pooling 을 지나서 FC 를 거치고 최종적으로 4 개의 class 를 classify 하는 soft-max layer를 통과. 그런데 이걸 conv net 으로 모두 대체 (필터를 이용해서) 하면 아랫줄의 그림과 같이 표현된다. 이 때, conv net 의 필터가 arbitrary linear function 의 역할을 한다고 한다. 그리고 수학적으로 첫번째 줄과, 두번째 줄은 결과적으로 같다고 함. 어쨌든 YOLO 같은 데서 이렇게 쓰기 때문에 짚고 넘어간듯.
본격적으로 YOLO architecture 의 디테일을 보면 아래와 같다.
Input Image (608, 608, 3) 을 Deep CNN 을 통과시켜서 (19, 19, 5, 85) 으로 encoding 함. (5 - number of anchor boxees, 85 - $P_c$, 좌표, 그리고 80개의 class 에 대한 probability)
근데 4차원의 encoding 에서 마지막 2개의 dimension 을 합쳐서 flattten 한다.
여기까지 해서 candidate bounding box 를 찾았다면 이제는 filter 할 차례. 본강에서 배웠듯이
1) score 몇 점 이하는 다 filter
2) 나머지 박스에 대해서는 IoU 기준으로 filter.
여기서 1) 번 하기 위해서 score 를 구해야 하는데 각 box 의 score 는 아래와 같이 구할 수 있음.
마지막으로 2) 실행하기 위해서 bounding box 간 IoU 계산. 끄읕
'Deep learning (일반) > deeplearning.ai' 카테고리의 다른 글
[Course 5 - Week 1] Recurrent Neural Network (1) | 2020.12.12 |
---|---|
Bias vs Variance (편향, 분산) (0) | 2020.10.29 |
[Course4 - Week3] Object Detection (feat. YOLO) (0) | 2020.10.25 |
[Course4 - Week2] State of computer vision (0) | 2020.08.10 |
[Course4 - Week1] Convolutional neural networks (0) | 2020.07.28 |
- Total
- Today
- Yesterday
- 워터마킹
- 뉴런
- Contextual Embedding
- word embedding
- weight vector
- Neural Language Model
- nlp
- language model
- 뉴럴넷
- Pre-trained LM
- Statistical Language Model
- Bert
- GPTZero
- neural network
- LM
- 벡터
- 언어모델
- transformer
- cs224n
- Elmo
- Attention Mechanism
- neurone
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |