Deep Residual Learning for Image Recognition
1. Introduction 왜 deeper layer의 성능이 shallow layer 보다 좋지 않았다. overfitting 때문일까? -> 그것도 아니더라. 3.1. Residual Learning ) 실험을 해봤더니, H(x)가 x가 되는 것 보다 f(x)가 0이 되는게 더 쉽다. Residual == F(x) 변화량(Residual)만 학습해도 되도록 해보자 3.2. Identity Mapping by Shortcuts 몇 개의 스택 레이어마다 잔여 학습을 채택 Building block의 수식은 아래와 같다. y=F(x,{W_i})+x x : input vector y : output vector F(x,{w_i}) -> 학습됨을 보여줌 2 layers => F=W_2\sigma(W_1x) ..
인공지능 AI
2021. 6. 25. 01:02
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- optimization
- 아유타야자전거
- 자전거 렌트
- 페이페이리
- 수코타이 역사 공원
- 아이펠 후기
- 태국 맥주 살 수 있는 시간
- SUREERAT 식당
- VIENG TAWAN 숙소
- cs231n
- 태국 음료수
- 태국 바나나
- 얼리버드 호스텔
- 이글스파크
- 아유타야 야시장
- 왓 소라삭
- 아이펠
- 태국 7일차
- 왓 프라파이 루앙
- 방콕 3일차
- 태국과일가격
- AIFFEL
- 태국Chester's 배달
- 카페 아마존
- 아유타야에서 수코타이 버스로
- 인공지능
- 기아타이거즈
- 방콕에서 아유타야 기차
- 나 홀로 투어
- 왓시춤
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
글 보관함