Lecture 3 강의를 들으면 가중치(W), Loss Function, Optimization 관계에 대해 이해할 수 있습니다. Multiclass SVM Loss Function을 이해할 수 있습니다. Regularization을 이해할 수 있습니다. L1과 L2를 비교할 수 있습니다. Gradient Descent의 종류를 알고 이해할 수 있습니다. TimeStamp 시간 내용 부가 설명 00:00 공지사항 안내 02:15 2강 복습 04:42 2강에서 설명이 부족했던 Linear Classification 보충 설명 05:55 어떻게 W를 정할지 (저번 강의에서는 임의의 W를 사용) 07:25 W가 좋은지 나쁜지 판별할 수 있는 정량화 방법 필요 → Loss Function 07:58 덜 구린 W..
기록을 해야 하는 것을 알기 때문에 이렇게 또 적어봅니다. 👏Optimization이란 Loss를 최소화하는 W를 찾아가는 과정입니다. 여기서 방법과 목적을 잊지말아야합니다. loss 최소화를 위해 그에 맞는 W를 어떻게 찾을 건지에 대한 공부입니다. Random Search 임의로 가중치(W)를 선택해서 해당 가중치의 loss를 계산합니다. 당연히 실제로 쓰이지는 않습니다. 정확도가 아주 낮기 때문입니다. Follow the slope 산 정상에서 눈을 가린 채 내려간다고할 때, step마다 기울기가 내려가는 쪽으로 한 걸음씩 걸어야 할 것입니다. 2-1. Numeric gradient (수치적으로 계산) 코드에 h = 0.00001 을 넣어서 돌린다는 것은 미분이 아니라 그저 기울기를 구하는 것이다...
- Total
- Today
- Yesterday
- 자전거 렌트
- 태국 바나나
- SUREERAT 식당
- AIFFEL
- 태국 맥주 살 수 있는 시간
- 나 홀로 투어
- 방콕에서 아유타야 기차
- 이글스파크
- 얼리버드 호스텔
- 태국Chester's 배달
- VIENG TAWAN 숙소
- 아유타야에서 수코타이 버스로
- cs231n
- 태국 음료수
- 왓시춤
- 아유타야자전거
- 아유타야 야시장
- 아이펠
- 방콕 3일차
- 왓 소라삭
- 태국 7일차
- 태국과일가격
- 수코타이 역사 공원
- 아이펠 후기
- 페이페이리
- 카페 아마존
- optimization
- 인공지능
- 왓 프라파이 루앙
- 기아타이거즈
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |