hojeomi blog
2. Linear Regression의 cost 최소화 알고리즘의 원리 설명 본문
* Sung Kim 교수님의 유튜브 강의 공부내용입니다.
- cost가 가장 작은 W 찾는 것
- 가장 대표적인 Gradient descent algorithm(경사하강법)
- Formal definition에서 2로 나누는 이유: 미분 시, 지수 2가 곱하기 2로 내려오는데, 이때 계산을 더 쉽게 하기 위해 2로 한번 더 나눠준다.
- 최종 식의 의미(W := W - a/m~): 필기 참고
- 좋지 않은 cost function 예시: 어떤 점에서 시작하는냐에 따라 결과값이 달라짐
- 그래서 꼭 convex한지 확인해야함. 오목해야 한 곳으로 모임.
'AI > Machine & Deep Learning' 카테고리의 다른 글
4-1. multi-variable linear regression (0) | 2021.01.15 |
---|---|
4-2. multi-variable linear regression을 TensorFlow에서 구현하기 (0) | 2021.01.15 |
3-2. Linear Regression 의 cost 최소화에서 Gradient 조절 (0) | 2021.01.14 |
3-1. Linear Regression 의 cost 최소화의 TensorFlow 구현 (0) | 2021.01.14 |
1. TensorFlow와 간단한 Linear Regression (0) | 2021.01.12 |
Comments