컴퓨터/ML
[Tensorflow #3] Linear Regression (2)
OrehOnyah
2019. 12. 27. 14:02
이 내용은 Sung kim님의 강의를 바탕으로 만들어졌습니다.
Hypothesis
모델.
사전적 의미로는 가설
Cost
오차의 제곱의 평균
Cost를 감소시키는 방법
W와 b를 변화시키면 Linear Regression에서는 기울기 및 원점으로부터의 위치가 변화하므로 오차값이 달라지는데,
이 때 각 오차에 대해 제곱해서 평균 낸 값이 Cost이므로 Cost는 W, b에 대해 이차함수 그래프 형태를 보인다.
Gradient Descent Algorithm
오차가 작아지는 방향으로 가는 알고리즘이다.
W와 b를 변화시킨다.
Linear Regression의 경우에는 오차가 가장 작아지는 지점이 한 군데이므로 문제가 없으나,
만약 골짜기가 여러 개인 모델에서 Gradient Descent Algorithm을 사용한다면 잘못된 최소 지점을 찾을 수 있다.