본문 바로가기

컴퓨터/ML

[Tensorflow #3] Linear Regression (2)

이 내용은 Sung kim님의 강의를 바탕으로 만들어졌습니다.

Hypothesis

모델.
사전적 의미로는 가설

Cost

오차의 제곱의 평균

Cost를 감소시키는 방법

W와 b를 변화시키면 Linear Regression에서는 기울기 및 원점으로부터의 위치가 변화하므로 오차값이 달라지는데,
이 때 각 오차에 대해 제곱해서 평균 낸 값이 Cost이므로 Cost는 W, b에 대해 이차함수 그래프 형태를 보인다.

Gradient Descent Algorithm

오차가 작아지는 방향으로 가는 알고리즘이다.
W와 b를 변화시킨다.
Linear Regression의 경우에는 오차가 가장 작아지는 지점이 한 군데이므로 문제가 없으나,
만약 골짜기가 여러 개인 모델에서 Gradient Descent Algorithm을 사용한다면 잘못된 최소 지점을 찾을 수 있다.

'컴퓨터 > ML' 카테고리의 다른 글

Jupyter Notebook 접속 오류(프록시)  (0) 2020.03.12
docker에서 gpu 자원 활용하기(Nvidia)  (0) 2020.01.21
[Tensorflow #2] Linear Regression(1)  (0) 2019.12.26
[Tensorflow #1] 기본 개념  (0) 2019.12.26