본문 바로가기

[Tensorflow #4] cost 최소화 이 내용은 Sung kim님의 강의를 바탕으로 만들어졌습니다. tensorflow 2.x 버전이 2019년 12월에 나왔다고 합니다. 아래의 코드는 1.x버전입니다. %pylab inline import tensorflow as tf import matplotlib.pyplot as plt X = [1,2,3] Y = [1,2,3] W = tf.placeholder(tf.float32) # Our hypothesis for linear model X * W hypothesis = X * W # cost/loss function cost = tf.reduce_mean(tf.square(hypothesis - Y)) # Launch the graph in a session sess = tf.Session().. 더보기
[Tensorflow #3] Linear Regression (2) 이 내용은 Sung kim님의 강의를 바탕으로 만들어졌습니다. Hypothesis 모델. 사전적 의미로는 가설 Cost 오차의 제곱의 평균 Cost를 감소시키는 방법 W와 b를 변화시키면 Linear Regression에서는 기울기 및 원점으로부터의 위치가 변화하므로 오차값이 달라지는데, 이 때 각 오차에 대해 제곱해서 평균 낸 값이 Cost이므로 Cost는 W, b에 대해 이차함수 그래프 형태를 보인다. Gradient Descent Algorithm 오차가 작아지는 방향으로 가는 알고리즘이다. W와 b를 변화시킨다. Linear Regression의 경우에는 오차가 가장 작아지는 지점이 한 군데이므로 문제가 없으나, 만약 골짜기가 여러 개인 모델에서 Gradient Descent Algorithm을 .. 더보기
[Tensorflow #2] Linear Regression(1) 이 내용은 Sung kim님의 강의를 바탕으로 만들어졌습니다. 기본 개념 H(x) = Wx+b를 찾는 것이 목적 각 데이터(점)에 대해 (H(x)-y)^2의 총합이 가설 그래프와 실제 데이터와의 오차가 됨. (x일 때 실제 값이 y이며, x일 때 모델이 예측한 값이 H(x)이다.) 이 오차를 cost라고 하며, 이것을 줄이는 것이 목적이다. 따라서 수학적으로 표현하면, 이며, 이 때 cost는 W와 b의 값에 따라 달라지기 때문에 cost(W,b)라고 한다. 그래서 W와 b를 줄이는 것이 목적이 된다. 더보기