본문 바로가기

컴퓨터/ML

Jupyter Notebook 접속 오류(프록시) 클라이언트에서 프록시를 사용할 때의 오류 프록시를 풀고 사용해야 하며,VPN은 문제 없다. 더보기
docker에서 gpu 자원 활용하기(Nvidia) 분명 구버전 도커에서는 nvidia-docker라는 다른 버전의 도커를 사용해야 했던 걸로 알지만, 요즘은 그렇지 않은가보다. 우선 텐서플로우 도커 문서를 보겠다. https://www.tensorflow.org/install/docker?hl=ko Docker | TensorFlow Docker는 컨테이너를 사용하여 TensorFlow 설치를 나머지 시스템에서 격리하는 가상 환경을 만듭니다. TensorFlow 프로그램은 호스트 시스템과 리소스를 공유(디렉터리 액세스, GPU 사용, 인터넷 연결 등)할 수 있는 이 가상 환경 내에서 실행됩니다. TensorFlow Docker 이미지는 각 출시에 대해 테스트되었습니다. Docker는 Linux에서 TensorFlow GPU 지원을 사용하는 가장 간편한 .. 더보기
[Tensorflow #3] Linear Regression (2) 이 내용은 Sung kim님의 강의를 바탕으로 만들어졌습니다. Hypothesis 모델. 사전적 의미로는 가설 Cost 오차의 제곱의 평균 Cost를 감소시키는 방법 W와 b를 변화시키면 Linear Regression에서는 기울기 및 원점으로부터의 위치가 변화하므로 오차값이 달라지는데, 이 때 각 오차에 대해 제곱해서 평균 낸 값이 Cost이므로 Cost는 W, b에 대해 이차함수 그래프 형태를 보인다. Gradient Descent Algorithm 오차가 작아지는 방향으로 가는 알고리즘이다. W와 b를 변화시킨다. Linear Regression의 경우에는 오차가 가장 작아지는 지점이 한 군데이므로 문제가 없으나, 만약 골짜기가 여러 개인 모델에서 Gradient Descent Algorithm을 .. 더보기
[Tensorflow #2] Linear Regression(1) 이 내용은 Sung kim님의 강의를 바탕으로 만들어졌습니다. 기본 개념 H(x) = Wx+b를 찾는 것이 목적 각 데이터(점)에 대해 (H(x)-y)^2의 총합이 가설 그래프와 실제 데이터와의 오차가 됨. (x일 때 실제 값이 y이며, x일 때 모델이 예측한 값이 H(x)이다.) 이 오차를 cost라고 하며, 이것을 줄이는 것이 목적이다. 따라서 수학적으로 표현하면, 이며, 이 때 cost는 W와 b의 값에 따라 달라지기 때문에 cost(W,b)라고 한다. 그래서 W와 b를 줄이는 것이 목적이 된다. 더보기
[Tensorflow #1] 기본 개념 이 내용은 Sung kim님의 강의를 바탕으로 만들어졌습니다. Tensorflow에서는 일반적인 python 프로그래밍과 다르게 Tensorflow에서 지정한 자료형과 계산 방식이 있다. import tensorflow as tf tf.constant("Hello, Tensorflow!") # 상수 sess = tf.Session() print(sess.run(hello)) b'Hello, Tensorflow! 그래프 노드 : `n1 = tf.constant(3.0, tf.float32) 노드 : `n2 = tf.constant(4.0) 그래프 : `n3 = tf.add(n1, n2) 실행 : `sess = tf.Session(); sess.run(node3) constant는 그래프에서 하나의 .. 더보기