# 학습계수(하강간격)을 설정한다. learning_rate = 0.1 # 해당 지점의 기울기를 계산한다. gradient = tf.reduce_mean((W * X - Y) * X) # 기울기에 하강간격을 곱한 값을 W에 빼줘서 하강한다. descent = W - learning_rate * gradient # 해당 텐서에 업데이트 해준다. update = W.assign(descent) # tf.GradientDescentOptimizer(learning_rate=0.01) 학습계수 이전에 "[3] 텐서플로우 기초, 선형회귀" 에서 '하강 간격을 조정하기 위한 상수' 쯤으로 언급하고 넘어갔었던 개념이다. 위의 과정은 텐서플로우에 구현되어 있는 예쁜함수 GradientDescentOptimizer()의..