We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
1 parent 7b6fe96 commit 53bfa83Copy full SHA for 53bfa83
1 file changed
02 - Neural Network Basic/01 - Classification.py
@@ -49,13 +49,15 @@
49
# 예) [8.04, 2.76, -6.52] -> [0.53 0.24 0.23]
50
model = tf.nn.softmax(model)
51
52
-# 신경망을 최적화하기 위한 최적화 함수를 작성합니다.
+# 신경망을 최적화하기 위한 비용 함수를 작성합니다.
53
# 각 개별 결과에 대한 합을 구한 뒤 평균을 내는 방식을 사용합니다.
54
# 전체 합이 아닌, 개별 결과를 구한 뒤 평균을 내는 방식을 사용하기 위해 axis 옵션을 사용합니다.
55
# axis 옵션이 없으면 -1.09 처럼 총합인 스칼라값으로 출력됩니다.
56
# Y model Y * tf.log(model) reduce_sum(axis=1)
57
# 예) [[1 0 0] [[0.1 0.7 0.2] -> [[-1.0 0 0] -> [-1.0, -0.09]
58
# [0 1 0]] [0.2 0.8 0.0]] [ 0 -0.09 0]]
59
+# 즉, 이것은 예측값과 실제값 사이의 확률 분포의 차이를 비용으로 계산한 것이며,
60
+# 이것을 Cross-Entropy 라고 합니다.
61
cost = tf.reduce_mean(-tf.reduce_sum(Y * tf.log(model), axis=1))
62
63
optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01)
0 commit comments