Skip to content

Commit 53bfa83

Browse files
committed
Cross-Entropy 설명 추가
1 parent 7b6fe96 commit 53bfa83

1 file changed

Lines changed: 3 additions & 1 deletion

File tree

02 - Neural Network Basic/01 - Classification.py

Lines changed: 3 additions & 1 deletion
Original file line numberDiff line numberDiff line change
@@ -49,13 +49,15 @@
4949
# 예) [8.04, 2.76, -6.52] -> [0.53 0.24 0.23]
5050
model = tf.nn.softmax(model)
5151

52-
# 신경망을 최적화하기 위한 최적화 함수를 작성합니다.
52+
# 신경망을 최적화하기 위한 비용 함수를 작성합니다.
5353
# 각 개별 결과에 대한 합을 구한 뒤 평균을 내는 방식을 사용합니다.
5454
# 전체 합이 아닌, 개별 결과를 구한 뒤 평균을 내는 방식을 사용하기 위해 axis 옵션을 사용합니다.
5555
# axis 옵션이 없으면 -1.09 처럼 총합인 스칼라값으로 출력됩니다.
5656
# Y model Y * tf.log(model) reduce_sum(axis=1)
5757
# 예) [[1 0 0] [[0.1 0.7 0.2] -> [[-1.0 0 0] -> [-1.0, -0.09]
5858
# [0 1 0]] [0.2 0.8 0.0]] [ 0 -0.09 0]]
59+
# 즉, 이것은 예측값과 실제값 사이의 확률 분포의 차이를 비용으로 계산한 것이며,
60+
# 이것을 Cross-Entropy 라고 합니다.
5961
cost = tf.reduce_mean(-tf.reduce_sum(Y * tf.log(model), axis=1))
6062

6163
optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.01)

0 commit comments

Comments
 (0)