https://melonicedlatte.com/machinelearning/2019/12/20/204900.html1 Cross Entropy Loss (pytorch 예제 +) 손실 함수(loss function) 손실 함수는 머신러닝에서 모델이 나타내는 확률 분포와 데이터가 따르는 실제 확률 분포 사이의 차이를 나타내는 함수. 즉, 이 값은 0에 가까울수록 모델의 정확도가 높고, 반대로 0에서 멀어질수록 모델의 정확도가 낮습니다. Entropy 불확실성의 척도 이다. 정보이론에서의 엔트로피는 불확실성을 나타내며, 엔트로피가 높다는 것은 정보가 많고, 확률이 낮다는 것읠 의미 불확실성 : 어떤 데이터가 나올지 예측하기 어려운 경우 # 예시 : 동전 던지기 & 주사위 던지기 동전을 던졌을 때, 앞/뒷면이 나올 확률 : 1/2 라고 가정 주사위를 던졌을 때, 각 6면이 나올 확률을 모두 : 1/6 라고 가정 동전의 엔트로피 값 : 0.693 주사위의 엔트로피 값 : 1.79 주사위.. 2023. 3. 23. 이전 1 다음