diff --git a/mlp.py b/mlp.py index 36a2e4b90c441b7f6fed5c32148f2a2482c69f7f..a2b42fc71d4e9769358d1a4c99e2ed20e1ad9422 100644 --- a/mlp.py +++ b/mlp.py @@ -77,7 +77,7 @@ def learn_one_cross_entropy (w1, b1, w2, b2, data, labels_train, learning_rate) #Ajout d'un coefficient epsilon très faible dans la fonction de coût pour éviter les problèmes de division par zéro epsilon = 0.00001 - loss = -np.sum(y * np.log2(predictions + epsilon) + (1 - y) * np.log2(1 - predictions + epsilon)) / N + loss = -np.sum(y * np.log(predictions + epsilon) + (1 - y) * np.log(1 - predictions + epsilon)) / N return (w1, b1, w2, b2, loss)