From aa8bc07b54e783d940439eb9b8011ef826624fe1 Mon Sep 17 00:00:00 2001 From: Dubray Chloe <chloe.dubray@etu.ec-lyon.fr> Date: Tue, 7 Nov 2023 16:15:35 +0000 Subject: [PATCH] Update mlp.py --- mlp.py | 2 +- 1 file changed, 1 insertion(+), 1 deletion(-) diff --git a/mlp.py b/mlp.py index 36a2e4b..a2b42fc 100644 --- a/mlp.py +++ b/mlp.py @@ -77,7 +77,7 @@ def learn_one_cross_entropy (w1, b1, w2, b2, data, labels_train, learning_rate) #Ajout d'un coefficient epsilon très faible dans la fonction de coût pour éviter les problèmes de division par zéro epsilon = 0.00001 - loss = -np.sum(y * np.log2(predictions + epsilon) + (1 - y) * np.log2(1 - predictions + epsilon)) / N + loss = -np.sum(y * np.log(predictions + epsilon) + (1 - y) * np.log(1 - predictions + epsilon)) / N return (w1, b1, w2, b2, loss) -- GitLab