From aa8bc07b54e783d940439eb9b8011ef826624fe1 Mon Sep 17 00:00:00 2001
From: Dubray Chloe <chloe.dubray@etu.ec-lyon.fr>
Date: Tue, 7 Nov 2023 16:15:35 +0000
Subject: [PATCH] Update mlp.py

---
 mlp.py | 2 +-
 1 file changed, 1 insertion(+), 1 deletion(-)

diff --git a/mlp.py b/mlp.py
index 36a2e4b..a2b42fc 100644
--- a/mlp.py
+++ b/mlp.py
@@ -77,7 +77,7 @@ def learn_one_cross_entropy (w1, b1, w2, b2, data, labels_train, learning_rate)
 
     #Ajout d'un coefficient epsilon très faible dans la fonction de coût pour éviter les problèmes de division par zéro
     epsilon = 0.00001
-    loss = -np.sum(y * np.log2(predictions + epsilon) + (1 - y) * np.log2(1 - predictions + epsilon)) / N
+    loss = -np.sum(y * np.log(predictions + epsilon) + (1 - y) * np.log(1 - predictions + epsilon)) / N
 
     return (w1, b1, w2, b2, loss)
 
-- 
GitLab