From 3e4b82dcf49b9e19cbf74dcb7506e3e95a33abef Mon Sep 17 00:00:00 2001
From: Sucio <esteban.cosserat@gmail.com>
Date: Fri, 10 Nov 2023 10:19:04 +0100
Subject: [PATCH] Update Rapport.ipynb

---
 Rapport.ipynb | 4 +++-
 1 file changed, 3 insertions(+), 1 deletion(-)

diff --git a/Rapport.ipynb b/Rapport.ipynb
index 23b4b6c..740622a 100644
--- a/Rapport.ipynb
+++ b/Rapport.ipynb
@@ -854,7 +854,9 @@
     "\n",
     "- réseau de neuronne : on peut augmenter le nombre de couches, en effet avec 1 seule couche caché chaque poid vas impacter plusieurs classes et devra être très affiné pour permettre une classification efficace. De plus les hyperparamètre comme learning rate et les matrice initialisé pourrait être également optimisé.\n",
     "\n",
-    "On comparant ces modèles on remarque cependant que les k plus proches voisins ne s'améliore qu'en ajoutant de nouvelles instances à la base de donnée d'entraînement, la où le réseau de neuronne s'améliore en s'entraînant avec une même base de donnée. Ainsi le réseau de neuronne présente un potentiel d'être in fine meilleur que les k-plus proches voisins. Pour cela il faudra quand même apporté beaucoup de changement au modèle, que se soit avec les hyperparamètres comme expliqué plus haut, ou par l'utilisation de filtres comme matrice de poid, l'utilisation de convolution et l'augmentation du nombre de couches cachés.  "
+    "On comparant ces modèles on remarque cependant que les k plus proches voisins ne s'améliore qu'en ajoutant de nouvelles instances à la base de donnée d'entraînement, la où le réseau de neuronne s'améliore en s'entraînant avec une même base de donnée. Ainsi le réseau de neuronne présente un potentiel d'être in fine meilleur que les k-plus proches voisins. \n",
+    "\n",
+    "Pour cela il faudra quand même apporté beaucoup de changement au modèle, que se soit avec les hyperparamètres comme expliqué plus haut, ou par l'utilisation de filtres comme matrice de poid, l'utilisation de convolution et l'augmentation du nombre de couches cachés. Car actuellement le modèle par réseau de neuronne atteint tout juste 18% de réussite pour 1000 époques d'entraînement un learning rate à 0,1 et une couche caché de dimension 64 contre 30% pour le modèle par k plus proches voisins."
    ]
   }
  ],
-- 
GitLab