From 5c83156c6c40a9b72b76b8baf990c8219ac1ad0f Mon Sep 17 00:00:00 2001 From: Sucio <esteban.cosserat@gmail.com> Date: Fri, 10 Nov 2023 10:16:35 +0100 Subject: [PATCH] Update Rapport.ipynb --- Rapport.ipynb | 2 ++ 1 file changed, 2 insertions(+) diff --git a/Rapport.ipynb b/Rapport.ipynb index 24e18ff..23b4b6c 100644 --- a/Rapport.ipynb +++ b/Rapport.ipynb @@ -848,8 +848,10 @@ "## Conclusion\n", "\n", "On a vue dans ce BE deux méthodes de classification : la méthode par k-plus proches voisins et par réseau de neurone. Chacun de ces modèle pourrait être améliorer pour augmanter leurs taux de réussite.\n", + "\n", "- k plus proches voisins : on peut choisir une autre métrique de distance qui serait plus efficace ou ajouter une étapes de prétraitement pour avoir des meilleurs positionnement des images en fonction de leurs classes.\n", "\n", + "\n", "- réseau de neuronne : on peut augmenter le nombre de couches, en effet avec 1 seule couche caché chaque poid vas impacter plusieurs classes et devra être très affiné pour permettre une classification efficace. De plus les hyperparamètre comme learning rate et les matrice initialisé pourrait être également optimisé.\n", "\n", "On comparant ces modèles on remarque cependant que les k plus proches voisins ne s'améliore qu'en ajoutant de nouvelles instances à la base de donnée d'entraînement, la où le réseau de neuronne s'améliore en s'entraînant avec une même base de donnée. Ainsi le réseau de neuronne présente un potentiel d'être in fine meilleur que les k-plus proches voisins. Pour cela il faudra quand même apporté beaucoup de changement au modèle, que se soit avec les hyperparamètres comme expliqué plus haut, ou par l'utilisation de filtres comme matrice de poid, l'utilisation de convolution et l'augmentation du nombre de couches cachés. " -- GitLab