Skip to content
Snippets Groups Projects
Commit d3366376 authored by Dubray Chloe's avatar Dubray Chloe
Browse files

Update README.md

parent 88516be5
No related branches found
No related tags found
No related merge requests found
...@@ -21,11 +21,9 @@ Le répertoire est constitué des éléments suivants : ...@@ -21,11 +21,9 @@ Le répertoire est constitué des éléments suivants :
## Commentaires sur les résultats ## Commentaires sur les résultats
### KNN ### KNN
Les résultats obtenus pour l'algorithme des K-plus proches voisins ne sont pas vraiment concluants : le taux de réussite de l'algorithme oscille autour de 0.1, avec une légère variation selon le nombre K (entre 0.98 et 1.05). Dans le jeu de données entraîné, qui comporte 10 classes, cela revient à trier les images au hasard parmi les classes (0.1 de chances de tomber sur la bonne classe). Pour cet algorithme, la forme de la courbe que l'on s'attend à observer comporte un maximum (croissante puis décroissante). Avant le maximum, le taux de réussite est bas car il y a "underfitting", et après le maximmum il y a "overfitting". Trouver le maximum permet de déterminer pour quelle valeur de K l'algorithme fonctionne le mieux. Les résultats obtenus pour l'algorithme des K-plus proches voisins ne sont pas vraiment concluants : le taux de réussite de l'algorithme oscille autour de 0.1, avec une légère variation selon le nombre K (entre 0.98 et 1.05). Dans le jeu de données entraîné, qui comporte 10 classes, cela revient à trier les images au hasard dans les classes (0.1 de chances de tomber sur la bonne classe).
### NN ### NN
Pour l'algorithme de rétropropagation, on devrait observer une augmentation du taux de réussite au fur et à mesure de ses itérations. Cependant, les résultats oscillent entre 0.099 et 1.001, ce qui revient sur ce jeu de données à une répartition des images dans des classes au hasard (10 classes, 1 chance sur 10 d'avoir la bonne classe). Pour l'algorithme de rétropropagation, on devrait observer une augmentation du taux de réussite au fur et à mesure de ses itérations, cependant, les résultats oscillent ici entre 0.099 et 1.001. Une explication possible à l'échec de cet algorithme peut notamment être la convergence des matrices W et B vers des minima locaux sous-optimaux.
Une explication possible à l'échec de cet algorithme peut être dû à une mauvaise initialisation des matrices W et B qui convergeraient alors vers des minima locaux sous-optimaux. Ce modèle, qui ne comporte qu'une seule couche de neurones cachés, peut également ne pas être adapté à la résolution d'un problème aussi complexe.
0% Loading or .
You are about to add 0 people to the discussion. Proceed with caution.
Please register or to comment