@@ -21,11 +21,9 @@ Le répertoire est constitué des éléments suivants :
...
@@ -21,11 +21,9 @@ Le répertoire est constitué des éléments suivants :
## Commentaires sur les résultats
## Commentaires sur les résultats
### KNN
### KNN
Les résultats obtenus pour l'algorithme des K-plus proches voisins ne sont pas vraiment concluants : le taux de réussite de l'algorithme oscille autour de 0.1, avec une légère variation selon le nombre K (entre 0.98 et 1.05). Dans le jeu de données entraîné, qui comporte 10 classes, cela revient à trier les images au hasard parmi les classes (0.1 de chances de tomber sur la bonne classe). Pour cet algorithme, la forme de la courbe que l'on s'attend à observer comporte un maximum (croissante puis décroissante). Avant le maximum, le taux de réussite est bas car il y a "underfitting", et après le maximmum il y a "overfitting". Trouver le maximum permet de déterminer pour quelle valeur de K l'algorithme fonctionne le mieux.
Les résultats obtenus pour l'algorithme des K-plus proches voisins ne sont pas vraiment concluants : le taux de réussite de l'algorithme oscille autour de 0.1, avec une légère variation selon le nombre K (entre 0.98 et 1.05). Dans le jeu de données entraîné, qui comporte 10 classes, cela revient à trier les images au hasard dans les classes (0.1 de chances de tomber sur la bonne classe).
### NN
### NN
Pour l'algorithme de rétropropagation, on devrait observer une augmentation du taux de réussite au fur et à mesure de ses itérations. Cependant, les résultats oscillent entre 0.099 et 1.001, ce qui revient sur ce jeu de données à une répartition des images dans des classes au hasard (10 classes, 1 chance sur 10 d'avoir la bonne classe).
Pour l'algorithme de rétropropagation, on devrait observer une augmentation du taux de réussite au fur et à mesure de ses itérations, cependant, les résultats oscillent ici entre 0.099 et 1.001. Une explication possible à l'échec de cet algorithme peut notamment être la convergence des matrices W et B vers des minima locaux sous-optimaux.
Une explication possible à l'échec de cet algorithme peut être dû à une mauvaise initialisation des matrices W et B qui convergeraient alors vers des minima locaux sous-optimaux. Ce modèle, qui ne comporte qu'une seule couche de neurones cachés, peut également ne pas être adapté à la résolution d'un problème aussi complexe.