From ba1ad17c4055fc0dd5b5a83c0d39e7382b6b8d06 Mon Sep 17 00:00:00 2001 From: Sucio <esteban.cosserat@gmail.com> Date: Fri, 10 Nov 2023 10:09:06 +0100 Subject: [PATCH] Update Rapport.ipynb --- Rapport.ipynb | 26 +++++++++++++++++++++----- 1 file changed, 21 insertions(+), 5 deletions(-) diff --git a/Rapport.ipynb b/Rapport.ipynb index 878abd2..a769f2c 100644 --- a/Rapport.ipynb +++ b/Rapport.ipynb @@ -472,13 +472,13 @@ "\n", "$$A^{L+1}=\\sigma(Z^{L+1})$$\n", "\n", - "La fonction de coût donné C est la fonction de coup MSE :\n", + "La fonction de perte donné C est la fonction de coup MSE :\n", "\n", "$$C = \\frac{1}{N_{out}}\\sum_{i=1}^{N_{out}} (\\hat{y_i} - y_i)^2$$\n", "\n", "### 1\n", "\n", - "Pour entraîner notre modèle nous devons effectuer la descente de gradiant, qui consiste à trouver la relation qui permet d'avoir l'impacte des matrices de poid et de biais sur la fonction coût.\n", + "Pour entraîner notre modèle nous devons effectuer la descente de gradiant, qui consiste à trouver la relation qui permet d'avoir l'impacte des matrices de poid et de biais sur la fonction de perte.\n", "\n", "$$\\sigma(x)=\\frac{1}{1+e^{-x}} $$\n", "\n", @@ -577,7 +577,7 @@ "source": [ "### 10\n", "\n", - "La fonction de coût MSE n'est pas adapté à la classification, pour la suite nous prendrons donc la fonction loss cross-entropy qui prend la matrice target $Y$ et la matrice de prbabilité de prédiction $\\hat{Y}$ \n", + "La fonction de perte MSE n'est pas adapté à la classification, pour la suite nous prendrons donc la fonction loss cross-entropy qui prend la matrice target $Y$ et la matrice de prbabilité de prédiction $\\hat{Y}$ \n", "\n", "$$loss=\\frac{1}{N_{out}}\\sum_{i=1}^{N_{out}}-(y_i*log(\\hat{y_i}))$$\n", "\n", @@ -630,7 +630,9 @@ "cell_type": "markdown", "metadata": {}, "source": [ - "### 11" + "### 11\n", + "\n", + "La fonction one_hot va passer le vecteur label en matrice de 1 et de 0 qui servira de target à la matrice de prediction de probabilité rendu par softmax." ] }, { @@ -697,7 +699,9 @@ "cell_type": "markdown", "metadata": {}, "source": [ - "### 13" + "### 13\n", + "\n", + "La fonction accuracy va mesurer le taux de réussite du model, elle sera utile pour mesurer l'efficacité du modèle sur une base de test et pour suivre l'évolution du modèle en fonction des epoques d'entraînement (et donc vérifier que le modèle s'améliore)" ] }, { @@ -834,6 +838,18 @@ " plt.show()\n", "\n" ] + }, + { + "cell_type": "markdown", + "metadata": {}, + "source": [ + "On remarque que la fonction de perte de perte tend vers 2. Cette limite peut être un minimum local, en effet le modèle part d'une matrice généré aléatoirement et tend vers le minimum local le plus proche, ainsi avec d'autres matrices de poid et de biais initiale nous pourions potentiellement arrivé à un meilleur modèle. De plus il est possible le le learning raite soit trop grand et que 2 ne soit pas réellement le minimum mais la limite vers laquel notre nodèle tend car il tourne autour du minimum avec un pas trop grand pour l'atteindre.\n", + "\n", + "## Conclusion\n", + "\n", + "On a vue dans ce BE deux méthodes de classification : la méthode par k-plus proches voisins et par réseau de neurone. Chacun de ces modèle pourrait être améliorer pour augmanter leurs taux de réussite.\n", + "- k plus proches voisins : on peut choisir une autre métrique de distance qui serait plus efficace ou ajouter une étapes de prétraitement pour " + ] } ], "metadata": { -- GitLab