diff --git a/Rapport.ipynb b/Rapport.ipynb
index 878abd247e0f57b1f6742b9014c1cf5e387aa447..a769f2cccf15816be289e864102259e513740fd1 100644
--- a/Rapport.ipynb
+++ b/Rapport.ipynb
@@ -472,13 +472,13 @@
     "\n",
     "$$A^{L+1}=\\sigma(Z^{L+1})$$\n",
     "\n",
-    "La fonction de coût donné C est la fonction de coup MSE :\n",
+    "La fonction de perte donné C est la fonction de coup MSE :\n",
     "\n",
     "$$C = \\frac{1}{N_{out}}\\sum_{i=1}^{N_{out}} (\\hat{y_i} - y_i)^2$$\n",
     "\n",
     "### 1\n",
     "\n",
-    "Pour entraîner notre modèle nous devons effectuer la descente de gradiant, qui consiste à trouver la relation qui permet d'avoir l'impacte des matrices de poid et de biais sur la fonction coût.\n",
+    "Pour entraîner notre modèle nous devons effectuer la descente de gradiant, qui consiste à trouver la relation qui permet d'avoir l'impacte des matrices de poid et de biais sur la fonction de perte.\n",
     "\n",
     "$$\\sigma(x)=\\frac{1}{1+e^{-x}} $$\n",
     "\n",
@@ -577,7 +577,7 @@
    "source": [
     "### 10\n",
     "\n",
-    "La fonction de coût MSE n'est pas adapté à la classification, pour la suite nous prendrons donc la fonction loss cross-entropy qui prend la matrice target $Y$ et la matrice de prbabilité de prédiction $\\hat{Y}$ \n",
+    "La fonction de perte MSE n'est pas adapté à la classification, pour la suite nous prendrons donc la fonction loss cross-entropy qui prend la matrice target $Y$ et la matrice de prbabilité de prédiction $\\hat{Y}$ \n",
     "\n",
     "$$loss=\\frac{1}{N_{out}}\\sum_{i=1}^{N_{out}}-(y_i*log(\\hat{y_i}))$$\n",
     "\n",
@@ -630,7 +630,9 @@
    "cell_type": "markdown",
    "metadata": {},
    "source": [
-    "### 11"
+    "### 11\n",
+    "\n",
+    "La fonction one_hot va passer le vecteur label en matrice de 1 et de 0 qui servira de target à la matrice de prediction de probabilité rendu par softmax."
    ]
   },
   {
@@ -697,7 +699,9 @@
    "cell_type": "markdown",
    "metadata": {},
    "source": [
-    "### 13"
+    "### 13\n",
+    "\n",
+    "La fonction accuracy va mesurer le taux de réussite du model, elle sera utile pour mesurer l'efficacité du modèle sur une base de test et pour suivre l'évolution du modèle en fonction des epoques d'entraînement (et donc vérifier que le modèle s'améliore)"
    ]
   },
   {
@@ -834,6 +838,18 @@
     "    plt.show()\n",
     "\n"
    ]
+  },
+  {
+   "cell_type": "markdown",
+   "metadata": {},
+   "source": [
+    "On remarque que la fonction de perte de perte tend vers 2. Cette limite peut être un minimum local, en effet le modèle part d'une matrice généré aléatoirement et tend vers le minimum local le plus proche, ainsi avec d'autres matrices de poid et de biais initiale nous pourions potentiellement arrivé à un meilleur modèle. De plus il est possible le le learning raite soit trop grand et que 2 ne soit pas réellement le minimum mais la limite vers laquel notre nodèle tend car il tourne autour du minimum avec un pas trop grand pour l'atteindre.\n",
+    "\n",
+    "## Conclusion\n",
+    "\n",
+    "On a vue dans ce BE deux méthodes de classification : la méthode par k-plus proches voisins et par réseau de neurone. Chacun de ces modèle pourrait être améliorer pour augmanter leurs taux de réussite.\n",
+    "- k plus proches voisins : on peut choisir une autre métrique de distance qui serait plus efficace ou ajouter une étapes de prétraitement pour "
+   ]
   }
  ],
  "metadata": {