diff --git a/TD2 Deep Learning.ipynb b/TD2 Deep Learning.ipynb index cd32251d2497ed8b145a474a0a94663bbad44a7f..c8be3631ac4e176d98698f07cf30979ea487a806 100644 --- a/TD2 Deep Learning.ipynb +++ b/TD2 Deep Learning.ipynb @@ -1307,7 +1307,7 @@ "\n", "La taux de compression du model qat (quantization aware training) par rapport au model Net est sensiblement le même que pour les modèle quantisés précédent.\n", "\n", - "Le résultat est sans appel : la perte du overall test accuracy est passée de près de 10% (quantization post training) à moins de 2%(qat). Au niveau des classes, seule la catégorie 'dog' connait une plus forte perte de précision avec la quantisation aware training." + "Le résultat est sans appel : la perte du overall test accuracy est passée de près de 10% (quantization post training) à moins de 2%(qat). On passe de 1072 instances mal classées à 185!" ] }, {