Update README.md
Browse files
README.md
CHANGED
@@ -67,6 +67,13 @@ En phase 1 le modèle a été entrainé avec [ce code](https://www.kaggle.com/co
|
|
67 |
3. Génération de l'appréciation
|
68 |
4. Post-traitement (vérification longueur/ton/grammaire)
|
69 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
70 |
## Exemple de code d'inference avec Gradio
|
71 |
|
72 |
Attention ce code est extrêmement lent sans GPU Cuda
|
|
|
67 |
3. Génération de l'appréciation
|
68 |
4. Post-traitement (vérification longueur/ton/grammaire)
|
69 |
|
70 |
+
## Notebook de test d'inférence
|
71 |
+
|
72 |
+
Vous pouvez tester ce modèle avec ce notepook Jupyter.
|
73 |
+
Pour pouvoir l'essayer dans de bonnes conditions vous devez changer le type d'exécution de Colab pour que l'environnement utilise des GPU T4.
|
74 |
+
|
75 |
+
[![Open In Colab](https://colab.research.google.com/assets/colab-badge.svg)](https://colab.research.google.com/#fileId=https://huggingface.co/eltorio/Llama-3.2-3B-appreciation/blob/main/InferenceTest.ipynb)
|
76 |
+
|
77 |
## Exemple de code d'inference avec Gradio
|
78 |
|
79 |
Attention ce code est extrêmement lent sans GPU Cuda
|