Skip to content

Latest commit

 

History

History
111 lines (65 loc) · 4.06 KB

File metadata and controls

111 lines (65 loc) · 4.06 KB

Utiliser la famille Phi dans Hugging Face

Hugging Face est une communauté d'IA très populaire, offrant des données riches et des ressources de modèles open source. Différents fabricants publient des modèles LLM et SLM open source via Hugging Face, tels que Microsoft, Meta, Mistral, Apple, Google, etc.

La famille Phi de Microsoft a été mise à disposition sur Hugging Face. Les développeurs peuvent télécharger le modèle correspondant de la famille Phi en fonction des scénarios et des besoins commerciaux. En plus de déployer les modèles Phi Pytorch sur Hugging Face, nous avons également publié des modèles quantifiés, utilisant les formats GGUF et ONNX pour offrir un choix aux utilisateurs finaux.

Télécharger les modèles sur Hugging Face

Vous pouvez télécharger les modèles de la famille Phi via ce lien :

Vous pouvez télécharger le modèle de différentes manières, comme en installant le SDK CLI Hugging Face ou en utilisant git clone.

Utiliser le CLI Hugging Face pour télécharger les modèles de la famille Phi

  • Installer le CLI Hugging Face
pip install -U "huggingface_hub[cli]"
  • Utiliser huggingface-cli pour se connecter

Connectez-vous à Hugging Face avec un jeton d'accès utilisateur depuis votre page de paramètres.

huggingface-cli login --token $HF_TOKEN --add-to-git-credential
  • Télécharger

Vous pouvez télécharger le modèle et l'enregistrer dans le cache.

huggingface-cli download microsoft/phi-4

Vous pouvez définir un emplacement spécifique pour le stockage.

huggingface-cli download microsoft/phi-4 --local-dir $YOUR_PATH

Utiliser git clone pour télécharger les modèles de la famille Phi

Vous pouvez également utiliser git clone pour télécharger le modèle.

git lfs install

git clone https://huggingface.co/microsoft/phi-4

Exemples - Inférence avec Microsoft Phi-4

  • Installer la bibliothèque transformers
pip install transformers -U
  • Exécuter ce code dans VSCode
import transformers

pipeline = transformers.pipeline(
    "text-generation",
    model="microsoft/phi-4",
    model_kwargs={"torch_dtype": "auto"},
    device_map="auto",
)

messages = [
    {"role": "user", "content": "I have $20,000 in my savings account, where I receive a 4% profit per year and payments twice a year. Can you please tell me how long it will take for me to become a millionaire? Also, can you please explain the math step by step as if you were explaining it to an uneducated person?"},
]

outputs = pipeline(messages, max_new_tokens=2048)
print(outputs[0]["generated_text"][-1])

Clause de non-responsabilité :
Ce document a été traduit à l'aide du service de traduction automatique Co-op Translator. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des imprécisions. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour des informations critiques, il est recommandé de recourir à une traduction professionnelle réalisée par un humain. Nous déclinons toute responsabilité en cas de malentendus ou d'interprétations erronées résultant de l'utilisation de cette traduction.