Phi est une série de modèles d'intelligence artificielle open source développés par Microsoft.
Phi est actuellement le modèle de langage compact (SLM) le plus puissant et le plus rentable, avec d'excellents résultats dans les benchmarks de langues multiples, raisonnement, génération de texte/chat, codage, images, audio et autres scénarios.
Vous pouvez déployer Phi sur le cloud ou sur des appareils en périphérie, et construire facilement des applications d'IA générative avec une puissance de calcul limitée.
Suivez ces étapes pour commencer à utiliser ces ressources :
- Forkez le dépôt : Cliquez sur
- Clonez le dépôt :
git clone https://github.com/microsoft/PhiCookBook.git
- Rejoignez la communauté Discord Microsoft AI pour rencontrer des experts et d'autres développeurs
Français | Espagnol | Allemand | Russe | Arabe | Persan (Farsi) | Ourdou | Chinois (Simplifié) | Chinois (Traditionnel, Macao) | Chinois (Traditionnel, Hong Kong) | Chinois (Traditionnel, Taïwan) | Japonais | Coréen | Hindi Bengali | Marathi | Népalais | Punjabi (Gurmukhi) | Portugais (Portugal) | Portugais (Brésil) | Italien | Polonais | Turc | Grec | Thaï | Suédois | Danois | Norvégien | Finnois | Néerlandais | Hébreu | Vietnamien | Indonésien | Malais | Tagalog (Philippin) | Swahili | Hongrois | Tchèque | Slovaque | Roumain | Bulgare | Serbe (Cyrillique) | Croate | Slovène
-
Introduction
- Bienvenue dans la famille Phi
- Configurer votre environnement
- Comprendre les technologies clés
- Sécurité de l'IA pour les modèles Phi
- Support matériel pour Phi
- Modèles Phi et disponibilité sur différentes plateformes
- Utilisation de Guidance-ai et Phi
- Modèles GitHub Marketplace
- Catalogue de modèles Azure AI
-
Inférence de Phi dans différents environnements
-
Inférence dans la famille Phi
- Inférence Phi sur iOS
- Inférence Phi sur Android
- Inférence Phi sur Jetson
- Inférence Phi sur un PC AI
- Inférence Phi avec le framework Apple MLX
- Inférence Phi sur un serveur local
- Inférence Phi sur un serveur distant avec AI Toolkit
- Inférence Phi avec Rust
- Inférence Phi--Vision en local
- Inférence Phi avec Kaito AKS, conteneurs Azure (support officiel)
-
Évaluation de Phi
-
RAG avec Azure AI Search
-
Exemples de développement d'applications Phi
-
Applications Text & Chat
- Exemples Phi-4 🆕
- Exemples Phi-3 / 3.5
- Chatbot local dans le navigateur utilisant Phi-3, ONNX Runtime Web et WebGPU
- Chat OpenVino
- Multi-modèle - Interaction entre Phi-3-mini et OpenAI Whisper
- MLFlow - Construire un wrapper et utiliser Phi-3 avec MLFlow
- Optimisation de modèle - Comment optimiser le modèle Phi-3-min pour ONNX Runtime Web avec Olive
- Application WinUI3 avec Phi-3 mini-4k-instruct-onnx
- Exemple d'application de notes alimentée par l'IA Multi-modèle WinUI3
- Affiner et intégrer des modèles Phi-3 personnalisés avec Promptflow
- Affiner et intégrer des modèles Phi-3 personnalisés avec Promptflow dans Azure AI Foundry
- Évaluer le modèle Phi-3 / Phi-3.5 affiné dans Azure AI Foundry en se concentrant sur les principes de l'IA responsable de Microsoft
- [📓] Exemple de prédiction linguistique (chinois/anglais) avec Phi-3.5-mini-instruct
- Chatbot RAG WebGPU avec Phi-3.5-Instruct
- Utiliser le GPU Windows pour créer une solution Promptflow avec Phi-3.5-Instruct ONNX
- Créer une application Android avec Microsoft Phi-3.5 tflite
- Exemple Q&A .NET utilisant le modèle ONNX Phi-3 local avec Microsoft.ML.OnnxRuntime
- Application console .NET pour chat avec Semantic Kernel et Phi-3
-
Exemples de code basés sur le SDK d'inférence Azure AI
-
Exemples de raisonnement avancé
- Exemples Phi-4 🆕
-
Démos
-
Exemples Vision
- Exemples Phi-4 🆕
- Exemples Phi-3 / 3.5
-
-
[📓]Phi-3-vision-Image text to text
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP Embedding
- DEMO: Phi-3 Recycling
- Phi-3-vision - Assistant visuel linguistique - avec Phi3-Vision et OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Exemple multi-images ou multi-frames Phi-3.5 Vision
- Modèle ONNX local Phi-3 Vision utilisant Microsoft.ML.OnnxRuntime .NET
- Modèle ONNX local Phi-3 Vision basé sur un menu utilisant Microsoft.ML.OnnxRuntime .NET
-
Échantillons audio
-
Échantillons MOE
-
Échantillons d'appel de fonctions
-
Échantillons de mélange multimodal
-
Échantillons de fine-tuning Phi
- Scénarios de fine-tuning
- Fine-tuning vs RAG
- Fine-tuning pour que Phi-3 devienne un expert dans une industrie
- Fine-tuning Phi-3 avec AI Toolkit pour VS Code
- Fine-tuning Phi-3 avec Azure Machine Learning Service
- Fine-tuning Phi-3 avec Lora
- Fine-tuning Phi-3 avec QLora
- Fine-tuning Phi-3 avec Azure AI Foundry
- Fine-tuning Phi-3 avec Azure ML CLI/SDK
-
Atelier pratique
-
Articles de recherche académique et publications
- Les manuels sont tout ce dont vous avez besoin II : rapport technique phi-1.5
- Rapport technique Phi-3 : Un modèle linguistique performant localement sur votre téléphone
- Rapport technique Phi-4
- Rapport technique Phi-4-Mini : Modèles linguistiques multimodaux compacts mais puissants via Mixture-of-LoRAs
- Optimisation des petits modèles linguistiques pour l'appel de fonctions embarquées
- (WhyPHI) Affinage de PHI-3 pour le questionnement à choix multiples : méthodologie, résultats et défis
Découvrez comment utiliser Microsoft Phi et construire des solutions de bout en bout sur différents appareils matériels. Pour expérimenter Phi par vous-même, commencez par explorer les modèles et personnaliser Phi pour vos scénarios via le Catalogue de modèles Azure AI Foundry. Vous pouvez en apprendre davantage en consultant le guide de démarrage Azure AI Foundry.
Playground
Chaque modèle dispose d'un espace dédié pour tester le modèle Azure AI Playground.
Découvrez comment utiliser Microsoft Phi et construire des solutions de bout en bout sur différents appareils matériels. Pour expérimenter Phi par vous-même, commencez par explorer le modèle et personnaliser Phi pour vos scénarios via le Catalogue de modèles GitHub. Vous pouvez en apprendre davantage en consultant le guide de démarrage GitHub Model Catalog.
Playground
Chaque modèle dispose d'un espace dédié pour tester le modèle.
Vous pouvez également trouver le modèle sur Hugging Face.
Playground
Playground Hugging Chat.
Microsoft s'engage à aider ses clients à utiliser ses produits d'IA de manière responsable, à partager ses apprentissages et à construire des partenariats basés sur la confiance grâce à des outils comme les notes de transparence et les évaluations d'impact. Beaucoup de ces ressources sont disponibles sur https://aka.ms/RAI.
L'approche de Microsoft en matière d'IA responsable repose sur nos principes d'IA : équité, fiabilité et sécurité, confidentialité et protection, inclusivité, transparence et responsabilité.
Les modèles à grande échelle de langage naturel, image et voix - comme ceux utilisés dans cet exemple - peuvent potentiellement agir de manière injuste, peu fiable ou offensante, entraînant ainsi des dommages. Veuillez consulter la note de transparence du service Azure OpenAI pour être informé des risques et des limitations.
La méthode recommandée pour atténuer ces risques est d'inclure un système de sécurité dans votre architecture capable de détecter et prévenir les comportements nuisibles. Azure AI Content Safety fournit une couche de protection indépendante, capable de détecter les contenus nuisibles générés par les utilisateurs et l'IA dans les applications et services. Azure AI Content Safety inclut des API pour le texte et les images permettant de détecter les contenus nuisibles. Au sein d'Azure AI Foundry, le service Content Safety vous permet de visualiser, explorer et tester des exemples de code pour détecter des contenus nuisibles à travers différentes modalités. La documentation de démarrage rapide vous guide dans la réalisation de requêtes vers le service.
Un autre aspect à prendre en compte est la performance globale de l'application. Avec des applications multimodales et multi-modèles, nous considérons la performance comme le fait que le système fonctionne selon vos attentes et celles de vos utilisateurs, y compris en évitant de générer des résultats nuisibles. Il est important d'évaluer la performance globale de votre application en utilisant les évaluateurs de performance et qualité ainsi que ceux des risques et de la sécurité. Vous avez également la possibilité de créer et d'évaluer avec des évaluateurs personnalisés. Vous pouvez évaluer votre application d'IA dans votre environnement de développement en utilisant le SDK d'évaluation Azure AI. Avec un jeu de données de test ou une cible, les générations de votre application d'IA générative sont mesurées quantitativement grâce à des évaluateurs intégrés ou des évaluateurs personnalisés selon votre choix. Pour commencer avec le SDK d'évaluation Azure AI afin d'évaluer votre système, vous pouvez suivre le guide de démarrage rapide. Une fois que vous exécutez une session d'évaluation, vous pouvez visualiser les résultats dans Azure AI Foundry.
Ce projet peut contenir des marques déposées ou des logos pour des projets, produits ou services. L'utilisation autorisée des marques déposées ou logos de Microsoft est soumise et doit respecter les directives de marque et de logo de Microsoft. L'utilisation des marques déposées ou logos de Microsoft dans des versions modifiées de ce projet ne doit pas entraîner de confusion ni impliquer un parrainage de Microsoft. Toute utilisation de marques déposées ou logos de tiers est soumise aux politiques de ces tiers.
Avertissement :
Ce document a été traduit à l'aide du service de traduction automatique Co-op Translator. Bien que nous nous efforcions d'assurer l'exactitude, veuillez noter que les traductions automatisées peuvent contenir des erreurs ou des inexactitudes. Le document original dans sa langue d'origine doit être considéré comme la source faisant autorité. Pour les informations critiques, une traduction humaine professionnelle est recommandée. Nous ne sommes pas responsables des malentendus ou des interprétations erronées résultant de l'utilisation de cette traduction.