Phi 是 Microsoft 開發的一系列開源 AI 模型。
Phi 是目前最強大且具成本效益的小型語言模型(SLM),在多語言、推理、文本/聊天生成、程式碼、圖像、音頻以及其他場景中均有卓越表現。
您可以將 Phi 部署到雲端或邊緣設備,並且可以利用有限的計算資源輕鬆構建生成式 AI 應用程式。
按照以下步驟開始使用這些資源:
- Fork 此儲存庫:點擊
- Clone 此儲存庫:
git clone https://github.com/microsoft/PhiCookBook.git
- 加入 Microsoft AI Discord 社群,與專家及其他開發者交流
法文 | 西班牙文 | 德文 | 俄文 | 阿拉伯文 | 波斯文 (法爾西文) | 烏爾都文 | 中文 (簡體) | 中文 (繁體,澳門) | 中文 (繁體,香港) | 中文 (繁體,台灣) | 日文 | 韓文 | 印地文 孟加拉文 | 馬拉地文 | 尼泊爾文 | 旁遮普文 (古爾穆奇文) | 葡萄牙文 (葡萄牙) | 葡萄牙文 (巴西) | 義大利文 | 波蘭文 | 土耳其文 | 希臘文 | 泰文 | 瑞典文 | 丹麥文 | 挪威文 | 芬蘭文 | 荷蘭文 | 希伯來文 | 越南文 | 印尼文 | 馬來文 | 他加祿文 (菲律賓文) | 斯瓦希里文 | 匈牙利文 | 捷克文 | 斯洛伐克文 | 羅馬尼亞文 | 保加利亞文 | 塞爾維亞文 (西里爾文) | 克羅埃西亞文 | 斯洛維尼亞文
-
簡介
-
在不同環境中推理 Phi
-
Phi 家族的推理
-
評估 Phi
-
使用 Azure AI Search 的 RAG
-
Phi 應用開發範例
-
文本與聊天應用
- Phi-4 範例 🆕
- Phi-3 / 3.5 範例
- 使用 Phi3、ONNX Runtime Web 和 WebGPU 的本地瀏覽器聊天機器人
- OpenVino 聊天
- 多模型交互:Phi-3-mini 與 OpenAI Whisper
- MLFlow - 構建封裝並使用 Phi-3 與 MLFlow
- 模型優化 - 如何使用 Olive 優化 Phi-3-min 模型以適配 ONNX Runtime Web
- 結合 Phi-3 mini-4k-instruct-onnx 的 WinUI3 應用
- WinUI3 多模型 AI 驅動的筆記應用範例
- 使用 Prompt flow 微調並整合自定義 Phi-3 模型
- 在 Azure AI Foundry 中使用 Prompt flow 微調並整合自定義 Phi-3 模型
- 基於 Microsoft 負責任 AI 原則,評估 Azure AI Foundry 中的微調 Phi-3 / Phi-3.5 模型
- [📓] Phi-3.5-mini-instruct 語言預測範例(中/英文)
- Phi-3.5-Instruct WebGPU RAG 聊天機器人
- 使用 Windows GPU 與 Phi-3.5-Instruct ONNX 創建 Prompt flow 解決方案
- 使用 Microsoft Phi-3.5 tflite 創建 Android 應用
- 使用 Microsoft.ML.OnnxRuntime 的本地 ONNX Phi-3 模型進行 Q&A .NET 範例
- 結合 Semantic Kernel 和 Phi-3 的控制台聊天 .NET 應用
-
基於 Azure AI Inference SDK 的代碼範例
-
高級推理範例
- Phi-4 範例 🆕
- [📓] Phi-4-mini 推理範例
- Phi-4 範例 🆕
-
演示
-
視覺範例
- Phi-4 範例 🆕
- Phi-3 / 3.5 範例
-
-
[📓]Phi-3-vision-Image text to text
- Phi-3-vision-ONNX
- [📓]Phi-3-vision CLIP Embedding
- DEMO: Phi-3 Recycling
- Phi-3-vision - 視覺語言助手 - 使用 Phi3-Vision 和 OpenVINO
- Phi-3 Vision Nvidia NIM
- Phi-3 Vision OpenVino
- [📓]Phi-3.5 Vision 多幀或多圖像範例
- Phi-3 Vision 本地 ONNX 模型,使用 Microsoft.ML.OnnxRuntime .NET
- 基於選單的 Phi-3 Vision 本地 ONNX 模型,使用 Microsoft.ML.OnnxRuntime .NET
-
音頻範例
-
MOE 範例
-
函數調用範例
- Phi-4 範例 🆕
-
多模態混合範例
- Phi-4 範例 🆕
-
Phi 微調範例
-
實作實驗室
-
學術研究論文與出版物
您可以了解如何使用 Microsoft Phi,並在不同的硬件設備上構建端到端解決方案。若想親身體驗 Phi,請從操作模型並根據您的場景自訂 Phi 開始,使用 Azure AI Foundry Azure AI Model Catalog 開始探索,並了解更多資訊於 Azure AI Foundry 快速入門。
Playground
每個模型都有專屬的 Playground 可供測試模型 Azure AI Playground。
您可以了解如何使用 Microsoft Phi,並在不同的硬件設備上構建端到端解決方案。若想親身體驗 Phi,請從操作模型並根據您的場景自訂 Phi 開始,使用 GitHub Model Catalog 開始探索,並了解更多資訊於 GitHub Model Catalog 快速入門。
Playground
每個模型都有專屬的 Playground 可供測試模型。
您也可以在 Hugging Face 上找到模型。
Playground
Hugging Chat Playground。
Microsoft 致力於幫助客戶負責任地使用 AI 產品,分享我們的經驗,並通過透明度說明和影響評估等工具建立基於信任的合作關係。許多資源可在 https://aka.ms/RAI 找到。
Microsoft 的負責任 AI 方法基於我們的 AI 原則,包括公平性、可靠性與安全性、隱私與安全性、包容性、透明度和問責性。
大型自然語言、圖像和語音模型(例如本示例中使用的模型)可能會以不公平、不可靠或冒犯的方式行為,從而造成傷害。請參閱 Azure OpenAI 服務透明度說明,了解相關風險和限制。
建議的風險緩解方法是在您的架構中包含一個安全系統,該系統可以檢測並防止有害行為。Azure AI Content Safety 提供獨立的保護層,能夠檢測應用程序和服務中的有害用戶生成內容及 AI 生成內容。Azure AI Content Safety 包括文本和圖像 API,可檢測有害材料。在 Azure AI Foundry 中,Content Safety 服務可讓您查看、探索並嘗試檢測不同模態有害內容的示例代碼。以下 快速入門文檔 指導您如何向服務發送請求。
另一個需要考慮的方面是整體應用性能。對於多模態和多模型應用程序,我們認為性能意味著系統按您和您的用戶期望執行,包括不生成有害輸出。重要的是使用 性能與質量及風險與安全性評估工具 評估您的整體應用性能。您還可以使用 自訂評估工具 創建並進行評估。 您可以在開發環境中使用 Azure AI Evaluation SDK 來評估您的 AI 應用程式。透過測試資料集或目標,您的生成式 AI 應用程式的結果可使用內建評估器或您選擇的自訂評估器進行量化測量。若要開始使用 Azure AI Evaluation SDK 評估您的系統,您可以參考 快速入門指南。執行評估後,您可以在 Azure AI Foundry 中可視化結果。
此專案可能包含與專案、產品或服務相關的商標或標誌。使用 Microsoft 商標或標誌需獲授權,並必須遵循 Microsoft 的商標及品牌指南。在修改版本的專案中使用 Microsoft 商標或標誌時,不得引起混淆或暗示 Microsoft 的贊助。使用第三方商標或標誌需遵循該第三方的政策。
免責聲明:
本文檔使用 AI 翻譯服務 Co-op Translator 進行翻譯。雖然我們努力確保準確性,但請注意,自動翻譯可能包含錯誤或不準確之處。應以原文檔的母語版本作為權威來源。對於關鍵資訊,建議尋求專業人工翻譯。我們對因使用本翻譯而引起的任何誤解或誤釋不承擔責任。