Skip to content

Latest commit

 

History

History
227 lines (164 loc) · 15.1 KB

File metadata and controls

227 lines (164 loc) · 15.1 KB

AITK में Phi फैमिली

VS Code के लिए AI Toolkit जेनरेटिव AI ऐप डेवलपमेंट को सरल बनाता है। यह Azure AI Foundry Catalog और Hugging Face जैसे अन्य कैटलॉग से आधुनिक AI डेवलपमेंट टूल्स और मॉडल्स को एक साथ लाता है। आप GitHub Models और Azure AI Foundry Model Catalogs द्वारा संचालित AI मॉडल्स कैटलॉग ब्राउज़ कर सकते हैं, उन्हें लोकल या रिमोट डाउनलोड कर सकते हैं, फाइन-ट्यून कर सकते हैं, टेस्ट कर सकते हैं और अपने ऐप्लिकेशन में उपयोग कर सकते हैं।

AI Toolkit Preview लोकल रूप से चलेगा। लोकल इनफेरेंस या फाइन-ट्यून, यह आपके द्वारा चुने गए मॉडल पर निर्भर करता है। इसके लिए आपको NVIDIA CUDA GPU जैसे GPU की आवश्यकता हो सकती है। आप GitHub Models को सीधे AITK के साथ चला सकते हैं।

शुरुआत कैसे करें

Windows Subsystem for Linux कैसे इंस्टॉल करें के बारे में अधिक जानें।

और डिफ़ॉल्ट डिस्ट्रीब्यूशन बदलना

AI Toolkit GitHub Repo

AI Toolkit इंस्टॉल करें

AI Toolkit को Visual Studio Code Extension के रूप में भेजा जाता है। इसलिए, पहले VS Code इंस्टॉल करें और फिर VS Marketplace से AI Toolkit डाउनलोड करें।
AI Toolkit Visual Studio Marketplace में उपलब्ध है और इसे किसी अन्य VS Code एक्सटेंशन की तरह इंस्टॉल किया जा सकता है।

यदि आप VS Code एक्सटेंशन इंस्टॉल करने से अपरिचित हैं, तो निम्न चरणों का पालन करें:

साइन इन करें

  1. VS Code में Activity Bar में Extensions चुनें।
  2. Extensions Search बार में "AI Toolkit" टाइप करें।
  3. "AI Toolkit for Visual Studio Code" चुनें।
  4. Install चुनें।

अब आप एक्सटेंशन का उपयोग करने के लिए तैयार हैं!

आपको GitHub में साइन इन करने के लिए कहा जाएगा, कृपया "Allow" पर क्लिक करें। आपको GitHub साइन इन पेज पर रीडायरेक्ट कर दिया जाएगा।

कृपया साइन इन करें और प्रक्रिया के चरणों का पालन करें। सफलतापूर्वक पूरा होने के बाद, आप VS Code पर रीडायरेक्ट हो जाएंगे।

एक्सटेंशन इंस्टॉल होने के बाद, आपको Activity Bar में AI Toolkit का आइकन दिखाई देगा।

चलिए उपलब्ध एक्शन्स को एक्सप्लोर करते हैं!

उपलब्ध एक्शन्स

AI Toolkit का प्राथमिक साइडबार निम्नलिखित में संगठित है:

  • Models
  • Resources
  • Playground
  • Fine-tuning
  • Evaluation

Resources सेक्शन में उपलब्ध हैं। शुरुआत करने के लिए Model Catalog चुनें।

कैटलॉग से मॉडल डाउनलोड करें

VS Code साइडबार से AI Toolkit लॉन्च करने पर, आप निम्न विकल्पों में से चुन सकते हैं:

AI toolkit model catalog

  • Model Catalog से एक समर्थित मॉडल खोजें और उसे लोकल डाउनलोड करें।
  • Model Playground में मॉडल इनफेरेंस टेस्ट करें।
  • Model Fine-tuning में मॉडल को लोकल या रिमोट फाइन-ट्यून करें।
  • फाइन-ट्यून किए गए मॉडल को AI Toolkit के कमांड पैलेट के माध्यम से क्लाउड पर डिप्लॉय करें।
  • मॉडल का मूल्यांकन करें।

Note

GPU बनाम CPU

आप देखेंगे कि मॉडल कार्ड मॉडल का आकार, प्लेटफॉर्म और एक्सेलेरेटर प्रकार (CPU, GPU) दिखाते हैं। Windows डिवाइस जिनमें कम से कम एक GPU है पर अनुकूलित प्रदर्शन के लिए, केवल उन मॉडल वर्जन्स को चुनें जो केवल Windows को टारगेट करते हैं।

यह सुनिश्चित करता है कि आपके पास DirectML एक्सेलेरेटर के लिए अनुकूलित मॉडल है।

मॉडल के नाम निम्नलिखित प्रारूप में होते हैं:

  • {model_name}-{accelerator}-{quantization}-{format}

यह जांचने के लिए कि आपके Windows डिवाइस में GPU है या नहीं, Task Manager खोलें और फिर Performance टैब चुनें। यदि आपके पास GPU(s) हैं, तो वे "GPU 0" या "GPU 1" जैसे नामों के तहत सूचीबद्ध होंगे।

मॉडल को Playground में चलाएं

सभी पैरामीटर सेट होने के बाद, Generate Project पर क्लिक करें।

एक बार आपका मॉडल डाउनलोड हो जाने के बाद, कैटलॉग में मॉडल कार्ड पर Load in Playground चुनें:

  • मॉडल डाउनलोड शुरू करें।
  • सभी आवश्यकताओं और डिपेंडेंसियों को इंस्टॉल करें।
  • VS Code वर्कस्पेस बनाएं।

Load model in playground

अपने ऐप्लिकेशन में REST API का उपयोग करें

AI Toolkit एक लोकल REST API वेब सर्वर पोर्ट 5272 पर प्रदान करता है, जो OpenAI चैट कंप्लीशन फॉर्मेट का उपयोग करता है।

यह आपको क्लाउड AI मॉडल सर्विस पर निर्भर किए बिना अपने ऐप्लिकेशन को लोकल रूप से टेस्ट करने की अनुमति देता है। उदाहरण के लिए, निम्न JSON फ़ाइल दिखाती है कि अनुरोध के बॉडी को कैसे कॉन्फ़िगर करें:

{
    "model": "Phi-4",
    "messages": [
        {
            "role": "user",
            "content": "what is the golden ratio?"
        }
    ],
    "temperature": 0.7,
    "top_p": 1,
    "top_k": 10,
    "max_tokens": 100,
    "stream": true
}

आप REST API को (जैसे) Postman या CURL (Client URL) यूटिलिटी का उपयोग करके टेस्ट कर सकते हैं:

curl -vX POST http://127.0.0.1:5272/v1/chat/completions -H 'Content-Type: application/json' -d @body.json

Python के लिए OpenAI क्लाइंट लाइब्रेरी का उपयोग करना

from openai import OpenAI

client = OpenAI(
    base_url="http://127.0.0.1:5272/v1/", 
    api_key="x" # required for the API but not used
)

chat_completion = client.chat.completions.create(
    messages=[
        {
            "role": "user",
            "content": "what is the golden ratio?",
        }
    ],
    model="Phi-4",
)

print(chat_completion.choices[0].message.content)

.NET के लिए Azure OpenAI क्लाइंट लाइब्रेरी का उपयोग करना

NuGet का उपयोग करके अपने प्रोजेक्ट में Azure OpenAI क्लाइंट लाइब्रेरी फॉर .NET जोड़ें:

dotnet add {project_name} package Azure.AI.OpenAI --version 1.0.0-beta.17

अपने प्रोजेक्ट में OverridePolicy.cs नामक एक C# फ़ाइल जोड़ें और निम्नलिखित कोड पेस्ट करें:

// OverridePolicy.cs
using Azure.Core.Pipeline;
using Azure.Core;

internal partial class OverrideRequestUriPolicy(Uri overrideUri)
    : HttpPipelineSynchronousPolicy
{
    private readonly Uri _overrideUri = overrideUri;

    public override void OnSendingRequest(HttpMessage message)
    {
        message.Request.Uri.Reset(_overrideUri);
    }
}

इसके बाद, अपने Program.cs फ़ाइल में निम्नलिखित कोड पेस्ट करें:

// Program.cs
using Azure.AI.OpenAI;

Uri localhostUri = new("http://localhost:5272/v1/chat/completions");

OpenAIClientOptions clientOptions = new();
clientOptions.AddPolicy(
    new OverrideRequestUriPolicy(localhostUri),
    Azure.Core.HttpPipelinePosition.BeforeTransport);
OpenAIClient client = new(openAIApiKey: "unused", clientOptions);

ChatCompletionsOptions options = new()
{
    DeploymentName = "Phi-4",
    Messages =
    {
        new ChatRequestSystemMessage("You are a helpful assistant. Be brief and succinct."),
        new ChatRequestUserMessage("What is the golden ratio?"),
    }
};

StreamingResponse<StreamingChatCompletionsUpdate> streamingChatResponse
    = await client.GetChatCompletionsStreamingAsync(options);

await foreach (StreamingChatCompletionsUpdate chatChunk in streamingChatResponse)
{
    Console.Write(chatChunk.ContentUpdate);
}

AI Toolkit के साथ Fine Tuning

  • मॉडल डिस्कवरी और Playground के साथ शुरुआत करें।
  • लोकल कंप्यूटिंग रिसोर्सेज का उपयोग करके मॉडल फाइन-ट्यूनिंग और इनफेरेंस।
  • Azure रिसोर्सेज का उपयोग करके रिमोट फाइन-ट्यूनिंग और इनफेरेंस।

AI Toolkit के साथ Fine Tuning

AI Toolkit Q&A Resources

कृपया सामान्य समस्याओं और उनके समाधान के लिए हमारे Q&A पेज को देखें।

अस्वीकरण:
यह दस्तावेज़ AI अनुवाद सेवा Co-op Translator का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवाद में त्रुटियां या अशुद्धियाँ हो सकती हैं। मूल दस्तावेज़, जो इसकी मूल भाषा में है, को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की सिफारिश की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम उत्तरदायी नहीं हैं।