Skip to content

Latest commit

 

History

History
111 lines (65 loc) · 5.75 KB

File metadata and controls

111 lines (65 loc) · 5.75 KB

Hugging Face में Phi Family का उपयोग करना

Hugging Face एक बहुत ही लोकप्रिय AI समुदाय है, जिसमें समृद्ध डेटा और ओपन सोर्स मॉडल संसाधन उपलब्ध हैं। विभिन्न निर्माता Hugging Face के माध्यम से ओपन सोर्स LLM और SLM जारी करते हैं, जैसे Microsoft, Meta, Mistral, Apple, Google आदि।

Microsoft Phi Family को Hugging Face पर जारी किया गया है। डेवलपर्स विभिन्न परिदृश्यों और व्यवसायों के आधार पर Phi Family के मॉडल को डाउनलोड कर सकते हैं। Hugging Face पर Phi Pytorch मॉडल को तैनात करने के अलावा, हमने क्वांटाइज्ड मॉडल भी जारी किए हैं, जो GGUF और ONNX प्रारूपों का उपयोग करते हैं ताकि अंतिम उपयोगकर्ताओं को विकल्प दिया जा सके।

Hugging Face पर मॉडल डाउनलोड करें

आप इस लिंक के माध्यम से Phi Family मॉडल डाउनलोड कर सकते हैं:

आप विभिन्न तरीकों से मॉडल डाउनलोड कर सकते हैं, जैसे Hugging Face CLI SDK इंस्टॉल करना या git clone का उपयोग करना।

Hugging Face CLI का उपयोग करके Phi Family मॉडल डाउनलोड करना

  • Hugging Face CLI इंस्टॉल करें
pip install -U "huggingface_hub[cli]"
  • Huggingface-cli का उपयोग करके लॉगिन करें

User Access Token का उपयोग करके Hugging Face में लॉगिन करें, जिसे आप अपने Settings page से प्राप्त कर सकते हैं।

huggingface-cli login --token $HF_TOKEN --add-to-git-credential
  • डाउनलोड करें

आप मॉडल डाउनलोड कर सकते हैं और इसे कैश में सेव कर सकते हैं।

huggingface-cli download microsoft/phi-4

आप इसे किसी विशेष स्थान पर सेट कर सकते हैं।

huggingface-cli download microsoft/phi-4 --local-dir $YOUR_PATH

git clone का उपयोग करके Phi Family मॉडल डाउनलोड करना

आप मॉडल डाउनलोड करने के लिए git clone का उपयोग भी कर सकते हैं।

git lfs install

git clone https://huggingface.co/microsoft/phi-4

उदाहरण - Microsoft Phi-4 का Inference

  • Transformers लाइब्रेरी इंस्टॉल करना
pip install transformers -U
  • इस कोड को VSCode में चलाना
import transformers

pipeline = transformers.pipeline(
    "text-generation",
    model="microsoft/phi-4",
    model_kwargs={"torch_dtype": "auto"},
    device_map="auto",
)

messages = [
    {"role": "user", "content": "I have $20,000 in my savings account, where I receive a 4% profit per year and payments twice a year. Can you please tell me how long it will take for me to become a millionaire? Also, can you please explain the math step by step as if you were explaining it to an uneducated person?"},
]

outputs = pipeline(messages, max_new_tokens=2048)
print(outputs[0]["generated_text"][-1])

अस्वीकरण:
यह दस्तावेज़ AI अनुवाद सेवा Co-op Translator का उपयोग करके अनुवादित किया गया है। जबकि हम सटीकता सुनिश्चित करने का प्रयास करते हैं, कृपया ध्यान दें कि स्वचालित अनुवादों में त्रुटियाँ या अशुद्धियाँ हो सकती हैं। मूल दस्तावेज़, जो इसकी मूल भाषा में है, को प्रामाणिक स्रोत माना जाना चाहिए। महत्वपूर्ण जानकारी के लिए, पेशेवर मानव अनुवाद की अनुशंसा की जाती है। इस अनुवाद के उपयोग से उत्पन्न किसी भी गलतफहमी या गलत व्याख्या के लिए हम जिम्मेदार नहीं हैं।