AI Toolkit para VS Code simplifica el desarrollo de aplicaciones de IA generativa al reunir herramientas avanzadas de desarrollo de IA y modelos del catálogo Azure AI Foundry y otros catálogos como Hugging Face. Podrás explorar el catálogo de modelos de IA impulsado por GitHub Models y Azure AI Foundry Model Catalogs, descargarlos localmente o de forma remota, ajustarlos, probarlos y usarlos en tu aplicación.
La vista previa de AI Toolkit se ejecutará localmente. La inferencia local o el ajuste fino dependen del modelo que selecciones; es posible que necesites una GPU como NVIDIA CUDA GPU. También puedes ejecutar GitHub Models directamente con AITK.
Aprende más sobre cómo instalar el subsistema de Windows para Linux
y cómo cambiar la distribución predeterminada.
Repositorio de GitHub de AI Toolkit
-
Windows, Linux, macOS
-
Para el ajuste fino en Windows y Linux, necesitarás una GPU Nvidia. Además, Windows requiere el subsistema de Windows para Linux con la distribución de Ubuntu 18.4 o superior. Aprende más sobre cómo instalar el subsistema de Windows para Linux y cómo cambiar la distribución predeterminada.
AI Toolkit se distribuye como una Extensión de Visual Studio Code, por lo que primero necesitas instalar VS Code y luego descargar AI Toolkit desde el VS Marketplace. El AI Toolkit está disponible en el Visual Studio Marketplace y se puede instalar como cualquier otra extensión de VS Code.
Si no estás familiarizado con la instalación de extensiones de VS Code, sigue estos pasos:
- En la barra de actividad de VS Code, selecciona Extensiones.
- En la barra de búsqueda de extensiones, escribe "AI Toolkit".
- Selecciona "AI Toolkit for Visual Studio Code".
- Selecciona Instalar.
¡Ahora estás listo para usar la extensión!
Se te pedirá que inicies sesión en GitHub, así que haz clic en "Permitir" para continuar. Serás redirigido a la página de inicio de sesión de GitHub.
Inicia sesión y sigue los pasos del proceso. Una vez completado con éxito, serás redirigido a VS Code.
Después de instalar la extensión, verás el icono de AI Toolkit aparecer en tu barra de actividad.
¡Exploremos las acciones disponibles!
La barra lateral principal del AI Toolkit está organizada en
- Modelos
- Recursos
- Playground
- Ajuste fino
- Evaluación
Estas opciones están disponibles en la sección Recursos. Para comenzar, selecciona Catálogo de Modelos.
Al iniciar AI Toolkit desde la barra lateral de VS Code, puedes seleccionar entre las siguientes opciones:
- Encuentra un modelo compatible en el Catálogo de Modelos y descárgalo localmente.
- Prueba la inferencia del modelo en el Model Playground.
- Ajusta el modelo localmente o de forma remota en Model Fine-tuning.
- Despliega modelos ajustados en la nube mediante el palette de comandos de AI Toolkit.
- Evalúa modelos.
Note
GPU Vs CPU
Notarás que las tarjetas de los modelos muestran el tamaño del modelo, la plataforma y el tipo de acelerador (CPU, GPU). Para un rendimiento optimizado en dispositivos Windows que tengan al menos una GPU, selecciona versiones de modelos que solo apunten a Windows.
Esto asegura que tengas un modelo optimizado para el acelerador DirectML.
Los nombres de los modelos tienen el formato:
{model_name}-{accelerator}-{quantization}-{format}
.
Para verificar si tienes una GPU en tu dispositivo Windows, abre Administrador de Tareas y luego selecciona la pestaña Rendimiento. Si tienes GPU(s), aparecerán listadas con nombres como "GPU 0" o "GPU 1".
Después de configurar todos los parámetros, haz clic en Generar Proyecto.
Una vez que tu modelo se haya descargado, selecciona Load in Playground en la tarjeta del modelo en el catálogo:
- Inicia la descarga del modelo.
- Instala todos los requisitos previos y dependencias.
- Crea un espacio de trabajo en VS Code.
AI Toolkit incluye un servidor web API REST local en el puerto 5272 que utiliza el formato de OpenAI chat completions.
Esto te permite probar tu aplicación localmente sin depender de un servicio de modelo de IA en la nube. Por ejemplo, el siguiente archivo JSON muestra cómo configurar el cuerpo de la solicitud:
{
"model": "Phi-4",
"messages": [
{
"role": "user",
"content": "what is the golden ratio?"
}
],
"temperature": 0.7,
"top_p": 1,
"top_k": 10,
"max_tokens": 100,
"stream": true
}
Puedes probar la API REST utilizando (por ejemplo) Postman o la utilidad CURL (Client URL):
curl -vX POST http://127.0.0.1:5272/v1/chat/completions -H 'Content-Type: application/json' -d @body.json
from openai import OpenAI
client = OpenAI(
base_url="http://127.0.0.1:5272/v1/",
api_key="x" # required for the API but not used
)
chat_completion = client.chat.completions.create(
messages=[
{
"role": "user",
"content": "what is the golden ratio?",
}
],
model="Phi-4",
)
print(chat_completion.choices[0].message.content)
Agrega la biblioteca cliente de Azure OpenAI para .NET a tu proyecto utilizando NuGet:
dotnet add {project_name} package Azure.AI.OpenAI --version 1.0.0-beta.17
Agrega un archivo C# llamado OverridePolicy.cs a tu proyecto y pega el siguiente código:
// OverridePolicy.cs
using Azure.Core.Pipeline;
using Azure.Core;
internal partial class OverrideRequestUriPolicy(Uri overrideUri)
: HttpPipelineSynchronousPolicy
{
private readonly Uri _overrideUri = overrideUri;
public override void OnSendingRequest(HttpMessage message)
{
message.Request.Uri.Reset(_overrideUri);
}
}
A continuación, pega el siguiente código en tu archivo Program.cs:
// Program.cs
using Azure.AI.OpenAI;
Uri localhostUri = new("http://localhost:5272/v1/chat/completions");
OpenAIClientOptions clientOptions = new();
clientOptions.AddPolicy(
new OverrideRequestUriPolicy(localhostUri),
Azure.Core.HttpPipelinePosition.BeforeTransport);
OpenAIClient client = new(openAIApiKey: "unused", clientOptions);
ChatCompletionsOptions options = new()
{
DeploymentName = "Phi-4",
Messages =
{
new ChatRequestSystemMessage("You are a helpful assistant. Be brief and succinct."),
new ChatRequestUserMessage("What is the golden ratio?"),
}
};
StreamingResponse<StreamingChatCompletionsUpdate> streamingChatResponse
= await client.GetChatCompletionsStreamingAsync(options);
await foreach (StreamingChatCompletionsUpdate chatChunk in streamingChatResponse)
{
Console.Write(chatChunk.ContentUpdate);
}
- Comienza con el descubrimiento de modelos y el playground.
- Ajuste fino e inferencia de modelos utilizando recursos de computación locales.
- Ajuste fino e inferencia remota utilizando recursos de Azure.
Por favor, consulta nuestra página de Preguntas y Respuestas para los problemas más comunes y sus soluciones.
Descargo de responsabilidad:
Este documento ha sido traducido utilizando el servicio de traducción automática Co-op Translator. Si bien nos esforzamos por lograr precisión, tenga en cuenta que las traducciones automáticas pueden contener errores o imprecisiones. El documento original en su idioma nativo debe considerarse como la fuente autorizada. Para información crítica, se recomienda una traducción profesional realizada por humanos. No nos hacemos responsables por malentendidos o interpretaciones erróneas que surjan del uso de esta traducción.