Uso de proveedores compatibles con OpenAI en AI Cockpit Reasoning
AI Cockpit Reasoning admite una amplia variedad de proveedores de modelos de IA que ofrecen APIs compatibles con el estándar de la API de OpenAI. Esto significa que puede usar modelos de proveedores distintos de OpenAI, manteniendo una interfaz de API familiar. Esto incluye proveedores como:
- Modelos locales ejecutados mediante herramientas como Ollama y LM Studio, cubiertos en secciones separadas.
- Proveedores en la nube como Perplexity, Together AI, Anyscale y otros.
- Cualquier otro proveedor que ofrezca un endpoint de API compatible con OpenAI.
Este documento se centra en configurar proveedores distintos de la API oficial de OpenAI, que tiene su propia página de configuración dedicada.
Configuración general
La clave para usar un proveedor compatible con OpenAI es configurar tres ajustes principales:
- Base URL: es el endpoint de API del proveedor. No será
https://api.openai.com/v1, que corresponde a la API oficial de OpenAI. - API Key: es la clave secreta que obtiene del proveedor.
- Model ID: es el nombre del modelo específico.
Encontrará estos ajustes en el panel de configuración de AI Cockpit Reasoning (haga clic en el icono ):
- API Provider: seleccione "OpenAI Compatible".
- Base URL: introduzca la URL base proporcionada por el proveedor elegido. Esto es crucial.
- API Key: introduzca su clave API.
- Model: elija un modelo.
- Model Configuration: permite personalizar la configuración avanzada del modelo:
- Max Output Tokens
- Context Window
- Image Support
- Computer Use
- Input Price
- Output Price
Soporte para URL completa de endpoint
AI Cockpit Reasoning admite URLs completas de endpoint en el campo Base URL, lo que ofrece mayor flexibilidad para configurar proveedores:
Formato estándar de Base URL:
https://api.provider.com/v1
Formato de URL completa de endpoint:
https://api.provider.com/v1/chat/completions
https://custom-endpoint.provider.com/api/v2/models/chat
Esta mejora permite:
- Conectarse a proveedores con estructuras de endpoint no estándar.
- Usar gateways de API personalizados o servicios proxy.
- Trabajar con proveedores que requieren rutas de endpoint específicas.
- Integrarse con implementaciones empresariales o autoalojadas de API.
Nota: al usar URLs completas de endpoint, asegúrese de que la URL apunte al endpoint correcto de chat completions para su proveedor.
Modelos compatibles para endpoint nativo de OpenAI
Aunque este tipo de proveedor permite conectarse a varios endpoints, si se conecta directamente a la API oficial de OpenAI (o a un endpoint que la replique exactamente), AI Cockpit Reasoning reconoce los siguientes IDs de modelo según la definición openAiNativeModels en su código fuente:
o3-minio3-mini-higho3-mini-lowo1o1-previewo1-minigpt-4.5-previewgpt-4ogpt-4o-mini
Nota: si usa otro proveedor compatible con OpenAI, como Together AI, Anyscale u otros, los IDs de modelo disponibles variarán. Consulte siempre la documentación específica del proveedor para conocer los nombres de modelos compatibles.
Solución de problemas
- "Invalid API Key": verifique que haya introducido la clave API correctamente.
- "Model Not Found": asegúrese de usar un ID de modelo válido para el proveedor elegido.
- Errores de conexión: verifique que la Base URL sea correcta y que la API del proveedor esté accesible.
- Resultados inesperados: si obtiene resultados inesperados, pruebe con otro modelo.
Al usar un proveedor compatible con OpenAI, puede aprovechar la flexibilidad de AI Cockpit Reasoning con una gama más amplia de modelos de IA. Recuerde consultar siempre la documentación del proveedor para obtener la información más precisa y actualizada.