Usando Modelos Locais
O AI Cockpit Reasoning suporta a execução de modelos de linguagem localmente em sua própria máquina usando Ollama e LM Studio. Isso oferece várias vantagens:
- Privacidade: Seu código e dados nunca saem do seu computador.
- Acesso Offline: Você pode usar o AI Cockpit Reasoning mesmo sem uma conexão com a internet.
- Economia de Custos: Evite taxas de uso de API associadas a modelos baseados em nuvem.
- Personalização: Experimente diferentes modelos e configurações.
No entanto, o uso de modelos locais também tem algumas desvantagens:
- Requisitos de Recursos: Modelos locais podem ser intensivos em recursos, exigindo um computador potente com uma boa CPU e, idealmente, uma GPU dedicada.
- Complexidade da Configuração: A configuração de modelos locais pode ser mais complexa do que o uso de APIs baseadas em nuvem.
- Desempenho do Modelo: O desempenho dos modelos locais pode variar significativamente. Embora alguns sejam excelentes, eles nem sempre correspondem às capacidades dos maiores e mais avançados modelos em nuvem.
- Recursos Limitados: Modelos locais (e muitos modelos online) geralmente não suportam recursos avançados como cache de prompt, uso de computador e outros.
Provedores de Modelos Locais Suportados
O AI Cockpit Reasoning atualmente suporta dois principais provedores de modelos locais:
- Ollama: Uma popular ferramenta de código aberto para executar grandes modelos de linguagem localmente. Ele suporta uma ampla gama de modelos.
- LM Studio: Um aplicativo de desktop amigável que simplifica o processo de download, configuração e execução de modelos locais. Ele também fornece um servidor local que emula a API da OpenAI.
Configurando Modelos Locais
Para instruções detalhadas de configuração, consulte:
Ambos os provedores oferecem capacidades semelhantes, mas com interfaces de usuário e fluxos de trabalho diferentes. O Ollama oferece mais controle através de sua interface de linha de comando, enquanto o LM Studio oferece uma interface gráfica mais amigável.
Solução de Problemas
-
"Nenhuma conexão pôde ser feita porque a máquina de destino a recusou ativamente": Isso geralmente significa que o servidor Ollama ou LM Studio não está em execução ou está em execução em uma porta/endereço diferente do que o AI Cockpit Reasoning está configurado para usar. Verifique novamente a configuração do URL Base.
-
Tempos de Resposta Lentos: Modelos locais podem ser mais lentos que os modelos baseados em nuvem, especialmente em hardware menos potente. Se o desempenho for um problema, tente usar um modelo menor.
-
Modelo Não Encontrado: Certifique-se de ter digitado o nome do modelo corretamente. Se você estiver usando o Ollama, use o mesmo nome que você fornece no comando
ollama run
.