Limites de Taxa e Custos
Entender e gerenciar o uso da API é crucial para uma experiência tranquila e econômica com o AI Cockpit Reasoning. Esta seção explica como rastrear o uso de tokens, custos e como configurar limites de taxa.
Uso de Tokens
O AI Cockpit Reasoning interage com modelos de IA usando tokens. Tokens são essencialmente pedaços de palavras. O número de tokens usados em uma solicitação e resposta afeta tanto o tempo de processamento quanto o custo.
- Tokens de Entrada: São os tokens em seu prompt, incluindo o prompt do sistema, suas instruções e qualquer contexto fornecido (por exemplo, conteúdo de arquivos).
- Tokens de Saída: São os tokens gerados pelo modelo de IA em sua resposta.
Você pode ver o número de tokens de entrada e saída usados para cada interação no histórico do chat.
Cálculo de Custo
A maioria dos provedores de IA cobra com base no número de tokens usados. O preço varia dependendo do provedor e do modelo específico.
O AI Cockpit Reasoning calcula automaticamente o custo estimado de cada solicitação de API com base no preço do modelo configurado. Esse custo é exibido no histórico do chat, ao lado do uso de tokens.
Nota:
- O cálculo de custo é uma estimativa. O custo real pode variar ligeiramente dependendo das práticas de faturamento do provedor.
- Alguns provedores podem oferecer níveis gratuitos ou créditos. Verifique a documentação do seu provedor para obter detalhes.
- Alguns provedores oferecem cache de prompt, o que reduz bastante o custo.
Configurando Limites de Taxa
Para evitar o uso excessivo acidental da API e para ajudá-lo a gerenciar os custos, o AI Cockpit Reasoning permite que você defina um limite de taxa. O limite de taxa especifica o tempo mínimo (em segundos) entre as solicitações de API.
Como configurar:
- Abra as configurações do AI Cockpit Reasoning (ícone no canto superior direito).
- Vá para a seção "Configurações Avançadas" na guia Provedores.
- Encontre a configuração "Limite de Taxa (segundos)".
- Digite o atraso desejado em segundos. Um valor de 0 desativa o limite de taxa.
Exemplo:
Se você definir o limite de taxa para 10 segundos, o AI Cockpit Reasoning aguardará pelo menos 10 segundos após a conclusão de uma solicitação de API antes de enviar a próxima.
Dicas para Otimizar o Uso de Tokens
- Seja Conciso: Use uma linguagem clara e concisa em seus prompts. Evite palavras ou detalhes desnecessários.
- Forneça Apenas Contexto Relevante: Use menções de contexto (
@file.ts
,@folder/
) seletivamente. Inclua apenas os arquivos que são diretamente relevantes para a tarefa. - Divida as Tarefas: Divida tarefas grandes em subtarefas menores e mais focadas.
- Use Instruções Personalizadas: Forneça instruções personalizadas para orientar o comportamento do AI Cockpit Reasoning e reduzir a necessidade de explicações longas em cada prompt.
- Escolha o Modelo Certo: Alguns modelos são mais econômicos do que outros. Considere usar um modelo menor e mais rápido para tarefas que não exigem todo o poder de um modelo maior.
- Use Modos: Diferentes modos podem acessar diferentes ferramentas, por exemplo, o
Architect
não pode modificar o código, o que o torna uma escolha segura ao analisar uma base de código complexa, sem se preocupar em permitir acidentalmente operações caras. - Desative o MCP se não for usado: Se você não estiver usando os recursos do MCP (Model Context Protocol), considere desativá-lo nas configurações do MCP para reduzir significativamente o tamanho do prompt do sistema e economizar tokens.
Ao entender e gerenciar o uso da sua API, você pode usar o AI Cockpit Reasoning de forma eficaz e eficiente.