Você pode configurar o CLI do Copilot para usar seu próprio provedor de LLM, também chamado BYOK (Bring Your Own Key), em vez de modelos hospedados pelo GitHub. Isso permite que você se conecte a pontos de extremidade compatíveis com o OpenAI, o OpenAI do Azure ou o Anthropic, incluindo modelos executados localmente, como o Ollama.
Pré-requisitos
- CLI do Copilot está instalado. Consulte Instalando a CLI do GitHub Copilot.
- Você tem uma chave de API de um provedor LLM com suporte ou um modelo local em execução (como o Ollama).
Provedores com suporte
CLI do Copilot dá suporte a três tipos de provedor:
| Tipo de provedor | Serviços compatíveis |
|---|---|
openai | OpenAI, Ollama, vLLM, Foundry Local e qualquer outro ponto de extremidade compatível com a API Chat Completions da OpenAI. Esse é o tipo de provedor padrão. |
azure | Serviço OpenAI do Azure. |
anthropic | Anthropic (modelos de Claude). |
Para obter exemplos adicionais, execute copilot help providers em seu terminal.
Requisitos de modelo
Os modelos devem dar suporte à chamada de ferramentas (também denominada chamada de funções) e ao streaming. Se um modelo não der suporte a nenhuma das funcionalidades, CLI do Copilot retornará um erro. Para obter melhores resultados, use um modelo com uma janela de contexto de pelo menos 128 mil tokens.
Configurando seu provedor
Configure seu provedor de modelo definindo variáveis de ambiente antes de iniciar CLI do Copilot.
| Variável de ambiente | Obrigatório | Descrição |
|---|---|---|
COPILOT_PROVIDER_BASE_URL | Sim | A URL base do ponto de extremidade de API do provedor do seu model |
COPILOT_PROVIDER_TYPE | No | O tipo de provedor: openai (padrão) azureou anthropic. |
COPILOT_PROVIDER_API_KEY | No | Sua chave de API para o provedor. Não é necessário para provedores que não usam autenticação, como uma instância de Ollama local. |
COPILOT_MODEL | Sim | O identificador de modelo a ser usado. Você também pode definir isso com o --model sinalizador de linha de comando. |
Conectando-se a um endpoint compatível com OpenAI
Use as etapas a seguir se estiver se conectando a OpenAI, Ollama, vLLM, Foundry Local ou qualquer outro ponto de extremidade compatível com a API de Conclusões de Chat do OpenAI.
-
Defina variáveis de ambiente para seu provedor. Por exemplo, para uma instância local do Ollama:
export COPILOT_PROVIDER_BASE_URL=http://localhost:11434 export COPILOT_MODEL=YOUR-MODEL-NAMESubstitua
YOUR-MODEL-NAMEpelo nome do modelo que você extraiu no Ollama (por exemplo,llama3.2). -
Para um ponto de extremidade remoto do OpenAI, defina a sua chave de API também.
export COPILOT_PROVIDER_BASE_URL=https://api.openai.com/v1 export COPILOT_PROVIDER_API_KEY=YOUR-OPENAI-API-KEY export COPILOT_MODEL=YOUR-MODEL-NAMESubstitua
YOUR-OPENAI-API-KEYpor sua chave de API OpenAI eYOUR-MODEL-NAMEpelo modelo que você deseja usar (por exemplo,gpt-4o). -
Inicie o CLI do Copilot.
copilot
Conectando-se ao Azure OpenAI
-
Defina as variáveis de ambiente para Azure OpenAI.
export COPILOT_PROVIDER_BASE_URL=https://YOUR-RESOURCE-NAME.openai.azure.com/openai/deployments/YOUR-DEPLOYMENT-NAME export COPILOT_PROVIDER_TYPE=azure export COPILOT_PROVIDER_API_KEY=YOUR-AZURE-API-KEY export COPILOT_MODEL=YOUR-DEPLOYMENT-NAMESubstitua os seguintes espaços reservados:
YOUR-RESOURCE-NAME: nome do recurso Azure OpenAIYOUR-DEPLOYMENT-NAME: o nome da implantação do modeloYOUR-AZURE-API-KEY: sua chave de API Azure OpenAI
-
Inicie o CLI do Copilot.
copilot
Conectando-se ao Anthropic
-
Defina as variáveis de ambiente para Anthropic:
export COPILOT_PROVIDER_TYPE=anthropic export COPILOT_PROVIDER_BASE_URL=https://api.anthropic.com export COPILOT_PROVIDER_API_KEY=YOUR-ANTHROPIC-API-KEY export COPILOT_MODEL=YOUR-MODEL-NAMESubstitua
YOUR-ANTHROPIC-API-KEYpor sua chave de API Anthropic e seu MODEL-NAME pelo modelo Claude que você deseja usar (por exemplo,claude-opus-4-5). -
Inicie o CLI do Copilot.
copilot
Em execução no modo offline
Você pode executar CLI do Copilot no modo offline para impedir que ele entre em contato com GitHubservidores. Isso foi projetado para ambientes isolados, onde a CLI deve se comunicar apenas com o seu provedor de modelo local.
Importante
O modo offline só garante o isolamento total da rede se o provedor também for local ou dentro do mesmo ambiente isolado. Se COPILOT_PROVIDER_BASE_URL apontar para um endpoint remoto, suas solicitações e o contexto do código ainda serão enviados pela rede para esse provedor.
-
Configure as variáveis de ambiente do provedor, conforme descrito na configuração do provedor.
-
Defina a variável de ambiente do modo offline:
export COPILOT_OFFLINE=true -
Inicie o CLI do Copilot.
copilot