Skip to main content

Usando seus próprios modelos LLM na CLI do GitHub Copilot

Use um modelo de um provedor externo de sua escolha Copilot fornecendo sua própria chave de API.

Você pode configurar o CLI do Copilot para usar seu próprio provedor de LLM, também chamado BYOK (Bring Your Own Key), em vez de modelos hospedados pelo GitHub. Isso permite que você se conecte a pontos de extremidade compatíveis com o OpenAI, o OpenAI do Azure ou o Anthropic, incluindo modelos executados localmente, como o Ollama.

Pré-requisitos

  • CLI do Copilot está instalado. Consulte Instalando a CLI do GitHub Copilot.
  • Você tem uma chave de API de um provedor LLM com suporte ou um modelo local em execução (como o Ollama).

Provedores com suporte

          CLI do Copilot dá suporte a três tipos de provedor:
Tipo de provedorServiços compatíveis
openaiOpenAI, Ollama, vLLM, Foundry Local e qualquer outro ponto de extremidade compatível com a API Chat Completions da OpenAI. Esse é o tipo de provedor padrão.
azureServiço OpenAI do Azure.
anthropicAnthropic (modelos de Claude).

Para obter exemplos adicionais, execute copilot help providers em seu terminal.

Requisitos de modelo

Os modelos devem dar suporte à chamada de ferramentas (também denominada chamada de funções) e ao streaming. Se um modelo não der suporte a nenhuma das funcionalidades, CLI do Copilot retornará um erro. Para obter melhores resultados, use um modelo com uma janela de contexto de pelo menos 128 mil tokens.

Configurando seu provedor

Configure seu provedor de modelo definindo variáveis de ambiente antes de iniciar CLI do Copilot.

Variável de ambienteObrigatórioDescrição
COPILOT_PROVIDER_BASE_URLSimA URL base do ponto de extremidade de API do provedor do seu model
COPILOT_PROVIDER_TYPENoO tipo de provedor: openai (padrão) azureou anthropic.
COPILOT_PROVIDER_API_KEYNoSua chave de API para o provedor. Não é necessário para provedores que não usam autenticação, como uma instância de Ollama local.
COPILOT_MODELSimO identificador de modelo a ser usado. Você também pode definir isso com o --model sinalizador de linha de comando.

Conectando-se a um endpoint compatível com OpenAI

Use as etapas a seguir se estiver se conectando a OpenAI, Ollama, vLLM, Foundry Local ou qualquer outro ponto de extremidade compatível com a API de Conclusões de Chat do OpenAI.

  1. Defina variáveis de ambiente para seu provedor. Por exemplo, para uma instância local do Ollama:

    export COPILOT_PROVIDER_BASE_URL=http://localhost:11434
    export COPILOT_MODEL=YOUR-MODEL-NAME
    

    Substitua YOUR-MODEL-NAME pelo nome do modelo que você extraiu no Ollama (por exemplo, llama3.2).

  2. Para um ponto de extremidade remoto do OpenAI, defina a sua chave de API também.

    export COPILOT_PROVIDER_BASE_URL=https://api.openai.com/v1
    export COPILOT_PROVIDER_API_KEY=YOUR-OPENAI-API-KEY
    export COPILOT_MODEL=YOUR-MODEL-NAME
    

    Substitua YOUR-OPENAI-API-KEY por sua chave de API OpenAI e YOUR-MODEL-NAME pelo modelo que você deseja usar (por exemplo, gpt-4o).

  3. Inicie o CLI do Copilot.

copilot

Conectando-se ao Azure OpenAI

  1. Defina as variáveis de ambiente para Azure OpenAI.

    export COPILOT_PROVIDER_BASE_URL=https://YOUR-RESOURCE-NAME.openai.azure.com/openai/deployments/YOUR-DEPLOYMENT-NAME
    export COPILOT_PROVIDER_TYPE=azure
    export COPILOT_PROVIDER_API_KEY=YOUR-AZURE-API-KEY
    export COPILOT_MODEL=YOUR-DEPLOYMENT-NAME
    

    Substitua os seguintes espaços reservados:

    • YOUR-RESOURCE-NAME: nome do recurso Azure OpenAI
    • YOUR-DEPLOYMENT-NAME: o nome da implantação do modelo
    • YOUR-AZURE-API-KEY: sua chave de API Azure OpenAI
  2. Inicie o CLI do Copilot.

copilot

Conectando-se ao Anthropic

  1. Defina as variáveis de ambiente para Anthropic:

    export COPILOT_PROVIDER_TYPE=anthropic
    export COPILOT_PROVIDER_BASE_URL=https://api.anthropic.com
    export COPILOT_PROVIDER_API_KEY=YOUR-ANTHROPIC-API-KEY
    export COPILOT_MODEL=YOUR-MODEL-NAME
    

    Substitua YOUR-ANTHROPIC-API-KEY por sua chave de API Anthropic e seu MODEL-NAME pelo modelo Claude que você deseja usar (por exemplo, claude-opus-4-5).

  2. Inicie o CLI do Copilot.

copilot

Em execução no modo offline

Você pode executar CLI do Copilot no modo offline para impedir que ele entre em contato com GitHubservidores. Isso foi projetado para ambientes isolados, onde a CLI deve se comunicar apenas com o seu provedor de modelo local.

Importante

O modo offline só garante o isolamento total da rede se o provedor também for local ou dentro do mesmo ambiente isolado. Se COPILOT_PROVIDER_BASE_URL apontar para um endpoint remoto, suas solicitações e o contexto do código ainda serão enviados pela rede para esse provedor.

  1. Configure as variáveis de ambiente do provedor, conforme descrito na configuração do provedor.

  2. Defina a variável de ambiente do modo offline:

    export COPILOT_OFFLINE=true
    
  3. Inicie o CLI do Copilot.

copilot