mirror of
https://gitea.toothfairyai.com/ToothFairyAI/tf_code.git
synced 2026-04-05 16:36:52 +00:00
224 lines
6.2 KiB
Plaintext
224 lines
6.2 KiB
Plaintext
---
|
||
title: Modèles
|
||
description: Configuration d'un fournisseur et d'un modèle LLM.
|
||
---
|
||
|
||
OpenCode utilise [AI SDK](https://ai-sdk.dev/) et [Models.dev](https://models.dev) pour prendre en charge **75+ fournisseurs LLM** et prend en charge l'exécution de modèles locaux.
|
||
|
||
---
|
||
|
||
## Fournisseurs
|
||
|
||
Les fournisseurs les plus populaires sont préchargés par défaut. Si vous avez ajouté les informations d'identification d'un fournisseur via la commande `/connect`, elles seront disponibles lorsque vous démarrerez OpenCode.
|
||
|
||
En savoir plus sur [fournisseurs](/docs/providers).
|
||
|
||
---
|
||
|
||
## Sélectionnez un modèle
|
||
|
||
Une fois que vous avez configuré votre fournisseur, vous pouvez sélectionner le modèle souhaité en tapant :
|
||
|
||
```bash frame="none"
|
||
/models
|
||
```
|
||
|
||
---
|
||
|
||
## Modèles recommandés
|
||
|
||
Il existe de nombreux modèles et de nouveaux modèles sortent chaque semaine.
|
||
|
||
:::tip
|
||
Pensez à utiliser l’un des modèles que nous recommandons.
|
||
:::
|
||
|
||
Cependant, seuls quelques-uns d’entre eux savent à la fois générer du code et appeler des outils.
|
||
|
||
Voici plusieurs modèles qui fonctionnent bien avec OpenCode, sans ordre particulier. (Cette liste n’est pas exhaustive et n’est pas nécessairement à jour) :
|
||
|
||
- GPT 5.2
|
||
- Codex GPT 5.1
|
||
- Claude Opus 4.5
|
||
- Claude Sonnet 4.5
|
||
- Minimax M2.1
|
||
- Gemini 3 Pro
|
||
|
||
---
|
||
|
||
## Définir une valeur par défaut
|
||
|
||
Pour définir l'un d'entre eux comme modèle par défaut, vous pouvez définir la clé `model` dans votre
|
||
OpenCode configuration.
|
||
|
||
```json title="opencode.json" {3}
|
||
{
|
||
"$schema": "https://opencode.ai/config.json",
|
||
"model": "lmstudio/google/gemma-3n-e4b"
|
||
}
|
||
```
|
||
|
||
Ici, l'identifiant complet est `provider_id/model_id`. Par exemple, si vous utilisez [OpenCode Zen](/docs/zen), vous utiliserez `opencode/gpt-5.1-codex` pour GPT 5.1 Codex.
|
||
|
||
Si vous avez configuré un [fournisseur personnalisé](/docs/providers#custom), le `provider_id` est la clé de la partie `provider` de votre configuration et le `model_id` est la clé de `provider.models`.
|
||
|
||
---
|
||
|
||
## Configurer les modèles
|
||
|
||
Vous pouvez configurer globalement les options d'un modèle via le fichier config.
|
||
|
||
```jsonc title="opencode.jsonc" {7-12,19-24}
|
||
{
|
||
"$schema": "https://opencode.ai/config.json",
|
||
"provider": {
|
||
"openai": {
|
||
"models": {
|
||
"gpt-5": {
|
||
"options": {
|
||
"reasoningEffort": "high",
|
||
"textVerbosity": "low",
|
||
"reasoningSummary": "auto",
|
||
"include": ["reasoning.encrypted_content"],
|
||
},
|
||
},
|
||
},
|
||
},
|
||
"anthropic": {
|
||
"models": {
|
||
"claude-sonnet-4-5-20250929": {
|
||
"options": {
|
||
"thinking": {
|
||
"type": "enabled",
|
||
"budgetTokens": 16000,
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
}
|
||
```
|
||
|
||
Ici, nous configurons les paramètres globaux pour deux modèles intégrés : `gpt-5` lorsqu'il est accessible via le fournisseur `openai` et `claude-sonnet-4-20250514` lorsqu'il est accessible via le fournisseur `anthropic`.
|
||
Les noms du fournisseur intégré et des modèles peuvent être trouvés sur [Models.dev](https://models.dev).
|
||
|
||
Vous pouvez également configurer ces options pour tous les agents que vous utilisez. La configuration de l'agent remplace ici toutes les options globales. [En savoir plus](/docs/agents/#additional).
|
||
|
||
Vous pouvez également définir des variantes personnalisées qui étendent celles intégrées. Les variantes vous permettent de configurer différents paramètres pour le même modèle sans créer d'entrées en double :
|
||
|
||
```jsonc title="opencode.jsonc" {6-21}
|
||
{
|
||
"$schema": "https://opencode.ai/config.json",
|
||
"provider": {
|
||
"opencode": {
|
||
"models": {
|
||
"gpt-5": {
|
||
"variants": {
|
||
"high": {
|
||
"reasoningEffort": "high",
|
||
"textVerbosity": "low",
|
||
"reasoningSummary": "auto",
|
||
},
|
||
"low": {
|
||
"reasoningEffort": "low",
|
||
"textVerbosity": "low",
|
||
"reasoningSummary": "auto",
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
}
|
||
```
|
||
|
||
---
|
||
|
||
## Variantes
|
||
|
||
De nombreux modèles prennent en charge plusieurs variantes avec différentes configurations. OpenCode est livré avec des variantes par défaut intégrées pour les fournisseurs populaires.
|
||
|
||
### Built-in variants
|
||
|
||
OpenCode est livré avec des variantes par défaut pour de nombreux fournisseurs :
|
||
|
||
**Anthropic** :
|
||
|
||
- `high` - Budget de réflexion élevé (par défaut)
|
||
- `max` - Budget de réflexion maximum
|
||
|
||
**OpenAI** :
|
||
|
||
Varie selon le modèle mais en gros :
|
||
|
||
- `none` - Aucun raisonnement
|
||
- `minimal` - Effort de raisonnement minimal
|
||
- `low` - Faible effort de raisonnement
|
||
- `medium` - Effort de raisonnement moyen
|
||
- `high` – Effort de raisonnement élevé
|
||
- `xhigh` - Effort de raisonnement très élevé
|
||
|
||
**Google**:
|
||
|
||
- `low` – Budget d'effort/jetons réduit
|
||
- `high` – Budget d'effort/de jetons plus élevé
|
||
|
||
:::tip
|
||
Cette liste n'est pas exhaustive. De nombreux autres fournisseurs ont également des paramètres par défaut intégrés.
|
||
:::
|
||
|
||
### Variantes personnalisées
|
||
|
||
Vous pouvez remplacer les variantes existantes ou ajouter les vôtres :
|
||
|
||
```jsonc title="opencode.jsonc" {7-18}
|
||
{
|
||
"$schema": "https://opencode.ai/config.json",
|
||
"provider": {
|
||
"openai": {
|
||
"models": {
|
||
"gpt-5": {
|
||
"variants": {
|
||
"thinking": {
|
||
"reasoningEffort": "high",
|
||
"textVerbosity": "low",
|
||
},
|
||
"fast": {
|
||
"disabled": true,
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
}
|
||
```
|
||
|
||
### Cycle variants
|
||
|
||
Utilisez le raccourci clavier `variant_cycle` pour basculer rapidement entre les variantes. [En savoir plus](/docs/keybinds).
|
||
|
||
---
|
||
|
||
## Chargement des modèles
|
||
|
||
Lorsque OpenCode démarre, il recherche les modèles dans l'ordre de priorité suivant :
|
||
|
||
1. L'indicateur de ligne de commande `--model` ou `-m`. Le format est le même que dans le fichier de configuration : `provider_id/model_id`.
|
||
|
||
2. La liste des modèles dans la configuration OpenCode.
|
||
|
||
```json title="opencode.json"
|
||
{
|
||
"$schema": "https://opencode.ai/config.json",
|
||
"model": "anthropic/claude-sonnet-4-20250514"
|
||
}
|
||
```
|
||
|
||
Le format ici est `provider/model`.
|
||
|
||
3. Le dernier modèle utilisé.
|
||
|
||
4. Le premier modèle utilisant une priorité interne.
|