wip(docs): i18n (#12681)

This commit is contained in:
Adam
2026-02-09 11:34:35 -06:00
committed by GitHub
parent f74c0339cc
commit dc53086c1e
642 changed files with 192745 additions and 509 deletions

View File

@@ -0,0 +1,223 @@
---
title: Modèles
description: Configuration d'un fournisseur et d'un modèle LLM.
---
OpenCode utilise [AI SDK](https://ai-sdk.dev/) et [Models.dev](https://models.dev) pour prendre en charge **75+ fournisseurs LLM** et prend en charge l'exécution de modèles locaux.
---
## Fournisseurs
Les fournisseurs les plus populaires sont préchargés par défaut. Si vous avez ajouté les informations d'identification d'un fournisseur via la commande `/connect`, elles seront disponibles lorsque vous démarrerez OpenCode.
En savoir plus sur [fournisseurs](/docs/providers).
---
## Sélectionnez un modèle
Une fois que vous avez configuré votre fournisseur, vous pouvez sélectionner le modèle souhaité en tapant :
```bash frame="none"
/models
```
---
## Modèles recommandés
Il existe de nombreux modèles et de nouveaux modèles sortent chaque semaine.
:::tip
Pensez à utiliser lun des modèles que nous recommandons.
:::
Cependant, seuls quelques-uns dentre eux savent à la fois générer du code et appeler des outils.
Voici plusieurs modèles qui fonctionnent bien avec OpenCode, sans ordre particulier. (Cette liste nest pas exhaustive et nest pas nécessairement à jour) :
- GPT 5.2
- Codex GPT 5.1
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gémeaux 3 Pro
---
## Définir une valeur par défaut
Pour définir l'un d'entre eux comme modèle par défaut, vous pouvez définir la clé `model` dans votre
OpenCode configuration.
```json title="opencode.json" {3}
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}
```
Ici, l'identifiant complet est `provider_id/model_id`. Par exemple, si vous utilisez [OpenCode Zen](/docs/zen), vous utiliserez `opencode/gpt-5.1-codex` pour GPT 5.1 Codex.
Si vous avez configuré un [fournisseur personnalisé](/docs/providers#custom), le `provider_id` est la clé de la partie `provider` de votre configuration et le `model_id` est la clé de `provider.models`.
---
## Configurer les modèles
Vous pouvez configurer globalement les options d'un modèle via le fichier config.
```jsonc title="opencode.jsonc" {7-12,19-24}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}
```
Ici, nous configurons les paramètres globaux pour deux modèles intégrés : `gpt-5` lorsqu'il est accessible via le fournisseur `openai` et `claude-sonnet-4-20250514` lorsqu'il est accessible via le fournisseur `anthropic`.
Les noms du fournisseur intégré et des modèles peuvent être trouvés sur [Models.dev](https://models.dev).
Vous pouvez également configurer ces options pour tous les agents que vous utilisez. La configuration de l'agent remplace ici toutes les options globales. [En savoir plus](/docs/agents/#additional).
Vous pouvez également définir des variantes personnalisées qui étendent celles intégrées. Les variantes vous permettent de configurer différents paramètres pour le même modèle sans créer d'entrées en double :
```jsonc title="opencode.jsonc" {6-21}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}
```
---
## Variantes
De nombreux modèles prennent en charge plusieurs variantes avec différentes configurations. OpenCode est livré avec des variantes par défaut intégrées pour les fournisseurs populaires.
### Variantes intégrées
OpenCode est livré avec des variantes par défaut pour de nombreux fournisseurs :
**Anthropique** :
- `high` - Budget de réflexion élevé (par défaut)
- `max` - Budget de réflexion maximum
**OpenAI** :
Varie selon le modèle mais en gros :
- `none` - Aucun raisonnement
- `minimal` - Effort de raisonnement minimal
- `low` - Faible effort de raisonnement
- `medium` - Effort de raisonnement moyen
- `high`  Effort de raisonnement élevé
- `xhigh` - Effort de raisonnement très élevé
**Google**:
- `low`  Budget d'effort/jetons réduit
- `high`  Budget d'effort/de jetons plus élevé
:::tip
Cette liste n'est pas exhaustive. De nombreux autres fournisseurs ont également des paramètres par défaut intégrés.
:::
### Variantes personnalisées
Vous pouvez remplacer les variantes existantes ou ajouter les vôtres :
```jsonc title="opencode.jsonc" {7-18}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}
```
### Variantes de cycles
Utilisez le raccourci clavier `variant_cycle` pour basculer rapidement entre les variantes. [En savoir plus](/docs/keybinds).
---
## Chargement des modèles
Lorsque OpenCode démarre, il recherche les modèles dans l'ordre de priorité suivant :
1. L'indicateur de ligne de commande `--model` ou `-m`. Le format est le même que dans le fichier de configuration : `provider_id/model_id`.
2. La liste des modèles dans la configuration OpenCode.
```json title="opencode.json"
{
"$schema": "https://opencode.ai/config.json",
"model": "anthropic/claude-sonnet-4-20250514"
}
```
Le format ici est `provider/model`.
3. Le dernier modèle utilisé.
4. Le premier modèle utilisant une priorité interne.