Files
tf_code/packages/web/src/content/docs/fr/models.mdx
2026-02-10 20:22:30 +00:00

224 lines
6.2 KiB
Plaintext
Raw Blame History

This file contains invisible Unicode characters
This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
---
title: Modèles
description: Configuration d'un fournisseur et d'un modèle LLM.
---
OpenCode utilise [AI SDK](https://ai-sdk.dev/) et [Models.dev](https://models.dev) pour prendre en charge **75+ fournisseurs LLM** et prend en charge l'exécution de modèles locaux.
---
## Fournisseurs
Les fournisseurs les plus populaires sont préchargés par défaut. Si vous avez ajouté les informations d'identification d'un fournisseur via la commande `/connect`, elles seront disponibles lorsque vous démarrerez OpenCode.
En savoir plus sur [fournisseurs](/docs/providers).
---
## Sélectionnez un modèle
Une fois que vous avez configuré votre fournisseur, vous pouvez sélectionner le modèle souhaité en tapant :
```bash frame="none"
/models
```
---
## Modèles recommandés
Il existe de nombreux modèles et de nouveaux modèles sortent chaque semaine.
:::tip
Pensez à utiliser lun des modèles que nous recommandons.
:::
Cependant, seuls quelques-uns dentre eux savent à la fois générer du code et appeler des outils.
Voici plusieurs modèles qui fonctionnent bien avec OpenCode, sans ordre particulier. (Cette liste nest pas exhaustive et nest pas nécessairement à jour) :
- GPT 5.2
- Codex GPT 5.1
- Claude Opus 4.5
- Claude Sonnet 4.5
- Minimax M2.1
- Gemini 3 Pro
---
## Définir une valeur par défaut
Pour définir l'un d'entre eux comme modèle par défaut, vous pouvez définir la clé `model` dans votre
OpenCode configuration.
```json title="opencode.json" {3}
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}
```
Ici, l'identifiant complet est `provider_id/model_id`. Par exemple, si vous utilisez [OpenCode Zen](/docs/zen), vous utiliserez `opencode/gpt-5.1-codex` pour GPT 5.1 Codex.
Si vous avez configuré un [fournisseur personnalisé](/docs/providers#custom), le `provider_id` est la clé de la partie `provider` de votre configuration et le `model_id` est la clé de `provider.models`.
---
## Configurer les modèles
Vous pouvez configurer globalement les options d'un modèle via le fichier config.
```jsonc title="opencode.jsonc" {7-12,19-24}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}
```
Ici, nous configurons les paramètres globaux pour deux modèles intégrés : `gpt-5` lorsqu'il est accessible via le fournisseur `openai` et `claude-sonnet-4-20250514` lorsqu'il est accessible via le fournisseur `anthropic`.
Les noms du fournisseur intégré et des modèles peuvent être trouvés sur [Models.dev](https://models.dev).
Vous pouvez également configurer ces options pour tous les agents que vous utilisez. La configuration de l'agent remplace ici toutes les options globales. [En savoir plus](/docs/agents/#additional).
Vous pouvez également définir des variantes personnalisées qui étendent celles intégrées. Les variantes vous permettent de configurer différents paramètres pour le même modèle sans créer d'entrées en double :
```jsonc title="opencode.jsonc" {6-21}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}
```
---
## Variantes
De nombreux modèles prennent en charge plusieurs variantes avec différentes configurations. OpenCode est livré avec des variantes par défaut intégrées pour les fournisseurs populaires.
### Built-in variants
OpenCode est livré avec des variantes par défaut pour de nombreux fournisseurs :
**Anthropic** :
- `high` - Budget de réflexion élevé (par défaut)
- `max` - Budget de réflexion maximum
**OpenAI** :
Varie selon le modèle mais en gros :
- `none` - Aucun raisonnement
- `minimal` - Effort de raisonnement minimal
- `low` - Faible effort de raisonnement
- `medium` - Effort de raisonnement moyen
- `high`  Effort de raisonnement élevé
- `xhigh` - Effort de raisonnement très élevé
**Google**:
- `low`  Budget d'effort/jetons réduit
- `high`  Budget d'effort/de jetons plus élevé
:::tip
Cette liste n'est pas exhaustive. De nombreux autres fournisseurs ont également des paramètres par défaut intégrés.
:::
### Variantes personnalisées
Vous pouvez remplacer les variantes existantes ou ajouter les vôtres :
```jsonc title="opencode.jsonc" {7-18}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}
```
### Cycle variants
Utilisez le raccourci clavier `variant_cycle` pour basculer rapidement entre les variantes. [En savoir plus](/docs/keybinds).
---
## Chargement des modèles
Lorsque OpenCode démarre, il recherche les modèles dans l'ordre de priorité suivant :
1. L'indicateur de ligne de commande `--model` ou `-m`. Le format est le même que dans le fichier de configuration : `provider_id/model_id`.
2. La liste des modèles dans la configuration OpenCode.
```json title="opencode.json"
{
"$schema": "https://opencode.ai/config.json",
"model": "anthropic/claude-sonnet-4-20250514"
}
```
Le format ici est `provider/model`.
3. Le dernier modèle utilisé.
4. Le premier modèle utilisant une priorité interne.