chore: generate

This commit is contained in:
opencode-agent[bot]
2026-02-10 20:03:24 +00:00
committed by opencode
parent 55119559b3
commit 4f6b929784
21 changed files with 569 additions and 565 deletions

View File

@@ -148,32 +148,32 @@ Définissez l'une de ces variables d'environnement lors de l'exécution de openc
# Option 3: Using Bedrock bearer token
AWS_BEARER_TOKEN_BEDROCK=XXX opencode
```
```
Ou ajoutez-les à votre profil bash :
```bash title="~/.bash_profile"
export AWS_PROFILE=my-dev-profile
export AWS_REGION=us-east-1
```
```
#### Fichier de configuration (recommandé)
Pour une configuration spécifique au projet ou persistante, utilisez `opencode.json` :
```json title="opencode.json"
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}
```
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "my-aws-profile"
}
}
}
}
```
**Options disponibles :**
@@ -190,19 +190,19 @@ Les options du fichier de configuration sont prioritaires sur les variables d'en
Si vous utilisez des points de terminaison d'un VPC pour Bedrock :
```json title="opencode.json"
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "production",
"endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
}
}
}
}
```
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"amazon-bedrock": {
"options": {
"region": "us-east-1",
"profile": "production",
"endpoint": "https://bedrock-runtime.us-east-1.vpce-xxxxx.amazonaws.com"
}
}
}
}
```
:::note
L'option `endpoint` est un alias pour l'option générique `baseURL`, utilisant la terminologie spécifique à AWS. Si `endpoint` et `baseURL` sont spécifiés, `endpoint` est prioritaire.
@@ -334,7 +334,7 @@ Ou ajoutez-le à votre profil bash :
```bash title="~/.bash_profile"
export AZURE_RESOURCE_NAME=XXX
```
```
6. Exécutez la commande `/models` pour sélectionner votre modèle déployé.
@@ -381,7 +381,7 @@ Ou ajoutez-le à votre profil bash :
```bash title="~/.bash_profile"
export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
```
```
6. Exécutez la commande `/models` pour sélectionner votre modèle déployé.
@@ -477,7 +477,7 @@ Ou définissez-le comme variable d'environnement.
```bash title="~/.bash_profile"
export CLOUDFLARE_API_TOKEN=your-api-token
```
```
5. Exécutez la commande `/models` pour sélectionner un modèle.
@@ -488,18 +488,18 @@ Ou définissez-le comme variable d'environnement.
Vous pouvez également ajouter des modèles via votre configuration opencode.
```json title="opencode.json"
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"cloudflare-ai-gateway": {
"models": {
"openai/gpt-4o": {},
"anthropic/claude-sonnet-4": {}
}
}
}
}
```
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"cloudflare-ai-gateway": {
"models": {
"openai/gpt-4o": {},
"anthropic/claude-sonnet-4": {}
}
}
}
}
```
---
@@ -673,8 +673,10 @@ Sélectionnez **OAuth** et votre navigateur s'ouvrira pour autorisation.
6. Exécutez la commande `/models` pour voir les modèles disponibles.
```txt
/models
```
/models
```
````
Trois modèles basés sur Claude sont disponibles :
@@ -697,11 +699,11 @@ Fichier `opencode.json`. Il est également recommandé de désactiver le partage
```json
{
"$schema": "https://opencode.ai/config.json",
"small_model": "gitlab/duo-chat-haiku-4-5",
"share": "disabled"
"$schema": "https://opencode.ai/config.json",
"small_model": "gitlab/duo-chat-haiku-4-5",
"share": "disabled"
}
```
````
:::
@@ -848,7 +850,7 @@ Définissez-les lors de l'exécution de opencode.
```bash
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
```
```
Ou ajoutez-les à votre profil bash.
@@ -856,7 +858,7 @@ Ou ajoutez-les à votre profil bash.
export GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json
export GOOGLE_CLOUD_PROJECT=your-project-id
export VERTEX_LOCATION=global
```
```
:::tip
La région `global` améliore la disponibilité et réduit les erreurs sans frais supplémentaires. Utilisez des points de terminaison régionaux (par exemple, `us-central1`) pour les exigences de résidence des données. [En savoir plus](https://cloud.google.com/vertex-ai/generative-ai/docs/partner-models/use-partner-models#regional_and_global_endpoints)
@@ -1394,17 +1396,17 @@ OpenCode Zen est une liste de modèles testés et vérifiés fournie par l'équi
Vous pouvez également ajouter des modèles supplémentaires via votre configuration opencode.
```json title="opencode.json" {6}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openrouter": {
"models": {
"somecoolnewmodel": {}
}
}
}
}
```
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openrouter": {
"models": {
"somecoolnewmodel": {}
}
}
}
}
```
5. Vous pouvez également les personnaliser via votre configuration opencode. Voici un exemple de spécification d'un fournisseur
@@ -1459,13 +1461,13 @@ Ou définissez la variable d'environnement `AICORE_SERVICE_KEY` :
```bash
AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}' opencode
```
```
Ou ajoutez-le à votre profil bash :
```bash title="~/.bash_profile"
export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","serviceurls":{"AI_API_URL":"..."}}'
```
```
4. Définissez éventuellement l'ID de déploiement et le groupe de ressources :
@@ -1735,17 +1737,17 @@ Si vous êtes abonné au **Plan de codage GLM**, sélectionnez **Plan de codage
Vous pouvez également ajouter des modèles supplémentaires via votre configuration opencode.
```json title="opencode.json" {6}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"zenmux": {
"models": {
"somecoolnewmodel": {}
}
}
}
}
```
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"zenmux": {
"models": {
"somecoolnewmodel": {}
}
}
}
}
```
---