fix(docs): locale translations

This commit is contained in:
Adam
2026-02-10 07:11:13 -06:00
parent 19ad7ad809
commit 4c4e30cd71
351 changed files with 3744 additions and 3765 deletions

View File

@@ -13,7 +13,7 @@ Vous pouvez basculer entre les agents au cours d'une session ou les appeler avec
---
## Espèces
## Types
Il existe deux types d'agents dans OpenCode ; agents primaires et sous-agents.
@@ -177,7 +177,7 @@ Configurez les agents dans votre fichier de configuration `opencode.json` :
---
### Réduction
### Markdown
Vous pouvez également définir des agents à l'aide de fichiers markdown. Placez-les dans :
@@ -206,11 +206,11 @@ You are in code review mode. Focus on:
Provide constructive feedback without making direct changes.
```
Le nom du fichier de démarque devient le nom de l'agent. Par exemple, `review.md` crée un agent `review`.
Le nom du fichier Markdown devient le nom de l'agent. Par exemple, `review.md` crée un agent `review`.
---
## Possibilités
## Options
Examinons ces options de configuration en détail.
@@ -323,7 +323,7 @@ Définissez sur `true` pour désactiver l'agent.
---
### Rapide
### Prompt
Spécifiez un fichier d'invite système personnalisé pour cet agent avec la configuration `prompt`. Le fichier d'invite doit contenir des instructions spécifiques à l'objectif de l'agent.
@@ -617,7 +617,7 @@ Utilisez une couleur hexadécimale valide (par exemple, `#FF5733`) ou une couleu
---
### Haut P
### Top P
Contrôlez la diversité des réponses avec loption `top_p`. Alternative à la température pour contrôler le caractère aléatoire.

View File

@@ -599,5 +599,5 @@ Ces variables d'environnement activent des fonctionnalités expérimentales qui
| `OPENCODE_EXPERIMENTAL_DISABLE_FILEWATCHER` | booléen | Désactiver l'observateur de fichiers |
| `OPENCODE_EXPERIMENTAL_EXA` | booléen | Activer les fonctionnalités Exa expérimentales |
| `OPENCODE_EXPERIMENTAL_LSP_TY` | booléen | Activer la vérification expérimentale du type LSP |
| `OPENCODE_EXPERIMENTAL_MARKDOWN` | booléen | Activer les fonctionnalités de démarque expérimentales |
| `OPENCODE_EXPERIMENTAL_MARKDOWN` | booléen | Activer les fonctionnalités Markdown expérimentales |
| `OPENCODE_EXPERIMENTAL_PLAN_MODE` | booléen | Activer le mode plan |

View File

@@ -75,7 +75,7 @@ Vous pouvez maintenant exécuter cette commande dans TUI :
---
### Réduction
### Markdown
Vous pouvez également définir des commandes à l'aide de fichiers markdown. Placez-les dans :
@@ -212,7 +212,7 @@ Le contenu du fichier est automatiquement inclus dans linvite.
---
## Possibilités
## Options
Examinons les options de configuration en détail.

View File

@@ -268,7 +268,7 @@ Vous pouvez également configurer [modèles locaux](/docs/models#local). [En sav
Certains fournisseurs prennent en charge des options de configuration supplémentaires au-delà des paramètres génériques `timeout` et `apiKey`.
##### Socle amazonien
##### Amazon Bedrock
Amazon Bedrock prend en charge la configuration spécifique à AWS :

View File

@@ -30,7 +30,7 @@ Vous pouvez également consulter [awesome-opencode](https://github.com/awesome-o
| [opencode-pty](https://github.com/shekohex/opencode-pty.git) | Permet aux agents IA d'exécuter des processus en arrière-plan dans un PTY et de leur envoyer des entrées interactives. |
| [opencode-shell-strategy](https://github.com/JRedeker/opencode-shell-strategy) | Instructions pour les commandes shell non interactives - empêche les blocages des opérations dépendantes du téléscripteur |
| [opencode-wakatime](https://github.com/angristan/opencode-wakatime) | Suivez l'utilisation de OpenCode avec Wakatime |
| [opencode-md-table-formatter](https://github.com/franlol/opencode-md-table-formatter/tree/main) | Nettoyer les tableaux de démarques produits par les LLM |
| [opencode-md-table-formatter](https://github.com/franlol/opencode-md-table-formatter/tree/main) | Nettoyer les tableaux Markdown produits par les LLM |
| [opencode-morph-fast-apply](https://github.com/JRedeker/opencode-morph-fast-apply) | Édition de code 10 fois plus rapide avec Morph Fast Apply API et les marqueurs d'édition différée |
| [oh-my-opencode](https://github.com/code-yeongyu/oh-my-opencode) | Agents d'arrière-plan, outils LSP/AST/MCP prédéfinis, agents sélectionnés, compatibles Claude Code |
| [opencode-notificator](https://github.com/panta82/opencode-notificator) | Notifications de bureau et alertes sonores pour les sessions OpenCode |
@@ -44,8 +44,8 @@ Vous pouvez également consulter [awesome-opencode](https://github.com/awesome-o
| [micode](https://github.com/vtemian/micode) | Brainstorming structuré → Planifier → Mettre en œuvre un workflow avec continuité de session |
| [octto](https://github.com/vtemian/octto) | Interface utilisateur de navigateur interactive pour le brainstorming IA avec des formulaires multi-questions |
| [opencode-background-agents](https://github.com/kdcokenny/opencode-background-agents) | Agents d'arrière-plan de style Claude Code avec délégation asynchrone et persistance du contexte |
| [opencode-notifier](https://github.com/kdcokenny/opencode-notify) | Notifications natives du système d'exploitation pour OpenCode savoir quand les tâches sont terminées |
| [opencode-workspace](https://github.com/kdcokenny/opencode-workspace) | Harnais d'orchestration multi-agents fourni 16 composants, une installation |
| [opencode-notify](https://github.com/kdcokenny/opencode-notify) | Notifications natives du système d'exploitation pour OpenCode savoir quand les tâches sont terminées |
| [opencode-workspace](https://github.com/kdcokenny/opencode-workspace) | Harness d'orchestration multi-agent prêt à l'emploi - 16 composants, une installation |
| [opencode-worktree](https://github.com/kdcokenny/opencode-worktree) | Arbres de travail Git sans friction pour OpenCode |
---

View File

@@ -91,7 +91,7 @@ Cela permet à OpenCode d'obtenir les informations d'identification de votre pas
---
### Passerelle IA interne
### AI Gateway interne
Avec la configuration centrale, OpenCode peut également être configuré pour utiliser uniquement votre passerelle IA interne.

View File

@@ -112,7 +112,7 @@ use the mcp_everything tool to add the number 3 and 4
---
#### Possibilités
#### Options
Voici toutes les options pour configurer un serveur MCP local.
@@ -146,11 +146,11 @@ Ajoutez des serveurs MCP distants en définissant `type` sur `"remote"`.
}
```
Le `url` est le URL du serveur distant MCP et avec l'option `headers` vous pouvez transmettre une liste d'en-têtes.
Le champ `url` est l'URL du serveur MCP distant et l'option `headers` vous permet de transmettre des en-têtes.
---
#### Possibilités
#### Options
| Options | Tapez | Obligatoire | Descriptif |
| --------- | ------- | ----------- | ---------------------------------------------------------------------------------------------------------------------------- |

View File

@@ -143,7 +143,7 @@ De nombreux modèles prennent en charge plusieurs variantes avec différentes co
OpenCode est livré avec des variantes par défaut pour de nombreux fournisseurs :
**Anthropique** :
**Anthropic** :
- `high` - Budget de réflexion élevé (par défaut)
- `max` - Budget de réflexion maximum

View File

@@ -54,7 +54,7 @@ Voir également : [Formatters](/docs/formatters) pour plus d'informations sur l
Vous pouvez personnaliser les modes intégrés ou créer les vôtres via la configuration. Les modes peuvent être configurés de deux manières :
### JSONConfiguration
### Configuration JSON
Configurez les modes dans votre fichier de configuration `opencode.json` :
@@ -83,7 +83,7 @@ Configurez les modes dans votre fichier de configuration `opencode.json` :
}
```
### Configuration de démarque
### Configuration Markdown
Vous pouvez également définir des modes à l'aide de fichiers markdown. Placez-les dans :
@@ -177,7 +177,7 @@ Si aucune température n'est spécifiée, opencode utilise les valeurs par défa
---
### Rapide
### Prompt
Spécifiez un fichier d'invite système personnalisé pour ce mode avec la configuration `prompt`. Le fichier d'invite doit contenir des instructions spécifiques à l'objectif du mode.
@@ -266,7 +266,7 @@ Vous pouvez créer vos propres modes personnalisés en les ajoutant à la config
}
```
### Utiliser des fichiers de démarque
### Utiliser des fichiers Markdown
Créez des fichiers de mode dans `.opencode/modes/` pour les modes spécifiques au projet ou `~/.config/opencode/modes/` pour les modes globaux :

View File

@@ -260,7 +260,7 @@ export const EnvProtection = async ({ project, client, $, directory, worktree })
### Injecter des variables d'environnement
Injectez des variables d'environnement dans toutes les exécutions du shell (outils d'IA et terminaux utilisateur) :
Injectez des variables d'environnement dans toutes les exécutions du shell (outils d'IA et terminal utilisateur) :
```javascript title=".opencode/plugins/inject-env.js"
export const InjectEnvPlugin = async () => {

View File

@@ -95,7 +95,7 @@ Vous ne voyez pas de fournisseur ici ? Soumettez un PR.
---
### 302.IA
### 302.AI
1. Rendez-vous sur la [console 302.AI](https://302.ai/), créez un compte et générez une clé API.
@@ -122,7 +122,7 @@ Vous ne voyez pas de fournisseur ici ? Soumettez un PR.
---
### Socle amazonien
### Amazon Bedrock
Pour utiliser Amazon Bedrock avec OpenCode :
@@ -179,7 +179,7 @@ Pour une configuration spécifique au projet ou persistante, utilisez `opencode.
- `region` - Région AWS (par exemple, `us-east-1`, `eu-west-1`)
- `profile` - Profil nommé AWS de `~/.aws/credentials`
- `endpoint` - Point de terminaison personnalisé URL pour les points de terminaison d'un VPC (alias pour l'option générique `baseURL`)
- `endpoint` - URL de point de terminaison personnalisée pour les endpoints VPC (alias de l'option générique `baseURL`)
:::tip
Les options du fichier de configuration sont prioritaires sur les variables d'environnement.
@@ -255,7 +255,7 @@ Pour les profils d'inférence personnalisés, utilisez le nom du modèle et du f
---
### Anthropique
### Anthropic
1. Une fois inscrit, exécutez la commande `/connect` et sélectionnez Anthropic.
@@ -293,7 +293,7 @@ Ou si vous disposez déjà d'une clé API, vous pouvez sélectionner **Entrer ma
---
### Azur OpenAI
### Azure OpenAI
:::note
Si vous rencontrez des erreurs « Je suis désolé, mais je ne peux pas vous aider avec cette demande », essayez de modifier le filtre de contenu de **DefaultV2** à **Default** dans votre ressource Azure.
@@ -344,7 +344,7 @@ export AZURE_RESOURCE_NAME=XXX
---
### Services cognitifs Azure
### Azure Cognitive Services
1. Rendez-vous sur le [portail Azure](https://portal.azure.com/) et créez une ressource **Azure OpenAI**. Vous aurez besoin de :
- **Nom de la ressource** : cela fait partie de votre point de terminaison API (`https://AZURE_COGNITIVE_SERVICES_RESOURCE_NAME.cognitiveservices.azure.com/`)
@@ -418,7 +418,7 @@ export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
---
### Cérébraux
### Cerebras
1. Rendez-vous sur la [console Cerebras](https://inference.cerebras.ai/), créez un compte et générez une clé API.
@@ -445,7 +445,7 @@ export AZURE_COGNITIVE_SERVICES_RESOURCE_NAME=XXX
---
### Passerelle IA Cloudflare
### Cloudflare AI Gateway
Cloudflare AI Gateway vous permet d'accéder aux modèles de OpenAI, Anthropic, Workers AI et bien plus encore via un point de terminaison unifié. Avec [Unified Billing](https://developers.cloudflare.com/ai-gateway/features/unified-billing/), vous n'avez pas besoin de clés API distinctes pour chaque fournisseur.
@@ -530,7 +530,7 @@ Vous pouvez également ajouter des modèles via votre configuration opencode.
---
### Recherche profonde
### DeepSeek
1. Rendez-vous sur la [console DeepSeek](https://platform.deepseek.com/), créez un compte et cliquez sur **Créer une nouvelle clé API**.
@@ -557,7 +557,7 @@ Vous pouvez également ajouter des modèles via votre configuration opencode.
---
### Infra Profond
### Deep Infra
1. Rendez-vous sur le [tableau de bord Deep Infra](https://deepinfra.com/dash), créez un compte et générez une clé API.
@@ -584,7 +584,7 @@ Vous pouvez également ajouter des modèles via votre configuration opencode.
---
### Micrologiciel
### Firmware
1. Rendez-vous sur le [Tableau de bord du micrologiciel](https://app.firmware.ai/signup), créez un compte et générez une clé API.
@@ -611,7 +611,7 @@ Vous pouvez également ajouter des modèles via votre configuration opencode.
---
### IA de feux d'artifice
### Fireworks AI
1. Rendez-vous sur la [console Fireworks AI](https://app.fireworks.ai/), créez un compte et cliquez sur **Créer une clé API**.
@@ -897,7 +897,7 @@ La région `global` améliore la disponibilité et réduit les erreurs sans frai
---
### Visage câlin
### Hugging Face
[Hugging Face Inference Providers](https://huggingface.co/docs/inference-providers) donne accès à des modèles ouverts pris en charge par plus de 17 fournisseurs.
@@ -926,7 +926,7 @@ La région `global` améliore la disponibilité et réduit les erreurs sans frai
---
### Hélicone
### Helicone
[Helicone](https://helicone.ai) est une plate-forme d'observabilité LLM qui fournit la journalisation, la surveillance et l'analyse de vos applications d'IA. L'Helicone AI Gateway achemine automatiquement vos demandes vers le fournisseur approprié en fonction du modèle.
@@ -1039,7 +1039,7 @@ Consultez le [Helicone Header Directory](https://docs.helicone.ai/helicone-heade
---
### lama.cpp
### llama.cpp
Vous pouvez configurer opencode pour utiliser des modèles locaux via l'utilitaire llama-server de [llama.cpp's](https://github.com/ggml-org/llama.cpp)
@@ -1106,7 +1106,7 @@ IO.NET propose 17 modèles optimisés pour différents cas d'utilisation :
---
### Studio LM
### LM Studio
Vous pouvez configurer opencode pour utiliser des modèles locaux via LM Studio.
@@ -1140,7 +1140,7 @@ Dans cet exemple :
---
### IA Moonshot
### Moonshot AI
Pour utiliser Kimi K2 de Moonshot AI :
@@ -1196,7 +1196,7 @@ Pour utiliser Kimi K2 de Moonshot AI :
---
### Usine de jetons Nebius
### Nebius Token Factory
1. Rendez-vous sur la [console Nebius Token Factory](https://tokenfactory.nebius.com/), créez un compte et cliquez sur **Ajouter une clé**.
@@ -1265,7 +1265,7 @@ Si les appels d'outils ne fonctionnent pas, essayez d'augmenter `num_ctx` dans O
---
### Nuage Ollama
### Ollama Cloud
Pour utiliser Ollama Cloud avec OpenCode :
@@ -1366,7 +1366,7 @@ OpenCode Zen est une liste de modèles testés et vérifiés fournie par l'équi
---
### OuvrirRouter
### OpenRouter
1. Rendez-vous sur le [tableau de bord OpenRouter](https://openrouter.ai/settings/keys), cliquez sur **Créer une clé API** et copiez la clé.
@@ -1430,7 +1430,7 @@ Vous pouvez également ajouter des modèles supplémentaires via votre configura
---
### SAP IA Core
### SAP AI Core
SAP AI Core donne accès à plus de 40 modèles de OpenAI, Anthropic, Google, Amazon, Meta, Mistral et AI21 via une plateforme unifiée.
@@ -1485,7 +1485,7 @@ export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","s
---
### Points de terminaison IA OVHcloud
### OVHcloud AI Endpoints
1. Rendez-vous sur le [Panneau OVHcloud](https://ovh.com/manager). Accédez à la section `Public Cloud`, `AI & Machine Learning` > `AI Endpoints` et dans l'onglet `API Keys`, cliquez sur **Créer une nouvelle clé API**.
@@ -1512,7 +1512,7 @@ export AICORE_SERVICE_KEY='{"clientid":"...","clientsecret":"...","url":"...","s
---
### Échelle
### Scaleway
Pour utiliser [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) avec Opencode :
@@ -1541,7 +1541,7 @@ Pour utiliser [Scaleway Generative APIs](https://www.scaleway.com/en/docs/genera
---
### Ensemble IA
### Together AI
1. Rendez-vous sur [Together AI console](https://api.together.ai), créez un compte et cliquez sur **Ajouter une clé**.
@@ -1568,7 +1568,7 @@ Pour utiliser [Scaleway Generative APIs](https://www.scaleway.com/en/docs/genera
---
### Venise IA
### Venice AI
1. Rendez-vous sur la [Venice AI console](https://venice.ai), créez un compte et générez une clé API.
@@ -1595,7 +1595,7 @@ Pour utiliser [Scaleway Generative APIs](https://www.scaleway.com/en/docs/genera
---
### Passerelle IA Vercel
### Vercel AI Gateway
Vercel AI Gateway vous permet d'accéder aux modèles de OpenAI, Anthropic, Google, xAI et plus encore via un point de terminaison unifié. Les modèles sont proposés au prix catalogue sans majoration.
@@ -1827,7 +1827,7 @@ Voici les options de configuration :
- **npm** : package AI SDK à utiliser, `@ai-sdk/openai-compatible` pour les fournisseurs compatibles OpenAI
- **nom** : nom à afficher dans l'interface utilisateur.
- **modèles** : Modèles disponibles.
- **options.baseURL** : API point de terminaison URL.
- **options.baseURL** : URL de l'endpoint API.
- **options.apiKey** : définissez éventuellement la clé API, si vous n'utilisez pas d'authentification.
- **options.headers** : définissez éventuellement des en-têtes personnalisés.
@@ -1872,7 +1872,7 @@ Voici un exemple de définition des options `apiKey`, `headers` et modèle `limi
Détails de configuration :
- **apiKey** : défini à l'aide de la syntaxe de variable `env`, [en savoir plus](/docs/config#env-vars).
- **en-têtes** : en-têtes personnalisés envoyés avec chaque demande.
- **headers** : en-têtes personnalisés envoyés avec chaque requête.
- **limit.context** : nombre maximal de jetons d'entrée acceptés par le modèle.
- **limit.output** : nombre maximal de jetons que le modèle peut générer.

View File

@@ -52,7 +52,7 @@ Nous ajoutons ici des instructions spécifiques au projet et celles-ci seront pa
---
## Espèces
## Types
opencode prend également en charge la lecture du fichier `AGENTS.md` à partir de plusieurs emplacements. Et cela répond à des objectifs différents.

View File

@@ -35,7 +35,7 @@ const { client } = await createOpencode()
Cela démarre à la fois un serveur et un client
#### Possibilités
#### Options
| Options | Tapez | Descriptif | Par défaut |
| ---------- | ------------- | -------------------------------------------------- | ----------- |
@@ -79,7 +79,7 @@ const client = createOpencodeClient({
})
```
#### Possibilités
#### Options
| Options | Tapez | Descriptif | Par défaut |
| --------------- | ---------- | -------------------------------------------- | ----------------------- |
@@ -91,7 +91,7 @@ const client = createOpencodeClient({
---
## Espèces
## Types
Le SDK inclut des définitions TypeScript pour tous les types API. Importez-les directement :
@@ -117,7 +117,7 @@ try {
---
## Apis
## APIs
Le SDK expose toutes les API du serveur via un client de type sécurisé.

View File

@@ -16,7 +16,7 @@ La commande `opencode serve` exécute un serveur HTTP sans tête qui expose un p
opencode serve [--port <number>] [--hostname <string>] [--cors <origin>]
```
#### Possibilités
#### Options
| Drapeau | Descriptif | Par défaut |
| --------------- | -------------------------------------------------- | ---------------- |
@@ -81,7 +81,7 @@ Par exemple, `http://localhost:4096/doc`. Utilisez la spécification pour géné
---
## Apis
## APIs
Le serveur opencode expose les API suivantes.

View File

@@ -369,7 +369,7 @@ Vous pouvez personnaliser le comportement de TUI via votre fichier de configurat
}
```
### Possibilités
### Options
- `scroll_acceleration` - Activez l'accélération de défilement de style macOS pour un défilement fluide et naturel. Lorsqu'elle est activée, la vitesse de défilement augmente avec les gestes de défilement rapides et reste précise pour les mouvements plus lents. **Ce paramètre est prioritaire sur `scroll_speed` et le remplace lorsqu'il est activé.**
- `scroll_speed` - Contrôle la vitesse de défilement du TUI lors de l'utilisation des commandes de défilement (minimum : `1`). La valeur par défaut est `3`. **Remarque : Ceci est ignoré si `scroll_acceleration.enabled` est défini sur `true`.**

View File

@@ -1,14 +1,14 @@
---
title: Windows (WSL)
description: Execute OpenCode sur Windows avec WSL pour une experience optimale.
description: Exécutez OpenCode sur Windows avec WSL pour une expérience optimale.
---
import { Steps } from "@astrojs/starlight/components"
Meme si OpenCode peut fonctionner directement sur Windows, nous recommandons d'utiliser [Windows Subsystem for Linux (WSL)](https://learn.microsoft.com/en-us/windows/wsl/install) pour la meilleure experience. WSL fournit un environnement Linux qui s'integre parfaitement aux fonctionnalites d'OpenCode.
Même si OpenCode peut fonctionner directement sur Windows, nous recommandons d'utiliser [Windows Subsystem for Linux (WSL)](https://learn.microsoft.com/en-us/windows/wsl/install) pour la meilleure expérience. WSL fournit un environnement Linux qui s'intègre parfaitement aux fonctionnalités d'OpenCode.
:::tip[Pourquoi WSL?]
WSL offre de meilleures performances du systeme de fichiers, une prise en charge complete du terminal et la compatibilite avec les outils de developpement dont OpenCode depend.
WSL offre de meilleures performances du système de fichiers, une prise en charge complète du terminal et la compatibilité avec les outils de développement dont OpenCode dépend.
:::
---
@@ -19,11 +19,11 @@ WSL offre de meilleures performances du systeme de fichiers, une prise en charge
1. **Installez WSL**
Si ce n'est pas encore fait, [installez WSL](https://learn.microsoft.com/en-us/windows/wsl/install) a l'aide du guide officiel Microsoft.
Si ce n'est pas encore fait, [installez WSL](https://learn.microsoft.com/en-us/windows/wsl/install) à l'aide du guide officiel Microsoft.
2. **Installez OpenCode dans WSL**
Une fois WSL configure, ouvrez votre terminal WSL et installez OpenCode avec l'une des [methodes d'installation](/docs/).
Une fois WSL configuré, ouvrez votre terminal WSL et installez OpenCode avec l'une des [méthodes d'installation](/docs/).
```bash
curl -fsSL https://opencode.ai/install | bash
@@ -31,7 +31,7 @@ WSL offre de meilleures performances du systeme de fichiers, une prise en charge
3. **Utilisez OpenCode depuis WSL**
Allez dans votre dossier de projet (accedez aux fichiers Windows via `/mnt/c/`, `/mnt/d/`, etc.) et lancez OpenCode.
Allez dans votre dossier de projet (accédez aux fichiers Windows via `/mnt/c/`, `/mnt/d/`, etc.) et lancez OpenCode.
```bash
cd /mnt/c/Users/YourName/project
@@ -44,22 +44,22 @@ WSL offre de meilleures performances du systeme de fichiers, une prise en charge
## Application bureau + serveur WSL
Si vous preferez utiliser l'application bureau OpenCode mais executer le serveur dans WSL:
Si vous préférez utiliser l'application Desktop OpenCode tout en exécutant le serveur dans WSL:
1. **Demarrez le serveur dans WSL** avec `--hostname 0.0.0.0` pour autoriser les connexions externes:
1. **Démarrez le serveur dans WSL** avec `--hostname 0.0.0.0` pour autoriser les connexions externes:
```bash
opencode serve --hostname 0.0.0.0 --port 4096
```
2. **Connectez l'application bureau** a `http://localhost:4096`
2. **Connectez l'application Desktop** à `http://localhost:4096`
:::note
Si `localhost` ne fonctionne pas dans votre configuration, utilisez plutot l'adresse IP WSL (depuis WSL: `hostname -I`) et `http://<wsl-ip>:4096`.
Si `localhost` ne fonctionne pas dans votre configuration, utilisez plutôt l'adresse IP WSL (depuis WSL: `hostname -I`) et `http://<wsl-ip>:4096`.
:::
:::caution
Lorsque vous utilisez `--hostname 0.0.0.0`, definissez `OPENCODE_SERVER_PASSWORD` pour securiser le serveur.
Lorsque vous utilisez `--hostname 0.0.0.0`, définissez `OPENCODE_SERVER_PASSWORD` pour sécuriser le serveur.
```bash
OPENCODE_SERVER_PASSWORD=your-password opencode serve --hostname 0.0.0.0
@@ -71,23 +71,23 @@ OPENCODE_SERVER_PASSWORD=your-password opencode serve --hostname 0.0.0.0
## Client web + WSL
Pour la meilleure experience web sous Windows:
Pour la meilleure expérience web sous Windows:
1. **Executez `opencode web` dans le terminal WSL** plutot que dans PowerShell:
1. **Exécutez `opencode web` dans le terminal WSL** plutôt que dans PowerShell:
```bash
opencode web --hostname 0.0.0.0
```
2. **Accedez-y depuis votre navigateur Windows** a `http://localhost:<port>` (OpenCode affiche l'URL)
2. **Accédez-y depuis votre navigateur Windows** à `http://localhost:<port>` (OpenCode affiche l'URL)
Lancer `opencode web` depuis WSL garantit un acces correct au systeme de fichiers et une bonne integration terminal, tout en restant accessible depuis votre navigateur Windows.
Lancer `opencode web` depuis WSL garantit un accès correct au système de fichiers et une bonne intégration terminal, tout en restant accessible depuis votre navigateur Windows.
---
## Acceder aux fichiers Windows
## Accéder aux fichiers Windows
WSL peut acceder a tous vos fichiers Windows via le repertoire `/mnt/`:
WSL peut accéder à tous vos fichiers Windows via le répertoire `/mnt/`:
- Lecteur `C:` → `/mnt/c/`
- Lecteur `D:` → `/mnt/d/`
@@ -101,13 +101,13 @@ opencode
```
:::tip
Pour une experience plus fluide, vous pouvez cloner/copier votre depot dans le systeme de fichiers WSL (par exemple sous `~/code/`) et y executer OpenCode.
Pour une expérience plus fluide, vous pouvez cloner/copier votre dépôt dans le système de fichiers WSL (par exemple sous `~/code/`) et y exécuter OpenCode.
:::
---
## Conseils
- Gardez OpenCode dans WSL pour les projets stockes sur des lecteurs Windows: l'acces aux fichiers est fluide
- Utilisez l'[extension WSL de VS Code](https://code.visualstudio.com/docs/remote/wsl) avec OpenCode pour un flux de travail integre
- Votre configuration OpenCode et vos sessions sont stockees dans l'environnement WSL a `~/.local/share/opencode/`
- Gardez OpenCode dans WSL pour les projets stockés sur des lecteurs Windows: l'accès aux fichiers est fluide
- Utilisez l'[extension WSL de VS Code](https://code.visualstudio.com/docs/remote/wsl) avec OpenCode pour un flux de travail intégré
- Votre configuration OpenCode et vos sessions sont stockées dans l'environnement WSL à `~/.local/share/opencode/`