mirror of
https://gitea.toothfairyai.com/ToothFairyAI/tf_code.git
synced 2026-04-06 00:46:53 +00:00
fix(docs): locale translations
This commit is contained in:
@@ -7,7 +7,7 @@ OpenCode 1.0 ist eine komplette Neufassung des TUI.
|
||||
|
||||
Wir sind vom go+bubbletea-basierten TUI, das Leistungs- und Leistungsprobleme aufwies, zu einem internen Framework (OpenTUI) übergegangen, das in zig+solidjs geschrieben wurde.
|
||||
|
||||
Der neue TUI funktioniert wie der alte, da er eine Verbindung zum gleichen Opencode-Server herstellt.
|
||||
Der neue TUI funktioniert wie der alte, da er eine Verbindung zum gleichen OpenCode-Server herstellt.
|
||||
|
||||
---
|
||||
|
||||
|
||||
@@ -311,7 +311,7 @@ opencode models --refresh
|
||||
|
||||
### laufen
|
||||
|
||||
Führen Sie Opencode im nicht interaktiven Modus aus, indem Sie direkt eine Eingabeaufforderung übergeben.
|
||||
Führen Sie OpenCode im nicht interaktiven Modus aus, indem Sie direkt eine Eingabeaufforderung übergeben.
|
||||
|
||||
```bash
|
||||
opencode run [message..]
|
||||
@@ -347,7 +347,7 @@ opencode run --attach http://localhost:4096 "Explain async/await in JavaScript"
|
||||
| `--file` | `-f` | Datei(en) zum Anhängen an die Nachricht |
|
||||
| `--format` | | Format: Standard (formatiert) oder JSON (rohe JSON-Ereignisse) |
|
||||
| `--title` | | Titel für die Sitzung (verwendet eine verkürzte Eingabeaufforderung, wenn kein Wert angegeben wird) |
|
||||
| `--attach` | | An einen laufenden Opencode-Server anschließen (e.g., http://localhost:4096) |
|
||||
| `--attach` | | An einen laufenden OpenCode-Server anschließen (e.g., http://localhost:4096) |
|
||||
| `--port` | | Port für den lokalen Server (standardmäßig zufälliger Port) |
|
||||
|
||||
---
|
||||
@@ -360,7 +360,7 @@ Starten Sie einen Headless-OpenCode-Server für den API-Zugriff. Sehen Sie sich
|
||||
opencode serve
|
||||
```
|
||||
|
||||
Dadurch wird ein HTTP-Server gestartet, der API-Zugriff auf Opencode-Funktionalität ohne die TUI-Schnittstelle bietet. Legen Sie `OPENCODE_SERVER_PASSWORD` fest, um die HTTP-Basisauthentifizierung zu aktivieren (Benutzername ist standardmäßig `opencode`).
|
||||
Dadurch wird ein HTTP-Server gestartet, der API-Zugriff auf OpenCode-Funktionalität ohne die TUI-Schnittstelle bietet. Legen Sie `OPENCODE_SERVER_PASSWORD` fest, um die HTTP-Basisauthentifizierung zu aktivieren (Benutzername ist standardmäßig `opencode`).
|
||||
|
||||
#### Flaggen
|
||||
|
||||
@@ -510,7 +510,7 @@ opencode uninstall
|
||||
|
||||
### upgrade
|
||||
|
||||
Aktualisiert Opencode auf die neueste Version oder eine bestimmte Version.
|
||||
Aktualisiert OpenCode auf die neueste Version oder eine bestimmte Version.
|
||||
|
||||
```bash
|
||||
opencode upgrade [target]
|
||||
@@ -538,7 +538,7 @@ opencode upgrade v0.1.48
|
||||
|
||||
## Globale Flaggen
|
||||
|
||||
Der Opencode CLI akzeptiert die folgenden globalen Flags.
|
||||
Der OpenCode CLI akzeptiert die folgenden globalen Flags.
|
||||
|
||||
| Flagge | Kurz | Beschreibung |
|
||||
| -------------- | ---- | ----------------------------------------- |
|
||||
|
||||
@@ -314,7 +314,7 @@ Dies ist eine **optionale** Konfigurationsoption.
|
||||
|
||||
## Eingebaut
|
||||
|
||||
Opencode enthält mehrere integrierte Befehle wie `/init`, `/undo`, `/redo`, `/share`, `/help`; [learn more](/docs/tui#commands).
|
||||
OpenCode enthält mehrere integrierte Befehle wie `/init`, `/undo`, `/redo`, `/share`, `/help`; [learn more](/docs/tui#commands).
|
||||
|
||||
:::note
|
||||
Benutzerdefinierte Befehle können integrierte Befehle überschreiben.
|
||||
|
||||
@@ -268,7 +268,7 @@ Sie können auch [local models](/docs/models#local) konfigurieren. [Learn more](
|
||||
|
||||
Einige Anbieter unterstützen zusätzliche Konfigurationsoptionen über die allgemeinen Einstellungen `timeout` und `apiKey` hinaus.
|
||||
|
||||
##### Amazonas-Grundgestein
|
||||
##### Amazon Bedrock
|
||||
|
||||
Amazon Bedrock unterstützt AWS-spezifische Konfigurationen:
|
||||
|
||||
@@ -463,7 +463,7 @@ Sie können Codeformatierer über die Option `formatter` konfigurieren.
|
||||
|
||||
### Permissions
|
||||
|
||||
Opencode erlaubt standardmäßig alle Vorgänge, ohne dass eine ausdrückliche Genehmigung erforderlich ist. Sie können dies mit der Option `permission` ändern.
|
||||
OpenCode erlaubt standardmäßig alle Vorgänge, ohne dass eine ausdrückliche Genehmigung erforderlich ist. Sie können dies mit der Option `permission` ändern.
|
||||
|
||||
Um beispielsweise sicherzustellen, dass die Tools `edit` und `bash` eine Benutzergenehmigung erfordern:
|
||||
|
||||
@@ -565,7 +565,7 @@ Dies erfordert eine Reihe von Pfaden und Glob-Mustern zu Anweisungsdateien. [Erf
|
||||
|
||||
---
|
||||
|
||||
### Behinderte Anbieter
|
||||
### Deaktivierte Anbieter
|
||||
|
||||
Sie können Anbieter, die automatisch geladen werden, über die Option `disabled_providers` deaktivieren. Dies ist nützlich, wenn Sie verhindern möchten, dass bestimmte Anbieter geladen werden, selbst wenn deren Anmeldeinformationen verfügbar sind.
|
||||
|
||||
@@ -626,13 +626,13 @@ Experimentelle Optionen sind nicht stabil. Sie können ohne vorherige Ankündigu
|
||||
|
||||
---
|
||||
|
||||
## Variables
|
||||
## Variablen
|
||||
|
||||
Sie können die Variablenersetzung in Ihren Konfigurationsdateien verwenden, um auf Umgebungsvariablen und Dateiinhalte zu verweisen.
|
||||
|
||||
---
|
||||
|
||||
### Umgebungsvars
|
||||
### Umgebungsvariablen
|
||||
|
||||
Verwenden Sie `{env:VARIABLE_NAME}`, um Umgebungsvariablen zu ersetzen:
|
||||
|
||||
@@ -655,7 +655,7 @@ Wenn die Umgebungsvariable nicht gesetzt ist, wird sie durch eine leere Zeichenf
|
||||
|
||||
---
|
||||
|
||||
### Files
|
||||
### Dateien
|
||||
|
||||
Verwenden Sie `{file:path/to/file}`, um den Inhalt einer Datei zu ersetzen:
|
||||
|
||||
|
||||
@@ -1,9 +1,9 @@
|
||||
---
|
||||
title: Benutzerdefinierte Werkzeuge
|
||||
description: Erstellen Sie Tools, die der LLM in Opencode aufrufen kann.
|
||||
description: Erstellen Sie Tools, die der LLM in OpenCode aufrufen kann.
|
||||
---
|
||||
|
||||
Benutzerdefinierte Tools sind von Ihnen erstellte Funktionen, die der LLM während Gesprächen aufrufen kann. Sie arbeiten neben [built-in tools](/docs/tools) von Opencode wie `read`, `write` und `bash`.
|
||||
Benutzerdefinierte Tools sind von Ihnen erstellte Funktionen, die der LLM während Gesprächen aufrufen kann. Sie arbeiten neben [built-in tools](/docs/tools) von OpenCode wie `read`, `write` und `bash`.
|
||||
|
||||
---
|
||||
|
||||
|
||||
@@ -39,7 +39,7 @@ Sie können sich auch [awesome-opencode](https://github.com/awesome-opencode/awe
|
||||
| [opencode-skillful](https://github.com/zenobi-us/opencode-skillful) | Ermöglichen Sie OpenCode-Agenten das verzögerte Laden von Eingabeaufforderungen bei Bedarf mit Skill-Erkennung und -Injektion |
|
||||
| [opencode-supermemory](https://github.com/supermemoryai/opencode-supermemory) | Persistenter Speicher über Sitzungen hinweg mit Supermemory |
|
||||
| [@plannotator/opencode](https://github.com/backnotprop/plannotator/tree/main/apps/opencode-plugin) | Interaktive Planüberprüfung mit visueller Anmerkung und private/offline-Freigabe |
|
||||
| [@openspoon/subtask2](https://github.com/spoons-and-mirrors/subtask2) | Erweitern Sie Opencode /commands zu einem leistungsstarken Orchestrierungssystem mit granularer Flusskontrolle |
|
||||
| [@openspoon/subtask2](https://github.com/spoons-and-mirrors/subtask2) | Erweitern Sie OpenCode /commands zu einem leistungsstarken Orchestrierungssystem mit granularer Flusskontrolle |
|
||||
| [opencode-scheduler](https://github.com/different-ai/opencode-scheduler) | Planen Sie wiederkehrende Jobs mit launchd (Mac) oder systemd (Linux) mit Cron-Syntax |
|
||||
| [micode](https://github.com/vtemian/micode) | Strukturiertes Brainstorming → Planen → Workflow mit Sitzungskontinuität Implementierung |
|
||||
| [octto](https://github.com/vtemian/octto) | Interaktiver Browser UI für AI Brainstorming mit Formularen mit mehreren Fragen |
|
||||
@@ -58,7 +58,7 @@ Sie können sich auch [awesome-opencode](https://github.com/awesome-opencode/awe
|
||||
| [opencode.nvim](https://github.com/NickvanDyke/opencode.nvim) | Neovim-Plugin für editorfähige Eingabeaufforderungen, basierend auf API |
|
||||
| [portal](https://github.com/hosenur/portal) | Mobile-First-Web UI für OpenCode über Tailscale/VPN |
|
||||
| [opencode plugin template](https://github.com/zenobi-us/opencode-plugin-template/) | Vorlage zum Erstellen von OpenCode-Plugins |
|
||||
| [opencode.nvim](https://github.com/sudo-tee/opencode.nvim) | Neovim-Frontend für Opencode – ein terminalbasierter AI-Coding-Agent |
|
||||
| [opencode.nvim](https://github.com/sudo-tee/opencode.nvim) | Neovim-Frontend für OpenCode – ein terminalbasierter AI-Coding-Agent |
|
||||
| [ai-sdk-provider-opencode-sdk](https://github.com/ben-vargas/ai-sdk-provider-opencode-sdk) | Vercel AI SDK Anbieter für die Verwendung von OpenCode über @opencode-ai/sdk |
|
||||
| [OpenChamber](https://github.com/btriapitsyn/openchamber) | Web-/Desktop-App und VS Code-Erweiterung für OpenCode |
|
||||
| [OpenCode-Obsidian](https://github.com/mtymek/opencode-obsidian) | Obsidian-Plugin, das OpenCode in Obsidians UI einbettet |
|
||||
|
||||
@@ -37,7 +37,7 @@ Oder Sie können es manuell einrichten.
|
||||
|
||||
2. **Den Workflow hinzufügen**
|
||||
|
||||
Fügen Sie die folgende Workflowdatei zu `.github/workflows/opencode.yml` in Ihrem Repository hinzu. Stellen Sie sicher, dass Sie in `env` die entsprechenden Schlüssel `model` und API festlegen.
|
||||
Fügen Sie die folgende Workflowdatei zu `.github/workflows/opencode.yml` in Ihrem Repository hinzu. Stellen Sie sicher, dass Sie in `env` die passenden Werte für `model` und `api_key` setzen.
|
||||
|
||||
```yml title=".github/workflows/opencode.yml" {24,26}
|
||||
name: opencode
|
||||
|
||||
@@ -137,7 +137,7 @@ Wenn Sie mit der Verwendung von LLM-Anbietern noch nicht vertraut sind, empfehle
|
||||
Es handelt sich um eine kuratierte Liste von Modellen, die von OpenCode getestet und verifiziert wurden
|
||||
team.
|
||||
|
||||
1. Führen Sie den Befehl `/connect` in TUI aus, wählen Sie Opencode aus und gehen Sie zu [opencode.ai/auth](https://opencode.ai/auth).
|
||||
1. Führen Sie den Befehl `/connect` in TUI aus, wählen Sie OpenCode aus und gehen Sie zu [opencode.ai/auth](https://opencode.ai/auth).
|
||||
|
||||
```txt
|
||||
/connect
|
||||
@@ -333,10 +333,9 @@ Oder Sie **können** die Änderungen mit dem Befehl `/redo` wiederholen.
|
||||
|
||||
---
|
||||
|
||||
## Aktie
|
||||
## Teilen
|
||||
|
||||
Die Gespräche, die Sie mit OpenCode führen, können [mit Ihrem geteilt werden
|
||||
Team](/docs/share).
|
||||
Die Gespräche, die Sie mit OpenCode führen, können [mit Ihrem Team](/docs/share) geteilt werden.
|
||||
|
||||
```bash frame="none"
|
||||
/share
|
||||
@@ -352,8 +351,8 @@ Hier ist ein [Beispielgespräch](https://opencode.ai/s/4XP1fce5) mit OpenCode.
|
||||
|
||||
---
|
||||
|
||||
## Customize
|
||||
## Anpassen
|
||||
|
||||
Und das ist es! Sie sind jetzt ein Profi im Umgang mit OpenCode.
|
||||
|
||||
Um es zu Ihrem eigenen zu machen, empfehlen wir [picking a theme](/docs/themes), [customizing the keybinds](/docs/keybinds), [configuring code formatters](/docs/formatters), [creating custom commands](/docs/commands) oder experimentieren Sie mit [OpenCode config](/docs/config).
|
||||
Um es zu Ihrem eigenen zu machen, empfehlen wir [ein Theme auszuwaehlen](/docs/themes), [Keybinds anzupassen](/docs/keybinds), [Code-Formatter zu konfigurieren](/docs/formatters), [eigene Commands zu erstellen](/docs/commands) oder mit der [OpenCode-Konfiguration](/docs/config) zu experimentieren.
|
||||
|
||||
@@ -56,7 +56,7 @@ Sie können LSP-Server-Downloads automatisch deaktivieren, indem Sie die Umgebun
|
||||
|
||||
## Wie es funktioniert
|
||||
|
||||
Wenn Opencode eine Datei öffnet, geschieht Folgendes:
|
||||
Wenn OpenCode eine Datei öffnet, geschieht Folgendes:
|
||||
|
||||
1. Überprüft die Dateierweiterung anhand aller aktivierten LSP-Server.
|
||||
2. Startet den entsprechenden LSP-Server, falls er noch nicht ausgeführt wird.
|
||||
@@ -65,7 +65,7 @@ Wenn Opencode eine Datei öffnet, geschieht Folgendes:
|
||||
|
||||
## Konfigurieren
|
||||
|
||||
Sie können LSP-Server über den Abschnitt `lsp` in Ihrer Opencode-Konfiguration anpassen.
|
||||
Sie können LSP-Server über den Abschnitt `lsp` in Ihrer OpenCode-Konfiguration anpassen.
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
|
||||
@@ -4,14 +4,14 @@ description: Verschiedene Modi für unterschiedliche Anwendungsfälle.
|
||||
---
|
||||
|
||||
:::caution
|
||||
Modi werden jetzt über die Option `agent` in der Opencode-Konfiguration konfiguriert. Der
|
||||
Modi werden jetzt über die Option `agent` in der OpenCode-Konfiguration konfiguriert. Der
|
||||
Die Option `mode` ist jetzt veraltet. [Learn more](/docs/agents).
|
||||
:::
|
||||
|
||||
Mit den Modi in Opencode können Sie das Verhalten, die Tools und die Eingabeaufforderungen für verschiedene Anwendungsfälle anpassen.
|
||||
Mit den Modi in OpenCode können Sie das Verhalten, die Tools und die Eingabeaufforderungen für verschiedene Anwendungsfälle anpassen.
|
||||
|
||||
Es verfügt über zwei integrierte Modi: **Build** und **Plan**. Sie können anpassen
|
||||
diese oder konfigurieren Sie Ihre eigenen über die Opencode-Konfiguration.
|
||||
diese oder konfigurieren Sie Ihre eigenen über die OpenCode-Konfiguration.
|
||||
|
||||
Sie können während einer Sitzung zwischen den Modi wechseln oder diese in Ihrer Konfigurationsdatei konfigurieren.
|
||||
|
||||
@@ -19,7 +19,7 @@ Sie können während einer Sitzung zwischen den Modi wechseln oder diese in Ihre
|
||||
|
||||
## Built-in
|
||||
|
||||
Opencode verfügt über zwei integrierte Modi.
|
||||
OpenCode verfügt über zwei integrierte Modi.
|
||||
|
||||
---
|
||||
|
||||
@@ -173,7 +173,7 @@ Temperaturwerte liegen typischerweise zwischen 0.0 und 1.0:
|
||||
}
|
||||
```
|
||||
|
||||
Wenn keine Temperatur angegeben ist, verwendet Opencode modellspezifische Standardwerte (normalerweise 0 für die meisten Modelle, 0.55 für Qwen-Modelle).
|
||||
Wenn keine Temperatur angegeben ist, verwendet OpenCode modellspezifische Standardwerte (normalerweise 0 für die meisten Modelle, 0.55 für Qwen-Modelle).
|
||||
|
||||
---
|
||||
|
||||
@@ -192,7 +192,7 @@ Geben Sie mit der `prompt`-Konfiguration eine benutzerdefinierte Systemaufforder
|
||||
```
|
||||
|
||||
Dieser Pfad ist relativ zum Speicherort der Konfigurationsdatei. Das funktioniert also
|
||||
sowohl die globale Opencode-Konfiguration als auch die projektspezifische Konfiguration.
|
||||
sowohl die globale OpenCode-Konfiguration als auch die projektspezifische Konfiguration.
|
||||
|
||||
---
|
||||
|
||||
|
||||
@@ -118,7 +118,7 @@ Die Plugin-Funktion erhält:
|
||||
- `project`: Die aktuellen Projektinformationen.
|
||||
- `directory`: Das aktuelle Arbeitsverzeichnis.
|
||||
- `worktree`: Der Git-Worktree-Pfad.
|
||||
- `client`: Ein Opencode-SDK-Client für die Interaktion mit AI.
|
||||
- `client`: Ein OpenCode-SDK-Client für die Interaktion mit AI.
|
||||
- `$`: Buns [shell API](https://bun.com/docs/runtime/shell) zum Ausführen von Befehlen.
|
||||
|
||||
---
|
||||
@@ -211,7 +211,7 @@ Plugins können Ereignisse abonnieren, wie unten im Abschnitt „Beispiele“ ge
|
||||
|
||||
## Examples
|
||||
|
||||
Hier sind einige Beispiele für Plugins, mit denen Sie Opencode erweitern können.
|
||||
Hier sind einige Beispiele für Plugins, mit denen Sie OpenCode erweitern können.
|
||||
|
||||
---
|
||||
|
||||
@@ -242,7 +242,7 @@ Wenn Sie die OpenCode-Desktop-App verwenden, kann diese automatisch Systembenach
|
||||
|
||||
### .env protection
|
||||
|
||||
Verhindern Sie, dass Opencode `.env`-Dateien liest:
|
||||
Verhindern Sie, dass OpenCode `.env`-Dateien liest:
|
||||
|
||||
```javascript title=".opencode/plugins/env-protection.js"
|
||||
export const EnvProtection = async ({ project, client, $, directory, worktree }) => {
|
||||
@@ -277,7 +277,7 @@ export const InjectEnvPlugin = async () => {
|
||||
|
||||
### Benutzerdefinierte Werkzeuge
|
||||
|
||||
Plugins können Opencode auch benutzerdefinierte Tools hinzufügen:
|
||||
Plugins können OpenCode auch benutzerdefinierte Tools hinzufügen:
|
||||
|
||||
```ts title=".opencode/plugins/custom-tools.ts"
|
||||
import { type Plugin, tool } from "@opencode-ai/plugin"
|
||||
@@ -300,13 +300,13 @@ export const CustomToolsPlugin: Plugin = async (ctx) => {
|
||||
}
|
||||
```
|
||||
|
||||
Der `tool`-Helfer erstellt ein benutzerdefiniertes Tool, das Opencode aufrufen kann. Es verwendet eine Zod-Schemafunktion und gibt eine Tooldefinition zurück mit:
|
||||
Der `tool`-Helfer erstellt ein benutzerdefiniertes Tool, das OpenCode aufrufen kann. Es verwendet eine Zod-Schemafunktion und gibt eine Tooldefinition zurück mit:
|
||||
|
||||
- `description`: Was das Tool macht
|
||||
- `args`: Zod-Schema für die Argumente des Tools
|
||||
- `execute`: Funktion, die ausgeführt wird, wenn das Tool aufgerufen wird
|
||||
|
||||
Ihre benutzerdefinierten Tools stehen neben den integrierten Tools für Opencode zur Verfügung.
|
||||
Ihre benutzerdefinierten Tools stehen neben den integrierten Tools für OpenCode zur Verfügung.
|
||||
|
||||
---
|
||||
|
||||
|
||||
@@ -29,9 +29,9 @@ config.
|
||||
|
||||
---
|
||||
|
||||
#### Basis URL
|
||||
#### Base URL
|
||||
|
||||
Sie können den Basis-URL für jeden Anbieter anpassen, indem Sie die Option `baseURL` festlegen. Dies ist nützlich, wenn Sie Proxy-Dienste oder benutzerdefinierte Endpunkte verwenden.
|
||||
Sie können die Base URL für jeden Anbieter anpassen, indem Sie die Option `baseURL` festlegen. Das ist nuetzlich, wenn Sie Proxy-Dienste oder benutzerdefinierte Endpunkte verwenden.
|
||||
|
||||
```json title="opencode.json" {6}
|
||||
{
|
||||
@@ -57,7 +57,7 @@ Getestet und verifiziert, dass es gut mit OpenCode funktioniert. [Learn more](/d
|
||||
Wenn Sie neu sind, empfehlen wir Ihnen, mit OpenCode Zen zu beginnen.
|
||||
:::
|
||||
|
||||
1. Führen Sie den Befehl `/connect` in TUI aus, wählen Sie Opencode aus und gehen Sie zu [opencode.ai/auth](https://opencode.ai/auth).
|
||||
1. Führen Sie den Befehl `/connect` in TUI aus, wählen Sie OpenCode aus und gehen Sie zu [opencode.ai/auth](https://opencode.ai/auth).
|
||||
|
||||
```txt
|
||||
/connect
|
||||
@@ -105,7 +105,7 @@ Sehen Sie hier keinen Anbieter? Senden Sie einen PR.
|
||||
/connect
|
||||
```
|
||||
|
||||
3. Geben Sie Ihren Schlüssel 302.AI API ein.
|
||||
3. Geben Sie Ihren 302.AI API-Schlüssel ein.
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -122,7 +122,7 @@ Sehen Sie hier keinen Anbieter? Senden Sie einen PR.
|
||||
|
||||
---
|
||||
|
||||
### Amazonas-Grundgestein
|
||||
### Amazon Bedrock
|
||||
|
||||
So verwenden Sie Amazon Bedrock mit OpenCode:
|
||||
|
||||
@@ -137,7 +137,7 @@ So verwenden Sie Amazon Bedrock mit OpenCode:
|
||||
|
||||
#### Umgebungsvariablen (Schnellstart)
|
||||
|
||||
Legen Sie eine dieser Umgebungsvariablen fest, während Sie Opencode ausführen:
|
||||
Legen Sie eine dieser Umgebungsvariablen fest, während Sie OpenCode ausführen:
|
||||
|
||||
```bash
|
||||
# Option 1: Using AWS access keys
|
||||
@@ -282,7 +282,7 @@ Verwenden Sie für benutzerdefinierte Inferenzprofile den Modell- und Anbieterna
|
||||
Die Verwendung Ihres Claude Pro/Max-Abonnements in OpenCode wird von [Anthropic](https://anthropic.com) nicht offiziell unterstützt.
|
||||
:::
|
||||
|
||||
##### Verwendung von API-Tasten
|
||||
##### Verwendung von API-Keys
|
||||
|
||||
Sie können auch **Erstellen eines API-Schlüssels** auswählen, wenn Sie kein Pro/Max-Abonnement haben. Außerdem wird Ihr Browser geöffnet, Sie werden aufgefordert, sich bei Anthropic anzumelden, und Sie erhalten einen Code, den Sie in Ihr Terminal einfügen können.
|
||||
|
||||
@@ -303,7 +303,7 @@ Wenn Sie auf die Fehlermeldung „Es tut mir leid, aber ich kann Ihnen bei diese
|
||||
2. Gehen Sie zu [Azure AI Foundry](https://ai.azure.com/) und stellen Sie ein Modell bereit.
|
||||
|
||||
:::note
|
||||
Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit Opencode ordnungsgemäß funktioniert.
|
||||
Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit OpenCode ordnungsgemäß funktioniert.
|
||||
:::
|
||||
|
||||
3. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Azure**.
|
||||
@@ -350,7 +350,7 @@ Wenn Sie auf die Fehlermeldung „Es tut mir leid, aber ich kann Ihnen bei diese
|
||||
2. Gehen Sie zu [Azure AI Foundry](https://ai.azure.com/) und stellen Sie ein Modell bereit.
|
||||
|
||||
:::note
|
||||
Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit Opencode ordnungsgemäß funktioniert.
|
||||
Der Bereitstellungsname muss mit dem Modellnamen übereinstimmen, damit OpenCode ordnungsgemäß funktioniert.
|
||||
:::
|
||||
|
||||
3. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Azure Cognitive Services**.
|
||||
@@ -482,7 +482,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
|
||||
/models
|
||||
```
|
||||
|
||||
Sie können Modelle auch über Ihre Opencode-Konfiguration hinzufügen.
|
||||
Sie können Modelle auch über Ihre OpenCode-Konfiguration hinzufügen.
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
@@ -554,7 +554,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
|
||||
|
||||
---
|
||||
|
||||
### Tiefe Infrarot
|
||||
### Deep Infra
|
||||
|
||||
1. Gehen Sie zu [Deep Infra dashboard](https://deepinfra.com/dash), erstellen Sie ein Konto und generieren Sie einen API-Schlüssel.
|
||||
|
||||
@@ -591,7 +591,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
|
||||
/connect
|
||||
```
|
||||
|
||||
3. Geben Sie Ihren Firmware-Schlüssel API ein.
|
||||
3. Geben Sie Ihren Firmware API-Schlüssel ein.
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -608,7 +608,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
|
||||
|
||||
---
|
||||
|
||||
### Feuerwerk AI
|
||||
### Fireworks AI
|
||||
|
||||
1. Gehen Sie zu [Fireworks AI console](https://app.fireworks.ai/), erstellen Sie ein Konto und klicken Sie auf **API-Schlüssel erstellen**.
|
||||
|
||||
@@ -618,7 +618,7 @@ Mit dem Cloudflare AI Gateway können Sie über einen einheitlichen Endpunkt auf
|
||||
/connect
|
||||
```
|
||||
|
||||
3. Geben Sie Ihren Fireworks-Schlüssel AI API ein.
|
||||
3. Geben Sie Ihren Fireworks AI API-Schlüssel ein.
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -679,7 +679,7 @@ GitLab Duo bietet AI-gestützten Agenten-Chat mit nativen Tool-Aufruffunktionen
|
||||
|
||||
:::note
|
||||
Sie können auch die Umgebungsvariable „GITLAB_TOKEN“ angeben, wenn Sie dies nicht möchten
|
||||
um das Token im Opencode-Authentifizierungsspeicher zu speichern.
|
||||
um das Token im OpenCode-Authentifizierungsspeicher zu speichern.
|
||||
:::
|
||||
|
||||
##### Selbstgehostetes GitLab
|
||||
@@ -784,9 +784,9 @@ Dieses Plugin bietet umfassende GitLab-Repository-Verwaltungsfunktionen, einschl
|
||||
|
||||
---
|
||||
|
||||
### GitHub-Copilot
|
||||
### GitHub Copilot
|
||||
|
||||
So verwenden Sie Ihr GitHub Copilot-Abonnement mit Opencode:
|
||||
So verwenden Sie Ihr GitHub Copilot-Abonnement mit OpenCode:
|
||||
|
||||
:::note
|
||||
Einige Modelle benötigen möglicherweise ein [Pro+
|
||||
@@ -839,7 +839,7 @@ So verwenden Sie Google Vertex AI mit OpenCode:
|
||||
- `GOOGLE_APPLICATION_CREDENTIALS`: Pfad zur Schlüsseldatei Ihres Dienstkontos JSON
|
||||
- Authentifizieren Sie sich mit gcloud CLI: `gcloud auth application-default login`
|
||||
|
||||
Legen Sie sie fest, während Sie Opencode ausführen.
|
||||
Legen Sie sie fest, während Sie OpenCode ausführen.
|
||||
|
||||
```bash
|
||||
GOOGLE_APPLICATION_CREDENTIALS=/path/to/service-account.json GOOGLE_CLOUD_PROJECT=your-project-id opencode
|
||||
@@ -892,7 +892,7 @@ Die Region `global` verbessert die Verfügbarkeit und reduziert Fehler ohne zus
|
||||
|
||||
---
|
||||
|
||||
### Umarmendes Gesicht
|
||||
### Hugging Face
|
||||
|
||||
[Hugging Face Inference Providers](https://huggingface.co/docs/inference-providers) bietet Zugriff auf offene Modelle, die von 17+-Anbietern unterstützt werden.
|
||||
|
||||
@@ -952,7 +952,7 @@ Weitere Anbieter und erweiterte Funktionen wie Caching und Ratenbegrenzung finde
|
||||
|
||||
#### Optionale Konfigurationen
|
||||
|
||||
Falls Sie eine Funktion oder ein Modell von Helicone sehen, das nicht automatisch über Opencode konfiguriert wird, können Sie es jederzeit selbst konfigurieren.
|
||||
Falls Sie eine Funktion oder ein Modell von Helicone sehen, das nicht automatisch über OpenCode konfiguriert wird, können Sie es jederzeit selbst konfigurieren.
|
||||
|
||||
Hier ist [Helicone's Model Directory](https://helicone.ai/models). Sie benötigen dies, um die IDs der Modelle abzurufen, die Sie hinzufügen möchten.
|
||||
|
||||
@@ -1036,7 +1036,7 @@ Alle verfügbaren Header finden Sie unter [Helicone Header Directory](https://do
|
||||
|
||||
### llama.cpp
|
||||
|
||||
Sie können Opencode für die Verwendung lokaler Modelle über das Dienstprogramm [llama.cpp's](https://github.com/ggml-org/llama.cpp) llama-server konfigurieren
|
||||
Sie können OpenCode für die Verwendung lokaler Modelle über das Dienstprogramm [llama.cpp's](https://github.com/ggml-org/llama.cpp) llama-server konfigurieren
|
||||
|
||||
```json title="opencode.json" "llama.cpp" {5, 6, 8, 10-15}
|
||||
{
|
||||
@@ -1084,7 +1084,7 @@ IO.NET bietet 17-Modelle, die für verschiedene Anwendungsfälle optimiert sind:
|
||||
/connect
|
||||
```
|
||||
|
||||
3. Geben Sie Ihren Schlüssel IO.NET API ein.
|
||||
3. Geben Sie Ihren IO.NET API-Schlüssel ein.
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -1103,7 +1103,7 @@ IO.NET bietet 17-Modelle, die für verschiedene Anwendungsfälle optimiert sind:
|
||||
|
||||
### LM Studio
|
||||
|
||||
Sie können Opencode über LM Studio für die Verwendung lokaler Modelle konfigurieren.
|
||||
Sie können OpenCode über LM Studio für die Verwendung lokaler Modelle konfigurieren.
|
||||
|
||||
```json title="opencode.json" "lmstudio" {5, 6, 8, 10-14}
|
||||
{
|
||||
@@ -1135,7 +1135,7 @@ In diesem Beispiel:
|
||||
|
||||
---
|
||||
|
||||
### Mondschuss AI
|
||||
### Moonshot AI
|
||||
|
||||
So verwenden Sie Kimi K2 von Moonshot AI:
|
||||
|
||||
@@ -1174,7 +1174,7 @@ So verwenden Sie Kimi K2 von Moonshot AI:
|
||||
/connect
|
||||
```
|
||||
|
||||
3. Geben Sie Ihren MiniMax-Schlüssel API ein.
|
||||
3. Geben Sie Ihren MiniMax API-Schlüssel ein.
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -1191,7 +1191,7 @@ So verwenden Sie Kimi K2 von Moonshot AI:
|
||||
|
||||
---
|
||||
|
||||
### Nebius-Token-Fabrik
|
||||
### Nebius Token Factory
|
||||
|
||||
1. Gehen Sie zu [Nebius Token Factory console](https://tokenfactory.nebius.com/), erstellen Sie ein Konto und klicken Sie auf **Schlüssel hinzufügen**.
|
||||
|
||||
@@ -1220,7 +1220,7 @@ So verwenden Sie Kimi K2 von Moonshot AI:
|
||||
|
||||
### Ollama
|
||||
|
||||
Sie können Opencode über Ollama für die Verwendung lokaler Modelle konfigurieren.
|
||||
Sie können OpenCode über Ollama für die Verwendung lokaler Modelle konfigurieren.
|
||||
|
||||
:::tip
|
||||
Ollama kann sich automatisch für OpenCode konfigurieren. Weitere Informationen finden Sie unter [Ollama integration docs](https://docs.ollama.com/integrations/opencode).
|
||||
@@ -1260,7 +1260,7 @@ Wenn Toolaufrufe nicht funktionieren, versuchen Sie, `num_ctx` in Ollama zu erh
|
||||
|
||||
---
|
||||
|
||||
### Ollama-Wolke
|
||||
### Ollama Cloud
|
||||
|
||||
So verwenden Sie Ollama Cloud mit OpenCode:
|
||||
|
||||
@@ -1268,7 +1268,7 @@ So verwenden Sie Ollama Cloud mit OpenCode:
|
||||
|
||||
2. Navigieren Sie zu **Einstellungen** > **Schlüssel** und klicken Sie auf **Add API Key**, um einen neuen API-Schlüssel zu generieren.
|
||||
|
||||
3. Kopieren Sie den Schlüssel API zur Verwendung in OpenCode.
|
||||
3. Kopieren Sie den API-Schlüssel zur Verwendung in OpenCode.
|
||||
|
||||
4. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Ollama Cloud**.
|
||||
|
||||
@@ -1326,7 +1326,7 @@ Wir empfehlen, sich für [ChatGPT Plus or Pro](https://chatgpt.com/pricing) anzu
|
||||
/models
|
||||
```
|
||||
|
||||
##### Verwendung von API-Tasten
|
||||
##### Verwendung von API-Keys
|
||||
|
||||
Wenn Sie bereits über einen API-Schlüssel verfügen, können Sie **API-Schlüssel manuell eingeben** auswählen und ihn in Ihr Terminal einfügen.
|
||||
|
||||
@@ -1344,7 +1344,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
|
||||
/connect
|
||||
```
|
||||
|
||||
3. Geben Sie Ihren OpenCode-Schlüssel API ein.
|
||||
3. Geben Sie Ihren OpenCode API-Schlüssel ein.
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -1386,7 +1386,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
|
||||
/models
|
||||
```
|
||||
|
||||
Sie können auch zusätzliche Modelle über Ihre Opencode-Konfiguration hinzufügen.
|
||||
Sie können auch zusätzliche Modelle über Ihre OpenCode-Konfiguration hinzufügen.
|
||||
|
||||
```json title="opencode.json" {6}
|
||||
{
|
||||
@@ -1401,7 +1401,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
|
||||
}
|
||||
```
|
||||
|
||||
5. Sie können sie auch über Ihre Opencode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe eines Anbieters
|
||||
5. Sie können sie auch über Ihre OpenCode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe eines Anbieters
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
@@ -1425,7 +1425,7 @@ OpenCode Zen ist eine Liste getesteter und verifizierter Modelle, die vom OpenCo
|
||||
|
||||
---
|
||||
|
||||
### SAP AI Kern
|
||||
### SAP AI Core
|
||||
|
||||
SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon, Meta, Mistral und AI21 über eine einheitliche Plattform.
|
||||
|
||||
@@ -1441,7 +1441,7 @@ SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon
|
||||
/connect
|
||||
```
|
||||
|
||||
3. Geben Sie Ihren Serviceschlüssel JSON ein.
|
||||
3. Geben Sie Ihren JSON-Service-Account-Key ein.
|
||||
|
||||
```txt
|
||||
┌ Service key
|
||||
@@ -1480,7 +1480,7 @@ SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon
|
||||
|
||||
---
|
||||
|
||||
### OVHcloud AI Endpunkte
|
||||
### OVHcloud AI Endpoints
|
||||
|
||||
1. Gehen Sie zum [OVHcloud panel](https://ovh.com/manager). Navigieren Sie zum Abschnitt `Public Cloud`, `AI & Machine Learning` > `AI Endpoints` und klicken Sie auf der Registerkarte `API Keys` auf **Neuen API-Schlüssel erstellen**.
|
||||
|
||||
@@ -1509,7 +1509,7 @@ SAP AI Core bietet Zugriff auf 40+ Modelle von OpenAI, Anthropic, Google, Amazon
|
||||
|
||||
### Scaleway
|
||||
|
||||
So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) mit Opencode:
|
||||
So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/generative-apis/) mit OpenCode:
|
||||
|
||||
1. Gehen Sie zu [Scaleway Console IAM settings](https://console.scaleway.com/iam/api-keys), um einen neuen API-Schlüssel zu generieren.
|
||||
|
||||
@@ -1536,7 +1536,7 @@ So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/gen
|
||||
|
||||
---
|
||||
|
||||
### Zusammen AI
|
||||
### Together AI
|
||||
|
||||
1. Gehen Sie zu [Together AI console](https://api.together.ai), erstellen Sie ein Konto und klicken Sie auf **Schlüssel hinzufügen**.
|
||||
|
||||
@@ -1546,7 +1546,7 @@ So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/gen
|
||||
/connect
|
||||
```
|
||||
|
||||
3. Geben Sie Ihren Together-Schlüssel AI API ein.
|
||||
3. Geben Sie Ihren Together AI API-Schlüssel ein.
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -1563,17 +1563,17 @@ So verwenden Sie [Scaleway Generative APIs](https://www.scaleway.com/en/docs/gen
|
||||
|
||||
---
|
||||
|
||||
### Venedig AI
|
||||
### Venice AI
|
||||
|
||||
1. Gehen Sie zu [Venice AI console](https://venice.ai), erstellen Sie ein Konto und generieren Sie einen API-Schlüssel.
|
||||
|
||||
2. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Venedig AI**.
|
||||
2. Führen Sie den Befehl `/connect` aus und suchen Sie nach **Venice AI**.
|
||||
|
||||
```txt
|
||||
/connect
|
||||
```
|
||||
|
||||
3. Geben Sie Ihren Venedig-Schlüssel AI API ein.
|
||||
3. Geben Sie Ihren Venice AI API-Schlüssel ein.
|
||||
|
||||
```txt
|
||||
┌ API key
|
||||
@@ -1617,7 +1617,7 @@ Mit dem Vercel AI Gateway können Sie über einen einheitlichen Endpunkt auf Mod
|
||||
/models
|
||||
```
|
||||
|
||||
Sie können Modelle auch über Ihre Opencode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe der Provider-Routing-Reihenfolge.
|
||||
Sie können Modelle auch über Ihre OpenCode-Konfiguration anpassen. Hier ist ein Beispiel für die Angabe der Provider-Routing-Reihenfolge.
|
||||
|
||||
```json title="opencode.json"
|
||||
{
|
||||
@@ -1727,7 +1727,7 @@ Einige nützliche Routing-Optionen:
|
||||
/models
|
||||
```
|
||||
|
||||
Sie können auch zusätzliche Modelle über Ihre Opencode-Konfiguration hinzufügen.
|
||||
Sie können auch zusätzliche Modelle über Ihre OpenCode-Konfiguration hinzufügen.
|
||||
|
||||
```json title="opencode.json" {6}
|
||||
{
|
||||
@@ -1749,7 +1749,7 @@ Einige nützliche Routing-Optionen:
|
||||
So fügen Sie einen **OpenAI-kompatiblen** Anbieter hinzu, der nicht im Befehl `/connect` aufgeführt ist:
|
||||
|
||||
:::tip
|
||||
Sie können jeden OpenAI-kompatiblen Anbieter mit Opencode verwenden. Die meisten modernen AI-Anbieter bieten OpenAI-kompatible APIs an.
|
||||
Sie können jeden OpenAI-kompatiblen Anbieter mit OpenCode verwenden. Die meisten modernen AI-Anbieter bieten OpenAI-kompatible APIs an.
|
||||
:::
|
||||
|
||||
1. Führen Sie den Befehl `/connect` aus und scrollen Sie nach unten zu **Andere**.
|
||||
@@ -1883,7 +1883,7 @@ Wenn Sie Probleme beim Konfigurieren eines Anbieters haben, überprüfen Sie Fol
|
||||
|
||||
Dies gilt nicht für Anbieter wie Amazon Bedrock, die für ihre Authentifizierung auf Umgebungsvariablen angewiesen sind.
|
||||
|
||||
2. Überprüfen Sie bei benutzerdefinierten Anbietern die Opencode-Konfiguration und:
|
||||
- Stellen Sie sicher, dass der im Befehl `/connect` verwendete Anbieter ID mit dem ID in Ihrer Opencode-Konfiguration übereinstimmt.
|
||||
2. Überprüfen Sie bei benutzerdefinierten Anbietern die OpenCode-Konfiguration und:
|
||||
- Stellen Sie sicher, dass der im Befehl `/connect` verwendete Anbieter ID mit dem ID in Ihrer OpenCode-Konfiguration übereinstimmt.
|
||||
- Für den Anbieter wird das richtige npm-Paket verwendet. Verwenden Sie beispielsweise `@ai-sdk/cerebras` für Cerebras. Und für alle anderen OpenAI-kompatiblen Anbieter verwenden Sie `@ai-sdk/openai-compatible`.
|
||||
- Überprüfen Sie, ob im Feld `options.baseURL` der richtige Endpunkt API verwendet wird.
|
||||
|
||||
@@ -21,7 +21,7 @@ Dadurch wird ein lokaler Server auf `127.0.0.1` mit einem zufällig verfügbaren
|
||||
Wenn `OPENCODE_SERVER_PASSWORD` nicht gesetzt ist, ist der Server ungesichert. Dies ist für den lokalen Gebrauch in Ordnung, sollte aber für den Netzwerkzugriff eingestellt werden.
|
||||
:::
|
||||
|
||||
:::tip[Windows Users]
|
||||
:::tip[Windows-Nutzer]
|
||||
Um die beste Erfahrung zu erzielen, führen Sie `opencode web` über [WSL](/docs/windows-wsl) und nicht über PowerShell aus. Dies gewährleistet den ordnungsgemäßen Zugriff auf das Dateisystem und die Terminalintegration.
|
||||
:::
|
||||
|
||||
|
||||
@@ -8,7 +8,7 @@ import { Steps } from "@astrojs/starlight/components"
|
||||
OpenCode laeuft zwar direkt unter Windows, die beste Erfahrung bekommst du aber mit [Windows Subsystem for Linux (WSL)](https://learn.microsoft.com/en-us/windows/wsl/install).
|
||||
WSL bietet eine Linux-Umgebung, die mit den OpenCode-Features nahtlos funktioniert.
|
||||
|
||||
:::tip[Why WSL?]
|
||||
:::tip[Warum WSL?]
|
||||
WSL bietet bessere Dateisystem-Performance, vollstaendige Terminal-Unterstuetzung und hohe Kompatibilitaet mit den Entwicklungswerkzeugen, die OpenCode nutzt.
|
||||
:::
|
||||
|
||||
@@ -30,7 +30,7 @@ WSL bietet bessere Dateisystem-Performance, vollstaendige Terminal-Unterstuetzun
|
||||
curl -fsSL https://opencode.ai/install | bash
|
||||
```
|
||||
|
||||
3. **Use OpenCode from WSL**
|
||||
3. **OpenCode über WSL verwenden**
|
||||
|
||||
Wechsle in dein Projektverzeichnis (Windows-Dateien erreichst du ueber `/mnt/c/`, `/mnt/d/` usw.) und starte OpenCode.
|
||||
|
||||
@@ -87,7 +87,7 @@ Gleichzeitig ist die Weboberflaeche weiterhin im Windows-Browser erreichbar.
|
||||
|
||||
---
|
||||
|
||||
## Accessing Windows Files
|
||||
## Zugriff auf Windows-Dateien
|
||||
|
||||
WSL kann ueber das Verzeichnis `/mnt/` auf alle Windows-Dateien zugreifen:
|
||||
|
||||
@@ -95,7 +95,7 @@ WSL kann ueber das Verzeichnis `/mnt/` auf alle Windows-Dateien zugreifen:
|
||||
- Laufwerk `D:` -> `/mnt/d/`
|
||||
- usw.
|
||||
|
||||
Example:
|
||||
Beispiel:
|
||||
|
||||
```bash
|
||||
cd /mnt/c/Users/YourName/Documents/project
|
||||
@@ -108,7 +108,7 @@ Fuer die beste Performance kannst du dein Repo direkt in das WSL-Dateisystem klo
|
||||
|
||||
---
|
||||
|
||||
## Tips
|
||||
## Tipps
|
||||
|
||||
- Lass OpenCode in WSL laufen, auch wenn das Projekt auf einem Windows-Laufwerk liegt
|
||||
- Nutze die [WSL-Extension](https://code.visualstudio.com/docs/remote/wsl) von VS Code fuer einen integrierten Workflow
|
||||
|
||||
Reference in New Issue
Block a user