Zum Inhalt springen

Continue for JetBrains

Continue für AI Engineer ist eine angepasste Version des Continue-Plugins für JetBrains-IDEs. Es bringt Chat, Inline-Edits, Autocomplete und Coding-Agenten direkt in IntelliJ-basierte Workflows, sodass Sie ohne Editor-Wechsel mit KI-Modellen arbeiten können.

  • Chat-Oberfläche für Fragen, Code-Erläuterungen und Entwicklungsunterstützung
  • Inline-Edits für gezielte Code-Änderungen direkt im Editor
  • Autocomplete für latenzarme Code-Vorschläge während der Eingabe
  • Coding-Agenten für mehrstufige Aufgaben wie das Lesen von Dateien, Ausführen von Befehlen und Anwenden von Änderungen
  1. Öffnen Sie in Ihrer JetBrains-IDE die Settings und wählen Sie Plugins.
  2. Klicken Sie auf der Plugins-Seite auf das Einstellungssymbol und wählen Sie Manage Plugin Repositories.
  3. Fügen Sie im Dialog Custom Plugin Repositories die folgende Repository-URL hinzu:
https://plugins.dev.aie.ai.t-systems.net/v1/registry/434192/packages/latest/info?package_name=continue-jetbrains&file_pattern=jetbrainupdatexml
  1. Klicken Sie auf OK, um die Repository-Liste zu speichern und die Änderungen zu übernehmen.
  2. Öffnen Sie den Marketplace, suchen Sie nach Continue for AI Engineer und installieren Sie das Plugin.

Öffnen Sie nach der ersten Installation das AI Engineer Continue-Plugin und wählen Sie Local config. Dadurch wird eine leere config.yaml-Datei geöffnet, die Sie mit Ihrem Modell, Ihrer Base URL und Ihrem API-Key aktualisieren können.

  1. Wählen Sie eine Model-ID aus Verfügbare Modelle:
model: gpt-oss-120b
  1. Setzen Sie die Base URL:
apiBase: https://llm-server.llmhub.t-systems.net/v2/coding
  1. Erzeugen Sie einen API-Key in LLM Serving API Keys:
apiKey: gen-************************************************
  1. Weisen Sie dem Modell eine oder mehrere Rollen zu, etwa chat, edit, apply, autocomplete oder embed:
roles:
- chat
name: Local Config
version: 1.0.0
schema: v1
models:
- name: gpt-4.1
model: gpt-4.1
provider: openai
apiBase: https://llm-server.llmhub.t-systems.net/v2/coding
apiKey: gen-************************************************
roles:
- chat
requestOptions:
proxy: YourProxyHost:Port
- name: Qwen3-30B-A3B-FP8
model: Qwen3-30B-A3B-FP8
provider: openai
apiBase: https://llm-server.llmhub.t-systems.net/v2/coding
apiKey: gen-************************************************
roles:
- chat
- edit
- apply
requestOptions:
proxy: YourProxyHost:Port

Sobald die Konfiguration gespeichert ist, können Sie einen Chat starten und Continue in Ihrer JetBrains-IDE verwenden.

Automatische Updates sind im JetBrains-Plugin enthalten, sobald eine neue Version veröffentlicht wird.

  • Das Plugin kann Updates automatisch beziehen, wenn sie verfügbar sind.
  • Sie können auch manuell unter Settings -> Appearance & Behavior -> System Settings -> Updates prüfen.