Zum Inhalt springen

Authentifizierung

AI Foundation Services verwendet API-Schlüssel zur Authentifizierung. Alle Anfragen müssen Ihren API-Schlüssel im Authorization-Header enthalten.

Starten Sie sofort mit einem kostenlosen Test-Schlüssel:

  1. Besuchen Sie das API-Schlüssel-Portal
  2. Erstellen Sie ein Konto und generieren Sie Ihren API-Schlüssel
  3. Ihr Test-Schlüssel gibt Ihnen Zugang zu allen verfügbaren Modellen

Für produktive Workloads kaufen Sie über den T-Cloud Marketplace.

Speichern Sie Ihren API-Schlüssel als Umgebungsvariable — schreiben Sie ihn niemals direkt in Ihren Quellcode.

Terminal-Fenster
export OPENAI_API_KEY="your_api_key_here"
export OPENAI_BASE_URL="https://llm-server.llmhub.t-systems.net/v2"

Um die Variablen sitzungsübergreifend zu speichern, fügen Sie diese Zeilen zu Ihrer ~/.zshrc- oder ~/.bashrc-Datei hinzu.

Wenn OPENAI_API_KEY und OPENAI_BASE_URL gesetzt sind, werden sie von den OpenAI-SDKs automatisch übernommen:

from openai import OpenAI
client = OpenAI() # No need to pass api_key or base_url

Sie können sie auch explizit übergeben:

from openai import OpenAI
client = OpenAI(
api_key="your_api_key_here",
base_url="https://llm-server.llmhub.t-systems.net/v2",
)

Fügen Sie den API-Schlüssel im Authorization-Header ein:

Terminal-Fenster
curl -X POST "https://llm-server.llmhub.t-systems.net/v2/chat/completions" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-H "Content-Type: application/json" \
-d '{"model": "Llama-3.3-70B-Instruct", "messages": [{"role": "user", "content": "Hello"}]}'

Alle API-Anfragen gehen an:

https://llm-server.llmhub.t-systems.net/v2

Dies ist der OpenAI-kompatible Endpunkt. Die vollständige API-Spezifikation finden Sie in der API-Referenz.

  • API-Schlüssel niemals committen — verwenden Sie .env-Dateien und fügen Sie diese zur .gitignore hinzu.
  • Umgebungsvariablen verwenden — in der Produktion statt fest eingecodeter Schlüssel.
  • Schlüssel regelmäßig rotieren über das API-Schlüssel-Portal.
  • Nutzung überwachen über das API-Schlüssel-Portal, um Token-Verbrauch und Kosten zu verfolgen.