Verfügbare Modelle
AI Foundation Services bietet Zugang zu einer breiten Palette von Open-Source- und proprietären LLMs, Embedding-Modellen, Vision-Modellen und Audio-Modellen — alles über eine einzige OpenAI-kompatible API.
Ausgewählte Modelle
Abschnitt betitelt „Ausgewählte Modelle“Verfügbare Modelle (45)
Gemma 4 – Preview
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
GPT-OSS 120B
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Qwen3-Next 80B
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Qwen3-VL 30B
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Qwen3 Coder 30B
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Llama 3.3 70B
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Mistral Small 3
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Mistral Medium 3
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
GPT-5.2
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
GPT-5
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
GPT-5 mini
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
GPT-5 Codex
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
o4 mini
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
o3
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
o3 mini
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
o1 mini
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
Claude 4.6 Opus
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Claude 4.6 Sonnet
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Claude 4.5 Opus
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Claude 4.5 Sonnet (>200k)
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Claude 4.5 Sonnet (≤200k)
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Claude 4.5 Haiku
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Claude 4 Sonnet
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Claude 3.7 Sonnet
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Gemini 3 Pro (>200k)
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Gemini 3 Pro (≤200k)
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Gemini 3 Flash
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Gemini 2.5 Pro (>200k)
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Gemini 2.5 Pro (≤200k)
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Gemini 2.5 Flash
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Gemini 2.5 Flash Image
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
GPT-4.1
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
GPT-4.1 mini
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
GPT-4.1 nano
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
GPT-4o
Cloud: Azure Serverstandort: France Datenverarbeitung: EU
GPT-4o mini
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
GPT-Image-1 (Text→Image)
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
GPT-Image-1 (Image→Image)
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
BGE-M3
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Jina Embeddings v2 Base DE
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Whisper Large v3
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Whisper Large v3 Turbo
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
o1
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
Qwen 3 Coder 30B
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
GPT 5.2
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
Eine vollständige Liste mit Preisen finden Sie auf der Seite Tarife & Preise.
Modelle über die API auflisten
Abschnitt betitelt „Modelle über die API auflisten“curl "$OPENAI_BASE_URL/models" \ -H "Authorization: Bearer $OPENAI_API_KEY"from openai import OpenAI
client = OpenAI()
models = client.models.list()for model in models.data: print(model.id)import OpenAI from "openai";
const client = new OpenAI();
const models = await client.models.list();for (const model of models.data) { console.log(model.id);}Modell-Metadaten
Abschnitt betitelt „Modell-Metadaten“Jedes Modell enthält Metadaten, die Sie einsehen können:
models = client.models.list()print(models.data[0].meta_data){ "model_type": "LLM", "source_type": "OPEN SOURCE", "max_sequence_length": 128000, "hidden_size": 0, "max_output_length": 0, "deployment_region": "otc-germany", "location": "otc-germany", "license": "https://www.llama.com/llama3_3/license/", "display_name": "Meta LLama 3.3 70B", "deployment_country": "Germany, EU", "input_modalities": ["text"], "output_modalities": ["text"], "model_lifecycle_stage": "Stable", "is_externally_hosted": false}Wichtige Felder:
- model_type —
LLM,EMBEDDING,STT(Audio) - max_sequence_length — Maximale Eingabe- + Ausgabe-Token
- hidden_size — Embedding-Vektor-Dimensionen (nur bei Embedding-Modellen)
- max_output_length — Maximale Ausgabe-Token, die das Modell generieren kann
- deployment_region — Wo das Modell gehostet wird (z. B.
otc-germanyfür T-Cloud Deutschland)
Modellkategorien
Abschnitt betitelt „Modellkategorien“| Kategorie | Beispiele | Anwendungsfall |
|---|---|---|
| LLM | Llama 3.3 70B, GPT 4.1, Claude Sonnet 4, Qwen 3 | Textgenerierung, Chat, Reasoning |
| Embedding | jina-embeddings-v2-base-de, text-embedding-bge-m3 | Semantische Suche, RAG |
| Vision | Qwen3-VL-30B-A3B-Instruct-FP8, Gemini 2.5 Flash | Bildanalyse, multimodaler Chat |
| Audio/STT | whisper-large-v3, whisper-large-v3-turbo | Sprache-zu-Text, Übersetzung |
| Image Generation | gpt-image-1 | Image Generation aus Textprompts |
Hosting & Compliance
Abschnitt betitelt „Hosting & Compliance“- Open-Source-Modelle werden auf der T-Cloud in Deutschland gehostet und sind vollständig DSGVO-konform.
- Proprietäre Modelle (GPT, Claude, Gemini) werden über MS Azure, AWS oder GCP in DSGVO-konformen Konfigurationen gehostet.
Die gesamte Datenverarbeitung findet innerhalb der EU statt.