Verfügbare Modelle
AI Foundation Services bietet Zugang zu einer breiten Palette von Open-Source- und proprietären LLMs, Embedding-Modellen, Vision-Modellen und Audio-Modellen — alles über eine einzige OpenAI-kompatible API.
Ausgewählte Modelle
Abschnitt betitelt „Ausgewählte Modelle“Verfügbare Modelle (32)
GPT OSS 120B
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Qwen 3 Next 80B Instruct
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Qwen 3 VL 30B Instruct
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Qwen 3 30B
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Meta LLama 3.3 70B
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Mistral Small 24B Instruct 2501
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Qwen 3 Coder 30B
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Qwen2.5 Coder 32B Instruct
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
GPT 5.2
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
GPT 5
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
GPT 5 Mini
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
o4 Mini
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
o3
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
Claude 4.5 Sonnet
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Claude 4 Sonnet
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Gemini 3 Pro
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Gemini 2.5 Pro
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Gemini 2.5 Flash
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
GPT 4.1
Cloud: Azure Serverstandort: France Datenverarbeitung: EU
GPT 4.1 Mini
Cloud: Azure Serverstandort: France Datenverarbeitung: EU
GPT 4o
Cloud: Azure Serverstandort: France Datenverarbeitung: EU
GPT Image 1
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
o3 Mini
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
o1 Mini
Cloud: Azure Serverstandort: Sweden Datenverarbeitung: EU
Claude 3.7 Sonnet
Cloud: GCP Serverstandort: Europe Datenverarbeitung: EU
Embedding BGE M3
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Jina Embeddings v2 Base De
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Jina Embeddings v2 Base Code
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
TSI Col Qwen 2 2b v1.0
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Whisper Large v3
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Whisper Large v3 Turbo
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Teuken 7B Instruct
Cloud: T-Cloud Serverstandort: Germany Datenverarbeitung: Germany
Eine vollständige Liste mit Preisen finden Sie auf der Seite Tarife & Preise.
Modelle über die API auflisten
Abschnitt betitelt „Modelle über die API auflisten“curl "$OPENAI_BASE_URL/models" \ -H "Authorization: Bearer $OPENAI_API_KEY"from openai import OpenAI
client = OpenAI()
models = client.models.list()for model in models.data: print(model.id)import OpenAI from "openai";
const client = new OpenAI();
const models = await client.models.list();for (const model of models.data) { console.log(model.id);}Modell-Metadaten
Abschnitt betitelt „Modell-Metadaten“Jedes Modell enthält Metadaten, die Sie einsehen können:
models = client.models.list()print(models.data[0].meta_data){ "model_type": "LLM", "source_type": "OPEN SOURCE", "max_sequence_length": 128000, "hidden_size": 0, "max_output_length": 0, "deployment_region": "otc-germany", "location": "otc-germany", "license": "https://www.llama.com/llama3_3/license/", "display_name": "Meta LLama 3.3 70B", "deployment_country": "Germany, EU", "input_modalities": ["text"], "output_modalities": ["text"], "model_lifecycle_stage": "Stable", "is_externally_hosted": false}Wichtige Felder:
- model_type —
LLM,EMBEDDING,STT(Audio) - max_sequence_length — Maximale Eingabe- + Ausgabe-Token
- hidden_size — Embedding-Vektor-Dimensionen (nur bei Embedding-Modellen)
- max_output_length — Maximale Ausgabe-Token, die das Modell generieren kann
- deployment_region — Wo das Modell gehostet wird (z. B.
otc-germanyfür T-Cloud Deutschland)
Modellkategorien
Abschnitt betitelt „Modellkategorien“| Kategorie | Beispiele | Anwendungsfall |
|---|---|---|
| LLM | Llama 3.3 70B, GPT 4.1, Claude Sonnet 4, Qwen 3 | Textgenerierung, Chat, Reasoning |
| Embedding | jina-embeddings-v2-base-de, text-embedding-bge-m3 | Semantische Suche, RAG |
| Vision | Qwen3-VL-30B-A3B-Instruct-FP8, Gemini 2.5 Flash | Bildanalyse, multimodaler Chat |
| Audio/STT | whisper-large-v3, whisper-large-v3-turbo | Sprache-zu-Text, Übersetzung |
| Image Generation | gpt-image-1 | Image Generation aus Textprompts |
Hosting & Compliance
Abschnitt betitelt „Hosting & Compliance“- Open-Source-Modelle werden auf der T-Cloud in Deutschland gehostet und sind vollständig DSGVO-konform.
- Proprietäre Modelle (GPT, Claude, Gemini) werden über MS Azure, AWS oder GCP in DSGVO-konformen Konfigurationen gehostet.
Die gesamte Datenverarbeitung findet innerhalb der EU statt.