Private AI API (PAI API)
Programmatischer Zugriff auf in der Schweiz gehostete private LLMs für Anwendungen und Automatisierung.

Produktübersicht
Die PAI-API bietet Ihren Teams programmatischen Zugriff auf in der Schweiz gehostete private LLMs über eine sichere, OpenAI-kompatible Schnittstelle. Sie können KI-Funktionen direkt in Ihre Anwendungen, Automatisierungen und Backend-Systeme einbinden, während Sie die volle Kontrolle darüber behalten, wo Ihre Daten leben und wie sie verarbeitet werden. Alle Modelle laufen in der Schweiz, und es werden keine Kundendaten für Schulungen verwendet.
Mit der PAI-API arbeiten Sie mit einer einzigen, einheitlichen API, während Sie aus einem kuratierten Katalog offener LLMs wie DeepSeek, Llama4-Maverick, Apertus, Mistral und mehr wählen. Dynamisches Routing, konsistente Antwortformate und flexible Konfiguration machen es einfach, souveräne, unternehmensfreundliche KI in jedes Produkt oder jeden Workflow einzubetten – zu transparenten Preisen pro Token.

Eigenschaften
Private, Swiss-Hosted LLMs
Führen Sie Ihre KI-Workloads auf privat gehosteten Modellen in Schweizer Rechenzentren aus. Alle Eingabeaufforderungen und Ausgaben bleiben in der privaten KI-Umgebung und werden nicht für das Modelltraining verwendet. Dies gibt Ihnen Datensouveränität, regulatorische Ausrichtung und volle Kontrolle darüber, wie sensible Informationen verarbeitet werden.
Mit OpenAI kompatibles API Interface
Integrieren Sie schnell mit vertrauten Endpunkten im OpenAI-Stil. Vorhandener Code, SDKs und Tools, die bereits die OpenAI-API sprechen, können sich normalerweise mit minimalen Änderungen verbinden, was den Integrationsaufwand und die Wertschöpfungszeit drastisch reduziert.
Auswahl an Modellen mit Smart Routing
Greifen Sie über dieselbe API auf einen wachsenden Katalog offener LLMs zu, darunter DeepSeek, Llama4-Maverick, Apertus, Mistral und andere. Das dynamische Routing erkennt automatisch den Anbieterstatus und die Kontextbeschränkungen und kann transparent zu alternativen Modellen wechseln, wenn ein primäres Modell langsam oder nicht verfügbar ist – was die Zuverlässigkeit und effektive Betriebszeit erhöht.
Vollständige Konfiguration und Kostenkontrolle
Feinabstimmung des Verhaltens auf Anforderungs- oder Modellbasis mit Parametern wie Temperatur, max_tokens und mehr. Wenden Sie detaillierte Budgetkontrollen und Ratenlimits pro Projekt, Team oder Benutzer an, um die Ausgaben vorhersehbar und auf interne Richtlinien abgestimmt zu halten, auch in großem Maßstab.
Normalisierte, Entwicklerfreundliche Antworten
Alle Antworten folgen einem konsistenten, normalisierten Format mit generiertem Text, der immer bei Auswahlmöglichkeiten, Nachrichten und Inhalten verfügbar ist. Diese Abstraktion schützt Ihre Anwendungen vor anbieterspezifischen Unterschieden und vereinfacht nachgelagertes Parsing, Protokollierung und Analyse – insbesondere, wenn Sie mit mehreren Modellen parallel arbeiten.
Streaming, Asynchrone und Token-basierte Preise
Verwenden Sie synchrone oder asynchrone Aufrufe, abhängig von Ihrer Architektur, und aktivieren Sie serverseitiges Streaming, wenn Sie schnellere wahrgenommene Reaktionszeiten in Ihrer Benutzeroberfläche wünschen. Die PAI-API wird pro Million Eingabe- und Ausgabe-Token in Rechnung gestellt, was Ihnen transparente, nutzungsbasierte Preise bietet, die von Prototypen bis hin zu Produktions-Workloads mit hohem Volumen sauber skaliert werden.
Bereit für Private AI API?
In our free briefing, we show you how to use Private AI API productively and securely in the company – without data risks and compliance concerns.
LLM-Modelle und Eigenschaften
Wählen Sie aus einem umfangreichen Katalog souveräner LLMs – alle mit denselben strengen Datenschutz- und Compliance-Garantien. Die Private-AI-Dienste (PAI) von Safe Swiss Cloud kombinieren eine breite Auswahl an Open-Source-LLMs mit einer einheitlichen Grundlage für Sicherheit, Datenschutz und Compliance. Sie behalten die vollständige Kontrolle über Daten, Infrastruktur und Modellauswahl, während wir das souveräne Hosting und operative Exzellenz bereitstellen.
Welche LLM-Modelle werden von PAI unterstützt?
Wir unterstützen viele offene Large Language Models (LLMs), unter anderem:
- Apertus (8B, 70B): Schweizer Modelle der ETH/EPFL, optimiert für mehrsprachige Dialoge.
- DeepSeek (70B, 670B): Open-Source-Modelle, optimiert für anspruchsvolle, auf Reasoning basierende Chat-Antworten.
- Gemma (12B): Googles effiziente offene Modellfamilie für den Produktionseinsatz. Optimiert für die Verarbeitung von Text- und Bildeingaben und die Generierung von Textausgaben.
- GPT-OSS (120B): Open-Source-GPT-Modell, optimiert für leistungsstarkes Reasoning, agentische Aufgaben und vielseitige Developer-Use-Cases.
- Mistral (7B, Mixtral 8x7B, Mixtral 8x22B) – effiziente, hochperformante Open-Modelle, optimiert für mehrsprachige Dialog-Anwendungsfälle.
- Meta LLaMA (LLaMA 3: 17B, 70B, LLaMA4-Maverick: 140B, Llama4-Scout: 17B) – sehr schnell und optimiert für Text- und multimodale Erlebnisse.
- Qwen (8B, 32B, 72B): eine Reihe fortschrittlicher Open-Source-KI-Modelle, optimiert für starkes Reasoning sowie mehrsprachige und multimodale Fähigkeiten.
- Whisper: wird für Speech-to-Text eingesetzt.
Andere kommerzielle oder proprietäre LLMs können je nach Lizenz- und Infrastrukturanforderungen ebenfalls integriert werden.
Merkmale aller Private-AI-Services
Die Private-AI-Dienste (PAI) von Safe Swiss Cloud weisen alle die folgenden Merkmale auf:
- Mehrsprachige LLMs verschaffen Ihnen Zugang zu Wissen in beliebigen Sprachen, während die Ergebnisse in Ihrer eigenen Sprache ausgegeben werden.
- Modellauswahl: Wählen Sie aus einem umfangreichen Katalog offener Large Language Models (LLMs), darunter DeepSeek, Llama4-Maverick, Apertus, Mistral und viele weitere.
- Souverän by design: Alle LLMs werden privat in der Schweiz von schweizerisch kontrollierten Unternehmen betrieben. Ihre Daten bleiben stets unter Ihrer Kontrolle. Ihre Daten werden strikt gemäss den schweizerischen Datenschutzvorschriften verarbeitet.
- Datenschutz: Ihre Daten werden strikt gemäss dem Schweizer Datenschutzgesetz (DSG) und der EU-DSGVO verarbeitet.
- Kein Training, Retraining oder Fine-Tuning der LLMs mit Ihren Daten.
- ISO-Zertifizierungen: 27001, 27017, 27018 …
- Entspricht den C5- und NIS2-Standards.
- 100% in Schweizer Rechenzentren gehostet und unter Schweizer Kontrolle betrieben.
Integrierte Websuche (kann optional deaktiviert werden) ermöglicht es dem LLM, Ergebnisse mit aktuellen Informationen aus dem Web anzureichern.
Warum Private AI?

Souveränität zählt
Public AI ist nützlich – kann aber mit Datenschutz, Compliance und Change-Control-Anforderungen von Unternehmen kollidieren. Private AI hält Prompts, Daten und Ergebnisse innerhalb Ihres Perimeters – mit Modellversionen, die Sie selbst steuern.
KI-Systeme, die von US-gesteuerten Anbietern gehostet werden, unterliegen dem US-CLOUD-Act, selbst wenn sich die Infrastruktur ausserhalb der USA befindet. Dies widerspricht den Datenschutzerwartungen der Schweiz und der EU. Hosting in Schweizer Infrastruktur unter Schweizer Kontrolle vermeidet dieses Risiko.
Sicher in der Safe Swiss Cloud
- Vollständiger Datenschutz: Daten werden strikt zur Erbringung der vertraglich vereinbarten Dienste verwendet – kein Training mit Ihren proprietären Daten, ausser Sie stimmen ausdrücklich zu.
- Gehostet von Safe Swiss Cloud in Schweizer Rechenzentren.
- Schweizer Recht & Kontrolle: Alle Services unterstehen Schweizer Recht (kompatibel mit EU-Recht); sämtliche Dienstleister sind Schweizer kontrolliert.
- Unterliegt nicht dem US-CLOUD-Act: Als vollständig in der Schweiz ansässige IT-Gruppe kann Safe Swiss Cloud nicht nach US-Recht zur Offenlegung von Kundendaten gezwungen werden.
Ergebnis: planbare Betriebsabläufe, regulatorische Übereinstimmung (GDPR, DSG, FINMA, DORA) und auditfähige AI.
PAI API Preise
Alle Preise sind in CHF / EUR. Die Preise basieren auf der Anzahl (in Millionen) von Eingabe- und Ausgabe-Tokens, die pro Modell und Monat verwendet werden. Über eine OpenAI-API-kompatible Programmierschnittstelle (API) können Entwicklerinnen und Entwickler auf mehr als 25 LLMs zugreifen.
Es gilt ein Mindestverbrauch von 95 CHF oder EUR 100 (für nicht Schweizer Kunden) pro Monat für den Gesamtverbrauch von Input- und Output-Tokens aller Modelle. Die Preise pro Modell sind wie folgt:
| Modell | Typ | Preis in CHF/EUR pro Million Input-Tokens | Preis in CHF/EUR pro Million Output- Tokens | Details |
|---|---|---|---|---|
| apertus-8b | Chat | 0.152 | 0.165 | Optimiert für mehrsprachige Dialog-Anwendungsfälle. |
| apertus-70b | Chat | 0.712 | 2.553 | Optimiert für mehrsprachige Dialog-Anwendungsfälle. |
| bge-m3 | Embedding | 0.496 | Optimiert für Embeddings und Sparse Retrieval mit Unterstützung für Multifunktionalität, Mehrsprachigkeit und unterschiedliche Granularität. | |
| bge-reranker | Reranker | 0.009 | Optimiert als Reranker zur Ermittlung von Relevanz-Scores. | |
| deepseekr1-70b | Chat | 0.531 | 0.531 | Optimiert für auf Reasoning basierende Chat-Completions. |
| deepseekr1-670b | Chat | 2.254 | 5.256 | Optimiert für auf Reasoning basierende Chat-Completions. |
| deepseek-ocr | OCR | 0.443 | 1.770 | Optimiert für das einlesen von Dokumente |
| deepseek-v32 | Chat | 0.708 | 2.124 | Deepseek Version 3.2 |
| gemma-12b-it | Multimodal | 0.310 | 0.496 | Optimiert für die Verarbeitung von Text- und Bildeingaben sowie die Generierung von Textausgaben. |
| gpt-oss-120b | Chat | 0.133 | 0.531 | Optimiert für leistungsstarkes Reasoning, agentische Aufgaben und vielseitige Developer-Use-Cases. |
| granite-33-8b | Chat | 0.177 | 0.177 | Optimiert für Reasoning und Instruction-Following-Fähigkeiten. |
| granite-emb-278m | Embedding | 0.089 | Optimiert für Embeddings. | |
| granite-vision-2b | Multimodal | 0.089 | 0.089 | Optimiert als kompaktes, effizientes Vision-Language-Modell. |
| kimi-k2 | Chat | 0.886 | 2.657 | Optimiert für mehrsprachigen Dialog |
| llama33-70b | Chat | 0.628 | 0.628 | Optimiert für mehrsprachige Dialog-Anwendungsfälle. |
| llama4-maverick | Chat und Multimodal | 0.310 | 1.239 | Optimiert für Text- und Multimodal-Anwendungsfälle. |
| llama4-scout-17b | Chat und Multimodal | 0.221 | 0.735 | Optimiert für Text- und Multimodal-Anwendungsfälle. |
| mistral-v03-7b | Nur Chat | 0.177 | 0.177 | Optimiert für mehrsprachige Chat-Anwendungen. |
| qwen3-8b | Reasoning | 0.031 | 0.122 | Optimiert für Denken und Logik. |
| qwq-32b | Reasoning | 1.062 | 1.062 | Optimiert für Denken und Logik. |
| qwen3-vl-235b | Multimodal | 0.805 | 2.300 | Optimiert für Text- und Multimodal-Anwendungsfälle. |
| qwq25-vl-72b | Multimodal | 0.973 | 0.973 | Optimiert als kompaktes, effizientes Vision-Language-Modell. |
| Whisperx | Speech to Text | Coming soon | Coming soon | Zur Umwandlung von Sprache in Text. |
Jetzt starten

- Initiales Briefing – Wir analysieren Ihre Ziele, Compliance-Anforderungen und Ihre bestehende IT-Landschaft, um die optimale AI-Architektur zu bestimmen.
- Architekturdesign – Gemeinsam wählen wir geeignete LLMs, Integrationspunkte und Hosting-Optionen aus, die zu Ihrer Strategie passen.
- Implementierung – Wir stellen die AI-Umgebung bereit und integrieren sie sicher und effizient in Ihre internen Systeme.
FAQ
Fragen und Antworten zur Private AI von Safe Swiss Cloud
Private AI bei Safe Swiss Cloud bedeutet dreierlei:
- Kundendaten — Prompts, Antworten und KI-Ausgaben — werden nie für das Training von Modellen verwendet.
- Kundendaten werden gemäss dem Schweizer Datenschutzgesetz (DSG) und der EU-DSGVO verarbeitet und sind damit vollständig datenschutzkonform.
- Die Infrastruktur ist souverän, d. h. sie unterliegt keinen willkürlichen Serviceunterbrechungen aus nicht-technischen Gründen.
Safe Swiss Cloud verwendet Open-Source-Modelle und trainiert diese nicht — auch nicht mittelbar. Kundendaten (Prompts, KI-Ausgaben, Protokolle usw.) werden daher ausschliesslich für den vom Kunden explizit beauftragten Zweck verwendet. So wird verhindert, dass vertrauliche Informationen unbeabsichtigt in die Öffentlichkeit gelangen.
Viele öffentliche KI-Dienste nutzen Kundendaten stillschweigend für das Training. Lädt beispielsweise ein Mitarbeiter eine Datei mit vertraulichen Informationen bei einem öffentlichen KI-Dienst zur Analyse hoch, könnten diese Daten in eine künftige Version eines grossen Sprachmodells (LLM) einfliessen — und ein Konkurrent könnte bei einer späteren Anfrage unternehmensinterne Informationen als Antwort erhalten.
Ja. Jeder Kunde erhält sein eigenes dediziertes Frontend und RAG-System (Retrieval-Augmented Generation). Prompts sind vollständig voneinander isoliert und haben keine kundenübergreifenden Auswirkungen.
Ja. Diese Option ist teurer, da sie dedizierte GPUs für einen einzelnen Kunden erfordert. Sie ist eine sinnvolle Lösung für Kunden mit ausreichendem Workload-Volumen und strengen Compliance-Anforderungen an eine dedizierte KI-Infrastruktur.
Ja. Safe Swiss Cloud bietet dedizierte GPU- und Speicher-Cluster für einzelne Kunden an.
Nein. Prompts und Antworten werden nicht in Protokollen gespeichert und können daher von Safe Swiss Cloud-Mitarbeitenden weder eingesehen noch nachverfolgt werden.
Backups sind grundsätzlich verschlüsselt. Snapshots eines verschlüsselten Volumes sind ebenfalls verschlüsselt. Kunden können zudem Daten im Ruhezustand (Data at Rest) verschlüsseln, was sicherstellt, dass alle Snapshots verschlüsselt sind und ausschliesslich bestimmungsgemäss verwendet werden können.
Ja. Die technischen Datenschutzfunktionen sowie die regulatorischen Rahmenbedingungen des Schweizer Datenschutzgesetzes und der EU-DSGVO gewährleisten, dass die Private-AI-Umgebung für regulierte Daten, darunter Gesundheits- und Finanzdaten, geeignet ist.
Safe Swiss Cloud ist nach ISO 27001, ISO 27017 und ISO 27018 zertifiziert und wird jährlich geprüft. Dies stellt sicher, dass ein Informationssicherheits-Managementsystem (ISMS) implementiert ist, die notwendigen Standards zum Schutz personenbezogener Daten (PII) eingehalten werden und zusätzliche Sicherheits- und Datenschutzmassnahmen für Cloud-Umgebungen umgesetzt sind.
Safe Swiss Cloud erfüllt ausserdem eine Reihe branchenspezifischer Standards, darunter FINMA und BaFin (Finanzbereich), HIPAA und FMH (Gesundheitswesen), EU-DSGVO und Schweizer DSG (Datenschutz) sowie C5 und NIS2.
Alle KI-Daten und Modelle werden ausschliesslich in der Schweiz gespeichert und verarbeitet.
Safe Swiss Clouds Private AI erfüllt vollständig die Anforderungen des revidierten Schweizer Datenschutzgesetzes (CH DSG) sowie der EU-DSGVO.
Das Schweizer Recht schreibt vor, dass Safe Swiss Cloud Kundendaten nur dann an nicht-schweizerische oder ausländische Behörden herausgeben darf, wenn ein entsprechendes Rechtshilfeersuchen eines Schweizer Gerichts nach Schweizer Recht vorliegt. Dies bietet einen robusten rechtlichen Schutz gegen extraterritoriale Datenzugriffsanfragen.
Safe Swiss Cloud bietet ein SLA mit einer Verfügbarkeit von 99,9 %. Für kostenpflichtige Support-Pakete beträgt die garantierte Reaktionszeit maximal eine Stunde.
Wie alle KI-Dienstleister — einschliesslich der grossen internationalen Public-Cloud-Anbieter — garantiert Safe Swiss Cloud keine bestimmten Leistungsniveaus für KI-Workloads. Ein grosser Pool an Hochleistungs-GPUs sowie ein dynamisches Kapazitätsmanagement sorgen jedoch unter normalen Betriebsbedingungen für eine zuverlässig gute Performance.
Safe Swiss Cloud bietet kostenpflichtige Support-Pakete mit 24/7-Abdeckung an. Weitere Informationen finden Sie auf unserer Seite zu den Support-Services.
Wir bieten Services zur Entwicklung von MCP-Servern (Model Context Protocol) an, um KI-Systeme mit Unternehmensdatenquellen und -prozessen zu verbinden.
Wir verwenden Open-Source-Modelle, die über die branchenübliche OpenAI API zugänglich sind. Dies ermöglicht Kunden, Modelle und Anbieter bei Bedarf zu wechseln, ohne an proprietäre Formate oder Schnittstellen gebunden zu sein.
Grosse Sprachmodelle werden über die branchenübliche OpenAI API angebunden. Schnittstellen zu Unternehmensdaten basieren auf dem Model Context Protocol (MCP) Standard. Diese Kombination gewährleistet ein sehr hohes Mass an Interoperabilität zwischen Systemen und erleichtert den Wechsel von Modellen oder Anbietern erheblich.


