Private AI Tools

Moderne Steuerungs- und Entwicklertools für sichere, skalierbare KI-Operationen.

Produktübersicht


Private AI Tools für Enterprise & Developer ergänzt PAI Chat und PAI API um eine unternehmensweite Kontroll- und Verwaltungsebene. Die Lösung bietet zentrale Werkzeuge für Identity- und Access-Management, Observability, Modell-Governance und Administration – damit Sicherheits-, Compliance- und Plattformteams steuern können, wie KI im Unternehmen genutzt wird, während Entwickler weiterhin mit den vertrauten PAI-Chat- und PAI-API-Schnittstellen arbeiten.

Mit Private AI Enterprise & Developer zentralisieren Sie Authentifizierung, API-Key-Management, Modellzugriffe und Benutzereinstellungen an einem Ort. Die Lösung integriert sich in bestehende Identity-Systeme (z. B. Safe Swiss Cloud IAM oder Microsoft Entra), bietet detailliertes Logging und Analytics für sämtlichen PAI-Traffic und ermöglicht planbare, enterprise-taugliche Preise – basierend auf einer festen Monatsgebühr, pro PAI-Chat-Nutzer und pro Million Tokens.

Features


Private AI Enterprise & Developer stellt eine zentrale Identity-Schicht für alle Zugriffe auf PAI Chat und PAI API bereit und unterstützt individuelle Authentifizierungsflows sowie die Integration mit Systemen wie Safe Swiss Cloud IAM oder Microsoft Entra. Zugriffsschlüssel und Anmeldeinformationen werden zentral statt in einzelnen Applikationen verwaltet, was den Betrieb vereinfacht und Sicherheitsrisiken reduziert.

Die Plattform bündelt API-Key-Verwaltung und Zugriffssteuerung auf Modelle in einer gemeinsamen Administrationsoberfläche, in der Sie definieren, welche Applikationen, Teams oder Rollen bestimmte Keys und Modelle nutzen dürfen. So bleibt der KI-Einsatz im Einklang mit Governance-, Risiko- und Kostenregeln, etwa indem bestimmte Modelle auf Test- oder freigegebene Produktivumgebungen beschränkt werden.

Private AI Enterprise & Developer bietet detailliertes Logging und Analytics für den gesamten PAI-Chat- und PAI-API-Traffic, sodass Sie die Nutzung nach Modell, Team, Projekt oder Umgebung auswerten können. Diese Einblicke unterstützen die Optimierung von Kosten und Performance und liefern die Audit-Trails, die für interne wie externe Compliance benötigt werden.

Für PAI Chat ergänzt die Enterprise-&-Developer-Ebene eine zentrale Administration von Benutzerinnen und Benutzern, Workspaces und Standardwerten wie Standardmodellen, Websuche-Einstellungen und Aufbewahrungsfristen. Benutzerkonten, Logins und Passwort-Resets werden an einem Ort verwaltet; über Single Sign-On nutzen Mitarbeitende ihre bestehenden Unternehmensidentitäten.

Die Lösung übersetzt Governance- und Risiko-Vorgaben in durchsetzbare Plattform-Einstellungen, indem sie festlegt, wer welche Funktionen nutzen darf und welche Modelle für welche Umgebungen freigegeben sind. So lassen sich Experimentier- und Produktivumgebungen trennen, Datenhaltung und Logging steuern und sicherstellen, dass der KI-Einsatz im Rahmen regulatorischer und interner Richtlinien bleibt.

Private AI Enterprise & Developer verwendet ein Preismodell mit einem fixen Grundbetrag pro Monat, einer Gebühr pro PAI-Chat-Nutzer und einer Komponenten-basierten Abrechnung pro Million Tokens über PAI API und PAI Chat. So können Sie leicht mit Piloten starten, schrittweise skalieren und jederzeit nachvollziehen, wie sich Kosten aus Nutzerzahlen und tatsächlicher KI-Nutzung zusammensetzen.

Bereit für PAI tools für Enterprise & Developer?

In unserem kostenlosen Briefing zeigen wir Ihnen, wie Sie PAI Enterprise & Developer im Unternehmen produktiv und sicher einsetzen – ohne Datenrisiken und Compliance-Bedenken.

LLM-Modelle und Eigenschaften


Wählen Sie aus einem umfangreichen Katalog souveräner LLMs – alle mit denselben strengen Datenschutz- und Compliance-Garantien. Die Private-AI-Dienste (PAI) von Safe Swiss Cloud kombinieren eine breite Auswahl an Open-Source-LLMs mit einer einheitlichen Grundlage für Sicherheit, Datenschutz und Compliance. Sie behalten die vollständige Kontrolle über Daten, Infrastruktur und Modellauswahl, während wir das souveräne Hosting und operative Exzellenz bereitstellen.

Welche LLM-Modelle werden von PAI unterstützt?

Wir unterstützen viele offene Large Language Models (LLMs), unter anderem:

  • Apertus (8B, 70B): Schweizer Modelle der ETH/EPFL, optimiert für mehrsprachige Dialoge.
  • DeepSeek (70B, 670B): Open-Source-Modelle, optimiert für anspruchsvolle, auf Reasoning basierende Chat-Antworten.
  • Gemma (12B): Googles effiziente offene Modellfamilie für den Produktionseinsatz. Optimiert für die Verarbeitung von Text- und Bildeingaben und die Generierung von Textausgaben.
  • GPT-OSS (120B): Open-Source-GPT-Modell, optimiert für leistungsstarkes Reasoning, agentische Aufgaben und vielseitige Developer-Use-Cases.
  • Mistral (7B, Mixtral 8x7B, Mixtral 8x22B) – effiziente, hochperformante Open-Modelle, optimiert für mehrsprachige Dialog-Anwendungsfälle.
  • Meta LLaMA (LLaMA 3: 17B, 70B, LLaMA4-Maverick: 140B, Llama4-Scout: 17B) – sehr schnell und optimiert für Text- und multimodale Erlebnisse.
  • Qwen (8B, 32B, 72B): eine Reihe fortschrittlicher Open-Source-KI-Modelle, optimiert für starkes Reasoning sowie mehrsprachige und multimodale Fähigkeiten.
  • Whisper: wird für Speech-to-Text eingesetzt.

Andere kommerzielle oder proprietäre LLMs können je nach Lizenz- und Infrastrukturanforderungen ebenfalls integriert werden.

Merkmale aller Private-AI-Services

Die Private-AI-Dienste (PAI) von Safe Swiss Cloud weisen alle die folgenden Merkmale auf:

  • Mehrsprachige LLMs verschaffen Ihnen Zugang zu Wissen in beliebigen Sprachen, während die Ergebnisse in Ihrer eigenen Sprache ausgegeben werden.
  • Modellauswahl: Wählen Sie aus einem umfangreichen Katalog offener Large Language Models (LLMs), darunter DeepSeek, Llama4-Maverick, Apertus, Mistral und viele weitere.
  • Souverän by design: Alle LLMs werden privat in der Schweiz von schweizerisch kontrollierten Unternehmen betrieben. Ihre Daten bleiben stets unter Ihrer Kontrolle. Ihre Daten werden strikt gemäss den schweizerischen Datenschutzvorschriften verarbeitet.
  • Datenschutz: Ihre Daten werden strikt gemäss dem Schweizer Datenschutzgesetz (DSG) und der EU-DSGVO verarbeitet.
  • Kein Training, Retraining oder Fine-Tuning der LLMs mit Ihren Daten. 
  • ISO-Zertifizierungen: 27001, 27017, 27018 …
  • Entspricht den C5- und NIS2-Standards.
  • 100% in Schweizer Rechenzentren gehostet und unter Schweizer Kontrolle betrieben. 

Integrierte Websuche  (kann optional deaktiviert werden) ermöglicht es dem LLM, Ergebnisse mit aktuellen Informationen aus dem Web anzureichern.

Warum Private AI?


PAI Tools Preise


ProduktBeschreibungEinheitenPreis in CHF / EUR
PAI Tools für PAI Chat
Benutzerverwaltung (selbstbedienung)
IAM Integration
Rollenbasierter Modellzugriff
Fixpreis
100.-

FAQ


Fragen und Antworten zur Private AI von Safe Swiss Cloud

«Private AI» – was bedeutet das bei Safe Swiss Cloud?

Private AI bei Safe Swiss Cloud bedeutet dreierlei:

  1. Kundendaten — Prompts, Antworten und KI-Ausgaben — werden nie für das Training von Modellen verwendet.
  2. Kundendaten werden gemäss dem Schweizer Datenschutzgesetz (DSG) und der EU-DSGVO verarbeitet und sind damit vollständig datenschutzkonform.
  3. Die Infrastruktur ist souverän, d. h. sie unterliegt keinen willkürlichen Serviceunterbrechungen aus nicht-technischen Gründen.
Wie unterscheidet sich Safe Swiss Clouds Private AI von öffentlichen Cloud-KI-Diensten oder Verbraucher-Chatbots?

Safe Swiss Cloud verwendet Open-Source-Modelle und trainiert diese nicht — auch nicht mittelbar. Kundendaten (Prompts, KI-Ausgaben, Protokolle usw.) werden daher ausschliesslich für den vom Kunden explizit beauftragten Zweck verwendet. So wird verhindert, dass vertrauliche Informationen unbeabsichtigt in die Öffentlichkeit gelangen.

Viele öffentliche KI-Dienste nutzen Kundendaten stillschweigend für das Training. Lädt beispielsweise ein Mitarbeiter eine Datei mit vertraulichen Informationen bei einem öffentlichen KI-Dienst zur Analyse hoch, könnten diese Daten in eine künftige Version eines grossen Sprachmodells (LLM) einfliessen — und ein Konkurrent könnte bei einer späteren Anfrage unternehmensinterne Informationen als Antwort erhalten.

Sind KI-Workloads eines Kunden vollständig von denen anderer Kunden isoliert?

Ja. Jeder Kunde erhält sein eigenes dediziertes Frontend und RAG-System (Retrieval-Augmented Generation). Prompts sind vollständig voneinander isoliert und haben keine kundenübergreifenden Auswirkungen.

Können wir unsere KI-Umgebung bei Bedarf auf dedizierter Hardware ohne andere Mandanten betreiben?

Ja. Diese Option ist teurer, da sie dedizierte GPUs für einen einzelnen Kunden erfordert. Sie ist eine sinnvolle Lösung für Kunden mit ausreichendem Workload-Volumen und strengen Compliance-Anforderungen an eine dedizierte KI-Infrastruktur.

Bieten Sie dedizierte GPU- und Speicher-Cluster für einen einzelnen Kunden an?

Ja. Safe Swiss Cloud bietet dedizierte GPU- und Speicher-Cluster für einzelne Kunden an.

Werden KI-Prompts und -Antworten in Protokollen gespeichert und sind damit für Safe Swiss Cloud-Mitarbeitende einsehbar?

Nein. Prompts und Antworten werden nicht in Protokollen gespeichert und können daher von Safe Swiss Cloud-Mitarbeitenden weder eingesehen noch nachverfolgt werden.

Wie werden Backups und Snapshots gehandhabt, und sind diese ebenfalls verschlüsselt?

Backups sind grundsätzlich verschlüsselt. Snapshots eines verschlüsselten Volumes sind ebenfalls verschlüsselt. Kunden können zudem Daten im Ruhezustand (Data at Rest) verschlüsseln, was sicherstellt, dass alle Snapshots verschlüsselt sind und ausschliesslich bestimmungsgemäss verwendet werden können.

Ist die Private-AI-Umgebung für die Verarbeitung regulierter Daten — beispielsweise Gesundheits- oder Finanzdaten — geeignet?

Ja. Die technischen Datenschutzfunktionen sowie die regulatorischen Rahmenbedingungen des Schweizer Datenschutzgesetzes und der EU-DSGVO gewährleisten, dass die Private-AI-Umgebung für regulierte Daten, darunter Gesundheits- und Finanzdaten, geeignet ist.

Über welche Zertifizierungen, Prüfungen oder Attestierungen verfügt die Private-AI-Plattform für regulierte Anwendungsfälle?

Safe Swiss Cloud ist nach ISO 27001, ISO 27017 und ISO 27018 zertifiziert und wird jährlich geprüft. Dies stellt sicher, dass ein Informationssicherheits-Managementsystem (ISMS) implementiert ist, die notwendigen Standards zum Schutz personenbezogener Daten (PII) eingehalten werden und zusätzliche Sicherheits- und Datenschutzmassnahmen für Cloud-Umgebungen umgesetzt sind.

Safe Swiss Cloud erfüllt ausserdem eine Reihe branchenspezifischer Standards, darunter FINMA und BaFin (Finanzbereich), HIPAA und FMH (Gesundheitswesen), EU-DSGVO und Schweizer DSG (Datenschutz) sowie C5 und NIS2.

In welchem Rechtsraum werden unsere KI-Daten gespeichert und verarbeitet?

Alle KI-Daten und Modelle werden ausschliesslich in der Schweiz gespeichert und verarbeitet.

Wie entspricht Safe Swiss Clouds Private AI dem revidierten Schweizer Datenschutzgesetz und anderen anwendbaren Datenschutzgesetzen?

Safe Swiss Clouds Private AI erfüllt vollständig die Anforderungen des revidierten Schweizer Datenschutzgesetzes (CH DSG) sowie der EU-DSGVO.

Wie schützen Sie Kunden vor dem Zugriff nicht-schweizerischer oder ausländischer Regierungen auf ihre Daten?

Das Schweizer Recht schreibt vor, dass Safe Swiss Cloud Kundendaten nur dann an nicht-schweizerische oder ausländische Behörden herausgeben darf, wenn ein entsprechendes Rechtshilfeersuchen eines Schweizer Gerichts nach Schweizer Recht vorliegt. Dies bietet einen robusten rechtlichen Schutz gegen extraterritoriale Datenzugriffsanfragen.

Welche Service-Level und SLAs bieten Sie für GPU-intensive KI-Workloads an?

Safe Swiss Cloud bietet ein SLA mit einer Verfügbarkeit von 99,9 %. Für kostenpflichtige Support-Pakete beträgt die garantierte Reaktionszeit maximal eine Stunde.

Welche Leistungsgarantien bietet Private AI hinsichtlich GPU-Verfügbarkeit, I/O und Speicherdurchsatz?

Wie alle KI-Dienstleister — einschliesslich der grossen internationalen Public-Cloud-Anbieter — garantiert Safe Swiss Cloud keine bestimmten Leistungsniveaus für KI-Workloads. Ein grosser Pool an Hochleistungs-GPUs sowie ein dynamisches Kapazitätsmanagement sorgen jedoch unter normalen Betriebsbedingungen für eine zuverlässig gute Performance.

Welche Support-Optionen stehen zur Verfügung?

Safe Swiss Cloud bietet kostenpflichtige Support-Pakete mit 24/7-Abdeckung an. Weitere Informationen finden Sie auf unserer Seite zu den Support-Services.

Welche Services bietet Safe Swiss Cloud für die Integration von Unternehmensdaten in KI an?

Wir bieten Services zur Entwicklung von MCP-Servern (Model Context Protocol) an, um KI-Systeme mit Unternehmensdatenquellen und -prozessen zu verbinden.

Wie einfach ist es, unsere Modelle, Daten und Prompts von Safe Swiss Cloud zu einem anderen Anbieter zu migrieren?

Wir verwenden Open-Source-Modelle, die über die branchenübliche OpenAI API zugänglich sind. Dies ermöglicht Kunden, Modelle und Anbieter bei Bedarf zu wechseln, ohne an proprietäre Formate oder Schnittstellen gebunden zu sein.

Welche offenen Formate, APIs oder Schnittstellen unterstützen Sie, um Vendor-Lock-in zu minimieren?

Grosse Sprachmodelle werden über die branchenübliche OpenAI API angebunden. Schnittstellen zu Unternehmensdaten basieren auf dem Model Context Protocol (MCP) Standard. Diese Kombination gewährleistet ein sehr hohes Mass an Interoperabilität zwischen Systemen und erleichtert den Wechsel von Modellen oder Anbietern erheblich.