Private AI

Sichere und souveräne KI-Lösungen – in der Schweiz, zu Ihren Bedingungen

AI Inference-Dienste


Mit Private AI können Sie KI-Modelle in einer Umgebung ausführen, die Sie vollständig besitzen und kontrollieren. Die Daten werden weder zu Trainingszwecken noch aus anderen Gründen an Dritte weitergegeben. So wird sichergestellt, dass vertrauliche Daten eines Unternehmens vertraulich bleiben.

Safe Swiss Cloud bietet mit seiner Produktfamilie „Private AI“ (PAI) eine Reihe von KI-Diensten nach Industriestandard. Dazu gehören konversationsfähige KI/Chat, Zugriff auf grosse Sprachmodelle (LLMs) über API, Unternehmens- und Entwicklertools, Integrationsdienste wie MCP-Server, um Unternehmenssysteme für KI zugänglich zu machen, Unterstützung für agentenbasierte KI einschliesslich Workflows und Supportdienste für KI. 

Alle Daten, einschliesslich Eingabeaufforderungen, Ergebnisse und Protokolle, verbleiben in den Schweizer Rechenzentren von Safe Swiss Cloud und unter der Kontrolle des Kunden. Dies gewährleistet die Einhaltung gesetzlicher Vorschriften und eine tiefe Integration in die internen Systeme des Kunden, wodurch maßgeschneiderte KI-Workflows ermöglicht werden – ohne dass Daten Ihre Kontrolle verlassen.

Private AI Chat (PAI Chat)

Sicherer, in der Schweiz gehosteter KI-Chat. Für Teams, die Datensouveränität, Privatsphäre und Kontrolle suchen.

PAI Chat bietet Ihrem Team einen schnellen, sicheren und wirklich privaten KI-Chat mit Open-Source-LLMs, die von Safe Swiss Cloud in Schweizer Rechenzentren gehostet werden. PAI Chat wurde für normale und Power-Benutzer gleichermaßen entwickelt und kombiniert Datenschutz auf Unternehmensebene mit echten Produktivitätsfunktionen wie gemeinsam genutzten Eingabeaufforderungen, gespeicherten Arbeitsbereichen und unternehmensweiter Governance: Analysieren Sie Dokumente, erkunden Sie Ideen, schreiben Sie Code oder lassen Sie ausführliche Research-Reports erstellen.

Private AI API (PAI API)

Programmatischer Zugriff auf in der Schweiz gehostete private LLMs für Applikationen und Automatisierung.

Die PAI API ermöglicht es Entwicklern, eine standardmäßige OpenAI-konforme API zu verwenden, um auf LLMs zuzugreifen, die von Safe Swiss Cloud in Schweizer Rechenzentren gehostet werden. Damit erweitern Sie Ihre Anwendungen mit KI, erstellen automatisierte Workflows oder verwalten Backend-Systeme. Kunden erhalten mit PAI API schnellen, zuverlässigen Zugriff auf mehrere Modelle mit einheitlichen Antworten, intelligenten Routing-Optionen und vollständiger Flexibilität.

Private AI Tools

Enterprise und Entwicklertools mit modernen Steuerung für sichere, skalierbare KI-Operationen.

PAI Toolserweitert PAI Chat und PAI API mit Analyse- und Managementfunktionen zur Analyse der Ressourcen- und Tokennutzung uvm. Erhalten Sie Management Funktionalität und detaillierte Monitoring über Ressourcen mit IAM-Integration und rollenbasiertem Zugriff. Es ist der unkomplizierte Weg, um sichere, konforme und gut verwaltete KI in Ihrem gesamten Unternehmen zu betreiben.

Private AI Integration Services

Unternehmensdaten sicher für private LLMs verfügbar machen.

PAI Integration Services bauen Ihre privaten Systeme dort, wo Ihre Daten auch tatsächlich leigen – von Dateiservern und ERPs über CRMs, E-Mail- und Ticketing-Tools bis hin zu LLMs, die von Safe Swiss Cloud in Schweizer Rechenzentren gehostet werden. Safe Swiss Cloud erstellt sicher verwaltete MCP-Server, um Ihre Anwendungen mit KI zu aktivieren. Es ist der einfachste Weg zu KI-fähigen Daten, nahtlosen Automatisierungen und End-to-End-Workflow-Integration.

PAI Agentic

Autonome Arbeitsabläufe: Vom Prompt zur Aktion

Agentic AI mit PAI bringt intelligente Entscheidungen in automatisierte Arbeitsabläufe. Systeme rufen das bei Safe Swiss Cloud in Schweizer Rechenzentren gehostete LLM über die API auf und lassen diese die nächste Aktion für jeden Input bestimmen, indem sie eine strukturierte Ausführung mit Argumentation bei jedem Schritt kombinieren. Ihre Workflow-Engine verarbeitet Aufgaben zuverlässig, während das LLM die Intelligenz für komplexe, mehrstufige Prozesse bereitstellt. Es ist ein vollständig unterstützter Weg zu einer intelligenten Automatisierung in einer souveränen Umgebung.

PAI Support

Zuverlässiger, ganzjähriger Support mit garantierten Reaktionszeiten und direktem Zugang zu Ingenieuren.

PAI Support bietet Ihrem Unternehmen einen flexiblen, zuverlässigen Zugang zu Safe Swiss Cloud-Experten. Jahrespakete bieten eine festgelegte Anzahl von Stunden, die 12 Monate lang gültig sind, monatlich in Rechnung gestellt und für alle Dienste verwendet werden können – einschließlich jedes privaten KI-Angebots. Mit einem 7×24 SLA, einer maximalen Reaktionszeit von einer Stunde und einer direkten Notfall-Hotline für qualifizierte Ingenieure erhält Ihr Team immer die Hilfe, die es braucht, genau dann, wenn es darauf ankommt.

Bereit für Private AI?

In unserem unverbindlichen Briefing zeigen wir Ihnen, wie Sie KI produktiv und sicher im Unternehmen einsetzen können – ohne Datenrisiken und Compliance-Bedenken.

Was ist private KI?


Private KI ist der Einsatz grosser Sprachmodelle (LLMs) innerhalb einer souveränen Computing-Umgebung, die nicht autorisierten Dritten keinen Zugriff auf Ihre Daten gewährt. Anders als öffentliche KI-Dienste eliminiert diese Lösung das Risiko einer unbeabsichtigten Offenlegung Ihrer geschützten und vertraulichen Daten, deren Verwendung für die Schulung von Modellen oder Verstösse gegen Datenschutzregeln.

Um den Schutz sensibler und vertraulicher Daten zu gewährleisten, setzen Organisationen zunehmend auf private KI-Lösungen. Diese privaten KI-Stacks basieren häufig auf offenen Modellen wie Apertus, Llama, Mistral, Gemma, GPT-OSS, Qwen und DeepSeek, die auf einer souveränen GPU-Infrastruktur gehostet werden.

LLM-Modelle und Eigenschaften


Wählen Sie aus einem umfangreichen Katalog souveräner LLMs – alle mit denselben strengen Datenschutz- und Compliance-Garantien. Die Private-AI-Dienste (PAI) von Safe Swiss Cloud kombinieren eine breite Auswahl an Open-Source-LLMs mit einer einheitlichen Grundlage für Sicherheit, Datenschutz und Compliance. Sie behalten die vollständige Kontrolle über Daten, Infrastruktur und Modellauswahl, während wir das souveräne Hosting und operative Exzellenz bereitstellen.

Welche LLM-Modelle werden von PAI unterstützt?

SSC stellt Zugang zu den folgenden Open-Source-Large-Language-Models bereit. Diese werden ohne jegliche Gewährleistung zur Verfügung gestellt:

ModellTypDetails
apertus-70bChatOptimiert für mehrsprachige Dialoganwendungen.
bge-m3EmbeddingOptimiert für Embeddings und präzises Retrieval mit Unterstützung für Multi-Funktionalität, Mehrsprachigkeit und Multi-Granularität.
bge-rerankerRerankerOptimiert für Reranking zur Ermittlung von Relevanz-Scores.
deepseek-v3.2ChatOptimiert für reasoning-basierte Chat-Completions.
gemma-12b-itMultimodalOptimiert für die Verarbeitung von Text- und Bildeingaben sowie die Generierung von Textausgaben.
gemma4-31bMultimodalOptimiert für die Verarbeitung von Text- und Bildeingaben sowie die Generierung von Textausgaben.
gpt-oss-120bChatOptimiert für leistungsstarkes Reasoning, agentische Aufgaben und vielseitige Entwickler-Anwendungsfälle.
granite-33-8bChatOptimiert für Reasoning und Instruction-Following.
granite-emb-278mEmbeddingOptimiert für Embeddings.
granite-vision-2bMultimodalOptimiert für ein kompaktes und effizientes Vision-Language-Modell.
llama4-maverickChat und MultimodalOptimiert für Text- und multimodale Anwendungen.
llama4-scout-17bChat und MultimodalOptimiert für Text- und multimodale Anwendungen.
mistral-v03-7bNur ChatOptimiert für mehrsprachige Dialoganwendungen.
miner-u25Vision-LanguageOptimiert für die Dokumentenverarbeitung, die mit hoher rechnerischer Effizienz eine Genauigkeit auf dem neuesten Stand der Technik erreicht.
qwen3-8bReasoningOptimiert für Denken und Reasoning.
qwq-32bReasoningOptimiert für Denken und Reasoning.
qwen3-vi-235bMultimodalOptimiert für Text- und multimodale Anwendungen.
whisper-large-v3Speech to TextZur Umwandlung von Sprache in Text.

Weitere kommerzielle oder proprietäre LLMs können je nach Lizenz- und Infrastrukturanforderungen ebenfalls integriert werden.

Merkmale aller Private-AI-Dienste

Private AI (PAI) umfasst die Bereitstellung souveräner Private-AI-Lösungen durch SSC für seine Kunden. Die folgenden Servicemerkmale gelten für alle PAI-Dienste von Safe Swiss Cloud.

  • Mehrsprachige LLMs ermöglichen den Zugriff auf Wissen aus jeder Sprache, wobei die Ergebnisse in Ihrer eigenen Sprache geliefert werden.
  • Modellauswahl: Wählen Sie aus einem umfangreichen Katalog offener Large Language Models (LLMs), darunter DeepSeek, Llama4-Maverick, Apertus, Mistral und viele mehr.
  • Sovereign AI by Design: Alle LLMs werden privat in der Schweiz gehostet, von Schweizer Unternehmen in Schweizer Eigentum. Ihre Daten bleiben stets unter Ihrer Kontrolle und werden strikt gemäss Schweizer und europäischem Datenschutzrecht verarbeitet.
  • Datenschutz: Ihre Daten werden strikt gemäss dem Schweizer Datenschutzgesetz (DSG) und der EU-DSGVO verarbeitet.
  • Kein Training, Retraining oder Fine-Tuning der LLMs mit Ihren Daten.
  • ISO-Zertifizierungen: 27001, 27017, 27018.
  • Konform mit den Standards C5 und NIS2.
  • 100 % in Schweizer Rechenzentren gehostet, unter Schweizer Kontrolle.

Warum Private AI?


Private AI vs. Public AI


FunktionPublic AI
Generischer Anbieter
Private AI
Safe Swiss Cloud
DatenschutzDaten werden an externe Server übermittelt und ausserhalb der Unternehmensgrenzen verarbeitet.Sämtliche Verarbeitung erfolgt in einer kontrollierten, sicheren Umgebung im Eigentum des Unternehmens. Kein Zugriff durch Dritte.
ComplianceCompliance hängt vom Anbieter ab; möglicherweise keine Erfüllung von Branchen- oder Rechtsraum-spezifischen Anforderungen.Erfüllt strenge Vorschriften wie GDPR, HIPAA, FINMA, DORA – rechtlich und auditseitig abgesichert.
Nutzung Ihrer DatenKönnen gespeichert oder für laufendes Training verwendet werden – mit begrenzter Kontrolle.Keine Nutzung für Training, ausser Sie stimmen ausdrücklich zu. Standard: keine Verwendung.
IntegrationBegrenzt auf öffentliche APIs; kein tiefer Zugriff auf interne Systeme.Direkte, sichere Integration über MCP, APIs und private Konnektoren.
IndividualisierungMinimal bis gar nicht möglich.Volle Kontrolle: Modellauswahl, Verhalten, Workflows und Guardrails.
Hosting-OptionenBeschränkt auf Infrastruktur des Anbieters.Gehostet von Safe Swiss Cloud in ihren Schweizer Rechenzentren.
SupportGenerisch, begrenzte Reichweite/Öffnungszeiten.24/7 Fachexperten-Support durch ISO-zertifizierte Engineers.
Datensouveränität / CLOUD ActMögliche Unterstellung unter ausländische Gerichtsbarkeit (z. B. CLOUD Act).Schweizerisch kontrolliertes Hosting; nicht vom US CLOUD Act betroffen.

Für wen ist Private AI?


Wir unterstützen Schweizer und internationale Kunden dabei, ihre Private-AI-Strategien in der bevorzugten Umgebung erfolgreich umzusetzen.

Gesundheit und Rechtswesen

Spitäler und Forschungseinrichtungen verarbeiten Patientendaten mit AI-Modellen, die vollständig mit Datenschutzgesetzen wie HIPAA konform bleiben – ohne Risiko des Abflusses sensibler Informationen.

Finanzdienstleister

Banken und Versicherer nutzen Private AI, um regulatorische Berichte zu automatisieren, Betrug in Echtzeit zu erkennen und personalisierten, gleichzeitig konformen Kundenservice bereitzustellen.

Software-Unternehmen

Dieser souveräne KI-Dienst ermöglicht Softwareunternehmen, ihre Software-as-a-Service (SaaS)-Angebote um KI-Funktionen zu erweitern und gleichzeitig die Datenschutzbestimmungen der Schweiz (DSG) und der Europäischen Union (DSGVO) einzuhalten.

Unternehmen mit sensiblen Daten

Unternehmen aus Industrie, Verteidigung und Technologie schützen Geschäftsgeheimnisse und geistiges Eigentum, indem sie sämtliche AI-Verarbeitung innerhalb gesicherter Infrastruktur durchführen.

FAQ


Fragen und Antworten zur Private AI von Safe Swiss Cloud

«Private AI» – was bedeutet das bei Safe Swiss Cloud?

Private AI bei Safe Swiss Cloud bedeutet dreierlei:

  1. Kundendaten — Prompts, Antworten und KI-Ausgaben — werden nie für das Training von Modellen verwendet.
  2. Kundendaten werden gemäss dem Schweizer Datenschutzgesetz (DSG) und der EU-DSGVO verarbeitet und sind damit vollständig datenschutzkonform.
  3. Die Infrastruktur ist souverän, d. h. sie unterliegt keinen willkürlichen Serviceunterbrechungen aus nicht-technischen Gründen.
Wie unterscheidet sich Safe Swiss Clouds Private AI von öffentlichen Cloud-KI-Diensten oder Verbraucher-Chatbots?

Safe Swiss Cloud verwendet Open-Source-Modelle und trainiert diese nicht — auch nicht mittelbar. Kundendaten (Prompts, KI-Ausgaben, Protokolle usw.) werden daher ausschliesslich für den vom Kunden explizit beauftragten Zweck verwendet. So wird verhindert, dass vertrauliche Informationen unbeabsichtigt in die Öffentlichkeit gelangen.

Viele öffentliche KI-Dienste nutzen Kundendaten stillschweigend für das Training. Lädt beispielsweise ein Mitarbeiter eine Datei mit vertraulichen Informationen bei einem öffentlichen KI-Dienst zur Analyse hoch, könnten diese Daten in eine künftige Version eines grossen Sprachmodells (LLM) einfliessen — und ein Konkurrent könnte bei einer späteren Anfrage unternehmensinterne Informationen als Antwort erhalten.

Sind KI-Workloads eines Kunden vollständig von denen anderer Kunden isoliert?

Ja. Jeder Kunde erhält sein eigenes dediziertes Frontend und RAG-System (Retrieval-Augmented Generation). Prompts sind vollständig voneinander isoliert und haben keine kundenübergreifenden Auswirkungen.

Können wir unsere KI-Umgebung bei Bedarf auf dedizierter Hardware ohne andere Mandanten betreiben?

Ja. Diese Option ist teurer, da sie dedizierte GPUs für einen einzelnen Kunden erfordert. Sie ist eine sinnvolle Lösung für Kunden mit ausreichendem Workload-Volumen und strengen Compliance-Anforderungen an eine dedizierte KI-Infrastruktur.

Bieten Sie dedizierte GPU- und Speicher-Cluster für einen einzelnen Kunden an?

Ja. Safe Swiss Cloud bietet dedizierte GPU- und Speicher-Cluster für einzelne Kunden an.

Werden KI-Prompts und -Antworten in Protokollen gespeichert und sind damit für Safe Swiss Cloud-Mitarbeitende einsehbar?

Nein. Prompts und Antworten werden nicht in Protokollen gespeichert und können daher von Safe Swiss Cloud-Mitarbeitenden weder eingesehen noch nachverfolgt werden.

Wie werden Backups und Snapshots gehandhabt, und sind diese ebenfalls verschlüsselt?

Backups sind grundsätzlich verschlüsselt. Snapshots eines verschlüsselten Volumes sind ebenfalls verschlüsselt. Kunden können zudem Daten im Ruhezustand (Data at Rest) verschlüsseln, was sicherstellt, dass alle Snapshots verschlüsselt sind und ausschliesslich bestimmungsgemäss verwendet werden können.

Ist die Private-AI-Umgebung für die Verarbeitung regulierter Daten — beispielsweise Gesundheits- oder Finanzdaten — geeignet?

Ja. Die technischen Datenschutzfunktionen sowie die regulatorischen Rahmenbedingungen des Schweizer Datenschutzgesetzes und der EU-DSGVO gewährleisten, dass die Private-AI-Umgebung für regulierte Daten, darunter Gesundheits- und Finanzdaten, geeignet ist.

Über welche Zertifizierungen, Prüfungen oder Attestierungen verfügt die Private-AI-Plattform für regulierte Anwendungsfälle?

Safe Swiss Cloud ist nach ISO 27001, ISO 27017 und ISO 27018 zertifiziert und wird jährlich geprüft. Dies stellt sicher, dass ein Informationssicherheits-Managementsystem (ISMS) implementiert ist, die notwendigen Standards zum Schutz personenbezogener Daten (PII) eingehalten werden und zusätzliche Sicherheits- und Datenschutzmassnahmen für Cloud-Umgebungen umgesetzt sind.

Safe Swiss Cloud erfüllt ausserdem eine Reihe branchenspezifischer Standards, darunter FINMA und BaFin (Finanzbereich), HIPAA und FMH (Gesundheitswesen), EU-DSGVO und Schweizer DSG (Datenschutz) sowie C5 und NIS2.

In welchem Rechtsraum werden unsere KI-Daten gespeichert und verarbeitet?

Alle KI-Daten und Modelle werden ausschliesslich in der Schweiz gespeichert und verarbeitet.

Wie entspricht Safe Swiss Clouds Private AI dem revidierten Schweizer Datenschutzgesetz und anderen anwendbaren Datenschutzgesetzen?

Safe Swiss Clouds Private AI erfüllt vollständig die Anforderungen des revidierten Schweizer Datenschutzgesetzes (CH DSG) sowie der EU-DSGVO.

Wie schützen Sie Kunden vor dem Zugriff nicht-schweizerischer oder ausländischer Regierungen auf ihre Daten?

Das Schweizer Recht schreibt vor, dass Safe Swiss Cloud Kundendaten nur dann an nicht-schweizerische oder ausländische Behörden herausgeben darf, wenn ein entsprechendes Rechtshilfeersuchen eines Schweizer Gerichts nach Schweizer Recht vorliegt. Dies bietet einen robusten rechtlichen Schutz gegen extraterritoriale Datenzugriffsanfragen.

Welche Service-Level und SLAs bieten Sie für GPU-intensive KI-Workloads an?

Safe Swiss Cloud bietet ein SLA mit einer Verfügbarkeit von 99,9 %. Für kostenpflichtige Support-Pakete beträgt die garantierte Reaktionszeit maximal eine Stunde.

Welche Leistungsgarantien bietet Private AI hinsichtlich GPU-Verfügbarkeit, I/O und Speicherdurchsatz?

Wie alle KI-Dienstleister — einschliesslich der grossen internationalen Public-Cloud-Anbieter — garantiert Safe Swiss Cloud keine bestimmten Leistungsniveaus für KI-Workloads. Ein grosser Pool an Hochleistungs-GPUs sowie ein dynamisches Kapazitätsmanagement sorgen jedoch unter normalen Betriebsbedingungen für eine zuverlässig gute Performance.

Welche Support-Optionen stehen zur Verfügung?

Safe Swiss Cloud bietet kostenpflichtige Support-Pakete mit 24/7-Abdeckung an. Weitere Informationen finden Sie auf unserer Seite zu den Support-Services.

Welche Services bietet Safe Swiss Cloud für die Integration von Unternehmensdaten in KI an?

Wir bieten Services zur Entwicklung von MCP-Servern (Model Context Protocol) an, um KI-Systeme mit Unternehmensdatenquellen und -prozessen zu verbinden.

Wie einfach ist es, unsere Modelle, Daten und Prompts von Safe Swiss Cloud zu einem anderen Anbieter zu migrieren?

Wir verwenden Open-Source-Modelle, die über die branchenübliche OpenAI API zugänglich sind. Dies ermöglicht Kunden, Modelle und Anbieter bei Bedarf zu wechseln, ohne an proprietäre Formate oder Schnittstellen gebunden zu sein.

Welche offenen Formate, APIs oder Schnittstellen unterstützen Sie, um Vendor-Lock-in zu minimieren?

Grosse Sprachmodelle werden über die branchenübliche OpenAI API angebunden. Schnittstellen zu Unternehmensdaten basieren auf dem Model Context Protocol (MCP) Standard. Diese Kombination gewährleistet ein sehr hohes Mass an Interoperabilität zwischen Systemen und erleichtert den Wechsel von Modellen oder Anbietern erheblich.

Zertifikate

Information Security Managment

Code of practice for information security controls based on ISO/IEC 27002 for cloud services

Code of practice for protection of Personally Identifiable Information (PII) in public clouds acting as PII processors

TÜV SÜD Standards CMS 89 Bilanzierung: 100% erneuerbarer Strom

Sicherheit, Datenschutz und Compliance

Datenschutz-Grundverordnung der Europäischen Union

Schweizerisches Datenschutzgesetz zum Schutz der persönlichen Daten

Outsourcing für Banken gemäss Schweizer Finanzmarktsaufsichtsbehörde (FINMA)

Rundschreiben der deutschen Bundesanstalt für Finanzdienstleistungsaufsicht

European Digital Operational Resilience Act für den Finanzsektor

FMH-Empfehlungen für Ärzte zum DSG

Health Insurance Portability and Accountability Act

Good Clinical, Laboratory, and Manufacturing Practices

Cloud Computing Compliance Criteria Catalogue des deutschen Bundesamt für Sicherheit in der IT

Netz- und Informationssicherheitsrichtlinie 2 der Europäischen Union