Private AI Chat
Sicherer, in der Schweiz gehosteter KI-Chat. Für Teams, die Datensouveränität, Privatsphäre und Kontrolle suchen.

Produktübersicht
PAI Chat ist die dialogorientierte Oberfläche der Private-AI-Plattform von Safe Swiss Cloud. Sie ermöglicht es Ihrer Organisation, mit einer kuratierten Auswahl privater LLMs in einer geschützten Umgebung zu arbeiten – schnell, zuverlässig und für den produktiven Einsatz bereit.
Teams können Dokumente sicher analysieren und zusammenfassen, Recherchen durchführen, Ideen entwickeln, Code schreiben und debuggen, komplexe Themen erforschen oder Lernunterstützung erhalten – ohne sensible Daten an öffentliche AI-Dienste zu senden. PAI Chat strukturiert die Arbeit in Workspaces und Threads, unterstützt die Zusammenarbeit über Teams hinweg und kann Ergebnisse optional mit aktuellen Webinformationen anreichern.

Zentrale Funktionen
Private LLMs in einer sicheren Umgebung
- Arbeiten Sie mit mehreren privaten Large Language Models, die für unterschiedliche Einsatzzwecke optimiert sind (Reasoning, Coding, mehrsprachige Inhalte usw.).
- Alle Prompts, Dokumente und Antworten bleiben in Ihrer Private-AI-Umgebung – es werden keine Daten an öffentliche AI-Dienste gesendet.
Integrierte Websuche
- Anonyme Websuche über eine „Meta“-Suchmaschine bei Safe Swiss Cloud durch Suchmaschinen ohne Tracking.
- Aktivieren oder deaktivieren Sie die Websuche pro Chat.
- Optional: Kann vollständig deaktiviert werden, wobei Antworten ausschließlich auf der Grundlage interner Dokumente und Modellkenntnisse erzwungen werden. Z.b. für rechtliche und medizinische Anwendungen.
Zusammenfassungen und Analyse von Dokumenten
- Hochladen von Dateien (PDFs, Office), Markdown, Code-Repositories und mehr.
- Chatten Sie direkt «gegen» Ihre Dokumente, um Fragen zu stellen, Daten zu extrahieren und Zusammenfassungen zu erstellen.
- Vektor-Suche und kontextbasierte Retrieval-Mechanismen sorgen dafür, dass Antworten auf den relevantesten Inhalten basieren.
Leistungsstarker webbasierter Chat-Client
- Moderne browserbasierte Oberfläche für Normal- und Power-User.
- Die Arbeit wird in Workspaces und Threads organisiert, damit Projekte und Themen klar getrennt bleiben.
- Definieren Sie Zugriffs-, Aufbewahrungs- und Governance-Regeln entsprechend Ihren Compliance-Vorgaben.
Research & Brainstorming
- Analysieren und strukturieren Sie grosse Textmengen in kurzer Zeit.
- Nutzen Sie PAI Chat, um Ideen zu entwickeln, Konzepte zu entwerfen und Optionen zu vergleichen.
- Kombinieren Sie internes Wissen mit optionaler Websuche für tiefere und reichere Erkenntnisse.
Coding Assistant
- Generieren Sie Code-Snippets, Funktionen oder Vorlagen in gängigen Programmiersprachen.
- Holen Sie sich Unterstützung beim Debugging, Refactoring und Dokumentieren vorhandenen Codes.
- Nutzen Sie PAI Chat als sicheren Coding-Companion für Prototypen und Automatisierung und analysieren und zusammenfassen Sie grosse Textmengen schnell.
Empfehlungen & Unterstützung bei Entscheidungen
- Erhalten Sie strukturierte Vorschläge für Lösungsoptionen, nächste Schritte und Umsetzungspläne.
- Fragen Sie nach Leselisten, Checklisten und Best-Practice-Ansätzen für konkrete Fragestellungen.
Zusammenarbeit & Austausch
- Teilen Sie Prompts, Antworten und Threads mit Kolleginnen und Kollegen.
- Nutzen Sie erfolgreiche Prompts als interne «Rezepte» für wiederkehrende Aufgaben.
- Etablieren Sie konsistente Muster dafür, wie Ihre Organisation AI einsetzt.
Hochwertige Ergebnisse für Text und Code
- Erstellen Sie hochwertige Entwürfe für E-Mails, Reports, Dokumentationen und Lernmaterial.
- Generieren Sie verlässliche Code-Vorschläge für Skripte, Integrationen und Workflow-Automatisierung.
- Unterstützen Sie Content-Erstellung, Coding, Lehre und Betrieb in einem einzigen, integrierten Tool.
Bereit für Private AI Chat?
In unserem kostenlosen Briefing zeigen wir Ihnen, wie Sie Private AI Chat im Unternehmen produktiv und sicher einsetzen – ohne Datenrisiken und Compliance-Bedenken.
Service-Beschreibung
PAI Chat ist der vollständig verwaltete Private-AI-Dienst von Safe Swiss Cloud. Er bietet Ihrem Team sicheren, browserbasierten Zugriff auf eine kuratierte Auswahl an Large Language Models, die vollständig auf GPU-Infrastruktur in unseren Schweizer Rechenzentren betrieben werden. Jeder Kunde erhält eine dedizierte, isolierte Umgebung für Chat, Dokumentenanalyse und Web-Recherche — ohne Protokollierung von Prompts oder Antworten, mit starker Authentifizierung und vollständiger Schweizer Datensouveränität als Standard.
Die folgenden Service-Details beschreiben, wie PAI Chat bereitgestellt, abgesichert und abgerechnet wird:
- Standarddienst: SSC stellt Kunden einen webbasierten Chat-Dienst zur Verfügung, über den sie mit einer Auswahl von LLMs interagieren können (siehe Liste oben). Dabei handelt es sich in der Regel um Open-Source-Large-Language-Models, die ohne jegliche Gewährleistung bereitgestellt werden.
- Vollständig verwaltet: Es handelt sich um einen vollständig verwalteten Dienst — SSC betreibt, wartet und aktualisiert ihn.
- Jeder Benutzer verfügt über einen eigenen Arbeitsbereich mit Zugriff auf seinen KI-Chat-Verlauf und individuelle Anpassungen.
- Jedem Kunden wird ein dedizierter Chat-Container zugeteilt, der die Chat-Software und zugehörige Dienste betreibt (nicht das LLM selbst). Der Chat-Container greift auf die LLMs zu, die auf GPUs in den Schweizer Rechenzentren von SSC laufen.
- Benutzerauthentifizierung erfolgt über ein zentrales IAM mit Zwei-Faktor-Authentifizierung (2FA), bereitgestellt von SSC. Technische Optionen zur Integration bestimmter externer Authentifizierungssysteme wie Active Directory, Entra, OpenID oder LDAP sind verfügbar. SSC setzt dies auf Zeit- und Materialbasis um.
- Sicherheit: Der Zugriff auf KI-Dienste erfolgt über HTTPS mit 2FA und optional über ein VPN.
- Lokale Dokumente vom Computer oder Fileserver des Benutzers können zur Analyse hochgeladen werden, z. B. zur Erstellung von Zusammenfassungen (RAG / Wissensbasis). Die Dokumentenverarbeitung ist für jeden Kunden vollständig isoliert. Dokumente, die älter als 30 Tage sind, werden automatisch gelöscht, sofern der Kunde keine längere Aufbewahrungsdauer beantragt.
- Websuche ist in den Chat-Client integriert und kann nach Bedarf ein- und ausgeschaltet werden. Die Websuche wird von SSC als Proxy betrieben, um Tracking zu verhindern.
- Websites und Dokumente im Web können heruntergeladen und analysiert werden.
- IAM mit 2FA: Das Standard-IAM wird vollständig von SSC verwaltet und gehostet.
- KEINE PROTOKOLLIERUNG von Prompts und Antworten des LLM. Es werden ausschliesslich Metadaten protokolliert, z. B. Zeitpunkt der Anfrage, verwendetes Modell, Dauer bis zur Fertigstellung und Anzahl der verwendeten Tokens.
- Der PAI-Chat-Client speichert einen Verlauf der Prompts und Antworten in verschlüsselter Form innerhalb der dedizierten Container-Instanz jedes Kunden. Dies ermöglicht es den Kunden, ihren Verlauf einzusehen und ihn in der Chat-Benutzeroberfläche wiederzuverwenden.
- Abrechnung: Monatlich pro Benutzer-Seat zuzüglich lokalem Dokumentenspeicherplatz.
LLM-Modelle und Eigenschaften
Wählen Sie aus einem umfangreichen Katalog souveräner LLMs – alle mit denselben strengen Datenschutz- und Compliance-Garantien. Die Private-AI-Dienste (PAI) von Safe Swiss Cloud kombinieren eine breite Auswahl an Open-Source-LLMs mit einer einheitlichen Grundlage für Sicherheit, Datenschutz und Compliance. Sie behalten die vollständige Kontrolle über Daten, Infrastruktur und Modellauswahl, während wir das souveräne Hosting und operative Exzellenz bereitstellen.
Welche LLM-Modelle werden von PAI unterstützt?
SSC stellt Zugang zu den folgenden Open-Source-Large-Language-Models bereit. Diese werden ohne jegliche Gewährleistung zur Verfügung gestellt:
| Modell | Typ | Details |
| apertus-70b | Chat | Optimiert für mehrsprachige Dialoganwendungen. |
| bge-m3 | Embedding | Optimiert für Embeddings und präzises Retrieval mit Unterstützung für Multi-Funktionalität, Mehrsprachigkeit und Multi-Granularität. |
| bge-reranker | Reranker | Optimiert für Reranking zur Ermittlung von Relevanz-Scores. |
| deepseek-v3.2 | Chat | Optimiert für reasoning-basierte Chat-Completions. |
| gemma-12b-it | Multimodal | Optimiert für die Verarbeitung von Text- und Bildeingaben sowie die Generierung von Textausgaben. |
| gemma4-31b | Multimodal | Optimiert für die Verarbeitung von Text- und Bildeingaben sowie die Generierung von Textausgaben. |
| gpt-oss-120b | Chat | Optimiert für leistungsstarkes Reasoning, agentische Aufgaben und vielseitige Entwickler-Anwendungsfälle. |
| granite-33-8b | Chat | Optimiert für Reasoning und Instruction-Following. |
| granite-emb-278m | Embedding | Optimiert für Embeddings. |
| granite-vision-2b | Multimodal | Optimiert für ein kompaktes und effizientes Vision-Language-Modell. |
| llama4-maverick | Chat und Multimodal | Optimiert für Text- und multimodale Anwendungen. |
| llama4-scout-17b | Chat und Multimodal | Optimiert für Text- und multimodale Anwendungen. |
| mistral-v03-7b | Nur Chat | Optimiert für mehrsprachige Dialoganwendungen. |
| miner-u25 | Vision-Language | Optimiert für die Dokumentenverarbeitung, die mit hoher rechnerischer Effizienz eine Genauigkeit auf dem neuesten Stand der Technik erreicht. |
| qwen3-8b | Reasoning | Optimiert für Denken und Reasoning. |
| qwq-32b | Reasoning | Optimiert für Denken und Reasoning. |
| qwen3-vi-235b | Multimodal | Optimiert für Text- und multimodale Anwendungen. |
| whisper-large-v3 | Speech to Text | Zur Umwandlung von Sprache in Text. |
Weitere kommerzielle oder proprietäre LLMs können je nach Lizenz- und Infrastrukturanforderungen ebenfalls integriert werden.
Merkmale aller Private-AI-Dienste
Private AI (PAI) umfasst die Bereitstellung souveräner Private-AI-Lösungen durch SSC für seine Kunden. Die folgenden Servicemerkmale gelten für alle PAI-Dienste von Safe Swiss Cloud.
- Mehrsprachige LLMs ermöglichen den Zugriff auf Wissen aus jeder Sprache, wobei die Ergebnisse in Ihrer eigenen Sprache geliefert werden.
- Modellauswahl: Wählen Sie aus einem umfangreichen Katalog offener Large Language Models (LLMs), darunter DeepSeek, Llama4-Maverick, Apertus, Mistral und viele mehr.
- Sovereign AI by Design: Alle LLMs werden privat in der Schweiz gehostet, von Schweizer Unternehmen in Schweizer Eigentum. Ihre Daten bleiben stets unter Ihrer Kontrolle und werden strikt gemäss Schweizer und europäischem Datenschutzrecht verarbeitet.
- Datenschutz: Ihre Daten werden strikt gemäss dem Schweizer Datenschutzgesetz (DSG) und der EU-DSGVO verarbeitet.
- Kein Training, Retraining oder Fine-Tuning der LLMs mit Ihren Daten.
- ISO-Zertifizierungen: 27001, 27017, 27018.
- Konform mit den Standards C5 und NIS2.
- 100 % in Schweizer Rechenzentren gehostet, unter Schweizer Kontrolle.
Warum Private AI?

Souveränität zählt
Public AI ist nützlich – kann aber mit Datenschutz, Compliance und Change-Control-Anforderungen von Unternehmen kollidieren. Private AI hält Prompts, Daten und Ergebnisse innerhalb Ihres Perimeters – mit Modellversionen, die Sie selbst steuern.
KI-Systeme, die von US-gesteuerten Anbietern gehostet werden, unterliegen dem US-CLOUD-Act, selbst wenn sich die Infrastruktur ausserhalb der USA befindet. Dies widerspricht den Datenschutzerwartungen der Schweiz und der EU. Hosting in Schweizer Infrastruktur unter Schweizer Kontrolle vermeidet dieses Risiko.
Sicher in der Safe Swiss Cloud
- Vollständiger Datenschutz: Daten werden strikt zur Erbringung der vertraglich vereinbarten Dienste verwendet – kein Training mit Ihren proprietären Daten, ausser Sie stimmen ausdrücklich zu.
- Gehostet von Safe Swiss Cloud in Schweizer Rechenzentren.
- Schweizer Recht & Kontrolle: Alle Services unterstehen Schweizer Recht (kompatibel mit EU-Recht); sämtliche Dienstleister sind Schweizer kontrolliert.
- Unterliegt nicht dem US-CLOUD-Act: Als vollständig in der Schweiz ansässige IT-Gruppe kann Safe Swiss Cloud nicht nach US-Recht zur Offenlegung von Kundendaten gezwungen werden.
Ergebnis: planbare Betriebsabläufe, regulatorische Übereinstimmung (GDPR, DSG, FINMA, DORA) und auditfähige AI.
PAI Chat Preise
Dieser webbasierte Chatbot dient Endnutzerinnen und Endnutzern dazu, mit einem der verfügbaren Large Language Models zu interagieren.
Es besteht die Möglichkeit, dem LLM den Zugriff auf das Internet zu erlauben, damit es Fragen mit aktuellen Webdaten beantworten kann. Diese Option kann deaktiviert werden.
| Service | Beschreibung | Einheiten | Preis in CHF/EUR |
|---|---|---|---|
| PAI Chat | Chatbot mit erweiterten Funktionen, einschließlich Single Sign On (SSO), einer Auswahl von LLMs – großen Sprachmodellen – viele mit 70 Milliarden Parametern oder mehr, Hochladen von Dokumenten und Bildern für Analysen und Zusammenfassungen, Chat-Verläufe etc. | Pro Benutzer/Monat (on demand) Pro Benutzer/Monat (jährlich) | 35,00 30,00 |
| Websuche | Eine anonyme Websuche wird dem Kunden zur Verfügung gestellt. Ein „Meta-Suchserver“ bei Safe Swiss Cloud stellt sicher, dass die Websuchanfragen nicht auf den tatsächlichen Benutzer zurückgeführt werden können. Dieser Suchserver verwendet Web-Suchdienste ohne Tracking wie DuckDuckGo, Startpage, Wikipedia etc. Benutzer können die Websuche für jede Anfrage im PAI-Chat-Client ein- und ausschalten. Diese Funktion kann für einen Kunden auf Wunsch vollständig deaktiviert werden. | Anzahl Anfragen | Keine Kosten |
Jetzt starten

- Initiales Briefing – Wir analysieren Ihre Ziele, Compliance-Anforderungen und Ihre bestehende IT-Landschaft, um die optimale AI-Architektur zu bestimmen.
- Architekturdesign – Gemeinsam wählen wir geeignete LLMs, Integrationspunkte und Hosting-Optionen aus, die zu Ihrer Strategie passen.
- Implementierung – Wir stellen die AI-Umgebung bereit und integrieren sie sicher und effizient in Ihre internen Systeme.
FAQ
Fragen und Antworten zur Private AI von Safe Swiss Cloud
Private AI bei Safe Swiss Cloud bedeutet dreierlei:
- Kundendaten — Prompts, Antworten und KI-Ausgaben — werden nie für das Training von Modellen verwendet.
- Kundendaten werden gemäss dem Schweizer Datenschutzgesetz (DSG) und der EU-DSGVO verarbeitet und sind damit vollständig datenschutzkonform.
- Die Infrastruktur ist souverän, d. h. sie unterliegt keinen willkürlichen Serviceunterbrechungen aus nicht-technischen Gründen.
Safe Swiss Cloud verwendet Open-Source-Modelle und trainiert diese nicht — auch nicht mittelbar. Kundendaten (Prompts, KI-Ausgaben, Protokolle usw.) werden daher ausschliesslich für den vom Kunden explizit beauftragten Zweck verwendet. So wird verhindert, dass vertrauliche Informationen unbeabsichtigt in die Öffentlichkeit gelangen.
Viele öffentliche KI-Dienste nutzen Kundendaten stillschweigend für das Training. Lädt beispielsweise ein Mitarbeiter eine Datei mit vertraulichen Informationen bei einem öffentlichen KI-Dienst zur Analyse hoch, könnten diese Daten in eine künftige Version eines grossen Sprachmodells (LLM) einfliessen — und ein Konkurrent könnte bei einer späteren Anfrage unternehmensinterne Informationen als Antwort erhalten.
Ja. Jeder Kunde erhält sein eigenes dediziertes Frontend und RAG-System (Retrieval-Augmented Generation). Prompts sind vollständig voneinander isoliert und haben keine kundenübergreifenden Auswirkungen.
Ja. Diese Option ist teurer, da sie dedizierte GPUs für einen einzelnen Kunden erfordert. Sie ist eine sinnvolle Lösung für Kunden mit ausreichendem Workload-Volumen und strengen Compliance-Anforderungen an eine dedizierte KI-Infrastruktur.
Ja. Safe Swiss Cloud bietet dedizierte GPU- und Speicher-Cluster für einzelne Kunden an.
Nein. Prompts und Antworten werden nicht in Protokollen gespeichert und können daher von Safe Swiss Cloud-Mitarbeitenden weder eingesehen noch nachverfolgt werden.
Backups sind grundsätzlich verschlüsselt. Snapshots eines verschlüsselten Volumes sind ebenfalls verschlüsselt. Kunden können zudem Daten im Ruhezustand (Data at Rest) verschlüsseln, was sicherstellt, dass alle Snapshots verschlüsselt sind und ausschliesslich bestimmungsgemäss verwendet werden können.
Ja. Die technischen Datenschutzfunktionen sowie die regulatorischen Rahmenbedingungen des Schweizer Datenschutzgesetzes und der EU-DSGVO gewährleisten, dass die Private-AI-Umgebung für regulierte Daten, darunter Gesundheits- und Finanzdaten, geeignet ist.
Safe Swiss Cloud ist nach ISO 27001, ISO 27017 und ISO 27018 zertifiziert und wird jährlich geprüft. Dies stellt sicher, dass ein Informationssicherheits-Managementsystem (ISMS) implementiert ist, die notwendigen Standards zum Schutz personenbezogener Daten (PII) eingehalten werden und zusätzliche Sicherheits- und Datenschutzmassnahmen für Cloud-Umgebungen umgesetzt sind.
Safe Swiss Cloud erfüllt ausserdem eine Reihe branchenspezifischer Standards, darunter FINMA und BaFin (Finanzbereich), HIPAA und FMH (Gesundheitswesen), EU-DSGVO und Schweizer DSG (Datenschutz) sowie C5 und NIS2.
Alle KI-Daten und Modelle werden ausschliesslich in der Schweiz gespeichert und verarbeitet.
Safe Swiss Clouds Private AI erfüllt vollständig die Anforderungen des revidierten Schweizer Datenschutzgesetzes (CH DSG) sowie der EU-DSGVO.
Das Schweizer Recht schreibt vor, dass Safe Swiss Cloud Kundendaten nur dann an nicht-schweizerische oder ausländische Behörden herausgeben darf, wenn ein entsprechendes Rechtshilfeersuchen eines Schweizer Gerichts nach Schweizer Recht vorliegt. Dies bietet einen robusten rechtlichen Schutz gegen extraterritoriale Datenzugriffsanfragen.
Safe Swiss Cloud bietet ein SLA mit einer Verfügbarkeit von 99,9 %. Für kostenpflichtige Support-Pakete beträgt die garantierte Reaktionszeit maximal eine Stunde.
Wie alle KI-Dienstleister — einschliesslich der grossen internationalen Public-Cloud-Anbieter — garantiert Safe Swiss Cloud keine bestimmten Leistungsniveaus für KI-Workloads. Ein grosser Pool an Hochleistungs-GPUs sowie ein dynamisches Kapazitätsmanagement sorgen jedoch unter normalen Betriebsbedingungen für eine zuverlässig gute Performance.
Safe Swiss Cloud bietet kostenpflichtige Support-Pakete mit 24/7-Abdeckung an. Weitere Informationen finden Sie auf unserer Seite zu den Support-Services.
Wir bieten Services zur Entwicklung von MCP-Servern (Model Context Protocol) an, um KI-Systeme mit Unternehmensdatenquellen und -prozessen zu verbinden.
Wir verwenden Open-Source-Modelle, die über die branchenübliche OpenAI API zugänglich sind. Dies ermöglicht Kunden, Modelle und Anbieter bei Bedarf zu wechseln, ohne an proprietäre Formate oder Schnittstellen gebunden zu sein.
Grosse Sprachmodelle werden über die branchenübliche OpenAI API angebunden. Schnittstellen zu Unternehmensdaten basieren auf dem Model Context Protocol (MCP) Standard. Diese Kombination gewährleistet ein sehr hohes Mass an Interoperabilität zwischen Systemen und erleichtert den Wechsel von Modellen oder Anbietern erheblich.


