Private AI Chat

Sicherer, in der Schweiz gehosteter KI-Chat. Für Teams, die Datensouveränität, Privatsphäre und Kontrolle suchen.

Produktübersicht


PAI Chat ist die dialogorientierte Oberfläche der Private-AI-Plattform von Safe Swiss Cloud. Sie ermöglicht es Ihrer Organisation, mit einer kuratierten Auswahl privater LLMs in einer geschützten Umgebung zu arbeiten – schnell, zuverlässig und für den produktiven Einsatz bereit.

Teams können Dokumente sicher analysieren und zusammenfassen, Recherchen durchführen, Ideen entwickeln, Code schreiben und debuggen, komplexe Themen erforschen oder Lernunterstützung erhalten – ohne sensible Daten an öffentliche AI-Dienste zu senden. PAI Chat strukturiert die Arbeit in Workspaces und Threads, unterstützt die Zusammenarbeit über Teams hinweg und kann Ergebnisse optional mit aktuellen Webinformationen anreichern.

Zentrale Funktionen


  • Arbeiten Sie mit mehreren privaten Large Language Models, die für unterschiedliche Einsatzzwecke optimiert sind (Reasoning, Coding, mehrsprachige Inhalte usw.).
  • Alle Prompts, Dokumente und Antworten bleiben in Ihrer Private-AI-Umgebung – es werden keine Daten an öffentliche AI-Dienste gesendet.
  • Anonyme Websuche über eine „Meta“-Suchmaschine bei Safe Swiss Cloud durch Suchmaschinen ohne Tracking.
  • Aktivieren oder deaktivieren Sie die Websuche pro Chat.
  • Optional: Kann vollständig deaktiviert werden, wobei Antworten ausschließlich auf der Grundlage interner Dokumente und Modellkenntnisse erzwungen werden. Z.b. für rechtliche und medizinische Anwendungen.
  • Hochladen von Dateien (PDFs, Office), Markdown, Code-Repositories und mehr.
  • Chatten Sie direkt «gegen» Ihre Dokumente, um Fragen zu stellen, Daten zu extrahieren und Zusammenfassungen zu erstellen.
  • Vektor-Suche und kontextbasierte Retrieval-Mechanismen sorgen dafür, dass Antworten auf den relevantesten Inhalten basieren.
  • Moderne browserbasierte Oberfläche für Normal- und Power-User.
  • Die Arbeit wird in Workspaces und Threads organisiert, damit Projekte und Themen klar getrennt bleiben.
  • Definieren Sie Zugriffs-, Aufbewahrungs- und Governance-Regeln entsprechend Ihren Compliance-Vorgaben.
  • Analysieren und strukturieren Sie grosse Textmengen in kurzer Zeit.
  • Nutzen Sie PAI Chat, um Ideen zu entwickeln, Konzepte zu entwerfen und Optionen zu vergleichen.
  • Kombinieren Sie internes Wissen mit optionaler Websuche für tiefere und reichere Erkenntnisse.
  • Generieren Sie Code-Snippets, Funktionen oder Vorlagen in gängigen Programmiersprachen.
  • Holen Sie sich Unterstützung beim Debugging, Refactoring und Dokumentieren vorhandenen Codes.
  • Nutzen Sie PAI Chat als sicheren Coding-Companion für Prototypen und Automatisierung und analysieren und zusammenfassen Sie grosse Textmengen schnell.
  • Erhalten Sie strukturierte Vorschläge für Lösungsoptionen, nächste Schritte und Umsetzungspläne.
  • Fragen Sie nach Leselisten, Checklisten und Best-Practice-Ansätzen für konkrete Fragestellungen.
  • Teilen Sie Prompts, Antworten und Threads mit Kolleginnen und Kollegen.
  • Nutzen Sie erfolgreiche Prompts als interne «Rezepte» für wiederkehrende Aufgaben.
  • Etablieren Sie konsistente Muster dafür, wie Ihre Organisation AI einsetzt.
  • Erstellen Sie hochwertige Entwürfe für E-Mails, Reports, Dokumentationen und Lernmaterial.
  • Generieren Sie verlässliche Code-Vorschläge für Skripte, Integrationen und Workflow-Automatisierung.
  • Unterstützen Sie Content-Erstellung, Coding, Lehre und Betrieb in einem einzigen, integrierten Tool.

Bereit für Private AI Chat?

In unserem kostenlosen Briefing zeigen wir Ihnen, wie Sie Private AI Chat im Unternehmen produktiv und sicher einsetzen – ohne Datenrisiken und Compliance-Bedenken.

Service-Beschreibung


PAI Chat ist der vollständig verwaltete Private-AI-Dienst von Safe Swiss Cloud. Er bietet Ihrem Team sicheren, browserbasierten Zugriff auf eine kuratierte Auswahl an Large Language Models, die vollständig auf GPU-Infrastruktur in unseren Schweizer Rechenzentren betrieben werden. Jeder Kunde erhält eine dedizierte, isolierte Umgebung für Chat, Dokumentenanalyse und Web-Recherche — ohne Protokollierung von Prompts oder Antworten, mit starker Authentifizierung und vollständiger Schweizer Datensouveränität als Standard.

Die folgenden Service-Details beschreiben, wie PAI Chat bereitgestellt, abgesichert und abgerechnet wird:

  • Standarddienst: SSC stellt Kunden einen webbasierten Chat-Dienst zur Verfügung, über den sie mit einer Auswahl von LLMs interagieren können (siehe Liste oben). Dabei handelt es sich in der Regel um Open-Source-Large-Language-Models, die ohne jegliche Gewährleistung bereitgestellt werden.
  • Vollständig verwaltet: Es handelt sich um einen vollständig verwalteten Dienst — SSC betreibt, wartet und aktualisiert ihn.
  • Jeder Benutzer verfügt über einen eigenen Arbeitsbereich mit Zugriff auf seinen KI-Chat-Verlauf und individuelle Anpassungen.
  • Jedem Kunden wird ein dedizierter Chat-Container zugeteilt, der die Chat-Software und zugehörige Dienste betreibt (nicht das LLM selbst). Der Chat-Container greift auf die LLMs zu, die auf GPUs in den Schweizer Rechenzentren von SSC laufen.
  • Benutzerauthentifizierung erfolgt über ein zentrales IAM mit Zwei-Faktor-Authentifizierung (2FA), bereitgestellt von SSC. Technische Optionen zur Integration bestimmter externer Authentifizierungssysteme wie Active Directory, Entra, OpenID oder LDAP sind verfügbar. SSC setzt dies auf Zeit- und Materialbasis um.
  • Sicherheit: Der Zugriff auf KI-Dienste erfolgt über HTTPS mit 2FA und optional über ein VPN.
  • Lokale Dokumente vom Computer oder Fileserver des Benutzers können zur Analyse hochgeladen werden, z. B. zur Erstellung von Zusammenfassungen (RAG / Wissensbasis). Die Dokumentenverarbeitung ist für jeden Kunden vollständig isoliert. Dokumente, die älter als 30 Tage sind, werden automatisch gelöscht, sofern der Kunde keine längere Aufbewahrungsdauer beantragt.
  • Websuche ist in den Chat-Client integriert und kann nach Bedarf ein- und ausgeschaltet werden. Die Websuche wird von SSC als Proxy betrieben, um Tracking zu verhindern.
  • Websites und Dokumente im Web können heruntergeladen und analysiert werden.
  • IAM mit 2FA: Das Standard-IAM wird vollständig von SSC verwaltet und gehostet.
  • KEINE PROTOKOLLIERUNG von Prompts und Antworten des LLM. Es werden ausschliesslich Metadaten protokolliert, z. B. Zeitpunkt der Anfrage, verwendetes Modell, Dauer bis zur Fertigstellung und Anzahl der verwendeten Tokens.
  • Der PAI-Chat-Client speichert einen Verlauf der Prompts und Antworten in verschlüsselter Form innerhalb der dedizierten Container-Instanz jedes Kunden. Dies ermöglicht es den Kunden, ihren Verlauf einzusehen und ihn in der Chat-Benutzeroberfläche wiederzuverwenden.
  • Abrechnung: Monatlich pro Benutzer-Seat zuzüglich lokalem Dokumentenspeicherplatz.

LLM-Modelle und Eigenschaften


Wählen Sie aus einem umfangreichen Katalog souveräner LLMs – alle mit denselben strengen Datenschutz- und Compliance-Garantien. Die Private-AI-Dienste (PAI) von Safe Swiss Cloud kombinieren eine breite Auswahl an Open-Source-LLMs mit einer einheitlichen Grundlage für Sicherheit, Datenschutz und Compliance. Sie behalten die vollständige Kontrolle über Daten, Infrastruktur und Modellauswahl, während wir das souveräne Hosting und operative Exzellenz bereitstellen.

Welche LLM-Modelle werden von PAI unterstützt?

SSC stellt Zugang zu den folgenden Open-Source-Large-Language-Models bereit. Diese werden ohne jegliche Gewährleistung zur Verfügung gestellt:

ModellTypDetails
apertus-70bChatOptimiert für mehrsprachige Dialoganwendungen.
bge-m3EmbeddingOptimiert für Embeddings und präzises Retrieval mit Unterstützung für Multi-Funktionalität, Mehrsprachigkeit und Multi-Granularität.
bge-rerankerRerankerOptimiert für Reranking zur Ermittlung von Relevanz-Scores.
deepseek-v3.2ChatOptimiert für reasoning-basierte Chat-Completions.
gemma-12b-itMultimodalOptimiert für die Verarbeitung von Text- und Bildeingaben sowie die Generierung von Textausgaben.
gemma4-31bMultimodalOptimiert für die Verarbeitung von Text- und Bildeingaben sowie die Generierung von Textausgaben.
gpt-oss-120bChatOptimiert für leistungsstarkes Reasoning, agentische Aufgaben und vielseitige Entwickler-Anwendungsfälle.
granite-33-8bChatOptimiert für Reasoning und Instruction-Following.
granite-emb-278mEmbeddingOptimiert für Embeddings.
granite-vision-2bMultimodalOptimiert für ein kompaktes und effizientes Vision-Language-Modell.
llama4-maverickChat und MultimodalOptimiert für Text- und multimodale Anwendungen.
llama4-scout-17bChat und MultimodalOptimiert für Text- und multimodale Anwendungen.
mistral-v03-7bNur ChatOptimiert für mehrsprachige Dialoganwendungen.
miner-u25Vision-LanguageOptimiert für die Dokumentenverarbeitung, die mit hoher rechnerischer Effizienz eine Genauigkeit auf dem neuesten Stand der Technik erreicht.
qwen3-8bReasoningOptimiert für Denken und Reasoning.
qwq-32bReasoningOptimiert für Denken und Reasoning.
qwen3-vi-235bMultimodalOptimiert für Text- und multimodale Anwendungen.
whisper-large-v3Speech to TextZur Umwandlung von Sprache in Text.

Weitere kommerzielle oder proprietäre LLMs können je nach Lizenz- und Infrastrukturanforderungen ebenfalls integriert werden.

Merkmale aller Private-AI-Dienste

Private AI (PAI) umfasst die Bereitstellung souveräner Private-AI-Lösungen durch SSC für seine Kunden. Die folgenden Servicemerkmale gelten für alle PAI-Dienste von Safe Swiss Cloud.

  • Mehrsprachige LLMs ermöglichen den Zugriff auf Wissen aus jeder Sprache, wobei die Ergebnisse in Ihrer eigenen Sprache geliefert werden.
  • Modellauswahl: Wählen Sie aus einem umfangreichen Katalog offener Large Language Models (LLMs), darunter DeepSeek, Llama4-Maverick, Apertus, Mistral und viele mehr.
  • Sovereign AI by Design: Alle LLMs werden privat in der Schweiz gehostet, von Schweizer Unternehmen in Schweizer Eigentum. Ihre Daten bleiben stets unter Ihrer Kontrolle und werden strikt gemäss Schweizer und europäischem Datenschutzrecht verarbeitet.
  • Datenschutz: Ihre Daten werden strikt gemäss dem Schweizer Datenschutzgesetz (DSG) und der EU-DSGVO verarbeitet.
  • Kein Training, Retraining oder Fine-Tuning der LLMs mit Ihren Daten.
  • ISO-Zertifizierungen: 27001, 27017, 27018.
  • Konform mit den Standards C5 und NIS2.
  • 100 % in Schweizer Rechenzentren gehostet, unter Schweizer Kontrolle.

Warum Private AI?


PAI Chat Preise


Dieser webbasierte Chatbot dient Endnutzerinnen und Endnutzern dazu, mit einem der verfügbaren Large Language Models zu interagieren.

Es besteht die Möglichkeit, dem LLM den Zugriff auf das Internet zu erlauben, damit es Fragen mit aktuellen Webdaten beantworten kann. Diese Option kann deaktiviert werden.

ServiceBeschreibungEinheitenPreis in CHF/EUR
PAI ChatChatbot mit erweiterten Funktionen, einschließlich Single Sign On (SSO), einer Auswahl von LLMs – großen Sprachmodellen – viele mit 70 Milliarden Parametern oder mehr, Hochladen von Dokumenten und Bildern für Analysen und Zusammenfassungen, Chat-Verläufe etc.Pro Benutzer/Monat (on demand)
Pro Benutzer/Monat (jährlich)
35,00
30,00
WebsucheEine anonyme Websuche wird dem Kunden zur Verfügung gestellt. Ein „Meta-Suchserver“ bei Safe Swiss Cloud stellt sicher, dass die Websuchanfragen nicht auf den tatsächlichen Benutzer zurückgeführt werden können. Dieser Suchserver verwendet Web-Suchdienste ohne Tracking wie DuckDuckGo, Startpage, Wikipedia etc.
Benutzer können die Websuche für jede Anfrage im PAI-Chat-Client ein- und ausschalten. Diese Funktion kann für einen Kunden auf Wunsch vollständig deaktiviert werden.
Anzahl AnfragenKeine Kosten
*Limits: 250 Anfragen pro Tag, 30 Anfragen pro Monat für Advanced Models (> 128 Milliarden Parameter). Fair Use: Ungewöhnlich hohe Aktivität durch programmatische oder automatisierte Nutzung führt zur Sperrung des Accounts.

FAQ


Fragen und Antworten zur Private AI von Safe Swiss Cloud

«Private AI» – was bedeutet das bei Safe Swiss Cloud?

Private AI bei Safe Swiss Cloud bedeutet dreierlei:

  1. Kundendaten — Prompts, Antworten und KI-Ausgaben — werden nie für das Training von Modellen verwendet.
  2. Kundendaten werden gemäss dem Schweizer Datenschutzgesetz (DSG) und der EU-DSGVO verarbeitet und sind damit vollständig datenschutzkonform.
  3. Die Infrastruktur ist souverän, d. h. sie unterliegt keinen willkürlichen Serviceunterbrechungen aus nicht-technischen Gründen.
Wie unterscheidet sich Safe Swiss Clouds Private AI von öffentlichen Cloud-KI-Diensten oder Verbraucher-Chatbots?

Safe Swiss Cloud verwendet Open-Source-Modelle und trainiert diese nicht — auch nicht mittelbar. Kundendaten (Prompts, KI-Ausgaben, Protokolle usw.) werden daher ausschliesslich für den vom Kunden explizit beauftragten Zweck verwendet. So wird verhindert, dass vertrauliche Informationen unbeabsichtigt in die Öffentlichkeit gelangen.

Viele öffentliche KI-Dienste nutzen Kundendaten stillschweigend für das Training. Lädt beispielsweise ein Mitarbeiter eine Datei mit vertraulichen Informationen bei einem öffentlichen KI-Dienst zur Analyse hoch, könnten diese Daten in eine künftige Version eines grossen Sprachmodells (LLM) einfliessen — und ein Konkurrent könnte bei einer späteren Anfrage unternehmensinterne Informationen als Antwort erhalten.

Sind KI-Workloads eines Kunden vollständig von denen anderer Kunden isoliert?

Ja. Jeder Kunde erhält sein eigenes dediziertes Frontend und RAG-System (Retrieval-Augmented Generation). Prompts sind vollständig voneinander isoliert und haben keine kundenübergreifenden Auswirkungen.

Können wir unsere KI-Umgebung bei Bedarf auf dedizierter Hardware ohne andere Mandanten betreiben?

Ja. Diese Option ist teurer, da sie dedizierte GPUs für einen einzelnen Kunden erfordert. Sie ist eine sinnvolle Lösung für Kunden mit ausreichendem Workload-Volumen und strengen Compliance-Anforderungen an eine dedizierte KI-Infrastruktur.

Bieten Sie dedizierte GPU- und Speicher-Cluster für einen einzelnen Kunden an?

Ja. Safe Swiss Cloud bietet dedizierte GPU- und Speicher-Cluster für einzelne Kunden an.

Werden KI-Prompts und -Antworten in Protokollen gespeichert und sind damit für Safe Swiss Cloud-Mitarbeitende einsehbar?

Nein. Prompts und Antworten werden nicht in Protokollen gespeichert und können daher von Safe Swiss Cloud-Mitarbeitenden weder eingesehen noch nachverfolgt werden.

Wie werden Backups und Snapshots gehandhabt, und sind diese ebenfalls verschlüsselt?

Backups sind grundsätzlich verschlüsselt. Snapshots eines verschlüsselten Volumes sind ebenfalls verschlüsselt. Kunden können zudem Daten im Ruhezustand (Data at Rest) verschlüsseln, was sicherstellt, dass alle Snapshots verschlüsselt sind und ausschliesslich bestimmungsgemäss verwendet werden können.

Ist die Private-AI-Umgebung für die Verarbeitung regulierter Daten — beispielsweise Gesundheits- oder Finanzdaten — geeignet?

Ja. Die technischen Datenschutzfunktionen sowie die regulatorischen Rahmenbedingungen des Schweizer Datenschutzgesetzes und der EU-DSGVO gewährleisten, dass die Private-AI-Umgebung für regulierte Daten, darunter Gesundheits- und Finanzdaten, geeignet ist.

Über welche Zertifizierungen, Prüfungen oder Attestierungen verfügt die Private-AI-Plattform für regulierte Anwendungsfälle?

Safe Swiss Cloud ist nach ISO 27001, ISO 27017 und ISO 27018 zertifiziert und wird jährlich geprüft. Dies stellt sicher, dass ein Informationssicherheits-Managementsystem (ISMS) implementiert ist, die notwendigen Standards zum Schutz personenbezogener Daten (PII) eingehalten werden und zusätzliche Sicherheits- und Datenschutzmassnahmen für Cloud-Umgebungen umgesetzt sind.

Safe Swiss Cloud erfüllt ausserdem eine Reihe branchenspezifischer Standards, darunter FINMA und BaFin (Finanzbereich), HIPAA und FMH (Gesundheitswesen), EU-DSGVO und Schweizer DSG (Datenschutz) sowie C5 und NIS2.

In welchem Rechtsraum werden unsere KI-Daten gespeichert und verarbeitet?

Alle KI-Daten und Modelle werden ausschliesslich in der Schweiz gespeichert und verarbeitet.

Wie entspricht Safe Swiss Clouds Private AI dem revidierten Schweizer Datenschutzgesetz und anderen anwendbaren Datenschutzgesetzen?

Safe Swiss Clouds Private AI erfüllt vollständig die Anforderungen des revidierten Schweizer Datenschutzgesetzes (CH DSG) sowie der EU-DSGVO.

Wie schützen Sie Kunden vor dem Zugriff nicht-schweizerischer oder ausländischer Regierungen auf ihre Daten?

Das Schweizer Recht schreibt vor, dass Safe Swiss Cloud Kundendaten nur dann an nicht-schweizerische oder ausländische Behörden herausgeben darf, wenn ein entsprechendes Rechtshilfeersuchen eines Schweizer Gerichts nach Schweizer Recht vorliegt. Dies bietet einen robusten rechtlichen Schutz gegen extraterritoriale Datenzugriffsanfragen.

Welche Service-Level und SLAs bieten Sie für GPU-intensive KI-Workloads an?

Safe Swiss Cloud bietet ein SLA mit einer Verfügbarkeit von 99,9 %. Für kostenpflichtige Support-Pakete beträgt die garantierte Reaktionszeit maximal eine Stunde.

Welche Leistungsgarantien bietet Private AI hinsichtlich GPU-Verfügbarkeit, I/O und Speicherdurchsatz?

Wie alle KI-Dienstleister — einschliesslich der grossen internationalen Public-Cloud-Anbieter — garantiert Safe Swiss Cloud keine bestimmten Leistungsniveaus für KI-Workloads. Ein grosser Pool an Hochleistungs-GPUs sowie ein dynamisches Kapazitätsmanagement sorgen jedoch unter normalen Betriebsbedingungen für eine zuverlässig gute Performance.

Welche Support-Optionen stehen zur Verfügung?

Safe Swiss Cloud bietet kostenpflichtige Support-Pakete mit 24/7-Abdeckung an. Weitere Informationen finden Sie auf unserer Seite zu den Support-Services.

Welche Services bietet Safe Swiss Cloud für die Integration von Unternehmensdaten in KI an?

Wir bieten Services zur Entwicklung von MCP-Servern (Model Context Protocol) an, um KI-Systeme mit Unternehmensdatenquellen und -prozessen zu verbinden.

Wie einfach ist es, unsere Modelle, Daten und Prompts von Safe Swiss Cloud zu einem anderen Anbieter zu migrieren?

Wir verwenden Open-Source-Modelle, die über die branchenübliche OpenAI API zugänglich sind. Dies ermöglicht Kunden, Modelle und Anbieter bei Bedarf zu wechseln, ohne an proprietäre Formate oder Schnittstellen gebunden zu sein.

Welche offenen Formate, APIs oder Schnittstellen unterstützen Sie, um Vendor-Lock-in zu minimieren?

Grosse Sprachmodelle werden über die branchenübliche OpenAI API angebunden. Schnittstellen zu Unternehmensdaten basieren auf dem Model Context Protocol (MCP) Standard. Diese Kombination gewährleistet ein sehr hohes Mass an Interoperabilität zwischen Systemen und erleichtert den Wechsel von Modellen oder Anbietern erheblich.