Blog

DSG-konforme LLM-Architekturen für Schweizer Unternehmen

DSG-konforme LLM-Architekturen – Schweizer Datenschutz und AI
20Apr
  • Aprova Engineering
  • Architektur, Compliance

DSG-konforme LLM-Architekturen für Schweizer Unternehmen

Generative AI einzuführen, ohne das revidierte Schweizer Datenschutzgesetz (revDSG) oder die EU-DSGVO zu verletzen, ist primär eine Architekturfrage. Wer die richtigen Bausteine wählt, spart sich später teure Rückbauten und Beanstandungen durch den EDÖB. Dieser Artikel fasst die wichtigsten Entscheidungen zusammen.

Deployment-Modelle im Überblick

Für LLM-basierte Anwendungen haben sich vier Deployment-Modelle etabliert – mit unterschiedlichen Compliance-Profilen:

  1. Public-API-Modelle (OpenAI, Anthropic, Google): einfach, leistungsstark, aber Daten verlassen die Schweiz. Nur mit DPA/AVV, Standardvertragsklauseln und klarer Zweckbindung einsetzbar. Nicht geeignet für besonders schützenswerte Personendaten.
  2. Hyperscaler-Enterprise (Azure OpenAI in Switzerland North, AWS Bedrock EU): Daten bleiben in der EU/Schweiz, vertraglich sauber. De-facto-Standard für viele Schweizer Mittelständler.
  3. Managed Swiss Cloud (Swisscom AI Platform, Exoscale): volle Schweizer Datenresidenz, rechtlich die saubersten Verträge – zum Preis geringerer Modell-Auswahl.
  4. On-Premise / Private Cloud: Open-Source-Modelle (Mistral, Llama, Apertus) auf eigener Infrastruktur. Höchste Kontrolle, aber Betrieb und Modell-Qualität sind Ihre Verantwortung.

Das 5-Schichten-Modell

Unabhängig vom Deployment-Modell empfehlen wir eine sauber getrennte 5-Schichten-Architektur:

  • 1. Datenschicht: Klassifizierung aller Quellen nach Datenschutz-Relevanz. Personenbezogene Daten, Gesundheitsdaten, Finanzdaten bekommen unterschiedliche Pipelines.
  • 2. Preprocessing & Anonymisierung: PII-Detection (Names, AHV-Nummern, IBANs) und Pseudonymisierung vor dem Senden an ein Modell. Unbedingt serverseitig, nie im Browser.
  • 3. Retrieval / RAG: Ihre Dokumente werden in eine Vektor-Datenbank indexiert (Qdrant, Weaviate, pgvector). Das LLM sieht nur kuratierte Ausschnitte, nicht das ganze Archiv.
  • 4. LLM-Schicht: Prompts, Guardrails, Policy-Prüfung. Schweizerspezifische Systemprompts stellen sicher, dass keine personenbezogenen Ausgaben ohne Freigabe entstehen.
  • 5. Audit & Monitoring: Jeder Prompt und jede Antwort wird geloggt, mit User, Zeitstempel und Datenklassifikation. Ohne diese Schicht keine DSFA-Tauglichkeit.

Typische Fehler und wie Sie sie vermeiden

  • Browser-direct-Calls an OpenAI: API-Keys im Frontend = Compliance-GAU. Immer über eigenes Backend routen.
  • Keine Zweckbindung: Ein Chatbot, der „alles kann", lässt sich datenschutzrechtlich nicht sauber begründen. Enge Use-Case-Definition spart Anwälte.
  • Fehlende Right-to-Erasure: Vektor-DBs müssen Löschanfragen umsetzen können – Ihre Architektur auch.
  • Training mit Kundendaten: Bei Public-APIs ausdrücklich deaktivieren (Opt-out-Flag). Bei manchen Anbietern Default, bei anderen nicht.

Empfohlener Stack für Schweizer Mittelstand

Aus rund 30 produktiven Projekten in DACH destilliert, funktioniert folgender Stack für die meisten Use Cases zuverlässig:

  • Azure OpenAI (Switzerland North) oder Swisscom AI Platform als LLM-Backend
  • Atlas Vector Search or pgvector auf PostgreSQL für Retrieval (etabliert, Open Source, DSG-konform hostbar)
  • Eigenes API-Gateway mit Rate-Limiting, Auth, Audit-Logging (Fastify/NestJS + OpenTelemetry)
  • DSFA-Dokumentation als lebendiges Dokument, versioniert im Git

Diesen Stack können wir bei Aprova in 4–6 Wochen aufsetzen, inklusive DSFA-Vorlage und Betriebshandbuch. Danach haben Sie eine Plattform, auf der Sie weitere Use Cases ohne architektonische Altlasten ausrollen können.