- Aprova Engineering
- Architektur, Compliance
DSG-konforme LLM-Architekturen für Schweizer Unternehmen
Generative AI einzuführen, ohne das revidierte Schweizer Datenschutzgesetz (revDSG) oder die EU-DSGVO zu verletzen, ist primär eine Architekturfrage. Wer die richtigen Bausteine wählt, spart sich später teure Rückbauten und Beanstandungen durch den EDÖB. Dieser Artikel fasst die wichtigsten Entscheidungen zusammen.
Deployment-Modelle im Überblick
Für LLM-basierte Anwendungen haben sich vier Deployment-Modelle etabliert – mit unterschiedlichen Compliance-Profilen:
- Public-API-Modelle (OpenAI, Anthropic, Google): einfach, leistungsstark, aber Daten verlassen die Schweiz. Nur mit DPA/AVV, Standardvertragsklauseln und klarer Zweckbindung einsetzbar. Nicht geeignet für besonders schützenswerte Personendaten.
- Hyperscaler-Enterprise (Azure OpenAI in Switzerland North, AWS Bedrock EU): Daten bleiben in der EU/Schweiz, vertraglich sauber. De-facto-Standard für viele Schweizer Mittelständler.
- Managed Swiss Cloud (Swisscom AI Platform, Exoscale): volle Schweizer Datenresidenz, rechtlich die saubersten Verträge – zum Preis geringerer Modell-Auswahl.
- On-Premise / Private Cloud: Open-Source-Modelle (Mistral, Llama, Apertus) auf eigener Infrastruktur. Höchste Kontrolle, aber Betrieb und Modell-Qualität sind Ihre Verantwortung.
Das 5-Schichten-Modell
Unabhängig vom Deployment-Modell empfehlen wir eine sauber getrennte 5-Schichten-Architektur:
- 1. Datenschicht: Klassifizierung aller Quellen nach Datenschutz-Relevanz. Personenbezogene Daten, Gesundheitsdaten, Finanzdaten bekommen unterschiedliche Pipelines.
- 2. Preprocessing & Anonymisierung: PII-Detection (Names, AHV-Nummern, IBANs) und Pseudonymisierung vor dem Senden an ein Modell. Unbedingt serverseitig, nie im Browser.
- 3. Retrieval / RAG: Ihre Dokumente werden in eine Vektor-Datenbank indexiert (Qdrant, Weaviate, pgvector). Das LLM sieht nur kuratierte Ausschnitte, nicht das ganze Archiv.
- 4. LLM-Schicht: Prompts, Guardrails, Policy-Prüfung. Schweizerspezifische Systemprompts stellen sicher, dass keine personenbezogenen Ausgaben ohne Freigabe entstehen.
- 5. Audit & Monitoring: Jeder Prompt und jede Antwort wird geloggt, mit User, Zeitstempel und Datenklassifikation. Ohne diese Schicht keine DSFA-Tauglichkeit.
Typische Fehler und wie Sie sie vermeiden
- Browser-direct-Calls an OpenAI: API-Keys im Frontend = Compliance-GAU. Immer über eigenes Backend routen.
- Keine Zweckbindung: Ein Chatbot, der „alles kann", lässt sich datenschutzrechtlich nicht sauber begründen. Enge Use-Case-Definition spart Anwälte.
- Fehlende Right-to-Erasure: Vektor-DBs müssen Löschanfragen umsetzen können – Ihre Architektur auch.
- Training mit Kundendaten: Bei Public-APIs ausdrücklich deaktivieren (Opt-out-Flag). Bei manchen Anbietern Default, bei anderen nicht.
Empfohlener Stack für Schweizer Mittelstand
Aus rund 30 produktiven Projekten in DACH destilliert, funktioniert folgender Stack für die meisten Use Cases zuverlässig:
- Azure OpenAI (Switzerland North) oder Swisscom AI Platform als LLM-Backend
- Atlas Vector Search or pgvector auf PostgreSQL für Retrieval (etabliert, Open Source, DSG-konform hostbar)
- Eigenes API-Gateway mit Rate-Limiting, Auth, Audit-Logging (Fastify/NestJS + OpenTelemetry)
- DSFA-Dokumentation als lebendiges Dokument, versioniert im Git
Diesen Stack können wir bei Aprova in 4–6 Wochen aufsetzen, inklusive DSFA-Vorlage und Betriebshandbuch. Danach haben Sie eine Plattform, auf der Sie weitere Use Cases ohne architektonische Altlasten ausrollen können.