23. März 2026 | Heinz W. Süess

Ein Kollege sitzt spätabends noch im Büro.
Der Terminplan ist voll, das HR‑Team unterbesetzt, die Geschäftsleitung will bis morgen früh einen Entscheid zu einem heiklen Personalfall. Aus lauter Pragmatismus kopiert der Mitarbeiter den kompletten E‑Mail‑Verlauf, interne Notizen und einen Entwurf für die Kündigungsbegründung in einen kostenlosen KI‑Chat.

 „Formuliere das rechtlich wasserdicht – und ein bisschen empathischer“, tippt er ein. Was er in diesem Moment übersieht: Die Gratis‑KI ist nicht einfach ein hilfreiches Tool. Sie ist ein Datensauger (2 Disturbing Ways How AI Chatbots Are Quietly Collecting Your Data, 2025).

Warum Gratis‑KI selten wirklich gratis ist

Wer mit kostenlosen KI‑Chats arbeitet, bezahlt nicht mit Geld, sondern mit Informationen. Das Geschäftsmodell der meisten Anbieter basiert auf zwei Säulen: Daten und Training. Jede Eingabe – vom harmlosen Urlaubsantrag bis zum vertraulichen HR‑Dossier – wird gespeichert, ausgewertet und kann zum Trainieren der Modelle genutzt werden. So wird der Dienst smarter, der Anbieter reicher an Daten, und der Nutzer bleibt in der Illusion, etwas umsonst zu bekommen.

Hinzu kommt: Viele Gratis‑Versionen dienen als „Testfeld“. Neue Funktionen, neue Modelle, neue Auswertungsverfahren – all das wird zuerst an den kostenlosen Nutzenden ausprobiert. Das heisst konkret: Mehr Tracking, mehr A/B‑Tests, mehr Analyse deines Verhaltens. Und je mehr du nutzt, desto wertvoller wirst du. Nicht weil du bezahlst, sondern weil du deine Organisation, deine Prozesse und deine Denkweise offenlegst.

Wer glaubt, eine Gratis‑KI sei ein netter digitaler Kollege, verkennt die Rollenverteilung. Du bist nicht der Kunde, du bist die Datenquelle (Zharovskikh, 2025).

Welche Daten KI‑Chats sammeln

KI‑Chats leben von Inhalten. Was du in das Textfeld schreibst oder hochlädst, ist der offensichtlichste Teil. Dazu gehören:

  • Texte: E‑Mails, Protokolle, Verträge, Patientenfallbeschreibungen, Mitarbeitergespräche.
  • Dateien: PDFs, Präsentationen, Excel‑Listen mit Personaldaten, medizinische Befunde.
  • Prompts: Also auch deine Fragen, Anweisungen und internen Formulierungen.

Doch damit hört es nicht auf. Im Hintergrund fallen Metadaten und Nutzungsdaten an, etwa:

  • Zeitpunkt, Dauer und Häufigkeit der Nutzung.
  • IP‑Adresse, grobe Standortdaten, Gerätetyp, verwendeter Browser.
  • Welche Funktionen du nutzt, welche Antworten du anklickst, was du nachfragst oder korrigierst (Zharovskikh, 2025).

Aus all dem lässt sich ein sehr feines Nutzungsprofil erstellen: Wie du schreibst, welche Themen bei dir häufig vorkommen, ob du eher mit HR‑Fällen, medizinischen Themen oder Management‑Entscheiden arbeitest. In Summe entsteht ein Muster, das viel über dein Unternehmen und seine internen Abläufe verrät.

Gerade im Gesundheitswesen und im HR sind diese Muster hochsensibel. Wenn eine KI „lernt“, wie in deiner Organisation über Leistungsdefizite, Krankheitsstände oder Konfliktfälle gesprochen wird, ist das mehr als nur „technisches Training“. Es ist ein Blick ins Innenleben deiner Organisation (ChatGPT Gesundheit Lanciert – ChatGPT Im Gesundheitsbereich: Antworten Auf die Wichtigen Fragen, o. D.).

Was das für Unternehmen und Gesundheitswesen bedeutet

Für Unternehmen und insbesondere Einrichtungen im Gesundheitswesen ist Vertraulichkeit kein „Nice‑to‑have“, sondern Pflicht. Hier greifen verschiedene Schutzebenen:

  • Geschäftsgeheimnisse: Strategien, Finanzzahlen, interne Bewertungen, HR‑
  • Datenschutz nach DSG/DSGVO: Personenbezogene Daten von Mitarbeitenden, Patient:innen, Bewerbenden.
  • Berufsgeheimnisse: Ärztliche Schweigepflicht, Pflegegeheimnis, psychologische Betreuung, Sozialberatung (Admogin, 2025).

Wer solche Informationen in eine Gratis‑KI kopiert, riskiert gleich mehrere Probleme:

  1. Kontrollverlust: Du weisst nicht, wo die Daten gespeichert werden, wie lange und zu welchem Zweck. „Löschen“ im Chatfenster bedeutet nicht zwingend, dass alle Kopien verschwunden sind.
  2. Rechtsrisiken: Wenn sensible Daten ohne klare Rechtsgrundlage an Dritte (also den KI‑Anbieter) übermittelt werden, drohen Verstösse gegen DSG/DSGVO. Besonders kritisch wird es bei Gesundheitsdaten und besonderen Kategorien personenbezogener Daten.
  3. Reputationsschäden: Ein Datenleck, ein Fehlkonfigurieren eines Dienstes, ein unglücklicher Screenshot – und plötzlich stehen interne Fälle halböffentlich im Raum. Gerade im Gesundheitswesen kann das Vertrauen irreparabel beschädigen.

Kurz gesagt:
Gratis‑KI kann aus einer cleveren Abkürzung schnell zur teuren Datenschutzbaustelle werden.

Das Gute ist:
Du musst nicht auf KI verzichten, um deine Daten zu schützen. Aber du brauchst klare Leitplanken.

So schützt du dich und dein Team

  1. Keine sensiblen Daten in Gratis‑Tools
    Mach es zur Grundregel: Keine Namen, keine Personaldossiers, keine medizinischen Informationen, keine vertraulichen Zahlen in kostenlose KI‑ Wenn du ein Beispiel brauchst, anonymisiere konsequent: Namen verändern, Zahlen verfremden, Kontexte verallgemeinern.
  2. Opt‑out und Privatsphäre‑Einstellungen nutzen
    Viele Anbieter bieten inzwischen Optionen, das Training mit eigenen Daten einzuschränken oder abzuschalten – zumindest in gewissen Plänen. Prüfe die Einstellungen, schalte alles aus, was nicht zwingend nötig ist, und dokumentiere das für deine Organisation.
  3. Europäische oder inhouse‑Alternativen prüfen
    Statt auf jeden Hype‑Dienst zu springen, lohnt sich ein Blick auf Lösungen, die datenschutzkonform in der Schweiz oder EU betrieben werden oder sogar auf den eigenen Inhouse-Servern laufen. Modelle, die lokal oder in einer dedizierten Umgebung betrieben werden, reduzieren das Risiko des unkontrollierten Abflusses von Daten erheblich.
  4. Klare Richtlinien für Mitarbeitende
    Schreibe eine klare, verständliche KI‑Policy:
    • Welche Tools dürfen genutzt werden – und welche nicht.
    • Welche Daten dürfen eingefügt werden – und welche niemals.
    • Wie mit anonymisierten Beispielen gearbeitet werden darf.
      Schulungen, kurze Checklisten und konkrete „Do’s & Don’ts“ helfen mehr als juristische Romane.
  5. Verantwortlichkeiten festlegen
    Definiere, wer im Unternehmen für die Auswahl und Freigabe von KI‑Tools zuständig ist: IT, Datenschutz, HR, Geschäftsleitung. So verhinderst du, dass alle Mitarbeitenden auf eigene Faust Lösungen einführt, die am Ende zum Risiko für alle werden (Becht & Becht, 2026).

Am Ende ist die Frage nicht, ob du KI nutzt – sondern wie. Gratis‑Tools sind verlockend, aber sie kommen mit einem Preis, den man erst auf den zweiten Blick erkennt. Wer diesen Preis kennt, kann bewusst entscheiden, welche Rolle KI im eigenen Unternehmen spielen soll: Datensauger oder Werkzeug – Opfer oder Gestalter.

Quellen:

2 Disturbing ways How AI chatbots are quietly collecting your data. (2025, 21. April). MYDWARE IT Solutions Inc. https://mydware.com/2-ways-how-chatbots-collect-data/

Zharovskikh, A. (2025, 8. Mai). AI data collection guide. InData Labs. https://indatalabs.com/blog/ai-data-collection

ChatGPT Gesundheit lanciert-ChatGPT im Gesundheitsbereich: Antworten auf die wichtigen Fragen. (o. D.). Schweizer Radio und Fernsehen (SRF). https://www.srf.ch/news/ratgeber/chatgpt-gesundheit-lanciert-chatgpt-im-gesundheitsbereich-antworten-auf-die-wichtigen-fragen

Admogin. (2025, 26. September). ChatGPT Datenschutz Deutschland: DSGVO-konforme Nutzung. GIEL | RECHTSANWALT. https://giel-rechtsanwalt.de/allgemein/chatgpt-datenschutz-deutschland/

Becht, J. & Becht, J. (2026, 19. Februar). ChatGPT ist nicht DSGVO-konform. Hier sind Alternativen. WEVENTURE Performance GmbH. https://weventure.de/ch/blog/dsgvo-konforme-chat-gpt-alternativen

Was meinst Du zu der Problematik? Wie gehst Du sie an?