07. Oktober 2025

Cybersecurity Awareness Month

Datensicherheit bei Large Language Models im Fokus

Ob im Haushalt, in der Freizeit oder im Job: KI hat sich in allen Bevölkerungsschichten und in jeder Branche wie ein Lauffeuer verbreitet.

Das ist kein Wunder, denn wo Nutzer sich früher durch acht verschiedene Google-Seiten klicken mussten, kann mittlerweile jede Frage von einem KI-Chatbot innerhalb von Sekunden beantwortet werden. Und das ausführlicher, personalisierter und nuancierter als je zuvor.

Doch der Komfort, den die neue Technologie bietet, birgt auch Risiken. Eine Studie der KPMG in Zusammenarbeit mit der University of Melbourne legt Zahlen zur KI-Nutzung offen: 66 % der Deutschen nutzen KI, in Sachen KI-Kompetenz landet Deutschland allerdings auf dem vorletzten Platz der 47 untersuchten Länder. Ein Drittel der Deutschen bewertet die Vorteile der KI größer als die Nachteile, ebenfalls ein Drittel ist gegenteiliger Meinung.

Die Fähigkeiten und Ansichten zeichnen ein eindeutiges Bild: Die Deutschen sind unsicher, was den Umgang mit KI angeht. Und das aus gutem Grund, vor allem unter einem traditionell deutschen Aspekt, dem Datenschutz beleuchtet, zeigen sich die Schattenseiten von populären KI-Modellen.

Anlässlich des Cybersecurity Awareness Monats, der in Deutschland vom Bundesamt für Sicherheit in der Informationstechnik koordiniert wird, möchten wir mit diesem Blogartikel den Datenschutz beim Einsatz von LLMs privat und im Unternehmen beleuchten. Gleichzeitig wollen wir zeigen, wie wir bei SquareNeo mit diesem wichtigen Thema umgehen.

 

Wie LLMs Daten verarbeiten und warum das problematisch ist.

Um zu verstehen, warum Datensicherheit bei KI so eine Herausforderung darstellt, muss ein Blick auf die Funktionsweise dieser geworfen werden. Als erstes ist es wichtig, ein KI-System und das darin enthaltene LLM zu unterscheiden, das die Nutzereingaben („Prompts“) verarbeitet.

Zu beachten ist hierbei, dass die Prompts nicht als Ganzes verarbeitet werden, sondern die Eingaben in sogenannte Tokens zerlegt werden. Praktisch bedeutet das, dass Nutzereingaben in kleinste Einheiten (meistens Wort- oder Silbenfragmente) zerlegt werden. Diese werden dann in numerische Werte umgerechnet, zueinander in Beziehung gesetzt und durch das System geschickt. Das Training eines LLMs basiert darauf, genau diese Beziehungen in unzähligen Beispielen zu erlernen. Wenn ein Prompt verarbeitet wird, greift das KI-Modell nicht mehr auf die ursprünglichen Trainingsdaten zu, sondern auf die erlernten mathematischen Beziehungen zwischen den Tokens. Entsprechend korrespondieren diese dann wieder mit den Textschnipslen.

Und genau hier liegt das Datenschutz-Problem von LLMs. Das Modell speichert nicht die Texte, auf denen es trainiert wurde, sondern nur die Beziehungen zwischen den Tokens. Deshalb können personenbezogene Daten, selbst wenn das LLM damit trainiert wurde, nicht vollständig wiederhergestellt werden. Der Personenbezug kann hier also nicht einwandfrei hergestellt werden und so hat auch der Europäische Gerichtshof noch keine Entscheidung zur Speicherung von personenbezogenen Daten in LLMs getroffen.

Was hier erschwerend hinzukommt ist, dass bei der Nutzung von KI-Technologien wie KI-Chatbots auch Nutzerdaten häufig zur Weiterentwicklung und zum Training der LLMs verwendet werden.

 

LLMs und Unternehmensdaten

Hier liegt das Hauptproblem für Unternehmen: Die KPMG-Studie zeigt auch, dass weniger als die Hälfte der Unternehmen (46 %) bisher Regeln für den Umgang mit generativer KI aufgestellt hat. Außerdem geben fast die Hälfte der befragten Nutzer an, KI-Ergebnisse als ihre eigenen auszugeben oder bewusst gegen interne Vorgaben zu verstoßen.

Logisch ist also, dass hier zum Teil sensible Unternehmensdaten in LLMs gelangen und diese ggfs. darauf trainiert werden, was wiederum zu Datenlecks führen kann. Auch der Staat ist hier sicherlich nicht unschuldig, da 91 % der Befragten keine konkreten gesetzlichen Maßnahmen diesbezüglich in Deutschland kennen, aber 75 % klare internationale Standards fordern.

Einen klaren Schritt in Richtung Datensicherheit können Unternehmen hier durch mehrere Maßnahmen tätigen. Der erste und logischste ist, abgesehen von KI-Richtlinien, die Wahl des richtigen LLMs bzw. KI-Anbieters.

Basierend auf einer Untersuchung von incogni, eines Dienstes zur Löschung personenbezogener Daten, belegt Le Chat des französischen Anbieters Mistral AI bei allen Metriken den ersten oder zumindest einen sehr guten Platz. Auch das US-amerikanische ChatGPT des AI-Riesen OpenAI schneidet in einigen Kategorien ziemlich gut ab.

Ein weiterer Schritt für Unternehmen kann das on-premise Hosting eines LLMs darstellen, also ein lokales Betreiben eines Large Language Models auf dem Betriebsgelände bzw. auf der eigenen Hardware. So liegt die volle Kontrolle der Trainingsdaten und der Sicherheitsrichtlinien in der Hand des Unternehmens. Auch hier müssen natürlich die Richtlinien der DSGVO eingehalten werden, aber trotzdem kann hier viel individueller eingegriffen werden. So können Unternehmensdaten nicht nur für generative KI besser und sicherer genutzt werden, sondern auch bei externen KI-Anwendungen verwendet und verarbeitet werden. So können Unternehmensprozesse beschleunigt und neu gedacht werden.

Das ist auch unser Ansatz bei SquareNeo: Alle KI-Lösungen werden nach Absprache mit den Kunden in Deutschland oder Europa gehostet, was bedeutet, dass entsprechende Datenschutzstandards implementiert werden. Ebenso ist es möglich, unsere Software vollständig on-premise zu hosten und somit können wir unseren Kunden volle Kontrolle über ihre wertvollen Unternehmensdaten zusichern.

Abschließend

KI verändert die Art und Weise, wie wir arbeiten: schneller, effizienter, kreativer. Doch der Schutz von Unternehmensdaten darf dabei nicht auf der Strecke bleiben. Mit bewusstem Umgang, geeigneten LLMs und on-premise-Optionen können Unternehmen die Zukunft der Arbeit aktiv und sicher gestalten. Der Cybersecurity Awareness Month ist der perfekte Zeitpunkt, um diese Möglichkeiten zu entdecken.

 

Quellen:

· Diskussionspaper: LLMs und personenbezogene Daten, Hamburgischer Beauftragte für Datenschutz und Informationsfreiheit:
https://datenschutz-hamburg.de/fileadmin/user_upload/HmbBfDI/Datenschutz/
Informationen/240715_Diskussionspapier_HmbBfDI_KI_Modelle.pdf

· Paper der Berlin Group über LLMs (International Working Group on Data Protection in Technology): https://www.bfdi.bund.de/SharedDocs/Downloads/DE/Berlin-Group/20241206-WP-LLMs.pdf?__blob=publicationFile&v=2

· Zwischen Alltag und Sorge: Zwei Drittel der Deutschen nutzen KI - doch nur weniger vertrauen der Technologie (KPMG-Studie): https://kpmg.com/de/de/home/media/press-releases/2025/05/zwischen-alltag-und-sorge-zwei-drittel-der-deutschen-nutzen-ki-doch-nur-wenige-vertrauen-der-technologie.html

· Eventseite zum European Cybersecurity Awareness Month des Bundesamts für Sicherheit in der Informationstechnik: https://www.bsi.bund.de/EN/Service-Navi/Veranstaltungen/ECSM/ecsm_node.html

· LLM-Vergleich mit Fokus auf Datenschutz der Firma incogni: https://blog.incogni.com/ai-llm-privacy-ranking-2025/

Mattis Keydel

Außenwirkung, Marketing & Content-Management

Kontakt:
mattis.keydel@squareneo.de