banner
Heim / Blog / Eine Privatsphäre aufdecken
Blog

Eine Privatsphäre aufdecken

Jun 18, 2023Jun 18, 2023

Im Zeitalter der datengesteuerten Entscheidungsfindung nutzen Unternehmen die Leistungsfähigkeit des maschinellen Lernens (ML), um wertvolle Erkenntnisse zu gewinnen, betriebliche Effizienz zu steigern und Wettbewerbsvorteile zu festigen.

Obwohl die jüngsten Entwicklungen in der generativen künstlichen Intelligenz (KI) ein beispielloses Bewusstsein für die Leistungsfähigkeit von KI/ML geweckt haben, haben sie auch das grundlegende Bedürfnis nach Privatsphäre und Sicherheit deutlich gemacht. Gruppen wie IAPP, Brookings und das aktuelle AI TRiSM-Framework von Gartner haben wichtige Überlegungen für Unternehmen dargelegt, die die durch KI einzigartigen Geschäftsergebnisse erzielen möchten, ohne ihr Risikoprofil zu erhöhen.

Im Vordergrund dieser Anforderungen steht die Sicherheit des ML-Modells. Durch die direkte Adressierung dieses Schlüsselbereichs hat sich datenschutzschonendes maschinelles Lernen als ein Weg herauskristallisiert, um sicherzustellen, dass Benutzer das volle Potenzial von ML-Anwendungen in diesem immer wichtiger werdenden Bereich ausschöpfen können.

Modelle für maschinelles Lernen sind Algorithmen, die Daten verarbeiten, um aussagekräftige Erkenntnisse zu gewinnen und wichtige Geschäftsentscheidungen zu treffen. Das Besondere an ML ist seine Fähigkeit, kontinuierlich zu lernen und sich zu verbessern. Wenn ein Modell anhand neuer und unterschiedlicher Datensätze trainiert wird, wird es mit der Zeit intelligenter, was zu immer genaueren und wertvolleren Erkenntnissen führt, die zuvor nicht zugänglich waren. Diese Modelle können dann verwendet werden, um Erkenntnisse aus Daten zu generieren, was als Modellbewertung oder Inferenz bezeichnet wird.

Um die besten Ergebnisse zu liefern, müssen Modelle aus einer Vielzahl umfangreicher Datenquellen lernen und/oder genutzt werden. Wenn diese Datenquellen vertrauliche oder geschützte Informationen enthalten, wirft ihre Verwendung für das Training oder die Auswertung/Schlussfolgerung von maschinellen Lernmodellen erhebliche Datenschutz- und Sicherheitsbedenken auf. Jede Schwachstelle des Modells selbst wird zu einer Belastung für das Unternehmen, das es verwendet. Das bedeutet, dass diese Fähigkeit, die versprochen hat, geschäftsfördernde, umsetzbare Erkenntnisse zu liefern, nun das Risikoprofil des Unternehmens erhöht.

Dieses Problem ist heute eines der Haupthindernisse, die einer breiteren Nutzung von ML entgegenstehen. Unternehmen stehen vor der Herausforderung, die Vorteile von ML mit der Notwendigkeit in Einklang zu bringen, ihre Interessen zu schützen und die sich ständig weiterentwickelnden Datenschutz- und Regulierungsanforderungen einzuhalten.

Schwachstellen in ML-Modellen führen typischerweise zu zwei Makrokategorien von Angriffsvektoren: Modellinversion und Modell-Spoofing.

Bei Modellinversionsangriffen wird auf das Modell selbst abgezielt, um es durch Reverse Engineering auf die Daten zurückzuentwickeln, auf denen es trainiert wurde – Daten, die wahrscheinlich sensibel und daher für den Angreifer wertvoll sind. Dazu können personenbezogene Daten (PII), geistiges Eigentum (IP) und andere sensible oder regulierte Informationen gehören, deren Offenlegung verheerende Folgen für das Unternehmen haben könnte.

Modell-Spoofing hingegen stellt eine Form des kontradiktorischen maschinellen Lernens dar, bei dem ein Angreifer versucht, das Modell zu täuschen, indem er die Eingabedaten so manipuliert, dass das Modell falsche Entscheidungen trifft, die auf die Absichten des Angreifers abgestimmt sind. Dieser Prozess beinhaltet das sorgfältige Beobachten oder „Lernen“ des Verhaltens des Modells und die anschließende Änderung der Eingabedaten (auf eine Weise, die oft nicht wahrnehmbar ist), um das Modell dazu zu bringen, Entscheidungen zu treffen, die für seine Ziele von Vorteil sind. Beide Angriffe zielen auf Schwachstellen im Zusammenhang mit Modellgewichten ab, einem wesentlichen Bestandteil eines ML-Modells. Daher wurde bei der kürzlich vom Weißen Haus einberufenen Diskussion über das KI-Risiko die dringende Notwendigkeit hervorgehoben, dem Schutz des Modellgewichts Vorrang einzuräumen.

Datenschutzerhaltendes maschinelles Lernen nutzt Fortschritte bei Technologien zur Verbesserung der Privatsphäre (PETs), um diese Schwachstellen direkt anzugehen. Bei PETs handelt es sich um eine Familie von Technologien, die den Datenschutz und die Sicherheit von Daten während ihres gesamten Verarbeitungslebenszyklus wahren und verbessern und so auf einzigartige Weise eine sichere und private Datennutzung ermöglichen. Diese leistungsstarken Technologien ermöglichen es Unternehmen, sensible ML-Modelle zu verschlüsseln, sie auszuführen und/oder zu trainieren sowie wertvolle Erkenntnisse zu gewinnen und gleichzeitig das Risiko einer Gefährdung zu eliminieren. Unternehmen können unterschiedliche Datenquellen sicher nutzen, auch über Organisationsgrenzen und Sicherheitsbereiche hinweg, selbst wenn Wettbewerbsinteressen im Spiel sind.

Zwei bemerkenswerte Säulen der PETs-Familie, die sicheres und privates ML ermöglichen, sind homomorphe Verschlüsselung und sichere Mehrparteienberechnung (SMPC).

Homomorphe Verschlüsselung ist eine Technologie, die es Unternehmen ermöglicht, verschlüsselte Berechnungen an Daten durchzuführen und so die Privatsphäre der Inhalte der Suche oder Analyse zu wahren. Durch die homomorphe Verschlüsselung von ML-Modellen können Unternehmen diese über sensible Datenquellen ausführen oder auswerten, ohne die zugrunde liegenden Modelldaten preiszugeben, sodass auf sensible Daten trainierte Modelle außerhalb der Grenzen ihrer vertrauenswürdigen Umgebung genutzt werden können.

Mithilfe von SMPC können Organisationen Modelle verschlüsselt trainieren, indem sie den Modellentwicklungsprozess, die für das Training verwendeten Daten sowie die Interessen und Absichten der beteiligten Parteien schützen. Modelle können gemeinsam an sensiblen Daten trainiert werden, ohne dass das Risiko einer Offenlegung besteht. Dieser Ansatz zum Trainieren von Modellen gewährleistet Datenschutz, Sicherheit und Vertraulichkeit und nutzt gleichzeitig die kollektive Leistungsfähigkeit verschiedener Datensätze, um die Genauigkeit und Effektivität von Modellen für maschinelles Lernen zu verbessern.

Die zunehmende Abhängigkeit von maschinellem Lernen zur Verbesserung der Geschäftstätigkeit ist kein vorübergehender Trend – und die mit ML-Modellen verbundenen erheblichen Risiken gelten auch nicht. Sobald der Kernwert ermittelt ist, den KI/ML für das Unternehmen liefern kann, ist die Konstruktion und Instrumentierung für Sicherheit, Risiko und Governance der nächste Schritt zur Einführung.

Fortschritte bei PETs bieten einen vielversprechenden Weg in die Zukunft. Datenschutzerhaltendes maschinelles Lernen ermöglicht es Unternehmen auf einzigartige Weise, das volle Potenzial von ML sicher auszuschöpfen und gleichzeitig den Datenschutz zu wahren, behördliche Richtlinien einzuhalten und sensible Daten zu schützen. Durch die Übernahme dieses sicherheitsorientierten Ansatzes können sich Unternehmen mit Zuversicht in der datengesteuerten Landschaft zurechtfinden, wertvolle Erkenntnisse nutzen und gleichzeitig das Vertrauen von Kunden und Stakeholdern wahren.