Data Poisoning – der vergiftete Apfel für KI

Data Poisoning – der vergiftete Apfel für KI
Lernprozesse und Modelle für Maschinelles Lernen haben Schwachstellen, die Angreifer ausnutzen können. Ziel der Angriffe ist es, die Aussagen einer KI-Anwendung in eine bestimmte Richtung zu lenken. So kommt es zu gezielten Falschaussagen, die zum Beispiel durch das Einschleusen manipulierter Daten verursacht werden. Diese Methode wird als „Data Poisoning“ bezeichnet. Es beinhaltet eine Reihe von Techniken, um das Verhalten von KI zu beeinflussen.