Künstliche Intelligenz, News, zAufi

Bekommt Deutschland eine KI-Kripo?

Künstliche Intelligenz, wie sie die KI "Dall-E" visualisiert hat

Künstliche Intelligenz, wie sie die KI „Dall-E“ visualisiert hat

Cyberagentur will forensische Nachweise für manipulierte Künstliche Intelligenzen

Halle, 26. März 2023. Deutsche Unternehmen, Behörden und Privatpersonen setzen an allen digitalen Ecken und Enden bereits „Künstliche Intelligenzen“ (KI) ein, auch wenn dies nicht immer bewusst geschieht: sei es nun bei der Analyse von Aktienkursen, in Übersetzungsprogrammen, für Suchanfragen via Google, beim Blick auf den Wetterbericht… Das Problem dabei: Kaum ein Europäer kann den führenden KIs aus Übersee oder China unter die Motorhaube schauen, weiß nicht, welche Fallstricke die Macher da eingebaut haben oder auf welche Art und Weise die KI selbst dazulernt. Mit Blick auf diese Risiken will die Bundes-Cyberagentur aus Halle nun eine neues Forschungsprojekt „Forensik intelligenter Systeme“ anleiern. Zum Auftakt trommelt die Agentur dafür auf einer virtuellen Konferenz Anfang April 2023 deutschlandweit und international KI-Experten, informationstechnologische Forensiker und Cyber-Kriminalisten zusammen.

Fokus liegt auf KIs, die sich selbst weiterentwickeln

„Wir haben das Ziel, Manipulationen an sich weiterentwickelnden intelligenten Systemen mithilfe von neuen forensischen Methodiken und Tools zu detektieren“, erklärt Cybercrime-Spezialistin Olivia Gräupner von der „Agentur für Innovation in der Cybersicherheit“. Das Forschungsprojekt soll letztlich helfen, Deutschland zu einer „weltweit führenden Rolle in der Cybersicherheit in der Wirtschaft und Gesellschaft einzunehmen“.

Agentur warnt vor „enormen Sicherheitsrisiken“

Auf der virtuellen Tagung wollen sich die Experten beispielsweise über Möglichkeiten austauschen, Manipulationen an KIs zu erkennen und gerichtsfest nachzuweisen. Zwar würden schon viele Akteure „trotz geringem Fachwissen und Fachpersonal innerhalb von Deutschland“ KI-Leistungen – zum Beispiel als Dienst aus der Rechnerwolke (Cloud) – nutzen, betonen die Initiatoren der Konferenz. „Die Detektion von Manipulationen ist jedoch nicht hinreichend ausgeprägt, sodass die Verwendung von KI ein enormes Sicherheitsrisiko darstellt.“ Wichtig sei es daher Methoden „für den rechtlichen Nachweis von Manipulationen in sich weiterentwickelnden, selbstüberschreibenden KI-Systemen“ zu entwickeln. Dafür sei es auch notwendig, „Inversionsangriffe, Evasionsangriffe und Data-Poisoning-Angriffe“ selbst in Deutschland zu erproben.

Eine weitere noch junge Forschungslinie in Deutschland widmet sich derweil den Versuchen, KI-Entscheidungen transparent und nachträglich erklärbar zu machen. Daran arbeiten unter anderem Forscher der TU Dresden und von Fraunhofer in Dresden.

Weitere Informationen und Anmelde-Optionen zur Tagung sind hier im Netz zu finden.

Autor: hw

Quelle: Cyberagentur

Repro: Oiger, Original: Madeleine Arndt