Hallenser Behörde schreibt Forschungsprojekt zum sicheren maschinellen Lernen aus
Inhalt
Halle, 14. April 2023. Die Debatte um plaudernde und malende „Künstliche Intelligenzen“ wie ChatGPT oder Dall-E erweckt oft den Eindruck, dass moderne KIs zu wahren Wunderdingen imstande sind. Tatsächlich aber lassen sie sich oft genug auch gehörig austricksen: Raffiniert formulierte Dilemma-Befehle („Prompt Injections“) überbrücken eingebaute Ethik-Sperren der Elektronenhirne und selbst kleine Veränderungen an Verkehrsschildern können die KI-Piloten in automatisch fahrenden Autos gehörig durcheinanderbringen. Das kann im Extremfall Menschenleben kosten oder sogar Kriege auslösen, fürchten die Experten der Bundes-Cyberagentur in Halle, die deshalb ein neues Forschungsprojekt zum „Robusten und Sicheren Maschinellen Lernen“ angeschoben haben.
Damit die Künstliche Intelligenz nicht durchdreht, soll sie robuster gemacht werden
In diesem Zuge verspricht die Cyberagentur Fördergelder für private wie staatliche KI-Experten, die überzeugende Methoden finden, um Künstliche Intelligenzen gegen Überlistungsversuche zu feien, Manipulationen zu erkennen und sie zu befähigen, flexibel auf unvorhergesehene Eingaben zu reagieren.
Eine Frage „der inneren und äußeren Sicherheit“
„Ziel ist die Erforschung und Entwicklung neuer, potenziell bahnbrechender Ansätze zur Steigerung der Robustheit und Sicherheit verschiedener KI-Ansätze in den Domänen der inneren und äußeren Sicherheit“, erklärt Projektleiter Dr. Daniel Gille. „Gerade im Kontext der inneren und äußeren Sicherheit sowie bei kritischen Infrastrukturen ist für uns die Nachweisbarkeit von Sicherheit und Robustheit von neuronalen KI-Systemen gegenüber gezielten Angriffen und manipulativen Inputs von entscheidender Bedeutung.“
Weitere Informationen gibt es hier im Netz.
Autor: hw
Quelle: Cyberagentur
Du muss angemeldet sein, um einen Kommentar zu veröffentlichen.