Berliner Analystinnen sehen viele Risiken in der Technologie
Inhalt
Berlin, 22. Juli 2023. Für eine stärkere Kontrolle und Regulierung „Künstlicher Intelligenzen“ (KI) über das geplante europäische KI-Gesetz hinaus plädieren die Forscherinnen Pegah Maham und Sabrina Küspert von der „Stiftung Neue Verantwortung“ (SNV) aus Berlin. „Angesichts der Vielfalt der Risiken sind zusätzliche politische Maßnahmen erforderlich“, betonen sie in ihrem Aufsatz „Governing General Purpose AI“.
Nutzer verleiteten KIs zu Gedankenspielen, wie Menschheit zerstört werden könnte
Die Analystinnen sehen eine „schiere Vielfalt, Tragweite und Unvorhersehbarkeit möglicher Risiken“ durch universelle KI-Modelle, die wegreguliert werden müssten. Dazu zählen sie die Verbreitung von Desinformation, kriminellen Missbrauch, Unfälle oder systematische Diskriminierung. „Obwohl viele das enorme wirtschaftliche Potenzial dieser Modelle betonen, haben eine Vielzahl von Vorfällen – von einem KI-generierten Livestream voller Transphobie und Hassreden bis hin zu einem Experiment mit einem Allzweck-KI-basierten Agenten, dessen Ziel es war, ,die Menschheit zu zerstören’, und Ängste vor Störungen unseres Bildungssystems – zu wachsender Besorgnis über die von diesen Modellen ausgehenden Risiken geführt.“
3 Hauptrisiken: unverlässig, böse und machtkonzentrierend
Die Autorinnen sehen drei Hauptrisikokategorien: KIs können demnach erstens unzuverlässig sein, seien zweites auch zu bösen Dingen einsetzbar und drittens bergen sie die Gefahr, dass wirtschaftliche Macht zentralisiert und ungleich verteilt ist, weil es nur wenige Unternehmen gebe, die wirklich große und universelle KI-Modelle haben.
Quelle: SNV
Wissenschaftliche Publikation:
„Governing General Purpose AI“ von Pegah Maham und Sabrina Küspert, in: SNV Policy Brief Juli 2023, Fundstelle im Netz hier
Zum Weiterlesen:
Jeder 4. Deutsche könnte sich in Künstliche Intelligenz verlieben
Forscher: Künstlicher Intelligenzen liefern gefährliche medizinische Tipps
Du muss angemeldet sein, um einen Kommentar zu veröffentlichen.