Bundesregierung wägt KI-Risiken nicht systematisch ab
Bundesregierung wägt KI-Risiken nicht systematisch ab - Politik in Berlin
Das Robert-Koch-Institut etwa nutzt Daten aus den sozialen Medien, um mögliche Entwicklungen oder Ausbrüche von Infektionskrankheiten frühzeitig vorherzusagen. Das Bundeszentralamt für Steuern durchsucht automatisiert das Internet nach Hinweisen auf Umsatzsteuerbetrug. Das Bundesamt für Migration durchsucht mithilfe maschinellen Lernens Anhörungsprotokolle im Asyl- und Sicherheitsbereich.
Die Antwort auf die Frage, ob sogenannte Risikoklassenmodelle angewendet werden, um Entscheidungen für oder gegen den Einsatz eines selbstlernenden Systems zu treffen, lässt darauf schließen, dass das in der großen Mehrheit der Fälle nicht so ist. Damit setzen Bundesregierung und Behörden Empfehlungen nicht um, die Fachgremien in zum Teil jahrelanger Tätigkeit erarbeitet haben. "Sowohl die Enquetekommission des Bundestages als auch die Datenethikkommission haben darauf verwiesen, wie wichtig eine Risikoklassenanalyse ist", sagte Domscheit-Berg "Zeit-Online".
Fachleute machen immer wieder darauf aufmerksam, dass von automatisierten Entscheidungsprozessen Risiken ausgehen können. Verzerrungen in den analysierten Daten können die von der KI getroffenen Vorhersagen - etwa im Bezug auf Asylentscheidungen oder Steuerbetrug - entsprechend verfälschen. Diese Gefahren beziehe die Bundesregierung zu wenig in ihre Überlegungen ein, sagte Domscheit-Berg.
"Die meisten Behörden haben weder Ahnung noch Bewusstsein für die Risiken."
Schreibe einen Kommentar