14.12.2020, 11:44 Uhr

Wien (AFP) EU-Agentur fordert verstärkten Schutz der Bürger vor Auswüchsen von KI

Agentur der Europäischen Union für Grundrechte sieht Gefahr bei KI.
Quelle: AFP/Archiv/NICOLAS ASFOURI (Foto: AFP/Archiv/NICOLAS ASFOURI)Agentur der Europäischen Union für Grundrechte sieht Gefahr bei KI. Quelle: AFP/Archiv/NICOLAS ASFOURI (Foto: AFP/Archiv/NICOLAS ASFOURI)

Automatisierte Abläufe in Entscheidungsprozessen bergen Risiken

Die EU-Staaten sollten ihre Bürger durch gesetzgeberische Maßnahmen vor Auswüchsen der Künstlichen Intelligenz (KI) schützen. Das fordert die Agentur der Europäischen Union für Grundrechte (FRA) in einem am Montag an ihrem Sitz in Wien veröffentlichten Bericht. Die automatisierten Abläufe in Entscheidungsprozessen unter Zuhilfenahme der KI könnten zu Diskriminierung und ungerechter Behandlung führen.

In der öffentlichen Wahrnehmung der KI stehe ihr "Potenzial zur Stützung des Wirtschaftswachstums" im Vordergrund, heißt es in dem FRA-Bericht. Dagegen finde es "weniger Beachtung", dass die KI auch "die Grundrechte beeinträchtigen" könne.

Unter Künstlicher Intelligenz wird die Fähigkeit von Maschinen subsumiert, die menschliche Intelligenz zu imitieren und eigenständig hinzuzulernen, ohne dabei auf die Anweisungen eines menschlichen Entwicklers angewiesen zu sein. Solche Techniken, darunter die Sprach- und Gesichtserkennung, leistungsfähige Roboter und selbstfahrende Autos, werden verstärkt von Verwaltungen, in den Bereichen Medizin und Bildung, aber auch im Privatsektor der Wirtschaft eingesetzt.

Laut dem FRA-Bericht setzen 42 Prozent der europäischen Unternehmen auf KI, führend sind dabei Tschechien mit 61 Prozent, Bulgarien mit 54 Prozent und Litauen mit 54 Prozent. Besonders stark genutzt wird die KI von der Werbebranche, die sich damit den Zugang zu Internet-Kunden verschaffen will. Die FRA machte auf Missbrauchsmöglichkeiten der KI aufmerksam. So könne sie dazu eingesetzt werden, einen Menschen als homosexuell einzustufen oder den Zugang bestimmter Bevölkerungsgruppen zum Arbeitsmarkt mit der Eingabe von Eigennamen oder Adressen zu erschweren.

Wenn Bürger einen irrigen medizinischen Befund erhalten oder wenn ihnen eine Sozialleistung fälschlich vorenthalten wird, wissen sie laut FRA vielfach nicht, dass die Entscheidung automatisiert getroffen wurde. Ein britisches Gericht entschied kürzlich, dass das von der Polizei in Cardiff verwendete Programm zur Gesichtserkennung von Vorurteilen behaftet sei. FRA-Direktor Michael O'Flaherty forderte, dass der "künftige Regelkanon der EU für die Künstliche Intelligenz ohne Einschränkungen die Menschenrechte und die Grundrechte" garantieren müsse.


0 Kommentare