Künstliche Intelligenz ist aus unserem Alltag nicht mehr wegzudenken: Sprachassistenten helfen beim Einkauf oder spielen die liebsten Musiktitel, Staubsauger-Roboter halten die Wohnung sauber und manche Autos parken sogar ohne menschliche Hilfe ein. Die moderne Technologie optimiert unsere Abläufe, spart Ressourcen, stiftet so ihren Nutzen für Gesellschaft und Umwelt und verschafft wirtschaftliche Wettbewerbsvorteile.
Doch ihre Nutzung birgt auch viele Risiken, insbesondere die sogenannte "Generating AI", die beispielsweise aus Texteingaben Bilder erzeugen kann. Ihre Modelle basieren auf Datensätzen von neunstelliger Größe aus zahlreichen Quellen. Und gerade diese Datenbasis, auf deren Grundlage Künstliche Intelligenz lernt, bildet die Realität selten vollständig ab.
So finden sich zum Beispiel immer wieder Algorithmen, die auf geschlechterrollenspezifischen Klischees basieren, etwa indem bei Eingabe des Akronyms CEO die Künstliche Intelligenz einen Mann mit weißer Hautfarbe darstellt.
Wenn Vorurteile in Daten einfließen, wendet die Künstliche Intelligenz diese an, und was diese einmal falsch gelernt hat, vergisst sie nicht mehr. Diskriminierungsfreie Datensätze bei großen Datenmengen zu gewährleisten, ist keine leichte Aufgabe. Zum einen liegt es an der Frage der technischen Umsetzbarkeit und zum anderen an der Festlegung der Maßstäbe für diskriminierungsfreie Daten. Werden diskriminierende Algorithmen erst einmal entdeckt, gilt es herauszufinden, auf Basis welcher Daten der Algorithmus gelernt hat. Im schlimmsten Fall ist die Quelle nicht bekannt und der Fehler nicht behebbar.
Trotz dieser Komplexität sollten IT-Verantwortliche nicht kapitulieren. Es braucht einen umfassenden und ausgewogenen Ansatz, der gemeinsame Werte und
...Der komplette Artikel ist nur für Abonnenten des ADMIN Archiv-Abos verfügbar.