Von Fundstücke aus dem Netz

Wie Künstliche Intelligenzen Menschen mit Behinderung darstellen – und warum die Systeme noch viel dazulernen müssen

Die Künstliche Intelligenz „Midjourney“ kann aus Texten automatisch Bilder von Menschen generieren, die so realistisch sind, dass sie kaum noch von echten Fotografien zu unterscheiden sind. Das wirkt erst einmal unheimlich, könnte in Medien und Werbung aber künftig für mehr Diversität sorgen – theoretisch zumindest. Andi Weiland, Projektleiter des inklusiven Foto-Archivs Gesellschaftbilder.de, hat für das Online-Magazin „Die neue Norm“ den Praxistest gemacht. Er hat die KI mit Begriffen rund um das Thema Behinderung gefüttert – und viele zweifelhafte Ergebnisse bekommen. Unser Fundstück der Woche!

Rot hinterlegtes Bildschirmfoto des Artikels auf dieneuenorm.de

KI-Systeme sind immer nur so gut wie die Daten, mit denen sie trainiert wurden. Genau das ist auch bei der Künstlichen Intelligenz „Midjourney“ das Problem, sobald sie mit Inhalten abseits des „Mainstreams“ konfrontiert wird. Das stellt Andi Weiland bei seinem Test für das Online-Magazin ‚Die neue Norm‘ fest. Die KI hat nämlich offenbar große Schwierigkeiten, ein genaues Verständnis von Menschen mit Behinderung und dem Thema Inklusion zu entwickeln. Das liegt daran, dass sie vorher vermutlich mit Bildern trainiert wurde, die nur wenige oder gar keine echten Menschen mit Behinderungen zeigen. Der Künstlichen Intelligenz stehen deshalb nicht genügend Beispiele zur Verfügung, um zu verstehen, wie diese Personen tatsächlich aussehen und sich verhalten. Deswegen kann die KI derzeit kaum Bilder generieren, die lebensnah und klischeefrei sind. Vor allem fehlt es laut Weiland oft an Nuancen, die etwa die individuellen Erfahrungen, Herausforderungen und Fähigkeiten darstellen, die jede Person mit Behinderung hat.

Die Arbeit von guten Fotograf:innen und Videograf:innen besteht nicht darin, einfach nur ein Motiv gut einzufangen, sondern Bilder in den richtigen Kontext zu stellen. Denn in einer sensiblen und kritischen Fotografie geht es auch darum, dass keine Stereotype der letzten hunderte von Jahren reproduziert werden, sondern neue, zeitgemäße Bilder ,auf Augenhöhe‘ zu schaffen. Und weil es dazu noch viel zu wenig Daten gibt, können künstliche Intelligenzen (…) dies noch nicht wissen.

Andi Weiland, Fotograf und Projektleiter bei Gesellschaftsbilder.de

Auf einigen Fotos wird zum Beispiel eine Person mit Behinderung gezeigt, die von einer anderen Person getragen wird, anstatt eine Mobilitätshilfe zu verwenden. Sie wirkt hilflos oder von anderen abhängig aufgrund ihrer Behinderung – ein gängiges Klischee. Auch sind oft Fotos zu sehen, auf denen Menschen mit Behinderung isoliert dargestellt werden, anstatt in eine Gruppe oder Gemeinschaft integriert. Das ist ebenfalls nicht realistisch, sondern ein Vorurteil.

Damit Künstliche Intelligenzen wie „Midjourney“ künftig dazu beitragen können, mehr Diversität auf Fotos etwa in Medien und Werbung zu erzeugen, müssen sie dazulernen. Die Entwickler der Systeme müssen vor allem die Datensätze viel diverser gestalten, mit denen sie die KIs trainieren, kritisiert Andi Weiland – sie müssen ihren Systemen also eine ausreichende Anzahl echter Bilder zur Verfügung stellen, die zum Beispiel Menschen mit Behinderungen in möglichst vielfältigen, realistischen Situationen zeigen. Außerdem müssen KIs regelmäßig überprüft und aktualisiert werden, um sicherzustellen, dass sie sich im Verlauf nicht erneut voreingenommen oder diskriminierend verhalten.

image_printDruckansicht
Schließen
Schließen