Wie Künstliche Intelligenzen Menschen mit Behinderung darstellen – und warum die Systeme noch viel dazulernen müssen
KI-Systeme sind immer nur so gut wie die Daten, mit denen sie trainiert wurden. Genau das ist auch bei der Künstlichen Intelligenz „Midjourney“ das Problem, sobald sie mit Inhalten abseits des „Mainstreams“ konfrontiert wird. Das stellt Andi Weiland bei seinem Test für das Online-Magazin ‚Die neue Norm‘ fest. Die KI hat nämlich offenbar große Schwierigkeiten, ein genaues Verständnis von Menschen mit Behinderung und dem Thema Inklusion zu entwickeln. Das liegt daran, dass sie vorher vermutlich mit Bildern trainiert wurde, die nur wenige oder gar keine echten Menschen mit Behinderungen zeigen. Der Künstlichen Intelligenz stehen deshalb nicht genügend Beispiele zur Verfügung, um zu verstehen, wie diese Personen tatsächlich aussehen und sich verhalten. Deswegen kann die KI derzeit kaum Bilder generieren, die lebensnah und klischeefrei sind. Vor allem fehlt es laut Weiland oft an Nuancen, die etwa die individuellen Erfahrungen, Herausforderungen und Fähigkeiten darstellen, die jede Person mit Behinderung hat.
Auf einigen Fotos wird zum Beispiel eine Person mit Behinderung gezeigt, die von einer anderen Person getragen wird, anstatt eine Mobilitätshilfe zu verwenden. Sie wirkt hilflos oder von anderen abhängig aufgrund ihrer Behinderung – ein gängiges Klischee. Auch sind oft Fotos zu sehen, auf denen Menschen mit Behinderung isoliert dargestellt werden, anstatt in eine Gruppe oder Gemeinschaft integriert. Das ist ebenfalls nicht realistisch, sondern ein Vorurteil.
Damit Künstliche Intelligenzen wie „Midjourney“ künftig dazu beitragen können, mehr Diversität auf Fotos etwa in Medien und Werbung zu erzeugen, müssen sie dazulernen. Die Entwickler der Systeme müssen vor allem die Datensätze viel diverser gestalten, mit denen sie die KIs trainieren, kritisiert Andi Weiland – sie müssen ihren Systemen also eine ausreichende Anzahl echter Bilder zur Verfügung stellen, die zum Beispiel Menschen mit Behinderungen in möglichst vielfältigen, realistischen Situationen zeigen. Außerdem müssen KIs regelmäßig überprüft und aktualisiert werden, um sicherzustellen, dass sie sich im Verlauf nicht erneut voreingenommen oder diskriminierend verhalten.