Robert Riener, sorgt künstliche Intelligenz für mehr Inklusion?
Künstliche Intelligenz vereinfacht viele unsere Lebensbereiche. Aber macht sie die Welt auch inklusiver? Robert Riener nennt die Bedingungen für ein Gelingen.?
Künstliche Intelligenz (KI) kann enorme Chancen für Menschen mit Behinderung er?ffnen. Schon jetzt erleichtert sie ihnen den Alltag und baut Barrieren ab: Systeme zur automatischen Spracherkennung etwa machen Fernsehübertragungen und Online-Vortr?ge für Geh?rlose leichter zug?nglich. Textgeneratoren wiederum k?nnen komplexe Inhalte in einfache Sprache übersetzen. So wird Wissen, das bisher Fachleuten vorbehalten war, für einen gr?sseren Personenkreis ge?ffnet.
Auch in der Medizin und in der Rehabilitation schafft KI neue
Perspektiven. Das kontinuierliche ?berwachen von Gesundheitsdaten k?nnte
Komplikationen bei Querschnittgel?hmten wie Druckgeschwüre oder
Kreislaufprobleme frühzeitig erkennen oder sogar verhindern. Und in
Kombination mit Robotik und Exoskeletten kann KI-Menschen mit
Behinderungen zu mehr Mobilit?t und Selbstbestimmung verhelfen. Grunds?tzlich
gilt: Wenn wir Technologien von Anfang an inklusiv denken, profitieren
alle. Dieses Ph?nomen wird als ?Curb-Cut-Effekt? bezeichnet: Eine Rampe,
ursprünglich für Rollstuhlfahrende gedacht, hilft auch Eltern mit
Kinderwagen oder Reisenden mit Koffern. Genauso ist es bei KI-basierten
Navigationstools oder autonomen Fahrzeugen – auch sie kommen Menschen
mit und ohne Behinderung zugute.
Der Experte
Robert Riener ist Professor für Sensomotorische Systeme am Departement für Gesundheitswissenschaften und Technologien der ETH Zürich und arbeitet seit vielen Jahren an der Schnittstelle zwischen modernen Assistenztechnologien, Rehabilitation und Inklusion. Im Sommer 2025 führte er im Rahmen eines Stipendiums am Thomas Mann House in Los Angeles Gespr?che mit Fachleuten aus den Bereichen KI und Inklusion.
Doch KI ist kein Wundermittel; sie birgt auch Risiken. KI ist immer nur so fair wie die Daten, mit denen sie trainiert wurde. Und diese Daten sind selten neutral. Viele Anwendungen spiegeln gesellschaftliche Vorurteile wider, weil sie auf Informationen basieren, die vor allem von gesunden, weissen, m?nnlichen Menschen stammen. Menschen mit Behinderungen kommen darin schlicht nicht vor. Das führt zu fehlerhaften, oft diskriminierenden Ergebnissen, etwa in der automatischen Gesichtserkennung oder bei der Analyse von Bewerbungen.
Hinzu kommt: Wenn KI-Bilder oder Texte über Menschen mit Behinderungen generiert, reproduziert sie h?ufig stereotype Darstellungen. Diese Klischees sind nicht nur ein technisches Problem fehlerhafter Trainingsdaten, sondern Ausdruck einer weitverbreiteten gesellschaftlichen Haltung: Behinderung wird oft als Defizit gesehen, nicht als Teil menschlicher Vielfalt. KI spiegelt diese Denkmuster wider und verst?rkt sie, wenn wir sie unkritisch übernehmen. So beeinflusst sie, wie wir über Behinderung sprechen, welche Rollenbilder sichtbar werden und wer überhaupt als ?vollwertiger? Teil der Gesellschaft wahrgenommen wird.
Was müssen wir also tun? Die L?sung liegt auf der Hand, ist aber anspruchsvoll: KI muss inklusiv entwickelt werden. Menschen mit Behinderung dürfen nicht nur Zielgruppe, sondern müssen aktive Mitgestaltende sein, als Designerinnen und Entwickler, als Testpersonen und Forschende. Nur so k?nnen Systeme entstehen, die tats?chliche Vielfalt abbilden.
Gleichzeitig müssen wir unsere Datenbasis diverser machen, Algorithmen auf ihre Verzerrungen prüfen und Transparenz zu einem zentralen Wert erkl?ren, so dass die Entscheidungen der KI nachvollziehbar werden. KI darf nicht allein danach bewertet werden, ob sie effizient ist, sondern sie muss auch Gerechtigkeit f?rdern.
Wenn uns das gelingt, kann KI zu einem Werkzeug der Emanzipation werden: Sie kann Barrieren abbauen, Teilhabe erweitern und neue Formen des Miteinanders erm?glichen. Doch wenn wir ihre Entwicklung unkritisch den grossen Technologieunternehmen überlassen, wird sie bestehende Ungleichheiten verst?rken. Entscheidend ist also nicht, was die Technologie kann, sondern was wir von ihr verlangen. KI ist kein neutraler Akteur. Sie folgt den Werten, die wir ihr einschreiben. Ob sie zu mehr Inklusion führt oder zu neuer Ausgrenzung, h?ngt von unserer Haltung ab, und davon, ob wir bereit sind, Verantwortung zu übernehmen.
Vom ?Zukunftsblog? zu ?Perspektiven?
Der Zukunftsblog erhielt ein Fresh-up und heisst neu Perspektiven. Auf der Autor:innen-Plattform der ETH Zürich beantworten Expertinnen und Experten der Hochschule gesellschaftsrelevante Fragen und ordnen aktuelle Themen ein.
Das Redaktionsteam freut sich über Themenideen und Anregungen unter
Hier geht’s zu den neuen Perspektiven