12/04/2025 | News release | Distributed by Public on 12/05/2025 03:08
Header
Die Vorlesung läuft. Nebenan wird gesprochen, von Draussen dringt der Lärm einer Baumaschine in den Hörsaal. Eine Studentin mit ADHS versucht trotz der vielen Ablenkungen angestrengt dem Kurs zu folgen und mitzuschreiben. Sie ist fachlich stark, doch ohne vollständige Informationen wird die Prüfung für sie schwierig. Eine Aufzeichnung mit Transkript würde ihr erheblich helfen, doch stattdessen wird erwartet, dass alle Studierenden vor Ort sind und mitschreiben.
Diese Studentin gehört zu einer sogenannten benachteiligten Gruppe: Die Benachteiligung entsteht meist durch stereotype Vorstellungen und diskriminierende Strukturen in der Gesellschaft. Sie betrifft zum Beispiel Menschen mit Behinderungen, Mitglieder der LGBTQIA+-Community oder auch Frauen. Auch wenn diese Gruppen oft Minderheiten sind, müssen sie nicht in der zahlenmässigen Minderheit sein, um benachteiligt zu sein.
Benachteiligte Gruppen fördern Innovation, weil sie auf vernachlässigte Probleme hinweisen, deren Lösung allen zugutekommt. Sie erkennen Bedürfnisse oft früher als andere Marktteilnehmende und profitieren besonders stark von passenden Lösungen. Diese Perspektiven sind in schnell entwickelnden Technologiemärkten besonders wertvoll.
Viele Technologien, die wir heute ganz selbstverständlich im Alltag nutzen, wurden ursprünglich für, mit oder von Menschen mit Behinderungen entwickelt. Beispiele dafür sind die elektrische Zahnbürste, der verschwommene Hintergrund in Videokonferenzen oder Sprachassistenten. Dieses Phänomen wird als «Curb-Cut-Effekt» bezeichnet. Der Name stammt von den abgesenkten Trottoirs, die ursprünglich geschaffen wurden, um Menschen im Rollstuhl das Überqueren der Strasse zu erleichtern, wovon aber auch Eltern mit Kinderwagen oder Velofahrende profitieren.
So wichtig Innovation ist, sollte nicht vergessen werden, dass sie nicht das einzige Ziel sein darf. Inklusion und Gerechtigkeit sind genauso relevant. Die rasante Entwicklung von KI-Anwendungen wirft Fragen auf: Wofür und für wen entwickeln wir Lösungen? Schaffen neue Technologien neue Barrieren oder Diskriminierungsformen?
In den letzten zehn Jahren haben sich viele Forschende im Bereich KI-Ethik damit auseinandergesetzt, wie Technologie unsere Gesellschaft beeinflusst. Und ihre Arbeit wird immer wichtiger. Studien warnen beispielsweise davor, dass soziale Netzwerke, die den Standort in Echtzeit teilen, zur Verfolgung von Frauen und zu häuslicher Gewalt beitragen können. Ebenso weisen Behindertenrechtsaktivist:innen darauf hin, dass Barrierefreiheit in der KI-Entwicklung nicht erst nachträglich behandelt werden darf, da es zu erneuter Exklusion führen könnte. Solche Erkenntnisse sind nur möglich, wenn die Perspektiven von benachteiligten Gruppen in den Fokus gerückt werden.
Für Hochschulen, die KI-Werkzeuge für ihre Studierenden entwickeln, stellt sich ebenfalls diese Frage: Für wen wollen sie diese Werkzeuge entwickeln? Viele Hochschulen engagieren sich für Inklusion und Gleichberechtigung. Dennoch kommt es oft vor, dass bei der Entwicklung eines Tools für die gesamte Hochschule die Mehrheit der Studierenden anvisiert wird, in der Hoffnung, das Tool möglichst breit anbieten zu können.
Wer sich jedoch die Mehrheit der Studierenden an Schweizer Hochschulen anschaut, merkt, dass die Mehrheit nicht unbedingt die richtige Zielgruppe ist. Zum Beispiel stammen die meisten aktuellen Studierenden aus Haushalten, in denen die Eltern selbst studiert haben. Um ihrem Engagement gerecht zu werden, würde es für Hochschulen mehr Sinn machen, sich anzuschauen, wie KI die Studierenden ohne akademischen Familienhintergrund unterstützen könnte.
Wie sichern wir den Fokus auf die Perspektive von benachteiligten Gruppen? Das sogenannte partizipative Design bietet den Schlüssel: Nutzer:innen sowie Entwickler:innen arbeiten von Anfang an zusammen. Die Bedürfnisse der Zielgruppe werden durch Design-Workshops oder Fokusgruppen erforscht, Feedback wird regelmässig eingeholt, und idealerweise bringen die Teammitglieder selbst erlebte Erfahrungen ein. Zentral ist dabei, solche Gruppen nicht defizitorientiert zu betrachten, sondern als Nutzer:innen mit eigenen Stärken und Herausforderungen.
Zum Schluss sollten KI-Applikationen möglichst universell gestaltet werden. Denn auch wenn sie für eine bestimmte Gruppe optimiert sind, müssen die Applikationen die Nutzer:innen nicht explizit über diese Optimierung informieren. Im Gegenteil: Durch universelle Darstellungen werden unnötige Etiketten vermieden. Zum Beispiel wird die Textvergrösserung in Browsern und auf Smartphones den allgemeinen Anzeigeeinstellungen zugeordnet, ohne explizit als barrierefreie Funktion bezeichnet zu werden. Auf diese Weise können alle Nutzer:innen die Funktion finden und verwenden, unabhängig davon, ob sie eine Behinderung haben oder sich damit identifizieren. Es funktioniert also ähnlich wie die abgesenkten Trottoirs: eine Anpassung, die allen zugutekommt.
Oriane Pierrès, Postdoktorandin an der Digital Society Initiative (DSI)
Dr. Oriane Pierrès ist interdisziplinäre Postdoktorandin an der Digital Society Initiative (DSI) der Universität Zürich (UZH). Sie ist spezialisiert auf KI und Barrierefreiheit, UX-Forschung und Bildungstechnologie im Hochschulbereich. Ihre Forschung begleitet die Entwicklung des AI Buddys, einem KI-Chatbot, der die Studierenden der UZH durch das gesamte Studium begleiten wird.
Oriane Pièrres
Dieser Text ist Teil der Reihe «DSI Insights» auf «Inside IT»
Footer
© 2023 Universität Zürich