Barrierefreiheit

KI-unterstützte Stories sagen mehr als Specs

Den meisten Menschen – sogar Entwicklern – fällt es schwer, sich für abstrakte, technische Spezifikationen zu begeistern. Accessibility-Standards bilden da keine Ausnahme. Doch vieles wird greifbar und nachvollziehbar: Wenn Empathie ins Spiel kommt, wenn man den Menschen hinter den Spezifikationen sieht und so die konkreten Auswirkungen, die eingeschränkte Barrierefreiheit mit sich bringt.

Nur wenige wissen beispielsweise, was es bedeutet, wenn ein nationales Bahnunternehmen den „AA-Standard“ nicht erfüllt – aber alle können die Frustration nachempfinden, wenn wegen einer schlecht lesbaren Webseite kein Fahrkartenkauf möglich ist und deswegen die Reise platzt.

Wie wird durch KI die Nutzererfahrung zum Aha-Erlebnis?

Wir haben uns deshalb gefragt: Wie können wir abstrakte und technische Accessibility-Reports in persönlichere, greifbarere und Empathie fördernde Erfahrungen übersetzen? Wie können wir fortschrittliche KI-Technologien nutzen, um die potenziellen Auswirkungen von Barrierefreiheitsproblemen auf das Leben echter Menschen zu erkennen? Und wie können wir diese „Aha“-Erlebnisse den Menschen vermitteln, die das heutige Web entwerfen, entwickeln und betreiben?

Eingeschränkte Sehfähigkeit: die häufigste Barriere im Web

Mit A11y-AI kann die Accessibility einer beliebigen Webseite aus der Perspektive unseres ersten synthetischen Users „Claudia“ überprüft werden. Claudia wurde entwickelt, um Probleme zu antizipieren, die im Zusammenhang mit „eingeschränktem Sehvermögen" stehen. Damit decken wir bereits einige der häufigsten Probleme der Barrierefreiheit ab. Dennoch arbeiten wir bereits an der Implementierung der nächsten Perspektive bzw. Beeinträchtigung, um den Umfang zu erweitern und so ein breiteres Verständnis für die Herausforderungen der Barrierefreiheit zu schaffen.

#CreatePositiveChange ist unser Motto und unser Aufruf: Gemeinsam machen wir den Weg frei für ein integrativeres Web!
Wie lautet die erste Webseite, die du checkst?