Von Hindernissen und Behinderung
Alex Schmiedel
Entstehungsgeschichte – Was macht ein LiDAR-Sensor in autonomen Fahrzeugen?
In autonomen Fahrzeugen sind eine Vielzahl von Sensoren verbaut. Die zusammengeführten Daten verschiedener Sensortypen sind mit algorithmischer Auswertung die Grundlage automatisierter Fahrmanöver. LiDAR-Sensoren sind Teil dieses Sensorapparates. LiDAR steht für Light Detection and Ranging. Es ist ein zeitbasiertes Messverfahren von Entfernungen von Punkten in einem Raum. Dafür misst der Sensor, wie lange ein Lichtstrahl braucht: vom Sensor hin zu einem Objekt, das den Lichtstrahl reflektiert, zurück zum Sensor.
Kompetenzen – Was kann die Auswertung von LiDAR-Sensordaten?
In Sekundenbruchteilen produziert ein LiDAR-Sensor hochfrequentiert Entfernungspunkte – auch in autonomen Autos. Damit ist die von Auto zu Auto unterschiedliche Konfiguration von LiDAR-Sensoren eine wichtige Stellschraube in Unfallvermeidungsstrategien. Je nach Eigenschaften, Menge und Positionierungen der Sensoren entstehen unterschiedliche virtuelle Welten, die ein autonomes Auto durchquert. Denn Sensoren sind Medien der Welt(en)erzeugung (vgl. VOM Juli, Sprenger 2023). Sie erzeugen eigene Welten und diese sind keine reine Abbildung der Bedingungen unserer Welt in einer vermeintlich eindeutigen und objektiven Form. LiDAR-Sensordaten sind fluide Objekte, die stetig Transformationen in einer maschinell und menschlich vorangetriebenen Übersetzungskette durchlaufen. Das, was virtuell als Körper gilt und als Mensch kategorisiert wird, ist abhängig davon, wie Algorithmen trainiert und welche Regeln in die Welt eingeschrieben werden. Zeitliche und topografische Eigenschaften von Objekten produzieren im Zusammenwirken mit LiDAR Ansammlungen von relativen Entfernungsverhältnissen. Algorithmisch verwertet bedeuten sie Wahrscheinlichkeiten von Zuordnungen wie Mensch, Mülltonne oder Hund (vgl. Abbildung 1). Sie sind Einheiten, an die Verhaltensprotokolle im Sinn von Fahrmanövern geknüpft sind.
Diese Datensätze lassen sich als Schnittstelle für die (sehende) menschliche Weiterverarbeitung in eine visuelle Form übersetzen. Jeder Messwert ist durch einen Punkt in einem relativen Verhältnis zu anderen repräsentiert. Zusammen ergeben sie dreidimensionale Echtzeit-Darstellungen – Punktwolken genannt. Menschen, oft Clickworker und Maschinen, beispielsweise in simulierten Fahrten, nutzen letztere im Training autonomer Autos: Anhand der Eigenschaften dieser Punktwolken leiten sich Regeln ab und werden angewendet (vgl. Kretschmer 2023; Caiet al 2023). Diese beziehen sich auf relative Punktverhältnisse und ihre Winkel, Verteilungen, Formen, Abstände, Höhen und Tiefen. Punktwolken werden so in Kategorien unterteilt und operativ nutzbar – jede Kategorie hat andere Fahrmanöver als Konsequenz: Wann wird gebremst, wann weitergefahren? Die Zuordnungen entscheiden darüber, wie das Auto mit Objekten interagiert oder kollidiert.
Aber haben alle Menschen die gleiche Chance als solche erkannt zu werden? Der Beantwortung dieser Frage liegt eine andere zu Grunde: Werfen alle Menschen Licht mit derselben Verteilung zurück in LiDAR-Sensoren? – Nein. Denn je nachdem, wie der Körper einer Person geformt ist oder wie sie sich fortbewegt, haben Körper unterschiedliche Topografien. Dadurch hat eine sitzende Person beispielsweise eine andere Verteilung von Erhöhungen, Vertiefungen, Abständen und vermeintlicher Größe als eine stehende.
Erkenntnisse – Was zeigen LiDAR-Sensordaten?
In Sensordaten autonomer Fahrzeuge sind Körper nicht gleich Körper. Denn Menschen, die sich nicht mit zwei Beinen gehend oder Fahrradfahrend fortbewegen, sondern beispielsweise einen Rollstuhl nutzen oder einbeinig sind, werden von den aktuellen Regelbildungsnormen nicht bedacht, wodurch virtuelle Behinderungsverhältnisse produziert werden: LiDAR-Sensoren (re)produzieren Behinderung, lässt sich festhalten, ausgehend von einem kulturellen Modell von Behinderung (vgl. Waldschmidt 2020). Die Art, wie und in welcher Zahl Sensoren am Auto montiert sind, beeinflusst die Datenproduktion. Der Umfang und die Gestaltung nicht erfasster Zonen verändert Fahrmanöver, indem sich die virtuellen Fahrzeugumgebungen räumlich wie zeitlich unterschiedlich zusammensetzen. Wenn sich Grundvoraussetzungen verändern, anhand derer Navigationsszenarien gewählt werden, bedeutet es, dass sich die Möglichkeiten für Navigationsentscheidungen virtuell in Abhängigkeit zu den Sensordatensätzen unterschiedlich zusammensetzen. Auf Ebene der Algorithmen kommen Regeln hinzu, die das Menschsein implizit an das Vorhandensein von zwei Beinen, bestimmten Proportionsverhältnissen und ihrer aufrechten Nutzung knüpfen. So ist beispielsweise in der International Organization for Standardization (ISO) zur Erkennung von Personen auf Fahrbahnen von autonomen Autos die Bemessung des Winkels von Beinen und Körperhaltungen eine zentrale Vorgabe (vgl. ISO 19206-2). Damit ist in der branchenüblich genutzten Norm das Ausklammern bestimmter Personen aufgrund körperlicher Merkmale eingeschrieben.
Gesellschaftlich wird so ein Behinderungsverhältnis – eine Gruppe von Personen wird daran gehindert im gleichen Maße von Unfallvermeidungsstrategien erkannt zu werden – durch den Umgang mit Sensoren und ihren Daten medial vermittelt und produziert, beziehungsweise ein bereits bestehendes Behinderungsverhältnis wird verschärft und auf virtuelle Körper übertragen. In den Übersetzungsketten von Umwelt, Sensoren und Algorithmen fallen Menschen dadurch aus der Kategorie „Mensch“; sie sind maschinell als solche nicht oder weniger lesbar – aufgrund diskriminatorischer Verzerrungen und struktureller Leerstellen.
Allerdings gilt: Dieser Status Quo ist nicht in Stein gemeißelt. Die hier gezeigte Virtualitätsforschung kann diese Biases zentralen Akteur*innen in den Erforschungs-, Produktions-, Regulations- und Distributionsketten von autonomen Fahrzeugen kommunizieren und aufzeigen. Denn nur wenn diese Leerstellen diskutiert werden und ein Bewusstsein für sie geschaffen ist, können Normen angepasst und verkehrspolitische Interventionen fallspezifisch entwickelt werden, die eine inklusive Qualitätssicherung von Kategorisierungsschemata in autonomen Autos oder die Art- und Anzahl der Sensorverteilung in (teil-)autonomen Autos betreffen.
Literatur
Cai, X. et al., "AnalyzingInfrastructure LiDAR Placement with Realistic LiDAR Simulation Library," 2023 IEEE International Conference on Roboticsand Automation (ICRA), London, United Kingdom, 2023, pp. 5581-5587, doi: 10.1109/ICRA48891.2023.10161027.
Kretschmer, C. (24.08.2023). Wie Klickarbeiter in Kenia ausgebeutet werden. https://www.tagesschau.de/wissen/technologie/ki-klickarbeiter-trainingsdaten-100.html [Zugriff: 26.10.2023].
ISO 19206-1-7 (2018–2020) Roadvehicles — Test devices for target vehicles, vulnerable road users and other objects, for assessment of active safety functions — Part 1 – Part 7.
Sprenger, F. (2023). Temperatursensor TMP36 und Arduino-Microcontroller. Wie ein Objekt Welten übersetzt. https://www.sfb1567.ruhr-uni-bochum.de/blog-post/vom-juli-temperatursensor-tmp36[06. [Zugriff: 6.8.2023].
Waldschmidt, A.(2020). Disability Studies. Zur Einführung. Hamburg. Junius.
Weiterführende Literatur
Hamraie, A. (2017). Normate Template. Knowing-Making the Architectural Inhabitant. In Building access. Universal Design and the Politics of Disability (S.19–37). Minneapolis. University of Minnesota Press.
Somerville, H., Lienert, P., & Sage, A. (28.03. 2018). Uber’s use of fewer safety sensors prompts questions after Arizona crash. Reuters. Retrieved September 11, 2022, from https://www.reuters.com/article/us-uber-selfdriving-sensors-insight/ubers-use-offewer-safety-sensors-prompts-questions-after-arizona-crash-idUSKBN1H337Q.
Das Virtuelle Objekt des Monats
Ab April 2023 stellen wir jeden Monat ein „Virtuelles Objekt des Monats“ (VOM) auf der Website des Sonderforschungsbereichs 1567 „Virtuelle Lebenswelten“ vor. Die präsentierten Objekte entstammen der Forschung in den Teilprojekten. Im Zusammenspiel von Text und Animation, desktop- oder smartphonebasierter Augmentierung oder anderer grafischer Aufbereitungen eröffnen wir Einblicke in die verschiedenen Forschungsthemen und den Arbeitsalltag des SFB. Das VOM macht unsere Wissensproduktion transparent. Zugleich wollen wir hier mit den Möglichkeiten und Grenzen der Wissensvermittlung in und durch Virtualität und Visualität experimentieren.
Das „Virtuelle Objektdes Monats“ ist mehr als ein populärwissenschaftlicher Text und mehr als ein illustrierendes Bild. Die Autor*innen des jeweiligen VOM präsentieren kurz einen Gegenstand ihrer Forschung um daran ein Argument scharfzustellen. Dabei werden die Objekte auf ihren Mehrwert hin befragt, den sie in dem jeweiligen Forschungssetting preisgeben. Mit dem Text skizzieren unsere Wissenschaftler*innen das Bemerkenswerte, das Eigentümliche oder auch das Einzigartige, welches das jeweilige Objekt zeigt. Sie machen so die Forschung des SFB in einem kurzweiligen Schlaglicht sichtbar. Die zum VOM gehörende Visualisierung ist eine weitere Transformation des Forschungsgegenstands, die das Argument noch einmal auf eine andere Art und Weise zugänglich macht.