Autonomes Fahren

quod erat demonstrandum

Es kam, wie es kommen musste. Die Autonomie hat ihr erstes Opfer gefordert. Ein tragischer Zwischenfall. Vor allem aber auch der Zeitpunkt, an dem Wunsch von Wirklichkeit unterschieden werden muss.

Wir reiten gerne auf Altem herum und sind keine besonders großen Freunde von vielen Entwicklungen, die die Automobilindustrie derzeit hervorbringt – was aber nicht daran liegt das wir hinter irgendeinem Berg leben, oder generell nur schlechte Laune verbreiten wollen würden. Es geht, wie so oft, um den Spaß. Und der fehlt heute gar oft.

Eine Miura, ein luftgekühlter 911, oder ein paar verrückte V8-Coachbuilds, es sind einfach Dinge, die auf einer ganz anderen Ebene berühren, als diese modernen Eierfeilen, deren Knöpchenindividualisierbarkeit uns Sportlichkeit perfide als Autosuggestion präsentiert.

Wirklich ehrlich Fahrfreude? Findet man im Neuen nurmehr selten.

Dass wir das Feld der Moderne aber nicht allein den Träumern überlassen dürfen, zeigt der Unfall in Tempe. Deshalb an dieser Stelle nun eine kleine Aufklärung über den Status quo der Selbstfahrenden.

Beginnen wollen wir mit einem kleinen Rückgriff. Google und Apple werden die Autobranche überrollen, auslachen, zerlegen. Disruption – das neue Lieblingswort der digitalen Eliten. Passiert ist aktuell nicht sehr viel. Die Anstrengungen eigene Autos zu bauen: vergessen, abgeschrieben.

Stattdessen konzentrieren sie sich auf das, was sie am Besten können: Daten sammeln, sortieren und daraus Algorithmen ableiten, die eine bessere Lösung bieten, als bisher Bekanntes. Ob nun Websitensortieren für bessere Sucheregebnisse, oder die digitale Weltvermessung um dem Auto selbstfahrend den Weg zu weisen: egal. Sie liefern die Software, andere die harte Schale.

Bleiben die anderen neuen Player: Uber, Waymo, Lyft und wie sie alle heißen. Dienste, die die Personenbeförderung revolutionieren wollen. Wie? Billiger sein als Bekanntes. Und weil ein Fahrer, auch wenn er sich an keine Auflagen, Reglemente und sonstige staatlichen Kontrollen halten muss, immer noch den teuerste Faktor im System Taxi darstellt, muss er im Hinblick auf den „Fahrpreis“: weg. Deshalb versuchen die „ride-hailer“ krampfhaft den autonomen Karren ans Fahren zu bekommen.

Und was treiben die Hersteller? Sie basteln ein paar Studien, zeigen Autonomie mal mit, mal ohne Lenkrad. Im Verborgenen werfen sie aber mit unfassbar viel Geld um sich – weil sie das Rennen ebenfalls gewinnen wollen.

Nun kommen wir aber zum spannenden Teil der Geschichte: Was muss ein Auto sehen, damit es autonom fahren kann? Viel wichtiger noch: Wie sieht es das? Und was macht es aus dieser Information?

Wir sehen den aktuellen Audi A7. In Sachen „Sensor-Suite“ das fortschrittlichste Auto am Markt, kombiniert er doch erstmals im Massenmarkt einen Laserscanner in die Datenverarbeitung. Der A7 ist in der Lage auf der Autobahn den Abstand zum Vordermann zu halten, sowie die Spur zu halten und auf Wunsch zu wechseln. Dazu folgt er brav dem Stau.

Dabei sieht er (mit dem aufpreispflichtigen Mercedes-Stern) ungefähr das:

Die Kamera zeigt dieses Bild, die Farben markieren die detektierten Entfernungen der Objekte zum Fahrzeug.

In einem weiteren Prozessschritt wird das Bild von Kamera und Radar kombiniert. Die Auswertung klassifiziert dann direkt die erkannten Objekte.

Es ist im Übrigen gar nicht so leicht für das Auto eine derartige Klassifizierung vorzunehmen. Wer höchste Auflösung und Echtzeit verlangt, der sieht sich heute noch einem vollgepackten Kofferraum gegenüber, dessen Rechenleistungsabwärme die Klimaanlage vor ein eher großes Problem stellt.

Die aktuell verbauten Bordmittel in der Oberklasse verarbeiten die Objekte derzeit so – möglich ist das aber auch nur mit der Schützenhilfe der künstlichen Intelligenz, die mit Millionen von Beispielfotos gefüttert wird und so immer treffsicherer in der Erkennung von Objekten wird.

Doch um Objekte klassifizieren zu können muss man sie überhaupt erst erkennen können. Denn was sich leicht sagt, ist in der Praxis gerne ein großes Problem. Und es beginnt schon bei der Erkennung der Ampelfarbe – ein für die Teilnahme im Straßenverkehr nicht gerade unwichtiges Problem:

Einige Beispiele aus dem Entwickleralltag:

Und dabei stellt sich – etwa an Kreuzungen mit drei oder mehr Ampelanlagen – die Frage: Welche Ampel ist überhaupt „meine“?

Für diese Fälle braucht es extrem detaillierte Karten, auf deren Basis das Fahrzeug seinen Fahrkorridor möglichst auf eine Hand voll Zentimeter exakt berechnen kann.

Der Dreh- und Angelpunkt für alle Entwicklungen des autonomen Fahrens ist der, dass das Auto wissen muss wo es ist.

Klingt einfach, ist es aber nicht.

Denn auch die exakteste Karte ist in der Sekunde in der sie digitalisiert wurde: alt. Quasi unbrauchbar. Denn es liegt in der Natur der Sache: Dinge ändern sich. Das Auto muss also in der Lage sein, sich ein eigenes Bild zu machen. Und im wörtlichen Sinne mag das in der immerscheinenden Sonne Südkaliforniens gehen. Im nebligen Schneeschauer auf dem Sustenpass? Eher nicht. Eher gar nicht.

Es braucht deshalb – wie etwa im Audi A7 – eine Kombination verschiedenster Systeme: Kamera, Radar und Laser. Jedes einzelne System hat seine Vor- aber auch Nachteile, weshalb nur eine intelligente Fusion zu einem Ergebnis führen kann.

Was ein Lidar in Kombination mit einer HD-Karte von Here für ein „Bild“ ermöglicht:

Das Ganze mit der Klassifizierung und Bewegungsvektorisierung aller erkannten Objekte kombiniert und man erhält die Trajektorie der eigenen Fahrt:

Ein wenig schöner, weil anschaulicher:

Das ist es, was ein mit Google-Software, Laser, Radar und Kamera ausgestattetes Fahrzeug sieht. Gleiches unten für den Ford Fusion AV:

Das Problem: im statischen Foto sieht das alles wunderbar aus. Nicht mehr so wunderbar ist die Sache, wenn das Auto in Bewegung ist:

//player.ooyala.com/static/v4/candidate/latest/skin-plugin/iframe.html?ec=ZjMGMzYzE6XY6KjVX2h0SKYFFfSZKcEp&pbid=5ad1946db28d45cdb4325c91c7751266&pcode=FvbGkyOtJVFD33j_Rd0xPLSo0Jiv

Hier sehen wir einen Velodyne HDL-64E. Den besten Laserscanner, den Geld diesseits militärischer Systeme kaufen kann. 64 Laserstrahlen parallel, eine Auflösung von 0.4 Grad und eine Reichweite von 120m – und das Ergebnis? Es ist okay. Mehr aber auch nicht.

Daneben:

//player.ooyala.com/static/v4/candidate/latest/skin-plugin/iframe.html?ec=M1NWMzYzE6v87DicUGJAF3C9deIFNGD3&pbid=5ad1946db28d45cdb4325c91c7751266&pcode=FvbGkyOtJVFD33j_Rd0xPLSo0Jiv

Das ist das „Bild“ des Velodyne Puck. Eine ebenfalls rotierende Lösung mit 16 Laserstrahlen, 2.0 Grad Auflösung und 100m Reichweite. Das Ergebnis? Tappen im Dunklen.

Das Problem: ihr Preis. Der HDL-64E kostet die Kleinigkeit von 80.000 US-Dollar. Der Puck immerhin noch 8.000 Dollar.

Stellen sie sich einmal vor sie säßen im Board-Meeting zur Freigabe der neuen Sensorik des Audi A7 und sagen, dass ihr neues System alleine 8.000 Dollar Hardware-Kosten produziert. Undenkbar.

Deshalb sitzt im Audi auch kein rotierender 360°-Laser, sondern ein solid-state-System mit einer Spiegelauslenkung seiner Laserstrahlen. Es sind übrigens vier Strahlen. Mit einer Reichweite von 80m. Nun rufen wir uns das zweite Video mit 16 Strahlen und 100m Reichweite in Erinnerung. Und denken uns unseren Teil.

Das Problem: die Bildgebung ist nicht ansatzweise soweit, als das Fahrzeuge in der nächsten Generation wirklich alleine fahren könnten. In Testumgebungen: vielleicht. Im durchorganisierten, geradelinigen Innenstadtverkehr Amerikas: vielleicht. Aber ganz sicher nicht bei hohem Tempo auf kleinen Landstraßen, Autobahnbaustellen oder sonstigen alltäglichen Verkehrssituationen.

Und wir wollen an dieser Stelle noch einmal klarstellen: Wir sind nicht gegen Technologie. Wir sind aber für Verständnis. Und wer den status quo verstanden hat, seine Probleme kennt, der kann sich vernünftig über das Thema unterhalten. Genau das wollen wir erreichen. Kein Hochjazzen, keinen Hype beschwören, aber auch keine Verteufelung – stattdessen: Sinnvolle Diskussion.

Denn alleine fahren mögen sie zwar. Aber sie sind eben doch nicht alleine auf der Straße.

Und ein System, das nur in seinem eigenen Kosmos funktioniert wenn alle Randbedingungen exakt auf das eigene Bedürfnis eingestellt sind, das ist – mit Verlaub – ein schlechtes. Ein sehr schlechtes. Unsere Technologie kann mehr, sie muss mehr können, sonst ist sie nicht serienfähig. Und an dieser Stelle gibt es keinen Millimeter Verhandlungsspielraum. Tempe hat es gezeigt.

Randnotiz: Uber hat seine eigene Technologie sprichwörtlich auf einem Dachbalken an den Volvo XC90 montiert. Warum? Vermutlich weil es günstiger ist als tief in die Systeme eines Autos einzugreifen. Vor allem aber: es könnte universell zu nutzen sein – für jedes beliebige Fahrzeug mit Dachreling. Sie haben es auch übrigens bei einem Lidar-Scanner bewenden lassen, wie überhaupt alle Sensorik im Dachbalken integriert ist:

Im Vergleich dazu der neue GM Cruise AV, der ab diesem Jahr in Kleinserie vom Band laufen wird:

General Motors würde mit Sicherheit keine fünf Lidar am Dach montieren, wenn sie nicht nötig wären. Hier ist die konservative Automobilindustrie den jungen Techies vielleicht dann doch noch das ein oder andere Jahr an Erfahrung überlegen. Denn sie weiß: Selbst mit dem Sensor-Overkill fahren die Cruise AVs heute noch mit großer Zielsicherheit über rote Ampeln…

Es ist noch viel zu tun.

fm/Bilder: Hersteller

Advertisements

Kommentar verfassen

Bitte logge dich mit einer dieser Methoden ein, um deinen Kommentar zu veröffentlichen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

w

Verbinde mit %s

%d Bloggern gefällt das: