Autotest

Autonomes Fahren: Look, no hands!

Schauplatz Red-Bull-Ring. INDUSTRIEMAGAZIN nahm Platz in einem Prototyp, der autonomen Fahren auf Level vier schon sehr nahe kommt. Die Technik des Zukunftsboliden stammt zu einem beträchtlichen Teil aus Österreich.

Virtual Vehicle Infineon Bosch Autonomes Fahren Selbstfahrende Autos

Kein Rennen, sondern ein Blick in die Zukunft: Level-4-Fahrtests am Red-Bull-Ring

Liebe auf den ersten Blick ist es definitiv nicht. Auf den ersten Blick sieht das Gefährt der Zukunft richtig enttäuschend aus: ein Ford Mondeo, dem mithilfe von bunten Folien ein wenig Race-Look verpasst wurde. Gibt‘s bei jedem Tourenwagen-Rennen.

Doch das hier ist kein Rennen, sondern ein Blick in die Zukunft, auch wenn wir uns am Red-Bull-Ring befinden. Denn das auf einem Mondeo Hybrid aufgebaute autonome Auto des VIRTUAL VEHICLE Forschungszentrums Graz kommt bereits nah an Level vier heran – an jenen Standard des autonomen Fahrens, bei dem der Fahrer zwar noch am Steuer sitzt, in das Fahrgeschehen aber nur noch in absoluten Notsituationen eingreift. Also hoffentlich nicht an diesem Testwochenende.

Die Kühe, die das rurale Ambiente des Red-Bull-Rings prägen, schauen jedenfalls recht gelassen über den Zaun ins Cockpit. Der Mitfahrer im ADD, wie das Vehikel korrekt heißt, ist weniger stoisch: Kann der ADD, der Automated Drive Demonstrator, auch unerwarteten Hindernissen ausweichen? Und findet das Ding am Ende auch in die Box zurück?

White Paper zum Thema

Bitte anschnallen?

Immerhin: Anschnallen ist noch vorgesehen. Kaum schnappt der Gurt ein, setzt sich der Ford in Bewegung – wie ein Lift, mit einem kleinen Ruckeln. Die ersten Eindrücke beruhigen. Schalten? Da gibt‘s genug Humanoide, die das schlechter machen. Lenken? Wirkt gefühlvoll und entspannt. Beschleunigen? Tut der ADD fast sportlich. Aber wir sind ja auch auf einer Rennstrecke.

© Wolfgang Wachmann / VIRTUAL VEHICLE

Das autonome Auto des VIRTUAL VEHICLE Forschungszentrums Graz kommt bereits nah an Level vier heran

Doch unerwartet bekommt die Gemütlichkeit Risse. Das System schlägt das Lenkrad heftig ein, gibt Gas, hält Spur, biegt ab. Der Grund für das Manöver: drei kaum sichtbare Mini-Hütchen auf der Strecke, die das Team von VIRTUAL VEHICLE als Sonderprüfung arrangiert hat. Der Mitfahrer (oder heißt das bereits: User?) merkt sie erst, als alles vorbei ist. Der autonome Ford umfährt die Hindernisse souverän. „Das war jetzt wirklich eine schwierige Aufgabe“, bestätigt der Techniker, der als Aufsichtsperson und menschliches Backup in einem mitfährt. Gut, dass er das erst jetzt sagt. In die Box findet das Auto natürlich auch zurück. Und bleibt mit einem minimalen Ruckeln stehen, wie ein Lift.

Extravagantestes Auto der Welt

Für Daniel Watzenig sind Szenen dieser Art Arbeitsalltag. Watzenig hält seit Kurzem eine Stiftungsprofessur zum Thema autonomes Fahren an der TU Graz – Stifter sind AVL, Infineon und das F&E Zentrum Virtual Vehicle. In seinem Büro im Süden der Stadt erklärt er, was den ADD-Ford zu einem der technisch extravagantesten Fahrzeuge der Welt macht. „Auf diesem Auto finden Sie wirklich alles, was derzeit die Entwicklung des autonomen Fahrens vorantreibt.“

Konkret sind das Sensoren, spezielle Kameras, in die Bilderkennungssoftware bereits eingebaut ist, GPS-Systeme, die das Fahrzeug auf Zentimeter genau verorten können, und eine Plattform, in der jene Daten, die das Fahrzeug in gigantischer Menge generiert, verarbeitet werden.

Viele der Neuerungen kommen aus Österreich. Infineon Austria etwa arbeitet an jenen Sensoren, die im ADD für Orientierung sorgen. Als Integrator ist Bosch dabei, die Chips selbst befinden sich noch im Prototypen-Stadium. Die Erwartungen an sie sind groß: Die Time-of-Flight-Chips von Infineon helfen dem ADD-Auto, Bilder zu generieren, die auch Tiefeninfos beinhalten.

Bislang wurde das Problem der Tiefe mit zwei Stereokameras gelöst – ein Weg, der jenem ähnelt, auf dem auch das zweiäugige Wesen Mensch zu seinen Tiefeneindrücken kommt. Gegenüber der Kamera-Methode haben Time-of-Flight-Chips einen großen Vorteil: Sie funktionieren auch in Mono. Und brauchen wenig Platz.

Sensoren im Inneren

„Time-of-Flight-Technologie eignet sich vor allem dazu, um das direkte Umfeld sichtbar zu machen“, erklärt TU-Professor Watzenig. Das Einsatzfeld solcher Sensoren sei daher gar nicht so sehr außerhalb des Autos, sondern vielmehr in seinem Inneren. Dort braucht es die Sensoren spätestens, wenn Level drei serientauglich wird. Auf Level drei fährt das Auto bereits selbst, nur in schwierigeren Situationen übergibt es aber an den Fahrer. „Bei diesen Hand- over- bzw. Take-over-Szenarien ist es wichtig, dass der Computer weiß, was der Mensch im Auto gerade tut und ob er überhaupt in der Lage ist, das Steuer wieder zu übernehmen. Das lässt sich recht gut anhand von Aufnahmen der Körperposition beurteilen, die die Time-of-Flight-Sensoren erzeugen“, sagt Watzenig. Merkt das Fahrzeug, dass der Fahrer, etwa wegen Bewusstlosigkeit, unfähig ist selber zu lenken, leitet es eine Bremsung ein.

Die Daten, die das System während des Fahrer-Monitorings generiert, werden übrigens nicht gespeichert, sondern sofort wieder gelöscht. Nicht nur, weil sie personenbezogen sind, sondern auch weil so Rechnerkapazitäten gespart werden können. Immerhin erzeugt das am Red-Bull-Ring präsentierte Auto pro Fahrsekunde ca. 70 Megabyte Daten. Verarbeitet werden sie auf einer NVIDIA-Plattform, die je nach Anzahl und Art der eingesetzten Sensoren pro Stunde 1-4 Terabyte an Daten bewältigen muss.

© VIRTUAL VEHICLE

Vollgepackt mit Sensoren: Künftig werden Autos das direkte Umfeld besser wahrnehmen

Lange Sicht

Während die Time-of-Flight- Chips zur Überwachung der unmittelbaren Umgebung dienen, erreichen die – ebenfalls von Infineon entwickelten – Solid-State-Lidar-Sensoren Reichweiten von bis zu 300 Meter. Das Prinzip, nach dem sie arbeiten, ist jenem von Radar ähnlich, statt Mikrowellen werden aber zur Abstandsmessung Laserstrahlen verwendet.

Bilder, die beide Systeme, Lidar und Radar, erzeugen, ergänzen einander perfekt: Lidar liefert sehr gute Auflösung, versagt aber bei schlechten Lichtverhältnissen, etwa wenn die ausgesandten Strahlen von Schneeflocken reflektiert werden. Radar wiederum lässt sich durch Reflexe verwirren, die von metallischen Gegenständen stammen. Leitplanken gehören daher nicht zu seinen besten Freunden.

Ebenfalls an Bord des ADD sind Ultraschallsensoren und natürlich auch Kameras. „Beim autonomen Fahren geht es ja darum, ein robustes und hochredundantes System aufzubauen, das auch dann funktioniert, wenn Komponenten ausfallen. Das Auto soll dann ja immer noch sicher fahren können“, erklärt Watzenig.

Und es soll nicht nur wissen, was in seiner Umgebung passiert, es soll auch permanent seine Position bestimmen. Und zwar auf Zentimeter genau. Gängige GPS-Empfänger, wie sie in Consumer-Geräten verbaut werden, schaffen eine Genauigkeit von zehn, bestenfalls fünf Metern. So breit ist eine Straße allerdings selten.

Differential GPS, die mit zwei Antennen ausgestattet sind, arbeiten deutlich akkurater. Sie erreichen mithilfe von Korrekturdaten einer GPS-Basisstation eine Genauigkeit von wenigen Zentimetern. Ein System, das solche Signale verarbeitet und das Auto auf fünf Zentimeter genau ortet, liefert für das ADD des VIRTUAL VEHICLE Forschungszentrums das steirische Unternehmen Dewetron.

Mit Daten gefüttert

Und dann gibt es noch die Sache mit Machine Learning. Um die empfangenen Daten interpretieren zu können, muss ein autonom fahrendes System zunächst einmal mit Unmengen davon gefüttert werden. In den USA werden Zulassungen für Testfahrten, auf denen das geschieht, relativ großzügig vergeben. In Europa nicht. Weshalb die absurde Situation entsteht, dass die Europäer zwar vielfach die bessere Technik haben, als Pionierland des autonomen Fahrens aber den- noch die Vereinigten Staaten gelten, weil es dort leichter ist, die autonomen Autos bei Fahrten auf öffentlichen Straßen zu trainieren.

In der ALP.Lab-Testregion in der Steiermark und Salzburg wurden zwar inzwischen mehrere Abschnitte der A9, der A2 und Teile von Schnellstraßen für Testfahrten freigegeben, doch ausreichend Input, um autonome Autos zu trainieren, kann auf diese Weise nicht entstehen. Weshalb zunehmend Methoden zum Einsatz kommen, bei denen die Fahrzeuge, ohne selbst im Fahrbetrieb zu sein, anhand von Daten anderer Fahrzeuge lernen. Kooperation der Roboter sozusagen.

https://www.youtube.com/watch?v=rKv6YFXaykk

Verwandte tecfindr-Einträge