Ein neuartiges Radarsystem namens EyeDAR könnte selbstfahrenden Autos zusätzliche Augen verleihen, indem es Straßenlaternen und Stoppschilder in intelligente, sprechende Sensoren verwandelt. Ingenieure der Rice University erklären, dass die energiesparenden Geräte autonomen Fahrzeugen helfen könnten, um Ecken, bei schlechtem Wetter und außerhalb ihrer eigenen toten Winkel zu sehen.
Selbstfahrende Autos könnten schon bald Unterstützung von der Straße selbst erhalten.
Ingenieure der Rice University, unter der Leitung des Postdoktoranden Kun Woo Cho, haben einen energiesparenden Radarsensor namens EyeDAR entwickelt, der an Straßenlaternen, Ampeln und anderen Einrichtungen am Straßenrand angebracht werden kann, um autonomen Fahrzeugen eine klarere und breitere Sicht auf ihre Umgebung zu ermöglichen.
EyeDAR ist etwa so groß wie eine Orange und wurde für die Verwendung mit den in vielen autonomen Fahrzeugen und Fahrzeugen mit Fahrerassistenzsystemen bereits integrierten Radarsystemen entwickelt. Das Gerät ist oberhalb und seitlich der Straße angebracht und kann Radarreflexionen erfassen, die die fahrzeugeigenen Sensoren nicht erfassen, und diese Informationen in Echtzeit an das Fahrzeug zurücksenden.
Ziel ist es, gefährliche tote Winkel zu reduzieren – wie zum Beispiel einen Fußgänger, der hinter einem Lastwagen hervortritt, einen Radfahrer, der sich in einem ungünstigen Winkel nähert, oder ein Auto, das sich langsam von einer Kreuzung vorwärts bewegt – insbesondere in stark frequentierten Stadtgebieten und bei schlechtem Wetter.
Aktuelle kamera- und laserbasierte Systeme stoßen bei suboptimalen Bedingungen an ihre Grenzen.
„Aktuelle Fahrzeugsensorsysteme wie Kameras und Lidar stoßen bei schlechten Sichtverhältnissen, wie sie beispielsweise durch Regen, Nebel oder schwache Lichtverhältnisse auftreten, an ihre Grenzen“, erklärte Cho, der im Labor von Ashutosh Sabharwal, Ernest Dell Butcher Professor für Ingenieurwesen und Professor für Elektrotechnik und Informatik an der Rice University, arbeitet, in einer Pressemitteilung. „Radar hingegen arbeitet zuverlässig bei allen Wetter- und Lichtverhältnissen und kann sogar durch Hindernisse hindurchsehen.“

Bildunterschrift: Kun Woo Cho hält einen EyeDAR-Sensorprototyp in der reflexionsarmen Kammer, in der er getestet wird.
Kredit: Foto von Jared Jones/Rice University
Cho präsentierte die Arbeiten at HotMobile, der Internationale Workshop über mobile Computersysteme und Anwendungen, der Ende Februar in Atlanta stattfand.
Radar funktioniert, indem es Radiowellen aussendet und die von Objekten reflektierten Echos empfängt. Doch nur ein kleiner Teil des Signals kehrt zur Quelle zurück. Der größte Teil wird in andere Richtungen gestreut und enthält dabei nützliche Informationen, die ein einzelnes Radargerät in einem Auto niemals erfassen kann.
EyeDAR ist so konzipiert, dass es dort eingesetzt werden kann, wo diese „verlorenen“ Signale verloren gehen.
Der Sensor wird an bestehender Infrastruktur wie Ampeln, Stoppschildern oder Straßenlaternen montiert, erfasst Streuradarreflexionen und ermittelt deren Ursprung. Anschließend übermittelt er diese Richtungsinformation an das Fahrzeug, das den ursprünglichen Radarimpuls ausgesendet hat.
„Es ist, als würde man den Radarsystemen in Fahrzeugen ein weiteres Augenpaar hinzufügen“, fügte Cho hinzu.
Um dies ohne sperrige Hardware oder rechenintensive Anwendungen zu realisieren, ließ sich das Team der Rice University von der Biologie inspirieren. Das Design von EyeDAR ist dem menschlichen Auge nachempfunden und besteht aus zwei Hauptkomponenten, die zusammenarbeiten.
An der Vorderseite befindet sich eine 3D-gedruckte Luneberg-Linse aus Harz. Ähnlich der Augenlinse bündelt sie einfallende Signale aus beliebiger Richtung auf einen bestimmten Punkt auf der gegenüberliegenden Seite. Dahinter sitzt ein Antennenring, der wie eine Netzhaut funktioniert und den Auftreffpunkt des fokussierten Signals erfasst, um so dessen Richtung zu bestimmen.
Anstatt auf große Antennenarrays und komplexe Software zur Winkelberechnung angewiesen zu sein, nutzt EyeDAR seine physische Struktur, um einen Großteil der Arbeit zu erledigen. Die Linse selbst führt das sogenannte „analoge Rechnen“ durch und formt und leitet die Wellen, bevor diese überhaupt einen Prozessor erreichen.
„Unsere Linse besteht aus über 8,000 einzigartig geformten, extrem kleinen Elementen mit unterschiedlichem Brechungsindex“, fügte Cho hinzu.
Durch die präzise Anordnung dieser winzigen Elemente entwickelten die Forscher eine Linse, die einfallende Radarwellen gezielt bündelt und kanalisiert, um sie an den richtigen Punkt auf der Antennenanordnung zu lenken. Laut Rice ermöglichte dieser Ansatz EyeDAR in Tests, die Richtung von Zielen mehr als 200-mal schneller zu bestimmen als herkömmliche Radarsysteme.
Geschwindigkeit und Effizienz sind entscheidend, da die Peilung zu den energie- und datenintensivsten Teilen der Radarverarbeitung zählt. Die Auslagerung dieser Aufgabe auf die Hardware selbst könnte den Einsatz vieler Sensoren in einer Stadt ohne enorme Energie- und Rechenkosten ermöglichen.
EyeDAR kommuniziert auch auf ungewöhnliche Weise. Anstatt eigene Radarimpulse auszusenden, empfängt es die Radarsignale vorbeifahrender Fahrzeuge und moduliert dann die Reflexionen.
Das Gerät schaltet schnell zwischen der Absorption einfallender Wellen und deren Rückreflexion in einem Muster um, das digitale Informationen kodiert – im Wesentlichen wird das reflektierte Signal in einen Datenstrom umgewandelt, den das Radar des Autos lesen kann.
„Wie blinkender Morsecode“, fügte Cho hinzu. „EyeDAR ist ein sprechender Sensor – es ist das erste Beispiel für die Integration von Radarsensorik und Kommunikationsfunktionen in einem einzigen Design.“
Da EyeDAR kein eigenes Radarsignal aussenden muss, kann es mit sehr geringem Stromverbrauch betrieben werden. Dadurch ist es kostengünstiger und einfacher in großer Zahl zu installieren und kann so gewöhnliche Kreuzungen in intelligente Verkehrsknotenpunkte verwandeln, die zur Verkehrskoordination beitragen und schwächere Verkehrsteilnehmer schützen.
Das Team konzentriert sich zwar auf autonome Fahrzeuge, doch die Technologie hat weitaus größeres Potenzial. Ähnliche Sensoren könnten in Lieferroboter, Drohnen oder sogar tragbare Geräte integriert werden und ihnen so ein besseres Umgebungsbewusstsein ermöglichen. Netzwerke von EyeDAR-Einheiten könnten zudem Informationen untereinander austauschen, sodass jedes Gerät weit über sein eigenes Sichtfeld hinaus „sehen“ kann.
Für Cho ist das Projekt auch ein Statement darüber, wohin sich die Computertechnologie entwickelt. Da Roboter, Autos und andere autonome Systeme in den Alltag vordringen und direkt mit Menschen interagieren, argumentiert sie, dass ein intelligentes physisches Design die Fortschritte in der künstlichen Intelligenz und Software ergänzen muss.
„EyeDAR ist ein Beispiel für das, was ich gerne als ‚analoges Rechnen‘ bezeichne“, fügte Cho hinzu. „In den letzten zwei Jahrzehnten konzentrierte man sich auf die digitale und softwareseitige Seite der Datenverarbeitung, während die analoge Hardwareseite vernachlässigt wurde. Ich möchte diesen bisher vernachlässigten Bereich des analogen Designs erkunden.“
Zu den nächsten Schritten gehören die Verfeinerung des Designs, das Testen von EyeDAR in realitätsnäheren Verkehrsszenarien und die Untersuchung, wie viele Sensoren benötigt würden – und wo diese platziert werden sollten –, um einen spürbaren Unterschied in der Sicherheit zu erzielen.
Wenn sich das Konzept bewährt, werden die selbstfahrenden Autos von morgen möglicherweise nicht mehr allein navigieren. Sie könnten Teil eines größeren, kooperativen Sensornetzwerks sein, wobei die Straße selbst im Hintergrund beobachtet, mitdenkt und ihnen hilft, Gefahren auszuweichen.
Quelle: Rice University
