Direkt zum Inhalt

Automatisiertes Fahren: Sensortechniken im Check

Bild: Andrey Suslov/Shutterstock.com

Automatisiertes Fahren überträgt Fähigkeiten vom menschlichen Fahrer auf technische Vorrichtungen. Um das Umfeld zu erkennen, muss eine Umfeld-Sensorik vorhanden sein, die menschliche Sinneswahrnehmung ersetzt. Software-Algorithmen zur Signalverarbeitung bereiten diese Informationen auf – für den Menschen, der teilautomatisiert fährt, oder für technische Systeme, die menschliches Handeln ersetzen/übernehmen. So wie aus dem mechanischen Schaltgetriebe und der mechanischen Bremse komplexe elektronische Einheiten geworden sind, ändern sich auch die Muskelstränge, Nervenbahnen und Gliedmaßen des Autos.

Wer über Sensortechnik spricht, denkt für die höheren Stufen automatisierten Fahrens immer auch an die komplexe Signalverarbeitung und die dafür erforderliche Rechenleistung. In diesem Sinne ist die Sensortechnik ein „Enabler“, der das Fahren sicherer und komfortabler macht. Beispielsweise können nach Angabe des PwC Insurance Monitors Abstandsregeltempomat und Auffahrkollisionswarner dabei helfen, 32 bis 82 Prozent kritischer Situationen auf Autobahnen zu vermeiden – auch wenn nur jeder zweite Autofahrer diese Systeme aktiviert hat. Die allermeisten Unfälle werden durch widrige Bedingungen oder menschliche Fehler verursacht. Sensorsysteme und automatisierte Funktionen können dabei helfen, sie zu vermeiden.

Angesichts vielfältiger Umweltprobleme nicht zu unterschätzen: Sensoren und die darauf basierenden Fahrerassistenzsysteme (FAS) machen das Fahren durch einen besseren Verkehrsfluss effizienter. CO 2 -Emissionen lassen sich so reduzieren. Die evolutionäre Weiterentwicklung des automatisierten Fahrens zum autonomen Vorgang verwandelt den aktiven, aufmerksamen Fahrer mit jedem höheren Level in einen passiven Passagier mit neuen Handlungsmöglichkeiten.

Die einzelnen Sensoren

Sensoren lassen sich unterschiedlicher Weise typisieren: nach ihrem technischen Funktionsprinzip als auch nach der angestrebten Wirkung. Sensoren zur Erfassung der Fahrdynamik registrieren kontinuierlich die Bewegungen des Fahrzeugs in den drei Achsen (längs, quer und vertikal). Indem sie beispielsweise Raddrehzahl und Lenkwinkel erfassen und auswerten, können sie gefährlichen Situationen vorbeugen oder korrigierend eingreifen. ABS, ASR, ESP und ACC sind die bekanntesten. Die sensorische Umfelderfassung konzentriert sich auf die Sektoren Fahrspur/Fahrbahnbegrenzung, Erkennung von Hindernissen und anderen Fahrzeugen.

Weitgehend durchgesetzt und etabliert haben sich Kamera, Radar, Ultraschall- und Laser-/Lidarsensoren. Einzeln und im Verbund erkennen sie problematische Fahrsituationen, warnen vor plötzlich auftauchenden Hindernissen und erleichtern alltägliche Vorgänge wie das Einparken.

Kamera, Radar, Infrarot – wo liegen Stärken, Schwächen, Grenzen der Sensortechniken? Wie werden diese weiterentwickelt? Und welche neuen Arten der Sensortechnik gibt es?

Kameras liefern mit ihren optischen Informationen eine wertvolle Unterstützung für Fahrer. Durch die Zusammenführung der Bilder mehrerer Kameras lässt sich eine dreidimensionale Darstellung erzeugen. Frontkameras haben eine Reichweite von 100 bis 240 Metern und liefern die vielfältigsten Informationen von der Markierung der Fahrspur bis zur Verkehrszeichenerkennung. Sie können auch sich bewegende Objekte wie Fußgänger oder Radfahrer erkennen, um Abstände einzuhalten und im Gefahrenfall eine Notbremsung einzuleiten. Kameras im Innenraum können beispielsweise erkennen, ob der Fahrer müde oder abgelenkt ist.

Simple Monokameras, günstig und mit besserer Auflösung als Stereokameras, können im Zusammenwirken mit Radar und Software auch dreidimensionale und 360-Grad-Bilder liefern. Kameras liefern schwächere Resultate bei Dunkelheit oder schlechten Wetterbedingungen, etwa bei Nebel, sie bieten jedoch hohe Erkennungsraten und eine hohe Winkelauflösung. Mit steigender Rechenleistung und verbesserter Bildverarbeitung werden in Kameras auch höher auflösende Sensoren eingesetzt.

Radarsysteme, früher mit 24 und heute meist mit 77 GHz, erlauben genaue Geschwindigkeits- und Entfernungsmessungen – auch bei hoher Geschwindigkeit des Fahrzeugs, aber keine hohe Winkelauflösung. Sie dienen beispielsweise zur Kollisionsvermeidung. Zu ihren Stärken gehört die Wetterunabhängigkeit. Sie sind kostengünstig, robust und haben eine kompakte Bauform. Neben dem Nahbereichsradar zur Erkennung von Objekten bis 30 Metern Entfernung gibt es mid-range- und long-range-Systeme mit maximal 250 Metern Reichweite.

Lidar hat sich noch nicht durchgesetzt, gewinnt aber an Bedeutung für Fahrassistenzsysteme. Lidar steht für „Light Detection and Ranging“ und basiert ebenfalls auf einem Laser. Es misst Entfernungen zu ruhenden und bewegten Objekten und liefert dreidimensionale Bilder von erkannten Objekten. Dabei werden Laser mit rotierenden Spiegeln zunehmend durch „Solid State“-Lidar ersetzt. Ein Dioden-Array, digital gesteuert, ersetzt die beweglichen Teile. Anders als ‚normale’ Laser arbeiten Lidar-Systeme nicht mit Mikrowellen, sondern mit Lichtpulsen aus den Bereichen des nicht sichtbaren Lichts (nahes Infrarot, typisch sind 905 Nanometer Wellenlänge). Sie haben unter guten Witterungsbedingungen eine Reichweite von bis zu 200 Metern, bieten eine hohe Winkelauflösung und können 360 Grad abdecken. Radar und Lidar ergänzen einander gut.

Ultraschallsensoren sind weit verbreitet und dienen als Einparkhilfe. Als Spezialisten für den Nahbereich sind sie für die Automatisierung des Fahrens nicht an erster Stelle von Belang. Ultraschallsensoren messen die Entfernung zum nächsten Objekt, indem sie die Laufzeit reflektierter Schallimpulse messen, die sie ausgesandt haben. Als Park- und Totwinkelassistent haben sie sich seit langem bewährt. Ihre Vorteile: Sie sind kompakt und robust und zudem sehr günstig. Sie arbeiten auch bei Nacht und ohne Beeinträchtigung etwa bei Nebel, allerdings nicht sehr zuverlässig bei Schnee und sind unbrauchbar für größere Distanzen.

Im Trend liegen Multisensoren, also die baulich vereinigte Kombination mehrerer Sensoren in einem Gerät, und die Sensordatenfusion. Beide Ansätze bieten Lösungen für spezielle Funktionen, wobei die zweite variabler und auch lernfähiger sein dürfte. Sensoren zur Umfeld-Erkennung des Fahrzeugs haben in den vergangenen Jahren deutlich an Leistung zugelegt. Gleichzeitig sind sie kostengünstiger geworden. Ein zweiter Aspekt ist eng damit verknüpft: Leistungsstarke Steuergeräte stützen den Trend zum automatisierten Fahren beziehungsweise zur Verlagerung von Aufgaben an automatisiert arbeitende Systeme.Sensordatenfusion und Multisensor-Lösungen beschleunigen diese Entwicklung. Sie werden günstiger, sind kompakter, arbeiten energieeffizient und erzielen eine hohe Genauigkeit der Detektion. Entstehende Redundanzen, also die teilweise Überlagerung von Ergebnissen der Umfeld-Erkennung sind ausdrücklich erwünscht. Experten erwarten für die Zukunft einhellig einen je nach Automatisierungsgrad und Fahrzeugklasse spezialisierten Sensor-Mix – meist eine Kombination aus Radar, Kamera und Lidar.

In allen Indizes zur Bewertung rangieren deutsche Unternehmen auf den vorderen Plätzen. Start-ups und eine rege Forschungslandschaft komplettieren das Bild. Das Innovationstempo ist hoch, die technische Komplexität ebenfalls. Hersteller und Zulieferer setzen auf Kooperationen, viele Prozesse laufen längst branchen- und länderübergreifend.

Sensorik und Rechenleistung sind grundsätzlich vorhanden, im Mittelpunkt des Interesses stehen jetzt Algorithmen und Software, um die höchsten Level automatisierten Fahrens zu erklimmen.

Autor: Günter Eymann

Artikel teilen