Hesai stellt mit dem neuen LiDAR‑Chip und der Plattform ETX eine Technologie vor, die das Verständnis dessen, wie Fahrzeuge ihre Umgebung „sehen“, grundlegend verändern könnte. Als Beobachter aus München finde ich besonders spannend: Nicht nur mehr Reichweite oder höhere Punktdichte, sondern die Integration von Farbinformationen in die LiDAR‑Punktwolke – eine echte Weiterentwicklung gegenüber klassischen 3D‑Systemen. Im Folgenden ein technischer Blick auf das, was der SPAD‑SoC (Picasso) und die ETX‑Plattform bieten und welche Folgen das für ADAS‑Systeme und die Entwicklung hin zu Level‑3‑Autonomie haben kann.
Vom 3D‑LiDAR zum 6D‑LiDAR: Was bedeutet „in Farbe sehen“?
Traditionelle LiDAR‑Systeme liefern räumliche Informationen: X, Y, Z – Entfernung und Geometrie. Kameras ergänzen Farbe und Textur, doch die Fusion beider Sensorwelten ist komplex und anfällig für Fehler, etwa bei Blendung oder schlechter Sicht. Hesai geht den umgekehrten Weg: Der SPAD‑SoC erfasst nicht nur Distanzdaten, sondern zusätzlich RGB‑Informationen pro Messpunkt. So entsteht eine „6D“‑Punktwolke (3D + RGB), die Objekte detaillierter charakterisiert – etwa die Unterscheidung zwischen einem roten Ampellicht und einem reflektierenden Kantenschild, ohne auf Kamera‑Daten angewiesen zu sein.
Technik im Kern: SPAD‑SoC und photonische Sensortechnik
Der Picasso‑Chip basiert auf SPAD‑Detektoren (Single‑Photon Avalanche Diodes) kombiniert mit Time‑of‑Flight‑Messung. SPADs sind extrem lichtempfindlich und detektieren einzelne Photonen; das erhöht die Leistungsfähigkeit bei Dämmerlicht und widrigen Witterungsbedingungen. Die Kombination aus hoher Lichtempfindlichkeit und präziser Laufzeitmessung ermöglicht:
Diese photonischen Fortschritte erlauben dem LiDAR, nicht nur „wo“ etwas ist, sondern auch „wie“ es optisch aussieht, was die Klassifikation von Objekten vereinfacht.
ETX‑Plattform: Dichte, Reichweite und Skalierbarkeit
Die Plattform ETX ergänzt den SPAD‑SoC mit flexiblen Konfigurationsoptionen – bis zu 4.320 Scanlinien sind möglich. Mehr Linien bedeuten eine viel dichtere Punktwolke: Konturen werden klarer, kleine Details abgebildet, und Klassifikationsalgorithmen erhalten reichhaltigere Eingangsdaten. Hesai nennt eine maximale Reichweite von bis zu 600 Metern – in Kombination mit hoher Linienzahl ergeben sich Vorteile insbesondere für Autobahn‑Szenarien und frühe Erkennung von Hindernissen.
Welche Verbesserungen bringen diese Daten für ADAS und Level‑3?
Level‑3‑Autonomie erfordert eine zuverlässige und redundante Wahrnehmung. Die Farb‑LiDAR‑Daten bieten mehrere Vorteile:
Kurz: Die Farbinformation macht die Punktwolke „semantischer“ und erlaubt schnellere, plausiblere Entscheidungen der Perzeptions‑ und Planungssoftware.
Fusion vs. Ersatz: Wird die Kamera überflüssig?
Nein – die Kamera bleibt wichtig. Ein 6D‑LiDAR reduziert jedoch die Abhängigkeit von komplexer und rechenintensiver Sensorfusion, weil viele visuelle Merkmale direkt aus der LiDAR‑Datenstruktur kommen. Das erhöht die Redundanz: Fällt die Kamera kurzfristig aus (Blendung, Verschmutzung), bleiben gewichtige visuelle Hinweise erhalten. Für die Systemarchitektur bedeutet das mehr Robustheit und geringere Latenz bei der Entscheidungsfindung.
Herausforderungen für Integration und Serienreife
Trotz der vielversprechenden Eigenschaften bestehen technische und wirtschaftliche Hürden:
Praktischer Nutzen auf unseren Straßen in Bayern
Auf Landstraßen und in bergigen Regionen kann die Kombination aus Reichweite und Farbinformation ein echter Sicherheitsgewinn sein: Früherkennung von Wild, bessere Unterscheidung temporärer Verkehrsschilder bei Baustellen oder kontrastärmere Situationen bei Dämmerung. Auf Autobahnen erhöht sich der Sicherheitsrahmen durch frühere Erkennung von verunfallten Fahrzeugen oder Trümmern.
Zeithorizont und Ausblick
Hesai plant die Produktion und Integration zwischen 2027 und 2028 – Hersteller stehen offenbar in Verhandlungen. Sollte die Industrie diese Technik massentauglich machen, könnten LiDAR‑Sensoren mit Farbwahrnehmung in einigen Jahren zum Standard in höherwertigen ADAS‑Stufen avancieren. Der Wandel wäre nicht nur technischer, sondern auch organisatorischer Natur: Testprozesse, Datenstandards und Zertifizierungsverfahren müssen angepasst werden.
Als Technik‑Interessierter finde ich die Entwicklung spannend: Der Schritt, LiDAR‑Daten semantisch zu bereichern, ist logisch und kann die Robustheit autonomer Systeme deutlich erhöhen. Für unsere Straßen in Deutschland heißt das: Mehr Sicherheitspotenzial – vorausgesetzt, die Industrie meistert die Herausforderungen von Kosten, Energie und Integration.
