LiDAR‑Revolution: Diese neue 6D‑Technologie lässt Autos Farben „sehen“ – macht das autonomes Fahren endlich sicher?

LiDAR‑Revolution: Diese neue 6D‑Technologie lässt Autos Farben „sehen“ – macht das autonomes Fahren endlich sicher?

Hesai stellt mit dem neuen LiDAR‑Chip und der Plattform ETX eine Technologie vor, die das Verständnis dessen, wie Fahrzeuge ihre Umgebung „sehen“, grundlegend verändern könnte. Als Beobachter aus München finde ich besonders spannend: Nicht nur mehr Reichweite oder höhere Punktdichte, sondern die Integration von Farbinformationen in die LiDAR‑Punktwolke – eine echte Weiterentwicklung gegenüber klassischen 3D‑Systemen. Im Folgenden ein technischer Blick auf das, was der SPAD‑SoC (Picasso) und die ETX‑Plattform bieten und welche Folgen das für ADAS‑Systeme und die Entwicklung hin zu Level‑3‑Autonomie haben kann.

Vom 3D‑LiDAR zum 6D‑LiDAR: Was bedeutet „in Farbe sehen“?

Traditionelle LiDAR‑Systeme liefern räumliche Informationen: X, Y, Z – Entfernung und Geometrie. Kameras ergänzen Farbe und Textur, doch die Fusion beider Sensorwelten ist komplex und anfällig für Fehler, etwa bei Blendung oder schlechter Sicht. Hesai geht den umgekehrten Weg: Der SPAD‑SoC erfasst nicht nur Distanzdaten, sondern zusätzlich RGB‑Informationen pro Messpunkt. So entsteht eine „6D“‑Punktwolke (3D + RGB), die Objekte detaillierter charakterisiert – etwa die Unterscheidung zwischen einem roten Ampellicht und einem reflektierenden Kantenschild, ohne auf Kamera‑Daten angewiesen zu sein.

Technik im Kern: SPAD‑SoC und photonische Sensortechnik

Der Picasso‑Chip basiert auf SPAD‑Detektoren (Single‑Photon Avalanche Diodes) kombiniert mit Time‑of‑Flight‑Messung. SPADs sind extrem lichtempfindlich und detektieren einzelne Photonen; das erhöht die Leistungsfähigkeit bei Dämmerlicht und widrigen Witterungsbedingungen. Die Kombination aus hoher Lichtempfindlichkeit und präziser Laufzeitmessung ermöglicht:

  • Erhöhung der Reichweite bei zugleich feinerer Auflösung;
  • robustere Erkennung kleiner Objekte auf größere Distanzen;
  • bessere Performance bei Regen, Nebel oder Nacht.
  • Diese photonischen Fortschritte erlauben dem LiDAR, nicht nur „wo“ etwas ist, sondern auch „wie“ es optisch aussieht, was die Klassifikation von Objekten vereinfacht.

    ETX‑Plattform: Dichte, Reichweite und Skalierbarkeit

    Die Plattform ETX ergänzt den SPAD‑SoC mit flexiblen Konfigurationsoptionen – bis zu 4.320 Scanlinien sind möglich. Mehr Linien bedeuten eine viel dichtere Punktwolke: Konturen werden klarer, kleine Details abgebildet, und Klassifikationsalgorithmen erhalten reichhaltigere Eingangsdaten. Hesai nennt eine maximale Reichweite von bis zu 600 Metern – in Kombination mit hoher Linienzahl ergeben sich Vorteile insbesondere für Autobahn‑Szenarien und frühe Erkennung von Hindernissen.

    Welche Verbesserungen bringen diese Daten für ADAS und Level‑3?

    Level‑3‑Autonomie erfordert eine zuverlässige und redundante Wahrnehmung. Die Farb‑LiDAR‑Daten bieten mehrere Vorteile:

  • Direktere Interpretation von Verkehrszeichen und Ampeln ohne alleinige Kamerafusion;
  • reduzierte Fehlklassifikationen bei reflektierenden Oberflächen;
  • bessere Erkennung von Fußgängern oder Radfahrern durch Kleidungsfarbe als zusätzliches Merkmal;
  • robustere Funktion bei schlechten Lichtverhältnissen, wenn Kameras an Grenzen stoßen.
  • Kurz: Die Farbinformation macht die Punktwolke „semantischer“ und erlaubt schnellere, plausiblere Entscheidungen der Perzeptions‑ und Planungssoftware.

    Fusion vs. Ersatz: Wird die Kamera überflüssig?

    Nein – die Kamera bleibt wichtig. Ein 6D‑LiDAR reduziert jedoch die Abhängigkeit von komplexer und rechenintensiver Sensorfusion, weil viele visuelle Merkmale direkt aus der LiDAR‑Datenstruktur kommen. Das erhöht die Redundanz: Fällt die Kamera kurzfristig aus (Blendung, Verschmutzung), bleiben gewichtige visuelle Hinweise erhalten. Für die Systemarchitektur bedeutet das mehr Robustheit und geringere Latenz bei der Entscheidungsfindung.

    Herausforderungen für Integration und Serienreife

    Trotz der vielversprechenden Eigenschaften bestehen technische und wirtschaftliche Hürden:

  • Kosten: Hohe Linienzahlen und photonische Detektoren treiben zunächst die Kosten; Volumenproduktion ist nötig, damit Preise fallen;
  • Energiebedarf: Mehr Detektion und Onboard‑Processing benötigen leistungsfähigere Elektronik und Kühlung;
  • Algorithmen: Neue Datentypen verlangen angepasste ML‑Modelle und umfangreiche Trainingsdatensätze;
  • Validierung und Normung: Die rechtliche und sicherheitsrelevante Bewertung neuer Wahrnehmungsmethoden braucht Zeit.
  • Praktischer Nutzen auf unseren Straßen in Bayern

    Auf Landstraßen und in bergigen Regionen kann die Kombination aus Reichweite und Farbinformation ein echter Sicherheitsgewinn sein: Früherkennung von Wild, bessere Unterscheidung temporärer Verkehrsschilder bei Baustellen oder kontrastärmere Situationen bei Dämmerung. Auf Autobahnen erhöht sich der Sicherheitsrahmen durch frühere Erkennung von verunfallten Fahrzeugen oder Trümmern.

    Zeithorizont und Ausblick

    Hesai plant die Produktion und Integration zwischen 2027 und 2028 – Hersteller stehen offenbar in Verhandlungen. Sollte die Industrie diese Technik massentauglich machen, könnten LiDAR‑Sensoren mit Farbwahrnehmung in einigen Jahren zum Standard in höherwertigen ADAS‑Stufen avancieren. Der Wandel wäre nicht nur technischer, sondern auch organisatorischer Natur: Testprozesse, Datenstandards und Zertifizierungsverfahren müssen angepasst werden.

    Als Technik‑Interessierter finde ich die Entwicklung spannend: Der Schritt, LiDAR‑Daten semantisch zu bereichern, ist logisch und kann die Robustheit autonomer Systeme deutlich erhöhen. Für unsere Straßen in Deutschland heißt das: Mehr Sicherheitspotenzial – vorausgesetzt, die Industrie meistert die Herausforderungen von Kosten, Energie und Integration.

    Elmer