Objekterkennung: So funktioniert die 3D-Erkennung per Time of Flight

3D-Sensoren stecken im Smartphone, Auto und autonomen Roboter. Sind Genauigkeit und Schnelligkeit gefordert, greifen Entwickler meist zu Time-of-Flight-Kameras.

Artikel verschenken
In Pocket speichern vorlesen Druckansicht
So funktioniert die 3D-Erkennung per Time of Flight

Ein typisches ToF-Kameramodul fürs Smartphone, hier von LG Innotek.

(Bild: LG Innotek)

Lesezeit: 10 Min.
Inhaltsverzeichnis

Um Objekte, Gesichter oder potenzielle Hindernisse zu erkennen, benötigen Mobilgeräte, Fahrzeuge und Roboter ein dreidimensionales Abbild ihrer Umgebung. Solche Tiefenbilder lassen sich mit dem passiven Stereoverfahren erzeugen, das ähnlich wie das menschliche Sehen mit zwei Augen beziehungsweise Kameras funktioniert. Aktive Stereoverfahren projizieren ein Muster und werten entweder die Stereobilder mit zwei Kameras aus oder ermitteln Störungen des Musters durch Objekte im reflektierten Bild; hierfür benötigen sie nur eine Kamera, das kalibrierte Muster ersetzt die zweite. Dieses Prinzip steckt zum Beispiel hinter vielen RealSense-Sensoren von Intel. Beide Stereoverfahren ermitteln die Distanz zu einem Objekt per Triangulation. Bei Time of Flight (ToF) wertet man dagegen die Laufzeit der Lichtstrahlen aus, um Abstände zu errechnen.

Das sinngemäß mit "Lichtlaufzeitverfahren" übersetzte Time of Flight funktioniert bestechend einfach: Ein Infrarot-Laser- oder -LED-Lichtstrahl wird auf ein Objekt gerichtet, an dessen Oberfläche reflektiert und in einem dicht neben der Lichtquelle sitzenden Sensor wieder aufgefangen. Die Zeit, die das Licht zum Objekt und wieder zurück benötigt, ist direkt proportional zur Entfernung des Objekts. Über die Lichtgeschwindigkeit lässt sich auf diese Weise sehr einfach der Abstand zu Objekten ermitteln und damit eine Tiefenkarte der Umgebung erstellen.

Der Rechenaufwand für das ToF-Verfahren ist gering, die Genauigkeit hoch, die Messung erfolgt in Echtzeit, ist weitgehend unempfindlich gegenüber Störlicht und sowohl für sehr kleine als auch für sehr große Distanzen nutzbar. Das unterscheidet ToF wesentlich von den Stereo-Verfahren. So scheitert das passive 3D mit zwei Kameras beispielsweise an homogenen Texturen (etwa weißen Wänden) und funktioniert nicht in dunkler Umgebung, weil dann keine Referenzpunkte erkannt werden. Die strukturierte Lichtprojektion des aktiven 3D wird bei sehr großen Distanzen zu weit aufgefächert, was zu ungenauen Ergebnissen bei der Triangulation führt; auch helles Sonnenlicht beeinträchtigt diese Messvariante.