Header

Shop : Details

Shop
Details
978-3-8440-0787-9
49,80 €
ISBN 978-3-8440-0787-9
Paperback
202 Seiten
122 Abbildungen
302 g
21 x 14,8 cm
Englisch
Dissertation
Februar 2012
Oliver Lottner
Investigations of Optical 2D/3D Imaging with Different Sensor and Illumination Configurations
Optische 2D-Bildverarbeitssysteme sind heutzutage in den verschiedensten Industriezweigen etabliert. Allerdings liefern 2D-Kameras lediglich eine flache Abbildung der Szene. Auf der anderen Seite erzeugen die ebenfalls etablierten klassischen Abstandssensoren (z.B. Triangulatoren) keine räumlich und zugleich zeitlich zusammenhangenden Tiefenbilder. Während die letztgenannte Anforderung von optischen 3D-Kameras, die auf dem Phasenlaufzeitverfahren basieren, erfüllt wird, ist deren räumliche Auflosung gegenüber 2D-Sensoren um ein bis zwei Größenordnungen geringer und Farbinformationen sind nicht verfügbar.
Die Fusion von 2D- und 3D-Sensoren hat sich jedoch in der jüngsten Vergangenheit als vielversprechend erwiesen, um die Vorteile beider Sensorarten zu vereinen. Im Allgemeinen wird dazu ein binokularer Aufbau mit zwei disjunkten Kameras verwendet. Daraus ergeben sich Parallaxeneffekte und die zeitliche Synchronisierung ist ungenau. Aus diesen Gründen wird in dieser Arbeit eine monokulare 2D/3D-Kamerasystemplattform mit einem Strahlteiler vorgestellt und systematisch untersucht.
Diese Art von Aufbau schafft auf der einen Seite neue Möglichkeiten im Bereich dynamischer Anwendungen und Multi-Beleuchtungsszenarien und auf der anderen Seite werden einige Untersuchungen hinsichtlich systematischer Einflusse auf die Tiefenmessung wesentlich vereinfacht oder überhaupt erst ermöglicht.
In dieser Arbeit wird zunächst der optische Aufbau insbesondere in Hinblick auf die Filtercharakteristika untersucht, woraus sich ein C-Mount-Aufbau mit Bauernfeind-Prisma als Optimum ergibt. Im nächsten Schritt werden die systematischen Messabweichungen untersucht, wobei das hier hergeleitete Modell so ausgelegt ist, dass es für Multi-Beleuchtungsszenarien ebenfalls verwendet werden kann.
Eine nähere Untersuchung der räumlichen Registrierung zeigt, dass diese unabhängig von der Tiefe ist, was den Rechenaufwand und die Fehleranfälligkeit gegenüber binokularen Aufbauten signifikant reduziert. In Kombination mit der präzisen zeitlichen Synchronisierung auf Phasenbildebene ergibt dies Vorteile in dynamischen Umgebungen; so können die durch Bewegungen zwischen den Phasenbildern induzierten Bewegungsartefakte durch die Verwendung der zusätzlichen 2D-Daten erkannt und teilweise eliminiert werden.
Durch den Austausch des 2D- durch einen weiteren 3D-Sensor ergibt sich eine monokulare 3D/3D-Kamera, die Bewegungsartefakte prinzipbedingt umgeht. Überschreitungen des dem Phasenlaufzeitverfahren inhärenten Eindeutigkeitsbereichs können mit Hilfe der hochaufgelösten Intensitätsbilder besser aufgelöst werden. Schließlich werden Möglichkeiten gezeigt, für bestimmte Anwendungsszenarien mit mehreren Laufzeitkameras bzw. mehreren modulierten Beleuchtungen bei Beachten einiger Restriktionen Reichweiten oder Sichtfelds-optimierte Ergebnisse zu erhalten.
Schlagwörter: Time-Of-Flight Imaging; multi-spectral; monocular
ZESS-Forschungsberichte
Herausgegeben von Prof. Dr.-Ing. habil. Otmar Loffeld und Prof. Dr.-Ing. Hubert Roth, Siegen
Band 29
Export bibliographischer Daten
Shaker Verlag GmbH
Am Langen Graben 15a
52353 Düren
  +49 2421 99011 9
Mo. - Do. 8:00 Uhr bis 16:00 Uhr
Fr. 8:00 Uhr bis 15:00 Uhr
Kontaktieren Sie uns. Wir helfen Ihnen gerne weiter.
Social Media