DE102010004095A1 - Vorrichtung zur dreidimensionalen Umfelderfassung - Google Patents

Vorrichtung zur dreidimensionalen Umfelderfassung Download PDF

Info

Publication number
DE102010004095A1
DE102010004095A1 DE102010004095A DE102010004095A DE102010004095A1 DE 102010004095 A1 DE102010004095 A1 DE 102010004095A1 DE 102010004095 A DE102010004095 A DE 102010004095A DE 102010004095 A DE102010004095 A DE 102010004095A DE 102010004095 A1 DE102010004095 A1 DE 102010004095A1
Authority
DE
Germany
Prior art keywords
camera
time
infrared light
detected
flight
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102010004095A
Other languages
English (en)
Inventor
Stefan Fuchs
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deutsches Zentrum fuer Luft und Raumfahrt eV
Original Assignee
Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deutsches Zentrum fuer Luft und Raumfahrt eV filed Critical Deutsches Zentrum fuer Luft und Raumfahrt eV
Priority to DE102010004095A priority Critical patent/DE102010004095A1/de
Publication of DE102010004095A1 publication Critical patent/DE102010004095A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B13/00Optical objectives specially designed for the purposes specified below
    • G02B13/06Panoramic objectives; So-called "sky lenses" including panoramic objectives having reflecting surfaces

Abstract

Die Erfindung betrifft eine Vorrichtung (10) zur dreidimensionalen Umfelderfassung. Sie umfasst eine Kamera (12) und eine Vorrichtung (14) zum Brechen oder Reflektieren von Licht (16), das von einem zu erfassenden Objekt (18) ausgeht, in Richtung der Kamera (12). Erfindungsgemäß ist die Kamera (12) als Time-of-Flight-Kamera ausgebildet.

Description

  • Die Erfindung betrifft eine Vorrichtung zur dreidimensionalen Umfelderfassung.
  • Dreidimensionale Umfelderfassung ist in der Robotik von großer Bedeutung, beispielsweise für die Eigenlokalisierung (mobile Robotik), Navigation und Fahrtplanung, Hinderniserkennung und Objektlokalisierung, aber auch in anderen Robotikanwendungen. Üblicherweise werden für die Umfelderfassung bildgebende Systeme eingesetzt. Abhängig von den Anforderungen der jeweiligen Anwendung können das z. B. Monokameras, Stereokameras, Trifokalsensoren, Lichtschnittsensoren, Laserscanner oder Time-of-Flight-Kameras sein.
  • Unter einer dreidimensionalen Umfelderfassung wird im Sinne der vorliegenden Erfindung eine Erfassung des Umfeldes verstanden, die sowohl ein Grauwertbild als auch ein Tiefenbild liefert. Für die Erstellung eines Tiefenbildes müssen die Abstände der zu erfassenden Objekte zur Kamera ermittelt werden.
  • Besonders in der mobilen Robotik ist es wichtig, mit möglichst wenig Aufwand (d. h. Gewicht, Energieverbrauch und/oder Kosten) einen möglichst großen Messbereich mit einer hohen Abtastrate abzudecken. Als Messbereich werden 360° horizontal und vertikal und idealerweise eine Sphäre angestrebt. Eine hohe Abtastrate ist zur Erfassung von dynamischen, d. h. sich bewegenden Objekten notwendig. Weiterhin wird angestrebt, eine Erfassung des dreidimensionalen Umfeldes mit einer hohen Auflösung zu erreichen.
  • Die aus dem Stand der Technik bekannten Systeme weisen folgende Nachteile auf: Zunächst existieren rotierende Laserscanner mit einem Messbereich von maximal 270° horizontal. Laserscanner bieten den Vorteil, dass die Messungen sehr genau sind und der Messbereich mehrere 100 m betragen kann. Allerdings ist der Aufbau mit fehleranfälliger, schwerer Mechanik verbunden. Die Auflösung ist gering. Ferner wird die Umgebung nur punkt- oder linienweise abgetastet, so dass sich diese Sensoren nicht zur Erfassung von beweglichen Objekten eignen.
  • Ferner sind Mono- oder Stereokamerasysteme bekannt. Diese eignen sich aufgrund ihrer Taktrate für die Behandlung dynamischer Umgebungen. Die Entfernungen zu den zu erfassenden Objekten werden über Triangulierung von Korrespondenzen in aufeinanderfolgenden Bildern bei Verwendung einer Monokamera oder durch simultan aufgenommene Bilder bei Verwendung einer Stereokamera oder eines Trifokalsensors berechnet. Die Korrespondenzsuche ist aufwendig und rechenintensiv und zudem auf das Vorhandensein einer Textur angewiesen. Untexturierte Flächen können nicht vermessen werden.
  • Ferner sind Time-of-Flight-Kameras bekannt, die zur Entfernungsmessung gepulstes Infrarotlicht aussenden. Die Phasenverschiebung des von der vermessenen Umgebung reflektierten Lichts wird direkt auf jedem einzelnen Pixel der Kamera bestimmt und ist proportional zum zurückgelegten Weg und damit zur Entfernung des Objekts von der Kamera. Somit kann eine Time-of-Flight-Kamera ein hochaufgelöstes Tiefenbild und Grauwertbild in Videotaktrate liefern. Die Entfernungsmessung ist nicht auf das Vorhandensein einer Textur angewiesen. Der Messbereich ist abhängig von der Pulsfrequenz des Infrarotlichts und liegt in der Regel bei 7,5 m. Der Öffnungswinkel liegt bei ungefähr 50°.
  • Zur Kompensation des nicht ausreichenden Öffnungswinkels der genannten Systeme werden diese in mehrfacher Ausführung an einer mobilen Plattform angebracht. Hierbei entstehen neue Probleme, nämlich, dass die Messungen synchronisiert werden müssen und sich die Messungen insbesondere bei aktiven Systemen wie Time-of-Flight-Kameras nicht gegenseitig beeinflussen dürfen.
  • Ferner ist eine Spezialform der Monokamerasysteme, nämlich die omnidirektionale Kamera bekannt. Diese erreicht durch spezielle Weitwinkelobjektive (Fischauge) oder durch eine geeignete Spiegelanordnung, beispielsweise einen Hyperbolspiegel, einen Öffnungswinkel von nahezu 360° horizontal und vertikal.
  • Aufgabe der Erfindung ist es, eine Vorrichtung zur dreidimensionalen Umfelderfassung bereitzustellen, die einen vereinfachten Aufbau aufweist und einen möglichst großen Messbereich ermöglicht.
  • Diese Aufgabe wird gelöst durch die Merkmale des Anspruchs 1.
  • Eine Vorrichtung zur dreidimensionalen Umfelderfassung weist eine Kamera und eine Vorrichtung zum Brechen oder Reflektieren von Licht auf, das von einem zu erfassenden Objekt ausgeht. Bei dieser Vorrichtung kann es sich z. B. um einen Hyperbolspiegel oder ein Weitwinkelobjektiv handeln, wobei beim Spiegel ein Reflektieren und beim Objektiv ein Brechen des Lichts stattfindet. Dieses Licht wird in Richtung der Kamera gebrochen oder reflektiert. Bei dieser Vorrichtung handelt es sich vorzugsweise um einen Hyperbolspiegel. Erfindungsgemäß ist die Kamera als Time-of-Flight-Kamera ausgebildet.
  • Durch die Erfindungsgemäße Vorrichtung ist eine dreidimensionale Umfelderfassung mit einem großen Messbereich möglich (nahezu 360° horizontal und vertikal). Ferner kann eine hohe Abtastrate realisiert werden, so dass auch sich bewegende Objekte genau erfasst werden können. Die Verarbeitung der erfassten Daten ist weniger rechenaufwändig, da keine Triangulierung von Korrespondenzen vorgenommen werden muss. Ferner ist die Entfernungsmessung nicht texturabhängig.
  • Es ist bevorzugt, dass die Time-of-Flight-Kamera derart positioniert ist, dass die optische Achse des Hyperbolspiegels und der Time-of-Flight-Kamera auf einer Linie liegen.
  • Besonders bevorzugt, weist die erfindungsgemäße Vorrichtung mindestens eine Infrarotlichtquelle zum Aussenden von gepulstem Infrarotlicht auf. In einer bevorzugten Ausführungsform beleuchtet die Infrarotlichtquelle die zu erfassenden Objekte direkt und/oder über die Vorrichtung zum Brechen oder Reflektieren des Lichts. Dies bedeutet, dass die mindestens eine Infrarotlichtquelle in Richtung der Vorrichtung zum Brechen oder Reflektieren des Lichts leuchten kann. Ferner können mehrere Infrarotleuchten um die Time-of-Flight-Kamera herum angeordnet sein, um die zu erfassenden Objekte direkt zu beleuchten. Auch kann ein erster Teil der Infrarotlichtquellen die zu erfassenden Objekte direkt beleuchten, während ein zweiter Teil der Infrarotlichtquellen die Objekte indirekt, insbesondere über die Vorrichtung zum Brechen oder Reflektieren des Lichts beleuchtet. Ein Interferenzproblem ergibt sich nicht, da alle Lichtquellen synchron angesteuert werden. Sofern mehrere Lichtquellen verwendet werden, könnten die unterschiedlichen Abstände der Lichtquellen zum optischen Zentrum der ToF-Kamera problematisch sein. Diese müssen dann beim Aufbau des Systems oder der Auswertung der Daten berücksichtigt werden.
  • Besonders bevorzugt sind die Infrarotlichtquellen zur indirekten Beleuchtung der zu erfassenden Objekte in einem 90°-Winkel zu den Infrarotlichtquellen zur direkten Beleuchtung der zu erfassenden Objekte angeordnet.
  • Die erfindungsgemäße Time-of-Flight-Kamera arbeitet vorzugsweise mit einer Abtastrate von wenigstens 25 Hz.
  • Eine unabhängige Erfindung betrifft ferner die Verwendung einer Time-of-Flight-Kamera anstelle einer Monokamera in einem omnidirektionalen Kamerasystem.
  • Im Folgenden wird eine bevorzugte Ausführungsform der Erfindung anhand einer Figur erläutert.
  • Die Figur zeigt eine schematische Ansicht des Aufbaus der erfindungsgemäßen Vorrichtung.
  • Die Vorrichtung 10 weist eine Time-of-Flight-Kamera 12 und einen Hyperbolspiegel 14 auf. Die Time-of-Flight-Kamera 12 ist derart positioniert, dass die optische Achse a des Hyperbolspiegels 14 und der Time-of-Flight-Kamera 12 auf einer Linie liegen.
  • Der Hyperbolspiegel 14 reflektiert das Licht 16, das vom Objekt 18 ausgeht in Richtung der Time-of-Flight-Kamera 12. Ferner reflektiert der Hyperbolspiegel 14 das Licht 22a, das von den ersten Infrarotleuchten 20a, die in Richtung des Hyperbolspiegels 14 leuchten, in Richtung des Objekts 18 sowie in Richtung des restlichen Umfelds.
  • Um die Time-of-Flight-Kamera 12 herum, sind ferner mehrere zweite Infrarotleuchten 20b vorgesehen, die Infrarotlicht 22b direkt in Richtung des Umfelds, einschließlich des zu erfassenden Objekts 18 aussenden. Die zweiten Infrarotlichtquellen 20b sind in einem rechten Winkel zu den ersten Infrarotlichtquellen 20a angeordnet. Es findet somit sowohl eine direkte als auch eine indirekte Infrarotbeleuchtung der Umgebung statt.
  • Die erfindungsgemäße Vorrichtung kann in der mobilen Robotik, beispielsweise in autonomen Plattformen oder in der Servicerobotik, ferner in der Industrierobotik, beispielsweise im Rahmen der Arbeitsraumüberwachung oder in der Überwachungstechnik eingesetzt werden.

Claims (10)

  1. Vorrichtung zur dreidimensionalen Umfelderfassung, mit einer Kamera (12) und einer Vorrichtung (14) zum Brechen oder Reflektieren von Licht (16), das von einem zu erfassenden Objekt (18) ausgeht, in Richtung der Kamera (12), dadurch gekennzeichnet, dass die Kamera (12) als Time-of-Flight-Kamera ausgebildet ist.
  2. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass die Vorrichtung (14) zum Brechen oder Reflektieren des Lichts (16) ein Hyperbolspiegel (14) ist.
  3. Vorrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Time-of-Flight-Kamera (12) derart positioniert ist, dass die optische Achse (a) des Hyperbolspiegels (14) und der Time-of-Flight-Kamera (12) auf einer Linie liegen.
  4. Vorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Vorrichtung (10) mindestens eine Infrarotlichtquelle (20a, 20b) zum Aussenden von gepulstem Infrarotlicht (22a, 22b) aufweist.
  5. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, dass die mindestens eine Infrarotlichtquelle (20a, 20b) die zu erfassenden Objekte (18) direkt und/oder über die Vorrichtung (14) zum Brechen oder Reflektieren des Lichts (16) beleuchtet.
  6. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass die mindestens eine Infrarotlichtquelle (20a, 20b) in Richtung der Vorrichtung (14) zum Brechen oder Reflektieren des Lichts (16) leuchtet.
  7. Vorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass mehrere Infrarotleuchten (20a, 20b) um die Time-of-Flight-Kamera (12) herum angeordnet sind, um die zu erfassenden Objekte (18) direkt zu beleuchten.
  8. Vorrichtung nach Anspruch 4, dadurch gekennzeichnet, dass mehrere Infrarotlichtquellen (20a, 20b) vorgesehen sind, wobei ein erster Teil (20a) der Infrarotlichtquellen die zu erfassenden Objekte (18) direkt beleuchtet und ein zweiter Teil (20b) der Infrarotlichtquellen die zu erfassenden Objekte (18) indirekt, insbesondere über die Vorrichtung (14) zum Brechen oder Reflektieren des Lichts (16) beleuchtet.
  9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Infrarotlichtquellen (20a) zur indirekten Beleuchtung (22a) der zu erfassenden Objekte (18) in einem 90°-Winkel zu den Infrarotlichtquellen (20b) zur direkten Beleuchtung (22b) der zu erfassenden Objekte (18) angeordnet sind.
  10. Verwendung einer Time-of-Flight-Kamera, anstelle einer Monokamera in einem omnidirektionalen Kamerasystem.
DE102010004095A 2010-01-07 2010-01-07 Vorrichtung zur dreidimensionalen Umfelderfassung Ceased DE102010004095A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010004095A DE102010004095A1 (de) 2010-01-07 2010-01-07 Vorrichtung zur dreidimensionalen Umfelderfassung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010004095A DE102010004095A1 (de) 2010-01-07 2010-01-07 Vorrichtung zur dreidimensionalen Umfelderfassung

Publications (1)

Publication Number Publication Date
DE102010004095A1 true DE102010004095A1 (de) 2011-04-21

Family

ID=43798968

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010004095A Ceased DE102010004095A1 (de) 2010-01-07 2010-01-07 Vorrichtung zur dreidimensionalen Umfelderfassung

Country Status (1)

Country Link
DE (1) DE102010004095A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202014101550U1 (de) 2014-04-02 2015-07-07 Sick Ag 3D-Kamera zur Erfassung von dreidimensionalen Bildern
CN112432652A (zh) * 2021-01-26 2021-03-02 德鲁动力科技(成都)有限公司 路径规划系统及路径规划方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6693518B2 (en) * 2000-05-23 2004-02-17 Sharp Kabushiki Kaisha Surround surveillance system for mobile body, and mobile body, car, and train using the same
DE202006014939U1 (de) * 2006-09-28 2006-11-30 Sick Ag Optiksystem zur Erfassung einer dreidimensionalen Superweitwinkelszene
US7429996B2 (en) * 2002-07-16 2008-09-30 Intel Corporation Apparatus and method for sensing depth in every direction

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6693518B2 (en) * 2000-05-23 2004-02-17 Sharp Kabushiki Kaisha Surround surveillance system for mobile body, and mobile body, car, and train using the same
US7429996B2 (en) * 2002-07-16 2008-09-30 Intel Corporation Apparatus and method for sensing depth in every direction
DE202006014939U1 (de) * 2006-09-28 2006-11-30 Sick Ag Optiksystem zur Erfassung einer dreidimensionalen Superweitwinkelszene

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202014101550U1 (de) 2014-04-02 2015-07-07 Sick Ag 3D-Kamera zur Erfassung von dreidimensionalen Bildern
CN112432652A (zh) * 2021-01-26 2021-03-02 德鲁动力科技(成都)有限公司 路径规划系统及路径规划方法

Similar Documents

Publication Publication Date Title
DE102010037744B3 (de) Optoelektronischer Sensor
DE102009015922B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Szene
DE10235888B4 (de) Automatisch kollimierende Vermessungsvorrichtung mit Bildaufnahmevorrichtung
EP3001138B1 (de) Messgerät zur Bestimmung der räumlichen Lage eines Messhilfsinstruments
DE102014104712B4 (de) Registrierung einer in Cluster zerfallenden Szene mit visualisierten Clustern
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
DE10058244C2 (de) Messverfahren zur Ermittlung der Position eines Objektes vor einem Bildschirm und Vorrichtung zur Durchführung des Verfahrens
DE112014003227T5 (de) Dredimensionales Messgerät mit dreidimensionaler Übersichtskamera
DE102016206493A1 (de) Verfahren und Kamerasystem zur Entfernungsbestimmung von Objekten zu einem Fahrzeug
EP3014569B1 (de) Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs
EP2914974A1 (de) Verfahren und vorrichtung zur bestimmung einer orientierung eines objekts
DE102013010010B4 (de) Verfahren zum Betrieb eines Fahrerassistenzsystems zum Rangieren und/oder Parken
DE102013007886B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102016106696A1 (de) Koordinatenmesssystem
EP1186928B1 (de) Parallelverarbeitender optischer Entfernungsmesser
DE202006014939U1 (de) Optiksystem zur Erfassung einer dreidimensionalen Superweitwinkelszene
DE102010020537A1 (de) Wasserdetektor
DE102010004095A1 (de) Vorrichtung zur dreidimensionalen Umfelderfassung
DE102013007961B4 (de) Optisches Messsystem für ein Fahrzeug
DE10345445B4 (de) Vorrichtung zur Fertigung einer Feder
WO2014037371A1 (de) Optische anordnung zur rundumsicht
DE102014116904B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Szene und zur automatischen Erzeugung einesVideos
DE102012101640B4 (de) Verfahren und System zum Ermitteln einer Position und Orientierung eines Objekts in einem Bezugssystem
DE10225077B4 (de) Objektverfolgeanordnung für medizinische Operationen
DE102014104713A1 (de) Registrierung einer in Cluster zerfallenden Szene mit Paaren von Scans

Legal Events

Date Code Title Description
OAV Publication of unexamined application with consent of applicant
OP8 Request for examination as to paragraph 44 patent law
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final

Effective date: 20110830