DE102019216195A1 - Vorrichtung und Verfahren zur Bestimmung einer räumlichen Position und Orientierung - Google Patents

Vorrichtung und Verfahren zur Bestimmung einer räumlichen Position und Orientierung Download PDF

Info

Publication number
DE102019216195A1
DE102019216195A1 DE102019216195.2A DE102019216195A DE102019216195A1 DE 102019216195 A1 DE102019216195 A1 DE 102019216195A1 DE 102019216195 A DE102019216195 A DE 102019216195A DE 102019216195 A1 DE102019216195 A1 DE 102019216195A1
Authority
DE
Germany
Prior art keywords
measurement object
measuring
measurement
lidar
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019216195.2A
Other languages
English (en)
Inventor
Florian Rettich
Wolfgang Högele
Volker Rasenberger
Thomas Mayer
Christian Hörr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Carl Zeiss Industrielle Messtechnik GmbH
Original Assignee
Carl Zeiss Industrielle Messtechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Carl Zeiss Industrielle Messtechnik GmbH filed Critical Carl Zeiss Industrielle Messtechnik GmbH
Priority to DE102019216195.2A priority Critical patent/DE102019216195A1/de
Publication of DE102019216195A1 publication Critical patent/DE102019216195A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/34Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4818Constructional features, e.g. arrangements of optical elements using optical fibres
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4911Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/74Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems
    • G01S13/75Systems using reradiation of radio waves, e.g. secondary radar systems; Analogous systems using transponders powered from received waves, e.g. using passive transponders, or using passive reflectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Es wird eine Vorrichtung (110) zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts (112) vorgeschlagen. Die Vorrichtung (110) weist mindestens drei passive Marker (114) auf, welche auf dem Messobjekt (112) angeordnet sind. Die Vorrichtung (110) weist mindestens eine LIDAR-Einheit (116) mit mindestens zwei Messkanälen (118) auf. Die LIDAR-Einheit (116) weist mindestens eine Beleuchtungsvorrichtung (120) auf, welche eingerichtet ist, mindestens einen frequenzmodulierten Eingangslichtstrahl zu erzeugen. Die Messkanäle (118) weisen jeweils mindestens eine Optik (122) auf, welche eingerichtet ist, den Eingangslichtstrahl in einen Raumwinkel aufzuweiten, so dass die drei passiven Marker (114) überstrahlt werden. Jeder der Messkanäle (118) ist eingerichtet, mindestens einen von den passiven Markern (114) erzeugten Messlichtstrahl zu erfassen. Die LIDAR-Einheit (116) ist eingerichtet, um für jeden Messkanal (118) mindestens ein Entfernungssignal zu erzeugen. Die Vorrichtung (110) weist mindestens eine Zusatzkamera (140) auf. Die Zusatzkamera (140) weist eine Flächenkamera (142), welche eingerichtet ist, um mindestens eine zwei-dimensionale Abbildung des Messobjekts (112) aufzunehmen, oder eine Zeilenkamera (146), welche eingerichtet ist, um mindestens eine ein-dimensionale Abbildung des Messobjekts (112) aufzunehmen, auf.

Description

  • Gebiet der Erfindung
  • Die Erfindung betrifft eine Vorrichtung und ein Verfahren zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts. Die vorliegende Erfindung betrifft insbesondere das Gebiet der Koordinatenmesstechnik, insbesondere zur Vermessung von sehr großen Bauteilen.
  • Stand der Technik
  • Auf dem Gebiet der Vermessung von sehr großen Bauteilen, wie beispielsweise Komponenten von Windenergieanlagen, werden üblicherweise sehr große Koordinatenmessgeräte und/oder Lasertracker oder Lasertracer verwendet. Die Herstellung derartiger Vorrichtungen mit einer gewünschten hohen Genauigkeit auch bei großen Messstrecken und verschiedenen Umgebungsbedingungen ist jedoch aufwendig und führt zu hohen Kosten.
  • Bekannt sind beispielweise Vermessungsverfahren, bei welchen mit einem Messkopf eines Sensors ein großes Bauteil abgetastet wird und eine Position und Ausrichtung des Messkopfes in einem Messvolumen mittels einer Abstandsmessvorrichtung und einer zusätzlichen Winkelmessvorrichtung erfolgt. So beschreibt beispielsweise US 2014/0043622 A1 ein System zum Messen der Position eines Objekts in einem Messvolumen, mit einer optischen Winkelmessvorrichtung, die mit einer statischen Optik angeordnet ist und zum Messen des Azimuth- und Elevationswinkels des Objekts in dem Messvolumen konfiguriert ist. Zu der optischen Winkelmessvorrichtung ist eine Entfernungsmessvorrichtung, die mit einer statischen Komponente angeordnet ist, konfiguriert zum Messen der Entfernung des Objekts in dem Messvolumen.
  • Aufgabe der Erfindung
  • Es ist daher Aufgabe der vorliegenden Erfindung, eine Vorrichtung und ein Verfahren zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts bereitzustellen, welche die Nachteile bekannter Vorrichtungen und Verfahren zumindest weitgehend vermeiden. Insbesondere soll eine Bestimmung mit verbesserter Genauigkeit und geringerer Komplexität erfolgen.
  • Offenbarung der Erfindung
  • Diese Aufgabe wird gelöst durch eine Vorrichtung und ein Verfahren mit den Merkmalen der unabhängigen Patentansprüche. Bevorzugte Ausgestaltungen, welche einzeln oder in Kombination realisierbar sind, sind in den abhängigen Ansprüchen dargestellt.
  • Im Folgenden werden die Begriffe „haben“, „aufweisen“, „umfassen“ oder „einschließen“ oder beliebige grammatikalische Abweichungen davon in nicht-ausschließlicher Weise verwendet. Dementsprechend können sich diese Begriffe sowohl auf Situationen beziehen, in welchen, neben dem durch diese Begriffe eingeführten Merkmal, keine weiteren Merkmale vorhanden sind, oder auf Situationen, in welchen ein oder mehrere weitere Merkmale vorhanden sind. Beispielsweise kann sich der Ausdruck „A hat B“, „A weist B auf, „A umfasst B“ oder „A schließt B ein“ sowohl auf die Situation beziehen, in welcher, abgesehen von B, kein weiteres Element in A vorhanden ist (d.h. auf eine Situation, in welcher A ausschließlich aus B besteht) als auch auf die Situation, in welcher, zusätzlich zu B, ein oder mehrere weitere Elemente in A vorhanden sind, beispielsweise Element C, Elemente C und D oder sogar weitere Elemente.
  • Weiterhin wird darauf hingewiesen, dass die Begriffe „mindestens ein“ und „ein oder mehrere“ sowie grammatikalische Abwandlungen dieser Begriffe oder ähnliche Begriffe, wenn diese in Zusammenhang mit einem oder mehreren Elementen oder Merkmalen verwendet werden und ausdrücken sollen, dass das Element oder Merkmal einfach oder mehrfach vorgesehen sein kann, in der Regel lediglich einmalig verwendet werden, beispielsweise bei der erstmaligen Einführung des Merkmals oder Elementes. Bei einer nachfolgenden erneuten Erwähnung des Merkmals oder Elementes wird der entsprechende Begriff „mindestens ein“ oder „ein oder mehrere“ in der Regel nicht mehr verwendet, ohne Einschränkung der Möglichkeit, dass das Merkmal oder Element einfach oder mehrfach vorgesehen sein kann. Weiterhin werden im Folgenden die Begriffe „vorzugsweise“, „insbesondere“, „beispielsweise“ oder ähnliche Begriffe in Verbindung mit optionalen Merkmalen verwendet, ohne dass alternative Ausführungsformen hierdurch beschränkt werden. So sind Merkmale, welche durch diese Begriffe eingeleitet werden, optionale Merkmale, und es ist nicht beabsichtigt, durch diese Merkmale den Schutzumfang der Ansprüche und insbesondere der unabhängigen Ansprüche einzuschränken. So kann die Erfindung, wie der Fachmann erkennen wird, auch unter Verwendung anderer Ausgestaltungen durchgeführt werden. In ähnlicher Weise werden Merkmale, welche durch „in einer Ausführungsform der Erfindung“ oder durch „in einem Ausführungsbeispiel der Erfindung“ eingeleitet werden, als optionale Merkmale verstanden, ohne dass hierdurch alternative Ausgestaltungen oder der Schutzumfang der unabhängigen Ansprüche eingeschränkt werden soll. Weiterhin sollen durch diese einleitenden Ausdrücke sämtliche Möglichkeiten, die hierdurch eingeleiteten Merkmale mit anderen Merkmalen zu kombinieren, seien es optionale oder nichtoptionale Merkmale, unangetastet bleiben.
  • In einem ersten Aspekt der vorliegenden Erfindung wird eine Vorrichtung zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts vorgeschlagen.
  • Unter einem „Messobjekt“ kann im Rahmen der vorliegenden Erfindung ein beliebig geformtes, zu vermessendes Objekt verstanden werden. Beispielsweise kann das Messobjekt ein Messkopf eines Sensors oder ein Werkzeug sein, mit welchem ein Bauteil abgetastet werden kann.
  • Die Vorrichtung weist mindestens drei passive Marker auf, welche auf dem Messobjekt angeordnet sind. Unter einem „passiven Marker“ kann eine Vorrichtung verstanden werden, welche eingerichtet ist, um einen eintreffenden Lichtstrahl mindestens teilweise zu reflektierten. Unter zumindest teilweise reflektieren können sowohl Ausführungsformen verstanden werden, in welchen der eintreffende Lichtstrahl vollständig reflektiert wird, als auch Ausführungsformen, in welchem Teile des eintreffenden Lichtstrahls reflektiert werden. Beispielsweise können die passiven Marker mindestens einen Retroreflektor aufweisen. Beispielsweise können die passiven Marker jeweils mindestens ein Element aufweisen und ausgewählt sein aus der Gruppe bestehend aus: einem Katzenauge, Kugellinsen mit Reflektionsschicht, einem Marker beschrieben in US 2011/0007326 A1 , US 2013/0050410 A1 oder US 2017/0258531 A1 , deren Inhalt hiermit in diese Anmeldung aufgenommen wird, einem Würfelprisma, einem cornercube. Die passiven Marker können fest und/oder auswechselbar auf dem Messobjekt angeordnet sein. Eine Position der passiven Marker auf dem Messobjekt kann bekannt sein. Das Messobjekt kann eine Vielzahl von passiven Markern aufweisen, insbesondere mehr als drei passive Marker, beispielsweise vier, fünf, sechs oder mehr passive Marker.
  • Die Bestimmung der räumlichen Position und der Orientierung kann in einem Koordinatensystem erfolgen, beispielsweise einem kartesischen Koordinatensystem oder ein Kugelkoordinatensystem. Auch andere Koordinatensysteme sind denkbar. Ein Ursprung oder Nullpunkt des Koordinatensystems kann in einem Punkt der Vorrichtung sein. Unter einer „räumlichen Position“ können drei Raumkoordinaten verstanden werden, insbesondere ein dreidimensionaler Punkt (X, Y, Z) in dem Koordinatensystem. Unter einer „Orientierung“ können drei Winkelkoordinaten verstanden werden. Beispielsweise kann die Orientierung eine Ausrichtung des Messobjekts umfassen, insbesondere eine Winkelposition im Messvolumen. Die Orientierung kann durch mindestens drei Winkel angegeben werden, beispielsweise Eulerwinkel oder Neigungswinkel, Rollwinkel und Gierwinkel.
  • Die Vorrichtung weist mindestens eine LIDAR-Einheit mit mindestens zwei Messkanälen auf. Die LIDAR-Einheit weist mindestens eine Beleuchtungsvorrichtung auf, welche eingerichtet ist, mindestens einen frequenzmodulierten Eingangslichtstrahl zu erzeugen. Die Messkanäle weisen jeweils mindestens eine Optik auf, welche eingerichtet ist, den Eingangslichtstrahl in einen Raumwinkel aufzuweiten, so dass die drei passiven Marker überstrahlt werden. Jeder der Messkanäle ist eingerichtet, mindestens einen von den passiven Markern erzeugten Messlichtstrahl zu erfassen. Die LIDAR-Einheit ist eingerichtet, um für jeden Messkanal mindestens ein Entfernungssignal zu erzeugen. Die Vorrichtung weist mindestens eine Zusatzkamera auf. Die Zusatzkamera weist eine Flächenkamera, welche eingerichtet ist, um mindestens eine zwei-dimensionale Abbildung des Messobjekts aufzunehmen, oder eine Zeilenkamera auf, welche eingerichtet ist, um mindestens eine ein-dimensionale Abbildung des Messobjekts aufzunehmen.
  • Unter einer LIDAR-Einheit kann eine Vorrichtung verstanden werden, welche auf dem LIDAR („light detection and ranging“)-Messprinzip, auch LADAR (laser detection and ranging) genannt, basiert. Die LIDAR-Einheit weist die mindestens eine Beleuchtungsvorrichtung auf, welche eingerichtet ist, mindestens einen frequenzmodulierten Eingangslichtstrahl zu erzeugen, eine sogenannte „Frequency Modulated Continuous Wave“ (FMCW). Die LIDAR-Einheit kann eingerichtet sein, den Eingangslichtstrahl zu erzeugen, dessen Frequenz kontinuierlich durchgestimmt wird, nach dem FMCW-Verfahren. Beispielsweise kann die Frequenz des Eingangslichtstrahls linear mit der Zeit moduliert sein. Eine Kombination von LIDAR-Verfahren und FMCW-Verfahren sind dem Fachmann grundsätzlich bekannt, beispielsweise aus Chip-scale Lidar, Benham Behroozpur Baghmisheh, Technical Report No. UCB/EECS.2017-4. Beispielsweise kann die LIDAR-Einheit wie in US 9,559,486 B2 , US 8,913,636 B2 oder US 2016/123718 A1 ausgestaltet sein.
  • Unter einer „Beleuchtungsvorrichtung“ kann eine Vorrichtung verstanden werden, welche eingerichtet ist, einen Lichtstrahl zu erzeugen. Unter „Licht“ kann im Rahmen der vorliegenden Erfindung elektromagnetische Strahlung in mindestens einem Spektralbereich ausgewählt aus dem sichtbaren Spektralbereich, dem ultravioletten Spektralbereich und dem Infraroten Spektralbereich verstanden werden. Der Begriff sichtbarer Spektralbereich umfasst grundsätzlich einen Bereich von 380 nm bis 780 nm. Der Begriff Infraroter (IR) Spektralbereich umfasst grundsätzlich einen Bereich von 780 nm bis 1000 µM, wobei der Bereich von 780 nm bis 1.4 µM als nahes Infrarot (NIR), und der Bereich von 15 µm bis 1000 µm als fernes Infrarot (FIR) bezeichnet wird. Der Begriff ultraviolett umfasst grundsätzlich einen Spektralbereich von 100 nm bis 380 nm. Bevorzugt wird im Rahmen der vorliegenden Erfindung IR-Licht, also Licht aus dem Infrarot Spektralbereich, verwendet. Unter dem Begriff „Lichtstrahl“ kann grundsätzlich eine Lichtmenge verstanden werden, welche in eine bestimmte Richtung emittiert und/oder ausgesandt wird. Die Beleuchtungsvorrichtung kann mindestens eine Lichtquelle aufweisen. Unter einem „Eingangslichtstrahl“ kann ein Lichtstrahl verstanden werden, welcher eine modulierte, beispielsweise linear modulierte, Frequenz aufweist. Der Eingangslichtstrahl kann in die Messkanäle zumindest teilweise einkoppelbar sein. Die Beleuchtungsvorrichtung kann mindestens eine FMCW-Lichtquelle aufweisen. Die Beleuchtungsvorrichtung kann mindestens eine einstellbare (tunable) Laserquelle aufweisen, beispielsweise mindestens eine Distributed Feedback (DFB) Laserdiode oder eine Distributed Bragg Reflector (DBR) Laserdiode.
  • Unter einem „Messkanal“, auch LIDAR-Messkanal genannt, kann ein Element der LIDAR-Einheit verstanden werden, welches eingerichtet ist, einen Eingangslichtstrahl auszusenden und von den passiven Markern erzeugte Messlichtstrahlen zu erfassen. Die Messkanäle können identisch oder unterschiedlich ausgestaltet sein. Die LIDAR-Einheit kann eine Vielzahl von Messkanälen aufweisen, beispielsweise vier, fünf oder mehr Messkanäle. Die Messkanäle können zumindest teilweise räumlich und/oder zeitlich getrennt voneinander ausgestaltet sein. Unter „zumindest teilweise räumlich getrennt“ kann verstanden werden, dass räumlich nicht getrennte Anteile der Messkanäle möglich sind, wobei mindestens ein Anteil der jeweiligen Messkanäle räumlich getrennt von den anderen Messkanälen ist. Unter „zumindest teilweise zeitlich getrennt“ kann dabei verstanden werden, dass die Messkanäle zu verschiedenen Zeitpunkten betrieben werden, wobei ein zeitlicher Überlapp möglich ist.
  • Die Messkanäle können jeweils mindestens eine optische Faser aufweisen, insbesondere mindestens eine Monomodefaser und/oder mindestens eine Multimodefaser. Die optischen Fasern können bevorzugt eine unterschiedliche Länge aufweisen. Dieses kann eine Trennung der jeweiligen Messkanäle in einem Frequenzspektrum ermöglichen. Die optischen Fasern können jeweils einen Längen-Offset aufweisen. Unter einem „Längen-Offset“ kann eine beliebig lange Verzögerungsstrecke verstanden werden. Der Längen-Offset der optischen Fasern kann derart sein, dass jeweilige Frequenzspektren der Messkanäle in dem Frequenzspektrum identifizierbar und/oder trennbar sind. Alternativ oder zusätzlich, kann eine Trennung auch durch eine Verwendung von einem Detektor, beispielsweise einer Photodiode, pro Messkanal erfolgen.
  • Die Messkanäle können jeweils mindestens ein optisches Element aufweisen. Das optische Element kann eingerichtet sein, den durch die jeweilige optische Faser laufenden Eingangslichtstrahl aus der optischen Faser auszukoppeln und Messlichtstrahlen in die jeweilige optische Faser einzukoppeln. Die optischen Fasern können einen Faseranfang und ein Faserende aufweisen, wobei mindestens ein Anteil des Eingangslichtstrahls von dem Faseranfang zu dem Faserende durch die jeweilige optische Faser läuft. Das optische Element kann an dem Faserende angeordnet sein. Das optische Element kann eine Auskoppeloptik umfassen. Das optische Element kann eine Einkoppeloptik umfassen. Die Auskoppeloptik und die Einkoppeloptik können identisch sein.
  • Die LIDAR-Einheit kann eingerichtet sein, die Messkanäle parallel und/oder sequenziell zu betreiben. Bei parallelem Betreiben kann eine Messung von mehreren Distanzen gleichzeitig ermöglicht werden. Die LIDAR-Einheit kann mindestens einen Strahlaufteiler, insbesondere einen Multiplexer, aufweisen. Unter einem „Strahlaufteiler“ kann eine Vorrichtung verstanden werden, welche eingerichtet ist, den Eingangslichtstrahl mindestens einem Messkanal zuzuführen, und/oder den Eingangslichtstrahl parallel und/oder sequenziell zumindest teilweise auf die Messkanäle aufzuteilen. Der Strahlaufteiler kann eingerichtet sein, den gesamten Eingangslichtstrahl einem ersten Messkanal zuzuführen und nacheinander einem zweiten Messkanal zuzuführen. Alternativ oder zusätzlich kann der Strahlaufteiler eingerichtet sein, den Eingangslichtstrahl in mindestens zwei Anteile aufzuteilen. Der Strahlaufteiler kann eingerichtet sein, den Eingangslichtstrahl in gleich große oder verschieden große Anteile parallel und/oder sequenziell auf die Messkanäle aufzuteilen. Beispielsweise kann der Strahlaufteiler eingerichtet sein, den Eingangslichtstrahl in einem Verhältnis von 50/50, 40/60 oder 30/70 aufzuteilen. Auch andere Verhältnisse sind jedoch denkbar. Der Strahlaufteiler kann in Ausbreitungsrichtung des Eingangslichtstrahls vor der jeweiligen optischen Faser des Messkanals angeordnet sein.
  • Die Messkanäle weisen jeweils mindestens eine Optik auf, welche eingerichtet ist, den Eingangslichtstrahl in einen Raumwinkel aufzuweiten, so dass die drei passiven Marker überstrahlt werden. Die Optik kann eine einstellbare und/oder anpassbare und/oder steuerbare effektive Brennweite aufweisen. Beispielsweise können die Messkanäle jeweils ein Weitwinkelobjektiv aufweisen. Die Optik kann mindestens eine Sammellinse oder eine Konkavlinse aufweisen. Bevorzugt kann eine Sammellinse verwendet werden, welche eine annähernd gekippte Planwellenfront am passiven Marker und gute Effizienz bei der Einkopplung im Brennpunkt ermöglicht. Jeder passive Marker kann mindestens einen Teil des auf ihn einfallenden Lichtstrahls zurücksenden. Die Messkanäle können eine gemeinsame Verbindungsachse aufweisen. Die Messkanäle können jeweils einen Ursprung der LIDAR-Strahlengänge aufweisen. Beispielsweise bei Ausführungsformen mit zwei Messkanälen und einer Zusatzkamera können die zwei Ursprünge der beiden LIDAR-Strahlengänge auf einer Achse liegen. Die Zusatzkamera kann in der Mitte zwischen beiden Ursprüngen senkrecht daneben angeordnet sein, je weiter weg, desto genauer arbeitet das Messsystem. Beispielsweise bei Ausführungsformen mit drei Messkanälen können die drei Ursprünge der drei Strahlengänge eine Ebene aufspannen.
  • Die Messkanäle können mindestens eine optische Vorrichtung zur räumlichen Ausrichtung, insbesondere Strahlablenkung, des Eingangslichtstrahls aufweisen. Eine Strahlablenkung kann in zwei räumlichen Verteilungen erfolgen. Beispielsweise können die Messkanäle jeweils mindestens einen statischen oder einstellbaren Spiegel aufweisen. Beispielsweise kann die Vorrichtung mindestens eine Steuerung aufweisen, welche eingerichtet ist, den Spiegel anzusteuern und in eine beliebige Winkelstellung einzustellen.
  • Die räumliche Auslenkung der LIDAR-Einheit muss nur so genau bekannt sein, dass reflektierende Objekte wieder zurückabgebildet werden. Es ist kein weiteres messendes System notwendig, welches überprüft, ob ein vorgegebener Wert erreicht wird.
  • Jeder der Messkanäle ist eingerichtet, mindestens einen von den passiven Markern erzeugten Messlichtstrahl zu erfassen. Die Messkanäle können jeweils eingerichtet sein, mindestens ein Messsignal zu erzeugen. Unter einem Messsignal kann ein von mindestens einem passiven Marker reflektiertes Signal verstanden werden, insbesondere ein reflektierter Lichtstrahl, Messlichtstrahl genannt. Das Messsignal eines jeden Messkanals kann ein Ausgangslichtstrahl des jeweiligen Messkanals sein. Die LIDAR-Einheit ist eingerichtet, um für jeden Messkanal mindestens ein Entfernungssignal zu erzeugen. Die LIDAR-Einheit kann mindestens ein Sensorelement aufweisen, welches eingerichtet ist, die Messsignale der Messkanäle zu detektieren. Unter „Detektieren der Messsignale der Messkanäle“ kann ein Detektieren der einzelnen Messsignale und/oder ein Detektieren der überlagerten Messsignale der Messkanäle verstanden werden. Unter einem „Sensorelement“ kann im Rahmen der vorliegenden Erfindung eine beliebige Vorrichtung verstanden werden, welche eingerichtet ist die Messsignale der Messkanäle zu empfangen. Das Sensorelement kann mindestens eine Photodiode aufweisen. Die LIDAR-Einheit kann eingerichtet sein, einen Referenzlichtstrahl zu erzeugen. Die LIDAR-Einheit kann mindestens einen Referenzarm aufweisen. Der Referenzlichtstrahl kann ein aktueller Eingangslichtstrahl sein, welcher beispielsweise über den Referenzarm der LIDAR-Einheit dem Sensorelement zugeführt wird. Das Sensorelement kann eingerichtet sein, den Referenzlichtstrahl mit den Messsignalen der Messkanäle zu überlagern. Unter einem Entfernungssignal, auch LIDAR-Signal genannt, kann ein Signal der LIDAR-Einheit verstanden werden, welches mindestens eine Information über einen Frequenzunterschied, auch Frequenzdelta genannt, zwischen Referenzlichtstrahl und Messsignal aufweist. Das Entfernungssignal kann ein Signal sein, in welchem die Messsignale der Messkanäle mit dem Referenzlichtstrahl überlagert sind. Das Entfernungssignal kann ein Frequenzspektrum eines Schwebungssignals des Referenzlichtstrahls überlagert mit den Messsignalen sein. Die LIDAR-Einheit kann eingerichtet sein, mindestens ein Messsignal mit dem Referenzlichtstrahl zu überlagern und ein Frequenzspektrum eines entstehenden Schwebungssignals zu bestimmen. Der Strahlaufteiler kann eingerichtet sein, die Messsignale der Messkanäle zu überlagern. Die LIDAR-Einheit kann eingerichtet sein, die überlagerten Messsignale mit dem Referenzlichtstrahl zu überlagern und ein Frequenzspektrum eines entstehenden Schwebungssignals zu bestimmen. Die LIDAR-Einheit kann eingerichtet sein, in dem Frequenzspektrum für jeden passiven Marker mindestens drei Peaks zu bestimmen und aus diesen eine Information über Position und Orientierung im 6D-Raum zu bestimmen. Bei der Verwendung von zwei LIDAR-Messkanälen und einer 2D-Kamera als Zusatzkamera kann auch eine Kombination aus passiven und aktiven Marker möglich sein. Dabei würden bereits zwei Peaks im Frequenzspektrum ausreichen, um damit eine 6D-Information zu generieren.
  • Die Vorrichtung kann mindestens eine Auswerteeinheit aufweisen. Die Auswerteeinheit kann eingerichtet sein, aus dem LIDAR-Signal die Information über die räumliche Position und Orientierung des Messobjekts zu bestimmen. Unter einer „Auswerteeinheit“ kann dabei allgemein eine elektronische Vorrichtung verstanden sein, welche eingerichtet ist, um von den Messkanälen, insbesondere dem Sensorelement, erzeugte Signale auszuwerten. Beispielsweise können zu diesem Zweck eine oder mehrere elektronische Verbindungen zwischen den Messkanälen, insbesondere dem Sensorelement, und der Auswerteeinheit vorgesehen sein. Die Auswerteeinheit kann beispielsweise mindestens eine Datenverarbeitungsvorrichtung umfassen, beispielsweise mindestens einen Computer oder Mikrocontroller. Die Datenverarbeitungsvorrichtung kann einen oder mehrere flüchtige und/oder nicht flüchtige Datenspeicher aufweisen, wobei die Datenverarbeitungsvorrichtung beispielsweise programmtechnisch eingerichtet sein kann, um das Sensorelement anzusteuern. Die Auswerteeinheit kann weiterhin mindestens eine Schnittstelle umfassen, beispielsweise eine elektronische Schnittstelle und/oder eine Mensch-Maschine-Schnittstelle wie beispielsweise eine Eingabe-/Ausgabe-Vorrichtung wie ein Display und/oder eine Tastatur.
  • Die Auswerteeinheit kann beispielsweise zentral oder auch dezentral aufgebaut sein. Auch andere Ausgestaltungen sind denkbar. Die Auswerteeinheit kann mindestens einen A/D-Wandler aufweisen.
  • Die Auswerteeinheit kann eingerichtet sein, ein Frequenzspektrum des LIDAR-Signals, insbesondere dem Schwebungssignal, mittels einer Fourier-Transformation zu bestimmen. Das Frequenzspektrum kann eine Vielzahl von Maxima aufweisen, sogenannte Peaks. Die Auswerteeinheit kann eingerichtet sein, die Peaks des Frequenzspektrums zu identifizieren. Die Auswerteeinheit kann beispielsweise eingerichtet sein, bei einer parallelen Messung in den drei Messkanälen mindestens neun Peaks zu identifizieren. Bei einer Verwendung von zwei LIDAR-Messkanälen und einer 2D-Kamera würden entsprechend 2*3 Peaks entstehen, welche von der Auswerteeinheit ausgewertet werden. Die Auswerteeinheit kann eingerichtet sein, die Peaks jeweils einem Messkanal zu zuordnen. Aus Informationen über die genaue Verteilung und/oder Anordnung der Peaks kann eine Information über die räumliche Position der drei passiven Marker bestimmt werden. Aus drei Längen aus unterschiedlichen Richtungen lässt sich ein 3D-Punkt bestimmen. Bei bekannter Anordnung der passiven Marker auf dem Messobjekt kann eine komplette 6D-Information bestimmt werden. Die Bestimmung der Position und Orientierung kann wie in DE 10 2018 222 629 A1 beschrieben erfolgen, deren Inhalt hiermit in diese Anmeldung aufgenommen wird.
  • Zwei LIDAR-Messkanäle sind auf einer Kreisbahn senkrecht zu ihrer Verbindungsachse nicht sensitiv bezüglich dieser, da alle gemessenen Längen gleichbleiben. Mittels der Entfernungssignale, die die LIDAR-Einheit von der Reflektion der passiven Marker liefert, kann eine 1D-Untermenge der Positionskandidaten und Orientierungskandidaten im 6D-Raum generiert werden, welche die Position und Orientierung beschreibt. Die Vorrichtung weist mindestens eine Zusatzkamera auf. Die Zusatzkamera weist eine Flächenkamera, welche eingerichtet ist, um mindestens eine zwei-dimensionale Abbildung des Messobjekts aufzunehmen, oder eine Zeilenkamera auf, welche eingerichtet ist, um mindestens eine ein-dimensionale Abbildung des Messobjekts aufzunehmen. Insbesondere aus der zwei-dimensionalen Abbildung des Messobjekts können Zusatzinformationen gewonnen werden, insbesondere unter Verwendung der Auswerteeinheit, welche die 1D-Untermenge auf eine Position und Orientierung reduziert.
  • Unter einer „Zusatzkamera“ kann grundsätzlich eine beliebige Kamera verstanden werden, insbesondere zusätzlich zu den LIDAR-Messkanälen. Die Zusatzkamera umfasst eine Flächenkamera oder eine Zeilenkamera. Unter einer „Flächenkamera“ kann eine Kamera verstanden werden, welche eingerichtet ist, eine 2D Abbildung zu erzeugen. Beispielsweise kann Flächenkamera eine CCD-Flächenkamera und/oder einen CMOS-Chip aufweisen.
  • Auch andere Flächenkameras sind grundsätzlich denkbar. Die Zusatzkamera kann eine abbildende Optik und einen Kamerachip aufweisen. Alternativ oder zusätzlich sind Ausführungsformen denkbar, in welchen die Zusatzkamera eine 1D-Kamera, beispielsweise eine CCD-Zeilenkamera, aufweist, und/oder eine 2D-Kamera, welche sich auf dem vom Eingangslichtstrahl verfolgten Messobjekt befindet.
  • Die Vorrichtung kann eine Vielzahl von aktiven Markern, insbesondere mindestens zwei aktive Marker aufweisen. Unter einem „aktiven Marker“ kann eine Vorrichtung verstanden werden, welche eingerichtet ist, mindestens einen Lichtstrahl zu erzeugen und/oder zu emittieren. Der Lichtstrahl kann einen Wellenlängenbereich aufweisen, in welchem die Zusatzkamera sensitiv ist. Beispielsweise können die aktiven Marker mindestens eine LED (light emitting diode) aufweisen, welche im sichtbaren oder nah-infrarot Bereich des optischen Spektrums emittiert. Die aktiven Marker können dabei parallel, beispielsweise uncodiert, oder sequentiell, beispielsweise codiert, oder aus einer Kombination von beiden Betriebsvarianten betrieben werden. Auch sind Ausführungsformen denkbar, in welchen eine Abfolge spezieller Kombinationen von parallel betriebenen Markern codiert sein kann. Mindestens zwei aktive Marker können auf dem Messobjekt angeordnet sein. Die Zusatzkamera kann eingerichtet sein, von den aktiven Markern erzeugte Lichtstrahlen zu erfassen.
  • Alternativ oder zusätzlich zu den aktiven Markern, können passive Marker von der Zusatzkamera aufgenommen werden, beispielsweise weitere passive Marker, welche auf dem Messobjekt angeordnet sind, und/oder die oben beschriebenen passiven Marker. Die Vorrichtung kann mindestens eine Beleuchtungsvorrichtung aufweisen, beispielsweise eine weitere Beleuchtungsvorrichtung oder die Beleuchtungsvorrichtung der LIDAR-Einheit, welche eingerichtet ist, mindestens zwei passive Marker zu beleuchten. Die Beleuchtung kann sequentiell oder parallel erfolgen. Die weitere Beleuchtungsvorrichtung kann eingerichtet sein, mindestens einen Lichtstrahl zu erzeugen, insbesondere in einem anderen Wellenlängenbereich als der des Eingangslichtstrahls. Die weiteren passiven Marker können eingerichtet sein, um Lichtstrahlen in einem identischen oder verschiedenen Wellenlängenbereich zu reflektieren und/oder in Antwort auf die Beleuchtung zu emittieren als der Wellenlängenbereich des Messlichtstrahls. Die Zusatzkamera kann eingerichtet sein, von den passiven Markern reflektierte Lichtstrahlen zu erfassen.
  • Die Auswerteeinheit kann eingerichtet sein, um die Entfernungssignale und die Abbildung, insbesondere die zwei-dimensionale Abbildung, des Messobjekts auszuwerten und die räumliche Position und Orientierung des Messobjekts zu bestimmen. Durch die Abbildung mindestens zweier auf dem Messobjekt angeordneter Marker mit der Zusatzkamera können zusätzliche Informationen zur Position und/oder Orientierung des Messobjekts bestimmt werden, welche die ID-Untermenge auf eine Position und Orientierung reduziert. Die Zusatzkamera kann verschieden zu der Verbindungsachse der LIDAR-Messkanäle ausgerichtet sein. Beispielsweise kann eine Abbildung eines ersten am Messobjekt angeordneten Markers ausgewertet werden, durch welche die Kreisbahn senkrecht zur Verbindungsachse der LIDAR-Messkanäle mit einer Ebene geschnitten wird. Die gleichzeitig mit der Zusatzkamera aufgenommene Abbildung eines weiteren Markers kann zur Verifikation der Position und/oder Orientierung und/oder zur Verbesserung der Messgenauigkeit der Bestimmung der Position und/oder Orientierung verwendet werden. Weiter kann ein Ausfall einer der Marker kompensiert werden. Flächenkameras können gegenüber Zeilenkameras vorteilhaft sein, beispielsweise durch eine Verfügbarkeit von 2D-Flächenchips, eine Reduzierung von Kosten, und eine Verfügbarkeit von Standard-Objektiven.
  • Die Vorrichtung kann mindestens eine Messeinrichtung aufweisen. Die Messeinrichtung kann mindestens ein Element aufweisen ausgewählt aus der Gruppe bestehend aus: mindestens einem Beschleunigungssensor; mindestens einer Funksensorik; mindestens einer Radarsensorik; mindestens einem weiteren LIDAR-Messkanal. Die Messeinrichtung kann beispielsweise eine im Messobjekt integrierte Sensorik sein, beispielsweise ein uniaxialer oder triaxialer Beschleunigungssensor. Die Messeinrichtung kann beispielsweise eine Beleuchtungseinheit aufweisen, welche Licht im Wellenlängenbereich emittiert, innerhalb dessen die Zusatzkamera sensitiv ist und die beispielsweise dauerhaft leuchten oder in einem bestimmten Zeitintervall > 0,1 Hz blitzen kann. Die Messeinrichtung kann beispielsweise eingerichtet sein, eine Robotertrajektorie zu bestimmen, deren Werte Untermengen des 6D-Raumes bilden können. Die Messeinrichtung kann beispielsweise eine Funksensorik und/oder Radarsensorik aufweisen.
  • Die Vorrichtung kann eingerichtet sein, das Messobjekt zu tracken. Unter „tracken“ kann eine Nachverfolgung einer Bewegung des Messobjekts im Raum zu verschiedenen Zeitpunkten verstanden werden. Wie oben ausgeführt, wird ein aufgeweiteter Lichtstrahl verwendet, derart, dass mindestens drei passive Marker des Messobjekts gleichzeitig überstrahlt werden. Die Auswerteeinheit kann eingerichtet sein, jeweils einen Mittelpunkt von Messkanalgruppen im Frequenzspektrum zu bestimmen und aus diesen einen groben 3D-Punkt des Messobjekts zu bestimmen. Dieser grobe 3D-Punkt kann zum Objekt-Tracken verwendet werden. Das Nachverfolgen des Messobjekts kann einfach erfolgen, da unter Verwendung des aufgeweiteten Strahls nur eine grobe Positionsbestimmung und Nachverfolgung dieser notwendig ist. Weiter kann durch die parallele Messung das Tracken schnell erfolgen. Eine Trackingfrequenz kann einer Auslesefrequenz der LIDAR-Einheit entsprechen, beispielsweise 1 bis 10 kHz. Die Trackingfrequenz kann mindestens 1 Hz betragen.
  • Da das Nachverfolgen durch die LIDAR-Signale möglich ist, kann auf eine zusätzliche Trackingeinheit verzichtet werden.
  • In einer Ausführungsform kann die Vorrichtung einen LIDAR-Messkanal und eine Flächenkamera verwenden und/oder aufweisen. Die Vorrichtung kann weitere LIDAR-Messkanäle aufweisen, wobei nur einer für die Auswertung berücksichtigt wird. In dieser Ausführungsform können aktive Marker für die Erfassung mit der Flächenkamera auf dem Messobjekt vorgesehen sein. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion der mindestens drei passiven Marker liefert, kann eine 3D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts beschreibt. Die LIDAR-Einheit unter Verwendung eines Messkanals kann auf einer Kugel um einen Abbildungsursprung herum unempfindlich auf Bewegungen und Rotationen des Messobjekts sein, wobei bezüglich dieser alle gemessenen Längen identisch bleiben. Durch eine Abbildung mindestens zweier auf dem Messobjekt angeordneter aktiver Marker auf der Flächenkamera kann diese Kugel mit zwei Geraden geschnitten werden, wodurch die dadurch entstehenden vier Pixelkoordinaten die 3D-Untermenge auf eine Position und Orientierung des Messobjekts reduziert.
  • In einer Ausführungsform kann die Vorrichtung einen LIDAR-Messkanal und mindestens zwei eindimensional abbildende Kameras verwenden und/oder aufweisen. In dieser Ausführungsform können aktive Marker für die Erfassung mit der Kamera auf dem Messobjekt vorgesehen sein. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion der mindestens drei passiven Marker liefert, kann eine 3D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, die die Position und Orientierung des Messobjekts beschreibt. Die LIDAR-Einheit kann auf einer Kugel um den Abbildungsursprung herum unempfindlich auf Bewegungen und Rotationen des Messobjekts sein, bezüglich welcher alle gemessenen Längen identisch bleiben. Durch die Abbildung mindestens zweier auf dem Messobjekt angeordneter aktiver Marker auf den zwei 1D-Kameras kann diese Kugel mit zwei Geraden geschnitten werden, wodurch die dadurch entstehenden vier Pixelkoordinaten die 3D-Untermenge auf eine Position und Orientierung des Messobjekts reduziert. Die beiden 1D-Kameras können insbesondere verschiedene Ausrichtungen aufweisen.
  • In einer Ausführungsform kann die Vorrichtung einen LIDAR-Messkanal und mindestens eine zweidimensional abbildende Kamera verwenden und/oder aufweisen. In dieser Ausführungsform können passive Marker für die Erfassung mit der Kamera auf dem Messobjekt vorgesehen sein. Die passiven Marker können, wie oben beschrieben, von einer Beleuchtungsvorrichtung beleuchtet werden. Die passiven Marker können dieselben wie für den Eingangslichtstrahl sein. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion, die der passive Marker liefert, wird eine 3D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet, welche die Position und Orientierung des Messobjekts beschreibt. Die LIDAR-Einheit kann auf einer Kugel um den Abbildungsursprung herum unempfindlich auf Bewegungen und Rotationen des Messobjekts sein, bezüglich welcher alle gemessenen Längen identisch bleiben. Durch Abbildung mindestens zweier passiver Marker auf der 2D-Kamera kann diese Kugel mit zwei Geraden geschnitten werden, wodurch die dadurch entstehenden vier Pixelkoordinaten die 3D-Untermenge auf eine Position und Orientierung des Messobjekts reduziert. Die Beleuchtungsvorrichtung, mit der diese passiven Marken beleuchtet werden, kann entweder die LIDAR-Einheit selbst oder eine andere Beleuchtungsvorrichtung sein, die Licht im für die Kamera sensitiven Wellenlängenbereich aussendet.
  • In einer Ausführungsform kann die Vorrichtung einen LIDAR-Messkanal und mindestens zwei eindimensional abbildende Kameras verwenden und/oder aufweisen. In dieser Ausführungsform können passive Marker für die Erfassung mit den Kameras auf dem Messobjekt vorgesehen sein. Die passiven Marker können, wie oben beschrieben, von einer Beleuchtungsvorrichtung beleuchtet werden. Die passiven Marker können dieselben wie für den Eingangslichtstrahl sein. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion mindestens dreier passiver Marker liefert, kann eine 3D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts beschreibt. Die LIDAR-Einheit kann auf einer Kugel um den Abbildungsursprung herum unempfindlich auf Bewegungen und Rotationen des Messobjekts sein, wobei bezüglich dieser alle gemessenen Längen identisch bleiben. Durch Abbildung mindestens zweier passiver Marker auf zwei 1D-Kameras kann diese Kugel mit zwei Geraden geschnitten werden, wodurch die dadurch entstehenden vier Pixelkoordinaten die 3D-Untermenge auf eine Position und Orientierung des Messobjekts reduziert. Die beiden 1D-Kameras können insbesondere verschiedene Ausrichtungen aufweisen. Die Beleuchtungsvorrichtung, mit der diese passiven Marker beleuchtet werden, kann entweder die LIDAR-Einheit selbst oder eine andere Beleuchtungsvorrichtung sein, die Licht im für die Kameras sensitiven Wellenlängenbereich aussendet.
  • In einer Ausführungsform kann die Vorrichtung einen LIDAR-Messkanal und eine bekannte, beispielsweise vorbestimmte, Objekttrajektorie, auf welcher sich das Messobjekt bewegt, zur Bestimmung der Position und Orientierung des Messobjekts verwenden. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion mindestens dreier passiver Marker liefert, kann eine 3D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts beschreibt. Die Kenntnis der Trajektorie, auf der sich das Messobjekt bewegt, beispielsweise mittels eines Roboters, kann die 3D-Untermenge auf eine Position und Orientierung reduzieren. In dieser Ausführungsform kann eine Verbesserung einer bekannten Objekttrajektorie durch einen LIDAR-Messkanal erreicht werden, solang die Längenmessung durch LIDAR genauer ist als die Genauigkeit der bekannten Objekttrajektorie.
  • In einer Ausführungsform kann die Vorrichtung zwei LIDAR-Messkanäle und eine 1D-Kamera aufweisen und/oder verwenden. In dieser Ausführungsform können aktive Marker für die Erfassung mit der Kamera auf dem Messobjekt vorgesehen sein. Zwei LIDAR-Messkanäle können auf einer Kreisbahn senkrecht zu ihrer Verbindungsachse nicht sensitiv bezüglich dieser sein, da alle gemessenen Längen identisch bleiben. Durch das Abbild eines am Messobjekt angebrachten Markers, welcher durch die 1D-Kamera, beispielsweise eine CCD-Zeilenkamera, aufgenommen wird, wird die Kreisbahn mit einer Ebene geschnitten, so dass die Vorrichtung mit einer nicht identisch zur Verbindungsachse ausgerichteten 1D-Kamera 6D-Lageinformationen des Messobjektes erzeugen kann. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion der mindestens drei passiven Marker liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum generiert werden, welche die Position und Orientierung des Messobjekts beschreibt. Die Abbildung des aktiven Markers auf die 1D-Kamera kann die Untermenge auf eine Position und Orientierung reduzieren. Die 1D-Kamera kann dabei das Licht von mindestens einer aktiven Lichtquelle auf dem Messobjekt detektieren, welche sequentiell oder parallel Licht aussendet.
  • In einer Ausführungsform kann die Vorrichtung zwei LIDAR-Messkanäle und eine 1D-Kamera aufweisen und/oder verwenden. In dieser Ausführungsform können passive Marker für die Erfassung mit der Kamera auf dem Messobjekt vorgesehen sein. Die passiven Marker können, wie oben beschrieben, von einer Beleuchtungsvorrichtung beleuchtet werden. Die passiven Marker können dieselben wie für den Eingangslichtstrahl sein. Zwei LIDAR-Messkanäle können auf einer Kreisbahn senkrecht zu ihrer Verbindungsachse nicht sensitiv bezüglich dieser sein, da alle gemessenen Längen identisch bleiben. Durch den Einsatz einer 1D-Kamera, beispielsweise einer CCD-Zeilenkamera, welche nicht identisch bezüglich der Verbindungsachse der beiden LIDAR-Messkanäle orientiert ist, kann es möglich sein, auf diese Orientierung sensitiv zu sein und damit 6D-Lageinformationen des Messobjektes zu generieren. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion der mindestens drei passiven Marker liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum generiert werden, welche die Position und Orientierung des Messobjekts beschreibt. Die Abbildung auf die 1D-Kamera kann die Untermenge auf eine Position und Orientierung reduzieren. Die Kamera kann dabei das Licht von mindestens einem passiven Marker auf dem Messobjekt detektieren. Die Beleuchtungsvorrichtung, mit der diese passiven Marker beleuchtet werden, kann entweder die LIDAR-Einheit selbst oder eine andere Beleuchtungsvorrichtung sein, die Licht im für die Kamera sensitiven Wellenlängenbereich aussendet.
  • In einer Ausführungsform kann die Vorrichtung zwei LIDAR-Messkanäle und die Messeinrichtung, in dieser Ausführungsform eine interne Sensorik am Messobjekt, aufweisen und/oder verwenden. Die Ermittlung von 6D-Lageinformationen kann eine 5D-Lageinformation aus der Detektion von den mindestens drei passiven Markern mit dem aufgeweiteten Eingangslichtstrahl und einer 1D-Lageinformation aus der internen Sensorik umfassen. Die interne Sensorik kann drei senkrecht zueinander angeordnete, uniaxiale Beschleunigungssensoren oder einen triaxialen Beschleunigungssensor aufweisen. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion der mindestens drei passiven Marker liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum generiert werden, welche die Position und Orientierung des Messobjekts beschreibt. Die Messeinrichtung, beispielsweise der Beschleunigungssensor, kann eingerichtet sein, zu bestimmen, wie das Messobjekt zum Erdmittelpunkt orientiert ist. Die die Verbindungsachse der beiden Messkanäle der LIDAR-Einheit kann derart ausgerichtet sein, dass diese nicht mit der Gravitationsrichtung zusammenfällt.
  • In einer Ausführungsform kann die Vorrichtung zwei LIDAR-Messkanäle und eine bekannte Objekttrajektorie verwenden, auf welcher sich das Messobjekt bewegt. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion der mindestens drei passiven Marker liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts beschreibt. Die Kenntnis der Trajektorie, auf der sich das Messobjekt bewegt, beispielsweise mittels eines Roboters, kann die ID-Untermenge auf eine Position und Orientierung reduzieren. In dieser Ausführungsform kann eine Verbesserung einer bekannten Objekttrajektorie durch die LIDAR-Messkanäle erreicht werden, solang die Längenmessung durch LID AR genauer ist als die Genauigkeit der bekannten Objekttrajektorie.
  • In einer Ausführungsform kann die Vorrichtung zwei oben beschriebene, aufgeweitete LIDAR-Messkanäle und mindestens einen zusätzlichen LIDAR-Messkanal, insbesondere einen mit einem kollimierten Eingangslichtstrahl, aufweisen und/oder verwenden. Der Eingangslichtstrahl wird insbesondere kollimiert emittiert und detektiert. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion der mindestens drei passiven Marker mit dem aufgeweiteten Strahl liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum generiert werden, die die Position und Orientierung des Messobjekts beschreibt. Ein Messwert und/oder Messergebnis des zusätzlichen Messkanals kann die 1D-Untermenge auf eine Position und Orientierung reduzieren. Beispielsweise kann eine Detektion und Nachverfolgung mindestens eines Markers mit dem kollimierten Strahl erfolgen. Beispielsweise kann eine Detektion mindestens eines Markers mit dem kollimierten Strahl, beispielsweise scannend, und beispielsweise über eine definierte Objektgröße erfolgen.
  • In einer Ausführungsform kann die Vorrichtung zwei oben beschriebene LIDAR-Messkanäle und einen Funksensor verwenden und/oder aufweisen. Der Funksensor kann beispielsweise mindestens zwei Empfänger aufweisen, durch welche ein Phasenversatz der Funksignale detektiert werden kann. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion der mindestens drei passiven Marker liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts beschreibt. Die Kenntnis des Phasenversatzes, der durch Detektion beispielsweise des LIDAR-Signals an verschiedenen Orten auf dem Messobjekt mittels des Funksensors gebildet wird, kann die 1D-Untermenge auf eine Position und Orientierung reduzieren. Beispielsweise kann ein Sender auf der LIDAR-Einheit angebracht sein und die mindestens zwei Empfänger können auf dem Messobjekt angeordnet sein. Beispielsweise kann der Sender auf dem Messobjekt und die mindestens zwei Empfänger auf der LIDAR-Einheit angebracht sein. Eine Achse, auf welcher die mindestens zwei Empfänger angeordnet sind, kann vorteilhafterweise nicht mit der Verbindungsachse der beiden LIDAR-Messkanäle zusammenfallen.
  • In einer Ausführungsform kann die Vorrichtung zwei oben beschriebene LIDAR-Messkanäle und einen Radarsensor verwenden und/oder aufweisen. Der Radarsensor kann eingerichtet sein, Time of Flight-Messungen durchzuführen. Der Radarsensor kann derart angeordnet sein, dass dieser nicht auf der Verbindungsachse der beiden LIDAR-Messkanäle liegt. Mittels der Entfernungssignale, welche die LIDAR-Einheit von der Reflexion der mindestens drei passiven Marker liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts beschreibt. Die Kenntnis der Laufzeit zum Messobjekt, die durch Detektion des Radarsignals realisiert wird, kann die 1D-Untermenge auf eine Position und Orientierung reduzieren.
  • In einem weiteren Aspekt wird ein Verfahren zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts vorgeschlagen. In dem Verfahren wird eine erfindungsgemäße Vorrichtung verwendet. Das Verfahren weist die folgenden Schritte auf:
    1. a) Erzeugen mindestens eines frequenzmodulierten Eingangslichtstrahls mit mindestens einer Beleuchtungsvorrichtung mindestens einer LIDAR-Einheit, wobei die LIDAR-Einheit mindestens zwei Messkanäle aufweist;
    2. b) Aufweiten des Eingangslichtstrahls in jedem der Messkanäle, wobei die Messkanäle jeweils mindestens eine Optik aufweisen, welche eingerichtet ist, den Eingangslichtstrahl in einen Raumwinkel aufzuweiten, so dass die drei passiven Marker überstrahlt werden;
    3. c) Erfassen mindestens eines von den passiven Markern erzeugten Messlichtstrahls mit jedem der Messkanäle und Erzeugen mindestens eines Entfernungssignals für jeden der Messkanäle mit der LIDAR-Einheit,
    4. d) Aufnehmen mindestens einer Abbildung des Messobjekts mit mindestens einer Zusatzkamera, wobei die Zusatzkamera eine Flächenkamera, welche eingerichtet ist eine zwei-dimensionale Abbildung des Messobjekts aufzunehmen, oder eine Zeilenkamera aufweist, welche eingerichtet ist, um mindestens eine ein-dimensionale Abbildung des Messobjekts aufzunehmen.
  • Hierbei können die Verfahrensschritte in der angegebenen Reihenfolge durchgeführt werden, wobei einer oder mehrere der Schritte zumindest teilweise auch gleichzeitig durchgeführt werden können und wobei einer oder mehrere der Schritte mehrfach wiederholt werden können. Das Verfahren kann insbesondere mindestens ein Tracking-Verfahren aufweisen, bei welchem die Verfahrensschritte zumindest teilweise wiederholt durchgeführt werden. Unter zumindest teilweise wiederholen kann verstanden werden, dass in dem Trackingverfahren nicht alle Verfahrensschritte des Verfahrens vollständig wiederholt werden und/oder einzelne Verfahrensschritte wiederholt durchgeführt werden, wohingegen andere Verfahrensschritte nicht wiederholt durchgeführt werden. Darüber hinaus können weitere Schritte unabhängig davon, ob sie in der vorliegenden Anmeldung erwähnt werden oder nicht, zusätzlich ausgeführt werden. Für Einzelheiten in Bezug auf das erfindungsgemäße Verfahren wird auf die Beschreibung der erfindungsgemäßen Vorrichtung verwiesen.
  • Beispielsweise können mindestens zwei aktive Marker auf dem Messobjekt angeordnet sein, wobei in Schritt d) von den aktiven Markern erzeugte Lichtstrahlen mit der Zusatzkamera erfasst werden.
  • Das Verfahren weist mindestens einen Auswerteschritt auf, wobei in dem Auswerteschritt die Entfernungssignale und die Abbildung, insbesondere die zwei-dimensionale Abbildung, des Messobjekts mit mindestens einer Auswerteeinheit ausgewertet werden und die räumliche Position und Orientierung des Messobjekts bestimmt werden.
  • Zusammenfassend sind im Rahmen der vorliegenden Erfindung folgende Ausführungsformen besonders bevorzugt:
    • Ausführungsform 1: Vorrichtung zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts, wobei die Vorrichtung mindestens drei passive Marker aufweist, welche auf dem Messobjekt angeordnet sind, wobei die Vorrichtung mindestens eine LIDAR-Einheit mit mindestens zwei Messkanälen aufweist, wobei die LIDAR-Einheit mindestens eine Beleuchtungsvorrichtung aufweist, welche eingerichtet ist, mindestens einen frequenzmodulierten Eingangslichtstrahl zu erzeugen, wobei die Messkanäle jeweils mindestens eine Optik aufweisen, welche eingerichtet ist, den Eingangslichtstrahl in einen Raumwinkel aufzuweiten, so dass die drei passiven Marker überstrahlt werden, wobei jeder der Messkanäle eingerichtet ist, mindestens einen von den passiven Markern erzeugten Messlichtstrahl zu erfassen, wobei die LIDAR-Einheit eingerichtet ist, um für jeden Messkanal mindestens ein Entfernungssignal zu erzeugen, wobei die Vorrichtung mindestens eine Zusatzkamera aufweist, wobei die Zusatzkamera eine Flächenkamera, welche eingerichtet ist, um mindestens eine zwei-dimensionale Abbildung des Messobjekts aufzunehmen, oder eine Zeilenkamera aufweist, welche eingerichtet ist, um mindestens eine ein-dimensionale Abbildung des Messobjekts aufzunehmen.
    • Ausfuhrungsform 2: Vorrichtung nach der vorhergehenden Ausführungsform, wobei die LIDAR-Einheit mindestens einen Strahlaufteiler aufweist, wobei der Strahlaufteiler eingerichtet ist, den Eingangslichtstrahl in gleich große oder verschieden große Anteile parallel und/oder sequenziell auf die Messkanäle aufzuteilen.
    • Ausfuhrungsform 3: Vorrichtung nach einer der vorhergehenden Ausführungsformen, wobei die Flächenkamera einen CCD-Flächenkamerachip und/oder einen CMOS-Chip aufweist.
    • Ausfuhrungsform 4: Vorrichtung nach einer der vorhergehenden Ausführungsformen, wobei mindestens zwei aktive Marker auf dem Messobjekt angeordnet sind, wobei die Zusatzkamera eingerichtet ist, von den aktiven Markern erzeugte Lichtstrahlen zu erfassen.
    • Ausfuhrungsform 5: Vorrichtung nach einer der vorhergehenden Ausführungsformen, wobei die Vorrichtung mindestens eine Beleuchtungsvorrichtung aufweist, welche eingerichtet ist, mindestens zwei passive Marker zu beleuchten, wobei die Zusatzkamera eingerichtet ist, von den passiven Markern reflektierte Lichtstrahlen zu erfassen.
    • Ausfuhrungsform 6: Vorrichtung nach einer der vorhergehenden Ausführungsformen, wobei die Vorrichtung mindestens eine Messeinrichtung aufweist, wobei die Messeinrichtung mindestens ein Element aufweist ausgewählt aus der Gruppe bestehend aus: mindestens einem Beschleunigungssensor; mindestens einer Funksensorik; mindestens einer Radarsensorik; mindestens einem weiteren LIDAR-Messkanal.
    • Ausfuhrungsform 7: Vorrichtung nach einer der vorhergehenden Ausführungsformen, wobei die Vorrichtung mindestens eine Auswerteeinheit aufweist, welche eingerichtet ist, die Entfernungssignale und die Abbildung des Messobjekts auszuwerten und die räumliche Position und Orientierung des Messobjekts zu bestimmen.
    • Ausfuhrungsform 8: Verfahren zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts, wobei in dem Verfahren eine Vorrichtung nach einer der vorhergehenden Ausführungsformen verwendet wird, wobei die Vorrichtung mindestens drei passive Marker aufweist, welche auf dem Messobjekt angeordnet sind wobei das Verfahren die folgenden Schritte aufweist:
      1. a) Erzeugen mindestens eines frequenzmodulierten Eingangslichtstrahls mit mindestens einer Beleuchtungsvorrichtung mindestens einer LIDAR-Einheit, wobei die LIDAR-Einheit mindestens zwei Messkanäle aufweist;
      2. b) Aufweiten des Eingangslichtstrahls in jedem der Messkanäle, wobei die Messkanäle jeweils mindestens eine Optik aufweisen, welche eingerichtet ist, den Eingangslichtstrahl in einen Raumwinkel aufzuweiten, so dass die drei passiven Marker überstrahlt werden;
      3. c) Erfassen mindestens eines von den passiven Markern erzeugten Messlichtstrahls mit jedem der Messkanäle und Erzeugen mindestens eines Entfernungssignals für jeden der Messkanäle mit der LIDAR-Einheit;
      4. d) Aufnehmen mindestens einer Abbildung des Messobjekts mit mindestens einer Zusatzkamera, wobei die Zusatzkamera eine Flächenkamera, welche eingerichtet ist eine zwei-dimensionale Abbildung des Messobjekts aufzunehmen, oder eine Zeilenkamera aufweist, welche eingerichtet ist, um mindestens eine ein-dimensionale Abbildung des Messobjekts aufzunehmen.
    • Ausfuhrungsform 9: Verfahren nach der vorhergehenden Ausführungsform, wobei mindestens zwei aktive Marker auf dem Messobjekt angeordnet sind, wobei in Schritt d) von den aktiven Markern erzeugte Lichtstrahlen mit der Zusatzkamera erfasst werden.
    • Ausführungsform 10: Verfahren nach einer der vorhergehenden, ein Verfahren betreffenden Ausführungsformen, wobei das Verfahren mindestens einen Auswerteschritt aufweist, wobei in dem Auswerteschritt die Entfernungssignale und die Abbildung des Messobjekts mit mindestens einer Auswerteeinheit ausgewertet werden und die räumliche Position und Orientierung des Messobjekts bestimmt werden.
  • Figurenliste
  • Weitere Einzelheiten und Merkmale der Erfindung ergeben sich aus der nachfolgenden Beschreibung von bevorzugten Ausführungsbeispielen, insbesondere in Verbindung mit den Unteransprüchen. Hierbei können die jeweiligen Merkmale für sich alleine oder zu mehreren in Kombination miteinander verwirklicht sein. Die Erfindung ist nicht auf die Ausführungsbeispiele beschränkt. Die Ausführungsbeispiele sind in den Figuren schematisch dargestellt. Gleiche Bezugsziffern in den einzelnen Figuren bezeichnen dabei gleiche oder funktionsgleiche bzw. hinsichtlich ihrer Funktionen einander entsprechende Elemente.
  • Im Einzelnen zeigen:
    • 1 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung; und
    • 2 bis 15 weitere Ausführungsbeispiele der Vorrichtung.
  • Ausführungsbeispiele
  • 1 zeigt eine schematische Darstellung einer erfindungsgemäßen Vorrichtung 110 zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts 112. Das Messobjekt 112 kann ein Messkopf eines Sensors sein oder ein Werkzeug sein, mit welchem ein Bauteil abgetastet werden kann.
  • Die Vorrichtung 110 weist mindestens drei passive Marker 114 auf, welche auf dem Messobjekt 112 angeordnet sind. Beispielsweise können die passiven Marker 114 mindestens einen Retroreflektor aufweisen. Beispielsweise können die passiven Marker 114 jeweils mindestens ein Element aufweisen, ausgewählt aus der Gruppe bestehend aus: einem Katzenauge, Kugellinsen mit Reflektionsschicht, einem Marker beschrieben in US 2011/0007326 A1 , US 2013/0050410 A1 oder US 2017/0258531 A1 , deren Inhalt hiermit in diese Anmeldung aufgenommen wird, einem Würfelprisma, einem corner cube. Die passiven Marker 114 können fest und/oder auswechselbar auf dem Messobjekt 112 angeordnet sein. Eine Position der passiven Marker 114 auf dem Messobjekt 112 kann bekannt sein. Das Messobjekt 112 kann eine Vielzahl von passiven Markern 114 aufweisen, insbesondere mehr als drei passive Marker 114, beispielsweise vier, fünf, sechs oder mehr passive Marker 114.
  • Die Vorrichtung 110 weist mindestens eine LIDAR-Einheit 116 mit mindestens zwei Messkanälen 118 auf. Die LIDAR-Einheit 116 weist mindestens eine Beleuchtungsvorrichtung 120 auf, welche eingerichtet ist, mindestens einen frequenzmodulierten Eingangslichtstrahl zu erzeugen. Die Messkanäle 118 weisen jeweils mindestens eine Optik 122 auf, welche eingerichtet ist, den Eingangslichtstrahl in einen Raumwinkel aufzuweiten, so dass die drei passiven Marker 114 überstrahlt werden. Jeder der Messkanäle 118 ist eingerichtet, mindestens einen von den passiven Markern 114 erzeugten Messlichtstrahl zu erfassen. Die LIDAR-Einheit 116 ist eingerichtet, um für jeden Messkanal 118 mindestens ein Entfernungssignal zu erzeugen.
  • Die LIDAR-Einheit 116 weist die mindestens eine Beleuchtungsvorrichtung 120 auf, welche eingerichtet ist, mindestens einen frequenzmodulierten Eingangslichtstrahl zu erzeugen, eine sogenannte „Frequency Modulated Continuous Wave“ (FMCW). Die LIDAR-Einheit 116 kann eingerichtet sein, den Eingangslichtstrahl zu erzeugen, dessen Frequenz kontinuierlich durchgestimmt wird, nach dem FMCW-Verfahren. Beispielsweise kann die Frequenz des Eingangslichtstrahls linear mit der Zeit moduliert sein. Eine Kombination von LIDAR-Verfahren und FMCW-Verfahren sind dem Fachmann grundsätzlich bekannt, beispielsweise aus Chip-scale Lidar, Benham Behroozpur Baghmisheh, Technical Report No. UCB/EECS.2017-4. Beispielsweise kann die LIDAR-Einheit 116 wie in US 9,559,486 B2 , US 8,913,636 B2 oder US 2016/123718 A1 ausgestaltet sein. Die Beleuchtungsvorrichtung 120 kann mindestens eine FMCW-Lichtquelle aufweisen. Die Beleuchtungsvorrichtung 120 kann mindestens eine einstellbare (tunable) Laserquelle aufweisen, beispielsweise mindestens eine Distributed Feedback (DFB) Laserdiode oder eine Distributed Bragg Reflector (DBR) Laserdiode.
  • Die Messkanäle 118 können identisch oder unterschiedlich ausgestaltet sein. Die LIDAR-Einheit 116 kann eine Vielzahl Messkanälen 118 aufweisen, beispielsweise vier, fünf oder mehr Messkanäle. Die Messkanäle 118 können zumindest teilweise räumlich und/oder zeitlich getrennt voneinander ausgestaltet sein.
  • Die Messkanäle 118 können jeweils mindestens eine optische Faser 124 aufweisen, insbesondere mindestens eine Monomodefaser und/oder mindestens eine Multimodefaser. Die optischen Fasern 124 können bevorzugt eine unterschiedliche Länge aufweisen. Dieses kann eine Trennung der jeweiligen Messkanäle 118 in einem Frequenzspektrum ermöglichen. Die optischen Fasern 124 können jeweils einen Längen-Offset aufweisen. Der Längen-Offset der optischen Fasern 124 kann derart sein, dass jeweilige Frequenzspektren der Messkanäle in dem Frequenzspektrum identifizierbar und/oder trennbar sind. Alternativ oder zusätzlich, kann eine Trennung auch durch eine Verwendung von einem Detektor, beispielsweise einer Photodiode, pro Messkanal erfolgen.
  • Die Messkanäle 118 können jeweils mindestens ein, hier nicht dargestelltes, optisches Element aufweisen. Das optische Element kann eingerichtet sein, den durch die jeweilige optische Faser 124 laufenden Eingangslichtstrahl aus der optischen Faser 124 auszukoppeln und Messlichtstrahlen in die jeweilige optische Faser 124 einzukoppeln. Die optischen Fasern 124 können einen Faseranfang und ein Faserende aufweisen, wobei mindestens ein Anteil des Eingangslichtstrahls von dem Faseranfang zu dem Faserende durch die jeweilige optische Faser läuft. Das optische Element kann an dem Faserende angeordnet sein. Das optische Element kann eine Auskoppeloptik umfassen. Das optische Element kann eine Einkoppeloptik umfassen. Die Auskoppeloptik und die Einkoppeloptik können identisch sein.
  • Die LIDAR-Einheit 116 kann eingerichtet sein, die Messkanäle 118 parallel und/oder sequenziell zu betreiben. Bei parallelem Betreiben kann eine Messung von mehreren Distanzen gleichzeitig ermöglicht werden. Die LIDAR-Einheit 116 kann mindestens einen Strahlaufteiler 126, insbesondere einen Multiplexer, aufweisen. Der Strahlaufteiler 126 kann eingerichtet sein, den Eingangslichtstrahl mindestens einem Messkanal 118 zu zuführen, und/oder den Eingangslichtstrahl parallel und/oder sequenziell zumindest teilweise auf die Messkanäle 118 aufzuteilen. Der Strahlaufteiler 126 kann eingerichtet sein, den gesamten Eingangslichtstrahl einem ersten Messkanal zu zuführen und nacheinander einem zweiten Messkanal zuzuführen. Alternativ oder zusätzlich kann der Strahlaufteiler 126 eingerichtet sein, den Eingangslichtstrahl in mindestens zwei Anteile aufzuteilen. Der Strahlaufteiler 126 kann eingerichtet sein, den Eingangslichtstrahl in gleich große oder verschieden große Anteile parallel und/oder sequenziell auf die Messkanäle 118 aufzuteilen. Beispielsweise kann der Strahlaufteiler 126 eingerichtet sein, den Eingangslichtstrahl in einem Verhältnis von 50/50, 40/60 oder 30/70 aufzuteilen. Auch andere Verhältnisse sind jedoch denkbar. Der Strahlaufteiler 126 kann in Ausbreitungsrichtung des Eingangslichtstrahls vor der jeweiligen optischen Faser 124 des Messkanals 118 angeordnet sein, beispielsweise in einem gemeinsamen Gehäuse mit der Beleuchtungsvorrichtung 120.
  • Die Messkanäle 118 weisen jeweils die mindestens eine Optik 122 auf, welche eingerichtet ist, den Eingangslichtstrahl in einen Raumwinkel aufzuweiten, so dass die drei passiven Marker 114 überstrahlt werden. Die Optik 122 kann eine einstellbare und/oder anpassbare und/oder steuerbare effektive Brennweite aufweisen. Beispielsweise können die Messkanäle 118 jeweils ein Weitwinkelobjektiv aufweisen. Die Optik 122 kann mindestens eine Sammellinse oder eine Konkavlinse aufweisen. Bevorzugt kann eine Sammellinse 128 verwendet werden, welche eine annähernd gekippte Planwellenfront am passiven Marker 114 und gute Effizienz bei der Einkopplung im Brennpunkt ermöglicht. Jeder passive Marker 114 kann mindestens einen Teil des auf ihn einfallenden Lichtstrahls zurücksenden. Die Messkanäle 118 können eine gemeinsame Verbindungsachse 130 aufweisen. Die Messkanäle 118 können jeweils einen Ursprung der LIDAR-Strahlengänge aufweisen. Beispielsweise bei Ausführungsformen mit zwei Messkanälen 118 und einer Zusatzkamera 140 können die zwei Ursprünge der beiden LIDAR-Strahlengänge auf einer Achse liegen. Die Zusatzkamera 140 kann in der Mitte zwischen beiden Ursprüngen senkrecht daneben angeordnet sein, je weiter weg, desto genauer arbeitet das Messsystem. Beispielsweise bei Ausführungsformen mit drei Messkanälen 118 können die drei Ursprünge der drei Strahlengänge eine Ebene aufspannen.
  • Die Messkanäle 118 können mindestens eine optische Vorrichtung zur räumlichen Ausrichtung 132, insbesondere Strahlablenkung, des Eingangslichtstrahls aufweisen. Eine Strahlablenkung kann in zwei räumlichen Verteilungen αi und βi, wobei i den Messkanal angibt, erfolgen. Die räumlichen Verteilungen der Messkanäle kann identisch oder verschieden sein. Beispielsweise können die Messkanäle 118 jeweils mindestens einen statischen oder einstellbaren Spiegel aufweisen. Beispielsweise kann die Vorrichtung 110 mindestens eine Steuerung aufweisen, welche eingerichtet ist, den Spiegel an zu steuern und in eine beliebige Winkelstellung einzustellen.
  • Die räumliche Auslenkung der LIDAR-Einheit 116 muss nur so genau bekannt sein, dass reflektierende Objekte wieder zurückabgebildet werden. Es ist kein weiteres messendes System notwendig, welches überprüft, ob ein vorgegebener Wert erreicht wird.
  • Jeder der Messkanäle 118 ist eingerichtet, mindestens einen von den passiven Markern 114 erzeugten Messlichtstrahl zu erfassen. Die Messkanäle 118 können jeweils eingerichtet mindestens ein Messsignal zu erzeugen. Das Messsignal eines jeden Messkanals 118 kann ein Ausgangslichtstrahl des jeweiligen Messkanals 118 sein. Die LIDAR-Einheit 116 ist eingerichtet, um für jeden Messkanal 118 mindestens ein Entfernungssignal zu erzeugen. Die LIDAR-Einheit 116 kann mindestens ein Sensorelement 134 aufweisen, welches eingerichtet ist, die Messsignale der Messkanäle 118 zu detektieren. Das Sensorelement 134 kann mindestens eine Photodiode aufweisen. Die LIDAR-Einheit 116 kann eingerichtet sein, einen Referenzlichtstrahl zu erzeugen. Die LIDAR-Einheit 116 kann mindestens einen Referenzarm aufweisen. Der Referenzlichtstrahl kann ein aktueller Eingangslichtstrahl sein, welcher beispielsweise über den Referenzarm der LIDAR-Einheit 116 dem Sensorelement 134 zugeführt wird. Das Sensorelement 116 kann eingerichtet sein, den Referenzlichtstrahl mit den Messsignalen der Messkanäle 118 zu überlagern. Das Entfernungssignal, auch LIDAR-Signal genannt, kann ein Signal der LIDAR-Einheit 116 sein, welches mindestens eine Information über einen Frequenzunterschied, auch Frequenzdelta genannt, zwischen Referenzlichtstrahl und Messsignal aufweist. Das Entfernungssignal kann ein Signal sein, in welchem die Messsignale der Messkanäle mit dem Referenzlichtstrahl überlagert sind. Das Entfernungssignal kann ein Frequenzspektrum eines Schwebungssignals des Referenzlichtstrahls überlagert mit den Messsignalen sein. Die LIDAR-Einheit 116 kann eingerichtet sein, mindestens ein Messsignal mit dem Referenzlichtstrahl zu überlagern und ein Frequenzspektrum eines entstehenden Schwebungssignals zu bestimmen. Der Strahlaufteiler 126 kann eingerichtet sein, die Messsignale der Messkanäle 118 zu überlagern. Die LIDAR-Einheit 116 kann eingerichtet sein, die überlagerten Messsignale mit dem Referenzlichtstrahl zu überlagern und ein Frequenzspektrum eines entstehenden Schwebungssignals zu bestimmen. Die LIDAR-Einheit 116 kann eingerichtet sein, in dem Frequenzspektrum für jeden passiven Marker 114 mindestens drei Peaks zu bestimmen und aus diesen eine Information über Position und Orientierung im 6D-Raum zu bestimmen.
  • Die Vorrichtung 110 kann mindestens eine Auswerteeinheit 136 aufweisen. Die Auswerteeinheit 136 kann eingerichtet sein, aus dem LIDAR-Signal die Information über die räumliche Position und Orientierung des Messobjekts 112 zu bestimmen. Die Auswerteeinheit 136 kann beispielsweise mindestens eine Datenverarbeitungsvorrichtung umfassen, beispielsweise mindestens einen Computer oder Mikrocontroller. Die Datenverarbeitungsvorrichtung kann einen oder mehrere flüchtige und/oder nicht flüchtige Datenspeicher aufweisen, wobei die Datenverarbeitungsvorrichtung beispielsweise programmtechnisch eingerichtet sein kann, um das Sensorelement 134 anzusteuern. Die Auswerteeinheit 136 kann weiterhin mindestens eine Schnittstelle umfassen, beispielsweise eine elektronische Schnittstelle und/oder eine Mensch-Maschine-Schnittstelle wie beispielsweise eine Eingabe-/Ausgabe-Vorrichtung wie ein Display und/oder eine Tastatur. Die Auswerteeinheit 136 kann beispielsweise zentral oder auch dezentral aufgebaut sein. Auch andere Ausgestaltungen sind denkbar. Die Auswerteeinheit 136 kann mindestens einen A/D-Wandler aufweisen.
  • Die Auswerteeinheit 136 kann eingerichtet sein, ein Frequenzspektrum des LIDAR-Signals, insbesondere dem Schwebungssignal, mittels einer Fourier-Transformation zu bestimmen. Ein beispielhaftes Frequenzspektrum ist in 1, mit Bezugsziffer 138 gekennzeichnet, dargestellt. Das Frequenzspektrum kann eine Vielzahl von Maxima aufweisen, sogenannte Peaks. Die Auswerteeinheit 136 kann eingerichtet sein, die Peaks des Frequenzspektrums zu identifizieren. Die Auswerteeinheit 136 kann beispielsweise eingerichtet sein, bei einer parallelen Messung in den drei Messkanälen mindestens neun Peaks zu identifizieren. Bei einer Verwendung von zwei LIDAR-Messkanälen 118 und einer 2D-Kamera 140 würden entsprechend 2*3 Peaks entstehen, welche von der Auswerteeinheit 136 ausgewertet werden. Die Auswerteeinheit 136 kann eingerichtet sein, die Peaks jeweils einem Messkanal 118 zu zuordnen. Aus Informationen über die genaue Verteilung und/oder Anordnung der Peaks kann eine Information über die räumliche Position der drei passiven Marker 114 bestimmt werden. Aus drei Längen aus unterschiedlichen Richtungen lässt sich ein 3D-Punkt bestimmen. Bei bekannter Anordnung der passiven Marker 114 auf dem Messobjekt 112 kann eine komplette 6D-Information bestimmt werden. Die Bestimmung der Position und Orientierung kann wie in DE 10 2018 222 629 A1 beschrieben erfolgen, deren Inhalt hiermit in diese Anmeldung aufgenommen wird.
  • Zwei LIDAR-Messkanäle 118 sind auf einer Kreisbahn senkrecht zu ihrer Verbindungsachse 130 nicht sensitive bezüglich dieser, da alle gemessenen Längen gleichbleiben. Mittels der Entfernungssignale, die die LIDAR-Einheit 116 von der Reflektion der passiven Marker 114 liefert, kann eine 1D-Untermenge der Positionskandidaten und Orientierungskandidaten im 6D-Raum generiert werden, welche die Position und Orientierung des Messobjekts 112 beschreibt. Die Vorrichtung 110 weist mindestens eine Zusatzkamera 140 auf. Die Zusatzkamera 140 weist eine Flächenkamera 142 auf, welche eingerichtet ist, um mindestens eine zwei-dimensionale Abbildung des Messobjekts 112 aufzunehmen. Aus der zwei-dimensionalen Abbildung des Messobjekts 112 können Zusatzinformationen gewonnen werden, insbesondere unter Verwendung der Auswerteeinheit 136, welche die 1D-Untermenge auf eine Position und Orientierung reduziert.
  • Beispielsweise kann Flächenkamera 142 einen CCD-Flächenkamerachip und/oder einen CMOS-Chip aufweisen. Die Zusatzkamera 140 kann eine abbildende Optik und einen Kamerachip aufweisen. In 1 sind zudem zwei Raumrichtung u und v gezeigt, in welche die Zusatzkamera ausgerichtet ist. Alternativ oder zusätzlich sind Ausführungsformen denkbar, in welchen die Zusatzkamera 140 eine 1D-Kamera, beispielsweise eine CCD-Zeilenkamera, aufweist, und/oder eine 2D-Kamera, welche sich auf dem vom Eingangslichtstrahl verfolgten Messobjekt 112 befindet.
  • Die Vorrichtung 110 kann eine Vielzahl von aktiven Markern 144, insbesondere mindestens zwei aktive Marker aufweisen. Die aktiven Marker 144 können eingerichtet sein, mindestens einen Lichtstrahl zu erzeugen und/oder zu emittieren. Der Lichtstrahl kann einen Wellenlängenbereich aufweisen, in welchem die Zusatzkamera 140 sensitiv ist. Beispielsweise können die aktiven Marker 144 mindestens eine LED (light emitting diode) aufweisen, welche im sichtbaren oder nah-infrarot Bereich des optischen Spektrums emittiert. Die aktiven Marker 144 können dabei parallel, beispielsweise uncodiert, oder sequentiell, beispielsweise codiert, oder aus einer Kombination von beiden Betriebsvarianten betrieben werden. Auch sind Ausführungsformen denkbar, in welchen eine Abfolge spezieller Kombinationen von parallel betriebenen Markern 144 codiert sein kann. Mindestens zwei aktive Marker 144 können auf dem Messobjekt 112 angeordnet sein. Die Flächenkamera 142 kann eingerichtet sein, von den aktiven Markern 144 erzeugte Lichtstrahlen zu erfassen.
  • Alternativ oder zusätzlich zu den aktiven Markern 144, können passive Marker 114 von der Flächenkamera 142 aufgenommen werden, beispielsweise weitere passive Marker, welche auf dem Messobjekt 112 angeordnet sind, und/oder die oben beschriebenen passiven Marker 114. Die Beleuchtungsvorrichtung 120 der LIDAR-Einheit 116 kann eingerichtet sein, mindestens zwei passive Marker 114 zu beleuchten. Die Beleuchtung kann sequentiell oder parallel erfolgen.
  • Die Auswerteeinheit 136 kann eingerichtet sein, um die Entfernungssignale und die zwei-dimensionalen Abbildung des Messobjekts 112 auszuwerten und die räumliche Position und Orientierung des Messobjekts 112 zu bestimmen. Durch die Abbildung mindestens zweier auf dem Messobjekt 112 angeordneter Marker mit der Flächenkamera 142 können zusätzliche Information zur Position und/oder Orientierung des Messobjekts 112 bestimmt werden, welche die welche die 1D-Untermenge auf eine Position und Orientierung reduziert. Die Zusatzkamera 140 kann verschieden zu der Verbindungsachse 130 der LIDAR-Messkanäle 118 ausgerichtet sein. Beispielsweise kann eine Abbildung eines ersten am Messobjekt 112 angeordneten Markers ausgewertet werden, durch welche die Kreisbahn senkrecht zur Verbindungsachse 130 der LIDAR-Messkanäle 118 mit einer Ebene geschnitten wird. Die gleichzeitig mit der Flächenkamera 142 aufgenommene Abbildung eines weiteren Markers kann zur Verifikation der Position und/oder Orientierung und/oder zur Verbesserung der Messgenauigkeit der Bestimmung der Position und/oder Orientierung verwendet werden. Weiter kann ein Ausfall eines der Marker kompensiert werden. Flächenkameras können gegenüber Zeilenkameras vorteilhaft sein, beispielsweise durch eine Verfügbarkeit von 2D-Flächenchips, eine Reduzierung von Kosten, und eine Verfügbarkeit von Standard-Objektiven.
  • Zwischen den Messkanälen 118 und/oder der Flächenkamera 142 kann eine starre und bekannte Verbindung vorgesehen sein.
  • Die Vorrichtung kann mindestens eine Messeinrichtung 143 aufweisen, wie beispielsweise in 9 gezeigt. Die Messeinrichtung 143 kann mindestens ein Element aufweisen ausgewählt aus der Gruppe bestehend aus: mindestens einem Beschleunigungssensor; mindestens einer Funksensorik; mindestens einer Radarsensorik; mindestens einem weiteren LIDAR-Messkanal. Die Messeinrichtung 143 kann beispielsweise eine im Messobjekt 112 integrierte Sensorik sein, beispielsweise ein uniaxialer oder triaxialer Beschleunigungssensor. Die Messeinrichtung 143 kann beispielsweise eine Beleuchtungseinheit aufweisen, welche Licht im Wellenlängenbereich emittiert, innerhalb dessen die Zusatzkamera 140 sensitiv ist und die beispielsweise dauerhaft leuchten oder in einem bestimmten Zeitintervall > 0,1 Hz blitzen kann. Die Messeinrichtung 143 kann beispielsweise eingerichtet sein, eine Robotertrajektorie zu bestimmen, deren Werte Untermengen des 6D-Raumes bilden können. Die Messeinrichtung 143 kann beispielsweise eine Funksensorik und/oder Radarsensorik aufweisen.
  • Die Vorrichtung 110 kann eingerichtet sein, das Messobjekt 112 zu tracken. Wie oben ausgeführt, wird ein aufgeweiteter Lichtstrahl verwendet, derart, dass mindestens drei passive Marker 114 gleichzeitig überstrahlt werden. Die Auswerteeinheit 136 kann eingerichtet sein, jeweils einen Mittelpunkt von Messkanalgruppen im Frequenzspektrum zu bestimmen und aus diesen einen groben 3D-Punkt des Messobjekts 112 zu bestimmen. Dieser grobe 3D-Punkt kann zum Objekt-Tracken verwendet werden. Das Nachverfolgen des Messobjekts 112 kann einfach erfolgen, da unter Verwendung des aufgeweiteten Strahls nur eine grobe Positionsbestimmung und Nachverfolgung dieser notwendig ist. Weiter kann durch die parallele Messung das Tracken schnell erfolgen. Eine Trackingfrequenz kann einer Auslesefrequenz der LIDAR-Einheit 116 entsprechen, beispielsweise 1 bis 10 kHz. Da das Nachverfolgen durch die LIDAR-Signale möglich ist kann auf eine zusätzliche Trackingeinheit verzichtet werden.
  • 2 zeigt eine Ausführungsform, in welcher die Vorrichtung 110 einen LIDAR-Messkanal 118 und eine Flächenkamera 142 verwendet und/oder aufweist. Zwischen dem Messkanal 118 und der Flächenkamera 142 kann eine starre und bekannte Verbindung vorgesehen sein. Hinsichtlich der Ausgestaltung der Flächenkamera 142 und des LIDAR-Messkanals 118 wird auf die Beschreibung von 1 verwiesen. Die Vorrichtung 110 kann weitere LIDAR-Messkanäle 118 aufweisen, wobei nur einer für die Auswertung berücksichtigt wird. In dieser Ausführungsform können aktive Marker 144 für die Erfassung mit der Flächenkamera 142 auf dem Messobjekt 112 vorgesehen sein. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion der mindestens drei passiven Marker 114 liefert, kann eine 3D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts 112 beschreibt. Die LIDAR-Einheit 116 unter Verwendung eines Messkanals 118 kann auf einer Kugel um einen Abbildungsursprung herum unempfindlich auf Bewegungen und Rotationen des Messobjekts 112 sein, wobei bezüglich dieser alle gemessenen Längen identisch bleiben. Durch eine Abbildung mindestens zweier auf dem Messobjekt 112 angeordneter aktiver Marker 144 auf der Flächenkamera 142 kann diese Kugel mit zwei Geraden geschnitten werden, wodurch die dadurch entstehenden vier Pixelkoordinaten die 3D-Untermenge auf eine Position und Orientierung des Messobjekts 112 reduziert.
  • 3 zeigt eine Ausführungsform, in welcher die Vorrichtung 110 einen LIDAR-Messkanal 118 und mindestens zwei eindimensional abbildende Kameras 146 verwenden und/oder aufweisen. Zwischen dem Messkanal 118 und/oder den Kameras 146 kann eine starre und bekannte Verbindung vorgesehen sein. Hinsichtlich der Ausgestaltung des LIDAR-Messkanals 118 wird auf die Beschreibung von 1 verwiesen. In dieser Ausführungsform können aktive Marker 144 für die Erfassung mit der Kamera 146 auf dem Messobjekt 112 vorgesehen sein. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion der mindestens drei passiven Marker 114 liefert, kann eine 3D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, die die Position und Orientierung des Messobjekts 112 beschreibt. Die LIDAR-Einheit 116 kann auf einer Kugel um den Abbildungsursprung herum unempfindlich auf Bewegungen und Rotationen des Messobjekts 112 sein, bezüglich welcher alle gemessenen Längen identisch bleiben. Durch die Abbildung mindestens zweier auf dem Messobjekt 112 angeordneter aktiver Marker 144 auf den zwei 1D-Kameras 146 kann diese Kugel mit zwei Geraden geschnitten werden, wodurch die dadurch entstehenden vier Pixelkoordinaten die 3D-Untermenge auf eine Position und Orientierung des Messobjekts 112 reduziert. Die beiden 1D-Kameras 146 können insbesondere verschiedene Ausrichtungen u und v aufweisen.
  • 4 zeigt eine Ausführungsform, in welcher die Vorrichtung 110 einen LIDAR-Messkanal 118 und mindestens eine zweidimensional abbildende Kamera 142 verwendet und/oder aufweist. Zwischen dem Messkanal 118 und der Kameras 142 kann eine starre und bekannte Verbindung vorgesehen sein. Hinsichtlich der Ausgestaltung des LIDAR-Messkanals 118 und der Kamera 142 wird auf die Beschreibung von 1 verwiesen. In dieser Ausführungsform können passive Marker 114 für die Erfassung mit der Kamera 142 auf dem Messobjekt 112 vorgesehen sein. Die passiven Marker 114 können von einer zusätzlichen Beleuchtungsvorrichtung 148 beleuchtet werden. Die passiven Marker können dieselben wie für den Eingangslichtstrahl sein. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion, die der passive Marker 114 liefert, wird eine 3D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet, welche die Position und Orientierung des Messobjekts 112 beschreibt. Die LIDAR-Einheit 116 kann auf einer Kugel um den Abbildungsursprung herum unempfindlich auf Bewegungen und Rotationen des Messobjekts 112 sein, bezüglich welcher alle gemessenen Längen identisch bleiben. Durch Abbildung mindestens zweier passiver Marker 114 auf der 2D-Kamera 142 kann diese Kugel mit zwei Geraden geschnitten werden, wodurch die dadurch entstehenden vier Pixelkoordinaten die 3D-Untermenge auf eine Position und Orientierung des Messobjekts 112 reduziert. Die Beleuchtungsvorrichtung 148, mit der diese passiven Marken 114 beleuchtet werden, kann entweder die LIDAR-Einheit 116 selbst oder eine andere Beleuchtungsvorrichtung 148 sein, die Licht im für die Kamera sensitiven Wellenlängenbereich aussendet.
  • 5 zeigt eine Ausführungsform, in welcher die Vorrichtung 110 einen LIDAR-Messkanal 118 und mindestens zwei eindimensional abbildende Kameras 146 verwendet und/oder aufweist. Zwischen dem Messkanal 118 und/oder den Kameras 146 kann eine starre und bekannte Verbindung vorgesehen sein. Hinsichtlich der Ausgestaltung des LIDAR-Messkanals 118 wird auf die Beschreibung von 1 verwiesen. Hinsichtlich der Ausgestaltung der eindimensional abbildende Kameras 146 wird auf die Beschreibung von 3 verwiesen. In dieser Ausführungsform können passive Marker 114 für die Erfassung mit den Kameras 146 auf dem Messobjekt 112 vorgesehen sein. Die passiven Marker 114 können von einer zusätzlichen Beleuchtungsvorrichtung 148 beleuchtet werden. Die passiven Marker 114 können dieselben wie für den Eingangslichtstrahl sein. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion mindestens dreier passiver Marker 114 liefert, kann eine 3D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts 112 beschreibt. Die LIDAR-Einheit 116 kann auf einer Kugel um den Abbildungsursprung herum unempfindlich auf Bewegungen und Rotationen des Messobjekts 112 sein, wobei bezüglich dieser alle gemessenen Längen identisch bleiben. Durch Abbildung mindestens zweier passiver Marker 114 auf zwei 1D-Kameras kann diese Kugel mit zwei Geraden geschnitten werden, wodurch die dadurch entstehenden vier Pixelkoordinaten die 3D-Untermenge auf eine Position und Orientierung des Messobjekts 112 reduziert. Die beiden 1D-Kameras 146 können insbesondere verschiedene Ausrichtungen u und v aufweisen. Die Beleuchtungsvorrichtung, mit der diese passiven Marker 114 beleuchtet werden, kann entweder die LIDAR-Einheit 116 selbst oder eine andere Beleuchtungsvorrichtung 148 sein, die Licht im für die Kameras 146 sensitiven Wellenlängenbereich aussendet.
  • 6 zeigt eine Ausführungsform, in welcher die Vorrichtung 110 einen LIDAR-Messkanal 118 und eine bekannte, beispielsweise vorbestimmte, Objekttrajektorie, auch welcher sich das Messobjekt 112 bewegt, zur Bestimmung der Position und Orientierung des Messobjekts 112 verwendet. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion mindestens dreier passiver Marker 114 liefert, kann eine 3D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts 112 beschreibt. Die Kenntnis der Trajektorie, auf der sich das Messobjekt bewegt, beispielsweise mittels eines Roboters 150, kann die 3D-Untermenge auf eine Position und Orientierung reduzieren. In dieser Ausführungsform kann eine Verbesserung einer bekannten Objekttrajektorie durch einen LIDAR-Messkanal 118 erreicht werden, solang die Längenmessung durch LIDAR genauer ist als die Genauigkeit der bekannten Objekttrajektorie.
  • 7 zeigt eine Ausführungsform, in welcher die Vorrichtung 110 zwei LIDAR-Messkanäle 118 und eine 1D-Kamera 146 aufweist und/oder verwendet In dieser Ausführungsform können aktive Marker 144 für die Erfassung mit der Kamera 146 auf dem Messobjekt 112 vorgesehen sein. Zwei LIDAR-Messkanäle 118 können auf einer Kreisbahn senkrecht zu ihrer Verbindungsachse 130 nicht sensitiv bezüglich dieser sein, da alle gemessenen Längen identisch bleiben. Durch das Abbild eines am Messobjekt 112 angebrachten Markers 144, welcher durch die 1D-Kamera 146, beispielsweise eine CCD-Zeilenkamera, aufgenommen wird, wird die Kreisbahn mit einer Ebene geschnitten, so dass die Vorrichtung 110 mit einer nicht identisch zur Verbindungsachse 130 ausgerichteten 1D-Kamera 146 6D-Lageinformationen des Messobjektes 112 erzeugen kann. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion der mindestens drei passiven Marker 114 liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum generiert werden, welche die Position und Orientierung des Messobjekts 112 beschreibt. Die Abbildung des aktiven Markers 144 auf die 1D-Kamera 146 kann die Untermenge auf eine Position und Orientierung reduzieren. Die 1D-Kamera 146 kann dabei das Licht von mindestens einer aktiven Lichtquelle auf dem Messobjekt 112 detektieren, welche sequentiell oder parallel Licht aussendet.
  • 8 zeigt eine Ausführungsform, in welcher die Vorrichtung 110 zwei LIDAR-Messkanäle 118 und eine 1D-Kamera 146 aufweist und/oder verwendet. In dieser Ausführungsform können passive Marker 114 für die Erfassung mit der Kamera 146 auf dem Messobjekt 112 vorgesehen sein. Die passiven Marker 114 können von einer Beleuchtungsvorrichtung 148 beleuchtet werden. Die passiven Marker 114 können dieselben wie für den Eingangslichtstrahl sein. Zwei LIDAR-Messkanäle 118 können auf einer Kreisbahn senkrecht zu ihrer Verbindungsachse 130 nicht sensitiv bezüglich dieser sein, da alle gemessenen Längen identisch bleiben. Durch den Einsatz einer 1D-Kamera 146, beispielsweise einer CCD-Zeilenkamera, welche nicht identisch bezüglich der Verbindungsachse 130 orientiert ist, kann es möglich sein, auf diese Orientierung sensitiv zu sein und damit 6D-Lageinformationen des Messobjektes 112 zu generieren. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion der mindestens drei passiven Marker 114 liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum generiert werden, welche die Position und Orientierung des Messobjekts 112 beschreibt. Die Abbildung auf die 1D-Kamera 146 kann die Untermenge auf eine Position und Orientierung reduzieren. Die Kamera 146 kann dabei das Licht von mindestens einem passiven Marker 114 auf dem Messobjekt 112 detektieren. Die Beleuchtungsvorrichtung, mit der diesen passiven Marker 114 beleuchtet werden, kann entweder die LIDAR-Einheit 116 selbst oder eine andere Beleuchtungsvorrichtung 148 sein, die Licht im für die Kamera 146 sensitiven Wellenlängenbereich aussendet.
  • 9 zeigt eine Ausführungsform, in welcher die Vorrichtung 110 zwei LIDAR-Messkanäle 118 und die Messeinrichtung 143, in dieser Ausführungsform eine interne Sensorik am Messobjekt 112, aufweist und/oder verwendet. Die Ermittlung von 6D-Lageinformationen kann eine 5D-Lageinformation aus der Detektion von den mindestens drei passiven Markern 114 mit dem aufgeweiteten Eingangslichtstrahl und einer 1D-Lageinformation aus der internen Sensorik umfassen. Die interne Sensorik kann drei senkrecht zueinander angeordnete, uniaxiale Beschleunigungssensoren oder einen triaxialen Beschleunigungssensor aufweisen. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion der mindestens drei passiven Marker 114 liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum generiert werden, welche die Position und Orientierung des Messobjekts 112 beschreibt. Der Messeinrichtung 143, beispielsweise der Beschleunigungssensor, kann eingerichtet sein, zu bestimmen, wie das Messobjekt 112 zum Erdmittelpunkt orientiert ist. Die die Verbindungsachse 130 der beiden Messkanäle der LIDAR-Einheit 116 kann derart ausgerichtet sein, dass diese nicht mit der Gravitationsrichtung zusammenfällt. In 9 sind zudem empfindlichen Achsen des triaxialen Beschleunigungssensors a1, a2 und a3 dargestellt. Da auf das Objekt aber die Schwerkraft wirkt, gibt es einen effektiven Vektor, der sich aus drei Anteilen a1, a2 und a3 zusammensetzt und welcher immer Richtung Erdmittelpunkt zeigt.
  • 10 zeigt eine Ausführungsform, in welcher die Vorrichtung 110 zwei LIDAR-Messkanäle 118 und eine bekannte Objekttrajektorie verwenden, auf welcher sich das Messobjekt 112 bewegt. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion der mindestens drei passiven Marker 114 liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts 112 beschreibt. Die Kenntnis der Trajektorie, auf der sich das Messobjekt 112 bewegt, beispielsweise mittels eines Roboters 150, kann die 1D-Untermenge auf eine Position und Orientierung reduzieren. In dieser Ausführungsform kann eine Verbesserung einer bekannten Objekttrajektorie durch die LIDAR-Messkanäle 118 erreicht werden, solang die Längenmessung durch LIDAR genauer ist als die Genauigkeit der bekannten Objekttrajektorie.
  • 11 und 12 zeigen Ausführungsformen, in welchen die Vorrichtung 110 zwei, oben beschriebene, aufgeweitete LIDAR-Messkanäle 118 und mindestens einen zusätzlichen LIDAR-Messkanal 152, insbesondere einen mit einem kollimierten Eingangslichtstrahl, aufweist und/oder verwendet. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion der mindestens drei passiven Marker 114 mit dem aufgeweiteten Strahl liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum generiert werden die Position und Orientierung des Messobjekts 112 beschreibt. Ein Messwert und/oder Messergebnis des zusätzlichen Messkanals 152 kann die 1D-Untermenge auf eine Position und Orientierung reduzieren. Wie in 11 gezeigt, kann beispielsweise eine Detektion und Nachverfolgung mindestens eines Markers 114 mit dem kollimierten Strahl erfolgen. Wie in 12 gezeigt, kann beispielsweise eine Detektion mindestens eines Markers 114 mit dem kollimierten Strahl, beispielsweise scannend, und beispielsweise über eine definierte Objektgröße erfolgen. Dieses ist schematisch mit αscan, und βscan und „um αscan, βscan“ dargestellt.
  • 13 und 14 zeigt Ausführungsformen, in welchen die Vorrichtung 110 zwei oben beschriebene LIDAR-Messkanäle 118 und einen Funksensor 154 verwendet und/oder aufweist. Der Funksensor 154 kann beispielsweise mindestens zwei Empfänger 156 aufweisen, durch welche ein Phasenversatz Δφ der Funksignale mit Phase φi, wobei i den jeweilige Empfänger angibt, detektiert werden kann. Beispielhafte Funksignale 158 sind in den 13 und 14 dargestellt. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion der mindestens drei passiven Marker 114 liefert, kann eine 1D-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts 112 beschreibt. Die Kenntnis des Phasenversatzes, der durch Detektion beispielsweise des LIDAR-Signals an verschiedenen Orten auf dem Messobjekt 112 mittels des Funksensors 154 gebildet wird, kann die 1D-Untermenge auf eine Position und Orientierung reduzieren. Beispielsweise kann, wie in 13 dargestellt, ein Sender 159 auf der LIDAR-Einheit angebracht sein und die mindestens zwei Empfänger 156 können auf dem Messobjekt 112 angeordnet sein. Beispielsweise kann, wie in 14 dargestellt, der Sender 159 auf dem Messobjekt 112 angebracht und die mindestens zwei Empfänger 156 auf der LIDAR-Einheit 116 angeordnet sein. Eine Achse 160, auf welcher die mindestens zwei Empfänger angeordnet sind, kann vorteilhafterweise nicht mit der Verbindungs-achse der beiden LIDAR-Messkanäle 118 zusammenfallen.
  • 15 zeigt eine Ausführungsform, in welcher die Vorrichtung 110 zwei oben beschriebene LIDAR-Messkanäle 118 und einen Radarsensor 162 verwendet und/oder aufweist. Der Radarsensor 162 kann eingerichtet sein, Time of Flight-Messungen durchzuführen. Die Vorrichtung kann mindestens einen Radarreflektor 164 aufweisen, welcher auf dem Messobjekt 112 angerordnet sein kann. Der Radarsensor 162 kann derart angeordnet sein, dass dieser nicht auf der Verbindungsachse 130 der beiden LIDAR-Messkanäle 118 liegt. Mittels der Entfernungssignale, welche die LIDAR-Einheit 116 von der Reflexion der mindestens drei passiven Marker 114 liefert, kann eine ID-Untermenge der Positions- und Orientierungskandidaten im 6D-Raum gebildet werden, welche die Position und Orientierung des Messobjekts 112 beschreibt. Die Kenntnis der Laufzeit zum Messobjekt 112, die durch Detektion des Radarsignals realisiert wird, kann die 1D-Untermenge auf eine Position und Orientierung reduzieren.
  • Bezugszeichenliste
  • 110
    Vorrichtung
    112
    Messobjekts
    114
    passiver Marker
    116
    LIDAR-Einheit
    118
    Messkanal
    120
    Beleuchtungsvorrichtung
    122
    Optik
    124
    optische Faser
    126
    Strahlaufteiler
    128
    Sammellinse
    130
    Verbindungsachse
    132
    optische Vorrichtung zur räumlichen Ausrichtung
    134
    Sensorelement
    136
    Auswerteeinheit
    138
    Frequenzspektrum
    140
    Zusatzkamera
    142
    Flächenkamera
    143
    Messeinrichtung
    144
    aktiver Marker
    146
    eindimensional abbildende Kamera, Zeilenkamera
    148
    zusätzliche Beleuchtungsvorrichtung
    150
    Roboter
    152
    zusätzlicher LIDAR-Messkanal
    154
    Funksensor
    156
    Empfänger
    158
    Funksignale
    159
    Sender
    160
    Achse
    162
    Radarsensor
    164
    Radarreflektor
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2014/0043622 A1 [0003]
    • US 2011/0007326 A1 [0010, 0055]
    • US 2013/0050410 A1 [0010, 0055]
    • US 2017/0258531 A1 [0010, 0055]
    • US 9559486 B2 [0013, 0057]
    • US 8913636 B2 [0013, 0057]
    • US 2016123718 A1 [0013, 0057]
    • DE 102018222629 A1 [0025, 0067]

Claims (10)

  1. Vorrichtung (110) zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts (112), wobei die Vorrichtung (110) mindestens drei passive Marker (114) aufweist, welche auf dem Messobjekt (112) angeordnet sind, wobei die Vorrichtung (110) mindestens eine LIDAR-Einheit (116) mit mindestens zwei Messkanälen (118) aufweist, wobei die LIDAR-Einheit (116) mindestens eine Beleuchtungsvorrichtung (120) aufweist, welche eingerichtet ist, mindestens einen frequenzmodulierten Eingangslichtstrahl zu erzeugen, wobei die Messkanäle (118) jeweils mindestens eine Optik (122) aufweisen, welche eingerichtet ist, den Eingangslichtstrahl in einen Raumwinkel aufzuweiten, so dass die drei passiven Marker (114) überstrahlt werden, wobei jeder der Messkanäle (118) eingerichtet ist, mindestens einen von den passiven Markern (114) erzeugten Messlichtstrahl zu erfassen, wobei die LIDAR-Einheit (116) eingerichtet ist, um für jeden Messkanal (118) mindestens ein Entfernungssignal zu erzeugen, wobei die Vorrichtung (110) mindestens eine Zusatzkamera (140) aufweist, wobei die Zusatzkamera (140) eine Flächenkamera (142), welche eingerichtet ist, um mindestens eine zwei-dimensionale Abbildung des Messobjekts (112) aufzunehmen, oder eine Zeilenkamera (146) aufweist, welche eingerichtet ist, um mindestens eine ein-dimensionale Abbildung des Messobjekts (112) aufzunehmen.
  2. Vorrichtung (110) nach dem vorhergehenden Anspruch, wobei die LIDAR-Einheit (116) mindestens einen Strahlaufteiler (126) aufweist, wobei der Strahlaufteiler (126) eingerichtet ist, den Eingangslichtstrahl in gleich große oder verschieden große Anteile parallel und/oder sequenziell auf die Messkanäle (118) aufzuteilen.
  3. Vorrichtung (110) nach einem der vorhergehenden Ansprüche, wobei die Flächenkamera (142) einen CCD-Flächenkamerachip und/oder einen CMOS-Chip aufweist.
  4. Vorrichtung (110) nach einem der vorhergehenden Ansprüche, wobei mindestens zwei aktive Marker (144) auf dem Messobjekt (112) angeordnet sind, wobei die Zusatzkamera (140) eingerichtet ist, von den aktiven Markern (144) erzeugte Lichtstrahlen zu erfassen.
  5. Vorrichtung (110) nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung (110) mindestens eine Beleuchtungsvorrichtung (148) aufweist, welche eingerichtet ist, mindestens zwei passive Marker (114) zu beleuchten, wobei die Zusatzkamera (140) eingerichtet ist, von den passiven Markern (114) reflektierte Lichtstrahlen zu erfassen.
  6. Vorrichtung (110) nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung (110) mindestens eine Messeinrichtung (143) aufweist, wobei die Messeinrichtung (143) mindestens ein Element aufweist ausgewählt aus der Gruppe bestehend aus: mindestens einem Beschleunigungssensor; mindestens einer Funksensorik; mindestens einer Radarsensorik; mindestens einem weiteren LIDAR-Messkanal.
  7. Vorrichtung (110) nach einem der vorhergehenden Ansprüche, wobei die Vorrichtung (110) mindestens eine Auswerteeinheit (136) aufweist, welche eingerichtet ist, die Entfernungssignale und die Abbildung des Messobjekts (112) auszuwerten und die räumliche Position und Orientierung des Messobjekts (112) zu bestimmen.
  8. Verfahren zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Messobjekts (112), wobei in dem Verfahren eine Vorrichtung (110) nach einem der vorhergehenden Ansprüche verwendet wird, wobei die Vorrichtung (110) mindestens drei passive Marker (114) aufweist, welche auf dem Messobjekt (112) angeordnet sind, wobei das Verfahren die folgenden Schritte aufweist: a) Erzeugen mindestens eines frequenzmodulierten Eingangslichtstrahls mit mindestens einer Beleuchtungsvorrichtung (120) mindestens einer LIDAR-Einheit (116), wobei die LIDAR-Einheit (116) mindestens zwei Messkanäle (118) aufweist; b) Aufweiten des Eingangslichtstrahls in jedem der Messkanäle (118), wobei die Messkanäle (118) jeweils mindestens eine Optik (122) aufweisen, welche eingerichtet ist, den Eingangslichtstrahl in einen Raumwinkel aufzuweiten, so dass die drei passiven Marker (114) überstrahlt werden; c) Erfassen mindestens eines von den passiven Markern (114) erzeugten Messlichtstrahls mit jedem der Messkanäle (118) und Erzeugen mindestens eines Entfernungssignals für jeden der Messkanäle (118) mit der LIDAR-Einheit (116), d) Aufnehmen mindestens einer Abbildung des Messobjekts (112) mit mindestens einer Zusatzkamera (140), wobei die Zusatzkamera (140) eine Flächenkamera (142), welche eingerichtet ist eine zwei-dimensionale Abbildung des Messobjekts (112) aufzunehmen, oder eine Zeilenkamera (146) aufweist, welche eingerichtet ist, um mindestens eine ein-dimensionale Abbildung des Messobjekts (112) aufzunehmen.
  9. Verfahren nach dem vorhergehenden Anspruch, wobei mindestens zwei aktive Marker (144) auf dem Messobjekt (112) angeordnet sind, wobei in Schritt d) von den aktiven Markern (144) erzeugte Lichtstrahlen mit der Zusatzkamera (140) erfasst werden.
  10. Verfahren nach einem der vorhergehenden, ein Verfahren betreffenden Ansprüche, wobei das Verfahren mindestens einen Auswerteschritt aufweist, wobei in dem Auswerteschritt die Entfernungssignale und die Abbildung des Messobjekts (112) mit mindestens einer Auswerteeinheit (136) ausgewertet werden und die räumliche Position und Orientierung des Messobjekts (112) bestimmt werden.
DE102019216195.2A 2019-10-21 2019-10-21 Vorrichtung und Verfahren zur Bestimmung einer räumlichen Position und Orientierung Pending DE102019216195A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019216195.2A DE102019216195A1 (de) 2019-10-21 2019-10-21 Vorrichtung und Verfahren zur Bestimmung einer räumlichen Position und Orientierung

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019216195.2A DE102019216195A1 (de) 2019-10-21 2019-10-21 Vorrichtung und Verfahren zur Bestimmung einer räumlichen Position und Orientierung

Publications (1)

Publication Number Publication Date
DE102019216195A1 true DE102019216195A1 (de) 2021-04-22

Family

ID=75268418

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019216195.2A Pending DE102019216195A1 (de) 2019-10-21 2019-10-21 Vorrichtung und Verfahren zur Bestimmung einer räumlichen Position und Orientierung

Country Status (1)

Country Link
DE (1) DE102019216195A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022125221A1 (de) 2022-09-29 2024-04-04 Schwind Eye-Tech-Solutions Gmbh Messvorrichtung zum Ermitteln einer Lage eines Objektes, Bearbeitungsvorrichtung, Verfahren, Computerprogramm sowie computerlesbares Medium

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6166809A (en) * 1995-10-12 2000-12-26 Metronor Asa System for point-by-point measuring of spatial coordinates
US20180136319A1 (en) * 2015-04-22 2018-05-17 Trinamix Gmbh Detector for an optical detection of at least one object
DE102017222614A1 (de) * 2017-12-13 2019-06-13 Robert Bosch Gmbh Vorrichtung zur Umgebungserfassung sowie Verfahren zu dessen Betrieb
DE102018222629A1 (de) * 2018-01-17 2019-07-18 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Objekts

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6166809A (en) * 1995-10-12 2000-12-26 Metronor Asa System for point-by-point measuring of spatial coordinates
US20180136319A1 (en) * 2015-04-22 2018-05-17 Trinamix Gmbh Detector for an optical detection of at least one object
DE102017222614A1 (de) * 2017-12-13 2019-06-13 Robert Bosch Gmbh Vorrichtung zur Umgebungserfassung sowie Verfahren zu dessen Betrieb
DE102018222629A1 (de) * 2018-01-17 2019-07-18 Carl Zeiss Industrielle Messtechnik Gmbh Verfahren und Vorrichtung zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Objekts

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022125221A1 (de) 2022-09-29 2024-04-04 Schwind Eye-Tech-Solutions Gmbh Messvorrichtung zum Ermitteln einer Lage eines Objektes, Bearbeitungsvorrichtung, Verfahren, Computerprogramm sowie computerlesbares Medium

Similar Documents

Publication Publication Date Title
EP0842395B1 (de) Verfahren und vorrichtung zur schnellen erfassung der lage einer zielmarke
EP3633405B1 (de) Messgerät zur geometrischen 3d-abtastung einer umgebung mit einer vielzahl sendekanäle und semiconductor-photomultiplier sensoren
DE102014019671B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mittels 2D-Kamera
DE112012001713T5 (de) Lasernachführungsgerät mit sechs Freiheitsgraden, das mit einem Fernsensor zusammwirkt
DE102018222629A1 (de) Verfahren und Vorrichtung zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens eines Objekts
DE102009040837A1 (de) Vorrichtungen und Verfahren zur Positionsbestimmung und Oberflächenvermessung
DE112012007096T5 (de) Trackereinheit und Verfahren in einer Trackereinheit
DE102014118055A1 (de) Sendeeinrichtung, Empfangseinrichtung und Objekterfassungsvorrichtung für ein Kraftfahrzeug sowie Verfahren dafür
EP1248120B1 (de) Dual-Mode Suchkopf
DE102020000803A1 (de) Verfahren zum Plausibilisieren einer Detektion eines LIDAR-Systems eines Fahrzeugs, Vorrichtung eingerichtet zum Durchführen eines solchen Verfahrens, und Fahrzeug mit einer solchen Vorrichtung
DE102019216195A1 (de) Vorrichtung und Verfahren zur Bestimmung einer räumlichen Position und Orientierung
CH676042A5 (en) Surveying unit with theodolite and range finder - determines coordinates of target point includes light pulse transmitter and receiver
DE102015103373A1 (de) Messelement für ein Koordinatenmessgerät
DE102018208669A1 (de) Verfahren und Vorrichtung zur Detektion eines Objekts mittels breitbandiger Laserpulse
DE102015106838B4 (de) Verfahren zur Steuerung einer 3D-Messvorrichtung mittels des Bewegungspfades und Vorrichtung hierzu
DE102017101791B4 (de) Optoelektronische Sensoreinrichtung für ein Kraftfahrzeug und Kraftfahrzeug
EP2772719B1 (de) Optische Vorrichtung
DE102015205927A1 (de) Entfernungsmesssystem mit Lichtlaufzeitmessung und Triangulation
DE102019100929A1 (de) Langstreckendetektor für LIDAR
DE102020202982A1 (de) Optische Vorrichtung zur Abstandsbestimmung eines Messobjekts
DE102021130334A1 (de) Optoelektronischer Sensor
DE102014204423A1 (de) Lichtlaufzeitkamerasystem
DE102019200733A1 (de) Verfahren und Vorrichtung zur Bestimmung von mindestens einer räumlichen Position und Orientierung mindestens einer getrackten Messvorrichtung
DE4341645C2 (de) Verfahren zur Echtzeit-Messung von dynamischen dreidimensionalen Verformungen eines Meßobjektes
DE102014019669B4 (de) 16Verfahren zum optischen Abtasten und Vermessen einer Umgebung mit einer 3D-Messvorrichtung und Autokalibrierung mit vorgegebenen Bedingungen

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication