DE102022125367A1 - Entfernungsmessvorrichtung, montageausrichtungserkennungsverfahren und montageausrichtungserkennungsprogramm dafür - Google Patents

Entfernungsmessvorrichtung, montageausrichtungserkennungsverfahren und montageausrichtungserkennungsprogramm dafür Download PDF

Info

Publication number
DE102022125367A1
DE102022125367A1 DE102022125367.8A DE102022125367A DE102022125367A1 DE 102022125367 A1 DE102022125367 A1 DE 102022125367A1 DE 102022125367 A DE102022125367 A DE 102022125367A DE 102022125367 A1 DE102022125367 A1 DE 102022125367A1
Authority
DE
Germany
Prior art keywords
distance
measuring device
angle
distance measuring
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022125367.8A
Other languages
English (en)
Inventor
Benika Inoue
Hideki Chujo
Hiroyuki Tanaka
Mitsunori Sugiura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Publication of DE102022125367A1 publication Critical patent/DE102022125367A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/4808Evaluating distance, position or velocity data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/40Means for monitoring or calibrating
    • G01S7/4004Means for monitoring or calibrating of parts of a radar system
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • G01S17/26Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves wherein the transmitted pulses use a frequency-modulated or phase-modulated carrier wave, e.g. for pulse compression of received signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Ein ToF-Sensor 20 umfasst eine Aussendeeinheit 21, ein Bildgebungselement 23, eine Entfernungsinformationenerfassungseinheit 11, eine Winkelinformationenerfassungseinheit 12 und eine Anbringungsausrichtungserkennungseinheit 14. Die Aussendeeinheit 21 bestrahlt die Bodenoberfläche FL mit Licht. Das Bildgebungselement 23 erkennt das von der Aussendeeinheit 21 ausgestrahlte Licht. Entfernungsinformationenerfassungseinheit 11 erfasst Informationen über die Entfernung zu Referenzpunkten P1 und P2 auf der Bodenoberfläche FL nach der Phasendifferenz zwischen der empfangenen Lichtwelle und der vom Bildgebungselement 23 erkannten ausgesendeten Lichtwelle. Die Winkelinformationenerfassungseinheit 12 erfasst Informationen über den Winkel zu den Referenzpunkten P1 und P2. Die Anbringungsausrichtungserkennungseinheit 14 erkennt die Anbringungsausrichtung in Bezug auf die Bodenoberfläche FL auf der Grundlage der Entfernungsinformationen und der Winkelinformationen, die von der Entfernungsinformationenerfassungseinheit 11 und der Winkelinformationenerfassungseinheit 12 erfasst wurden.

Description

  • QUERVERWEIS ZU VERBUNDENEN ANMELDUNGEN
  • Diese Anmeldung beansprucht die Priorität gegenüber der japanischen Patentanmeldung Nr. 2021-178106 vom 29. Oktober 2021. Die gesamte Offenbarung der japanischen Patentanmeldung Nr. 2021-178106 ist somit durch Verweisung einbezogen.
  • STAND DER TECHNIK
  • Technisches Gebiet
  • Diese Erfindung betrifft zum Beispiel eine Entfernungsmessvorrichtung wie einen ToF-Sensor (Time of Flight, Laufzeitverfahren) und ein Verfahren zur Erkennung der Anbringungsausrichtung sowie ein mit dieser Vorrichtung genutztes Programm zur Erkennung der Anbringungsausrichtung.
  • Beschreibung des einschlägigen Stands der Technik
  • In jüngsten Jahren kam ein ToF-Sensor (Time of Flight, Laufzeitverfahren), der die Entfernung zu einem Messobjekt misst, indem die Lichtreflexion empfangen wird, die von einer LED (lichtemittierenden Diode) hinführend zum Messobjekt ausgesendet wird, empfangen wird, beispielsweise als Lichtquelle zum Einsatz.
  • Um beispielsweise die Abweichung in der Abstrahlrichtung eines von einer Objektdetektionsvorrichtung ausgesendeten Laserstrahls zu korrigieren, offenbart das Patentdokument 1 eine Objektdetektionsvorrichtung, die Folgendes umfasst: Aussendemittel zum Aussenden eines Strahls; Empfangsmittel zum Empfangen eines reflektierten Strahls, der erhalten wird, wenn der von den Aussendemitteln ausgesendete Strahl auf ein Objekt trifft und reflektiert wird; Feststellungsmittel, um festzustellen, ob das Objekt, das den von den Empfangsmitteln empfangenen reflektierten Strahl reflektiert hat, eine Straßenoberfläche ist oder nicht; Messmittel zum Messen der Entfernung zu einer Reflexionsposition auf der Straßenoberfläche auf der Grundlage des von den Empfangsmitteln empfangenen reflektierten Strahls; Berechnungsmittel zum Berechnen des Neigungswinkels der Straßenoberfläche auf der Grundlage der Entfernung zur Reflexionsposition auf der Straßenoberfläche, gemessen von den Messmitteln und Regelungsmittel zum Regeln des Abstrahlwinkels eines Strahls auf der Grundlage des von den Berechnungsmitteln berechneten Neigungswinkels der Straßenoberfläche.
  • ZITATLISTE
  • PATENTLITERATUR
  • Patentdokument 1: JP-A 2006-276023
  • ZUSAMMENFASSUNG
  • (VON DER ERFINDUNG ZU LÖSENDES PROBLEM)
  • Die oben genannte herkömmliche Objektdetektionsvorrichtung weist jedoch folgendes Problem auf.
  • Die in der oben genannten Veröffentlichung offenbarte Objektdetektionsvorrichtung wird als in einem Automobil installierter Laserradar genutzt und berechnet den Neigungswinkel der Straßenoberfläche auf der Grundlage der Entfernung zur Reflexionsposition des reflektierten Strahls, der reflektiert wird, wenn der von den Aussendemitteln ausgesendete Strahl auf die Straßenoberfläche trifft, und passt den Abstrahlwinkel an.
  • Mit dieser Auslegung ist es jedoch unmöglich, die Anbringungsausrichtung des Laserradars festzustellen, auch wenn die Abstrahlrichtung des Laserstrahls je nach der Abweichung in Richtung der optischen Achse des Lasers, die aufgrund einer Kollision oder dergleichen verzerrt wurde, angepasst werden kann.
  • Um die Anbringungsausrichtung des Laserradars festzustellen, ist folglich schlussendlich eine separat bereitgestellte Ausrichtungserkennungsvorrichtung wie ein Neigungssensor oder ein Nivellierinstrument notwendig.
  • Eine Aufgabe dieser Erfindung ist es, eine Entfernungsmessvorrichtung bereitzustellen, mit der die Anbringungsausrichtung einer Entfernungsmessvorrichtung, die an beliebigen verschiedenen Vorrichtungen angebracht ist, erkannt werden kann, ohne dass eine Ausrichtungserkennungsvorrichtung wie ein Neigungssensor oder ein Nivellierinstrument genutzt werden muss, sowie ein Verfahren zur Erkennung der Anbringungsausrichtung und ein von der Vorrichtung genutztes Programm zur Erkennung der Anbringungsausrichtung.
  • (MITTEL ZUR PROBLEMLÖSUNG)
  • Die Entfernungsmessvorrichtung nach der ersten Erfindung ist eine Entfernungsmessvorrichtung, die die Entfernung zu einem Objekt nach der Phasendifferenz zwischen einer ausgesendeten Lichtwelle und einer empfangenen Lichtwelle in Bezug auf das Objekt misst, wobei die Vorrichtung eine Aussendeeinheit, eine Erkennungseinheit, eine Entfernungsinformationenerfassungseinheit, eine Winkelinformationenerfassungseinheit und eine Anbringungsausrichtungserkennungseinheit umfasst. Die Aussendeeinheit bestrahlt eine spezifische Referenzoberfläche mit Licht. Die Erkennungseinheit erkennt das von der Aussendeeinheit ausgestrahlte Licht. Die Entfernungsinformationenerfassungseinheit erfasst Entfernungsinformationen über die Entfernung zu einem Referenzpunkt auf der Referenzoberfläche nach der Phasendifferenz zwischen der empfangenen Lichtwelle und der ausgesendeten, von Erkennungseinheit erkannten Lichtwelle. Die Winkelinformationenerfassungseinheit erfasst Winkelinformationen über den Winkel zum Referenzpunkt. Die Anbringungsausrichtungserkennungseinheit erkennt die Anbringungsausrichtung in Bezug auf die Referenzoberfläche auf der Grundlage der Entfernungsinformationen und der Winkelinformationen, die von der Entfernungsinformationenerfassungseinheit und der Winkelinformationenerfassungseinheit erfasst wurden.
  • Um die Anbringungsausrichtung der Entfernungsmessvorrichtung, die auf einem spezifischen Gegenstand wie einer Beförderungsvorrichtung montiert ist, zu erkennen, werden beispielsweise die von der Entfernungsmessvorrichtung gemessenen Entfernungsinformationen und Winkelinformationen herangezogen, um die Anbringungsausrichtung der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche zu messen.
  • Bei der Entfernungsmessvorrichtung handelt es sich beispielsweise um einen ToF-Sensor (Time of Flight. Laufzeitverfahren), um LiDAR (Light Detection and Ranging), um eine strukturelle Kamera oder dergleichen, die Informationen über die Entfernung zu einem Referenzpunkt auf einer Referenzoberfläche erfassen können und einen Sensor nutzen, der Winkelinformationen erhält.
  • Darüber hinaus steht die „Anbringungsausrichtung“ der Entfernungsmessvorrichtung beispielsweise für den Neigungswinkel der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche, die Entfernung von der Referenzoberfläche, den Rotationswinkel in Bezug auf die Referenzoberfläche usw.
  • Bei der „Referenzoberfläche“ handelt es sich zum Beispiel um die Bodenoberfläche, auf der ein spezifischer Gegenstand installiert ist, oder eine flache Oberfläche wie eine Wand, die in vertikaler Richtung angeordnet ist, und der „Referenzpunkt“ auf der Referenzoberfläche steht beispielsweise für einen spezifischen Punkt auf einer Bodenoberfläche oder einer Wandoberfläche.
  • Das von der Aussendeeinheit ausgestrahlte Licht schließt beispielsweise Licht im weiteren Sinn ein (UV-Licht, sichtbares Licht, Infrarot-Licht) und dergleichen.
  • Die Entfernungsinformationenerfassungseinheit kann ausgelegt sein, um Licht zu erkennen und Entfernungsinformationen zu berechnen, oder kann ausgelegt sein, um Entfernungsinformationen von einem Entfernungssensor oder dergleichen zu erfassen, der beispielsweise als externe Vorrichtung bereitgestellt ist.
  • Die Entfernungsmessvorrichtung kann an einem Fahrzeug wie einer Beförderungsvorrichtung oder einem Personenkraftwagen angebracht sein oder kann an einer Innenbereichswandoberfläche, einer Deckenoberfläche, einer Außenbereichshalterungssäule oder dergleichen angebracht sein.
  • Folglich kann die Anbringungsausrichtung der Entfernungsmessvorrichtung in Bezug auf eine Bodenoberfläche oder eine sonstige derartige Referenzoberfläche erkannt werden, indem die Ergebnisse (Entfernungsinformationen und Winkelinformationen) herangezogen werden, die von der Entfernungsmessvorrichtung gemessen oder erfasst werden.
  • Folglich kann die Anbringungsausrichtung einer Entfernungsmessvorrichtung, die an beliebigen verschiedenen Vorrichtungen angebracht ist, ohne Nutzung einer Ausrichtungserkennungsvorrichtung wie eines Neigungssensors oder eines Nivellierinstruments erkannt werden.
  • Die Entfernungsmessvorrichtung nach der zweiten Erfindung ist die Entfernungsmessvorrichtung nach der ersten Erfindung, wobei die Anbringungsausrichtungserkennungseinheit mindestens entweder den Neigungswinkel in Bezug auf die Referenzoberfläche und/oder die Entfernung von der Referenzoberfläche und/oder den Rotationswinkel in Bezug auf die Referenzoberfläche als Anbringungsausrichtung erkennt.
  • Dadurch können mindestens entweder der Neigungswinkel und/oder die Entfernung und/oder der Rotationswinkel der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche als Anbringungsausrichtung erkannt werden.
  • Die Entfernungsmessvorrichtung nach der dritten Erfindung ist die Entfernungsmessvorrichtung nach der ersten oder zweiten Erfindung, wobei die Anbringungsausrichtungserkennungseinheit die Anbringungsausrichtung erkennt, indem Informationen über den Winkel und die Entfernung zu zwei Referenzpunkten auf der Referenzoberfläche genutzt werden.
  • Folglich kann die Anbringungsausrichtung der oben genannten Entfernungsmessvorrichtung erkannt werden, indem zum Beispiel Informationen über die Entfernung und den Winkel in Bezug auf zwei Referenzpunkte auf einer Referenzoberfläche wie einer Bodenoberfläche herangezogen werden.
  • Die Entfernungsmessvorrichtung nach der vierten Erfindung ist die Entfernungsmessvorrichtung nach einer beliebigen der ersten bis dritten Erfindung, wobei sie zudem eine Entfernungsbildgenerierungseinheit umfasst, die ein Entfernungsbild einschließend die Referenzoberfläche auf der Grundlage der Erfassungsergebnisse der Entfernungsinformationenerfassungseinheit und der Winkelinformationenerfassungseinheit generiert.
  • Folglich kann die Anbringungsausrichtung der Entfernungsmessvorrichtung erkannt werden, indem einem jeden Pixel, das im generierten Entfernungsbild eingeschlossen ist, Entfernungsinformationen und Winkelinformationen zugeordnet und spezifische Pixel als Referenzpunkte herangezogen werden.
  • Die Entfernungsmessvorrichtung nach der fünften Erfindung ist die Entfernungsmessvorrichtung nach der vierten Erfindung, wobei die Anbringungsausrichtungserkennungseinheit die Anbringungsausrichtung der Entfernungsmessvorrichtung erkennt, indem eine erste Entfernung zu einem ersten Referenzpunkt auf der Referenzoberfläche an einem ersten Pixel, das im Entfernungsbild eingeschlossen ist, das von der Entfernungsbildgenerierungseinheit erfasst wurde, und ein erster Winkel in Bezug auf die Referenzoberfläche sowie eine zweite Entfernung zu einem zweiten Referenzpunkt auf der Referenzoberfläche an einem zweiten Pixel, das vom ersten Pixel verschieden ist, und ein zweiter Winkel in Bezug auf die Referenzoberfläche herangezogen werden.
  • Folglich kann die Anbringungsausrichtung der Entfernungsmessvorrichtung erkannt werden, indem die erste Entfernung zum ersten Referenzpunkt und der erste Winkel in Bezug auf die Referenzoberfläche, die das erste Pixel, das im Entfernungsbild eingeschlossen ist, als Information aufweist, sowie die zweite Entfernung zum zweiten Referenzpunkt und der zweite Winkel in Bezug auf die Referenzoberfläche, die das zweite Pixel, das im Entfernungsbild eingeschlossen ist, als Information aufweist, herangezogen werden.
  • Die Entfernungsmessvorrichtung nach der sechsten Erfindung ist die Entfernungsmessvorrichtung nach der vierten oder fünften Erfindung, wobei die Anbringungsausrichtungserkennungseinheit die Drehung in Bezug auf die Referenzoberfläche als die Anbringungsausrichtung der Entfernungsmessvorrichtung erkennt, indem ein erster Winkel in Bezug auf die Abstrahlachse des von der Aussendeeinheit ausgestrahlten Lichts am ersten Pixel, das im Entfernungsbild eingeschlossen ist, das von der Entfernungsbildgenerierungseinheit erfasst wurde, und ein zweiter Winkel in Bezug auf die Abstrahlachse des von der Aussendeeinheit ausgestrahlten Lichts an einem zweiten Pixel, das vom ersten Pixel verschieden ist, herangezogen werden.
  • Folglich kann die Anbringungsausrichtung (egal, ob eine Drehung in Bezug auf die Referenzoberfläche stattfindet oder nicht) erkannt werden, indem der erste Winkel in Bezug auf die Abstrahlachse des von der Aussendeeinheit ausgestrahlten Lichts an einem ersten Pixel, das im Entfernungsbild eingeschlossen ist, und der zweite Winkel in Bezug auf die Abstrahlachse an einem zweiten Pixel herangezogen werden.
  • Die Entfernungsmessvorrichtung nach der siebten Erfindung ist die Entfernungsmessvorrichtung nach einer beliebigen der vierten bis sechsten Erfindung, wobei die Anbringungsausrichtungserkennungseinheit die Drehung der Anbringungsausrichtung der Entfernungsmessvorrichtung auf der Grundlage dessen erkennt, ob sich die Positionen von Pixeln in derselben Entfernung zur Referenzoberfläche im von der Entfernungsbilderfassungseinheit erfassten Entfernungsbild von einer spezifischen Referenzposition bewegen oder nicht.
  • Folglich detektiert werden, ob eine Drehung der Anbringungsausrichtung der Entfernungsmessvorrichtung vorliegt oder nicht, je nachdem, ob eine Bewegung der Positionen von Pixeln, aufweisend dieselbe Entfernung zur Referenzoberfläche im von der Entfernungsbilderfassungseinheit erfassten Entfernungsbild, stattfindet oder nicht.
  • Die Entfernungsmessvorrichtung nach der achten Erfindung ist die Entfernungsmessvorrichtung nach einer beliebigen der vierten bis siebten Erfindung, wobei die Anbringungsausrichtungserkennungseinheit den Rotationswinkel der Anbringungsausrichtung der Entfernungsmessvorrichtung auf der Grundlage dessen erkennt, um wie viele Grad sich die Positionen von Pixeln in derselben Entfernung zur Referenzoberfläche im von der Entfernungsbilderfassungseinheit erfassten Entfernungsbild von einer spezifischen Referenzposition gedreht haben.
  • Folglich kann der Rotationswinkel der Position von Pixeln, aufweisend dieselbe Entfernung zur Referenzoberfläche im von der Entfernungsbilderfassungseinheit erfassten Entfernungsbild, als Rotationswinkel der Anbringungsausrichtung der Entfernungsmessvorrichtung erkannt werden.
  • Die Entfernungsmessvorrichtung nach der neunten Erfindung ist die Entfernungsmessvorrichtung nach einer beliebigen der ersten bis achten Erfindung, zudem umfassend eine Korrekturmöglichkeitsfeststellungseinheit, die feststellt, ob das Erfassungsergebnis in der Entfernungsinformationenerfassungseinheit auf der Grundlage des Erkennungsergebnisses in der Anbringungsausrichtungserkennungseinheit korrigiert werden muss oder nicht.
  • Folglich kann festgestellt werden, ob die von der Entfernungsmessvorrichtung gemessenen Entfernungsinformationen korrigiert werden müssen oder nicht, je nachdem, ob die Anbringungsausrichtung (Anbringungswinkel, Rotationswinkel usw.) der Entfernungsmessvorrichtung innerhalb eines spezifischen zulässigen Wertebereichs liegt oder nicht.
  • In einer Situation, in der die Entfernungsmessvorrichtung so stark geneigt ist, dass die Entfernung nicht korrigiert werden kann, ist es daher zum Beispiel möglich, eine Maßnahme wie das Benachrichtigen des Nutzers zu ergreifen, ohne die Entfernungskorrektur durchzuführen.
  • Die Entfernungsmessvorrichtung nach der zehnten Erfindung ist die Entfernungsmessvorrichtung nach einer beliebigen der ersten bis neunten Erfindung, wobei die Entfernungsinformationenerfassungseinheit die Entfernungsinformationen und die Winkelinformationen in Bezug auf den an einer spezifischen Erkennungsposition erfassten Referenzpunkt erfasst.
  • Folglich kann die Anbringungsausrichtung stabiler und präziser erkannt werden, indem die zur Erkennung der Anbringungsausrichtung der Entfernungsmessvorrichtung herangezogenen Entfernungsinformationen und Winkelinformationen an einer spezifischen Position erfasst werden (spezifische Erkennungsposition).
  • Die Entfernungsmessvorrichtung nach der elften Erfindung ist die Entfernungsmessvorrichtung nach der zehnten Erfindung, wobei die Anbringungsausrichtungserkennungseinheit die Anbringungsausrichtung erkennt, indem die an der spezifischen Erkennungsposition erfassten Entfernungsinformationen und Winkelinformationen in Bezug auf die Referenzoberfläche herangezogen werden.
  • Folglich kann die Anbringungsausrichtung stabiler und präziser erkannt werden, indem die Erkennung der Anbringungsausrichtung der Entfernungsmessvorrichtung an einer spezifischen Position (spezifische Erkennungsposition) durchgeführt wird.
  • Die Entfernungsmessvorrichtung nach der zwölften Erfindung ist die Entfernungsmessvorrichtung nach einer beliebigen der ersten bis elften Erfindung, zudem umfassend eine Speichereinheit, die Informationen hinsichtlich der von der Anbringungsausrichtungserkennungseinheit erkannten Anbringungsausrichtung speichert.
  • Folglich können Informationen über die Anbringungsausrichtung der Entfernungsmessvorrichtung wie der Montagewinkel und der Rotationswinkel gespeichert und bei der Korrektur der von der Entfernungsmessvorrichtung gemessenen Entfernungsinformationen herangezogen werden.
  • Die Entfernungsmessvorrichtung nach der dreizehnten Erfindung ist die Entfernungsmessvorrichtung nach einer beliebigen der ersten bis zwölften Erfindung, wobei die Referenzoberfläche eine Bodenoberfläche ist.
  • Folglich kann die Anbringungsausrichtung der oben genannten Entfernungsmessvorrichtung erkannt werden, indem die Bodenoberfläche als Referenzoberfläche herangezogen wird und indem Referenzpunkte auf der Bodenoberfläche festgelegt werden.
  • Die Entfernungsmessvorrichtung nach der vierzehnten Erfindung ist die Entfernungsmessvorrichtung nach einer beliebigen der ersten bis dreizehnten Erfindung, und zwar entweder ein ToF-Sensor (Time of Flight, Laufzeitverfahren), LiDAR (Light Detection and Ranging) oder eine strukturelle Kamera.
  • Folglich kann die Anbringungsausrichtung erkannt werden, indem die von verschiedenen Arten von Entfernungsmessvorrichtungen wie einem ToF-Sensor, LiDAR und einer strukturellen Kamera gemessenen Entfernungsinformationen und Winkelinformationen herangezogen werden.
  • Das Verfahren zur Erkennung der Anbringungsausrichtung einer Entfernungsmessvorrichtung nach der fünfzehnten Erfindung ist ein Verfahren zur Erkennung der Anbringungsausrichtung einer Entfernungsmessvorrichtung, das die Entfernung zu einem Objekt nach der Phasendifferenz zwischen einer am Objekt ausgesendeten Lichtwelle und der empfangenen Lichtwelle misst, wobei das Verfahren einen Bestrahlungsschritt, einen Erkennungsschritt, einen Entfernungs- und Winkelinformationenerfassungsschritt und einen Anbringungsausrichtungserkennungsschritt umfasst. Beim Bestrahlungsschritt wird eine spezifische Referenzoberfläche mit Licht in der Entfernungsmessvorrichtung bestrahlt. Beim Erkennungsschritt wird das im Bestrahlungsschritt ausgestrahlte Licht in der Entfernungsmessvorrichtung erkannt. Beim Entfernungs- und Winkelinformationenerfassungsschritt werden Entfernungsinformationen und Winkelinformationen zu einem Referenzpunkt auf der Referenzoberfläche nach der Phasendifferenz zwischen der ausgesendeten Lichtwelle und der im Erkennungsschritt erkannten empfangenen Lichtwelle erfasst. Beim Anbringungsausrichtungserkennungsschritt wird die Anbringungsausrichtung der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche auf der Grundlage der Entfernungsinformationen und der Winkelinformationen, die im Entfernungs- und Winkelinformationenerfassungsschritt erfasst wurden, in der Entfernungsmessvorrichtung erkannt.
  • Um beispielsweise die Anbringungsausrichtung einer Entfernungsmessvorrichtung, die auf einem spezifischen Gegenstand wie einer Beförderungsvorrichtung montiert ist, zu erkennen, wird die Anbringungsausrichtung der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche erkannt, indem von der Entfernungsmessvorrichtung gemessene Entfernungsinformationen und Winkelinformationen herangezogen werden.
  • Bei der Entfernungsmessvorrichtung handelt es sich beispielsweise um einen ToF-Sensor (Time of Flight. Laufzeitverfahren), um LiDAR (Light Detection and Ranging), um eine strukturelle Kamera oder dergleichen, die Informationen über die Entfernung zu einem Referenzpunkt auf einer Referenzoberfläche erfassen können und einen Sensor nutzen, der Winkelinformationen erhält.
  • Darüber hinaus steht die „Anbringungsausrichtung“ der Entfernungsmessvorrichtung beispielsweise für den Neigungswinkel der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche, die Entfernung von der Referenzoberfläche, den Rotationswinkel in Bezug auf die Referenzoberfläche usw.
  • Bei der „Referenzoberfläche“ handelt es sich zum Beispiel um die Bodenoberfläche, auf der ein spezifischer Gegenstand installiert ist, oder eine flache Oberfläche wie eine Wand, die in vertikaler Richtung angeordnet ist, und der „Referenzpunkt“ auf der Referenzoberfläche steht beispielsweise für einen spezifischen Punkt auf einer Bodenoberfläche oder einer Wandoberfläche.
  • Das von der Aussendeeinheit ausgestrahlte Licht schließt beispielsweise Licht im weiteren Sinn ein (UV-Licht, sichtbares Licht, Infrarot-Licht) und dergleichen.
  • Beim Entfernungsinformationenerfassungsschritt und beim Winkelinformationenerfassungsschritt kann Licht ausgesendet werden, um Entfernungsinformationen und Winkelinformationen zu berechnen oder zu erfassen. Beispielsweise können Entfernungsinformationen und Winkelinformationen von einem Entfernungssensor oder dergleichen erfasst werden, der als externe Vorrichtung bereitgestellt ist.
  • Die Entfernungsmessvorrichtung kann an einem Fahrzeug wie einer Beförderungsvorrichtung oder einem Personenkraftwagen angebracht sein oder kann an einer Innenbereichswandoberfläche, einer Deckenoberfläche, einer Außenbereichshalterungssäule oder dergleichen angebracht sein.
  • Folglich kann die Anbringungsausrichtung der Entfernungsmessvorrichtung in Bezug auf eine Bodenoberfläche oder eine sonstige derartige Referenzoberfläche erkannt werden, indem die Ergebnisse (Entfernungsinformationen und Winkelinformationen) herangezogen werden, die von der Entfernungsmessvorrichtung gemessen oder erfasst werden.
  • Folglich kann die Anbringungsausrichtung einer Entfernungsmessvorrichtung, die an beliebigen verschiedenen Vorrichtungen angebracht ist, ohne Nutzung einer Ausrichtungserkennungsvorrichtung wie eines Neigungssensors oder eines Nivellierinstruments erkannt werden.
  • Das Programm zur Erkennung der Anbringungsausrichtung der Entfernungsmessvorrichtung nach der sechzehnten Erfindung ist ein Programm zur Erkennung der Anbringungsausrichtung einer Entfernungsmessvorrichtung, das die Entfernung zu einem Objekt nach der Phasendifferenz zwischen einer am Objekt ausgesendeten Lichtwelle und der empfangenen Lichtwelle misst, wobei das Programm einen Computer veranlasst, ein Verfahren zur Erkennung der Anbringungsausrichtung für eine Entfernungsmessvorrichtung auszuführen, wobei das Verfahren einen Bestrahlungsschritt, einen Erkennungsschritt, einen Entfernungs- und Winkelinformationenerfassungsschritt und einen Anbringungsausrichtungserkennungsschritt umfasst. Beim Bestrahlungsschritt wird eine spezifische Referenzoberfläche mit Licht in der Entfernungsmessvorrichtung bestrahlt. Beim Erkennungsschritt wird das im Bestrahlungsschritt ausgestrahlte Licht in der Entfernungsmessvorrichtung erkannt. Beim Entfernungs- und Winkelinformationenerfassungsschritt werden Entfernungsinformationen und Winkelinformationen zu einem Referenzpunkt auf der Referenzoberfläche nach der Phasendifferenz zwischen der ausgesendeten Lichtwelle und der im Erkennungsschritt erkannten empfangenen Lichtwelle erfasst. Beim Anbringungsausrichtungserkennungsschritt wird die Anbringungsausrichtung der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche auf der Grundlage der Entfernungsinformationen und der Winkelinformationen, die im Entfernungs- und Winkelinformationenerfassungsschritt erfasst wurden, in der Entfernungsmessvorrichtung erkannt.
  • Um beispielsweise die Anbringungsausrichtung der Entfernungsmessvorrichtung, die auf einem spezifischen Gegenstand wie einer Beförderungsvorrichtung montiert ist, zu erkennen, wird die Anbringungsausrichtung der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche erkannt, indem von der Entfernungsmessvorrichtung gemessene Entfernungsinformationen und Winkelinformationen herangezogen werden.
  • Bei der Entfernungsmessvorrichtung handelt es sich beispielsweise um einen ToF-Sensor (Time of Flight. Laufzeitverfahren), um LiDAR (Light Detection and Ranging), um eine strukturelle Kamera oder dergleichen, die Informationen über die Entfernung zu einem Referenzpunkt auf einer Referenzoberfläche erfassen können und einen Sensor nutzen, der Winkelinformationen erhält.
  • Darüber hinaus steht die „Anbringungsausrichtung“ der Entfernungsmessvorrichtung beispielsweise für den Neigungswinkel der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche, die Entfernung von der Referenzoberfläche, den Rotationswinkel in Bezug auf die Referenzoberfläche usw.
  • Bei der „Referenzoberfläche“ handelt es sich zum Beispiel um die Bodenoberfläche, auf der ein spezifischer Gegenstand installiert ist, oder eine flache Oberfläche wie eine Wand, die in vertikaler Richtung angeordnet ist, und der „Referenzpunkt“ auf der Referenzoberfläche steht beispielsweise für einen spezifischen Punkt auf einer Bodenoberfläche oder einer Wandoberfläche.
  • Das von der Aussendeeinheit ausgestrahlte Licht schließt beispielsweise Licht im weiteren Sinn ein (UV-Licht, sichtbares Licht, Infrarot-Licht) und dergleichen.
  • Beim Entfernungsinformationenerfassungsschritt und beim Winkelinformationenerfassungsschritt kann Licht ausgesendet werden, um Entfernungsinformationen und Winkelinformationen zu berechnen oder zu erfassen. Beispielsweise können Entfernungsinformationen und Winkelinformationen von einem Entfernungssensor oder dergleichen erfasst werden, der als externe Vorrichtung bereitgestellt ist.
  • Die Entfernungsmessvorrichtung kann an einem Fahrzeug wie einer Beförderungsvorrichtung oder einem Personenkraftwagen angebracht sein oder kann an einer Innenbereichswandoberfläche, einer Deckenoberfläche, einer Außenbereichshalterungssäule oder dergleichen angebracht sein.
  • Folglich kann die Anbringungsausrichtung der Entfernungsmessvorrichtung in Bezug auf eine Bodenoberfläche oder eine sonstige derartige Referenzoberfläche erkannt werden, indem die Ergebnisse (Entfernungsinformationen und Winkelinformationen) herangezogen werden, die von der Entfernungsmessvorrichtung gemessen oder erfasst werden.
  • Folglich kann die Anbringungsausrichtung einer Entfernungsmessvorrichtung, die an beliebigen verschiedenen Vorrichtungen angebracht ist, ohne Nutzung einer Ausrichtungserkennungsvorrichtung wie eines Neigungssensors oder eines Nivellierinstruments erkannt werden.
  • (WIRKUNGEN)
  • Mit der Entfernungsmessvorrichtung nach dieser Erfindung kann die Anbringungsausrichtung einer Entfernungsmessvorrichtung, die an einer beliebigen von verschiedenen Vorrichtungen angebracht ist, erkannt werden, ohne eine Ausrichtungserkennungsvorrichtung wie einen Neigungssensor oder ein Nivellierinstrument zu nutzen.
  • Figurenliste
    • 1 zeigt eine Schrägansicht der Auslegung eines Beförderungssystems, bei dem ein ToF-Sensor, der mit einer Vorrichtung zur Erkennung der Anbringungsausrichtung nach einer Ausführungsform dieser Erfindung versehen ist, auf einer Beförderungsvorrichtung installiert ist.
    • 2A zeigt ein konzeptuelles Diagramm mit der Darstellung der Auslegung eines Beförderungssystems in einem Zustand, in dem die Beförderungsvorrichtung aus 1 angedockt wurde, und 2B zeigt eine Draufsicht von 2A.
    • 3 zeigt ein konzeptuelles Diagramm mit der Darstellung der Polarkoordinaten, der kartesischen Koordinaten und eines rechtwinkeligen Koordinatensystems parallel zur Bodenoberfläche des auf der Beförderungsvorrichtung in 2A montierten ToF-Sensors.
    • 4 zeigt ein Steuerblockdiagramm eines ToF-Sensors oder dergleichen, der im Beförderungssystem aus 1 eingeschlossen ist.
    • 5 zeigt ein Diagramm mit der Darstellung des Prinzips, nach dem der ToF-Sensor aus 1 die Entfernung zu einem Objekt nach dem Laufzeitverfahren berechnet.
    • 6 zeigt ein Steuerblockdiagramm mit der Darstellung der Auslegung der Vorrichtung zur Erkennung der Anbringungsausrichtung, die im ToF-Sensor aus 4 eingeschlossen ist.
    • 7 zeigt ein Diagramm mit der Darstellung des Prinzips, nach dem der Anbringungswinkel und die Anbringungshöhe des ToF-Sensors in der Vorrichtung zur Erkennung der Anbringungsausrichtung in 6 erkannt werden.
    • 8 zeigt ein Diagramm mit der Darstellung des Prinzips, nach dem der Rotationswinkel des ToF-Sensors in der Vorrichtung zur Erkennung der Anbringungsausrichtung in 6 erkannt wird.
    • 9 zeigt ein Diagramm mit der Darstellung des Prinzips, nach dem der Rotationswinkel des ToF-Sensors in der Vorrichtung zur Erkennung der Anbringungsausrichtung in 6 erkannt wird.
    • 10A und 10B zeigen Diagramme mit der Darstellung des Prinzips, nach dem der Rotationswinkel des ToF-Sensors in der Vorrichtung zur Erkennung der Anbringungsausrichtung in 6 erkannt wird.
    • 11A und 11B zeigen Diagramme mit der Darstellung des Prinzips, nach dem der Anbringungswinkel und die Anbringungshöhe erkannt werden, wenn der ToF-Sensor in der Vorrichtung zur Erkennung der Anbringungsausrichtung in 6 gedreht ist.
    • 12 zeigt ein Ablaufdiagramm des Vorgangsablaufs, um den Anbringungswinkel und die Anbringungshöhe des ToF-Sensors in der Vorrichtung zur Erkennung der Anbringungsausrichtung in 6 zu erkennen.
    • 13 zeigt ein Ablaufdiagramm des Vorgangsablaufs, um den Rotationswinkel des ToF-Sensors in der Vorrichtung zur Erkennung der Anbringungsausrichtung in 6 zu erkennen.
    • 14 zeigt ein Ablaufdiagramm des Vorgangsablaufs, der durchgeführt wird, wenn die Beförderungsvorrichtung in 1 zum Dock zurückkehrt.
    • 15 zeigt ein Diagramm mit der Darstellung eines Zustands, in dem der ToF-Sensor, der die Vorrichtung zur Erkennung der Anbringungsausrichtung nach einer anderen Ausführungsform dieser Erfindung einschließt, an der Wand eines Raums als Überwachungsvorrichtung angebracht ist.
  • AUSFÜHRLICHE BESCHREIBUNG DER AUSFÜHRUNGSFORM
  • Unter Bezugnahme auf 1 bis 14 wird nun ein Beförderungssystem (Entfernungsmesssystem) 50 beschrieben, umfassend eine Beförderungsvorrichtung (spezifisches Objekt) 30, in der ein ToF-Sensor (Entfernungsmessvorrichtung) 20, einschließend eine Vorrichtung zur Erkennung der Anbringungsausrichtung 10 nach einer Ausführungsform dieser Erfindung, installiert ist.
  • (1) Beförderungssystem 50
  • Das Beförderungssystem (Entfernungsmesssystem) 50 ist ein System, das dafür sorgt, dass die in 1 dargestellte Beförderungsvorrichtung 30 automatisch einen gewünschten Beförderungsvorgang durchführt, und umfasst die Beförderungsvorrichtung 30, den ToF-Sensor (Entfernungsmessvorrichtung) 20, die Vorrichtung zur Erkennung der Anbringungsausrichtung 10, die im ToF-Sensor 20 bereitgestellt ist, und ein Dock (spezifische Erkennungsposition) 40 (siehe 2A usw.).
  • Beim Beförderungssystem 50 fährt die Beförderungsvorrichtung 30 automatisch in die Fahrtrichtung, während Hindernisse und dergleichen vom ToF-Sensor 20 erkannt werden, und führt einen spezifischen Beförderungsvorgang durch. Wenn die Beförderungsarbeit abgeschlossen ist oder wenn eine verbleibende Ladung der Beförderungsvorrichtung 30 gering ist, beispielsweise gemäß der Darstellung in 2A und 2B, wird die Beförderungsvorrichtung 30 so gesteuert, dass sie zum Dock 40 zurückkehrt, das an einer spezifischen Ruheposition (Erkennungsposition) installiert ist.
  • Die Vorrichtung zur Erkennung der Anbringungsausrichtung 10 ist im Inneren des ToF-Sensors 20 bereitgestellt und erkennt die Anbringungsausrichtung des ToF-Sensors 20 in Bezug auf die Bodenoberfläche FL, indem Winkelinformationen und Entfernungsinformationen in Bezug auf die Referenzpunkte P1 und P2 (siehe 7 usw.) auf einer Bodenoberfläche FL, detektiert vom ToF-Sensor 20, herangezogen werden.
  • Die detaillierte Auslegung der Vorrichtung zur Erkennung der Anbringungsausrichtung 10 wird unten ausführlich beschrieben.
  • Gemäß der Darstellung in 1 usw. ist der ToF-Sensor 20 an der oberen Oberfläche der Hauptkörpereinheit 31 der Beförderungsvorrichtung 30 angebracht und erkennt Informationen über die Entfernung zu Hindernissen in der Fahrtrichtung der Beförderungsvorrichtung 30, die zu befördernde Last usw.
  • Die detaillierte Auslegung des ToF-Sensors 20 wird unten ausführlich beschrieben.
  • Die Beförderungsvorrichtung (spezifischer Gegenstand) 30 ist ein Beispiel für einen spezifischen Gegenstand, an dem der ToF-Sensor 20 angebracht ist. Dabei handelt es sich beispielsweise um ein AGV (fahrerloses Transportfahrzeug), einen AMR (autonomen mobilen Roboter) oder eine sonstige automatisierte Beförderungsmaschine, die von einem spezifischen Fahrprogramm gesteuert wird. Die Beförderungsvorrichtung 30 führt unbemannt oder bemannt Beförderungsarbeiten beispielsweise in einer Fabrik oder in einem Lager aus.
  • Gemäß den Darstellungen in 1, 4 usw. umfasst die Beförderungsvorrichtung (spezifischer Gegenstand) 30 eine Hauptkörpereinheit 31, eine Antriebseinheit 32, Räder 32a, Gabeln 33, eine Antriebssteuereinheit 34, eine Ladestation 35 und eine Sekundärbatterie 36.
  • Bei der Hauptkörpereinheit 31 handelt es sich zum Beispiel um ein im Wesentlichen zylindrisches Gehäuse, und der ToF-Sensor 20 ist an dessen oberer Oberfläche angebracht. Ebenso ist eine Vielzahl von Rädern 32a bereitgestellt, die drehbar am unteren Teil der Hauptkörpereinheit 31 angebracht sind und der Beförderungsvorrichtung 30 erlauben, sich in die gewünschte Richtung zu bewegen.
  • Die Antriebseinheit 32 ist beispielsweise ein Elektromotor, und die Beförderungsvorrichtung 30 ist ausgebildet, um durch rotatorisches Antreiben von mindestens einem der Räder 32a, die am unteren Teil der Hauptkörpereinheit 31 angebracht sind, in die gewünschte Richtung zu fahren.
  • In dieser Ausführungsform sind drei Räder 32a am unteren Teil der Hauptkörpereinheit 31 bereitgestellt, und mindestens eins davon wird rotatorisch von der Antriebseinheit 32 angetrieben. Zudem ist mindestens eins der Räder 32a als lenkbares Rad bereitgestellt, das die Fahrtrichtung der Beförderungsrichtung 30 vorgibt.
  • Die Gabeln 33 sind an der Vorderseite der Hauptkörpereinheit 31 bereitgestellt, und während Beförderungsarbeiten ist eine Last auf diesen Gabeln platziert. Die Gabeln werden von einer Beförderungsregelungseinheit (nicht dargestellt), die für die Beförderungsvorrichtung 30 bereitgestellt ist, nach oben und unten, hinsichtlich des Kippwinkels usw. gesteuert.
  • Die Antriebssteuereinheit 34 steuert die Drehzahl und die Drehrichtung der Antriebseinheit 32, die die Vielzahl von Rädern 32a rotatorisch antreibt. Dies erlaubt der Beförderungsvorrichtung 30 die Bewegung in die gewünschte Richtung bei der gewünschten Geschwindigkeit, um die Beförderungsaufgabe auszuführen.
  • Gemäß der Darstellung in 1 ist die Ladestation 35 an der Rückseite (auf der den Gabeln 33 entgegengesetzten Seite) der Hauptkörpereinheit 31 bereitgestellt. Gemäß den Darstellungen in 2A und 2B ist die Ladestation 35 mit einem Verbindungsabschnitt 41 auf der Seite des Docks 40 versehen, wenn die Beförderungsstation 30 mit dem Dock 40 verbunden ist, und die Beförderungsvorrichtung 30 wird von einem Ladegerät 42 mit Strom versorgt.
  • Gemäß der Darstellung in 1 ist die Sekundärbatterie 36 im Inneren der Hauptkörpereinheit 31 der Beförderungsvorrichtung 30 bereitgestellt. Wenn die Beförderungsvorrichtung 30 mit dem Dock 40 verbunden ist, wird die Sekundärbatterie 36 wiederholt durch den Strom aufgeladen, der von der Seite des Docks 40 über die Ladestation 35 zugeführt wird. Die Sekundärbatterie 36 speist dann die Antriebseinheit 32 mit diesem gespeicherten Strom.
  • Gemäß den Darstellungen in 2A und 2B ist das Dock 40 an einer spezifischen Ruheposition (Erkennungsposition) installiert, an die die Beförderungsvorrichtung 30 zurückkehrt, nachdem sie eine Beförderungsaufgabe abgeschlossen hat. Die Beförderungsvorrichtung 30 ist mit dem Dock 40 an der Ruheposition verbunden, und die installierte Sekundärbatterie 36 wird aufgeladen.
  • Gemäß den Darstellungen in 2A und 2B ist zudem eine Markierung M, die auf der Bodenoberfläche FL ausgebildet ist, vor der Beförderungsvorrichtung 30, die mit dem Dock 40 verbunden ist, angeordnet.
  • Die Markierung M weist ein Liniensegment L2 auf, das im Wesentlichen parallel zur vorderen Oberfläche der Beförderungsvorrichtung 30 verläuft, die mit den Gabeln 33 versehen ist. Das Liniensegment L2 ist im Wesentlichen rechtwinkelig zu einer geraden Linie angeordnet, die das Dock 40 und die Beförderungsvorrichtung 30, die mit dem Dock 40 verbunden ist, verbindet.
  • Folglich kann die Vorrichtung zur Erkennung der Anbringungsausrichtung 10 die Anbringungsausrichtung des ToF-Sensors 20, der an der Beförderungsvorrichtung 30 montiert ist, erkennen, indem sie sich auf das Liniensegment L2 der Markierung M bezieht.
  • In dieser Ausführungsform wird ein Beispiel geliefert, bei dem die Erkennung der Anbringungsausrichtung des ToF-Sensors 20, die Feststellung, ob eine Korrektur möglich ist oder nicht, der Vorgang zur Korrektur der gemessenen Entfernungsinformationen usw. in einem Zustand durchgeführt werden, in dem die Beförderungsvorrichtung 30 mit dem Dock 40 verbunden ist. Jedoch kann der Vorgang wie das Erkennen der Anbringungsausrichtung des ToF-Sensors 20 dagegen in einem Zustand ausgeführt werden, in dem der ToF-Sensor 20 nicht mit dem Dock 40 verbunden ist.
  • (2) ToF-Sensor 20
  • Gemäß der Darstellung in 3 ist der ToF-Sensor (Entfernungsmessvorrichtung) 20 an der oberen Oberfläche der Hauptkörpereinheit 31 der Beförderungsvorrichtung 30 angebracht, sodass er von der horizontalen Ebene nach unten gerichtet ist. Der ToF-Sensor 20 nutzt eine vorgegebene Winkeltabelle und einen gemessenen Entfernungswert, um eine erste Koordinatenumwandlung durchzuführen, um ein Polarkoordinatensystem in ein rechtwinkeliges Koordinatensystem umzuwandeln (das Koordinatensystem der optischen ToF-Achse (XT, YT, ZT), das von den Volllinien in 3 dargestellt ist). Der ToF-Sensor 20 nutzt auch den Anbringungswinkel und die Anbringungshöhe, die durch den unten beschriebenen Erkennungsvorgang erhalten wurden, um eine zweite Koordinatenumwandlung durchzuführen, bei der das Koordinatensystem der optischen ToF-Achse (XT, YT, ZT) in ein rechtwinkeliges Koordinatensystem umgewandelt wird, das parallel zur Bodenoberfläche FL verläuft (die drei Achsen (XTH, YTH, ZTH), angegeben von den Strichpunktlinien in 3). Darüber hinaus nutzt der ToF-Sensor 20 den Rotationswinkel des ToF-Sensors 20, der durch den Vorgang zur Erkennung des Rotationswinkels (siehe unten) erhalten wurde, um eine dritte Koordinatenumwandlung durchzuführen, bei der das rechtwinkelige Koordinatensystem (XTH, YTH, ZTH), das parallel zur Bodenoberfläche FL verläuft, mit dem rechtwinkeligen Koordinatensystem (XA, YA, ZA) der Beförderungsvorrichtung 30, an der der ToF-Sensor 20 angebracht ist, abgestimmt wird.
  • Nachdem die dritte Koordinatenumwandlung durchgeführt wurde, ist die Beförderungsvorrichtung 30 (ToF-Sensor 20) so angeordnet, dass die ZA-Achse des rechtwinkeligen Koordinatensystems rechtwinkelig zum oben genannten Liniensegment L2 der Markierung M verläuft (siehe 2A und 2B).
  • Der „Rotationswinkel“ des ToF-Sensors 20 ist ein Winkel, der die Positionsabweichung in der Drehrichtung rund um die Abstrahlachse des von einer Aussendeeinheit 21 ausgestrahlten Lichts angibt.
  • Gemäß der Darstellung in 4 umfasst der ToF-Sensor 20 die Aussendeeinheit 21, eine Lichtempfängerlinse 22, ein Bildgebungselement 23, eine Regelungseinheit 24, eine Speichereinheit 25 und die Vorrichtung zur Erkennung der Anbringungsausrichtung 10.
  • Die Aussendeeinheit 21 besitzt beispielsweise eine LED und bestrahlt ein Objekt wie eine Last oder die Bodenoberfläche FL mit Licht L1 der gewünschten Wellenlänge. Die Aussendeeinheit 21 ist mit einer Projektionslinse (nicht dargestellt) versehen, die das von der LED ausgestrahlte Licht L1 hinführend zum Objekt leitet.
  • Die Lichtempfängerlinse 22 ist bereitgestellt, um das Licht zu empfangen, das von der Aussendeeinheit 21 hinführend zum Objekt ausgestrahlt und vom Objekt reflektiert wird, und leitet dieses reflektierte Licht zum Bildgebungselement 23.
  • Das Bildgebungselement 23 besitzt eine Vielzahl von Pixeln, empfängt an einem jeden der Vielzahl von Pixeln das von der Lichtempfängerlinse 22 empfangene reflektierte Licht und überträgt ein photoelektrisch konvertiertes elektrisches Signal an die Regelungseinheit 24. Zudem wird das elektrische Signal, das der empfangenen Menge reflektierten, vom Bildgebungselement 23 erkannten Lichts entspricht, von der Regelungseinheit 24 genutzt, um Entfernungsinformationen zu berechnen.
  • Die Regelungseinheit 24 liest verschiedene Regelungsprogramme, die in der Speichereinheit 25 gespeichert sind, und regelt die Aussendeeinheit 21, die das Objekt mit Licht bestrahlt. Die Regelungseinheit 24 passt zudem die Expositionszeit des Bildgebungselements 23 an, um die Menge an von der Aussendeeinheit 21 ausgestrahltem Licht und die Reflexionsmenge des von der Aussendeeinheit 21 ausgestrahlten Lichts beispielsweise nach der Entfernung zum Objekt zu erkennen.
  • Insbesondere passt die Regelungseinheit 24 die Expositionszeit so an, dass diese kürzer ist, wenn die Entfernung zum Objekt kurz ist, und passt die Expositionszeit so an, dass diese länger ist, wenn die Entfernung zum Objekt lang ist.
  • Gemäß der Darstellung in 4 weist die Regelungseinheit 24 eine Entfernungsinformationenberechnungseinheit 24, eine Winkelinformationenerfassungseinheit 24b, eine Entfernungsbildgenerierungseinheit 24c und eine Entfernungskorrekturverarbeitungseinheit 24d auf.
  • Die Entfernungsinformationenberechnungseinheit 24a berechnet Informationen über die Entfernung zum Objekt für ein jedes Pixel auf Basis des elektrischen Signals, das einem jeden Pixel entspricht, das vom Bildgebungselement 23 empfangen wird.
  • Die Berechnung von Informationen über die Entfernung zum Objekt durch den ToF-Sensor 20 in dieser Ausführungsform wird nun unter Bezugnahme auf 5 beschrieben.
  • In dieser Ausführungsform wird von der Entfernungsinformationenberechnungseinheit 24a insbesondere das sog. Laufzeitverfahren herangezogen, um die Entfernung zum Objekt auf Basis der Phasendifferenz Φ (siehe 4) zwischen der ausgesendeten Lichtwelle mit einer spezifischen AM-geregelten Frequenz wie einer Sinuswelle oder einer Rechteckwelle, ausgesendet von der Aussendeeinheit 21, und der vom Bildgebungselement 23 empfangenen Lichtwelle zu berechnen.
  • Hier ist die Phasendifferenz Φ durch den folgenden relationalen Ausdruck (1) dargestellt. Φ = atan ( y / x )
    Figure DE102022125367A1_0001
    (wobei x = a2 - a0, y = a3 - a1 ist, und a0 bis a3 Amplituden an Punkten sind, an denen die empfangene Lichtwelle viermal in 90-Grad-Intervallen abgetastet wurde)
  • Die Umwandlungsformel von der Phasendifferenz Φ in die Entfernung D ist durch die folgende relationale Formel dargestellt (2). D = ( c / ( 2 × fLED ) ) × ( Φ / 2 π ) + DOFFSET
    Figure DE102022125367A1_0002
    (wobei c die Lichtgeschwindigkeit (≈ 3 × 108 m/s), fLED die Regelungsfrequenz der LED-ausgesendeten Lichtwelle und DOFFSET der Entfernungsversatz ist)
  • Folglich kann die Entfernungsinformationenberechnungseinheit 24a die Entfernung zum Objekt leicht berechnen, indem sie das reflektierte Licht des von der Aussendeeinheit 21 ausgestrahlten Lichts empfängt und dessen Phasendifferenz vergleicht und die Lichtgeschwindigkeit c nutzt.
  • Die Winkelinformationenerfassungseinheit 24b erfasst den Winkel (Winkelinformationen) in Bezug auf die Abstrahlachse des von der Aussendeeinheit 21 ausgestrahlten Lichts für ein jedes der Pixel, die das Bildgebungselement 23 des ToF-Sensors 20 darstellen. Die Winkelinformationenerfassungseinheit 24b kann beispielsweise auch vor der Speichereinheit 25 Winkelinformationen für ein jedes Pixel erfassen, das in der Speichereinheit 25 gespeichert ist.
  • Die Entfernungsbildgenerierungseinheit 24c nutzt die von der Entfernungsinformationenberechnungseinheit 24a und der Winkelinformationenerfassungseinheit 24b berechneten und erfassten Entfernungsinformationen und die Winkelinformationen jeweils, um ein Entfernungsbild zu generieren, in dem die Entfernungsinformationen und die Winkelinformationen einem jeden Pixel zugeordnet wurden.
  • Die Entfernungskorrekturverarbeitungseinheit 24d führt bei Bedarf für die von der Entfernungsinformationenberechnungseinheit 24a berechneten Entfernungsinformationen den Korrekturvorgang auf der Grundlage der Anbringungsausrichtung (Anbringungswinkel, Rotationswinkel usw.) des ToF-Sensors 20 durch, die von der Vorrichtung zur Erkennung der Anbringungsausrichtung 10 erkannt wurde (siehe unten).
  • Die Speichereinheit 25 speichert beispielsweise verschiedene Programme zur Regelung des Betriebs des ToF-Sensors 20 und speichert auch die von der Entfernungsinformationenberechnungseinheit 24a berechneten Entfernungsinformationen, Winkelinformationen, die einem jeden Pixel entsprechen, im Vorfeld als Tabelle gespeichert, das von der Entfernungsbildgenerierungseinheit 24c generierte Entfernungsbild, die von der Entfernungskorrekturverarbeitungseinheit 24d korrigierten Entfernungsinformationen usw.
  • (3) Vorrichtung zur Erkennung der Anbringungsausrichtung 10
  • Gemäß der Darstellung in 4 ist die Vorrichtung zur Erkennung der Anbringungsausrichtung 10 nach dieser Ausführungsform im ToF-Sensor 20 bereitgestellt und nutzt die Winkelinformationen und die Informationen über die Entfernung zu den Referenzpunkten P1 und P2 auf der Bodenoberfläche FL, die vom ToF-Sensor 20 erkannt wurden, um die Anbringungsausrichtung des ToF-Sensors 20 zu erkennen. Gemäß der Darstellung in 6 umfasst die Vorrichtung zur Erkennung der Anbringungsausrichtung 10 eine Entfernungsinformationenerfassungseinheit 11, eine Winkelinformationenerfassungseinheit 12, eine Entfernungsbilderfassungseinheit 13, eine Anbringungsausrichtungserkennungseinheit 14, eine Korrekturmöglichkeitsfeststellungseinheit 15 sowie eine Speichereinheit 16 und eine Meldeeinheit 17.
  • Die Entfernungsinformationenerfassungseinheit 11 erfasst von der Regelungseinheit 24 die Informationen über die von der Entfernungsinformationenberechnungseinheit 24a berechnete Entfernung zum Objekt.
  • Die Winkelinformationenerfassungseinheit 12 erfasst von der Regelungseinheit 24 die Informationen über den von der Winkelinformationenerfassungseinheit 24b berechneten Winkel zum Objekt.
  • Die Entfernungsbilderfassungseinheit 13 erfasst von der Regelungseinheit 24 das von der Entfernungsbildgenerierungseinheit 24c generierte Entfernungsbild.
  • Die Anbringungsausrichtungserkennungseinheit 14 nutzt die Winkelinformationen und die Informationen über die Entfernung zur Bodenoberfläche FL, die vom ToF-Sensor 20 gemessen wurden, um die Anbringungsausrichtung des ToF-Sensors 20 in Bezug auf die Bodenoberfläche FL zu erkennen. Insbesondere weist die Anbringungsausrichtungserkennungseinheit 14 gemäß der Darstellung in 6 eine Anbringungswinkelerkennungseinheit 14a, eine Anbringungshöhenerkennungseinheit 14b und eine Rotationserkennungseinheit 14c auf.
  • Die Anbringungswinkelerkennungseinheit 14a erkennt Informationen hinsichtlich des Anbringungswinkels des ToF-Sensors 20 in Bezug auf die Bodenoberfläche FL als Informationen hinsichtlich der Anbringungsausrichtung. Insbesondere erkennt die Anbringungswinkelerkennungseinheit 14a den Anbringungswinkel θa des ToF-Sensors 20, der an der Beförderungsvorrichtung 30 angebracht ist, in Bezug auf die Bodenoberfläche FL, indem sie Winkelinformationen θ1 und θ2 nutzt, die einem jeden der Pixel des Bildgebungselements 23 entsprechen, sowie die Messergebnisse bis zu den zwei Referenzpunkten P1 und P2 (Entfernungsinformationen d1 und d2).
  • Die Anbringungshöhenerkennungseinheit 14b erkennt Informationen hinsichtlich der Anbringungshöhe des ToF-Sensors 20 von der Bodenoberfläche FL. Insbesondere erkennt die Anbringungshöhenerkennungseinheit 14b die Anbringungshöhe da des ToF-Sensors 20, der an der Beförderungsvorrichtung 30 angebracht ist, in Bezug auf die Bodenoberfläche FL, indem sie die Winkelinformationen θ1 und θ2 nutzt, die einem jeden der Pixel des Bildgebungselements 23 entsprechen, sowie die Messergebnisse bis zu den zwei Referenzpunkten P1 und P2 (Entfernungsinformationen d1 und d2).
  • Die erkannte Anbringungsausrichtung (Anbringungswinkel θa, Anbringungshöhe da) wird berechnet, indem die Ergebnisse (d1, D2, θ1, θ2) der Messung der Entfernung zu jedem der zwei Referenzpunkte P1 und P2 auf der Bodenoberfläche FL gemäß der Darstellung in 7 herangezogen werden.
  • Das heißt, wenn davon ausgegangen wird, dass
    da die Anbringungshöhe des ToF-Sensors von der Bodenoberfläche FL ist (wobei da eine vertikale Linie um 90° zur Bodenoberfläche FL ist);
    θa der Winkel zwischen der Bodenoberfläche FL und der optischen Achse des ToF-Sensors 20 ist;
    θ1 der Winkel des ersten Pixels des ToF-Sensors 20 in Bezug auf die Mitte des ToF-Sensors ist (Sensorspezifikationen);
    d1 die Entfernung (Messwert) vom ersten Pixel des ToF-Sensors 20 zum Referenzpunkt P1 auf der Bodenoberfläche FL ist;
    θ2 der Winkel des zweiten Pixels des ToF-Sensors 20 in Bezug auf die ToF-Mitte ist (Sensorspezifikationen);
    d2 die Entfernung vom zweiten Pixel des ToF-Sensors 20 zum Referenzpunkt P2 auf der Bodenoberfläche FL (Messwert) ist,
    dann gelten die folgenden relationalen Ausdrücke: cos ( θ a ) = da / cos ( θ a θ 1 ) = da / d 1   cos ( θ a θ 2 ) = da / d 2
    Figure DE102022125367A1_0003
  • Folglich wird die Anbringungshöhe durch die folgenden zwei Gleichungen ausgedrückt, unter Nutzung des Anbringungswinkels θa, der Winkelinformationen (θ1, θ2) und der Informationen über die Entfernung (d1, d2) zu den Referenzpunkten P1 und P2. da = d 1 cos ( θ a θ 1 )
    Figure DE102022125367A1_0004
    da = d 2 cos ( θ a θ 2 )
    Figure DE102022125367A1_0005
  • Da θ1 und θ2 bekannte Werte sind, die durch die Sensorspezifikationen vorgegeben sind, und d1 und d2 Werte sind, die durch Messung ermittelt werden, können die Anbringungshöhe da und der Anbringungswinkel θa anhand der Gleichungen (1) und (2) berechnet werden.
  • Die Rotationserkennungseinheit 14c erkennt Informationen hinsichtlich des Rotationswinkels rund um die optische Achse des ToF-Sensors 20. Insbesondere sollten gemäß der Darstellung in 8 in der Rotationserkennungseinheit 14c alle Pixel, die auf einem Kreis C liegen, der auf dem mittigen Pixel P0 des Frames des Entfernungsbilds zentriert ist, das von der Entfernungsbildgenerierungseinheit 24c des ToF-Sensors 20 generiert wurde, der an der Beförderungsvorrichtung 30 angebracht ist, denselben Betrachtungswinkel (wie θ1) aufweisen. Folglich berechnet die Rotationserkennungseinheit 14c gemäß der Darstellung in 9 den Rotationswinkel Θb zusammen mit dem Detektieren, ob eine Drehung des ToF-Sensors 20 stattfindet oder nicht, je nachdem, ob sich die Position der Pixel auf dem Kreis C, der auf der Bildmitte des Framebilds zentriert ist, bewegt oder nicht.
  • Das heißt, dass die erkannte Entfernung zu den Pixeln P3 und P4, die die horizontale Linie schneiden und durch das mittige Pixel P0 (x0, y0) führen, gemäß der Darstellung in 10A bei einem von der Rotationserkennungseinheit 14c erkannten Rotationswinkel Θb, wenn keine Drehung des ToF-Sensors 20 stattfindet, gleich ist. Wenn dagegen eine Drehung des ToF-Sensors 20 stattfindet, bewegen sich die Pixel gemäß der Darstellung in 10B an derselben erkannten Entfernung zu den Pixeln P3 und P4 um die Menge des Rotationswinkels θb.
  • Folglich kann der Rotationswinkel θb des ToF-Sensors 20 anhand dessen ermittelt werden, ob eine Änderung der Positionen der Pixel P3 und P4 an derselben Entfernung stattfindet, sowie anhand deren Rotationswinkels.
  • Was den Anbringungswinkel θa und die Anbringungshöhe da betrifft, können die Pixel von θ1 und θ2 gemäß den Darstellungen in 11A und 11B auf dieselbe Weise ermittelt werden, wenn sich der ToF-Sensor 20 dreht, indem davon ausgegangen wird, dass d1 und d2 die Entfernungen der Pixel an Überschneidungen mit der vertikalen Linie sind, die durch die Mitte der Durchmesserlinie a führt, die die oben genannten selben Entfernungen und denselben Winkelkreis verbindet.
  • Die Korrekturmöglichkeitsfeststellungseinheit 15 stellt fest, ob das Messergebnis (Entfernungsinformationen) in der Entfernungsinformationenberechnungseinheit 24a der Regelungseinheit 24 auf der Grundlage von Informationen über den von der Anbringungswinkelerkennungseinheit 14a und der Rotationserkennungseinheit 14c der Vorrichtung zur Erkennung der Anbringungsausrichtung 10 erkannten Montagewinkel und Rotationswinkel korrigiert werden muss.
  • Ein Fall, in dem die Korrektur nicht möglich ist, ist beispielsweise ein Fall, in dem die Anbringungsausrichtung des ToF-Sensors 20 durch eine Kollision der Beförderungsvorrichtung 30 mit einem unvorhergesehenen Hindernis oder dergleichen bei der Fahrt in hohem Maß verzerrt wurde.
  • Ob die Korrektur möglich ist oder nicht, wird anhand dessen festgestellt, ob der von der Anbringungswinkelerkennungseinheit 14a und der Rotationserkennungseinheit 14c der Vorrichtung zur Erkennung der Anbringungsausrichtung 10 erkannte Anbringungswinkel und Rotationswinkel innerhalb des vorgegebenen korrekturfähigen Referenzbereichs liegen.
  • Wenn das Erkennungsergebnis in der Vorrichtung zur Erkennung der Anbringungsausrichtung 10 folglich ein hohes Maß an Verzerrung der Anbringungsausrichtung des ToF-Sensors 20 angibt, können Maßnahmen ergriffen werden wie das Übermitteln einer Meldung, mit der Aufforderung an den Nutzer, die Anbringungsausrichtung des ToF-Sensors 20 anzupassen, ohne den Entfernungswert zu korrigieren, bei dem es sich um das Messergebnis handelt.
  • Die Speichereinheit 16 speichert Informationen über die Anbringungsausrichtung (Anbringungswinkel, Rotationswinkel usw.) des ToF-Sensors 20, die von der Anbringungsausrichtungserkennungseinheit 14 erkannt wurde.
  • Folglich kann der ToF-Sensor 20 die Informationen nutzen, die sich auf die Anbringungsausrichtung des ToF-Sensors 20 beziehen und in der Speichereinheit 16 gespeichert sind, um die Messergebnisse (Entfernungsinformationen) zu korrigieren.
  • Wenn die Korrekturmöglichkeitsfeststellungseinheit 15 beispielsweise festgestellt hat, dass die Entfernungsinformationen nicht korrigiert werden können, besteht eine hohe Wahrscheinlichkeit, dass die Anbringungsausrichtung des ToF-Sensors 20 in äußerst hohem Maß verzerrt ist usw., sodass die Meldeeinheit 17 den Nutzer auffordert, die Anbringungsausrichtung des ToF-Sensors 20 anzupassen.
  • Verfahren zur Erkennung der Anbringungsausrichtung
  • Das Verfahren zur Erkennung der Anbringungsausrichtung des ToF-Sensors 20 in dieser Ausführungsform wird nun unter Bezugnahme auf das in 12 dargestellte Ablaufdiagramm beschrieben.
  • Beschrieben wird ein Schritt zum Erkennen des Anbringungswinkels θa und der Anbringungshöhe da als Anbringungsausrichtung des ToF-Sensors 20.
  • Gemäß der Darstellung in 12 wird in Schritt S11 zuerst festgestellt, ob sich das mittige Pixel P0 des ToF-Sensors 20 innerhalb der Bodenoberfläche FL befindet. Wenn sich das mittige Pixel P0 innerhalb der Bodenoberfläche FL befindet, wird der Vorgang bei Schritt S13 weitergeführt, und wenn sich das mittige Pixel P0 außerhalb der Bodenoberfläche FL befindet, wird der Vorgang bei Schritt S12a weitergeführt.
  • Was die Feststellung in Schritt S11 betrifft, muss die Feststellung nicht unbedingt auf der Grundlage des mittigen Pixels erfolgen und es können andere Pixel als das mittige Pixel genutzt werden, aber in dieser Ausführungsform wird das mittige Pixel genutzt, um die Beschreibung zu vereinfachen.
  • Nachdem in Schritt S11 festgestellt wurde, dass sich das mittige Pixel P0 außerhalb der Bodenoberfläche FL befindet, meldet die Meldeeinheit 17 in Schritt S12a dem Nutzer, dass Informationen, die sich auf die Anbringungsausrichtung des ToF-Sensors 20 beziehen, nicht erkannt werden können.
  • Nachdem in Schritt S11 festgestellt wurde, dass sich das mittige Pixel P0 innerhalb der Bodenoberfläche FL befindet, wird dann in Schritt S13 Licht von der Aussendeeinheit 21 ausgestrahlt, und das reflektierte Licht wird vom Bildgebungselement 23 empfangen, und der gemessene Wert (Entfernungsinformationen) des mittigen Pixels P0 des ToF-Sensors 20 wird als d festgelegt.
  • In Schritt S14 wird dann ein beliebiges Pixel P1 ausgewählt, das dieselbe X-Koordinate wie das mittige Pixel P0 aufweist. P1 befindet sich somit innerhalb der Bodenoberfläche FL, der durch das mittige Pixel P0 und ein beliebiges Pixel P1 geformte Winkel ist θ1, und der gemessene Wert (Entfernung) des beliebigen Pixels P1 ist d1 (Entfernungs- und Winkelinformationenerfassungsschritt).
  • In Schritt S15 wird dann ein beliebiges Pixel P2 ausgewählt, das dieselbe X-Koordinate wie das mittige Pixel P0 aufweist. Das beliebige Pixel P2 befindet sich somit innerhalb der Bodenoberfläche FL, der durch das mittige Pixel P0 und das beliebige Pixel P2 geformte Winkel ist θ2, und der gemessene Wert (Entfernung) des beliebigen Pixels P2 ist d2.
  • In Schritt S16 werden dann gemäß der obigen Beschreibung der Anbringungswinkel θa und die Anbringungshöhe da des ToF-Sensors 20 anhand der folgenden Gleichungen (1) und (2) berechnet (Anbringungsausrichtungserkennungsschritt). da = d 1 cos ( θ a θ 1 )
    Figure DE102022125367A1_0006
    da = d 2 cos ( θ a θ 2 )
    Figure DE102022125367A1_0007
  • In Schritt S17 wird dann festgestellt, ob sich der Anbringungswinkel θa und die Anbringungshöhe da des ToF-Sensors 20 innerhalb des Referenzbereichs befinden.
  • Der Referenzbereich kann nach Nutzerpräferenz sowie Typ, Form, Leistung usw. des ToF-Sensors 20 wie gewünscht festgelegt werden.
  • Nachdem in Schritt S17 festgestellt wurde, dass der Anbringungswinkel θa und die Anbringungshöhe da außerhalb des Referenzbereichs liegen, meldet die Meldeeinheit 17 dem Nutzer in Schritt S12b, dass das vom ToF-Sensor 20 gemessene Messergebnis nicht korrigiert werden kann.
  • Nachdem in Schritt S17 festgestellt wurde, dass der Anbringungswinkel θa und die Anbringungshöhe da innerhalb des Referenzbereichs liegen, werden dann in Schritt S18 der Anbringungswinkel θa und die Anbringungshöhe da in der Speichereinheit 16 gespeichert.
  • In Schritt S19 wird dann das Messergebnis des ToF-Sensors 20 auf der Grundlage der Werte des Anbringungswinkels θa und der Anbringungshöhe da korrigiert, und der Vorgang wird beendet.
  • Nach Schritt S19 kann die Koordinatenumwandlung zum Zeitpunkt der Entfernungsmessung mit dem ToF-Sensor 20 durchgeführt werden, indem die Werte für den Anbringungswinkel θa und die Anbringungshöhe da herangezogen werden. Alternativ kann der Nutzer die Anbringungsausrichtung des ToF-Sensors 20 unter Bezugnahme auf die Werte des Anbringungswinkels θa und der Anbringungshöhe da anpassen.
  • Im Folgenden wird der Schritt zum Erkennen des Rotationswinkels θa als Anbringungsausrichtung des ToF-Sensors 20 unter Bezugnahme auf 13 beschrieben.
  • Gemäß der Darstellung in 13 wird in Schritt S21 zuerst festgestellt, ob sich das mittige Pixel P0 des ToF-Sensors 20 innerhalb der Bodenoberfläche FL befindet. Wenn sich das mittige Pixel P0 innerhalb der Bodenoberfläche FL befindet, wird der Vorgang bei Schritt S23 weitergeführt, und wenn sich aber das mittige Pixel P0 außerhalb der Bodenoberfläche FL befindet, wird der Vorgang bei Schritt S22a weitergeführt.
  • Nachdem in Schritt S21 festgestellt wurde, dass sich das mittige Pixel P0 außerhalb der Bodenoberfläche FL befindet, meldet die Meldeeinheit 17 in Schritt S22a dem Nutzer, dass Informationen, die sich auf die Anbringungsausrichtung des ToF-Sensors 20 beziehen, nicht erkannt werden können.
  • Nachdem in Schritt S21 festgestellt wurde, dass sich das mittige Pixel P0 innerhalb der Bodenoberfläche FL befindet, wird dann in Schritt S23 ein Kreis C, der auf dem mittigen Pixel P0 des ToF-Sensors 20 zentriert ist, als Bodenoberfläche FL definiert.
  • In Schritt S24 werden dann die Entfernungswerte der Pixel gelesen, die auf dem Umfang des Kreises C liegen (Entfernungsinformationenerfassungsschritt).
  • Dann werden in Schritt S25 von den in Schritt S24 gewonnenen Entfernungswerten die Pixel P3 und P4 an derselben Entfernung genutzt.
  • Anschließend wird in Schritt S26 festgestellt, ob das Pixel P3, das mittige Pixel P0 und das Pixel P4 auf derselben Y-Koordinate fluchtend sind oder nicht. Wenn das Pixel P3, das mittige Pixel P0 und das Pixel P4 nicht auf derselben Y-Koordinate fluchtend sind, wird der Vorgang bei Schritt S28 fortgesetzt, wenn sie aber fluchtend sind, wird der Vorgang bei Schritt S27 fortgesetzt.
  • Nachdem in Schritt S26 festgestellt wurde, dass das Pixel P3, das mittige Pixel P0 und das Pixel P4 auf derselben Y-Koordinate fluchtend sind, wird dann in Schritt S27 die Drehung des ToF-Sensors 20 als Null-Grad-Drehung beurteilt (es besteht keine Abweichung bei der Anbringungsausrichtung in der Drehrichtung), und der Vorgang wird beendet. An diesem Punkt kann der Nutzer mittels der Meldeeinheit 17 benachrichtigt werden, dass keine Korrektur aufgrund der Drehung des ToF-Sensors 20 erforderlich ist.
  • In Schritt S28 werden die Koordinaten des mittigen Pixels P0 auf (x0, y0) festgelegt und der durch die gerade Linie von Y = y0 und die Linie, die die Pixel P3, P0 und P4 verbindet, gebildete Winkel wird als Rotationswinkel θb in Richtung der optischen Achse definiert (Anbringungsausrichtungserkennungsschritt).
  • In Schritt S29 wird dann festgestellt, ob der Rotationswinkel θb innerhalb des Referenzwinkelbereichs liegt oder nicht, und wenn er innerhalb des Referenzwinkelbereichs liegt, wird der Vorgang bei Schritt S30 fortgesetzt. Liegt er jedoch außerhalb des Referenzwinkelbereichs, wird der Vorgang bei Schritt S22b fortgesetzt.
  • Nachdem in Schritt S29 festgestellt wurde, dass der Rotationswinkel Θb außerhalb des Referenzwinkelbereichs liegt, meldet die Meldeeinheit 17 dem Nutzer in Schritt S22b, dass das Messergebnis des ToF-Sensors 20 nicht korrigiert werden kann.
  • Nachdem in Schritt S29 festgestellt wurde, dass der Anbringungswinkel Θb innerhalb des Referenzwinkelbereichs liegt, wird dann in Schritt S30 der Rotationswinkel Θb in der Speichereinheit 16 gespeichert.
  • Im Folgenden wird in Schritt S31 das vom ToF-Sensor 20 gemessene Ergebnis (Entfernungswert) auf der Grundlage des Werts des Rotationswinkels θb korrigiert und der Vorgang wird beendet.
  • Nach Schritt S31 kann die Koordinatenumwandlung zum Zeitpunkt der Entfernungsmessung mit dem ToF-Sensor 20 durchgeführt werden, indem der Rotationswinkel θb herangezogen wird. Alternativ kann der Nutzer den Rotationswinkel des ToF-Sensors 20 unter Bezugnahme auf den Wert des Rotationswinkels θb anpassen. Verfahren zur Erkennung der Anbringungsausrichtung bei der Rückkehr zum Dock
  • Beim Verfahren zur Erkennung der Anbringungsausrichtung des ToF-Sensors 20 in dieser Ausführungsform wird nun unter Bezugnahme auf das in 14 dargestellte Ablaufdiagramm der Vorgang beschrieben, der durchgeführt wird, wenn das Beförderungssystem 50 zum Dock 40 zurückkehrt.
  • Nun wird der Schritt zum Anpassen der Anbringungsausrichtung unter Nutzung des Anbringungswinkels θa, der Anbringungshöhe da und des Rotationswinkels θb, erkannt in einem Zustand, in dem die Beförderungsvorrichtung 30, an der der ToF-Sensor 20 angebracht ist, eine spezifische Aufgabe beendet hat und zum Dock 40 zurückgekehrt ist, beschrieben.
  • Gemäß der Darstellung in 14 wird in Schritt S41 zuerst festgestellt, ob die Beförderungsvorrichtung 30 als mit dem Dock 40 verbunden erkannt wird oder nicht. Wenn erkannt wird, dass die Beförderungsvorrichtung 30 mit dem Dock 40 verbunden ist, wird der Vorgang bei Schritt S43 fortgesetzt. Wenn das nicht erkannt wurde, wird der Vorgang bei Schritt S42 fortgesetzt.
  • Nachdem in Schritt S41 festgestellt wurde, dass die Beförderungsvorrichtung 30 als nicht mit dem Dock 40 verbunden erkannt wurde, werden in Schritt S42 die Schritte S41 und S42 wiederholt, bis die Beförderungsvorrichtung 30 mit dem Dock 40 verbunden ist.
  • Nachdem in Schritt S41 festgestellt wurde, dass die Beförderungsvorrichtung 30 nicht mit dem Dock 40 verbunden ist, wird dann in Schritt S43 die anfängliche Einstellung der Expositionszeit Inti des Bildgebungselements 23 des ToF-Sensors 20 durchgeführt.
  • In Schritt S44 wird dann festgestellt, ob die Markierung M des Diagramms vom ToF-Sensor 20 identifiziert werden kann oder nicht. Wenn die Markierung M identifiziert werden kann, wird der Vorgang bei Schritt S46 weitergeführt, wenn die Markierung M nicht identifiziert werden kann, wird der Vorgang bei Schritt S45 weitergeführt.
  • Nachdem in Schritt S44 festgestellt wurde, dass die Markierung M des Diagramms nicht vom ToF-Sensor 20 identifiziert werden kann, wird die Expositionszeit Inti des Bildgebungselements 23 des ToF-Sensors 20 dann in Schritt S45 angepasst. Dieser Anpassungsvorgang für die Expositionszeit Inti wird wiederholt, bis die Markierung M auf dem Diagramm erkannt wird.
  • Nachdem in Schritt S44 festgestellt wurde, dass die Markierung M des Diagramms vom ToF-Sensor 20 identifiziert werden kann, erfasst der ToF-Sensor 20 dann in Schritt S46 ein Bild der Bodenoberfläche FL zusammen mit der Markierung M, die im Wesentlichen parallel zur Frontoberfläche der Beförderungsvorrichtung 30 ausgebildet ist.
  • Da der ToF-Sensor 20 so gefluchtet ist, dass die Frontoberfläche der Beförderungsvorrichtung 30 im Wesentlichen parallel zum Liniensegment L2 der Markierung M verläuft, kann die Anbringungsausrichtung an diesem Punkt präziser erkannt werden, indem die Entfernung zu den zwei Referenzpunkten P1 und P2 auf der Bodenoberfläche FL in diesem Status gemessen wird.
  • In Schritt S47 werden dann die zwei Referenzpunkte P1 und P2 auf die abgebildete Bodenoberfläche FL gesetzt und der Anbringungswinkel θa und die Anbringungshöhe da des ToF-Sensors 20 werden anhand der obigen Gleichungen (1) und (2) berechnet (Entfernungsinformationenerfassungsschritt, Winkelinformationenerfassungsschritt und Anbringungsausrichtungserkennungsschritt).
  • In Schritt S48 wird dann festgestellt, ob sich der in Schritt S47 berechnete Anbringungswinkel θa des ToF-Sensors 20 innerhalb des Referenzbereichs befindet. Wenn festgestellt wird, dass sich der Anbringungswinkel θa innerhalb des Referenzbereichs befindet, wird der Vorgang bei Schritt S50 fortgesetzt. Wird jedoch festgestellt, dass sich der Anbringungswinkel θa außerhalb des Referenzbereichs befindet, wird der Vorgang bei Schritt S49 fortgesetzt.
  • Der Referenzbereich kann nach Nutzerpräferenz sowie Typ, Form, Leistung usw. des ToF-Sensors 20 wie gewünscht festgelegt werden.
  • Nachdem in Schritt S48 festgestellt wurde, dass sich der Anbringungswinkel θa außerhalb des Referenzbereichs befindet, meldet die Meldeeinheit 17 dem Nutzer in Schritt S49, dass das vom ToF-Sensor 20 gemessene Messergebnis nicht unter Nutzung des Anbringungswinkels θa korrigiert werden kann.
  • Nachdem in Schritt S48 festgestellt wurde, dass der Anbringungswinkel θb innerhalb des Referenzbereichs liegt, führt die oben genannte Rotationserkennungseinheit 14c dann in Schritt S50 einen Berechnungsvorgang für den Rotationswinkel θb durch (Anbringungsausrichtungserkennungsschritt).
  • Anschließend wird in Schritt S51 festgestellt, ob der Rotationswinkel θb innerhalb des korrekturfähigen Referenzwinkelbereichs liegt. Liegt er innerhalb des Referenzwinkelbereichs, wird der Vorgang bei Schritt S53 fortgesetzt. Liegt er jedoch außerhalb des Referenzwinkelbereichs, wird der Vorgang bei Schritt S52 fortgesetzt.
  • Nachdem in Schritt S51 festgestellt wurde, dass der Rotationswinkel θb außerhalb des Referenzwinkelbereichs liegt, meldet die Meldeeinheit 17 dem Nutzer in Schritt S52, dass das Messergebnis des ToF-Sensors 20 nicht unter Nutzung des Rotationswinkels θb korrigiert werden kann.
  • Nachdem in Schritt S51 festgestellt wurde, dass der Rotationswinkel θb innerhalb des Referenzwinkelbereichs liegt, wird dann in Schritt S53 das Koordinatensystem der optischen Achse des ToF-Sensors 20 in ein rechtwinkeliges Koordinatensystem, das parallel zur Bodenoberfläche FL verläuft, umgewandelt.
  • Insbesondere wird ein Umwandlungskoeffizient für die Umwandlung vom Koordinatensystem der optischen ToF-Achse (XT, YT, ZT), angegeben von den Volllinien in 3, in drei Achsen (XTH, YTH, ZTH), angegeben von den Strichpunktlinien in 3, ermittelt und in der Speichereinheit 16 gespeichert.
  • In Schritt S54 wird dann das rechteckige Koordinatensystem, das parallel zur Bodenoberfläche FL verläuft und in Schritt S53 umgewandelt wurde, in das rechteckige Koordinatensystem der Beförderungsvorrichtung 30 umgewandelt.
  • Insbesondere wird der Umwandlungskoeffizient für die Umwandlung der drei Achsen (XTH, YTH, ZTH), angegeben von der Strichpunktlinie in 3, in das rechteckige Koordinatensystem (XA, YA, ZA) der Beförderungsvorrichtung 30 ermittelt und in der Speichereinheit 16 gespeichert.
  • Anschließend wird in Schritt S55 festgestellt, ob der Unterschied im Vergleich zum vorherigen Umwandlungskoeffizienten bei oder über einem spezifischen Schwellenwert liegt oder nicht. Wenn der Unterschied zum vorherigen Verhältnis des Umwandlungskoeffizienten bei oder über einem spezifischen Schwellenwert liegt, wird der Vorgang bei Schritt S56 weitergeführt, wenn er jedoch unter dem Schwellenwert liegt, wird festgestellt, dass eine erneute Anpassung unnötig ist, und der Prozess wird beendet.
  • Nachdem in Schritt S55 festgestellt wurde, dass der Unterschied vom vorherigen Verhältnis des Umwandlungskoeffizienten bei oder über einem spezifischen Schwellenwert liegt, meldet dann die Meldeeinheit 17 dem Nutzer in Schritt S56, dass eine erhebliche Abweichung der Anbringungsausrichtung des ToF-Sensors 20 von derjenigen zum Zeitpunkt der vorherigen Anpassung eingetreten ist.
  • Nachdem ermittelt wurde, dass die Anbringungsausrichtung des ToF-Sensors 20 erheblich von derjenigen zum Zeitpunkt der vorherigen Anpassung abgewichen ist, werden dann in Schritt S57 der Anbringungswinkel θa, die Anbringungshöhe da und der Rotationswinkel Θb des an der Beförderungsvorrichtung 30 angebrachten ToF-Sensors 20 angepasst.
  • Hauptmerkmale
  • Der ToF-Sensor 20 in dieser Ausführungsform ist eine Entfernungsmessvorrichtung, die die Entfernung zu einem Objekt S1 nach der Phasendifferenz zwischen einer empfangenen Lichtwelle und einer ausgesendeten Lichtwelle misst, die das Objekt bestrahlt, und umfasst eine Aussendeeinheit 21, ein Bildgebungselement 23, eine Entfernungsinformationenerfassungseinheit 11, eine Winkelinformationenerfassungseinheit 12 und eine Anbringungsausrichtungserkennungseinheit 14. Die Aussendeeinheit 21 bestrahlt die Bodenoberfläche FL mit Licht. Das Bildgebungselement 23 erkennt das von der Aussendeeinheit 21 ausgestrahlte Licht. Die Entfernungsinformationenerfassungseinheit 11 erfasst Informationen über die Entfernung zu Referenzpunkten P1 und P2 auf einer Bodenoberfläche FL nach der Phasendifferenz zwischen der empfangenen Lichtwelle und der vom Bildgebungselement 23 erkannten ausgesendeten Lichtwelle. Die Winkelinformationenerfassungseinheit 12 erfasst Informationen über den Winkel zu den Referenzpunkten P1 und P2. Die Anbringungsausrichtungserkennungseinheit 14 erkennt die Anbringungsausrichtung in Bezug auf die Bodenoberfläche FL auf der Grundlage der Entfernungsinformationen und der Winkelinformationen, die von der Entfernungsinformationenerfassungseinheit 11 und der Winkelinformationenerfassungseinheit 12 erfasst wurden.
  • Folglich kann die Anbringungsausrichtung des ToF-Sensors 20 in Bezug auf die Bodenoberfläche FL oder eine andere derartige Referenzoberfläche automatisch erkannt werden, indem die Ergebnisse (Entfernungsinformationen und Winkelinformationen) herangezogen werden, die vom ToF-Sensor 20 gemessen werden.
  • Das bedeutet, dass die Anbringungsausrichtung eines ToF-Sensors 20, der an beliebigen verschiedenen Vorrichtungen angebracht ist, erkannt werden kann, ohne dass eine Messung unter Nutzung einer Ausrichtungserkennungsvorrichtung wie eines Neigungssensors oder eines Nivellierinstruments durchgeführt werden muss, und dass die Messergebnisse des ToF-Sensors 20 im Bedarfsfall korrigiert werden können, wenn die Anbringungsausrichtung gestört ist.
  • Andere Ausführungsformen
  • Oben wurde eine Ausführungsform dieser Erfindung beschrieben, jedoch ist diese Erfindung nicht auf oder durch die obige Ausführungsform beschränkt, und möglich sind verschiedene Varianten, ohne vom Erfindungskonzept abzuweichen.
  • (A)
  • In der obigen Ausführungsform wurde ein Beispiel beschrieben, in dem diese Erfindung als Entfernungsmessvorrichtung (ToF-Sensor 20) und als Verfahren zur Erkennung der Anbringungsausrichtung dieser Vorrichtung realisiert wurde, jedoch ist diese Erfindung nicht darauf beschränkt.
  • Beispielsweise kann diese Erfindung dagegen als Programm zur Erkennung der Anbringungsausrichtung realisiert werden, das einen Computer dazu veranlasst, das oben genannte Verfahren zur Erkennung der Anbringungsausrichtung mit einer Entfernungsmessvorrichtung auszuführen.
  • Dieses Programm ist in einem Speicher (Speichereinheit) gespeichert, der in der Entfernungsmessvorrichtung installiert ist, und die CPU liest das Programm zur Erkennung der Anbringungsausrichtung, das im Speicher gespeichert ist, und veranlasst die Hardware zur Durchführung verschiedener Schritte. Insbesondere kann die gleiche Wirkung dessen, was oben beschrieben wurde, erzielt werden, wenn eine CPU das Programm liest und den oben genannten Bestrahlungsschritt, Erkennungsschritt, Entfernungs- und Winkelinformationenerfassungsschritt und Anbringungsausrichtungserkennungsschritt ausführt.
  • Diese Erfindung kann auch als Aufzeichnungsmedium realisiert werden, in dem das Programm zur Erkennung der Anbringungsausrichtung gespeichert ist.
  • (B)
  • In der obigen Ausführungsform wurde ein Beispiel beschrieben, in dem der ToF-Sensor 20 (Entfernungsmessvorrichtung) an der Beförderungsvorrichtung 30 angebracht ist, jedoch ist diese Erfindung nicht darauf beschränkt.
  • Die Auslegung kann beispielsweise so gestaltet sein, dass eine Entfernungsmessvorrichtung 120 (Vorrichtung zur Erkennung der Anbringungsausrichtung 110) in einer Überwachungsvorrichtung, die an einer Wandoberfläche eines Raums montiert ist, gemäß der Darstellung in 15, anstatt für eine Beförderungsvorrichtung bereitgestellt ist.
  • In diesem Fall kann die Anbringungsausrichtung der Überwachungsvorrichtung automatisch erkannt werden, indem die optische Achse AX der Kamera so angeordnet wird, dass sie der Bodenoberfläche zugewandt ist, wobei die Bodenoberfläche als Referenzoberfläche dient.
  • Die Vorrichtung zur Erkennung der Anbringungsausrichtung gemäß dieser Erfindung kann zudem an anderen Vorrichtungen wie Automobilen, Motorrädern, E-Bikes oder einem sonstigen derartigen Fahrzeug angebracht sein.
  • (C)
  • In der obigen Ausführungsform wurde ein Beispiel beschrieben, in dem der Anbringungswinkel, die Anbringungshöhe und der Rotationswinkel in Bezug auf die Bodenoberfläche FL als Anbringungsausrichtung des ToF-Sensors 20 erkannt werden, jedoch ist diese Erfindung nicht darauf beschränkt.
  • Beispielsweise kann die Auslegung so gestaltet sein, dass einige andere Anbringungsausrichtungen wie Verdrallung anstelle des oben genannten Anbringungswinkels erkannt werden usw.
  • (D)
  • In der obigen Ausführungsform wurde ein Beispiel beschrieben, in dem der Anbringungswinkel, die Anbringungshöhe usw. des ToF-Sensors 20 erkannt werden, indem Informationen über die Entfernung vom ToF-Sensor 20 zu zwei Punkten auf der Bodenoberfläche FL genutzt wurden, jedoch ist diese Erfindung nicht darauf beschränkt.
  • Beispielsweise kann die Auslegung so gestaltet sein, dass der Anbringungswinkel, die Anbringungshöhe und dergleichen erkannt werden, indem die Entfernung zu drei oder mehr Punkten auf der Bodenoberfläche oder auf einer sonstigen derartigen Referenzoberfläche herangezogen werden.
  • (E)
  • In der obigen Ausführungsform wurde ein Beispiel beschrieben, in dem die Bodenoberfläche FL als Referenzoberfläche für das automatische Erkennen der Anbringungsausrichtung des ToF-Sensors 20 herangezogen wird, jedoch ist diese Erfindung nicht darauf beschränkt.
  • Beispielsweise kann eine Wandoberfläche, eine Deckenoberfläche oder eine sonstige Oberfläche anstatt einer Bodenoberfläche als Referenzoberfläche herangezogen werden.
  • (F)
  • In der obigen Ausführungsform wurde ein Beispiel beschrieben, in dem die Anbringungsausrichtung des ToF-Sensors 20 unter Nutzung der Position, an der das Dock 40 installiert ist, als spezifische Erkennungsposition erkannt wird, jedoch ist diese Erfindung nicht darauf beschränkt.
  • Wenn die Bodenoberfläche oder eine sonstige derartige Referenzoberfläche keine Neigung usw. aufweist, muss die Anbringungsausrichtung an einer spezifischen Position nicht erkannt werden, und die Anbringungsausrichtung kann an der gewünschten Position und zur gewünschten Zeit erkannt werden.
  • (G)
  • In der obigen Ausführungsform wurde ein Beispiel beschrieben, in dem der ToF-Sensor 20 als Entfernungsmessvorrichtung herangezogen wird, jedoch ist diese Erfindung nicht darauf beschränkt.
  • Anstatt eines ToF-Sensors können zum Beispiel andere Entfernungsmessvorrichtungen, die Informationen über die Entfernung zu einem Referenzpunkt erfassen können und Informationen über den Winkel zum Referenzpunkt besitzen, wie LiDAR (Light Detection and Ranging) oder eine strukturelle Kamera genutzt werden.
  • INDUSTRIELLE ANWENDUNG
  • Die Entfernungsmessvorrichtung nach dieser Erfindung weist die Wirkung auf, dass sie die Erkennung der Anbringungsausrichtung einer Entfernungsmessvorrichtung, die an beliebigen verschiedenen Vorrichtungen angebracht ist, erlaubt, ohne dass eine Vorrichtung für die Ausrichtungserkennung wie ein Neigungssensor oder ein Nivellierinstrument genutzt werden muss, weswegen sie umfassend für verschiedene Entfernungsmessvorrichtungen angewandt werden kann, die Entfernungsinformationen und Winkelinformationen erfassen.
  • Bezugszeichenliste
  • 10
    Vorrichtung zur Erkennung der Anbringungsausrichtung
    11
    Entfernungsinformationenerfassungseinheit
    12
    Winkelinformationenerfassungseinheit
    13
    Entfernungsbilderfassungseinheit
    14
    Anbringungsausrichtungserkennungseinheit
    14a
    Anbringungswinkelerkennungseinheit
    14b
    Anbringungshöhenerkennungseinheit
    14c
    Rotationserkennungseinheit
    15
    Korrekturverfügbarkeitsfeststellungseinheit
    16
    Speichereinheit
    17
    Meldeeinheit
    20
    ToF-Sensor (Entfernungsmessvorrichtung)
    21
    Aussendeeinheit
    22
    Lichtempfängerlinse
    23
    Bildgebungselement (Erkennungseinheit)
    24
    Regelungseinheit
    24a
    Entfernungsinformationenberechnungseinheit
    24b
    Winkelinformationenerfassungseinheit
    24c
    Entfernungsbildgenerierungseinheit
    24d
    Entfernungskorrekturverarbeitungseinheit
    25
    Speichereinheit
    30
    Beförderungsvorrichtung (spezifischer Gegenstand)
    31
    Hauptkörpereinheit
    32
    Antriebseinheit
    32a
    Rad
    33
    Gabeln
    34
    Antriebssteuereinheit
    35
    Ladestation
    36
    Sekundärbatterie
    40
    Dock (spezifische Erkennungsposition)
    41
    Verbindungsabschnitt
    42
    Stromversorgungseinheit
    50
    Beförderungssystem (Entfernungsmesssystem)
    110
    Vorrichtung zur Erkennung der Anbringungsausrichtung
    120
    ToF-Sensor (Entfernungsmessvorrichtung)
    AX
    optische Achse
    C
    Kreis
    d, d1, d2
    Entfernung
    da
    Höhe (Entfernung)
    FL
    Bodenoberfläche (Referenzoberfläche)
    L1
    Licht
    L2
    Liniensegment
    P0
    Bildmitte (Pixel)
    P1, P2
    Referenzpunkt
    P3, P4
    Pixel
    S1
    Objekt
    θ1, θ2
    Winkelinformationen
    θan
    Anbringungswinkel
    θb
    Rotationswinkel
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2021178106 [0001]
    • JP 2006276023 A [0005]

Claims (16)

  1. Entfernungsmessvorrichtung, die eine Entfernung zu einem Objekt nach einer Phasendifferenz zwischen einer ausgesendeten Lichtwelle, die am Objekt ausgesendet wird, und einer empfangenen Lichtwelle misst, wobei die Entfernungsmessvorrichtung Folgendes umfasst: eine Aussendeeinheit, die ausgelegt ist, um ein Licht zu einer spezifischen Referenzoberfläche auszustrahlen; eine Erkennungseinheit, die das von der Aussendeeinheit ausgestrahlte Licht erkennt; eine Entfernungsinformationenerfassungseinheit, die ausgelegt ist, um Entfernungsinformationen über die Entfernung zu einem Referenzpunkt auf der Referenzoberfläche nach der Phasendifferenz zwischen der ausgesendeten Lichtwelle und der von der Erkennungseinheit erkannten empfangenen Lichtwelle zu erfassen; eine Winkelinformationenerfassungseinheit, die ausgelegt ist, um Winkelinformationen über den Winkel zum Referenzpunkt zu erfassen, und eine Anbringungsausrichtungserkennungseinheit, die ausgelegt ist, um eine Anbringungsausrichtung in Bezug auf die Referenzoberfläche auf der Grundlage der Entfernungsinformationen und der Winkelinformationen, die von der Entfernungsinformationenerfassungseinheit und der Winkelinformationenerfassungseinheit erfasst wurden, zu erkennen.
  2. Entfernungsmessvorrichtung nach Anspruch 1, wobei die Anbringungsausrichtungserkennungseinheit mindestens entweder einen Neigungswinkel in Bezug auf die Referenzoberfläche und/oder die Entfernung von der Referenzoberfläche und/oder einen Rotationswinkel in Bezug auf die Referenzoberfläche als Anbringungsausrichtung erkennt.
  3. Entfernungsmessvorrichtung nach Anspruch 1 oder 2, wobei die Anbringungsausrichtungserkennungseinheit die Anbringungsausrichtung erkennt, indem Informationen über den Winkel und die Entfernung zu zwei Referenzpunkten auf der Referenzoberfläche genutzt werden.
  4. Entfernungsmessvorrichtung nach einem der Ansprüche 1 bis 3, zudem umfassend eine Entfernungsbildgenerierungseinheit, die ausgelegt ist, um ein Entfernungsbild einschließend die Referenzoberfläche auf der Grundlage von Erfassungsergebnissen der Entfernungsinformationenerfassungseinheit und der Winkelinformationenerfassungseinheit zu generieren.
  5. Entfernungsmessvorrichtung nach Anspruch 4, wobei die Anbringungsausrichtungserkennungseinheit die Anbringungsausrichtung der Entfernungsmessvorrichtung erkennt, indem eine erste Entfernung zu einem ersten Referenzpunkt auf der Referenzoberfläche an einem ersten Pixel, das im Entfernungsbild eingeschlossen ist, das von der Entfernungsbildgenerierungseinheit erfasst wurde, und ein erster Winkel in Bezug auf die Referenzoberfläche sowie eine zweite Entfernung zu einem zweiten Referenzpunkt auf der Referenzoberfläche an einem zweiten Pixel, das vom ersten Pixel verschieden ist, und ein zweiter Winkel in Bezug auf die Referenzoberfläche herangezogen werden.
  6. Entfernungsmessvorrichtung nach Anspruch 4 oder 5, wobei die Anbringungsausrichtungserkennungseinheit die Drehung in Bezug auf die Referenzoberfläche als die Anbringungsausrichtung der Entfernungsmessvorrichtung erkennt, indem ein erster Winkel in Bezug auf eine Abstrahlachse des von der Aussendeeinheit ausgestrahlten Lichts an einem ersten Pixel, das im Entfernungsbild eingeschlossen ist, das von der Entfernungsbildgenerierungseinheit erfasst wurde, und ein zweiter Winkel in Bezug auf die Abstrahlachse des von der Aussendeeinheit ausgestrahlten Lichts an einem zweiten Pixel, das vom ersten Pixel verschieden ist, herangezogen werden.
  7. Entfernungsmessvorrichtung nach einem der Ansprüche 4 bis 6, wobei die Anbringungsausrichtungserkennungseinheit eine Drehung der Anbringungsausrichtung der Entfernungsmessvorrichtung auf der Grundlage dessen erkennt, ob sich die Positionen von Pixeln in derselben Entfernung zur Referenzoberfläche im von der Entfernungsbildgenerierungseinheit erfassten Entfernungsbild von einer spezifischen Referenzposition bewegen oder nicht.
  8. Entfernungsmessvorrichtung nach einem der Ansprüche 4 bis 7, wobei die Anbringungsausrichtungserkennungseinheit einen Rotationswinkel der Anbringungsausrichtung der Entfernungsmessvorrichtung auf der Grundlage dessen erkennt, um wie viele Grad sich Positionen von Pixeln in derselben Entfernung zur Referenzoberfläche im von der Entfernungsbildgenerierungseinheit erfassten Entfernungsbild von einer spezifischen Referenzposition gedreht haben.
  9. Entfernungsmessvorrichtung nach einem der Ansprüche 1 bis 8, zudem umfassend eine Korrekturmöglichkeitsfeststellungseinheit, die ausgelegt ist, um festzustellen, ob ein Erfassungsergebnis in der Entfernungsinformationenerfassungseinheit auf der Grundlage eines Erkennungsergebnisses in der Anbringungsausrichtungserkennungseinheit korrigiert werden muss oder nicht.
  10. Entfernungsmessvorrichtung nach einem der Ansprüche 1 bis 9, wobei die Entfernungsinformationenerfassungseinheit die Entfernungsinformationen und die Winkelinformationen in Bezug auf den an einer spezifischen Erkennungsposition erfassten Referenzpunkt erfasst.
  11. Entfernungsmessvorrichtung nach Anspruch 10, wobei die Anbringungsausrichtungserkennungseinheit die Anbringungsausrichtung erkennt, indem die an der spezifischen Erkennungsposition erfassten Entfernungsinformationen und Winkelinformationen in Bezug auf die Referenzoberfläche herangezogen werden.
  12. Entfernungsmessvorrichtung nach einem der Ansprüche 1 bis 11, zudem umfassend eine Speichereinheit, die ausgelegt ist, um Informationen hinsichtlich der von der Anbringungsausrichtungserkennungseinheit erkannten Anbringungsausrichtung zu speichern.
  13. Entfernungsmessvorrichtung nach einem der Ansprüche 1 bis 12, wobei die Referenzoberfläche eine Bodenoberfläche ist.
  14. Entfernungsmessvorrichtung nach einem der Ansprüche 1 bis 13, wobei die Entfernungsmessvorrichtung entweder ein ToF-Sensor (Time of Flight, Laufzeitverfahren), LiDAR (Light Detection and Ranging) oder eine strukturelle Kamera ist.
  15. Verfahren zur Erkennung einer Anbringungsausrichtung einer Entfernungsmessvorrichtung, das eine Entfernung zu einem Objekt nach einer Phasendifferenz zwischen einer ausgesendeten Lichtwelle, die zum Objekt ausgesendet wird, und einer empfangenen Lichtwelle misst, wobei das Verfahren Folgendes umfasst: einen Bestrahlungsschritt zum Bestrahlen einer spezifischen Referenzoberfläche mit einem Licht in der Entfernungsmessvorrichtung; einen Erkennungsschritt zum Erkennen des im Bestrahlungsschritt ausgestrahlten Lichts in der Entfernungsmessvorrichtung; einen Entfernungs- und Winkelinformationenerfassungsschritt zum Erfassen von Entfernungsinformationen und Winkelinformationen zu einem Referenzpunkt auf der Referenzoberfläche nach der Phasendifferenz zwischen der ausgesendeten Lichtwelle und der im Erkennungsschritt erkannten empfangenen Lichtwelle und einen Anbringungsausrichtungserkennungsschritt zum Erkennen der Anbringungsausrichtung der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche auf der Grundlage der Entfernungsinformationen und der Winkelinformationen, die im Entfernungs- und Winkelinformationenerfassungsschritt erfasst wurden, in der Entfernungsmessvorrichtung.
  16. Programm zur Erkennung einer Anbringungsausrichtung einer Entfernungsmessvorrichtung, das eine Entfernung zu einem Objekt nach einer Phasendifferenz zwischen einer ausgesendeten Lichtwelle misst, die zum Objekt ausgesendet wird, und einer empfangenen Lichtwelle, wobei das Programm einen Computer veranlasst, ein Verfahren zur Erkennung der Anbringungsausrichtung für eine Entfernungsmessvorrichtung auszuführen, wobei das Verfahren Folgendes umfasst: einen Bestrahlungsschritt zum Bestrahlen einer spezifischen Referenzoberfläche mit einem Licht in der Entfernungsmessvorrichtung, einen Erkennungsschritt zum Erkennen des im Bestrahlungsschritt ausgestrahlten Lichts in der Entfernungsmessvorrichtung; einen Entfernungs- und Winkelinformationenerfassungsschritt zum Erfassen von Entfernungsinformationen und Winkelinformationen zu einem Referenzpunkt auf der Referenzoberfläche nach der Phasendifferenz zwischen der ausgesendeten Lichtwelle und der im Erkennungsschritt erkannten empfangenen Lichtwelle und einen Anbringungsausrichtungserkennungsschritt zum Erkennen der Anbringungsausrichtung der Entfernungsmessvorrichtung in Bezug auf die Referenzoberfläche auf der Grundlage der Entfernungsinformationen und der Winkelinformationen, die im Entfernungs- und Winkelinformationenerfassungsschritt erfasst wurden, in der Entfernungsmessvorrichtung.
DE102022125367.8A 2021-10-29 2022-09-30 Entfernungsmessvorrichtung, montageausrichtungserkennungsverfahren und montageausrichtungserkennungsprogramm dafür Pending DE102022125367A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-178106 2021-10-29
JP2021178106A JP2023067114A (ja) 2021-10-29 2021-10-29 距離測定装置およびその取付姿勢検出方法、取付姿勢検出プログラム

Publications (1)

Publication Number Publication Date
DE102022125367A1 true DE102022125367A1 (de) 2023-05-04

Family

ID=85983663

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022125367.8A Pending DE102022125367A1 (de) 2021-10-29 2022-09-30 Entfernungsmessvorrichtung, montageausrichtungserkennungsverfahren und montageausrichtungserkennungsprogramm dafür

Country Status (4)

Country Link
US (1) US20230135740A1 (de)
JP (1) JP2023067114A (de)
CN (1) CN116068505A (de)
DE (1) DE102022125367A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2610414B (en) * 2021-09-03 2024-08-14 Integrated Design Ltd Anti-climb system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276023A (ja) 2006-04-05 2006-10-12 Omron Corp 対象物検出装置および方法
JP2021178106A (ja) 2020-05-15 2021-11-18 ダイコク電機株式会社 遊技場用システム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006276023A (ja) 2006-04-05 2006-10-12 Omron Corp 対象物検出装置および方法
JP2021178106A (ja) 2020-05-15 2021-11-18 ダイコク電機株式会社 遊技場用システム

Also Published As

Publication number Publication date
JP2023067114A (ja) 2023-05-16
CN116068505A (zh) 2023-05-05
US20230135740A1 (en) 2023-05-04

Similar Documents

Publication Publication Date Title
EP3260357B1 (de) Fahrzeug mit rangiersystem
DE3787003T2 (de) Lenkvorrichtung für sich unbemannt bewegende körper.
EP1859298B1 (de) Verfahren und system zur bestimmung von position und orientierung eines objekts
DE10145150B4 (de) Verfahren zur Einstellung eines Kurses eines mobilen Roboters
DE102007021762B4 (de) Straßenumgebungs-Erkennungsvorrichtung und Verfahren zum Erkennen einer Straßenumgebung
EP3045998B1 (de) Markierwagen und -verfahren
DE69605458T2 (de) Ausserhalb-der-Spur-Alarmeinrichtung
DE112020004984T5 (de) Kalibrierung von LiDAR-Sensoren
DE102018133693B3 (de) Verfahren zur Kalibrierung der Ausrichtung eines sich bewegenden Objektsensors
DE19748239A1 (de) Verfahren und Vorrichtung zur berührungslosen Bestimmung von Sturz und Vorlauf eines Fahrzeugrads
EP2534443B1 (de) System zur bodenvermessung
EP1914564A1 (de) Optische Erfassungseinrichtung
EP2764812A1 (de) Reinigungsroboter
EP2192384B1 (de) Fahrerloses Transportsystem
DE102022125367A1 (de) Entfernungsmessvorrichtung, montageausrichtungserkennungsverfahren und montageausrichtungserkennungsprogramm dafür
DE102017209695A1 (de) Verfahren zum Steuern einer Arbeitsbühne, Steuergerät und Neigungswinkelmesssystem für eine Arbeitsbühne
DE102016115636A1 (de) Bewegliche Vorrichtungen
DE102022103099A1 (de) Hinderniserfassungsvorrichtung, -verfahren und -programm
EP3482622A1 (de) Verfahren zur automatischen führung eines fahrzeugs entlang eines virtuellen schienensystems
DE10026711B4 (de) Positionsüberwachungsvorrichtung und -verfahren
DE102022125388A1 (de) Vorrichtung zur erkennung der anbringungsausrichtung, verfahren zur erkennung der anbringungsausrichtung und programm zur erkennung der anbringungsausrichtung
EP2749982B1 (de) Bezugsmodellerzeugung und Aktualisierung
DE102022125207A1 (de) Entfernungsmesssystem
DE102022107223A1 (de) Bodenoberflächenzustandsdetektionsvorrichtung, entfernungsmessvorrichtung, mit dieser ausgestattet, bodenoberflächenzustandsdetektionsverfahren und bodenoberflächenzustandsdetektionsprogramm
EP3874296A1 (de) SENSORSYSTEM FÜR EINEN STRAßENFERTIGER

Legal Events

Date Code Title Description
R012 Request for examination validly filed