DE112019003952T5 - Entfernungsmesser, entfernungsmesssystem, entfernungsmessverfahren und programm - Google Patents

Entfernungsmesser, entfernungsmesssystem, entfernungsmessverfahren und programm Download PDF

Info

Publication number
DE112019003952T5
DE112019003952T5 DE112019003952.0T DE112019003952T DE112019003952T5 DE 112019003952 T5 DE112019003952 T5 DE 112019003952T5 DE 112019003952 T DE112019003952 T DE 112019003952T DE 112019003952 T5 DE112019003952 T5 DE 112019003952T5
Authority
DE
Germany
Prior art keywords
light source
distance
light
clock
source unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019003952.0T
Other languages
English (en)
Inventor
Kensei JO
Tomoya Takeda
Nana Matsumoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Semiconductor Solutions Corp
Original Assignee
Sony Semiconductor Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Semiconductor Solutions Corp filed Critical Sony Semiconductor Solutions Corp
Publication of DE112019003952T5 publication Critical patent/DE112019003952T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • G01S7/4815Constructional features, e.g. arrangements of optical elements of transmitters alone using multiple transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

Verwirklicht werden soll eine Konfiguration, um eine Lichtquelleneinheit mit einer Vielzahl von Lichtquellen und einen Entfernungsmesser (Kamera) mittels individueller Takte zu steuern, um eine Einrichtung der Lichtquellen an beliebigen Positionen zu ermöglichen. Das Ausgangslicht einer Vielzahl von Lichtquellen der Lichtquelleneinheit wird von einer Oberfläche eines Objekts reflektiert, und ein ToF-Sensor fängt das reflektierte Licht auf, um den Abstand zum Objekt zu berechnen. Ein Sensortakt, der die Zeitsteuerung einer Bildaufnahme des ToF-Sensors steuert, ist der für den Entfernungsmesser spezifische Takt, der von einem Takt der Lichtquelleneinheit verschieden ist, der die Zeitsteuerung einer Lichtemission der Lichtquellen der Lichtquelleneinheit steuert. Der Entfernungsmesser erzeugt eine Formel zur Differenzberechnung aus einer Vielzahl von Formeln zur Abstandsberechnung, die verwendet werden, um den Abstand von jeder Lichtquelle zum Entfernungsmesser zu berechnen, um den Abstand zum Objekt unter Verwendung der erzeugten Formel zur Differenzberechnung zu berechnen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung bezieht sich auf Entfernungsmesser, Entfernungsmesssysteme, Entfernungsmessverfahren und Programme. Insbesondere bezieht sich die vorliegende Offenbarung auf einen Entfernungsmesser, der den Abstand zu einem Objekt unter Verwendung einer Laufzeit- (ToF-, time of flight) Technik misst, und ein Entfernungsmesssystem, ein Entfernungsmessverfahren und ein Programm zu deren Implementierung.
  • HINTERGRUNDTECHNIK
  • Die Laufzeit- (ToF-) Technik ist als Technik zum Messen des Abstands zu einem Objekt oder der dreidimensionalen Form des Objekts bekannt.
  • Die ToF-Technik ist die Technik, bei der ein Objekt mit Licht bestrahlt und das reflektierte Licht analysiert wird, um den Abstand zu dem Objekt oder die Form des Objekts zu analysieren.
  • Ein die ToF-Technik nutzender Entfernungsmesser verwendet eine sogenannte ToF-Kamera, in der eine lichtemittierende Einheit (eine Lichtquelle) und eine lichtempfangende Einheit (Kamera) integriert sind. Der Entfernungsmesser hat eine Konfiguration, bei der ein zu messendes Objekt (Zielobjekt einer Entfernungsmessung) mit Ausgangslicht von der Lichtquelle bestrahlt und das reflektierte Licht mit einer Kamera empfangen wird.
  • In dieser Konfiguration folgt das von der mit der Kamera integrierten Lichtquelle abgegebene Licht einem Hin- und Rückweg, auf dem das Licht das Objekt erreicht, von der Oberfläche des Objekts reflektiert wird und zur Kameraseite zurückkehrt. Wenn der Abstand von der Kamera zum Objekt d ist, ist der optische Weg 2d, der das Doppelte des Abstands d ist. Somit reduziert der längere optische Weg die Intensität des in die Kamera eingespeisten Lichts, was ein Problem mit einer geringeren Genauigkeit der Entfernungsmessung verursacht. Insbesondere ist beim Messen des Abstands zu einem von der Kamera entfernten Objekt die Abnahme der Messgenauigkeit beachtlich.
  • Patentdokument 1 (offengelegte japanische Patentanmeldung Nr. 2018-31607 ), die eine frühere Patentanmeldung des gleichen Anmelders ist, offenbart eine Vorrichtung, in der das Ausgangslicht der Lichtquelle, die unabhängig von der Kamera konfiguriert und von ihr entfernt gelegen ist, direkt von der Kamera empfangen wird, um den Abstand von der Kamera zur Lichtquelle zu messen.
  • Diese Konfiguration ermöglicht in dem Fall, in dem der Abstand der Lichtquelle und der Kamera d ist, dass das Ausgangslicht der Lichtquelle auch über nur den Weg des Abstands d in die Kamera eintritt, was ermöglicht, die Abnahme der Messgenauigkeit aufgrund der oben beschriebenen Reduzierung der Lichtintensität zu verhindern.
  • Die im Patentdokument 1 offenbarte Konfiguration basiert jedoch auf der Annahme, dass die Kamera die Lichtquelle direkt beobachtet. Folglich kann sie nicht verwendet werden, es sei denn, der Dynamikbereich des Sensors ist groß. Beispielsweise erfordert eine direkte Beobachtung der Lichtquelle eine kurze Belichtungszeit, um eine Sättigung zu vermeiden, was aber ein Problem einer Verdunkelung der Umgebungsgegenstände verursacht. Daher lehrt sie keine Lösung für das Problem, das durch die Taktabweichung zwischen der Lichtquelle und der Kamera verursacht wird.
  • ZITATLISTE
  • PATENTDOKUMENT
  • Patentdokument 1: Offengelegte japanische Patentanmeldung Nr. 2018-31607
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • DURCH DIE ERFINDUNG ZU LÖSENDE PROBLEME
  • Die vorliegende Offenbarung wurde im Hinblick auf beispielsweise die oben beschriebenen Probleme gemacht. Sie ist darauf gerichtet, einen Entfernungsmesser, ein Entfernungsmesssystem, ein Entfernungsmessverfahren und ein Programm bereitzustellen, die imstande sind, eine Abnahme der Messgenauigkeit aufgrund einer reduzierten Lichtintensität selbst für gewöhnliche Objekte, die keine Lichtquelle sind, zu verhindern.
  • Darüber hinaus platziert eine Ausführungsform der vorliegenden Offenbarung eine lichtemittierende Einheit (Lichtquelle) und eine lichtempfangende Einheit (Kamera) an getrennten Positionen, was ermöglicht, dass die lichtemittierende Einheit (Lichtquelle) und die lichtempfangende Einheit (Kamera) mit individuellen Takten gesteuert werden. Dementsprechend stellt sie einen Entfernungsmesser, ein Entfernungsmesssystem, ein Entfernungsmessverfahren und ein Programm bereit, die eine Messung eines Abstands zu einem Objekt und einer dreidimensionalen Form des Objekts unter Verwendung der ToF-Technik ermöglichen, indem veranlasst wird, dass das reflektierte Licht des von der lichtemittierenden Einheit (Lichtquelle) emittierten Lichts auf das Objekt zur lichtempfangenden Einheit (Kamera) gerichtet wird.
  • LÖSUNGEN FÜR DIE PROBLEME
  • Gemäß einem ersten Aspekt der vorliegenden Offenbarung wird ein Entfernungsmesser bereitgestellt, der umfasst:
    • einen Laufzeit- (ToF-) Sensor, der dafür konfiguriert ist, von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder einer Vielzahl von Lichtquellen, die in einer Lichtquelleneinheit enthalten sind, ausgegeben wird; und
    • eine Einheit zur Abstandsberechnung, die dafür konfiguriert ist, eine Ausgabe des ToF-Sensors zu analysieren, um einen Abstand zum Objekt zu berechnen,
    • worin der ToF-Sensor eine durch einen Sensortakt gesteuerte Zeitsteuerung einer Bildaufnahme aufweist und die Lichtquelleneinheit eine durch einen Takt der Lichtquelleneinheit gesteuerte Zeitsteuerung einer Lichtemission der Lichtquelle aufweist, wobei der Sensortakt ein für den Entfernungsmesser spezifischer Takt ist, der vom Takt der Lichtquelleneinheit verschieden ist.
  • Gemäß einem zweiten Aspekt der vorliegenden Offenbarung wird ferner ein Entfernungsmesssystem bereitgestellt, das umfasst:
    • eine Lichtquelleneinheit, die eine Vielzahl von Lichtquellen aufweist; und
    • einen Entfernungsmesser, der dafür konfiguriert ist, von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder Lichtquelle der Lichtquelleneinheit ausgegeben wird,
    • worin der Entfernungsmesser
    • einen Laufzeit- (ToF-) Sensor, der dafür konfiguriert ist, das reflektierte Licht vom Objekt zu empfangen, und
    • eine Einheit zur Abstandsberechnung enthält, die dafür konfiguriert ist, eine Ausgabe des ToF-Sensors zu analysieren, um einen Abstand zum Objekt zu berechnen,
    • worin die Lichtquelleneinheit eine Zeitsteuerung der Lichtemission der Lichtquelle aufweist, die durch einen Takt der Lichtquelleneinheit gesteuert wird, und der ToF-Sensor des Entfernungsmessers eine Zeitsteuerung einer Bildaufnahme aufweist, die durch einen Sensortakt gesteuert wird, wobei der Takt der Lichtquelleneinheit und der Sensortakt verschiedene unabhängige Takte sind.
  • Gemäß einem dritten Aspekt der vorliegenden Offenbarung wird ferner ein Entfernungsmessverfahren bereitgestellt, das in einem Entfernungsmesser ausgeführt wird, wobei das Verfahren umfasst:
    • einen Schritt, um durch den Laufzeit- (ToF-) Sensor von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder einer Vielzahl von Lichtquellen ausgegeben wird, die in einer Lichtquelleneinheit enthalten sind; und
    • einen Schritt zur Abstandsberechnung, um mittels der Einheit zur Abstandsberechnung einen Abstand zu dem Objekt zu berechnen, indem eine Ausgabe des ToF-Sensors analysiert wird,
    • worin der Schritt zur Abstandsberechnung
    • ein Schritt ist, um den Abstand zum Objekt zu berechnen, indem als eine Vielzahl von Formeln zur Abstandsberechnung, um einen Abstand von der Vielzahl von Lichtquellen der Lichtquelleneinheit zum Entfernungsmesser zu berechnen,
    • die Vielzahl von Formeln zur Abstandsberechnung erzeugt wird, die von Datenelementen (a) bis (c) wie folgt gebildet werden:
      1. (a) Daten bezüglich eines Abstands zwischen dem Entfernungsmesser und dem Objekt,
      2. (b) Daten bezüglich eines Abstands zwischen dem Objekt und jeder Lichtquelle der Lichtquelleneinheit und
      3. (c) einem Versatz bzw. Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen einem Sensortakt und einem Lichtquellentakt auftritt, und
    • ferner indem eine Formel zur Differenzberechnung erzeugt wird, um eine Differenz der jeweiligen Formeln zur Abstandsberechnung zu berechnen, und indem die erzeugte Formel zur Differenzberechnung verwendet wird.
  • Gemäß einem vierten Aspekt der vorliegenden Offenbarung wird ferner ein Entfernungsmessverfahren bereitgestellt, das in einem Entfernungsmesssystem ausgeführt wird, das eine Lichtquelleneinheit mit einer Vielzahl von Lichtquellen und einen Entfernungsmesser enthält, der dafür konfiguriert ist, Licht zu empfangen, das von jeder Lichtquelle der Lichtquelleneinheit ausgegeben wird und von einer Oberfläche eines Objekts reflektiert wird, wobei das Verfahren umfasst:
    • einen Schritt, um durch die Lichtquelleneinheit Licht von jeder Lichtquelle der Lichtquelleneinheit zu einem Lichtemissionszeitpunkt zu emittieren, der durch einen Takt der Lichtquelleneinheit definiert ist;
    • einen Schritt, um durch einen ToF-Sensor des Entfernungsmessers eine Bildaufnahme zu einem Bildaufnahmezeitpunkt auszuführen, der durch einen Sensortakt definiert ist, der vom Takt der Lichtquelleneinheit verschieden ist; und
    • einen Schritt, um durch eine Einheit zur Abstandsberechnung des Entfernungsmessers einen Abstand zum Objekt zu berechnen, indem eine Ausgabe des ToF-Sensors analysiert wird.
  • Gemäß einem fünften Aspekt der vorliegenden Offenbarung wird ferner ein Programm bereitgestellt, das einen Entfernungsmesser veranlasst, eine Verarbeitung zur Entfernungsmessung auszuführen, welche umfasst:
    • einen Schritt, um einen Laufzeit- (ToF-) Sensor zu veranlassen, von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder einer Vielzahl von Lichtquellen ausgegeben wird, die in einer Lichtquelleneinheit enthalten sind; und
    • einen Schritt zur Abstandsberechnung, um eine Einheit zur Abstandsberechnung zu veranlassen, einen Abstand zum Objekt zu berechnen, indem eine Ausgabe des ToF-Sensors analysiert wird,
    • worin der Schritt zur Abstandsberechnung eine Verarbeitung durchführt, um als eine Vielzahl von Formeln zur Abstandsberechnung, um einen Abstand von der Vielzahl von Lichtquellen der Lichtquelleneinheit zum Entfernungsmesser zu berechnen, die Vielzahl von Formeln zur Abstandsberechnung zu erzeugen, die von Datenelementen (a) bis (c) wie folgt gebildet werden:
      1. (a) Daten bezüglich eines Abstands zwischen dem Entfernungsmesser und dem Objekt,
      2. (b) Daten bezüglich eines Abstands zwischen dem Objekt und jeder Lichtquelle der Lichtquelleneinheit und
      3. (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen einem Sensortakt und einem Lichtquellentakt auftritt, und
      ferner eine Verarbeitung, um eine Formel zur Differenzberechnung zu erzeugen, um eine Differenz der jeweiligen Formeln zur Abstandsberechnung zu berechnen, und eine Verarbeitung, um den Abstand zum Objekt unter Verwendung der erzeugten Formel zur Differenzberechnung zu berechnen.
  • Man beachte, dass das Programm der vorliegenden Offenbarung beispielsweise ein Programm ist, das als Speichermedium oder Kommunikationsmedium zugänglich ist, das in einer nicht-transitorischen, computerlesbaren Form für eine Bildverarbeitungseinrichtung oder ein Computersystem bereitgestellt wird, die oder das verschiedene Programmcodes ausführen kann. Solch ein in der nicht-transitorischen, computerlesbaren Form bereitgestelltes Programm ermöglicht, dass die Verarbeitung gemäß dem Programm auf der Informationsverarbeitungseinrichtung oder dem Computersystem implementiert wird.
  • Noch andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden aus einer detaillierten Beschreibung basierend auf Ausführungsformen der vorliegenden Offenbarung, wie sie später beschrieben werden, und beiliegenden Zeichnungen ersichtlich werden. Man beachte, dass sich der Begriff „System“ hierin auf einen Satz logischer Komponenten einer Vielzahl von Einrichtungen bezieht und nicht auf ein System beschränkt ist, in welchem Einrichtungen der jeweiligen Komponenten im gleichen Gehäuse vorgesehen sind.
  • EFFEKTE DER ERFINDUNG
  • Eine Ausführungsform der vorliegenden Offenbarung verwirklicht eine Konfiguration, um eine Lichtquelleneinheit, die eine Vielzahl von Lichtquellen aufweist, und einen Entfernungsmesser (Kamera) mittels individueller Takte zu steuern, um eine Einrichtung der Lichtquellen an optionalen Positionen zu ermöglichen.
  • Konkret wird beispielsweise das Ausgangslicht einer Vielzahl von Lichtquellen der Lichtquelleneinheit von einer Oberfläche eines Objekts reflektiert, und ein ToF-Sensor fängt das reflektierte Licht auf, um den Abstand zum Objekt zu berechnen. Ein Sensortakt, der den Zeitpunkt bzw. die Zeitsteuerung einer Bildaufnahme des ToF-Sensors steuert, ist der für den Entfernungsmesser spezifische Takt, der von einem Takt der Lichtquelleneinheit verschieden ist, der den Zeitpunkt bzw. die Zeitsteuerung einer Lichtemission der Lichtquellen der Lichtquelleneinheit steuert. Der Entfernungsmesser erzeugt eine Formel zur Differenzberechnung aus einer Vielzahl von Formeln zur Abstandsberechnung, die verwendet werden, um den Abstand von jeder Lichtquelle zum Entfernungsmesser zu berechnen, um den Abstand zum Objekt unter Verwendung der erzeugten Formel zur Differenzberechnung zu berechnen.
  • Die vorliegende Konfiguration verwirklicht eine Konfiguration, um die Lichtquelleneinheit, die eine Vielzahl von Lichtquellen aufweist, und einen Entfernungsmesser (Kamera) mittels individueller Takte zu steuern, um eine Einrichtung der Lichtquellen an optionalen Positionen zu ermöglichen.
  • Man beachte, dass die in der vorliegenden Beschreibung beschriebenen Effekte nur Beispiele sind und nicht beschränkt sind und es viele zusätzliche Effekte geben kann.
  • Figurenliste
    • 1 ist ein Diagramm, das veranschaulicht ist, um einen Überblick über eine Verarbeitung zur Entfernungsmessung unter Verwendung der ToF-Technik zu beschreiben.
    • 2 ist ein Diagramm, das veranschaulicht ist, um einen Überblick über eine Verarbeitung zur Entfernungsmessung unter Verwendung der ToF-Technik zu beschreiben.
    • 3 ist ein Diagramm, das veranschaulicht ist, um einen Überblick über die Verarbeitung zur Entfernungsmessung unter Verwendung der ToF-Technik zu beschreiben.
    • 4 ist ein Diagramm, das veranschaulicht ist, um einen Überblick über eine Verarbeitung zur Entfernungsmessung unter Verwendung der ToF-Technik zu beschreiben.
    • 5 ist ein Diagramm, das veranschaulicht ist, um einen Überblick über die Verarbeitung, die von einem Entfernungsmesser der vorliegenden Offenbarung ausgeführt wird, zu beschreiben.
    • 6 ist ein Diagramm, das veranschaulicht ist, um eine Verarbeitung zur Phasen-Synchronisierung zu beschreiben.
    • 7 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte Konfiguration eines Entfernungsmesssystems der vorliegenden Offenbarung zu beschreiben.
    • 8 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte spezifische Konfiguration einer Lichtquelleneinheit zu beschreiben.
    • 9 ist ein Diagramm, das ein Beispiel der Steuerung der Lichtquellenansteuerung jeder Lichtquelle veranschaulicht, die dafür eingerichtet ist, in Zeitteilung bzw. im Zeitmultiplex angesteuert zu werden.
    • 10 ist ein Diagramm, das veranschaulicht ist, um eine spezifische Konfiguration eines Entfernungsmessers (Kamera) zu beschreiben.
    • 11 ist ein Diagramm, das ein Flussdiagramm veranschaulicht, um die gesamte Sequenz der Entfernungsmessung unter Verwendung eines Entfernungsmesssystems der vorliegenden Offenbarung zu beschreiben.
    • 12 ist ein Diagramm, das ein Flussdiagramm veranschaulicht, um die gesamte Sequenz der Entfernungsmessung unter Verwendung des Entfernungsmesssystems der vorliegenden Offenbarung zu beschreiben.
    • 13 ist ein Diagramm, das veranschaulicht ist, um Details einer Verarbeitung zur Frame-Synchronisierung zu beschreiben.
    • 14 ist ein Diagramm, das veranschaulicht ist, um die Verarbeitung zum Abschätzen einer Taktfrequenz zu beschreiben.
    • 15 ist ein Diagramm, das ein Flussdiagramm veranschaulicht, um die Sequenz einer Verarbeitung zur Frequenz-Synchronisierung in einem Entfernungsmesser (Kamera) zu veranschaulichen.
    • 16 ist ein Diagramm, das veranschaulicht ist, um einen Bestandteil zu beschreiben, der eine Verarbeitung zur Frequenz-Synchronisierung in einem Entfernungsmesser (Kamera) ausführt.
    • 17 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte spezifische Verarbeitung zum Berechnen der Position und Orientierung der Lichtquelleneinheit und Berechnen des Abstands zu einem Gegenstand zu beschreiben.
    • 18 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte spezifische Verarbeitung zum Berechnen der Position und Orientierung der Lichtquelleneinheit und Berechnen des Abstands zu einem Gegenstand zu beschreiben.
    • 19 ist ein Diagramm, das ein Flussdiagramm veranschaulicht, um die spezifische Verarbeitungssequenz zum Berechnen der Position und Orientierung der Lichtquelleneinheit und Berechnen des Abstands zu einem Gegenstand zu veranschaulichen.
    • 20 ist ein Diagramm, das veranschaulicht ist, um einen Bestandteil in dem Entfernungsmesser (Kamera) zu beschreiben, der genutzt wird, um die Position und Orientierung der Lichtquelleneinheit zu berechnen und den Abstand zu einem Gegenstand zu berechnen.
    • 21 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte spezifische Verarbeitung beim Durchführen einer Verarbeitung zur Offset-Berechnung basierend auf einer Verarbeitung zur Berechnung der Taktphasendifferenz und des Objektabstands (Tiefe) zu beschreiben.
    • 22 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte spezifische Verarbeitung beim Durchführen einer Verarbeitung zur Offset-Berechnung basierend auf einer Verarbeitung zur Berechnung der Taktphasendifferenz und des Objektabstands (Tiefe) zu beschreiben.
    • 23 ist ein Diagramm, das veranschaulicht ist, um ein Hyperboloid zu beschreiben.
    • 24 ist ein Diagramm, das ein Flussdiagramm veranschaulicht, um eine spezifische Verarbeitungssequenz beim Durchführen einer Verarbeitung zur Offset-Berechnung basierend auf einer Verarbeitung zur Berechnung der Taktphasendifferenz und des Objektabstands (Tiefe) zu veranschaulichen.
    • 25 ist ein Diagramm, das veranschaulicht ist, um einen Bestandteil in einem Entfernungsmesser (Kamera) zu beschreiben, der genutzt wird, um eine Verarbeitung zur Offset-Berechnung basierend auf einer Verarbeitung zur Berechnung der Taktphasendifferenz und des Objektabstands (Tiefe) durchzuführen.
    • 26 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte spezifische Verarbeitung zur Berechnung des Objektabstands (Tiefe) in einem Fall zu beschreiben, in dem eine Lichtquellenposition und ein Offset des Lichtquellentakts bekannt sind.
    • 27 ist ein Diagramm, das veranschaulicht ist, um einen Bestandteil in einem Entfernungsmesser (Kamera) zu beschreiben, der genutzt wird, um eine Verarbeitung zur Berechnung des Objektabstands (Tiefe) in dem Fall durchzuführen, in dem eine Lichtquellenposition und ein Offset des Lichtquellentakts bekannt sind.
    • 28 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte Konfiguration, um das Auftreten mehrerer Lösungen in einer Lösung simultaner Gleichungen einer Hyperboloid-Gleichung und einer linearen Gleichung zu verhindern, zu beschreiben.
    • 29 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte Konfiguration, um das Auftreten mehrerer Lösungen in einer Lösung simultaner Gleichungen einer Hyperboloid-Gleichung und einer linearen Gleichung zu verhindern, zu beschreiben.
    • 30 ist ein Diagramm, das veranschaulicht ist, um Charakteristiken des Entfernungsmesssystems der vorliegenden Offenbarung zu beschreiben.
    • 31 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte Konfiguration unter Verwendung einer Vielzahl von Lichtquelleneinheiten zu beschreiben.
    • 32 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte Konfiguration unter Verwendung einer Vielzahl von Lichtquelleneinheiten zu beschreiben.
    • 33 ist ein Diagramm, das veranschaulicht ist, um ein Nutzungsbeispiel des Entfernungsmesssystems der vorliegenden Offenbarung zu beschreiben.
    • 34 ist ein Diagramm, das veranschaulicht ist, um ein Nutzungsbeispiel des Entfernungsmesssystems der vorliegenden Offenbarung zu beschreiben.
    • 35 ist ein Diagramm, das veranschaulicht ist, um ein Nutzungsbeispiel des Entfernungsmesssystems der vorliegenden Offenbarung zu beschreiben.
    • 36 ist ein Diagramm, das veranschaulicht ist, um ein Nutzungsbeispiel des Entfernungsmesssystems der vorliegenden Offenbarung zu beschreiben.
    • 37 ist ein Diagramm, das veranschaulicht ist, um ein Nutzungsbeispiel des Entfernungsmesssystems der vorliegenden Offenbarung zu beschreiben.
    • 38 ist ein Diagramm, das veranschaulicht ist, um eine beispielhafte Hardware-Konfiguration des Entfernungsmessers der vorliegenden Offenbarung zu beschreiben.
  • MODUS ZUM AUSFÜHREN DER ERFINDUNG
  • Nun wird eine Beschreibung eines Entfernungsmessers, eines Entfernungsmesssystems, eines Entfernungsmessverfahrens und eines Programms der vorliegenden Offenbarung unter Bezugnahme auf die Zeichnungen im Detail gegeben. Außerdem wird die Beschreibung gemäß den im Folgenden beschriebenen Punkten gegeben.
    1. 1. Überblick über eine Verarbeitung zur Entfernungsmessung mittels einer ToF-Technik
    2. 2. Überblick über eine Verarbeitung, die von einem Entfernungsmesser der vorliegenden Offenbarung ausgeführt wird
    3. 3. Sequenz einer Verarbeitung, die von einem Entfernungsmesser der vorliegenden Offenbarung ausgeführt wird
    4. 4. Verarbeitung zur Frame-Synchronisierung
    5. 5. Verarbeitung zur Frequenz-Synchronisierung
    6. 6. Details einer Berechnungsverarbeitung der Position und Orientierung einer Lichtquelleneinheit und eines spezifischen Verarbeitungsbeispiels beim Durchführen einer Abstandsberechnung zusammen mit einer Verarbeitung zur Berechnung der Position und Orientierung einer Lichtquelleneinheit
    7. 7. Spezifisches Verarbeitungsbeispiel beim Durchführen einer Verarbeitung zur Offset-Berechnung basierend auf einer Verarbeitung zur Berechnung der Taktphasendifferenz und des Objektabstands (Tiefe)
    8. 8. Spezifisches Beispiel einer Verarbeitung zur Berechnung des Objektabstands (Tiefe) in einem Fall einer bekannten Lichtquellenposition und eines bekannten Offsets des Lichtquellentakts
    9. 9. Konfiguration, um ein Auftreten mehrerer Lösungen in Lösungen einer simultanen Gleichung einer Hyperboloid-Gleichung und linearen Gleichung zu verhindern
    10. 10. Beispielhafte Konfiguration unter Verwendung mehrerer Lichtquelleneinheiten
    11. 11. Andere Nutzungsbeispiele eines Entfernungsmesssystems der vorliegenden Offenbarung
    12. 12. Beispielhafte Hardware-Konfiguration eines Entfernungsmessers
    13. 13. Zusammenfassung einer Konfiguration der vorliegenden Offenbarung
  • [Überblick über eine Verarbeitung zur Entfernungsmessung mittels einer ToF-Technik]
  • Nun wird ein Überblick über eine Verarbeitung zur Entfernungsmessung mittels der ToF-Technik beschrieben.
  • Wie oben beschrieben wurde, ist die Laufzeit- (ToF-) Technik eine der Techniken zum Messen des Abstands zu einem Objekt oder der dreidimensionalen Form eines Objekts. Die ToF-Technik ist die Technik, bei der ein Objekt mit Licht bestrahlt und das reflektierte Licht analysiert wird, um den Abstand (Tiefe) zum Objekt oder die Form des Objekts zu messen.
  • Der Überblick über die Verarbeitung zur Messung des Abstands (Tiefe) mittels der ToF-Technik wird unter Bezugnahme auf 1 und die nachfolgenden Figuren beschrieben. Obgleich die Beschreibung im Folgenden die Verarbeitung zur Messung einer dreidimensionalen Form nicht sonderlich erwähnt, ermöglicht darüber hinaus ein Messen des Abstands zur Oberfläche des Objekts über die gesamte Oberfläche des Objekts, die dreidimensionale Form des Objekts zu messen.
  • 1 veranschaulicht eine Lichtquelle (lichtemittierende Einheit) 1, eine Kamera (lichtempfangende Einheit) 2 und ein Objekt 3. Das von der Lichtquelle (lichtemittierenden Einheit) 1 ausgegebene Licht wird vom Objekt 3 reflektiert und fällt auf die Kamera (lichtempfangende Einheit) 2.
  • Diese Konfiguration misst eine Zeit Δt, bis das Ausgangslicht von der Lichtquelle 1 vom Objekt 3 reflektiert wird und auf die Kamera 2 fällt, was eine Messung des Abstands (Tiefe) d von der Kamera 2 zum Objekt 3 erlaubt.
  • Der Abstand d kann gemäß (Formel 1) wie folgt berechnet werden: d = ( 1 / 2 ) × c × Δ t
    Figure DE112019003952T5_0001
    wobei
    c die Lichtgeschwindigkeit ist.
  • Außerdem sind in der Figur der Klarheit halber die Lichtquelle 1 und die Kamera 2 an geringfügig entfernten Positionen dargestellt. In einer gewöhnlichen Vorrichtung der verwandten Technik werden jedoch der Zeitpunkt bzw. die Zeitsteuerung einer Lichtemission der Lichtquelle 1 und der Zeitpunkt bzw. die Zeitsteuerung einer Bildaufnahme durch die Kamera 2 mittels eines Takts gesteuert, sodass die Lichtquelle 1 und die Kamera 2 an im Wesentlichen der gleichen Position wie etwa der gleichen Vorrichtung konfiguriert sind. Folglich ist die Zeit Δt, bis das Ausgangslicht von der Lichtquelle 1 vom Objekt 3 reflektiert wird und auf die Kamera 2 fällt, die Zeit, die das Licht benötigt, um einen Abstand zu durchlaufen, der der doppelte Abstand (Tiefe) d von der Kamera 2 zum Objekt 3 ist. Dies ist der Grund, warum in der oben ausgedrückten Formel zum Berechnen des Abstands d in (Formel 1) mit „(1/2)“ multipliziert wird.
  • In der in 1 veranschaulichten Konfiguration ist jedoch die Zeit Δt sehr kurz, sodass eine genauere Messung der Zeit Δt schwierig ist. In der Praxis wird somit die Differenz in der Zeit zwischen dem Zeitpunkt, zu dem die Lichtquelle 1 gepulstes Licht emittiert, und dem Zeitpunkt, zu dem die Kamera 2 das gepulste Licht empfängt, in eine Phasendifferenz umgewandelt, um den Abstand zwischen ihnen zu erhalten.
  • Diese Verarbeitung wird unter Bezugnahme auf 2 beschrieben.
  • 2 veranschaulicht die Lichtquelle (lichtemittierende Einheit) 1, die Kamera (lichtempfangende Einheit) 2 und das Objekt 3 ähnlich 1. Die Lichtquelle 1 emittiert gepulstes Licht, und die Kamera 2 empfängt das vom Objekt 3 reflektierte und zurückgekehrte gepulste Licht.
  • Diese Konfiguration ermöglicht, dass die Differenz in der Zeit zwischen dem von der Lichtquelle 1 ausgegebenen gepulsten Licht und dem in die Kamera 2 eingespeisten gepulsten Licht zur Beobachtung in eine Phasendifferenz umgewandelt wird.
  • Die Lichtquelle 1 blinkt mit hoher Geschwindigkeit mit der bekannten Frequenz f [Hz]. Mit anderen Worten ist ein Zyklus des Lichtemissionsmusters der Lichtquelle 1 1/f [Sekunde]. Die Kamera 2 misst eine Phase des Lichtblinkmusters für jedes Pixel. Ein spezifisches Beispiel dieser Konfiguration zur pixelbasierten Phasenmessung wird im späteren Abschnitt unter Bezugnahme auf 3 beschrieben.
  • Beispielsweise wird angenommen, dass die Differenz in der Phase zwischen dem von der Lichtquelle 1 ausgegebenen gepulsten Licht und dem von der Kamera 2 empfangenen gepulsten Licht φ ist. In diesem Fall kann die Zeit Δt, bis das Ausgangslicht von der Lichtquelle 1 vom Objekt 3 reflektiert wird und auf die Kamera 2 einfällt, durch (Formel 2) wie folgt berechnet werden. Δ t = ( 1 / f ) × ( φ / 2 π )
    Figure DE112019003952T5_0002
  • Das Substituieren der durch (Formel 2) berechneten Zeit Δt in die vorher beschriebene (Formel 1) ermöglicht, den Abstand d von der Kamera 2 (oder der Lichtquelle 1) zum Objekt 3 unter Verwendung von (Formel 3) wie folgt berechnen: d = ( c φ ) / 4 π f
    Figure DE112019003952T5_0003
    wobei
    c die Lichtgeschwindigkeit ist,
    φ die Differenz zwischen der Phase des von der Lichtquelle 1 ausgegebenen gepulsten Lichts und der Phase des empfangenen gepulsten Lichts der Kamera 2 ist und
    f die Frequenz des gepulsten Lichts ist.
  • Die Konfiguration zur Phasenberechnung des gepulsten Lichts in Pixeleinheiten in der Kamera 2 wird unter Bezugnahme auf 3 beschrieben.
  • Die unter Bezugnahme auf 1 und 2 beschriebene Kamera 2 ist eine von einer normalen Kamera verschiedene ToF-Kamera, und jedes Pixel wiederholt EIN/AUS mit hoher Geschwindigkeit und akkumuliert Ladung nur während der EIN-Periode.
  • Beim Messen des Abstands zu einem Objekt unter Verwendung der ToF-Kamera wird die Zeitsteuerung bzw. der Zeitpunkt einer EIN/AUS-Ausführung sequentiell geschaltet und wird die akkumulierte Ladung zu jedem Zeitpunkt analysiert. Die Schaltmuster des Zeitpunkts der EIN/AUS-Ausführung sind beispielsweise vier, auf der linken Seite von 3 dargestellte Typen wie folgt.
    • (c1) 0-Grad-Phase
    • (c2) 90-Grad-Phase
    • (c3) 180-Grad-Phase
    • (c4) 270-Grad-Phase
  • Die Phase von 0 Grad (c1) wird so eingestellt, dass ein EIN-Zeitpunkt (Lichtempfangszeitpunkt) die Phase des von der Lichtquelle 1 ausgegebenen gepulsten Lichts ist, das heißt die gleiche Phase wie das Lichtemissionsmuster von (a), das auf der linken Seite von 3 dargestellt ist.
  • Die Phase von 90 Grad von (c2) wird so eingestellt, dass der EIN-Zeitpunkt (Lichtempfangszeitpunkt) 90 Grad hinter dem gepulsten Licht (Lichtemissionsmuster von (a)) liegt, das von der Lichtquelle 1 ausgegeben wird.
  • Die Phase von 180 Grad von (c3) wird so eingestellt, dass der EIN-Zeitpunkt (Lichtempfangszeitpunkt) 180 Grad hinter dem von der Lichtquelle 1 ausgegebenen gepulsten Licht (Lichtemissionsmuster von (a)) liegt.
  • Die Phase von 270 Grad von (c4) wird so eingestellt, dass der EIN-Zeitpunkt (Lichtempfangszeitpunkt) 270 Grad hinter dem von der Lichtquelle 1 ausgegebenen gepulsten Licht (Lichtemissionsmuster von (a)) liegt.
  • Die Kamera 2 führt diese vier Arten der Umschaltung sequentiell durch, um Mengen empfangenen Lichts mit dem geänderten Lichtempfangszeitpunkt zu erfassen. Mit anderen Worten werden vier Arten von Mengen empfangenen Lichts mit unterschiedlichen Akkumulierungsphasen und elektrischen Ladungen je nach den Mengen empfangenen Licht erhalten.
  • Beispielsweise wird angenommen, dass die elektrischen Ladungen, die in dem Fall akkumuliert werden, in dem die Phasendifferenzen der lichtempfangenen Pixel für die Lichtemissionsmuster 0 Grad, 90 Grad, 180 Grad und 270 Grad sind, auf Q0, Q90, Q180 bzw. Q270 eingestellt werden.
  • In diesem Zusammenhang ist die Phasendifferenz φ, die verwendet wird, um den Abstand d zum Objekt zu berechnen, indem die oben beschriebene (Formel 3) angewendet wird, die Differenz in der Phase zwischen dem von der Lichtquelle 1 ausgegebenen gepulsten Licht und dem von der Kamera 2 empfangenen gepulsten Licht. Diese Phasendifferenz φ kann auf der Basis der (Formel 4) wie folgt berechnet werden. φ = Arctan ( ( Q 90 Q 270 ) / ( Q 180 Q 0 ) )
    Figure DE112019003952T5_0004
  • Die mittels (Formel 4) oben berechnete Phasendifferenz φ, das heißt die Phasendifferenz φ zwischen dem von der Lichtquelle 1 ausgegebenen gepulsten Licht und dem in die Kamera 2 eingespeisten gepulsten Licht, wird in (Formel 3) substituiert. Dementsprechend ist es möglich, den Abstand d von der Kamera 2 (oder der Lichtquelle 1) zu dem Objekt 3 aus (Formel 3) zu berechnen.
  • Außerdem wird auf einen Bild-Frame, der von der ToF-Kamera wie in 4 veranschaulicht aufgenommen wird, das heißt ein aufgenommenes Bild oder eine akkumulierte Ladung jedes aufgenommenen Bildes der Phaseneinstellungen von Phasenabweichungswerten von 0 Grad, 90 Grad, 180 Grad und 270 Grad für das Lichtemissionsmuster (Impuls) hier als Komponente verwiesen.
    4 veranschaulicht Bilddaten, die mittels einer Kamera (ToF-Kamera) aufgenommen werden, entsprechend der von links nach rechts dargestellten Zeitachse.
  • Die aufgenommenen Bilder mit Phaseneinstellungen der Phasenabweichungswerte von 0 Grad, 90 Grad, 180 Grad und 270 Grad für das Lichtemissionsmuster (Impuls) werden sequentiell und wiederholt aufgenommen.
  • Auf einen Satz von Kombinationen von Komponenten mit Phaseneinstellungen von 0 Grad, 90 Grad, 180 Grad und 270 Grad wird als Einzelbild bzw. Frame verwiesen.
  • Mit anderen Worten hat ein Frame eine Information bezüglich der akkumulierten Ladung Q0, Q90, Q180 und Q270 des aufgenommenen Bildes mit Phaseneinstellungen von Phasenabweichungswerten von 0 Grad, 90 Grad, 180 Grad und 270 Grad für das Lichtemissionsmuster (Impuls).
  • Außerdem wird die Zeit zwischen Komponenten typischerweise kürzer als die Zeit zwischen Frames eingestellt.
  • [Überblick über eine Verarbeitung, die von einem Entfernungsmesser der vorliegenden Offenbarung ausgeführt wird]
  • Ein Überblick über die Verarbeitung, die von einem Entfernungsmesser der vorliegenden Offenbarung ausgeführt wird, wird nun beschrieben.
  • Wie unter Bezugnahme auf 1 bis 3 beschrieben wurde, kann es beim Messen des Abstandes zu einem Objekt mittels der ToF-Technik notwendig sein, eine Phasendifferenz zwischen dem Lichtemissionsimpuls der Lichtquelle und dem Lichtempfangsimpuls der Kamera zu detektieren.
  • Die genaue Detektion der Phasendifferenz kann notwendig sein, um die EIN/AUS-Zeitsteuerung des Lichtemissionsimpulses der Lichtquelle und die EIN/AUS-Zeitsteuerung von Pixeln, die in der Kamera ausgeführt wird, herauszufinden.
  • Im Hinblick darauf ist es zum Beispiel erwünscht, dass die EIN/AUS-Zeitsteuerung des Lichtemissionsimpulses der Lichtquelle und die EIN/AUS-Zeitsteuerung von Pixeln, die in der Kamera ausgeführt werden, mittels eines Taktes gesteuert, d. h. mittels eines Taktes miteinander synchronisiert werden.
  • Wie in 5(a) veranschaulicht ist, ermöglicht die Anordnung, in der beispielsweise die Lichtquelle 1 und die Kamera 2 in einer Vorrichtung konfiguriert und mittels eines Taktsignals von einem Taktgeber gesteuert werden, dass der Lichtemissionsimpuls der Lichtquelle und die Zeitsteuerung bzw. der Zeitpunkt einer Ladungsakkumulierung der Kamera 2 synchronisiert werden. Mit anderen Worten ist es möglich, Komponenten aufgefangener Bilder mit Phaseneinstellungen von Phasenabweichungswerten von 0 Grad, 90 Grad, 180 Grad und 270 Grad für das Lichtemissionsmuster (Impuls) zu erfassen.
  • In der in 5(a) veranschaulichten Anordnung ist jedoch der Lichtweg von der Lichtquelle 1 zur Kamera 2 doppelt so lang wie der Abstand d zum Objekt 3, das heißt 2d, sodass die Lichtempfangsintensität der Kamera 2 verringert wird, was einer Abnahme der Genauigkeit der Entfernungsmessung verursacht.
  • Die in 5(b) veranschaulichte Anordnung kann für die verringerte Lichtempfangsintensität der Kamera 2 und die verringerte Genauigkeit der Entfernungsmessung in Betracht gezogen werden.
  • In der in 5(b) veranschaulichten Anordnung ist die Lichtquelle 1 näher zum Objekt 3 platziert. Solch eine Anordnung ermöglicht, den Weg, bis das Ausgangslicht der Lichtquelle 1 von dem Objekt 3 reflektiert und von der Kamera 2 empfangen wird, zu verkürzen, was eine verbesserte Genauigkeit der Entfernungsmessung ohne Verringern der Lichtempfangsintensität der Kamera 2 ermöglicht.
  • Falls jedoch die Lichtquelle 1 der Kamera 2 an Positionen wie oben beschrieben voneinander getrennt sind und diese Vorrichtungen als separate Vorrichtungen genutzt werden, kann es notwendig sein, dass die jeweiligen Vorrichtungen mittels eines individuellen Taktsignals gesteuert werden.
  • Falls die Lichtquelle 1 und die Kamera 2 wie oben beschrieben mittels verschiedener Taktsignale gesteuert werden, ist es schwierig, die Steuerungszeitpunkte der Lichtquelle 1 und der Kamera 2 komplett übereinstimmen zu lassen, das heißt sie zu synchronisieren. Falls keine Synchronisierung vorgenommen wird, können Komponenten aufgenommener Bilder mit Phaseneinstellungen von Phasenabweichungswerten von 0 Grad, 90 Grad, 180 Grad und 270 Grad für das Lichtemissionsmuster (Impuls) nicht genau erfasst werden.
  • Darüber hinaus umfassen Arten einer Verarbeitung zur Synchronisierung, die notwendig sein kann, um eine genaue Entfernungsmessung durchzuführen, eine Vielzahl von Arten einer Verarbeitung zur Synchronisierung wie folgt.
    • (1) Verarbeitung zur Frame-Synchronisierung,
    • (2) Verarbeitung zur Frequenz-Synchronisierung und
    • (3) Verarbeitung zur Phasen-Synchronisierung.
    • (1) Die Verarbeitung zur Frame-Synchronisierung ist die Verarbeitung einer Synchronisierung, um den Lichtemissionszeitpunkt auf der Seite der Lichtquelle 1 für jeden der Frames oder Komponenten, die auf der Seite der Kamera 2 erfasst werden, zu erfassen.
    • (2) Die Verarbeitung zur Frequenz-Synchronisierung ist die Verarbeitung, um eine Frequenzabweichung zwischen Takten der Lichtquelle 1 und der Kamera 2 zu überprüfen und einzustellen, um die Frequenzabweichung zu eliminieren. Selbst wenn die Takte der Lichtquelle 1 und der Kamera 2 auf 100 MHz eingestellt sind, beträgt beispielsweise der Takt der Lichtquelle 1 aufgrund der individuellen Differenz zwischen den Takten oft 100,0001 MHz. Somit kann es notwendig sein, diese Differenz genau festzustellen.
    • (3) Die Verarbeitung zur Phasen-Synchronisierung ist die Verarbeitung, um eine Phasenabweichung zwischen den Takten der Lichtquelle 1 und der Kamera 2 zu überprüfen und die Phasen einzustellen, um die Phasenabweichung zu eliminieren.
  • Wie in 6 veranschaulicht ist, ist beispielsweise die Wellenform (Licht (t)) der Lichtquelle 1 als die Sinuswelle wie folgt definiert: Licht ( t ) = cos ( f L t + θ L )
    Figure DE112019003952T5_0005
    Die Verarbeitung zur Phasen-Synchronisierung kann notwendig sein, um die Startzeit t1 einer Lichtemission zusätzlich zu fL und θL der Lichtquelle 1 abzuschätzen, die Licht gemäß der oben erwähnten Sinuswelle emittiert, wie in 6 veranschaulicht ist.
  • 7 veranschaulicht ein beispielhafte Gesamtkonfiguration einer Ausführungsform eines Entfernungsmesssystems der vorliegenden Offenbarung. Das Entfernungsmesssystem der vorliegenden Offenbarung ist ein System, in welchem die Lichtquelle und die Kamera ähnlich der oben unter Bezugnahme auf 5(b) beschriebenen Konfiguration mittels individueller Takte gesteuert werden können.
  • Mit anderen Worten ist es ein System, das ermöglicht, dass der Takt, der verwendet wird, um die Zeitsteuerung einer Lichtemission der Lichtquelle zu steuern, und der Takt, der verwendet wird, um die Zeitsteuerung einer Bildaufnahme der Kamera zu steuern, separate Takte sind.
  • Solch eine Konfiguration ermöglicht, dass die Lichtquelle an jeder beliebigen Position entfernt von der Kamera platziert wird. Dies macht es möglich, die Lichtquelle näher zu einem Objekt zu platzieren, dessen Abstand gemessen werden soll.
  • Infolgedessen wird das von der Lichtquelle emittierte Licht von dem Objekt reflektiert, dessen Abstand gemessen werden soll. Die Kamera, die das reflektierte Licht auffängt, kann das reflektierte Licht auffangen, dessen Lichtintensität nicht abnimmt, was ermöglicht, eine sehr genaue Entfernungsmessung zu erzielen.
  • Wie oben beschrieben wurde, hat das System der vorliegenden Offenbarung eine Konfiguration, die imstande ist, einen optischen Weg, bis das Ausgangslicht von der Lichtquelle von einem Objekt reflektiert wird und auf die Kamera fällt, kurz einzustellen.
  • Im Entfernungsmesssystem der vorliegenden Offenbarung sind jedoch der Takt, der die Zeitsteuerung der Steuerung der Lichtquelle bestimmt, (CLK1) und der Takt, der die Zeitsteuerung einer Steuerung der Kamera bestimmt, (CLK2) verschieden. Somit muss eine Verarbeitung unter Berücksichtigung der Abweichung zwischen den Takten durchgeführt werden. Diese Verarbeitung wird in dem späteren Abschnitt beschrieben.
  • Das Entfernungsmesssystem der vorliegenden Offenbarung, das in 7 veranschaulicht ist, umfasst eine Lichtquelleneinheit 10 und einen Entfernungsmesser (Kamera) 20. Außerdem misst der Entfernungsmesser (Kamera) 20 den Abstand zwischen einem Objekt 30 und dem Entfernungsmesser (Kamera) 20. Daneben ist es zusätzlich zur Entfernungsmessung auch möglich, die Oberflächenform des Objekts 30, das heißt die dreidimensionale Form des Objekts 30, zu messen.
  • Wie in 7 veranschaulicht ist, weist die Lichtquelleneinheit 10 eine Vielzahl von Lichtquellen a, b und c auf. Diese drei Lichtquellen sind in äquidistanten Intervallen (W) angeordnet. Die Lichtquellen a bis c geben individuelle gepulste Lichtstrahlen aus. Der Ausgabezeitpunkt des gepulsten Lichts, das heißt die Phase, wird durch ein Taktsignals eines Taktgebers (CLK1) gesteuert.
  • Darüber hinaus hat in der 7 veranschaulichten Ausführungsform die Lichtquelleneinheit 10 drei Lichtquellen mit festen relativen Positionen. Die Anzahl an Lichtquellen ist nicht auf drei beschränkt und kann je nach der Verarbeitung eine Konfiguration mit drei oder mehr Lichtquellen wie etwa vier und fünf umfassen oder eine Konfiguration mit nur zwei umfassen.
  • Nun wird die Beschreibung der Konfiguration und Verarbeitung unter Verwendung der Lichtquelleneinheit 10 mit drei Lichtquellen und der Konfiguration und Verarbeitung unter Verwendung der Lichtquelleneinheit 10 mit zwei Lichtquellen gegeben.
  • Die Konfiguration und Verarbeitung unter Verwendung der Lichtquelleneinheit 10 mit drei Lichtquellen wird nun beschrieben. Das von den drei Lichtquellen a bis c der Lichtquelleneinheit 10 ausgegebene gepulste Licht wird von der Oberfläche des Objekts 30 reflektiert und fällt auf den Entfernungsmesser (Kamera) 20. Der Entfernungsmesser (Kamera) 20 hat einen ToF-Sensor ähnlich der oben unter Bezugnahme auf 2 bis 4 beschriebenen ToF-Kamera und erfasst ein Bild, in dem unterschiedliche Lichtempfangszeitpunkte, das heißt einen Frame mit mehreren Komponenten, eingestellt sind.
  • Die Zeitsteuerung der Steuerung des Entfernungsmessers (Kamera) 20 wird auf der Basis des vom kameraspezifischen Taktgeber (CLK2) abgegebenen Taktsignals ausgeführt.
  • Eine beispielhafte spezifische Konfiguration der Lichtquelleneinheit 10 wird nun unter Bezugnahme auf 8 beschrieben. Wie oben unter Bezugnahme auf 7 beschrieben wurde, enthält die Lichtquelleneinheit 10 eine Vielzahl von Lichtquellen und weist einen Taktgeber der Lichtquelleneinheit auf.
  • Wie in 8 veranschaulicht ist, enthält die Lichtquelleneinheit 10 einen Taktgeber (CLK1) 101 der Lichtquelleneinheit, eine Einheit 102 zur Steuerung der Lichtquelle, Einheiten 103 bis 105 zur Verzögerungssteuerung entsprechend Lichtquellen und einer Vielzahl von Lichtquellen, d. h. einer Lichtquelle a 106, einer Lichtquelle b 107 und einer Lichtquelle c 108. Die Vielzahl von Lichtquellen a bis c wird durch einen Taktgeber 101 der Lichtquelleneinheit gesteuert, sodass Frequenzen eines von ihnen emittierten Lichts (gepulsten Lichts) die gleichen (oder ein bekanntes Vielfaches) sind.
  • Beispielsweise kann die Frequenzeinstellung des von den Lichtquellen a bis c ausgegebenen gepulsten Lichts, falls der Referenztakt ein Takt von 10 MHz ist, wie folgt eingestellt werden:
    • (Einstellungsbeispiel 1) Frequenzen des gepulsten Lichts der Lichtquellen a bis c sind alle auf 10 MHz eingestellt und
    • (Einstellungsbeispiel 2) Frequenzen des gepulsten Lichts der Lichtquellen a bis c sind auf ein Vielfaches des spezifischen Werts wie etwa 10 MHz, 20 MHz bzw. 30 MHz eingestellt.
    • Derartige, oben beschriebene Einstellungen sind beispielsweise möglich.
  • Die Phase jedes gepulsten Lichts der Lichtquellen a bis c hängt außerdem auch von der Länge einer Verdrahtung vom Taktgeber 101 zu den Lichtquellen a bis c ab, sodass man eine Erzeugung eines gewissen Grads einer Abweichung erwartet. Es wird noch angenommen, dass eine derartige Abweichung vorher kalibriert wird. Hier wird im Folgenden der Zweckmäßigkeit halber angenommen, dass die Phasen der Vielzahl von Lichtquellen a bis c gleich sind und es keine Abweichung gibt. Selbst wenn die Phasen der jeweiligen Lichtquellen abweichen, kann sie außerdem kalibriert und im folgenden Schritt verwendet werden, falls der Grad einer Abweichung bekannt ist.
  • Wie in dem Anordnungsbeispiel der Lichtquellen in 8(a) veranschaulicht ist, wird ferner angenommen, dass die jeweiligen Lichtquellen a bis c eine feste physische Anordnung aufweisen.
  • Beispielsweise sind die Lichtquellen a bis c am Gehäuse der Lichtquelleneinheit 10 so befestigt, dass der Abstand zwischen den Lichtquellen „W“ betragen kann. Die Lichtquelleneinheit 10 hat eine Konfiguration, in der eine Vielzahl von Lichtquellen physisch fixiert ist.
  • Wie in dem Anordnungsbeispiel der Lichtquellen in 8(a) veranschaulicht ist, ist unter Bezugnahme auf einen gegebenen Punkt in der Lichtquelleneinheit 10 ein Lichtquellen-Koordinatensystem definiert. Komponententeile in der Lichtquelleneinheit sind fixiert, sodass die Positionen der jeweiligen Komponenten im Lichtquellen-Koordinatensystem bekannt sind.
  • Die Einheit 102 zur Steuerung der Lichtquelle und die Einheiten 103 bis 105 zur Verzögerungseinstellung stellen die Zeitsteuerung bzw. den Zeitpunkt der Lichtemission der Lichtquellen a bis c, das heißt den Lichtemissionsimpuls, ein. Außerdem steuern die Einheit 102 zur Steuerung der Lichtquelle und die Einheiten 103 bis 105 zur Verzögerungseinstellung den Zeitpunkt bzw. die Zeitsteuerung der Lichtemission der Lichtquellen a bis c durch den von dem Taktgeber 101 der Lichtquelleneinheit bereitgestellten Takt. Die Einheiten 103 bis 105 zur Verzögerungseinstellung steuern den Betrag einer Verzögerung in der Zeitsteuerung der Lichtemission der Lichtquellen a bis c und 105 bis 108.
  • Außerdem werden die Lichtstrahlen von den Lichtquellen a bis c der Lichtquelleneinheit 10 individuell so gesteuert, dass die Lichtstrahlen den Entfernungsmesser (Kamera) 20 erreichen, ohne miteinander zu interferieren. Beispielsweise wird somit die Ansteuerung der Lichtquelle wie folgt gesteuert:
    1. (a) Ansteuern der Lichtquellen im Zeitmultiplex bzw. in Zeitteilung,
    2. (b) unterschiedliches Einstellen der Lichtemissionsfrequenz jeder Lichtquelle. Beispielsweise wird die Lichtemissionsfrequenz je Lichtquelle so eingestellt, dass sie unterschiedlich, wie etwa das Einfache, Zweifache oder Dreifache der Taktfrequenz, ist, und
    3. (c) Ändern einer Wellenlänge, die von jeder Lichtquelle verwendet wird; beispielsweise Verwenden des Lichts mit verschiedenen Wellenlängen wie etwa 850 nm, 905 nm und 940 nm.
  • 9 veranschaulicht ein Beispiel der Steuerung einer Lichtquellenansteuerung bei einer Einstellung als „Zeitmultiplex-Ansteuerung von Lichtquellen“ des obigen Punktes (a).
    9 veranschaulicht ein Beispiel des Takts und Signals, die vom Taktgeber 101 der Lichtquelleneinheit bereitgestellt werden, und die Lichtemissionsimpulse der Lichtquellen a bis c.
    In dem in 9 veranschaulichten Beispiel sind die Lichtquellen a bis c so eingestellt, dass sie Lichtstrahlen sequentiell emittieren, indem die Zeitsteuerung mit der gleichen Frequenz und Phase bezüglich des Referenztaktes (Takt der Lichtquelleneinheit) geändert wird.
    Außerdem wird eine Licht-Aus-Periode so eingestellt, dass es möglich ist, zu identifizieren, welche Lichtquelle gegenwärtig emittiert. Nach dem Ablauf der Licht-Aus-Periode lässt man die Lichtquellen in der Reihenfolge der Lichtquelle a, der Lichtquelle b und der Lichtquelle c Lichtstrahlen emittieren. Die Lichtemission wiederholt sich dann ebenfalls nach einer vorbestimmten Licht-Aus-Periode in der Reihenfolge der Lichtquellen a bis c.
  • Die Konfiguration des Entfernungsmessers (Kamera) 20 wird nun unter Bezugnahme auf 10 im Detail beschrieben.
  • Wie in 10 veranschaulicht ist, enthält der Entfernungsmesser (Kamera) 20 einen Sensortaktgeber 201, einen ToF-Sensor 202, eine Einheit 203 zur Detektion sich bewegender Gegenstände, eine Einheit 204 zur Phasenberechnung, einen Speicher 205 für Phasenbilder, eine Einheit 206 zur Abschätzung der Lichtquellenposition, einen Speicher 207 für Position und Orientierung der Lichtquelleneinheit, eine Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts), einen Speicher 209 für Taktphasendifferenzen (Offset des Lichtquellentakts), eine Einheit 210 zur Abschätzung des Taktabweichungsbetrags, eine Einheit 211 zur Einstellung des Sensortakts und eine Einheit 220 zur Berechnung des Abstands (Tiefe).
  • Der ToF-Sensor 202 enthält einen Bildsensor ähnlich der oben unter Bezugnahme auf 2 bis 4 beschriebenen ToF-Kamera. Mit anderen Worten wird ein Bild, in welchem verschiedene Lichtempfangszeitpunkte festgelegt sind, das heißt ein Frame mit einer Vielzahl von Komponenten, erfasst.
  • Die Zeitsteuerung des Lichtempfangs des ToF-Sensors 202 wird durch ein vom Sensortaktgeber 201 abgegebenes Taktsignal bestimmt.
  • Eine Einheit 203 zur Detektion sich bewegender Gegenstände detektiert aus dem mittels des ToF-Sensors 202 aufgenommenen Bild einen sich bewegenden Gegenstand. Diese Verarbeitung zur Detektion sich bewegender Gegenstände wird bei Durchführung der oben beschriebenen Verarbeitung zur Frequenz-Synchronisierung verwendet, das heißt der Verarbeitung zur Synchronisierung, um die Taktabweichung zwischen der Lichtquelle und dem ToF-Sensor zu modifizieren. Diese Verarbeitung wird im folgenden Abschnitt im Detail beschrieben.
  • Die Einheit 201 zur Phasenberechnung berechnet die Phasendifferenz φ zwischen dem Lichtemissionsimpuls und dem Lichtempfangsimpuls, die oben unter Bezugnahme auf 2 und 3 beschrieben wurden. In jeder Konfiguration ist der Lichtemissionsimpuls die Lichtemissionsimpulse der jeweiligen Lichtquellen a bis c der Lichtquelleneinheit 10. Der Lichtempfangsimpuls ist der dem Ausgangslicht der Lichtquellen a bis c entsprechende Lichtempfangsimpuls, der vom ToF-Sensor 202 empfangen wird.
  • Der Speicher 205 für Phasenbilder weist ein Frame-Bild und Phasendifferenzdaten auf, die darin gespeichert sind. Das Frame-Bild wird von einer Komponente (Phasenbild) gebildet, das vom ToF-Sensor 202 aufgenommen wird, und die Phasendifferenzdaten werden durch die Einheit 204 zur Phasenberechnung berechnet.
  • Die Einheit 206 zur Abschätzung einer Lichtquellenposition führt eine Verarbeitung zum Abschätzen der Position und Orientierung der Lichtquelleneinheit 10, konkreter beispielsweise eine Verarbeitung zur Abschätzung einer dreidimensionalen Position der Lichtquellen a bis c, aus. Das spezifische Verarbeitungsbeispiel wird später beschrieben.
  • Der Speicher 207 für Position und Orientierung der Lichtquelleneinheit speichert die Positions- und Orientierungsinformation (Information bezüglich dreidimensionaler Positionen der Lichtquellen a bis c) der Lichtquelleneinheit 10, die durch die Einheit 206 zur Abschätzung einer Lichtquellenposition abgeschätzt wurde.
  • Die Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) führt eine Verarbeitung durch, um die Abweichung zwischen dem Sensortaktgeber 201 und dem Taktgeber 101 der Lichtquelleneinheit, das heißt die Taktphasendifferenz, zu berechnen, und speichert die berechnete Taktphasendifferenz im Speicher 209 für die Taktphasendifferenz (Offset des Lichtquellentakts). Diese Verarbeitung wird später im Detail beschrieben.
  • Die Einheit 210 zur Abschätzung des Taktabweichungsbetrags schätzt einen Abweichungsbetrag einer Frequenz zwischen dem Sensortaktgeber 201 und dem Taktgeber 101 der Lichtquelleneinheit ab. Die Einheit 211 zur Einstellung des Sensortakts stellt die Frequenz des Sensortaktgebers 201 auf der Basis des Betrags einer Abweichung zwischen dem Sensortaktgeber 201 und dem Taktgeber 101 der Lichtquelleneinheit ein, der durch die Einheit 210 zur Abschätzung des Taktabweichungsbetrags abgeschätzt wird. Mit anderen Worten werden die Taktfrequenz des Sensortaktgebers 201 und die Taktfrequenz des Taktgebers 101 der Lichtquelleneinheit eingestellt, um die Abweichung zwischen den Frequenzen zu eliminieren oder zu reduzieren. Diese Verarbeitung wird später im Detail beschrieben.
  • Selbst wenn die Taktfrequenz eingestellt wird, ist es außerdem schwierig, die Differenz in der Phase (Phasenabweichung) zwischen den beiden Takten zu eliminieren. In einer praktischen Entfernungsmessung kann eine Verarbeitung unter Berücksichtigung der Taktphasendifferenz notwendig sein. Die Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts), die oben beschrieben wurde, berechnet diese Taktphasendifferenz.
  • Die Einheit 210 zur Berechnung des Abstands (Tiefe) berechnet den Abstand (Tiefe) zu dem zu vermessenden Objekt 30. Der berechnete Abstand ist der Abstand vom Entfernungsmesser (Kamera) 20 zur Oberfläche des Objekts 30.
  • Für diese Abstandsberechnung werden die Daten verwendet, die in dem Speicher 205 für Phasenbilder, dem Speicher 207 für Position und Orientierung der Lichtquelleneinheit und dem Speicher 209 für Taktphasendifferenzen (Offset des Lichtquellentakts) gespeichert sind. Mit anderen Worten wird die Abstandsberechnung unter Verwendung der folgenden Daten durchgeführt:
    1. (a) eines Frame-Bilds, das von einer Komponente (Phasenbild) gebildet wird, die mittels des ToF-Sensors 202 aufgenommen wurde und im Speicher 205 für Phasenbilder gespeichert ist, und der Phasendifferenzdaten, die durch die Einheit 204 zur Berechnung der Phasendifferenz berechnet wurden
    2. (b) der Positions- und Orientierungsinformation (Information bezüglich dreidimensionaler Positionen der Lichtquellen a bis c) der Lichtquelleneinheit 10, die durch die Einheit 206 zur Abschätzung der Lichtquellenposition abgeschätzt wurde und in dem Speicher 207 für Position und Orientierung der Lichtquelleneinheit gespeichert ist
    3. (c) eines Offset entsprechend einer Abweichung (Phasendifferenz) zwischen dem Sensortaktgeber 201 und dem Taktgeber 101 der Lichtquelleneinheit, die im Speicher 209 für Taktphasendifferenzen (Offset des Lichtquellentakts) gespeichert ist, oder eines Offset entsprechend dem Betrag eines Fehlers beim Berechnen des Abstands, der aufgrund der Phasendifferenz auftritt.
    Diese Verarbeitung wird später im Detail beschrieben.
  • [Sequenz einer Verarbeitung, die von einem Entfernungsmesser der vorliegenden Offenbarung ausgeführt wird]
  • Die Verarbeitungssequenz, die vom Entfernungsmesser (Kamera) 20 der vorliegenden Offenbarung ausgeführt wird, wird nun beschrieben.
  • Zunächst wird ein Überblick über die gesamte Sequenz der Entfernungsmessung unter Verwendung des Entfernungsmesssystems der vorliegenden Offenbarung mit der in 7 veranschaulichten Konfiguration unter Bezugnahme auf das in 11 veranschaulichte Flussdiagramm beschrieben.
  • Die in 11 veranschaulichte Prozedur umfasst außerdem vier Verarbeitungsschritte S11 bis S14. Anfangs werden grobe Verarbeitungsoperationen jedes Schritts und eine allgemeine Verarbeitungsprozedur beschrieben. Die Verarbeitung jedes Schritts wird im späteren Abschnitt im Detail beschrieben.
  • Die Verarbeitung jedes Schritts des in 11 veranschaulichten Flussdiagramms wird nun beschrieben.
  • (Schritt S11)
  • In Schritt S11 wird zunächst eine Verarbeitung zur Frame-Synchronisierung ausgeführt.
  • Die Verarbeitung zur Frame-Synchronisierung ist, wie oben unter Bezugnahme auf 6 beschrieben wurde, die Verarbeitung einer Synchronisierung, um den Lichtemissionszeitpunkt auf der Seite der Lichtquelle für jeden/jede der Frames oder Komponenten, die auf der Seite der Kamera erfasst werden, zu erfassen.
  • In Schritt S11 wird der Lichtemissionszeitpunkt auf der Seite der Lichtquelleneinheit 10 für jeden/jede der Frames und Komponenten erfasst, die auf der Seite des Entfernungsmessers (Kamera) 20 erfasst werden.
  • Darüber hinaus wird im späteren Abschnitt die spezifische Verarbeitung beschrieben.
  • (Schritt S12)
  • In Schritt S12 wird nun die Verarbeitung zur Frequenz-Synchronisierung ausgeführt. Diese Verarbeitung wird genutzt, um die Frequenzabweichung zwischen dem Sensortaktgeber, der auf der Seite des Entfernungsmessers (Kamera) 20 genutzt wird, und dem Takt der Lichtquelleneinheit, der auf der Seite der Lichtquelleneinheit 10 genutzt wird, zu überprüfen und einzustellen, um die Abweichung in den Frequenzen zu eliminieren. Diese Verarbeitung kann für den Entfernungsmesser (Kamera) 20 notwendig sein, um die Frequenz des in der Lichtquelleneinheit 10 verwendeten Takts abzuschätzen.
  • (Schritt S13)
  • Anschließend wird in Schritt S13 die Position oder Orientierung der Lichtquelleneinheit 10 abgeschätzt. Wie oben unter Bezugnahme auf 7 beschrieben wurde, enthält die Lichtquelleneinheit 10 eine Vielzahl von Lichtquellen a bis c. In Schritt S13 wird die Verarbeitung zum Abschätzen der Position jeder dieser Lichtquellen a bis c durchgeführt.
  • (Schritt S14)
  • Anschließend wird in Schritt S14 die Verarbeitung zur Messung des Abstands (Tiefe) des Objekts 30 ausgeführt. Konkret wird der Abstand vom Entfernungsmesser (Kamera) 20 zum Objekt 30 gemessen.
  • Außerdem wird für diese Verarbeitung die Verarbeitung ausgeführt, um einen der Taktphasendifferenz entsprechenden Offset C, das heißt einen Entfernungsmessfehler, zu berechnen, der aufgrund der Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt.
  • Die spezifischen Verarbeitungsoperationen dieser Schritte S11 bis S14 werden in dem späteren Abschnitt beschrieben.
  • Die in 11 veranschaulichte Prozedur ist darüber hinaus die grundlegende Prozedur der Verarbeitungssequenz, die vom Entfernungsmesser (Kamera) 20 der vorliegenden Offenbarung ausgeführt wird. Jedoch kann der Entfernungsmesser (Kamera) 20 der vorliegenden Offenbarung zusätzlich zu der in der in 11 veranschaulichten Prozedur ausgeführten Verarbeitung den Abstand (Tiefe) zum Objekt beispielsweise gemäß der Sequenz, wie sie in 12(a) und (b) dargestellt ist, berechnen.
  • In der in 12(a) veranschaulichten Prozedur sind die Schritte S11 bis S12 ähnlich den Schritten S11 bis S12 der in 11 veranschaulichten Prozedur.
  • In der in 12(a) veranschaulichten Prozedur wird nach der Verarbeitung zur Taktfrequenz-Synchronisierung in Schritt S12 die folgende Verarbeitung in Schritt S21 durchgeführt.
  • (Schritt S21)
  • In Schritt S21 werden die Verarbeitung zum Abschätzen der Position und Orientierung der Lichtquelleneinheit 10 und die Berechnungsverarbeitung für den Abstand zum Objekt, das heißt den Abstand vom Entfernungsmesser (Kamera) 20 zum Objekt 30, in Kombination zusammen ausgeführt.
  • Die Verarbeitung des Schritts S21 entspricht der Verarbeitung, die ausgeführt wird, indem die Verarbeitung des Schritts S13 und die Verarbeitung des Schritts S14 gemäß der in 11 veranschaulichten Prozedur in Kombination werden.
  • In der in 12(b) veranschaulichten Prozedur sind ferner Schritte S11 bis S13 ähnlich den Schritten S11 bis S13 der in 11 veranschaulichten Prozedur.
  • In der in 12(b) veranschaulichten Prozedur wird nach der Verarbeitung zur Abschätzung der Position und Orientierung der Lichtquelleneinheit 10 in Schritt S13 die unten beschriebene Verarbeitung in Schritt S31 durchgeführt.
  • (Schritt S31)
  • In Schritt S31 wird die Verarbeitung zum Messen des Abstands (Tiefe) zum Objekt ausgeführt, indem die Taktphasendifferenz, das heißt der Offset C, der auf der Phasendifferenz zwischen dem Sensortakt und dem Lichtquellentakt basiert, konkret der Wert des Entfernungsmessfehlers, der auf der Taktphasendifferenz basiert, verwendet wird.
  • Die gemäß der in 12(b) veranschaulichten Prozedur ausgeführte Verarbeitung ist die Prozedur, die in dem Fall ausgeführt wird, in dem der auf der Taktphasendifferenz basierende Offset C vorher berechnet und er im Speicher gespeichert wird.
  • Der Entfernungsmesser (Kamera) 20 der vorliegenden Offenbarung ist imstande, zusätzlich zu der gemäß der in 11 veranschaulichten Prozedur ausgeführten Verarbeitung den Abstand (Tiefe) zum Objekt beispielsweise gemäß der Sequenz, wie in 12(a) und (b) dargestellt ist, zu berechnen.
  • Die oben beschriebenen Verarbeitungsoperationen werden nun beschrieben.
  • [Verarbeitung zur Frame-Synchronisierung]
  • Die Verarbeitung zur Frame-Synchronisierung in Schritt S11, die unter Bezugnahme auf das in 11 veranschaulichte Flussdiagramm beschrieben wurde, wird nun im Detail beschrieben. Die Verarbeitung zur Frame-Synchronisierung ist eine Verarbeitung, in der der Lichtemissionszeitpunkt auf der Seite der Lichtquelleneinheit 10 für jeden/jede der Frames und Komponenten erfasst wird, die auf der Seite des Entfernungsmessers (Kamera) 20 erfasst werden.
  • Ein spezifisches Beispiel der Verarbeitung wird unter Bezugnahme auf 13 beschrieben.
  • Wie oben unter Bezugnahme auf 9 beschrieben wurde, emittieren die drei Lichtquellen a bis c der Lichtquelleneinheit 10 Lichtstrahlen sequentiell, indem die Zeitsteuerung bzw. der Zeitpunkt mit der gleichen Frequenz und Phase für den Takt der Lichtquelleneinheit geändert wird, der als der Referenztakt dient. Darüber hinaus wird eine Licht-Aus-Periode so eingestellt, dass es möglich ist, zu identifizieren, welche Lichtquelle gegenwärtig emittiert. Nach dem Ablauf der Licht-Aus-Periode lässt man die Lichtquellen Lichtstrahlen in der Reihenfolge der Lichtquelle a, der Lichtquelle b und der Lichtquelle c emittieren. Danach wiederholt sich ebenfalls nach einer vorbestimmten Licht-Aus-Periode die Lichtemission wieder in der Reihenfolge der Lichtquellen a bis c.
  • Auf diese Weise kann es in einem Fall, in dem die jeweiligen Lichtquellen in einem Zeitmultiplex sequentiell aufleuchten, notwendig sein, dass der Entfernungsmesser (Kamera) 20 identifiziert, wann und welche Lichtquelle Licht emittiert. Aus diesem Grund schaltet, wie im unteren Teil von 13 dargestellt ist, die Lichtquelleneinheit 10 die Lichtquellen mit einer Licht-Aus-Periode in regelmäßigen Intervallen sequentiell ein.
  • Außerdem wird angenommen, dass der Entfernungsmesser (Kamera) 20 vorher die Licht-Ein-Zeit, Licht-Ein-Reihenfolge und Länge der Licht-Aus-Periode jeder Lichtquelle überprüft. Der Entfernungsmesser (Kamera) 20 detektiert zunächst die erste Licht-Aus-Periode nach dem Beginn einer Bildaufnahme. Ist eine Detektion der Licht-Aus-Periode einmal möglich, wird dann bestimmt, welche Lichtquelle gegenwärtig aufleuchtet, indem die Periodizität (in der Reihenfolge der Lichtquellen a, b und c) betrachtet wird.
  • Die Verarbeitung zur Frame-Synchronisierung von Schritt S11 der in 11 veranschaulichten Prozedur ist die Verarbeitung, um zu bestimmen, welches ausgegebene gepulste Licht der Lichtquelleneinheit 10 vom Entfernungsmesser (Kamera) 20 empfangen wird.
  • [Verarbeitung zur Frequenz-Synchronisierung]
  • Die Verarbeitung zur Frequenz-Synchronisierung in Schritt S12, die unter Bezugnahme auf das in 11 veranschaulichte Flussdiagramm beschrieben wurde, wird nun im Detail beschrieben.
  • Die Verarbeitung in Schritt S12 ist die Verarbeitung zur Frequenz-Synchronisierung. Diese Verarbeitung wird genutzt, um die Frequenzabweichung zwischen dem auf der Seite des Entfernungsmessers (Kamera) 20 verwendeten Sensortakt und dem auf der Seite der Lichtquelleneinheit 10 verwendeten Takt der Lichtquelleneinheit zu überprüfen und einzustellen, um die Abweichung in den Frequenzen zu eliminieren. Diese Verarbeitung kann für den Entfernungsmesser (Kamera) 20 notwendig sein, um die Frequenz des in der Lichtquelleneinheit 10 verwendeten Takts abzuschätzen.
  • Ein spezifisches Beispiel dieser Verarbeitung wird unter Bezugnahme auf 14 beschrieben.
  • Diese Verarbeitung wird genutzt, um den Sensortakt (CLK2) auf der Seite des Entfernungsmessers (Kamera) 20 einzustellen, sodass der Sensortakt (CLK2) auf der Seite des Entfernungsmessers (Kamera) 20, der in 14 veranschaulicht ist, mit dem Takt (CLK1) der Lichtquelleneinheit auf der Seite der Lichtquelleneinheit 10 synchronisiert ist.
  • Die Lichtquelleneinheit 10 hat drei Lichtquellen a bis c; aber alle von ihnen nutzen den gleichen Takt (CLK1) der Lichtquelleneinheit, sodass irgendeine Lichtquelle verwendet werden kann, solange sie für die Einstellung genutzt wird. Beispielsweise wird eine beispielhafte Verarbeitung unter Verwendung des Ausgangslichts der Lichtquelle a beschrieben.
  • Wie in 14 veranschaulicht ist, wird das Ausgangslicht von der Lichtquelleneinheit 10 (Ausgangslicht der Lichtquelle a) vom Objekt 10 reflektiert und vom Entfernungsmesser (Kamera) 20 empfangen. Das empfangene Signal ist ein Frame mit den Komponenten, die im schematischen Teil (a1) auf der rechten Seite von 14 dargestellt sind. Mit anderen Worten ist es der Frame mit Komponenten, in denen die Akkumulierungsphasen wie oben unter Bezugnahme auf 3 und 4 beschrieben sequentiell (0, 90, 180 und 270 Grad) geändert sind.
  • Mehrere Frames mit diesen vier Komponenten werden in einer Zeitreihe erfasst.
  • Hier wird angenommen, dass der Entfernungsmesser (Kamera) 20, die Lichtquelleneinheit 10 und das Objekt 30 alle an einer festen Position bewegungslos sind.
  • In diesem Fall ist die Phasendifferenz φ zwischen dem gepulsten Licht, das von der Lichtquelle a der Lichtquelleneinheit 10 ausgegeben wird, und dem gepulsten Licht, das in den Entfernungsmesser (Kamera) 20 eingespeist wird, eine Phasendifferenz über die Zeit, in der das Licht den Weg von der Lichtquelleneinheit 10 über das Objekt 30 zum Entfernungsmesser (Kamera) 20 zurücklegt.
  • Es gibt den Fall, in dem der Entfernungsmesser (Kamera) 20, die Lichtquelleneinheit 10 und das Objekt 30 alle an einer festen Position bewegungslos sind und der Sensortakt (CLK2) auf der Seite des Entfernungsmessers (Kamera) 20 und der Takt (CLK1) der Lichtquelleneinheit auf der Seite der Lichtquelleneinheit 10 in der Frequenz übereinstimmen. In diesem Fall erwartet man, wie im schematischen Teil (a21) auf der rechten Seite von 14 dargestellt ist, dass die Phasendifferenz φ zwischen dem von der Lichtquelle a der Lichtquelleneinheit 10 ausgegebenen gepulsten Licht und dem in den Entfernungsmesser (Kamera) 20 eingespeisten gepulsten Licht in jedem in einer Zeitreihe erfassten Frame invariant ist.
  • Es kann jedoch den Fall geben, in dem der Sensortakt (CLK2) auf der Seite des Entfernungsmessers (Kamera) 20 und der Takt (CLK1) der Lichtquelleneinheit auf der Seite der Lichtquelleneinheit 10 in der Frequenz nicht übereinstimmen. Mit anderen Worten gibt es eine Abweichung. In diesem Fall wird, wie im schematischen Teil (a22) auf der rechten Seite von 14 dargestellt ist, die Phasendifferenz φ zwischen dem von der Lichtquelle a der Lichtquelleneinheit 10 ausgegebenen Impuls und dem in den Entfernungsmesser (Kamera) 20 eingespeisten Lichtimpuls mit der Verarbeitung der in einer Zeitreihe erfassten Frames variieren.
  • Falls man die Beobachtungsdaten wie im schematischen Teil (a22) von 14 erhält, bestimmt der Entfernungsmesser (Kamera) 20, dass es eine Abweichung in der Frequenz zwischen dem Sensortakt (CLK2) auf der Seite des Entfernungsmessers (Kamera) 20 und dem Takt (CLK1) der Lichtquelleneinheit auf der Seite der Lichtquelleneinheit 10 gibt. Der Entfernungsmesser (Kamera) 20 führt eine Verarbeitung zur Einstellung des Sensortakts durch, um die Abweichung zu eliminieren.
  • Die detaillierte Sequenz der Verarbeitung zur Einstellung des Sensortakts ist wie folgt.
  • Die Frequenzen zweier Takte mit einer Abweichung werden mit fL und fS bezeichnet,
    wobei fL die Frequenz des Takts der Lichtquelleneinheit ist und fS die Frequenz des Sensortakts ist.
  • In diesem Fall beträgt der Betrag einer Taktabweichung zwischen zwei Takten für T Sekunden ( f L f S ) T .
    Figure DE112019003952T5_0006
    Außerdem beträgt der Betrag einer Phasenabweichung zwischen zwei Takten für T Sekunden 2 π   ( f L + f S ) T .
    Figure DE112019003952T5_0007
  • Darüber hinaus beträgt der Betrag einer Phasenabweichung (Δφ) pro Einheitszeit (eine Sekunde) Δφ = 2 π   ( f L + f S ) .
    Figure DE112019003952T5_0008
    Der Betrag der Phasenabweichung (Δφ) pro Einheitszeit (eine Sekunde) entspricht der Steigung der in den schematischen Teilen (a21) und (a22) von 14 veranschaulichten grafischen Darstellungen.
  • Die in den schematischen Teilen (a21) und (a22) von 14 veranschaulichten Daten werden als die Beobachtungswerte des Entfernungsmessers (Kamera) 20 erhalten. Mit anderen Worten ist es möglich, den Betrag einer Phasenabweichung (Δφ) pro Einheitszeit (eine Sekunde) auf der Basis der Beobachtungsdaten zu erhalten.
  • Es ist möglich, die Differenz in der Frequenz zwischen zwei Takten (fL - fS) gemäß der oben beschriebenen Formel (Δφ = 2π (fL - fS)) zu berechnen, die auf der Basis des Betrags einer Phasenabweichung (Δφ) pro Einheitszeit (eine Sekunde) erhalten wird, die aus den Beobachtungsdaten erhalten wird, wie durch die folgende Formel ausgedrückt wird.   ( f L + f S ) = ( Δφ / 2 π )
    Figure DE112019003952T5_0009
  • Der Entfernungsmesser (Kamera) 20 führt eine Verarbeitung durch, um die Abweichung in der Frequenz zwischen dem Sensortakt und dem Takt der Lichtquelleneinheit (die Verarbeitung zur Frequenz-Synchronisierung) auf der Basis der Differenz in der Frequenz zwischen zwei Takten, die gemäß der oben beschriebenen Formel berechnet wird, zu eliminieren oder zu reduzieren. Eine Frequenz f's eines Sensortakts, die nach einer Einstellung neu aktualisiert wird, ist die gemäß der folgenden Formel erhaltene Frequenz. f ' S = f S +   ( Δφ / 2 π )
    Figure DE112019003952T5_0010
  • Wie oben beschrieben wurde, wird die Verarbeitung zur Frequenz-Synchronisierung in Schritt S12 der Prozedur von 11 ausgeführt. Konkret wird die Einstellungsverarbeitung ausgeführt, um die Abweichung in der Frequenz zwischen dem auf der Seite des Entfernungsmessers (Kamera) 20 genutzten Sensortakt und dem auf der Seite der Lichtquelleneinheit 10 genutzten Takt der Lichtquelleneinheit zu überprüfen, um die Abweichung in der Frequenz zu eliminieren.
  • Die Bestandteile und Verarbeitungssequenz, die verwendet werden, um die Verarbeitung zur Frequenz-Synchronisierung im Entfernungsmesser (Kamera) 20 auszuführen, werden nun unter Bezugnahme auf 15 und 16 beschrieben.
  • 15 ist ein Flussdiagramm, das die Verarbeitungssequenz einer Verarbeitung zur Frequenz-Synchronisierung veranschaulicht.
  • 16 ist ein Blockdiagramm einer Konfiguration ähnlich der Konfiguration des Entfernungsmessers (Kamera) 20, die oben unter Bezugnahme auf 10 beschrieben wurde, und die in der Verarbeitung zur Frequenz-Synchronisierung verwendeten Bestandteile sind mit einem dicken Rahmen dargestellt.
  • Die Verarbeitung jedes Schritts im Flussdiagramm von 15 wird unter Bezugnahme auf das in 16 veranschaulichte Blockdiagramm der Konfiguration beschrieben.
  • (Schritt S101)
  • In Schritt S101 wird zunächst ein Phasenbild φ (t, x) auf der Basis eines zur Zeit t erfassten Frame gemessen.
  • Diese Verarbeitung wird auf der Basis eines vom ToF-Sensor 202 eingegebenen Frame durch die in 16 veranschaulichte Einheit 204 zur Berechnung der Phasendifferenz ausgeführt.
  • Diese Verarbeitung entspricht der Verarbeitung zum Erfassen der Phasendifferenz φ zu einer Zeit t eines Frame 1 des schematischen Teils (a21) oder (a22) von 14, die oben unter Bezugnahme auf 14 beschrieben wurde. Außerdem repräsentiert x die Pixelposition des erfassten Bildes.
  • (Schritt S102)
  • Anschließend wird in einem Schritt S102 zunächst ein Phasenbild φ (t + Δt, x) auf der Basis eines zu einer Zeit t + Δt erfassten Frame gemessen.
  • Diese Verarbeitung wird ebenfalls auf der Basis eines vom ToF-Sensor 202 eingegebenen Frame durch die in 16 veranschaulichte Einheit 204 zur Berechnung der Phasendifferenz ausgeführt.
  • (Schritt S103)
  • Anschließend wird in einem Schritt S103 die im erfassten Frame enthaltene Position eines sich bewegenden Gegenstands detektiert.
  • Diese Verarbeitung wird in der in 16 veranschaulichten Einheit 203 zur Detektion sich bewegender Gegenstände ausgeführt.
  • Wie oben unter Bezugnahme auf 14 beschrieben wurde, kann es in dieser Verarbeitung zur Frequenz-Synchronisierung notwendig sein, dass die Lichtquelle, das Objekt und die Kamera (der ToF-Sensor) feste relative Positionen aufweisen. Falls sich beispielsweise das Objekt bewegt, schlägt die Durchführung einer Verarbeitung zur genauen Frequenz-Synchronisierung aucht unter Verwendung des reflektierten Lichts vom sich bewegenden Objekt fehl.
  • Die Verarbeitung von Schritt S103 wird durchgeführt, um das aufgenommene Pixel solch eines sich bewegenden Gegenstands aus dem zu verarbeitenden Objekt zu entfernen.
  • (Schritt S104)
  • Anschließend wird in Schritt S104 der Betrag einer Phasenabweichung Δφ (t, x) pro Einheitszeit (eine Sekunde) unter Verwendung des Phasenbildes φ (t, x) und des Phasenbildes φ (t + Δt, x), die in Schritten S101 bzw. S102 erfasst wurden, auf der Basis der folgenden Formel berechnet. Δφ ( t ,  x ) = ( φ ( t + Δ t ,  x ) φ ( t ,  x ) ) / Δ t
    Figure DE112019003952T5_0011
  • Wie oben beschrieben wurde, repräsentiert darüber hinaus x die Pixelposition des erfassten Bildes, und der Betrag einer Phasenabweichung Δφ (t, x) pro Einheitszeit (eine Sekunde) wird für jede Pixelposition berechnet.
  • Diese Verarbeitung wird in der in 16 veranschaulichten Einheit 204 zur Berechnung der Phasendifferenz ausgeführt. Darüber hinaus repräsentiert x die Pixelposition des erfassten Bildes.
  • (Schritt S105)
  • Anschließend wird in Schritt S105 bestimmt, ob die Verarbeitung der Schritte S101 bis S104 für die spezifizierte Anzahl von Malen als sich wiederholende Verarbeitungsoperationen einer Vielzahl von Frames abgeschlossen ist oder nicht.
  • Falls die spezifizierte Anzahl von Malen nicht erreicht ist, werden die Verarbeitungsoperationen von Schritt S101 und nachfolgenden Schritten wiederholt. Falls die spezifizierte Anzahl von Malen erreicht ist, geht die Verarbeitung zu Schritt S106 weiter.
  • (Schritt S106)
  • Anschließend werden in Schritt S106 Pixeln entsprechende Daten der Position des sich bewegenden Gegenstandes aus dem Betrag einer Phasenabweichung Δφ (t, x) für jedes Pixel, der in Schritt S104 berechnet wurde, entfernt und wird ein Durchschnittswert der Beträge der Phasenabweichung Δφ (t, x) entsprechend einem sich nicht bewegenden Gegenstand berechnet. Dieser Durchschnittswert wird als der Betrag einer Phasenabweichung (Δφ) pro Einheitszeit (eine Sekunde) verwendet.
  • Diese Verarbeitung wird in der in 16 veranschaulichten Einheit 210 zur Abschätzung des Taktabweichungsbetrags ausgeführt.
  • Darüber hinaus ist der Grund, warum die dem Pixel eines sich bewegenden Gegenstands entsprechenden Daten nicht einbezogen werden, dass, wenn sich das Objekt wie oben beschrieben bewegt, eine Durchführung einer Verarbeitung zur genauen Frequenz-Synchronisierung auch unter Verwendung des reflektierten Lichts vom sich bewegenden Objekt fehlschlägt.
  • (Schritt S107)
  • Anschließend wird in Schritt S107 eine neu eingestellte Sensortaktfrequenz f's, in der die gegenwärtige Sensortaktfrequenz fs mit der Frequenz des Takts der Lichtquelleneinheit im Wesentlichen übereinstimmt, gemäß der folgenden Formel berechnet. f ' S = f S +   ( Δφ / 2 π )
    Figure DE112019003952T5_0012
    Diese Verarbeitung wird in der in 16 veranschaulichten Einheit 210 zur Abschätzung des Taktabweichungsbetrags ausgeführt.
  • (Schritt S108)
  • In Schritt S108 wird schließlich die in Schritt S107 berechnete Sensortaktfrequenz f's auf die Frequenz des Sensortakts eingestellt.
  • Diese Verarbeitung wird unter Verwendung der in 16 veranschaulichten Einheit 211 zur Einstellung des Sensortakts ausgeführt.
  • Die gemäß der obigen Prozedur ausgeführte Verarbeitung eliminiert im Wesentlichen die Abweichung in der Frequenz zwischen dem Sensortakt (CLK2) auf der Seite des Entfernungsmessers (Kamera) 20 und dem Takt (CLK1) der Lichtquelleneinheit auf der Seite der Lichtquelleneinheit 10.
  • Außerdem ist in der vorliegenden Ausführungsform die Einheit 211 zur Einstellung des Takts auf der Seite des Entfernungsmessers (Kamera) 20 vorgesehen, um die Abweichung in der Frequenz zwischen dem Takt (CLK1) der Lichtquelleneinheit auf der Seite der Lichtquelleneinheit 10 und dem Sensortakt (CLK2) auf der Seite des Entfernungsmessers (Kamera) 20 zu eliminieren oder zu reduzieren. Beispielsweise kann die Einheit zur Einstellung des Takts auf der Seite der Lichtquelleneinheit 10 vorgesehen sein, um die Einstellung zum Eliminieren oder Reduzieren der Abweichung in der Frequenz zwischen zwei Takten auf der Seite der Lichtquelleneinheit 10 durchzuführen.
  • [Details einer Berechnungsverarbeitung der Position und Orientierung der Lichtquelleneinheit und spezifisches Verarbeitungsbeispiel beim Durchführen einer Abstandsberechnung zusammen mit einer Verarbeitung zur Berechnung der Position und Orientierung der Lichtquelleneinheit]
  • Die Verarbeitung zur Abschätzung der Position und Orientierung der Lichtquelleneinheit in Schritt S13, die unter Bezugnahme auf das in 11 veranschaulichte Diagramm beschrieben wurde, wird nun im Detail beschrieben.
  • In diesem Punkt wird darüber hinaus ein spezifisches Beispiel der Verarbeitung in Schritt S21, die unter Bezugnahme auf das in 12(a) veranschaulichte Flussdiagramm beschrieben wurde, das heißt die gemeinsame Verarbeitung zum Abschätzen der Position und Orientierung der Lichtquelleneinheit und der Abstandsberechnung beschrieben.
  • Die Verarbeitung der Prozedur, die in 11 in Schritt S13 veranschaulicht ist, ist eine Verarbeitung, in der die Position oder Orientierung der Lichtquelleneinheit 10 abgeschätzt wird. Wie oben unter Bezugnahme auf 7 beschrieben wurde, enthält die Lichtquelleneinheit 10 eine Vielzahl von Lichtquellen a bis c. In Schritt S13 wird die Verarbeitung zum Abschätzen der dreidimensionalen Position jeder dieser Lichtquellen a bis c durchgeführt.
  • Die Verarbeitung der Prozedur, die in 12(a) in Schritt S21 veranschaulicht wurde, das heißt eine Verarbeitung zum Abschätzen der Position und Orientierung der Lichtquelleneinheit 10 und die Berechnungsverarbeitung für den Abstand zum Objekt, das heißt den Abstand vom Entfernungsmesser (Kamera) 20 zum Objekt 30, werden in Kombination zusammen ausgeführt.
  • Die Verarbeitung von Schritt S21 entspricht der Verarbeitung, die ausgeführt wird, indem die Verarbeitung von Schritt S13 und die Verarbeitung von Schritt S14 gemäß der in 11 veranschaulichten Prozedur in Kombination werden.
  • Das spezifische Beispiel der oben beschriebenen Verarbeitung wird unter Bezugnahme auf 17 und andere Figuren beschrieben.
    17 und 18 sind Diagramme, die veranschaulicht sind, um die Verarbeitungsprozedur einer Abschätzung der Position und Orientierung der Lichtquelleneinheit zu beschreiben. Darüber hinaus wird die Verarbeitung zur Abschätzung einer Position und Orientierung der Lichtquelleneinheit unter den folgenden Vorbedingungen ausgeführt:
    1. (a) ein Lichtquellen-Koordinatensystem, das das Koordinatensystem der Lichtquelleneinheit ist, ist definiert und, wenn es nicht definiert ist, wird es definiert; die relative Position zwischen dem Lichtquellen-Koordinatensystem und dem Kamera-Koordinatensystem ist jedoch unbekannt,
    2. (b) eine relative Position jeder Lichtquelle in der Lichtquelleneinheit ist bekannt; mit anderen Worten kennt das Lichtquellen-Koordinatensystem jede Lichtquellenposition,
    3. (c) der Ort der gesamten Lichtquelleneinheit ist unbekannt und
    4. (d) Taktfrequenzen des Lichtquellentakts und des Sensortakts stimmen im Wesentlichen überein (Einstellung abgeschlossen) oder eine Abweichung ist bekannt; die Phasenabweichung bleibt jedoch bestehen.
  • Unter diesen Vorbedingungen wird die Verarbeitung zur Abschätzung der Position und Orientierung der Lichtquelleneinheit 10, konkret die Verarbeitung zur Abschätzung der dreidimensionalen Position jeder der Vielzahl von Lichtquellen, die in der Lichtquelleneinheit 10 vorgesehen sind, durchgeführt.
  • Die Verarbeitung zur Abschätzung der Lichtquellenposition wird außerdem in der Einheit 206 zur Abschätzung der Lichtquellenposition des Entfernungsmessers (Kamera) 20 durchgeführt, die in 10 veranschaulicht ist. Die spezifische Konfiguration der Einheit 206 zur Abschätzung der Lichtquellenposition wird unter Bezugnahme auf 20 im späteren Abschnitt beschrieben.
  • Die Einheit 206 zur Abschätzung der Lichtquellenposition führt zunächst die erste Hälfte (Prozedurschritt (S1)) der im beschreibenden Teil (1) von 17 dargestellten Prozedur der Verarbeitung zur Abschätzung der Lichtquellenposition aus.
  • Mit anderen Worten wird im Prozedurschritt (S1) der Abstand (eine Entfernung zwischen dem Entfernungsmesser (Kamera) 20 und jeweiligen Lichtquellen a bis c) unter Verwendung des Frame berechnet, der auf der Basis des Lichtempfangsimpulses des von den jeweiligen Lichtquellen a bis c der Lichtquelleneinheit 10 emittierten Impulses erfasst wird.
  • Der Abstand zwischen den jeweiligen Lichtquellen a bis c und dem Entfernungsmesser (Kamera) 20 wird durch (Formel 11) unten ausgedrückt.
    [Math. 1] O b s ( u D , E 1 ) = | O D | + | D E 1 | + C O b s ( u D , E 2 ) = | O D | + | D E 2 | + C O b s ( u D , E 3 ) = | O D | + | D E 3 | + C
    Figure DE112019003952T5_0013
  • Man beachte, dass der Parameter in Vektornotation in (Formel 11) oben (Parameter, die mit einem Pfeil „“ über jedem Parameter repräsentiert werden) einen Vektor vom Ursprung eines Koordinatensystems, zum Beispiel des Lichtquellen-Koordinatensystems, angibt. Außerdem geben die Parameter in der obigen (Formel 11) das Folgende an:
    • C ist ein Offset-Term, der dem Entfernungsmessfehler entspricht, der durch die Phasenabweichung zwischen Takten der Lichtquelleneinheit 10 und des Entfernungsmessers (Kamera) 20 verursacht wird,
    • Obs (uD, E1) ist der Abstand, der an einer Pixelposition uD beim Emittieren von Licht durch die Lichtquelle a, die an einer Position E1 gelegen ist, beobachtet wird,
    • Obs (uD, E2) ist der Abstand, der an einer Pixelposition uD beim Emittieren von Licht durch die Lichtquelle b, die an einer Position E2 gelegen ist, beobachtet wird,
    • Obs (uD, E3) ist der Abstand, der an einer Pixelposition uD beim Emittieren von Licht durch die Lichtquelle c, die an einer Position E3 gelegen ist, beobachtet wird,
    • uD = (uD, vD) ist die Pixelposition, wo ein Punkt D projiziert wird,
    • |OD| ist die Größe (Abstand) des Vektors, der den Entfernungsmesser (Kamera) 20 und das Objekt 30 verbindet. Man beachte, dass O der Ursprung des Kamera-Koordinatensystems ist, welches das Koordinatensystem des Entfernungsmessers (Kamera) 20 ist, und D die Position ist, wo das Licht von der Lichtquelle vom Objekt 30 reflektiert wird, und
    • |DEn| ist die Größe (Abstand) des Vektors, der jede Lichtquelle an einer Position En und die reflektierte Position am Objekt 30 verbindet.
  • Man beachte, dass die Vektornotation in der Beschreibung oben für die Formeln weggelassen wird. Außerdem wird die Vektornotation in der Beschreibung hierin weggelassen.
  • Wie oben beschrieben wurde, berechnet im Prozedurschritt (S1) die Einheit 206 zur Abschätzung der Lichtquellenposition als drei Formeln zur Abstandsberechnung von den in der Lichtquelleneinheit 10 vorgesehenen drei Lichtquellen a bis c zum Entfernungsmesser (Kamera) 20
    drei Formeln zur Abstandsberechnung mit Daten, die im Folgenden in (a) bis (c) angeführt sind:
    1. (a) Abstandsdaten |OD| zwischen einem Entfernungsmesser und einem Objekt,
    2. (b) Abstandsdaten |DEn| zwischen einem Objekt und Lichtquellen und
    3. (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt.
  • Anschließend führt die Einheit 206 zur Abschätzung der Lichtquellenposition die zweite Hälfte (Prozedurschritt (S2 bis S3)) der im beschreibenden Teil (1) von 18 dargestellten Prozedur einer Verarbeitung zur Abschätzung der Lichtquellenposition aus.
  • Mit anderen Worten wird im Prozedurschritt (S2) für die Differenz zwischen drei Abständen Obs (uD, E1), Obs (uD, E2) und Obs (uD, E3), die im Prozedurschritt (S1) berechnet wurden, eine simultane Gleichung einer Berechnungsformel erzeugt, welche die unten in (Formel 12) dargestellte simultane Gleichung ist.
    [Math. 2] O b s ( u D , E 1 ) O b s ( u D , E 2 ) = | D E 1 | + | D E 2 | O b s ( u D , E 2 ) O b s ( u D , E 3 ) = | D E 2 | + | D E 3 | O b s ( u D , E 3 ) O b s ( u D , E 1 ) = | D E 3 | + | D E 1 |
    Figure DE112019003952T5_0014
  • Anschließend werden im Prozedurschritt (S3) die oben erwähnten simultanen Gleichungen gelöst, um eine Vielzahl von Gegenstandspositionen LDk im Lichtquellen-Koordinatensystem und ihre entsprechenden Pixelpositionen uk zu bestimmen.
  • Die Positionen der Lichtquellen aus Sicht der Kamerakoordinaten sind unbekannt, sodass eine Lösung dieser Gleichung ohne irgendeine Modifikation im Kamera-Koordinatensystem fehlschlägt. Jedoch sind die Positionen der Lichtquellen im Lichtquellen-Koordinatensystem bekannt, sodass es möglich ist, die Gleichung im Lichtquellen-Koordinatensystem zu lösen.
  • Das Lösen der in der Formel 12 oben dargestellten simultanen Gleichungen unter Verwendung des Lichtquellen-Koordinatensystems macht es möglich, eine Vielzahl von Gegenstandspositionen LDk im Lichtquellen-Koordinatensystem und ihre entsprechenden Pixelpositionen uk zu bestimmen.
  • In diesem Beispiel enthält außerdem die Vielzahl von Gegenstandspositionen LDk beispielsweise die jeweiligen Positionen E1, E2 und E3 der Lichtquellen a, b und c der Lichtquelleneinheit 10 und die Oberflächenpositionen des Objekts 30.
  • Falls die Korrespondenz zwischen einer Vielzahl von Punkten in einem Koordinatensystem und durch die Kamera projizierten Pixelpositionen bekannt ist, ist es typischerweise außerdem möglich, die relative Position und Orientierung zwischen dem Koordinatensystem und dem Kamera-Koordinatensystem zu bestimmen.
  • Mit anderen Worten ermöglicht eine Lösung des sogenannten Perspective-in-Point- (PnP-) Problems, die relative Beziehung zwischen dem Lichtquellen-Koordinatensystem und dem Kamera-Koordinatensystem abzuleiten, wobei die Gegenstandsposition im Lichtquellen-Koordinatensystem in das Kamera-Koordinatensystem umgewandelt wird.
  • Diese Verarbeitung macht es möglich, die Gegenstandsposition LDk im Kamera-Koordinatensystem und deren entsprechende Pixelposition uk zu bestimmen. Somit ist es im Kamera-Koordinatensystem möglich, die jeweiligen Positionen E1, E2 und E3 der Lichtquellen a, b und c und ihre Oberflächenpositionen auf dem Objekt 30 aus den Positionen erfasster Pixel in den Lichtquellen a bis c zu bestimmen. Die Bestimmung der Oberflächenposition des Objekts 30 im Kamera-Koordinatensystem macht es möglich, den Abstand zum Objekt 30, das heißt den Abstand zwischen dem Entfernungsmesser (Kamera) 20 und dem Objekt, zu berechnen.
  • Die detaillierte Konfiguration der Einheit 206 zur Abschätzung der Lichtquellenposition des Entfernungsmessers (Kamera) 20 und die Verarbeitungssequenz der Verarbeitung zur Abschätzung der Position und Orientierung der Lichtquelle und der Verarbeitung zur Berechnung der Gegenstandsposition (d. h. die Verarbeitung zur Abstandsberechnung) werden nun unter Bezugnahme auf 19 und 20 beschrieben.
  • 19 ist ein Flussdiagramm, das veranschaulicht ist, um die Verarbeitungssequenz der Verarbeitung zur Abschätzung der Position und Orientierung der Lichtquelle und der Verarbeitung zur Berechnung der Gegenstandsposition (d. h. der Verarbeitung zur Abstandsberechnung) zu beschreiben.
  • 20 ist ein Diagramm, das die detaillierte Konfiguration der Einheit 206 zur Abschätzung der Lichtquellenposition des Entfernungsmessers (Kamera) 20 veranschaulicht, die oben unter Bezugnahme auf 10 beschrieben wurde.
  • Die Verarbeitung jedes Schritts im Flussdiagramm von 19 wird unter Bezugnahme auf das in 20 veranschaulichte Blockdiagramm der Konfiguration beschrieben.
  • (Schritt S201)
  • Schritt S201 berechnet zunächst einen Abstand (den Abstand zwischen den Lichtquellen a bis c und dem Entfernungsmesser (Kamera) 20) unter Verwendung eines auf der Basis des Ausgangslichts von einer Lichtquelle unter den Lichtquellen a bis c der Lichtquelleneinheit 10 erfassten Frame, das heißt des Lichtempfangsimpulses des Emissionsimpulses.
  • Der Abstand zwischen den jeweiligen Lichtquellen a bis c und dem Entfernungsmesser (Kamera) 20 wird durch die oben beschriebene (Formel 11) ausgedrückt.
    [Math. 3] O b s ( u D , E 1 ) = | O D | + | D E 1 | + C O b s ( u D , E 2 ) = | O D | + | D E 2 | + C O b s ( u D , E 3 ) = | O D | + | D E 3 | + C
    Figure DE112019003952T5_0015
  • Wie oben beschrieben wurde, berechnet im Prozedurschritt S201 die Einheit 206 zur Abschätzung der Lichtquellenposition als drei Formeln zur Abstandsberechnung von den drei, in der Lichtquelleneinheit 10 vorgesehenen Lichtquellen a bis c zum Entfernungsmesser (Kamera) 20
    drei Formeln zur Abstandsberechnung mit Daten, die unten in (a) bis (c) angeführt sind:
    1. (a) Abstandsdaten | OD | zwischen einem Entfernungsmesser und einem Objekt,
    2. (b) Abstandsdaten |DEn| zwischen einem Objekt und Lichtquellen und
    3. (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen Sensortakt und Lichtquellentakt auftritt.
  • 20 ist ein Diagramm, das die detaillierte Konfiguration der Einheit 206 zur Abschätzung der Lichtquellenposition des Entfernungsmessers (Kamera) 20 veranschaulicht. Die Speicher 205 für Phasenbilder 1 bis 3 entsprechen dem in 10 veranschaulichten Speicher 205 für Phasenbilder und sind in 20 als Speicher, die die den jeweiligen Lichtquellen a bis c entsprechenden Phasenbilder speichern, individuell veranschaulicht.
  • Die Verarbeitung von Schritt S201 wird in einer in 20 veranschaulichten Einheit 251 zur Phase-Abstand-Umwandlung ausgeführt.
  • (Schritt S202)
  • Schritt S202 bestimmt, ob die Erfassung einer Abstandsinformation für alle Lichtquellen abgeschlossen ist oder nicht.
  • Wenn die Erfassung der Abstandsinformation für alle Lichtquellen nicht abgeschlossen ist, kehrt die Verarbeitung zu Schritt S201 zurück und wird die Verarbeitung zur Erfassung der Abstandsinformation für die zu verarbeitenden Lichtquellen ausgeführt.
  • Falls die Erfassung der Abstandsinformation für alle Lichtquellen abgeschlossen ist, geht die Verarbeitung zu Schritt S203 weiter.
  • (Schritt S203)
  • In Schritt S203 wird die Verarbeitung, um die Position einer Vielzahl von Punkten von Interesse (Gegenständen) im Lichtquellen-Koordinatensystem und die Koordinaten der Punkte auf dem Bild zu bestimmen, durchgeführt.
  • Diese Verarbeitung entspricht der oben beschriebenen Verarbeitung (Schritte S2 bis S3) von 18.
  • Mit anderen Worten wird zunächst für die Differenz zwischen den Abständen entsprechend den drei Lichtquellen Obs (uD, E1), Obs (uD, E2) und Obs (uD, E3), die in Schritt S201 berechnet wurden, eine simultane Gleichung von Berechnungsformeln erzeugt, welche die in der oben beschriebenen (Formel 12) dargestellte simultane Gleichung ist.
    [Math. 4] O b s ( u D , E 1 ) O b s ( u D , E 2 ) = | D E 1 | | D E 2 | O b s ( u D , E 2 ) O b s ( u D , E 3 ) = | D E 2 | | D E 3 | O b s ( u D , E 3 ) O b s ( u D , E 1 ) = | D E 3 | | D E 1 |
    Figure DE112019003952T5_0016
  • Darüber hinaus wird diese Verarbeitung zur Differenzberechnung in einer in 20 veranschaulichten Einheit 252 zu Differenzberechnung ausgeführt.
  • Die durch die Einheit 252 zur Differenzberechnung berechneten Differenzdaten werden an eine Einheit 253 zur Berechnung der Gegenstandsposition ausgegeben. Die Einheit 253 zur Berechnung der Gegenstandsposition löst die simultane Gleichung, um eine Vielzahl von Gegenstandspositionen LDk im Lichtquellen-Koordinatensystem und ihre entsprechenden Pixelpositionen uk zu berechnen.
  • Wie oben unter Bezugnahme auf 18 beschrieben wurde, sind die Positionen der Lichtquellen aus Sicht der Kamerakoordinaten unbekannt, sodass eine Lösung dieser Gleichung ohne jegliche Modifikation im Kamera-Koordinatensystem fehlschlägt. Jedoch sind die Positionen der Lichtquellen im Lichtquellen-Koordinatensystem bekannt, sodass es möglich ist, die Gleichung im Lichtquellen-Koordinatensystem zu lösen.
  • Das Lösen der in der obigen Formel 12 dargestellten simultanen Gleichungen unter Verwendung des Lichtquellen-Koordinatensystems macht es möglich, eine Vielzahl von Gegenstandspositionen LDk im Lichtquellen-Koordinatensystem und ihre entsprechenden Pixelpositionen uk zu bestimmen.
  • Außerdem umfasst in diesem Beispiel die Vielzahl von Gegenstandspositionen LDk beispielsweise die jeweiligen Positionen E1, E2 und E3 der Lichtquellen a, b und c der Lichtquelleneinheit 10 und die Oberflächenpositionen des Objekts 30.
  • (Schritt S204 bis S205)
  • Wie oben unter Bezugnahme auf 18 beschrieben wurde, ist es, falls die Korrespondenz zwischen einer Vielzahl von Punkten in einem Koordinatensystem und Pixelpositionen, die durch die Kamera projiziert werden, bekannt ist, typischerweise möglich, die relative Position und Orientierung zwischen dem Koordinatensystem und dem Kamera-Koordinatensystem zu bestimmen.
  • Zunächst ermöglicht das Lösen des Perspective-in-Point-(PnP-) Problems, die relative Beziehung zwischen dem Lichtquellen-Koordinatensystem und dem Koordinatensystem abzuleiten.
  • Diese Verarbeitung wird in einer in 20 veranschaulichten Einheit 254 zur Abschätzung der Positionsbeziehung Lichtquelle-Kamera ausgeführt. Die Einheit 254 zur Abschätzung der Positionsbeziehung Lichtquelle-Kamera erhält die Lichtquellenposition im Lichtquellen-Koordinatensystem, die im Speicher 207 für die Lichtquellenposition im Lichtquellen-Koordinatensystem gespeichert ist, um das Perspective-inpoint- (PnP-) Problem zu lösen, um das Lichtquellen-Koordinatensystem zu erhalten. Somit leitet die Einheit 254 zur Abschätzung einer Positionsbeziehung Lichtquelle-Kamera die relative Beziehung mit dem Kamera-Koordinatensystem ab und speichert das Ergebnis in der DB 256 für Relativpositionen der Kamera-Lichtquellen-Koordinatensysteme. Diese Information wird an eine Einheit 257 zur Koordinatenumwandlung ausgegeben.
  • Anschließend wird in Schritt S205 die Gegenstandsposition im Lichtquellen-Koordinatensystem in Werte im Kamera-Koordinatensystem umgewandelt. Diese Verarbeitung wird in der Einheit 257 zur Koordinatenumwandlung ausgeführt.
  • Diese Verarbeitung macht es möglich, die Gegenstandsposition LDk im Kamera-Koordinatensystem und dessen entsprechende Pixelposition uk zu bestimmen. Somit ist es im Kamera-Koordinatensystem möglich, die jeweiligen Positionen E1, E2 und E3 der Lichtquellen a, b und c und ihre Oberflächenpositionen auf dem Objekt 30 aus den Positionen aufgenommener Pixel der Lichtquellen a bis c zu bestimmen und den Abstand zum Objekt 30, das heißt den Abstand zwischen dem Entfernungsmesser (Kamera) 20 und dem Objekt, zu berechnen.
  • Außerdem wird diese Verarbeitung zur Berechnung des Abstands (Tiefe) in der Einheit 220 zur Berechnung des Abstands (Tiefe) des Entfernungsmessers (Kamera) 20 ausgeführt, die unter Bezugnahme auf 10 beschrieben wurde.
  • [Spezifisches Verarbeitungsbeispiel beim Durchführen einer Verarbeitung zur Offset-Berechnung, basierend auf einer Verarbeitung zur Berechnung der Taktphasendifferenz und des Objektabstands (Tiefe)]
  • Nun wird ein spezifisches Verarbeitungsbeispiel in dem Fall beschrieben, in dem die Verarbeitung des Schritts S14, die unter Bezugnahme auf das in 11 veranschaulichte Flussdiagramm beschrieben wurde, das heißt die Verarbeitung zur Offset-Berechnung basierend auf der Verarbeitung zur Berechnung der Taktphasendifferenz und des Objektabstands (Tiefe) durchgeführt wird.
  • Die Verarbeitung der Prozedur, die in 11 in Schritt S14 veranschaulicht ist, ist eine Verarbeitung für die Verarbeitung zur Messung des Abstands (Tiefe) des Objekts 30, das heißt die Verarbeitung, um den Abstand vom Entfernungsmesser (Kamera) 20 zum Objekt 30 zu messen. Darüber hinaus wird für diese Verarbeitung die Verarbeitung ausgeführt, um einen der Taktphasendifferenz entsprechenden Offset C zu berechnen, das heißt einen Entfernungsmessfehler, der aufgrund der Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt.
  • Darüber hinaus kann diese Verarbeitung auch für die mit zwei Lichtquellen versehene Lichtquelleneinheit 10 ausgeführt werden. Mit anderen Worten ist die Lichtquelleneinheit 10 implementierbar, solange sie zwei oder mehr Lichtquellen enthält.
  • Das spezifische Beispiel der oben beschriebenen Verarbeitung wird unter Bezugnahme auf 21 und andere Figuren beschrieben.
    Die Verarbeitung zur Berechnung der Phasendifferenz zwischen dem Takt auf der Seite der Lichtquelleneinheit 10 und dem Takt auf der Seite des Entfernungsmessers (Kamera) 20 wird unter den folgenden Vorbedingungen ausgeführt:
    1. (a) die Position jeder Lichtquelle der Lichtquelleneinheit 10 ist im Kamera-Koordinatensystem bekannt und
    2. (b) der Takt der Lichtquelleneinheit der Lichtquelleneinheit 10 und der Sensortakt auf der Seite des Entfernungsmessers (Kamera) 20 stimmen in der Frequenz im Wesentlichen überein oder ihre Frequenzen werden abgeschätzt.
  • Unter diesen Vorbedingungen wird die Verarbeitung zur Berechnung der Phasendifferenz für den Takt auf der Seite des Entfernungsmessers (Kamera) 20 ausgeführt und ferner der Abstand zu einem Gegenstand wie etwa dem Objekt 30 berechnet.
  • Außerdem wird die Verarbeitung zur Berechnung der Taktphasendifferenz in der Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) des Entfernungsmessers (Kamera) 20, die in 10 veranschaulicht wurde, ausgeführt. Die Abstandsberechnung wird in der Einheit 220 zur Berechnung des Abstands (Tiefe) durchgeführt.
  • Außerdem berechnet die Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) die Phasendifferenz mit dem Takt auf der Seite des Entfernungsmessers (Kamera) 20 oder den Offset C, der dem Entfernungsmessfehler entspricht, der auf der Phasendifferenz basiert. Die Einheit 220 zur Berechnung des Abstands (Tiefe) verwendet diesen Offset C, um den Abstand zum Objekt 30 zu berechnen.
  • Der Offset C ist der Offset C, der einem Fehlerbetrag beim Berechnen des Abstands basierend auf der Phasendifferenz zwischen dem Sensortaktgeber 201 und dem Taktgeber 101 der Lichtquelleneinheit entspricht, und hat den Wert ähnlich dem Offset C von (Formel 11), der in dem oben unter Bezugnahme auf 17 beschriebenen Prozedurschritt (S1) verwendet wurde.
  • Es ist möglich, die Verarbeitung zur Berechnung der Phasendifferenz mit dem Takt auf der Seite des Entfernungsmessers (Kamera) 20 und die Verarbeitung zur Berechnung des Gegenstandsabstands des Objekts 30 oder dergleichen unter Verwendung allein der Lichtemissionsimpulse von den beiden Lichtquellen der Lichtquelleneinheit 10 auszuführen.
  • Wie oben beschrieben wurde, ist diese Verarbeitung nicht nur in der Konfiguration, in der die Lichtquelleneinheit 10 drei Lichtquellen aufweist, sondern auch in der Konfiguration mit nur zwei Lichtquellen ausführbar.
  • 21 veranschaulicht nur die beiden Lichtquellen a und b der Lichtquelleneinheit 10.
  • Die beiden Lichtquellen sind die an einer Position E1 gelegene Lichtquelle a und die an einer Position E2 gelegene Lichtquelle b. Außerdem wird angenommen, dass die Positionen im Kamera-Koordinatensystem mit einem Ursprung O an der Position des Entfernungsmessers (Kamera) 20, die in 21 veranschaulicht ist, erfasst werden.
  • Der schematische Teil auf der rechten Seite von 21 zeigt einen Überblick über die „(1) Verarbeitung zur Berechnung des Abstands (Tiefe)“, die von der Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) und der Einheit 220 zur Berechnung des Abstands (Tiefe) ausgeführt wird.
  • Zunächst wird im Prozedurschritt (S1) der Abstand (eine Entfernung zwischen dem Entfernungsmesser (Kamera) 20 und jeweiligen Lichtquellen a und b) unter Verwendung des Frame berechnet, der auf der Basis des Lichtempfangsimpulses des von den beiden Lichtquellen a und b der Lichtquelleneinheit 10 emittierten Impulses erfasst wird.
  • Der Abstand zwischen den jeweiligen Lichtquellen a und b und dem Entfernungsmesser (Kamera) 20 wird durch (Formel 21) unten ausgedrückt.
    [Math. 5] O b s ( u D , E 1 ) = | O D | + | D E 1 | + C O b s ( u D , E 2 ) = | O D | + | D E 2 | + C
    Figure DE112019003952T5_0017
  • Man beachte, dass der Parameter in Vektornotation in (Formel 21) oben (Parameter, die mit dem Pfeil „→“ oberhalb jedes Parametes repräsentiert werden) einen Vektor vom Ursprung eines Koordinatensystems, zum Beispiel des Kamera-Koordinatensystems, angibt. Außerdem geben die Parameter in (Formel 21) oben das Folgende an:
    • C ist ein Offset-Term, der dem Entfernungsmessfehler entspricht, der durch die Phasenabweichung zwischen Takten der Lichtquelleneinheit 10 und des Entfernungsmessers (Kamera) 20 verursacht wird,
    • Obs (uD, E1) ist der Abstand, der an einer Pixelposition uD beim Emittieren von Licht durch die Lichtquelle a, die an einer Position E1 gelegen ist, beobachtet wird,
    • Obs (uD, E2) ist der Abstand, der an einer Pixelposition uD beim Emittieren von Licht durch die Lichtquelle b, die an einer Position E2 gelegen ist, beobachtet wird,
    • uD = (uD, vD) ist die Pixelposition, wo ein Punkt D projiziert wird,
    • | OD | ist die Größe (Abstand) des Vektors, der den Entfernungsmesser (Kamera) 20 und das Objekt 30 verbindet. Man beachte, dass O der Ursprung des Kamera-Koordinatensystems ist, welches das Koordinatensystem des Entfernungsmessers (Kamera) 20 ist, und D die Position ist, wo das Licht von der Lichtquelle vom Objekt 30 reflektiert wird, und
    • | DEn | ist die Größe (Abstand) des Vektors, der jede Lichtquelle an einer Position En und die reflektierte Position am Objekt 30 verbindet.
  • Man beachte, dass die Vektornotation in der Beschreibung oben für die Formeln weggelassen ist.
  • Wie oben beschrieben wurde, berechnet im Prozedurschritt (S1) die Einheit 220 zur Berechnung des Abstands (Tiefe) als zwei Formeln zur Abstandsberechnung von den in der Lichtquelleneinheit 10 vorgesehenen zwei Lichtquellen a und b zum Entfernungsmesser (Kamera) 20
    zwei Formeln zur Abstandsberechnung mit Daten, die in (a) bis (c) unten angeführt sind:
    1. (a) Abstandsdaten | OD | zwischen einem Entfernungsmesser und einem Objekt,
    2. (b) Abstandsdaten |DEn| zwischen einem Objekt und Lichtquellen und
    3. (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen einem Sensortakt und einem Lichtquellentakt auftritt.
  • Anschließend wird im Prozedurschritt (S2) eine Berechnungsformel für eine Differenz zwischen zwei Abständen Obs (uD, E1) und Obs (uD, E2), die im Prozedurschritt (S1) berechnet wurden, erzeugt, welche die als Formel 22 unten ausgedrückte Formel zur Differenzberechnung ist.
    [Math. 6] O b s ( u D , E 1 ) O b s ( u D , E 2 ) = | D E 1 | | D E 2 |
    Figure DE112019003952T5_0018
  • Die Erzeugung dieser Formel zur Differenzberechnung ermöglicht es, den Offset-Term C zu eliminieren, der in der im Prozedurschritt (S1) erzeugten Formel zur Abstandsberechnung enthalten ist, das heißt den Offset-Term C, der dem Entfernungsmessfehler entspricht, der durch die Phasenabweichung zwischen Takten der Lichtquelleneinheit 10 und des Entfernungsmessers (Kamera) 20 verursacht wird.
  • Anschließend wird im Prozedurschritt (S3) der Abstand zum Objekt 30, das heißt der Abstand D zwischen dem Entfernungsmesser (Kamera) 20 und dem Objekt 30 berechnet.
  • In dieser Verarbeitung wird zunächst ein Einheitsvektor d in der Richtung eines Vektors OD vom Ursprung O des Entfernungsmessers (Kamera) 20 zur Oberfläche D des Objekts 30 bestimmt und wird die Formel 23 unten erzeugt.
    [Math. 7] O D = D d
    Figure DE112019003952T5_0019
  • (Formel 23) ist eine lineare Gleichung, die durch eine den Entfernungsmesser (Kamera) 20 und das Objekt 30 verbindende Linie gebildet wird.
  • Auf diese Weise erzeugt im Prozedurschritt (S3) die Einheit 220 zur Berechnung des Abstands (Tiefe)
    (d) eine lineare Gleichung, die durch eine den Entfernungsmesser (Kamera) 20 und das Objekt 30 verbindende Linie gebildet wird.
  • Anschließend wird die Position (x, y, z) der Oberfläche D des Objekts 30 berechnet, indem (Formel 23) und die Formel zur Berechnung der Abstandsdifferenz (Formel 22), die vorher im Prozedurschritt (S2) erzeugt wurde, verwendet werden, und auf der Basis der Position (x, y, z) wird der Abstand D berechnet.
  • Die Verarbeitung der Prozedurschritte S1 bis S3 kann wie folgt zusammengefasst werden.
  • Im Prozedurschritt (S1) erzeugt die Einheit 220 zur Berechnung des Abstands (Tiefe) als zwei Formeln zur Abstandsberechnung von den in der Lichtquelleneinheit 10 vorgesehenen, zumindest zwei Lichtquellen zum Entfernungsmesser (Kamera) 20
    zwei Formeln zur Abstandsberechnung mit Daten, die in (a) bis (c) unten angeführt sind:
    1. (a) Abstandsdaten zwischen dem Entfernungsmesser und dem Objekt,
    2. (b) Abstandsdaten zwischen dem Objekt und Lichtquellen der Lichtquelleneinheit und
    3. (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen einem Sensortakt und einem Lichtquellentakt auftritt.
  • Darüber hinaus wird im Prozedurschritt (S2) eine Formel zur Differenzberechnung, um die Differenz zwischen den Formeln zur Abstandsberechnung zu berechnen, erzeugt.
  • Darüber hinaus wird im Prozedurschritt (S3)
    (d) eine lineare Gleichung erzeugt, die durch eine den Entfernungsmesser und das Objekt verbindende Linie bestimmt ist, und
    werden die Formel zur Differenzberechnung und die lineare Gleichung als simultane Gleichungen gelöst, um den Abstand zwischen dem Entfernungsmesser (Kamera) 20 und dem Objekt 30 zu berechnen.
  • Diese Verarbeitung wird unter Bezugnahme auf 22 beschrieben.
  • Die Formel zur Berechnung der Abstandsdifferenz (Formel 22), die im Prozedurschritt (S2) erzeugt wurde, entspricht einer Gleichung, die eine Seite eines zweischaligen Hyperboloids bezüglich der jeweiligen Positionen E1 und E2 der Lichtquellen a und b als Brennpunkte angibt. Der Einfachheit halber wird darauf hierin als Hyperboloid verwiesen.
  • Auf der anderen Seite entspricht die im Prozedurschritt (S3) erzeugte (Formel 23) einer Gleichung, die eine gerade Linie angibt, die den Ursprung O des Entfernungsmessers (Kamera) 20 und die Oberfläche D des Objekts 30 verbindet.
  • Wie im beschreibenden Teil (A) von 22 veranschaulicht ist,
    werden zwei Gleichungen der Formel zur Differenzberechnung (Formel 22), die der Hyperboloid-Gleichung entspricht, und der (Formel 23), die der linearen Gleichung entspricht, als simultane Gleichung gelöst. Somit ist es möglich, einen Punkt, der den beiden Gleichungen genügt, das heißt einen Schnittpunkt zu berechnen, wie im schematischen Teil (B1) von 22 dargestellt ist.
  • Wie im schematischen Teil (B1) von 22 dargestellt ist, ist dieser Schnittpunkt die Position (x,y,z) der Oberflächenposition D des Objekts 30.
  • Auf diese Weise werden zwei Gleichungen der Formel zur Differenzberechnung (Formel 22), die der Hyperboloid-Gleichung entspricht, und (Formel 23), die einer linearen Gleichung entspricht, als simultane Gleichungen gelöst. Somit ist es möglich, die Position (x,y,z) der Oberfläche D des Objekts 30 zu berechnen. Diese Position (x,y,z) ist eine Koordinate, die die Position des Kamera-Koordinatensystems angibt. Es ist möglich, auf der Basis der Position (x,y,z) den Abstand D vom Ursprung O des Kamera-Koordinatensystems zu berechnen.
  • Wie im schematischen Teil (B2) von 22 veranschaulicht ist, besteht außerdem eine Möglichkeit, dass zwei Schnittpunkte als der Schnittpunkt, der durch die der Hyperboloid-Gleichung entsprechende Formel zur Differenzberechnung (Formel 22) und die der linearen Gleichung entsprechende (Formel 23) erzeugt wird, detektiert werden. Typischerweise ist es schwierig, zu identifizieren, welcher die richtige Position ist. Dieses Problem kann jedoch vermieden werden, indem die relative Position der Kamera und Lichtquelle geändert wird (später beschrieben). Alternativ dazu ist es, indem man eine lichtabschirmende Platte oder dergleichen an den jeweiligen Punktlichtquellen anbringt und Licht nur in der Richtung der Kamera (oder der der Kamera entgegengesetzten Richtung) projiziert, möglich, zu identifizieren, welche von mehreren Lösungen die richtige Position ist.
  • Im Allgemeinen ist unter der Voraussetzung, dass die Abstände von Punkten A und B zu einem Punkt P durch | AP | und | BP | repräsentiert werden, der Satz von Punkten P mit einem konstanten | AP |—| BP | ein Teil des Hyperboloids. Mit anderen Worten ist die oben erwähnte Formel zur Differenzberechnung (Formel 22) eine einen Teil des Hyperboloids angebende Formel.
  • Beispielsweise genügen unter der Voraussetzung, dass die Koordinaten des Punktes A (0,0,c) sind, die Koordinaten des Punktes B (0,0,-c) sind und | AP | — | BP | gleich 2e ist, wie in 23 veranschaulicht ist, die Punkte P (Formel 24) unten.
    [Math. 8] 1 c 2 e 2 x 2 + 1 c 2 e 2 y 2 1 e 2 z 2 = 1
    Figure DE112019003952T5_0020
  • Außerdem ist eine durch (Formel 24) oben repräsentierte Veranschaulichung in der das Hyperboloid in 23 darstellenden Figur in zwei gekrümmte Oberflächen in der (+z)-Richtung und der (-z)-Richtung geteilt. Dies gilt, da die gleiche Formel wie (Formel 24) auch in dem Fall | AP | — | BP | = - 2e erhalten werden kann. Falls das Vorzeichen von | AP |—| BP | bekannt ist, ist eine von ihnen spezifiziert.
  • Die Formel zur Differenzberechnung (Formel 22), die oben beschrieben wurde, ist diesem Problem ebenfalls äquivalent, sodass die durch (Formel 22) repräsentierte Veranschaulichung eine Schale des Hyperboloids (zweischaligen Hyperboloids) ist.
  • Auf diese Weise löst die Einheit 220 zur Berechnung des Abstands (Tiefe) zwei Gleichungen der Formel zur Differenzberechnung (Formel 22) entsprechend der Hyperboloid-Gleichung und (Formel 23) entsprechend der linearen Gleichung als simultane Gleichungen und berechnet die Position (x,y,z) der Oberfläche D des Objekts 30. Darüber hinaus berechnet die Einheit 220 zur Berechnung des Abstands (Tiefe) den Abstand D vom Ursprung O des Kamera-Koordinatensystems auf der Basis der berechneten Position (x,y,z).
  • Unter Bezugnahme auf 24 und 25 wird nun die detaillierte Konfiguration der Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) und der Einheit 220 zur Berechnung des Abstands (Tiefe) des Entfernungsmessers (Kamera) 20 beschrieben. Beschrieben wird auch die Verarbeitungssequenz der Verarbeitung zur Berechnung der Taktphasendifferenz und der Verarbeitung zur Berechnung der Gegenstandsposition (d. h. Verarbeitung zur Abstandsberechnung).
  • 24 ist ein Flussdiagramm, das veranschaulicht ist, um die Verarbeitung zur Berechnung der Taktphasendifferenz und die Verarbeitung zur Berechnung der Gegenstandsposition (d. h. Verarbeitung zur Abstandsberechnung) zu beschreiben.
  • 25 ist ein Diagramm, das die detaillierte Konfiguration der Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) und der Einheit 220 zur Berechnung des Abstands (Tiefe) des Entfernungsmessers (Kamera) 20 veranschaulicht, die oben unter Bezugnahme auf 10 beschrieben wurden.
  • In den in 25 veranschaulichten Bestandteilen sind neben der Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) eine Einheit 271 zur Phase-Abstand-Umwandlung bis zu einer Einheit 275 zur Berechnung der Gegenstandsposition Bestandteile der Einheit 220 zur Berechnung des Abstands (Tiefe). Ein Speicher 273 für interne Parameter ist ein Speicher im Entfernungsmesser (Kamera) 20, auf den die Einheit 220 zur Berechnung des Abstands (Tiefe) zugreifen kann, und speichert beispielsweise Kameraparameter oder dergleichen, die mittels einer vorher ausgeführten Verarbeitung zur Kamerakalibrierung erhalten wurden.
  • Die Verarbeitung jedes Schritts im Flussdiagramm von 24 wird unter Bezugnahme auf das in 25 veranschaulichte Blockdiagramm einer Konfiguration beschrieben.
  • (Schritt S301)
  • Schritt S301 berechnet zunächst einen Abstand (den Abstand zwischen den Lichtquellen und dem Entfernungsmesser (Kamera) 20) unter Verwendung eines Frame, der auf der Basis des Ausgangslichts von einer beliebigen Lichtquelle unter den beiden Lichtquellen a oder b der Lichtquelleneinheit 10, das heißt des Lichtempfangspulses des Emissionspulses, erfasst wird.
  • Die Verarbeitung von Schritt S301 wird in einer in 25 veranschaulichten Einheit 271 zur Phase-Abstand-Umwandlung ausgeführt.
  • (Schritt S302)
  • Schritt S302 bestimmt, ob die Erfassung einer Abstandsinformation für zwei Lichtquellen abgeschlossen ist oder nicht.
  • Wenn die Erfassung der Abstandsinformation für die beiden Lichtquellen nicht abgeschlossen ist, kehrt die Verarbeitung zu Schritt S301 zurück und wird die Verarbeitung zur Erfassung der Abstandsinformation für die zu verarbeitenden Lichtquellen ausgeführt.
  • Falls die Erfassung einer Abstandsinformation für die beiden Lichtquellen abgeschlossen ist, geht die Verarbeitung zu Schritt S303 weiter.
  • Falls in der Verarbeitung von Schritt S302 bestimmt wird, dass die Erfassung der Abstandsinformation der beiden Lichtquellen abgeschlossen ist, wird die Abstandsinformation einer Formel, ausgedrückt durch (Formel 21) unten, als die Formel zur Abstandsberechnung zwischen den beiden Lichtquellen und dem Entfernungsmesser (Kamera) 20 erhalten.
    [Math. 9] O b s ( u D , E 1 ) = | O D | + | D E 1 | + C O b s ( u D , E 2 ) = | O D | + | D E 2 | + C
    Figure DE112019003952T5_0021
  • 25 ist ein Diagramm, das die detaillierte Konfiguration sowohl der Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) als auch der Einheit 220 zur Berechnung des Abstands (Tiefe) des Entfernungsmessers (Kamera) 20 veranschaulicht. Die Speicher 205 für Phasenbilder 1 bis 2 entsprechen dem in 10 veranschaulichten Speicher 205 für Phasenbilder und sind in 25 als Speicher, die die der jeweiligen Lichtquelle a und b entsprechenden Phasenbilder speichern, individuell veranschaulicht.
  • (Schritt S303)
  • Anschließend wird im Prozedurschritt (S301) eine Berechnungsformel für eine Differenz zwischen zwei Abständen Obs (uD, E1) und Obs (uD, E2), die entsprechend der jeweiligen Lichtquelle berechnet wurden, erzeugt, welche die Formel zur Differenzberechnung ist, die als oben beschriebene (Formel 22) ausgedrückt ist.
    [Math. 10] O b s ( u D , E 1 ) O b s ( u D , E 2 ) = | D E 1 | | D E 2 |
    Figure DE112019003952T5_0022
  • Darüber hinaus wird diese Verarbeitung zur Differenzberechnung in einer in 25 veranschaulichten Einheit 272 zur Differenzberechnung ausgeführt.
  • Die durch die Einheit 272 zur Differenzberechnung berechneten Differenzdaten werden an die Einheit 275 zur Berechnung der Gegenstandsposition ausgegeben.
  • (Schritt S304)
  • Anschließend wird in Schritt S304 eine Hyperboloid-Gleichung, die die in Schritt S303 erzeugte Formel zur Differenzberechnung erfüllt, unter Verwendung der bekannten Bedingungen und Parameter erzeugt.
  • Wie früher beschrieben wurde, ist die oben beschriebene Formel zur Differenzberechnung (Formel 22) eine Formel, die einen Teil des Hyperboloids angibt. Mit anderen Worten genügen unter der Voraussetzung, dass die Koordinaten des Punktes A (0,0,c) sind, die Koordinaten des Punkts B (0,0,-c) sind und | AP | — | BP | gleich 2e ist, wie in 23 veranschaulicht ist, die Punkte P der oben beschriebenen (Formel 24). Die durch (Formel 24) repräsentierte Veranschaulichung ist in der (+z)-Richtung und der (-z)-Richtung in der das Hyperboloid in 23 darstellenden Figur in zwei gekrümmte Oberflächen geteilt.
    Dies gilt, da die gleiche Formel wie (Formel 24) auch im Fall | AP |—| BP | = -2e erhalten werden kann. Falls das Vorzeichen von | AP | — | BP | bekannt ist, ist eine von ihnen spezifiziert.
  • Die oben beschriebene Formel zur Differenzberechnung (Formel 22) ist auch diesem Problem äquivalent, sodass die durch (Formel 22) repräsentierte Veranschaulichung eine Schale des Hyperboloids (zweischaligen Hyperboloids) ist.
  • In Schritt S304 wird unter Ausnutzung der oben beschriebenen bekannten Bedingungen und Parameter eine Hyperboloid-Gleichung erzeugt, die die in Schritt S303 erzeugte Formel zur Differenzberechnung erfüllt.
  • Diese Verarbeitung wird in der in 25 veranschaulichten Einheit 275 zur Berechnung der Gegenstandsposition ausgeführt.
  • (Schritt S305)
  • Anschließend wird in Schritt S305 unter Verwendung der bekannten Bedingungen und Parameter der Einheitsvektor d in der Richtung des Vektors OD vom Entfernungsmesser (Kamera) 20 zur Oberfläche D des Objekts 30 erhalten. Eine den Einheitsvektor d enthaltende lineare Gleichung, d. h. die in der oben beschriebenen (Formel 23) angegebene lineare Gleichung, wird erzeugt.
  • Außerdem werden unter der Voraussetzung, dass die Pixelpositionen, in denen Punkte (x,y,z) auf einem bestimmten Raum auf der Kamera projiziert werden, (u, v) sind, die Positionsbeziehungen zwischen ihnen typischerweise wie in (Formel 25) unten angegeben definiert.
    [Math. 11] u = f x z + c u u = f y z + c v
    Figure DE112019003952T5_0023
  • Darüber hinaus sind f, cv und cu Linsenparameter (interne Parameter), die vorher erhalten werden können und in dem in 25 veranschaulichten Speicher 273 für interne Parameter gespeichert sind.
  • Falls auf der anderen Seite die auf die Kamera projizierten Pixelpositionen (u, v) gegeben sind, ist es möglich, die Sichtlinienrichtung (Sichtlinienvektor) abzuschätzen, die an den Pixelpositionen beobachtet wird. Mit anderen Worten wird Formel 26 unten erhalten.
    [Math. 12] ( x y z ) ( u c u f v c v f 1 )
    Figure DE112019003952T5_0024
  • Das Lösen der (Formel 26) oben ermöglicht, den Einheitsvektor d zu bestimmen, der dem Sichtlinienvektor in der Richtung des Vektors OD entspricht.
  • Mit dieser Verarbeitung wird der Einheitsvektor d in der Richtung des Vektors OD vom Entfernungsmesser (Kamera) 20 zur Oberfläche D des Objekts 30 erhalten. Eine den Einheitsvektor d enthaltende lineare Gleichung, d. h. die in der unten beschriebenen (Formel 23) angegebene lineare Gleichung, wird erzeugt.
    [Math. 13] O D = D d
    Figure DE112019003952T5_0025
  • Diese Verarbeitung wird außerdem in einer Einheit 274 zur Berechnung des Sichtlinienvektors und der Einheit 275 zur Berechnung der Gegenstandsposition, die in 25 veranschaulicht sind, ausgeführt.
  • [Schritt S306]
  • In Schritt S306 werden schließlich die simultanen Gleichungen gelöst, die von den in Schritten S303 bis S304 erzeugten Hyperboloid-Gleichungen und den in Schritt S305 erzeugten linearen Gleichungen gebildet werden. Die Position des Schnittpunkts zwischen dem Hyperboloid und der geraden Linie wird berechnet. Der Abstand D vom Entfernungsmesser (Kamera) 20 zur Oberfläche des Objekts 30 wird auf der Basis der berechneten Position des Schnittpunkts berechnet.
  • Diese Verarbeitung berechnet die Position des Schnittpunkts zwischen dem Hyperboloid und der geraden Linie, die oben unter Bezugnahme auf 22 beschrieben ist. Mit anderen Worten ist sie die Verarbeitung, um die Formel zur Differenzberechnung, die der Hyperboloid-Gleichung entspricht (Formel 22), die Formel, die der linearen Gleichung entspricht (Formel 23), und von den beiden Gleichungen gebildete simultane Gleichungen zu erfassen.
    [Math. 14] O b s ( u D , E 1 ) O b s ( u D , E 2 ) = | D E 1 | | D E 2 |
    Figure DE112019003952T5_0026
    O D = D d
    Figure DE112019003952T5_0027
  • Indem man sie als die simultanen Gleichungen löst, wird die Position (x,y,z) der Oberfläche D des Objekts 30 berechnet. Diese Position (x,y,z) ist eine Koordinate, die die Position des Kamera-Koordinatensystems angibt. Es ist möglich, den Abstand D vom Ursprung O des Kamera-Koordinatensystems auf der Basis der Position (x,y,z) zu berechnen.
  • Die Verarbeitung des Schritts S306 wird in der in 25 veranschaulichten Einheit 275 zur Berechnung der Gegenstandsposition ausgeführt.
  • Auf diese Weise ist es möglich, den Abstand zum Objekt 30 zu berechnen.
  • Obgleich in der Prozedur nicht dargestellt berechnet darüber hinaus die in 25 veranschaulichte Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) ferner die in den Schritten S301 bis S302 erzeugten Formeln zur Abstandsberechnung. Mit anderen Worten berechnet die Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) den Offset C, der in der Formel zur Abstandsberechnung der (Formel 21) unten enthalten ist, das heißt den Wert des Entfernungsmessfehlers, der aufgrund der Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt. Die Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) speichert die Ergebnisse im Speicher 209 für Taktphasendifferenzen (Offset des Lichtquellentakts).
    [Math. 15] O b s ( u D , E 1 ) = | O D | + | D E 1 | + C O b s ( u D , E 2 ) = | O D | + | D E 2 | + C
    Figure DE112019003952T5_0028
  • Der Wert des Offset C ist ein fester Wert, sodass er in der anschließenden Verarbeitung zur Abstandsberechnung verwendet werden kann.
  • Die Position und der Abstand des Objekts 30 werden außerdem durch die Verarbeitung gemäß der in 24 veranschaulichten Prozedur berechnet, und die Position der Lichtquelle wird ebenfalls erfasst. Somit ist es möglich, aus diesen Werten den Wert des Offset C unter Verwendung der Formel zur Abstandsberechnung der obigen (Formel 21) zu berechnen.
  • Falls der Wert des Offset C berechnet werden kann, kann darüber hinaus auch die Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auf der Basis des Werts des Offset C berechnet werden. Die berechnete Phasendifferenz wird zusammen mit dem Wert des Offset C im Speicher 209 für Taktphasendifferenzen (Offset des Lichtquellentakts) gespeichert.
  • [Spezifisches Beispiel einer Verarbeitung zur Berechnung des Objektabstands (Tiefe) im Fall einer bekannten Lichtquellenposition und eines bekannten Offset des Lichtquellentakts]
  • Als Nächstes wird ein spezifisches Beispiel einer Verarbeitung zur Berechnung des Objektabstands (Tiefe) im Fall einer bekannten Lichtquellenposition und eines bekannten Offset des Lichtquellentakts beschrieben.
  • Diese Verarbeitung entspricht der Verarbeitung des Schritts S31 des in 12(b) veranschaulichten Flussdiagramms.
  • Die in 12(b) veranschaulichte Verarbeitung in Schritt S31 ist eine Verarbeitung, um den Abstand (Tiefe) zum Objekt zu messen, und wird ausgeführt unter Verwendung der Taktphasendifferenz, das heißt des Offset C, der auf der Phasendifferenz zwischen dem Sensortakt und dem Lichtquellentakt basiert, konkret des Werts des Entfernungsmessfehlers, der auf der Taktphasendifferenz basiert. Wie oben beschrieben wurde, ist die gemäß der in 12(b) veranschaulichten Prozedur ausgeführte Verarbeitung die Prozedur, die in dem Fall ausgeführt wird, in dem der auf der Taktphasendifferenz basierende Offset C vorher berechnet und er im Speicher gespeichert wurde.
  • Mit anderen Worten ist beispielsweise diese Verarbeitung die Verarbeitung zur Abstandsberechnung, die durchgeführt wird, nachdem die Einheit 208 zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts) den Wert des Offset C im Speicher 209 für Taktphasendifferenzen (Offset des Lichtquellentakts) speichert, in der Verarbeitung, die unter Bezugnahme auf die oben beschriebenen 21 bis 25 beschrieben wurde.
  • Wie oben beschrieben wurde, entspricht außerdem der Offset C dem Wert des Entfernungsmessfehlers, der aufgrund der Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt.
  • Das spezifische Beispiel der oben beschriebenen Verarbeitung wird unter Bezugnahme auf 26 und andere Figuren beschrieben.
  • In dieser Verarbeitung berechnet die Einheit 220 zur Berechnung des Abstands (Tiefe) den Abstand zum Objekt 30, indem die simultanen Gleichungen der beiden Formeln, die auf der rechten Seite von 26 dargestellt sind, gelöst werden.
  • Mit anderen Worten handelt es sich um die in (Formel 31) unten angegebene simultane Gleichung.
    [Math. 16] O b s ( u D , E 1 ) = | O D | + | D E 1 | + C O D = D d
    Figure DE112019003952T5_0029
  • Die simultanen Gleichungen der Formel 31 oben werden von zwei Formeln der Formel zur Abstandsberechnung zwischen der Lichtquelle a und dem Entfernungsmesser (Kamera) 20 und der linearen Gleichung gebildet, die den Einheitsvektor d in der Richtung des Vektors OD vom Entfernungsmesser (Kamera) 20 zur Oberfläche des Objekts 30 enthält.
  • Die Formel zur Abstandsberechnung zwischen der Lichtquelle a und dem Entfernungsmesser (Kamera) 20 ist die gleiche wie die Formel, die in (Formel 11) und (Formel 21) enthalten ist, die oben beschrieben sind.
  • Obs (uD, E1) ist der Abstand, der an der Pixelposition uD beim Emittieren von Licht durch die Lichtquelle a, die an einer Position E1 gelegen ist, beobachtet wird.
    uD = (uD, vD) ist die Pixelposition, wo Punkt D projiziert wird.
  • Außerdem ist C ein Offset-Term und entspricht dem Wert des Entfernungsmessfehlers, der aufgrund der Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt. In diesem Verarbeitungsbeispiel ist der Wert dieses Offset C bekannt.
  • Die den Einheitsvektor d enthaltende lineare Gleichung ist die Gleichung wie die oben beschriebene (Formel 23).
  • 27 ist ein Diagramm, das die detaillierte Konfiguration der Einheit 220 zur Berechnung des Abstands (Tiefe) veranschaulicht, die die oben beschriebene Verarbeitung ausführt. Die Verarbeitung zum Erzeugen dieser simultanen Gleichungen und die Verarbeitung, die von der Einheit 220 zur Berechnung des Abstands (Tiefe) ausgeführt wird, um die simultanen Gleichungen zu lösen, um den Abstand zum Objekt 30 zu berechnen, wird unter Bezugnahme auf 27 beschrieben.
  • Eine Einheit 282 zur Phase-Abstand-Umwandlung berechnet zunächst einen Abstand (den Abstand zwischen der Lichtquelle und dem Entfernungsmesser (Kamera) 20) unter Verwendung eines Frame, der auf der Basis des Ausgangslichts von einer Lichtquelle von der Lichtquelle a der Lichtquelleneinheit 10 erfasst wird, das heißt des Lichtempfangsimpulses des Emissionsimpulses.
  • Diese Berechnungsformel ist die Formel zur Abstandsberechnung, um Obs (uD, E1) der obigen (Formel 31) zu berechnen. Außerdem ist der in dieser Formel zur Abstandsberechnung enthaltene Offset C der Wert des Entfernungsmessfehlers, der aufgrund der Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt, und ist der bekannte Wert, der in dem in 27 veranschaulichten Speicher 209 für Taktphasendifferenzen (Offset des Lichtquellentakts) gespeichert ist.
  • Auf der anderen Seite erhalten eine Einheit 281 zur Berechnung des Sichtlinienvektors und eine Einheit 283 zur Berechnung der Gegenstandsposition den Einheitsvektor d in der Richtung des Vektors OD vom Entfernungsmesser (Kamera) 20 zur Oberfläche D des Objekts 30 unter Verwendung bekannter Bedingungen und Parameter. Eine den Einheitsvektor d enthaltende lineare Gleichung, d. h. die in der (Formel 31) oben enthaltene lineare Gleichung, wird erzeugt.
  • Diese Verarbeitung ist die gleiche wie die Verarbeitung des Schritts S305 der Prozedur, die oben unter Bezugnahme auf 24 beschrieben wurde.
  • Anschließend löst die Einheit 283 zur Berechnung der Gegenstandsposition eine simultane Gleichung, die von einer Formel zur Abstandsberechnung, die durch die Einheit 282 zur Phase-Abstand-Umwandlung erzeugt wird, und einer den Einheitsvektor d enthaltenden linearen Gleichung gebildet wird, das heißt die simultane Gleichung der oben beschriebenen (Formel 31), und erhält die dreidimensionale Position der Oberfläche D des Objekts 30, um den Abstand D vom Ursprung O des Kamera-Koordinatensystems zu berechnen. Außerdem wird die in diesen Verarbeitungsoperationen verwendete Information der Lichtquellenposition von dem Speicher 207 für die Position und Orientierung der Lichtquelleneinheit erlangt. Der Wert des Offset C wird aus dem Speicher 209 für Taktphasendifferenzen (Offset des Lichtquellentakts) erlangt.
  • [Konfiguration, um das Auftreten mehrerer Lösungen in Lösungen einer simultanen Gleichung der Hyperboloid-Gleichung und linearen Gleichung zu verhindern]
  • Als Nächstes wird eine Konfiguration beschrieben, um das Auftreten mehrerer Lösungen in Lösungen einer simultanen Gleichung der Hyperboloid-Gleichung und linearen Gleichung zu verhindern.
  • Wie früher mit Verweis auf 22 beschrieben wurde, ist als die Verarbeitung zum Bestimmen des Abstands des Objekts 30 die Verarbeitung, um die simultanen Gleichungen unten zu lösen und einen Schnittpunkt des Hyperboloids und der geraden Linie zu berechnen, beschrieben.
    [Math. 17] O b s ( u D , E 1 ) O b s ( u D , E 2 ) = | D E 1 | + | D E 2 |
    Figure DE112019003952T5_0030
    O D = D d
    Figure DE112019003952T5_0031
  • Mit anderen Worten bilden (Formel 22) und (Formel 23) die simultanen Gleichungen. (Formel 22) ist die Formel zur Differenzberechnung der Formel zur Abstandsberechnung von den beiden Lichtquellen. (Formel 23) ist die lineare Gleichung, die durch eine Linie bestimmt ist, die den Entfernungsmesser (Kamera) 20 und das Objekt 30 verbindet, das heißt die lineare Gleichung, die den Einheitsvektor d in der Richtung des Vektors OD vom Ursprung O des Entfernungsmessers (Kamera) 20 zur Oberfläche D des Objekts 30 enthält.
  • Wie unter Bezugnahme auf den beschreibenden Teil (A) von 22 beschrieben wurde, werden zwei Gleichungen der Formel zur Differenzberechnung (Formel 22), die der Hyperboloid-Gleichung entspricht, und (Formel 23), die der linearen Gleichung entspricht, als simultane Gleichung gelöst.
  • Somit ist es möglich, einen den beiden Gleichungen genügenden Punkt, das heißt einen Schnittpunkt wie im schematischen Teil (B1) von 22 veranschaulicht, zu berechnen.
  • Wie im schematischen Teil (B1) von 22 veranschaulicht ist, ist dieser Schnittpunkt die Position (x,y,z) der Oberflächenposition D des Objekts 30.
  • Somit werden zwei Gleichungen der Gleichung zur Differenzberechnung (Formel 22), die der Hyperboloid-Gleichung entspricht, und (Formel 23), die einer linearen Gleichung entspricht, als simultane Gleichungen gelöst. Folglich ist es möglich, die Position (x,y,z) der Oberfläche D des Objekts 30 zu berechnen. Diese Position (x,y,z) ist eine Koordinate, die die Position des Kamera-Koordinatensystems angibt. Es ist möglich, den Abstand D vom Ursprung O des Kamera-Koordinatensystems auf der Basis der Position (x,y,z) zu berechnen.
  • Wie im schematischen Teil (B2) von 22 veranschaulicht ist, werden jedoch zwei Schnittpunkte detektiert, die durch die Formel zur Differenzberechnung (Formel 22), die der Hyperboloid-Gleichung entspricht, und die (Formel 23), die der linearen Gleichung entspricht, erzeugt werden, das heißt, es besteht eine Möglichkeit, dass eine Vielzahl von Lösungen, welche mehrere Lösungen genannt werden, in den simultanen Gleichungen auftreten können.
  • Nun wird die Anordnungseinschränkung eines Gegenstands, die genutzt wird, um das Auftreten solcher mehrerer Lösungen zu verhindern, das heißt eines Gegenstands, dessen Abstand zu messen ist, beschrieben.
  • 28 ist ein Diagramm, das ein Beispiel der Anordnungseinschränkungen des Objekts 30 veranschaulicht, die genutzt werden, um das Auftreten mehrerer Lösungen zu verhindern.
  • Wie in 28 veranschaulicht ist, wird vorher ein für die Existenz eines Objekts (Gegenstands) zulässiges Gebiet 301 eines Gegenstands, das heißt eines Objekts, dessen Abstand gemessen werden soll, definiert.
  • Anschließend wird die Tangente des Hyperboloids 302 zum Endpunkt des für eine Existenz des Objekts (Gegenstands) zulässigen Gebiets 301 bestimmt. In diesem Fall wird die Oberfläche, wo das Hyperboloid 302 eine Tangente zum Endpunkt des für eine Existenz des Objekts (Gegenstands) zulässigen Gebiets 301 ist und der durch die folgende Formel (Formel 41) definierte Absolutwert von k der maximale Wert ist, berechnet.
    [Math. 18] | D E 1 | + | D E 2 | = k
    Figure DE112019003952T5_0032
  • Der durch die obige (Formel 41) berechnete Wert k entspricht der Differenz zwischen dem Abstand zwischen dem Objekt 30 und der Lichtquelle a und dem Abstand zwischen dem Objekt 30 und der Lichtquelle b.
  • Die Kamera, das heißt der Entfernungsmesser (Kamera) 20, ist an einer Position wie in der Figur dargestellt im inneren Gebiet des Hyperboloids, das durch diese Bedingung definiert ist, angeordnet.
  • Solch eine Anordnung macht es möglich, eine Einstellung zu erzeugen, in der verhindert wird, dass mehrere Lösungen in den simultanen Gleichungen auftreten, die von der Formel zur Differenzberechnung (Formel 22), die der Hyperboloid-Gleichung entspricht, und (Formel 23), die der linearen Gleichung entspricht, gebildet werden, das heißt, es wird verhindert, dass zwei Schnittpunkte detektiert werden.
  • 29 ist ein Beispiel der Einstellung von gegenüber 28 verschiedenen Bedingungen, um zu verhindern, dass mehrere Lösungen in den simultanen Gleichungen auftreten.
  • Das in 29 veranschaulichte Beispiel ist ein Beispiel der Anordnungseinschränkung, worin die Lichtquellen a und b und die Kamera, d. h. der Entfernungsmesser (Kamera) 20, angeordnet sind, um den Bedingungen wie folgt zu genügen:
    • (Bedingung A) Anordnen der Lichtquellen a und b und einer Kamera, das heißt des Entfernungsmessers (Kamera) 20, in einer geraden Linie und
    • (Bedingung B) Neigen der optischen Achse (Aufnahmerichtung des Entfernungsmessers (Kamera) 20 aus der oben beschriebenen geraden Linie.
  • Die Anordnung der Lichtquellen und des Entfernungsmessers (Kamera) 20, die diesen Bedingungen A und B genügt, macht es möglich, eine Einstellung zu erzeugen, in der verhindert wird, dass mehrere Lösungen in den simultanen Gleichungen auftreten, die von der der Hyperboloid-Gleichung entsprechenden Formel zur Differenzberechnung (Formel 22) und der der linearen Gleichung entsprechenden (Formel 23) gebildet werden, das heißt, die Detektion von zwei Schnittpunkten wird verhindert.
  • Beispielsweise ist es möglich, das Objekt 30, dessen Abstand zu messen ist, in einem in 29 veranschaulichten, für eine Existenz eines Objekts (Gegenstands) zulässigen Gebiet 303 anzuordnen.
  • [Beispielhafte Konfiguration, die mehrere Lichtquelleneinheiten nutzt]
  • Eine beispielhafte Konfiguration, die eine Vielzahl von Lichtquelleneinheiten nutzt, wird nun beschrieben. Das Entfernungsmesssystem der vorliegenden Offenbarung weist technische Merkmale auf, dass die Lichtquelleneinheit unabhängig vom Entfernungsmesser (Kamera) konfiguriert werden kann.
  • Mit anderen Worten ist es, wie in 30 veranschaulicht ist, möglich, die Lichtquelleneinheit 10 unter einem Takt zu steuern, der von jenem des Entfernungsmessers (Kamera) 20 verschieden ist, die Lichtquelleneinheit unabhängig vom Entfernungsmesser (Kamera) zu konfigurieren und die Lichtquelleneinheit 10 an einer beliebigen Position zu platzieren.
  • Folglich ist es möglich, die Lichtquelleneinheit 10 nahe dem Objekt 30, dessen Abstand gemessen werden soll, zu platzieren, wobei der optische Weg, bis das Licht von jeder Lichtquelle der Lichtquelleneinheit 10 von der Oberfläche des Objekts 30 reflektiert wird und auf den Sensor (ToF-Sensor) des Entfernungsmessers (Kamera) 20 fällt, verkürzt wird. Diese Konfiguration ermöglicht, dass der Sensor (ToF-Sensor) des Entfernungsmessers (Kamera) 20 Licht hoher Intensität empfängt, was die Detektionsgenauigkeit verbessert.
  • Außerdem werden die Lichtstrahlen von den Lichtquellen a bis c der Lichtquelleneinheit 10 individuell so gesteuert, dass die Lichtstrahlen den Entfernungsmesser (Kamera) 20 erreichen, ohne miteinander zu interferieren. Somit wird beispielsweise die Ansteuerung der Lichtquelle wie folgt gesteuert:
    1. (a) Ansteuern der Lichtquellen im Zeitmultiplex bzw. in Zeitteilung,
    2. (b) unabhängiges Einstellen der Lichtemissionsfrequenz jeder Lichtquelle; beispielsweise wird die Lichtemissionsfrequenz jeder Lichtquelle so eingestellt, dass sie verschieden, wie etwa das Einfache, Zweifache oder Dreifache der Taktfrequenz, ist, und
    3. (c) Ändern einer Wellenlänge, die von jeder Lichtquelle genutzt wird; beispielsweise Verwenden des Lichts mit unterschiedlichen Wellenlängen wie etwa 850 nm, 905 nm und 940 nm.
  • Die Verwendung solcher Charakteristiken, die die in 31 veranschaulichte Konfiguration zur Folge hat, macht es möglich, beispielsweise eine Konfiguration zu verwirklichen, in der Abstände für in einem weiten Raum angeordnete verschiedene Objekte messbar sind.
  • Mit anderen Worten ist, wie in 31 veranschaulicht ist, eine Vielzahl von Lichtquellen U1 bis U3 miteinander verknüpft und mit Verdrahtungen zur Synchronisierung verbunden, sodass deren Lichtemission mittels eines Takts gesteuert wird.
  • Die Lichtquelleneinheiten U1 bis U3 sind mit Verdrahtungen zur Synchronisierung verbunden, und deren Lichtemission wird zu einem unter der Steuerung eines Takts spezifizierten Zeitpunkt gesteuert.
  • Die Lichtquellen a bis i jeder der Lichtquelleneinheiten werden jedoch individuell gesteuert, sodass die Lichtstrahlen den Entfernungsmesser (Kamera) 20 erreichen, ohne miteinander zu interferieren. Konkret wird beispielsweise die Ansteuerung der Lichtquelle wie folgt gesteuert:
    1. (a) Ansteuern von Lichtquellen in Zeitteilung,
    2. (b) unterschiedliches Einstellen der Lichtemissionsfrequenz jeder Lichtquelle; beispielsweise wird die Lichtemissionsfrequenz jeder Lichtquelle so eingestellt, dass sie verschieden, wie etwa das Einfache, Zweifache oder Dreifache der Taktfrequenz, ist, und
    3. (c) Ändern einer Wellenlänge, die von jeder Lichtquelle genutzt wird; beispielsweise Verwenden des Lichts mit unterschiedlichen Wellenlängen wie etwa 850 nm, 905 nm und 940 nm.
  • Solch eine Konfiguration macht es möglich, die Abstände verschiedener, in einem farbigen Raum platzierten Objekte genau zu messen. Ein spezifisches Nutzungsbeispiel ist in 32 veranschaulicht.
  • 32 veranschaulicht beispielsweise eine Vielzahl von Lichtquelleneinheiten, die auf einem Regal in einem Warenhaus angeordnet sind. Die jeweiligen Lichtquelleneinheiten sind über Verdrahtungen zur Synchronisierung verbunden und unterliegen der Steuerung eines Takts.
  • Verschiedene Artikel sind auf jeder Ablagefläche platziert, und das Licht von der Lichtquelle wird von der Oberfläche jedes Artikels reflektiert und fällt auf den ToF-Sensor des Entfernungsmessers (Kamera) 20. Der ToF-Sensor berechnet den Abstand auf der Basis des Lichts mit der höchsten Intensität im Eingangslicht. Solch eine Konfiguration ermöglicht es, den Abstand zu jedem Objekt an verschiedenen Positionen in einem weiten Raum mit hoher Genauigkeit zu messen.
  • [Andere Nutzungsbeispiele eines Entfernungsmesssystems der vorliegenden Offenbarung]
  • Als Nächstes werden andere Nutzungsbeispiele eines Entfernungsmesssystems der vorliegenden Offenbarung beschrieben.
  • 33 veranschaulicht eine Konfiguration, in der die Lichtquelleneinheit 10 und der Entfernungsmesser (Kamera) 20 innerhalb eines Fahrzeugs installiert sind.
  • Dieser Entfernungsmesser ist beispielsweise eine Vorrichtung, die imstande ist, die Körperhaltung oder dergleichen des Fahrers zu detektieren.
  • Beispielsweise kann er für den Nothalt des Fahrzeugs genutzt werden, falls der Fahrer in einer Stellung ist, in der er sich wegen eines plötzlichen Unbehagens gegen das Lenkrad lehnt.
  • Das Ausgangslicht der Lichtquelleneinheit 10 wird auf den Kopf des Fahrers oder dergleichen gerichtet, und dessen reflektiertes Licht wird vom Entfernungsmesser (Kamera) 20 aufgefangen, um die Körperhaltung des Fahrers zu detektieren. Wenn eine von der normalen Körperhaltung des Fahrers verschiedene Körperhaltung detektiert wird, ist es möglich, Maßnahmen zu ergreifen, wie etwa einen Alarm auszugeben oder einen Nothalt des Fahrzeugs vorzunehmen.
  • 34 veranschaulicht eine Umgebung, in der ein Nutzer im Wohnzimmer ein Head-Mounted-Display (HMD) trägt und das Spiel genießt, während er ein Bild einer virtuellen Realität (VR) betrachtet.
  • Das HMD zeigt eine von der Kamera aufgenommene reale Ansicht und ein virtuelles Bild wie etwa beispielsweise eine Animation an, indem es sie kombiniert.
  • Ein Bild wie etwa eine Animation muss angezeigt und bewegt werden, indem es mit verschiedenen, im tatsächlichen aufgenommenen Bild vorhandenen Objekten kombiniert wird.
  • Beispielsweise bewegt sich das Tier einer Animation auf dem Boden des Wohnzimmers, der Seite des TV oder dergleichen, die in den Figuren dargestellt sind.
  • Die Anzeige solch eines VR-Bildes auf dem HMD ist notwendig, um den Abstand zu einem tatsächlichen Objekt genau zu messen.
  • Das System der vorliegenden Offenbarung wird für diese Entfernungsmessung genutzt. Beispielsweise wird eine in der Figur dargestellte Deckenlichtbefestigung als die Lichtquelleneinheit 10 des Systems der vorliegenden Offenbarung genutzt, und der Entfernungsmesser (Kamera) 20 der vorliegenden Offenbarung ist in das vom Nutzer getragene HMD eingebaut.
  • Solch ein System ermöglicht dem Entfernungsmesser (Kamera) 20 auf der Seite des HMD, das reflektierte Licht des Ausgangslichts von der Lichtquelleneinheit 10, die als die Deckenlichtbefestigung konfiguriert ist, zu analysieren und den Abstand zu verschiedenen Objekten wie etwa dem Boden, dem Fernsehgerät und Blattpflanzen im Wohnzimmer genau zu messen. Die Nutzung der Abstandsinformation für eine Steuerung der Anzeige virtueller Objekte im HMD ermöglicht es, ein sehr genaues VR-Bild auszugeben.
  • In dem in 34 veranschaulichten Beispiel wird außerdem die beispielhafte Konfiguration beschrieben, in der der Entfernungsmesser (Kamera) 20 in das HMD eingebaut ist. Wie in 35 veranschaulicht ist, kann jedoch der Entfernungsmesser (Kamera) 20 beispielsweise vom HMD getrennt konfiguriert sein. In dem in 35 veranschaulichten Beispiel ist der Entfernungsmesser (Kamera) 20 auf dem Fernsehgerät platziert und ist die Lichtquelleneinheit 10 auf der Seite des HMD vorgesehen.
  • Solch eine Konfiguration ermöglicht, dass das Licht von der in das HMD auf der Seite des Nutzers eingebauten Lichtquelle von verschiedenen Objekten im Wohnzimmer reflektiert wird und das reflektierte Licht auf den ToF-Sensor im Entfernungsmesser (Kamera) 20 auf dem Fernsehgerät fällt. Somit ist es möglich, das Lichtempfangssignal zu analysieren, um den Abstand jedes Objekts zu messen. Die Entfernungsmessinformation wird über beispielsweise Wi-Fi oder dergleichen zu dem HMD oder dem Fernsehgerät übertragen, und ein VR-Bild unter Verwendung der Entfernungsmessinformation wird an das HMD oder das Fernsehgerät ausgegeben.
  • Die beispielhafte Anordnung der Lichtquelleneinheit 10 und des Entfernungsmessers (Kamera) 20 kann verschiedene Konfigurationen aufweisen. Beispielsweise kann, wie in 36 veranschaulicht ist, die Lichtquelleneinheit 10 an einer im Wohnzimmer platzierten Stehlampe angeordnet sein.
  • Als ein weiteres Nutzungsbeispiel des Entfernungsmesssystems der vorliegenden Offenbarung ist beispielsweise ein Nutzungsbeispiel einer Autowaschanlage in 37 veranschaulicht.
  • Es kann notwendig sein, dass die Autowaschanlage die Position des zu waschenden Wagens genau misst, um den optimalen Waschvorgang durchzuführen.
  • Zu diesem Zweck kann das Entfernungsmesssystem der vorliegenden Offenbarung verwendet werden. Die Lichtquelleneinheit 10 und der Entfernungsmesser (Kamera) 20 sind auf den Decken- und Seitenflächen der Autowaschanlage angeordnet.
  • Diese Konfiguration bewirkt, dass das Licht von der Lichtquelleneinheit 10 von der Oberfläche des Fahrzeugs reflektiert wird und auf den ToF-Sensor der Lichtquelleneinheit 10 fällt. Die Analyse des reflektierten Lichts ermöglicht es, den Abstand zur Fahrzeugoberfläche genau zu messen, was eine optimale Steuerung der Einstellung des Wasserdrucks, der Einspritzmenge des Reinigungsmittels oder dergleichen erlaubt, wodurch eine effizientere Reinigung erzielt wird.
  • [Beispielhafte Hardware-Konfiguration eines Entfernungsmessers]
  • Nun wird eine beispielhafte Hardware-Konfiguration des Entfernungsmessers unter Bezugnahme auf 38 beschrieben.
  • 38 ist ferner ein Diagramm, das eine beispielhafte Konfiguration einer Hardware veranschaulicht, die als der in den oben erwähnten Ausführungsformen beschriebene Entfernungsmesser zur Verfügung steht.
  • Eine zentrale Verarbeitungseinheit (CPU) 501 dient als Datenverarbeitungseinheit, die verschiedene Prozesse gemäß Programmen ausführt, die in einem Nur-Lesespeicher (ROM) 502 oder einer Speichereinheit 508 gespeichert sind. Beispielsweise wird die Verarbeitung gemäß der in den oben beschriebenen Ausführungsformen beschriebenen Sequenz durchgeführt. Das von der CPU 501 auszuführende Programm, Daten und dergleichen sind in einem Direktzugriffsspeicher (RAM) 503 gespeichert. Die CPU 501, der ROM 502 und der RAM 503 sind über einen Bus 504 miteinander verbunden.
  • Die CPU 501 ist über den Bus 504 mit einer Eingabe/Ausgabe-Schnittstelle 505 verbunden. Eine Eingabeeinheit 506, die verschiedene Schalter, eine Tastatur, eine Maus, ein Mikrofon oder dergleichen umfasst, und eine Ausgabeeinheit 507, die eine Anzeige, einen Lautsprecher oder dergleichen umfasst, sind mit der Eingabe/Ausgabe-Schnittstelle 505 verbunden.
  • Die CPU 501 führt als Antwort auf eine von der Eingabeeinheit 506 eingegebene Anweisung verschiedene Prozesse aus und gibt Verarbeitungsergebnisse an beispielsweise die Ausgabeeinheit 507 aus.
  • Die mit der Eingabe/Ausgabe-Schnittstelle 505 verbundene Speichereinheit 508 ist unter Verwendung beispielsweise einer Festplatte und dergleichen konfiguriert und speichert ein von der CPU 501 auszuführendes Programm und verschiedene Arten von Daten. Die Kommunikationseinheit 509 dient als Sende-/Empfangseinheit zur Datenkommunikation über ein Netzwerk wie etwa das Internet, ein lokales Netzwerk und darüber hinaus als Sende-/Empfangseinheit für eine Rundfunkwelle und kommuniziert mit einer externen Vorrichtung.
  • Ein mit der Eingabe/Ausgabe-Schnittstelle 505 verbundenes Laufwerk 510 steuert Wechselmedien 511 wie etwa eine Magnetplatte, eine optische Platte, eine magneto-optische Platte und einen Halbleiterspeicher wie etwa eine Speicherkarte an und führt eine Aufzeichnung oder ein Lesen von Daten aus.
  • Ein ToF-Sensor 521 detektiert das Objektreflexionslicht des von der Lichtquelle ausgegebenen Lichts. Ein Sensortaktgeber 522 wird als Taktgeber genutzt, um den Zeitpunkt des Lichtempfangs des ToF-Sensors 521 zu steuern.
  • [Zusammenfassung einer Konfiguration der vorliegenden Offenbarung]
  • Die Ausführungsformen der vorliegenden Offenbarung wurden unter Bezugnahme auf die spezifischen Beispiele im Detail beschrieben. Es versteht sich jedoch von selbst, dass der Fachmann Modifikationen und Ersetzungen der Ausführungsformen innerhalb eines Umfangs vornehmen kann, die nicht vom Kern der vorliegenden Offenbarung abweichen. Mit anderen Worten wurde die vorliegende Erfindung in Form einer Veranschaulichung offenbart und soll nicht einschränkend interpretiert werden. Um den Kern der vorliegenden Offenbarung zu bestimmen, sollte der Umfang der Ansprüche berücksichtigt werden.
  • Die in der Beschreibung hierin offenbarte Technologie kann außerdem die folgende Konfiguration umfassen.
    • (1) Einen Entfernungsmesser, umfassend:
      • einen Laufzeit- (ToF-) Sensor, der dafür konfiguriert ist, von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder einer Vielzahl von Lichtquellen, die in einer Lichtquelleneinheit enthalten sind, ausgegeben wird; und
      • eine Einheit zur Abstandsberechnung, die dafür konfiguriert ist, eine Ausgabe des ToF-Sensors zu analysieren, um einen Abstand zum Objekt zu berechnen,
      • worin der ToF-Sensor eine durch einen Sensortakt gesteuerte Zeitsteuerung einer Bildaufnahme aufweist und die Lichtquelleneinheit eine durch einen Takt der Lichtquelleneinheit gesteuerte Zeitsteuerung einer Lichtemission der Lichtquelle aufweist, wobei der Sensortakt ein für den Entfernungsmesser spezifischer Takt ist, der vom Takt der Lichtquelleneinheit verschieden ist.
    • (2) Der Entfernungsmesser gemäß (1), ferner umfassend:
      • eine Einheit zur Einstellung des Sensortakts, die dafür konfiguriert ist, eine Steuerung zum Eliminieren oder Reduzieren einer Abweichung in der Frequenz zwischen dem Sensortakt und dem Takt der Lichtquelleneinheit durchzuführen.
    • (3) Der Entfernungsmesser gemäß (2), ferner umfassend:
      • eine Einheit zur Abschätzung des Taktabweichungsbetrags, die dafür konfiguriert ist, einen Betrag der Abweichung in der Frequenz zwischen dem Sensortakt und dem Takt der Lichtquelleneinheit zu berechnen,
      • worin die Einheit zur Einstellung des Sensortakts eine Frequenz des Sensortakts in Abhängigkeit vom Betrag einer Abweichung in der Frequenz einstellt, der durch die Einheit zur Abschätzung des Taktabweichungsbetrags abgeschätzt wurde.
    • (4) Der Entfernungsmesser gemäß einem von (1) bis (3), ferner umfassend:
      • eine Einheit zur Abschätzung der Lichtquellenposition, die dafür konfiguriert ist, eine Position jeder Lichtquelle der Lichtquelleneinheit zu analysieren.
    • (5) Der Entfernungsmesser gemäß (4), worin die Einheit zur Abschätzung der Lichtquellenposition
      • als drei Formeln zur Abstandsberechnung, um einen Abstand von zumindest drei, in der Lichtquelleneinheit vorgesehenen Lichtquellen zum Entfernungsmesser zu berechnen, die drei Formeln zur Abstandsberechnung erzeugt,
      • die von Datenelementen (a) bis (c) wie folgt gebildet werden:
        1. (a) Daten bezüglich eines Abstands zwischen dem Entfernungsmesser und dem Objekt,
        2. (b) Daten bezüglich eines Abstands zwischen dem Objekt und jeder Lichtquelle der Lichtquelleneinheit und
        3. (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt.
    • (6) Der Entfernungsmesser gemäß (5), ferner umfassend:
      • eine Einheit zur Abstandsberechnung, die dafür konfiguriert ist, den Abstand zwischen dem Entfernungsmesser und dem Objekt zu berechnen, indem drei Formeln zur Differenzberechnung erzeugt werden, um eine Differenz der jeweiligen Formeln zur Abstandsberechnung zu berechnen und die erzeugten drei Formeln zur Differenzberechnung als simultane Gleichung zu lösen.
    • (7) Der Entfernungsmesser gemäß (6), worin die Formel zur Differenzberechnung
      • eine Formel ist, die den Offset C nicht enthält, der dem Entfernungsmessfehler entspricht, der aufgrund der Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt.
    • (8) Der Entfernungsmesser gemäß einem von (1) bis (7), ferner umfassend:
      • eine Einheit zur Abstandsberechnung, die dafür konfiguriert ist, einen Abstand zwischen dem Entfernungsmesser und dem Objekt zu berechnen, indem als zwei Formeln zur Abstandsberechnung, um einen Abstand von zumindest zwei, in der Lichtquelleneinheit vorgesehenen Lichtquellen zum Entfernungsmesser zu berechnen,
      • die beiden Formeln zur Abstandsberechnung erzeugt werden, die von Datenelementen (a) bis (c) wie folgt gebildet werden:
        1. (a) Daten bezüglich des Abstands zwischen dem Entfernungsmesser und dem Objekt,
        2. (b) Daten bezüglich eines Abstands zwischen dem Objekt und jeder Lichtquelle der Lichtquelleneinheit und
        3. (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt,
      • ferner indem eine Formel zur Differenzberechnung erzeugt wird, um eine Differenz der jeweiligen Formeln zur Abstandsberechnung zu berechnen, und
      • ferner indem
        • (d) eine lineare Gleichung erzeugt wird, die durch eine den Entfernungsmesser und das Objekt verbindende Linie bestimmt ist, und
      • indem die Formel zur Differenzberechnung und die lineare Gleichung als simultane Gleichung gelöst werden.
    • (9) Der Entfernungsmesser gemäß (8), worin die Formel zur Differenzberechnung
      • eine Gleichung ist, die ein Hyperboloid unter Verwendung von Positionen zweier Lichtquellen der Lichtquelleneinheit als Brennpunkte definiert, und
      • die Einheit zur Abstandsberechnung
      • einen Schnittpunkt zwischen dem durch die Formel zur Differenzberechnung definierten Hyperboloid und der linearen Gleichung als Position des Objekts berechnet.
    • (10) Ein Entfernungsmesssystem, umfassend:
      • eine Lichtquelleneinheit mit einer Vielzahl von Lichtquellen;
      • einen Entfernungsmesser, der dafür konfiguriert ist, von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder Lichtquelle der Lichtquelleneinheit ausgegeben wird,
      • worin der Entfernungsmesser umfasst
      • einen Laufzeit- (ToF-) Sensor, der dafür konfiguriert ist, das reflektierte Licht vom Objekt zu empfangen, und
      • eine Einheit zur Abstandsberechnung, die dafür konfiguriert ist, eine Ausgabe des ToF-Sensors zu analysieren, um einen Abstand zum Objekt zu berechnen, und
      • die Lichtquelleneinheit eine Zeitsteuerung der Lichtemission einer Lichtquelle aufweist, die durch einen Takt der Lichtquelleneinheit gesteuert wird, und der ToF-Sensor des Entfernungsmessers eine Zeitsteuerung einer Bildaufnahme aufweist, die durch einen Sensortakt gesteuert wird, wobei der Takt der Lichtquelleneinheit und der Sensortakt verschiedene unabhängige Takte sind.
    • (11) Das Entfernungsmesssystem gemäß (10), worin die Lichtquelleneinheit die Vielzahl von Lichtquellen mit einer festen relativen Position enthält.
    • (12) Das Entfernungsmesssystem gemäß (10) oder (11), worin die Lichtquelleneinheit drei oder mehr Lichtquellen mit einer festen relativen Position enthält.
    • (13) Das Entfernungsmesssystem gemäß einem von (10) bis (12), worin das Entfernungsmesssystem umfasst:
      • eine Vielzahl von Lichtquelleneinheiten, die jeweils die Vielzahl von Lichtquellen aufweisen, und
      • die Vielzahl von Lichtquellen, die in der Vielzahl von Lichtquelleneinheiten vorgesehen sind, eine Zeitsteuerung der Lichtemission aufweist, die durch einen Takt der Lichtquelleneinheit gesteuert wird.
    • (14) Das Entfernungsmesssystem gemäß einem von (10) bis (13), worin
      • die Vielzahl von Lichtquellen der Lichtquelleneinheit und der Entfernungsmesser auf einer geraden Linie angeordnet sind und
      • der Entfernungsmesser Eingangslicht aus einer Richtung auffängt, die von einer Richtung der geraden Linie mit dem ToF-Sensor verschieden ist.
    • (15) Das Entfernungsmesssystem gemäß einem von (10) bis (14), ferner umfassend:
      • eine Einheit zur Takteinstellung, die in der Lichtquelleneinheit und/oder dem Entfernungsmesser vorgesehen ist, wobei die Einheit zur Takteinstellung dafür konfiguriert ist, eine Steuerung zum Eliminieren oder Reduzieren einer Abweichung in der Frequenz zwischen dem Sensortakt und dem Takt der Lichtquelleneinheit durchzuführen.
    • (16) Ein Entfernungsmessverfahren, das in einem Entfernungsmesser ausgeführt wird, wobei das Verfahren umfasst:
      • einen Schritt, um mittels eines Laufzeit- (ToF-) Sensors von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder einer Vielzahl von Lichtquellen ausgegeben wird, die in einer Lichtquelleneinheit enthalten sind; und
      • einen Schritt zur Abstandsberechnung, um mittels einer Einheit zur Abstandsberechnung einen Abstand zu dem Objekt zu berechnen, indem eine Ausgabe des ToF-Sensors analysiert wird,
      • worin der Schritt zur Abstandsberechnung
      • ein Schritt ist, um den Abstand zum Objekt zu berechnen, indem als eine Vielzahl von Formeln zur Abstandsberechnung, um einen Abstand von der Vielzahl von Lichtquellen der Lichtquelleneinheit zum Entfernungsmesser zu berechnen,
      • die Vielzahl von Formeln zur Abstandsberechnung erzeugt wird, die von Datenelementen (a) bis (c) wie folgt gebildet werden:
        1. (a) Daten bezüglich eines Abstands zwischen dem Entfernungsmesser und dem Objekt,
        2. (b) Daten bezüglich eines Abstands zwischen dem Objekt und jeder Lichtquelle der Lichtquelleneinheit und
        3. (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen einem Sensortakt und einem Lichtquellentakt auftritt, und
      • ferner indem eine Formel zur Differenzberechnung erzeugt wird, um eine Differenz der jeweiligen Formeln zur Abstandsberechnung zu berechnen, und indem die erzeugte Formel zur Differenzberechnung verwendet wird.
    • (17) Ein Entfernungsmessverfahren, das in einem Entfernungsmesssystem ausgeführt wird, das eine Lichtquelleneinheit mit einer Vielzahl von Lichtquellen und einen Entfernungsmesser enthält, der dafür konfiguriert ist, Licht zu empfangen, das von jeder Lichtquelle der Lichtquelleneinheit ausgegeben wird und von einer Oberfläche eines Objekts reflektiert wird, wobei das Verfahren umfasst:
      • einen Schritt, um mittels der Lichtquelleneinheit Licht von jeder Lichtquelle der Lichtquelleneinheit zu einem Lichtemissionszeitpunkt zu emittieren, der durch einen Takt der Lichtquelleneinheit definiert ist;
      • einen Schritt, um mittels eines ToF-Sensors des Entfernungsmessers eine Bildaufnahme zu einem Bildaufnahmezeitpunkt auszuführen, der durch einen Sensortakt definiert ist, der vom Takt der Lichtquelleneinheit verschieden ist; und
      • einen Schritt, um mittels einer Einheit zur Abstandsberechnung des Entfernungsmessers einen Abstand zum Objekt zu berechnen, indem eine Ausgabe des ToF-Sensors analysiert wird.
    • (18) Ein Programm, das einen Entfernungsmesser veranlasst, eine Verarbeitung zur Entfernungsmessung auszuführen, welche umfasst:
      • einen Schritt, um einen Laufzeit- (ToF-) Sensor zu veranlassen, von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder einer Vielzahl von Lichtquellen ausgegeben wird, die in einer Lichtquelleneinheit enthalten sind; und
      • einen Schritt zur Abstandsberechnung, um eine Einheit zur Abstandsberechnung zu veranlassen, einen Abstand zum Objekt zu berechnen, indem eine Ausgabe des ToF-Sensors analysiert wird,
      • worin der Schritt zur Abstandsberechnung eine Verarbeitung durchführt, um als eine Vielzahl von Formeln zur Abstandsberechnung, um einen Abstand von der Vielzahl von Lichtquellen der Lichtquelleneinheit zum Entfernungsmesser zu berechnen,
      • die Vielzahl von Formeln zur Abstandsberechnung zu erzeugen, die von Datenelementen (a) bis (c) wie folgt gebildet werden:
        1. (a) Daten bezüglich eines Abstands zwischen dem Entfernungsmesser und dem Objekt,
        2. (b) Daten bezüglich eines Abstands zwischen dem Objekt und jeder Lichtquelle der Lichtquelleneinheit und
        3. (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen einem Sensortakt und einem Lichtquellentakt auftritt, und
      • ferner eine Verarbeitung, um eine Formel zur Differenzberechnung zu erzeugen, um eine Differenz der jeweiligen Formeln zur Abstandsberechnung zu berechnen, und eine Verarbeitung, um den Abstand zum Objekt unter Verwendung der erzeugten Formel zur Differenzberechnung zu berechnen.
  • Ferner kann die Abfolge der Verarbeitung, die in der Beschreibung beschrieben wurde, durch Hardware, Software oder eine komplexe Konfiguration der beiden ausgeführt werden. Falls die Verarbeitung unter Verwendung einer Software ausgeführt wird, ist es möglich, die Verarbeitung auszuführen, indem ein Programm installiert wird, das eine Verarbeitungssequenz auf einem Speicher in einem Computer aufzeichnet, der in eine dedizierte Hardware eingebaut ist, oder indem ein Programm in einem Universal-Computer installiert wird, der verschiedene Prozesse ausführen kann. Beispielsweise kann das Programm vorher in einem Aufzeichnungsmedium aufgezeichnet werden. Zusätzlich zu einer Installation vom Aufzeichnungsmedium auf einem Computer ist es möglich, ein Programm über ein Netzwerk wie etwa ein lokales Netzwerk (LAN) und das Internet zu empfangen und das empfangene Programm auf einem Aufzeichnungsmedium wie etwa einer eingebauten Festplatte zu installieren.
  • Man beachte, dass verschiedene, in der Beschreibung beschriebene Prozesse nicht nur in zeitlicher Abfolge gemäß der Beschreibung ausgeführt werden, sondern je nach der Verarbeitungsleistung einer Einrichtung, die den Prozess ausführt, oder Bedarf auch parallel oder separat ausgeführt werden können. Darüber hinaus bezieht sich der Begriff „System“ in der vorliegenden Beschreibung auf eine Konfiguration eines logischen Satzes einer Vielzahl von Einrichtungen und ist nicht auf ein System beschränkt, in welchem Einrichtungen der jeweiligen Konfigurationen im gleichen Gehäuse vorgesehen sind.
  • INDUSTRIELLE ANWENDBARKEIT
  • Wie oben beschrieben wurde, verwirklicht eine Ausführungsform der vorliegenden Offenbarung eine Konfiguration, um eine Lichtquelleneinheit mit einer Vielzahl von Lichtquellen und einen Entfernungsmesser (Kamera) mittels individueller Takte zu steuern, um eine Einrichtung der Lichtquellen an beliebigen Positionen zu ermöglichen.
  • Konkret wird beispielsweise das Ausgangslicht einer Vielzahl von Lichtquellen der Lichtquelleneinheit von einer Oberfläche eines Objekts reflektiert, und ein ToF-Sensor fängt das reflektierte Licht auf, um den Abstand zum Objekt zu berechnen. Ein Sensortakt, der die Zeitsteuerung einer Bildaufnahme des ToF-Sensors steuert, ist der für den Entfernungsmesser spezifische Takt, der von einem Takt der Lichtquelleneinheit verschieden ist, der die Zeitsteuerung einer Lichtemission der Lichtquellen der Lichtquelleneinheit steuert. Der Entfernungsmesser erzeugt eine Formel zur Differenzberechnung aus einer Vielzahl von Formeln zur Abstandsberechnung, die verwendet werden, um den Abstand von jeder Lichtquelle zum Entfernungsmesser zu berechnen, um den Abstand zum Objekt unter Verwendung der erzeugten Formel zur Differenzberechnung zu berechnen.
  • Die vorliegende Konfiguration verwirklicht eine Konfiguration, um eine Lichtquelleneinheit mit einer Vielzahl von Lichtquellen und einen Entfernungsmesser (Kamera) mittels individueller Takte zu steuern, um eine Einrichtung der Lichtquellen an beliebigen Positionen zu ermöglichen.
  • Bezugszeichenliste
  • 1
    Lichtquelle
    2
    Kamera (lichtempfangende Einheit)
    3
    Objekt
    10
    Lichtquelleneinheit
    20
    Entfernungsmesser (Kamera)
    30
    Objekt
    101
    Taktgeber einer Lichtquelleneinheit
    102
    Einheit zur Steuerung der Lichtquelle
    103 bis 105
    Einheit zur Verzögerungssteuerung
    106 bis 108
    Lichtquellen a bis c
    201
    Sensortaktgeber
    202
    ToF-Sensor
    203
    Einheit zur Detektion sich bewegender Gegenstände
    204
    Einheit zur Phasenberechnung
    205
    Speicher für Phasenbilder
    206
    Einheit zur Abschätzung der Lichtquellenposition
    207
    Speicher für Position und Orientierung der Lichtquelleneinheit
    208
    Einheit zur Berechnung der Taktphasendifferenz (Offset des Lichtquellentakts)
    209
    Speicher für Taktphasendifferenzen (Offset des Lichtquellentakts)
    210
    Einheit zur Abschätzung des Taktabweichungsbetrags
    211
    Einheit zur Einstellung des Systemtakts
    220
    Einheit zur Berechnung des Abstands (Tiefe)
    251
    Einheit zur Phase-Abstand-Umwandlung
    252
    Einheit zur Differenzberechnung
    253
    Einheit zur Gegenstandsberechnung
    254
    Einheit zur Abschätzung der Positionsbeziehung Lichtquelle-Kamera
    256
    DB für Relativpositionen im Kamera-Lichtquelle-Koordinatensystem
    257
    Einheit zur Koordinatenumwandlung
    271
    Einheit zur Phase-Abstand-Umwandlung
    272
    Einheit zur Differenzberechnung
    273
    Speicher für interne Parameter
    274
    Einheit zur Berechnung des Sichtlinienvektors
    275
    Einheit zur Berechnung der Gegenstandsposition
    281
    Einheit zur Berechnung des Sichtlinienvektors
    282
    Einheit zur Phase-Abstand-Umwandlung
    283
    Einheit zur Berechnung der Gegenstandsposition
    301, 302
    für die Existenz eines Objekts (Gegenstands) zulässiges Gebiet
    501
    CPU
    502
    ROM
    503
    RAM
    504
    BUS
    505
    Eingabe/Ausgabe-Schnittstelle
    506
    Eingabeeinheit
    507
    Ausgabeeinheit
    508
    Speichereinheit
    509
    Kommunikationseinheit
    510
    Laufwerk
    511
    Wechselmedien
    521
    ToF-Sensor
    522
    Sensortaktgeber
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2018031607 [0006, 0009]

Claims (18)

  1. Entfernungsmesser, aufweisend: einen Laufzeit-, ToF-Sensor, der dafür konfiguriert ist, von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder einer Vielzahl von Lichtquellen, die in einer Lichtquelleneinheit enthalten sind, ausgegeben wird; und eine Einheit zur Abstandsberechnung, die dafür konfiguriert ist, eine Ausgabe des ToF-Sensors zu analysieren, um einen Abstand zum Objekt zu berechnen, wobei der ToF-Sensor eine durch einen Sensortakt gesteuerte Zeitsteuerung einer Bildaufnahme aufweist und die Lichtquelleneinheit eine durch einen Takt der Lichtquelleneinheit gesteuerte Zeitsteuerung einer Lichtemission der Lichtquelle aufweist, wobei der Sensortakt ein für den Entfernungsmesser spezifischer Takt ist, der vom Takt der Lichtquelleneinheit verschieden ist.
  2. Entfernungsmesser nach Anspruch 1, ferner aufweisend: eine Einheit zur Einstellung des Sensortakts, die dafür konfiguriert ist, eine Steuerung zum Eliminieren oder Reduzieren einer Abweichung in der Frequenz zwischen dem Sensortakt und dem Takt der Lichtquelleneinheit durchzuführen.
  3. Entfernungsmesser nach Anspruch 2, ferner aufweisend: eine Einheit zur Abschätzung des Taktabweichungsbetrags, die dafür konfiguriert ist, einen Betrag der Abweichung in der Frequenz zwischen dem Sensortakt und dem Takt der Lichtquelleneinheit zu berechnen, wobei die Einheit zur Einstellung des Sensortakts eine Frequenz des Sensortakts in Abhängigkeit vom Betrag einer Abweichung in der Frequenz einstellt, der durch die Einheit zur Abschätzung des Taktabweichungsbetrags abgeschätzt wurde.
  4. Entfernungsmesser nach Anspruch 1, ferner aufweisend: eine Einheit zur Abschätzung der Lichtquellenposition, die dafür konfiguriert ist, eine Position jeder Lichtquelle der Lichtquelleneinheit zu analysieren.
  5. Entfernungsmesser nach Anspruch 4, wobei die Einheit zur Abschätzung der Lichtquellenposition als drei Formeln zur Abstandsberechnung, um einen Abstand von zumindest drei, in der Lichtquelleneinheit vorgesehenen Lichtquellen zum Entfernungsmesser zu berechnen, die drei Formeln zur Abstandsberechnung erzeugt, die von Datenelementen (a) bis (c) wie folgt gebildet werden: (a) Daten bezüglich eines Abstands zwischen dem Entfernungsmesser und dem Objekt, (b) Daten bezüglich eines Abstands zwischen dem Objekt und jeder Lichtquelle der Lichtquelleneinheit und (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt.
  6. Entfernungsmesser nach Anspruch 5, ferner aufweisend: eine Einheit zur Abstandsberechnung, die dafür konfiguriert ist, den Abstand zwischen dem Entfernungsmesser und dem Objekt zu berechnen, indem drei Formeln zur Differenzberechnung erzeugt werden, um eine Differenz der jeweiligen Formeln zur Abstandsberechnung zu berechnen und die erzeugten drei Formeln zur Differenzberechnung als simultane Gleichung zu lösen.
  7. Entfernungsmesser nach Anspruch 6, wobei die Formel zur Differenzberechnung eine Formel ist, die den Offset C nicht enthält, der dem Entfernungsmessfehler entspricht, der aufgrund der Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt.
  8. Entfernungsmesser nach Anspruch 1, ferner aufweisend: eine Einheit zur Abstandsberechnung, die dafür konfiguriert ist, einen Abstand zwischen dem Entfernungsmesser und dem Objekt zu berechnen, indem als zwei Formeln zur Abstandsberechnung, um einen Abstand von zumindest zwei, in der Lichtquelleneinheit vorgesehenen Lichtquellen zum Entfernungsmesser zu berechnen, die beiden Formeln zur Abstandsberechnung erzeugt werden, die von Datenelementen (a) bis (c) wie folgt gebildet werden: (a) Daten bezüglich des Abstands zwischen dem Entfernungsmesser und dem Objekt, (b) Daten bezüglich eines Abstands zwischen dem Objekt und jeder Lichtquelle der Lichtquelleneinheit und (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen dem Sensortakt und dem Lichtquellentakt auftritt, ferner indem eine Formel zur Differenzberechnung erzeugt wird, um eine Differenz der jeweiligen Formeln zur Abstandsberechnung zu berechnen, und ferner indem (d) eine lineare Gleichung erzeugt wird, die durch eine den Entfernungsmesser und das Objekt verbindende Linie bestimmt ist, und indem die Formel zur Differenzberechnung und die lineare Gleichung als simultane Gleichung gelöst werden.
  9. Entfernungsmesser nach Anspruch 8, wobei die Formel zur Differenzberechnung eine Gleichung ist, die ein Hyperboloid unter Verwendung von Positionen zweier Lichtquellen der Lichtquelleneinheit als Brennpunkte definiert, und die Einheit zur Abstandsberechnung einen Schnittpunkt zwischen dem durch die Formel zur Differenzberechnung definierten Hyperboloid und der linearen Gleichung als Position des Objekts berechnet.
  10. Entfernungsmesssystem, aufweisend: eine Lichtquelleneinheit mit einer Vielzahl von Lichtquellen; einen Entfernungsmesser, der dafür konfiguriert ist, von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder Lichtquelle der Lichtquelleneinheit ausgegeben wird, worin der Entfernungsmesser umfasst einen Laufzeit-, ToF-Sensor, der dafür konfiguriert ist, das reflektierte Licht vom Objekt zu empfangen, und eine Einheit zur Abstandsberechnung, die dafür konfiguriert ist, eine Ausgabe des ToF-Sensors zu analysieren, um einen Abstand zum Objekt zu berechnen, und die Lichtquelleneinheit eine Zeitsteuerung der Lichtemission einer Lichtquelle aufweist, die durch einen Takt der Lichtquelleneinheit gesteuert wird, und der ToF-Sensor des Entfernungsmessers eine Zeitsteuerung einer Bildaufnahme aufweist, die durch einen Sensortakt gesteuert wird, wobei der Takt der Lichtquelleneinheit und der Sensortakt verschiedene unabhängige Takte sind.
  11. Entfernungsmesssystem nach Anspruch 10, wobei die Lichtquelleneinheit die Vielzahl von Lichtquellen mit einer festen relativen Position enthält.
  12. Entfernungsmesssystem nach Anspruch 10, wobei die Lichtquelleneinheit drei oder mehr Lichtquellen mit einer festen relativen Position enthält.
  13. Entfernungsmesssystem nach Anspruch 10, wobei das Entfernungsmesssystem umfasst eine Vielzahl von Lichtquelleneinheiten, die jeweils die Vielzahl von Lichtquellen aufweisen, und die Vielzahl von Lichtquellen, die in der Vielzahl von Lichtquelleneinheiten vorgesehen sind, eine Zeitsteuerung der Lichtemission aufweist, die durch einen Takt der Lichtquelleneinheit gesteuert wird.
  14. Entfernungsmesssystem nach Anspruch 10, wobei die Vielzahl von Lichtquellen der Lichtquelleneinheit und der Entfernungsmesser auf einer geraden Linie angeordnet sind und der Entfernungsmesser Eingangslicht aus einer Richtung auffängt, die von einer Richtung der geraden Linie mit dem ToF-Sensor verschieden ist.
  15. Entfernungsmesssystem nach Anspruch 10, ferner aufweisend: eine Einheit zur Takteinstellung, die in der Lichtquelleneinheit und/oder dem Entfernungsmesser vorgesehen ist, wobei die Einheit zur Takteinstellung dafür konfiguriert ist, eine Steuerung zum Eliminieren oder Reduzieren einer Abweichung in der Frequenz zwischen dem Sensortakt und dem Takt der Lichtquelleneinheit durchzuführen.
  16. Entfernungsmessverfahren, das in einem Entfernungsmesser ausgeführt wird, wobei das Verfahren aufweist: einen Schritt, um mittels eines Laufzeit- (ToF-) Sensors von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder einer Vielzahl von Lichtquellen ausgegeben wird, die in einer Lichtquelleneinheit enthalten sind; und einen Schritt zur Abstandsberechnung, um mittels einer Einheit zur Abstandsberechnung einen Abstand zu dem Objekt zu berechnen, indem eine Ausgabe des ToF-Sensors analysiert wird, wobei der Schritt zur Abstandsberechnung ein Schritt ist, um den Abstand zum Objekt zu berechnen, indem als eine Vielzahl von Formeln zur Abstandsberechnung, um einen Abstand von der Vielzahl von Lichtquellen der Lichtquelleneinheit zum Entfernungsmesser zu berechnen, die Vielzahl von Formeln zur Abstandsberechnung erzeugt wird, die von Datenelementen (a) bis (c) wie folgt gebildet werden: (a) Daten bezüglich eines Abstands zwischen dem Entfernungsmesser und dem Objekt, (b) Daten bezüglich eines Abstands zwischen dem Objekt und jeder Lichtquelle der Lichtquelleneinheit und (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen einem Sensortakt und einem Lichtquellentakt auftritt, und ferner indem eine Formel zur Differenzberechnung erzeugt wird, um eine Differenz der jeweiligen Formeln zur Abstandsberechnung zu berechnen, und indem die erzeugte Formel zur Differenzberechnung verwendet wird.
  17. Entfernungsmessverfahren, das in einem Entfernungsmesssystem ausgeführt wird, das eine Lichtquelleneinheit mit einer Vielzahl von Lichtquellen und einen Entfernungsmesser enthält, der dafür konfiguriert ist, Licht zu empfangen, das von jeder Lichtquelle der Lichtquelleneinheit ausgegeben wird und von einer Oberfläche eines Objekts reflektiert wird, wobei das Verfahren aufweist: einen Schritt, um mittels der Lichtquelleneinheit Licht von jeder Lichtquelle der Lichtquelleneinheit zu einem Lichtemissionszeitpunkt zu emittieren, der durch einen Takt der Lichtquelleneinheit definiert ist; einen Schritt, um mittels eines ToF-Sensors des Entfernungsmessers eine Bildaufnahme zu einem Bildaufnahmezeitpunkt auszuführen, der durch einen Sensortakt definiert ist, der vom Takt der Lichtquelleneinheit verschieden ist; und einen Schritt, um mittels einer Einheit zur Abstandsberechnung des Entfernungsmessers einen Abstand zum Objekt zu berechnen, indem eine Ausgabe des ToF-Sensors analysiert wird.
  18. Programm, das einen Entfernungsmesser veranlasst, eine Verarbeitung zur Entfernungsmessung auszuführen, aufweisend: einen Schritt, um einen Laufzeit-, ToF-Sensor zu veranlassen, von einer Oberfläche eines Objekts reflektiertes Licht zu empfangen, wobei das reflektierte Licht von jeder einer Vielzahl von Lichtquellen ausgegeben wird, die in einer Lichtquelleneinheit enthalten sind; und einen Schritt zur Abstandsberechnung, um eine Einheit zur Abstandsberechnung zu veranlassen, einen Abstand zum Objekt zu berechnen, indem eine Ausgabe des ToF-Sensors analysiert wird, wobei der Schritt zur Abstandsberechnung eine Verarbeitung durchführt, um als eine Vielzahl von Formeln zur Abstandsberechnung, um einen Abstand von der Vielzahl von Lichtquellen der Lichtquelleneinheit zum Entfernungsmesser zu berechnen, die Vielzahl von Formeln zur Abstandsberechnung zu erzeugen, die von Datenelementen (a) bis (c) wie folgt gebildet werden: (a) Daten bezüglich eines Abstands zwischen dem Entfernungsmesser und dem Objekt, (b) Daten bezüglich eines Abstands zwischen dem Objekt und jeder Lichtquelle der Lichtquelleneinheit und (c) einem Offset C, der einem Entfernungsmessfehler entspricht, der aufgrund einer Differenz in der Phase zwischen einem Sensortakt und einem Lichtquellentakt auftritt, und ferner eine Verarbeitung, um eine Formel zur Differenzberechnung zu erzeugen, um eine Differenz der jeweiligen Formeln zur Abstandsberechnung zu berechnen, und eine Verarbeitung, um den Abstand zum Objekt unter Verwendung der erzeugten Formel zur Differenzberechnung zu berechnen.
DE112019003952.0T 2018-08-07 2019-07-10 Entfernungsmesser, entfernungsmesssystem, entfernungsmessverfahren und programm Pending DE112019003952T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018-148529 2018-08-07
JP2018148529 2018-08-07
PCT/JP2019/027353 WO2020031603A1 (ja) 2018-08-07 2019-07-10 距離計測装置、距離計測システム、および距離計測方法、並びにプログラム

Publications (1)

Publication Number Publication Date
DE112019003952T5 true DE112019003952T5 (de) 2021-05-06

Family

ID=69415510

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019003952.0T Pending DE112019003952T5 (de) 2018-08-07 2019-07-10 Entfernungsmesser, entfernungsmesssystem, entfernungsmessverfahren und programm

Country Status (5)

Country Link
US (1) US20210293939A1 (de)
KR (1) KR20210042311A (de)
CN (1) CN112513670B (de)
DE (1) DE112019003952T5 (de)
WO (1) WO2020031603A1 (de)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210036574A (ko) * 2019-09-26 2021-04-05 삼성전자주식회사 자세 추정 방법 및 장치
KR20240030636A (ko) 2022-08-31 2024-03-07 주식회사 동운아나텍 3d 센싱 시스템의 센싱 깊이값 보정장치 및 그 방법

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6373428B1 (en) * 1999-04-01 2002-04-16 Mcewan Technologies, Llc Self locking dual frequency clock system
US7525670B1 (en) * 2008-04-02 2009-04-28 Eastman Kodak Company Distance and orientation measurement of an object
JP2010190675A (ja) * 2009-02-17 2010-09-02 Toyota Motor Corp 距離画像センサシステムおよび距離画像生成方法
KR101975971B1 (ko) * 2012-03-19 2019-05-08 삼성전자주식회사 깊이 카메라, 다중 깊이 카메라 시스템, 그리고 그것의 동기 방법
JP2018031607A (ja) 2016-08-23 2018-03-01 ソニーセミコンダクタソリューションズ株式会社 測距装置、電子装置、および、測距装置の制御方法
JP6795758B2 (ja) * 2016-09-29 2020-12-02 ミツミ電機株式会社 センサ回路及びセンサ装置
CN110226184B (zh) * 2016-12-27 2023-07-14 杰拉德·迪尔克·施密茨 用于机器感知的系统和方法

Also Published As

Publication number Publication date
US20210293939A1 (en) 2021-09-23
CN112513670B (zh) 2024-06-18
TW202010999A (zh) 2020-03-16
KR20210042311A (ko) 2021-04-19
CN112513670A (zh) 2021-03-16
WO2020031603A1 (ja) 2020-02-13

Similar Documents

Publication Publication Date Title
DE112014003227B4 (de) Dreidimensionales Messgerät mit dreidimensionaler Übersichtskamera
DE10058244C2 (de) Messverfahren zur Ermittlung der Position eines Objektes vor einem Bildschirm und Vorrichtung zur Durchführung des Verfahrens
EP3278302B1 (de) Bewegungsmesssystem einer maschine und verfahren zum betreiben des bewegungsmesssystems
EP2710331B1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
DE10310767B4 (de) Monitor
EP2800982B1 (de) Verfahren und vorrichtung zur radunabhängigen geschwindigkeitsmessung bei einem fahrzeug
EP2422297B1 (de) Vorrichtung und verfahren zum erfassen einer pflanze
EP2993450B1 (de) Verfahren und anordnung zur erfassung von akustischen und optischen informationen sowie ein entsprechendes computerprogramm und ein entsprechendes computerlesbares speichermedium
DE112009001833B4 (de) 3D-Flugzeit-Kamerasystem und zugehöriges Positions-/Orientierungs-Kalibrationsverfahren
DE102016103302A1 (de) Systeme und verfahren zum modularen ladar-scannen
DE102016107959A1 (de) Auf strukturiertem Licht basierende Multipfadlöschung bei Top-Bilderzeugung
DE102016106511A1 (de) Parametrische Online-Kalibrierung und Kompensation bei der TOF-Bilderzeugung
EP3195256B1 (de) Verfahren und vorrichtung zum identifizieren von strukturelementen eines projizierten strukturmusters in kamerabildern
DE102021204945A1 (de) Zeitsynchronisation und Latenzkompensation für Emulationstestsystem
DE112019003952T5 (de) Entfernungsmesser, entfernungsmesssystem, entfernungsmessverfahren und programm
DE102016217628B4 (de) Verfahren zum Betreiben eines Operationsmikroskopiesystems, Bewegungsmesssystem für ein Operationsmikroskopiesystem und Operationsmikroskopiesystem
AU2019219836B2 (en) Method, apparatus and system for scanning and imaging
DE112017008125T5 (de) Bild-Synthesevorrichtung und Bild-Syntheseverfahren
DE112019000388T5 (de) Vorrichtung zur bereitstellung von informationen über eine installationsposition und verfahren zur bereitstellung von informationen über die installationsposition
DE102017009983A1 (de) Bilderfassungsvorrichtung und Bilderfassungsverfahren
DE102020204740A1 (de) System, Verfahren und Programm zum Überwachen einer dreidimensionalen Infrastruktur
EP3572971B1 (de) Absichern eines überwachungsbereichs mit mindestens einer maschine
DE102014113431A1 (de) Adaptive Abstandsschätzung
DE102011001475B4 (de) Verfahren und Vorrichtungen zur Positionsbestimmung
DE102006003877B4 (de) Vibrometer

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication