DE112010003649B4 - Distanzmessvorrichtung, Distanzmessverfahren und Programm - Google Patents

Distanzmessvorrichtung, Distanzmessverfahren und Programm Download PDF

Info

Publication number
DE112010003649B4
DE112010003649B4 DE112010003649.7T DE112010003649T DE112010003649B4 DE 112010003649 B4 DE112010003649 B4 DE 112010003649B4 DE 112010003649 T DE112010003649 T DE 112010003649T DE 112010003649 B4 DE112010003649 B4 DE 112010003649B4
Authority
DE
Germany
Prior art keywords
distance
image
subject
image pickup
pickup conditions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE112010003649.7T
Other languages
English (en)
Other versions
DE112010003649T5 (de
Inventor
Keisuke Korekado
Tomoyuki Kamiyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE112010003649T5 publication Critical patent/DE112010003649T5/de
Application granted granted Critical
Publication of DE112010003649B4 publication Critical patent/DE112010003649B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4915Time delay measurement, e.g. operational details for pixel components; Phase measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/30Systems for automatic generation of focusing signals using parallactic triangle with a base line
    • G02B7/32Systems for automatic generation of focusing signals using parallactic triangle with a base line using active means, e.g. light emitter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)
  • Studio Devices (AREA)

Abstract

Distanzmessvorrichtung (10) umfassend: eine Lichtquelle (30) zum Abgeben von Licht; eine Bildaufnahmeeinheit (14) zum Aufnehmen eines Bilds eines Subjekts basierend auf dem von der Lichtquelle (30) abgegebenen und von dem Subjekt reflektierten Licht; einen Distanzinformationswandler (16) zum Wandeln von Pixelwerten von Pixeln, die von der Bildaufnahmeeinheit (14) erhalten werden, wenn die Bildaufnahmeeinheit (14) das Bild des Objekts aufnimmt, in Distanzinformation, die eine Distanz bis zu dem Objekt repräsentiert; einen Bildaufnahmebedingungssetzabschnitt (50) zum Setzen von ersten Bildaufnahmebedingungen basierend auf der Distanzinformation; einen Bildaufnahmecontroller (52) zum Ansteuern der Lichtquelle (30) und der Bildaufnahmeeinheit (14) zum Aufnehmen des Bilds des Subjekts unter den ersten Bildaufnahmebedingungen, einen Distanzmessgenauigkeitsanalysator (54) zum Analysieren einer Distanzmessgenauigkeit unter den ersten Bildaufnahmebedingungen und zum Identifizieren einer genauigkeitsverringernden Distanz, bei der die Distanzmessgenauigkeit schlechter als ein bestimmter Wert ist; worin der Bildaufnahmebedingungssetzabschnitt (50) die ersten Bildaufnahmebedingungen derart setzt, dass die Pixelwerte der Pixel, die das Licht erfassen, das von einem an einer kürzesten Distanz angeordneten Subjekt reflektiert wird, als erster Schwellenwert dienen, und zweite Bildaufnahmebedingungen zum Erhalt von Luminanzinformation setzt, die heller ist als die ersten Bildaufnahmebedingungen, wenn das Subjekt an einer Distanz vorhanden ist, die weiter als die genauigkeitsverringernde Distanz entfernt ist, derart, dass Pixelwerte der Pixel, die Licht erfassen, das von einem an einer kürzester Distanz angeordneten Abschnitt des Subjekts reflektiert wird, das sich an der Distanz weiter als die genauigkeitsverringernde Distanz befindet, als zweiter Schwellenwert dienen; und ...

Description

  • Die vorliegende Erfindung betrifft eine Distanzmessvorrichtung, ein Distanzmessverfahren und ein Aufzeichnungsmedium mit einem Programm zum Messen der Distanz zu einem Subjekt mit einer Bildaufnahmevorrichtung.
  • Es ist bekannt, eine Bildaufnahmevorrichtung als Distanzmesssensor gemäß einem Flugzeit(TOF)-Prozess zu verwenden, wie in JP 2001-281336 A und JP H08-313215 A offenbart. Gemäß dem TOF-Prozess wird auf ein Subjekt Licht geworfen, und die Zeitdauer, die das abgegebene Licht benötigt, um von dem Objekt zurückzukehren, wird als Maß der Distanz bis zu dem Subjekt gemessen.
  • Es ist auch bekannt, wie im JP 3074967 B2 und der JP 2002-064449 A offenbart, zwei Sätze von Bilddaten, die durch Aufnahme von zwei Bildern jeweils in Lang- und Kurzzeit-Belichtungsmodi erzeugt werden, in einem Prozess der Erfassung von Hoch- und Niedrigluminanzbildern mit einer Bildaufnahmevorrichtung zu kombinieren, um Bilddaten zu erzeugen, die einen breiteren dynamischen Bereich haben, auch wenn eine starke Luminanzdifferenz zwischen den Hoch- und Niedrigluminanzbildern vorhanden ist.
  • Die JP 2008 145 263 A zeigt einen Photoapparat, der eine Linse mit Zoom-Funktion, einen Farbfilter und eine Blende zur Einstellung der Belichtungszeit sowie eine Distanzmessvorrichtung enthält. Zur Bildaufnahme ist ein Bildsensor in Form eines CCD-Arrays vorgesehen, mit dem die Lichtintensität auf jedem Pixel bestimmt wird. Ferner ist eine Lichtquelle vorgesehen, die Licht für eine TOF-Messung aussendet. Mit der Kamera werden Bilder aufgenommen. Dabei wird von der Bildanalyseeineheit eine Unterscheidung von 5 Objekten H1 bis H5 vorgenommen. Dargestellt sind zwei Bäume im Hintergrund, davor zwei Pkw, und eine Person im Vordergrund. Ferner wird eine digitale Bildanalyse vorgenommen, und eine Kantenanalyse, so dass die Objekte H1 bis H5 als schematische Umrisse bekannt sind. Gemäß den weiteren Ausführungen kann in einem ersten Ausführungsbeispiel die Distanzmessung für die einzelnen Objekte dadurch erfolgen, dass die Kamera um eine Distanz verschoben wird und dann aus der Bildanalyse eine Bewegung der Objekte rekonstruiert werden kann. Somit kann aus einer Triangulation die Distanz zu den Objekten für jedes Pixel geschätzt werden. Wird nun in einem zweiten Schritt der Rücksetzknopf gedrückt, so wird eine zweite Messung von der Kamera durchgeführt. Die TOF-Messung misst den optischen Abstand zum Objekt. Die Bildaufnahmebedingungen werden für ein nahes Objekt so gewählt, dass eine Übersteuerung der Bildaufnahmeeinheit vermieden wird.
  • MIYAGAWA, R.; KANADE, T.: CCD-Based Range-Finding Sensor. In: IEEE Transactions on Electron Devices, Vol. 44, No. 10, 1997, S. 1648–1642 beschreiben ein Verfahren mit dem die Bildaufnahmebedingungen gesetzt werden, entsprechend der vorab geschätzten Entfernung zu dem Objekt, um eine Übersteuerung und eine Untersteuerung zu vermeiden. In diesem Sinne wird ein erwarteter Schwellwert definiert, der eine Übersteuerung vermeidet.
  • Wenn eine Bildaufnahmevorrichtung als Distanzmesssensor verwendet wird, wirft eine Lichtquelle Licht auf ein Subjekt. Das Licht, das das Subjekt erreicht, wird mit einer Rate gedämpft, die proportional zum Quadrat der Distanz zu der Lichtquelle zum Subjekt ist. Wenn die Lichtquelle eingestellt wird, um Licht auf ein nahes Subjekt zu werfen, dann wird das von der Lichtquelle abgegebene Licht weniger intensiv, wenn es ein fernes Subjekt erreicht, und die Genauigkeit, mit der die Distanz bis zu dem fernen Subjekt zu messen ist, nimmt ab. Wenn umgekehrt die Lichtquelle so eingestellt wird, dass diese Licht auf ein fernes Subjekt wirft, dann wird das von der Lichtquelle abgegebene Licht intensiver, wenn es das nahe Subjekt erreicht, mit der Tendenz, die Pixel der Bildaufnahmevorrichtung zu sättigen, die somit unfähig wird, die Distanz zu dem nahen Subjekt zu messen.
  • Die vorliegende Erfindung ist im Hinblick auf die obigen Probleme des technischen Hintergrunds gemacht worden. Aufgabe der vorliegenden Erfindung ist es, eine Distanzmessvorrichtung, ein Distanzmessverfahren und ein Programm anzugeben, die in der Lage sind, die Distanz zu einem Objekt mit erhöhter Genauigkeit zu messen.
  • Zum Lösen der obigen Aufgabe wird gemäß der vorliegenden Erfindung eine Distanzmessvorrichtung gemäß Anspruch 1 angegeben.
  • Die Distanzmessvorrichtung kann ferner einen Distanzinformationskombinierer enthalten, zum miteinander Kombinieren der aus den Pixelwerten gewandelten Distanzinformation, wenn das Bild des Subjekts unter den ersten Bildaufnahmebedingungen aufgenommen wird, und der aus den Pixelwerten gewandelten Distanzinformation, wenn das Bild des Subjekts unter den zweiten Bildaufnahmebedingungen aufgenommen wird.
  • Die Differenz zwischen dem zweiten Schwellenwert und einem Pixelsättigungswert kann größer sein als die Differenz zwischen dem ersten Schwellenwert und dem Pixelsättigungswert.
  • Das Subjekt kann ein vom Verwender gewähltes Subjekt aufweisen, oder ein Subjekt, dessen Bild in einer bestimmten Fläche einer zweidimensionalen Pixelmatrix aufgenommen wird.
  • Zum Lösen der obigen Aufgabe wird gemäß der vorliegenden Erfindung auch ein Distanzmessverfahren gemäß Anspruch 5 angegeben.
  • Zur Lösung der obigen Aufgabe wird ferner gemäß der vorliegenden Erfindung ein Aufzeichnungsmedium gemäß Anspruch 6 angegeben.
  • Gemäß der vorliegenden Erfindung wird die Distanzmessgenauigkeit erhöht, um es möglich zu machen, die Distanz bis zu dem Subjekt akkurat zu messen.
  • 1 ist ein Blockdiagramm, das eine allgemeine elektrische Konfiguration einer Distanzmessvorrichtung gemäß einer Ausführung der vorliegenden Erfindung zeigt;
  • 2A und 2B sind Diagramme, die die Prinzipien eines Prozesses zum Setzen der Bildaufnahmebedingungen durch einen Controller darstellen;
  • 3A und 3B sind Diagramme, die Kennlinien darstellen, die Bildaufnahmezustände repräsentieren, die erforderlich sind, um Bilddistanzdaten zu erhalten, die für einen Kombinationsprozess erforderlich sind, in dem Fall, dass die Mehrzahl von Subjekten vorhanden sind;
  • 4A und 4B sind Diagramme, die Kennlinien darstellen, die die Bildaufnahmebedingungen repräsentieren, die erforderlich sind, um Bilddistanzdaten zu erhalten, die für einen Kombinationsprozess erforderlich sind, in dem Fall, dass sich ein Subjekt in einem weiten Bereich von kurzer Distanz zu langer Distanz erstreckt;
  • 5 ist ein Zeitdiagramm, das Belichtungszeiten zeigt
  • 6 ist ein Diagramm, das die Umwandlung von einer Fluktuation einer akkumulierten elektrischen Ladung in einen Distanzmessfehler darstellt;
  • 7 ist ein Flussdiagramm einer Betriebssequenz der Distanzmessvorrichtung; und
  • 8 ist ein Diagramm, das schematisch kombinierte Bildabschnittsdistanzdaten zeigt, die aus Bilddistanzdaten erzeugt werden.
  • Eine Distanzmessvorrichtung gemäß einer bevorzugten Ausführung der vorliegenden Erfindung wird nachfolgend im Detail mit Bezug auf die beigefügten Zeichnungen beschrieben.
  • 1 ist ein Blockdiagramm, das eine allgemeine elektrische Konfiguration einer Distanzmessvorrichtung gemäß einer Ausführung der vorliegenden Erfindung zeigt. Die Distanzmessvorrichtung 10 enthält eine Lichtabgabevorrichtung 12, eine Bildaufnahmeeinheit 14, einen Bilddistanzdatenwandler (Distanzinformationswandler) 16, einen Controller 18, einen Bilddistanzdatenkombinierer (Distanzdatensynthetisierer) 20 und eine Bilddistanzdatenausgabeeinheit 22. Eine Informationsverarbeitungsvorrichtung wie etwa CPUs oder dergleichen fungiert als die Distanzmessvorrichtung 10, indem sie in einem nicht gezeigten Speicher aufgezeichnete Programme liest.
  • Die Lichtabgabevorrichtung 12 hat einen Lichtemitter (Lichtquelle) 30 zum Abgeben von Licht und einen Treiber 32 zur Energieversorgung der Lichtquelle 30, um das Licht abzugeben. Der Treiber 32 versorgt die Lichtquelle 30 mit Energie, um das Licht gemäß Bildaufnahmezuständen abzugeben, die zu dem Controller 18 geschickt werden, welche die Intensität des abgegebenen Lichts, die Zeit während der Licht abgegeben wird, und Steuerzeiten der Lichtabgabe, etc. steuert/regelt. Die Lichtabgabevorrichtung 12 wirft von der Lichtquelle 30 abgegebenes Licht auf ein Subjekt. Die Lichtabgabevorrichtung 12 kann Licht abgeben, dessen Intensität moduliert wird.
  • Die Bildaufnahmeeinheit 14 hat eine Linse 40, eine Membran 42, eine nicht gezeigte Membrantreiberschaltung zum Aktivieren der Membran 42, eine Bildaufnahmevorrichtung 44 und eine Schaltungseinheit 46. Die Membran 42 steuert die auf die Bildaufnahmevorrichtung 44 geworfene Lichtmenge. Die Membrantreiberschaltung aktiviert die Membran 42 gemäß den vom Controller gesetzten Bildaufnahmebedingungen. Die auf die Bildaufnahmevorrichtung 44 geworfene Lichtmenge verändert sich in Abhängigkeit davon, wie stark die Membran 42 die Lichtmenge begrenzt, die dort hindurch geht (Aperturwert), der Belichtungszeit, und der Lichtmenge, die von der Lichtabgabevorrichtung 12 abgegeben wird.
  • Die Bildaufnahmevorrichtung 44 nimmt ein Bild eines Subjekts durch die Linse 40 und die Membran 42 auf. Die Bildaufnahmevorrichtung 44 wird angesteuert, um Bilder eines Subjekts aufzunehmen und dafür Daten zu erzeugen, zum Beispiel mit einem konstanten periodischen Intervall (konstanter Framerate) von 30 fps. Die Bildaufnahmevorrichtung 44 braucht nicht Bilder eines Subjekts mit einem konstanten periodischen Intervall aufnehmen. Zum Beispiel können die Zeitintervalle zwischen den aufgenommenen Bildern voneinander unterschiedlich sein. Wenn Bilder unter unterschiedlichen Bildaufnahmebedingungen aufgenommen werden sollen, dann braucht die Bildaufnahmevorrichtung 44 ein Subjekt nicht mit einem konstanten periodischen Intervall aufnehmen. Das Aufnehmen eines Bilds bezieht sich auf die fotoelektrische Umwandlung von detektiertem Licht in elektrische Ladungen und Akkumulation der elektrischen Ladungen. Die Bildaufnahmevorrichtung 44 enthält Pixel jeweils zur fotoelektrischen Umwandlung von detektiertem Licht in elektrische Ladungen und zum Akkumulieren der elektrischen Ladungen. Bilddaten beziehen sich auf eine Ansammlung von elektrischen Ladungen, die von den Pixeln akkumuliert werden, das heißt von den Pixeln detektierte Pixelwerte. Die Bildaufnahmevorrichtung 44 fungiert als elektronischer Verschluss, der in der Lage ist, die Belichtungszeit der Bildaufnahmevorrichtung 44 einzustellen. Die Bildaufnahmevorrichtung 44 kann an die Schaltungseinheit 46 elektrische Ladungen ausgeben, die z. B. mit einem konstanten periodischen Intervall von 30 fps akkumuliert wurden. Die Bildaufnahmevorrichtung 44 kann eine CCD oder eine CMOS aufweisen.
  • Die Schaltungseinheit 46 hat eine A/D-Wandler zum Umwandeln eines analogen Signals, das von der Bildaufnahmevorrichtung 44 ausgegebene Bilddaten repräsentiert, in ein digitales Signal (A/D-Wandlung). Der A/D-Wandler wandelt pro Pixel ein analoges Signal in ein digitales Signal um. Die Verstärkung des A/D-Wandlers (Konversionsfaktor) kann variabel sein. Die Bildaufnahmevorrichtung 44 gibt die elektrischen Ladungen der jeweiligen Pixel an den Bildabschnittsdistanzdatenwandler 16 aus.
  • Der Bilddistanzdatenwandler (Distanzinformationswandler) 16 wandelt die aufgenommenen Bilddaten gemäß einem TOF-Prozess in Bilddistanzdaten um. Der TOF-Prozess wird im Detail nachfolgend nicht beschrieben, da er in der Technik bekannt ist. Um Bilddistanzdaten gemäß dem TOF-Prozess zu erhalten, nimmt die Bildaufnahmeeinheit 14 eine Mehrzahl von Bildern eines Subjekts zu unterschiedlichen Bildaufnahmezeiten auf, und der Bilddistanzdatenwandler 16 erzeugt Daten für ein Bereichsbild aus Daten einer Mehrzahl von erhaltenen Bildern.
  • Der Bilddistanzdatenwandler 16 wandelt den Pixelwert des Pixels in Distanzdaten um, um hierdurch Distanzdaten pro Pixel zu erzeugen, die Distanzen von jeweiligen Pixeln zu dem von den jeweiligen Pixeln detektierten Subjekt repräsentieren. Die den jeweiligen Pixeln zugeordnete Distanzdaten werden nachfolgend als Pixeldistanzdaten (Distanzinformation) bezeichnet. Die Pixeldistanzdaten werden in Bilddistanzdaten gesammelt. Obwohl die Bilddistanzdaten keine Bilddaten sind, werden sie so genannt, weil sie eine Matrix von Pixeldistanzdaten repräsentieren.
  • Die Distanzen von den jeweiligen Pixeln zu dem Subjekt werden somit erhalten. Der Bilddistanzdatenwandler 16 gibt die Bilddistanzdaten an den Controller 18, den Bilddistanzdatensynthetisierer 20 und die Bilddistanzdatenausgabeeinheit (Distanzinformationsausgabeeinheit) 22 aus. Ein Bilddistanzdatenelement wird erzeugt, indem während einer Frameperiode erzeugte Bilddaten umgewandelt werden. Der Bilddistanzdatenwandler 16 kann einen Prozessor, wie etwa ein DSP oder dergleichen, aufweisen. Die Bildaufnahmeeinheit 14 nimmt eine Mehrzahl von Bildern während einer Frameperiode auf, und der Bilddistanzdatenwandler 16 erzeugt ein Bilddistanzdatenelement aus Daten für eine Mehrzahl von Bildern, die aus der Bildaufnahme erhalten werden.
  • Der Controller 18 hat ebnen Bildaufnahmebedingungssetzabschnitt 50, einen Bildaufnahmecontroller 52 und einen Distanzmessgenauigkeitsanalysator 54. Der Controller 18 kann einen Prozessor, wie etwa für eine CPU oder dergleichen aufweisen. Der Bildaufnahmebedingungssetzabschnitt 50 analysiert die Pixeldistanzdaten der Bilddistanzdaten und erzeugt ein Histogramm des Subjekts. Das Histogramm repräsentiert die Distanz bis zu dem Subjekt und die Anzahl von Pixeln. Basierend auf dem erzeugten Histogramm setzt der Bildaufnahmesetzabschnitt 50 Bildaufnahmebedingungen, die für die Distanz bis zu dem Subjekt optimal sind. Die Bildaufnahmebedingungen enthalten Lichtmenge, die von der Lichtabgabevorrichtung 12 zu dem Subjekt emittiert wird, das heißt die Lichtmenge, die von der Lichtmenge 30 emittiert wird, die Belichtungszeit während einer Frameperiode der Bildaufnahmevorrichtung 44, den Aperturwert der Membran 42 und den Verstärkungswert. Da die Bildaufnahmeeinheit 14 eine Mehrzahl von Bildern während einer Frameperiode aufnimmt, werden die Belichtungszeiten für die vorliegenden Bildern während einer Frameperiode auch als Bildaufnahmebedingungen gesetzt.
  • Der Bildaufnahmecontroller 52 steuert die Lichtabgabevorrichtung 12, um unter den gesetzten Bildaufnahmebedingungen Licht abzugeben. Der Bildaufnahmecontroller 52 steuert auch die Bildaufnahmeeinheit 14, um Bilder des Subjekts unter dem Satz von Bildaufnahmebedingungen aufzunehmen. Insbesondere steuert der Bildaufnahmecontroller 52 die Membran 42 gemäß dem gesetzten Aperturwert und belichtet die Bildaufnahmevorrichtung 44 der gesetzten Belichtungszeit. Der Bildaufnahmecontroller 52 steuert auch die Schaltungseinheit 46 an, um deren Verstärkung auf den gesetzten Verstärkungswert einzustellen. Die Bildaufnahmeeinheit 14 ist somit in der Lage, in Abhängigkeit von der Distanz bis zu dem Subjekt Bilder aufzunehmen. Zum Beispiel ist die Bildaufnahmeeinheit 14 in der Lage, Bilder des Subjekts aufzunehmen, wenn das Subjekt an einer kurzen Distanz und an einer langen Distanz angeordnet ist.
  • Der Distanzmessgenauigkeitsanalysator 54 analysiert die von dem Bildaufnahmebedingungssetzabschnitt 50 gesetzten Bildaufnahmebedingungen und identifiziert eine Distanz (eine Position bei einem Abstand), an der die Abstandsmessgenauigkeit niedriger als ein bestimmter Wert ist. Der Distanzmessgenauigkeitsanalysator 54 wertet basierend auf der Distanzmessgenauigkeit aus, ob die Distanzdaten kombiniert werden sollen oder nicht. Zum Beispiel entscheidet der Distanzmessgenauigkeitsanalysator 54, dass die Distanzdaten kombiniert werden sollen, wenn das Subjekt in einer Position vorhanden ist, die weiter entfernt ist, als die Position, an der die Distanzmessgenauigkeit niedriger als der vorbestimmte Wert ist.
  • Der Bilddistanzdatensynthetisierer (Distanzinformationskombinierer) 20 kombiniert eine Mehrzahl von Bilddistanzdaten, die aus Bildern erzeugt wurden, die von der Bildaufnahmeeinheit 14 unter unterschiedlichen Bildaufnahmebedingungen aufgenommen wurden, in Bezug auf ein Subjekt bei unterschiedlichen Distanzen, und die durch den Bilddistanzdatenwandler 16 gewandelt wurden. In anderen Worten, der Bilddistanzdatensynthetisierer 20 synthetisiert Bilddistanzdaten aus einer Mehrzahl von Bilddistanzdaten. Der Bilddistanzdatensynthetisierer 20 kann einen Prozessor, wie etwa ein DSP oder dergleichen, aufweisen.
  • Die 2A und 2B sind Diagramme, die Prinzipien eines Prozesses zum Setzen von Bildaufnahmebedingungen durch den Controller 18 darstellen. 2A zeigt ein Histogramm eines Subjekts 111, das zwischen einer Distanz Z2 und einer Distanz D3 verteilt ist. Das Histogramm hat eine vertikale Achse, die die Pixelanzahl repräsentiert. Die Bildaufnahmebedingungen werden eingestellt, um die Distanz bis zu dem Subjekt 111 mit höherer Genauigkeit zu messen. Zum Messen der Distanz mit höherer Genauigkeit ist es erforderlich, das Subjekt unter gegebenen Bildaufnahmebedingungen oder gewünschten Bildaufnahmebedingungen und die Distanz bis zu dem Subjekt vorab zu messen (Vor-Messmodus oder vorläufiger Messmodus). Das in 2A gezeigte Histogramm wird in dem Vor-Messmodus erhalten. Die Distanz bis zu dem Subjekt 111, die in dem Vor-Messmodus erhalten wird, kann möglicherweise von der tatsächlichen Distanz unterschiedlich sein (die Messgenauigkeit ist niedrig). Das Subjekt bezieht sich nicht auf jedes Objekt, wie einer Person, ein Gebäude, eine Brücke, eine Katze oder dergleichen, aber bezieht sich auf alles, was von der Bildaufnahmeeinheit 14 aufgenommen wird. Das Subjekt 111 kann eine Mehrzahl von Objekten enthalten, wie etwa Personen, Gebäude, etc.
  • 2B zeigt Kennlinien, die Bildaufnahmebedingungen repräsentieren, von elektrischen Ladungen, die in den Pixeln der Bildaufnahmevorrichtung unter Bildaufnahmebedingungen akkumuliert sind. Wie oben beschrieben, wird die Intensität des an der Lichtabgabevorrichtung 12 gegebenen Lichts mit einer Rate gedämpft, die proportional zum Quadrat der Distanz ist. Die Kennlinien, welche die akkumulierten elektrischen Ladungen repräsentieren, geben an, dass dann, wenn die Distanz größer wird, sich die elektrischen Ladungen pro Distanzeinheit um einen kleineren Grad verändern. Eine Kennlinie 112 ist eine Kurve, gemäß der die elektrischen Ladungen, die in den Pixeln (Pixelwerten) zu der Zeit akkumuliert werden, zu der ein Bild eines Subjekts mit Distanz Z1 aufgenommen wird, als Schwellenwert dienen. Die Kennlinie 112 hat einen Absolutwert durch Gradienten, der in einem Abschnitt davon größer ist, wo die Pixelwerte höher sind. Wenn die Pixelwerte einer A/D-Wandlung unterzogen werden, ist die Auflösung der Pixelwerte in dem Abschnitt der Kennlinie 112 mit größerer Steigung höher. Umgekehrt ist der Absolutwertgradient der Kennlinie 112 an einem Abschnitt davon kleiner, wo die Pixelwerte niedriger sind. Wenn die Pixelwerte einer A/D-Wandlung unterzogen werden, ist die Auflösung der Pixelwerte in dem Abschnitt der Kennlinie 112 mit kleinerer Steigung niedriger. Daher ist es nicht möglich, den Abstand zu dem Objekt mittels dieser Pixelwerte genau zu messen.
  • Wenn das Subjekt 111 nicht zwischen den Distanzen Z1, Z2 angeordnet ist, dann werden die Pixelwerte derjenigen Pixel, die das von dem Subjekt 111 reflektierte Licht erfassen, nicht in einem hochauflösenden Bereich sein, und die Genauigkeit, mit der der Abstand bis zu dem Subjekt gemessen werden soll, kann mittels dieser Pixelwerte nicht erhöht werden. Da das Subjekt 111, dessen Bild aufgenommen werden soll, tatsächlich zwischen den Distanzen Z2, Z3 angeordnet ist, fallen die Pixelwerte jener Pixel, die das von dem Subjekt 111 reflektierte Licht detektieren, in einen Bereich 122, der, gemäß der Kennlinie 112, ein niedrig auflösender Bereich ist.
  • Die Kennlinie 114 ist eine Kurve, gemäß der die Pixelwerte, die zu der Zeit erzeugt werden, zu der ein Bild eines Subjekts mit einem Abstand mit einer Distanz Z4 aufgenommen wird, als Schwellenwert dienen. Insofern das Subjekt 111 in der zwischen den Distanzen Z2, Z3 angeordnet ist, die kürzer sind als die Distanz Z4, werden die Pixel, die das von dem Subjekt 111 reflektierte Licht erfassen, gesättigt, was einen Überfluss der akkumulierten elektrischen Ladungen hervorruft. Daher können gemäß der Kennlinie 114 keine effektiven Pixelwerte erzeugt werden.
  • Die Bildaufnahmebedingungen werden dann zu Bildaufnahmebedingungen geändert, die durch eine Kennlinie 113 repräsentiert sind, gemäß der die Pixelwerte, die von jenen Pixeln erzeugt werden, die Licht von einem Abschnitt des Subjekts 111 erfassen, das an einer nächsten Position an der Distanz Z2 angeordnet ist, als Schwellenwert dienen. Gemäß der Kennlinie 114 fallen die Pixelwerte, das heißt die elektrischen Ladungen, die in jenen Pixeln akkumuliert sind, die das von dem Subjekt 111 reflektierte Licht detektieren, in einen Bereich 121, der ein hoch auflösender Bereich ist, um die Genauigkeit zu vergrößern, mit der der Abstand bis zu dem Subjekt 111 gemessen wird. Pixel, die das Licht erfasst haben, das von jenem Abschnitt des Subjekts 111 reflektiert wird, der in der Distanz Z2 angeordnet ist, werden aus den Pixelwerten der Pixel der Bildaufnahmevorrichtung 44 identifiziert. Zum Beispiel können jene Pixel, deren Pixelwerte maximal sind, als Pixel identifiziert werden, die das Licht erfasst haben, das von jenem Abschnitt des Subjekts 111 reflektiert wurde, das an einer Distanz Z2 angeordnet ist. Die Kennlinie 112 kann zu der Kennlinie 113 umgeschaltet werden, indem die Lichtmenge verlängert wird, die von der Lichtabgabevorrichtung 12 abgegeben wird, die Belichtungszeit vergrößert wird oder der Aperturwert verkleinert wird. Die Kennlinie 114 kann zu der Kennlinie 113 geschaltet werden, indem die Lichtmenge verringert wird, die von der Lichtabgabevorrichtung 12 abgegeben wird, die Belichtungszeit verkürzt wird oder der Aperturwert vergrößert wird. Die Kennlinie 112 braucht nicht notwendigerweise zur Kennlinie 113 umgeschaltet werden, oder die Kennlinie 114 braucht nicht notwendigerweise zur Kennlinie 113 umgeschaltet werden, um Bildaufnahmebedingungen zum Aufnehmen eines nächsten Bildes zu setzen. Stattdessen kann die Kennlinie 112 auch graduell zur Kennlinie 113 mit einer bestimmten Rate umgeschaltet, oder die Kennlinie 114 kann graduell zur Kennlinie 113 mit einer bestimmten Rate umgeschaltet werden, nachdem eine Aufeinanderfolge von Bildern aufgenommen wurde, gemäß der Kennlinie 112 oder der Kennlinie 114.
  • Die Bildaufnahmebedingungen können zu Bildaufnahmebedingungen geändert werden, die durch eine Kennlinie repräsentiert sind, gemäß der die Pixelwerte, die von den Pixeln erzeugt werden, die das von einem Abschnitt des Subjekts 111 reflektierte Licht detektieren, das an einer nächsten Position mit dem Abstand Z2 angeordnet ist, gesättigt werden. Da jedoch der Abstand bis zu dem Subjekt 111 in dem Vor-Messmodus gemessen wird, könnte die gemessene Distanz bis zu dem Subjekt möglicherweise nicht genau sein. Darüber hinaus könnte, wenn sich das Subjekt mit der Zeit bewegt, das Subjekt tatsächlich an einer Position sein, die der Bildaufnahmeeinheit 14 näher ist als die Position an der Distanz Z2. In diesen Fällen besteht die Tendenz, dass die Pixel, die das von dem Subjekt 111 reflektierte Licht detektiert haben, einen Überfluss der akkumulierten elektrischen Ladungen hervorrufen. Dementsprechend ist es bevorzugt, einen Schwellenwert zu benutzen, der erzeugt wird, indem ein konstanter Wert oder eine konstante Rate von den gesättigten Pixelwerten subtrahiert wird.
  • Da die Pixelwerte nicht nur von der Distanz zu dem Objekt abhängig sind, sondern auch vom Reflektionsvermögen des Subjekts, könnte, wenn das Subjekt 111 eine Verteilung des Reflektionsvermögens hat, dann jene Pixel, deren Pixelwerte die nächste Position an der Distanz Z2 repräsentieren, nicht notwendigerweise die gleiche wie die Pixel sein, deren Pixelwerte maximal sind. In diesem Fall ist die Kennlinie 113 eingestellt, um die maximalen Pixelwerte als Schwellenwert zu verwenden. Daher sollte angemerkt werden, dass der Begriff „die nächste Position mit der Distanz Z2”. hier benutzt wird, einfach um zu erläutern, dass die erhaltenen Pixelwerte maximal sind.
  • Die 3A und 3B sind Diagramme, die Kennlinien darstellen, die Bildaufnahmebedingungen repräsentieren, die erforderlich sind, um Bilddistanzdaten zu erhalten, die für einen Kombinationsprozess benötigt werden, in dem Fall, dass eine Mehrzahl von Subjekten vorhanden sind. 3A zeigt ein Histogramm eines Subjekts 131, das zwischen einer Distanz Z5 und einer Distanz Z6 verteilt ist, und ein Subjekt 132, das zwischen einer Distanz Z7 und einer Distanz Z8 verteilt ist. Das in der 3A gezeigte Histogramm wird in dem Vor-Messmodus erzeugt.
  • 3B zeigt Kennlinien, die Bildaufnahmebedingungen repräsentieren, die zum Messen der Distanzen bis zu dem Subjekt 131 und dem Subjekt 132 optimal sind. Zum genauen Messen der Distanz zu dem Subjekt 131 wird ein Bild des Subjekts 131 unter Bildaufnahmebedingungen aufgenommen, die durch eine Kennlinie 141 repräsentiert sind, gemäß der die Pixelwerte der Pixel, die das Licht detektieren, das von einem Abschnitt des Subjekts 131 reflektiert wird, der an einer nächsten Position einer Distanz Z5 angeordnet ist, als Schwellenwert dienen. Die Pixelwerte der Pixel, die das Licht detektieren, das von dem Abschnitt des Subjekts 131 reflektiert wurde, haben somit eine hohe Auflösung zur Messung des Abstands zu dem Subjekt 131 mit höherer Genauigkeit. Das Subjekt 132 befindet sich an einer Position an einer Distanz, die die Genauigkeit der Distanzmessung niedriger macht, wenn ein Bild des Subjekts 132 unter den Bildaufnahmebedingungen aufgenommen worden ist, die durch die Kennlinie 141 repräsentiert sind, oder sich an einer Position befindet, die weiter entfernt als die Distanz ist. Zum genauen Messen der Distanz bis zu dem Subjekt 132 wird ein Bild des Subjekts 132 unter den Bildaufnahmebedingungen aufgenommen, die durch eine Kennlinie 142 repräsentiert sind, gemäß der die Pixelwerte der Pixel, die das Licht detektieren, das von einem Abschnitt des Subjekts 132 reflektiert wird, der an einer nächsten Position mit einem an der Distanz Z7 angeordnet ist, als Schwellenwert dienen.
  • Die Pixelwerte der Pixel, die das Licht detektieren, das von jenem Abschnitt des Subjekts 132 reflektiert wird, hat somit eine hohe Auflösung zur Messung des Abstands des Subjekts 132 mit höherer Genauigkeit. In dem Fall, wo eine Mehrzahl von Subjekten in einem größeren Distanzbereich einschließlich einer kurzen Distanz und einer langen Distanz vorhanden sind, wie oben beschrieben, dann wird es, wenn sowohl die kurze Distanz als auch die lange Distanz mit hoher Genauigkeit gemessen werden sollen, notwendig, selektiv Pixelwerte zu kombinieren, die unter zwei oder mehr unterschiedlichen Bildaufnahmebedingungen erzeugt wurden, um Bilddistanzdaten mit einem breiten dynamischen Bereich zu erzeugen.
  • Zum Beispiel kann, unter den durch die Kennlinie 141 repräsentieren Bildaufnahmebedingungen, die Distanz bis zu dem Objekt 131, das sich zwischen der Distanz Z5 und der Distanz Z6 befindet, mit hoher Genauigkeit gemessen werden, aber die Distanz zu dem Subjekt 132, das sich zwischen der Distanz Z7 und der Distanz Z8 befindet, kann nicht mit hoher Genauigkeit gemessen werden. Das heißt, das Subjekt 132, das sich zwischen der Distanz Z7 und der Distanz Z8 befindet, wird mit geringer Genauigkeit gemessen. Unter den mit der Kennlinie 142 repräsentierten Bildaufnahmebedingungen kann die Distanz zu dem Subjekt 132, das sich zwischen der Distanz Z7 und der Distanz Z8 befindet, mit hoher Genauigkeit gemessen werden, aber die Distanz zu dem Subjekt 131, das sich zwischen der Distanz Z5 und der Distanz Z6 befindet, kann nicht gemessen werden, weil die Pixel, die das von dem Subjekt 131 reflektierte Licht detektiert haben, einen Überfluss der akkumulierten elektrischen Ladungen hervorrufen. Daher werden die Distanzen zu den Objekten 131 und 132 unter den Bildaufnahmebedingungen gemessen, die für die jeweiligen Subjekte 131, 132 geeignet sind. Es wird angenommen, dass das Subjekt 132 an einer weiteren Position als einer Distanz vorhanden ist, die die Genauigkeit der Distanzmessung niedriger macht als ein bestimmter Wert, wenn ein Bild des Subjekts 132 unter den Bildaufnahmebedingungen aufgenommen wird, gemäß denen die Pixelwerte der Pixel, die Licht detektieren, das von dem Abschnitt von dem Subjekt 131 an der Distanz Z5 detektiert wird, als Schwellenwert dienen.
  • Der Bilddistanzdatensynthetisierer 20 synthetisiert die Bilddistanzdaten des Subjekts 131, die von dem Bild umgewandelt wurden, das unter den mit der Kennlinie 141 repräsentierten Bildaufnahmebedingungen aufgenommen wurde, und die Bilddistanzdaten des Subjekts 132, die aus Bild gewandelt wurden, das unter den mit der Kennlinie 142 repräsentierten Bildaufnahmebedingungen aufgenommen wurde, um Bilddistanzdaten mit einem breiten Bereich zu erzeugen. Insbesondere identifiziert der Bilddistanzdatensynthetisierer 20 die Bildfläche des Subjekts 131 aus den Bilddistanzdaten, die unter den mit der Kennlinie 141 repräsentierten Bildaufnahmebedingungen erhalten wurden, und identifiziert auch die Bildfläche des Subjekts 132 aus den Bilddistanzdaten, die den mit der Kennlinie 142 repräsentierten Bildaufnahmebedingungen erhalten wurden. Dann kombiniert der Bilddistanzdatensynthetisierer 20 die Bilddistanzdaten der identifizierten Bildflächen, um Bilddistanzdaten mit einem breiten Dynamikbereich zu erzeugen.
  • Die 4A und 4B sind Diagramme, die Kennlinien darstellen, welche Bildaufnahmebedingungen repräsentieren, die erforderlich sind, um Bilddistanzdaten zu erhalten, die für einen Kombinationsprozess benötigt werden, in dem Fall, dass sich ein Subjekt in einem breiten Bereich von kurzer Distanz zu langer Distanz erstreckt. 4A zeigt ein Histogramm eines Subjekts 151, das zwischen einer Distanz Z9 und einer Distanz Z11 verteilt ist. Das in 4A gezeigte Histogramm wird im Vor-Messmodus erzeugt.
  • 4B zeigt Kennlinien, die Bildaufnahmebedingungen repräsentieren, die zum Messen der Distanz bis zu dem Subjekt 151 optimal sind. Zum genauen Messen der Distanz zu dem Subjekt 151 wird ein Bild des Subjekts 151 unter den Bildaufnahmebedingungen aufgenommen, die durch eine Kennlinie 161 repräsentiert sind, gemäß der die Pixelwerte der Pixel, die das Licht detektieren, das von einem Abschnitt des Subjekts 151 reflektiert wird, das sich an einer nächsten Position an der Distanz Z9 befindet, als Schwellenwert dienen. Jedoch sind die durch die Kennlinie 161 repräsentierten Bildaufnahmebedingungen nicht wirkungsvoll darin, die Genauigkeit zu erhöhen, der die Distanz bis zu einem Abschnitt des Subjekts zu messen ist, das an einer Position angeordnet ist, die weiter entfernt ist als eine Distanz Z10, der zwischen den Distanzen Z9, Z11. Die Distanz Z10 ist eine Distanz, bei der die Auflösung der Pixelwerte gemäß der Kennlinie 161 verringert ist. In anderen Worten, die Distanz Z10 ist eine Distanz, bei der die Genauigkeit der Distanzmessung niedriger zu werden beginnt als der Sollwert. Um die Genauigkeit zu erhöhen, mit der man die Distanz zu dem Abschnitt des Subjekts 151 messen kann, das an der Position angeordnet ist, die weiter als die Distanz Z10 entfernt ist, wird ein Bild des Subjekts 151 unter den Bildaufnahmebedingungen aufgenommen, die durch eine Kennlinie 162 repräsentiert sind, gemäß der die Pixelwerte der Pixel, die das Licht detektieren, das von dem Abschnitt des Subjekts 151 an der Distanz Z10 reflektiert wird, als Schwellenwert dienen. Der Bilddistanzdatensynthetisierer 20 kombiniert die Bilddistanzdaten des Abschnitts des Subjekts 151 zwischen den Distanzen Z9, Z10, die von dem Bild umgewandelt wurden, unter den mit der Kennlinie 161 repräsentierten Bildaufnahmebedingungen aufgenommen wurde, um Bilddistanzdaten des Abschnitts des Subjekts 151 zwischen den Dinstanzen Z10, Z11, die aus dem Bild gewandelt wurden, das unter den mit der Kennlinie 162 repräsentierten Bildaufnahmebedingungen aufgenommen wurde, um Bilddistanzdaten mit einem breiten Dynamikbereich zu erzeugen.
  • Insbesondere identifiziert der Bilddistanzdatensynthetisierer 20 die Bildfläche des Abschnitts des Subjekts 151 zwischen den Distanzen Z9, Z10 aus den Bilddistanzdaten, die unter den mit der Kennlinie 161 repräsentierten Bildaufnahmebedingungen erhalten wurden, und identifiziert auch die Bildfläche des Abschnitts des Subjekts 151 zwischen den Distanzen Z10, Z11 aus den Bilddistanzdaten, die unter den mit der Kennlinie 162 repräsentierten Bildaufnahmebedingungen erhalten wurden. Dann synthetisiert der Bilddistanzdatensynthetisierer 20 die Bilddistanzdaten der identifizierten Bildflächen zum Erzeugen von Bilddistanzdaten mit einem breiten Dynamikbereich.
  • Nachfolgend wird ein Prozess zum Berechnen einer Genauigkeit der Distanzmessung beschrieben. Eine Genauigkeitsdistanzmessung bezieht sich auf eine Fluktuation zwischen einer Mehrzahl von Frames, die erzeugt werden, wenn ein Bild unter den gleichen Bildaufnahmebedingungen aufgenommen wird. Gemäß einem direkten Weg der Berechnung der Genauigkeit der Distanzmessung wird ein Varianzwert von Pixelwerten aus einer Mehrzahl von Frames bestimmt, und die Standardabweichung des Varianzwerts wird als Fluktuation verwendet und in eine Distanz umgewandelt, so dass ein Messfehler der Distanz bestimmt werden kann. Obwohl dieser Prozess verwendet werden kann, um die Genauigkeit der Distanzmessung zu berechnen, erfordert er, dass eine Mehrzahl von Frames gespeichert werden. Gemäß der vorliegenden Ausführung wird ein Prozess der logischen Berechnung und Vorhersage einer Genauigkeit der Distanzmessung verwendet.
  • Vor der Beschreibung einer Genauigkeit der Distanzmessung werden nachfolgend die Prinzipien der Distanzmessung gemäß dem TOF-Prozess beschrieben. Die nachfolgend beschriebenen Prozessdetails und Gleichungen werden verwendet, um eine einfache Erläuterung der Prinzipien anzugeben und gehören nur zu einer Form des TOF-Prozesses. Wie oben beschrieben, wird die von der Lichtquelle gegebene Lichtmenge proportional zum Quadrat der Distanz gedämpft, die das Licht zurück gelegt hat. Während die Lichtquelle Licht stetig abgibt, wird eine elektrische Ladung Q1, die aus durch die Bildaufnahmevorrichtung 44 aus dem von dem Subjekt reflektierten Licht gewandelt wurde, ausgedrückt als: Q1 = k/z2, (1) wobei z die Distanz von der Lichtquelle zu dem Subjekt repräsentiert, und k einen Koeffizienten, bestimmt durch Bildaufnahmebedingungen, das Reflektionsvermögen des Subjekt, die Lichtdurchlässigkeit der Linse 40 und das fotoelektrische Umwandlungsverhältnis der Bildaufnahmevorrichtung 44. Wenn man die Gleichung (1) modifiziert, wird die Distanz z ausgedrückt als: z = (k/Q1)1/2 (2)
  • Wie in 5 gezeigt, beginnt das Aufnehmen des reflektierten Lichts gleichzeitig damit, wenn die Lichtquelle ihre Lichtabgabe beendet, und die eine elektrische Ladung Q2, die durch Aufnahme des reflektierten Lichts erzeugt und akkumuliert wird, wird während der Verzögerungszeitdauer Td gemessen, in der das abgegebene Licht von dem Subjekt reflektiert wird und zurückkehrt. Die Verzögerungszeit Td wird ausgedrückt als: Td = 2z/c, (3) wobei c die Lichtgeschwindigkeit repräsentiert. Es wird angenommen, dass die Bildaufnahmevorrichtung 44 während einer Belichtungszeit Ts dem reflektierten Licht ausgesetzt wird, um die Intensität des reflektierten Lichts zu messen. Nun kann eine elektrische Ladung Q2, die von der Bildaufnahmevorrichtung 44 während der Belichtungszeit Ts erzeugt und akkumuliert wird, basierend auf einem Verhältnis zur elektrischen Ladung Q1 berechnet werden, wie folgt: Q2 = Q1 × Td/Ts. (4)
  • Indem man die Gleichungen (1), (3) in die Gleichung (4) einsetzt, wird die elektrische Ladung Q2 ausgedrückt als: Q2 = 2/(Ts × c) × k/z. (5)
  • Daher lässt sich ersehen, dass die elektrische Ladung in Abhängigkeit von der Distanz z gedämpft wird. Indem man die Gleichung (3) in die Gleichung (4) einsetzt, wird die elektrische Ladung Q2 ausgedrückt als: Q2 = Q1 × 2z/(Ts × c), die zur Bestimmung der Distanz z wie folgt modifiziert werden kann: z = (Ts × c)/2 × Q2/Q1. (6)
  • Demzufolge kann die Distanz zu dem Subjekt basierend auf dem Verhältnis zu den akkumulierten Ladungen Q2, Q1 gemessen werden.
  • Das in 5 gezeigte Muster der Lichtabgabe und Belichtung kann während der Dauer eines Frames wiederholt werden, und die durch die fotoelektrischen Umwandlungen erzeugten elektrischen Ladungen können integriert werden, um Pixelwerte mit einem hohen Signalrauschverhältnis zu erzeugen. Die wesentliche Belichtungszeit wird basierend auf der Häufigkeit eingestellt, mit der das Muster der Lichtabgabe und Belichtung wiederholt wird. Die Bildaufnahmevorrichtung 44 kann eine Struktur haben, die in der Lage ist, eine Mehrzahl von elektrischen Ladungen zu halten. Insbesondere kann die Bildaufnahmevorrichtung 44 die akkumulierten elektrischen Ladungen Q2, Q1 gemäß dem in 5 gezeigten Muster der Lichtabgabe und Belichtung gleichzeitig halten, und die akkumulierten elektrischen Ladungen Q2, Q1, die gehalten werden, können ausgelesen werden. Während der Effekt von Umgebungslicht, wie etwa Sonnenlicht, Innenbeleuchtung etc. zu illustrativen Zwecken vernachlässigt werden kann, versteht es sich, dass der Effekt des Umgebungslichts eliminiert werden kann, durch Verwendung eines Bilds, das in der Abwesenheit des von der Lichtquelle abgegebenen Lichts aufgenommen worden ist. Gemäß der vorliegenden Ausführung ist es somit möglich, die Distanz ohne Beeinträchtigung durch den Effekt von Umgebungslicht zu messen.
  • Fluktuationen der akkumulierten elektrischen Ladungen Q2, Q1 und die Belichtungszeit Ts können vorab gemessen und vorhergesagt werden. Daher kann die Genauigkeit, mit der die Distanz z gemessen werden soll, basierend auf der Gleichung (6) gemäß dem Fortpflanzungsgesetz von Fehlern berechnet werden. Das Fortpflanzungsgesetz von Fehlern bezieht sich auf einen Prozess zur Bestimmung einer Varianz eines Werts, zum Beispiel der Distanz z, der indirekt auch einer Varianz eines bekannten gemessenen Werts bestimmt wird, zum Beispiel der akkumulierten elektrischen Ladungen Q2, Q1 und der Belichtungszeit Ts. Da das Fehlerfortpflanzungsgesetz allgemein weithin bekannt ist, wird es nun nicht beschrieben. Eine Distanz, bei der die Genauigkeit, mit der die Distanz z gemessen werden soll, niedriger als ein bestimmter Wert ist, kann als die Distanz Z10 verwendet werden.
  • Fluktuationen der akkumulierten elektrischen Ladungen Q2, Q1 und die Belichtungszeit Ts können in jeweilige Fehler der Distanz z umgewandelt werden, und die Summe der Fehler kann berechnet werden. Ein solcher Prozess wird nachfolgend beschrieben. Es wird angenommen, dass eine Fluktuation (Standardabweichung) der elektrischen Ladung Q1 durch ΔQ1 repräsentiert wird, und ein durch die Fluktuation ΔQ1 verursachter Messfehler Δz1 bestimmt wird. Die Gleichung (2) wird in Bezug auf Q1 differenziert, zum Erhalt von: Δz1/ΔQ1 = k1/2 × (–1/2) × Q1 –3/2
  • Indem man die Gleichung (1) in die obige Gleichung einsetzt, wird die obige Gleichung wie folgt modifiziert: Δz1/ΔQ1 = k1/2 × (–1/2) × (k/z2)–3/2 = –1/(2k) × z3
  • Daher |Δz1/ΔQ1| = (1/2) × k–1 × z3 (7)
  • 6 ist ein Diagramm, das die Umwandlung von einer Fluktuation einer akkumulierten elektrischen Ladung in einen Distanzmessfehler darstellt. Wenn man annimmt, dass eine in 6 gezeigte Kennlinie 191 durch die Gleichung (2) repräsentiert wird, dann repräsentiert die Gleichung (7) die Steigung der Kennlinie 191. Die Steigung der Kennlinie 191 während der Dauer der Fluktuation ΔQ1 wird linear angenähert, zur Bestimmung eines Distanzmessfehlers Δz1, wie folgt: |Δz| = (1/2) × k–1 × z3 × |ΔQ1| (8)
  • Die Fluktuation ΔQ1 der elektrischen Ladung Q1, welche von der Bildaufnahmevorrichtung 44 ausgegeben wird, repräsentiert zum Beispiel die Summe von Fluktuationen, die durch optisches Schrotrauschen, von Schaltkreisen kommendes Rauschen, Quantizierungsrauschen, etc. verursacht werden.
  • Dann wird angenommen, dass eine Fluktuation (Standardabweichung) der elektrischen Ladung Q2 durch ΔQ2 repräsentiert wird, und ein durch die Fluktuation ΔQ2 verursachter Fehler Δz2 bestimmt wird. Die Gleichung (5) wird modifiziert, um die Distanz z wie folgt zu bestimmen: z = 2/(Ts × c) × k/Q2 (9)
  • Die Gleichung (9) wird in Bezug auf Q2 differenziert zum Erhalt von: Δz2/ΔQ2 = –2k/(Ts × c) × 1/Q2 2 = –2k/(Ts × c) × 1/(k/z × 2/(Ts × c))2 = –2k/(Ts × c) × (z × Ts × c)2/(2k)2 = –(1/2) × Ts × c × k–1 × z2
  • Daher |Δz2/ΔQ2| = (1/2) × Ts × c × k–1 × z2 (10)
  • Die Steigung der Kennlinie 191 während der Dauer der Fluktuation ΔQ2 wird linear angenähert, zur Bestimmung eines Distanzmessfehlers ΔQ2 wie folgt: |Δz2| = (1/2) × Ts × c × k–1 × z2 × |ΔQ2| (11)
  • Schließlich wird angenommen, dass eine Fluktuation (Standardabweichung) der Belichtungszeit Ts, die durch Signalzittern verursacht wird, durch ΔTs repräsentiert wird. Da die Lichtverzögerung gemessen wird, repräsentiert die Distanz, die das Licht während der Belichtungszeit Ts zurücklegt, ein Distanzumwandlungsfehler. Wenn der aus der Fluktuation ΔTs gewandelte Distanzmessfehler durch Δz3 repräsentiert wird, wird diese ausgedrückt als: Δz3 = c × ΔTs (12)
  • Die Summe der durch die Gleichungen (8), (11) und (12) bestimmten Werte repräsentiert einen Distanzmessfehler (Standardabweichung) Δz, der ausgedrückt wird als: Δz = (|Δz1|2 + |Δz2|2 + |Δz3|2)1/2 (13)
  • Der Distanzmessfehler Δz repräsentiert eine Distanzmessgenauigkeit. Insbesondere wird die Distanz z durch die Gleichung (6) bestimmt, und wird auch ein entsprechender Distanzmessfehler Δz bestimmt. Wenn der Distanzmessfehler Δz zunimmt, nimmt die Distanzmessgenauigkeit ab. Die Distanz, die einem Distanzmessfehler Δz entspricht, der oberhalb eines vorbestimmten Wertes liegt, kann als die z. B. in 4 gezeigte Distanz Z10 verwendet werden.
  • Der Distanzmessfehler Δz kann repräsentiert werden entweder durch den Distanzmessfehler Δz1 oder den Distanzmessfehler Δz2, um die für die Berechnungen erforderlichen Kosten zu reduzieren. Da insbesondere der Absolutwert des der Steigung der Kennlinie in Bezug auf eine der elektrischen Ladungen Q1, Q2 als allgemeines Indiz der Distanzmessgenauigkeit dient, kann die Position an der Distanz, wo der Absolutwert der Steigung der durch die gesetzten Bildaufnahmebedingungen repräsentierten Kennlinie kleiner als ein bestimmter Wert ist, als die Position an der Distanz verwendet werden, wo die Distanzmessgenauigkeit schlechter als ein bestimmter Wert ist. Alternativ kann die Position an der Distanz, wo das Subjekt vorhanden ist und wo die Pixelwerte der Pixel, die das von dem Subjekt reflektierte Licht erfassen, kleiner als ein bestimmter Wert sind, als die Position an der Distanz verwendet werden, wo die Distanzmessgenauigkeit schlechter als ein bestimmter Wert ist.
  • Nachfolgend wird der Betrieb der Distanzmessvorrichtung 10 in Bezug auf ein in 7 gezeigtes Flussdiagramm beschrieben.
  • Der Bildaufnahmecontroller 52 steuert die Bildaufnahmeeinheit 14 an, um ein Bild eines Subjekts der gegebenen Bildaufnahmebedingungen aufzunehmen (Schritt S2). Der Bildaufnahmecontroller 52 kann alternativ die Bildaufnahmeeinheit 14 ansteuern, um Bilder von Objekten unter gewünschten Bildaufnahmebedingungen aufzunehmen. Bilddaten des aufgenommenen Bilds werden durch den Bilddistanzdatenwandler 16 in Bilddistanzdaten umgewandelt, die dann an den Bildaufnahmebedingungssetzabschnitt 50 ausgegeben werden.
  • Basierend auf den Bilddistanzdaten erzeugt der Bildaufnahmebedingungssetzabschnitt 50 ein Histogramm der Objekte und analysiert das Histogramm (Schritt S4). Der Bildaufnahmebedingungssetzabschnitt 50 analysiert das Histogramm um ein nächstes der Subjekte zu identifizieren. In anderen Worten, der Bildaufnahmebedingungssetzabschnitt 50 identifiziert eine Distanz, die durch die eine kürzeste (nächste) der Mehrzahl von Bilddistanzdaten angegeben wird. In 2 ist die Distanz Z2 die nächste Distanz oder Position. In 3 ist die Distanz Z5 die nächste Distanz oder Position. In 4 ist die Distanz Z9 die nächste Distanz oder Position.
  • Der Bildaufnahmebedingungssetzabschnitt 50 kann die nächstliegenden Bilddistanzdaten nicht nur aus der Gesamtfläche der Bilddistanzdaten indentifizieren, sondern auch aus einer bestimmten Fläche innerhalb der Gesamtfläche. Die bestimmte Fläche kann eine Fläche sein, die vom Benutzer gewählt ist, oder eine vorbestimmte Fläche (z. B. ein Mittelbereich des Bilds). Normalerweise nimmt der Benutzer ein Bild eines Objekts auf, dessen Distanz gemessen werden soll, so dass das Objekt in einem bestimmten Bereich in dem Bild angeordnet wird.
  • Dann setzt der Bildaufnahmebedingungssetzabschnitt 50 erste Bildaufnahmebedingungen basierend auf der identifizierten Distanz (Schritt S6). Insbesondere setzt der Bildaufnahmebedingungssetzabschnitt 50 erste Bildaufnahmebedingungen derart, dass die Pixelwerte der Pixel, die von dem Subjekt an der identifizierten Distanz reflektiertes Licht erfassen, als Schwellenwert dienen. In anderen Worten, der Bildaufnahmebedingungssetzabschnitt 50 setzt erste Bildaufnahmebedingungen derart, dass Pixelwerte von Pixeln, deren Bilddistanzdaten die kürzeste Distanz repräsentieren, als Schwellenwert dienen. Der Bildaufnahmebedingungssetzabschnitt 50 gibt die gesetzten ersten Bildaufnahmebedingungen an den Distanzmessgenauigkeitsanalysator 54 aus.
  • Dann analysiert der Distanzmessgenauigkeitsanalysator 54 das in Schritt S4 erzeugte Histogramm und die ersten Bildaufnahmebedingungen zum Schätzen einer Distanz (einer Position an einer Distanz), an der die Distanzmessgenauigkeit niedriger als ein bestimmter Wert ist (Schritt S8). Wenn die Bildaufnahmebedingungen bekannt sind, ist es möglich, elektrische Ladungen (Q1, Q2) vorherzusagen, die in den Pixeln durch an der Lichtabgabevorrichtung 12 darauf einfallende Licht akkumuliert worden sind, sowie Charakteristiken der akkumulierten elektrischen Ladungen (Q1, Q2), und die Distanzmessgenauigkeit kann gemäß dem oben beschriebenen Prozesses geschätzt werden.
  • Dann bewertet der Distanzmessgenauigkeitsanalysator 54, ob ein Kombinationsprozess ausgeführt werden soll oder nicht (Schritt S10). Insbesondere bewertet der Distanzmessgenauigkeitsanalysator 54, ob das Subjekt an einer Position vorhanden ist, die weiter als die in Schritt S8 geschätzte Distanz ist, oder nicht. Wenn das Subjekt an dieser Position vorhanden ist, dann entscheidet der Distanzmessgenauigkeitsanalysator 54, dass der Kombinationsprozess ausgeführt werden soll. Insbesondere bewertet der Distanzmessgenauigkeitsanalysator 54, ob ein Kombinationsprozess ausgeführt werden soll oder nicht durch Bewertung, ob Bilddistanzdaten vorhanden sind, die eine Distanz repräsentieren, die weiter als die in Schritt S8 geschätzte Distanz ist, oder nicht. Der Distanzmessgenauigkeitsanalysator 54 gibt das Entscheidungsergebnis an den Bildaufnahmebedingungssetzabschnitt 50 aus.
  • Wenn zum Beispiel die geschätzte Distanz in dem Bereich von der Distanz Z6 zu der Distanz Z7 liegt, wie in 3 gezeigt, dann entscheidet der Distanzmessgenauigkeitsanalysator 54, dass der Kombinationsprozess ausgeführt werden soll, weil das Subjekt 132 in einer Position an der geschätzten Distanz und weiter als die geschätzte Distanz entfernt vorhanden ist. Wenn die geschätzte Distanz die Distanz Z10 ist, wie in 4 gezeigt, dann entscheidet der Distanzmessgenauigkeitsanalysator 54, dass der Kombinationsprozess ausgeführt werden soll, weil ein Abschnitt des Subjekts 151 in einer Position an der geschätzten Distanz und weiter als die geschätzte Distanz vorhanden ist. Wenn eine bestimmte Fläche berücksichtigt werden soll, dann bewertet der Distanzmessgenauigkeitsanalysator 54, ob ein Subjekt weiter als die geschätzte Distanz innerhalb der bestimmten Fläche vorhanden ist oder nicht. In anderen Worten, der Distanzmessgenauigkeitsanalysator 54 kann bewerten, ob Bilddistanzdaten weiter als eine identifizierte Distanz, unter den Bilddistanzdaten in bestimmten Flächen, vorhanden sind oder nicht.
  • Wenn der Distanzmessgenauigkeitsanalysator 54 in Schritt S10 entscheidet, dass der Kombinationsprozess nicht ausgeführt werden soll, dann bewertet der Bildaufnahmebedingungssetzabschnitt 50, ob die Framerate, mit der Bilder unter den in Schritt S6 gesetzten ersten Bildaufnahmebedingungen aufgenommen werden sollen, gleich oder größer als die bestimmte Framerate ist oder nicht (Schritt S12). Die bestimmte Framerate kann eine vorbestimmte Framerate sein, oder kann eine gewünschte Framerate sein, die vom Benutzer bestimmt wird.
  • Wenn in Schritt S12 bestimmt wird, dass die Framerate nicht gleich oder größer als die bestimmte Framerate ist, dann ändert der Bildaufnahmebedingungssetzabschnitt 50 die in Schritt 6 gesetzten ersten Bildaufnahmebedingungen, um die Belichtungszeit zu verkürzen (Schritt S14), und dann geht die Steuerung in Schritt S16 weiter. Weil hierbei die Belichtungsmenge aufgrund der verkürzten Belichtungszeit reduziert ist, kann der Bildaufnahmebedingungssetzabschnitt 50 den Blendenwert verringern, den Verstärkungswert vergrößern oder die Intensität des abgegebenen Lichts erhöhen, um die Verringerung der Belichtungsmenge zu berücksichtigen. In diesem Fall gibt der Bildaufnahmebedingungssetzabschnitt 50 die ersten Bildaufnahmebedingungen mit der in Schritt S14 geänderten Einstellung an den Bildaufnahmecontroller 52 aus.
  • Wenn in Schritt S12 entschieden wird, dass die Framerate gleich oder größer als die bestimmte Framerate ist, dann springt die Steuerung zu Schritt S16. In diesem Fall gibt der Bildaufnahmebedingungssetzabschnitt 50 die in Schritt S6 gesetzten ersten Bildaufnahmebedingungen an den Bildaufnahmecontroller 52 aus.
  • In Schritt S16 steuert der Bildaufnahmecontroller 52 die Bildaufnahmeeinheit 14 an, um ein Bild des Subjekts unter den ersten Bildaufnahmebedingungen aufzunehmen, die als die letzten ersten Bildaufnahmebedingungen gesetzt worden sind. Die Bilddaten des unter den ersten Bildaufnahmebedingungen aufgenommenen Bilds wird durch den Bilddistanzdatenwandler 16 in Bilddistanzdaten umgewandelt, welche von der Bilddistanzdatenausgabeeinheit 22 ausgegeben werden. Auf diese Weise können Bilddaten erzeugt werden, die in der Lage sind, die Distanzmessgenauigkeit auf hohem Niveau zu halten. Nachdem das Bild des Subjekts in Schritt S16 aufgenommen worden ist, geht die Steuerung zu Schritt S4 zurück, um die obige Sequenz zu wiederholen. In Schritt S4 und anschließend zu Schritt S16, kann der Bildaufnahmebedingungssetzabschnitt 50 ein Histogramm basierend auf der in Schritt S16 erzeugten Bilddaten erzeugen und das Histogramm analysieren.
  • Wenn in Schritt S10 bewertet wird, dass der Kombinationsprozess ausgeführt werden soll, dann setzt der Bildaufnahmebedingungssetzabschnitt 50 zweite Bildaufnahmebedingungen zum Erzeugen eines helleren Bilds als unter den ersten Bildaufnahmebedingungen (Schritt S18). Insbesondere identifiziert der Bildaufnahmebedingungssetzabschnitt 50 die Position eines nächsten der Subjekte, die sich in Positionen weiter als die in Schritt S8 geschätzte Distanz befinden, und setzt zweite Bildaufnahmebedingungen basierend auf der identifizierten Position. In anderen Worten, der Bildaufnahmebedingungssetzabschnitt 50 setzt Bedingungen derart, dass Pixelwerte der Pixel, die das von dem Subjekt an der identifizierten Position reflektierte Licht erfassen, als Schwellenwert dienen. Insbesondere setzt der Bildaufnahmebedingungssetzabschnitt 50 zweite Bildaufnahmebedingungen derart, dass die Pixelwerte der Pixel, die in nächstes einer Mehrzahl von Bilddistanzdaten erzeugen, die weiter als die geschätzte Distanz entfernt sind, als Schwellenwert dienen. Das hellere Bild bezeichnet ein Bild, das heller ist, wenn es vom gleichen Subjekt bei der gleichen Distanz in der gleichen Umgebung aufgenommen wird. Insbesondere kann das hellere Bild durch Vergrößern des Verstärkungswerts, Vergrößern der Belichtungszeit, Reduzieren des Blendenwerts oder Vergrößern der Intensität des von der Lichtquelle abgegebenen Lichtes aufgenommen werden.
  • Die Position des Subjekts wird in Schritt S18 wie folgt identifiziert: Wenn die geschätzte Distanz im Bereich von der Distanz Z6 zu der Distanz Z7 ist, wie in 3 gezeigt, dann identifiziert Bildaufnahmebedingungssetzabschnitt 50 die Distanz Z7 und setzt zweite Bildaufnahmebedingungen derart, dass die Pixelwerte der Pixel, die das von dem Subjekt 132 an der indentifizierten Distanz S7 reflektierte Licht erfassen, als Schwellenwert dienen. Wenn die geschätzte Distanz die Distanz Z10 ist, wie in 4 gezeigt, dann identifiziert der Bildaufnahmebedingungssetzabschnitt 50 die Distanz Z10 und setzt zweite Bildaufnahmebedingungen derart, dass die Pixelwerte der Pixel, die das von dem Subjekt 132 an der identifizierten Distanz Z10 reflektierte Licht erfassen, als Schwellenwert dienen.
  • Dann bewertet der Bildaufnahmebedingungssetzabschnitt 50, ob eine kombinierte Framerate, die die Summe der Framerate, mit der ein Bild unter den in Schritt S6 gesetzten ersten Bildaufnahmebedingungen aufnehmen lässt, und der Framerate, mit der sich ein Bild unter den in Schritt S18 gesetzten zweiten Bildaufnahmebedingungen aufnehmen lässt, gleich oder größer als eine bestimmte Framerate ist oder nicht (Schritt S20). Die in Schritt S20 verwendete bestimmte Framerate kann sich von der in Schritt S12 verwendeten bestimmten Framerate unterscheiden.
  • Wenn in Schritt S20 die Framerate nicht gleich oder größer als die der Framerate ist, dann ändert der Bildaufnahmebedingungssetzabschnitt 50 das Setzen von zumindest einer der in Schritt 36 gesetzten ersten Bildaufnahmebedingungen und der in Schritt S18 gesetzten zweiten Bildaufnahmebedingungen, um die gesamte Belichtungszeit unter den ersten Bildaufnahmebedingungen und den zweiten Bildaufnahmebedingungen zu verkürzen (Schritt S22), und dann geht die Steuerung zu Schritt S24. Weil dabei die Belichtungsmenge aufgrund der verkürzten Belichtungszeit verkürzt wird, kann der Bildaufnahmebedingungssetzabschnitt 50 den Aperturwert verkleinern, den Verstärkungswert vergrößern oder die Intensität des abgegebenen Lichts erhöhen, um die Verringerung der Belichtungsmenge zu berücksichtigen. Der Bildaufnahmebedingungssetzabschnitt 50 gibt die ersten Bildaufnahmebedingungen und die zweiten Bildaufnahmebedingungen der in Schritt S22 geänderten Einstellungen an den Bildaufnahmecontroller 52 aus.
  • Wenn der Bildaufnahmebedingungssetzabschnitt 50 in Schritt S20 entscheidet, dass die kombinierte Framerate gleich oder größer als die bestimmte Framerate ist, dann springt die Steuerung zu Schritt S24. In diesem Fall gibt der Bildaufnahmebedingungssetzabschnitt 50 die in Schritt S6 gesetzten ersten Bildaufnahmebedingungen und die in Schritt S18 gesetzten zweiten Bildaufnahmebedingungen an den Bildaufnahmecontroller 52 aus.
  • In Schritt S24 steuert der Bildaufnahmecontroller 52 die Bildaufnahmeeinheit 14 an, um Bilder des Subjekts unter den ersten Bildaufnahmebedingungen und den zweiten Bildaufnahmebedingungen aufzunehmen, die als die letzten ersten und zweiten Bildaufnahmebedingungen gesetzt worden sind.
  • Dann synthetisiert der Distanzdatensynthetisierer 20 die Bilddistanzdaten, die von den unter den ersten Bildaufnahmebedingungen aufgenommen Bild umgewandelt wurden, und die Distanzdaten, die von dem unter den zweiten Bildaufnahmebedingungen aufgenommen Bild umgewandelt wurden (Schritt S26). Der Bilddistanzdatensynthetisierer 20 verwendet die Bilddistanzdaten, die unter den ersten Bildaufnahmebedingungen erhalten wurden, als Bilddistanzdaten eines Subjekts, das sich an einer Distanz befindet, die kürzer als die in Schritt S8 geschätzte Distanz, und verwendet auch die Distanzdaten, die unter der zweiten Bildaufnahmebedingungen erhalten wurden, als Bilddistanzdaten eines Subjekts, das sich an einer Distanz befindet, die gleich oder länger als die geschätzte Distanz ist, um hierdurch kombinierte Bilddistanzdaten zu erzeugen. Die erzeugten kombinierten Bilddistanzdaten werden von der Bilddistanzdatenausgabeeinheit 22 ausgegeben. Auf diese Weise haben die Bilddistanzdaten einen breiten Dynamikbereich zum Erzeugen von Bilddaten, um die Distanzmessgenauigkeit auf hohem Niveau zu halten.
  • Die obige Ausführung kann wie folgt modifiziert werden:
    • (1) Wenn die unter den ersten Bildaufnahmebedingungen erhaltenen Bilddistanzdaten und die unter den zweiten Bildaufnahmebedingungen erhaltenen Bilddistanzdaten einfach miteinander kombiniert werden, während sich das Subjekt über die in Schritt S8 geschätzte Distanz und darüber hinaus bewegt, dann unterliegen die kombinierten Bilddistanzdaten einer Subjekt-Diskontinuität. In anderen Worten, die Distanzdaten des Subjekts werden diskontinuierlich. Dementsprechend können die Distanzdaten des Subjekts gemäß den unter den ersten Bildaufnahmebedingungen erhaltenen Bilddistanzdaten und die Distanzdaten des Subjekts gemäß den unter den zweiten Bildaufnahmebedingungen erhaltenen Bilddistanzdaten gewichtet und dann miteinander kombiniert werden, um geglättete Distanzdaten des Subjekts zu erhalten.
    • (2) In der obigen Ausführung ist der Schwellenwert konstant. Jedoch kann der Schwellenwert auch in Abhängigkeit dem Grad verändert werden, um den sich die Distanz zu dem Subjekt verändert. Wenn zum Beispiel der Grad, um den sich die Distanz zu dem Subjekt verändert, hoch ist, d. h. wenn der Grad, um den sich die Distanz ändert, hoch ist, gemäß Bestimmung der Vergleich der Distanzdaten, die aus zuvor aufgenommenen Bilddaten erhalten werden, und der Distanzdaten, die aus dem anschließend aufgenommenen Bilddaten erhalten werden, dann kann der Schwellenwert einen Abstand von dem Pixelsättigungswert haben. Wenn nämlich der Grad, um den sich die Distanz bis zu dem Subjekt ändert, höher wird, ist die Wahrscheinlichkeit, dass die erhaltenen Bilddistanzdaten nicht genau sind, höher, und wenn in diesem Fall der Schwellenwert näher zu dem Pixelsättigungswert gebracht wird, tritt ein Überfluss von akkumulierten elektrischen Ladungen auf, wie oben beschrieben. Der Schwellenwert wird wie folgt geändert: Der Controller 18 enthält zusätzlich einen Distanzänderungsrechner und einen Schwellenwertänderer. Der Distanzänderungsrechner berechnet den Grad, um den sich die Distanz bis zu dem Subjekt ändert. Der Distanzänderungsrechner kann den Grad berechnen, um den sich die Distanz bis zu dem Subjekt ändert durch Vergleichen von Bilddistanzdaten. Der Schwellenwertänderer ändert den Schwellenwert in Abhängigkeit vom berechneten Grad, um den sich die Distanz bis zu dem Subjekt verändert. Der Bildaufnahmebedingungssetzabschnitt setzt zumindest eine der ersten Bildaufnahmebedingungen und der zweiten Bildaufnahmebedingungen unter Verwendung des vom Schwellenwertänderer geänderten Schwellenwerts.
    • (3) In der obigen Ausführung sind der Schwellenwert (als erster Schwellenwert bezeichnet), der beim Setzen der ersten Bildaufnahmebedingungen verwendet wird, und der Schwellenwert (als zweiter Schwellenwert bezeichnet), der beim Setzen der zweiten Bildaufnahmebedingungen gesetzt wird, zueinander gleich. Jedoch können sie voneinander unterschiedliche Werte haben. Wenn das Subjekt weiter entfernt angeordnet ist, ist die Distanzmessgenauigkeit tendenziell geringer. Daher kann die Differenz zwischen dem zweiten Schwellenwert und dem Pixelsättigungswert größer sein als die Differenz zwischen dem ersten Schwellenwert und dem Pixelsättigungswert.
    • (4) In den obigen Modifikationen (2) und (3) kann der Schwellenwertänderer zumindest einen des ersten Schwellenwerts und des zweiten Schwellenwerts in Abhängigkeit vom Grad, um den sich die Distanz ändert, verändern. In diesem Fall kann der Schwellenwertänderer zumindest einen des ersten Schwellenwerts und des zweiten Schwellenwerts derart ändern, dass die Differenz zwischen dem zweiten Schwellenwert und dem Pixelsättigungswert größer sein kann als die Differenz zwischen dem ersten Schwellenwert und dem Pixelsättigungswert.
    • (5) In den obigen Modifikationen (2), (3) und (4) wird der Schwellenwert in Abhängigkeit von dem Grad verändert, um den sich die Distanz ändert. Da die Pixelwerte tatsächlich auch vom Reflexionsvermögen des Subjekts abhängig sind, kann der Schwellenwert zusätzlich in Abhängigkeit von der Verteilung des Reflexionsvermögens des Subjekts verändert werden. Wenn zum Beispiel das Subjekt eine starke Verteilung des Reflexionsvermögens hat, dann haben auch die erzeugten Pixelwerte eine starke Verteilung. Dementsprechend kann der Schwellenwert so gesetzt werden, dass er eine Grenze für die Pixelsättigungswerte belässt, um die Distanzmessvorrichtung in die Lage zu versetzen, mit Änderungen in dem Subjekt zurecht zu kommen. Die Verteilung des Reflexionsvermögens kann aus der Gleichung (2) hergeleitet werden, oder es können Bilddaten verwendet werden, die in der Abwesenheit des von der Lichtquelle abgegebenen Lichts erzeugt wurden.
    • (6) In der obigen Ausführung werden die Bildaufnahmebedingungen unter Verwendung von einem Bilddistanzdatenelement (einschließlich kombinierten Bilddistanzdaten) so gesetzt, dass daraus Bilddaten erhalten werden, die als die letzten Bilddaten aufgenommen wurden. Jedoch können die Bildaufnahmebedingungen auch unter der Verwendung der Mehrzahl von Bilddistanzdaten gesetzt werden, die aus einer Aufeinanderfolge von Bilddaten erhalten werden, die unter den gleichen Bildaufnahmebedingungen aufgenommen wurden. Die Distanzmessgenauigkeit wird höher gemacht, durch Bewertung der Distanz bis zu dem Subjekt aus einer Mehrzahl von Bilddistanzdaten, und Setzen von Bildaufnahmebedingungen, als durch Setzen von Bildaufnahmebedingungen mit nur einem Bilddistanzdatenelement. Dieser Prozess ist besonders wirkungsvoll, wenn das Subjekt kein beweglicher Körper ist. Daher kann der Controller 18 den Grad berechnen, um den sich die Distanz bis zu dem Subjekt ändert, und kann die Anzahl von Bilddistanzdaten, die beim Setzen von Bildaufnahmebedingungen verwendet werden, in Abhängigkeit vom berechneten Grad, um den sich die Distanz bis zu dem Subjekt verändert. Wenn der Grad, um den sich die Distanz bis zu dem Subjekt ändert klein ist, dann setzt der Controller zum Beispiel Bildaufnahmebedingungen nach Erhalt von 20 Bilddistanzdaten aus 20 aufeinanderfolgenden Bilddaten, welche aufgenommen werden. In diesem Fall werden die Bildaufnahmebedingungen jedes Mal geändert, wenn 20 Bilddaten aufgenommen werden. Wenn der Grad, um den sich die Distanz bis zu dem Subjekt verändert, relativ groß ist, dann setzt der Controller zum Beispiel nicht die nächsten Bildaufnahmebedingungen unter Verwendung von zwei Bilddistanzdaten aus zwei aufeinanderfolgenden Bilddaten, welche aufgenommen werden. In diesem Fall werden die Bildaufnahmebedingungen jedes Mal dann geändert, wenn zwei Bilddaten aufgenommen werden.
    • (7) In der obigen Ausführung werden die zwei Bilddistanzdaten, die unter den ersten Bildaufnahmebedingungen und den zweiten Bildaufnahmebedingungen erhalten werden, miteinander kombiniert. Jedoch können auch drei Bilddistanzdaten, die unter drei Sätzen von Bildaufnahmebedingungen erhalten werden, miteinander kombiniert werden. Wenn zum Beispiel ein Subjekt vorhanden ist, das einen größeren Abstand hat als die Position, wo die Distanzmessgenauigkeit unter der ersten Bildaufnahmebedingung niedriger ist als ein bestimmter Wert, dann werden die Bilddistanzdaten unter den zweiten Bildaufnahmebedingungen erhalten, und wenn ein Subjekt einen größeren Abstand hat als die Position, wo Distanzmessgenauigkeit unter den zweiten Bildaufnahmebedingungen direkt als ein bestimmter Wert ist, dann werden die Bilddistanzdaten unter den dritten Bildaufnahmebedingungen erhalten. Auf diese Weise können Bilddistanzdaten unter einer Mehrzahl von Sätzen von Bildaufnahmebedingungen erhalten werden, und die erhaltenen Bilddaten können miteinander kombiniert werden.
    • (8) Die in den Schritten S16, S26 erhaltenen Bilddistanzdaten sind Bilddistanzdaten mit hoher Messgenauigkeit. Wenn daher die Steuerung von einem der Schritte S16, S26 zu Schritt 4 zurückkehrt, kann der Pixelsättigungswert, bei dem die Pixelwerte gesättigt sind, oder ein Wert in der Nähe des Pixelsättigungswerts anstelle des Schwellenwerts verwendet werden, der beim Setzen von Bildaufnahmebedingungen in den Schritten S6, S18 verwendet wird. Alternativ kann der Schwellenwert stufenweise näher an den Pixelsättigungswert gebracht werden. Der Bereich von Pixelwerten mit hoher Auflösung kann somit vergrößert werden.
    • (9) Nachdem in der obigen Ausführung die unter den ersten Bildaufnahmebedingungen erhaltenen Bilddistanzdaten und die unter den zweiten Bildaufnahmebedingungen erhaltenen Bilddistanzdaten miteinander kombiniert sind, werden die Bilddistanzen, die erneut unter den ersten Bildaufnahmebedingungen erhalten wurden, und die Bilddistanzdaten, die erneut unter den zweiten Bildaufnahmebedingungen erhalten wurden, miteinander kombiniert. Mit diesem Prozess ist das Zeitintervall der kombinierten Bilddistanzdaten länger als das Zeitintervall der aus den Bilddaten gewandelten Bilddistanzdaten. Daher können die Bilddistanzdaten, die aus den von der Bildaufnahmeeinheit 14 aufgenommenen Bilddaten gewandelt sind, und die Bilddistanzdaten, die unmittelbar nach diesen Bilddistanzdaten erhalten wurden, miteinander kombiniert werden.
    • 8 ist ein Diagramm, das schematisch kombinierte Bilddistanzdaten zeigt, die aus Bilddistanzdaten generiert werden. Bilddistanzdaten, die aufeinanderfolgend von mit der Bildaufnahmeeinheit 14 aufgenommenen Bilddaten gewandelt werden, sind als Frame A1, Frame B1, Frame A2, Frame B2, Frame A3, ... bezeichnet. Die Frames A repräsentieren Bilddistanzdaten, die unter den ersten Bildaufnahmebedingungen erhalten wurden. Die Frames B repräsentieren Bilddatendistanzdaten, die unter den zweiten Bildaufnahmebedingungen erhalten wurden. Der Bilddistanzdatensynthetisierer 20 generiert kombinierte Bilddistanzdaten C1 aus Frame A1 und Frame B1 und generiert auch kombinierte Bilddistanzdaten C2 aus Frame B1 und Frame A2. Der Bilddistanzdatensynthetisierer 20 generiert kombinierte Bilddistanzdaten C3 aus Frame A2 und Frame B2, und generiert auch kombinierte Bilddistanzdaten C4 aus Frame B2 und Frame A3. Auf diese Weise erzeugt der Bilddistanzdatensynthetisierer 20 kombinierte Bilddistanzdaten aufeinanderfolgend aus aufeinanderfolgenden Bilddistanzdaten und Bilddistanzdaten, die unmittelbar nach diesen Bilddistanzdaten erhalten wurden.
    • (10) In der obigen Ausführung erzeugt der Bildaufnahmebedingungssetzabschnitt 50 ein Histogramm. Jedoch braucht der Bildaufnahmebedingungssetzabschnitt 50 kein Histogramm erzeugen, insofern er eine Verteilung von Distanzen zu Subjekten erkennen kann.
    • (11) In der obigen Ausführung werden die Bilddistanzdaten, die unter den ersten Bildaufnahmebedingungen erhalten werden, und die Bilddistanzdaten, die unter den zweiten Bildaufnahmebedingungen erhalten werden, miteinander kombiniert. Jedoch brauchen sie nicht miteinander kombiniert werden, weil die Distanzmessgenauigkeit auch dann erhöht werden kann, wenn sie nicht miteinander kombiniert werden.
    • (12) In der obigen Ausführung wird die Framerate so gesetzt, dass sie gleich oder größer als eine bestimmte Framerate ist. Jedoch kann, selbst wenn die Framerate gleich oder größer als die bestimmte Framerate ist, eine Leerperiode gesetzt werden, nachdem die Daten ausgegeben sind, und kann eingestellt werden, um Daten mit gleichen Intervallen bei der bestimmten Framerate auszugeben (z. B. 30 fps). Der Benutzer könnte es nämlich einfacher finden, mit einer festen Framerate umzugehen, als mit einer Framerate, die sich in Abhängigkeit von Änderungen des Subjekts verändert. Wenn das Subjekt an kürzerer Distanz vorhanden ist, kann darüber hinaus natürlich die Belichtungszeit kürzer sein und die Framerate kann höher sein, während die Distanzmessgenauigkeit eingehalten wird. Demzufolge können die Daten mit höherer Framerate für ein Subjekt mit kürzerer Distanz ausgegeben werden.
    • (13) In der obigen Ausführung werden zweidimensionale Bilddistanzdaten verwendet. Jedoch können auch Bilddaten zum Erzeugen von eindimensionalen Bilddaten aufgenommen werden.
    • (14) Die Bildaufnahmevorrichtung braucht keine zweidimensionale Pixelmatrix haben, da auch ein- oder zweidimensionale Bilddistanzdaten durch einen optischen oder mechanischen Tastabtastprozess erhalten werden können, mittels einer Bildaufnahmevorrichtung, die ein einzelnes Pixel oder ein eindimensionales Array von Pixeln aufweist.
    • (15) In der obigen Ausführung wird das Aufnehmen von aufeinanderfolgenden sich bewegenden Bildern angenommen. Optimale Bildaufnahmebedingungen können aus der Aufnahme von aufeinanderfolgenden sich bewegenden Bildern vorhergesagt werden, und eine Mehrzahl von Bilddistanzdaten kann unter vorhergesagten optimalen Bildaufnahmebedingungen erhalten werden. Es können nämlich eine Mehrzahl von Bilddistanzdaten, die unter den gleichen Bildaufnahmebedingungen erhalten wurden, integriert werden, um ein genaueres Distanzdatenelement zu erfassen.
    • (16) In der obigen Ausführung umfasst die Bildaufnahmevorrichtung eine zweidimensionale Pixelmatrix. Jedoch kann die Bildaufnahmevorrichtung auch ein eindimensionales Array von Pixeln aufweisen. Die einer Matrix von Distanzinformation repräsentierenden Bilddistanzdaten können unter Verwendung der Bildaufnahmevorrichtung erhalten werden, die ein eindimensionales Array von Pixeln enthält.
    • (17) Die obigen Modifikationen (1) bis (16) können zu jedem geeigneten Muster kombiniert werden, insofern keine resultierenden Inkonsistenzen in den Kombinationen enthalten sind.

Claims (6)

  1. Distanzmessvorrichtung (10) umfassend: eine Lichtquelle (30) zum Abgeben von Licht; eine Bildaufnahmeeinheit (14) zum Aufnehmen eines Bilds eines Subjekts basierend auf dem von der Lichtquelle (30) abgegebenen und von dem Subjekt reflektierten Licht; einen Distanzinformationswandler (16) zum Wandeln von Pixelwerten von Pixeln, die von der Bildaufnahmeeinheit (14) erhalten werden, wenn die Bildaufnahmeeinheit (14) das Bild des Objekts aufnimmt, in Distanzinformation, die eine Distanz bis zu dem Objekt repräsentiert; einen Bildaufnahmebedingungssetzabschnitt (50) zum Setzen von ersten Bildaufnahmebedingungen basierend auf der Distanzinformation; einen Bildaufnahmecontroller (52) zum Ansteuern der Lichtquelle (30) und der Bildaufnahmeeinheit (14) zum Aufnehmen des Bilds des Subjekts unter den ersten Bildaufnahmebedingungen, einen Distanzmessgenauigkeitsanalysator (54) zum Analysieren einer Distanzmessgenauigkeit unter den ersten Bildaufnahmebedingungen und zum Identifizieren einer genauigkeitsverringernden Distanz, bei der die Distanzmessgenauigkeit schlechter als ein bestimmter Wert ist; worin der Bildaufnahmebedingungssetzabschnitt (50) die ersten Bildaufnahmebedingungen derart setzt, dass die Pixelwerte der Pixel, die das Licht erfassen, das von einem an einer kürzesten Distanz angeordneten Subjekt reflektiert wird, als erster Schwellenwert dienen, und zweite Bildaufnahmebedingungen zum Erhalt von Luminanzinformation setzt, die heller ist als die ersten Bildaufnahmebedingungen, wenn das Subjekt an einer Distanz vorhanden ist, die weiter als die genauigkeitsverringernde Distanz entfernt ist, derart, dass Pixelwerte der Pixel, die Licht erfassen, das von einem an einer kürzester Distanz angeordneten Abschnitt des Subjekts reflektiert wird, das sich an der Distanz weiter als die genauigkeitsverringernde Distanz befindet, als zweiter Schwellenwert dienen; und der Bildaufnahmecontroller (52) die Lichtquelle (30) und die Bildaufnahmeeinheit (14) ansteuert, um das Bild des Subjekts bei den ersten Bildaufnahmebedingungen und den zweiten Bildaufnahmebedingungen aufzunehmen, wobei die Distanzmessvorrichtung ferner umfasst: einen Distanzänderungsrechner zum Berechnen eines Grads, um den sich die Distanz zu dem Subjekt ändert; und einen Schwellenwertänderer zum Ändern von zumindest einem des ersten Schwellenwerts und des zweiten Schwellenwerts in Abhängigkeit von dem Grad, um den sich die Distanz zu dem Subjekt ändert; worin die Bildaufnahmeeinheit (14) eine zweidimensionale Pixelmatrix aufweist; der Distanzinformationswandler (16) jeden von Pixelwerten der Pixel, die erzeugt werden, wenn die Bildaufnahmeeinheit (14) das Bild des Subjekts aufnimmt, in Distanzinformation wandelt, um ein Bilddistanzdatenelement zu erhalten; und der Distanzänderungsrechner den Grad, um den sich die Distanz bis zu dem Subjekt ändert, durch Vergleich einer Mehrzahl von Bilddistanzdaten berechnet.
  2. Die Distanzmessvorrichtung (10) nach Anspruch 1, ferner umfassend: einen Distanzinformationskombinierer (20) zum miteinander kombinieren der aus den Pixelwerten gewandelten Distanzinformation, wenn das Bild des Subjekts unter den ersten Bildaufnahmebedingungen aufgenommen wird, und der aus den Pixelwerten gewandelte Distanzinformation, wenn das Bild des Subjekts unter den zweiten Bildaufnahmebedingungen aufgenommen wird.
  3. Die Distanzmessvorrichtung (10) nach Anspruch 1, worin eine Differenz zwischen dem zweiten Schwellenwert und einem Pixelsättigungswert größer ist als eine Differenz zwischen dem ersten Schwellenwert und dem Pixelsättigungswert.
  4. Die Distanzmessvorrichtung (10) nach Anspruch 1, worin das Subjekt ein Subjekt aufweist, dessen Bild in einer bestimmten Fläche einer zweidimensionalen Pixelmatrix aufgenommen wird.
  5. Distanzmessverfahren zum Ansteuern einer Distanzmessvorrichtung (10) zum Messen einer Distanz bis zu einem Subjekt, umfassend: einen Lichtabgabeschritt zum Abgeben von Licht von einer Lichtquelle (30); einen Bildaufnahmeschritt zum Aufnehmen, mit einer Bildaufnahmeeinheit (14), eines Bilds des Subjekts basierend auf dem von der Lichtquelle (30) abgegebenen und von dem Subjekt reflektierten Licht; den Distanzinformationswandlungsschritt zum Umwandeln, mit einem Distanzinformationswandler (16), von Pixelwerten von Pixeln, die von der Bildaufnahmeeinheit (14) erhalten werden, einen in Distanzinformation, die die Distanz bis zu dem Subjekt repräsentiert; einen Bildaufnahmebedingungssetzschritt zum Setzen, mit einem Bildaufnahmebedingungssetzabschnitt (50), von ersten Bildaufnahmebedingungen basierend auf der Distanzinformation; und den Bildaufnahmesteuerschritt zum Ansteuern, mit einem Bildaufnahmecontroller (52), der Lichtquelle (30) und der Bildaufnahmeeinheit (14) zum Aufnehmen des Bilds des Subjekts unter den ersten Bildaufnahmebedingungen, einen Analyseschritt zum Analysieren einer Distanzmessgenauigkeit unter den ersten Bildaufnahmebedingungen und zum Identifizieren einer genauigkeitsverringernden Distanz, bei der die Distanzmessgenauigkeit schlechter als ein bestimmter Wert ist; worin der Bildaufnahmebedingungssetzschritt die ersten Bildaufnahmebedingungen derart setzt, dass die Pixelwerte der Pixel, die das Licht erfassen, das von einem an einer kürzesten Distanz angeordneten Subjekt reflektiert wird, als erster Schwellenwert dienen, und zweite Bildaufnahmebedingungen zum Erhalt von Luminanzinformation setzt, die heller ist als die ersten Bildaufnahmebedingungen, wenn das Subjekt an einer Distanz vorhanden ist, die weiter als die genauigkeitsverringernde Distanz entfernt ist, derart, dass Pixelwerte der Pixel, die Licht erfassen, das von einem an einer kürzester Distanz angeordneten Abschnitt des Subjekts reflektiert wird, das sich an der Distanz weiter als die genauigkeitsverringernde Distanz befindet, als zweiter Schwellenwert dienen; und der Bildaufnahmecontroller (52) die Lichtquelle (30) und die Bildaufnahmeeinheit (14) ansteuert, um das Bild des Subjekts bei den ersten Bildaufnahmebedingungen und den zweiten Bildaufnahmebedingungen aufzunehmen, wobei das Distanzmessverfahren ferner die Schritte aufweist: Berechnen eines Grads, um den sich die Distanz zu dem Subjekt ändert, und Ändern von zumindest einem des ersten Schwellenwerts und des zweiten Schwellenwerts in Abhängigkeit von dem Grad, um den sich die Distanz zu dem Subjekt ändert, worin die Bildaufnahmeeinheit (14) eine zweidimensionale Pixelmatrix aufweist; der Distanzinformationswandler (16) jeden von Pixelwerten der Pixel, die erzeugt werden, wenn die Bildaufnahmeeinheit (14) das Bild des Subjekts aufnimmt, in Distanzinformation wandelt, um ein Bilddistanzdatenelement zu erhalten; und der Distanzänderungsrechner den Grad, um den sich die Distanz bis zu dem Subjekt ändert, durch Vergleich einer Mehrzahl von Bilddistanzdaten berechnet.
  6. Aufzeichnungsmedium, das ein Programm speichert, um zu ermöglichen, dass eine Distanzmessvorrichtung (10), die eine Lichtquelle (30) zum Abgeben von Licht und eine Bildaufnahmeeinheit (14) zum Aufnehmen eines Bilds eines Subjekts basierend auf dem von der Lichtquelle (30) abgegebenen und von dem Subjekt reflektierten Licht enthält, fungiert als: ein Distanzinformationswandler (16) zum Umwandeln von Pixelwerten von Pixeln, die von der Bildaufnahmeeinheit (14) erhalten werden, wenn die Bildaufnahmeeinheit (14) das Bild des Subjekts aufnimmt, in Distanzinformation, die eine Distanz bis zu dem Subjekt repräsentiert; ein Bildaufnahmebedingungssetzabschnitt (50) zum Setzen von ersten Bildaufnahmebedingungen basierend auf der Distanzinformation; und ein Bildaufnahmecontroller (52) zum Ansteuern der Lichtquelle (30) und der Bildaufnahmeeinheit (14) zum Aufnehmen des Bilds des Subjekts unter den ersten Bildaufnahmebedingungen, einen Distanzmessgenauigkeitsanalysator (54) zum Analysieren einer Distanzmessgenauigkeit unter den ersten Bildaufnahmebedingungen und zum Identifizieren einer genauigkeitsverringernden Distanz, bei der die Distanzmessgenauigkeit schlechter als ein bestimmter Wert ist; worin der Bildaufnahmebedingungssetzabschnitt (50) die ersten Bildaufnahmebedingungen derart setzt, dass die Pixelwerte der Pixel, die das Licht erfassen, das von einem an einer kürzesten Distanz angeordneten Subjekt reflektiert wird, als erster Schwellenwert dienen, und zweite Bildaufnahmebedingungen zum Erhalt von Luminanzinformation setzt, die heller ist als die ersten Bildaufnahmebedingungen, wenn das Subjekt an einer Distanz vorhanden ist, die weiter als die genauigkeitsverringernde Distanz entfernt ist, derart, dass Pixelwerte der Pixel, die Licht erfassen, das von einem an einer kürzester Distanz angeordneten Abschnitt des Subjekts reflektiert wird, das sich an der Distanz weiter als die genauigkeitsverringernde Distanz befindet, als zweiter Schwellenwert dienen; und der Bildaufnahmecontroller (52) die Lichtquelle (30) und die Bildaufnahmeeinheit (14) ansteuert, um das Bild des Subjekts bei den ersten Bildaufnahmebedingungen und den zweiten Bildaufnahmebedingungen aufzunehmen, wobei das Distanzmessverfahren, ferner umfasst: einen Distanzänderungsschritt zum Berechnen eines Grads, um den sich die Distanz zu dem Subjekt ändert; und einen Schwellenwertänderungsschritt zum Ändern von zumindest einem des ersten Schwellenwerts und des zweiten Schwellenwerts in Abhängigkeit von dem Grad, um den sich die Distanz zu dem Subjekt ändert; worin die Bildaufnahmeeinheit (14) eine zweidimensionale Pixelmatrix aufweist; der Distanzinformationswandler (16) jeden von Pixelwerten der Pixel, die erzeugt werden, wenn die Bildaufnahmeeinheit (14) das Bild des Subjekts aufnimmt, in Distanzinformation wandelt, um ein Bilddistanzdatenelement zu erhalten; und der Distanzänderungsschritt den Grad, um den sich die Distanz bis zu dem Subjekt ändert, durch Vergleich einer Mehrzahl von Bilddistanzdaten berechnet.
DE112010003649.7T 2009-09-15 2010-09-08 Distanzmessvorrichtung, Distanzmessverfahren und Programm Expired - Fee Related DE112010003649B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2009-213420 2009-09-15
JP2009213420A JP5743390B2 (ja) 2009-09-15 2009-09-15 測距装置、及び測距方法
PCT/JP2010/065368 WO2011033971A1 (ja) 2009-09-15 2010-09-08 測距装置、測距方法、及びプログラム

Publications (2)

Publication Number Publication Date
DE112010003649T5 DE112010003649T5 (de) 2012-08-02
DE112010003649B4 true DE112010003649B4 (de) 2014-08-21

Family

ID=43758579

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112010003649.7T Expired - Fee Related DE112010003649B4 (de) 2009-09-15 2010-09-08 Distanzmessvorrichtung, Distanzmessverfahren und Programm

Country Status (4)

Country Link
US (1) US8768010B2 (de)
JP (1) JP5743390B2 (de)
DE (1) DE112010003649B4 (de)
WO (1) WO2011033971A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10816667B2 (en) 2016-02-16 2020-10-27 Sony Corporation Imaging apparatus and imaging control method

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012168322A2 (en) 2011-06-06 2012-12-13 3Shape A/S Dual-resolution 3d scanner
JP5576851B2 (ja) * 2011-12-27 2014-08-20 本田技研工業株式会社 測距システム及び測距方法
JP5781918B2 (ja) * 2011-12-28 2015-09-24 浜松ホトニクス株式会社 距離測定装置
US9477303B2 (en) 2012-04-09 2016-10-25 Intel Corporation System and method for combining three-dimensional tracking with a three-dimensional display for a user interface
CN104470757B (zh) 2012-07-09 2017-05-17 布莱特瓦维森有限公司 立体选通成像系统和方法
US20140037135A1 (en) * 2012-07-31 2014-02-06 Omek Interactive, Ltd. Context-driven adjustment of camera parameters
DE102014206236B4 (de) * 2013-04-04 2020-11-19 pmdtechnologies ag Lichtlaufzeitkamera für ein Fahrzeug
DE102014206898B4 (de) * 2013-04-10 2020-11-19 pmdtechnologies ag Lichtlaufzeitkamera für ein Fahrzeug
EP3015882B1 (de) 2013-06-27 2020-12-09 Panasonic Semiconductor Solutions Co., Ltd. Entfernungsmessvorrichtung
JP6587185B2 (ja) * 2014-01-14 2019-10-09 パナソニックIpマネジメント株式会社 距離画像生成装置及び距離画像生成方法
DE102014004787A1 (de) * 2014-04-02 2015-10-08 Audi Ag Erfassungseinrichtung, insbesondere zur Nutzung in einem Kraftfahrzeug und Kraftfahrzeug
JP6731135B2 (ja) * 2014-05-30 2020-07-29 パナソニックセミコンダクターソリューションズ株式会社 センシングシステム及び運転支援システム
WO2016075945A1 (ja) * 2014-11-14 2016-05-19 株式会社デンソー 光飛行型測距装置
US9881235B1 (en) * 2014-11-21 2018-01-30 Mahmoud Narimanzadeh System, apparatus, and method for determining physical dimensions in digital images
DE102014117399B4 (de) * 2014-11-27 2017-05-11 Sick Ag Sensorsystem
DE102015106140A1 (de) * 2015-04-22 2016-10-27 Valeo Schalter Und Sensoren Gmbh Verfahren zum Betreiben eines optoelektronischen Sensors für ein Kraftfahrzeug mit Anpassung des Aussendens der Sendesignale, optoelektronischer Sensor, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102015218822A1 (de) 2015-09-30 2017-03-30 Ifm Electronic Gmbh Lichtlaufzeitkamera mit verstellbarer Blende
JP2017133853A (ja) 2016-01-25 2017-08-03 株式会社リコー 測距装置
JP6848364B2 (ja) 2016-11-10 2021-03-24 株式会社リコー 測距装置、移動体、ロボット、3次元計測装置、監視カメラ及び測距方法
WO2018101187A1 (ja) 2016-11-29 2018-06-07 パナソニックIpマネジメント株式会社 距離測定装置
EP3550261A4 (de) 2016-12-05 2019-12-25 Panasonic Intellectual Property Management Co., Ltd. Bilderfassungsvorrichtung und darin verwendetes bilderfassungselement
JPWO2018181250A1 (ja) * 2017-03-30 2020-02-06 パナソニックIpマネジメント株式会社 距離画像生成装置及び距離画像生成方法
JP6846708B2 (ja) * 2017-03-30 2021-03-24 パナソニックIpマネジメント株式会社 画像認識装置および距離画像生成方法
JP2018185179A (ja) * 2017-04-25 2018-11-22 株式会社リコー 測距装置、監視装置、3次元計測装置、移動体、ロボット及び測距方法
US10999524B1 (en) 2018-04-12 2021-05-04 Amazon Technologies, Inc. Temporal high dynamic range imaging using time-of-flight cameras
US10708484B2 (en) 2018-06-20 2020-07-07 Amazon Technologies, Inc. Detecting interference between time-of-flight cameras using modified image sensor arrays
CN112639513A (zh) * 2018-07-02 2021-04-09 布鲁克曼科技株式会社 测距装置、照相机、检查调整装置、测距装置的驱动调整方法及检查调整方法
US10681338B1 (en) 2018-07-24 2020-06-09 Amazon Technologies, Inc. Detecting interference in depth images captured using overlapping depth cameras
EP3855215A4 (de) 2018-09-18 2021-11-10 Panasonic Intellectual Property Management Co., Ltd. Tiefenerfassungsvorrichtung, tiefenerfassungsverfahren und programm
EP3855395B1 (de) 2018-09-18 2024-05-15 Panasonic Intellectual Property Management Co., Ltd. Tiefenerfassungsvorrichtung, tiefenerfassungsverfahren und programm
CN112513934A (zh) 2018-09-27 2021-03-16 松下知识产权经营株式会社 纵深取得装置、纵深取得方法以及程序
WO2020066637A1 (ja) 2018-09-28 2020-04-02 パナソニックIpマネジメント株式会社 奥行取得装置、奥行取得方法およびプログラム
US10915783B1 (en) 2018-12-14 2021-02-09 Amazon Technologies, Inc. Detecting and locating actors in scenes based on degraded or supersaturated depth data
US20220146648A1 (en) * 2019-02-22 2022-05-12 Sony Semiconductor Solutions Corporation Distance measuring device, method for controlling distance measuring device, and electronic device
EP3977718A1 (de) * 2019-05-31 2022-04-06 Ricoh Company, Ltd. Bildgebungssystem, bildgebungsverfahren und trägervorrichtung
JP2021050988A (ja) * 2019-09-25 2021-04-01 ソニーセミコンダクタソリューションズ株式会社 測距装置及び電子機器
JP7364439B2 (ja) 2019-11-25 2023-10-18 ファナック株式会社 Tofセンサを用いた物体検出システム
JPWO2022137919A1 (de) * 2020-12-22 2022-06-30
CN116068568B (zh) * 2023-04-07 2023-07-28 天津宜科自动化股份有限公司 一种获取物体距离的数据处理系统

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0374967A (ja) 1989-08-17 1991-03-29 Toshiba Corp 画像補正回路
JP3074967B2 (ja) 1992-10-27 2000-08-07 松下電器産業株式会社 高ダイナミックレンジ撮像・合成方法及び高ダイナミックレンジ撮像装置
JPH08313215A (ja) * 1995-05-23 1996-11-29 Olympus Optical Co Ltd 2次元距離センサ
JPH09197045A (ja) * 1996-01-24 1997-07-31 Nissan Motor Co Ltd 車両用レーダ装置
JP2000098478A (ja) * 1998-09-22 2000-04-07 Casio Comput Co Ltd 電子カメラ及びその制御方法
JP2001281336A (ja) 2000-03-31 2001-10-10 Olympus Optical Co Ltd 距離画像撮像装置
JP3901434B2 (ja) 2000-08-23 2007-04-04 株式会社日立製作所 情報配信システム及び情報表示装置
JP4235729B2 (ja) * 2003-02-03 2009-03-11 国立大学法人静岡大学 距離画像センサ
JP4727388B2 (ja) * 2005-10-28 2011-07-20 セコム株式会社 侵入検知装置
JP4942467B2 (ja) * 2006-12-11 2012-05-30 富士フイルム株式会社 撮影装置および方法並びにプログラム
DE102006060108A1 (de) 2006-12-20 2008-06-26 Sick Ag Laserscanner
JP5190663B2 (ja) * 2007-03-27 2013-04-24 スタンレー電気株式会社 距離画像生成装置
JP2009047460A (ja) * 2007-08-15 2009-03-05 Lasertec Corp 共焦点顕微鏡

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JP 2008 145 263 A
MIYAGAWA, R.; KANADE, T.: CCD-Based Range-Finding Sensor. In: IEEE Transactions on Electron Devices, Vol. 44, No. 10, 1997, S. 1648-1652

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10816667B2 (en) 2016-02-16 2020-10-27 Sony Corporation Imaging apparatus and imaging control method

Also Published As

Publication number Publication date
US8768010B2 (en) 2014-07-01
JP5743390B2 (ja) 2015-07-01
WO2011033971A1 (ja) 2011-03-24
JP2011064498A (ja) 2011-03-31
DE112010003649T5 (de) 2012-08-02
US20120177252A1 (en) 2012-07-12

Similar Documents

Publication Publication Date Title
DE112010003649B4 (de) Distanzmessvorrichtung, Distanzmessverfahren und Programm
DE10349607B4 (de) Vorrichtung zum Steuern der Position eines Bildschirmzeigers für ein elektronisches Gerät, Verfahren und optisches Zeigegerät zum Erzeugen von Bewegungsdaten zum Steuern der Position eines Bildschirmzeigers
DE102006029025A1 (de) Vorrichtung und Verfahren zur Abstandsbestimmung
DE60125683T2 (de) Anordnung und Verfahren zur Entfernungsmessung
DE102017113675A1 (de) Optoelektronischer Sensor und Verfahren zur Messung der Entfernung zu einem Objekt
DE102005004113A1 (de) Vorrichtung, Verfahren und Programm zum Erzeugen von Bereichsbilddaten
DE102017124430A1 (de) 3di sensor-tiefenkalibrierungskonzept mittels differenzfrequenzmethode
DE102013225676A1 (de) Lichtlaufzeitkamera mit Bewegungserkennung
DE102010036964A1 (de) Verzögerungskompensation bei einer modulierten optischen Laufzeit-Phasenabschätzung
EP2710331A1 (de) Optisches messverfahren und messsystem zum bestimmen von 3d-koordinaten auf einer messobjekt-oberfläche
WO2018185083A2 (de) Lichtlaufzeitkamera
DE102016111014A1 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Speichermedium
DE102005018092A1 (de) Biochip-Messverfahren und Biochip-Messvorrichtung
DE102018129246B4 (de) Interferenzdetektierung und -minderung für lidarsysteme
DE102010000467A1 (de) Messvorrichtung
DE102010017604B4 (de) Verfahren zum optischen Messen von Strukturen eines Objekts
DE102010006146B4 (de) System und Verfahren zum Durchführen von optischer Navigation unter Verwendung von verbesserten Frames von Bilddaten
DE10223478C5 (de) Verfahren zur Aufnahme eines Objektraumes
DE102011121115B4 (de) Laser-Scanner und Verfahren zur Vermessung von Zielräumen
DE102019202459A1 (de) Lasermessvorrichtung zum Messen von Entfernungen und Verfahren zum Betreiben einer Lasermessvorrichtung zum Messen von Entfernungen
DE102007031774A1 (de) Verfahren und Vorrichtung zur Vermessung von Objekten mittels hochdynamischer Bildaufnahmen
DE102019003871A1 (de) Abstandsmessvorrichtung mit Polarisationsfilter
DE102022107223A1 (de) Bodenoberflächenzustandsdetektionsvorrichtung, entfernungsmessvorrichtung, mit dieser ausgestattet, bodenoberflächenzustandsdetektionsverfahren und bodenoberflächenzustandsdetektionsprogramm
DE102020116513A1 (de) Erweiterte deltacodierungstechnik zur lidarrohdatenkomprimierung
DE4038220C2 (de) Verfahren und Anordnung zur Kompensation eines Bildsignals gegenüber Beleuchtungsänderungen

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G01S0017100000

Ipc: G01S0017890000

Effective date: 20121005

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee