DE60125683T2 - Anordnung und Verfahren zur Entfernungsmessung - Google Patents

Anordnung und Verfahren zur Entfernungsmessung Download PDF

Info

Publication number
DE60125683T2
DE60125683T2 DE60125683T DE60125683T DE60125683T2 DE 60125683 T2 DE60125683 T2 DE 60125683T2 DE 60125683 T DE60125683 T DE 60125683T DE 60125683 T DE60125683 T DE 60125683T DE 60125683 T2 DE60125683 T2 DE 60125683T2
Authority
DE
Germany
Prior art keywords
light
image
section
reflected
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE60125683T
Other languages
English (en)
Other versions
DE60125683D1 (de
Inventor
Chiaki K.K. Honda Gijutsu Kenkyusho Wako-shi Aoyama
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Publication of DE60125683D1 publication Critical patent/DE60125683D1/de
Application granted granted Critical
Publication of DE60125683T2 publication Critical patent/DE60125683T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4811Constructional features, e.g. arrangements of optical elements common to transmitter and receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Measurement Of Optical Distance (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Entfernungsmessvorrichtung und auf ein Verfahren zum Messen der Entfernung von der Vorrichtung zu einem Objekt durch Abbilden von Licht, das von der Vorrichtung emittiert worden ist, durch einen Schlitz gefallen ist und vom Objekt reflektiert worden ist, und anschließendes Bezugnehmen auf eine Positionsbeziehung zwischen der Lichtemissionsposition und der Bildposition.
  • Beschreibung des Standes der Technik
  • Aus dem Dokument US-A-5 812 269 ist eine Entfernungsmessvorrichtung bekannt. Das Dokument lehrt das Messen von Entfernungen mittels Hochgeschwindigkeits-3D- und Grauskalenabbildung auf der Grundlage der Triangulation. Zu diesem Zweck wird ein modulierter Laserstrahl abtastend über das Objekt bewegt, zu dem die Entfernung gemessen werden soll. Während dieser Abtastung wird eine Mehrzahl von Flecken erzeugt, die mittels eines Paares von Empfängern betrachtet werden. Jeder Empfänger enthält ein Lichtsammel- und Liefersystem, einen positionsempfindlichen Detektor und einen zugehörigen verhältnismetrischen Signalprozessor.
  • Die Laserintensität dieser bekannten Vorrichtung kann variiert werden, um irgendeine Überbelichtung des zu messenden Objekts durch das Laserlicht zu vermeiden.
  • Es ist ein Nachteil des Systems in dem Verfahren, das aus dem Dokument US-A-5 812 269 bekannt ist, dass die Intensität des emittierten Laserstrahls möglicherweise über ein bestimmtes Niveau angehoben werden muss, was für Menschen gefährlich sein kann, um den Intensitätswert des Laserlichts innerhalb des brauchbaren Dynamikbereiches zu halten. Dies ist von besonderer Wichtigkeit, wenn Entfernungsmessvorrichtungen an Vorrichtungen, insbesondere selbstgesteuerten Robotern, verwendet werden, die sich vielleicht in einer Menschenmenge bewegen.
  • Im Folgenden wird der weitere Stand der Technik diskutiert:
    Seit kurzem wurden CCD-Kameras (CCD, Charge Coupled Device = ladungsgekoppelte Vorrichtung) und Computerbildverarbeitungstechniken verbessert, wobei dementsprechend dreidimensionale Messverfahren unter Verwendung von Bildern üblich geworden sind. Ein Beispiel solcher dreidimensionaler Messverfahren unter Verwendung einer CCD-Kamera und einer Computerbildverarbeitung ist ein Lichtschnittverfahren. Beim Lichtschnittverfahren wird durch einen Schlitz fallendes Licht auf ein zu messendes Zielobjekt projiziert, um somit das Objekt unter Verwendung bandförmigen Lichts virtuell zu schneiden, wobei eine Schnittoberfläche in einer anderen Richtung als der Richtung des projizierten Lichts beobachtet wird. Da mittels Lasertechnik sehr feine und intensive Lichtstrahlen erhalten werden können, kann auch ein Objekt mit einer unregelmäßigen Oberfläche mit hoher Geschwindigkeit und mit hoher Genauigkeit vermessen werden, indem eine dreidimensionale Messung unter Verwendung des Lichtschnittverfahrens verwendet wird.
  • Im Allgemeinen wird im Lichtschnittverfahren die Entfernung zum Zielobjekt unter Verwendung des Triangulationsprinzips bestimmt. In der Triangulation wird ein Dreieck durch Verbindung zu zweier bekannter Referenzpunkte und irgendeines anderen dritten Punktes definiert, wobei die Position des dritten Punktes durch Messen der Winkel des Dreiecks bestimmt wird. Genauer wird in Lichtschnittverfahren Licht, das von einer Lichtquelle innerhalb einer Entfernungsmessvorrichtung emittiert wird und durch einen Schlitz fällt, auf ein Objekt projiziert, wobei das reflektierte Licht von der Oberfläche des Objekts mittels einer innerhalb der Entfernungsmessvorrichtung vorgesehenen CCD-Kamera abgebildet wird. Die Entfernung zwischen der Entfernungsmessvorrichtung und dem Zielobjekt wird auf der Grundlage der Richtung des emittierten Lichts und der Positionen der Lichtquelle und der CCD-Kamera gemessen. Die Intensität des von der CCD-Kamera abgebildeten reflektierten Lichts ist daher vorzugsweise konstant.
  • Selbst wenn die Intensität des Lichts, das von der Entfernungsmessvorrichtung emittiert wird und durch einen Schlitz fällt, konstant ist, variiert jedoch die Intensität des reflektierten Lichts entsprechend der Entfernung zum Objekt und der Reflexionseigenschaften der Oberfläche des Objekts. Die Messprinzipien des Lichtschnittverfahrens erfordern, dass ein Bild des Lichts, das durch einen Schlitz fällt (auch im Folgenden als Schlitzlicht bezeichnet), von der CCD-Kamera kontinuierlich aufgenommen wird. Da gewöhnlich in der dreidimensionalen Messung unter Verwendung des Lichtschnittverfahrens die ungefähre Entfernung zum Objekt und der Zustand der Oberfläche des zu messenden Objekts bis zu einem gewissen Grad bekannt sind, wird die Messung im allgemeinen durchgeführt, nachdem die Intensität des Schlitzlichtes und der Dynamikbereich der CCD-Kamera während der Kalibrierungszeit vor der Messung eingestellt worden sind.
  • Wenn jedoch eine Bodenoberfläche oder ein Hindernis auf einer Bodenoberfläche unter Verwendung des Lichtschnittverfahrens in einem visuellen Sensor eines selbstgesteuerten Roboters erfasst wird, können die Intensität des Schlitzlichtes und der Dynamikbereich der CCD-Kamera nicht realistisch im Voraus eingestellt werden, da die Entfernung zu dem zu messenden Objekt und die Reflexionseigenschaften der Oberfläche des Objekts unbekannt sind. Folglich müssen Messungen unter Verwendung einer Vorrichtung durchgeführt werden, die einen Dynamikbereich aufweist, der den Bereich des Lichts von schwachem Licht zu starkem Licht abdeckt, unter Verwendung eines Laserlichts mit einer vorgegebenen Intensität. In Abhängigkeit von der Entfernung zum Objekt oder den Reflexionseigenschaften des Objekts kann jedoch ein Problem auftreten, wenn das Licht nicht innerhalb des Dynamikbereiches der CCD-Kamera liegt. Genauer, da das Lichtschnittverfahren die Form des Objekts erkennt und die Entfernung zum Objekt entsprechend dem Zustand des aufgenommenen Bildes des Schlitzlichtes misst, ist es dann, wenn die Abbildung für das Schlitzlicht nicht durchgeführt werden kann, nicht möglich, sicherzustellen, ob die Abbildung aufgrund des Einflusses des Dynamikbereiches unmöglich ist, oder aufgrund des Lichtverlustes in den Schatten des Objektes, wobei als Ergebnis die Entfernungsmessung und die Erkennung des Objekts nicht genau durchgeführt werden können. Ferner ist ein weiteres Problem, dass starkes Licht, das durch den Schlitz gefallen ist, als dickes Licht abgebildet wird, so dass es schwierig ist, die genaue Position für das Objekt zu erhalten.
  • ÜBERBLICK ÜBER DIE ERFINDUNG
  • Es ist daher eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung und ein Verfahren zum Messen einer Entfernung zu schaffen, die fähig sind, sowohl nahe Objekte als auch weit entfernte Objekte zu messen, ohne den Dynamikbereich der Abbildungskamera anzupassen, so dass z. B. die für die Entfernungsmessung verwendete Laserintensität unterhalb eines bestimmten Niveaus gehalten werden kann, so dass Menschen, die sich im Messbereich befinden, nicht in Gefahr gebracht werden.
  • Diese Aufgabe wird durch eine Vorrichtung gelöst, die alle Merkmale des Anspruchs 1 aufweist, sowie durch ein Verfahren, das alle Merkmale des Anspruchs 5 aufweist.
  • Eine Ausführungsform der Entfernungsmessvorrichtung gemäß der vorliegenden Erfindung umfasst: einen Bilderfassungsabschnitt zum Abbilden reflektierten Lichts, das von der Vorrichtung emittiert worden ist, durch einen Schlitz gefallen ist, und anschließend von der Oberfläche eines zu messenden Zielobjekts reflektiert worden ist; einen Emissionssteuerabschnitt zum Steuern des Emissionszeitpunkts des Lichts, das emittiert wird und durch den Schlitz fällt, während der Zeitspanne, in der ein Bild vom Bilderfassungsabschnitt abgetastet wird, und zum Ändern der Intensität des empfangenen Lichts im Bilderfassungsabschnitt; sowie einen Entfernungsberechnungsabschnitt zum Berechnen der Entfernung zum Objekt auf der Grundlage des vom Bilderfassungsabschnitt aufgenommenen Bildes durch Bezugnahme auf eine Positionsbeziehung zwischen einer Lichtemissionsposition des durch den Schlitz gefallenen Lichts und einer Bildposition.
  • In einem Entfernungsmessverfahren gemäß einer Ausführungsform der vorliegenden Erfindung wird Licht, das durch einen Schlitz gefallen ist, auf ein zu messendes Zielobjekt emittiert, wobei Licht, das vom Objekt reflektiert wird, mittels eines Abbildungsabschnitts abgebildet wird, wobei auf der Grundlage des erhaltenen Bildes die Entfernung zum Objekt gemessen wird durch Bezugnahme auf eine Positionsbeziehung zwischen einer Lichtemissionsposition des Lichts, das durch den Schlitz gefallen ist, und einer Bildposition, wobei außerdem dann, wenn durch den Schlitz gefallenes Licht auf das Objekt projiziert wird, ein Emissionszeitpunkt des durch den Schlitz gefallenen Lichts innerhalb einer Zeitperiode variiert wird, während der der Abbildungsabschnitt das Bild abtastet.
  • Gemäß dieser Ausführungsform wird in einem Fall, in dem Licht, das von einer Vorrichtung emittiert, durch einen Schlitz gefallen und von einem Objekt reflektiert worden ist, abgebildet wird und die Entfernung zum Objekt anschließend gemessen wird unter Bezugnahme auf eine Positionsbeziehung zwischen der Lichtemissionsposition des Schlitzlichtes und der Bildposition, anschließend die Messung durchgeführt, indem z. B. das von der Vorrichtung in einer Richtung emittierte Laserlicht gestreut wird und Schlitzlicht erzeugt wird und dieses Schlitzlicht auf das zu messende Objekt projiziert wird, woraufhin die Emissionszeit für das Schlitzlicht innerhalb der Abtastzeit der Bilderfassungsvorrichtung geändert wird, wobei die Helligkeitsverteilung des abgebildeten Schlitzlichtes gleichmäßig wird und die Abbildung des Schlitzlichtes mit Sicherheit durchgeführt werden kann. Als Ergebnis kann die Entfernungsgenauigkeit verbessert werden, wobei die Entfernungsmessungsverarbeitung vereinfacht werden kann. Auf diese Weise kann die vorliegende Erfindung hinsichtlich des Problems, dass dann, wenn ein Hindernis unter Verwendung des Lichtschnittverfahrens in einem visuellen Sensor eines selbstgesteuerten Roboters erfasst wird, und die Erkennung eines Objekts und die Entfernungsmessung nicht genau durchgeführt werden können, sicherstellen, dass die Helligkeitsverteilung des Schlitzlichtes gleichmäßig wird, wodurch die Genauigkeit für die Erkennung eines Objekts und für die Entfernungsmessung verbessert wird.
  • In der Entfernungsmessvorrichtung kann der Emissionssteuerabschnitt auch so aufgebaut sein, dass er den Emissionszeitpunkt entsprechend der Intensität des reflektierten Lichts bestimmt, das vom Bilderfassungsabschnitt empfangen wird. In der gleichen Weise kann im Entfernungsmessverfahren die Intensität des emittierten Lichts, das durch den Schlitz fällt, entsprechend der Intensität des von der Oberfläche des Objekts reflektierten abgebildeten Lichts geändert werden.
  • Folglich kann die Helligkeitsverteilung des reflektierten Lichts zuverlässig auf ein gleichmäßiges Niveau konvertiert werden, selbst für unbekannte Objekte.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm, das die Struktur einer Entfernungsmessvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
  • 2 ist ein Blockdiagramm, das die Struktur einer in 1 gezeigten Laserlichtquelle 11 zeigt.
  • 3 ist ein Diagramm, dass das äußere Erscheinungsbild eines zweibeinigen Roboters 1 zeigt.
  • 4 ist ein erläuterndes Diagramm, das ein von einem Emissionssteuerabschnitt 14 ausgegebenes Signal zeigt.
  • 5 ist ein schematisches Diagramm, das einen Zustand zeigt, in dem Laserlicht von einem optischen System 2 emittiert wird.
  • 6 ist ein Diagramm, das die Reflexionseigenschaften eines Bodens 4 zeigt.
  • GENAUE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
  • Es folgt eine Beschreibung einer Entfernungsmessvorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung mit Bezug auf die Zeichnungen.
  • Zuerst wird mit Bezug auf 3 ein zweibeiniger Roboter beschrieben, an dem eine Entfernungsmessvorrichtung angebracht ist. In 3 bezeichnet das Bezugszeichen 1 einen selbstgesteuerten zweibeinigen Roboter (im Folgenden als "Roboter" abgekürzt). Das Bezugszeichen 2 bezeichnet ein optisches System der Entfernungsmessvorrichtung, das am Roboter 1 auf Bauchhöhe angebracht ist. Das Bezugszeichen 3 bezeichnet einen Laserlichtemissionsbereich des optischen Systems 2, wo das Laserlicht über 60° in einer einzigen Ebene gestreut wird, um somit Schlitzlicht zu erzeugen, wobei dieses Schlitzlicht in Richtung zu einer Bodenoberfläche 4 projiziert wird. Außerdem ist die Ausrichtung des optischen Systems 2 so eingestellt, dass das Schlitzlicht vor der Spitze eines Fußes eines Roboters 1 auf die Bodenoberfläche projiziert wird.
  • 1 ist ein Blockdiagramm, das den Aufbau der Entfernungsmessvorrichtung gemäß der vorliegenden Ausführungsform zeigt. In dieser Figur bezeichnet das Bezugszeichen 11 eine Laserlichtquelle zum Emittieren von Laserlicht in Richtung zu dem zu messenden Zielobjekt. Das Bezugszeichen 12 bezeichnet eine Kurzbasislinienlängen-Kamera, die nahe der Laserlichtquelle 11 angeordnet ist und eine verschachtelt abtastende CCD-Kamera umfasst. Da die Kurzbasislinienlängen-Kamera 12 eine kurze Basislinienlänge aufweist, ist die Genauigkeit zur Messung der Entfernung gering, obwohl ein großer Entfernungsbereich vor dem Roboter 1 mit dieser Kamera 12 beobachtet werden kann. Das Bezugszeichen 13 bezeichnet eine Langbasislinienlängen-Kamera, die entfernt von der Laserlichtquelle 11 angeordnet ist und ebenfalls eine verschachtelt abtastende CCD-Kamera umfasst. Da diese Langbasislinienlängen-Kamera 13 eine lange Basislinienlänge aufweist, ist die zugehörige Genauigkeit zur Messung der Entfernung hoch, obwohl der Entfernungsbereich vor dem Roboter 1 beschränkt ist. Ferner können die Kurzbasislinienlängen-Kamera 12 und die Langbasislinienlängen-Kamera 13 unter Verwendung eines Synchronisierungssignals betrieben werden, das von einer externen Vorrichtung eingegeben wird.
  • Das Bezugszeichen 2 bezeichnet das in 3 gezeigte optische System, das die Laserlichtquelle 11, die Kurzbasislinienlängen-Kamera 12 und die Langbasislinienlängen-Kamera 13 enthält. Das Bezugszeichen 14 bezeichnet einen Emissionssteuerabschnitt zum Steuern der Laserlichtquelle 11 durch Ausgeben eines Steuersignals, das die Emission des Laserlichts steuert, an die Laserlichtquelle 11, und ist mit einem Pulsbreitenmodulator (im Folgenden mit "PBM" bezeichnet) zum Ausgeben eines vertikalen Synchronisationssignals an die Kurzbasislinienlängen-Kamera 12 und die Langbasislinienlängen-Kamera 13 sowie zum Erzeugen eines Impulses synchron mit diesem Vertikalsynchronisierungssignals versehen. Das Bezugszeichen 15 bezeichnet einen Bildspeicherabschnitt mit vier Bildspeichern zum Speichern der Bildsignale, die von den beiden Kameras ausgegeben werden. Der Bildspeicherabschnitt 15 speichert jeweils ein Halbbild der zwei verschachtelt abtastenden Kameras in den vier jeweiligen Bildspeichern.
  • Das Bezugszeichen 16 bezeichnet einen Schätzabschnitt zum Schätzen der Höhe eines voraus befindlichen Objekts durch Bezugnahme auf die Entfernung zum Objekt, die auf der Grundlage der im Bildspeicherabschnitt 15 gespeicherten Bilddaten bestimmt wird. Das Bezugszeichen 17 bezeichnet einen Bewegungsbahnbestimmungsabschnitt zum Bestimmen der Bewegungsbahn des Roboters 1 entsprechend dem Zustand des Zielobjekts, wie er vom Höhenschätzabschnitt 16 geschätzt wird. Das Bezugszeichen 18 bezeichnet einen Aufsetzpositionsbestimmungsabschnitt zum Bestimmen der Aufsetzposition der Beine des Roboters 1 auf der Grundlage der vom Bewegungsbahnbestimmungsabschnitt 17 bestimmten Bahn und der vom Höhenschätzabschnitt 16 geschätzten Höhe des Objekts. Das Bezugszeichen 19 bezeichnet einen Beinsteuerabschnitt zum Steuern der Beine, um somit den Fuß auf der vom Aufsetzpositionsbestimmungsabschnitt 18 bestimmten Aufsetzposition aufzusetzen.
  • Als nächstes wird der Aufbau der in 1 gezeigten Laserlichtquelle 11 mit Bezug auf 2 genauer beschrieben. 2 ist ein Blockdiagramm, das den Aufbau der in 1 gezeigten Laserlichtquelle 11 zeigt. In der Figur bezeichnet das Bezugszeichen 21 einen Laseremissionsabschnitt zum Emittieren von Laserlicht. Das Bezugszeichen 22 bezeichnet eine Kondensatorlinse zum Sammeln des vom Laseremissionsabschnitt 21 emittierten Laserlichts, um somit einen schmalen gebündelten Strahl zu erhalten. Das Bezugszeichen 23 bezeichnet ein Beugungsgitter zum Teilen des durch die Kondensatorlinse 22 gebündelten Laserstrahls in mehrere Strahlen. Hierbei werden die geteilten Strahlen in Richtung senkrecht zur Ebene der 2 ausgerichtet. Das Bezugszeichen 24 bezeichnet eine Strahldiffusionslinse, die eine zylindrische Linse oder dergleichen verwendet. Die Strahldiffusionslinse ist vorgesehen, um jeden Laserstrahl in einer einzigen Ebene zu streuen, um somit einen Strahl zu erzeugen, der einen Strahl aufweist, der durch Leiten durch einen Schlitz erhalten wird. Jeder der mehreren Strahlen wird von der Strahldiffusionslinse 24 gestreut, um somit einen Streuwinkel von 60° aufzuweisen.
  • Um außerdem in 2 die Positionsbeziehung der Bodenoberfläche zu zeigen, bezeichnet das Bezugszeichen 4 eine Linie, die die Bodenoberfläche repräsentiert, während das Bezugszeichen A den Punkt bezeichnet, wo die Spitze des Fußes des Roboters positioniert ist. Ferner zeigt das schematische Diagramm der 5 einen Zustand, in welchem das Laserlicht vom optischen System 2 emittiert wird, das auf Bauchhöhe am Roboter 1 angebracht ist. In 5 bezeichnet das Bezugszeichen 11 die Laserlichtquelle. Das Bezugszeichen 3 bezeichnet den Laseremissionsbereich des Laserlichts von der Laserlichtquelle, der auf die Bodenoberfläche 4 emittiert wird. Hierbei wird das Laserlicht mittels des Beugungsgitters 23 in fünf Strahlen aufgeteilt, wobei die fünf Strahlen mittels der Laserdiffusionslinse 24 mit 60° gestreut werden. Diese Laserstrahlen werden in Richtung zur Bodenoberfläche 4 projiziert, wobei die Abbildungen des von der Bodenoberfläche reflektierten Lichts von der Kurzbasislinienlängen-Kamera 12 und der Langbasislinienlängen-Kamera 13 aufgenommen werden. Um die 5 leichter verständlich zu machen, teilt das Beugungsgitter 23 das Laserlicht in fünf Strahlen auf, jedoch ist in der Praxis der Winkel B in 5 gleich 32° und der Winkel C gleich 1,6°. Dementsprechend ist die Anzahl der Strahlen gleich 21.
  • Als nächstes werden mit Bezug auf 6 die Reflexionseigenschaften einer typischen Bodenoberfläche beschrieben. 6 ist ein Diagramm, das die Reflexionseigenschaften der Bodenoberfläche zeigt. Die Reflexionseigenschaften einer typischen Oberfläche sind so beschaffen, dass dann, wenn die Oberfläche keine perfekten diffusen Reflexionseigenschaften aufweist, die Intensität des gespiegelt reflektierten Elements am stärksten ist, selbst wenn die Oberfläche keine Spiegeloberfläche ist. Im optischen System 2, das in Bauchhöhe am Roboter 1 angebracht ist, sind die Lichtemissionsposition und die Beobachtungsposition nahezu an der gleichen Stelle angeordnet. Wenn folglich das von einer Reflexionsposition 1 reflektierte Licht an der Beobachtungsposition empfangen wird, läuft das auf eine gespiegelte Reflexion hinaus. Andererseits kehrt das spiegelnde Reflexionselement, das von einer Reflexionsposition 2 reflektiert wird, nicht zur Beobachtungsposition zurück, wobei in der gleichen Weise das von einer Reflexionsposition 3 reflektierte spiegelnde Reflexionselement nicht zur Beobachtungsposition zurückkehrt. Außerdem werden Winkel D und E, die zwischen der Reflexionsrichtung und der Beobachtungspositionsrichtung des spiegelnden Reflexionselements jeweils an den Reflexionspositionen 2 und 3 gebildet werden, größer, wenn die Entfernung von der Beobachtungsposition zunimmt. Die Intensität, mit der reflektiertes Licht empfangen wird, nimmt ab, wenn der zwischen der Reflexionsrichtung und der Beobachtungspositionsrichtung gebildete Winkel zunimmt. Selbst wenn ferner die Lichtemissionsintensität an der Lichtemissionsposition konstant ist, wird das Licht, das den Reflexionspunkt erreicht, geschwächt, wenn die Entfernung von der Lichtemissionsposition zur Reflexionsposition zunimmt, da die Intensität umgekehrt proportional zum Quadrat der Entfernung abnimmt.
  • In einem Fall, in dem Laserlicht auf eine Bodenoberfläche projiziert wird, wobei ein Bild des von der Oberfläche reflektierten Lichts aufgenommen wird, wie in 6 gezeigt ist, ist dann, wenn die Intensität des von der Reflexionsposition 3 reflektierten und an der Beobachtungsposition empfangenen Lichts mit "1" angenommen wird, die Intensität des von der Reflexionsposition 1 empfangen reflektierten Lichts gleich "10", gleich dem zehnfachen derjenigen der Reflexionsposition 3. Wenn die Abbildung mit diesem Bereich von Lichtintensität unter Verwendung eines einzigen Dynamikbereiches durchgeführt wird und eine Quantisierung durchgeführt wird, um eine digitale Verarbeitung durchzuführen, wird es schwierig, geringe Variationen der Helligkeit zu erfassen, da die Quantisierungszahl in einer digitalen Standardverarbeitung fixiert ist.
  • Um diesen Typ von Phänomen zu vermeiden, steuert der Emissionssteuerabschnitt 14 unter Verwendung des darin enthaltenen PBM den Emissionszeitpunkt des von der Laserlichtquelle 11 emittierten Laserlichts. Hier wird das Emissionssteuersignal, das vom Emissionssteuerabschnitt 14 an die Laserlichtquelle 11 ausgegeben wird, mit Bezug auf 4 beschrieben.
  • 4 ist ein erläuterndes Diagramm, dass das Emissionssteuersignal zeigt, das vom Emissionssteuerabschnitt 14 synchron mit dem Vertikalsynchronisierungssignal ausgegeben wird, das an die Kurzbasislinienlängen-Kamera 12 und die Langbasislängenlinienlängen-Kamera 13 ausgegeben wird.
  • Zuerst wird das Vertikalsynchronisierungssignal beschrieben. Die Kurzbasislinienlängen-Kamera 12 und die Langbasislinienlängen-Kamera 13 sind verschachtelt abtastende Kameras, in denen ein einzelnes Vollbild aus zwei Halbbildern gebildet wird, einem ungeradzahligen Halbbild und einem geradzahligen Halbbild. Das Bild für jedes Halbbild wird erhalten durch Abtastung synchron mit dem Vertikalsynchronisierungssignal. Ferner sind die Abtastzeit "to" des ungeradzahligen Halbbildes und die Abtastzeit "te" des geradzahligen Halbbildes gleich.
  • Andererseits ist das Emissionssteuersignal ein Impulssignal mit einer veränderlichen Impulsbreite, das synchron mit dem Vertikalsynchronisierungssignal ausgegeben wird. Der Laseremissionsabschnitt 21 empfängt die Eingabe dieses Emissionssteuersignals und emittiert Laserlicht auf der Grundlage dieses Emissionssteuersignals. Der EIN- oder AUS-Zustand des von Laseremissionsabschnitt 21 emittierten Laserlichts wird so gesteuert, dass das Laserlicht nur dann emittiert wird, wenn das Emissionssteuersignal auf Hochpegel ist. Der PBM, der innerhalb des Emissionssteuerabschnitts 14 enthalten ist, gibt dann einen Impuls mit einer Impulsbreite "tow" synchron mit dem Vertikalsynchronisierungssignal des ungeradzahligen Halbbildes aus, und gibt außerdem einen Impuls mit einer Impulsbreite "tew" synchron mit den Vertikalsynchronisierungssignal des geradzahligen Halbbildes aus.
  • Da die Lichtmenge des vom Laseremissionsabschnitt 21 emittierten Laserlichts konstant ist, wenn das Emissionssteuersignal auf Hochpegel ist, ist die Intensität des von CCD der abbildenden Kamera empfangenen Lichts nahezu proportional zur Zeitperiode während der Halbbildabtastzeit, für die das Licht emittiert wurde. Mit anderen Worten, selbst wenn starkes Licht auf ein nahe Objekt projiziert wird, wird dann, wenn die Zeitspanne, für die das Licht projiziert wird, kurz ist, die Wirkung die gleiche sein wie dann, wenn schwaches Licht auf das Objekt über die gesamte Halbbildabtastzeit proji ziert worden ist. Folglich sollte die Impulsbreite "tow" auf eine Impulsbreite festgelegt werden, mit der eine Abbildung für reflektiertes Laserlicht von dem auf ein entferntes Objekt projizierten Laserlicht möglich ist. Ferner sollte die Impulsbreite "tew" auf eine Impulsbreite festgelegt werden, mit der eine zufriedenstellende Abbildung für reflektiertes Licht von den auf ein nahes Objekt projizierten Laserlicht möglich ist. Die größtmögliche Breite für die Impulsbreite "tow" ist die Abtastzeit "to" des ungeradzahligen Halbbildes, wobei ferner die Impulsbreite "tew" eine kürze Zeitspanne als die Impulsbreite "tow" sein muss.
  • Als nächstes wird der Prozess zum Messen der Entfernung durch Aufnehmen eines Bildes des reflektierten Lichts des Laserlichts, das auf der Grundlage des in 4 gezeigten Emissionssteuersignals emittiert worden ist, beschrieben. Zuerst gibt der Emissionssteuerabschnitt 14 zusätzlich zum Ausgeben des in 4 gezeigten Emissionssteuersignals an die Laserlichtquelle 11 auch das Vertikalsynchronisierungssignal an die Kurzbasislinienlängen-Kamera 12 und die Langbasislinienlängen-Kamera 13 aus. Der Laseremissionsabschnitt 21 empfängt dieses Signal und emittiert Laserlicht, wobei die Kurzbasislinienlängen-Kamera 12 und die Langbasislinienlängen-Kamera 13 ein Bild abtasten und an den Bildspeicher im Bildspeicherabschnitt 15 ausgeben, der zum Speichern der ungeradzahligen Halbbilder verwendet wird. Der Bildspeicherabschnitt 15 entfernt anschließend auf der Grundlage einer vorgegebenen Schwelle diejenigen Pixel mit sehr hoher Helligkeit aus den Bildern. Da die erhaltenen Bilder ungeradzahlige Halbbilder zu einem Zeitpunkt sind, zu dem starkes Laserlicht projiziert wird, repräsentieren die Pixel mit hoher Helligkeit nahe Objekte. Wenn folglich Pixel mit hoher Helligkeit auf der Grundlage einer vorgegebenen Schwelle entfernt werden, wird es möglich, auf die Messung nur entfernter Objekte zu zielen.
  • Als nächstes tasten die Kurzbasislinienlängen-Kamera 12 und die Langbasislinienlängen-Kamera 13 das Bild erneut ab und geben es an den Bildspeicher im Bildspeicherabschnitt 15 aus, der zum Speichern geradzahliger Halbbilder verwendet wird. Der Bildspeicherabschnitt 15 entfernt anschließend auf der Grundlage einer vorgegebenen Schwelle diejenigen Pixel mit geringer Helligkeit. Da die so erhaltenen Bilder geradzahlige Halbbilder zu einem Zeitpunkt sind, zu dem das schwache Laserlicht projiziert wird, repräsentieren die Pixel mit geringer Helligkeit weit entfernte Objekte. Wenn folglich Pixel mit geringer Helligkeit auf der Grundlage einer vorgegebenen Schwelle entfernt werden, wird es möglich, auf die Messung nur naher Objekte zu zielen.
  • Außerdem wird dieser gleiche Prozess sowohl in der Kurzbasislinienlängen-Kamera 12 als auch in der Langbasislinienlängen-Kamera 13 verwendet.
  • Als nächstes gibt der Bildspeicherabschnitt 15 das gespeicherte Bild an den Höhenschätzabschnitt 16 aus. Auf der Grundlage dieses Bildes bestimmt der Höhenschätzabschnitt 16 die Entfernung zu jedem Pixel, das das reflektierte Licht des Schlitzlichtes zeigt, unter Verwendung des Triangulationsprinzips, und führt anschließend den Höhenschätzprozess aus. Der Höhenschätzabschnitt 16 korrigiert anschließend die aus dem ungeradzahligen Halbbild und dem geradzahligen Halbbild jeweils geschätzte Höhe, um die Eigendynamik des Roboters 1 zu kompensieren, und erzeugt ein Höhenschätzergebnis.
  • Auf diese Weise wird die Lichtemissionsintensität des Laserlichts innerhalb der Halbbildabtastzeit verändert, wobei zwei Halbbilder jeweils mit unterschiedlicher Lichtemissionsintensität aufgenommen werden, und wobei die Pixel mit hoher Helligkeit oder niedriger Helligkeit auf der Grundlage einer vorgegebenen Schwelle entfernt werden, wodurch es möglich wird, ein Bild des Schlitzlichtes mit einer gleichmäßigen Intensität des empfangenen Lichts aufzunehmen, unabhängig von der Entfernung des Objekts. Folglich ist es möglich, den Dynamikbereich für die Abbildung des Schlitzlichtes zu verengen, wobei es als Ergebnis möglich wird, kleine Variationen der Helligkeit zu erfassen.
  • Ferner kann auch in der Kalibrierungsphase des optischen Systems 2 die Emissionszeit des Laserlichts so gesteuert werden, dass das auf die Bodenoberfläche projizierte Schlitzlicht mittels der Kurzbasislinienlängen-Kamera 12 und der Langbasislinienlängen-Kamera 13 abgebildet wird, wobei anschließend die Impulsbreiten "tow", "tew" auf der Grundlage des Zustands des erhaltenen Bildes bestimmt werden, so dass die Helligkeitsverteilung des Schlitzlichtes gleichmäßig ist. Außerdem kann die Emissionszeit entspre chend der Reflexionseigenschaften eines Hindernisses oder entsprechend der Entfernung zu einem Hindernis verändert werden.
  • Da die Helligkeitsverteilung des reflektierten Lichts auf diese Weise gleichmäßig gemacht wird, ist es möglich, Situationen zu vermeiden, in denen die Helligkeit aus den Dynamikbereich der Kamera fällt, so dass eine Objekterkennung eine Entfernungsmessung genau durchgeführt werden können.
  • Es wird eine Entfernungsmessvorrichtung geschaffen, die ein Lichtschnittverfahren verwendet, das fähig ist, sowohl nahe Objekte als auch weit entfernte Objekte ohne Anpassung des Dynamikbereiches einer Abbildungskamera zu messen. Die Vorrichtung umfasst: einen Bilderfassungsabschnitt (11, 12, 13, 15) für die Abbildung von reflektiertem Licht, das von der Vorrichtung emittiert worden ist, durch einen Schlitz gefallen ist und von der Oberfläche eines Zielobjekts reflektiert worden ist; einen Emissionssteuerabschnitt (14) zum Steuern der Emissionszeit (tow, tew) des Schlitzlichtes während der Zeitspanne (to, te), in der ein Bild vom Bilderfassungsabschnitt abgetastet wird, und zum Ändern der Intensität des empfangenen Lichts im Bilderfassungsabschnitt; und einen Entfernungsberechnungsabschnitt (16) zum Berechnen der Entfernung zum Objekt auf der Grundlage des vom Bilderfassungsabschnitt aufgenommenen Bildes und einer Positionsbeziehung zwischen einer Lichtemissionsposition des Schlitzlichtes und einer Abbildungsposition.

Claims (8)

  1. Entfernungsmessvorrichtung, umfassend: ein optisches System (2) mit einer Lichtquelle (11), die dafür ausgelegt ist, gepulstes Licht zu emittieren und dieses durch einen Schlitz (23, 24) zu leiten, wobei das optische System (2) ferner aufweist: einen Bilderfassungsabschnitt (12, 13, 15), der dafür ausgelegt ist, reflektiertes Licht, das von der Lichtquelle (11) emittiert worden ist und anschließend von der Oberfläche eines zu messenden Zielobjekts reflektiert worden ist, abzubilden; einen Emissionssteuerabschnitt (14), der dafür ausgelegt ist, die Impulsbreite (tow, tew) des Lichts zu steuern, das emittiert wird und während der Zeitspanne (to, te), während der ein Bild vom Bilderfassungsabschnitt aufgenommen wird, durch den Schlitz geleitet wird, und ferner dafür ausgelegt ist, die Intensität des empfangenen Lichts im Bilderfassungsabschnitt (12, 13, 15) während der Zeitspanne (to, te), während der ein Bild vom Bilderfassungsabschnitt (12, 13, 15) aufgenommen wird, zu ändern, und einen Entfernungsberechnungsabschnitt (16) der dafür ausgelegt ist, die Entfernung zum Objekt auf der Grundlage des vom Bilderfassungsabschnitt (12, 13, 15) aufgenommenen Bildes zu berechnen durch Bezugnahme auf eine Positionsbeziehung zwischen einer Lichtemissionsposition des durch den Schlitz gefallenen Lichts und einer Abbildungsposition, wobei jedes vom Bilderfassungsabschnitt (12, 13, 15) aufgenommene Bild eine Kombination von zwei Teilbildern ist, die unter Verwendung unterschiedlicher Lichtimpulsbreiten (tow, tew) abgetastet worden sind, wobei der Bilderfassungsabschnitt (12, 13, 15) Pixel einer höheren Helligkeit als ein vorgegebener erster Schwellenwert aus den erhaltenen Bildern beseitigt, um Bilder für eine Zeitspanne zu erzeugen, in der ein relativ starkes Licht projiziert wird, und Pixel einer geringeren Helligkeit als ein vorgegebner zweiter Schwellenwert aus den erhaltenen Bildern beseitigt, um Bilder für eine Zeitspanne zu erzeugen, in der ein relativ schwaches Licht projiziert wird.
  2. Entfernungsmessvorrichtung nach Anspruch 1, wobei der Emissionssteuerabschnitt (14) so aufgebaut ist, dass er die Impulsbreite (tow, tew) entsprechend der Intensität des reflektierten Lichts bestimmt, das vom Bilderfassungsabschnitt (12, 13, 15) empfangen wird.
  3. Entfernungsmessvorrichtung nach Anspruch 1, wobei die Impulsbreite (tow, tew) auf der Grundlage des vom Bilderfassungsabschnitt (12, 13, 15) erfassten Bildes so bestimmt wird, dass die Helligkeitsverteilung des reflektierten Lichts gleichmäßig ist.
  4. Entfernungsmessvorrichtung nach Anspruch 1, wobei die Intensität des empfangenen Lichts bei einer Abtastperiode verändert wird durch Ändern der Impulsbreite (12, 13, 15) synchron mit der Abtastperiode.
  5. Entfernungsmessverfahren, das die Schritte umfasst: Emittieren von gepulstem Licht, das durch einen Schlitz gefallen ist, auf ein zu messendes Zielobjekt; Abbilden von Licht, das vom Objekt reflektiert worden ist, mittels eines Abbildungsabschnitts (12, 13, 15); Messen der Entfernung zum Objekt auf der Grundlage des erhaltenen Bildes durch Bezugnahme auf eine Positionsbeziehung zwischen einer Lichtemissionsposition des Lichts, das durch den Schlitz gefallen ist, und einer Abbildungsposition; und dann, wenn das durch den Schlitz gefallene Licht auf das Objekt projiziert wird, Variieren einer Impulsbreite (tow, tew) des durch den Schlitz gefallenen Lichts innerhalb einer Zeitperiode (to, te), während der der Abbildungsabschnitt das Bild abtastet, wobei der Abbildungsschritt einen ersten und einen zweiten Abtastschritt umfasst, während denen ein erstes und ein zweites Teilbild unter Verwendung unterschiedlicher Impulsbreiten (tow, tew) abgetastet werden, sowie einen Kombinationsschritt des Kombinierens des ersten und des zweiten Teilbildes zu dem erhaltenen Bild, das für den Entfernungsmessschritt verwendet wird, wobei Pixel einer höheren Helligkeit als ein vorgegebener erster Schwellenwert aus den erhaltenen Bildern beseitigt werden, um Bilder für eine Zeitspanne zu erzeugen, in der relativ starkes Licht projiziert wird, und Pixel einer geringeren Helligkeit als ein vorgegebener zweiter Schwellenwert aus den erhaltenen Bildern beseitigt werden, um Bilder für eine Zeitspanne zu erzeugen, in der relativ schwaches Licht projiziert wird; wobei die Entfernung auf der Grundlage der erzeugten Bilder gemessen wird.
  6. Entfernungsmessverfahren nach Anspruch 5, wobei die Intensität des emittierten Lichts, das durch den Schlitz fällt und auf das Objekt projiziert wird, entsprechend der Intensität des von der Oberfläche des Objekts reflektierten und abgebildeten Lichts verändert wird.
  7. Entfernungsmessverfahren nach Anspruch 5, wobei die Impulsbreite so bestimmt wird, dass die Helligkeitsverteilung des vom Objekt reflektierten Lichts auf der Grundlage des erhaltenen Bildes gleichmäßig ist.
  8. Entfernungsmessverfahren nach Anspruch 5, wobei die Intensität des vom Objekt reflektierten Lichts bei einer Abtastperiode verändert wird durch Ändern der Impulsbreite synchron mit der Abtastperiode.
DE60125683T 2000-10-27 2001-10-26 Anordnung und Verfahren zur Entfernungsmessung Expired - Lifetime DE60125683T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2000328284A JP2002131016A (ja) 2000-10-27 2000-10-27 距離測定装置、及び距離測定方法
JP2000328284 2000-10-27

Publications (2)

Publication Number Publication Date
DE60125683D1 DE60125683D1 (de) 2007-02-15
DE60125683T2 true DE60125683T2 (de) 2007-04-26

Family

ID=18805157

Family Applications (1)

Application Number Title Priority Date Filing Date
DE60125683T Expired - Lifetime DE60125683T2 (de) 2000-10-27 2001-10-26 Anordnung und Verfahren zur Entfernungsmessung

Country Status (4)

Country Link
US (1) US6721679B2 (de)
EP (1) EP1202075B1 (de)
JP (1) JP2002131016A (de)
DE (1) DE60125683T2 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11187805B2 (en) 2015-12-21 2021-11-30 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
US11194023B2 (en) 2015-12-21 2021-12-07 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
US11204425B2 (en) 2015-12-21 2021-12-21 Koito Manufacturing Co., Ltd. Image acquisition device for vehicles and vehicle provided with same
US11249172B2 (en) 2015-12-21 2022-02-15 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7117047B1 (en) * 2001-12-04 2006-10-03 Assembly Guidance Systems, Inc. High accuracy inspection system and method for using same
JP4228132B2 (ja) * 2002-10-18 2009-02-25 株式会社トプコン 位置測定装置
JP4262196B2 (ja) * 2004-12-14 2009-05-13 本田技研工業株式会社 自律移動ロボット
DE102004062022A1 (de) * 2004-12-23 2006-07-13 Robert Bosch Gmbh Optischer Nahbereichssensor
JP4200328B2 (ja) * 2005-04-18 2008-12-24 パナソニック電工株式会社 空間情報検出システム
FR2898687B1 (fr) * 2006-03-17 2008-05-09 Valeo Vision Sa Procede et dispositif de detection d'un obstacle au voisinage d'un vehicule en mouvement
JP5082332B2 (ja) * 2006-08-17 2012-11-28 日産自動車株式会社 距離計測システム
JP2008298741A (ja) * 2007-06-04 2008-12-11 Toyota Central R&D Labs Inc 距離計測装置及び距離計測方法
KR100884904B1 (ko) * 2007-09-12 2009-02-19 아주대학교산학협력단 평행 투영 모델을 이용한 자기위치 인식 방법
KR101165122B1 (ko) * 2007-10-10 2012-07-12 주식회사 만도 실내 주행을 위한 빛 줄무늬 감지 방법 및 그를 이용한주차 보조 장치
JP5104355B2 (ja) * 2008-02-01 2012-12-19 富士通株式会社 ロボット制御装置、ロボット制御方法およびロボット制御プログラム
US20100292884A1 (en) * 2009-05-12 2010-11-18 Rogelio Manfred Neumann Device for Influencing Navigation of an Autonomous Vehicle
JP5284923B2 (ja) * 2009-10-28 2013-09-11 本田技研工業株式会社 脚式移動ロボットの制御装置
DE102010018979A1 (de) * 2010-05-03 2011-11-03 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Bestimmen der 3D-Koordinaten eines Objekts
US9383753B1 (en) 2012-09-26 2016-07-05 Google Inc. Wide-view LIDAR with areas of special attention
FR3001298B1 (fr) * 2013-01-18 2016-05-27 Archos Procede et systeme pour fournir a un dispositif mobile des informations sur sa position par rapport a une cible, robot integrant un tel systeme et tablette
KR20150057547A (ko) * 2013-11-20 2015-05-28 삼성디스플레이 주식회사 유기전계발광 표시장치
CN105157646B (zh) * 2015-09-07 2018-08-24 戴纳派克(中国)压实摊铺设备有限公司 摊铺宽度测量系统、摊铺机及摊铺宽度测量方法
KR102598711B1 (ko) * 2016-07-07 2023-11-06 삼성전자주식회사 불균일 광을 조사하는 라이다 장치 및 이를 포함하는 자율 주행 로봇
CN110007289B (zh) * 2019-03-21 2021-09-21 杭州蓝芯科技有限公司 一种基于飞行时间深度相机的运动伪差减小方法
JP7348300B2 (ja) * 2019-09-30 2023-09-20 富士フイルム株式会社 処理装置、電子機器、処理方法、及びプログラム
CN112965080B (zh) * 2021-02-04 2024-02-20 苏州奥瑞图光电科技有限公司 闪光式无狭缝条纹相机激光面阵成像方法、系统及装置
CN116336965B (zh) * 2023-05-31 2023-09-05 天津宜科自动化股份有限公司 一种获取物体轮廓信息的数据处理系统
CN116501070B (zh) * 2023-06-30 2023-09-19 深圳市欢创科技有限公司 回充方法、机器人及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA1266562A (en) 1986-09-24 1990-03-13 Donald Stewart Distance measuring apparatus
US4954962A (en) * 1988-09-06 1990-09-04 Transitions Research Corporation Visual navigation and obstacle avoidance structured light system
CA2038818A1 (en) * 1990-03-30 1991-10-01 Akio Nagamune Distance measuring method and apparatus therefor
EP0510613B1 (de) * 1991-04-23 1995-09-20 Nec Corporation Messgerät für bewegte Körper
JPH05119154A (ja) 1991-10-30 1993-05-18 Fujitsu Ten Ltd 車載用レーザレーダ装置
JP3282332B2 (ja) 1993-12-20 2002-05-13 ミノルタ株式会社 画像入力システム
US6028672A (en) 1996-09-30 2000-02-22 Zheng J. Geng High speed three dimensional imaging method
US5812269A (en) * 1996-07-29 1998-09-22 General Scanning, Inc. Triangulation-based 3-D imaging and processing method and system
JP3417222B2 (ja) * 1996-08-07 2003-06-16 松下電器産業株式会社 実時間レンジファインダ
JP3672731B2 (ja) 1997-09-04 2005-07-20 松下電器産業株式会社 レンジファインダ装置
US6204916B1 (en) * 1998-02-03 2001-03-20 Minolta Co., Ltd. Three dimensional information measurement method and apparatus
JP4111592B2 (ja) * 1998-06-18 2008-07-02 コニカミノルタセンシング株式会社 3次元入力装置
JP2000153476A (ja) * 1998-09-14 2000-06-06 Honda Motor Co Ltd 脚式移動ロボット
JP3695188B2 (ja) 1998-12-21 2005-09-14 富士ゼロックス株式会社 形状計測装置および形状計測方法
EP1037069A3 (de) * 1999-03-17 2004-01-14 Matsushita Electric Industrial Co., Ltd. Entfernungsmesser
JP2000283721A (ja) * 1999-03-30 2000-10-13 Minolta Co Ltd 3次元入力装置
JP3711808B2 (ja) 1999-10-07 2005-11-02 富士ゼロックス株式会社 形状計測装置および形状計測方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11187805B2 (en) 2015-12-21 2021-11-30 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
US11194023B2 (en) 2015-12-21 2021-12-07 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle
US11204425B2 (en) 2015-12-21 2021-12-21 Koito Manufacturing Co., Ltd. Image acquisition device for vehicles and vehicle provided with same
US11249172B2 (en) 2015-12-21 2022-02-15 Koito Manufacturing Co., Ltd. Image acquiring apparatus for vehicle, control device, vehicle having image acquiring apparatus for vehicle or control device, and image acquiring method for vehicle

Also Published As

Publication number Publication date
EP1202075A3 (de) 2003-04-23
US6721679B2 (en) 2004-04-13
DE60125683D1 (de) 2007-02-15
US20020052711A1 (en) 2002-05-02
JP2002131016A (ja) 2002-05-09
EP1202075A2 (de) 2002-05-02
EP1202075B1 (de) 2007-01-03

Similar Documents

Publication Publication Date Title
DE60125683T2 (de) Anordnung und Verfahren zur Entfernungsmessung
DE10212916B4 (de) Optischer Versetzungssensor und Verfahren zum Verarbeiten von Bildern unter Verwendung eines optischen Versetzungssensors
DE69207176T2 (de) Optischer Sensor
DE102012112321B4 (de) Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012112322B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung
DE69013899T2 (de) Gerät zur messung dreidimensionaler koordinaten.
DE69127968T2 (de) Dreidimensionales echtzeit-sensorsystem
DE69635858T2 (de) Telezentrische 3d kamera und zugehöriges verfahren
DE68902329T2 (de) Verfahren und apparat zur ueberwachung des oberflaechenprofils eines werkstueckes.
DE102009023896B4 (de) Vorrichtung und Verfahren zum Erfassen einer Pflanze
DE112014003278B4 (de) Laserliniensonde mit verbessertem großen Dynamikbereich
DE60124647T2 (de) Vorrichtung und Verfahren zur Abstandsmessung
AT16690U1 (de) Verbesserte Laserabtastvorrichtung und Verfahren dazu
EP1379835B1 (de) Verfahren zur automatischen regelung von fokus und beleuchtung, sowie zur objektivierten antastung des kantenortes in der optischen präzisionsmesstechnik
EP0253017B1 (de) Vermessungssystem und Vermessungsverfahren
EP1395852A1 (de) Verfahren zur bereitstellung von bildinformationen
DE3930632A1 (de) Verfahren zur direkten phasenmessung von strahlung, insbesondere lichtstrahlung, und vorrichtung zur durchfuehrung dieses verfahrens
WO2018185083A2 (de) Lichtlaufzeitkamera
DE4304276A1 (en) Forming high resolution image of planar or three=dimensional object - combining sharp image data provided by detector matrix for successive scanning of object via optical imaging system.
DE102013007886B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102018211913B4 (de) Vorrichtung und Verfahren zum Erfassen einer Objektoberfläche mittels elektromagnetischer Strahlung
AT412031B (de) Verfahren zur aufnahme eines objektraumes
DE10309544A1 (de) Verfahren und Vorrichtung zur optischen Profilmessung eines Objektes mittels Linientriangulation
DE69426468T2 (de) Verfahren und Gerät zur Abstandsmessung
EP2795288B1 (de) Verfahren zum ermitteln einer partikeleigenschaft und zum klassifizieren einer partikelcharge sowie vorrichtung zum durchführen der verfahren

Legal Events

Date Code Title Description
8381 Inventor (new situation)

Inventor name: AOYAMA, CHIAKI, K.K. HONDA GIJUTSU KENKYUSHO, WAKO

8364 No opposition during term of opposition