-
HINTERGRUND
DER ERFINDUNG
-
Gebiet der Erfindung
-
Die
vorliegende Erfindung bezieht sich auf eine Entfernungsmessvorrichtung
und auf ein Verfahren zum Messen der Entfernung von der Vorrichtung
zu einem Objekt durch Abbilden von Licht, das von der Vorrichtung
emittiert worden ist, durch einen Schlitz gefallen ist und vom Objekt
reflektiert worden ist, und anschließendes Bezugnehmen auf eine
Positionsbeziehung zwischen der Lichtemissionsposition und der Bildposition.
-
Beschreibung
des Standes der Technik
-
Aus
dem Dokument US-A-5 812 269 ist eine Entfernungsmessvorrichtung
bekannt. Das Dokument lehrt das Messen von Entfernungen mittels Hochgeschwindigkeits-3D-
und Grauskalenabbildung auf der Grundlage der Triangulation. Zu
diesem Zweck wird ein modulierter Laserstrahl abtastend über das
Objekt bewegt, zu dem die Entfernung gemessen werden soll. Während dieser
Abtastung wird eine Mehrzahl von Flecken erzeugt, die mittels eines Paares
von Empfängern
betrachtet werden. Jeder Empfänger
enthält
ein Lichtsammel- und Liefersystem, einen positionsempfindlichen
Detektor und einen zugehörigen
verhältnismetrischen
Signalprozessor.
-
Die
Laserintensität
dieser bekannten Vorrichtung kann variiert werden, um irgendeine Überbelichtung
des zu messenden Objekts durch das Laserlicht zu vermeiden.
-
Es
ist ein Nachteil des Systems in dem Verfahren, das aus dem Dokument
US-A-5 812 269 bekannt ist, dass die Intensität des emittierten Laserstrahls
möglicherweise über ein
bestimmtes Niveau angehoben werden muss, was für Menschen gefährlich sein
kann, um den Intensitätswert
des Laserlichts innerhalb des brauchbaren Dynamikbereiches zu halten.
Dies ist von besonderer Wichtigkeit, wenn Entfernungsmessvorrichtungen
an Vorrichtungen, insbesondere selbstgesteuerten Robotern, verwendet
werden, die sich vielleicht in einer Menschenmenge bewegen.
-
Im
Folgenden wird der weitere Stand der Technik diskutiert:
Seit
kurzem wurden CCD-Kameras (CCD, Charge Coupled Device = ladungsgekoppelte
Vorrichtung) und Computerbildverarbeitungstechniken verbessert,
wobei dementsprechend dreidimensionale Messverfahren unter Verwendung
von Bildern üblich geworden
sind. Ein Beispiel solcher dreidimensionaler Messverfahren unter
Verwendung einer CCD-Kamera und einer Computerbildverarbeitung ist
ein Lichtschnittverfahren. Beim Lichtschnittverfahren wird durch
einen Schlitz fallendes Licht auf ein zu messendes Zielobjekt projiziert,
um somit das Objekt unter Verwendung bandförmigen Lichts virtuell zu schneiden,
wobei eine Schnittoberfläche
in einer anderen Richtung als der Richtung des projizierten Lichts
beobachtet wird. Da mittels Lasertechnik sehr feine und intensive
Lichtstrahlen erhalten werden können,
kann auch ein Objekt mit einer unregelmäßigen Oberfläche mit
hoher Geschwindigkeit und mit hoher Genauigkeit vermessen werden,
indem eine dreidimensionale Messung unter Verwendung des Lichtschnittverfahrens
verwendet wird.
-
Im
Allgemeinen wird im Lichtschnittverfahren die Entfernung zum Zielobjekt
unter Verwendung des Triangulationsprinzips bestimmt. In der Triangulation wird
ein Dreieck durch Verbindung zu zweier bekannter Referenzpunkte
und irgendeines anderen dritten Punktes definiert, wobei die Position
des dritten Punktes durch Messen der Winkel des Dreiecks bestimmt
wird. Genauer wird in Lichtschnittverfahren Licht, das von einer
Lichtquelle innerhalb einer Entfernungsmessvorrichtung emittiert
wird und durch einen Schlitz fällt,
auf ein Objekt projiziert, wobei das reflektierte Licht von der
Oberfläche
des Objekts mittels einer innerhalb der Entfernungsmessvorrichtung vorgesehenen
CCD-Kamera abgebildet wird. Die Entfernung zwischen der Entfernungsmessvorrichtung
und dem Zielobjekt wird auf der Grundlage der Richtung des emittierten
Lichts und der Positionen der Lichtquelle und der CCD-Kamera gemessen.
Die Intensität
des von der CCD-Kamera abgebildeten reflektierten Lichts ist daher
vorzugsweise konstant.
-
Selbst
wenn die Intensität
des Lichts, das von der Entfernungsmessvorrichtung emittiert wird und
durch einen Schlitz fällt,
konstant ist, variiert jedoch die Intensität des reflektierten Lichts
entsprechend der Entfernung zum Objekt und der Reflexionseigenschaften
der Oberfläche
des Objekts. Die Messprinzipien des Lichtschnittverfahrens erfordern, dass
ein Bild des Lichts, das durch einen Schlitz fällt (auch im Folgenden als
Schlitzlicht bezeichnet), von der CCD-Kamera kontinuierlich aufgenommen
wird. Da gewöhnlich
in der dreidimensionalen Messung unter Verwendung des Lichtschnittverfahrens
die ungefähre
Entfernung zum Objekt und der Zustand der Oberfläche des zu messenden Objekts
bis zu einem gewissen Grad bekannt sind, wird die Messung im allgemeinen
durchgeführt,
nachdem die Intensität des
Schlitzlichtes und der Dynamikbereich der CCD-Kamera während der
Kalibrierungszeit vor der Messung eingestellt worden sind.
-
Wenn
jedoch eine Bodenoberfläche
oder ein Hindernis auf einer Bodenoberfläche unter Verwendung des Lichtschnittverfahrens
in einem visuellen Sensor eines selbstgesteuerten Roboters erfasst wird,
können
die Intensität
des Schlitzlichtes und der Dynamikbereich der CCD-Kamera nicht realistisch im
Voraus eingestellt werden, da die Entfernung zu dem zu messenden
Objekt und die Reflexionseigenschaften der Oberfläche des
Objekts unbekannt sind. Folglich müssen Messungen unter Verwendung
einer Vorrichtung durchgeführt
werden, die einen Dynamikbereich aufweist, der den Bereich des Lichts
von schwachem Licht zu starkem Licht abdeckt, unter Verwendung eines
Laserlichts mit einer vorgegebenen Intensität. In Abhängigkeit von der Entfernung zum
Objekt oder den Reflexionseigenschaften des Objekts kann jedoch
ein Problem auftreten, wenn das Licht nicht innerhalb des Dynamikbereiches
der CCD-Kamera liegt. Genauer, da das Lichtschnittverfahren die
Form des Objekts erkennt und die Entfernung zum Objekt entsprechend
dem Zustand des aufgenommenen Bildes des Schlitzlichtes misst, ist es
dann, wenn die Abbildung für
das Schlitzlicht nicht durchgeführt
werden kann, nicht möglich,
sicherzustellen, ob die Abbildung aufgrund des Einflusses des Dynamikbereiches
unmöglich
ist, oder aufgrund des Lichtverlustes in den Schatten des Objektes,
wobei als Ergebnis die Entfernungsmessung und die Erkennung des
Objekts nicht genau durchgeführt
werden können.
Ferner ist ein weiteres Problem, dass starkes Licht, das durch den
Schlitz gefallen ist, als dickes Licht abgebildet wird, so dass
es schwierig ist, die genaue Position für das Objekt zu erhalten.
-
ÜBERBLICK ÜBER DIE
ERFINDUNG
-
Es
ist daher eine Aufgabe der vorliegenden Erfindung, eine Vorrichtung
und ein Verfahren zum Messen einer Entfernung zu schaffen, die fähig sind, sowohl
nahe Objekte als auch weit entfernte Objekte zu messen, ohne den
Dynamikbereich der Abbildungskamera anzupassen, so dass z. B. die
für die Entfernungsmessung
verwendete Laserintensität
unterhalb eines bestimmten Niveaus gehalten werden kann, so dass
Menschen, die sich im Messbereich befinden, nicht in Gefahr gebracht
werden.
-
Diese
Aufgabe wird durch eine Vorrichtung gelöst, die alle Merkmale des Anspruchs
1 aufweist, sowie durch ein Verfahren, das alle Merkmale des Anspruchs
5 aufweist.
-
Eine
Ausführungsform
der Entfernungsmessvorrichtung gemäß der vorliegenden Erfindung umfasst:
einen Bilderfassungsabschnitt zum Abbilden reflektierten Lichts,
das von der Vorrichtung emittiert worden ist, durch einen Schlitz
gefallen ist, und anschließend
von der Oberfläche
eines zu messenden Zielobjekts reflektiert worden ist; einen Emissionssteuerabschnitt
zum Steuern des Emissionszeitpunkts des Lichts, das emittiert wird
und durch den Schlitz fällt,
während
der Zeitspanne, in der ein Bild vom Bilderfassungsabschnitt abgetastet
wird, und zum Ändern
der Intensität
des empfangenen Lichts im Bilderfassungsabschnitt; sowie einen Entfernungsberechnungsabschnitt
zum Berechnen der Entfernung zum Objekt auf der Grundlage des vom Bilderfassungsabschnitt
aufgenommenen Bildes durch Bezugnahme auf eine Positionsbeziehung
zwischen einer Lichtemissionsposition des durch den Schlitz gefallenen
Lichts und einer Bildposition.
-
In
einem Entfernungsmessverfahren gemäß einer Ausführungsform
der vorliegenden Erfindung wird Licht, das durch einen Schlitz gefallen
ist, auf ein zu messendes Zielobjekt emittiert, wobei Licht, das vom
Objekt reflektiert wird, mittels eines Abbildungsabschnitts abgebildet
wird, wobei auf der Grundlage des erhaltenen Bildes die Entfernung
zum Objekt gemessen wird durch Bezugnahme auf eine Positionsbeziehung
zwischen einer Lichtemissionsposition des Lichts, das durch den
Schlitz gefallen ist, und einer Bildposition, wobei außerdem dann,
wenn durch den Schlitz gefallenes Licht auf das Objekt projiziert wird,
ein Emissionszeitpunkt des durch den Schlitz gefallenen Lichts innerhalb
einer Zeitperiode variiert wird, während der der Abbildungsabschnitt
das Bild abtastet.
-
Gemäß dieser
Ausführungsform
wird in einem Fall, in dem Licht, das von einer Vorrichtung emittiert,
durch einen Schlitz gefallen und von einem Objekt reflektiert worden
ist, abgebildet wird und die Entfernung zum Objekt anschließend gemessen
wird unter Bezugnahme auf eine Positionsbeziehung zwischen der Lichtemissionsposition
des Schlitzlichtes und der Bildposition, anschließend die
Messung durchgeführt,
indem z. B. das von der Vorrichtung in einer Richtung emittierte
Laserlicht gestreut wird und Schlitzlicht erzeugt wird und dieses
Schlitzlicht auf das zu messende Objekt projiziert wird, woraufhin
die Emissionszeit für
das Schlitzlicht innerhalb der Abtastzeit der Bilderfassungsvorrichtung
geändert
wird, wobei die Helligkeitsverteilung des abgebildeten Schlitzlichtes
gleichmäßig wird
und die Abbildung des Schlitzlichtes mit Sicherheit durchgeführt werden kann.
Als Ergebnis kann die Entfernungsgenauigkeit verbessert werden,
wobei die Entfernungsmessungsverarbeitung vereinfacht werden kann.
Auf diese Weise kann die vorliegende Erfindung hinsichtlich des
Problems, dass dann, wenn ein Hindernis unter Verwendung des Lichtschnittverfahrens
in einem visuellen Sensor eines selbstgesteuerten Roboters erfasst
wird, und die Erkennung eines Objekts und die Entfernungsmessung
nicht genau durchgeführt
werden können,
sicherstellen, dass die Helligkeitsverteilung des Schlitzlichtes
gleichmäßig wird,
wodurch die Genauigkeit für
die Erkennung eines Objekts und für die Entfernungsmessung verbessert
wird.
-
In
der Entfernungsmessvorrichtung kann der Emissionssteuerabschnitt
auch so aufgebaut sein, dass er den Emissionszeitpunkt entsprechend
der Intensität
des reflektierten Lichts bestimmt, das vom Bilderfassungsabschnitt
empfangen wird. In der gleichen Weise kann im Entfernungsmessverfahren
die Intensität
des emittierten Lichts, das durch den Schlitz fällt, entsprechend der Intensität des von
der Oberfläche
des Objekts reflektierten abgebildeten Lichts geändert werden.
-
Folglich
kann die Helligkeitsverteilung des reflektierten Lichts zuverlässig auf
ein gleichmäßiges Niveau
konvertiert werden, selbst für
unbekannte Objekte.
-
KURZBESCHREIBUNG
DER ZEICHNUNGEN
-
1 ist
ein Blockdiagramm, das die Struktur einer Entfernungsmessvorrichtung
gemäß einer Ausführungsform
der vorliegenden Erfindung zeigt.
-
2 ist
ein Blockdiagramm, das die Struktur einer in 1 gezeigten
Laserlichtquelle 11 zeigt.
-
3 ist
ein Diagramm, dass das äußere Erscheinungsbild
eines zweibeinigen Roboters 1 zeigt.
-
4 ist
ein erläuterndes
Diagramm, das ein von einem Emissionssteuerabschnitt 14 ausgegebenes
Signal zeigt.
-
5 ist
ein schematisches Diagramm, das einen Zustand zeigt, in dem Laserlicht
von einem optischen System 2 emittiert wird.
-
6 ist
ein Diagramm, das die Reflexionseigenschaften eines Bodens 4 zeigt.
-
GENAUE BESCHREIBUNG
DER BEVORZUGTEN AUSFÜHRUNGSFORMEN
-
Es
folgt eine Beschreibung einer Entfernungsmessvorrichtung gemäß einer
Ausführungsform
der vorliegenden Erfindung mit Bezug auf die Zeichnungen.
-
Zuerst
wird mit Bezug auf 3 ein zweibeiniger Roboter beschrieben,
an dem eine Entfernungsmessvorrichtung angebracht ist. In 3 bezeichnet
das Bezugszeichen 1 einen selbstgesteuerten zweibeinigen
Roboter (im Folgenden als "Roboter" abgekürzt). Das
Bezugszeichen 2 bezeichnet ein optisches System der Entfernungsmessvorrichtung, das
am Roboter 1 auf Bauchhöhe
angebracht ist. Das Bezugszeichen 3 bezeichnet einen Laserlichtemissionsbereich
des optischen Systems 2, wo das Laserlicht über 60° in einer
einzigen Ebene gestreut wird, um somit Schlitzlicht zu erzeugen,
wobei dieses Schlitzlicht in Richtung zu einer Bodenoberfläche 4 projiziert
wird. Außerdem
ist die Ausrichtung des optischen Systems 2 so eingestellt,
dass das Schlitzlicht vor der Spitze eines Fußes eines Roboters 1 auf die
Bodenoberfläche
projiziert wird.
-
1 ist
ein Blockdiagramm, das den Aufbau der Entfernungsmessvorrichtung
gemäß der vorliegenden
Ausführungsform
zeigt. In dieser Figur bezeichnet das Bezugszeichen 11 eine
Laserlichtquelle zum Emittieren von Laserlicht in Richtung zu dem
zu messenden Zielobjekt. Das Bezugszeichen 12 bezeichnet
eine Kurzbasislinienlängen-Kamera,
die nahe der Laserlichtquelle 11 angeordnet ist und eine verschachtelt
abtastende CCD-Kamera umfasst. Da die Kurzbasislinienlängen-Kamera 12 eine
kurze Basislinienlänge
aufweist, ist die Genauigkeit zur Messung der Entfernung gering,
obwohl ein großer
Entfernungsbereich vor dem Roboter 1 mit dieser Kamera 12 beobachtet
werden kann. Das Bezugszeichen 13 bezeichnet eine Langbasislinienlängen-Kamera, die
entfernt von der Laserlichtquelle 11 angeordnet ist und
ebenfalls eine verschachtelt abtastende CCD-Kamera umfasst. Da diese
Langbasislinienlängen-Kamera 13 eine
lange Basislinienlänge
aufweist, ist die zugehörige
Genauigkeit zur Messung der Entfernung hoch, obwohl der Entfernungsbereich
vor dem Roboter 1 beschränkt ist. Ferner können die Kurzbasislinienlängen-Kamera 12 und
die Langbasislinienlängen-Kamera 13 unter
Verwendung eines Synchronisierungssignals betrieben werden, das
von einer externen Vorrichtung eingegeben wird.
-
Das
Bezugszeichen 2 bezeichnet das in 3 gezeigte
optische System, das die Laserlichtquelle 11, die Kurzbasislinienlängen-Kamera 12 und die
Langbasislinienlängen-Kamera 13 enthält. Das Bezugszeichen 14 bezeichnet
einen Emissionssteuerabschnitt zum Steuern der Laserlichtquelle 11 durch
Ausgeben eines Steuersignals, das die Emission des Laserlichts steuert,
an die Laserlichtquelle 11, und ist mit einem Pulsbreitenmodulator
(im Folgenden mit "PBM" bezeichnet) zum
Ausgeben eines vertikalen Synchronisationssignals an die Kurzbasislinienlängen-Kamera 12 und
die Langbasislinienlängen-Kamera 13 sowie
zum Erzeugen eines Impulses synchron mit diesem Vertikalsynchronisierungssignals
versehen. Das Bezugszeichen 15 bezeichnet einen Bildspeicherabschnitt
mit vier Bildspeichern zum Speichern der Bildsignale, die von den
beiden Kameras ausgegeben werden. Der Bildspeicherabschnitt 15 speichert
jeweils ein Halbbild der zwei verschachtelt abtastenden Kameras
in den vier jeweiligen Bildspeichern.
-
Das
Bezugszeichen 16 bezeichnet einen Schätzabschnitt zum Schätzen der
Höhe eines
voraus befindlichen Objekts durch Bezugnahme auf die Entfernung
zum Objekt, die auf der Grundlage der im Bildspeicherabschnitt 15 gespeicherten
Bilddaten bestimmt wird. Das Bezugszeichen 17 bezeichnet
einen Bewegungsbahnbestimmungsabschnitt zum Bestimmen der Bewegungsbahn
des Roboters 1 entsprechend dem Zustand des Zielobjekts,
wie er vom Höhenschätzabschnitt 16 geschätzt wird.
Das Bezugszeichen 18 bezeichnet einen Aufsetzpositionsbestimmungsabschnitt
zum Bestimmen der Aufsetzposition der Beine des Roboters 1 auf
der Grundlage der vom Bewegungsbahnbestimmungsabschnitt 17 bestimmten
Bahn und der vom Höhenschätzabschnitt 16 geschätzten Höhe des Objekts.
Das Bezugszeichen 19 bezeichnet einen Beinsteuerabschnitt
zum Steuern der Beine, um somit den Fuß auf der vom Aufsetzpositionsbestimmungsabschnitt 18 bestimmten
Aufsetzposition aufzusetzen.
-
Als
nächstes
wird der Aufbau der in 1 gezeigten Laserlichtquelle 11 mit
Bezug auf 2 genauer beschrieben. 2 ist
ein Blockdiagramm, das den Aufbau der in 1 gezeigten
Laserlichtquelle 11 zeigt. In der Figur bezeichnet das
Bezugszeichen 21 einen Laseremissionsabschnitt zum Emittieren
von Laserlicht. Das Bezugszeichen 22 bezeichnet eine Kondensatorlinse
zum Sammeln des vom Laseremissionsabschnitt 21 emittierten
Laserlichts, um somit einen schmalen gebündelten Strahl zu erhalten.
Das Bezugszeichen 23 bezeichnet ein Beugungsgitter zum
Teilen des durch die Kondensatorlinse 22 gebündelten
Laserstrahls in mehrere Strahlen. Hierbei werden die geteilten Strahlen
in Richtung senkrecht zur Ebene der 2 ausgerichtet.
Das Bezugszeichen 24 bezeichnet eine Strahldiffusionslinse,
die eine zylindrische Linse oder dergleichen verwendet. Die Strahldiffusionslinse
ist vorgesehen, um jeden Laserstrahl in einer einzigen Ebene zu
streuen, um somit einen Strahl zu erzeugen, der einen Strahl aufweist,
der durch Leiten durch einen Schlitz erhalten wird. Jeder der mehreren
Strahlen wird von der Strahldiffusionslinse 24 gestreut,
um somit einen Streuwinkel von 60° aufzuweisen.
-
Um
außerdem
in 2 die Positionsbeziehung der Bodenoberfläche zu zeigen,
bezeichnet das Bezugszeichen 4 eine Linie, die die Bodenoberfläche repräsentiert,
während
das Bezugszeichen A den Punkt bezeichnet, wo die Spitze des Fußes des
Roboters positioniert ist. Ferner zeigt das schematische Diagramm
der 5 einen Zustand, in welchem das Laserlicht vom
optischen System 2 emittiert wird, das auf Bauchhöhe am Roboter 1 angebracht
ist. In 5 bezeichnet das Bezugszeichen 11 die
Laserlichtquelle. Das Bezugszeichen 3 bezeichnet den Laseremissionsbereich
des Laserlichts von der Laserlichtquelle, der auf die Bodenoberfläche 4 emittiert wird.
Hierbei wird das Laserlicht mittels des Beugungsgitters 23 in
fünf Strahlen
aufgeteilt, wobei die fünf
Strahlen mittels der Laserdiffusionslinse 24 mit 60° gestreut
werden. Diese Laserstrahlen werden in Richtung zur Bodenoberfläche 4 projiziert,
wobei die Abbildungen des von der Bodenoberfläche reflektierten Lichts von
der Kurzbasislinienlängen-Kamera 12 und
der Langbasislinienlängen-Kamera 13 aufgenommen
werden. Um die 5 leichter verständlich zu
machen, teilt das Beugungsgitter 23 das Laserlicht in fünf Strahlen
auf, jedoch ist in der Praxis der Winkel B in 5 gleich
32° und
der Winkel C gleich 1,6°.
Dementsprechend ist die Anzahl der Strahlen gleich 21.
-
Als
nächstes
werden mit Bezug auf 6 die Reflexionseigenschaften
einer typischen Bodenoberfläche
beschrieben. 6 ist ein Diagramm, das die Reflexionseigenschaften
der Bodenoberfläche
zeigt. Die Reflexionseigenschaften einer typischen Oberfläche sind
so beschaffen, dass dann, wenn die Oberfläche keine perfekten diffusen
Reflexionseigenschaften aufweist, die Intensität des gespiegelt reflektierten
Elements am stärksten
ist, selbst wenn die Oberfläche
keine Spiegeloberfläche
ist. Im optischen System 2, das in Bauchhöhe am Roboter 1 angebracht
ist, sind die Lichtemissionsposition und die Beobachtungsposition
nahezu an der gleichen Stelle angeordnet. Wenn folglich das von
einer Reflexionsposition 1 reflektierte Licht an der Beobachtungsposition
empfangen wird, läuft
das auf eine gespiegelte Reflexion hinaus. Andererseits kehrt das
spiegelnde Reflexionselement, das von einer Reflexionsposition 2
reflektiert wird, nicht zur Beobachtungsposition zurück, wobei
in der gleichen Weise das von einer Reflexionsposition 3 reflektierte
spiegelnde Reflexionselement nicht zur Beobachtungsposition zurückkehrt. Außerdem werden
Winkel D und E, die zwischen der Reflexionsrichtung und der Beobachtungspositionsrichtung
des spiegelnden Reflexionselements jeweils an den Reflexionspositionen
2 und 3 gebildet werden, größer, wenn
die Entfernung von der Beobachtungsposition zunimmt. Die Intensität, mit der
reflektiertes Licht empfangen wird, nimmt ab, wenn der zwischen
der Reflexionsrichtung und der Beobachtungspositionsrichtung gebildete
Winkel zunimmt. Selbst wenn ferner die Lichtemissionsintensität an der
Lichtemissionsposition konstant ist, wird das Licht, das den Reflexionspunkt
erreicht, geschwächt, wenn
die Entfernung von der Lichtemissionsposition zur Reflexionsposition
zunimmt, da die Intensität
umgekehrt proportional zum Quadrat der Entfernung abnimmt.
-
In
einem Fall, in dem Laserlicht auf eine Bodenoberfläche projiziert
wird, wobei ein Bild des von der Oberfläche reflektierten Lichts aufgenommen wird,
wie in 6 gezeigt ist, ist dann, wenn die Intensität des von
der Reflexionsposition 3 reflektierten und an der Beobachtungsposition
empfangenen Lichts mit "1" angenommen wird,
die Intensität
des von der Reflexionsposition 1 empfangen reflektierten Lichts
gleich "10", gleich dem zehnfachen
derjenigen der Reflexionsposition 3. Wenn die Abbildung mit diesem
Bereich von Lichtintensität
unter Verwendung eines einzigen Dynamikbereiches durchgeführt wird und
eine Quantisierung durchgeführt
wird, um eine digitale Verarbeitung durchzuführen, wird es schwierig, geringe
Variationen der Helligkeit zu erfassen, da die Quantisierungszahl
in einer digitalen Standardverarbeitung fixiert ist.
-
Um
diesen Typ von Phänomen
zu vermeiden, steuert der Emissionssteuerabschnitt 14 unter Verwendung
des darin enthaltenen PBM den Emissionszeitpunkt des von der Laserlichtquelle 11 emittierten
Laserlichts. Hier wird das Emissionssteuersignal, das vom Emissionssteuerabschnitt 14 an
die Laserlichtquelle 11 ausgegeben wird, mit Bezug auf 4 beschrieben.
-
4 ist
ein erläuterndes
Diagramm, dass das Emissionssteuersignal zeigt, das vom Emissionssteuerabschnitt 14 synchron
mit dem Vertikalsynchronisierungssignal ausgegeben wird, das an
die Kurzbasislinienlängen-Kamera 12 und
die Langbasislängenlinienlängen-Kamera 13 ausgegeben
wird.
-
Zuerst
wird das Vertikalsynchronisierungssignal beschrieben. Die Kurzbasislinienlängen-Kamera 12 und
die Langbasislinienlängen-Kamera 13 sind verschachtelt
abtastende Kameras, in denen ein einzelnes Vollbild aus zwei Halbbildern
gebildet wird, einem ungeradzahligen Halbbild und einem geradzahligen
Halbbild. Das Bild für
jedes Halbbild wird erhalten durch Abtastung synchron mit dem Vertikalsynchronisierungssignal.
Ferner sind die Abtastzeit "to" des ungeradzahligen
Halbbildes und die Abtastzeit "te" des geradzahligen
Halbbildes gleich.
-
Andererseits
ist das Emissionssteuersignal ein Impulssignal mit einer veränderlichen
Impulsbreite, das synchron mit dem Vertikalsynchronisierungssignal
ausgegeben wird. Der Laseremissionsabschnitt 21 empfängt die
Eingabe dieses Emissionssteuersignals und emittiert Laserlicht auf
der Grundlage dieses Emissionssteuersignals. Der EIN- oder AUS-Zustand
des von Laseremissionsabschnitt 21 emittierten Laserlichts
wird so gesteuert, dass das Laserlicht nur dann emittiert wird,
wenn das Emissionssteuersignal auf Hochpegel ist. Der PBM, der innerhalb
des Emissionssteuerabschnitts 14 enthalten ist, gibt dann
einen Impuls mit einer Impulsbreite "tow" synchron
mit dem Vertikalsynchronisierungssignal des ungeradzahligen Halbbildes
aus, und gibt außerdem
einen Impuls mit einer Impulsbreite "tew" synchron
mit den Vertikalsynchronisierungssignal des geradzahligen Halbbildes
aus.
-
Da
die Lichtmenge des vom Laseremissionsabschnitt 21 emittierten
Laserlichts konstant ist, wenn das Emissionssteuersignal auf Hochpegel
ist, ist die Intensität
des von CCD der abbildenden Kamera empfangenen Lichts nahezu proportional
zur Zeitperiode während
der Halbbildabtastzeit, für
die das Licht emittiert wurde. Mit anderen Worten, selbst wenn starkes
Licht auf ein nahe Objekt projiziert wird, wird dann, wenn die Zeitspanne,
für die
das Licht projiziert wird, kurz ist, die Wirkung die gleiche sein
wie dann, wenn schwaches Licht auf das Objekt über die gesamte Halbbildabtastzeit
proji ziert worden ist. Folglich sollte die Impulsbreite "tow" auf eine Impulsbreite
festgelegt werden, mit der eine Abbildung für reflektiertes Laserlicht
von dem auf ein entferntes Objekt projizierten Laserlicht möglich ist.
Ferner sollte die Impulsbreite "tew" auf eine Impulsbreite
festgelegt werden, mit der eine zufriedenstellende Abbildung für reflektiertes
Licht von den auf ein nahes Objekt projizierten Laserlicht möglich ist.
Die größtmögliche Breite
für die
Impulsbreite "tow" ist die Abtastzeit "to" des ungeradzahligen
Halbbildes, wobei ferner die Impulsbreite "tew" eine
kürze Zeitspanne
als die Impulsbreite "tow" sein muss.
-
Als
nächstes
wird der Prozess zum Messen der Entfernung durch Aufnehmen eines
Bildes des reflektierten Lichts des Laserlichts, das auf der Grundlage
des in 4 gezeigten Emissionssteuersignals emittiert worden
ist, beschrieben. Zuerst gibt der Emissionssteuerabschnitt 14 zusätzlich zum Ausgeben
des in 4 gezeigten Emissionssteuersignals an die Laserlichtquelle 11 auch
das Vertikalsynchronisierungssignal an die Kurzbasislinienlängen-Kamera 12 und
die Langbasislinienlängen-Kamera 13 aus.
Der Laseremissionsabschnitt 21 empfängt dieses Signal und emittiert
Laserlicht, wobei die Kurzbasislinienlängen-Kamera 12 und
die Langbasislinienlängen-Kamera 13 ein
Bild abtasten und an den Bildspeicher im Bildspeicherabschnitt 15 ausgeben,
der zum Speichern der ungeradzahligen Halbbilder verwendet wird.
Der Bildspeicherabschnitt 15 entfernt anschließend auf
der Grundlage einer vorgegebenen Schwelle diejenigen Pixel mit sehr
hoher Helligkeit aus den Bildern. Da die erhaltenen Bilder ungeradzahlige
Halbbilder zu einem Zeitpunkt sind, zu dem starkes Laserlicht projiziert
wird, repräsentieren
die Pixel mit hoher Helligkeit nahe Objekte. Wenn folglich Pixel
mit hoher Helligkeit auf der Grundlage einer vorgegebenen Schwelle
entfernt werden, wird es möglich,
auf die Messung nur entfernter Objekte zu zielen.
-
Als
nächstes
tasten die Kurzbasislinienlängen-Kamera 12 und
die Langbasislinienlängen-Kamera 13 das
Bild erneut ab und geben es an den Bildspeicher im Bildspeicherabschnitt 15 aus,
der zum Speichern geradzahliger Halbbilder verwendet wird. Der Bildspeicherabschnitt 15 entfernt
anschließend auf
der Grundlage einer vorgegebenen Schwelle diejenigen Pixel mit geringer
Helligkeit. Da die so erhaltenen Bilder geradzahlige Halbbilder
zu einem Zeitpunkt sind, zu dem das schwache Laserlicht projiziert wird,
repräsentieren
die Pixel mit geringer Helligkeit weit entfernte Objekte. Wenn folglich
Pixel mit geringer Helligkeit auf der Grundlage einer vorgegebenen Schwelle
entfernt werden, wird es möglich,
auf die Messung nur naher Objekte zu zielen.
-
Außerdem wird
dieser gleiche Prozess sowohl in der Kurzbasislinienlängen-Kamera 12 als auch
in der Langbasislinienlängen-Kamera 13 verwendet.
-
Als
nächstes
gibt der Bildspeicherabschnitt 15 das gespeicherte Bild
an den Höhenschätzabschnitt 16 aus.
Auf der Grundlage dieses Bildes bestimmt der Höhenschätzabschnitt 16 die
Entfernung zu jedem Pixel, das das reflektierte Licht des Schlitzlichtes
zeigt, unter Verwendung des Triangulationsprinzips, und führt anschließend den
Höhenschätzprozess
aus. Der Höhenschätzabschnitt 16 korrigiert anschließend die
aus dem ungeradzahligen Halbbild und dem geradzahligen Halbbild
jeweils geschätzte Höhe, um die
Eigendynamik des Roboters 1 zu kompensieren, und erzeugt
ein Höhenschätzergebnis.
-
Auf
diese Weise wird die Lichtemissionsintensität des Laserlichts innerhalb
der Halbbildabtastzeit verändert,
wobei zwei Halbbilder jeweils mit unterschiedlicher Lichtemissionsintensität aufgenommen
werden, und wobei die Pixel mit hoher Helligkeit oder niedriger
Helligkeit auf der Grundlage einer vorgegebenen Schwelle entfernt
werden, wodurch es möglich
wird, ein Bild des Schlitzlichtes mit einer gleichmäßigen Intensität des empfangenen
Lichts aufzunehmen, unabhängig
von der Entfernung des Objekts. Folglich ist es möglich, den
Dynamikbereich für
die Abbildung des Schlitzlichtes zu verengen, wobei es als Ergebnis
möglich
wird, kleine Variationen der Helligkeit zu erfassen.
-
Ferner
kann auch in der Kalibrierungsphase des optischen Systems 2 die
Emissionszeit des Laserlichts so gesteuert werden, dass das auf
die Bodenoberfläche
projizierte Schlitzlicht mittels der Kurzbasislinienlängen-Kamera 12 und
der Langbasislinienlängen-Kamera 13 abgebildet
wird, wobei anschließend
die Impulsbreiten "tow", "tew" auf der Grundlage
des Zustands des erhaltenen Bildes bestimmt werden, so dass die
Helligkeitsverteilung des Schlitzlichtes gleichmäßig ist. Außerdem kann die Emissionszeit
entspre chend der Reflexionseigenschaften eines Hindernisses oder
entsprechend der Entfernung zu einem Hindernis verändert werden.
-
Da
die Helligkeitsverteilung des reflektierten Lichts auf diese Weise
gleichmäßig gemacht
wird, ist es möglich,
Situationen zu vermeiden, in denen die Helligkeit aus den Dynamikbereich
der Kamera fällt, so
dass eine Objekterkennung eine Entfernungsmessung genau durchgeführt werden
können.
-
Es
wird eine Entfernungsmessvorrichtung geschaffen, die ein Lichtschnittverfahren
verwendet, das fähig
ist, sowohl nahe Objekte als auch weit entfernte Objekte ohne Anpassung
des Dynamikbereiches einer Abbildungskamera zu messen. Die Vorrichtung
umfasst: einen Bilderfassungsabschnitt (11, 12, 13, 15)
für die
Abbildung von reflektiertem Licht, das von der Vorrichtung emittiert
worden ist, durch einen Schlitz gefallen ist und von der Oberfläche eines Zielobjekts
reflektiert worden ist; einen Emissionssteuerabschnitt (14)
zum Steuern der Emissionszeit (tow, tew) des Schlitzlichtes während der
Zeitspanne (to, te), in der ein Bild vom Bilderfassungsabschnitt abgetastet
wird, und zum Ändern
der Intensität
des empfangenen Lichts im Bilderfassungsabschnitt; und einen Entfernungsberechnungsabschnitt
(16) zum Berechnen der Entfernung zum Objekt auf der Grundlage
des vom Bilderfassungsabschnitt aufgenommenen Bildes und einer Positionsbeziehung
zwischen einer Lichtemissionsposition des Schlitzlichtes und einer
Abbildungsposition.