DE3508378C2 - - Google Patents
Info
- Publication number
- DE3508378C2 DE3508378C2 DE19853508378 DE3508378A DE3508378C2 DE 3508378 C2 DE3508378 C2 DE 3508378C2 DE 19853508378 DE19853508378 DE 19853508378 DE 3508378 A DE3508378 A DE 3508378A DE 3508378 C2 DE3508378 C2 DE 3508378C2
- Authority
- DE
- Germany
- Prior art keywords
- distance
- mask
- sensor
- light sensor
- movable component
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
- G01C3/085—Use of electric radiation detectors with electronic parallax measurement
Landscapes
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Image Input (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Measurement Of Optical Distance (AREA)
- Image Processing (AREA)
Description
Die Erfindung bezieht sich auf eine Vorrichtung zum Erkennen
eines dreidimensionalen Objekts gemäß dem Oberbegriff des Patentanspruchs
1.
Die DE 28 47 368 A1 von der im Oberbegriff des
Patentanspruchs 1 ausgegangen wird, zeigt so eine Vorrichtung
in Form einer Kamera mit automatischer Scharfeinstellung,
wobei ein Objekt durch das Objektiv über zwei
unterschiedliche optische Wege auf einem in der Bildebene
angeordneten Lichtsensor abgebildet wird. Aus dem Abstand
zwischen den beiden optischen Abbildungen des Objektes auf
dem Lichtsensor wird dort die Objektentfernung ermittelt.
Aus der DE 30 44 831 A1 ist es bekannt, ein Objekt mittels
eines Lichtstrahles abzutasten und den reflektierten
Lichtstrahl mittels eines Fotoelementes zu erfassen. Die
Entfernung des Objektes vom Meßort wird durch Erfassung des
Phasen- und Laufzeitunterschiedes zwischen dem ausgesendeten
und dem reflektierten Lichtstrahl ermittelt.
Der Erfindung liegt die Aufgabe zugrunde, eine gattungsgemäße
Vorrichtung zum Erkennen eines dreidimensionalen Objekts zu
schaffen, die eine zuverlässige Objekterfassung unter Erzeugung
eines entsprechenden Entfernungsverlaufsmusters ermöglicht.
Diese Aufgabe wird durch die im Patentanspruch 1 angegebenen
Maßnahmen gelöst.
Bei der erfindungsgemäßen Vorrichtung ist in den beiden optischen
Abbildungspfaden eine Maskenvorrichtung vorhanden, durch
die die Bildebene in eine Vielzahl von Flächenelementen aufgeteilt
wird, für die jeweils Entfernungssignale unter Erzeugung
eines entsprechenden Entfernungsverlaufsmusters gebildet werden.
Hierdurch kann ein für das Objekt repräsentatives Entfernungsverlaufsmuster
zuverlässig bereitgestellt werden, das beispielsweise
zur Steuerung von Roboterarmen oder dergleichen
herangezogen werden kann.
Vorteilhafte Weiterbildungen der Erfindung ergeben sich aus den
Unteransprüchen.
Die Erfindung wird nachstehend anhand von Ausführungsbeispielen
unter Bezugnahme auf die Zeichnung näher erläutert.
Es zeigen
Fig. 1 eine schematische Darstellung des Funktionsprinzips
bei einem Sichtsensor,
Fig. 2 eine Gestaltung des Sichtsensors,
Fig. 3(a), 3(b) und 3(c) Entfernungsmeßsignale
aus dem Sichtsensor,
Fig. 4 eine ausführliche Blockdarstellung eines
Sichtsensors,
Fig. 5 eine Blockdarstellung zur Veranschaulichung eines Abtastverfahrens
für einen Sichtsensor,
Fig. 6 den Aufbau eines Sichtsensors bei einem
Ausführungsbeispiel der erfindungsgemäßen
Vorrichtung,
Fig. 7-1 eine Darstellung zur Beschreibung einer
Maske 46,
Fig. 7-2 eine Darstellung zur Beschreibung einer
Maske 48,
Fig. 8 eine schematische Darstellung des Sichtsensors,
Fig. 9 eine Darstellung zur Beschreibung von Abtastblöcken
an einem Fotosensor 52,
Fig. 10 ein System-Blockschaltbild eines Roboters,
Fig. 11 einen Teil eines Steuerungsablaufdiagramms für
den Roboter,
Fig. 12 eine Anordnung eines Fotosensors und einer
Maskenschablone, und
Fig. 13 eine vergrößerte Ansicht der Maskenschablone.
Zunächst wird ein Sichtsensor beschrieben, der bei der
erfindungsgemäßen Verarbeitungseinrichtung verwendbar ist.
Die Fig. 1 veranschaulicht das Funktionsprinzip bei
einem Sichtsensor gemäß einem Ausführungsbeispiel.
Mit 10 und 11 sind Linsen mit im wesentlichen
geringer Verzeichnung bezeichnet. Mit f ist die Brennweite
der Linsen, mit d die Entfernung
zwischen einem Objekt 12 und der Linse 10, mit
B der Abstand zwischen den Linsen 10 und 11
und mit δ eine Abweichung eines Objektbilds von
der optischen Achse der Linse 11 bezeichnet. Aus der Figur
ist ersichtlich, daß B/d=δ/f ist, was folgende
Gleichung ergibt:
δ = Bf/d (1)
Ein in Fig. 2 gezeigter Sichtsensor ist so gestaltet, daß
Objektbilder unter Verwendung eines zweiflächigen Totalreflexions-
Spiegels 13 und Totalreflexions-Spiegeln 14
auf einem
Bildsensor 15 (mit Lichtempfangselementen 15a) abgebildet
werden. In diesem Fall kann auch zusätzliches Licht aus
einer Lichtquelle vorgesehen werden. Abweichend von dem
in der Fig. 2 gezeigten Beispiel sind auch Entfernungsmessungen
in verschiedenen Richtungen möglich. Auch wenn
beispielsweise ein Punkt eines Objekts nicht auf der
optischen Achse der Linse an einem Meßbildfeld liegt,
kann die Entfernung des Punkts zu einer durch die optische
Achse senkrechten Ebene als d=Bf/δ berechnet
werden. Die tatsächliche Entfernung wird zu d≈sec R,
wobei mit R der Winkel zwischen der Richtung zum Objektpunkt
und der optischen Achse ist. Der Wert d kann als
solcher zum Steuern einer Bewegung wie beispielsweise der
Bewegung eines Roboters herangezogen werden.
Der Bildsensor 15 kann eine Ladungskopplungs-
Anordnung sein und aus einer Vielzahl fein aufgeteilter
Lichtempfangselemente 15a mit einer jeweiligen
Breite von z. B. 10 µm aufgebaut sein. Der
Sensor 15 hat die Funktion,
als zeitlich aufeinanderfolgende Signale in der
vorbestimmten Reihenfolge elektrische Signale abzugeben,
welche jeweils mittels eines der Vielzahl feinunterteilter
Lichtempfangselemente 15a aufgenommen werden und
hinsichtlich ihrer Amplitude der Leuchtdichte eines jeweiligen
Bildelements eines Objektbilds entsprechen. Mit
dem Abstand B zwischen den Linsen kann die Meßgenauigkeit
verändert werden. Ferner ist mit der Brennweite der
Linse 11 der Breitenbereich des Bildfelds veränderbar.
Mit der vorstehend beschriebenen Gestaltung werden
als Abtastausgangssignale für zwei Abbildungen 12′
Signale S-1 und S-2 mit den in Fig. 3(b) gezeigten Kurvenformen
erhalten (siehe auch Fig. 3(a)). Infolgedessen
ist unter Verwendung einer Schaltung zur Verarbeitung
der elektrischen Signale der Abstand zwischen den den
beiden Abbildungen entsprechenden Signalen S-1 und S-2 ermittelbar
(Fig. 3(c)) und unter Anwendung der Gleichung
(1) kann die Entfernungsmessung für das Objekt vorgenommen
werden.
Der Sichtsensor der vorstehend beschriebenen Art erfaßt
den gegenseitigen Abstand zwischen den beiden Abbildungen
unter Verwendung eines Bildsensors und gemäß
dem vorangehend beschriebenen Entfernungsmeßprinzip. Bei
der Verwendung eines solchen Sichtsensors ist
auf klare Weise der einem zu erkennenden Objekt
zugeordneten Bereich festzulegen, indem mittels
einer geeigneten Vorrichtung ein Meßbildfeld Ls sowie
ein nachstehend als Vergleichsbildfeld Lr bezeichnetes
Bildfeld für die zweite Abbildung festgelegt wird. Bei
dem vorstehend dargestellten bestimmten Sensor wird das
Meßbildfeld in die Nähe der Abbildungsstelle der Abbildung
12′ gelegt, während das Vergleichsbildfeld in den
Bewegungsbereich der anderen Abbildung 12′ gelegt wird,
der sich entsprechend der Entfernung des Objekts 12
ändert.
Eine ausführliche Blockdarstellung des
vorstehend beschriebenen Sichtsensors ist in Fig. 4 gezeigt.
Mit 15 ist der vorstehend beschriebene
Bildsensor, beispielsweise eine Ladungskopplungsvorrichtung, bezeichnet
(die N Elemente für das Meßbildfeld
und N+M-1 Elemente für das Vergleichsbildfeld hat).
Der Sensor wird mittels einer Taktsteuerschaltung 21 und
einer Treiberschaltung 20 angesteuert, die Verschiebungs-
und Übertragungs-Taktsignale abgibt. Die Daten aus der
Ladungskopplungs-Anordnung werden mittels einer Quantisierschaltung
22 quantisiert, in der die Daten beispielsweise
mit einem vorgewählten Schwellenwert an einem Vergleicher
verglichen werden, um in Abhängigkeit von dem
Vergleichsergebnis Daten "0" oder "1" zu erhalten. Die
quantisierten Daten für das Meßbildfeld und das
Vergleichsbildfeld werden jeweils in Schieberegister 26
bzw. 27 eingegeben, entsprechend
Taktsignalen aus der Taktsteuerschaltung 21
verschoben und an ein Schaltglied 28 ausgegeben, in dem
bewertet wird, ob die Daten miteinander übereinstimmen
oder nicht. Die Anzahl der Übereinstimmungen wird mittels
eines Zählers 24-1 einer Übereinstimmungsanzahl-Vergleichsschaltung
24 gezählt, bis N Sätze in diesen quantisierten
Daten miteinander verglichen sind. Danach werden
die Ausgangssignale des Zählers 24-1 in einen Zwischenspeicher
24-3 eingegeben. Es ist offensichtlich, daß
bis dahin der Zwischenspeicher 24-3 geleert worden ist.
Nachdem N Wertesätze unter Verschiebung in den Schieberegistern
26 und 27 miteinander verglichen worden sind,
wird in dem Schieberegister 27 eine Verschiebung um "1"
vorgenommen. Danach werden aufeinanderfolgend die Werte
von der zweiten bis zu der (N+1)-ten Stelle in dem Schieberegister
27 mit den N Werten in dem Schieberegister 26
verglichen. Nach diesen beiden seriellen Vergleichsvorgängen
wird ein dritter serieller Vergleichsvorgang ausgeführt,
bei dem die Werte von der dritten bis zu der
(N+2)-ten Stelle in dem Schieberegister 27 mit den N
Werten in dem Schieberegister 26 verglichen werden. Nach der
M-fachen Ausführung dieser Vergleichsvorgänge werden zum
Abschluß die Werte von der M-ten bis zur (M+N-1)-ten
Stelle dem Vergleich unterzogen. D. h., die N Werte in dem
Schieberegister 26 werden mit den entsprechenden Werten
in dem Schieberegister 27 verglichen, bis die letzteren
Werte M-mal verschoben sind. Die Anzahl der Vergleiche
der N Werte (≦M) wird in einer Deckungslagen-Erfassungsschaltung
23 gezählt, in der auch die Anzahl von Ausgangssignalen
"A<B" aus einem Vergleicher 24-2 der Vergleichsschaltung
24 zwischengespeichert wird. Auf diese
Weise erhält die Schaltung 23 schließlich die maximale
Anzahl der Ausgangssignale, wobei diese als maximale Anzahl der
Übereinstimmung einer Deckungslage entspricht.
Darauffolgend wird mit der
maximalen Anzahl der Übereinstimmungen
bzw. mit der Deckungslage in einer Objektinformationssignal-
Ausgabeschaltung 25 die Entfernung zum Objekt
entsprechend der Gleichung (1) berechnet. Die Entfernungsinformation
wird an eine Zentraleinheit, an Speicher
oder dergleichen abgegeben.
Als nächstes wird ein Abtastverfahren für den Sichtsensor
beschrieben. Die Fig. 5 ist ein Steuerungs-Blockschaltbild
für den Sichtsensor. Mit 30 ist eine Abtastschaltung
für das selektive Abtasten des Sichtsensors bezeichnet,
mit 31 ist eine Speichervorrichtung zum
Speichern von Verlaufsmustern der Entfernungsinformationen
bezeichnet und mit 32 ist eine
Zentraleinheit (CPU) zum Steuern des Sensors und zum Ausführen
von Berechnungsvorgängen bezeichnet.
Unter Berücksichtigung der vorstehenden Beschreibung wird
nun ein Ausführungsbeispiel mit der erfindungsgemäßen
Vorrichtung beschrieben. Die Fig. 6 zeigt
die Gestaltung eines Sichtsensors
gemäß dem Ausführungsbeispiel und zeigt Objektive
41 und 42, Totalreflexions-Spiegel 43, 44 und 45,
eine Positiv-Maske 46, eine Negativ-Maske 48, Kondensorlinsen
47 und 49, einen halbdurchlässigen Spiegel 40,
eine Abbildungslinse 51 sowie einen Fotosensor 52 wie eine
Ladungskopplungsvorrichtung (CCD), der zum Auslesen jeweils
einzelner Bildzeilen in Bildelement-Einheiten benützt
wird. Mit dieser Anordnung werden die zu erkennenden
Objekte der Umgebung über die voneinander in einem
vorgewählten Abstand angeordneten gesonderten Objektive
41 und 42 jeweils nahe den Masken 46 bzw. 48 abgebildet.
Die Maske 46, von der ein Teil vergrößert in Fig. 7-1
dargestellt ist, ist beispielsweise mit lichtundurchlässigen
Bereichen 46b versehen, die in der Form eines
Mosaiks auf einer durchsichtigen Glasplatte angeordnet
sind. Gemäß Fig. 7-2 ist die Maske 48 so gestaltet, daß
durchsichtige Bereiche 46a und die lichtundurchlässigen
Bereiche 46b der Maske 46 vertauscht sind, wobei mit 48a
durchsichtige Bereiche und mit 48b lichtundurchlässige
Bereiche bezeichnet sind.
Die Fig. 8 ist eine schematische Ansicht des in Fig. 6
gezeigten Sichtsensors. Mit 60 ist ein Objekt (die Umgebung)
bezeichnet. Das Objekt ist zwar zweidimensional
dargestellt, jedoch in Wirklichkeit dreidimensional.
Die Fig. 8 zeigt entsprechend der Fig. 6
Objektive 41 und 42, Totalreflexions-Spiegel 43, 44 und
45, eine Positiv-Maske 46, eine Negativ-Maske 48, einen
halbdurchlässigen Spiegel 40 und eine Ladungskopplungsvorrichtung
(CCD) als Fotosensor 52 für das zeilenweise
Lesen eines Bilds in Bildelement-Einheiten (über
drei Zeilen in Fig. 8), wobei auf den Fotosensor das Objekt
durch eine Abbildungslinse 51 abgebildet wird. Der
Fotosensor muß keine Ladungskopplungsvorrichtung sein,
soll aber ein Flächensensor sein. Die Zeilenanzahl ist
nicht auf "3" beschränkt. Die Masken 46 und 48 werden so
hergestellt, daß die durchsichtigen Bereiche der einen
Maske mit den lichtundurchlässigen Bereichen der anderen
Maske übereinstimmen und umgekehrt. Die Objektabbildungen
werden hierbei so angeordnet, daß miteinander identische
Bereiche der beiden Abbildungen aus den jeweiligen Objektiven
41 und 42 gesondert voneinander längs der Abtastzeilen
abgebildet werden (so daß beispielsweise bei diesem
Ausführungsbeispiel an dem Fotosensor 52 jeweils zwei
identische Buchstaben B und D abgebildet werden). Infolgedessen
werden identische Teile der beiden Bilder über
die optischen Wege, die über die jeweiligen Objektive 41
und 42 führen, seitlich nebeneinander an dem Fotosensor
52 ohne gegenseitige Überlagerung angeordnet. Falls die
Richtung der Abtastzeilen bezüglich des Fotosensors 52
mit der Richtung der Mosaikmasken in Übereinstimmung gebracht
wird, können auf jeweils der gleichen Abtastzeile
des Fotosensors die identischen Teile der Objektbilder
aus den beiden optischen Wegen über die Objektive 41 und
42 Seite an Seite nebeneinander projiziert werden, wie es
mit den Buchstaben B und D in Fig. 8 gezeigt ist. Durch
die Auswertung der nebeneinander ausgerichteten und auf
die vorstehend beschriebene Weise erhaltenen gleichen
Objektbilder kann die Entfernungsinformation
nach dem in den Fig. 1 bis 4 veranschaulichten Entfernungsmeßprinzip
erhalten werden.
Als nächstes wird
der Fotosensor 52 beschrieben. Die Fig. 9 zeigt
einen Teil eines auf den Fotosensor projizierten Bilds,
wobei jeweilige Blöcke 61-1, 61-2, 61-3 und 61-4 jeweils
dem in den Fig. 2 bis 4 beschriebenen Sensor 15 entsprechen.
In der Fig. 9 sind zwar die Objektbilder "B" als
über vier Abtastzeilen auf den Fotosensor 52 projiziert
dargestellt, jedoch kann die Anzahl der Abtastzeilen irgendeine
Anzahl in Abhängigkeit von der Auslesegenauigkeit,
der Auslesegeschwindigkeit und dergleichen sein.
Hierbei entspricht ein Feld 61-5 dem anhand der Fig. 4 beschriebenen
Meßbildfeld, während ein Feld 61-6 dem Vergleichsbildfeld
entspricht. Bei dem Ausführungsbeispiel
hat das Meßbildfeld 61-5 32 Bits, während das Vergleichsbildfeld
61-6 94 Bits hat. Daher wird die Anzahl der Aufteilungen
zu 94-32=62. Die
Anzahl der Aufteilungen kann nach Belieben entsprechend
der Entfernungsmeßgenauigkeit verändert werden. Die Abmessungen
der Fläche des Fotosensors 52 betragen 6,6 mm
in der Y-Richtung und 8,8 mm in der X-Richtung. Die Abtastzeilen
umfassen 757 Zeilen in der X-Richtung und 245
Zeilen in der Y-Richtung. Es besteht jedoch keine Einschränkung
auf eine solche Abtastzeilen-Zusammensetzung.
Es ist ferner offensichtlich, daß in der X- und Y-Richtung
verschiedene in Fig. 9 nicht gezeigte Blöcke
liegen, die zu den mit 61-1, 61-2, 61-3, 61-4 sowie 62-1 bezeichneten
gleichartig sind.
Nachstehend wird die Schaltsteuerung für das Abtasten des
Fotosensors 52 beschrieben, der gemäß der vorstehenden
Beschreibung eine Vielzahl von Blöcken enthält. Wie es
anhand der Fig. 4 beschrieben ist, sind zum Erhalten der
Entfernungsinformation für einen einzelnen Block N×M
Taktsignale erforderlich. Durch das Zählen der Anzahl der
Taktsignale steuert die in Fig. 4 gezeigte Taktsteuerschaltung
21 das Schalten bei der Abtastung einer begrenzten
Fläche in der Weise, daß beispielsweise gemäß
Fig. 9 von dem Block 61-1 auf den Block 62-1, dann auf
den Block 61-2 usw. fortgeschaltet wird.
Die Fig. 10 ist ein Blockschaltbild eines Robotersystems,
bei dem der vorstehend beschriebene
Sichtsensor verwendet wird. Mit 52 ist ein Ladungskopplungs-
Fotosensor bezeichnet, der dem vorstehend beschriebenen
entspricht. Mit 70 ist ein Analog/Digital-Wandler
bezeichnet, während mit 71 ein Wähler
für das Wählen eines Sensorblocks in dem Fotosensor
52 und das Erhalten der Objektentfernungsinformation aus
einer entsprechenden Sichtsensorblock-Verarbeitungsschaltung
72 bezeichnet ist. Die ermittelten Objektentfernungsinformationen
werden in Schreib/Lesespeicher
einer Entfernungsverlaufsmuster-Arbeitsspeichereinheit
73 als Entfernungsverlaufsmuster eingeschrieben.
Mit 32 ist eine Zentraleinheit bezeichnet,
während mit 74 ein Planspeicher bezeichnet ist. In dem
Planspeicher 74 ist ein letztes Entfernungsverlaufsmuster
oder ein Befehlsplan gespeichert, die mit dem gerade vorliegenden
Entfernungsverlaufsmuster verglichen werden, um
damit eine am besten geeignete Steuerung eines Arms,
einer Bewegung oder dergleichen herbeizuführen. Die Zentraleinheit
(CPU) kann ein nicht dem Neumann-Schema entsprechender
Computer mit mehreren Prozessoren sein, in
welchen verschiedenerlei Daten gleichzeitig und parallel
verarbeitet werden. Es können Anschlüsse vorgesehen werden,
denen von außen Befehlssignale zugeführt werden.
Darüber hinaus können für eine Steuereinheit 75 und eine
Armeinheit 76 Sensor-Informationen über eine Bewegungsrichtung,
eine Geschwindigkeit, einen Abstand und dergleichen
sowie die Informationen über die Daten der Recheneinheit
und das vorangehend genannte Entfernungsverlaufsmuster
herangezogen werden.
Bei dem vorstehend beschriebenen Ausführungsbeispiel ist
parallel eine Vielzahl von Sichtsensorblock-Verarbeitungsschaltungen
vorgesehen, um die Verarbeitungszeit mit
der Fotosensor-Abtastzeit vereinbar zu machen. Falls jedoch
die Entfernungsberechnungs-Verarbeitung schneller
wird oder die Fotosensor-Abtastgeschwindigkeit geeignet
gewählt wird, kann von den mehreren parallelen Schaltungen
abgegangen werden. Ferner kann die Aufeinanderfolge
des Analog/Digital-Wandlers 70 und des Wählers 71 umgekehrt
werden.
Da Entfernungsinformationen erzielt werden können, sind
für die Sensoren andere Anwendungszwecke möglich, wie
beispielsweise das Ausweichen vor einem schnell fliegenden
Objekt, das Fangen eines schnell fliegenden Objekts,
das Abstandhalten von Hindernissen wie Fahrzeugen usw.;
die erfindungsgemäße Vorrichtung ist aber
nicht hierauf beschränkt.
Im Vergleich mit der Ultraschallmessung kann die Verteilung
der Entfernungen zu einem Umgebungsobjekt im Bildfeld
insbesondere in der Querrichtung mit hohem Auflösungsvermögen
gemessen werden, ohne daß mechanisch bewegbare
Teile nötig sind. Ferner werden die Bilder des
gleichen Objekts über die beiden optischen Wege nebeneinander
auf dem Fotosensor abgebildet. Aus diesen beiden
Gründen kann das Problem bei einem Stereoverfahren gelöst werden,
daß wechselseitige Beziehungen zwischen
einander entsprechenden Punkten schwierig zu ermitteln
sind. Es ist möglich, die Rechenvorgänge parallel
abzuarbeiten, so daß daher ein nicht dem Neumann-Schema
entsprechender Computer verwendet werden kann. Es wird
auch eine für Roboter erforderliche
schnelle Verarbeitung ermöglicht. Gemäß der ausführlichen
Beschreibung ist das Messen der Verteilung der Entfernungen
zur dreidimensionalen Erkennung des Objektivs wirkungsvoll,
so daß besondere praktische Anwendungen wie
beispielsweise als "Augen" eines Roboters, als Sensor zur
Gehhilfe für Blinde und dergleichen möglich sind.
Gemäß der vorstehend ausführlichen Beschreibung ist es
möglich, eine Vorrichtung
zu bilden, mit der unter Verwendung eines auf die Entfernung
bezogenen Verteilungsmusters
ein Objekt als dreidimensionale Form
erkennbar ist.
Nachstehend wird anhand des Ablaufdiagramms in Fig. 11
kurz ein Teil der Steuerung für einen Roboter
beschrieben, bei der die erfindungsgemäße Vorrichtung
eingesetzt werden kann. Das Programm für
diesen Steuerungsablauf ist beispielsweise in einem Festspeicher
(ROM) der Zentraleinheit (CPU) 32 gespeichert.
Sichtsensorblöcke gemäß der Darstellung durch 61-1 usw.
an dem Fotosensor gemäß Fig. 9 entsprechen jeweils Sichtsensorblock-
Verarbeitungsschaltungen 72 nach Fig. 10. Als
Minimum könnten zwei Verarbeitungsschaltungen 72 genügen,
jedoch hängt die Anzahl dieser Schaltungen von den Verarbeitungszeiten
für das Wechseln des Bilddatenblocks und
für die Verarbeitung in der Verarbeitungsschaltung 72 ab.
Bei diesem Beispiel wird die Anzahl der Verarbeitungsschaltungen
für eine Zeile des Fotosensors 52 als n1 angenommen
(wobei auch die Anzahl der Sichtsensorblöcke als
n1 angenommen wird). Bei einem Schritt S1 gemäß Fig. 11
wird zuerst n auf "1" eingestellt. Bei einem Schritt S2
werden Entfernungsdaten auf einem Block (der n1 Blöcke
auf einer Zeile) des Fotosensors einer Sichtsensorblock-
Verarbeitungsschaltung (der n1 Schaltungen für
die eine Zeile, wobei n1 der Anzahl der Sichtsensorblöcke
entspricht) zugeführt. Wird bei einem Schritt S3 aus der
Verarbeitungsschaltung gemäß Fig. 4 ein Objektinformationssignal
ausgegeben und in den Entfernungsverlaufsmuster-
Speicher 72 gemäß Fig. 10 eingespeichert. Dieser
Vorgang dauert beispielsweise 3 ms, so daß die Ermittlung
dieses Vorgangs unter Verwendung eines Zeitgebers
vorgenommen werden kann. Bei einem Schritt S4 wird
zum Verarbeiten der Entfernungsdaten aus einem nächsten
Block die Aufstufung n←n+1 vorgenommen. Da bei
diesem Beispiel bei einem Schritt S5 n≦n1 gilt, wird
zur Wiederholung des vorstehend beschriebenen Ablaufs
wieder der Schritt S2 ausgeführt. Nach dem Abschluß der
Verarbeitungsvorgänge für eine Zeile ergibt sich bei dem
Schritt S5 die Antwort "NEIN". Infolgedessen wird bei
einem Schritt S6 die Aufstufung Y←Y+1 vorgenommen, um
zur Verarbeitung für die nächste Zeile fortzuschreiten.
Bei einem Schritt S7 wird ermittelt, ob y₁ Zeilen geprüft
worden sind, nämlich ob ein Vollbild abgefragt wurde
(wobei angenommen wird, daß der Fotosensor 52 in der Y-
Richtung nach Fig. 9 y₁ Zeilen hat). Falls bei dem
Schritt S7 die Verarbeitungsvorgänge an den Entfernungsdaten
für ein Vollbild noch nicht abgeschlossen sind,
wird zur Verarbeitung der restlichen Entfernungsdaten
wieder der Schritt S2 ausgeführt.
Falls bei dem Schritt S7 nicht Y≦y₁ gilt, nämlich die
Verarbeitungsvorgänge an den Entfernungsdaten aus dem
Fotosensor für ein Vollbild schon abgeschlossen sind, ist
in dem Entfernungsverlaufsmuster-Speicher 73 nach Fig. 10
ein Entfernungsverlaufsmuster
für ein Vollbild fertiggestellt. Bei einem Schritt
S8 werden gemäß den Entfernungsverlaufsmusterdaten aus dem
Fotosensor für ein Vollbild oder mehrere Vollbilder und
ferner gemäß den Daten aus dem Planspeicher 74 nach Fig. 10,
einem Richtungssensor wie einem Lichtleiter-Kreisel
oder dergleichen verschiedenerlei Steuereinheiten 75 und
Armeinheiten 76 gesteuert; beispielsweise wird aus den
Entfernungsverlaufsmusterdaten die Richtung ermittelt, in
der keine Hindernisse festzustellen sind, und dadurch der
Roboterkörper in dieser Richtung bewegt.
Schließlich kann als Information zur Entfernungsberechnung
ein Farbwechsel an dem Objekt herangezogen werden.
Im einzelnen kann auch dann, wenn ein Objekt über der
ganzen Fläche die gleiche Helligkeit hat, die vorstehend
beschriebene Entfernungsmessung angewandt werden, solange
am Objekt eine Änderung hinsichtlich des Farbtons und der
Farbsättigung vorliegt. Durch die Verwendung
einer Streifenmaskenschablone statt
der Mosaikmaskenschablone kann die Lageausrichtung leicht
ausgeführt werden, wobei im Vergleich zur Verwendung der
Mosaikmaskenschablone vorteilhafte Wirkungen erzielt
werden können. Dies wird im folgenden ausführlicher beschrieben.
Statt der Maskenschablonen 46 und 48 gemäß
Fig. 6 bzw. der Maskenmuster gemäß den Fig. 7-1 und 7-2
wird bei diesem Beispiel die Anordnung gemäß Fig. 12 eingesetzt.
Mit 101 ist ein Grundplatte bezeichnet, mit 100
ist ein zweidimensionaler Sensor wie eine Ladungskopplungsvorrichtung
bezeichnet und mit 102 ist ein Farbfilter
bezeichnet. Die Fig. 13 zeigt vergrößert einen Teil
der Farbfilterschablone. Mit 102a, 102b und
102c sind jeweils Streifen für drei Farben wie beispielsweise
Rot, Grün und Blau oder zusätzlich durchlässige
Streifen bezeichnet. Die Streifen werden zyklisch wiederkehrend
nebeneinander gesetzt und haben jeweils die
gleiche Breite wie die Abtastzeile. Die Abstände werden
entsprechend den vorstehend beschriebenen Verarbeitungsvorgängen
berechnet, wobei die gegenseitigen Relativlagen
zwischen den Objektbildern berücksichtigt werden, die
über die voneinander verschiedenen optischen Wege auf die
gleiche Abtastzeile des gemäß diesem Beispiel aufgebauten
Fotosensors projiziert werden. Daher entstammen verglichene
Informationen alle dem Licht, das über das Filter
für die gleiche Farbe durchgelassen wird. Ferner werden
an den in der Unterabtastrichtung (Y-Richtung nach Fig. 9
und 13) benachbarten Abtastzeilen die Entfernungen der
über verschiedenfarbige
Filter projizierten Objektbilder berechnet. Daher
wird das in das Bildfeld auf mehreren Abtastzeilen projizierte
Objekt der Entfernungsmessung mit unterschiedlicher
Farbauflösung unterzogen.
Das Filter (bzw. die Maskenschablone) kann durch Aufdampfen
oder Aufsprühen direkt auf den Fotosensor aufgebracht
werden. Falls der Fotosensor nur für Wellenlängen außerhalb
des sichtbaren Lichts empfindlich ist, können Filter
für das Trennen von Infrarotstrahlen und Ultraviolettstrahlen
verwendet werden.
Aus der vorstehend ausführlichen Beschreibung ist ersichtlich,
daß selbst bei einer geringen Helligkeitsabweichung
die Entfernungen zu einem Objekt mit Farbänderungen
leicht gemessen werden können, um damit ein genaueres
Entfernungsverlaufsmuster zu bilden.
Claims (21)
1. Vorrichtung zum Erkennen eines dreidimensionalen Objekts,
mit einer Vorrichtung (40-49, 51) zur Erzeugung einer optischen
Abbildung des Objekts über einen ersten und einen zweiten
optischen Weg auf einem in einer Bildebene angeordneten
Lichtsensor (52) und einer Verarbeitungseinrichtung (72) zur
Ermittlung von Entfernungssignalen aus den Lichtsensor-Ausgangssignalen,
dadurch gekennzeichnet,
daß eine Maskenvorrichtung (46, 48) in den beiden optischen Wegen angeordnet ist, durch die die Bildebene in eine Vielzahl von Flächenelementen aufgeteilt wird,
daß die Verarbeitungseinrichtung 72 für jedes Flächenelement der Bildebene Entfernungssignale ermittelt, und
daß eine Vorrichtung zum Erzeugen eines Entfernungsverlaufsmusters aus den ermittelten Entfernungssignalen vorhanden ist.
daß eine Maskenvorrichtung (46, 48) in den beiden optischen Wegen angeordnet ist, durch die die Bildebene in eine Vielzahl von Flächenelementen aufgeteilt wird,
daß die Verarbeitungseinrichtung 72 für jedes Flächenelement der Bildebene Entfernungssignale ermittelt, und
daß eine Vorrichtung zum Erzeugen eines Entfernungsverlaufsmusters aus den ermittelten Entfernungssignalen vorhanden ist.
2. Vorrichtung nach Anspruch 1,
dadurch gekennzeichnet, daß
die optischen Achsen von in dem ersten und dem zweiten optischen
Weg angebrachten Linseneinrichtungen (41, 42) zueinander
parallel sind.
3. Vorrichtung nach einem der Ansprüche 1 oder 2,
dadurch gekennzeichnet, daß
zwischen Maskenschablone der Maskenvorrichtung (46, 48) eine
derartige Beziehung besteht, daß die positiven Bereiche einer
Maskenschablone mit den negativen Bereichen einer anderen
Maskenschablone übereinstimmen.
4. Vorrichtung nach einem der Ansprüche 1 bis 3,
dadurch gekennzeichnet, daß
die Maskenvorrichtung (46, 48) aus einem gestreiften Farbfilter
(102) besteht, das eine Vielzahl von Farben aufweist.
5. Vorrichtung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, daß
die Maskenvorrichtung (46, 48) auf dem Lichtsensor (52) durch
Aufdampfen gebildet wird.
6. Vorrichtung nach einem der Ansprüche 1 bis 4,
dadurch gekennzeichnet, daß
die Maskenvorrichtung (46, 48) auf dem Lichtsensor (52) durch
Sputtern gebildet wird.
7. Vorrichtung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, daß
die Verarbeitungseinrichtung (72) eine Quantisierschaltung
(25), eine Zeitsteuereinheit (21), eine Zähleinheit (24-1)
und eine Vergleichereinheit (24-2) umfaßt.
8. Vorrichtung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, daß
der Lichtsensor (52) eine Ladungskopplungsvorrichtung umfaßt.
9. Vorrichtung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, daß
der Lichtsensor (52) eine Ausdehnung von 6,6 mm×8,8 mm hat.
10. Vorrichtung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, daß
der Lichtsensor (52) zumindest 700 Zeilen aufweist.
11. Vorrichtung nach einem der vorstehenden Ansprüche,
dadurch gekennzeichnet, daß
der Lichtsensor (52) in Bereiche aufgeteilt ist und die
Entfernungssignale für jeden Bereich hergeleitet werden.
12. Vorrichtung nach einem der vorstehenden Ansprüche,
gekennzeichnet durch
einen Speicher (73, 74) zum Speichern des Entfernungsverlaufsmusters.
13. Vorrichtung nach Anspruch 12,
dadurch gekennzeichnet, daß
der Speicher (73, 74) ein vorhergehendes Entfernungsverlaufsmuster
speichert.
14. Vorrichtung nach Anspruch 12,
dadurch gekennzeichnet, daß
der Speicher (73, 74) zur Abgabe von Anweisungen Abbildungsinformationen
speichert.
15. Vorrichtung nach einem der vorstehenden Ansprüche,
gekennzeichnet durch
ein bewegliches Bauteil (76), das sich unter Bezug auf das
Entfernungsverlaufsmuster bewegt.
16. Vorrichtung nach Anspruch 15,
dadurch gekennzeichnet, daß
das bewegliche Bauteil (76) die Vorrichtung bewegt.
17. Vorrichtung nach Anspruch 15,
dadurch gekennzeichnet, daß
das bewegliche Bauteil eine Armeinheit (76) ist.
18. Vorrichtung nach einem der Ansprüche 15 bis 17,
gekennzeichnet durch
eine Steuereinrichtung (75), die zur Bestimmung der
Bewegungsrichtung der Vorrichtung das bewegliche Bauteil (76)
unter Bezug auf das Entfernungsverlaufsmuster steuert.
19. Vorrichtung nach Anspruch 18,
dadurch gekennzeichnet, daß
die Steuereinrichtung (75) zur Steuerung des beweglichen Bauteils
(76) Informationen eines Geschwindigkeitssensors verwendet.
20. Vorrichtung nach Anspruch 18 oder 19,
dadurch gekennzeichnet, daß
die Steuereinrichtung (75) zur Steuerung des beweglichen Bauteils
(76) Informationen eines Entfernungssensors verwendet.
21. Vorrichtung nach einem der Ansprüche 18 bis 20,
dadurch gekennzeichnet, daß
die Steuereinrichtung (75) zur Steuerung des beweglichen Bauteils
(76) Informationen eines Bewegungsrichtungssensors verwendet.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4492084A JPH0246984B2 (ja) | 1984-03-09 | 1984-03-09 | Butsutaijohoshorisochi |
Publications (2)
Publication Number | Publication Date |
---|---|
DE3508378A1 DE3508378A1 (de) | 1985-12-05 |
DE3508378C2 true DE3508378C2 (de) | 1992-01-09 |
Family
ID=12704901
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19853508378 Granted DE3508378A1 (de) | 1984-03-09 | 1985-03-08 | Einrichtung zum verarbeiten von objektinformationen |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPH0246984B2 (de) |
DE (1) | DE3508378A1 (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0833915B2 (ja) * | 1985-12-10 | 1996-03-29 | キヤノン株式会社 | 3次元情報処理方法 |
JP6735474B2 (ja) | 2016-02-29 | 2020-08-05 | パナソニックIpマネジメント株式会社 | 撮像装置 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2847368A1 (de) * | 1977-11-02 | 1979-05-03 | Canon Kk | Kamera mit automatischer scharfeinstellvorrichtung |
DE3044831C2 (de) * | 1980-11-28 | 1987-04-23 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V., 8000 München | Anordnung zur Gewinnung dreier räumlicher Koordinaten für ein räumliches Bild der Oberfläche eines diffus reflektierenden dreidimensionalen Objektes |
-
1984
- 1984-03-09 JP JP4492084A patent/JPH0246984B2/ja not_active Expired - Lifetime
-
1985
- 1985-03-08 DE DE19853508378 patent/DE3508378A1/de active Granted
Also Published As
Publication number | Publication date |
---|---|
DE3508378A1 (de) | 1985-12-05 |
JPH0246984B2 (ja) | 1990-10-18 |
JPS60189581A (ja) | 1985-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE3586140T2 (de) | Einrichtung fuer dreidimensionale vision. | |
DE69207176T2 (de) | Optischer Sensor | |
DE69132853T2 (de) | Dreidimensionales Messinstrument | |
DE2447789C3 (de) | ||
DE2739679C2 (de) | Verfahren und Anordnung zur dreidimensionalen Bestimmung der Oberflächenform eines Körpers | |
EP0237601B1 (de) | Verfahren zur photogrammetrischen Erfassung eines Objektes mit Hilfe zumindest eines opto-elektrischen Festkörper-Flächensensors | |
DE3650479T2 (de) | Vorrichtung zur Aussendung von Lichtflächen | |
DE2637905A1 (de) | Verfahren und vorrichtung zum bestimmen der raeumlichen lage eines punktes auf der oberflaeche eines gegenstandes | |
DE19525561C2 (de) | 3D-Meßvorrichtung | |
DE102017116758B4 (de) | Verfahren und Vorrichtung zum Abtasten von Oberflächen mit einer Stereokamera | |
DE2850117A1 (de) | Daten-eingabetablett-steuerung | |
DE2944161C2 (de) | Vorrichtung zur Feststellung der Scharfeinstellung eines optischen Systems | |
DE2259762B2 (de) | Verfahren zur automatischen Auswertung von Stereobildern | |
DE3116671A1 (de) | Instrument zum automatischen bestimmen der kennwerte eines optischen systems | |
EP1022541A2 (de) | Verfahren und Vorrichtung zur Bestimmung der Geometrie von blattförmigem Gut oder Stapeln davon | |
DE1905392A1 (de) | Vorrichtung zum Erzeugen von elektrischen Signalen mittels eines Skalengitters,das relativ zu einem Indexgitter bewegbar ist | |
DE19626889A1 (de) | Verfahren und Vorrichtung zur Erfassung von Geometriedaten aus unterschiedlichen Beobachtungspositionen | |
DE3508378C2 (de) | ||
DE4143193A1 (de) | System zur mathematischen erfassung dreidimensionaler oberflaechen | |
DE3232833C2 (de) | ||
DE3720019C2 (de) | Ortungssystem zur Bestimmung von Ort und Orientierung eines beweglichen Körpers | |
DD157286A1 (de) | Anordnung zur farberkennung bei der abtastung graphischer vorlagen | |
EP1136787B1 (de) | Objektabbildung mit Abstandskompensation ( Grösse, Farbe ) | |
DE3321447C2 (de) | Verfahren und Vorrichtung zur Feststellung des Scharfeinstellungszustandes eines optischen Abbildungssystems | |
DE1623395C1 (de) | Navigationsberichtigungssystem |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
D2 | Grant after examination | ||
8364 | No opposition during term of opposition |