-
HINTERGRUND DER ERFINDUNG
-
1. Gebiet der Erfindung
-
Die vorliegende Erfindung betrifft ein Erkennungsverfahren zur Erkennung einer dreidimensionalen Position eines Objekts in einem System, das einen Roboter und eine benachbart zu einem distalen Ende des Roboters gelagerte Bilderfassungseinheit aufweist, und eine Erkennungseinrichtung zur Ausführung eines solchen Erkennungsverfahrens.
-
2. Beschreibung der verwandten Technik
-
Um eine Operation wie Fördern oder Bearbeiten eines Werkstücks mithilfe eines Roboters exakt auszuführen, ist es erforderlich, die Position, an der das Werkstück angeordnet ist, exakt zu erkennen. Daher ist es in den letzten Jahren übliche Praxis gewesen, die Position des Werkstücks visuell zu erkennen, insbesondere die dreidimensionale Position des Werkstücks mithilfe einer Kamera oder dergleichen.
-
Im eingetragenen
japanischen Patent Nr. 3859371 , in der ungeprüften
japanischen Patentveröffentlichung (Kokai) mit der Nummer 2012-192473 und in der ungeprüften
japanischen Patentveröffentlichung (Kokai) mit der Nummer 2004-90183 , wird die Bestimmung einer dreidimensionalen Position des Werkstücks oder dergleichen mit Kameras offenbart. Darüber hinaus wird in ungeprüften
japanischen Patentveröffentlichungen (Kokai) mit den Nummern 2014-34075 und
2009-241247 die Bestimmung einer dreidimensionalen Position des Werkstücks oder dergleichen mithilfe einer Kamera mit Objektiven offenbart.
-
ZUSAMMENFASSUNG DER ERFINDUNG
-
Allerdings besteht bei den vorstehend beschriebenen konventionellen Techniken das Problem, dass wegen der Verwendung mehrerer Kameras oder mehrerer Objektive die Struktur kompliziert wird und die Kosten entsprechend steigen.
-
Ferner sind die Verarbeitungskosten zum Vereinigen eines Paars von Stereobildern einer Stereokamera die höchsten. Wenn die Qualität der Vereinigung des Paars von Stereobildern gering ist, ist auch die Zuverlässigkeit der Stereokamera herabgesetzt.
-
Die vorliegende Erfindung wurde im Hinblick auf die vorstehenden Umstände gemacht, und es ist ein Zweck der vorliegenden Erfindung, ein Erkennungsverfahren zur Erkennung einer dreidimensionalen Position eines Objekts, bei dem die Zuverlässigkeit verbessert wird, während die Kosten reduziert werden, ohne mehrere Kameras oder mehrere Objektive zu verwenden, und eine Erkennungseinrichtung zur Durchführung eines solchen Verfahrens bereitzustellen.
-
Um den vorstehenden Zweck zu erreichen, wird gemäß eines ersten Aspekts der vorliegenden Erfindung ein Erkennungsverfahren zur Erkennung einer dreidimensionalen Position eines Objekts bereitgestellt, einschließlich eines oder mehrerer charakteristischer Punkte in einem einen Roboter aufweisenden System, und eine Bilderfassungseinheit, welche angrenzend an ein distales Ende des Roboters gelagert ist, wobei das Erkennungsverfahren folgende Schritte einschließt: sequentielle Bildverarbeitung von Bildern des Objekts durch die Bilderfassungseinheit, wenn sich der Roboter bewegt; wobei zwei Bilder von den mehreren Bildern aufeinanderfolgend oder zumindest alternierend aufeinanderfolgend als ein erstes Bild und ein zweites Bild festgelegt werden, wobei charakteristische Punkte in dem zweiten Bild erkannt werden, einschließlich eines in dem ersten Bild erkannten charakteristischen Punkts; wobei jeder Abstand zwischen dem einen charakteristischen Punkt in dem ersten Bild und den charakteristischen Punkten in dem zweiten Bild berechnet wird; wobei ein charakteristischer Punkt bestimmt wird, für welchen der Abstand der kürzeste ist, und wobei die Verarbeitung zur Bestimmung des charakteristischen Punkts, für welchen der Abstand der kürzeste ist, wobei die nächsten zwei Bilder der mehreren Bilder aufeinanderfolgend oder zumindest alternierend aufeinanderfolgend als das erste Bild und das zweite Bild festgelegt werden, wodurch der eine charakteristische Punkt des Objekts verfolgt wird.
-
Diese Objekte, Merkmale und Vorteile sowie andere Objekte, Merkmale und Vorteile der vorliegenden Erfindung werden deutlicher aus einer ausführlichen Beschreibung von in den begleitenden Zeichnungen veranschaulichten Ausführungsformen der vorliegenden Erfindung.
-
KURZE BESCHREIBUNG DER ZEICHNUNGEN
-
1 ist eine schematische Ansicht eines eine Erkennungseinrichtung aufweisenden Systems auf der Grundlage der vorliegenden Erfindung.
-
2 ist ein Flussdiagramm, in dem die Operation der in 1 dargestellten Erkennungseinrichtung veranschaulicht wird.
-
3 ist ein weiteres Flussdiagramm, in dem die Operation der in 1 dargestellten Erkennungseinrichtung veranschaulicht wird.
-
4 ist eine Ansicht, auf der ein Roboter und Bilder dargestellt werden.
-
5 ist eine Ansicht, auf der ein erstes Bild und ein zweites Bild dargestellt werden.
-
6A ist eine weitere Ansicht, auf der ein Roboter und Bilder dargestellt werden.
-
6B ist noch eine weitere Ansicht, auf der ein Roboter und Bilder dargestellt werden.
-
DETAILLIERTE BESCHREIBUNG
-
Ausführungsformen der vorliegenden Erfindung werden unter Bezugnahme auf die begleitenden Zeichnungen beschrieben. Auf sämtlichen Zeichnungen werden gleiche Bezugszahlen gleichen Elementen zugeordnet. Der Maßstab der Zeichnungen wird auf geeignete Weise geändert, um das Verständnis zu erleichtern.
-
1 ist eine schematische Ansicht eines eine Erkennungseinrichtung aufweisenden Systems auf der Grundlage der vorliegenden Erfindung. Wie in 1 dargestellt, umfasst das System 1 einen Roboter 10 und eine Steuervorrichtung 20, die den Roboter 10 steuert. Die Steuervorrichtung 20 dient ebenfalls als Erkennungseinrichtung, die eine dreidimensionale Position eines Objekts erkennt. Wenngleich der in 1 dargestellte Roboter 10 ein Vertikal-Knickarmroboter ist, kann alternativ auch jeder andere Robotertyp eingesetzt werden. Darüber hinaus wird eine Kamera 30 an einem distalen Ende des Roboters 10 oder in dessen Nachbarschaft angebracht. Eine Position/Ausrichtung der Kamera 30 wird in Abhängigkeit von dem Roboter 10 bestimmt. Jede andere Art einer Bilderfassungseinheit kann statt der Kamera 30 verwendet werden.
-
Außerdem ist in 1 ein Projektor 35 dargestellt, welcher so konfiguriert ist, dass er ein Spotlight auf ein Objekt W, wie etwa ein Werkstück, projiziert. Die Kamera 30 kann ein Bild mit einem klaren Spotlight-Punkt als charakteristischen Punkt mithilfe des Projektors 35 erfassen. Somit kann eine Bildverarbeitungseinheit 31, die im Folgenden beschrieben wird, Bildverarbeitung eines abgebildeten Bilds auf zufriedenstellende Weise durchführen. Sie kann derart konfiguriert sein, dass die Position/Ausrichtung des Projektors 35 durch die Steuervorrichtung 20 gesteuert wird. Dabei kann der Projektor 35 auf dem Roboter 10 angebracht werden.
-
Die Steuervorrichtung 20, bei der es sich um einen digitalen Computer handeln kann, steuert den Roboter 10 und dient als Erkennungseinrichtung, die eine dreidimensionale Position des Objekts W erkennt. Wie in 1 dargestellt, schließt die Steuervorrichtung 20 eine Bildspeichereinheit 21 ein, die Bilder des Objekts W speichert, welche sequentiell durch die Kamera 30 abgebildet werden, wenn sich der Roboter 10 bewegt.
-
Außerdem umfasst die Steuervorrichtung 20 eine Datenspeichereinheit 22 für Position/Ausrichtung, welche, wenn zwei aufeinanderfolgende Bildern einer früheren Phase unter den Bildern als ein erstes Bild und ein zweites Bild festgelegt werden, erste Positions-/Ausrichtungsinformation des Roboters speichert, wenn das erste Bild abgebildet wird, und welche, wenn zwei Bilder einer späteren Phase unter den Bildern als ein erstes Bild und ein zweites Bild festgelegt werden, zweite Positions-/Ausrichtungsinformation des Roboters speichert, wenn das zweite Bild abgebildet wird. Darüber hinaus schließt die Steuervorrichtung 20 eine Positionsinformation-Speichereinheit 23 ein, welche erste Positionsinformation eines charakteristischen Punkts in einem Koordinatensystem der Bilderfassungseinheit speichert, der in dem ersten Bild der aufeinanderfolgenden zwei Bilder unter den Bildern erkannt wurde, und zweite Positionsinformation des einen charakteristischen Punkts in dem Koordinatensystem der Bilderfassungseinheit speichert, der in dem zweiten Bild der letzten beiden Bilder erkannt wurde. Darüber hinaus enthält die Steuervorrichtung 20 eine Bildverarbeitungseinheit 31, die das erste Bild und das zweite Bild verarbeitet und einen charakteristischen Punkt erkennt.
-
Darüber hinaus enthält die Steuervorrichtung 20 eine Sichtlinieninformation-Berechnungseinheit 24, die eine erste Sichtlinieninformation des einen charakteristischen Punkts in einem Koordinatensystem des Roboters unter Verwendung der ersten Positions-/Ausrichtungsinformation des Roboters und der ersten Positionsinformation des einen charakteristischen Punkts berechnet und zweite Sichtlinieninformation des charakteristischen Punkts in dem Koordinatensystem des Roboters unter Verwendung der zweiten Positions-/Ausrichtungsinformation des Roboters und die zweiten Positionsinformation des einen charakteristischen Punkts eines zweiten Bildes berechnet, und eine Erkennungseinheit für eine dreidimensionale Position 25, die eine dreidimensionale Position des Objekts auf der Grundlage eines Schnittpunkts der ersten Sichtlinieninformation und der zweiten Sichtlinieninformation erkennt.
-
Die Sichtlinieninformation-Berechnungseinheit 24 kann eine erste Sichtlinieninformation und eine zweite Sichtlinieninformation von mindestens drei charakteristischen Punkten berechnen. Darüber hinaus kann die Erkennungseinheit für eine dreidimensionale Position 25 eine dreidimensionale Position jedes der mindestens drei charakteristischen Punkte auf der Grundlage des Schnittpunkts der berechneten ersten Sichtlinieninformation und zweiten Sichtlinieninformation erkennen, wodurch sie eine dreidimensionale Position/Ausrichtung eines Werkstücks erkennt, das die mindestens drei charakteristischen Punkte aufweist.
-
Darüber hinaus enthält die Steuervorrichtung 20 Folgendes: eine Bestimmungseinheit der Bewegungsrichtung 26, welche die Bewegungsrichtung bestimmt, in welche die Kamera 30 durch die Bewegung des Roboters 10 bewegt wird; eine Erkennungseinheit für charakteristische Punkte 27, die, wenn zwei aufeinanderfolgende Bilder untern den Bildern sequentiell durch die Bilderfassungseinheit abgebildet werden, wenn sich der Roboter bewegt, als ein erstes Bild und ein zweites Bild festgelegt werden, einen in dem ersten Bild erkannten charakteristischen Punkt und charakteristische Punkte in dem zweiten Bild erkannt, einschließlich des in dem ersten Bild erkannten einen charakteristischen Punkts; eine Abstandsberechnungseinheit 28, die jeweils den Abstand zwischen dem einen charakteristischen Punkt in dem ersten Bild und den charakteristischen Punkten in dem zweiten Bild berechnet; und eine Bestimmungseinheit für charakteristische Punkte 29, die einen charakteristischen Punkt bestimmt, für welchen der vorstehende Abstand der kürzeste ist.
-
2 und 3 sind Flussdiagramme, die den Betrieb der in 1 dargestellten Erkennungseinrichtung darstellt, und 4 ist eine einen Roboter und Bilder darstellende Ansicht. Mit Bezug auf 2 bis 4 wird nun eine Beschreibung des Betriebs der Erkennungseinrichtung gemäß der vorliegenden Erfindung vorgenommen. Das in einer vorgegebenen Position platzierte Objekt W weist charakteristische Punkte auf, wie das Zentrum einer Öffnung eines Werkstücks und einen Eckabschnitt des Werkstücks.
-
Bei Schritt S11 beginnt der Roboter 10 sich zu bewegen, wie in 4 dargestellt. Bei Schritt S12 bildet die auf dem Roboter 10 vorgesehene Kamera 30 ein Bild Ga des Objekts W ab. Das Bild Ga wird in der Bildspeichereinheit 21 gespeichert und als ein erstes Bild G1 festgelegt.
-
Wie aus dem Bezug zu 4 ersichtlich ist, ist es derart konfiguriert, dass die auf dem Roboter 10 vorgesehene Kamera 30 sequentiell mehrere Bilder Ga bis Gn (n ist eine natürliche Zahl) des Objekts W abbildet. In 4 werden diese Bilder Ga bis Gn in der Kamera 30 entsprechend einer Bewegungsposition des Roboters angezeigt.
-
Anschließend erkennt die Erkennungseinheit für charakteristische Punkte 27 bei Schritt S13 einen charakteristischen Punkt aus dem ersten Bild G1. Wenn charakteristische Punkte aus dem ersten Bild G1 erkannt werden, kann ein beliebiger charakteristischer Punkt, zum Beispiel ein im Zentrum des Bildes befindlicher charakteristischer Punkt als der eine vorstehend beschriebene charakteristische Punkt festgelegt werden.
-
5 stellt das erste Bild und das zweite Bild dar. In dem in 5 dargestellten ersten Bild G1 werden die charakteristischen Punkte K1 bis K3 angegeben, die durch ausgefüllte Kreise wiedergegeben werden. In 5 wird der relativ im Zentrum des ersten Bildes G1 befindliche charakteristische Punkt K1 als der eine vorstehend beschriebene charakteristische Punkt festgelegt.
-
Anschließend bildet bei Schritt S14 die auf dem sich weiterhin bewegenden Roboter 10 angebrachte Kamera 30 ein Bild Gb des Objekts W ab. Das Bild Gb wird in der Bildspeichereinheit 21 gespeichert und als das zweite Bild G2 festgelegt. Mit anderen Worten, zwei aufeinanderfolgende Bilder Ga und Gb werden als das erste Bild G1 und das zweite Bild G2 festgelegt.
-
Anschließend erkennt die Erkennungseinheit für charakteristische Punkte 27 bei Schritt 515 charakteristische Punkte aus dem zweiten Bild G2. Es ist erforderlich, dass die charakteristischen Punkte des zweiten Bildes G2, die durch die Erkennungseinheit für charakteristische Punkte 27 detektiert werden, den einen charakteristischen Punkt des vorstehend beschriebenen ersten Bildes G1 enthalten.
-
Das zweite Bild G2 von 5 zeigt die charakteristischen Punkte K1' und K2', die den charakteristischen Punkten K1 und K2 des ersten Bildes G1 entsprechen, und andere charakteristische Punkte K3' und K4', welche nicht in dem ersten Bild G1 enthalten sind. Darüber hinaus ist in dem zweiten Bild G2 der charakteristische Punkt K1 an einer Position angegeben, die dem charakteristischen Punkt K1 des ersten Bildes G1 entspricht.
-
Anschließend berechnet die Abstandsberechnungseinheit 28 bei Schritt S16 einen Abstand zwischen der Position des einen charakteristischen Punkts in dem ersten Bild G1 und der Position jedes der charakteristischen Punkte in dem zweiten Bild G2. Mit anderen Worten, die Abstandsberechnungseinheit 28 berechnet einen Abstand zwischen dem in 5 angegebenen charakteristischen Punkt K1 und jedem der charakteristischen Punkte K1' bis K3'.
-
Anschließend bestimmt die Bestimmungseinheit für charakteristische Punkte 29 bei Schritt S17 einen charakteristischen Punkt, für welchen der Abstand am kleinsten ist. In 5 erkennt man, dass der Abstand zwischen dem charakteristischen Punkt K1 und dem charakteristischen Punkt K1' der kürzeste ist. Folglich bestimmt die Bestimmungseinheit für charakteristische Punkte 29 den charakteristischen Punkt K1' als einen charakteristischen Punkt, für den der Abstand der kürzeste ist. Selbst wenn sich der Roboter 10 mit hoher Geschwindigkeit bewegt, ist es in einem solchen Fall möglich, die dreidimensionale Position des Objekts zu bestimmen, während die Zuordnung der Bilder vereinfacht wird.
-
Danach wird bei Schritt S18 festgelegt, ob die vorstehend beschriebene Verarbeitung in Bezug auf eine gewünschte Zahl von Bildern durchgeführt wurde. Da die vorstehend beschriebene Verarbeitung nicht in Bezug auf das gewünschte Bild durchgeführt wurde, wird in diesem Fall der charakteristische Punkt K1' des zweiten Bildes G2 als der eine charakteristische Punkt K1 des ersten Bildes gespeichert, und die Routine kehrt zu Schritt S14 zurück. Alternativ kann es sein, dass das zweite Bild durch das erste Bild ersetzt wird, der charakteristische Punkt K1' als der charakteristische Punkt K1 gespeichert wird, und die Routine zu Schritt S14 zurückkehrt. Die gewünschte Zahl beträgt vorzugsweise 2 oder mehr. Im Folgenden wird das nächste aufeinanderfolgende Bild Gc der in 4 dargestellten Bilder als das zweite Bild G2 festgelegt, und die vorstehend beschriebene Verarbeitung wird wiederholt.
-
Angenommen, diese Verarbeitung wird wiederholt, bis die Gesamtzahl der gewünschten Bilder verarbeitet wurde, so wird auf diese Weise der charakteristische Punkt K über die Bilder Ga bis Gn verfolgt. Da die Position des charakteristischen Punkts K in dem Objekt W bekannt ist, kann das Objekt W verfolgt werden. In einer nicht in den Zeichnungen dargestellten Ausführungsform kann die vorstehend beschriebene Verarbeitung durchgeführt werden, nachdem eine erwünschte Zahl von Bildern abgebildet ist, wenn sich der Roboter 10 bewegt.
-
In 4 werden die Bilder Ga bis Gn, ausgehend von einem ersten Paar Bilder als das erste Bild G1 und das zweite Bild G2, in eine Reihenfolge gebracht. Das erste Bild G1 und das zweite Bild G2 können jedoch auf andere Weise festgelegt werden, als in 4 dargestellt.
-
6A ist eine weitere Ansicht, in der ein Roboter und mehrere Bilder dargestellt werden. In 6A werden die Bilder Gc und Gd als das erste Bild G1 und das zweite Bild G2 in der ersten Ausführung der Schritte S12 bis S17 festgelegt. Mit anderen Worten, es ist nicht immer notwendig, die Bilder Ga und Gb zu verwenden. Gleichermaßen ist es nicht immer notwendig, die letzten aufeinanderfolgenden Bilder Gn – 1 und Gn zu verwenden, und zum Beispiel können die Bilder Gn – 3 und Gn – 2 als die letzten aufeinanderfolgenden Bilder verwendet werden.
-
In 6B werden die zwei aufeinanderfolgenden Bilder Ga und Gb als das erste Bild G1 und das zweite Bild G2 in der ersten Verarbeitung festgelegt. Darüber hinaus werden in der zweiten Verarbeitung die beiden Bilder Gb und Gd festgelegt. Das Bild Gc wird nicht verwendet. Auf diese Weise kann, wie ersichtlich, ein Teil der Bilder entfallen, und in einem solchen Fall können zwei alternierend aufeinanderfolgende Bilder verwendet werden, wodurch die Verarbeitungszeit reduziert werden kann.
-
Im Folgenden wird die Beschreibung unter der Annahme fortgesetzt, dass das erste Bild G1 und das zweite Bild G2 mit Bezug auf 4 festgelegt wurden. Unter Bezugnahme auf 3 wird bei Schritt S19 die erste Positions-/Ausrichtungsinformation PR1 des Roboters 10 in der Positions-/Ausrichtungsinformation-Speichereinheit 22 gespeichert, wenn das erste Bild G1 aus den ersten beiden Bildern Ga und Gb unter den Bildern, d. h. das Bild Ga, abgebildet wird.
-
Anschließend wird bei Schritt S20 die zweite Positions-/Ausrichtungsinformation PR2 des Roboters 10 in der Positions-/Ausrichtungsinformation-Speichereinheit 22 gespeichert, wenn das zweite Bild G2 aus den letzten beiden Bildern G(n – 1) und Gn unter den Bildern, d. h. das Bild Gn, abgebildet wird. Da sich der Roboter 10 wie vorstehend beschrieben bewegt, sind die zweite Positions-/Ausrichtungsinformation PR2 und die erste Positions-/Ausrichtungsinformation PR1 voneinander verschieden.
-
Anschließend wird bei Schritt S21 die erste Positionsinformation PW1 des vorstehend beschriebenen einen charakteristischen Punkts K1 in dem ersten Bild G1 der ersten beiden Bilder Ga und Gb unter den Bildern, d. h das Bild Ga, in der Positionsinformation-Speichereinheit 23 gespeichert. Danach wird bei Schritt S22 die zweite Positionsinformation PW2 des charakteristischen Punkts K1', für welchen der vorstehend beschriebene Abstand der kürzeste ist, des zweiten Bildes G2 der letzten beiden Bilder G(n – 1) und Gn unter den Bildern, d. h das Bild Gn, in der Positionsinformation-Speichereinheit 23 gespeichert.
-
Anschließend berechnet bei Schritt S23 die Sichtlinieninformation-Berechnungseinheit 24 erste Sichtlinieninformation L1 auf der Grundlage der ersten Positions-/Ausrichtungsinformation PR1 und der ersten Positionsinformation PW1. Gleichermaßen berechnet die Sichtlinieninformation-Berechnungseinheit 24 zweite Sichtlinieninformation L2 auf der Grundlage der zweiten Positions-/Ausrichtungsinformation PR2 und der zweiten Positionsinformation PW2. Wie aus 4 ersichtlich ist, sind die ersten und zweiten Teile der Sichtlinieninformation L1 und L2 Sichtlinien, die jeweils von der Kamera 30 zu dem Objekt W verlaufen. Die ersten und zweiten Teile der Sichtlinieninformation L1 und L2 werden durch ein Kreuz in dem ersten Bild G1 und dem zweiten Bild G2 in 5 bezeichnet.
-
Anschließend erkennt die Erkennungseinheit für eine dreidimensionale Position 25 bei Schritt S24 eine dreidimensionale Position des Objekts W anhand eines Schnittpunkts oder eines ungefähren Schnittpunkts der ersten und zweiten Teile der Sichtlinieninformation L1 und L2. Wie vorstehend, ist es gemäß der vorliegenden Erfindung möglich, eine dreidimensionale Position des Objekts W zu erkennen, ohne zwei charakteristische Punkte zuzuordnen, die, wie nach dem Stand der Technik, mithilfe mehrerer Kameras oder mehrerer Objektive erkannt werden, da charakteristische Punkte unter Verwendung von mehreren Bilder verfolgt werden, welche aufeinanderfolgend abgebildet werden, während der Roboter 10 bewegt wird,. Daher ist es gemäß der vorliegenden Erfindung möglich, die Kosten zu reduzieren, während die Konfiguration des gesamten Systems 1 vereinfacht wird.
-
Mit anderen Worten können charakteristische Punkte des Objekts in dem ersten Bild G1 und dem zweiten Bild G2 durch Verfolgen eines charakteristischen Punkts positiv als Stereopaar zugeordnet werden, während sich der Roboter 10 bewegt.
-
Da in der vorliegenden Erfindung die Zuordnung auf der Grundlage der Verfolgung charakteristischer Punkte erfolgt, selbst wenn sich der Roboter 10 mit hoher Geschwindigkeit bewegt, wird die Zuordnung der Bilder aufeinanderfolgend und sequentiell durchgeführt, sodass keine Notwendigkeit besteht, jeden charakteristischen Punkt des Objekts in dem ersten Bild G1 und dem zweiten Bild G2 zu erkennen und zuzuordnen, nachdem die Bewegung des Roboters 10 abgeschlossen ist. Da die Zuordnung von Stereopaaren darüber hinaus einfach und zuverlässig ist, kann die Zuverlässigkeit im Vergleich zum Stand der Technik verbessert werden.
-
Unterdessen befindet sich unter den mehrere charakteristische Punkte umfassenden Werkstücken ein Werkstück, dessen dreidimensionale Position/Ausrichtung mithilfe der dreidimensionalen Positionen der mindestens drei charakteristischen Punkte bestimmt wird. Wenn die dreidimensionale Position/Ausrichtung eines solchen Werkstücks bestimmt wird, erkennt die Erkennungseinheit für charakteristische Punkte 27 in dem zweiten Bild G2 zunächst, mindestens drei in dem ersten Bild G1 befindliche charakteristische Punkte. Danach können, wie im Vorstehenden, drei charakteristische Punkte verfolgt werden und in mehreren Bildern erkannt werden, welche nacheinander abgebildet werden.
-
Die Sichtlinien-Datenberechnungseinheit 24 berechnet anschließend die ersten Sichtlinieninformation und die zweiten Sichtlinieninformation der mindestens drei charakteristischen Punkte. Darüber hinaus erkennt die Erkennungseinheit für eine dreidimensionale Position 25 eine dreidimensionale Position jeder von mindestens drei charakteristischen Punkten aus dem jeweiligen Schnittpunkt der berechneten ersten und zweiten Teile der Sichtlinieninformation. Auf diese Weise kann die Erkennungseinheit für eine dreidimensionale Position 25 die dreidimensionale Position/Ausrichtung des Werkstücks erkennen.
-
Aspekte der Offenbarung
-
Um den vorstehenden Zweck zu erreichen, wird gemäß einer ersten Offenbarung ein Erkennungsverfahren zur Erkennung einer dreidimensionalen Position eines Objekts das einen oder mehrere charakteristische Punkte aufweist, in einem System zur Verfügung gestellt, das einen Roboter und eine Bilderfassungseinheit aufweist, welche benachbart zu einem distalen Ende des Roboters gelagert ist, wobei das Erkennungsverfahren folgende Schritte umfasst: sequentielle Abbildung von mehreren Bildern des Objekts durch die Bilderfassungseinheit, wenn sich der Roboter bewegt; wenn aufeinanderfolgende oder zumindest alternierend aufeinanderfolgende Bilder unter den Bildern als ein erstes Bild und ein zweites Bild festgelegt werden, Erkennen mehrerer charakteristischer Punkte in dem zweiten Bild erkannt, umfassend einen in dem ersten Bild erkannten charakteristischen Punkt; Berechnen jedes Abstands zwischen dem einen charakteristischen Punkt in dem ersten Bild und den charakteristischen Punkten in dem zweiten Bild; Bestimmen eines charakteristischen Punkts, für welchen der Abstand der kürzeste ist, und Wiederholen der Verarbeitung zur Bestimmung des charakteristischen Punkts, für welchen der Abstand der kürzeste ist, wobei zwei aufeinanderfolgende oder zumindest alternierend aufeinanderfolgende Bilder unter den Bildern als das erste Bild und das zweite Bild festgelegt werden, wodurch der eine charakteristische Punkt des Objekts verfolgt wird.
-
Gemäß einer zweiten Offenbarung schließt das Erkennungsverfahren gemäß der ersten Offenbarung ferner folgende Schritte ein: Speichern erster Positions-/Ausrichtungsinformation des Roboters, wenn das erste von zwei Bildern aus einer früheren Phase unter den Bildern, in welchen die charakteristischen Punkte erkannt werden, abgebildet wird; Speichern zweiter Positions-/Ausrichtungsinformation des Roboters, wenn das zweite Bild von zwei Bildern aus einer späteren Phase unter den Bildern abgebildet wird; Speichern der ersten Positionsinformation in einem Bilderfassungseinheit-Koordinatensystem des einen charakteristischen Punkts, der in dem ersten Bild erkannt wurde; Speichern der zweiten Positionsinformation in dem Bilderfassungseinheit-Koordinatensystem der in dem zweiten Bild erkannten charakteristischen Punkte; Berechnen einer ersten Sichtlinieninformation des einen charakteristischen Punkts in einem Koordinatensystem des Roboters unter Verwendung der ersten Positions-/Ausrichtungsinformation des Roboters und der ersten Positionsinformation des einen charakteristischen Punkts, Berechnen einer zweiten Sichtlinieninformation der charakteristischen Punkte in dem Koordinatensystem des Roboters unter Verwendung der zweiten Positions-/Ausrichtungsinformation des Roboters und der zweiten Positionsinformation der charakteristischen Punkte und Erkennen einer dreidimensionalen Position des Objekts anhand eines Schnittpunkts der ersten Sichtlinieninformation und der zweiten Sichtlinieninformation.
-
Gemäß einer dritten Offenbarung umfasst das Erkennungsverfahren gemäß der zweiten Offenbarung ferner den Schritt der Projektion eines Spotlights auf das Objekt, wodurch die Erkennung der charakteristischen Punkte erleichtert wird.
-
Gemäß einer vierten Offenbarung umfasst das Erkennungsverfahren gemäß der zweiten Offenbarung, bei dem das Objekt mindestens drei charakteristische Punkte umfasst, ferner: Erkennen mindestens drei in dem ersten Bild befindlicher charakteristischer Punkte in dem zweiten Bild; Berechnen jeweils der ersten Sichtlinieninformation und der zweiten Sichtlinieninformation der mindestens drei charakteristischen Punkte und Erkennen der jeweiligen dreidimensionalen Position der mindestens drei charakteristischen Punkte anhand des jeweiligen Schnittpunkts der berechneten ersten und zweiten Teile der Sichtlinieninformation, wodurch eine dreidimensionale Position/Ausrichtung des Objekts, das die mindestens drei charakteristischen Punkte aufweist, erkannt wird.
-
Gemäß einer fünften Offenbarung wird eine Erkennungseinrichtung zur Erkennung einer dreidimensionalen Position eines Objekts, das einen oder mehrere charakteristische Punkte aufweist, in einem System zur Verfügung gestellt, das einen Roboter und eine Bilderfassungseinheit aufweist, welche benachbart zu einem distalen Ende des Roboters gelagert ist, wobei die Erkennungseinrichtung Folgendes umfasst: eine Erkennungseinheit für charakteristische Punkte, die wenn zwei aufeinanderfolgende oder zumindest alternierend aufeinanderfolgende Bilder unter den Bildern des Objekts, die durch die Bilderfassungseinheit sequentiell abgebildet werden, wenn sich der Roboter bewegt, als ein erstes Bild und ein zweites Bild festgelegt werden, mehrere charakteristische Punkte in dem zweiten Bild erkennt, einschließlich eines in dem ersten Bild erkannten charakteristischen Punkts; eine Abstandsberechnungseinheit, die jeweils den Abstand zwischen dem einen charakteristischen Punkt in dem ersten Bild und den charakteristischen Punkten in dem zweiten Bild berechnet, und eine Bestimmungseinheit für charakteristische Punkte, die einen charakteristischen Punkt bestimmt, für welchen der Abstand der kürzeste ist, wobei, wenn zwei nächste aufeinanderfolgende oder zumindest alternierend aufeinanderfolgende Bilder unter den Bildern als das erste Bild und das zweite Bild festgelegt werden, die Verarbeitung zur Bestimmung des charakteristischen Punkts, für welchen der Abstand der kürzeste ist, wiederholt wird, wodurch der eine charakteristische Punkt des Objekts verfolgt wird.
-
Gemäß einer sechsten Offenbarung umfasst die Erkennungseinrichtung gemäß der fünften Offenbarung ferner Folgendes: eine Bildspeichereinheit, die mehrere Bilder des Objekts speichert, die durch die Bilderfassungseinheit sequentiell abgebildet werden, wenn sich der Roboter bewegt; eine Ausrichtungsinformation-Speichereinheit, die erste Positions-/Ausrichtungsinformation des Roboters speichert, wenn das erste Bild von zwei Bildern aus einer früheren Phase unter den Bildern, in welchen die charakteristischen Punkte erkannt werden, abgebildet wird, und zweite Positions-/Ausrichtungsinformation des Roboters speichert, wenn das zweite Bild von zwei Bildern aus einer späteren Phase unter den Bildern abgebildet wird; eine Positionsinformation-Speichereinheit, die erste Positionsinformation des einen in dem ersten Bild erkannten charakteristischen Punkts in einem Bilderfassungseinheit-Koordinatensystem speichert und die zweite Positionsinformation der in dem zweiten Bild erkannten charakteristischen Punkte in dem Bilderfassungseinheit-Koordinatensystem speichert; eine Sichtlinien-Datenberechnungseinheit, die erste Sichtlinieninformation des einen charakteristischen Punkts in einem Koordinatensystem des Roboters unter Verwendung der ersten Positions-/Ausrichtungsinformation des Roboters und der ersten Positionsinformation des einen charakteristischen Punkts berechnet und die zweite Sichtlinieninformation des einen charakteristischen Punkts in dem Koordinatensystem des Roboters unter Verwendung der zweiten Positions-/Ausrichtungsinformation des Roboters und der zweiten Positionsinformation des einen charakteristischen Punkts berechnet, und eine Erkennungseinheit einer dreidimensionalen Position, die eine dreidimensionale Position des Objekts anhand eines Schnittpunkts der ersten Sichtlinieninformation und der zweiten Sichtlinieninformation erkennt.
-
Gemäß einer siebten Offenbarung umfasst die Erkennungseinrichtung gemäß der sechsten Offenbarung ferner einen Projektor, der ein Spotlight auf das Objekt projiziert.
-
Gemäß einer achten Offenbarung umfasst die Erkennungseinrichtung gemäß der sechsten Offenbarung, bei der das Objekt mindestens drei charakteristische Punkte umfasst, ferner Folgendes: eine Erkennungseinheit für charakteristische Punkte, die in dem zweiten Bild mindestens drei in dem ersten Bild befindliche charakteristische Punkte erkennt; eine Sichtlinien-Datenberechnungseinheit, welche jeweils die ersten Sichtlinieninformation und die zweiten Sichtlinieninformation der mindestens drei charakteristischen Punkte berechnet, und eine Erkennungseinheit einer dreidimensionalen Position, die eine dreidimensionale Position jedes der mindestens drei charakteristischen Punkte anhand des jeweiligen Schnittpunkts der berechneten ersten und zweiten Teile der Sichtlinieninformation erkennt, wodurch sie eine dreidimensionale Position/Ausrichtung des Objekts, das die mindestens drei charakteristischen Punkte aufweist, erkennt.
-
Vorteil der Offenbarung
-
In der ersten und fünften Offenbarung besteht keine Notwendigkeit, mehrere Bilderfassungseinheiten oder mehrere Objektive zu verwenden, da das Objekt mithilfe der beiden Bilder, die während der Bewegung des Roboters abgebildet werden, verfolgt wird. Infolgedessen können die Kosten reduziert werden, während die Konfiguration des gesamten Systems vereinfacht wird.
-
Da der eine als Stereopaar in dem ersten Bild und dem zweiten Bild zuzuordnende charakteristische Punkt derart festgelegt wird, dass der Roboter sich bewegt und Bilder über eine Zeitspanne abbildet, wobei der Abstand zwischen dem einen charakteristischen Punkt des ersten Bildes und den charakteristischen Punkten des zweiten Bildes der kürzeste wird, kann weiterhin der eine charakteristische Punkt durch das Verfahren gemäß der ersten Offenbarung positiv verfolgt werden und es ist somit nicht notwendig, nach der Bewegungsmanipulation durch den Roboter eine Zuordnung durchzuführen. Infolgedessen ist es zum Beispiel möglich, in einem Behälter, in welchem viele Teile mit derselben Form enthalten sind, durch Verfolgen eines charakteristischen Punkts, wie etwa eines Lochs eines bestimmten Teils, eine Zuordnung als Stereopaar in dem ersten Bild in einer früheren Phase der Bewegung und in dem zweiten Bild in einer späteren Phase der Bewegung positiv auszuführen. Da die Zuordnung des Stereopaars auf einfache und positive Weise durchgeführt werden kann, ist es darüber hinaus möglich, die Zuverlässigkeit im Vergleich zum Stand der Technik zu verbessern, die zur Durchführung der Zuordnung des Stereopaars benötigte Zeit stark zu reduzieren, welche zu einer hohen Verarbeitungslast führt, und eine Reduktion der Kosten für die Vorrichtung zu erzielen.
-
Da ein charakteristischer Punkt eingesetzt wird, für welchen der Abstand der kürzeste ist, ist es in der zweiten und sechsten Offenbarung möglich, eine dreidimensionale Position des Objekts zu bestimmen, während die Zuordnung von Bildern leicht durchgeführt wird, selbst wenn sich der Roboter mit hoher Geschwindigkeit bewegt.
-
Da ein Bild, in welchem ein deutliches Spotlight ein charakteristischer Punkt ist, erfasst werden kann, ist es möglich, in der dritten und siebten Offenbarung Bildverarbeitung auf zufriedenstellende Weise durchzuführen.
-
In der vierten und achten Offenbarung ist es möglich, eine dreidimensionale Position/Ausrichtung des Objekts über dreidimensionale Positionen von drei charakteristischen Punkten zu erkennen, die das Objekt aufweist.
-
Wenngleich die vorliegende Offenbarung unter Verwendung von exemplarischen Ausführungsformen beschrieben wurde, werden Fachleute in der Lage sein zu verstehen, dass die vorstehend beschriebenen Änderungen und verschiedenen anderen Modifikationen, Auslassungen und Zusätze vorgenommen werden können, ohne vom Umfang der vorliegenden Erfindung abzuweichen.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- JP 3859371 [0003]
- JP 2012-192473 [0003]
- JP 2004-90183 [0003]
- JP 2014-34075 [0003]
- JP 2009-241247 [0003]