-
GEBIET DER ERFINDUNG
-
Die vorliegende Erfindung betrifft ein Objektfördersystem.
-
ALLGEMEINER STAND DER TECHNIK
-
Im Stand der Technik werden, in dem Fall, in dem Arbeiten wie Handhabung oder Ähnliches gemäß der Position und der Ausrichtung eines großen Objekts wie eines Fahrzeugkörpers, der von einem Förderer gefördert wird, ausgeführt werden, Bilder von drei bekannten Messmarken, die an dem Objekt vorgesehen sind, einzeln unter Verwendung von drei Kameras aufgenommen, und die Position und die Ausrichtung des Objekts werden von der Positionsbeziehung der erfassten drei bekannten Messmarken dreidimensional gemessen (siehe beispielsweise Patentliteratur 1).
-
ENTGEGENHALTUNGSLISTE
-
PATENTLITERATUR
-
PTL 1 Japanische nicht geprüfte Patentanmeldung, Veröffentlichung Nr. Hei 7–13613
-
KURZDARSTELLUNG DER ERFINDUNG
-
TECHNISCHE AUFGABE
-
Es ist jedoch im Allgemeinen schwierig, die Position und die Ausrichtung eines Objekts während des Bewegens des Objekts unter Verwendung des Förderers zu messen, und somit wird diese Messung in einem Zustand ausgeführt, in dem der Förderer vorübergehend gestoppt wird. In dem Fall, in dem die Messungen genommen werden, indem der Förderer gestoppt wird, besteht das Problem, dass die Arbeitseffizienz vermindert ist, was die Produktivität behindert.
-
Eine Aufgabe der vorliegenden Erfindung ist es, ein Objektfördersystem bereitzustellen, mit dem es möglich ist, während sich das Objekt bewegt, die Position und Ausrichtung eines Objekts präzise dreidimensional zu messen, ohne eine Fördervorrichtung zu stoppen.
-
LÖSUNG DER AUFGABE
-
Ein Aspekt der vorliegenden Erfindung ist ein Objektfördersystem, umfassend: eine Fördervorrichtung, die ein Objekt fördert, das mit drei oder mehr Merkmalspunkten versehen ist, die in bekannter Positionsbeziehung in Bezug zueinander angeordnet sind; eine Kamera, die Bilder der einzelnen Merkmalspunkte des Objekts aufnimmt, das von der Fördervorrichtung gefördert wird; eine Positionsmesseinheit, die Positionen der einzelnen Merkmalspunkte aus den Bildern misst, die von der Kamera erfasst wurden; eine Detektionseinheit, die die Position des Objekts oder eine Bewegungsgeschwindigkeit davon detektiert, die von der Fördervorrichtung erzielt wird; eine Positionskorrektureinheit, die basierend auf der Position oder der Bewegungsgeschwindigkeit, die von der Detektionseinheit detektiert wird, und Differenzen in den Zeiten, zu denen die einzelnen Bilder von der Kamera aufgenommen wurden, die Positionen der einzelnen Merkmalspunkte korrigiert, die von der Positionsmesseinheit gemessen wurden, sodass Positionen erzielt werden, in denen die Merkmalspunkte zur gleichen Zeit angeordnet sind; eine Sichtlinienberechnungseinheit, die Sichtlinien berechnet, die durch die einzelnen Merkmalspunkte basierend auf den Positionen der einzelnen Merkmalspunkte, die von der Positionskorrektureinheit korrigiert werden, und die Position der Kamera verlaufen; und eine Positionsberechnungseinheit, die mindestens eine dreidimensionale Position des Objekts berechnet, indem sie ein Polygon, das eine bekannte Form aufweist, bei dem die Positionen der einzelnen Merkmalspunkte als Scheitelpunkte davon dienen, auf die drei oder mehr Sichtlinien anwendet, die von der Sichtlinienberechnungseinheit berechnet werden.
-
Gemäß diesem Aspekt nimmt, wenn das Objekt von der Fördervorrichtung gefördert wird, die Kamera Bilder der drei oder mehr Merkmalspunkte auf, die an dem Objekt vorgesehen sind, und die Positionsmesseinheit misst die Positionen der einzelnen Merkmalspunkte aus den erfassten Bildern. Die Detektionseinheit detektiert die Position oder die Bewegungsgeschwindigkeit des Objekts, die von der Fördervorrichtung erzielt wird, und die Positionen der Merkmalspunkte, die von der Positionsmesseinheit gemessen werden, werden basierend auf den Differenzen in der Zeit, zu der die einzelnen Bilder von der Kamera erfasst wurden, und der Position oder der Bewegungsgeschwindigkeit korrigiert, sodass Positionen erzielt werden, an denen die Merkmalspunkte zur gleichen Zeit angeordnet sind.
-
Die Sichtlinienberechnungseinheit berechnet basierend auf den korrigierten Positionen der einzelnen Merkmalspunkte und der Position der Kamera die Sichtlinien, die durch die einzelnen Merkmalspunkte verlaufen. Dann wendet die Positionsberechnungseinheit das Polygon, in dem die Positionen der einzelnen Merkmalspunkte als die Scheitelpunkte davon dienen, auf die drei oder mehr Merkmalspunkte an, die von der Sichtlinienberechnungseinheit berechnet werden, und dadurch ist es möglich, die Position des Objekts basierend auf der Position des Polygons zu berechnen.
-
Mit anderen Worten ist es möglich, weil die Positionen der drei oder mehr Merkmalspunkte, die von den Bildern berechnet werden, korrigiert werden, sodass die Positionen erzielt werden, an denen die Merkmalspunkte zur gleichen Zeit angeordnet sind, mindestens die Position des Objekts dreidimensional zu messen, während das Objekt bewegt wird, ohne die Fördervorrichtung zu stoppen, sogar wenn die Bilder, umfassend die einzelnen Merkmalspunkte, zu unterschiedlichen Zeiten erfasst würden, während das Objekt bewegt wird.
-
Gemäß dem zuvor beschriebenen Aspekt kann das Objekt mit drei der Merkmalspunkte versehen sein, und die Positionsberechnungseinheit kann die dreidimensionale Position und Ausrichtung des Objekts berechnen, indem sie ein Dreieck, in dem die Positionen der einzelnen Merkmalspunkte als die Scheitelpunkte davon dienen, auf die drei Sichtlinien anwendet, die von der Sichtlinienberechnungseinheit berechnet wurden.
-
Indem diese Ausgestaltung angewendet wird, berechnet die Sichtlinienberechnungseinheit die drei Sichtlinien basierend auf den Positionen der drei Merkmalspunkte, die von der Positionskorrektureinheit und der Position der Kamera korrigiert werden, und die Positionsberechnungseinheit wendet das Dreieck auf die drei Sichtlinien an. Basierend auf der Position und Neigung des angewandten Dreiecks ist es möglich, die Position und die Ausrichtung des Objekts zu berechnen, das von der Fördervorrichtung gefördert wird.
-
Unter Verwendung eines Dreiecks, das ein Polygon ist, das eine Mindestanzahl von Scheitelpunkten aufweist, die erforderlich sind, um die Position und die Neigung zu berechnen, ist es möglich, die dreidimensionale Position und Ausrichtung des Objekts in Echtzeit zu berechnen, indem die Rechenzeit vermindert wird.
-
Gemäß dem zuvor beschriebenen Aspekt können drei Kameras vorgesehen sein, und die einzelnen Kameras können an Positionen angeordnet sein, an denen jede der Kameras ein Bild eines unterschiedlichen der Merkmalspunkte aufnehmen kann.
-
Indem diese Ausgestaltung angewendet wird, ist es möglich, indem die Bilder der drei unterschiedlichen Merkmalspunkte unter Verwendung der drei Kameras aufgenommen werden, die Bilder zum Berechnen der Position und der Ausrichtung des Objekts mit einem geringeren Zeitaufwand zu erfassen.
-
Der zuvor beschriebene Aspekt kann überdies umfassen: einen Roboter, der in der Lage ist, die Kamera zu einer Position zu bewegen, an der es möglich ist, die Bilder der einzelnen Merkmalspunkte aufzunehmen.
-
Indem diese Ausgestaltung angewendet wird, ist es möglich, die Bilder der einzelnen Merkmalspunkte aufzunehmen, indem die Kamera durch Betätigen des Roboters bewegt wird, und somit ist es möglich, die erforderliche Anzahl von Kameras zu vermindern.
-
Gemäß dem zuvor beschriebenen Aspekt kann die Detektionseinheit ein Codierer sein, der in der Fördervorrichtung vorgesehen ist.
-
Indem diese Ausgestaltung angewendet wird, ist es möglich, unter Verwendung der von der Fördervorrichtung erzielten Bewegungsgeschwindigkeit des Objekts, die von dem Codierer detektiert wird, die Positionen der einzelnen Merkmalspunkte auf einfache, präzise Weise zu korrigieren.
-
Gemäß dem zuvor beschriebenen Aspekt kann die Detektionseinheit eine Position oder eine Bewegungsgeschwindigkeit des Objekts basierend auf den Bildern detektieren, die von der Kamera oder den Kameras aufgenommen wurden.
-
Indem diese Ausgestaltung angewendet wird, ist es nicht notwendig, einen besonderen Sensor zum Detektieren der Bewegungsgeschwindigkeit des Objekts vorzusehen, die von der Fördervorrichtung erzielt wird, und es ist möglich, die Positionen der einzelnen Merkmalspunkte zu korrigieren, indem auch die Bewegungsgeschwindigkeit des Objekts mittels der Kamera zum Detektieren der Position und der Ausrichtung des Objekts detektiert wird.
-
VORTEILHAFTE WIRKUNGEN DER ERFINDUNG
-
Die vorliegende Erfindung bietet einen Vorteil dahingehend, dass es möglich ist, die Position und Ausrichtung eines Objekts, während sich das Objekt bewegt, präzise dreidimensional zu messen, ohne eine Fördervorrichtung zu stoppen.
-
Figurenliste
-
- 1 ist ein Gesamtausgestaltungsdiagramm, das ein Objektfördersystem gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
- 2 ist ein Blockdiagramm, das eine Rechenvorrichtung zeigt, die in dem Objektfördersystem von 1 vorgesehen ist.
- 3 ist ein Diagramm, das einen Zustand zeigt, in dem ein Dreieck, das eine bekannte Form aufweist, auf Sichtlinien von Kameras angewandt wird, die Bilder von kreisförmigen Löchern an einem Fahrzeugkörper aufnehmen, der horizontal in dem Objektfördersystem von 1 angeordnet ist.
- 4 ist ein Diagramm, das einen Zustand zeigt, in dem das Dreieck, das die bekannte Form aufweist, auf die Sichtlinien der Kameras angewandt wird, die die Bilder der kreisförmigen Löcher an dem Fahrzeugkörper aufnehmen, der in einer geneigten Weise in Bezug auf die horizontale Position in dem Objektfördersystem von 1 angeordnet ist.
- 5 ist ein Diagramm, das eine Abwandlung des Objektfördersystems von 1 zeigt, das eine Beispieldatenbank zeigt, in der Verzögerungszeiten zu Zeiten gespeichert sind, zu denen die Bilder von den einzelnen Kameras aufgenommen wurden.
- 6 ist ein Diagramm, das eine andere Abwandlung des Objektfördersystems von 1 zeigt, das ein Diagramm zum Erklären eines Falls zeigt, in dem die Fördergeschwindigkeit des Fahrzeugkörpers von Bildern bestimmt wird.
- 7 ist ein schematisches Diagramm, das eine andere Abwandlung des Objektfördersystems von 1 zeigt, das ein schematisches Diagramm zum Erklären eines Falls ist, in dem Steuervorrichtungen einer Vielzahl von Robotern mit einer Zellensteuervorrichtung verbunden sind.
-
BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
-
Ein Objektfördersystem 1 gemäß einer Ausführungsform der vorliegenden Erfindung wird nachfolgend mit Bezug auf die Zeichnungen beschrieben.
-
Wie in 1 gezeigt, ist das Objektfördersystem 1 gemäß dieser Ausführungsform mit Folgendem versehen: einem Förderer (Fördervorrichtung) 2, der einen Fahrzeugkörper (Objekt) O fördert; einem Codierer (Bewegungsgeschwindigkeitsdetektionseinheit, Detektionseinheit) 3, der in dem Förderer 2 vorgesehen ist und der eine Fördergeschwindigkeit (Bewegungsgeschwindigkeit) des Fahrzeugkörpers O detektiert, der von dem Förderer 2 gefördert wird; drei Kameras 4A, 4B und 4C, die in der Nachbarschaft des Förderers 2 installiert sind und die von unterhalb des Fahrzeugkörpers O, der von dem Förderer 2 gefördert wird, Bilder von drei kreisförmigen Löchern (Merkmalspunkten) A, B und C aufnehmen, die an einer Bodenoberfläche des Fahrzeugkörpers O vorgesehen sind; und einer Rechenvorrichtung (siehe 2) 5, die die Position und die Ausrichtung des Fahrzeugkörpers O unter Verwendung der Bilder, die von den Kameras 4A, 4B und 4C erfasst werden, und der Fördergeschwindigkeit, die von dem Codierer 3 detektiert wird, berechnet. Die Rechenvorrichtung 5 ist beispielsweise in einer Steuervorrichtung 7 eines Roboters 6 vorgesehen, der neben dem Förderer 2 installiert ist und der Arbeit an dem Fahrzeugkörper O ausführt.
-
Der Förderer 2 ist beispielsweise ein Bandförderer und ist mit einem Band 8 versehen, der den Fahrzeugkörper O, der darauf platziert ist, in eine Richtung fördert. Das Band 8 wird von einem Motor 9 angetrieben. Der Codierer 3 ist in dem Motor 9 vorgesehen und detektiert einen Drehwinkel des Motors 9.
-
Wie in 1 gezeigt, sind die drei Kameras 4A, 4B und 4C an Positionen angeordnet, an denen jede der drei Kameras ein Bild von einem der drei kreisförmigen Löcher A, B und C zu im Wesentlichen der gleichen Zeit aufnehmen kann.
-
Wenn die Bilder aufgenommen werden, geben die einzelnen Kameras 4A, 4B und 4C, zusammen mit den erfassten Bildern, Informationen über die Zeit aus, zu der die Bilder erfasst wurden.
-
Die Rechenvorrichtung 5 empfängt die Fördergeschwindigkeit, die von dem Codierer 3 detektiert wird, die Bilder, die von den Kameras 4A, 4B und 4C erfasst wurden, und die Informationen über die Zeit, zu der die Bilder erfasst wurden. Wie in 2 gezeigt, ist die Rechenvorrichtung 5 mit einer Positionsmesseinheit 10 versehen, die Mittelpositionen (siehe 3) P1, P2 und P3 der kreisförmigen Löcher A, B und C in den Bildern misst, indem sie die Bilder verarbeitet, die von den Kameras 4A, 4B und 4C empfangen werden. Die Rechenvorrichtung 5 ist mit einer Positionskorrektureinheit 11 versehen, die die Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C unter Verwendung der Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C, die von der Positionsmesseinheit 10 gemessen werden, der Fördergeschwindigkeit, die von dem Codierer 3 empfangen wird, und den Informationen über die Zeit, zu der die Bilder erfasst wurden, die von den Kameras 4A, 4B und 4C empfangen wurden, korrigiert.
-
Genau gesagt korrigiert, mit Bezug auf die Mittelposition P1 des kreisförmigen Lochs A, die von der Positionsmesseinheit 10 in dem Bild gemessen wurde, das von einer Kamera (nachfolgend auch als die Referenzkamera bezeichnet) 4A erfasst wurde, die Positionskorrektureinheit 11 die Mittelpositionen P2 und P3 der kreisförmigen Löcher B und C, die einzeln von der Positionsmesseinheit 10 in den zwei Bildern gemessen wurden, die von den anderen zwei Kameras 4B und 4C erfasst wurden.
-
Mit anderen Worten unterscheiden sich, weil sich der Fahrzeugkörper O durchgehend bewegt, in dem Fall, in dem es Differenzen zwischen der Zeit gibt, zu der das Bild von der Referenzkamera 4A aufgenommen wurde, und den Zeiten, zu denen die Bilder von den anderen zwei Kameras 4B und 4C aufgenommen wurden, die relativen Positionen der drei kreisförmigen Löcher A, B und C, die von den Bildern detektiert wurden, die von den drei Kameras 4A, 4B und 4C erfasst wurden, von den relativen Positionen der kreisförmigen Löcher A, B und C, die tatsächlich an dem Fahrzeugkörper O vorgesehen sind.
-
Daher berechnet die Positionskorrektureinheit 11 aus den Informationen über die Zeiten, zu denen die von den Kameras 4A, 4B und 4C empfangenen Bilder aufgenommen wurden, die Differenzen zwischen der Referenzkamera 4A und den anderen Kameras 4B und 4C zu den Zeiten, zu denen die Bilder aufgenommen wurden (Zeitdifferenz), und multipliziert die berechneten Zeitdifferenzen mit der Fördergeschwindigkeit, die von dem Codierer 3 empfangen wurde, und berechnet dabei Bewegungsbeträge, die innerhalb dieser Zeitdifferenz erzielt werden. Dann addiert die Positionskorrektureinheit 11 die berechneten Bewegungsbeträge zu den Mittelpositionen P2 und P3 der kreisförmigen Löcher B und C, die von den Bildern gemessen wurden, die von den anderen Kameras 4B und 4C erfasst wurden. Dadurch ist es möglich, die Mittelpositionen P2 und P3 der kreisförmigen Löcher B und C zu korrigieren, die von den Bildern gemessen wurden, die von den anderen Kameras 4B und 4C erfasst wurden, sodass die Position erzielt wird, an der das kreisförmige Loch A zu der Zeit angeordnet war, zu der das Bild davon von der Referenzkamera 4A erfasst wurde.
-
Die Rechenvorrichtung 5 ist versehen mit: einer Sichtlinienberechnungseinheit 12, die Sichtlinien a, b und c berechnet, die die korrigierten Mittelpositionen P1, P2und P3 der einzelnen kreisförmigen Löcher A, B und C und Mittelpositionen P1, P2 und P3 der einzelnen Kameras 4A, 4B und 4C, beispielsweise Mittelpositionen von deren Distalendlinsen verbinden; und eine Positions-und-Ausrichtungs-Berechnungseinheit (Positionsberechnungseinheit) 13, die die Position und die Ausrichtung des Fahrzeugkörpers O berechnet, indem einzelne Scheitelpunkte eines Dreiecks, das eine bekannte Form aufweist, auf die drei berechneten Sichtlinien a, b und c angewendet werden.
-
Die drei Kameras 4A, 4B und 4C sind angeordnete Zeigerichtungen, in denen, von den drei Sichtlinien a, b und c, beliebige zwei der Sichtlinien a, b und c nicht nah daran sind, parallel zueinander zu sein, und Winkel, die zwischen den Sichtlinien a, b und c gebildet werden, sind vorzugsweise 60° oder größer.
-
Hier bedeutet das Anwenden der einzelnen Scheitelpunkte des Dreiecks auf die drei Sichtlinien a, b und c, dass das Dreieck so angeordnet ist, dass jeder der drei Scheitelpunkte des Dreiecks, das die bekannte Form aufweist, auf einer der Sichtlinien a, b und c angeordnet ist. Das anzuwendende Dreieck ist beispielsweise ein Dreieck, in dem die Mittelpositionen P1, P2 und P3 der drei kreisförmigen Löcher A, B und C verbunden sind, wenn der Fahrzeugkörper O beispielsweise in einem vorbestimmten Winkel angeordnet ist, sodass er horizontal angeordnet ist, und ein solches Dreieck kann angewandt werden wie es ist, oder es kann ein Dreieck angewandt werden, das eine ähnliche Form aufweist.
-
Wenn das Dreieck, in dem die Mittelpositionen P1, P2 und P3 der drei kreisförmigen Löcher A, B und C verbunden sind, wie es ist angewandt wird, wenn der Fahrzeugkörper O horizontal angeordnet ist, werden die drei Scheitelpunkte des angewandten Dreiecks mit den Mittelpositionen P1, P2 und P3 der drei kreisförmigen Löcher A, B und C ausgerichtet, wie in 3 gezeigt. Andererseits ändert sich, in dem Fall, in dem der Fahrzeugkörper O geneigt ist, weil die berechneten Sichtlinien a, b und c im Vergleich zu denen des Falls in dem der Fahrzeugkörper O horizontal angeordnet ist, unterschiedlich sind, die Neigung des Dreiecks, das auf die Sichtlinien a, b und c anzuwenden ist, wie in 4 gezeigt. Mit anderen Worten ist es möglich, die Position des Fahrzeugs O zu berechnen, indem die Position des angewandten Dreiecks, beispielsweise sein Schwerpunkt, berechnet wird, und es ist möglich, die Ausrichtung des Fahrzeugkörpers O zu berechnen, indem die Neigung des angewandten Dreiecks berechnet wird.
-
Wie zuvor beschrieben worden ist, ist es mit dem Objektfördersystem 1 gemäß dieser Ausführungsform möglich, die drei Sichtlinien a, b und c aus den drei Bildern zu bestimmen, die basierend auf den Positionen der drei kreisförmigen Löcher A, B und C, die an dem Fahrzeugkörper O vorgesehen sind, und den Positionen der drei Kameras 4A, 4B und 4C erfasst wurden, und es ist möglich, die Position und die Ausrichtung des Fahrzeugkörpers O aus dem Schwerpunkt und dem Winkel des Dreiecks zu berechnen, das die bekannte Form aufweist und das auf die bestimmten drei Sichtlinien a, b und c angewandt wird. Indem sie mittels der Positionskorrektureinheit 11 korrigiert werden, sind die Positionen, die als die Positionen der drei kreisförmigen Löcher A, B und C verwendet werden, in diesem Fall äquivalent zu den Positionen, an denen die drei kreisförmigen Löcher A, B und C zur gleichen Zeit angeordnet sind, und es gibt einen Vorteil dahingehend, dass es möglich ist, die dreidimensionale Position und Ausrichtung des Fahrzeugkörpers O präzise zu messen, während der Fahrzeugkörper O mittels des Förderers 2 bewegt wird, sogar wenn die Zeiten, zu denen die Bilder von den drei Kameras 4A, 4B und 4C erfasst wurden, nicht strikt miteinander übereinstimmen.
-
Mit anderen Worten gibt es, aufgrund von Verzögerungen der Ausbreitung von Bildaufnahme-Anweisungssignalen, einzelnen Differenzen zwischen den Kameras 4A, 4B und 4C etc. sogar in dem Fall, in dem die Bilder der drei kreisförmigen Löcher A, B und C aufgenommen werden, indem die drei Kameras 4A, 4B und 4C synchronisiert werden, Fälle, in denen es schwierig ist, dafür zu sorgen, dass die Zeiten, zu denen die Bilder von den drei Kameras 4A, 4B und 4C aufgenommen werden, strikt miteinander übereinstimmen. Weil die gemessenen Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C gemäß den Zeitdifferenzen zu den Zeiten, zu denen die Bilder aufgenommen wurden, korrigiert werden, ist es sogar in solch einem Fall möglich, die dreidimensionale Position und Ausrichtung des Fahrzeugkörpers O präzise zu messen.
-
Mit dem Objektfördersystem 1 gemäß dieser Ausführungsform ist es außerdem möglich, unter Verwendung eines Dreiecks, das ein Polygon mit der Mindestanzahl von Scheitelpunkten ist, wie das anzuwendende Polygon, die dreidimensionale Position und Ausrichtung des Fahrzeugkörpers O mit einem relativ kleinen Berechnungsaufwand präzise in Echtzeit zu messen.
-
Beispielsweise besteht in dem Fall, in dem ein Roboter 6 in der Nachbarschaft des Förderers 2 angeordnet ist und Arbeit an dem Fahrzeugkörper O ausgeführt wird, indem mittels Verfolgens und Steuerns mittels der Rechenvorrichtung 5, der Roboter 6 gemäß der präzise gemessenen dreidimensionalen Position und Ausrichtung des Fahrzeugkörpers O angeordnet wird, nicht die Notwendigkeit, den Förderer 2 zu stoppen, und somit gibt es einen Vorteil dahingehend, dass es möglich ist, die Produktivität zu steigern, indem eine Verminderung der Arbeitseffizienz verhindert wird.
-
In dieser Ausführungsform ist es möglich, weil die drei Sichtlinien a, b und c, die zwischen den einzelnen Kameras 4A, 4B und 4C und den Mittelpositionen P1, P2, und P3 der kreisförmigen Löcher A, B und C gebildet sind, so angeordnet sind, dass sie Winkel von 60° oder größer bilden, das Dreieck eindeutig anzuwenden. Mit anderen Worten ist es möglich, das Dreieck, das die bekannte Form aufweist, präzise auf die drei Sichtlinien a, b und c anzuwenden und somit besteht ein Vorteil dahingehend, dass es möglich ist, die Position und die Ausrichtung des Fahrzeugkörpers O präzise zu messen.
-
Es ist zu beachten, dass in dieser Ausführungsform, obgleich die Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C als Beispiele der Merkmalspunkte beschrieben worden sind, alternativ andere willkürliche Merkmalspunkte eingesetzt werden können. Obgleich die drei Sichtlinien a, b und c basierend auf den Mittelpositionen P1, P2 und P3 der drei kreisförmigen Löcher A, B und C berechnet werden und das Dreieck darauf angewandt wird, können vier oder mehr Merkmalspunkte gemessen werden, und ein Rechteck oder ein Polygon, das eine größere Anzahl von Scheitelpunkten aufweist, kann darauf angewandt werden.
-
In dieser Ausführungsform werden die Informationen über die Zeiten, zu denen die Bilder aufgenommen wurden, von den drei Kameras 4A, 4B und 4C empfangen, die Zeitdifferenzen zwischen den Zeiten, zu denen die Bilder von den Kameras 4A, 4B und 4C aufgenommen wurden, werden berechnet und die berechneten Differenzen werden beim Ausführen der Positionskorrektur verwendet. Alternativ, wie in 5 gezeigt, können Zeitdifferenzen Δt1 und Δt2 zwischen den Zeiten, zu denen die Bilder von den einzelnen Kameras 4A, 4B und 4C aufgenommen wurden, im Voraus, beispielsweise zur Zeit der Installation des Systems oder Ähnlichem, gemessen werden und können in einer Datenbank gespeichert werden. Dadurch ist es möglich, eine Positionskorrektur auf einfache Weise auszuführen, indem sich auf die Datenbank bezogen wird, ohne von den Kameras 4A, 4B und 4C die Informationen über die Zeiten zu empfangen, zu denen die Bilder aufgenommen wurden.
-
In dieser Ausführungsform kann, obgleich die Fördergeschwindigkeit des Fahrzeugkörpers O, welcher das Objekt ist, von dem Codierer 3 detektiert wird, der in dem Motor 9 vorgesehen ist, der den Förderer 2 antreibt, alternativ die Fördergeschwindigkeit berechnet werden, ohne den Codierer 3 zu verwenden, indem die Bilder verarbeitet werden, die von den Kameras 4A, 4B und 4C erfasst wurden.
-
Wie beispielsweise in 6 gezeigt, werden, wenn drei Bilder erfasst werden, unter Verwendung mindestens einer der zuvor beschriebenen drei Kameras 4A, 4B und 4C in dem gleichen Sichtfeld bei unterschiedlichen Zeiten t1, t2 und t3 mit einem vorbestimmten Zeitintervall Δt dazwischen, in den einzelnen Bildern die kreisförmigen Löcher A, B und C erkannt, die in den Bildern umfasst sind, und die Mittelpositionen P1, P2 und P3 der erkannten kreisförmigen Löcher A, B und C werden berechnet.
-
Dann wird eine Fördergeschwindigkeit V berechnet, indem Differenzen zwischen den Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C in den Bildern, die benachbart zueinander in der Zeitachsenrichtung erfasst wurden, und den Mittelpositionen P1, P2 und P3 in der Fördervorrichtung durch das Zeitintervall Δt zur Bildaufnahme geteilt werden. In dem Fall, in dem die Fördergeschwindigkeit V mehrere Male für die gleichen kreisförmigen Löcher A, B und C berechnet wird, sollte ein Durchschnittswert davon oder ein Wert, der unter Verwendung der Methode der kleinsten Quadrate oder Ähnlichem ermittelt wird, als die Fördergeschwindigkeit V ausgegeben werden.
-
Wenn die kreisförmigen Löcher A, B und C nicht temporär detektiert werden, kann die Fördergeschwindigkeit V, die unmittelbar vor diesem Zeitraum berechnet wird, weiter ausgegeben werden.
-
In dieser Ausführungsform sind die drei Kameras 4A, 4B und 4C in der Nachbarschaft des Förderers 2 gesichert, und jede einzelne der Kameras 4A, 4B und 4C nimmt das Bild eines beliebigen der kreisförmigen Löcher A, B und C auf. Alternativ kann eine Kamera (Handkamera) an einem Handgelenk des Roboters 6 montiert sein, der in der Nachbarschaft des Förderers 2 angeordnet ist, und der Arbeit an dem Fahrzeugkörper O ausführt, die an dem Handgelenk montierte Kamera kann bewegt werden, indem der Roboter 6 betätigt wird, und somit können drei Bilder erfasst werden, bei denen die drei kreisförmigen Löcher A, B und C zu unterschiedlichen Zeiten aufgenommen werden.
-
In diesem Fall ist es auch möglich, weil die Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C, die von den drei Bildern gemessen werden, korrigiert sind, sodass sie äquivalent zu den Positionen sind, an denen die Bilder der drei kreisförmigen Löcher A, B und C zur gleichen Zeit aufgenommen werden, die Position und die Ausrichtung des Fahrzeugkörpers O präzise zu messen.
-
Die Bilder können aufgenommen werden, indem eine einzelne Kamera oder eine Vielzahl von Kameras 4A, 4B und 4C an einem Roboter montiert wird/werden, der separat von dem Roboter 6 ist, der Arbeit an dem Fahrzeugkörper O ausführt.
-
In dieser Ausführungsform gibt es, obgleich der Fahrzeugkörper O als ein Beispiel des Objekts beschrieben worden ist, keine Begrenzung dafür, und das Objektfördersystem 1 gemäß der vorliegenden Erfindung kann eingesetzt werden, wenn die Position und die Ausrichtung eines anderen willkürlichen Objekts präzise gemessen werden, während das Objekt mittels des Förderers 2 gefördert wird.
-
In dieser Ausführungsform ist ein Fall beschrieben worden, in dem die Rechenvorrichtung 5 in der Steuervorrichtung 7 des Roboters 6 vorgesehen ist. Alternativ kann, wie in 7 gezeigt, in dem Fall, in dem eine Vielzahl von Robotern 6 Arbeit an dem gleichen Fahrzeugkörper O ausführen, eine Zellensteuervorrichtung 20, an die die Steuervorrichtungen 7 der einzelnen Roboter 6 angeschlossen sind, vorgesehen sein, und die Zellensteuervorrichtung 20 kann mit der Rechenvorrichtung 5 versehen sein. Wenn die Ausgaben von den Kameras 4A, 4B und 4C und dem Codierer 3 in die Zellensteuervorrichtung 20 eingegeben sind, und die Position und die Ausrichtung des Fahrzeugkörpers O in der Zellensteuervorrichtung 20 gemessen sind, ist es möglich, die Position und die Ausrichtung des Fahrzeugkörpers O weiter zu messen, sodass sie von den anderen Robotern 6 weiterverwendet werden können, sogar wenn der Strom eines der Roboter 6 vorübergehend zur Wartung oder Ähnlichem ausgeschaltet ist.
-
Bezugszeichenliste
-
- 1
- Objektfördersystem
- 2
- Förderer (Fördervorrichtung)
- 3
- Codierer (Bewegungsgeschwindigkeitsdetektionseinheit, Detektionseinheit)
- 4A, 4B, 4C
- Kamera
- 6
- Roboter
- 10
- Positionsmesseinheit
- 11
- Positionskorrektureinheit
- 12
- Sichtlinienberechnungseinheit
- 13
- Positions-und-Ausrichtungs-Berechnungseinheit (Positionsberechnungseinheit)
- A, B, C
- kreisförmiges Loch (Merkmalspunkt)
- O
- Fahrzeugkörper (Objekt)
- V
- Fördergeschwindigkeit (Bewegungsgeschwindigkeit)