DE102019101005A1 - Objektfördersystem - Google Patents

Objektfördersystem Download PDF

Info

Publication number
DE102019101005A1
DE102019101005A1 DE102019101005.5A DE102019101005A DE102019101005A1 DE 102019101005 A1 DE102019101005 A1 DE 102019101005A1 DE 102019101005 A DE102019101005 A DE 102019101005A DE 102019101005 A1 DE102019101005 A1 DE 102019101005A1
Authority
DE
Germany
Prior art keywords
feature points
positions
sight
cameras
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102019101005.5A
Other languages
English (en)
Other versions
DE102019101005B4 (de
Inventor
Masafumi OOBA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102019101005A1 publication Critical patent/DE102019101005A1/de
Application granted granted Critical
Publication of DE102019101005B4 publication Critical patent/DE102019101005B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0093Programme-controlled manipulators co-operating with conveyor means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G15/00Conveyors having endless load-conveying surfaces, i.e. belts and like continuous members, to which tractive effort is transmitted by means other than endless driving elements of similar configuration
    • B65G15/30Belts or like endless load-carriers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G43/00Control devices, e.g. for safety, warning or fault-correcting
    • B65G43/08Control devices operated by article or material being fed, conveyed or discharged
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/64Devices characterised by the determination of the time taken to traverse a fixed distance
    • G01P3/68Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2201/00Indexing codes relating to handling devices, e.g. conveyors, characterised by the type of product or load being conveyed or handled
    • B65G2201/02Articles
    • B65G2201/0294Vehicle bodies
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0208Control or detection relating to the transported articles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0208Control or detection relating to the transported articles
    • B65G2203/0233Position of the article
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/02Control or detection
    • B65G2203/0266Control or detection relating to the load carrier(s)
    • B65G2203/0291Speed of the load carrier
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B65CONVEYING; PACKING; STORING; HANDLING THIN OR FILAMENTARY MATERIAL
    • B65GTRANSPORT OR STORAGE DEVICES, e.g. CONVEYORS FOR LOADING OR TIPPING, SHOP CONVEYOR SYSTEMS OR PNEUMATIC TUBE CONVEYORS
    • B65G2203/00Indexing code relating to control or detection of the articles or the load carriers during conveying
    • B65G2203/04Detection means
    • B65G2203/041Camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B1/00Comparing elements, i.e. elements for effecting comparison directly or indirectly between a desired value and existing or anticipated values
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37563Ccd, tv camera
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40563Object detection
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40613Camera, laser scanner on end effector, hand eye manipulator, local

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

Bereitgestellt wird ein Objektfördersystem (1), umfassend: eine Fördervorrichtung (2), die ein Objekt (O) fördert; Kameras (4A, 4B, 4C), die Bilder der Merkmalspunkte (A, B, C) des Objekts aufnehmen; eine Positionsmesseinheit, die Positionen der Merkmalspunkte aus den erfassten Bildern misst; eine Detektionseinheit (3), die eine Position oder eine Bewegungsgeschwindigkeit des Objekts detektiert; eine Positionskorrektureinheit, die die Positionen der Merkmalspunkte korrigiert, sodass Positionen erzielt werden, an denen die Merkmalspunkte zur gleichen Zeit angeordnet sind; eine Sichtlinienberechnungseinheit, die Sichtlinien berechnet, die durch die Merkmalspunkte basierend auf den korrigierten Positionen der Merkmalspunkte und den Positionen der Kameras verlaufen; und eine Positionsberechnungseinheit, die eine dreidimensionale Position des Objekts berechnet, indem ein Polygon, das eine bekannte Form aufweist, auf die berechneten Sichtlinien angewandt wird.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Objektfördersystem.
  • ALLGEMEINER STAND DER TECHNIK
  • Im Stand der Technik werden, in dem Fall, in dem Arbeiten wie Handhabung oder Ähnliches gemäß der Position und der Ausrichtung eines großen Objekts wie eines Fahrzeugkörpers, der von einem Förderer gefördert wird, ausgeführt werden, Bilder von drei bekannten Messmarken, die an dem Objekt vorgesehen sind, einzeln unter Verwendung von drei Kameras aufgenommen, und die Position und die Ausrichtung des Objekts werden von der Positionsbeziehung der erfassten drei bekannten Messmarken dreidimensional gemessen (siehe beispielsweise Patentliteratur 1).
  • ENTGEGENHALTUNGSLISTE
  • PATENTLITERATUR
  • PTL 1 Japanische nicht geprüfte Patentanmeldung, Veröffentlichung Nr. Hei 7–13613
  • KURZDARSTELLUNG DER ERFINDUNG
  • TECHNISCHE AUFGABE
  • Es ist jedoch im Allgemeinen schwierig, die Position und die Ausrichtung eines Objekts während des Bewegens des Objekts unter Verwendung des Förderers zu messen, und somit wird diese Messung in einem Zustand ausgeführt, in dem der Förderer vorübergehend gestoppt wird. In dem Fall, in dem die Messungen genommen werden, indem der Förderer gestoppt wird, besteht das Problem, dass die Arbeitseffizienz vermindert ist, was die Produktivität behindert.
  • Eine Aufgabe der vorliegenden Erfindung ist es, ein Objektfördersystem bereitzustellen, mit dem es möglich ist, während sich das Objekt bewegt, die Position und Ausrichtung eines Objekts präzise dreidimensional zu messen, ohne eine Fördervorrichtung zu stoppen.
  • LÖSUNG DER AUFGABE
  • Ein Aspekt der vorliegenden Erfindung ist ein Objektfördersystem, umfassend: eine Fördervorrichtung, die ein Objekt fördert, das mit drei oder mehr Merkmalspunkten versehen ist, die in bekannter Positionsbeziehung in Bezug zueinander angeordnet sind; eine Kamera, die Bilder der einzelnen Merkmalspunkte des Objekts aufnimmt, das von der Fördervorrichtung gefördert wird; eine Positionsmesseinheit, die Positionen der einzelnen Merkmalspunkte aus den Bildern misst, die von der Kamera erfasst wurden; eine Detektionseinheit, die die Position des Objekts oder eine Bewegungsgeschwindigkeit davon detektiert, die von der Fördervorrichtung erzielt wird; eine Positionskorrektureinheit, die basierend auf der Position oder der Bewegungsgeschwindigkeit, die von der Detektionseinheit detektiert wird, und Differenzen in den Zeiten, zu denen die einzelnen Bilder von der Kamera aufgenommen wurden, die Positionen der einzelnen Merkmalspunkte korrigiert, die von der Positionsmesseinheit gemessen wurden, sodass Positionen erzielt werden, in denen die Merkmalspunkte zur gleichen Zeit angeordnet sind; eine Sichtlinienberechnungseinheit, die Sichtlinien berechnet, die durch die einzelnen Merkmalspunkte basierend auf den Positionen der einzelnen Merkmalspunkte, die von der Positionskorrektureinheit korrigiert werden, und die Position der Kamera verlaufen; und eine Positionsberechnungseinheit, die mindestens eine dreidimensionale Position des Objekts berechnet, indem sie ein Polygon, das eine bekannte Form aufweist, bei dem die Positionen der einzelnen Merkmalspunkte als Scheitelpunkte davon dienen, auf die drei oder mehr Sichtlinien anwendet, die von der Sichtlinienberechnungseinheit berechnet werden.
  • Gemäß diesem Aspekt nimmt, wenn das Objekt von der Fördervorrichtung gefördert wird, die Kamera Bilder der drei oder mehr Merkmalspunkte auf, die an dem Objekt vorgesehen sind, und die Positionsmesseinheit misst die Positionen der einzelnen Merkmalspunkte aus den erfassten Bildern. Die Detektionseinheit detektiert die Position oder die Bewegungsgeschwindigkeit des Objekts, die von der Fördervorrichtung erzielt wird, und die Positionen der Merkmalspunkte, die von der Positionsmesseinheit gemessen werden, werden basierend auf den Differenzen in der Zeit, zu der die einzelnen Bilder von der Kamera erfasst wurden, und der Position oder der Bewegungsgeschwindigkeit korrigiert, sodass Positionen erzielt werden, an denen die Merkmalspunkte zur gleichen Zeit angeordnet sind.
  • Die Sichtlinienberechnungseinheit berechnet basierend auf den korrigierten Positionen der einzelnen Merkmalspunkte und der Position der Kamera die Sichtlinien, die durch die einzelnen Merkmalspunkte verlaufen. Dann wendet die Positionsberechnungseinheit das Polygon, in dem die Positionen der einzelnen Merkmalspunkte als die Scheitelpunkte davon dienen, auf die drei oder mehr Merkmalspunkte an, die von der Sichtlinienberechnungseinheit berechnet werden, und dadurch ist es möglich, die Position des Objekts basierend auf der Position des Polygons zu berechnen.
  • Mit anderen Worten ist es möglich, weil die Positionen der drei oder mehr Merkmalspunkte, die von den Bildern berechnet werden, korrigiert werden, sodass die Positionen erzielt werden, an denen die Merkmalspunkte zur gleichen Zeit angeordnet sind, mindestens die Position des Objekts dreidimensional zu messen, während das Objekt bewegt wird, ohne die Fördervorrichtung zu stoppen, sogar wenn die Bilder, umfassend die einzelnen Merkmalspunkte, zu unterschiedlichen Zeiten erfasst würden, während das Objekt bewegt wird.
  • Gemäß dem zuvor beschriebenen Aspekt kann das Objekt mit drei der Merkmalspunkte versehen sein, und die Positionsberechnungseinheit kann die dreidimensionale Position und Ausrichtung des Objekts berechnen, indem sie ein Dreieck, in dem die Positionen der einzelnen Merkmalspunkte als die Scheitelpunkte davon dienen, auf die drei Sichtlinien anwendet, die von der Sichtlinienberechnungseinheit berechnet wurden.
  • Indem diese Ausgestaltung angewendet wird, berechnet die Sichtlinienberechnungseinheit die drei Sichtlinien basierend auf den Positionen der drei Merkmalspunkte, die von der Positionskorrektureinheit und der Position der Kamera korrigiert werden, und die Positionsberechnungseinheit wendet das Dreieck auf die drei Sichtlinien an. Basierend auf der Position und Neigung des angewandten Dreiecks ist es möglich, die Position und die Ausrichtung des Objekts zu berechnen, das von der Fördervorrichtung gefördert wird.
  • Unter Verwendung eines Dreiecks, das ein Polygon ist, das eine Mindestanzahl von Scheitelpunkten aufweist, die erforderlich sind, um die Position und die Neigung zu berechnen, ist es möglich, die dreidimensionale Position und Ausrichtung des Objekts in Echtzeit zu berechnen, indem die Rechenzeit vermindert wird.
  • Gemäß dem zuvor beschriebenen Aspekt können drei Kameras vorgesehen sein, und die einzelnen Kameras können an Positionen angeordnet sein, an denen jede der Kameras ein Bild eines unterschiedlichen der Merkmalspunkte aufnehmen kann.
  • Indem diese Ausgestaltung angewendet wird, ist es möglich, indem die Bilder der drei unterschiedlichen Merkmalspunkte unter Verwendung der drei Kameras aufgenommen werden, die Bilder zum Berechnen der Position und der Ausrichtung des Objekts mit einem geringeren Zeitaufwand zu erfassen.
  • Der zuvor beschriebene Aspekt kann überdies umfassen: einen Roboter, der in der Lage ist, die Kamera zu einer Position zu bewegen, an der es möglich ist, die Bilder der einzelnen Merkmalspunkte aufzunehmen.
  • Indem diese Ausgestaltung angewendet wird, ist es möglich, die Bilder der einzelnen Merkmalspunkte aufzunehmen, indem die Kamera durch Betätigen des Roboters bewegt wird, und somit ist es möglich, die erforderliche Anzahl von Kameras zu vermindern.
  • Gemäß dem zuvor beschriebenen Aspekt kann die Detektionseinheit ein Codierer sein, der in der Fördervorrichtung vorgesehen ist.
  • Indem diese Ausgestaltung angewendet wird, ist es möglich, unter Verwendung der von der Fördervorrichtung erzielten Bewegungsgeschwindigkeit des Objekts, die von dem Codierer detektiert wird, die Positionen der einzelnen Merkmalspunkte auf einfache, präzise Weise zu korrigieren.
  • Gemäß dem zuvor beschriebenen Aspekt kann die Detektionseinheit eine Position oder eine Bewegungsgeschwindigkeit des Objekts basierend auf den Bildern detektieren, die von der Kamera oder den Kameras aufgenommen wurden.
  • Indem diese Ausgestaltung angewendet wird, ist es nicht notwendig, einen besonderen Sensor zum Detektieren der Bewegungsgeschwindigkeit des Objekts vorzusehen, die von der Fördervorrichtung erzielt wird, und es ist möglich, die Positionen der einzelnen Merkmalspunkte zu korrigieren, indem auch die Bewegungsgeschwindigkeit des Objekts mittels der Kamera zum Detektieren der Position und der Ausrichtung des Objekts detektiert wird.
  • VORTEILHAFTE WIRKUNGEN DER ERFINDUNG
  • Die vorliegende Erfindung bietet einen Vorteil dahingehend, dass es möglich ist, die Position und Ausrichtung eines Objekts, während sich das Objekt bewegt, präzise dreidimensional zu messen, ohne eine Fördervorrichtung zu stoppen.
  • Figurenliste
    • 1 ist ein Gesamtausgestaltungsdiagramm, das ein Objektfördersystem gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
    • 2 ist ein Blockdiagramm, das eine Rechenvorrichtung zeigt, die in dem Objektfördersystem von 1 vorgesehen ist.
    • 3 ist ein Diagramm, das einen Zustand zeigt, in dem ein Dreieck, das eine bekannte Form aufweist, auf Sichtlinien von Kameras angewandt wird, die Bilder von kreisförmigen Löchern an einem Fahrzeugkörper aufnehmen, der horizontal in dem Objektfördersystem von 1 angeordnet ist.
    • 4 ist ein Diagramm, das einen Zustand zeigt, in dem das Dreieck, das die bekannte Form aufweist, auf die Sichtlinien der Kameras angewandt wird, die die Bilder der kreisförmigen Löcher an dem Fahrzeugkörper aufnehmen, der in einer geneigten Weise in Bezug auf die horizontale Position in dem Objektfördersystem von 1 angeordnet ist.
    • 5 ist ein Diagramm, das eine Abwandlung des Objektfördersystems von 1 zeigt, das eine Beispieldatenbank zeigt, in der Verzögerungszeiten zu Zeiten gespeichert sind, zu denen die Bilder von den einzelnen Kameras aufgenommen wurden.
    • 6 ist ein Diagramm, das eine andere Abwandlung des Objektfördersystems von 1 zeigt, das ein Diagramm zum Erklären eines Falls zeigt, in dem die Fördergeschwindigkeit des Fahrzeugkörpers von Bildern bestimmt wird.
    • 7 ist ein schematisches Diagramm, das eine andere Abwandlung des Objektfördersystems von 1 zeigt, das ein schematisches Diagramm zum Erklären eines Falls ist, in dem Steuervorrichtungen einer Vielzahl von Robotern mit einer Zellensteuervorrichtung verbunden sind.
  • BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
  • Ein Objektfördersystem 1 gemäß einer Ausführungsform der vorliegenden Erfindung wird nachfolgend mit Bezug auf die Zeichnungen beschrieben.
  • Wie in 1 gezeigt, ist das Objektfördersystem 1 gemäß dieser Ausführungsform mit Folgendem versehen: einem Förderer (Fördervorrichtung) 2, der einen Fahrzeugkörper (Objekt) O fördert; einem Codierer (Bewegungsgeschwindigkeitsdetektionseinheit, Detektionseinheit) 3, der in dem Förderer 2 vorgesehen ist und der eine Fördergeschwindigkeit (Bewegungsgeschwindigkeit) des Fahrzeugkörpers O detektiert, der von dem Förderer 2 gefördert wird; drei Kameras 4A, 4B und 4C, die in der Nachbarschaft des Förderers 2 installiert sind und die von unterhalb des Fahrzeugkörpers O, der von dem Förderer 2 gefördert wird, Bilder von drei kreisförmigen Löchern (Merkmalspunkten) A, B und C aufnehmen, die an einer Bodenoberfläche des Fahrzeugkörpers O vorgesehen sind; und einer Rechenvorrichtung (siehe 2) 5, die die Position und die Ausrichtung des Fahrzeugkörpers O unter Verwendung der Bilder, die von den Kameras 4A, 4B und 4C erfasst werden, und der Fördergeschwindigkeit, die von dem Codierer 3 detektiert wird, berechnet. Die Rechenvorrichtung 5 ist beispielsweise in einer Steuervorrichtung 7 eines Roboters 6 vorgesehen, der neben dem Förderer 2 installiert ist und der Arbeit an dem Fahrzeugkörper O ausführt.
  • Der Förderer 2 ist beispielsweise ein Bandförderer und ist mit einem Band 8 versehen, der den Fahrzeugkörper O, der darauf platziert ist, in eine Richtung fördert. Das Band 8 wird von einem Motor 9 angetrieben. Der Codierer 3 ist in dem Motor 9 vorgesehen und detektiert einen Drehwinkel des Motors 9.
  • Wie in 1 gezeigt, sind die drei Kameras 4A, 4B und 4C an Positionen angeordnet, an denen jede der drei Kameras ein Bild von einem der drei kreisförmigen Löcher A, B und C zu im Wesentlichen der gleichen Zeit aufnehmen kann.
  • Wenn die Bilder aufgenommen werden, geben die einzelnen Kameras 4A, 4B und 4C, zusammen mit den erfassten Bildern, Informationen über die Zeit aus, zu der die Bilder erfasst wurden.
  • Die Rechenvorrichtung 5 empfängt die Fördergeschwindigkeit, die von dem Codierer 3 detektiert wird, die Bilder, die von den Kameras 4A, 4B und 4C erfasst wurden, und die Informationen über die Zeit, zu der die Bilder erfasst wurden. Wie in 2 gezeigt, ist die Rechenvorrichtung 5 mit einer Positionsmesseinheit 10 versehen, die Mittelpositionen (siehe 3) P1, P2 und P3 der kreisförmigen Löcher A, B und C in den Bildern misst, indem sie die Bilder verarbeitet, die von den Kameras 4A, 4B und 4C empfangen werden. Die Rechenvorrichtung 5 ist mit einer Positionskorrektureinheit 11 versehen, die die Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C unter Verwendung der Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C, die von der Positionsmesseinheit 10 gemessen werden, der Fördergeschwindigkeit, die von dem Codierer 3 empfangen wird, und den Informationen über die Zeit, zu der die Bilder erfasst wurden, die von den Kameras 4A, 4B und 4C empfangen wurden, korrigiert.
  • Genau gesagt korrigiert, mit Bezug auf die Mittelposition P1 des kreisförmigen Lochs A, die von der Positionsmesseinheit 10 in dem Bild gemessen wurde, das von einer Kamera (nachfolgend auch als die Referenzkamera bezeichnet) 4A erfasst wurde, die Positionskorrektureinheit 11 die Mittelpositionen P2 und P3 der kreisförmigen Löcher B und C, die einzeln von der Positionsmesseinheit 10 in den zwei Bildern gemessen wurden, die von den anderen zwei Kameras 4B und 4C erfasst wurden.
  • Mit anderen Worten unterscheiden sich, weil sich der Fahrzeugkörper O durchgehend bewegt, in dem Fall, in dem es Differenzen zwischen der Zeit gibt, zu der das Bild von der Referenzkamera 4A aufgenommen wurde, und den Zeiten, zu denen die Bilder von den anderen zwei Kameras 4B und 4C aufgenommen wurden, die relativen Positionen der drei kreisförmigen Löcher A, B und C, die von den Bildern detektiert wurden, die von den drei Kameras 4A, 4B und 4C erfasst wurden, von den relativen Positionen der kreisförmigen Löcher A, B und C, die tatsächlich an dem Fahrzeugkörper O vorgesehen sind.
  • Daher berechnet die Positionskorrektureinheit 11 aus den Informationen über die Zeiten, zu denen die von den Kameras 4A, 4B und 4C empfangenen Bilder aufgenommen wurden, die Differenzen zwischen der Referenzkamera 4A und den anderen Kameras 4B und 4C zu den Zeiten, zu denen die Bilder aufgenommen wurden (Zeitdifferenz), und multipliziert die berechneten Zeitdifferenzen mit der Fördergeschwindigkeit, die von dem Codierer 3 empfangen wurde, und berechnet dabei Bewegungsbeträge, die innerhalb dieser Zeitdifferenz erzielt werden. Dann addiert die Positionskorrektureinheit 11 die berechneten Bewegungsbeträge zu den Mittelpositionen P2 und P3 der kreisförmigen Löcher B und C, die von den Bildern gemessen wurden, die von den anderen Kameras 4B und 4C erfasst wurden. Dadurch ist es möglich, die Mittelpositionen P2 und P3 der kreisförmigen Löcher B und C zu korrigieren, die von den Bildern gemessen wurden, die von den anderen Kameras 4B und 4C erfasst wurden, sodass die Position erzielt wird, an der das kreisförmige Loch A zu der Zeit angeordnet war, zu der das Bild davon von der Referenzkamera 4A erfasst wurde.
  • Die Rechenvorrichtung 5 ist versehen mit: einer Sichtlinienberechnungseinheit 12, die Sichtlinien a, b und c berechnet, die die korrigierten Mittelpositionen P1, P2und P3 der einzelnen kreisförmigen Löcher A, B und C und Mittelpositionen P1, P2 und P3 der einzelnen Kameras 4A, 4B und 4C, beispielsweise Mittelpositionen von deren Distalendlinsen verbinden; und eine Positions-und-Ausrichtungs-Berechnungseinheit (Positionsberechnungseinheit) 13, die die Position und die Ausrichtung des Fahrzeugkörpers O berechnet, indem einzelne Scheitelpunkte eines Dreiecks, das eine bekannte Form aufweist, auf die drei berechneten Sichtlinien a, b und c angewendet werden.
  • Die drei Kameras 4A, 4B und 4C sind angeordnete Zeigerichtungen, in denen, von den drei Sichtlinien a, b und c, beliebige zwei der Sichtlinien a, b und c nicht nah daran sind, parallel zueinander zu sein, und Winkel, die zwischen den Sichtlinien a, b und c gebildet werden, sind vorzugsweise 60° oder größer.
  • Hier bedeutet das Anwenden der einzelnen Scheitelpunkte des Dreiecks auf die drei Sichtlinien a, b und c, dass das Dreieck so angeordnet ist, dass jeder der drei Scheitelpunkte des Dreiecks, das die bekannte Form aufweist, auf einer der Sichtlinien a, b und c angeordnet ist. Das anzuwendende Dreieck ist beispielsweise ein Dreieck, in dem die Mittelpositionen P1, P2 und P3 der drei kreisförmigen Löcher A, B und C verbunden sind, wenn der Fahrzeugkörper O beispielsweise in einem vorbestimmten Winkel angeordnet ist, sodass er horizontal angeordnet ist, und ein solches Dreieck kann angewandt werden wie es ist, oder es kann ein Dreieck angewandt werden, das eine ähnliche Form aufweist.
  • Wenn das Dreieck, in dem die Mittelpositionen P1, P2 und P3 der drei kreisförmigen Löcher A, B und C verbunden sind, wie es ist angewandt wird, wenn der Fahrzeugkörper O horizontal angeordnet ist, werden die drei Scheitelpunkte des angewandten Dreiecks mit den Mittelpositionen P1, P2 und P3 der drei kreisförmigen Löcher A, B und C ausgerichtet, wie in 3 gezeigt. Andererseits ändert sich, in dem Fall, in dem der Fahrzeugkörper O geneigt ist, weil die berechneten Sichtlinien a, b und c im Vergleich zu denen des Falls in dem der Fahrzeugkörper O horizontal angeordnet ist, unterschiedlich sind, die Neigung des Dreiecks, das auf die Sichtlinien a, b und c anzuwenden ist, wie in 4 gezeigt. Mit anderen Worten ist es möglich, die Position des Fahrzeugs O zu berechnen, indem die Position des angewandten Dreiecks, beispielsweise sein Schwerpunkt, berechnet wird, und es ist möglich, die Ausrichtung des Fahrzeugkörpers O zu berechnen, indem die Neigung des angewandten Dreiecks berechnet wird.
  • Wie zuvor beschrieben worden ist, ist es mit dem Objektfördersystem 1 gemäß dieser Ausführungsform möglich, die drei Sichtlinien a, b und c aus den drei Bildern zu bestimmen, die basierend auf den Positionen der drei kreisförmigen Löcher A, B und C, die an dem Fahrzeugkörper O vorgesehen sind, und den Positionen der drei Kameras 4A, 4B und 4C erfasst wurden, und es ist möglich, die Position und die Ausrichtung des Fahrzeugkörpers O aus dem Schwerpunkt und dem Winkel des Dreiecks zu berechnen, das die bekannte Form aufweist und das auf die bestimmten drei Sichtlinien a, b und c angewandt wird. Indem sie mittels der Positionskorrektureinheit 11 korrigiert werden, sind die Positionen, die als die Positionen der drei kreisförmigen Löcher A, B und C verwendet werden, in diesem Fall äquivalent zu den Positionen, an denen die drei kreisförmigen Löcher A, B und C zur gleichen Zeit angeordnet sind, und es gibt einen Vorteil dahingehend, dass es möglich ist, die dreidimensionale Position und Ausrichtung des Fahrzeugkörpers O präzise zu messen, während der Fahrzeugkörper O mittels des Förderers 2 bewegt wird, sogar wenn die Zeiten, zu denen die Bilder von den drei Kameras 4A, 4B und 4C erfasst wurden, nicht strikt miteinander übereinstimmen.
  • Mit anderen Worten gibt es, aufgrund von Verzögerungen der Ausbreitung von Bildaufnahme-Anweisungssignalen, einzelnen Differenzen zwischen den Kameras 4A, 4B und 4C etc. sogar in dem Fall, in dem die Bilder der drei kreisförmigen Löcher A, B und C aufgenommen werden, indem die drei Kameras 4A, 4B und 4C synchronisiert werden, Fälle, in denen es schwierig ist, dafür zu sorgen, dass die Zeiten, zu denen die Bilder von den drei Kameras 4A, 4B und 4C aufgenommen werden, strikt miteinander übereinstimmen. Weil die gemessenen Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C gemäß den Zeitdifferenzen zu den Zeiten, zu denen die Bilder aufgenommen wurden, korrigiert werden, ist es sogar in solch einem Fall möglich, die dreidimensionale Position und Ausrichtung des Fahrzeugkörpers O präzise zu messen.
  • Mit dem Objektfördersystem 1 gemäß dieser Ausführungsform ist es außerdem möglich, unter Verwendung eines Dreiecks, das ein Polygon mit der Mindestanzahl von Scheitelpunkten ist, wie das anzuwendende Polygon, die dreidimensionale Position und Ausrichtung des Fahrzeugkörpers O mit einem relativ kleinen Berechnungsaufwand präzise in Echtzeit zu messen.
  • Beispielsweise besteht in dem Fall, in dem ein Roboter 6 in der Nachbarschaft des Förderers 2 angeordnet ist und Arbeit an dem Fahrzeugkörper O ausgeführt wird, indem mittels Verfolgens und Steuerns mittels der Rechenvorrichtung 5, der Roboter 6 gemäß der präzise gemessenen dreidimensionalen Position und Ausrichtung des Fahrzeugkörpers O angeordnet wird, nicht die Notwendigkeit, den Förderer 2 zu stoppen, und somit gibt es einen Vorteil dahingehend, dass es möglich ist, die Produktivität zu steigern, indem eine Verminderung der Arbeitseffizienz verhindert wird.
  • In dieser Ausführungsform ist es möglich, weil die drei Sichtlinien a, b und c, die zwischen den einzelnen Kameras 4A, 4B und 4C und den Mittelpositionen P1, P2, und P3 der kreisförmigen Löcher A, B und C gebildet sind, so angeordnet sind, dass sie Winkel von 60° oder größer bilden, das Dreieck eindeutig anzuwenden. Mit anderen Worten ist es möglich, das Dreieck, das die bekannte Form aufweist, präzise auf die drei Sichtlinien a, b und c anzuwenden und somit besteht ein Vorteil dahingehend, dass es möglich ist, die Position und die Ausrichtung des Fahrzeugkörpers O präzise zu messen.
  • Es ist zu beachten, dass in dieser Ausführungsform, obgleich die Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C als Beispiele der Merkmalspunkte beschrieben worden sind, alternativ andere willkürliche Merkmalspunkte eingesetzt werden können. Obgleich die drei Sichtlinien a, b und c basierend auf den Mittelpositionen P1, P2 und P3 der drei kreisförmigen Löcher A, B und C berechnet werden und das Dreieck darauf angewandt wird, können vier oder mehr Merkmalspunkte gemessen werden, und ein Rechteck oder ein Polygon, das eine größere Anzahl von Scheitelpunkten aufweist, kann darauf angewandt werden.
  • In dieser Ausführungsform werden die Informationen über die Zeiten, zu denen die Bilder aufgenommen wurden, von den drei Kameras 4A, 4B und 4C empfangen, die Zeitdifferenzen zwischen den Zeiten, zu denen die Bilder von den Kameras 4A, 4B und 4C aufgenommen wurden, werden berechnet und die berechneten Differenzen werden beim Ausführen der Positionskorrektur verwendet. Alternativ, wie in 5 gezeigt, können Zeitdifferenzen Δt1 und Δt2 zwischen den Zeiten, zu denen die Bilder von den einzelnen Kameras 4A, 4B und 4C aufgenommen wurden, im Voraus, beispielsweise zur Zeit der Installation des Systems oder Ähnlichem, gemessen werden und können in einer Datenbank gespeichert werden. Dadurch ist es möglich, eine Positionskorrektur auf einfache Weise auszuführen, indem sich auf die Datenbank bezogen wird, ohne von den Kameras 4A, 4B und 4C die Informationen über die Zeiten zu empfangen, zu denen die Bilder aufgenommen wurden.
  • In dieser Ausführungsform kann, obgleich die Fördergeschwindigkeit des Fahrzeugkörpers O, welcher das Objekt ist, von dem Codierer 3 detektiert wird, der in dem Motor 9 vorgesehen ist, der den Förderer 2 antreibt, alternativ die Fördergeschwindigkeit berechnet werden, ohne den Codierer 3 zu verwenden, indem die Bilder verarbeitet werden, die von den Kameras 4A, 4B und 4C erfasst wurden.
  • Wie beispielsweise in 6 gezeigt, werden, wenn drei Bilder erfasst werden, unter Verwendung mindestens einer der zuvor beschriebenen drei Kameras 4A, 4B und 4C in dem gleichen Sichtfeld bei unterschiedlichen Zeiten t1, t2 und t3 mit einem vorbestimmten Zeitintervall Δt dazwischen, in den einzelnen Bildern die kreisförmigen Löcher A, B und C erkannt, die in den Bildern umfasst sind, und die Mittelpositionen P1, P2 und P3 der erkannten kreisförmigen Löcher A, B und C werden berechnet.
  • Dann wird eine Fördergeschwindigkeit V berechnet, indem Differenzen zwischen den Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C in den Bildern, die benachbart zueinander in der Zeitachsenrichtung erfasst wurden, und den Mittelpositionen P1, P2 und P3 in der Fördervorrichtung durch das Zeitintervall Δt zur Bildaufnahme geteilt werden. In dem Fall, in dem die Fördergeschwindigkeit V mehrere Male für die gleichen kreisförmigen Löcher A, B und C berechnet wird, sollte ein Durchschnittswert davon oder ein Wert, der unter Verwendung der Methode der kleinsten Quadrate oder Ähnlichem ermittelt wird, als die Fördergeschwindigkeit V ausgegeben werden.
  • Wenn die kreisförmigen Löcher A, B und C nicht temporär detektiert werden, kann die Fördergeschwindigkeit V, die unmittelbar vor diesem Zeitraum berechnet wird, weiter ausgegeben werden.
  • In dieser Ausführungsform sind die drei Kameras 4A, 4B und 4C in der Nachbarschaft des Förderers 2 gesichert, und jede einzelne der Kameras 4A, 4B und 4C nimmt das Bild eines beliebigen der kreisförmigen Löcher A, B und C auf. Alternativ kann eine Kamera (Handkamera) an einem Handgelenk des Roboters 6 montiert sein, der in der Nachbarschaft des Förderers 2 angeordnet ist, und der Arbeit an dem Fahrzeugkörper O ausführt, die an dem Handgelenk montierte Kamera kann bewegt werden, indem der Roboter 6 betätigt wird, und somit können drei Bilder erfasst werden, bei denen die drei kreisförmigen Löcher A, B und C zu unterschiedlichen Zeiten aufgenommen werden.
  • In diesem Fall ist es auch möglich, weil die Mittelpositionen P1, P2 und P3 der kreisförmigen Löcher A, B und C, die von den drei Bildern gemessen werden, korrigiert sind, sodass sie äquivalent zu den Positionen sind, an denen die Bilder der drei kreisförmigen Löcher A, B und C zur gleichen Zeit aufgenommen werden, die Position und die Ausrichtung des Fahrzeugkörpers O präzise zu messen.
  • Die Bilder können aufgenommen werden, indem eine einzelne Kamera oder eine Vielzahl von Kameras 4A, 4B und 4C an einem Roboter montiert wird/werden, der separat von dem Roboter 6 ist, der Arbeit an dem Fahrzeugkörper O ausführt.
  • In dieser Ausführungsform gibt es, obgleich der Fahrzeugkörper O als ein Beispiel des Objekts beschrieben worden ist, keine Begrenzung dafür, und das Objektfördersystem 1 gemäß der vorliegenden Erfindung kann eingesetzt werden, wenn die Position und die Ausrichtung eines anderen willkürlichen Objekts präzise gemessen werden, während das Objekt mittels des Förderers 2 gefördert wird.
  • In dieser Ausführungsform ist ein Fall beschrieben worden, in dem die Rechenvorrichtung 5 in der Steuervorrichtung 7 des Roboters 6 vorgesehen ist. Alternativ kann, wie in 7 gezeigt, in dem Fall, in dem eine Vielzahl von Robotern 6 Arbeit an dem gleichen Fahrzeugkörper O ausführen, eine Zellensteuervorrichtung 20, an die die Steuervorrichtungen 7 der einzelnen Roboter 6 angeschlossen sind, vorgesehen sein, und die Zellensteuervorrichtung 20 kann mit der Rechenvorrichtung 5 versehen sein. Wenn die Ausgaben von den Kameras 4A, 4B und 4C und dem Codierer 3 in die Zellensteuervorrichtung 20 eingegeben sind, und die Position und die Ausrichtung des Fahrzeugkörpers O in der Zellensteuervorrichtung 20 gemessen sind, ist es möglich, die Position und die Ausrichtung des Fahrzeugkörpers O weiter zu messen, sodass sie von den anderen Robotern 6 weiterverwendet werden können, sogar wenn der Strom eines der Roboter 6 vorübergehend zur Wartung oder Ähnlichem ausgeschaltet ist.
  • Bezugszeichenliste
  • 1
    Objektfördersystem
    2
    Förderer (Fördervorrichtung)
    3
    Codierer (Bewegungsgeschwindigkeitsdetektionseinheit, Detektionseinheit)
    4A, 4B, 4C
    Kamera
    6
    Roboter
    10
    Positionsmesseinheit
    11
    Positionskorrektureinheit
    12
    Sichtlinienberechnungseinheit
    13
    Positions-und-Ausrichtungs-Berechnungseinheit (Positionsberechnungseinheit)
    A, B, C
    kreisförmiges Loch (Merkmalspunkt)
    O
    Fahrzeugkörper (Objekt)
    V
    Fördergeschwindigkeit (Bewegungsgeschwindigkeit)

Claims (6)

  1. Objektfördersystem, umfassend: eine Fördervorrichtung, die ein Objekt fördert, das mit drei oder mehr Merkmalspunkten versehen ist, die in bekannten Positionsbeziehungen in Bezug zueinander angeordnet sind; eine Kamera, die Bilder der einzelnen Merkmalspunkte des Objekts aufnimmt, das von der Fördervorrichtung gefördert wird; eine Positionsmesseinheit, die Positionen der einzelnen Merkmalspunkte von den Bildern misst, die von der Kamera erfasst werden; eine Detektionseinheit, die die Position des Objekts oder eine Bewegungsgeschwindigkeit davon detektiert, die von der Fördervorrichtung erzielt wird; eine Positionskorrektureinheit, die, basierend auf der Position oder der Bewegungsgeschwindigkeit, die von der Detektionseinheit detektiert werden, und Differenzen in den Zeiten, zu denen die einzelnen Bilder von der Kamera erfasst wurden, die Positionen der einzelnen Merkmalspunkte korrigiert, die von der Positionsmesseinheit gemessen werden, sodass Positionen erzielt werden, an denen die Merkmalspunkte zu der gleichen Zeit angeordnet sind; eine Sichtlinienberechnungseinheit, die Sichtlinien berechnet, die durch die einzelnen Merkmalspunkte basierend auf den Positionen der einzelnen Merkmalspunkte verlaufen, die von der Positionskorrektureinheit und der Position der Kamera korrigiert werden; und eine Positionsberechnungseinheit, die mindestens eine dreidimensionale Position des Objekts berechnet, indem ein Polygon, das eine bekannte Form aufweist, in dem die Positionen der einzelnen Merkmalspunkte als Scheitelpunkte davon dienen, auf die drei oder mehr Sichtlinien angewandt wird, die von der Sichtlinienberechnungseinheit berechnet werden.
  2. Objektfördersystem nach Anspruch 1, wobei das Objekt mit drei der Merkmalspunkte versehen ist, und die Positionsberechnungseinheit die dreidimensionale Position und Ausrichtung des Objekts berechnet, indem sie ein Dreieck, in dem die Positionen der einzelnen Merkmalspunkte als die Scheitelpunkte davon dienen, auf die drei Sichtlinien anwendet, die von der Sichtlinienberechnungseinheit berechnet werden.
  3. Objektfördersystem nach Anspruch 2, wobei drei Kameras vorgesehen sind, und die einzelnen Kameras an Positionen angeordnet sind, an denen jede der Kameras ein Bild eines unterschiedlichen der Merkmalspunkte aufnehmen kann.
  4. Objektfördersystem nach Anspruch 1 oder 2, überdies umfassend: einen Roboter, der in der Lage ist, die Kamera zu einer Position zu bewegen, an der es möglich ist, die Bilder der einzelnen Merkmalspunkte aufzunehmen.
  5. Objektfördersystem nach einem beliebigen der Ansprüche 1 bis 4, wobei die Detektionseinheit ein Codierer ist, der in der Fördervorrichtung vorgesehen ist.
  6. Objektfördersystem nach einem beliebigen der Ansprüche 1 bis 4, wobei die Detektionseinheit eine Position oder eine Bewegungsgeschwindigkeit des Objekts basierend auf den Bildern detektiert, die von der Kamera oder den Kameras aufgenommen wurden.
DE102019101005.5A 2018-01-25 2019-01-16 Objektfördersystem Active DE102019101005B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-010493 2018-01-25
JP2018010493A JP6608977B2 (ja) 2018-01-25 2018-01-25 物品搬送システム

Publications (2)

Publication Number Publication Date
DE102019101005A1 true DE102019101005A1 (de) 2019-07-25
DE102019101005B4 DE102019101005B4 (de) 2020-09-17

Family

ID=67144933

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019101005.5A Active DE102019101005B4 (de) 2018-01-25 2019-01-16 Objektfördersystem

Country Status (4)

Country Link
US (1) US10703577B2 (de)
JP (1) JP6608977B2 (de)
CN (1) CN110081816B (de)
DE (1) DE102019101005B4 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6500852B2 (ja) * 2016-07-11 2019-04-17 株式会社安川電機 ロボットシステム、ロボットの制御方法、ロボットコントローラ
JP7023733B2 (ja) * 2018-02-09 2022-02-22 株式会社Screenホールディングス 判定装置、判定方法、錠剤印刷装置および錠剤印刷方法
KR102388059B1 (ko) * 2019-12-27 2022-04-19 경북대학교 산학협력단 모듈러 건축물 유닛의 비틀림 측정 시스템
JP7490483B2 (ja) 2020-07-22 2024-05-27 キヤノン株式会社 システム、情報処理方法、物品の製造方法、プログラム及び記録媒体
JP7434196B2 (ja) 2021-01-29 2024-02-20 日立グローバルライフソリューションズ株式会社 作業システム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4654949A (en) * 1982-02-16 1987-04-07 Diffracto Ltd. Method for automatically handling, assembling and working on objects
JPS61111863A (ja) * 1984-11-05 1986-05-29 Nissan Motor Co Ltd ロボットによる組立装置
US4639878A (en) 1985-06-04 1987-01-27 Gmf Robotics Corporation Method and system for automatically determining the position and attitude of an object
JPH0790494B2 (ja) 1987-08-22 1995-10-04 ファナック株式会社 視覚センサのキャリブレ−ション方法
US4995091A (en) * 1989-10-25 1991-02-19 Mazda Motor Manufacturing (Usa) Corporation Method of and apparatus for detecting objects in an assembly line
JPH06270083A (ja) * 1993-03-19 1994-09-27 Tokico Ltd ワーク位置検知装置
JP3632965B2 (ja) * 1993-12-24 2005-03-30 マツダ株式会社 物体計測装置および方法
US5802202A (en) 1993-12-24 1998-09-01 Mazda Motor Corporation Method of determining three dimensional position of object and apparatus therefor
JP3213669B2 (ja) * 1994-05-30 2001-10-02 東芝テック株式会社 チェックアウトシステム
KR100422370B1 (ko) * 2000-12-27 2004-03-18 한국전자통신연구원 3차원 물체 부피계측시스템 및 방법
DE10251910B4 (de) * 2002-11-07 2013-03-14 Siemens Aktiengesellschaft Containerkran
KR100622066B1 (ko) * 2004-12-23 2006-09-19 현대자동차주식회사 자동차 조립 공정용 대차 시스템
US7798316B2 (en) * 2007-04-11 2010-09-21 Chrysler Group Llc Robotic frame handling system
DE102010045010A1 (de) * 2010-09-10 2012-03-15 Eisenmann Ag Fördereinheit und Fördersystem zum Fördern von Fahrzeugkarosserien sowie Anlage zur Behandlung von Fahrzeugkarosserien
JP6346027B2 (ja) * 2014-07-31 2018-06-20 川崎重工業株式会社 作業装置
NL2015542B1 (en) * 2015-10-01 2017-04-20 Rexnord Flattop Europe Bv Planning system and method for maintaining a cycle time in an automobile factory.
JP6126183B2 (ja) 2015-10-05 2017-05-10 ファナック株式会社 ターゲットマークを撮像するカメラを備えたロボットシステム
JP6333870B2 (ja) 2016-01-28 2018-05-30 ファナック株式会社 複数の機械および少なくとも一つのセンサを備えたシステム
JP6430986B2 (ja) 2016-03-25 2018-11-28 ファナック株式会社 ロボットを用いた位置決め装置
JP6500852B2 (ja) * 2016-07-11 2019-04-17 株式会社安川電機 ロボットシステム、ロボットの制御方法、ロボットコントローラ
JP6478234B2 (ja) 2017-06-26 2019-03-06 ファナック株式会社 ロボットシステム
KR102359925B1 (ko) * 2017-07-12 2022-02-07 현대자동차 주식회사 자동차 조립라인의 차체 트랙킹 장치 및 방법

Also Published As

Publication number Publication date
JP6608977B2 (ja) 2019-11-20
US10703577B2 (en) 2020-07-07
US20190225430A1 (en) 2019-07-25
CN110081816B (zh) 2020-06-26
CN110081816A (zh) 2019-08-02
JP2019128274A (ja) 2019-08-01
DE102019101005B4 (de) 2020-09-17

Similar Documents

Publication Publication Date Title
DE102019101005A1 (de) Objektfördersystem
DE102018124712A1 (de) Arbeitssystem, Verfahren zum Durchführen von Arbeit an einem Objekt und Roboter
DE102018118556B4 (de) Robotersystem
DE102016114337B4 (de) System und verfahren zum verknüpfen von koordinatenräumen maschinellen sehens in einer umgebung angeleiteten zusammenbaus
DE102015015638B4 (de) Vorrichtung und Verfahren zum Übertragen von Artikeln unter Verwendung eines Roboters
DE102009034529B4 (de) Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
EP1711777B1 (de) Verfahren zur bestimmung der lage und der relativverschiebung eines objekts im raum
DE102014102943B4 (de) Robotersystem mit Funktionalität zur Ortsbestimmung einer 3D- Kiste
AT507339B1 (de) Verfahren und anlage zum aufnehmen und/oder bearbeiten von objekten
EP3122479B1 (de) Fördersystem, anlage zur schüttgutsortierung mit einem solchen fördersystem und transportverfahren
DE102018116413A1 (de) Robotersystem
DE102018101375B4 (de) Artikelbeförderungsvorrichtung, die mindestens einen Sensor nutzt
DE102018114682A1 (de) Robotersystem
WO2005090907A1 (de) Verfahren zur lokalisierung von fehlstellen und markiersystem
EP0018673A1 (de) Verfahren zum Vermessen von Schussfehlern und Schussfehler-Vermessungsanlage zur Durchführung des Verfahrens
DE102010023736A1 (de) Robotersystem mit Problemerkennungsfunktion
DE102018129166A1 (de) Roboter und Robotersystem
WO2016023672A1 (de) Vorrichtung und verfahren zur kamerabasierten konturenkontrolle
DE112016002353T5 (de) Montagevorrichtung und Montageverfahren für einen Zahnradmechanismus
DE102019109717A1 (de) Arbeitsrobotersystem und Arbeitsroboter
DE3612144A1 (de) Verfahren und einrichtung zur bestimmung der greifposition
DE102017125033A1 (de) Verfahren und Industrieroboter zur Prüfung von Schweißverbindungen, insbesondere von Schweißpunkten
DE102008019435B4 (de) Verfahren zum berührungslosen Vermessen dreidimensionaler, komplex geformter Bauteile
DE10016963C2 (de) Verfahren zur Bestimmung der Position eines Werkstücks im 3D-Raum
DE102018109309B4 (de) Objekterkennungsvorrichtung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final