DE102020112352A1 - Kamera und Roboter-System - Google Patents
Kamera und Roboter-System Download PDFInfo
- Publication number
- DE102020112352A1 DE102020112352A1 DE102020112352.3A DE102020112352A DE102020112352A1 DE 102020112352 A1 DE102020112352 A1 DE 102020112352A1 DE 102020112352 A DE102020112352 A DE 102020112352A DE 102020112352 A1 DE102020112352 A1 DE 102020112352A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- workpiece
- overhead
- close
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/023—Optical sensing devices including video camera means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/04—Viewing devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/401—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
- B25J9/1666—Avoiding collision or forbidden zones
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37017—Calibration of vision system, set correct attidude of sensor to workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37208—Vision, visual inspection of workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39091—Avoid collision with moving obstacles
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40476—Collision, planning for collision free path
Abstract
Description
- TECHNISCHER BEREICH
- Die vorliegende Offenbarung bezieht sich auf eine Kamera und ein Robotersystem.
- STAND DER TECHNIK
- Es ist ein Robotersystem bekannt, bei dem eine Anordnungszustandserfassungseinheit mit einer Kamera und einem Laserscanner, der über einem Stapler angeordnet ist, in das Werkstücke eingelegt werden (siehe z.B. Patentdokument 1). Der Laserscanner enthält eine Laserlichtquelle zur Erzeugung von Spaltlicht, einen Spiegel und einen Motor zum Antrieb des Spiegels. In diesem Robotersystem wird ein Abstand zu jedem Werkstück (d.h. dreidimensionale Forminformationen jedes Werkstücks im Stapler) durch Triangulation auf der Grundlage eines Drehwinkels des Motors, einer Position der Abbildungsvorrichtung der Kamera und einer Positionsbeziehung zwischen der Laserlichtquelle, dem Spiegel und der Kamera erfasst. Das Robotersystem führt eine Steuerung durch, um zu bewirken, dass ein Handteil eines der mehreren im Stapler befindlichen Werkstücke (z.B. ein Werkstück, das sich in einer leicht zu haltenden Position befindet) auf der Grundlage der erfassten Positionsinformationen hält. Ein Roboterarm ist mit einer Haltezustandserfassungskamera ausgestattet, die einen Haltezustand des vom Handteil gehaltenen Werkstücks erkennt.
- ZITATIONSLISTE
- PATENTLITERATUR
- Patentdokument 1:
JP-A-2013-78825 - ZUSAMMENFASSUNG DER ERFINDUNG
- Da beim herkömmlichen Robotersystem die Kamera jedoch in der Anordnungszustandserfassungseinheit vorgesehen ist, die über dem Stapler angeordnet ist, kann das Arm- oder Handteil, wenn das Handteil zum Greifen nahe an ein Werkstück gebracht wird, einen toten Bereich für die Kamera erzeugen, d.h. ein Teil des Sichtfeldes der Kamera wird unterbrochen. Dies führt zu dem Problem, dass die Positionsgenauigkeit des Handteils zum Greifen eines Werkstücks abnimmt oder die Position (mit anderen Worten: die Koordinaten) eines Werkstücks unbekannt wird. Wenn im konventionellen Robotersystem Werkstücke im Stapler vorhanden sind, deren dreidimensionale Forminformationen nicht erfasst werden können, erhöht sich beim herkömmlichen Robotersystem die Anzahl der Werkstücke, die vom Handteil nicht gehalten werden können, wodurch die Effizienz des Werkstücks verringert wird.
- Das Konzept der vorliegenden Offenbarung ist konzipiert worden, und daher besteht ein Gegenstand der Offenbarung darin, eine Kamera und ein Robotersystem bereitzustellen, die in der Lage sind, die Verringerung der Positionsgenauigkeit eines Handteils zum Greifen eines Werkstücks zu unterdrücken und dadurch die Effizienz des Werkstücks zu erhöhen.
- Diese Offenbarung umfasst eine Kamera mit einem Kameragehäuse, das an der Spitze eines Roboterarms befestigt ist und eine in dem Kameragehäuse untergebrachte Kameraeinheit. Die Kameraeinheit verfügt über eine Mehrzahl von Kameravorrichtungen, die sich in ihren optischen Eigenschaften für die Abbildung eines Werkstücks unterscheiden.
- Die Offenbarung stellt auch ein Robotersystem mit einer Kamera und einer Steuerung zur Verfügung. Die Kamera verfügt über ein Kameragehäuse, das an der Spitze eines Roboterarms befestigt ist und eine Kameraeinheit, die im Kameragehäuse untergebracht ist und eine Mehrzahl von Kameravorrichtungen aufweist, die sich in ihren optischen Eigenschaften für die Abbildung eines Werkstücks unterscheiden. Die Steuerung erzeugt auf der Grundlage der von der Kamera erfassten Bildinformationen ein Steuersignal zur Steuerung des Betriebs des Roboterarms.
- Nach der vorliegenden Offenbarung kann die Verringerung der Positionsgenauigkeit eines Handteils zum Greifen eines Werkstücks unterdrückt und dadurch die Effizienz des Werkstücks erhöht werden.
- Figurenliste
-
-
1 ist ein Diagramm, das eine Konfiguration eines Robotersystems nach einer Ausführungsform zeigt. -
2 ist eine vergrößerte perspektivische Ansicht eines wesentlichen Teils der Spitze eines Roboterarms. -
3 ist eine vergrößerte perspektivische Ansicht einer Kamera. -
4 ist eine vergrößerte perspektivische Ansicht einer modifizierten Version des Kameragehäuses. -
5 ist eine vergrößerte Seitenansicht der Spitze des Roboterarms in einem Zustand, in dem eine Überkopfkamera der in1 gezeigten Kamera15 in Betrieb ist. -
6A ist eine vergrößerte Seitenansicht der Spitze des Roboterarms in einem Zustand, in dem die in1 gezeigte Kamera im Nahbereich arbeitet. -
6B ist ein Diagramm zur Beschreibung eines Vorgangs, bei dem die Musterbeleuchtung von einer Lichtquelle in einem Zustand durchgeführt wird, in dem die in1 gezeigte Kamera in einem Überkopfmodus arbeitet. -
6C ist ein Diagramm zur Beschreibung einer Beziehung zwischen einem Montagetisch und einem Werkstück Farben eines Montagetischs und eines Werkstücks und eines projizierten Musters. -
7 ist ein Blockdiagramm einer Robotersteuerung, die in1 dargestellt ist. -
8 ist ein Blockdiagramm einer Bildverarbeitungssteuerung, die in1 dargestellt ist. -
9 ist ein Flussdiagramm, das den Ablauf eines von der Bildverarbeitungssteuerung ausgeführten Prozesses zeigt. -
10 ist ein Flussdiagramm, das den Ablauf eines Prozesses zeigt, bei dem der Moduswechsel in Abhängigkeit davon erfolgt, ob die Fokussierung erreicht wird. -
11 ist ein Flussdiagramm, das den Ablauf eines Prozesses zeigt, bei dem der Moduswechsel unter Verwendung von Informationen erfolgt, die von einem externen Gerät gesendet werden. -
12 ist ein Flussdiagramm, das den Ablauf eines Prozesses zeigt, bei dem die Spitze des Roboterarms nahe an ein Werkstück gebracht wird, indem der Roboterarm in Echtzeit durch Echtzeit-Kooperation zwischen der Bildverarbeitungssteuerung und der Robotersteuerung gesteuert wird. - BESCHREIBUNG VON AUSFÜHRUNGSFORMEN
- Eine Ausführungsform, in der eine Kamera und ein Robotersystem gemäß der vorliegenden Offenbarung auf eine bestimmte Art und Weise offengelegt werden, wird im Folgenden ausführlich beschrieben, wobei erforderlichenfalls auf die beigefügten Zeichnungen verwiesen wird. Unnötig detaillierte Beschreibungen können jedoch vermieden werden. So können z.B. detaillierte Beschreibungen bekannter Gegenstände und doppelte Beschreibungen von Bestandteilen, die im Wesentlichen dieselben bereits beschriebenen Elemente aufweisen, weggelassen werden. Dies soll verhindern, dass die folgende Beschreibung unnötig redundant wird, und dadurch das Verständnis für den Fachmann zu erleichtern. Die folgende Beschreibung und die beigefügten Zeichnungen sollen es den Fachmännern ermöglichen, die Offenbarung ausreichend zu verstehen, und sind nicht dazu bestimmt, den in den Ansprüchen dargelegten Gegenstand einzuschränken.
-
1 ist ein Diagramm, das die Konfiguration eines Robotersystems11 entsprechend der Ausführungsform zeigt. Das Robotersystem11 entsprechend der Ausführungsform besteht aus einem Roboter13 , einer Kamera15 und einer Steuerung (z.B. Robotersteuerung17 und Bildverarbeitungssteuerung19 ). - Der Roboter
13 ist mit einem Roboterarm21 ausgestattet. Der Roboter13 ist z.B. ein 6-achsiger (z.B. J1-Achse, J2-Achse, J3-Achse, J4-Achse, J5-Achse und J6-Achse) Knickarmroboter mit sechs Servomotoren23 . Ein für einen Werkstückzweck geeignetes Werkzeug ist an einer Spitze des Roboterarms21 angebracht. In der Ausführungsform ist ein Beispielwerkzeug ein Handteil27 mit einem Paar Fingerelemente25 . Das Handteil27 , das durch die Steuerung verschiedener Aktuatoren, wie z.B. eines Luftzylinders, eines Elektrozylinders oder eines Motors, feine Werkstückarbeiten ausführen kann, kann ein WerkstückW greifen und tragen. - Die J1-Achse des Roboters
13 dient als Rotationszentrum beim Schwenken des gesamten Roboters13 wie bei einer Schwenkdrehung. Die J2-Achse des Roboters13 dient als Rotationszentrum bei der Bewegung des Roboterarms21 in einer Vorwärts-RückwärtsRichtung wie bei einer Kippdrehung. Die J3-Achse des Roboters13 dient als Rotationszentrum bei der Bewegung des Roboterarms21 in vertikaler Richtung wie bei der Kipprotation. Die J4-Achse des Roboters13 dient als Rotationszentrum bei der Drehung des Handgelenks des Roboterarms21 in vertikaler Richtung wie bei der Kipprotation. Die J5-Achse des Roboters13 dient als s ein Rotationszentrum beim Schwenken des Handgelenks des Roboterarms21 . Die J6-Achse des Roboters13 dient als s ein Rotationszentrum bei der Drehung des Handteils27 des Roboterarms21 wie bei einer Schwenkdrehung. - Die Steuerung, die bewirkt, dass der Roboter
13 einen vorgeschriebenen Vorgang ausführt, ist über ein Kabel29 mit dem Roboter13 verbunden. Die AchsenJ1 bisJ6 des Roboters13 werden unabhängig voneinander durch eine Steuereinheit69 (siehe7 ) der Robotersteuerung17 gesteuert. Die Robotersteuerung17 kann den Roboter13 korrekt in eine vorgesehene Position bewegen, indem sie mit Hilfe einer Eingabeeinheit33 Koordinaten des Roboters13 bestimmt, die auf einem Monitor31 angezeigt werden. - Die Eingabeeinheit
33 verfügt über Eingabetasten und kann integriert mit dem Monitor31 ausgestattet werden. Wenn ein Bediener wünscht, dass der Roboter13 einen vorgeschriebenen Setzvorgang ausführt, gibt er oder sie mit Hilfe der Eingabetasten Daten mathematischer Ausdrücke ein, die er durch Modellierung einer Bewegungsbahn erhält, der der Roboter13 bei der Ausführung des Setzvorgangs folgen soll. - Es ist beispielsweise möglich, den Roboter
13 mit Achskoordinatensystemen, die den jeweiligen Achsen des Roboters13 zugeordnet sind, und einem orthogonalen Koordinatensystem, dessen Ursprung in einem freien Raum liegt, arbeiten zu lassen und Teile vom Ursprung bis zu den Spitzen des Handteils27 des Roboters13 zu korrelieren. -
2 ist eine vergrößerte perspektivische Ansicht eines wesentlichen Teils einer Spitze35 des Roboterarms21 . Im Roboterarm21 ist ein Handgelenkbasisteil39 mit einer Armspitze37 so verbunden, dass es um die AchseJ4 drehbar ist. Eine Handgelenkspitze41 ist mit dem Handgelenkbasisteil39 so verbunden, dass sie um die J5-Achse schwenkbar ist. Das Handgelenkbasisteil39 und die Handgelenkspitze41 bilden ein Handgelenk43 . Ein Handteil27 ist mit der Handgelenkspitze41 so verbunden, dass es um die J6-Achse drehbar ist. In der Handgelenkspitze41 ist ein Servomotor23 (siehe1 ) für den Drehantrieb des Handteils27 eingebaut. - Eine Basis
45 des Handteils27 wird durch den in der Handgelenkspitze41 eingebauten Servomotor23 um die J6-Achse gedreht. Die Basis45 hat zum Beispiel die Form einer kreisförmigen Scheibe, die senkrecht zur J6-Achse steht. Eine Halterung49 , die mit einer Fingerelementbewegungsnut47 ausgebildet ist, ist an der Spitzenfläche der Basis45 befestigt. Ein Paar Fingerelemente25 , die sich einander annähern und voneinander entfernen können, sind an der Klammer49 befestigt. Das Paar Fingerelemente25 kann sich einander nähern und voneinander entfernen, indem es entlang der Fingerelementbewegungsnut47 gleitet. Alternativ können sich die Fingerspitzen des Paares von Fingerelementen25 einander annähern und voneinander entfernen, da ihre Fingerbasisteile drehbar von den jeweiligen Stützschäften51 getragen werden. In dem in der Ausführungsform verwendeten Handteil27 wird das Paar Fingerelemente25 drehbar von den entsprechenden Stützschäften51 getragen. - Beim Roboter
13 bildet die Armspitze37 zum Handteil27 die Spitze35 des Roboterarms21 . - Die Kamera
15 ist am Handteil27 der Spitze35 des Roboterarms21 befestigt. Genauer gesagt, die Kamera15 ist an der Halterung49 befestigt, die an der Basis45 in der Ebene einschließlich ihres Schwerpunkts befestigt ist. Die Befestigungsposition der Kamera15 ist jedoch nicht auf diese Position der Halterung49 beschränkt; die Kamera15 kann an jeder beliebigen Stelle an der Spitze35 des Roboterarms21 befestigt werden. Die Kamera15 ist über ein Übertragungskabel53 mit der Bildverarbeitungssteuerung19 verbunden. -
3 ist eine vergrößerte perspektivische Ansicht der Kamera15 . Die Kamera15 ist mit einem Kameragehäuse55 , das an der Spitze35 des Roboterarms21 befestigt ist, und einer Kameraeinheit57 , die im Kameragehäuse55 untergebracht ist, ausgestattet. Zum Beispiel ist das Kameragehäuse55 an der Halterung49 des Handteils27 in der Ebene einschließlich seines Schwerpunkts befestigt. - Das Kameragehäuse
55 ist in der Mitte zwischen den beiden Fingerelementen25 angeordnet, die an der Spitze35 des Roboterarms21 befestigt sind, so dass sie sich einander nähern und voneinander entfernen können (in der durch Pfeil a in2 angegebenen Richtung). - Die Kameraeinheit
57 ist so konfiguriert, dass eine Überkopfkamera59 und zwei Nahbereichskameras61 , die sich im Arbeitsabstand von der Überkopfkamera59 unterscheiden, miteinander integriert sind. - Bei der einen Überkopfkamera
59 und den beiden Nahbereichskameras61 handelt es sich jeweils um Kameras mit kleinem Durchmesser, deren Außendurchmesser z.B. kleiner oder gleich 6 mm ist. Das Kameragehäuse55 , in dem die eine Überkopfkamera59 und die beiden Nahbereichskameras61 untergebracht sind, ist so groß, dass es z.B. in einen Kreis mit einem Durchmesser kleiner oder gleich 15 mm passt. Damit ist die Kamera15 kleiner und leichter als die in der konventionellen Technik verwendete Anordnungszustandserfassungseinheit. - Das Kameragehäuse
55 , das in einen Kreis passt, dessen Durchmesser kleiner oder gleich 15 mm ist, hat die Form eines Kreises, einer Ellipse, eines länglichen Kreises, eines Polygons wie z.B. eines Rechtecks (einschließlich eines Trapezes und einer Raute), eines Fünfecks oder eines Sechsecks, eines Halbkreises oder einer Tropfenform in einer Vorderansicht, von der Themenseite aus gesehen. - In der Ausführungsform sind die eine Überkopfkamera
59 und die beiden Nahbereichskameras61 so angeordnet, dass ihre optischen Achsen63 parallel zueinander verlaufen. Die optischen Achsen63 befinden sich an den Scheitelpunkten eines Dreiecks in einer Ebene, die senkrecht zu den optischen Achsen63 verläuft. - In der Kamera
15 ist das oben erwähnte Dreieck nach der Ausführungsform ein regelmäßiges Dreieck. Das Dreieck, in dem die eine Überkopfkamera59 und die beiden Nahbereichskameras61 angeordnet sind, ist nicht auf ein regelmäßiges Dreieck beschränkt und kann ein gleichschenkliges Dreieck oder ein schiefwinkliges Dreieck sein. - Das Kameragehäuse
55 , in dem die Kameras mit kleinem Durchmesser an den jeweiligen Scheitelpunkten eines Dreiecks untergebracht sind, kann ein dreieckiger Zylinder sein. In der Kamera15 werden die Kameras mit kleinem Durchmesser integriert befestigt, indem z.B. Harz in einem Zustand aufgetragen wird, in dem die Kameras mit kleinem Durchmesser innerhalb der jeweiligen Kanten des dreieckigen Zylinders angeordnet sind. - In der Kamera
15 sind in den Mittelpunkten der jeweiligen Seiten des Dreiecks Beleuchtungsöffnungen65 ausgebildet. In jede Beleuchtungsöffnung65 kann eine Lichtaustrittsendfläche eines Lichtleiters, der eine optische Faser ist, eingesetzt werden. Alternativ kann in jede Beleuchtungsöffnung65 eine LED selbst als Beleuchtungslichtquelle eingesetzt werden. -
4 ist eine vergrößerte perspektivische Ansicht einer modifizierten Version des Kameragehäuses55 . Das Kameragehäuse55 , das die Kameras mit kleinem Durchmesser an den jeweiligen Scheitelpunkten eines Dreiecks aufnimmt, kann ein Kreiszylinder sein. Auch in diesem Fall werden die Kameras mit kleinem Durchmesser integriert befestigt, indem Harz in den Innenraum des kreiszylindrischen Kameragehäuses55 in einem Zustand eingefüllt wird, in dem die Kameras mit kleinem Durchmesser an den jeweiligen Spitzen des Dreiecks angebracht sind. In der Kameraeinheit57 dieser modifizierten Version entfallen die Beleuchtungsöffnungen65 . - Die Kamera
15 ist integriert mit mehreren Kameravorrichtungen (z.B. Überkopfkamera und Nahbereichskameras) ausgestattet, die zur Abbildung eines WerkstücksW dienen und sich in ihren optischen Eigenschaften unterscheiden. Die optischen Merkmale sind Arbeitsabstand, Blickwinkel usw. Die Verringerung der Positionsgenauigkeit des Handteils27 zum Greifen eines WerkstücksW wird unterdrückt, indem die in ihren optischen Eigenschaften unterschiedlichen Kameravorrichtungen entsprechend dem Abstand zum WerkstückW geschaltet werden. Der Begriff „Arbeitsabstand“ bezeichnet den Abstand von der Linsenspitze jeder Kameravorrichtung zu einem Objekt (z.B. WerkstückW ), d.h. einen Abstand, mit dem die Fokussierung erreicht wird. Der Begriff „Blickwinkel“ bezeichnet einen Winkelbereich, in dem ein Bild durch das Objektiv aufgenommen werden kann. - Bei der Kamera
15 ist der ArbeitsabstandWD1 und der BlickwinkelAV1 der Überkopfkamera59 z.B. auf 100 bis 300 mm bzw. 70° eingestellt. Der ArbeitsabstandWD2 und der BlickwinkelAV2 jeder Nahbereichskamera61 sind z.B. auf 5 bis 99,9 mm bzw. 100° eingestellt. Die Umschaltung auf die Kameravorrichtung mit einem Weitwinkelobjektiv bei der Abbildung eines WerkstücksW aus der Nähe ermöglicht eine Weitwinkelabbildung, d.h. die Erfassung des gesamten WerkstücksW , auch aus der Nähe des WerkstücksW . - Die Überkopfkamera
59 erkennt die Position eines WerkstücksW , indem sie das gesamte WerkstückW durch ein einziges Objektiv abbildet. Die Überkopfkamera59 ermöglicht es, eine ungefähre Entfernung zum WerkstückW zu berechnen, indem sie für die Größe des WerkstücksW einen Größenvergleich zwischen einem Bild des WerkstücksW und CAD-Daten durchführt, die im Voraus in einem Speicher83 gespeichert werden. Die CAD-Daten des WerkstücksW enthalten Daten, die eine Größe des WerkstücksW angeben, wie z.B. eine Erscheinungsform und einen Umriss. Wenn ein Bild des WerkstücksW aufgenommen wird, das klein ist, bedeutet dies, dass der Abstand zum WerkstückW groß ist, und wenn ein Bild des WerkstücksW aufgenommen wird, das groß ist, bedeutet dies, dass der Abstand zum WerkstückW klein ist. Die Überkopfkamera59 ermöglicht es, eine ungefähre Entfernung zu berechnen, indem sie die Größe des aufgenommenen Bildes mit der durch die CAD-Daten angegebenen Größe vergleicht. Die Überkopfkamera59 hat eine geringe Auflösung, obwohl sie eine große Brennweite hat. - Dagegen dienen die Nahbereichskameras
61 zur Entfernungsmessung, indem sie ein WerkstückW ganz oder teilweise durch zwei Objektive abbilden. Was ein Verfahren zur Entfernungsmessung betrifft, so sind die beiden Nahbereichskameras61 horizontal angeordnet und nehmen zwei Bilder (ein Beispiel für ein Bildpaar) mit einer Parallaxe gleichzeitig auf. Die Nahbereichskameras61 müssen ein Werkstück nicht gleichzeitig abbilden, wenn das WerkstückW oder der Roboterarm21 während der Abbildung nicht bewegt wird. Die Nahbereichskameras61 ermöglichen es, durch Berechnung Informationen in Tiefenrichtung des WerkstücksW zu erhalten, d.h. Informationen über das Subjekt als dreidimensionalen Körper, und auf der Grundlage von zwei aufgenommenen Bildern einen Abstand der Nahbereichskameras61 zum WerkstückW zu berechnen. Die Nahbereichskameras61 haben eine hohe Auflösung, obwohl sie einen kurzen Arbeitsabstand haben. In der Kameraeinheit57 wird je nach Bedarf zwischen der Überkopfkamera59 und den Nahbereichskameras61 umgeschaltet. - Eine Bildverarbeitungseinheit
77 der Bildverarbeitungssteuerung19 kann ein Bild (Bilder) erfassen, das (die) von der Überkopfkamera59 oder den Nahbereichskameras61 in einem kurzen Zyklus aufgenommen wurde(n) (z.B, 0,002 s oder kürzer) erfassen, eine geradlinige Entfernung von der Kamera15 zum WerkstückW und eine Positionsabweichung des WerkstücksW , wie es von der Kamera15 aus gesehen wird (mit anderen Worten, eine Abweichung einer relativen Position des WerkstücksW in einer Blickrichtung von der Spitze35 des Roboterarms21 ), auf der Grundlage des Bildes/der Bilder, das/die von der Überkopfkamera59 oder den Nahbereichskameras61 aufgenommen wurde(n), berechnen, die (Rück-)Berechnungsergebnisse in Echtzeit an die Robotersteuerung17 senden (z.B., innerhalb von 0,002 s oder kürzer nach der Aufnahme) als Rückmeldedaten an die Robotersteuerung17 senden (siehe12 ). Zum Beispiel kann die Bildverarbeitungseinheit77 einen geradlinigen Abstand zwischen der Kamera15 und dem WerkstückW und eine Positionsabweichung des WerkstücksW , wie es von der Kamera15 aus gesehen wird, berechnen, indem sie ein von der Überkopfkamera59 aufgenommenes Bild mit CAD-Daten des WerkstücksW vergleicht, die vorab im Speicher83 gespeichert wurden (z.B. durch Vergleich einer Größe des WerkstücksW im aufgenommenen Bild und den CAD-Daten). Alternativ kann z.B. die Bildverarbeitungseinheit77 eine geradlinige Entfernung zwischen der Kamera15 und dem WerkstückW und eine Positionsabweichung des WerkstücksW , wie es von der Kamera15 aus gesehen wird, auf der Grundlage des gesamten WerkstücksW oder eines Teils davon in zwei Bildern (ein Beispiel für ein Bildpaar) berechnen, die von den Nahbereichskameras61 durch zwei Objektive aufgenommen wurden. - Die Robotersteuerung
17 steuert die Teile des Roboterarms21 auf der Grundlage von Rückmeldedaten, die von der Bildverarbeitungssteuerung19 in Echtzeit gesendet werden, so dass die Spitze35 des Roboterarms21 näher an das WerkstückW herankommt. Da der Roboterarm21 von der Robotersteuerung17 auf der Grundlage der Rückmeldedaten gesteuert wird, die von der Bildverarbeitungssteuerung19 in Echtzeit gesendet werden, kann die Spitze35 mit höherer Genauigkeit und Geschwindigkeit näher an das WerkstückW herangeführt werden und das WerkstückW richtig greifen. -
12 ist ein Flussdiagramm, das den Ablauf eines Prozesses zeigt, bei dem die Spitze35 des Roboterarms21 nahe an ein WerkstückW gebracht wird, indem der Roboterarm21 in Echtzeit durch Echtzeit-Kooperation zwischen der Bildverarbeitungssteuerung19 und der Robotersteuerung17 gesteuert wird. - Im Schritt StD1 beurteilt die Bildverarbeitungseinheit
77 der Bildverarbeitungssteuerung19 , ob das gesamte WerkstückW in einem Bild der Überkopfkamera59 oder das gesamte WerkstückW oder ein Teil davon in Bildern der Nahbereichskameras61 gefunden wird. Wenn das gesamte WerkstückW nicht in dem von der Überkopfkamera59 aufgenommenen Bild oder das gesamte WerkstückW oder ein Teil davon nicht in den von den Nahbereichskameras61 aufgenommenen Bildern (StD1: NEIN) gefunden wird, ist der in12 dargestellte Prozess beendet. - Wenn andererseits das gesamte Werkstück
W in dem von der Überkopfkamera59 aufgenommenen Bild oder das gesamte WerkstückW oder ein Teil davon in den von den Nahbereichskameras61 aufgenommenen Bildern gefunden wird (StD1 : JA), berechnet die Bildverarbeitungseinheit77 im SchrittStD2 eine geradlinige Entfernung von der Kamera15 zum WerkstückW und eine Positionsabweichung des WerkstücksW , wie es von der Kamera15 aus gesehen wird (mit anderen Worten, eine Abweichung einer relativen Position des WerkstücksW in einer Blickrichtung von der Spitze35 des Roboterarms21 ). Beim SchrittStD3 sendet die Bildverarbeitungseinheit77 die Berechnungsergebnisse des SchrittsStD2 als Rückmeldedaten in Echtzeit an die Robotersteuerung17 (Feedback). - Im Schritt
StD4 steuert die Robotersteuerung17 die Teile des Roboterarms21 auf der Grundlage der von der Bildverarbeitungssteuerung19 in Echtzeit gesendeten Rückmeldedaten so, dass die Spitze35 des Roboterarms21 nahe an das WerkstückW herankommt. Im SchrittStD5 beurteilt die Bildverarbeitungseinheit77 der Bildverarbeitungssteuerung19 z.B. anhand der von den Nahbereichskameras61 aufgenommenen Bilder, ob sich die Fingerelemente25 der Spitze35 an solchen Positionen befinden, dass sie das WerkstückW greifen können. Der in12 dargestellte Prozess ist beendet, wenn beurteilt wird, ob die Fingerelemente25 der Spitze35 sich an solchen Positionen befinden, dass sie in der Lage sind, das WerkstückW zu greifen (StD5 : JA). Andererseits kehrt das Verfahren zu SchrittStD2 zurück, wenn festgestellt wird, dass sich die Fingerelemente25 der Spitze35 nicht an solchen Positionen befinden, dass sie das WerkstückW greifen können (StD5 : NEIN). Das heißt, die SchritteStD2 -StD5 werden wiederholt ausgeführt, bis die Fingerelemente25 der Spitze35 sich an solchen Positionen befinden, dass sie das WerkstückW durch Echtzeit-Kooperation zwischen der Robotersteuerung17 und der Bildverarbeitungssteuerung19 greifen können. -
6B ist ein Diagramm zur Beschreibung eines Betriebs, bei der die Musterbeleuchtung von einer Lichtquelle in einem Zustand durchgeführt wird, in dem die in1 gezeigte Kamera15 in einem Überkopfmodus arbeitet.6C ist ein Diagramm zur Beschreibung einer Beziehung zwischen den Farben eines Montagetisches DPT und eines WerkstücksW und einem projizierten Muster. Wie in6C dargestellt, kann es, wenn ein Werkstück Wa und ein mit ihm montierter Montagetisch DPT farblich nahe beieinander liegen, vorkommen, dass die Überkopfkamera59 eine Form des Werkstücks Wa nicht erkennen kann (d.h. Bildkanten können nicht erkannt werden), in welchem Fall eine Berechnung zur Abstandsmessung nicht durchgeführt werden kann. Eine Gegenmaßnahme ist die Installation einer Lichtquelle, die in der Lage ist, ein gewünschtes Muster PT1 in die zwischen den beiden Nahbereichskameras61 gebildete Beleuchtungsöffnung65 zu projizieren und das Muster PT1 abzubilden. Mit dieser Maßnahme wird es möglich, selbst wenn eine Form des Werkstücks Wa nicht erkannt werden kann, eine Entfernung zum Werkstück Wa zu messen, indem ein Bild eines musterprojizierten Werkstücks PT2 erkannt wird. Beispiele für das gewünschte Muster sind ein punktförmiges Muster, wie es von einem Laserpointer projiziert wird, oder ein bestimmtes Muster, wie ein Kreis, ein Rechteck, ein Dreieck oder Streifen. -
5 ist eine vergrößerte Seitenansicht der Spitze35 des Roboterarms21 in einem Zustand, in dem die Überkopfkamera59 der in1 gezeigten Kamera15 in Betrieb ist. Wenn der Abstand zu einem WerkstückW größer oder gleich 100 mm ist, arbeitet die Kamera15 mit einem Benutzungsmodus, der von einem Nahbereichsmodus auf einen Überkopfmodus umgeschaltet ist. Das heißt, wenn der Abstand zu einem WerkstückW größer oder gleich 100 mm ist, arbeitet die Kamera15 im Überkopfmodus. -
6A ist eine vergrößerte Seitenansicht der Spitze35 des Roboterarms21 in einem Zustand, in dem die Kamera15 im Nahbereichsmodus arbeitet. Wenn der Abstand zu einem WerkstückW kürzer als oder gleich 99,9 mm ist, arbeitet die Kamera15 mit dem Benutzungsmodus, der vom Überkopfmodus in den Nahbereichsmodus geschaltet ist. Das heißt, wenn der Abstand zu einem WerkstückW kürzer als oder gleich 99,9 mm ist, arbeitet die Kamera15 im Nahbereichsmodus. -
7 ist ein Blockdiagramm der in1 gezeigten Robotersteuerung17 . Die Steuerung erzeugt auf der Grundlage der von der Kamera15 erfassten Bildinformationen ein Steuersignal zur Steuerung eines Betriebs des Roboterarms21 . In der Ausführungsform hat die Steuerung die Robotersteuerung17 und die Bildverarbeitungssteuerung19 . Die Robotersteuerung17 und die Bildverarbeitungssteuerung19 können zusammen in Form eines Prozessors integriert sein, der als CPU (Zentraleinheit), DSP (digitaler Signalprozessor), FPGA (feldprogrammierbares Gate-Array) o.ä. implementiert ist und die Steuerung bildet. - Die Robotersteuerung
17 verfügt über eine Konvertierungseinheit67 , eine Steuereinheit69 , eine Redundanzeinheit71 und einen Speicher73 . Die Konvertierungseinheit67 , die Steuereinheit69 , die Redundanzeinheit71 können einen Prozessor75 bilden. - Die Konvertierungseinheit
67 wandelt Daten mathematischer Ausdrücke, die über die Eingabeeinheit33 eingegeben werden, in Antriebsprogramme für den Antrieb der Servomotoren23 des Roboters13 um, wobei z.B. kinetische Geometrie und Algebra verwendet werden. - Die Steuereinheit
69 veranlasst den Roboter13 , einen Setzvorgang gemäß den von der Konvertierungseinheit67 durch Konvertierung erzeugten Antriebsprogrammen durchzuführen. Die Steuereinheit69 verfügt über einen Prozessor wie z.B. einen DSP (digitaler Signalprozessor), ein spezielles Rechengerät, einen Speicher usw. Die Steuereinheit69 leitet Bewegungszielpositionen der sechs jeweiligen Achsen durch Multiplizieren-Akkumulieren-Operationen auf der Grundlage dreidimensionaler Positionsbeziehungen zwischen orthogonalen Standardkoordinaten des Roboters13 und orthogonalen Koordinaten des Roboters13 , die von einem Bediener eingestellt werden, augenblicklich ab und gibt Steuersignale an die Servomotoren23 aus. - Die Redundanzeinheit
71 fügt Redundanzprogramme zur Durchführung einer Redundanzoperation, die sich von der Einstelloperation unterscheidet, den von der Konvertierungseinheit67 durch Konvertierung erzeugten Antriebsprogrammen hinzu. Die Redundanzoperation ist zum Beispiel eine Operation, bei der der Roboter13 in eine Zielposition bewegt wird, während ein Hindernis unmittelbar vor oder nach der Kollision mit ihm während einer Bewegung des Roboters13 vermieden wird. - Der Speicher
73 speichert die Daten von mathematischen Ausdrücken, die über die Eingabeeinheit33 eingegeben werden, die von der Konvertierungseinheit67 erzeugten Antriebsprogramme, die im Voraus erzeugten Redundanzprogramme usw. -
8 ist ein Blockdiagramm der in1 gezeigten Bildverarbeitungssteuerung19 . Aufgenommene Bilddaten, die von der Kamera15 gesendet werden, werden in die Bildverarbeitungssteuerung19 eingegeben. Die Bildverarbeitungssteuerung19 verfügt über eine Bildverarbeitungseinheit77 , eine Kamerasteuereinheit79 , eine Robotersteuereinheit81 , einen Speicher83 und einen Speicher85 . Die Bildverarbeitungseinheit77 , die Kamerasteuereinheit79 , die Robotersteuereinheit81 können einen Prozessor87 bilden. - Die Bildverarbeitungseinheit
77 führt die Bildverarbeitung auf der Grundlage der aufgenommenen Bilddaten durch, die von der Kamera15 gesendet werden. Die von der Bildverarbeitungseinheit77 erzeugten bildverarbeiteten Daten werden an die Kamerasteuereinheit79 gesendet. - Die Kamerasteuereinheit
79 erfasst die Brennpunktdaten der Überkopfkamera und die Brennpunktdaten der Nahbereichskamera auf der Grundlage der von der Bildverarbeitungseinheit77 gesendeten bildverarbeiteten Daten. Die erfassten Kamerafokuspunktdaten werden an die Robotersteuereinheit81 gesendet. Die Kamerabrennpunktdaten werden im Speicher85 gespeichert. - Die Robotersteuereinheit
81 erfasst die Kamerabetriebsdaten auf der Grundlage der von der Kamerasteuereinheit79 gesendeten Kamerafokuspunktdaten und anderer Daten. Die erfassten Kamerabetriebsdaten werden an die Robotersteuerung17 gesendet. Die Kamerabetriebsdaten werden im Speicher85 gespeichert. -
9 ist ein Flussdiagramm, das den Ablauf eines Prozesses zeigt, der durch die Bildverarbeitungssteuerung19 ausgeführt wird. Im Robotersystem11 , im SchrittStA1 , nimmt die Überkopfkamera59 der Kameraeinheit57 ein WerkstückW und seine Nachbarschaft gemäß einem von der Bildverarbeitungssteuerung19 gesendeten Steuersignal auf. - Wenn das Handteil
27 gemäß einem von der Robotersteuerung17 gesendeten Steuersignal bewegt wird und sich dem WerkstückW nähert, wird im SchrittStA2 der Benutzungsmodus der Kameraeinheit57 vom Überkopfmodus in den Nahbereichsmodus umgeschaltet. - Im Schritt
StA3 misst die Kameraeinheit57 mit Hilfe der Nahbereichskameras61 einen Abstand zum WerkstückW . - Im Schritt
StA4 bringt die Bildverarbeitungssteuerung19 den Roboterarm21 auf der Grundlage des gemessenen Abstands näher an das WerkstückW und weist die Robotersteuerung17 an, ein Steuersignal zum Greifen des WerkstücksW durch die Fingerelemente25 der Spitze35 des Roboterarms21 zu erzeugen. - Im Schritt
StA5 empfängt der Roboterarm21 das von der Robotersteuerung17 erzeugte Steuersignal und die Fingerelemente25 , die im Handteil27 der Spitze35 vorgesehen sind, werden gesteuert. -
10 ist ein Flussdiagramm, das den Ablauf eines Prozesses zeigt, bei dem der Moduswechsel in Abhängigkeit davon erfolgt, ob die Fokussierung erreicht wird. Beim Robotersystem11 muss die Umschaltung in der Kameraeinheit57 vorgenommen werden, da die Überkopfkamera59 und die Nahbereichskameras61 unterschiedliche Arbeitsabstände haben. - Beispielsweise kann die Steuerung so konfiguriert werden, dass der Betriebsmodus der Kameraeinheit
57 zwischen dem Überkopfmodus und dem Nahbereichsmodus zu einem solchen Zeitpunkt umgeschaltet wird, dass die Überkopfkamera59 oder die Nahbereichskameras61 unscharf werden. - In diesem Fall beurteilt die Steuerung zunächst im Schritt
StB1 , ob die Scharfstellung durch die Überkopfkamera59 erreicht wird. Wenn die Scharfstellung erreicht ist, wird im SchrittStB2 der Benutzungsmodus der Kameraeinheit57 auf den Überkopfmodus umgeschaltet. Wird die Scharfeinstellung durch die Überkopfkamera59 nicht erreicht, wird in SchrittStB3 beurteilt, ob die Scharfeinstellung durch die Nahbereichskameras61 erreicht wird. Wenn die Scharfstellung erreicht ist, wird im SchrittStB4 die Betriebsart der Kameraeinheit57 auf den Nahbereichsmodus umgeschaltet. -
11 ist ein Flussdiagramm, das den Ablauf eines Prozesses zeigt, bei dem der Moduswechsel unter Verwendung von Informationen erfolgt, die von einem externen Gerät gesendet werden. - Die Steuerung kann so konfiguriert werden, dass der Benutzungsmodus der Kameraeinheit
57 auf der Grundlage von Informationen, die von einem externen Gerät gesendet werden, auf den Überkopfmodus oder den Nahbereichsmodus umgeschaltet wird. In diesem Fall beurteilt die Steuerung zunächst im SchrittStC1 auf der Grundlage der von der Robotersteuerung17 gesendeten Informationen, ob die Höhe der Spitze35 des Roboterarms21 um 100 mm oder mehr größer als die des WerkstücksW ist. Wenn die Höhe der Spitze35 des Roboterarms21 um 100 mm oder mehr größer als die des WerkstücksW ist (StC1 : JA), wird im SchrittStC2 der Benutzungsmodus der Kameraeinheit57 in den Überkopfmodus geschaltet. Wenn andererseits die Höhe der Spitze35 des Roboterarms21 nicht um 100 mm oder mehr größer als die des WerkstücksW ist (StC1 : NEIN), wird im SchrittStC3 beurteilt, ob die Höhe der Spitze35 des Roboterarms21 um weniger als 100 mm größer als die des WerkstücksW ist. Wenn die Höhe der Spitze35 des Roboterarms21 um weniger als 100 mm größer als die des WerkstücksW ist (StC3 : JA), wird im SchrittStC4 der Benutzungsmodus der Kameraeinheit57 auf den Nahbereichsmodus umgeschaltet. - Als nächstes wird die Funktionsweise der oben beschriebenen Konfigurationen beschrieben.
- Die Kamera
15 entsprechend der Ausführungsform ist mit dem Kameragehäuse55 , das an der Spitze35 des Roboterarms21 befestigt ist, und der Kameraeinheit57 , die im Kameragehäuse55 untergebracht ist, ausgestattet. Mehrere Kameravorrichtungen, die sich in ihren optischen Eigenschaften unterscheiden, sind in der Kameraeinheit57 miteinander integriert. Die mehreren Kameravorrichtungen, die sich in ihren optischen Eigenschaften unterscheiden, sind zum Beispiel die eine Überkopfkamera59 und die beiden Nahbereichskameras61 , die sich in Arbeitsabstand und Blickwinkel unterscheiden und miteinander integriert sind. - In der Kamera
15 ist entsprechend der Ausführungsform die Kameraeinheit57 in der Spitze35 des Roboterarms21 vorgesehen. Die Kameraeinheit57 ist so konfiguriert, dass die eine Überkopfkamera59 und die beiden Nahbereichskameras61 im Kameragehäuse55 untergebracht sind. Das heißt, die Kameraeinheit57 ist eine an der Spitze montierte Kamera mit drei Linsen, in der mehrere Kameras mit unterschiedlichen Brennweiten miteinander kombiniert sind. - Es ist vorzuziehen, dass die Kamera, die an der Spitze
35 des Roboterarms21 angebracht ist, eine kleine Kamera wie die Kamera15 entsprechend der Ausführungsform ist, damit die Kamera die Bewegung des Roboterarms21 nicht einschränkt. Mit anderen Worten, es ist schwierig, die Kamera15 mit einem Autofokus-Mechanismus auszustatten, wie er in herkömmlichen Kameras vorgesehen ist. Mit der Kamera15 entsprechend der Ausführungsform ist es jedoch möglich, auf einfache Weise eine Positionskontrolle am Handteil27 bis zum Greifen eines WerkstücksW durchzuführen und dabei weiterhin die Position des WerkstücksW zu erkennen, indem man eine oder mehrere der Kameravorrichtungen veranlasst, das WerkstückW weiterhin abzubilden, indem man die Kamera15 mit Kameravorrichtungen mit mehreren verschiedenen Arbeitsabständen (WDs) (kurze Brennweiten) ausstattet. Da die Kameraeinheit57 der Kamera15 über das Kameragehäuse55 in der Spitze35 des Roboterarms21 vorgesehen ist, entsteht kein blinder Bereich wie bei dem herkömmlichen Robotersystem, bei dem die Kamera über dem Magazin angeordnet ist. Somit ist die Kamera15 frei von dem Problem, dass das Handteil27 oder der Roboterarm21 selbst einen toten Bereich bilden und eine Position (Koordinaten) eines WerkstücksW unbekannt gemacht wird. Dadurch wird es möglich, eine Verringerung der Positionsgenauigkeit des Handteils27 zum Greifen eines WerkstücksW zu unterdrücken und dadurch die Effizienz des Werkstücks zu erhöhen. - Da die Kamera
15 leicht ist, kann ein Kostenanstieg der Steuerung unterdrückt werden, obwohl die Kamera15 im Roboterarm21 vorgesehen ist. Das heißt, wenn eine schwere Kamera angebracht ist, muss, um ein WerkstückW richtig zu greifen, eine geeignete Maßnahme getroffen werden, um zu verhindern, dass der Handteil27 während einer Armbewegung unter Berücksichtigung des Gewichts der Kamera abweicht. Dies macht es notwendig, Getriebe und Motoren so herzustellen, dass sie eine hohe Steifigkeit aufweisen, was zu einer Kostensteigerung des Robotersystems führt. Da die Kamera15 im Gegensatz dazu leicht ist, können normale Getriebe und Motoren verwendet werden, wodurch es möglich ist, den Kostenanstieg des Roboterarms21 zu unterdrücken. - Da die Kamera
15 zudem klein ist, ragt kein großer Teil davon aus dem Handteil27 heraus. Selbst wenn also ein bestimmter Gegenstand um den Handteil27 herum vorhanden ist, ist es nicht notwendig, eine große Aktion durchzuführen, um den Gegenstand zu entfernen. Auf diese Weise kann verhindert werden, dass der Fahrbereich des Roboterarms21 eingeengt wird. - Bei der Kamera
15 handelt es sich bei den beiden Nahbereichskameras61 um dieselben Kameravorrichtungen mit demselben Arbeitsabstand, die dasselbe WerkstückW zur gleichen Zeit abbilden, um ein Bildpaar mit einer Parallaxe zu erhalten, und die bewirken, dass auf der Grundlage des Bildpaars ein Abstand der beiden Nahbereichskameras61 zum WerkstückW berechnet wird. - Indem man die beiden Nahbereichskameras
61 in horizontaler Richtung anordnet und sie zwei Bilder mit einer Parallaxe gleichzeitig aufnehmen lässt, kann man aus den beiden Bildern ein Bildpaar mit einer Parallaxe erhalten, die einer Differenz zwischen den Kamerapositionen entspricht. Die Kamera15 ermöglicht es, Informationen in Tiefenrichtung, d.h. dreidimensionale Informationen, über das WerkstückW und Informationen über den Abstand der Nahbereichskameras61 zum WerkstückW zu erhalten, indem sie eine Berechnung auf der Grundlage der so erhaltenen Bildinformationen veranlasst. Die Genauigkeit der Berechnung eines Abstands nimmt mit abnehmendem Abstand zwischen den Nahbereichskameras61 und dem WerkstückW zu. Die Kamera15 realisiert eine Positionierung, deren Genauigkeit allmählich zunimmt, indem sie eine Entfernung mehrmals berechnet, wenn sie sich dem WerkstückW nähert. - In der Kamera
15 wird der Benutzungsmodus der Kameraeinheit57 vom Überkopfmodus, in dem die Überkopfkamera59 verwendet wird, auf den Nahbereichsmodus, in dem die Nahbereichskameras61 verwendet werden, umgeschaltet. - In der Kamera
15 wird, wenn das in der Spitze35 des Roboterarms21 vorgesehene Handteil27 nahe an ein WerkstückW herankommt, der Benutzungsmodus der Kameraeinheit57 vom Überkopfmodus, in dem die Überkopfkamera59 verwendet wird (d.h. die Nahbereichskameras61 werden nicht verwendet), auf den Nahbereichsmodus umgeschaltet, in dem die beiden Nahbereichskameras61 verwendet werden (d.h. die Überkopfkamera59 wird nicht verwendet). Wenn in der Kameraeinheit57 auf den Nahbereichsmodus umgeschaltet wird, wird die Auflösung eines aufgenommenen Bildes höher und es können genauere Positionsinformationen erhalten werden. Dies ermöglicht eine hochpräzise Betriebssteuerung des Roboterarms21 und des Handteils27 . - In der Kamera
15 wird der Benutzungsmodus der Kameraeinheit57 vom Nahbereichsmodus, in dem die Nahbereichskameras61 verwendet werden, auf den Überkopfmodus, in dem die Überkopfkamera59 verwendet wird, umgeschaltet. - Wenn bei der Kamera
15 das in der Spitze35 des Roboterarms21 vorgesehene Handteil27 von einem WerkstückW weggeht, wird der Benutzungsmodus der Kameraeinheit57 vom Nahbereichsmodus, in dem die beiden Nahbereichskameras61 verwendet werden (d.h. die Überkopfkamera59 wird nicht verwendet), auf den Überkopfmodus, in dem die Überkopfkamera59 verwendet wird (d.h. die Nahbereichskameras61 werden nicht verwendet), umgeschaltet. In der Kameraeinheit57 wird beim Umschalten in den Überkopfmodus die Brennweite vergrößert und es können Positionsinformationen über das gesamte WerkstückW gewonnen werden. Dadurch ist es möglich, den Roboterarm21 und den Handteil27 so zu steuern, dass sie in weiten Bereichen arbeiten. - Die eine Überkopfkamera
59 und die beiden Nahbereichskameras61 sind so angeordnet, dass ihre optischen Achsen63 parallel zueinander verlaufen und an den jeweiligen Scheitelpunkten eines Dreiecks in einer Ebene liegen, die senkrecht zu den optischen Achsen63 verläuft. - Bei der Kamera
15 können die drei Kameras mit kleinem Durchmesser (genauer gesagt eine Überkopfkamera59 und zwei Nahbereichskameras61 ), deren optische Achsen63 parallel zueinander verlaufen, so angeordnet werden, dass sie sich an den jeweiligen Scheitelpunkten eines Dreiecks in einer Ebene senkrecht zu den optischen Achsen63 befinden. Das Kameragehäuse55 kann so geformt werden, dass es die Form eines dreieckigen Prismas annimmt, mit dem die drei Kameras mit kleinem Durchmesser auf kompakteste Weise abgedeckt werden können. Eine gewünschte Seitenfläche des Kameragehäuses55 , die eine dreieckige Prismenform annimmt, kann mit hoher Festigkeit an der Spitze35 (z.B. Handteil27 ) des Roboterarms21 befestigt werden. In diesem Fall kann das Paar Kameras mit kleinem Durchmesser, die sich an beiden Enden der Basis des Dreiecks befinden und somit voneinander beabstandet sind, als Nahbereichskamera61 und die obere Kamera mit kleinem Durchmesser als Überkopfkamera59 verwendet werden. Wenn der Handteil27 so konfiguriert ist, dass das Paar Fingerelemente25 sich einander annähern und voneinander entfernen kann, können die Nahbereichskameras61 in der Nähe der Fingerelemente25 angeordnet werden. - Bei der Kamera
15 kann das Dreieck, das durch die Positionen definiert ist, an denen sich die drei Kameras mit kleinem Durchmesser (genauer gesagt eine Überkopfkamera59 und zwei Nahbereichskameras61 ) in einer Ebene senkrecht zu den optischen Achsen63 befinden, ein regelmäßiges Dreieck sein. - Bei der Kamera
15 kann das Kameragehäuse55 im Gegensatz zu den Fällen, in denen das Dreieck ein gleichschenkliges Dreieck oder ein schiefwinkliges Dreieck ist, minimiert und die Positionsabweichungen der Überkopfkamera59 und der Nahbereichskameras61 in Bezug auf die Fingerelemente25 klein gemacht werden. - In der Kamera
15 wird die Beleuchtungsöffnung65 in der Mitte jeder Seite des Dreiecks gebildet. - In der Kamera
15 kann jede der mehreren Beleuchtungsöffnungen65 in gleichen Abständen zu den beiden benachbarten der einen Überkopfkamera59 und der beiden Nahbereichskameras61 gebildet werden. Die mehreren Kameras mit kleinem Durchmesser und die Beleuchtungsöffnungen65 können kompakt und mit hoher Dichte angeordnet werden, was eine Miniaturisierung des Kameragehäuses55 ermöglicht. - In der Kameraeinheit
57 wird zwischen den beiden Nahbereichskameras61 eine Beleuchtungsöffnung65 gebildet. - Die Beleuchtungsöffnungen
65 sind in der Kamera15 angeordnet. In vielen Fällen ist eine Beleuchtungseinrichtung separat von einer Kamera angeordnet. Wo Beleuchtungsvorrichtungen in der Kamera15 vorgesehen sind, da die Kamera15 , die die Beleuchtungsvorrichtungen enthält, klein ist und daher kein großer Teil von ihr aus dem Handteil27 herausragt. Selbst wenn also ein bestimmter Gegenstand um das Handteil27 herum vorhanden ist, ist es nicht notwendig, eine große Aktion durchzuführen, um den Gegenstand freizugeben. Auf diese Weise kann verhindert werden, dass der Fahrbereich des Roboterarms21 eingeengt wird. - In jeder Beleuchtungsöffnung
65 ist eine Lichtquelle zur Beleuchtung eines WerkstücksW vorgesehen. - Die in jeder Beleuchtungsöffnung
65 vorgesehene Beleuchtungsvorrichtung kann eine optische Faser oder eine LED sein. Die Menge des ausgestrahlten Lichts kann entsprechend einer erforderlichen Lichtintensität eingestellt werden. - Eine Lichtquelle, die ein vorgeschriebenes Muster projizieren kann, ist in einer Beleuchtungsöffnung
65 vorgesehen. - Eine Beleuchtungsvorrichtung, die in der Lage ist, ein bestimmtes Muster zu projizieren, kann in einer Beleuchtungsöffnung
65 vorgesehen werden. Es kann der Fall eintreten, dass die Form eines WerkstücksW nicht erkannt werden kann (d.h. Bildkanten können nicht erkannt werden), weil das WerkstückW und ein Montagetisch, der mit dem WerkstückW montiert ist, farblich nahe beieinanderliegen. In einem solchen Fall ist es möglich, die Form des WerkstücksW zu erkennen, indem man es mit Licht mit einem bestimmten Muster beleuchtet. Wenn man zum Beispiel ein Streifenmuster projiziert, kann die Form des WerkstücksW auf der Grundlage beurteilt werden, wie ein Bild eines Teils des WerkstücksW , das auf einen Abschnitt des Streifenmusters projiziert wird, der sich in der Höhe von der Höhe des Montagetisches unterscheidet, entsteht. - Die beiden Nahbereichskameras
61 haben den gleichen Arbeitsabstand, bilden gleichzeitig ein vorgeschriebenes Muster ab, das von der Lichtquelle projiziert wird, um ein Paar Musterbilder mit einer Parallaxe zu erhalten, und bewirken die Berechnung eines Abstands der beiden Nahbereichskameras61 zu einer Musterprojektionsfläche, auf die das Muster projiziert wird. - Wenn ein Werkstück
W und ein mit ihm montierter Montagetisch farblich nahe beieinanderliegen, kann der Fall eintreten, dass die Form des WerkstücksW nicht erkannt werden kann (d.h. Bildkanten können nicht erkannt werden), so dass eine Berechnung zur Abstandsmessung nicht möglich ist. Eine Gegenmaßnahme ist die Installation einer Lichtquelle, die in der Lage ist, ein gewünschtes Muster in die zwischen den beiden Nahbereichskameras61 gebildete Beleuchtungsöffnung65 zu projizieren und ein projiziertes Muster abzubilden. Mit dieser Maßnahme wird es selbst dann, wenn die Form des WerkstücksW nicht erkannt werden kann, möglich, einen Abstand zum WerkstückW zu messen, indem ein Bild eines musterprojizierten Werkstücks erkannt wird. Beispiele für das gewünschte Muster sind ein punktförmiges Muster, wie es von einem Laserpointer projiziert wird, oder ein bestimmtes Muster, wie ein Kreis, ein Rechteck, ein Dreieck oder Streifen. - Bei der Kamera
15 ist das Kameragehäuse55 in der Mitte zwischen dem Paar Fingerelemente25 angeordnet, die an der Spitze35 eines Roboterarms21 befestigt sind, so dass sie sich einander nähern und voneinander entfernen können. - Bei der Kamera
15 ist das Kameragehäuse55 in der Mitte zwischen den beiden Fingerelementen25 angeordnet, die sich einander annähern und voneinander entfernen können. Das Kameragehäuse55 ist in der Spitze35 des Roboterarms21 angeordnet, genauer gesagt in der Mitte eines Liniensegments, das das Paar Fingerelemente25 in einer imaginären Ebene verbindet, die senkrecht zum Liniensegment steht und dieses kreuzt. Folglich kann die Kamera15 immer in der Mitte zwischen dem Paar Fingerelemente25 angeordnet werden, die sich in dieser Ebene einander nähern und voneinander entfernen können, wodurch die Positionsinformation eines Arbeitspunktes89 (siehe2 ) als Mittelpunkt eines WerkstücksW leicht erkannt werden kann. - Die Überkopfkamera
59 , die am Scheitelpunkt eines dreieckigen Endes einer dreieckigen Prismenform des Kameragehäuses55 angeordnet ist, kann in der Mitte zwischen den beiden Fingerelementen25 angeordnet werden. Dadurch ist es möglich, Positionsabweichungen (Lücken) der Überkopfkamera59 in Bezug auf die Fingerelemente25 auf kleine Werte zu unterdrücken. Dies wiederum ermöglicht es, auf eine Kalibrierung zu verzichten. - Das Robotersystem
11 ist gemäß der Ausführungsform mit dem an der Spitze35 des Roboterarms21 befestigten Kameragehäuse55 , der Kamera15 einschließlich der im Kameragehäuse55 untergebrachten Kameraeinheit57 , in der die eine Überkopfkamera59 und die beiden Nahbereichskameras61 , die sich im Arbeitsabstand von der Überkopfkamera59 unterscheiden, miteinander integriert sind, und der Steuerung ausgestattet, die auf der Grundlage der von der Kamera15 erfassten Bildinformationen ein Steuersignal zur Steuerung des Betriebs des Roboterarms21 erzeugt. - Im Robotersystem
11 wird gemäß der Ausführungsform ein Abstand zu einem WerkstückW , der erforderlich ist, um eine Steuerung durchzuführen, die bewirkt, dass der Handteil27 das WerkstückW greift, von der Kamera15 erfasst, die in der Spitze35 des Robotersystems11 angeordnet ist. Da die Kamera15 in der Spitze35 des Roboterarms21 angeordnet ist, wird kein blinder Bereich gebildet, anders als bei dem herkömmlichen Robotersystem, bei dem die Kamera über dem Stapler angeordnet ist. Somit ist die Kamera15 frei von dem Problem, dass das Handteil27 oder der Roboterarm21 selbst einen toten Bereich bildet und eine Position (Koordinaten) eines WerkstücksW unbekannt gemacht wird. Dadurch wird es möglich, eine Zunahme der Anzahl der WerkstückeW zu unterdrücken, die von dem Handteil27 nicht gehalten werden können. - Der in Patentdokument 1 offen gelegte Roboterarm ist mit der Haltezustandserfassungskamera ausgestattet, die (durch Bildgebung) einen Haltezustand eines Werkstücks
W , das vom Handteil gehalten wird, erkennen soll und nicht einen Abstand zum WerkstückW erkennen soll, um das Halten des WerkstücksW durch das Handteil zu steuern. - Da die Kamera
15 klein ist, kann sie sogar an einer Position installiert werden, die so nahe am Handteil27 liegt, dass eine Kalibrierung zur Korrektur von Koordinatenunterschieden nicht erforderlich ist. Folglich kann das Robotersystem11 die Berechnung der Steuerinformationen für den Betrieb des Roboterarms21 vereinfachen und dadurch den Roboterarm21 schneller betreiben, als wenn eine komplexe Kalibrierung durchgeführt werden muss. Darüber hinaus ermöglicht das Robotersystem11 entsprechend der Ausführungsform die Unterdrückung einer Erhöhung der Anzahl der WerkstückeW , die vom Handteil27 nicht gehalten werden können. - Zu dem Zeitpunkt, an dem eine oder mehrere Kameraeinheiten (z.B. Überkopfkamera
59 und Nahbereichskameras61 ), die sich in ihren optischen Eigenschaften unterscheiden, unscharf werden, schaltet die Steuerung den Benutzungsmodus der Kameraeinheit57 auf einen Modus um, der der oder den anderen Kameraeinheiten aus der Mehrzahl der Kameraeinheiten entspricht. - Da sich beim Robotersystem
11 der Arbeitsabstand zwischen der Überkopfkamera59 und den Nahbereichskameras61 unterscheidet, ist es notwendig, von der Überkopfkamera59 auf die Nahbereichskameras61 oder in umgekehrter Richtung, d.h. von den Nahbereichskameras61 auf die Überkopfkamera59 umzuschalten. Das Umschalten zwischen der Überkopfkamera59 und den Nahbereichskameras61 erfolgt zu einem Zeitpunkt, wenn eine oder mehrere von ihnen unscharf werden. Zum Beispiel wird die Überkopfkamera59 ausgeschaltet und die Nahbereichskameras61 werden eingeschaltet, wenn die Überkopfkamera59 unscharf ist. Umgekehrt werden die Nahbereichskameras61 ausgeschaltet und die Überkopfkamera59 eingeschaltet, wenn die Nahbereichskameras61 unscharf sind. - Die Steuerung kann den Benutzungsmodus der Kameraeinheit
57 auf der Grundlage von Informationen, die von einem externen Gerät gesendet werden, auf einen Modus umschalten, der einem oder mehreren Kamerageräten (z. B. Überkopfkamera59 und Nahbereichskameras61 ) entspricht, die sich in ihren optischen Eigenschaften unterscheiden. - Wenn im Robotersystem
11 von der Steuerung gelieferte Informationen anzeigen, dass die Höhe des Roboterarms21 von einem Ziel kleiner als ein vorgegebener Wert ist, wird die Überkopfkamera59 ausgeschaltet und die Nahbereichskameras61 eingeschaltet. Umgekehrt wird, wenn die Höhe des Roboterarms21 von einem Ziel größer oder gleich dem vorgeschriebenen Wert ist, der Benutzungsmodus so umgeschaltet, dass die Nahbereichskameras61 ausgeschaltet und die Überkopfkamera59 eingeschaltet werden. - Obwohl die Ausführungsform oben mit Bezug auf die Zeichnungen beschrieben wurde, versteht es sich von selbst, dass die Offenbarung nicht auf dieses Beispiel beschränkt ist. Es ist offensichtlich, dass diejenigen, die sich auf diesem Gebiet auskennen, verschiedene Änderungen, Modifikationen, Ersetzungen, Ergänzungen, Streichungen oder Äquivalente innerhalb der Grenzen der Ansprüche erdenken würden, und sie werden so ausgelegt, dass sie in den technischen Umfang der Offenbarung fallen. Bestandteile der oben beschriebenen Ausführungsform können in gewünschter Weise kombiniert werden, ohne vom Geist und Umfang der Erfindung abzuweichen.
- INDUSTRIELLE ANWENDBARKEIT
- Die Offenbarung ist nützlich bei der Bereitstellung von Kameras und Robotersystemen, die in der Lage sind, die Verringerung der Positionsgenauigkeit eines Handteils zum Greifen eines Werkstücks zu unterdrücken und dadurch die Effizienz des Werkstücks zu erhöhen.
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- JP 2013078825 A [0003]
Claims (16)
- Kamera mit: einem Kameragehäuse, das an der Spitze eines Roboterarms befestigt ist; und eine im Kameragehäuse untergebrachte Kameraeinheit, wobei die Kameraeinheit eine Mehrzahl von Kameravorrichtungen enthält, die sich in ihren optischen Eigenschaften zum Abbilden eines Werkstücks unterscheiden.
- Kamera nach
Anspruch 1 , wobei die Kameraeinheit eine Überkopfkamera und zwei Nahbereichskameras umfasst, die sich im Arbeitsabstand von der Überkopfkamera unterscheiden. - Kamera nach
Anspruch 2 , wobei die zwei Nahbereichskameras die gleichen Kameravorrichtungen mit dem gleichen Arbeitsabstand haben, ein gleiches Werkstück gleichzeitig abbilden, ein Bildpaar mit einer Parallaxe erfassen, und bewirken, dass ein Abstand der beiden Nahbereichskameras zu dem Werkstück auf der Grundlage des Bildpaars berechnet wird. - Kamera nach
Anspruch 2 , wobei ein Benutzungsmodus der Kameraeinheit von einem Überkopfmodus, in dem die Überkopfkamera verwendet wird, auf einen Nahbereichsmodus umgeschaltet wird, in dem die beiden Nahbereichskameras verwendet werden. - Kamera nach
Anspruch 2 , wobei ein Benutzungsmodus der Kameraeinheit von einem Nahbereichsmodus, in dem die zwei Nahbereichskameras verwendet werden, auf einen Überkopfmodus umgeschaltet wird, in dem die Überkopfkamera verwendet wird. - Kamera nach einem der
Ansprüche 2 bis5 , wobei die eine Überkopfkamera und die beiden Nahbereichskameras so angeordnet sind, dass die optischen Achsen der einen Überkopfkamera und der beiden Nahbereichskameras parallel zueinander sind und die optischen Achsen an jeweiligen Scheitelpunkten eines Dreiecks in einer Ebene angeordnet sind, die senkrecht zu den optischen Achsen ist. - Kamera nach
Anspruch 6 , wobei das Dreieck ein regelmäßiges Dreieck ist. - Kamera nach
Anspruch 6 oder7 , wobei eine Beleuchtungsöffnung in der Mitte jeder Seite des Dreiecks ausgebildet ist. - Kamera nach
Anspruch 2 , wobei eine Beleuchtungsöffnung zwischen den beiden Nahbereichskameras ausgebildet ist. - Kamera nach
Anspruch 9 , wobei in der Beleuchtungsöffnung eine Lichtquelle zum Beleuchten des Werkstücks vorgesehen ist. - Kamera nach
Anspruch 9 , wobei eine Lichtquelle, die zum Projizieren eines vorgeschriebenen Musters konfiguriert ist, in der Beleuchtungsöffnung vorgesehen ist. - Kamera nach
Anspruch 11 , wobei die beiden Nahbereichskameras einen gleichen Arbeitsabstand haben, gleichzeitig Licht des vorgeschriebenen Musters abbilden, das von der Lichtquelle projiziert wird, ein Paar von Musterbildern mit einer Parallaxe erfassen und die Berechnung eines Abstands von den beiden Nahbereichskameras zu einer Musterprojektionsfläche, auf die das Licht des Musters projiziert wird, bewirken. - Kamera nach einem der
Ansprüche 1 bis12 , wobei das Kameragehäuse in der Mitte zwischen einem Paar von Fingerelementen angeordnet ist, die an einer Spitze eines Roboterarms befestigt sind, so dass sie sich einander nähern und voneinander entfernen können. - Robotersystem mit: einem Kameragehäuse, das an der Spitze eines Roboterarms befestigt ist; einer Kameraeinheit, die in dem Kameragehäuse untergebracht ist und eine Mehrzahl von Kameravorrichtungen aufweist, die sich in ihren optischen Eigenschaften für die Abbildung eines Werkstücks unterscheiden; und einer Steuerung, die auf der Grundlage der von der Kameraeinheit erfassten Bildinformationen ein Steuersignal zur Steuerung des Betriebs des Roboterarms erzeugt.
- Robotersystem nach
Anspruch 14 , wobei zu einem Zeitpunkt, wenn eine der mehreren Kameravorrichtungen, die sich in den optischen Eigenschaften unterscheiden, unscharf wird, die Steuerung einen Benutzungsmodus auf eine andere der mehreren Kameravorrichtungen, die sich in den optischen Eigenschaften unterscheiden, umschaltet. - Robotersystem nach
Anspruch 14 , wobei die Steuerung auf der Grundlage von Informationen, die von einem externen Gerät gesendet werden, einen Benutzungsmodus auf eine beliebige der Mehrzahl von Kameravorrichtungen umschaltet, die sich in den optischen Eigenschaften unterscheiden.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019101817 | 2019-05-30 | ||
JP2019-101817 | 2019-05-30 | ||
JP2019143636A JP2020196116A (ja) | 2019-05-30 | 2019-08-05 | カメラおよびロボットシステム |
JP2019-143636 | 2019-08-05 |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102020112352A1 true DE102020112352A1 (de) | 2020-12-03 |
Family
ID=73265011
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102020112352.3A Pending DE102020112352A1 (de) | 2019-05-30 | 2020-05-07 | Kamera und Roboter-System |
Country Status (3)
Country | Link |
---|---|
US (1) | US11813740B2 (de) |
CN (1) | CN112008717A (de) |
DE (1) | DE102020112352A1 (de) |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004001122A (ja) | 2002-05-31 | 2004-01-08 | Suzuki Motor Corp | ピッキング装置 |
JP4309439B2 (ja) | 2007-03-30 | 2009-08-05 | ファナック株式会社 | 対象物取出装置 |
JP2009241247A (ja) | 2008-03-10 | 2009-10-22 | Kyokko Denki Kk | ステレオ画像型検出移動装置 |
JP5839929B2 (ja) | 2010-11-19 | 2016-01-06 | キヤノン株式会社 | 情報処理装置、情報処理システム、情報処理方法及びプログラム |
JP2013078825A (ja) | 2011-10-04 | 2013-05-02 | Yaskawa Electric Corp | ロボット装置、ロボットシステムおよび被加工物の製造方法 |
US9492065B2 (en) * | 2012-06-27 | 2016-11-15 | Camplex, Inc. | Surgical retractor with video cameras |
JP2014009997A (ja) | 2012-06-28 | 2014-01-20 | Ricoh Co Ltd | 測距装置 |
JP6273084B2 (ja) | 2012-09-20 | 2018-01-31 | 株式会社安川電機 | ロボットシステムおよびワークの搬送方法 |
US20140100694A1 (en) | 2012-10-05 | 2014-04-10 | Beckman Coulter, Inc. | System and method for camera-based auto-alignment |
KR20150100669A (ko) | 2012-12-21 | 2015-09-02 | 베크만 컬터, 인코포레이티드 | 레이저 기반 자동 정렬을 위한 시스템 및 방법 |
JP2014159989A (ja) | 2013-02-19 | 2014-09-04 | Yaskawa Electric Corp | 物体検出装置及びロボットシステム |
JP2014241584A (ja) | 2013-05-14 | 2014-12-25 | パナソニックIpマネジメント株式会社 | 画像処理方法、及び画像処理システム |
US20180063507A1 (en) * | 2015-04-09 | 2018-03-01 | Philippe Cho Van Lieu | Apparatus for recording stereoscopic panoramic photography |
US9815204B2 (en) | 2016-01-22 | 2017-11-14 | The Boeing Company | Apparatus and method to optically locate workpiece for robotic operations |
JP6805904B2 (ja) | 2017-03-08 | 2020-12-23 | 株式会社リコー | 計測装置、計測方法およびロボット |
CN106919941B (zh) * | 2017-04-26 | 2018-10-09 | 华南理工大学 | 一种三维手指静脉识别方法及系统 |
JP2018185251A (ja) | 2017-04-27 | 2018-11-22 | セイコーエプソン株式会社 | ロボットおよびプリンター |
CN109760054A (zh) | 2019-01-30 | 2019-05-17 | 重庆两江微链智能科技有限公司 | 机器人自主学习系统和机器人控制方法 |
-
2020
- 2020-05-07 DE DE102020112352.3A patent/DE102020112352A1/de active Pending
- 2020-05-26 US US16/883,461 patent/US11813740B2/en active Active
- 2020-05-29 CN CN202010482144.0A patent/CN112008717A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
US20200376690A1 (en) | 2020-12-03 |
US11813740B2 (en) | 2023-11-14 |
CN112008717A (zh) | 2020-12-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP1702727B1 (de) | Fertigungseinrichtung mit einer Biegepresse, einer Handhabungsvorrichtung und einer Kalibriereinrichtung | |
DE102018129143B4 (de) | Variabler messobjektabhängiger Kameraaufbau und Kalibrierung davon | |
CN110509300A (zh) | 基于三维视觉引导的钢箍加工上料控制系统及控制方法 | |
WO2015082683A2 (de) | Vorrichtung und verfahren zur messung von werkstücken | |
EP1966661A1 (de) | Verfahren und vorrichtung zum einrichten einer bahnkurve einer robotervorrichtung | |
DE102010032840A1 (de) | Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters | |
DE102016001375B4 (de) | Robotersystem und Robotersteuerverfahren zum Justieren der Position einer Kühlmitteldüse | |
DE102014113283A1 (de) | Vorrichtung zur Remote-Laserbearbeitung mit Sensor-Scannereinrichtung | |
DE3613096A1 (de) | Verfahren zum bearbeiten von werkstuecken | |
DE102016203701A1 (de) | Industrieroboter mit mindestens zwei Bilderfassungseinrichtungen | |
DE202006005916U1 (de) | Überwachungseinrichtung | |
DE102006006204B4 (de) | Anordnung zur optischen Kontrolle des Arbeitsergebnisses eines Werkzeugs und/oder zur Führung eines Werkeugs | |
WO2015036026A1 (de) | Verfahren und vorrichtung zur vermessung von innengewinden eines werkstücks mit einem optischen sensor | |
EP0947898A2 (de) | Verfahren und Vorrichtung zum Steuern eines beweglichen Gegenstandes | |
WO2019096479A1 (de) | Verfahren und mittel zum betreiben einer roboteranordnung | |
DE10133624A1 (de) | Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen | |
EP3615908B1 (de) | Steuereinrichtung für eine prüfvorrichtung, prüfanordnung mit der steuereinrichtung, verfahren zur ansteuerung der prüfanordnung und computerprogramm | |
DE202017003104U1 (de) | Bilderkennungsfunktion unterstützendes Bewegungssteuermodul für Arbeitsmaschinen | |
DE102017210166A1 (de) | System und Verfahren zur Positionierungsmessung | |
EP1468792A2 (de) | Verfahren zum Kalibrieren eines Roboters | |
DE202010008808U1 (de) | Bearbeitungswerkzeug | |
DE102020112352A1 (de) | Kamera und Roboter-System | |
DE102011052586B4 (de) | Prägekopf mit Positionierungshilfe | |
DE102016221861B4 (de) | Einrichtung und Verfahren zur Einwirkung auf Gegenstände | |
DE4015644C2 (de) | Verfahren zum Bestimmen relevanter Punkte eines Werkzeugs am Handflansch eines gesteuerten mehrachsigen Manipulators |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R081 | Change of applicant/patentee |
Owner name: I-PRO CO., LTD., JP Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., TOKYO, JP Owner name: I-PRO CO., LTD., JP Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., FUKUOKA, JP Owner name: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., JP Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., TOKYO, JP Owner name: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., JP Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., FUKUOKA, JP |
|
R082 | Change of representative |
Representative=s name: EISENFUEHR SPEISER PATENTANWAELTE RECHTSANWAEL, DE |
|
R081 | Change of applicant/patentee |
Owner name: I-PRO CO., LTD., JP Free format text: FORMER OWNER: PANASONIC I-PRO SENSING SOLUTIONS CO., LTD., FUKUOKA-SHI, JP |