DE112021003715T5 - Detektionsvorrichtung und Detektionsverfahren - Google Patents

Detektionsvorrichtung und Detektionsverfahren Download PDF

Info

Publication number
DE112021003715T5
DE112021003715T5 DE112021003715.3T DE112021003715T DE112021003715T5 DE 112021003715 T5 DE112021003715 T5 DE 112021003715T5 DE 112021003715 T DE112021003715 T DE 112021003715T DE 112021003715 T5 DE112021003715 T5 DE 112021003715T5
Authority
DE
Germany
Prior art keywords
dimensional camera
workpiece
position coordinates
dimensional
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021003715.3T
Other languages
English (en)
Inventor
Tadanori Suzuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE112021003715T5 publication Critical patent/DE112021003715T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J11/00Manipulators not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection
    • G06T2207/30164Workpiece; Machine component

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Manipulator (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

Eine Bildgebungssteuereinheit (18) dieser Detektionsvorrichtung (10) steuert die Abbildungsausrichtung einer dreidimensionalen Kamera (14) so, dass ein Ende eines Werkstücks (24) in das Sichtfeld der dreidimensionalen Kamera (14) eintritt, und steuert dann die Abbildungsausrichtung der dreidimensionalen Kamera (14) so, dass das andere Ende des Werkstücks (24) in das Sichtfeld der dreidimensionalen Kamera (14) eintritt. Eine Koordinatenerfassungseinheit (16) erfasst die Positionskoordinaten des einen Endes, die von der dreidimensionalen Kamera (14) erfasst werden, aus dreidimensionalen Informationen, die sich auf das eine Ende beziehen, und erfasst die Positionskoordinaten des anderen Endes, die von der dreidimensionalen Kamera (14) erfasst werden, aus dreidimensionalen Informationen, die sich auf das andere Ende beziehen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Detektionsvorrichtung (Erfassungsvorrichtung) und ein Detektionsverfahren (Erfassungsverfahren) zur Erfassung einer Position eines langen Werkstücks.
  • STAND DER TECHNIK
  • Eine Detektionsvorrichtung und ein Detektionsverfahren, die in der Lage sind, die Positionen beider Enden eines langen Werkstücks zu erfassen, sind auf herkömmliche Weise offenbart worden (siehe z.B. JP S63-072506 U ).
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Um die Positionen beider Enden eines langen Werkstücks zu erfassen, ist es notwendig, den Erfassungssensor jeweils in die Nähe des einen und des anderen Endes des langen Werkstücks zu bewegen. Daher dauert es seine Zeit, bis die Positionen beider Enden des langen Werkstücks erfasst sind.
  • Die vorliegende Erfindung wurde entwickelt, um das obige Problem zu lösen, und eine Aufgabe der vorliegenden Erfindung ist es, eine Detektionsvorrichtung und ein Detektionsverfahren bereitzustellen, die in der Lage sind, die für die Erfassung der Positionen beider Enden eines langen Werkstücks erforderliche Zeit zu reduzieren.
  • Gemäß einem ersten Aspekt der vorliegenden Erfindung wird eine Detektionsvorrichtung bereitgestellt, die eine Position eines langen Werkstücks erfasst, wobei die Detektionsvorrichtung umfasst: eine dreidimensionale Kamera, die konfiguriert ist, um dreidimensionale Informationen zu erfassen, und deren Abbildungsrichtung konfiguriert ist, um geändert zu werden; eine Bildgebungssteuereinheit, die konfiguriert ist, um die Abbildungsrichtung der dreidimensionalen Kamera zu steuern; und eine Koordinatenerfassungseinheit, die so konfiguriert ist, dass sie Positionskoordinaten des langen Werkstücks aus den von der dreidimensionalen Kamera erfassten dreidimensionalen Informationen erfasst, wobei die Bildgebungssteuereinheit die Abbildungsrichtung der dreidimensionalen Kamera so ändert, dass ein Ende des langen Werkstücks in ein Sichtfeld der dreidimensionalen Kamera eintritt, und dann die Abbildungsrichtung der dreidimensionalen Kamera so ändert, dass ein anderes Ende des langen Werkstücks in das Sichtfeld der dreidimensionalen Kamera eintritt, und die Koordinatenerfassungseinheit Positionskoordinaten des einen Endes aus den von der dreidimensionalen Kamera erfassten dreidimensionalen Informationen des einen Endes erfasst, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das eine Ende in das Sichtfeld der dreidimensionalen Kamera eintritt, und Positionskoordinaten des anderen Endes aus den von der dreidimensionalen Kamera erfassten dreidimensionalen Informationen des anderen Endes erfasst, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das andere Ende in das Sichtfeld der dreidimensionalen Kamera eintritt.
  • Gemäß einem zweiten Aspekt der vorliegenden Erfindung wird ein Detektionsverfahren zum Erfassen einer Position eines langen Werkstücks auf der Grundlage dreidimensionaler Informationen bereitgestellt, die von einer dreidimensionalen Kamera erfasst werden, wobei das Detektionsverfahren umfasst: einen Abbildungsschritt des Erfassens der dreidimensionalen Information durch Ändern einer Abbildungsrichtung der dreidimensionalen Kamera, so dass ein Ende des langen Werkstücks in ein Sichtfeld der dreidimensionalen Kamera eintritt, und dann Erfassen der dreidimensionalen Information durch Ändern der Abbildungsrichtung der dreidimensionalen Kamera, so dass ein anderes Ende des langen Werkstücks in das Sichtfeld der dreidimensionalen Kamera eintritt; und einen Koordinatenerfassungsschritt des Erfassens von Positionskoordinaten des einen Endes aus den dreidimensionalen Informationen des einen Endes, die durch die dreidimensionale Kamera erfasst werden, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das eine Ende in das Sichtfeld der dreidimensionalen Kamera eintritt, und des Erfassens von Positionskoordinaten des anderen Endes aus den dreidimensionalen Informationen des anderen Endes, die durch die dreidimensionale Kamera erfasst werden, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das andere Ende in das Sichtfeld der dreidimensionalen Kamera eintritt.
  • Gemäß der vorliegenden Erfindung kann die Zeit, die für die Erfassung der Positionen der beiden Enden des langen Werkstücks erforderlich ist, reduziert werden.
  • Figurenliste
    • 1 ist ein Blockdiagramm einer Positionsdetektionsvorrichtung;
    • 2A bis 2C sind Diagramme, die jeweils einen Gelenkarmroboter zeigen;
    • 3 ist ein Diagramm zur Erläuterung eines Verfahrens zur Erfassung von Positionskoordinaten eines Werkstücks;
    • 4A und 4B sind Diagramme, die jeweils ein Verfahren zur Einstellung eines Werkstückkoordinatensystems erläutern;
    • 5 ist ein Diagramm, das ein Verfahren zum Erfassen von Positionskoordinaten des Werkstücks erläutert;
    • 6 ist ein Diagramm, das ein Beispiel für eine andere Form des Werkstücks zeigt;
    • 7 ist ein Diagramm, das ein Verfahren zum Erfassen von Positionskoordinaten des Werkstücks erläutert;
    • 8 ist ein Flussdiagramm, das einen Fluss eines Werkstückpositionserfassungsprozesses zeigt, der von der Positionsdetektionsvorrichtung durchgeführt wird;
    • 9 ist ein Diagramm, das den Roboter zeigt;
    • 10A bis 10D sind Diagramme, die jeweils eine Positionsbeziehung zwischen dem Sichtfeld einer zweidimensionalen Kamera und dem Werkstück zeigen; und
    • 11A und 11B sind Diagramme, die jeweils den Bewegungsbereich eines Armes des Roboters zeigen.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • (Erste Ausführungsform) [Konfiguration der Koordinatendetektionsvorrichtung]
  • 1 ist ein Blockdiagramm einer Positionsdetektionsvorrichtung 10. 2A bis 2C sind Diagramme, die jeweils einen Gelenkarmroboter (Knickarmroboter) 12 zeigen. Die Positionsdetektionsvorrichtung 10 umfasst eine dreidimensionale Kamera 14, eine Koordinatenerfassungseinheit 16 und eine Bildsteuerungseinheit 18. Die Positionsdetektionsvorrichtung 10 entspricht einer Detektionsvorrichtung im Sinne der vorliegenden Erfindung.
  • Die dreidimensionale Kamera 14 ist beispielsweise eine Kamera mit einer Projektionseinheit, die ein Muster auf ein Objekt projiziert, und einer Abbildungseinheit, die das Objekt, auf das das Muster projiziert wird, abbildet. Die dreidimensionale Kamera 14 erfasst dreidimensionale Informationen eines Werkstücks 24, das auf einem Tisch 20 platziert ist, wie in 2A bis 2C gezeigt. Man beachte, dass die dreidimensionale Kamera 14 eine Stereokamera sein kann, die eine Vielzahl von Abbildungseinheiten umfasst. Die dreidimensionale Kamera 14 ist an einem Arm 22 des Gelenkarmroboters 12 (im Folgenden als Roboter 12 bezeichnet) befestigt. Der Roboter 12 ändert die Position der dreidimensionalen Kamera 14 und die Abbildungsrichtung der dreidimensionalen Kamera 14. Man beachte, dass die Vorrichtung nicht auf den Roboter 12 beschränkt ist, solange die Vorrichtung die Position der dreidimensionalen Kamera 14 und die Abbildungsrichtung der dreidimensionalen Kamera 14 ändern kann. Ferner kann die dreidimensionale Kamera 14 durch einen in der dreidimensionalen Kamera 14 vorgesehenen Mechanismus drehbar am Arm 22 des Roboters 12 angebracht sein. In diesem Fall wird die Position der dreidimensionalen Kamera 14 durch den Roboter 12 verändert, und die Abbildungsrichtung der dreidimensionalen Kamera 14 wird durch den in der dreidimensionalen Kamera 14 vorgesehenen Mechanismus verändert.
  • Die Koordinatenerfassungseinheit 16 erfasst die Positionskoordinaten des Werkstücks 24 in einem dreidimensionalen Raum aus den dreidimensionalen Informationen des Werkstücks 24, die von der dreidimensionalen Kamera 14 erfasst wurden. Die Erfassung der Positionskoordinaten wird später im Detail beschrieben.
  • Die Bildgebungssteuereinheit 18 steuert die Position der dreidimensionalen Kamera 14 und die Abbildungsrichtung der dreidimensionalen Kamera 14. Die Bildgebungssteuereinheit 18 gibt an eine Robotersteuerungsvorrichtung 26 einen Sollwert für die Position der dreidimensionalen Kamera 14 und einen Sollwert für die Abbildungsrichtung der dreidimensionalen Kamera 14 aus. Die Robotersteuerungsvorrichtung 26 steuert den Roboter 12 auf der Grundlage der von der Bildgebungssteuereinheit 18 eingegebenen Befehlswerte, um die Position der dreidimensionalen Kamera 14 und die Abbildungsrichtung der dreidimensionalen Kamera 14 zu ändern.
  • Die Positionsdetektionsvorrichtung 10 umfasst einen Computer mit einer arithmetischen Verarbeitungseinheit und einem Speicher (nicht dargestellt). Die arithmetische Verarbeitungseinheit umfasst beispielsweise einen Prozessor, wie eine Zentraleinheit (CPU) oder eine Mikroprozessoreinheit (MPU), und einen Speicher, der ein nicht-transitorisches, greifbares, computerlesbares Aufzeichnungsmedium, wie ein ROM oder ein RAM, enthält. Bei dem Speicher handelt es sich um ein nicht-übertragbares, greifbares, computerlesbares Aufzeichnungsmedium wie eine Festplatte oder ein Solid-State-Laufwerk (SSD). Die Koordinatenerfassungseinheit 16 und die Bildgebungssteuerungseinheit 18 werden beispielsweise durch die arithmetische Verarbeitungseinheit realisiert, die ein im Speicher gespeichertes Programm ausführt.
  • [Erfassen von Positionskoordinaten des Werkstücks]
  • Die Koordinatenerfassungseinheit 16 erfasst die Positionskoordinaten des Werkstücks 24 im dreidimensionalen Raum, basierend auf den von der dreidimensionalen Kamera 14 erfassten dreidimensionalen Informationen, den Informationen über die Position der dreidimensionalen Kamera 14 und den Informationen über die Abbildungsrichtung der dreidimensionalen Kamera 14. Die Informationen über die Position der dreidimensionalen Kamera 14 und die Informationen über die Abbildungsrichtung der dreidimensionalen Kamera 14 können aus dem Befehlswert für die Position der dreidimensionalen Kamera 14 und dem Befehlswert für die Abbildungsrichtung der dreidimensionalen Kamera 14 gewonnen werden, die von der Bildgebungssteuereinheit 18 an die Robotersteuerungsvorrichtung 26 ausgegeben werden. Die Informationen über die Position der dreidimensionalen Kamera 14 und die Informationen über die Abbildungsrichtung der dreidimensionalen Kamera 14 können aus Positionsinformationen einer Spitze des Arms 22 des Roboters 12 und Haltungsinformationen des Roboters 12 gewonnen werden. Die Positionsinformationen der Spitze des Arms 22 des Roboters 12 und die Haltungsinformationen des Roboters 12 werden von der Robotersteuerungsvorrichtung 26 erhalten.
  • Die Positionsdetektionsvorrichtung 10 der vorliegenden Ausführungsform kann die Positionen der beiden Enden des langen Werkstücks 24 erfassen. Ferner kann die Positionsdetektionsvorrichtung 10 einen Mittelpunkt des langen Werkstücks 24 in dessen axialer Richtung erfassen. Das Werkstück 24 entspricht einem langen Werkstück im Sinne der vorliegenden Erfindung.
  • 3 ist ein Schema zur Erläuterung eines Verfahrens zur Erfassung der Positionskoordinaten des Werkstücks 24. Die Bildgebungssteuereinheit 18 steuert die Position der dreidimensionalen Kamera 14 so, dass sie sich in vertikaler Richtung (Schwerkraftrichtung) oberhalb des Werkstücks 24 befindet. Die Bildgebungssteuereinheit 18 steuert die Abbildungsrichtung der dreidimensionalen Kamera 14 so, dass sie in vertikaler Richtung nach unten zeigt. Die Koordinatenerfassungseinheit 16 stellt ein Werkstückkoordinatensystem ein, das auf den von der dreidimensionalen Kamera 14 erfassten dreidimensionalen Informationen des Werkstücks 24, den Informationen über die Position der dreidimensionalen Kamera 14 und den Informationen über die Abbildungsrichtung der dreidimensionalen Kamera 14 basiert.
  • 4A und 4B sind Diagramme, die jeweils ein Verfahren zur Einstellung des Werkstückkoordinatensystems erläutern. 4A ist eine perspektivische Ansicht des Werkstücks 24 von oben. 4B ist eine perspektivische Seitenansicht des Werkstücks 24.
  • Wie in 4A und 4B gezeigt, wird im Werkstückkoordinatensystem eine Richtung, in der sich das Werkstück 24 erstreckt, als Y-Achsenrichtung festgelegt, und eine linke Seite, von der Seite des Roboters 12 aus gesehen, oder eine Richtung weg vom Roboter 12 wird als positive Seite festgelegt. Der Ursprung in der Y-Achsenrichtung wird auf die Mitte des Werkstücks 24 in Y-Achsenrichtung innerhalb des Sichtfelds der dreidimensionalen Kamera 14 festgelegt. Der Ursprung in Y-Achsen-Richtung kann an einem beliebigen Punkt auf der Y-Achse innerhalb des Sichtfeldes der dreidimensionalen Kamera 14 festgelegt werden.
  • Wie in 4A gezeigt, wird im Werkstückkoordinatensystem auf einer horizontalen Ebene (einer Ebene orthogonal zur vertikalen Richtung) eine Richtung orthogonal zur Y-Achsenrichtung als X-Achsenrichtung festgelegt, und eine Richtung weg vom Roboter 12 oder eine rechte Seite von der Seite des Roboters 12 aus gesehen wird als eine positive Seite festgelegt. Der Ursprung in der X-Achsen-Richtung wird an einer Position festgelegt, an der sich die X-Achsen-Richtung und die Y-Achsen-Richtung am Ursprung in der Y-Achsen-Richtung kreuzen.
  • Wie in 4A und 4B gezeigt, wird im Werkstückkoordinatensystem eine Richtung orthogonal zur X-Achsen-Richtung und zur Y-Achsen-Richtung als Z-Achsen-Richtung festgelegt, und die Oberseite wird als eine positive Seite festgelegt.
  • 5 ist ein Diagramm, das ein Verfahren zum Erfassen der Positionskoordinaten des Werkstücks 24 erläutert. Wenn das Werkstückkoordinatensystem eingestellt ist, steuert die Bildgebungssteuereinheit 18 die Abbildungsrichtung der dreidimensionalen Kamera 14 so, dass ein Ende des Werkstücks 24 auf der negativen Seite in der Y-Achsenrichtung in das Sichtfeld der dreidimensionalen Kamera 14 eintritt. Die Bildgebungssteuereinheit 18 steuert die Abbildungsrichtung der dreidimensionalen Kamera 14 auf der Grundlage der von der dreidimensionalen Kamera 14 erfassten dreidimensionalen Informationen. Infolgedessen kann die dreidimensionale Kamera 14 dreidimensionale Informationen über die Y-Achsen-richtung des negativen Seitenendabschnitts des Werkstücks 24 erfassen.
  • Die Koordinatenerfassungseinheit 16 erfasst die Positionskoordinaten des negativen Seitenendabschnitts der Y-Achse des Werkstücks 24 im Werkstückkoordinatensystem aus den dreidimensionalen Informationen des negativen Seitenendabschnitts der Y-Achse des Werkstücks 24, die von der dreidimensionalen Kamera 14 erfasst werden, den Informationen über die Position der dreidimensionalen Kamera 14 und den Informationen über die Abbildungsrichtung der dreidimensionalen Kamera 14. Zum Beispiel wird, wie in 5 gezeigt, bei der Fokussierung auf die Y-Achsen-Komponentenwerte der erfassten Positionskoordinaten des negativen Seitenendabschnitts der Y-Achse des Werkstücks 24 ein minimaler Y-Achsen-Komponentenwert Y1 als Ymin gespeichert. Man beachte, dass das in 5 dargestellte Werkstück 24 zwar eine zylindrische Form hat, aber auch eine andere Form haben kann. 6 ist ein Diagramm, das ein Beispiel für eine andere Form des Werkstücks 24 zeigt. Wenn das Werkstück 24 auch die in 6 gezeigte Form hat, wird ein minimaler Y-Achsen-Komponentenwert Y3 als Ymin gespeichert.
  • 7 ist ein Diagramm, das ein Verfahren zum Erfassen der Positionskoordinaten des Werkstücks 24 erläutert. Nachdem die Abbildungsrichtung der dreidimensionalen Kamera 14 so gesteuert wurde, dass ein Ende des Werkstücks 24 in das Sichtfeld der dreidimensionalen Kamera 14 eintritt, steuert die Bildgebungssteuereinheit 18 die Abbildungsrichtung der dreidimensionalen Kamera 14 so, dass ein anderes Ende des Werkstücks 24 auf der positiven Seite in Richtung der Y-Achse in das Sichtfeld der dreidimensionalen Kamera 14 eintritt. Die Bildgebungssteuereinheit 18 steuert die Abbildungsrichtung der dreidimensionalen Kamera 14 auf der Grundlage der von der dreidimensionalen Kamera 14 erfassten dreidimensionalen Informationen. Infolgedessen kann die dreidimensionale Kamera 14 dreidimensionale Informationen über die Y-Achsenrichtung des positiven Seitenendabschnitts des Werkstücks 24 erfassen.
  • Die Koordinatenerfassungseinheit 16 erfasst die Positionskoordinaten des positiven Seitenendabschnitts der Y-Achse des Werkstücks 24 im Werkstückkoordinatensystem aus den von der dreidimensionalen Kamera 14 erfassten dreidimensionalen Informationen des positiven Seitenendabschnitts der Y-Achse des Werkstücks 24, den Informationen über die Position der dreidimensionalen Kamera 14 und den Informationen über die Abbildungsrichtung der dreidimensionalen Kamera 14. Zum Beispiel wird, wie in 7 gezeigt, bei Fokussierung auf die Y-Achsen-Komponentenwerte der erfassten Positionskoordinaten der Y-Achsenrichtung des positiven Seitenendabschnitts des Werkstücks 24 ein maximaler Y-Achsen-Komponentenwert Y1' als Ymax gespeichert.
  • Die Koordinatenerfassungseinheit 16 berechnet die Positionskoordinaten des Mittelpunkts des Werkstücks 24 in Y-Achsenrichtung im Werkstückkoordinatensystem, basierend auf dem minimalen Y-Achsen-Komponentenwert Ymin und dem maximalen Y-Achsen-Komponentenwert Ymax des Werkstücks 24. Die Positionskoordinaten (Xc, Yc, Zc) des Mittelpunkts des Werkstücks 24 werden wie folgt ermittelt. ( Xc , Yc , Zc ) = ( 0, ( Ymax + Ymin ) / 2,0 )
    Figure DE112021003715T5_0001
  • Anstelle der Positionskoordinaten des Mittelpunkts des Werkstücks 24 in Richtung der Y-Achse im Werkstückkoordinatensystem kann die Koordinatenerfassungseinheit 16 die Koordinaten eines anderen inneren Teilungspunkts als des Mittelpunkts des Werkstücks 24 in Richtung der Y-Achse im Werkstückkoordinatensystem berechnen.
  • Die Koordinatenerfassungseinheit 16 wandelt die Positionskoordinaten (Xc, Yc, Zc) des Mittelpunkts des Werkstücks 24 im Werkstückkoordinatensystem in Positionskoordinaten in einem Benutzerkoordinatensystem um, das zur Steuerung des Roboters 12 verwendet wird. Das Werkstückkoordinatensystem entspricht einem ersten Koordinatensystem der vorliegenden Erfindung, und das Benutzerkoordinatensystem entspricht einem zweiten Koordinatensystem der vorliegenden Erfindung.
  • [Verfahren zur Erkennung der Werkstückposition]
  • 8 ist ein Flussdiagramm, das den Ablauf eines Werkstückpositionserfassungsprozesses zeigt, der von der Positionsdetektionsvorrichtung 10 durchgeführt wird. Der Werkstückpositionserfassungsprozess wird jedes Mal ausgeführt, wenn ein neues Werkstück 24 auf dem Tisch 20 platziert wird.
  • In Schritt S1 führt die Bildgebungssteuereinheit 18 eine Steuerung durch, so dass die dreidimensionale Kamera 14 über dem Werkstück 24 in vertikaler Richtung positioniert wird, und der Prozess geht zu Schritt S2 über.
  • In Schritt S2 führt die Bildgebungssteuereinheit 18 eine solche Steuerung durch, dass die Bildgebungsrichtung der dreidimensionalen Kamera 14 in der vertikalen Richtung nach unten gerichtet ist, und das Verfahren fährt mit Schritt S3 fort.
  • In Schritt S3 stellt die Koordinatenerfassungseinheit 16 das Werkstückkoordinatensystem aus den von der dreidimensionalen Kamera 14 erfassten dreidimensionalen Informationen des Werkstücks 24, den Informationen über die Position der dreidimensionalen Kamera 14 und den Informationen über die Abbildungsrichtung der dreidimensionalen Kamera 14 ein, und das Verfahren fährt mit Schritt S4 fort.
  • In Schritt S4 bestimmt die Koordinatenerfassungseinheit 16 auf der Grundlage der von der dreidimensionalen Kamera 14 erfassten dreidimensionalen Informationen, ob sich beide Enden des Werkstücks 24 innerhalb des Sichtfelds der dreidimensionalen Kamera 14 befinden oder nicht. Wenn beide Enden des Werkstücks 24 innerhalb des Sichtfelds der dreidimensionalen Kamera 14 liegen (Schritt S4: JA), fährt das Verfahren mit Schritt S7 fort, und wenn mindestens ein Ende des Werkstücks 24 nicht innerhalb des Sichtfelds der dreidimensionalen Kamera 14 liegt (Schritt S4: NEIN), fährt das Verfahren mit Schritt S5 fort.
  • In Schritt S5 steuert die Bildgebungssteuereinheit 18 die Bildgebungsrichtung der dreidimensionalen Kamera 14 so, dass der in Richtung der Y-Achse negative Seitenendabschnitt des Werkstücks 24 (ein Ende des Werkstücks 24) in das Sichtfeld der dreidimensionalen Kamera 14 eintritt, und das Verfahren fährt mit Schritt S6 fort. Die Bildgebungssteuereinheit 18 steuert die Abbildungsrichtung der dreidimensionalen Kamera 14 auf der Grundlage der dreidimensionalen Informationen, die von der dreidimensionalen Kamera 14 erfasst werden.
  • In Schritt S6 steuert die Bildgebungssteuereinheit 18 die Abbildungsrichtung der dreidimensionalen Kamera 14 so, dass der in Y-Achsenrichtung positive Seitenendabschnitt des Werkstücks 24 (das andere Ende des Werkstücks 24) in das Sichtfeld der dreidimensionalen Kamera 14 eintritt, und das Verfahren fährt mit Schritt S7 fort. Die Bildgebungssteuereinheit 18 steuert die Abbildungsrichtung der dreidimensionalen Kamera 14 auf der Grundlage der dreidimensionalen Informationen, die von der dreidimensionalen Kamera 14 erfasst werden.
  • In Schritt S7 erfasst die Koordinatenerfassungseinheit 16 den Y-Achsen-Komponentenwert Ymin als die Positionsinformation des negativen Seitenendabschnitts der Y-Achse des Werkstücks 24 (ein Ende des Werkstücks 24), und das Verfahren fährt mit Schritt S8 fort.
  • In Schritt S8 erfasst die Koordinatenerfassungseinheit 16 den Y-Achsen-Komponentenwert Ymax als die Positionsinformation des Endabschnitts der positiven Seite der Y-Achse des Werkstücks 24 (das andere Ende des Werkstücks 24), und das Verfahren fährt mit Schritt S9 fort.
  • In Schritt S9 berechnet die Koordinatenerfassungseinheit 16 die Positionskoordinaten des Mittelpunkts des Werkstücks 24 im Werkstückkoordinatensystem, basierend auf dem Y-Achsen-Komponentenwert Ymin und dem Y-Achsen-Komponentenwert Ymax, und das Verfahren fährt mit Schritt S10 fort.
  • In Schritt S10 wandelt die Koordinatenerfassungseinheit 16 die Positionskoordinaten des Mittelpunkts des Werkstücks 24 im Werkstückkoordinatensystem in Positionskoordinaten im Benutzerkoordinatensystem um, und der Prozess der Werkstückpositionserfassung endet.
  • [Betriebseffekt]
  • Die Positionsdetektionsvorrichtung 10 der vorliegenden Ausführungsform erfasst die Positionen der beiden Enden des Werkstücks 24 unter Verwendung der von der dreidimensionalen Kamera 14 erfassten dreidimensionalen Informationen des Werkstücks 24. Die Positionsdetektionsvorrichtung 10 kann die Positionen beider Enden des Werkstücks 24 auch unter Verwendung zweidimensionaler Informationen des Werkstücks 24 erfassen, die von einer zweidimensionalen Kamera 28 erfasst werden (9). In diesem Fall muss die zweidimensionale Kamera 28 so installiert werden, dass die Abbildungsrichtung der zweidimensionalen Kamera 28 orthogonal zur Längsrichtung des Werkstücks 24 ist.
  • 9 ist eine schematische Darstellung des Roboters 12. Die zweidimensionale Kamera 28 ist am Arm 22 des Roboters 12 in der gleichen Weise wie die dreidimensionale Kamera 14 der vorliegenden Ausführungsform angebracht, und die Position der zweidimensionalen Kamera 28 und die Abbildungsrichtung der zweidimensionalen Kamera 28 werden durch den Roboter 12 geändert.
  • Die Position der zweidimensionalen Kamera 28 wird, wie in 9 gezeigt, in vertikaler Richtung über das Werkstück 24 bewegt, und die Haltung der zweidimensionalen Kamera 28 wird so gesteuert, dass ihre Abbildungsrichtung in vertikaler Richtung nach unten gerichtet ist. Man beachte, dass das Werkstück 24 so auf dem Tisch 20 platziert ist, dass seine Längsrichtung parallel zur horizontalen Richtung (die Richtung orthogonal zur vertikalen Richtung) ist.
  • 10A bis 10D sind Diagramme, die eine Positionsbeziehung zwischen dem Sichtfeld der zweidimensionalen Kamera 28 und dem Werkstück 24 zeigen. Wie in 10A gezeigt, kann die zweidimensionale Kamera 28 beispielsweise keine zweidimensionalen Informationen über das andere Ende des Werkstücks 24 erhalten, wenn ein Ende des Werkstücks 24 innerhalb des Sichtfelds der zweidimensionalen Kamera 28 positioniert ist, das andere Ende jedoch außerhalb des Sichtfelds liegt. Wie in 10B gezeigt, kann die zweidimensionale Kamera 28 auch dann keine zweidimensionalen Informationen von beiden Enden des Werkstücks 24 erhalten, wenn beide Enden des Werkstücks 24 außerhalb des Sichtfelds der zweidimensionalen Kamera 28 liegen.
  • Damit die zweidimensionale Kamera 28 die zweidimensionalen Informationen von beiden Enden des Werkstücks 24 erhalten kann, ist es notwendig, den Abstand zwischen der zweidimensionalen Kamera 28 und dem Werkstück 24 zu vergrößern. Wie in 10C dargestellt, befinden sich dann beide Enden des Werkstücks 24 innerhalb des Sichtfelds der zweidimensionalen Kamera 28. Alternativ muss die zweidimensionale Kamera 28 so bewegt werden, dass sie sich in vertikaler Richtung jeweils über dem einen und dem anderen Ende des Werkstücks 24 befindet. Dadurch werden, wie in 10D gezeigt, ein Ende und das andere Ende des Werkstücks 24 innerhalb des Sichtfelds der zweidimensionalen Kamera 28 positioniert.
  • 11A und 11B sind Diagramme, die den Bewegungsbereich des Arms 22 des Roboters 12 zeigen. Wenn die zweidimensionale Kamera 28 in eine Position weg von dem Werkstück 24 bewegt wird, um beide Enden des Werkstücks 24 innerhalb des Sichtfelds der zweidimensionalen Kamera 28 zu positionieren, wie in 10C gezeigt, kann die Position der zweidimensionalen Kamera 28 außerhalb des Bewegungsbereichs des Arms 22 des Roboters 12 liegen, wie in 11A gezeigt. Ferner kann die Position der zweidimensionalen Kamera 28 außerhalb des Bewegungsbereichs des Arms 22 des Roboters 12 liegen, wie in 11B gezeigt, wenn die zweidimensionale Kamera 28 in eine Position oberhalb des einen Endes und des anderen Endes des Werkstücks 24 in vertikaler Richtung bewegt wird, um das eine Ende und das andere Ende des Werkstücks 24 innerhalb des Sichtfelds der zweidimensionalen Kamera 28 zu positionieren, wie in 10D gezeigt.
  • Wie oben beschrieben, hängt es vom Bewegungsbereich des Arms 22 des Roboters 12 ab, ob die Positionen der beiden Enden des Werkstücks 24 mit Hilfe der von der zweidimensionalen Kamera 28 erfassten zweidimensionalen Informationen des Werkstücks 24 erkannt werden können. Selbst wenn die Positionen der beiden Enden des Werkstücks 24 durch Bewegen der zweidimensionalen Kamera 28 innerhalb des Bewegungsbereichs des Arms 22 des Roboters 12 erfasst werden können, braucht es darüber hinaus Zeit, um die zweidimensionale Kamera 28 zu bewegen, und daher gibt es ein Problem, dass es eine lange Zeit dauert, um die Positionen der beiden Enden des Werkstücks 24 zu erfassen.
  • Daher wird in der Positionsdetektionsvorrichtung 10 der vorliegenden Ausführungsform die Position des Werkstücks 24 unter Verwendung der dreidimensionalen Informationen des Werkstücks 24, die von der dreidimensionalen Kamera 14 erfasst werden, erfasst. Die Bildgebungssteuereinheit 18 steuert die Abbildungsrichtung der dreidimensionalen Kamera 14 so, dass ein Ende des Werkstücks 24 in das Sichtfeld der dreidimensionalen Kamera 14 eintritt, und steuert dann die Abbildungsrichtung der dreidimensionalen Kamera 14 so, dass das andere Ende des Werkstücks 24 in das Sichtfeld der dreidimensionalen Kamera 14 eintritt. Die Koordinatenerfassungseinheit 16 erfasst die Positionskoordinaten eines Endes des Werkstücks 24 aus den dreidimensionalen Informationen des einen Endes des Werkstücks 24, die von der dreidimensionalen Kamera 14 erfasst wurden, und erfasst die Positionskoordinaten des anderen Endes des Werkstücks 24 aus den dreidimensionalen Informationen des anderen Endes des Werkstücks 24, die von der dreidimensionalen Kamera 14 erfasst wurden. Folglich kann die Positionsdetektionsvorrichtung 10 die Positionen beider Enden des langen Werkstücks 24 erfassen. Ferner kann die Positionsdetektionsvorrichtung 10 die Positionen beider Enden des Werkstücks 24 in kurzer Zeit erfassen.
  • In der Positionsdetektionsvorrichtung 10 der vorliegenden Ausführungsform berechnet die Koordinatenerfassungseinheit 16 die Positionskoordinaten des Mittelpunkts des Werkstücks 24 in dessen Längsrichtung, basierend auf den Positionskoordinaten eines Endes des Werkstücks 24 und den Positionskoordinaten des anderen Endes des Werkstücks 24. Folglich kann die Positionsdetektionsvorrichtung 10 die Position des Mittelpunkts des langen Werkstücks 24 in dessen Längsrichtung erfassen.
  • In der Positionsdetektionsvorrichtung 10 der vorliegenden Ausführungsform berechnet die Koordinatenerfassungseinheit 16 die Positionskoordinaten des Mittelpunkts des Werkstücks 24 in dessen Längsrichtung in dem Werkstückkoordinatensystem, in dem die Längsrichtung des Werkstücks 24 die Y-Achsenrichtung ist, und wandelt die berechneten Positionskoordinaten des Mittelpunkts in die Positionskoordinaten in dem Benutzerkoordinatensystem um, das für die Steuerung des Roboters 12 verwendet wird. Infolgedessen kann die Positionsdetektionsvorrichtung 10 die Position des Mittelpunkts des Werkstücks 24 in dessen Längsrichtung im Benutzerkoordinatensystem erfassen.
  • [Technische Konzepte gemäß Ausführungsform]
  • Die vorliegende Erfindung stellt die Detektionsvorrichtung (10) bereit, die die Position des langen Werkstücks (24) erfasst, wobei die Detektionsvorrichtung umfasst: die dreidimensionale Kamera (14), die so konfiguriert ist, dass sie die dreidimensionale Information erfasst, und deren Abbildungsrichtung so konfiguriert ist, dass sie geändert werden kann; die Bildgebungssteuereinheit (18), die so konfiguriert ist, dass sie die Abbildungsrichtung der dreidimensionalen Kamera steuert; und die Koordinatenerfassungseinheit (16), die so konfiguriert ist, dass sie die Positionskoordinaten des langen Werkstücks aus den von der dreidimensionalen Kamera erfassten dreidimensionalen Informationen erfasst, wobei die Bildgebungssteuereinheit die Abbildungsrichtung der dreidimensionalen Kamera so ändert, dass ein Ende des langen Werkstücks in das Sichtfeld der dreidimensionalen Kamera eintritt, und dann die Abbildungsrichtung der dreidimensionalen Kamera so ändert, dass ein anderes Ende des langen Werkstücks in das Sichtfeld der dreidimensionalen Kamera eintritt, und die Koordinatenerfassungseinheit die Positionskoordinaten des einen Endes aus den von der dreidimensionalen Kamera erfassten dreidimensionalen Informationen des einen Endes erfasst, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das eine Ende in das Sichtfeld der dreidimensionalen Kamera eintritt, und die Positionskoordinaten des anderen Endes aus den von der dreidimensionalen Kamera erfassten dreidimensionalen Informationen des anderen Endes erfasst, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das andere Ende in das Sichtfeld der dreidimensionalen Kamera eintritt.
  • In der oben beschriebenen Detektionsvorrichtung kann die Koordinatenerfassungseinheit die Positionskoordinaten des inneren Teilungspunkts des langen Werkstücks in dessen Längsrichtung berechnen, basierend auf den Positionskoordinaten des einen Endes und den Positionskoordinaten des anderen Endes.
  • In der oben beschriebenen Detektionsvorrichtung kann die Koordinatenerfassungseinheit die Positionskoordinaten des Mittelpunkts des langen Werkstücks in dessen Längsrichtung berechnen.
  • In der oben beschriebenen Detektionsvorrichtung kann das lange Werkstück ein Werkstück sein, das von dem Roboter (12) gegriffen wird, und die Koordinatenerfassungseinheit kann die Positionskoordinaten des inneren Teilungspunktes in dem ersten Koordinatensystem berechnen, in dem zumindest die Längsrichtung des langen Werkstücks als die Koordinatenachsenrichtung festgelegt ist, und die Positionskoordinaten des inneren Teilungspunktes in dem ersten Koordinatensystem in die Positionskoordinaten in dem zweiten Koordinatensystem umwandeln, das für die Steuerung des Roboters verwendet wird.
  • In der oben beschriebenen Detektionsvorrichtung kann die dreidimensionale Kamera am Arm (22) des Roboters befestigt sein oder vom Arm in einer Weise drehbar gehalten werden, dass die Abbildungsrichtung geändert wird.
  • Die vorliegende Erfindung stellt ein Detektionsverfahren zum Erfassen der Position des langen Werkstücks auf der Grundlage der von der dreidimensionalen Kamera erfassten dreidimensionalen Informationen bereit, wobei das Detektionsverfahren umfasst: den Abbildungsschritt des Erfassens der dreidimensionalen Information durch Ändern der Abbildungsrichtung der dreidimensionalen Kamera, so dass ein Ende des langen Werkstücks in das Sichtfeld der dreidimensionalen Kamera eintritt, und dann Erfassen der dreidimensionalen Information durch Ändern der Abbildungsrichtung der dreidimensionalen Kamera, so dass ein anderes Ende des langen Werkstücks in das Sichtfeld der dreidimensionalen Kamera eintritt; und den Koordinatenerfassungsschritt des Erfassens der Positionskoordinaten des einen Endes aus den dreidimensionalen Informationen des einen Endes, die von der dreidimensionalen Kamera erfasst werden, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das eine Ende in das Sichtfeld der dreidimensionalen Kamera eintritt, und des Erfassens der Positionskoordinaten des anderen Endes aus den dreidimensionalen Informationen des anderen Endes, die von der dreidimensionalen Kamera erfasst werden, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das andere Ende in das Sichtfeld der dreidimensionalen Kamera eintritt.
  • Das oben beschriebene Detektionsverfahren kann ferner den Schritt der Erfassung des inneren Teilungspunkts umfassen, bei dem die Positionskoordinaten des inneren Teilungspunkts des langen Werkstücks in dessen Längsrichtung auf der Grundlage der Positionskoordinaten des einen Endes und der Positionskoordinaten des anderen Endes, die in dem Koordinatenerfassungsschritt erfasst werden, berechnet werden.
  • In dem oben beschriebenen Detektionsverfahren kann der Schritt der Erfassung des inneren Teilungspunkts die Berechnung der Positionskoordinaten des Mittelpunkts des langen Werkstücks in dessen Längsrichtung umfassen.
  • In dem oben beschriebenen Detektionsverfahren kann das lange Werkstück ein Werkstück sein, das von dem Roboter gegriffen wird, und der Schritt der Erfassung des inneren Teilungspunkts umfasst die Berechnung der Positionskoordinaten des inneren Teilungspunkts in dem ersten Koordinatensystem, in dem zumindest die Längsrichtung des langen Werkstücks als die Richtung der Koordinatenachse festgelegt ist, und die Umwandlung der Positionskoordinaten des inneren Teilungspunkts in dem ersten Koordinatensystem in die Positionskoordinaten in dem zweiten Koordinatensystem, das zur Steuerung des Roboters verwendet wird.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 63072506 U [0002]

Claims (9)

  1. Detektionsvorrichtung (10), die eine Position eines langen Werkstücks (24) erfasst, wobei die Detektionsvorrichtung umfasst: eine dreidimensionale Kamera (14), die so konfiguriert ist, dass sie dreidimensionale Informationen erfasst, und deren Abbildungsrichtung so konfiguriert ist, dass sie geändert werden kann; eine Bildgebungssteuereinheit (18), die zum Steuern der Abbildungsrichtung der dreidimensionalen Kamera konfiguriert ist; und eine Koordinatenerfassungseinheit (16), die konfiguriert ist, um Positionskoordinaten des langen Werkstücks aus den dreidimensionalen Informationen zu erfassen, die von der dreidimensionalen Kamera erfasst werden, wobei die Bildgebungssteuereinheit die Abbildungsrichtung der dreidimensionalen Kamera so ändert, dass ein Ende des langen Werkstücks in ein Sichtfeld der dreidimensionalen Kamera eintritt, und dann die Abbildungsrichtung der dreidimensionalen Kamera so ändert, dass ein anderes Ende des langen Werkstücks in das Sichtfeld der dreidimensionalen Kamera eintritt, und die Koordinatenerfassungseinheit Positionskoordinaten des einen Endes aus den von der dreidimensionalen Kamera erfassten dreidimensionalen Informationen des einen Endes erfasst, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das eine Ende in das Sichtfeld der dreidimensionalen Kamera eintritt, und Positionskoordinaten des anderen Endes aus den von der dreidimensionalen Kamera erfassten dreidimensionalen Informationen des anderen Endes erfasst, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das andere Ende in das Sichtfeld der dreidimensionalen Kamera eintritt.
  2. Detektionsvorrichtung nach Anspruch 1, wobei die Koordinatenerfassungseinheit auf der Grundlage der Positionskoordinaten des einen Endes und der Positionskoordinaten des anderen Endes die Positionskoordinaten eines inneren Teilungspunktes des langen Werkstücks in dessen Längsrichtung berechnet.
  3. Detektionsvorrichtung nach Anspruch 2, wobei die Koordinatenerfassungseinheit die Positionskoordinaten eines Mittelpunkts des langen Werkstücks in dessen Längsrichtung berechnet.
  4. Detektionsvorrichtung nach Anspruch 2 oder 3, wobei das lange Werkstück ein Werkstück ist, das von einem Roboter (12) gegriffen wird, und die Koordinatenerfassungseinheit Positionskoordinaten des inneren Teilungspunktes in einem ersten Koordinatensystem berechnet, in dem zumindest die Längsrichtung des langen Werkstücks als Koordinatenachsenrichtung festgelegt ist, und die Positionskoordinaten des inneren Teilungspunktes im ersten Koordinatensystem in Positionskoordinaten in einem zweiten Koordinatensystem umrechnet, das zur Steuerung des Roboters verwendet wird.
  5. Detektionsvorrichtung nach einem der Ansprüche 1 bis 4, wobei die dreidimensionale Kamera an einem Arm (22) eines Roboters befestigt ist oder von dem Arm drehbar gehalten wird, so dass die Abbildungsrichtung geändert wird.
  6. Detektionsverfahren zum Erfassen einer Position eines langen Werkstücks auf der Grundlage von dreidimensionaler Information, die von einer dreidimensionalen Kamera erfasst wird, wobei das Detektionsverfahren umfasst einen Abbildungsschritt des Erfassens der dreidimensionalen Information durch Ändern einer Abbildungsrichtung der dreidimensionalen Kamera, so dass ein Ende des langen Werkstücks in ein Sichtfeld der dreidimensionalen Kamera eintritt, und dann Erfassen der dreidimensionalen Information durch Ändern der Abbildungsrichtung der dreidimensionalen Kamera, so dass ein anderes Ende des langen Werkstücks in das Sichtfeld der dreidimensionalen Kamera eintritt; und einen Koordinatenerfassungsschritt des Erfassens von Positionskoordinaten des einen Endes aus den dreidimensionalen Informationen des einen Endes, die von der dreidimensionalen Kamera erfasst werden, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das eine Ende in das Sichtfeld der dreidimensionalen Kamera eintritt, und des Erfassens von Positionskoordinaten des anderen Endes aus den dreidimensionalen Informationen des anderen Endes, die von der dreidimensionalen Kamera erfasst werden, wenn die Abbildungsrichtung der dreidimensionalen Kamera so geändert wird, dass das andere Ende in das Sichtfeld der dreidimensionalen Kamera eintritt.
  7. Detektionsverfahren nach Anspruch 6, das ferner einen Schritt zur Erfassung eines inneren Teilungspunkts umfasst, bei dem Positionskoordinaten eines inneren Teilungspunkts des langen Werkstücks in dessen Längsrichtung auf der Grundlage der Positionskoordinaten des einen Endes und der Positionskoordinaten des anderen Endes, die in dem Koordinatenerfassungsschritt erfasst werden, berechnet werden.
  8. Detektionsverfahren nach Anspruch 7, wobei der Schritt der Erfassung des inneren Teilungspunkts die Berechnung der Positionskoordinaten eines Mittelpunkts des langen Werkstücks in dessen Längsrichtung umfasst.
  9. Detektionsverfahren nach Anspruch 7 oder 8, wobei das lange Werkstück ein Werkstück ist, das von einem Roboter gegriffen wird, und der Schritt der Erfassung des inneren Teilungspunktes die Berechnung von Positionskoordinaten des inneren Teilungspunktes in einem ersten Koordinatensystem, in dem zumindest die Längsrichtung des langen Werkstücks als Koordinatenachsenrichtung festgelegt ist, und die Umwandlung der Positionskoordinaten des inneren Teilungspunktes in dem ersten Koordinatensystem in Positionskoordinaten in einem zweiten Koordinatensystem, das zur Steuerung des Roboters verwendet wird, umfasst.
DE112021003715.3T 2020-07-13 2021-07-08 Detektionsvorrichtung und Detektionsverfahren Pending DE112021003715T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020-119653 2020-07-13
JP2020119653 2020-07-13
PCT/JP2021/025791 WO2022014458A1 (ja) 2020-07-13 2021-07-08 検出装置及び検出方法

Publications (1)

Publication Number Publication Date
DE112021003715T5 true DE112021003715T5 (de) 2023-05-11

Family

ID=79555417

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021003715.3T Pending DE112021003715T5 (de) 2020-07-13 2021-07-08 Detektionsvorrichtung und Detektionsverfahren

Country Status (5)

Country Link
US (1) US20230281857A1 (de)
JP (1) JP7381758B2 (de)
CN (1) CN116235024A (de)
DE (1) DE112021003715T5 (de)
WO (1) WO2022014458A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6372506U (de) 1986-10-30 1988-05-14

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4837538B2 (ja) * 2006-12-04 2011-12-14 昭和電工株式会社 端部位置測定方法および寸法測定方法
JP4309439B2 (ja) * 2007-03-30 2009-08-05 ファナック株式会社 対象物取出装置
US9909855B2 (en) * 2015-12-30 2018-03-06 Faro Technologies, Inc. Registration of three-dimensional coordinates measured on interior and exterior portions of an object
JP6372506B2 (ja) 2016-03-11 2018-08-15 コニカミノルタ株式会社 画像処理装置、画像処理システム、画像ファイル提供支援方法、およびコンピュータプログラム
JP2017207439A (ja) * 2016-05-20 2017-11-24 大日本印刷株式会社 円柱体の位置状態測定方法及びシステム
JP6420296B2 (ja) * 2016-12-01 2018-11-07 ファナック株式会社 ロボットの干渉領域を自動で設定するロボット制御装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6372506U (de) 1986-10-30 1988-05-14

Also Published As

Publication number Publication date
CN116235024A (zh) 2023-06-06
WO2022014458A1 (ja) 2022-01-20
US20230281857A1 (en) 2023-09-07
JP7381758B2 (ja) 2023-11-15
JPWO2022014458A1 (de) 2022-01-20

Similar Documents

Publication Publication Date Title
DE102015001527B4 (de) Robotersystem, das visuelle Rückmeldung verwendet
DE102015002760B4 (de) Robotersimulationssystem, das den Prozess des Entnehmens von Werkstücken simuliert
DE3689644T2 (de) Verfahren und Gerät zur Berechnung der Position und der Orientierung durch Kombination von Merkmalen von Teilgestalten.
DE69103871T2 (de) Eichsystem für einen optischen sensor.
DE112011103794B4 (de) Aufnehmervorrichtung für Werkstücke
DE102010032840B4 (de) Vorrichtung und Verfahren zum Messen der Position eines Werkzeugmittelpunktes eines Roboters
DE60127644T2 (de) Lehrvorrichtung für einen Roboter
DE112013004103B4 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
WO2015173092A1 (de) Verfahren und vorrichtung zur kalibrierung eines kamerasystems eines kraftfahrzeugs
DE112017007025T5 (de) Positionssteuerungseinrichtung und positionssteuerungsverfahren
DE102015000587A1 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102021103726B4 (de) Messparameter-Optimierungsverfahren und -vorrichtung sowie Computersteuerprogramm
EP3308361B1 (de) Verfahren zur erzeugung eines virtuellen bildes einer fahrzeugumgebung
DE102017122010A1 (de) Erkennungsverfahren und Erkennungseinrichtung zur Erkennung einer dreidimensionalen Position eines Objekts
DE102018121481A1 (de) Entfernungsmesssystem und Entfernungsmessverfahren
DE69124189T2 (de) Vorrichtung zur messung der blattlänge
DE102016008406A1 (de) Bildmessvorrichtung, Steuerprogramm dieser Vorrichtung und nicht temporäres Aufzeichnungsmedium, auf welchem das Steuerprogramm aufgezeichnet ist
DE112021003715T5 (de) Detektionsvorrichtung und Detektionsverfahren
DE60306389T2 (de) Verfahren zur Bildung von Druckkontrolldaten
DE102014219428A1 (de) Selbstkalibrierung eines Stereokamerasystems im Auto
DE102020200010A1 (de) Maschinensteuervorrichtung
DE102018207411A1 (de) Verfahren zur Ermittlung von Messinformationen in einem optischen Koordinatenmessgerät
DE102012211734A1 (de) Verfahren und Vorrichtung zum Erfassen der Lage eines Objekts in einer Werkzeugmaschine
EP3875892B1 (de) Optische messvorrichtung, verfahren zum erstellen eines messprogramms zur optischen vermessung eines messobjektes und prüfverfahren zur optischen vermessung eines messobjektes
DE112021000595T5 (de) Bildverarbeitungssystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed