DE102011108169A1 - Workpiece removal device and method - Google Patents

Workpiece removal device and method Download PDF

Info

Publication number
DE102011108169A1
DE102011108169A1 DE102011108169A DE102011108169A DE102011108169A1 DE 102011108169 A1 DE102011108169 A1 DE 102011108169A1 DE 102011108169 A DE102011108169 A DE 102011108169A DE 102011108169 A DE102011108169 A DE 102011108169A DE 102011108169 A1 DE102011108169 A1 DE 102011108169A1
Authority
DE
Germany
Prior art keywords
workpiece
state
area
section
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102011108169A
Other languages
German (de)
Other versions
DE102011108169B4 (en
Inventor
Kazunori Ban
Hidetoshi Kumiya
Toshiyuki Ando
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102011108169A1 publication Critical patent/DE102011108169A1/en
Application granted granted Critical
Publication of DE102011108169B4 publication Critical patent/DE102011108169B4/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40053Pick 3-D object from pile of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Werkstückentnahmevorrichtung umfassend eine Kamera zum Aufnehmen eines Werkstückladebereichs, der eine Vielzahl von in einem Stapel angeordneten Werkstücken umfasst; einen Werkstückerfassungsbereich zum Erfassen eines Werkstücks basierend auf dem mit der Kamera aufgenommenen Kamerabild; einen Werkstückauswahlbereich zum Auswählen eines zu entladenden Werkstücks basierend auf dem Erfassungsergebnis des Werkstückerfassungsbereichs; einen Roboter zum Entladen des durch den Werkstückauswahlbereich ausgewählten Werkstücks; einen Ladungszustandfeststellungsabschnitt zum Feststellen, ob sich ein Lagezustand der Werkstücke in dem Werkstückladebereich aufgrund einer Operation des Roboters verändert hat; und einen Bereichbestimmungsabschnitt zum Bestimmen eines Werkstückerfassungsbereich, in dem der Werkstückerfassungsabschnitt ein Werkstück erfasst. Falls der Lagezustanderfassungsabschnitt eine Veränderung des Lagezustands der Werkstücke erfasst, bestimmt der Bereichbestimmungsabschnitt den Werkstückerfassungsbereich als einen Umfangsbereich um eine Veränderungsposition des Lagezustands, d. h. in einem Abschnitt des Werkstückladebereichs.The present invention relates to a workpiece removal device comprising a camera for recording a workpiece loading area which comprises a plurality of workpieces arranged in a stack; a workpiece detection area for detecting a workpiece based on the camera image captured by the camera; a workpiece selection area for selecting a workpiece to be unloaded based on the detection result of the workpiece detection area; a robot for unloading the workpiece selected by the workpiece selection area; a loading state determining section for determining whether a positional state of the workpieces in the workpiece loading area has changed due to an operation of the robot; and an area determination section for determining a workpiece detection area in which the workpiece detection section detects a workpiece. If the positional condition detection section detects a change in the positional condition of the workpieces, the area determination section determines the workpiece detection area as a circumferential area around a change position in the positional condition, i. H. in a portion of the workpiece loading area.

Description

Hintergrund der ErfindungBackground of the invention

1. Gebiet der Erfindung1. Field of the invention

Die vorliegende Erfindung betrifft eine Vorrichtung und ein Verfahren zum Entnehmen eines Werkstücks aus einer Menge von in einem Container gelagerten Werkstücken unter Verwendung eines Roboters.The present invention relates to an apparatus and method for removing a workpiece from a set of workpieces stored in a container using a robot.

2. Stand der Technik2. State of the art

Bei dem aus dem Stand der Technik bekannten Vorrichtungen wird ein Bild eines gesamten Bereichs einer Vielzahl von zufällig (in einer ungeordneten Menge) in einem Container angeordneten Werkstücken mit einer Kamera aufgenommen. Basierend auf dem aufgenommenen Bild werden Werkstücke erfasst und ein Werkstück automatisch unter Verwendung eines Robotermanipulators entnommen. Bei der in der japanischen Patentveröffentlichung Nr. 4199264 ( JP4199264B ) beschriebenen Vorrichtung wird festgestellt, ob sich der Ladezustand der Werkstücke in einem Container verändert hat oder nicht. Anschließend wird, falls keine Veränderung des Ladezustand festgestellt wurde, ohne weitere Bildaufnahme der Werkstücke in dem nächsten Werkstückentnahmevorgang, ein Werkstück basierend auf dem vorrangehend aufgenommenen Bild erfasst. Dadurch kann auf den Schritt des Aufnehmens mit der Kamera verzichtet werden und dementsprechend die für den Werkstückentnahmevorgang verwendete Zeit reduziert werden.In the prior art devices, an image of an entire area of a plurality of randomly arranged (in a disordered amount) containers in a container is taken with a camera. Based on the captured image, workpieces are detected and a workpiece is automatically extracted using a robotic manipulator. In Japanese Patent Publication No. 4199264 (US Pat. JP4199264B ) is determined whether the state of charge of the workpieces has changed in a container or not. Then, if no change in the state of charge has been detected, without further image picking of the workpieces in the next workpiece removal process, a workpiece is detected based on the above-captured image. As a result, it is possible to dispense with the step of recording with the camera and, accordingly, to reduce the time used for the workpiece removal process.

Im Allgemeinen verändert sich jedoch der Ladezustand der Werkstücke bei dem nächsten Werkstückentnahmevorgang. Demnach ist es bei der in JP 4199264B beschriebenen Vorrichtung notwendig, falls eine Veränderung des Ladezustands der Werkstücke festgestellt wird, erneut mit der Kamera ein Bild des gesamten Bereichs einer Vielzahl von Werkstücken aufzunehmen und ein Werkstück basierend auf dem aufgenommenen Bild zu erfassen. Dementsprechend kann bei der in JP 4199264B beschriebenen Vorrichtung nur in wenigen Fällen auf den Schritt des Aufnehmens mit der Kamera verzichtet werden. Es ist somit schwierig die Effizienz des Werkstückentladevorgangs zu verbessern.In general, however, the loading state of the workpieces changes in the next workpiece removal operation. Accordingly, it is at the in JP 4199264B described apparatus necessary, if a change in the state of charge of the workpieces is determined to take again with the camera an image of the entire area of a plurality of workpieces and to detect a workpiece based on the captured image. Accordingly, at the in JP 4199264B described device can be dispensed only in a few cases on the step of recording with the camera. It is thus difficult to improve the efficiency of the workpiece unloading process.

Abriss der ErfindungOutline of the invention

Ein Aspekt der vorliegenden Erfindung stellt eine Werkstückentnahmevorrichtung bereit, umfassend eine Kamera zum Aufnehmen eines Werkstückladebereichs, der eine Vielzahl in einem ungeordneten Stapel gelagerter Werkstücke aufweist, einen Werkstückerfassungsabschnitt zum Erfassen eines Werkstücks basierend auf dem mit der Kamera aufgenommenen Kamerabild, einen Werkstückauswahlabschnitt zum Auswählen eines zum Entnehmen vorbestimmten Werkstücks basierend auf dem Erfassungsergebnis des Werkstückerfassungabschnitts, einen Roboter zum Entnehmen des durch den Werkstückauswahlabschnitt ausgewählten Werkstücks, einen Ladezustandfeststellungsabschnitt zum Feststellen, ob sich ein Ladezustand des Werkstücks in dem Werkstückladebereich aufgrund einer Operation des Roboters verändert hat, und einen Bereichbestimmungsabschnitt zum Bestimmen eines Werkstückerfassungsbereichs, in dem der Werkstückerfassungsabschnitt ein Werkstück erfasst, wobei, falls der Ladezustandfeststellungsabschnitt eine Veränderung des Ladezustands der Werkstücke feststellt, der Bereichsauswahlabschnitt den Werkstückerfassungsbereich in einem Abschnitt des Werkstückladebereichs festlegt, der ein Umfangsabschnitt einer veränderten Position des Ladezustand ist.One aspect of the present invention provides a workpiece removing apparatus comprising a camera for picking up a workpiece loading area having a plurality of workpieces stored in a disordered stack, a workpiece detecting section for detecting a workpiece based on the camera image taken with the camera, a workpiece selecting section for selecting one of Removing a predetermined workpiece based on the detection result of the workpiece detection section, a robot for extracting the workpiece selected by the workpiece selection section, a loading state determining section for determining whether a loading state of the workpiece in the workpiece loading section has changed due to an operation of the robot, and a section determining section for determining a workpiece detection section in which the workpiece detection section detects a workpiece, wherein if the state of charge detection is off In this case, when a change in the state of charge of the workpieces is detected, the region selecting section sets the work detection area in a portion of the work load area which is a peripheral portion of a changed position of the state of charge.

Ein weiterer Aspekt der vorliegenden Erfindung stellt ein Werkstückentnahmeverfahren bereit, aufweisend einen Aufnahmeschritt zum Aufnehmen eines Werkstückladebereichs mit einer Kamera, der eine Vielzahl von in einem Stapel angeordneten Werkstücken umfasst, einen Werkzeugerfassungsschritt zum Erfassen eines Werkstücks basierend auf dem von der Kamera aufgenommenen Kamerabild, einen Werkstückauswahlschritt zum Auswählen eines zum Entnehmen vorbestimmten Werkstücks basierend auf einem Erfassungsergebnis des Werkstückerfassungsschritts, einen Werkzeugentladeschritt zum Entladen des durch den Werkzeugauswahlschritt ausgewählten Werkstücks mit einem Roboter, einen Ladezustandfeststellungsschritt zum Feststellen, ob sich ein Ladezustand der Werkstücke in dem Werkstückladebereich aufgrund einer Operation des Roboters verändert hat, und einen Bereichbestimmungsschritt zum Bestimmen eines Werkstückerfassungsbereichs zum Erfassen des Werkstücks in dem Werkstückerfassungsschritt, wobei in dem Bereichbestimmungsschritt, falls in dem Ladezustandfeststellungsschritt eine Veränderung des Ladezustands der Werkstücke festgestellt wird, der Werkstückerfassungsbereich in einem Abschnitt des Werkstückladebereichs bestimmt wird, wobei der Abschnitt ein Umfangsbereich einer veränderten Position des Ladezustands ist.Another aspect of the present invention provides a workpiece removal method comprising a picking up step for picking up a workpiece loading area with a camera including a plurality of workpieces arranged in a stack, a tool detecting step for detecting a workpiece based on the camera image picked up by the camera, a workpiece selecting step select a picking-predetermined workpiece based on a detection result of the workpiece detecting step, a tool unloading step for unloading the workpiece selected by the tool selecting step with a robot, a loading state detecting step for determining whether a loading state of the workpieces in the workpiece loading area has changed due to an operation of the robot, and a region determining step of determining a workpiece detection region for detecting the workpiece in the workpiece detection step, wherein in the area determining step, if a change in the loading state of the workpieces is detected in the loading state detecting step, the workpiece detection area is determined in a portion of the workpiece loading area, the section being a peripheral area of a changed position of the state of charge.

Kurzbeschreibung der FigurenBrief description of the figures

Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden von den im Folgenden mit Bezug auf die beigefügten Figuren beschriebenen Ausführungsformen ersichtlich, in denen:Objects, features and advantages of the present invention will be apparent from the embodiments described below with reference to the accompanying drawings, in which:

1 eine Ansicht ist, die den allgemeinen Aufbau einer Werkstückentnahmevorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung zeigt; 1 is a view showing the general structure of a workpiece removal device according to an embodiment of the present invention;

2 ein Flussdiagramm ist, das ein Beispiel eines von einer CPU in einer Robotersteuerung gemäß 1 ausgeführten Verfahrensablaufs zeigt; 2 FIG. 12 is a flowchart illustrating an example of one of a CPU in a robot controller according to FIG 1 shows executed procedure;

3 ein Flussdiagramm ist, das Details eines Werkstückerfassungsbereichsauswahlverfahrens gemäß 2 zeigt; 3 FIG. 11 is a flowchart showing the details of a workpiece detection area selection method according to FIG 2 shows;

4 eine Ansicht zeigt, die zum Erläutern eines Verfahrens zum automatischen Verändern der Größe des Werkstückerfassungsbereichs verwendet wird; 4 shows a view used for explaining a method of automatically changing the size of the workpiece detection area;

5a eine Ansicht ist, die zum Erläutern der Arbeitsweise der Werkstückentnahmevorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung verwendet wird; und 5a is a view used to explain the operation of the workpiece removal apparatus according to an embodiment of the present invention; and

5b eine Ansicht ist, die zum Erläutern der Arbeitsabläufe der Werkstückentnahmevorrichtung gemäß einer Ausführungsform der vorliegenden Erfindung verwendet wird. 5b is a view used to explain the operations of the workpiece removal apparatus according to an embodiment of the present invention.

Detaillierte BeschreibungDetailed description

Nachfolgend wird eine Ausführungsform der vorliegenden Erfindung mit Bezug auf die 1 bis 5b beschrieben.Hereinafter, an embodiment of the present invention will be described with reference to FIGS 1 to 5b described.

1 ist eine Ansicht, die den allgemeinen Aufbau einer Werkstückentnahmevorrichtung 1 gemäß einer Ausführungsform der vorliegenden Erfindung zeigt. Eine Vielzahl von Werkstücken 5 derselben Art sind zufällig (in einem Stapel gelagert) in einem Container 6 angeordnet. Die Werkstückentnahmevorrichtung 1 umfasst einen Roboter 2 zum Entnehmen eines Werkstücks 5, das aus der Vielzahl von in einem Stapel gelagerten Werkstücken 5 ausgewählt wird, eine fest oberhalb des Containers 6 angeordnete Kamera 7 und eine Robotersteuerung 8 zum Steuern des Roboters 2 basierend auf dem von der Kamera 7 aufgenommen Kamerabild. 1 is a view showing the general structure of a workpiece removal device 1 according to an embodiment of the present invention. A variety of workpieces 5 of the same kind are random (stored in a stack) in a container 6 arranged. The workpiece removal device 1 includes a robot 2 for removing a workpiece 5 consisting of the plurality of workpieces stored in a stack 5 is selected, one fixed above the container 6 arranged camera 7 and a robot controller 8th for controlling the robot 2 based on that of the camera 7 taken camera picture.

Der Roboter 2 ist ein Mehrachs-Roboter mit drehbar verbundenen Achsen. Ein Werkstück 5 wird durch eine Roboterhand 2b gegriffen, die an einem distalen Ende eines Roboterarms 2a vorgesehen ist. Ein visueller Sensor 3 ist an der Roboterhand 2b angeordnet und ein individuelles Werkstück 5 wird mit dem visuellen Sensor 3 vermessen. Der visuelle Sensor 3 ist ein 3-dimensionaler visueller Sensor eines Laserlichtprojezierenden Typs. Der visuelle Sensor 3 wird durch einen visuellen-Sensor-Steuerungsabschnitt 8h in einer Robotersteuerung 8 gesteuert. Die von dem visuellen Sensor 3 gemessenen Daten werden in einem Speicher 8g der Robotersteuerung 8 gespeichert, um eine 3-dimensionale Position und Lage des Werkstücks 5 im Detail in einem Verarbeitungsablauf in der Robotersteuerung 8 zu bestimmen. Ein Erschütterungssensor 4 ist an dem Roboterarm 2a vorgesehen und eine auf den Roboterarm 2a zu der Zeit der Werkstückentnahme ausgeübte Erschütterung wird durch den Erschütterungssensor 4 erfasst.The robot 2 is a multi-axis robot with rotatably connected axes. A workpiece 5 is by a robot hand 2 B grasped at a distal end of a robotic arm 2a is provided. A visual sensor 3 is at the robot hand 2 B arranged and an individual workpiece 5 comes with the visual sensor 3 measured. The visual sensor 3 is a 3-dimensional visual sensor of a laser light projecting type. The visual sensor 3 is passed through a visual sensor control section 8h in a robot controller 8th controlled. The one from the visual sensor 3 measured data is stored in memory 8g the robot controller 8th stored to a 3-dimensional position and position of the workpiece 5 in detail in a processing flow in the robot controller 8th to determine. A vibration sensor 4 is on the robot arm 2a provided and one on the robot arm 2a At the time of workpiece removal, vibration exerted by the vibration sensor 4 detected.

Die Kamera 7 ist eine elektronische Kamera mit einem bildgebenden Element, wie einem CCD-Element, und ist eine bekannte Lichtempfangsvorrichtung, die die Funktion von Erfassen eines zweidimensionalen Bildes auf einer lichtempfindlichen Fläche (einer CCD-Anordnungsebene) aufweist. Der Aufnahmevorgang der Kamera 7 wird durch einen Kamerasteuerungsabschnitt 8f in der Robotersteuerung 8 gesteuert. Der Bereich eines Aufnahmeabschnitts wird derart bestimmt, dass der Werkstückladebereich (zum Beispiel der gesamte Container) mit einer Vielzahl von Werkstücken 5 in dem Blickfeld liegt. Das Kamerabild wird durch den Kamerasteuerungsabschnitt 8f aufgenommen und in dem Speicher 8g gespeichert. Die Robotersteuerung 8 umfasst einen Werkstückerfassungsabschnitt 8a zum Erfassen der Werkstücke 5 basierend auf dem in dem Speicher 8g gespeicherten Bild, einen Werkstückauswahlabschnitt 8b zum Auswählen eines zu entladenden Werkstücks aus den von dem Werkstückerfassungsabschnitt 8a erfassten Werkstücken 5, einen Werkstückladezustandfeststellungsabschnitt 8c zum Feststellen, ob sich der Ladezustand der Werkstücke 5 in dem Container 6 verändert hat, einen Werkzeugladezustandveränderungsposition-Speicherabschnitt 8d zum Speichern des Ladezustands der Werkstücke 5 mit veränderten Positionen und einen Werkstückerfassungsbereich-Bestimmungsabschnitt 8e zum Bestimmen eines Werkstückerfassungsbereich, in dem der Werkstückerfassungsabschnitt 8a Werkstücke 5 erfasst. Die genannten Abschnitte bilden zusammen mit dem Kamerasteuerungsabschnitt 8f und dem Speicher 8g eine Bildverarbeitungseinheit zum Verarbeiten des Kamerabilds.The camera 7 is an electronic camera having an imaging element such as a CCD element, and is a known light receiving device having the function of detecting a two-dimensional image on a photosensitive surface (a CCD array plane). The recording process of the camera 7 is through a camera control section 8f in the robot controller 8th controlled. The area of a receiving portion is determined such that the workpiece loading area (for example, the entire container) with a plurality of workpieces 5 lies in the field of vision. The camera image is taken through the camera control section 8f taken and in the store 8g saved. The robot controller 8th includes a workpiece detection section 8a for detecting the workpieces 5 based on that in the memory 8g stored image, a workpiece selection section 8b for selecting a workpiece to be unloaded from that of the workpiece detection section 8a detected workpieces 5 , a workpiece loading condition detecting section 8c to determine if the state of charge of the workpieces 5 in the container 6 changed a tool loading state change position storage section 8d for storing the state of charge of the workpieces 5 with changed positions and a workpiece detection area determining section 8th for determining a workpiece detection area in which the workpiece detection section 8a workpieces 5 detected. Said sections form together with the camera control section 8f and the memory 8g an image processing unit for processing the camera image.

Der Werkzeugerfassungsabschnitt 8a erfasst Werkstücke 5 beispielsweise mit übereinstimmenden Formen. Dies bedeutet, dass ein zu der Form der Werkstücke 5 korrespondierendes Werkstückmodell im Voraus erzeugt wird und ein diesem Werkstückmodell entsprechendes Zielbild erhalten und von dem Kamerabild in dem Werkstückerfassungsbereich extrahiert wird, um die Werkstücke 5 zu erfassen. Mit diesem Arbeitsablauf in dem Werkstückerfassungsabschnitt 8a wird im Fall eines großen Werkstückerfassungsbereichs Zeit benötigt, um ein Zielbild zu erhalten. Darüber hinaus muss ein Roboter die Fertigstellung des zu erhaltenden Zielbilds abwarten, bevor mit dem Werkstückentladevorgang begonnen werden kann. Es ist dementsprechend schwer, den Werkstückentnahmevorgang effizient auszuführen. Gemäß dieser Ausführungsform wird die auf den Werkstückentnahmevorgang verwendetet Zeit durch Bestimmen des Werkstückerfassungsbereich reduziert, wie nachstehend beschrieben wird. 2 ist ein Flussdiagramm, das ein Beispiel eines Verfahrensablaufs darstellt, der in einer CPU der Robotersteuerung 8 ausgeführt wird. Der in dem Flussdiagramm dargestellte Verfahrensablauf beginnt beispielsweise, wenn ein Start-Befehl des Werkstückentnahmevorgangs eingegeben wird. Bei Schritt S1 des Verfahrens in dem Kamerasteuerungsabschnitt 8f wird ein Bildbefehl an die Kamera 7 ausgegeben, um ein Bild der Werkstücke 5 in dem Werkstückladebereich des Containers aufzunehmen. Das durch das Aufnehmen erhaltene Kamerabild wird in dem Speicher 8g gespeichert.The tool detection section 8a records workpieces 5 for example, with matching shapes. This means that one to the shape of the workpieces 5 corresponding workpiece model is generated in advance and a target image corresponding to this workpiece model is obtained and extracted from the camera image in the workpiece detection area to the workpieces 5 capture. With this workflow in the workpiece detection section 8a In the case of a large workpiece detection area, time is required to obtain a target image. In addition, a robot must wait for completion of the target image to be obtained before the workpiece unloading operation can be started. Accordingly, it is difficult to efficiently carry out the workpiece removal operation. According to this embodiment, the time used for the workpiece removal operation is determined by determining the workpiece detection area reduced as described below. 2 FIG. 10 is a flowchart illustrating an example of a process flow performed in a CPU of the robot controller 8th is performed. For example, the process flow shown in the flowchart starts when a start command of the workpiece unloading operation is input. At step S1 of the method in the camera control section 8f will be an image command to the camera 7 issued an image of the workpieces 5 in the workpiece loading area of the container. The camera image obtained by the shooting becomes in the memory 8g saved.

Bei Schritt S2 werden die Werkstücke 5 von dem in dem Speicher 8g gespeicherten Kamerabild unter Verwendung des Kamerabilds in dem Werkstückerfassungsabschnitt 8a (Musterabgleich) erfasst. Die erfassten Werkstücke 5 werden in dem Speicher 8g gespeichert. In einem Anfangszustand unmittelbar nachdem die Verarbeitung gemäß 2 begonnen hat, wird der Werkstückerfassungsbereich entsprechend dem Werkstückladebereich bestimmt, sodass er den gesamten Container umgibt. Wie nachstehend beschrieben wird, werden im Fall der Bestimmung einer Vielzahl von Werkstückerfassungsbereichen in einem Abschnitt des Werkstückladebereichs (5b) Werkstücke 5 in jedem Werkstückerfassungsbereich erfasst.In step S2, the workpieces 5 from that in the store 8g stored camera image using the camera image in the workpiece detection section 8a (Pattern matching). The recorded workpieces 5 be in the memory 8g saved. In an initial state immediately after the processing according to 2 has started, the workpiece detection area is determined according to the workpiece loading area so that it surrounds the entire container. As will be described later, in the case of determining a plurality of workpiece detection areas in a portion of the workpiece loading area (FIG. 5b ) Workpieces 5 detected in each workpiece detection area.

Bei Schritt S3 wird festgestellt, ob eines oder mehrere Werkstücke 5 in dem Verarbeitungsvorgang gemäß S2 erfasst wurde oder nicht. Wird in Schritt S3 eine negative Entscheidung getroffen, fährt das Verfahren mit Schritt S4 fort und es wird bestimmt, ob ein spezieller Abbruchzustand erfüllt wird oder nicht. Falls beispielsweise eine vorbestimmte Anzahl von Werkstücken 5 entladen wurde, wird die Erfüllung eines vorbestimmten Abbruchzustands festgestellt. Falls eine positive Entscheidung in Schritt 4 getroffen wird, wird das Verfahren beendet. Falls in Schritt S4 eine negative Entscheidung vorliegt, fährt das Verfahren mit Schritt S5 fort und ein Werkstückerfassungsbereich wird derart bestimmt, dass er den gesamten Container umgibt. Anschließend kehrt das Verfahren zu Schritt S1 zurück. Andererseits wird bei einer bejahenden Entscheidung in Schritt S2 das Verfahren mit Schritt S6 fortgeführt.At step S3, it is determined whether one or more workpieces 5 was detected in the processing of S2 or not. If a negative decision is made in step S3, the process proceeds to step S4, and it is determined whether or not a specific abort condition is satisfied. For example, if a predetermined number of workpieces 5 has been discharged, the fulfillment of a predetermined termination state is determined. If a positive decision in step 4 is taken, the process is terminated. If there is a negative decision in step S4, the process proceeds to step S5 and a workpiece detection area is determined so as to surround the entire container. Subsequently, the process returns to step S1. On the other hand, in an affirmative decision in step S2, the process proceeds to step S6.

Bei Schritt S6 wird aus allen Werkstücken 5 in dem Container, die in dem Speicher 8g bei Schritt S2 gespeichert wurden, ein durch den Roboter 2 zu entnehmendes Werkstück in dem Verfahrensablauf im Werkstückauswahlabschnitt 8b ausgewählt. In diesem Fall wird beispielsweise ein Werkstück 5, das sich in einer höheren Position als die Werkstücke 5 befindet und nicht von anderen Werkstücken verdeckt wird als zu entnehmendes Werkstück ausgewählt.At step S6, all the workpieces become 5 in the container, in the store 8g stored by the robot at step S2 2 to be taken workpiece in the process flow in the workpiece selection section 8b selected. In this case, for example, a workpiece 5 that is in a higher position than the workpieces 5 is hidden and not covered by other workpieces selected as the workpiece to be removed.

Bei Schritt S7 wird bestimmt, ob ein Werkstück in dem Verarbeitungsablauf gemäß Schritt S6 ausgewählt wurde oder nicht. Im Fall einer negativen Entscheidung in Schritt S7 fährt das Verfahren mit Schritt S8 fort und Erfassungszustände oder Auswahlzustände werden derart modifiziert, dass sie die Auswahl eines Werkstücks 5 erlauben. Zum Beispiel kann die Lichtintensität zur Aufnahmezeit oder die Werkstückform bei dem Musterabgleich oder Ähnliches modifiziert werden und anschließend kehrt das Verfahren zu Schritt S1 zurück. Im Falle einer positiven Entscheidung bei Schritt S7 fährt das Verfahren mit Schritt S9 fort.At step S7, it is determined whether or not a workpiece has been selected in the processing flow in step S6. In the case of a negative decision in step S7, the process proceeds to step S8, and detection states or selection states are modified to indicate the selection of a workpiece 5 allow. For example, the light intensity at the recording time or the workpiece shape at the pattern matching or the like may be modified, and then the process returns to step S1. In the case of a positive decision in step S7, the process proceeds to step S9.

Bei Schritt S9 wird ein Steuersignal an den Servomotor zum Antreiben des Roboters ausgegeben, um die Operation des Roboters 2 (Roboterarm 2a und die Roboterhand) zu steuern, sodass das ausgewählte Werkstück 5 aus dem Container entladen wird. In diesem Fall wird eine verlagerte Position des visuellen Sensors 3, der an dem distalen Ende des Roboterarms angeordnet ist, berechnet und die drei-dimensionale Position und Lage des ausgewählten Werkstücks 5 wird durch den visuellen Sensor 3 gemessen. Nachdem die Roboterhand zu ihrer Zielposition zum Entnehmen des Werkzeugs bewegt wurde, wird das Werkstück 5 durch die Roboterhand gegriffen und entnommen.At step S9, a control signal is output to the servomotor for driving the robot to stop the operation of the robot 2 (robot arm 2a and the robot hand) so that the selected workpiece 5 is unloaded from the container. In this case, a displaced position of the visual sensor becomes 3 , which is located at the distal end of the robot arm, calculates and the three-dimensional position and location of the selected workpiece 5 is through the visual sensor 3 measured. After the robot hand has been moved to its target position for removing the tool, the workpiece becomes 5 gripped and removed by the robot hand.

Bei Schritt S10 wird durch ein Verfahren in dem Werkzeugladezustand-Feststellungsabschnitt 8c bestimmt, ob eine Erschütterung durch den Erschütterungssensor 4 während der Operation des Roboters 2 erfasst wurde oder nicht, das heißt ob eine Erschütterung von einem Kontakt des Roboters 2 mit Werkstücken 5 oder Ähnlichem herrührt, bevor das ausgewählte Werkstück 5 gegriffen wird. Anstelle des Erschütterungssensors 4 kann das Vorliegen einer Erschütterung auch durch Erfassen des Motorstroms aufgrund einer plötzlichen Veränderung der auf den Servomotor zum Antreiben des Roboters ausgeübten Last ermittelt werden.At step S10, a process is performed in the tool loading condition determination section 8c determines if a shock from the vibration sensor 4 during the operation of the robot 2 was detected or not, that is, whether a shock from a contact of the robot 2 with workpieces 5 or the like, before the selected workpiece 5 is seized. Instead of the vibration sensor 4 For example, the presence of a shock can also be detected by detecting the motor current due to a sudden change in the load applied to the servomotor for driving the robot.

Falls eine positive Entscheidung bei Schritt S10 getroffen wird, fährt das Verfahren mit S11 fort. In diesem Fall ist es wahrscheinlich, dass sich der Ladezustand der Werkstücke 5 in dem Container, insbesondere der Ladezustand nahe dem zu entnehmenden Werkstück 5 aufgrund des Auftretens einer Erschütterung verändert hat. Daher wird bei Schritt S11 durch ein Verfahren in dem Werkstückladezustandveränderungspositions-Speicherabschnitt 8d die Position des zu entnehmenden, ausgewählten Werkstücks 5 als Ladezustandveränderungsposition gespeichert und anschließend fährt das Verfahren mit Schritt S6 fort, um das Auswahlverfahren für das Werkstück 5 zu wiederholen. In diesem wiederholten Werkstückauswahlverfahren kann ein Werkstück 5 an einer von der Ladezustandveränderungsposition getrennten Position ausgewählt werden, das heißt aus den Werkstücken 5, für die angenommen werden kann, dass ihr Ladezustand nicht verändert wurde. Die Ladezustandsveränderungspostition ist eine 3-dimensionale Position der Werkstücke 5, die durch den visuellen Sensor 3 erfasst wird. Die Ladezustandsveränderungspostitionen werden als Positionsdaten in dem Roboterkoordinatensystem gespeichert.If an affirmative decision is made in step S10, the process proceeds to S11. In this case, it is likely that the state of charge of the workpieces 5 in the container, in particular the state of charge near the workpiece to be removed 5 has changed due to the occurrence of a shock. Therefore, in step S11, a process is performed in the workpiece loading change position storage section 8d the position of the selected workpiece to be taken 5 stored as a state of charge change position and then the process proceeds to step S6 to the selection process for the workpiece 5 to repeat. In this repeated workpiece selection process, a workpiece 5 are selected at a position separate from the state of charge change position, that is from the workpieces 5 for which it can be assumed that their state of charge has not been changed. The state of charge change position is a 3-dimensional position of the workpieces 5 passing through the visual sensor 3 is detected. The state of charge change items are stored as position data in the robot coordinate system.

Bei Schritt S10 ist es, falls bei einer Bewegung der Roboterhand zu der Position des zu entnehmenden Werkstücks 5 eine Erschütterung erfasst wurde, wahrscheinlich, dass sich der Ladezustand nahe dem zu entnehmenden Werkstück 5 nicht verändert hat, aber die Position verändert wurde, an der die Erschütterung des Roboters stattfand. In diesem Fall wird bei Schritt S11 die Position des distalen Endes des Roboterarms bei der Erschütterung des Roboters 2 als Ladezustandveränderungsposition in dem Speicher 8g gespeichert. Die Position des distalen Endes des Roboterarms kann mit verschiedenen Positionssensoren an dem Roboter 2 erfasst werden.At step S10, if the robot hand moves to the position of the workpiece to be unloaded, it is 5 a shock was detected, likely that the state of charge near the workpiece to be removed 5 did not change, but the position was changed, where the vibration of the robot took place. In this case, at step S11, the position of the distal end of the robot arm at the vibration of the robot 2 as a state of charge change position in the memory 8g saved. The position of the distal end of the robotic arm may be with different position sensors on the robot 2 be recorded.

Falls eine negative Entscheidung bei Schritt S10 getroffen wurde, fährt das Verfahren mit Schritt S12 fort. Bei Schritt S12 wird in dem Werkstückladezustand-Erfassungsabschnitt 8c festgestellt, ob die Roboterhand das zu entnehmende Werkstück greifen kann oder nicht.If a negative decision has been made at step S10, the process proceeds to step S12. In step S12, in the workpiece loading condition detecting section 8c determined whether the robot hand can grip the workpiece to be removed or not.

Insbesondere wird eine erfolgreiche oder fehlerhafte Greifoperation basierend auf einem erfassten Wert eines Offen-Geschlossen-Prüfsensors einer Handspannvorrichtung oder basierend auf dem erfassten Wert eines Saugprüfsensors festgestellt, ob die Roboterhand eine Saugvorrichtung verwendet. Es ist ebenso möglich eine erfolgreiche oder fehlerhafte Greifoperation basierend auf einem erfassten Wert eines Näherungssensors oder Ähnlichem zu erfassen, der erfasst, ob sich ein Werkstück 5 in einer korrekten Position relativ zu der Roboterhand befindet oder nicht.Specifically, a successful or erroneous gripping operation is determined based on a detected value of an open-close check sensor of a manual chuck or based on the detected value of a suction check sensor, whether the robot hand uses a suction device. It is also possible to detect a successful or erroneous gripping operation based on a detected value of a proximity sensor or the like that detects whether a workpiece is being detected 5 is in a correct position relative to the robot hand or not.

Falls in Schritt S12 eine positive Entscheidung getroffen wird, fährt das Verfahren mit Schritt S13 fort. In diesem Fall ist es wahrscheinlich, dass sich der Ladezustand der Werkstücke 5 in dem Container und insbesondere der Ladezustand nahe der Position des zu entnehmenden Werkstücks 5 aufgrund des Greifens und des Entnehmens des Werkstücks 5 verändert hat. Dementsprechend wird bei Schritt S13 in dem Werkstückladezustandveränderungspositions-Speicherabschnitt 8d ebenso wie in Schritt S11 die Position des zum Entfernen ausgewählten Werkstücks 5 als Ladezustandsveränderungsposition gespeichert und das Verfahren fährt mit Schritt S14 fort. Unter Berücksichtigung einer möglichen Abweichung zwischen der tatsächlichen Position des Werkstücks 5 und der Position des ausgewählten Werkstücks 5 kann der Roboter bewegt werden, um beispielsweise unterhalb der Position des ausgewählten Werkstücks 5 das Werkstück 5 zu greifen, und die tatsächliche Position, an der das Werkstück 5 gegriffen wurde, kann als Lagezustandveränderungsposition in dem Speicher 8g gespeichert werden. Bei einer negativen Entscheidung in Schritt S12 fährt das Verfahren mit Schritt S14 fort.If an affirmative decision is made in step S12, the process proceeds to step S13. In this case, it is likely that the state of charge of the workpieces 5 in the container and in particular the state of charge near the position of the workpiece to be removed 5 due to gripping and removal of the workpiece 5 has changed. Accordingly, in step S13, in the workpiece loading state changing position storage section 8d as well as the position of the workpiece selected for removal in step S11 5 stored as a state of charge change position and the process proceeds to step S14. Taking into account a possible deviation between the actual position of the workpiece 5 and the position of the selected workpiece 5 For example, the robot may be moved to below the position of the selected workpiece 5 the workpiece 5 to grasp, and the actual position at which the workpiece 5 can be used as a positional state change position in the memory 8g get saved. If the decision is negative in step S12, the process proceeds to step S14.

Bei Schritt S14 wird in dem Werkstückerfassungsbereichs-Bestimmungsabschnitt 8e das in 3 gezeigte Verfahren zur Werkstückerfassungsbereich-Bestimmung ausgeführt. Zunächst wird bei Schritt S14a festgestellt, ob eine Ladezustandsveränderungsposition existiert oder nicht, d. h. ob das Verfahren gemäß Schritt S11 oder gemäß Schritt S13 ausgeführt wurde. Bei einer positiven Entscheidung in Schritt S14a, fährt das Verfahren mit Schritt S14b fort und die Ladezustandveränderungsposition in dem Roboterkoordinatensystem wird erhalten, die in dem Werkstückladezustandsveränderungsposition-Speicherabschnitt 8d gespeichert ist. Bei Schritt S14c wird die Ladezustandveränderungsposition in dem Roboterkoordinatensystem in eine Position in dem Bild umgewandelt. Im Speziellen wird die Ladezustandveränderungsposition in dem Roboterkoordinatensystem unter Verwendung der Kalibrationsdaten der Kamera 7 in eine Position auf dem Kamerabild durch eine bekannte Technik umgewandelt.In step S14, in the workpiece detection area determining section 8th this in 3 shown method for workpiece detection area determination executed. First, at step S14a, it is determined whether or not a state of charge change position exists, ie, whether the process of step S11 or step S13 has been executed. If YES in step S14a, the process proceeds to step S14b, and the state of charge change position in the robot coordinate system obtained in the workload state change position storage section is obtained 8d is stored. At step S14c, the state of charge change position in the robot coordinate system is converted to a position in the image. Specifically, the state of charge change position in the robot coordinate system becomes the camera's calibration data 7 converted to a position on the camera image by a known technique.

Bei Schritt S14d wird ein Werkstückerfassungsbereich von vorbestimmter Form und Größe an der Ladezustandveränderungsposition auf dem Bild bestimmt. Beispielsweise wird, falls der Werkstückerfassungsbereich kreisförmig ist, ein Durchmesser oder Radius eines Kreises mit einem Zentrum an der Ladezustandveränderungsposition bestimmt. Falls der Werkstückerfassungsbereich rechteckig ist, wird die Länge in Längsrichtung und die Länge in Querrichtung eines rechteckigen Fensters mit einem Zentrum an der Ladezustandveränderungsposition bestimmt. In jedem Fall wird der Werkstückerfassungsbereich wenigstens in einem Abschnitt des von der Kamera 7 aufgenommenen Werkstückladebereichs bestimmt, d. h. einem engeren Bereich als dem Werkstückladebereich. Falls die Ladezustandveränderungsposition an einer Vielzahl von Positionen vorliegt, werden die Werkstückerfassungsbereiche an den entsprechenden Positionen bestimmt.At step S14d, a work detection area of predetermined shape and size at the state of charge change position on the image is determined. For example, if the work detection area is circular, a diameter or radius of a circle having a center at the state of charge change position is determined. If the workpiece detection area is rectangular, the length in the longitudinal direction and the length in the transverse direction of a rectangular window having a center at the loading state changing position are determined. In any case, the workpiece detection area is at least in a portion of the camera 7 recorded workpiece loading area, ie a narrower range than the workpiece loading area. If the state of charge change position exists at a plurality of positions, the workpiece detection areas are determined at the corresponding positions.

Wenn das Verfahren bei Schritt S14d fertiggestellt wurde, kehrt das Verfahren zu Schritt S1 gemäß 1 zurück. Anschließend wird das Verfahren wiederholt. In dem wiederholten Verfahren werden bei Schritt S2 die Werkstücke 5 von dem Werkstückerfassungsbereich erfasst, der in einem Abschnitt des Werkstückladebereichs bestimmt wurde, und die Werkstückerfassungsdaten in dem Werkstückerfassungsbereich werden durch die neuen Werkstückerfassungsdaten ersetzt und in dem Speicher 8g gespeichert. Mit anderen Worten wird ein Umfangsbereich der Position, an der sich der Ladezustand der Werkstücke 5 verändert hat, als Werkzeugerfassungsbereich zum Ausführen der Erfassung der Werkstücke 5 bestimmt und die Werkstückerfassungsdaten in diesem Bereich werden erneuert. Da die Werkstücke 5 nicht über den gesamten Werkstückladebereich erfasst werden müssen, kann die zum Bearbeiten des Werkstückerfassungsbereichs 8a benötigte Zeit verkürzt werden.When the process has been completed at step S14d, the process returns to step S1 in FIG 1 back. Subsequently, the process is repeated. In the repeated process, at step S2, the workpieces 5 is detected by the workpiece detection area determined in a portion of the workpiece loading area, and the workpiece detection data in the workpiece detection area is replaced with the new workpiece detection data and stored in the memory 8g saved. In other words, a peripheral region of the position at which the Loading status of the workpieces 5 has changed as a tool detection area for performing the detection of the workpieces 5 is determined and the workpiece detection data in this area are renewed. Because the workpieces 5 can not be detected over the entire workpiece loading area, which can be used to edit the workpiece detection area 8a required time to be shortened.

Andererseits kann, falls bei Schritt S14a festgestellt wird, dass keine Ladezustandveränderungsposition vorliegt, das Verfahren mit Schritt S14e fortfahren. Bei Schritt S14e wird ein Werkstückerfassungsbereich als der gesamte Werkstückladebereich bestimmt, um den gesamten Container zu umgeben und das Verfahren fährt mit Schritt S2 gemäß 2 fort. Da in diesem Fall keine Veränderungen in den Werkstückladezustand vorliegen, ist eine erneute Aufnahme mit der Kamera 7 nicht notwendig und bei Schritt S2 werden in dem wiederholten Verfahren die Werkstücke 5 in dem gesamten Container erfasst.On the other hand, if it is determined at step S14a that there is no state of charge change position, the process may proceed to step S14e. At step S14e, a work detection area is determined as the entire work load area to surround the entire container, and the process proceeds to step S2 2 continued. Since there are no changes in the workpiece loading state in this case, it is a new shot with the camera 7 not necessary, and in step S2, in the repeated process, the workpieces 5 captured in the entire container.

Mit Bezug auf das Verfahren bei Schritt S14d zum Bestimmen des Werkstückserfassungsbereichd, kann die Größe des Werkstücks 5 auf dem mit der Kamera 7 aufgenommenen Bild nach Maßgabe der Distanz von der Kamera 7 zu dem Werkstück 5 verändert werden, d. h. nach Maßgabe der Höhe des in dem Container angeordneten Werkstücks 5. Berücksichtigt man dies, kann die Größe des Werkzeugerfassungsbereichs automatisch nach Maßgabe der Höhe der Werkstücke 5 verändert werden.With respect to the process at step S14d for determining the workpiece detection area d, the size of the workpiece 5 on the with the camera 7 taken picture according to the distance from the camera 7 to the workpiece 5 be changed, ie in accordance with the height of the container arranged in the workpiece 5 , Taking this into account, the size of the tool detection area can be automatically adjusted according to the height of the workpieces 5 to be changed.

Dementsprechend kann, falls sich ein Werkstück 5 in der Nähe der Kamera 7 befindet, der Werkstückerfassungsbereich groß gewählt werden. Falls das Werkstück 5 weit von der Kamera 7 entfernt ist, kann der Werkstückerfassungsbereich klein gewählt, sodass die Größe des Bildes eines in dem Werkstückerfassungsbereich liegenden Werkstücks 5 konstant wird. Dies nachstehend im Detail erläutert.Accordingly, if a workpiece 5 near the camera 7 is located, the workpiece detection area are large. If the workpiece 5 far from the camera 7 is removed, the workpiece detection area can be made small, so that the size of the image of a workpiece located in the workpiece detection area 5 becomes constant. This will be explained in detail below.

4 wird zum Erläutern eines Verfahrens zum automatischen Verändern der Größe des Werkstückerfassungsbereichs verwendet. Nachstehend wird die Richtung der Höhe der Werkstücke 5 als Z-Achse in der Figur bestimmt. Zunächst werden die Bildgrößen SZ1 und SZ2 als Größe auf dem von der Kamera 7 aufgenommenen Bild gewählt, wenn das Werkstück 5 sich an einer Höhe Z1 und Z2 von einer Referenzposition ausgehend befindet. Die Größe auf dem Bild ist inversiv proportional zum Abstand des Werkstücks 5 zu der Kamera 7. Dementsprechend ist, falls der Abstand der Referenzposition zu der Kamera 7 (Kamerahöhe) Z0 ist, und die Abstände von der Kamera 7 zu den Werkstücken 5 an einer Hohe Z1 und Z2 A1 und A2 sind, die folgende Gleichung (I) erfüllt. SZ2/SZ1 = A1/A2 = (Z0 – Z1)/(Z0 – Z2) (I) 4 is used to explain a method of automatically changing the size of the workpiece detection area. Below is the direction of the height of the workpieces 5 determined as Z-axis in the figure. First, the image sizes SZ1 and SZ2 as the size on the camera 7 taken picture selected when the workpiece 5 is located at a height Z1 and Z2 starting from a reference position. The size on the image is inversely proportional to the distance of the workpiece 5 to the camera 7 , Accordingly, if the distance of the reference position to the camera 7 (Camera height) Z0 is, and the distances from the camera 7 to the workpieces 5 at a height Z1 and Z2 A1 and A2, the following equation (I) is satisfied. SZ2 / SZ1 = A1 / A2 = (Z0-Z1) / (Z0-Z2) (I)

Die Kamerahöhe Z0 kann mit der folgenden Gleichung (II) berechnet werden. Die Bildgröße SZ3, kann, falls die Höhe der Ladezustandveränderungsposition Z3 ist, mit der nachfolgenden Gleichung (III) berechnet werden. Z0 = (SZ2·Z2 – SZ1·Z1)/(SZ2 – SZ1) (II) SZ3 = ((Z0 – Z1)/(Z0 – Z3))·SZ1 (III) The camera height Z0 can be calculated by the following equation (II). The image size SZ3, if the height of the state of charge change position Z3, can be calculated by the following equation (III). Z0 = (SZ2 * Z2-SZ1 * Z1) / (SZ2-SZ1) (II) SZ3 = ((Z0 - Z1) / (Z0 - Z3)) · SZ1 (III)

Falls beispielsweise der Werkstückerfassungsbereich kreisförmig ist, wird der Durchmesser D1 des Werkstückerfassungsbereichs entsprechend der Bildgröße SZ1 im Voraus festgelegt. Bei Schritt S14d wird unter Verwendung von D1 der Durchmesser D3 des Werkstückerfassungsbereichs korrespondierend zu der Bildgröße SZ3 mit der folgenden Gleichung (IV) berechnet. D3 = (SZ3/SZ1)·D1 = ((Z0 – Z1)/(Z0 – Z3))·D1 (IV) For example, if the workpiece detection area is circular, the diameter D1 of the workpiece detection area corresponding to the image size SZ1 is set in advance. At step S14d, using D1, the diameter D3 of the workpiece detection area corresponding to the image size SZ3 is calculated by the following equation (IV). D3 = (SZ3 / SZ1) × D1 = ((Z0-Z1) / (Z0-Z3)) × D1 (IV)

Nachstehend wird ein Arbeitsablauf der Werkstückentnahmevorrichtung 1 gemäß der Ausführungsform der vorliegenden Erfindung im Detail beschrieben. Es wird angenommen, dass beispielsweise eine Vielzahl von Werkstücken 5 in einem Stapel in einem Container 6, wie in 5a gezeigt, angeordnet sind. In diesem Fall wird zunächst der Werkstückerfassungsbereich derart bestimmt, dass er den gesamten Container umgibt. Anschließend werden die Abschnitte 5 in dem gesamten Bereich des Containers (Schritt S2) erfasst. Ein Werkstück 5a, das sich an einer höheren Position als die umgebenden Werkstücke 5 befindet und nicht durch andere Werkstücke 5 verdeckt ist, wird als durch den Roboter 2 zu entnehmendes Werkstücks 5 ausgewählt (Schritt S6).Hereinafter, an operation of the workpiece removal apparatus 1 according to the embodiment of the present invention described in detail. It is believed that, for example, a variety of workpieces 5 in a pile in a container 6 , as in 5a shown are arranged. In this case, first, the workpiece detection area is determined so as to surround the entire container. Subsequently, the sections 5 in the entire area of the container (step S2). A workpiece 5a that is at a higher position than the surrounding workpieces 5 located and not by other workpieces 5 is hidden, as by the robot 2 to be removed workpiece 5 selected (step S6).

Beim Entnehmen des ausgewählten Werkstücks 5a wird, falls beispielsweise die Roboterhand mit dem Werkstück 5a vor dem Greifen des Werkstücks 5a durch die Roboterhand in Kontakt kommt, die Position des Werkstücks 5a verlagert, wie in 5b gezeigt. In diesem Fall wird eine Erschütterung durch den Erschütterungssensor 4 erfasst und die Position des ausgewählten Werkstücks 5a wird als Ladezustandveränderungsposition (Schritt S11) gespeichert. Darüber hinaus wird erneut ein Werkstück 5 ausgewählt (Schritt S6). Zu dieser Zeit wird, wie in 1 gezeigt, ein sich von dem vorherigen Werkstück unterscheidendes Werkstück 5b ausgewählt und dieses Werkstück 5b durch den Roboter 2 entnommen. Anschließend wird die Position des Werkstücks 5b als Ladezustandveränderungsposition gespeichert (Schritt S13).When removing the selected workpiece 5a if, for example, the robot hand with the workpiece 5a before gripping the workpiece 5a by the robot hand comes into contact, the position of the workpiece 5a shifted, as in 5b shown. In this case, a vibration is caused by the vibration sensor 4 recorded and the position of the selected workpiece 5a is stored as a state of charge change position (step S11). In addition, a workpiece becomes again 5 selected (step S6). At that time, as in 1 shown a different from the previous workpiece workpiece 5b selected and this workpiece 5b through the robot 2 taken. Subsequently, the position of the workpiece 5b stored as a state of charge change position (step S13).

In diesem Fall wird, wie in 5b gezeigt, der Werkstückerfassungsbereich 12a in dem Bereich festgelegt, der die zu der Zeit der Erschütterungserfassung gespeicherte Position des Werkstücks 5a umfasst. Der Werkstückerfassungsbereich 12b wird in dem Bereich festgelegt, der die zu der Zeit der Entfernung des Werkstücks durch den Roboter 2 (Schritt S14d) gespeicherte Position umfasst. Anschließend wird nachdem der gesamte Bereich des Containers mit der Kamera 7 aufgenommen wird, das Kamerabild zum Erfassen der Werkstücke 5 in jedem der Werkstückerfassungsbereiche 12a und 12b (Schritt S2) verwendet. Da der Werkstückerfassungsbereich für die Werkstücke 5 begrenzt ist, kann die zum Erfassen der Werkstücke benötigte Zeit verkürzt werden. Dadurch wird ein effizienter Werkstückentnahmevorgang möglich.In this case, as in 5b shown, the workpiece detection area 12a set in the area at the time of the Vibration detection stored position of the workpiece 5a includes. The workpiece detection area 12b is set in the area at the time of the removal of the workpiece by the robot 2 (Step S14d) stored position. Subsequently, after the entire area of the container with the camera 7 is taken, the camera image for detecting the workpieces 5 in each of the workpiece detection areas 12a and 12b (Step S2). As the workpiece detection area for the workpieces 5 is limited, the time required for detecting the workpieces can be shortened. This makes an efficient workpiece removal process possible.

Falls zu der Zeit der Werkstückentnahme keine Erschütterung durch den Erschütterungssensor 4 erfasst und die Werkstückgreifoperation durch den Roboter 2 nicht erfasst wird, existiert keine Ladezustandveränderungsposition. Dementsprechend wird der gesamte Container als Werkstückerfassungsbereich festgelegt (Schritt S14e). Falls kein Werkstück 5 in dem in Schritt S14d bestimmten Werkstückerfassungsbereich erfasst wird (zum Beispiel wenn nur das Rücknahmefenster 12b in 5b bestimmt wurde), wird der gesamte Container als Werkstückerfassungsbereich (Schritt S5) festgelegt. In diesen Fällen wird das Werkstück 5 wiederum aus dem gesamten Container erfasst.If there is no vibration from the vibration sensor at the time of workpiece removal 4 recorded and the workpiece gripping operation by the robot 2 is not detected, there is no state of charge change position. Accordingly, the entire container is set as a workpiece detection area (step S14e). If no workpiece 5 is detected in the workpiece detection area determined in step S14d (for example, if only the return window 12b in 5b has been determined), the entire container is set as a workpiece detection area (step S5). In these cases, the workpiece becomes 5 again captured from the entire container.

In Übereinstimmung mit der vorliegenden Erfindung können die folgenden Effekte erzielt werden.

  • (1) Durch das Verfahren in dem Werkstückladezustandfestlegungsabschnitt 8c (Schritt S10 und S12) wird festgestellt, ob sich der Ladezustand der Werkstücke 5 verändert hat. Falls eine Veränderung des Ladezustands 5 festgestellt wird, wird durch die Verarbeitung in dem Werkstückerfassungsbereichs-Bestimmungsabschnitt 8e (Schritt S14d) der Werkstückerfassungsbereich in einem Umgebungsbereich der Veränderungsposition des Ladezustands bestimmt. Durch das Verfahren in dem Werkstückerfassungsabschnitt 8a (Schritt S2) wird ein Werkstück 5 in dem Werkstückerfassungsbereich erfasst. Dementsprechend wird ein Werkstück 5 in einem Abschnitt des Werkstückladebereichs erfasst, sodass der Werkstückerfassungsbereich enger wird. Die zur Werkstückerfassung benötigte Zeit kann somit verkürzt und der Werkstückentnahmevorgang kann effizient ausgeführt werden.
  • (2) Falls eine erfolgreiche Greifoperation eines Werkstücks 5 durch den Roboter 2 festgestellt wurde, wird eine Veränderung des Ladezustands der Werkstücke 5 festgestellt, sodass die Veränderung des Ladezustands nach der Entfernung des Werkstücks 5 korrekt bestimmt werden kann. In diesem Fall wird der Werkstückerfassungsbereich als ein Umfangsbereich der Position des Werkstücks 5 bestimmt, das durch den Werkstückauswahlabschnitt 8b ausgewählt wurde, sodass die Werkstückerfassungsbearbeitung effektiv an der Position ausgeführt werden kann, an der die Veränderung im Ladezustand am wahrscheinlichsten ist. Alternativ kann in dem Fall, in dem der Werkstückerfassungsbereich als ein Umfangsbereich der Position festgelegt wird, in dem das Werkstück 5 durch den Roboter 2 gegriffen wurde, die Werkstückerfassungsbearbeitung sogar dann effektiv ausgeführt werden, wenn die tatsächliche Position des Werkstücks 5 von der Position des ausgewählten Werkstücks 5 abweicht.
  • (3) Wenn eine Erschütterung des Roboters festgestellt wird, bevor der Roboter 2 das Werkstück 5 greift, kann der Ladezustand des Werkstücks 5 als verändert wahrgenommen werden und dementsprechend kann die Veränderung des Ladezustands aufgrund der Erschütterung bestimmt werden. Da in diesem Fall der Werkstückerfassungsbereich als Umfangsbereich um die Position des durch den Werkstückauswahlabschnitt 8b ausgewählten Werkstücks 5 bestimmt wird, kann die Werkstückerfassung effektiv an der Position ausgeführt werden, an der eine Veränderung des Ladezustands am wahrscheinlichsten ist. Alternativ kann in dem Fall, in dem der Werkstückerfassungsbereich als ein Umfangsbereich der Position bestimmt wird, an der die Erschütterung auf den Roboter 2 ausgeübt wurde, die Werkstückerfassung sogar dann effektiv ausgeführt werden, wenn die tatsächliche Position, an der der Roboter 2 erschüttert wurde, von der Position des ausgewählten Werkstücks 5 abweicht.
  • (4) Falls eine Vielzahl von Lagezustandveränderungspositionen existiert, zum Beispiel nachdem eine auf den Roboter 2 ausgeübte Erschütterung erfasst wurde, und ein Werkstück 5 an einer anderen Position als der der Erschütterungserfassungsposition entfernt wurde (Zum Beispiel wie in 5 gezeigt), werden die Werkstückerfassungsbereiche 12 und 12b entsprechend den Lagezustandveränderungspositionen bestimmt. Dementsprechend kann ein Werkstück 5 in dem Bereich, in dem sich der Lagezustand verändert hat, korrekt erfasst werden und die zur Werkstückerfassung benötigte Zeit verkürzt werden.
  • (5) Falls die Größe des Werkzeugerfassungsbereichs automatisch nach Maßgabe einer Distanz zwischen dem ausgewählten Werkstück 5 und der Kamera 7 festgelegt wird, kann eine relative Größe des Werkstückerfassungsbereich zu den Werkstücken 5 konstant werden, unabhängig von der tatsächlichen Höhe der Werkstücke in dem Container. Dementsprechend kann ein Werkstück 5 effizient erfasst werden.
In accordance with the present invention, the following effects can be obtained.
  • (1) By the method in the workpiece loading state setting section 8c (Step S10 and S12), it is determined whether the state of charge of the workpieces 5 has changed. If a change in the state of charge 5 is determined by the processing in the workpiece detection area determining section 8th (Step S14d), the workpiece detection area is determined in a surrounding area of the state of change of the state of charge. By the method in the workpiece detection section 8a (Step S2) becomes a workpiece 5 detected in the workpiece detection area. Accordingly, a workpiece 5 detected in a portion of the workpiece loading area, so that the workpiece detection area becomes narrower. The time required for workpiece detection can thus be shortened and the workpiece removal process can be carried out efficiently.
  • (2) If a successful gripping operation of a workpiece 5 through the robot 2 has been determined, a change in the state of charge of the workpieces 5 determined, so that the change in the state of charge after the removal of the workpiece 5 can be determined correctly. In this case, the workpiece detection area becomes a peripheral area of the position of the workpiece 5 determined by the workpiece selection section 8b has been selected so that the workpiece detection processing can be performed effectively at the position where the change in the state of charge is most likely. Alternatively, in the case where the workpiece detection area is set as a peripheral area of the position in which the workpiece 5 through the robot 2 has been gripped, the work-piece detection processing is effectively performed even if the actual position of the workpiece 5 from the position of the selected workpiece 5 differs.
  • (3) When a shock of the robot is detected before the robot 2 the workpiece 5 attacks, the loading state of the workpiece 5 are perceived as being changed and, accordingly, the change in the state of charge due to the shock can be determined. In this case, since the workpiece detection area is a peripheral area around the position of the workpiece selection section 8b selected workpiece 5 is determined, the workpiece detection can be performed effectively at the position where a change in the state of charge is most likely. Alternatively, in the case where the workpiece detection area is determined as a peripheral area of the position at which the vibration on the robot 2 was exercised, even if the actual position at which the robot 2 was shaken from the position of the selected workpiece 5 differs.
  • (4) If a plurality of posture change positions exist, for example, one on the robot 2 applied vibration was detected, and a workpiece 5 has been removed at a position other than the vibration detection position (For example, as in 5 shown), the workpiece detection areas 12 and 12b determined according to the attitude state change positions. Accordingly, a workpiece 5 be detected correctly in the area in which the state of the situation has changed and the time required for workpiece detection can be shortened.
  • (5) If the size of the tool detection area automatically becomes a distance between the selected workpiece 5 and the camera 7 is set, a relative size of the workpiece detection area to the workpieces 5 Be constant, regardless of the actual height of the workpieces in the container. Accordingly, a workpiece 5 be recorded efficiently.

Obwohl in der beschriebenen Ausführungsform der Werkstückerfassungsabschnitt 8a, der Werkstückauswahlabschnitt 8b, der Werkstücklagezustandfeststellungsabschnitt 8c (Lagezustandfeststellungsabsschnitt), der Werkstücklagezustandveränderungsposition-Speicherabschnitt 8d, der Werkstückerfassungsbereich-Bestimmungsabschnitt 8e (ein Bereichbestimmungsabschnitt), der Kamerasteuerungsabschnitt 8f, der Speicher 8g und der visuelle-Sensor-Steuerungsabschnitt 8h von der Robotersteuerung 8 umfasst werden, ist der Aufbau der Robotersteuerung 8 nicht auf diese Konstruktion beschränkt. Beispielsweise kann der Werkstückerfassungsabschnitt 8a, der Werkstückerfassungsbereich-Bestimmungsabschnitt 8e, der Kamerasteuerungsabschnitt 8f, und der visuelle-Sensor-Steuerungsabschnitt 8h außerhalb der Robotersteuerung 8 vorgesehen werden und Kommunikationsmittel können verwendet werden, um die Ergebnisse der Bildverarbeitung an die Robotersteuerung zu übertragen. Der Werkstückladezustandänderungspositions-Speicherabschnitt 8d kann weggelassen werden und die Änderungsposition kann in dem Speicher 8g gespeichert werden.Although in the described embodiment, the workpiece detection portion 8a , the workpiece selection section 8b , the workpiece attitude state determination section 8c ( Positional state detection section), the workpiece attitude state change position storage section 8d , the workpiece detection area determining section 8th (an area determination section), the camera control section 8f , the memory 8g and the visual sensor control section 8h from the robot controller 8th is the structure of the robot controller 8th not limited to this construction. For example, the workpiece detection section 8a , the workpiece detection area determining section 8th , the camera control section 8f , and the visual sensor control section 8h outside the robot controller 8th and communication means may be used to transmit the results of the image processing to the robot controller. The workpiece loading state changing position storage section 8d may be omitted and the change position may be in memory 8g get saved.

Obwohl in der voranstehend beschriebenen Ausführungsform ein kreisförmiger oder rechteckiger Werkstückerfassungsbereich in einem Abschnitt des Werkstückladebereichs bestimmt wird, wenn eine Veränderung der Lage zu den Werkstücken festgestellt wird, kann die Form des Werkstückerfassungsbereich frei gewählt werden. Obwohl durch die Verarbeitung in der Robotersteuerung 8 eine erfolgreiche oder fehlerhafte Greifoperation eines Werkstücks 5 (Schritt S12) und das Vorliegen oder das Fehlen einer auf den Roboter 2 ausgeübten Erschütterung (Schritt S10) festgestellt werden kann, ist die Konstruktion des Werkstücklagezustandfeststellungsabschnitts als Greiffeststellungsabschnitt und die Konstruktion des Werkstücklagezustandfeststellungsabschnitts als Erschütterungsfeststellungsabschnitts nicht auf die voranstehend beschriebene Konstruktion beschränkt. Dementsprechend ist die vorliegende Erfindung nicht auf die in die Ausführungsform beschriebene Werkstückentnahmevorrichtung 1 beschränkt, solange alle Merkmale und Funktionen der vorliegenden Erfindung realisiert werden können.Although in the above-described embodiment, a circular or rectangular workpiece detection area is determined in a portion of the workpiece loading area when a change in attitude to the workpieces is detected, the shape of the workpiece detection area can be freely selected. Although through the processing in the robot controller 8th a successful or erroneous gripping operation of a workpiece 5 (Step S12) and the presence or absence of one on the robot 2 is applied, the construction of the workpiece attitude condition detecting portion as a grip-detecting portion and the construction of the workpiece attitude condition-determining portion as the vibration detection portion are not limited to the above-described construction. Accordingly, the present invention is not limited to the workpiece unloading apparatus described in the embodiment 1 limited as long as all the features and functions of the present invention can be realized.

Zusammenfassend kann das Werkstückentnahmeverfahren gemäß der vorliegenden Erfindung dadurch gekennzeichnet sein, das das Verfahren umfasst einen Aufnahmeschritt zum Aufnehmen eines Werkstückladebereichs mit einer Kamera 7, der eine Vielzahl von in einem Stapel angeordneten Werkstücken 5 (Schritt S1) aufweist; einen Werkzeugerfassungsschritt zum Erfassen der Werkstücke 5 basierend auf denm mit der Kamera 7 aufgenommenen Kamerabild (Schritt S2), einen Werkstückauswahlschritt zum Auswählen eines zu entnehmenden Werkstücks 5 basierend auf dem Erfassungsergebnis in dem Werkstückerfassungsschritt (Schritt S6); einen Werkstückentnahmeschritt zum Entnehmen des in den Werkstückauswahlschritt ausgewählten Werkstücks 5 mit einem Roboter 2 (Schritt S9); einen Ladezustandfestellungsschritt zum Feststellen, ob sich ein Lagezustand der Werkstücke 5 aufgrund einer Operation des Roboters (Schritt S10, Schritt S12) verändert hat; einen Bereichbestimmungsschritt zum Bestimmen eines Werkstückerfassungsbereich zum Erfassen der Werkstücke 5 in dem Werkstückerfassungsschritt (Schritt S14d); wobei, in dem Bereichbestimmungsschritt, falls in den Lagezustandfeststellungsschritt festgestellt wurde, dass sich der Lagezustand der Werkstücke 5 verändert hat, der Werkstückerfassungsbereich als ein Umfangsbereich der Veränderungsposition des Lagezustands bestimmt wird, d. h. als eine Position des Werkstückladebereichs. Solange diese Merkmale realisiert sind, kann die Konstruktion auf verschiedene Weisen modifiziert werden.In summary, the workpiece removal method according to the present invention may be characterized in that the method comprises a picking up step for picking up a workpiece loading area with a camera 7 containing a plurality of workpieces arranged in a stack 5 (Step S1); a tool detection step for detecting the workpieces 5 based on denm with the camera 7 taken camera image (step S2), a workpiece selection step for selecting a workpiece to be removed 5 based on the detection result in the workpiece detection step (step S6); a workpiece removal step for removing the workpiece selected in the workpiece selection step 5 with a robot 2 (Step S9); a state of charge determining step for determining whether a positional state of the workpieces 5 due to an operation of the robot (step S10, step S12) has changed; a range determining step for determining a work detection area for detecting the workpieces 5 in the workpiece detection step (step S14d); wherein, in the area determining step, if it has been found in the positional state detecting step that the positional state of the workpieces is determined 5 has changed, the workpiece detection area is determined as a peripheral area of the change position of the posture state, that is, as a position of the workpiece loading area. As long as these features are realized, the construction can be modified in various ways.

Gemäß der vorliegenden Erfindung kann der Werkstückerfassungsbereich als ein Umfangsbereich der Veränderungsposition bestimmt werden, in der sich der Lagezustand der Werkstücke verändert hat. Dementsprechend kann verglichen zu einem Werkstückerfassungsbereich, der über den gesamten Werkstückladebereich bestimmt wird, der Werkstückerfassungsbereich kleiner gewählt werden und die Verarbeitungszeit zur Werkstückerfassung kann signifikant verkürzt werden. Dies führt dazu, dass die Wartezeit des Roboters zum Aufnehmen und Erfassen der Werkstücke reduziert wird und die Werkstückentladeoperation effektiv ausgeführt werden kann.According to the present invention, the workpiece detection area can be determined as a peripheral area of the changing position in which the attitude state of the workpieces has changed. Accordingly, as compared with a workpiece detection area that is determined over the entire workpiece loading area, the workpiece detection area can be set smaller and the processing time for workpiece detection can be significantly shortened. As a result, the waiting time of the robot for picking up and grasping the workpieces is reduced and the work unloading operation can be performed effectively.

Während die vorliegende Erfindung mit Bezug auf bevorzugte Ausführungsformen beschrieben wurde, ist es für einen Fachmann ersichtlich, dass verschiedene Veränderungen und Modifikationen vorgenommen werden können, ohne sich vom Schutzbereich der beigefügten Ansprüche zu entfernen.While the present invention has been described with reference to preferred embodiments, it will be apparent to those skilled in the art that various changes and modifications may be made without departing from the scope of the appended claims.

ZITATE ENTHALTEN IN DER BESCHREIBUNG QUOTES INCLUDE IN THE DESCRIPTION

Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.This list of the documents listed by the applicant has been generated automatically and is included solely for the better information of the reader. The list is not part of the German patent or utility model application. The DPMA assumes no liability for any errors or omissions.

Zitierte PatentliteraturCited patent literature

  • JP 4199264 B [0002, 0003, 0003] JP 4199264 B [0002, 0003, 0003]

Claims (9)

Werkstückentnahmevorrichtung aufweisend: eine Kamera (7) zum Abbilden eines Werkstückladebereichs, der eine Vielzahl von in einem Stapel angeordneten Werkstücken (5) aufweist; einen Werkzeugerfassungsabschnitt (8a) zum Erfassen eines Werkstücks basierend auf dem von der Kamera aufgenommenen Kamerabild; einen Werkstückauswahlabschnitt (8b) zum Auswählen eines zum Entnehmen vorgesehenen Werkstücks basierend auf dem Erfassungsergebnis des Werkstückerfassungsabschnitts; einen Roboter (2) zum Entnehmen des durch den Werkstückauswahlabschnitt ausgewählten Werkstücks; einen Ladezustandfeststellungsabschnitt (8c) zum Feststellen, ob sich ein Ladezustand der Werkstücke in dem Werkstückladebereich aufgrund eines Vorgangs des Roboters verändert hat; und einen Bereichfestlegeabschnitt (8e) zum Festlegen eines Werkstückerfassungsbereichs, in dem der Werkstückerfassungsabschnitt ein Werkstück erfasst, wobei, falls der Lagezustandfeststellungsabschnitt eine Veränderung des Ladezustands der Werkstücke ermittelt, der Bereichfestlegeabschnitt den Werkstückerfassungsbereich in einem Abschnitt des Werkstückladebereichs festlegt, der Abschnitt ein Umfangsbereich einer veränderten Position des Ladezustands ist.Workpiece removal device comprising: a camera ( 7 ) for imaging a workpiece loading area comprising a plurality of workpieces ( 5 ) having; a tool detection section ( 8a ) for detecting a workpiece based on the camera image taken by the camera; a workpiece selection section ( 8b ) for selecting a workpiece to be removed based on the detection result of the workpiece detection portion; a robot ( 2 ) for removing the workpiece selected by the workpiece selecting section; a state of charge detection section (FIG. 8c ) for determining whether a loading state of the workpieces in the workpiece loading area has changed due to an operation of the robot; and a region setting section ( 8th ) for setting a workpiece detection area in which the workpiece detection section detects a workpiece, wherein if the position state detection section detects a change in the loading state of the workpieces, the area setting section sets the workpiece detection area in a portion of the workpiece loading area, the section is a peripheral area of a changed position of the state of charge. Vorrichtung nach Anspruch 1, ferner aufweisend einen Greiffeststellungsabschnitt (8c) zum Feststellen einer erfolgreichen oder fehlerhaften Greifoperation, in der der Roboter das durch den Werkstückauswahlabschnitt ausgewählte Werkstück greift, wobei, falls der Greiffeststellungsabschnitt eine erfolgreiche Greifoperation durch den Roboter feststellt, der Ladezustandfeststellungsabschnitt eine Veränderung des Ladezustands der der Werkstücke feststellt.Apparatus according to claim 1, further comprising a grip check section (10). 8c ) for detecting a successful or erroneous gripping operation in which the robot grips the workpiece selected by the workpiece selecting section, wherein if the gripping detecting section detects a successful gripping operation by the robot, the state of charge detecting section detects a change in the state of charge of the workpieces. Vorrichtung nach Anspruch 1, ferner aufweisend einen Erschütterungsfeststellungsabschnitt (8c) zum Feststellen des Vorliegens oder der Abwesenheit einer auf den Roboter ausgeübten Erschütterung, bevor der Roboter das durch den Werkstückauswahlabschnitt ausgewählte Werkstück greift, wobei, falls der Erschütterungsfeststellungsabschnitt eine Erschütterung feststellt, der Ladezustandfeststellungsabschnitt eine Veränderung des Ladezustands der der Werkstücke feststellt.Apparatus according to claim 1, further comprising a vibration detecting section (10). 8c ) for detecting the presence or absence of a vibration applied to the robot before the robot grasps the workpiece selected by the workpiece selecting section, wherein if the vibration detecting section detects a shock, the state of charge detecting section detects a change in the state of charge of the workpieces. Vorrichtung nach Anspruch 2, wobei die veränderte Position des Ladezustands eine Position eines durch den Werkstückauswahlabschnitt ausgewählten Werkstücks oder eine Position ist, in der ein Werkstück von dem Roboter gegriffen wird.The apparatus of claim 2, wherein the changed position of the state of charge is a position of a workpiece selected by the workpiece selecting section or a position in which a workpiece is gripped by the robot. Vorrichtung nach Anspruch 3, wobei die veränderte Position des Ladezustands eine Position des durch den Werkstückauswahlabschnitt ausgewählten Werkstücks oder eine Position ist, in der eine Erschütterung auf dem Roboter ausgeübt wurde.The apparatus according to claim 3, wherein the changed position of the state of charge is a position of the workpiece selected by the workpiece selecting section or a position where vibration has been applied to the robot. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei, falls eine Vielzahl von veränderten Positionen des Ladezustands vorliegt, der Bereichfestlegungsabschnitt die Werkstückerfassungsbereiche nach Maßgabe der entsprechend veränderten Positionen des Ladezustands festlegt.An apparatus according to any one of claims 1 to 5, wherein if there are a plurality of changed positions of the state of charge, the area setting section sets the workpiece detection areas in accordance with the respective changed positions of the state of charge. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei der Bereichfestlegungsabschnitt die Größe des Werkstückerfassungsbereichs nach Maßgabe eines Abstands zwischen dem von dem Werkstückauswahlabschnitt ausgewählten Werkstücks und der Kamera verändert.An apparatus according to any one of claims 1 to 5, wherein the area setting section changes the size of the workpiece detection area in accordance with a distance between the workpiece selected by the workpiece selecting section and the camera. Vorrichtung nach einem der Ansprüche 1 bis 5, wobei, falls eine Vielzahl von veränderten Positionen des Ladezustands vorliegt, der Bereichfestlegungsabschnitt die Werkstückerfassungsbereiche nach Maßgabe der entsprechend veränderten Positionen des Ladezustands festlegt, und wobei der Bereichfestlegungsabschnitt eine Größe des Werkstückerfassungsbereichs nach Maßgabe eines Abstands zwischen dem von dem Werkstückauswahlabschnitt ausgewählten Werkstücks und der Kamera festlegt.An apparatus according to any one of claims 1 to 5, wherein, if there are a plurality of changed positions of the state of charge, the area setting section sets the workpiece detection areas in accordance with the respective changed positions of the state of charge, and wherein the area setting section sets a size of the workpiece detection area in accordance with a distance between determines the workpiece selection section of the selected workpiece and the camera. Werkstückentnahmeverfahren aufweisend: einen Aufnahmeschritt zum Aufnehmen eines Werkstückladebereichs mit einer Kamera (7), der eine Vielzahl von in einem Stapel gelagerten Werkstücken (5) aufweist; einen Werkstückerfassungsabschnitt zum Erfassen eines Werkstücks basierend auf dem von der Kamera aufgenommenen Kamerabild; einen Werkstückauswahlabschnitt zum Auswählen eines zum Entnehmen bestimmten Werkstücks basierend auf dem Erfassungsergebnis des Werkstückerfassungsschritts; einen Werkstückentnahmeschritt zum Entnehmen des durch den Werkstückauswahlschritts ausgewählten Werkstücks mit einem Roboter (2); einen Lagezustandfeststellungsschritt zum Feststellen, ob sich ein Ladezustand der Werkstücke in dem Werkstückladebereich aufgrund einer Operation des Roboters verändert hat; einen Bereichfestlegungsschritt zum Festlegen eines Werkstückerfassungsbereichs zum Erfassen des Werkstücks in dem Werkstückerfassungschritt, wobei in dem Bereichfestlegungsschritt, falls in dem Lagezustandfeststellungsschritt eine Veränderung Ladezustand der Werkstücke festgestellt wird, der Werkstückerfassungsbereich in einem Abschnitt des Werkstückladebereichs festgelegt wird, der ein Umfangsabschnitt einer veränderten Position des Ladezustands ist.Workpiece removal method comprising: a picking up step for picking up a workload loading area with a camera ( 7 ) containing a plurality of workpieces stored in a stack ( 5 ) having; a workpiece detecting section for detecting a workpiece based on the camera image taken by the camera; a workpiece selecting section for selecting a workpiece to be removed based on the detection result of the workpiece detecting step; a workpiece removing step for taking out the workpiece selected by the workpiece selecting step with a robot ( 2 ); a posture determining step for determining whether a loading state of the workpieces in the work loading area has changed due to an operation of the robot; an area setting step for setting a workpiece detecting area for detecting the workpiece in the workpiece detecting step, wherein in the area setting step, if a change in loading state of the workpieces is detected in the positional state detecting step, the workpiece detecting area is set in a portion of the workpiece loading area Peripheral portion of a changed position of the state of charge is.
DE102011108169A 2010-07-27 2011-07-20 Workpiece removal device and method Active DE102011108169B4 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-167987 2010-07-27
JP2010167987A JP4938115B2 (en) 2010-07-27 2010-07-27 Work take-out device and work take-out method

Publications (2)

Publication Number Publication Date
DE102011108169A1 true DE102011108169A1 (en) 2012-02-02
DE102011108169B4 DE102011108169B4 (en) 2013-07-11

Family

ID=45471287

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011108169A Active DE102011108169B4 (en) 2010-07-27 2011-07-20 Workpiece removal device and method

Country Status (4)

Country Link
US (1) US8380342B2 (en)
JP (1) JP4938115B2 (en)
CN (1) CN102343590B (en)
DE (1) DE102011108169B4 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012203134A1 (en) 2012-02-29 2013-08-29 Deutsches Zentrum für Luft- und Raumfahrt e.V. Method for receiving contour portion by manipulator, involves determining orientation of the contour portions based on CAD data of the contour portions to receive the contour portions
CN104227723A (en) * 2013-06-07 2014-12-24 株式会社安川电机 Workpiece detector, robot system, method for producing to-be-processed material, method for detecting workpiece
DE102013012068B4 (en) * 2012-07-26 2015-11-12 Fanuc Corporation Apparatus and method for removing loosely stored objects by a robot

Families Citing this family (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI20105732A0 (en) * 2010-06-24 2010-06-24 Zenrobotics Oy Procedure for selecting physical objects in a robotic system
JP5769411B2 (en) * 2010-12-15 2015-08-26 キヤノン株式会社 Information processing apparatus, information processing method, and program
KR101882490B1 (en) * 2011-11-29 2018-07-30 삼성전자주식회사 Robot and control method for the same
JP5266377B2 (en) * 2011-12-19 2013-08-21 ファナック株式会社 Taking-out device having a function of correcting the posture of an article
JP5383836B2 (en) 2012-02-03 2014-01-08 ファナック株式会社 An image processing apparatus having a function of automatically adjusting a search window
JP5977544B2 (en) * 2012-03-09 2016-08-24 キヤノン株式会社 Information processing apparatus and information processing method
JP5975685B2 (en) * 2012-03-09 2016-08-23 キヤノン株式会社 Information processing apparatus and information processing method
JP5469216B2 (en) * 2012-07-31 2014-04-16 ファナック株式会社 A device for picking up bulk items by robot
JP5614553B2 (en) * 2012-09-14 2014-10-29 株式会社安川電機 Robot equipment
WO2014083695A1 (en) * 2012-11-30 2014-06-05 株式会社安川電機 Robotic system
JP5835254B2 (en) * 2013-03-15 2015-12-24 株式会社安川電機 Robot system and control method of robot system
JP5754454B2 (en) 2013-03-18 2015-07-29 株式会社安川電機 Robot picking system and workpiece manufacturing method
JP5929854B2 (en) * 2013-07-31 2016-06-08 株式会社安川電機 Robot system and method of manufacturing workpiece
JP5877857B2 (en) * 2014-03-10 2016-03-08 ファナック株式会社 Robot simulation device for simulating workpiece removal process
JP6486114B2 (en) 2015-01-16 2019-03-20 株式会社東芝 Handling equipment
JP6019149B2 (en) 2015-02-19 2016-11-02 株式会社アマダホールディングス Bending robot and workpiece detection method
FR3034078B1 (en) * 2015-03-27 2017-03-24 Airbus Helicopters METHOD AND DEVICE FOR SIGNALING TO THE GROUND AN AIRCRAFT IN FLIGHT AND AN AIRCRAFT PROVIDED WITH SAID DEVICE
JP2017042859A (en) * 2015-08-25 2017-03-02 キヤノン株式会社 Picking system, and processing device and method therefor and program
JP6333871B2 (en) * 2016-02-25 2018-05-30 ファナック株式会社 Image processing apparatus for displaying an object detected from an input image
JP6599827B2 (en) * 2016-08-29 2019-10-30 ファナック株式会社 Work removal system
JP2018034242A (en) * 2016-08-31 2018-03-08 セイコーエプソン株式会社 Robot control device, robot, and robot system
JP6450727B2 (en) * 2016-10-28 2019-01-09 ファナック株式会社 Apparatus, method, program, and recording medium for simulating article alignment work performed by robot
JP6453922B2 (en) * 2017-02-06 2019-01-16 ファナック株式会社 Work picking apparatus and work picking method for improving work picking operation
EP3366433B1 (en) * 2017-02-09 2022-03-09 Canon Kabushiki Kaisha Method of controlling robot, method of teaching robot, and robot system
DE112017007311B4 (en) * 2017-03-24 2021-09-16 Mitsubishi Electric Corporation Device and method for generating a robot program
JP2018176334A (en) * 2017-04-10 2018-11-15 キヤノン株式会社 Information processing device, measurement device, system, interference determination method and article manufacturing method
JP6526100B2 (en) * 2017-04-28 2019-06-05 ファナック株式会社 Material pick-up system
JP6487495B2 (en) * 2017-05-19 2019-03-20 ファナック株式会社 Work removal system
US10933533B2 (en) * 2017-06-23 2021-03-02 Kindred Systems Inc. Systems, devices, articles, and methods for stow verification
JP6687657B2 (en) 2018-03-20 2020-04-28 ファナック株式会社 Article taking-out apparatus using sensor and robot, and article taking-out method
CN108274469B (en) * 2018-04-23 2020-11-03 东北大学 Detection method of vacuum manipulator anti-collision detection system based on multi-dimensional visual sensor
JP6725587B2 (en) * 2018-05-18 2020-07-22 ファナック株式会社 Robot system for taking out workpieces stacked in bulk and control method for robot system
JP6823008B2 (en) * 2018-05-18 2021-01-27 ファナック株式会社 Robot system for taking out workpieces stacked separately and control method for robot system
JP7237496B2 (en) * 2018-09-10 2023-03-13 株式会社東芝 Picking system, information processing device and information processing program
CN109731793A (en) * 2018-12-17 2019-05-10 上海航天电子有限公司 A kind of small lot chip bulk cargo device intelligent sorting equipment
JP7120153B2 (en) * 2019-05-21 2022-08-17 トヨタ自動車株式会社 Work identification method
WO2023223503A1 (en) * 2022-05-19 2023-11-23 ファナック株式会社 Control device and detection system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4199264B2 (en) 2006-05-29 2008-12-17 ファナック株式会社 Work picking apparatus and method

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4876728A (en) * 1985-06-04 1989-10-24 Adept Technology, Inc. Vision system for distinguishing touching parts
JPH01134573A (en) * 1987-11-19 1989-05-26 Kawasaki Heavy Ind Ltd Image processing method
JPH04199264A (en) 1990-11-26 1992-07-20 Hitachi Ltd Text editor
JP2974111B2 (en) * 1993-12-27 1999-11-08 株式会社ダイフク Article transfer method
US5987591A (en) * 1995-12-27 1999-11-16 Fanuc Limited Multiple-sensor robot system for obtaining two-dimensional image and three-dimensional position information
JP3955132B2 (en) * 1997-07-14 2007-08-08 三菱鉛筆株式会社 Ballpoint pen refill
JP3768174B2 (en) * 2002-07-24 2006-04-19 ファナック株式会社 Work take-out device
EP1543471B1 (en) * 2002-09-23 2006-05-03 Hermann Dr.-Ing. Tropf Detection and gripping of objects
JP4238256B2 (en) * 2006-06-06 2009-03-18 ファナック株式会社 Robot simulation device
JP4226623B2 (en) * 2006-09-29 2009-02-18 ファナック株式会社 Work picking device
JP4565023B2 (en) * 2008-07-04 2010-10-20 ファナック株式会社 Article take-out device
JP5201411B2 (en) * 2008-11-21 2013-06-05 株式会社Ihi Bulk picking device and control method thereof

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4199264B2 (en) 2006-05-29 2008-12-17 ファナック株式会社 Work picking apparatus and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012203134A1 (en) 2012-02-29 2013-08-29 Deutsches Zentrum für Luft- und Raumfahrt e.V. Method for receiving contour portion by manipulator, involves determining orientation of the contour portions based on CAD data of the contour portions to receive the contour portions
DE102013012068B4 (en) * 2012-07-26 2015-11-12 Fanuc Corporation Apparatus and method for removing loosely stored objects by a robot
CN104227723A (en) * 2013-06-07 2014-12-24 株式会社安川电机 Workpiece detector, robot system, method for producing to-be-processed material, method for detecting workpiece
CN104227723B (en) * 2013-06-07 2016-04-06 株式会社安川电机 The manufacture method of Workpiece detecting device, robot system, machined object and workpiece inspection method

Also Published As

Publication number Publication date
JP4938115B2 (en) 2012-05-23
DE102011108169B4 (en) 2013-07-11
JP2012024903A (en) 2012-02-09
US8380342B2 (en) 2013-02-19
CN102343590B (en) 2014-05-07
CN102343590A (en) 2012-02-08
US20120029686A1 (en) 2012-02-02

Similar Documents

Publication Publication Date Title
DE102011108169B4 (en) Workpiece removal device and method
DE112011103794B4 (en) Pick-up device for workpieces
DE102014102943B4 (en) Robot system with functionality for determining the location of a 3D box
DE102016123597B4 (en) Removal system for the removal of machining chips and machining system
DE102014016033B4 (en) Apparatus and method for picking up randomly distributed objects with a robot
DE102019003868B4 (en) INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHODS AND STORAGE MEDIUM
DE102016000995B4 (en) Conveyor robot system with three-dimensional sensor
DE102018006465B4 (en) Article stacking device and machine learning device
DE102019212839B4 (en) Object handling device and computer program product
DE102018000730B4 (en) Workpiece receiving device and workpiece receiving method for improving the picking operation of a workpiece
DE102016001174B4 (en) Robot system for removing workpieces with position and orientation conversion function and process for removing workpieces
DE102015208584A1 (en) Gripping device and gripping method
DE102016009030A1 (en) Machine learning device, robot system and machine learning system for learning a workpiece receiving operation
DE112018007727B4 (en) robotic system
DE102013018222A1 (en) Object-taking device and method for picking up an object
DE112017007392B4 (en) Control device, gripping system, distribution system, program, control method and manufacturing method
DE112017007399B4 (en) Control device, gripping system, distribution system, program, control method and manufacturing method
DE102017108727A1 (en) Method for creating a database with gripper poses, method for controlling a robot, computer-readable storage medium and handling system
DE102013109220A1 (en) Robotic device and method for removing bulk goods from a warehouse
DE112012002677T5 (en) Feeding device for components
DE102013210606A1 (en) Image processing apparatus and image processing method
DE102018101375A1 (en) Article conveying device using at least one sensor
EP3612355A1 (en) Method for creating a database of gripper poses, method for controlling a robot, computer-readable storage medium and materials handling system
DE102017102948B4 (en) System and method for picking up loose workpieces
DE102021205324A1 (en) Industrial robot gripping method and device, computer storage medium and industrial robot

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20120227

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20131012