DE4040222A1 - Path control for object handling robots - is carried out by flexible program based on analysis of optical data - Google Patents

Path control for object handling robots - is carried out by flexible program based on analysis of optical data

Info

Publication number
DE4040222A1
DE4040222A1 DE19904040222 DE4040222A DE4040222A1 DE 4040222 A1 DE4040222 A1 DE 4040222A1 DE 19904040222 DE19904040222 DE 19904040222 DE 4040222 A DE4040222 A DE 4040222A DE 4040222 A1 DE4040222 A1 DE 4040222A1
Authority
DE
Germany
Prior art keywords
objects
detection
station
robot
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19904040222
Other languages
German (de)
Inventor
Uwe Neupert
Ortwin Dipl Ing Sander
Wolfgang Wiegand
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
IND RHEINBOELLEN GmbH
Original Assignee
IND RHEINBOELLEN GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by IND RHEINBOELLEN GmbH filed Critical IND RHEINBOELLEN GmbH
Priority to DE19904040222 priority Critical patent/DE4040222A1/en
Publication of DE4040222A1 publication Critical patent/DE4040222A1/en
Withdrawn legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Image Analysis (AREA)
  • Manipulator (AREA)

Abstract

The control provides decision criteria for sequential working system, using a system of electronic components. It generates a working process starting targetted actions according to optically recognised markings, providing electroptical signals for computerised control programs from object to object. Identified objects are tested and optical points of gravity detected for contour scanning. The obtained signals are computer processed for final checking, and the robot targetted actions initiated and controlled. USE/ADVANTAGE - For industrial processes, e.g. car body welding, with object identity determination and checking.

Description

Bahnsteuerungen von Robotern sind im allgemeinen bekannt, wobei üblicherweise die Bahnsteuerung in fest vorgegebenen Bahnen erfolgt, z. B. beim Abfahren von Punktschweißfolgen an Karosserien entspechend einem vorbestimmten Programmablauf. Ein derartiges Programm erlaubt nur exakte Wiederholungen der vorgegebenen Bahnabläufe, wobei Korrekturen, beispielsweise zum Ausgleich einer linearen Verschiebung zwischen Objekt und Roboter plus/minus nach rechts oder links erfolgen können, um damit eine Positionsdifferenz zwischen Roboter und zu bearbeitender Karosserie auszugleichen.Path controls of robots are general known, usually the path control in fixed predetermined paths are carried out, e.g. B. when leaving Spot welding sequences on bodies corresponding to one predetermined program flow. Such a program only allows exact repetitions of the given Path sequences, with corrections, for example to Compensate for a linear displacement between objects and robots plus / minus to the right or left to make a difference in position between Compensate robot and body to be machined.

Solche bekannten Steuerungen von Robotern sind nicht in der Lage, Denkprozesse oder Unterscheidungs- bzw. Auswahlprozesse durchzuführen und dabei zum Beispiel Objekte nach Objektklassen zu unterscheiden. Infolgedessen können menschliche Arbeitskräfte bei auf Erkennung von Auswahlkriterien beruhenden Arbeiten wie Sortieren und/oder Lagekorrekturen von Objekten durch einen Einsatz von Robotern mit den bekannten Bahnsteuerungen nicht ersetzt werden. Such known controls of robots are not able to process thought processes or differentiation or To carry out selection processes, for example Differentiate objects according to object classes. As a result, human workers can get on Recognition of selection criteria based work such as Sorting and / or correcting the position of objects use of robots with the known Path controls cannot be replaced.  

Vielfach ist es aber wünschenswert, im Hinblick auf eine Humanisierung entsprechender Arbeitsplätze sowie mit Rücksicht auf die dabei erforderliche absolute Einhaltung einer fehlerfreien Funktion, z. B. bei der Sortierung und/oder beim Handling von Objekten entsprechende Arbeitsstationen von an sich sehr einfachen, aber auch stumpfsinnigen Handhabungen zu entlasten. Solche Handhabungen haben auch den Nachteil, daß sie die damit beschäftigten Personen gleichgültig werden lassen und somit Fehler geradezu herausfordern.In many cases, however, it is desirable with regard to a humanization of corresponding jobs as well with regard to the absolute required Compliance with an error-free function, e.g. B. at the Sorting and / or handling objects corresponding workstations very much simple, but also dull handling relieve. Such manipulations also have the Disadvantage that they are the people involved make indifferent and thus mistakes challenge.

Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren sowie eine Anlage zur Bahnsteuerung von Robotern beim Handling von Objekten anzugeben, mit denen es gelingt, einzelne Objekte nach ihrer Zugehörigkeit zu einer bestimmten Objektklasse zu identifizieren und beispielsweise nicht identifizierbare Objekte aus dem weiteren Verfahrensgang auszuscheiden, weiterhin die Lage eines Objektes in einer zu analysierenden Szene festzustellen und fallweise zu korrigieren, und schließlich Ungleichförmigkeiten eines vom Standard abweichenden Objektes, z. B. mit Angüssen, starken Graten, Ausbrüchen und sonstigen Fehlerstellen zu erkennen und auszusondern bzw. auszurichten und zu diesem Zweck nach Maßgabe solcher Informationen gezielte Aktionen des Roboters einzuleiten.The invention is based on the object Process and a system for path control of To specify robots when handling objects with who succeed in finding individual objects according to their Belonging to a certain object class identify and for example not identifiable objects from the rest Eliminate proceedings, the situation of a Object in a scene to be analyzed to be determined and corrected on a case by case basis, and finally one of the standard non-uniformities deviating object, e.g. B. with sprues, strong Burrs, breakouts and other defects recognize and discard or align and to this purpose in accordance with such information initiate targeted actions by the robot.

Die Lösung der Aufgabe gelingt bei einem Verfahren der eingangs genannten Art mit der Erfindung dadurch, daß die Bahnsteuerung mittels eines nach Maßgabe von optisch erkennbaren Merkmalen der Objekte und/oder einer optischen Erkennung von deren Lage in einer zu analysierenden Szene von Objekt zu Objekt flexibel errechenbaren bzw. änderbaren Steuerprogrammes vorgenommen wird.The problem is solved with a method of type mentioned with the invention in that the path control by means of a  optically recognizable features of the objects and / or an optical detection of their position in one analyzing scene from object to object flexible calculable or changeable control program is made.

Mit dem Verfahren ergibt sich der Vorteil, daß einzelne Objekte nach ihrer Klasse identifiziert und nicht identifizierbare aus dem weiteren Verarbeitungsgang ausgeschlossen werden können, daß die Lage eines Objektes in der zu analysierenden Szene zwecks Korrektur durch den Roboter bei dessen Bahnsteuerung Berücksichtigung findet, und daß Objekte mit erkennbaren Ungleichförmigkeiten oder Fehlerstellen bzw. mit einer fehlerhaften Ausbildung durch entsprechende Anweisung an das Roboter- Steuerungsprogramm ebenfalls vom weiteren Bearbeitungsgang ausgeschlossen und zu diesem Zweck der oder die Roboter duch eine flexible Steuerung nach Maßgabe eines aus den Informationen von Objekt zu Objekt errechenbaren Steuerprogrammes in unterschiedliche und individuell flexibel variierbare Bewegungsabläufe steuerbar sind.The advantage of the method is that individual objects identified by their class and unidentifiable from the rest Processing can be excluded that the position of an object in the scene to be analyzed for the purpose of correction by the robot at its Path control is taken into account and that objects with discernible irregularities or Flaws or with incorrect training by corresponding instruction to the robot Control program also from further Processing step excluded and for this purpose the robot or robots by a flexible control Providing one from the information from object to Object calculable control program in different and individually flexibly variable Movements are controllable.

Eine Ausgestaltung des erfindungsgemäßen Verfahrens sieht eine Folge von Arbeitsschritten wie folgt vor:An embodiment of the method according to the invention provides a sequence of work steps as follows:

  • a) Zuführen einzelner Objekte aus einem Vorrat zu einer ersten Erkennungsstation;a) Feed individual objects from a supply a first detection station;
  • b) Erzeugen von mehreren Lichtschnitten in Sequenz zur Extraktion von Merkmalen einzelner Objekte und Gewinnung von deren räumlichen sowie kontrastunabhängigen bildmäßigen Darstellungen zur Identifizierung;b) Generation of several light sections in sequence for Extraction of features of individual objects and Extraction of their spatial as well  contrast-independent visual representations for Identification;
  • c) Aussondern und/oder Zurückfördern nicht identifizierbarer Objekte aus dem weiteren Verfahrensablauf;c) Not discard and / or return identifiable objects from the rest Procedure;
  • d) überführen identifizierter Objekte zu einer zweiten Erkennungs- bzw. Kontrollstation zum Ermitteln optischer Schwerpunkte, und davon ausgehend, Abtasten relevanter Konturen sowie zum Vergleich mit einem oder mehreren Schwellwert(en);d) transfer identified objects to a second Detection or control station to determine optical focal points, and based on that, scanning relevant contours as well as for comparison with an or multiple threshold (s);
  • e) Verarbeiten der gewonnenen Informationen durch eine Rechenoperation unter Einsatz eines neuronalen Netzes zur Entscheidung über die Zugehörigkeit eines Objektes zu einer bekannten Objektklasse, sowie Bestimmung der Position des Objektes innerhalb der zu analysierenden Szene;e) processing the information obtained by a Arithmetic operation using a neural network to decide on the affiliation of an object to a known object class, as well as determining the Position of the object within the to be analyzed Scene;
  • f) Einleiten gezielter Aktionen zur Bahnsteuerung der Roboter durch deren Steuerung nach Maßgabe eines aus den Informationen b) bis d) errechneten Steuerprogrammes.f) initiation of targeted actions for path control of the Robots by controlling them according to one the information b) to d) Control program.

Vorteilhafte Weiterbildungen des erfindungsgemäßen Verfahrens sind den Merkmalen der Unteransprüche zu entnehmen.Advantageous further developments of the invention Procedures are related to the features of the subclaims remove.

Eine Anlage zur Bahnsteuerung von Robotern beim Handling von Objekten, insbesondere zur Durchführung des Verfahrens, ist gekennzeichnet durch eine aus folgenden Elementen gebildete Funktionseinheit:A system for path control of robots at Handling objects, especially for execution of the process, is characterized by an Functional unit formed by the following elements:

  • - eine Einrichtung mit Mitteln zur vollautomatischen Zuführung einzelner Objekte zu einer ersten Erkennungsstation;- A device with means for fully automatic Feeding individual objects to a first one  Detection station;
  • - eine erste Erkennungsstation mit Mitteln zur kontrastfreien 3-D-Abbildung einzelner Objekte sowie zur rechenelektronischen Bildauswertung für deren Identifizierbarkeit nach Maßgabe vergleichbarer, vorgegebener Pattern;- A first detection station with means for contrast-free 3-D imaging of individual objects as well for electronic image evaluation for their Identifiability according to comparable, predefined pattern;
  • - eine Einrichtung mit Mitteln zum Rückfördern oder Verwerfen nicht identifizierbarer Objekte;- a facility with means for return or Discarding unidentifiable objects;
  • - einen ersten Roboter zum Greifen der erkannten Objekte und zum Ablegen auf eine zweite Erkennungs- bzw. Kontrollstation;- a first robot to grasp the recognized ones Objects and to drop onto a second detection or control station;
  • - eine zweite Erkennungs- bzw. Kontrollstation mit Mitteln zur Konturkontrolle der Objekte (z. B. Durchmesser, 6kant, Lage eines Angusses, Fehlerstellen, etc);- A second detection or control station with Means for checking the contour of the objects (e.g. Diameter, hexagon, position of a sprue, Flaws, etc);
  • - einen zweiten Roboter zum Transportieren und Ausrichten der identifizierten und fehlerfreien Objekte auf eine Übergabestation;- a second robot for transporting and Align the identified and error-free Objects to a transfer station;
  • - ein Handlingsystem zum Einlegen der Objekte in eine Verarbeitungsmaschine.- a handling system for inserting the objects in a Processing machine.

Weitere vorteilhafte Ausgestaltungen der Anlage zur Bahnsteuerung sind entsprechend den Unteransprüchen vorgesehen.Further advantageous refinements of the system for Path control are in accordance with the subclaims intended.

Die Erfindung wird in einer schematischen Zeichnung in einer bevorzugten Ausführungsform gezeigt, wobei aus der Zeichnung weitere vorteilhafte Einzelheiten der Erfindung entnehmbar sind.The invention is shown in a schematic drawing in a preferred embodiment shown, from the drawing further advantageous details of the Invention are removable.

Die Anlage besitzt im wesentlichen einen ersten Roboter (1), einen zweiten Roboter (2) sowie die Erkennungsstation (3) und die Kontrollstation (4). Alle Stationen sowie ein Elektroschrank (5) sind von der Bedienungsseite (6) zugänglich, insbesondere zur Kontrolle und Umrüstung.The system essentially has a first robot ( 1 ), a second robot ( 2 ) and the detection station ( 3 ) and the control station ( 4 ). All stations and an electrical cabinet ( 5 ) are accessible from the operating side ( 6 ), in particular for checking and retrofitting.

Die Objekte bzw. Werkstücke (10) werden mit einer vollautomatischen Zuführung, bestehend aus einem Hochbehälter (11) mit Auslaufrutsche (12) und einer Linearförderschiene (13), vorzugsweise einer Vibrationsschiene mit Grobsortierung, angetrieben von einem Vibrationstopf (14) auf ein Kleinförderband (15) gegeben und gelangen so zu der ersten Erkennungsstation (3).The objects or workpieces ( 10 ) are fed with a fully automatic feeder, consisting of an elevated container ( 11 ) with an outlet chute ( 12 ) and a linear conveyor rail ( 13 ), preferably a vibrating rail with coarse sorting, driven by a vibration pot ( 14 ) onto a small conveyor belt ( 15 ) and thus arrive at the first detection station ( 3 ).

Die im Bereich der ersten Erkennungsstation (3) abgelegten Objekte werden dort durch optoelektronische Teileerkennung und -prüfung nach Zugehörigkeit zu einer vorgesehenen Objektklasse durch Vergleich mit vorgegebenen Vergleichsmustern nach bestimmten Verfahrensabläufen (Pattern) überprüft. Nicht identifizierbare Objekte werden durch den Computer mittels einer entsprechenden Bahnsteuerung auf das Rückförderband (16) abgeschoben - fallweise auch durch einen separaten Schiebemechanismus -, und von diesem vorzugsweise wieder in den Hochbehälter (11) zurücktransportiert. Fallweise könnte auch eine Aussonderung zum Ausschußbehälter (17) stattfinden. In diesem Falle würde das Rückförderband (16) mit einer Weiche ausgerüstet sein, um die Objekte auszusondern.The objects stored in the area of the first detection station ( 3 ) are checked there by means of optoelectronic part detection and testing according to belonging to an intended object class by comparison with predetermined comparison patterns according to certain procedural sequences (pattern). Objects that cannot be identified are pushed by the computer onto the return conveyor belt ( 16 ) by means of a corresponding path control - in some cases also by a separate sliding mechanism - and are preferably transported back into the elevated container ( 11 ) by the latter. Occasionally, the reject container ( 17 ) could also be separated. In this case, the return conveyor belt ( 16 ) would be equipped with a switch to separate out the objects.

Die identifizierten Objekte werden zur kontrastinvarianten 3-D-Abbildung und deren Auswertung vom Roboter (1) ergriffen und zur zweiten Erkennungs- bzw. -Kontrollstation (4) transportiert und dort abgelegt. Es handelt sich bei dieser Station ebenfalls um ein Erkennungssystem mit Kamera und Lichtquelle. Hierbei erfolgt eine Konturkontrolle beispielsweise bezüglich der Raumform des Objektes wie z. B. Sechskant oder Vorhandensein und Lage, beispielsweise eines Angusses bzw. das Vorhandensein anderer Fehler wie starker Grat etc. Als fehlerfrei erkannte Teile werden vom Roboter (2) nochmals ergriffen und zur Übergabestation (18) transportiert. Dort werden sie auf drei vordefinierte Übergabestellen abgelegt. Als fehlerhaft erkannte Objekte werden durch separate Schieber zum Ausschußbehälter (17) abgeschoben.The identified objects are taken by the robot ( 1 ) for contrast-invariant 3-D imaging and their evaluation and transported to the second recognition or control station ( 4 ) and stored there. This station is also a detection system with a camera and light source. Here, a contour check is carried out, for example, with regard to the spatial shape of the object, such as, for. B. hexagon or presence and location, for example a sprue or the presence of other faults such as burrs etc. Detected as faultless parts are picked up again by the robot ( 2 ) and transported to the transfer station ( 18 ). There they are stored at three predefined transfer points. Objects identified as defective are pushed to the reject container ( 17 ) by separate sliders.

Der Hochbehälter (11) mit z. B. 600 Liter Bunkervolumen ist vorzugsweise mit Kunststoff ausgekleidet und mit einem Brückenbrecher ausgestattet. Die Auslaufrutsche (12) ist als Vibrationsrinne ausgebildet und fördert die Werkstücke bzw. Objekte (10) zum Linearförderer (13). Der stufenlos einstellbare Linearföderer mit Schiene und Stau-Endschalter zur Ansteuerung der Auslaufrutsche (12) dient zur Vorratsbildung und Ausrichtung der Teile bis zu der als Bildverarbeitungsstation ausgebildeten Erkennungsstation (3). Diese besteht aus einem angesteuerten Kleinförderband (15) oder einer kippbaren Platte, ausgestattet mit Endschalter zum Abschalten des Linearförderers (13).The elevated tank ( 11 ) with z. B. 600 liter bunker volume is preferably lined with plastic and equipped with a bridge breaker. The outlet chute ( 12 ) is designed as a vibration channel and conveys the workpieces or objects ( 10 ) to the linear conveyor ( 13 ). The infinitely adjustable linear conveyor with rail and jam limit switch for controlling the discharge chute ( 12 ) is used for stock formation and alignment of the parts up to the detection station ( 3 ) designed as an image processing station. This consists of a controlled small conveyor belt ( 15 ) or a tiltable plate, equipped with a limit switch for switching off the linear conveyor ( 13 ).

In der zweiten Erkennungs- bzw. Kontrollstation (4) wird die Projektion der Objektumrisse mittels einer zweiten CCD-Kamera in den Rechner eingelesen, wodurch wie vorstehend ausgeführt, eine Beurteilung beispielsweise der Sechskantlage, eines Angusses oder eines Innendurchmessers oder anderer Merkmale erfolgt. Fehlerfreie Teile werden dann vom zweiten Roboter (2) angesteuert und übernommen bzw. ausgerichtet und in einer Übergabestation (18) positioniert abgelegt. Ein Handlingsystem (19) mit 3fach-Greifer führt taktabhängig jeweils drei Teile von der Übergabestation (18) der weiterverarbeitenden Maschine (20) bzw. deren Spanneinheit (21) zu. Die verarbeitende Maschine (20) ist beispielsweise eine Gewindeschneidemaschine, wobei die Fertigteile in einen Fertigproduktbehälter (22) gefördert werden.In the second detection or control station ( 4 ), the projection of the object outline is read into the computer by means of a second CCD camera, as a result of which, as explained above, an assessment is made, for example, of the hexagon position, a sprue or an inner diameter or other features. Fault-free parts are then controlled and taken over or aligned by the second robot ( 2 ) and placed in a transfer station ( 18 ). A handling system ( 19 ) with a triple gripper feeds three parts depending on the cycle from the transfer station ( 18 ) to the further processing machine ( 20 ) or its clamping unit ( 21 ). The processing machine ( 20 ) is, for example, a thread cutting machine, the finished parts being conveyed into a finished product container ( 22 ).

Das Bildverarbeitungssystem der Erkennungsstation (3) besteht aus einem bildgebenden Teil und einem bildverarbeitenden Rechner. Durch den Fringe-Projektor (30) wird ein Lichtstrahl erzeugt, mit dessen Hilfe auf ein Objekt bzw. Werkstück definierte Streifen von Licht geworfen werden. Diese Streifen werden durch Phasenverschiebung auf den Objekten definiert verschoben. Drei oder vier dieser phasenverschobenen Bilder werden mittels der CCD-Kamera in einen Rechner eingelesen. Damit wird eine vom Objekt kontrastunabhängige 3-D-Kontur errechnet. Hierbei spielen jegliche Kontrastveränderungen, verursacht durch Oberflächenbeeinträchtigungen wie beispielsweise Feuchtigkeit, Verzinkung, Staub etc. keine Rolle. Aufgrund des Ergebnisses der ersten Erkennungsstation (3) werden identifizierbare und lagegerechte Teile im Abgreiffeld (31) vom ersten Roboter (1) übernommen und zur zweiten Erkennungs- bzw. Kontrollstation (4) transportiert. Nicht identifizierbare Teile werden als Ausschuß (17) verworfen bzw. in den Behälter (11) zurückgefördert.The image processing system of the recognition station ( 3 ) consists of an imaging part and an image processing computer. A light beam is generated by the fringe projector ( 30 ), with the aid of which defined strips of light are cast onto an object or workpiece. These stripes are shifted in a defined manner by phase shift on the objects. Three or four of these phase-shifted images are read into a computer using the CCD camera. This creates a 3-D contour that is independent of the object. Any changes in contrast caused by surface impairments such as moisture, galvanizing, dust etc. play no role here. On the basis of the result of the first detection station ( 3 ), identifiable and correct parts in the tapping field ( 31 ) are taken over by the first robot ( 1 ) and transported to the second detection or control station ( 4 ). Unidentifiable parts are discarded as rejects ( 17 ) or conveyed back into the container ( 11 ).

Die Bedienung (Anzeige, Ein- und Ausgabe) erfolgt über einen AT-kompatiblen Rechner mit Bildschirm, Tastatur und Massenspeicher (Diskette + Festplatte), der an den Bildverarbeitungsrechner angeschlossen ist. Damit lassen sich auch unterschiedliche Teile anlernen, die Programminformationen abspeichern und beim späteren Umrüsten schnell abrufen. Zu diesem Zweck müssen lediglich die Zangen der Greifer ausgewechselt werden.The operation (display, input and output) takes place via an AT-compatible computer with screen, keyboard and mass storage (floppy disk + hard disk), which to the Image processing computer is connected. In order to can also be taught different parts that Save program information and save it later Get changeovers quickly. For this purpose only the pliers of the grippers can be replaced.

Der bildverarbeitende Rechner (nicht dargestellt) besteht aus einem Transputernetzwerk mit:The image processing computer (not shown) consists of a transputer network with:

  • - einem Leitrechner zur Bilddigitalisierung;- A master computer for image digitization;
  • - drei identischen CPU-Karten zur Bildanalyse;- three identical CPU cards for image analysis;
  • - einer Steuerkarte für den Fringe-Projektor und- a control card for the Fringe projector and
  • - zwei Steuereinheiten für die beiden Roboter.- two control units for the two robots.

Die einzelnen Bausteine sind so ausgelegt, daß sämtliche Rechenoperationen einschließlich der zusätzlichen Kontrollaufgabe in Echtzeit durchgeführt werden können.The individual modules are designed so that all arithmetic operations including the additional control task performed in real time can be.

Die Klassifizierung wird in beiden Bildverarbeitungsstationen dadurch erreicht, daß die aktuelle Eingabeszene mit angelernten Referenzszenen verglichen wird. Da jedoch weniger Referenzszenen als tatsächlich vorkommende Szenen existieren, wird ein neuronales Netz zur Verallgemeinerung der a priori Informationen eingesetzt.The classification is in both Image processing stations achieved in that the current input scene with taught reference scenes is compared. However, since fewer reference scenes than Actually occurring scenes exist neural network for generalizing the a priori  Information used.

Die in einer der Erkennungsstationen (3) bzw. (4) durchgeführte Schwellwertoperation zur 3-D-Information mit Bildung von Zusammenhangskomponenten, um die optischen Schwerpunkte der Objekte zu ermitteln, beruht auf folgenden Erkenntnissen und Maßnahmen:
Die Darstellung, die man von der Lichtschnittmethode erhält, ist mit einer Landkarte vergleichbar, auf der an jeder Stelle durch Abbildung mit einer entsprechenden Farbe die jeweilige Höhe ablesbar ist. Interessiert man sich nur für Gebiete, die höher als eine bestimmte Höhe sind (Schwellwert), dann besetzt man alle Punkte, die kleiner sind, mit 0 (null), alle anderen mit 1 (eins). Die Gebiete ("CLUSTER") die mit 1 (eins) besetzt sind, sind dann die gesuchten Gebiete, im allgemeinen die Objekte.
The threshold value operation for 3-D information carried out in one of the detection stations ( 3 ) or ( 4 ) with the formation of related components in order to determine the optical focal points of the objects is based on the following findings and measures:
The representation obtained from the light section method is comparable to a map on which the respective height can be read at any point by means of a corresponding color. If you are only interested in areas that are higher than a certain height (threshold value), then you assign all points that are smaller with 0 (zero), all others with 1 (one). The areas ("CLUSTER") which are filled with 1 (one) are then the searched areas, in general the objects.

Der nachfolgende Algorithmus hat die folgenden Aufgaben:The algorithm below has the following Tasks:

  • - Zusammenfassen aller zusammenhängender "1-Pixels" zu Clustern;- Summarize all related "1-Pixels" Clusters;
  • - Herausfiltern von "Rauschen";- filtering out "noise";
  • - Berechnung einer rauschinvarianten Information über die Lage des Clusters (optischer Schwerpunkt) in der zu analysierenden Szene.- Calculation of noise invariant information about the location of the cluster (optical focus) in the scene to be analyzed.

Als Resultat liefert der Algorithmus eine Menge von Punkten (Pixels), an denen ein Objekt (CLUSTER) erkennbar ist. As a result, the algorithm returns a lot of Points (pixels) at which an object (CLUSTER) is recognizable.  

Beim Einsatz von neuronalen Netzen zur Objektklassifizierung wird wie folgt vorgegangen: Da neuronale Netze untereinander verbundene, miteinander zusammenwirkende "trainierbare" Funktionseinheiten sind, sind diese in der Lage, Merkmalsvektoren aus dem Merkmalsraum auf angelernte Klassen abzubilden. Dabei erfolgt die Programmierung durch "Trainieren", wobei die Umsetzung in ein Computerprogramm massive Parallelprogrammierung zuläßt. Hierfür werden die Merkmalsvektoren durch "Abtasten" der Umgebung eines "vermutlichen Objektes" gewonnen, wobei es sich um ein Element der Objektmenge handelt, das als Resultat aus der Schwellwertoperation hervorgeht.When using neural networks for Object classification is carried out as follows: Since neural networks are interconnected, interacting "trainable" Are functional units, they are able Feature vectors from the feature space to taught Map classes. The programming takes place by "training", the implementation in one Computer program massive parallel programming allows. For this, the feature vectors are "Scanning" the surroundings of a "suspected object" won, which is an element of the object set acts as a result of the threshold operation emerges.

Das neuronale Netz, das vorher mit ähnlichen Patterns "trainiert" wurde, ist nun in der Lage zu entscheiden, um welche Objektklasse es sich bei dem speziellen Objekt handelt.The neural network that previously had similar patterns "trained" is now able to decide which object class is the special one Object.

Die Analyse von Objektkonturen kann sehr vorteilhaft beispielsweise anhand einer Sechskantbestimmung erläutert werden. Ziele hierfür sind:Analyzing object contours can be very beneficial for example using a hexagon determination are explained. The goals are:

  • a) Bestimmung der Lage des Gußteilsechskants (Drehwinkel);a) Determination of the position of the cast hexagon (Angle of rotation);
  • b) Erkennung der Lage eines Angusses;b) detection of the position of a sprue;
  • c) Klassifizierung der Maßhaltigkeit.c) Classification of dimensional accuracy.

In allen drei Fällen ist die zu leistende Arbeit reine Klassifikation, daher lassen sich zu diesem Zweck ebenfalls neuronale Netze einsetzen. In all three cases, the work to be done is pure Classification, therefore, for this purpose also use neural networks.  

Zur Merkmalsgewinnung wird so vorgegangen, daß die zu prüfenden Objekte vorzugsweise auf einem Lichttisch von unten beleuchtet und das Schattenbild mit einer Kamera aufgezeichnet wird. Das resultierende Binärbild dient allen nachfolgenden Verfahren als Grundlage.For the extraction of features, the procedure is such that the objects to be checked preferably on a light table illuminated from below and the silhouette with a Camera is recorded. The resulting Binary image serves as the following procedure Basis.

Vom Mittelpunkt des Prüflings aus wird, ähnlich wie beim RADAR, die Information entlang eines Strahles aufgezeichnet, z. B. gemäß Fig. 2.From the center of the test object, similar to the RADAR, the information is recorded along a beam, e.g. B. according to FIG. 2nd

Wenn genügend viele solche Strahlen angetragen werden und die Informationen linearisiert aufgezeichnet werden, dann erhält man folgendes Bild gemäß Fig. 3.If a sufficient number of such beams are plotted and the information is recorded in a linearized manner, the following image is obtained in accordance with FIG. 3.

Bei dieser Darstellungsweise liefern die Patterns unterschiedlicher Drehwinkel 0 bis 360 Grad das gleiche Patternbild, jedoch um einen gewissen Betrag nach rechts oder nach links verschoben. Die Folgerung daraus ist, daß zur Klassifizierung eines Drehwinkels lediglich die Feststellung des Verschiebungsvektors eines Patterns erforderlich ist, aus welchen der Winkel errechnet werden kann.In this way of representation, the patterns deliver different angle of rotation 0 to 360 degrees same pattern picture, but by a certain amount shifted to the right or to the left. The conclusion from this is that for the classification of an angle of rotation only the detection of the displacement vector a pattern is required, from which the Angle can be calculated.

Fehler und Ungleichförmigkeiten am Objekt werden wie folgt erkannt: Ein Anguß beipielsweise äußert sich in Form einer Störung des Patterns. Das neuronale Netz ist nun so trainiert, daß es feststellen kann, in welchem Sektor der Anguß sitzt. Aus dieser Information kann im Steuerungsprogramm für den Roboter die beabsichtigte Drehbewegung zur vorgesehenen korrigierenden Ausrichtung des Objektes errechnet und de facto abgeleitet werden.Errors and irregularities in the object are like recognized as follows: A sprue, for example, manifests itself in Form of a pattern disturbance. The neural network is now trained so that it can determine in which sector the gate is located. From this information can in the control program for the robot intended rotation to the intended corrective alignment of the object is calculated and  are de facto derived.

Die Klassifizierung der Maßhaltigkeit eines Objektes kann ebenfalls mit einem neuronalen Netz mit dem o.a. Pattern durchgeführt werden, wobei nur zwei Klassen "gut"/"schlecht" existieren.The classification of the dimensional accuracy of an object can also be connected to a neural network with the above Patterns are performed using only two classes "good" / "bad" exist.

Claims (10)

1. Verfahren zur Bahnsteuerung von Robotern beim Handling von Objekten, dadurch gekennzeichnet, daß die Bahnsteuerung mittels eines nach Maßgabe von optisch erkennbaren Merkmalen der Objekte und/oder einer optischen Erkennung von deren Lage in einer zu analysierenden Szene von Objekt zu Objekt flexibel errechenbaren bzw. änderbaren Steuerprogrammes vorgenommen wird.1. A method for controlling the path of robots when handling objects, characterized in that the path control can be flexibly calculated or can be calculated from object to object by means of an optically recognizable features of the objects and / or an optical detection of their position in a scene to be analyzed changeable control program is made. 2. Verfahren nach Anspruch 1, gekennzeichnet durch die Folge von Arbeitsschritten:
  • a) Zuführen einzelner Objekte aus einem Vorrat zu einer ersten Erkennungsstation;
  • b) Erzeugen von mehreren Lichtschnitten in Sequenz zur Extraktion von Merkmalen einzelner Objekte und Gewinnung von deren räumlichen sowie kontrastunabhängigen bildmäßigen Darstellungen zur Identifizierung;
  • c) Aussondern und/oder Zurückfördern nicht identifizierbarer Objekte aus dem weiteren Verfahrensablauf;
  • d) Überführen der identifizierten Objekte zu einer zweiten Erkennungs- bzw. Kontrollstation zum Ermitteln optischer Schwerpunkte und, davon ausgehend, Abtasten relevanter Konturen sowie zum Vergleich mit einem oder mehreren Schwellwert(en);
  • e) Verarbeiten der gewonnenen Informationen durch eine Rechenoperation unter Einsatz eines neuronalen Netzes zur Entscheidung über die Zugehörigkeit eines Objektes zu einer bekannten Objektklasse und Bestimmung der Position des Objektes innerhalb der zu analysierenden Szene;
  • f) Einleiten gezielter Aktionen zur Bahnsteuerung der Roboter durch deren Steuerung nach Maßgabe eines aus den Informationen errechneten Steuerprogrammes.
2. The method according to claim 1, characterized by the sequence of work steps:
  • a) feeding individual objects from a supply to a first detection station;
  • b) generating a plurality of light sections in sequence for extracting features of individual objects and obtaining their spatial and contrast-independent visual representations for identification;
  • c) separating and / or conveying back unidentifiable objects from the further procedure;
  • d) transfer of the identified objects to a second detection or control station for determining optical focal points and, starting from this, scanning relevant contours and for comparison with one or more threshold value (s);
  • e) processing of the information obtained by a computing operation using a neural network to decide whether an object belongs to a known object class and determine the position of the object within the scene to be analyzed;
  • f) initiation of targeted actions for path control of the robots by controlling them in accordance with a control program calculated from the information.
3. Verfahren nach dem Anspruch 1 oder 2, dadurch gekennzeichnet, daß zur Erzeugung der Lichtschnitte optische Mittel wie Interferometer, piezogesteuerte Spiegel oder bewegliche Dias verwendet und von diesen Lichtstreifen auf die zu analysierende Szene geworfen werden, wobei aus wenigstens drei, vorzugsweise vier oder mehreren Bildaufnahmen, indem die Lichtstreifen jeweils um einen vorgegebenen Betrag relativ zueinander verschoben werden, ein Informationswert über die Z-Koordinate (Höhe) jedes einzelnen Bildpunktes berechnet wird.3. The method according to claim 1 or 2, characterized characterized in that for generating the light sections optical means such as interferometers, piezo-controlled Mirror or moving slides used and by these Streaks of light cast on the scene to be analyzed be, with at least three, preferably four or multiple pictures by the light strips each relative by a predetermined amount shifted towards each other, an information value about the Z coordinate (height) of each one Pixel is calculated. 4. Verfahren nach einem oder mehreren der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß die Berechnung der Z-Koordinate nach der Formel durchgeführt wird, wobei
I/1=Intensität am Punkt (x,y) im Bild 1
I/2=Intensität am Punkt (x,y) im Bild 2
I/3=Intensität am Punkt (x,y) im Bild 3
I/4=Intensität am Punkt (x,y) im Bild 4
bedeutet.
4. The method according to one or more of claims 1 to 3, characterized in that the calculation of the Z coordinate according to the formula is carried out with
I / 1 = intensity at point (x, y) in Figure 1
I / 2 = intensity at point (x, y) in Figure 2
I / 3 = intensity at point (x, y) in Figure 3
I / 4 = intensity at point (x, y) in Figure 4
means.
5. Verfahren nach einem oder mehreren der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß bei der Durchführung der Schwellwertoperation Bild-Pixels aller Objektteile oberhalb einer vorgegebenen Höhe (Schwellwert) als 1(eins) und alle Objektteile unterhalb des Schwellwertes als 0 (null) bezeichnet werden, und daß durch einen Algorithmus Rechenoperationen mit folgenden Rechenschritten durchgeführt werden:
  • - Zusammenfassen aller zusammenhängender "1-Pixels" zu Clustern;
  • - Herausfiltern von "Rauschen",
  • - Berechnen einer rauschinvarianten Information über die Lage des Clusters (optischer Schwerpunkt).
5. The method according to one or more of claims 1 to 4, characterized in that when performing the threshold value operation image pixels of all object parts above a predetermined height (threshold value) as 1 (one) and all object parts below the threshold value as 0 (zero) and that an algorithm performs arithmetic operations with the following arithmetic steps:
  • - Combining all related "1-pixels" into clusters;
  • - filtering out "noise",
  • - Calculation of noise-invariant information about the location of the cluster (optical focus).
6. Verfahren nach einem oder mehreren der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß die Umgebung eines "vermutlichen" Objektes, d. h. eines Objektes einer Objektmenge optisch abgetastet und dabei Merkmalsvektoren gewonnen und diese durch das mit ähnlichen Pattern trainierte Neuronale Netz durch vergleichendes Abbilden auf angelernte Klassen klassifiziert werden (Schritt d) von Anspruch 2).6. The method according to one or more of claims 1 to 5, characterized in that the environment of a "suspected" object, i.e. H. of an object one Object quantity optically scanned and in the process Feature vectors obtained and this by using neural network trained through a similar pattern comparative mapping to taught classes are classified (step d) of claim 2). 7. Anlage zur Bahnsteuerung von Robotern beim Handling von Objekten, insbesondere zur Durchführung des Verfahrens nach einem oder mehreren der Ansprüche 1 bis 6, gekennzeichnet durch eine aus folgenden Elementen gebildete Funktionseinheit:
  • - eine Einrichtung mit Mitteln (11, 13, 15) zur vollautomatischen Zuführung einzelner Objekte (10) zu einer Erkennungsstation (3);
  • - eine erste Erkennungsstation (3) mit Mitteln (30) zur kontrastfreien 3-D-Abbildung einzelner Objekte sowie zur rechenelektronischen Bildauswertung für deren Identifizierbarkeit nach Maßgabe vergleichbarer, vorgegebener Pattern;
  • - eine Einrichtung mit Mitteln (16) zum Rückfördern oder Verwerfen nicht identifizierbarer Objekte;
  • - einen ersten Roboter (1) zum Greifen der erkannten Objekte und zum Ablegen auf eine zweite Erkennungs- bzw. Kontrollstation (4);
  • - eine zweite Erkennungs- bzw. Kontrollstation (4) mit Mitteln zur Konturkontrolle der Objekte (z. B. Durchmesser, 6kant, Lage eines Angusses, Fehlerstellen, etc);
  • - einen zweiten Roboter (2) zum Transportieren und Ausrichten der identifizierten und fehlerfreien Objekte auf eine Übergabestation (18);
  • - ein Handlingsystem (19) zum Einlegen der Objekte in eine Verarbeitungsmaschine (20).
7. System for path control of robots when handling objects, in particular for carrying out the method according to one or more of claims 1 to 6, characterized by a functional unit formed from the following elements:
  • - A device with means ( 11 , 13 , 15 ) for the fully automatic feeding of individual objects ( 10 ) to a detection station ( 3 );
  • - A first detection station ( 3 ) with means ( 30 ) for contrast-free 3-D imaging of individual objects and for computational electronic image evaluation for their identifiability in accordance with comparable, predetermined patterns;
  • - A device with means ( 16 ) for returning or discarding unidentifiable objects;
  • - a first robot ( 1 ) for gripping the recognized objects and for placing them on a second detection or control station ( 4 );
  • - a second detection or control station ( 4 ) with means for checking the contour of the objects (e.g. diameter, hexagon, position of a sprue, defects, etc.);
  • - a second robot ( 2 ) for transporting and aligning the identified and error-free objects onto a transfer station ( 18 );
  • - A handling system ( 19 ) for inserting the objects in a processing machine ( 20 ).
8. Anlage nach Anspruch 7, dadurch gekennzeichnet, daß die Einrichtung zur Zuführung der Objekte (10) einen Hochbehälter (11) mit Auslaufrutsche (12) sowie eine Linearförderschiene (13) und ein Kleinförderband (15) umfaßt.8. Plant according to claim 7, characterized in that the device for feeding the objects ( 10 ) comprises an elevated container ( 11 ) with discharge chute ( 12 ) and a linear conveyor rail ( 13 ) and a small conveyor belt ( 15 ). 9. Anlage nach Anspruch 7, dadurch gekennzeichnet, daß die erste Erkennungsstation (3) ein Bilderkennungssystem mit einer Kamera und einer Lichtquelle umfaßt. 9. Plant according to claim 7, characterized in that the first detection station ( 3 ) comprises an image recognition system with a camera and a light source. 10. Anlage nach einem oder mehreren der Ansprüche 7 bis 9, dadurch gekennzeichnet, daß das Bilderkennungssystem als Lichtquelle einen Fringeprojektor (30), zur optischen Aufnahme eines Objektes, eine CCD-Kamera und zur Auswertung einen bildverarbeitenden Rechner umfaßt, daß die zweite Erkennungs- bzw. Kontrollstation (4) eine zweite CCD- Kamera mit Lichtquelle und einen bildverarbeitenden Rechner sowie einen zweiten Roboter (2) aufweist, und daß das Handlingsystem (19) einen 3fach-Greifer aufweist.10. System according to one or more of claims 7 to 9, characterized in that the image recognition system comprises a fringe projector ( 30 ) as a light source, for optically recording an object, a CCD camera and for evaluating an image processing computer that the second recognition or control station ( 4 ) has a second CCD camera with light source and an image processing computer and a second robot ( 2 ), and that the handling system ( 19 ) has a triple gripper.
DE19904040222 1990-12-15 1990-12-15 Path control for object handling robots - is carried out by flexible program based on analysis of optical data Withdrawn DE4040222A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19904040222 DE4040222A1 (en) 1990-12-15 1990-12-15 Path control for object handling robots - is carried out by flexible program based on analysis of optical data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19904040222 DE4040222A1 (en) 1990-12-15 1990-12-15 Path control for object handling robots - is carried out by flexible program based on analysis of optical data

Publications (1)

Publication Number Publication Date
DE4040222A1 true DE4040222A1 (en) 1992-06-17

Family

ID=6420487

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19904040222 Withdrawn DE4040222A1 (en) 1990-12-15 1990-12-15 Path control for object handling robots - is carried out by flexible program based on analysis of optical data

Country Status (1)

Country Link
DE (1) DE4040222A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10324755A1 (en) * 2003-03-04 2004-09-16 K-Robotix GmbH Machine for loading and unloading containers with packets of post has gripper mounted on robot arm which transfers packets to or from conveyors beside it
DE19714591B4 (en) * 1997-04-09 2005-07-21 Langenstein & Schemann Gmbh Device for gripping packetized stone elements
CN110119680A (en) * 2019-04-03 2019-08-13 上海工程技术大学 A kind of electrical cabinet wiring automatic errordetecting system based on image recognition

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2637686A1 (en) * 1975-08-20 1977-02-24 Bendix Corp METHOD AND DEVICE FOR THE AUTOMATIC TRANSFER OF PARTS
DE3413731A1 (en) * 1983-04-18 1984-10-18 ASEA AB, Västeraas Arrangement on an industrial robot
DE3405909A1 (en) * 1984-02-18 1985-08-22 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt DEVICE FOR DETECTING, MEASURING ANALYSIS AND / OR REGULATING TECHNICAL PROCEDURES
DE3903607A1 (en) * 1989-02-08 1990-08-09 Leybold Ag DEVICE FOR CLEANING, CHECKING AND CLASSIFYING WORKPIECES

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2637686A1 (en) * 1975-08-20 1977-02-24 Bendix Corp METHOD AND DEVICE FOR THE AUTOMATIC TRANSFER OF PARTS
DE3413731A1 (en) * 1983-04-18 1984-10-18 ASEA AB, Västeraas Arrangement on an industrial robot
DE3405909A1 (en) * 1984-02-18 1985-08-22 Licentia Patent-Verwaltungs-Gmbh, 6000 Frankfurt DEVICE FOR DETECTING, MEASURING ANALYSIS AND / OR REGULATING TECHNICAL PROCEDURES
DE3903607A1 (en) * 1989-02-08 1990-08-09 Leybold Ag DEVICE FOR CLEANING, CHECKING AND CLASSIFYING WORKPIECES

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DE-Buch: Sehr forgeschrittene Handhabungssysteme, Hrsg.von P.-J.Becker, Springer-Verlag, Berlin, Heidelberg, New York, Tokyo, 1984, S.118-129 *
DE-Z: STRAUCH, R.: Sensorgeführte Industrie- robotersysteme. In: wt Zeitschrift für industri- elle Fertigung 74, j1984, S.721-724 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19714591B4 (en) * 1997-04-09 2005-07-21 Langenstein & Schemann Gmbh Device for gripping packetized stone elements
DE10324755A1 (en) * 2003-03-04 2004-09-16 K-Robotix GmbH Machine for loading and unloading containers with packets of post has gripper mounted on robot arm which transfers packets to or from conveyors beside it
CN110119680A (en) * 2019-04-03 2019-08-13 上海工程技术大学 A kind of electrical cabinet wiring automatic errordetecting system based on image recognition
CN110119680B (en) * 2019-04-03 2023-08-01 上海工程技术大学 Automatic error checking system of regulator cubicle wiring based on image recognition

Similar Documents

Publication Publication Date Title
DE19751862C2 (en) Method and device for identifying and sorting belt-conveyed objects
EP2693362B1 (en) Detection system for mounting on a conveyor belt
DE69628929T2 (en) Method and machine for reading and mapping an optical code
DE3012559C2 (en)
EP0338376B1 (en) Method for reading optical markings on objects and device for its implementation
DE102006017337A1 (en) Method for optically detecting moving objects and apparatus
EP0995108A1 (en) Method for the automatic recognition of surface defects in body shells and device for carrying out said method
DE102018212531B4 (en) Article transfer device
EP2693363A1 (en) Camera system and method for recording a flow of objects
EP3401411A1 (en) Method and apparatus for detecting defect sites in flexible bodies, in particular animal skins
DE19739250C2 (en) Optical detection of free-form surfaces
DE3809221A1 (en) METHOD FOR DETECTING DEFECTS IN PRESSING PARTS OR OTHER WORKPIECES, AND DEVICE FOR IMPLEMENTING THE METHOD
DE102016203392B3 (en) Image inspection method with multiple cameras
DE3612144A1 (en) Method and device for determining gripping position
DE102021112685A1 (en) Visual inspection system and procedure for inspecting parts
WO1998059235A1 (en) Method for focusing during imaging of structured surfaces of disc-shaped objects
EP1022541A2 (en) Procedure and device to determine the geometrical form of sheetlike articles or piles thereof
EP1543471B1 (en) Detection and gripping of objects
EP1143221A2 (en) Method for determining the position of a coordinate system of an object in a 3D space
EP1098268A2 (en) Method for the threedimensional optical measurement of object surfaces
DE4040222A1 (en) Path control for object handling robots - is carried out by flexible program based on analysis of optical data
DE102019104649B4 (en) Support bar capture on flatbed machine tools
EP3655175B1 (en) Method for operating a processing installation with a movable punch
WO2003078924A2 (en) Method and device for detecting at least one section of a workpiece or tool
DE102021108645A1 (en) Visual inspection system and procedure for inspecting parts

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8139 Disposal/non-payment of the annual fee