DE10351669A1 - Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt - Google Patents
Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt Download PDFInfo
- Publication number
- DE10351669A1 DE10351669A1 DE2003151669 DE10351669A DE10351669A1 DE 10351669 A1 DE10351669 A1 DE 10351669A1 DE 2003151669 DE2003151669 DE 2003151669 DE 10351669 A DE10351669 A DE 10351669A DE 10351669 A1 DE10351669 A1 DE 10351669A1
- Authority
- DE
- Germany
- Prior art keywords
- handling device
- real
- robot
- image
- positional deviation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1692—Calibration of manipulator
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39011—Fixed camera detects deviation end effector from reference on workpiece, object
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40607—Fixed camera to observe workspace, object, workpiece, global
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
Abstract
Description
- Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Steuern eines Handhabungsgeräts, wie eines Mehrachs-Industrieroboters.
- Automatisierte Handhabungsgeräte, wie Mehrachs-Industrieroboter, im Folgendem auch kurz als Roboter bezeichnet, werden heutzutage auf vielfältigen Gebieten der Technik zum Handhaben und Bearbeiten von Objekten, wie Werkstücken, eingesetzt. Die erforderliche Programmierung der Roboter verlagert sich dabei immer mehr in die virtuelle Welt, wobei in zunehmendem Maße vollständige Prozessabläufe unter Verwendung von Roboterprogrammen und Positionslisten erzeugt werden. Die hierbei bestimmten Stellungsdaten des (virtuellen) Roboters sind jedoch im Allgemeinen in einer realen Anlage nicht zu gebrauchen, weil das dem Roboterprogramm zugrundeliegende Robotermodell aufgrund der konkreten Montage des Roboters und den physikalischen Gegebenheiten seiner kinematischen Kette (Spiel, Reibungsverluste, Montageungenauigkeiten usw.) nicht genau genug ist. Daher müssen in der Praxis oft sämtliche Positionen (Stellungen des Roboters) manuell korrigiert werden. Ein derartiger Korrekturvorgang ist sehr arbeits- und zeitaufwändig und erfordert für jede einzelne Position durchschnittlich einen Zeitaufwand im Minutenbereich, so dass sich bei gewöhnlichen Prozessaufgaben mit einer Vielzahl von Positionen leicht mehrere Mannstunden an manueller Arbeit ergeben.
- Ausgehend von dieser Problematik liegt der Erfindung die Aufgabe zugrunde, die Roboterprogrammierung zu beschleunigen und dabei insbesondere Zeiten zwischen Programmierung und Ausführung des Programms zu verkürzen, indem eine Möglichkeit zur automatischen Positionsanpassung geschaffen wird.
- Diese Aufgabe wird mittels eines Verfahrens der eingangs genannten Art gelöst, wobei zunächst ein erwartetes Bild eines Objekts in einem Arbeitsbereich des Handhabungsgeräts mit einem realen Bild des Objekts verglichen wird, anschließend eine Stellungsabweichung des Handhabungsgeräts bestimmt wird und dann Bewegungen zur Minimierung der Stellungsabweichung durchgeführt werden. Eine Vorrichtung der eingangs genannten Art weist zur Lösung der Aufgabe eine Bildgebungseinrichtung zum Bereitstellen eines realen Bildes eines Objekts in Abhängigkeit von einer realen Stellung des Handhabungsgeräts, eine Bestimmungseinrichtung zum Bestimmen eines erwarteten Bildes des Objekts in Abhängigkeit von einer vorgegebenen Stellung des Handhabungsgeräts und eine Vergleichseinrichtung für das reale und das erwartete Bild zum Ermitteln einer Stellungsabweichung des Handhabungsgeräts auf, wobei ein Ausgangssignal der Vergleichseinrichtung zum Minimieren der Stellungsabweichung nutzbar ist.
- Mit dem erfindungsgemäß möglichen Vergleich von Ist- und Sollbildern (realen bzw. erwarteten Bildern) können beispielsweise folgende Bereiche eine erhebliche Vereinfachung und Praktikabilitätssteigerung erfahren: An- und Abwesenheitskontrolle von Objekten, Erkennung von Relativlagen, wie Verschiebungen, Verdrehungen und Abständen, sowie Qualitätskontrolle.
- Um im Zuge des erfindungsgemäßen Verfahrens die Vorteile einer realitätsnahen Bilderzeugung moderner 3D-Robotersimulationssysteme zu nutzen, ist vorgesehen, dass das erwartete Bild in Abhängigkeit von einer Stellung des Handhabungsgeräts anhand eines Modells des Handhabungsgeräts virtuell bestimmt wird. Das reale Bild wird vorzugsweise von einer an dem Handhabungsgerät angeordneten Bildgebungseinheit geliefert. Auf diese Weise ist es möglich, Bilddaten virtueller/simulierter Kameras, d.h. Ansichten der virtuellen Welt mit denen realer Kameras zu vergleichen, um daraus (auf einfache Weise) Informationen bezüglich einer Stellungsabweichung des Handhabungsgeräts zu gewinnen.
- Eine äußerst bevorzugte Weiterbildung des erfindungsgemäßen Verfahrens sieht vor, dass zur Minimierung der Stellungsabweichung eine Stellung des Handhabungsgeräts verändert wird. Alternativ oder zusätzlich hierzu kann zur Minimierung der Stellungsabweichung auch das Objekt und/oder ein Abbild des Objekts bewegt werden. Demgemäß liegt ein besonderer Gesichtspunkt des erfindungsgemäßen Verfahrens in dessen Anwendbarkeit innerhalb eines geschlossenen Kreises, d.h. innerhalb eines Steuerungsablaufs, bei dem sowohl die das erwartete Bild liefernde Bestimmungseinrichtung als auch die das reale Bild liefernde Bildgebungseinrichtung von einer Kinematik des Handhabungsgeräts mitgeführt werden und dabei iterativ der Vergleich von Ist- und Sollbild stattfindet, woraus eine neue Stellung der Bildgebungsein richtung (entweder der virtuellen oder der realen) zur Minimierung des Bildunterschieds bzw. der Stellungsabweichung berechnet werden kann. Auf diese Weise ergibt sich ein geschlossener Kreis, der z.B. für die Realisierung neuer Verfahren zur automatischen Kalibrierung oder Ausrichtung, also einer objekt-relativen Selbstjustage von Robotersystemen verwendet werden kann, so dass anschließend Objekte automatisch, ohne manuelle Positionskorrekturen richtig gegriffen und/oder bearbeitet werden können. Da sie aufgrund der hohen Bewegungsgenauigkeit moderner Industrieroboter erwartete und reale Bilder im Allgemeinen nicht sehr stark unterscheiden werden, können beim Vergleich der Bilder relativ einfache, an sich bekannte Verfahren, wie Korrelationsverfahren, zum Einsatz kommen, die gerade aus diesem Grund für einen Einsatz in einem geschlossenen erfindungsgemäßen Regelkreis prädestiniert sind.
- Weiterhin kann im Zuge des erfindungsgemäßen Verfahrens vorgesehen sein, dass als Stellungsabweichung eine im wesentlichen exakte sechsdimensionale Stellungsdifferenz des Roboters ermittelt wird, so dass anschließend ein direktes Verfahren des Handhabungsgeräts um die Stellungsdifferenz möglich ist.
- Um während des Anfahrens einer Zielposition durch das Handhabungsgerät keine zeitlichen Nachteile in Kauf nehmen zu müssen, sieht eine äußerst bevorzugte optionale Ausgestaltung des erfindungsgemäßen Verfahrens vor, dass die Minimierung der Stellungsabweichung im Wesentlichen in Echtzeit während einer übergeordneten Bewegung des Handhabungsgeräts erfolgt. Entsprechend ist bei einer erfindungsgemäßen Vorrichtung durch das Ausgangssignal eine Bewegung des Handhabungsgeräts und/oder des Objekts in Echtzeit beeinflussbar. Alternativ oder zusätzlich hierzu ist es auch möglich, die Minimierung der Stellungsabweichung durch Anpassen zumin dest des zugrundeliegenden Modells des Handhabungsgeräts – also dauerhaft – vorzunehmen. Entsprechend kann alternativ und/oder zusätzlich das Modell zumindest des Handhabungsgeräts sowie ggf. einer dieses umfassenden Anlage durch das Ausgangssignal nachhaltig so angepasst werden, dass aufgrund der entsprechenden Modifikation der Modelldaten die Hardware der erfindungsgemäßen Vorrichtung anschließend zur weiteren Verwendung mit anderen Handhabungsgeräten und Arbeitsbereichen (Arbeitszellen) zur Verfügung steht.
- Im Rahmen konkreter Ausgestaltungen der erfindungsgemäßen Vorrichtung ist vorgesehen, dass die Bildgebungseinrichtung eine an dem Handhabungsgerät angeordnete Kamera und dass die Bestimmungseinrichtung zum virtuellen Bestimmen des erwarteten Bildes anhand eines Modells zumindest des Handhabungsgeräts und ggf. des dieses umfassenden Arbeitsbereichs (Arbeitszelle) ausgebildet ist.
- Um eine möglichst einfache, flexible, kostengünstige und integrierte Ausgestaltung der erfindungsgemäßen Vorrichtung zu erreichen, sieht eine weitere Ausgestaltung der erfindungsgemäßen Vorrichtung vor, dass eine Steuerungseinrichtung des Handhabungsgeräts programmtechnisch zugleich als Vergleichseinrichtung und als Bestimmungseinrichtung ausgebildet ist.
- Weitere Eigenschaften und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen anhand der Zeichnungen. Es zeigt:
-
1 eine schematische Gesamtdarstellung der erfindungsgemäßen Vorrichtung; -
2 eine schematische Darstellung zu erwartender Bildunterschiede zwischen erwartetem und realem Bild; -
3 ein Ablaufdiagramm des erfindungsgemäßen Verfahrens; -
4 einen schematisierten Programmablauf zur Einbindung des erfindungsgemäßen Verfahrens in ein Bewegungsprogramm eines Roboters; -
5 eine schematische Aufsicht auf eine Roboterzelle, in der das erfindungsgemäße Verfahren bzw. die erfindungsgemäße Vorrichtung zum Einsatz kommt; und -
6 eine schematische Darstellung einer Weiterbildung der im Rahmen des erfindungsgemäßen Verfahrens stattfindenden Positions- und Orientierungsbestimmung; - Die
1 zeigt anhand eines Ausführungsbeispiels eine technische Realisierung einer erfindungsgemäßen Vorrichtung1 . Hierbei sind sämtliche erforderliche Komponenten der Vorrichtung als einzelne, getrennte Frunktionseinheiten dargestellt; auf eine Darstellung einer in der Praxis erstrebenswerten Integration der verschiedenen Teilsysteme wurde lediglich aus Gründen der Übersichtlichkeit verzichtet. - Die erfindungsgemäße Vorrichtung
1 weist gemäß der1 ein Handhabungsgerät in Form eines Mehrachs-Industrieroboters2 mit Arbeitsbereich A auf. Der Roboter2 besitzt einen (realen) Roboterarm2.1 , an dessen distalem Ende2.1a ein Roboterwerkzeug2.2 , wie ein Schneidwerkzeug, Greifwerkzeug oder dergleichen, und eine Bildgebungseinrichtung in Form einer (realen) Kamera2.3 angeordnet sind. Im Ar beitsbereich A des Roboters2 , in der Nähe des Roboterwerkzeugs2.2 , befindet sich ein Objekt3 , beispielsweise ein Werkstück, das mittels eines geeigneten Fördermittels4 , wie eines Bandförderers, relativ zu dem Roboter2 bzw. dessen Werkzeug2.2 beweglich ist. Die Kamera2.3 ist derart am Roboterarm2.1 befestigt, dass mit ihrer Hilfe ein reales Bild des Objekts3 aufgenommen werden kann, was in der1 durch den schraffierten Bereich B ausgedrückt ist. - Dargestellt ist in
1 weiterhin ein 3D-Simulationssystem5 in Form einer Rechnereinheit zum Erzeugen eines virtuellen Abbildes V des realen Roboters2 mitsamt den weiteren in seinem Arbeitsbereich A befindlichen Gegenständen und Einrichtungen, wie dem Werkzeug2.2 der Kamera2.3 , dem Objekt3 und dem Fördermittel4 , zu erzeugen. Das virtuelle Abbild V ist in der1 zwecks Veranschaulichung des Erfindungsgegenstandes auf einer mit dem Simulationssystem5 verbundenen Anzeigeeinheit6 dargestellt. - Das virtuelle Abbild V umfasst entsprechend der Realität einen virtuellen Roboter
2'' mit virtuellem Roboterarm2.1' , ein virtuelles Werkzeug2.2' , eine virtuelle Kamera2.3' , ein virtuelles Objekt3' sowie ein virtuelles Fördermittel4' . Gezeigt sind weiterhin eine Steuerungseinrichtung7 für den Roboter2 sowie eine Vergleichseinrichtung8 in Form einer Bildverarbeitungseinrichtung. Die Steuerungseinrichtung7 ist über Leitungen7.1 ,7.2 ,7.3 mit dem Roboter2 , dem Simulationssystem5 bzw. der Bildverarbeitungseinrichtung8 verbunden. Von Letzterer führen weitere Leitungen8.1 ,8.2 zu der realen Kamera2.3 bzw. der virtuellen Kamera2.3' , wobei die Leitung8.2 als rein virtuelle Verbindung in1 lediglich zu Anschauungszwecken konkret dargestellt ist, während in der technischen Realisierung der erfindungsgemäßen Vorrichtung entsprechende Daten der virtuellen Kamera2.3' in dem Simulationssystem5 er zeugt und entsprechend über die Leitungen7.2 ,7.3 an die Bildverarbeitungseinrichtung8 geliefert werden. Entsprechend lässt sich das Simulationssystem5 zusammen mit der virtuellen Kamera2.3' und der (virtuellen) Leitung8.2 als Bestimmungseinrichtung für virtuelle Stellungen bzw. aus derartigen Stellungen des virtuellen Roboters2' aufgenommenen Bilder verstehen. - Die Bildverarbeitungseinrichtung
8 empfängt somit zum einen über die Leitung8.1 die (realen) Bilddaten der Kamera2.3 , die gemäß der Darstellung der1 ein reales Bild des Objekts3 in Abhängigkeit von einer Stellung des Roboters2 beinhalten. Zugleich empfängt die Bildverarbeitungseinrichtung8 über die gedachte Leitung8.2 Bilddaten der virtuellen (simulierten) Kamera2.3' , die durch das Simulationssystem5 in Abhängigkeit von Positionsdaten für eine Sollstellung (Solldaten) des Roboters2 erzeugt werden. Diese Solldaten werden von der Steuerungseinheit7 über die Leitungen7.1 ,7.2 zugleich an den Roboter2 selbst sowie an das Simulationssystem5 geliefert. Entsprechend der Solldaten verfährt der Roboter2 , beispielsweise mit der Spitze des Werkzeugs2.2 (TCP: Tool Center Point), in eine vorbestimmte Stellung, was ihm jedoch aufgrund unvermeidlicher physikalischer Ungenauigkeiten seines Bewegungsablaufs (bedingt durch Fertigungstoleranzen, Reibungseffekte oder dergleichen) nur unvollkommen gelingt. Zugleich erzeugt das Simulationssystem5 anhand derselben Solldaten und ausgehend von einem in dem Simulationssystem gespeicherten Robotermodell in der virtuellen Welt V dieselbe Sollstellung bei dem virtuellen Roboter2' und bestimmt die zugeordneten zu erwartenden Bilddaten aus Sicht der virtuellen Kamera2.3' . - Die Kamera
2.3 am Ende der kinematischen Kette des Roboters2 nimmt ein reales Bild im Arbeitsbereich A des Roboters2 auf, das – wie vorstehend erwähnt – zur Bildverarbeitungseinrichtung8 weitergeleitet wird. Idealerweise wird der Bildinhalt dieses realen Bildes von einem relevanten Objekt3 im Vordergrund beherrscht und nicht von der weiteren Umgebung des Arbeitsbereiches A. Vorteilhaft ist es weiterhin, kontrast- bzw. kantenreiche Regionen zu beobachten. Die konkrete Struktur der in der1 gezeigten erfindungsgemäßen Vorrichtung sorgt durch die Verbindung7.2 dafür, dass die Stellung des realen Roboters2 hinsichtlich der verwendeten Steuerungsdaten (Positionsdaten) mit derjenigen innerhalb des 3D-Simulationssystems5 identisch ist. Hierbei ist es alternativ zu den vorstehend gemachten Aussagen auch möglich, dass die Sollstellung ursprünglich von dem Simulationssystem5 und nicht von der Robotersteuerung7 generiert wird. Auf diese Weise stehen der simulierte virtuelle Roboter2' und die virtuelle Kamera2.3' bei einer dem realen Roboter2 und der Kamera2.3 entsprechenden Ideal-Stellung. Dementsprechend erzeugt die virtuelle Kamera2.3' in der virtuellen Welt V ein Bild, auf dem der Roboter2' die Sollstellung in idealer Weise korrekt anfährt bzw. angefahren hat. Dieses (virtuelle) Bild wird – wie vorstehend bereits erläutert – ebenfalls zur Bildverarbeitungseinrichtung8 übertragen. - Erfindungsgemäß lassen sich mittels des 3D-Simulationssystems
5 , z.B. einem Roboter-Simulationssystem, hochqualitative, virtuelle Ansichten mittels "virtueller Kameraobjekte" innerhalb einer dynamischen, realitätsnahen Simulation erzeugen. Dabei wird insbesondere auf den Beleuchtungsverhältnissen die in einer realen Anlage vorliegende Rechnung getragen, indem innerhalb der virtuellen Welt entsprechend virtuelle Lichtquellen angeordnet werden, mittels derer die Lichtverhältnisse auf dem simulierten Objekt3' realitätsnah nachempfunden werden. - Die virtuellen Kamerabilder liefern daher ein Echtzeit-Bild aus der simulierten Welt V und stellen auf diese Weise Sollzustände bzw. die entsprechenden erwarteten Bilder dar, die anschließend in einem zweiten Schritt in der Vergleichseinrichtung
8 mit Bilddaten der realen Kamera2.3 verglichen werden können. Die gute Qualität der errechneten Bilder und die gleichzeitige Modellierbarkeit beispielsweise von Kameraverzerrungen ermöglicht auf diese Weise ein einfaches Korrelieren der realen und der erwarteten (virtuellen) Bilder. Somit ist die als Vergleichseinrichtung arbeitende Bildverarbeitungseinrichtung8 in der Lage, mittels Korrelationsverfahren Ausgangssignale zu erzeugen, die sich aus einer Stellungsabweichung des realen Roboters2 gegenüber zu einem virtuellen Abbild2' ergeben und die über die Leitung7.3 der Steuerungseinrichtung7 zuführbar und dort entsprechend zu einer Stellungskorrektur des Roboters2 nutzbar sind. Das Ergebnis der Bildverarbeitung ist im Idealfall direkt eine exakte mehrdimensionale Stellungsabweichung PD des realen Roboters2 , vorzugsweise eine sechsdimensionale Abweichung im Falle eines Sechsachs-Industrieroboters. Die Stellungsabweichung PD kann erfindungsgemäß auf verschiedene Weisen verwendet werden, um die Unterschiede zwischen realen und virtuellen Bilddaten und darüber letztendlich die Stellungsabweichung PD selbst zu minimieren: - 1. Bewegen des Roboters
2 um PD; - 2. Verschieben des virtuellen Objekts
3' um PD; - 3. Verschieben des realen Objekts
3 um PD-1. - Im Falle eines Bewegens des realen Roboters
2 kann eine gewünschte Position bezüglich des Objekts3 einmalig richtig angefahren werden, wobei jedoch der entsprechende Korrekturvorgang bei jeder neuen Position erneut ausgeführt werden muss. Im Falle eines Bewegens eines realen Objekts3 wird dessen Zuführung so verändert, dass es stets in einer der Simulation entsprechenden Lage im Arbeitsbereich A des Roboters2 ankommt; es handelt sich hierbei also um eine nachhaltige Veränderung, durch die Stellungsabweichungen in der Zukunft auch ohne erneute Anwendung des erfindungsgemäßen Verfahrens vernachlässigbar klein werden. Umgekehrt lässt sich auch die Lage des virtuellen simulierten Objekts derart verändern, dass es stets in einer der Realität entsprechenden Lage vorliegt; auch hierbei handelt es sich um eine nachhaltige Veränderung. Entsprechend gilt für zukünftige Stellungsabweichungen das vorstehend Gesagte. - Aufgrund der Tatsache, dass es in den beiden letztgenannten Fällen zu einer nachhaltigen Veränderung der gemäß der
1 in dem Simulationssystem5 gespeicherten Modelldaten des Roboters2 selbst sowie dessen Arbeitsbereichs A (Arbeitszelle) kommt, ergibt sich der Vorteil, dass Teile der in1 gezeigten Hardware, wie die Vergleichseinrichtung8 und das Simulationssytem5 – die, wie gesagt, auch zusammen mit der Steuerungseinrichtung7 integriert und insbesondere als in Letzterer ablaufende Programme ausgebildet sein können – nach einmaliger Durchführung des erfindungsgemäßen Verfahrens wieder verfügbar und entsprechend an anderen Robotern einsetzbar sind. - Die
2 stellt schematisch, jedoch deutlich überzeichnet, die zu erwartenden Bildunterschiede zwischen dem Bild9 der realen Kamera2.3 und dem Bild9' der simulierten Kamera2.3' an einem einfachen Beispiel dar. In der Praxis besitzen Orientierungsunterschiede – in der2 anhand eines Verdrehens des realen Bilds9 aus der Zeichenebene heraus – gegenüber translatorischen Verrückungen eine klei nere Relevanz, was die Bildverarbeitung in der Vergleichseinrichtung8 (1 ) entlastet, so dass hier schnellere Verfahren zum Einsatz kommen können. - Die
3 zeigt anhand eines Ablaufdiagramms detailliert den Ablauf des erfindungsgemäßen Verfahrens zum Steuern eines Handhabungsgeräts, wie es insbesondere bei Verwendung einer erfindungsgemäßen Vorrichtung gemäß der1 durchführbar ist. Zunächst werden in Schritt S1 und Schritt S2 ein virtuelles Bild bzw. ein reales Bild durch die Kamera2.3' bzw.2.3 (1 ) bereitgestellt. Anschließend erfolgt in Schritt S3 ein Bildvergleich, insbesondere in der Vergleichseinrichtung8 der1 , dessen Ergebnis die Stellungsabweichung PD ist. Anhand einer konkreten Beschaffenheit von PD erfolgt in Schritt S4 die Abfrage, ob die ermittelte Stellungsabweichung klein genug ist. Ist dies der Fall (j), so wird das erfindungsgemäße Verfahren, das sich auch als Kalibriervorgang bezeichnen lässt, in Schritt S5 beendet. Anderenfalls (n), d.h. im Falle einer zu großen Abweichung erfolgt in Schritt S6 eine weitere Abfrage, auf welche der drei vorstehend angesprochenen Arten eine Minimierung der Stellungsabweichung PD erfolgen soll. Im Falle einer ersten Alternative (1) wird in Schritt S7 eine Stellung des Roboters angepasst, indem die aktuelle Position der realen Kamera2.3 (1 ) um PD verändert wird. Im Zuge einer zweiten Alternative (2) wird zunächst aus PD eine inverse Abweichung PD-1 bestimmt (Schritt S8; z.B. durch Matrix-Inversion) und danach die Lage des realen Objektes3 (1 ) um PD-1 verschoben (Schritt S9). Als dritte Alternative (3) kann das virtuelle Objekt3' (1 ) um PD verschoben werden (Schritt S10). In den Fällen der Alternativen (1) und (2) wird nach erfolgtem Verschieben in Schritt S2 erneut ein reales Bild durch die Kamera2.3 (1 ) aufgenommen und in Schritt S3 ein erneuter Bildvergleich mit dem virtuellen Bild vorgenommen. Entsprechendes gilt im Falle der Alternative (3) für das virtuelle Bild. Anschließend wird der Verfahrensablauf mit der Abfrage in Schritt S4 so lange iterativ wiederholt; bis die Abfrage S4 bejaht wird (j), d.h. bis eine hinreichend kleine Stellungsabweichung PD für den realen Roboter2 (1 ) erreicht ist. Mit anderen Worten: Aus den in den Schritten S7, S9 und/oder S10 durchgeführten Verschiebungen ergeben sich Stellungs- und dadurch bedingt Bildänderungen, die zu einer verbesserten Übereinstimmung von virtuellem und realem Bild führen. Der Vorgang wird so lange wiederholt, bis die Bildunterschiede hinreichend klein sind oder sich nicht mehr substantiell verbessern. - Die
4 stellt einen schematisierten Programmablauf dar, mit dem eine einfache Möglichkeit der Einbindung des erfindungsgemäßen Verfahrens in ein Bewegungsprogramm10 für den Roboter2 , wie es beispielsweise in der in1 gezeigten Steuerungseinrichtung7 abläuft, gezeigt werden soll. Dabei führt der Roboter aufgrund der Anweisungen des Bewegungsprogramms10 eine bezüglich der erfindungsgemäßer Stellungskorrektur übergeordnete Bewegung, wie zum Ergreifen eines Werkstücks, aus. Während der in3 als "calibrate" bezeichneten Anweisung (fett gesetzt), wird das vorstehend anhand der4 erläuterte erfindungsgemäße Verfahren ausgeführt. Danach ist der Roboter relativ zum Objekt genau ausgerichtet, und die Funktion "calibrate" liefert als Ausgabe die ermittelte Positionsdifferenz PD bezüglich der ursprünglich geplanten Position in Weltkoordinaten. Dabei werden anschließende Bewegungen des Roboters ("move") mittels einer homogenen Transformation (Operator "@") um PD verschoben. Wird das erfindungsgemäße Verfahren nur einmal zur Justage, wie vorstehend anhand einer Anpassung von Modellparametern beschrieben, eingesetzt, so wird der vorstehend beschriebene Vorgang nicht innerhalb des Programmablaufs des Bewegungsprogramms10 , sondern offline durchgeführt. Dabei handelt es sich um einen gesonderten Offline-Prozess, bei dem die relevanten Parameter angepasst werden, die anschließend im Programmablauf analog der4 Verwendung finden. - Die
5 zeigt eine schematische Aufsicht auf einen Arbeitsbereich A des Roboters2 und beschreibt eine weitere erfindungsgemäße Vorrichtung1' , deren Ausgestaltung im Wesentlichen derjenigen der1 entspricht. Dementsprechend sind für entsprechende Zeichnungselemente dieselben Bezugszeichen verwendet worden. Die Darstellung der Verbindung8.2 zwischen Simulationssystem5 und Vergleichseinrichtung8 als gestrichelte Linie soll den bereits vorstehend anhand der1 beschriebenen virtuellen Charakter dieser Verbindung verdeutlichen. - Zusätzlich zu der bereits anhand der
1 detailliert beschriebenen, am distalen Ende2.1 des Roboters2 montierten Kamera2.3 weist die erfindungsgemäße Vorrichtung1' gemäß der5 zusätzlich statisch montierte Bildgebungseinrichtungen11 ,11' in Form von Kameras auf, die ebenso wie die Kamera2.3 über eine Leitung8.1 mit der Vergleichseinrichtung8 verbunden sind. Eine der beiden in der5 gezeigten statisch montierten Kameras11 ,11' ist oberhalb des Fördermittels4 an einer Halteeinrichtung12 in Form eines Portalrahmens montiert, während die andere statische Kamera seitlich des Fördermittels4 angeordnet ist, beispielsweise an einem Pfosten. - Die statisch montierten Kameras
11 ,11' nehmen die Objekte3 dabei nur aus einer konstanten Distanz auf. Die so gewonnen realen Bilder können ergänzend zu dem bereits erläuterten erfindungsgemäßen Verfahren mit in der Vergleichseinrichtung8 abgelegten erlernten Mustern verglichen werden. Dagegen werden die von der Kamera2.3 am Roboter2 gelie ferten Bilder mit Ansichten verglichen, die – wie vorstehend anhand der1 erläutert – aus einer Simulation stammen, wodurch sich der Roboter2 relativ zu den Objekten3 passend ausrichten kann. Der ebenfalls vorstehende erläuterte iterative Prozess, der jeweils zum Einsatz kommt, führt zu einer optimalen Übereinstimmung zwischen virtuellem und realem Bild, so dass die relative Stellung des Roboters2 einer durch eine Offline-Programmierung vorgegebenen Stellung bestmöglich entspricht. - Das erfindungsgemäße Verfahren zum Steuern eines Handhabungsgeräts verbunden mit einer Minimierung ermittelter Stellungsabweichungen kann auch gemeinsam mit Triangulationsverfahren zur Abstandsbestimmung angewendet werden, mit deren Hilfe sich die Auflösung einer Abstandsbestimmung verbessern lässt. Erfindungsgemäß wird hierbei die ohnehin vorhandene Kamera
2.3 ,11 ,11' zur Aufnahme des Objekts3 verwendet, wobei das Objekt3 mit einem Laserpunkt oder mit strukturiertem Licht beleuchtet wird. Die somit erreichbare verbesserte Abstandsauflösung wird in Schritt S3 der3 zur genauen Bestimmung der Stellungsabweichung PD benutzt und so in das erfindungsgemäße Verfahren eingebunden. Die6 stellt schematisch eine solche Entfernungsmessung unter Verwendung von strukturiertem Licht, hier mit einem Linienmuster L, L', dar. Zu diesem Zweck weist eine erfindungsgemäße Vorrichtung1 ,1' zusätzlich eine Lichtquelle13 auf, die zum Aussenden geeignet strukturiertem Lichts ausgebildet ist und mit deren Hilfe das Objekt3 bzw. dessen Oberfläche3a beleuchtet wird. Die Kamera2.3 ,11 ,11' ist dabei abseits einer optischen Achse O der Lichtquelle13 angeordnet. - Aufgrund der Tatsache, dass die Kamera
2.3 ,11 ,11' nicht auf der optischen Achse O der Lichtquelle13 liegt, ergibt sich je nach Betrachtungswinkel α ein Linienmuster L, L' auf dem Objekt3 , aus dem sich in an sich bekannter Weise eine Entfernung und ein Höhenprofil des Objekts3 bestimmen lässt. Das vorstehend skizzierte Messverfahren kann in die beispielsweise anhand der3 beschriebene geschlossene erfindungsgemäße Steuerungsschleife eingebunden werden, um so eine ideale Ausrichtung von Roboter2 und Objekt3 zu erreichen. Vorteilhafterweise wird hierbei sowohl die Kamera2.3 als auch die Lichtquelle13 mitgeführt. Im Unterschied zu direkten Bilddaten, die aus Helligkeits- und Farbwerten bestehen, werden in diesem Falle in der Vergleichseinrichtung8 (1 ,5 ) Muster ausgewertet, die durch das strukturierte Licht auf der Oberfläche des Objekts erzeugt werden. Entsprechend wird in diesem Fall durch die Simulation ein entsprechendes Höhenprofil des Objekts ermittelt und mit demjenigen realen Höhenprofil verglichen, das sich aus der Beleuchtung des Objekts mit strukturiertem Licht ergibt. Entsprechend der3 werden anschließend mittels eines iterativen Prozesses die ermittelten Stellungsabweichungen des Roboters relativ zum Objekt bestmöglich ausgeglichen. - Grundlegendes Merkmal der vorstehend detailliert beschriebenen Erfindung ist demnach das Liefern virtueller erwarteter Bilder an eine Vergleichseinrichtung zum Vergleichen mit von einer am Roboter angeordneten Bildgebungseinrichtung aufgenommenen realen Bildern. Das Anpassen einer realen Stellung des Roboters lässt sich auf diese Weise mit wesentlich weniger Parametrisierungsaufwand sowie dynamischer und universeller als bislang bekannt einsetzen. Es ist somit möglich, flexiblere Aufgaben zu erfüllen, ohne zuvor jeweils ein Bildverarbeitungssystem mittels einer Vielzahl realer Bilder neu im Hinblick auf eine bestimmte Verfahrenssituation trainieren zu müssen. Ein weiterer Vorteil besteht darin, dass erfindungsgemäß eine Vergleichsmöglichkeit gegeben ist, ohne dass hierzu jemals reale Bil der, die als Sollbilder geeignet wären, aufgenommen werden müssten. Letzteres wäre zur Realisierung des vorstehend beschriebenen geschlossen Steuerkreises der Erfindung in der Praxis auch gar nicht bzw. nur angenähert möglich, da hierbei ein fragliches Objekt in Abhängigkeit zu einer konkreten realen Stellung des Roboters aus wahlfreien Richtungen betrachtet werden muss.
- Erfindungsgemäß kann z.B. eine Kamera am Ende der kinematischen Kette eines Roboters dazu verwendet werden, über einen Vergleich mit einer simulierten Sollansicht eine Ausrichtung des Roboters relativ zu einem Objekt abzuleiten. Auf diese Weise lässt sich insbesondere im Rahmen einer Qualitätssicherung eine bislang unerreichte Genauigkeit und Effizienz erzielen, da die Ansichten der Simulation einem fehlerfreien Ideal, beispielsweise den CAD-Daten eines Werkstücks, entsprechen. Ein Roboter kann auf diese Weise ein Objekt (Werkstück) von allen Seiten inspizieren und ständig Ist-Soll-Vergleiche auswerten, um so etwa Verunreinigungen oder Fertigungstoleranzen des Werkstücks zu erkennen, ohne dass hierzu jemals Aufnahmen eines realen Soll-Objektes angefertigt wurden. Zudem wird die Möglichkeit einer automatischen Selbstjustage (Kalibrierung) mit dem erfindungsgemäßen Verfahren erheblich vereinfacht.
- Schließlich führt die Möglichkeit einer nachhaltigen Annäherung von Modell und Realität – wie vorstehend beschrieben – dazu, dass nach Anwendung des erfindungsgemäßen Verfahrens Ungenauigkeiten einer Robotermodernierung derart klein werden können, dass das erfindungsgemäße Verfahren im Zuge weiterer Offline-Programmierung des Roboters nicht erneut angewendet werden muss und die entsprechende Hardware wieder für andere Aufgaben, wie der erfindungsgemäßen Steuerung weiterer Handhabungsgeräte, zur Verfügung steht.
-
- 1, 1'
- Vorrichtung
- 2
- realer Roboter
- 2'
- virtueller Roboter
- 2.1
- realer Roboterarm
- 2.1'
- virtueller Roboterarm
- 2.1a
- distales Ende
- 2.2
- reales Werkzeug
- 2.2'
- virtuelles Werkzeug
- 2.3
- reale Kamera
- 2.3'
- virtuelle Kamera
- 3
- reales Objekt, Werkstück
- 3'
- virtuelles Objekt
- 3a
- Oberfläche
- 4
- reales Fördermittel
- 4'
- virtuelles Fördermittel
- 5
- Simulationssystem
- 6
- Anzeigeeinrichtung
- 7
- Steuerungseinrichtung
- 7.1, 7.2, 7.3
- Verbindung
- 8
- Vergleichseinrichtung
- 8.1, 8.2
- Verbindung
- 9
- reales Bild
- 9'
- virtuelles Bild
- 10
- Roboterprogramm
- 11, 11'
- statische Kamera
- 12
- Halteeinrichtung
- 13
- Lichtquelle
- A
- Arbeitsbereich
- α
- Betrachtungswinkel
- B
- (Bildaufnahme-)Bereich
- j
- bejahte Abfrage
- L,L'
- Lichtstreifen
- n
- verneinte Abfrage
- O
- Optische Achse
- PD
- Stellungsabweichung, Stellungsdifferenz
- PD-1
- inverse Stellungsabweichung
- S1-S10
- Verfahrensschritte
- V
- virtuelle Welt
Claims (15)
- Verfahren zum Steuern eines Handhabungsgeräts, wie eines Mehrachs-Industrieroboters, wobei zunächst ein erwartetes Bild eines Objekts in einem Arbeitsbereich des Handhabungsgeräts mit einem realen Bild des Objekts verglichen wird, anschließend eine Stellungsabweichung des Handhabungsgerätes bestimmt wird und dann Bewegungen zur Minimierung der Stellungsabweichung durchgeführt werden.
- Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass das erwartete Bild in Abhängigkeit von einer Stellung des Handhabungsgeräts anhand eines Modells zumindest des Handhabungsgeräts virtuell bestimmt wird.
- Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass das reale Bild von einer an dem Handhabungsgerät angeordneten Bildgebungseinrichtung geliefert wird.
- Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass zur Minimierung der Stellungsabweichung eine Stellung des Handhabungsgeräts verändert wird.
- Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass zur Minimierung der Stellungsabweichung das Objekt bewegt wird.
- Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass zur Minimierung der Stellungsabweichung ein Abbild des Objekts bewegt wird.
- Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass als Stellungsabweichung eine im Wesentlichen exakte mehrdimensionale Stellungsdifferenz ermittelt wird.
- Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass die Minimierung der Stellungsabweichung im Wesentlichen in Echtzeit während einer übergeordneten Bewegung des Handhabungsgeräts erfolgt.
- Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, dass die Minimierung der Stellungsabweichung durch Anpassen eines Modells zumindest des Handhabungsgeräts erfolgt.
- Vorrichtung zum Steuern eines Handhabungsgeräts wie eines Mehrachs-Industrieroboters, mit einer Bildgebungseinrichtung (
2.3 ) zum Bereitstellen eines realen Bildes (9 ) eines Objekts (3 ) in Abhängigkeit von einer realen Stellung des Handhabungsgeräts (2 ), einer Bestimmungseinrichtung (5 ) zum Bestimmen eines erwarteten Bildes (9' ) des Objekts (3 ) in Abhängigkeit von einer vorgege benen Stellung des Handhabungsgeräts (2 ) und einer Vergleichseinrichtung (8 ) für das reale (9 ) und das erwartete Bild (9' ) zum Ermitteln einer Stellungsabweichung (PD) des Handhabungsgeräts (2 ), wobei ein Ausgangssignal der Vergleichseinrichtung (8 ) zum Minimieren der Stellungsabweichung (PD) nutzbar ist. - Vorrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die Bildgebungseinrichtung (
2.3 ) eine an dem Handhabungsgerät (2 ) angeordnete Kamera ist. - Vorrichtung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die Bestimmungseinrichtung (
5 ) zum virtuellen Bestimmen eines erwarteten Bildes (9' ) anhand eines Modells zumindest des Handhabungsgeräts (2 ) ausgebildet ist. - Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass eine Steuerungseinrichtung (
7 ) des Handhabungsgeräts (2 ) programmtechnisch zugleich als Vergleichseinrichtung (8 ) und als Bestimmungseinrichtung (5 ) ausgebildet ist. - Vorrichtung nach einem der Ansprüche 10 bis 13, dadurch gekennzeichnet, dass durch das Ausgangssignal (PD) eine Bewegung des Handhabungsgeräts (
2 ) und/oder des Objekts (3 ) in Echtzeit beeinflussbar ist. - Vorrichtung nach einem der Ansprüche 10 bis 16, dadurch gekennzeichnet, dass durch das Ausgangssignal (PD) ein Modell zumindest des Handhabungsgeräts (
2 ) dauerhaft anpassbar ist.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2003151669 DE10351669B4 (de) | 2003-11-05 | 2003-11-05 | Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2003151669 DE10351669B4 (de) | 2003-11-05 | 2003-11-05 | Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10351669A1 true DE10351669A1 (de) | 2005-06-09 |
DE10351669B4 DE10351669B4 (de) | 2012-09-13 |
Family
ID=34559351
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2003151669 Expired - Fee Related DE10351669B4 (de) | 2003-11-05 | 2003-11-05 | Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10351669B4 (de) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006003555A1 (de) * | 2006-01-25 | 2007-07-26 | Edag Engineering + Design Ag | Steuerung für eine Werkzeug-Sensor-Vorrichtung |
DE102007009851B3 (de) * | 2007-02-28 | 2008-05-29 | Kuka Roboter Gmbh | Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt |
DE102008023955A1 (de) * | 2008-05-16 | 2009-11-19 | Kuka Roboter Gmbh | Verfahren zur Simulation von Ereignissen und Abläufen von Luft-, Land- oder Wasserfahrzeugen und Simulationssystem |
DE102009034244A1 (de) * | 2009-07-22 | 2011-01-27 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zur Vermessung eines Bauteils |
DE102010042313A1 (de) | 2010-10-12 | 2012-04-12 | Robert Bosch Gmbh | Verfahren zur verbesserten Positionsbestimmung mit einem Navigationssystem und Navigationssystem hierzu |
DE102010042314A1 (de) | 2010-10-12 | 2012-04-12 | Robert Bosch Gmbh | Verfahren zur Ortsbestimmung mit einem Navigationssystem und Navigationssystem hierzu |
EP2500148A1 (de) * | 2011-03-17 | 2012-09-19 | KUKA Roboter GmbH | Verfahren und Vorrichtung zum Steuern eines Roboters mit Hilfe eines virtuellen Modells des Roboters |
CN102781631A (zh) * | 2010-03-10 | 2012-11-14 | 佳能株式会社 | 信息处理装置及控制该装置的方法 |
US8923602B2 (en) | 2008-07-22 | 2014-12-30 | Comau, Inc. | Automated guidance and recognition system and method of the same |
DE102013215430A1 (de) * | 2013-08-06 | 2015-02-12 | Lufthansa Technik Ag | Bearbeitungseinrichtung, Steuerungsverfahren und Bauteilaufnahmevorrichtung |
EP3171237A1 (de) * | 2015-11-18 | 2017-05-24 | Omron Corporation | Simulator, simulationsverfahren und simulationsprogramm |
CN110877334A (zh) * | 2018-09-05 | 2020-03-13 | 波音公司 | 用于机器人控制的方法和装置 |
CN112109075A (zh) * | 2019-06-20 | 2020-12-22 | 欧姆龙株式会社 | 控制系统和控制方法 |
EP3144751B1 (de) * | 2015-09-18 | 2021-10-27 | Siemens Aktiengesellschaft | Steuerungssystem sowie verfahren zum betrieb eines steuerungssystems mit einer realen und einer virtuellen steuerung zur prozessüberwachung |
US20210387350A1 (en) * | 2019-06-12 | 2021-12-16 | Mark Oleynik | Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning |
CN114174007A (zh) * | 2019-09-11 | 2022-03-11 | 西门子(中国)有限公司 | 自主式机器人工装系统、控制系统、控制方法及存储介质 |
US20220118618A1 (en) * | 2020-10-16 | 2022-04-21 | Mark Oleynik | Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning |
US11511435B2 (en) | 2017-05-22 | 2022-11-29 | Abb Schweiz Ag | Robot-conveyor calibration method, robot system and control system |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102018114867A1 (de) * | 2018-06-20 | 2019-12-24 | B. Strautmann & Söhne GmbH u. Co. KG | Verfahren zum Verbinden von Bauteilen |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE4421699A1 (de) * | 1994-06-21 | 1996-01-04 | Hartmut Prof Janocha | Verfahren zur sensorgestützten Anpassung oder Generierung von Posen zur Steuerung von Handhabungsgeräten zur Verbesserung der absoluten Posegenauigkeit dieser Handhabungsgeräte in Verbindung mit Off-line-Programmiersystemen und zur Übertragung von Roboterprogrammen auf verschiedene Exemplare der Handhabungsgeräte mit gleicher Aufgabe unter Reduzierung der Auswirkungen exemplarspezifischer Positionierunterschiede sowie Unterschiede im Aufbau der den einzelnen Handhabungsgeräten zugehörigen Arbeitszellen |
US5579444A (en) * | 1987-08-28 | 1996-11-26 | Axiom Bildverarbeitungssysteme Gmbh | Adaptive vision-based controller |
DE19814779A1 (de) * | 1998-04-02 | 1999-10-07 | Vitronic Dr Ing Stein Bildvera | Verfahren und Vorrichtung zum Steuern eines beweglichen Gegenstandes |
DE19826395A1 (de) * | 1998-06-12 | 1999-12-23 | Amatec Gmbh | Verfahren zum Erfassen und Kompensieren von kinematischen Veränderungen eines Roboters |
DE10133624A1 (de) * | 2000-07-13 | 2002-01-24 | Rolf Kleck | Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen |
WO2003034165A1 (en) * | 2001-10-18 | 2003-04-24 | Cimac Automaton Limited | Auto motion : robot guidance for manufacturing |
DE10159574A1 (de) * | 2001-10-15 | 2003-04-30 | Hermann Tropf | Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5231693A (en) * | 1991-05-09 | 1993-07-27 | The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration | Telerobot control system |
JPH0970780A (ja) * | 1995-09-06 | 1997-03-18 | Fanuc Ltd | ロボットのツール形状補正方式 |
DE10200534A1 (de) * | 2002-01-09 | 2003-07-24 | Siemens Ag | Verfahren zum kollisionsfreien Bewegen wenigstens zweier gegeneinander bewegbarer Gegenstände |
-
2003
- 2003-11-05 DE DE2003151669 patent/DE10351669B4/de not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5579444A (en) * | 1987-08-28 | 1996-11-26 | Axiom Bildverarbeitungssysteme Gmbh | Adaptive vision-based controller |
DE4421699A1 (de) * | 1994-06-21 | 1996-01-04 | Hartmut Prof Janocha | Verfahren zur sensorgestützten Anpassung oder Generierung von Posen zur Steuerung von Handhabungsgeräten zur Verbesserung der absoluten Posegenauigkeit dieser Handhabungsgeräte in Verbindung mit Off-line-Programmiersystemen und zur Übertragung von Roboterprogrammen auf verschiedene Exemplare der Handhabungsgeräte mit gleicher Aufgabe unter Reduzierung der Auswirkungen exemplarspezifischer Positionierunterschiede sowie Unterschiede im Aufbau der den einzelnen Handhabungsgeräten zugehörigen Arbeitszellen |
DE19814779A1 (de) * | 1998-04-02 | 1999-10-07 | Vitronic Dr Ing Stein Bildvera | Verfahren und Vorrichtung zum Steuern eines beweglichen Gegenstandes |
DE19826395A1 (de) * | 1998-06-12 | 1999-12-23 | Amatec Gmbh | Verfahren zum Erfassen und Kompensieren von kinematischen Veränderungen eines Roboters |
DE10133624A1 (de) * | 2000-07-13 | 2002-01-24 | Rolf Kleck | Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen |
DE10159574A1 (de) * | 2001-10-15 | 2003-04-30 | Hermann Tropf | Vorrichtung und Verfahren zur Korrektur der Bewegung von Greif- und Bearbeitungswerkzeugen |
WO2003034165A1 (en) * | 2001-10-18 | 2003-04-24 | Cimac Automaton Limited | Auto motion : robot guidance for manufacturing |
Non-Patent Citations (1)
Title |
---|
"IEEE Journal of Robotics and Automation", Vol. RA-3, No.5, October 1987, S.404-417 * |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102006003555B4 (de) * | 2006-01-25 | 2010-01-21 | Edag Gmbh & Co. Kgaa | Steuerung für eine Werkzeug-Sensor-Vorrichtung |
DE102006003555A1 (de) * | 2006-01-25 | 2007-07-26 | Edag Engineering + Design Ag | Steuerung für eine Werkzeug-Sensor-Vorrichtung |
DE102007009851B3 (de) * | 2007-02-28 | 2008-05-29 | Kuka Roboter Gmbh | Industrieroboter und Verfahren zum Bestimmen der Lage eines Industrieroboters relativ zu einem Objekt |
WO2008104426A3 (de) * | 2007-02-28 | 2008-11-13 | Kuka Roboter Gmbh | Industrieroboter und verfahren zum bestimmen der lage eines industrieroboters relativ zu einem objekt |
DE102008023955A1 (de) * | 2008-05-16 | 2009-11-19 | Kuka Roboter Gmbh | Verfahren zur Simulation von Ereignissen und Abläufen von Luft-, Land- oder Wasserfahrzeugen und Simulationssystem |
DE102008023955B4 (de) * | 2008-05-16 | 2010-04-01 | Kuka Roboter Gmbh | Verfahren zur Simulation von Ereignissen und Abläufen von Luft-, Land- oder Wasserfahrzeugen und Simulationssystem |
DE102009034529B4 (de) | 2008-07-22 | 2018-06-28 | Comau Llc | Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses |
US8923602B2 (en) | 2008-07-22 | 2014-12-30 | Comau, Inc. | Automated guidance and recognition system and method of the same |
DE102009034244A1 (de) * | 2009-07-22 | 2011-01-27 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zur Vermessung eines Bauteils |
CN102781631A (zh) * | 2010-03-10 | 2012-11-14 | 佳能株式会社 | 信息处理装置及控制该装置的方法 |
US9511493B2 (en) | 2010-03-10 | 2016-12-06 | Canon Kabushiki Kaisha | Information processing apparatus and method for controlling the same |
CN102781631B (zh) * | 2010-03-10 | 2015-09-09 | 佳能株式会社 | 信息处理装置及控制该装置的方法 |
DE102010042314A1 (de) | 2010-10-12 | 2012-04-12 | Robert Bosch Gmbh | Verfahren zur Ortsbestimmung mit einem Navigationssystem und Navigationssystem hierzu |
WO2012048988A1 (de) | 2010-10-12 | 2012-04-19 | Robert Bosch Gmbh | Verfahren zur ortsbestimmung mit einem navigationssystem und navigationssystem hierzu |
WO2012048983A1 (de) | 2010-10-12 | 2012-04-19 | Robert Bosch Gmbh | Verfahren zur verbesserten positionsbestimmung mit einem navigationssystem und navigationssystem hierzu |
DE102010042313A1 (de) | 2010-10-12 | 2012-04-12 | Robert Bosch Gmbh | Verfahren zur verbesserten Positionsbestimmung mit einem Navigationssystem und Navigationssystem hierzu |
DE102011014299A1 (de) * | 2011-03-17 | 2012-09-20 | Kuka Roboter Gmbh | Verfahren und Mittel zum Steuern einer Automatisierungseinrichtung, insbesodere eines Roboters |
EP2500148A1 (de) * | 2011-03-17 | 2012-09-19 | KUKA Roboter GmbH | Verfahren und Vorrichtung zum Steuern eines Roboters mit Hilfe eines virtuellen Modells des Roboters |
DE102013215430A1 (de) * | 2013-08-06 | 2015-02-12 | Lufthansa Technik Ag | Bearbeitungseinrichtung, Steuerungsverfahren und Bauteilaufnahmevorrichtung |
DE102013215430B4 (de) * | 2013-08-06 | 2016-07-14 | Lufthansa Technik Ag | Bearbeitungseinrichtung |
EP3144751B1 (de) * | 2015-09-18 | 2021-10-27 | Siemens Aktiengesellschaft | Steuerungssystem sowie verfahren zum betrieb eines steuerungssystems mit einer realen und einer virtuellen steuerung zur prozessüberwachung |
US10262406B2 (en) | 2015-11-18 | 2019-04-16 | Omron Corporation | Simulator, simulation method, and simulation program |
EP3171237A1 (de) * | 2015-11-18 | 2017-05-24 | Omron Corporation | Simulator, simulationsverfahren und simulationsprogramm |
US11511435B2 (en) | 2017-05-22 | 2022-11-29 | Abb Schweiz Ag | Robot-conveyor calibration method, robot system and control system |
CN110877334A (zh) * | 2018-09-05 | 2020-03-13 | 波音公司 | 用于机器人控制的方法和装置 |
EP3620273A3 (de) * | 2018-09-05 | 2020-06-10 | The Boeing Company | Verfahren und vorrichtung zur robotersteuerung |
US10821603B2 (en) | 2018-09-05 | 2020-11-03 | The Boeing Company | Methods and apparatus for robot control |
US20210387350A1 (en) * | 2019-06-12 | 2021-12-16 | Mark Oleynik | Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning |
CN112109075A (zh) * | 2019-06-20 | 2020-12-22 | 欧姆龙株式会社 | 控制系统和控制方法 |
CN112109075B (zh) * | 2019-06-20 | 2024-05-17 | 欧姆龙株式会社 | 控制系统和控制方法 |
CN114174007A (zh) * | 2019-09-11 | 2022-03-11 | 西门子(中国)有限公司 | 自主式机器人工装系统、控制系统、控制方法及存储介质 |
US20220118618A1 (en) * | 2020-10-16 | 2022-04-21 | Mark Oleynik | Robotic kitchen hub systems and methods for minimanipulation library adjustments and calibrations of multi-functional robotic platforms for commercial and residential enviornments with artificial intelligence and machine learning |
Also Published As
Publication number | Publication date |
---|---|
DE10351669B4 (de) | 2012-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE10351669B4 (de) | Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt | |
DE102009034529B4 (de) | Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses | |
EP1602456B1 (de) | Verfahren und Vorrichtung zum Steuern von Handhabungsgeräten | |
DE102005060967B4 (de) | Verfahren und Vorrichtung zum Einrichten einer Bahnkurve einer Robotervorrichtung | |
DE102015013161B4 (de) | Vorrichtung zum Einstellen eines Interferenzbereichs eines Roboters | |
DE112010000794B4 (de) | Verfahren zum Steuern eines Roboterwerkzeuges | |
EP2989872B1 (de) | Platziervorrichtung und platzierverfahren | |
DE102018112820B4 (de) | Teach-Positionskorrekturvorrichtung und Teach-Positionskorrekturverfahren | |
DE60127644T2 (de) | Lehrvorrichtung für einen Roboter | |
DE3144843A1 (de) | Verfahren zum betreiben eines als schweissroboter arbeitenden manipulators und dementsprechende steuerung | |
DE102015105687B4 (de) | Roboter | |
DE102019114070A1 (de) | Robotersystem zum montieren von komponenten und steuerverfahren dafür | |
DE102013113165A1 (de) | Kalibrierungsverfahren für Robotersystem | |
DE102020116342A1 (de) | Vorrichtung und verfahren zum erfassen des abweichungsausmasses der arbeitsposition eines werkzeugs | |
DE102005045854B3 (de) | Verfahren und System zur Kalibrierung einer Kamera in Produktionsmaschinen | |
EP3225322B1 (de) | Verfahren und biegemaschine zur herstellung eines mehrdimensional gebogenen biegeteils | |
DE102004024378B4 (de) | Verfahren zur robotergestützten Vermessung von Objekten | |
EP3587044A1 (de) | Verfahren zum greifen von objekten in einem suchbereich, steuereinheit und positioniersystem | |
DE102007029335A1 (de) | Programmierhandgerät | |
DE102015104582A1 (de) | Verfahren zum Kalibrieren eines Roboters an einem Arbeitsbereich und System zum Durchführen des Verfahrens | |
DE102007029398A1 (de) | Verfahren und Vorrichtung zum Programmieren eines Industrieroboters | |
EP1172183A2 (de) | Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen | |
DE112021004779T5 (de) | Vorrichtung zum Einstellen eines Parameters, Robotersystem, Verfahren und Computerprogramm | |
DE102005040714B4 (de) | Verfahren und System zur Erstellung eines Bewegungsablaufes für einen Roboter | |
EP1915239A2 (de) | Verfahren zum erzeugen eines umgebungsbildes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
R016 | Response to examination communication | ||
8127 | New person/name/address of the applicant |
Owner name: KUKA LABORATORIES GMBH, 86165 AUGSBURG, DE |
|
R081 | Change of applicant/patentee |
Owner name: KUKA LABORATORIES GMBH, DE Free format text: FORMER OWNER: KUKA ROBOTER GMBH, 86165 AUGSBURG, DE Effective date: 20110304 Owner name: KUKA ROBOTER GMBH, DE Free format text: FORMER OWNER: KUKA ROBOTER GMBH, 86165 AUGSBURG, DE Effective date: 20110304 |
|
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |
Effective date: 20121214 |
|
R081 | Change of applicant/patentee |
Owner name: KUKA ROBOTER GMBH, DE Free format text: FORMER OWNER: KUKA LABORATORIES GMBH, 86165 AUGSBURG, DE |
|
R082 | Change of representative |
Representative=s name: EGE LEE & PARTNER PATENTANWAELTE PARTGMBB, DE Representative=s name: FUNK & BOESS GBR, DE |
|
R082 | Change of representative |
Representative=s name: EGE LEE & PARTNER PATENTANWAELTE PARTGMBB, DE Representative=s name: BOESS, DIETER ALEXANDER, DIPL.-ING. (UNIV.), DE |
|
R081 | Change of applicant/patentee |
Owner name: KUKA DEUTSCHLAND GMBH, DE Free format text: FORMER OWNER: KUKA ROBOTER GMBH, 86165 AUGSBURG, DE |
|
R082 | Change of representative |
Representative=s name: BOESS, DIETER ALEXANDER, DIPL.-ING. (UNIV.), DE Representative=s name: EGE LEE & PARTNER PATENTANWAELTE PARTGMBB, DE |
|
R082 | Change of representative |
Representative=s name: BOESS, DIETER ALEXANDER, DIPL.-ING. (UNIV.), DE |
|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |