EP2125300A1 - Einrichtung zum steuern eines roboters - Google Patents

Einrichtung zum steuern eines roboters

Info

Publication number
EP2125300A1
EP2125300A1 EP08701126A EP08701126A EP2125300A1 EP 2125300 A1 EP2125300 A1 EP 2125300A1 EP 08701126 A EP08701126 A EP 08701126A EP 08701126 A EP08701126 A EP 08701126A EP 2125300 A1 EP2125300 A1 EP 2125300A1
Authority
EP
European Patent Office
Prior art keywords
robot
signals
control unit
unit
robot control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
EP08701126A
Other languages
English (en)
French (fr)
Inventor
Fan Dai
Anke Frohberger
Björn MATTHIAS
Joachim Unger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ABB Technology AG
Original Assignee
ABB Technology AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ABB Technology AG filed Critical ABB Technology AG
Publication of EP2125300A1 publication Critical patent/EP2125300A1/de
Ceased legal-status Critical Current

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39394Compensate hand position with camera detected deviation, new end effector attitude

Definitions

  • the invention relates to a device for controlling a robot.
  • Robots are used to process (of workpieces, in particular for. Example, for processing motor vehicle bodies, for example for welding or painting of car bodies.
  • the position and / or shape of the workpiece do not correspond exactly to the position and / or shape of the workpiece, which should be theoretically predetermined, z. B. it may be that edges of two pieces of sheet metal to be welded together are not exactly in the predetermined line, but obliquely thereto or both edges can form an angle with each other.
  • a sensor system which detects the actual conditions and controls the robot accordingly.
  • One method is to record the actual position and / or shape of the workpiece by means of a digital camera and to record and process the signals in an image acquisition and image processing device and to supply these signals to the robot control unit so that the robot compares the actual values can be controlled with the setpoints of the movement.
  • the robot moves a certain distance, stops taking an image that is being processed while the robot moves on to the next image acquisition point. This means that only discrete points in the control of a robot can be considered and the application cycle time can not be further reduced.
  • the object of the invention is to further improve a device of the type mentioned above, that the cycle time can be further reduced.
  • the invention accordingly consists in that the device for controlling a robot, with a robot control unit, with at least one sensor which generates a robot-mounted signal, the output signals of which are a signal acquisition device.
  • the output signals of the signal detection unit connected to the at least one sensor can be supplied to a signal processing device connected thereto and to a coordinate transformation device in which the signals coming from the signal image processing device and the robot control unit are processed into robot control signals which in turn are the robot control unit provided for controlling the robot movement, wherein the signals supplied from the robot control unit to the coordinate transformation unit are real-time robot data signals.
  • the movement data of the robot or the movement data of the tool center point are supplied in real time to the signal acquisition unit and / or the image processing device.
  • the device for controlling a robot is accordingly composed of a robot control unit, preferably of at least one robot-mounted camera whose output signals can be fed to an image acquisition unit, wherein the output signal of the image acquisition unit connected to the camera can be fed to an image processing unit connected to the image acquisition device, and formed from a coordinate transformation device in that the signals originating from the image processing device and the robot control unit are processed into robot control signals, which in turn are supplied to the robot control unit for controlling the robot movement, wherein the signals supplied from the robot control unit to the coordinate transformation unit via a signal line are real time robot data signals.
  • the robot control unit with the real-time robot data interface generates predicted and optionally current data of the tool center point of the robot with corresponding time markers. These data are calculated within the robot control unit with high accuracy and high update rates.
  • the camera is held by the robot and connected to the image processing unit, which according to the invention consists of three subunits:
  • the image processing device designed for example as a computer program product, may be located on an external computer or within the robot control unit but may also be part of the camera. It communicates with the robot control software modules via the above-mentioned real-time robot data interface.
  • the system times of the robot unit and possibly external computer unit must be synchronized;
  • the synchronization is based on a common time reference. This can be effected by methods known per se.
  • the image capture can be triggered or untriggered.
  • a trigger signal either digital or analog
  • the image processing device performs the image processing during each internal process loop.
  • the current time is captured and associated with the image data and any subsequent data associated with the image.
  • the signals transmitted by the camera into the image acquisition unit are assigned to one another in accordance with the coordinate system of the camera, whereas the image coordinate system is a two-dimensional coordinate system, whereas with a distance measurement or two appropriately assigned cameras depending on the arrangement of a camera, a three-axis, spatial Coordinate system can be used. If several cameras are provided, the images are arranged in a common overall coordinate system, so that it is easy to determine where the object is located.
  • These two-dimensional or three-dimensional data generated in the image processing device are converted in the coordinate transformation device into those coordinates that are assigned to the robot, so that the robot control unit is able to perform the AüSyänyssiyiiaie the Koor ⁇ inatentransformations worn record and process further. Coordinate transformations are carried out according to methods known per se, so that they will not be described in more detail here.
  • the position of the camera at the time of image acquisition which can be calculated by interpolation, using the predicted robot tool center point data.
  • the current robot tool center point data may be used to additionally provide improved proximity.
  • These positions may be utilized by a process control unit or used for the robot control unit for further processing, i. for a regulation of the robot.
  • a camera with a distance sensor can be used, whereby the position of the object can be determined in space.
  • two cameras can be used, which allow a three-dimensional image capture.
  • other sensors with distance measuring devices with which the position and / or shape of the workpiece to be machined can be determined in space.
  • FIG. 1 A schematic flow diagram representation of the device according to the invention.
  • a Rohnter 10 carries crr, free EnJe his movable arm 11, a digital camera 12, the output signals via a signal line 13 of an image acquisition unit 14 are supplied.
  • the output signals of the image acquisition unit 14 are supplied to an image processing device 15 whose output signals are forwarded to a coordinate transformation unit 16.
  • the robot 10 is controlled by a robot control unit 17, which transmits to the coordinate transformation unit 16 via a first signal line 18 real-time robot data.
  • the signals supplied from the image processing device 15 and from the robot controller 17 to the coordinate transformation unit 16 are processed there, transformed into robot readable or interpretable coordinates, and supplied to the robot control unit 17 via a second signal line 19, thereby establishing a control loop for the robot controller ,
  • the signal lines 13, 18, and 19 may be formed by connecting lines; Bus connections or internal data connections can also be used.

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Die Erfindung betrifft eine Einrichtung zum Steuern eines Roboters (10), mit einer Robotersteuereinheit (17), mit wenigstens einer am Roboter angebrachten digitalen Kamera (12), deren Ausgangssignale einer Bilderfassungseinheit (14) zuführbar sind. Die Ausgangssignale der mit der Kamera (12) verbundenen Bilderfassungseinheit sind einer mit dieser verbundenen Bildverarbeitungseinrichtung (15) zuführbar. Mit einer Koordinatentransformationseinrichtung (16), in der die von der Bildverarbeitungseinheit (15) und der Robotersteuereinheit (17) herkommenden Signale zu Robotersteuersignalen verarbeitet und transformiert werden, sind wieder der Robotersteuereinheit (17) zuführbar.

Description

Einrichtung zum Steuern eines Roboters
Beschreibung
Die Erfindung betrifft eine Einrichtung zum Steuern eines Roboters.
Roboter werden eingesetzt zur Bearbeitung (von Werkstücken, insbesondere z. B. zum Bearbeiten von Kraftfahrzeugkarosserien, beispielsweise zum Verschweißen oder Lackieren der Karosserien. Zu diesem Zweck ist es erforderlich, dem Roboter einen Bewegungsablauf vorzugeben, d. h. den gewünschten Bewegungsablauf in eine Robotersteuereinheit einzugeben, so dass der Roboterarm bzw. das daran befestigte Werkstück die Karosserie in der vorgegebenen Weise bearbeitet.
Bei der Bearbeitung kann es vorkommen, dass die Lage und/oder Form des Werkstücks nicht genau der Lage und/oder Form des Werkstücks entsprechen, die theoretisch vorgegeben sein sollen, z. B. kann es sein, dass Kanten zweier miteinander zu verschweißender Blechstücke nicht exakt in der vorgegebenen Linie liegen, sonder schräg dazu oder beide Kanten können einen Winkel untereinander bilden.
Damit derartige Ungenauigkeiten in Form und/oder Lage das Bearbeitungsergebnis nicht beeinträchtigen, ist ein Sensorsystem vorzuziehen, das die tatsächlichen Gegebenheiten erfasst und den Roboter entsprechend ansteuert.
Die Positionsgenauigkeit eines Roboters an sich ist ausreichend, so dass dessen Toleranzen eher vernachlässigbar sind. Andererseits kann es in seltenen Fällen doch vorkommen, dass die Positioniergenauigkeit nicht optimal ist. Dieses kann - in glei- eher Weise - mit solchen oben beschriebener. Sensüien ebenfaiis erfasst und korrigiert werden. Dennoch richtet sich das Hauptaugenmerk eher auf Ungenauigkeiten und Abweichungen der Lage und/oder Form eines zu bearbeitenden Werkstücks.
Eine Methode besteht darin, mittels einer digitalen Kamera die tatsächliche Lage und/oder Form des Werkstückes aufzunehmen und die Signale in einer Bilderfass- sungs- und Bildverarbeitungseinrichtung zu erfassen und zu verarbeiten sowie diese Signale der Robotersteuereinheit zuzuführen, so dass der Roboter nach Vergleich der Istwerte mit den Sollwerten der Bewegung angesteuert werden kann.
Hierbei ist es erforderlich, die Position der Kamera zu kennen. Wenn die Kamera am Roboter angebracht ist, wird sich ihre Position im Räume entsprechend der Bewegung des Roboters ändern, so dass es notwendig ist, den aktuellen Werkzeugmittelpunkt zu kennen. Das Steuerverfahren bei bekannten Einrichtungen geschieht wie folgt:
Der Roboter bewegt sich um eine bestimmte Strecke, hält an, wobei ein Bild aufgenommen wird, das verarbeitet wird, während sich der Roboter zur nächsten Bilderfassungsstelle weiterbewegt. Das bedeutet, dass nur diskrete Punkte bei der Steuerung eines Roboters betrachtet werden können und die Anwendungszykluszeit nicht weiter reduziert werden kann.
Anstatt einer digitalen Kamera können auch andere Sensoren verwendet werden, mit denen die genannten Messungen erfolgen können. Dabei ist auch hier festzuhalten, dass nur diskrete Punkte bei der Steuerung eines Roboters erfasst werden können, wodurch auch die Anwendungszykluszeit nicht weiter reduziert werden kann.
Aufgabe der Erfindung ist es, eine Einrichtung der Eingangs genannten Art weiter zu verbessern, dass die Zykluszeit weiter reduziert werden kann.
Diese Aufgabe wird erfindungsgemäß durch die Merkmale des Anspruches 1 gelöst.
Die Erfindung besteht demgemäß darin, dass die Einrichtung zum Steuern eines Roboters, mit einer Robotersteuereinheit, mit wenigstem einem am Roboter angebrachten Signale erzeugenden Sensor, dessen Ausgangssignale einer Signalerfassungs- einheit ∑-jführbsr sind, wobei die Ausgangssignaie der mit dem wenigstens einen Sensor verbundenen Signalerfassungseinheit einer mit dieser verbundenen Signalverarbeitungseinrichtung zuführbar sind, und mit einer Koordinatentransformationseinrichtung, in der die von der Signalbildverarbeitungseinrichtung und der Robotersteuereinheit herkommenden Signale zu Robotersteuersignalen verarbeitet werden, die wiederum der Robotersteuereinheit zum Steuern der Roboterbewegung zuführbar sind, versehen ist, wobei die von der Robotersteuereinheit der Koordinatentransformationseinheit zugeführten Signale Echtzeitroboterdatensignale sind.
Wesentlich hierbei ist, dass die Bewegungsdaten des Roboters bzw. die Bewegungsdaten des Werkzeugzentral punktes in Echtzeit der Signalerfassungseinheit und/oder der Bildverarbeitungseinrichtung zugeführt werden.
Die Einrichtung zum Steuern eines Roboters wird demgemäß aus einer Robotersteuereinheit, vorzugsweise wenigstens einer am Roboter angebrachten Kamera, deren Ausgangssignale einer Bilderfassungseinheit zuführbar sind, wobei die Ausgangssignaie der mit der Kamera verbundenen Bilderfassungseinheit einer mit der Bilderfassungseinrichtung verbundenen Bildverarbeitungseinheit zuführbar sind, und aus einer Koordinatentransformationseinrichtung gebildet, in der die von der Bildverarbeitungseinrichtung und der Robotersteuereinheit herkommenden Signale zu Robotersteuersignalen verarbeitet werden, die wiederum der Robotersteuereinheit zum Steuern der Roboterbewegung bzw. des Werkzeuges zugeführt werden, wobei die von der Robotersteuereinheit an die Koordinatentransformationseinheit über eine Signalleitung zugeführten Signale Echtzeitroboterdatensignale sind.
Die Robotersteuereinheit mit der Echtzeitroboterdatenschnittstelle erzeugt vorhergesehene und optional aktuelle Daten des Werkzeugzentralpunktes des Roboters mit korrespondierenden Zeitmarkierungen. Diese Daten werden innerhalb der Robotersteuereinheit mit hoher Genauigkeit und hohen Update-Raten berechnet. Die Kamera wird durch den Roboter gehalten und mit der Bildverarbeitungseinheit verbunden, welche erfindungsgemäß aus drei Untereinheiten besteht:
- Bilderfassungseinheit
- Bildverarbeitungseinrichtung
- Koordinatentransformationseinrichtung oder -einheit. Die Bildverarbeitungseinrichtung, beispielsweise als Computerprogrammprodukt ausgestaltet, kann sich auf einem externen Computer oder innerhalb der Robotersteuereinheit befinden aber auch Teil der Kamera sein. Sie kommuniziert mit den Robotersteuersoftwaremodulen über die oben genannte Echtzeitroboterdatenschnitt- stelle.
Wenn die Bildverarbeitungseinrichtung oder -einheit nicht Teil der Robotereinheit ist, dann müssen die Systemzeiten der Robotereinheit und ggf. externen Rechnereinheit synchronisiert werden; es besteht natürlich auch die Möglichkeit, dass die Synchronisierung auf einer gemeinsamen Zeitreferenz basiert. Dies kann mit an sich bekannten Verfahren bewirkt werden.
Die Bilderfassung kann getriggert oder ungetriggert sein. Im ersteren Falle, wenn die Bilderfassung getriggert durchgeführt wird, wird zu jedem Zeitpunkt der Bilderfassung ein Triggersignal (entweder digital oder analog) empfangen, welches durch den Roboter oder andere Vorrichtung erzeugt werden kann. Wenn die Bilderfassung ungetriggert erfolgt, dann führt die Bildverarbeitungseinrichtung die Bildverarbeitung während jeder internen Prozessschleife durch.
Während der Bilderfassung wird die aktuelle Zeit aufgenommen und den Bilddaten und allen folgenden dem Bild zugehörigen Daten zugeordnet.
Die von der Kamera in die Bilderfassungseinheit übertragenen Signale sind entsprechend dem Koordinatensystem der Kamera einander zugeordnet, wobei das Bildkoordinatensystem ein zweidimensionales Koordinatensystem ist, wogegen je nach Anordnung einer Kamera ggf. mit einer Abstandsmessung oder zweier in geeigneter Weise einander zugeordneter Kameras auch ein dreiachsiges, räumliches Koordinatensystem eingesetzt werden kann. Sind mehrere Kameras vorgesehen, sind die Bilder in einem gemeinsamen Gesamtkoordinatensystem eingerichtet, so dass einfach bestimmt werden kann, wo sich das Objekt befindet. Diese in der Bildverarbeitungseinrichtung erzeugten zweidimensionalen oder dreidimensionalen Daten werden in der Koordinatentransformationseinrichtung in solche Koordinaten umgerechnet, die dem Roboter zugeordnet sind, so dass die Robotersteuereinheit in der Lage ist, die AüSyänyssiyiiaie der Koorαinatentransformationseinrichtung aufzunehmen und weiter zu verarbeiten. Koordinatentransformationen werden nach an sich bekannten Methoden durchgeführt, so dass sie hier nicht näher beschrieben werden sollen.
Von Bedeutung ist die Position der Kamera zum Zeitpunkt der Bilderfassung, welche durch Interpolation berechnet werden kann, in dem man die vorhergesagten Robo- terwerkzeugzentralpunktdaten benutzt. Optional können die aktuellen Roboterwerk- zeugzentralpunktdaten verwendet werden, um zusätzlich eine verbesserte Annäherung zu erhalten.
Diese Stellungen bzw. Positionen können durch eine Prozesssteuereinheit genutzt oder zu der Robotersteuereinheit für die weitere Bearbeitung verwendet werden, d.h. für eine Regelung des Roboters.
Zur Erfassung der Lage und/oder Form, beispielsweise des Werkstückes, welches von dem Roboter bearbeitet wird, können z.B. eine Kamera mit einem Abstandssensor verwendet werden, wodurch die Lage des Objektes im Raum bestimmt werden kann. Darüber hinaus können auch zwei Kameras eingesetzt werden, die eine dreidimensionale Bilderfassung ermöglichen. Es besteht natürlich auch die Möglichkeit andere Sensoren mit Abstandsmeßeinrichtungen zu verwenden, mit denen die Lage und/oder Form des zu bearbeitenden Werkstückes im Raum festgestellt werden kann.
Weitere vorteilhafte Ausgestaltungen und Verbesserungen der Erfindung sind den weiteren Unteransprüchen zu entnehmen.
Anhand der Zeichnung, in der ein Ausführungsbeispiel der Erfindung dargestellt ist, sollen die Erfindung sowie weitere vorteilhafte Ausgestaltungen der Erfindung näher erläutert und beschrieben werden.
Es zeigt:
Einzige Fig. eine schematische Flussbilddarstellung der erfindungsgemäßen Einrichtung. Ein Rohnter 10 trägt crr, freien EnJe seines beweglichen Armes 11 eine digitale Kamera 12, deren Ausgangssignale über eine Signalleitung 13 einer Bilderfassungseinheit 14 zugeführt werden. Die Ausgangssignale der Bilderfassungseinheit 14 werden einer Bildverarbeitungseinrichtung 15 zugeführt, deren Ausgangssignale einer Koordinatentransformationseinheit 16 weitergeleitet werden.
Der Roboter 10 wird von einer Robotersteuereinheit 17 gesteuert, der an die Koordinatentransformationseinheit 16 über eine erste Signalleitung 18 Realzeitroboterdaten übermittelt. Die Signale, die von der Bildverarbeitungseinrichtung 15 und von der Robotersteuerung 17 der Koordinatentransformationseinheit 16 zugeführt werden, werden dort verarbeitet, in vom Roboter lesbare oder interpretierbare Koordinaten transformiert und über eine zweite Signalleitung 19 der Robotersteuereinheit 17 zugeführt, wodurch ein Regelkreis für die Robotersteuerung hergestellt ist.
Die Signalleitungen 13, 18, und 19 können durch Verbindungsleitungen gebildet sein; es können auch Busverbindungen verwendet werden oder interne Datenverbindungen.
Sie sollten hier nur andeuten, dass bestimmte Signale von einem Ausgang einer Einheit zu dem Eingang der nächstgelegenen Einheit übertragen werden.
Bezugszeichenliste
Roboter beweglicher Arm digitale Kamera Signalleitung Bilderfassungseinheit Bildverarbeitungseinrichtung Koordinatentransformationseinrichtung oder -einheit Robotersteuereinheit erste Signalleitung zweite Signalleitung

Claims

Patentansprüche
1. Einrichtung zum Steuern eines Roboters (10), mit einer Robotersteuereinheit (17), mit wenigstem einem am Roboter (10) angebrachten Signale erzeugenden Sensor (12), dessen Ausgangssignale einer Signalerfassungseinheit (14) zuführbar sind, wobei die Ausgangssignale der mit dem wenigstens einen Sensor (12) verbundenen Signalerfassungseinheit einer mit dieser verbundenen Signalverarbeitungseinrichtung (15) zuführbar sind, und mit einer Koordinatentransformationseinrichtung (16), in der die von der Signalverarbeitungseinrichtung (15) und der Robotersteuereinheit (17) herkommenden Signale zu Robotersteuersignalen verarbeitet werden, die wiederum der Robotersteuereinheit (17) zum Steuern der Roboterbewegung zuführbar sind, wobei die von der Robotersteuereinheit (17) der Koordinatentransfor- mationseinheit (16) zugeführten Signale Echtzeitroboterdatensignale sind.
2. Einrichtung nach Anspruch 1 , dadurch gekennzeichnet, dass als Sensor eine digitale Kamera dient, dass die Signalerfassungseinheit (14) eine Bilderfassungseinheit und die Signalverarbeitungseinrichtung (15) eine Bildverarbeitungseinrichtung ist.
3. Einrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Kamera mit einem Abstandsmesselement gekoppelt ist.
EP08701126A 2007-02-23 2008-01-16 Einrichtung zum steuern eines roboters Ceased EP2125300A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102007008903A DE102007008903A1 (de) 2007-02-23 2007-02-23 Einrichtung zum Steuern eines Roboters
PCT/EP2008/000278 WO2008101568A1 (de) 2007-02-23 2008-01-16 Einrichtung zum steuern eines roboters

Publications (1)

Publication Number Publication Date
EP2125300A1 true EP2125300A1 (de) 2009-12-02

Family

ID=39322522

Family Applications (1)

Application Number Title Priority Date Filing Date
EP08701126A Ceased EP2125300A1 (de) 2007-02-23 2008-01-16 Einrichtung zum steuern eines roboters

Country Status (5)

Country Link
US (1) US20100017032A1 (de)
EP (1) EP2125300A1 (de)
CN (1) CN101616776A (de)
DE (1) DE102007008903A1 (de)
WO (1) WO2008101568A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4844453B2 (ja) * 2007-04-09 2011-12-28 株式会社デンソーウェーブ ロボットの教示装置及び教示方法
DE102007060653A1 (de) * 2007-12-15 2009-06-18 Abb Ag Positionsermittlung eines Objektes
NO330598B1 (no) * 2010-03-10 2011-05-23 Seabed Rig As Fremgangsmåte og anordning for å sikre drift av automatisk eller autonomt utstyr
JP5803155B2 (ja) * 2011-03-04 2015-11-04 セイコーエプソン株式会社 ロボット位置検出装置及びロボットシステム
US9675419B2 (en) 2013-08-21 2017-06-13 Brachium, Inc. System and method for automating medical procedures
CN105395295B (zh) * 2015-11-24 2017-05-10 张海钟 一种用于口腔和牙齿治疗的机器人系统
US11154375B2 (en) 2018-02-02 2021-10-26 Brachium, Inc. Medical robotic work station

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07104692B2 (ja) * 1986-10-02 1995-11-13 トヨタ自動車株式会社 予見追跡制御型ロボツト
DE3635076A1 (de) * 1986-10-15 1988-04-28 Messerschmitt Boelkow Blohm Roboteranlage mit beweglichen manipulatoren
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
US4907169A (en) * 1987-09-30 1990-03-06 International Technical Associates Adaptive tracking vision and guidance system
US4969108A (en) * 1988-04-08 1990-11-06 Cincinnati Milacron Inc. Vision seam tracking method and apparatus for a manipulator
US4952772A (en) * 1988-11-16 1990-08-28 Westinghouse Electric Corp. Automatic seam tracker and real time error cumulative control system for an industrial robot
JP2779072B2 (ja) * 1991-01-28 1998-07-23 ファナック株式会社 ロボットの教示方法
JP3173042B2 (ja) * 1991-05-21 2001-06-04 ソニー株式会社 ロボットの数値制御装置
DE19814779A1 (de) * 1998-04-02 1999-10-07 Vitronic Dr Ing Stein Bildvera Verfahren und Vorrichtung zum Steuern eines beweglichen Gegenstandes
JP3300682B2 (ja) * 1999-04-08 2002-07-08 ファナック株式会社 画像処理機能を持つロボット装置
DE10133624A1 (de) * 2000-07-13 2002-01-24 Rolf Kleck Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
JP2003148914A (ja) * 2001-11-08 2003-05-21 Fanuc Ltd 位置検出装置及び位置検出を利用した取出し装置
JP3994950B2 (ja) * 2003-09-19 2007-10-24 ソニー株式会社 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置
JP2005108144A (ja) * 2003-10-02 2005-04-21 Fanuc Ltd ロボットの補正データ確認装置
WO2005039836A2 (de) * 2003-10-20 2005-05-06 Isra Vision Systems Ag Verfahren zur einrichtung einer bewegung eines handhabungsgeräts und bildverarbeitung
JP3946711B2 (ja) * 2004-06-02 2007-07-18 ファナック株式会社 ロボットシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See references of WO2008101568A1 *

Also Published As

Publication number Publication date
WO2008101568A1 (de) 2008-08-28
WO2008101568A8 (de) 2008-10-23
US20100017032A1 (en) 2010-01-21
CN101616776A (zh) 2009-12-30
DE102007008903A1 (de) 2008-08-28

Similar Documents

Publication Publication Date Title
EP2125300A1 (de) Einrichtung zum steuern eines roboters
DE102018009025B4 (de) Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems
DE102015000587B4 (de) Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks
DE102017009940B4 (de) Robotersteuervorrichtung mit Lernsteuerfunktion
DE102017128543B4 (de) Störbereich-einstellvorrichtung für einen mobilen roboter
DE3143834C2 (de)
EP2418555B1 (de) Verfahren zur Offline-Programmierung eines NC-gesteuerten Manipulators
DE102010023736B4 (de) Robotersystem mit Problemerkennungsfunktion
EP2216144B1 (de) Verfahren und System zur Kontrolle von Bauteilen und/oder Funktionseinheiten mit einer Prüfvorrichtung
EP3221094B1 (de) Verfahren und system zur korrektur einer bearbeitungsbahn eines robotergeführten werkzeugs
DE102013113165A1 (de) Kalibrierungsverfahren für Robotersystem
EP2500148B1 (de) Verfahren und Vorrichtung zum Steuern eines Roboters mit Hilfe eines virtuellen Modells des Roboters
DE102014117346B4 (de) Roboter, Robotersteuerungsverfahren und Robotersteuerungsprogramm zur Werkstückkorrektur
DE102006039356A1 (de) Verfahren zum Steuern eines Karosserierohbau-Laserschweißsystems und Karosserierohbau-Laserschweißsystem
DE102015011535A1 (de) Trajektorie-Anzeigevorrichtung zum Anzeigen von Motorende- und Maschinenende-Trajektorien
EP1152212B1 (de) Weitgehend selbsttätige Kalibrierung eines Betätigungsarmes eines Roboters
DE10351669A1 (de) Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt
EP1675709A2 (de) VERFAHREN ZUR EINRICHTUNG EINER BEWEGUNG EINES HANDHABUNGSGERÄTS UND BILDVERARBEITUNG
DE102013227146A1 (de) Verfahren zum automatisierten Montieren an einem Montagearbeitsplatz,sowie zugehöriger automatisierter Montagearbeitsplatz
DE10133624A1 (de) Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen
EP4056331A1 (de) Sicherer betrieb einer mehrachskinematik
DE102015117306A1 (de) Mehrachs-Maus für einen Mehrachsroboter
EP1459855A2 (de) Verfahren und Vorrichtung zur Verbesserung der Positioniergenauigkeit eines Arbeitsroboters
EP3706962B1 (de) Redundante diversitäre kollisionsüberwachung
DE102006041886A1 (de) Verfahren zur Positionierung von Werkstücken und Positioniersystem dazu

Legal Events

Date Code Title Description
PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

Free format text: ORIGINAL CODE: 0009012

17P Request for examination filed

Effective date: 20090730

AK Designated contracting states

Kind code of ref document: A1

Designated state(s): AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HR HU IE IS IT LI LT LU LV MC MT NL NO PL PT RO SE SI SK TR

RIN1 Information on inventor provided before grant (corrected)

Inventor name: FROHBERGER, ANKE

Inventor name: DAI, FAN

Inventor name: UNGER, JOACHIM

Inventor name: MATTHIAS, BJOERN

17Q First examination report despatched

Effective date: 20091217

RIN1 Information on inventor provided before grant (corrected)

Inventor name: UNGER, JOACHIM

Inventor name: FROHBERGER, ANKE

Inventor name: MATTHIAS, BJOERN

Inventor name: DAI, FAN

DAX Request for extension of the european patent (deleted)
REG Reference to a national code

Ref country code: DE

Ref legal event code: R003

STAA Information on the status of an ep patent application or granted ep patent

Free format text: STATUS: THE APPLICATION HAS BEEN REFUSED

18R Application refused

Effective date: 20110228