WO2008101568A1 - Einrichtung zum steuern eines roboters - Google Patents
Einrichtung zum steuern eines roboters Download PDFInfo
- Publication number
- WO2008101568A1 WO2008101568A1 PCT/EP2008/000278 EP2008000278W WO2008101568A1 WO 2008101568 A1 WO2008101568 A1 WO 2008101568A1 EP 2008000278 W EP2008000278 W EP 2008000278W WO 2008101568 A1 WO2008101568 A1 WO 2008101568A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- robot
- signals
- control unit
- unit
- robot control
- Prior art date
Links
- 230000009466 transformation Effects 0.000 claims abstract description 14
- 238000001514 detection method Methods 0.000 claims description 3
- 238000000034 method Methods 0.000 description 9
- 238000005259 measurement Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000003754 machining Methods 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000004886 process control Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 238000003466 welding Methods 0.000 description 1
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39394—Compensate hand position with camera detected deviation, new end effector attitude
Definitions
- the invention relates to a device for controlling a robot.
- Robots are used to process (of workpieces, in particular for. Example, for processing motor vehicle bodies, for example for welding or painting of car bodies.
- the position and / or shape of the workpiece do not correspond exactly to the position and / or shape of the workpiece, which should be theoretically predetermined, z. B. it may be that edges of two pieces of sheet metal to be welded together are not exactly in the predetermined line, but obliquely thereto or both edges can form an angle with each other.
- a sensor system which detects the actual conditions and controls the robot accordingly.
- One method is to record the actual position and / or shape of the workpiece by means of a digital camera and to record and process the signals in an image acquisition and image processing device and to supply these signals to the robot control unit so that the robot compares the actual values can be controlled with the setpoints of the movement.
- the robot moves a certain distance, stops taking an image that is being processed while the robot moves on to the next image acquisition point. This means that only discrete points in the control of a robot can be considered and the application cycle time can not be further reduced.
- the object of the invention is to further improve a device of the type mentioned above, that the cycle time can be further reduced.
- the invention accordingly consists in that the device for controlling a robot, with a robot control unit, with at least one sensor which generates a robot-mounted signal, the output signals of which are a signal acquisition device.
- the output signals of the signal detection unit connected to the at least one sensor can be supplied to a signal processing device connected thereto and to a coordinate transformation device in which the signals coming from the signal image processing device and the robot control unit are processed into robot control signals which in turn are the robot control unit provided for controlling the robot movement, wherein the signals supplied from the robot control unit to the coordinate transformation unit are real-time robot data signals.
- the movement data of the robot or the movement data of the tool center point are supplied in real time to the signal acquisition unit and / or the image processing device.
- the device for controlling a robot is accordingly composed of a robot control unit, preferably of at least one robot-mounted camera whose output signals can be fed to an image acquisition unit, wherein the output signal of the image acquisition unit connected to the camera can be fed to an image processing unit connected to the image acquisition device, and formed from a coordinate transformation device in that the signals originating from the image processing device and the robot control unit are processed into robot control signals, which in turn are supplied to the robot control unit for controlling the robot movement, wherein the signals supplied from the robot control unit to the coordinate transformation unit via a signal line are real time robot data signals.
- the robot control unit with the real-time robot data interface generates predicted and optionally current data of the tool center point of the robot with corresponding time markers. These data are calculated within the robot control unit with high accuracy and high update rates.
- the camera is held by the robot and connected to the image processing unit, which according to the invention consists of three subunits:
- the image processing device designed for example as a computer program product, may be located on an external computer or within the robot control unit but may also be part of the camera. It communicates with the robot control software modules via the above-mentioned real-time robot data interface.
- the system times of the robot unit and possibly external computer unit must be synchronized;
- the synchronization is based on a common time reference. This can be effected by methods known per se.
- the image capture can be triggered or untriggered.
- a trigger signal either digital or analog
- the image processing device performs the image processing during each internal process loop.
- the current time is captured and associated with the image data and any subsequent data associated with the image.
- the signals transmitted by the camera into the image acquisition unit are assigned to one another in accordance with the coordinate system of the camera, whereas the image coordinate system is a two-dimensional coordinate system, whereas with a distance measurement or two appropriately assigned cameras depending on the arrangement of a camera, a three-axis, spatial Coordinate system can be used. If several cameras are provided, the images are arranged in a common overall coordinate system, so that it is easy to determine where the object is located.
- These two-dimensional or three-dimensional data generated in the image processing device are converted in the coordinate transformation device into those coordinates that are assigned to the robot, so that the robot control unit is able to perform the AüSyänyssiyiiaie the Koor ⁇ inatentransformations worn record and process further. Coordinate transformations are carried out according to methods known per se, so that they will not be described in more detail here.
- the position of the camera at the time of image acquisition which can be calculated by interpolation, using the predicted robot tool center point data.
- the current robot tool center point data may be used to additionally provide improved proximity.
- These positions may be utilized by a process control unit or used for the robot control unit for further processing, i. for a regulation of the robot.
- a camera with a distance sensor can be used, whereby the position of the object can be determined in space.
- two cameras can be used, which allow a three-dimensional image capture.
- other sensors with distance measuring devices with which the position and / or shape of the workpiece to be machined can be determined in space.
- FIG. 1 A schematic flow diagram representation of the device according to the invention.
- a Rohnter 10 carries crr, free EnJe his movable arm 11, a digital camera 12, the output signals via a signal line 13 of an image acquisition unit 14 are supplied.
- the output signals of the image acquisition unit 14 are supplied to an image processing device 15 whose output signals are forwarded to a coordinate transformation unit 16.
- the robot 10 is controlled by a robot control unit 17, which transmits to the coordinate transformation unit 16 via a first signal line 18 real-time robot data.
- the signals supplied from the image processing device 15 and from the robot controller 17 to the coordinate transformation unit 16 are processed there, transformed into robot readable or interpretable coordinates, and supplied to the robot control unit 17 via a second signal line 19, thereby establishing a control loop for the robot controller ,
- the signal lines 13, 18, and 19 may be formed by connecting lines; Bus connections or internal data connections can also be used.
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Manipulator (AREA)
- Numerical Control (AREA)
Abstract
Die Erfindung betrifft eine Einrichtung zum Steuern eines Roboters (10), mit einer Robotersteuereinheit (17), mit wenigstens einer am Roboter angebrachten digitalen Kamera (12), deren Ausgangssignale einer Bilderfassungseinheit (14) zuführbar sind. Die Ausgangssignale der mit der Kamera (12) verbundenen Bilderfassungseinheit sind einer mit dieser verbundenen Bildverarbeitungseinrichtung (15) zuführbar. Mit einer Koordinatentransformationseinrichtung (16), in der die von der Bildverarbeitungseinheit (15) und der Robotersteuereinheit (17) herkommenden Signale zu Robotersteuersignalen verarbeitet und transformiert werden, sind wieder der Robotersteuereinheit (17) zuführbar.
Description
Einrichtung zum Steuern eines Roboters
Beschreibung
Die Erfindung betrifft eine Einrichtung zum Steuern eines Roboters.
Roboter werden eingesetzt zur Bearbeitung (von Werkstücken, insbesondere z. B. zum Bearbeiten von Kraftfahrzeugkarosserien, beispielsweise zum Verschweißen oder Lackieren der Karosserien. Zu diesem Zweck ist es erforderlich, dem Roboter einen Bewegungsablauf vorzugeben, d. h. den gewünschten Bewegungsablauf in eine Robotersteuereinheit einzugeben, so dass der Roboterarm bzw. das daran befestigte Werkstück die Karosserie in der vorgegebenen Weise bearbeitet.
Bei der Bearbeitung kann es vorkommen, dass die Lage und/oder Form des Werkstücks nicht genau der Lage und/oder Form des Werkstücks entsprechen, die theoretisch vorgegeben sein sollen, z. B. kann es sein, dass Kanten zweier miteinander zu verschweißender Blechstücke nicht exakt in der vorgegebenen Linie liegen, sonder schräg dazu oder beide Kanten können einen Winkel untereinander bilden.
Damit derartige Ungenauigkeiten in Form und/oder Lage das Bearbeitungsergebnis nicht beeinträchtigen, ist ein Sensorsystem vorzuziehen, das die tatsächlichen Gegebenheiten erfasst und den Roboter entsprechend ansteuert.
Die Positionsgenauigkeit eines Roboters an sich ist ausreichend, so dass dessen Toleranzen eher vernachlässigbar sind. Andererseits kann es in seltenen Fällen doch vorkommen, dass die Positioniergenauigkeit nicht optimal ist. Dieses kann - in glei-
eher Weise - mit solchen oben beschriebener. Sensüien ebenfaiis erfasst und korrigiert werden. Dennoch richtet sich das Hauptaugenmerk eher auf Ungenauigkeiten und Abweichungen der Lage und/oder Form eines zu bearbeitenden Werkstücks.
Eine Methode besteht darin, mittels einer digitalen Kamera die tatsächliche Lage und/oder Form des Werkstückes aufzunehmen und die Signale in einer Bilderfass- sungs- und Bildverarbeitungseinrichtung zu erfassen und zu verarbeiten sowie diese Signale der Robotersteuereinheit zuzuführen, so dass der Roboter nach Vergleich der Istwerte mit den Sollwerten der Bewegung angesteuert werden kann.
Hierbei ist es erforderlich, die Position der Kamera zu kennen. Wenn die Kamera am Roboter angebracht ist, wird sich ihre Position im Räume entsprechend der Bewegung des Roboters ändern, so dass es notwendig ist, den aktuellen Werkzeugmittelpunkt zu kennen. Das Steuerverfahren bei bekannten Einrichtungen geschieht wie folgt:
Der Roboter bewegt sich um eine bestimmte Strecke, hält an, wobei ein Bild aufgenommen wird, das verarbeitet wird, während sich der Roboter zur nächsten Bilderfassungsstelle weiterbewegt. Das bedeutet, dass nur diskrete Punkte bei der Steuerung eines Roboters betrachtet werden können und die Anwendungszykluszeit nicht weiter reduziert werden kann.
Anstatt einer digitalen Kamera können auch andere Sensoren verwendet werden, mit denen die genannten Messungen erfolgen können. Dabei ist auch hier festzuhalten, dass nur diskrete Punkte bei der Steuerung eines Roboters erfasst werden können, wodurch auch die Anwendungszykluszeit nicht weiter reduziert werden kann.
Aufgabe der Erfindung ist es, eine Einrichtung der Eingangs genannten Art weiter zu verbessern, dass die Zykluszeit weiter reduziert werden kann.
Diese Aufgabe wird erfindungsgemäß durch die Merkmale des Anspruches 1 gelöst.
Die Erfindung besteht demgemäß darin, dass die Einrichtung zum Steuern eines Roboters, mit einer Robotersteuereinheit, mit wenigstem einem am Roboter angebrachten Signale erzeugenden Sensor, dessen Ausgangssignale einer Signalerfassungs-
einheit ∑-jführbsr sind, wobei die Ausgangssignaie der mit dem wenigstens einen Sensor verbundenen Signalerfassungseinheit einer mit dieser verbundenen Signalverarbeitungseinrichtung zuführbar sind, und mit einer Koordinatentransformationseinrichtung, in der die von der Signalbildverarbeitungseinrichtung und der Robotersteuereinheit herkommenden Signale zu Robotersteuersignalen verarbeitet werden, die wiederum der Robotersteuereinheit zum Steuern der Roboterbewegung zuführbar sind, versehen ist, wobei die von der Robotersteuereinheit der Koordinatentransformationseinheit zugeführten Signale Echtzeitroboterdatensignale sind.
Wesentlich hierbei ist, dass die Bewegungsdaten des Roboters bzw. die Bewegungsdaten des Werkzeugzentral punktes in Echtzeit der Signalerfassungseinheit und/oder der Bildverarbeitungseinrichtung zugeführt werden.
Die Einrichtung zum Steuern eines Roboters wird demgemäß aus einer Robotersteuereinheit, vorzugsweise wenigstens einer am Roboter angebrachten Kamera, deren Ausgangssignale einer Bilderfassungseinheit zuführbar sind, wobei die Ausgangssignaie der mit der Kamera verbundenen Bilderfassungseinheit einer mit der Bilderfassungseinrichtung verbundenen Bildverarbeitungseinheit zuführbar sind, und aus einer Koordinatentransformationseinrichtung gebildet, in der die von der Bildverarbeitungseinrichtung und der Robotersteuereinheit herkommenden Signale zu Robotersteuersignalen verarbeitet werden, die wiederum der Robotersteuereinheit zum Steuern der Roboterbewegung bzw. des Werkzeuges zugeführt werden, wobei die von der Robotersteuereinheit an die Koordinatentransformationseinheit über eine Signalleitung zugeführten Signale Echtzeitroboterdatensignale sind.
Die Robotersteuereinheit mit der Echtzeitroboterdatenschnittstelle erzeugt vorhergesehene und optional aktuelle Daten des Werkzeugzentralpunktes des Roboters mit korrespondierenden Zeitmarkierungen. Diese Daten werden innerhalb der Robotersteuereinheit mit hoher Genauigkeit und hohen Update-Raten berechnet. Die Kamera wird durch den Roboter gehalten und mit der Bildverarbeitungseinheit verbunden, welche erfindungsgemäß aus drei Untereinheiten besteht:
- Bilderfassungseinheit
- Bildverarbeitungseinrichtung
- Koordinatentransformationseinrichtung oder -einheit.
Die Bildverarbeitungseinrichtung, beispielsweise als Computerprogrammprodukt ausgestaltet, kann sich auf einem externen Computer oder innerhalb der Robotersteuereinheit befinden aber auch Teil der Kamera sein. Sie kommuniziert mit den Robotersteuersoftwaremodulen über die oben genannte Echtzeitroboterdatenschnitt- stelle.
Wenn die Bildverarbeitungseinrichtung oder -einheit nicht Teil der Robotereinheit ist, dann müssen die Systemzeiten der Robotereinheit und ggf. externen Rechnereinheit synchronisiert werden; es besteht natürlich auch die Möglichkeit, dass die Synchronisierung auf einer gemeinsamen Zeitreferenz basiert. Dies kann mit an sich bekannten Verfahren bewirkt werden.
Die Bilderfassung kann getriggert oder ungetriggert sein. Im ersteren Falle, wenn die Bilderfassung getriggert durchgeführt wird, wird zu jedem Zeitpunkt der Bilderfassung ein Triggersignal (entweder digital oder analog) empfangen, welches durch den Roboter oder andere Vorrichtung erzeugt werden kann. Wenn die Bilderfassung ungetriggert erfolgt, dann führt die Bildverarbeitungseinrichtung die Bildverarbeitung während jeder internen Prozessschleife durch.
Während der Bilderfassung wird die aktuelle Zeit aufgenommen und den Bilddaten und allen folgenden dem Bild zugehörigen Daten zugeordnet.
Die von der Kamera in die Bilderfassungseinheit übertragenen Signale sind entsprechend dem Koordinatensystem der Kamera einander zugeordnet, wobei das Bildkoordinatensystem ein zweidimensionales Koordinatensystem ist, wogegen je nach Anordnung einer Kamera ggf. mit einer Abstandsmessung oder zweier in geeigneter Weise einander zugeordneter Kameras auch ein dreiachsiges, räumliches Koordinatensystem eingesetzt werden kann. Sind mehrere Kameras vorgesehen, sind die Bilder in einem gemeinsamen Gesamtkoordinatensystem eingerichtet, so dass einfach bestimmt werden kann, wo sich das Objekt befindet. Diese in der Bildverarbeitungseinrichtung erzeugten zweidimensionalen oder dreidimensionalen Daten werden in der Koordinatentransformationseinrichtung in solche Koordinaten umgerechnet, die dem Roboter zugeordnet sind, so dass die Robotersteuereinheit in der Lage ist, die
AüSyänyssiyiiaie der Koorαinatentransformationseinrichtung aufzunehmen und weiter zu verarbeiten. Koordinatentransformationen werden nach an sich bekannten Methoden durchgeführt, so dass sie hier nicht näher beschrieben werden sollen.
Von Bedeutung ist die Position der Kamera zum Zeitpunkt der Bilderfassung, welche durch Interpolation berechnet werden kann, in dem man die vorhergesagten Robo- terwerkzeugzentralpunktdaten benutzt. Optional können die aktuellen Roboterwerk- zeugzentralpunktdaten verwendet werden, um zusätzlich eine verbesserte Annäherung zu erhalten.
Diese Stellungen bzw. Positionen können durch eine Prozesssteuereinheit genutzt oder zu der Robotersteuereinheit für die weitere Bearbeitung verwendet werden, d.h. für eine Regelung des Roboters.
Zur Erfassung der Lage und/oder Form, beispielsweise des Werkstückes, welches von dem Roboter bearbeitet wird, können z.B. eine Kamera mit einem Abstandssensor verwendet werden, wodurch die Lage des Objektes im Raum bestimmt werden kann. Darüber hinaus können auch zwei Kameras eingesetzt werden, die eine dreidimensionale Bilderfassung ermöglichen. Es besteht natürlich auch die Möglichkeit andere Sensoren mit Abstandsmeßeinrichtungen zu verwenden, mit denen die Lage und/oder Form des zu bearbeitenden Werkstückes im Raum festgestellt werden kann.
Weitere vorteilhafte Ausgestaltungen und Verbesserungen der Erfindung sind den weiteren Unteransprüchen zu entnehmen.
Anhand der Zeichnung, in der ein Ausführungsbeispiel der Erfindung dargestellt ist, sollen die Erfindung sowie weitere vorteilhafte Ausgestaltungen der Erfindung näher erläutert und beschrieben werden.
Es zeigt:
Einzige Fig. eine schematische Flussbilddarstellung der erfindungsgemäßen Einrichtung.
Ein Rohnter 10 trägt crr, freien EnJe seines beweglichen Armes 11 eine digitale Kamera 12, deren Ausgangssignale über eine Signalleitung 13 einer Bilderfassungseinheit 14 zugeführt werden. Die Ausgangssignale der Bilderfassungseinheit 14 werden einer Bildverarbeitungseinrichtung 15 zugeführt, deren Ausgangssignale einer Koordinatentransformationseinheit 16 weitergeleitet werden.
Der Roboter 10 wird von einer Robotersteuereinheit 17 gesteuert, der an die Koordinatentransformationseinheit 16 über eine erste Signalleitung 18 Realzeitroboterdaten übermittelt. Die Signale, die von der Bildverarbeitungseinrichtung 15 und von der Robotersteuerung 17 der Koordinatentransformationseinheit 16 zugeführt werden, werden dort verarbeitet, in vom Roboter lesbare oder interpretierbare Koordinaten transformiert und über eine zweite Signalleitung 19 der Robotersteuereinheit 17 zugeführt, wodurch ein Regelkreis für die Robotersteuerung hergestellt ist.
Die Signalleitungen 13, 18, und 19 können durch Verbindungsleitungen gebildet sein; es können auch Busverbindungen verwendet werden oder interne Datenverbindungen.
Sie sollten hier nur andeuten, dass bestimmte Signale von einem Ausgang einer Einheit zu dem Eingang der nächstgelegenen Einheit übertragen werden.
Bezugszeichenliste
Roboter beweglicher Arm digitale Kamera Signalleitung Bilderfassungseinheit Bildverarbeitungseinrichtung Koordinatentransformationseinrichtung oder -einheit Robotersteuereinheit erste Signalleitung zweite Signalleitung
Claims
1. Einrichtung zum Steuern eines Roboters (10), mit einer Robotersteuereinheit (17), mit wenigstem einem am Roboter (10) angebrachten Signale erzeugenden Sensor (12), dessen Ausgangssignale einer Signalerfassungseinheit (14) zuführbar sind, wobei die Ausgangssignale der mit dem wenigstens einen Sensor (12) verbundenen Signalerfassungseinheit einer mit dieser verbundenen Signalverarbeitungseinrichtung (15) zuführbar sind, und mit einer Koordinatentransformationseinrichtung (16), in der die von der Signalverarbeitungseinrichtung (15) und der Robotersteuereinheit (17) herkommenden Signale zu Robotersteuersignalen verarbeitet werden, die wiederum der Robotersteuereinheit (17) zum Steuern der Roboterbewegung zuführbar sind, wobei die von der Robotersteuereinheit (17) der Koordinatentransfor- mationseinheit (16) zugeführten Signale Echtzeitroboterdatensignale sind.
2. Einrichtung nach Anspruch 1 , dadurch gekennzeichnet, dass als Sensor eine digitale Kamera dient, dass die Signalerfassungseinheit (14) eine Bilderfassungseinheit und die Signalverarbeitungseinrichtung (15) eine Bildverarbeitungseinrichtung ist.
3. Einrichtung nach Anspruch 2, dadurch gekennzeichnet, dass die Kamera mit einem Abstandsmesselement gekoppelt ist.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP08701126A EP2125300A1 (de) | 2007-02-23 | 2008-01-16 | Einrichtung zum steuern eines roboters |
US12/545,302 US20100017032A1 (en) | 2007-02-23 | 2009-08-21 | Device for controlling a robot |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102007008903A DE102007008903A1 (de) | 2007-02-23 | 2007-02-23 | Einrichtung zum Steuern eines Roboters |
DE102007008903.3 | 2007-02-23 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US12/545,302 Continuation US20100017032A1 (en) | 2007-02-23 | 2009-08-21 | Device for controlling a robot |
Publications (2)
Publication Number | Publication Date |
---|---|
WO2008101568A1 true WO2008101568A1 (de) | 2008-08-28 |
WO2008101568A8 WO2008101568A8 (de) | 2008-10-23 |
Family
ID=39322522
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/EP2008/000278 WO2008101568A1 (de) | 2007-02-23 | 2008-01-16 | Einrichtung zum steuern eines roboters |
Country Status (5)
Country | Link |
---|---|
US (1) | US20100017032A1 (de) |
EP (1) | EP2125300A1 (de) |
CN (1) | CN101616776A (de) |
DE (1) | DE102007008903A1 (de) |
WO (1) | WO2008101568A1 (de) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4844453B2 (ja) * | 2007-04-09 | 2011-12-28 | 株式会社デンソーウェーブ | ロボットの教示装置及び教示方法 |
DE102007060653A1 (de) * | 2007-12-15 | 2009-06-18 | Abb Ag | Positionsermittlung eines Objektes |
NO330598B1 (no) * | 2010-03-10 | 2011-05-23 | Seabed Rig As | Fremgangsmåte og anordning for å sikre drift av automatisk eller autonomt utstyr |
JP5803155B2 (ja) * | 2011-03-04 | 2015-11-04 | セイコーエプソン株式会社 | ロボット位置検出装置及びロボットシステム |
US9675419B2 (en) | 2013-08-21 | 2017-06-13 | Brachium, Inc. | System and method for automating medical procedures |
CN105395295B (zh) * | 2015-11-24 | 2017-05-10 | 张海钟 | 一种用于口腔和牙齿治疗的机器人系统 |
US11154375B2 (en) | 2018-02-02 | 2021-10-26 | Brachium, Inc. | Medical robotic work station |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0336174A2 (de) * | 1988-04-08 | 1989-10-11 | Abb Robotics Inc. | Verfahren und Gerät zur Steuerung eines Handhabungsgerätes |
US4907169A (en) * | 1987-09-30 | 1990-03-06 | International Technical Associates | Adaptive tracking vision and guidance system |
EP1043642A2 (de) * | 1999-04-08 | 2000-10-11 | Fanuc Ltd | Robotersystem mit Bilderverarbeitungsfunktion |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07104692B2 (ja) * | 1986-10-02 | 1995-11-13 | トヨタ自動車株式会社 | 予見追跡制御型ロボツト |
DE3635076A1 (de) * | 1986-10-15 | 1988-04-28 | Messerschmitt Boelkow Blohm | Roboteranlage mit beweglichen manipulatoren |
US5579444A (en) * | 1987-08-28 | 1996-11-26 | Axiom Bildverarbeitungssysteme Gmbh | Adaptive vision-based controller |
US4952772A (en) * | 1988-11-16 | 1990-08-28 | Westinghouse Electric Corp. | Automatic seam tracker and real time error cumulative control system for an industrial robot |
JP2779072B2 (ja) * | 1991-01-28 | 1998-07-23 | ファナック株式会社 | ロボットの教示方法 |
JP3173042B2 (ja) * | 1991-05-21 | 2001-06-04 | ソニー株式会社 | ロボットの数値制御装置 |
DE19814779A1 (de) * | 1998-04-02 | 1999-10-07 | Vitronic Dr Ing Stein Bildvera | Verfahren und Vorrichtung zum Steuern eines beweglichen Gegenstandes |
DE10133624A1 (de) * | 2000-07-13 | 2002-01-24 | Rolf Kleck | Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen |
JP2003148914A (ja) * | 2001-11-08 | 2003-05-21 | Fanuc Ltd | 位置検出装置及び位置検出を利用した取出し装置 |
JP3994950B2 (ja) * | 2003-09-19 | 2007-10-24 | ソニー株式会社 | 環境認識装置及び方法、経路計画装置及び方法、並びにロボット装置 |
JP2005108144A (ja) * | 2003-10-02 | 2005-04-21 | Fanuc Ltd | ロボットの補正データ確認装置 |
WO2005039836A2 (de) * | 2003-10-20 | 2005-05-06 | Isra Vision Systems Ag | Verfahren zur einrichtung einer bewegung eines handhabungsgeräts und bildverarbeitung |
JP3946711B2 (ja) * | 2004-06-02 | 2007-07-18 | ファナック株式会社 | ロボットシステム |
-
2007
- 2007-02-23 DE DE102007008903A patent/DE102007008903A1/de not_active Withdrawn
-
2008
- 2008-01-16 CN CN200880005663A patent/CN101616776A/zh active Pending
- 2008-01-16 WO PCT/EP2008/000278 patent/WO2008101568A1/de active Application Filing
- 2008-01-16 EP EP08701126A patent/EP2125300A1/de not_active Ceased
-
2009
- 2009-08-21 US US12/545,302 patent/US20100017032A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4907169A (en) * | 1987-09-30 | 1990-03-06 | International Technical Associates | Adaptive tracking vision and guidance system |
EP0336174A2 (de) * | 1988-04-08 | 1989-10-11 | Abb Robotics Inc. | Verfahren und Gerät zur Steuerung eines Handhabungsgerätes |
EP1043642A2 (de) * | 1999-04-08 | 2000-10-11 | Fanuc Ltd | Robotersystem mit Bilderverarbeitungsfunktion |
Non-Patent Citations (1)
Title |
---|
SETH HUTCHINSON ET AL: "A Tutorial on Visual Servo Control", IEEE TRANSACTIONS ON ROBOTICS AND AUTOMATION, IEEE INC, NEW YORK, US, vol. 12, no. 5, 1 October 1996 (1996-10-01), XP011053146, ISSN: 1042-296X * |
Also Published As
Publication number | Publication date |
---|---|
WO2008101568A8 (de) | 2008-10-23 |
US20100017032A1 (en) | 2010-01-21 |
EP2125300A1 (de) | 2009-12-02 |
CN101616776A (zh) | 2009-12-30 |
DE102007008903A1 (de) | 2008-08-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2008101568A1 (de) | Einrichtung zum steuern eines roboters | |
DE3851020T2 (de) | Produktionssystem mit unbemannten, automatisch geführten Fahrzeugen. | |
DE102018009025B4 (de) | Robotersteuervorrichtung zum Einstellen eines Bewegungskoordinatensystems | |
DE102015000587B4 (de) | Roboterprogrammiervorrichtung zum Erstellen eines Roboterprogramms zum Aufnehmen eines Bilds eines Werkstücks | |
EP2546711B1 (de) | Verfahren zum Programmieren eines Roboters | |
DE102017009940B4 (de) | Robotersteuervorrichtung mit Lernsteuerfunktion | |
DE102017128543B4 (de) | Störbereich-einstellvorrichtung für einen mobilen roboter | |
DE3143834C2 (de) | ||
EP2418555B1 (de) | Verfahren zur Offline-Programmierung eines NC-gesteuerten Manipulators | |
DE102010023736B4 (de) | Robotersystem mit Problemerkennungsfunktion | |
EP2216144B1 (de) | Verfahren und System zur Kontrolle von Bauteilen und/oder Funktionseinheiten mit einer Prüfvorrichtung | |
EP3221094B1 (de) | Verfahren und system zur korrektur einer bearbeitungsbahn eines robotergeführten werkzeugs | |
EP2500148B1 (de) | Verfahren und Vorrichtung zum Steuern eines Roboters mit Hilfe eines virtuellen Modells des Roboters | |
DE102014117346B4 (de) | Roboter, Robotersteuerungsverfahren und Robotersteuerungsprogramm zur Werkstückkorrektur | |
EP1152212B1 (de) | Weitgehend selbsttätige Kalibrierung eines Betätigungsarmes eines Roboters | |
DE10351669A1 (de) | Verfahren und Vorrichtung zum Steuern eines Handhabungsgeräts relativ zu einem Objekt | |
EP1675709A2 (de) | VERFAHREN ZUR EINRICHTUNG EINER BEWEGUNG EINES HANDHABUNGSGERÄTS UND BILDVERARBEITUNG | |
DE10133624A1 (de) | Vorrichtung und Anordnung zur Ermittlung von korrigierten Bewegungsdaten für einen vorgegebenen Bewegungsablauf einer bewegbaren Einrichtung sowie bewegbare Einrichtung und System aus bewegbaren Einrichtungen | |
EP4056331A1 (de) | Sicherer betrieb einer mehrachskinematik | |
EP1459855A2 (de) | Verfahren und Vorrichtung zur Verbesserung der Positioniergenauigkeit eines Arbeitsroboters | |
EP3706962B1 (de) | Redundante diversitäre kollisionsüberwachung | |
DE102006041886A1 (de) | Verfahren zur Positionierung von Werkstücken und Positioniersystem dazu | |
EP3712724A1 (de) | Automatisierungsanordnung, verfahren zum betrieb der automatisierungsanordnung sowie computerprogramm | |
WO2023156220A1 (de) | Bearbeitungswerkzeug, insbesondere schweisszange | |
DE3502630A1 (de) | Selbsttaetige positionieranordnung fuer schweissgeraete |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WWE | Wipo information: entry into national phase |
Ref document number: 200880005663.5 Country of ref document: CN |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 08701126 Country of ref document: EP Kind code of ref document: A1 |
|
WWE | Wipo information: entry into national phase |
Ref document number: 2008701126 Country of ref document: EP |
|
NENP | Non-entry into the national phase |
Ref country code: DE |