DE102017118276A1 - Robotersteuerungsvorrichtung - Google Patents

Robotersteuerungsvorrichtung Download PDF

Info

Publication number
DE102017118276A1
DE102017118276A1 DE102017118276.4A DE102017118276A DE102017118276A1 DE 102017118276 A1 DE102017118276 A1 DE 102017118276A1 DE 102017118276 A DE102017118276 A DE 102017118276A DE 102017118276 A1 DE102017118276 A1 DE 102017118276A1
Authority
DE
Germany
Prior art keywords
calculated
feature point
orientation
unit
feature points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102017118276.4A
Other languages
English (en)
Other versions
DE102017118276B4 (de
Inventor
Kaimeng Wang
Bunketsu Chin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102017118276A1 publication Critical patent/DE102017118276A1/de
Application granted granted Critical
Publication of DE102017118276B4 publication Critical patent/DE102017118276B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39391Visual servoing, track end effector with camera image feedback
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40022Snatching, dynamic pick, effector contacts object, moves with object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40565Detect features of object, not position or orientation

Abstract

Ein Roboterarm wird dazu gebracht, einem Werkstück, das sich zufällig bewegt, genau zu folgen. Es wird eine Robotersteuerungsvorrichtung 5 bereitgestellt, einschließlich: einer Merkmalspunkterfassungseinheit 51, die von einem Bild eines Objekts, das von einem visuellen Sensor erworben wird, die Positionen einer Vielzahl von Merkmalspunkten auf dem Objekt in einem vorbestimmten Zyklus erfasst; einer Positions-/Ausrichtungsberechnungseinheit 52, die in dem vorbestimmten Zyklus jeweilige Gleichungen der Bewegung der Vielzahl von Merkmalspunkten auf Grundlage der erfassten Positionen der Vielzahl von Merkmalspunkten aktualisiert und die Position oder Ausrichtung des Objekts auf Grundlage der Positionen der Vielzahl von Merkmalspunkten, die aus den aktualisierten Gleichungen der Bewegung berechnet werden, berechnet; und einer Roboterarm-Bewegungssteuerungseinheit 53, die die Bewegung eines Roboterarms 4 derart steuert, dass er dem Objekt auf Grundlage der berechneten Position oder Ausrichtung des Objekts folgt.

Description

  • {Technisches Gebiet}
  • Die vorliegende Erfindung betrifft eine Robotersteuerungsvorrichtung zum Steuern eines Roboterarms durch Robotersehen [Visual Servoing].
  • {Stand der Technik}
  • Eine herkömmliche Technik zum Steuern eines Roboterarms ist Robotersehen [Visual Servoing], wobei die Position und die Ausrichtung eines sich bewegenden Werkstücks (Objekt) kontinuierlich von einem visuellen Sensor, wie etwa einer Kamera, gemessen wird und der Roboterarm veranlasst wird, dem Objekt auf Grundlage der Messergebnisse zu folgen (beispielsweise PTLs 1 und 2).
  • {Zitierliste}
  • {Patentliteratur}
    • {PTL 1} Veröffentlichung des japanischen Patents Nr. 4265088
    • {PTL 2} Japanische ungeprüfte Patentanmeldung, Veröffentlichungsnummer 2011-143494
  • {Zusammenfassung der Erfindung}
  • {Technisches Problem}
  • Die Robotersteuerungsvorrichtungen, die in den oben erwähnten PTLs 1 und 2 offenbart werden, haben jedoch insofern ein Problem, als dass es unmöglich ist, den Roboterarm zu veranlassen, einem Werkstück genau zu folgen, das sich zufällig bewegt, weil angenommen wird, dass die Bewegungsgeschwindigkeit des Werkstücks konstant ist. Darüber hinaus wird die Position des Werkstücks, falls das Werkstück nicht von der Kamera erfasst werden kann, aus einer Gleichung der Bewegung des Werkstücks ungeachtet dessen berechnet, ob ein Teil des Werkstücks sich im Sichtfeld der Kamera befindet oder nicht. Es besteht daher insofern ein Problem, als dass eine Abweichung zwischen der rechnerischen Werkstückposition und der tatsächlichen Werkstückposition auftritt, wodurch die daraus gefolgerte Genauigkeit verringert wird.
  • Die vorliegende Erfindung wurde im Hinblick auf die oben beschriebenen Umstände gemacht und eine Aufgabe von ihr ist es, eine Robotersteuerungsvorrichtung bereitzustellen, die dazu fähig ist, einen Roboterarm zu veranlassen einem Werkstück, das sich zufällig bewegt, genau zu folgen.
  • {Lösung des Problems}
  • Um die oben beschriebene Aufgabe zu erfüllen, bietet die vorliegende Erfindung die folgenden Lösungen. Gemäß einem ersten Aspekt stellt die vorliegende Erfindung eine Robotersteuerungsvorrichtung bereit, einschließlich: einer Merkmalspunkterfassungseinheit, die, von einem Bild eines Objekts, das von einem visuellen Sensor erworben wird, die Positionen einer Vielzahl von Merkmalspunkten auf dem Objekt in einem vorbestimmten Zyklus erfasst; einer Positions-/Ausrichtungsberechnungseinheit, die, in dem vorbestimmten Zyklus, jeweilige Gleichungen der Bewegung der Vielzahl von Merkmalspunkten auf Grundlage der erfassten Positionen der Vielzahl von Merkmalspunkten aktualisiert, und die Position oder Ausrichtung des Objekts auf Grundlage der Positionen der Vielzahl von Merkmalspunkten, die aus den aktualisierten Gleichungen der Bewegung berechnet werden, berechnet; und einer Roboterarm-Bewegungssteuerungseinheit, die die Bewegung eines Roboterarms derart steuert, dass er dem Objekt auf Grundlage der berechneten Position oder Ausrichtung des Objekts folgt.
  • Gemäß der Robotersteuerungsvorrichtung nach dem vorstehend beschriebenen ersten Aspekt erfasst die Merkmalspunkterfassungseinheit von einem Bild eines Objekts, das von dem visuellen Sensor erworben wird, die Positionen einer Vielzahl von Merkmalspunkten auf dem Objekt in einem vorbestimmten Zyklus. Als nächstes aktualisiert die Positions-/Ausrichtungsberechnungseinheit in dem vorbestimmten Zyklus die Gleichungen der Bewegung der Vielzahl von Merkmalspunkten auf Grundlage der Positionen der Vielzahl von Merkmalspunkten, die von der Merkmalspunkterfassungseinheit erfasst wurden. Des Weiteren berechnet die Positions-/Ausrichtungsberechnungseinheit die Positionen der Vielzahl von Merkmalspunkten aus den aktualisierten Gleichungen der Bewegung neu und berechnet die Position oder Ausrichtung des Objekts auf Grundlage der berechneten Positionen der Vielzahl von Merkmalspunkten. Die Roboterarm-Bewegungssteuerungseinheit steuert den Roboterarm dann auf Grundlage der Position oder Ausrichtung des Objekts, die von der Positions-/Ausrichtungsberechnungseinheit berechnet wurde, derart, dass er dem Objekt folgt.
  • Auf diese Weise wird die Entwicklung einer Gleichung der Bewegung eines Objekts prozessgekoppelt ermöglicht, weil die Gleichung der Bewegung jedes Merkmalspunkts in dem vorbestimmten Zyklus aktualisiert wird. Im Resultat kann der Roboterarm veranlasst werden, einem Objekt, das sich zufällig bewegt, mit hoher Genauigkeit zu folgen.
  • In der vorstehend beschriebenen Robotersteuerungsvorrichtung kann die Positions-/Ausrichtungsberechnungseinheit die Vielzahl von Merkmalspunkten auf dem Objekt auf Grundlage der Erfassungshäufigkeiten der Vielzahl von Merkmalspunkten gewichten.
  • Dadurch werden, selbst wenn ein Teil der Vielzahl von Merkmalspunkten von einem Hindernis oder dergleichen blockiert wird und somit die Position oder Ausrichtung des Objekts nicht direkt von einem visuellen Sensor erfasst werden kann, die Position jedes Merkmalspunkts, die aus der Gleichung der Bewegung berechnet wird, und die Position jedes Merkmalspunkts, der von dem visuellen Sensor erfasst werden kann, auf Grundlage der Erfassungshäufigkeiten gewichtet, um die Position des Objekts zu berechnen, wodurch ermöglicht wird, dass der Roboterarm veranlasst wird, dem Objekt genau zu folgen.
  • In der vorstehend beschriebenen Robotersteuerungsvorrichtung kann die Roboterarm-Bewegungssteuerungseinheit mit einer singulären Punktvermeidungseinheit bereitgestellt werden, die einen singulären Punkt des Roboterarms vermeidet. Mit dieser Konfiguration kann ein singulärer Punkt vermieden werden, wodurch es ermöglicht wird, ein operatives Problem zu vermeiden, wie etwa eine abnorm schnelle Drehung eines bestimmten Gelenks in dem Roboterarm.
  • {Vorteilhafte Wirkungen der Erfindung}
  • Gemäß der vorliegenden Erfindung wird eine vorteilhafte Wirkung dadurch gewährt, dass der Roboterarm veranlasst werden kann, einem Werkstück, das sich zufällig bewegt, genau zu folgen.
  • {Kurze Beschreibung der Zeichnungen}
  • 1 ist eine Ansicht, die im Umriss die Konfiguration eines Robotersystems nach einer Ausführungsform der vorliegenden Erfindung zeigt.
  • 2 ist ein Blockdiagramm des in 1 gezeigten Robotersystems.
  • 3 ist ein Flussdiagramm, das die Verarbeitung, die in einer Robotersteuerungsvorrichtung, wie in 2 gezeigt, durchgeführt wird, zeigt.
  • 4 ist ein Flussdiagramm, das die Verarbeitung, die in einer Positions-/Ausrichtungsberechnungseinheit, wie in 2 gezeigt, durchgeführt wird, zeigt.
  • 5 ist ein Flussdiagramm, das die Verarbeitung, die in einer Roboterarm-Bewegungssteuerungseinheit, wie in 2 gezeigt, zeigt.
  • {Beschreibung der Ausführungsform}
  • Nachfolgend wird unter Bezugnahme auf die Zeichnungen ein Robotersystem nach einer Ausführungsform der vorliegenden Erfindung ausführlich beschrieben. Beachten Sie, dass in dieser Spezifikation ein hat, das über einem englischen Zeichensymbol angeordnet ist als „(englisches Zeichensymbol)hat” bezeichnet wird, ein bar, das über einem englischen Zeichensymbol angeordnet ist, als „(englisches Zeichensymbol)bar” bezeichnet wird und ein dot, das über einem englischen Zeichensymbol angeordnet ist, als „(englisches Zeichensymbol)dot” bezeichnet wird.
  • Wie in 1 gezeigt wird ein Robotersystem 1 dieser Ausführungsform bereitgestellt mit: einer Kamera 2; einem Gestell 3, das die Kamera 2 stützt; einem Roboterarm 4; und einer Robotersteuerungsvorrichtung 5 mit der die Kamera 2 und der Roboterarm 4 verbunden sind. Die Robotersteuerungsvorrichtung 5 ist dafür konfiguriert, die Steuerung durch Robotersehen derart durchzuführen, dass der Roboterarm 4 der Bewegung eines Werkstücks (Objekt) 7 auf Grundlage der visuellen Informationen, die von der Kamera 2 erhalten werden, zu folgen.
  • Das Werkstück 7 wird auf einer Beförderungsvorrichtung 6, wie etwa einem Bandförderer oder einem Drehtisch, platziert und wird gemäß der Bewegung der Beförderungsvorrichtung 6 bewegt. Beachten Sie, dass in dieser Ausführungsform, obwohl die Kamera 2 von dem Gestell 3 gestützt wird, ihre Position nicht darauf beschränkt ist und die Kamera 2 auf dem Roboterarm 4 befestigt sein kann.
  • Die Konfiguration der Robotersteuerungsvorrichtung 5, die in dem Robotersystem 1 bereitgestellt wird, wird nachfolgend unter Bezugnahme auf 2 ausführlich beschrieben. Beachten Sie, dass die Robotersteuerungsvorrichtung 5 mit einem Prozessor (nicht gezeigt) bereitgestellt wird und dieser Prozessor dafür konfiguriert ist, das Verarbeiten in jeweiligen funktionalen Blöcken, wie in 2 gezeigt, durchzuführen.
  • Wie in 2 gezeigt wird die Robotersteuerungsvorrichtung 5 mit, als funktionale Blöcke, einer Merkmalspunkterfassungseinheit 51, einer Positions-/Ausrichtungsberechnungseinheit 52 und einer Roboterarm-Bewegungssteuerungseinheit 53 bereitgestellt. Die Positions-/Ausrichtungsberechnungseinheit 52 wird mit, als funktionale Blöcke, einer Gleichung-der-Bewegung-Aktualisierungseinheit 521, einer Merkmalspunktposition-Berechnungseinheit 522, einer Gewichtberechnungseinheit 523 und einer Drehungs-/Positionsmatrix-Berechnungseinheit 524 bereitgestellt. Die Roboterarm-Bewegungssteuerungseinheit 53 wird mit, als funktionale Blöcke, einer Bewegungsbahnerzeugungseinheit 531, einer singulären Punktvermeidungseinheit 532 und einer Additionseinheit 533 bereitgestellt.
  • Die Merkmalspunkterfassungseinheit 51 ist mit der Kamera 2 verbunden und ist mit der Gleichung-der-Bewegung-Aktualisierungseinheit 521 und der Gewichtberechnungseinheit 523 verbunden, die in der Positions-/Ausrichtungsberechnungseinheit 52 bereitgestellt werden. Die Gleichung-der-Bewegung-Aktualisierungseinheit 521 ist mit der Merkmalspunktposition-Berechnungseinheit 522 verbunden. Die Merkmalspunktposition-Berechnungseinheit 522 ist mit der Gewichtberechnungseinheit 523 und der Drehungs-/Positionsmatrix-Berechnungseinheit 524 verbunden. Die Gewichtsberechnungseinheit 523 ist mit der Drehungs-/Positionsmatrix-Berechnungseinheit 524 verbunden.
  • Die Drehungs-/Positionsmatrix-Berechnungseinheit 524 ist mit der Bewegungsbahnerzeugungseinheit 531 verbunden, die in der Roboterarm-Bewegungssteuerungseinheit 53 bereitgestellt wird. Die Bewegungsbahnerzeugungseinheit 531 ist mit der singulären Punktvermeidungseinheit 532 verbunden. Die Bewegungsbahnerzeugungseinheit 531 und die singuläre Punktvermeidungseinheit 532 sind mit der Additionseinheit 533 verbunden. Die Additionseinheit 533 ist mit dem Roboterarm 4 verbunden.
  • Die Merkmalspunkterfassungseinheit 51 ist dafür konfiguriert, unter Verwendung einer voreingestellten Form in Hinblick auf ein Bild, das das Werkstück 7 enthält und von der Kamera 2 aufgenommen wurde, eine Musteranpassung durchzuführen und die Positionen yk(ti k) einer Vielzahl von Merkmalspunkten auf dem Werkstück 7 in dem Bild, das dieser Form entspricht, zu erfassen. Hier drückt die erfasste Position yk(ti k) konkret einen k-th Merkmalspunkt aus, wobei der Positionsvektor x-, y- und y-Richtungen zur Zeit ti k, zu der die Kamera das Werkstück erfasst, enthält.
  • Die Gleichung-der-Bewegung-Aktualisierungseinheit 521 ist dafür konfiguriert, die Gleichung der Bewegung jedes Merkmalspunkts durch Verwenden der Position yk(ti k) des Merkmalspunkts, der von der Merkmalspunkterfassungseinheit 51 erfasst wird, zu aktualisieren. Die Position jedes Merkmalspunkts, der von dem Bild, das von der Kamera 2 erworben wird, kann wie in Gleichung (1) durch Verwenden einer Gleichung der Bewegung ausgedrückt werden. yk(t k / i) = fk[yk(t k / i-1), t k / i] + v k / i (1)
  • Hier ist fk[yk(ti-1 k), ti k] die Gleichung der Bewegung jedes Merkmalspunkts und vi k repräsentiert Sensorrauschen. Konkret wird der Positionsvektor, der zur Zeit ti k erfasst wird, ausgedrückt auf Grundlage von: einer Gleichung der Bewegung, die durch Verwenden der Position yk(ti-1 k), die zur Zeit ti-1 k erfasst wird, was ein Zyklus zuvor ist, aktualisiert wird; und dem Sensorrauschen. Beachten Sie, dass die Gleichung der Bewegung jedes Merkmalspunkts durch Gleichung (2) und Gleichung (3) zum Beispiel ausgedrückt werden kann.
    Figure DE102017118276A1_0002
    yk(t) = [I3 0 0]xk(t) + v(t) (3)
  • Hier repräsentiert xk(t) den neundimensionalen Vektor, einschließlich der Position, der Geschwindigkeit und der Beschleunigung jedes Merkmalspunkts zur Zeit t, w(t) repräsentiert einen Beschleunigungsvektor, der ein Faktor der Geschwindigkeitsveränderung an dem Merkmalspunkt ist, und v(t) repräsentiert Rauschen, das zum Zeitpunkt der Erfassung unter Verwendung der Kamera erhalten wird.
  • Konkreter berechnet die Gleichung-der-Bewegung-Aktualisierungseinheit 521 ybark(t ± k) über die folgende Gleichung (4) und Gleichung (5), wodurch jede Gleichung der Bewegung aktualisiert wird. ŷk(t k / i) = fk[yk(t k / i-1), t k / i] (4) y k(t k / i) = ŷk(t k / i) + Fk(t k / i)[yk(t k / i) – ŷk(t k / i)] (5)
  • Hier ist yhat k(ti k) ein berechneter Wert, der durch Verwenden der Gleichung der Bewegung, die zur Zeit ti k durch Verwenden der Position ybar k(ti-1 k) zu der Zeit ti-1 k, was ein Zyklus zuvor ist, aktualisiert wurde, berechnet wird. Des Weiteren repräsentiert ybar k(ti k) in Gleichung (5) die Position jedes Merkmalspunkts, der unter Berücksichtigung sowohl des erfassten Werts yk(ti k), der von der Kamera 2 zu der Zeit ti k erfasst wird, als auch des berechneten Werts yhat k(ti k), der durch Verwenden der Gleichung (4) berechnet wird, berechnet wird. Beachten Sie, dass in Gleichung (5) Fk(ti k) eine Zunahme der Differenz zwischen yk(ti k) und yhat k(ti k) repräsentiert.
  • Die Merkmalspunktposition-Berechnungseinheit 522 ist dafür konfiguriert, die Position yhatk(tnow) jedes Merkmalspunkts zu der aktuellen Zeit tnow wie in Gleichung (6) durch Verwenden der Gleichung der Bewegung, die durch Verwenden der Position ybark(tik) zu der Zeit tik aktualisiert wurde, die wie vorstehend beschrieben berechnet wurde, zu berechnen. ŷk(tnow) = fk[y k(t k / i), tnow] (6)
  • Die Gewichtsberechnungseinheit 523 ist dafür konfiguriert, ein Gewicht für jeden Merkmalspunkt zu berechnen. Konkret berechnet die Gewichtsberechnungseinheit 523, als das Gewicht für jeden Merkmalspunkt, die Kovarianz Σhat k(tnow) der Position des Merkmalspunkts zu der aktuellen Zeit tnow, wie in Gleichung (7) gezeigt, so dass die Wichtigkeit eines Merkmalspunkts größer wird, wenn der Merkmalspunkt öfters (höhere Frequenz) von der Kamera 2 erfasst wird. Σ ^k(tnow) = gk[Σ k(t k / i), tnow] (7)
  • Hier ist gk das Resultat, das nach dem Berechnen der Kovarianz für eine Gleichung der Bewegung fk erhalten wird, wie in Gleichung (8) gezeigt. gk = Cov(fk) (8)
  • Des Weiteren ist Σbar k(ti k) die Kovarianz, die unter Berücksichtigung sowohl des erfassten Werts y(ti k), der von der Kamera 2 zu der Zeit ti k erfasst wird, als auch der Kovarianz des berechneten Werts yhat k(ti k), der über die Gleichung der Bewegung berechnet wird, berechnet wird. Beachten Sie, dass falls es einen Merkmalspunkt gibt, der nicht erfasst werden kann, die Position dieses Merkmalspunkts durch Verwenden von Informationen berechnet wird, die erhalten werden, wenn der Merkmalspunkt in dem vorherigen Zyklus erfasst wird.
  • Die Drehungs-/Positionsmatrix-Berechnungseinheit 524 ist dafür konfiguriert, die Kovarianz Σhat k(tnow), die durch die Gewichtberechnungseinheit 523 berechnet wird, und die Position Σhat k(tnow) des Merkmalspunkts, der von der Merkmalspunktposition-Berechnungseinheit 522 berechnet wird, zu verwenden, um über die Gleichung (9) eine Drehungsmatrix und eine Positionsmatrix des Werkstücks 7, in der jeder Merkmalspunkt gewichtet ist, zu berechnen.
    Figure DE102017118276A1_0003
  • Hier repräsentiert Rw die Drehungsmatrix des Werkstücks 7 in dem Roboter-Weltkoordinatensystem, Tw repräsentiert die Positionsmatrix des Werkstücks 7 in dem Roboter-Weltkoordinatensystem und sk repräsentiert die Position (Vektor einschließlich der x-, y- und z-Richtungen) eines Merkmalspunkts, gesehen von dem Objektkoordinatensystem, das für das Werkstück 7 fixiert ist. Falls es jedoch einen Merkmalspunkt gibt, der nicht erfasst wird, wird das Resultat, das bei Erfassen des Merkmalspunkt während des vorherigen Zyklus erhalten wurde, als die Position des Merkmalspunkts verwendet.
  • Die Bewegungsbahnerzeugungseinheit 531 ist dafür konfiguriert, eine Bewegungsbahn des Roboterarms 4 zu erzeugen. Konkret berechnet die Bewegungsbahnerzeugungseinheit 531 die Differenzen zwischen: der Position und der Ausrichtung (eine Drehungsmatrix Rr und eine Positionsmatrix Tr) des aktuellen TCP, das von der Roboterarm-Bewegungssteuerungseinheit 53 erzeugt wird, und der Position und Ausrichtung (die Drehungsmatrix Rw und die Positionsmatrix Tw) des Werkstücks 7, die von der Positions-/Ausrichtungsberechnungseinheit 52 berechnet wurden, und multipliziert diese Differenzen mit der Umkehrung der Funktionaldeterminante (die inverse Matrix der Funktionaldeterminante), wodurch die Differenzen für jeden Achsenwinkel berechnet werden, d. h. eine Befehlsgeschwindigkeit qdot* für den Roboterarm 4. q .* = IK(ΔR, dT) = J+(q)h(ΔR, ΔT) (10)
  • Hier ist J+ die Umkehrung der Funktionaldeterminante-Transformation zwischen Achsenpositionen und Senkrechtpositionen. h(ΔR, ΔT) ist eine Funktion, die angibt, dass die Differenzen ΔR und ΔT der Position und der Ausrichtung mit einer proportionalen Zunahme multipliziert werden und die proportionale Zunahme wird gemäß der Bewegungsfrequenz des zu verfolgenden Werkstücks 7 angepasst.
  • Die singuläre Punktvermeidungseinheit 532 ist dafür konfiguriert, eine Interpolationsgeschwindigkeit Δqdot für eine Vermeidungsbewegung über Gleichung (11) zu erzeugen, wenn der von der Roboterarm-Bewegungssteuerungseinheit 53 erzeugte aktuelle TCP nahe an einem singulären Punkt ist. Δq . = (I – J+(q)J(q))p(q) (11)
  • Hier ist p(q) eine Funktion zum Korrigieren der Geschwindigkeit und eine Korrekturgeschwindigkeit für jede Achse. Die Korrekturgeschwindigkeit p(q) für jede Achse kann aus der Gleichung (12) und der Gleichung (13) erhalten werden.
    Figure DE102017118276A1_0004
    p(q) = λ0( ∂H(q) / ∂q)T (13)
  • H(q) ist ein Ausdruck, der die Robotermanipulierbarkeit (Manipulierbarkeit) angibt. Wie in Gleichung (13) gezeigt wird die Korrekturgeschwindigkeit p(q) für jede Achse aus partieller Differenzierung von H(q) berechnet.
  • In der vorstehend beschriebenen Gleichung (13) repräsentiert λo die proportionale Zunahme zum Vermeiden eines singulären Punkts. Beachten Sie, dass die proportionale Zunahme λo zu 0 wird, wenn die Position und Ausrichtung des TCP nicht nahe an einem singulären Punkt sind, und der Wert von λo sich erhöht, wenn die Position und die Ausrichtung des TCP nahe an einem singulären Punkt sind.
  • Die Additionseinheit 533 ist dafür konfiguriert, die Befehlsgeschwindigkeit qdot*, die von der Bewegungsbahnerzeugungseinheit 531 erzeugt wird, und die Interpolationsgeschwindigkeit Δqdot, die von der singulären Punktvermeidungseinheit berechnet wird, zu addieren, um einen Geschwindigkeitsbefehl qdot für jede Achse für den Roboterarm 4 zu berechnen. q . = q .* + Δq . (14)
  • Der Roboterarm 4 wird gemäß dem berechneten Geschwindigkeitsbefehl qdot für jede Achse gesteuert.
  • Der Betrieb der Robotersteuerungsvorrichtung 5, der die vorstehend beschriebene Konfiguration aufweist, wird nachfolgend unter Bezugnahme auf die 3 bis 5 beschrieben. 3 bis 5 zeigen das Verarbeiten, das von dem Prozessor (nicht gezeigt), der in der Robotersteuerungsvorrichtung 5 bereitgestellt wird, für jeden vorbestimmten Zyklus ausgeführt wird, d. h. für jeden Interpolationszyklus des Roboterarms 4.
  • Zunächst wird ein Bild, das von der Kamera 2 erworben wurde, in die Robotersteuerungsvorrichtung 5 eingegeben (Schritt S1 in 3). Dann erfasst die Merkmalspunkterfassungseinheit 51, aus der Bildeingabe in die Robotersteuerungsvorrichtung 5, die Positionen einer Vielzahl von Merkmalspunkten auf dem Werkstück 7 (Schritt S2 in 3). Als nächstes berechnet die Positions-/Ausrichtungsberechnungseinheit 52 die Position und die Ausrichtung des Werkstücks 7 auf Grundlage der erfassten Positionen der Vielzahl von Merkmalspunkten auf dem Werkstück 7 (Schritt S3 in 3). Danach wird in der Roboterarm-Bewegungssteuerungsvorrichtung 53 ein Geschwindigkeitsbefehl für jede Achse des Roboterarms 4 auf Grundlage der Position und der Ausrichtung des Werkstücks 7, die durch die Positions-/Ausrichtungsberechnungseinheit 52 berechnet werden (Schritt S4 in 3), erzeugt und an den Roboterarm 4 ausgegeben (Schritt S5 in 3).
  • Als nächstes wird unter Bezugnahme auf 4 das Verarbeiten zum Berechnen der Position und Ausrichtung des Werkstücks 7, das in Schritt S3 in 3 durchgeführt wird, beschrieben. Zunächst berechnet die Gleichung-der-Bewegung-Aktualisierungseinheit 521 die tatsächliche Position ybar k(ti k) jedes Merkmalspunkts zu der Zeit ti k, die erhalten wird auf Grundlage von: der erfassten Position yk(ti k) des Merkmalspunkts, die zu der Zeit ti k von der Merkmalspunkterfassungseinheit 51 erfasst wird; und der berechneten Position yhat k(ti k) des Merkmalspunkts zu der Zeit ti k, die aus der Gleichung der Bewegung, die zu der Zeit ti-1 k aktualisiert wird (siehe Gleichung (4) und Gleichung (5)), berechnet wird. Dann wird die berechnete tatsächliche Position ybar k(ti k) dafür verwendet, um die Gleichung der Bewegung zu aktualisieren (Schritt S21 in 4).
  • Dann berechnet die Merkmalspunktposition-Berechnungseinheit 522 die Position yhat k(tnow) des Merkmalspunkts zu der aktuellen Zeit tnow unter Verwendung der aktualisierten Gleichung der Bewegung, wie in Gleichung (6) gezeigt (Schritt S22 in 4). Auf diese Weise ist es möglich, da die Gleichung der Bewegung für jeden Interpolationszyklus des Roboterarms 4 aktualisiert wird, selbst wenn das Werkstück 7 sich zufällig bewegt, die aktuelle Position des Werkstücks 7 genau zu berechnen.
  • Als nächstes berechnet die Gewichtberechnungseinheit 523 die Kovarianz Σhat k(tnow) der Position yhat k(tnow) des Merkmalspunkts zu der aktuellen Zeit tnow über Gleichung (7) auf Grundlage der Kovarianz der erfassten Position yk(ti k) des Merkmalspunkts, der zu der Zeit ti k von der Merkmalspunkterfassungseinheit 51 erfasst wird, und der Kovarianz der berechneten Position yhat k(ti k) des Merkmalspunkts zu der Zeit ti k, die aus der Gleichung der Bewegung, die zur Zeit ti-1 k aktualisiert wird, berechnet wird.
  • Dann berechnet die Drehungs-/Positionsmatrix-Berechnungseinheit 524 eine Drehungsmatrix Rw und eine Positionsmatrix Tw des Werkstücks 7 über Gleichung (9) durch Verwendung der Kovarianz Σhat k(tnow) die durch die Gewichtberechnungseinheit 523 berechnet wird und die als ein Gewicht dient, und die Position yhat k(tnow) des Merkmalspunkts, die von der Merkmalspunktposition-Berechnungseinheit 522 berechnet wird (Schritt S24 in 4).
  • Auf diese Weise kann der Roboterarm 4, weil jeder Merkmalspunkt derart gewichtet ist, dass die Wichtigkeit eines Merkmalspunkts größer wird je öfters der Merkmalspunkt von der Kamera 2 erfasst wird, selbst wenn ein Teil des Werkstücks 7 von beispielsweise einem Hindernis oder dergleichen blockiert wird und ein Merkmalspunkt daher nicht erfasst werden kann, veranlasst werden, dem Werkstück 7 zu folgen.
  • Als nächstes wird das in Schritt S4 in 3 durchgeführte Verarbeiten der Steuerung der Roboterarmbewegung unter Bezugnahme auf 5 beschrieben. Zunächst berechnet die Bewegungsbahnerzeugungseinheit 531 die Position und Ausrichtung (die Drehungsmatrix Rr und die Positionsmatrix Tr) des TCP des Roboterarms 4 (Schritt S31 in 5). Dann werden die Differenzen ΔR und ΔT aus der Drehungsmatrix Rw und der Positionsmatrix Tw des Werkstücks 7, d. h. die Position und die Ausrichtung des Werkstücks 7, die von der Positions-/Ausrichtungsberechnungseinheit 52 berechnet werden, berechnet (Schritt S32 in 5). Aus den Differenzen ΔR und ΔT wird durch inverse Transformationsberechnung über Gleichung (10) die Befehlsgeschwindigkeit qdot* für jede Achse des Roboterarms 4 berechnet und die Bewegungsbahn wird erzeugt (Schritt S33 in 5).
  • Als nächstes prüft die singuläre Punktvermeidungseinheit 532, ob die Position und die Ausrichtung des TCP des Roboterarms 4, die durch die Bewegungsbahnerzeugungseinheit 531 berechnet werden, nahe an einem singulären Punkt liegen (Schritt S34 in 5). Nur falls die Position und die Ausrichtung des TCP nahe an einem singulären Punkt liegen, wird eine Vermeidungsbewegung erzeugt, und falls die Position und die Ausrichtung des TCP nicht nahe an einem singulären Punkt liegen, wird das nächste Verarbeiten ohne Erzeugen einer Vermeidungsbewegung durchgeführt (Schritt S35 in 5). Konkret wird in Schritt S36 eine Interpolationsgeschwindigkeit Δqdot der Vermeidungsbewegung über Gleichungen (11) bis (13) erzeugt.
  • Schließlich werden die Befehlsgeschwindigkeit qdot* for jeder Achse, die von der Bewegungsbahnerzeugungseinheit 531 erzeugt wird, und die Interpolationsgeschwindigkeit Δqdot, die von der singulären Punktvermeidungseinheit 532 erzeugt wird, addiert, um einen Geschwindigkeitsbefehl für jede Achse des TCP des Roboterarms 4 zu berechnen (Schritt S37 in 5). Dadurch kann ein singulärer Punkt vermieden werden.
  • Obwohl die Ausführungsform der vorliegenden Erfindung vorstehend ausführlich unter Bezugnahme auf die Zeichnungen beschrieben wurde, sind die spezifischen Konfigurationen nicht auf jene in der Ausführungsform beschränkt und Gestaltungsveränderungen usw., die nicht von dem Umfang der vorliegenden Erfindung abweichen, sind ebenfalls eingeschlossen.
  • Bezugszeichenliste
  • 2
    Kamera (visueller Sensor)
    4
    Roboterarm
    5
    Robotersteuerungsvorrichtung
    7
    Werkstück (Objekt)
    51
    Merkmalspunkterfassungseinheit
    52
    Positions-/Ausrichtungsberechnungseinheit
    53
    Roboterarm-Bewegungssteuerungseinheit
    521
    Gleichung-der-Bewegung-Aktualisierungseinheit
    522
    Merkmalspunktposition-Berechnungseinheit
    523
    Gewichtsberechnungseinheit
    524
    Drehungs-/Positionsmatrix-Berechnungseinheit
    531
    Bewegungsbahnerzeugungseinheit
    532
    singuläre Punktvermeidungseinheit

Claims (3)

  1. Robotersteuerungsvorrichtung (5), umfassend: eine Merkmalspunkterfassungseinheit (51), die von einem Bild eines Objekts (6), das von einem visuellen Sensor erworben wird, die Positionen einer Vielzahl von Merkmalspunkten auf dem Objekt (6) in einem vorbestimmten Zyklus erfasst; eine Positions-/Ausrichtungsberechnungseinheit (52), die in dem vorbestimmten Zyklus jeweilige Gleichungen der Bewegung der Vielzahl von Merkmalspunkten auf Grundlage der erfassten Positionen der Vielzahl von Merkmalspunkten aktualisiert und die die Position oder Ausrichtung des Objekts (6) auf Grundlage der Positionen der Vielzahl von Merkmalspunkten, die aus den aktualisierten Gleichungen der Bewegung berechnet werden, berechnet; und eine Roboterarm-Bewegungssteuerungseinheit (53), die die Bewegung eines Roboterarms (4) auf Grundlage der berechneten Position oder Ausrichtung des Objekts (6) derart steuert, dass er dem Objekt (6) folgt.
  2. Robotersteuerungsvorrichtung (5) nach Anspruch 1, wobei die Positions-/Ausrichtungsberechnungseinheit (52) die Vielzahl der Merkmalspunkte auf dem Objekt (6) auf Grundlage der Häufigkeit der Erfassung der Vielzahl von Merkmalspunkten gewichtet.
  3. Robotersteuerungsvorrichtung (5) nach Anspruch 1 oder 2, wobei die Roboterarm-Bewegungssteuerungseinheit (53) mit einer Singulär-Punkt-Vermeidungseinheit (532) bereitgestellt wird, die einen singulären Punkt des Roboterarms (4) vermeidet.
DE102017118276.4A 2016-08-17 2017-08-10 Robotersteuerungsvorrichtung Active DE102017118276B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-159895 2016-08-17
JP2016159895A JP6514156B2 (ja) 2016-08-17 2016-08-17 ロボット制御装置

Publications (2)

Publication Number Publication Date
DE102017118276A1 true DE102017118276A1 (de) 2018-02-22
DE102017118276B4 DE102017118276B4 (de) 2020-10-08

Family

ID=61082710

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017118276.4A Active DE102017118276B4 (de) 2016-08-17 2017-08-10 Robotersteuerungsvorrichtung

Country Status (4)

Country Link
US (1) US10507583B2 (de)
JP (1) JP6514156B2 (de)
CN (1) CN107756423B (de)
DE (1) DE102017118276B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110303474A (zh) * 2018-03-27 2019-10-08 发那科株式会社 使用图像处理修正机器人的示教的机器人系统

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10290118B2 (en) * 2015-08-06 2019-05-14 Cognex Corporation System and method for tying together machine vision coordinate spaces in a guided assembly environment
JP6826069B2 (ja) 2018-04-18 2021-02-03 ファナック株式会社 ロボットの動作教示装置、ロボットシステムおよびロボット制御装置
US11314220B2 (en) 2018-04-26 2022-04-26 Liberty Reach Inc. Non-contact method and system for controlling an industrial automation machine
JP6823015B2 (ja) * 2018-07-17 2021-01-27 ファナック株式会社 ロボットシステム
JP7247572B2 (ja) * 2018-12-17 2023-03-29 京セラドキュメントソリューションズ株式会社 制御装置
WO2020133628A1 (zh) * 2018-12-29 2020-07-02 深圳市工匠社科技有限公司 仿人机械手臂体感控制系统及相关产品
EP3738725B1 (de) 2019-05-15 2022-02-16 Omron Corporation Messsystem, messvorrichtung, messverfahren und messprogramm
WO2022039245A1 (ja) * 2020-08-21 2022-02-24 ファナック株式会社 ロボット制御装置
US20240009848A1 (en) * 2021-11-05 2024-01-11 Foshan Flexiv Robotics Technology Co, . Ltd. Kinematics calibration method and calibration system for robot with multiple degrees of freedom

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4265088B2 (ja) 2000-07-10 2009-05-20 株式会社豊田中央研究所 ロボット装置及びその制御方法
JP2011143494A (ja) 2010-01-13 2011-07-28 Ihi Corp ロボット制御装置及び方法

Family Cites Families (95)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2416094A1 (fr) * 1978-02-01 1979-08-31 Zarudiansky Alain Dispositif de manipulation a distance
US4575297A (en) * 1981-12-24 1986-03-11 Hans Richter Assembly robot
US5506682A (en) * 1982-02-16 1996-04-09 Sensor Adaptive Machines Inc. Robot vision using targets
JPS6076986A (ja) * 1983-09-30 1985-05-01 株式会社東芝 ロボツト
US4783107A (en) * 1985-06-04 1988-11-08 Clemson University Method and apparatus for controlling impact force during rapid robotic acquisition of object
US5579444A (en) * 1987-08-28 1996-11-26 Axiom Bildverarbeitungssysteme Gmbh Adaptive vision-based controller
US4942538A (en) * 1988-01-05 1990-07-17 Spar Aerospace Limited Telerobotic tracker
US5501498A (en) * 1988-08-31 1996-03-26 The Trustees Of The University Of Pennsylvania Methods and apparatus for mechanically intelligent grasping
US4957320A (en) * 1988-08-31 1990-09-18 Trustees Of The University Of Pennsylvania Methods and apparatus for mechanically intelligent grasping
US6701296B1 (en) * 1988-10-14 2004-03-02 James F. Kramer Strain-sensing goniometers, systems, and recognition algorithms
US5047952A (en) * 1988-10-14 1991-09-10 The Board Of Trustee Of The Leland Stanford Junior University Communication system for deaf, deaf-blind, or non-vocal individuals using instrumented glove
US5004391A (en) * 1989-08-21 1991-04-02 Rutgers University Portable dextrous force feedback master for robot telemanipulation
US5631861A (en) * 1990-02-02 1997-05-20 Virtual Technologies, Inc. Force feedback and texture simulating interface device
US5548667A (en) * 1991-05-24 1996-08-20 Sony Corporation Image processing system and method thereof in which three dimensional shape is reproduced from two dimensional image data
JPH0569374A (ja) * 1991-09-14 1993-03-23 Toyota Central Res & Dev Lab Inc 指モジユール、指モジユール構造、ロボツトハンドおよび指モジユールの信号検出取出方法
JP3418456B2 (ja) * 1994-06-23 2003-06-23 ファナック株式会社 ロボット位置教示具及びロボット位置教示方法
US5798627A (en) * 1995-01-04 1998-08-25 Gilliland; Malcolm T. Method for simultaneous operation of robot welders
AU7017396A (en) * 1995-09-08 1997-03-27 Ross-Hime Designs, Inc. Robotic manipulator
US6565563B1 (en) * 1996-09-23 2003-05-20 John M. Agee Method and apparatus for increasing the range of motion of one or more contracted joints through external forces independently transmitted to the skeleton
US6042555A (en) * 1997-05-12 2000-03-28 Virtual Technologies, Inc. Force-feedback interface device for the hand
US6016385A (en) * 1997-08-11 2000-01-18 Fanu America Corp Real time remotely controlled robot
WO2000045229A1 (en) * 1999-01-29 2000-08-03 Georgia Tech Research Corporation Uncalibrated dynamic mechanical system controller
US6924787B2 (en) * 2000-04-17 2005-08-02 Immersion Corporation Interface for controlling a graphical image
JP2002163639A (ja) 2000-11-28 2002-06-07 Toshiba Corp 3次元情報復元装置及びその方法
US7831292B2 (en) * 2002-03-06 2010-11-09 Mako Surgical Corp. Guidance system and method for surgical procedures with improved feedback
JP3901006B2 (ja) 2002-04-25 2007-04-04 株式会社デンソーウェーブ 視覚認識装置
JP3876234B2 (ja) * 2003-06-17 2007-01-31 ファナック株式会社 コネクタ把持装置、同装置を備えたコネクタ検査システム及びコネクタ接続システム
DE112004002219B4 (de) * 2003-11-13 2018-07-12 Japan Science And Technology Agency Verfahren zum Antreiben eines Roboters
JP4384021B2 (ja) * 2004-12-14 2009-12-16 本田技研工業株式会社 脚式ロボットの制御装置
US7862522B1 (en) * 2005-08-08 2011-01-04 David Barclay Sensor glove
JP4456561B2 (ja) * 2005-12-12 2010-04-28 本田技研工業株式会社 自律移動ロボット
JP4238256B2 (ja) * 2006-06-06 2009-03-18 ファナック株式会社 ロボットシミュレーション装置
JP5105147B2 (ja) * 2006-08-28 2012-12-19 株式会社安川電機 ロボットおよび制御方法
US7313464B1 (en) * 2006-09-05 2007-12-25 Adept Technology Inc. Bin-picking system for randomly positioned objects
WO2008058061A2 (en) * 2006-11-03 2008-05-15 President And Fellows Of Harvard College Robust compliant adaptive grasper and method of manufacturing same
JP4918004B2 (ja) * 2006-11-24 2012-04-18 パナソニック株式会社 多指ロボットハンド
JP4930100B2 (ja) * 2007-02-27 2012-05-09 ソニー株式会社 力触覚ディスプレイ、力触覚ディスプレイの制御方法、並びにコンピュータ・プログラム
JP4508283B2 (ja) * 2007-03-09 2010-07-21 オムロン株式会社 認識処理方法およびこの方法を用いた画像処理装置
JP4316630B2 (ja) * 2007-03-29 2009-08-19 本田技研工業株式会社 ロボット、ロボットの制御方法およびロボットの制御プログラム
KR100914869B1 (ko) 2007-05-29 2009-08-31 (주)에프엑스기어 실시간 직물 시뮬레이션 시스템 및 방법
CA2591808A1 (en) * 2007-07-11 2009-01-11 Hsien-Hsiang Chiu Intelligent object tracking and gestures sensing input device
US7957583B2 (en) * 2007-08-02 2011-06-07 Roboticvisiontech Llc System and method of three-dimensional pose estimation
US20090306825A1 (en) * 2008-04-21 2009-12-10 Ying Li Manipulation system and method
KR101479232B1 (ko) * 2008-05-13 2015-01-06 삼성전자 주식회사 로봇과 로봇 핸드, 로봇 핸드의 제어 방법
US8385971B2 (en) * 2008-08-19 2013-02-26 Digimarc Corporation Methods and systems for content processing
KR101549818B1 (ko) * 2008-12-02 2015-09-07 삼성전자 주식회사 로봇 핸드 및 그 제어방법
WO2010099035A1 (en) * 2009-02-25 2010-09-02 Honda Motor Co., Ltd. Body feature detection and human pose estimation using inner distance shape contexts
US8504198B2 (en) * 2009-05-14 2013-08-06 Honda Motor Co., Ltd. Robot hand and control system, control method and control program for the same
DE112010002659B4 (de) * 2009-05-14 2016-11-10 Honda Motor Co., Ltd. Fünffingrige Handvorrichtung
US8483880B2 (en) * 2009-07-22 2013-07-09 The Shadow Robot Company Limited Robotic hand
US8467903B2 (en) * 2009-09-22 2013-06-18 GM Global Technology Operations LLC Tendon driven finger actuation system
US8255079B2 (en) * 2009-09-22 2012-08-28 GM Global Technology Operations LLC Human grasp assist device and method of use
KR20110055062A (ko) * 2009-11-19 2011-05-25 삼성전자주식회사 로봇 시스템 및 그 제어 방법
JP5428921B2 (ja) 2010-02-15 2014-02-26 株式会社Ihi ハンガーラインからのワーク回収装置及び方法
CN102821918A (zh) * 2010-03-24 2012-12-12 株式会社安川电机 机器人手和机器人装置
JP2011200948A (ja) * 2010-03-24 2011-10-13 Sony Corp 把持判別装置および把持判別方法
US8219352B2 (en) * 2010-03-31 2012-07-10 Mitsubishi Electric Research Laboratories, Inc. Localization in industrial robotics using rao-blackwellized particle filtering
KR101778030B1 (ko) * 2010-09-27 2017-09-26 삼성전자주식회사 로봇 및 그 제어방법
DE102010050547A1 (de) * 2010-11-05 2012-05-10 Kuka Laboratories Gmbh Verfahren und Vorrichtung zur Sicherheitsüberwachung eines Roboters
KR101308373B1 (ko) * 2010-11-17 2013-09-16 삼성전자주식회사 로봇 제어방법
JP5744587B2 (ja) * 2011-03-24 2015-07-08 キヤノン株式会社 ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
JP5733516B2 (ja) * 2011-05-12 2015-06-10 株式会社Ihi 移動体把持装置と方法
CN103517789B (zh) * 2011-05-12 2015-11-25 株式会社Ihi 运动预测控制装置和方法
US9067319B2 (en) * 2011-08-11 2015-06-30 GM Global Technology Operations LLC Fast grasp contact computation for a serial robot
KR101896473B1 (ko) * 2012-01-04 2018-10-24 삼성전자주식회사 로봇 핸드의 제어 방법
KR101941844B1 (ko) * 2012-01-10 2019-04-11 삼성전자주식회사 로봇 및 그 제어방법
US9605952B2 (en) * 2012-03-08 2017-03-28 Quality Manufacturing Inc. Touch sensitive robotic gripper
WO2013134610A1 (en) * 2012-03-08 2013-09-12 Quality Manufacturing Inc. Touch sensitive robotic gripper
JP5975685B2 (ja) * 2012-03-09 2016-08-23 キヤノン株式会社 情報処理装置、情報処理方法
JP6004809B2 (ja) * 2012-03-13 2016-10-12 キヤノン株式会社 位置姿勢推定装置、情報処理装置、情報処理方法
US9383895B1 (en) * 2012-05-05 2016-07-05 F. Vinayak Methods and systems for interactively producing shapes in three-dimensional space
JP6323993B2 (ja) * 2012-08-28 2018-05-16 キヤノン株式会社 情報処理装置、情報処理方法、及びコンピュータプログラム
US9095978B2 (en) * 2012-12-07 2015-08-04 GM Global Technology Operations LLC Planning a grasp approach, position, and pre-grasp pose for a robotic grasper based on object, grasper, and environmental constraint data
US20140226136A1 (en) * 2013-02-11 2014-08-14 Patrick J. Gagnon Method and apparatus for cleaning photomask handling surfaces
JP2014161937A (ja) * 2013-02-22 2014-09-08 Seiko Epson Corp 姿勢検出装置、位置検出装置、ロボット、ロボットシステム、姿勢検出方法及びプログラム
JP6101134B2 (ja) * 2013-04-01 2017-03-22 キヤノン株式会社 情報処理装置及び情報処理方法
JP6188440B2 (ja) 2013-06-17 2017-08-30 キヤノン株式会社 ロボット装置及びロボット制御方法
CN103646391B (zh) * 2013-09-30 2016-09-28 浙江大学 一种针对动态变化场景的实时摄像机跟踪方法
JP2015089590A (ja) * 2013-11-05 2015-05-11 ファナック株式会社 バラ積みされた物品をロボットで取出す装置及び方法
EP3107429B1 (de) * 2014-02-20 2023-11-15 MBL Limited Verfahren und systeme zur lebensmittelzubereitung in einer küche für robotisches kochen
WO2015153739A1 (en) * 2014-04-01 2015-10-08 University Of South Florida Systems and methods for planning a robot grasp based upon a demonstrated grasp
JP6317618B2 (ja) * 2014-05-01 2018-04-25 キヤノン株式会社 情報処理装置およびその方法、計測装置、並びに、作業装置
US9427874B1 (en) * 2014-08-25 2016-08-30 Google Inc. Methods and systems for providing landmarks to facilitate robot localization and visual odometry
EP3185761B1 (de) * 2014-08-29 2021-03-24 Bionic Skins LLC Instrument zur bestimmung von viskoelastischen eigenschaften eines körpersegments einer person
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
JP6573354B2 (ja) 2014-11-28 2019-09-11 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
US9492923B2 (en) * 2014-12-16 2016-11-15 Amazon Technologies, Inc. Generating robotic grasping instructions for inventory items
US9914222B2 (en) * 2015-02-05 2018-03-13 Canon Kabushiki Kaisha Information processing apparatus, control method thereof, and computer readable storage medium that calculate an accuracy of correspondence between a model feature and a measurement data feature and collate, based on the accuracy, a geometric model and an object in an image
CN104786226A (zh) * 2015-03-26 2015-07-22 华南理工大学 抓取在线工件的机器人位姿及运动轨迹定位系统与方法
US9616568B1 (en) * 2015-08-25 2017-04-11 X Development Llc Generating a grasp affordance for an object based on a thermal image of the object that is captured following human manipulation of the object
US10209063B2 (en) * 2015-10-03 2019-02-19 X Development Llc Using sensor-based observations of agents in an environment to estimate the pose of an object in the environment and to estimate an uncertainty measure for the pose
US9669543B1 (en) * 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping
CN105740899B (zh) * 2016-01-29 2019-08-23 长安大学 一种机器视觉图像特征点检测与匹配复合的优化方法
US9868212B1 (en) * 2016-02-18 2018-01-16 X Development Llc Methods and apparatus for determining the pose of an object based on point cloud data
US10131051B1 (en) * 2016-08-12 2018-11-20 Amazon Technologies, Inc. Anticipation-based robotic object grasping

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4265088B2 (ja) 2000-07-10 2009-05-20 株式会社豊田中央研究所 ロボット装置及びその制御方法
JP2011143494A (ja) 2010-01-13 2011-07-28 Ihi Corp ロボット制御装置及び方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110303474A (zh) * 2018-03-27 2019-10-08 发那科株式会社 使用图像处理修正机器人的示教的机器人系统

Also Published As

Publication number Publication date
JP2018027580A (ja) 2018-02-22
DE102017118276B4 (de) 2020-10-08
CN107756423B (zh) 2020-02-28
US20180050452A1 (en) 2018-02-22
CN107756423A (zh) 2018-03-06
JP6514156B2 (ja) 2019-05-15
US10507583B2 (en) 2019-12-17

Similar Documents

Publication Publication Date Title
DE102017118276A1 (de) Robotersteuerungsvorrichtung
DE102016012065B4 (de) Robotersystem mit Funktion zum Berechnen von Position und Ausrichtung eines Sensors
DE102013021917B4 (de) Robotersystemanzeigevorrichtung
DE102009034529B4 (de) Automatisches Führungs- und Erkennungssystem sowie Verfahren für dieses
DE102016008994B4 (de) Werkzeugmaschine, simulationsvorrichtung und maschineneinlerngerät
DE102013008523B4 (de) Roboterprogramm-Änderungsvorrichtung
DE102019001948A1 (de) Steuerung und maschinelle Lernvorrichtung
DE102013202378B4 (de) Prozedurales Gedächtnislernen und Robotersteuerung
DE102015107436B4 (de) Lernfähige Bahnsteuerung
DE102016116702A1 (de) Messsystem zum Kalibrieren der mechanischen Parameter eines Roboters
DE102017002608A1 (de) Positioniersystem unter Verwendung eines Roboters
DE102018003266B4 (de) Controller und maschinelle lernvorrichtung
DE102006055917B4 (de) Industrieroboter und Verfahren zum Erkennen eines ungenau parametrierten Robotermodells
DE102019109624B4 (de) Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung
DE102018200240B4 (de) Robotersteuerungsvorrichtung
DE102016116811B4 (de) Auslenkungsmesssystem zum Messen der Auslenkung eines Gelenkroboters
DE112019006789B4 (de) Arbeitsbestimmungsgerät und arbeitsbestimmungsverfahren
DE102020110252B4 (de) Vibrationsanzeigeeinrichtung, Betriebsprogrammerstellungseinrichtung und System
DE102015000589A1 (de) Datenerzeugungsvorrichtung für einen visuellen Sensor und ein Erfassungssimulationssystem
DE102016220097A1 (de) Bestimmung einer Position eines beweglichen Teils eines Koordinatenmessgerätes
EP3297792B1 (de) Steuern und regeln von aktoren eines roboters unter berücksichtigung von umgebungskontakten
DE102015004483A1 (de) Robotersteuerung und Robotersystem zum Bewegen eines Roboters als Reaktion auf eine Kraft
DE102018129528A1 (de) Schwingungsunterdrückungsvorrichtung
DE102018002785B4 (de) 1 - 8CController und maschinelle Lernvorrichtung
DE102010052430B4 (de) Interaktives Mensch-Roboter-System mit einem Steueralgorithmus zur Schätzung der menschlichen Steifigkeit

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final