DE102017202717A1 - Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen - Google Patents

Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen Download PDF

Info

Publication number
DE102017202717A1
DE102017202717A1 DE102017202717.7A DE102017202717A DE102017202717A1 DE 102017202717 A1 DE102017202717 A1 DE 102017202717A1 DE 102017202717 A DE102017202717 A DE 102017202717A DE 102017202717 A1 DE102017202717 A1 DE 102017202717A1
Authority
DE
Germany
Prior art keywords
task
glove
sensors
robot
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102017202717.7A
Other languages
English (en)
Inventor
Muhammad E. Abdallah
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102017202717A1 publication Critical patent/DE102017202717A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1633Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1671Programme controls characterised by programming, planning systems for manipulators characterised by simulation, either to verify existing program or to create and verify new program, CAD/CAM oriented, graphic oriented programming systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10009Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves
    • G06K7/10366Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation sensing by radiation using wavelengths larger than 0.1 mm, e.g. radio-waves or microwaves the interrogation device being adapted for miscellaneous applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/35Nc in input of data, input till input file format
    • G05B2219/35464Glove, movement of fingers
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39298Trajectory learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Toxicology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Electromagnetism (AREA)
  • Medical Informatics (AREA)
  • Manipulator (AREA)

Abstract

Ein System zum Demonstrieren einer Aufgabe für einen Roboter beinhaltet einen Handschuh, Sensoren und eine Steuerung. Die Sensoren messen Aufgabenmerkmale, während ein menschlicher Bediener den Handschuh trägt und die Aufgabe demonstriert. Die Aufgabemerkmale beinhalten eine Pose, eine gemeinsame Winkelkonfiguration und eine verteilte Kraft des Handschuhs. Die Steuerung empfängt die Aufgabenmerkmale und verwendet eine Maschinenlernlogik, um die demonstrierte Aufgabe als eine Aufgabenanwendungsdatei zu lernen und aufzuzeichnen. Die Steuerung überträgt Steuersignale an den Roboter, um zu bewirken, dass der Roboter die demonstrierte Aufgabe automatisch durchführt. Ein Verfahren beinhaltet das Messen der Aufgabenmerkmale unter Verwendung des Handschuhs, das Übertragen der Aufgabenmerkmale an die Steuerung, das Verarbeiten der Aufgabenmerkmale unter Verwendung der Maschinenlernlogik, das Erzeugen der Steuersignale und das Übertragen der Steuersignale an den Roboter, um zu bewirken, dass der Roboter automatisch die Aufgabe ausführt.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Offenbarung betrifft das menschlich demonstrierte Lernen von Roboteranwendungen, insbesondere jene mit Kraft- und Positionszielen.
  • HINTERGRUND
  • Serielle Roboter sind elektromechanische Vorrichtungen, die in der Lage sind, Objekte unter Verwendung einer Reihe von Roboterverbindungen zu manipulieren. Die Roboterverbindungen sind durch Robotergelenke miteinander verbunden, die jeweils von einem oder mehreren Gelenkantrieben angetrieben werden. Jedes Robotergelenk wiederum stellt eine unabhängige Regelgröße oder Freiheitsgrad dar. End-Effektoren, die am distalen Ende des seriellen Roboters angeordnet sind, sind konfiguriert, um eine bestimmte Aufgabe auszuführen, wie das Greifen eines Arbeitswerkzeugs oder das Stapeln mehrerer Komponenten. Typischerweise werden serielle Roboter auf einen gewünschten Zielwert durch Geschwindigkeiten, Geschwindigkeits-, Impedanz- oder positionsbasierte Steuergesetze gesteuert.
  • In der Fertigung besteht ein Bedarf an flexiblen Fabriken und Prozessen, die in der Lage sind, neue oder vielfältigere Produkte mit einer minimalen Ausfallzeit zu produzieren. Um dieses Ziel vollständig zu erreichen, sind Roboterplattformen erforderlich, um sich schnell an neue Aufgaben anzupassen, ohne zeitraubende Neuprogrammierung und Codezusammenstellung. Traditionsgemäß werden Roboter manuell programmiert, indem das Verhalten in einer Programmiersprache oder durch ein Pendent mit Pull-Down-Menüs angelernt wird. Da die Komplexität sowohl des Roboters als auch der Anwendung zunimmt, sind derartige herkömmliche Techniken übermäßig komplex und zeitaufwendig geworden. Daher hat sich der Versuch, Programme auf einfachere und intuitive Weise zu entwickeln, allgemein als „Lernen durch Demonstration” oder „Imitationslernen” entwickelt.
  • Unter Verwendung derartiger Verfahren führt ein menschlicher Bediener eine Aufgabe durch, und ein Computersystem lernt die Aufgabe durch Beobachtung durch den Einsatz von maschinellen Lerntechniken. Trainingsoperationen werden typischerweise entweder von einem menschlichen Bediener ausgeführt, der die Aufgabe direkt ausführt, während ein Computer-Vision-System Verhalten aufnimmt, oder durch die Bedienperson, die den Roboter ergreift und sie physikalisch durch eine erforderliche Folge von Bewegungen bewegt. Derartige „Lernen durch Demonstration” Techniken haben das Potenzial, den Aufwand der Programmierung von Roboteranwendungen mit erhöhter Komplexität zu vereinfachen. Roboteraufgaben weisen typischerweise Positions- oder Bewegungsziele auf, die die Aufgabe definieren. Mehr noch haben diese Arten von Aufgaben begonnen, Kraft- oder Impedanzziele einzuführen, d. h. Ziele, die das Ausmaß der anzuwendenden Kräfte angeben. Wenn eine Aufgabe auch Kraftziele erfordert, reicht allein die Verwendung von Positionserfassungsdaten nicht mehr aus. Infolgedessen wurden Systeme entwickelt, die versuchen, derartige Aufgaben zu lernen, indem sie dem Roboter Kraftsensoren hinzufügen, während der Roboter durch eine Aufgaben-Demonstration bewegt oder zurückgetrieben wird. Jedoch können bestehende Ansätze für die Demonstration bestimmter Arten von geschickten Aufgaben, die sowohl Kraft- als auch Positionsziele aufweisen, weniger als optimal sein.
  • ZUSAMMENFASSUNG
  • Ein System und ein begleitendes Verfahren werden hierin zur Erleichterung des Roboterlernens von durch einen Benutzer bedienten Anwendungen mit Kraft- und Positionszielen offenbart. Der vorliegende Ansatz soll die Entwicklung komplexer Roboteranwendungen, insbesondere jene, die in unstrukturierten Umgebungen und/oder Umgebungen verwendet werden, in denen direkte menschliche Roboterinteraktion und -zusammenarbeit auftritt, stark vereinfachen. Unstrukturierte Umgebungen sind, wie in der Technik bekannt, Arbeitsumgebungen, die nicht stark konfiguriert und für eine spezielle Anwendung konzipiert sind. Da die Komplexität der Roboter weiter zunimmt, erhöht sich auch die Komplexität der Roboteraufgaben, die ausgeführt werden können. So verwenden beispielsweise einige auftauchende Roboter sehnenbetätigte Finger und entgegengesetzte Daumen, um Aufgaben mit menschlich-ähnlichen Ebenen von Geschicklichkeit und Geschmeidigkeit auszuführen. Die traditionelle Aufgabenprogrammierung und die konventionelle Demonstration von Rücktreibungsaufgaben für derartige Roboter sind somit komplex bis zu dem Punkt, dass sie impraktikabel sind.
  • In einer exemplarischen Ausführungsform beinhaltet ein System, um einem Roboter eine Aufgabe zu zeigen, die sowohl Kraft- als auch Positionsziele aufweist, einen Handschuh, der von einem menschlichen Bediener tragbar ist. Das System beinhaltet auch Sensoren und eine oder mehrere Steuerungen, wobei die Steuerung(en) in Kommunikation mit den Sensoren steht. Die Sensoren erfassen kollektiv Aufgabenmerkmale, während der menschliche Bediener, der den Handschuh trägt, die Aufgabe allein durch die Handlungen des menschlichen Bedieners aktiv demonstriert. Die Aufgabemerkmale beinhalten verteilte Kräfte, die auf den Handschuh einwirken sowie eine Handschuhpose und eine Gelenkwinkelkonfiguration.
  • Die Steuerung kann so programmiert sein, dass sie eine Maschinenlernlogik auf die Aufgabenmerkmale anwendet, um dadurch die aufgezeigte Aufgabe als eine Aufgabenanwendungsdatei zu lernen und aufzuzeichnen. Die Steuerung ist auch programmiert, um die Aufgabenanwendungsdatei auszuführen und dadurch einen Betrieb des Roboters zu steuern, d. h. der Roboter führt automatisch die Aufgabe durch, die anfänglich durch den menschlichen Bediener, der den Handschuh trägt, demonstriert wurde.
  • Ein Verfahren wird auch offenbart, um eine Aufgabe für einen Roboter unter Verwendung eines Handschuhs, auf dem die vorstehend erwähnten Sensoren positioniert sind, zu demonstrieren. Das Verfahren kann Messen der Satz Aufgabe Eigenschaften Verwendung der Handschuh während eine Mensch Bediener verschleißt die Gebrauchslage und die Aufgabe und anschließend die Aufgabe Charakteristiken zu einem Steuerung. Das Verfahren kann das Verarbeiten der Aufgabenmerkmale über die Steuerung unter Verwendung einer Maschinenlernlogik beinhalten, um dadurch die demonstrierte Aufgabe als eine Aufgabenanwendungsdatei zu lernen und aufzuzeichnen und einen Satz von Steuersignalen unter Verwendung der Aufgabenanwendungsdatei zu erzeugen. Der Satz von Steuersignalen wird an den Roboter übertragen, um dadurch zu bewirken, dass der Roboter automatisch die demonstrierte Aufgabe ausführt.
  • Die vorstehend genannten Funktionen sowie andere Funktionen und Vorteile dieser Offenbarung gehen aus der folgenden ausführlichen Beschreibung der bestmöglichen praktischen Umsetzung der dargestellten Offenbarung in Verbindung mit den zugehörigen Zeichnungen hervor.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Darstellung eines exemplarischen Handschuhs, der als Teil eines Systems zum Demonstrieren einer Kraftpositionstask für einen Roboter, wie hierin dargelegt, verwendbar ist.
  • 2 ist eine schematische Darstellung der Handinnenseite des Handschuhs, wie in 1 gezeigt.
  • 3 ist eine schematische Darstellung eines Systems zum Demonstrieren und Ausführen einer Kraft-Positionsaufgabe für einen Roboter unter Verwendung des Handschuhs, gezeigt in den 1 und 2.
  • 4 ist ein Flussdiagramm, das ein exemplarisches Verfahren zur Demonstration einer Kraftstellungsaufgabe für einen Roboter unter Verwendung des Systems, gezeigt in 4, beschreibt.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Unter Bezugnahme auf die Zeichnungen, worin gleiche Bezugszeichen gleichen oder ähnlichen Komponenten in den verschiedenen Figuren entsprechen, ist ein Handschuh 10 schematisch in den 1 und 2 gemäß einer exemplarischen Ausführungsform dargestellt. Wie in 3 gezeigt, ist der Handschuh 10 so konfiguriert, dass er von einem menschlichen Bediener 50 als Teil eines Systems 25 in der Demonstration zu einem Roboter 70 einer Aufgabe getragen wird, die sowohl Kraft- als auch Positionsziele aufweist. Das System 25 von 3 wird gemäß einem Verfahren 100 gesteuert, dessen Ausführungsform nachstehend unter Bezugnahme auf 4 beschrieben ist.
  • In Bezug auf den in den 1 und 2 gezeigten Handschuh 10, kann der Handschuh eine Vielzahl von gelenkigen oder verbundenen Fingern 12 und einen optionalen gelenkigen oder verbundenen gegenüberliegenden Daumen 12T beinhalten. Der Handschuh 10 beinhaltet auch eine Rückseite 16 und eine Handinnenfläche 17. Der Handschuh 10 kann aus einem beliebigen geeigneten Material wie beispielsweise atmungsaktive Maschen, Nylon und/oder Leder hergestellt sein. Eine optionale Handschlaufe 18 kann verwendet werden, um den Handschuh 10 an einem Handgelenk des Bedieners 50 zu sichern, wie gezeigt in 3. Während vier Finger 12 und ein gegenüberstellbarer Daumen 12T in der exemplarischen Ausführungsform der 1 und 2 dargestellt ist, können andere Konfigurationen des Handschuhs 10 ohne weiteres in Betracht gezogen werden, wie beispielsweise eine Zwei-Finger- oder eine Drei-Finger-Konfiguration, die für Quetschgreifanwendungen geeignet sind.
  • Im Gegensatz zu herkömmlichen Verfahren unter Verwendung von Sichtsystemen zum Ermitteln der Position und Pendant-Teaching einen Roboter während einer gegebenen Aufgaben-Demonstration anzutreiben, ermöglicht der vorliegende Ansatz stattdessen dem menschlichen Bediener 50, eine geschickte Aufgabe direkt durchzuführen, d. h. indem der menschliche Bediener 50 alleine ohne irgendeine Beteiligung des Roboters 70 in der Demonstration wirkt. Wie in 3, kann eine exemplarische kann eine fachmännische Aufgabe das Greifen, Einführen und Drehen einer Glühbirne 35 in eine Gewindebuchse (nicht gezeigte) beinhalten. Eine derartige Aufgabe besteht darin, eine Anzahl dynamisch verändernder Variablen genau zu überwachen und zu steuern, die kollektiv genau beschreiben, wie anfänglich die Glühbirne 35 zu greifen ist, wie intensiv und schnell die Glühbirne 35 in die Fassung eingesetzt werden kann, während die Glühbirne 35 erfasst wird, schnell die Glühbirne 35 in die Fassung eingeschraubt werden sollte und wie viel Rückkopplungskraft erfasst werden sollte, um anzuzeigen, dass die Glühbirne 35 vollständig in die Fassung eingeschraubt worden ist und darin sitzt. Eine derartige Aufgabe lässt sich mit konventioneller Roboter-Task-Demonstration, ausschließlich mit Vision-Kameras und anderen herkömmlichen Positionssensoren, nicht optimal erlernen.
  • Um dieser Herausforderung gerecht zu werden, führt der menschliche Bediener 50 die Aufgabe hierin direkt aus, wobei die vorgestellte Aufgabe sowohl Kraft- als auch Positionsziele, wie vorstehend erwähnt, aufweist. Um die gewünschten Enden zu erreichen, kann der Handschuh 10 mit einer Vielzahl unterschiedlicher Sensoren ausgestattet sein, einschließlich wenigstens eines Handinnflächensensors 20, Gelenkkonfigurationssensoren 30 und einer Anordnung von Kraftsensoren 40, die alle auf der Handfläche 17, den Fingern 12 und dem Daumen 12T angeordnet sind, wie in den 1 und 2 gezeigt. Die Sensoren 20, 30 und 40 stehen mit einer oder mehreren Steuerungen in Kommunikation, wobei in einer exemplarischen Ausführungsform ein erster Regler (C1) 60 vorgesehen ist. Die Sensoren 20, 30 und 40 sind so konfiguriert, dass sie Aufgabenmerkmale (TC) kollektiv messen, während die menschliche Bedienperson 50, die den Handschuh 10 trägt, die Aufgabe direkt demonstriert.
  • Die Aufgabenmerkmale können eine verteilte Kraft (Pfeil F10) auf den Handschuh 10 aufweisen, wie sie unter Verwendung des Arrays der Kraftsensoren 40 bestimmt wird, als auch eine Handfläche (Pfeil O17), die über den Handinnenflächensensor 20 und eine durch die verschiedenen Gelenkkonfigurationssensoren 30 ermittelte Gelenkwinkelkonfiguration (Pfeil J12) bestimmt werden. Die erste Steuerung 60, die mit Kinematikdaten (K10) programmiert werden kann, die die Kinematik des Handschuhs 10 beschreiben, kann die Aufgabenmerkmale verarbeiten und eine Aufgabenanwendungsdatei (TAF) (Pfeil 85) vorab einer zweiten Steuerung (C2) 80 vor der Steuerung des Roboters 70 ausgeben, wie weiter unten ausführlicher beschrieben wird. Während die ersten und zweiten Steuerungen 60 und 80 hierin beschrieben sind, kann eine einzelne Steuerung oder mehr als zwei Steuerungen in anderen Ausführungsformen verwendet werden.
  • Hinsichtlich der Anordnung von Kraftsensoren 40, gezeigt in 2, kann jeder Kraftsensor 40 als Lastsensor des in der Technik bekannten Typs ausgebildet sein, beispielsweise piezo-resistive Sensoren oder Druckwandler. Die Kraftsensoren 40 können auf allen wahrscheinlichen Kontaktflächen der Handfläche 17, der Finger 12 und des Daumens 12T des Handschuhs 10 verteilt sein, um die Kollektivkräfte genau zu messen, die an mehreren Punkten oder entlang mehrerer Punkte oder Oberflächen des Handschuhs 10 während der demonstrierten Aufgabe auf den Handschuh 10 einwirken und die letztlich die Kraftverteilung auf den Handschuh 10 bestimmen. Jeder der Kraftsensoren 40 gibt ein entsprechendes Kraftsignal aus, das als Kraftsignal EIN, FB,...FN in 2 dargestellt ist. Die Kraftsensoren 40 können verschiedene Größen aufweisen. So kann zum Beispiel in einigen Ausführungsformen ein Drucksensor 140 in Form einer großflächigen Druckmatte vorgesehen sein.
  • Die Gelenkkonfigurationssensoren 30 von 1 sind so konfiguriert, um die einzelnen Gelenkwinkel (Pfeil J12) der verschiedenen Gelenke der Finger 12 und 12T zu messen. Die Gelenke drehen sich jeweils um eine jeweilige Gelenkachse (A12), von der nur eine in 1 zur illustrativen Vereinfachung angedeutet ist. Wie aus dem Stand der Technik bekannt ist, hat ein menschlicher Finger drei Gelenke, für insgesamt zwölf Gelenkachsen plus zusätzliche Gelenkachsen des Daumens 12T.
  • In einer exemplarischen Ausführungsform können die Gelenkkonfigurationssensoren 30 als einzelne Resolver ausgebildet sein, die an jedem Gelenk angeordnet sind, oder als flexible Streifen, wie gezeigt, die in dem Material des Handschuhs 10 eingebettet oder damit verbunden sind. Die Gelenkkonfigurationssensoren 30 bestimmen einen Biegewinkel jedes Gelenks und geben die einzelnen Gelenkwinkel (Pfeil J12) an die erste Steuereinrichtung 60 von 3 aus. Wie auf dem Fachgebiet bekannt ist, können derartige flexiblen Sensoren als flexible leitfähige Fasern oder andere flexible leitfähige Sensoren ausgebildet sein, die in das flexible Gewebe des Handschuhs 10 integriert sind und jeweils einen veränderlichen Widerstand aufweisen, der einem unterschiedlichen Gelenkwinkel des Handschuhs 10 entspricht. Gemessene Änderungen des Widerstandes über die Gelenkkonfigurationssensoren 30, die sich auf den Speicher (M) der ersten Steuerung 60 beziehen, um einen bestimmten Gelenkwinkel oder eine Kombination von Gelenkwinkeln zu spezifizieren. Andere Verbindungskonfigurationssensoren 30 können Halleffektsensoren, optische Sensoren oder mikroelektromechanische System (MEMS) biaxiale Beschleunigungsmesser und uniaxiale Gyroskope innerhalb des beabsichtigten erfinderischen Schutzumfangs beinhalten.
  • Der Handflächensensor 20 von 1 kann ebenfalls ein Inertial- oder Magnetsensor, eine RFID-Einrichtung oder eine andere geeignete lokale Positioniervorrichtung sein, die dazu dient, die sechs Freiheitsgradpositionen und -orientierungen oder die Handflächenposition (Pfeil O17) der Handfläche 17 in einem dreidimensionalen Raum, d. h. XYZ-Koordinaten, zu bestimmen. Der Handinnenflächensensor 20 kann in verschiedenen Ausführungsformen in das Material der Handfläche 17 oder der Rückseite 16 eingebettet oder mit diesem verbunden sein. Die Sensoren 20, 30 und 40 messen kollektiv die Aufgabenmerkmale 85, während die menschliche Bedienperson 50 von 3 den Handschuh 10 während der direkten Demonstration der Aufgabe trägt.
  • Unter Bezugnahme auf 3, beinhaltet das vorstehend kurz erwähnte System 25 den Handschuh 10 und die Sensoren 20, 30 und 40 sowie die ersten und zweiten Steuerungen 60 und 80. Die Steuerungen 60 und 80 können als die gleiche Vorrichtung ausgeführt sein, d. h. als logische Module eines integrierten Steuersystems, oder sie können separate Rechnereinrichtungen sein, die drahtlos oder über Übertragungsleiter miteinander in Verbindung stehen. Die erste Steuereinrichtung 60 empfängt die gemessenen Aufgabenmerkmale von den Sensoren 20, 30, 40, d. h. von den Kräften F10, der Handflächenhaltung O17 und der Verbindungskonfiguration J12.
  • Optional kann das System 25 eine Kamera 38 beinhalten, die zum Erfassen eines Ziels, wie z. B. einer Position des menschlichen Bedieners 50 oder der Hand des Bedieners oder eines zusammengebauten oder sonstigen Objekts, das von der Bedienungsperson 50 gehalten wird, während der Demonstration der Aufgabe und zum Ausgeben derselben als Positionssignal (Pfeil P50), worin in diesem Fall das Positionssignal (Pfeil P50) als Teil der gemessenen Aufgabemerkmale empfangen werden kann. Ein Bildverarbeitungsmodul (MVM) kann von der ersten Steuereinrichtung 60 zum Ermitteln der Position des menschlichen Bedieners 50 aus dem empfangenen Positionssignal (Pfeil P50) für einen derartigen Zweck herangezogen werden, durch das Empfangen einer Bilddatei und das Bestimmen der Position über das Bildverarbeitungsmodul (MVM) unter Verwendung bekannter Bildverarbeitungsalgorithmen, sowie zum Bestimmen einer relativen Position des Handschuhs 10 in Bezug auf die menschliche Bedienperson 50.
  • Die erste Steuereinrichtung 60 kann danach herkömmliche Maschinenlerntechniken auf die gemessenen Aufgabenmerkmale unter Verwendung eines Maschinenlernmoduls (ML) der ersten Steuerung 60 anwenden, um dadurch die aufgezeigte Aufgabe als die Aufgabenanwendungsdatei 85 zu lernen und aufzuzeichnen. Die zweite Steuerung 80 ist so programmiert, dass sie die Aufgabenanwendungsdatei 85 von der ersten Steuerung 60 als maschinenlesbare Befehle empfängt und schließlich die Aufgabenanwendungsdatei 85 ausführt und dadurch einen Betrieb des Roboters 70 von 3 steuert.
  • Die entsprechenden ersten und zweiten Steuerungen 60 und 80 können derartige gemeinsamen Elemente wie den Prozessor (P) und den Speicher (M) beinhalten, wobei die letzteren konkrete, nichtflüchtige Speichervorrichtungen oder Medien wie z. B. Festwertspeicher, Speicher mit wahlfreiem Zugriff, optischem Speicher, Flash-Speicher, elektrisch programmierbarem Festwertspeicher und dergleichen beinhalten. Die ersten und zweiten Steuerungen 60 und 80 können auch beliebige erforderliche Logikschaltungen beinhalten, einschließlich, aber nicht beschränkt auf, eine Proportional-Integral-Differenzial-Steuerlogik, einen Hochgeschwindigkeitstakt, eine Analog-Digital-Schaltung, eine Digital-Analog-Schaltungsanordnung, einen digitalen Signalprozessor und die notwendigen Eingabe-/Ausgabe-Vorrichtungen und andere Signalaufbereitungs- und/oder Pufferschaltungen. Der Begriff „Modul” wie er hierin verwendet wird, einschließlich dem Maschinenvisionsmodul (MVM) und dem Maschinenlernmodul (ML), kann als alle notwendige Hardware und Software ausgebildet sein, die zum Ausführen bestimmter Aufgaben erforderlich sind.
  • Kinematische Informationen K72 des Endeffektors 72 und der Kinematikinformation (K10) des Handschuhs 10 können in dem Speicher M gespeichert werden, sodass die erste Steuerung 60 in der Lage ist, die relativen Positionen und Orientierungen des menschlichen Bedieners 50 und/oder des Handschuhs zu berechnen 10 und einen Punkt in einem Arbeitsbereich, in dem die Aufgabendarstellung stattfindet. Der Begriff „Kinematik”, wie er hierin verwendet wird, bezieht sich auf die kalibrierte und somit bekannte Größe, die relative Position, die Konfiguration, die Bewegungsbahnen und den Bereich der Bewegungseinschränkungen eines gegebenen Geräts oder Objekts. Somit kann durch das genaue Erkennen, wie der Handschuh 10 konstruiert und bewegt wird und wie sich der Endeffektor 72 ebenfalls bewegt, die erste Steuerung 60 die Bewegung des Handschuhs 10 in eine Bewegung des Endeffektors 72 übersetzen und dadurch die erforderlichen Maschinen-ausführbaren Anweisungen kompilieren.
  • In Bezug auf das maschinelle Lernen im Allgemeinen bezieht sich dieser Begriff hier auf die Arten von künstlicher Intelligenz, die in der Technik gut bekannt sind. Somit wird die erste Steuerung 60 mit der erforderlichen Datenanalyse-Logik zum iterativen Lernen von und Anpassen an dynamische Eingangsdaten programmiert. So kann beispielsweise die erste Steuerung 60 derartige exemplarische Operationen wie Mustererkennung und Erkennung durchführen, z. B. unter Verwendung von überwachtem oder unüberwachtem Lernen, Bayesschen Algorithmen, Clusteringalgorithmen, Entscheidungsbaumalgorithmen oder neuronalen Netzwerken. Letztlich gibt das Maschinenlernmodul (ML) die Aufgabenanwendungsdatei 85 aus, d. h. ein computerlesbares Programm oder Code, der von dem Roboter 70 unter Verwendung der zweiten Steuerung 80 ausgeführt werden kann. Die zweite Steuerung 80 gibt letztendlich Steuersignale (Pfeil CC70) an den Roboter 70 aus, um dadurch zu bewirken, dass der Roboter 70 die demonstrierte Aufgabe ausführt, wie in der Aufgabenanwendungsdatei 85 dargelegt.
  • 4 zeigt ein exemplarisches Verfahren 100 zum Demonstrieren einer Aufgabe, die Kraft- und Positionsziele aufweist, zu dem Roboter 70 unter Verwendung des Handschuhs 10 der 1 und 2. Das Verfahren 100 beginnt mit dem Schritt S102, der die Demonstration einer Roboteraufgabe beinhaltet – wobei die Demonstration ausschließlich von einem Menschen vorgenommen wird – unter Verwendung des in den 1 und 2 gezeigten Handschuhs 10. Der menschliche Bediener 50 der 3 trägt den Handschuh 10 der 1 und 2 auf einer Hand und demonstriert direkt die Aufgabe unter Verwendung der Handschuhhand ohne irgendeine Intervention oder Aktion durch den Endeffektor 72 oder den Roboter 70. Das Verfahren 100 fährt mit Schritt S104 fort, während der menschliche Bediener 50 weiterhin die Aufgabe über den Handschuh 10 demonstriert.
  • Der Schritt S104 beinhaltet Messen das Messen der Aufgabencharakteristiken (TC) unter Verwendung des Handschuhs 10, während der menschliche Bediener 50 den Handschuh 10 trägt und die Aufgabe demonstriert. Die Sensoren 20, 30 und 40 messen gemeinsam die Aufgabecharakteristiken (TC) und die Signale, die die Aufgabeneigenschaften beschreiben, d. h. die Kräfte F10, die Handflächenposition O17 und die Verbindungskonfiguration J12, an die erste Steuerung 60 übertragen. Das Verfahren 100 fährt anschließend mit Schritt S106 fort.
  • In Schritt S106 kann die erste Steuerung 60 bestimmen, ob die Demonstration der Aufgabe abgeschlossen ist. Verschiedene Ansätze können zum Implementieren von Schritt S106 genommen werden, einschließlich Erfassen einer Ausgangsposition oder einer kalibrierten Geste oder Position des Handschuhs 10 oder Erfassen eines Niederdrückens einer Taste (nicht gezeigt), die die erste Steuerung 60 informiert, dass die Demonstration der Aufgabe abgeschlossen ist. Das Verfahren 100 fährt dann mit Schritt S108 fort, der wahlweise durch in Schritt S107 gesammelte Daten informiert werden kann.
  • Der optionale Schritt S107 beinhaltet die Verwendung der Kamera 38 von 3 zum Sammeln von Sichtdaten und somit des Positionssignals (Pfeil P50). Wenn der Schritt S107 verwendet wird, kann die Kamera 38, z. B. eine 3D-Punktwolkenkamera oder ein optischer Scanner, 3D-Positionsinformationen sammeln und über das Maschinenvisionsmodul (MVM) eine relative Position des menschlichen Bedieners 50, des Handschuhs 10 und/oder anderer Informationen und leitet diese zu dem ersten Controller 60 weiter.
  • Der Schritt S108 beinhaltet das Erlernen der demonstrierten Aufgabe aus den Schritten S102–S106. Dies beinhaltet die Verarbeitung der empfangenen Aufgabenmerkmale während oder nach Beendigung der Demonstration über das Maschinenlernmodul (ML) gezeigt in 3. Der Schritt S108 kann das Erzeugen von Aufgabenprimitiven, d. H. Die Kernschritte der demonstrierten Aufgabe, wie beispielsweise „Greifen der Glühlampe 35 am Punkt X1Y2Z3 mit Kraftverteilung X”, „bewegen der erfassten Glühbirne 35 in die Position X2Y1Z2”, „Einsetzen der Glühbirne 35 in die Fassung mit Winkel Φ und Geschwindigkeit V”, „drehen Sie die Glühbirne 35 mit dem Drehmoment T” usw. Übergänge zwischen derartigen Aufgabenprimitiven können durch Erfassen von Änderungen der Werte der gesammelten Daten von Schritt S104 erfasst werden. Das Verfahren 100 fährt mit Schritt S110 fort, wenn die demonstrierte Aufgabe gelernt worden ist.
  • Schritt S110 beinhaltet das Übersetzen der demonstrierten Aufgabe von Schritt S108 in die Aufgabenanwendungsdatei 85. Der Schritt S110 kann die Verwendung der Kinematikinformation K10 und K72 beinhalten, um die Aufgabe, wie sie von der menschlichen Bedienperson 50 ausgeführt wird, in einen maschinenlesbaren und ausführbaren Code zu übersetzen, der für den in 3 gezeigten Endeffektor 72 geeignet ist. Da zum Beispiel die von der menschlichen Bedienperson 50 verwendeten hohen Geschicklichkeitsgrenzen der menschlichen Hand aus 3 am besten nur durch die Maschinenhand, die der Endeffektor 72 ist, angenähert werden kann, kann es nicht möglich sein, unter Verwendung des Roboters 70 die spezielle Kraftverteilung, Pose und Verbindungskonfiguration, die durch die menschliche Bedienperson 50 verwendet wird, exakt zu duplizieren. Daher, die erste Steuerung 60 ist programmiert, um das Aufgabenprogramm sich in dem nächsten Näherung dar, mit der Endeffektor 72, beispielsweise, über Übertragungsfunktionen, Nachschlagetabellen oder Kalibrierfaktor. Die Anweisungen in einer Form, die die zweite Steuerung 80 verstehen kann, werden dann als die Aufgabenanwendungsdatei 85 erzeugt. Das Verfahren 100 fährt mit Schritt S112 fort, sobald die Aufgabenanwendungsdatei 85 erzeugt worden ist.
  • Bei Schritt S112 empfängt die zweite Steuerung 80 die Aufgabenanwendungsdatei 85 von der ersten Steuerung 60 und führt eine Steuerungsaktion in Bezug auf den Roboter 70 von 3 aus. Beim Ausführen des Schritts S112 überträgt die zweite Steuerung 80 Steuersignale (Pfeil CC70) an den Roboter 70, der die spezifische Bewegung beschreibt, die erforderlich ist. Der Roboter 70 bewegt dann den Endeffektor 72 gemäß der Aufgabenanwendungsdatei 85 und führt dadurch die demonstrierte Aufgabe allein und automatisch über den Betrieb des Roboters 70 aus.
  • Die besten Modi für die Durchführung der vorliegenden Offenbarung wurden zwar im Detail beschrieben, doch Fachleute für den Bereich dieser Offenbarung werden verschiedene alternative Designs und Ausführungsformen erkennen, die in den Rahmen der angefügten Ansprüche fallen.

Claims (10)

  1. System zum Demonstrieren einer Aufgabe mit Kraft- und Positionszielen für einen Roboter, wobei das System Folgendes umfasst: einen Handschuh; eine Vielzahl von Sensoren, die konfiguriert sind, um einen Satz von Aufgabeneigenschaften kollektiv zu messen, während ein menschlicher Bediener den Handschuh trägt und die Aufgabe darstellt, worin der Satz von Aufgabeneigenschaften eine Pose, eine gemeinsame Winkelkonfiguration und eine verteilte Kraft des Handschuhs beinhaltet; und eine mit der PCS in Verbindung stehende Steuerung, die dafür programmiert ist, um: die gemessenen Aufgabenmerkmale von den Sensoren zu empfangen; und eine Maschinenlernlogik auf die empfangenen gemessenen Aufgabenmerkmale anwendet, um dadurch die demonstrierte Aufgabe als eine Aufgabenanwendungsdatei zu lernen und aufzuzeichnen.
  2. System nach Anspruch 1, worin die Steuerung außerdem dahingehend programmiert ist, einen Satz von Steuersignalen unter Verwendung der Aufgabenanwendungsdatei zu erzeugen und den Satz von Steuersignalen an den Roboter zu übertragen, um dadurch zu bewirken, dass der Roboter die demonstrierte Aufgabe automatisch durchführt.
  3. System nach Anspruch 1, worin der Handschuh eine Handfläche und eine Vielzahl von Fingern aufweist und worin die Sensoren, die die verteilte Kraft des Handschuhs messen, eine Vielzahl von Kraftsensoren beinhalten, die auf den Fingern und der Handfläche des Handschuhs angeordnet sind.
  4. System nach Anspruch 1, worin die Sensoren, die die Gelenkwinkelkonfiguration des Handschuhs messen, eine Vielzahl flexibler, leitender Sensoren beinhalten, die jeweils einen variablen Widerstand aufweisen, der einem unterschiedlichen Gelenkwinkel des Handschuhs entspricht.
  5. System nach Anspruch 1, ferner umfassend eine Kamera, die betreibbar ist, um eine Position eines Ziels in Form des Bedieners, der Hände des Bedieners oder eines Objekts zu erfassen, worin die erste Steuerung so programmiert ist, dass sie die erfasste Position als Teil des Satzes von Aufgabeneigenschaften empfängt.
  6. System nach Anspruch 1, worin die erste Steuerung mit einer kinematischen Information eines Endeffektors der Handschuh- und Kinematikinformation des Handschuhs programmiert ist und die zum Berechnen relativer Positionen und Orientierungen des Endeffektors unter Verwendung der Kinematikinformation des Endeffektors und des Handschuhs betreibbar ist.
  7. Verfahren zur Demonstration einer Aufgabe mit Kraft- und Positionszielen für einen Roboter unter Verwendung eines Handschuhs, auf dem mehrere Sensoren angeordnet sind, die konfiguriert sind, um einen Satz von Aufgabeneigenschaften, einschließlich einer Pose, einer Gelenkwinkelkonfiguration und einer verteilten Kraft des Handschuhs, kollektiv zu messen, wobei das Verfahren umfasst: das Messen des Satzes von Aufgabenmerkmalen unter Verwendung des Handschuhs, während ein menschlicher Bediener den Handschuh trägt und die Aufgabe demonstriert; das Übertragen der Aufgabenmerkmale an eine Steuerung; und das Verarbeiten der Aufgabenmerkmale über die Steuerung mittels Maschinenlernlogik, um dadurch die demonstrierte Aufgabe als eine Aufgabenanwendungsdatei zu lernen und aufzuzeichnen.
  8. Verfahren nach Anspruch 7, weiterhin umfassend: das Erzeugen eines Satzes von Steuersignalen über die Steuerung unter Verwendung der Aufgabenanwendungsdatei; und das Übertragen des Satzes von Steuersignalen von der Steuerung an den Roboter, um dadurch zu bewirken, dass der Roboter automatisch die demonstrierte Aufgabe ausführt.
  9. Verfahren nach Anspruch 7, worin der Handschuh eine Handfläche und eine Vielzahl von Fingern aufweist, wobei die Sensoren eine Vielzahl von piezo-resistive Kraftsensoren beinhalten, die an den Fingern und der Handfläche angeordnet sind, und Messen des Satzes von Aufgabeneigenschaften. der das Messen der verteilten Kraft unter Verwendung der piezo-resistiven Kraftsensoren beinhaltet.
  10. Verfahren nach Anspruch 7, worin die Sensoren eine Vielzahl flexibler, leitender Sensoren beinhalten, eine Vielzahl von flexiblen leitenden Sensoren mit je einem variablen Widerstand entsprechend einer unterschiedlichen Gelenkwinkel der Handschuh umfassen und worin das Messen des Satzes von Aufgabeneigenschaften das Messen der Gelenkwinkelkonfiguration über die flexiblen, leitfähigen Sensoren beinhaltet.
DE102017202717.7A 2016-02-29 2017-02-20 Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen Withdrawn DE102017202717A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US15/056,232 2016-02-29
US15/056,232 US20170249561A1 (en) 2016-02-29 2016-02-29 Robot learning via human-demonstration of tasks with force and position objectives

Publications (1)

Publication Number Publication Date
DE102017202717A1 true DE102017202717A1 (de) 2017-08-31

Family

ID=59580497

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017202717.7A Withdrawn DE102017202717A1 (de) 2016-02-29 2017-02-20 Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen

Country Status (3)

Country Link
US (1) US20170249561A1 (de)
CN (1) CN107127735A (de)
DE (1) DE102017202717A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109500815A (zh) * 2018-12-03 2019-03-22 深圳市越疆科技有限公司 用于前置姿态判断学习的机器人
DE102018108445B3 (de) 2018-04-10 2019-08-01 Ifm Electronic Gmbh Verfahren zum Programmieren eines Fertigungsschritts für einen Industrieroboter
JP2020082312A (ja) * 2018-11-29 2020-06-04 ファナック株式会社 ロボット用操作装置
CN111941423A (zh) * 2020-07-24 2020-11-17 武汉万迪智慧科技有限公司 一种人机交互机械抓手控制系统及方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110914022B (zh) * 2017-08-10 2023-11-07 罗伯特·博世有限公司 直接教导机器人的系统和方法
CN107932515B (zh) * 2017-11-16 2021-08-13 哈尔滨航士科技发展有限公司 一种基于机械手臂学习的电子设备与方法
US10481689B1 (en) * 2018-01-10 2019-11-19 Electronic Arts Inc. Motion capture glove
WO2019173678A1 (en) * 2018-03-09 2019-09-12 Siemens Aktiengesellschaft Optimal hand pose tracking using a flexible electronics-based sensing glove and machine learning
US10996754B2 (en) * 2018-10-12 2021-05-04 Aurora Flight Sciences Corporation Manufacturing monitoring system
CN109048924A (zh) * 2018-10-22 2018-12-21 深圳控石智能系统有限公司 一种基于机器学习的智能机器人柔性作业装置及其方法
EP3870118A4 (de) * 2018-10-22 2022-07-27 Abilitech Medical, Inc. Handunterstützungsorthese
CN109739357B (zh) * 2019-01-02 2020-12-11 京东方科技集团股份有限公司 机械手的控制方法及装置
CN109760050A (zh) * 2019-01-12 2019-05-17 鲁班嫡系机器人(深圳)有限公司 机器人行为训练方法、装置、系统、存储介质及设备
CN110962146B (zh) * 2019-05-29 2023-05-09 博睿科有限公司 机器人设备的操纵系统和方法
US11642784B2 (en) * 2020-05-29 2023-05-09 Honda Motor Co., Ltd. Database construction for control of robotic manipulator
CN111652248B (zh) * 2020-06-02 2023-08-08 上海岭先机器人科技股份有限公司 一种柔性布料的定位方法和装置
US11371903B2 (en) 2020-06-10 2022-06-28 Toyota Motor Engineering & Manufacturing North America, Inc. Pressure detection and management methods for determining a resultant force and apparatus incorporating the same
CN113537489B (zh) * 2021-07-09 2024-03-19 厦门大学 一种手肘角度预测方法、终端设备及存储介质
CN117860254B (zh) * 2024-03-11 2024-05-14 浙江立久佳运动器材有限公司 基于阵列式压力传感器的手部电刺激反馈控制系统

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3263824A (en) * 1963-12-20 1966-08-02 Northrop Corp Servo controlled manipulator device
US5038144A (en) * 1990-03-21 1991-08-06 Roger Kaye Forearm mounted multi-axis remote control unit
JPH0551196A (ja) * 1991-08-23 1993-03-02 Fujita Corp 動作検出解読システム
JP2698320B2 (ja) * 1993-08-31 1998-01-19 日本電信電話株式会社 常装着型入力システム、常装着型意図伝達システム、常装着型音楽用キーボードシステム及び常装着型点字入出力システム
IT1264718B1 (it) * 1993-10-08 1996-10-04 Scuola Superiore Di Studi Universitari E Di Perfezionamento Sant Anna Dispositivo atto a fornire una retroazione di forza ad un'unita' fisiologica, da utilizzarsi in particolare come interfaccia avanzata
US6126373A (en) * 1997-12-19 2000-10-03 Fanuc Usa Corporation Method and apparatus for realtime remote robotics command
US6304840B1 (en) * 1998-06-30 2001-10-16 U.S. Philips Corporation Fingerless glove for interacting with data processing system
KR100446612B1 (ko) * 2001-07-24 2004-09-04 삼성전자주식회사 다차원 공간상에서의 정보 선택 방법 및 장치
JP4878842B2 (ja) * 2003-11-13 2012-02-15 独立行政法人科学技術振興機構 ロボットの駆動方法
CN1696872A (zh) * 2004-05-13 2005-11-16 中国科学院自动化研究所 一种触觉反馈数据手套
US20080167662A1 (en) * 2007-01-08 2008-07-10 Kurtz Anthony D Tactile feel apparatus for use with robotic operations
CN202137764U (zh) * 2011-06-08 2012-02-08 杨少毅 机器人体感交互手套
US9552056B1 (en) * 2011-08-27 2017-01-24 Fellow Robots, Inc. Gesture enabled telepresence robot and system
US9983670B2 (en) * 2012-09-14 2018-05-29 Interaxon Inc. Systems and methods for collecting, analyzing, and sharing bio-signal and non-bio-signal data
US9076033B1 (en) * 2012-09-28 2015-07-07 Google Inc. Hand-triggered head-mounted photography
KR20240027152A (ko) * 2014-02-20 2024-02-29 엠비엘 리미티드 로봇식 요리용 키친에서의 음식 준비를 위한 방법 및 시스템
US9471767B2 (en) * 2014-08-22 2016-10-18 Oracle International Corporation CAPTCHA techniques utilizing traceable images
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US10073522B2 (en) * 2014-12-12 2018-09-11 Regents Of The University Of Minnesota Articles of handwear for sensing forces applied to medical devices
US9652038B2 (en) * 2015-02-20 2017-05-16 Sony Interactive Entertainment Inc. Magnetic tracking of glove fingertips
US9665174B2 (en) * 2015-02-20 2017-05-30 Sony Interactive Entertainment Inc. Magnetic tracking of glove fingertips with peripheral devices
US9676098B2 (en) * 2015-07-31 2017-06-13 Heinz Hemken Data collection from living subjects and controlling an autonomous robot using the data
JP6240689B2 (ja) * 2015-07-31 2017-11-29 ファナック株式会社 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
CN105058396A (zh) * 2015-07-31 2015-11-18 深圳先进技术研究院 机器人示教系统及其控制方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018108445B3 (de) 2018-04-10 2019-08-01 Ifm Electronic Gmbh Verfahren zum Programmieren eines Fertigungsschritts für einen Industrieroboter
JP2020082312A (ja) * 2018-11-29 2020-06-04 ファナック株式会社 ロボット用操作装置
JP2021104578A (ja) * 2018-11-29 2021-07-26 ファナック株式会社 ロボット用操作装置
US11292122B2 (en) 2018-11-29 2022-04-05 Fanuc Corporation Robot operation apparatus
JP7104212B2 (ja) 2018-11-29 2022-07-20 ファナック株式会社 ロボット用操作装置
US11745333B2 (en) 2018-11-29 2023-09-05 Fanuc Corporation Robot operation apparatus
CN109500815A (zh) * 2018-12-03 2019-03-22 深圳市越疆科技有限公司 用于前置姿态判断学习的机器人
CN109500815B (zh) * 2018-12-03 2023-06-02 日照市越疆智能科技有限公司 用于前置姿态判断学习的机器人
CN111941423A (zh) * 2020-07-24 2020-11-17 武汉万迪智慧科技有限公司 一种人机交互机械抓手控制系统及方法

Also Published As

Publication number Publication date
US20170249561A1 (en) 2017-08-31
CN107127735A (zh) 2017-09-05

Similar Documents

Publication Publication Date Title
DE102017202717A1 (de) Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen
DE102014108287B4 (de) Schnelles Erlernen durch Nachahmung von Kraftdrehmoment-Aufgaben durch Roboter
DE112019002310B4 (de) Ausführen einer "peg in hole"-aufgabe mit unbekannter neigung
DE102019009313B4 (de) Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
DE102018116053B4 (de) Robotersystem und Roboterlernverfahren
DE102014103738B3 (de) Visuelle fehlersuche bei roboteraufgaben
DE102010018438B4 (de) Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters
DE102010045529B4 (de) Interaktives Robotersteuerungssystem und Verwendungsverfahren
DE102019109624B4 (de) Roboterbewegungseinlernvorrichtung, Robotersystem und Robotersteuerung
DE112018002565B4 (de) System und Verfahren zum direkten Anlernen eines Roboters
EP3098034B1 (de) Auswahl eines gerätes oder eines objektes mit hilfe einer kamera
DE102010045556A1 (de) System und Verfahren zum Kalibrieren eines Absolutpositions-Drehsensors
Dillmann et al. Acquisition of elementary robot skills from human demonstration
DE102011110902B4 (de) Sicherer Betrieb eines Kraft- oder ImpedanzgesteuertenRoboters im Arbeitsraum
DE10392966T5 (de) Parallele haptische Joystick-Vorrichtung
DE202008014481U1 (de) Tragbares Roboterkontrollgerät zum Kontrollieren einer Bewegung eines Roboters
DE102010045528A1 (de) Gerüst und Verfahren zum Steuern eines Robotersystems unter Verwendung eines verteilten Rechnernetzwerks
DE102013017007B4 (de) Roboter mit einem Endmanipulatorarm mit Endeffektor sowie Verfahren zur Bestimmung eines Kraft- und Drehmomenteintrages auf einen Endeffektor eines Roboters
DE102015111080A1 (de) Robotervorrichtung mit maschinellem Sehen
WO2021028084A1 (de) Automatisierungssystem und verfahren zur handhabung von produkten
DE102011016113B4 (de) Verfahren und Vorrichtung zum Kalibrieren mehrachsiger Kraftaufnehmer in einem geschickten Roboter
DE112017003706T5 (de) Verfahren zur Bedienung eines Roboters, Computerprogramm und Robotersystem
DE112017007903B4 (de) Haltepositions- und Orientierungslehreinrichtung, Haltepositions- und Orientierungslehrverfahren und Robotersystem
DE112021004779T5 (de) Vorrichtung zum Einstellen eines Parameters, Robotersystem, Verfahren und Computerprogramm
DE102019118012B3 (de) Verfahren und Vorrichtung zum Steuern eines Robotersystems mittels menschlicher Bewegung

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

Representative=s name: MANITZ FINSTERWALD PATENTANWAELTE PARTMBB, DE

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee