DE102018005902A1 - Robotersystem und Roboter-Controller - Google Patents

Robotersystem und Roboter-Controller Download PDF

Info

Publication number
DE102018005902A1
DE102018005902A1 DE102018005902.3A DE102018005902A DE102018005902A1 DE 102018005902 A1 DE102018005902 A1 DE 102018005902A1 DE 102018005902 A DE102018005902 A DE 102018005902A DE 102018005902 A1 DE102018005902 A1 DE 102018005902A1
Authority
DE
Germany
Prior art keywords
robot
sensor
movement
mode
reference position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE102018005902.3A
Other languages
English (en)
Other versions
DE102018005902B4 (de
Inventor
Hidesato TAKAOKI
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Publication of DE102018005902A1 publication Critical patent/DE102018005902A1/de
Application granted granted Critical
Publication of DE102018005902B4 publication Critical patent/DE102018005902B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0009Constructional details, e.g. manipulator supports, bases
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/425Teaching successive positions by numerical control, i.e. commands being entered to control the positioning servo of the tool head or end effector

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Abstract

Ein Robotersystem und ein Roboter-Controller, mit denen eine Einlernbetätigung usw. eines Roboters durch eine einfache Betätigung intuitiv durchgeführt werden kann. Der Roboter weist einen Sensor auf, der an einer Oberfläche eines beweglichen Teils oder des Roboters angeordnet ist, und der Sensor ist konfiguriert, um eine dreidimensionale Position eines Gegenstands zu detektieren, wenn der Gegenstand den Sensor berührt oder sich in seiner Nähe befindet. Wenn der Gegenstand eine Bezugsposition erreicht, schaltet ein Abschnitt zum Ändern einer Betriebsart eine Bewegungsbetriebsart des Roboters auf eine Folgebetriebsart um. In der Folgebetriebsart wird basierend auf der Bewegungsrichtung des Gegenstands gegenüber der Bezugsposition die Richtung der Bewegung des Roboters bestimmt. Dann steuert ein Abschnitt zum Steuern einer Bewegung die Bewegung jeder Achse des Roboters, so dass ein Abschnitt, den der Gegenstand berührt, sich in einer Richtung bewegt, die im Allgemeinen die gleiche wie die Bewegungsrichtung des Gegenstands ist.

Description

  • HINTERGRUND DER ERFINDUNG
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft ein Robotersystem und einen Roboter-Controller.
  • Beschreibung der verwandten Technik
  • Als ein Mittel, um eine Bewegung eines Roboters einzulernen, ist ein Handbediengerät, das konfiguriert ist, um von einem Bediener betätigt zu werden, wohlbekannt. Als ein anderes Einlernmittel ist das direkte Einlernen wohlbekannt, bei dem ein Bediener eine Bewegung eines Roboters einlernt, indem er eine Kraft auf den Roboter ausübt, um den Roboter zu bewegen (siehe beispielsweise JP 2015 - 202537 A , JP 2013-071239 A , JP H04-040506 A , JP H09-0761834 A und JP H11-231925 A ).
  • Die Betätigung unter Verwendung des Handbediengeräts ist komplex, und somit braucht ein unerfahrener Bediener viel Zeit für das Einlernen. Wenn dagegen das direkte Einlernen verwendet wird, kann der Bediener die Richtung der Bewegung des Roboters intuitiv bestimmen, und somit kann der Bediener den Roboter einfacher einlernen als wenn er das Handbediengerät verwenden würde. Um jedoch das direkte Einlernen zu verwenden, ist es notwendig, eine dedizierte Vorrichtung, wie etwa einen Einlerngriff, der konfiguriert ist, um von dem Bediener ergriffen oder betätigt zu werden, an dem Roboter (häufig an einem vorderen Ende des Roboters, wie etwa an einer Roboterhand) anzubringen. Ferner ist es mühsam, eine Anbringungsposition des Roboters zu ändern, an der die dedizierte Vorrichtung angebracht wird.
  • KURZDARSTELLUNG DER ERFINDUNG
  • Ein Aspekt der vorliegenden Offenbarung ist ein Robotersystem, umfassend: einen Roboter, der ein bewegliches Teil aufweist; einen Sensor, der an einer Oberfläche des beweglichen Teils angeordnet ist, wobei der Sensor konfiguriert ist, um eine dreidimensionale Position eines Gegenstands zu messen, wenn der Gegenstand den Sensor berührt oder sich in seiner Nähe befindet; einen Abschnitt zum Ändern einer Betriebsart, der konfiguriert ist, um den Roboter in eine Folgebetriebsart zu versetzen, wenn der Gegenstand eine Referenzposition erreicht, in der er sich an dem Sensor oder in seiner Nähe befindet; und einen Abschnitt zum Steuern einer Bewegung, der konfiguriert ist, wenn die dreidimensionale Position des Gegenstands gegenüber der Referenzposition bewegt wird, um den Roboter derart zu steuern, dass der Roboter eine Folgebewegung ausführt, bei der das bewegliche Teil dem Gegenstand einer Bewegungsrichtung des Gegenstands entsprechend folgt.
  • Ein anderer Aspekt der vorliegenden Offenbarung ist ein Roboter-Controller eines Roboters, wobei der Roboter ein bewegliches Teil und einen Sensor, der an einer Oberfläche des beweglichen Teils angeordnet ist, umfasst, wobei der Sensor konfiguriert ist, um eine dreidimensionale Position eines Gegenstands zu messen, wenn der Gegenstand den Sensor berührt oder sich in seiner Nähe befindet, wobei der Roboter-Controller umfasst: einen Abschnitt zum Ändern einer Betriebsart, der konfiguriert ist, um den Roboter in eine Folgebetriebsart zu versetzen, wenn der Gegenstand eine Referenzposition erreicht, in der er sich an dem Sensor oder in seiner Nähe befindet; und einen Abschnitt zum Steuern einer Bewegung, der konfiguriert ist, wenn die dreidimensionale Position des Gegenstands gegenüber der Referenzposition bewegt wird, um den Roboter derart zu steuern, dass der Roboter eine Folgebewegung ausführt, bei der das bewegliche Teil dem Gegenstand einer Bewegungsrichtung des Gegenstands entsprechend folgt.
  • Figurenliste
  • Die obigen und andere Aufgaben, Merkmale und Vorteile der vorliegenden Erfindung werden durch die folgende Beschreibung ihrer bevorzugten Ausführungsformen mit Bezug auf die beiliegenden Zeichnungen besser hervorgehen. Es zeigen:
    • 1 ein Beispiel einer schematischen Konfiguration eines mit Menschen zusammenarbeitenden Roboters und eines Roboter-Controllers gemäß der vorliegenden Offenbarung;
    • 2 eine vergrößerte Ansicht des Roboters aus 1;
    • 3 eine schematische Konfiguration eines Sensors des Roboters aus 1; und
    • 4 ein Beispiel einer Änderung der dreidimensionalen Position eines Gegenstands mit Bezug auf den Sensor.
  • AUSFÜHRLICHE BESCHREIBUNG
  • 1 zeigt ein Beispiel einer schematischen Konfiguration eines Robotersystems 8, das einen Roboter 10 (eine mechanische Einheit desselben) und einen Roboter-Controller 20 umfasst, gemäß einer bevorzugten Ausführungsform. Diverse Typen von Robotern können als Roboter 10 verwendet werden, solange der Roboter ein bewegliches Teil, wie etwa einen Roboterarm, aufweist. In der Zeichnung ist der Roboter 10 ein Vertikal-Knickarmroboter, der als ein mit Menschen zusammenarbeitender (kooperierender) Roboter konfiguriert ist und betätigt werden kann, während er einen Arbeitsraum mit einer Person gemeinsam nutzt. Der Roboter 10 weist eine Basis 12, einen rotierenden Körper 14, der auf der Basis 12 angeordnet ist und sich um eine im Allgemeinen senkrechte Achse herum drehen kann, einen Oberarm 16, der drehbar an dem rotierenden Körper 14 angeordnet ist, und einen Unterarm 18, der an einem vorderen Ende des Oberarms 16 drehbar angeordnet ist.
  • Bei dem Roboter 10 kann durch Drehen des beweglichen Teils (in diesem Fall mindestens eines von dem rotierenden Körper 14, dem Oberarm 16 und dem Unterarm 18) die Position eines vorderen Endes (des Unterarms 18) bewegt oder gesteuert werden. Ferner kann durch Anordnen einer Handgelenkachse und einer Hand (nicht gezeigt) am vorderen Ende des Unterarms 18 der Roboter diverse Vorgänge, wie etwa das Ergreifen und Transportieren eines Werkstücks usw., ausführen.
  • Die Bewegung oder das Einlernen des Roboters 10 kann durch den Roboter-Controller 20 gesteuert werden, der mit dem Roboter 10 verbunden ist. Der Roboter-Controller 20 kann einen Abschnitt 22 zum Ändern einer Betriebsart und einen Abschnitt 24 zum Steuern einer Bewegung aufweisen, deren Funktionen nachstehend erklärt werden. Der Abschnitt 22 zum Ändern einer Betriebsart und der Abschnitt 24 zum Steuern einer Bewegung (die Funktionen derselben) können durch eine Arithmetikeinheit (CPU) und einen Speicher usw. ausgebildet sein, mit denen der Roboter-Controller 20 versehen ist. Alternativ können der Abschnitt 22 zum Ändern einer Betriebsart und der Abschnitt 24 zum Steuern einer Bewegung (die Funktionen derselben) durch eine andere (nicht gezeigte) Vorrichtung, wie etwa einen PC oder einen Host-Computer, ausgebildet sein, die getrennt von dem Roboter-Controller 20 angeordnet ist.
  • Der Roboter 10 weist einen Sensor 26 auf, der an einer Oberfläche des beweglichen Teils angeordnet ist (in der Zeichnung am Unterarm 18), und der Sensor 26 ist konfiguriert, um eine dreidimensionale Position eines Gegenstands 28, wie etwa eines Fingers eines Bedieners, zu detektieren oder zu messen (siehe 2), wenn der Gegenstand 28 den Sensor 26 berührt oder sich in seiner Nähe befindet. Wie in einer vergrößerten Ansicht aus 2 erläutert, ist der Sensor 26 ein druckempfindlicher Sensor, der eine Vielzahl von druckempfindlichen Sensorelementen 30 umfasst. Die Sensorelemente 30 sind in einer Reihe (bevorzugt in einem rechteckigen Muster, wie gezeigt) positioniert und sind konfiguriert, um die dreidimensionale Position des Gegenstands 28 zu messen, während der Gegenstand den Sensor 26 berührt.
  • 3 zeigt einen Zustand, in dem die dreidimensionale Position des Gegenstands 28 durch den Sensor 26 gemessen wird. Der Sensor 26 weist eine Vielzahl von druckempfindlichen Sensorelementen 30, die in einer Aufstellung in vorbestimmten Intervallen an der Oberfläche 32 des beweglichen Teils, wie etwa des Unterarms 18, positioniert sind, und eine Elektrodenschicht 34, die aus Metall, wie etwa Aluminium, besteht und konfiguriert ist, um die Sensorelemente 30 abzudecken und dabei von jedem Sensorelement um einen vorbestimmten Abstand „d“ beabstandet ist, auf. Nachstehend wird die Elektrodenschicht 34 als eine relativ biegsame Folie erklärt, wohingegen eine plattenartige Elektrodenschicht, die eine höhere Steifigkeit als die Elektrodenfolie aufweist, ebenfalls als Elektrodenschicht 34 verwendet werden kann.
  • Wenn der Gegenstand 28, wie etwa ein Finger des Bedieners, mit der Elektrodenschicht 34 in Kontakt kommt, verformt sich die Elektrodenfolie 34 je nach dem Druck, der durch den Finger 28 auf den Sensor 26 ausgeübt wird, und dann ändert sich der Abstand zwischen der Elektrodenschicht 34 und jedem Sensorelement 30 (genauer gesagt wird der Abstand kürzer als „d“, wenn der Finger den Sensor nicht berührt). Durch das Dadurch dass er die Änderung des Abstands unter Verwendung eines elektrischen Widerstands oder einer elektrostatischen Kapazität detektiert, kann der Sensor 26 die dreidimensionale Position des Fingers 28 messen.
  • Als Nächstes wird die folgende Funktion des Roboters 10, die unter Verwendung des Sensors 26 erzielt wird, als ein Beispiel erklärt, bei dem der Roboter 10 unter Verwendung des Roboter-Controllers 20 eingelernt wird. Zuerst wird, wie in 3 gezeigt, die dreidimensionale Position des Gegenstands 28, die gemessen wird, wenn der Gegenstand 28 den Sensor 26 berührt, in einem Speicher usw. des Roboter-Controllers 20 als eine Bezugsposition, um den Roboter 10 in eine Folgebetriebsart zu versetzen, gespeichert. Die Bezugsposition kann beliebig bestimmt werden, beispielsweise wenn eines der Sensorelemente 30 detektiert, dass der Finger 28 auf die Elektrodenschicht 34 drückt, kann beurteilt werden, dass der Finger 28 die Bezugsposition erreicht. Alternativ kann nur, wenn ein zuvor vorgegebenes Sensorelement 30 detektiert, dass der Finger 28 auf die Elektrodenschicht 34 drückt, beurteilt werden, dass dieser Finger 28 die Bezugsposition erreicht. Alternativ oder zusätzlich, wenn der Abstand zwischen einem Sensorelement 30 und dem Finger 28 ein vorbestimmter Anteil kleiner als eins des (anfänglichen) Abstands „d“ im kontaktlosen Zustand ist (z.B. zwei Drittel von d, die Hälfte von d oder ein Drittel von d), kann beurteilt werden, dass der Finger 28 die Bezugsposition erreicht.
  • Als Nächstes, wenn der Finger 28 die Bezugsposition wie zuvor beschrieben erreicht, schaltet der Abschnitt 22 zum Ändern einer Betriebsart die Bewegungsbetriebsart des Roboters 10 auf die Folgebetriebsart. In der Folgebetriebsart wird basierend auf der Bewegungsrichtung des Fingers 28 gegenüber der Bezugsposition die Bewegung (ihre Richtung) des Roboters 10 bestimmt. Beispielsweise wird die dreidimensionale Position des Fingers 28, wie in einem Teil „A“ aus 4 gezeigt, als Bezugsposition angesehen. Dann steuert, wie in einem Teil „B“ gezeigt, wenn der Finger 28 gegenüber der Bezugsposition in der Z-Richtung bewegt wird, so dass der Finger von dem Unterarm 18 entfernt ist, der Abschnitt 24 zum Steuern einer Bewegung die Bewegung jeder Achse des Roboters 10, so dass der Abschnitt (oder Sensor 26) des Unterarms 18, den der Finger 28 berührt, der Bewegung des Fingers 28 folgt, sich mit anderen Worten in eine Richtung bewegt (wie durch einen Pfeil 36 in 2 angegeben), die im Allgemeinen die gleiche wie die Bewegungsrichtung des Fingers 28 ist. Bei dieser Ausführungsform wird die Richtung des Abstands „d“ zwischen dem Sensorelement 30 und der Elektrodenschicht 34 (d.h. der Richtung, die zu der Oberfläche 32 rechtwinklig ist) als Z-Richtung bezeichnet, und die anderen beiden Richtungen, die zur Z-Richtung rechtwinklig und zueinander orthogonal sind, werden als X-Richtung und Y-Richtung bezeichnet.
  • Ähnlich steuert, wie in einem Teil „C“ gezeigt, wenn der Finger 28 gegenüber der Bezugsposition in der Z-Richtung bewegt wird, so dass der Finger den Unterarm 18 nach unten drückt, der Abschnitt 24 zum Steuern einer Bewegung die Bewegung jeder Achse des Roboters 10, so dass der Abschnitt (oder Sensor 26) des Unterarms 18, den der Finger 28 berührt, der Bewegung des Fingers 28 folgt, sich mit anderen Worten in einer Richtung (wie durch einen Pfeil 38 in 2 angegeben) bewegt, die im Allgemeinen die gleiche wie die Bewegungsrichtung des Fingers 28 ist. Alternativ steuert, wie in einem Teil „D“ gezeigt, wenn der Finger 28 gegenüber der Bezugsposition in der X- oder Y-Richtung bewegt wird, so dass der Finger auf dem Sensor 26 gleitet, der Abschnitt 24 zum Steuern einer Bewegung auch die Bewegung jeder Achse des Roboters 10, so dass der Abschnitt (oder der Sensor 26) des Unterarms 18, den der Finger 28 berührt, der Bewegung des Fingers 28 folgt, sich mit anderen Worten in einer Richtung (wie durch einen Pfeil 40 in 2 angegeben) bewegt, die im Allgemeinen die gleiche wie die Bewegungsrichtung des Fingers 28 ist.
  • Zudem kann die Geschwindigkeit der Bewegung des beweglichen Teils des Roboters 10 in Abhängigkeit von der Presskraft des Fingers oder der Geschwindigkeit des Fingers mit Bezug auf den Sensor 26 geändert werden. Beispielsweise für den Fall wie in dem Teil „C“ aus 4 gezeigt, wenn der Bediener den Sensor 26 mit dem Finger 28 stark (oder schnell) betätigt, kann das bewegliche Teil des Roboters 10 mit einer hohen Geschwindigkeit bewegt werden, die der Geschwindigkeit des Fingers 28 entspricht. Ähnlich kann für den Fall wie in dem Teil „D“ aus 4 gezeigt, wenn der Bediener seinen Finger 28 mit Bezug auf den Sensor schnell bewegt, das bewegliche Teil des Roboters 10 mit einer hohen Geschwindigkeit bewegt werden, die der Geschwindigkeit des Fingers 28 entspricht.
  • Andererseits kann für den Fall, dass die Folgebetriebsart (oder die Einlernbetätigung) beispielsweise beendet oder auf die andere Betriebsart umgeschaltet werden soll, der Abschnitt 22 zum Ändern einer Betriebsart konfiguriert sein, um die Folgebetriebsart zu beenden oder die Folgebetriebsart auf die andere Betriebsart umzuschalten, wenn der Bediener seinen Finger mit einer Geschwindigkeit, die höher als eine vorbestimmte Geschwindigkeit ist (z.B. eine maximale Bewegungsgeschwindigkeit des Roboters), von dem Sensor 26 abnimmt.
  • Wie zuvor beschrieben kann der Bediener die Bewegungsrichtung des Roboters 10 durch eine einfache Betätigung bestimmen, so dass sich der Roboter 10 entlang der bestimmten Richtung bewegt, und somit kann der Bediener die Einlernbetätigung usw. des Roboters intuitiv durchführen, ohne ein Handbediengerät usw. zu verwenden. Im Allgemeinen kann der druckempfindliche Sensor oder ein kapazitiver Näherungssensor (der nachstehend beschrieben wird) sowohl die Position (oder einen Koordinatenwert) des Gegenstands, der den Sensor berührt oder sich in seiner Nähe befindet, als auch die Presskraft (die dem Abstand zwischen dem Gegenstand und dem Sensor in der Kontakt-/Trennungsrichtung entspricht) durch den Gegenstand präzise detektieren. Daher verwendet die vorliegende Offenbarung eine derartige Eigenschaft des Sensors, um das bewegliche Teil des Roboters 10 mühelos in der gewünschten Richtung zu bewegen. Da ferner der Sensor 26 zuvor für den Roboter 10 bereitgestellt wird, ist es nicht notwendig, eine dedizierte Vorrichtung (z.B. einen Griff oder ein Führungsteil) an dem Roboter 10 anzubringen, um den Roboter einzulernen.
  • Bei der abgebildeten Ausführungsform ist der Sensor 26 am Unterarm 18 des Roboters 10 angeordnet. Alternativ oder zusätzlich kann ein ähnlicher Sensor an einer anderen Stelle des beweglichen Teils angeordnet sein, wie etwa an dem rotierenden Körper 14 und/oder an dem Oberarm 16. In dieser Hinsicht kann der Abschnitt 24 zum Steuern einer Bewegung konfiguriert sein, so dass ein Bauteil des Roboters, das an einer Vorderseite (oder einer der Basis gegenüberliegenden Seite) mit Bezug auf den Abschnitt positioniert ist, in dem der Sensor 26 positioniert ist, nicht in die Folgebetriebsart bewegt (oder gedreht) werden. Wenn beispielsweise der Sensor 26 an dem Oberarm 16 angeordnet ist, kann der Abschnitt 24 zum Steuern einer Bewegung die Bewegung des Roboters derart steuern, dass der rotierende Körper 14 und der Oberarm 16 die Folgebewegung durch die Betätigung ausführen, wie in 4 gezeigt, wohingegen sich der Unterarm 18 mit Bezug auf den Oberarm 16 nicht dreht. Somit kann bei der vorliegenden Offenbarung bestimmt werden, ob sich jedes Bauteil des Roboters in Abhängigkeit von der Position des Sensors 26 in die Folgebetriebsart begeben darf oder nicht.
  • Der Roboter-Controller 20 kann einen Meldeabschnitt 42 aufweisen, der konfiguriert ist, wenn ein Gegenstand 28, wie etwa der Finger des Bedieners, die Bezugsposition erreicht (d.h. wenn der Roboter 10 in die Folgebetriebsart versetzt wird, oder der Roboter 10 die Folgebewegung ausführen kann), um ein Benachrichtigungssignal auszugeben, das diese Tatsache darstellt. Beispielsweise kann der Meldeabschnitt 42 einen Lautsprecher, der konfiguriert ist, um einen Ton auszugeben, wenn der Sensor 26 detektiert, dass der Finger 28 die Bezugsposition erreicht, oder einen Bildschirm, der konfiguriert ist, um anzuzeigen, dass die Bewegungsbetriebsart des Roboters 10 auf die Folgebetriebsart geändert wird, aufweisen, und der Lautsprecher oder die Anzeige kann durch das Benachrichtigungssignal aktiviert werden, das durch den Meldeabschnitt 42 ausgegeben wird. In dieser Hinsicht kann der Lautsprecher oder die Anzeige als eine andere Vorrichtung als der Controller 20 bereitgestellt werden. Ferner kann der Meldeabschnitt 42 konfiguriert sein, um den Bediener darüber zu benachrichtigen, dass die Folgebetriebsart beendet ist, indem er den Ton oder die Anzeige an dem Bildschirm verwendet. Dadurch kann der Bediener richtig erkennen, ob die aktuelle Bewegungsbetriebsart die Folgebetriebsart ist, und somit kann der Bediener die Einlernbetätigung usw. sicher durchführen.
  • Wie in 1 oder 2 gezeigt, wenn der Roboter 10 ein mit Menschen zusammenarbeitender Roboter ist, der betätigt werden kann, während er einen Arbeitsraum mit einer Person gemeinsam nutzt, ist es üblich, dass mindestens ein Teil (bevorzugt die Gesamtheit) des beweglichen Teils (in der Zeichnung des Oberarms 16 und des Unterarms 18) mit einem biegsamen Abdeckelement 44 abgedeckt ist, um den Aufprall abzudämpfen oder zu absorbieren, der entsteht, wenn der Roboter 10 mit der Person zusammenstößt. Bei der vorliegenden Offenbarung ist der Sensor 26 an der Oberfläche des beweglichen Teils, wie etwa des Oberarms 16 oder des Unterarms 18, angeordnet. In dieser Hinsicht kann als Anordnungsmuster des Sensors 26 das Bauteil (z.B. die Elektrodenschicht 34) des Sensors extern derart freigelegt werden, dass der Gegenstand, wie etwa der Finger 28, das Bauteil direkt berühren kann. Alternativ kann, wenn der Roboter 10 ein Abdeckelement 44 aufweist, der Sensor 26 im Innern des Abdeckelements 44 (oder zwischen dem Abdeckelement 44 und der Oberfläche des beweglichen Teils, wie etwa des Unterarms 18) positioniert sein, so dass der Sensor nicht nach außen freigelegt ist. In diesem Fall berührt der Bediener den Sensor 26 (die Elektrodenschicht 34 desselben) über das Abdeckelement 44 indirekt, wenn er die Einlernbetätigung usw. durchführt. Auf jeden Fall kann der Sensor 26 detektieren, dass der Gegenstand 28 die Bezugsposition erreicht, nachdem er den Sensor 26 berührt hat oder sich diesem genähert hat, und kann detektieren, in welche Richtung sich der Gegenstand 28 gegenüber der Bezugsposition bewegt (oder in welche Richtung sich die Position des Gegenstands 28 gegenüber der Bezugsposition ändert).
  • Bei der obigen Ausführungsform kann die Folgebewegung des Roboters unter Verwendung eines einzigen Fingers erfolgen. Es können jedoch mehrere Finger (Gegenstände) verwendet werden, um eine komplexe Bewegung oder Steuerung auszuführen. Beispielsweise nach dem Ausführen der Folgebewegung unter Verwendung eines einzigen Fingers, wie zuvor beschrieben, kann die Folgebetriebsart beendet werden, indem gleichzeitig zwei Finger in Kontakt mit dem Sensor 26 gebracht werden. Wenn ferner der Roboter 10 eine Hand aufweist, kann eine Öffnungs-/ Schließbewegung der Hand ausgeführt werden, indem die beiden Finger derart bewegt werden, dass die Finger nahe aneinander liegen oder getrennt sind, während die Finger den Sensor 26 berühren.
  • Zudem kann das Handbediengerät mit einem Aktivierungsschalter oder einem Totmannschalter versehen sein, der konfiguriert ist, um die Einlernbetätigung usw. zu unterbinden, es sei denn der Bediener berührt den Schalter. Bei der vorliegenden Offenbarung kann der Bediener, dadurch dass er ein vorgegebenes druckempfindliches Sensorelement 30 als Aktivierungsschalter oder Totmannschalter einstellt oder konfiguriert, den Roboter betätigen, so dass er die Folgebewegung ausführt, indem er einen einzigen Finger verwendet, während er den Aktivierungsschalter oder den Totmannschalter mit dem anderen Finger berührt. Somit kann der Abschnitt 24 zum Steuern einer Bewegung zuvor eine andere vorbestimmte Bewegung als die Folgebetriebsart mit der Betätigung des Sensors 26 verknüpfen, die dadurch durchgeführt wird, dass der Sensor 26 gleichzeitig mit den Fingern berührt wird oder die Finger in die Nähe des Sensors 26 gebracht werden, um den Roboter derart zu steuern, dass der Roboter die vorbestimmte Bewegung ausführt.
  • Obwohl der Sensor 26 der druckempfindliche Sensor ist, der bei der obigen Ausführungsform mehrere druckempfindliche Sensorelemente 30 aufweist, kann der Sensor 26 ein kapazitiver Näherungssensor sein. Genauer gesagt kann statt der druckempfindlichen Sensorelemente 30 eine Vielzahl von kapazitiven Sensorelementen in einer Reihe oder in einem rechteckigen Muster ähnlich wie die Sensorelemente 30 positioniert werden. Die Konfiguration des Sensors 26, der die kapazitiven Sensorelemente aufweist, kann im Allgemeinen der Konfiguration aus 3 ohne die Elektrodenschicht 34 entsprechen. Insbesondere können die druckempfindlichen Sensorelemente 30 detektieren, dass der Gegenstand, wie etwa der Finger 28, in Kontakt mit der Elektrodenschicht 34 kommt, und können auch die dreidimensionale Position des Gegenstands detektieren, während der Gegenstand die Elektrodenschicht berührt. Dagegen können die kapazitiven Sensorelemente detektieren, dass sich der Gegenstand, wie etwa der Finger 28, dem kapazitiven Näherungssensor nähert, und können auch die dreidimensionale Position des Gegenstands detektieren, während sich der Gegenstand in der Nähe des Sensors befindet. Daher kann, auch wenn der kapazitive Näherungssensor verwendet wird, ähnlich wie wenn der druckempfindliche Sensor verwendet wird, der Roboter in die Folgebetriebsart versetzt werden, wenn der Gegenstand die Bezugsposition erreicht, und die Folgebewegung (z.B. das Einlernen) des Roboters kann ausgeführt werden.
  • In vielen Fällen weist ein Industrieroboter einen Kraftsensor oder einen Drehmomentsensor auf, der konfiguriert ist, um eine externe Kraft zu detektieren, die auf den Roboter durch eine Person, wie etwa einen Bediener usw., ausgeübt wird, und der Roboter ist konfiguriert, um seine Bewegung sicherheitshalber anzuhalten, wenn die detektierte externe Kraft eine vorbestimmte Schwelle überschreitet. In dieser Hinsicht kann der Sensor 26 der vorliegenden Offenbarung auch die Funktion des Kraftsensors oder des Drehmomentsensors aufweisen. Dadurch können die Kosten des Robotersystems reduziert werden.
  • Gemäß der vorliegenden Offenbarung kann die Folgebewegung des beweglichen Teils des Roboters in Abhängigkeit von der dreidimensionalen Position des Gegenstands, der den Sensor berührt oder sich in seiner Nähe befindet, ausgeführt werden, und somit kann die Bewegungssteuerung, wie etwa das Einlernen, für den Roboter intuitiv durch eine einfache Betätigung durchgeführt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2015 [0002]
    • JP 202537 A [0002]
    • JP 2013071239 A [0002]
    • JP H04040506 A [0002]
    • JP H090761834 A [0002]
    • JP H11231925 A [0002]

Claims (7)

  1. Robotersystem (8), umfassend: einen Roboter (10), der ein bewegliches Teil (14, 16, 18) aufweist; einen Sensor (26), der an einer Oberfläche (32) des beweglichen Teils angeordnet ist, wobei der Sensor konfiguriert ist, um eine dreidimensionale Position eines Gegenstands (28) zu messen, wenn der Gegenstand den Sensor berührt oder sich in seiner Nähe befindet; einen Abschnitt (22) zum Ändern einer Betriebsart, der konfiguriert ist, um den Roboter in eine Folgebetriebsart zu versetzen, wenn der Gegenstand eine Referenzposition erreicht, in der er sich an dem Sensor oder in seiner Nähe befindet; und einen Abschnitt (24) zum Steuern einer Bewegung, der konfiguriert ist, wenn die dreidimensionale Position des Gegenstands gegenüber der Referenzposition bewegt wird, um den Roboter derart zu steuern, dass der Roboter eine Folgebewegung ausführt, bei der das bewegliche Teil dem Gegenstand entsprechend einer Bewegungsrichtung des Gegenstands folgt.
  2. Robotersystem nach Anspruch 1, dadurch gekennzeichnet, dass der Roboter ein Abdeckelement (44) aufweist, das eingerichtet ist, um das bewegliche Teil abzudecken, und der Sensor im Innern des Abdeckelements positioniert ist.
  3. Robotersystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Sensor ein druckempfindlicher Sensor oder ein kapazitiver Näherungssensor ist.
  4. Roboter-Controller (20) eines Roboters (10), wobei der Roboter ein bewegliches Teil (14, 16, 18) und einen Sensor (26), der an einer Oberfläche (32) des beweglichen Teils angeordnet ist, umfasst, wobei der Sensor konfiguriert ist, um eine dreidimensionale Position eines Gegenstands (28) zu messen, wenn der Gegenstand den Sensor berührt oder sich in seiner Nähe befindet, wobei der Roboter-Controller umfasst: einen Abschnitt (22) zum Ändern einer Betriebsart, der konfiguriert ist, um den Roboter in eine Folgebetriebsart zu versetzen, wenn der Gegenstand eine Referenzposition erreicht, in der er sich an dem Sensor oder in seiner Nähe befindet; und einen Abschnitt (24) zum Steuern einer Bewegung, der konfiguriert ist, wenn die dreidimensionale Position des Gegenstands gegenüber der Referenzposition bewegt wird, um den Roboter derart zu steuern, dass der Roboter eine Folgebewegung ausführt, bei der das bewegliche Teil dem Gegenstand entsprechend einer Bewegungsrichtung des Gegenstands folgt.
  5. Roboter-Controller nach Anspruch 4, dadurch gekennzeichnet, dass der Abschnitt zum Steuern einer Bewegung konfiguriert ist, um zuvor eine Operation des Sensors, während eine Vielzahl der Gegenstände den Sensor gleichzeitig berührt oder sich in seiner Nähe befindet, mit einer anderen vorbestimmten Bewegung des Roboters als der Folgebewegung zu verknüpfen, und konfiguriert ist, um den Roboter derart zu steuern, dass der Roboter die vorbestimmte Bewegung ausführt, wenn die verknüpfte Operation ausgeführt wird.
  6. Roboter-Controller nach Anspruch 4 oder 5, dadurch gekennzeichnet, dass der Abschnitt zum Steuern einer Bewegung konfiguriert ist, um den Roboter derart zu steuern, dass ein Abschnitt des beweglichen Teils, der mit Bezug auf eine Stelle des beweglichen Teils, an welcher der Sensor angeordnet ist, an einer vorderen Seite positioniert ist, in der Folgebetriebsart nicht bewegt wird.
  7. Roboter-Controller nach einem der Ansprüche 4 bis 6, dadurch gekennzeichnet, dass der Roboter-Controller ferner einen Meldeabschnitt (42) umfasst, der konfiguriert ist, um ein Benachrichtigungssignal auszugeben, das darstellt, dass der Roboter durch den Abschnitt zum Ändern einer Betriebsart in die Folgebetriebsart versetzt wird.
DE102018005902.3A 2017-08-02 2018-07-26 Robotersystem und Roboter-Controller Active DE102018005902B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-150075 2017-08-02
JP2017150075A JP6633580B2 (ja) 2017-08-02 2017-08-02 ロボットシステム及びロボット制御装置

Publications (2)

Publication Number Publication Date
DE102018005902A1 true DE102018005902A1 (de) 2019-02-07
DE102018005902B4 DE102018005902B4 (de) 2020-12-17

Family

ID=65019844

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018005902.3A Active DE102018005902B4 (de) 2017-08-02 2018-07-26 Robotersystem und Roboter-Controller

Country Status (4)

Country Link
US (1) US10675767B2 (de)
JP (1) JP6633580B2 (de)
CN (1) CN109382823B (de)
DE (1) DE102018005902B4 (de)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102177711B1 (ko) * 2019-07-18 2020-11-12 재단법인대구경북과학기술원 충돌 감지 센서 및 이를 구비하는 로봇
JP2021020286A (ja) * 2019-07-30 2021-02-18 セイコーエプソン株式会社 検出方法およびロボット
WO2021022625A1 (zh) * 2019-08-02 2021-02-11 深圳市越疆科技有限公司 装置的避障方法、装置和控制器
JP7483420B2 (ja) * 2020-03-12 2024-05-15 キヤノン株式会社 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体
CN112518716A (zh) * 2020-11-23 2021-03-19 深圳市越疆科技有限公司 机器人的拖动示教触发方法、装置及机器人

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0440506A (ja) 1990-06-06 1992-02-10 Murata Mach Ltd ロボットの教示装置
JPH11231925A (ja) 1998-02-10 1999-08-27 Yaskawa Electric Corp ダイレクトティーチング用ロボットの手先
JP2013071239A (ja) 2011-09-29 2013-04-22 Panasonic Corp ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路
JP2015202537A (ja) 2014-04-14 2015-11-16 ファナック株式会社 力に応じて動かすロボットのロボット制御装置およびロボットシステム

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60252911A (ja) * 1984-05-30 1985-12-13 Hitachi Ltd 可動部に操作キ−を設けたロボツト
US4879664A (en) * 1985-05-23 1989-11-07 Kabushiki Kaisha Toshiba Three-dimensional position sensor and three-dimensional position setting system
US6120433A (en) * 1994-09-01 2000-09-19 Olympus Optical Co., Ltd. Surgical manipulator system
JP3465252B2 (ja) * 1995-09-14 2003-11-10 株式会社安川電機 ロボットのダイレクトティーチング装置
JP3734867B2 (ja) * 1995-11-21 2006-01-11 株式会社アマダ レーザ加工ヘッド
JP4016526B2 (ja) * 1998-09-08 2007-12-05 富士ゼロックス株式会社 3次元物体識別装置
US6347261B1 (en) * 1999-08-04 2002-02-12 Yamaha Hatsudoki Kabushiki Kaisha User-machine interface system for enhanced interaction
US20010044789A1 (en) * 2000-02-17 2001-11-22 The Board Of Trustees Of The Leland Stanford Junior University Neurointerface for human control of complex machinery
JP2005231010A (ja) * 2004-02-23 2005-09-02 Fanuc Ltd 表示装置
DE102004041821A1 (de) * 2004-08-27 2006-03-16 Abb Research Ltd. Vorrichtung und Verfahren zur Sicherung eines maschinell gesteuerten Handhabungsgerätes
JP2006123014A (ja) * 2004-10-26 2006-05-18 Matsushita Electric Ind Co Ltd 倒立2輪走行ロボット
JP4718987B2 (ja) * 2005-12-12 2011-07-06 本田技研工業株式会社 インターフェース装置およびそれを備えた移動ロボット
ITTO20070779A1 (it) * 2007-11-05 2009-05-06 Fond Istituto Italiano Di T Ec Disposizione di sensori tattili e sistema sensoriale corrispondente
CN102056715B (zh) * 2009-01-09 2012-12-26 松下电器产业株式会社 机器人手臂的控制装置及控制方法、机器人、机器人手臂的控制程序及集成电子电路
JP5413773B2 (ja) * 2009-06-24 2014-02-12 国立大学法人 東京大学 柔軟触覚センサ
JP5062279B2 (ja) * 2010-03-29 2012-10-31 パナソニック株式会社 情報機器および携帯情報機器
JP5403522B2 (ja) * 2010-10-08 2014-01-29 独立行政法人理化学研究所 制御装置、ロボット、制御方法、ならびに、プログラム
JP2014142676A (ja) * 2011-05-16 2014-08-07 Panasonic Corp 入力装置、情報端末装置および入力システム
JP2013086234A (ja) * 2011-10-20 2013-05-13 Panasonic Corp 目的方向通知システム、目的方向通知方法、及び、目的方向通知プログラム
US20130343640A1 (en) * 2012-06-21 2013-12-26 Rethink Robotics, Inc. Vision-guided robots and methods of training them
WO2014129110A1 (ja) * 2013-02-25 2014-08-28 パナソニック株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
JP2014182657A (ja) * 2013-03-19 2014-09-29 Sharp Corp 情報処理装置、プログラム
DE102013102984B4 (de) * 2013-03-22 2015-01-22 Leonhard Kurz Stiftung & Co. Kg Folienprägeeinrichtung
CN103600354B (zh) * 2013-11-08 2016-10-05 北京卫星环境工程研究所 航天器机械臂柔性随动控制重力补偿方法
CN103640022A (zh) * 2013-11-13 2014-03-19 北京卫星环境工程研究所 航天器机械臂柔性随动控制方法
JP6120988B2 (ja) * 2013-12-05 2017-04-26 三菱電機株式会社 表示制御装置及び表示制御方法
JP6450960B2 (ja) * 2014-03-20 2019-01-16 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法
US9283678B2 (en) * 2014-07-16 2016-03-15 Google Inc. Virtual safety cages for robotic devices
US10518409B2 (en) * 2014-09-02 2019-12-31 Mark Oleynik Robotic manipulation methods and systems for executing a domain-specific application in an instrumented environment with electronic minimanipulation libraries
US10754328B2 (en) * 2014-09-05 2020-08-25 Accenture Global Solutions Limited Self-adaptive device intelligence as a service enterprise infrastructure for sensor-rich environments
JP6497021B2 (ja) * 2014-10-01 2019-04-10 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
DE102014016823B4 (de) * 2014-11-14 2017-06-29 Medineering Gmbh Verfahren zum Steuern eines an einem Haltearm gekoppelten mechatronischen Assistenzsystems
CA2966837C (en) * 2014-11-14 2023-03-28 Medineering Gmbh Intelligent holding arm for head surgery, with touch-sensitive operation
JP6470024B2 (ja) * 2014-11-27 2019-02-13 みこらった株式会社 浮揚移動台
US9804593B1 (en) * 2014-12-12 2017-10-31 X Development Llc Methods and systems for teaching positions to components of devices
EP3269323B1 (de) * 2015-08-12 2019-03-20 medineering GmbH Medizinischer haltearm mit ringförmigen led-anzeigemitteln
CN107921639B (zh) * 2015-08-25 2021-09-21 川崎重工业株式会社 多个机器人系统间的信息共享系统及信息共享方法
JP6710919B2 (ja) * 2015-09-08 2020-06-17 株式会社デンソーウェーブ ロボット操作装置
CN108602187A (zh) * 2015-09-09 2018-09-28 碳机器人公司 机械臂系统和物体躲避方法
JP2017091224A (ja) * 2015-11-10 2017-05-25 株式会社ジャパンディスプレイ タッチ検出機能付き表示装置
US20170252002A1 (en) * 2016-03-07 2017-09-07 Toshiba Medical Systems Corporation Ultrasonic diagnostic apparatus and ultrasonic diagnosis support apparatus
EP3222394A3 (de) * 2016-03-25 2017-10-18 Seiko Epson Corporation Roboter und vorrichtung zur erkennung externer kräfte
CN105619413B (zh) * 2016-04-01 2017-11-24 芜湖哈特机器人产业技术研究院有限公司 一种内环工件的自动抓取装置及其控制方法
CN107717982B (zh) * 2016-08-12 2020-09-25 财团法人工业技术研究院 机械手臂的控制装置及操作方法
CN107717981B (zh) * 2016-08-12 2021-01-05 财团法人工业技术研究院 机械手臂的控制装置及其教导系统与方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0440506A (ja) 1990-06-06 1992-02-10 Murata Mach Ltd ロボットの教示装置
JPH11231925A (ja) 1998-02-10 1999-08-27 Yaskawa Electric Corp ダイレクトティーチング用ロボットの手先
JP2013071239A (ja) 2011-09-29 2013-04-22 Panasonic Corp ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路
JP2015202537A (ja) 2014-04-14 2015-11-16 ファナック株式会社 力に応じて動かすロボットのロボット制御装置およびロボットシステム

Also Published As

Publication number Publication date
JP2019025623A (ja) 2019-02-21
JP6633580B2 (ja) 2020-01-22
US10675767B2 (en) 2020-06-09
CN109382823B (zh) 2021-03-05
CN109382823A (zh) 2019-02-26
DE102018005902B4 (de) 2020-12-17
US20190039250A1 (en) 2019-02-07

Similar Documents

Publication Publication Date Title
DE102018005902B4 (de) Robotersystem und Roboter-Controller
DE102012212754B4 (de) Verfahren zum Betreiben eines Sensorsystems sowie Sensorsystem
DE102018116053B4 (de) Robotersystem und Roboterlernverfahren
DE102019006800A1 (de) Robotersteuerung und Anzeigevorrichtung unter Verwendung von erweiterter Realität und gemischter Realität
WO2017198580A1 (de) Mobile sicherheits-grundsteuervorrichtung mit einer kodiervorrichtung für ein mobiles endgerät mit multi-touchscreen und verfahren zum einrichten einer eindeutig zugeordneten steuerungsverbindung
DE102010021607B4 (de) Kontaktzustandsschätzung für Roboterhände mit mehreren Fingern unter Verwendung von Partikel-Filtern
EP3366434B1 (de) Verfahren zur überprüfung einer funktion eines fahrzeuges und/oder zumindest einer bedieneinrichtung
EP3234743B1 (de) Verfahren zum betreiben einer bedienvorrichtung eines kraftfahrzeugs in unterschiedlichen bedienmodi sowie bedienvorrichtung und kraftfahrzeug
DE102017008248A1 (de) Mit Menschen kollaborativer Roboter
DE112017004499T5 (de) Druck- und schersensor
DE102019007186A1 (de) Robotersystem und Robotersteuerungsverfahren für kooperatives Arbeiten mit Menschen
DE69518884T2 (de) Druckempfindliche Dateneigabevorrichtung, die um einen menschlichen Finger getragen werden kann
DE112014003565T5 (de) Eingabevorrichtung
EP3534242A1 (de) Flexibles, tragbares handbedienelement zur steuerung einer elektrisch steuerbaren vorrichtung und verwendungen hiervon
EP3521964A1 (de) Fernbedieneinheit für ein flurförderzeug sowie system mit einer solchen und einem flurförderzeug
DE102020102160B3 (de) Verfahren zum Erzeugen eines Eingabebefehls für einen Roboterarm und Roboterarm
EP3990231A1 (de) System zum vornehmen einer eingabe an einem robotermanipulator
EP4140797A1 (de) Bedieneinheit für ein nutzfahrzeug
DE102017125330B3 (de) Virtuelle Funktionsauslöser
EP2492790A2 (de) Bedienvorrichtung für eine Produktverarbeitungsvorrichtung
DE102013019570A1 (de) Bedieneinrichtung mit berührungsloser Schrifteingabefunktion für ein Kraftfahrzeug, Kraftfahrzeug und Verfahren zum Betreiben einer Bedieneinrichtung
DE112017006658T5 (de) Roboter-Anlernvorrichtung
EP3170787A1 (de) Verfahren zur steuerung eines flurförderzeugs, sensoreinrichtung zur durchführung dieses verfahrens, und system aus dieser sensoreinrichtung und einem flurförderzeug
DE102013100255A1 (de) Verfahrbares Möbel
WO2015121173A1 (de) Anwenderschnittstelle und verfahren zum wechseln von einem ersten bedienmodus einer anwenderschnittstelle in einen 3d-gesten-modus

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final