DE112014004307T5 - Roboterbedienungsvorrichtung, Robotersystem, und Roboterbedienungsprogramm - Google Patents

Roboterbedienungsvorrichtung, Robotersystem, und Roboterbedienungsprogramm Download PDF

Info

Publication number
DE112014004307T5
DE112014004307T5 DE112014004307.9T DE112014004307T DE112014004307T5 DE 112014004307 T5 DE112014004307 T5 DE 112014004307T5 DE 112014004307 T DE112014004307 T DE 112014004307T DE 112014004307 T5 DE112014004307 T5 DE 112014004307T5
Authority
DE
Germany
Prior art keywords
robot
action
axis
touch
action command
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112014004307.9T
Other languages
English (en)
Other versions
DE112014004307B4 (de
Inventor
Hirota Touma
Akira Ogawa
Daisuke Yui
Yoshinobu Ohashi
Atsuko Sugano
Daisuke Kawase
Motoki KANADA
Satoshi Ide
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Wave Inc
Original Assignee
Denso Wave Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Wave Inc filed Critical Denso Wave Inc
Publication of DE112014004307T5 publication Critical patent/DE112014004307T5/de
Application granted granted Critical
Publication of DE112014004307B4 publication Critical patent/DE112014004307B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1658Programme controls characterised by programming, planning systems for manipulators characterised by programming language
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36168Touchscreen
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40392Programming, visual robot programming language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Manufacturing & Machinery (AREA)
  • Fuzzy Systems (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

Eine Roboterbedienungsvorrichtung 4 beinhaltet ein Berührbedienfeld 17, eine Berührbedienungs-Detektionseinheit 15, eine Aktionsbefehl-Erzeugungseinheit 16, und eine Bedienauswahl-Detektionseinheit 18. Die Aktionsbefehl-Erzeugungseinheit 16 ist in der Lage, einen Bedienungsbestimmungsprozess und einen Aktionsbefehl-Erzeugungsprozess durchzuführen. Bei dem Bedienungsbestimmungsprozess handelt es sich um einen Prozess zum Bestimmen einer Antriebsachse oder eines Aktionsmodus eines zu bedienenden Roboters 2 oder 22 basierend auf der von der Bedienauswahl-Detektionseinheit 18 detektierten Auswahlbedienung, und wenn es sich bei einer von der Berührbedienungs-Detektionseinheit 15 detektierten Berührbedienung um eine Ziehbedienung handelt, zum Bestimmen einer Bewegungsmenge der Ziehbedienung. Bei dem Aktionsbefehl-Erzeugungsprozess handelt es sich um einen Prozess zum Bestimmen einer Bewegungsmenge des Roboters 2 oder 22 basierend auf der Bewegungsmenge, die von dem Bedienungsbestimmungsprozess bestimmt wurde, und zum Erzeugen eines Aktionsbefehls zum Bewegen der Hand des Roboters 2 oder 22 an der Antriebsachse oder in dem Aktionsmodus, welche/welcher um die Bewegungsmenge bedient werden soll.

Description

  • [Technisches Gebiet]
  • Die vorliegende Erfindung betrifft eine Roboterbedienungsvorrichtung, die verwendet wird, wenn ein Roboter manuell bedient wird, ein Robotersystem umfassend die Roboterbedienungsvorrichtung, und ein in dem Robotersystem verwendetes Roboterbedienungsprogramm.
  • [Technischer Hintergrund]
  • In einem Robotersystem zur industriellen Verwendung kann ein Roboter zum Beispiel manuell bedient werden (manuelle Bedienung). Eine solche Bedienung wird beispielsweise eingesetzt, wenn ein Programmiervorgang durchgeführt wird. In diesem Fall bedient ein Nutzer den Roboter manuell mithilfe eines Handgeräts (Programmierhandgerät) oder dergleichen, welches mit einem Controller verbunden ist, der den Roboter steuert. Deshalb wird das Handgerät mit verschiedenen dedizierten Bedientasten (Tasten, die aus mechanischen Schaltern aufgebaut sind) zum Ermöglichen einer manuellen Bedienung bereitgestellt.
  • [Zitationen]
  • [Patentliteratur]
    • [PTL 1] JP-A-2006-142480
  • [Zusammenfassung der Erfindung]
  • [Technisches Problem]
  • Ein Berührbedienfeld, das über Berührung gesteuert werden kann, wird häufig in einer Anzeigeeinheit des Handgeräts verwendet. Aufgrund der Tatsache, dass die oben beschriebene manuelle Bedienung durch eine Berührbedienung unter Verwendung des Berührbedienfelds oder dergleichen durchgeführt werden kann, müssen die dedizierten Bedientasten künftig nicht mehr bereitgestellt werden. Auswirkungen wie etwa eine Verwirklichung einer Größenverringerung des Handgeräts (oder eine vergrößerte Bildschirmgröße der Anzeigeeinheit) und Kostenersparnisse sind absehbar. Jedoch treten die folgenden Probleme auf, wenn eine einfache Ersetzung lediglich durch an dem Berührbedienfeld ausgebildete Berührschalter ähnlich den dedizierten Bedientasten erfolgt.
  • Das bedeutet, dass im Falle der physischen Bedientasten der Nutzer durch Ertasten die Position der zu bedienenden Bedientasten kennt, ohne dabei das Handgerät direkt anzusehen, obgleich dies vom Erfahrungsgrad mit der Bedienung abhängt. Hingegen ist der Nutzer im Gegensatz zu der Bedienung mit den Bedientasten nicht in der Lage, die Position eines an dem Berührbedienfeld gebildeten Berührschalters durch Ertasten zu kennen. Wenn eine manuelle Bedienung des Roboters durchgeführt wird, ist es im Hinblick auf die Sicherheit sehr wichtig, dass der Blick des Nutzers nicht vom Roboter ablässt, also er das Handgerät nicht direkt ansieht. Wenn die Bedientasten jedoch einfach durch Berührschalter ersetzt werden, muss der Nutzer für jede Bedienung auf die Anzeigeeinheit des Handgeräts blicken. Dabei bleibt dem Nutzer keine andere Wahl, als den Roboter aus dem Auge zu lassen. Deshalb kann die Sicherheit abnehmen.
  • Die vorliegende Erfindung erfolgte angesichts der oben beschriebenen Umstände. Eine Aufgabe der vorliegenden Erfindung besteht darin, eine Roboterbedienungsvorrichtung, die in der Lage ist, eine manuelle Bedienung eines Roboters durch Berührbedienung auf einfache Weise zu verwirklichen, ohne die Sicherheit zu verringern, ein Robotersystem umfassend die Roboterbedienungsvorrichtung, und ein in dem Robotersystem verwendetes Roboterbedienungsprogramm bereitzustellen.
  • [Lösung des Problems]
  • Eine in Anspruch 1 beschriebene Roboterbedienungsvorrichtung umfasst: Ein Berührbedienfeld, das die Eingabe einer Berührbedienung von einem Nutzer aufnimmt; eine Bedienauswahl-Detektionseinheit, die in der Lage ist, eine Berührbedienung in einer Planar- bzw. Ebenenrichtung zu detektieren, die an dem Berührbedienfeld eingegeben wird; eine Aktionsbefehl-Erzeugungseinheit, die einen Aktionsbefehl zum Bedienen eines Gelenkarmroboters mit einer Vielzahl von Antriebsachsen basierend auf einem Detektionsergebnis von der Bedienauswahl-Detektionseinheit erzeugt; und eine Bedienauswahl-Detektionseinheit, die eine Auswahlbedienung eines Nutzers zum Auswählen einer Antriebsachse oder eines Aktionsmodus des zu bedienenden Roboters detektiert. Das heißt, die Roboterbedienungsvorrichtung verwirklicht die manuelle Bedienung eines Roboters durch Berührbedienung. Der von der Roboterbedienungsvorrichtung zu bedienende Roboter ist ein Gelenkarmroboter, der eine Vielzahl von Antriebsachsen aufweist. Wenn der Gelenkarmroboter manuell bedient wird, kann entweder ein Modus, bei dem die Vielzahl der Antriebsachsen in Kombination bezüglich der Hand des Roboters angetrieben werden, oder ein Modus, bei dem die Antriebsachsen einzeln angetrieben werden, Berücksichtigung finden. In der untenstehenden Beschreibung wird der erstere Modus, der Bezug auf die Hand des Roboters nimmt, als Aktion eines Handsystems bezeichnet, und der letztere Modus, bei dem die Antriebsachsen einzeln angetrieben werden, wird als Aktion eines Achsensystems bezeichnet.
  • Im Allgemeinen wird die manuelle Bedienung eines Roboters zum Beispiel häufig zur Feinanpassung in der Endphase der Roboterausrichtung verwendet. Deshalb besteht bei der manuellen Bedienung eines Roboters alles, was erforderlich ist, darin, dass komplexe Aktionen bezüglich der Hand des Roboters möglich sind. In diesem Fall wird es bezüglich der Aktion des Handsystems als ausreichend betrachtet, falls eine als Horizontalbewegungsaktion bezeichnete Aktion, eine als Vertikalbewegungsaktion bezeichnete Aktion, und eine als Drehaktion bezeichnete Aktion durchgeführt werden können. Die Horizontalbewegungsaktion ist eine Aktion, bei der die Hand des Roboters in eine Planar- bzw. Ebenenrichtung bewegt wird, die horizontal zu einer Aktionsbezugsebene des Roboters ist. Bei der Vertikalbewegungsaktion handelt es sich um eine Aktion, bei der die Hand des Roboters sich in einer Vertikalachsenrichtung bewegt, die zu der Aktionsbezugsfläche senkrecht steht. Bei der Drehaktion handelt es sich um eine Aktion, bei der die Hand des Roboters um eine Vertikalachse gedreht wird.
  • Wenn die Aktion des Handsystems ausgeführt wird, muss die Roboterbedienungsvorrichtung deshalb in der Lage sein, wenn zweckdienlich, zwischen mindestens drei Aktionsmodi umschalten zu können, nämlich der Horizontalbewegungsaktion, der Vertikalbewegungsaktion, und der Drehaktion. Wenn die Aktion des Achssystems durchgeführt wird, muss die Roboterbedienungsvorrichtung zudem in der Lage sein, wenn zweckdienlich, zwischen Antriebsachsen und Bedienen der Antriebsachse umschalten zu können. Jedoch detektieren die meisten typischen Berührbedienfelder Eingaben in einer X-Richtung und einer Y-Richtung, wenn der Bildschirm eine X-Y-Ebene ist. Das heißt, dass eine zweidimensionale Eingabe wie diejenige, bei welcher der Nutzer den Bildschirm nachzeichnet, detektiert wird. Wenn das Berührbedienfeld bei der Roboterbedienungsvorrichtung eingesetzt wird, ist es deshalb erforderlich, dass das Umschalten zwischen einer Vielzahl von Arten von Aktionen und der durch eine zwei-dimensionale Eingabe durchzuführenden Aktion, oder anders gesagt zwei Arten von Bedieneingaben, umgeschaltet wird. Darüber hinaus muss die Bedienung für einen Nutzer intuitiv sein, und sie muss durchgeführt werden können, ohne dass der Nutzer weitestgehend direkt auf den Bildschirm blickt.
  • Deshalb umfasst die in Anspruch 1 beschriebene Roboterbedienungsvorrichtung eine Bedienauswahl-Detektionseinheit. Die Bedienauswahl-Detektionseinheit detektiert eine Auswahlbedienung von einem Nutzer zum Auswählen einer Antriebsachse oder eines Aktionsmodus des zu bedienenden Roboters. Die Aktionsbefehl-Erzeugungseinheit ist in der Lage, einen Bedienungsbestimmungsprozess und einen Aktionsbefehl-Erzeugungsprozess durchzuführen. Bei dem Bedienungsbestimmungsprozess handelt es sich um einen Prozess zum Bestimmen der Antriebsachse oder des Aktionsmodus des zu bedienenden Roboters basierend auf der Auswahlbedienung, die von der Bedienauswahl-Detektionseinheit detektiert wurde. Zudem handelt es sich bei dem Bedienungsbestimmungsprozess um einen Prozess zum Bestimmen eines Bewegungsbetrags bzw. einer Bewegungsmenge der Ziehbedienung, wenn es sich bei der von der Berührbedienungs-Detektionseinheit detektierten Berührbedienung um eine Ziehbedienung handelt.
  • Hierbei ist die Ziehbedienung eine Bedienung, bei der ein Finger eines Nutzers bewegt wird, während er sich in einem Zustand befindet, in welchem der Finger das Berührbedienfeld berührt. Das heißt, dass es sich bei der Ziehbedienung um eine Bedienung handelt, bei welcher der Finger des Nutzers kontinuierlich über eine bestimmte Distanz bewegt wird in einem Zustand, in welchem der Finger in Kontakt mit dem Berührbedienfeld steht. Die Feststellung, ob es sich bei einer Berührbedienung um eine Ziehbedienung handelt oder nicht beinhaltet nicht die Feststellung, ob es sich bei der Bewegungsbahn dieser Bewegung um eine gerade Linie oder eine gebogene Linie handelt. Das heißt die Ziehbedienung umfasst eine Bedienung in einer gebogenen Linie zusätzlich zu einer Bedienung in einer geraden Linie. Bezüglich der Ziehbedienung liegt alles Nötige darin, dass ein Startpunkt und ein Endpunkt der Bedienung auf dem Berührbedienfeld bestimmt werden. Der Startpunkt der Bedienung ist eine Position, an welcher der Nutzer das Berührbedienfeld mit dem Finger berührt. Der Endpunkt der Bedienung ist eine Position, an welcher der Nutzer den Finger von dem Berührbedienfeld nimmt. In diesem Fall umfasst die Ziehbedienung ebenfalls eine Bedienung, bei welcher der Nutzer mit einem Finger über das Berührbedienfeld blättert (Flick), das heißt ein so-genannter Blättervorgang. Zudem umfasst ein Bewegungsbetrag bzw. eine Bewegungsmenge des Roboters eine Bewegungsgeschwindigkeit oder eine Bewegungszeit des Roboters zusätzlich zu der Menge, um die sich der Roboter tatsächlich bewegt, oder anders gesagt die Bewegungsdistanz des Roboters. Ein Grund hierfür liegt darin, dass die Bewegungsdistanz bestimmt wird, falls die Bewegungsgeschwindigkeit und die Bewegungszeit bestimmt werden.
  • Auf diese Weise können dem Roboter bei der vorliegenden Erfindung durch Informationen, welche die Bewegung der Hand des Roboters im Raum steuern, d.h. Ziehvorgänge auf dem Berührbedienfeld, die Aktionen imitieren oder suggerieren, wie beispielsweise eine Horizontalbewegungsaktion, eine Vertikalbewegungsaktion, und eine Drehaktion, oder anders gesagt durch Gesten, derartige Bewegungen einprogrammiert werden. Deshalb bezeichnen die vorliegenden Erfinder und ihresgleichen diese Programmiermethode auf diesem Gebiet als „Gestenprogrammierung“.
  • Bei der Roboterbedienungsvorrichtung gemäß Anspruch 1 kann der Nutzer die zu bedienende Antriebsachse oder den Aktionsmodus des Roboters mittels Durchführen einer Auswahlbedienung auswählen. Im Ergebnis kann zusätzlich aufgrund der Tatsache, dass der Nutzer eine Ziehbedienung auf dem Berührbedienfeld durchführt die Bewegungsmenge des Roboters basierend auf der Bewegungsmenge der Ziehbedienung bestimmt werden. Die Ziehbedienung wird durch den Finger des Nutzers durch mittel- oder unmittelbares Berühren des Berührbedienfelds durchgeführt. Deshalb kann der Nutzer unmittelbar durch den Tastsinn auf einfachere Weise Informationen gewinnen, wie beispielsweise die Bedienmenge der Ziehbedienung. Das heißt der Nutzer kann die Bedienmenge der Ziehbedienung mit relativ hoher Genauigkeit gewinnen, sogar ohne den Sehsinn. Deshalb kann der Nutzer zumindest eine Bedienung zum Bestimmen der Bewegungsmenge des Roboters durch Fühlen bestimmen, ohne direkt auf den Bildschirm zu blicken. Deshalb ist die Roboterbedienungsvorrichtung in der Lage, es dem Nutzer zu ermöglichen, eine intuitive Bedienung durchzuführen, ohne direkt auf den Bildschirm zu blicken, während ein Berührbedienfeld eingesetzt wird. Im Ergebnis wird eine Verbesserung der Bedienbarkeit erzielt. Die manuelle Bedienung des Roboters kann auf einfache Wiese durch Berührbedienung verwirklicht werden, ohne eine Verringerung der Sicherheit zu verursachen. Zudem kann aufgrund einer verbesserten Bedienbarkeit die für das Einprogrammieren benötigte Zeit verkürzt werden.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 2 detektiert die Bedienauswahl-Detektionseinheit eine Bedienung einer auf dem Berührbedienfeld angezeigten Schaltfläche (Button) oder einer von dem Berührbedienfeld abweichenden Schaltfläche. Zudem umfasst der Bedienungsbestimmungsprozess einen Prozess zum Bestimmen der Antriebsachse oder des zu bedienenden Aktionsmodus basierend auf der von der Bedienauswahl-Detektionseinheit detektierten Bedienung. Im Ergebnis kann der Nutzer die Antriebsachse oder den zu bedienenden Aktionsmodus durch Bedienen einer auf dem Berührbedienfeld angezeigten Schaltfläche oder einer von dem Berührbedienfeld abweichenden Schaltfläche auswählen.
  • In diesem Fall kann der Nutzer, um solche Schaltflächen zu bedienen, für einen Moment direkt auf diese Schaltflächen blicken. Jedoch wird in einem normalen Einsatzmodus des Roboters eine Bedienung zum Auswählen (Wechseln) der Antriebsachse oder des zu bedienenden Aktionsmodus normalerweise vor dem Antreiben des Roboters durchgeführt, das heißt wenn der Roboter eigentlich nicht in Betrieb ist. Zudem kann durch Modifizierungen von Einstellungen wie etwa der Form, Größe und Farbe der Schaltflächen die Menge der Zeit, während der der Nutzer direkt auf die Schaltflächen blickt, verkürzt werden. Deshalb wird davon ausgegangen, dass die Auswirkungen auf eine Abnahme der Sicherheit gering sind, auch wenn der Nutzer für einen Moment direkt auf die auf dem Berührbedienfeld angezeigte Schaltfläche oder eine von dem Berührbedienfeld abweichende Schaltfläche blicken sollte, um solche Schaltflächen zu bedienen.
  • Gemäß einer derartigen Konfiguration trägt der Nutzer vielmehr die Absicht, die Schaltfläche zu bedienen, um die Antriebsachse oder den Aktionsmodus zu wechseln. Deshalb wird dem Nutzer auf einfachere Weise bewusst, dass die Bedienung der Schaltfläche eine Bedienung zum Auswählen der Antriebsachse oder des zu bedienenden Aktionsmodus ist. Im Ergebnis kann folglich das Risiko reduziert werden, dass ein falsches Bedienziel von dem Nutzer mithilfe einer fehlerhaften Bedienung ausgewählt wird und dabei bei dem Roboter eine falsche Aktion hervorgerufen wird. Deshalb wird eine Verbesserung der Bedienbarkeit erzielt und eine manuelle Bedienung des Roboters kann durch Berührbedienung verwirklicht werden, ohne eine Abnahme der Sicherheit zu verursachen. Zudem kann aufgrund einer verbesserten Bedienbarkeit die für das Einprogrammieren benötigte Zeit verkürzt werden.
  • Bei einer Roboterbedienungsvorrichtung gemäß Anspruch 3 detektiert die Bedienauswahl-Detektionseinheit eine Berührbedienung auf dem Berührbedienfeld.
  • Zudem beinhaltet der Bedienungsbestimmungsprozess einen Prozess zum Bestimmen der Antriebsachse oder des zu bedienenden Aktionsmodus basierend auf einer Anzahl der Finger oder einer Bedienrichtung, oder der Anzahl der Finger und der Bedienrichtung einer Ziehbedienung, wenn die von der Bedienauswahl-Detektionseinheit detektierte Berührbedienung eine Ziehbedienung ist.
  • Im Ergebnis kann der Nutzer die Aktionen des Roboters durch Verändern der Anzahl der Finger oder der Bedienrichtung, oder der Anzahl der Finger und der Bedienrichtung der Ziehbedienung wechseln. Deshalb kann es die Roboterbedienungsvorrichtung dem Nutzer ermöglichen, eine intuitive Bedienung durchzuführen, ohne direkt auf den Bildschirm zu blicken, während ein Berührbedienfeld verwendet wird. Im Ergebnis wird eine Verbesserung der Bedienbarkeit erzielt. Die manuelle Bedienung des Roboters kann durch die Berührbedienung auf einfache Weise verwirklicht werden, ohne eine Abnahme der Sicherheit zu verursachen. Zudem kann aufgrund einer verbesserten Bedienbarkeit die für das Einprogrammieren benötigte Zeit verkürzt werden.
  • Bei einer Roboterbedienungsvorrichtung gemäß Anspruch 4 kann der Nutzer durch Ziehbedienungen mit einem einzelnen Finger oder zwei Fingern Aktionen durchführen, die häufig bei der Aktion des Handsystems verwendet werden, bzw. insbesondere die Horizontalbewegungsaktion, die Vertikalbewegungsaktion, und die Drehaktion. Das heißt, dass der Nutzer bei der Roboterbedienungsvorrichtung den Roboter zur Durchführung der Horizontalbewegungsaktion durch eine Ziehbedienung mit einem einzelnen Finger veranlassen kann. Zudem kann der Nutzer den Roboter durch eine Ziehbedienung mit zwei Fingern dazu veranlassen, die Vertikalbewegungsaktion oder die Drehaktion durchzuführen.
  • Zur Verwirklichung von Aktionen wie den oben beschriebenen Aktionen beinhaltet die Aktionsbefehl-Erzeugungseinheit einen ersten Bedienungsbestimmungsprozess, einen zweiten Bedienungsbestimmungsprozess, und einen dritten Bedienungsbestimmungsprozess. Der erste Bedienungsbestimmungsprozess ist ein Prozess zum Bestimmen, ob es sich bei der detektierten Berührbedienung um eine erste Bedienung, die eine Ziehbedienung mit einem einzelnen Finger ist, handelt oder nicht. Der zweite Bedienungsbestimmungsprozess ist ein Prozess zum Bestimmen, ob es sich bei der detektierten Berührbedienung um eine zweite Bedienung, die eine Ziehbedienung mit zwei Fingern in eine vorgegebene Richtung ist, handelt oder nicht. Der dritte Bedienungsbestimmungsprozess ist ein Prozess zum Bestimmen, ob es sich bei der detektierten Berührbedienung um eine dritte Bedienung, die eine Ziehbedienung mit zwei Fingern in eine Richtung, die von derjenigen der zweiten Bedienung verschieden ist, ist, handelt oder nicht.
  • Zudem führt die Aktionsbefehl-Erzeugungseinheit als Aktionsbefehl-Erzeugungsprozess einen Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung, einen Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung, und einen Drehaktionsbefehl-Erzeugungsprozess durch. Der Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung ist ein Prozess zum Erzeugen des Aktionsbefehls zum Bewegen der Hand des Roboters in einer Planar- bzw. Ebenenrichtung, die horizontal zu einer Aktionsbezugsebene des Roboters liegt, wenn festgestellt wird, dass die Berührbedienung die erste Bedienung in dem ersten Bedienungsbestimmungsprozess ist. Der Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung ist ein Prozess zum Erzeugen des Aktionsbefehls zum Bewegen der Hand des Roboters entlang einer Vertikalachsenrichtung, die senkrecht zu der Aktionsbezugsebene des Roboters liegt, wenn festgestellt wird, dass die Berührbedienung die zweite Bedienung in dem zweiten Bedienungsbestimmungsprozess ist. Der Drehaktionsbefehl-Erzeugungsprozess ist ein Prozess zum Erzeugen des Aktionsbefehls zum Drehen der Hand des Roboters, wenn festgestellt wird, dass die Berührbedienung die dritte Bedienung in dem dritten Bedienungsbestimmungsprozess ist. Die oben beschriebenen Aktionsbefehle werden in dem Aktionsbefehls-Erzeugungsprozess an einen Controller gesendet. Der Controller steuert die Aktion des Roboters basierend auf dem Aktionsbefehl. Im Ergebnis werden die Horizontalbewegungsaktion, die Vertikalbewegungsaktion und die Drehbewegungsaktion, falls zweckdienlich, durchgeführt.
  • Wenn eine vorgegebene Bedienung durchgeführt wird, veranlasst die hier beschriebene Roboterbedienungsvorrichtung den Roboter dazu, eine Aktion durchzuführen, die auf einfache Weise mit der Bedienung durch den Nutzer in Zusammenhang gebracht wird. Das bedeutet, wie oben erläutert, wenn die Ziehbedienung durch einen einzelnen Finger durchgeführt wird, die Roboterbedienungsvorrichtung den Roboter dazu veranlasst, eine Aktion durchzuführen, die auf einfache Weise mit der Bedienung durch den Nutzer assoziiert ist, das heißt in diesem Fall die Horizontalbewegungsaktion der Hand. Die Begründung für die Horizontalbewegungsaktion der Hand des Roboters, die mit der Bedienung assoziiert ist, basiert auf, visuellen und taktilen Informationen und dergleichen eines Menschen. Zum Beispiel liegt die Begründung in dem folgenden Punkt. Das heißt, das berühr-zu-bedienenden Berührbedienfeld ist typischerweise eine Ebene, und ein zweidimensionales Koordinatensystem ist auf darauf gebildet. Wenn die Ziehbedienung durch einen einzelnen Finger durchgeführt wird, ist der Modus derart, dass sich ein Einzelberührort entlang einer Ebene wie dieser entlang bewegt. Das heißt, dass in diesem Fall eine enge Beziehung zwischen dem Berührort durch den einzelnen Finger, der sich über die Ebene bewegt, und dem Roboter, der sich in der Ebenen-Richtung bewegt, besteht. Deshalb kann der Nutzer die Horizontalbewegung der Hand des Roboters und die Bedienung in der Ebenen-Richtung auf dem assoziierten Bildschirm erkennen.
  • Bei einer Roboterbedienungsvorrichtung gemäß Anspruch 5 ist die zweite Bedienung eine Ziehbedienung durch zwei Finger in einer linearen Richtung, und eine Bedienung, bei der sich ein Abstand zwischen den Fingern graduell verkürzt oder verlängert während eines Zeitraums, in dem die Ziehbedienung durchgeführt wird. In diesem Fall bezieht sich die Ziehbedienung in einer linearen Richtung auf eine Bedienung in einer beliebigen linearen Richtung auf dem Bildschirm des Berührbedienfelds. Die relative Beziehung zu dem Bildschirm, wie beispielsweise eine vertikale Richtung, eine seitliche Richtung, oder eine Diagonalrichtung ist irrelevant. Zudem ist die dritte Bedienung eine Ziehbedienung durch zwei Finger in einer Umfangsrichtung. In diesem Fall bezieht sich die Ziehbedienung in der Umfangsrichtung auf eine Bedienung, bei der eine Drehkomponente in zumindest einer der Ziehbedienungen durch die beiden Finger enthalten ist.
  • Ferner beinhaltet der Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung einen Annäherungsbefehl-Erzeugungsprozess und einen Trennbefehl-Erzeugungsprozess. Bei dem Annäherungsbefehl-Erzeugungsprozess handelt es sich um einen Prozess zum Erzeugen des Aktionsbefehls zum Bewegen der Hand des Roboters in einer Richtung, die sich der Aktionsbezugsebene nähert, das heißt nach unten, wenn die zweite Bedienung diejenige ist, bei der sich der Abstand zwischen den Fingern graduell verlängert. Bei dem Trennbefehl-Erzeugungsprozess handelt es sich um einen Prozess zum Erzeugen des Aktionsbefehls zum Bewegen der Hand des Roboters in einer Richtung weg von der Aktionsbezugsebene, das heißt nach oben, wenn die zweite Bedienung diejenige ist, bei der sich der Abstand zwischen den Fingern graduell verkürzt. Der in dem Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung erzeugte Aktionsbefehl wird von einer Kommunikationseinheit an einen Controller gesendet. Der Controller, der den Aktionsbefehl von der Kommunikationseinheit erhalten hat, steuert die Aktion des Roboters basierend auf dem Aktionsbefehl. Im Ergebnis wird die Vertikalbewegungsaktion nach oben oder unten ausgeführt.
  • Wie oben beschrieben, wenn die Bedienung, bei der es sich um eine Ziehbedienung durch zwei Finger in einer linearen Richtung handelt, und eine Bedienung, bei der ein Abstand zwischen den Fingern sich graduell vergrößert während eines Zeitraums, in dem die Ziehbedienung durchgeführt wird, durchgeführt wird, veranlasst die Roboterbedienungsvorrichtung den Roboter dazu, eine Aktion durchzuführen, die als einfach mit der Bedienung durch den Nutzer assoziiert betrachtet wird, das heißt in diesem Fall, die Vertikalrichtungsaktion der Hand nach unten. Die Begründung für die Vertikalrichtungsaktion der Hand des Roboters nach unten, welche mit der Ziehbedienung assoziiert ist, bei der sich der Abstand zwischen den Fingern graduell vergrößert, liegt in den folgenden zwei Punkten. Wenn eine solche Bedienung durchgeführt wird, ist der Modus derart, dass die Finger gespreizt werden. Das Auseinanderspreizen der Finger soll dem Nutzer Bewegung in die Richtung nach unten suggerieren. Dies ist eine erste Begründung. Zudem wird die oben beschriebene Bedienung als Spreizbedienung oder Zusammenziehbedienung (Pinch-out Operation) bezeichnet und wird oft beim Vergrößern eines Bildes oder dergleichen verwendet. Wenn eine Kamera zum Abbilden eines Objekts, wie beispielsweise einem auf der Aktionsbezugsebene bereitgestellten Werkstück an der Hand der Roboters befestigt ist, wird das von der Kamera eingefangene Bild vergrößert, wenn sich die Hand nach unten bewegt. Das heißt es gibt einen engen Zusammenhang zwischen dem Abstand zwischen dem Fingerverlängern, also dem Raum zwischen den zwei sich ausbreitenden Fingern, und einem sich vergrößernden Bild. Dies stellt eine zweite Begründung dar.
  • Zudem, wie oben beschrieben, wenn die Bedienung, bei der es sich um eine Ziehbedienung durch zwei Finger in einer linearen Richtung handelt, und eine Bedienung, bei der ein Abstand zwischen den Fingern während einem Zeitraum, in dem die Ziehbedienung durchgeführt wird, graduell kleiner wird, durchgeführt wird, veranlasst die Roboterbedienungsvorrichtung den Roboter dazu, eine Aktion auszuführen, die als einfach mit der Bedienung durch den Nutzer assoziiert betrachtet wird, das heißt in diesem Fall, die Vertikalrichtungsaktion der Hand nach oben. Die Begründung für die Vertikalbewegungsaktion der Hand des Roboters nach oben, welche mit der Ziehbedienung assoziiert ist, bei der sich der Abstand zwischen den Fingern graduell verkleinert, liegt in den folgenden zwei Punkten. Wenn eine solche Bedienung durchgeführt wird, ist der Modus derart, dass die Finger nach oben angehoben werden. Das Anheben der Finger soll dem Nutzer eine Bewegung in die Richtung nach oben suggerieren. Dies stellt eine erste Begründung dar. Zudem wird die oben beschriebene Bedienung allgemein als Kneif- oder Zusammenzieh-Bedienung (Pinch-In Operation) bezeichnet, und wird oft beim Verkleinern eines Bildes oder dergleichen verwendet. Wenn die oben beschriebene Kamera an der Hand des Roboters befestigt ist, wird das von der Kamera eingefangene Bild verkleinert, wenn sich die Hand nach oben bewegt. Das heißt es besteht ein enger Zusammenhang zwischen dem Abstand zwischen dem Fingerverkürzen, also dem Raum zwischen den zwei sich verengenden Fingern, und einem sich verkleinernden Bild. Dies stellt eine zweite Begründung dar.
  • Zudem, wenn die Ziehbedienung durch zwei Finger in der Umfangsrichtung, also eine Drehbedienung durch einen der zwei Finger durchgeführt wird, veranlasst die Roboterbedienungsvorrichtung den Roboter dazu, eine Aktion auszuführen, die als einfach mit der Bedienung durch den Nutzer assoziiert betrachtet wird, das heißt in diesem Fall die Drehaktion des Roboters. Die Begründung für die Drehaktion, die mit der Drehbedienung durch einen der zwei Finger assoziiert ist, liegt in dem folgenden Punkt. Das heißt zum Beispiel, dass ein kreiszylindrisches Glied, wie etwa ein Flansch, häufig an dem Handabschnitt des Roboters befestigt wird. Das heißt, dass die Form des Handabschnitts des Roboters häufig abgerundet ist. Wenn die Drehbedienung durchgeführt wird, ist der Modus derart, dass sich die Hand dreht, während ein Kreisbogen gezogen wird. Das heißt in diesem Fall, dass die sich die drehende Hand, während ein Kreisbogen gezogen wird, dem Nutzer eine Drehaktion suggerieren soll, bei der ein rundes Objekt gedreht wird, das heißt die Hand des Roboters wird gedreht.
  • Auf diese Weise ermöglich jede an der Roboterbedienungsvorrichtung ausgeführte Bedienung es dem Nutzer, die Bedienung mit der von dem Roboter als Reaktion auf die Bedienung ausgeführte Aktion intuitiv zu assoziieren. Zudem stellt jede Bedienung eine einfache Bedienung dar. Deshalb kann der Nutzer jede Bedienung ausführen, ohne auf seine eigene Hand zu blicken, also den Bedienungsort. Im Ergebnis blickt der Nutzer während der manuellen Bedienung des Roboters nicht mehr von dem Roboter weg, und die Sicherheit des Roboters kann vorteilhaft aufrechterhalten werden. Auf diese Weise wird gemäß der vorliegenden Einrichtung eine ausgezeichnete Wirkung dahingehend erzielt, dass die manuelle Bedienung des Roboters durch Berührbedienung verwirklicht werden kann, ohne eine Abnahme der Sicherheit zu verursachen.
  • Bei einer Roboterbedienungsvorrichtung gemäß Anspruch 6 handelt es sich bei der zweiten Bedienung um eine Bedienung in einer Vertikalrichtung auf dem Berührbedienfeld. Zudem handelt es sich bei der dritten Bedienung um eine Bedienung in eine seitliche Richtung senkrecht zu der Vertikalrichtung auf dem Berührbedienfeld. In diesem Fall bezeichnet die Vertikalrichtung auf dem Berührbedienfeld eine Richtung weg vom Nutzer, der die Roboterbedienungsvorrichtung hält. Zudem bezeichnet die seitliche Richtung auf dem Berührbedienfeld eine Richtung parallel zu dem Nutzer, der die Roboterbedienungsvorrichtung hält.
  • Wenn eine Bedienung durch zwei Finger in einer linearen Richtung durchgeführt wird, veranlasst die Roboterbedienungsvorrichtung den Roboter dazu, eine Aktion auszuführen, die als einfach mit der Bedienung durch den Nutzer assoziiert betrachtet wird. In diesem Fall, wenn eine Bedienung durchgeführt wird, bei der es sich um eine Ziehbedienung durch zwei Finger in der Vertikalrichtung (zweite Bedienung) handelt, veranlasst die Roboterbedienungsvorrichtung den Roboter dazu, die Vertikalbewegungsaktion auszuführen, bei der die Hand des Roboters in die Vertikalrichtung bewegt wird. Die Begründung dafür, dass die Vertikalbewegungsaktion der Hand des Roboters mit der Bedienung assoziiert wird, basiert auf, visuellen und taktilen Informationen und dergleichen eines Menschen. Zum Beispiel liegt die Begründung in dem folgenden Punkt. Das heißt, der Nutzer hält die Roboterbedienungsvorrichtung oftmals zwischen der Hüfte und der Brust des Nutzers. In diesem Fall, unter Berücksichtigung der Sichtbarkeit des Bildschirms und der Bedienbarkeit des Berührbedienfelds, ist es für den Nutzer natürlich, die Roboterbedienungsvorrichtung in einer Haltung zu halten, in welcher der Bildschirm des Berührbedienfelds nach unten hin zur Seite des Nutzers gekippt ist. Wenn der Nutzer die Roboterbedienungsvorrichtung in einer solchen Haltung hält, stimmt die Vertikalrichtung, also die Richtung nach oben/unten des Bildschirms der Roboterbedienungsvorrichtung mit der Vertikalrichtung, also der Richtung der Hand des Roboters nach oben/unten, überein. Deshalb kann der Nutzer die Bedienung in der Vertikalrichtung auf dem Bildschirm des Berührbedienfelds und die Vertikalbewegungsaktion der Hand des assoziierten Roboters auf einfache Weise erkennen.
  • Wenn eine Bedienung durchgeführt wird, bei der es sich um die Ziehbedienung durch zwei Finger in die seitliche Richtung (dritte Bedienung) handelt, veranlasst die Roboterbedienungsvorrichtung den Roboter zudem, die Drehaktion auszuführen, bei welcher die Hand des Roboters gedreht wird. Die Begründung für die Drehaktion der Hand, welche mit der Bedienung assoziiert ist, basiert auf visuellen und taktilen Informationen eines Menschen. Zum Beispiel liegt die Begründung in folgendem Punkt. Das heißt, dass eine manuelle Bedienung des Roboters oftmals zur Feinabstimmung des Roboters verwendet wird. Deshalb zeigt die Hand des Roboters während der manuellen Bedienung oftmals nach unten. In diesem Fall schließt die Drehachse der Hand einen rechten Winkel mit der horizontalen Ebene ein, oder anders gesagt, ist sie in die Vertikalrichtung ausgerichtet. Wenn die Hand des Roboters in Horizontalrichtung in diesem Zustand betrachtet wird, erscheint es, dass ein bestimmter Punkt an der Hand des Roboters sich in linearer Weise in der Horizontalrichtung bewegt, als Ergebnis dessen, dass die Hand des Roboters gedreht wird. Deshalb wird angenommen, dass der Nutzer die Drehaktion der Hand des Roboters mit der Bedienung in der seitlichen Richtung bezüglich des Berührbedienfelds assoziiert. Im Ergebnis bringt der Nutzer die Bedienung in die seitliche Richtung bezüglich des Berührbedienfelds und die Drehaktion der Hand des Roboters miteinander in Zusammenhang.
  • Bei einer Roboterbedienungsvorrichtung gemäß Anspruch 7 detektiert die Bedienauswahl-Detektionseinheit eine Berührbedienung auf dem Berührbedienfeld. Zudem beinhaltet der Aktionsbefehl-Erzeugungsprozess einen Antriebsachsen-Auswahlprozess. Bei dem Antriebsachsen-Auswahlprozess handelt es sich um einen Prozess zum Auswählen einer einzelnen anzutreibenden Antriebsachse unter der Vielzahl von Antriebsachsen basierend auf einer Anzahl der Finger oder einer Bedienrichtung, oder der Anzahl der Finger und der Bedienrichtung der Ziehbedienung, wenn es sich bei der detektierten Berührbedienung um eine Ziehbedienung durch einen Finger handelt. Das heißt, dass bei der Aktion eines Achssystems die Roboterbedienungsvorrichtung die Antriebsachse wechseln und die Antriebsachse durch die Anzahl der Finger oder die Bedienrichtung, oder der veränderten Anzahl der Finger und der veränderten Bedienrichtung der Ziehbedienung bedienen kann. Selbst wenn das Berührbedienfeld in der Roboterbedienungsvorrichtung verwendet wird, kann im Ergebnis die Aktion jedes Achssystems problemlos ausgeführt werden. Ferner kann der Nutzer die Antriebsachse intuitiv wechseln, indem die Anzahl der Finger oder die Bedienrichtung, oder die Anzahl der Finger und die Bedienrichtung der Ziehbedienung verändert werden. Deshalb kann es die Roboterbedienungsvorrichtung dem Nutzer ermöglichen, eine intuitive Bedienung durchzuführen, ohne direkt auf den Bildschirm zu blicken, während ein Berührbedienfeld verwendet wird.
  • Bei einer Roboterbedienungsvorrichtung gemäß einer achten Ausführungsform beinhaltet der Antriebsachsenauswahlprozess einen ersten Antriebsachsenauswahlprozess und einen zweiten Antriebsachsenauswahlprozess. Bei dem ersten Antriebsachsenauswahlprozess handelt es sich um einen Prozess zum Auswählen einer einzelnen anzutreibenden Antriebsachse unter Antriebsachsen einer ersten Gruppe, wenn es sich bei der Bedienrichtung der Ziehbedienung um eine Vertikalrichtung auf dem Berührbedienfeld handelt. In diesem Fall beziehen sich die Antriebsachsen der ersten Gruppe auf Antriebsachsen, die es der Hand des Roboters ermöglichen, sich in eine Vertikalrichtung bezüglich der Aktionsbezugsebene des Roboters zu bewegen. Zudem handelt es sich bei dem zweiten Antriebsachsenauswahlprozess um einen Prozess zum Auswählen einer einzelnen anzutreibenden Antriebsachse unter den Antriebsachsen, die nicht die Antriebsachsen der ersten Gruppe sind, wenn es sich bei der Bedienrichtung der Ziehbedienung um eine seitliche Richtung senkrecht zur Vertikalrichtung oder eine Umfangsrichtung auf dem Berührbedienfeld handelt.
  • Wie oben beschrieben kann der Nutzer auf einfache Weise die Bedienung in der Vertikalrichtung auf dem Bildschirm des Berührbedienfelds mit der Aktion der Hand des Roboters in der Vertikalrichtung in Zusammenhang bringen. Zudem kann der Nutzer, wie oben erläutert, die Bedienung in der seitlichen Richtung oder der Umfangsrichtung auf dem Bildschirm des Berührbedienfelds auf einfache Weise mit der Drehaktion der Hand des Roboters in Zusammenhang bringen. Das heißt, dass es einfach ist, die Bewegungsrichtung der Hand und die Bedienrichtung in Zusammenhang zu bringen, wenn bei einer Roboterbedienungsvorrichtung nach Anspruch 6 eine Antriebsachse für jede Achse bedient wird. Deshalb kann bei der Roboterbedienungsvorrichtung eine weitere Verbesserung der Bedienbarkeit erzielt werden.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 9 bestimmt der Antriebsachsenauswahlprozess die Antriebsachse, die durch Übergehen von einer Antriebsachse an einer Basisseite des Roboters zu einer Antriebsachse an der Handseite in Begleitung mit einer Zunahme der Anzahl der Finger der Ziehbedienung anzutreiben ist. Allgemein sind die Antriebsachsen eines Gelenkarmroboters derart eingestellt, dass die Achsenanzahl, wie beispielweise eine erste Achse, eine zweite Achse, eine dritte Achse, ..., nacheinander hin zu der Handseite der Basisseite zunimmt. In diesem Fall kann der Nutzer die Nummer der anzutreibenden Achse durch Erhöhen der Anzahl der Finger in der Bedienung erhöhen. Deshalb kann der Nutzer die in der Bedienung benötigte Anzahl der Finger auf einfache Weise mit der Antriebsachse in Zusammenhang bringen.
  • Zudem nimmt bei einem Gelenkarmroboter die Auswirkung, die das Antreiben auf die Hand hat, das heißt die Bewegungsmenge der Hand, zu, sowie die anzutreibende Antriebsachse der Basisseite näher kommt. Hingegen wird davon ausgegangen, dass der Nutzer in der Lage ist, eine präzisere Bedienung auszuführen, wenn sich die benötigte Anzahl der Finger der Ziehbedienung verringert. Bei der Roboterbedienungsvorrichtung ist der Nutzer in der Lage, eine präzise Bedienung mit weniger Fingern auszuführen, wenn die anzutreibende Antriebsachse der Basisseite näher kommt, das heißt wenn die Auswirkung, die die Antriebsachse auf die Hand des Roboters hat zunimmt. Im Ergebnis wird eine weitere Verbesserung der Bedienbarkeit erzielt.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 10 bestimmt der Antriebsachsenauswahlprozess die anzutreibende Antriebsachse durch Übergehen von einer Antriebsachse an der Handseite des Roboters zu einer Antriebsachse an der Basisseite in Begleitung mit der Zunahme der Anzahl der Finger der Ziehbedienung. Das heißt, dass der Antriebsachsenauswahlprozess gemäß Anspruch 8 die Antriebsachse in der umgekehrten Reihenfolge von derjenigen des Antriebsachsenauswahlprozesses gemäß Anspruch 7 bestimmt. Die manuelle Bedienung des Roboters wird oftmals zur Feinabstimmung der Position der Hand des Roboters verwendet. Deshalb kann bei der manuellen Bedienung des Achssystems des Roboters erwartet werden, dass Antriebsachsen nahe der Hand des Roboters häufiger angetrieben werden als die Antriebsachsen an der Basisseite. Bei der Roboterbedienungsvorrichtung kann der Nutzer eine präzise Bedienung mit weniger Fingers durchführen, wenn die anzutreibende Antriebsachse der Handseite näher kommt, das heißt wenn die Antriebsachse diejenige wird, die häufiger angetrieben wird. Im Ergebnis wird eine verbesserte Bedienbarkeit erzielt.
  • Um die Bestätigung zu erleichtern, ob der Roboter wie beabsichtigt während der manuellen Bedienung des Roboters arbeitet oder nicht führt der Nutzer oftmals jede Aktion (Horizontalbewegungsaktion, Vertikalbewegungsaktion, und Drehaktion) unabhängig aus. Zum Beispiel wird zunächst die Horizontalbewegungsaktion durchgeführt. Als nächstes wird die Vertikalbewegungsaktion durchgeführt. Schließlich wird die Drehaktion durchgeführt. Angesichts dieser Umstände kommt es während der manuellen Bedienung des Roboters selten vor, dass eine Vielzahl von Aktionen absichtlich zur gleichen Zeit (gemischt) ausgeführt wird. Deshalb ist es während der manuellen Bedienung des Roboters bevorzugt, dass eine gleichzeitige Ausführung einer Vielzahl von Aktionen nicht zugelassen wird. Um dies umzusetzen ist es erforderlich, eindeutig zwischen den Bedienungen zum Ausführen der Aktionen zu unterscheiden (trennen). Wenn die Unterscheidung zwischen Aktionen unklar ist, wird eine Aktion ausgeführt, die eine Mischung einer Vielzahl von Aktionen ist. Im Ergebnis nimmt die Wahrscheinlichkeit zu, dass eine vom Nutzer nicht beabsichtigte Aktion (eine fehlerbehaftete Aktion tritt auf) ausgeführt wird. Um die Wahrscheinlichkeit von solchen fehlerbehafteten Aktionen weiter zu unterdrücken, können die Vorrichtungen und Mittel gemäß den Ansprüchen 9 bis 11 eingesetzt werden, um die Trennung zwischen Bedienungen zu klären.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 11 bestimmt die Aktionsbefehl-Erzeugungseinheit die Anzahl der Finger der Berührbedienung nach dem Verstreichen einer vorgegebenen zulässigen Verzögerungszeit vom Zeitpunkt der Detektion, wenn ein einzelner Ort einer Berührbedienung detektiert wird. Wenn der Nutzer eine Berührbedienung mit einer Vielzahl von Fingern ausführt, ist es schwierig, die Berührzeitpunkte der Vielzahl von Fingern perfekt aufeinander abzustimmen. Deshalb wird zum Beispiel selbst wenn eine Berührbedienung durch eine Vielzahl von Fingern durchgeführt wird, um eine bestimmte Aktion auszuführen, eine unbeabsichtigte Aktion vorübergehend zu dem Zeitpunkt ausgeführt, an dem die Berührung durch einen Finger ausgeführt wird. Nachfolgend wird die ursprünglich beabsichtigte Aktion zu dem Zeitpunkt durchgeführt, an dem die Berührung durch die anderen Finger durchgeführt wird.
  • Bei der Roboterbedienungsvorrichtung wird die Berührbedienung als Ziehbedienung durch eine Vielzahl von Fingern bestimmt, wenn die zeitliche Verzögerung des Zeitpunkts der Berührung unter der Vielzahl von Fingern geringer als die zulässige Verzögerungszeit ist. Das heißt, dass eine zeitliche Verzögerung des Zeitpunkts des Berührens unter der Vielzahl von Fingern bis zu der zulässigen Verzögerungszeit erlaubt ist. Deshalb kann das Auftreten einer fehlerbehafteten Aktion, das heißt einer unbeabsichtigten, vorübergehend ausgeführten Aktion mit Bestimmtheit verhindert werden, wenn die zulässige Verzögerungszeit zum Beispiel auf Grundlage des maximal vorstellbaren Werts als zeitliche Verzögerung des Zeitpunkts der Bedienung eines Menschen eingestellt wird.
  • Bei einer Roboterbedienungsvorrichtung gemäß Anspruch 12 bestimmt die Aktionsbefehls-Erzeugungseinheit ob es sich bei einer Ziehbedienung durch eine Vielzahl von Fingern um eine Bedienung in einer Umfangsrichtung handelt. Das heißt, dass die Aktionsbefehls-Erzeugungseinheit bei einer Berührbedienung durch eine Vielzahl von Fingern zwei Finger unter der Mehrzahl von Fingern extrahiert, bei denen ein Abstand zwischen den Berührpositionen der Finger der Größte ist. Dann bestimmt die Aktionsbefehls-Erzeugungseinheit, dass es sich bei der Ziehbedienung nicht um eine Bedienung in einer Umfangsrichtung handelt, wenn ein zwischen einem Vektor bezüglich der Bewegung von jedem der beiden Finger und einem Vektor zwischen den beiden Fingern gebildeter Winkel kleiner ist als ein Bestimmungsgrenzwert, und bestimmt, dass es sich bei der Ziehbedienung um eine Bedienung in einer Umfangsrichtung handelt, wenn der Winkel dem Bestimmungsgrenzwert entspricht oder größer ist.
  • Wenn der Nutzer die Ziehbedienung mit einer Mehrzahl von Fingern durchführt, um beispielsweise eine bestimmte Aktion auszuführen, ist es für den Nutzer schwierig, jeden Finger in einer genau geraden Linie zu bewegen. Deshalb erfolgt eine Bestimmung dahingehend, dass es sich bei der Ziehbedienung um eine Bedienung in eine Umfangsrichtung handelt, sollte sich einer der Finger auch nur geringfügig nicht in einer geraden Linie bewegen, selbst wenn der Nutzer versucht, die zwei Finger auf einer geraden Linie zu bewegen, um eine bestimmte Aktion auszuführen. In diesem Fall wird eine andere Aktion ausgeführt, die nicht beabsichtigt ist.
  • Das heißt, dass auch wenn bei der Roboterbedienungsvorrichtung die zwei Finger nicht auf einer genau geraden Linie bewegt werden, sondern derart, um eine leichte Kurve zu ziehen, das heißt zum Beispiel einen Kreisbogen, die Bestimmung dahingehend erfolgt, dass es sich bei der Ziehbedienung um eine Ziehbedienung durch zwei Finger in einer geraden Linie handelt. Deshalb kann aufgrund der Tatsache, dass der Bestimmungsgrenzwert auf Grundlage des maximal vorstellbaren Werts einer Abweichung (das heißt des Ausmaßes der Krümmung bezüglich einer geraden Linie) durch Bedienung eines Menschen eingestellt wird, das Auftreten einer fehlerbehafteten Bedienung, das heißt einer Ziehbedienung durch eine Mehrzahl von Fingern in einer linearen Richtung, die als eine Bedienung in einer Umfangsrichtung bestimmt wird und eine andere Aktion, die nicht beabsichtigt ist, ausgeführt wird, mit Bestimmtheit vermieden werden kann.
  • Bei der Roboterbedienungsvorrichtung nach Anspruch 13 detektiert die Bedienauswahl-Detektionseinheit eine Berührbedienung auf dem Berührbedienfeld. Das heißt, dass der Nutzer die Antriebsachse oder den Aktionsmodus des zu bedienenden Roboters mittels Durchführen einer Berührbedienung auf dem Berührbedienfeld auswählen kann. Zudem weist die Aktionsbefehl-Erzeugungseinheit Richtungen der Ziehbedienung zu, um so eine unterschiedliche Richtung für jede Antriebsachse oder jeden Aktionsmodus des Roboters zu sein. In diesem Fall ist die Roboterbedienungsvorrichtung in der Lage, eine Aktion eines Achssystems oder des Handsystems durchzuführen. Hinsichtlich der Aktion des Handsystems beinhalten die Aktionsmodi des Roboters die Horizontalbewegungsaktion, Vertikalbewegungsaktion, und die Drehaktion der Hand.
  • Bei der Roboterbedienungsvorrichtung kann der Nutzer die Antriebsachse oder den Aktionsmodus des zu bedienenden Roboters auswählen, das heißt die Art der Bedienung durch Verändern der Richtung der Ziehbedienung. Deshalb ist es nicht erforderlich, dass der Nutzer komplizierte Bedienungen zum Auswählen der Art von Aktion lernen muss, und die Bedienung wird einfacher. Im Ergebnis kann die manuelle Bedienung des Roboters durch Berührbedienung verwirklicht werden, ohne eine Abnahme der Sicherheit zu verursachen.
  • Zudem stellt die Anzahl der Finger der Ziehbedienung in der Roboterbedienungsvorrichtung keine Besorgnis dar. Deshalb kann der Nutzer eine Eingabebedienung mit einem einzelnen Finger durchführen. Das heißt, dass die Roboterbedienungsvorrichtung einen Vorteil dahingehend bereitstellt, dass der Nutzer Bedienungen mit einem einzelnen Finger auf einfache Weise durchführen kann. Dieser Vorteil ist ebenfalls wirksam, wenn eine Zeigevorrichtung, wie beispielsweise ein so-genannter Berührstift oder Bedienungsstift, verwendet wird. Das heißt, wenn eine Bedienungsumgebung eines Roboters zur industriellen Anwendung in Betracht gezogen wird, dass der Nutzer Handschuhe tragen kann, um die Sicherheit des Nutzers sicherzustellen, oder eine Substanz wie Schmieröl, welche die Berührbedienung hemmt, an der Hand und Fingern des Nutzers anhaften kann. In diesem Fall kann es sein, dass die Roboterbedienungsvorrichtung die Berührbedienung nicht genau erkennt, auch wenn der Nutzer eine Berührbedienung mit seinen Händen und Fingern durchführt. Selbst wenn der Nutzer Handschuhe trägt, oder Schmieröl oder dergleichen an den Händen und Fingern des Nutzers anhaftet, kann der Nutzer hingegen eine genaue Berührbedienung durch Verwendung der oben genannten Zeigevorrichtung durchführen. Aus diesen Gründen wird ein Vorteil dahingehend erzielt, dass die oben beschriebene Zeigevorrichtung auf einfache Weise verwendet werden kann, wenn die Roboterbedienungsvorrichtung einen Roboter für den industriellen Einsatz bedienen soll.
  • Bei einer Roboterbedienungsvorrichtung gemäß Anspruch 14 unterbindet die Aktionsbefehl-Erzeugungseinheit die Detektion einer Berührbedienung in einem Bereich innerhalb einer vorgegebenen Spanne nahe einem Berührort durch die Berührbedienung für einen Zeitraum, bis die Ziehbedienung abgeschlossen ist, wenn eine Ziehbedienung detektiert wird. Zum Beispiel wird die Ziehbedienung durch einen einzelnen Finger oftmals mit dem Zeigefinger der rechten Hand oder der linken Hand durchgeführt. Deshalb ist es wahrscheinlich, dass es beim Durchführen der Bedienung zu einer fehlerhaften Berührung durch den Daumen derselben Hand wie der des die Bedienung ausführenden Zeigefingers kommt. Wenn eine solche fehlerhafte Berührung durch einen unbeabsichtigten Finger detektiert wird, erfolgt eine Bestimmung, dass eine Ziehbedienung durch eine Mehrzahl von Fingern durchgeführt wurde. Im Ergebnis wird eine unbeabsichtigte Aktion durchgeführt.
  • Wenn eine Ziehbedienung einmal detektiert wurde, ist bei der Roboterbedienungsvorrichtung eine Detektion einer Berührbedienung in dem Bereich innerhalb einer vorgegebenen Spanne in der Nähe des Berührorts durch eine Berührbedienung über einen Zeitraum, bis die Ziehbedienung abgeschlossen ist, gesperrt. Deshalb kann das Auftreten einer fehlerhaften Aktion, das heißt einer anderen Aktion, die unbeabsichtigt durchgeführt wird, unterdrückt werden, wenn eine bestimmte Aktion ausgeführt werden soll, falls die Spanne des oben beschriebenen Bereichs so eingestellt ist, dass sie Orte berücksichtigt, an denen die Wahrscheinlichkeit einer fehlerhaften Berührung durch einen unbeabsichtigten Finger hoch ist.
  • Eine Roboterbedienungsvorrichtung nach Anspruch 15 beinhaltet eine Umschalteinheit. Die Umschalteinheit wird verwendet, um zwischen einer Hauptbedienung und einer Nebenbedienung umschalten. Bei der Hauptbedienung handelt es sich um eine Bedienung zum Bedienen einer Antriebsachse oder eines Aktionsmodus unter der Vielzahl von Antriebsachsen oder Aktionsmodi des Roboters, welche zu einer Position einer Hand des Roboters beiträgt. Die Nebenbedienung ist eine Bedienung zum Bedienen einer Antriebsachse oder eines Aktionsmodus, welche/r zu einer Haltung der Hand des Roboters beiträgt. Im Ergebnis kann der Nutzer zwischen der Hauptbedienung und der Nebenbedienung mithilfe der Umschalteinheit umschalten. Folglich kann sich der Nutzer beim Bedienen des Roboters eindeutig darüber im Klaren sein, ob der Nutzer eine Bedienung zum Bestimmen einer Handspitzenposition des Roboters oder eine Bedienung zum Bestimmen der Haltung der Hand ausführt. Deshalb kann eine fehlerhafte Bedienung unterdrückt werden, zum Beispiel wenn der Nutzer eine Bedienung durchführt, um die Position der Hand zu verändern, ohne zu versuchen, die Haltung der Hand zu bestimmen. Im Ergebnis ist die Bedienbarkeit verbessert.
  • Hier, auf dem industriellen Schauplatz, werden oftmals ein vier-achsiger, Horizontal-Gelenkarmroboter, der vier Antriebsachsen beinhaltet, und ein sechs-achsiger, Vertikal-Gelenkarmroboter, der sechs Antriebsachsen beinhaltet, eingesetzt. Wenn die Aktion eines Achssystems durch manuelle Bedienung des vier-achsigen Horizontal-Gelenkarmroboters durchgeführt wird, ist die Aktionsbefehl-Erzeugungseinheit bevorzugt in der Lage, vier Arten von Eingabebedienungen zum individuellen Bedienen der Antriebsachsen zu bestimmen. Zudem gibt es bei dem vier-achsigen, Horizontal-Gelenkarmroboter vier Arten von Aktionen des Handsystems, das heißt in einer X-Richtung, einer Y-Richtung, einer Z-Richtung, und einer Rz-Richtung. Deshalb ist die Aktionsbefehls-Erzeugungseinheit bevorzugt in der Lage, vier Arten von Eingabebedienungen zum individuellen Bedienen der vier Arten von Aktionen zu bestimmen, wenn die Aktion des Handsystem durch die manuelle Bedienung des vier-achsigen Horizontal-Gelenkarmroboters ausgeführt wird. Aufgrund der vorstehenden Erläuterung ist die Aktionsbefehls-Erzeugungseinheit bevorzugt in der Lage, zumindest vier Arten von Bedieneingaben zu bestimmen, wenn die Roboterbedienungsvorrichtung den vier-achsigen Horizontal-Gelenkarmroboter einer manuellen Bedienung unterzieht.
  • Auf ähnliche Weise ist die Aktionsbefehl-Erzeugungseinheit bevorzugt in der Lage, sechs Arten von Eingabebedienungen zum individuellen Bedienen der Antriebsachsen zu bestimmen, wenn die Aktion eines Achssystems durch eine manuelle Bedienung des sechs-achsigen Vertikal-Gelenkarmroboters durchgeführt wird. Zudem gibt es bei dem sechs-achsigen Vertikal-Gelenkarmroboter sechs Arten von Aktionen des Handsystems, das heißt in der X-Richtung, der Y-Richtung, der Z-Richtung, einer Rx-Richtung, einer Ry-Richtung, und der Rz-Richtung. Deshalb ist die Aktionsbefehls-Erzeugungseinheit in der Lage, sechs Arten von Eingabebedienungen zum individuellen Bedienen der sechs Arten von Aktionen zu bestimmen, wenn die Aktion des Handsystems durch die manuelle Bedienung des sechs-achsigen Vertikal-Gelenkarmroboters ausgeführt wird. Aufgrund der vorstehenden Erläuterung ist die Aktionsbefehls-Erzeugungseinheit bevorzugt in der Lage, zumindest sechs Arten von Bedieneingaben zu bestimmen, wenn die Roboterbedienungsvorrichtung den sechs-achsigen Vertikal-Gelenkarmroboter einer manuellen Bedienung unterzieht.
  • Deshalb ist bei einer Roboterbedienungsvorrichtung nach Anspruch 16 das Berührbedienfeld in einen ersten Bereich und einen zweiten Bereich unterteilt. Der erste Bereich und der zweite Bereich sind Bereiche auf dem Berührbedienfeld, bei dem eine Bedienung in einer einzelnen Richtung oder in zwei Richtungen, die senkrecht zueinander liegen, von der Berührbedienungs-Detektionseinheit detektiert werden kann. Das heißt, dass die Aktionsbefehl-Erzeugungseinheit eine Gesamtzahl von vier Arten von Ziehbedienungen durch Ziehbedienungen in zwei Richtungen, die in dem ersten Bereich eingegeben werden, und Ziehbedienungen in zwei Richtungen, die in dem zweiten Bereich eingeben werden, bestimmen kann. Zudem kann das Umschalten zwischen der Hauptbedienung und der Nebenbedienung in jedem Bereich durchgeführt werden. Deshalb kann die Aktionsbefehl-Erzeugungseinheit ein Maximum von acht Arten von Bedieneingaben bestimmen. Im Ergebnis kann bei einer Roboterbedienungsvorrichtung wie dieser die manuelle Bedienung der Aktionen des Handsystems und der Aktionen des Achssystems sowohl von dem vier-achsigen Horizontal-Gelenkarmroboter als auch von dem sechs-achsigen Vertikal-Gelenkarmroboter, welche häufig auf dem industriellen Schauplatz Verwendung finden, ausgeführt werden.
  • Eine Roboterbedienungsvorrichtung nach Anspruch 17 beinhaltet eine Kippbedienungs-Detektionseinheit und einen Aktionsbefehls-Erzeugungseinheit. Die Kippbedienungs-Detektionseinheit ist in der Lage, die Eingabe einer Kippbedienung durch den Nutzer durch Detektieren eines Kippens des Berührbedienfelds zu detektieren. Die Aktionsbefehls-Erzeugungseinheit erzeugt einen Aktionsbefehl zum Bedienen eines Gelenkarmroboters mit einer Vielzahl von Antriebsachsen. Zudem ist die Aktionsbefehls-Erzeugungseinheit in der Lage, einen Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung und einen Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung durchzuführen. Bei dem Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung handelt es sich um einen Prozess zum Erzeugen des Aktionsbefehls zum Bewegen einer Hand des Roboters in einer Planar- bzw. Ebenenrichtung, die horizontal zu einer Aktionsbezugsebene des Roboters liegt, basierend auf der Berührbedienung, die von der Berührbedienungs-Detektionseinheit detektiert wurde. Der Aktionsbefehls-Erzeugungsprozess für Vertikalbewegung ist ein Prozess zum Erzeugen des Aktionsbefehls zum Bewegen der Hand des Roboters entlang einer Vertikalachsenrichtung senkrecht zu der Aktionsbezugsebene basierend auf der Kippbedienung, die von der Kippbedienungs-Detektionseinheit detektiert wurde.
  • Das heißt, dass der Nutzer bei der Roboterbedienungsvorrichtung eine Bedienung durchführen kann, um die Hand des Roboters in der Horizontalrichtung mittels Durchführen einer Berührbedienung auf dem Berührbedienfeld zu bewegen. Im Ergebnis kann der Nutzer beim Bewegen der Hand des Roboters in der Horizontalrichtung auf einfache Weise die zwei-dimensionale Bedienung auf der Berührbedienfläche und die Bewegung der Hand des Roboters in der Horizontalrichtung, das heißt die zwei-dimensionale Bewegung, in Zusammenhang bringen. Zudem kann der Nutzer eine Bedienung durchführen, um die Hand des Roboters in der Vertikalrichtung mittels Durchführen einer Bedienung zum Kippen des Berührbedienfelds zu bewegen. Im Ergebnis führt der Nutzer beim Bewegen der Hand des Roboters in der Vertikalrichtung eine Bedienung eines Modus durch, die sich von der Berührbedienung auf dem Berührbedienfeld unterscheidet, oder anders gesagt der Nutzer führt eine Bedienung zum Kippen des Berührbedienfelds durch. Deshalb kann der Nutzer zwischen der Bedienung zum Bewegen in der Horizontalrichtung und der Bedienung zum Bewegen in Vertikalrichtung unterscheiden. Folglich ist die Bedienbarkeit verbessert. Im Ergebnis kann die Sicherheit verbessert werden, und die für das Programmieren des Roboters benötigte Zeit kann verkürzt werden.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 18 erhöht oder verringert die Aktionsbefehl-Erzeugungseinheit eine Bewegungsgeschwindigkeit oder eine Bewegungsmenge des Roboters basierend auf einer Kippmenge der Kippbedienung, die von der Kippbedienungs-Detektionseinheit detektiert wurde. Im Ergebnis kann der Nutzer die Bewegungsgeschwindigkeit oder die Bewegungsmenge des Roboters durch Anpassen der Kippmenge des Berührbedienfelds während der Kippbedienung anpassen. Deshalb kann der Nutzer die Bedienung zum Bewegen des Roboters in der Vertikalrichtung intuitiv durchführen. Im Ergebnis wird eine Verbesserung der Bedienbarkeit erzielt.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 19 besitzt das Berührbedienfeld einen Aktionsauswahlbereich und einen Bewegungsmengen-Bestimmungsbereich. Der Aktionsauswahlbereich ist ein Bereich, der eine Bedienung zum Auswählen einer Antriebsachse oder eines Aktionsmodus des zu bedienenden Roboters aufnimmt. In diesem Fall wird bezüglich des Achssystems die Antriebsachse ausgewählt. Bezüglich des Handsystems wird der Aktionsmodus ausgewählt. Zudem handelt es sich bei dem Bewegungsmengen-Bestimmungsbereich um einen Bereich, der eine Bedienung zum Bestimmen einer Bewegungsmenge des Roboters aufnimmt. In diesem Fall beinhaltet die Bewegungsmenge des Roboters eine Bewegungsgeschwindigkeit oder Bewegungsdistanz des Roboters zusätzlich zu der Menge, um die der Roboter tatsächlich bewegt wird, das heißt die Bewegungsdistanz des Roboters. Bei einer Roboterbedienungsvorrichtung wie dieser führt der Nutzer beim Auswählen der Aktion des Roboters eine Berührbedienung in dem Aktionsauswahlbereich durch. Beim Bestimmen der Bewegungsmenge des Roboters für der Nutzer eine Berührbedienung in dem Bewegungsmengen-Bestimmungsbereich durch. Deshalb kann der Nutzer eindeutig zwischen der Bedienung zum Auswählen der Aktion des Roboters und der Bedienung zum Bestimmen der Bewegungsmenge des Roboters unterscheiden. Im Ergebnis wird eine Verbesserung der Bedienbarkeit erzielt. Im Ergebnis wird eine Verbesserung der Sicherheit erzielt, und die für das Einprogrammieren benötigte Zeit wird verkürzt.
  • Eine Roboterbedienungsvorrichtung nach Anspruch 20 beinhaltet ferner eine Bedienstart-Detektionseinheit, die eine Startbedienung zum Starten der Aufnahme einer Bedienung in dem Aktionsauswahlbereich detektiert. Zum Beispiel detektiert die Bedienstart-Detektionseinheit eine Berührbedienung an einer auf dem Berührbedienfeld angezeigten Schaltfläche oder detektiert eine Bedienung einer Schaltfläche, der sich von der Berührbedienfläche unterscheidet. Die Aktionsbefehl-Erzeugungseinheit nimmt eine Berührbedienung in dem Aktionsauswahlbereich auf, nachdem die Bedienstart-Detektionseinheit die Startbedienung detektiert.
  • Das heißt, dass die Aktionsbefehls-Erzeugungseinheit keine Berührbedienung in dem Aktionsauswahlbereich aufnimmt, bis die Bedienstart-Detektionseinheit nicht die Startbedienung detektiert hat. Das heißt, dass der Nutzer eine Bedienung in dem Aktionsauswahlbereich durch absichtliches Durchführen der Startbedienung durchführen kann. Im Ergebnis kann eine unbeabsichtigte Bedienungseingabe in dem Aktionsauswahlfeld verringert werden. Folglich kann eine unbeabsichtigte Aktion, die durch fehlerhafte Bedienung durchgeführt wird, unterdrückt werden. Im Ergebnis kann die Sicherheit weiter verbessert werden.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 21 handelt es sich bei der Bedienung zum Auswählen einer Antriebsachse oder eines Aktionsmodus eines zu bedienenden Roboters um eine Bedienung, bei der eine Zahl, ein Zeichen, oder ein Symbol entsprechend der Antriebsachse oder dem Aktionsmodus an dem Berührbedienfeld eingegeben werden. Im Ergebnis gibt der Nutzer beim Durchführen der Aktion des Achssystems zum Beispiel die arabische Zahl „1“ entsprechend einer ersten Achse ein, wenn die erste Achse bedient werden soll. Der Nutzer gibt die arabische Zahl „2“ entsprechend einer zweiten Achse ein, wenn die zweite Achse bedient werden soll. Zudem gibt der Nutzer beim Durchführen der Aktion des Handsystems den Buchstaben „H“ entsprechend einer Horizontalbewegungsaktion ein, wenn der Roboter dazu gebracht werden soll, die Horizontalbewegungsaktion durchzuführen. Der Nutzer gibt den Buchstaben „V“ entsprechend einer Vertikalbewegungsaktion ein, wenn der Roboter dazu gebracht werden soll, die Vertikalbewegungsaktion durchzuführen. Der Nutzer gibt den Buchstaben „R“ entsprechend einer Drehaktion ein, wenn der Roboter dazu gebracht werden soll, die Drehaktion auszuführen. Hierbei ist „H“ der erste Buchstabe von „Horizontal“, „V“ ist der erste Buchstabe von „Vertikal“ und „R“ ist der erste Buchstabe von „Rotation“ bzw. Drehung.
  • Im Ergebnis kann der Nutzer durch Eingeben einer Zahl, eines Zeichens, oder eines Symbols an dem Berührbedienfeld eine Bedienung bezüglich einer Antriebsachse oder eines Aktionsmodus entsprechend der Eingabe durchführen. Deshalb kann der Nutzer auf einfache Weise die Bedieneingabe zum Bestimmen der Aktion des Roboters und die von der Bedieneingabe durchgeführte Aktion des Roboters in Zusammenhang bringen. Folglich wird eine fehlerhafte Bedienung, das heißt der Nutzer wählt eine fehlerhafte Aktion aus, unterdrückt und eine Verbesserung der Bedienbarkeit wird erzielt. Im Ergebnis wird eine Verbesserung der Sicherheit erzielt, und die für das Einprogrammieren benötigte Zeit kann verkürzt werden.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 22, bei der Roboterbedienungsvorrichtung nach Anspruch 17 oder 18, sperrt die Aktionsbefehl-Erzeugungseinheit die Detektion einer Bedienung in dem Bewegungsmengen-Bestimmungsbereich für einen Zeitraum, bis die Bedienung abgeschlossen ist, wenn eine Bedienung in dem Aktionsauswahlbereich detektiert wird. Zum Beispiel wird eine Berührbedienung durch einen einzelnen Finger oftmals mit dem Zeigefinger der rechten oder linken Hand durchgeführt. Deshalb ist es wahrscheinlich, dass es bei einer Bedienung zum Eingeben einer Zahl oder dergleichen in dem Aktionsauswahlbereich zu einer fehlerhaften Berührung in dem Bewegungsmengen-Bestimmungsbereich durch den Daumen derselben Hand wie des Zeigefingers kommt, welcher die Bedienung durchführt. Zudem kann der Nutzer fälschlicherweise eine Bedienung durchführen, die über den Aktionsauswahlbereich und den Bewegungsmengen-Bestimmungsbereich verläuft. Wenn eine solche unbeabsichtigte Bedienung detektiert wird, erfolgt eine Bestimmung dahingehend, dass eine Bedienung in dem Bewegungsmengen-Bestimmungsbereich durchgeführt wird, auch mitten während der Eingabe an dem Aktionsauswahlbereich. Im Ergebnis wird eine unbeabsichtigte Aktion durchgeführt.
  • Wenn bei der Roboterbedienungsvorrichtung die Bedienung in dem Aktionsauswahlbereich einmal detektiert wurde, ist die Detektion einer Berührbedienung in dem Bewegungsmengen-Bestimmungsbereich für einen Zeitraum, bis die Bedienung abgeschlossen ist, gesperrt. Deshalb kann das Auftreten einer fehlerhaften Aktion, das heißt einer anderen Aktion, die unbeabsichtigt durchgeführt wird, unterdrückt werden, wenn eine bestimmte Aktion durchzuführen ist, falls die Spanne des oben beschriebenen Bereichs so eingestellt wird, dass sie Orte berücksichtigt, an denen die Wahrscheinlichkeit einer fehlerhaften Berührung durch einen unbeabsichtigten Finger hoch ist. Folglich wird eine fehlerhafte Bedienung unterdrückt und eine Verbesserung der Bedienbarkeit erzielt. Im Ergebnis wird eine Verbesserung der Sicherheit erzielt, und die für das Einprogrammieren benötigte Zeit verkürzt sich.
  • Eine Roboterbedienungsvorrichtung gemäß Anspruch 23 ist dazu in der Lage, einen Bedienungsbestimmungsprozess, einen Geschwindigkeitsberechnungsprozess, und einen Aktionsbefehl-Erzeugungsprozess durchzuführen. Bei dem Bedienungsbestimmungsprozess handelt es sich um einen Prozess zum Bestimmen einer Bewegungsmenge eines Fingers in der Ziehbedienung, wenn es sich bei der von der Berührbedienungs-Detektionseinheit detektierten Berührbedienung um eine Ziehbedienung handelt. Bei dem Geschwindigkeitsberechnungsprozess handelt es sich um einen Prozess zum Berechnen einer Bewegungsgeschwindigkeit des Roboters basierend auf der Bewegungsmenge des Fingers, der in dem Bedienungsbestimmungsprozess detektiert wurde. Der Aktionsbefehl-Erzeugungsprozess zum Erzeugen eines Aktionsbefehls zum Bewegen des Roboters bei der Bewegungsgeschwindigkeit, die in dem Geschwindigkeitsberechnungsprozess berechnet wurde.
  • Im Ergebnis besteht ein Zusammenhang zwischen der Bewegungsmenge des Fingers in der Ziehbedienung durch den Nutzer und der Bewegungsgeschwindigkeit des Roboters. Deshalb kann der Nutzer die Bewegungsgeschwindigkeit des Roboters anpassen, indem die Bewegungsmenge des Fingers in der Ziehbedienung angepasst wird. Folglich kann der Nutzer eine intuitive Bedienung durchführen, und eine Verbesserung der Bedienbarkeit wird erzielt. Im Ergebnis wird eine Verbesserung der Sicherheit erzielt und die für das Einprogrammieren benötigte Zeit kann verkürzt werden.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 24 ist die Aktionsbefehl-Erzeugungseinheit in der Lage, einen Bewegungsmengen-Berechnungsprozess zum Berechnen einer Bewegungsdistanz des Roboters basierend auf der Bewegungsmenge des Fingers durchzuführen. Im Ergebnis kann der Nutzer die Bewegungsmenge anpassen, das heißt die Bewegungsdistanz des Roboters durch Anpassen der Bewegungsmenge des Fingers in der Ziehbedienung. Ferner handelt es sich bei dem Geschwindigkeitsberechnungsprozess in der Roboterbedienungsvorrichtung um einen Prozess zum Bestimmen einer Bewegungsgeschwindigkeit des Roboters basierend auf einem Wert, der erhalten wird, indem die Bewegungsmenge des Fingers durch eine Menge an Zeit geteilt wird, die für die Eingabe der Ziehbedienung benötigt wird. Im Ergebnis kann der Nutzer die Bewegungsgeschwindigkeit des Roboters anpassen, indem die für die Eingabe der Ziehbedienung benötigte Zeit angepasst wird.
  • Deshalb kann der Nutzer während der Eingabe der Ziehbedienung sowohl die Bewegungsgeschwindigkeit als auch die Bewegungsmenge des Roboters durch Anpassen der Bewegungsmenge und der Eingabedauer der Ziehbedienung anpassen. Das heißt, dass der Nutzer sowohl die Bewegungsgeschwindigkeit als auch die Bewegungsmenge des Roboters durch eine einzelne Ziehbedienung anpassen kann. Im Ergebnis kann der Nutzer eine intuitive Bedienung durchführen. Zudem muss der Nutzer im Ergebnis nicht eine Vielzahl von Bedienungen durchführen, wie etwa einer Bedienung zum Bestimmen der Bewegungsgeschwindigkeit des Roboters und einer Bedienung zum Bestimmen der Bewegungsmenge des Roboters, um die Bewegungsgeschwindigkeit und die Bewegungsmenge des Roboters zu bestimmen. Deshalb ist die Bedienung vereinfacht und eine Verbesserung der Bedienbarkeit wird erzielt. Im Ergebnis wird eine Verbesserung der Sicherheit erzielt, und die Menge der für das Einprogrammieren benötigten Zeit kann verkürzt werden.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 25 ist die Aktionsbefehl-Erzeugungseinheit dazu in der Lage, den Bedienungsbestimmungsprozess, den Geschwindigkeitsberechnungsprozess, und den Aktionsbefehl-Erzeugungsprozess bei einem bestimmten Takt durchzuführen, während die Ziehbedienung durchgeführt wird. In diesem Fall bezieht sich „während eine Ziehbedienung durchgeführt wird“ auf einen Zeitraum, ab dem der Finger des Nutzers das Berührbedienfeld berührt und die Ziehbedienung gestartet wird, bis sich der Finger des Nutzers von dem Berührbedienfeld trennt. Der Abschluss der Ziehbedienung erfolgt dann, wenn sich der Finger des Nutzers von dem Berührbedienfeld trennt. Im Ergebnis kann die Aktionsbefehl-Erzeugungseinheit einen Aktionsbefehl erzeugen, ohne auf den Abschluss der Ziehbedienung zu warten. Deshalb kann die Roboterbedienungsvorrichtung den Roboter im Wesentlichen in Echtzeit bezüglich der Ziehbedienung durch den Nutzer bedienen. Deshalb kann der Nutzer eine intuitivere Bedienung durchführen. Im Ergebnis können eine Verbesserung der Sicherheit und eine Verkürzung der Programmierzeit erzielt werden.
  • Bei der oben beschriebenen Roboterbedienungsvorrichtung kann ein Skalierungsfaktor zwischen Bedieneingabe und Ausgabe (Bewegung des Roboters) eingestellt werden. Wenn der Skalierungsfaktor zum Beispiel auf das 0,1-fache eingestellt ist, kann der Nutzer den Roboter um 0,1 mm bewegen, indem eine Ziehbedienung von 1 Millimeter durchgeführt wird. Im Ergebnis kann der Roboter dazu gebracht werden, präzise Aktion durchzuführen, größer gleich der Bedieneingabe. Jedoch tritt das folgende Problem auf, wenn der Skalierungsfaktor lediglich festgelegt wird. Das heißt zum Beispiel, dass es Fälle gibt, bei denen eine große Aktion in mehreren bis zu mehreren Dutzend Millimetereinheiten (Grobaktion) durchgeführt werden soll, während feine Aktionen (Feinaktion) in 0,1 mm Einheiten ausgeführt werden. Wenn der Skalierungsfaktor jedoch zum Beispiel auf das 0,1-fache festgelegt wird, kann der Roboter nur geringfügig bewegt werden, um 20 mm, auch bei einer Ziehbedienung von 200 mm (entsprechend der Länge einer Längsseite eines 10-Zoll-Bildschirms). Deshalb muss der Nutzer die Ziehbedienung von 200 mm 50 Mal wiederholen, um den Roboter beispielsweise um 1000 mm zu bewegen. Die Bedienung ist umständlich und die Bedienbarkeit ist schlecht.
  • Deshalb ist die Aktionsbefehl-Erzeugungseinheit bei einer Roboterbedienungsvorrichtung nach Anspruch 26 dazu in der Lage, einen Bedienungsbestimmungsprozess und einen Bewegungsmengen-Bestimmungsprozess durchzuführen. Der Bedienungsbestimmungsprozess ist ein Prozess zum Bestimmen der Bewegungsmenge eines Fingers in einer Ziehbedienung, die von der Berührbedienungs-Detektionseinheit detektiert wurde. Der Bewegungsmengen-Bestimmungsprozess, bezüglich eines Skalierungsfaktors zum Festlegen einer Bewegungsmenge des Roboters durch Erhöhen oder Verringern der Bewegungsmenge des Fingers in dem Bedienungsbestimmungsprozess ist ein Prozess zum Festlegen des Skalierungsfaktors auf einen ersten Skalierungsfaktor, der ein feststehender Wert kleiner als 1 ist, von einem Bedienstartpunkt bis die Ziehbedienung ein erstes Segment durchläuft, legt den Skalierungsfaktor auf einen Wert größer als den ersten Skalierungsfaktor fest, nachdem die Ziehbedienung das erste Segment durchlaufen hat, und zum Bestimmen der Bewegungsmenge des Roboters.
  • Im Ergebnis kann der Nutzer den Roboter bei dem ersten Skalierungsfaktor bewegen, welcher ein feststehender Skalierungsfaktor kleiner als 1 ist, indem die Ziehbedienung in dem ersten Segment durchgeführt wird. Das heißt, dass der Nutzer den Roboter dazu bringen kann, durch wiederholtes Durchführen der Ziehbedienung in dem ersten Segment die Feinaktion auszuführen. Zudem kann der Nutzer den Roboter bei einem Skalierungsfaktor größer als der erste Skalierungsfaktor für den Abschnitt hinter dem ersten Segment bewegen, in dem die Ziehbedienung hinter dem ersten Segment durchgeführt wird. Das heißt, dass der Nutzer den Roboter dazu bringen kann, eine vergleichsweise große Aktion (Grobaktion) mittels Durchführen einer Bedienung hinter dem ersten Segment auszuführen. Auf diese Weise kann der Nutzer den Roboter bei unterschiedlichen Skalierungsfaktoren in einer einzelnen Ziehbedienung bewegen. Das heißt im Ergebnis, dass zum Beispiel beide Aktionen, das heißt Grob- und Feinaktion des Roboters können durch eine einzelne Ziehbedienung verwirklicht werden. Deshalb kann der Nutzer sowohl die Feinaktion als auch die Grobaktion verwirklichen, ohne eine spezielle Bedienung zum Umschalten zwischen der Feinaktion und der Grobaktion des Roboters durchzuführen. Folglich ist die Bedienung vereinfacht und eine Verbesserung der Bedienbarkeit wird erzielt. Im Ergebnis wird eine Verbesserung der Sicherheit erzielt, und die für das Einprogrammieren benötigte Zeit kann verkürzt werden.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 27 handelt es sich bei dem Bewegungsmenge-Bestimmungsprozess um einen Prozess zum Festlegen des Skalierungsfaktors auf einen zweiten Skalierungsfaktor, nachdem die Bewegung des Fingers in der Ziehbedienung das erste Segment durchlaufen hat, bis die Bewegung ein zweites Segment durchlaufen hat, zum Festlegen des Skalierungsfaktors auf einen dritten Wert, der ein feststehender Wert ist, nachdem die Bewegung des Fingers in der Ziehbedienung das zweite Segment durchlaufen hat, und Bestimmen der Bewegungsmenge des Roboters. Im Ergebnis kann der Nutzer den Roboter bei dem ersten Skalierungsfaktor bedienen, der kleiner als 1 ist (Feinaktion), indem die Ziehaktion in dem ersten Segment wiederholt durchgeführt wird.
  • Zudem kann der Nutzer den Roboter dazu bringen, bei dem zweiten Skalierungsfaktor oder dem dritten Skalierungsfaktor, der größer ist als der erste Skalierungsfaktor (Grobaktion) zu laufen, indem die Ziehbedienung hinter das erste Segment durchgeführt wird. Ferner handelt es sich bei dem zweiten Skalierungsfaktor um einen Wert innerhalb einer Spanne von dem ersten Skalierungsfaktor bis zu dem dritten Skalierungsfaktor, der abhängig von der Bewegungsmenge des Fingers in der Ziehbedienung kontinuierlich zunimmt. Im Ergebnis kann der zweite Skalierungsfaktor, bei dem es sich um einen Skalierungsfaktor zwischen der Feinaktion bei dem ersten Skalierungsfaktor und der Grobaktion bei dem dritten Skalierungsfaktor handelt, kontinuierlich erhöht werden, abhängig von der Bewegungsmenge des Fingers der Ziehbedienung, innerhalb der Spanne von dem ersten Skalierungsfaktor bis zu dem dritten Skalierungsfaktor. Das heißt, der erste Skalierungsfaktor und der dritte Skalierungsfaktor, bei denen es sich um feststehende Werte handelt, sind durch den zweiten Skalierungsfaktor verbunden, welcher sich kontinuierlich ändert. Deshalb schaltet der Skalierungsfaktor zum Bestimmen der Bewegungsmenge des Roboters bezüglich der Bedienmenge der Ziehbedienung durch den Nutzer von dem ersten Skalierungsfaktor zu dem dritten Skalierungsfaktor durch den zweiten Skalierungsfaktor, der sich graduell verändert. Im Ergebnis kann verhindert werden, dass der Skalierungsfaktor zum Bestimmen der Bewegungsmenge des Roboters plötzlich von dem ersten Skalierungsfaktor zu dem dritten Skalierungsfaktor schaltet. Das bedeutet, dass das plötzliche Wechseln der Bewegung des Roboters von der Feinaktion zu der Grobaktion verhindert werden kann. Deshalb können plötzliche Veränderungen der Geschwindigkeit (plötzliche Aktion) des Roboters, die als Ergebnis einer plötzlichen Veränderung des Skalierungsfaktors auftreten, und vom Nutzer nicht beabsichtigt sind, verhindert werden. Im Ergebnis kann eine weitere Verbesserung der Sicherheit erzielt werden.
  • Bei einer Roboterbedienungsvorrichtung nach Anspruch 28 detektiert die Berührbedienungs-Detektionseinheit eine Berührbedienung auf einem Berührbedienfeld, das in einem Gehäuse bereitgestellt ist, das von dem Nutzer gehalten werden kann. In einer solchen Konfiguration, greift der Nutzer das Gehäuse in einer Hand und führt daraufhin jede Bedienung mit den Fingern der anderen Hand durch. Zu diesem Zeitpunkt kann der Finger an der einen Hand, die das Gehäuse greift, mit dem Berührbedienfeld in Kontakt kommen. Wenn die Ziehbedienung zum Beispiel durch einen einzelnen Finger durchgeführt wird, erfolgt eine Bestimmung dahingehend, dass die Ziehbedienung durch zwei Finger durchgeführt wurde, sollte eine fehlerhafte Berührung durch die Hand auf der Griffseite detektiert werden. Im Ergebnis wird eine nicht beabsichtigte Vertikalbewegungsaktion oder Drehaktion durchgeführt.
  • Deshalb schließt die Berührbedienungs-Detektionseinheit in der vorliegend beschriebenen Roboterbedienungsvorrichtung eine Berührbedienung in einem Bereich einer vorgegebenen Spanne neben dem Griffabschnitt, welcher vermutlich gegriffen wird, wenn der Nutzer das Gehäuse hält, als Detektionsziel aus. Im Ergebnis wird die fehlerhafte Bedienung beim Durchführen der Ziehbedienung durch einen einzelnen Finger derart, dass die Horizontalbewegungsaktion ausgeführt wird, nicht detektiert, selbst wenn es zu einer fehlerhaften Berührbedienung durch einen Finger an der Griffseite kommt. Deshalb kann das Auftreten einer fehlerbehafteten Aktion, das heißt einer unbeabsichtigt ausgeführten Aktion, mit Bestimmtheit unterdrückt werden.
  • Ein Robotersystem nach Anspruch 29 beinhaltet: einen vier-achsigen Horizontal-Gelenkarmroboter; einen Controller, der eine Aktion des Roboters steuert, und eine Roboterbedienungsvorrichtung gemäß einem der Ansprüche 1 bis 28. Der vier-achsige, Horizontal-Gelenkarmroboter ist der in der Lage, eine Aktion eines Handsystems oder eine Aktion eines Achssystems durchzuführen. Die Aktion eines Handsystems beinhaltet eine Aktion zum Bewegen der Hand des Roboters in einer Planar- bzw. Ebenenrichtung horizontal zu der Aktionsbezugsebene des Roboters (Horizontalbewegungsaktion), eine Aktion zum Bewegen der Hand des Roboters in einer Vertikalachsenrichtung senkrecht zu der Aktionsbezugsebene (Vertikalbewegungsaktion), und eine Aktion zum Drehen der Hand des Roboters um die vertikale Achse. Hingegen, wie oben beschrieben, ist die Roboterbedienungsvorrichtung in der Lage, einen Aktionsbefehl zum Ausführen einer Aktion des Handsystems (Horizontalbewegungsaktion, Vertikalbewegungsaktion, Drehaktion) und einen Aktionsbefehl zum Ausführen einer Aktion des Achssystems auf Grundlage der manuellen Bedienung durch den Nutzer zu erzeugen. Deshalb, als Ergebnis der vorliegenden Vorrichtung(en), können von dem zu bedienenden Roboter benötigte Aktionen durch manuelle Bedienung verwirklicht werden.
  • Ein Robotersystem gemäß Anspruch 30 beinhaltet: einen sechs-achsigen Vertikal-Gelenkarmroboter; einen Controller, der eine Aktion des Roboters steuert; und eine Roboterbedienungsvorrichtung gemäß einem der Ansprüche 1 bis 28. Zusätzlich zu den Aktionen (Horizontalbewegungsaktion, Vertikalbewegungsaktion, und Drehaktion), die durch den oben beschriebenen, vier-achsigen Horizontal-Gelenkarmroboter ausgeführt werden, kann der sechs-achsige, Vertikal-Gelenkarmroboter eine Bedienung zum Drehen der Hand um zwei Achsen ausführen, die sich von der oben beschriebenen Vertikalachse (Z-Achse) unterscheiden. Bei den zwei Achsen handelt es sich um zwei Achsen (X-Achse und Y-Achse), die senkrecht zueinander liegen und horizontal bezüglich der Aktionsbezugsebene liegen.
  • Deshalb können bei dem hier beschriebenen Robotersystem beim Ausführen der Aktion des Handsystems nicht alle der Aktionen durch manuelle Bedienung verwirklicht werden, die der zu bedienende Roboter tatsächlich ausführen könnte. Jedoch treten im Fall des sechs-achsigen Vertikal-Gelenkarmroboters im Allgemeinen keine Probleme auf, solange die oben erläuterte Horizontalbewegungsaktion, die Vertikalbewegungsaktion, und die Drehaktion (um die Z-Achse) durchgeführt werden können. Ein Grund hierfür liegt darin, dass, da die Frequenz der drei durchgeführten Aktionen während der manuellen Bedienung extrem hoch ist, auch die Nutzerfreundlichkeit durch die vorliegende Vorrichtung nicht deutlich beeinträchtigt wird.
  • Ein Roboterbedienungsprogramm gemäß Anspruch 31 verwirklicht eine Roboterbedienungsvorrichtung gemäß Anspruch 1. Ein Roboterbedienungsprogramm gemäß Anspruch 32 verwirklicht eine Roboterbedienungsvorrichtung gemäß Anspruch 15. Ein Roboterbedienungsprogramm gemäß Anspruch 33 verwirklicht eine Roboterbedienungsvorrichtung gemäß Anspruch 17. Ein Roboterbedienungsprogramm gemäß Anspruch 34 verwirklicht eine Roboterbedienungsvorrichtung gemäß Anspruch 19. Als Folge der Tatsache, dass diese Roboterbedienungsprogramme zum Beispiel auf einem allgemein-einsetzbaren Tablet-PC (Tablet Personal Computer) oder dergleichen abgespielt werden, welche mit einem Berührbedienfeld versehen sind, können der allgemein-einsetzbare Tablet-PC oder dergleichen mit Funktionen wie der oben beschriebenen Roboterbedienungsvorrichtung versehen werden.
  • [Kurzbeschreibung der Zeichnungen]
  • 1 ist ein Gesamt-Konfigurationsdiagramm eines Beispiels eines Robotersystems gemäß der ersten Ausführungsform;
  • 2 ist ein Blockdiagramm eines Beispiels einer elektrischen Konfiguration eines Handprogrammiergeräts gemäß einer ersten Ausführungsform;
  • 3 ist ein Diagramm eines Beispiels der Entsprechung zwischen verschiedenen Berührbedienungen und manuellem Bedieninhalt eines Roboters gemäß der ersten Ausführungsform;
  • 4 ist ein Ablaufdiagramm eines Beispiels der Details von verschiedenen Prozessen, die von einer Aktionsbefehl-Erzeugungseinheit gemäß der ersten Ausführungsform durchgeführt werden;
  • 5 ist ein Diagramm einer Verteilung der zeitlichen Verzögerung bei den Berührzeitpunkten, die mit zwei Fingern durchgeführt werden, gemäß der ersten Ausführungsform;
  • 6 ist ein Diagramm zum Erklären der Kriterien zum Bestimmen, ob eine Drehkomponente in einer Ziehbedienung enthalten ist oder nicht, gemäß der ersten Ausführungsform;
  • 7 ist ein Diagramm eines Bereichs, bei dem eine Drehkomponente als in der Ziehbedienung enthalten bestimmt wird, und eines Bereichs, bei dem eine Drehkomponenten als nicht in der Ziehbedienung enthalten bestimmt wird, gemäß der ersten Ausführungsform;
  • 8(a) ist ein Diagramm eines Beispiels einer fehlerhaften Berührung, wenn eine Ziehbedienung durch einen einzelnen Finger durchgeführt wird, und (b) ist ein Diagramm eines Beispiels eines gesperrten Bereichs zum Verhindern der fehlerhaften Berührung, gemäß der ersten Ausführungsform;
  • 9(a) ist ein Diagramm eines Beispiels einer fehlerhaften Berührung durch eine Hand, die ein Gehäuse greift, und (b) ist ein Diagramm eines Beispiels eines Detektionsausschlussbereichs zum Verhindern der fehlerhaften Berührung, gemäß der ersten Ausführungsform;
  • 10 ist ein Gesamtkonfigurationsdiagramm eines Beispiels eines Robotersystems gemäß einer zweiten Ausführungsform;
  • 11 ist ein Diagramm eines Beispiels eines vier-achsigen Horizontal-Gelenkarmroboters gemäß einer dritten Ausführungsform;
  • 12 ist ein Diagramm eines Beispiels eines sechs-achsigen Vertikal-Gelenkarmroboters gemäß der dritten Ausführungsform;
  • 13 ist ein Diagramm eines Beispiels von Modi zum Bedienen eines Handprogrammiergeräts gemäß der dritten Ausführungsform;
  • 14 ist ein Diagramm eines Beispiels einer Haltung, wenn ein Nutzer das Handprogrammiergerät hält, gemäß der dritten Ausführungsform;
  • 15 ist ein Diagramm eines Beispiels einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und einer manuellen Bedienung des Inhalts eines Roboters gemäß der dritten Ausführungsform;
  • 16 ist ein Diagramm eines Beispiels von Drehrichtungen eines Flanschbezüglich Bedienrichtungen einer Ziehbedienung gemäß der dritten Ausführungsform;
  • 17 ist ein Ablaufdiagramm eines Beispiels der Details von verschiedenen Prozessen, die von einer Aktionsbefehl-Erzeugungseinheit gemäß der dritten Ausführungsform durchgeführt werden;
  • 18 ist ein Diagramm einer Seitenansicht eines sechs-achsigen Roboters gemäß der dritten Ausführungsform;
  • 19 ist ein Diagramm eines Beispiels einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manuellen Bedienung eines Roboters gemäß einer vierten Ausführungsform;
  • 20 ist ein Diagramm eines Beispiels von Bewegungsrichtungen eines sechs-achsigen Roboters bezüglich Bedienrichtungen einer Ziehbedienung gemäß der vierten Ausführungsform;
  • 21 ist ein Ablaufdiagramm eines Beispiels der Details von verschiedenen Prozessen, die von der Aktionsbefehl-Erzeugungseinheit gemäß der vierten Ausführungsform durchgeführt werden;
  • 22 ist ein Diagramm eines Beispiels einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manueller Bedienung eines Roboters gemäß einer fünften Ausführungsform;
  • 23 ist ein Diagramm eines Beispiels von Bewegungsrichtungen eines sechs-achsigen Roboterkörpers, der die Bedienrichtungen einer Ziehbedienung gemäß der fünften Ausführungsform kennt;
  • 24 ist ein Diagramm der Hand eines Roboters von einer Flanschseite des Roboters aus hin zu einer zweiten Oberarmseite gesehen gemäß der fünften Ausführungsform;
  • 25 ist ein Ablaufdiagramm eines Beispiels der Details von verschiedenen Prozessen, die durch eine Aktionsbefehl-Erzeugungseinheit gemäß der fünften Ausführungsform durchgeführt werden;
  • 26 ist ein Diagramm einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manueller Bedienung eines Roboters gemäß einer sechsten Ausführungsform;
  • 27 ist ein Diagramm einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manueller Bedienung eines Roboters gemäß einer siebten Ausführungsform;
  • 28 ist ein Diagramm einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manueller Bedienung eines Roboters gemäß einer achten Ausführungsform;
  • 29 ist ein Diagramm eines Verfahrens zum Bestimmen ob eine Drehkomponente in einer Ziehbedienung enthalten ist, wenn eine Ziehbedienung mit drei oder mehr Fingern in einer Umfangsrichtung durchgeführt wird, gemäß der achten Ausführungsform;
  • 30 ist ein Diagramm einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manueller Bedienung eines Roboters gemäß einer neunten Ausführungsform;
  • 31 ist ein Diagramm einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manueller Bedienung eines Roboters gemäß einer zehnten Ausführungsform;
  • 32 ist ein Diagramm einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manueller Bedienung eines Roboters gemäß einer elften Ausführungsform;
  • 33 ist ein Diagramm einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manueller Bedienung eines Roboters gemäß einer zwölften Ausführungsform;
  • 34 ist ein Diagramm einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manueller Bedienung eines Roboters gemäß einer dreizehnten Ausführungsform;
  • 35 ist ein Diagramm einer Entsprechung zwischen Bedienrichtungen einer Ziehbedienung und manueller Bedienung eines Roboters gemäß einer vierzehnten Ausführungsform;
  • 36 ist ein Diagramm eines Beispiels eines ersten Bereichs und eines zweiten Bereichs gemäß der vierzehnten Ausführungsform;
  • 37 ist ein Diagramm eines Beispiels eines Handprogrammiergeräts gemäß einer fünfzehnten Ausführungsform;
  • 38 ist ein Diagramm eines Beispiels einer Kippbedienung, die an dem Handprogrammiergerät gemäß der fünfzehnten Ausführungsform ausgeführt wird;
  • 39 ist ein Diagramm eines Beispiels eines Handprogrammiergeräts gemäß einer sechszehnten Ausführungsform und zeigt einen Bedienstart-Detektionsbereich und einen Bewegungsmengen-Bestimmungsbereich;
  • 40 ist ein Diagramm eines Beispiels des Handprogrammiergeräts gemäß der sechzehnten Ausführungsform und zeigt einen Aktionsauswahlbereich;
  • 41 ist ein Ablaufdiagramm eines Beispiels der Details von verschiedenen Prozessen, die von einer Steuereinheit gemäß der sechszehnten Ausführungsform durchgeführt werden;
  • 42 ist ein Diagramm eines Beispiels einer Ziehbedienung, die an einem Berührbedienfeld gemäß einer siebzehnten Ausführungsform eingegeben wird;
  • 43 ist ein Ablaufdiagramm eines Beispiels der Details von verschiedenen Prozessen, die von einer Steuereinheit gemäß der siebzehnten Ausführungsform durchgeführt werden;
  • 44 ist ein Diagramm der Bewegung eines Fingers über einen bestimmten Zeitraum während einer Ziehbedienung, die an einem Berührbedienfeld gemäß einer achtzehnten Ausführungsform eingegeben wird;
  • 45 ist ein Ablaufdiagramm eines Beispiels der Details von verschiedenen Prozessen, die von einer Steuereinheit gemäß der achtzehnten Ausführungsform durchgeführt werden;
  • 46 ist ein Diagramm der Bewegungsmenge eines Fingers in einer Ziehbedienung, die an dem Berührbedienfeld gemäß der achtzehnten Ausführungsform eingegeben werden;
  • 47(1) ist ein Diagramm einer Korrelation zwischen der Bewegungsmenge eines Fingers in einer Ziehbedienung und dem Bedienskalierungsfaktor und (2) ist ein Diagramm eines Zusammenhangs zwischen der Bewegungsmenge eines Fingers in einer Ziehbedienung und der Bewegungsmenge eines Roboters gemäß der achtzehnten Ausführungsform;
  • 48 zeigt ein anderes Beispiel, das sich von demjenigen in 47 unterscheidet, bei dem (1) ein Diagramm einer Korrelation zwischen der Bewegungsmenge eines Fingers in einer Ziehbedienung und dem Bedienskalierungsfaktor ist und (2) ein Diagramm einer Korrelation zwischen der Bewegungsmenge eines Fingers in einer Ziehbedienung und der Bewegungsmenge eines Roboters gemäß der achtzehnten Ausführungsform; und
  • 49 ist ein Schaubild eines Vergleichs einer gemessenen für das Einprogrammieren benötigten Zeit zwischen einem herkömmlichen Programmierverfahren und einem Programmierverfahren der vorliegenden Erfindung, welches zur Bestätigung der Auswirkungen der Erfindung ausgeführt wurde.
  • [Beschreibung von Ausführungsformen]
  • Nachfolgend wird eine Vielzahl von Ausführungsformen der vorliegenden Erfindung beschrieben. Konfigurationen gemäß den Ausführungsformen, die im Wesentlichen übereinstimmen, wurden mit den gleichen Bezugszeichen beschriftet. Auf eine Beschreibung dieser wird verzichtet.
  • (Erste Ausführungsform)
  • Eine erste Ausführungsform der vorliegenden Erfindung wird untenstehend anhand der 1 bis 9 beschrieben.
  • 1 zeigt eine Systemkonfiguration eines typischen Roboters für den industriellen Einsatz. Ein in 1 gezeigtes Robotersystem 1 ist durch einen Roboter 2, einen Controller 3, und ein Handprogrammiergerät 4 (entsprechend einer Roboterbedienungsvorrichtung) konfiguriert. Der Roboter 2 ist zum Beispiel als vier-achsiger, Horizontal-Gelenkarmroboter konfiguriert. Der Roboter 2 arbeitet basierend auf einem eindeutigen Roboterkoordinatensystem (ein dreidimensionales, orthogonales Koordinatensystem aus einer X-Achse, einer Y-Achse und einer Z-Achse). Gemäß der vorliegenden Ausführungsform ist bei dem Roboterkoordinatensystem der Mittelpunkt einer Basis 5 als Koordinatenursprung O definiert, eine obere Oberfläche eines Arbeitstisches P ist als eine X-Y-Ebene definiert, und eine zu der X-Y-Ebene senkrechte Koordinatenachse ist als die Z-Achse definiert. Die obere Oberfläche des Arbeitstisches P ist eine Installationsoberfläche zum Installieren des Roboters 2. In diesem Fall entspricht die Installationsoberfläche einer Aktionsbezugsebene. Die Aktionsbezugsebene ist nicht auf die Installationsebene beschränkt und kann eine beliebige Ebene sein.
  • Der Roboter 2 ist durch die Basis 5, einen ersten Arm 6, einen zweiten Arm 7, und eine Welle 8 konfiguriert. Die Basis 5 ist an der oberen Oberfläche des Arbeitstischs P befestigt (im Folgenden auch als Installationsoberfläche bezeichnet). Der erste Arm 6 ist mit der Basis 5 derart verbunden, so dass er in der Lage ist, sich um eine erste Achse J11 zu drehen. Die erste Achse J11 besitzt ein axiales Zentrum in der Z-Achsen(Vertikalachsen)-Richtung. Der zweite Arm 7 ist mit einem Spitzenendabschnitt des ersten Arms 6 verbunden, um so in der Lage zu sein, sich um eine zweite Achse J12 zu drehen. Die zweite Achse J12 besitzt ein axiales Zentrum in der Z-Achsen-Richtung. Die Welle 8 ist in einem Spitzenendabschnitt des zweiten Arms 7 derart bereitgestellt, dass sie in der Lage ist, sich nach oben und unten zu bewegen, und sich zu drehen. Eine Achse für wenn die Welle 8 nach oben und unten bewegt wird ist eine dritte Achse J13. Eine Achse für wenn die Welle 8 gedreht wird ist eine vierte Achse J14. Ein Flansch 9 ist an dem Spitzenendabschnitt (unterer Endabschnitt) der Welle 8 positioniert und an dieser lösbar befestigt.
  • Die Basis 5, der erste Arm 6, der zweite Arm 7, die Welle 8, und der Flansch 9 wirken als Arm des Roboters 2. Eine end-seitige Bewirkungsvorrichtung (Hand) (nicht dargestellt) ist an dem Flansch 9, welcher die Armspitze darstellt, befestigt. Zum Beispiel wenn eine Bauteilinspektion unter Verwendung des Roboters 2 durchgeführt wird, wird eine Kamera zum Abbilden des zu inspizierenden Bauteils oder dergleichen als endseitige Bewirkungsvorrichtung verwendet. Die Vielzahl von Achsen (J11 bis J14), die in dem Roboter 2 bereitgestellt sind, wird von Motoren (nicht gezeigt) getrieben, die jeweils in Entsprechung dazu bereitgestellt sind. Ein Positionsdetektor (nicht gezeigt) zum Detektieren eines Drehwinkels einer Drehwelle des Motors ist nahe jedem Motor bereitgestellt.
  • Der Controller 3, der den Roboter 2 steuert, ist mit dem Roboter 2 durch ein Verbindungskabel verbunden. Die Datenkommunikation wird zwischen dem Controller 3 und dem Handprogrammiergerät 4 mittels einer Kommunikationsschnittstelle (angegeben mit Bezugszeichen 10 in 2) durchgeführt. Im Ergebnis werden verschiedene Stücke von Bedieninformationen, die basierend auf der Nutzerbedienung eingegeben wurden, von dem Handprogrammiergerät 4 zu dem Controller 3 übertragen. Zudem sendet der Controller verschiedene Steuersignale, Signale zur Anzeige, und dergleichen an das Handprogrammiergerät 4 und führt Letzterem Strom zum Antreiben des Handprogrammiergeräts zu.
  • Wenn von dem Handprogrammiergerät 4 ein Signal zum Erteilen eines Befehls zur manuellen Bedienung bereitgestellt wird, führt der Controller 3 die Steuerung derart durch, dass der Roboter 2 manuell betrieben wird. Zudem, wenn von dem Handprogrammiergerät 4 ein Signal zum Erteilen eines Befehls zur automatischen Bedienung bereitgestellt wird, führt der Controller 3 die Steuerung derart durch, dass der Roboter 2 automatisch durch Aufrufen eines Automatikprogramms bedient wird, welches vorab gespeichert wurde.
  • Zum Beispiel liegt die Größe des Handprogrammiergeräts 4 in einem Ausmaß, das es dem Nutzer erlaubt, das Handprogrammiergerät 4 zu tragen oder das Handprogrammiergerät 4 zu bedienen, während das Handprogrammiergerät 4 in seiner Hand gehalten wird. Das Handprogrammiergerät 4 ist mit einem Gehäuse 11 bereitgestellt, das zum Beispiel wie eine dünne, im Wesentlichen rechteckige Box geformt ist. Das Handprogrammiergerät 4 beinhaltet eine Anzeigeeinheit 12 in einem Zentralabschnitt der vorderen Oberflächenseite des Gehäuses 11. Die Anzeigeeinheit 12 ist zum Beispiel durch eine Flüssigkristallanzeige zusammengesetzt. Die Anzeigeeinheit 12 ist durch ein Berührbedienfeld 17 konfiguriert und zeigt verschiedene Arten von Bildschirmen an. Das Berührbedienfeld 17 erlaubt es dem Roboter, Bewegungen einprogrammiert zu bekommen, durch Informationen, welche die Bewegung der Hand des Roboters im Raum bestimmen, das heißt Ziehbedienungen auf den Berührbedienfeld, die Aktionen nachahmen oder suggerieren, wie beispielsweise eine Horizontalbewegungsaktion, eine Vertikalbewegungsaktion, und eine Drehaktion, oder anders gesagt, Gesten. Deshalb wird in der vorliegenden Erfindung und dergleichen ein Programmierverfahren, in welchem diese Ziehbedienungen verwendet werden, als „Gestenprogrammierung“ bezeichnet.
  • Das Handprogrammiergerät 4 besitzt verschiedene Tastenschalter 13, bei denen es sich um physische Schalter handelt, im äußeren Bereich der Anzeigeeinheit 12. In 1 ist ein einzelner Tastenschalter 13 gezeigt. Der Tastenschalter 13 kann durch eine Schaltfläche ersetzt werden, die in der Anzeigeeinheit 12 des Berührbedienfelds 17 angezeigt wird. Der Nutzer führt verschiedene Eingabebedienungen durch das Berührbedienfeld 17 der Anzeigeeinheit 12 und die Tastenschalter 13 durch.
  • Der Nutzer (Bediener) kann unter Verwendung des Handprogrammiergeräts 4 verschiedene Funktionen durchführen, wie etwa die Bedienung und Einstellung des Roboters 2. Der Nutzer kann ein Steuerprogramm aufrufen, welches vorab gespeichert wurde, und ein Starten des Roboters, Festlegen von verschiedenen Parametern, und dergleichen durchführen. Zudem kann der Nutzer ebenfalls verschiedene Programmiervorgänge durch Bedienen des Roboters mittels manueller Bedienung durchführen, das heißt Bedienung von Hand. In der Anzeigeeinheit 12 werden je nach Bedarf ein Menu-Bildschirm, ein Einstellungseingabebildschirm, ein Statusanzeigebildschirm, und dergleichen angezeigt.
  • Als nächstes wird eine elektrische Konfiguration des Handprogrammiergeräts 4 anhand von 2 beschrieben.
  • Das Handprogrammiergerät 4 beinhaltet die oben beschriebene Kommunikationsschnittstelle 10, Anzeigeeinheit 12, und Tastenschalter 13. Zudem beinhaltet das Handprogrammiergerät 4 eine Steuereinheit 14, eine Berührbedienungs-Detektionseinheit 15, eine Aktionsbefehl-Erzeugungseinheit 16, eine Bedienauswahl-Detektionseinheit 18, und eine Haltungsdetektionseinheit 19. Die Steuereinheit 14 ist hauptsächlich durch einen Mikrocomputer konfiguriert. Der Mikrocomputer beinhaltet zum Beispiel einen Prozessor (CPU, Central Processing Unit) 141 und einen Speicherbereich 142, wie etwa einen Nur-Lese-Speicher (ROM), einen Direktzugriffspeicher (RAM), und einen überschreibbaren FLASH-Speicher. Die Steuereinheit 14 steuert das gesamte Handprogrammiergerät 4. Der Speicherbereich 142 speichert ein Roboterbedienungsprogramm. Die Steuereinheit 14 lässt das Roboterbedienungsprogramm auf dem Prozessor (CPU) 141 laufen, wodurch die Berührbedienungs-Detektionseinheit 15, die Aktionsbefehl-Erzeugungseinheit 16, und dergleichen durch Software verwirklicht werden. Die Berührbedienungs-Detektionseinheit 15 und die Aktionsbefehl-Erzeugungseinheit 16 können auch durch Hardware wie eine integrierte Schaltung verwirklicht sein, die zum Beispiel in der Steuereinheit 14 integriert ist.
  • Die Berührbedienungs-Detektionseinheit 15 detektiert eine Berührbedienung, die auf dem Berührbedienfeld 17 durchgeführt wird. Insbesondere ist die Berührbedienungs-Detektionseinheit 15 in der Lage zu detektieren, ob eine Berührbedienung durchgeführt wird oder nicht, die Positionen auf dem Bildschirm, an der die Berührbedienung durchgeführt wird (Berührposition), die Art der Berührbedienung, und dergleichen. Das heißt, dass die Berührbedienungs-Detektionseinheit 15 bei der Berührbedienung zusätzlich dazu, ob es sich bei der Berührbedienung um eine Ziehbedienung handelt oder nicht, die Anzahl der Finger, die Bewegungsrichtung eines Fingers, die Bewegungsmenge eines Fingers und dergleichen zu detektieren. Die vorliegende Ausführungsform betrifft eine Ziehbedienung durch einen einzelnen Finger oder zwei Finger. Deshalb muss die Berührbedienungs-Detektionseinheit 15 lediglich in der Lage sein, Berührbedienung durch höchstens zwei Finger zu detektieren. Ein zweidimensionales, orthogonales Koordinatensystem ist in dem Berührbedienfeld 17 festgelegt. Die Berührbedienungs-Detektionseinheit 15 ist in der Lage, die Berührposition und die Art der Berührbedienung sowie die Bewegungsrichtung (Ziehbedienung), die Bewegungsmenge (Ziehmenge) und dergleichen basierend auf dem zweidimensionalen orthogonalen Koordinatensystem zu detektieren. Die oben beschriebene Ziehbedienung bezieht sich auf eine Bedienung, bei welcher ein Finger während des Berührens bewegt wird.
  • Die Bedienauswahl-Detektionseinheit 18 ist in der Lage, eine Auswahlbedienung durch den Nutzer auf dem Berührbedienfeld 17 oder eine Schaltfläche, die von dem Berührbedienfeld 17 verschieden ist, zu detektieren. Bei der Auswahlbedienung handelt es sich um eine Bedienung zum Auswählen einer Antriebsachse des zu bedienenden Roboters 2 oder einen Aktionsmodus. Gemäß der vorliegenden Ausführungsform wird die Auswahlbedienung auf dem Berührbedienfeld 17 durchgeführt. Das heißt, dass die Bedienauswahl-Detektionseinheit 18 die Auswahlbedienung auf dem Berührbedienfeld 17 detektieren kann. In diesem Fall detektieren sowohl die Berührbedienungs-Detektionseinheit 15 als auch die Bedienauswahl-Detektionseinheit 18 eine Berührbedienung durch den Nutzer auf dem Berührbedienfeld 17. Die Haltungsdetektionseinheit 19 ist zum Beispiel ein Gyrosensor oder ein Beschleunigungssensor. Das Handprogrammiergerät 4 kann seine eigene Haltung bezüglich der Richtung der Gravitationskraft basierend auf dem Detektionsergebnis der Haltungsdetektionseinheit 19 detektieren.
  • Die Aktionsbefehl-Erzeugungseinheit 16 erzeugt einen Aktionsbefehl zum manuellen Bedienen des Roboters basierend auf der Berührbedienung, die von der Berührbedienungs-Detektionseinheit 15 detektiert wurde. Der von der Aktionsbefehl-Erzeugungseinheit 16 erzeugte Aktionsbefehl wird dem Controller 3 über die Kommunikationsschnittstelle 10 bereitgestellt. Durch die Verwendung des auf diese Weise konfigurierten Handprogrammiergeräts 4 kann der Nutzer die manuelle Bedienung des Roboters 2 durch Berührbedienung durchführen.
  • Wie in 3 gezeigt handelt es sich bei der manuellen Bedienung (Gestenprogrammierung) des Roboters 2, die durch Berührbedienung verwirklicht werden kann, um die folgenden drei Aktionen (1) bis (3).
  • (1) Horizontalbewegungsaktion
  • Bei der Horizontalbewegungsaktion (auch als Ebenen-Aktion in 3 und dergleichen bezeichnet) handelt es sich um eine Aktion, bei der die Hand des Roboters 2 in der X-Y-Ebenenrichtung bewegt wird, die horizontal zur Installationsoberfläche ist. Die Horizontalbewegungsaktion wird basierend auf einer ersten Bedienung durchgeführt. Die erste Bedienung ist eine Ziehbedienung durch einen einzelnen Finger. In diesem Fall wird die Richtung der Ebenen-Bewegung basierend auf der Ziehrichtung der Ziehbedienung durch einen einzelnen Finger (erste Bedienung) bestimmt. Die Bewegungsmenge der Ebenen-Bewegung (Bewegungsdistanz) wird basierend auf der Ziehmenge bestimmt.
  • (2) Vertikalbewegungsaktion
  • Bei der Vertikalbewegungsaktion (auch als Z-Achsen-Aktion in 3 und dergleichen bezeichnet) handelt es sich um eine Aktion, bei der die Hand des Roboters 2 in die Z-Achsen-Richtung senkrecht zu der Installationsoberfläche P bewegt wird, die als Aktionsbezugsebene dient. Die Vertikalbewegungsaktion wird basierend auf der zweiten Bedienung durchgeführt. Gemäß der vorliegenden Ausführungsform handelt es sich bei der zweiten Bedienung um eine lineare Ziehbedienung in einer vorgegebenen Richtung durch zwei Finger. In diesem Fall handelt es sich bei der zweiten Bedienung um eine Bedienung, bei der zwei Finger auf der gleichen geraden Linie gezogen werden. Die Bedienung zum Ziehen von zwei Fingern auf einer geraden Linie (zweite Bedienung) beinhaltet eine Bedienung, bei der sich der Abstand zwischen den Finger graduell vergrößert (eine sogenannte Spreizbedienung oder Pinch-Out Bedienung) und eine Bedienung, bei der sich der Abstand zwischen den Fingern graduell verkleinert (eine so-genannte Pinch-Bedienung oder Pinch-In-Bedienung).
  • Wenn von diesen Bedienungen die Spreizbedienung durchgeführt wird, wird eine Aktion durchgeführt, bei der die Hand des Roboters 2 in eine Richtung bewegt wird, welche die Z-Achsen-Richtung ist und die sich der Installationsoberfläche (als Annäherungsrichtung oder Richtung nach unten bezeichnet) nähert. Zudem, wenn die Pinch-Bedienung durchgeführt wird, wird eine Aktion durchgeführt, bei der die Hand des Roboters in eine Richtung bewegt wird, welche die Z-Achsenrichtung ist und von der Installationsoberfläche weg gerichtet ist (als Trennrichtung oder Richtung nach oben bezeichnet). In diesem Fall wird die Bewegungsmenge (Bewegungsdistanz) in der Z-Achsen-Richtung basierend auf dem Abstand zwischen den Fingern bestimmt.
  • (3) Drehaktion
  • Bei der Drehaktion (als Rz-Achsen-Aktion in 3 und dergleichen bezeichnet) handelt es sich um eine Aktion, bei der die Hand des Roboters 2 um die Z-Achse gedreht wird. In diesem Fall ist die Drehrichtung der Drehaktion eine Rz-Richtung. Die Drehaktion wird basierend auf einer dritten Bedienung durchgeführt. Bei der dritten Bedienung handelt es sich um eine Bedienung, welche eine Ziehbedienung durch zwei Finger in einer Richtung ist, die von derjenigen der zweiten Bedienung verschieden ist. Gemäß der vorliegenden Ausführungsform handelt es sich bei der dritten Bedienung um eine Ziehbedienung durch zwei Finger in einer Umfangsrichtung. Mit anderen Worten handelt es sich gemäß der vorliegenden Ausführungsform bei der dritten Bedienung um eine Bedienung, bei der zumindest einer der beiden Finger in einer krummen Linie gezogen wird, das heißt um einen Kreisbogen zu ziehen (eine sogenannte Drehbedienung). In diesem Fall wird die Richtung der Drehaktion (Drehrichtung) basierend auf der Richtung der oben beschriebenen Drehbedienung durch den Finger bestimmt. Die Drehmenge wird basierend auf der Ziehmenge bestimmt.
  • Um Aktionen wie die oben beschriebenen zu verwirklichen, führt die Aktionsbefehl-Erzeugungseinheit 16 einen Bedienungsbestimmungsprozess und einen Aktionsbefehl-Erzeugungsprozess durch. Der Bedienungsbestimmungsprozess beinhaltet einen Prozess zum Bestimmen der Antriebsachse des zu bedienenden Roboters 2 oder eines Aktionsmodus (in diesem Fall den Aktionsmodus) basierend auf der Auswahlbedienung, die von der Bedienauswahl-Detektionseinheit 18 detektiert wurde. Zudem beinhaltet der Bedienungsbestimmungsprozess einen Prozess zum Bestimmen der Bewegungsmenge der Ziehbedienung, wenn es sich bei der durch die Berührbedienungs-Detektionseinheit 15 detektierten Berührbedienung um eine Ziehbedienung handelt. Ferner beinhaltet der Aktionsbefehl-Erzeugungsprozess einen Prozess zum Bestimmen der Bewegungsmenge des Roboters 2 basierend auf der Bewegungsmenge der Ziehbedienung, die in dem Bedienungsbestimmungsprozess bestimmt wurde, und Erzeugen eines Aktionsbefehls zum Bewegen des Roboters 2 um die bestimmte Bewegungsmenge an der zu bedienenden Antriebsachse oder in dem Aktionsmodus.
  • Das heißt, wie in 4 gezeigt, dass die Aktionsbefehl-Erzeugungseinheit 16 den Bedienungsbestimmungsprozess in den Schritten S11, S13, und S14 durchführt. Der Bedienungsbestimmungsprozess beinhaltet einen Prozess zum Bestimmen der Antriebsachse des zu bedienenden Roboters 2 oder des Aktionsmodus basierend auf der Auswahlbedienung, die von der Bedienauswahl-Detektionseinheit 18 detektiert wurde. Zudem beinhaltet der Bedienungsbestimmungsprozess einen Prozess zum Bestimmen der Anzahl der Finger, der Bedienrichtung, und der Bewegungsmenge der Berührbedienung, die von der Berührbedienungs-Detektionseinheit 15 detektiert wurde. Die Aktionsbefehl-Erzeugungseinheit 16 führt den Aktionsbefehl-Erzeugungsprozess in den Schritten S12, S15, S16, und S17 durch. Bei dem Aktionsbefehl-Erzeugungsprozess handelt es sich um einen Prozess zum Bestimmen der Bewegungsrichtung der der Hand des Roboters 2 basierend auf der Anzahl der Finger und der Bedienrichtung, die in dem oben beschriebenen Bedienungsbestimmungsprozess bestimmt wurden, zum Bestimmen der Bewegungsmenge der Hand des Roboters 2 basierend auf der Bewegungsmenge, die in dem oben beschriebenen Bedienungsbestimmungsprozess bestimmt wurde, und zum Erzeugen eines Aktionsbefehls zum Bewegen der Hand des Roboters 2 basierend auf der bestimmten Bewegungsrichtung und Bewegungsmenge.
  • Insbesondere bestimmt die Aktionsbefehls-Erzeugungseinheit 16 in Schritt S11 die Anzahl der Finger und die Richtung der von der Berührbedienungs-Bestimmungseinheit 15 detektierten Berührbedienung, wodurch bestimmt wird, ob es sich bei der Berührbedienung um die erste Bedienung handelt oder nicht. Das heißt, dass die Aktionsbefehl-Erzeugungseinheit 16 bestimmt, ob die von der Berührbedienungs-Detektionseinheit 15 detektierte Berührbedienung eine Ziehbedienung durch einen einzelnen Finger oder durch zwei Finger ist (S11; erster Bedienungsbestimmungsprozess). Wenn in Schritt S11 festgestellt wird, dass es sich bei der Berührbedienung um eine Ziehbedienung durch einen einzelnen Finger handelt (erste Bedienung), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S12 einen Aktionsbefehl zum Bewegen der Hand des Roboters 2 in der X-Y Ebenen-Richtung (S12; Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung).
  • Zudem, wenn in Schritt S11 festgestellt wird, dass es sich bei der Berührbedienung um eine Ziehbedienung durch zwei Finger handelt, das heißt wenn bestimmt wird, dass die Berührbedienung vielmehr die zweite Bedienung oder dritte Bedienung als die erste Bedienung ist, bestimmt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S13, ob es sich bei der Berührbedienung um eine Ziehbedienung durch zwei Finger in der Umfangsrichtung handelt oder nicht (dritte Bedienung) (S13; zweiter Bedienungsbestimmungsprozess). Ob es sich bei der Berührbedienung um die dritte Bedienung handelt oder nicht wird basierend darauf bestimmt, ob eine Drehkomponente in zumindest einer der beiden Ziehbedienungen durch die zwei Finger enthalten ist oder nicht. Wenn in Schritt S13 festgestellt wird, dass eine Drehkomponente nicht enthalten ist und es sich bei der Berührbedienung nicht um die dritte Bedienung handelt (NEIN), bestimmt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S14, ob es sich bei der Berührbedienung um die zweite Bedienung handelt oder nicht (S14; dritter Bedienungsbestimmungsprozess). Ob es sich bei der Berührbedienung um die zweite Bedienung handelt oder nicht wird darauf basiert bestimmt, ob der Abstand zwischen den beiden Fingern während des Zeitraums, während dem die Ziehbedienung durch die zwei Finger durchgeführt wird, graduell kürzer oder graduell länger wird.
  • Wenn in Schritt S14 festgestellt wird, dass der Abstand zwischen den Fingern graduell länger wird (Spreizbedienung in Schritt S14), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Bewegen der Hand des Roboters 2 in der Z-Achsenrichtung und der Richtung nach unten (S15; Annäherungsbefehl-Erzeugungsprozess des Aktionsbefehl-Erzeugungsprozesses für Vertikalbewegung). Zudem, wenn in Schritt S14 festgestellt wird, dass der Abstand zwischen den Fingern graduell kürzer wird (Pinch-Bedienung in Schritt S14), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Bewegen der Hand des Roboters 2 in der Z-Achsenrichtung und der Richtung nach oben (S16; Trennbefehl-Erzeugungsprozess des Aktionsbefehl-Erzeugungsprozesses für Vertikalbewegung).
  • Zudem, wenn in Schritt S13 festgestellt wird, dass eine Drehkomponente enthalten ist (JA), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der Hand des Roboters 2 um die Z-Achse (S17; Drehaktionsbefehl-Erzeugungsprozess). Nach dem Durchführen der Schritte S12 oder S15 bis S17 sind die Prozesse abgeschlossen (Ende). Dann werden aufgrund der Tatsache, dass der Controller 3 die Aktion des Roboters 2 basierend auf dem oben beschriebenen Aktionsbefehl steuert, die Horizontalbewegungsaktion, die Vertikalbewegungsaktion, oder die Drehaktion durchgeführt.
  • Wie oben beschrieben wird gemäß der vorliegenden Ausführungsform, wenn eine vorgegebene Bedienung während der manuellen Bedienung der Aktion eines Handsystems des Roboters 2 durchgeführt wird, der Roboter 2 dazu gebracht, eine Aktion des Handsystems durchzuführen, bei der davon ausgegangen wird, dass sie der Nutzer auf einfache Weise mit der Bedienung assoziiert. In diesem Fall basiert die Begründung für die Assoziierung zwischen jeder Bedienung und der Aktion entsprechend der Bedienung auf visuellen und taktilen Informationen und der gleichen eines Menschen. Zum Beispiel liegt die Begründung in den folgenden Punkten. Zunächst liegt die Begründung dafür, dass die Horizontalbewegungsaktion mit der Ziehbedienung durch einen einzelnen Finger assoziiert wird, in dem folgenden Punkt. Das heißt, dass es sich bei dem durch Berührbedienung zu bedienenden Berührbedienfeld 17 um eine Ebene handelt und ein zweidimensionales Koordinatensystem darauf gebildet ist. Wenn eine Ziehbedienung durch einen einzelnen Finger durchgeführt wird, ist der Modus derart, dass sich ein einzelner Berührort entlang einer Ebene wie dieser bewegt. Das heißt, dass in diesem Fall davon ausgegangen wird, dass ein enger Zusammenhang (Synchronismus) zwischen dem Berührort durch einen einzelnen, sich über die Ebene bewegenden Finger und dem sich in der X-Y-Ebene bewegenden Roboter besteht.
  • Zudem liegt die Begründung dafür, dass die Vertikalbewegungsaktion in der Richtung nach unten mit der Ziehbedienung assoziiert wird, welche derart durchgeführt wird, dass der Abstand zwischen den Fingern graduell länger wird, in den folgenden zwei Punkten. Wenn eine solche Bedienung durchgeführt wird, ist der Modus derart, dass die zwei Finger auseinander gespreizt werden. Es wird davon ausgegangen, dass das Auseinanderspreizen der Finger dem Nutzer eine Bewegung in die Richtung nach unten suggeriert. Dies stellt eine erste Begründung dar. Zudem wird die oben beschriebene Bedienung allgemein oftmals als Bedienung zum Vergrößern eines Bildes oder dergleichen verwendet. Wenn eine Kamera an der Hand des Roboters 2 befestigt ist, wird ein von der Kamera eingefangenes Bild als Folge dessen, dass sich die Hand in die Richtung nach unten bewegt, vergrößert. Das heißt, wenn eine Kamera an der Hand befestigt ist, wird davon ausgegangen, dass ein vergrößertes Bild (Hand bewegt sich in die Richtung nach unten) auf einfache Weise mit der zwischen den Fingern größer werdenden Distanz und dem sich zwischen den Fingern verbreiternden Raum assoziiert wird. Dies stellt eine zweite Begründung dar.
  • Ferner liegt die Begründung dafür, dass die Vertikalbewegungsaktion in der Richtung nach oben mit der Ziehbedienung assoziiert wird, welche derart durchgeführt wird, dass der Abstand zwischen den Fingern graduell kürzer wird, in den folgenden zwei Punkten. Wenn eine solche Bedienung durchgeführt wird, ist der Modus derart, dass die zwei Finger nach oben angehoben werden. Das Nach-Oben-Anheben der Finger soll dem Nutzer Bewegung in der Richtung nach oben suggerieren. Dies stellt eine erste Begründung dar. Zudem wird die oben beschriebene Bedienung allgemein oftmals als Bedienung zum Verkleinern eines Bildes oder dergleichen verwendet. Wenn eine Kamera an der Hand des Roboters 2 befestigt ist, wird ein von der Kamera eingefangenes Bild als Folge dessen, dass sich die Hand in die Richtung nach oben bewegt, verkleinert. Das heißt, wenn eine Kamera an der Hand befestigt ist, wird davon ausgegangen, dass ein verkleinertes Bild (Hand bewegt sich in die Richtung nach oben) auf einfache Weise mit der zwischen den Fingern kürzer werdenden Distanz und dem sich zwischen dem Fingern schmaler werdenden Raum assoziiert wird. Dies stellt eine zweite Begründung dar.
  • Zudem liegt die Begründung dafür, dass die Drehaktion mit der Drehbedienung durch einen der zwei Finger assoziiert wird, in dem folgenden Punkt. Das heißt, die Drehachse der Hand des Roboters 2 ist die zylindrische Welle 8. Der zylindrische Flansch 9 ist an der Spitze der Welle 8 befestigt. Das heißt, dass die Form des Handabschnitts des Roboters 2 abgerundet ist. Wenn die Drehbedienung durchgeführt wird, ist der Modus derart, dass sich die Hand dreht, während ein Kreisbogen gezogen wird. Das heißt, dass in diesem Fall die Tatsache, dass sich die Hand dreht, während ein Kreisbogen gezogen wird, dem Nutzer eine Drehaktion suggerieren soll, bei der ein rundes Objekt gedreht wird, also die Hand des Roboters.
  • Auf diese Weise ermöglicht es jede Bedienung gemäß der vorliegenden Ausführungsform dem Nutzer, die Bedienung mit der von dem Roboter 2 als Reaktion auf die Bedienung durchgeführten Aktion intuitiv zu assoziieren. Zudem handelt es sich bei jeder Bedienung um eine einfache Bedienung. Deshalb kann der Nutzer jede Bedienung durchführen, ohne auf seine eigene Hand zu blicken (Bedienort). Im Ergebnis blickt der Nutzer während der manuellen Bedienung des Roboters 2 nicht mehr von dem Roboter 2 weg, weshalb die Sicherheit dessen vorteilhaft aufrechterhalten werden kann. Auf diese Weise wird gemäß der vorliegenden Ausführungsform ein ausgezeichneter Effekt dahingehend erzielt, dass manuelle Bedienung des Roboters 2 durch Berührbedienung verwirklich werden kann, ohne eine Abnahme der Sicherheit zu verursachen.
  • Zudem ist der vier-achsige, Horizontal-Gelenkarmroboter 2 in der Lage, eine Aktion, bei der seine Hand in der X-Y-Ebenen-Richtung bewegt wird, welche bezüglich der Installationsoberfläche des Roboters 2 horizontal ist, eine Aktion, bei der seine Hand in der Z-Achsen-Richtung senkrecht zur Installationsfläche bewegt wird, und eine Aktion, bei der seine Hand um die Z-Achse gedreht wird, auszuführen. Hingegen ist das Handprogrammiergerät 4 in der Lage, die Aktionsbefehle zum Durchführen der Horizontalbewegungsaktion, der Vertikalbewegungsaktion, und der Drehaktion basierend auf der manuellen Bedienung durch den Nutzer wie oben beschrieben zu erzeugen. Deshalb können gemäß der vorliegenden Ausführungsform alle Aktionen, die von dem zu bedienenden Roboter 2 durchgeführt werden können, durch manuelle Bedienung verwirklicht werden.
  • Um die Bestätigung dahingehend zu vereinfachen, ob der Roboter wie beabsichtigt während der manuellen Bedienung des Roboters 2 arbeitet oder nicht, führt der Nutzer jede Aktion (Horizontalbewegungsaktion, Vertikalbewegungsaktion, und Drehaktion) unabhängig durch. Zum Beispiel wird zunächst die Horizontalbewegungsaktion durchgeführt. Als nächstes wird die Vertikalbewegungsaktion durchgeführt. Schließlich wird die Drehaktion durchgeführt. Angesichts solcher Umstände kommt es während der manuellen Bedienung des Roboters 2 selten vor, dass eine Vielzahl von Aktionen absichtlich zur gleichen Zeit (gemischt) durchgeführt wird. Deshalb ist es während der manuellen Bedienung des Roboters 2 bevorzugt, dass die gleichzeitige Ausführung einer Vielzahl von Aktionen nicht gestattet ist. Um dies zu tun, ist es erforderlich, eindeutig eine Linie zwischen den Bedienungen zum Durchführen der Aktionen zu ziehen (diese voneinander zu trennen). Wenn die Linie zwischen Aktionen unklar ist, wird eine Aktion durchgeführt, die eine Mischung aus einer Vielzahl von Aktionen ist. Im Ergebnis nimmt die Wahrscheinlichkeit, dass eine von dem Nutzer unbeabsichtigte Aktion durchgeführt wird (Auftreten einer fehlerhaften Aktion) zu.
  • Gemäß der vorliegenden Ausführungsform wird die folgende Maßnahme ergriffen, um die Trennung zwischen Bedienungen zu klären, um die Wahrscheinlichkeit des Auftretens solcher fehlerhafter Aktionen weiter zu verringern. Das heißt, wenn ein einzelner Berührbedienort detektiert wird, dass die Aktionsbefehl-Erzeugungseinheit 16 den Prozess in Schritt S11 durchführt, nachdem eine vorgegebene, zulässige Verzögerungszeit ab dem Zeitpunkt der Detektion verstrichen ist. Wenn der Nutzer eine Berührbedienung mit einer Vielzahl von Fingern (in diesem Fall zwei Finger) durchführt, ist es für die Berührzeitpunkte der Vielzahl von Fingern (in diesem Fall zwei Finger) schwierig, genau übereinzustimmen. Deshalb wird zum Beispiel eine unbeabsichtigte Horizontalbewegungsaktion vorübergehend zum Zeitpunkt des Berührens eines Fingers durchgeführt, selbst wenn eine Berührbedienung durch eine Vielzahl von Fingern (in diesem Fall zwei Finger) durchgeführt wird, um so die Vertikalbewegungsaktion durchzuführen. Anschließend wird die ursprünglich beabsichtigte Vertikalbewegungsaktion zum Zeitpunkt des Berührens des anderen Fingers durchgeführt.
  • Gemäß der vorliegenden Ausführungsform, wenn die zeitliche Verzögerung bezüglich des Berührzeitpunkts unter der Mehrzahl von Fingern (in diesem Fall zwei Finger) weniger als die zulässige Verzögerungszeit ist, wird die Berührbedienung dahingehend bestimmt, eine Ziehbedienung durch eine Vielzahl von Fingern (in diesem Fall zwei Finger) zu sein. Das heißt, dass eine zeitliche Verzögerung bezüglich des Berührzeitpunkts unter der Mehrzahl der Finger bis zu der zulässigen Verzögerungszeit erlaubt ist. Deshalb, wenn die zulässige Verzögerungszeit zum Beispiel basierend auf dem als für die zeitliche Verzögerung durch Bedienung eines Menschen vorstellbaren Maximalwert eingestellt ist, kann das Auftreten einer fehlerhaften Aktion, das heißt der vorübergehend durchgeführten Horizontalbewegungsaktion, mit Bestimmtheit verhindert werden.
  • Die vorliegenden Erfinder haben einen Bedienungstest an einer Vielzahl von Testpersonen durchgeführt. In dem Bedienungstest wurden zwei Finger gleichzeitig auf dem Berührbedienfeld platziert. Basierend auf einer Analyse der Ergebnisse, besitzt der Unterschied des Detektionszeitpunkts der Berührung durch die zwei Finger eine Verteilung wie diejenige, die in 5 gezeigt ist. Der Minimalwert der oben beschriebenen Detektionszeit (die zeitliche Verzögerung bezüglich des Berührzeitpunkts zwischen zwei Fingern) ist „0,074 Sekunden“, der Durchschnittswert beträgt „0,126 Sekunden“, und der Maximalwert beträgt „0,178 Sekunden“. Gemäß der vorliegenden Ausführungsform ist die zulässige Verzögerungszeit auf „0,178 Sekunden“ basierend auf solchen Ergebnissen des Bedienungstests eingestellt.
  • Wenn der Nutzer die Ziehbedienung mit einer Vielzahl von Fingern (in diesem Fall zwei Finger) durchführt, um die Vertikalbewegungsaktion durchzuführen, ist es für den Nutzer schwierig, jeden Finger auf einer genau geraden Linie zu bewegen. Deshalb erfolgt eine Bestimmung dahingehend, dass eine Drehkomponente enthalten ist, sollte einer der Finger auch nur geringfügig von einer geraden Linie abweichen, selbst wenn der Nutzer versucht, die beiden Finger auf einer geraden Linie zu bewegen, um die Vertikalbewegungsaktion durchzuführen. Eine unbeabsichtigte Drehaktion wird durchgeführt.
  • Deshalb bestimmt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S13, ob eine Drehkomponente in der folgenden Weise enthalten ist. Das heißt, wie in 6 gezeigt, dass die Aktionsbefehl-Erzeugungseinheit 16 basierend auf einem Winkel, der durch einen Vektor 1 und einem Vektor 2 gebildet wird, bestimmt, ob die Drehkomponente enthalten ist oder nicht. Der Vektor V1 ist zwischen den zwei Fingern. Der Vektor V2 bezieht sich auf die Bewegung eines der beiden Finger. In diesem Fall sind der Vektor V1 und der Vektor V2 wie folgt definiert.
  • Das heißt, in 6, dass die Startposition der Ziehbedienung eines Fingers P1 ist. Ein toter Bereich R mit einem Minuten-Radius und die Position P1 als Mittelpunkt sind festgelegt. Zudem ist eine Fluchtposition, an der der eine Finger dem toten Bereich R entkommt, P2. Ein Vektor von der Startposition P1 zu der Startposition der Ziehbedienung durch den anderen Finger ist auf Vektor V1 festgelegt. Ein Vektor von der Startposition P1 zu der Fluchtposition P2 ist auf den Vektor V2 festgelegt.
  • Im Ergebnis, wenn der Nutzer eine Ziehbedienung durchführt, bei der zwei Finger gedreht werden, handelt es sich bei der Position, an welcher der eine Finger dem toten Bereich R entkommt, um eine Position wie die Position P2a in 6. Deshalb handelt es sich in diesem Fall bei dem von dem Vektor V1 und dem Vektor V2 (angegeben als V2a in 6) gebildeten Winkel um einen vergleichsweise großen Wert (einen Wert nahe bei 90 Grad). Wenn hingegen der Nutzer eine Ziehbedienung durchführt, bei der die zwei Finger auf einer geraden Linie bewegt werden, handelt es sich bei der Position, an welcher der eine Finger dem toten Bereich R entkommt, um eine Position wie der Position P2b in 6. Deshalb ist in diesem Fall der durch den Vektor V1 und den Vektor V2 gebildete Winkel (als V2b in 6 eingezeichnet) ein relativ kleiner Wert (ein Wert nahe bei 0 Grad).
  • In Anbetracht der vorstehenden Ausführungen, wie in 7 gezeigt, bestimmt die Aktionsbefehl-Erzeugungseinheit 16, dass eine Drehkomponente in der Ziehbedienung durch diesen Finger nicht enthalten ist, wenn der durch die Vektoren V1 und V2 gebildete Winkel kleiner als eine Bestimmungsgrenzwert θth ist. Wenn hingegen festgestellt wird, dass es sich bei dem Winkel um den Bestimmungsgrenzwert θth oder größer handelt, bestimmt die Aktionsbefehl-Erzeugungseinheit 16, dass eine Drehkomponente in der Ziehbedienung durch diesen Finger enthalten ist. Im Ergebnis, auch wenn die Finger nicht auf einer genau geraden Linie bewegt werden sondern derart, um eine geringfügige Kurve (Kreisbogen) zu ziehen, erfolgt die Bestimmung, dass es sich bei der Bedienung um die Bedienung zum Durchführen der Vertikalbewegungsaktion handelt. Deshalb, aufgrund der Tatsache, dass der Bestimmungsgrenzwert θth zum Beispiel basierend auf dem als durch Bedienung eines Menschen verursachte Abweichung vorstellbaren Maximalwerts eingestellt ist (das heißt das Ausmaß der Krümmung bezüglich einer geraden Linie), kann das Auftreten einer fehlerhaften Bedienung, also einer unbeabsichtigten Drehbedienung, die durchgeführt wird, wenn die Vertikalbewegungsbedienung durchgeführt wird, mit Bestimmtheit vermieden werden.
  • Gemäß der vorliegenden Ausführungsform wird der Bestimmungsgrenzwert θth auf folgende Weise eingestellt. Das heißt, dass der Idealwert des durch die Vektoren V1 und V2 gebildeten Winkels „0 Grad“ beträgt, wenn die Ziehbedienung, bei welcher die beiden Finger auf einer geraden Linie bewegt werden, durchgeführt wird. Hingegen beträgt der Idealwert des zwischen den Vektoren V1 und V2 gebildeten Winkels „90 Grad“, wenn die Ziehbedienung, bei der die beiden Finger gedreht werden, durchgeführt wird. Deshalb wird davon ausgegangen, dass „45 Grad“, welche der Zwischenwert zwischen den Idealwerten ist, einen Optimalwert als Bestimmungsgrenzwert θth darstellen.
  • Jedoch haben die vorliegenden Erfinder einen Bedienungstest an einer Vielzahl von Testpersonen durchgeführt. In dem Bedienungstest wurden sowohl die Ziehbedienung, bei der die beiden Finger auf einer geraden Linie bewegt werden, als auch die Ziehbedienung, bei der die Finger gedreht werden, durchgeführt. Basierend auf einer Analyse der Ergebnisse wurde deutlich, dass „35 Grad“, also weniger als „45 Grad“, den Optimalwert als Bestimmungsgrenzwert θth darstellt. Ein Grund hierfür wird in der Tatsache gesehen, dass die Genauigkeit einer Auf/Zu-Bewegung durch die Finger eines Menschen höher ist als die Genauigkeit der Drehbewegung.
  • Zudem, wenn in Schritt S11 festgestellt wird, dass es sich bei der Berührbedienung um eine Ziehbedienung durch einen einzelnen Finger handelt, sperrt die Aktionsbefehl-Erzeugungseinheit 16 die Detektion einer Berührbedienung in einem Bereich innerhalb einer vorgegebenen Spanne in der Nähe des Berührorts durch den einzelnen Finger, bis die Ziehbedienung abgeschlossen ist. Zum Beispiel wird die Ziehbedienung durch einen einzelnen Finger oftmals mit dem Zeigefinger der rechten oder linken Hand durchgeführt. Deshalb ist es beim Durchführen der Bedienung wahrscheinlich, dass es zu einer fälschlichen Berührung durch den Daumen der gleichen Hand wie derjenigen des Zeigefingers kommt, der die Bedienung durchführt. Wenn eine solche fälschliche Berührung durch den Daumen detektiert wird, erfolgt eine Bestimmung dahingehend, dass eine Ziehbedienung durch zwei Finger durchgeführt wurde. Im Ergebnis wird eine unbeabsichtigte Vertikalbewegungsaktion oder eine Drehaktion durchgeführt.
  • Wenn die Berührbedienung einmal als Ziehbedienung durch einen einzelnen Finger bestimmt wurde, ist gemäß der vorliegenden Ausführungsform die Detektion einer Berührbedienung in einem Bereich (nachfolgend als gesperrter Bereich bezeichnet) innerhalb einer vorgegebenen Spanne in der Nähe des Berührorts des einzelnen Fingers gesperrt, bis die Bedienung abgeschlossen ist. Wenn der oben beschriebene gesperrte Bereich unter Berücksichtigung von Orten, an denen die Wahrscheinlichkeit einer fälschlichen Berührung durch zum Beispiel den Daumen groß ist, festgelegt ist, kann das Auftreten einer fehlerhaften Aktion, also einer unbeabsichtigten Vertikalbewegungsaktion oder einer Drehaktion, verhindert werden, wenn die Horizontalbewegungsaktion durchgeführt wird.
  • Die vorliegenden Erfinder haben eine Vielzahl von Bedienungstest an einer Vielzahl von Testpersonen durchgeführt. In dem Bedienungstest wird die Ziehbedienung durch einen einzelnen Finger durchgeführt. Im Ergebnis, wie in 8(a) gezeigt, kam der Daumen der rechten Hand während der Bedienung oftmals fälschlicherweise mit dem Berührbedienfeld in Kontakt (berührte dieses fehlerhafterweise), obwohl die Berührbedienung mit dem Zeigefinger der rechten Hand im Falle von Rechtshändern durchgeführt wurde. Deshalb ist gemäß der vorliegenden Ausführungsform ein Bereich innerhalb der Spanne eines 80 Grad unten-rechts-Quadranten und innerhalb eines Radius von 15 mm als gesperrter Bereich festgelegt, wenn der Nutzer Rechtshänder ist, wie in 8(b) gezeigt, wobei der Berührort (Koordinaten) des Zeigefingers hierbei der Koordinatenursprung ist. Wenn der Nutzer Linkshänder ist, ist es sehr wahrscheinlich, dass die fälschliche Berührung an einem Ort stattfindet, der zu demjenigen, wenn der Nutzer Rechtshänder ist, links und rechts seitenverkehrt ist.
  • Zudem detektiert die Berührbedienungs-Detektionseinheit 15 die Berührbedienung auf dem Berührbedienfeld 17, das in dem Gehäuse 11 bereitgestellt ist, welches von dem Nutzer in der Hand gehalten werden kann. In einer Konfiguration wie dieser greift der Nutzer das Gehäuse 11 in einer Hand und führt daraufhin jede Bedienung mit den Fingern der anderen Hand durch. Zu diesem Zeitpunkt kann der Finger der einen Hand, die das Gehäuse 11 ergreift, mit dem Berührbedienfeld 17 in Kontakt kommen. Wenn die Ziehbedienung durch einen einzelnen Finger (Horizontalbewegungsaktion) durchgeführt wird, erfolgt eine Bestimmung dahingehend, dass die Ziehbedienung durch zwei Finger durchgeführt wurde, sollte eine fehlerhafte Berührung durch die Hand auf der Griffseite detektiert werden. Im Ergebnis wird eine unbeabsichtigte Vertikalbewegungsaktion oder Drehaktion durchgeführt.
  • Deshalb schließt die Berührbedienungs-Detektionseinheit 15 Berührbedienungen in einem Bereich (nachfolgend als Detektionsanschlussbereich) einer vorgegebenen Spanne neben einem Griffabschnitt innerhalb des Berührbedienfelds als Detektionsziel aus. Bei dem Griffabschnitt handelt es sich um einen Abschnitt, der vermutlich gegriffen wird, wenn der Nutzer das Gehäuse 11 in seiner Hand hält (angegeben mit Bezugszeichen 11a in 9(a)). Im Ergebnis, wenn die Ziehbedienung durch einen einzelnen Finger derart durchgeführt wird, dass die Horizontalbewegungsaktion durchgeführt wird, wird, auch wenn zum Beispiel eine fehlerhafte Berührbedienung durch einen Finger an der Griffseite durchgeführt werden sollte, die fehlerhafte Berührbedienung nicht detektiert. Deshalb kann das Auftreten einer fehlerhaften Aktion, also einer unbeabsichtigten Vertikalbewegungsaktion oder einer Drehaktion, mit Bestimmtheit verhindert werden.
  • Die vorliegenden Erfinder haben einen Bedienungstest an einer Vielzahl von Testpersonen durchgeführt. In dem Bedienungstext wurde das Gehäuse 11 von einer Hand ergriffen und eine Ziehbedienung wurde mit einem einzelnen Finger unter Verwendung der anderen Hand durchgeführt. In diesem Bedienungstest wurden zwei Arten von Vorrichtungen als Handprogrammiergerät 4 verwendet, nämlich eine Vorrichtung mit der Anzeigeeinheit 12, die etwa 7 Zoll ist, und eine Vorrichtung mit der Anzeigeeinheit 12, die etwa 4 Zoll ist. Basierend auf der Analyse der Ergebnisse haben die Testpersonen oftmals das Gehäuse 11 in einer in der 9(a) gezeigten Weise ergriffen, wenn die Vorrichtung mit der Anzeigeeinheit 12 von etwa 7 Zoll verwendet wurde. Das bedeutet, dass im Falle von rechtshändigen Testpersonen der untere linke Abschnitt (Griffabschnitt 11a) des Gehäuses 11 von der linken Hand gegriffen wird. Zu diesem Zeitpunkt kommt von den Fingern der linken Hand der Daumen mit der Vorderseite des Gehäuses 11 (der Oberfläche auf welcher das Berührbedienfeld 17 bereitgestellt ist) in Kontakt. Zu diesem Zeitpunkt kam der Daumen manchmal fehlerhafterweise mit einem Bereich neben dem Griffabschnitt 11a bei dem Berührbedienfeld 17 in Berührung.
  • Wenn die Größe der Anzeigeeinheit 12 hierbei etwa 7 Zoll beträgt, wie in 9(b) gezeigt, wird ein Bereich als Detektionsausschlussbereich festgelegt, der einen Radius von 50 mm besitzt und einen Mittelpunkt aufweist, an dem die Basis des Daumens sehr wahrscheinlich positioniert werden wird, wenn der Nutzer das Gehäuse 11 ergreift. Der Grund dafür, dass dieser Bereich innerhalb eines Radius von 50 mm liegt, besteht darin, dass die Durchschnittslänge eines Daumens einer japanischen Person etwa 60 mm beträgt. Wenn es zu einer fehlerhaften Berührung kommt, wird davon ausgegangen, dass der Ballen des Daumens (Fingerballen) in Kontakt kommt. Auch in dem Fall, dass es sich bei dem Nutzer um einen Linkshänder handelt, ist die Wahrscheinlichkeit einer fehlerhaften Berührung hoch, die an einem Ort auftritt, die links-rechts seitenverkehrt ist zu demjenigen Ort, wenn der Nutzer rechthändig ist. Deshalb ist auch der Detektionsausschlussbereich links und rechts seitenverkehrt. Ferner, basierend auf einer Analyse der Ergebnisse des oben beschriebenen Bedienungstest, hat es sich gezeigt, dass der Winkel des Daumens (der Winkel bezüglich einer Seitenoberfläche des Gehäuses 11) oftmals etwa 65 Grad beträgt, wenn die Testperson das Gehäuse 11 ergreift. Deshalb kann der oben beschriebene Detektionsausschlussbereich verändert werden, um somit vielmehr eine 65-Grad Fächerform aufzuweisen (schraffierter Bereich in 9(b)), denn ein Halbkreis mit einem Radius von 50 mm zu sein.
  • Zudem, als Ergebnis des oben beschriebenen Bedienungstests, kommt der Daumen der Hand, die das Gehäuse 11 greift, nicht in Kontakt mit dem Berührbedienfeld 17, wenn die Vorrichtung mit der Anzeigeeinheit 12 mit etwa 4 Zoll verwendet wird. Es wird davon ausgegangen, dass dies der Tatsache zuzurechnen ist, dass das Gesamtgehäuse 11 ungefähr die Größe besitzt, die in eine Hand passt. Deshalb wird davon ausgegangen, dass das Festlegen des Detektionsausschlussbereichs als unnötig betrachtet wird, wenn die Größe der Anzeigeeinheit 12 etwa 4 Zoll beträgt, wenn also das Gehäuse 11 ungefähr eine Größe trägt, die in eine Hand passt. Wenn die Größe der Anzeigeeinheit 12 hingegen etwa 7 Zoll beträgt, wenn also das Gehäuse 11 etwa eine Größe besitzt, die nicht in eine Hand passt, ist das Festlegen eines Detektionsausschlussbereichs erforderlich. Deshalb kann das Festlegen des oben beschriebenen Detektionsausschlussbereichs ermöglicht oder gesperrt sein, abhängig von der Größe des Gehäuses 11.
  • Bei dem Robotersystem 1 ist insbesondere eine fehlerhafte Aktion durch den Roboter 2 ein Problem. Deshalb ist es erforderlich, dass das Auftreten dessen mit Bestimmtheit verhindert wird. Hingegen, aufgrund des Wesens von Berührbedienungen, ist die Wahrscheinlichkeit des Auftretens einer fehlerhaften Berührbestimmung und der gleichen vergleichsweise hoch. Jedoch werden gemäß der vorliegenden Ausführungsform die oben beschriebenen Maßnahmen ergriffen. Deshalb kann eine fehlerhafte Aktion durch den Roboter 2 mit Bestimmtheit verhindert werden, während die manuelle Bedienung des Roboters 2 durch Berührbedienung verwirklicht wird.
  • Die Bedienauswahl-Detektionseinheit 18 kann derart konfiguriert werden, dass sie in der Lage ist, die Bedienung einer auf dem Berührbedienfeld 17 angezeigten Schaltfläche oder einer physischen Schaltfläche, wie etwa eines Tastenschalters 13, bereitgestellt an dem Handprogrammiergerät 4, zu detektieren. Der Bedienungsbestimmungsprozess beinhaltet einen Prozess zum Bestimmen der zu bedienenden Antriebsachse oder des Aktionsmodus basierend auf von der Bedienauswahl-Detektionseinheit 18 detektierten Bedienung. In diesem Fall ist es möglich, dass der Bedienungsbestimmungsprozess die Anzahl der Finger und die Richtung der Ziehbedienung detektieren kann oder nicht detektieren kann.
  • Im Ergebnis kann der Nutzer die zu bedienende Antriebsachse oder den Aktionsmodus durch Bedienen des Tastenschalters 13 und dergleichen (Auswahlbedienung) verändern. Deshalb beabsichtigt der Nutzer, den Tastenschalter 13 oder dergleichen zu bedienen, um die Antriebsachse oder den Aktionsmodus zu wechseln. Deshalb ist dem Nutzer auf einfachere Weise klar, dass es sich bei der Bedienung des Tastenschalters 13 und dergleichen um eine Bedienung zum Auswählen der zu bedienenden Antriebsachse oder des Aktionsmodus handelt. Folglich, im Ergebnis, kann das Risiko, dass ein fehlerhaftes Bedienziel von dem Nutzer, der eine fehlerhafte Bedienung durchführt, ausgewählt wird, und somit eine fehlerhafte Aktion von dem Roboter 2 ausgeführt wird, verringert werden. Deshalb wird eine Verbesserung der Bedienbarkeit erreicht, und die manuelle Bedienung des Roboters 2 kann durch Berührbedienung verwirklicht werden, ohne eine Abnahme der Sicherheit zu verursachen. Folglich kann aufgrund der verbesserten Bedienbarkeit die für das Einprogrammieren benötigte Zeit verkürzt werden.
  • (Zweite Ausführungsform)
  • Eine zweite Ausführungsform, bei welcher der erfindungsgegenständliche Roboter gegenüber der ersten Ausführungsform verändert ist, wird nachfolgend anhand von 10 beschrieben.
  • Ein Robotersystem 21 gemäß der vorliegenden Ausführungsform, gezeigt in 10, unterscheidet sich von dem Robotersystem 1 gemäß der ersten Ausführungsform, gezeigt in 1, dadurch, dass ein Roboter 22 anstelle des Roboters 2 bereitgestellt wird.
  • Der Roboter 22 ist zum Beispiel als sechs-achsiger, Vertikal-Gelenkarmroboter konfiguriert. Das heißt, dass ein Schulterabschnitt 26 mit einer Basis 25 verbunden ist, um somit in der Lage zu sein, in der Horizontalrichtung über eine erste Achse J21 zu drehen. Die erste Achse J21 weist einen axialen Mittelpunkt in der Z-Achsenrichtung auf. Ein unterer Endabschnitt eines Unterarms 27 ist mit dem Schulterabschnitt 26 derart verbunden, um in der Lage zu sein, in der Vertikalrichtung über eine zweite Achse J22 zu drehen. Der Unterarm 27 erstreckt sich in die Richtung nach oben. Die zweite Achse J22 weist ein axiales Zentrum in der Y-Achsenrichtung auf. Ein erster Oberarm 28 ist mit einem Spitzenendabschnitt des Unterarms 27 derart verbunden, um in der Lage zu sein, in der Vertikalrichtung über eine dritte Achse J23 zu drehen. Die dritte Achse J23 weist ein axiales Zentrum in der Y-Achsenrichtung auf. Ein zweiter Oberarm 29 ist mit einem Spitzenendabschnitt des ersten Unterarms 28 derart verbunden, um in der Lage zu sein, über eine vierte Achse J24 in einer verdrehenden Art zu drehen. Die vierte Achse J24 weist ein axiales Zentrum in der X-Achsenrichtung auf. Eine Anlenkung 30 ist mit einem Spitzenendabschnitt des zweiten Oberarms 29 derart verbunden, um in der Lage zu sein, über eine fünfte Achse J25 in der Vertikalrichtung zu drehen. Die fünfte Achse J25 weist ein axiales Zentrum in der Y-Achsenrichtung auf. Ein Flansch 31 ist mit der Anlenkung 30 derart verbunden, um in der Lage zu sein, über eine sechste Achse J26 in einer sich verdrehenden Art zu drehen. Die sechste Achse weist ein axiales Zentrum in der X-Achsenrichtung auf.
  • Die Basis 25, der Schulterabschnitt 26, der Unterarm 27, der erste Oberarm 28, der zweite Oberarm 29, die Anlenkung 30, und der Flansch 31 fungieren als Arm des Roboters 22. Ein Werkzeug, wie etwa ein Luftspannfutter (nicht dargestellt) wird an dem Flansch 31 (entsprechend einer Hand), der die Armspitze ist, befestigt. Auf eine ähnliche Weise wie der Roboter 2 gemäß der ersten Ausführungsform wird die Vielzahl von in dem Roboter 22 bereitgestellten Achsen (J21 bis J26) von Motoren (nicht gezeigt) angetrieben, die jeweils entsprechend dazu bereitgestellt sind. Zudem ist ein Positionsdetektor (nicht gezeigt) zum Detektieren eines Drehwinkels einer Drehwelle des Motors in der Nähe jedes Motors bereitgestellt.
  • Zusätzlich zu den durch den vier-achsigen Horizontal-Gelenkarmroboter 2 gemäß der ersten Ausführungsform durchgeführten Aktionen ist der sechs-achsige, Vertikal-Gelenkarmroboter 22 in der Lage, eine Aktion durchzuführen, bei der die Hand um zwei Achsen gedreht wird, die von der Z-Achse verschiedenen sind. Bei den zwei Achsen handelt es sich um zwei Achsen (X-Achse und Y-Achse), die senkrecht zueinander stehen und horizontal bezüglich der Installationsoberfläche sind. In diesem Fall handelt es sich bei der Drehrichtung um die X-Achse um eine Rx-Richtung und bei der Drehrichtung um die Y-Achse um eine Ry-Richtung.
  • Deshalb können gemäß der vorliegenden Ausführungsform nicht alle Aktionen, die der zu bedienende Roboter 22 in der Lage ist, durchzuführen, durch manuelle Bedienung verwirklicht werden. Jedoch treten insgesamt im Falle des sechs-achsigen Vertikal-Gelenkarmroboters 22 ebenfalls keine Probleme auf, solange die oben beschriebene Horizontalbewegungsaktion, Vertikalbewegungsaktion, und Drehaktion um die Z-Achse durchgeführt werden. Ein Grund hierfür besteht darin, dass weil die Häufigkeit der drei durchgeführten Aktionen während der manuellen Bedienung extrem hoch ist, die Nutzerfreundlichkeit gemäß der vorliegenden Ausführungsform ebenfalls nicht deutlich beeinträchtigt ist.
  • Wenn jedoch einer Schalter zum wahlweisen Schalten der Aktion bereitgestellt ist, die durch die Drehbedienung durch zwei Finger unter der Drehaktion um die X-Achse, die Drehaktion um die Y-Achse, und die Drehaktion um die Z-Achse bereitgestellt ist, können alle der Aktionen, die der sechs-achsige, Vertikal-Gelenkarmroboter 22 durchführen kann durch manuelle Bedienung verwirklicht werden. In diesem Fall kann der Schalter eine Bedientaste sein, die nahe der Anzeigeeinheit 12 bereitgestellt ist, oder ein Berührschalter, der auf dem Berührbedienfeld der Anzeigeeinheit 12 bereitgestellt ist.
  • (Dritte Ausführungsform)
  • Als nächstes wird eine dritte Ausführungsform anhand der 11 bis 18 beschrieben. Die vorliegende Ausführungsform kann auf jedes der beiden oben beschriebenen Robotersysteme 1 mit dem vier-achsigen Horizontal-Gelenkarmroboter 2 und dem Robotersystem 21 mit dem sechs-achsigen Vertikal-Gelenkarmroboter 22 angewandt werden. In diesem Fall, wie in 11 gezeigt, handelt es sich bei der grundlegenden Haltung des vier-achsigen Horizontal-Gelenkarmroboters 2 um eine Haltung, bei welcher der Flansch 9 der Seite der Installationsoberfläche P (in diesem Fall nach unten) zugewandt ist. Zudem handelt es sich wie in 12 gezeigt bei der Grundhaltung des sechs-achsigen Vertikal-Gelenkarmroboters 22 um eine Haltung, bei welcher der Flansch 31 der Seite der Installationsoberfläche P (in diesem Fall nach unten) zugewandt ist. Die Roboter 2 und 22 führen die Horizontalbewegungsaktion, die Vertikalbewegungsaktion, und die Drehaktion durch, während die Grundhaltung oder eine der Grundhaltung ähnlichen Haltung beibehalten wird. Zudem deutet in die 13 und 14 ein weißer Kreis die Position einer Berührbedienung an, also der Startposition einer Ziehbedienung. Ein weißer Pfeil deutet die Richtung der Ziehbedienung an.
  • Gemäß jeder der oben beschriebenen Ausführungsformen wird bezüglich der Bestimmung der Art der Ziehbedienung nicht berücksichtigt, ob die Richtung bezüglich dem Berührbedienfeld 17 vertikal oder seitlich ist oder nicht. Gemäß der dritten Ausführungsform hingegen wird bezüglich der Bestimmung der Ziehbedienung berücksichtigt, ob die Richtung bezüglich des Berührbedienfelds 17 vertikal oder seitlich ist oder nicht. Die dritte Ausführungsform unterscheidet sich von den oben beschriebenen ersten und zweiten Ausführungsformen in dieser Hinsicht.
  • Hierbei sind die vertikale Richtung und die seitliche Richtung wie folgt definiert. Das heißt, wie durch Pfeil A in 13 angedeutet, dass die vertikale Richtung bezüglich dem Berührbedienfeld 17 die Richtung meint, die sich von dem Körper des Nutzers wegbewegt oder sich zu diesem hinbewegt, das heißt sich von diesem trennt oder sich diesem annähert, in einen Zustand, in welchem der Nutzer das Handprogrammiergerät 4 bedient, während dem er das Handprogrammiergerät 4 hält. Zudem meint die seitliche Richtung bezüglich dem Berührbedienfeld 17 eine Richtung senkrecht zu der oben beschriebenen Vertikalrichtung. Mit anderen Worten, wie durch Pfeil B in 13 angedeutet, meint die seitliche Richtung bezüglich dem Berührbedienfeld 17 eine Richtung parallel zur Vorderoberfläche des Körper des Nutzers in einem Zustand, in welchem der Nutzer das Handprogrammiergerät 4 bedient, während dem er oder sie das Handprogrammiergerät 4 hält.
  • In diesem Fall zeigen die Vertikalrichtung und die seitliche Richtung des Berührbedienfelds 17 relative Richtungen bezüglich dem Berührbedienfeld 17 aus der Perspektive des Nutzers auf. Das heißt, dass das Handprogrammiergerät 4 mit einem Beschleunigungssensor bereitgestellt ist. Die Haltung des Handprogrammiergeräts 4 selbst kann durch den Beschleunigungssensor detektiert werden. In einem Zustand, in dem der Nutzer das Handprogrammiergerät 4 hält, ist die Oberfläche des Berührbedienfelds 17 selten in eine vollständig horizontale Richtung ausgerichtet. Das heißt, wie in 14 gezeigt, wenn ein Nutzer 100 das Handprogrammiergerät 4 hält, ist es für den Nutzer 100 selbstverständlich, die Oberfläche des Berührbedienfelds 17 hin zu der Seite des Nutzers 100 auszurichten. In diesem Fall kommt es zu einem Unterschied in der Höhe innerhalb der Oberfläche des Berührbedienfelds 17. Eine Geradenrichtung, die einen höchsten Punkt Hi und einen niedrigsten Punkt Lo des Berührbedienfelds 17 verbindet, ist die Vertikalrichtung. Die Richtung senkrecht zu dieser Vertikalrichtung ist die seitliche Richtung. In diesem Fall, selbst wenn sich die Haltung des Berührbedienfelds 17 aufgrund einer Drehung des Handprogrammiergeräts 4 oder dergleichen verändert, verändert sich die Entsprechung zwischen der Vertikalrichtung und der seitlichen Richtung bezüglich dem Nutzer 100 nicht.
  • Gemäß der dritten Ausführungsform ist der Modus der ersten Bedienung ähnlich zu demjenigen gemäß jeder der oben beschriebenen Ausführungsformen (siehe 15(1)). Jedoch unterscheiden sich die Formen der zweiten Bedienung und der dritten Bedienung voneinander. Das heißt, dass die zweite Bedienung als eine Bedienung definiert ist, bei der es sich um eine Ziehbedienung durch zwei Finger und in eine vorgegebene Richtung handelt. Gemäß der oben beschriebenen ersten und zweiten Ausführungsformen, wie in 3(2) gezeigt, handelt es sich bei der zweiten Bedienung um eine Bedienung, bei der zwei Finger auf der gleichen geraden Linie gezogen werden. Insbesondere ist die zweite Bedienung eine Spreizbedienung und eine Pinch-Bedienung. Hingegen gemäß der dritten Ausführungsform, wie in 3(2) gezeigt, handelt es sich bei der zweiten Bedienung um eine Bedienung, die eine Ziehbedienung durch zwei Finger auf einer geraden Linie und in der Vertikalrichtung auf dem Berührbedienfeld 17 erfolgt.
  • Wie in 15(2) gezeigt führt die Hand des Roboters 2 oder 22 die Vertikalbewegungsaktion durch, wenn die Bedienung durchgeführt wird, bei der es sich um eine Ziehbedienung durch zwei Finger auf einer geraden Linie und der Vertikalrichtung auf dem Berührbedienfeld 17 (zweite Bedienung) handelt. In diesem Fall, wie durch den Pfeil A1 in 15(2) angedeutet, wenn es sich bei der Bedienung um eine Bedienung in einer Richtung weg vom Nutzer handelt, das heißt hin zur oberen Seite (hin zum höchsten Punkt Hi) des Berührbedienfelds 17, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Bewegen der Hand des Roboters 2 oder Roboters 22 nach oben entlang der Z-Achsen-Richtung. Zudem, wie durch den Pfeil A2 in 15(2) angedeutet, wenn es sich bei der zweiten Bedienung um eine Bedienung in der sich dem Nutzer annähernden Richtung handelt, das heißt hin zu der unteren Seite (hin zum untersten Punkt Lo) des Berührbedienfelds 17, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Bewegen der Hand des Roboters 2 oder Roboters 22 nach unten entlang der Z-Achsenrichtung. Mit anderen Worten, stimmen in diesem Fall die Bedienrichtung der zweiten Bedienung, also die hoch/runter Richtung, und die Bewegungsrichtung der Hand des Roboters 2 oder 22 überein, oder anders gesagt, sie korrelieren. Deshalb kann der Nutzer die Bewegungsrichtung der Hand des Roboters 2 oder 22 auf einfache Weise mit der Bedienrichtung der zweiten Bedienung, die von dem Nutzer selbst durchgeführt wird, assoziieren bzw. in Zusammenhang bringen.
  • Wie in 15(3) gezeigt führt die Hand des Roboters 2 oder 22 die Drehaktion aus, wenn es sich bei der Bedienung um eine Ziehbedienung durch zwei Finger auf einer geraden Linie und in der seitlichen Richtung auf dem Berührbedienfeld 17 (dritte Bedienung) handelt. In diesem Fall, wie durch den Pfeil B1 in 15(3) und 16 angedeutet, wenn es sich bei der dritten Bedienung um eine Bedienung in der Richtung nach rechts bezüglich dem Berührbedienfeld 17 handelt, wie durch den Pfeil J14R in 16 angedeutet, erzeugt die Aktionsbefehls-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der Hand des Roboters 2 oder 22 derart, dass der nahseitige Abschnitt der Hand bezüglich der Z-Achse (in diesem Fall der Abschnitt auf der Nutzerseite, angezeigt durch Punkt T in 16) sich hin zur rechten Seite bewegt, das heißt sich von einer Ebenensicht aus betrachtet in einer Richtung gegen den Uhrzeigersinn dreht.
  • Zudem, wie durch den Pfeil B2 in 15(3) und 16 angedeutet, wenn es sich bei der dritten Bedienung um einen Bedienung in der Richtung nach links bezüglich dem Berührbedienfeld 17 handelt, wie durch Pfeil J14L in 16 angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der Hand des Roboters 2 oder 22 derart, dass sich der nahseitige Handabschnitt bezüglich der Z-Achse (in diesem Fall der Abschnitt auf der Nutzerseite angedeutet durch Punkt T in 16) in die Richtung nach links bewegt, das heißt sich von einer Ebenensicht aus betrachtet in einer Richtung im Uhrzeigersinn dreht. In diesem Fall stimmen die Bedienrichtung der dritten Bedienung durch den Nutzer und die Drehrichtung der Hand des Roboters 2 oder 22, das heißt die Bewegungsrichtung des nahseitigen Abschnitts der Hand bezüglich der Z-Achse, überein, oder anders gesagt sie korrelieren. Deshalb kann der Nutzer die Drehrichtung der Hand des Roboters 2 oder 22 mit der Bedienrichtung der dritten Bedienung, die durch den Nutzer selbst durchgeführt wird, assoziieren.
  • Um Aktionen wie die oben beschriebenen Aktionen zu verwirklichen, führt die Aktionsbefehl-Erzeugungseinheit 16 den Bedienungsbestimmungsprozess durch, dessen Details in 4 gezeigt sind. Das heißt, dass die Aktionsbefehl-Erzeugungseinheit 15 den Bedienungsbestimmungsprozess in den Schritten S11 und S12 durchführt. Zudem führt die Aktionsbefehl-Erzeugungseinheit 16 in den Schritten S12, S22 und S17 den Aktionsbefehl-Erzeugungsprozess durch. Prozesse in 17, welche die gleichen sind wie diejenigen in 4, wurden mit den gleichen Schrittnummern bezeichnet. Auf detaillierte Beschreibungen dieser Schritte wird verzichtet.
  • In Schritt S11 bestimmt die Aktionsbefehl-Erzeugungseinheit 16, ob es sich bei der von der Berührbedienungs-Bestimmungseinheit 15 detektierten Berührbedienung um eine Ziehbedienung durch einen einzelnen Finger oder durch zwei Finger handelt (S11; erster Bedienungsbestimmungsprozess). Wenn in Schritt S11 festgestellt wird, dass es sich bei der Berührbedienung um eine Ziehbedienung durch einen einzelnen Finger handelt (erste Bedienung), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S12 einen Aktionsbefehl zum Bewegen der Hand des Roboters 2 in der X-Y-Ebenenrichtung (S12; Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung).
  • Wenn in Schritt S11 festgestellt wird, dass es sich bei der Berührbedienung um eine Ziehbedienung durch zwei Finger handelt, das heißt wenn festgestellt wird, dass es sich bei der Berührbedienung vielmehr um die zweite Bedienung oder um die dritte Bedienung denn um die erste Bedienung handelt, bestimmt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S21, ob es sich bei der Berührbedienung um eine Bedienung durch zwei Finger in der Vertikalrichtung (zweite Bedienung) oder eine Ziehbedienung in der seitlichen Richtung (dritte Bedienung) handelt (S21; zweiter Bedienungsbestimmungsprozess, dritter Bedienungsbestimmungsprozess).
  • Wenn in Schritt S21 festgestellt wird, dass es sich bei der Berührbedienung um eine Ziehbedienung in der Vertikalrichtung handelt (zweite Bedienung) (S21; Vertikalrichtung), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Bewegen der Hand des Roboters 2 oder 22 in der Z-Achsenrichtung (S22; Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung). Zudem, wenn in Schritt S21 festgestellt wird, dass es sich bei der Berührbedienung um eine Ziehbedienung in der seitlichen Richtung (dritte Bedienung) handelt (S21; seitliche Richtung), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der Hand des Roboters 2 oder 22 um die Z-Achse (S17: Drehaktionsbefehl-Erzeugungsprozess). Nachdem die Schritte S12, S22 und S17 durchgeführt wurden, sind die Prozesse abgeschlossen (Ende). Dann, aufgrund der Tatsache, dass der Controller 3 die Aktion des Roboters 2 oder Roboters 22 basierend auf dem oben beschriebenen Aktionsbefehl steuert, wird die oben beschriebene Horizontalbewegungsaktion, Vertikalbewegungsaktion, oder Drehaktion durchgeführt.
  • Wie oben beschrieben wird der Roboter auch gemäß der vorliegenden Ausführungsform dazu gebracht, eine Aktion durchzuführen, welcher der Nutzer auf einfache Weise mit der Bedienung assoziiert, wenn eine vorgegeben Bedienung während der manuellen Bedienung der Aktion des Handsystems der Roboters 2 oder Roboters 22 durchgeführt wird. In diesem Fall basiert die Begründung für die Assoziation zwischen jeder Bedienung und der Aktion entsprechend der Bedienung auf visuellen und taktilen Informationen und dergleichen eines Menschen. Zum Beispiel liegt die Begründung in den folgenden Punkten. Die Begründung dafür, dass die Horizontalbewegungsaktion mit der Ziehbedienung durch einen einzelnen Finger (erste Bedienung) assoziiert ist, ist wie gemäß der oben beschriebenen ersten Ausführungsform.
  • Die Begründung dafür, dass die Vertikalbewegungsaktion, bei der sich die Hand des Roboters 2 oder Roboters 22 in der Vertikalrichtung bewegt, mit der Bedienung assoziiert ist, die eine Ziehbedienung durch zwei Finger und in der Vertikalrichtung ist (zweite Bedienung), liegt zum Beispiel in dem folgenden Punkt. Das heißt, wie in 14 gezeigt, dass der Nutzer das Handprogrammiergerät 4 normalerweise zwischen der Hüfte und der Brust des Nutzers 100 hält. In diesem Fall, unter Berücksichtigung der Sichtbarkeit und Bedienbarkeit des Berührbedienfelds 17, ist es für den Nutzer 100 selbstverständlich, das Handprogrammiergerät 4 in einer Haltung zu halten, bei welcher der Berührbildschirm 17 nach unten hin zur Seite des Nutzers 10 gekippt ist. Wenn der Nutzer 100 das Handprogrammiergerät 4 in einer solchen Haltung hält, stimmt die Vertikalrichtung, also die hoch/runter Richtung des Handprogrammiergeräts 4, mit der Vertikalrichtung, also der hoch/runter Richtung der Hand des Roboters 2 oder 22, überein. Deshalb kann der Nutzer die Bedienung in Vertikalrichtung des Bildschirms des Berührbedienfelds 17 auf einfache Weise mit der Vertikalbewegungsaktion der Hand des Roboters 2 oder 22 in Zusammenhang bringen.
  • Zudem liegt die Begründung dafür, dass die Drehaktion, bei welcher die Hand des Roboters 2 oder 22 gedreht wird, mit der Bedienung assoziiert ist, die eine Ziehbedienung durch zwei Finger und in der seitlichen Richtung ist (dritte Bedienung), zum Beispiel in dem folgenden Punkt. Das heißt, dass manuelle Bedienung des Roboters 2 oder 22 oftmals zur Feinabstimmung des Roboters durchgeführt wird. Deshalb ist die Hand des Roboters während der manuellen Bedienung oftmals der Seite der Installationsoberfläche P zugewandt (in diesem Fall nach unten). In diesem Fall steht die Drehachse der Hand in einem rechten Winkel zur horizontalen Ebene, oder anders gesagt, sie ist in der Vertikalrichtung ausgerichtet. Wenn die Hand des Roboters in diesem Zustand in der Horizontalrichtung betrachtet wird, erscheint ein bestimmter Punkt der Hand des Roboters als sich in linearer Form in der Horizontalrichtung bewegend, weil die Hand des Roboters gedreht wird. Deshalb wird davon ausgegangen, dass der Nutzer die Drehaktion der Hand des Roboters mit der Bedienung in der seitlichen Richtung bezüglich des Berührbedienfelds assoziiert. Im Ergebnis bringt der Nutzer die Bedienung in der seitlichen Richtung bezüglich dem Berührbedienfeld mit der Drehaktion der Hand des Roboters in Zusammenhang.
  • Auf diese Weise ermöglicht es jede Bedienung bezüglich des Handsystems gemäß der vorliegenden Ausführungsform dem Nutzer, die Bedienung mit der durch den Roboter 2 oder 22 als Reaktion auf die Bedienung durchgeführten Aktion intuitiv in Zusammenhang zu bringen. Zudem ist jede Bedienung eine einfache Bedienung. Mit anderen Worten kann der Nutzer die Aktion des Handsystems des Roboters 2 oder 22 durch eine Gestenbedienung (eine Bedienung, die sich aus einer Kombination der Anzahl der Finger, der Richtung, und der Bewegungsmenge zusammensetzt) beeinflussen, welche einfach ist und welche die intuitive Assoziierung mit der Aktion des Roboters 2 oder 22 erlaubt. Deshalb kann der Nutzer jede Bedienung des Handsystems durchführen, ohne auf seine eigene Hand (Bedienort) zu blicken. Im Ergebnis schaut der Nutzer während der manuellen Bedienung des Handsystems des Roboters 2 oder 22 nicht länger von dem Roboter 2 weg, und die Sicherheit kann vorteilhaft aufrechterhalten werden. Auf diese Weise, wird gemäß der vorliegenden Ausführungsform ein ausgezeichneter Effekt dahingehend erreicht, dass die manuelle Bedienung des Handsystems des Roboters 2 oder 22 durch Berührbedienung verwirklicht wird, ohne eine Abnahme der Sicherheit zu verursachen.
  • Der Modus der Vertikalbewegungsaktion durch die zweite Bedienung kann dem oben beschriebenen entgegengesetzt sein. Das heißt, wie durch den Pfeil A1 in 15(2) angedeutet, wenn es sich bei der zweiten Bedienung um eine Bedienung in der Richtung weg von dem Nutzer handelt, also hin zu der Oberseite des Berührbedienfelds 17 (hin zu dem höchsten Punkt Hi), dass die Aktionsbefehl-Erzeugungseinheit 16 einen Befehl zum Bewegen der Hand des Roboters 2 oder 22 nach unten entlang der Z-Achse erzeugt. Zudem, wie durch den Pfeil A2 in 15(2) angedeutet, wenn es sich bei der zweiten Bedienung um eine Bedienung in der sich dem Nutzer annähernden Richtung handelt, also hin zu der Unterseite des Berührbedienfelds (17) (hin zu dem untersten Punkt Lo), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Befehl zum Bewegen der Hand des Roboters 2 oder Roboters 22 nach oben entlang der Z-Achse. In diesem Fall handelt es sich bei der Bedienrichtung der zweiten Bedienung, also der hoch/runter Richtung, und bei der Bewegungsrichtung der Hand des Roboters 2 oder 22 um entgegengesetzte Richtungen.
  • Es wird davon ausgegangen, dass ein Bedienmodus wie dieser effektiver ist, wenn der sechs-achsige, Vertikal-Gelenkarmroboter 22 von hinten bedient wird (die Seite des Pfeils W in 12 und 18). Die Begründung hierfür liegt zum Beispiel in dem folgenden Punkt. Das heißt, dass bei dem sechs-achsigen Vertikal-Gelenkarmroboter 22 die Bewegung der Hand (Flansch 31) in der Vertikalrichtung entlang der Z-Achse durch Antreiben der zweiten Achse J22 und dritten Achse J23 durchgeführt wird. Wenn die zweite Achse J22 angetrieben wird, bewegen sich die Arme 27, 28 und 29 in ganzheitlicher Weise. In diesem Fall scheint der Nutzer den Eindruck zu gewinnen, dass die Arme 27, 28 und 29 ein Hebel sind, dessen zweite Achse J22 eine Drehachse ist, die Hand (Flansch 31) ein Aktionspunkt ist, und ein in 18 gezeigter Punkt K1-Abschnitt ein Angriffspunkt ist. Auf ähnliche Weise bewegen sich die Arme 28 und 29 in einer ganzheitlichen Weise, wenn die dritte Achse J23 angetrieben wird. Zu diesem Zeitpunkt scheint der Nutzer den Eindruck zu gewinnen, dass die Arme 28 und 29 ein Hebel sind, dessen dritte Achse J23 eine Drehachse ist, die Hand (Flansch 31) ein Angriffspunkt ist, und ein in 18 gezeigter Punkt K2-Abschnitt ein Angriffspunkt ist.
  • In beiden Fällen, wenn die zweite Achse J22 oder die dritte Achse J23, die als Drehachse dient, angetrieben wird, bewegt sich der Punkt K1 oder K2 in der der Hand (Flansch 31) entgegengesetzten Richtung. Die Art und Weise der Ziehbedienung in der Vertikalrichtung bezüglich dem Berührbedienfeld 17, die durchgeführt wird, während der Nutzer auf den Roboter 22 blickt, suggeriert dem Nutzer, dass eine Scheinkraft in der Vertikalrichtung (in diesem Fall die vertikale Richtung) auf den Angriffspunkt K1 oder K2 aufgebracht wird. Ferner, wenn der Nutzer den Roboter 22 von hinten anschaut, liegt der Angriffspunkt K1 oder K2 näher an dem Nutzer als die Hand (Flansch 31). Deshalb scheint der Nutzer den Eindruck zu gewinnen, dass eine Scheinkraft an dem Angriffspunkt K1 oder K2 arbeitet, indem die Ziehbedienung in der Vertikalrichtung auf dem Berührbedienfeld 17 durchgeführt wird, und die als Aktionspunkt dienende Hand (Flansch 31) bewegt sich in der dem Angriffspunkt K1 oder K2 entgegengesetzten Richtung. Deshalb assoziiert der Nutzer basierend auf einem Bedienmodus wie diesem die Bewegungsrichtung der Hand des Roboters 2 oder 22 auf einfachere Weise mit der Bedienrichtung der zweiten Bedienung, die durch den Nutzer selbst durchgeführt wird. Im Ergebnis wird die Verbesserung der Bedienbarkeit erzielt und eine Abnahme der Sicherheit wird unterdrückt.
  • Bei der oben beschriebenen Ziehbedienung durch zwei Finger können die beiden Finger, im Falle der Vertikalbewegungsaktion und der Drehaktion in 5(2) und (3), dazu gebracht werden, die im Wesentlichen gleiche Bewegungsbahn zu ziehen. Das heißt, dass die beiden Finger derart gezogen werden können, dass die zwei Pfeile in der seitlichen Richtung in 15(2) und (3) derart gezogen werden, dass sie sich im Wesentlichen überlappen (vgl. Spalte (B) in 15(3)). Selbst in diesem Fall sind die Berührpunkte auf dem Bedienfeld der Fingerspitzen der beiden Finger immer voneinander verschieden. Deshalb ist ein Aktionsbefehl basierend auf der oben beschriebenen Ziehbedienung durch zwei Finger möglich.
  • (Vierte Ausführungsform)
  • Als nächstes wird eine vierte Ausführungsform anhand der 19 bis 22 beschrieben. Gemäß der oben beschriebenen Ausführungsformen wird ein Beispiel beschrieben, bei dem eine sogenannte Gestenbedienung (eine Bedienung, die sich aus einer Kombination der Anzahl der Finger, der Richtung, und der Bewegungsmenge zusammensetzt) auf eine Aktion des Handsystems angewandt wird, beschrieben. Hingegen wird gemäß der vorliegenden Ausführungsform ein Beispiel beschrieben, bei dem die so-genannten Gestenbedienung auf eine Aktion des Achssystems angewandt wird.
  • 19 ist ein Beispiel, bei dem eine Gestenbedienung auf eine Aktion eines Achssystems des vier-achsigen Horizontal-Gelenkarmroboters 2 angewandt wird. In diesem Fall, wie in 19(1) gezeigt, wird die erste Achse J11 basierend auf einer Ziehbedienung durch einen einzelnen Finger in der seitlichen Richtung angetrieben. Wie durch den Pfeil B1 in 19(1) und 20 angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der ersten Achse J11 in einer dem Uhrzeigersinn entgegengesetzten Richtung, wenn es sich bei der Ziehbedienung durch einen einzelnen Finger in der seitlichen Richtung um eine Bedienung in die rechte Richtung bezogen auf das Berührbedienfeld 17 handelt, wie durch den Pfeil J11R in 20 angedeutet. Zudem, wie durch den Pfeil B2 in 19(1) und 20 angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der ersten Achse J11 im Uhrzeigersinn aus einer Ebenensicht, wenn es sich bei der Ziehbedienung durch einen einzelnen Finger in der seitlichen Richtung um eine Bedienung in der bezüglich des Berührbedienfelds 17 linken Richtung handelt, wie durch den Pfeil J12L in 20 angedeutet.
  • Wie in 19(2) gezeigt wird die zweite Achse J12 basierend auf einer Ziehbedienung durch zwei Finger in der seitlichen Richtung angetrieben. Wie durch den Pfeil B1 in 19(2) und 20 angedeutet erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der zweiten Achse J12 in der dem Uhrzeigersinn entgegengesetzten Richtung aus einer Ebenensicht, wenn es sich bei der Ziehbedienung durch zwei Finger in der seitlichen Richtung um eine Bedienung in der bezüglich dem Berührbedienfeld 17 rechten Richtung handelt, wie durch den Pfeil J12R in 20 angedeutet. Zudem, wie durch den Pfeil B2 in 19(2) und 20 angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der zweiten Achse J12 im Uhrzeigersinn aus einer Ebenensicht, wenn es sich bei der Ziehbedienung durch einen einzelnen Finger in der seitlichen Richtung um eine Bedienung in der bezüglich des Berührbedienfelds 17 linken Richtung handelt, wie durch den Pfeil J12L in 20 angedeutet.
  • Wie in 19(3) gezeigt wird die dritte Achse J13 basierend auf einer Ziehbedienung durch einen einzelnen Finger in der Vertikalrichtung angetrieben. Wie durch den Pfeil A1 in 19(3) angedeutet erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Bewegen der Hand des Roboters 2 nach oben, wenn es sich bei der Ziehbedienung durch einen einzelnen Finger in Vertikalrichtung um eine Bedienung in der Richtung nach oben bezogen auf das Berührbedienfeld handelt, also hin zu dem höchsten Punkt Hi. Wie durch den Pfeil A2 in 19(3) angedeutet erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Bewegen der Hand des Roboters 2 nach unten, wenn es sich bei der Ziehbedienung durch einen einzelnen Finger in Vertikalrichtung um eine Bedienung in der Richtung nach unten bezogen auf das Berührbedienfeld 17 handelt, also hin zu dem untersten Punkt Lo.
  • Wie in 19(4) gezeigt wird die vierte Achse J14 basierend auf einer Ziehbedienung durch drei Finger in der seitlichen Richtung angetrieben. Wie durch den Pfeil B1 in 19(4) angedeutet erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der vierten Achse J14R in der dem Uhrzeigersinn entgegengesetzten Richtung aus einer Ebenensicht, wenn es sich bei der Ziehbedienung durch drei Finger in seitlicher Richtung um eine Bedienung in der Richtung nach rechts bezogen auf das Berührbedienfeld 17 handelt, das heißt wie durch den Pfeil J14R in 20 angedeutet. Zudem, wie durch den Pfeil B2 in 19(4) angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der vierten Achse J14L im Uhrzeigersinn aus einer Ebenensicht, wenn es sich bei der Ziehbedienung durch drei Finger in seitlicher Richtung um eine Bedienung in der Richtung nach links bezogen auf das Berührbedienfeld 17 handelt, wie durch den Pfeil J14L in 20 angedeutet. In diesen Fällen wird die Antriebsmenge jeder Antriebsachse basierend auf der Bedienmenge bestimmt, also der Ziehmenge der Ziehbedienung in der Richtung entsprechend jeder Antriebsachse.
  • Gemäß der vorliegenden Ausführungsform ist die dritte Achse J13 als Antriebsachse einer ersten Gruppe klassifiziert. Die Antriebsachse J13 der ersten Gruppe tendiert dazu, den Nutzer auf eine Aktion in Vertikalrichtung aufmerksam zu machen. Die Antriebsachse J13 der ersten Gruppe wird basierend auf einer Ziehbedienung in Vertikalrichtung angetrieben. Zudem werden unter den Antriebsachsen die Antriebsachsen, die nicht die Antriebsachse der ersten Gruppe ist, also die erste Achse J11, die zweite Achse J12, und die vierte Achse J14, als Antriebsachsen einer zweiten Gruppe klassifiziert. Die Antriebsachsen J11, J12 und J14 der zweiten Gruppe tendieren dazu, den Nutzer auf eine Aktion in der Horizontalrichtung aufmerksam zu machen. Die Antriebsachsen J11, J12 und J14 der zweiten Gruppe werden basierend auf einer Ziehbedienung in der seitlichen Richtung angetrieben.
  • Um jede der oben beschriebenen Aktionen zu verwirklichen, führt die Aktionsbefehl-Erzeugungseinheit 16 einen Prozess durch, dessen Details in 21 gezeigt sind. In diesem Fall führt die Aktionsbefehl-Erzeugungseinheit 16 einen Antriebsachsen-Auswahlprozess in den Schritten S31, S32 und S33 durch. Der Antriebsachsen-Auswahlprozess ist ein Prozess zum Auswählen einer einzelnen anzutreibenden Achse unter den Antriebsachsen J11 bis J14 basierend auf der Kombination der Anzahl der Finger und der Bedienrichtung einer Ziehbedienung, wenn es sich bei einer detektierten Berührbedienung um eine Ziehbedienung durch einen Finger handelt. Von den Schritten S31 bis S33 handelt es sich bei den Schritten S31 und S32 um einen ersten Antriebsachsen-Auswahlprozess. Der erste Antriebsachsen-Auswahlprozess ist ein Prozess zum Auswählen einer einzelnen anzutreibenden Antriebsachse unter den Antriebsachsen der ersten Gruppe, wenn die Richtung der Ziehbedienung die Vertikalrichtung ist. Gemäß der vorliegenden Ausführungsform ist die Antriebsachse der ersten Gruppe nur die dritte Achse J13. Deshalb wird die dritte Achse unausweichlich ausgewählt. Von den Schritten S31 bis S33 sind die Schritte S31 und S33 ein zweiter Antriebsachsen-Auswahlprozess. Bei dem zweiten Antriebsachsen-Auswahlprozess handelt es sich um einen Prozess zum Auswählen einer einzelnen anzutreibenden Antriebsachse unter den Antriebsachsen, die nicht die Antriebsachsen der ersten Gruppe sind (in diesem Fall die Antriebsachsen J11, J12 und J14 der zweiten Gruppe), wenn die Richtung der Ziehbedienung die seitliche Richtung oder die Umfangsrichtung ist (gemäß der vorliegenden Ausführungsform die seitliche Richtung).
  • Insbesondere bestimmt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S31, ob die Richtung der von der Berührbedienungs-Detektionseinheit 15 detektierten Ziehbedienung die seitliche Richtung oder die Vertikalrichtung ist. Wenn festgestellt wird, dass es sich bei der von der Berührbedienungs-Detektionseinheit 15 detektierten Ziehbedienung um die Vertikalrichtung handelt (Vertikalrichtung in Schritt S31), bestimmt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S32, ob es sich bei der Anzahl der Finger um einen einzelnen Finger handelt oder nicht. Wenn festgestellt wird, dass es sich bei der Anzahl der Finger der Berührbedienung um einen einzelnen Finger handelt (JA in Schritt S32), erzeugt die Aktionsbefehls-Erzeugungseinheit 16 in Schritt S34 einen Aktionsbefehl zum Antreiben der dritten Achse J13.
  • Wenn hingegen festgestellt wird, dass es sich bei der Richtung der Ziehbedienung um die seitliche Richtung handelt (seitliche Richtung in Schritt S31), bestimmt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S33 die Anzahl der Finger. Wenn festgestellt wird, dass die Anzahl der Finger der Berührbedienung ein einzelner Finger ist (einzelner Finger in Schritt S33), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S35 einen Aktionsbefehl zum Antreiben der ersten Achse J11. Wenn festgestellt wird, dass es sich bei der Anzahl der Finger der Berührbedienung um zwei Finger handelt (zwei Finger in Schritt S35), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S36 einen Aktionsbefehl zum Antreiben der zweiten Achse J12. Wenn festgestellt wird, dass es sich bei der Anzahl der Finger der Berührbedienung um drei Finger handelt (drei Finger in Schritt S35), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S37 einen Aktionsbefehl zum Antreiben der vierten Achse J14.
  • Nach dem Erzeugen von einem der Aktionsbefehle in den Schritten S34 bis S37 schließt die Aktionsbefehl-Erzeugungseinheit 16 die Prozesse ab (Ende). Dann, aufgrund der Tatsache, dass der Controller 3 eine Achse des Roboters 2 basierend auf dem oben beschriebenen Aktionsbefehl antreibt, wird eine Aktion eines Achssystems durchgeführt. Wenn hingegen die Anzahl der Finger der Berührbedienung zwei Finger oder mehr beträgt (NEIN in Schritt S32), beendet die Aktionsbefehl-Erzeugungseinheit 16 den Prozess, ohne einen Aktionsbefehl zu erzeugen (Ende).
  • Wie oben beschrieben wird der Roboter 2 gemäß der vorliegenden Ausführungsform dazu gebracht, eine Aktion des Achssystems durchzuführen, die der Nutzer auf einfache Weise von der Bedienung ableiten kann, wenn eine vorgegebene Bedienung während der manuellen Bedienung der Aktion eines Achssystems des Roboters 2 durchgeführt wird. In diesem Fall basiert die Begründung für die Assoziation zwischen jeder Bedienung und der Aktion entsprechend der Bedienung auf visuellen und taktilen Informationen und dergleichen eines Menschen. Zum Beispiel liegt die Begründung in den folgenden Punkten.
  • Zunächst liegt die Begründung dafür, dass das Antreiben der Antriebsachsen der zweiten Gruppe, also der ersten Achse J11, der zweiten Achse J12 und der vierten Achse J14 mit der Ziehbedienung in der seitlichen Richtung assoziiert wird, in dem folgenden Punkt. Das heißt, dass bei dem vier-achsigen Horizontal-Gelenkarmroboter 2 die Antriebsachsen J11, J12 und J14 der zweiten Gruppe alle Drehachsen sind, die sich in der Vertikalrichtung erstrecken. Deshalb bewegt sich die Hand des Roboters 2 in der Horizontalrichtung mit jeder Achse als Zentrum, wenn die Antriebsachsen J11, J12 und J14 der zweiten Gruppe angetrieben werden. Hierbei blickt der Nutzer beim manuellen Bedienen des Roboters 2 oftmals von geringfügig oberhalb der Horizontalrichtung auf den Roboters 2. In diesem Fall erscheint es dem Nutzer so, als dass sich die Hand des Roboters 2 in einer horizontalen, seitlichen Richtung bewegt. Deshalb stimmen die Bedienrichtung durch den Nutzer und die Bewegungsrichtung der Hand des Roboters 2 überein. Im Ergebnis kann der Nutzer die Bedienung in der Vertikalrichtung bezüglich dem Berührbedienfeld 17 auf einfache Weise mit der Bewegungsaktion der Hand durch das Antreiben der Antriebsachsen J11, J12 und J14 der zweiten Gruppe in Zusammenhang bringen. Folglich kann der Nutzer beim Bedienen eines Achssystems die Bewegungsrichtung der Hand des Roboters 2 auf einfache Weise mit der Bedienungsrichtung des Nutzers selbst in Zusammenhang bringen. Die Begründung für die Assoziierung zwischen der Bedienung in der Vertikalrichtung bezüglich dem Berührbedienfeld 17 und der Vertikalbewegungsaktion durch das Antreiben der Antriebsachsen der zweiten Gruppe (in diesem Fall die dritte Achse J13) ist demjenigen gemäß der dritten Ausführungsform angegebenen Grund ähnlich.
  • Zudem, wird gemäß der vorliegenden Ausführungsform bei der Ziehbedienung in der seitlichen Richtung die erste Achse J11 angetrieben, wenn die Bedienung durch einen einzelnen Finger erfolgt. Wenn die Bedienung durch zwei Finger erfolgt, wird die zweite Achse angetrieben. Wenn die Bedienung durch drei Finger erfolgt, wird die vierte Achse angetrieben. Auf diese Weise steigt gemäß der vorliegenden Ausführungsform die Nummer der anzutreibenden Antriebsachse der zweiten Gruppe mit der Zahl der für die Ziehbedienung verwendeten Finger an. Deshalb kann der Nutzer die Anzahl der in der Ziehbedienung verwendeten Finger auf einfache Weise mit der anzutreibenden Achse in Zusammenhang bringen. Im Ergebnis wird die Bedienbarkeit weiter verbessert.
  • Ferner bestimmt die Aktionsbefehl-Erzeugungseinheit 16 in dem oben beschriebenen Antriebsachsen-Auswahlprozess die anzutreibende Antriebsachse derart, dass die Auswahl von der Antriebsachse auf der Seite der Basis 5 des Roboters 2 hin zu der Antriebsseite auf der Seite der Hand (Flansch 9) übergeht, also derart, dass die Auswahl von der ersten Achse J11 über die zweite Achse J12 zu der vierten Achse J14 übergeht, begleitet von der Zunahme der Anzahl der Finger der Ziehbedienung. Normalerweise wird davon ausgegangen, dass der Nutzer besser in der Lage ist, sich auf die Bedienung zu konzentrieren, wenn die Anzahl der in der Ziehbedienung verwendeten Finger abnimmt. Deshalb wird davon ausgegangen, dass der Nutzer zu einer präziseren Bedienung in der Lage ist, wenn die Anzahl der in der Ziehbedienung verwendeten Finger abnimmt. Hierbei nimmt die Auswirkung, die das Antreiben der Antriebsachse auf die Bewegungsmenge der Hand des Roboters besitzt, zu, so wie die anzutreibende Antriebsachse der Seite des Basis 5 näher kommt, also so wie die Nummer der Achse kleiner wird. Gemäß der vorliegenden Ausführungsform ist der Nutzer in der Lage, eine präzise Bedienung mit weniger Fingern für die Antriebsachsen durchzuführen, welche einen stärkeren Einfluss auf die Bewegungsmenge der Hand des Roboters 2 haben. Deshalb wird die Bedienbarkeit weiter verbessert.
  • Bei dem Antriebsachsen-Auswahlprozess kann die Aktionsbefehl-Erzeugungseinheit 16 die anzutreibende Antriebsachse derart bestimmen, dass die Auswahl von der Antriebsachse auf der Seite der Hand (Flansch 9) des Roboters 2 hin zu der Antriebsachse auf der Seite der Basis 5 übergeht, also derart, dass die Auswahl von der vierten Achse J14 über die zweite Achse J12 zu der ersten Achse J11 übergeht, begleitet von der Abnahme der Anzahl der Finger der Ziehbedienung. Normalerweise wird Aktion nahe der Hand bei der manuellen Bedienung häufig verwendet. Das heißt, dass bei der manuellen Bedienung eine Achse mit einer größeren Achsennummer unter den Antriebsachsen der zweiten Gruppe häufiger bei der manuellen Bedienung verwendet wird. Deshalb ist der Nutzer in der Lage, eine präzise Bedienung mit weniger Fingern für eine Antriebsachse durchzuführen, welche während der manuellen Bedienung häufiger verwendet wird. Deshalb kann auch aufgrund dieser Konfiguration die Bedienbarkeit weiter verbessert werden.
  • (Fünfte Ausführungsform)
  • Als nächstes wird eine fünfte Ausführungsform anhand der 18 und der 22 bis 25 näher beschrieben. Gemäß der vorliegenden Ausführungsform wird eine so-genannte Gestenbedienung auf eine Aktion eines Achssystems des sechs-achsigen Vertikal-Gelenkarmroboters 22 angewandt. Gemäß der vorliegenden Ausführungsform wird jede Achse wie folgt angetrieben. Das Antreiben der ersten Achse J21 des sechs-achsigen Vertikal-Gelenkarmroboters 22 wird auf ähnliche Weise durchgeführt wie das Antreiben der ersten Achse J11 des vier-achsigen Roboters 2. Das heißt, wie in 22(1) gezeigt, dass die erste Antriebsachse J21 basierend auf einer Ziehbedienung durch einen einzelnen Finger in der seitlichen Richtung durchgeführt wird. Wie durch den Pfeil B1 in 22(1) und 23 angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der ersten Achse J21 in einer Richtung entgegen dem Uhrzeigersinn aus einer Planar- bzw. Ebenenrichtung betrachtet, wenn es sich bei der Ziehbedienung durch einen einzelnen Finger in der seitlichen Richtung um einen Bedienung in der Richtung nach rechts bezogen auf das Berührbedienfeld 17 handelt, wie durch den Pfeil J21R in 23 angedeutet. Zudem, wie durch den Pfeil B2 in 22(1) und 23 angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der ersten Achse J21 im Uhrzeigersinn aus einer Planar- bzw. Ebenenrichtung betrachtet, wenn es sich bei der Ziehbedienung durch einen einzelnen Finger in der seitlichen Richtung um einen Bedienung in der Richtung nach links bezogen auf das Berührbedienfeld 17 handelt, wie durch den Pfeil J21L in 23 angedeutet.
  • Das Antreiben der zweiten Achse J22 erfolgt auf ähnliche Weise wie das Antreiben der dritten Achse J13 des vier-achsigen Roboters 2. Das heißt, wie in 22(2) gezeigt, dass das Antreiben der zweiten Achse J22 basierend auf einer Ziehbedienung durch einen einzelnen Finger in der Vertikalrichtung durchgeführt wird. Wie durch den Pfeil A1 in 22(2) angedeutet erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der zweiten Achse J22 derart, dass die Hand des Roboters 22 nach oben bewegt wird, wenn es sich bei der Ziehbedienung durch einen einzelnen Finger in der Vertikalrichtung um einen Bedienung in der Richtung nach oben bezogen auf das Berührbedienfeld 17 handelt, also hin zu der Seite des höchsten Punktes Hi. Wie durch den Pfeil A2 in 22(2) angedeutet erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der zweiten Achse J22 derart, dass die Hand des Roboters 22 nach unten bewegt wird, wenn es sich bei der Ziehbedienung durch einen einzelnen Finger in der Vertikalrichtung um einen Bedienung in der Richtung nach unten bezogen auf das Berührbedienfeld 17 handelt, also hin zu dem tiefsten Punkt Lo.
  • Wie in 22(3) gezeigt wird die dritte Antriebsachse J23 basierend auf einer Ziehbedienung durch zwei Finger in der Vertikalrichtung angetrieben. Wie durch den Pfeil A1 in 22(3) angedeutet erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der dritten Achse J23 derart, dass die Hand des Roboters 22 nach oben bewegt wird, wenn es sich bei der Ziehbedienung durch zwei Finger in der Vertikalrichtung um einen Bedienung in der Richtung nach oben bezogen auf das Berührbedienfeld 17 handelt, also hin zu der Seite des höchsten Punktes Hi. Wie durch den Pfeil A2 in 22(3) angedeutet erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der dritten Achse J23 derart, dass die Hand des Roboters 22 nach unten bewegt wird, wenn es sich bei der Ziehbedienung durch zwei Finger in der Vertikalrichtung um eine Bedienung in der Richtung nach unten bezogen auf das Berührbedienfeld 17 handelt, also hin zu dem untersten Punkt Lo.
  • Wie in 22(4) gezeigt wird die vierte Achse J24 basierend auf einer Ziehbedienung durch zwei Finger in der seitlichen Richtung angetrieben. Wie durch den Pfeil B1 in 22(4) und 23 angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der vierten Achse J24 in einer Richtung entgegen dem Uhrzeigersinn von der Seite des zweiten Oberarms 29 hin zu der Seite des ersten Oberarms 28 betrachtet, wenn es sich bei der Ziehbedienung durch zwei Finger in der seitlichen Richtung um einen Bedienung in der Richtung nach rechts bezogen auf das Berührbedienfeld 17 handelt, wie durch den Pfeil J24R in 24 angedeutet. Zudem, wie durch den Pfeil B2 in 22(4) und 23 angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der vierten Achse J24 im Uhrzeigersinn von der Seite des zweiten Oberarms 29 hin zu der Seite des ersten Oberarms 28 betrachtet, wenn es sich bei der Ziehbedienung durch zwei Finger in der seitlichen Richtung um einen Bedienung in der Richtung nach links bezogen auf das Berührbedienfeld 17 handelt, wie durch den Pfeil J24L in 24 angedeutet.
  • Wie in 22(5) gezeigt wird die fünfte Antriebsachse J25 basierend auf einer Ziehbedienung durch drei Finger in der Vertikalrichtung angetrieben. Wie durch den Pfeil A1 in 22(5) angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der fünften Achse J25 derart, dass die Hand des Roboters 22 nach oben bewegt wird, wenn es sich bei der Ziehbedienung durch drei Finger in der Vertikalrichtung um eine Bedienung in der Richtung nach oben bezogen auf das Berührbedienfeld 17 handelt, also hin zu der Seite des höchsten Punktes Hi. Wie durch den Pfeil A2 in 22(5) angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der fünften Achse J25 derart, dass die Hand des Roboters 22 nach unten bewegt wird, wenn es sich bei der Ziehbedienung durch drei Finger in der Vertikalrichtung um einen Bedienung in der Richtung nach unten bezogen auf das Berührbedienfeld 17 handelt, also hin zu dem untersten Punkt Lo.
  • Wie in 22(6) gezeigt wird die sechste Achse J26 basierend auf einer Ziehbedienung durch drei Finger in der seitlichen Richtung angetrieben. Wie durch den Pfeil B1 in 22(6) und 23 angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der vierten Achse J24 in einer Richtung entgegen dem Uhrzeigersinn aus einer Ebenensicht betrachtet, wenn es sich bei der Ziehbedienung durch drei Finger in der seitlichen Richtung um einen Bedienung in der Richtung nach rechts bezogen auf das Berührbedienfeld 17 handelt, wie durch den Pfeil J26R in 23 angedeutet. Zudem, wie durch den Pfeil B2 in 22(6) und 23 angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Drehen der vierten Achse J24 im Uhrzeigersinn aus der Ebenensicht betrachtet, wenn es sich bei der Ziehbedienung durch drei Finger in der seitlichen Richtung um einen Bedienung in der Richtung nach links bezogen auf das Berührbedienfeld 17 handelt, wie durch den Pfeil J26L in 23 angedeutet.
  • Gemäß der vorliegenden Ausführungsform werden die zweite Achse J22, dritte Achse J23, und die fünfte Achse J25 als Antriebsachsen einer ersten Gruppe klassifiziert. Die Antriebsachsen J22, J23, J25 der ersten Gruppe werden basierend auf einer Ziehbedienung in Vertikalrichtung angetrieben. Zudem werden unter den Antriebsachsen die Antriebsachsen, die nicht die Antriebsachsen der ersten Gruppe sind, also die erste Achse J21, die vierte Achse J24, und die sechste Achse J26 als Antriebsachsen einer zweiten Gruppe klassifiziert. Die Antriebsachsen J21, J24 und J26 der zweiten Gruppe werden basierend auf einer Ziehbedienung in der seitlichen Richtung angetrieben.
  • Um jede der oben beschriebenen Aktionen zu verwirklichen, führt die Aktionsbefehl-Erzeugungseinheit 16 einen Prozess durch, dessen Details in 25 gezeigt sind. In diesem Fall führt die Aktionsbefehl-Erzeugungseinheit 16 einen Antriebsachsen-Auswahlprozess in den Schritten S41, S42 und S43 durch. Der Antriebsachsen-Auswahlprozess ist ein Prozess, der dem in den Schritten S31, S32, und S33 in 21 oben beschriebenen Prozess ähnlich ist. Das heißt, dass der Antriebsachsen-Auswahlprozess ein Prozess zum Auswählen einer einzelnen anzutreibenden Achse unter den Antriebsachsen J21 bis J26 basierend auf der Kombination der Anzahl der Finger und der Bedienrichtung einer Ziehbedienung ist, wenn es sich bei einer detektierten Berührbedienung um eine Ziehbedienung durch einen Finger handelt.
  • Von den Schritten S41 bis S43 handelt es sich bei den Schritten S41 und S42 um einen ersten Antriebsachsen-Auswahlprozess. Der erste Antriebsachsen-Auswahlprozess ist ein Prozess zum Auswählen einer einzelnen anzutreibenden Antriebsachse unter den Antriebsachsen J22, J23 und J25 der ersten Gruppe, wenn die Richtung der Ziehbedienung die Vertikalrichtung ist. Von den Schritten S41 bis S43 sind die Schritte S41 und S43 ein zweiter Antriebsachsen-Auswahlprozess. Bei dem zweiten Antriebsachsen-Auswahlprozess handelt es sich um einen Prozess zum Auswählen einer einzelnen anzutreibenden Antriebsachse unter den Antriebsachsen, die nicht die Antriebsachsen der ersten Gruppe sind (in diesem Fall die Antriebsachsen J21, J24 und J26 der zweiten Gruppe), wenn die Richtung der Ziehbedienung die seitliche Richtung oder die Umfangsrichtung ist (gemäß der vorliegenden Ausführungsform die seitliche Richtung).
  • Insbesondere in Schritt S41 bestimmt die Aktionsbefehl-Erzeugungseinheit 16, ob die Richtung der von der Berührbedienungs-Detektionseinheit 15 detektierten Ziehbedienung die seitliche Richtung oder die Vertikalrichtung ist. Wenn festgestellt wird, dass es sich bei der von der Berührbedienungs-Detektionseinheit 15 detektierten Ziehbedienung um die Vertikalrichtung handelt (Vertikalrichtung in Schritt S41), bestimmt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S42 die Anzahl der Finger. Wenn festgestellt wird, dass es sich bei der Anzahl der Finger der Berührbedienung um einen einzelnen Finger handelt (einzelner Finger in Schritt S42), erzeugt die Aktionsbefehls-Erzeugungseinheit 16 in Schritt S44 einen Aktionsbefehl zum Antreiben der zweiten Achse J22. Wenn festgestellt wird, dass es sich bei der Anzahl der Finger der Berührbedienung um zwei Finger handelt (zwei Finger in Schritt S42), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Antreiben der dritten Achse J23. Wenn festgestellt wird, dass es sich bei der Anzahl der Finger der Berührbedienung um drei Finger handelt (drei Finger in Schritt S42), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S46 einen Aktionsbefehl zum Antreiben der fünften Achse J25.
  • Wenn hingegen festgestellt wird, dass es sich bei der durch die Berührbedienungs-Detektionseinheit 15 detektierten Richtung der Ziehbedienung um die seitliche Richtung handelt (seitliche Richtung in Schritt S41), bestimmt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S43 die Anzahl der Finger. Wenn festgestellt wird, dass die Anzahl der Finger der Berührbedienung ein einzelner Finger ist (einzelner Finger in Schritt S43), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S47 einen Aktionsbefehl zum Antreiben der ersten Achse J21. Wenn festgestellt wird, dass es sich bei der Anzahl der Finger der Berührbedienung um zwei Finger handelt (zwei Finger in Schritt S43), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S48 einen Aktionsbefehl zum Antreiben der vierten Achse J24. Wenn festgestellt wird, dass es sich bei der Anzahl der Finger der Berührbedienung um drei Finger handelt (drei Finger in Schritt S43), erzeugt die Aktionsbefehl-Erzeugungseinheit 16 in Schritt S49 einen Aktionsbefehl zum Antreiben der sechsten Achse J26. Nach dem Erzeugen von einem der Aktionsbefehle in den Schritten S44 bis S49 schließt die Aktionsbefehl-Erzeugungseinheit 16 die Prozesse ab (Ende). Dann, aufgrund der Tatsache, dass der Controller 3 eine Achse des Roboters 22 basierend auf dem oben beschriebenen Aktionsbefehl antreibt, wird eine Aktion eines Achssystems durchgeführt.
  • Wie oben beschrieben wird der Roboter 22 gemäß der vorliegenden Ausführungsform dazu gebracht, eine Aktion des Achssystems durchzuführen, die der Nutzer auf einfache Weise von der Bedienung ableiten kann, wenn eine vorgegebene Bedienung während der manuellen Bedienung der Aktion eines Achssystems des Roboters 22 durchgeführt wird. In diesem Fall basiert die Begründung für die Assoziation zwischen jeder Bedienung und der Aktion entsprechend der Bedienung auf visuellen und taktilen Informationen und dergleichen eines Menschen. Zum Beispiel liegt die Begründung in den folgenden Punkten.
  • Zunächst ist die Begründung dafür, dass das Antreiben der Antriebsachsen der zweiten Gruppe, also der ersten Achse J21, der vierten Achse J24 und der sechsten Achse J26 mit der Ziehbedienung in der seitlichen Richtung assoziiert wird, derjenigen Begründung gemäß der oben beschriebenen fünften Ausführungsform im Wesentlichen ähnlich. Das heißt, dass während der manuellen Bedienung eine Achse oftmals angetrieben wird, während der sechs-achsige, Gelenkarmroboter 22 die in 12 gezeigte Grundhaltung oder eine Haltung ähnlich der Grundhaltung beibehält. Bei dem sechs-achsigen Vertikal-Gelenkarmroboter 22, bei dem Antriebsachsen J21, J24 und J26 der zweiten Gruppe, sind ein stationär-seitiges Glied, das sich nicht dreht, wenn die Antriebsachse angetrieben wird, und ein drehseitiges Glied, das sich dreht, wenn die Antriebsachse angetrieben wird, linear angeordnet.
  • Insbesondere bezüglich der ersten Achse J21 ist die Basis 25 das stationär-seitige Glied und der Schulterabschnitt 26 ist das drehseitige Glied. In diesem Fall bewegt sich die Hand (Flansch 31) in einem Kreisbogen auf einer horizontalen Ebene, wenn die erste Achse J21 angetrieben wird und sich der Schulterabschnitt 26 aus einem Zustand dreht, bei dem der Roboter in der Grundhaltung ist. Hierbei blickt der Nutzer beim manuellen Bedienen des Roboters 22 oftmals von leicht oberhalb der Horizontalrichtung auf den Roboter 22. In diesem Fall erscheint es dem Nutzer, dass die Hand (Flansch 31) des Roboters 22 sich in einer horizontalen seitlichen Richtung bewegt. Deshalb stimmen die Bedienrichtung durch den Nutzer und die Bewegungsrichtung der Hand des Roboters überein.
  • Bezüglich der vierten Achse ist der erste Oberarm 28 das stationär-seitige Glied und der zweite Oberarm 29 ist das drehseitige Glied. In diesem Fall bewegt sich der Spitzenendabschnitt der Hand (Flansch 31) in einem Kreisbogen auf einer Ebene, die bezüglich der horizontalen Ebene (eine Ebene senkrecht zu der vierten Achse J24) gekippt ist, wenn die vierte Achse J24 angetrieben wird und sich der zweite Oberarm 29 aus einem Zustand dreht, bei dem der Roboter in der Grundhaltung ist. Wie oben beschrieben erscheint es dem Nutzer, dass sich die Hand (Flansch 31) des Roboters 22 in eine horizontale, seitliche Richtung bewegt, wenn der Nutzer den Roboter 22 von leicht oberhalb der Horizontalrichtung ansieht. Deshalb stimmen die Bedienrichtung durch den Nutzer und die Bewegungsrichtung der Hand des Roboters 22 überein.
  • Bezüglich der sechsten Achse J26 ist die Anlenkung 30 das stationär-seitige Glied und der Flansch 31 ist das drehseitige Glied. In diesem Fall bewegt sich der Abschnitt, der ein bestimmter Punkt auf dem Umfang der Hand (Flansch (31) ist, in einem Kreisbogen auf einer Ebene, die senkrecht zu der sechsten Achse J26 (in diesem Fall eine horizontale Ebene) ist, wenn die sechste Achse J26 angetrieben wird und sich die Hand (Flansch 31) aus einem Zustand dreht, bei dem der Roboter 22 sich in der Grundhaltung befindet. Wie oben beschrieben erscheint es dem Nutzer, dass sich der bestimmte Punkt an der Hand (Flansch 31) des Roboters 22 in eine horizontale, seitliche Richtung bewegt, wenn der Nutzer den Roboter 22 von leicht oberhalb der Horizontalrichtung ansieht. Deshalb stimmen die Bedienrichtung durch den Nutzer und die Bewegungsrichtung der Hand des Roboters 22 überein.
  • Auf diese Weise stimmen gemäß der vorliegenden Ausführungsform die Bedienrichtung durch den Nutzer und die Bewegungsrichtung der Hand des Roboters 22 überein. Deshalb kann der Nutzer die Bedienung in der Vertikalrichtung bezogen auf das Berührbedienfeld 17 auf einfache Weise mit der Bewegungsaktion der Hand durch das Antreiben der Antriebsachsen J21, J24 und J26 der zweiten Gruppe in Zusammenhang bringen. Die Begründung für die Assoziation zwischen der Bedienung in der Vertikalrichtung bezüglich dem Berührbedienfeld 17 und der Vertikalbewegungsaktion durch das Antreiben der Antriebsachsen der zweiten Gruppe (in diesem Fall die dritte Achse J13) ist dem Grund gemäß der dritten Ausführungsform ähnlich. Gemäß einer Ausführungsform wie dieser kann der Nutzer die Bewegungsrichtung der Hand des Roboters 22 auf einfache Weise aus dem Bedienmodus durch den Nutzer selbst ableiten, wenn ein Achssystem angetrieben wird. Das heißt, dass der Nutzer auf einfache Weise die Antriebsachse kennen kann, die der Bedienung entspricht. Im Ergebnis wird eine Verbesserung der Bedienbarkeit erzielt und eine Abnahme der Sicherheit wird unterdrückt.
  • Zudem wird bei der Ziehbedienung in der seitlichen Richtung gemäß der vorliegenden Ausführungsform die erste Achse J21 angetrieben, wenn die Bedienung durch einen einzelnen Finger erfolgt. Wenn die Bedienung durch zwei Finger erfolgt, wird die vierte Achse J24 angetrieben. Wenn die Bedienung durch drei Finger erfolgt, wird die sechste Achse J26 angetrieben. Auf diese Weise nimmt gemäß der vorliegenden Ausführungsform die Anzahl der anzutreibenden Antriebsachsen der zweiten Gruppe zu, so wie die Anzahl der für die Ziehbedienung verwendeten Finger zunimmt. Deshalb kann der Nutzer die Anzahl der in der Ziehbedienung verwendeten Finger auf einfache Weise mit der anzutreibenden Achse in Zusammenhang bringen. Im Ergebnis wird die Bedienbarkeit weiter verbessert.
  • Ferner bestimmt in dem oben beschriebenen Antriebsachsen-Auswahlprozess die Aktionsbefehl-Erzeugungseinheit 16 die anzutreibenden Antriebsachsen derart, dass die Auswahl von der Antriebsachse auf der Seite der Basis 5 des Roboters 22 hin zu der Antriebsachse auf der Seite der Hand (Flansch 31) übergeht, derart, dass die Auswahl von der ersten Achsen J21 zu der vierten Achse J24 zu der sechsten Achse J26 übergeht, begleitet von der Zunahme der Anzahl der Finger der Ziehbedienung. Im Ergebnis ist der Nutzer in der Lage, eine präzise Bedienung mit weniger Fingern für Antriebsachsen durchzuführen, die einen stärkeren Einfluss auf die Bewegungsmenge der Hand des Roboters 22 haben, ähnlich derjenigen Art und Weise gemäß der oben beschriebenen vierten Ausführungsform. Deshalb wird die Bedienbarkeit weiter verbessert.
  • Bei dem Antriebsachsen-Auswahlprozess kann die Aktionsbefehl-Erzeugungseinheit 16 die anzutreibende Antriebsachse derart bestimmen, dass die Auswahl von der Antriebsachse auf der Seite der Hand (Flansch 31) des Roboters 22 hin zu der Antriebsachse auf der Seite der Basis 5 übergeht, also derart, dass die Auswahl von der sechsten Achse J26 zu der vierten Achse J24 zu der ersten Achse J21 übergeht, begleitet von der Zunahme der Anzahl der Finger der Ziehbedienung. Im Ergebnis, in einer Weise ähnlich derjenigen gemäß der oben beschriebenen vierten Ausführungsform, kann der Nutzer eine präzise Bedienung mit weniger Fingern für eine Antriebsachse durchzuführen, welche während der manuellen Bedienung häufiger verwendet wird. Deshalb kann auch aufgrund dieser Konfiguration die Bedienbarkeit weiter verbessert werden.
  • (Sechste Ausführungsform)
  • Als nächstes wird eine sechste Ausführungsform anhand 26 beschrieben. Die sechste Ausführungsform ist ein Beispiel, bei dem eine sogenannte Gestenbedienung auf eine Aktion eines Achssystems des vier-achsigen Horizontal-Gelenkarmroboters 2 angewandt wird. Gemäß der sechsten Ausführungsform unterscheidet sich eine Bedienung zum Antreiben der vierten Achse J14 von derjenigen gemäß der oben beschriebenen fünften Ausführungsform. Das heißt, wie in 26(4) gezeigt, dass unter den Antriebsachsen J11, J12, und J14 der ersten Gruppe die vierte Achse J14 durch eine Ziehbedienung durch zwei Finger in einer Umfangsrichtung bedient wird, also eine Drehbedienung durch einen von zwei Fingern.
  • In diesem Fall, wie durch den Pfeil C1 in 26(4) angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Antreiben der vierten Achse J14 derart, um die Hand des Roboters 2 hin zu der Seite im Uhrzeigersinn aus einer Ebenensicht zu drehen, wenn es sich bei der Ziehbedienung durch zwei Finger in der Umfangsrichtung um eine Bedienung hin zu der Seite im Uhrzeigersinn bezogen auf das Berührbedienfeld 17 handelt. Wie durch den Pfeil C2 in 26(4) angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 hingegen einen Aktionsbefehl zum Antreiben der vierten Achse J14 derart, um die Hand des Roboters 2 hin zu der Seite entgegen dem Uhrzeigersinn aus einer Ebenensicht zu drehen, wenn es sich bei der Ziehbedienung durch zwei Finger in der Umfangsrichtung um eine Bedienung hin zu der Seite entgegen dem Uhrzeigersinn bezogen auf das Berührbedienfeld 17 handelt.
  • Die Begründung für die Assoziation zwischen dem Antreiben der vierten Achse J14, also der Drehaktion der Hand (Flansch 9), und der Ziehbedienung durch zwei Finger in der Umfangsrichtung ist wie in der Beschreibung bezüglich der Drehbedienung des Hand gemäß der oben beschriebenen ersten Ausführungsform beschrieben. Das heißt, dass die Bedienrichtung der Ziehbedienung durch den Nutzer und die Drehrichtung der Hand des Roboters 2 aus einer Ebenensicht übereinstimmen. Deshalb kann der Nutzer gemäß einer Ausführungsform wie dieser, wenn ein Achssystem angetrieben wird, die Bewegungsrichtung der Hand des Roboters 2 auf einfache Weise mit dem Bedienmodus durch den Nutzer selbst in Zusammenhang bringen. Das heißt, dass der Nutzer auf einfache Weise die Antriebsachse kennen kann, die der Bedienung entspricht. Im Ergebnis wird eine Verbesserung der Bedienbarkeit erzielt und eine Abnahme der Sicherheit wird unterdrückt.
  • (Siebte Ausführungsform)
  • Als nächstes wird eine siebte Ausführungsform anhand von 27 beschrieben. Die siebte Ausführungsform ist ein Beispiel, bei dem eine so-genannte Gestenbedienung auf eine Aktion eines Achssystems des sechs-achsigen, Horizontal-Gelenkarmroboters 22 angewandt wird. Gemäß der siebten Ausführungsform unterscheidet sich eine Bedienung zum Antreiben der vierten Achse J24 von derjenigen gemäß der oben beschriebenen fünften Ausführungsform. Das heißt, wie in 27(4) gezeigt, wird unter den Antriebsachsen J21, J24, und J26 der ersten Gruppe die vierte Achse J24 durch eine Ziehbedienung durch zwei Finger in einer Umfangsrichtung bedient, das heißt eine Drehbedienung durch einen der beiden Finger.
  • In diesem Fall, wie durch den Pfeil C1 in 27(6) angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 einen Aktionsbefehl zum Antreiben der sechsten Achse J26 derart, um die Hand des Roboters 22 hin zu der Seite im Uhrzeigersinn aus einer Ebenensicht zu drehen, wenn es sich bei der Ziehbedienung durch zwei Finger in der Umfangsrichtung um eine Bedienung hin zu der Seite im Uhrzeigersinn bezogen auf das Berührbedienfeld 17 handelt. Wie durch den Pfeil C2 in 27(6) angedeutet, erzeugt die Aktionsbefehl-Erzeugungseinheit 16 hingegen einen Aktionsbefehl zum Antreiben der sechsten Achse J26 derart, um die Hand des Roboters 22 hin zu der Seite entgegen dem Uhrzeigersinn aus einer Ebenensicht zu drehen, wenn es sich bei der Ziehbedienung durch zwei Finger in der Umfangsrichtung um eine Bedienung hin zu der Seite entgegen dem Uhrzeigersinn bezogen auf das Berührbedienfeld 17 handelt.
  • Die Begründung für die Assoziation zwischen dem Antreiben der sechsten Achse J26, also der Drehaktion der Hand (Flansch 31), und der Ziehbedienung durch zwei Finger in der Umfangsrichtung ist wie in der Beschreibung bezüglich der Drehbedienung der Hand gemäß der oben beschriebenen ersten Ausführungsform beschrieben. Das heißt, dass die Bedienrichtung der Ziehbedienung durch den Nutzer und die Drehrichtung der Hand des Roboters 22 aus einer Ebenensicht übereinstimmen. Deshalb kann der Nutzer auch gemäß einer Ausführungsform wie dieser, wenn ein Achssystem angetrieben wird, die Bewegungsrichtung der Hand des Roboters 22 auf einfache Weise mit dem Bedienmodus durch den Nutzer selbst in Zusammenhang bringen. Das heißt, dass der Nutzer auf einfache Weise die Antriebsachse kennen kann, die der Bedienung entspricht. Im Ergebnis wird eine Verbesserung der Bedienbarkeit erzielt und eine Abnahme der Sicherheit wird unterdrückt.
  • (Achte Ausführungsform)
  • Als nächstes wird eine achte Ausführungsform anhand von 28 und 29 beschrieben. Die achte Ausführungsform ist ein Beispiel, bei dem eine so-genannte Gestenbedienung auf eine Aktion eines Achssystems des vier-achsigen Horizontal-Gelenkarmroboters 2 angewandt wird. Gemäß der achten Ausführungsform unterscheidet sich eine Bedienung zum Antreiben der vierten Achse J14 von denjenigen gemäß der oben beschriebenen vierten und sechsten Ausführungsformen. Das heißt, wie in 28(4) gezeigt, wird unter den Antriebsachsen J11, J12, und J14 der ersten Gruppe die vierte Achse J14 durch eine Ziehbedienung durch drei Finger in einer Umfangsrichtung bedient.
  • Ob es sich bei einer Ziehbedienung um eine Ziehbedienung durch drei Finger in der Umfangsrichtung handelt oder nicht wird zum Beispiel auf die folgende Weise bestimmt. Das heißt, dass die Aktionsbefehl-Erzeugungseinheit 16 bei einer Berührbedienung durch eine Vielzahl von Fingern (in diesem Fall drei Finger) zwei Finger unter der Vielzahl von Fingern (in diesem Fall drei Finger) extrahiert, bei denen der Abstand zwischen Berührpositionen der Finger am größten ist. Die Aktionsbefehl-Erzeugungseinheit 16 detektiert die Abstände zwischen den Kontaktpositionen, also Bewegungsstartpositionen der Finger, und vergleicht die Abstände. Bezüglich zweier Positionen, also zwei Fingern, bei denen der Abstand zwischen den Berührpositionen der Finger am größten ist, bestimmt die Aktionsbefehl-Erzeugungseinheit 16, ob eine Drehkomponente in einem der beiden Finger enthalten ist oder nicht, wie gemäß der oben beschriebenen ersten Ausführungsform. Wenn festgestellt wird, dass eine Drehkomponente in einem der beiden Finger enthalten ist, bestimmt die Aktionsbefehl-Erzeugungseinheit 16, dass die Bedienung durch die Vielzahl von Fingern (in diesem Fall drei Finger) eine Bedienung in der Umfangsrichtung ist. Wenn hingegen festgestellt wird, dass eine Drehkomponente in keinem der beiden Finger enthalten ist, bestimmt die Aktionsbefehl-Erzeugungseinheit 16, dass die Bedienung durch die Vielzahl von Fingern (in diesem Fall drei Finger) nicht eine Bedienung in der Umfangsrichtung ist.
  • Als Beispiel wird ein Fall beschrieben werden, bei dem der Nutzer die Ziehbedienung in Umfangsrichtung mit drei Fingern durchführt, also dem Daumen, dem Zeigefinger und dem Mittelfinger. Jeder Finger des Nutzers kommt mit dem Berührbedienfeld 17 zum Beispiel an den Positionen P1, P2, und P3 in 29 in Kontakt. In diesem Fall zeigt die Position P1 unter den Positionen P1 bis P3 die Kontaktposition durch den Daumen an. Die Position P2 zeigt die Kontaktposition durch den Zeigefinger an. Die Position P3 zeigt die Kontaktposition durch den Mittelfinger an. Bei einer Hand eines Menschen in einem Zustand, in dem die Hand offen ist, unterscheidet sich die Richtung, in der sich vier Finger, also der Zeigefinger, der Mittelfinger, der Ringfinger, und der kleine Finger, erstrecken von der Richtung, in der sich der Daumen erstreckt. Basierend auf einer solchen Aufbau der menschlichen Hand wird zum Beispiel die Drehung derart durchgeführt, dass der Daumen den Fingern, die nicht der Daumen sind, (in diesem Fall der Zeigefinger und der Mittelfinger) mit dem Zentralabschnitt der Handfläche eines Menschen (Punkt O Abschnitt in 29) als Drehzentrum gegenüberliegt, wenn der Nutzer die Ziehbedienung durch drei Finger in der Umfangsrichtung durchführt.
  • In diesem Fall sind die Bewegungsrichtung des Daumens (Punkt P2) und die Bewegungsrichtungen der anderen Finger, als Zeigefinger (Punkt P1) und Mittelfinger (Punkt P3) im Wesentlichen gegenüberliegenden Richtungen auf dem Berührbedienfeld 17 zugewandt. Mit anderen Worten sind die Bewegungsrichtungen der Finger, die nicht der Daumen (Punkt P2) sind, also der Zeigefinger (Punkt P1) und der Mittelfinger (Punkt P3), im Wesentlichen der gleichen Richtung zugewandt. In diesem Fall, wenn basierend auf Vektoren zu den Bewegungen der Finger, die nicht der Daumen (Punkt P2) sind, das bedeutet der Zeigefinger (Punkt P1) und der Mittelfinger (Punkt P3), festgestellt wird, ob eine Drehkomponente enthalten ist oder nicht, tritt folgendes Problem auf.
  • Das heißt, wie in 29 gezeigt, ein Vektor zu der Bewegung des Zeigefingers (Position P1) ist VP1. Ein Vektor zu der Bewegung des Daumens (Position P2) ist VP2. Ein Vektor zu der Bewegung des Mittelfingers (Position P3) ist VP3. In diesem Fall sind die Bewegungsrichtung des Zeigefingers (Punkt P1) und die Bewegungsrichtung des Mittelfingers (Position P3) im Wesentlichen die gleichen. Deshalb ist der Winkel klein, der durch den Vektor VP1 zu der Bewegung des Zeigefingers (Position P1) und durch den Vektor VP3 zu der Bewegung des Mittelfingers (Position P3) gebildet wird. In diesem Fall ist die Wahrscheinlichkeit hoch, dass der Winkel, der durch den Vektor VP1 zu der Bewegung des Zeigefingers (Position P1) und durch den Vektor VP3 zu der Bewegung des Mittelfingers (Position P3) gebildet wird, kleiner als ein Bestimmungsgrenzwert ist, und es erfolgt eine Bestimmung, dass es sich bei der Ziehbedienung nicht um eine Bedienung in der Umfangsrichtung handelt.
  • Hingegen sind die Bewegungsrichtung des Daumens (Punkt P2) und die Bewegungsrichtungen der anderen Finger, als Zeigefinger (Punkt P1) und Mittelfinger (Punkt P3) im Wesentlichen gegenüberliegenden Richtungen auf dem Berührbedienfeld 17 zugewandt. Deshalb ist der Winkel groß, der durch den Vektor VP2 zu der Bewegung des Daumens (Position P2) und durch einen Vektor (Vektor VP1 oder Vektor VP3) zu der Bewegung des Fingers, der nicht der Daumen ist, gebildet wird. In diesem Fall ist die Wahrscheinlichkeit extrem gering, dass der Winkel, der durch den Vektor VP2 zu der Bewegung des Daumens (Position P2) und durch einen Vektor (Vektor VP1 oder Vektor VP3) zu der Bewegung eines Fingers, der nicht der Daumen ist, gebildet wird, kleiner als der Bestimmungsgrenzwert ist. Aus den oben angegeben Gründen ist es bezüglich der Bestimmung, ob es sich bei einer Ziehbedienung durch eine Vielzahl von Fingern um eine Bedienung in der Umfangsrichtung handelt oder nicht, ausreichend zu bestimmen, ob eine Drehkomponente in einer der beiden Finger unter der Vielzahl von Fingern, zwischen denen der Abstand am größten ist, enthalten ist oder nicht.
  • Die Begründung dafür, dass das Antreiben der vierten Achse J14, also die Drehaktion der Hand (Flansch 9), mit der Ziehbedienung durch drei Finger in der Umfangsrichtung assoziiert ist, ist der Begründung dafür ähnlich, dass das Antreiben der vierten Achse J14, also die Drehaktion der Hand (Flansch 9), mit der Ziehbedienung durch zwei Finger in der Umfangsrichtung assoziiert ist. Auch in diesem Fall stimmen die Bedienrichtung der Ziehbedienung durch den Nutzer und die Drehrichtung der Hand des Roboters aus einer Ebenensicht bezüglich der Aktion der vierten Achse J14 überein. Deshalb kann der Nutzer auch gemäß einer Ausführungsform wie dieser, wenn ein Achssystem angetrieben wird, die Bewegungsrichtung der Hand des Roboters 2 auf einfache Weise mit dem Bedienmodus durch den Nutzer selbst in Zusammenhang bringen. Das heißt, dass der Nutzer auf einfache Weise die Antriebsachse kennen kann, die der Bedienung entspricht. Im Ergebnis wird eine Verbesserung der Bedienbarkeit erzielt und eine Abnahme der Sicherheit kann unterdrückt werden.
  • (Neunte Ausführungsform)
  • Als nächstes wird eine neunte Ausführungsform anhand von 30 beschrieben. Die neunte Ausführungsform ist ein Beispiel, bei dem eine so-genannte Gestenbedienung auf Bedienung eines Achssystems des sechs-achsigen Vertikal-Gelenkarmroboters 22 angewandt wird. Gemäß der neunten Ausführungsform unterscheidet sich eine Bedienung zum Antreiben der sechsten Achse J26 von denjenigen gemäß der oben beschriebenen fünften Ausführungsform. Das heißt, wie in 30(6) gezeigt, dass unter den Antriebsachsen J21, J24, und J26 der ersten Gruppe die sechste Achse J26 durch eine Ziehbedienung durch drei Finger in einer Umfangsrichtung bedient wird. Die Bedienung zum Antreiben der sechsten Achse J26 ist der Bedienung zum Antreiben der vierten Achse J14 gemäß der oben beschriebenen achten Ausführungsform, gezeigt in 28(4), ähnlich. In diesem Fall ist das Verfahren zum Bestimmen, ob es sich bei einer Ziehbedienung um eine Ziehbedienung durch drei Finger in einer Umfangsrichtung handelt, wie gemäß der oben beschriebenen achten Ausführungsform. Zudem ist die Begründung dafür, dass das Antreiben der sechsten Achse J26, also der Drehaktion der Hand (Flansch 31), mit der Ziehbedienung durch drei Finger in der Umfangsrichtung assoziiert ist, wie in der Beschreibung bezüglich der vierten Achse J14 gemäß der oben beschriebenen achten Ausführungsform.
  • In diesem Fall stimmen bezüglich der Aktion der sechsten Achse J26 die Bedienrichtung der Ziehbedienung durch den Nutzer und die Drehrichtung der Hand des Roboters 2 aus einer Ebenensicht überein. Deshalb kann der Nutzer auch gemäß einer Ausführungsform wie dieser, wenn ein Achssystem angetrieben wird, die Bewegungsrichtung der Hand des Roboters auf einfache Weise mit dem Bedienungsmodus durch den Nutzer selbst assoziieren. Das heißt, dass der Nutzer auf einfache Weise die Antriebsachse kennen kann, die der Bedienung entspricht. Im Ergebnis wird die Verbesserung der Bedienbarkeit erzielt und eine Abnahme der Sicherheit unterdrückt.
  • (Zehnte Ausführungsform)
  • Als nächstes wird eine zehnte Ausführungsform anhand von 31 beschrieben. Die zehnte Ausführungsform ist ein Beispiel, bei dem eine so-genannte Gestenbedienung auf eine Aktion eines Achssystems des sechs-achsigen Vertikal-Gelenkarmroboters 22 angewandt wird. Gemäß der zehnten Ausführungsform werden die Bedienung bezüglich der vierten Achse J24 gemäß der siebten Ausführungsform, gezeigt in 27(4), und die Bedienung bezüglich der sechsten Achse J26 gemäß der neunten Ausführungsform, gezeigt in 30(6), auf eine Aktion eines Achssystems gemäß der vierten Ausführungsform, gezeigt in 22, angewandt. Das heißt, dass die vierte Achse J24 basierend auf einer Ziehbedienung durch zwei Finger in Umfangsrichtung, gezeigt in 31(4), angetrieben wird. Zudem wird die sechste Achse J26 basierend auf einer Ziehbedienung durch drei Finger in der Umfangsrichtung angetrieben.
  • Hierbei sind bei dem vier-achsigen Horizontal-Gelenkarmroboter 2 die Antriebsachsen einer ersten Gruppe nur aus der vierten Achse J14 zusammengesetzt. Hingegen sind bei dem sechs-achsigen Vertikal-Gelenkarmroboter 22 die Antriebsachsen der ersten Gruppe aus den drei Antriebsachsen, also der ersten Achse J21, der vierten Achse J24, und der sechsten Achse J26 zusammengesetzt. Gemäß der vorliegenden Ausführungsform wird bezüglich der zwei Antriebsachsen (vierte Achse J24 und sechste Achse J26) nahe der Seite der Hand (Flansch 31) unter den Antriebsachsen der ersten Gruppe das Antreiben basierend auf einer Ziehbedienung durch eine Vielzahl von Fingern in der Umfangsrichtung durchgeführt.
  • Bei dem sechs-achsigen Vertikal-Gelenkarmroboter 22 bewegt sich die Hand (Flansch 31) über eine horizontale Ebene, also zweidimensional, wenn die erste Achse J21 am nächsten der Seite der Basis 25 angetrieben wird. Deshalb tendiert der Nutzer dazu zu erkennen, dass es sich bei der Aktion der Hand (Flansch 31) durch das Antreiben der ersten Achse J21 um eine zweidimensionale Aktion auf einer horizontalen Ebene handelt. Wenn die vierten Achse J24 und die sechste Achse J26 hingegen nahe der Handseite angetrieben werden, bewegt sich die Hand (Flansch 31) nicht nur auf der horizontalen Ebene, sondern auch in der Vertikalrichtung, abhängig von der Haltung des Roboters 22, oder anders gesagt, dreidimensional. Deshalb tendiert der Nutzer dazu zu erkennen, dass es sich bei der Aktion der Hand (Flansch 31) durch das Antreiben der vierten Achse J24 oder der sechsten Achse J26 vielmehr um eine dreidimensionale Drehaktion mit der Antriebsachse J24 oder J26 als Drehzentrum handelt denn um eine zweidimensionale Aktion auf einer horizontalen Ebene.
  • Auf diese Weise, wenn es sich bei den Bedienungen für die vierte Achse J24 und die sechste Achse J26, welche der Nutzer als dreidimensionale Drehaktionen wahrnimmt, um Ziehbedienungen durch eine Vielzahl von Fingern in der Umfangsrichtung handelt, können die Wahrnehmung des Nutzers und die Bewegungsrichtung der Hand (Flansch 31) übereinstimmen. Deshalb, kann der Nutzer auch gemäß einer Ausführungsform wie dieser, wenn ein Achssystem angetrieben wird, die Bewegungsrichtung der Hand des Roboters 22 auf einfache Weise mit der vom Bedienungsmodus durch den Nutzer selbst ableiten. Das heißt, dass der Nutzer die Antriebsachse, die der Bedienung entspricht, auf einfache Weise kennt. Im Ergebnis wird die Verbesserung der Bedienbarkeit erzielt und eine Abnahme der Sicherheit kann unterdrückt werden. Darüber hinaus kann die für das Einprogrammieren benötigte Zeit verkürzt werden.
  • (Elfte Ausführungsform)
  • Als nächstes wird eine elfte Ausführungsform anhand von 32 beschrieben. Die elfte Ausführungsform ist ein Beispiel, bei dem eine so-genannte Gestenbedienung auf eine Aktion eines Achssystems des sechs-achsigen Vertikal-Gelenkarmroboters 22 angewandt wird. Gemäß der elften Ausführungsform, von der ersten Achse J21 bis zur fünften Achse J25, entsprechen die Antriebsachsen der Anzahl der Finger der Ziehbedienung in der seitlichen Richtung. In diesem Fall wird bei einem Antriebsachsen-Auswahlprozess, begleitet von der Tatsache, dass die Anzahl der Finger der Ziehbedienung von einem einzelnen Finger über zwei Finger ... bis hin zu fünf Fingern ansteigt, die anzutreibende Antriebsachse derart bestimmt, dass die anzutreibende Antriebsachse von der Seite der Basis 25 des Roboters 22 zu der Handseite, also von der ersten Achse J21 zu der zweite Achsen J22 ... zu der fünften Achse J25 übergeht.
  • Insbesondere wird, wie in 32(1) gezeigt, die erste Achse J21 basierend auf einer Ziehbedienung durch einen einzelnen Finger in der seitlichen Richtung angetrieben. Wie in 32(2) gezeigt wird die zweite Achse J22 basierend auf einer Ziehbedienung durch zwei Finger in der seitlichen Richtung angetrieben. Wie in 32(3) gezeigt wird die dritte Achse J23 basierend auf einer Ziehbedienung durch drei Finger in der seitlichen Richtung angetrieben. Wie in 32(4) gezeigt wird die vierte Achse J24 basierend auf einer Ziehbedienung durch vier Finger in der seitlichen Richtung angetrieben. Wie in 32(5) gezeigt wird die fünfte Achse J25 basierend auf einer Ziehbedienung durch fünf Finger in der seitlichen Richtung angetrieben.
  • Zudem, wie in der 32(6) gezeigt, wird die sechste Achse J26 basierend auf einer Ziehbedienung durch einen einzelnen Finger in der vertikaler Richtung angetrieben. Das Antreiben der sechsten Achse J26 kann durch eine Ziehbedienung durch zwei Finger in Umfangsrichtung durchgeführt werden, wie in 31(4) gezeigt. In diesem Fall kann die Ziehbedienung durch zwei Finger in der Umfangsrichtung zum Beispiel derart sein, dass ein Kreis von zwei Fingern gezogen wird, oder derart, dass ein Finger ortsfest gehalten wird und von dem anderen Finger ein Kreis gezogen wird. Zudem kann die Bedienung durch eine Hand erfolgen. Alternativ kann die Bedienung durch beide Hände erfolgen. Zudem kann die sechste Achse J26 basierend auf einer Ziehbedienung durch drei Finger in der Umfangsrichtung angetrieben werden, gezeigt in 31(6).
  • Auf diese Weise, weil die Anzahl der Finger der Ziehbedienung der Nummer der anzutreibenden Antriebsachse entspricht, können die Wahrnehmung bzw. das Bewusstsein des Nutzers und die Antriebsachse in Einklang gebracht werden. Deshalb kann der Nutzer auch gemäß einer Ausführungsform wie dieser, wenn ein Achssystem angetrieben wird, die anzutreibende Achse auf einfache Weise von dem Bedienmodus durch den Nutzer selbst ableiten. Das heißt, dass die Antriebsachse, die der Bedienung entspricht, auf einfache Weise gekannt werden kann.
  • Zudem, als Folge, kann der Nutzer die sechste Achse J26 antreiben, also die Drehbedienung der Hand durch eine Ziehbedienung mit einem einzelnen Finger in der Vertikalrichtung durchführen. Wie oben beschrieben wird die manuelle Bedienung oftmals zur Feinabstimmung der Position und Haltung der Hand des Roboters verwendet. Deshalb wird bei der manuellen Bedienung die sechste Achse J26, die der Hand am nächsten ist, häufig benutzt und muss komplexe Aktionen ausführen. Deshalb, weil das Antreiben der sechsten Achse J26 mit der Ziehbedienung durch einen einzelnen Finger assoziiert ist, welche einfach ist und eine präzise Bedienung ermöglicht, kann der Nutzer die Drehaktion der Hand, die bei der manuellen Bedienung häufig benutzt wird, einfacher und präziser durchführen. Im Ergebnis wird die Verbesserung der Bedienbarkeit erzielt und eine Abnahme der Sicherheit kann unterdrückt werden. Zudem kann die für das Einprogrammieren benötigte Zeit verkürzt werden.
  • Wenn das Antreiben der sechsten Achse J26 mit der Ziehbedienung in Umfangsrichtung entspricht, kann der Nutzer die Drehaktion der Anlenkung des Roboters durch das Antreiben der sechsten Achse J26 auf einfache Weise mit der Ziehbedienung in der Umfangsrichtung in Zusammenhang bringen. Deshalb kann im Ergebnis eine intuitivere Bedienung durchgeführt werden.
  • (Zwölfte Ausführungsform)
  • Als nächstes wird eine zwölfte Ausführungsform anhand von 33 beschrieben. Die zwölfte Ausführungsform ist ein Beispiel, bei dem eine so-genannte Gestenbedienung auf die Bedienung eines Achssystems oder eines Handsystems des vier-achsigen Horizontal-Gelenkarmroboters 2 angewandt wird. Gemäß der vorliegenden Ausführungsform kann der Nutzer das Achssystem oder Handsystem durch Verändern der Richtung der Ziehbedienung bedienen. Gemäß der vorliegenden Ausführungsform detektiert die Bedienauswahl-Detektionseinheit 18 eine Berührbedienung auf dem Berührbedienfeld 17. Bei einem von der Aktionsbefehl-Erzeugungseinheit durchgeführten Bestimmungsprozess handelt es sich um einen Prozess zum Bestimmen einer anzutreibenden Antriebsachse oder einen Aktionsmodus, wenn es sich bei der von der Bedienauswahl-Detektionseinheit 18 detektierten Berührbedienung um eine Ziehbedienung handelt.
  • Die Aktionsbefehl-Erzeugungseinheit 16 weist die Richtungen der Ziehbedienung durch einen einzelnen Finger derart zu, so dass es sich für jede Antriebsachse oder Antriebsmodus des Roboters 2 um unterschiedliche Richtungen handelt. In diesem Fall, bei einer Aktion des Handsystems, wird jede Antriebsachse einzeln angetrieben. Zudem werden bei einer Aktion des Achssystems die Horizontalbewegungsaktion, die Vertikalbewegungsaktion und die Drehaktion durchgeführt. Die Bewegungsrichtungen des Roboters sind die X-Richtung oder die Y-Richtung in der Horizontalbewegungsaktion, die Z-Richtung in der Vertikalbewegungsaktion, und die Rz-Richtung in der Drehaktion.
  • Als nächstes wird ein spezifisches Beispiel anhand von 33 beschrieben. Bei der Beschreibung gemäß der vorliegenden Ausführungsform dient die Vertikalrichtung auf dem Berührbedienfeld, oder insbesondere die Richtung, die durch eine einfach strichgepunktete Linie D in 33(1) bis (4) angedeutet wird, als Referenz. Gemäß der vorliegenden Ausführungsform wird das Antreiben jeder Achse bei der Aktion des Achssystems oder die Bewegung in jeder Richtung bei der Aktion des Handsystems einer Bedienung in einer Richtung zugewiesen, die um ein 45° Intervall bezüglich der Referenz D gedreht ist. Das heißt, wie in 33(1) gezeigt, dass das Antreiben der ersten Achse J11 bei der Aktion eines Achssystems oder der Bewegung in der X-Richtung bei der Aktion des Handsystems basierend auf einer Ziehbedienung in einer Richtung entlang der Referenz D durchgeführt wird. Wie in 33(2) gezeigt wird das Antreiben der zweiten Achse J12 bei der Aktion eines Achssystems oder die Bewegung in der Y-Richtung bei der Aktion des Handsystems basierend auf einer Ziehbedienung in einer Richtung durchgeführt, die um 45° im Uhrzeigersinn bezüglich der Referenz D gedreht ist.
  • Wie in 33(3) gezeigt, wird das Antreiben der dritten Achse J13 bei der Aktion eines Achssystems oder der Bewegung in der Z-Richtung (Richtung senkrecht zu der Aktionsbezugsebene P) bei der Aktion des Handsystems basierend auf einer Ziehbedienung in einer Richtung durchgeführt, die um 45° entgegen dem Uhrzeigersinn bezüglich der Referenz D gedreht ist. Wie in 33(4) gezeigt, wird das Antreiben der vierten Achse J14 bei der Aktion eines Achssystems oder der Bewegung in der Rz-Richtung (Drehaktion) bei der Aktion des Handsystems basierend auf einer Ziehbedienung in einer Richtung senkrecht zur Referenz D durchgeführt, also in der seitlichen Richtung bezogen auf das Berührbedienfeld 17.
  • Die Richtung der Ziehbedienung bezüglich der Referenz D, oben beschrieben, muss nicht exakt sein. Ein bestimmter Fehlergrad ist erlaubt. Zum Beispiel ist gemäß der oben beschriebenen Ausführungsform bezüglich der Ziehbedienungen, die durch den Nutzer tatsächlich durchgeführt werden, ein Fehler von 22,5° sowohl im Uhrzeigersinns als auch entgegen dem Uhrzeigersinn für die Richtungen der Ziehbedienungen zum Antreiben jeder Antriebsachse oder zum Ermöglichen jeder durchzuführenden Aktion erlaubt. Zum Beispiel bestimmt die Aktionsbefehl-Erzeugungseinheit 16 eine Ziehbedienung in einer Richtung, die um 15° im Uhrzeigersinn oder entgegen dem Uhrzeigersinn bezogen auf die Referenz D als eine Bedienung zum Antreiben der ersten Achse J11 beim Bedienen des Achssystems und als eine Bedienung zum Bewegung in der X-Richtung beim Bedienen des Handsystems.
  • Im Ergebnis kann der Nutzer die Antriebsachse des zu bedienenden Roboters 2 oder den Aktionsmodus auswählen, also die Art der Aktion des Roboters 2 durch Verändern der Richtung der Ziehbedienung. Deshalb muss der Nutzer keine komplizierten Bedienungen zum Auswählen der Art der Aktion lernen, und die Bedienung wird einfacher. Im Ergebnis kann die manuelle Bedienung des vier-achsigen Roboters 2 durch Berührbedienung verwirklicht werden, ohne eine Abnahme der Sicherheit zu verursachen.
  • Das in dem Handprogrammiergerät 4 verwendete Berührbedienfeld 17 wie dieses weist typischerweise eine rechteckige Form auf. Deshalb wird angenommen, dass es dem Nutzer einfacher erscheint, eine Ziehbedienung in Richtungen entlang der Seiten durchzuführen, die das rechteckige Berührbedienfeld 17 umgeben, also der Vertikalrichtung und der seitlichen Richtung bezogen auf das Berührbedienfeld 17, verglichen mit Ziehbedienungen in anderen Richtungen. Gemäß der vorliegenden Ausführungsform, bei der Aktion des Achssystems, ist das Antreiben der ersten Achse J11, wodurch die Hand deutlich bewegt wird, der Vertikalrichtung zugewiesen, in welcher der Nutzer es einfach findet, zu bedienen. Deshalb wird die Bedienung einfacher.
  • Zudem sind die Zwecke der manuellen Bedienung oftmals die Feinanpassungen der Position und Haltung der Hand des Roboters 2. Deshalb wird während der manuellen Bedienung hohe Präzision von dem Antreiben der vierten Achse J14, welche der Hand des Roboters 2 am nächsten ist, gefordert, also der Drehaktion der Hand. Gemäß der vorliegenden Ausführungsform ist das Antreiben der vierten Achse J14 oder die Bewegung in der Rz-Richtung (Drehaktion) der seitlichen Richtung zugewiesen, in welcher der Nutzer es einfach findet, zu bedienen. Deshalb wird die Bedienung einfacher. Die Zuweisung der Richtungen der Ziehbedienung ist nicht auf die oben beschriebenen Richtungen beschränkt. Die Zuweisung kann zweckmäßig basierend auf dem Kenntnisstand des Nutzers, der beabsichtigten Verwendung des Roboters, und dergleichen, verändert werden.
  • Zudem ist im Ergebnis die Anzahl der Finger kein Problem. Deshalb kann der Nutzer eine Eingabebedienung mit einem einzelnen Finger durchführen. Das heißt, dass das Robotersystems 1 einen Vorteil bereitstellt, wobei der Nutzer Bedienungen auf einfache Weise mit einem einzelnen Finger durchführen kann. Dieser Vorteil ist ebenfalls wirksam, wenn eine Zeigevorrichtung wie etwa ein Berührstift oder ein Berührschreibstift verwendet wird. Das heißt, wenn eine Bedienumgebung eines Roboters für den industriellen Einsatz in Betracht gezogen wird, dass der der Nutzer Handschuhe tragen kann, um die Sicherheit des Nutzers sicherzustellen, oder eine Substanz wie etwa Schmieröl kann an der Hand und Fingern des Nutzers anhaften. In diesem Fall kann es sein, dass die Roboterbedienungsvorrichtung die Berührbedienung nicht genau erkennen kann, selbst wenn der Nutzer eine Berührbedienung mit seiner Hand und Fingern durchführt. Hingegen kann der Nutzer eine genaue Berührbedienung mittels der oben beschriebenen Zeigevorrichtung durchführen, selbst wenn der Nutzer Handschuhe trägt oder Schmieröl oder dergleichen an den Händen oder Fingern des Nutzers anhaftet. Auf diese Weise wird gemäß der vorliegenden Ausführungsform ein Vorteil dahingehend erzielt, dass eine Zeigevorrichtung auf einfache Weise bei der manuellen Bedienung des Roboters 2 verwendet werden kann.
  • (Dreizehnte Ausführungsform)
  • Als nächstes wird eine dreizehnte Ausführungsform anhand von 34 beschrieben. Die dreizehnte Ausführungsform unterscheidet sich von der oben beschriebenen zwölften Ausführungsform dahingehend, dass der zu bedienende Roboter der sechs-achsige, Vertikal-Gelenkarmroboter 22 ist. Das heißt, dass die dreizehnte Ausführungsform ein Beispiel ist, bei dem eine so-genannte Gestenbedienung auf die Bedienung eines Achssystem oder eines Handsystems des sechs-achsigen Vertikal-Gelenkarmroboters angewandt wird. Auch gemäß der vorliegenden Ausführungsform kann der Nutzer das Achssystem oder Handsystem durch Verändern der Richtung der Ziehbedienung bedienen. In diesem Fall sind zusätzlich zu der X-Richtung, der Y-Richtung und der Rz-Richtung gemäß der zwölften Ausführungsform eine Rx-Richtung und eine Ry-Richtung in der Aktion des Handsystems enthalten.
  • Ein spezifisches Beispiel wird anhand von 34 beschrieben. Bei der Beschreibung gemäß der vorliegenden Ausführungsform dient die Vertikalrichtung auf dem Berührbedienfeld, oder insbesondere die Richtung, die durch eine einfach strichgepunktete Linie D in 34(1) bis (6) angedeutet wird, als Referenz. Gemäß der vorliegenden Ausführungsform wird das Antreiben jeder Achse bei der Aktion des Achssystems oder die Bewegung in jeder Richtung bei der Aktion des Handsystems einer Bedienung in einer Richtung zugewiesen, die um ein 30° Intervall bezüglich der Referenz D gedreht ist. Das heißt, wie in 33(1) gezeigt, dass das Antreiben der ersten Achse J21 bei der Aktion eines Achssystems oder der Bewegung in der Z-Richtung bei der Aktion des Handsystems basierend auf einer Ziehbedienung in einer Richtung entlang der Referenz D durchgeführt wird. Wie in 34(2) gezeigt wird das Antreiben der zweiten Achse J22 bei der Aktion eines Achssystems oder die Bewegung in der X-Richtung bei der Aktion des Handsystems basierend auf einer Ziehbedienung in einer Richtung durchgeführt, die um 30° im Uhrzeigersinn bezüglich der Referenz D gedreht ist.
  • Wie in 34(3) gezeigt wird das Antreiben der dritten Achse J23 bei der Aktion eines Achssystems oder der Bewegung in der Y-Richtung bei der Aktion des Handsystems basierend auf einer Ziehbedienung in einer Richtung durchgeführt, die um 60° im Uhrzeigersinn bezüglich der Referenz D gedreht ist. Das Antreiben der vierten Achse J24 bei der Aktion eines Achssystems oder der Bewegung in der Rx-Richtung bei der Aktion des Handsystems wird basierend auf einer Ziehbedienung in einer Richtung, die um 30° entgegen dem Uhrzeigersinn gedreht ist, bezogen auf die Referenz D, durchgeführt. Das Antreiben der fünften Achse J25 bei der Aktion eines Achssystems oder der Bewegung in der Ry-Richtung bei der Aktion des Handsystems wird basierend auf einer Ziehbedienung in einer Richtung, die im 60° entgegen dem Uhrzeigersinn gedreht ist, bezogen auf die Referenz D, durchgeführt. Das Antreiben der sechsten Achse J26 bei der Aktion eines Achssystems oder der Bewegung in der Rz-Richtung bei der Aktion des Handsystems wird basierend auf einer Ziehbedienung in einer Richtung senkrecht zu der Referenz D durchgeführt.
  • Im Ergebnis können Arbeitsauswirkungen ähnlich denjenigen gemäß der oben beschriebenen zwölften Ausführungsform bei der Bedienung des sechs-achsigen Vertikal-Gelenkarmroboters 22 erzielt werden.
  • Das heißt, bezüglich der Aktion eines Achssystems, dass Ziehbedienungen in der Vertikalrichtung und der seitlichen Richtung, die auf einfache Weise durchgeführt werden können, den Bedienungen der ersten Achse J21 und der sechsten Achse J26 zugewiesen werden. Das Antreiben der ersten Achse J21 beeinflusst die Bewegung der Hand deutlich. Bei der sechsten Achse J26 handelt es sich um eine Achse, die bei der manuellen Bedienung häufig verwendet wird. Zudem erfordert die Bedienung der sechsten Achse J26 eine genaue Anpassung. Weil die Ziehbedienungen in der Vertikalrichtung und der seitlichen Richtungen, die auf einfache Weise durchgeführt werden, mit der ersten Achse J21 und der sechsten Achse J26 assoziiert sind, wird deshalb die Verbesserung der Bedienbarkeit erzielt.
  • In diesem Fall sind die Bedienungen der zweiten Achse J22 bis zur fünften Achse J25 Ziehbedienungen in schrägen Richtungen zugewiesen. Eine Ziehbedienung in einer schrägen Richtung wird als geringfügig schlechter in punkto Bedienbarkeit verglichen mit den Ziehbedienungen in der Vertikalrichtung und der seitlichen Richtung betrachtet. Jedoch wird bezüglich der Bedienungen der zweiten Achse J22 bis zur fünften Achse J25 davon ausgegangen, dass die Auswirkung der Ziehbedienungen in den schrägen Richtungen aus den folgenden Gründen gering ist.
  • Das heißt, dass das Antreiben der zweiten Achse J22 und dasjenige der dritten Achse J23 Ziehbedienungen in zwei nebeneinanderliegenden schrägen Richtungen zugeordnet ist. Das heißt, dass das Antreiben der zweiten Achse J22 und dasjenige der dritten Achse J23 Ziehbedienungen in Richtungen zugeordnet ist, die um Winkel innerhalb einer Spanne von 0° bis 90° im Uhrzeigersinn bezüglich der Referenz D gedreht sind. In diesem Fall kann es zu einer fehlerhaften Bedienung kommen, weil die Bedienrichtungen für die zweite Achse J22 und die dritte Achse J23 ähnlich sind. Hierbei dienen sowohl das Antreiben der zweiten Achse J22 als auch das Antreiben der dritten Achse J23 zum Bewegen der Hand des Roboters 22 in der Z-Richtung (Vertikalrichtung). Deshalb sind die Bewegungsrichtungen beider ähnlich. Folglich ist das Risiko gering, dass es sich bei der Aktion des Roboters um eine vom Nutzer unbeabsichtigte Handlung handelt, gering, selbst wenn der Nutzer die Bedienungen für die zweite Achse J22 und die dritte Achse J23 verwechseln sollte, weil beide die Hand des Roboters 22 in die Z-Richtung bewegen. Im Ergebnis ist die Gefahr, wenn eine fehlerhafte Bedienung bezüglich der zweiten Achse J22 und der dritten Achse J23 durchgeführt werden, verglichen mit denjenigen bezüglich der ersten Achse J21 und der sechsten Achse J26 geringer.
  • Das Antreiben der vierten Achse J24 und dasjenige der fünften Achse J25 ist zudem Ziehbedienungen in zwei nebeneinanderliegenden schrägen Richtungen zugeordnet. In diesem Fall ist das Antreiben der vierten Achse J24 und das der fünften Achse J25 Ziehbedienungen in Richtungen zugeordnet, die um Winkel innerhalb einer Spanne von 0° bis 90° entgegen dem Uhrzeigersinn bezüglich der Referenz D gedreht sind. In diesem Fall kann der Nutzer eine fehlerhafte Bedienung durchführen, weil die Bedienrichtungen für die vierte Achse J24 und die fünfte Achse J25 ähnlich sind.
  • Hierbei ist die Bewegungsmenge der Hand des Roboters 22 verglichen mit denjenigen der ersten Achse J21 bis zur dritten Achse J23 kleiner, selbst wenn die vierte Achse J24 oder die fünfte Achse J25 angetrieben werden. Zudem dienen die vierte Achse J24 und die fünfte Achse J25 vielmehr hauptsächlich zur Durchführung der Feinabstimmung denn zur deutlichen Bewegung der Hand des Roboters 22. Deshalb ist bezüglich der vierten Achse J24 oder der fünften Achse J25 das Risiko, dass eine große Bedienung eingegeben wird, überhaupt gering. Deshalb sind die Gefahren einer fehlerhaften Bedienung verglichen mit derjenigen der ersten Achse J21 und dergleichen geringer, selbst wenn der Nutzer die Bedienungen für die vierte Achse J24 und die fünfte Achse J25 verwechseln sollte, weil die eingegebene Bewegungsmenge ohnehin klein ist und die Bewegungsmenge der Hand klein ist, selbst wenn eine Aktion basierend auf einer fehlerhaften Bedienung ausgeführt wird.
  • Zudem, bezüglich der Aktion des Handsystems, wird die Aktion in der Z-Richtung der Ziehbedienung in der Vertikalrichtung zugeordnet. Wie oben beschrieben wird die Ziehbedienung in der Vertikalrichtung auf einfache Weise mit der Bewegung der Hand des Roboters in der Vertikalrichtung (Z-Richtung) assoziiert. Im Ergebnis kann der Nutzer die von dem Nutzer selbst durchgeführte Ziehbedienung mit der Bewegungsrichtung der Hand des Roboters 22 in Einklang bringen. Deshalb ist die Bedienbarkeit vorteilhaft.
  • Die Aktionen in der X-Richtung und der Y-Richtung sind Ziehbedienungen in zwei nebeneinanderliegenden schrägen Richtungen zugeordnet. Das heißt, dass die Aktionen in der X-Richtung und der Y-Richtung Ziehbedienungen in Richtungen zugeordnet sind, die um Winkel innerhalb einer Spanne von 0° bis 90° im Uhrzeigersinn bezogen auf die Referenz D gedreht sind. In diesem Fall kann es zu einer fehlerhaften Bedienung kommen, weil die Bedienungsrichtungen für die X-Richtung und die Y-Richtung ähnlich sind. Jedoch weist die Ziehbedienung, welcher die Aktion in der X-Richtung zugeordnet ist, verglichen mit Komponenten in der seitlichen Richtung mehr Komponenten in der Vertikalrichtung auf. Wie oben beschrieben assoziiert der Nutzer die Bedienung in der X-Richtung auf einfache Weise mit der Ziehbedienung in der Vertikalrichtung. Hingegen weist die Ziehbedienung, welcher die Aktion in der Y-Richtung zugeordnet ist, verglichen mit Komponenten in der Vertikalrichtung mehr Komponenten in der seitlichen Richtung auf. Wie oben beschrieben assoziiert der Nutzer die Bedienung in der Y-Richtung auf einfache Weise mit der Ziehbedienung in der seitlichen Richtung. Im Ergebnis kann das Risiko, dass die Aktion in der X-Richtung mit der Aktion in der Y-Richtung verwechselt wird, extrem gering gehalten werden.
  • Zudem sind die Aktionen in der Rx-Richtung und der Ry-Richtung Ziehbedienungen in zwei nebeneinanderliegenden schrägen Richtungen zugeordnet. Das heißt, dass die Aktionen in der Rx-Richtung und der Ry-Richtung Ziehbedienungen in Richtungen zugeordnet sind, die um Winkel innerhalb einer Spanne von 0° bis 90° gegen Uhrzeigersinn bezogen auf die Referenz D gedreht sind. In diesem Fall wird eine Ziehbedienung in einer schrägen Richtung in puncto Bedienbarkeit als etwas schlechter betrachtet verglichen mit Ziehbedienungen in der Vertikalrichtung und der seitlichen Richtung. Bezüglich der Aktionen in der Rx-Richtung und der Ry-Richtung ist jedoch die Häufigkeit der Verwendung während der manuellen Bedienung verglichen mit anderen Aktionen gering. Deshalb sind die Auswirkungen auf die Gesamtbedienbarkeit gering, selbst wenn die Aktionen in der Rx-Richtung und der Ry-Richtungen Ziehbedienungen in der schrägen Richtung zugeordnet sind. Aus den oben genannten Gründen werden gemäß der vorliegenden Ausführungsform die Bedienungen für jede Aktion einfacher. Im Ergebnis kann die manuelle Bedienung des sechs-achsigen Roboters 22 durch Berührbedienung verwirklicht werden, ohne eine Abnahme der Sicherheit zu verursachen.
  • (Vierzehnte Ausführungsform)
  • Als nächstes wird eine fünfzehnte Ausführungsform anhand 35 und 36 beschrieben.
  • Seit den letzten Jahren sind kostengünstige Vorrichtungen wie sogenannte Smartphones und Tablet PCs (PCs) weit verbreitet (im Folgenden als Smartgeräte bezeichnet). Falls dieses kostengünstige Smartgerät als Vorrichtung zum Bedienen eines Roboters (Handprogrammiergerät) verwendet werden kann, ist der Einsatz eines teuren, dedizierten Handprogrammiergeräts nicht mehr erforderlich. Deshalb führt dies ebenfalls zur Kostensenkung. Solche Smartgeräte werden mit einem Berührbedienfeld als Hauptschnittstelle bereitgestellt. In Folge dessen, dass ein Nutzer seinen Finger auf dem Berührbedienfeld laufen lässt, kann eine gleichzeitige, zweidimensionale Eingabe (X-Y Ebene) erfolgen. Unterdessen werden auf der industriellen Schaubühne der vier-achsige, Horizontal-Gelenkarmroboter 2 und der sechs-achsige, Vertikal-Gelenkarmroboter 22, wie die oben beschriebenen, oftmals verwendet.
  • In diesem Fall handelt es sich bei den für die manuelle Bedienung erforderlichen Bedieneingabearten um vier Arten für den vier-achsigen Roboter 2 und sechs Arten für den sechs-achsigen Roboter 22. Deshalb wird die Frage aufgebracht, wie die Bedieneingabe der zwei Bewegungsarten zu handhaben ist, um ein Smartgerät als Roboterbedienungsvorrichtung zu verwenden. Hierbei wird gemäß der vorliegenden Ausführungsform beim manuellen Bedienen des Roboters 2 oder 22 ein Umschalten durchgeführt zwischen einer Bedienung für eine Antriebsachse oder einen Aktionsmodus, der zu der Position der Handspitze des Roboters 2 oder 22 (Hauptbedienung) beiträgt, und einer Bedienung für eine Antriebsachse oder einen Aktionsmodus, der zu der Haltung der Handspitze des Roboters 2 oder 22 beiträgt (Nebenbedienung).
  • Mit anderen Worten handelt es sich, in der Aktion jedes Achssystems des vier-achsigen Roboters 2, gezeigt in 1 und dergleichen, bei den Antriebsachsen, die zu der Handspitzenposition des Roboters 2 beitragen, um die erste Achse J11, die zweite Achse J12, und die dritte Achse J13. Die Antriebsachse, die zu der Handspitzenhaltung des Roboters 2 beiträgt, ist die vierte Achse J14. Das heißt, wie in 35 gezeigt, dass es sich bei der Aktion jedes Achssystems des vier-achsigen Roboters 2 bei der Hauptbedienung um eine Bedienung zum Antreiben der ersten Achse J11, der zweiten Achse J12, und der dritten Achse J13 handelt. Zudem handelt es sich bei der Nebenbedienung um eine Bedienung zum Antreiben der vierten Achse J14.
  • Zudem, bei der Aktion des Handsystems des vier-achsigen Roboters 2, gezeigt in 1 und dergleichen, handelt es sich bei den Aktionsmodi, die zu der Handspitzenposition des Roboters 2 beitragen, um Bewegungen in der X-Richtung, der Y-Richtung, und der Z-Richtung. Der Aktionsmodus, der zu der Handspitzenhaltung des Roboters 2 beiträgt, ist eine Bewegung in die Rz-Richtung. Das heißt, wie in 35 gezeigt, dass es sich in der Aktion des Handsystems des vier-achsigen Roboters 2 bei der Hauptbedienung um eine Bedienung zum Bewegen der Hand des Roboters 2 in der X-Richtung, der Y-Richtung, und der Z-Richtung handelt. Zudem handelt es sich bei der Nebenbedienung um eine Bedienung zum Bewegen der Hand des Roboters 2 in der Rz-Richtung.
  • Auf ähnliche Weise, bei der Aktion jedes Achssystems des sechs-achsigen Roboters 22, gezeigt in 10 und dergleichen, handelt es sich bei den Antriebsachsen, die zu der Handspitzenposition des Roboters 22 beitragen, um die ersten Achse J21, der zweite Achse J22, und die dritte Achse J23. Die Antriebsachsen, die zu der Handspitzenhaltung des Roboters 22 beitragen, sind die vierte Achse J24, die fünfte Achse J25 und die sechste Achse J26. Das heißt, bei der Aktion jedes Achssystems des sechs-achsigen Roboters 22, dass es sich bei der Hauptbedienung um eine Bedienung zum Antreiben der ersten Achse J21, der zweiten Achse J22, und der dritten Achse J23 handelt. Bei der Nebenbedienung handelt es sich um eine Bedienung zum Antreiben der vierten Achse J24, der fünften Achse J25 und der sechsten Achse J26.
  • Zudem, in der Aktion des Handsystems des sechs-achsigen Roboters 22 gezeigt in 10 und dergleichen, handelt es sich bei den Aktionsmodi, die zu der Handspitzenposition des Roboters 2 beitragen, um Bewegungen in der X-Richtung, der Y-Richtung, und der Z-Richtung. Die Aktionsmodi, die zu der Handspitzenhaltung des Roboters 2 beitragen, sind Bewegungen in die Rx-Richtung, der Ry-Richtung und der Rz-Richtung. Das heißt, dass es sich in der Aktion des Handsystems des sechs-achsigen Roboters 22 bei der Hauptbedienung um eine Bedienung zum Bewegen der Hand des Roboters 22 in der X-Richtung, der Y-Richtung, und der Z-Richtung handelt. Zudem handelt es sich bei der Nebenbedienung um eine Bedienung zum Bewegen der Hand des Roboters 22 in der Rx-Richtung, der Ry-Richtung und der Rz-Richtung.
  • Wie in 36 gezeigt ist das Handprogrammiergerät 4 gemäß der vorliegenden Ausführungsform mit einem ersten Knopf 41 und einem zweiten Knopf 42 bereitgestellt, zusätzlich zu der Konfiguration des Handprogrammiergeräts 4 gemäß der oben beschriebenen Ausführungsformen. Bei dem ersten Knopf 41 und dem zweiten Knopf 42 handelt es sich um physische Knöpfe. Der erste Knopf 41 und der zweite Knopf 42 können Knöpfe zum Erhöhen oder Verringern der Geräuschlautstärke, die von dem Handprogrammiergerät 40 erzeugt wird, sein. In diesem Fall führt die Steuereinheit 14 ein Programm für eine Roboterbedienungsvorrichtung aus. Im Ergebnis werden dem ersten Knopf 41 und dem zweiten Knopf 42 eine Funktion zum Umschalten zwischen der Hauptbedienung und der Nebenbedienung gegeben. Folglich wirken der erste Knopf 41 und der zweite Knopf 42 als Umschalteinheit, die ein Umschalten zwischen der Hauptbedienung und der Nebenbedienung ermöglichen.
  • Zum Beispiel entspricht der erste Knopf 41, auf dem ein „+“-Symbol angebracht ist, der Hauptbedienung. Der zweite Knopf 42, auf dem ein „–“ Symbol angebracht ist, entspricht der Nebenbedienung. In diesem Fall, wenn eine Bedienung des ersten Knopfes 41 detektiert wird, bestimmt die Steuereinheit 14, dass es sich bei der anschließend von der Berührbedienungs-Detektionseinheit 15 detektierten Berührbedienung um die Hauptbedienung handelt. Wenn hingegen die Bedienung des zweiten Knopfes 42 detektiert wird, bestimmt die Steuereinheit 14, dass es sich bei einer anschließend durch die Berührbedienungs-Detektionseinheit 15 detektierten Berührbedienung um die Nebenbedienung handelt. Auf diese Weise kann der Nutzer die Eingabe zwischen der Hauptbedienung und der Nebenbedienung durch Bedienen der ersten Knopfes 41 und des zweiten Knopfes 42 wechseln.
  • Die Umschalteinheit ist nicht auf diejenige beschränkt, die in Kombination mit einer anderen Funktion verwendet wird, wie etwa der oben beschriebene erste Knopf 41 und der zweite Knopf 42. Bei der Umschalteinheit kann es sich um einen dedizierten physischen Knopf zum Umschalten zwischen der Hauptbedienung und der Nebenbedienung handeln. Zudem kann die Umschalteinheit zum Beispiel diejenige sein, die an dem Berührbedienfeld 17 angezeigt ist. Als Beispiel einer Umschalteinheit, die an dem Berührbedienfeld 17 angezeigt wird, kann eine knopfförmige Umschalteinheit oder ein sogenannter Schieberegler bzw. Schiebeschalter berücksichtigt werden, die zwischen der Hauptbedienung und der Nebenbedienung durch Schieben in eine der Richtungen umschaltet.
  • Wie in 36 gezeigt ist das Berührbedienfeld 17 in einem ersten Bereich 171 und einen zweiten Bereich 172 aufgeteilt. Der erste Bereich 171 und der zweite Bereich 172 sind dadurch, dass die Steuereinheit 14 ein Roboterbedienungsprogramm ablaufen lässt, virtuell auf dem Berührbedienfeld 17 gebildet. Wie in 36 gezeigt, wenn sich das rechteckige Berührbedienfeld 17 in einer seitlichen Längshaltung befindet, ist gemäß der ersten Ausführungsform der erste Bereich 171 auf der linken Seite des Berührbedienfelds 17 positioniert. Der zweite Bereich 172 ist auf der rechten Seite des Berührbedienfelds 17 positioniert. Das heißt, dass es sich auf dem Berührbedienfeld 17 bei einem linksseitigen Abschnitt von der virtuellen Grenzlinie E um den ersten Bereich 171 handelt, und ein Abschnitt rechtsseitig der Grenzlinie E ist der zweite Bereich 172.
  • Die Anordnung des ersten Bereichs 171 und des zweiten Bereichs 172 ist darauf nicht beschränkt. Wenn sich das Berührbedienfeld beispielsweise in einer vertikalen Längshaltung befindet, wenn das Handprogrammiergerät 4 also von dem Zustand in 35 um 90° gedreht ist, ist der erste Bereich 171 in einem oberen Abschnitt der Berührbedienfelds 17 angeordnet. Der zweite Bereich 172 ist in einem unteren Abschnitt auf dem Berührbedienfeld 17 positioniert. Zudem können die Positionen des ersten Bereichs 171 und es zweiten Bereichs 172 vertauscht werden. In diesem Fall kann das Handprogrammiergerät 4 seine eigene Haltung durch die Haltungsdetektionseinheit 19 bestimmen, wie etwa einem Gyrosensor oder einem Beschleunigungssensor.
  • Bei dem ersten Bereich 171 handelt es sich um einen Bereich, in dem Bedienungen in zwei senkrechte Richtungen durch die Berührbedienungs-Detektionseinheit 15 detektiert werden. In diesem Fall handelt es sich in dem ersten Bereich bei einer durch den Pfeil A1 angedeuteten Richtung nach oben um die Vertikalrichtung. Bei einer durch den Pfeil A2 angedeuteten Richtung nach unten handelt es sich um die Vertikalrichtung. Zudem handelt es sich bei einer durch den Pfeil B1 angedeuteten Richtung nach rechts um die seitliche Richtung. Bei einer durch den Pfeil B2 angedeuteten Richtung nach links handelt es sich um die seitliche Richtung. Bei dem zweiten Bereich 172 handelt es sich um einen Bereich, in dem eine Bedienung in eine Richtung, in diesem Fall der Vertikalrichtung, durch die Berührbedienungs-Detektionseinheit 15 detektiert werden kann.
  • Das heißt, dass es sich gemäß der vorliegenden Ausführungsform bei dem ersten Bereich 171 um einen Bereich handelt, in welchem zwei Arten von Ziehbedienungen in der Vertikalrichtung und seitlichen Richtungen detektiert werden können. Zudem handelt es sich bei dem zweiten Bereich 172 um einen Bereich, in welchem eine Art von Ziehbedienung in der Vertikalrichtung detektiert werden kann. Deshalb ist gemäß der vorliegenden Ausführungsform der erste Bereich 171 größer als der zweite Bereich 172. Abhängig von der notwendigen Anzahl von Bedieneingaben können auch in dem zweiten Bereich 172 zwei Arten von Ziehbedienungen in der Vertikalrichtung und seitlichen Richtung detektierbar gemacht werden, in einer dem ersten Bereich 171 ähnlichen Weise.
  • Die Aktionsbefehl-Erzeugungseinheit 16 erzeugt einen Aktionsbefehl für eine Antriebsachse oder einen Aktionsmodus, die unterschiedlich sind in den Fällen, wenn die durch die Berührbedienungs-Detektionseinheit 15 detektierte Ziehbedienung in dem ersten Bereich 171 durchgeführt wird und wenn die durch die Berührbedienungs-Detektionseinheit 15 detektierte Ziehbedienung in dem zweiten Bereich 172 durchgeführt wird. Das heißt, bezüglich der Hauptbedienung des vier-achsigen Roboters 2, entspricht die Ziehbedienung in der Vertikalrichtung (den Richtungen der Pfeile A1 und A2) in dem ersten Bereich 171 dem Antreiben der ersten Achse J11 in dem Achssystem oder Bewegung in der X-Richtung in dem Handsystem. Die Ziehbedienung in der seitlichen Richtung (den Richtungen der Pfeile B1 und B2) entspricht in dem ersten Bereich 171 dem Antreiben der zweiten Achse J12 in dem Achssystem oder Bewegung in der Y-Richtung in dem Handsystem. Die Ziehbedienung in der Vertikalrichtung (den Richtungen der Pfeile A1 und A2) in dem zweiten Bereich 172 entspricht dem Antreiben der dritten Achse J13 in dem Achssystem oder Bewegung in der Z-Richtung in dem Handsystem.
  • Zudem, bezüglich der Nebenbedienung des vier-achsigen Roboters 2, entspricht die Ziehbedienung in der seitlichen Richtung (die Richtungen der Pfeile B1 und B2) in dem ersten Bereich 171 dem Antreiben der vierten Achse J14 in dem Achssystem oder Bewegung in der Rz-Richtung in dem Handsystem. Bei dem vier-achsigen Roboter 2 ist die Bestimmung von vier Arten von Bedieneingaben ausreichend. Deshalb entsprechen die Ziehbedienung in der Vertikalrichtung in dem ersten Bereich 171 und Bedienungen in dem zweiten Bereich 172 bei der Nebenbedienung nicht einer Antriebsachse oder Aktionsmodus.
  • Zudem, bezüglich der Hauptbedienung des sechs-achsigen Roboters 22, entspricht die Ziehbedienung in der Vertikalrichtung (die Richtungen der Pfeile A1 und A2) in dem ersten Bereich 171 dem Antreiben der zweiten Achse J22 in dem Achssystem oder Bewegung in der X-Richtung in dem Handsystem. Die Ziehbedienung in der seitlichen Richtung (die Richtungen der Pfeile B1 und B2) in dem ersten Bereich 171 entspricht dem Antreiben der dritten Achse J23 in dem Achssystem oder Bewegung in der Y-Richtung in dem Handsystem. Die Ziehbedienung in der Vertikalrichtung (die Richtungen der Pfeile A1 und A2) in dem zweiten Bereich 172 entspricht dem Antreiben der ersten Achse J21 in dem Achssystem oder Bewegung in der Z-Richtung in dem Handsystem.
  • Zudem, bezüglich der Nebenbedienung des sechs-achsigen Roboters 22, entspricht die Ziehbedienung in der Vertikalrichtung (die Richtungen der Pfeile A1 und A2) in dem ersten Bereich 171 dem Antreiben der vierten Achse J24 in dem Achssystem oder Bewegung in der Rx-Richtung in dem Handsystem. Die Ziehbedienung in der seitlichen Richtung (die Richtungen der Pfeile B1 und B2) in dem ersten Bereich 171 entspricht dem Antreiben der fünften Achse J25 in dem Achssystem oder Bewegung in der Ry-Richtung in dem Handsystem. Die Ziehbedienung in der Vertikalrichtung (die Richtungen der Pfeile A1 und A2) in dem zweiten Bereich 172 entspricht dem Antreiben der sechsten Achse J26 in dem Achssystem oder Bewegung in der Rz-Richtung in dem Handsystem. Bei der Nebenbedienung des Achssystems, kann die Ziehbedienung in der Vertikalrichtung (die Richtungen der Pfeile A1 und A2) in dem ersten Bereich 171 dem Antreiben der fünften Achse J25 entsprochen werden. Die Ziehbedienung in der Vertikalrichtung (die Richtungen der Pfeile A1 und A2) in dem ersten Bereich 171 kann dem Antreiben der vierten Achse J24 entsprochen werden. In diesem Fall entspricht die Ziehbedienung in der Vertikalrichtung (die Richtungen der Pfeile A1 und A2) in dem zweiten Bereich 172 dem Antreiben der vierten Achse J24.
  • Gemäß der vorliegenden Ausführungsform kann der Nutzer zwischen der Hauptbedienung und der Nebenbedienung durch Bedienen des ersten Knopfs 41 und des zweiten Knopfs 42 wechseln, welche die Umschalteinheit darstellen. Im Ergebnis, während der manuellen Bedienung des Roboters 2 oder 22, kann der Nutzer klar erkennen, ob der Nutzer eine Bedienung zum Bestimmen der Handspitzenposition des Roboters 2 oder 22 durchführt oder ob er eine Bedienung zum Bestimmen der Haltung der Hand durchführt. Deshalb kann die fehlerhafte Bedienung, wie etwa, dass der Nutzer eine Bedienung zum Ändern der Position der Hand unabhängig von dem Versuch, die Haltung der Hand zu bestimmen, durchführt, unterdrückt werden. Im Ergebnis wird die Bedienbarkeit verbessert.
  • Zudem ist das Berührbedienfeld 17 in den ersten Bereich 171 und den zweiten Bereich 172 unterteilt. Bei dem ersten Bereich 171 handelt es sich um einen Bereich auf dem Berührbedienfeld 17, in welchem Bedienungen in zwei Richtungen, die zueinander senkrecht sind, durch die Berührbedienungs-Detektionseinheit 15 detektiert werden können. Bei dem zweiten Bereich handelt es sich um einen Bereich auf dem Berührbedienfeld 17, in welchem Bedienung in eine Richtung durch die Berührbedienungs-Detektionseinheit 15 detektiert werden kann. Mit anderen Worten kann die Aktionsbefehl-Erzeugungseinheit 16 insgesamt drei Arten von Ziehbedienungen durch Ziehbedienungen, die in zwei Richtungen an dem ersten Bereich 171 eingegeben werden, und eine Ziehbedienung in einer Richtung, die an dem zweiten Bereich 172 eingegeben wird, bestimmen. Zudem, bezüglich den Bereichen 171 und 172, kann das Umschalten zwischen der Hauptbedienung und der Nebenbedienung durchgeführt werden. Deshalb, aufgrund des Handprogrammiergeräts 4 wie diesem, kann manuelle Bedienung der Aktionen des Handsystems und der Aktionen des Achssystems sowohl von dem vier-achsigen Horizontal-Gelenkarmroboter 2 als auch dem sechs-achsigen Vertikal-Gelenkarmroboter 22 gehandhabt werden, die häufig auf dem industriellen Schauplatz eingesetzt werden.
  • (Fünfzehnte Ausführungsform)
  • Als nächstes wird eine fünfzehnte Ausführungsform anhand 37 und 38 beschrieben.
  • Gemäß der fünfzehnten Ausführungsform wird Bewegung in der Z-Richtung (Vertikalrichtung) basierend auf der Haltung des Handprogrammiergeräts 4 durchgeführt. Das heißt, dass das Handprogrammiergerät 4 gemäß der vorliegenden Ausführungsform die Haltungsdetektionseinheit 19 in 2 als Kippdetektionseinheit verwendet. Die Kippdetektionseinheit kann die Eingabe einer Kippbewegung durch den Nutzer durch Detektieren des Kippens des Berührbedienfelds 17 detektieren. Die Aktionsbefehl-Erzeugungseinheit 16 des Handprogrammiergeräts 4 kann einen Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung und einen Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung durchführen.
  • Der Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung ist ein Prozess zum Erzeugen eines Aktionsbefehls zum Bewegen der Hand des Roboters 2 oder 22 in einer Planar- bzw. Ebenenrichtung horizontal zu der Aktionsbezugsebene P des Roboters 2 oder 22 basierend auf der Berührbedienung, die durch die Berührbedienungs-Detektionseinheit 15 detektiert wurde. Der Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung ist ein Prozess zum Erzeugen eines Aktionsbefehls zum Bewegen der Hand des Roboters 2 oder 22 entlang einer Vertikalachsrichtung, die senkrecht zu der Aktionsbezugsebene P ist, basierend auf der Kippbedienung, die von der Haltungsdetektionseinheit 19 (Kippbedienungsdetektionseinheit) detektiert wurde.
  • Mit anderen Worten führt der Nutzer bei der Aktion des Handsystems beim Durchführen einer Bedienung zur Bewegung in der X-Richtung und der Y-Richtung (Ebenenbewegungsrichtung) eine Ziehbedienung in der Vertikalrichtung oder der seitlichen Richtung bezogen auf das Berührbedienfeld 17 durch. In diesem Fall, wie in 37 gezeigt, entspricht die Ziehbedienung in der Vertikalrichtung bezogen auf das Berührbedienfeld 17 Bewegungen des Roboters 2 oder 22 in der X-Richtung. Die Ziehbedienung in der seitlichen Richtung bezogen auf das Berührbedienfeld 17 entspricht Bewegung des Roboters 2 oder 22 in der Y-Richtung.
  • Zudem, wie in 37 und 38 gezeigt, werden die Schaltflächen 43 und 44, die von dem Nutzer betätigt werden können, auf dem Berührbedienfeld 17 angezeigt. Die Schaltflächen 43 und 44 sind in Positionen entsprechend beiden Händen des Nutzers angezeigt. In diesem Fall wird die Schaltfläche 43 in einer Position angezeigt, die für den Daumen der rechten Hand des Nutzers einfach zu bedienen ist, wie etwa dem unteren rechten Abschnitt des Berührbedienfelds 17. Zudem wird die Schalfläche 44 in einer Position angezeigt, die für den Daumen der linken Hand des Nutzers leicht zu bedienen ist, wie etwa dem linken unteren Abschnitt des Berührbedienfelds 17. Der Nutzer kippt das Handprogrammiergerät 4 hin zu der nahen Seite (Nutzerseite) oder der entfernten Seite (Seite gegenüberliegend dem Nutzer), oder anders gesagt führt eine Kippbedienung an dem Handprogrammiergerät 4 durch, während die Schaltflächen 43 und 44 mit beiden Händen berührbedient werden. Im Ergebnis bedient der Nutzer die Bewegung des Roboters 2 oder 22 in der Z-Achsenrichtung.
  • In diesem Fall, wie durch den Pfeil G1 in 38 angedeutet, entspricht die Kippbedienung zum Kippen des Handprogrammiergeräts 4 hin zu der nahen Seite der Bewegung der Hand des Roboters 2 oder 22 in der ansteigenden Richtung, also der Richtung weg von der Aktionsbezugsebene P. Zudem, wie durch den Pfeil G2 angedeutet, entspricht die Kippbedienung zum Kippen des Handprogrammiergeräts 4 hin zu der entfernten Seite der Bewegung des Hand des Roboters 2 oder 22 in der absteigenden Richtung, also der Richtung, die sich der Aktionsbezugsebene P annähert.
  • Die Aktionsbefehl-Erzeugungseinheit 16 schaltet zwischen dem Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung und dem Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung durch Detektieren der Bedienungen der Schaltflächen 43 und 44 um. Das heißt, wenn beide Schaltflächen 43 und 44 entsprechend beiden Händen des Nutzers bedient werden, erhält die Steuereinheit 14 Kippbedienungen und nimmt keine Ziehbedienungen an dem Berührbedienfeld 17 an. In anderen Fällen nimmt die Steuereinheit 14 Ziehbedienungen an dem Berührbedienfeld 17 auf und nimmt keine Kippbedienungen an. Mit anderen Worten beginnt die Steuereinheit 14 mit der Aufnahme der Eingabe der Kippbedienung dadurch, dass Berührbedienung an beiden Schaltflächen 43 und 44 durchgeführt wird. Die Steuereinheit 14 beendet die Aufnahme der Eingabe der Kippbedienung dadurch, dass beide oder eine der beiden Schaltflächen 43 und 44 berührbedient werden.
  • Zudem legt die Steuereinheit 14 die Haltung des Handprogrammiergeräts 4 als Referenz für nachfolgende Kippbedienungen an dem Zeitpunkt fest, an dem beide Schaltflächen 43 und 44 bedient werden. In diesem Fall dient die Richtung der Gravitationskraft, als die Vertikalrichtung, nicht notwendigerweise als Referenz für die Kippbedienung. Zudem, während der Bewegung in der Z-Richtung, kann die Aktionsbefehl-Erzeugungseinheit 16 die Kippmenge des Handprogrammiergeräts 4 bezüglich der Referenz als Aktionsgeschwindigkeit des Roboters 2 oder 22 festlegen, oder als Bewegungsmenge selbst. Das heißt, dass die Aktionsbefehl-Erzeugungseinheit 16 die Bewegungsgeschwindigkeit oder die Bewegungsmenge des Roboters 2 oder 22 basierend auf der Kippmenge der Kippbedienung, die von der Haltungsdetektionseinheit 19 (Kippbedienungsdetektionseinheit) detektiert wurde, erhöht oder verringert. In diesem Fall erhöht die Aktionsbefehl-Erzeugungseinheit 16 die Bewegungsgeschwindigkeit oder Bewegungsmenge des Roboters 2 oder 22, wie die Kippmenge bezüglich der Referenz zunimmt.
  • Im Ergebnis, während der Aktion des Handsystems, kann der Nutzer eine Bedienung zum Bewegen der Hand des Roboters 2 oder 22 in der Horizontalrichtung durch Berührbedienen des Berührbedienfelds 17 durchführen. Deshalb kann der Nutzer beim Bewegen der Hand des Roboters 2 oder 22 in der Horizontalrichtung die zweidimensionale Bedienung auf dem Berührbedienfeld 17 auf einfache Weise mit der Bewegung der Hand des Roboters 2 oder 22 in der Horizontalrichtung, also der zweidimensionalen Bedienung, in Zusammenhang bringen.
  • Zudem kann der Nutzer durch Durchführen einer Bedienung (Kippbedienung), bei der das Handprogrammiergerät 4, also das Berührbedienfeld 17, gekippt wird, eine Bedienung zum Bewegen der Hand des Roboters 2 oder 22 in der Vertikalrichtung durchführen. Das heißt, dass der Nutzer beim Bewegen der Hand des Roboters 2 oder 22 in der Vertikalrichtung eine Bedienung eines Modus durchführt, der sich von der Berührbedienung auf dem Berührbedienfeld 17 unterscheidet, oder anders gesagt, er führt eine Bedienung durch, um das Berührbedienfeld 17 zu kippen. Deshalb kann der Nutzer deutlich zwischen der Bedienung zum Bewegung in der Horizontalrichtung und der Bedienung zum Bewegen in der Vertikalrichtung unterscheiden. Folglich ist die Bedienbarkeit verbessert. Im Ergebnis kann die Sicherheit verbessert werden, und die für das Programmieren des Roboters 2 oder 22 benötigte Zeit kann verkürzt werden.
  • Die Aktionsbefehl-Erzeugungseinheit 16 erhöht oder verringert die Bewegungsgeschwindigkeit oder die Bewegungsmenge des Roboters 2 oder 22 basierend auf der Kippmenge der Kippbedienung, die von der Haltungsdetektionseinheit 19 (Kippbedienungsdetektionseinheit) detektiert wurde. Im Ergebnis kann der Nutzer die Bewegungsgeschwindigkeit oder die Bewegungsmenge des Roboters 2 oder 22 durch Anpassen der Kippmenge des Berührbedienfelds 17 während der Kippbedienung anpassen. Deshalb kann der Nutzer die Bedienung zum Bewegen des Roboters 2 oder 22 in der Vertikalrichtung intuitiv durchführen. Im Ergebnis wird die Verbesserung der Bedienbarkeit erzielt.
  • Die Aktionsbefehl-Erzeugungseinheit 16 schaltet zwischen dem Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung und dem Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung durch Detektieren der Bedienungen der Schaltflächen 43 und 44 um. Im Ergebnis, selbst wenn der Nutzer das Handprogrammiergerät 4 zum Beispiel fälschlicherweise kippt ohne zu beabsichtigen, die Vertikalbewegungsaktion durchzuführen, besteht kein Risiko, dass die Vertikalbewegungsaktion durchgeführt wird. Deshalb werden fehlerhafte Bedienungen unterdrückt und eine Verbesserung der Sicherheit erzielt.
  • Ferner nimmt die Steuereinheit 14 Eingaben der Kippbedienung auf, solange beide Schaltflächen 43 und 44 entsprechend beiden Händen des Nutzers bedient werden. Deshalb kann eine fehlerhafte Bedienung verhindert werden, auch wenn eine der beiden Schaltflächen fälschlicherweise bedient wurde. Zudem sind die Schaltflächen 43 und 44 in Positionen angeordnet, welche durch die Daumen des Nutzers leicht bedienbar sind. Deshalb ist die Bedienung einfach. Zudem, weil die Schaltflächen 43 und 44 entsprechend beiden Händen bereitgestellt sind, können die Auswirkungen auf Unterschiede in der Bedienbarkeit aufgrund von Unterschieden in der dominanten Hand unter Nutzern unterdrückt werden.
  • (Sechszehnte Ausführungsform)
  • Als nächstes wird eine sechszehnte Ausführungsform anhand 39 bis 41 beschrieben. Das Handprogrammiergerät 4 gemäß der vorliegenden Ausführungsform ist dasjenige, bei dem die Antriebsachse oder der Aktionsmodus des Roboters 2 oder 22 dadurch bestimmt werden, dass der Nutzer ein Zeichen, eine Zahl, oder ein Symbol entsprechend der Antriebsachse oder dem Aktionsmodus an dem Berührbedienfeld 17 eingibt. In der Beschreibung unten wird ein Fall beschrieben, bei dem das Handprogrammiergerät 4 hochkant, das heißt lang in der Richtung nach oben/unten, gehalten wird. Die Haltung des Handprogrammiergeräts 4 ist nicht auf hochkant beschränkt und kann auch horizontal lang, also längsseitig in der Horizontalrichtung, sein.
  • Wie in 39 gezeigt weist das Berührbedienfeld 17 einen Bedienstart-Detektionsbereich 173 und einen Bewegungsmengen-Detektionsbereich 174 auf. Zudem, wie in 40 gezeigt, weist das Berührbedienfeld 17 einen Aktionsauswahlbereich 175 auf. Der Bedienstart-Detektionsbereich 173 ist zum Beispiel in dem oberen Abschnitt des Berührbedienfelds 17 bereitgestellt und belegt etwa 2/3 der Gesamtfläche des Berührbedienfelds 17. Der Bedienstart-Detektionsbereich 173 ist ein Bereich, in welchem die Berührbedienung (Startbedienung) zum Starten der Aufnahme einer Bedienung in dem Aktionsauswahlbereich 175 detektiert wird. Der Bedienstart-Detektionsbereich 173 fungiert als Startbedienungs-Detektionseinheit. Die Startbedienungs-Detektionseinheit kann eine auf dem Berührbedienfeld 17 angezeigte Schaltfläche oder ein physischer Knopf sein, der von dem Berührbedienfeld 17 abweicht, anstatt dem Bedienstart-Detektionsbereich 173, der ein Bereich auf dem Berührbedienfeld 17 ist.
  • Der Bewegungsmengen-Bestimmungsbereich 174 ist in dem unteren Abschnitt des Berührbedienfelds 17 bereitgestellt und belegt etwa 1/3 der Gesamtfläche des Berührbedienfelds 17. Der Bewegungsmengen-Bestimmungsbereich 174 ist ein Bereich zum Aufnehmen einer Bedienung (Bewegungsmengen-Bestimmungsbedienung) zum Bestimmen der Bewegungsmenge des Roboters 2 oder 22. Bei der Bewegungsmengen-Bestimmungsbedienung handelt es sich zum Beispiel um eine Ziehbedienung in der links/rechts Richtung, die innerhalb des Bewegungsmengen-Bestimmungsbereich 174 durchgeführt wird. In diesem Fall, bezüglich des Zustands des Roboters 2 oder 22 vor der Bewegung, ist die Ziehbedienung in der rechten Richtung eine positive Richtung und die Ziehbedienung in der linken Richtung ist eine negative Richtung. Die Bewegungsgeschwindigkeit oder die Bewegungsmenge des Roboters 2 oder 22 wird von der Bewegungsmenge der Ziehbedienung in der Bewegungsmengen- Bestimmungsbedienung bestimmt.
  • Die Aktionsbefehl-Erzeugungseinheit 16 nimmt eine Berührbedienung in dem Aktionsauswahlbereich 175 auf, nachdem die Startbedienung in dem Bedienstart-Detektionsbereich 173 detektiert wurde. Wie in 39 gezeigt ist der Aktionsauswahlbereich 175 in dem Gesamtbereich des Berührbedienfelds 17 bereitgestellt. Der Aktionsauswahlbereich 175 ist ein Bereich zum Aufnehmen einer Bedienung (Aktionsauswahlbedienung) zum Auswählen der zu bedienenden Antriebsachse des Roboters 2 oder 22 oder des Aktionsmodus. In dem Aktionsauswahlbereich 175 werden eine Zahl, ein Zeichen oder ein Symbol entsprechend der zu bedienenden Antriebsachse des Roboters 2 oder 22 oder dem Aktionsmodus eingegeben.
  • Ein spezifisches Beispiel der Aktionsauswahlbedienung ist zum Beispiel die folgende Bedienung. Bezüglich der Aktion eines Achssystems, wenn zum Beispiel die erste Achse J11 oder J21 bedient werden soll, ist die Aktionsauswahlbedienung die Eingabe der arabischen Ziffer „1“ entsprechend der ersten Achse J11 oder J21. Wenn die zweite Achse J12 oder J22 bedient werden soll, ist die Aktionsauswahlbedienung die Eingabe der arabischen Ziffer „2“ entsprechend der zweiten Achse J12 oder J22. Zudem, bezüglich der Aktion des Handsystems, wenn zum Beispiel der Roboter 2 oder 22 dazu gebracht werden soll, die Horizontalbewegungsaktion durchzuführen, ist die Aktionsauswahlbedienung die Eingabe des Buchstaben „H“ entsprechend der Horizontalbewegungsaktion. Wenn der Roboter 2 oder 22 dazu gebracht werden soll, die Vertikalbewegungsaktion durchzuführen, ist die Aktionsauswahlbedienung die Eingabe des Buchstabens „V“ entsprechend der Vertikalbewegungsaktion. Wenn der Roboter 2 oder 22 dazu gebracht werden soll, die Drehaktion durchzuführen, ist die Aktionsauswahlbedienung die Eingabe des Buchstabens „R“ entsprechend der Rotationsaktion bzw. Drehaktion. Hierbei ist „H“ der erste Buchstabe von „Horizontal“, „V“ ist der erste Buchstabe von „Vertikal“ und „R“ ist der erste Buchstabe von „Rotation“ bzw. Drehung.
  • Um die oben beschriebene Konfiguration zu verwirklichen, führt die Steuereinheit 14 die Steuerung des Inhalts in 41 durch. In der Beschreibung unten beinhalten die von der Steuereinheit 14 durchgeführten Prozesse jene Prozesse, die von der Berührbedienungs-Detektionseinheit 15 und der Aktionsbefehl-Erzeugungseinheit 16 durchgeführt werden. Nach dem Starten der in 41 gezeigten Steuerung legt die Steuereinheit 14 zunächst in Schritt S51 das Berührbedienfeld in dem ersten Modus fest. Wie in 39 gezeigt ist in dem ersten Modus der Bereich des Berührbedienfelds 17 auf den Bedienstart-Detektionsbereich 173 und den Bewegungsmengen-Detektionsbereich 174 festgelegt. Deshalb nimmt das Berührbedienfeld 17 in dem ersten Modus eine Bedienung (Startbedienung), die in dem Bedienstart-Detektionsbereich 173 durchgeführt wird, und eine Bedienung, die in dem Bewegungsmengen-Bestimmungsbereich 174 durchgeführt wird, auf, jedoch nimmt sie keine Bedienung (Aktionsauswahlbedienung) an, die in dem Aktionsauswahlbereich 175 durchgeführt wird.
  • Als nächstes bestimmt die Steuereinheit 14 in Schritt S52, ob eine Detektion der Startbedienung in dem Bedienstart-Detektionsbereich 173 erfolgt oder nicht. Wenn festgestellt wird, dass eine Detektion der Startbedienung nicht erfolgt (NEIN in Schritt S52), schreitet die Steuereinheit 14 zu Schritt S57 voran. Wenn hingegen festgestellt wird, dass eine Detektion der Startbedienung erfolgt (JA in Schritt S52), schreitet die Steuereinheit 14 zu Schritt S53 voran. Gemäß der vorliegenden Ausführungsform handelt es sich bei der Startbedienung und der Aktionsauswahlbedienung um kontinuierliche Bedienfolgen. Das heißt, dass von den Bedienfolgen bezüglich der Aktionsauswahlbedienung die Bedienung, bei der anfänglicher Kontakt mit dem Berührbedienfeld 17 erfolgt, die Startbedienung ist.
  • In Schritt S53 legt die Steuereinheit 14 das Berührbedienfeld 17 auf den zweiten Modus fest. Wie in 40 gezeigt ist in dem zweiten Modus der Gesamtbereich des Berührbedienfelds 17 auf den Aktionsauswahlbereich 175 festgelegt. Deshalb nimmt das Berührbedienfeld 17 in dem zweiten Modus eine Bedienung (Aktionsauswahlbedienung), die in dem Aktionsauswahlbereich 175 durchgeführt wird, auf, sie nimmt jedoch weder eine Bedienung (Startbedienung), die in dem Bedienstart-Detektionsbereich 173 durchgeführt wird, noch eine Bedienung (Bewegungsmengen-Bestimmungsbedienung), die in dem Bewegungsmengen-Bestimmungsbereich 174 durchgeführt wird, an. Das heißt, wenn die Bedienung (Aktionsauswahlbedienung) in dem Aktionsauswahlbereich 175 detektiert wurde, dass die Steuereinheit 14 die Detektion einer Bedienung in dem Bewegungsmengen-Bestimmungsbereich 174 während des Zeitraums bis zum Abschluss der Aktionsauswahlbedienung sperrt.
  • Als nächstes bestimmt die Steuereinheit 14 in Schritt S54, ob die Aktionsauswahlbedienung abgeschlossen ist oder nicht. Die Bestimmung dahingehend, ob die Aktionsauswahlbedienung abgeschlossen ist oder nicht erfolgt zum Beispiel auf folgende Weise. Das heißt, wenn eine Berührbedienung in dem Aktionsauswahlbereich 175 durchgeführt wird und eine Berührbedienung für eine vorgegebene Menge an Zeit nachdem der Finger des Nutzers bezüglich der Berührbedienung von dem Berührbedienfeld 17 getrennt wurde, nicht durchgeführt wird, bestimmt die Steuereinheit 14, dass die Aktionsauswahlbedienung abgeschlossen ist (JA in Schritt S54). Wenn hingegen eine Berührbedienung in dem Aktionsauswahlbereich 175 durchgeführt wird und eine Berührbedienung in dem Aktionsauswahlbereich 175 innerhalb der vorgegebenen Zeitmenge durchgeführt wird, auch nachdem der Finger des Nutzers bezüglich der Berührbedienung von dem Berührbedienfeld 17 getrennt wurde, bestimmt die Steuereinheit 14, dass die Aktionsauswahlbedienung fortgesetzt wird (NEIN in Schritt S54). Im Ergebnis kann die Steuereinheit 14 sogar eine Bedieneingabe bestimmen, die nicht an einem Stück durchgängig eingegeben werden kann, so zum Beispiel das Zeichen „H“.
  • Wenn festgestellt wird, dass die Aktionsauswahlbedienung abgeschlossen ist (JA in Schritt S54), bestimmt die Steuereinheit 14 die Antriebsachse oder den Aktionsmodus des Roboters 2 oder 22 basierend auf der eingegebenen Aktionsauswahlbedienung (Schritt S55). Dann legt die die Steuereinheit 14 in Schritt S56 das Berührbedienfeld 17 in dem ersten Modus fest. Im Ergebnis, wie in 39 gezeigt, ist der Bereich des Berührbedienfelds 17 wieder auf den Bedienstart-Detektionsbereich 173 und den Bewegungsmengen-Bestimmungsbereich 174 festgelegt.
  • Als nächstes bestimmt die Steuereinheit 14 in Schritt S57, ob eine Detektion einer Ziehbedienung (Bewegungsmengen-Bestimmungsbedienung) in dem Bewegungsmengen-Bestimmungsbereich 174 erfolgt oder nicht. Wenn festgestellt wird, dass eine Detektion einer Ziehbedienung (Bewegungsmengen-Bestimmungsbedienung) in dem Bewegungsmengen-Bestimmungsbereich 174 erfolgt, schreitet die Steuereinheit 14 zu Schritt S58 voran. Die Steuereinheit 14 bestimmt dann die Bewegungsmenge des Roboters 2 oder 22 durch die Antriebsachse oder in dem Aktionsmodus, der in Schritt S55 bestimmt wurde, basierend auf der Bewegungsmenge der Ziehbedienung (Bewegungsmengen-Detektionsbedienung), die in Schritt S57 detektiert wurde.
  • Anschließend erzeugt die Steuereinheit 14 in Schritt S59 einen Aktionsbefehl zum Bewegen des Roboters 2 oder 22 um die Bewegungsmenge, die in Schritt S58 bestimmt wird. Dann wird der Aktionsbefehl an den Controller 3 übertragen. Der Controller 3 steuert die Aktion des Roboters 2 oder 22 basierend auf dem Aktionsbefehl. Danach schreitet die Steuereinheit zu Schritt S60 voran. Wenn hingegen in Schritt S57 festgestellt wird, dass eine Detektion einer Ziehbedienung in dem Bewegungsmengen-Bestimmungsbereich 174 nicht erfolgte, schreitet die Steuereinheit 14 zu Schritt S60 voran.
  • Nach dem Detektieren der Bewegungsmengen-Bestimmungsbedienung in Schritt S57 oder nach dem Festlegen des ersten Modus in Schritt S51 oder S56 bestimmt die Steuereinheit 14 in Schritt S60, ob eine bestimmte Menge an Zeit verstrichen ist oder nicht. Wenn festgestellt wird, dass die bestimmte Zeitmenge nicht verstrichen ist (NEIN in Schritt S60), schreitet die Steuereinheit 14 zu Schritt S57 voran und führt die Detektion der Bewegungsmengen-Bestimmungsbedienung fort. Wenn hingegen festgestellt wird, dass die bestimmte Zeitmenge verstrichen ist (JA in Schritt S60), schließt die Steuereinheit 14 die Prozessfolge ab.
  • Bei dem Handprogrammiergerät 4 wie diesem führt der Nutzer beim Auswählen der Aktion des Roboters 2 oder 22 eine Berührbedienung (Aktionsauswahlbedienung) in dem Aktionsauswahlbereich 175 durch. Beim Bestimmen der Bewegungsmenge des Roboters 2 oder 22 führt der Nutzer eine Berührbedienung (Bewegungsmengen-Bestimmungsbedienung) in dem Bewegungsmengen-Bestimmungsbereich 174 durch. Deshalb kann der Nutzer klar zwischen der Bedienung zum Auswählen der Aktion des Roboters 2 oder 22 (Aktionsauswahlbedienung) und der Bedienung zum Bestimmen der Bewegungsmenge des Roboters 2 oder 22 (Bewegungsmengen-Bestimmungsbedienung) unterscheiden. Im Ergebnis wird eine Verbesserung der Bedienbarkeit des Handprogrammiergeräts 4 erzielt. Im Ergebnis wird eine Verbesserung der Sicherheit erreicht, und die für das Einprogrammieren benötigte Zeit kann verkürzt werden.
  • Die Steuereinheit 14 nimmt die Berührbedienung (Aktionsauswahlbedienung) in dem Aktionsauswahlbereich 175 solange nicht auf, bis die Berührbedienung (Startbedienung) in dem Startbedienungs-Detektionsbereich 173 detektiert wurde. Das heißt, dass der Nutzer die Bedienung (Aktionsauswahlbedienung) in dem Aktionsauswahlbereich 175 durch unbeabsichtigtes Durchführen der Startbedienung durchführen kann. Im Ergebnis wird die unbeabsichtigte Bedieneingabe in dem Aktionsauswahlbereich 175 verringert. Deshalb kann unterdrückt werden, dass eine unbeabsichtigte Aktion durch fehlerhafte Bedienung durchgeführt wird. Im Ergebnis wird die Sicherheit weiter verbessert.
  • Bei der Aktionsauswahlbedienung handelt es sich um eine Bedienung, bei der eine Zahl, ein Zeichen oder ein Symbol entsprechend einer Antriebsachse oder einem Aktionsmodus an dem Berührbedienfeld 17 eingegeben werden. Im Ergebnis, durch Eingeben einer Zahl, eines Zeichens oder eines Symbols an dem Berührbedienfeld 17, kann der Nutzer die Bedienung für die Antriebsachse oder den Aktionsmodus entsprechend der Eingabe durchführen. Deshalb kann der Nutzer die Bedieneingabe (Aktionsauswahlbedienung) zum Bestimmen der Aktion des Roboters 2 oder 22 auf einfache Weise mit der Aktion des Roboters 2 oder 22, die durch die Bedieneingabe durchgeführt wird, in Zusammenhang bringen. Folglich wird eine fehlerhafte Bedienung, das heißt der Nutzer wählt eine fehlerhafte Aktion aus, unterdrückt, und eine Verbesserung der Bedienbarkeit erzielt. Im Ergebnis wird eine Verbesserung der Sicherheit erzielt und die für das Programmieren benötigte Zeit kann verkürzt werden.
  • Wenn eine Bedienung (Bewegungsmengen-Bestimmungsbedienung) in dem Bewegungsmengen-Bestimmungsbereich 174 nicht für eine bestimmte Zeitmenge nach der Eingabe der Aktionsauswahlbedienung oder nach Eingabe der Bewegungsmengen-Bestimmungsbedienung erfolgt, beendet die Steuereinheit 14 den Prozess. Das heißt, wenn eine bestimmte Zeitmenge verstrichen ist, seitdem die Aktionsauswahlbedienung oder die Bewegungsmengen-Bestimmungsbedienung durchgeführt wurde, wird wieder eine Eingabe der Aktionsauswahlbedienung erforderlich. Im Ergebnis, selbst wenn die Zeit verstreicht und der Nutzer vergisst, welche Antriebsachse oder Aktionsmodus gegenwärtig ausgewählt ist, kann der Nutzer die Auswahl der Antriebsachse oder des Aktionsmodus erkennen, indem er dazu gebracht wird, die Aktionsauswahlbedienung erneut einzugeben. Im Ergebnis kann eine versehentliche Auswahl der Antriebsachse oder des Aktionsmodus verhindert werden. Die gegenwärtig ausgewählte Antriebsachse oder Aktionsmodus können in der Anzeigeeinheit 12 des Berührbedienfelds 17 angezeigt werden.
  • (Siebzehnte Ausführungsform)
  • Als nächstes wird eine siebzehnte Ausführungsform anhand der 42 und 43 beschrieben. Die vorliegende Erfindung betrifft die Bestimmung der Bewegungsgeschwindigkeit und der Bewegungsmenge des Roboters 2 oder 22, wenn eine Ziehbedienung als sogenannte Gestenbedienung durchgeführt wird. Gemäß der vorliegenden Ausführungsform ist die Aktionsbefehl-Erzeugungseinheit 16 in der Lage, einen Bedienungsbestimmungsprozess, einen Geschwindigkeitsbestimmungsprozess und einen Aktionsbefehl-Erzeugungsprozess durchzuführen. Bei dem Bedienungsbestimmungsprozess handelt es sich um einen Prozess zum Bestimmen der Bewegungsmenge eines Fingers durch eine Ziehbedienung, wenn es sich bei der von der Berührbedienungs-Detektionseinheit 15 detektierten Berührbedienung um die Ziehbedienung handelt. Der Geschwindigkeitsberechnungsprozess ist ein Prozess zum Berechnen der Bewegungsgeschwindigkeit des Roboters 2 oder 22 basierend auf der Bewegungsmenge des Fingers, die in dem Bedienungsbestimmungsprozess bestimmt wurde. Der Aktionsbefehl-Erzeugungsprozess ist ein Prozess zum Erzeugen eines Aktionsbefehls zum Bewegen des Roboters 2 oder 22 mit der Bewegungsgeschwindigkeit, die in dem Geschwindigkeitsberechnungsprozess berechnet wurde.
  • Die Aktionsbefehl-Erzeugungseinheit 16 kann einen Bewegungsmengen-Berechnungsprozess zum Berechnen der Bewegungsdistanz des Roboters 2 oder 22 basierend auf der Bewegungsmenge des Fingers in der Ziehbedienung durchführen. Zum Beispiel ist in 42 ein Startpunt einer Ziehbedienung durch den Punkt Sp angedeutet. Ein Endpunkt der Ziehbedienung ist durch den Punkt Ep angedeutet. Das Ende der Ziehbedienung ist, wenn der Finger des Nutzers sich von dem Berührbedienfeld 17 trennt. In diesem Fall ist die Bewegungsmenge des Fingers in der Ziehbedienung eine Distanz L von dem Startpunkt Sp bis zu dem Endpunkt Ep. Die Steuereinheit 14 berechnet eine Bewegungsdistanz Lr des Roboters 2 oder 22 basierend auf der Bewegungsdistanz L der Ziehbedienung. Zudem berechnet die Steuereinheit 14 eine Durchschnittsgeschwindigkeit Vr des Roboters 2 oder 22 basierend auf einem Wert, der durch Dividieren der Bewegungsdistanz L durch eine Eingabezeit der Ziehbedienung, erhalten wird, also die Durchschnittsgeschwindigkeit V bezogen auf die Bewegung der Finger in der Ziehbedienung.
  • Um die oben-genannte Konfiguration zu verwirklichen, führt die Steuereinheit 14 eine Steuerung des Inhalts in 43 durch. In der untenstehenden Beschreibung beinhalten die durch die Steuereinheit 14 durchgeführten Prozesse jene Prozesse, die durch die Berührbedienungs-Detektionseinheit 15 und die Aktionsbefehl-Erzeugungseinheit 16 durchgeführt werden. Zudem muss das X-Y-Koordinatensystem auf dem Berührbedienfeld 17, gezeigt in 42, nicht notwendigerweise mit dem Koordinatensystem des Roboters 2 oder 22 übereinstimmen.
  • Nach dem Detektieren einer Ziehbedienung und dem Starten der Steuerung, gezeigt in 43, detektiert die Steuereinheit in den Schritten S71 und S72 den Startpunkt Sp (Xs, Ys) und den Endpunkt Ep (Xe, Ye) der Ziehbedienung. Als nächstes detektiert die Steuereinheit 14 in Schritt S73 die für die Ziehbedienung benötigte Zeit als die Eingabezeit Ti der Ziehbedienung. Als nächstes berechnet die Steuereinheit 14 in Schritt S74 die Bewegungsmenge L der Finger in der Ziehbedienung, die Durchgeschwindigkeit V der Finger in der Ziehbedienung, und die Bedienrichtung der Ziehbedienung aus dem Startpunkt Sp (Xs, Ys) und dem Endpunkt Ep (Xe, Ye). Schritt S74 beinhaltet den Bedienungsbestimmungsprozess.
  • Anschließend berechnet die Steuereinheit 14 in Schritt S75 die Bewegungsmenge Lr, die Durchschnittsgeschwindigkeit Vr, und die Bewegungsrichtung des Roboters 2 oder 22 aus der Bewegungsmenge L, der Durchschnittsgeschwindigkeit V, und der Bedienungsrichtung der Ziehbedienung, die in Schritt S74 berechnet wurden. Schritt S75 beinhaltet den Geschwindigkeitsberechnungsprozess. Dann erzeugt die Steuereinheit 14 in Schritt S76 einen Aktionsbefehl basierend auf der Bewegungsmenge Lr, der Durchschnittsgeschwindigkeit Vr, und der Bewegungsrichtung (Aktionsbefehl-Erzeugungsprozess). Der Aktionsbefehl wird dann an den Controller 3 übertragen. Der Controller 3 steuert die Aktion des Roboters 2 oder 22 basierend auf dem Aktionsbefehl. Im Ergebnis schließt die Steuereinheit 14 die Prozessfolge ab.
  • Gemäß der vorliegenden Ausführungsform kann die Steuereinheit 14 den Geschwindigkeitsberechnungsprozess zum Berechnen der Bewegungsgeschwindigkeit Vr des Roboters 2 oder 22 basierend auf der Bewegungsmenge L der Finger in der Ziehbedienung durchführen. Im Ergebnis besteht ein Zusammenhang zwischen der Bewegungsmenge L der Finger der Ziehbedienung durch den Nutzer und der Bewegungsgeschwindigkeit Vr des Roboters 2 oder 22. Deshalb kann der Nutzer die Bewegungsgeschwindigkeit Vr des Roboters durch Anpassen der Bewegungsmenge L der Finger in der Ziehbedienung anpassen. Folglich kann der Nutzer eine intuitive Bedienung durchführen und eine Verbesserung der Bedienbarkeit wird erreicht. Im Ergebnis wird eine Verbesserung der Sicherheit erzielt, und die für das Einprogrammieren benötigte Zeit verkürzt sich.
  • Zudem kann die Steuereinheit 14 den Bewegungsmengen-Berechnungsprozess zum Berechnen der Bewegungsmenge Lr des Roboters 2 oder 22 basierend auf der Bewegungsmenge L der Finger in der Ziehbedienung durchführen. Im Ergebnis kann der Nutzer die Bewegungsmenge Lr anpassen, also die Bewegungsdistanz Lr des Roboters 2 oder 22 durch Anpassen der Bewegungsmenge L des Fingers in der Ziehbedienung. Ferner ist der Geschwindigkeitsberechnungsprozess ein Prozess zum Bestimmen der Bewegungsgeschwindigkeit Vr des Roboters 2 oder 22 basierend auf einem Wert, der erhalten wird durch Dividieren der Bewegungsmenge L des Fingers in der Ziehbedienung durch die Menge an Zeit, die für die Eingabe der Ziehbedienung benötigt wird. Im Ergebnis kann der Nutzer die Bewegungsgeschwindigkeit Vr des Roboters 2 oder 22 durch Anpassen der für die Eingabe benötigten Menge an Zeit anpassen.
  • Deshalb kann der Nutzer während der Eingabe der Ziehbedienung sowohl die Bewegungsgeschwindigkeit Vr als auch die Bewegungsmenge Lr des Roboters 2 oder 22 durch Anpassen der Bewegungsmenge L und der Eingabezeit Ti der Ziehbedienung beeinflussen. Das heißt, dass der Nutzer sowohl die Bewegungsgeschwindigkeit Vr als auch die Bewegungsmenge L des Roboters 2 oder 22 durch eine einzelne Ziehbedienung anpassen kann. Im Ergebnis kann der Nutzer eine intuitive Bedienung durchführen. Zudem, im Ergebnis, ist es nicht erforderlich, dass der Nutzer eine Vielzahl von Bedienungen durchführt, wie etwa eine Bedienung zum Bestimmen der Bewegungsgeschwindigkeit Vr des Roboters 2 oder 22 und eine Bedienung zum Bestimmen der Bewegungsmenge L des Roboters 2 oder 22, um die Bewegungsgeschwindigkeit Vr und die Bewegungsmenge Lr des Roboters 2 oder 22 zu bestimmen. Deshalb ist die Bedienung vereinfacht und es wird eine Verbesserung der Bedienbarkeit erzielt. Im Ergebnis wird eine Verbesserung der Sicherheit erzielt, und die für das Einprogrammieren benötigte Zeit wird verkürzt.
  • Der Startpunkt Sp und der Endpunkt Ep, die durch Kreise auf der Anzeigeeinheit 12 und den weißen Pfeil in 42 angedeutet sind, dienen dem Verständnis der Beschreibung der Bewegung der Ziehbedienung und werden nicht tatsächlich auf der Anzeigeeinheit 12 während der Bedienung angezeigt. Jedoch kann das Handprogrammiergerät 4 den Startpunkt Sp, den Endpunkt Ep, und den weißen Pfeil auf der Anzeigeeinheit 12 zusammen mit der Ziehbedienung anzeigen. Im Ergebnis ist die Anzeige nützlich, wenn der Nutzer den Bedienungsinhalt durch den Nutzer selbst bestätigt.
  • (Achtzehnte Ausführungsform)
  • Als nächstes wird eine achtzehnte Ausführungsform anhand 44 und auch anhand 45 beschrieben. Die vorliegende Ausführungsform ist eine Konfiguration zum Durchführen einer Aktion des Roboters 2 oder 22 im Wesentlichen in Echtzeit bezogen auf die Bedieneingabe. Das heißt, gemäß der oben beschriebenen siebtzehnten Ausführungsform, dass die Aktion des Roboters 2 oder 22 durchgeführt wird, nachdem die Eingabe der Ziehbedienung abgeschlossen ist. Deshalb wird die Aktion des Roboters 2 oder 22 nach dem Abschluss der Ziehbedienung durchgeführt. Folglich kommt es zu einer Zeitverzögerung zwischen der Eingabe der Ziehbedienung durch den Nutzer und der tatsächlichen Aktion des Roboters 2 oder 22. Gemäß der vorliegenden Ausführungsform hingegen wird der Aktionsbefehl des Roboters 2 oder 22, zweckmäßigerweise, sogar vor dem Abschluss der Ziehbedienung erzeugt. Deshalb wird die tatsächliche Aktion des Roboters 2 oder im Wesentlichen in Echtzeit bezogen auf die Eingabe der Ziehbedienung durch den Nutzer ausgeführt.
  • Insbesondere führt die Steuereinheit 14 einen Bedienungsbestimmungsprozess, einen Geschwindigkeitsberechnungsprozess und einen Aktionsbefehl-Erzeugungsprozess bei einem bestimmten Intervall S durch, während eine Ziehbedienung durchgeführt wird. Der Zeitraum, in dem eine Ziehbedienung durchgeführt wird, bezieht sich auf einen Zeitraum zwischen der Berührung des Berührbedienfelds 17 durch den Finger des Nutzers und dem Start der Ziehbedienung, bis sich der Finger des Nutzers von dem Berührbedienfeld 17 trennt. In diesem Fall, wie in 44 gezeigt, handelt es sich bei dem Zeitraum, über den eine Ziehbedienung einer Distanz L zwischen dem Startpunkt Sp und dem Endpunkt Ep der Ziehbedienung durchgeführt wird, um den Zeitraum, über den die Ziehbedienung durchgeführt wird.
  • Um die oben beschriebene Konfiguration zu verwirklichen, führt die Steuereinheit 14 den Inhalt der 44 durch. In der untenstehenden Beschreibung beinhalten die von der Steuereinheit 14 durchgeführten Prozesse jene Prozesse, die von der Berührbedienungs-Detektionseinheit 15 und der Aktionsbefehl-Erzeugungseinheit 16 durchgeführt werden. Die Steuereinheit 14 führt den Prozessinhalt, gezeigt in 45, durch, während sie die Eingabe einer Ziehbedienung detektiert. Nach dem Starten der in 45 gezeigten Steuerung detektiert die Steuereinheit 14 in Schritt S81 einen gegenwärtigen Punkt P1 (X1, Y1) des Fingers in der Ziehbedienung. Als nächstes wartet die Steuereinheit 14 in Schritt S82 das Verstreichen der Zeitmenge S ab (NEIN in Schritt S82). Wenn festgestellt wird, dass die Zeitmenge S verstrichen ist (JA in Schritt S82), detektiert die Steuereinheit 14 in Schritt S83 einen gegenwärtigen Punkt P2 (X2, Y2) des Fingers in der Ziehbedienung.
  • Als nächstes berechnet die Steuereinheit 14 in Schritt S84 die Bedienrichtung der Ziehbedienung sowie die Bewegungsmenge dL und die Bewegungsgeschwindigkeit dV der Ziehbedienung pro bestimmter Zeitmenge S, aus den Punkten P1 und P2, und der Zeitmenge S. Schritt S84 beinhaltet den Bedienungsbestimmungsprozess. Als nächstes berechnet die Steuereinheit 14 in Schritt S85 die Bewegungsrichtung des Roboters 2 oder 22 sowie die Bewegungsmenge dLr und die Bewegungsmenge dVr pro bestimmter Zeitmenge S aus der Bewegungsmenge dL, der Bewegungsgeschwindigkeit dV, und der Bedienrichtung der Ziehbedienung, die in Schritt S84 berechnet wurden. Schritt S84 beinhaltet den Geschwindigkeitsberechnungsprozess.
  • Als nächstes erzeugt die Steuereinheit 14 in Schritt S86 einen Aktionsbefehl basierend auf der Bewegungsmenge dLr, der Durchschnittsgeschwindigkeit dVr und der Bewegungsrichtung pro bestimmter Zeitmenge S (Aktionsbefehl-Erzeugungsprozess). Dann wird der Aktionsbefehl an den Controller 3 übertragen. Der Controller 3 steuert die Aktion des Roboters oder 22 basierend auf dem Aktionsbefehl. Anschließend bestimmt die Steuereinheit 14 in Schritt S87, ob die Eingabe der Ziehbedienung abgeschlossen ist oder nicht. Wenn festgestellt wird, dass die Eingabe der Ziehbedienung nicht abgeschlossen ist (NEIN in Schritt S81), schreitet die Steuereinheit 14 zu Schritt S81 voran und wiederholt Schritt S81 bis S87. Wenn hingegen festgestellt wird, dass die Eingabe der Ziehbedienung abgeschlossen ist (JA in Schritt S81), beendet die Steuereinheit 14 die Prozessfolge. Auf diese Weise wiederholt die Steuereinheit 14 den Bedienungsbestimmungsprozess, den Geschwindigkeitsberechnungsprozess, und den Aktionsbefehl-Erzeugungsprozess während einer bestimmten Zeitmenge S, also den bestimmten Zyklus bzw. Takt S, während die Ziehbedienung durchgeführt wird.
  • Gemäß der vorliegenden Ausführungsform kann die Steuereinheit 14 den Aktionsbefehl erzeugen, ohne darauf zu warten, dass der Nutzer die Ziehbedienung abschließt. Deshalb kann die Aktionsbefehl-Erzeugungseinheit 16 den Aktionsbefehl zum Bedienen des Roboters 2 oder 22 im Wesentlichen in Echtzeit bezogen auf die Ziehbedienung durch den Nutzer erzeugen. Folglich kann die zeitliche Verzögerung zwischen der Eingabe der Ziehbedienung und der tatsächlichen Aktion des Roboters 2 oder 22 minimiert werden. Deshalb kann der Nutzer eine intuitivere Bedienung durchführen. Im Ergebnis wird eine Verbesserung der Sicherheit und eine Verkürzung der Programmierungszeit erreicht.
  • (Neunzehnte Ausführungsform)
  • Als nächstes wird eine neunzehnte Ausführungsform anhand 46 bis 48 beschrieben. Die vorliegende Ausführungsform steht im Zusammenhang mit einem Skalierungsfaktor zwischen der Bedienmenge der Ziehbedienung und der Bewegungsmenge des Roboters 2 oder 22, wenn eine Ziehbedienung als sogenannte Gestenbedienung durchgeführt wird. In 46 ist eine Bedienmenge der Ziehbedienung von dem Startpunkt Sp bis zu dem Endpunkt Ep der Ziehbedienung mit L benannt.
  • Um es dem Roboters 2 oder 22 zu ermöglichen, die präzise Aktion, die der Bedienmenge der eingegebenen Ziehbedienung entspricht, durchzuführen, kann das Handprogrammiergerät 4 das Festlegen eines Skalierungsfaktors zwischen der Bedienmenge der Ziehbedienung und der Bewegungsmenge des Roboters 2 oder 22 berücksichtigen. Wenn der Skalierungsfaktor zum Beispiel auf das 0,1-fache festgelegt ist, kann der Nutzer den Roboter 2 oder 22 um 0,1 mm bewegen, indem eine Ziehbedienung von einem Millimeter durchgeführt wird. Jedoch treten die folgenden Probleme auf, wenn der Skalierungsfaktor lediglich festgelegt wird. Das heißt zum Beispiel, dass es Fälle gibt, bei denen eine große Aktion in mehreren bis zu mehreren Dutzend Millimetereinheiten (Grobaktion) durchgeführt werden soll, während die feine Aktion (Feinaktion) in 0,1 mm Einheiten ausgeführt wird. Wenn der Skalierungsfaktor jedoch zum Beispiel auf das 0,1-fache festgelegt wird, kann der Roboter nur geringfügig bewegt werden, um 20 mm, auch bei einer Ziehbedienung von 200 mm (entsprechend der Länge einer Längsseite eines 10-Zoll-Bildschirms). Deshalb muss der Nutzer die Ziehbedienung von 200 mm 50 Mal wiederholen, um den Roboter beispielsweise um 1000 mm zu bewegen. Die Bedienung ist umständlich und die Bedienbarkeit schlecht.
  • Deshalb ist die Aktionsbefehl-Erzeugungseinheit gemäß der vorliegenden Ausführungsform dazu in der Lage, einen Bedienungsbestimmungsprozess und einen Bewegungsmengen-Bestimmungsprozess durchzuführen. Der Bedienungsbestimmungsprozess bestimmt die Bewegungsmenge eines Fingers in einer Ziehbedienung, die von der Berührbedienungs-Detektionseinheit 15 detektiert wurde. Wie in 46 gezeigt bestimmt der Bewegungsmengen-Bestimmungsprozess die Bewegungsmenge des Roboters 2 oder 22 durch Festlegen des Skalierungsfaktors auf einen ersten Skalierungsfaktor von dem Bedienstartpunkt Sp, bis ein erstes Segment L1 durchlaufen wurde, durch Festlegen des Skalierungsfaktors auf einen Wert größer als der erste Skalierungsfaktor, nachdem das erste Segment L1 durchlaufen wurde. Der Skalierungsfaktor wird verwendet, um die Bewegungsmenge des Roboters 2 oder 22 durch Vergrößern oder Verkleinern der Bewegungsmenge des Fingers in der Ziehbedienung, die in dem Bedienungsbestimmungsprozess bestimmt wird, zu bestimmen.
  • Zudem bestimmt der Bewegungsmengen-Bestimmungsprozess gemäß der vorliegenden Ausführungsform die Bewegungsmenge des Roboters durch Festlegen des Skalierungsfaktors auf einen zweiten Skalierungsfaktor, nachdem die Bewegung des Fingers in der Ziehbedienung das erste Segment L1 durchlaufen hat und bis ein zweites Segment L2 durchlaufen sein wird, und durch Festlegen des Skalierungsfaktors auf einen dritten Skalierungsfaktor, welcher ein feststehender Wert ist, nachdem die Bewegung des Fingers in der Ziehbedienung das zweite Segment L2 durchlaufen hat. Der zweite Skalierungsfaktor ist ein Wert innerhalb einer Spanne von dem ersten Skalierungsfaktor bis zu dem dritten Skalierungsfaktor und nimmt kontinuierlich basierend auf der Bewegungsmenge des Fingers in der Ziehbedienung zu.
  • Insbesondere, wie in 46 gezeigt, ist das erste Segment L1 ein Segment einer vorgegebenen Länge (wie etwa 50 mm) vom Startpunkt Sp der Berührbedienung. Das heißt, in diesem Fall, wie in 47 gezeigt, dass das erste Segment L1 ein Segment von einer Bedienmenge 0 mm (Startpunkt Sp) bis zu einer Bedienmenge von 50 mm (Endpunkt L1p des ersten Segments L1) ist. Die Länge des ersten Segments L1 ist feststehend, unabhängig von der Bedienungsmenge L der Ziehbedienung. Der erste Skalierungsfaktor f1 ist ein feststehender Wert, der kleiner als 1 ist. Zum Beispiel, wie in 47(1) gezeigt, ist der erste Skalierungsfaktor f1 das 0,1-fache (F1 = 0,1).
  • Das zweite Segment L2 ist ein Segment einer vorgegebenen Länge (wie etwa 100 mm) von dem Endpunkt Lp1 des ersten Segments L1. Das heißt, in diesem Fall, wie in 47 gezeigt, dass das zweite Segment L2 ein Segment ist von der Bedienmenge 50 mm (Endpunkt L1p des ersten Segments L1) bis zu einer Bedienmenge 1500 mm (Endpunkt L2p des zweiten Segments L2). Die Länge des zweiten Segments L2 ist feststehend, unabhängig von der Bedienmenge L der Ziehbedienung. Der zweite Skalierungsfaktor f2 ist ein Wert, der größer ist als der erste Skalierungsfaktor f1 und kleiner ist als der dritte Skalierungsfaktor f3. Das heißt, dass der zweite Skalierungsfaktor f2 ein variabler Wert innerhalb einer Spanne von dem ersten Skalierungsfaktor f1 zu dem dritten Skalierungsfaktor f3 ist und basierend auf der Bewegungsmenge der Finger in der Ziehbedienung kontinuierlich zunimmt, also der Distanz L ab dem Startpunkt Sp.
  • Der zweite Skalierungsfaktor f2 kann durch einen folgenden (Ausdruck 1) ausgedrückt werden. Gemäß der vorliegenden Ausführungsform nimmt der zweite Skalierungsfaktor proportional innerhalb einer Spanne von dem ersten Skalierungsfaktor f1 bis zu dem dritten Skalierungsfaktor f3 zu. Jedoch ist dies nicht hierauf beschränkt. Zum Beispiel kann der zweite Skalierungsfaktor quadratisch gesteigert werden, oder exponentiell gesteigert werden, innerhalb der Spanne von dem ersten Skalierungsfaktor f1 bis zu dem dritten Skalierungsfaktor f3. f2 = 0,099 × (L – 50) + 0,1 (Ausdruck 1)
  • Das dritte Segment ist das Segment nach dem Endpunkt L2p des zweiten Segments L2. Das heißt, in diesem Fall, das dritte Segment L3 ist das Segment nach der Bedienmenge von 150 mm (Endpunkt L2p des zweiten Segments L2). Die Länge des dritten Segments L3 variiert in Abhängigkeit von der Bedienmenge L der Ziehbedienung. Das heißt, dass die Länge des dritten Segments L3 ein Wert ist, der dadurch erhalten wird, dass die Längen des ersten Segments L1 und des zweiten Segments L2 von der Bedienmenge L der Ziehbedienung subtrahiert werden. Der dritte Skalierungsfaktor f3 ist ein feststehender Wert, der größer ist als der erste Skalierungsfaktor und der zweite Skalierungsfaktor. In diesem Fall, wie in 47(1) gezeigt, ist der dritte Skalierungsfaktor f3 auf das 10-fache festgelegt (f3 = 10), was größer als 1 ist.
  • Bezüglich der Ziehbedienung in dem ersten Segment L1 legt die Aktionsbefehl-Erzeugungseinheit 16 einen Wert, der durch Multiplizieren der Bedienmenge L mit dem ersten Skalierungsfaktor f1 erhalten wird, als Bewegungsmenge des Roboters 2 oder 22 fest. Zudem, bezüglich der Ziehbedienung in dem zweiten Segment L2, legt die Aktionsbefehl-Erzeugungseinheit 16 einen Wert, der durch Multiplizieren der Bedienmenge L mit dem zweiten Skalierungsfaktor f2 erhalten wird, als Bewegungsmenge des Roboters 2 oder 22 fest. Ferner, bezüglich der Ziehbedienung in dem dritten Segment L3, legt die Aktionsbefehl-Erzeugungseinheit 16 einen Wert, der durch Multiplizieren der Bedienmenge L mit dem dritten Skalierungsfaktor f3 erhalten wird, als Bewegungsmenge des Roboters 2 oder 22 fest. Wenn der Roboter 2 oder 22 eine Feinaktion (feine Aktion) in 0,1 mm Einheiten ausführen soll, wiederholt der Nutzer zum Beispiel die Ziehbedienung innerhalb des ersten Segments L1. Wenn der Roboter 2 oder 22 hingegen eine große Aktion durchführen soll (Grobaktion), führt der Nutzer zum Beispiel die Ziehbedienung hinter das erste Segment L1 und das zweite Segment L2 bis zu dem dritten Segment L3 durch.
  • Die Variationen in der Bewegungsmenge des Roboters 2 oder 22 bezüglich der Bedienmenge L der Ziehbedienung sind wie in 47(2) gezeigt. Wenn zum Beispiel die Bewegungsmenge L der Ziehbedienung 200 mm ist, ist die Bewegungsmenge des Roboters 2 oder bezüglich der Bedienung in dem ersten Segment ist L1 gleich 0,1 × 50 = 5 mm. Zudem ist die Bewegungsmenge des Roboters 2 oder 22 bezüglich der Bedienung in dem zweiten Segment L2 gleich ((10 – 0,1) × 100/2) + (0,1 × 100) = 505 mm. Ferner ist die Bewegungsmenge des Roboters 2 oder 22 bezüglich der Bedienung in dem dritten Segment L3 gleich 10 × 50 = 500 mm. Mit anderen Worten ist die Bewegungsmenge des Roboters 2 oder 22 für alle Segmente, also dem ersten Segment L1, dem zweiten Segment L2, und dem dritten Segment L3 gleich 1010 mm. Deshalb kann der Nutzer den Roboter 2 oder 22 um 1010 mm durch eine Ziehbedienung von 200 mm bewegen.
  • In diesem Fall variiert die Bewegungsmenge des Roboters 2 oder 22 wie folgt in jedem Segment. Das heißt, die Bewegungsmenge des Roboters 2 oder 22 nimmt linear bezüglich der Bedienung in dem ersten Segment L1 (dem Segment von Bedienmenge 0 mm bis 50 mm) zu. Zudem nimmt die Bewegungsmenge des Roboters 2 oder 22 bezüglich der Bedienung in dem zweiten Segment (dem Segment von Bedienmenge 50 mm bis 150 mm) quadratisch zu. Ferner nimmt die Bewegungsmenge des Roboters 2 oder 22 bezüglich der Bedienung in dem dritten Segment L3 (dem Segment ab der Bedienmenge von 150 mm) linear zu.
  • Im Ergebnis kann der Nutzer den Roboter 2 oder 22 bei dem ersten Skalierungsfaktor f1 bewegen, der ein feststehender Skalierungsfaktor kleiner als 1 ist, indem die Ziehbedienung in dem ersten Segment L1 durchgeführt wird. Das heißt, dass der Nutzer den Roboter 2 oder 22 dazu bringen kann, die Feinaktion durch wiederholtes Durchführen der Ziehbedienung in dem ersten Segment L1 durchzuführen. Zudem kann der Nutzer den Roboter 2 oder 22 bei einem Skalierungsfaktor, der größer ist als der erste Skalierungsfaktor für den Abschnitt hinter dem ersten Segment L1 bewegen, indem die Ziehbedienung hinter das erste Segment L1 durchgeführt wird. Das heißt, dass der Nutzer den Roboter 2 oder 22 dazu bringen kann, die Grobaktion durchzuführen, indem eine Bedienung hinter dem ersten Segment L1 durchgeführt wird.
  • Auf diese Weise kann der Nutzer den Roboter 2 oder 22 bei unterschiedlichen Skalierungsfaktoren in einer einzelnen Ziehbedienung bewegen. Im Ergebnis können zum Beispiel beide Aktionen, also die Feinaktion und die Grobaktion des Roboters 2 oder 22 durch eine einzelne Ziehbedienung verwirklicht werden. Deshalb kann der Nutzer sowohl die Feinaktion als auch die Grobaktion verwirklichen, ohne eine spezielle Bedienung zum Umschalten zwischen der Feinaktion und der Grobaktion des Roboters 2 oder 22 durchzuführen. Folglich ist die Bedienung vereinfacht und eine Verbesserung der Bedienbarkeit wird erzielt, und die für das Einprogrammieren benötigte Zeit verkürzt sich.
  • Zudem, gemäß der vorliegenden Ausführungsform, bestimmt der Bewegungsmengen-Bestimmungsprozess die Bewegungsmenge des Roboters 2 oder 22 durch Festlegen des Skalierungsfaktors auf einen zweiten Skalierungsfaktor f2, nachdem die Bewegung des Fingers in der Ziehbedienung das erste Segment L1 durchlaufen hat und bis ein zweites Segment L1 durchlaufen sein wird, und durch Festlegen des Skalierungsfaktors auf einen dritten Skalierungsfaktor f3, der ein feststehender Wert ist, nachdem die Bewegung des Fingers in der Ziehbedienung das zweite Segment L2 durchlaufen hat. Im Ergebnis kann der Nutzer den Roboter dazu bringen, die Feinaktion bei dem ersten Skalierungsfaktor f1, der kleiner als 1 ist, durch wiederholtes Durchführen der Ziehbedienung in dem ersten Segment durchzuführen. Zudem, durch Durchführen der Ziehbedienung hinter das erste Segment L1, kann der Nutzer den Roboter 2 oder 22 dazu bringen, die Grobaktion bei dem zweiten Skalierungsfaktor f2 oder dem dritten Skalierungsfaktor f3 durchzuführen, welche größer sind als der erste Skalierungsfaktor f1.
  • Ferner ist der zweite Skalierungsfaktor f2 ein Wert innerhalb einer Spanne von dem ersten Skalierungsfaktor f1 zu dem dritten Skalierungsfaktor f3 und nimmt basierend auf der Bewegungsmenge L des Fingers in der Ziehbedienung kontinuierlich zu. Im Ergebnis nimmt der zweite Skalierungsfaktor f2, der zwischen der Feinaktion des ersten Skalierungsfaktors f1 und der Grobaktion des dritten Skalierungsfaktors f3 liegt, basierend auf der Bewegungsmenge L des Fingers in der Ziehbedienung kontinuierlich zu, innerhalb einer Spanne von dem ersten Skalierungsfaktor f1 bis zu dem dritten Skalierungsfaktor f3. Das heißt, dass der erste Skalierungsfaktor f1 und der dritte Skalierungsfaktor f3, die feststehende Werte sind, durch den zweiten Skalierungsfaktor f2, der sich kontinuierlich verändert, verbunden sind. Deshalb schaltet der Skalierungsfaktor zum Bestimmen der Bewegungsmenge des Roboters 2 oder 22 bezüglich der Bedienmenge L der Ziehbedienung durch den Nutzer von dem ersten Skalierungsfaktor f1 zu dem dritten Skalierungsfaktor f3 um, durch den zweiten Skalierungsfaktor f2. Im Ergebnis kann verhindert werden, dass der Skalierungsfaktor zum Bestimmen der Bewegungsmenge des Roboters 2 oder 22 plötzlich von dem ersten Skalierungsfaktor f1 auf den dritten Skalierungsfaktor f3 umgeschaltet wird. Das heißt, dass verhindert werden kann, dass sich die Aktion des Roboters 2 oder 22 plötzlich von der Feinaktion zur Grobaktion verändert. Deshalb können plötzliche Veränderungen (plötzliche Aktionen) der Geschwindigkeit des Roboters 2 oder 22 verhindert werden, welche aufgrund einer plötzlichen Veränderung des Skalierungsfaktors auftreten, die nicht vom Nutzer beabsichtigt ist. Im Ergebnis kann eine weitere Verbesserung der Sicherheit erreicht werden.
  • Wie in den 48(1) und (2) gezeigt kann der erste Skalierungsfaktor f1 das 0,01-fache sein, der dritte Skalierungsfaktor f3 kann das 1,0-fache sein, und der zweite Skalierungsfaktor f2 kann ein Wert sein, der durch einen folgenden (Ausdruck 2) innerhalb der Spanne von dem ersten Skalierungsfaktor f1 = 0,01 bis zu dem dritten Skalierungsfaktor f3 = 1,0 ausgedrückt wird. Im Ergebnis können die Skalierungsfaktoren 0,01-fach bis 0,1-fach in Kombination verwendet werden. Ferner können komplexe Aktionen auf einfache Weise durchgeführt werden. f2 = 0,0099 × (L – 50) + 0,01 (Ausdruck 2)
  • (Vergleich mit herkömmlichen Programmierverfahren)
  • In 49 ist ein Diagramm angegeben, in welchem einer der vielen Vorteile des Programmierverfahrens (Gestenprogrammierverfahren) der vorliegenden Erfindung, bei der eine Ziehbedienung auf einem Berührbedienfeld durchgeführt wird, also eine Verkürzung der für das Einprogrammieren benötigten Zeit, verifiziert ist. Das Diagramm zeigt einen Vergleich der Vorteile der verkürzten, benötigten Zeit zwischen dem Programmierverfahren (Gestenprogrammieren) der vorliegenden Anmeldung und einem herkömmlichen Programmierverfahren unter Verwendung eines Berührbedienfelds. Die Menge an Zeit, die für das Bewegen der Hand an dem gleichen Roboter von einer bestimmten Position zu einer anderen Position benötigt wird, ist auf der Horizontalachse abgetragen. Die Anzahl von Menschen (Testpersonen), die an der Untersuchung teilgenommen haben, ist an der Vertikalachse abgetragen. Als Testpersonen wurde der Vergleich mit insgesamt 20 Testpersonen durchgeführt, mit Personen mit Anfängerkenntnissen (Anfänger), Personen mit fortgeschrittenen Kenntnissen (Fortgeschrittene), und Personen mit Expertenkenntnissen (Experten), die jeweils zu einem Drittel teilgenommen haben. Jede Testperson hat das Einprogrammieren der gleichen Aufgabe 2 Mal durchgeführt, durch das herkömmliche Programmierverfahren, und durch das Programmierverfahren gemäß der ersten Ausführungsform als repräsentatives Verfahren der vorliegenden Erfindung.
  • Im Ergebnis, wie deutlich aus der 49 zu entnehmen ist, war im Falle des Programmierverfahrens gemäß der ersten Ausführungsform zunächst die Einprogrammierzeit deutlich verkürzt gegenüber dem herkömmlichen Verfahren. Ferner, im Falle des herkömmlichen Programmierverfahrens, ist die Streuung der Einprogrammierzeit signifikant. Das heißt, die Unterschiede der Fähigkeiten zwischen Anfängern und Profis hängen deutlich von der Länge der Einprogrammierzeit ab. Im Gegensatz dazu, im Falle des Programmierverfahrens gemäß der vorliegenden Ausführungsform, ist der Unterschied, ob eine Person Anfänger oder Profi ist nicht so groß im Hinblick auf die Einprogrammierzeit verglichen mit dem herkömmlichen Verfahren. Das heißt, dass das Programmierverfahren gemäß der ersten Ausführungsform nicht viel von den Unterschieden der Fähigkeiten im Hinblick auf das Einprogrammieren beeinträchtigt wird, was bedeutet, dass ein Anfänger das Einprogrammieren ebenfalls auf einfache Weise durchführen kann. Dieser Vorteil ist intrinsisch für die vorliegende Erfindung, und stellt eine allgemeine Tendenz dar, die auch auf das Programmierverfahren (Gestenprogrammierverfahren) gemäß den anderen Ausführungsformen zutrifft. Im Ergebnis wurde belegt, dass die Vereinfachung und Verkürzung der Zeit der manuellen Bedienung (Einprogrammierung) eines Roboters, was eine Aufgabe der vorliegenden Erfindung darstellt, möglich ist.
  • (Andere Ausführungsformen)
  • Die vorliegende Erfindung ist nicht auf die oben und in den Zeichnungen beschriebenen Ausführungsformen beschränkt. Die folgenden Modifizierungen oder Erweiterungen sind möglich.
  • Wenn die manuelle Bedienung des Roboters durchgeführt wird, können bis zu einem gewissen Ausmaß Fälle auftreten, in denen eine Vielzahl von Aktionen absichtlich zur gleichen Zeit in Kombination durchgeführt werden. Um solchen Fälle zu entgegnen, kann die Linie zwischen Bedienungen zum Durchführen der Aktionen unklar sein. Das heißt, in diesem Fall, dass es möglich ist, dass die Maßnahmen, die ergriffen werden, um die Trennung von Bedienungen zum Durchführen der Aktionen zu klären, nicht durchgeführt werden.
  • Bei manchen der oben beschriebenen Ausführungsformen wird eine Konfiguration beschrieben, bei welcher die Roboterbedienungsvorrichtung der vorliegenden Erfindung auf das dedizierte, in einem Robotersystem verwendete Handprogrammiergerät 4 angewandt wird. Jedoch besteht hierauf keine Beschränkung. Zum Beispiel, in Folge dessen, dass eine dedizierte Anwendung (Roboterbedienungsprogramm) auf einer allgemein einsetzbaren Tablet-Vorrichtung (Tablet PC) oder einem Smartphone (Multifunktions-Mobiltelefon) installiert ist, können Funktionen verwirklicht werden, die denjenigen, die gemäß den oben beschriebenen Ausführungsformen beschrieben wurden, ähnlich sind.
  • Zusätzlich zu dem vier-achsigen Horizontal-Gelenkarmroboter 2 und dem sechs-achsigen Vertikal-Gelenkarmroboter 22, welche gemäß den oben beschriebenen Ausführungsformen erläutert wurden, beinhaltet der Gelenkarmroboter zum Beispiel einen orthogonalen Roboter mit einer Vielzahl von Antriebsachsen. In diesem Fall ist die Antriebsachse nicht auf die mechanische Drehachse beschränkt, und beinhaltet zum Beispiel ein System, bei dem das Antreiben durch einen Linearmotor erfolgt.
  • Die Roboterbedienungsvorrichtung der vorliegenden Erfindung ist nicht auf den vier-achsigen Horizontal-Gelenkarmroboter 2 und den sechs-achsigen Vertikal-Gelenkarmroboter 22 beschränkt, und kann verwendet werden, um verschiedene Roboter zu bedienen.
  • [Bezugszeichenliste]
  • In den Zeichnungen bezeichnen 1 und 21 ein Robotersystem. 2 und 22 bezeichnen einen Roboter. 3 bezeichnet einen Controller. 4 bezeichnet ein Handprogrammiergerät (Roboterbedienungsvorrichtung). 5 und 25 bezeichnen eine Basis. 9 und 31 bezeichnen einen Flansch (Hand des Roboters). 11 bezeichnet ein Gehäuse. 11a bezeichnet einen Griffabschnitt. 15 bezeichnet eine Berührbedienungs-Detektionseinheit. 16 bezeichnet eine Aktionsbefehl-Erzeugungseinheit. 17 bezeichnet ein Berührbedienfeld. 171 bezeichnet einen ersten Bereich. 172 bezeichnet einen zweiten Bereich. 173 bezeichnet einen Bedienstart-Detektionsbereich (Bedienstart-Detektionseinheit). 174 bezeichnet einen Bewegungsmengen-Bestimmungsbereich. 175 bezeichnet einen Aktionsauswahlbereich. 18 bezeichnet eine Bedienauswahl-Bestimmungseinheit. 19 bezeichnet eine Haltungsdetektionseinheit (Kippbedienungs-Detektionseinheit). 41 bezeichnet eine erste Schaltfläche (Umschalteinheit). 42 bezeichnete eine zweite Schaltfläche (Umschalteinheit).

Claims (34)

  1. Roboterbedienungsvorrichtung, aufweisend: ein Berührbedienfeld, das die Eingabe einer Berührbedienung von einem Nutzer aufnimmt; eine Berührbedienungs-Detektionseinheit, die in der Lage ist, eine Berührbedienung in einer Ebenenrichtung zu detektieren, die an dem Berührbedienfeld eingegeben wird; eine Aktionsbefehl-Erzeugungseinheit, die einen Aktionsbefehl zum Bedienen eines Gelenkarmroboters mit einer Vielzahl von Antriebsachsen basierend auf einem Detektionsergebnis von der Berührbedienungs-Detektionseinheit erzeugt; und eine Bedienauswahl-Detektionseinheit, die eine Auswahlbedienung von einem Nutzer zum Auswählen einer Antriebsachse oder eines Aktionsmodus des zu bedienenden Roboters detektiert, wobei die Aktionsbefehl-Erzeugungseinheit in der Lage ist, durchzuführen: einen Bedienungsbestimmungsprozess zum Bestimmen der Antriebsachse oder des Aktionsmodus des zu bedienenden Roboters basierend auf der von der Bedienauswahl-Detektionseinheit detektierten Auswahlbedienung, und wenn es sich bei der von der Berührbedienungs-Detektionseinheit detektierten Berührbedienung um eine Ziehbedienung handelt, Bestimmen einer Bewegungsmenge der Ziehbedienung und einen Aktionsbefehl-Erzeugungsprozess zum Bestimmen einer Bewegungsmenge des Roboters basierend auf der Bewegungsmenge der in dem Bedienungsbestimmungsprozess bestimmten Ziehbedienung, und Erzeugen eines Aktionsbefehls zum Bewegen des Roboters an der Antriebsachse oder in dem Aktionsmodus, welche/welcher um die Bewegungsmenge bedient werden soll.
  2. Roboterbedienungsvorrichtung nach Anspruch 1, wobei: die Bedienauswahl-Detektionseinheit eine Bedienung einer an dem Berührbedienfeld angezeigten Schaltfläche oder einer Schaltfläche, die verschieden von dem Berührbedienfeld ist, detektiert; und der Bedienungsbestimmungsprozess einen Prozess zum Bestimmen der Antriebsachse oder des Aktionsmodus umfasst, welche/r basierend auf der von der Bedienauswahl-Detektionseinheit detektierten Bedienung bedient werden soll.
  3. Roboterbedienungsvorrichtung nach Anspruch 1, wobei: die Bedienauswahl-Detektionseinheit eine Berührbedienung auf dem Berührbedienfeld detektiert; und der Bedienungsbestimmungsprozess einen Prozess zum Bestimmen der Antriebsachse oder des Aktionsmodus umfasst, welche/r basierend auf einer Anzahl von Fingern oder einer Bedienrichtung, oder der Anzahl der Finger und der Bedienrichtung, einer Ziehbedienung bedient werden soll, wenn es sich bei der durch die Bedienauswahl-Detektionseinheit detektierten Berührbedienung um die Ziehbedienung handelt.
  4. Roboterbedienungsvorrichtung gemäß Anspruch 3, wobei: der Bedienungsbestimmungsprozess umfasst: einen ersten Bedienungsbestimmungsprozess zum Bestimmen, ob es sich bei der detektierten Berührbedienung um eine erste Bedienung, welche eine Ziehbedienung durch einen einzelnen Finger ist, handelt oder nicht, einen zweiten Bedienungsbestimmungsprozess zum Bestimmen, ob es sich bei der detektierten Berührbedienung um eine zweite Bedienung, welche eine Ziehbedienung durch zwei Finger in eine vorgegebene Richtung ist, handelt oder nicht, einen dritten Bedienungsbestimmungsprozess zum Bestimmen, ob es sich bei der detektierten Berührbedienung um eine dritte Bedienung, welche eine Ziehbedienung durch zwei Finger in eine Richtung ist, die sich von der zweiten Bedienung unterscheidet, handelt oder nicht; und der Aktionsbefehl-Erzeugungsprozess umfasst: einen Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung zum Erzeugen des Aktionsbefehls zum Bewegen einer Hand des Roboters in einer Ebenenrichtung, die horizontal zu einer Aktionsbezugsebene des Roboters ist, wenn festgestellt wird, dass es sich bei der Berührbedienung um die erste Bedienung in dem ersten Bedienungsbestimmungsprozess handelt, einen Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung zum Erzeugen des Aktionsbefehls zum Bewegen der Hand des Roboters entlang einer Vertikalachsenrichtung, die senkrecht zu der Aktionsbezugsebene des Roboters ist, wenn festgestellt wird, dass es sich bei der Berührbedienung um die zweite Bedienung in dem zweiten Bedienungsbestimmungsprozess handelt, und einen Drehaktionsbefehl-Erzeugungsprozess zum Erzeugen des Aktionsbefehls zum Drehen der Hand des Roboters, wenn festgestellt wird, dass es sich bei der Berührbedienung um die dritte Bedienung in dem dritten Bedienungsbestimmungsprozess handelt.
  5. Roboterbedienungsvorrichtung nach Anspruch 4, wobei: die zweite Bedienung eine Ziehbedienung durch zwei Finger in einer linearen Richtung ist, und eine Bedienung, bei der sich ein Abstand zwischen den Fingern während eines Zeitraums, in dem die Ziehbedienung durchgeführt wird, graduell verkürzt oder graduell verlängert; die dritte Bedienung eine Ziehbedienung durch zwei Finger in einer Umfangsrichtung ist; und der Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung umfasst einen Annäherungsbefehl-Erzeugungsprozess zum Erzeugen des Aktionsbefehls zum Bewegen der Hand des Roboters in einer sich der Aktionsbezugsebene annähernden Richtung, wenn es sich bei der zweiten Bedienung um diejenige handelt, bei der sich der Abstand zwischen den Fingern graduell verlängert, und einen Trennbefehl-Erzeugungsprozess zum Erzeugen des Aktionsbefehls zum Bewegen der Hand des Roboters in einer Richtung weg von der Aktionsbezugsebene, wenn es sich bei der zweiten Bedienung um diejenige handelt, bei der sich der Abstand zwischen den Fingern graduell verkürzt.
  6. Roboterbedienungsvorrichtung nach Anspruch 4, wobei: die zweite Bedienung eine Bedienung in einer Vertikalrichtung auf dem Berührbedienfeld ist; und die dritte Bedienung eine Bedienung in einer seitlichen Richtung senkrecht zu der Vertikalrichtung auf dem Berührbedienfeld ist.
  7. Roboterbedienungsvorrichtung nach Anspruch 1, wobei: die Bedienauswahl-Detektionseinheit eine Berührbedienung auf dem Berührbedienfeld detektiert; und der Aktionsbefehl-Erzeugungsprozess einen Antriebsachsen-Auswahlprozess umfasst zum Auswählen einer einzelnen anzutreibenden Antriebsachse unter der Vielzahl von Antriebsachsen basierend auf einer Anzahl von Fingern oder einer Bedienrichtung, oder der Anzahl von Fingern und der Bedienrichtung, der Ziehbedienung.
  8. Roboterbedienungsvorrichtung nach Anspruch 7, wobei: der Antriebsachsen-Auswahlprozess umfasst: einen ersten Antriebsachsen-Auswahlprozess zum Auswählen einer einzelnen anzutreibenden Antriebsachse unter Antriebsachsen einer ersten Gruppe, welche die Hand des Roboters in einer Vertikalrichtung bezüglich der Aktionsbezugsebene bewegen, basierend auf der Anzahl von Fingern der Ziehbedienung, wenn es sich bei der Bedienrichtung der Ziehbedienung um eine Vertikalrichtung auf dem Berührbedienfeld handelt; und einen zweiten Antriebsachsen-Auswahlprozess zum Auswählen einer einzelnen anzutreibenden Antriebsachse unter Antriebsachsen, die nicht die Antriebsachsen der ersten Gruppe sind, basierend auf der Anzahl von Fingern der Ziehbedienung, wenn es sich bei der Bedienrichtung der Ziehbedienung um eine seitliche Richtung senkrecht zu der Vertikalrichtung oder eine Umfangsrichtung auf dem Berührbedienfeld handelt.
  9. Roboterbedienungsvorrichtung nach Anspruch 7 oder 8, wobei: der Antriebsachsen-Auswahlprozess die anzutreibende Antriebsachse durch Übergehen von einer Antriebsachse auf einer Basisseite des Roboters zu einer Antriebsachse auf der Handseite bestimmt, begleitet von einer Zunahme in der Anzahl von Fingern der Ziehbedienung.
  10. Roboterbedienungsvorrichtung nach Anspruch 7 oder 8, wobei: der Antriebsachsen-Auswahlprozess die anzutreibende Antriebsachse durch Übergehen von einer Antriebsachse an der Handseite des Roboters zu einer Antriebsachse auf der Basisseite bestimmt, begleitet von einer Zunahme in der Anzahl von Fingern der Ziehbedienung.
  11. Roboterbedienungsvorrichtung nach einem der Ansprüche 1 bis 10, wobei: die Aktionsbefehl-Erzeugungseinheit die Anzahl von Fingern der Berührbedienung nach dem Verstreichen einer vorgegebenen zulässigen Verzögerungszeit ab dem Detektionszeitpunkt bestimmt, wenn ein einzelner Ort einer Berührbedienung detektiert wird.
  12. Roboterbedienungsvorrichtung nach einem der Ansprüche 1 bis 11, wobei: die Aktionsbefehl-Erzeugungseinheit bei einer Berührbedienung durch eine Vielzahl von Fingern zwei Finger unter der Vielzahl von Fingern extrahiert, bei denen ein Abstand zwischen den Berührpositionen der Finger am größten ist, bestimmt, dass die Ziehbedienung keine Bedienung in eine Umfangsrichtung ist, wenn ein durch einen Vektor bezüglich der Bewegung von einem der beiden Finger und durch einen Vektor zwischen den beiden Fingern gebildeter Winkel kleiner ist als ein Bestimmungsgrenzwert, und bestimmt, dass die Ziehbedienung eine Bedienung in eine Umfangsrichtung ist, wenn der Winkel der Bestimmungsgrenzwert oder größer ist.
  13. Roboterbedienungsvorrichtung nach Anspruch 1, wobei: die Bedienauswahl-Detektionseinheit eine Berührbedienung auf dem Berührbedienfeld detektiert; und die Aktionsbefehl-Erzeugungseinheit Richtungen der Ziehbedienung derart zuweist, so dass diese eine unterschiedliche Richtung für jede Antriebsachse oder Aktionsmodus des Roboters ist.
  14. Roboterbedienungsvorrichtung nach einem der Ansprüche 1 bis 13, wobei: die Aktionsbefehl-Erzeugungseinheit die Detektion einer Berührbedienung in einem Bereich innerhalb einer vorgegebenen Spanne nahe des Berührorts durch die Berührbedienung über einen Zeitraum bis zum Abschluss der Ziehbedienung sperrt.
  15. Roboterbedienungsvorrichtung, aufweisend: ein Berührbedienfeld, das Eingabe einer Berührbedienung von einem Nutzer aufnimmt; eine Berührbedienungs-Detektionseinheit, die in der Lage ist, eine Berührbedienung in einer Ebenenrichtung, die an dem Berührbedienfeld eingegeben wird, zu detektieren; eine Aktionsbefehl-Erzeugungseinheit, die einen Aktionsbefehl zum Bedienen eines Gelenkarmroboters mit einer Vielzahl von Antriebsachsen basierend auf einem Detektionsergebnis von der Berührbedienungs-Detektionseinheit erzeugt; und eine Umschalteinheit, die in der Lage ist, zwischen einer Hauptbedienung und einer Nebenbedienung umzuschalten, wobei die Hauptbedienung eine Bedienung zum Bedienen einer Antriebsachse oder eines Aktionsmodus, die zu einer Position einer Hand des Roboters beitragen, unter der Vielzahl von Antriebsachsen und Aktionsmodi ist, und wobei die Nebenbedienung eine Bedienung zum Bedienen einer Antriebsachse oder eines Aktionsmodus ist, die zu einer Haltung der Hand des Roboters beitragen.
  16. Roboterbedienungsvorrichtung nach einem der Ansprüche 1 bis 15, wobei: das Berührbedienfeld in einen ersten Bereich und einen zweiten Bereich aufgeteilt ist, in welchen eine Bedienung in eine einzelne Richtung oder in zwei Richtungen, die senkrecht zueinander sind, durch die Berührbedienungs-Detektionseinheit detektiert werden kann; und die Aktionsbefehl-Erzeugungseinheit Aktionsbefehle für eine Antriebsachse oder einen Aktionsmodus erzeugt, die voneinander verschieden sind, wenn eine durch die Berührbedienungs-Detektionseinheit detektierte Ziehbedienung in dem ersten Bereich durchgeführt wird und wenn die Ziehbedienung in dem zweiten Bereich durchgeführt wird.
  17. Roboterbedienungsvorrichtung, aufweisend: ein Berührbedienfeld, das Eingabe einer Berührbedienung von einem Nutzer aufnimmt; eine Berührbedienungs-Detektionseinheit, die in der Lage ist, eine Berührbedienung in einer Ebenenrichtung, die an dem Berührbedienfeld eingegeben wird, zu detektieren; eine Kippbedienungs-Detektionseinheit, die in der Lage ist, die Eingabe einer Kippbedienung durch den Nutzer durch Detektieren eines Kippen der Berührbedienfelds zu detektieren; und eine Aktionsbefehl-Erzeugungseinheit, die einen Aktionsbefehl zum Bedienen eines Gelenkarmroboters mit einer Vielzahl von Antriebsachsen basierend auf einem Detektionsergebnis von der Berührbedienungs-Detektionseinheit erzeugt, wobei die Aktionsbefehl-Erzeugungseinheit in der Lage ist, durchzuführen: einen Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung zum Erzeugen des Aktionsbefehls zum Bewegen einer Hand des Roboters in einer Ebenenrichtung basierend auf der durch die Berührbedienungs-Detektionseinheit detektierten Berührbedienung, und einen Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung zum Erzeugen des Aktionsbefehls zum Bewegen der Hand des Roboters entlang einer Vertikalachsenrichtung, die senkrecht zu der Aktionsbezugsebene ist, basierend auf der durch die Kippbedienungsdetektionseinheit detektierten Kippbedienung.
  18. Roboterbedienungsvorrichtung nach Anspruch 17, wobei: die Aktionsbefehl-Erzeugungseinheit eine Bewegungsgeschwindigkeit oder eine Bewegungsmenge des Roboters basierend auf einer Kippmenge der von der Kippbedienungseinheit detektierten Kippbedienung erhöht oder verringert.
  19. Roboterbedienungsvorrichtung, aufweisend: ein Berührbedienfeld, das Eingabe einer Berührbedienung von einem Nutzer aufnimmt; eine Berührbedienungs-Detektionseinheit, die in der Lage ist, eine Berührbedienung in einer Ebenenrichtung, die dem Berührbedienfeld eingegeben wird, zu detektieren; und eine Aktionsbefehl-Erzeugungseinheit, die einen Aktionsbefehl zum Bedienen eines Gelenkarmroboters mit einer Vielzahl von Antriebsachsen basierend auf einem Detektionsergebnis von der Berührbedienungs-Detektionseinheit erzeugt, wobei das Berührbedienfeld einen Aktionsauswahlbereich, der eine Bedienung zum Auswählen einer Antriebsachse oder eines Aktionsmodus des zu bedienenden Roboters aufnimmt, und einen Bewegungsmengen-Bestimmungsbereich, der eine Bedienung zum Bestimmen der Bewegungsmenge des Roboters aufnimmt, aufweist.
  20. Roboterbedienungsvorrichtung nach Anspruch 19, ferner aufweisend: eine Bedienstart-Detektionseinheit, die eine Startbedienung zum Starten der Aufnahme einer Bedienung in dem Aktionsauswahlbereich detektiert, wobei die Aktionsbefehl-Erzeugungseinheit eine Berührbedienung in dem Aktionsauswahlbereich aufnimmt, nachdem die Bedienstart-Detektionseinheit die Startbedienung detektiert.
  21. Roboterbedienungsvorrichtung nach Anspruch 19 oder 20, wobei: die Bedienung zum Auswählen einer Aktion des Roboters eine Bedienung ist, bei der eine Zahl, ein Zeichen, oder ein Symbol entsprechend der Antriebsachse oder dem Aktionsmodus an dem Berührbedienfeld eingegeben wird.
  22. Roboterbedienungsvorrichtung nach einem der Ansprüche 19 bis 21, wobei: die Aktionsbefehl-Erzeugungseinheit die Detektion einer Bewegung in dem Bewegungsmengen-Bestimmungsbereich über einen Zeitraum bis zum Abschluss der Bedienung sperrt, wenn eine Bedienung in dem Aktionsauswahlbereich detektiert wird.
  23. Roboterbedienungsvorrichtung nach einem der Ansprüche 1 bis 22, wobei: die Aktionsbefehl-Erzeugungseinheit in der Lage ist, durchzuführen: einen Bedienungsbestimmungsprozess zum Bestimmen einer Bewegungsmenge eines Fingers in der Ziehbedienung, wenn eine von der Berührbedienungs-Detektionseinheit detektierte Berührbedienung eine Ziehbedienung ist, einen Geschwindigkeitsberechnungsprozess zum Berechnen einer Bewegungsgeschwindigkeit des Roboters basierend auf der Bewegungsmenge des Fingers, die in dem Bedienungsbestimmungsprozess detektiert wurde, und einen Aktionsbefehl-Erzeugungsprozess zum Erzeugen eines Aktionsbefehls zum Bewegen des Roboters mit der Bewegungsgeschwindigkeit, die in dem Geschwindigkeitsberechnungsprozess berechnet wurde.
  24. Roboterbedienungsvorrichtung nach Anspruch 23, wobei: die Aktionsbefehl-Erzeugungseinheit in der Lage ist, einen Bewegungsmengen-Berechnungsprozess zum Berechnen einer Bewegungsdistanz des Roboters basierend auf der Bewegungsmenge des Fingers durchzuführen; und der Geschwindigkeitsberechnungsprozess ein Prozess zum Bestimmen einer Bewegungsgeschwindigkeit des Roboters ist, basierend auf einem Wert, der erhalten wird, indem die Bewegungsmenge des Fingers durch eine Menge an Zeit, die für die Eingabe der Ziehbedienung benötigt wird, dividiert wird.
  25. Roboterbedienungsvorrichtung nach Anspruch 23 oder 24, wobei: die Aktionsbefehl-Erzeugungseinheit in der Lage ist, den Bedienungsbestimmungsprozess, den Geschwindigkeitsberechnungsprozess, und den Aktionsbefehl-Erzeugungsprozess bei einem bestimmten Takt durchzuführen, während die Ziehbedienung durchgeführt wird.
  26. Roboterbedienungsvorrichtung nach einem der Ansprüche 1 bis 25, wobei: die Aktionsbefehl-Erzeugungseinheit in der Lage ist, durchzuführen: einen Bedienungsbestimmungsprozess zum Bestimmen einer Bewegungsmenge eines Fingers in einer von der Berührbedienungs-Detektionseinheit detektierten Ziehbedienung, und einen Bewegungsmengen-Bestimmungsprozess zum Festlegen, bezüglich eines Skalierungsfaktors zum Bestimmen einer Bewegungsmenge des Roboters durch Erhöhen oder Verringern der Bewegungsmenge des Fingers, die in dem Bedienungsbestimmungsprozess detektiert wurde, des Skalierungsfaktors auf einen ersten Skalierungsfaktor, der ein feststehender Wert kleiner als 1 ist, von einem Bedienungsstartpunkt bis die Ziehbedienung ein erstes Segment durchlaufen hat, legt den Skalierungsfaktor auf einen Wert größer als der erste Skalierungsfaktor fest, nachdem die Ziehbedienung das erste Segment durchlaufen hat, und Bestimmen der Bewegungsmenge des Roboters.
  27. Roboterbedienungsvorrichtung nach Anspruch 26, wobei: der Bewegungsmengen-Bestimmungsprozess ein Prozess zum Festlegen des Skalierungsfaktors auf einen zweiten Skalierungsfaktor, nachdem die Bewegung des Fingers in der Ziehbedienung das erste Segment durchlaufen hat, bis die Bewegung ein zweites Segment durchlaufen hat, zum Festlegen des Skalierungsfaktors auf einen dritten Wert, der ein feststehender Wert ist, nachdem die Bewegung des Fingers in der Ziehbedienung das zweite Segment durchlaufen hat, und zum Bestimmen der Bewegungsmenge des Roboters ist; und der zweite Skalierungsfaktor ein Wert innerhalb einer Spanne von dem ersten Skalierungsfaktor zu dem dritten Skalierungsfaktor ist, welcher in Abhängigkeit von der Bewegungsmenge des Fingers in der Ziehbedienung kontinuierlich ansteigt.
  28. Roboterbedienungsvorrichtung nach einem der Ansprüche 1 bis 27, wobei: die Berührbedienungs-Detektionseinheit eine Berührbedienung auf einem Berührbedienfeld detektiert, das in einem Gehäuse bereitgestellt ist, welches von einem Nutzer gehalten werden kann, und eine Berührbedienung als Detektionsziel in einem Bereich einer vorgegebenen Spanne neben einem Griffabschnitt ausschließt, der vermutlich gegriffen wird, wenn der Nutzer das Gehäuse hält.
  29. Robotersystem, gekennzeichnet durch das Aufweisen: eines vier-achsigen Horizontal-Gelenkarmroboters; eines Controllers, der eine Aktion des Roboters steuert; und einer Roboterbedienungsvorrichtung nach einem der Ansprüche 1 bis 28.
  30. Robotersystem, gekennzeichnet durch das Aufweisen: eines sechs-achsigen Vertikal-Gelenkarmroboters; eines Controllers, der eine Aktion des Roboters steuert; und einer Roboterbedienungsvorrichtung nach einem der Ansprüche 1 bis 28.
  31. Roboterbedienungsprogramm, das durch einen in einer Roboterbedienungsvorrichtung enthaltenen Computer ausgeführt wird, wobei: die Roboterbedienungsvorrichtung beinhaltet: ein Berührbedienfeld, das Eingabe einer Berührbedienung von einem Nutzer aufnimmt; eine Berührbedienungs-Detektionseinheit, die in der Lage ist, eine Berührbedienung in einer Ebenenrichtung zu detektieren, die an dem Berührbedienfeld eingegeben wird; eine Bedienauswahl-Detektionseinheit, die integral mit oder getrennt von dem Berührbedienfeld bereitgestellt ist und eine Auswahlbedienung durch den Nutzer detektiert; und das Programm es dem Computer ermöglicht, durchzuführen: einen Bedienungsbestimmungsprozess zum Bestimmen einer zu bedienenden Antriebsachse oder eines Aktionsmodus eines Gelenkarmroboters mit einer Vielzahl von Antriebsachsen basierend auf der von der Bedienauswahl-Detektionseinheit detektierten Auswahlbedienung durchzuführen, und wenn es sich bei der von der Berührbedienungs-Detektionseinheit detektierten Berührbedienung um eine Ziehbedienung handelt, Bestimmen einer Bewegungsmenge der Ziehbedienung, und einen Aktionsbefehl-Erzeugungsprozess zum Bestimmen einer Bewegungsmenge des Roboters basierend auf der Bewegungsmenge der in dem Bedienungsbestimmungsprozess durchgeführten Ziehbedienung, und Erzeugen eines Aktionsbefehls zum Bewegen des Roboters an der Antriebsachse oder in dem Aktionsmodus, welche/welcher um die Bewegungsmenge bedient werden soll.
  32. Roboterbedienungsprogramm, das durch einen in einer Roboterbedienungsvorrichtung enthaltenen Computer ausgeführt wird, wobei: die Roboterbedienungsvorrichtung beinhaltet: ein Berührbedienfeld, das Eingabe einer Berührbedienung von einem Nutzer aufnimmt; eine Berührbedienungs-Detektionseinheit, die in der Lage ist, eine Berührbedienung in einer Ebenenrichtung zu detektieren, die an dem Berührbedienfeld eingegeben wird; und das Programm es dem Computer ermöglicht, durchzuführen: einen Aktionsbefehl-Erzeugungsprozess zum Erzeugen eines Aktionsbefehls zum Bewegen eines Gelenkarmroboters mit einer Vielzahl von Antriebsachsen, und einen Umschaltprozess zum Umschalten zwischen einer Hauptbedienung und einer Nebenbedienung, wobei die Hauptbedienung eine Bedienung zum Bedienen einer Antriebsachse oder eines Aktionsmodus, die zu einer Position einer Hand des Roboters beitragen, unter der Vielzahl von Antriebsachsen oder Aktionsmodi ist, und wobei die Nebenbedienung eine Bedienung zum Bedienen einer Antriebsachse oder eines Aktionsmodus, die zu der Haltung der Hand des Roboters beitragen, ist.
  33. Roboterbedienungsprogramm, das durch einen in einer Roboterbedienungsvorrichtung enthaltenen Computer ausgeführt wird, wobei: die Roboterbedienungsvorrichtung beinhaltet: ein Berührbedienfeld, das Eingabe einer Berührbedienung von einem Nutzer aufnimmt; eine Berührbedienungs-Detektionseinheit, die in der Lage ist, eine Berührbedienung in einer Ebenenrichtung zu detektieren, die an dem Berührbedienfeld eingegeben wird; eine Kippbedienungs-Detektionseinheit, die in der Lage ist, die Eingabe einer Kippbedienung durch den Nutzer durch Detektieren eines Kippens des Berührbedienfelds zu detektieren; und das Programm es dem Computer ermöglicht, durchzuführen: einen Aktionsbefehl-Erzeugungsprozess für Horizontalbewegung zum Erzeugen des Aktionsbefehls zum Bewegen einer Hand eines Gelenkarmroboters mit einer Vielzahl von Antriebsachsen in einer Ebenenrichtung, die horizontal zu einer Aktionsbezugsebene des Roboters ist, basierend auf der durch die Berührbedienungs-Detektionseinheit detektierten Berührbedienung, und einen Aktionsbefehl-Erzeugungsprozess für Vertikalbewegung zum Erzeugen des Aktionsbefehls zum Bewegen der Hand des Roboters entlang einer Vertikalachsenrichtung, die senkrecht zu der Aktionsbezugsoberfläche ist, basierend auf der durch die Kippbedienungs-Detektionseinheit detektierten Kippbedienung.
  34. Roboterbedienungsprogramm, das durch einen in einer Roboterbedienungsvorrichtung enthaltenen Computer ausgeführt wird, wobei: die Roboterbedienungsvorrichtung beinhaltet: ein Berührbedienfeld, das die Eingabe einer Berührbedienung von einem Nutzer aufnimmt; eine Berührbedienungs-Detektionseinheit, die in der Lage ist, eine Berührbedienung in einer Ebenenrichtung zu detektieren, die an dem Berührbedienfeld eingegeben wird; und das Programm es dem Computer ermöglicht, durchzuführen: einen Aktionsbefehl-Erzeugungsprozess zum Erzeugen eines Aktionsbefehls zum Bewegen eines Gelenkarmroboters mit einer Vielzahl von Antriebsachsen, basierend auf dem Detektionsergebnis von der Berührbedienungs-Detektionseinheit, und einen Prozess zum Bilden, in dem Berührbedienfeld, eines Aktionsauswahlbereichs, der eine Eingabe einer Bedienung zum Auswählen einer Antriebsachse oder eines Aktionsmodus des zu bedienenden Roboters aufnimmt, und eines Bewegungsmengen-Bestimmungsbereichs, der eine Eingabe einer Bedienung zum Bestimmen einer Bewegungsmenge des Roboters aufnimmt.
DE112014004307.9T 2013-09-20 2014-09-19 Roboterbedienungsvorrichtung, Robotersystem, und Roboterbedienungsprogramm Active DE112014004307B4 (de)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP2013195423 2013-09-20
JP2013-195423 2013-09-20
JP2014-175753 2014-08-29
JP2014175753A JP6476662B2 (ja) 2013-09-20 2014-08-29 ロボット操作装置、ロボットシステム、及びロボット操作プログラム
PCT/JP2014/074891 WO2015041332A1 (ja) 2013-09-20 2014-09-19 ロボット操作装置、ロボットシステム、及びロボット操作プログラム

Publications (2)

Publication Number Publication Date
DE112014004307T5 true DE112014004307T5 (de) 2016-07-07
DE112014004307B4 DE112014004307B4 (de) 2022-01-20

Family

ID=52688979

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112014004307.9T Active DE112014004307B4 (de) 2013-09-20 2014-09-19 Roboterbedienungsvorrichtung, Robotersystem, und Roboterbedienungsprogramm

Country Status (6)

Country Link
US (1) US10076839B2 (de)
JP (1) JP6476662B2 (de)
CN (1) CN105722650B (de)
DE (1) DE112014004307B4 (de)
TW (1) TWI654055B (de)
WO (1) WO2015041332A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200030986A1 (en) * 2016-07-21 2020-01-30 Autodesk, Inc. Robotic camera control via motion capture

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2875914A1 (de) * 2012-07-20 2015-05-27 Kabushiki Kaisha Yaskawa Denki Robotersimulator roboterlehrvorrichtung und roboterlehrverfahren
US10768708B1 (en) * 2014-08-21 2020-09-08 Ultrahaptics IP Two Limited Systems and methods of interacting with a robotic tool using free-form gestures
JP6497021B2 (ja) * 2014-10-01 2019-04-10 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
US10786315B2 (en) * 2014-11-13 2020-09-29 Intuitive Surgical Operations, Inc. Interaction between user-interface and master controller
US10123846B2 (en) 2014-11-13 2018-11-13 Intuitive Surgical Operations, Inc. User-interface control using master controller
JP6690265B2 (ja) * 2015-03-19 2020-04-28 株式会社デンソーウェーブ ロボット操作装置、ロボット操作方法
EP3305672B1 (de) * 2015-05-26 2022-05-04 Ishida Co., Ltd. Produktionslinienkonfigurationsvorrichtung
JP6643776B2 (ja) * 2015-06-11 2020-02-12 株式会社バンダイナムコエンターテインメント 端末装置及びプログラム
EP3321044A4 (de) * 2015-08-25 2019-05-29 Kawasaki Jukogyo Kabushiki Kaisha Fernsteuerungsmanipulatorsystem und betriebsverfahren dafür
JP6710919B2 (ja) * 2015-09-08 2020-06-17 株式会社デンソーウェーブ ロボット操作装置
EP3386421A4 (de) * 2015-12-10 2019-11-20 Covidien LP Robotische chirurgische systeme mit unabhängiger roll-, neigungs- und gierskalierung
JP2017211956A (ja) * 2016-05-27 2017-11-30 ファナック株式会社 マルチタッチジェスチャによる機械操作が可能な数値制御装置
JP6591941B2 (ja) * 2016-07-21 2019-10-16 ファナック株式会社 容易に軸移動量の倍率設定が可能な手動ハンドル送り機能を備えた数値制御装置
JPWO2018051435A1 (ja) * 2016-09-14 2018-09-13 三菱電機株式会社 数値制御装置
CN114115337A (zh) * 2016-09-22 2022-03-01 深圳市大疆创新科技有限公司 一种飞行控制方法、装置及智能终端
CN106484182B (zh) * 2016-09-29 2019-06-18 北京小米移动软件有限公司 触控识别方法及装置
WO2018119981A1 (zh) * 2016-12-30 2018-07-05 深圳市大疆创新科技有限公司 一种可移动设备的控制方法、控制设备及控制系统
WO2018152779A1 (en) 2017-02-24 2018-08-30 Abb Schweiz Ag Method and apparatus for selecting initial point for industrial robot commissioning
CN110462530A (zh) * 2017-03-31 2019-11-15 索尼公司 信息处理设备、信息处理方法、计算机程序和程序制造方法
JP6469162B2 (ja) 2017-04-17 2019-02-13 ファナック株式会社 ロボットのオフライン教示装置
JP6526098B2 (ja) * 2017-04-26 2019-06-05 ファナック株式会社 ロボットを操作するための操作装置、ロボットシステム、および操作方法
JP6953778B2 (ja) * 2017-04-28 2021-10-27 オムロン株式会社 協調ロボット、コントローラ、および方法
JP6936081B2 (ja) * 2017-08-30 2021-09-15 パナソニック株式会社 ロボット
JP6907853B2 (ja) * 2017-09-21 2021-07-21 株式会社デンソー ロボットの教示システム
JP7087316B2 (ja) * 2017-09-27 2022-06-21 オムロン株式会社 情報処理装置、情報処理方法およびプログラム
EP3474125A1 (de) * 2017-10-23 2019-04-24 Koninklijke Philips N.V. Visualisierung medizinischer bilder
JP6784660B2 (ja) * 2017-11-28 2020-11-11 ファナック株式会社 入力装置およびロボットの制御システム
KR102239469B1 (ko) * 2018-01-19 2021-04-13 한국과학기술원 객체 제어 방법 및 객체 제어 장치
WO2019190487A1 (en) * 2018-03-27 2019-10-03 Productive Robotics, Inc. Collaborative robot system incorporating enhanced human interface
TWI712475B (zh) * 2018-04-03 2020-12-11 台達電子工業股份有限公司 機械手臂之作動教導方法及其適用之手勢教導裝置
CN110340866A (zh) * 2018-04-03 2019-10-18 台达电子工业股份有限公司 机械手臂的作动教导方法及其适用的手势教导装置
JP6693538B2 (ja) * 2018-05-16 2020-05-13 株式会社安川電機 操作用デバイス、制御システム、制御方法及びプログラム
US11279044B2 (en) * 2018-08-03 2022-03-22 Yaskawa America, Inc. Robot instructing apparatus, teaching pendant, and method of instructing a robot
JP7490349B2 (ja) * 2018-11-01 2024-05-27 キヤノン株式会社 入力装置、入力装置の制御方法、ロボットシステム、ロボットシステムを用いた物品の製造方法、制御プログラム及び記録媒体
CN112917470A (zh) * 2019-12-06 2021-06-08 鲁班嫡系机器人(深圳)有限公司 一种机械手的示教方法、装置、系统、存储介质及设备
DE102020201375B3 (de) * 2020-02-05 2021-06-24 Magna Steyr Fahrzeugtechnik Ag & Co Kg Verfahren zur Überprüfung eines Sicherheitsbereichs eines Roboters
US20230294300A1 (en) * 2020-07-30 2023-09-21 Abb Schweiz Ag Diffractive Visual-Tactile Sensing in Robotic Grippers
CN111958611B (zh) * 2020-07-31 2021-10-08 华中科技大学 考虑轮廓误差最小的铣削加工机器人姿态优化方法及设备
JP2022092831A (ja) * 2020-12-11 2022-06-23 セイコーエプソン株式会社 ソフトウェアスイッチプログラム、選択肢の選択方法および情報処理装置
CN112706148A (zh) * 2020-12-25 2021-04-27 珠海新天地科技有限公司 一种机器人操作装置及方法
CN114911401A (zh) * 2021-02-08 2022-08-16 华为技术有限公司 电子设备及其触摸操作的分析方法和可读介质
WO2023062796A1 (ja) * 2021-10-14 2023-04-20 ファナック株式会社 複数の構成部材を含むロボットを制御する制御装置、制御装置を備えるロボット装置、およびパラメータを設定する操作装置
CN115429444A (zh) * 2022-09-26 2022-12-06 深圳市爱博医疗机器人有限公司 一种介入机器人及多种模式控制方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3841439B2 (ja) * 1996-07-24 2006-11-01 ファナック株式会社 ロボットのジョグ送り方法
JPH11262883A (ja) * 1998-03-19 1999-09-28 Denso Corp ロボットのマニュアル操作装置
JP4850995B2 (ja) * 2000-04-20 2012-01-11 株式会社東海理化電機製作所 タッチ操作入力装置
JP4347313B2 (ja) 2006-02-23 2009-10-21 ファナック株式会社 ロボット教示操作盤
JP2008084158A (ja) * 2006-09-28 2008-04-10 Toyota Motor Corp 入力装置
JP2009142941A (ja) * 2007-12-14 2009-07-02 Toyota Motor Corp 制御装置及び制御方法
EP2124117B1 (de) * 2008-05-21 2012-05-02 Siemens Aktiengesellschaft Bedieneinrichtung zur Bedienung einer Werkzeugmaschine
JP4676544B2 (ja) * 2009-05-29 2011-04-27 ファナック株式会社 工作機械に対してワークの供給及び取り出しを行うロボットを制御するロボット制御装置
JP5669169B2 (ja) * 2009-07-28 2015-02-12 Necカシオモバイルコミュニケーションズ株式会社 端末装置及びプログラム
WO2012062374A1 (en) 2010-11-12 2012-05-18 Abb Technology Ag A control system and an operating device for controlling an industrial robot comprising a touch -screen
JP5649169B2 (ja) 2010-11-22 2015-01-07 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation タッチパネルにおけるドラッグ操作でオブジェクトを移動させる方法、装置及びコンピュータプログラム
JP5722696B2 (ja) 2011-05-10 2015-05-27 京セラ株式会社 電子機器、制御方法及び制御プログラム
JP2013154410A (ja) * 2012-01-26 2013-08-15 Canon Inc 教示装置
JP5994300B2 (ja) 2012-03-12 2016-09-21 ブラザー工業株式会社 入力装置及び入力プログラム
DE102012103032B3 (de) 2012-04-05 2013-07-04 Reis Group Holding Gmbh & Co. Kg Verfahren zur Bedienung eines Industrieroboters
JP5716769B2 (ja) * 2013-02-21 2015-05-13 株式会社安川電機 ロボットシミュレータ、ロボット教示装置およびロボット教示方法
US9283674B2 (en) * 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200030986A1 (en) * 2016-07-21 2020-01-30 Autodesk, Inc. Robotic camera control via motion capture

Also Published As

Publication number Publication date
DE112014004307B4 (de) 2022-01-20
CN105722650A (zh) 2016-06-29
TW201532760A (zh) 2015-09-01
JP2015083331A (ja) 2015-04-30
US10076839B2 (en) 2018-09-18
WO2015041332A1 (ja) 2015-03-26
US20160229052A1 (en) 2016-08-11
JP6476662B2 (ja) 2019-03-06
TWI654055B (zh) 2019-03-21
CN105722650B (zh) 2017-09-22

Similar Documents

Publication Publication Date Title
DE112014004307B4 (de) Roboterbedienungsvorrichtung, Robotersystem, und Roboterbedienungsprogramm
EP2834050B1 (de) Verfahren zur bedienung eines industrieroboters
EP2834715B1 (de) Verfahren zur bedienung eines industrieroboters
DE102012103032B3 (de) Verfahren zur Bedienung eines Industrieroboters
DE102016208811B3 (de) Mobile Sicherheits-Grundsteuervorrichtung mit einer Kodiervorrichtung für ein mobiles Endgerät mit Multi-Touchscreen
DE102019009313B4 (de) Robotersteuerung, Verfahren und Computerprogramm unter Verwendung von erweiterter Realität und gemischter Realität
CN105479467B (zh) 机器人操作装置、机器人系统以及机器人操作程序
DE102018109463C5 (de) Verfahren zur Benutzung einer mehrgliedrigen aktuierten Kinematik, vorzugsweise eines Roboters, besonders vorzugsweise eines Knickarmroboters, durch einen Benutzer mittels einer mobilen Anzeigevorrichtung
EP2874789B1 (de) Verfahren zur bedienung eines industrieroboters sowie vorrichtung zur durchführung des verfahrens
WO2012080029A1 (de) System mit gestenerkennungseinheit
DE102018107069A1 (de) Robotersystem
DE102011084812A1 (de) Benutzerschnittstelle mit einem Eingabeobjekt und Verfahren zur rechnergestützten Ansteuerung einer Benutzerschnittstelle
DE102012102749A1 (de) Vorrichtung und Verfahren zur Bedienung eines Industrieroboters
EP3695293A1 (de) Verfahren zur bereitstellung einer haptischen rückmeldung an einen bediener einer berührungssensitiven anzeigeeinrichtung
EP2953793A1 (de) System zur druckmaschinenbedienung
EP2702472A1 (de) Bedienelement für eine beleuchtungsanlage
EP3990231A1 (de) System zum vornehmen einer eingabe an einem robotermanipulator
DE102008050542A1 (de) Medizinisches Bildaufnahmesystem, Bedieneinrichtung und Verfahren zum Steuern einer Bildaufnahmevorrichtung
DE102018109326A1 (de) Mehrgliedrige aktuierte Kinematik, vorzugsweise Roboter, besonders vorzugsweise Knickarmroboter
DE102019200284A1 (de) Verfahren und Programm zum Vorgeben einer Position
WO2020126410A1 (de) Verfahren und system zum einstellen eines wertes eines parameters
EP3268852A1 (de) Verfahren zur gezielten auswahl von angezeigten elementen auf einer berührungssensitiven anzeige
DE102016008049A1 (de) Verfahren zum Betreiben einer Bedienvorrichtung, Bedienvorrichtung und Kraftfahrzeug
DE102019212278A1 (de) Bediensystem und Verfahren zum Betreiben des Bediensystems
AT15325U1 (de) Vorrichtung zum Bestimmen der Pupillenmitte

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final