JP2018187697A - 産業用ロボット、コントローラ、および方法 - Google Patents

産業用ロボット、コントローラ、および方法 Download PDF

Info

Publication number
JP2018187697A
JP2018187697A JP2017090131A JP2017090131A JP2018187697A JP 2018187697 A JP2018187697 A JP 2018187697A JP 2017090131 A JP2017090131 A JP 2017090131A JP 2017090131 A JP2017090131 A JP 2017090131A JP 2018187697 A JP2018187697 A JP 2018187697A
Authority
JP
Japan
Prior art keywords
controller
industrial robot
manipulator
arm
gesture input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017090131A
Other languages
English (en)
Other versions
JP6953778B2 (ja
Inventor
大知 神園
Daichi Kamizono
大知 神園
喜東 谷
Yoshiharu Tani
喜東 谷
一功 尾▲さこ▼
Kazunari Osako
一功 尾▲さこ▼
敏之 樋口
Toshiyuki Higuchi
敏之 樋口
橋本 実
Minoru Hashimoto
実 橋本
将己 藤田
Masaki Fujita
将己 藤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017090131A priority Critical patent/JP6953778B2/ja
Priority to US15/891,342 priority patent/US10800032B2/en
Priority to CN201810143786.0A priority patent/CN108789457B/zh
Priority to EP18156227.3A priority patent/EP3395510B1/en
Publication of JP2018187697A publication Critical patent/JP2018187697A/ja
Application granted granted Critical
Publication of JP6953778B2 publication Critical patent/JP6953778B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • B25J13/084Tactile sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/081Touching devices, e.g. pressure-sensitive
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/086Proximity sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/0081Programme-controlled manipulators with master teach-in means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • G05B19/423Teaching successive positions by walk-through, i.e. the tool head or end effector being grasped and guided directly, with or without servo-assistance, to follow a path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/36Nc in input of data, input key till input tape
    • G05B2219/36418Modify trajectory by operator gesture, gesture force sensed by end effector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37284Capacitive 3-D proximity sensor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40544Detect proximity of object
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40627Tactile image sensor, matrix, array of tactile elements, tixels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/03Teaching system
    • Y10S901/04Manual lead through
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/14Arm movement, spatial
    • Y10S901/15Jointed arm
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】ユーザにとって操作性の高い産業用ロボットを提供する。【解決手段】産業用ロボット1は、マニプレータ10と、マニプレータ10の動作を制御するコントローラ20と、マニプレータ10に取り付けられ、かつジェスチャ入力を検出するための検出装置30とを備える。コントローラ20は、検出されたジェスチャ入力に応じた処理を実行する。【選択図】図5

Description

本発明は、産業用ロボット、産業用ロボットを制御するコントローラ、およびコントローラにおける方法に関する。
従来、各種の産業用ロボットが知られている。このような産業用ロボットとして、特許文献1には、ロボット本体と、ロボット本体に設けられたアームと、アームに設けられたタッチパネルモニタと、制御部とを備えたロボットが開示されている。
特許文献1のロボットにおいては、制御部は、アームの手先に加えられた外力に応じてアームの姿勢を変化させ、その後タッチパネルモニタへの入力を取得すると、当該変化させた後のアームの姿勢を教示情報として生成するダイレクトティーチングを行う。
詳しくは、教示者がタッチパネルモニタへ触れると、制御部は、タッチパネルモニタに、新規ボタンと編集ボタンとを含むメニュー画面を表示させる。新規ボタンへのタッチ入力が行われた場合、制御部は、ダイレクトティーチングを開始する。具体的には、外力によって姿勢を変化可能とするため、制御部は、アームの各関節軸の保持用ブレーキを解除する。また、外力によって姿勢が変更された後に、タッチパネルモニタに表示された位置記憶ボタンに対するタッチ入力を受け付けると、制御部は、当該姿勢を検出し、当該姿勢と作業番号とを関連付けた教示情報を生成する。
特開2015−182142号公報 特開2014−184541号公報
特許文献1のロボットでは、ダイレクトティーチングの際には、タッチパネルモニタに表示されたボタンの選択が複数回必要となる。このため、ユーザ(教示者)は、都度、画面表示を確認し、表示されている複数のボタンから1つのボタンを選択する必要がある。それゆえ、このようなタッチパネルモニタを備えたロボットは、ユーザにとって操作性が高いとは言えない。
本発明は、上記の問題点に鑑みなされた物であって、その目的は、ユーザにとって操作性の高い産業用ロボット、産業用ロボットを制御するコントローラ、およびコントローラにおける方法を提供することにある。
本発明のある局面に従うと、産業用ロボットは、マニプレータと、マニプレータの動作を制御するコントローラと、マニプレータに取り付けられ、かつジェスチャ入力を検出するための検出装置とを備える。コントローラは、検出されたジェスチャ入力に応じた処理を実行する。
好ましくは、検出装置は、さらに、マニプレータと物との間の距離を測定するために用いられる。コントローラは、測定された距離が第1の距離よりも短い第2の距離の場合、第1の距離の場合よりもマニプレータの動作速度を遅くする。
好ましくは、コントローラは、距離が予め定められた閾値よりも短くなると、距離が閾値よりも長いときよりも検出装置の検出感度を低くする。
好ましくは、コントローラは、ジェスチャ入力が予め定められたパターンの入力であることを条件に、ジェスチャ入力に応じた処理として、産業用ロボットに対するダイレクトティーチング操作を受け付ける。
好ましくは、コントローラは、ジェスチャ入力が予め定められたパターンの入力であることを条件に、ジェスチャ入力に応じた処理として、産業用ロボットに対するダイレクトティーチング操作時の補助トルクを変更する。
好ましくは、コントローラは、ジェスチャ入力が予め定められたパターンの入力であることを条件に、ジェスチャ入力に応じた処理として、産業用ロボットを再起動させる。
好ましくは、コントローラは、ジェスチャ入力が予め定められたパターンの入力であることを条件に、ジェスチャ入力に応じた処理として、マニプレータの姿勢をデフォルトの姿勢に戻す。
好ましくは、コントローラは、動作モードとして、マニプレータに第1の作業を繰り返し実行させる第1のモードと、マニプレータに第2の作業を繰り返し実行させる第2のモードとを有する。コントローラは、動作モードが第1のモードの場合、ジェスチャ入力が予め定められたパターンの入力であることを条件に、ジェスチャ入力に応じた処理として、動作モードを第1のモードから第2のモードに切り換える。
好ましくは、マニプレータは、アームを有する。検出装置は、アームに取り付けられている。
好ましくは、マニプレータは、第1のアームと、第2のアームと、第1のアームに対して第2のアームを移動させる関節とを有する。検出装置は、関節に取り付けられている。
好ましくは、マニプレータは、第1のアームと、第2のアームと、第1のアームに対して第2のアームを移動させる関節とを有する。検出装置は、第1のアームおよび第2のアームのうちの少なくとも一方のアームと、関節とに取り付けられている。
好ましくは、検出装置は、第1のアームと、第2のアームとに取り付けられている。コントローラは、第1のアームに対するジェスチャ入力と、第2のアームに対するジャスチャと、関節に対するジェスチャ入力との組み合わせに応じた処理を実行する。
好ましくは、産業用ロボットは、ジェスチャ入力が予め定められたパターンの入力であることを条件に、予め定められた報知処理を実行する。
好ましくは、検出装置は、複数の近接センサを含むセンサアレイである。
好ましくは、検出装置は、押しスイッチまたは圧力センサである。
本発明の他の局面に従うと、コントローラは、産業用ロボットのマニプレータの動作を制御する。コントローラは、マニプレータに取り付けられた検出装置からの出力に基づき、産業用ロボットに対するジェスチャ入力のパターンを判断する判断手段と、検出されたパターンに応じた処理を実行する実行手段とを備える。
本発明のさらに他の局面に従うと、方法は、産業用ロボットのマニプレータの動作を制御するコントローラにおいて実行される。方法は、マニプレータに取り付けられた検出装置からの出力に基づき、産業用ロボットに対するジェスチャ入力のパターンを判断するステップと、検出されたパターンに応じた処理を実行するステップとを備える。
本発明によれば、産業用ロボットの操作性を高めることができる。
産業用ロボットの概略構成を説明するための図である。 センサ装置の一部の領域の拡大図である。 ジェスチャ入力の第1の例を説明するための図である。 ジェスチャ入力の第2の例を説明するための図である。 ジェスチャ入力の第3の例を説明するための図である。 ジェスチャ入力の第4の例を説明するための図である。 マニプレータの速度制御の一例を説明するための図である。 検出装置の感度設定を説明するための図である。 産業用ロボットのコントローラの機能的構成を説明するための図である。 記憶部に記憶されたデータの概要を表した図である。 コントローラにおける典型的な処理の流れを説明するためのフローチャートである。 センサ感度を一定とした場合に、距離を測定する方法を説明するための図である。 マニプレータの速度制御の他の例を説明するための図である。
以下において、本発明の実施の形態について図面を参照しつつ説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについては詳細な説明は繰返さない。
以下では、産業用ロボットの一例として、協調ロボットを例に挙げて説明する。「協調ロボット」とは、作業者とロボットとが同じ領域で作業できるよう制御されたロボットである。協調ロボットは、作業者の安全を確保しつつ、作業者と協働する。作業者と協調ロボットとが作業を分担することにより、生産性の効率を上げることができる。
<A.全体構成>
図1は、産業用ロボット1の概略構成を説明するための図である。図1を参照して、産業用ロボット1は、マニプレータ10と、コントローラ20と、検出装置30とを備える。なお、作業台900上の領域800は、作業者と産業用ロボット1とが協調して作業する領域である。
(1)マニプレータ10
マニプレータ10は、複数のアーム11,13,15と、複数の関節12,14,16と、回動部17と、台座部18とを有する。詳しくは、マニプレータ10では、先端側から、アーム11、関節12、アーム13、関節14、アーム15、関節16、回動部17、台座部18が、この順で設けられている。
アーム11の先端部には、エンドエフェクタ(図示せず)が取り付けられる。アーム11の後端部は、関節12に接続されている。アーム13の先端部には、関節12が取り付けられている。アーム13の後端部は、関節14に接続されている。アーム15の先端部には、関節14が取り付けられている。アーム15の後端部は、関節16に接続されている。
関節12は、アーム13に対してアーム11を移動させる。関節14は、アーム15に対してアーム13を移動させる。関節16は、回動部17に対してアーム15を移動させる。
回動部17は、関節16を支持するとともに、鉛直軸に平行な回転軸(図示せず)を中心に回転可能に構成されている。台座部18は、回動部17を回動可能に支持する。
(2)検出装置30
検出装置30は、マニプレータ10に取り付けられ、かつユーザによるジェスチャ入力を検出する。検出装置30は、本例では、マニプレータ10と物(たとえば、人)との間の距離を測定するために用いられる。このように、検出装置30は、ユーザのの接近と、ユーザによるタッチ操作に基づくジェスチャ入力とを検出する。
詳しくは、検出装置30は、複数のセンサ装置31〜35によって構成されている。センサ装置31は、アーム11の表面に取付られている。センサ装置32は、関節12の表面に取付られている。センサ装置33は、アーム13の表面に取付られている。センサ装置34は、関節14の表面に取付られている。センサ装置35は、アーム15の表面に取付られている。
各センサ装置31〜35は、安全センサとして機能する。詳しくは、各センサ装置31〜35は、複数の近接センサを含むセンサアレイ(図2参照)として構成されている。各センサ装置31〜35は、検出結果をコントローラ20に対して出力する。
なお、各アーム11,13,15では、4つの表面のうちの1つにセンサ装置が設けられた構成を例に挙げて説明しているが、これに限定されない。各々のアーム11,13,15において、複数の表面にセンサ装置が設けられている構成であってもよい。
また、関節12においては、センサ装置32が設けられている裏面にもセンサ装置を設けてもよい。関節14においても、センサ装置34が設けられている裏面にもセンサ装置を設けてもよい。
(3)コントローラ20
コントローラ20は、マニプレータ10の動作を制御する。詳しくは、コントローラ20は、複数の関節12,14,16と、回動部17との回動動作を制御する。なお、コントローラ20は、産業用ロボット1と通信可能な態様で、産業用ロボット1とは別個に設けられていてもよい。
コントローラ20は、得られた出力がいずれのセンサ装置31〜35によるものかを識別する。さらに、コントローラ20は、これらのセンサ装置31〜35の出力に基づいた処理を実行する。コントローラ20は、ある局面においては、各センサ装置31〜35によって検出されたジェスチャ入力に応じた処理を実行する。
詳しくは、コントローラ20は、各センサ装置31〜35によって検出されたジェスチャ入力が、予め定められたパターンの入力であるか否かを判定する。ジェスチャ入力としては、タップ、ダブルタップ、スワイプ等の各種のタッチ操作に基づく入力が例として挙げられる。
コントローラ20は、予め定められたパターンの入力であると判定したときには、当該予め定められたパターンの入力に応じた処理を実行する。当該パターンおよび処理の具体例については、後述する。
(4)センサ装置の構成
図2は、図1に示したセンサ装置33の一部の領域(領域R)の拡大図である。図2に示すように、センサ装置33は、複数の近接センサ351を含むセンサアレイとして構成されている。なお、他のセンサ装置31,32,34,35も、複数の近接センサ351を含むセンサアレイとして構成されている。各センサ装置31〜35は、たとえば、静電容量方式のパッドとして構成される。
たとえばセンサ装置33に着目した場合、ユーザによってセンサ装置33に対するタッチ操作が行われると、センサ装置33を構成する近接センサ351のうち、タッチされた近接センサ351、またはこの近傍の近接センサ351からは、タッチ操作に基づく信号がコントローラ20に出力される。この場合、コントローラ20は、各近接センサ351からの出力に基づき、センサ装置33に対して行われたジェスチャ入力を取得することになる。その後、コントローラ20は、このジェスチャ入力が予め定められたパターンと一致しているか否かを判定する。
<B.処理の概要>
以下に、ジェスチャ入力の例および当該ジェスチャ入力に基づき行われる処理について説明する。
(1)第1の例
図3は、ジェスチャ入力の第1の例を説明するための図である。図3に示すように、ユーザが左手701でセンサ装置31にタッチし、同時に、右手702でセンサ装置33にタッチする。これにより、コントローラ20は、ダイレクトティーチングを開始するための入力が行われたと判断し、ダイレクトティーチングのモードに移行する。
この後、ユーザは、右手702をセンサ装置33から離し、離した方の右手702でマニプレータ10を移動させる。さらに、ユーザは、左手701をセンサ装置31にタッチした状態で、マニプレータ10を移動させた右手702でセンサ装置33に対してダブルタップを行う。これにより、コントローラ20は、移動後の位置を教示点として記憶する。
なお、上記の例においては、ユーザは、右手702をセンサ装置33から離す例を説明したが、これに限定されるものではない。左手701をセンサ装置31から離し、左手701でマニプレータ10を移動させる構成であってもよい。この場合には、ユーザは、右手702をセンサ装置33にタッチさせた状態で、マニプレータ10を移動させた左手701でセンサ装置31に対してダブルタップを行う。これにより、コントローラ20は、移動後の位置を教示点として記憶する。
また、左手701と右手702とよってタッチされるセンサ装置の組み合わせは、センサ装置31,33に限定されるものではない。さらに、離した手がタッチしていたセンサ装置と、その後にダブルタップを行うセンサ装置とが異なるように設定することも可能である。
(2)第2の例
図4は、ジェスチャ入力の第2の例を説明するための図である。図4に示すように、ユーザが右手702(あるいは左手701)でセンサ装置34に対してダブルタップを行うと、コントローラ20は、産業用ロボット1を再起動させる。
(3)第3の例
図5は、ジェスチャ入力の第3の例を説明するための図である。図5に示すように、ユーザが右手702(あるいは左手701)でセンサ装置33に対して、関節12から関節14の方向へのスワイプ操作を行うと、コントローラ20は、マニプレータ10の姿勢をデフォルトの姿勢に戻す(原点復帰)。なお、スワイプの方向は、関節12から関節14の方向に限定されず、関節14から関節12の方向であってもよい。
(4)第4の例
図6は、ジェスチャ入力の第4の例を説明するための図である。図6に示すように、ユーザが右手702でセンサ装置34にタッチした状態で、左手701でセンサ装置33を下方から上方へとスワイプ操作を行うと、コントローラ20は、動作モード(作業)を切り換える。
コントローラ20は、動作モードとして、複数の作業(一連の作業)のうち、選択された作業をマニプレータ10に繰り返し実行させる。コントローラ20は、上記のユーザ操作が行われると、動作モードを現在の動作モードから次の順番の動作モードに切り換える。たとえば、現在の動作モードが、マニプレータ10に第1の作業を繰り返し実行させる第1のモードの場合、コントローラ20は、動作モードを、第1のモードから、マニプレータ10に第2の作業を繰り返し実行させる第2のモードに切り換える。
なお、スワイプの方向が、上方から下方への場合には、動作モードを現在の動作モードから1つ前の順番の動作モードに切り換えるように、コントローラ20を構成してもよい。
ユーザのジェスチャ入力と、当該ジェスチャ入力に基づき行われる処理との関係は、上記の関係に限定されるものではない。どのようなジェスチャが入力された場合にどのような処理が実行されるかをユーザが設定できるように、コントローラ20を構成することが好ましい。すなわち、特定の処理を実行させるためのジェスチャの新規登録または更新登録を受け付けるように、コントローラ20を構成することが好ましい。
<C.速度制御および感度設定>
産業用ロボット1は、協調ロボットであるため、作業者の安全面を考慮して、作業者との距離に応じた速度制御を行う。
図7は、マニプレータ10の速度制御の一例を説明するための図である。なお、本例におけるマニプレータ10の速度とは、エンドエフェクタが取り付けられるアーム11の先端部の動作速度(移動速度)を指す。
図7を参照して、コントローラ20は、マニプレータ10(詳しくは、検出装置30)とユーザとの間の距離Lが短くなる程、マニプレータ10の動作速度Vが遅くなるように、関節12,14,16および回動部17の速度を制限する。詳しくは、コントローラ20は、速度の上限値を制限する。
距離LがL8(第2の閾値)よりも長い場合には、動作速度V(上限値)は、Vm(最速値)で一定となる。すなわち、マニプレータ10が高速で稼働(詳しくは、アーム11の先端部が高速で稼働)するように、コントローラ20は各部の動作を制御する。
距離Lが、L8よりも短いL1(第1の閾値)以下になると、コントローラ20は、マニプレータ10の動作を停止させる。マニプレータ10が停止することにより、ユーザは、図3〜6に基づいた各種のタッチ入力が可能となる。なお、距離L2,L7,L9,L10については後述する。
図8は、検出装置30の感度設定を説明するための図である。図8を参照して、検出装置30と物(ユーザ)との距離Lが短くなるにつれて、検出装置30のセンサ感度(設定感度)が低くなるように構成されている。コントローラ20は、センサ感度を変更することにより、距離Lを測定する。
センサ感度は、距離Lとセンサ出力との関数として定義される。距離Lの値が小さい程、センサ出力の値は大きくなる。本例では、センサ感度の初期値としては、感度K10が利用される。
距離Lの値が十分に大きい場合、センサ出力は0である(点Pa参照)。ユーザが産業用ロボット1に近づくと、閾値Th20よりも小さな値のセンサ出力が得られる(点Pb参照)。ユーザが産業用ロボット1にさらに近づくと、センサ出力は、閾値Th20よりも大きな値となる(点Pc参照)。なお、距離LがL10(Pc<L10<Pb)のときに、センサ出力は閾値Th20となる。
コントローラ20は、センサ出力が閾値Th20を超えると、センサ感度を、現在の感度から、現在よりも一段だけ低い感度に変更する。この場合、コントローラ20は、センサ感度を感度K10から感度K9に変更する。コントローラ20は、感度K10の場合に、センサ出力が閾値Th20を超えると、ユーザが距離L10以内に近づいたと判断することができる。なお、感度K9においては、距離LがL9(L9<L10)のときに、センサ出力が閾値Th20となる。
ユーザが産業用ロボット1にさらに近づくと、閾値Th20よりも小さな値のセンサ出力が得られる(点Pd参照)。ユーザが産業用ロボット1にさらに近づくと、センサ出力は、閾値Th20よりも大きな値となる(点Pe参照)。コントローラ20は、センサ出力が閾値Th20を超えると、センサ感度を感度K9から感度K8に変更する。この場合、コントローラ20は、センサ出力が閾値Th20を超えると、ユーザが距離L9以内に近づいたと判断することができる。なお、感度K8においては、距離LがL8(L8<L9)のときに、センサ出力が閾値Th20となる。
同様に、ユーザが産業用ロボット1にさらに近づくと、センサ出力は、閾値Th20よりも大きな値となる(点Pf参照)。コントローラ20は、センサ出力が閾値Th20を超えると、センサ感度を感度K8から感度K7に変更する。なお、感度K7においては、距離LがL7(L7<L8)のときに、センサ出力が閾値Th20となる。ユーザが産業用ロボット1にさらに近づくと、センサ出力は、閾値Th20よりも大きな値となる(点Pg参照)。
コントローラ20は、センサ感度が感度K8以下となると(すなわち距離LがL8以内となると)、設定されたセンサ感度が低いほど動作速度Vの値が小さくなるように、かつ同一感度においてはセンサ出力が高くなるほど動作速度Vの値が小さくなるように、制御する(図7参照)。なお、センサ感度が同一感度の間においては、センサ出力にかかわらず、動作速度Vを一定としてもよい。
センサ感度が感度K2に変更された後に、ユーザが産業用ロボット1にさらに近づくことにより、センサ出力が閾値Th20よりも大きな値となると(点Ph参照)、コントローラ20は、センサ感度を感度K2から感度K1に変更する。コントローラ20は、センサ感度が感度K1となると(すなわち距離LがL1以内となると)、図7に示したように、動作速度Vをゼロとする。つまり、コントローラ20は、マニプレータ10を停止させる。
なお、設定可能な感度の数を増加させることにより、距離Lをより精緻に測定することが可能となる。
<D.機能的構成>
図9は、主として、産業用ロボット1のコントローラ20の機能的構成を説明するための図である。図9を参照して、産業用ロボット1は、上述したように、マニプレータ10と、コントローラ20と、検出装置30とを備える。検出装置30は、上述したように、複数のセンサ装置31〜35で構成される。
コントローラ20は、ジェスチャ判定部21と、処理実行部22と、記憶部23とを備える。記憶部23には、複数の予め定められたパターンを記憶したデータD29が記憶されている。
マニプレータ10は、アーム11,13,15および関節12,14,16に加えて、モータ駆動回路50とサーボモータ60とブレーキ70とを備える。モータ駆動回路50とサーボモータ60とブレーキ70とは、関節12,14,16および回動部17の各々に設けられている。
モータ駆動回路50は、コントローラ20からの指令に基づきサーボモータ60を駆動する。ブレーキ70は、関節または回動部17の保持用ブレーキである。ブレーキ70がかかっている状態では、隣接する2つのアームがなす角度(関節の角度)、あるいは回動部17の回転角度は一定に保たれる。ブレーキ70が解除されると、補助トルクを用いて、アームを手で所望とする位置へ移動可能となる。
各センサ装置31〜35によるセンサ出力は、コントローラ20に入力される。コントローラ20のジェスチャ判定部21は、センサ出力をジェスチャ入力として処理する。ジェスチャ判定部21は、ジェスチャ入力がデータD29に記憶されている何れのパターンに該当(一致)するかを判断する。
ジェスチャ判定部21は、いずれかのパターンに該当すると判断した場合、当該パターンに応じた処理を処理実行部22に実行させる。ジェスチャ判定部21が、いずれかのパターンに該当しないと判断した場合、ジェスチャに応じた処理は実行されない。
また、コントローラ20は、いずれかのパターンに該当すると判断された場合、図示しない報知装置に予め定められた報知処理を実行させる。たとえば、コントローラ20は、スピーカから所定の報知音を出力させる。
図10は、記憶部23に記憶されたデータD29の概要を表した図である。なお、図10に示されたデータD29は、一例であって、内容および形式はこれに限定されるものではない。
図10を参照して、データD29には、複数のパターンA,B,C,D,E,F,G,H,…が予め記憶されている。各パターンには、処理と、検出内容(ジェスチャ)と、処理の詳細とが対応付けて記憶されている。
パターンAは、図3に基づいて説明したように、教示点に関するダイレクトティーチングを行うためのパターンである(第1の例)。パターンBは、図4に基づいて説明したように、産業用ロボット1の再起動を行うためのパターンである(第2の例)。パターンCは、図5に基づいて説明したように、マニプレータ10の姿勢をデフォルトの姿勢に戻すためのパターンである(第3の例)。パターンDは、図6に基づいて説明したように、動作モード(作業)を切り換えるためのパターンである(第4の例)。
パターンE、F,G,Hとして、それぞれ、補助トルクの変更を行うためのパターン、移動速度に関するダイレクトティーチングを行うためのパターン、安全距離(典型的には、図7に示した距離L8)の設定を行うためのパターン、および通常動作に遷移させるときのパターンが記憶されている。
コントローラ20は、ジェスチャ入力がパターンEに該当すると判断した場合、ダイレクトティーチング操作時の補助トルクを変更する。たとえば、コントローラ20は、一定値だけ補助トルクを大きくまたは小さくする。あるいは、スワイプ操作のようにジェスチャ入力による距離(始点と終点との間の距離)が得られる場合には、当該距離に応じて補助トルクの増減値を変更してもよい。
<E.制御構造>
図11は、コントローラ20における典型的な処理の流れを説明するためのフローチャートである。
図11を参照して、ステップS1において、コントローラ20は、センサ感度を最大値に設定する。図8の例では、コントローラ20は、センサ感度を感度K10に設定する。ステップS2において、コントローラ20は、センサ出力が閾値Th20以上になったか否かを判断する。
コントローラ20は、センサ出力が閾値Th20以上になったと判断した場合(ステップS2においてYES)、処理をステップS3に進める。コントローラ20は、センサ出力が閾値Th20以上になっていない判断した場合(ステップS2においてNO)、ステップS5において、マニプレータ10に通常動作を実行させる。なお、通常動作とは、動作速度V(上限値)がVm(最速値)に設定されている状態を意味する。この場合、アーム11,13,15がプログラムに従って高速で動作する。
ステップS3においては、コントローラ20は、センサ感度が最低値(図8の例では感度K1)であるか否かを判断する。コントローラ20は、センサ感度が最低値でないと判断すると(ステップS3においてNO)、ステップS4において、センサ感度を1段下げる。コントローラ20は、センサ感度が最低値であると判断すると(ステップS3においてYES)、ステップS6において、マニプレータ10の動作(典型的には、アーム11,13,15の動作)を停止する。
ステップS7において、コントローラ20は、検出装置30を介したジェスチャ入力を受け付ける。ステップS8において、コントローラ20は、受け付けたジェスチャ入力が、データD29に記憶された予め定められたパターンであるか否かを判断する。
コントローラ20は、予め定められたパターンであると判断された場合(ステップS8においてYES)、通常動作に戻るジェスチャでないことを条件に(ステップS9においてNO)、ステップS10において、処理実行部22にジェスチャ入力に応じた処理を実行させる。コントローラ20は、予め定められたパターンであると判断された場合(ステップS8においてYES)、通常動作に戻るジェスチャであることを条件に(ステップS9においてYES)、処理をステップS12に進める。
コントローラ20は、予め定められたパターンでないと判断された場合(ステップS8においてNO)、ステップS11において、ステップS7でジェスチャ入力を受け付けてから所定の時間が経過したか否か(タイムアウトとなったか否か)を判断する。コントローラ20は、タイムアウトになっていないと判断すると(ステップS11においてNO)、ステップS7において再度のジェスチャ入力を待つ。コントローラ20は、タイムアウトとなったと判断した場合(ステップS11においてYES)、ステップS12において、センサ感度を最大値に戻す。
コントローラ20は、ステップS13において、センサ出力が閾値Th20未満であるか否かを判断する。コントローラ20は、センサ出力が閾値Th20未満であること(ステップS13においてYES)を条件に、ステップS14において、マニプレータ10の動作を停止状態から通常動作に切り換える。つまり、ユーザが産業用ロボット1から十分に離れたことを条件に、コントローラ20は、ジェスチャ入力を受け付ける動作モードから、通常動作のモードに切り換える。
<F.まとめ>
(1)産業用ロボット1は、マニプレータ10と、マニプレータ10の動作を制御するコントローラ20と、マニプレータ10に取り付けられ、かつジェスチャ入力を検出するための検出装置30とを備る。コントローラ20は、検出されたジェスチャ入力に応じた処理を実行する。
この構成によれば、ユーザはジェスチャ入力を行うことにより、産業用ロボット1にジェスチャ入力応じた処理を実行させることができる。したがって、産業用ロボット1によれば、ジェスチャ入力を受け付けることができない産業用ロボットに比べて、操作性を高めることが可能となる。
(2)検出装置30は、さらに、マニプレータ10と物との間の距離Lを測定するために用いられる。コントローラ20は、測定された距離Lが第1の距離(たとえば、距離L8)よりも短い第2の距離の場合、第1の距離の場合よりもマニプレータ10の動作速度を遅くする(図7参照)。この構成によれば、検出装置30を安全センサして利用することが可能となる。
(3)コントローラ20は、距離Lが予め定められた閾値Th2(距離L8)よりも短くなると、距離Lが閾値Th2よりも長いときよりも検出装置30のセンサ感度(検出感度)を低くする。この構成によれば、ユーザが近づいていることを検知できる。
(4)コントローラ20は、ジェスチャ入力が予め定められたパターンの入力であることを条件に、ジェスチャ入力に応じた処理として、産業用ロボット1に対するダイレクトティーチング操作を受け付ける。この構成によれば、ユーザは、予め定められたジェスチャ入力を行なうことにより、ダイレクトティーチングを行うことができる。
(5)コントローラ20は、ジェスチャ入力が予め定められたパターンの入力であることを条件に、ジェスチャ入力に応じた処理として、産業用ロボット1に対するダイレクトティーチング操作時の補助トルクを変更する。この構成によれば、ユーザは、予め定められたジェスチャ入力を行なうことにより、ダイレクトティーチング操作時の補助トルクを変更することができる。
(6)コントローラ20は、ジェスチャ入力が予め定められたパターンの入力であることを条件に、ジェスチャ入力に応じた処理として、産業用ロボット1を再起動させる。この構成によれば、ユーザは、予め定められたジェスチャ入力を行なうことにより、産業用ロボット1を再起動させることができる。
(7)コントローラ20は、ジェスチャ入力が予め定められたパターンの入力であることを条件に、ジェスチャ入力に応じた処理として、マニプレータ10の姿勢をデフォルトの姿勢に戻す。この構成によれば、ユーザは、予め定められたジェスチャ入力を行なうことにより、マニプレータ10の姿勢をデフォルトの姿勢に戻すことができる。
(8)コントローラ20は、動作モードとして、マニプレータ10に第1の作業を繰り返し実行させる第1のモードと、マニプレータ10に第2の作業を繰り返し実行させる第2のモードとを有する。コントローラ20は、動作モードが第1のモードの場合、ジェスチャ入力が予め定められたパターンの入力であることを条件に、ジェスチャ入力に応じた処理として、動作モードを第1のモードから第2のモードに切り換える。この構成によれば、ユーザは、予め定められたジェスチャ入力を行なうことにより、動作モードを変更することができる。
(9)検出装置30は、アーム11,13,15と、関節12,14とに取り付けられている。なお、検出装置30は、全てのアームに取り付けられている必要は必ずしもない。また、検出装置30が、2つの関節12,14に取り付けられている必要はない。検出装置30は、少なくとも、アーム11,13,15および関節12,14のうちの1つに取り付けられていればよい。
(10)コントローラ20は、第1のアームに対するジェスチャ入力と、第2のアームに対するジャスチャと、関節12または関節14に対するジェスチャ入力との組み合わせに応じた処理を実行する。なお、第1のアームおよび第2のアームは、アーム11,13,15のうちの何れかである。
(11)産業用ロボット1は、ジェスチャ入力が予め定められたパターンの入力であることを条件に、予め定められた報知処理を実行する。この構成によれば、ユーザは、ジェスチャ入力が受け付けられたことを知ることができる。
(12)検出装置30は、複数の近接センサ351を含むセンサアレイである。
<G.変形例>
(1)上記においては、図8に基づいて説明したように、センサ感度を変更することにより、コントローラ20は、マニプレータ10とユーザと間の距離Lを測定することができた。しかしながら、距離Lの測定はこれに限定されるものではない。
図12は、センサ感度(設定感度)を一定とした場合に、距離Lを測定する方法を説明するための図である。図12を参照して、コントローラ20は、センサ出力が閾値Th20を超えると、閾値を閾値Th20よりも高い閾値Th19に変更する。その後、ユーザがマニプレータ10にさらに近づくことによりセンサ出力が閾値Th19を超えると、コントローラ20は、閾値を閾値Th19よりも高い閾値Th18に変更する。その後、ユーザがマニプレータ10にさらに近づくことによりセンサ出力が閾値Th18を超えると、コントローラ20は、閾値を閾値Th18よりも高い閾値Th17に変更する。以後、コントローラ20は、このような閾値変更処理を繰り返す。コントローラ20は、閾値を閾値Th18以上に設定した場合には、センサ出力が高いほどマニプレータ10の動作速度Vの値が小さくなるように制御する(図7参照)。
コントローラ20は、センサ出力が閾値Th12を超えると、閾値を閾値Th12よりも高い閾値Th11に変更する。コントローラ20は、閾値を閾値Th11に変更したことに基づき、マニプレータ10の動作を停止させる。
このような構成であっても、センサ感度を変更する場合と同様の効果を得ることができる。
(2)図13は、マニプレータ10の速度制御の他の例を説明するための図である。図13を参照して、コントローラ20は、ユーザがマニプレータ10に近づいているときは、図7と同様の速度制御を行う。その一方、コントローラ20は、ユーザがマニプレータ10から遠ざかっている場合には、動作速度Vをゼロとする距離を長くする。このような構成によれば、ユーザが距離L1よりもさらに離れたことを条件に、マニプレータ10を動作させることができる。
典型的には、コントローラ20は、同じ距離Lにおいて、ユーザがマニプレータ10に近づいているときよりも動作速度Vの値を小さくする。このような構成によれば、ユーザには、マニプレータ10がゆっくりと離れていっていると感じることができる。
(3)上記においては、検出装置30を近接センサで構成した。しかしながら、これに限定されず、検出装置30を、押しスイッチまたは圧力センサで構成してもよい。
また、検出装置30を、距離Lを測定するための装置(たとえば、レーザによる測距装置)と、ジェスチャ入力を検出する装置(たとえば、タッチパッド)とで構成してもよい。
(4)上記の制御は、協調ロボットにおける制御に限定されるものではなく、各種の産業用ロボットに適用できる。
今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施の形態の説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
1 産業用ロボット、10 マニプレータ、11,13,15 アーム、12,14,16 関節、17 回動部、18 台座部、20 コントローラ、30 検出装置、31,32,33,34,35 センサ装置、351 近接センサ、701 左手、702 右手、800,R 領域、900 作業台、K1,K2,K7,K8,K9,K10 感度。
また、関節12においては、センサ装置32が設けられていない裏面にもセンサ装置を設けてもよい。関節14においても、センサ装置34が設けられていない裏面にもセンサ装置を設けてもよい。

Claims (17)

  1. マニプレータと、
    前記マニプレータの動作を制御するコントローラと、
    前記マニプレータに取り付けられ、かつジェスチャ入力を検出するための検出装置とを備え、
    前記コントローラは、検出された前記ジェスチャ入力に応じた処理を実行する、産業用ロボット。
  2. 前記検出装置は、さらに、前記マニプレータと物との間の距離を測定するために用いられ、
    前記コントローラは、測定された前記距離が第1の距離よりも短い第2の距離の場合、前記第1の距離の場合よりも前記マニプレータの動作速度を遅くする、請求項1に記載の産業用ロボット。
  3. 前記コントローラは、前記距離が予め定められた閾値よりも短くなると、前記距離が前記閾値よりも長いときよりも前記検出装置の検出感度を低くする、請求項2に記載の産業用ロボット。
  4. 前記コントローラは、前記ジェスチャ入力が予め定められたパターンの入力であることを条件に、前記ジェスチャ入力に応じた処理として、前記産業用ロボットに対するダイレクトティーチング操作を受け付ける、請求項1から3のいずれか1項に記載の産業用ロボット。
  5. 前記コントローラは、前記ジェスチャ入力が予め定められたパターンの入力であることを条件に、前記ジェスチャ入力に応じた処理として、前記産業用ロボットに対するダイレクトティーチング操作時の補助トルクを変更する、請求項1から3のいずれか1項に記載の産業用ロボット。
  6. 前記コントローラは、前記ジェスチャ入力が予め定められたパターンの入力であることを条件に、前記ジェスチャ入力に応じた処理として、前記産業用ロボットを再起動させる、請求項1から3のいずれか1項に記載の産業用ロボット。
  7. 前記コントローラは、前記ジェスチャ入力が予め定められたパターンの入力であることを条件に、前記ジェスチャ入力に応じた処理として、前記マニプレータの姿勢をデフォルトの姿勢に戻す、請求項1から3のいずれか1項に記載の産業用ロボット。
  8. 前記コントローラは、動作モードとして、前記マニプレータに第1の作業を繰り返し実行させる第1のモードと、前記マニプレータに第2の作業を繰り返し実行させる第2のモードとを有し、
    前記コントローラは、前記動作モードが前記第1のモードの場合、前記ジェスチャ入力が予め定められたパターンの入力であることを条件に、前記ジェスチャ入力に応じた処理として、前記動作モードを前記第1のモードから前記第2のモードに切り換える、請求項1から3のいずれか1項に記載の産業用ロボット。
  9. 前記マニプレータは、アームを有し、
    前記検出装置は、前記アームに取り付けられている、請求項1から8のいずれか1項に記載の産業用ロボット。
  10. 前記マニプレータは、第1のアームと、第2のアームと、前記第1のアームに対して前記第2のアームを移動させる関節とを有し、
    前記検出装置は、前記関節に取り付けられている、請求項1から8のいずれか1項に記載の産業用ロボット。
  11. 前記マニプレータは、第1のアームと、第2のアームと、前記第1のアームに対して前記第2のアームを移動させる関節とを有し、
    前記検出装置は、前記第1のアームおよび前記第2のアームのうちの少なくとも一方のアームと、前記関節とに取り付けられている、請求項1から8のいずれか1項に記載の産業用ロボット。
  12. 前記検出装置は、前記第1のアームと、前記第2のアームとに取り付けられており、
    前記コントローラは、前記第1のアームに対するジェスチャ入力と、前記第2のアームに対するジャスチャと、前記関節に対するジェスチャ入力との組み合わせに応じた処理を実行する、請求項11に記載の産業用ロボット。
  13. 前記ジェスチャ入力が予め定められたパターンの入力であることを条件に、予め定められた報知処理を実行する、請求項1に記載の産業用ロボット。
  14. 前記検出装置は、複数の近接センサを含むセンサアレイである、請求項1から13のいずれか1項に記載の産業用ロボット。
  15. 前記検出装置は、押しスイッチまたは圧力センサである、請求項1に記載の産業用ロボット。
  16. 産業用ロボットのマニプレータの動作を制御するコントローラであって、
    前記マニプレータに取り付けられた検出装置からの出力に基づき、前記産業用ロボットに対するジェスチャ入力のパターンを判断する判断手段と、
    検出された前記パターンに応じた処理を実行する実行手段とを備える、コントローラ。
  17. 産業用ロボットのマニプレータの動作を制御するコントローラにおける方法であって、
    前記マニプレータに取り付けられた検出装置からの出力に基づき、前記産業用ロボットに対するジェスチャ入力のパターンを判断するステップと、
    検出された前記パターンに応じた処理を実行するステップとを備える、方法。
JP2017090131A 2017-04-28 2017-04-28 協調ロボット、コントローラ、および方法 Active JP6953778B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017090131A JP6953778B2 (ja) 2017-04-28 2017-04-28 協調ロボット、コントローラ、および方法
US15/891,342 US10800032B2 (en) 2017-04-28 2018-02-07 Industrial robot, controller, and method thereof
CN201810143786.0A CN108789457B (zh) 2017-04-28 2018-02-11 工业用机器人、控制器及控制方法
EP18156227.3A EP3395510B1 (en) 2017-04-28 2018-02-12 Industrial robot, controller, and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017090131A JP6953778B2 (ja) 2017-04-28 2017-04-28 協調ロボット、コントローラ、および方法

Publications (2)

Publication Number Publication Date
JP2018187697A true JP2018187697A (ja) 2018-11-29
JP6953778B2 JP6953778B2 (ja) 2021-10-27

Family

ID=61192756

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017090131A Active JP6953778B2 (ja) 2017-04-28 2017-04-28 協調ロボット、コントローラ、および方法

Country Status (4)

Country Link
US (1) US10800032B2 (ja)
EP (1) EP3395510B1 (ja)
JP (1) JP6953778B2 (ja)
CN (1) CN108789457B (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020151807A (ja) * 2019-03-20 2020-09-24 株式会社デンソーウェーブ ロボットシステム
JP7483420B2 (ja) 2020-03-12 2024-05-15 キヤノン株式会社 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018114644B3 (de) * 2018-06-19 2019-09-19 Deutsches Zentrum für Luft- und Raumfahrt e.V. Manueller Anlernvorgang an einem Robotermanipulator mit Kraft-/Momentenvorgabe
JP2020049642A (ja) * 2018-09-28 2020-04-02 セイコーエプソン株式会社 制御装置、ロボットシステム、及びロボット
JP6863945B2 (ja) * 2018-10-24 2021-04-21 ファナック株式会社 ロボットの制御方法
CN110026980A (zh) * 2019-04-04 2019-07-19 飞依诺科技(苏州)有限公司 一种机械臂控制终端的控制方法
US11504193B2 (en) 2019-05-21 2022-11-22 Verb Surgical Inc. Proximity sensors for surgical robotic arm manipulation
WO2023122278A1 (en) * 2021-12-25 2023-06-29 Mantis Robotics, Inc. Robot system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04171191A (ja) * 1990-10-31 1992-06-18 Sanyo Electric Co Ltd ロボットハンド及びその制御方法
JP2005161450A (ja) * 2003-12-02 2005-06-23 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2015083331A (ja) * 2013-09-20 2015-04-30 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP2015182142A (ja) * 2014-03-20 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008062622B9 (de) 2008-12-17 2016-08-25 Kuka Roboter Gmbh Verfahren und Vorrichtung zur Befehlseingabe in eine Steuerung eines Manipulators
JP5360237B2 (ja) * 2010-02-03 2013-12-04 パナソニック株式会社 ロボットシステムの制御方法
JP5938954B2 (ja) * 2012-03-06 2016-06-22 株式会社ジェイテクト ロボットのキャリブレーション方法及びキャリブレーション装置
US9092698B2 (en) * 2012-06-21 2015-07-28 Rethink Robotics, Inc. Vision-guided robots and methods of training them
JP6527658B2 (ja) 2013-03-25 2019-06-05 株式会社デンソーウェーブ アームの操作方法及び操作装置
US9452531B2 (en) * 2014-02-04 2016-09-27 Microsoft Technology Licensing, Llc Controlling a robot in the presence of a moving object
JP6269232B2 (ja) * 2014-03-25 2018-01-31 セイコーエプソン株式会社 捺染装置
CN107003656B (zh) * 2014-08-08 2020-02-07 机器人视觉科技股份有限公司 用于机器人设备的基于传感器的安全特征
CN107427327A (zh) * 2014-09-30 2017-12-01 奥瑞斯外科手术机器人公司 具有虚拟轨迹和柔性内窥镜的可配置机器人外科手术系统
US9965042B2 (en) * 2015-03-30 2018-05-08 X Development Llc Methods and systems for gesture based switch for machine control
US10888996B2 (en) * 2015-04-03 2021-01-12 Think Surgical, Inc. Robotic system with intuitive motion control
DE102015012959B4 (de) * 2015-10-08 2019-01-17 Franka Emika Gmbh Robotersystem und Verfahren zur Steuerung eines Robotersystems
CN106203299A (zh) * 2016-06-30 2016-12-07 北京二郎神科技有限公司 一种可操控设备的控制方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04171191A (ja) * 1990-10-31 1992-06-18 Sanyo Electric Co Ltd ロボットハンド及びその制御方法
JP2005161450A (ja) * 2003-12-02 2005-06-23 Advanced Telecommunication Research Institute International コミュニケーションロボット
JP2015083331A (ja) * 2013-09-20 2015-04-30 株式会社デンソーウェーブ ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP2015182142A (ja) * 2014-03-20 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020151807A (ja) * 2019-03-20 2020-09-24 株式会社デンソーウェーブ ロボットシステム
JP7310194B2 (ja) 2019-03-20 2023-07-19 株式会社デンソーウェーブ ロボットシステム
JP7483420B2 (ja) 2020-03-12 2024-05-15 キヤノン株式会社 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体

Also Published As

Publication number Publication date
EP3395510B1 (en) 2019-12-25
EP3395510A2 (en) 2018-10-31
US10800032B2 (en) 2020-10-13
JP6953778B2 (ja) 2021-10-27
US20180311814A1 (en) 2018-11-01
CN108789457A (zh) 2018-11-13
CN108789457B (zh) 2021-10-19
EP3395510A3 (en) 2018-11-21

Similar Documents

Publication Publication Date Title
JP6953778B2 (ja) 協調ロボット、コントローラ、および方法
KR101706927B1 (ko) 산업용 로봇을 조작하기 위한 방법
JP3841439B2 (ja) ロボットのジョグ送り方法
CN108367434B (zh) 机器人系统和控制机器人系统的方法
JP6642054B2 (ja) ロボット操作装置、及びロボット操作プログラム
KR101536107B1 (ko) 산업용 로봇을 조작하기 위한 방법
JP6866566B2 (ja) ロボット操作装置、及びロボット操作プログラム
JP6633580B2 (ja) ロボットシステム及びロボット制御装置
JP7049069B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP7008930B2 (ja) 三次元測定機、測定方法、及び測定プログラム
JP7483420B2 (ja) ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体
JP2000010733A (ja) タッチパネル
JP4677941B2 (ja) タッチパネル入力方法
JP6710919B2 (ja) ロボット操作装置
WO2023162248A1 (ja) 教示操作盤およびロボット制御システム
JP6379902B2 (ja) ロボット操作装置、ロボットシステム、及びロボット操作プログラム
JP4856136B2 (ja) 移動制御プログラム
JP6803650B2 (ja) ロボット操作装置、ロボット操作プログラム
JP6435940B2 (ja) ロボット操作装置、及びロボット操作プログラム
JP5769841B2 (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
WO2023218536A1 (ja) ロボット制御装置、ロボットシステム、及び教示装置
US20240109188A1 (en) Operation apparatus, robot system, manufacturing method, control method, and recording medium
KR101562931B1 (ko) 사용자 감응 입력/출력 장치 및 이의 작동 제어 방법
WO2024028977A1 (ja) 教示装置
CN117798956A (zh) 操作装置、机器人系统、制造方法、控制方法和记录介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180227

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210119

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210831

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210913

R150 Certificate of patent or registration of utility model

Ref document number: 6953778

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150