JP7483420B2 - ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体 - Google Patents

ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体 Download PDF

Info

Publication number
JP7483420B2
JP7483420B2 JP2020043049A JP2020043049A JP7483420B2 JP 7483420 B2 JP7483420 B2 JP 7483420B2 JP 2020043049 A JP2020043049 A JP 2020043049A JP 2020043049 A JP2020043049 A JP 2020043049A JP 7483420 B2 JP7483420 B2 JP 7483420B2
Authority
JP
Japan
Prior art keywords
motion
worker
information
input
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020043049A
Other languages
English (en)
Other versions
JP2021142608A5 (ja
JP2021142608A (ja
Inventor
益光 岩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2020043049A priority Critical patent/JP7483420B2/ja
Priority to US17/178,616 priority patent/US11731272B2/en
Priority to CN202110249417.1A priority patent/CN113386125B/zh
Publication of JP2021142608A publication Critical patent/JP2021142608A/ja
Publication of JP2021142608A5 publication Critical patent/JP2021142608A5/ja
Application granted granted Critical
Publication of JP7483420B2 publication Critical patent/JP7483420B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1674Programme controls characterised by safety, monitoring, diagnostic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/085Force or torque sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1651Programme controls characterised by the control loop acceleration, rate control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1653Programme controls characterised by the control loop parameters identification, estimation, stiffness, accuracy, error analysis
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39319Force control, force as reference, active compliance
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40414Man robot interface, exchange of information between operator and robot

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Automation & Control Theory (AREA)
  • Manufacturing & Machinery (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット装置、ロボット装置を制御する制御装置、ロボット装置の制御方法、等に関する。
近年、人と協働して作業を行うロボットの開発が進められている。協働作業の効率を高めるためには、協働作業を行いながら、人からロボットに対して的確かつ容易に動作指示を行えることが重要である。
ロボットに対して動作指示を行う例として、特許文献1には、音声による動作指令に基づいてロボットと周辺機器とを協働させ、ワークに対して作業を行うロボットシステムが提案されている。
特開2019-93522号公報
人とロボットが互いに近接して協働作業を行う場合に、特許文献1に開示されたように、音声により、ロボットに動作指令が出せれば便利である。
しかし、特に産業用ロボットの場合には、周囲に配置された他の産業用機械が発生する騒音、ロボット自身が発する動作音、ロボットが行う作業(例えば機械加工)に伴う作業音などが存在するため、音声による動作指令が正確に認識されない場合がある。音声入力による動作指令を確実に行うために、人が極めて高い音量の声を発する必要が生じたり、ロボット近傍から静粛な位置まで移動して発声する必要があるとすれば、協働作業の効率が低下してしまう。
そこで、作業を行うロボットの分野において、正確にロボットに動作を指示できる方法が求められていた。
本発明の第1の態様は、ロボットへの作業者からの入力を検出する入力検出部と、前記入力検出部を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、前記モーション検出部により検出されたモーションと対応づけられた動作指令を実行する制御部と、を備え、前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が表示され、前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができる、ことを特徴とするロボットシステムである。
また、本発明の第2の態様は、ロボットへの作業者からの入力を検出する入力検出部と、前記作業者によって入力されたモーションを検出するモーション検出部と、前記モーション検出部により検出されたモーションと対応づけられた動作指令を前記ロボットに実行させる制御部と、を備え、前記制御部は、前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、ことを特徴とする制御装置である。
また、本発明の第3の態様は、作業者からの入力を検出する入力検出部の出力信号を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、前記モーション検出部により検出されたモーションと動作指令の対応づけを行わせることができる処理部と、を備え、前記処理部は、前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、ことを特徴とする情報処理装置である。
また、本発明の第4の態様は、ロボットへの作業者の入力を検出し、前記作業者によって入力されたモーションを検出し、検出された前記モーションと対応付けられた動作指令を前記ロボットに実行させ、前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、ことを特徴とする制御方法である。
本発明によれば、作業を行うロボットの分野において正確にロボットに動作を指示することが可能である。
実施形態1に係るロボット装置の外観を模式的に示す斜視図。 実施形態に係るロボット装置における電気系の接続関係を示す図。 (a)実施形態に係る制御装置の内部構成を示すブロック図。(b)実施形態に係るロボット装置の関節の内部構成を示すブロック図。 実施形態1に係るロボット装置のシステム構成を示す図。 実施形態における手順1と手順2の全体に係るフローチャート。 実施形態におけるユーザモーション解析処理に係るフローチャート。 (a)実施形態に係る表示画像の一例。(b)実施形態に係る表示画像の他の一例。 (a)ユーザモーションに係る関節1軸における時系列のトルク検出信号の例。(b)ユーザモーションに係る関節2軸における時系列のトルク検出信号の例。(c)ユーザモーションに係る関節3軸における時系列のトルク検出信号の例。 (a)ユーザモーションに係る関節4軸における時系列のトルク検出信号の例。(b)ユーザモーションに係る関節5軸における時系列のトルク検出信号の例。(c)ユーザモーションに係る関節6軸における時系列のトルク検出信号の例。 実施形態に係るモーション解析波形のグラフ。 (a)ユーザモーションの一例を示す説明図。(b)ユーザモーションの別の一例を示す説明図。(c)ユーザモーションの更に別の一例を示す説明図。 (a)ユーザモーションの一例を示す説明図。(b)ユーザモーションの別の一例を示す説明図。(c)ユーザモーションの更に別の一例を示す説明図。 ユーザモーション/動作指令関連付け処理を説明するための模式図。 実施形態における手順3に係るフローチャート。 実施形態2に係るロボット装置のロボットアームの外観を示す図。 (a)実施形態2におけるユーザモーションの一例を示す説明図。(b)実施形態2におけるユーザモーションの別の一例を示す説明図。 実施形態2におけるユーザモーションの入力を示す説明図。 実施形態2におけるユーザモーションの削除時のポップアップを示す説明図。 実施形態2におけるユーザモーションと動作指令の一覧を示す説明図。
図面を参照して、本発明の実施形態である、人と協働して作業を行うロボット装置、人と協働して作業を行うロボット装置を制御する制御装置、人と協働して作業を行うロボット装置の制御方法、等について説明する。
尚、以下の実施形態の説明において参照する図面では、特に但し書きがない限り、同一の参照番号を付して示す要素は、同一の機能を有するものとする。
[実施形態1]
(ロボット装置)
実施形態1として、6軸制御のロボットアームを備えた産業用ロボット装置について説明する。ただし、本発明の実施形態はこのタイプのロボット装置に限るわけではなく、近接した位置で人と協働作業を行うロボット装置であれば、種々のタイプのロボット装置において本発明の実施が可能である。例えば、本発明を実施するうえでロボット装置の関節数や軸数に制限はなく、垂直多関節ロボット、スカラロボット、パラレルリンクロボット、直交ロボット、双腕ロボット、等において実施が可能である。また、人との協働作業の内容に応じて、ロボット装置は種々のアクチュエータやセンサを装備することができる。
図1は、実施形態1に係るロボット装置500の外観を模式的に示す斜視図である。図1に示すように、ロボット装置500は、ワークWを把持して組立て作業を行う多関節のロボットアーム100と、ロボットアーム100を制御する制御装置200と、制御装置200に接続されたシステム制御盤300とを備えている。多関節のロボットアーム100は、6軸制御のロボットアーム100と、ロボットアーム100の先端に接続されたハンド(エンドエフェクタ)102とを備えている。
ロボットアーム100は、作業台に固定されるベース部103と、変位や力を伝達する複数のリンク121~126と、各リンク121~126を旋回又は回転可能に連結する複数の関節111~116とを備えている。ロボット装置500が作業を実行する際には、制御装置200は、関節111~116を駆動することによりロボットアーム100の位置姿勢を制御する。
ロボット装置500が人との協働作業を行う際には、制御装置200は、関節111~116が備えるトルク検出器の出力信号を用いて人がロボットアーム100に接触したことを検出し、接触の仕方(接触パターン)を解析(検知)する。すなわち、本実施形態では、トルク検出器は、ロボット本体への作業者の接触を検知する接触検知部として機能し、モーション検知部としてのユーザモーション解析部はトルク検出器の出力信号を用いて作業者のモーションを検知する。制御装置200は、人がロボットアーム100に接触する際の人のモーションを解析(検知)すると言い換えてもよい。人が接触した際の接触パターン(モーション)を検知したら、制御装置200は、検知されたモーションと対応付けて予め記憶していた動作パターン(指示)に基づいて、ロボット装置の動作を制御する。
制御装置200に接続されたシステム制御盤300は、ロボット装置500に動作を教示したり、ロボット装置500に指令を出す際に、入出力装置として用いられる。システム制御盤300は、操作指令等を入力する入力部と、ロボットアームの状態等に係る情報を表示する表示部とを備えており、更に非常停止スイッチ等を備えていてもよい。本実施形態では、システム制御盤300は、人の接触パターン(モーション)を制御装置200に学習させたり、人のモーションと対応付けて動作パターンを制御装置200に記憶させる処理を行う際にも用いられ得る。
図2は、ロボット装置500における電気系の接続関係を示す図である。また、図3(a)は、制御装置200の内部構成を説明するためのブロック図である。また、図3(b)は、ロボットアームの関節の内部構成を説明するためのブロック図である。
図2において、101は電源装置、200は制御装置、300はシステム制御盤、111~116は関節である。
電源装置101は、システム全体に電力を供給するための電源である。電源装置101は、制御装置200が内蔵する電源回路(図3(a)参照)に、例えば交流電力を供給する。制御装置200が内蔵する電源回路は、交流電力を直流電力に変換して、給電路145を介して各関節の電源回路(図3(b)参照)に給電する。尚、各部への給電方法は、これ以外の構成を用いてもよい。
制御装置200は、制御信号を伝送可能な通信路146により関節111~116と接続されており、関節111~116の動作を制御することによりロボットアーム100の位置姿勢を制御する。
図3(a)に示すように、制御装置200は、電源回路、通信制御器、軌道生成器、周辺I/O制御部、メモリ、CPU等を備えている。更に、制御装置200は、ユーザモーション解析部501、ユーザモーション記憶部502、ユーザモーション/動作指令関連付け処理部503、動作指令記憶部504、を備えている。これらの機能ブロックの動作については、後にユーザモーションによるロボット動作制御と関連付けて説明する。
図2に示す関節111~116は、各々が同一又は類似の内部構成を有している。ここでは関節116を例に挙げ、図3(b)を参照して、その内部構成を説明する。
関節116は、関節制御部109と、位置検出器30aと、モータ30と、モータ30の出力を減速する減速機31と、関節116にかかるトルクを検出するトルク検出器20を備えている。
関節制御部109は、電源回路、通信制御器、演算機、シリアル通信器、ADコンバータ、電流検出器、モータドライバ等を含む制御回路である。
通信制御器は、通信路146を介して制御装置200と接続されており、例えば10ミリ秒の周期で、制御装置200との間で信号の授受を行う。通信制御器は、例えば位置検出器30aの出力信号やトルク検出器20の出力信号、それらを処理した信号、あるいはエラー、アラーム情報を含む関節状態情報を、制御装置200に送信する。その際には、演算機やADコンバータにより、位置検出器30aの出力信号やトルク検出器20の出力信号に適宜の処理を行うことができる。また、通信制御器は、モータ30の動作制御にかかる指令を制御装置200から受信する。モータ30の動作制御にかかる指令を制御装置200から受信した場合には、関節制御部109はモータドライバを用いてモータ30を駆動する。
モータ30は、サーボモータであり、例えばブラシレスDCモータやACサーボモータが用いられ得る。モータ30はリンク125にボルト締結等で取り付けられ、その動力は減速機31の減速機入力軸に伝達される。位置検出器30aは、モータ30の回転軸に直結して設けられており、モータ30の回転に伴ってパルス信号を生成して出力する。なお、モータ30と位置検出器30aとの間には、必要に応じて、電源OFF時にロボットアーム100の姿勢を保持するためのブレーキユニットを設けてもよい。なお、位置検出器30aには、一般的なロータリエンコーダと同様の光学式或いは磁気式の装置を用いることができる。
減速機31としては、波動歯車減速機が好適に用いられるが、それ以外の減速機を用いてもよい。減速機は、モータ30の動力が入力される減速機入力軸、減速機自体を保持するための減速機固定部、減速後のトルクを出力する減速機出力軸、を備える。減速機31が波動歯車減速機である場合は、減速機入力軸は楕円形状のカムと弾性軸受から構成されており、リング形状の減速機固定部の内周部と、弾性体でカップ形状の減速機出力軸の外周部には、歯数の異なる歯がお互いに噛み合うように設けられている。モータ30によって楕円形状である減速機入力軸が回転すると、弾性体である減速機出力軸が楕円変形し、楕円の長軸部分両端で減速機固定部と噛み合う。モータ30の動力で減速機入力軸が回転すると、減速機出力軸が楕円変形しながら減速機固定部と噛み合い、固定側であるリンク125およびトルク検出器20に対して、リンク126(図3(b)では不図示)が相対的に回転する。
トルク検出器20は、例えば光学式エンコーダにより構造体の変形量を検出してトルクに換算する方式のトルクセンサであり、リンク125と減速機固定部の間に設置され、関節に作用するトルクを検出する。尚、トルク検出器20として、磁気式エンコーダや電歪式の力センサーを用いることも可能である。
次に、図4を参照して、ロボット装置500のシステム構成を説明する。
ロボット装置500は、演算部としてのCPU1201と、ROM1202と、RAM1203と、HDD(記憶部)1204と、記録ディスクドライブ1205と、各種のインタフェース211~216と、を備えている。
CPU1201には、ROM1202、RAM1203、HDD1204、記録ディスクドライブ1205及び各種のインタフェース211~216が、バス217を介して接続されている。非一時的な記録媒体であるROM1202には、BIOS等の基本プログラムが格納されている。RAM1203は、CPU1201の演算処理結果を一時的に記憶する記憶装置である。
HDD1204は、CPU1201の演算処理結果である各種のデータ等を記憶する記憶部であると共に、CPU1201に、各種演算処理を実行させるためのプログラム330を記録するものである。CPU1201は、記録媒体であるHDD1204に記録(格納)されたプログラム330に基づいて各種の処理を実行する。記録ディスクドライブ1205は、記録ディスク331に記録された各種データやプログラム等を読み出すことができる。
本実施形態では、図3(a)に示したユーザモーション記憶部502および動作指令記憶部は、HDD1204に設けられている。また、図3(a)に示したユーザモーション解析部501、ユーザモーション/動作指令関連付け処理部503等の機能ブロックを実現するためのプログラムは、HDD1204が記憶しているプログラム330に含まれている。
インタフェース211にはユーザが操作可能なシステム制御盤300が接続されている。
また、インタフェース212には、トルク検出器20が接続されており、トルク検出値をインタフェース212及びバス217を介してCPU1201に出力する。更に、インタフェース213には、位置検出器30aが接続されており、位置検出に係る出力信号をインタフェース213及びバス217を介してCPU1201に出力する。
更に、インタフェース214、215には、各種画像が表示される表示部311や書き換え可能な不揮発性メモリや外付けHDD等の外部記憶装置312が接続されている。また、インタフェース216にはサーボ制御装置313が接続されている。
サーボ制御装置313は、CPU1201から入力を受けた駆動指令に基づき、モータ30への電流の出力量を演算し、モータ30へ電流を供給して、ロボットアーム100の関節111~116の関節角度制御を行う。例えば力制御を行う場合には、CPU1201は、サーボ制御装置313を介して、関節111~116のトルク検出値(トルクセンサユニットの出力信号)が目標トルクとなるように、モータ30による関節111~116の駆動を制御する。また、位置制御を行う場合には、CPU1201は位置検出器30aの出力信号に応じて、モータ30の回転角度の制御量を示す駆動指令のデータを所定間隔でバス217及びインタフェース216を介してサーボ制御装置313に出力する。
[ユーザモーションによるロボット動作制御]
ロボット装置500においては、例えば教示済の所定の動作を実行すべく、制御装置200の軌道生成器が制御情報を生成し、制御情報に基づいて関節111~116が駆動されてロボットアーム100の位置姿勢が制御される。
ただし、人と協働作業を行う場合には、単に所定の動作(例えば教示済のロボット動作)を再現し続けるのでなく、協働作業中にロボット装置500の本体に人が接する際のユーザモーションを解析して動作指令として解釈し、動作を変更することができる。
ここで、ユーザモーションとは、人がロボット装置500の本体(典型的にはロボットアーム100)に接触する際の接触状態の規則性、様式、類型、等を表している。例えばロボット筐体に人が手で接触する際の接触時間の長さ、力の強さ、力の方向、周期、所定時間内に接触する回数、接触位置、接触位置の変化、等に応じてその規則性、様式、類型、等が解析され、ユーザモーションとして識別される。すなわち、接触における、接触時間の長さ、接触する力の強さ、接触により加えられた力の方向、接触の周期、所定時間内に接触する回数、接触位置、接触位置の軌跡、の中の少なくとも1つが解析されて、ユーザモーションは検知される。
図11(a)~図11(c)は、複数パターンのユーザモーションを説明するため、ユーザモーションを例示した模式図である。図11(a)は、人がロボットアームのリンクを長時間押し続ける「長押し」のユーザモーションを示し、図11(b)は、人がロボットアームのリンクを短時間タッチする動作を連続して2回行う「2回タッチ」のユーザモーションを示している。また、図11(c)は、人がロボットアームの別のリンクを短時間タッチする動作を3回連続して行う「3回タッチ」のユーザモーションを示している。制御装置200は、例えば人がロボット装置と接触した回数Mを解析することにより、これら3種のユーザモーションを識別することができる。
更に、例えば図12(a)~図12(c)に示すように、人がロボット装置と接触した回数Mだけでなく、接触時間の長さTnや接触時間間隔In、力の強さ(接触圧)、等を解析することで、ユーザモーションの識別性を向上することができる。尚、TnやInにおける添字nは、各接触イベントのインデックスを示している。
ユーザモーションが識別されると、予めそのユーザモーションに関連付けて記憶していた動作指令が読み出され、制御装置200はその動作指令に従ってロボット装置の動作を実行あるいは変更する。動作指令の内容は、例えば、減速、加速、停止、再始動、位置制御開始、力制御開始、エラーリセット開始、等の中の一つあるいは組み合わせであるが、それ以外でもよい。
ユーザモーションに応じて動作を変更する制御を可能とするため、本実施形態のロボット装置500の制御装置200は、以下の手順に従って処理を行う。
(手順1)ユーザモーション記憶処理
人がロボット装置500と接触することにより動作指令を出す際の接触の仕方(ユーザモーション)を解析して学習し、解析したユーザモーションの類型を、ユーザモーション記憶部502が記憶する。尚、ユーザモーションを解析して学習する際には、ニューラルネット等を用いた、いわゆる機械学習の手法を用いることも可能である。
(手順2)動作指令記憶処理
人がロボット装置500と接触することにより発令する動作指令の各々について、その内容を動作指令記憶部504が記憶する。前述したように、動作指令の内容とは、例えば、減速、加速、停止、再始動、位置制御開始、力制御開始、エラーリセット開始、等の中の一つあるいは組み合わせである。
また、ユーザモーション/動作指令関連付け処理部503は、ユーザモーションの類型の各々と動作指令の各々との対応関係を記憶する。
なお、再始動の例としては、ロボット装置500が何らかの理由により動作を行うことができないと制御装置200が判定し、ロボット装置500を停止させた異常状態から復帰させる復帰動作が挙げられる。この復帰動作では、あらかじめロボット装置500の所定の部位(今回は手先となるリンク126)が、所定の位置となるようにロボット装置500を制御する。この所定の位置は、あらかじめロボット装置500の手先が周りに影響を与えないように設定された位置であり、復帰位置や原点位置などと呼ばれる。再始動の指令が与えられると、異常状態から復帰するためにリンク126を復帰位置もしくは原点位置に移動させる。また、作業者がなんらかの原因によりロボット装置500を急遽停止させる緊急停止なども、ユーザモーションに紐づけることで、制御装置200に実行させても構わない。
また、力制御開始の例としては、ロボット装置500に所定のハンドを設け、検出される力を基に、ワークを別のワークと接触させる動作を開始させることが挙げられる。また位置制御開始の例としてはロボット装置500に所定のハンドを設け、ワークの搬送を行わせる動作を開始させることが挙げられる。このような力制御開始、位置制御開始の指令は、再始動によりロボット装置500を稼働させ始める際に、用いられることが考えられる。
(手順3)ユーザモーションに応じた動作変更処理
協働作業中に人がロボット装置500に接触した際は、各関節のトルク検出器20の出力信号と、ユーザモーション記憶部502に記憶されたユーザモーションに係る情報とを用いて、ユーザモーション解析部501がユーザモーションを検出する。尚、ユーザモーションの検出には、ニューラルネット等を用いた、いわゆる学習済モデルを用いることも可能である。
ユーザモーションが検出されると、ユーザモーション/動作指令関連付け処理部503は、動作指令記憶部504に記憶された動作指令に係る情報の中から、検出されたユーザモーションに対応する情報を特定する。
制御装置200は、特定された情報を動作指令として受付け、以後はその動作指令に基づいてロボット装置500の動作を制御する。
(手順の説明)
まず、手順1と手順2について、図5及び図6に示すフローチャートを参照して説明する。図5は、手順1と手順2の全体に係るフローチャートであり、図6は、手順1に含まれるユーザモーション解析処理に係るフローチャートである。
図5に示すように、手順1においては、まずS301処理にてユーザモーション認識開始処理を行う。S301処理は、例えば操作者がシステム制御盤300の開始ボタンを押すことを契機として開始され、システム制御盤300の表示部311には、図7(a)に示す画面が表示される。尚、表示部311は、表示のみを行う表示装置でもよいし、表示とともに入力も可能なタッチパネル装置であってもよい。
図7(a)に示すように、画面には、モード表示部201、モーション登録番号表示部202、モーション登録解除ボタン203、モーション記憶ボタン204、番号送り/戻りボタン205、稼働状態表示部206、数字入力キー207等が含まれる。この段階では、ユーザモーションの入力操作を実行することを操作者に促すため、モード表示部201には「INPUT MOTION」のサインが表示される。
次に、操作者がモーション記憶ボタン204を押すことを契機として、ユーザモーションを記憶する処理であるS302処理が開始され、表示部311には、図7(b)に示す画面が表示される。すなわち、モード表示部201には「ENTRY MOTION」のサインが表示され、モーション登録番号表示部202には、記憶しようとするユーザモーションを他のユーザモーションから識別するための識別番号が表示される。
操作者は、ロボット装置500に接触して、記憶させようとするユーザモーションを実行する。例えば、ロボットアームの筐体側面を掌で軽く2回叩く接触動作を1つのユーザモーションとして記憶させたい時には、その動作を実行する。操作者が動作を実行している間、関節111~116の各々が備えるトルク検出器20から時系列の出力信号が制御装置200に送信され、制御装置200のメモリに記録される。操作者がモーション記憶ボタン204を再度押すことにより、そのユーザモーションに係る時系列のトルク検出信号の記憶が完了する。
次に、S303処理では、所定数(所望の種類)のユーザモーションについてトルク検出信号の記憶が完了したかを判定する。例えば、5種類のユーザモーションを記憶させたい場合には、5種類目の記憶を完了した場合(S303処理:YES)には、S304処理に進む。しかし、記憶の完了が5種類未満の場合(S303処理:NO)には、S302処理に戻り、別のユーザモーションを記憶する。すなわち、所定数のユーザモーションを記憶するまで、S302処理が繰り返し実行される。
所定数のユーザモーションに関して時系列のトルク検出信号がメモリに記憶されると(S303処理:YES)、S304処理に進み、ユーザモーション解析部501が各々のユーザモーションの解析処理を行う。すなわち、各々のユーザモーションについて、ユーザモーション解析部501がトルク検出信号に基づいて接触の仕方の特徴を解析し、解析した特徴をユーザモーション記憶部502に記憶する。
図6に、S304処理に係るユーザモーション解析処理についてのフローチャートを示す。また、図8(a)~図8(c)、図9(a)~図9(c)に例示するのは、制御装置200のメモリに記憶されている1つのユーザモーションに係る時系列のトルク検出信号であり、各関節で計測された時系列のトルク信号をグラフ化したものである。
まず、S401処理にて、トルク検出器で検出された時系列のトルク検出信号に対してローパスフィルタ処理を行う。図8(a)~図8(c)、図9(a)~図9(c)に示すグラフにおいて、点線で示すのがトルク検出器で検出されたトルク検出信号であり、実線で示すのがローパスフィルタ処理後のトルク検出信号である。
次に、オフセット除去処理としてのS402処理において、ローパスフィルタ処理後の各関節のトルク検出信号に対して、ロボットアームの各関節にかかる負荷をキャンセルする演算を行う。
次に、自乗演算処理としてのS403処理において、オフセット除去処理後の各関節のトルク検出信号のそれぞれについて、自乗演算を行う。
次に、積算処理としてのS404処理において、S403処理にて自乗演算処理した各関節のトルク検出信号を積算する処理を行う。本実施形態の場合には、自乗演算処理した後の6つの関節のトルク検出信号を積算する。
積算処理した結果をモーション解析波形と呼び、図10にモーション解析波形のグラフを例示する。
次に、ピークサーチ処理としてのS405処理において、モーション解析波形を用いてユーザモーションを識別するための特徴抽出を行う。まず、モーション解析波形の中から、予め設定された閾値より大きな波高値を有する波を抽出する。図10の例では、閾値が1であったとすると、M1とM2の2つの波が抽出される。
次に、検出された波について、波形の面積を評価する。簡易的には、ピーク波高の半値と、時間方向の半値幅との積を求めてもよい。図10の例では、M1についてはピーク波高の半値P1と、時間方向の半値幅T1との積S1を、M2についてはピーク波高の半値P2と、時間方向の半値幅T2との積S2を算出する。
そして、M1について求めた積S1、およびM2について求めた積S2は、このユーザモーションに関する特徴量としてユーザモーション記憶部502に記憶される。すなわち、システム制御盤300の表示部311のモーション登録番号表示部202に表示された識別番号と対応付けられて、ユーザモーション記憶部502に記憶される。
尚、ユーザモーションに関する特徴量は、上述した積S1、積S2に限られるわけではない。例えば、M1とM2の時間間隔、M1とM2のピーク値、トルク検出信号の最大値が計測された関節を特定する情報等でもよい。また、特徴量の求め方として、例えばモデル波形による最小自乗法によるフィッティング後の残差判定や、機械学習等による波形パターン認識を利用してもよい。
図5に戻り、S304処理においてユーザモーションについて特徴が解析され、ユーザモーション別にその特徴の記憶が完了すると、動作指令記憶処理としてのS305処理に進む。
S305処理では、人がユーザモーション(所定の仕方によりロボット装置に接触する動作)を実行することによりロボット装置に入力しようとする動作指令を、制御装置200の動作指令記憶部504に記憶する。動作指令とは、例えば、減速、加速、停止、再始動、位置制御開始、力制御開始、エラーリセット開始、等の中の一つあるいは組み合わせである。
次に、ユーザモーション/動作指令関連付け処理としてのS306処理が行われる。図13は、ユーザモーション/動作指令関連付け処理を説明するための模式図である。ユーザモーション記憶部502には、識別子であるUM1、UM2、UM3、・・・に紐づけられて、各ユーザモーションの特徴量が記憶されている。また、動作指令記憶部には、識別子であるF1、F2、F3、・・・に紐づけられて、各動作指令が記憶されている。
S306処理は、どのユーザモーションが、どの動作指令に対応するかを設定して記憶する処理である。具体的には、ユーザモーションと動作指令の対応関係を記憶したテーブルを、ユーザモーション/動作指令関連付け処理部503内に生成する。操作者は、システム制御盤300を用いて、ユーザモーションと動作指令の対応関係を登録することができる。
S306処理が完了すると、上述した手順1と手順2が完了する。S306処理が完了した際、操作者が分かりやすいよう、どのユーザモーションがどの動作指令に対応付いているかをシステム制御盤300の表示部311に一覧として表示させる処理を別途行っても構わない。
次に、上述した手順3、すなわちユーザモーションに応じた動作変更処理について説明する。
ロボット装置500は、例えば教示された動作プログラムに従って所定の動作を実行している際には、制御装置200の軌道生成器が制御情報を生成し、制御情報に基づいて関節111~116が駆動されてロボットアーム100の位置姿勢が制御されている。本実施形態では、ロボット装置500が動作中に各関節のトルク検出器20から送られてくるトルク検出信号を、ユーザモーション解析部501がモニターしている。ユーザモーション解析部501は、ユーザモーション記憶部502に記憶されたユーザモーションに係る情報を用いて、ユーザモーションの検出を行う。ユーザモーションが検出されると、ユーザモーション/動作指令関連付け処理部503は、動作指令記憶部504に記憶された動作指令の中から、検出されたユーザモーションに対応する動作指令を特定する。制御装置200は、特定された動作指令を受付け、その動作指令に基づいてロボット装置500の動作を変更する。
図14のフローチャートを参照して、手順3において実行される処理について説明する。
まず、ロボット装置500は、起動後にシステム初期化処理としてのS501処理を実行する。システム初期化処理には、内部処理にて内部変数の初期化をしたり、装置内外の通信確立を自動的に実行したり、各種電源を立ち上げるシーケンス制御が含まれる。
S501処理が完了すると、動作プログラムに従って所定の動作を実行するためのコマンドをセットするS502処理が実行される。制御装置200は、関節111~116の各々と周期的に双方向通信を行い、軌道生成器で生成された制御コマンドを内部変数ExecCmdにセットするとともに、各関節からの状態情報を取得する。
S502の実行後、各関節のトルク検出器20で計測されるトルク検出信号をモニターする処理であるS503処理が実行される。S503処理では、各関節から送信されたトルク検出信号をもとに、ユーザモーション解析部501が、ユーザモーション解析処理(図6参照)を行う。
続くS504処理では、ユーザモーション記憶部502に記憶された特徴情報を参照して、人がいずれかのユーザモーションを実行したかをユーザモーション解析部501が検知する。
ユーザモーションが検知されなかった場合(S504処理:NO)には、S502処理にて内部変数ExecCmdにセットされていた制御コマンドを維持したままS506処理に進み、その制御コマンドを実行する。すなわち、ユーザモーションが存在していないため、動作変更は行なわずに、現在実行中であるコマンド処理を続行する。
一方、ユーザモーションが検知された場合(S504処理:YES)には、S505処理に進み、ユーザモーション/動作指令関連付け処理部503が、検知されたユーザモーションに対応する動作指令を動作指令記憶部504から読み出す。読み出された動作指令に係る制御コマンドで内部変数ExecCmdの内容を書き換える。そして、S506処理に進み、書き換えられた制御コマンドを実行する。この場合は、ユーザモーションが検知されたため、検知されたユーザモーションに対応する動作指令に従って、動作の変更が行われたのである。
S506処理が実行されると、S507処理に進み、ロボットアームの各関節の状態に係る情報が通信路146を介して制御装置200に通知される。そして、S502処理に戻り、S502処理~S507処理が、例えば10ミリ秒周期で繰り返し実行され、人とロボット装置500との協働作業が行われる。
以上説明したように、本実施形態によれば、人と協働して作業を行うロボット装置において、人とロボットが近接した位置で協働作業を行いながら、正確かつ容易に人からロボット装置に動作を指示することが可能である。特に、人とロボットが近接した位置で協働作業により物品の製造(例えば、部品の組立作業、研磨・切削・塗装等の加工作業)を行う際に、正確かつ容易に人から産業用ロボット装置に動作を指示することができる。
[実施形態2]
実施形態1では、ロボットアームの各関節に設けられたトルク検出器を用いて、人が協働作業中にロボット装置に接する際のユーザモーションを解析したが、本発明の実施形態はこれに限られるわけではない。
以下に説明する実施形態2においては、実施形態1と異なり、ロボットアームに装着されたタッチパネルを用いて、人が協働作業中にロボット装置の本体に接する際のユーザモーションを解析する。すなわち、本実施形態では、タッチパネルは、ロボット本体への作業者の接触を検知する接触検知部として機能し、モーション検知部としてのユーザモーション解析部はタッチパネルの出力信号を用いて作業者のモーションを検知する。以下、実施形態1と共通する部分の説明は省略し、実施形態1とは異なる部分を中心に説明してゆく。
実施形態2で用いるタッチパネルは、ロボット装置の筐体上の人が接触しやすい位置に装着可能であればよく、ロボット装置に固定されていても脱着可能であってもよい。人の接触を検知できる装置であれば方式に限定はなく、表示画面上に装着されていてもよい。
図15は、実施形態2に係るロボット装置のロボットアームの外観を示す図である。ロボットアーム901の筐体側面部には、タッチパネル904を装着可能なパネルホルダー902が設けられている。タッチパネル904は、操作者が指をタッチして、パネル上で長押し、短押し、繰り返し押し、フリック、スワイプ、ピンチ、ライン描画等のユーザモーションを実行できる形態であるのが望ましい。好適には、接触における、接触時間の長さ、接触する力の強さ、接触により加えられた力の方向、接触の周期、所定時間内に接触する回数、接触位置、接触位置の軌跡、の内の少なくとも1つが解析されて、ユーザモーションは検知される。これにより、長押し、短押し、繰り返し押し、フリック、スワイプ、ピンチ、ライン描画等の中の少なくとも1つのユーザモーションが識別され得る。ここでは、タッチパネル904は表示画面905を備えており、ロボットアームの状態を表示したり、ロボット装置への情報入力が可能な操作パネルとしても用いられ得る場合を例に挙げて説明する。
タッチパネル904は、無線または有線で制御装置200と通信可能である。無線通信の場合は、タッチパネル904にバッテリを装備して、赤外通信、無線LAN、ブルートゥース(登録商標)等を利用して通信を行えばよい。有線通信の場合は、コネクタ903を介してタッチパネル904とロボットアームとを接続し、信号線及び給電線を接続すればよい。
タッチパネル904は操作パネルとしても用いられ得るので、教示を行う際にティーチングペンダントとして用いたり、実施形態1におけるシステム制御盤300のようにして活用することも可能である。ただし、人がロボット装置の近傍に位置して協働作業を行う際には、タッチパネル904は、人がユーザモーションにより動作指令を入力するための装置として用いられる。このようにティーチングペンダントのような外部から入力を行うことができる情報処理装置を、対応するロボット装置に着脱可能に設けることで、どのティーチングペンダントが、どのロボット装置に対応するか瞬時に把握することができる。よって対応するティーチングペンダントでロボット装置に正確に動作を指令することができる。
本実施形態では、タッチパネル904に人が接触した際の接触の仕方(接触位置、接触時間の長さ、周期、所定時間内に接触する回数)や接触位置の軌跡(時系列にみた接触位置の変化)をユーザモーションの特徴として解析する。
図16(a)および図16(a)は、動作指令を入力する際に、人がタッチパネル904に接触して行うユーザモーションについての例を示すための図で、各々は異なるユーザモーションを示している。
本実施形態においても、実施形態1と同様に、人と協働動作を行う前に予めユーザモーションを解析してその特徴をユーザモーション記憶部に記憶させる。また、動作指令についても、予め動作指令記憶部に記憶させておく。また、ユーザモーションと動作指令との対応付けについても、予めユーザモーション/動作指令関連付け処理部に記憶しておく。例えば、図16(a)に示すユーザモーションに対しては、ロボットアームの停止という動作指令を、図16(b)に示すユーザモーションに対しては、ロボットアームの再始動という動作指令を対応させる。
ユーザモーションの特徴としては、例えばタッチパネル904で検出された接触位置の軌跡を記憶する。なお、ユーザモーションとしての接触位置の軌跡(パターン)を入力する際には、図17に示すように表示画面905のモード表示部201を「PATTERN MOTION」に切り換え、パターン入力部906を表示させる。またパターン削除ボタン907、パターン記憶ボタン908もパターン入力部906の近傍に表示させる。パターン入力部906に所定のパターンを入力し、記憶させる場合はパターン記憶ボタン908をタッチする。パターン記憶ボタン908をタッチすれば、入力したパターンを記憶する。そして、パターン入力部906にパターンが表示されていない状態にし、パターン登録番号909の番号を変え、新たなパターンの入力を促す。パターン削除ボタン907がタッチされると、パターン入力部906に入力されたパターンが削除され、別のパターンを再度入力できるようになる。パターン削除ボタン907を誤ってタッチした場合に対応するため、図18のようにパターンの削除の実行を確認するポップアップ912を別途表示する。
また、すでに登録したパターンを再度編集する場合は、モーション編集ボタン910をタッチする。するとパターン登録番号909が点滅を開始する。そして番号送り/戻りボタン911にタッチすることで、パターン登録番号909が点滅しながら切り換わると共に、パターン入力部906に登録されたパターンが順次表示される。そして、編集したいパターンがパターン入力部906に表示された状態でパターン削除ボタン907をタッチすると、図18に示すポップアップ912が表示され、「はい」をタッチすることで登録されたパターンが削除される。そして再度、パターン入力部906に新たなパターンを入力することでパターンの編集を行うことができる。また、パターン登録番号909を点滅させることで、番号送り/戻りボタン911により登録されたパターンを確認するモードなのか、パターンを入力するモードなのかを容易に判別することができる。誤ってモーション編集ボタン910をタッチした場合、または登録されたパターンを確認したいだけの場合は、再度、モーション編集ボタン910をタッチすることでパターン登録番号909の点滅が止み、パターンの入力を再度行うことができる。
そして、第1実施形態で述べたように、操作者が分かりやすいよう、どのパターンがどの動作指令に対応付いているかを表示画面905に一覧として表示させる処理を別途行っても構わない。図19はパターンと動作指令を一覧で表示する際の例図である。番号送り/戻りボタン911により対応するパターンと動作指令を順次表示することができる。本実施形態では表示されるパターンに矢印を付し、どのようにパターンが入力されたのか表示している。さらに、パターンが表示されている部分をタッチし、モーション編集ボタン910をタッチすることで、各パターンに対応する図17の表示画面に切り換わり、パターンの編集を行わせるようにしてもよい。このように、ユーザモーションと対応する動作指令を一覧で表示することで、どのパターンがどの動作指令に対応付いているか容易に判断することができ、図19のような表示画面をロボット装置のマニュアルの一部として使用することができる。なお、上述した各表示モードは、不図示のボタンにより切り換えてもよいし、別途にタッチパネル904に物理的なボタンを設け、物理的なボタンにより表示モードを切り換えても良い。
そして、ユーザモーションを実際に人から検出する際には、タッチパネル904で検出された接触位置の軌跡について、始点、傾き及び縮尺を補正処理した後、記憶している軌跡と比較する。すなわち、最小自乗によるフィッティング処理を行ったあと両者の距離を求め、分散があらかじめ設定される閾値以下である場合には、ユーザモーションが検出されたと判定する処理を行う。
尚、ユーザモーションの特徴を解析して学習する際には、ニューラルネット等を用いた所謂機械学習の手法を用いることも可能である。その場合には、協働作業中にユーザモーションを検出する際には、ニューラルネット等を用いた所謂学習済モデルを用いることが可能である。
以上説明した実施形態2によれば、人と協働して作業を行うロボット装置において、人とロボットが近接した位置で協働作業を行いながら、正確かつ容易に人からロボット装置に動作を指示することが可能である。特に、人とロボットが近接した位置で協働作業により物品の製造(例えば、部品の組立作業、研磨・切削・塗装等の加工作業)を行う際に、正確かつ容易に人から産業用ロボット装置に動作を指示することができる。
[他の実施形態]
尚、本発明は、以上説明した実施形態に限定されるものではなく、本発明の技術的思想内で多くの変形や組み合わせが可能である。
例えば、実施形態1では、図5に示したフローチャートにおいて、S303処理では、所望の種類のユーザモーションについてトルク検出信号の記憶が完了したかを判定したが、異なる観点から判定を行ってもよい。例えば、ユーザモーションについての学習精度を向上させるため、1つの種類のユーザモーションについて操作者に複数回の動作を行わせ、所定数の計測サンプル(学習用データ)を収集すべき場合がある。その際には、S303処理では、同一種類のユーザモーションについての記憶回数が所定数に達したかを判定するようにしてもよい。その場合には、ユーザモーション解析・記憶処理としてのS303処理において、例えばニューラルネットを用いてユーザモーションについての学習済モデルを形成し、記憶してもよい。
また、ユーザモーションを検出するための機構として、実施形態1のトルク検出器を用いるものと、実施形態2のタッチパネルを用いるものの両方を同じロボット装置に設け、同時併用したり、状況により択一的に使用してもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおけるプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
また上述した種々の実施形態は、制御装置に設けられる記憶装置の情報に基づき、伸縮、屈伸、上下移動、左右移動もしくは旋回の動作またはこれらの複合動作を自動的に行うことができる機械に適用可能である。
20・・・トルク検出器/100・・・ロボットアーム/101・・・電源装置/109・・・関節制御部/111~116・・・関節/121~126・・・リンク/145・・・給電路/146・・・通信路/200・・・制御装置/300・・・システム制御盤/311・・・表示部/500・・・ロボット装置/501・・・ユーザモーション解析部/502・・・ユーザモーション記憶部/503・・・ユーザモーション/動作指令関連付け処理部/504・・・動作指令記憶部/901・・・ロボットアーム/902・・・パネルホルダー/904・・・タッチパネル/905・・・表示画面

Claims (39)

  1. ロボットへの作業者からの入力を検出する入力検出部と、
    前記入力検出部を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
    前記モーション検出部により検出されたモーションと対応づけられた動作指令を実行する制御部と、を備え、
    前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が表示され、
    前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができる、
    ことを特徴とするロボットシステム。
  2. 前記入力検出部は、前記ロボットが備えるトルク検出器を用いて前記入力を検出する、
    ことを特徴とする請求項1に記載のロボットシステム。
  3. 前記作業者が前記ロボットに接触することで前記入力を行う、
    ことを特徴とする請求項2に記載のロボットシステム。
  4. 前記入力検出部は、前記ロボットに装着されたタッチパネルを用いて前記入力を検出する、
    ことを特徴とする請求項1に記載のロボットシステム。
  5. 前記タッチパネルは、前記ロボットに脱着可能に装着されている、
    ことを特徴とする請求項4に記載のロボットシステム。
  6. 前記タッチパネルは、赤外通信、無線LAN、ブルートゥース(登録商標)、コネクタによる有線、の少なくとも1つにより前記ロボットと接続されている、
    ことを特徴とする請求項4または5に記載のロボットシステム。
  7. 前記作業者の操作により、前記表示部に、前記モーションに関する情報と共に前記モーションに対応付けられた前記動作指令に関する情報が一覧で表示される、
    ことを特徴する請求項に記載のロボットシステム。
  8. ロボットへの作業者からの入力を検出する入力検出部と、
    前記入力検出部を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
    前記モーション検出部により検出されたモーションと対応づけられた動作指令を実行する制御部と、を備え、
    前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が表示され、
    前記表示部に、前記モーションに関する情報に矢印を付して表示することで、前記モーションの詳細を表示する、
    ことを特徴とするロボットシステム。
  9. 前記表示部にはモーション編集ボタンが表示され、
    前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が前記モーション編集ボタンを押下することで前記作業者が選択した前記モーションに関する情報を編集することができる、
    ことを特徴とする請求項乃至のいずれか1項に記載のロボットシステム。
  10. 前記表示部には、モーション番号表示部が表示され、
    前記作業者が前記モーション編集ボタンを押下すると前記モーション番号表示部が点滅する、
    ことを特徴とする請求項に記載のロボットシステム。
  11. ロボットへの作業者からの入力を検出する入力検出部と、
    前記入力検出部を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
    前記モーション検出部により検出されたモーションと対応づけられた動作指令を実行する制御部と、を備え、
    前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が表示され、
    前記表示部には番号送り/戻りボタンが表示され、
    前記作業者による前記番号送り/戻りボタンの押下により、前記表示部に、前記モーションに関する情報が順次表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が順次表示される、
    ことを特徴とするロボットシステム。
  12. 前記表示部には、モーション番号表示部が表示され、
    前記モーション番号表示部が点滅した状態で、前記作業者により前記番号送り/戻りボタンが押下されると、モーション登録番号に対応したモーションが順次表示される、
    ことを特徴とする請求項1に記載のロボットシステム。
  13. ロボットへの作業者からの入力を検出する入力検出部と、
    前記入力検出部を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
    前記モーション検出部により検出されたモーションと対応づけられた動作指令を実行する制御部と、を備え、
    前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報が表示され、
    前記表示部には、
    モーション登録解除ボタンと、
    モーション格納ボタンと、が表示されている、
    ことを特徴とするロボットシステム。
  14. 前記作業者により前記モーション登録解除ボタンが押下されると、登録解除の実行の確認を前記作業者に行うポップアップが前記表示部に表示される、
    ことを特徴とする請求項1に記載のロボットシステム。
  15. 前記モーション検出部は、前記入力における、入力時間の長さ、入力する力の強さ、入力により加えられた力の方向、入力の周期、所定時間内に入力する回数、入力位置、入力位置の軌跡、の中の少なくとも1つを解析して、前記作業者によって入力されたモーションを検出する、
    ことを特徴とする請求項1乃至1のいずれか1項に記載のロボットシステム。
  16. 前記モーションの特徴に係る情報が格納された第1格納部を備え、
    前記モーション検出部は、前記第1格納部に格納された情報と、前記入力検出部とを用いて、前記作業者のモーションを検出する、
    ことを特徴とする請求項1乃至1のいずれか1項に記載のロボットシステム。
  17. 前記第1格納部は、複数パターンのモーションについて、各々の特徴に係る情報が格納されており、
    前記モーション検出部は、前記入力における前記作業者のモーションが、前記複数パターンのモーションの中のいずれであるかを識別し、
    前記制御部は、識別されたパターンのモーションと対応づけられた動作指令を実行する、
    ことを特徴とする請求項1に記載のロボットシステム。
  18. 前記複数パターンは、長押し、短押し、繰り返し押し、フリック、スワイプ、ピンチ、ライン描画、の中の少なくとも1つを含む、
    ことを特徴とする請求項1に記載のロボットシステム。
  19. 前記制御部は、前記モーション検出部によりモーションが検出された場合に実行する動作指令が格納された第2格納部を備え、
    前記動作指令には、減速、加速、停止、再始動、位置制御開始、力制御開始、エラーリセット開始の中の少なくとも1つが含まれる、
    ことを特徴とする請求項1乃至1のいずれか1項に記載のロボットシステム。
  20. 前記再始動の指令は、前記ロボットの所定部位が、予め設定された所定位置に移動するように前記ロボットを制御する指令である、
    ことを特徴とする請求項19に記載のロボットシステム。
  21. 前記所定位置は復帰位置であり、前記再始動の指令は、前記ロボットが異常により停止した状態から復帰させるように前記ロボットを制御する指令である、
    ことを特徴とする請求項2に記載のロボットシステム。
  22. 前記力制御開始の指令は、力の値に基づき前記ロボットを制御する指令である、
    ことを特徴とする請求項19に記載のロボットシステム。
  23. 前記位置制御開始の指令は、前記ロボットがワークを搬送するように制御する指令である、
    ことを特徴とする請求項19に記載のロボットシステム。
  24. 前記制御部は、前記モーションの特徴量をモデル波形による最小二乗法によるフィッティング後の残差判定、または機械学習による波形パターン認識を用いて取得する、
    ことを特徴とする請求項1乃至2のいずれか1項に記載のロボットシステム。
  25. ロボットへの作業者からの入力を検出する入力検出部と、
    前記作業者によって入力されたモーションを検出するモーション検出部と、
    前記モーション検出部により検出されたモーションと対応づけられた動作指令を前記ロボットに実行させる制御部と、を備え、
    前記制御部は、
    前記作業者の操作により、表示部に、前記モーションに関する情報が表示されると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、
    ことを特徴とする制御装置。
  26. ロボットへの作業者からの入力を検出する入力検出部と、
    前記作業者によって入力されたモーションを検出するモーション検出部と、
    前記モーション検出部により検出されたモーションと対応づけられた動作指令を前記ロボットに実行させる制御部と、を備え、
    前記制御部は、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に、前記モーションに関する情報に矢印を付して表示することで、前記モーションの詳細を表示する、
    ことを特徴とする制御装置。
  27. ロボットへの作業者からの入力を検出する入力検出部と、
    前記作業者によって入力されたモーションを検出するモーション検出部と、
    前記モーション検出部により検出されたモーションと対応づけられた動作指令を前記ロボットに実行させる制御部と、を備え、
    前記制御部は、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に番号送り/戻りボタンを表示し、
    前記作業者による前記番号送り/戻りボタンの押下により、前記表示部に、前記モーションに関する情報を順次表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を順次表示する、
    ことを特徴とする制御装置。
  28. ロボットへの作業者の入力を検出し、
    前記作業者によって入力されたモーションを検出し、
    検出された前記モーションと対応付けられた動作指令を前記ロボットに実行させ、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、
    ことを特徴とする制御方法。
  29. ロボットへの作業者の入力を検出し、
    前記作業者によって入力されたモーションを検出し、
    検出された前記モーションと対応付けられた動作指令を前記ロボットに実行させ、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に、前記モーションに関する情報に矢印を付して表示することで、前記モーションの詳細を表示する、
    ことを特徴とする制御方法。
  30. ロボットへの作業者の入力を検出し、
    前記作業者によって入力されたモーションを検出し、
    検出された前記モーションと対応付けられた動作指令を前記ロボットに実行させ、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に番号送り/戻りボタンを表示し、
    前記作業者による前記番号送り/戻りボタンの押下により、前記表示部に、前記モーションに関する情報を順次表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を順次表示する、
    ことを特徴とする制御方法。
  31. 作業者からの入力を検出する入力検出部の出力信号を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
    前記モーション検出部により検出されたモーションと動作指令の対応づけを行わせることができる処理部と、を備え、
    前記処理部は、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、
    ことを特徴とする情報処理装置。
  32. 作業者からの入力を検出する入力検出部の出力信号を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
    前記モーション検出部により検出されたモーションと動作指令の対応づけを行わせることができる処理部と、を備え、
    前記処理部は、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に、前記モーションに関する情報に矢印を付して表示することで、前記モーションの詳細を表示する、
    ことを特徴とする情報処理装置。
  33. 作業者からの入力を検出する入力検出部の出力信号を用いて、前記作業者によって入力されたモーションを検出するモーション検出部と、
    前記モーション検出部により検出されたモーションと動作指令の対応づけを行わせることができる処理部と、を備え、
    前記処理部は、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に番号送り/戻りボタンを表示し、
    前記作業者による前記番号送り/戻りボタンの押下により、前記表示部に、前記モーションに関する情報を順次表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を順次表示する、
    ことを特徴とする情報処理装置。
  34. 作業者からの入力を検出し、
    前記作業者によって入力されたモーションを検出し、
    検出された前記モーションと動作指令の対応付けを行わせることができ、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に表示された前記モーションに関する情報を前記作業者が選択し、前記作業者が選択した前記モーションの編集を指示することで、前記作業者が選択した前記モーションに関する情報を編集することができるようにする、
    ことを特徴とする情報処理方法。
  35. 作業者からの入力を検出し、
    前記作業者によって入力されたモーションを検出し、
    検出された前記モーションと動作指令の対応付けを行わせることができ、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に、前記モーションに関する情報に矢印を付して表示することで、前記モーションの詳細を表示する、
    ことを特徴とする情報処理方法。
  36. 作業者からの入力を検出し、
    前記作業者によって入力されたモーションを検出し、
    検出された前記モーションと動作指令の対応付けを行わせることができ、
    前記作業者の操作により、表示部に、前記モーションに関する情報を表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を表示し、
    前記表示部に番号送り/戻りボタンを表示し、
    前記作業者による前記番号送り/戻りボタンの押下により、前記表示部に、前記モーションに関する情報を順次表示すると共に、前記モーションに対応付けられた前記動作指令に関する情報を順次表示する、 ことを特徴とする情報処理方法。
  37. 請求項1乃至2のいずれか1項に記載のロボットシステムを用いて物品の製造を行うことを特徴とする物品の製造方法。
  38. 請求項28から30のいずれか1項に記載の制御方法または請求項34から36のいずれか1項に記載の情報処理方法を、コンピュータに実行させるためのプログラム。
  39. 請求項3に記載のプログラムを記憶したコンピュータにより読み取り可能な記録媒体。
JP2020043049A 2020-03-12 2020-03-12 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体 Active JP7483420B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020043049A JP7483420B2 (ja) 2020-03-12 2020-03-12 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体
US17/178,616 US11731272B2 (en) 2020-03-12 2021-02-18 Robot, control device, and information processing device
CN202110249417.1A CN113386125B (zh) 2020-03-12 2021-03-08 机器人、控制装置、信息处理装置、方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020043049A JP7483420B2 (ja) 2020-03-12 2020-03-12 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体

Publications (3)

Publication Number Publication Date
JP2021142608A JP2021142608A (ja) 2021-09-24
JP2021142608A5 JP2021142608A5 (ja) 2023-03-22
JP7483420B2 true JP7483420B2 (ja) 2024-05-15

Family

ID=77617348

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020043049A Active JP7483420B2 (ja) 2020-03-12 2020-03-12 ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体

Country Status (3)

Country Link
US (1) US11731272B2 (ja)
JP (1) JP7483420B2 (ja)
CN (1) CN113386125B (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105446350B (zh) * 2014-09-26 2018-05-29 科沃斯机器人股份有限公司 自移动机器人移动界限划定方法
JP6838017B2 (ja) * 2018-08-31 2021-03-03 ファナック株式会社 レーザ加工のための教示装置、教示方法、及び教示プログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011240468A (ja) 2010-05-21 2011-12-01 Toyota Motor Corp ロボットの接触種類判別システム
JP2015182142A (ja) 2014-03-20 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法
WO2017033366A1 (ja) 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム
US20180043525A1 (en) 2016-08-12 2018-02-15 Industrial Technology Research Institute Control device of robot arm and teaching system and method using the same
JP2018039086A (ja) 2016-09-08 2018-03-15 ファナック株式会社 人間協調型ロボット
JP2018187697A (ja) 2017-04-28 2018-11-29 オムロン株式会社 産業用ロボット、コントローラ、および方法
JP2019025623A (ja) 2017-08-02 2019-02-21 ファナック株式会社 ロボットシステム及びロボット制御装置

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5839806B2 (ja) 2011-02-02 2016-01-06 キヤノン株式会社 ロボット制御装置及びロボット制御方法
KR102631147B1 (ko) * 2016-10-07 2024-01-31 엘지전자 주식회사 공항용 로봇 및 그의 동작 방법
JP6392910B2 (ja) 2017-01-13 2018-09-19 ファナック株式会社 ロボットの安全確保動作機能を備えた人間協働ロボットシステム
JP2018176288A (ja) * 2017-04-03 2018-11-15 ファナック株式会社 ロボットの教示装置
JP6526098B2 (ja) 2017-04-26 2019-06-05 ファナック株式会社 ロボットを操作するための操作装置、ロボットシステム、および操作方法
JP7049069B2 (ja) 2017-05-19 2022-04-06 川崎重工業株式会社 ロボットシステム及びロボットシステムの制御方法
JP6958091B2 (ja) 2017-08-08 2021-11-02 セイコーエプソン株式会社 ロボットシステム、及びロボット制御方法
JP7095980B2 (ja) 2017-11-27 2022-07-05 川崎重工業株式会社 ロボットシステム
WO2019190487A1 (en) 2018-03-27 2019-10-03 Productive Robotics, Inc. Collaborative robot system incorporating enhanced human interface
JP6882249B2 (ja) * 2018-11-29 2021-06-02 ファナック株式会社 ロボット用操作装置
JP6810173B2 (ja) * 2019-01-29 2021-01-06 日本金銭機械株式会社 物体把持システム
US11376742B2 (en) * 2019-05-15 2022-07-05 Lg Electronics Inc. Robot and method of controlling the same
US20210039262A1 (en) * 2019-08-09 2021-02-11 Medtech S.A. Robotic controls for a surgical robot
JP2021133470A (ja) * 2020-02-28 2021-09-13 セイコーエプソン株式会社 ロボットの制御方法およびロボットシステム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011240468A (ja) 2010-05-21 2011-12-01 Toyota Motor Corp ロボットの接触種類判別システム
JP2015182142A (ja) 2014-03-20 2015-10-22 セイコーエプソン株式会社 ロボット、ロボットシステム及び教示方法
WO2017033366A1 (ja) 2015-08-25 2017-03-02 川崎重工業株式会社 遠隔操作ロボットシステム
US20180043525A1 (en) 2016-08-12 2018-02-15 Industrial Technology Research Institute Control device of robot arm and teaching system and method using the same
JP2018039086A (ja) 2016-09-08 2018-03-15 ファナック株式会社 人間協調型ロボット
JP2018187697A (ja) 2017-04-28 2018-11-29 オムロン株式会社 産業用ロボット、コントローラ、および方法
JP2019025623A (ja) 2017-08-02 2019-02-21 ファナック株式会社 ロボットシステム及びロボット制御装置

Also Published As

Publication number Publication date
CN113386125B (zh) 2024-01-16
US20210283774A1 (en) 2021-09-16
JP2021142608A (ja) 2021-09-24
US11731272B2 (en) 2023-08-22
CN113386125A (zh) 2021-09-14

Similar Documents

Publication Publication Date Title
CN107921645B (zh) 远程操作机器人系统
CN110977931B (zh) 使用了增强现实和混合现实的机器人控制装置及显示装置
US9393687B2 (en) Method for programming an industrial robot and industrial robot
US9063539B2 (en) Method and device for command input in a controller of a manipulator
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
CN108789457B (zh) 工业用机器人、控制器及控制方法
JP7483420B2 (ja) ロボットシステム、制御装置、情報処理装置、制御方法、情報処理方法、物品の製造方法、プログラム、および記録媒体
JP5939202B2 (ja) ロボット教示補助装置、ロボットシステムおよびロボット教示方法
CN114174015B (zh) 控制装置、控制系统、机器人系统以及控制方法
CN110709211B (zh) 机器人系统和机器人系统的控制方法
JPH10111707A (ja) 作業領域操作方法及びベンディングプレス機に隷属するロボット
CN109382823B (zh) 机器人系统及机器人控制装置
WO2009155947A1 (en) Control system and method for control
KR101474778B1 (ko) 다관절 로봇의 동작인식을 통한 제어장치 및 그 방법
WO2023162248A1 (ja) 教示操作盤およびロボット制御システム
KR20110060319A (ko) 커뮤니케이션이 가능한 로봇 및 이의 조작방법
WO2023112342A1 (ja) 教示装置、制御装置、及び機械システム
US20240109188A1 (en) Operation apparatus, robot system, manufacturing method, control method, and recording medium
WO2023218536A1 (ja) ロボット制御装置、ロボットシステム、及び教示装置
JP2024052515A (ja) 操作装置、ロボットシステム、製造方法、制御方法、制御プログラムおよび記録媒体
JP7185749B2 (ja) ロボットシステム及びロボットシステムの制御方法
JP4213990B2 (ja) ロボットの教示装置
CN117798956A (zh) 操作装置、机器人系统、制造方法、控制方法和记录介质
JP3023432B2 (ja) ロボット制御装置
JP2022049897A (ja) ロボットの制御方法およびロボットシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230310

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20231122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231212

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240208

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240501

R150 Certificate of patent or registration of utility model

Ref document number: 7483420

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150