JP2023157744A - 遠隔制御システム、ロボットの遠隔制御方法及び遠隔制御プログラム - Google Patents
遠隔制御システム、ロボットの遠隔制御方法及び遠隔制御プログラム Download PDFInfo
- Publication number
- JP2023157744A JP2023157744A JP2022067838A JP2022067838A JP2023157744A JP 2023157744 A JP2023157744 A JP 2023157744A JP 2022067838 A JP2022067838 A JP 2022067838A JP 2022067838 A JP2022067838 A JP 2022067838A JP 2023157744 A JP2023157744 A JP 2023157744A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- user
- remote control
- contact
- operating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 82
- 230000015541 sensory perception of touch Effects 0.000 claims abstract description 23
- 230000000638 stimulation Effects 0.000 claims abstract description 20
- 230000008569 process Effects 0.000 claims description 70
- 230000006870 function Effects 0.000 claims description 22
- 238000001514 detection method Methods 0.000 claims description 19
- 230000003213 activating effect Effects 0.000 claims description 7
- 230000033001 locomotion Effects 0.000 description 46
- 238000003384 imaging method Methods 0.000 description 30
- 238000012545 processing Methods 0.000 description 28
- 238000010586 diagram Methods 0.000 description 7
- 238000012546 transfer Methods 0.000 description 7
- 230000008859 change Effects 0.000 description 5
- 230000036544 posture Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 4
- 239000012636 effector Substances 0.000 description 3
- 238000012544 monitoring process Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000004936 stimulating effect Effects 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
Abstract
【課題】ロボットの遠隔制御においてユーザがロボットの状況を的確に判断できるようにする。【解決手段】遠隔制御システム100は、ロボット1と、ユーザからの入力を受け付ける操作装置4と、ロボット1の画像をユーザに提示する表示装置52と、ユーザの触覚に刺激を付与する触覚デバイス8と、操作装置4への入力に基づいてロボット1を制御する制御装置6とを備えている。制御装置6は、ロボット1が他の物体に接触した場合に触覚デバイス8を作動させる。【選択図】図1
Description
ここに開示された技術は、遠隔制御システム、ロボットの遠隔制御方法及び遠隔制御プログラムに関する。
従来より、操作装置を介してロボットを遠隔制御する技術が知られている。例えば、特許文献1には、物理的に互いに離間した位置に配置されたロボットと操作装置とを備えた遠隔制御システムが開示されている。この遠隔制御システムでは、ロボットの画像が表示装置に表示される。ユーザは、表示装置を観ながら操作装置を操作することによって、ロボットを遠隔操作する。
前述のような遠隔制御システムにおいては、ユーザは、表示装置を介してロボットの状況を確認する。そのため、ユーザがロボットの状況を確認できる精度は、表示装置に表示される画像の画質に依存する。確認精度を高めるために画質を向上させると、表示装置に表示される画像に遅延が生じ、ロボットの状況確認にタイムラグが生じる虞がある。
ここに開示された技術は、かかる点に鑑みてなされたものであり、その目的とするところは、ロボットの遠隔制御においてユーザがロボットの状況を的確に判断できるようにすることにある。
ここに開示された遠隔制御システムは、ロボットと、ユーザからの入力を受け付ける操作装置と、前記ロボットの画像をユーザに提示する表示装置と、ユーザの触覚に刺激を付与する触覚デバイスと、前記操作装置への入力に基づいて前記ロボットを制御する制御装置とを備え、前記制御装置は、前記ロボットが他の物体に接触した場合に前記触覚デバイスを作動させる。
また、ここに開示されたロボットの遠隔制御システムは、ロボットと、ユーザからの入力を受け付ける操作装置と、前記ロボットの画像をユーザに提示する表示装置と、ユーザの触覚に刺激を付与する触覚デバイスと、前記操作装置への入力に基づいて、複数の工程が含まれる作業を前記ロボットに実行させる制御装置とを備え、前記制御装置は、前記複数の工程の少なくとも1つの工程の完了時に前記触覚デバイスを作動させる。
ここに開示されたロボットの遠隔制御方法は、操作装置を介してロボットを制御するロボットの遠隔制御方法であって、前記操作装置を介したユーザからの入力を受け付けることと、前記操作装置への入力に基づいて前記ロボットを動作させることと、動作する前記ロボットの画像を表示装置を介してユーザに提示することと、前記ロボットが他の物体に接触した場合に、ユーザの触覚に刺激を付与する触覚デバイスを作動させることとを含む。
ここに開示された遠隔制御プログラムは、ロボットと、ユーザからの入力を受け付ける操作装置と、ユーザの触覚に刺激を付与する触覚デバイスとを備えた遠隔制御システムを制御する機能をコンピュータに実現させるための遠隔制御プログラムであって、前記操作装置を介したユーザからの入力を受け付ける機能と、前記操作装置への入力に基づいて前記ロボットを動作させる機能と、前記ロボットが他の物体に接触した場合に、ユーザの触覚に刺激を付与する触覚デバイスを作動させる機能とをコンピュータに実現させる。
前記遠隔制御システムによれば、ユーザがロボットの状況を的確に判断できる。
前記ロボットの遠隔制御方法によれば、ユーザがロボットの状況を的確に判断できる。
前記遠隔制御プログラムによれば、ユーザがロボットの状況を的確に判断できる。
以下、例示的な実施形態を図面に基づいて詳細に説明する。図1は、実施形態に係る遠隔制御システム100の構成を示す模式図である。
遠隔制御システム100は、ロボット1と、ユーザからの入力を受け付ける操作装置4と、ロボット1の画像をユーザに提示する表示装置52と、ユーザの触覚に刺激を付与する触覚デバイス8と、操作装置4への入力に基づいてロボット1を制御する制御装置6とを備えている。操作装置4、表示装置52及び触覚デバイス8は、ユーザがいる第1サイトS1に配置されている。ロボット1は、第1サイトS1とは別の第2サイトS2に配置されている。制御装置6は、操作装置4とロボット1との間で遠隔制御を実現する。操作装置4は、マスタ装置として機能し、ロボット1は、スレーブ装置として機能する。
遠隔制御システム100は、ロボット1を撮影する撮像装置51をさらに備えていてもよい。撮像装置51は、第2サイトS2に配置されている。表示装置52は、撮像装置51による撮影画像を表示する。
遠隔制御システム100によれば、ユーザは操作装置4を介してロボット1を遠隔操作し、ロボット1に所定の作業を実行させる。このとき、撮像装置51は、ロボット1を撮像し、その撮像画像を表示装置52が表示する。ユーザは、表示装置52に表示されたロボット1の画像を確認しながら操作装置4を操作する。それに加えて、ユーザは、適宜のタイミングで触覚デバイス8から触覚への刺激を与えられる。ユーザは、触覚デバイス8から触覚刺激を与えられることによって、所定の事象が発生したことを遠隔操作中に知得することができる。
尚、本開示において、ロボット1が行う作業は、ティーチング作業並びに教示の確認及び修正作業を含まない。したがって、操作装置4は、ティーチペンダントを含まない。
[ロボット]
ロボット1は、産業用ロボットである。ロボット1は、ロボットアーム11と、開閉動作を行う指22が設けられ、ロボットアーム11に連結されたハンド2とを有している。
ロボット1は、産業用ロボットである。ロボット1は、ロボットアーム11と、開閉動作を行う指22が設けられ、ロボットアーム11に連結されたハンド2とを有している。
ロボットアーム11は、ハンド2の位置及び姿勢を変更する。ロボットアーム11は、垂直多関節型のロボットアームである。ロボットアーム11は、複数のリンク12と、複数のリンク12を接続する関節13と、複数の関節13を回転駆動するサーボモータ14(図3参照)と、サーボモータ14の回転位置を検出するエンコーダ31(図3参照)とを有している。例えば、ロボットアーム11の一端部に位置するリンク12は、関節13を介して、鉛直方向に延びる回転軸回りに回転可能にベース10に連結されている。尚、ロボットアーム11は、水平多関節型、パラレルリンク型、直角座標型、又は極座標型のロボットアーム等であってもよい。
ハンド2は、ロボットアーム11のエンドエフェクタである。ハンド2は、ロボットアーム11の先端に連結されている。具体的には、ハンド2は、複数のリンク12のうちベース10に連結されているリンク12とは反対側の端部のリンク12に連結されている。ハンド2は、ロボットアーム11の動作によって様々な姿勢をとることができる。
図2は、ハンド2の模式的な正面図である。ハンド2は、ハンド本体21と、ハンド本体21に設けられた2本の指22を有している。ハンド本体21は、ロボットアーム11のリンク12に対して所定の回転軸A回りに回転可能に連結されている。2本の指22は、所定の開閉方向Xに並んで配置されている。具体的には、2本の指22は、開閉方向Xに略直交する中心軸Zに対して対称に配置されている。中心軸Zは、回転軸Aと略直線上に並んでいる。2本の指22は、開閉方向Xへ開閉動作を行う。指22は、開閉方向Xと交差する方向に延びている。具体的には、指22は、中心軸Zと略平行に延びている。ハンド2は、2本の指22に開閉動作を行わせるサーボモータ23と、サーボモータ23の回転位置を検出するエンコーダ32とをさらに有している。
遠隔制御システム100は、ロボット1に作用する力を検出するセンサ3をさらに備えている。センサ3は、ワークWが置かれた面から指22に作用する力を検出する接触力センサ33を含んでいる。接触力センサ33は、図2に示すように、ハンド2に設けられている。具体的には、接触力センサ33は、ハンド2のうちロボットアーム11と連結部に設けられている。接触力センサ33は、少なくとも2本の指22の中心軸Zの方向、即ち、リンク12に対するハンド2の回転軸Aの方向の力を検出する。具体的には、接触力センサ33は、指22の中心軸Zの方向を含む直交する3軸方向の力と該3軸回りのモーメントを検出する。ワークWを把持する際には、ハンド2は、通常、中心軸Zの方向へ移動して、ワークWが置かれた面に接触する。つまり、接触力センサ33は、ワークWが置かれた面から指22に作用する接触力を検出する。尚、接触力センサ33は、1軸、2軸又は3軸方向の力のみを検出してもよい。接触力センサ33は、第1センサの一例である。
また、エンコーダ31及びエンコーダ32は、センサ3に含まれる。詳しくは後述するが、エンコーダ31によって検出されるサーボモータ14の現在の回転位置と目標回転位置との偏差が大きい場合には、ロボットアーム11が他の物体に接触している、即ち、ロボット1に外力が作用している。同様に、エンコーダ32によって検出されるサーボモータ23の現在の回転位置と目標回転位置との偏差が大きい場合には、指22が他の物体に接触している、すなわち、ロボット1に外力が作用している。つまり、エンコーダ31及びエンコーダ32はそれぞれ、ロボット1に作用する力を検出するセンサとしても機能する。ここで、エンコーダ32は、指22の開閉方向XへワークWから指22に作用する力を検出する第2センサに相当する。
[操作装置]
操作装置4は、図1に示すように、ユーザが入力操作を行う入力部41を有している。入力部41は、方向キー41aと、第1入力ボタン41bと、第2入力ボタン41cと、第3入力ボタン41dと、第4入力ボタン41eとを含んでいる。操作装置4は、ロボット1を遠隔操作するための入力を受け付け、入力された情報である操作情報を制御装置6へ出力する。
操作装置4は、図1に示すように、ユーザが入力操作を行う入力部41を有している。入力部41は、方向キー41aと、第1入力ボタン41bと、第2入力ボタン41cと、第3入力ボタン41dと、第4入力ボタン41eとを含んでいる。操作装置4は、ロボット1を遠隔操作するための入力を受け付け、入力された情報である操作情報を制御装置6へ出力する。
操作装置4は、方向キー41a、第1入力ボタン41b、第2入力ボタン41c、第3入力ボタン41d及び第4入力ボタン41eの組み合わせによって、様々な操作入力を可能とする。例えば、ロボットアーム11を動作させる場合には、ユーザは、方向キー41aを操作することによって、ハンド2を前後左右のうち方向キー41aに対応する方向への移動を入力することができる。このとき、ユーザは、第2入力ボタン41c及び第4入力ボタン41eによって、ハンド2の上下への移動を入力することができる。指22を動作させる場合には、ユーザは、第1入力ボタン41bを操作することによって指22の閉動作を入力し、第3入力ボタン41dを操作することによって指22の開動作を入力することができる。また、方向キー41aによって選択肢を切り替え、決定ボタンとしての第1入力ボタン41b又はキャンセルボタンとしての第3入力ボタン41dによって所定のコマンドを入力することもできる。例えば、ユーザは、表示装置52に表示されたコマンドの選択肢の中から方向キー41aによって一のコマンドを選択して、第1入力ボタン41bによってコマンドを決定することによって、所望のコマンドを入力することができる。
[撮像装置]
撮像装置51は、第2サイトS2に配置されている。具体的には、撮像装置51は、ロボットアーム11の先端部に取り付けられている。撮像装置51は、ロボット1、具体的には、ハンド2を撮影する。撮像装置51は、撮影画像を制御装置6へ出力する。
撮像装置51は、第2サイトS2に配置されている。具体的には、撮像装置51は、ロボットアーム11の先端部に取り付けられている。撮像装置51は、ロボット1、具体的には、ハンド2を撮影する。撮像装置51は、撮影画像を制御装置6へ出力する。
[表示装置]
表示装置52は、ユーザが操作装置4を操作しながら視認できる位置に配置されている。表示装置52は、制御装置6から送信される、撮像装置51による撮影画像を表示する。表示装置52は、ロボット1の撮影画像を表示することによって、操作装置4を操作するユーザを補助する。
表示装置52は、ユーザが操作装置4を操作しながら視認できる位置に配置されている。表示装置52は、制御装置6から送信される、撮像装置51による撮影画像を表示する。表示装置52は、ロボット1の撮影画像を表示することによって、操作装置4を操作するユーザを補助する。
[触覚デバイス]
触覚デバイス8は、例えば、ボイスコイルモータ81を有している。触覚デバイス8は、例えば、ユーザの手首に装着される。触覚デバイス8は、ボイスコイルモータ81の作動によって振動を発生させる。触覚デバイス8は、ボイスコイルモータ81の振動によって、ユーザの触覚に刺激を付与する。
触覚デバイス8は、例えば、ボイスコイルモータ81を有している。触覚デバイス8は、例えば、ユーザの手首に装着される。触覚デバイス8は、ボイスコイルモータ81の作動によって振動を発生させる。触覚デバイス8は、ボイスコイルモータ81の振動によって、ユーザの触覚に刺激を付与する。
触覚デバイス8は、振動態様を変更することができる。振動態様には、振幅、周波数及び繰り返し周期又はリズム等が含まれる。例えば、触覚デバイス8は、ボイスコイルモータ81に印加する電流を調整することによって振幅、即ち、振動の大きさを調整することができる。触覚デバイス8は、振動の大きさを3段階に調整することができる。触覚デバイス8は、比較的小さな振動の第1振動、第1振動よりも大きな第2振動、及び、第2振動よりも大きな第3振動を択一的に発生させることができる。第1振動、第2振動及び第3振動は、連続的な振動であっても、断続的な振動であってもよい。第1振動、第2振動及び第3振動の振動態様は、統一されていてもよいし、互いに異なっていてもよい。尚、触覚デバイス8は、振幅に加えて、又は、振幅に代えて、振動の周波数を調整してもよい。さらに、触覚デバイス8は、第1振動、第2振動及び第3振動に加えて、警報振動を発生させることができる。例えば、警報振動の振幅は、第1振動、第2振動及び第3振動よりも大きく、且つ、警報振動の振動態様は、第1振動、第2振動及び第3振動とは異なる。
[制御装置]
制御装置6には、ロボット1、センサ3、操作装置4、撮像装置51、表示装置52及び触覚デバイス8が接続されている。制御装置6は、操作装置4からの操作情報に基づいてロボット1を動作させる。具体的には、制御装置6は、操作装置4への入力に基づいて、複数の工程が含まれる作業をロボット1に実行させる。例えば、制御装置6は、ワークWのピッキング作業をロボット1に実行させる。この例では、制御装置6は、ロボット1の状態に基づく操作装置4の力制御及び位置制御を行わない。制御装置6は、操作装置4の操作情報に基づいてロボット1を一方通行で制御する、いわゆるユニラテラル制御を行う。
制御装置6には、ロボット1、センサ3、操作装置4、撮像装置51、表示装置52及び触覚デバイス8が接続されている。制御装置6は、操作装置4からの操作情報に基づいてロボット1を動作させる。具体的には、制御装置6は、操作装置4への入力に基づいて、複数の工程が含まれる作業をロボット1に実行させる。例えば、制御装置6は、ワークWのピッキング作業をロボット1に実行させる。この例では、制御装置6は、ロボット1の状態に基づく操作装置4の力制御及び位置制御を行わない。制御装置6は、操作装置4の操作情報に基づいてロボット1を一方通行で制御する、いわゆるユニラテラル制御を行う。
ロボット1の制御と並行して、制御装置6は、撮像装置51からの撮影画像を表示装置52へ送信する。さらに、制御装置6は、ロボット1の状況に応じて、触覚デバイス8を制御する。具体的には、制御装置6は、他の物体へのロボット1の接触状況を触覚デバイス8を介してユーザの触覚に提示する。このように、制御装置6は、ロボット1の制御、撮影画像の提示及び触覚デバイス8の制御を並行して実行する。
図3は、制御装置6の概略的なハードウェア構成を示す図である。制御装置6は、主制御装置60とロボット制御装置7とを有している。主制御装置60は、ロボット制御装置7と情報、指令及びデータ等の送受信を行う。
主制御装置60は、操作装置4からの信号を受信し、ロボット制御装置7へ指令を出力する。ロボット制御装置7は、指令に基づいて、サーボモータ14又はサーボモータ23へ電流を印加する。このとき、ロボット制御装置7は、エンコーダ31又はエンコーダ32から信号を受信して、サーボモータ14又はサーボモータ23をフィードバック制御する。さらに、ロボット制御装置7は、エンコーダ31、エンコーダ32及び接触力センサ33からの信号、並びに、撮像装置51からの画像信号を受信し、受信された信号を主制御装置60へ出力する。主制御装置60は、撮像装置51からの画像信号を表示装置52へ出力する。主制御装置60は、エンコーダ32及び接触力センサ33からの信号に基づいて触覚デバイス8を制御する。
ロボット制御装置7は、制御部71と、記憶部72と、メモリ73とを有している。主制御装置60は、制御部61と、記憶部62と、メモリ63とを有している。
制御部71は、ロボット制御装置7の全体を制御する。制御部61は、主制御装置60の全体を制御する。制御部71及び制御部61はそれぞれ、各種の演算処理を行う。例えば、制御部71及び制御部61のそれぞれは、CPU(Central Processing Unit)等のプロセッサで形成されている。制御部71及び制御部61のそれぞれは、MCU(Micro Controller Unit)、MPU(Micro Processor Unit)、FPGA(Field Programmable Gate Array)、PLC(Programmable Logic Controller)、システムLSI等で形成されていてもよい。
記憶部72は、制御部71で実行されるプログラム及び各種データを格納している。記憶部62は、制御部61で実行されるプログラム及び各種データを格納している。具体的には、記憶部62は、遠隔制御プログラム62aを格納している。記憶部72及び記憶部62のそれぞれは、不揮発性メモリ、HDD(Hard Disc Drive)又はSSD(Solid State Drive)等で形成される。
メモリ73及びメモリ63はそれぞれ、データ等を一時的に格納する。例えば、メモリ73及びメモリ63のそれぞれは、揮発性メモリで形成される。
図4は、制御装置6の機能ブロック図である。制御部61は、記憶部62から遠隔制御プログラム62aをメモリ63に読み出して展開することによって、各種機能を実現する。具体的には、制御部61は、入力処理部64と指令位置生成部65と指令角度変換部66と画像処理部67と触覚制御部68として機能する。制御部71は、記憶部72からプログラムをメモリ73に読み出して展開することによって、各種機能を実現する。具体的には、制御部71は、センサ処理部74と動作制御部75と撮像制御部76として機能する。
入力処理部64は、操作装置4からの操作情報に基づいて、ロボットアーム11を動作させる第1モードと指22を動作させる第2モードとを切り替える。例えば、ユーザが方向キー41a、第1入力ボタン41b又は第2入力ボタン41cを操作することによって、モードの切り替え指令が操作装置4から入力処理部64へ入力される。
入力処理部64は、操作装置4からの操作情報に基づいて、現在のモードの動作対象の指令速度を生成する。
具体的には、第1モードの場合には、ユーザは、方向キー41a等を操作することによってハンド2の移動方向を入力する。入力処理部64は、操作装置4から入力される移動方向に基づいてハンド2の指令速度を生成する。指令速度は、いわゆる速度ベクトルであり、移動方向と速さとで定義される。ここでは、速さは一定とする。ただし、方向キー41a等の操作によって、ハンド2の移動方向に加えてハンド2の速さが入力されてもよい。その場合、入力処理部64は、操作装置4から入力される移動方向及び速さに基づいてハンド2の指令速度を生成する。
第2モードの場合には、ユーザは、方向キー41a等を操作することによって指22の移動方向、即ち、開方向か閉方向かを入力する。入力処理部64は、操作装置4から入力される移動方向に基づいて指22の指令速度を生成する。指令速度は、いわゆる速度ベクトルであり、移動方向と速さとで定義される。ここでは、速さは一定とする。ただし、方向キー41a等の操作によって、指22の移動方向に加えて指22の速さが入力されてもよい。その場合、入力処理部64は、操作装置4から入力される移動方向及び速さに基づいて指22の指令速度を生成する。
指令位置生成部65は、入力処理部64によって生成された指令速度を指令位置に換算する。指令位置生成部65は、第1モードの場合にはハンド2の指令位置を換算し、第2モードの場合には指22の指令位置を換算する。ここで、ハンド2の指令位置は、ハンド2の位置だけでなく、ハンド2の姿勢も含む。尚、指22が開閉動作しても、ハンド本体21に対する指22の姿勢は変わらないので、指22の指令位置は、指22の姿勢を含まない。
指令角度変換部66は、指令位置生成部65によって換算された指令位置をサーボモータの指令角度位置に変換する。指令角度変換部66は、第1モードの場合には、ハンド2の指令位置に対応する各サーボモータ14の角度位置を指令角度位置として求める。指令角度変換部66は、第2モードの場合には、指22の指令位置に対応するサーボモータ23の角度位置を指令角度位置として求める。指令角度変換部66は、求められた指令角度位置をロボット制御装置7へ出力する。
センサ処理部74は、エンコーダ31、エンコーダ32及び接触力センサ33から検出信号、即ち、検出結果を受け取る。センサ処理部74は、エンコーダ31及びエンコーダ32からの検出信号を動作制御部75へ出力する。さらに、センサ処理部74は、エンコーダ31、エンコーダ32及び接触力センサ33からの検出信号を主制御装置60へ出力する。
動作制御部75は、主制御装置60から指令角度位置を受け取り、指令角度位置に従ってロボット1を動作させる。詳しくは、動作制御部75は、サーボモータ14の指令角度位置を受け取ると、指令角度位置を実現するための電流指令値を求める。動作制御部75は、電流指令値に相当する電流をサーボモータ14へ印加することによって、ロボットアーム11を動作させる。このとき、動作制御部75は、センサ処理部74からのエンコーダ31の検出信号に基づいて、サーボモータ14への印加電流をフィードバック制御する。これにより、ハンド2が指令位置へ移動する。あるいは、動作制御部75は、サーボモータ23の指令角度位置を受け取ると、指令角度位置を実現するための電流指令値を求める。動作制御部75は、電流指令値に相当する電流をサーボモータ23へ印加することによって、指22を動作させる。このとき、動作制御部75は、センサ処理部74からのエンコーダ32の検出信号に基づいて、サーボモータ23への印加電流をフィードバック制御する。これにより、指22が指令位置へ移動する。
撮像制御部76は、撮像装置51へ指令を出力して、撮像装置51に撮影を実行させる。撮像制御部76は、撮像装置51から撮影画像を受信し、撮影画像を主制御装置60へ送信する。
画像処理部67は、撮像装置51から受信した撮影画像、即ち、画像信号を表示装置52へ転送する。このとき、画像処理部67は、撮影画像に所定の画像処理を施してもよい。
触覚制御部68は、触覚デバイス8を制御する。具体的には、触覚制御部68は、ロボット1が他の物体に接触したか否かを判定し、接触が発生している場合に触覚デバイス8を振動させる。触覚制御部68は、エンコーダ31、エンコーダ32及び接触力センサ33を含むセンサ3の検出結果に基づいて、接触の発生を判定する。
接触力センサ33は、ハンド2が他の物体から受ける接触力を検出する。接触力センサ33は、少なくとも指22の中心軸Zの方向の力を検出するので、指22が他の物体に中心軸Zの方向に接触する際の接触力を検出する。触覚制御部68は、接触力センサ33によって検出される接触力が所定の第1閾値以上の場合に、指22が他の物体に接触していると判定する。第1閾値は、ハンド2が他の物体に接触していることを判定できる程度の接触力の値であり、比較的小さい値である。
触覚制御部68は、エンコーダ31の検出結果に基づいて、ロボットアーム11の対応するサーボモータ14の現在の角度位置と指令角度位置との偏差を求める。サーボモータ14の角度位置の偏差は、ロボットアーム11が他の物体から受ける接触力に対応する。触覚制御部68は、角度位置の偏差が所定の第2閾値以上の場合に、ロボットアーム11が他の物体に接触していると判定する。第2閾値は、ロボットアーム11が他の物体に接触したと判定できる程度の接触力に相当する偏差の値である。
触覚制御部68は、エンコーダ32の検出結果に基づいて、ハンド2のサーボモータ23の現在の角度位置と指令角度位置との偏差を求める。サーボモータ23の角度位置の偏差は、指22が開閉方向Xにおいて他の物体から受ける接触力に対応する。触覚制御部68は、角度位置の偏差が所定の第3閾値よりも大きい場合に、指22が他の物体に接触していると判定する。第3閾値は、指22によるワークWの把持力に相当する偏差の値である。例えば、指22がワークWを把持する際に指22がワークWに接触すると、指22はそれ以上閉じることができず、サーボモータ23の偏差が増大して第3閾値を超える。このような場合に、触覚制御部68は、指22が他の物体に接触していると判定する。
触覚制御部68は、エンコーダ31、エンコーダ32及び接触力センサ33のそれぞれによって検出される接触を、別々の接触として認識する。つまり、触覚制御部68は、ロボット1の接触の種別を、エンコーダ31、エンコーダ32及び接触力センサ33の何れによって接触が検出されたかに基づいて判別する。例えば、エンコーダ31及び接触力センサ33のそれぞれによって接触が検出されている場合には、触覚制御部68は、異なる2つの種別の接触が発生していると判定する。
他の物体へのロボット1の接触が発生している場合には、触覚制御部68は、触覚デバイス8を作動させる。触覚制御部68は、種別が異なる接触ごとに触覚デバイス8を作動させる。具体的には、触覚制御部68は、同時に発生している接触の種別の数に応じて触覚デバイス8の作動態様を変更する。1つの種別の接触が発生している場合には、触覚制御部68は、第1振動を発生させる指令を触覚デバイス8へ出力する。2つの種別の接触が発生している場合には、触覚制御部68は、第2振動を発生させる指令を触覚デバイス8へ出力する。3つの種別の接触が発生している場合には、触覚制御部68は、第3振動を発生させる指令を触覚デバイス8へ出力する。いずれの場合も、触覚制御部68は、接触の種別にかかわらず、接触の種別の数だけで判断して、対応する指令を出力する。
それに加えて、触覚制御部68は、ロボット1の接触力の大きさを判定し、触覚デバイス8の作動態様を接触力の大きさに応じて変更する。具体的には、触覚制御部68は、ロボット1の動作を強制的に停止させる程度の大きな接触力での他の物体へのロボット1の接触(以下、「強接触」という)が発生していないか監視している。ここで、強接触は、各センサの検出結果に基づいて接触が発生していると判定したときの接触力よりも大きい接触力での接触である。接触力センサ33によって検出される接触力が第1閾値よりも大きい第1上限値以上の場合に、触覚制御部68は、指22の強接触が発生していると判定する。サーボモータ14の角度位置の偏差が第2閾値よりも大きい第2上限値以上の場合に、触覚制御部68は、ロボットアーム11の強接触が発生していると判定する。サーボモータ23の角度位置の偏差が第3閾値よりも大きい第3上限値以上の場合に、触覚制御部68は、開閉方向Xにおいて指22の強接触が発生していると判定する。第1上限値、第2上限値及び第3上限値はそれぞれ、ロボット1の動作を強制的に停止させる程度の大きな接触力に相当する値である。
ロボット1の強接触が発生している場合には、触覚制御部68は、警報振動を発生させる指令を触覚デバイス8へ出力する。警報振動の振動態様は、第1振動、第2振動及び第3振動とは異なる。
[ピッキング作業]
このように構成された遠隔制御システム100の動作をロボット1による具体的な作業としてピッキング作業を例に説明する。図5は、遠隔制御のフローチャートである。ピッキング作業は、ロボット1が所定の開始状態から、コンテナC内に載置されたワークWをピッキングして、トレイTへ移送する作業である。ピッキング作業は、ハンド2をピッキング位置まで移動させる第1移動工程と、ハンド2にワークWを把持させる把持工程と、ワークWを把持した状態のハンド2を移送位置まで移動させる第2移動工程と、ハンド2によるワークWの把持を解除させる解除工程とが含まれる。
このように構成された遠隔制御システム100の動作をロボット1による具体的な作業としてピッキング作業を例に説明する。図5は、遠隔制御のフローチャートである。ピッキング作業は、ロボット1が所定の開始状態から、コンテナC内に載置されたワークWをピッキングして、トレイTへ移送する作業である。ピッキング作業は、ハンド2をピッキング位置まで移動させる第1移動工程と、ハンド2にワークWを把持させる把持工程と、ワークWを把持した状態のハンド2を移送位置まで移動させる第2移動工程と、ハンド2によるワークWの把持を解除させる解除工程とが含まれる。
遠隔制御システム100においては、撮像装置51によるロボット1の撮影画像が表示装置52に表示されている。ユーザは、表示装置52に表示されたロボット1の撮影画像を観ながら操作装置4を操作する。この表示装置52によるロボット1の画像の表示は、動作するロボット1の画像を表示装置52を介してユーザに提示することに相当する。
まず、ステップS101において、ユーザが操作装置4に操作を入力する。ユーザが操作装置4を操作すると、操作装置4から制御部61へ操作情報が入力される。制御部61の入力処理部64は、操作装置4からの操作情報を受信する。ステップS101は、操作装置4を介したユーザからの入力を受け付けることに相当する。
ステップS102において、制御部61は、操作情報に応じた動作をロボット1に実行させる。詳しくは、入力処理部64は、操作装置4からの操作情報に応じた指令速度を生成する。指令位置生成部65は、指令速度を位置指令に換算する。指令角度変換部66は、位置指令を指令角度位置に変換し、変換された指令角度位置を動作制御部75へ出力する。動作制御部75は、指令角度位置を実現するための電流を対応するサーボモータ14又はサーボモータ23へ出力する。動作制御部75は、エンコーダ31又はエンコーダ32の検出信号に基づいて印加電流をフィードバック制御する。こうして、ロボット1は、ユーザの操作装置4の操作に応じた動作を実行する。ステップS102は、操作装置4への入力に基づいてロボット1を動作させることに相当する。
次に、ステップS103において、制御部61は、ロボット1が他の物体に接触したか否かを判定する。制御部61は、エンコーダ31、エンコーダ32及び接触力センサ33の検出結果に基づいて、ロボット1が他の物体に接触したか否かを判定する。詳しくは、接触力センサ33によって検出される接触力が第1閾値以上の場合、エンコーダ31の検出結果に基づいて求められるサーボモータ14の角度位置の偏差が第2閾値以上の場合、又は、エンコーダ32の検出結果に基づいて求められるサーボモータ23の角度位置の偏差が第3閾値以上の場合には、触覚制御部68は、接触が発生していると判定する。
接触が発生していない場合には、制御部61は、ステップS101に戻り、ステップS101からの処理を繰り返す。ステップS101からの処理が所定の制御周期で繰り返されることによって、ロボット1がユーザによる操作装置4の操作に応じて連続的に動作する。
こうしたロボット1の動作中に他の物体へのロボット1の接触が発生すると、制御部61は、ステップS103からステップS104の処理へ進む。ステップS104において、制御部61は、発生している接触が強接触か否かを判定する。具体的には、触覚制御部68は、ステップS103の判定において用いた接触力、サーボモータ14の角度位置の偏差、又は、サーボモータ23の角度位置の偏差が対応する上限値以上の場合には、触覚制御部68は、強接触が発生していると判定する。
強接触が発生している場合には、触覚制御部68は、ステップS105において、警報振動を発生させる指令を触覚デバイス8へ出力する。触覚デバイス8は、警報振動を発生させる。ユーザは、触覚デバイス8の警報振動によって、ロボット1が他の物体に大きい接触力で接触していることを知得することができる。それにより、ユーザは、ロボット1の動作を停止させたり、ロボット1の接触を解消するようにロボット1を動作させたりすることができる。尚、制御部61は、警報振動の発生に加えて、ロボット1を強制的に停止させてもよい。
一方、接触が強接触でない場合には、触覚制御部68は、ステップS106において、同時に発生している接触の種別の数N(以下、「接触数N」という)を判定する。接触数Nが1の場合には、触覚制御部68は、ステップS107において、第1振動を発生させる指令を触覚デバイス8へ出力する。接触数Nが2の場合には、触覚制御部68は、ステップS108において、第2振動を発生させる指令を触覚デバイス8へ出力する。接触数Nが3の場合には、触覚制御部68は、ステップS109において、第3振動を発生させる指令を触覚デバイス8へ出力する。触覚デバイス8は、指令に応じた振動を発生させる。ステップS105、S107、S108及びS109は、ロボット1が他の物体に接触した場合に、ユーザの触覚に刺激を付与する触覚デバイス8を作動させることに相当する。
このように、ロボット1の動作中に他の物体へのロボット1の接触が発生すると、触覚デバイス8が振動を発生させて、ユーザに接触の発生を報知する。ユーザは、触覚デバイス8の振動によって、接触の発生を知得することができる。それに加えて、ユーザは、表示装置52に表示されたロボット1の画像から、どのような接触が発生しているのかを判断することができる。例えば、作業には完了時に接触を伴う工程が含まれる場合がある。ユーザは、操作装置4への操作及び表示装置52の画像に基づいて概ね工程の完了であると予測できるタイミングで接触を知らされると、工程の完了と判断して、次の工程へ移行することができる。あるいは、ユーザは、操作装置4への操作及び表示装置52の画像に基づいても接触が予測できないタイミングで触覚デバイス8によって接触が知らされると、表示装置52では確認できない部分等で予期せぬ接触が発生していることを知ることができる。さらに、そのときの触覚デバイス8の振動が警報振動である場合には、予期せぬ接触が比較的大きな接触力を伴うものであることを知ることができる。それにより、ユーザは、ロボット1に回避動作を取らせることができる。
より詳しくは、ピッキング作業の例では、ユーザは、まずロボット1に第1移動工程を実行させる。具体的には、ユーザは、操作装置4を操作して第1モードに設定する。ユーザは、表示装置52を観ながら、方向キー41a及び、必要であれば第2入力ボタン41c又は第4入力ボタン41eを操作することによって、ハンド2を把持位置へ向けて移動させる。把持位置は、コンテナCのワークWの位置である。ステップS101,S102及びS103が繰り返され、ハンド2は開始位置から把持位置へ向かってしだいに移動していく。基本的には、ユーザは、把持位置へのハンド2の到達を表示装置52の画像に基づいて判断する。仮に、第1移動工程において指22が意図せずコンテナCの底面等に接触した場合には、接触力センサ33が接触力を検出する(ステップS103)。このときの接触数Nは1なので、触覚制御部68は、触覚デバイス8に第1振動を発生させる(ステップS107)。ユーザは、触覚デバイス8の第1振動を感知すると、操作装置4の操作内容及び表示装置52のロボット1の画像からコンテナCの底面等への指22の接触を判断できる。指22がコンテナCの底面等に接触する場合には、ハンド2は概ね把持位置に到達しているので、ユーザは、指22の接触を解消させて、ロボット1の移動を停止させる。
表示装置52の画質又は撮像装置51の画角によっては、表示装置52の画像からはコンテナCの底面への指22の接触を確認できない場合もある。そのような場合であっても、ユーザは、ハンド2がコンテナCに接近したことを表示装置52の画像から認識すると共に、ロボット1の接触が発生したことを触覚デバイス8の振動から知得できる。これにより、ユーザは、偶発的な指22の接触を解消すると共に、指22が把持位置へ概ね到達したことを的確に判断できる。
第1移動工程が完了すると、ユーザは、ロボット1に把持工程を実行させる。ユーザは、操作装置4を操作して、第1モードから第2モードに切り替える。例えば、ユーザは、第1入力ボタン41bを押し続けることによって、指22に閉動作を実行させる。ステップS101,S102及びS103が繰り返され、指22はワークWへ接近していく。やがて、指22がワークWに接触して、接触力が所定の把持力に達すると、触覚制御部68がエンコーダ32の検出結果に基づいて指22の接触を検出する(ステップS103)。指22がワークWに接触することによって接触数Nが1になる。触覚制御部68は、触覚デバイス8に第1振動を発生させる(ステップS107)。ユーザは、触覚デバイス8の振動を感知することによって、ワークWへの指22の接触が発生したことを知得することができる。ユーザは、操作装置4の操作内容及び表示装置52のロボット1の画像から指22の接触を判断できるので、触覚デバイス8の第1振動を感知すると、把持工程の完了を判断し、指22の移動を停止させる。そのため、このときの接触は、強接触に達することはほとんどない。
表示装置52の画質又は撮像装置51の画角によっては、表示装置52の画像からは指22によるワークWの把持を確認できない場合もある。そのような場合であっても、ユーザは、指22がワークWに接近したことを表示装置52の画像から認識すると共に、ロボット1の接触が発生したことを触覚デバイス8の振動から知得できる。これにより、ユーザは、把持工程の完了を触覚デバイス8の振動によって的確に判断できる。
把持工程が完了すると、ユーザは、ロボット1に第2移動工程を実行させる。ユーザは、操作装置4を操作して、第2モードから第1モードへ切り替える。ユーザは、表示装置52を観ながら、方向キー41a及び、必要であれば第2入力ボタン41c又は第4入力ボタン41eを操作することによって、ハンド2を移送位置へ向けて移動させる。ステップS101,S102及びS103が繰り返され、ハンド2は把持位置から移送位置へ向かってしだいに移動していく。ハンド2がワークWを保持している間は、エンコーダ32に基づく指22の接触の検出が継続するので、触覚デバイス8は第1振動を継続して発生させる。
ハンド2が移送位置に到達すると、ワークWがトレイTの底面に載置される。これにより、接触力センサ33が、トレイTの底面からワークWを介して指22が受ける接触力を検出する(ステップS103)。接触数Nが1から2に増加し、触覚制御部68は、触覚デバイス8に第2振動を発生させる(ステップS108)。ユーザは、操作装置4の操作内容及び表示装置52のロボット1の画像からワークWの接触を判断できるので、触覚デバイス8の第2振動を感知すると、第2移動工程の完了を判断し、ロボット1の移動を停止させる。そのため、このときの接触は、強接触に達することはほとんどない。
表示装置52の画質又は撮像装置51の画角によっては、表示装置52の画像からはトレイTの底面へのワークWの接触を確認できない場合もある。そのような場合であっても、ユーザは、ワークWがトレイTの底面に接近したことを表示装置52の画像から認識すると共に、ロボット1の接触が発生したことを触覚デバイス8の振動から知得できる。これにより、ユーザは、第2移動工程の完了を触覚デバイス8の振動によって的確に判断できる。
第2移動工程が完了すると、ユーザは、ロボット1に解除工程を実行させる。ユーザは、操作装置4を操作して、第1モードから第2モードに切り替える。例えば、ユーザは、第3入力ボタン41dを押し続けることによって、指22に開動作を実行させる。ステップS101,S102及びS103が繰り返され、指22はワークWから離間する。指22がワークWから離間すると、エンコーダ32に基づく接触力が零になる。それに加えて、トレイTの底面からワークWを介して指22に作用する接触力も零になる。触覚制御部68は、触覚デバイス8の振動を停止させる。ユーザは、触覚デバイス8の振動が停止するので、指22の接触が解消されたことを知得することができる。ユーザは、操作装置4の操作内容及び表示装置52のロボット1の画像から指22の接触の解消を判断できるので、触覚デバイス8の第1振動を感知すると、解除工程の完了を判断し、指22の移動を停止させる。
表示装置52の画質又は撮像装置51の画角によっては、指22が大きく開かないと、表示装置52の画像からワークWの把持の解除を確認できない場合もある。そのような場合であっても、ユーザは、他の物体へのロボット1の接触が解消されたことを触覚デバイス8の振動が低減又は解消されることによって知得できる。これにより、ユーザは、解除工程の完了を触覚デバイス8の振動の低減又は解消によって的確に判断できる。
解除工程が完了すると、ピッキング作業が完了する。尚、解除工程の後にロボット1を開始状態に戻すことをもってピッキング作業の完了としてもよい。
それに加えて、このようなピッキング作業中に予期せぬロボット1の接触が発生した場合には、触覚デバイス8が警報振動を発生させることによって、ロボット1の接触の発生をユーザに知らせ、ユーザに回避動作を取ることを促すことができる。つまり、予期せぬ接触が発生した場合、ユーザはロボット1の動作を即座には停止させないので、比較的大きな接触力がロボット1に作用し得る。特に、ロボット1のうち表示装置52に表示されていない部分が他の物体に接触している場合には、ユーザは接触の発生を表示装置52から知ることができないので、比較的大きな接触力が発生しやすい。触覚制御部68は、大きな接触力の接触を検出すると、ステップS104において強接触が発生したと判定して、ステップS105において触覚デバイス8に警報振動を発生させる。これにより、ユーザは、表示装置52では知り得ないロボット1の接触の発生を知得することができ、ロボット1の接触を早期に解消させることができる。
このように、遠隔制御システム100は、ロボット1の接触の発生を、触覚デバイス8によってユーザの触覚を介してユーザに報知する。ユーザは、操作装置4の操作、表示装置52のロボット1の画像及び振動態様等に基づいて接触の原因を判断する。接触が工程の完了に関連するものであれば、ユーザは次の工程へ移行する。接触が予期せぬものである場合には、ユーザは、ロボット1の動作を停止させたり、ロボット1に接触の解消動作を行わせたりする。つまり、ユーザは、ロボット1の状況を的確に判断することができる。
尚、前述のピッキング作業が適切に実行される限り、接触数Nが3になることはない。しかし、ロボット1の作業によっては接触数Nが3となる状況も発生し得る。その場合には、触覚デバイス8は、第3振動を発生させる。
また、前述の説明では、操作装置4は、ロボット1の連続的な動作、即ち、動作軌跡を連続的に入力している。つまり、ロボット1は、操作装置4からの入力が継続している間は動作し、操作装置4からの入力が停止すると停止する。しかし、操作装置4からの操作入力はこれに限定されない。例えば、操作装置4からコマンドが入力され、制御装置6が自律的にロボット1を制御して、ロボット1にコマンドに応じた動作を実行させてもよい。
例えば、ピッキング作業では、操作装置4は、複数の工程に対応する複数のコマンドをユーザから入力される。複数のコマンドは、第1移動工程の実行コマンド、把持工程の実行コマンド、第2移動工程の実行コマンド及び解除工程の実行コマンドである。例えば、操作装置4の第1入力ボタン41b、第2入力ボタン41c、第3入力ボタン41d及び第4入力ボタン41eに各工程の実行コマンドが割り当てられていてもよい。あるいは、表示装置52に各工程のコマンドが選択肢として表示され、方向キー41aによって一のコマンドが選択され、第1入力ボタン41bによってコマンドが決定されることによって、所望のコマンドが操作装置4から制御装置6入力されてもよい。
制御装置6は、操作装置4に入力されたコマンドに対応する工程をロボット1に実行させる。具体的には、入力処理部64は、操作装置4からの操作情報に基づいて、実行する工程を判別する。指令位置生成部65は、判別された工程に対応する動作を実現するためのロボット1の軌跡を生成する。ロボット1の軌跡は、予め設定されたティーチング情報に基づいて生成されてもよいし、そのように生成された軌跡を撮像装置51による撮影画像によって修正して生成されてもよい。指令位置生成部65は、生成されたロボット1の軌跡を実現するための指令位置を指令角度変換部66へ逐次出力する。指令角度変換部66及び動作制御部75の制御内容は、前述の連続的な動作入力の場合と同様である。
コマンド入力によるピッキング作業について具体的に説明すると、まず、ユーザは、操作装置4を介して第1移動工程の実行コマンドを入力する。制御部61は、ハンド2が開始位置から把持位置へ移動するようにロボット1を動作させる。ユーザは、第1移動工程の実行コマンドを入力した後は、第1移動工程の完了を待機する。ハンド2が把持位置に到達すると、指22がコンテナCの底面に接触する。接触力センサ33が接触力を検出し、触覚デバイス8が第1振動を発生させる。ユーザは、表示装置52のロボット1の画像だけでは第1移動工程の完了の判断が困難であっても、触覚デバイス8の振動によって第1移動工程の完了を的確に知得することができる。
ユーザは、第1移動工程の完了を知得すると、操作装置4を介して把持工程の実行コマンドを入力する。制御部61は、指22に閉動作を実行させる。ユーザは、把持工程の実行コマンドを入力した後は、把持工程の完了を待機する。指22がワークWに接触し、所定の把持力でワークWを把持する状態になると、触覚デバイス8の振動が第1振動から第2振動に切り替わる。ユーザは、表示装置52のロボット1の画像だけでは、指22が所定の把持力でワークWを把持したか否かを判定することが困難である。ユーザは、触覚デバイス8の振動によって、指22によるワークWの把持が完了したことを的確に知得することができる。
ユーザは、把持工程の完了を知得すると、操作装置4を介して第2移動工程の実行コマンドを入力する。制御部61は、ハンド2がコンテナCからトレイTへ移動するようにロボット1を動作させる。ユーザは、第2移動工程の実行コマンドを入力した後は、第2移動工程の完了を待機する。第2移動工程において、指22がコンテナCの底面から離間するので、接触数Nが2から1に減少して、触覚デバイス8の振動が第2振動から第1振動に切り替わる。ハンド2がトレイTの移送位置に到達すると、指22がトレイTの底面に接触する。接触数Nが1から2に増加するので、触覚デバイス8の振動が第1振動から第2振動に切り替わる。ユーザは、表示装置52のロボット1の画像だけでは第2移動工程の完了の判断が困難であっても、触覚デバイス8の振動によって第2移動工程の完了を的確に知得することができる。
ユーザは、第2移動工程の完了を知得すると、操作装置4を介して解除工程の実行コマンドを入力する。制御部61は、指22に開動作を実行させる。ユーザは、解除工程の実行コマンドを入力した後は、解除工程の完了を待機する。指22がワークWから離間すると、触覚デバイス8の振動が第2振動から第1振動に切り替わる。ユーザは、表示装置52のロボット1の画像だけでは、ワークWからの指22の離間を判定することが困難である。ユーザは、触覚デバイス8の振動によって、指22によるワークWの把持の解除が完了したことを的確に知得することができる。
ピッキング作業を繰り返す場合には、ユーザは、操作装置4を介して第1移動工程の実行コマンドを再び入力する。一方、ユーザが操作装置4を介して終了コマンドを入力すると、ピッキング作業が終了する。
このように、コマンド入力に基づいてピッキング作業が実行される場合であっても、ユーザは、各工程の完了を触覚デバイス8の振動によって知得することができる。そのため、ユーザが工程の完了を不要に待機することがなくなり、次の工程へスムーズに移行することができる。
以上のように、本開示の技術の第1の側面では、遠隔制御システム100は、ロボット1と、ユーザからの入力を受け付ける操作装置4と、ロボット1の画像をユーザに提示する表示装置52と、ユーザの触覚に刺激を付与する触覚デバイス8と、操作装置4への入力に基づいてロボット1を制御する制御装置6とを備え、制御装置6は、ロボット1が他の物体に接触した場合に触覚デバイス8を作動させる。
この構成によれば、操作装置4を介してロボット1を遠隔制御する際に、表示装置52のロボット1の画像だけでは判断が困難なロボット1と他の物体との接触を触覚デバイス8の作動によってユーザが的確に知得することができる。また、ロボット1の接触を判断する精度を高めるために表示装置52の画質等と向上させる必要がないため、表示装置に表示される画像の遅延も低減される。このように、ユーザは、ロボット1の状況を的確に判断できる。
さらに、本開示の技術の第2の側面では、第1の側面に係る遠隔制御システム100において、制御装置6は、操作装置4への入力に基づいて、複数の工程が含まれる作業をロボット1に実行させ、複数の工程の少なくとも1つの工程の完了時にロボット1が他の物体に接触した場合に触覚デバイス8を作動させる。
この構成によれば、ユーザは、工程の完了を的確に知得することができる。つまり、表示装置52のロボット1の画像だけではロボット1の接触を正確に判断できない場合であっても、触覚デバイス8がユーザにロボット1の接触の発生を知らせる。ユーザは、自身による操作装置4の操作及び表示装置52の画像を合わせて考慮することによって、その接触が工程の完了時のロボット1の接触であることを的確に判断することができる。
また、本開示の技術の第3の側面では、第2の側面に係る遠隔制御システム100において、操作装置4は、複数の工程に対応する複数のコマンドの入力を受け付け、制御装置6は、操作装置4に入力されたコマンドに対応する工程をロボットに実行させる。
この構成によれば、操作装置4を介してコマンドが入力され、制御装置6は、入力されたコマンドに対応する工程をロボット1に実行させる。複数の工程のうち完了時にロボット1の接触を伴う工程は、工程の完了時のロボット1の接触が触覚デバイス8の作動によってユーザに知らされる。つまり、ユーザは、操作装置4を介してコマンドを入力して工程の完了を待機し、触覚デバイス8の作動によって工程の完了を的確に知得することができる。その結果、ユーザは、工程の完了を不要に待機することなく、次の工程にスムーズに移行することができる。
さらに、本開示の技術の第4の側面では、第3の側面に係る遠隔制御システム100において、制御装置6は、同時に発生している接触の種別の数に応じて触覚デバイス8の作動態様を変更する。
この構成によれば、制御装置6は、触覚デバイス8の振動態様によって、同時に発生している接触の種別の数をユーザに知らせることができる。既に接触が発生して触覚デバイス8が作動している場合でも、ユーザは、新たな種別の接触が発生したり、既に発生している接触の一部が解消したりすることを知ることができる。
また、本開示の技術の第5の側面では、第1の側面乃至第3の側面の何れか1つに係る遠隔制御システム100において、制御装置6は、ロボット1の接触の種別を判別し、種別が異なる接触ごとに触覚デバイス8を作動させる。
この構成によれば、制御装置6は、複数の種別の接触が同時に発生していても、それぞれの種別の接触を判別することができる。
また、本開示の技術の第6の側面では、第1の側面乃至第5の側面の何れか1つに係る遠隔制御システム100において、制御装置6は、ロボット1の接触力の大きさを判定し、触覚デバイス8の作動態様を接触力の大きさに応じて変更する。
この構成によれば、触覚デバイス8の作動態様が接触力の大きさに応じて変更される。ユーザは、接触の発生に加えて、接触力の大きさも知得することができる。
本開示の技術の第7の側面では、第1の側面乃至第6の側面の何れか1つに係る遠隔制御システム100は、ロボット1に作用する力を検出するセンサ3をさらに備え、制御装置6は、他の物体へのロボット1の接触をセンサ3の検出結果に基づいて判定する。
この構成によれば、制御装置6は、センサ3の検出結果に基づいてロボット1の接触を判定する。
また、本開示の技術の第8の側面では、第7の側面に係る遠隔制御システム100において、ロボット1は、ロボットアーム11と、開閉動作を行う指22が設けられ、ロボットアーム11に連結されたハンド2とを有し、制御装置6は、ワークWのピッキング作業をロボット1に実行させ、センサ3は、ワークWが置かれた面から指22に作用する力を検出する接触力センサ33(第1センサ)と、指22の開閉方向へワークWから指22に作用する力を検出するエンコーダ32(第2センサ)とを含む。
この構成によれば、ピッキング作業の作業中においては、ワークWが置かれた面にハンド2の指22が接触したり、指22がワークWを把持したりする。つまり、ピッキング作業においては、指22の接触が何度か発生し、その指22の接触は一部の工程の完了のタイミングで発生する。つまり、ピッキング作業においては、指22の接触を触覚デバイス8によってユーザに報知することによって、実質的に工程の完了をユーザに知らせることができる。
観点を変えると、本開示の技術の第9の側面では、遠隔制御システム100は、ロボット1と、ユーザからの入力を受け付ける操作装置4と、ロボット1の画像をユーザに提示する表示装置52と、ユーザの触覚に刺激を付与する触覚デバイス8と、操作装置4への入力に基づいて、複数の工程が含まれる作業をロボット1に実行させる制御装置6とを備え、制御装置6は、複数の工程の少なくとも1つの工程の完了時に触覚デバイス8を作動させる。
この構成によれば、操作装置4によってロボット1を遠隔制御する際に、表示装置52のロボット1の画像だけでは判断が困難な工程の完了を、触覚デバイス8の作動によってユーザが的確に知得することができる。また、ロボット1の工程の完了を判断の精度を高めるために表示装置52の画質等と向上させる必要がないため、表示装置に表示される画像の遅延も低減される。このように、ユーザは、ロボット1の状況を的確に判断できる。
この場合、制御装置6は、工程が完了したか否かに基づいて触覚デバイス8を作動させる。そして、制御装置6は、ロボット1の接触が発生したか否かに基づいて工程の完了を判定する。前述のピッキング作業においては、工程の完了時にロボット1の接触状況が変化する。そのため、ロボット1の接触に基づいて触覚デバイス8を作動させることは、工程の完了に基づいて触覚デバイス8を作動させることに等しい。しかし、工程の完了時に必ずしもロボット1の接触状況が変化しない作業もある。その場合、制御装置6は、ロボット1の接触が発生していなくても工程が完了した場合には、触覚デバイス8を作動させてもよい。
その場合の遠隔制御のフローチャートを図6に示す。図6のフローチャートでは、図5のフローチャートからステップS103、S106、S107、S108及びS109が省略され、代わりにステップS206及びS207が追加されている。詳しくは、制御部61は、ロボット1の動作中にロボット1が他の物体に接触したか否かを判定せず、ステップS104において強接触が発生したか否かを判定する。ステップS104の処理は、図5のフローチャートと同じであり、強接触が発生している場合は、触覚制御部68は、ステップS105において、警報振動を発生させる指令を触覚デバイス8へ出力する。制御部61は、ロボット1の接触を監視する代わりに、ステップS206において工程が完了したか否かを判定する。強接触が発生せず且つ工程が完了していない限りは、制御部61は、ステップS101及びS102を繰り返すことによって、操作装置4への入力に基づいてロボット1を動作させる。制御部61は、工程の完了を様々な手法で判定し得る。その1つの手法として、制御部61は、ロボット1の接触が発生したか否かによって工程の完了を判定する。複数の工程には、完了時にロボット1の接触を伴うものがある。制御部61は、そのような工程の完了を、ロボット1の接触に基づいて判定することができる。ロボット1の接触に基づいて完了を判定できない工程については、制御部61は、外部からの信号、例えば、操作装置4を介したユーザからの入力等に基づいて完了を判定してもよい。そして、工程が完了した場合には、制御部61は、ステップS207において、触覚デバイス8に振動を発生させる。このとき、制御部61は、前述のように、接触数Nに応じて触覚デバイス8の振動態様を変更してもよい。
本開示における技術の第10の側面では、操作装置4を介してロボット1を制御するロボットの遠隔制御方法は、操作装置4を介したユーザからの入力を受け付けることと、操作装置4への入力に基づいてロボット1を動作させることと、動作するロボット1の画像を表示装置52を介してユーザに提示することと、ロボット1が他の物体に接触した場合に、ユーザの触覚に刺激を付与する触覚デバイス8を作動させることとを含む。
この構成によれば、操作装置4を介してロボット1を遠隔制御する際に、表示装置52のロボット1の画像だけでは判断が困難なロボット1と他の物体との接触を触覚デバイス8の作動によってユーザが的確に知得することができる。また、ロボット1の接触を判断する精度を高めるために表示装置52の画質等と向上させる必要がないため、表示装置に表示される画像の遅延も低減される。このように、ユーザは、ロボット1の状況を的確に判断できる。
また、本開示における技術の第11の側面では、遠隔制御プログラム62aは、ロボット1と、ユーザからの入力を受け付ける操作装置4と、ユーザの触覚に刺激を付与する触覚デバイス8とを備えた遠隔制御システム100を制御する機能を制御部61(コンピュータ)に実現させるためのプログラムであって、操作装置4を介したユーザからの入力を受け付ける機能と、操作装置4への入力に基づいてロボット1を動作させる機能と、ロボット1が他の物体に接触した場合に、ユーザの触覚に刺激を付与する触覚デバイス8を作動させる機能とを制御部61に実現させる。
この構成によれば、操作装置4を介してロボット1を遠隔制御する際に、ロボット1と他の物体との接触を触覚デバイス8の作動によってユーザが的確に知得することができる。それにより、ユーザは、ロボット1の状況を的確に判断できる。
《その他の実施形態》
以上のように、本出願において開示する技術の例示として、前記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、前記実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。また、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、前記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
以上のように、本出願において開示する技術の例示として、前記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、前記実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。また、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、前記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
前述の遠隔制御システム100の構成は、一例に過ぎず、これに限定されるものではない。例えば、ロボット1が実行する作業は、ピッキング作業に限定されない。ロボット1が実行する作業は加工作業であってもよい。また、ロボットアーム11のエンドエフェクタは、ハンド2に限定されない。エンドエフェクタは、ロボット1が実行する作業に応じて変更され得る。
また、ロボット1は、産業用ロボットに限定されない。例えば、ロボット1は、医療用ロボットであってもよい。
ロボット1に作用する力を検出するセンサ3は、エンコーダ31、エンコーダ32及び接触力センサ33に限定されない。これら以外の力センサをさらに設けてもよい。また、センサ3は、エンコーダ31、エンコーダ32及び接触力センサ33の少なくとも1つを含んでいればよく、エンコーダ31、エンコーダ32及び接触力センサ33の一部を含まなくてもよい。また、エンコーダ31又はエンコーダ32に代えて、サーボモータ14の電流を検出する電流センサ、サーボモータ14のトルクを検出するトルクセンサ、サーボモータ23の電流を検出する電流センサ、又は、サーボモータ23のトルクを検出するトルクセンサ等であってもよい。電流又はトルクの現在値と目標値との偏差に基づいてロボット1に作用する力を検出することができる。
撮像装置51は、ロボットアーム11に取り付けられているものに限定されない。撮像装置51は、ロボット1を撮影できる位置に固定的に配置されていてもよい。
操作装置4に関し、前述の構成は一例である。操作装置4は、ジョイスティックのような操作部を有していてもよい。操作装置4は、タッチパネル等の操作部を有していてもよい。操作装置4による入力は、ロボット1の移動方向に加えて、ロボット1の移動の速さも含まれていてもよい。例えば、ジョイスティックのような操作部を有する操作装置4の場合、ジョイスティックの傾きによって移動の速さが入力されてもよい。
触覚デバイス8は、前述の構成に限定されない。触覚デバイス8は、ユーザの触覚に刺激を付与できる限り、任意の態様でユーザに装着され得る。触覚デバイス8は、操作装置4に内蔵されていてもよい。また、触覚デバイス8の振動アクチュエータは、ボイスコイルモータ81に限定されない。触覚デバイス8の振動アクチュエータは、偏心回転質量方式又はピエゾ方式であってもよい。
触覚デバイス8は、複数の振動アクチュエータを有していてもよい。ロボット1の様々な接触に応じて複数の振動アクチュエータの組み合わせを変更することによって、ロボット1の接触の種別をユーザに知らせてもよい。例えば、錯触覚の技術を利用して、ロボット1の接触の種別等を判別可能にユーザに知らせてもよい。
触覚デバイス8による振動は、第1振動、第2振動、第3振動及び警報振動に限定されない。ロボット1の構成及びロボット1の作業等に応じて、ロボット1に発生し得る接触は変化し得る。ロボット1の構成及びロボット1の作業等に応じて想定されるロボット1の接触に対応するように、触覚デバイス8の振動が設定され得る。例えば、触覚デバイス8による振動は、2段階又は4段階以上で変更されてもよい。
前述のブロック図は一例であり、複数のブロックを1つのブロックとして実現したり、1つのブロックを複数のブロックに分割したり、一部の機能を別のブロックに移したりしてもよい。
本開示の技術は、遠隔制御プログラム62aが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、遠隔制御プログラム62aは、インターネット等の伝送媒体を介して流通させることができるものであってもよい。
フローチャートは、一例に過ぎない。フローチャートにおけるステップを適宜、変更、置き換え、付加、省略等を行ってもよい。また、フローチャートにおけるステップの順番を変更したり、直列的な処理を並列的に処理したりしてもよい。
本明細書中に記載されている構成要素により実現される機能は、当該記載された機能を実現するようにプログラムされた、汎用プロセッサ、特定用途プロセッサ、集積回路、ASICs(Application Specific Integrated Circuits)、CPU(a Central Processing Unit)、従来型の回路、及び/又はそれらの組合せを含む、回路(circuitry)又は演算回路(processing circuitry)において実装されてもよい。プロセッサは、トランジスタ及びその他の回路を含み、回路又は演算回路とみなされる。プロセッサは、メモリに格納されたプログラムを実行する、プログラマブルプロセッサ(programmed processor)であってもよい。
本明細書において、回路(circuitry)、ユニット、手段は、記載された機能を実現するようにプログラムされたハードウェア、又は実行するハードウェアである。当該ハードウェアは、本明細書に開示されているあらゆるハードウェア、又は、当該記載された機能を実現するようにプログラムされた、又は、実行するものとして知られているあらゆるハードウェアであってもよい。
当該ハードウェアが回路(circuitry)のタイプであるとみなされるプロセッサである場合、当該回路、手段、又はユニットは、ハードウェアと、当該ハードウェア及び又はプロセッサを構成する為に用いられるソフトウェアの組合せである。
100 遠隔制御システム
1 ロボット
11 ロボットアーム
2 ハンド
3 センサ
32 エンコーダ(第2センサ)
33 接触力センサ(第1センサ)
4 操作装置
52 表示装置
6 制御装置
61 制御部(コンピュータ)
62a 遠隔制御プログラム
8 触覚デバイス
W ワーク
1 ロボット
11 ロボットアーム
2 ハンド
3 センサ
32 エンコーダ(第2センサ)
33 接触力センサ(第1センサ)
4 操作装置
52 表示装置
6 制御装置
61 制御部(コンピュータ)
62a 遠隔制御プログラム
8 触覚デバイス
W ワーク
Claims (11)
- ロボットと、
ユーザからの入力を受け付ける操作装置と、
前記ロボットの画像をユーザに提示する表示装置と、
ユーザの触覚に刺激を付与する触覚デバイスと、
前記操作装置への入力に基づいて前記ロボットを制御する制御装置とを備え、
前記制御装置は、前記ロボットが他の物体に接触した場合に前記触覚デバイスを作動させる遠隔制御システム。 - 請求項1に記載の遠隔制御システムにおいて、
前記制御装置は、
前記操作装置への入力に基づいて、複数の工程が含まれる作業を前記ロボットに実行させ、
前記複数の工程の少なくとも1つの工程の完了時に前記ロボットが他の物体に接触した場合に前記触覚デバイスを作動させる遠隔制御システム。 - 請求項2に記載の遠隔制御システムにおいて、
前記操作装置は、前記複数の工程に対応する複数のコマンドの入力を受け付け、
前記制御装置は、前記操作装置に入力されたコマンドに対応する工程を前記ロボットに実行させる遠隔制御システム。 - 請求項3に記載の遠隔制御システムにおいて、
前記制御装置は、同時に発生している接触の種別の数に応じて前記触覚デバイスの作動態様を変更する遠隔制御システム。 - 請求項1に記載の遠隔制御システムにおいて、
前記制御装置は、前記ロボットの接触の種別を判別し、前記種別が異なる接触ごとに前記触覚デバイスを作動させる遠隔制御システム。 - 請求項1に記載の遠隔制御システムにおいて、
前記制御装置は、前記ロボットの接触力の大きさを判定し、前記触覚デバイスの作動態様を前記接触力の大きさに応じて変更する遠隔制御システム。 - 請求項1に記載の遠隔制御システムにおいて、
前記ロボットに作用する力を検出するセンサをさらに備え、
前記制御装置は、他の物体への前記ロボットの接触を前記センサの検出結果に基づいて判定する遠隔制御システム。 - 請求項7に記載の遠隔制御システムにおいて、
前記ロボットは、ロボットアームと、開閉動作を行う指が設けられ、前記ロボットアームに連結されたハンドとを有し、
前記制御装置は、ワークのピッキング作業を前記ロボットに実行させ、
前記センサは、前記ワークが置かれた面から前記指に作用する力を検出する第1センサと、前記指の開閉方向へ前記ワークから前記指に作用する力を検出する第2センサとを含む遠隔制御システム。 - ロボットと、
ユーザからの入力を受け付ける操作装置と、
前記ロボットの画像をユーザに提示する表示装置と、
ユーザの触覚に刺激を付与する触覚デバイスと、
前記操作装置への入力に基づいて、複数の工程が含まれる作業を前記ロボットに実行させる制御装置とを備え、
前記制御装置は、前記複数の工程の少なくとも1つの工程の完了時に前記触覚デバイスを作動させる遠隔制御システム。 - 操作装置を介してロボットを制御するロボットの遠隔制御方法であって、
前記操作装置を介したユーザからの入力を受け付けることと、
前記操作装置への入力に基づいて前記ロボットを動作させることと、
動作する前記ロボットの画像を表示装置を介してユーザに提示することと、
前記ロボットが他の物体に接触した場合に、ユーザの触覚に刺激を付与する触覚デバイスを作動させることとを含むロボットの遠隔制御方法。 - ロボットと、
ユーザからの入力を受け付ける操作装置と、
ユーザの触覚に刺激を付与する触覚デバイスとを備えた遠隔制御システムを制御する機能をコンピュータに実現させるための遠隔制御プログラムであって、
前記操作装置を介したユーザからの入力を受け付ける機能と、
前記操作装置への入力に基づいて前記ロボットを動作させる機能と、
前記ロボットが他の物体に接触した場合に、ユーザの触覚に刺激を付与する触覚デバイスを作動させる機能とをコンピュータに実現させるための遠隔制御プログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022067838A JP2023157744A (ja) | 2022-04-15 | 2022-04-15 | 遠隔制御システム、ロボットの遠隔制御方法及び遠隔制御プログラム |
PCT/JP2023/015227 WO2023200011A1 (ja) | 2022-04-15 | 2023-04-14 | 遠隔制御システム、ロボットの遠隔制御方法及び遠隔制御プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022067838A JP2023157744A (ja) | 2022-04-15 | 2022-04-15 | 遠隔制御システム、ロボットの遠隔制御方法及び遠隔制御プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023157744A true JP2023157744A (ja) | 2023-10-26 |
Family
ID=88329709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022067838A Pending JP2023157744A (ja) | 2022-04-15 | 2022-04-15 | 遠隔制御システム、ロボットの遠隔制御方法及び遠隔制御プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2023157744A (ja) |
WO (1) | WO2023200011A1 (ja) |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61188092A (ja) * | 1985-02-14 | 1986-08-21 | 日本電気株式会社 | マニプレ−タシステム |
JP5481932B2 (ja) * | 2009-05-22 | 2014-04-23 | 株式会社Ihi | ロボット制御装置およびその制御方法 |
JP6410023B2 (ja) * | 2013-09-06 | 2018-10-24 | パナソニックIpマネジメント株式会社 | マスタスレーブロボットの制御装置及び制御方法、ロボット、マスタスレーブロボットの制御プログラム、並びに、マスタスレーブロボットの制御用集積電子回路 |
CN107921634B (zh) * | 2015-08-25 | 2021-04-02 | 川崎重工业株式会社 | 机器人系统 |
US10213925B2 (en) * | 2016-09-09 | 2019-02-26 | The Board Of Trustees Of The Leland Stanford Junior University | Workpiece contact state estimating device and workpiece contact state estimation method |
JP2018192599A (ja) * | 2017-05-19 | 2018-12-06 | 川崎重工業株式会社 | 接触検知器、ハンド、ロボット、及びロボットシステム |
JP2020131378A (ja) * | 2019-02-21 | 2020-08-31 | セイコーエプソン株式会社 | ハンドおよびロボット |
-
2022
- 2022-04-15 JP JP2022067838A patent/JP2023157744A/ja active Pending
-
2023
- 2023-04-14 WO PCT/JP2023/015227 patent/WO2023200011A1/ja unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023200011A1 (ja) | 2023-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Pastor et al. | Towards associative skill memories | |
JP5180414B2 (ja) | ロボットアームの制御装置及び制御方法、ロボット、ロボットアーム制御プログラム、並びに、集積電子回路 | |
JP4568795B2 (ja) | ロボットアームの制御装置及び制御方法、ロボット、ロボットアームの制御プログラム、並びに、集積電子回路 | |
WO2017033381A1 (ja) | ロボットシステム | |
Laghi et al. | Shared-autonomy control for intuitive bimanual tele-manipulation | |
Peer et al. | Multi-fingered telemanipulation-mapping of a human hand to a three finger gripper | |
CN110709211B (zh) | 机器人系统和机器人系统的控制方法 | |
US20170249561A1 (en) | Robot learning via human-demonstration of tasks with force and position objectives | |
US20150273689A1 (en) | Robot control device, robot, robotic system, teaching method, and program | |
US9919424B1 (en) | Analog control switch for end-effector | |
Fishel et al. | Tactile telerobots for dull, dirty, dangerous, and inaccessible tasks | |
Devine et al. | Real time robotic arm control using hand gestures with multiple end effectors | |
Saen et al. | Action-intention-based grasp control with fine finger-force adjustment using combined optical-mechanical tactile sensor | |
Lii et al. | Toward a task space framework for gesture commanded telemanipulation | |
JP2015186834A (ja) | ロボット制御装置、把持部制御装置、ロボット、把持部、ロボット制御方法、及びプログラム | |
JP2018089736A (ja) | マスタスレーブシステム | |
JP6322949B2 (ja) | ロボット制御装置、ロボットシステム、ロボット、ロボット制御方法及びロボット制御プログラム | |
Osswald et al. | Mechanical system and control system of a dexterous robot hand | |
WO2023200011A1 (ja) | 遠隔制御システム、ロボットの遠隔制御方法及び遠隔制御プログラム | |
Zhou et al. | A bilateral dual-arm teleoperation robot system with a unified control architecture | |
WO2020032263A1 (ja) | ロボットシステム | |
SaLoutos et al. | Fast reflexive grasping with a proprioceptive teleoperation platform | |
Laaksonen et al. | Embodiment independent manipulation through action abstraction | |
Kramberger et al. | Adapting learning by demonstration for robot based part feeding applications | |
JP7185749B2 (ja) | ロボットシステム及びロボットシステムの制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20230331 |