JP6678832B2 - 遠隔制御マニピュレータシステムおよび制御装置 - Google Patents

遠隔制御マニピュレータシステムおよび制御装置 Download PDF

Info

Publication number
JP6678832B2
JP6678832B2 JP2019543735A JP2019543735A JP6678832B2 JP 6678832 B2 JP6678832 B2 JP 6678832B2 JP 2019543735 A JP2019543735 A JP 2019543735A JP 2019543735 A JP2019543735 A JP 2019543735A JP 6678832 B2 JP6678832 B2 JP 6678832B2
Authority
JP
Japan
Prior art keywords
image
manipulator
data
operation instruction
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019543735A
Other languages
English (en)
Other versions
JPWO2019059364A1 (ja
Inventor
祐輔 猿田
祐輔 猿田
正樹 春名
正樹 春名
昇 川口
昇 川口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2019059364A1 publication Critical patent/JPWO2019059364A1/ja
Application granted granted Critical
Publication of JP6678832B2 publication Critical patent/JP6678832B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1687Assembly, peg and hole, palletising, straight line, weaving pattern movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39449Pendant, pda displaying camera images overlayed with graphics, augmented reality
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39451Augmented reality for robot programming

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Manipulator (AREA)

Description

本発明は、マニピュレータを遠隔制御する遠隔制御マニピュレータシステムおよび制御装置に関する。
ロボット技術が進歩し、静的な環境(定位置に置かれた、既知モデル)で使用されるロボットまたは自動化機械から、動的な環境(位置が不確定で、未知モデル)で操作対象物を操作できるロボットの開発が進んでいる。様々な状況に対応可能とするため、カメラやレーザレンジファインダーを併用した物体の自動認識機能と自律判断機能、および、複数軸で計測可能な力センサを利用した力覚制御機能を有するロボットの開発が進められている。
ロボットの重要な利用ニーズとして、重大災害等で人を支援できるロボットの開発が日本のみならず世界的に進んできている。特に、複雑な多関節構造のロボットが開発されると予想されている。その中でも、遠隔制御でロボットを制御し、さらにハンド部分に高度な作業を実施させることが求められている。
従来のロボットハンドの遠隔制御は、ハンド側に圧力センサや力覚センサを多用している(特許文献1参照)。
特開2009−66683号
センサを多用するロボットハンドの遠隔制御システムでは、制御に必要な計算量が膨大になり、制御に使用する電子計算機に高性能なものを必要とする。また、制御のためのソフトウェア規模が大きくなり、開発が難しく多大なコストを要する。自律型のロボットハンドシステムでは、安定性と信頼性の課題が残されている。
この発明は上記の問題点を解決するためになされたものであり、簡素なシステム構成で、操作者がマニピュレータを従来よりも容易に遠隔制御できるようにすることを目的とする。
この発明に係る遠隔制御マニピュレータシステムは、操作者により遠隔制御されて物体を扱うマニピュレータと、マニピュレータが含まれる撮影画像を撮影するカメラと、マニピュレータの位置および姿勢を表す姿勢データを検出する姿勢センサと、マニピュレータが動くまたは静止する動作を指示する動作指示を操作者が入力する動作指示入力部と、動作指示からマニピュレータを制御する制御信号を生成する制御信号生成部、マニピュレータの構造を表すマニピュレータ構造データを記憶する構造データ記憶部、カメラの位置から見るマニピュレータのモデルの画像であるモデル画像をマニピュレータ構造データおよび姿勢データを参照して生成するモデル画像生成部、モデル画像と撮影画像とを重ね合わせて操作者に提示する提示画像を生成する提示画像生成部を有する制御装置と、提示画像を表示する表示装置とを備えたものである。
さらに、提示画像生成部は、モデル画像でマニピュレータが表示されている画素であって、かつ撮影画像においてマニピュレータが撮影されていない画素にモデル画像を表示し、その他の画素ではモデルを表示しないようにモデル画像と撮影画像とを重ね合わせて提示画像を生成する。
また、マニピュレータが物体と接触しているか接触していないかを表す触覚データを検出する触覚センサを備え、構造データ記憶部は、触覚センサの構造を表す触覚センサ構造データを記憶し、制御装置は、触覚センサ構造データおよび触覚データを参照して触覚センサが物体と接触していることを表す接触シンボルを含む触覚画像を生成する触覚画像生成部をさらに有し、提示画像生成部は、触覚画像も重ね合わせて提示画像を生成する。
この発明に係る制御装置は、操作者が動作指示入力部により入力する動作指示が入力されて、物体を扱うマニピュレータを制御する制御信号を生成する制御信号生成部と、マニピュレータの構造を表すマニピュレータ構造データを記憶する構造データ記憶部と、姿勢センサが検出するマニピュレータの位置および姿勢を表す姿勢データと、カメラが撮影するマニピュレータが含まれる撮影画像とが入力され、姿勢データおよび構造データ記憶部を参照してカメラの位置から見るマニピュレータのモデルの画像であるモデル画像を生成するモデル画像生成部と、モデル画像と撮影画像とを重ね合わせて操作者に提示する提示画像を生成する提示画像生成部とを備えたものである。
さらに、提示画像生成部は、モデル画像でマニピュレータが表示されている画素であって、かつ撮影画像においてマニピュレータが撮影されていない画素にモデル画像を表示し、その他の画素ではモデルを表示しないようにモデル画像と撮影画像とを重ね合わせて提示画像を生成する。
また、マニピュレータが物体と接触しているか接触していないかを表す触覚データを検出する触覚センサから触覚データが入力され、構造データ記憶部は、触覚センサの構造を表す触覚センサ構造データを記憶し、触覚センサ構造データおよび触覚データを参照して触覚センサが物体と接触していることを表す接触シンボルを含む触覚画像を生成する触覚画像生成部をさらに備え、提示画像生成部は、触覚画像も重ね合わせて提示画像を生成する。
この発明によれば、簡素なシステム構成で、操作者がマニピュレータを従来よりも容易に遠隔制御できる。
この発明の実施の形態1に係る遠隔制御マニピュレータシステムの概略構成を説明する図である。 実施の形態1に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。 実施の形態1に係る遠隔制御マニピュレータシステムで使用される人型ロボットの正面図と左側面図である。 実施の形態1に係る遠隔制御マニピュレータシステムで使用される人型ロボットの姿勢を表す姿勢データを例により説明する図である。 実施の形態1に係る遠隔制御マニピュレータシステムでオペレータに提示される提示画像を生成する過程の前半を例により説明する図である。 実施の形態1に係る遠隔制御マニピュレータシステムでオペレータに提示される提示画像を生成する過程の後半を例により説明する図である。 実施の形態1に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する手順を説明するフローチャートである。 人間の運動知覚システムのモデルの構成図である。 実施の形態1に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する場合に人間の運動知覚システムのモデルでの情報の流れを説明する図である。 この発明の実施の形態2に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。 実施の形態2に係る遠隔制御マニピュレータシステムで提示画像とともに触覚データに変化があることを音声で知らせる方法を例により説明する図である。 実施の形態2に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する手順を説明するフローチャートである。 この発明の実施の形態3に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。 実施の形態3に係る遠隔制御マニピュレータシステムで生成する動作指示アイコンを含む提示画像を例により説明する図である。 実施の形態3に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する手順を説明するフローチャートである。 この発明の実施の形態4に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。 実施の形態4に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する手順を説明するフローチャートである。 実施の形態4に係る遠隔制御マニピュレータシステムの変形例の機能構成を説明するブロック図である。 実施の形態4に係る遠隔制御マニピュレータシステムの変形例で人型ロボットを遠隔制御する手順を説明するフローチャートである。 この発明の実施の形態5に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。 実施の形態5に係る遠隔制御マニピュレータシステムが有する外骨格型の動作指示入力装置の構造を説明する図である。 実施の形態5に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する手順を説明するフローチャートである。 実施の形態5に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する際に抵抗力が発生している状態を示す図である。
実施の形態1.
図1は、この発明の実施の形態1に係る遠隔制御マニピュレータシステムの概略構成を説明する図である。図2は、実施の形態1に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。遠隔制御マニピュレータシステム100は、人型ロボット1、現場カメラ2、制御装置3、オペレータ30が装着するヘッドマウントディスプレイ4およびヘッドホン5、指示読取カメラ6A、6Bを主に有して構成される。人型ロボット1は、オペレータ30に遠隔制御されて物体を扱うマニピュレータである。現場カメラ2は、人型ロボット1が操作対象である物体20を扱う様子を撮影する。制御装置3は、人型ロボット1を遠隔制御する。オペレータ30は、人型ロボット1への動作指示を与える操作者である。指示読取カメラ6A、6Bは、オペレータ30の動作を動作指示として読み取るための2台のカメラである。オペレータ30および人型ロボットがとる動作には、動きだけでなく指示された姿勢で静止することも含む。動作は、動きおよび静止のどちらか一方または両方を含むものである。人型ロボット1が物体20を扱う場所を現場と呼ぶ。オペレータ30が居る場所を指令所と呼ぶ。
人型ロボット1は、両腕および両脚を有する人型のロボットである。図では、脚の部分が無い状態で示している。発明の特徴を説明する上では簡単な動作の方がよいので、片腕をオペレータ30の動作に合わせて動かして、物体20を操作する場合で説明する。現場カメラ2は、人型ロボット1の頭部に設置している。現場カメラ2は、人型ロボット1の腕および手と物体20が含まれる撮影画像51を撮影するカメラである。現場カメラ2はマイク付であり、人型ロボット1の周囲で発生する音や、物体20を操作する際に発生する音を検出する。
提示画像50は、現場カメラ2で撮影された撮影画像51に、人型ロボット1に装着された触覚センサ7などの各種センサからの情報を分かりやすく重ねて表示する画像である。提示画像50を見ることで、オペレータ30は、操縦している人型ロボット1の状況などを認識する。提示画像50は、制御装置3が生成する。オペレータ30は、頭部にヘッドマウントディスプレイ4とヘッドホン5を装着している。提示画像50は、ヘッドマウントディスプレイ4に表示される。ヘッドホン5は、現場カメラ2のマイクが検出する音声を出力する。なお、オペレータ30の判断で、現場の音声をヘッドホン5が出力しないようにできる。ヘッドマウントディスプレイ4は、提示画像50を表示する表示装置である。ヘッドマウントディスプレイ4は、奥行きを知覚できるモニタでもよい。指令所の壁に設置された大型ディスプレイ、机上に置かれたディスプレイなどを表示装置として使用してもよい。ヘッドホン5は、オペレータ30に聞こえる音を発生させる音発生部である。
制御装置3は、CPU21、メモリ部22などを含む電子計算機により実装される。メモリ部22は、CPU21で実行されるプログラムや処理に使用するデータあるいは処理の結果で得られるデータなどを記憶する。メモリ部22は、フラッシュメモリのような半導体メモリおよびハードディスクである。メモリ部22は、揮発性の記憶装置および不揮発性の記憶装置を含む。
人型ロボット1と制御装置3は、通信回線8を介して接続されて、互いに通信する。通信回線8により、制御装置3から人型ロボット1を制御する制御信号が送られる。人型ロボット1からは、姿勢データ52、触覚データ53や、撮影画像51などが送信される。姿勢データ52は、姿勢センサ9が検出する人型ロボット1の位置と姿勢を表すデータである。触覚データ53は、触覚センサ7が検出するデータである。撮影画像51は、現場カメラ2が撮影した画像である。通信回線8は、有線回線でも無線回線でもよく、公衆回線でも専用回線でもよい。用途に合わせた通信回線を使用する。人型ロボット1が物体20を操作する現場と、オペレータ30が居る指令所との間の距離は、任意である。距離は、何千kmも離れていてもよいし、1mでもよい。制御装置3は、指令所がある建物に設置される。制御装置3を、指令所がある建物とは別の建物に設置してもよい。ヘッドマウントディスプレイ4および指示読取カメラ6A、6Bと制御装置3との間は、LAN10で結ぶ。この明細書における遠隔制御とは、遠隔で機械を制御する方法で制御するという意味である。人型ロボット1などの機械と制御装置3の実際の距離は、遠隔でなくてもよい。
人型ロボット1は、骨格部11、関節部12、アクチュエータ13、制御部14、通信部15を、主に有して構成される。関節部12は、接続角度を変更可能に骨格部11を接続する。アクチュエータ13は、関節部12を動かす力を出す。制御部14は、アクチュエータ13を制御する。通信部15は、制御装置3と通信する。制御部14には、制御信号から抽出された動作指示データ54、姿勢データ52および触覚データ53が入力される。制御部14は、動作指示データ54、姿勢データ52および触覚データ53などを記憶する記憶部16を有する。制御部14は、姿勢データ52が動作指示データ54と一致するようにアクチュエータ13を制御する。制御部14による制御は、フィードバック制御でもよいし、低次自律運動判断による制御でもよい。なお、関節部にギヤを配置しモータにより関節部の回転角度を変化させるロボットの場合は、制御部は各関節部に配置されたモータを制御する。
人型ロボット1には、現場カメラ2、触覚センサ7および姿勢センサ9が装着される。現場カメラ2は、人型ロボット1の頭部に装着される。現場カメラ2は、頭部が向く方向を変更することで、画像を撮影する方向である撮影方向を変更できる。現場カメラ2は、画像を撮影する際の撮影方向、絞りや倍率などを含む撮影条件データ55を、撮影した画像とともに制御部14に出力する。撮影方向は、胴体部11Aに対する相対的な方向である。制御部14は、通信部15を介して撮影画像51と撮影条件データ55を制御装置3に送信する。触覚センサ7は、人型ロボット1の指先に装着される。触覚センサ7は、人型ロボット1の指と物体20とが接触しているか接触していないかという状態を検出し、接触している場合には物体20と指先との間に働く接触力の大きさも計測する。触覚センサ7が検出する状態を表し接触力を含む触覚データ53は制御部14に送られ、アクチュエータ13を制御する上で使用される。触覚データ53は、制御装置3に送られる。撮影画像51および撮影条件データ55と触覚データ53は、制御部14が有する記憶部16に記憶される。撮影画像51および撮影条件データ55は、人型ロボット1の制御部14とは別の制御装置が保存し、制御装置3に送信してもよい。記憶部16は、制御部14とは別に設けてもよい。
制御装置3は、通信部31、構造データ記憶部32、状態データ記憶部33、モデル画像生成部34、触覚画像生成部35、提示画像生成部36、動作指示データ生成部37、制御信号生成部38を主に有して構成される。通信部31は、人型ロボット1などと通信する。構造データ記憶部32は、人型ロボット1の構造を表すロボット構造データ81などを記憶する。構造データ記憶部32は、変化しないデータを記憶する。状態データ記憶部33は、姿勢データ52など変化するデータを記憶する。モデル画像生成部34は、人型ロボット1の3次元モデル56に基づくモデル画像57を生成する。触覚画像生成部35は、触覚データ53を視覚的に表現する触覚画像58を生成する。提示画像生成部36は、オペレータ30に提示する提示画像50を生成する。動作指示データ生成部37は、指示読取カメラ6A、6Bが撮影した画像から動作指示データ54を生成する。制御信号生成部38は、動作指示データ54を人型ロボット1に伝えるための制御信号を生成する。3次元モデル56は、ロボット構造データ81および姿勢データ52などから人型ロボット1の姿勢に応じて作成される人型ロボット1の3次元モデルである。モデル画像57は、3次元モデル56を現場カメラ2の位置から見る画像である。
構造データ記憶部32と状態データ記憶部33は、ハードウェアとしてはメモリ部22に対応する。通信部31、モデル画像生成部34、触覚画像生成部35、提示画像生成部36、動作指示データ生成部37および制御信号生成部38は、メモリ部22に記憶した専用プログラムをCPU21で実行させることにより実現する。
ロボット構造データ81と姿勢データ52とを参照して、3次元モデル56およびモデル画像57を生成する方法を説明する。図3は、人型ロボットの正面図と左側面図である。図3(A)が左側面図であり、図3(B)が正面図である。人型ロボット1は、骨格部11として胴体部11A、上腕部11B、前腕部11C、手部11D、頭部11Eを有する。関節部12として、肩関節部12A、肘関節部12B、手首関節部12C、首関節部12Dを有する。手部11Dは、5本の指を有する。各指は、3個の指関節部を有する。ここでは、簡単のために手部11Dの可動部は動かないとして説明する。
人型ロボット1の各部の位置を表現する座標系として、UVW座標系を定義する。人型ロボット1の左右方向をU軸とし、前後方向をV軸とし、上下方向をW軸とする。右手側から左手側に向かう方向をU軸の正の方向とし、前から後ろに向かう方向をV軸の正の方向とし、下から上に向かう方向をW軸の正の方向とする。腰付近の高さの水平面にある人型ロボット1の重心PをUVW座標の原点とする。胴体部11Aにおいて肩関節部12Aと重心Pとの位置関係は固定であり、右の肩関節部12Aの位置を表す点Pの座標は、(-W1,D1,H1)とする。
棒状の上腕部11Bの一端は、肩関節部12Aで胴体部11Aに接続する。肩関節部12Aは、胴体部11Aと上腕部11Bの接続角度を変更可能にする。上腕部11Bの他端は、肘関節部12Bで棒状の前腕部11Cの一端と接続する。肘関節部12Bは、上腕部11Bと前腕部11Cの接続角度を変更可能にする。前腕部11Cの他端には手首関節部12Cが設けられる。手首関節部12Cは、手部11Dを前腕部11Cの他端に接続角度を変更可能に接続する。上腕部11Bの長さはLaであり、前腕部11Cの長さはLbである。これらの互いの接続関係や長さは変化せず、人型ロボット1の構造を表現する。これらの人型ロボット1の構造を表現するデータが、ロボット構造データ81である。
さらに、関節部12に関しては、その関節部12での接続角度の取り得る値の範囲、接続角度の変化速度の可能な範囲などを、ロボット構造データ81として定義する。アクチュエータ13に関しては、そのアクチュエータ13が発生する力およびトルクの最大値、発生する力およびトルクの変化速度の可能な範囲などをロボット構造データ81として定義する。ロボット構造データ81は、マニピュレータの構造を表すマニピュレータ構造データである。
重心Pに対する現場カメラ2の相対位置が固定である場合には、重心Pに対する相対位置がカメラ構造データ82として記憶される。現場カメラ2が装着される頭部11Eが、胴体部11Aに対して首関節部12Dにより角度を変更可能な場合は、首関節部12Dの重心Pに対する相対位置と、現場カメラ2の首関節部12Dとの距離が、カメラ構造データ82として記憶される。頭部11Eが向く方向に対して固定された現場カメラ2が向く相対的な方向も、カメラ構造データ82として記憶される。カメラ構造データ82には、撮影できる画像の縦横のサイズ、視野角、拡大倍率の可能範囲などの、現場カメラ2の仕様から決まるデータを含ませてもよい。
触覚センサ7の構造を表す構造データとしては、装着される指部と、指部における装着位置などがある。触覚センサ7が接触していることを検出する場合に、触覚画像58において触覚データ53を表示する位置なども、構造データである。これらの構造データは、触覚センサ構造データ83として、構造データ記憶部32に記憶される。1本の指部に複数の触覚センサ7を装着してもよい。
姿勢データ52について説明する。図4は、人型ロボットの姿勢を表す姿勢データを例により説明する図である。肩関節部12Aは2回転自由度で回転可能であり、肩関節部12Aの回転角度を図4(A)に示すように(α1, β1)とする。肘関節部12Bは2回転自由度で回転可能であり、回転角度を図4(A)に示すように(α2, γ2)とする。手首関節部12Cは3回転自由度で回転可能であり、回転角度を図4(B)に示すように(α3, β3, γ3)とする。
肩関節部12Aは、胴体部11Aに対してU軸の回りの回転角度であるα1とV軸の回りの回転角度β1で、上腕部11Bが延在する方向を表現する。肘関節部12Bは、前腕部11Cを上腕部11Bに2回転自由度で回転可能に接続する。上腕部11Bと前腕部11Cの間の接続角度を、上腕部11Bとともに移動するUVW座標系で表現する。上腕部11Bが伸びる方向が、W軸である。肘関節部12Bでは、上腕部11Bに対してU軸の回りの回転角度であるα2とW軸の回りの回転角度γ2で、前腕部11Cが延在する方向を表現する。肘関節部12Bの回転角度を、図4(A)に示すように(α2,γ2)とする。手首関節部12Cは、手部11Dを前腕部11Cに3回転自由度で回転可能に接続する。前腕部11Cと手部11Dとの間の接続角度を、前腕部11Cとともに移動するUVW座標系で表現する。前腕部11Cが伸びる方向がW軸である。手首関節部12Cの回転角度を、図4(B)に示すように(α3,β3,γ3)とする。また、手部11Dにおいて、手首関節部12Cの回転角度(α3, β3, γ3)=(0,0,0)での人差指の先端の手首関節部12Cに対する相対位置は(W4,0,H4)であるとする。
角度(α1, β1)、角度(α2, γ2)および角度(α3, β3, γ3)が、人型ロボット1の姿勢を表す姿勢データ52である。人型ロボット1では、姿勢データ52を関節部12の回転角度だけで表現できる。例えば、前腕部の長さを伸縮できる人型ロボットの場合は、前腕部の長さも姿勢データに含まれる。姿勢データは、人型ロボット(マニピュレータ)の位置および姿勢を表現できるように定義される。
角度(α1, β1)、角度(α2, γ2)および角度(α3, β3, γ3)が決まると、人型ロボット1の右腕の各部の3次元位置を決めることができる。肩関節部12Aの回転行列を[R1]とし、肘関節部12Bの回転行列を[R2]とし、手首関節部12Cの回転行列を[R3]とする。回転行列[R1]、[R2]、[R3]は、以下のように表現できる。
Figure 0006678832
Figure 0006678832
Figure 0006678832
肘関節部12B、手首関節部12Cおよび人差指の先端の位置を表す点を、P、P、Pとする。P、P、Pは、以下のように表現できる。
=(-W1,D1,H1)t (4)
=P+[R1]*(0,0,-La)t (5)
=P+[R1]*[R2]*(0,0,-Lb)t (6)
=P+[R1]*[R2]*[R3]*(W4,0,H4)t (7)
人型ロボット1の位置を表す位置データP0G=(x0,y0,z0)と、胴体部11Aの傾斜角度(α0, β0,γ0)が与えられると、UVW座標系でのP〜Pは、XYZ座標系でのP1G〜PGに以下のように変換できる。XYZ座標系は、人型ロボット1が存在する空間を表す座標系である。ここで、傾斜角度(α0, β0,γ0)を表す回転行列を[R0]とする。なお、位置データP0Gと胴体部11Aの傾斜角度も姿勢データ52に含まれる。人型ロボット1の位置は、例えばGPS(Global Positioning System)装置により計測する。
Figure 0006678832
0G=(x0,y0,z0) (9)
1G=P0G+[R0]*P (10)
2G=P0G+[R0]*P (11)
3G=P0G+[R0]*P (12)
4G=P0G+[R0]*P (13)
実際にはもっと複雑であるが、同様にして人型ロボット1の3次元モデル56を生成できる。人型ロボット1の構造を表すデータを、ロボット構造データ81として構造データ記憶部32に記憶させておく。ロボット構造データ81は、例えば骨格部11と関節部12の接続関係や、骨格部11の寸法や関節部12の回転可能角度などである。ロボット構造データ81は、人型ロボット1が動いても変化しないデータである。人型ロボット1の変化する各部の値を表現する姿勢データ52を、ロボット構造データ81で決まる式に代入して、モデル画像生成部34は人型ロボット1の3次元モデル56を生成する。
モデル画像生成部34は、カメラ構造データ82と姿勢データ52とを参照して現場カメラ2の3次元位置と撮影方向を決定する。現場カメラ2の胴体部11Aに対する相対位置は固定なので、3次元モデル56における胴体部11Aの3次元位置と方向から現場カメラ2の3次元位置を決める。撮影方向は、頭部11Eが向く方向と頭部11Eに対する現場カメラ2の相対方向から決める。
モデル画像生成部34は、現場カメラ2の3次元位置と撮影方向から、モデル画像57を生成する。モデル画像生成部34は、現場に人型ロボット1の3次元モデル56だけが存在するものとしてモデル画像57を生成する。モデル画像57は、現場カメラ2の3次元位置と撮影方向から3次元モデル56を見る画像である。モデル画像57において、3次元モデル56が表示されている画素の範囲をマニピュレータ画像59と呼ぶ。モデル画像57では、マニピュレータ画像59でない部分は透明である。モデル画像生成部34は、ロボット構造データ81および姿勢データ52を参照して、3次元モデル56およびモデル画像57を生成する。モデル画像生成部34は、3次元モデル56を生成する3次元モデル生成部でもある。3次元モデル生成部を、モデル画像生成部とは別に設けてもよい。
図5に、モデル画像57の例を示す。図5は、手部11Dで板状の物体20を持つ場合の画像である。親指以外の指部は物体20の裏側になり撮影画像51では見えない。図5に示すモデル画像57は、物体20が存在しないものとして、現場カメラ2の位置から人型ロボット1の手部11Dを見る仮想的な画像である。
触覚画像生成部35は、触覚データ53が入力されて、触覚センサ構造データ83および触覚データ53を参照して触覚画像58を生成する。触覚データ53は、触覚センサ7が物体20と接触していることを表すデータである。触覚画像58は、接触していることを検出している触覚センサ7を接触シンボル60として含んで表示する画像である。接触シンボル60は、触覚センサ構造データ83に記憶されたデータから決まる触覚センサ7ごとの接触シンボル60の表示位置に、接触力の大きさに応じて変化させる表示形態で表示される。接触シンボル60の表示位置は、触角画像中の決められた位置でもよい。対応する触角センサ7が存在する位置に接触シンボル60を表示する場合などでは、触覚センサ構造データ83での接触シンボル60の表示位置を人型ロボット1に対する相対位置で規定する。その場合には、姿勢データ52も使用して接触シンボル60の表示位置を決める。触覚画像58では、接触シンボル60の画素は50%程度の透過率とする。接触シンボル60でない画素は、透明すなわち透過率が100%とする。
図6に、触覚画像58の例を示す。図6では、指先を点線で表示しているが、接触シンボル60の表示位置を示すためのものである。実際の触覚画像58では、点線の指先は描画されない。接触シンボル60は、物体20と接触している指先が分りやすくなるように、指先の外側にも表示している。指先部分だけを色替え表示するような接触シンボル60を表示してもよい。接触力が大きい場合は、濃い色で接触シンボル60を表示する。接触力が小さい場合は、薄い色で接触シンボル60を表示する。接触力に応じて接触シンボル60の表示形態を変化することに加えて、あるいは表示形態を変化させることなく、接触シンボル60を点滅させ、点滅の速度により接触力の大きさを表現してもよい。接触力が大きい場合は点滅の間隔を短くし、接触力が小さい場合は点滅の間隔を長くする。周期は同じにして、接触力が大きい場合は接触シンボル60を表示する時間を長くしてもよい。接触力に応じて点滅の周期と、1周期の中で接触シンボルを表示する時間の割合の両方を変化させてもよい。
接触シンボル60を表示することで、操作対象物である物体が硬く変形しにくい物体である場合でも、マニピュレータが物体に接触したことをオペレータ30に提示できる。柔らかい物体の場合には、物体の変形量が大きく、接触シンボルを表示しなくてもマニピュレータが物体に接触していることを視覚的に理解しやすい。一方、硬い物体の場合には、物体の変形量が小さく、接触シンボルを表示していないとマニピュレータが物体に接触しているかどうかオペレータ30が判断することが難しい。
提示画像生成部36は、撮影画像51、モデル画像57および触覚画像58を重ね合わせることで、提示画像50を生成する。提示画像50は、オペレータ30に提示されて、オペレータ30が人型ロボット1の状態を把握するための画像である。図5および図6は、実施の形態1に係る遠隔制御マニピュレータシステムでオペレータに提示される提示画像を生成する過程を例により説明する図である。図5に過程の前半を示し、図6に過程の後半を示す。撮影画像51とモデル画像57を重ね合わせる際に、モデル画像57を前側のレイヤにする。撮影画像51で人型ロボット1を撮影していると判断できる部分の画素では、モデル画像57ではなく撮影画像51を表示する。モデル画像57のマニピュレータ画像59が表示される画素で一定の透過率を有するように表示し、その画素に撮影画像51も表示するようにしてもよい。マニピュレータ画像59を撮影画像51よりも優先して表示されるようにモデル画像57と撮影画像51を重ね合わせる。撮影画像51を前のレイヤに表示し、撮影画像51において人型ロボット1が表示されていないが、モデル画像57での対応される画素にマニピュレータ画像59が表示される範囲の画素では、撮影画像51を例えば50%以上の透過率で表示するようにしてもよい。撮影画像51を、その全領域で透過するように表示してもよい。撮影画像51で人型ロボット1が撮影されていない画素であって、かつモデル画像57でマニピュレータ画像59が表示される画素に、マニピュレータ画像59が表示できる方法であれば、モデル画像57と撮影画像51を重ね合わせる方法は、どのような方法でもよい。撮影画像51とモデル画像57とを重ね合わせて得られる画像を、モデル表示撮影画像61と呼ぶ。
提示画像生成部36は、さらにモデル表示撮影画像61の前側のレイヤに触覚画像58を重ね合わせて、触覚表示撮影画像62を生成する。触覚画像58では、触覚を表示する画像ではない部分は透明であり、モデル表示撮影画像61がそのまま見える。図において、触覚画像58では手部11Dの輪郭線を点線で示している。手部11Dの輪郭線は、モデル画像51と適切に位置あわせできることを示すために図に書いており、実際の画像には表示されない。提示画像生成部36は、モデル画像57と触覚画像58を重ね合わせた画像を、撮影画像51と重ねあわせて触覚表示撮影画像62を生成してもよい。
提示画像生成部36は、触覚表示撮影画像62を提示画像50として状態データ記憶部33に記憶させる。ヘッドマウントディスプレイ4は、提示画像50を表示する。
人型ロボット1にとらせたい動作をオペレータ30がして、その動作を撮影した画像から動作を読取ることで、人型ロボット1への動作指示を生成する。オペレータ30がとる動作は、指示読取カメラ6A、6Bで撮影する。オペレータ30が動作をする場所は、指令所内の決められた場所とする。指示読取カメラ6A、6Bは、この決められた場所に存在する物体を適切な角度差で撮影できるように配置しておく。指示読取カメラ6A、6Bが同時に撮影した画像を、動作指示入力画像63A、63Bとする。指示読取カメラの台数は1台でも3台以上でもよい。
オペレータ30が動作指示を入力するために動作をする場所、指示読取カメラ6A、6Bの設置位置、撮影方向などを、読取カメラ構造データ84として構造データ記憶部32に記憶しておく。オペレータ30の上腕の長さ、前腕の長さ、掌の形状を表す複数の特徴点の間の距離、各指の長さなどを、操作者体格データ85として構造データ記憶部32に記憶しておく。特徴点とは、肩関節、肘関節、手首関節、指先など、オペレータ30の姿勢を画像から把握できる点である。特徴点を画像認識しやすくするために、オペレータ30が有する特徴点の位置に、オペレータ30がマークを装着してもよい。
動作指示データ生成部37は、特徴点抽出部39、画像制約条件生成部40、姿勢決定部41、指示データ変換部42を有する。特徴点抽出部39は、動作指示入力画像63A、63Bをそれぞれ画像処理して、オペレータ30の身体における関節位置などの特徴点が表示される画素位置を読取る。指示読取カメラ6A、6Bおよび動作指示データ生成部37は、人型ロボット1が動くまたは静止する動作を指示する動作指示をオペレータ30が入力する動作指示入力部を構成する。
動作指示入力画像63Aで読取られた特徴点の画素位置は、指示読取カメラ6Aの設置位置を通りその画素位置に対応する3次元空間での方向を表す直線上に、特徴点が存在することを意味する。動作指示入力画像63Bでも同様である。動作指示入力画像63Bで読取られた特徴点の画素位置は、指示読取カメラ6Bの設置位置を通りその画素位置に対応する3次元空間での方向を表す直線上に、特徴点が存在することを意味する。画像制約条件生成部40は、特徴点抽出部39が抽出した特徴点に対して、その特徴点が存在すべき直線を抽出する。ある特徴点がある直線上に存在する必要があることは、その特徴点の存在位置に関する制約条件(画像制約条件)である。例えば、画像の中央の画素は、撮影方向に延びる直線になる。上下方向の中央で左右方向の両端の画素は、撮影方向に対して視野角の半分だけ左右方向に傾いた方向に延びる直線になる。
姿勢決定部41は、動作指示入力画像63A、63Bとして撮影されたオペレータ30の姿勢を表す特徴点の3次元位置である操作者姿勢データ64を決定する。姿勢決定部41は、操作者体格データ85により決まる制約条件(体格制約条件)を守った上で、画像制約条件の違反量の二乗の和などの評価関数を最小にするなどして、操作者姿勢データ64を決定する。評価関数として、体格制約条件および画像制約条件に対する違反量を重みづけした二乗和を最小にするようにして、操作者姿勢データ64を決めてもよい。画像制約条件に対する違反量だけの二乗和をとる場合も、重み付け二乗和としてもよい。
指示データ変換部42は、特徴点の3次元位置で表される操作者姿勢データ64を、人型ロボット1の各関節の回転角度などで表される動作指示データ54に変換する。動作指示データ54は、姿勢データ52と同様に表現される。動作指示データ生成部37は、このようにして各時点での動作指示入力画像63A、63Bから動作指示データ54を生成する。動作指示データ54は、撮影された時刻の順番に動作指示入力画像63A、63Bから生成した動作指示データ54の時系列として得られる。
制御信号生成部38は、動作指示データ54を含む制御信号を生成して、人型ロボット1に送信する。人型ロボット1は、制御信号から抽出した動作指示データ54にしたがってその姿勢を変化させる。
動作を説明する。図7は、実施の形態1に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する手順を説明するフローチャートである。
ステップS01で、ロボット構造データ81、カメラ構造データ82、触覚センサ構造データ83、読取カメラ構造データ84、操作者体格データ85を、構造データ記憶部32に記憶させる。
ステップS02で、人型ロボット1にとらせたい動作になるように、オペレータ30が動くまたは静止する。オペレータ30が動いてから静止したり、静止してから動いたりしてもよい。指示読取カメラ6A、6Bが、オペレータ30を撮影する。
ステップS03で、動作指示データ生成部37が、指示読取カメラ6A、6Bが撮影した動作指示入力画像63A、63Bから動作指示データ54を生成する。
ステップS04で、制御信号生成部38が動作指示データ54から制御信号を生成して、人型ロボット1に送信する。
ステップS05で、制御信号を受信した人型ロボット1が制御信号に含まれる動作指示データ54にしたがって動くまたは静止する。人型ロボット1が動作指示データ54で指示されるとおりの動作ができない場合は、可能な範囲で指示される動作に近くなるように動く。姿勢センサ9が人型ロボット1の姿勢データ52を検出し、触覚センサ7が触覚データ53を検出する。姿勢データ52、触覚データ53および現場カメラ2が撮影した撮影画像51および撮影条件データ55は、制御装置3に送信される。なお、撮影条件データ55が常に同じである場合は、制御装置3が有する構造データ記憶部32に記憶し、人型ロボット1から制御装置3に送信しなくてもよい。
ステップS06で、現場カメラ2が撮影した撮影画像51、姿勢データ52および触覚データ53から触覚表示撮影画像62が生成される。より細かく説明すると、姿勢データ52を用いてモデル画像生成部34がモデル画像57を生成する。触覚画像生成部35が、触角データ53を用いて触覚画像58を生成する。提示画像生成部50が、撮影画像51、モデル画像57および触覚画像58を重ね合わせて触角表示撮影画像62を生成する。触覚表示撮影画像62が、提示画像50としてヘッドマウントディスプレイ4に表示される。
ステップS07で、提示画像50を見たオペレータ30が次にとる動作を決める。あるいは、作業の終了指示を入力する。
ステップS08で、オペレータ30が作業の終了指示を入力したかどうかをチェックする。オペレータ30が作業の終了指示を入力している場合(S08でYES)は、終了する。入力していない場合(S08でNO)は、ステップS02に戻る。ステップS02からステップ07は、周期的に繰り返す。
オペレータ30には、触覚センサ7が検出する触覚データ53も提示画像50に表示された形で提示される。オペレータ30の脳内では、視覚情報と整合性のとれた触覚情報が再構成されるため、触覚も含めた一体感のある形で人型ロボット1の状態を認識して適切に人型ロボット1を遠隔制御できる。
参考として、図8に、一般的な人間の運動知覚システムのモデルの構成図を示す。複数の感覚器情報は、脳内予測モデルの出力を組合せて、運動判断に使用される各種の認知情報として認知される。感覚器情報は、視覚器、聴覚器、触覚器、力覚器などの感覚器から入力される。脳内予測モデルは、脳内に蓄積した学習データから構築される。認知情報は、感覚器ごとに認知される。認知情報には、視覚認知情報、聴覚認知情報、触覚認知情報、力覚認知情報などがある。力覚とは、筋肉が力を出していることを感じることである。人間は、視覚認知情報、聴覚認知情報、触覚認知情報、力覚認知情報を基に、脳内でどのような運動をすべきか判断し、その判断に基づいて身体の各筋肉を駆動する。
図9は、実施の形態1に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する場合に人間の運動知覚システムのモデルでの情報の流れを説明する図である。視覚情報だけから構築される脳内予測モデルの出力と視覚情報だけが脳内統合処理に入力される。そのため、触覚情報や力覚情報をオペレータが受ける場合に生成される、触覚情報や力覚情報に関する脳内予測モデルが生成されず、脳内予測モデルと実際の触覚情報や力覚情報との間のタイミング差は発生しない。
離れた場所に設置されたマニピュレータ(遠隔制御マニピュレータ)が検知する触覚情報を、視覚情報に重畳させてオペレータ(人間)に提示される。オペレータは、視覚情報から脳内予測モデルを再構成するので、視覚情報と擬似的に得られる触覚の間に不整合がなく、オペレータの感覚器にとって合理的な操作感を得ることができる。
遠隔制御マニピュレータが力覚センサを備える場合は、力覚センサが検出する力覚情報を視覚的に表現することで、力覚情報を視覚情報としてオペレータに提示する。そうすることで、視覚情報と力覚情報の間に不整合がなくなる。
遠隔制御マニピュレータシステムが触覚情報をオペレータに提示する触覚提示装置を備える場合は、視覚情報と触覚情報とが異なるタイミングで入力される可能性がある。視覚情報と触覚情報とが異なるタイミングでオペレータに提示されると、オペレータはマニピュレータを操作する上で違和感を生じさせる場合があると考えられる。例えば、視覚情報を先に提示されると、視覚情報から触覚が発生するタイミングを脳内予測モデルが予測する。その予測されるタイミングとは異なるタイミングで、触覚提示装置から触覚情報が提示されると、オペエータは違和感を感ずると思われる。
触覚提示装置や力覚提示装置を有した遠隔制御マニピュレータシステムである遠隔建設機械や手術支援ロボットであるダ・ビィンチでは、触覚提示装置や力覚提示装置をオフにして運用されているらしい。オフにする理由としては、上に述べたように、予測されるタイミングとは異なるタイミングで、触覚提示装置から触覚情報が提示されると、オペエータが違和感を感ずるためと考えられる。
この発明に係る遠隔制御マニピュレータシステムでは、オペレータ30が主に視覚的にマニピュレータの状態を把握し、オペレータが随時マニピュレータを制御する方式である。そのため、マニピュレータ側の構造が簡素になる。人間の柔軟な状況判断能力と高次の学習能力を利用することで、簡素なシステム構成で全体システムの安定性と信頼性を確保することができる。物体を扱うマニピュレータが自動認識カメラ、触覚センサ、力覚センサなどの出力を利用して自律的に制御する方式では、システムの安定性と信頼性を確保することは、まだ難しいと考えられる。
視覚情報としては、図5および図6に示すように、物体20で隠れる部分でも人型ロボット1の手部11Dをモデル画像57として表示している。そのため、オペレータ30は手部11Dの状況を正確に把握でき、操作の精度が向上する。
図6に示すように、手部11Dの指先が物体20に接触している場合は、接触箇所に接触シンボル60を表示している。接触シンボル60が表示されるので、オペレータは手部11Dの指先が物体20に接触していることを容易かつ正確に理解できる。接触シンボルを表示せず、モデル画像を撮影画像に重ね合わせるだけでもよい。その場合でも、オペレータ30は人型ロボット1の状態を正確に把握でき、従来よりも容易に人型ロボット1を遠隔制御できる。
オペレータへの情報提示は、主に視覚情報による。そのため、触覚センサが検出する触覚データをオペレータに提示する触覚提示装置が不要である。また、力覚センサが検出するマニピュレータが出している力をオペレータに感じさせるための力覚提示装置も不要である。つまり、システム構成が簡素になる。
人型ロボットではなく、上体だけのロボット、片腕のロボットアーム、ロボットハンドなどに対しても、この発明は適用できる。物体を扱う機械や装置であれば、この発明は適用できる。物体を扱う機械や装置のことをマニピュレータと呼ぶ。物体とは、マニピュレータが持つ道具、道具で処理される物体、道具を使用しないで操作される物体などである。道具としては、例えばドライバーやペンチなどの工具、包丁やメスなどの刃物、鋏や定規や筆記具などの文具、大工道具、清掃用具、パソコンなどの情報機器、建物のドアや窓、荷物を運搬するための台車など、人を移動させる車椅子や移動式ベッドなどが含まれる。物体は、液体、固体、気体の何れでもよい。人や動物や植物なども物体に含む。
この発明に係る遠隔制御マニピュレータシステムによれば、遠隔制御マニピュレータの作業操作性能を向上させる。遠隔制御するロボットあるいはマニピュレータを使用することで、危険な環境、あるいは人間には過酷なあるいは快適でない環境での作業、人間にとっては重い物体の操作などの重労働作業を、人間の負荷を軽減して実施できる。遠隔制御するロボットあるいはマニピュレータは、災害対応等に携わる作業者を支援することや、労働力が不足している産業分野で、使用できる。高齢化社会でのロボットによる介護の支援などにも利用できる。
マニピュレータ遠隔制御システムにより、災害救助時や一般産業の工場や工事現場において、遠隔で離れた地点から映像を見ながら遠隔作業機械またはロボットが有するハンドによる把持操作をする場合が想定される。しかし、実運用時は環境や把持対象物の事前学習やモデル化は困難である。本発明の遠隔制御マニピュレータの視覚ベース操作システムであれば、操作者が周辺環境や作業状況を視覚ベースの情報から判断でき、遠隔制御マニピュレータの操作信頼度の向上が可能になると期待される。
動作指示を読取る方式としては、オペレータの動作をカメラで撮影して、撮影した画像から動作指示を読取る方式以外も使用できる。例えば、オペレータの動きあるいは筋肉の緊張度などを読取るセンサをオペレータの体に付けた動作指示入力装置を使用してもよい。操縦桿、ステアリングホイール(ハンドル)、レバー、ジョイステック、ボタン、つまみ、ペダルなどで動作指示を入力してもよい。マニピュレータが動くまたは静止する動作を入力できるものであれば、動作指示入力部はどのようなものでもよい。
以上のことは、他の実施の形態にもあてはまる。
実施の形態2.
実施の形態2は、接触シンボルに加えて音でも接触したことをオペレータに通知するように実施の形態1を変更した場合である。実施の形態2では、接触シンボルを表示していない状態から表示する状態に変化する場合、あるいは接触シンボルの表示が変化する場合に、接触音を決められた時間だけ鳴らす。図10は、この発明の実施の形態2に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。実施の形態1の場合の図3と異なる点を説明する。
遠隔制御マニピュレータシステム100Aを構成する制御装置3Aは、接触音生成部43を有する。接触音生成部43が参照できるように、前回に入力された触覚データ53を記憶しておく。接触音生成部43は、今回、入力された触覚データ53と前回の触覚データ53との間の差が決められた条件を充足するかどうかチェックする。決められた条件が充足する場合は、接触音生成部43は触覚データ53が変化したことを表す接触音を生成する。ヘッドホン5は、現場カメラ2のマイクの音に加えて接触音も出力する。接触音生成部43は、触覚データに応じてヘッドホン5を制御して音を発生させる音制御部である。
接触音を発生させる決められた条件(接触音出力条件と呼ぶ)は、例えば、すべての触覚センサ7が非接触であったのが、接触の状態である触覚センサ7が存在することを検出する場合である。1本の指に複数の触覚センサ7を装着する場合は、指ごとの触覚センサ7の集合の中で、すべての触覚センサ7が非接触であったのが、接触の状態である触覚センサ7が存在することを検出する場合としてもよい。接触が継続している場合は、接触音を継続して出力するようにしてもよい。
接触音を伴った提示画像50を提示する方法を説明する。図11は、実施の形態2に係る遠隔制御マニピュレータシステムで提示画像とともに触覚データに変化があることを音声で知らせる方法を例により説明する図である。図の上側は、tn時点で触覚データ53がすべて非接触である場合の提示画像50の表示例である。下側は、tn+1時点で接触の状態の触覚データ53が存在する場合の提示画像50の表示例である。接触している部分に接触シンボル60を表示するとともに、接触音をヘッドホン5に出力する。ヘッドホン5への接触音の出力を、図では音符(♪)で表現している。接触音を出力する期間(Ts)の長さは、人間が認識する上で適切な時間とし、提示画像50を更新する周期よりも長くてもよい。
接触力の大きさに応じて接触音を変化させてもよい。例えば、接触力が大きい場合には大きい音を、接触力が小さい場合には小さい音を出力する。また、音質も操作対象物の物性(剛性)にあわせて変化させてもよい。例えば、硬い対象物の場合には、高い周波数の打撃音、柔らかい対象物の場合には、低い周波数の打撃音が考えられる。打撃音ではなく、楽器(笛や弦楽器など)が出すような音でもよい。断続音にして音の間隔や、1回に継続する長さなどを変化させてもよい。
動作を説明する。図12は、実施の形態2に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する手順を説明するフローチャートである。実施の形態1の図7とは異なる点を説明する。
S06とS07の間にS11とS12を追加している。S06では、提示画像がオペレータに提示される。ステップS11では、触覚データ53が接触音出力条件を充足しており、かつ充足してからの経過時間がTs以下かどうかチェックする。接触音出力条件が充足しており、経過時間がTs以下の場合(S11でYES)は、ステップS12で接触音をヘッドホン5から出力する。接触音出力条件が充足していない、または充足してからTsが経過している場合(S11でNO)は、S07へ進む。S07では、提示画像および接触音に対して、オペレータが判断する。
触覚情報を音としてオペレータに提示することで、触覚情報の再構成をより効果的にすることができる。聴覚には、以下の2つの特徴がある。
(ア)人間の聴覚応答速度は、感覚器の中で最も速い。
(イ)音声情報のデータ容量が視覚情報のデータ量と比較して小さく、時間遅延の影響が小さい。
聴覚にはこのような特徴があるので、音を利用して触覚情報をオペレータに通知することは、有効である。音でも通知することで、視覚情報でだけ触覚情報を通知する場合と比較して、人型ロボットが物体と接触したことを、より正確かつより容易にオペレータは認識できる。
実施の形態3.
実施の形態3は、オペレータからの動作指示も提示画像に表示するように実施の形態2を変更した場合である。動作指示を表す画像を提示画像に表示することで、オペレータが人型ロボットの動きが動作指示どおりかどうかが分り、動作指示が適切かどうかを判断できる。人型ロボットの動きが動作指示と同じであれば動作指示が適切であることがオペレータに分かり、異なれば動作指示が不適切であることが分かる。図13は、この発明の実施の形態3に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。実施の形態2の場合の図10と異なる点を説明する。
遠隔制御マニピュレータシステム100Bを構成する制御装置3Bは、動作指示画像生成部44、指示実行結果検出部45を有する。構造データ記憶部32B、状態データ記憶部33B、動作指示データ生成部37Bおよび提示画像生成部36Bを変更している。
動作指示データ54Bは、動作で発生させる力(動作力)の最大値(指示動作力)と、動作の速度(指示速度)を含むように、動作指示データ54から変更している。動作指示データ生成部37Bは、動作指示データ54Bを生成する。
動作指示画像生成部44は、動作指示画像66を生成する。動作指示画像66は、モデル画像57よりも裏側で撮影画像51よりも前側のレイヤに表示する。動作指示画像66には、動作指示データ54Bによる動作内容をアニメーション画像のように表示する動作指示アイコン65が含まれる。動作指示アイコン65は、動作指示にしたがう動作を表すアイコン(絵記号)である。動作指示アイコン65は、オペレータ30の上腕や前腕や手などをモデル化した表示要素である動作指示表示要素86を組合せたアイコンである。例えば、物体20を手部11Dに持たせて移動する場合の動作指示アイコン65を、図14に示す。図14は、実施の形態3に係る遠隔制御マニピュレータシステムで生成する動作指示アイコンを含む提示画像を例により説明する図である。図14(B)では、前腕および手の動作指示表示要素86を組合せた動作指示アイコン65を、マニピュレータ画像59とは異なる位置に表示している。動作指示アイコン65を人型ロボット1とは異なる位置に表示することで、動作指示データ54Bで指示される動作を、人型ロボット1が実行できないことをオペレータ30に知らせる。
動作指示表示要素86は、動作指示アイコン65を表現する上で使用する、形状が変化しない表示要素である。位置、向き、色などを変化させた動作指示表示要素86を組合せたものが、動作指示アイコン65である。動作指示表示要素86は、構造データ記憶部32Bに記憶される。
動作指示データ生成部37Bは、動作力速度検知部46も有する。動作力速度検知部46は、オペレータ30の動作から指示動作力と指示速度を決める。指示動作力と指示速度は動作指示データ54Bの一部として人型ロボット1に送られる。指示動作力と指示速度は、関節部12ごとに決める。なお、関節部以外にも姿勢データとなる状態量を持つマニピュレータの場合は、関節部以外でも指示動作力と指示速度を決める。
動作力速度検知部46は、操作者姿勢データ64の時系列から動作の速度を算出する。動作の速度は、誤差を少なくするために3個以上の時点での操作者姿勢データ64の値から算出する。直前の値との差である瞬間速度を使用してもよい。算出した動作の速度が静止を判断する上限値よりも速い速度である場合は、指示動作力の大きさを、動作から検出する速度が小さいほど指示動作力が大きくなるように決める。動作から検出する速度に比例係数を乗算した速度を、指示速度とする。指示動作力や指示速度を求めるための操作者姿勢データ64のそれぞれに対する比例係数や計算式で使用される定数などを、力速度換算係数87と呼ぶ。力速度換算係数87は、構造データ記憶部32Bに記憶される。動作指示データ54Bには、指示速度と指示動作力が含まれる。
指示動作力は予め入力しておいてもよい。腕を使って動作しながら、足でペダルなどを踏むなどして指示動作力を入力してもよい。オペレータが指示動作力を入力する方法は、どのような方法でもよい。
人型ロボット1の各部は、指示速度で動くように、対応するアクチュエータ13が指示動作力以下の力を出力する。指示動作力は、動作指示データ54Bに応じて人型ロボット1が出す力の上限値になる。人型ロボット1の各部を指示速度で動かすために必要な動作力(必要動作力)が指示動作力未満である場合は、対応するアクチュエータ13は必要動作力を発生させる。指示動作力が必要動作力よりも小さい場合は、人型ロボット1のその部分は動かないか、動くが指示速度よりも遅い速度になる。なお、必要動作力は、物体20の重さなどの動作する際の状況により変化する。
指示実行結果検出部45は、動作指示データ54Bと、決められた長さの時間(動作遅延時間)が経過後の姿勢データ52とを比較して、人型ロボット1が動作指示データ54Bにしたがった動作ができているか否かを検出し、検出の結果を動作実行結果データ67として生成する。人型ロボット1の動作が動作指示データ54Bにしたがっていないことを、不実行と呼ぶ。不実行である動作実行結果データ67が生成された姿勢データ52を指示不実行姿勢データと呼ぶ。動作指示画像生成部44は、指示実行結果データ67を利用して動作指示画像66を生成する。
指示実行結果検出部45は、関節部ごとに動作指示データ54Bと動作遅延時間後の姿勢データ52との差を求める。差が閾値以下である場合に、その関節部12に関して動作指示データ54Bどおりに実行されている(正常)と判断する。指示実行結果データ67は、正常として生成される。差が閾値よりも大きい場合は、動作指示データ54Bどおりに実行されていない(不実行)と判断する。指示実行結果データ67は、不実行として生成される。姿勢データ52の検出誤差の影響を小さくするために、1時点の動作指示データ54Bに対して指示実行結果データ67を生成するのではなく、複数の時点での動作指示データ54Bに対して指示実行結果データ67を生成してもよい。
動作指示画像生成部44は、指示実行結果データ67がすべて正常である場合は、動作指示アイコン65をマニピュレータ画像59と同じ位置でその裏側に表示する。指示実行結果データ67がすべて正常である場合は、動作指示アイコン65を表示しないようにしてもよい。不実行である指示実行結果データ67が存在する場合、すなわち指示不実行姿勢データが存在する場合は、不実行な指示実行結果データ67に対応する関節部に関しては、動作指示アイコン65をマニピュレータ画像59とは離れた位置に表示する。動作指示アイコン65とマニピュレータ画像59との位置関係は、不実行である指示実行結果データ67が関係する動作指示データ54Bと動作遅延時間後の姿勢データ52との差の大きさにより変化させてもよい。
例として、腕を動かす状況を考える。肩関節の動きに関しては指示実行結果データ67が正常であり、肘関節の動きに関しては指示実行結果データ67が不実行である場合は、動作指示アイコン65は前腕から手側の部分がマニピュレータ画像59とは離れた位置に表示される。肩関節の動きに関しては指示実行結果データ67が不実行であり、肘関節の動きに関しては指示実行結果データ67が正常である場合は、動作指示アイコン65は上腕を含む腕全体がマニピュレータ画像59とは離れた位置に表示される。
動作指示データ54Bに含まれる指示動作力が、動作指示データ54Bで指示される動作に必要な動作力(必要動作力)よりも小さい場合は、対応する関節部は指示どおりに動作しない。図14(B)は、指示動作力が必要動作力よりも小さい場合に、人型ロボット1の前腕部11Cおよび手部11Dが物体20を持って移動できない場合である。前腕部11Cおよび手部11Dが移動せず、動作指示アイコン65が移動を指示された位置に表示される。図14(A)では、指示動作力が必要動作力以上なので、前腕部11Cおよび手部11Dが物体20を持って移動できる。動作指示アイコン65が、前腕部11Cおよび手部11Dと同じ位置で裏側に表示される。
人型ロボット1は、各関節部12で発生する力またはトルク、移動速度、回転角速度の中の少なくとも1つに関して制限値を有する。少なくとも一部の制限値は、変更可能である。人型ロボット1は、制限値を超えないように動作する。制限値が関係する姿勢データ52を制限値付き姿勢データ52と呼ぶ。制限値付き姿勢データ52が制限値を超えることになる動作指示データ54Bが入力される場合に、その制限値付き姿勢データ52が制限値のために動作指示データ54Bにしたがって変化することができない。その制限値付き姿勢データ52に関して、動作指示データ54Bが不実行になり、そのことを指示実行結果検出部45が検出する。
提示画像生成部36Bは、動作指示アイコン65を含む動作指示画像66を触覚表示撮影画像62に重ね合わせた動作指示表示撮影画像68を生成する。動作指示表示撮影画像68が提示画像50Bとしてヘッドマウントディスプレイ4に表示される。
動作を説明する。図15は、実施の形態3に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する手順を説明するフローチャートである。実施の形態2の場合の図12と異なる点を説明する。
ステップS01Bで、動作指示表示要素86、力速度換算係数87も構造データ記憶部32Bに記憶させる。
ステップS03Bで、動作指示データ生成部37Bが、指示読取カメラ6A、6Bが撮影した動作指示入力画像63A、63Bから動作指示データ54Bを生成する。動作指示データ54Bには、指示速度と指示動作力も含まれる。
ステップS05Bで、制御信号を受信した人型ロボット1が、制御信号に含まれる動作指示データ54Bにしたがった姿勢をとる、または動く。人型ロボット1の各部は、動作指示データ54Bに含まれる指示速度で動くように、指示動作力を対応するアクチュエータ13が出力する力の上限値として動作する。指示動作力が指定されたアクチュエータ13は、指示動作力以下の力を発生させる。
ステップS06Bで、撮影画像51、姿勢データ52、触覚データ53および動作指示データ54Bから動作指示表示撮影画像68が生成される。動作指示表示撮影画像68が、提示画像50としてヘッドマウントディスプレイ4に表示される。
動作指示表示撮影画像68では、オペレータ30が指示する動作を表す動作指示アイコン65を、撮影画像51とともに表示する。指示どおりに動作できている場合は、動作指示アイコン65は撮影画像51での人型ロボット1およびマニピュレータ画像59に重なり裏側のレイヤに表示される。指示どおりに動作できていない場合は、撮影画像51での人型ロボット1およびマニピュレータ画像59から離れた位置に、動作指示アイコン65が表示される。したがって、オペレータ30は、指示どおりに人型ロボット1を遠隔制御できているかどうかを、提示画像50から容易に判断できる。
指示どおりに動作できるかどうかは、動作に必要な動作力を人型ロボット1が発生させる動作指示データ54Bが生成される動作をオペレータ30がするかどうかによる。そのため、オペレータ30が動作指示表示撮影画像68を見ながら遠隔制御することで、オペレータ30が遠隔制御する人型ロボット1あるいはマニピュレータの特性を効率的に学習することができる。
実施の形4.
実施の形態4は、オペレータが人型ロボットの遠隔制御に習熟するための練習ができるようにシミュレーション機能を持たせるように実施の形態3を変更した場合である。図16は、この発明の実施の形態4に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。実施の形態3の場合の図13と異なる点を説明する。
遠隔制御マニピュレータシステム100Cを構成する制御装置3Cは、シミュレーション部47および周囲環境画像生成部48を有する。構造データ記憶部32C、状態データ記憶部33C、モデル画像生成部34Cおよび提示画像生成部36Cを変更している。
構造データ記憶部32Cは、人型ロボット1が存在する周囲環境に関する構造データを表す環境構造データ88も記憶する。物体20は、周囲環境に含まれる。環境構造データ88には、物体20の重量および形状や、人型ロボット1が居る部屋の縦横の長さや天井までの高さなどが含まれる。ロボット構造データ81Cは、アクチュエータ13の動きをシミュレーションする上で必要な構造データも記憶する。
状態データ記憶部33Cは、姿勢データ52C、触覚データ53C、撮影条件データ55C、3次元モデル56C、周囲環境画像69およびシミュレーション画像70を記憶する。姿勢データ52C、触覚データ53Cおよび撮影条件データ55Cは、シミュレーション部47が動作している間は、シミュレーション部47が値を書き込む。実際に人型ロボット1を遠隔制御している場合は、通信部31が受信した値が記憶される。状態データ記憶部33Cにおいて、人型ロボット1を遠隔制御する場合と、シミュレーション部47が動作する場合で、姿勢データ52C、触覚データ53Cおよび撮影条件データ55Cを別の領域に書込みおよび参照してもよいし、同じ領域に書込みおよび参照してもよい。
シミュレーション部47は、構造データ記憶部32Cおよび状態データ記憶部33Cを参照して、人型ロボット1の動きをシミュレーション(模擬)する。シミュレーション部47は、動作指示データ54Bが入力されてから動作遅延時間が経過した時点で、動作指示データ54Bに対するシミュレーション結果が得られるようにシミュレーションする。シミュレーション部47は、シミュレーションの結果として得られる、姿勢データ52C、触覚データ53Cおよび撮影条件データ55Cを出力する。現場カメラ2は人型ロボット1の頭部11Eに設置されているので、人型ロボット1の動作により現場カメラ2の位置は変化する場合がある。現場カメラ2の位置を含む撮影条件データ55Cも、シミュレーション部47が出力する。
3次元モデル56Cは、シミュレーション時には、人型ロボット1だけでなく周囲環境の3次元の位置および形状を表す3次元モデルである。3次元モデル56Cは、実際に人型ロボット1を遠隔制御する場合には、人型ロボット1だけの3次元モデルである。人型ロボット1の3次元モデルはモデル画像生成部34Cが生成し、周囲環境の3次元モデルは周囲環境画像生成部48が生成する。シミュレーション時に人型ロボット1および周囲環境の3次元モデル56Cを生成する3次元モデル生成部を、モデル画像生成部34Cおよび周囲環境画像生成部48とは別に設けてもよい。
現場カメラ2の位置は、シミュレーション部47が模擬する人型ロボット1の動きにより変化する。周囲環境画像69は、現場カメラ2の位置から周囲環境を見る画像である。周囲環境画像生成部48は、環境構造データ88、姿勢データ52Cおよび3次元モデル56Cを参照して、周囲環境画像69を生成する。シミュレーション時に生成される周囲環境画像69は、シミュレーションでない場合に撮影される撮影画像51の替りに使用される。周囲環境画像69の各画素に対応させて、その画素に表示される物までの現場カメラ2からの距離を記憶しておく。
モデル画像生成部34Cは、シミュレーション時には、シミュレーション部47が出力する姿勢データ52Cとロボット構造データ81を参照してモデル画像57を生成する。モデル画像57でも、マニピュレータ画像59を表示する各画素に対応させて、その画素に表示される3次元モデル56の部位までの現場カメラ2からの距離を記憶する。
シミュレーション部47が生成する姿勢データ52Cから決まる人型ロボット1の各部の3次元位置と物体20が存在する位置とが一致する場合に、触覚データ53Cは、接触ありとして生成される。
提示画像生成部36Cは、シミュレーション時にはモデル画像57と周囲環境画像69とを重ね合わせてシミュレーション画像70を生成する。モデル画像57と周囲環境画像69とを重ね合わせる際には、モデル画像57に含まれるマニピュレータ画像59が周囲環境画像69よりも優先して表示されるように重ね合わせる。具体的には、モデル画像57でマニピュレータ画像59が表示される画素には、シミュレーション画像70でもマニピュレータ画像59を表示する。例えばシミュレーションにおいて物体20の3次元位置が人型ロボット1よりも現場カメラ2に近い位置であり、現場カメラ2で撮影すると物体20が人型ロボット1を隠す場合には、その画素(画素XXと呼ぶ)には周囲環境画像69では物体20が表示され、モデル画像57ではマニピュレータ画像59が表示される。シミュレーション画像70では、画素XXにマニピュレータ画像59だけまたはマニピュレータ画像59および物体20を表示する。シミュレーション画像70は、シミュレーション部47が出力する姿勢データ55Cおよび構造データ記憶部32を参照して人型ロボット1および周囲環境を含む3次元モデル56Cを現場カメラ2の位置から見る画像である。周囲環境画像生成部48、モデル画像生成部34Cおよび提示画像生成部36Cは、シミュレーション画像70を生成するシミュレーション画像生成部を構成する。
提示画像生成部36Cは、シミュレーション画像70に、さらに接触シンボル60を含む触覚画像58および動作指示アイコン65を含む動作指示画像66を重ね合わせた動作指示表示シミュレーション画像71を生成する。動作指示表示シミュレーション画像71が、提示画像50としてヘッドマウントディスプレイ4に表示される。
動作を説明する。図17は、実施の形態4に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する手順を説明するフローチャートである。実施の形態3の場合の図15と異なる点を説明する。
ステップS01Cで、環境構造データ88も構造データ記憶部32Cに記憶させる。
制御信号が人型ロボット1に送信されるS04の前に、シミュレーションかどうかをチェックするステップS13を追加する。シミュレーションでない場合(S13でNO)は、S04からS06Bが実行される。
シミュレーションである場合(S13でYES)は、ステップS14で、動作指示データ54Bがシミュレーション部47に入力される。ステップS15で、シミュレーション部47が、動作指示データ54Bにより指示される動作を人型ロボット1がとるようにシミュレーションする。そして、シミュレーションの結果として、姿勢データ52C、触覚データ53Cおよび撮影条件データ55Cを生成して出力する。ステップS16で、モデル画像生成部34Cが、シミュレーション部47が出力する姿勢データ52Cおよび撮影条件データ55Cからモデル画像57を生成し、周囲環境画像生成部48が周囲環境画像69を生成する。
ステップS17で、モデル画像57、周囲環境画像69、姿勢データ52C、触覚データ53C、撮影条件データ55Cおよび動作指示データ54Bから、提示画像生成部36Cが動作指示表示シミュレーション画像71を生成する。動作指示表示シミュレーション画像71は、提示画像50としてオペレータ30に提示される。動作指示表示シミュレーション画像71が、提示画像50としてヘッドマウントディスプレイ4に表示される。S17の後は、ステップS07が実行される。
シミュレーション部47を備えることで、人型ロボット1の操作の練習をオペレータ30がより手軽に実施できるようになる。そのため、オペレータ30が人型ロボット1を遠隔制御する技能を、シミュレーション部47が無い場合よりもより短期間で効率的に習得できる。
制御装置が周囲環境画像生成部を備えず、シミュレーション画像を生成するシミュレーション画像生成部を備えるようにしてもよい。図18と図19を参照して、シミュレーション画像生成部を備える実施の形態4の変形例を説明する。図18は、実施の形態4に係る遠隔制御マニピュレータシステムの変形例の機能構成を説明するブロック図である。図19は、実施の形態4に係る遠隔制御マニピュレータシステムの変形例で人型ロボットを遠隔制御する手順を説明するフローチャートである。
変形例の遠隔制御マニピュレータシステム100Dを構成する制御装置3Dは、制御装置3Cに対して、周囲環境画像生成部48の替わりにシミュレーション画像生成部48Dを有する。状態データ記憶部33Dと提示画像生成部36Dを変更している。制御装置3Dは、モデル画像生成部34Cではなく、モデル画像生成部34を有する。モデル画像生成部34は、人型ロボット1を遠隔制御する場合だけ動作し、シミュレーション時には動作しない。
状態データ記憶部33Dは、周囲環境画像69を記憶しない。シミュレーション画像生成部48Dは、3次元モデル56Cを生成し、3次元モデル56Cからシミュレーション画像70を生成する。シミュレーション画像生成部48Dは、3次元モデル56Cから現場カメラ2からの人型ロボット1および周囲環境の距離を求め、距離が近い方を表示するようにシミュレーション画像70を生成する。ただし、人型ロボット1よりも近い位置に物体20などが存在する画素では、マニピュレータ画像59と周囲環境の画像の両方が表示されるように、シミュレーション画像70を生成する。シミュレーション画像生成部48Dは、マニピュレータ画像59を周囲環境よりも優先して表示するシミュレーション画像70を生成する。
提示画像生成部36Cは、シミュレーション画像70に、接触シンボル60を含む触覚画像58および動作指示アイコン65を含む動作指示画像66を重ね合わせた動作指示表示シミュレーション画像71を生成する。動作指示表示シミュレーション画像71が、提示画像50としてヘッドマウントディスプレイ4に表示される。
図19と図17の異なる点を説明する。ステップS16Dで、シミュレーション画像生成部48Dがシミュレーション画像70を生成する。ステップS17Dで、シミュレーション画像70、姿勢データ52C、触覚データ53C、撮影条件データ55Cおよび動作指示データ54Bから、提示画像生成部36Cが動作指示表示シミュレーション画像71を生成する。
シミュレーション画像生成部は、モデル画像と周囲環境画像を作成して、モデル画像と周囲環境画像を重ね合わせてシミュレーション画像を作成してもよい。シミュレーション部が出力する姿勢データおよび構造データ記憶部を参照してマニピュレータのモデルおよび周囲環境をカメラの位置から見る画像であるシミュレーション画像を生成するものであれば、シミュレーション画像生成部はどのようなものでもよい。
シミュレーション部は、触覚センサの模擬まではせず、触覚データを出力しないようにしてもよい。触覚センサの模擬はするが、動作指示画像を生成しないようなシミュレーション部でもよい。触覚センサを有しない人型ロボットを制御する制御装置や、動作指示画像生成部を有しない制御装置が、シミュレーション部を備えるようにしてもよい。
実施の形5.
実施の形態5は、オペレータが外骨格型の動作指示入力装置を装着し、動作指示が不適切な場合に、動作指示入力装置がオペレータの動きを妨げる力を発生させるように実施の形態3を変更した場合である。図20は、この発明の実施の形態5に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。実施の形態3の場合の図13と異なる点を説明する。
オペレータ30は、外骨格型の動作指示入力装置90を装着する。図21は、実施の形態5に係る遠隔制御マニピュレータシステムが有する外骨格型の動作指示入力装置の構造を説明する図である。動作指示入力装置90は、肩連結フレーム91と、肩装着バンド92と、左右の肩関節計測部93と、左右の上腕フレーム94と、左右の肘関節計測部95と、左右の前腕フレーム96と、手首装着バンド97とを有する。肩連結フレーム91は、両肩の位置を結ぶフレームである。肩装着バンド92は、肩連結フレーム91をオペレータ30の左右の肩付近に装着する。手首装着バンド97は、オペレータの左右の手首に前腕フレーム96を装着する。肩連結フレーム91、上腕フレーム94および前腕フレーム96の長さは、オペレータ30の体格に合わせて調整可能である。動作指示入力装置は、内骨格型のものでもよい。
肩関節計測部93は、通常時はオペレータ30の動作を妨げず、上腕フレーム94が肩連結フレーム91との間でなす角度を計測する。上腕フレーム94が肩連結フレーム91との間でなす角度として、前後方向の回転および左右方向の回転の2つの角度を、肩関節計測部93は計測する。肘関節計測部95は、前腕フレーム96が上腕フレーム94との間でなす角度を、2自由度の回転角度として計測する。
オペレータ30が入力する動作指示にしたがって人型ロボット1の肩関節部12Aまたは肘関節部12Bが動けない場合は、動作指示にしたがって動けない、すなわち動作指示が不実行になる部位である肩関節部12Aまたは肘関節部12Bで、オペレータ30の動作を妨げる力(抵抗力と呼ぶ)を発生させる。肩関節計測部93および肘関節計測部95は、抵抗力を発生させる動作抑制力発生部でもある。動作指示にしたがって人型ロボット1が動けない場合の例は、人型ロボット1が動ける速度を超える速さでオペレータ30が動く場合などである。抵抗力は、電磁ソレノイド、電気粘性流体、電気ブレーキなどにより発生させる。関節部以外にも姿勢データを定義する場合は、その姿勢データに対応する部位で抵抗力を発生させるようにしてもよい。
動作指示データ生成部37Eは、人型ロボット1の左右の肩関節部12A、肘関節部12Bに関しては、左右の肩関節計測部93および肘関節計測部95が計測する角度から動作指示データ54Bを生成する。肩関節部12A、肘関節部12B以外に関しては、動作指示データ生成部37Eは動作指示入力画像63A、63Bから動作指示データ54Bを生成する。
なお、人型ロボット1はアクチュエータ13の伸縮により関節部12の角度を変更する。アクチュエータ13の配置は人間の筋肉と同様にしており、肩関節部12Aおよび肘関節部12Bは、2回転自由度である。肩関節計測部93および肘関節計測部95は、計測した回転角度を人型ロボット1の肩関節部12Aおよび肘関節部12Bがとるべき回転角度として出力する。
遠隔制御マニピュレータシステム100Eを構成する制御装置3Eは、動作抑制力制御部49を有する。動作抑制力制御部49は、人型ロボット1の左右の肩関節部12A、肘関節部12Bに関して指示実行結果データ67が不実行である場合は、対応する肩関節計測部93または肘関節計測部95に対して、抵抗力を発生するように制御する。抵抗力の大きさは、動作指示データ54Bと動作遅延時間後の姿勢データ52との差の大きさに応じて変化させる。なお、動作抑制力制御部49が抵抗力を発生する制御信号を送る肩関節計測部93または肘関節計測部95は、動作指示アイコン65がマニピュレータ画像59と離れて表示されることになる関節部12に対応するものである。
構造データ記憶部32Eには、動作指示入力装置90の構造を定義する動作指示入力装置構造データ89も記憶される。動作指示入力装置構造データ89には、指示実行結果データ67のそれぞれに対して、対応する動作指示入力装置90の関節計測部(動作抑制力発生部)を定義する。
動作を説明する。図22は、実施の形態5に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する手順を説明するフローチャートである。実施の形態3の場合の図15と異なる点を説明する。
ステップS01Eで、動作指示入力装置構造データ89も構造データ記憶部32Eに記憶させる。
動作指示表示撮影画像68を提示画像50として生成するS06Bと並行して、ステップS21およびステップS22が実行される。S21では、肩関節部12Aおよび肘関節部12Bに関して、不実行な指示実行結果データ67が存在するかどうかをチェックする。存在する場合(S21でYES)の場合は、S22で不実行な指示実行結果データ67に対応する姿勢データ52に関係する関節計測部で抵抗力を発生させる。
図23は、実施の形態5に係る遠隔制御マニピュレータシステムで人型ロボットを遠隔制御する際に抵抗力が発生している状態を示す図である。図23は、オペレータ30が肘関節を速く曲げすぎている場合を示している。提示画像50において、前腕および手の動作指示アイコン65が、人型ロボット1から離れた位置に表示される。同時に、肘関節計測部95が抵抗力を発生させる。抵抗力が発生することで、オペレータ30は滑らかに動いていた肘関節の動きが妨げられることを感じる。
ステップS07Eで、オペレータ30が提示画像50を見ると同時に抵抗力が発生している場合には抵抗力を感じて、次にとる動作を決める。あるいは、作業の終了指示を入力する。
オペレータ30が入力する動作指示が視覚的に表示されるだけでなく、肩関節と肘関節に関しては、入力した動作指示が不適切な場合には、動作抑制力発生部が発生する抵抗力により不適切な動作指示であることを認識できる。そのため、オペレータ30が遠隔制御する人型ロボット1あるいはマニピュレータの特性を効率的に学習することができる。
人型ロボット1の手首関節部12Cおよび手部11Dの各指関節部でも、抵抗力を発生させる動作抑制力発生部として兼用される動作指示入力装置を備えるようにしてもよい。少なくとも一部の動作指示を入力する動作指示入力装置を、動作抑制力発生部として兼用される動作指示入力装置にしてもよい。オペレータ30が、動作指示入力装置としては使用しない動作抑制力発生装置(動作抑制力発生部)を装着するようにしてもよい。
動作指示が不適切な場合にオペレータの動作を妨げる抵抗力を発生させることもできるシミュレーション部を備えるようにしてもよい。
本発明はその発明の精神の範囲内において各実施の形態の自由な組み合わせ、あるいは各実施の形態の変形や省略が可能である。
100、100A、100B、100C、100D、100E:遠隔制御マニピュレータシステム
1:人型ロボット(マニピュレータ)
2:現場カメラ(カメラ)
3、3A、3B、3C、3D、3E:制御装置
4:ヘッドマウントディスプレイ(表示装置)
5:ヘッドホン(音発生部)
6A、6B:指示読取カメラ(動作指示入力部)
7:触覚センサ
8:通信回線
9:姿勢センサ
10:LAN
11:骨格部
11A:胴体部
11B:上腕部
11C:前腕部
11D:手部
11E:頭部
12:関節部
12A:肩関節部
12B:肘関節部
12C:手首関節部
12D:首関節部
13:アクチュエータ
14:制御部
15:通信部
16:記憶部

20:物体
30:オペレータ(操作者)
21:CPU(Central processing unit)
22:メモリ部

31:通信部
32、32B、32C、32E:構造データ記憶部
33、33B、33C、33D:状態データ記憶部
34:モデル画像生成部
34C:モデル画像生成部(シミュレーション画像生成部)
35:触覚画像生成部
36、36B、36D:提示画像生成部
36C:提示画像生成部(シミュレーション画像生成部)
37、37B、37E:動作指示データ生成部(動作指示入力部)
38:制御信号生成部
39:特徴点抽出部
40:画像制約条件生成部
41:姿勢決定部
42:指示データ変換部
43:接触音生成部(音制御部)
44:動作指示画像生成部
45:指示実行結果検出部
46:動作力速度検知部
47:シミュレーション部
48:周囲環境画像生成部(シミュレーション画像生成部)
48D:シミュレーション画像生成部
49:動作抑制力制御部

50、50B、50C:提示画像
51:撮影画像
52、52C:姿勢データ
53、53C:触覚データ
54、54B:動作指示データ
55、55C:撮影条件データ
56:3次元モデル
57:モデル画像
58:触覚画像
59:マニピュレータ画像
60:接触シンボル
61:モデル表示撮影画像
62:触覚表示撮影画像
63A、63B:動作指示入力画像
64:操作者姿勢データ
65:動作指示アイコン
66:動作指示画像
67:指示実行結果データ
68:動作指示表示撮影画像
69:周囲環境画像
70:シミュレーション画像
71:動作指示表示シミュレーション画像

81、81C:ロボット構造データ(マニピュレータ構造データ)
82:カメラ構造データ
83:触覚センサ構造データ
84:読取カメラ構造データ
85:操作者体格データ
86:動作指示表示要素
87:力速度換算係数
88:環境構造データ
89:動作指示入力装置構造データ

90:動作指示入力装置(動作指示入力部、動作抑制力発生部)
91:肩連結フレーム
92:肩装着バンド
93:肩関節計測部
94:上腕フレーム
95:肘関節計測部
96:前腕フレーム
97:手首装着バンド

Claims (20)

  1. 操作者により遠隔制御されて物体を扱うマニピュレータと、
    前記マニピュレータが含まれる撮影画像を撮影するカメラと、
    前記マニピュレータの位置および姿勢を表す姿勢データを検出する姿勢センサと、
    前記マニピュレータが動くまたは静止する動作を指示する動作指示を前記操作者が入力する動作指示入力部と、
    前記動作指示から前記マニピュレータを制御する制御信号を生成する制御信号生成部、前記マニピュレータの構造を表すマニピュレータ構造データを記憶する構造データ記憶部、前記カメラの位置から見る前記マニピュレータのモデルの画像であるモデル画像を前記マニピュレータ構造データおよび前記姿勢データを参照して生成するモデル画像生成部、前記モデル画像と前記撮影画像とを重ね合わせて前記操作者に提示する提示画像を生成する提示画像生成部を有する制御装置と、
    前記提示画像を表示する表示装置とを備え
    前記提示画像生成部は、前記モデル画像で前記マニピュレータが表示されている画素であって、かつ前記撮影画像において前記マニピュレータが撮影されていない画素に前記モデル画像を表示し、その他の画素では前記モデルを表示しないように前記モデル画像と前記撮影画像とを重ね合わせて前記提示画像を生成する、遠隔制御マニピュレータシステム。
  2. 操作者により遠隔制御されて物体を扱うマニピュレータと、
    前記マニピュレータが含まれる撮影画像を撮影するカメラと、
    前記マニピュレータの位置および姿勢を表す姿勢データを検出する姿勢センサと、
    前記マニピュレータが動くまたは静止する動作を指示する動作指示を前記操作者が入力する動作指示入力部と、
    前記動作指示から前記マニピュレータを制御する制御信号を生成する制御信号生成部、前記マニピュレータの構造を表すマニピュレータ構造データを記憶する構造データ記憶部、前記カメラの位置から見る前記マニピュレータのモデルの画像であるモデル画像を前記マニピュレータ構造データおよび前記姿勢データを参照して生成するモデル画像生成部、前記モデル画像と前記撮影画像とを重ね合わせて前記操作者に提示する提示画像を生成する提示画像生成部を有する制御装置と、
    前記提示画像を表示する表示装置と、
    前記マニピュレータが前記物体と接触しているか接触していないかを表す触覚データを検出する触覚センサとを備え、
    前記構造データ記憶部は、前記触覚センサの構造を表す触覚センサ構造データを記憶し、
    前記制御装置は、前記触覚センサ構造データおよび前記触覚データを参照して前記触覚センサが前記物体と接触していることを表す接触シンボルを含む触覚画像を生成する触覚画像生成部をさらに有し、
    前記提示画像生成部は、前記触覚画像も重ね合わせて前記提示画像を生成する、遠隔制御マニピュレータシステム。
  3. 前記触覚センサは、前記マニピュレータと前記物体の間に働く接触力を含む前記触覚データを検出し、
    前記触覚画像生成部は、前記接触力の大きさに応じて前記接触シンボルを変化させて前記触覚画像を生成する、請求項2に記載の遠隔制御マニピュレータシステム。
  4. 前記操作者に聞こえる音を発生させる音発生部をさらに備え、
    前記制御装置は、前記触覚データに応じて前記音発生部を制御して音を発生させる音制御部をさらに有する、請求項2または請求項3に記載の遠隔制御マニピュレータシステム。
  5. 前記制御装置は、前記姿勢データが前記動作指示にしたがっているか否かを検出する指示実行結果検出部、前記指示実行結果検出部が前記動作指示にしたがっていないと検出する前記姿勢データである指示不実行姿勢データが存在する場合に、前記動作指示にしたがう動作を表す動作指示アイコンが含まれる動作指示画像を生成する動作指示画像生成部をさらに有し、
    前記提示画像生成部は、前記動作指示画像も重ね合わせて前記提示画像を生成する、請求項1から請求項4までの何れか1項に記載の遠隔制御マニピュレータシステム。
  6. 前記操作者が装着し、前記操作者の動作を妨げる抵抗力を発生させる動作抑制力発生部をさらに備え、
    前記制御装置は、前記指示不実行姿勢データが存在することを前記指示実行結果検出部が検出する場合に、前記指示不実行姿勢データに対応する部位で前記動作抑制力発生部が前記抵抗力を発生するように制御する動作抑制力制御部をさらに有する、請求項5に記載の遠隔制御マニピュレータシステム。
  7. 前記動作抑制力発生部は、少なくとも一部の前記動作指示を前記操作者が入力する前記動作指示入力部と兼用され、
    前記制御信号生成部は、前記動作抑制力発生部と兼用される前記動作指示入力部から入力される前記動作指示も使用して前記制御信号を生成する、請求項6に記載の遠隔制御マニピュレータシステム。
  8. 前記マニピュレータは、発生する力またはトルク、移動速度、回転角速度の中の少なくとも1つに関して制限値を有し、前記マニピュレータは前記制限値を超えないように動作し、
    前記制限値が関係する前記姿勢データである制限値付き姿勢データが前記制限値を超えることになる前記動作指示が入力される場合に、前記制限値のために前記動作指示にしたがう動作ができない前記制限値付き姿勢データを前記指示実行結果検出部が前記指示不実行姿勢データとして検出する、請求項5から請求項7の何れか1項に記載の遠隔制御マニピュレータシステム。
  9. 少なくとも一部の前記制限値が変更可能である、請求項8に記載の遠隔制御マニピュレータシステム。
  10. 前記動作指示には指示動作力が含まれ、前記マニピュレータは前記指示動作力以下の力を発生させる、請求項1から請求項9の何れか1項に記載の遠隔制御マニピュレータシステム。
  11. 前記構造データ記憶部は、前記マニピュレータが存在する、前記物体を含む周囲環境に関する構造データである環境構造データを記憶し、
    前記制御装置は、前記構造データ記憶部を参照して前記動作指示に対する前記マニピュレータの動きを模擬して前記姿勢データを出力するシミュレーション部、前記シミュレーション部が出力する前記姿勢データおよび前記構造データ記憶部を参照して前記マニピュレータのモデルおよび前記周囲環境を前記カメラの位置から見る画像であるシミュレーション画像を生成するシミュレーション画像生成部を有し、
    前記提示画像生成部は、前記シミュレーション画像を用いて前記提示画像を生成する、請求項1から請求項10の何れか1項に記載の遠隔制御マニピュレータシステム。
  12. 操作者が動作指示入力部により入力する動作指示が入力されて、物体を扱うマニピュレータを制御する制御信号を生成する制御信号生成部と、
    前記マニピュレータの構造を表すマニピュレータ構造データを記憶する構造データ記憶部と、
    姿勢センサが検出する前記マニピュレータの位置および姿勢を表す姿勢データと、カメラが撮影する前記マニピュレータが含まれる撮影画像とが入力され、前記姿勢データおよび前記構造データ記憶部を参照して前記カメラの位置から見る前記マニピュレータのモデルの画像であるモデル画像を生成するモデル画像生成部と、
    前記モデル画像と前記撮影画像とを重ね合わせて前記操作者に提示する提示画像を生成する提示画像生成部とを備え
    前記提示画像生成部は、前記モデル画像で前記マニピュレータが表示されている画素であって、かつ前記撮影画像において前記マニピュレータが撮影されていない画素に前記モデル画像を表示し、その他の画素では前記モデルを表示しないように前記モデル画像と前記撮影画像とを重ね合わせて前記提示画像を生成する、制御装置。
  13. 操作者が動作指示入力部により入力する動作指示が入力されて、物体を扱うマニピュレータを制御する制御信号を生成する制御信号生成部と、
    前記マニピュレータの構造を表すマニピュレータ構造データを記憶する構造データ記憶部と、
    姿勢センサが検出する前記マニピュレータの位置および姿勢を表す姿勢データと、カメラが撮影する前記マニピュレータが含まれる撮影画像とが入力され、前記姿勢データおよび前記構造データ記憶部を参照して前記カメラの位置から見る前記マニピュレータのモデルの画像であるモデル画像を生成するモデル画像生成部と、
    前記モデル画像と前記撮影画像とを重ね合わせて前記操作者に提示する提示画像を生成する提示画像生成部とを備え、
    前記マニピュレータが前記物体と接触しているか接触していないかを表す触覚データを検出する触覚センサから前記触覚データが入力され、
    前記構造データ記憶部は、前記触覚センサの構造を表す触覚センサ構造データを記憶し、
    前記触覚センサ構造データおよび前記触覚データを参照して前記触覚センサが前記物体と接触していることを表す接触シンボルを含む触覚画像を生成する触覚画像生成部をさらに備え、
    前記提示画像生成部は、前記触覚画像も重ね合わせて前記提示画像を生成する、制御装置。
  14. 前記触覚データには、前記マニピュレータと前記物体の間に働く接触力が含まれ、
    前記触覚画像生成部は、前記接触力の大きさに応じて前記接触シンボルを変化させて前記触覚画像を生成する、請求項13に記載の制御装置。
  15. 前記操作者に聞こえる音を発生させる音発生部を前記触覚データに応じて制御して音を発生させる音制御部をさらに備えた、請求項13または請求項14に記載の制御装置。
  16. 前記姿勢データが前記動作指示にしたがっているか否かを検出する指示実行結果検出部と、
    前記指示実行結果検出部が前記動作指示にしたがっていないと検出する前記姿勢データである指示不実行姿勢データが存在する場合に、前記動作指示にしたがう動作を表す動作指示アイコンが含まれる動作指示画像を生成する動作指示画像生成部とをさらに備え、
    前記提示画像生成部は、前記動作指示画像も重ね合わせて前記提示画像を生成する、請求項12から請求項15の何れか1項に記載の制御装置。
  17. 前記指示不実行姿勢データが存在することを前記指示実行結果検出部が検出する場合に、前記操作者が装着し、前記操作者の動作を妨げる抵抗力を発生させる動作抑制力発生部の前記指示不実行姿勢データに対応する部位で、前記動作抑制力発生部が前記抵抗力を発生するように制御する動作抑制力制御部をさらに備えた、請求項16に記載の制御装置。
  18. 前記動作抑制力発生部は、少なくとも一部の前記動作指示を前記操作者が入力する前記動作指示入力部と兼用され、
    前記制御信号生成部は、前記動作抑制力発生部と兼用される前記動作指示入力部から入力される前記動作指示も使用して前記制御信号を生成する、請求項17に記載の制御装置。
  19. 前記マニピュレータは、発生する力またはトルク、移動速度、回転角速度の中の少なくとも1つに関して制限値を有し、前記マニピュレータは前記制限値を超えないように動作し、
    前記制限値が関係する前記姿勢データである制限値付き姿勢データが前記制限値を超えることになる前記動作指示が入力される場合に、その前記姿勢データが前記制限値のために前記動作指示にしたがうことができない前記制限値付き姿勢データを前記指示実行結果検出部が前記指示不実行姿勢データとして検出する、請求項16から請求項18の何れか1項に記載の制御装置。
  20. 前記構造データ記憶部は、前記マニピュレータが存在する、前記物体を含む周囲環境に関する構造データである環境構造データを記憶し、
    前記構造データ記憶部を参照して前記動作指示に対する前記マニピュレータの動きを模擬するシミュレーション部、前記シミュレーション部が出力する前記姿勢データを使用し前記構造データ記憶部を参照して前記マニピュレータのモデルおよび前記周囲環境を前記カメラから見る画像であるシミュレーション画像を生成するシミュレーション画像生成部をさらに備え、
    前記提示画像生成部は、前記シミュレーション画像を用いて前記提示画像を生成する、請求項12から請求項19の何れか1項に記載の制御装置。
JP2019543735A 2017-09-22 2018-09-21 遠隔制御マニピュレータシステムおよび制御装置 Active JP6678832B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017182817 2017-09-22
JP2017182817 2017-09-22
PCT/JP2018/035146 WO2019059364A1 (ja) 2017-09-22 2018-09-21 遠隔制御マニピュレータシステムおよび制御装置

Publications (2)

Publication Number Publication Date
JPWO2019059364A1 JPWO2019059364A1 (ja) 2020-01-16
JP6678832B2 true JP6678832B2 (ja) 2020-04-08

Family

ID=65811360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019543735A Active JP6678832B2 (ja) 2017-09-22 2018-09-21 遠隔制御マニピュレータシステムおよび制御装置

Country Status (3)

Country Link
US (1) US11498216B2 (ja)
JP (1) JP6678832B2 (ja)
WO (1) WO2019059364A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102722388B1 (ko) * 2022-07-26 2024-10-25 선문대학교 산학협력단 원격 조정 로봇 시스템

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6861604B2 (ja) * 2017-10-02 2021-04-21 株式会社オカムラ 管理システム及び制御方法
JP6885909B2 (ja) * 2018-10-12 2021-06-16 ファナック株式会社 ロボット制御装置
JP6867654B2 (ja) * 2019-03-15 2021-05-12 リバーフィールド株式会社 医用ロボットシステムの力覚表示装置および力覚表示方法
KR102335926B1 (ko) * 2019-10-10 2021-12-03 한국기술교육대학교 산학협력단 휴머노이드 로봇 제어 시스템 및 방법
WO2021138577A1 (en) * 2019-12-31 2021-07-08 Human Mode, LLC Proxy controller suit with optional dual range kinematics
CN111702778B (zh) * 2020-06-16 2022-01-04 大连理工大学 一种实现使用者的坐卧姿转换和搬运的多臂机器人
JP7224559B2 (ja) * 2020-12-10 2023-02-17 三菱電機株式会社 遠隔制御マニピュレータシステムおよび遠隔制御支援システム
JP7542481B2 (ja) 2021-03-31 2024-08-30 本田技研工業株式会社 制御装置、ロボットシステム、制御方法、および、プログラム
CN115139292B (zh) * 2021-03-31 2024-08-20 腾讯科技(深圳)有限公司 具有手感增强的机器手遥控方法、系统、设备及介质
US20240149458A1 (en) * 2021-03-31 2024-05-09 Honda Motor Co., Ltd. Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program
EP4357085A4 (en) * 2021-06-15 2024-10-16 Sony Group Corp INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, PROGRAM AND INFORMATION PROCESSING SYSTEM
EP4368351A4 (en) * 2021-07-07 2024-08-21 Mitsubishi Electric Corp REMOTE OPERATING SYSTEM
CN113907788B (zh) * 2021-10-14 2023-07-14 合肥合滨智能机器人有限公司 一种用于远程超声检查的便携式遥操作手持装置
WO2024116333A1 (ja) * 2022-11-30 2024-06-06 三菱電機株式会社 情報処理装置、制御方法、及び制御プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0833706B2 (ja) 1987-10-09 1996-03-29 富士通株式会社 宇宙用ロボット操縦訓練システム
JPH06195127A (ja) 1992-12-22 1994-07-15 Agency Of Ind Science & Technol マニピュレータのハイブリッド遠隔制御装置
JPH08132372A (ja) * 1994-11-08 1996-05-28 Toshiba Corp ロボットの制御方法
JP3598507B2 (ja) * 2002-06-12 2004-12-08 独立行政法人 科学技術振興機構 歩行式移動装置及びその歩行制御装置及び歩行制御方法
US9718190B2 (en) * 2006-06-29 2017-08-01 Intuitive Surgical Operations, Inc. Tool position and identification indicator displayed in a boundary area of a computer display screen
JP2009066683A (ja) 2007-09-11 2009-04-02 Sony Corp ロボットハンド及び制御方法、並びにプログラム
JP4835616B2 (ja) * 2008-03-10 2011-12-14 トヨタ自動車株式会社 動作教示システム及び動作教示方法
US9179832B2 (en) * 2008-06-27 2015-11-10 Intuitive Surgical Operations, Inc. Medical robotic system with image referenced camera control using partitionable orientational and translational modes
US8594841B2 (en) * 2008-12-31 2013-11-26 Intuitive Surgical Operations, Inc. Visual force feedback in a minimally invasive surgical procedure
US8374723B2 (en) * 2008-12-31 2013-02-12 Intuitive Surgical Operations, Inc. Obtaining force information in a minimally invasive surgical procedure
JP5505138B2 (ja) * 2010-07-05 2014-05-28 株式会社安川電機 ロボット装置およびロボット装置による把持方法
JP2014079824A (ja) * 2012-10-15 2014-05-08 Toshiba Corp 作業画面表示方法および作業画面表示装置
EP3125809B1 (en) * 2014-03-28 2020-09-09 Intuitive Surgical Operations, Inc. Surgical system with haptic feedback based upon quantitative three-dimensional imaging
US9687982B1 (en) * 2015-05-27 2017-06-27 X Development Llc Adapting programming of a robot and/or control of the robot based on one or more parameters of an end effector of the robot
JP2020518326A (ja) * 2017-04-18 2020-06-25 インテュイティブ サージカル オペレーションズ, インコーポレイテッド 画像誘導処置を監視するためのグラフィカル・ユーザインターフェイス

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102722388B1 (ko) * 2022-07-26 2024-10-25 선문대학교 산학협력단 원격 조정 로봇 시스템

Also Published As

Publication number Publication date
JPWO2019059364A1 (ja) 2020-01-16
US20200215691A1 (en) 2020-07-09
WO2019059364A1 (ja) 2019-03-28
US11498216B2 (en) 2022-11-15

Similar Documents

Publication Publication Date Title
JP6678832B2 (ja) 遠隔制御マニピュレータシステムおよび制御装置
CN108430375B (zh) 机器人系统以及反向驱动该系统的方法
Liu et al. High-fidelity grasping in virtual reality using a glove-based system
JP5512048B2 (ja) ロボットアームの制御装置及び制御方法、ロボット、制御プログラム、並びに、集積電子回路
US20200249654A1 (en) Robotic control via a virtual world simulation
JP4463120B2 (ja) 身まねロボットシステムとその身まね動作制御方法
CN110549353B (zh) 力觉视觉化装置、机器人以及存储力觉视觉化程序的计算机可读介质
Maurice Virtual ergonomics for the design of collaborative robots
RU187548U1 (ru) Перчатка виртуальной реальности
RU179301U1 (ru) Перчатка виртуальной реальности
US11422625B2 (en) Proxy controller suit with optional dual range kinematics
JP3742879B2 (ja) ロボットアーム・ハンド操作制御方法、ロボットアーム・ハンド操作制御システム
JP4997419B2 (ja) ロボット用動作変換システム
JP7172399B2 (ja) 制御装置、ロボット、制御方法及びプログラム
RU2670649C9 (ru) Способ изготовления перчатки виртуальной реальности (варианты)
JP2004178222A (ja) 組立性評価方法及びそれを用いた組立性評価支援装置
JP2015134384A (ja) 遠隔操縦装置、及び遠隔操縦システム
RU2673406C1 (ru) Способ изготовления перчатки виртуальной реальности
JP7535968B2 (ja) ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム
Otis et al. Cartesian control of a cable-driven haptic mechanism
Grzejszczak et al. Selection of methods for intuitive, haptic control of the underwater vehicle’s manipulator
Odashima et al. Immersion type virtual environment for human-robot interaction
JP7248271B2 (ja) 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム
JP2015153387A (ja) 仮想現実体感装置、仮想現実体感方法、及びプログラム
JP6628275B2 (ja) 筋感覚測定評価装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190906

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190906

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20191008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191015

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200317

R150 Certificate of patent or registration of utility model

Ref document number: 6678832

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250