JP7224559B2 - 遠隔制御マニピュレータシステムおよび遠隔制御支援システム - Google Patents

遠隔制御マニピュレータシステムおよび遠隔制御支援システム Download PDF

Info

Publication number
JP7224559B2
JP7224559B2 JP2022568347A JP2022568347A JP7224559B2 JP 7224559 B2 JP7224559 B2 JP 7224559B2 JP 2022568347 A JP2022568347 A JP 2022568347A JP 2022568347 A JP2022568347 A JP 2022568347A JP 7224559 B2 JP7224559 B2 JP 7224559B2
Authority
JP
Japan
Prior art keywords
model
manipulator
camera
image
surrounding environment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022568347A
Other languages
English (en)
Other versions
JPWO2022124398A5 (ja
JPWO2022124398A1 (ja
Inventor
翔太 楢崎
昇 川口
正樹 平野
宗晴 桑田
勝重 諏訪
俊行 安藤
仁深 尾野
彰裕 藤江
吉孝 神田
亨 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of JPWO2022124398A1 publication Critical patent/JPWO2022124398A1/ja
Application granted granted Critical
Publication of JP7224559B2 publication Critical patent/JP7224559B2/ja
Publication of JPWO2022124398A5 publication Critical patent/JPWO2022124398A5/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1679Programme controls characterised by the tasks executed
    • B25J9/1689Teleoperation
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/06Control stands, e.g. consoles, switchboards
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • H04N13/38Image reproducers using viewer tracking for tracking vertical translational head movements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/398Synchronisation thereof; Control thereof
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40195Tele-operation, computer assisted manual operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40264Human like, type robot arm
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/61Scene description
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Manipulator (AREA)

Description

本開示は、マニピュレータを遠隔制御する遠隔制御マニピュレータシステムおよびマニピュレータを遠隔制御することを支援する遠隔制御支援システムに関する。
マニピュレータやロボットなどを遠隔操作することを支援する遠隔操作支援装置が提案されている(特許文献1参照)。遠隔操作支援装置は、ロボットが扱う対象物の3次元モデルおよびロボットの3次元モデルを生成し、3次元空間の指定された視点から見たロボットおよび対象物が表示された画像を生成して、操作者に提示する。対象物の3次元モデルは、レーザスキャナ13にて計測された対象物11上の点群データから生成する。ロボットの3次元モデルは、ロボット12の各軸の状態19に基づいてロボット12の動作状態を反映させて生成する。
ロボットやマニピュレータを遠隔制御するために、オペレータが頭に両目を覆うように装着する表示装置であるヘッドマウントディスプレイ(Head Mount Display、HMD)を装着するシステムがある(特許文献2参照)。
特開2009-006410 WO2019/059364
ロボットにはカメラや各種センサが搭載される。カメラが撮影した画像や各種センサが検出したセンサ情報は、ディスプレイに表示される。オペレータは、ディスプレイに表示された画像やセンサ情報を確認しながらロボットを操作する。遠近も認識できる立体視画像(3D画像とも呼ぶ)をオペレータが容易に見ることができるように、オペレータはHMDを装着する。オペレータがHMDを頭部に装着する場合には、オペレータが見ることができる情報がHMDを介して提供される情報に限定されるという課題がある。
例えば、ロボットに搭載されたカメラの視野の画像(以下、ロボット視野画像と呼ぶ)を立体視させる場合に、オペレータがHMDを装着する場合には、以下のような課題がある。オペレータの顔の向きによらず常にロボット視野画像を表示すると、ロボット視野画像以外の情報(ロボットの位置情報や姿勢情報、周囲の環境情報など、制御参考情報と呼ぶ)を、オペレータが確認することが難しい。HMDに3D画像と制御参考情報を重畳して提供する場合には、制御参考情報の表示サイズや情報量が限定され、3D画像とそれ以外の情報が重畳されているために画像が見づらい。
制御参考情報として、カメラの視点とは異なる視点から見た対象物およびロボットの画像である別視点画像をHMDに表示する場合を考える。HMDにロボット視野画像または別視点画像の何れを表示するかを、オペレータが入力する必要があり、オペレータに負担になる。表示システムとしても、オペレータが入力する表示画像の切替指示に対応できる必要があり、システムが複雑になる。
本開示は、マニピュレータが扱う物体を立体的に見る立体視画像と、任意の視点から周囲環境およびマニピュレータを見るモデル画像とを操作者が頭を移動させることで容易に切り替えて見ることができる遠隔制御マニピュレータシステムおよび遠隔制御支援システムを得ることを目的とする。周囲環境とは、マニピュレータが扱う物体および物体の周囲の事物である。
本開示に係る遠隔制御マニピュレータシステムは、操作者により遠隔制御されて物体を扱うマニピュレータと、マニピュレータが動くまたは静止する動作を指示する動作指示を操作者が入力する動作指示入力部と、動作指示からマニピュレータを制御する制御信号を生成する制御信号生成部と、決められた位置関係を有してマニピュレータに搭載された右カメラおよび左カメラと、右カメラが撮影する右目画像および左カメラが撮影する左目画像を立体的に見えるように表示する立体視表示装置と、マニピュレータの位置および姿勢を表す位置姿勢情報を検出する位置姿勢センサと、マニピュレータの構造を表すマニピュレータ構造データ、および右カメラおよび左カメラの構造を表すカメラ構造データを記憶する構造データ記憶部と、マニピュレータ構造データ、カメラ構造データおよび位置姿勢情報を参照して、右カメラおよび左カメラを含むマニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、マニピュレータモデルに含まれる右カメラおよび左カメラの位置と撮影方向に基づき、右目画像および左目画像を画像処理して、物体および物体の周囲の事物である周囲環境の3次元モデルである周囲環境モデルを生成する画像処理モデル生成部と、周囲環境モデルとマニピュレータモデルを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、操作者が指定した視点から統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、モデル画像を表示する、操作者が頭を移動させることで立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えたものである。
本開示に係る遠隔制御支援システムは、操作者により遠隔制御されて物体を扱うマニピュレータに搭載されて決められた位置関係を有する右カメラおよび左カメラが撮影する右目画像および左目画像を立体的に見えるように表示する立体視表示装置と、マニピュレータの構造を表すマニピュレータ構造データ、および右カメラおよび左カメラの構造を表すカメラ構造データを記憶する構造データ記憶部と、マニピュレータ構造データ、カメラ構造データおよびマニピュレータの位置および姿勢を表す位置姿勢情報を参照して、右カメラおよび左カメラを含むマニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、マニピュレータモデルに含まれる右カメラおよび左カメラの位置と撮影方向に基づき、右目画像および左目画像を画像処理して、物体および物体の周囲の事物である周囲環境の3次元モデルである周囲環境モデルを生成する画像処理モデル生成部と、周囲環境モデルとマニピュレータモデルを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、操作者が指定した視点から統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、モデル画像を表示する、操作者が頭を移動させることで立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えたものである。
本開示によれば、マニピュレータが扱う物体を立体的に見る立体視画像と、任意の視点から物体および物体の周囲の事物である周囲環境およびマニピュレータを見るモデル画像とを操作者が頭を移動させることで容易に切り替えて見ることができる。
実施の形態1に係る遠隔制御マニピュレータシステムの概略構成を説明する図である。 実施の形態1に係る遠隔制御マニピュレータシステムの機能構成を示すブロック図である。 実施の形態1に係る遠隔制御マニピュレータシステムで使用されるロボットの斜視図である。 実施の形態1に係る遠隔制御マニピュレータシステムで使用されるロボットのヒューマノイド部の正面図である。 実施の形態1に係る遠隔制御マニピュレータシステムで使用されるロボットのヒューマノイド部の左側面図である。 実施の形態1に係る遠隔制御マニピュレータシステムで使用されるロボットが有する回転軸を説明する図である。 実施の形態1に係る遠隔制御マニピュレータシステムで使用されるロボットの腕部が有する回転軸を説明する図である。 実施の形態1に係る遠隔制御マニピュレータシステムでロボットを遠隔制御する手順を説明するフローチャートである。 実施の形態1に係る遠隔制御マニピュレータシステムで周囲点群データを初期生成する手順を説明するフローチャートである。 実施の形態1に係る遠隔制御マニピュレータシステムでロボットが物体を把持する際に遠隔制御する手順を説明するフローチャートである。 実施の形態2に係る遠隔制御マニピュレータシステムで使用されるロボットのヒューマノイド部の正面図である。 実施の形態2に係る遠隔制御マニピュレータシステムで使用されるロボットのヒューマノイド部の左側面図である。 実施の形態2に係る遠隔制御マニピュレータシステムの機能構成を示すブロック図である。 実施の形態2に係る遠隔制御マニピュレータシステムでロボットを遠隔制御する手順を説明するフローチャートである。 実施の形態2に係る遠隔制御マニピュレータシステムで周囲点群データを初期生成する手順を説明するフローチャートである。 実施の形態2に係る遠隔制御マニピュレータシステムでロボットが物体を把持する際に遠隔制御する手順の前半を説明するフローチャートである。 実施の形態2に係る遠隔制御マニピュレータシステムでロボットが物体を把持する際に遠隔制御する手順の後半を説明するフローチャートである。 実施の形態3に係る遠隔制御マニピュレータシステムの機能構成を示すブロック図である。 実施の形態3に係る遠隔制御マニピュレータシステムでロボットを遠隔制御する手順を説明するフローチャートである。 実施の形態3に係る遠隔制御マニピュレータシステムでロボットが物体を把持する際に遠隔制御する手順の前半を説明するフローチャートである。 実施の形態3に係る遠隔制御マニピュレータシステムでロボットが物体を把持する際に遠隔制御する手順の後半を説明するフローチャートである。 実施の形態4に係る遠隔制御マニピュレータシステムおよび遠隔制御支援システムの機能構成を示すブロック図である。
実施の形態1.
図1および図2を参照して、遠隔制御マニピュレータシステム100の概略構成を説明する。図1は、実施の形態1に係る遠隔制御マニピュレータシステムの概略構成を説明する図である。図2は、実施の形態1に係る遠隔制御マニピュレータシステムの機能構成を示すブロック図である。遠隔制御マニピュレータシステム100は、クローラ移動ロボット1(ロボット1と略す)、右カメラ2R、左カメラ2L、制御装置3、立体視表示装置4、表示装置5、目標姿勢入力装置6を主に有して構成される。ロボット1は、オペレータ30により遠隔制御されて物体20を扱うマニピュレータである。ロボット1が物体20を扱う場所を現場と呼ぶ。オペレータ30が居る場所を指令所と呼ぶ。オペレータ30は、マニピュレータを遠隔制御する操作者である。
右カメラ2Rおよび左カメラ2Lは、ロボット1の頭部に搭載されて画像を撮影する。制御装置3は、ロボット1を制御する。立体視表示装置4は、右カメラ2Rおよび左カメラ2Lで撮影された画像を立体視表示する。立体視表示するとは、立体的に見えるように表示することである。表示装置5は、ロボット1および周囲環境の3次元モデルを任意の視点から見る画像や、ロボット1を制御する上で必要あるいは有用な情報を表示する。周囲環境は、物体20および物体20の周囲の事物である。周囲環境の3次元モデルが、周囲環境モデルである。目標姿勢入力装置6は、オペレータ30がロボット1を操作する際に、操作後の目標となる位置および姿勢を表す目標姿勢を入力する。目標姿勢は、ロボット1が動くまたは静止する動作をオペレータ30が指示する動作指示である。目標姿勢は、動作指示に従う動作を実行後のロボット1の位置および姿勢を表す。目標姿勢目標姿勢入力装置6は、動作指示をオペレータ30が入力する動作指示入力部である。
遠隔制御の対象であるロボットは、図3から図5に示すロボット1である。遠隔制御マニピュレータシステムは、ロボット1とは異なるロボットも遠隔制御することができる。図3は、実施の形態1に係る遠隔制御マニピュレータシステムで使用されるロボットの斜視図である。図4は、実施の形態1に係る遠隔制御マニピュレータシステムで使用されるロボットのヒューマノイド部を拡大した正面図である。図5は、ヒューマノイド部の左側面図である。ロボット1は、車両部1Wと、ヒューマノイド部1Hと、制御部7とを有する。車両部1Wは、クローラ(キャタピラ)を車輪で回転させて移動する車両である。ヒューマノイド部1Hは、車両部1Wの前方上面に搭載される。ヒューマノイド部1Hは、2本の腕部、胴体部および頭部を有する。制御部7は、車両部1Wおよびヒューマノイド部1Hを制御する。図3から図5に示す姿勢をロボット1がとる状態を、ロボット1の基準状態と呼ぶ。
XYZ座標系は、ロボット1が存在する空間を表す直交座標系である。XY平面は水平な平面である。XYZ座標系を現場座標系とも呼ぶ。X軸は東西方向に平行で、Y軸は南北方向に平行である。東をX軸の正の向きとし、北をY軸の正の向きとする。Z軸は、高さ方向の軸である。上方をZ軸の正の向きとする。位置センサ91は、車両部1WのXYZ座標系での位置と姿勢を計測する。車両部1Wの位置は、車両部1Wの重心のXYZ座標系での位置である。車両部1Wの姿勢は、車両部1Wの前方が向く方向である。車両部1Wの姿勢は、ヨー角、ピッチ角およびロール角で表現する。車両部1Wの位置および姿勢を表すデータを、車両姿勢56と呼ぶ。
車両部1Wの姿勢を表現するために、車両部1Wとともに移動する第1の直交座標系(X1Y1Z1座標系)を以下のように定義する。第1の直交座標系は、ヒューマノイド部1Hの車両部1Wに対する姿勢を表現する上でも使用する。車両部1Wの上面をロボット基準面と呼ぶ。
X1軸:車両部1Wの左右方向に平行な軸。
Y1軸:車両部1Wの前後方向に平行な軸。
Z1軸:車両部1Wの高さ方向に平行な軸。
X1軸、Y1軸、Z1軸は、互いに直交する。右方をX1軸の正の向きとし、前方を1軸の正の向きとし、上方をZ1軸の正の向きとする。X1軸およびY1軸は、ロボット基準面に平行である。車両部1Wの姿勢は、X1軸、Y1軸およびZ1軸がXYZ座標系で向く方向により表現する。Y1軸をXY平面に射影した軸(投影Y1軸)とX軸がなす角度が、ヨー角である。投影Y1軸がXY平面となす角度が、ピッチ角である。投影Y1軸およびZ軸を含む平面とZ1軸とがなす角度が、ロール角である。
目標姿勢入力装置6は、ヒューマノイド部1Hを制御するための上体目標姿勢入力部6Hと、車両部1Wを制御するための車両姿勢入力部6Wとを有する。上体目標姿勢入力部6Hは、オペレータ30が手を使用してヒューマノイド部1Hに対する目標姿勢を入力する装置である。車両姿勢入力部6Wは、オペレータ30が足を使用して車両部1Wを操縦する装置である。目標姿勢は、ヒューマノイド部1Hを含むロボット1にとらせる姿勢である。目標姿勢は、ロボット1がとる姿勢の目標となる姿勢として入力される。入力された目標姿勢を表すデータを、目標姿勢54と呼ぶ。オペレータ50は、目標姿勢を入力し、入力した目標姿勢を変更できる。
ヒューマノイド部1Hは、骨格部11が関節部12により回転可能に接続したものである。目標姿勢54は、各関節部12が有する各回転軸の回りの回転角度に対する指令値として表現される。各関節部12が目標姿勢54で指令される角度をとると、ヒューマノイド部1Hは目標姿勢54をとる。長さが変更可能な部分をヒューマノイド部が有する場合には、長さが変更可能な部分の長さに対する指令値も目標姿勢は含む。ヒューマノイド部1Hの構造については、後で説明する。
上体目標姿勢入力部6Hは、各関節部12が有する各回転軸の角度を指定する指令値である目標姿勢54を入力する装置である。上体目標姿勢入力部6Hでは、例えばレバーなどをオペレータ30が操作することで、目標姿勢54を入力する。
車両姿勢入力部6Wをオペレータ30が足で操作することで、車両部1Wの前進、後進、右回転および左回転の指示を入力する。オペレータ30が入力する指示に応じて車両部1Wが移動する。車両部1Wの位置とヨー角が、オペレータ30が意図するものになると、車両姿勢56の入力が完了する。車両部1Wのピッチ角とロール角は、車両部1Wが有するクローラの下に存在する地面や建築物などの形状により決まる。車両部が、ピッチ角およびロール角の少なくとも一方を変更する機構を備えてもよい。その場合には、車両姿勢入力部により、オペレータ30はピッチ角およびロール角の少なくとも一方を変更する機構に対する指令値も入力する。
右カメラ2Rおよび左カメラ2Lは、ロボット1の頭部11Fに搭載される。右カメラ2Rおよび左カメラ2Lは、決められた位置関係を有する。例えば、右カメラ2Rおよび左カメラ2Lは、頭部11Fの正面側の上部の決められた同じ高さの位置に決められた間隔で配置される。右カメラ2Rおよび左カメラ2Lは、ロボット1のハンド部11Eが操作対象である物体20を扱う様子を撮影する。人間が物体20を扱う際に見えるのと同様な画像が撮影できるように、右カメラ2Rおよび左カメラ2Lはロボット1の頭部11Fに搭載する。右カメラ2Rは、右目画像51Rを撮影する。左カメラ2Lは、左目画像51Lを撮影する。右カメラ2Rおよび左カメラ2Lの位置から見える視野を、ロボット視野と呼ぶ。
右目画像51Rおよび左目画像51Lは、立体視表示装置4により立体的に見えるように表示される。立体的に見えるように表示することを立体視表示するという。立体視表示される右目画像51Rおよび左目画像51Lを、3D画像52と呼ぶ。立体視表示装置4は、決められた間隔で配置された2個の接眼レンズを有する。オペレータ30は、右目および左目で立体視表示装置4の接眼レンズの中を覗き込むことで立体視表示されている3D画像52を見ることができる。
立体視表示装置4は、右目画像51Rを表示する右目用スクリーンと、左目画像51Lを表示する左目用スクリーンとを有する。物体20および周囲環境との距離や物体20の大きさなどが、オペレータ30が現場にいる場合に見えるものと同様になるように、右目用スクリーンおよび左目用スクリーンの位置および間隔や接眼レンズなどの光学系は設計されている。つまり、立体視表示装置4における輻輳角は、ロボット1に搭載された2台のカメラである右カメラ2Rおよび左カメラ2Lが持つ輻輳角と同じである。立体視表示装置4により、オペレータ30は自然な立体視画像を見ることができる。そのため、オペレータ30は、物体20に対する正確な奥行き感を把握できる。
立体視表示装置4は、接眼レンズを有さず、液晶シャッタや偏光眼鏡などを使用するものでもよい。立体視表示装置4は、立体視表示するものであればどのようなものでもよい。
表示装置5は、モデル画像53を表示する。モデル画像53は、物体20を含む周囲環境とロボット1の3次元モデルに基づき、ロボット1および周囲環境を任意の視点から見る画像である。モデル画像53の視点は、オペレータ30が入力する情報に基づき決められる。表示装置5には、ロボット1を遠隔制御する上で有用な情報を表示する。ロボット1を遠隔制御する上で有用な情報を、制御参考情報と呼ぶ。表示装置5は、複数個でもよい。
図1に示す例では、オペレータ30が椅子に座り、オペレータ30の頭の前方に箱状の立体視表示装置4を設け、立体視表示装置4の右側上方に表示装置5を設けている。立体視表示装置4および表示装置5の配置は、オペレータ30が頭を移動させることで、どちらかの表示装置を選択して見ることができる位置であればどのような配置でもよい。表示装置5は、大きな画面を有するものや、スクリーンにプロジェクタで投影するものでもよい。表示装置5は、オペレータ30が頭を移動させることで立体視表示装置4と切り替えて見ることができるように配置されていればよい。
オペレータ30は、立体視表示装置4の接眼レンズを覗き込むことで物体20などをロボット視野で立体視できる。オペレータ30は、頭の位置および向きを変化させることで表示装置5にされたモデル画像53を見ることができる。
制御装置3は、ロボット1を遠隔制御する。制御装置3は、CPU21、メモリ部22などを含む電子計算機により実装される。メモリ部22は、CPU21で実行されるプログラムや処理に使用するデータあるいは処理の結果で得られるデータなどを記憶する。メモリ部22は、フラッシュメモリのような半導体メモリおよびハードディスクである。メモリ部22は、揮発性の記憶装置および不揮発性の記憶装置を含む。制御部7も、CPU23、メモリ部24などを含む電子計算機により実装される。
ロボット1と制御装置3は、通信回線8を介して接続されて、互いに通信する。通信回線8により、制御装置3からロボット1を制御する制御信号が送られる。制御信号は、目標姿勢54および制御姿勢55を制御部7に伝える信号である。制御姿勢55は、目標姿勢54で表現される姿勢をロボット1がとる過程でロボット1がとる姿勢を表すデータである。制御姿勢55は、ロボット1を制御する周期において、その周期の終了時点にロボット1がとるべき姿勢を表すデータである。制御姿勢55は、目標姿勢54と同じ形式で表現される。目標姿勢54および制御姿勢55は、制御装置3で周期的に計算されて、計算されるとすぐに制御部7に送られる。ロボット1からは、右目画像51R、左目画像51Lおよびロボット1に搭載されている各種センサが検出したセンサ情報が制御装置3に送られる。右目画像51Rおよび左目画像51Lは、立体視表示装置4にも送られる。
制御部7は、制御装置3と通信するための通信部9を有する。通信回線8は、有線でも無線でもよく、公衆回線でも専用回線でもよい。用途に合わせた通信回線を使用する。ロボット1が物体20を操作する現場と、オペレータ30が居る指令所との間の距離は、任意である。距離は、何千kmも離れていてもよいし、1mでもよい。制御装置3は、指令所がある建物に設置される。制御装置3を、別の建物に設置してもよい。立体視表示装置4、表示装置5、上体目標姿勢入力部6Hおよび車両姿勢入力部6Wと制御装置3との間は、LAN10で接続する。遠隔制御とは、遠隔で機械を制御する方法で制御するという意味である。ロボット1などの機械と制御装置3の実際の距離は、遠隔でなくてもよい。
ヒューマノイド部1Hは、骨格部11、関節部12、アクチュエータ13、モータ14を、主に有して構成される。骨格部11は、ヒューマノイド部1Hの各部を構成する部材である。関節部12は、接続角度を変更可能に骨格部11を接続する。アクチュエータ13およびモータ14は、関節部12を動かす力を発生させる。
骨格部11は、胴体部11A、腕基部11B、上腕部11C、前腕部11D、ハンド部11E、頭部11F、レッグ部11Gおよび胴体接続部11Hの何れかである。上腕部11C、前腕部11Dおよびハンド部11Eは、それぞれ人間の上腕、前腕および手に相当する。ハンド部11Eは、人間の手と同様な形状で5本指である。レッグ部11Gおよび胴体接続部11Hは、人間では下半身に相当する。レッグ部11Gおよび胴体接続部11Hは、車両部1Wと胴体部11Aの間に直列に存在する。レッグ部11Gは、車両部1Wに接続する。胴体接続部11Hは、胴体部11Aおよびレッグ部11Gに接続する。レッグ部11Gおよび胴体接続部11Hが動くと、胴体部11Aの車両部1Wに対する位置および角度が変化する。
腕基部11B、上腕部11C、前腕部11Dおよびハンド部11Eは、腕部11Jを構成する。胴体部11Aの上部の左右に腕基部11Bが接続する。腕基部11B、上腕部11C、前腕部11Dおよびハンド部11Eは、直列に接続する。腕基部11Bにより、腕部11Jが胴体部11Aの側面に垂直な回転軸の回りを回転できる。
関節部12は、肩関節部12A、肘関節部12B、手首関節部12C、首関節部12D、レッグ元関節部12E、レッグ先関節部12Fおよび胴体関節部12Gの何れかである。肩関節部12A、肘関節部12Bおよび手首関節部12Cは、それぞれ人間の肩関節、肘関節および手首関節に相当する。首関節部12Dは、頭部11Fを胴体部11Aに回転可能に接続する。レッグ元関節部12Eとレッグ先関節部12Fは、それぞれレッグ部11Gの根元側と先端側に存在する関節部12である。胴体関節部12Gは、胴体部11Aを胴体接続部11Hに回転可能に接続する。
図6および図7を参照して、関節部12について説明する。図6は、ロボット1が有する回転軸を説明する図である。図6(A)に背面図を示し、図6(B)に左側面図を示す。図7は、腕部11Jが有する回転軸を説明する図である。図7には、左の腕部11Jを示す。図7(A)に右側面図を示し、図7(B)に正面図を示す。
レッグ元関節部12Eは、レッグ部11Gを2回転自由度で回転可能に車両部1Wに接続する。レッグ元関節部12Eは、AZ1軸とEL1軸の回りに回転可能である。AZ1軸とEL1軸は、同一平面上にあり直交する。EL1軸とAZ1軸の交点を、第1の直交座標系の原点とする。EL1軸は、X1Y1平面上に存在する。AZ1軸は、車両部1Wの上面(ロボット基準面)に垂直な回転軸である。ロボット基準面は、X1Y1平面に平行な平面である。AZ1軸は、X1Y1平面に射影したレッグ部11Gが向く方向を変更する回転軸である。AZ1軸は、Z1軸と平行である。EL1軸は、レッグ部11GとX1Y1平面とがなす角度を変更する回転軸である。AZ1軸を方位回転軸とも呼ぶ。EL1軸を仰角回転軸とも呼ぶ。
ヒューマノイド部1Hの姿勢を表現するため、第2の直交座標系(X2Y2Z2座標系)と第3の直交座標系(X3Y3Z3座標系)を定義する。第2の直交座標系は、胴体接続部11Hを基準とする座標系である。第2の直交座標系は、胴体接続部11Hとともに移動する。第3の直交座標系は、胴体部11Aを基準とする座標系である。第3の直交座標系は、胴体部11Aとともに移動する。
レッグ先関節部12Fは、レッグ部11Gの先端に胴体接続部11Hを2回転自由度で回転可能に接続する。レッグ先関節部12Fは、EL2軸とAZ2軸の回りに回転可能である。EL2軸とAZ2軸は直交する。EL2軸は、EL1軸に平行な回転軸である。EL2軸は、胴体接続部11Hがレッグ部11Gとなす角度を変更する。AZ2軸は、胴体接続部11Hを通る回転軸である。胴体接続部11HがAZ2軸の回りに回転すると、胴体接続部11H、胴体部11Aおよび頭部11Fがレッグ部11Gに対して回転する。EL2軸を、胴体傾斜回転軸とも呼ぶ。AZ2軸を胴体接続部回転軸とも呼ぶ。頭部11Fの正面は、右カメラ2Rおよび左カメラ2Lが設けられた面である。基準状態では、ヒューマノイド部1Hの各部の方向に関して、以下が成立する。胴体接続部11Hおよび胴体部11Aの左右方向は、車両部1Wの左右方向に平行である。胴体接続部11Hおよび胴体部11Aの前後方向(正面方向)は、車両部1Wの前後方向に平行である。頭部11Fの正面方向は、胴体接続部11Hおよび胴体部11Aの正面方向に平行である。
胴体接続部11Hを基準とする第2の直交座標系を以下のように定義する。第2の直交座標系により、胴体部11Aと胴体接続部11Hとの間の位置関係を表現する。
X2軸:胴体接続部11Hの左右方向に平行な軸。
Y2軸:胴体接続部11Hの前後方向に平行な軸。
Z2軸:胴体接続部11Hの高さ方向に平行な軸。AZ2軸と一致する。
X2軸、Y2軸、Z2軸は、互いに直交する。胴体接続部11Hの下端とAZ2軸の交点を、第2の直交座標系の原点とする。基準状態では、X1軸とX2軸、Y1軸とY2軸、Z1軸とZ2軸は、それぞれ互いに平行である。基準状態での車両部1Wの右方をX2軸の正の向きとし、前方をY2軸の正の向きとし、上方をZ2軸の正の向きとする。
胴体関節部12Gは、胴体部11Aを胴体接続部11Hに2回転自由度で回転可能に接続する。胴体関節部12Gは、XEL軸とAZ3軸の回りに回転可能である。XEL軸は、AZ2軸およびAZ3軸と直交する。XEL軸は、胴体接続部11Hが延在する方向と、胴体部11Aが延在する方向との間の角度を変更する回転軸である。AZ3軸は、胴体部11Aを通る回転軸である。AZ3軸の回りに回転すると、胴体接続部11Hの正面方向に対して、胴体部11Aの正面方向が回転する。XEL軸を胴体交差回転軸とも呼ぶ。AZ3軸を胴体回転軸とも呼ぶ。
胴体部11Aを基準とする第3の直交座標系を、以下のように定義する。第3の直交座標系により、胴体部11Aに対する腕部11Jの位置を表現する。
X3軸:胴体部11Aの左右方向に平行な軸。
Y3軸:胴体部11Aの前後方向に平行な軸。
Z3軸:胴体部11Aの高さ方向に平行な軸。AZ3軸と一致する。
X3軸、Y3軸、Z3軸は、互いに直交する。第3の直交座標系の原点は、2個の肩関節部12Aを通りAZ3軸に垂直な平面とAZ3軸との交点とする。基準状態での胴体部11Aの右方をX3軸の正の向きとし、前方をY3軸の正の向きとし、上方をZ3軸の正の向きとする。
首関節部12Dは、頭部11Fを胴体部11Aの上面に3回転自由度で回転可能に接続する。首関節部12Dは、XH軸、YH軸およびAZH軸の回りに回転可能である。XH軸は、X3軸に平行な回転軸である。YH軸は、Y3軸に平行な回転軸である。AZH軸は、頭部11Fを通る回転軸である。XH軸、YH軸およびAZH軸は、首関節部12Dで交差する。AZH軸を、頭部回転軸とも呼ぶ。基準状態では、AZH軸はZ3軸と平行である。
首関節部12Dにより頭部11FがAZH軸の回りに回転すると、右カメラ2Rおよび左カメラ2Lの撮影方向は、左右方向に回転する。首関節部12Dにより頭部11FがXH軸の回りに回転すると、右カメラ2Rおよび左カメラ2Lの撮影方向は、上下方向に変化する。首関節部12Dにより頭部11FがYH軸の回りに回転すると、右カメラ2Rおよび左カメラ2Lの中心を結ぶ線分が水平でなくなり、右カメラ2Rおよび左カメラ2Lが存在する高さに差が発生する。
ヒューマノイド部1H(腕部11Jは除く)が有する回転軸は、以下の9軸である。
AZ1軸:レッグ元関節部12Eでの方位回転軸。
EL1軸:レッグ元関節部12Eでの仰角回転軸。
EL2軸:レッグ先関節部12Fでの胴体傾斜回転軸。
AZ2軸:レッグ先関節部12Fでの胴体接続部回転軸。
XEL軸:胴体関節部12Gでの胴体交差回転軸。
AZ3軸:胴体関節部12Gでの胴体回転軸。
XH軸:首関節部12DでのX3軸に平行な回転軸。
YH軸:首関節部12DでのY3軸に平行な回転軸。
AZH軸:首関節部12Dでの頭部回転軸。
腕部11Jの構造を説明する。腕基部11Bは、胴体部11Aに1回転自由度で回転可能に接続する。上腕部11Cは、肩関節部12Aにより腕基部11Bに2回転自由度で回転可能に接続する。前腕部11Dは、肘関節部12Bにより上腕部11Cに2回転自由度で回転可能に接続する。ハンド部11Eは、手首関節部12Cにより前腕部11Dに2回転自由度で回転可能に接続する。
図7に示すように、腕部11Jは、以下に示す7個の回転軸を有する。
AZ4軸:腕部11Jを胴体部11Aに対して回転させる回転軸。腕基部11Bを通り、腕基部11Bを回転させる回転軸。AZ4軸を、腕基部回転軸と呼ぶ。
EL4軸:腕基部11Bと上腕部11Cとがなす角度を変更させる回転軸。EL4軸は、AZ4軸と直交する。
AZ5軸:上腕部11Cを通り、上腕部11Cを回転させる回転軸。AZ5軸は、EL4軸と直交する。AZ5軸を、上腕部回転軸と呼ぶ。
EL5軸:上腕部11Cと前腕部11Dとがなす角度を変更させる回転軸。EL5軸は、AZ5軸と直交する。
AZ6軸:前腕部11Dを通り、前腕部11Dを回転させる回転軸。AZ6軸は、EL5軸と直交する。AZ6軸を、前腕部回転軸と呼ぶ。
EL6軸:前腕部11Dとハンド部11Eとがなす角度を、AZ6軸およびXEL2軸を含む平面(前後方向回転平面)において回転させる回転軸。EL6軸は、AZ6軸およびXEL2軸と直交する。
XEL2軸:前腕部11Dとハンド部11Eとがなす角度を、AZ6軸およびEL6軸を含む平面(左右方向回転平面)において回転させる回転軸。XEL2軸は、AZ6軸およびEL6軸と直交する。
AZ4軸は、腕基部11Bを胴体部11Aに対して回転させる回転軸である。EL4軸とAZ5軸は、肩関節部12Aにおいて腕基部11Bと上腕部11Cとの接続角度を変更する回転軸である。EL5軸とAZ6軸は、肘関節部12Bにおいて上腕部11Cと前腕部11Dとの接続角度を変更する回転軸である。EL6軸とXEL2軸は、手首関節部12Cにおいて前腕部11Dとハンド部11Eとの接続角度を変更する回転軸である。前後方向回転平面および左右方向回転平面は、それらの交線が前腕部11Dを通る互いに直交する2平面である。
手首関節部12Cは、伸縮する2本のアクチュエータ13により角度が変更される。他の関節部12は、骨格部11あるいは関節部12の内部に配置されたモータ14により、関節の角度が変更される。他の各関節部12には、その関節部12での回転自由度の次数と同じ個数のモータ14が配置される。
姿勢センサ92は、各モータ14(各アクチュエータ13を伸縮させる力を発生させるモータを含む)の回転角度を、周期的に計測する。計測した各モータ14の回転角度は、モータごとに決められた換算係数により各関節部12の角度に変換される。各関節部12の角度が決まると、ヒューマノイド部1Hの姿勢が決まる。各関節部12の角度を、姿勢データ57と呼ぶ。姿勢センサ92は、間接的に姿勢データ57を計測する。姿勢データ57は、現在の各関節部12の角度である。現在の角度は、最新の時点で計測された角度である。姿勢データ57は、各腕部11Jが有する7個の回転軸の角度情報、腕部11Jを含まないヒューマノイド部1Hが有する9個の回転軸の角度情報、およびハンド部11Eが有する指関節部の角度情報を含む。姿勢データ57を計測する周期を制御周期Tcと呼ぶ。Tcは、例えば0.1秒である。1組の姿勢データ57により、1個の目標姿勢54または制御姿勢55を表現する。車両姿勢56および姿勢データ57は、ロボット1の位置および姿勢を表す。車両姿勢56および姿勢データ57を、位置姿勢情報と呼ぶ。位置センサ91および姿勢センサ92を、位置姿勢情報を検出する位置姿勢センサとよぶ。
長さが変更可能な部分をヒューマノイド部が有する場合には、長さが変更可能な部分の長さを計測するセンサも姿勢センサに含まれる。姿勢データには、長さが変更可能な部分の長さの計測値も含まれる。
温度センサ93により、各モータ14の温度を計測する。各モータ14の温度のデータを、モータ温度58と呼ぶ。各モータ14の温度を計測することで、各モータ14の過熱を検出する。過熱が検出されるモータ14は停止させるなどして、各モータ14が損壊することを防止する。
ハンド部11Eの指先および掌部には、近くに存在する物体までの距離を計測する距離センサ94を設ける。距離センサ94が計測する至近の物体までの距離を表すデータを、物体距離59と呼ぶ。物体距離59も利用して、ハンド部11Eが物体20の近くに存在するかどうかを制御部7が判断する。
感圧センサ95は、ハンド部11Eの指先が物体に接触しているかどうかを検出する。感圧センサ95は、指先が物体に接触している場合には物体と指先との間に働く接触力の大きさも計測する。触覚データ60は、感圧センサ95が検出する接触の有無と接触力を含むデータである。手首関節部12Dには、力覚センサ96を備える。力覚センサ96は、手首関節部12Dに作用する力を計測する。力覚センサ96が計測する力のデータを、作用力データ61と呼ぶ。
胴体部11A、上腕部11C、前腕部11D、ハンド部11Eおよび胴体接続部11Hには、加速度センサ97を備える。加速度センサ97は、加速度を検出する。検出された加速度を表すデータを加速度データ62と呼ぶ。加速度データ62を積分して各部の速度を求める。また、加速度センサ97は、ロボット1の各部が振動しているかどうか、ロボット1に外部から力が加えられているかどうかを検出するために設ける。
車両姿勢56、姿勢データ57、モータ温度58、物体距離59、触覚データ60、作用力データ61および加速度データ62は、制御部7に入力される。制御部7は、これらのデータを記憶する記憶部15を有する。姿勢データ57、モータ温度58、物体距離59、触覚データ60、作用力データ61および加速度データ62は、データの種類ごとに決められた期間の間は、記憶部15に記憶される。記憶部15には、制御装置3から送信される目標姿勢54および制御姿勢55も記憶される。目標姿勢54および制御姿勢55のそれぞれは、各関節部12が有する各回転軸の回りの回転角度に対する指令値として表現される。
制御部7は、ロボット1を制御する上で入力されたデータを使用する。制御部7は、周期的に入力される姿勢データ57が制御姿勢55と一致するようにアクチュエータ13およびモータ14を制御する。制御部7による制御は、フィードバック制御でもよいし、低次自律運動判断による制御でもよい。
制御部7は、通信部9を介して各種センサが計測したデータなどを制御装置3に送信する。通信部9は、通信パケットを送受信する機能だけでなく、記憶部15を参照して送信するデータを生成する機能、および受信したデータを記憶部15の該当する領域に格納する機能も有する。
右カメラ2Rおよび左カメラ2Lは、ヒューマノイド部1Hの頭部11Fに装着される。右カメラ2Rおよび左カメラ2Lは、頭部11Fが向く方向を変更することで、画像を撮影する方向である撮影方向を変更できる。頭部11Fが向く方向が変化しても、右カメラ2Rおよび左カメラ2Lの間の位置関係は変化しない。右カメラ2Rおよび左カメラ2Lは、絞りや拡大倍率などを含む撮影条件データ63を、撮影した画像とともに制御部7に出力する。制御部7は、通信部9を介して右目画像51R、左目画像51Lと撮影条件データ63を制御装置3に送信する。
制御部7を介さないで、右目画像51Rおよび左目画像51Lを制御装置3に送信してもよい。制御部7は、撮影時刻と対応付けた撮影条件データ63を制御装置に送信する。制御装置3では、撮影時刻により右目画像51Rおよび左目画像51Lと撮影条件データ63とを関連付ける。
右目画像51R、左目画像51Lおよび撮影条件データ63は、ロボット1の制御部7とは別の装置が保存し、制御装置3に送信してもよい。記憶部15は、制御部7とは別に設けてもよい。
制御装置3は、通信部31、構造データ記憶部32、状態データ記憶部33、ロボットモデル生成部34、環境モデル生成部35、モデル統合部36、視点データ生成部37、モデル画像生成部38、制御参考情報生成部39、目標姿勢生成部40、制御姿勢生成部41および異常検出部42を主に有して構成される。構造データ記憶部32は、ロボット1の構造を表すロボット構造データ81などを記憶する。状態データ記憶部33は、姿勢データ57などの変化するロボット1に関するデータを記憶する。
通信部31は、ロボット1などと通信する。通信部31は、通信パケットを送受信する機能だけでなく、構造データ記憶部32、状態データ記憶部33を参照して送信するデータを生成する機能、および受信したデータを状態データ記憶部33の該当する領域に格納する機能も有する。
構造データ記憶部32は、ロボット構造データ81、カメラ構造データ82およびセンサ構造データ83を記憶する。ロボット構造データ81は、ロボット1が動いても変化しないデータである。ロボット構造データ81は、例えば骨格部11と関節部12の接続関係や、骨格部11の寸法や関節部12の回転可能角度、骨格部11の外形を表現する部分3Dモデルなどである。レッグ部11G、上腕部11Cや前腕部11Dなどの長さ、2個の肩関節部12Aの間隔なども、ロボット構造データ81である。ロボット構造データ81は、マニピュレータであるロボット1の構造を表すマニピュレータ構造データである。
カメラ構造データ82は、右カメラ2Rおよび左カメラ2Lの構造を表すデータである。カメラ構造データ82は、右カメラ2Rおよび左カメラ2Lに共通なデータとして、撮影できる画像の縦横のサイズ、視野角、拡大倍率の可能範囲などを含む。カメラ構造データ82は、右カメラ2Rおよび左カメラ2Lの首関節部12Dに対する相対位置、右カメラ2Rおよび左カメラ2Lの間隔、右カメラ2Rおよび左カメラ2Lの正面方向を含む。右カメラ2Rおよび左カメラ2Lの正面方向は、それぞれの視野の中心が頭部11Fに対して向く方向である。右カメラ2Rおよび左カメラ2Lの首関節部12Dに対する相対位置と正面方向は、ロボット構造データ81として記憶してもよい。カメラの撮影方向は、カメラの正面方向を現場座標系(XYZ座標系)で表現した方向である。
センサ構造データ83は、各種センサの設置位置、センサの種類、計測されるデータが送信される際のデータの格納位置などデータである。
状態データ記憶部33は、車両姿勢56、姿勢データ57、モータ温度58、物体距離59、触覚データ60、作用力データ61、加速度データ62、撮影条件データ63、ロボット3次元モデル64、カメラ姿勢65、カメラ点群生データ66、カメラ点群データ67、周囲点群データ68、統合3次元モデル69および視点データ70を記憶する。
ロボット3次元モデル64は、右カメラ2Rおよび左カメラ2Lを含むロボット1の3次元モデルである。ロボット3次元モデル64は、現場座標系(XYZ座標系)で表現される。ロボット3次元モデル64は、ロボットモデル生成部34により生成される。ロボット3次元モデル64は、カメラ姿勢65を含む。カメラ姿勢65は、右カメラ2Rおよび左カメラ2Lの現場座標系における位置および撮影方向を表すデータである。ロボット3次元モデル64は、マニピュレータであるロボット1の3次元モデルである。カメラ姿勢65は、右カメラ2Rおよび左カメラ2Lの3次元モデルである。
カメラ点群生データ66は、右目画像51Rおよび左目画像51Lを画像処理して得られる物体20を含む周囲環境の事物を表す点群データである。点群データは、事物を表す点の座標値の集合である。カメラ点群生データ66は、右カメラ2Rおよび左カメラ2Lのそれぞれを基準とする相対的な位置として表現される。カメラ点群データ67は、カメラ点群生データ66を座標変換して現場座標系での座標値として表現した点群データである。周囲点群データ68は、異なるカメラ姿勢65でのカメラ点群データ67を統合して生成された点群データである。周囲点群データ68は、周囲環境の3次元モデルである周囲環境モデルである。異なるカメラ姿勢65とは、右カメラ2Rおよび左カメラ2Lの少なくとも一方について、その位置および姿勢の少なくとも一方が異なることである。
統合3次元モデル69は、ロボット3次元モデル64と周囲点群データ68とを統合した3次元モデルである。視点データ70は、モデル画像53において物体20およびロボット1を見る視点の位置と視線方向を表すデータである。
ロボットモデル生成部34は、入力される最新の車両姿勢56および姿勢データ57、ロボット構造データ81およびカメラ構造データ82を参照してロボット3次元モデル64を生成する。ロボット3次元モデル64は、マニピュレータの3次元モデルであるマニピュレータモデルである。ロボットモデル生成部34は、マニピュレータモデルを生成するマニピュレータモデル生成部である。ロボット1の各関節部の角度を表現する姿勢データ57を、ロボット構造データ81で決まる式に代入して、ロボットモデル生成部34は、第1の直交座標系(X1Y1Z1座標系)における各骨格部11の姿勢を決める。各骨格部11の姿勢を決める方法は、例えば特許文献2に開示されている方法を使用する。さらに、各骨格部11の外形を表現する部分3Dモデルを各骨格部11の姿勢に応じて移動および回転させる。移動および回転した各骨格部11の部分3Dモデルをまとめたものがロボット3次元モデルである。この段階のロボット3次元モデルは、第1の直交座標系で表現される。ロボットモデル生成部34は、車両姿勢56を使用して、第1の直交座標系におけるロボット3次元モデルを現場座標系でのロボット3次元モデル64に変換する。ロボット3次元モデル64は、カメラ姿勢65も含む。カメラ姿勢65は、ロボットモデル生成部34とは別の機能モジュールが生成してもよい。その場合は、ロボットモデル生成部は、カメラ構造データ82を参照しない。
環境モデル生成部35は、周囲環境モデルである周囲点群データ68を生成する。環境モデル生成部35は、画像処理部43、カメラ点群生データ生成部44、カメラ座標変換部45およびカメラ点群整合部46を有する。画像処理部43は、右カメラ2Rおよび左カメラ2Lの位置と撮影方向に基づき、右目画像51Rおよび左目画像51Lを画像処理する。画像処理部43は、右目画像51Rおよび左目画像51Lを画像処理して、物体20を含む周囲環境の事物の特徴点を抽出する。特徴点とは、事物の境界線や特徴的な形状を表す点である。なお、画像によっては、特徴点を抽出できない場合がある。例えば、事物の色と背景の色がほとんど同じで、事物の境界線が画像から判断できない場合、事物の表面形状が平坦で特徴点が検出できない場合などである。特徴点を抽出できない場合は、カメラ点群生データ66は生成されない。
カメラ点群生データ生成部44は、右目画像51Rおよび左目画像51Lの両方で抽出された特徴点の位置データを生成する。その原理を簡単に説明すると、以下のようになる。1個の画像に表示される特徴点は、その画像を撮影したカメラの位置を通る3次元空間での直線上に存在する。特徴点が存在する直線の方向は、画像内での特徴点の画素位置と撮影方向から決まる。同時または特徴点を有する物体が静止している期間に別の視点から撮影した画像を組み合わせると、特徴点が複数の直線の交点に存在することから、特徴点の2台のカメラの位置に対する相対的な位置を決めることができる。
カメラ点群生データ生成部44は、右目画像51Rおよび左目画像51Lという視差を有して同時に撮影された2個の画像から各特徴点の3次元空間での位置を決める。右目画像51Rから抽出された特徴点の画像内での画素位置は、画素位置から決まる3次元空間での直線上に特徴点が存在することを意味する。この直線は、右カメラ2Rの位置を通り、画像内での画素位置に対応する3次元空間での方向に存在する直線である。例えば、画像の中央の画素は、撮影方向に延在する直線になる。上下方向の中央で左右方向の両端の画素は、撮影方向に対して視野角の半分だけ左右方向に向いた方向に延在する直線になる。左目画像51Lでも同様である。左目画像51Lから抽出された特徴点の画素位置は、左カメラ2Lの位置を通りその画素位置に対応する3次元空間での方向を表す直線上に、特徴点が存在することを意味する。右目画像51Rおよび左目画像51Lの両方で抽出された特徴点は、右目画像51Rから決まる3次元空間での直線と、左目画像51Lから決まる3次元空間での直線の交点に存在することになる。カメラ点群生データ生成部44は、各特徴点に対して、2本の3次元空間での直線の交点を求め、その交点の位置データをその特徴点の位置データとする。すべての特徴点の位置データをまとめたものが、カメラ点群生データ66である。
カメラ点群生データ66は、右カメラ2Rおよび左カメラ2Lに対する相対的な位置データとして表現される。カメラ座標変換部45は、カメラ姿勢65を使用して各特徴点のカメラ点群生データ66をカメラ点群データ67に変換する。カメラ点群データ67は、現場座標系での位置データである。同じカメラ姿勢65での異なる時点での画像から抽出した特徴点の画素位置の平均を使用して、カメラ点群データ67を生成してもよい。カメラ点群整合部46は、異なるカメラ姿勢65での同じ特徴点に対するカメラ点群データ67の平均をとるなどして、周囲点群データ68を生成する。周囲点群データ68は、物体20を含む周囲環境の事物の3次元モデルである周囲環境モデルである。環境モデル生成部35は、画像処理により周囲環境モデルを生成する画像処理モデル生成部である。
周囲点群データ68を生成した後に、新たなカメラ点群データ67が生成される場合は、カメラ点群整合部46は、新たなカメラ点群データ67により周囲点群データ68を修正する。新たなカメラ点群データ67で事物の位置が変化している場合は、その事物に関する周囲点群データ68での点群データは、新たな位置に移動させる。
モデル統合部36は、ロボット3次元モデル64と周囲点群データ68とを統合して統合3次元モデル69を生成する。
視点データ生成部37は、オペレータ30が入力する情報に基づき視点データ70を生成する。視点データ70は、モデル画像53における視点の位置と視線方向を表すデータである。視点データ70の初期値は、例えば右カメラ2Rの視点および撮影方向とする。視点データ70に関する情報をオペレータ30が、例えばキーボード、マウスやポインティングデバイスおよびジョイスティックなどの入力装置により入力する。例えば、表示装置5に表示されたモデル画像53に対して、入力装置を使用してオペレータ30が左右上下への視点の移動の指示を入力する。あるいは、視点までの距離の増減をオペレータ30が入力してもよい。視点データ生成部37は、オペレータ30が入力した移動方向に存在する事物が見えるように視点が移動した視点データ70を生成する。例えば、オペレータ30がモデル画像53を下に移動させる指示を入力する場合は、視点位置を高くし、視線方向を下向きに変更する。例えば、オペレータ30が右へ移動させる指示を入力する場合は、視点を上から見て反時計回りに回転した位置に移動させ、視線方向も反時計回りに回転させて変更する。視点の位置と視線方向をそれぞれ独立にオペレータ30が変更できるようにしてもよい。
モデル画像生成部38は、統合3次元モデル69および視点データ70に基づいてモデル画像53を生成する。モデル画像生成部38は、視点データ70で表される位置にカメラを設置し、視点データ70で表される視線方向を撮影方向として統合3次元モデル69を撮影する場合に撮影される画像をモデル画像53として生成する。生成されたモデル画像53は、表示装置5に表示される。複数の視点データ70のそれぞれに対してモデル画像53を生成して、複数の視点からのモデル画像53を同時に表示装置5に表示するようにしてもよい。モデル画像53は、オペレータ30が指定した視点から統合3次元モデル69を見る画像である。表示装置5は、モデル画像53を表示するモデル画像表示装置である。
制御参考情報生成部39は、表示装置5に表示する制御参考情報を生成する。制御参考情報は、ロボット1に搭載されている各種センサからの情報や、ロボット1の現在の姿勢あるいは目標姿勢に関するデータなどである。例えば、物体20や周囲環境とロボット1との距離情報や、ロボット1の位置および姿勢やその変化速度に関する情報、各関節部での現在角度や各関節部を駆動するモータの現在温度、ロボット1の各部の加速度と振動の大きさ、各関節部の目標角度などが、制御参考情報である。制御参考情報生成部39は、情報を取捨選択および加工して制御参考情報を生成する。制御参考情報生成部39は、有用度が高くオペレータ30が視認しやすくなるように制御参考情報を生成する。
目標姿勢生成部40は、上体目標姿勢入力部6Hおよび車両姿勢入力部6Wに入力されるオペレータ30の手や足の動きから目標姿勢54および車両姿勢56を生成する。目標姿勢54は、最終的にロボット1がとる姿勢を表現するデータである。制御姿勢生成部41は、目標姿勢54で表現される姿勢をロボット1がとるように制御する上で使用する制御姿勢55を生成する。制御姿勢55は、決められた時間後にロボット1の各関節がとるべき角度として表現される。制御姿勢55は、時間の経過に応じて修正される。目標姿勢54が変更された際にも、制御姿勢55は修正される。制御姿勢生成部41は、制御部7が有してもよい。制御姿勢生成部41は、動作指示からロボット1を制御する制御信号を生成する制御信号生成部である。制御姿勢とは異なる方式で制御信号を生成してもよい。
動作指示からロボット1を制御する制御信号を生成する制御信号生成部であれば、どのようなものでもよい。
異常検出部42は、モータ温度58、作用力データ61および加速度データ62が入力されて、閾値と比較するなどしてロボット1に異常が発生しているかどうかを検出する。異常検出部42が異常を検出した場合は、制御装置3はロボット1を停止させる。
動作を説明する。図8は、実施の形態1に係る遠隔制御マニピュレータシステムでロボットを遠隔制御する手順を説明するフローチャートである。ここでは、ロボット1が物体20を片方のハンド部11Eで持って移動する場合で説明する。
ステップS01で、ロボット構造データ81、カメラ構造データ82およびセンサ構造データ83を、構造データ記憶部32に記憶させる。
ステップS02で、テストパターンを撮影することで右カメラ2Rおよび左カメラ2Lを校正する。テストパターンは、例えば決められた大きさおよび形状の点を決められた間隔で配置したパターンである。右カメラ2Rまたは左カメラ2Lである被校正カメラの正面の決められた距離の位置にテストパターンを配置して、被校正カメラがテストパターンを撮影する。撮影する画像が適正になるように、被校正カメラを校正する。校正の対象はレンズの収差などである。その後、右カメラ2Rおよび左カメラ2Lで同時にテストパターンを撮影する。右カメラ2Rおよび左カメラ2Lが撮影する画像が適正な関係になるように、2台のカメラの間隔や設置角度を調整する。右カメラ2Rおよび左カメラ2Lで個別にテストパターンを撮影する手順を省略してもよい。
ステップS03で、右カメラ2Rおよび左カメラ2Lが計測する距離を実際の距離と一致させる補正パラメータを求める。ロボット1に校正用の姿勢をとらせて、右カメラ2Rおよび左カメラ2Lから決められた距離の位置に決められた長さの物体(定規物体と呼ぶ)を配置して、定規物体を撮影する。撮影した画像から定規物体までの距離と定規物体の長さを計測する。何点かの距離で定規物体を撮影して計測する。計測した距離および長さが実際の距離および長さと一致するように、乗算する換算係数と加算するオフセット値を求める。換算係数とオフセット値が、補正パラメータである。
ステップS04で、物体20とその周囲環境の3次元モデルである周囲点群データ68を最初に生成する。最初に生成することを、初期生成するという。S04での動作は、図9に示すフローチャートで説明する。ステップS05で、物体20を把持する位置にロボット1を移動させる。ステップS06で、物体20とその周囲を撮影しながらヒューマノイド部1Hを動かして物体20を片方のハンド部11Eで把持させる。S06での動作は、図10に示すフローチャートで説明する。ステップS07で、片方のハンド部11Eで物体20を把持した状態でロボット1を移動させる。移動後に、ハンド部11Eを操作して物体20を離す。
S04を省略して、周囲点群データ68を初期生成しなくてもよい。その場合には、ロボット1が物体20を扱う際に周囲点群データ68を生成する。
図9を参照して、物体20を含む周囲環境の3次元モデルである周囲点群データ68を生成する手順を説明する。S11で、ロボット1を物体20の近くに移動させる。ステップS12で、位置センサ91が車両姿勢56を計測する。ステップS13で、姿勢センサ92が姿勢データ57を計測し、車両姿勢56および姿勢データ57に基づきカメラ姿勢65を含むロボット3次元モデル64を生成する。ステップS14で、右カメラ2Rおよび左カメラ2Lが物体20を含む画像を撮影し、撮影した画像から特徴点を抽出しカメラ点群生データ66を生成する。カメラ点群生データ66およびカメラ姿勢65を使用してカメラ点群データ67を生成し、周囲点群データ68を生成または修正する。ステップS15で、必要十分な範囲および精度で周囲点群データ68が生成できたかチェックする。
必要十分な範囲および精度で周囲点群データ68が生成できている(S15でYES)場合は、処理を終了する。
必要十分な範囲および精度で周囲点群データ68が生成できていない(S15でNO)場合は、ステップS16で別の姿勢をとるかチェックする。別の姿勢をとる(S16でYES)場合は、ステップS17でヒューマノイド部1Hに別の姿勢をとらせる。S17の実行後にS13へ戻る。別の姿勢をとらない(S16でNO)場合は、ステップS18でロボット1を別の位置に移動させる。S18の実行後にS12へ戻る。
図10を参照して、ヒューマノイド部1Hが物体20を把持する際の手順を説明する。なお、ヒューマノイド部1Hが物体20を把持する際には、車両部1Wは停止している。ステップS31で、姿勢センサ92が姿勢データ57を計測する。ステップS32で、車両姿勢56および姿勢データ57からカメラ姿勢65を含むロボット3次元モデル64を生成する。ステップS33で、右カメラ2Rおよび左カメラ2Lが物体20の画像を撮影する。ステップS34で、立体視表示装置4が3D画像52を立体視表示する。S34と並行してステップS35で、右カメラ2Rおよび左カメラ2Lの両方の視野内に物体20が存在するかチェックする。
ハンド部11Eを物体20に近づける際に、ヒューマノイド部1Hにより物体20が隠れる場合や、物体20が存在する方向に頭部11Fを向けることが難しい場合に、右カメラ2Rおよび左カメラ2Lの両方の視野内に物体20が存在させることができなくなる。
右カメラ2Rおよび左カメラ2Lの両方の視野内に物体20が存在する(S35でYES)場合は、ステップS36で、撮影した画像からカメラ点群データ67を生成する。ステップS37で、カメラ点群データ67を生成できたかチェックする。カメラ点群データ67を生成できている(S37でYES)場合は、ステップS38でカメラ点群データ67により周囲点群データ68を修正する。ステップS39で、周囲点群データ68とロボット3次元モデル64を統合して統合3次元モデル69を生成する。ステップS40で、統合3次元モデル69からモデル画像53を生成する。ステップS41で、表示装置5がモデル画像53を表示する。
右カメラ2Rおよび左カメラ2Lの何れか少なくとも一方の視野内に物体20が存在しない(S35でNO)場合、あるいはカメラ点群データ67を生成できていない(S37でNO)場合は、S39に進む。この場合は、S39では、周囲点群データ68は、保存されているものを使用する。
ステップS42で、オペレータ30が立体視表示装置4に立体視表示される3D画像52または表示装置5に表示されたモデル画像53を見る。ステップS43で、オペレータ30がヒューマノイド部1Hを動かす。このように、オペレータ30は、物体20とロボット1のハンド部11Eの相対的な位置関係を確認しながら、ヒューマノイド部1Hを操作する。
ステップS44で、ハンド部11Eの感圧センサ95の出力(触覚データ60)が接触ありかチェックする。感圧センサ95の出力が接触ありであることは、ハンド部11Eが物体に接触していることを意味する。感圧センサ95の出力が接触ありである(S44でYES)場合は、処理を終了する。以後は、感圧センサ95の出力に基づき、ハンド部11Eが物体20を適切に把持するように制御する。感圧センサ95の出力が接触ありではない(S44でNO)場合は、ステップS45で、決められた制御周期Tcが経過したかチェックする。Tcが経過している(S45でYES)場合は、S31へ戻る。Tcが経過していない(S45でNO)場合は、S33へ戻る。
遠隔制御マニピュレータシステム100では、オペレータ30は、自分の頭を移動させることで、立体視表示された3D画像52およびモデル画像53を自由に切り替えて見ることができる。モデル画像53は、オペレータ30が指定した視点からロボット1および物体20を見る画像である。遠隔制御マニピュレータシステム100では、物体20とハンド部11Eとの位置関係を測定し、測定した位置関係を表すモデル画像53を表示する。オペレータ30は、3D画像52およびモデル画像53の適切な方である画像または両方の画像を確認する。確認の結果により、ハンド部11Eを含むヒューマノイド部1Hの現在状態を把握し、ヒューマノイド部1Hを遠隔制御する。オペレータ30は、現在状態の確認とヒューマノイド部1Hを動かす操作を物体20とハンド部11Eが接触するまで繰り返す。そうすることで、オペレータ30は、ロボット1を遠隔制御して、対象物を押す、引く、把持する等の作業を、従来よりも正確に、かつ容易に実施できる。
モデル画像53は、任意の視点から見ることができる。さらに、複数の異なる視点から見るモデル画像53を同時にあるいは切り替えて表示装置5に表示させ、オペレータ30は複数の異なる視点から物体20および周囲の環境を把握できる。表示装置5に例えば2個のモデル画像53を同時に表示させるようにし、1個の画像は同じ視点からのモデル画像53を表示させ、他の画像は複数の視点から見るモデル画像53を切り替えて表示させてもよい。画像、文字あるいはシンボルなどで表現される制御参考情報をオペレータは確認できる。その結果、ロボット1と物体20との相対的な位置関係を、オペレータ30は従来よりも正確かつ容易に把握できる。モデル画像53を表示しない場合には位置関係の把握が難しい状況でも、現在のロボット1と物体20との位置関係を、オペレータ30が正確に把握することができ、精密な操作をすることが可能となる。ロボット1と物体20との位置関係の把握が難しい状況は、例えば、ロボット1の腕部11Jなどが物体20を隠す場合、ロボット1と物体20との間に障害物がある場合、頭部11Fを物体20に向けた姿勢ではハンド部11Eが物体20に届かない位置にある場合などである。
オペレータ30は、自然な3D画像52を見ることができ、ロボット1の現在の姿勢、および物体20とその周囲環境の関係性を確認しながらロボットを操作することが可能となる。そのため、オペレータ30は、より精密かつ正確に物体20を扱う作業を実施できる。
クローラ移動ロボットではなく、2本足で移動する人型ロボット、上体だけのロボット、片腕のロボットアーム、ロボットハンド、産業用マニピュレータなどに対しても、本開示は適用できる。物体を扱う機械や装置であれば、本開示は適用できる。物体を扱う機械や装置のことをマニピュレータと呼ぶ。物体とは、ロボットが持つ道具、道具で処理される物体、道具を使用しないで操作される物体などである。道具としては、例えばドライバーやペンチなどの工具、包丁やメスなどの刃物、鋏や定規や筆記具などの文具、大工道具、清掃用具、パソコンなどの情報機器、建物のドアや窓、荷物を運搬するための台車など、人を移動させる車椅子や移動式ベッドなどが含まれる。物体は、液体、固体、気体の何れでもよい。人や動物や植物なども物体に含む。
本開示に係る遠隔制御マニピュレータシステムによれば、遠隔制御マニピュレータの作業操作性能を向上させる。遠隔制御するロボットあるいはマニピュレータを使用することで、危険な環境、あるいは人間には過酷なあるいは快適でない環境での作業、重い物体の操作などの重労働作業を、人間の負荷を軽減して実施できる。遠隔制御するロボットあるいはマニピュレータは、災害対応等に携わる作業者を支援できる。また、労働力が不足している産業分野でも、遠隔制御マニピュレータを使用できる。高齢化社会で重要性が増すロボットによる介護の支援などにも、遠隔制御マニピュレータを利用できる。
マニピュレータ遠隔制御システムは、災害救助時や一般産業の工場や工事現場において、遠隔で離れた地点から画像を見ながら遠隔作業機械またはロボットが有するハンドによる把持操作をする場合が想定される。しかし、実運用時は環境や把持対象物の事前学習やモデル化は困難である。本開示の遠隔制御マニピュレータの視覚ベース操作システムであれば、操作者が周囲環境や作業状況を視覚ベースの情報から判断でき、遠隔制御マニピュレータの操作信頼度の向上が可能になると期待される。
目標姿勢入力装置としては、操縦桿、ステアリングホイール(ハンドル)、レバー、ジョイスティック、ボタン、つまみ、ペダルなどで目標姿勢および車両姿勢を入力するものでもよい。オペレータの動作をカメラで撮影して、撮影した画像から目標姿勢を読取る方式を使用してもよい。オペレータの動きあるいは筋肉の緊張度などを読取るセンサをオペレータの体に装着した目標姿勢入力装置を使用してもよい。マニピュレータが動くまたは静止する動作を入力できるものであれば、目標姿勢入力部はどのようなものでもよい。
以上のことは、他の実施の形態にもあてはまる。
実施の形態2.
実施の形態2は、ロボットが測距ライダを備え、測距ライダが計測する点群データから周囲環境の3次元モデルを生成する機能を遠隔制御マニピュレータシステムに持たせた場合である。図11から図13を参照して、実施の形態2に係る遠隔制御マニピュレータシステムの構成を説明する。図11は、実施の形態2に係る遠隔制御マニピュレータシステムで使用されるロボットのヒューマノイド部の正面図である。図12は、実施の形態2に係る遠隔制御マニピュレータシステムで使用されるロボットのヒューマノイド部の左側面図である。図13は、実施の形態2に係る遠隔制御マニピュレータシステムの機能構成を示すブロック図である。
図11および図12を参照して、ロボット1Aが図4および図5に示すロボット1とは異なる点を説明する。ロボット1Aが有するヒューマノイド部1HAは、右の前腕部11Dに測距ライダ16Rを有し、左の前腕部11Dに測距ライダ16Lを有し、胴体部11Aの前面に測距ライダ16Bを有する。測距ライダ16Rは、右の前腕部11Dの手首関節部12Cに近い正面側の部分に設ける。前腕部11Dの正面側とは、腕部11Jを下に垂らす基準状態においてヒューマノイド部1HAの正面に向く側である。測距ライダ16Lは、左の前腕部11Dの手首関節部12Cに近い正面側の部分に設ける。測距ライダ16R、16Lは、前腕部11Dの内側にレーザ光を放射するように前腕部11Dに搭載される。前腕部11Dの内側は、基準状態での前腕部11Dがロボット1Aの中心線に向う側である。ロボット1Aの中心線は、基準状態でのロボット1Aを正面から見る際に高さ方向に延在する。測距ライダ16Bは、胴体部11Aの正面の側に放射するように設けられる。なお、例えば測距ライダ16Rの1個だけをヒューマノイド部が有するようにしてもよい。
測距ライダ16R、16L、16Bは、スキャン(走査)しながらレーザ光を放射し、レーザ光を放射してから物体に反射されてきた反射レーザ光が受信されるまでの時間に基づき、レーザ光を放射した方向に存在する事物までの距離を計測する。測距ライダ16R、16L、16Bは、それぞれライダ点群生データ72を生成する。測距ライダがレーザ光をスキャンする範囲の中心になる方向を、測距ライダの放射方向と呼ぶ。測距ライダの放射方向を測距方向とも呼ぶ。ライダ点群生データ72は、測距ライダ16R、16L、16Bごとに決まる放射方向に対する角度ごとに、その角度に存在する事物までの距離を表現するデータの集合である。
ロボット1Aが有する制御部7Aは、測距ライダ16R、16L、16Bを動作させるかどうかも制御する。制御部7Aが有する記憶部15Aは、測距ライダ16R、16L、16Bが計測するライダ点群生データ72も記憶する。制御部7を変更しないで、測距ライダ16R、16L、16Bを動作させるかどうかを制御装置3Aが制御部7を介さないで制御し、ライダ点群生データ72が制御部7を介さないで制御装置3Aに送信されてもよい。
遠隔制御マニピュレータシステム100Aの機能構成を示す図13について、実施の形態1の場合の図2とは異なる点を説明する。制御装置3Aは、構造データ記憶部32A、状態データ記憶部33A、ロボットモデル生成部34Aおよび環境モデル生成部35Aを変更している。構造データ記憶部32Aは、ライダ構造データ84も記憶する。ライダ構造データ84は、測距ライダ16R、16L、16Bのそれぞれの放射方向、スキャン角度範囲を記憶する。放射方向は、右または左の前腕部11Dあるいは胴体部11Aに対する角度を定義するデータである。スキャン角度範囲は、レーザ光をスキャンする角度の範囲を規定するデータである。スキャン角度範囲は、例えば水平方向に240度、上下方向に90度などのスキャンする角度の範囲である。ライダ構造データ84は、測距センサである測距ライダ16R、16L、16Bの構造を表す測距センサ構造データである。
状態データ記憶部33Aは、ロボット3次元モデル64Aを変更し、カメラ周囲点群データ71、ライダ点群生データ72、ライダ点群データ74およびライダ周囲点群データ75を追加している。ロボット3次元モデル64Aは、ライダ姿勢73も有する。ライダ姿勢73は、測距ライダ16R、16L、16Bの現場座標系における位置と放射方向を表すデータである。ライダ姿勢73は、測距ライダ16R、16L、16Bの3次元モデルである。
ライダ点群生データ72は、測距ライダ16R、16L、16Bが計測した点群のデータである。ライダ点群生データ72は、測距ライダ16R、16L、16Bの放射方向を基準とするデータである。ライダ点群生データ72において、スキャンする範囲内において隣接する方向との間で計測した距離が大きく変化する方向を不連続点として認識する。ライダ点群データ74は、ライダ点群生データ72を現場座標系における値に変換したデータである。ライダ点群データ74においても、不連続点を認識しておく。
ロボットモデル生成部34Aは、ライダ構造データ84も参照して、カメラ姿勢65およびライダ姿勢73を含むロボット3次元モデル64Aを生成する。
環境モデル生成部35Aは、不連続点抽出部47、ライダ座標変換部48、ライダ点群整合部49および点群選択生成部50を追加し、カメラ点群整合部46Aを変更している。カメラ点群整合部46Aは、周囲点群データ68ではなくカメラ周囲点群データ71を生成する。カメラ点群整合部46Aは、カメラ点群整合部46と同様にカメラ点群データ67を処理する。カメラ周囲点群データ71は、カメラ周囲環境モデルである。カメラ周囲環境モデルは、右カメラ2Rおよび左カメラ2Lが撮影した画像から生成される周囲環境モデルである。環境モデル生成部35Aは、カメラ周囲環境モデルを生成する画像処理モデル生成部である。
不連続点抽出部47は、ライダ点群生データ72を取り込み、ライダ点群生データ72を処理して不連続点を抽出する。ライダ座標変換部48は、ライダ姿勢73を参照してライダ点群生データ72を現場座標系での位置データであるライダ点群データ74に変換する。ライダ点群整合部49は、ライダ周囲点群データ75を生成する。ライダ周囲点群データ75は、周囲環境として存在する各事物への方向と距離を表現するデータである。ライダ点群整合部49は、異なるライダ姿勢73でのライダ点群データ74を不連続点の位置が一致または位置の差が小さくなるようにつなげてライダ周囲点群データ75を生成する。異なるライダ姿勢73とは、少なくとも1個の測距ライダ16の位置および姿勢の少なくとも一方が異なることである。同じライダ姿勢73でのライダ点群データ74の平均をとってライダ点群データ74とし、あるライダ姿勢73でのライダ点群データ74を、別のライダ姿勢73でのライダ点群データ74と連結して、ライダ周囲点群データ75を生成してもよい。ライダ周囲点群データ75は、周囲環境までの距離と方向を含む測距データである。測距ライダ16R、16L、16Bは、測距データを計測する測距センサである。ライダ周囲点群データ75は、センサ周囲環境モデルである。センサ周囲環境モデルは、測距データから生成された周囲環境モデルである。環境モデル生成部35Aは、測距センサの位置と測距方向に基づき測距データを処理して、センサ周囲環境モデルを生成する測距データ処理モデル生成部である。
ライダ周囲点群データ75を生成した後に新たなライダ点群データ74が生成される場合は、ライダ点群整合部49は、ライダ点群データ74によりライダ周囲点群データ75を修正する。新たなライダ点群データ74で事物の位置が変化している場合は、その事物に関するライダ周囲点群データ75での点群データは、新たな位置に移動させる。
制御装置3Aにおける周囲点群データ68は、カメラ周囲点群データ71またはライダ周囲点群データ75の何れか一方を選択した点群データである。点群選択生成部50は、カメラ周囲点群データ71またはライダ周囲点群データ75の何れか一方を選択して、周囲点群データ68とする。カメラ周囲点群データ71が生成できる場合は、点群選択生成部50はカメラ周囲点群データ71を周囲点群データ68とする。
図14を参照して、動作を説明する。図14は、実施の形態2に係る遠隔制御マニピュレータシステムでロボットを遠隔制御する手順を説明するフローチャートである。図14について、実施の形態1の場合の図8とは異なる点を説明する。
ステップS01Aで、ライダ構造データ84も構造データ記憶部32Aに記憶させる。
ステップS03Aで、測距ライダ16R、16L、16Bに対しても補正パラメータを求める。ロボット1Aに校正用の姿勢をとらせて、ロボット1Aに対して決められた位置に定規物体を配置する。右カメラ2Rおよび左カメラ2Lは、定規物体を撮影する。撮影した画像から定規物体までの距離と定規物体の長さを計測する。測距ライダ16R、16L、16Bは、定規物体が含まれる空間をレーザ光でスキャンして、定規物体の方向と距離を計測する。何点かの距離で、右カメラ2Rおよび左カメラ2Lは定規物体を撮影して計測し、測距ライダ16R、16L、16Bは、定規物体が含まれる空間をレーザ光でスキャンして、定規物体の方向と距離を計測する。計測した距離および長さが実際の距離および長さと一致するように、右カメラ2Rおよび左カメラ2Lの換算係数とオフセット値を求め、測距ライダ16R、16L、16Bの換算係数とオフセット値を求める。
ステップS04Aで、物体20とその周囲環境の3次元モデルであるカメラ周囲点群データ71およびライダ周囲点群データ75を初期生成する。S04Aでの動作は、図15に示すフローチャートで説明する。
ステップS06Aで、右カメラ2Rおよび左カメラ2Lが物体20とその周囲を撮影し、測距ライダ16R、16L、16Bがレーザ光をスキャンし、測距しながらヒューマノイド部1HAを動かして物体20を片方のハンド部11Eで把持させる。S06Aでの動作は、図16と図17に示すフローチャートで説明する。図16と図17は、実施の形態2に係る遠隔制御マニピュレータシステムでロボットが物体を把持する際に遠隔制御する手順を説明するフローチャートである。図16がフローチャートの前半部で、図17が後半部である。図16は、最初にモデル画像53を表示するまでの手順を示す。図17は、3D画像52およびモデル画像53を見ながらオペレータ30が腕部11Jを操作して物体20を把持するまでの手順を示す。
図15は、実施の形態2に係る遠隔制御マニピュレータシステムで周囲点群データを初期生成する手順を説明するフローチャートである。図15について、実施の形態1の場合の図9とは異なる点を説明する。ステップS13Aで、姿勢センサ92が姿勢データ57を計測し、ライダ姿勢73およびカメラ姿勢65を含むロボット3次元モデル64Aを生成する。
ステップS14Aで、右カメラ2Rおよび左カメラ2Lが物体20を含む画像を撮影し、撮影した画像からカメラ周囲点群データ71を生成または修正する。S15Aで、必要十分な範囲および精度でカメラ周囲点群データ71が生成できたかチェックする。周囲点群データ68ではなくカメラ周囲点群データ71を処理対象とする点で、S14AおよびS15AはS14およびS15とは異なる。
必要十分な範囲および精度でカメラ周囲点群データ71が生成できている(S15AでYES)場合は、ステップS19~S25でライダ周囲点群データ75を生成する。S19で、測距ライダ16R、16L、16Bがレーダ光をスキャンしながら放射し、ライダ点群データ74を生成し、ライダ周囲点群データ75を生成または修正する。
ステップS20で、必要十分な範囲および精度でライダ周囲点群データ75が生成できたかチェックする。必要十分な範囲および精度でライダ周囲点群データ75が生成できている(S20でYES)場合は、処理を終了する。
必要十分な範囲および精度でライダ周囲点群データ75が生成できていない(S20でNO)場合は、ステップS21で別の姿勢をとるかチェックする。別の姿勢をとる(S21でYES)場合は、ステップS22でヒューマノイド部1HAに別の姿勢をとらせる。
別の姿勢をとらない(S21でNO)場合は、ステップS23でロボット1を別の位置に移動させる。ステップS24で、位置センサ91が車両姿勢56を計測する。S24またはS22の実行後に、ステップS25で、姿勢センサ92が姿勢データ57を計測し、ライダ姿勢73およびカメラ姿勢65を含むロボット3次元モデル64Aを生成する。そして、S19へ戻る。
図16と図17について、実施の形態1の場合の図10とは異なる点を説明する。図16と図17に示すフローチャートは、カメラ周囲点群データ71またはライダ周囲点群データ75の何れか一方を周囲点群データ68とする場合である。図16と図17に示すフローチャートでは、カメラ周囲点群データ71を優先して使用する。また、カメラ点群データ67を作成できない場合は、ライダ点群データ74だけから周囲点群データ68を生成する。ライダ点群データ74だけから周囲点群データ68を生成する状態で、カメラ点群データ67を作成できるかチェックしてもよい。カメラ点群データ67を作成できる場合は、カメラ点群データ67およびカメラ周囲点群データ71を生成して、カメラ周囲点群データ71を優先して使用して周囲点群データ68を生成してもよい。
ステップS32Aで、ライダ姿勢73およびカメラ姿勢65を含むロボット3次元モデル64Aを生成する。
ステップS38Aで、カメラ点群データ67によりカメラ周囲点群データ71を修正する。そして、ステップS46で、表示状態をカメラ利用可と設定し、点群選択生成部50がカメラ周囲点群データ71を選択して周囲点群データ68とする。ここで、表示状態は、点群選択生成部50がカメラ周囲点群データ71を選択できるかどうかを制御するフラグである。そして、S39で、モデル統合部36が周囲点群データ68とロボット3次元モデル64Aを統合して統合3次元モデル69Aを生成する。
右カメラ2Rおよび左カメラ2Lの両方の視野内に物体20が存在しない(S35でNO)場合、あるいはカメラ点群データ67を生成できていない(S37でNO)場合は、ステップS47~S54でライダ周囲点群データ75を生成する。S47で、測距ライダ16R、16L、16Bがスキャンしながらレーザ光を放射して周囲の事物との距離を計測し、ライダ点群データ74を生成する。なお、不連続点抽出部47が不連続点を抽出できない場合は、ライダ点群データ74を生成できていないとする。ステップS48で、ライダ点群データ74が生成できているかチェックする。ライダ点群データ74が生成できている(S48でYES)場合は、ステップS49で、ライダ点群データ74によりライダ周囲点群データ75を修正する。ステップS50で、表示状態をカメラ利用不可と設定し、ライダ周囲点群データ75を選択して周囲点群データ68とする。そして、S39へ進む。
ライダ点群データ74が生成できていない(S48でNO)場合は、周囲環境に存在する障害物などが原因でライダでの測距ができない場合に対応する。ライダ点群データ74が生成できていない(S48でNO)場合は、ステップS51で、測距ライダ16R、16Lの少なくとも一方が不連続点を有するライダ点群データ74が生成できるように、物体20を別視点から見る位置に右および左の腕部11Jの少なくとも一方を移動させる。
ステップS52で、制御周期Tcが経過したかチェックする。Tcが経過している(S52でYES)場合は、ステップS53で、姿勢センサ92が姿勢データ57を計測する。ステップS54で、車両姿勢56および姿勢データ57からカメラ姿勢65およびライダ姿勢73を含むロボット3次元モデル64Aを生成する。S54の実行後またはTcが経過していない(S52でNO)場合は、S47へ戻る。
オペレータ30がヒューマノイド部1HAを操作中の処理を示す図17について説明する。S43からS45は、図10と同様である。S43で、オペレータ30がヒューマノイド部1HAを動かす。S44で、ハンド部11Eの感圧センサ95の出力(触覚データ60)が接触ありかチェックする。感圧センサ95の出力が接触ありであることは、ハンド部11Eが物体に接触していることを意味する。感圧センサ95の出力が接触ありである(S44でYES)場合は、処理を終了する。感圧センサ95の出力が接触ありではない(S44でNO)場合は、S45で、決められた制御周期Tcが経過したかチェックする。
Tcが経過している(S45でYES)場合は、ステップS55で、姿勢センサ92が姿勢データ57を計測する。ステップS56で、車両姿勢56および姿勢データ57からカメラ姿勢65およびライダ姿勢73を含むロボット3次元モデル64Aを生成する。S56の実行後またはTcが経過していない(S45でNO)場合は、ステップS57で、右カメラ2Rおよび左カメラ2Lが物体20の画像を撮影する。
ステップS58で、立体視表示装置4が3D画像52を立体視表示する。S58と並行してステップS59で、表示状態がカメラ利用可かチェックする。カメラ利用可である(S59でYES)場合は、ステップS60で右カメラ2Rおよび左カメラ2Lの両方の視野内に物体20が存在するかチェックする。右カメラ2Rおよび左カメラ2Lの両方の視野内に物体20が存在する(S60でYES)場合は、ステップS61で、撮影した画像からカメラ点群データ67を生成する。ステップS62で、カメラ点群データ67によりカメラ周囲点群データ71を修正する。ステップS63で、カメラ周囲点群データ71を選択して周囲点群データ68とする。ステップS64で、周囲点群データ68とロボット3次元モデル64Aを統合して統合3次元モデル69を生成する。ステップS65で、統合3次元モデル69からモデル画像53を生成する。ステップS66で、表示装置5がモデル画像53を表示する。ステップS67で、オペレータ30が立体視表示装置4に立体視表示される3D画像52または表示装置5に表示されたモデル画像53を見る。そして、S43へ戻る。
表示状態がカメラ利用可ではない(S59でNO)場合、あるいは右カメラ2Rおよび左カメラ2Lの何れか少なくとも一方の視野内に物体20が存在しない(S60でNO)場合は、ステップS68で、測距ライダ16R、16L、16Bは、スキャンしながらレーザ光を放射して測距し、ライダ点群データ74を生成する。ステップS69で、ライダ点群データ74によりライダ周囲点群データ75を修正する。ステップS70で、表示状態をカメラ利用不可とし、点群選択生成部50がライダ周囲点群データ75を選択して周囲点群データ68とする。そして、S64へ進む。
遠隔制御マニピュレータシステム100Aでも、オペレータ30は、立体視表示された3D画像52およびモデル画像53を自由に切り替えて見ることができる。モデル画像53は、オペレータ30が指定した視点からロボット1および物体20を見る画像である。オペレータ30は、ロボット1Aを遠隔制御して、物体20を押す、引く、把持する等の作業を、従来よりも正確に、かつ容易に実施できる。その他の点でも、遠隔制御マニピュレータシステム100Aは、遠隔制御マニピュレータシステム100と同様に動作して、同様な効果が得られる。
ロボット1Aが測距ライダ16を備えるので、物体20およびその周囲環境の3次元モデルである周囲環境モデルを、遠隔制御マニピュレータシステム100Aは、遠隔制御マニピュレータシステム100よりも容易にかつ正確に生成できる。
周囲点群データは、ライダ周囲点群データ75を優先して使用してもよい。周囲点群データは、カメラ周囲点群データ71またはライダ周囲点群データ75の両方から生成した点群データでもよい。点群選択生成部50は、カメラ周囲点群データ71またはライダ周囲点群データ75の何れか一方を選択して、周囲点群データ68とする。あるいは、点群選択生成部50は、カメラ周囲点群データ71またはライダ周囲点群データ75の両方から周囲点群データ68を生成する。点群選択生成部50は、カメラ周囲点群データ71およびライダ周囲点群データ75の少なくとも一方を選択して周囲点群データ68を生成する。
点群選択生成部は、カメラ周囲点群データ71およびライダ周囲点群データ75の平均をとるなどして周囲点群データ68としてもよい。あるいは、点群選択生成部は、周囲点群データ68の一部はカメラ周囲点群データ71を選択し、別の一部はライダ周囲点群データ75を選択してもよい。点群選択生成部にカメラ周囲点群データ71およびライダ周囲点群データ75の両方が入力される場合に、点群選択生成部が生成する周囲点群データ68をカメラ周囲点群データ71およびライダ周囲点群データ75を融合した融合周囲環境モデルと呼ぶ。その場合の点群選択生成部は、融合周囲環境モデルである周囲点群データ68を生成する周囲環境モデル融合部である。点群選択生成部は、カメラ周囲点群データ71またはライダ周囲点群データ75の両方から生成する部分を有しない周囲点群データ68を生成してもよい。周囲点群データ68は、カメラ周囲点群データ71である部分を有しないものでもよい。周囲点群データ68は、ライダ周囲点群データ75である部分を有しないものでもよい。
カメラ周囲点群データ71およびライダ周囲点群データ75の両方とも周囲点群データとして選択して、統合3次元モデルを生成してもよい。統合3次元モデルに基づき生成されるモデル画像には、カメラ周囲点群データ71およびライダ周囲点群データ75の両方が表示される。両方を表示する場合には、カメラ周囲点群データ71とライダ周囲点群データ75とで画像の表示色を変え、どちらの画像も透過する画像とする。透過する画像とすることで、カメラ周囲点群データ71のライダ周囲点群データ75の両方の画像を見ることができ、カメラ周囲点群データ71のライダ周囲点群データ75の背後のロボット1Aや周囲環境も見ることができる。
カメラ周囲点群データ71またはライダ周囲点群データ75のどちらを優先して表示するか、両方を表示するか、あるいはカメラ周囲点群データ71およびライダ周囲点群データ75を融合した融合周囲環境モデル表示するかを選択する指示を、オペレータ30が入力できるようにしてもよい。物体20を扱う処理を開始した後に、オペレータ30が表示方法を変更できるようにしてもよい。
環境モデル生成部は、画像処理によりカメラ周囲点群データを生成せず、ライダ周囲点群データ75だけを生成するものでもよい。その場合の環境モデル生成部は、周囲環境モデルであるライダ周囲点群データ75とロボット3次元モデル64Aとを統合するモデル統合部を有する。
測距ライダではなく、電波や超音波を放射することで周囲の物体までの距離を計測する測距センサを使用してもよい。必要十分なスキャン角度範囲および角度分解能で方向ごとの事物までの距離を計測できるものであれば、測距センサはどのようなものを使用してもよい。
以上のことは、他の実施の形態にもあてはまる。
実施の形態3.
実施の形態3は、ロボットの3次元モデルを、目標姿勢に基づき生成するように実施の形態2を変更した場合である。目標姿勢は、オペレータ30が意図している制御後のロボット1Aの姿勢を表すデータである。図18を参照して、実施の形態3に係る遠隔制御マニピュレータシステムの構成を説明する。図18は、実施の形態3に係る遠隔制御マニピュレータシステムの機能構成を示すブロック図である。
遠隔制御マニピュレータシステム100Bの機能構成を示す図18について、実施の形態2の場合の図13とは異なる点を説明する。遠隔制御マニピュレータシステム100Bを構成する制御装置3Bは、状態データ記憶部33B、ロボットモデル生成部34B、モデル統合部36Bおよびモデル画像生成部38Bを変更している。
状態データ記憶部33Bは、2個のロボット3次元モデル64A、64Bを記憶する。状態データ記憶部33Bは、統合3次元モデル69Bとモデル画像53Bを記憶する。ロボット3次元モデル64Aは、現在のロボット1Aの姿勢を表す姿勢データ57に基づき生成されるロボット1Aの3次元モデルである。ロボット3次元モデル64Bは、目標姿勢54に基づき生成されるロボット1Aの3次元モデルである。目標姿勢54は、オペレータ30が入力する動作指示を実行後のロボット1Aの位置および姿勢を表すデータである。統合3次元モデル69Bおよびモデル画像53Bは、ロボット3次元モデル64Bに基づき生成される。説明を分かりやすくするために、ロボット3次元モデル64Aを現在3次元モデル64Aと呼び、ロボット3次元モデル64Bを目標3次元モデル64Bと呼ぶ。目標3次元モデル64Bは、オペレータ30が入力した目標姿勢54をロボット1Aがとる3次元モデルである。目標3次元モデル64Bは、ロボット1Aが動作指示に従う動作を実行後のマニピュレータモデルである目標マニピュレータモデルである。モデル画像53Bは、目標姿勢54をとるロボット1Aを指定された視点から見る画像である。
カメラ座標変換部45は、現在3次元モデル64Aに含まれるカメラ姿勢65に基づき、カメラ点群生データ66をカメラ点群データ67に変換する。ライダ座標変換部48は、現在3次元モデル64Aに含まれるライダ姿勢73に基づき、ライダ点群生データ72をライダ点群データ74に変換する。
統合3次元モデル69Bは、目標3次元モデル64Bと現在の周囲環境を表す周囲点群データ68を統合した3次元モデルを表すデータである。状態データ記憶部33Bは、現在3次元モデル64Aと周囲点群データ68を統合した統合3次元モデルは記憶しない。モデル画像53Bは、統合3次元モデル69Bを視点データ70で指定される視点から見た画像である。モデル画像53Bは、表示装置5に表示される。
ロボットモデル生成部34Bは、姿勢データ57を参照して現在3次元モデル64Aを生成し、目標姿勢54を参照して目標3次元モデル64Bを生成する。ロボットモデル生成部34Bは、目標マニピュレータモデルを生成する目標マニピュレータモデル生成部である。
モデル統合部36Bは、目標3次元モデル64Bと周囲点群データ68とを統合して統合3次元モデル69Bを生成する。
モデル画像生成部38Bは、統合3次元モデル69Bを使用してモデル画像53Bを生成する。
図19を参照して、動作を説明する。図19は、実施の形態に係る遠隔制御マニピュレータシステムでロボットを遠隔制御する手順を説明するフローチャートである。図19について、実施の形態2の場合の図14とは異なる点を説明する。
周囲点群データ68を初期生成する際には、モデル画像53Bをオペレータ30に提示しないので、S04Aは変更していない。なお、周囲点群データ68を初期生成する際にモデル画像53Bを提示する場合には、S04Aを変更する。変更したS04Aを実行するフローチャートでは、図15に示す周囲点群データ68を初期生成する手順を説明するフローチャートを、以下のように修正する。S13A、S25で、ロボットモデル生成部34Bが、ライダ姿勢73とカメラ姿勢65を含む現在3次元モデル64Aと目標3次元モデル64Bを生成する。S13AまたはS25次の手順として、モデル画像53Bを表示装置5に表示する手順が追加される。
ステップS06Bは、目標姿勢54に基づくモデル画像53Bをオペレータ30に提示する点が、S06Aとは異なる。S06Bで、右カメラ2Rおよび左カメラ2Lが物体20とその周囲を撮影し、測距ライダ16R、16L、16Bがレーザ光をスキャンし測距しながら、ヒューマノイド部1HAを動かして物体20を片方のハンド部11Eで把持させる。S06Bでの動作は、図20と図21に示すフローチャートで説明する。図20と図21は、実施の形態2に係る遠隔制御マニピュレータシステムでロボットが物体を把持する際に遠隔制御する手順を説明するフローチャートである。
ステップS32B、S54B、S56Bで、ロボットモデル生成部34Bが、ライダ姿勢73とカメラ姿勢65を含む現在3次元モデル64Aと目標3次元モデル64Bを生成する。
ステップS39B、S64Bで、モデル統合部36Bが、目標3次元モデル64Bと周囲点群データ68とを統合して統合3次元モデル69Bを生成する。
ステップS40B、S65Bで、モデル画像生成部38Bが、統合3次元モデル69Bを使用してモデル画像53Bを生成する。
なお、S36などのカメラ点群生データ66をカメラ点群データ67に変換する処理は、実施の形態2の場合と同様に現在3次元モデル64Aに含まれるカメラ姿勢65を使用する。S47などのライダ点群生データ72をライダ点群データ74に変換する処理も、現在3次元モデル64Aに含まれるライダ姿勢73を使用する。
遠隔制御マニピュレータシステム100Bでも、オペレータ30は、立体視表示された3D画像52およびモデル画像53Bを自由に切り替えて見ることができる。モデル画像53Bは、オペレータ30が指定した視点からロボット1および物体20を見る画像である。オペレータ30は、ロボット1Aを遠隔制御して、物体20を押す、引く、把持する等の作業を、従来よりも正確に、かつ容易に実施できる。その他の点でも、遠隔制御マニピュレータシステム100Bは、遠隔制御マニピュレータシステム100と同様に動作して、同様な効果が得られる。
オペレータ30が見て確認するモデル画像53Bは、目標姿勢54に基づく目標3次元モデル64Bに基づいて生成されている。オペレータ30は、操作後のロボット1Aの姿勢を実際にロボット1Aが動くよりも前に確認できる。遠隔制御マニピュレータシステム100Bでは、過剰な動きをロボット1Aにさせることになる目標姿勢54をオペレータ30が入力することを防止できる。
遠隔制御マニピュレータシステム100、100Aでは、通信や信号処理等による遅れ時間の影響により、オペレータ30がロボット1Aを動かしすぎる場合がある。具体的には、オペレータ30が既に適切な目標姿勢54を入力しているにも関わらず、モデル画像53ではロボット1Aが目標姿勢54に至る途中の姿勢を表示する場合がある。そのようなモデル画像53を見たオペレータ30は、目標姿勢54をさらに変化させる入力をする場合がある。その結果、ロボット1Aが動きすぎてしまい、柔らかい物体20を把持する場合などに、ロボット1Aが把持することで物体20が変形あるいは破損することが考えられる。物体20が硬い場合でも、ロボット1Aを操作する上で、ハンド部11Eが想定するよりも早く物体20と接触することになり、滑らかな操作ができにくくなると考えられる。
モデル画像として、ロボット1Aの現在の姿勢を表す現在3次元モデル64Aと、制御の目標となる姿勢である目標姿勢を表す目標3次元モデル64Bの両方を表示色や濃淡を変えるなどして同時に表示するモデル画像を表示してもよい。現在3次元モデル64Aおよび目標3次元モデル64Bの両方を同時にモデル画像に表示する場合には、モデル統合部は現在3次元モデル64Aおよび目標3次元モデル64Bの両方を選択して統合3次元モデルを生成する。ロボット1Aの現在姿勢が示されるモデル画像53、ロボット1Aの目標姿勢が示されるモデル画像53B、ロボット1Aの現在姿勢および目標姿勢を同時に表示するモデル画像の何れかを、オペレータ30が選択して表示できるようにしてもよい。この場合には、モデル統合部は現在3次元モデル64Aおよび目標3次元モデル64Bの何れかまたは両方を選択して統合3次元モデルを生成する。モデル統合部は、現在3次元モデル64Aと周囲点群データ68を統合した統合3次元モデル、目標3次元モデル64Bと周囲点群データ68を統合した統合3次元モデル、現在3次元モデル64Aおよび目標3次元モデル64Bと周囲点群データ68を統合した統合3次元モデルを生成してもよい。
周囲環境モデルも、画像から生成したカメラ周囲点群データ71、測距ライダ16の測距データに基づくライダ周囲点群データ75の何れかを切り替えて表示したり、カメラ周囲点群データ71およびライダ周囲点群データ75を同時に区別できるように表示したりを、オペレータ30が選択できるようにしてもよい。
以上のことは、他の実施の形態にもあてはまる。
実施の形態4.
実施の形態4は、既存の遠隔制御マニピュレータシステムに遠隔制御支援システムを付加して実施の形態3と同等な遠隔制御マニピュレータシステムを構成する場合である。図22に、実施の形態4に係る遠隔制御マニピュレータシステムおよび遠隔制御支援システムの機能構成を示すブロック図である。図22について、実施の形態3の場合の図18とは異なる点を説明する。
既存の遠隔制御マニピュレータシステムは、例えばヘッドマウントディスプレイ(Head Mount Display、HMD)をオペレータ30が装着するシステムである。遠隔制御マニピュレータシステム100Cは、HMDを立体視表示装置4に置き換え、支援装置25、測距ライダ16、表示装置5などを既存のシステムに追加して構成している。
ロボット1A、制御装置3C、目標姿勢入力装置6は、既存のシステムでのものそのまま、あるいは必要な変更を施したものである。ロボット1Aは、既存のロボット1に測距ライダ16R、16L、16Bを搭載したものである。制御装置3Cは、既存の制御装置に目標姿勢54を支援装置25に送信する機能を持たせる。
制御装置3Cは、ロボット1Aを遠隔制御する機能を有する。支援装置25は、モデル画像53Bを生成して表示装置5に表示する機能を有する。モデル画像53Bは、目標姿勢をとるロボット3次元モデル64Bと周囲点群データ68を統合した統合3次元モデル69Bを任意の視点から見る画像である。支援装置25は、立体視表示装置4が3D画像52を立体視表示する機能を有する。制御装置3Cが、HMDではなく立体視表示装置4に3D画像52を出力するようにしてもよい。制御装置および支援装置を介さないで、立体視表示装置4に右目画像51Rおよび左目画像51Lが入力され、立体視表示装置4が入力される右目画像51Rおよび左目画像51Lを立体視表示してもよい。
支援装置25、測距ライダ16、立体視表示装置4、表示装置5は、遠隔制御支援システム150を構成する。図22では、遠隔制御支援システム150の範囲を破線で示す。
支援装置25は、構造データ記憶部26、状態データ記憶部27、通信部28、ロボットモデル生成部34B、環境モデル生成部35A、モデル統合部36B、視点データ生成部37、モデル画像生成部38B、制御参考情報生成部39を有する。
構造データ記憶部26は、ロボット構造データ81、カメラ構造データ82、センサ構造データ83、ライダ構造データ84を有する。構造データ記憶部26は、実施の形態3での構造データ記憶部32Aと同様である。
状態データ記憶部27は、右目画像51Rおよび左目画像51Lで構成される3D画像52、モデル画像53B、目標姿勢54、車両姿勢56、姿勢データ57、触覚データ60、撮影条件データ63、ロボット3次元モデル64A、64Bを記憶する。目標姿勢54、車両姿勢56、姿勢データ57および撮影条件データ63は、ロボット3次元モデル64A、64Bを生成するために使用される。触覚データ60は、ハンド部11Eが物体20に接触しているかどうか判断するために使用される。ロボット3次元モデル64A、64Bは、カメラ姿勢65およびライダ姿勢73を含む。状態データ記憶部27は、さらにカメラ点群生データ66、カメラ点群データ67、周囲点群データ68、統合3次元モデル69B、視点データ70、カメラ周囲点群データ71、ライダ点群生データ72、ライダ点群データ74、ライダ周囲点群データ75を記憶する。
通信部28は、ロボット1Aおよび制御装置3Cと通信する。通信部28は、ロボット1Aの通信部9から送信される車両姿勢56、姿勢データ57、触覚データ60、撮影条件データ63、右目画像51R、左目画像51Lおよびライダ点群生データ72を受信し、制御装置3Cの通信部31から送信される目標姿勢54を受信する。通信部31が、受信した車両姿勢56、姿勢データ57および触覚データ60を、通信部28に転送してもよい。
制御装置3Cは、ロボット1Aを遠隔制御するためのデータおよび処理部を有する。制御装置3Cは、通信部31、構造データ記憶部32C、状態データ記憶部33C、目標姿勢生成部40、制御姿勢生成部41、異常検出部42を有する。状態データ記憶部32Cは、ロボット構造データ81、センサ構造データ83を記憶する。状態データ記憶部33Cは、目標姿勢54、制御姿勢55、車両姿勢56、姿勢データ57、モータ温度58、物体距離59、触覚データ60、作用力データ61、加速度データ62を記憶する。
遠隔制御支援システム150を含む遠隔制御マニピュレータシステム100Cは、遠隔制御マニピュレータシステム100Bと同様に動作し同様な効果が得られる。
遠隔制御支援システム150によれば、オペレータ30は、自分の頭を移動させることで、立体視表示された3D画像52およびモデル画像53Bを自由に切り替えて見ることができる。モデル画像53Bは、オペレータ30が指定した視点からロボット1および物体20を見る画像である。遠隔制御支援システム150により提供される遠隔制御を支援する画像および情報を見ることで、オペレータ30は、ロボット1を遠隔制御して、対象物を押す、引く、把持する等の作業を、従来よりも正確に、かつ容易に実施できる。
実施の形態1または実施の形態2と同様な遠隔制御マニピュレータシステム、あるいは他の遠隔制御マニピュレータシステムを構成する場合にも、本開示に係る遠隔制御支援システムは適用できる。制御装置と支援装置が別計算機として実装されない遠隔制御マニピュレータシステムにおいても、遠隔制御マニピュレータシステムは遠隔制御支援システムである部分を含む。遠隔制御支援システムである部分は、立体視表示装置と、ロボットおよび周囲環境の3次元モデルをオペレータ30が指定した視点から見る画像であるモデル画像53Bを生成する機能モジュール、モデル画像53Bを表示する表示装置を含む部分である。
既存の立体視ができない遠隔制御マニピュレータシステムに遠隔制御支援システムを付加する場合は、右カメラおよび左カメラは遠隔制御支援システムに含まれる。
測距ライダ16R、16L、16Bが計測するライダ点群生データ72を、専用の通信装置により支援装置25に送信してもよい。その場合には、制御部7Aが有する記憶部15Aはライダ点群生データ72を記憶しない。ロボット1Aは、ハードウエアとしての測距ライダ16R、16L、16Bが搭載されている点だけがロボット1とは異なる。ロボット1Aは、測距ライダ16R、16L、16Bが搭載されていないロボット1と同様に遠隔制御される。
各実施の形態の自由な組み合わせ、あるいは各実施の形態の変形や一部の構成要素を省略すること、あるいは一部の構成要素の省略や変形をした各実施の形態の自由な組み合わせが可能である。
100、100A、100B、100C 遠隔制御マニピュレータシステム
150 遠隔制御支援システム

20 物体
30 オペレータ(操作者)

1、1A クローラ移動ロボット(ロボット、マニピュレータ)
1W 車両部
1H、1HA ヒューマノイド部
2R 右カメラ
2L 左カメラ
3、3A、3B 制御装置
4 立体視表示装置
5 表示装置(モデル画像表示装置)
6 目標姿勢入力装置(動作指示入力部)
6H 上体目標姿勢入力部
6W 車両姿勢入力部
7 制御部
8 通信回線
9 通信部
10 LAN

11 骨格部
11A 胴体部
11B 腕基部
11C 上腕部
11D 前腕部
11E ハンド部
11F 頭部
11G レッグ部
11H 胴体接続部
11J 腕部

12 関節部
12A 肩関節部
12B 肘関節部
12C 手首関節部
12D 首関節部
12E レッグ元関節部
12F レッグ先関節部
12G 胴体関節部

13 アクチュエータ
14 モータ
15、15A 記憶部
16R、16L、16B 測距ライダ(測距センサ)

21 CPU
22 メモリ部
23 CPU
24 メモリ部

25 支援装置
26 構造データ記憶部
27 状態データ記憶部
28 通信部

31 通信部
32、32A、32C 構造データ記憶部
33、33A、33B、33C 状態データ記憶部
34、34A ロボットモデル生成部(マニピュレータモデル生成部)
34B ロボットモデル生成部(マニピュレータモデル生成部、目標マニピュレータモデル生成部)
35 環境モデル生成部(画像処理モデル生成部)
35A 環境モデル生成部(画像処理モデル生成部、測距データ処理モデル生成部)
36、36B モデル統合部
37 視点データ生成部
38、38B モデル画像生成部
39 制御参考情報生成部
40 目標姿勢生成部
41 制御姿勢生成部(制御信号生成部)
42 異常検出部
43 画像処理部
44 カメラ点群生データ生成部
45 カメラ座標変換部
46、46A カメラ点群整合部
47 不連続点抽出部
48 ライダ座標変換部
49 ライダ点群整合部
50 点群選択生成部(周囲環境モデル融合部)

51R 右目画像
51L 左目画像
52 3D画像(立体視画像)
53、53B モデル画像
54 目標姿勢(動作指示)
55 制御姿勢(制御信号)
56 車両姿勢(位置姿勢情報)
57 姿勢データ(位置姿勢情報)
58 モータ温度
59 物体距離
60 触覚データ
61 作用力データ
62 加速度データ
63 撮影条件データ
64、64A ロボット3次元モデル(現在3次元モデル、マニピュレータモデル)
64B ロボット3次元モデル(目標3次元モデル、目標マニピュレータモデル)
65 カメラ姿勢
66 カメラ点群生データ
67 カメラ点群データ
68 周囲点群データ(周囲環境モデル、融合周囲環境モデル)
69、69A、69B 統合3次元モデル
70 視点データ
71 カメラ周囲点群データ
72 ライダ点群生データ
73 ライダ姿勢
74 ライダ点群データ
75 ライダ周囲点群データ

81 ロボット構造データ(マニピュレータ構造データ)
82 カメラ構造データ
83 センサ構造データ
84 ライダ構造データ(測距センサ構造データ)

91 位置センサ(位置姿勢センサ)
92 姿勢センサ(位置姿勢センサ)
93 温度センサ
94 距離センサ
95 感圧センサ
96 力覚センサ
97 加速度センサ。

Claims (27)

  1. 操作者により遠隔制御されて物体を扱うマニピュレータと、
    前記マニピュレータが動くまたは静止する動作を指示する動作指示を前記操作者が入力する動作指示入力部と、
    前記動作指示から前記マニピュレータを制御する制御信号を生成する制御信号生成部と、
    決められた位置関係を有して前記マニピュレータに搭載された右カメラおよび左カメラと、
    前記右カメラが撮影する右目画像および前記左カメラが撮影する左目画像を立体的に見えるように表示する立体視表示装置と、
    前記マニピュレータの位置および姿勢を表す位置姿勢情報を検出する位置姿勢センサと、
    前記マニピュレータの構造を表すマニピュレータ構造データ、および前記右カメラおよび前記左カメラの構造を表すカメラ構造データを記憶する構造データ記憶部と、
    前記マニピュレータ構造データ、前記カメラ構造データおよび前記位置姿勢情報を参照して、前記右カメラおよび前記左カメラを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
    前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき、前記右目画像および前記左目画像を画像処理して、前記物体および前記物体の周囲の事物である周囲環境の3次元モデルである周囲環境モデルを生成する画像処理モデル生成部と、
    前記周囲環境モデルと前記マニピュレータモデルを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
    前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
    前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御マニピュレータシステム。
  2. 操作者により遠隔制御されて物体を扱うマニピュレータと、
    前記マニピュレータが動くまたは静止する動作を指示する動作指示を前記操作者が入力する動作指示入力部と、
    前記動作指示から前記マニピュレータを制御する制御信号を生成する制御信号生成部と、
    決められた位置関係を有して前記マニピュレータに搭載された右カメラおよび左カメラと、
    前記右カメラが撮影する右目画像および前記左カメラが撮影する左目画像を立体的に見えるように表示する立体視表示装置と、
    前記マニピュレータの位置および姿勢を表す位置姿勢情報を検出する位置姿勢センサと、
    前記マニピュレータに搭載されて前記物体および前記物体の周囲の事物である周囲環境までの距離と方向を含む測距データを計測する測距センサと、
    前記マニピュレータの構造を表すマニピュレータ構造データ、前記右カメラおよび前記左カメラの構造を表すカメラ構造データ、および前記測距センサの構造を表す測距センサ構造データを記憶する構造データ記憶部と、
    前記マニピュレータ構造データ、前記カメラ構造データ、前記測距センサ構造データ、および前記位置姿勢情報を参照して、前記右カメラ、前記左カメラおよび前記測距センサを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
    前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき、前記右目画像および前記左目画像を画像処理して、前記周囲環境の3次元モデルである周囲環境モデルを生成する画像処理モデル生成部と、
    前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向に基づき、前記測距データを処理して前記周囲環境モデルを生成する測距データ処理モデル生成部と、
    前記画像処理モデル生成部が生成する前記周囲環境モデルであるカメラ周囲環境モデルと、前記測距データ処理モデル生成部が生成する前記周囲環境モデルであるセンサ周囲環境モデルとの少なくとも一方と前記マニピュレータモデルとを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
    前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
    前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御マニピュレータシステム。
  3. 前記モデル統合部は、前記カメラ周囲環境モデルまたは前記センサ周囲環境モデルの何れか一方を選択して前記統合3次元モデルを生成する、請求項2に記載の遠隔制御マニピュレータシステム。
  4. 前記モデル統合部は、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方を選択して前記統合3次元モデルを生成する、請求項2に記載の遠隔制御マニピュレータシステム。
  5. 前記モデル統合部は、前記操作者の指示により、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方、あるいは前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの何れか一方を選択して前記統合3次元モデルを生成する、請求項2に記載の遠隔制御マニピュレータシステム。
  6. 前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルを融合した前記周囲環境モデルである融合周囲環境モデルを生成する周囲環境モデル融合部を備え、
    前記モデル統合部は、前記融合周囲環境モデルと前記マニピュレータモデルとを統合して前記統合3次元モデルを生成する、請求項2に記載の遠隔制御マニピュレータシステム。
  7. 前記モデル統合部は、前記操作者の指示により、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方、あるいは前記カメラ周囲環境モデル、前記センサ周囲環境モデルおよび前記融合周囲環境モデルの何れかを選択して前記統合3次元モデルを生成する、請求項6に記載の遠隔制御マニピュレータシステム。
  8. 操作者により遠隔制御されて物体を扱うマニピュレータと、
    前記マニピュレータが動くまたは静止する動作を指示する動作指示を前記操作者が入力する動作指示入力部と、
    前記動作指示から前記マニピュレータを制御する制御信号を生成する制御信号生成部と、
    決められた位置関係を有して前記マニピュレータに搭載された右カメラおよび左カメラと、
    前記右カメラが撮影する右目画像および前記左カメラが撮影する左目画像を立体的に見えるように表示する立体視表示装置と、
    前記マニピュレータに搭載されて前記物体および前記物体の周囲の事物である周囲環境までの距離と方向を含む測距データを計測する測距センサと、
    前記マニピュレータの位置および姿勢を表す位置姿勢情報を検出する位置姿勢センサと、
    前記マニピュレータの構造を表すマニピュレータ構造データ、前記測距センサの構造を表す測距センサ構造データを記憶する構造データ記憶部と、
    前記マニピュレータ構造データ、前記測距センサ構造データ、および前記位置姿勢情報を参照して、前記測距センサを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
    前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向を参照して、前記測距データを処理して、前記周囲環境の3次元モデルである周囲環境モデルを生成する測距データ処理モデル生成部と、
    前記周囲環境モデルと前記マニピュレータモデルを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
    前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
    前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御マニピュレータシステム。
  9. 複数の前記測距センサを備え、
    前記測距データ処理モデル生成部は、複数の前記測距センサが計測する複数の前記測距データを処理して前記周囲環境モデルを生成する、請求項2から請求項8の何れか1項に記載の遠隔制御マニピュレータシステム。
  10. 前記測距データ処理モデル生成部は、前記測距センサの位置および姿勢の少なくとも一方が異なる際に計測された複数の前記測距データを、その前記測距データが計測された際の前記位置姿勢情報で生成された前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向に基づき処理して前記周囲環境モデルを生成する、請求項2から請求項9の何れか1項に記載の遠隔制御マニピュレータシステム。
  11. 前記画像処理モデル生成部は、前記右カメラおよび前記左カメラの少なくとも一方の位置および姿勢の少なくとも一方が異なる際に撮影された複数の前記右目画像および前記左目画像を、その前記右目画像および前記左目画像が撮影された際の前記位置姿勢情報で生成された前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき画像処理して前記周囲環境モデルを生成する、請求項1から請求項7の何れか1項に記載の遠隔制御マニピュレータシステム。
  12. 前記モデル画像生成部は、複数の異なる視点から前記統合3次元モデルを見る複数の前記モデル画像を生成し、
    前記モデル画像表示装置は、複数の前記モデル画像を同時に表示する、請求項1から請求項7、請求項11の何れか1項に記載の遠隔制御マニピュレータシステム。
  13. 前記動作指示に従う動作を実行後の前記マニピュレータの位置および姿勢を表す目標姿勢を参照して、前記動作指示に従う動作を実行後の前記マニピュレータモデルである目標マニピュレータモデルを生成する目標マニピュレータモデル生成部を備え、
    前記モデル統合部は、前記操作者の指示により、前記マニピュレータモデルおよび前記目標マニピュレータモデルの何れかまたは両方を選択して前記統合3次元モデルを生成する、請求項1から請求項12の何れか1項に記載の遠隔制御マニピュレータシステム。
  14. 操作者により遠隔制御されて物体を扱うマニピュレータに搭載されて決められた位置関係を有する右カメラおよび左カメラが撮影する右目画像および左目画像を立体的に見えるように表示する立体視表示装置と、
    前記マニピュレータの構造を表すマニピュレータ構造データ、および前記右カメラおよび前記左カメラの構造を表すカメラ構造データを記憶する構造データ記憶部と、
    前記マニピュレータ構造データ、前記カメラ構造データおよび前記マニピュレータの位置および姿勢を表す位置姿勢情報を参照して、前記右カメラおよび前記左カメラを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
    前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき、前記右目画像および前記左目画像を画像処理して、前記物体および前記物体の周囲の事物である周囲環境の3次元モデルである周囲環境モデルを生成する画像処理モデル生成部と、
    前記周囲環境モデルと前記マニピュレータモデルを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
    前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
    前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御支援システム。
  15. 操作者により遠隔制御されて物体を扱うマニピュレータに搭載されて決められた位置関係を有する右カメラおよび左カメラが撮影する右目画像および左目画像を立体的に見えるように表示する立体視表示装置と、
    前記マニピュレータに搭載されて前記物体および前記物体の周囲の事物である周囲環境までの距離と方向を含む測距データを計測する測距センサと、
    前記マニピュレータの構造を表すマニピュレータ構造データ、前記右カメラおよび前記左カメラの構造を表すカメラ構造データ、および前記測距センサの構造を表す測距センサ構造データを記憶する構造データ記憶部と、
    前記マニピュレータ構造データ、前記カメラ構造データ、前記測距センサ構造データ、および前記マニピュレータの位置および姿勢を表す位置姿勢情報を参照して、前記右カメラ、前記左カメラおよび前記測距センサを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
    前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき、前記右目画像および前記左目画像を画像処理して、前記周囲環境の3次元モデルである周囲環境モデルを生成する画像処理モデル生成部と、
    前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向に基づき、前記測距データを処理して前記周囲環境モデルを生成する測距データ処理モデル生成部と、
    前記画像処理モデル生成部が生成する前記周囲環境モデルであるカメラ周囲環境モデルと、前記測距データ処理モデル生成部が生成する前記周囲環境モデルであるセンサ周囲環境モデルとの少なくとも一方と前記マニピュレータモデルとを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
    前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
    前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御支援システム。
  16. 前記モデル統合部は、前記カメラ周囲環境モデルまたは前記センサ周囲環境モデルの何れか一方を選択して前記統合3次元モデルを生成する、請求項15に記載の遠隔制御支援システム。
  17. 前記モデル統合部は、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方を選択して前記統合3次元モデルを生成する、請求項15に記載の遠隔制御支援システム。
  18. 前記モデル統合部は、前記操作者の指示により、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方、あるいは前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの何れかを選択して前記統合3次元モデルを生成する、請求項15に記載の遠隔制御支援システム。
  19. 前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルを融合した前記周囲環境モデルである融合周囲環境モデルを生成する周囲環境モデル融合部を備え、
    前記モデル統合部は、前記融合周囲環境モデルと前記マニピュレータモデルとを統合して前記統合3次元モデルを生成する、請求項15に記載の遠隔制御支援システム。
  20. 前記モデル統合部は、前記操作者の指示により、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方、あるいは前記カメラ周囲環境モデル、前記センサ周囲環境モデルおよび前記融合周囲環境モデルの何れかを選択して前記統合3次元モデルを生成する、請求項19に記載の遠隔制御支援システム。
  21. 操作者により遠隔制御されて物体を扱うマニピュレータに決められた位置関係を有して搭載された右カメラおよび左カメラが撮影する右目画像および左目画像を立体的に見えるように表示する立体視表示装置と、
    前記マニピュレータに搭載されて前記物体および前記物体の周囲の事物である周囲環境までの距離と方向を含む測距データを計測する測距センサと、
    前記マニピュレータの構造を表すマニピュレータ構造データ、前記測距センサの構造を表す測距センサ構造データを記憶する構造データ記憶部と、
    前記マニピュレータ構造データ、前記測距センサ構造データ、および前記マニピュレータの位置および姿勢を表す位置姿勢情報を参照して、前記測距センサを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
    前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向に基づき、前記測距データを処理して、前記周囲環境の3次元モデルである周囲環境モデルを生成する測距データ処理モデル生成部と、
    前記周囲環境モデルと前記マニピュレータモデルを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
    前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
    前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御支援システム。
  22. 複数の前記測距センサを備え、
    前記測距データ処理モデル生成部は、複数の前記測距センサが計測する複数の前記測距データを処理して前記周囲環境モデルを生成する、請求項15から請求項21の何れか1項に記載の遠隔制御支援システム。
  23. 前記測距データ処理モデル生成部は、前記測距センサの位置および姿勢の少なくとも一方が異なる際に計測された複数の前記測距データを、その前記測距データが計測された際の前記位置姿勢情報で生成された前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向に基づき処理して前記周囲環境モデルを生成する、請求項15から請求項22の何れか1項に記載の遠隔制御支援システム。
  24. 前記画像処理モデル生成部は、前記右カメラおよび前記左カメラの少なくとも一方の位置および姿勢少なくとも一方が異なる際に撮影された複数の前記右目画像および前記左目画像を、その前記右目画像および前記左目画像が撮影された際の前記位置姿勢情報で生成された前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき画像処理して前記周囲環境モデルを生成する、請求項14から請求項20の何れか1項に記載の遠隔制御支援システム。
  25. 前記モデル画像生成部は、複数の異なる視点から前記統合3次元モデルを見る複数の前記モデル画像を生成し、
    前記モデル画像表示装置は、複数の前記モデル画像を同時に表示する、請求項14から請求項20、請求項24の何れか1項に記載の遠隔制御支援システム。
  26. 前記マニピュレータが動くまたは静止する動作を指示する動作指示に従う動作を実行後の前記マニピュレータの位置および姿勢を表す目標姿勢を参照して、前記動作指示に従う動作を実行後の前記マニピュレータモデルである目標マニピュレータモデルを生成する目標マニピュレータモデル生成部を備え、
    前記モデル統合部は、前記操作者の指示により、前記マニピュレータモデルおよび前記目標マニピュレータモデルの何れかまたは両方を選択して前記統合3次元モデルを生成する、請求項14から請求項25の何れか1項に記載の遠隔制御支援システム。
  27. 前記右カメラおよび前記左カメラを備えた、請求項14から請求項26の何れか1項に記載の遠隔制御支援システム。
JP2022568347A 2020-12-10 2021-12-10 遠隔制御マニピュレータシステムおよび遠隔制御支援システム Active JP7224559B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020205183 2020-12-10
JP2020205183 2020-12-10
PCT/JP2021/045527 WO2022124398A1 (ja) 2020-12-10 2021-12-10 遠隔制御マニピュレータシステムおよび遠隔制御支援システム

Publications (3)

Publication Number Publication Date
JPWO2022124398A1 JPWO2022124398A1 (ja) 2022-06-16
JP7224559B2 true JP7224559B2 (ja) 2023-02-17
JPWO2022124398A5 JPWO2022124398A5 (ja) 2023-02-17

Family

ID=81974596

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022568347A Active JP7224559B2 (ja) 2020-12-10 2021-12-10 遠隔制御マニピュレータシステムおよび遠隔制御支援システム

Country Status (3)

Country Link
US (1) US11926064B2 (ja)
JP (1) JP7224559B2 (ja)
WO (1) WO2022124398A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024013895A1 (ja) * 2022-07-13 2024-01-18 日本電信電話株式会社 遠隔制御システム、遠隔制御方法、および遠隔制御プログラム

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5684531A (en) 1995-04-10 1997-11-04 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Ranging apparatus and method implementing stereo vision system
JP2000042960A (ja) 1998-07-29 2000-02-15 Gifu Prefecture マニピュレータの遠隔操作装置
JP2009006410A (ja) 2007-06-26 2009-01-15 Fuji Electric Systems Co Ltd 遠隔操作支援装置および遠隔操作支援プログラム
JP2009012106A (ja) 2007-07-03 2009-01-22 Fuji Electric Systems Co Ltd 遠隔操作支援装置および遠隔操作支援プログラム
JP2010094777A (ja) 2008-10-16 2010-04-30 Fuji Electric Systems Co Ltd 遠隔操作支援装置
JP2014056496A (ja) 2012-09-13 2014-03-27 Mitsubishi Heavy Ind Ltd 仮想カメラ画像生成装置、仮想カメラ画像生成システム、仮想カメラ画像生成方法、およびプログラム
US20180236666A1 (en) 2017-02-20 2018-08-23 Irobot Defense Holdings, Inc. Robotic gripper camera
WO2019059364A1 (ja) 2017-09-22 2019-03-28 三菱電機株式会社 遠隔制御マニピュレータシステムおよび制御装置
JP2020037145A (ja) 2018-09-03 2020-03-12 川崎重工業株式会社 ロボットシステム
JP2020040184A (ja) 2018-09-12 2020-03-19 キヤノン株式会社 ロボットシステム、ロボットシステムの制御方法、制御プログラム及び記録媒体
WO2021220915A1 (ja) 2020-04-27 2021-11-04 ファナック株式会社 産業機械の表示装置

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6077589A (ja) * 1983-10-05 1985-05-02 Agency Of Ind Science & Technol 遠隔操作における作業環境表示装置
US5417210A (en) * 1992-05-27 1995-05-23 International Business Machines Corporation System and method for augmentation of endoscopic surgery
EP0641132B1 (en) * 1993-08-26 1999-04-14 Matsushita Electric Industrial Co., Ltd. Stereoscopic image pickup apparatus
US5510832A (en) * 1993-12-01 1996-04-23 Medi-Vision Technologies, Inc. Synthesized stereoscopic imaging system and method
US7155316B2 (en) * 2002-08-13 2006-12-26 Microbotics Corporation Microsurgical robot system
SE0203908D0 (sv) * 2002-12-30 2002-12-30 Abb Research Ltd An augmented reality system and method
US7236854B2 (en) * 2004-01-05 2007-06-26 Abb Research Ltd. Method and a system for programming an industrial robot
JP4375320B2 (ja) * 2005-10-27 2009-12-02 株式会社日立製作所 移動ロボット
JP4645678B2 (ja) * 2008-05-08 2011-03-09 ソニー株式会社 情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム
US9285586B2 (en) * 2011-05-13 2016-03-15 Sony Corporation Adjusting parallax barriers
CN103283243A (zh) * 2011-05-19 2013-09-04 松下电器产业株式会社 图像显示系统及三维用眼镜
JP2012253690A (ja) * 2011-06-06 2012-12-20 Namco Bandai Games Inc プログラム、情報記憶媒体及び画像生成システム
US8880223B2 (en) * 2012-07-16 2014-11-04 Florida Institute for Human & Maching Cognition Anthro-centric multisensory interface for sensory augmentation of telesurgery
US9721383B1 (en) * 2013-08-29 2017-08-01 Leap Motion, Inc. Predictive information for free space gesture control and communication
US10078712B2 (en) * 2014-01-14 2018-09-18 Energid Technologies Corporation Digital proxy simulation of robotic hardware
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6516234B2 (ja) * 2014-04-24 2019-05-22 Tianma Japan株式会社 立体画像表示装置
US10768708B1 (en) * 2014-08-21 2020-09-08 Ultrahaptics IP Two Limited Systems and methods of interacting with a robotic tool using free-form gestures
JP6588196B2 (ja) * 2014-10-31 2019-10-09 株式会社ソニー・インタラクティブエンタテインメント 画像生成装置、画像生成方法および較正方法
EP3383247A4 (en) * 2015-11-25 2019-06-26 Camplex, Inc. SURGICAL VISUALIZATION SYSTEMS AND DISPLAYS
US10471594B2 (en) * 2015-12-01 2019-11-12 Kindred Systems Inc. Systems, devices, and methods for the distribution and collection of multimodal data associated with robots
US11612307B2 (en) * 2016-11-24 2023-03-28 University Of Washington Light field capture and rendering for head-mounted displays
US10299880B2 (en) * 2017-04-24 2019-05-28 Truevision Systems, Inc. Stereoscopic visualization camera and platform
EP4067014A3 (en) * 2018-02-20 2022-10-19 Tecan Trading AG Virtual pipetting
JP7294776B2 (ja) * 2018-06-04 2023-06-20 オリンパス株式会社 内視鏡プロセッサ、表示設定方法、表示設定プログラムおよび内視鏡システム
WO2020048461A1 (zh) * 2018-09-03 2020-03-12 广东虚拟现实科技有限公司 三维立体显示方法、终端设备及存储介质
JP7119896B2 (ja) * 2018-10-24 2022-08-17 トヨタ自動車株式会社 コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム
US11262887B2 (en) * 2019-09-13 2022-03-01 Toyota Research Institute, Inc. Methods and systems for assigning force vectors to robotic tasks
US20210327121A1 (en) * 2020-04-15 2021-10-21 Sirisilp Kongsilp Display based mixed-reality device
JP2023103499A (ja) * 2020-06-15 2023-07-27 ソニーグループ株式会社 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法
JP2022046260A (ja) * 2020-09-10 2022-03-23 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5684531A (en) 1995-04-10 1997-11-04 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Ranging apparatus and method implementing stereo vision system
JP2000042960A (ja) 1998-07-29 2000-02-15 Gifu Prefecture マニピュレータの遠隔操作装置
JP2009006410A (ja) 2007-06-26 2009-01-15 Fuji Electric Systems Co Ltd 遠隔操作支援装置および遠隔操作支援プログラム
JP2009012106A (ja) 2007-07-03 2009-01-22 Fuji Electric Systems Co Ltd 遠隔操作支援装置および遠隔操作支援プログラム
JP2010094777A (ja) 2008-10-16 2010-04-30 Fuji Electric Systems Co Ltd 遠隔操作支援装置
JP2014056496A (ja) 2012-09-13 2014-03-27 Mitsubishi Heavy Ind Ltd 仮想カメラ画像生成装置、仮想カメラ画像生成システム、仮想カメラ画像生成方法、およびプログラム
US20180236666A1 (en) 2017-02-20 2018-08-23 Irobot Defense Holdings, Inc. Robotic gripper camera
WO2019059364A1 (ja) 2017-09-22 2019-03-28 三菱電機株式会社 遠隔制御マニピュレータシステムおよび制御装置
JP2020037145A (ja) 2018-09-03 2020-03-12 川崎重工業株式会社 ロボットシステム
JP2020040184A (ja) 2018-09-12 2020-03-19 キヤノン株式会社 ロボットシステム、ロボットシステムの制御方法、制御プログラム及び記録媒体
WO2021220915A1 (ja) 2020-04-27 2021-11-04 ファナック株式会社 産業機械の表示装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
後久卓哉 他,次世代マニピュレータによる廃棄物分離選別システムの開発 第3報 最終成果報告,第29回日本ロボット学会学術講演会予稿集DVD-ROM 2011年 The 29th Annual Conference of the Robotics Society of Japan ,日本,一般社団法人日本ロボット学会,2011年09月07日

Also Published As

Publication number Publication date
US20240033930A1 (en) 2024-02-01
WO2022124398A1 (ja) 2022-06-16
US11926064B2 (en) 2024-03-12
JPWO2022124398A1 (ja) 2022-06-16

Similar Documents

Publication Publication Date Title
KR102379245B1 (ko) 웨어러블 디바이스 기반의 이동 로봇 제어 시스템 및 제어 방법
EP3342561B1 (en) Remote control robot system
US20200055195A1 (en) Systems and Methods for Remotely Controlling a Robotic Device
US9002517B2 (en) Telematic interface with directional translation
CN107968915B (zh) 水下机器人摄像机云台实时控制系统及其方法
JP4167954B2 (ja) ロボット及びロボット移動方法
JP4844453B2 (ja) ロボットの教示装置及び教示方法
KR101988937B1 (ko) 카메라와 로봇 핸드의 캘리브레이션 방법 및 장치
WO2018043525A1 (ja) ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法
JP2012011498A (ja) ロボットアーム操作システムおよびその操作方法
KR102001214B1 (ko) 가상 현실 기반 양팔로봇 교시 장치 및 방법
JP2013071231A (ja) ロボットアームの教示装置、ロボット装置、教示方法、ロボットアームの制御装置、ロボットアームの制御プログラム、並びに、集積電子回路
CN112828916B (zh) 冗余机械臂遥操作组合交互装置及冗余机械臂遥操作系统
CN110834330A (zh) 柔性机械臂遥操作人机交互终端及方法
JP7224559B2 (ja) 遠隔制御マニピュレータシステムおよび遠隔制御支援システム
JP5198078B2 (ja) 計測装置および計測方法
JP2001287179A (ja) 産業用ロボット教示装置
JP4910552B2 (ja) 動作データ作成装置及びその方法
Kurisu A study on teleoperation system for a hexapod robot—Development of a prototype platform
JPH0847881A (ja) ロボットの遠隔操作方法
US20220193906A1 (en) User Interface for Supervised Autonomous Grasping
JP6343930B2 (ja) ロボットシステム、ロボット制御装置、及びロボット制御方法
JP3376029B2 (ja) ロボットの遠隔操作装置
JP7454046B2 (ja) ロボット教示装置及び作業教示方法
Bai et al. Kinect-based hand tracking for first-person-perspective robotic arm teleoperation

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221207

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221207

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230207

R150 Certificate of patent or registration of utility model

Ref document number: 7224559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150