JP7224559B2 - 遠隔制御マニピュレータシステムおよび遠隔制御支援システム - Google Patents
遠隔制御マニピュレータシステムおよび遠隔制御支援システム Download PDFInfo
- Publication number
- JP7224559B2 JP7224559B2 JP2022568347A JP2022568347A JP7224559B2 JP 7224559 B2 JP7224559 B2 JP 7224559B2 JP 2022568347 A JP2022568347 A JP 2022568347A JP 2022568347 A JP2022568347 A JP 2022568347A JP 7224559 B2 JP7224559 B2 JP 7224559B2
- Authority
- JP
- Japan
- Prior art keywords
- model
- manipulator
- camera
- image
- surrounding environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000547 structure data Methods 0.000 claims description 93
- 238000000034 method Methods 0.000 claims description 53
- 238000012545 processing Methods 0.000 claims description 46
- 230000010354 integration Effects 0.000 claims description 33
- 230000008569 process Effects 0.000 claims description 25
- 230000009471 action Effects 0.000 claims description 14
- 230000004927 fusion Effects 0.000 claims description 12
- 238000004148 unit process Methods 0.000 claims 2
- 230000036544 posture Effects 0.000 description 149
- 210000003128 head Anatomy 0.000 description 36
- 210000000245 forearm Anatomy 0.000 description 29
- 238000004891 communication Methods 0.000 description 27
- 238000013500 data storage Methods 0.000 description 21
- 230000001133 acceleration Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 230000008859 change Effects 0.000 description 13
- 230000006870 function Effects 0.000 description 11
- 210000003857 wrist joint Anatomy 0.000 description 11
- 210000000323 shoulder joint Anatomy 0.000 description 8
- 230000005856 abnormality Effects 0.000 description 7
- 210000001503 joint Anatomy 0.000 description 7
- 210000002310 elbow joint Anatomy 0.000 description 6
- 238000005259 measurement Methods 0.000 description 6
- 238000012360 testing method Methods 0.000 description 6
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 5
- 230000009466 transformation Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000000605 extraction Methods 0.000 description 4
- 210000000887 face Anatomy 0.000 description 4
- 230000005855 radiation Effects 0.000 description 4
- 102100024113 40S ribosomal protein S15a Human genes 0.000 description 3
- 101001118566 Homo sapiens 40S ribosomal protein S15a Proteins 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 102220171488 rs760746448 Human genes 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000013021 overheating Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 206010049816 Muscle tightness Diseases 0.000 description 1
- 102220621241 Proline-rich membrane anchor 1_S32A_mutation Human genes 0.000 description 1
- 102220470717 Transcription factor IIIB 90 kDa subunit_S38A_mutation Human genes 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 239000007789 gas Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 231100001261 hazardous Toxicity 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/06—Control stands, e.g. consoles, switchboards
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/111—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
- H04N13/117—Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
- H04N13/38—Image reproducers using viewer tracking for tracking vertical translational head movements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/398—Synchronisation thereof; Control thereof
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40195—Tele-operation, computer assisted manual operation
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40264—Human like, type robot arm
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/61—Scene description
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N2013/0074—Stereoscopic image analysis
- H04N2013/0081—Depth or disparity estimation from stereoscopic image signals
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Manipulator (AREA)
Description
図1および図2を参照して、遠隔制御マニピュレータシステム100の概略構成を説明する。図1は、実施の形態1に係る遠隔制御マニピュレータシステムの概略構成を説明する図である。図2は、実施の形態1に係る遠隔制御マニピュレータシステムの機能構成を示すブロック図である。遠隔制御マニピュレータシステム100は、クローラ移動ロボット1(ロボット1と略す)、右カメラ2R、左カメラ2L、制御装置3、立体視表示装置4、表示装置5、目標姿勢入力装置6を主に有して構成される。ロボット1は、オペレータ30により遠隔制御されて物体20を扱うマニピュレータである。ロボット1が物体20を扱う場所を現場と呼ぶ。オペレータ30が居る場所を指令所と呼ぶ。オペレータ30は、マニピュレータを遠隔制御する操作者である。
X1軸:車両部1Wの左右方向に平行な軸。
Y1軸:車両部1Wの前後方向に平行な軸。
Z1軸:車両部1Wの高さ方向に平行な軸。
X1軸、Y1軸、Z1軸は、互いに直交する。右方をX1軸の正の向きとし、前方を1軸の正の向きとし、上方をZ1軸の正の向きとする。X1軸およびY1軸は、ロボット基準面に平行である。車両部1Wの姿勢は、X1軸、Y1軸およびZ1軸がXYZ座標系で向く方向により表現する。Y1軸をXY平面に射影した軸(投影Y1軸)とX軸がなす角度が、ヨー角である。投影Y1軸がXY平面となす角度が、ピッチ角である。投影Y1軸およびZ軸を含む平面とZ1軸とがなす角度が、ロール角である。
X2軸:胴体接続部11Hの左右方向に平行な軸。
Y2軸:胴体接続部11Hの前後方向に平行な軸。
Z2軸:胴体接続部11Hの高さ方向に平行な軸。AZ2軸と一致する。
X2軸、Y2軸、Z2軸は、互いに直交する。胴体接続部11Hの下端とAZ2軸の交点を、第2の直交座標系の原点とする。基準状態では、X1軸とX2軸、Y1軸とY2軸、Z1軸とZ2軸は、それぞれ互いに平行である。基準状態での車両部1Wの右方をX2軸の正の向きとし、前方をY2軸の正の向きとし、上方をZ2軸の正の向きとする。
X3軸:胴体部11Aの左右方向に平行な軸。
Y3軸:胴体部11Aの前後方向に平行な軸。
Z3軸:胴体部11Aの高さ方向に平行な軸。AZ3軸と一致する。
X3軸、Y3軸、Z3軸は、互いに直交する。第3の直交座標系の原点は、2個の肩関節部12Aを通りAZ3軸に垂直な平面とAZ3軸との交点とする。基準状態での胴体部11Aの右方をX3軸の正の向きとし、前方をY3軸の正の向きとし、上方をZ3軸の正の向きとする。
AZ1軸:レッグ元関節部12Eでの方位回転軸。
EL1軸:レッグ元関節部12Eでの仰角回転軸。
EL2軸:レッグ先関節部12Fでの胴体傾斜回転軸。
AZ2軸:レッグ先関節部12Fでの胴体接続部回転軸。
XEL軸:胴体関節部12Gでの胴体交差回転軸。
AZ3軸:胴体関節部12Gでの胴体回転軸。
XH軸:首関節部12DでのX3軸に平行な回転軸。
YH軸:首関節部12DでのY3軸に平行な回転軸。
AZH軸:首関節部12Dでの頭部回転軸。
AZ4軸:腕部11Jを胴体部11Aに対して回転させる回転軸。腕基部11Bを通り、腕基部11Bを回転させる回転軸。AZ4軸を、腕基部回転軸と呼ぶ。
EL4軸:腕基部11Bと上腕部11Cとがなす角度を変更させる回転軸。EL4軸は、AZ4軸と直交する。
AZ5軸:上腕部11Cを通り、上腕部11Cを回転させる回転軸。AZ5軸は、EL4軸と直交する。AZ5軸を、上腕部回転軸と呼ぶ。
EL5軸:上腕部11Cと前腕部11Dとがなす角度を変更させる回転軸。EL5軸は、AZ5軸と直交する。
AZ6軸:前腕部11Dを通り、前腕部11Dを回転させる回転軸。AZ6軸は、EL5軸と直交する。AZ6軸を、前腕部回転軸と呼ぶ。
EL6軸:前腕部11Dとハンド部11Eとがなす角度を、AZ6軸およびXEL2軸を含む平面(前後方向回転平面)において回転させる回転軸。EL6軸は、AZ6軸およびXEL2軸と直交する。
XEL2軸:前腕部11Dとハンド部11Eとがなす角度を、AZ6軸およびEL6軸を含む平面(左右方向回転平面)において回転させる回転軸。XEL2軸は、AZ6軸およびEL6軸と直交する。
動作指示からロボット1を制御する制御信号を生成する制御信号生成部であれば、どのようなものでもよい。
S04を省略して、周囲点群データ68を初期生成しなくてもよい。その場合には、ロボット1が物体20を扱う際に周囲点群データ68を生成する。
必要十分な範囲および精度で周囲点群データ68が生成できている(S15でYES)場合は、処理を終了する。
以上のことは、他の実施の形態にもあてはまる。
実施の形態2は、ロボットが測距ライダを備え、測距ライダが計測する点群データから周囲環境の3次元モデルを生成する機能を遠隔制御マニピュレータシステムに持たせた場合である。図11から図13を参照して、実施の形態2に係る遠隔制御マニピュレータシステムの構成を説明する。図11は、実施の形態2に係る遠隔制御マニピュレータシステムで使用されるロボットのヒューマノイド部の正面図である。図12は、実施の形態2に係る遠隔制御マニピュレータシステムで使用されるロボットのヒューマノイド部の左側面図である。図13は、実施の形態2に係る遠隔制御マニピュレータシステムの機能構成を示すブロック図である。
以上のことは、他の実施の形態にもあてはまる。
実施の形態3は、ロボットの3次元モデルを、目標姿勢に基づき生成するように実施の形態2を変更した場合である。目標姿勢は、オペレータ30が意図している制御後のロボット1Aの姿勢を表すデータである。図18を参照して、実施の形態3に係る遠隔制御マニピュレータシステムの構成を説明する。図18は、実施の形態3に係る遠隔制御マニピュレータシステムの機能構成を示すブロック図である。
以上のことは、他の実施の形態にもあてはまる。
実施の形態4は、既存の遠隔制御マニピュレータシステムに遠隔制御支援システムを付加して実施の形態3と同等な遠隔制御マニピュレータシステムを構成する場合である。図22に、実施の形態4に係る遠隔制御マニピュレータシステムおよび遠隔制御支援システムの機能構成を示すブロック図である。図22について、実施の形態3の場合の図18とは異なる点を説明する。
150 遠隔制御支援システム
20 物体
30 オペレータ(操作者)
1、1A クローラ移動ロボット(ロボット、マニピュレータ)
1W 車両部
1H、1HA ヒューマノイド部
2R 右カメラ
2L 左カメラ
3、3A、3B 制御装置
4 立体視表示装置
5 表示装置(モデル画像表示装置)
6 目標姿勢入力装置(動作指示入力部)
6H 上体目標姿勢入力部
6W 車両姿勢入力部
7 制御部
8 通信回線
9 通信部
10 LAN
11 骨格部
11A 胴体部
11B 腕基部
11C 上腕部
11D 前腕部
11E ハンド部
11F 頭部
11G レッグ部
11H 胴体接続部
11J 腕部
12 関節部
12A 肩関節部
12B 肘関節部
12C 手首関節部
12D 首関節部
12E レッグ元関節部
12F レッグ先関節部
12G 胴体関節部
13 アクチュエータ
14 モータ
15、15A 記憶部
16R、16L、16B 測距ライダ(測距センサ)
21 CPU
22 メモリ部
23 CPU
24 メモリ部
25 支援装置
26 構造データ記憶部
27 状態データ記憶部
28 通信部
31 通信部
32、32A、32C 構造データ記憶部
33、33A、33B、33C 状態データ記憶部
34、34A ロボットモデル生成部(マニピュレータモデル生成部)
34B ロボットモデル生成部(マニピュレータモデル生成部、目標マニピュレータモデル生成部)
35 環境モデル生成部(画像処理モデル生成部)
35A 環境モデル生成部(画像処理モデル生成部、測距データ処理モデル生成部)
36、36B モデル統合部
37 視点データ生成部
38、38B モデル画像生成部
39 制御参考情報生成部
40 目標姿勢生成部
41 制御姿勢生成部(制御信号生成部)
42 異常検出部
43 画像処理部
44 カメラ点群生データ生成部
45 カメラ座標変換部
46、46A カメラ点群整合部
47 不連続点抽出部
48 ライダ座標変換部
49 ライダ点群整合部
50 点群選択生成部(周囲環境モデル融合部)
51R 右目画像
51L 左目画像
52 3D画像(立体視画像)
53、53B モデル画像
54 目標姿勢(動作指示)
55 制御姿勢(制御信号)
56 車両姿勢(位置姿勢情報)
57 姿勢データ(位置姿勢情報)
58 モータ温度
59 物体距離
60 触覚データ
61 作用力データ
62 加速度データ
63 撮影条件データ
64、64A ロボット3次元モデル(現在3次元モデル、マニピュレータモデル)
64B ロボット3次元モデル(目標3次元モデル、目標マニピュレータモデル)
65 カメラ姿勢
66 カメラ点群生データ
67 カメラ点群データ
68 周囲点群データ(周囲環境モデル、融合周囲環境モデル)
69、69A、69B 統合3次元モデル
70 視点データ
71 カメラ周囲点群データ
72 ライダ点群生データ
73 ライダ姿勢
74 ライダ点群データ
75 ライダ周囲点群データ
81 ロボット構造データ(マニピュレータ構造データ)
82 カメラ構造データ
83 センサ構造データ
84 ライダ構造データ(測距センサ構造データ)
91 位置センサ(位置姿勢センサ)
92 姿勢センサ(位置姿勢センサ)
93 温度センサ
94 距離センサ
95 感圧センサ
96 力覚センサ
97 加速度センサ。
Claims (27)
- 操作者により遠隔制御されて物体を扱うマニピュレータと、
前記マニピュレータが動くまたは静止する動作を指示する動作指示を前記操作者が入力する動作指示入力部と、
前記動作指示から前記マニピュレータを制御する制御信号を生成する制御信号生成部と、
決められた位置関係を有して前記マニピュレータに搭載された右カメラおよび左カメラと、
前記右カメラが撮影する右目画像および前記左カメラが撮影する左目画像を立体的に見えるように表示する立体視表示装置と、
前記マニピュレータの位置および姿勢を表す位置姿勢情報を検出する位置姿勢センサと、
前記マニピュレータの構造を表すマニピュレータ構造データ、および前記右カメラおよび前記左カメラの構造を表すカメラ構造データを記憶する構造データ記憶部と、
前記マニピュレータ構造データ、前記カメラ構造データおよび前記位置姿勢情報を参照して、前記右カメラおよび前記左カメラを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき、前記右目画像および前記左目画像を画像処理して、前記物体および前記物体の周囲の事物である周囲環境の3次元モデルである周囲環境モデルを生成する画像処理モデル生成部と、
前記周囲環境モデルと前記マニピュレータモデルを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御マニピュレータシステム。 - 操作者により遠隔制御されて物体を扱うマニピュレータと、
前記マニピュレータが動くまたは静止する動作を指示する動作指示を前記操作者が入力する動作指示入力部と、
前記動作指示から前記マニピュレータを制御する制御信号を生成する制御信号生成部と、
決められた位置関係を有して前記マニピュレータに搭載された右カメラおよび左カメラと、
前記右カメラが撮影する右目画像および前記左カメラが撮影する左目画像を立体的に見えるように表示する立体視表示装置と、
前記マニピュレータの位置および姿勢を表す位置姿勢情報を検出する位置姿勢センサと、
前記マニピュレータに搭載されて前記物体および前記物体の周囲の事物である周囲環境までの距離と方向を含む測距データを計測する測距センサと、
前記マニピュレータの構造を表すマニピュレータ構造データ、前記右カメラおよび前記左カメラの構造を表すカメラ構造データ、および前記測距センサの構造を表す測距センサ構造データを記憶する構造データ記憶部と、
前記マニピュレータ構造データ、前記カメラ構造データ、前記測距センサ構造データ、および前記位置姿勢情報を参照して、前記右カメラ、前記左カメラおよび前記測距センサを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき、前記右目画像および前記左目画像を画像処理して、前記周囲環境の3次元モデルである周囲環境モデルを生成する画像処理モデル生成部と、
前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向に基づき、前記測距データを処理して前記周囲環境モデルを生成する測距データ処理モデル生成部と、
前記画像処理モデル生成部が生成する前記周囲環境モデルであるカメラ周囲環境モデルと、前記測距データ処理モデル生成部が生成する前記周囲環境モデルであるセンサ周囲環境モデルとの少なくとも一方と前記マニピュレータモデルとを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御マニピュレータシステム。 - 前記モデル統合部は、前記カメラ周囲環境モデルまたは前記センサ周囲環境モデルの何れか一方を選択して前記統合3次元モデルを生成する、請求項2に記載の遠隔制御マニピュレータシステム。
- 前記モデル統合部は、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方を選択して前記統合3次元モデルを生成する、請求項2に記載の遠隔制御マニピュレータシステム。
- 前記モデル統合部は、前記操作者の指示により、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方、あるいは前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの何れか一方を選択して前記統合3次元モデルを生成する、請求項2に記載の遠隔制御マニピュレータシステム。
- 前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルを融合した前記周囲環境モデルである融合周囲環境モデルを生成する周囲環境モデル融合部を備え、
前記モデル統合部は、前記融合周囲環境モデルと前記マニピュレータモデルとを統合して前記統合3次元モデルを生成する、請求項2に記載の遠隔制御マニピュレータシステム。 - 前記モデル統合部は、前記操作者の指示により、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方、あるいは前記カメラ周囲環境モデル、前記センサ周囲環境モデルおよび前記融合周囲環境モデルの何れかを選択して前記統合3次元モデルを生成する、請求項6に記載の遠隔制御マニピュレータシステム。
- 操作者により遠隔制御されて物体を扱うマニピュレータと、
前記マニピュレータが動くまたは静止する動作を指示する動作指示を前記操作者が入力する動作指示入力部と、
前記動作指示から前記マニピュレータを制御する制御信号を生成する制御信号生成部と、
決められた位置関係を有して前記マニピュレータに搭載された右カメラおよび左カメラと、
前記右カメラが撮影する右目画像および前記左カメラが撮影する左目画像を立体的に見えるように表示する立体視表示装置と、
前記マニピュレータに搭載されて前記物体および前記物体の周囲の事物である周囲環境までの距離と方向を含む測距データを計測する測距センサと、
前記マニピュレータの位置および姿勢を表す位置姿勢情報を検出する位置姿勢センサと、
前記マニピュレータの構造を表すマニピュレータ構造データ、前記測距センサの構造を表す測距センサ構造データを記憶する構造データ記憶部と、
前記マニピュレータ構造データ、前記測距センサ構造データ、および前記位置姿勢情報を参照して、前記測距センサを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向を参照して、前記測距データを処理して、前記周囲環境の3次元モデルである周囲環境モデルを生成する測距データ処理モデル生成部と、
前記周囲環境モデルと前記マニピュレータモデルを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御マニピュレータシステム。 - 複数の前記測距センサを備え、
前記測距データ処理モデル生成部は、複数の前記測距センサが計測する複数の前記測距データを処理して前記周囲環境モデルを生成する、請求項2から請求項8の何れか1項に記載の遠隔制御マニピュレータシステム。 - 前記測距データ処理モデル生成部は、前記測距センサの位置および姿勢の少なくとも一方が異なる際に計測された複数の前記測距データを、その前記測距データが計測された際の前記位置姿勢情報で生成された前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向に基づき処理して前記周囲環境モデルを生成する、請求項2から請求項9の何れか1項に記載の遠隔制御マニピュレータシステム。
- 前記画像処理モデル生成部は、前記右カメラおよび前記左カメラの少なくとも一方の位置および姿勢の少なくとも一方が異なる際に撮影された複数の前記右目画像および前記左目画像を、その前記右目画像および前記左目画像が撮影された際の前記位置姿勢情報で生成された前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき画像処理して前記周囲環境モデルを生成する、請求項1から請求項7の何れか1項に記載の遠隔制御マニピュレータシステム。
- 前記モデル画像生成部は、複数の異なる視点から前記統合3次元モデルを見る複数の前記モデル画像を生成し、
前記モデル画像表示装置は、複数の前記モデル画像を同時に表示する、請求項1から請求項7、請求項11の何れか1項に記載の遠隔制御マニピュレータシステム。 - 前記動作指示に従う動作を実行後の前記マニピュレータの位置および姿勢を表す目標姿勢を参照して、前記動作指示に従う動作を実行後の前記マニピュレータモデルである目標マニピュレータモデルを生成する目標マニピュレータモデル生成部を備え、
前記モデル統合部は、前記操作者の指示により、前記マニピュレータモデルおよび前記目標マニピュレータモデルの何れかまたは両方を選択して前記統合3次元モデルを生成する、請求項1から請求項12の何れか1項に記載の遠隔制御マニピュレータシステム。 - 操作者により遠隔制御されて物体を扱うマニピュレータに搭載されて決められた位置関係を有する右カメラおよび左カメラが撮影する右目画像および左目画像を立体的に見えるように表示する立体視表示装置と、
前記マニピュレータの構造を表すマニピュレータ構造データ、および前記右カメラおよび前記左カメラの構造を表すカメラ構造データを記憶する構造データ記憶部と、
前記マニピュレータ構造データ、前記カメラ構造データおよび前記マニピュレータの位置および姿勢を表す位置姿勢情報を参照して、前記右カメラおよび前記左カメラを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき、前記右目画像および前記左目画像を画像処理して、前記物体および前記物体の周囲の事物である周囲環境の3次元モデルである周囲環境モデルを生成する画像処理モデル生成部と、
前記周囲環境モデルと前記マニピュレータモデルを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御支援システム。 - 操作者により遠隔制御されて物体を扱うマニピュレータに搭載されて決められた位置関係を有する右カメラおよび左カメラが撮影する右目画像および左目画像を立体的に見えるように表示する立体視表示装置と、
前記マニピュレータに搭載されて前記物体および前記物体の周囲の事物である周囲環境までの距離と方向を含む測距データを計測する測距センサと、
前記マニピュレータの構造を表すマニピュレータ構造データ、前記右カメラおよび前記左カメラの構造を表すカメラ構造データ、および前記測距センサの構造を表す測距センサ構造データを記憶する構造データ記憶部と、
前記マニピュレータ構造データ、前記カメラ構造データ、前記測距センサ構造データ、および前記マニピュレータの位置および姿勢を表す位置姿勢情報を参照して、前記右カメラ、前記左カメラおよび前記測距センサを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき、前記右目画像および前記左目画像を画像処理して、前記周囲環境の3次元モデルである周囲環境モデルを生成する画像処理モデル生成部と、
前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向に基づき、前記測距データを処理して前記周囲環境モデルを生成する測距データ処理モデル生成部と、
前記画像処理モデル生成部が生成する前記周囲環境モデルであるカメラ周囲環境モデルと、前記測距データ処理モデル生成部が生成する前記周囲環境モデルであるセンサ周囲環境モデルとの少なくとも一方と前記マニピュレータモデルとを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御支援システム。 - 前記モデル統合部は、前記カメラ周囲環境モデルまたは前記センサ周囲環境モデルの何れか一方を選択して前記統合3次元モデルを生成する、請求項15に記載の遠隔制御支援システム。
- 前記モデル統合部は、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方を選択して前記統合3次元モデルを生成する、請求項15に記載の遠隔制御支援システム。
- 前記モデル統合部は、前記操作者の指示により、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方、あるいは前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの何れかを選択して前記統合3次元モデルを生成する、請求項15に記載の遠隔制御支援システム。
- 前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルを融合した前記周囲環境モデルである融合周囲環境モデルを生成する周囲環境モデル融合部を備え、
前記モデル統合部は、前記融合周囲環境モデルと前記マニピュレータモデルとを統合して前記統合3次元モデルを生成する、請求項15に記載の遠隔制御支援システム。 - 前記モデル統合部は、前記操作者の指示により、前記カメラ周囲環境モデルおよび前記センサ周囲環境モデルの両方、あるいは前記カメラ周囲環境モデル、前記センサ周囲環境モデルおよび前記融合周囲環境モデルの何れかを選択して前記統合3次元モデルを生成する、請求項19に記載の遠隔制御支援システム。
- 操作者により遠隔制御されて物体を扱うマニピュレータに決められた位置関係を有して搭載された右カメラおよび左カメラが撮影する右目画像および左目画像を立体的に見えるように表示する立体視表示装置と、
前記マニピュレータに搭載されて前記物体および前記物体の周囲の事物である周囲環境までの距離と方向を含む測距データを計測する測距センサと、
前記マニピュレータの構造を表すマニピュレータ構造データ、前記測距センサの構造を表す測距センサ構造データを記憶する構造データ記憶部と、
前記マニピュレータ構造データ、前記測距センサ構造データ、および前記マニピュレータの位置および姿勢を表す位置姿勢情報を参照して、前記測距センサを含む前記マニピュレータの3次元モデルであるマニピュレータモデルを生成するマニピュレータモデル生成部と、
前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向に基づき、前記測距データを処理して、前記周囲環境の3次元モデルである周囲環境モデルを生成する測距データ処理モデル生成部と、
前記周囲環境モデルと前記マニピュレータモデルを統合した3次元モデルである統合3次元モデルを生成するモデル統合部と、
前記操作者が指定した視点から前記統合3次元モデルを見る画像であるモデル画像を生成するモデル画像生成部と、
前記モデル画像を表示する、前記操作者が頭を移動させることで前記立体視表示装置と切り替えて見ることができるモデル画像表示装置とを備えた遠隔制御支援システム。 - 複数の前記測距センサを備え、
前記測距データ処理モデル生成部は、複数の前記測距センサが計測する複数の前記測距データを処理して前記周囲環境モデルを生成する、請求項15から請求項21の何れか1項に記載の遠隔制御支援システム。 - 前記測距データ処理モデル生成部は、前記測距センサの位置および姿勢の少なくとも一方が異なる際に計測された複数の前記測距データを、その前記測距データが計測された際の前記位置姿勢情報で生成された前記マニピュレータモデルに含まれる前記測距センサの位置と測距方向に基づき処理して前記周囲環境モデルを生成する、請求項15から請求項22の何れか1項に記載の遠隔制御支援システム。
- 前記画像処理モデル生成部は、前記右カメラおよび前記左カメラの少なくとも一方の位置および姿勢少なくとも一方が異なる際に撮影された複数の前記右目画像および前記左目画像を、その前記右目画像および前記左目画像が撮影された際の前記位置姿勢情報で生成された前記マニピュレータモデルに含まれる前記右カメラおよび前記左カメラの位置と撮影方向に基づき画像処理して前記周囲環境モデルを生成する、請求項14から請求項20の何れか1項に記載の遠隔制御支援システム。
- 前記モデル画像生成部は、複数の異なる視点から前記統合3次元モデルを見る複数の前記モデル画像を生成し、
前記モデル画像表示装置は、複数の前記モデル画像を同時に表示する、請求項14から請求項20、請求項24の何れか1項に記載の遠隔制御支援システム。 - 前記マニピュレータが動くまたは静止する動作を指示する動作指示に従う動作を実行後の前記マニピュレータの位置および姿勢を表す目標姿勢を参照して、前記動作指示に従う動作を実行後の前記マニピュレータモデルである目標マニピュレータモデルを生成する目標マニピュレータモデル生成部を備え、
前記モデル統合部は、前記操作者の指示により、前記マニピュレータモデルおよび前記目標マニピュレータモデルの何れかまたは両方を選択して前記統合3次元モデルを生成する、請求項14から請求項25の何れか1項に記載の遠隔制御支援システム。 - 前記右カメラおよび前記左カメラを備えた、請求項14から請求項26の何れか1項に記載の遠隔制御支援システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020205183 | 2020-12-10 | ||
JP2020205183 | 2020-12-10 | ||
PCT/JP2021/045527 WO2022124398A1 (ja) | 2020-12-10 | 2021-12-10 | 遠隔制御マニピュレータシステムおよび遠隔制御支援システム |
Publications (3)
Publication Number | Publication Date |
---|---|
JPWO2022124398A1 JPWO2022124398A1 (ja) | 2022-06-16 |
JP7224559B2 true JP7224559B2 (ja) | 2023-02-17 |
JPWO2022124398A5 JPWO2022124398A5 (ja) | 2023-02-17 |
Family
ID=81974596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022568347A Active JP7224559B2 (ja) | 2020-12-10 | 2021-12-10 | 遠隔制御マニピュレータシステムおよび遠隔制御支援システム |
Country Status (3)
Country | Link |
---|---|
US (1) | US11926064B2 (ja) |
JP (1) | JP7224559B2 (ja) |
WO (1) | WO2022124398A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024013895A1 (ja) * | 2022-07-13 | 2024-01-18 | 日本電信電話株式会社 | 遠隔制御システム、遠隔制御方法、および遠隔制御プログラム |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5684531A (en) | 1995-04-10 | 1997-11-04 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Ranging apparatus and method implementing stereo vision system |
JP2000042960A (ja) | 1998-07-29 | 2000-02-15 | Gifu Prefecture | マニピュレータの遠隔操作装置 |
JP2009006410A (ja) | 2007-06-26 | 2009-01-15 | Fuji Electric Systems Co Ltd | 遠隔操作支援装置および遠隔操作支援プログラム |
JP2009012106A (ja) | 2007-07-03 | 2009-01-22 | Fuji Electric Systems Co Ltd | 遠隔操作支援装置および遠隔操作支援プログラム |
JP2010094777A (ja) | 2008-10-16 | 2010-04-30 | Fuji Electric Systems Co Ltd | 遠隔操作支援装置 |
JP2014056496A (ja) | 2012-09-13 | 2014-03-27 | Mitsubishi Heavy Ind Ltd | 仮想カメラ画像生成装置、仮想カメラ画像生成システム、仮想カメラ画像生成方法、およびプログラム |
US20180236666A1 (en) | 2017-02-20 | 2018-08-23 | Irobot Defense Holdings, Inc. | Robotic gripper camera |
WO2019059364A1 (ja) | 2017-09-22 | 2019-03-28 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび制御装置 |
JP2020037145A (ja) | 2018-09-03 | 2020-03-12 | 川崎重工業株式会社 | ロボットシステム |
JP2020040184A (ja) | 2018-09-12 | 2020-03-19 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、制御プログラム及び記録媒体 |
WO2021220915A1 (ja) | 2020-04-27 | 2021-11-04 | ファナック株式会社 | 産業機械の表示装置 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6077589A (ja) * | 1983-10-05 | 1985-05-02 | Agency Of Ind Science & Technol | 遠隔操作における作業環境表示装置 |
US5417210A (en) * | 1992-05-27 | 1995-05-23 | International Business Machines Corporation | System and method for augmentation of endoscopic surgery |
EP0641132B1 (en) * | 1993-08-26 | 1999-04-14 | Matsushita Electric Industrial Co., Ltd. | Stereoscopic image pickup apparatus |
US5510832A (en) * | 1993-12-01 | 1996-04-23 | Medi-Vision Technologies, Inc. | Synthesized stereoscopic imaging system and method |
US7155316B2 (en) * | 2002-08-13 | 2006-12-26 | Microbotics Corporation | Microsurgical robot system |
SE0203908D0 (sv) * | 2002-12-30 | 2002-12-30 | Abb Research Ltd | An augmented reality system and method |
US7236854B2 (en) * | 2004-01-05 | 2007-06-26 | Abb Research Ltd. | Method and a system for programming an industrial robot |
JP4375320B2 (ja) * | 2005-10-27 | 2009-12-02 | 株式会社日立製作所 | 移動ロボット |
JP4645678B2 (ja) * | 2008-05-08 | 2011-03-09 | ソニー株式会社 | 情報入出力装置及び情報入出力方法、並びにコンピュータ・プログラム |
US9285586B2 (en) * | 2011-05-13 | 2016-03-15 | Sony Corporation | Adjusting parallax barriers |
CN103283243A (zh) * | 2011-05-19 | 2013-09-04 | 松下电器产业株式会社 | 图像显示系统及三维用眼镜 |
JP2012253690A (ja) * | 2011-06-06 | 2012-12-20 | Namco Bandai Games Inc | プログラム、情報記憶媒体及び画像生成システム |
US8880223B2 (en) * | 2012-07-16 | 2014-11-04 | Florida Institute for Human & Maching Cognition | Anthro-centric multisensory interface for sensory augmentation of telesurgery |
US9721383B1 (en) * | 2013-08-29 | 2017-08-01 | Leap Motion, Inc. | Predictive information for free space gesture control and communication |
US10078712B2 (en) * | 2014-01-14 | 2018-09-18 | Energid Technologies Corporation | Digital proxy simulation of robotic hardware |
US10203762B2 (en) * | 2014-03-11 | 2019-02-12 | Magic Leap, Inc. | Methods and systems for creating virtual and augmented reality |
JP6516234B2 (ja) * | 2014-04-24 | 2019-05-22 | Tianma Japan株式会社 | 立体画像表示装置 |
US10768708B1 (en) * | 2014-08-21 | 2020-09-08 | Ultrahaptics IP Two Limited | Systems and methods of interacting with a robotic tool using free-form gestures |
JP6588196B2 (ja) * | 2014-10-31 | 2019-10-09 | 株式会社ソニー・インタラクティブエンタテインメント | 画像生成装置、画像生成方法および較正方法 |
EP3383247A4 (en) * | 2015-11-25 | 2019-06-26 | Camplex, Inc. | SURGICAL VISUALIZATION SYSTEMS AND DISPLAYS |
US10471594B2 (en) * | 2015-12-01 | 2019-11-12 | Kindred Systems Inc. | Systems, devices, and methods for the distribution and collection of multimodal data associated with robots |
US11612307B2 (en) * | 2016-11-24 | 2023-03-28 | University Of Washington | Light field capture and rendering for head-mounted displays |
US10299880B2 (en) * | 2017-04-24 | 2019-05-28 | Truevision Systems, Inc. | Stereoscopic visualization camera and platform |
EP4067014A3 (en) * | 2018-02-20 | 2022-10-19 | Tecan Trading AG | Virtual pipetting |
JP7294776B2 (ja) * | 2018-06-04 | 2023-06-20 | オリンパス株式会社 | 内視鏡プロセッサ、表示設定方法、表示設定プログラムおよび内視鏡システム |
WO2020048461A1 (zh) * | 2018-09-03 | 2020-03-12 | 广东虚拟现实科技有限公司 | 三维立体显示方法、终端设备及存储介质 |
JP7119896B2 (ja) * | 2018-10-24 | 2022-08-17 | トヨタ自動車株式会社 | コミュニケーションロボットおよびコミュニケーションロボットの制御プログラム |
US11262887B2 (en) * | 2019-09-13 | 2022-03-01 | Toyota Research Institute, Inc. | Methods and systems for assigning force vectors to robotic tasks |
US20210327121A1 (en) * | 2020-04-15 | 2021-10-21 | Sirisilp Kongsilp | Display based mixed-reality device |
JP2023103499A (ja) * | 2020-06-15 | 2023-07-27 | ソニーグループ株式会社 | 医用画像処理システム、手術画像制御装置、及び、手術画像制御方法 |
JP2022046260A (ja) * | 2020-09-10 | 2022-03-23 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
-
2021
- 2021-12-10 JP JP2022568347A patent/JP7224559B2/ja active Active
- 2021-12-10 WO PCT/JP2021/045527 patent/WO2022124398A1/ja active Application Filing
- 2021-12-10 US US18/265,269 patent/US11926064B2/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5684531A (en) | 1995-04-10 | 1997-11-04 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Ranging apparatus and method implementing stereo vision system |
JP2000042960A (ja) | 1998-07-29 | 2000-02-15 | Gifu Prefecture | マニピュレータの遠隔操作装置 |
JP2009006410A (ja) | 2007-06-26 | 2009-01-15 | Fuji Electric Systems Co Ltd | 遠隔操作支援装置および遠隔操作支援プログラム |
JP2009012106A (ja) | 2007-07-03 | 2009-01-22 | Fuji Electric Systems Co Ltd | 遠隔操作支援装置および遠隔操作支援プログラム |
JP2010094777A (ja) | 2008-10-16 | 2010-04-30 | Fuji Electric Systems Co Ltd | 遠隔操作支援装置 |
JP2014056496A (ja) | 2012-09-13 | 2014-03-27 | Mitsubishi Heavy Ind Ltd | 仮想カメラ画像生成装置、仮想カメラ画像生成システム、仮想カメラ画像生成方法、およびプログラム |
US20180236666A1 (en) | 2017-02-20 | 2018-08-23 | Irobot Defense Holdings, Inc. | Robotic gripper camera |
WO2019059364A1 (ja) | 2017-09-22 | 2019-03-28 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび制御装置 |
JP2020037145A (ja) | 2018-09-03 | 2020-03-12 | 川崎重工業株式会社 | ロボットシステム |
JP2020040184A (ja) | 2018-09-12 | 2020-03-19 | キヤノン株式会社 | ロボットシステム、ロボットシステムの制御方法、制御プログラム及び記録媒体 |
WO2021220915A1 (ja) | 2020-04-27 | 2021-11-04 | ファナック株式会社 | 産業機械の表示装置 |
Non-Patent Citations (1)
Title |
---|
後久卓哉 他,次世代マニピュレータによる廃棄物分離選別システムの開発 第3報 最終成果報告,第29回日本ロボット学会学術講演会予稿集DVD-ROM 2011年 The 29th Annual Conference of the Robotics Society of Japan ,日本,一般社団法人日本ロボット学会,2011年09月07日 |
Also Published As
Publication number | Publication date |
---|---|
US20240033930A1 (en) | 2024-02-01 |
WO2022124398A1 (ja) | 2022-06-16 |
US11926064B2 (en) | 2024-03-12 |
JPWO2022124398A1 (ja) | 2022-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102379245B1 (ko) | 웨어러블 디바이스 기반의 이동 로봇 제어 시스템 및 제어 방법 | |
EP3342561B1 (en) | Remote control robot system | |
US20200055195A1 (en) | Systems and Methods for Remotely Controlling a Robotic Device | |
US9002517B2 (en) | Telematic interface with directional translation | |
CN107968915B (zh) | 水下机器人摄像机云台实时控制系统及其方法 | |
JP4167954B2 (ja) | ロボット及びロボット移動方法 | |
JP4844453B2 (ja) | ロボットの教示装置及び教示方法 | |
KR101988937B1 (ko) | 카메라와 로봇 핸드의 캘리브레이션 방법 및 장치 | |
WO2018043525A1 (ja) | ロボットシステム、ロボットシステム制御装置、およびロボットシステム制御方法 | |
JP2012011498A (ja) | ロボットアーム操作システムおよびその操作方法 | |
KR102001214B1 (ko) | 가상 현실 기반 양팔로봇 교시 장치 및 방법 | |
JP2013071231A (ja) | ロボットアームの教示装置、ロボット装置、教示方法、ロボットアームの制御装置、ロボットアームの制御プログラム、並びに、集積電子回路 | |
CN112828916B (zh) | 冗余机械臂遥操作组合交互装置及冗余机械臂遥操作系统 | |
CN110834330A (zh) | 柔性机械臂遥操作人机交互终端及方法 | |
JP7224559B2 (ja) | 遠隔制御マニピュレータシステムおよび遠隔制御支援システム | |
JP5198078B2 (ja) | 計測装置および計測方法 | |
JP2001287179A (ja) | 産業用ロボット教示装置 | |
JP4910552B2 (ja) | 動作データ作成装置及びその方法 | |
Kurisu | A study on teleoperation system for a hexapod robot—Development of a prototype platform | |
JPH0847881A (ja) | ロボットの遠隔操作方法 | |
US20220193906A1 (en) | User Interface for Supervised Autonomous Grasping | |
JP6343930B2 (ja) | ロボットシステム、ロボット制御装置、及びロボット制御方法 | |
JP3376029B2 (ja) | ロボットの遠隔操作装置 | |
JP7454046B2 (ja) | ロボット教示装置及び作業教示方法 | |
Bai et al. | Kinect-based hand tracking for first-person-perspective robotic arm teleoperation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20221207 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221207 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20221207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230110 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7224559 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |