JP6678832B2 - 遠隔制御マニピュレータシステムおよび制御装置 - Google Patents
遠隔制御マニピュレータシステムおよび制御装置 Download PDFInfo
- Publication number
- JP6678832B2 JP6678832B2 JP2019543735A JP2019543735A JP6678832B2 JP 6678832 B2 JP6678832 B2 JP 6678832B2 JP 2019543735 A JP2019543735 A JP 2019543735A JP 2019543735 A JP2019543735 A JP 2019543735A JP 6678832 B2 JP6678832 B2 JP 6678832B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- manipulator
- data
- operation instruction
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000547 structure data Methods 0.000 claims description 106
- 238000004088 simulation Methods 0.000 claims description 91
- 230000033001 locomotion Effects 0.000 claims description 35
- 238000001514 detection method Methods 0.000 claims description 18
- 230000001629 suppression Effects 0.000 claims description 14
- 230000007274 generation of a signal involved in cell-cell signaling Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 4
- 210000002310 elbow joint Anatomy 0.000 description 34
- 238000000034 method Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 31
- 210000000323 shoulder joint Anatomy 0.000 description 31
- 210000000245 forearm Anatomy 0.000 description 30
- 230000000007 visual effect Effects 0.000 description 19
- 238000004891 communication Methods 0.000 description 14
- 238000013500 data storage Methods 0.000 description 14
- 210000003811 finger Anatomy 0.000 description 13
- 210000003857 wrist joint Anatomy 0.000 description 13
- 238000005259 measurement Methods 0.000 description 12
- 210000004556 brain Anatomy 0.000 description 11
- 230000008859 change Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 8
- 230000001149 cognitive effect Effects 0.000 description 7
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 210000001503 joint Anatomy 0.000 description 6
- 210000000697 sensory organ Anatomy 0.000 description 6
- 241000282412 Homo Species 0.000 description 5
- 230000005484 gravity Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 239000011159 matrix material Substances 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000008447 perception Effects 0.000 description 4
- 238000002834 transmittance Methods 0.000 description 4
- 210000000707 wrist Anatomy 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 210000003205 muscle Anatomy 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 230000004397 blinking Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 210000001145 finger joint Anatomy 0.000 description 2
- 230000015541 sensory perception of touch Effects 0.000 description 2
- 102220611470 DNA ligase 3_S17D_mutation Human genes 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 206010049816 Muscle tightness Diseases 0.000 description 1
- 230000032683 aging Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000008602 contraction Effects 0.000 description 1
- 230000000881 depressing effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000012530 fluid Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000007788 liquid Substances 0.000 description 1
- 230000000474 nursing effect Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B3/00—Audible signalling systems; Audible personal calling systems
- G08B3/10—Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1687—Assembly, peg and hole, palletising, straight line, weaving pattern movement
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39449—Pendant, pda displaying camera images overlayed with graphics, augmented reality
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39451—Augmented reality for robot programming
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- General Physics & Mathematics (AREA)
- Manipulator (AREA)
Description
さらに、提示画像生成部は、モデル画像でマニピュレータが表示されている画素であって、かつ撮影画像においてマニピュレータが撮影されていない画素にモデル画像を表示し、その他の画素ではモデルを表示しないようにモデル画像と撮影画像とを重ね合わせて提示画像を生成する。
また、マニピュレータが物体と接触しているか接触していないかを表す触覚データを検出する触覚センサを備え、構造データ記憶部は、触覚センサの構造を表す触覚センサ構造データを記憶し、制御装置は、触覚センサ構造データおよび触覚データを参照して触覚センサが物体と接触していることを表す接触シンボルを含む触覚画像を生成する触覚画像生成部をさらに有し、提示画像生成部は、触覚画像も重ね合わせて提示画像を生成する。
さらに、提示画像生成部は、モデル画像でマニピュレータが表示されている画素であって、かつ撮影画像においてマニピュレータが撮影されていない画素にモデル画像を表示し、その他の画素ではモデルを表示しないようにモデル画像と撮影画像とを重ね合わせて提示画像を生成する。
また、マニピュレータが物体と接触しているか接触していないかを表す触覚データを検出する触覚センサから触覚データが入力され、構造データ記憶部は、触覚センサの構造を表す触覚センサ構造データを記憶し、触覚センサ構造データおよび触覚データを参照して触覚センサが物体と接触していることを表す接触シンボルを含む触覚画像を生成する触覚画像生成部をさらに備え、提示画像生成部は、触覚画像も重ね合わせて提示画像を生成する。
図1は、この発明の実施の形態1に係る遠隔制御マニピュレータシステムの概略構成を説明する図である。図2は、実施の形態1に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。遠隔制御マニピュレータシステム100は、人型ロボット1、現場カメラ2、制御装置3、オペレータ30が装着するヘッドマウントディスプレイ4およびヘッドホン5、指示読取カメラ6A、6Bを主に有して構成される。人型ロボット1は、オペレータ30に遠隔制御されて物体を扱うマニピュレータである。現場カメラ2は、人型ロボット1が操作対象である物体20を扱う様子を撮影する。制御装置3は、人型ロボット1を遠隔制御する。オペレータ30は、人型ロボット1への動作指示を与える操作者である。指示読取カメラ6A、6Bは、オペレータ30の動作を動作指示として読み取るための2台のカメラである。オペレータ30および人型ロボットがとる動作には、動きだけでなく指示された姿勢で静止することも含む。動作は、動きおよび静止のどちらか一方または両方を含むものである。人型ロボット1が物体20を扱う場所を現場と呼ぶ。オペレータ30が居る場所を指令所と呼ぶ。
P1=(-W1,D1,H1)t (4)
P2=P1+[R1]*(0,0,-La)t (5)
P3=P2+[R1]*[R2]*(0,0,-Lb)t (6)
P4=P3+[R1]*[R2]*[R3]*(W4,0,H4)t (7)
P1G=P0G+[R0]*P1 (10)
P2G=P0G+[R0]*P2 (11)
P3G=P0G+[R0]*P3 (12)
P4G=P0G+[R0]*P4 (13)
以上のことは、他の実施の形態にもあてはまる。
実施の形態2は、接触シンボルに加えて音でも接触したことをオペレータに通知するように実施の形態1を変更した場合である。実施の形態2では、接触シンボルを表示していない状態から表示する状態に変化する場合、あるいは接触シンボルの表示が変化する場合に、接触音を決められた時間だけ鳴らす。図10は、この発明の実施の形態2に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。実施の形態1の場合の図3と異なる点を説明する。
(ア)人間の聴覚応答速度は、感覚器の中で最も速い。
(イ)音声情報のデータ容量が視覚情報のデータ量と比較して小さく、時間遅延の影響が小さい。
聴覚にはこのような特徴があるので、音を利用して触覚情報をオペレータに通知することは、有効である。音でも通知することで、視覚情報でだけ触覚情報を通知する場合と比較して、人型ロボットが物体と接触したことを、より正確かつより容易にオペレータは認識できる。
実施の形態3は、オペレータからの動作指示も提示画像に表示するように実施の形態2を変更した場合である。動作指示を表す画像を提示画像に表示することで、オペレータが人型ロボットの動きが動作指示どおりかどうかが分り、動作指示が適切かどうかを判断できる。人型ロボットの動きが動作指示と同じであれば動作指示が適切であることがオペレータに分かり、異なれば動作指示が不適切であることが分かる。図13は、この発明の実施の形態3に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。実施の形態2の場合の図10と異なる点を説明する。
実施の形態4は、オペレータが人型ロボットの遠隔制御に習熟するための練習ができるようにシミュレーション機能を持たせるように実施の形態3を変更した場合である。図16は、この発明の実施の形態4に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。実施の形態3の場合の図13と異なる点を説明する。
実施の形態5は、オペレータが外骨格型の動作指示入力装置を装着し、動作指示が不適切な場合に、動作指示入力装置がオペレータの動きを妨げる力を発生させるように実施の形態3を変更した場合である。図20は、この発明の実施の形態5に係る遠隔制御マニピュレータシステムの機能構成を説明するブロック図である。実施の形態3の場合の図13と異なる点を説明する。
1:人型ロボット(マニピュレータ)
2:現場カメラ(カメラ)
3、3A、3B、3C、3D、3E:制御装置
4:ヘッドマウントディスプレイ(表示装置)
5:ヘッドホン(音発生部)
6A、6B:指示読取カメラ(動作指示入力部)
7:触覚センサ
8:通信回線
9:姿勢センサ
10:LAN
11:骨格部
11A:胴体部
11B:上腕部
11C:前腕部
11D:手部
11E:頭部
12:関節部
12A:肩関節部
12B:肘関節部
12C:手首関節部
12D:首関節部
13:アクチュエータ
14:制御部
15:通信部
16:記憶部
20:物体
30:オペレータ(操作者)
21:CPU(Central processing unit)
22:メモリ部
31:通信部
32、32B、32C、32E:構造データ記憶部
33、33B、33C、33D:状態データ記憶部
34:モデル画像生成部
34C:モデル画像生成部(シミュレーション画像生成部)
35:触覚画像生成部
36、36B、36D:提示画像生成部
36C:提示画像生成部(シミュレーション画像生成部)
37、37B、37E:動作指示データ生成部(動作指示入力部)
38:制御信号生成部
39:特徴点抽出部
40:画像制約条件生成部
41:姿勢決定部
42:指示データ変換部
43:接触音生成部(音制御部)
44:動作指示画像生成部
45:指示実行結果検出部
46:動作力速度検知部
47:シミュレーション部
48:周囲環境画像生成部(シミュレーション画像生成部)
48D:シミュレーション画像生成部
49:動作抑制力制御部
50、50B、50C:提示画像
51:撮影画像
52、52C:姿勢データ
53、53C:触覚データ
54、54B:動作指示データ
55、55C:撮影条件データ
56:3次元モデル
57:モデル画像
58:触覚画像
59:マニピュレータ画像
60:接触シンボル
61:モデル表示撮影画像
62:触覚表示撮影画像
63A、63B:動作指示入力画像
64:操作者姿勢データ
65:動作指示アイコン
66:動作指示画像
67:指示実行結果データ
68:動作指示表示撮影画像
69:周囲環境画像
70:シミュレーション画像
71:動作指示表示シミュレーション画像
81、81C:ロボット構造データ(マニピュレータ構造データ)
82:カメラ構造データ
83:触覚センサ構造データ
84:読取カメラ構造データ
85:操作者体格データ
86:動作指示表示要素
87:力速度換算係数
88:環境構造データ
89:動作指示入力装置構造データ
90:動作指示入力装置(動作指示入力部、動作抑制力発生部)
91:肩連結フレーム
92:肩装着バンド
93:肩関節計測部
94:上腕フレーム
95:肘関節計測部
96:前腕フレーム
97:手首装着バンド
Claims (20)
- 操作者により遠隔制御されて物体を扱うマニピュレータと、
前記マニピュレータが含まれる撮影画像を撮影するカメラと、
前記マニピュレータの位置および姿勢を表す姿勢データを検出する姿勢センサと、
前記マニピュレータが動くまたは静止する動作を指示する動作指示を前記操作者が入力する動作指示入力部と、
前記動作指示から前記マニピュレータを制御する制御信号を生成する制御信号生成部、前記マニピュレータの構造を表すマニピュレータ構造データを記憶する構造データ記憶部、前記カメラの位置から見る前記マニピュレータのモデルの画像であるモデル画像を前記マニピュレータ構造データおよび前記姿勢データを参照して生成するモデル画像生成部、前記モデル画像と前記撮影画像とを重ね合わせて前記操作者に提示する提示画像を生成する提示画像生成部を有する制御装置と、
前記提示画像を表示する表示装置とを備え、
前記提示画像生成部は、前記モデル画像で前記マニピュレータが表示されている画素であって、かつ前記撮影画像において前記マニピュレータが撮影されていない画素に前記モデル画像を表示し、その他の画素では前記モデルを表示しないように前記モデル画像と前記撮影画像とを重ね合わせて前記提示画像を生成する、遠隔制御マニピュレータシステム。 - 操作者により遠隔制御されて物体を扱うマニピュレータと、
前記マニピュレータが含まれる撮影画像を撮影するカメラと、
前記マニピュレータの位置および姿勢を表す姿勢データを検出する姿勢センサと、
前記マニピュレータが動くまたは静止する動作を指示する動作指示を前記操作者が入力する動作指示入力部と、
前記動作指示から前記マニピュレータを制御する制御信号を生成する制御信号生成部、前記マニピュレータの構造を表すマニピュレータ構造データを記憶する構造データ記憶部、前記カメラの位置から見る前記マニピュレータのモデルの画像であるモデル画像を前記マニピュレータ構造データおよび前記姿勢データを参照して生成するモデル画像生成部、前記モデル画像と前記撮影画像とを重ね合わせて前記操作者に提示する提示画像を生成する提示画像生成部を有する制御装置と、
前記提示画像を表示する表示装置と、
前記マニピュレータが前記物体と接触しているか接触していないかを表す触覚データを検出する触覚センサとを備え、
前記構造データ記憶部は、前記触覚センサの構造を表す触覚センサ構造データを記憶し、
前記制御装置は、前記触覚センサ構造データおよび前記触覚データを参照して前記触覚センサが前記物体と接触していることを表す接触シンボルを含む触覚画像を生成する触覚画像生成部をさらに有し、
前記提示画像生成部は、前記触覚画像も重ね合わせて前記提示画像を生成する、遠隔制御マニピュレータシステム。 - 前記触覚センサは、前記マニピュレータと前記物体の間に働く接触力を含む前記触覚データを検出し、
前記触覚画像生成部は、前記接触力の大きさに応じて前記接触シンボルを変化させて前記触覚画像を生成する、請求項2に記載の遠隔制御マニピュレータシステム。 - 前記操作者に聞こえる音を発生させる音発生部をさらに備え、
前記制御装置は、前記触覚データに応じて前記音発生部を制御して音を発生させる音制御部をさらに有する、請求項2または請求項3に記載の遠隔制御マニピュレータシステム。 - 前記制御装置は、前記姿勢データが前記動作指示にしたがっているか否かを検出する指示実行結果検出部、前記指示実行結果検出部が前記動作指示にしたがっていないと検出する前記姿勢データである指示不実行姿勢データが存在する場合に、前記動作指示にしたがう動作を表す動作指示アイコンが含まれる動作指示画像を生成する動作指示画像生成部をさらに有し、
前記提示画像生成部は、前記動作指示画像も重ね合わせて前記提示画像を生成する、請求項1から請求項4までの何れか1項に記載の遠隔制御マニピュレータシステム。 - 前記操作者が装着し、前記操作者の動作を妨げる抵抗力を発生させる動作抑制力発生部をさらに備え、
前記制御装置は、前記指示不実行姿勢データが存在することを前記指示実行結果検出部が検出する場合に、前記指示不実行姿勢データに対応する部位で前記動作抑制力発生部が前記抵抗力を発生するように制御する動作抑制力制御部をさらに有する、請求項5に記載の遠隔制御マニピュレータシステム。 - 前記動作抑制力発生部は、少なくとも一部の前記動作指示を前記操作者が入力する前記動作指示入力部と兼用され、
前記制御信号生成部は、前記動作抑制力発生部と兼用される前記動作指示入力部から入力される前記動作指示も使用して前記制御信号を生成する、請求項6に記載の遠隔制御マニピュレータシステム。 - 前記マニピュレータは、発生する力またはトルク、移動速度、回転角速度の中の少なくとも1つに関して制限値を有し、前記マニピュレータは前記制限値を超えないように動作し、
前記制限値が関係する前記姿勢データである制限値付き姿勢データが前記制限値を超えることになる前記動作指示が入力される場合に、前記制限値のために前記動作指示にしたがう動作ができない前記制限値付き姿勢データを前記指示実行結果検出部が前記指示不実行姿勢データとして検出する、請求項5から請求項7の何れか1項に記載の遠隔制御マニピュレータシステム。 - 少なくとも一部の前記制限値が変更可能である、請求項8に記載の遠隔制御マニピュレータシステム。
- 前記動作指示には指示動作力が含まれ、前記マニピュレータは前記指示動作力以下の力を発生させる、請求項1から請求項9の何れか1項に記載の遠隔制御マニピュレータシステム。
- 前記構造データ記憶部は、前記マニピュレータが存在する、前記物体を含む周囲環境に関する構造データである環境構造データを記憶し、
前記制御装置は、前記構造データ記憶部を参照して前記動作指示に対する前記マニピュレータの動きを模擬して前記姿勢データを出力するシミュレーション部、前記シミュレーション部が出力する前記姿勢データおよび前記構造データ記憶部を参照して前記マニピュレータのモデルおよび前記周囲環境を前記カメラの位置から見る画像であるシミュレーション画像を生成するシミュレーション画像生成部を有し、
前記提示画像生成部は、前記シミュレーション画像を用いて前記提示画像を生成する、請求項1から請求項10の何れか1項に記載の遠隔制御マニピュレータシステム。 - 操作者が動作指示入力部により入力する動作指示が入力されて、物体を扱うマニピュレータを制御する制御信号を生成する制御信号生成部と、
前記マニピュレータの構造を表すマニピュレータ構造データを記憶する構造データ記憶部と、
姿勢センサが検出する前記マニピュレータの位置および姿勢を表す姿勢データと、カメラが撮影する前記マニピュレータが含まれる撮影画像とが入力され、前記姿勢データおよび前記構造データ記憶部を参照して前記カメラの位置から見る前記マニピュレータのモデルの画像であるモデル画像を生成するモデル画像生成部と、
前記モデル画像と前記撮影画像とを重ね合わせて前記操作者に提示する提示画像を生成する提示画像生成部とを備え、
前記提示画像生成部は、前記モデル画像で前記マニピュレータが表示されている画素であって、かつ前記撮影画像において前記マニピュレータが撮影されていない画素に前記モデル画像を表示し、その他の画素では前記モデルを表示しないように前記モデル画像と前記撮影画像とを重ね合わせて前記提示画像を生成する、制御装置。 - 操作者が動作指示入力部により入力する動作指示が入力されて、物体を扱うマニピュレータを制御する制御信号を生成する制御信号生成部と、
前記マニピュレータの構造を表すマニピュレータ構造データを記憶する構造データ記憶部と、
姿勢センサが検出する前記マニピュレータの位置および姿勢を表す姿勢データと、カメラが撮影する前記マニピュレータが含まれる撮影画像とが入力され、前記姿勢データおよび前記構造データ記憶部を参照して前記カメラの位置から見る前記マニピュレータのモデルの画像であるモデル画像を生成するモデル画像生成部と、
前記モデル画像と前記撮影画像とを重ね合わせて前記操作者に提示する提示画像を生成する提示画像生成部とを備え、
前記マニピュレータが前記物体と接触しているか接触していないかを表す触覚データを検出する触覚センサから前記触覚データが入力され、
前記構造データ記憶部は、前記触覚センサの構造を表す触覚センサ構造データを記憶し、
前記触覚センサ構造データおよび前記触覚データを参照して前記触覚センサが前記物体と接触していることを表す接触シンボルを含む触覚画像を生成する触覚画像生成部をさらに備え、
前記提示画像生成部は、前記触覚画像も重ね合わせて前記提示画像を生成する、制御装置。 - 前記触覚データには、前記マニピュレータと前記物体の間に働く接触力が含まれ、
前記触覚画像生成部は、前記接触力の大きさに応じて前記接触シンボルを変化させて前記触覚画像を生成する、請求項13に記載の制御装置。 - 前記操作者に聞こえる音を発生させる音発生部を前記触覚データに応じて制御して音を発生させる音制御部をさらに備えた、請求項13または請求項14に記載の制御装置。
- 前記姿勢データが前記動作指示にしたがっているか否かを検出する指示実行結果検出部と、
前記指示実行結果検出部が前記動作指示にしたがっていないと検出する前記姿勢データである指示不実行姿勢データが存在する場合に、前記動作指示にしたがう動作を表す動作指示アイコンが含まれる動作指示画像を生成する動作指示画像生成部とをさらに備え、
前記提示画像生成部は、前記動作指示画像も重ね合わせて前記提示画像を生成する、請求項12から請求項15の何れか1項に記載の制御装置。 - 前記指示不実行姿勢データが存在することを前記指示実行結果検出部が検出する場合に、前記操作者が装着し、前記操作者の動作を妨げる抵抗力を発生させる動作抑制力発生部の前記指示不実行姿勢データに対応する部位で、前記動作抑制力発生部が前記抵抗力を発生するように制御する動作抑制力制御部をさらに備えた、請求項16に記載の制御装置。
- 前記動作抑制力発生部は、少なくとも一部の前記動作指示を前記操作者が入力する前記動作指示入力部と兼用され、
前記制御信号生成部は、前記動作抑制力発生部と兼用される前記動作指示入力部から入力される前記動作指示も使用して前記制御信号を生成する、請求項17に記載の制御装置。 - 前記マニピュレータは、発生する力またはトルク、移動速度、回転角速度の中の少なくとも1つに関して制限値を有し、前記マニピュレータは前記制限値を超えないように動作し、
前記制限値が関係する前記姿勢データである制限値付き姿勢データが前記制限値を超えることになる前記動作指示が入力される場合に、その前記姿勢データが前記制限値のために前記動作指示にしたがうことができない前記制限値付き姿勢データを前記指示実行結果検出部が前記指示不実行姿勢データとして検出する、請求項16から請求項18の何れか1項に記載の制御装置。 - 前記構造データ記憶部は、前記マニピュレータが存在する、前記物体を含む周囲環境に関する構造データである環境構造データを記憶し、
前記構造データ記憶部を参照して前記動作指示に対する前記マニピュレータの動きを模擬するシミュレーション部、前記シミュレーション部が出力する前記姿勢データを使用し前記構造データ記憶部を参照して前記マニピュレータのモデルおよび前記周囲環境を前記カメラから見る画像であるシミュレーション画像を生成するシミュレーション画像生成部をさらに備え、
前記提示画像生成部は、前記シミュレーション画像を用いて前記提示画像を生成する、請求項12から請求項19の何れか1項に記載の制御装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017182817 | 2017-09-22 | ||
JP2017182817 | 2017-09-22 | ||
PCT/JP2018/035146 WO2019059364A1 (ja) | 2017-09-22 | 2018-09-21 | 遠隔制御マニピュレータシステムおよび制御装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2019059364A1 JPWO2019059364A1 (ja) | 2020-01-16 |
JP6678832B2 true JP6678832B2 (ja) | 2020-04-08 |
Family
ID=65811360
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019543735A Active JP6678832B2 (ja) | 2017-09-22 | 2018-09-21 | 遠隔制御マニピュレータシステムおよび制御装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11498216B2 (ja) |
JP (1) | JP6678832B2 (ja) |
WO (1) | WO2019059364A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102722388B1 (ko) * | 2022-07-26 | 2024-10-25 | 선문대학교 산학협력단 | 원격 조정 로봇 시스템 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6861604B2 (ja) * | 2017-10-02 | 2021-04-21 | 株式会社オカムラ | 管理システム及び制御方法 |
JP6885909B2 (ja) * | 2018-10-12 | 2021-06-16 | ファナック株式会社 | ロボット制御装置 |
JP6867654B2 (ja) * | 2019-03-15 | 2021-05-12 | リバーフィールド株式会社 | 医用ロボットシステムの力覚表示装置および力覚表示方法 |
KR102335926B1 (ko) * | 2019-10-10 | 2021-12-03 | 한국기술교육대학교 산학협력단 | 휴머노이드 로봇 제어 시스템 및 방법 |
WO2021138577A1 (en) * | 2019-12-31 | 2021-07-08 | Human Mode, LLC | Proxy controller suit with optional dual range kinematics |
CN111702778B (zh) * | 2020-06-16 | 2022-01-04 | 大连理工大学 | 一种实现使用者的坐卧姿转换和搬运的多臂机器人 |
JP7224559B2 (ja) * | 2020-12-10 | 2023-02-17 | 三菱電機株式会社 | 遠隔制御マニピュレータシステムおよび遠隔制御支援システム |
JP7542481B2 (ja) | 2021-03-31 | 2024-08-30 | 本田技研工業株式会社 | 制御装置、ロボットシステム、制御方法、および、プログラム |
CN115139292B (zh) * | 2021-03-31 | 2024-08-20 | 腾讯科技(深圳)有限公司 | 具有手感增强的机器手遥控方法、系统、设备及介质 |
US20240149458A1 (en) * | 2021-03-31 | 2024-05-09 | Honda Motor Co., Ltd. | Robot remote operation control device, robot remote operation control system, robot remote operation control method, and program |
EP4357085A4 (en) * | 2021-06-15 | 2024-10-16 | Sony Group Corp | INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, PROGRAM AND INFORMATION PROCESSING SYSTEM |
EP4368351A4 (en) * | 2021-07-07 | 2024-08-21 | Mitsubishi Electric Corp | REMOTE OPERATING SYSTEM |
CN113907788B (zh) * | 2021-10-14 | 2023-07-14 | 合肥合滨智能机器人有限公司 | 一种用于远程超声检查的便携式遥操作手持装置 |
WO2024116333A1 (ja) * | 2022-11-30 | 2024-06-06 | 三菱電機株式会社 | 情報処理装置、制御方法、及び制御プログラム |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0833706B2 (ja) | 1987-10-09 | 1996-03-29 | 富士通株式会社 | 宇宙用ロボット操縦訓練システム |
JPH06195127A (ja) | 1992-12-22 | 1994-07-15 | Agency Of Ind Science & Technol | マニピュレータのハイブリッド遠隔制御装置 |
JPH08132372A (ja) * | 1994-11-08 | 1996-05-28 | Toshiba Corp | ロボットの制御方法 |
JP3598507B2 (ja) * | 2002-06-12 | 2004-12-08 | 独立行政法人 科学技術振興機構 | 歩行式移動装置及びその歩行制御装置及び歩行制御方法 |
US9718190B2 (en) * | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
JP2009066683A (ja) | 2007-09-11 | 2009-04-02 | Sony Corp | ロボットハンド及び制御方法、並びにプログラム |
JP4835616B2 (ja) * | 2008-03-10 | 2011-12-14 | トヨタ自動車株式会社 | 動作教示システム及び動作教示方法 |
US9179832B2 (en) * | 2008-06-27 | 2015-11-10 | Intuitive Surgical Operations, Inc. | Medical robotic system with image referenced camera control using partitionable orientational and translational modes |
US8594841B2 (en) * | 2008-12-31 | 2013-11-26 | Intuitive Surgical Operations, Inc. | Visual force feedback in a minimally invasive surgical procedure |
US8374723B2 (en) * | 2008-12-31 | 2013-02-12 | Intuitive Surgical Operations, Inc. | Obtaining force information in a minimally invasive surgical procedure |
JP5505138B2 (ja) * | 2010-07-05 | 2014-05-28 | 株式会社安川電機 | ロボット装置およびロボット装置による把持方法 |
JP2014079824A (ja) * | 2012-10-15 | 2014-05-08 | Toshiba Corp | 作業画面表示方法および作業画面表示装置 |
EP3125809B1 (en) * | 2014-03-28 | 2020-09-09 | Intuitive Surgical Operations, Inc. | Surgical system with haptic feedback based upon quantitative three-dimensional imaging |
US9687982B1 (en) * | 2015-05-27 | 2017-06-27 | X Development Llc | Adapting programming of a robot and/or control of the robot based on one or more parameters of an end effector of the robot |
JP2020518326A (ja) * | 2017-04-18 | 2020-06-25 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 画像誘導処置を監視するためのグラフィカル・ユーザインターフェイス |
-
2018
- 2018-09-21 JP JP2019543735A patent/JP6678832B2/ja active Active
- 2018-09-21 US US16/647,297 patent/US11498216B2/en active Active
- 2018-09-21 WO PCT/JP2018/035146 patent/WO2019059364A1/ja active Application Filing
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102722388B1 (ko) * | 2022-07-26 | 2024-10-25 | 선문대학교 산학협력단 | 원격 조정 로봇 시스템 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2019059364A1 (ja) | 2020-01-16 |
US20200215691A1 (en) | 2020-07-09 |
WO2019059364A1 (ja) | 2019-03-28 |
US11498216B2 (en) | 2022-11-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6678832B2 (ja) | 遠隔制御マニピュレータシステムおよび制御装置 | |
CN108430375B (zh) | 机器人系统以及反向驱动该系统的方法 | |
Liu et al. | High-fidelity grasping in virtual reality using a glove-based system | |
JP5512048B2 (ja) | ロボットアームの制御装置及び制御方法、ロボット、制御プログラム、並びに、集積電子回路 | |
US20200249654A1 (en) | Robotic control via a virtual world simulation | |
JP4463120B2 (ja) | 身まねロボットシステムとその身まね動作制御方法 | |
CN110549353B (zh) | 力觉视觉化装置、机器人以及存储力觉视觉化程序的计算机可读介质 | |
Maurice | Virtual ergonomics for the design of collaborative robots | |
RU187548U1 (ru) | Перчатка виртуальной реальности | |
RU179301U1 (ru) | Перчатка виртуальной реальности | |
US11422625B2 (en) | Proxy controller suit with optional dual range kinematics | |
JP3742879B2 (ja) | ロボットアーム・ハンド操作制御方法、ロボットアーム・ハンド操作制御システム | |
JP4997419B2 (ja) | ロボット用動作変換システム | |
JP7172399B2 (ja) | 制御装置、ロボット、制御方法及びプログラム | |
RU2670649C9 (ru) | Способ изготовления перчатки виртуальной реальности (варианты) | |
JP2004178222A (ja) | 組立性評価方法及びそれを用いた組立性評価支援装置 | |
JP2015134384A (ja) | 遠隔操縦装置、及び遠隔操縦システム | |
RU2673406C1 (ru) | Способ изготовления перчатки виртуальной реальности | |
JP7535968B2 (ja) | ロボット遠隔操作制御装置、ロボット遠隔操作制御システム、ロボット遠隔操作制御方法、およびプログラム | |
Otis et al. | Cartesian control of a cable-driven haptic mechanism | |
Grzejszczak et al. | Selection of methods for intuitive, haptic control of the underwater vehicle’s manipulator | |
Odashima et al. | Immersion type virtual environment for human-robot interaction | |
JP7248271B2 (ja) | 情報処理装置、ロボットハンド制御システム、及びロボットハンド制御プログラム | |
JP2015153387A (ja) | 仮想現実体感装置、仮想現実体感方法、及びプログラム | |
JP6628275B2 (ja) | 筋感覚測定評価装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190906 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190906 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20191008 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191015 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200317 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6678832 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |