JPH04210390A - ロボットハンドの遠隔操作システム - Google Patents
ロボットハンドの遠隔操作システムInfo
- Publication number
- JPH04210390A JPH04210390A JP34099090A JP34099090A JPH04210390A JP H04210390 A JPH04210390 A JP H04210390A JP 34099090 A JP34099090 A JP 34099090A JP 34099090 A JP34099090 A JP 34099090A JP H04210390 A JPH04210390 A JP H04210390A
- Authority
- JP
- Japan
- Prior art keywords
- operator
- robot hand
- arm
- hand
- movement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000006073 displacement reaction Methods 0.000 claims abstract description 6
- 238000001514 detection method Methods 0.000 claims abstract description 3
- 239000013307 optical fiber Substances 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 238000005452 bending Methods 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 210000003128 head Anatomy 0.000 description 2
- 238000000034 method Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000012857 radioactive material Substances 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Landscapes
- Manipulator (AREA)
Abstract
(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
め要約のデータは記録されません。
Description
【発明の詳細な説明】
(産業上の利用分野)
本発明は操作者が直接触れることができない物品の処理
を行うロボットハンドの遠隔操作システムに関するもの
である。
を行うロボットハンドの遠隔操作システムに関するもの
である。
(従来の技術)
一般に放射線物質やクリーンルーム内の物品等の対象物
に何らかの処理を施す場合等には、人間の手指や腕の動
作と同様の動作を行うロボットハンドが用いられ、その
アーム部やチャック部を遠隔地にて操作して上記対象物
に対する所望の処理を行っている。
に何らかの処理を施す場合等には、人間の手指や腕の動
作と同様の動作を行うロボットハンドが用いられ、その
アーム部やチャック部を遠隔地にて操作して上記対象物
に対する所望の処理を行っている。
この場合、上記ロボットハンドのアーム部やチャック部
の遠隔操作は、操作者が窓越しに対象物とロボットハン
ドを直接視認したり、上記ロボットハンドと対象物の周
辺を撮像するテレビカメラからの映像を固定のモニタテ
レビにて見ながら、例えばX−Y平面方向に傾倒自在の
操作レバー等を操作することによって行われる。
の遠隔操作は、操作者が窓越しに対象物とロボットハン
ドを直接視認したり、上記ロボットハンドと対象物の周
辺を撮像するテレビカメラからの映像を固定のモニタテ
レビにて見ながら、例えばX−Y平面方向に傾倒自在の
操作レバー等を操作することによって行われる。
(発明が解決しようとする課題)
しかしながら上記ロボットハンドの遠隔操作方法では、
所望の動作を上記ロボットハンドに行わせるために上記
操作者が操作レバー等を用いて複雑な操作を行う必要が
あるという問題があった。
所望の動作を上記ロボットハンドに行わせるために上記
操作者が操作レバー等を用いて複雑な操作を行う必要が
あるという問題があった。
また、上記対象物とロボットハンドの相対位置関係を確
認する場合、操作者が窓越しに直接視認したり上記固定
のモニタテレビを見ながら行う必要があり、対象物とロ
ボットハンドの相対位置関係を確認しながら上記操作レ
バーの操作を並行して行うことが困難であるという問題
があった。
認する場合、操作者が窓越しに直接視認したり上記固定
のモニタテレビを見ながら行う必要があり、対象物とロ
ボットハンドの相対位置関係を確認しながら上記操作レ
バーの操作を並行して行うことが困難であるという問題
があった。
本発明は前記事情に鑑みてなされたものであり、ロボッ
トハンドの遠隔操作に掛る操作者の動作を簡略化するこ
とができると共に、対象物及びロボ・ソトハンドの相対
位置関係の確認と上記操作レバーの操作との並行作業を
容易に行うことができる、ロボットハンドの遠隔操作シ
ステムを提供することを目的とする。
トハンドの遠隔操作に掛る操作者の動作を簡略化するこ
とができると共に、対象物及びロボ・ソトハンドの相対
位置関係の確認と上記操作レバーの操作との並行作業を
容易に行うことができる、ロボットハンドの遠隔操作シ
ステムを提供することを目的とする。
(課題を解決するための手段)
上記目的を達成するために本発明は、そのアーム部やチ
ャック部を操作者の遠隔操作により動作させるロボット
ハンドの遠隔操作システムにおいて、少なくとも前記ロ
ボットハンドの動作範囲内を搬像するテレビカメラと、
前記操作者の視線上に位置するように保持され、前記テ
レビカメラによって撮像された映像を表示する映像表示
装置と、該映像表示手段を操作者の視線上に位置するよ
うに保持する保持手段と、前記遠隔操作者の手指乃至腕
に装着され、該手指乃至腕部の動作を検出するセンサと
、該センサの検出結果に基づいて前記遠隔操作者の手指
乃至腕の動作内容を解析して、該遠隔操作者の手指乃至
腕の少なくとも三次元空間上の動作方向と変位量を示す
信号を出力する演算装置と、該演算装置の出力に基づい
て、前記ロボットハンドのアーム部やチャック部を遠隔
操作者の手指乃至腕の動作に倣って動作させるよう制御
する制御装置とを備えてなるものである。
ャック部を操作者の遠隔操作により動作させるロボット
ハンドの遠隔操作システムにおいて、少なくとも前記ロ
ボットハンドの動作範囲内を搬像するテレビカメラと、
前記操作者の視線上に位置するように保持され、前記テ
レビカメラによって撮像された映像を表示する映像表示
装置と、該映像表示手段を操作者の視線上に位置するよ
うに保持する保持手段と、前記遠隔操作者の手指乃至腕
に装着され、該手指乃至腕部の動作を検出するセンサと
、該センサの検出結果に基づいて前記遠隔操作者の手指
乃至腕の動作内容を解析して、該遠隔操作者の手指乃至
腕の少なくとも三次元空間上の動作方向と変位量を示す
信号を出力する演算装置と、該演算装置の出力に基づい
て、前記ロボットハンドのアーム部やチャック部を遠隔
操作者の手指乃至腕の動作に倣って動作させるよう制御
する制御装置とを備えてなるものである。
(作用)
上記構成による本発明では、センサが操作者の手指乃至
腕の動作内容を検出し、該検出内容を演算装置が解析し
てその三次元空間上の動作方向と変位量を示す信号を出
力すると共に、この出力信号に基づいて制御装置がロボ
ットハンドの動作を制御するので、ロボットハンドの遠
隔操作に掛る操作者の動作を簡略化することができる。
腕の動作内容を検出し、該検出内容を演算装置が解析し
てその三次元空間上の動作方向と変位量を示す信号を出
力すると共に、この出力信号に基づいて制御装置がロボ
ットハンドの動作を制御するので、ロボットハンドの遠
隔操作に掛る操作者の動作を簡略化することができる。
また本発明によれば、テレビカメラがロボットハンドの
動作範囲内を撮像し、その映像が遠隔操作者の視線上に
位置するように設けられた映像表示装置に表示されるの
で、対象物及びロボットハンドの相対位置関係の確認と
、該ロボットハンドの遠隔操作との並行作業を容易に行
うことができる。
動作範囲内を撮像し、その映像が遠隔操作者の視線上に
位置するように設けられた映像表示装置に表示されるの
で、対象物及びロボットハンドの相対位置関係の確認と
、該ロボットハンドの遠隔操作との並行作業を容易に行
うことができる。
(実施例)
以下、本発明の実施例を図面に基づいて説明する。
第1図は本発明の一実施例によるロボットハンドの遠隔
操作システムの概略構成を示す説明図である。
操作システムの概略構成を示す説明図である。
第1図においてlOは直接触れることができない対象物
Sに対して何らかの処理を行うためのロボットハンドで
あり、枢軸11を中心としてXYZ方向に回動自在なア
ーム部12と、該アーム部12の先端に設けられたチャ
ック部13とから構成しである。
Sに対して何らかの処理を行うためのロボットハンドで
あり、枢軸11を中心としてXYZ方向に回動自在なア
ーム部12と、該アーム部12の先端に設けられたチャ
ック部13とから構成しである。
上記アーム部12とチャック部13は制御装置14によ
ってその動作を制御されるようになっており、またロボ
ットハンドlOの枢軸11の近傍位置には、少なくとも
上記ロボットハンド10の動作範囲内を搬偉し、例えば
上記アーム部12の回動に連動してその向きが変化する
テレビカメラ20が取り付けである。
ってその動作を制御されるようになっており、またロボ
ットハンドlOの枢軸11の近傍位置には、少なくとも
上記ロボットハンド10の動作範囲内を搬偉し、例えば
上記アーム部12の回動に連動してその向きが変化する
テレビカメラ20が取り付けである。
一方、第1図中30は上記操作者Pの頭部に装着される
保持手段としてのヘルメットであり、その側部にはアー
ム31を介して映像表示装置32が、上記ヘルメット3
0の装着者の右目前方に位置するように取り付けである
。
保持手段としてのヘルメットであり、その側部にはアー
ム31を介して映像表示装置32が、上記ヘルメット3
0の装着者の右目前方に位置するように取り付けである
。
この映像表示装置32は第2図に示すように、表示部と
してのテレビ画面33、ハーフミラ−34、及びレンズ
35を備えており、テレビ画面33に映し出された映像
をレンズ35によって所定の倍率に拡大した後にハーフ
ミラ−34に投影する構成としである。
してのテレビ画面33、ハーフミラ−34、及びレンズ
35を備えており、テレビ画面33に映し出された映像
をレンズ35によって所定の倍率に拡大した後にハーフ
ミラ−34に投影する構成としである。
これにより上記ヘルメット30の装着者は、ハーフミラ
−34に投影されたテレビ画面33の映像に、該ハーフ
ミラ−34を通して目視される前方の視野をオーバーラ
ツプさせた像を見ることができる。
−34に投影されたテレビ画面33の映像に、該ハーフ
ミラ−34を通して目視される前方の視野をオーバーラ
ツプさせた像を見ることができる。
また第1図に示すように上記ヘルメット30の側部には
ヘッドホン36と、該ヘッドホン36から延出するアー
ム37の先端に接続されたマイクロホン38が夫々取り
付けであり、上記ヘルメット30の装着時に上記ヘッド
ホン36が装着者の左耳に、上記マイクロホン38が装
着者の口元に夫々位置するようにしであると共に、上記
ヘルメッ1−30の頂部には、後述する空間位置センづ
の構成要素である第1の直交コイル39が配設しである
。
ヘッドホン36と、該ヘッドホン36から延出するアー
ム37の先端に接続されたマイクロホン38が夫々取り
付けであり、上記ヘルメット30の装着時に上記ヘッド
ホン36が装着者の左耳に、上記マイクロホン38が装
着者の口元に夫々位置するようにしであると共に、上記
ヘルメッ1−30の頂部には、後述する空間位置センづ
の構成要素である第1の直交コイル39が配設しである
。
一方、第1図中40は−Fx−ロボットハンド10を遠
隔操作する操作者Pの手指乃至腕に装着されるグローブ
であり、その内部には第3図に示すように、上記操作者
Pの各手指の動作を検出するセンサとしての光ファイバ
41,41.・・・が各手指に沿って配設しであると共
に、操作者Pの腕の動作を検出するセンサとしての第2
の直交コイル42が、手の甲の位置に配設しである。
隔操作する操作者Pの手指乃至腕に装着されるグローブ
であり、その内部には第3図に示すように、上記操作者
Pの各手指の動作を検出するセンサとしての光ファイバ
41,41.・・・が各手指に沿って配設しであると共
に、操作者Pの腕の動作を検出するセンサとしての第2
の直交コイル42が、手の甲の位置に配設しである。
また、第1図中50は操作者Pの背中に背負われるコン
トロールボックスで、その内部には第4図に示すように
、上記光ファイバ41,41.・・−の始端と終端に臨
んで各光ファイバ41,41゜・・・内に導光される光
を発光、受光する複数対の発光素子5I、受光素子52
と、上記第2の直交コイル42に発生する誘導電流の量
を検出する検出器53と、コントローラ54とを有して
いる。
トロールボックスで、その内部には第4図に示すように
、上記光ファイバ41,41.・・−の始端と終端に臨
んで各光ファイバ41,41゜・・・内に導光される光
を発光、受光する複数対の発光素子5I、受光素子52
と、上記第2の直交コイル42に発生する誘導電流の量
を検出する検出器53と、コントローラ54とを有して
いる。
そして、上記受光素子52の受光量や検出器53の検出
量を示す信号は上記コントローラ54を介して外部に出
力されるようになっている。
量を示す信号は上記コントローラ54を介して外部に出
力されるようになっている。
上記光ファイバ41,41.−・−は直線状態でない部
分においては、その内部に導光された光が外部に漏光さ
れるようになっており、該光ファイバ41.41.・・
−内を導光されて上記発光受光素子52.52.・・・
にて受光される導光量が、操作者Pの手指の曲げ等の動
きに伴う上記光ファイバ41.41.・・−の折曲によ
って変化することを利用して、操作者Pの手指の曲げの
度合を検出するようにしている。
分においては、その内部に導光された光が外部に漏光さ
れるようになっており、該光ファイバ41.41.・・
−内を導光されて上記発光受光素子52.52.・・・
にて受光される導光量が、操作者Pの手指の曲げ等の動
きに伴う上記光ファイバ41.41.・・−の折曲によ
って変化することを利用して、操作者Pの手指の曲げの
度合を検出するようにしている。
一方、上記第1及び第2の直交コイル39゜42は、図
示しないが各々が互いに直交するXY2の3方向にコイ
ル線を巻回してなるものであり、操作者Pの腕の空間位
置を検出する際には、その位置が略々固定される上記第
1の直交コイル39に交流電圧を印加し、これに伴って
第2の直交コイル42に誘導電流を発生させる。
示しないが各々が互いに直交するXY2の3方向にコイ
ル線を巻回してなるものであり、操作者Pの腕の空間位
置を検出する際には、その位置が略々固定される上記第
1の直交コイル39に交流電圧を印加し、これに伴って
第2の直交コイル42に誘導電流を発生させる。
そして、上記誘導電流が第2の直交コイル42の移動に
よって変化するのを利用して、その変化量を上記検出器
53によって、上記第2の直交コイル42のXYZ各方
向のコイル毎に検出することにより、操作者Pの腕の空
間位置を検出するようにしている。
よって変化するのを利用して、その変化量を上記検出器
53によって、上記第2の直交コイル42のXYZ各方
向のコイル毎に検出することにより、操作者Pの腕の空
間位置を検出するようにしている。
上J2受光素子52の受光量や検出器53の検出量を示
す信号は、コントローラ54を介して第1図の演算装置
60に出力され、ここで該出力信号の信号量及びその変
什に基づいて前記遠隔操作者の手指乃至腕の動作内容が
解析される。
す信号は、コントローラ54を介して第1図の演算装置
60に出力され、ここで該出力信号の信号量及びその変
什に基づいて前記遠隔操作者の手指乃至腕の動作内容が
解析される。
この解析結果に基づいて上記演算装置60は、操作者P
の手指乃至腕の少なくとも三次元空間上の動作方向と変
位量を示す信号を、例えばパーソナルコンピュータコン
ピュータ等のコンピュータ65に出力し、ここで入力さ
れた上記信号を上記ロボットハンド10の制m用信号に
変換して制御装置14に出力し、該制御装置14はこの
制御用信号に基づいて上記ロボットハンド10のアーム
部12とチャック部13の動作を制御する。
の手指乃至腕の少なくとも三次元空間上の動作方向と変
位量を示す信号を、例えばパーソナルコンピュータコン
ピュータ等のコンピュータ65に出力し、ここで入力さ
れた上記信号を上記ロボットハンド10の制m用信号に
変換して制御装置14に出力し、該制御装置14はこの
制御用信号に基づいて上記ロボットハンド10のアーム
部12とチャック部13の動作を制御する。
尚、上記コントロールボックス50内には、上記テレビ
カメラ20からの映像信号が入力される受像装置(図示
せず)が設けてあり、この受像装置に入力されたテレビ
カメラ20からの映像は、上記ヘルメット30に取り付
もづられな映像表示装置32のテレビ画面33に表示さ
れるようになっている。
カメラ20からの映像信号が入力される受像装置(図示
せず)が設けてあり、この受像装置に入力されたテレビ
カメラ20からの映像は、上記ヘルメット30に取り付
もづられな映像表示装置32のテレビ画面33に表示さ
れるようになっている。
ところで、第1図に示すように上記ロボットハンド10
と操作者Pの近傍には各々の動作状況を撮像するモニタ
カメラ70.80が設置してあり、それらモニタカメラ
70.80にて撮像された映像と上記テレビカメラ20
からの映像は、コントロールルーム90に設置された個
別のモニタテレビ91,92.93に表示されるように
なっている。
と操作者Pの近傍には各々の動作状況を撮像するモニタ
カメラ70.80が設置してあり、それらモニタカメラ
70.80にて撮像された映像と上記テレビカメラ20
からの映像は、コントロールルーム90に設置された個
別のモニタテレビ91,92.93に表示されるように
なっている。
該コントロールルーム90にはマイクロホン94とスピ
ーカ95とが設けてあり、該マイクロホン94にて集音
された音声は上記ヘルメット30のヘッドホン36から
出力され、上記スピーカ95からは上記ヘルメット30
のマイクロホン38にて集音された操作者Pの音声が出
力されるようになっている。
ーカ95とが設けてあり、該マイクロホン94にて集音
された音声は上記ヘルメット30のヘッドホン36から
出力され、上記スピーカ95からは上記ヘルメット30
のマイクロホン38にて集音された操作者Pの音声が出
力されるようになっている。
次に、上述のように構成される本実施例のロボットハン
ドの遠隔操作システムを用いて、操作者Pがロボットハ
ンドlOを遠隔操作する場合について説明する。
ドの遠隔操作システムを用いて、操作者Pがロボットハ
ンドlOを遠隔操作する場合について説明する。
まず、遠隔操作の開始時点では上記映像表示装置32の
テレビ画面33に、上記テレビカメラ20にて搬像した
ロボットハンド10の動作範囲内の映像が表示されてお
り、この表示画面はハーフミラ−34に投影されて操作
者Pに視認される。
テレビ画面33に、上記テレビカメラ20にて搬像した
ロボットハンド10の動作範囲内の映像が表示されてお
り、この表示画面はハーフミラ−34に投影されて操作
者Pに視認される。
ここで、上記映像内の適性位置に対象物Sが位置してい
ないときには、上記テレビカメラ20の向きがアーム部
12の動きに連動して変化することから、操作者Pの腕
の向きを適宜変えて映像内の適性位置に対象物Sが位置
するようにする。
ないときには、上記テレビカメラ20の向きがアーム部
12の動きに連動して変化することから、操作者Pの腕
の向きを適宜変えて映像内の適性位置に対象物Sが位置
するようにする。
次に、この状態で操作者Pの頭部をグローブ40の手指
方向に向け、上記ハーフミラ−34に投影された対象物
Sが5該ハーフミラ−34を通して目視されるグローブ
40の手指部分にオーバーラツプするようにする。
方向に向け、上記ハーフミラ−34に投影された対象物
Sが5該ハーフミラ−34を通して目視されるグローブ
40の手指部分にオーバーラツプするようにする。
以後上記操作者Pは、視界上にオーバーラツプされた対
象物Sの虚像に対する物理的な処理(掴み、持ち上げ、
移動等)を、グローブ40を装着した手指で行う。
象物Sの虚像に対する物理的な処理(掴み、持ち上げ、
移動等)を、グローブ40を装着した手指で行う。
この場合、操作者Pの手指や腕の動きは先に述べたよう
な原理で信号化されて演算装置60からコンピュータ6
5を介して制御装置14に出力され、これによってロボ
ットハンド10のアーム部12やチャック部13が、操
作者Pの手指乃至腕の動作に倣って動作し、操作者Pの
意図する所望の処理が上記対象物Sに対してなされる。
な原理で信号化されて演算装置60からコンピュータ6
5を介して制御装置14に出力され、これによってロボ
ットハンド10のアーム部12やチャック部13が、操
作者Pの手指乃至腕の動作に倣って動作し、操作者Pの
意図する所望の処理が上記対象物Sに対してなされる。
尚、これら一連の操作者PとロボットハンドIOの動作
は、上記モニタカメラ70.80とテレビカメラ20に
よって撮像されて、コントロールルーム90に設置され
た個別のモニタテレビ91.92.93に表示される。
は、上記モニタカメラ70.80とテレビカメラ20に
よって撮像されて、コントロールルーム90に設置され
た個別のモニタテレビ91.92.93に表示される。
そして、該コントロールルーム90側の指示者Tは上記
モニタテレビ91,92.93の映像を見比べながら、
マイクロホン94とスピーカ95を用いて操作者Pと会
話しながら適切な指示を操作者Pに与える。
モニタテレビ91,92.93の映像を見比べながら、
マイクロホン94とスピーカ95を用いて操作者Pと会
話しながら適切な指示を操作者Pに与える。
また場合によっては、上記テレビカメラ20による映像
に例えば処理を施す位置を示すマーク等を重ねた映像や
、指示内容を文字表示した画面をコントロールボックス
50の受像装置に出力して、この映像や画面を上記ハー
フミラ−34に投影させてもよい。
に例えば処理を施す位置を示すマーク等を重ねた映像や
、指示内容を文字表示した画面をコントロールボックス
50の受像装置に出力して、この映像や画面を上記ハー
フミラ−34に投影させてもよい。
尚、上記本実施例では映像表示装置32を1つ有し、ヘ
ルメット30の装着者の右目前方に位置させた構成とし
たが、左右両目前方に位置する2つの映像表示装置を有
するものとしてもよい。
ルメット30の装着者の右目前方に位置させた構成とし
たが、左右両目前方に位置する2つの映像表示装置を有
するものとしてもよい。
この場合は、上記映像表示装置に映し出される映像があ
たかも立体的な映像であるかのような3− D (Th
ree−Dimensional )的映像となり、特
にテレビカメラ20からの映像を表示する際にはそのイ
メージがより正確に上記操作者Pへ伝達されるようにな
る。
たかも立体的な映像であるかのような3− D (Th
ree−Dimensional )的映像となり、特
にテレビカメラ20からの映像を表示する際にはそのイ
メージがより正確に上記操作者Pへ伝達されるようにな
る。
また、本実施例ではヘルメット30にヘッドホン36と
マイクロホン38を設ける構成としたが、これらを省略
して映像情報の伝送機能のみを有する構成としてもよい
。
マイクロホン38を設ける構成としたが、これらを省略
して映像情報の伝送機能のみを有する構成としてもよい
。
さらに、本実施例では上記映像表示装置32をテレビ画
面33とハーフミラ−34を備える構成のものとしたが
1例えば上記ハーフミラ−34を省略して、テレビ画面
33の表示面を直接ヘルメット30の装着者の視線上に
位置させる構成としてもよい。
面33とハーフミラ−34を備える構成のものとしたが
1例えば上記ハーフミラ−34を省略して、テレビ画面
33の表示面を直接ヘルメット30の装着者の視線上に
位置させる構成としてもよい。
加えて、上記本実施例では保持手段としてヘルメット3
0を用いた場合について説明したが、例えば野球帽等の
帽子やヘアバンドのようなものであってもよい。
0を用いた場合について説明したが、例えば野球帽等の
帽子やヘアバンドのようなものであってもよい。
また、上記本実施例では操作者Pの手指の動作を検出す
るセンサとして光ファイバの導光量の変化に基づいて検
出するものを、一方操作者Pの腕の動作を検出するセン
サとして直交コイルに発生する誘導電流の変化に基づい
て検出するものを夫々使用しでいるが、これらのセンサ
は上記構成に限定されるものではなく、例えば操作者P
の手指や腕、肩の関節部分に右ける曲げの度合を検出す
るメカ的なセンサ等であってもよい。
るセンサとして光ファイバの導光量の変化に基づいて検
出するものを、一方操作者Pの腕の動作を検出するセン
サとして直交コイルに発生する誘導電流の変化に基づい
て検出するものを夫々使用しでいるが、これらのセンサ
は上記構成に限定されるものではなく、例えば操作者P
の手指や腕、肩の関節部分に右ける曲げの度合を検出す
るメカ的なセンサ等であってもよい。
面、上記本実施例においではロボン)・ハン1:10に
て対象物Tの処理を遠隔操作で行う場合番ごついて説明
したが、本発明は上記ロボットハンド10にあらかしめ
定めた動作を行わせる場合の、動作パターンの字習特等
孟こも適用されるものである。
て対象物Tの処理を遠隔操作で行う場合番ごついて説明
したが、本発明は上記ロボットハンド10にあらかしめ
定めた動作を行わせる場合の、動作パターンの字習特等
孟こも適用されるものである。
(発明の効果)
以上説明したように本発明によれば、センサが操作者の
手指乃至腕の動作内容を検出し、該検出内容を演算装置
が解析してその三次元空間上の動作方向と変位量を示す
信号を出力すると共に、この出力信号に基づいて制?1
1装置がロボットハンドの動作を制御するので、ロボッ
トハンドの遠隔操作に掛る操作者の動作を簡略化するこ
とができる。
手指乃至腕の動作内容を検出し、該検出内容を演算装置
が解析してその三次元空間上の動作方向と変位量を示す
信号を出力すると共に、この出力信号に基づいて制?1
1装置がロボットハンドの動作を制御するので、ロボッ
トハンドの遠隔操作に掛る操作者の動作を簡略化するこ
とができる。
また本発明によれば、テレビカメラがロボットハンドの
動作範囲内を搬像し、その映像が遠隔操作者の視線上に
位置するように設けられた映像表示装置に表示されるの
で、対象物及びロボットハンドの相対位置関係の確認と
、該ロボットハンドの遠隔操作との並行作業を容易に行
うことができる。
動作範囲内を搬像し、その映像が遠隔操作者の視線上に
位置するように設けられた映像表示装置に表示されるの
で、対象物及びロボットハンドの相対位置関係の確認と
、該ロボットハンドの遠隔操作との並行作業を容易に行
うことができる。
第1図は本発明の一実施例によるロボットハンドの遠隔
操作システムの概略構成を示す説明図、第2図は第1図
の映像表示装置の概略構成を示す説明図、第3図は第1
図のグローブ内部の概略構成を示す説明図、第4図は第
1図のコントロールボックスの概略構成を示すブロック
図である。 尚図中10はロボットハンド、12はアーム部、13は
チャック部、14は制@装置、2oはテレビカメラ、3
0はヘルメット(保持手段)、32は映像表示装置、4
0はグローブ、41は光ファイバ(センサ)、42は第
2の直交コイル(センサ)、60は演算装置、Pは操作
者である。
操作システムの概略構成を示す説明図、第2図は第1図
の映像表示装置の概略構成を示す説明図、第3図は第1
図のグローブ内部の概略構成を示す説明図、第4図は第
1図のコントロールボックスの概略構成を示すブロック
図である。 尚図中10はロボットハンド、12はアーム部、13は
チャック部、14は制@装置、2oはテレビカメラ、3
0はヘルメット(保持手段)、32は映像表示装置、4
0はグローブ、41は光ファイバ(センサ)、42は第
2の直交コイル(センサ)、60は演算装置、Pは操作
者である。
Claims (1)
- 【特許請求の範囲】 そのアーム部やチャック部を操作者の遠隔操作により動
作させるロボットハンドの遠隔操作システムにおいて、 少なくとも前記ロボットハンドの動作範囲内を撮像する
テレビカメラと、 前記操作者の視線上に位置するように保持され、前記テ
レビカメラによって撮像された映像を表示する映像表示
装置と、 該映像表示手段を操作者の視線上に位置するように保持
する保持手段と、 前記遠隔操作者の手指乃至腕に装着され、該手指乃至腕
部の動作を検出するセンサと、 該センサの検出結果に基づいて前記遠隔操作者の手指乃
至腕の動作内容を解析して、該遠隔操作者の手指乃至腕
の少なくとも三次元空間上の動作方向と変位量を示す信
号を出力する演算装置と、該演算装置の出力に基づいて
、前記ロボットハンドのアーム部やチャック部を遠隔操
作者の手指乃至腕の動作に倣って動作させるよう制御す
る制御装置と、 を備えたことを特徴とするロボットハンドの遠隔操作シ
ステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2340990A JP2561561B2 (ja) | 1990-11-30 | 1990-11-30 | ロボットハンドの遠隔操作システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2340990A JP2561561B2 (ja) | 1990-11-30 | 1990-11-30 | ロボットハンドの遠隔操作システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH04210390A true JPH04210390A (ja) | 1992-07-31 |
JP2561561B2 JP2561561B2 (ja) | 1996-12-11 |
Family
ID=18342182
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2340990A Expired - Lifetime JP2561561B2 (ja) | 1990-11-30 | 1990-11-30 | ロボットハンドの遠隔操作システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2561561B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011039542A1 (en) | 2009-10-02 | 2011-04-07 | The Welding Insitute | Method and system of programming a robot |
JP2015128681A (ja) * | 2009-11-13 | 2015-07-16 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 低侵襲遠隔操作外科手術器具のための患者側外科医インターフェース |
US9743989B2 (en) | 2010-09-21 | 2017-08-29 | Intuitive Surgical Operations, Inc. | Method and system for hand presence detection in a minimally invasive surgical system |
CN107598923A (zh) * | 2017-09-01 | 2018-01-19 | 世优(北京)科技有限公司 | 可穿戴设备、机器人系统以及控制机器人的方法和装置 |
US9901402B2 (en) | 2010-09-21 | 2018-02-27 | Intuitive Surgical Operations, Inc. | Method and apparatus for hand gesture control in a minimally invasive surgical system |
WO2019032814A1 (en) * | 2017-08-10 | 2019-02-14 | Robert Bosch Gmbh | SYSTEM AND METHOD FOR DIRECT TEACHING TO A ROBOT |
WO2019224994A1 (ja) | 2018-05-25 | 2019-11-28 | 株式会社メルティンMmi | 動き検出装置 |
CN114193442A (zh) * | 2020-09-18 | 2022-03-18 | 宇龙计算机通信科技(深圳)有限公司 | 机器人控制方法、装置及计算机存储介质 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101518804B1 (ko) | 2013-06-24 | 2015-05-11 | 삼성전자주식회사 | 의료 데이터 관리 방법 및 장치 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57121487A (en) * | 1981-01-14 | 1982-07-28 | Kogyo Gijutsuin | System of operating manipulator |
JPH02284888A (ja) * | 1989-04-24 | 1990-11-22 | Nippon Telegr & Teleph Corp <Ntt> | マスタ/スレイブシステム |
-
1990
- 1990-11-30 JP JP2340990A patent/JP2561561B2/ja not_active Expired - Lifetime
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57121487A (en) * | 1981-01-14 | 1982-07-28 | Kogyo Gijutsuin | System of operating manipulator |
JPH02284888A (ja) * | 1989-04-24 | 1990-11-22 | Nippon Telegr & Teleph Corp <Ntt> | マスタ/スレイブシステム |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011039542A1 (en) | 2009-10-02 | 2011-04-07 | The Welding Insitute | Method and system of programming a robot |
JP2015128681A (ja) * | 2009-11-13 | 2015-07-16 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 低侵襲遠隔操作外科手術器具のための患者側外科医インターフェース |
JP2017119168A (ja) * | 2009-11-13 | 2017-07-06 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 低侵襲遠隔操作外科手術器具のための患者側外科医インターフェース |
US10543050B2 (en) | 2010-09-21 | 2020-01-28 | Intuitive Surgical Operations, Inc. | Method and system for hand presence detection in a minimally invasive surgical system |
US9743989B2 (en) | 2010-09-21 | 2017-08-29 | Intuitive Surgical Operations, Inc. | Method and system for hand presence detection in a minimally invasive surgical system |
US11707336B2 (en) | 2010-09-21 | 2023-07-25 | Intuitive Surgical Operations, Inc. | Method and system for hand tracking in a robotic system |
US9901402B2 (en) | 2010-09-21 | 2018-02-27 | Intuitive Surgical Operations, Inc. | Method and apparatus for hand gesture control in a minimally invasive surgical system |
WO2019032814A1 (en) * | 2017-08-10 | 2019-02-14 | Robert Bosch Gmbh | SYSTEM AND METHOD FOR DIRECT TEACHING TO A ROBOT |
CN110914022A (zh) * | 2017-08-10 | 2020-03-24 | 罗伯特·博世有限公司 | 直接教导机器人的系统和方法 |
DE112018002565B4 (de) * | 2017-08-10 | 2021-07-01 | Robert Bosch Gmbh | System und Verfahren zum direkten Anlernen eines Roboters |
US11413748B2 (en) | 2017-08-10 | 2022-08-16 | Robert Bosch Gmbh | System and method of direct teaching a robot |
CN110914022B (zh) * | 2017-08-10 | 2023-11-07 | 罗伯特·博世有限公司 | 直接教导机器人的系统和方法 |
CN107598923A (zh) * | 2017-09-01 | 2018-01-19 | 世优(北京)科技有限公司 | 可穿戴设备、机器人系统以及控制机器人的方法和装置 |
WO2019224994A1 (ja) | 2018-05-25 | 2019-11-28 | 株式会社メルティンMmi | 動き検出装置 |
CN114193442A (zh) * | 2020-09-18 | 2022-03-18 | 宇龙计算机通信科技(深圳)有限公司 | 机器人控制方法、装置及计算机存储介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2561561B2 (ja) | 1996-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6862006B2 (en) | Image processing apparatus and image processing method, and image processing program and recording medium of the same | |
CN103970265B (zh) | 具有触觉反馈的增强现实用户接口 | |
JP7058621B2 (ja) | 映像記録装置およびヘッドマウントディスプレイ | |
JPH0749744A (ja) | 頭部搭載型表示入力装置 | |
JPH11202256A (ja) | 頭部搭載型画像表示装置 | |
KR102147430B1 (ko) | 가상 공간 멀티 터치 인터랙션 장치 및 방법 | |
CN109416589A (zh) | 交互系统与交互方法 | |
JP6399692B2 (ja) | ヘッドマウントディスプレイ、画像表示方法及びプログラム | |
JP7000253B2 (ja) | 力覚視覚化装置、ロボットおよび力覚視覚化プログラム | |
JP2019164420A (ja) | 透過型頭部装着型表示装置および透過型頭部装着型表示装置の制御方法、透過型頭部装着型表示装置の制御のためのコンピュータープログラム | |
JP2017094466A (ja) | ロボットモニタシステム | |
JP2020196060A (ja) | 教示方法 | |
US20220351442A1 (en) | Animation production system | |
WO2017122270A1 (ja) | 画像表示装置 | |
JP2017100234A (ja) | ティーチング結果表示システム | |
JP2016110177A (ja) | 3次元入力装置及び入力システム | |
JPH04210390A (ja) | ロボットハンドの遠隔操作システム | |
JP4023214B2 (ja) | 触覚・力覚提示装置および触覚・力覚提示システム | |
JP4611667B2 (ja) | 情報入力器、収納装置、情報入力装置、及び情報処理装置 | |
JP2001287179A (ja) | 産業用ロボット教示装置 | |
JP2004318400A (ja) | 画像処理装置及び画像処理方法 | |
JP6964302B2 (ja) | アニメーション制作方法 | |
JPH05289739A (ja) | 立体画像処理装置およびテレオペレーティングシステム | |
JPH0446570B2 (ja) | ||
JP2706864B2 (ja) | 監視用テレビカメラの遠隔操作システム |