JPS6411434B2 - - Google Patents
Info
- Publication number
- JPS6411434B2 JPS6411434B2 JP18639783A JP18639783A JPS6411434B2 JP S6411434 B2 JPS6411434 B2 JP S6411434B2 JP 18639783 A JP18639783 A JP 18639783A JP 18639783 A JP18639783 A JP 18639783A JP S6411434 B2 JPS6411434 B2 JP S6411434B2
- Authority
- JP
- Japan
- Prior art keywords
- work
- operator
- environment
- computer
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired
Links
- 230000000007 visual effect Effects 0.000 claims 1
- 241000282412 Homo Species 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 210000000744 eyelid Anatomy 0.000 description 3
- 238000000034 method Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000009023 proprioceptive sensation Effects 0.000 description 1
Landscapes
- Closed-Circuit Television Systems (AREA)
- Manipulator (AREA)
Description
【発明の詳細な説明】
この発明は遠隔操作において、作業環境、例え
ば作業対象を操作環境における操作者にフイード
バツクして表示する装置に関するものである。
ば作業対象を操作環境における操作者にフイード
バツクして表示する装置に関するものである。
深海や宇宙空間での作業のように人間が直接現
場へ行つて作業するのが困難であつたり、原子炉
内の作業のように人間が行うのに危険が伴う状況
がいろいろと考えられる。このような作業を実現
する技術として、人間の行けない作業現場(作業
環境)に人間の腕にかわつて作業を行うマニピユ
レータを送り込み、現場から離れた安全な地点の
操作環境から人間が、それを操作して作業を行う
テレオペレーシヨンが研究されてきている。この
方法では人間の指令に従つて自由自在に運動でき
るマニピユレータという機構の開発とともに、遠
隔地点の作業対象等の作業環境の状況を人間に自
然に見せるフイードバツクが、操作性を上げるの
に重要である。作業対象等の作業環境のフイード
バツクとしては、テレビカメラ等による画像情報
を操作者の両眼に与えて、立体感を与える方法が
主にとられている。しかしながら障害物のかげな
どテレビカメラでは画像を得られない状況や、作
業空間を見る視点の位置を大きく変えて作業をし
たい場合には、この方法が必ずしも有効ではな
い。
場へ行つて作業するのが困難であつたり、原子炉
内の作業のように人間が行うのに危険が伴う状況
がいろいろと考えられる。このような作業を実現
する技術として、人間の行けない作業現場(作業
環境)に人間の腕にかわつて作業を行うマニピユ
レータを送り込み、現場から離れた安全な地点の
操作環境から人間が、それを操作して作業を行う
テレオペレーシヨンが研究されてきている。この
方法では人間の指令に従つて自由自在に運動でき
るマニピユレータという機構の開発とともに、遠
隔地点の作業対象等の作業環境の状況を人間に自
然に見せるフイードバツクが、操作性を上げるの
に重要である。作業対象等の作業環境のフイード
バツクとしては、テレビカメラ等による画像情報
を操作者の両眼に与えて、立体感を与える方法が
主にとられている。しかしながら障害物のかげな
どテレビカメラでは画像を得られない状況や、作
業空間を見る視点の位置を大きく変えて作業をし
たい場合には、この方法が必ずしも有効ではな
い。
この発明は上記の如き事情に鑑みてなされたも
のであつて、作業現場における任意の視点からの
画像情報を操作者に与えることができ、あたかも
操作者が作業現場にいて、作業対象物等の作業環
境を全方向から観察するのと同等の状況を現出す
ることが出来る遠隔操作における作業環境表示装
置を提供することを目的とするものである。
のであつて、作業現場における任意の視点からの
画像情報を操作者に与えることができ、あたかも
操作者が作業現場にいて、作業対象物等の作業環
境を全方向から観察するのと同等の状況を現出す
ることが出来る遠隔操作における作業環境表示装
置を提供することを目的とするものである。
この目的に対応して、この発明の遠隔操作にお
ける作業環境表示装置は、基準位置に関する作業
環境の各点の位置をデータベースに記録して前記
作業環境の三次元モデルをコンピユータに形成
し、かつ操作者の視点及び視線を計測装置により
計測して前記コンピユータに入力して前記視点及
び視線に対応する前記三次元モデルの二次元画像
を前記コンピユータで構成して、前記二次元画像
を可視表示装置によつて両眼に表示し、立体感を
もつて作業対象等が認識されるように構成したこ
とを特徴としている。
ける作業環境表示装置は、基準位置に関する作業
環境の各点の位置をデータベースに記録して前記
作業環境の三次元モデルをコンピユータに形成
し、かつ操作者の視点及び視線を計測装置により
計測して前記コンピユータに入力して前記視点及
び視線に対応する前記三次元モデルの二次元画像
を前記コンピユータで構成して、前記二次元画像
を可視表示装置によつて両眼に表示し、立体感を
もつて作業対象等が認識されるように構成したこ
とを特徴としている。
以下この発明の詳細を一実施例を示す図面につ
いて説明する。
いて説明する。
第1図において、1は作業環境表示装置であ
る。作業環境表示装置1は、作業環境計測装置
2、コンピユータ3、画像表示装置4とを備えて
いる。作業環境計測装置2ではレーザ光線などで
作業環境12、例えば作業対象物5、障害物6等
の表面をスキヤンして、それらの表面上の各点の
基準位置Oに関する座標を計測し、それらの物の
面や稜を求め、あるいは、作業環境にスレーブマ
ニピユレータ7を配設する場合にはスレーブマニ
ピユレータ7の手先で作業対象物5や障害物6の
表面をなぞり、スレーブマニピユレータ7の手先
の触覚や各関節の固有受容を利用して、それらの
物の各点の座標を計測する。これらの座標情報は
コンピユータ3に入力され、データベースとして
蓄積され、かつ処理され、それらの作業対象物
5、障害物6等の作業環境12の三次元モデルが
形成される。ここで作業環境とはスレーブマニピ
ユレータで作業をする空間を構成する物のうち、
スレーブマニピユレータを除いたものをいう(こ
の明細書において同じ)。また、例えば作業対象
物5等をスレーブマニピユレータが移動させたと
きは、その作業対象物5等の移動後のモデルはス
レーブマニピユレータの動きの情報とコンピユー
タに記憶されている初期の作業対象物のモデルと
から決定できる。
る。作業環境表示装置1は、作業環境計測装置
2、コンピユータ3、画像表示装置4とを備えて
いる。作業環境計測装置2ではレーザ光線などで
作業環境12、例えば作業対象物5、障害物6等
の表面をスキヤンして、それらの表面上の各点の
基準位置Oに関する座標を計測し、それらの物の
面や稜を求め、あるいは、作業環境にスレーブマ
ニピユレータ7を配設する場合にはスレーブマニ
ピユレータ7の手先で作業対象物5や障害物6の
表面をなぞり、スレーブマニピユレータ7の手先
の触覚や各関節の固有受容を利用して、それらの
物の各点の座標を計測する。これらの座標情報は
コンピユータ3に入力され、データベースとして
蓄積され、かつ処理され、それらの作業対象物
5、障害物6等の作業環境12の三次元モデルが
形成される。ここで作業環境とはスレーブマニピ
ユレータで作業をする空間を構成する物のうち、
スレーブマニピユレータを除いたものをいう(こ
の明細書において同じ)。また、例えば作業対象
物5等をスレーブマニピユレータが移動させたと
きは、その作業対象物5等の移動後のモデルはス
レーブマニピユレータの動きの情報とコンピユー
タに記憶されている初期の作業対象物のモデルと
から決定できる。
一方、操作環境11に操作者測定装置14が設
けられ、この操作者計測装置14は操作者15の
意思や、姿勢の変化等によつて変化する操作者の
眼瞼の基準位置Oに関する視点及び視線を計測す
る。この操作者計測装置14からの操作者15の
眼瞼の情報はコンピユータ3に入力される。
けられ、この操作者計測装置14は操作者15の
意思や、姿勢の変化等によつて変化する操作者の
眼瞼の基準位置Oに関する視点及び視線を計測す
る。この操作者計測装置14からの操作者15の
眼瞼の情報はコンピユータ3に入力される。
コンピユータ3においては、眼瞼の情報から作
業環境12における視点の位置及び視線の方向が
決定され、その視点の位置及び視線の方向からの
作業環境の二次元画像が操作者の両眼に対応して
2つ作成され、画像表示装置4を介して操作者1
5に両眼に与えられる。
業環境12における視点の位置及び視線の方向が
決定され、その視点の位置及び視線の方向からの
作業環境の二次元画像が操作者の両眼に対応して
2つ作成され、画像表示装置4を介して操作者1
5に両眼に与えられる。
画像表示装置4は第2図に示すように、一対の
光学系17、一対のグラフイツクデイスプレイ1
8、グラフイツクコントローラ21及び座標変換
装置22とからなつており、コンピユータ3から
出力された座標による画像信号を光信号に変換し
て操作者15の両眼に与え、立体的な作業環境の
画像を操作者15に視認させる。
光学系17、一対のグラフイツクデイスプレイ1
8、グラフイツクコントローラ21及び座標変換
装置22とからなつており、コンピユータ3から
出力された座標による画像信号を光信号に変換し
て操作者15の両眼に与え、立体的な作業環境の
画像を操作者15に視認させる。
このようにして、本発明では直接画像情報が得
られず、従つて操作者にフイードバツクできない
場合にも、作業環境のモデルを作り、モデルに対
してそれを見る視点を設定して、その方向から両
眼に見えるであろう画像、例えば、輪郭等をグラ
フイツクデイスプレイ等を用いて表示することに
よつて、立体感をもつた作業現場の状況をフイー
ドバツクして作業性の向上を図ることができる。
られず、従つて操作者にフイードバツクできない
場合にも、作業環境のモデルを作り、モデルに対
してそれを見る視点を設定して、その方向から両
眼に見えるであろう画像、例えば、輪郭等をグラ
フイツクデイスプレイ等を用いて表示することに
よつて、立体感をもつた作業現場の状況をフイー
ドバツクして作業性の向上を図ることができる。
以上の説明から明らかな通り、この発明によれ
ば、作業現場における任意の視点からの画像情報
を操作者に与えることができ、あたかも操作者が
作業現場にいて、作業対象物を全方向から観察し
ているのと同等の状況を現出することができる遠
隔操作における作業環境表示装置を得ることがで
きる。
ば、作業現場における任意の視点からの画像情報
を操作者に与えることができ、あたかも操作者が
作業現場にいて、作業対象物を全方向から観察し
ているのと同等の状況を現出することができる遠
隔操作における作業環境表示装置を得ることがで
きる。
第1図は遠隔操作における作業環境表示装置を
示す構成説明図、第2図は画像表示装置の斜視説
明図である。 1…作業環境表示装置、2…作業環境計測装
置、3…コンピユータ、4…画像表示装置、5…
作業対象物、7…スレーブマニピユレータ、11
…操作環境、12…作業環境、14…操作者計測
装置、17…光学系、18…グラフイツクデイス
プレイ。
示す構成説明図、第2図は画像表示装置の斜視説
明図である。 1…作業環境表示装置、2…作業環境計測装
置、3…コンピユータ、4…画像表示装置、5…
作業対象物、7…スレーブマニピユレータ、11
…操作環境、12…作業環境、14…操作者計測
装置、17…光学系、18…グラフイツクデイス
プレイ。
Claims (1)
- 1 基準位置に関する作業環境の各点の位置をデ
ータベースに記録して前記作業環境の三次元モデ
ルをコンピユータに形成し、かつ操作者の視点及
び視線を計測装置により計測して前記コンピユー
タに入力して前記視点及び視線に対応する前記三
次元モデルに二次元画像を前記コンピユータで構
成して、前記二次元画像を可視表示装置に表示す
るように構成したことを特徴とする遠隔操作にお
ける作業環境表示装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18639783A JPS6077589A (ja) | 1983-10-05 | 1983-10-05 | 遠隔操作における作業環境表示装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP18639783A JPS6077589A (ja) | 1983-10-05 | 1983-10-05 | 遠隔操作における作業環境表示装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPS6077589A JPS6077589A (ja) | 1985-05-02 |
JPS6411434B2 true JPS6411434B2 (ja) | 1989-02-23 |
Family
ID=16187680
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP18639783A Granted JPS6077589A (ja) | 1983-10-05 | 1983-10-05 | 遠隔操作における作業環境表示装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPS6077589A (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2525791Y2 (ja) * | 1990-03-22 | 1997-02-12 | 三菱プレシジョン株式会社 | 潜望鏡模擬装置 |
US11926064B2 (en) | 2020-12-10 | 2024-03-12 | Mitsubishi Electric Corporation | Remote control manipulator system and remote control assistance system |
-
1983
- 1983-10-05 JP JP18639783A patent/JPS6077589A/ja active Granted
Also Published As
Publication number | Publication date |
---|---|
JPS6077589A (ja) | 1985-05-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Matsas et al. | Design of a virtual reality training system for human–robot collaboration in manufacturing tasks | |
Drascic et al. | ARGOS: A display system for augmenting reality | |
Reardon et al. | Come see this! augmented reality to enable human-robot cooperative search | |
Jevtić et al. | Comparison of interaction modalities for mobile indoor robot guidance: Direct physical interaction, person following, and pointing control | |
US20200215691A1 (en) | Remote control manipulator system and control device | |
JP3343682B2 (ja) | ロボット動作教示装置および動作教示方法 | |
KR102001214B1 (ko) | 가상 현실 기반 양팔로봇 교시 장치 및 방법 | |
JPS63196388A (ja) | 遠隔操作ロボツトの教示装置 | |
CN112894820A (zh) | 柔性机械臂遥操作人机交互装置及系统 | |
Vagvolgyi et al. | Scene modeling and augmented virtuality interface for telerobotic satellite servicing | |
Kim et al. | Mapping system with virtual reality for mobile robot teleoperation | |
Mallem et al. | Computer-assisted visual perception in teleoperated robotics | |
Gregg-Smith et al. | Investigating spatial guidance for a cooperative handheld robot | |
Makita et al. | Offline direct teaching for a robotic manipulator in the computational space | |
US11926064B2 (en) | Remote control manipulator system and remote control assistance system | |
JP3376029B2 (ja) | ロボットの遠隔操作装置 | |
JPS6411434B2 (ja) | ||
Peruch et al. | Between desktop and head immersion: Functional visual field during vehicle control and navigation in virtual environments | |
Dhat et al. | Using 3D Mice to Control Robot Manipulators | |
JPS5916912B2 (ja) | イドウホウコウキヨウジソウチ | |
JPS60195613A (ja) | 検証機能付ロボツト教示装置 | |
JPS6411433B2 (ja) | ||
JPS6411435B2 (ja) | ||
Ootsubo et al. | Support system for slope shaping based on a teleoperated construction robot | |
JPH03287394A (ja) | 遠隔ハンドリング装置 |