JP3482228B2 - Manipulator control system by gaze detection - Google Patents

Manipulator control system by gaze detection

Info

Publication number
JP3482228B2
JP3482228B2 JP27440593A JP27440593A JP3482228B2 JP 3482228 B2 JP3482228 B2 JP 3482228B2 JP 27440593 A JP27440593 A JP 27440593A JP 27440593 A JP27440593 A JP 27440593A JP 3482228 B2 JP3482228 B2 JP 3482228B2
Authority
JP
Japan
Prior art keywords
manipulator
action
stereoscopic
sight
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP27440593A
Other languages
Japanese (ja)
Other versions
JPH07124165A (en
Inventor
均 水野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP27440593A priority Critical patent/JP3482228B2/en
Publication of JPH07124165A publication Critical patent/JPH07124165A/en
Priority to US08/940,613 priority patent/US5876325A/en
Application granted granted Critical
Publication of JP3482228B2 publication Critical patent/JP3482228B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、遠隔的にマニピュレー
タの操作を行う視線検出によるマニピュレータ制御シス
テムに関する。 【0002】 【従来の技術】従来のマニピュレータの遠隔操作手段に
は、マスタースレーブ方式を用いたものがある。すなわ
ち、実際の作業環境に設置されたスレーブマニピュレー
タを動作させるために、スレーブマニピュレータに類似
した構造を有するマスターマニピュレータを操作者が直
接手で持って操作する方式である。マスタースレーブ方
式においては、遠隔操作手段の問題となる臨場感の欠除
を補うために、スレーブマニピュレータに働く外部から
の作用力を、マスターマニピュレータが操作者に与える
力で伝えるいわゆるバイラテラル制御が用いられてい
る。さらに視覚的な臨場感を高めるために、対象物の立
体像をマスターマニピュレータの設置環境に写し出すこ
とも行われている。 【0003】 【発明が解決しようとする課題】しかしながら、前述し
たバイラテラル制御において、マスターマニピュレータ
側には対象物の実態がないため、不用意にマスターマニ
ピュレータを操作してしまい、その結果スレーブマニピ
ュレータが対象物に接触した場合に、対象物またはスレ
ーブマニピュレータが無理な力を受ける可能性がある。
つまり、少なくともいずれかに損傷を与える可能性があ
る。仮にこれを回避する動作をバイラテラル制御下の基
にあるマスターマニピュレータに加えたとしても、スレ
ーブマニピュレータに作用力が伝達されるには、信号伝
送や演算処理にかかる時間遅れのために間に合わない可
能性がある。 【0004】また、立体像による視覚的な臨場感を操作
者に与えることができても、立体像を見なくてもマスタ
ーマニピュレータが操作できる。万一、操作者が立体像
を見ないで不用意にマスターマニピュレータを操作して
しまい、スレーブマニピュレータが対象物に接触した場
合には、依然として、対象物またはスレーブマニピュレ
ータが無理な力を受ける可能性があった。 【0005】本発明は、前記の事情に鑑みてなされたも
ので、マニピュレータの遠隔制御において、操作者の意
図しない誤操作により、対象物またはスレーブマニピュ
レータに無理な力が働くことを防止する視線検出による
マニピュレータの制御システムを提供することを目的と
している。 【0006】 【課題を解決するための手段】本発明は、対象物を輻輳
角を有した左右の画像として撮像する立体視観察手段
と、前記立体視観察手段により得られた左右の画像を立
体観察可能に表示する立体視表示手段と、前記立体視表
示手段を観察する操作者の該立体視表示手段に対する視
線を検知する手段と、前記対象物に物理的作用を及ぼす
ための作用マニピュレータと、前記作用マニピュレータ
を遠隔操作するための指示を与える遠隔操作入力手段
と、前記検知する手段で検知した操作者の視線を基に前
記観察対象の位置を計算し、この観察対象の位置と前記
遠隔操作入力手段が指示する前記作用マニピュレータが
取るべき作用点の位置とを比較し位置的偏差を算出する
演算処理手段と、前記演算処理手段の算出した位置的偏
差が規定値より小さい場合にのみ、前記作用マニピュレ
ータの作用点の位置が前記遠隔操作入力手段が指示する
作用点の位置となるように駆動制御する制御手段とを備
えている。 【0007】 【作 用】本発明の構成では、演算処理手段により、検
知する手段で検知した操作者の視線を基に観察対象の位
置を計算し、この観察対象の位置と遠隔操作入力手段が
指示する作用マニピュレータが取るべき作用点の位置と
を比較し位置的偏差を算出し、制御手段により、前記演
算処理手段の算出した位置的偏差が規定値より小さい場
合にのみ、前記作用マニピュレータの作用点の位置が前
記遠隔操作入力手段が指示する作用点の位置となるよう
に駆動制御する。 【0008】従って、本発明の構成では、位置的偏差が
規定値より大きい場合、つまり操作者の視線が作用マニ
ピュレータの作用点から例えば大きく外れた際には、遠
隔操作入力手段からの指示があっても作用マニピュレー
タは動作しないので、誤操作による作用マニピュレータ
または対象物に働く無理な力がかかるのを防止できる。 【0009】 【実施例】図を参照して本発明の実施例について、以下
に説明する。図1ないし図7は本発明の第1実施例に係
り、図1はマニピュレータ制御システムの全体的な構成
図、図2はヘッド・マウント・ディスプレイ及び立体視
スコープの概略構成図、図3は視線検出手段の構成図、
図4はマスターアーム及び作用マニピュレータの先端構
成図、図5はマスターアームの操作説明図、図6は作用
マニピュレータの使用態様を示す説明図、図7は制御装
置の動作を示すフローチャートである。 【0010】図1に示すマニピュレータ制御システム3
0は、体腔内に挿入し対象物に物理的な作用を施す作用
マニピュレータとしてのスレーブマニピュレータ1を有
している。このマニピュレータ1は、図4(a)に示す
ように、複数の関節を有する多関節アーム2と、この多
関節アーム2の先端に設けられて臓器等を把持する作用
部としてのグリッパ3と、このグリッパ3に設けた触覚
センサ4とを有している。また、このマニピュレータ1
には、図1に示すように、前記多関節アーム2を駆動し
各関節の屈曲角度を変えるように駆動可能な駆動部5を
有している。さらにマニピュレータ1には、その先端
に、図5に示すように体腔内を立体観察可能とする立体
視観察手段としての立体視スコープ6が一体に設けられ
ている。 【0011】また、前記マニピュレータ制御システム3
0は、前記マニピュレータ1の動作を制御すると共に、
立体視スコープ6の撮像した左右画像の信号を処理する
制御装置7と、この制御装置7が処理した信号を左右画
像それぞれを表示するヘッド・マウント・ディスプレ8
(以下HMD)と、前記制御装置7にマニピュレータ1
を動作させる指示量を供給する遠隔操作入力手段として
のマスターアーム9とを有している。 【0012】図4(b)及び図5に示すマスターアーム
9は、前記マニピュレータ1の多関節アーム2に対応し
た数が用意されている。操作者10がマスターアーム9
を手で操作することにより、前記制御装置7の制御の基
で多関節アーム2の動作目標位置が決定されるようにな
っている。また、前記操作者10は図5に示すように、
自らの頭部に装着したHMD8に写し出された体腔内の
立体像を見ながら、マスターアーム9の操作を行うよう
になっている。 【0013】図1(b)に示すように立体視スコープ6
は、被写体となる対象物に対して輻輳角をもって配置さ
れた左右の対物光学系9a,9bと、この対物光学系9
a,9bにより結像された左右の光学像を撮像するCC
D10a,10bとを先端側に配置している。この立体
視スコープ6は、対物光学系9a,9bが結像した左右
の光学像をCCD10a,10bが光電変換し、変換さ
れた電気信号を前記制御装置7に出力するようになって
いる。尚、前記立体視スコープ6は、左右の対物光学系
9a,9bそれぞれに図示しない可変焦点光学系を含ん
だ構成となっている。この可変焦点光学系は、一つの光
軸を有し且つ前記左右の光学像を瞳分割によりCCD1
0a,10bに結像するレンズ系としても良い。前記可
変焦点光学系は、前記制御装置7の制御により、焦点調
節を行うようになっている。 【0014】前記制御装置7は、図1に示すように、前
記CCD10a,10bの各電気信号を入力する立体視
信号処理回路11を有しており、こ立体視信号処理回路
11は、前記各電気信号を標準的な映像信号に信号処理
している。前記HMD8は、図2(b)に示すように、
左右の表示部8a,8bを有しており、前記映像信号を
受けて左右の画像を表示部8a,8bに別々に表示させ
るようになっている。これによって、前記操作者10は
対象物32の立体像を認識できるようになっている。す
なわち、図2(b)のように対象物の実像32は、対物
光学系9a,9bにより視差をもって観察されるが、図
2(a)のようにHMD8においても、各々の像が2つ
の表示部8a,8bに別々に表示される。このため、対
象物32は観察者10の眼球12a,12bに対し、同
様の視差をもって観察され、対象物の虚像32′として
立体的に認識される。 【0015】前記HMD8には、図2(a)に示すよう
に、眼球12a,12bの視線方向を検出する視線検知
センサ13a,13bが設けられている。この視線検知
センサ13a,13bは、図1に示すように、前記制御
装置7の演算処理部14に接続されている。この演算処
理部14は、視線検知センサ13a,13bが検知した
信号を基に眼球12a,12bの各視線を求め、対象物
の位置を算出する対象物位置算出回路15と、この対象
物位置算出回路15で求めた対象物の位置と、前記マス
ターアーム9の指示値とを比較し、前記対象物の位置と
指示値が示すグリッパ3の作用点の位置との偏差を算出
する位置偏差算出回路16とから構成されている。前記
対象物位置算出回路15は、求めた対象物の位置を基
に、前記立体視スコープ6の前記可変焦点光学系を駆動
制御する、いわゆるオートフォーカス制御も行ってい
る。 【0016】さらに、前記制御装置7は、前記演算処理
部14の位置偏差算出回路16で求めた偏差に応じて、
前記スレーブマニピュレータ1の駆動部5を制御するこ
とにより、多関節アーム2を動かして、グリッパ3の作
用点をマスターアーム6の指示した作用点に至るように
制御する制御手段としての制御回路17を有している。
この制御回路17は、前記触覚センサ4により検知され
たグリッパ3と対象物との接触圧が、設定値以上の場合
に、マニピュレータ1の動作を停止させるようになって
いる。尚、前記制御は、より安全性を高めるため、把持
動作を止めグリッパ3を拡開させるようにしても良い。 【0017】前記視線検知センサ13a,13bの具体
例としては、図3(a)に示すようにCCDカメラ18
で眼球12a,12bを観察するものがあり、画像処理
により眼球の位置と、瞳孔の中心位置の相対関係から検
出する視線を検出する方式がある。また別の構成として
は、図3(b)に示すように、眼球12a,12bに対
し発光ダイオード19から赤外光を出射し、眼球12
a,12bで反射した光をPSD(ポジション・センシ
ング・デバイス)20で検出することにより、視線方向
を検出する方式が知られている。いずれの方式も公知で
あり、詳述することを省略するが、例えば、写真工業
(1993年1月号,P63〜P64,P104〜P105/写真工業社発
行)には、瞳孔と目の角膜で反射した赤外光による反射
像との位置関係をマイクロコンピュータで高速演算して
眼球の回転角を求め、どこを見ているかを算出する方式
が記載されている。 【0018】図2(b)において前記操作者10が対象
物を観察しているときに、左右の目の視線方向は対象物
の虚像32′上で交わるため、各々の視線方向を視線検
知センサ13a,13bで求めれば、対象物の虚像3
2′の3次元的な位置が求められる。さらに、前記HM
D8と立体視スコープ6との光学系の関係が既知である
ので、HMD8における対象物の虚像の3次元的な位置
から、立体視スコープ6に対する対象物の実像の3次元
的な位置が求められる。前記光学系の関係とは、例え
ば、HMD8における眼球12a,12bと表示部8
a,8bとの位置関係、及び立体視スコープ6における
対物光学系9a,9bとCCD10a,10bとの位置
関係、さらに各光学系の倍率等がある。理想的には、光
学系の関係が相似関係であれば、図中に示すθL=ψL、
θR=ψRが成立する。しかし、相似関係でなくても、前
記光学系の関係が既知であるので、容易に実像の3次元
的な位置を求めることができる。尚、ψL,ψRは対物光
学系9a,9bが対象物32に合焦した場合に、対物光
学系9a,9b及びCCD10a,10bの光軸に対す
る偏角である。また、θL,θRは左右の眼球12a,1
2bの角膜21a,21bの中心軸A,B、つまり左右
の視線の方向と、表示部8a,8bとのなす角度であ
る。 【0019】次に、図6の使用態様図、図7に示すフロ
ーチャート、図2及び図3を参照して、制御装置7の動
作について説明する。 【0020】さて、図7(a)は、視線検出による対象
物の3次元的位置を求めると共に、、この結果を用いて
立体視スコープ6のオートフォーカスを行うフローチャ
ートである。図7(b)は、視線検出により求めた対象
物の3次元的位置を目標点としてスレーブマニピュレー
タ1を動作させるフローチャ−トである。図7(c)
は、視線検出により求めた対象物の3次元的位置を使用
し、スレーブマニピュレータ1を遠隔操作する際の誤操
作防止を目的とした制御に関するフローチャ−トであ
る。このフローは、図7(b)の制御方式とは別の制御
方式であって、マスターアーム9からの動作指令と、観
察対象の位置とが規定範囲内のときにのみ、マスターア
ーム9の動きに習ってスレーブマニピュレータ1が動作
する。 【0021】図6は、本システムにおいて、遠隔操作に
より被検体31の体腔内の手術を行っている様子を示し
ている。スレーブマニピュレータ1は、被検体31を穿
切したトラカール22を介して、体腔内33に先端部が
挿入されている。 【0022】前記スレーブマニピュレータ1には、立体
視スコープ6が設置されており、この画像が制御装置7
によってHMD8に表示される。操作者10がHMD8
に表示された像を見ながらマスターアーム9を操作する
と、体腔内33に挿入されたスレーブマニピュレータ1
が、マスターアーム9の動きに倣って動作し、体腔内3
3にて手術を行うことができる。 【0023】前記HMD8には、図2(a)に示すよう
に視線方向を検出するセンサ13a,13bが設けられ
ており、操作者10が対象物である観察対象を認識する
ためには両眼12a,12bの視線が、観察対象に向け
られる必要がある(図7(a)のSS1,SS2を参
照)。このため、逆に両眼12a,12bの視線方向を
検出することにより観察対象の位置が検出される。すな
わち、前記対象物位置算出回路15では、左右の視線方
向θL,θRに対して、HMD8と立体視スコープ6との
間で生じる光学系の幾何的な相違を補正することによ
り、立体スコープ6から観察対象までの方位角ψL,ψR
が求められ、三角測量と同じ方法で観察対象の位置が検
出される(図7(a)のステップS3ないしS5参
照)。このとき、ステップS6に示すように、対象物位
置算出回路15は、注目している観察対象に常に合焦す
るようにオートフォーカス制御をしている。 【0024】尚、図2及び図7(a)では説明を容易に
するため平面における問題として扱っているが、空間に
おいても同様の原理で、観察対象の位置が検出できる。 【0025】前記制御装置7の制御方式としては、図7
(b)のフローに示すものがある。この制御において前
記制御回路17は、対象物位置算出回路15で求めた三
次元的(視線)位置を目標点として、スレーブマニピュ
レータ1の作用点が至るように、駆動部5を介して多関
節アーム2を駆動制御している。 【0026】一方、前記制御装置7の別の制御方式とし
ては、図7(c)のフローに示すものがある。 【0027】ここで、図4(a),(b)に示すよう
に、マスターアーム9が指示する作用点の位置をP、視
線検知によって求めた対象物の3次元的位置をQとし、
さらに多関節アーム2の動作によるグリッパ3の可動適
正範囲を示す規定値としての偏差量をRとする。尚、図
4(b)では、Q点はグリッパ3の作用点と一致してい
る。 【0028】前記制御回路17の制御のもとで、|P−
Q|<Rの条件でのみ多関節アーム2は、マスターアー
ム9が指示する作用点の位置Pに追従することが許され
る。すなわち、前記制御回路17は、操作者10が多関
節アーム2の作用点を中心とする半径Rの範囲を見てい
るときにのみ遠隔操作できるよう制限している。 【0029】図4(a),(b)において、スレーブマ
ニピュレータ1の作用点とマスターアーム9の指示点P
とが一致している状況を考える。仮に操作者10が、図
4(b)のQ1点に視点を移したときには、図7(c)
のステップS8において、対象物の位置と注視点との位
置的偏差である|P−Q|より設定値Rの方が小さいの
で、制御回路17は、ステップS9に至り動作の許可状
態となる。ここで、遠隔的操作の入力手段であるマスタ
ーアーム9の指示位置Pを移動させることにより、制御
回路17は、スレーブマニピュレータ1を位置Pに追従
するように制御する。 【0030】また、操作者10が、図4(b)のQ2点
に視点を移したときには、図7(c)のステップS8に
おいて、|P−Q|より設定値Rの方が大きいので、制
御回路17はステップS10に至り、多関節アーム2の
動作は禁止される。 【0031】本実施例では、観察者10がスレーブマニ
ピュレータ1の作用点の少なくとも近傍を観察していな
いと、具体的には設定値R以内の点を観察していない
と、マスターアーム9による動作指令があっても、スレ
ーブマニピュレータ1は動作しない。このため、本実施
例では、操作者の意図しない誤操作による対象物または
多関節アームを損傷させることを防止でき、安全性を高
めることができる。操作者がスレーブマニピュレータの
現在の作用点から他に視線を移した場合だけでなく、一
般に意識が他へ移り視線も作用点から移っている場合に
誤操作をしやすいケースが多いので、本実施例は、この
ような操作者の集中力がとぎれ意識がおろそかになった
状況下でも、マスターマニピュレータの誤操作による事
故を回避できる。 【0032】図8及び図9は本発明の第2実施例に係
り、図8はマニピュレータ制御システムの構成図、図9
は図8に示すシステムの動作説明図である。 【0033】本実施例のマニピュレータ制御システム
は、別体の作用マニピュレータと、観察用のマニピュレ
ータとを有し、別体のマスターマニピュレータにより作
用マニピュレータを遠隔操作する構成となっている。ま
た、本制御システムは、HMDの動きに合わせて立体観
察視観察手段を有する観察用のマニピュレータを遠隔操
作する構成になっている。その他、第1実施例と同様の
構成及び作用については、同じ符号を付して説明を省略
する。 【0034】図8に示す本実施例のシステム35は、被
検体に処置を施すために使用する処置用マニピュレータ
24a,24bの2台と、観察用マニピュレータ25と
を有している。本システム35は、これらマニピュレー
タを体腔内に挿入し、体腔内にて必要な手術を行うこと
ができるようになっている。前記観察用マニピュレータ
25の先端には図9(a)に示す立体視スコープ25a
が設けられている。 【0035】また、HMD8Aには、図1に示すHMD
8の構成に加えて、HMD8Aの位置及び傾きに関する
6自由度の情報が検知可能な3次元位置センサ26が設
けられている。このHMD8Aの3次元位置センサ26
は、例えば図9(b)に示す直行する3方向に巻かれた
3つの検知コイル26aと、一定の位置に固定された同
様構造の図示しない固定コイルとからなる。この固定コ
イルから出された磁場の強度を検知コイル26aにより
検知することにより、位置及び傾きに関する6自由度情
報が求められるようになっている。この3次元位置セン
サ26が検出したHMD8Aの変位量は、制御装置7の
制御回路27に供給されるようになっている。この制御
回路27は、前記3次元位置センサ26が検出した変位
量に応じて、立体視スコープ25aの視野方向を制御す
るようになっている。 【0036】また、マスターマニピュレータ28a,2
8bは、制御装置7の位置偏差算出回路16Aに接続さ
れている。前記制御回路27は、前記位置偏差算出回路
16Aがマスターマニピュレータ28a,28bの各指
示位置と、前記対象物位置検出回路位置5の観察対象と
の位置との各偏差に応じて、処置用マニピュレータ24
a,24bをそれぞれ制御するようになっている。 【0037】前記構成で、操作者は、HMD8Aを装着
した状態において、マスターマニピュレータ28a,2
8bを手で持つ動作をさせることにより、処置用マニピ
ュレータ24a,24bを操作する。 【0038】前記制御回路27は、3D位置センサ26
の検出磁界の強度により、HMD8の位置及び傾きに関
する6自由度の情報を求め、求めた情報に従って観察用
マニピュレータ25の動作位置を決定する。また、視線
検知センサ13a,13bから前述の第1の実施例の方
法で求めた3次元的位置と、処置用マニピュレータ24
a,24bの作用点とが規定値の範囲内にある場合にの
み、制御回路27は、マスターマニピュレータ28a,
28bの操作に従って処置用マニピュレータ24a,2
4bを動作させている。 【0039】本実施例によれば、立体像を見ると同時
に、手と目との位置関係が体腔内の処置用マニピュレー
タと観察用マニピュレータとの位置関係をそのまま保ち
ながら、操作可能となり、より高い臨場感が得られる。
さらに本実施例は、視線検知により第1の実施例と同様
に安全に操作が行える。 【0040】 【発明の効果】以上説明したように、本発明によれば、
マニピュレータの遠隔制御において、操作者の意図しな
い誤操作により、対象物または作用マニピュレータに無
理な力が働くことを防止でき、より安全な操作が可能と
なるという効果がある。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a manipulator control system based on line-of-sight detection for remotely operating a manipulator. 2. Description of the Related Art Some conventional remote control means for a manipulator use a master-slave system. That is, in order to operate the slave manipulator installed in the actual work environment, the operator directly holds and operates a master manipulator having a structure similar to the slave manipulator. In the master-slave method, so-called bilateral control is used, in which the external force acting on the slave manipulator is transmitted by the force exerted by the master manipulator to the operator in order to compensate for the lack of realism which is a problem of the remote control means. Have been. In order to further enhance the visual realism, a stereoscopic image of an object is also projected on an installation environment of a master manipulator. However, in the above-described bilateral control, since the master manipulator has no actual state of the object, the master manipulator is inadvertently operated, and as a result, the slave manipulator is not operated. When contacting the object, the object or the slave manipulator may be subjected to an excessive force.
That is, at least one of them may be damaged. Even if an action to avoid this is added to the master manipulator under bilateral control, it is possible that the action force will not be transmitted to the slave manipulator due to the delay in signal transmission and arithmetic processing. There is. [0004] In addition, the master manipulator can be operated without giving the operator a visual sense of realism by means of a three-dimensional image and without looking at the three-dimensional image. If the operator inadvertently operates the master manipulator without seeing the stereoscopic image and the slave manipulator comes into contact with the object, the object or the slave manipulator may still receive excessive force. was there. SUMMARY OF THE INVENTION The present invention has been made in view of the above circumstances, and is based on gaze detection for preventing an excessive force from acting on an object or a slave manipulator due to an erroneous operation not intended by an operator in remote control of a manipulator. It aims at providing a manipulator control system. SUMMARY OF THE INVENTION The present invention provides a stereoscopic observation means for picking up an image of an object as right and left images having a convergence angle, and a left and right image obtained by the stereoscopic observation means. Stereoscopic display means for displaying observable, means for detecting an operator's line of sight to the stereoscopic display means for observing the stereoscopic display means, and an action manipulator for exerting a physical action on the object, Remote operation input means for giving an instruction for remotely operating the action manipulator, and the position of the observation target is calculated based on the line of sight of the operator detected by the detection means, and the position of the observation target and the remote operation are calculated. An arithmetic processing means for comparing a position of an operation point to be taken by the operation manipulator indicated by the input means to calculate a positional deviation; and a positional deviation calculated by the arithmetic processing means is defined. Control means for controlling the drive so that the position of the action point of the action manipulator becomes the position of the action point specified by the remote operation input means only when the value is smaller than the value. In the structure of the present invention, the position of the observation target is calculated by the arithmetic processing means based on the operator's line of sight detected by the detection means, and the position of the observation target and the remote operation input means are calculated. The instructed action manipulator compares the position of the action point to be taken with the position of the action point to calculate a positional deviation, and the control means controls the operation of the action manipulator only when the positional deviation calculated by the arithmetic processing means is smaller than a specified value. Drive control is performed such that the position of the point becomes the position of the action point specified by the remote operation input means. Therefore, according to the configuration of the present invention, when the positional deviation is larger than the specified value, that is, when the operator's line of sight deviates greatly from the operation point of the operation manipulator, for example, there is no instruction from the remote operation input means. However, since the action manipulator does not operate, it is possible to prevent an excessive force acting on the action manipulator or the object due to an erroneous operation. An embodiment of the present invention will be described below with reference to the drawings. 1 to 7 relate to a first embodiment of the present invention, FIG. 1 is an overall configuration diagram of a manipulator control system, FIG. 2 is a schematic configuration diagram of a head mount display and a stereoscopic scope, and FIG. Configuration diagram of detection means,
FIG. 4 is a configuration diagram of the distal end of the master arm and the operation manipulator, FIG. 5 is an explanatory diagram of the operation of the master arm, FIG. 6 is an explanatory diagram showing a use mode of the operation manipulator, and FIG. 7 is a flowchart showing the operation of the control device. The manipulator control system 3 shown in FIG.
Numeral 0 has a slave manipulator 1 as an action manipulator which is inserted into a body cavity and exerts a physical action on an object. As shown in FIG. 4A, the manipulator 1 includes a multi-joint arm 2 having a plurality of joints, a gripper 3 provided at a distal end of the multi-joint arm 2 and acting as an operating unit for gripping an organ or the like. And a tactile sensor 4 provided on the gripper 3. In addition, this manipulator 1
As shown in FIG. 1, the multi-joint arm 2 has a drive unit 5 that can be driven to drive the articulated arm 2 to change the bending angle of each joint. Further, the manipulator 1 is integrally provided with a stereoscopic scope 6 as a stereoscopic observation means for enabling stereoscopic observation of the inside of a body cavity, as shown in FIG. The manipulator control system 3
0 controls the operation of the manipulator 1 and
A control device 7 that processes signals of the left and right images captured by the stereoscopic scope 6, and a head mount display 8 that displays the signals processed by the control device 7 on the left and right images, respectively.
(Hereinafter referred to as HMD) and the manipulator 1
And a master arm 9 as a remote control input means for supplying an instruction amount for operating. The number of master arms 9 shown in FIGS. 4B and 5 is prepared corresponding to the number of the articulated arms 2 of the manipulator 1. The operator 10 has the master arm 9
Is operated by hand, the operation target position of the articulated arm 2 is determined under the control of the control device 7. Further, as shown in FIG. 5, the operator 10
The user operates the master arm 9 while viewing a stereoscopic image of the inside of the body cavity projected on the HMD 8 mounted on his own head. As shown in FIG. 1B, the stereoscopic scope 6
Are left and right objective optical systems 9a and 9b arranged at an angle of convergence with respect to an object serving as a subject;
CC that captures the left and right optical images formed by a and 9b
D10a and D10b are arranged on the tip side. In the stereoscopic scope 6, the left and right optical images formed by the objective optical systems 9a and 9b are photoelectrically converted by the CCDs 10a and 10b, and the converted electric signals are output to the control device 7. The stereoscopic scope 6 has a configuration that includes a variable focus optical system (not shown) in each of the left and right objective optical systems 9a and 9b. This varifocal optical system has one optical axis and divides the left and right optical images by pupil division.
A lens system that forms images at 0a and 10b may be used. The variable focus optical system performs focus adjustment under the control of the control device 7. As shown in FIG. 1, the control device 7 has a stereoscopic signal processing circuit 11 for inputting the electric signals of the CCDs 10a and 10b. The electrical signal is processed into a standard video signal. The HMD 8 is, as shown in FIG.
Left and right display units 8a and 8b are provided, and the left and right images are separately displayed on the display units 8a and 8b in response to the video signal. Thereby, the operator 10 can recognize the three-dimensional image of the object 32. That is, as shown in FIG. 2B, the real image 32 of the target object is observed with parallax by the objective optical systems 9a and 9b. However, as shown in FIG. These are displayed separately in the sections 8a and 8b. Therefore, the object 32 is observed with a similar parallax to the eyes 12a and 12b of the observer 10, and is three-dimensionally recognized as a virtual image 32 'of the object. As shown in FIG. 2A, the HMD 8 is provided with sight line detection sensors 13a and 13b for detecting the sight line direction of the eyeballs 12a and 12b. The visual line detection sensors 13a and 13b are connected to an arithmetic processing unit 14 of the control device 7, as shown in FIG. The arithmetic processing unit 14 obtains each line of sight of the eyeballs 12a and 12b based on signals detected by the line of sight detection sensors 13a and 13b, and calculates an object position calculation circuit 15 for calculating the position of the object. A position deviation calculating circuit that compares the position of the object obtained by the circuit 15 with the indicated value of the master arm 9 and calculates the deviation between the position of the object and the position of the operating point of the gripper 3 indicated by the indicated value. 16. The object position calculation circuit 15 also performs so-called autofocus control for driving and controlling the variable focus optical system of the stereoscopic scope 6 based on the obtained position of the object. Further, the control device 7 calculates the position deviation calculated by the position deviation calculation circuit 16 of the arithmetic processing unit 14 according to the following:
By controlling the driving unit 5 of the slave manipulator 1, the control circuit 17 as a control means for controlling the operation point of the gripper 3 to reach the operation point designated by the master arm 6 by moving the articulated arm 2 is provided. Have.
The control circuit 17 stops the operation of the manipulator 1 when the contact pressure between the gripper 3 and the object detected by the tactile sensor 4 is equal to or higher than a set value. In the control, the gripping operation may be stopped and the gripper 3 may be expanded in order to further enhance safety. As a specific example of the line-of-sight detection sensors 13a and 13b, as shown in FIG.
There is a method of observing the eyeballs 12a and 12b, and there is a method of detecting a line of sight detected from the relative relationship between the position of the eyeball and the center of the pupil by image processing. As another configuration, as shown in FIG. 3B, infrared light is emitted from the light emitting diode 19 to the eyes 12a and 12b,
There is known a method of detecting the direction of the line of sight by detecting the light reflected by a and 12b with a PSD (position sensing device) 20. Both methods are known and will not be described in detail. For example, in the photo industry (January 1993, P63-P64, P104-P105 / published by Photo Industry Co., Ltd.), the pupil and the cornea of the eye are used. A method is described in which the positional relationship between the reflected infrared light and a reflected image is calculated at a high speed by a microcomputer to determine the rotation angle of the eyeball, and to calculate where the user is looking. In FIG. 2B, when the operator 10 is observing the object, the line of sight of the left and right eyes intersects on the virtual image 32 'of the object. 13a and 13b, the virtual image 3 of the object
A 2 ′ three-dimensional position is obtained. Further, the HM
Since the relationship between the optical system of D8 and the stereoscopic scope 6 is known, the three-dimensional position of the real image of the object with respect to the stereoscopic scope 6 is obtained from the three-dimensional position of the virtual image of the object in the HMD 8. . The relationship between the optical systems is, for example, the eyeballs 12 a and 12 b and the display unit 8 in the HMD 8.
a, 8b, the positional relationship between the objective optical systems 9a, 9b and the CCDs 10a, 10b in the stereoscopic scope 6, the magnification of each optical system, and the like. Ideally, if the relationship between the optical systems is similar, θL = ψL shown in FIG.
θR = ψR holds. However, even if there is no similarity, since the relationship of the optical system is known, the three-dimensional position of the real image can be easily obtained. Note that ψL and ψR are declination angles with respect to the optical axes of the objective optical systems 9a and 9b and the CCDs 10a and 10b when the objective optical systems 9a and 9b are focused on the object 32. ΘL, θR are the left and right eyeballs 12a, 1
It is the angle between the central axes A and B of the cornea 21a and 21b of 2b, that is, the directions of the left and right lines of sight and the display units 8a and 8b. Next, the operation of the control device 7 will be described with reference to the usage pattern shown in FIG. 6, the flowchart shown in FIG. 7, and FIGS. 2 and 3. FIG. 7A is a flowchart for obtaining the three-dimensional position of the target object by detecting the line of sight and performing the autofocus of the stereoscopic scope 6 using the result. FIG. 7B is a flowchart for operating the slave manipulator 1 using the three-dimensional position of the object obtained by the line-of-sight detection as a target point. FIG. 7 (c)
Is a flowchart relating to control for preventing erroneous operation when remotely operating the slave manipulator 1 by using the three-dimensional position of the object obtained by the line of sight detection. This flow is a control method different from the control method shown in FIG. 7B, in which the movement of the master arm 9 is performed only when the operation command from the master arm 9 and the position of the observation target are within the specified range. The slave manipulator 1 operates according to the above. FIG. 6 shows a state in which an operation in the body cavity of the subject 31 is performed by remote control in the present system. The distal end of the slave manipulator 1 is inserted into the body cavity 33 via the trocar 22 that cuts the subject 31. The slave manipulator 1 is provided with a stereoscopic scope 6, and this image is transmitted to a controller 7.
Is displayed on the HMD 8. The operator 10 has the HMD 8
When the master arm 9 is operated while watching the image displayed on the slave manipulator 1 inserted into the body cavity 33,
Operates in accordance with the movement of the master arm 9, and the body cavity 3
Surgery can be performed at 3. As shown in FIG. 2A, the HMD 8 is provided with sensors 13a and 13b for detecting the direction of the line of sight, so that the operator 10 can recognize the object to be observed by using both eyes. The lines of sight 12a and 12b need to be directed to the observation target (see SS1 and SS2 in FIG. 7A). Therefore, conversely, the position of the observation target is detected by detecting the line-of-sight directions of the eyes 12a and 12b. That is, the object position calculation circuit 15 corrects the geometrical difference of the optical system between the HMD 8 and the stereoscopic scope 6 with respect to the left and right visual line directions θL and θR, and Azimuth angle ψL, ψR to observation object
Is obtained, and the position of the observation target is detected in the same manner as in the triangulation (see steps S3 to S5 in FIG. 7A). At this time, as shown in step S6, the object position calculation circuit 15 performs autofocus control so that the observation object of interest is always focused. In FIG. 2 and FIG. 7A, the problem is treated as a plane for ease of explanation. However, the position of the observation target can be detected in space according to the same principle. As a control method of the control device 7, FIG.
There is a flow shown in FIG. In this control, the control circuit 17 uses the three-dimensional (line of sight) position obtained by the object position calculation circuit 15 as a target point so that the action point of the slave manipulator 1 reaches the multi-joint arm via the drive unit 5. 2 is drive-controlled. On the other hand, another control method of the control device 7 is shown in the flow chart of FIG. As shown in FIGS. 4 (a) and 4 (b), the position of the action point designated by the master arm 9 is P, and the three-dimensional position of the object obtained by detecting the line of sight is Q.
Further, the deviation amount as a specified value indicating the movable proper range of the gripper 3 due to the operation of the articulated arm 2 is defined as R. In FIG. 4B, the point Q coincides with the operation point of the gripper 3. Under the control of the control circuit 17, | P-
Only under the condition of Q | <R, the articulated arm 2 is allowed to follow the position P of the action point specified by the master arm 9. In other words, the control circuit 17 restricts the remote operation only when the operator 10 is watching the range of the radius R centering on the point of action of the articulated arm 2. 4A and 4B, the action point of the slave manipulator 1 and the designated point P of the master arm 9 are shown.
Consider a situation where If the operator 10 shifts the viewpoint to the point Q1 in FIG. 4B, FIG.
In step S8, since the set value R is smaller than | P−Q |, which is the positional deviation between the position of the target object and the gazing point, the control circuit 17 proceeds to step S9 and enters the operation permission state. Here, the control circuit 17 controls the slave manipulator 1 to follow the position P by moving the designated position P of the master arm 9 which is an input means of the remote operation. When the operator 10 shifts his or her viewpoint to the point Q2 in FIG. 4B, the set value R is larger than | PQ | in step S8 in FIG. The control circuit 17 proceeds to step S10, and the operation of the articulated arm 2 is prohibited. In this embodiment, if the observer 10 does not observe at least the vicinity of the action point of the slave manipulator 1 or, specifically, does not observe a point within the set value R, the operation by the master arm 9 is performed. Even if there is a command, the slave manipulator 1 does not operate. For this reason, in the present embodiment, it is possible to prevent the object or the multi-joint arm from being damaged due to an erroneous operation not intended by the operator, and it is possible to enhance safety. This embodiment is not limited to the case where the operator shifts his / her gaze from the current point of action of the slave manipulator to another, but in general, the case where the consciousness is shifted to another and the line of sight is also shifted from the point of action. Can avoid an accident due to an erroneous operation of the master manipulator even in a situation where the concentration of the operator is interrupted and the consciousness is neglected. FIGS. 8 and 9 relate to a second embodiment of the present invention. FIG. 8 is a block diagram of a manipulator control system.
FIG. 9 is an explanatory diagram of the operation of the system shown in FIG. The manipulator control system of this embodiment has a separate operation manipulator and a manipulator for observation, and is configured to remotely control the operation manipulator by a separate master manipulator. The control system is configured to remotely control an observation manipulator having a stereoscopic observation observation unit in accordance with the movement of the HMD. In addition, the same configurations and operations as those of the first embodiment are denoted by the same reference numerals, and description thereof is omitted. The system 35 of this embodiment shown in FIG. 8 has two treatment manipulators 24a and 24b used for performing treatment on a subject and an observation manipulator 25. In the present system 35, these manipulators can be inserted into a body cavity to perform a necessary operation in the body cavity. At the tip of the observation manipulator 25, a stereoscopic scope 25a shown in FIG.
Is provided. The HMD 8A has the HMD shown in FIG.
In addition to the configuration of FIG. 8, a three-dimensional position sensor 26 capable of detecting information of six degrees of freedom regarding the position and inclination of the HMD 8A is provided. The three-dimensional position sensor 26 of this HMD8A
Is composed of, for example, three detection coils 26a wound in three orthogonal directions shown in FIG. 9B and a fixed coil (not shown) having a similar structure and fixed at a fixed position. By detecting the intensity of the magnetic field emitted from the fixed coil by the detection coil 26a, six degrees of freedom information on the position and the inclination can be obtained. The amount of displacement of the HMD 8A detected by the three-dimensional position sensor 26 is supplied to a control circuit 27 of the control device 7. The control circuit 27 controls the direction of the visual field of the stereoscopic scope 25a in accordance with the amount of displacement detected by the three-dimensional position sensor 26. The master manipulators 28a, 28
8b is connected to the position deviation calculation circuit 16A of the control device 7. The control circuit 27 controls the treatment manipulator 24 according to each deviation between the position indicated by the master manipulators 28a and 28b and the position of the object position detection circuit position 5 from the observation target.
a and 24b are respectively controlled. With the above configuration, the operator can operate the master manipulators 28a, 28a while the HMD 8A is mounted.
The treatment manipulators 24a and 24b are operated by causing the user to hold the hand 8b. The control circuit 27 includes a 3D position sensor 26
, Information of six degrees of freedom relating to the position and inclination of the HMD 8 is obtained, and the operating position of the observation manipulator 25 is determined according to the obtained information. Further, the three-dimensional position obtained from the line-of-sight detection sensors 13a and 13b by the method of the first embodiment described above and the treatment manipulator 24
Only when the action points of the a and 24b are within the range of the specified value, the control circuit 27 controls the master manipulator 28a,
28b according to the operation of the treatment manipulator 24a,
4b is operating. According to this embodiment, at the same time as viewing the stereoscopic image, the positional relationship between the hand and the eye can be operated while maintaining the positional relationship between the treatment manipulator and the observation manipulator in the body cavity. Realism is obtained.
Further, in this embodiment, the operation can be safely performed by the line of sight detection as in the first embodiment. As described above, according to the present invention,
In the remote control of the manipulator, it is possible to prevent an unreasonable operation by the operator from applying an unreasonable force to the target object or the action manipulator, thereby providing an effect of enabling a safer operation.

【図面の簡単な説明】 【図1】図1ないし図7は第1実施例に係り、図1はマ
ニピュレータ制御システムの全体的な構成図。 【図2】図2はヘッド・マウント・ディスプレイ及び立
体視スコープの概略構成図。 【図3】図3は視線検出手段の構成図。 【図4】図4はマスターアーム及び作用マニピュレータ
の先端構成図。 【図5】図5はマスターアームの操作説明図。 【図6】図6は作用マニピュレータの使用態様を示す説
明図。 【図7】図7は制御装置の動作を示すフローチャート。 【図8】図8及び図9は第2実施例に係り、図8はマニ
ピュレータ制御システムの構成図。 【図9】図9は図8に示すシステムの動作説明図であ
る。 【符号の説明】 30…マニピュレータ制御システム 1…スレーブマニピュレータ 2…多関節アーム 3…グリッパ 6…立体視スコープ 7…制御装置 8…HMD 9…マスターアーム 13a,13b…視線位置検知センサ 14…演算処理部 15…対象物位置算出回路 16…位置偏差算出回路 17…制御回路
BRIEF DESCRIPTION OF THE DRAWINGS FIGS. 1 to 7 relate to a first embodiment, and FIG. 1 is an overall configuration diagram of a manipulator control system. FIG. 2 is a schematic configuration diagram of a head-mounted display and a stereoscopic scope. FIG. 3 is a configuration diagram of a visual line detection unit. FIG. 4 is a front end configuration diagram of a master arm and an action manipulator. FIG. 5 is an operation explanatory view of a master arm. FIG. 6 is an explanatory view showing a use mode of the action manipulator. FIG. 7 is a flowchart showing the operation of the control device. 8 and 9 relate to a second embodiment, and FIG. 8 is a configuration diagram of a manipulator control system. FIG. 9 is an explanatory diagram of the operation of the system shown in FIG. 8; [Description of Signs] 30 ... Manipulator control system 1 ... Slave manipulator 2 ... Articulated arm 3 ... Gripper 6 ... Stereoscopic scope 7 ... Control device 8 ... HMD 9 ... Master arms 13a and 13b ... Gaze position detection sensor 14 ... Calculation processing Unit 15: Object position calculation circuit 16: Position deviation calculation circuit 17: Control circuit

───────────────────────────────────────────────────── フロントページの続き (58)調査した分野(Int.Cl.7,DB名) B25J 3/00 B25J 13/00 B25J 19/00 A61B 1/00 ──────────────────────────────────────────────────続 き Continued on the front page (58) Fields surveyed (Int.Cl. 7 , DB name) B25J 3/00 B25J 13/00 B25J 19/00 A61B 1/00

Claims (1)

(57)【特許請求の範囲】 【請求項1】 対象物を輻輳角を有した左右の画像とし
て撮像する立体視観察手段と、 前記立体視観察手段により得られた左右の画像を立体観
察可能に表示する立体視表示手段と、 前記立体視表示手段を観察する操作者の該立体視表示手
段に対する視線を検知する手段と、 前記対象物に物理的作用を及ぼすための作用マニピュレ
ータと、 前記作用マニピュレータを遠隔操作するための指示を与
える遠隔操作入力手段と、 前記検知する手段で検知した操作者の視線を基に前記観
察対象の位置を計算し、この観察対象の位置と前記遠隔
操作入力手段が指示する前記作用マニピュレータが取る
べき作用点の位置とを比較し位置的偏差を算出する演算
処理手段と、 前記演算処理手段の算出した位置的偏差が規定値より小
さい場合にのみ、前記作用マニピュレータの作用点の位
置が前記遠隔操作入力手段が指示する作用点の位置とな
るように駆動制御する制御手段とを備えている、 ことを特徴とする視線検出によるマニピュレータ制御シ
ステム
(57) [Claims 1] Stereoscopic observation means for imaging an object as right and left images having a convergence angle, and left and right images obtained by the stereoscopic observation means can be stereoscopically observed. A means for detecting a line of sight of the operator observing the stereoscopic display means on the stereoscopic display means, an action manipulator for exerting a physical action on the object, and the action Remote operation input means for giving an instruction for remotely manipulating the manipulator; calculating the position of the observation target based on the line of sight of the operator detected by the detection means; and calculating the position of the observation target and the remote operation input means An arithmetic processing means for comparing a position of an action point to be taken by the action manipulator to calculate a positional deviation, wherein the positional deviation calculated by the arithmetic processing means is smaller than a specified value Control means for controlling the operation of the operation manipulator so that the position of the operation point of the operation manipulator becomes the position of the operation point specified by the remote operation input means. system
JP27440593A 1993-11-02 1993-11-02 Manipulator control system by gaze detection Expired - Fee Related JP3482228B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP27440593A JP3482228B2 (en) 1993-11-02 1993-11-02 Manipulator control system by gaze detection
US08/940,613 US5876325A (en) 1993-11-02 1997-09-30 Surgical manipulation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27440593A JP3482228B2 (en) 1993-11-02 1993-11-02 Manipulator control system by gaze detection

Publications (2)

Publication Number Publication Date
JPH07124165A JPH07124165A (en) 1995-05-16
JP3482228B2 true JP3482228B2 (en) 2003-12-22

Family

ID=17541216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27440593A Expired - Fee Related JP3482228B2 (en) 1993-11-02 1993-11-02 Manipulator control system by gaze detection

Country Status (1)

Country Link
JP (1) JP3482228B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9204934B2 (en) 2011-07-15 2015-12-08 Olympus Corporation Manipulator system
US9259283B2 (en) 2011-07-07 2016-02-16 Olympus Corporation Medical master slave manipulator system

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3869029B2 (en) * 1995-05-16 2007-01-17 オリンパス株式会社 Stereoscopic endoscope system
JP3816599B2 (en) * 1996-10-29 2006-08-30 オリンパス株式会社 Body cavity treatment observation system
JP3110403B2 (en) 1998-11-16 2000-11-20 技術研究組合医療福祉機器研究所 Control method of master-slave manipulator device and training method of manipulator operation input
DE102009010263B4 (en) * 2009-02-24 2011-01-20 Reiner Kunz Method for navigating an endoscopic instrument during technical endoscopy and associated device
JP5704833B2 (en) * 2010-05-10 2015-04-22 オリンパス株式会社 Operation input device and manipulator system
CA3082073C (en) 2011-07-11 2023-07-25 Board Of Regents Of The University Of Nebraska Robotic surgical devices, systems, and related methods
JP6644699B2 (en) * 2014-03-19 2020-02-12 インテュイティブ サージカル オペレーションズ, インコーポレイテッド Medical devices, systems and methods using gaze tracking
CN106659541B (en) 2014-03-19 2019-08-16 直观外科手术操作公司 Integrated eyeball stares medical device, the system and method that tracking is used for stereoscopic viewer
JP6942420B2 (en) * 2017-09-29 2021-09-29 東芝情報システム株式会社 Unmanned underwater vehicle system
CN107569346A (en) * 2017-10-16 2018-01-12 王疆卫 A kind of smart motion health care, Chinese traditional massage formula care bed

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9259283B2 (en) 2011-07-07 2016-02-16 Olympus Corporation Medical master slave manipulator system
US9204934B2 (en) 2011-07-15 2015-12-08 Olympus Corporation Manipulator system

Also Published As

Publication number Publication date
JPH07124165A (en) 1995-05-16

Similar Documents

Publication Publication Date Title
US11284952B2 (en) Estimation of a position and orientation of a frame used in controlling movement of a tool
US20180160035A1 (en) Robot System for Controlling a Robot in a Tele-Operation
JP3540362B2 (en) Surgical manipulator control system and control method
RU2727304C2 (en) Robotic surgical system with improved control
KR101705921B1 (en) Synthetic representation of a surgical robot
EP3912588A1 (en) Imaging system for surgical robot, and surgical robot
JP3717653B2 (en) Head mounted image display device
WO2017115425A1 (en) Medical manipulator system
KR100998182B1 (en) 3D display system of surgical robot and control method thereof
WO2017187795A1 (en) Control device, control method and surgical system
JP3482228B2 (en) Manipulator control system by gaze detection
US20220272272A1 (en) System and method for autofocusing of a camera assembly of a surgical robotic system
JPH06131442A (en) Three-dimensional virtual image modeling device
JPH0421105A (en) Stereoscopic teaching device for manipulator
CN115087413A (en) Method for operating a surgical microscope and surgical microscope
JPH089423A (en) Remote monitor device
JP3429529B2 (en) Surgical microscope
JPH0552116B2 (en)
US11627868B2 (en) Systems and methods for controlling autofocus operations
US20220079415A1 (en) Visualization system comprising an observation apparatus and an endoscope
CN115192207A (en) Surgical robot, main operating table, control method and control device of surgical robot
Plooy et al. Judging size, distance, and depth with an active telepresence system

Legal Events

Date Code Title Description
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20030929

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081010

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091010

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101010

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees