JP4295520B2 - 立体鏡視方法および立体鏡視システム - Google Patents

立体鏡視方法および立体鏡視システム Download PDF

Info

Publication number
JP4295520B2
JP4295520B2 JP2003027322A JP2003027322A JP4295520B2 JP 4295520 B2 JP4295520 B2 JP 4295520B2 JP 2003027322 A JP2003027322 A JP 2003027322A JP 2003027322 A JP2003027322 A JP 2003027322A JP 4295520 B2 JP4295520 B2 JP 4295520B2
Authority
JP
Japan
Prior art keywords
user
radiation
region
stereoscopic
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2003027322A
Other languages
English (en)
Other versions
JP2003309861A (ja
Inventor
ハイシュ、ミヒャエル
モンツ、ルードヴィン
Original Assignee
カールツァイス アーゲー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by カールツァイス アーゲー filed Critical カールツァイス アーゲー
Publication of JP2003309861A publication Critical patent/JP2003309861A/ja
Application granted granted Critical
Publication of JP4295520B2 publication Critical patent/JP4295520B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/18Arrangements with more than one light path, e.g. for comparing two specimens
    • G02B21/20Binocular arrangements
    • G02B21/22Stereoscopic arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • H04N13/211Image signal generators using stereoscopic image cameras using a single 2D image sensor using temporal multiplexing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/286Image signal generators having separate monoscopic and stereoscopic modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Description

【0001】
【発明の属する技術分野】
本発明は、少なくとも1人のユーザが観察する対象物の少なくとも一組の表示を生成する立体鏡視方法および立体鏡視システムに関する。
【0002】
本発明の立体鏡視方法および本発明の立体鏡視システムは、対象物の立体表示を提示するものであり、その表示を見たときに、ユーザはその表示の3次元的な印象を得ることができる。そのために、ユーザの左右の眼は、対象物を異なる方向から見た際の対象物の表示を知覚する必要がある。
【0003】
【従来の技術】
従来の立体鏡視システムの一例として立体顕微鏡が挙げられる。図1は、従来の立体顕微鏡における光路を模式的に示したものである。この図に示した立体顕微鏡901は、光軸905を備えた対物レンズ903と、観察対象物を配置する対象面907とを含む。光軸905を中心とする立体角領域909にあって対象物および対象面907が発するビーム束911は、それぞれ対物レンズ903において無限遠像を形成して平行ビーム束913に変換される。2つのズーム系915および916は、それぞれ独自の光軸917および918を備えており、平行ビーム束913内において互いに近接している。ここでこれらズーム系の光軸917および918は、対物レンズ903の光軸905から離れた位置でかつそれに平行であり、光軸間の距離aだけ互いに離れて配置されている。これら2つのズーム系915および916は、平行ビーム束913の部分ビーム束919および920をそれぞれ、ユーザの左眼921およびユーザの右眼922に供給する。このために、部分ビーム束919および920のそれぞれに、視野レンズ923、プリズム系925および接眼レンズ927が配置されている。この結果、左眼921は、光軸905に対して視野角α傾斜した表示を知覚し、右眼は光軸905に対して視野角−α傾斜した表示を知覚し、これによって、ユーザは、対象物の立体的、3次元的な印象を得ることになる。
【0004】
図2に、別の従来の顕微鏡901の光路の一部を示す。この顕微鏡901によれば、2人のユーザが対象物を観察する場合の立体表示が得られる。図1に示した顕微鏡と同様に、対物レンズ903によって、立体角領域内にあって対象物から発せられるビーム束911から平行ビーム束を生成する。2つのズーム系915および916が設けられており、その各々によって平行ビーム束のうちの部分ビーム束919および920が供給され、更にこのズーム系によって、図2には図示されていない視野レンズ923、プリズム系および接眼レンズを介して、第1ユーザの両眼に対象物の表示が付与される。
【0005】
前記平行ビーム束内に、更に2つのミラー931が配置され、このミラーによって平行ビーム束から更なる部分ビーム束933および934が生成され、平行ビーム束919および920のビーム方向と交差する方向に延びるように反射される。この部分ビーム束933および934はそれぞれ、ズーム系935および936を介して、図2には図示されていないプリズム系および接眼レンズを経て、第2ユーザの両眼に入る。
【0006】
【発明が解決しようとする課題】
この顕微鏡を2人のユーザが使用するためには、対象物を観察する際に、2人のユーザの対象物および顕微鏡との相対的な空間位置を常に固定しておく必要がある。また、2人のユーザの互いの位置も固定される。特に、外科手術中の外科顕微鏡としてこの顕微鏡を使用する際には、このように空間的な配置を固定されることは、手術現場の外科医として手術を行う2人のユーザにとって障害となるという問題点があった。
【0007】
従って、本発明は、ユーザと観察対象物との相対位置について、少なくとも1人のユーザに対する自由度を提供するような立体鏡視方法および立体鏡視システムを提供することを目的とする。
【0008】
【課題を解決するための手段】
上記の目的を達成するために、本発明は、図1および2に示した従来の顕微鏡において、対象物から発せられ、対物レンズによって処理される放射、すなわち、対象物から対物レンズに向かう立体角領域内の放射および対物レンズを通過することによって生じる平行ビーム束のそれぞれには、対象物についての十分な空間情報が含まれており、この情報によって、対象物を複数の方向から観察した際の対象物の立体表示を生成することが可能であるという知見に基づいている。更に、対象物から発せられる放射に含まれる情報を用いる従来の方法、つまり、図1および2に示した従来の顕微鏡のズーム系やミラーによって完全な平行ビーム束からの部分ビーム束をそれぞれ供給するだけでも、ユーザの所在地および対象物に対するユーザの観察方向に関する限定的な効果が得られることがわかった。
【0009】
従って、本発明は、ユーザ座標系における固定点とのユーザの相対的位置を検出することのできる立体鏡視方法および立体鏡視システムを提案する。自身の座標系におけるユーザの位置に応じて、対象物座標系における観察対象物の一領域との2つの相対位置が決定される。この2箇所の位置のうち第1位置はユーザの左眼に割り当てられ、第2位置はユーザの右眼に割り当てられる。このように決定した位置と観察対象物の該当領域との間に直線を結ぶことによって、対象物の観察方向が定義され、そこからユーザの左右の眼に供給される表示が本発明の方法およびシステムによって生成される。これらの表示は、対応する画像データを受信する立体ディスプレイによって生成される。このディスプレイに供給される画像データは、観察対象物の該当領域から発せられる放射を検出する検出システムによって生成される放射データから次々に生成される。
【0010】
この画像データは、前述のような決定された2箇所の位置、すなわち、対象物に対するユーザの仮想的な観測方向に応じて放射データから生成される。これに関して、特に、放射データから画像データへの変換をより簡便に行えるように、もしくは放射データを画像データとして直接使用可能なように、これらの2箇所の位置に応じて対象物から発せられる放射の検出作業を予め行っておくことも可能である。
【0011】
要するに、ユーザが立体表示装置の2つの表示を見た時に、図1もしくは2に示した従来の立体顕微鏡によって対象物を直接的に観察したかのような印象に匹敵するような対象物に対する印象が得られる。ただし、ユーザは、自身の座標系における固定点との相対位置を変更することが可能である。その結果、変更後の位置に対応して変化した対象物の表示がユーザに提示される。従って、対象物に対するユーザの仮想的な観測位置を選択する際、ユーザは従来の立体顕微鏡の固定された光学系によって制限を受けない。
【0012】
好ましくは、放射データから画像データを生成する際に、まず、対象物を表すデータモデルを生成して、このデータモデルから2つの表示に対する画像データを生成する。ここで、データモデルは、対象物の表面の少なくとも一領域における空間的構成および微細構成を反映もしくは表すような、少なくとも部分的に3次元的なデータモデルである。
【0013】
この少なくとも部分的に3次元的なデータモデルを生成するには、適切な微細構成検出装置を使用し、この装置によって、対象物から発せられる放射を適切に検出し、得られた放射データに基づいてデータモデルを計算する。これに関して、線状投影法、パターン投影法、写真測量法、および干渉法等の従来の微細構成検出装置およびその方法が使用可能である。
【0014】
微細構成検出装置が対象物の表面の3次元的な構造を検出するだけで、色や質感等の対象物の表面特性を検出しない場合には、少なくとも評価対象領域の対象物表面の色を場所に応じて検出するような検出装置を準備し、対応する色データを提供するとよい。
【0015】
このようにして得られた色情報はデータモデルに組み込まれ、データモデルによって対象物表面の色も示すことになる。
【0016】
なお、写真測量法において、2台のカメラを用いて異なる視野角における対象物の画像を得るようにするとよい。
【0017】
これに関して、2台のカメラのうちの第1カメラを用いて対象物のより広い領域の画像をより低い空間分解能で記録し、第2カメラを用いてこの広い領域のより小さい部分的領域の画像だけをより高い分解能で記録するとよりよい。この結果、対象物のより小さな領域から該当領域の3次元的な微細構成を表す放射データが得られる。従って、対象物の部分的領域の微細構成を表す3次元的データモデルの生成が可能となる。第1カメラのみによって観察した対象物の領域、つまり第2カメラも用いて観察した部分的領域の外側の領域からは、この対象領域の3次元データモデルを生成するには不十分であって、この領域における対象物の2次元な構造を単に示す放射データが得られる。しかしながら、このような放射データもデータモデルに組み込まれ、第1カメラによって観測した全体的な領域を表す。故に、このようなデータモデルは部分的にのみ3次元的なデータモデルとなる。
【0018】
第2カメラによっても観察される対象物の部分的領域が、第1カメラによって観察される対象物の領域の中央部分に位置する場合には、ユーザは、視野の中央において分解能が高い対象物の立体表示を知覚することになり、視野の端部では、分解能の低い2次元的な表示のみを知覚することになる。視野の端部において立体表示がなされないことはユーザにとって必ずしも不便に感じられるわけでないが、視野の中央部分の分解能が高いことは有利であると感じられる。
【0019】
ユーザ座標系における固定点の位置は、観察中の対象物の該当領域内に設定することが可能である。対象物座標系とユーザ座標系との互いの相対位置が適切に配置された場合には、ユーザが立体表示を見たときに、対象物を直接観察しているかの如き距離感および方向で対象物の表示を知覚することになる。
【0020】
あるいは、ユーザ座標系の固定点の位置を対象物から離れた位置に設定することによって、ユーザとユーザが観察する対象物との空間的な距離を離すことも可能である。
【0021】
【発明の実施の形態】
以下に、本発明の実施態様について図面を参照しながらより詳細に述べる。
【0022】
図3に、本発明の立体鏡視システム1を設置した手術室を示す。手術台5の上には、患者7が横たわっており、外科医9によってこの患者に対する顕微手術が行われる。ここで、手術台5は手術室の床3に固定されている。架台11が手術室の床3に固定されており、この架台11は、回転アーム13上において微細構成検出装置15を回転可能に保持している。回転アーム13は、微細構成検出装置15によって患者7の患部17における表面形状もしくは微細構成が記録可能なように患者7の上部に配置されている。この微細構成検出装置15は、光学的機能を有する。図3において、患者7の患部17から発せられ、微細構成検出装置15によって記録される光学ビームを、鎖線19を用いて模式的に示している。
【0023】
微細構成検出装置15によって、この放射19より放射データが得られ、このデータはデータ線21を介してコンピュータ23に送られる。このようにして得られた放射データを基に、コンピュータ23は、患者7の患部17の3次元的構成もしくは微細構成を3次元データモデルとして再構築する。つまり、コンピュータのメモリー領域において、患者7の患部17の形状もしくは微細構成を表すようなデジタル表示がなされる。このデータモデルは、図3の参照符号25を用いて図式的に示したx、y、z座標系に変換して計算される。
【0024】
手術室の座標系25上にこの3次元データモデルを正しく変換するために、微細構成検出装置15は、LED27を搭載しており、そこからの放射を架台11上に互いに間隔を開けて搭載されている3台のカメラ29を用いて記録する。この3台のカメラに関する手術室の座標系25における位置は既知である。これらのカメラ29の画像は、データ線31を介してコンピュータ23に送られ、コンピュータは受信した画像を基に手術室の座標系25における微細構成検出装置15の位置を計算する。このように、微細構成検出装置15から得られた放射データは、手術室の座標系25に正しく組み込まれる。
【0025】
また、3つのLED27を互いに間隔を置いて配置し、微細構成検出装置15の位置に加えてその方向も計算することが可能である。この場合、3つのLED27は、その光の色およびまたは点滅周波数を異ならせることによって、互いに判別可能とすることが可能である。
【0026】
外科医9は、頭上にLED33を携帯しており、上述のようにカメラ29によって手術室の座標系25におけるこのLEDの位置が検出され、コンピュータ23によって評価が行われる。よって、コンピュータ23は座標系25における外科医9の正確な位置も検出する。更に、外科医は頭部に頭部搭載ディスプレイ35を携帯しており、これによって外科医9の両眼に患者7の患部17の別々の表示が提供される。外科医の両眼に提供される表示に必要な画像データは、患者7の患部17の3次元データモデルからコンピュータ23によって生成され、データ線37を介してディスプレイ35に提供される。
【0027】
このために、外科医9が、提示された立体表示を見たときに、図3の鎖線状の視線39によって記号的に表されるような、患部17を直接見ているかのような患者7の患部17の印象を得るように、コンピュータ23は画像データを生成する。
【0028】
図4は、微細構成検出装置15の一部をより詳細に示したものである。この微細構成検出装置15は、写真測量の原理に基づいて機能する。このために、この装置は、互いに間隔を置いて配置されている2台のカメラ41および42を備えており、このカメラ41および42のそれぞれによって患者7の体表面43の患部17の画像を記録することができる。これら2台のカメラ41、42間の距離によって、患部17の異なる視野角における写真を撮ることができる。この結果、カメラ41、42によって撮影された写真は互いに異なるものとなる。これについて、図4における点45、46によって例示的に図示する。この2つの点45、46は、カメラ41の画像平面内においてそれぞれ画像45’、46’として結像され、互いに距離x1の距離で隔てられている。この距離x1はカメラ42の画像平面内における像点45”および46”間の距離x2よりも大きい。
【0029】
カメラ41および42により供給された画像および放射データをそれぞれ適切に評価して、コンピュータ23は、患者7の体表面43の患部17のデータモデルを得ることができる。
【0030】
このような目的にかなう写真測量方法および装置の更なる例が、米国特許6,165,181号に示されており、その開示内容のすべてを参照によってここに引用する。写真測量法の更なる例は、この文献に引用されている文献により得られる。
【0031】
図5に、患部17について計算されたデータモデルを、格子線49の集まりを用いて模式的に示す。交点51についてのx、y、z座標のデータ集合が、格子線49の各交点51に対して割り当てられている。このように、3次元データモデルは、手術室の座標系25における患者7の患部17の体表面43の座標を表す複数の3重項によって表される。更に、各交点51に関して、観測された対象物のそれぞれの場所において、例えば色値等のその他の特性を表すデータ集合を割り当てることが可能である。
【0032】
上述のようなコンピュータ23のメモリーを用いたデータモデルの表示は一例であって、空間における3次元構成を表すデータモデルに関して、複数のその他の記憶技術が存在する。
【0033】
このようなデータ構造の中央領域内に配置された格子線49の交点の1箇所に、一方ではユーザ座標系55の起点として機能し、もう一方で対象物7の中央領域の中心として機能する固定点53が設定されており、外科医9の視線39がこの中央領域の固定点53に向けられているかのような印象を受けるように外科医に提示されている。ユーザ座標系55における外科医9の位置は、対象物座標系25のz軸と平行で対象物座標系25において水平に延びる任意の直線φ0から延びる垂直軸z’を中心とする方位角φで表される。
【0034】
2つの位置P1とP2が、対象物座標系25において、例えば、x、y、z座標系として決定されるが、ユーザ座標系55においては、異なる方位角φ、φ’と同じ仰角θを有する。この仰角θは、外科医の視線39が対象物7の患部17と交差する際の仰角となる。この2つの方位角φ、φ’の平均値が、外科医9の患者7に対する方位角にほぼ対応している。φ、φ’間の差異は、例えば20°等の所定の値とすることができるが、固定点53からの外科医9の距離および距離が増すごとに減少する関係を表す関数として選択してもよい。
【0035】
コンピュータ23は、位置P1から見た3次元データモデルであるかのような表示を外科医9の左眼に提示する一方、位置P2から見た3次元データモデルのように右眼に示される表示の画像データが生成されるように、頭部搭載ディプレイ35による患者7の患部17の表示を行うための画像データを生成する。
【0036】
ユーザ座標系55における外科医9の位置が、方位角に関して角度φ2、仰角に関して角度θ2変化した場合には、位置P1およびP2は、対象物座標系25において位置P1’およびP2’に移動し、この新しい位置は、以前の位置と比較して、固定点53を基準にして方位角に関して角度φ2、仰角に関して角度θ2だけ
同様に変更されている。
【0037】
以下に、立体鏡視方法について図6の流れ図を参照しながら再度記述する。
【0038】
対象物17は、2台のカメラ42、43によって異なる距離から記録される。このカメラ42、43によって、コンピュータ23に対して放射データ59、60が供給される。ここで、これらの放射データはカメラが撮影した写真に相当する。コンピュータは、微細高精細構築ソフトウェアモジュール61を用いて、放射データ59、60から観察時の対象物17の3次元データモデル63を生成する。
【0039】
この立体鏡視システムによれば、数名のユーザの左眼65Lおよび右眼65Rに、観察時の対象物の表示を提示することができる。このために、各ユーザの位置、例えば、ユーザ座標系55において両眼65L、65R間のユーザの頭部の位置を検出し対応する位置データ69を生成するための位置検出装置67が各ユーザ用に割り当てられる。このような位置データは表示生成装置もしくは翻訳エンジン71に供給され、ここで3次元モデル63から画像データが生成され、ユーザ(の眼65)が観察する表示75に供給される。
【0040】
翻訳エンジン71は各ユーザ用の画像データ73L、73Rを生成し、これによってユーザの左右の眼65L、65R用の表示がディスプレイ75L、75Rそれぞれに生成される。このように、対象物7の表示がディスプレイ75L、75Rを介して各ユーザに提示され、ユーザはユーザの位置から直接対象物7を見ているかのような視点に対応する視点で対象物7を見ているかのようにこれを知覚する。
【0041】
上述の実施例において、ユーザの位置を検出するユーザ座標系の固定点53は、観察中の対象物7の領域17の中央に置かれる。この構成は、ユーザが観察中の対象物7を直接操作するような場合に適切であり、図3に示したような手術室での外科医のケースがこれに当てはまる。
【0042】
しかしながら、観察中の対象物から離れた位置にユーザを配置することも可能であり、この場合ユーザ座標系の固定点は観察中の対象物の領域とは一致しない。このような適用の例として遠隔外科療法があり、外科医は患者からは離れた位置にいて、遠隔操作ロボットを用いて患者の手術を行う。このような場合、位置データ69を決定するための固定点は、外科医すなわちユーザの視野内に置き、外科医の前に位置する固定点を例えば観察中の患者の患部に移動できるような固定点を用いて、ユーザ座標系と手術室の座標系との間で画像を定義する。従って、外科医の頭部が移動して患者から外科医が離れた場合にも、異なる距離からの手術中の患者の印象を得ることが可能となる。
【0043】
また、観察中の対象物から観察者を離すことも可能である。例えば、手術台には数人分のスペースしかなく、その他の人、例えば直接「肉体」を観察するために手術の見学を希望する学生がいる場合、これらの人達は手術室の外にいることができる。ユーザ座標系の固定点やその向きは、これらの人達が頭部搭載ディスプレイを見たときに、観察中の患者の患部が各自の固定点のまさに周囲に置かれているかのような印象を受けるように、各人の空間において決定することが可能である。
【0044】
以下に、図1〜6に示した本発明の実施例の変形例について説明する。図1〜6の構成要素と対応する構造および機能を備えた構成要素については、同じ参照符号を付与している。ただし、区別のために付加的な文字を補っている。説明のために、上述の記述全てを参照する。
【0045】
図7に、図4に示した微細構成検出装置と同様の微細検出装置15aを模式的に示す。この微細検出装置15aも同じように光学的原理に基づいて機能する。カメラ41aは、観察中の対象物のより大きい領域17aの画像を記録する。もう1台のカメラ42aは、カメラ41aによって記録される領域17aの中央付近に配置されたより小さい部分的領域79の画像を記録する。カメラ41aおよび42aは、同じ分解能、即ち、感光性画素の数が同じである。従って、カメラ41aが撮影する写真およびカメラ41aによって生成される画像データのそれぞれに関して、カメラ42aと比べると、観察中の対象物における解像度はより低いものが得られる。この部分的領域79において、対象物は2つの異なる視点からカメラ41aおよび42aによって記録されるので、この部分的領域79では3次元データモデルを再構築することができ、これによってこの部分的領域79内の対象物の空間的構造が表される。ただし、この部分的領域79の外側に位置する領域17aの部分については3次元的な対象物の構造を再構築することができない。しかしながら、カメラ41aの(2次元的な)放射データは、部分的領域79の外側に位置する領域17aの部分に対して、この部分にある対象物の対応する2次元的表示を提供するのに用いられる。
【0046】
図8に、図4および7に示した微細構成検出装置の変形例を示す。図8に示す微細構成検出装置15bは同様に、立体鏡視システム1bの一部を構成するものであり、光軸83を備えた顕微鏡対物レンズ81を含む。対象物7bは対物レンズ81の対象面内に配置される。対物レンズ81は対象物7bの無限遠像を形成する。更に、レンズ系85が光軸83に沿って対物レンズ81とは間隔を置いて配置されており、観察中の対象物7bの領域17bの画像がレンズ系85の画像平面内に配置されたCCDチップ87上に形成される。
【0047】
対物レンズ81とレンズ系85との間の平行光路において、切り替え可能絞り89が配置されており、この絞りの切り替え状態はコンピュータ23bによって制御されている。CCDチップ87によって記録された放射データは、コンピュータ23bに供給される。
【0048】
この切り替え可能絞り89は、別々に制御可能な複数の液晶素子を有している。2つの環状の離れた領域91および92の外側では、液晶素子は常に光を通さない切り替え状態になっている。環状の領域91および92では、実質的に光を透過させる状態と実質的に光を透過させない状態を交互に切り替えている。
【0049】
図8に示した切り替え状態において、領域91は光透過状態に切り替えられており、一方、領域92は光を透過しない状態に切り替えられている。従って、対物レンズ81から発せられる完全なビーム束のうちの部分ビーム束93は、切り替え可能絞り89を通過し、レンズ系85によってCCDチップ87上で像を結ぶ。従って、光軸83に対して角度αの範囲にある観察中の領域17bから発せられる円錐形ビーム束95の光だけがチップ87に到達することになる。したがって、チップ87は、光軸83に対して角度αで観察したかのような観察中の領域17bの画像を記録する。この画像を表す放射データはコンピュータ23bに送られる。
【0050】
次に、コンピュータ23bは、絞り89を制御し、領域91が光を透過させない状態になるように液晶素子を切り替える一方、領域92が光を透過させる状態になるように液晶素子を切り替える。従って、部分的ビーム束94が、光軸83に対して角度−αの範囲にある対象物7bから発せられる円錐状ビーム束96に対応した絞り89を通過し、レンズ系85によって検出素子87上で像を結ぶ。かくして、この検出素子87は、このような切り替え状態においては、光軸に対して角度−α内にある対象物7bの画像を記録する。この画像もまた、放射データとしてコンピュータ23bに送られる。
【0051】
したがって、コンピュータ23bは、対象物を異なる方向からの観察したときの対象物の放射データを時系列的に受け取る。すでに述べたような方法で、これらの放射データを基に、コンピュータ23bは、次々に対象物7bの3次元データモデルを生成する。
【0052】
図9に、図8に示した微細構成検出装置の更なる変形例を示す。図8に示した微細構成検出装置に対して、図9に示した装置15cは、対象物7cの異なる視点からの画像を時系列的にではなく同時に記録する。このために、カラーCCDチップ87cが光軸83c上に配置され、観察中の領域17cの像がカラーCCDチップ上で結ばれ、平行なビーム路がレンズ系85cと対物レンズ81cとの間に形成されるように、光軸上にレンズ系85c、対物レンズ81c、および観察中の対象物7cの領域17cが配置される。対物レンズ81cとレンズ系85cとの間には、絞り89cが置かれ、環状領域91r、91g、91bを除く領域は光を透過させない。この光を透過させる領域91r、91g、91bは、互いにおよび光軸83cから間隔を空けて、光軸の周縁に分布して配置されている。環状領域91rは赤い光だけを通過させ、領域91gは緑色の光だけを通過させ、領域91bは青い光だけを通過させる。このカラーCCD87cによって、赤、緑、青の各色の放射データがコンピュータ23cに供給される。このように異なる分光色で記録される対象物17cの画像は、光軸83cに対して異なる視点および角度から記録される。コンピュータ23cは、これらの放射データを適切に評価して次々に対象物7cの3次元データモデルを生成する。
【0053】
図10に、更なる変形例としての微細構成検出装置15dを模式的に示す。この装置、パターン投影原理に基づいて機能する。この微細構成検出装置の構造は図1に示した従来の顕微鏡の構造と同様であり、光軸83dに沿って配置される対物レンズ81dと、その対象面95内に配置可能な観察対象物とを含む。2つのズーム系97および98が光軸83dから離れた位置に設けられ、それぞれユーザの左眼と右眼に割り当てられる。これによって、ユーザは従来のような方法で顕微鏡を通じて直接対象物を観察することもできる。対象物を従来のように観察することに加えて、絞り101を照らす赤外線光源99が設けられており、対象面95内で像が結ばれる。このために、集光レンズ103がダイクロイックミラー105と共に設けられており、赤外線光源99からの光が絞り101を通過し、更に顕微鏡の対物レンズ81dを通過して、絞り101の画像が顕微鏡の光路中に供給される。絞り101は格子構造を備えており、赤外線によって対象面95内で結像する。従って、赤外線によって投影されたパターンが対象面95に形成される。ここで、赤外線が照射した対象面の部分によって赤外線は反射される。なお、対象物に対するパターンの投影は、光軸83dに対して−αの角度で行われる。対象物によって反射された赤外線は光軸83dに対して角度αで対物レンズ81dに戻り、ダイクロイックミラー107によって顕微鏡の光路から外れ、赤外線カメラ109上で結像する。
【0054】
カメラ109によって得られた画像を評価して、観察中の対象物の3次元構造を再構築し、これを3次元データモデルとして記録することができる。このような3次元データモデルは、立体表示システムを通じて表示を観察するユーザに対してこのような表示を生成する際にも使用することができる。
【0055】
パターン投影法のその他の例としては、例えば、米国特許4,498,778号、米国特許4,628,469号、米国特許5,999,840号に示されており、これらの文献の開示内容のすべてを参照によってここに引用する。
【0056】
パターン投影法に基づいて対象物の微細構成を再構築すれば、対象物の3次元構造の再構築が可能となるが、パターン投影法だけでは表面の色に関する情報を得ることはできない。従って、半透明の鏡111を顕微鏡の光路内に配置し、可視域における感度の高いカメラ113に対して光を供給する。このカメラの放射データを使用して、先のカメラにより得られる放射データを基に生成した対象物の3次元データモデルに色情報を取り入れる。
【0057】
図11に位置検出装置29eの変形例を示す。この装置は、例えば、微細構成検出装置に対する手術室内のユーザの相対位置を検出するために、図3に示した微細構成検出装置上に直接搭載することが可能である。
【0058】
このために、位置検出装置29eの光軸123は手術室において垂直な方向にする必要がある。位置検出装置29eは、円錐形ミラー125を備えており、水平面127に対して角度±γでミラー125に当たる放射を光学系131に対して反射させて、CCDチップ121上で結像させる。
【0059】
このシステム29eによれば、手術室で頭部に光源を携帯したユーザの位置が明らかになる。これは、軸123を中心とする方位角および平面127に対する±γの範囲内のユーザの仰角が、CCDチップ121の画像を評価することによって決定可能だからである。手術室に複数のユーザがいる場合には、各ユーザが光源を携帯することが可能である。それぞれの光の強さは時間ごとに変化しており、光の強さに対する個々の特徴的な時間のパターンを各ユーザ毎に提供できる。従って、カメラ121の画像を評価し、記録された時間のパターンを吟味することによって、各ユーザの位置を検出することが可能となる。
【0060】
図8に示した微細構成検出装置によれば、その対象物の完全な3次元データモデルを再構築する必要性なしに、場所に応じた対象物の立体画像をユーザに提供することが可能である。この図に示したカメラ87によって、時系列的に画像が記録され、対応する放射データが、対象物7bに対する異なる観測方向である−α、αのそれぞれに対応して供給される。このような放射データは、ユーザの左右の眼それぞれに対する表示を生成する画像データとして直接使用可能となる。例えば、領域91が光を透過させ、領域92は光を透過させない場合の放射データを右眼用の画像データとして使用し、領域92が光を透過させ、領域91は光を透過させない場合の放射データを左眼用の画像データとして使用可能である。これにより、観察者がこれらの表示を見たときには、観察者にとって対象物7bの完全な立体表示が得られる。
【0061】
ユーザの位置が対物レンズの光軸83を中心とする方位角に関して変化した場合、同様に光軸を中心に方位角に関して光透過性および光非透過性領域91、92を交互に移動させることが可能である。これは切り替え可能絞り89の液晶素子を対応するように制御することによって行える。領域91、92の移動については、図8の矢印141で示している。
【図面の簡単な説明】
【図1】従来の立体顕微鏡の光路を示す模式図
【図2】従来の立体顕微鏡の光路の一部を示す模式図
【図3】本発明の立体鏡視システムの一実施態様を示す模式図
【図4】図3に示すシステムで用いられる微細構成検出装置を示す図
【図5】図3に示す立体鏡視システムのデータモデルを示す図
【図6】図3に示す立体鏡視システムを参照して立体鏡視方法を説明する流れ図
【図7】図4に示す微細構成検出装置の変形例を示す図
【図8】図4に示す微細構成検出装置の更なる変形例を示す図
【図9】図4に示す微細構成検出装置の更なる変形例を示す図
【図10】図4に示す微細構成検出装置の更なる変形例を示す図
【図11】図3に示す微細構成検出装置の変形例を示す図

Claims (18)

  1. 少なくとも1人のユーザが対象物を観察した際に、前記対象物に対する少なくとも一組の表示を生成する立体鏡視方法であって、
    前記対象物のある領域から発せられる放射を検出し、前記検出された放射に対応する放射データを提供し、
    ユーザ座標系において、固定点に対する前記ユーザの第1所在地を検出し、
    対象物座標系において、前記対象物の前記領域に対する第1位置および第2位置を求め、
    前記放射データを用いて、前記第1位置から見た前記対象物の前記領域を示す第1表示に対する画像データおよび前記第2位置から見た前記対象物の前記領域を示す第2表示に対する画像データを生成し、
    前記画像データをディスプレイに供給し、前記ユーザの左眼のための前記第1表示を表示し、前記ユーザの右眼のための前記第2表示を表示し、
    前記ユーザの前記固定点に対する第2所在地を検出し、この第2所在地が前記第1所在地と比べて変化した場合には、前記第1位置および前記第2位置を共に、前記対象物座標系における前記対象物の前記領域に対して移動させることを特徴とする立体鏡視方法。
  2. 前記対象物座標系における前記対象物の前記領域に対する前記第1位置および前記第2位置の方位角および仰角を求める工程を更に備え、前記第1および前記第2位置の方位角は互いに異なる、請求項1に記載の立体鏡視方法。
  3. 前記第2所在地の方位角が前記第1所在地の方位角と比べて第1角度だけ変化した場合に、前記第1位置および前記第2位置を共に方位角に関して第角度だけ移動させる工程を更に備える、請求項2に記載の立体鏡視方法。
  4. 前記第2所在地の仰角が前記第1所在地の仰角と比べて第角度だけ変化した場合に、前記第1位置および前記第2位置を共に仰角に関して第角度だけ移動させる工程を更に備える、請求項2および3のいずれかに記載の立体鏡視方法。
  5. 複数のユーザの所在地を検出し、各ユーザに対してそれぞれのユーザの検出位置の関数として前記第1および前記第2位置を割り当て、各ユーザ毎に作成された画像データを前記第1位置および前記第2位置のそれぞれの位置からの前記対象物の観察と対応させてそれぞれのユーザに割り当てる、請求項1〜のいずれかに記載の立体鏡視方法。
  6. 前記放射データから前記画像データを生成する際に、
    前記放射データから、前記対象物の前記領域の表面の微細構成を示す、前記対象物座標系における少なくとも部分的には3次元的であるデータモデルを生成し、
    前記データモデルから前記第1表示および前記第2表示用の前記画像データを生成する、請求項1〜のいずれかに記載の立体鏡視方法。
  7. 前記対象物の前記領域から発せられる放射の検出とは、その表面位置から発せられる放射の色とその色に対応する色データを備えた色放射データとの検出を含み、前記データモデルは前記対象物の表面の色も表すように生成される、請求項記載の立体鏡視方法。
  8. 前記データモデルを生成する際に、パターン投影法および/または写真測量法を応用する、請求項およびのいずれかに記載の立体鏡視方法。
  9. 前記固定点は前記対象物の前記領域内に配置されている、請求項1〜のいずれかに記載の立体鏡視方法。
  10. 少なくとも1人のユーザが対象物を観察した際に、前記対象物に対する少なくとも一組の表示を生成する立体鏡視システムであって、
    前記対象物のある領域から発せられる放射を検出し、前記検出された放射に対応する放射データを提供する検出システムと、
    ユーザ座標系における固定点に対する前記ユーザの第1所在地を検出する所在地検出装置と、
    前記ユーザ座標系における前記ユーザの所在地とは独立した対象物座標系における第1位置および第2位置を求める位置決定装置と、
    前記放射データを用いて、前記第1位置から見た前記対象物の前記領域を示す第1表示と前記第2位置から見た前記対象物の前記領域を示す第2表示とに対する画像データを生成する画像データ生成装置と、
    前記画像データの関数として、前記ユーザの左眼に対して前記第1表示を表示し、前記ユーザの右眼に対して前記第2表示を表示する表示装置とを備えたことを特徴とする立体鏡視システム。
  11. 前記画像データ生成装置は、前記対象物座標系における前記対象物の微細構成を表す少なくとも部分的には3次元的であるデータモデルを生成する微細構成検出装置と、
    前記データモデルから前記第1表示および前記第2表示を生成する翻訳エンジンとを備えている、請求項10に記載の立体鏡視システム。
  12. 前記検出装置は、表面箇所から発せられる放射の色を検出する色検出器を備えており、前記検出された色に対応する色データを含む色放射データが提供され、前記微細構成検出装置は、前記対象物の前記表面の色も表すように前記3次元データモデルを生成する、クレーム11に記載の立体鏡視システム。
  13. 前記検出装置が、前記対象物の前記領域に対して放射パターンを投影するための放射投影器と、
    前記対象物の前記領域によって反射される前記放射投影器からの放射を検出する検出器とを備えている、クレーム11および12のいずれかに記載の立体鏡視システム。
  14. 前記検出装置は、少なくとも1つのレンズと前記対象物の前記領域を配置するための対象面とを備えた対物レンズを含み、前記投影されたビームパターンと反射された放射とは前記対物レンズを通過する、請求項15に記載の立体鏡視システム。
  15. 前記検出装置は、それぞれ異なる観察角度における前記対象物の前記領域の少なくとも2つの画像を生成する少なくとも1台のカメラを備えている、請求項1114に記載の立体鏡視システム。
  16. 2台のカメラが設けられており、そのうちの第1カメラは前記対象物の前記領域の画像を形成し、第2カメラは前記領域の一部のみの画像を形成し、前記微細構成検出装置によって生成されるデータモデルは、この部分的な領域のみにおいて3次元的にこの領域の微細構成を表しており、この部分的な領域の外側は2次元的な構成が表されている、請求項15に記載の立体鏡視システム。
  17. 前記少なくとも2つの画像を時系列的に生成するカメラが設けられており、切り替え可能な放射誘導装置が備えられており、これによって、前記対象物の前記領域から異なる方向に発せられた少なくと2本のビーム束が前記カメラに供給される、請求項15に記載の立体鏡視システム。
  18. 異なるスペクトル領域にある少なくとも2つの画像を記録するためにカラーカメラが設けられており、異なる分光透過率特性を有する少なくとも2つのカラーフィルターを備えた放射誘導装置が、前記対象物の該当領域から異なる方向に向かって発せられ、前記カラーフィルターを通過するビーム束を、前記カラーカメラに供給するために設けられている、請求項15に記載の立体鏡視システム。
JP2003027322A 2002-02-04 2003-02-04 立体鏡視方法および立体鏡視システム Expired - Lifetime JP4295520B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10204430A DE10204430A1 (de) 2002-02-04 2002-02-04 Stereo-Mikroskopieverfahren und Stereo-Mikroskopiesystem
DE10204430.9 2002-02-04

Publications (2)

Publication Number Publication Date
JP2003309861A JP2003309861A (ja) 2003-10-31
JP4295520B2 true JP4295520B2 (ja) 2009-07-15

Family

ID=7713639

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003027322A Expired - Lifetime JP4295520B2 (ja) 2002-02-04 2003-02-04 立体鏡視方法および立体鏡視システム

Country Status (4)

Country Link
US (1) US7193773B2 (ja)
EP (1) EP1333306B8 (ja)
JP (1) JP4295520B2 (ja)
DE (2) DE10204430A1 (ja)

Families Citing this family (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10335644B9 (de) * 2003-08-04 2006-06-01 Carl Zeiss Mikroskopiesystem
DE10354747A1 (de) * 2003-11-21 2005-08-04 Fachhochschule Lübeck Körperschaft des öffentlichen Rechts Steuerungssystem für Mikroskope
US8300043B2 (en) * 2004-06-24 2012-10-30 Sony Ericsson Mobile Communications AG Proximity assisted 3D rendering
JP4523356B2 (ja) * 2004-08-05 2010-08-11 オリンパス株式会社 立体画像観察装置
US11632498B1 (en) * 2005-06-03 2023-04-18 Craig P. Mowry Multi-dimensional imaging system and method
US7283615B2 (en) * 2006-02-08 2007-10-16 Brent Morehead On-demand multiple step fluoroscope control assembly
US7905606B2 (en) * 2006-07-11 2011-03-15 Xerox Corporation System and method for automatically modifying an image prior to projection
US10795457B2 (en) 2006-12-28 2020-10-06 D3D Technologies, Inc. Interactive 3D cursor
US11228753B1 (en) 2006-12-28 2022-01-18 Robert Edwin Douglas Method and apparatus for performing stereoscopic zooming on a head display unit
US11315307B1 (en) 2006-12-28 2022-04-26 Tipping Point Medical Images, Llc Method and apparatus for performing rotating viewpoints using a head display unit
US11275242B1 (en) 2006-12-28 2022-03-15 Tipping Point Medical Images, Llc Method and apparatus for performing stereoscopic rotation of a volume on a head display unit
DE102007018048A1 (de) * 2007-04-13 2008-10-16 Michael Schwertner Verfahren und Anordnung zur optischen Abbildung mit Tiefendiskriminierung
US20090173846A1 (en) * 2008-01-09 2009-07-09 Allan Katz Medical boom
DE102008024732B4 (de) 2008-05-19 2010-04-01 Carl Zeiss Surgical Gmbh Medizinisch optisches Beobachtungsgerät und Verfahren zum Erstellen einer stereoskopischen Zwischenperspektive in einem derartigen Gerät
DE102009010288B9 (de) 2009-02-24 2016-11-24 Carl Zeiss Meditec Ag Mikroskopiesystem und Darstellungssystem
EP2248462B1 (de) * 2009-05-06 2016-04-20 Brainlab AG Verfahren zur Darstellung von Bilddaten eines Patientenkörperteils
DE102009034994B3 (de) * 2009-07-28 2011-01-27 Carl Zeiss Surgical Gmbh Verfahren zum Erzeugen einer Darstellung eines OCT-Datensatzes und ein OCT-System zur Durchführung desselben
DE102010041382A1 (de) 2010-09-24 2012-03-29 Carl Zeiss Microimaging Gmbh Vorrichtung und Verfahren zur dreidimensionalen Vermessung eines Objektes
DE102011010262B4 (de) 2011-01-27 2013-05-16 Carl Zeiss Meditec Ag Optisches Beobachtungsgerät mit wenigstens zwei jeweils einen Teilstrahlengang aufweisenden optischen Übertragungskanälen
DE102012201564B3 (de) * 2012-02-02 2013-05-29 Leica Microsystems (Schweiz) Ag System zur Darstellung stereoskopischer Bilder
JP6319081B2 (ja) 2012-02-23 2018-05-09 日本電気株式会社 端末装置、撮影システム、及び撮影方法
US20130271575A1 (en) * 2012-04-11 2013-10-17 Zspace, Inc. Dynamically Controlling an Imaging Microscopy System
DE102013006994A1 (de) * 2013-04-19 2014-10-23 Carl Zeiss Microscopy Gmbh Digitalmikroskop und Verfahren zur Optimierung des Arbeitsablaufes in einem Digitalmikroskop
JP6305187B2 (ja) * 2014-04-21 2018-04-04 三鷹光器株式会社 手術顕微鏡システム
DE102014107185A1 (de) 2014-05-21 2015-11-26 Carl Zeiss Meditec Ag Verfahren zur Bereitstellung eines dreidimensionalen Topographiemodells, Verfahren zur Betrachtung einer Topographiedarstellung eines Topographiemodells, Visualisierungsvorrichtung und Mikroskopiersystem
JP6577266B2 (ja) * 2015-07-02 2019-09-18 株式会社トプコン 眼科用顕微鏡
DE102017109202A1 (de) 2016-04-28 2017-11-02 Carl Zeiss Meditec Ag Optische Beobachtungsgerätevorrichtung, optisches Beobachtungsgerätesystem und Verfahren zum Ausbalancieren eines optischen Beobachtungsgerätesystems
DE102016108664A1 (de) * 2016-05-11 2017-07-06 Carl Zeiss Meditec Ag Digitales Stereo-Operationsmikroskop für mehrere Benutzer und Verfahren zur Darstellung mindestens zweier Ansichten eines Objektes
DE102017100262A1 (de) 2017-01-09 2018-07-12 Carl Zeiss Microscopy Gmbh Verfahren zur Erzeugung eines dreidimensionalen Modells einer Probe in einem digitalen Mikroskop und digitales Mikroskop
AT521076B1 (de) * 2018-03-26 2020-11-15 Bhs Tech Gmbh Stereomikroskop zur Verwendung bei mikrochirurgischen Eingriffen am Patienten und Verfahren zur Steuerung des Stereomikroskops
DE102018110644B4 (de) 2018-05-03 2024-02-15 Carl Zeiss Meditec Ag Digitales Mikroskop und digitales Mikroskopieverfahren
EP3629071A1 (en) * 2018-09-26 2020-04-01 Anton Paar TriTec SA Microscopy system
DE102020210595A1 (de) * 2020-08-20 2022-02-24 Carl Zeiss Microscopy Gmbh System und Verfahren zur Überwachung von Zuständen von Komponenten eines Mikroskops
DE102020211133A1 (de) * 2020-09-03 2022-03-03 Carl Zeiss Meditec Ag Verfahren zum Betreiben eines Mikroskopiesystems und Mikroskopiesystems
EP4242720A1 (en) * 2022-03-08 2023-09-13 Leica Instruments (Singapore) Pte Ltd Microscope system and system, method and computer program for a microscope system

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4498778A (en) 1981-03-30 1985-02-12 Technical Arts Corporation High speed scanning method and apparatus
US4628469A (en) 1982-09-29 1986-12-09 Technical Arts Corporation Method and apparatus for locating center of reference pulse in a measurement system
US4863252A (en) * 1988-02-11 1989-09-05 Tracor Northern, Inc. Objective lens positioning system for confocal tandem scanning reflected light microscope
FR2652928B1 (fr) 1989-10-05 1994-07-29 Diadix Sa Systeme interactif d'intervention locale a l'interieur d'une zone d'une structure non homogene.
GB9016902D0 (en) 1990-08-01 1990-09-12 Delta System Design Ltd Deep vision
US5823958A (en) * 1990-11-26 1998-10-20 Truppe; Michael System and method for displaying a structural data image in real-time correlation with moveable body
GB9027881D0 (en) 1990-12-21 1991-02-13 Delta System Design Ltd Improvements in 3d imaging systems
US5603318A (en) 1992-04-21 1997-02-18 University Of Utah Research Foundation Apparatus and method for photogrammetric surgical localization
JP3318680B2 (ja) 1992-04-28 2002-08-26 サン・マイクロシステムズ・インコーポレーテッド 画像生成方法及び画像生成装置
US5961456A (en) * 1993-05-12 1999-10-05 Gildenberg; Philip L. System and method for displaying concurrent video and reconstructed surgical views
US5579772A (en) 1993-06-14 1996-12-03 Olympus Optical Co., Ltd. Surgical microscope system
US5694142A (en) * 1993-06-21 1997-12-02 General Electric Company Interactive digital arrow (d'arrow) three-dimensional (3D) pointing
US5510832A (en) 1993-12-01 1996-04-23 Medi-Vision Technologies, Inc. Synthesized stereoscopic imaging system and method
JPH09512922A (ja) 1994-04-11 1997-12-22 ライカ アーゲー 手術用顕微鏡に対する対象細部の位置を求める方法および装置
EP0776576B1 (de) * 1994-08-19 1998-09-23 Leica Mikroskopie Systeme AG Verfahren und vorrichtung zur darstellung von stereoskopischen videobildern auf einem display
US5999840A (en) 1994-09-01 1999-12-07 Massachusetts Institute Of Technology System and method of registration of three-dimensional data sets
AUPN003894A0 (en) 1994-12-13 1995-01-12 Xenotech Research Pty Ltd Head tracking system for stereoscopic display apparatus
US5850352A (en) 1995-03-31 1998-12-15 The Regents Of The University Of California Immersive video, including video hypermosaicing to generate from multiple video views of a scene a three-dimensional video mosaic from which diverse virtual video scene images are synthesized, including panoramic, scene interactive and stereoscopic images
US6044170A (en) 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
US6084979A (en) * 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US5870220A (en) 1996-07-12 1999-02-09 Real-Time Geometry Corporation Portable 3-D scanning system and method for rapid shape digitizing and adaptive mesh generation
JPH10161034A (ja) 1996-12-02 1998-06-19 Nikon Corp コンフォーカル顕微鏡及びコンフォーカル顕微鏡を用いた3次元画像の作成方法
EP1415609A1 (en) * 1998-01-28 2004-05-06 Sherwood Services AG Optical object tracking system
US6608884B1 (en) * 1999-07-20 2003-08-19 Lunar Corporation Fluoroscopy machine with head mounted display
JP4245750B2 (ja) * 1999-10-15 2009-04-02 オリンパス株式会社 立体観察装置
DE10008806A1 (de) * 2000-02-25 2001-12-06 Siemens Ag Hautprojektor
DE10033723C1 (de) * 2000-07-12 2002-02-21 Siemens Ag Visualisierung von Positionen und Orientierung von intrakorporal geführten Instrumenten während eines chirurgischen Eingriffs
DE10055176B4 (de) * 2000-11-08 2007-05-03 Leica Microsystems Cms Gmbh Anordnung zur visuellen und quantitativen 3-D-Untersuchung von Proben
ATE360227T1 (de) * 2002-02-04 2007-05-15 Zeiss Carl Surgical Gmbh Stereo-untersuchungssysteme und stereo- bilderzeugungsvorrichtung sowie verfahren zum betrieb einer solchen

Also Published As

Publication number Publication date
DE10204430A1 (de) 2003-08-07
DE50310178D1 (de) 2008-09-04
EP1333306A3 (de) 2004-01-07
EP1333306B1 (de) 2008-07-23
US7193773B2 (en) 2007-03-20
JP2003309861A (ja) 2003-10-31
EP1333306B8 (de) 2008-10-01
US20030151810A1 (en) 2003-08-14
EP1333306A2 (de) 2003-08-06

Similar Documents

Publication Publication Date Title
JP4295520B2 (ja) 立体鏡視方法および立体鏡視システム
AU2018258089B2 (en) Stereoscopic visualization camera and platform
CN106535806B (zh) 来自多端口视角的手术场景的定量三维成像
CN106455944B (zh) Q3d模型与3d图像的对准
Rolland et al. Optical versus video see-through head-mounted displays in medical visualization
US11083537B2 (en) Stereoscopic camera with fluorescence visualization
JP2021521939A (ja) 立体視覚化カメラ及び統合ロボットプラットフォーム
JP2020173481A (ja) 対象領域の観察画像の生成
US20010046316A1 (en) Image synthesis apparatus
US20170099479A1 (en) Systems and methods for mediated-reality surgical visualization
EP3545675A1 (en) Light field capture and rendering for head-mounted displays
US20020075201A1 (en) Augmented reality visualization device
US20060176242A1 (en) Augmented reality device and method
JPH11502037A (ja) 顕微鏡
JP3707830B2 (ja) 術式支援用画像表示装置
US11092929B2 (en) Visualization system and method for generating holographic presentations from optical signals
US11822089B2 (en) Head wearable virtual image module for superimposing virtual image on real-time image
EP0711421B1 (en) Operating microscope
JP2020508496A (ja) 試料の三次元画像を撮影および表示するための顕微鏡装置
CN210843480U9 (zh) 一种具有3d功能的机器人外视镜
JP7472914B2 (ja) 画像処理方法、画像処理装置、及びプログラム
Keller et al. Switched pattern laser projection for real-time depth extraction and visualization through endoscopes
WO2024033517A1 (en) Projective bisector mirror
JP2006174440A (ja) 画像合成装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080829

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080904

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081126

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081201

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081218

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090204

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090209

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090319

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090410

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4295520

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120417

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130417

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130417

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140417

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term