JP2005521123A - 光学顕微鏡検出3次元画像の生成方法及び生成装置 - Google Patents

光学顕微鏡検出3次元画像の生成方法及び生成装置 Download PDF

Info

Publication number
JP2005521123A
JP2005521123A JP2003538981A JP2003538981A JP2005521123A JP 2005521123 A JP2005521123 A JP 2005521123A JP 2003538981 A JP2003538981 A JP 2003538981A JP 2003538981 A JP2003538981 A JP 2003538981A JP 2005521123 A JP2005521123 A JP 2005521123A
Authority
JP
Japan
Prior art keywords
image
dimensional
texture
images
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003538981A
Other languages
English (en)
Other versions
JP2005521123A5 (ja
Inventor
ジークマン、フランク
Original Assignee
ライカ ミクロジュステムス ヴェツラー ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE10237470A external-priority patent/DE10237470A1/de
Application filed by ライカ ミクロジュステムス ヴェツラー ゲーエムベーハー filed Critical ライカ ミクロジュステムス ヴェツラー ゲーエムベーハー
Publication of JP2005521123A publication Critical patent/JP2005521123A/ja
Publication of JP2005521123A5 publication Critical patent/JP2005521123A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/36Microscopes arranged for photographic purposes or projection purposes or digital imaging or video purposes including associated control and data processing arrangements
    • G02B21/365Control or image processing arrangements for digital or video microscopes
    • G02B21/367Control or image processing arrangements for digital or video microscopes providing an output produced by processing a plurality of individual source images, e.g. image tiling, montage, composite images, depth sectioning, image comparison
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B21/00Microscopes
    • G02B21/0004Microscopes specially adapted for specific applications
    • G02B21/002Scanning microscopes
    • G02B21/0024Confocal scanning microscopes (CSOMs) or confocal "macroscopes"; Accessories which are not restricted to use with CSOMs, e.g. sample holders

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Analytical Chemistry (AREA)
  • Optics & Photonics (AREA)
  • Chemical & Material Sciences (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Microscoopes, Condenser (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)

Abstract

【課題】 作動に関する技術上の難度はより少なく、かつ同時に3次元表示における画質(画像の質)が改善された、光学顕微鏡による3次元画像を生成する方法及び装置を提供すること。
【解決手段】 3次元の対象物(22)を対象物画像(30)として表示する方法であって、初めに、前記対象物(22)から、異なる複数のフォーカス面においてそれぞれ撮像された(複数の)画像(26)から構成される積層画像(24)が生成される形式の方法において、前記積層画像(24)から、3次元の高さレリーフ画像(28)が生成され、及び該3次元の高さレリーフ画像(28)が、テクスチャ(29)と組合せられること(とりわけテクスチャ(29)が前記3次元の高さレリーフ画像(28)に投影されること)を特徴とする。

Description

本発明は、請求項1の上位概念による3次元的な対象物の表示方法及び請求項17の上位概念による3次元的な対象物の表示装置に関する。即ち、本発明の表現方法は、3次元の対象物を対象物画像として表示する方法であって、初めに、前記対象物から、異なる複数のフォーカス面においてそれぞれ撮像された複数の画像から構成される積層画像が生成される形式の方法に関する。また本発明の表現装置は、3次元の対象物を対象物画像として表示するための装置であって、結像システム(とりわけ対象物を結像するための顕微鏡)と、コンピュータと、x−、y−及びz方向において対象物を目標を定めて迅速に位置変化するための複数のアクチュエータ(Aktoren)と、撮像装置(とりわけ対象物の異なる複数のフォーカス面において撮像される(複数の)個別画像から構成される積層画像を生成するためのアナログ又はデジタル式CCDカメラ)と、前記結像システムのハードウエアを制御するための制御装置とを有する装置に関する。
例えば顕微鏡、マクロスコープ等のこの種の既知の装置は、物理法則に基づいて対象物を観察するのに使用される。鮮鋭度及び(焦点)深度、注視角(Sichtwinkel)及び時間依存性に関する制限は、良好な技術があっても甘受せざるを得ない。
顕微鏡による結像方法において焦点深度及び物理的に制約される限界を改善するために、一連の装置及び方法が既に存在してはいる。このような装置としては、例えばあらゆる種類の光学顕微鏡が存在し得る。例えば共焦点走査顕微鏡もその1つである。共焦点走査顕微鏡では、試料は、1つの面内で光ビームのスポットによって点状に走査されるため、当該面の画像−勿論焦点深度は浅い−が得られる。種々異なる多数の面を撮像し、相応に画像処理することにより、対象物を3次元的に表示することができる。この種の共焦点走査顕微鏡検出方法は、例えばUS6,128,077(特許文献1)から既知である。しかしながら、共焦点走査顕微鏡で使用される光学要素は非常に高価であり、操作者には十分な技術的理解が要求される上、非常に多くの調整作業も必要である。
更に、蛍光(ルミネセンス)顕微鏡のための方法が、US6,055,097(特許文献2)から既知である。この顕微鏡では、試料に着色剤が施与され、この着色剤は適切な照明条件の下で蛍光を発するため、照明することにより試料中における着色剤の位置を特定することができる。立体的画像を生成するために、異なる複数のフォーカス面においてそれぞれ画像が撮像される。これら複数の画像は、それぞれ、そのフォーカス面から直接得られる画像情報と、当該フォーカス面の外部に位置する対象物(試料)の空間部分から得られる画像情報とを含む。鮮鋭な画像を得るためには、当該フォーカス面から生成するもの以外の画像成分を除去しなければならない。このため、例えば定在波又は非周期的励起野のような特別の照明野により試料を照明することを可能にする光学系を顕微鏡に設けることが提案される。このような通常の顕微鏡検出結像(画像)は、その結像方法の焦点深度が制限されているため光学的に限界があり、また観察態様即ち覗き込みの角度によって、画像の表示は制約される。顕微鏡検出画像は、部分的に不鮮鋭になることがある。この不鮮鋭さは、とりわけ対象物が平坦でないことが原因である。なぜなら、対象物表面は、完全にはそれぞれのフォーカス面に位置しないことがしばしばあるからである。更に、通常の結像システムでは、顕微鏡又はマクロスコープにより対象物に対する観察方向が規定されるため、対象物に対する他の注視(観察)角度(例えば対象物表面に対する接線方向)は、大掛かりな新たな試料調製や、対象物自体を新たに位置調整をしなければ不可能である。
これらすべての光学的方法では、結像精度が焦点深度の限界により制限されている。
US6,128,077 US6,055,097
未公開のドイツ特許出願DE 101 49 357.6には、顕微鏡検出対象物の表面を焦点深度が深い(大焦点深度の)3次元的画像を生成するための方法及び装置が記載されている。そのため、対象物の表面輪郭(プロファイル)が3次元座標系(x、y、z)において光学的に測定される。この方法では、顕微鏡検出対象物の異なる複数のフォーカス面がCCDカメラによりデジタル又はアナログ的に撮像される。このため、各フォーカス面に対してそれぞれ1つの画像が生成され、以って「積層画像」が生成される。この積層画像は、撮像中顕微鏡の下に静置された対象物の異なる複数のフォーカス面から得られた複数の画像から構成(合成)される。積層画像を構成するこれらの画像は、何れも、大きな細部(局所)鮮鋭度(Detailschaerfe)を備える鮮鋭な画像構造の領域と、画像の撮像時にはそのフォーカス面の外部に位置し従って不鮮鋭でありかつ大きな細部鮮鋭度を伴わずに画像中に存在する領域とを含む。この意味において、あるひとつの画像は、(フォーカス面内の)細部鮮鋭度の大きい画像部分領域と、(フォーカス面外の)細部鮮鋭度の小さい画像部分領域との集合として理解することができる。画像分析方法により、積層画像の個々の画像から、細部鮮鋭度の大きい画像領域の部分集合を抽出することができる。結果画像において、当該個々の画像の細部鮮鋭度が大きい部分集合、即ち各フォーカス面に位置する画像領域がすべて抽出されて組み合わされ(統合され)1つの新たな全体画像を構成する。これにより完全に細部鮮鋭的な新たな1つの画像が生成する。
大きな細部鮮鋭度を有する個々の画像の部分集合が生成する各フォーカス面間の相対的な位置関係は既知なので、積層画像における個々の画像間の間隔も既知である。従って、更に、顕微鏡検出対象物の3次元的表面輪郭形状(プロファイル)を生成することができる。
大焦点深度の画像及び撮像された対象物領域の3次元的表面再構築を実行可能にするために、対象物の異なる複数のフォーカス面から予め画像列ないしシーケンス(Bilderfolge)を生成することが必要とされる。
従来は、顕微鏡載物台の高さを調節することによる、即ち対象物と対物レンズとの間の距離を調節することによるフォーカス面の変更は、載物台を機械的に位置調節することによって行っていた。載物台の大きな質量及びこれに伴うシステム全体の慣性のため、異なる複数のフォーカス面における画像撮像のための所定の速度限界は、下回ることはできなかった。(各フォーカス面において所定の速度以上の速度で画像を撮像しなければならなかった。)
未公開のドイツ特許出願DE 101 44 709.4には、ステップモータ制御法及び/又はサーボモータ制御法と組み合わせた圧電アクチュエータを用い、異なる複数のフォーカス面にある積層画像の個々の画像を正確かつ高速に画像記録するための改善された方法及び改善された装置が記載されている。この方法では、対物レンズと対象物との間の距離の正確かつ迅速な変化と、例えば圧電制御対物レンズ、圧電制御載物台、圧電アクチュエータと標準的なステップモータ制御又は他の任意の載物台位置調節との組合せのような種々のアクチュエータによるxy面での対象物の位置調節とによって、フォーカス面の位置調節が達成される。圧電アクチュエータを使用することにより、調節の正確さ・精密さが向上する。更に、調節速度は、圧電アクチュエータにより加速される。これに加えて、デコンボルーション技術を適切に挿入ないし適用することによって画質(画像の質)及び評価の質をどの程度更に改善できるかについても記載されている。
しかしながら、このような自動的に調節可能な対象物保持体(支持装置)によって表面を走査することによっては、対象物自体を全体的に大焦点深度の観察をすることはできない。また、走査領域全体を3次元的に表示することも不可能である。更に、立体的な表示を回転させたり、種々異なる角度から観察したりすることもできない。
それゆえ、本発明の課題は、作動に関する技術上の難度はより少なく、かつ同時に3次元表示における画質(画像の質)が改善された、光学顕微鏡による3次元画像を生成する方法及び装置を提供することである。
上記の課題は、請求項1の特徴部の特徴を有する3次元の対象物の表示方法、及び請求項17の特徴部の特徴を有する装置により解決される。即ち、請求項1によれば、本発明の表示方法は、前記積層画像から、3次元の高さレリーフ画像が生成され、及び該3次元の高さレリーフ画像が、テクスチャと組合せられること(とりわけテクスチャが前記3次元の高さレリーフ画像に投影されること)を特徴とする。また請求項17によれば、本発明の表示装置は、前記積層画像の複数の個別画像から3次元の高さレリーフ画像及びテクスチャを生成するための分析装置、及び該3次元の高さレリーフ画像と該テクスチャとを組合せるための制御装置を有することを特徴とする。
本発明によれば、現実の対象物から、複数の光学顕微鏡検出画像から構成される1つの積層画像が得られる。適切な方法、とりわけソフトウエア的方法により、1つの積層画像から1つの表面レリーフ画像(Oberflaechenreliefbild)が得られ、次いで、この表面レリーフ画像を1つのテクスチャと組み合わせることにより、対象物の画像が生成される。テクスチャと高さレリーフ画像(Hoehenreliefbild)とを組み合わせるためには、1つのテクスチャを高さレリーフ画像に投影するととりわけ有利である。この場合、テクスチャもまた積層画像のデータから得ることができる。
この方法によって、現実の対象物の仮想画像が生成されるが、この仮想画像は仮想画像に課せられるすべての要求を満たしている。このため、この対象物画像は、仮想画像に対して行い得る操作によって処理することができる。一般的には、仮想現実(バーチャルリアリティ)においては、とりわけコンピュータプログラムで実現される適切な方法を用いて、適切に計算された仮想の物体によってできるだけ良好に現実(感)が表現されるよう試みられる。仮想のランプ(光源)及びシャドウ投影により、また屈折率の調節のような物理法則及び物理特性のシミュレーション、例えば対象物の弾性、重力作用、物質の影響下にある仮想空間での仮想光ビームの光線追跡、所謂レイトレーシング及びその他の多くの特性をシミュレートすることにより、一層より実在感のある現実のシミュレーションがコンピュータで成功している。
通常は、純粋な仮想空間では、シーン及びシーケンス(Ablaeufe)がデザイナーによって全くに新たに生成されるか、或いは既存のリソースが用いられる。これに対し、本発明では、現実の結像システム、とりわけ顕微鏡が、現実の仮想的画像の生成に必要なデータの生成のために使用される。これらのデータは、仮想的な3次元の物体が自動的に表示されるように処理することができる。この場合、1つの特徴(Besonderheit:特異性)は、現実の対象物から1つの高さレリーフが求められ、このレリーフに、有利には対象物から得られたデータから求められる1つのテクスチャが配されることである。この場合、テクスチャを高さレリーフ画像に投影することによりとりわけ良好な結果が達成される。
本発明の本質的な利点は、本発明の方法を使用することにより、通常の光学顕微鏡及び光学マクロスコープとが、光学顕微鏡又は光学マクロスコープのような現実の光結像システムによって得られた例えば静的3次元表面情報又は不鮮鋭な画像情報のような生データを1つの新たな画像に組み合わせることにより拡張されるということである。従って、実際に得られた部分情報のすべて、又は任意の組合せないし部分集合を同時に表示することができる。
更なる利点の1つは、個々の又は時間的に順次連続する大焦点深度で計算されたマルチフォーカス画像(複数)と、同様に得られた所属の3次元的表面情報とが互いに融合(統合)できるということである。この融合(統合)プロセスは、大焦点深度の(焦点深度が深い)マルチフォーカス画像を所属の3次元的表面の表面テクスチャとして認識することによって実現される。この表面テクスチャを3次元的表面に投影することによって、融合(統合)プロセスは達成される。
本発明により得られる新たな3次元的仮想画像は、同時に2つの情報、即ち3次元的表面情報及び完全に鮮鋭な画像情報を有する。この画像表示は、「仮想現実(バーチャルリアリティ)3D光学顕微鏡検出法」と称することができる。というのは、上述のデータ融合(統合)は、「現実の」顕微鏡では実行することができないからである。
対象物の異なる複数のフォーカス面で撮像された個別画像(複数)から構成される積層画像を生成するために、既に詳述した方法ステップを実施することができる。このため、とりわけ上記DE 101 49 357.6に記載された3次元表面再構築(再構成)方法を使用することができる。この方法により、2つのデータセットが(それぞれ)1つの画像の形態で得られる。一方の(第1の)データセットは、顕微鏡検出対象物の高さ情報を符号化するが、以下これをマスク画像という。
第2のデータセットは、コントラストが大きく、完全な大焦点深度(tiefenscharf)の顕微鏡検出画像であり、以下これをマルチフォーカス画像という。このマルチフォーカス画像は、マスク画像を利用して生成されるが、これは、最も鮮鋭なピクセルを有する面を同定し、かつ積層画像中の該面の対応するピクセルを、統合を行うマルチフォーカス画像にコピーするために、マスク画像−グレー値を使用することによって行われる。
既述の通り、例えばDE 101 44 709.4に記載されたような方法ステップは、フォーカス面の列の方向(z方向)では比較的大きな解像度で対物レンズ及び/又は載物台(試料ステージ)に対する圧電技術により、及び個々のフォーカス面内(x−、y方向)では比較的大きな領域にわたり対象物をスキャンすることにより、(それぞれ、)マスク画像(複数)及びマルチフォーカス画像(複数)を生成するのに利用することができる。
従って、マスク画像は高さ情報を有し、マルチフォーカス画像は大焦点深度の純粋な画像情報を有する。次に、マスク画像から、3次元高さレリーフ画像(擬似画像:Pseudobild)が生成される。擬似画像は、マスク画像が高さレリーフとして構成されることによって生成される。擬似画像は、高さ情報以外には直接的な画像情報を有しない。従って、3次元擬似画像は、いわゆる「高さレリーフ」を構成する。次のステップにおいて、3次元擬似画像には、積層画像の鮮鋭な画像部分(複数)の現実の「テクスチャ」(Textur)が配備される。このため、擬似画像とマスク画像は適切に、とりわけ擬似画像の高さ情報及びマスク画像の画像情報、即ちテクスチャがピクセル的に(ピクセルに関して)正確に(pixelgenau)重なり合うよう揃えられる(配向される:ausgerichtet)。これによりマルチフォーカス−テクスチャ画像の各ピクセルは、3次元擬似画像にその所属するピクセルに正確に結像されるため、「現実の対象物の仮想画像」(virtuelles Bild des realen Objektes)が生成される。
これまで一般的であった対象物を結像するための光学顕微鏡検出方法は、物理的制約が多いため、その表示能力(可能性)には限界があった。本発明は、そのような制約は大幅に解消されており、顕微鏡検出対象物の検査及び表示のための多数の新たな可能性を利用者に提供する。
本発明を使用するために、特別の技術的知識がなくても利用者が本発明を使用することができるような、適切なユーザインタフェースを規定することができる。更に、本発明は、大きな面の3次元表示にも使用できる。実際に得られた顕微鏡検出画像情報又はマクロスコープ画像情報を「仮想現実空間」(Virtual Realty Raum)において結像(画像化)することにより、通常の光学顕微鏡に対し、仮想世界のすべての技術への門が開かれる。生成される画像は、従来の光学顕微鏡と比較して、格段により明瞭かつより表現力のある顕微鏡検出結像(画像)を提供し、以って、ユーザは、仮想現実に関しこれまで既に知られているあらゆる結像(画像生成)方法及び操作方法を使用することができるようになる。
仮想画像は、通常の対象物画像では使用される光学系が焦点深度に限界があるために生じる鮮鋭度の限界はない。従って、仮想画像は、完全に鮮鋭に生成される。仮想画像は、同時に、完全な深さ情報(Tiefeninformation)を有する。このため、現実の顕微鏡検出対象物の、3次元的に作用し実物どおりの 「完全に鮮鋭な」仮想画像が生成する。
本発明の好ましい一実施形態では、画像生成は、コンピュータにおいて仮想的に実現される。この場合、仮想画像に対し使用可能なすべての画像表示及び処理操作の手段(可能性)を利用することができる。このような手段には、現実に顕微鏡的に検出された表面と純粋な仮想表面とを重畳すること(手段)から、大焦点深度の3次元表面を任意の角度で観察する手段に至るまで含まれる。(複数の)表面は、仮想的に動画(アニメーション)化、照明又はその他の態様で修飾される。例えば顕微鏡検出対象物の表面での時間的な変化(変動)のような時間依存性もまた、大焦点深度の画像情報及び3次元的表面トポロジーと同時に画像生成(結像)することができる。
このため、光学顕微鏡には全く新たな手段が与えられ、物理的制約による画像の質(画質)の限界は補償される。
本発明の有利な一実施形態では、以下の構成要素が使用される:
1.必要なアクセサリ(対物レンズ等)を備える顕微鏡、又はその他の適切な結像システム(例えばマクロスコープ)。
2.適切なアクセサリ(例えばモニタ等)を備えるコンピュータ。
3.対象物をx−、y−、z方向において目標を定めて迅速に位置調節するためのアクチュエータ(例えば圧電素子、ステップモータ等)。
4.必要な又は有利なアクセサリ(例えばキャプチャ(取り込み装置:Grabber)、ファイヤワイヤ、ホットリンク、USBポート、無線データ送受信のためのブルートゥース、ネットワークを介する画像データ送受信のためのネットワークカード等)を備えるカメラ、とりわけアナログ又はデジタルCCDカメラ。
5.顕微鏡のハードウエア(とりわけ載物台(試料テーブル)、カメラ及び照明装置)を制御するための制御装置。
6.マルチフォーカス画像、マスク画像、モザイク画像、及び「仮想現実3D光学顕微鏡検出画像」を生成するための分析装置。制御及び分析方法は有利にはソフトウエアとして実行される。
7.生成された「仮想現実3D光学顕微鏡検出画像」を表示、計算及び操作(例えば空間での回転、照明変化等)するための装置。この装置も有利には表示ソフトウエアで実行される。
コンピュータで使用されるソフトウエアは、顕微鏡、x−、y−、z方向の載物台、場合により圧電アクチュエータ、照明装置、カメラ撮像装置、その他の顕微鏡ハードウエアを制御する。マスク画像及びマルチフォーカス画像を生成するための手続き、及び「仮想現実3D光学顕微鏡検出画像」の生成もこれによって制御することができる。
圧電制御される対物レンズ又は圧電制御される対象物ホルダの使用、又は圧電制御される対物レンズと圧電制御される対象物ホルダとの組合せにより、極めて高速で再現性がよく正確な対象物の位置決めを3つのすべての空間方向で行うことができる。大焦点深度の改善化画像分析方法と、3D復元(再構築)のための手段とを組み合わせると、顕微鏡検出表面の高速な3D復元が達成される。更に、鮮鋭度が計算され(scharfengerechnet)かつ3次元的な(dimensional)表面輪郭形状(プロファイル)を作成可能な画像モザイクを迅速に生成することができる。個別画像(複数)は、適切なCCDカメラにより撮像される。更に、個別画像(複数)を適切な装置特性(Apparateprofil)により展開(Entfaltung)し、引き続き鮮鋭度計算と3D復元することにより、解像度が極めて高く、装置特性により補正された、焦点深度が深い(大きな)顕微鏡検出画像が得られる。
本発明の他の有利な一実施形態では、時間的シーケンスで複数の積層画像が撮像される。このような時間的に(順次)個別撮像した複数の積層画像を、時間的に順次連続する仮想現実3D画像へと上述のように変換することによって、例えば映画のようなアニメーション(動画)において時間的経過を有し完全に鮮鋭な3次元的画像を生成することができる。
本発明のさらなる有利な一実施形態は、アニメーション(動画)において複数の画像が互いの中へと入り込むよう関連付けられる(融合される)いわゆるモーフィング(Morphing)を使用することにより得られる。モーフィングは、既知の1つの開始画像と既知の1つの終了画像に基づいて、それまでは未知の更なる中間画像(複数)が計算されるような、画像間の補間である。(1つの)開始画像、中間画像(複数)、及び(1つの)終了画像を適切に順次並べ、そして既知の画像(複数)と補間された画像(複数)を時間的に順次連続して再生することにより、開始画像から終了画像へ連続的に変化していく印象が生じる。
モーフィングにより、時間的にも空間的にも少数の画像だけを現実に撮像すればよいため、上述の方法を加速することができる。仮想的表示のための他の画像はすべて、中間画像補間(Zwischenbild-Interpolation)による計算によって得られる。
「仮想現実3D光学顕微鏡検出画像」を生成するために、本発明においてとりわけ有利には、例えば光学顕微鏡又は光学マクロスコープ等の光学的結像システムからの現実のデータが使用される。ここで注意すべきことは、光学マクロスコープの場合には結像光学系に起因するゆがみないしひずみ(Verzerrung)がまず数学的に修正されるということである。仮想現実は、本発明によれば、自動的に又は部分自動的(半自動的)に又は手動で、その基礎をなす現実のデータから生成される。「仮想現実3D光学顕微鏡検出法」の得られたデータと仮想現実の既知の技術とをそれぞれ結合する可能性は、即ち、純粋に仮想的即ち現実の物理的データの直接的な影響を受けずに生成されるデータは、本発明の更なる利点の1つである。
本発明の更なる利点の1つは、「仮想現実3D光学顕微鏡検出法」のデータにより、例えば容積測定、(表)面積測定等のような3D測定を実行できる可能性である。
本発明の更に有利な一実施形態では、上述のように、画像分析的に調整及び/又は変更されたテクスチャ画像を3D表面上に投影する可能性が提供される。これにより、「仮想現実3D光学顕微鏡検出法」による更なる「拡張知覚(erweiterte Wahrnehmung)」が可能となる。というのは、変更されたテクスチャは、場所忠実的に(ortstreu)、3D表面に投影されるからである。これにより、画像分析的結果を3次元表面データと結合し、かつ同時に表示することが可能になる。このことは、上述の意味における画像分析的に影響を受けた撮像の時間連続ないし時間シーケンス(Zeitserien)にも当てはまる。
本発明の更なる利点の1つは、対象物の定義された表面部分領域(複数)を走査するために、モザイク画像のための方法を使用することができるということである。これら部分画像(複数)は、大焦点深度で統合(合成)され、所属の3D対象物表面データ(複数)と共に、(繰返し)走査された(eingescannten)対象物面の(1つの)「仮想現実3D光学顕微鏡検出画像」へと計算される。
本発明は、その幾多の利点の観点から、対象物における顕微鏡検出事象(データ)の知覚を格段に拡張可能であることをとりわけ特徴とする。このことは、顕微鏡により得られた3次元表面に完全に鮮鋭な画像を同時に表示することによって達成される。顕微鏡検出画像の仮想的3D現実感及び標準的プログラム及び方法への顕微鏡検出画像の仮想的表示の適合性によって、これまで仮想現実に対して形成されてきた知識及び手段をすべて取り入れることができる。
本発明の方法により生成される画像は、従来の顕微鏡により得られる画像よりも試料中の実際の関係(状態)により高い適合性(対応関係)を有する。なぜなら「仮想現実3D光学顕微鏡検出画像」では、完全な鮮鋭度に加えて、対象物の3次元情報もまた明確に生成されるからである。
更に、「仮想現実3D光学顕微鏡検出画像」は、画像を任意の位置に回転することにより種々異なる空間角度の下で観察することができる。更に、対象物画像は、透明化及びその他の標準的方法により、任意に処理操作し、他の顕微鏡検出ディテールを強調又は減衰することができる。
表現力(訴求力)及び顕微鏡検出対象物の人間の知覚に極めて近接する3次元表示により、全く新しい分析方法が得られる。「仮想現実3D光学顕微鏡検出画像」として表示される画像モザイクは、付加的に表示可能性を拡張する。
自動的時間連続ないし時間シーケンス(Zeitserien)により一又は複数の「仮想現実3D光学顕微鏡検出画像」を生成するための上述のシーケンスを完全自動化する可能性は、ユーザの技術的ノウハウに対し僅かな要求しか課さない。
現実に撮像された基礎データ(Basisdaten)から生成された「仮想現実3D光学顕微鏡検出画像」と、例えば観念的な(platonisch)基本物体ないし「基体」(Grundkoerper)又は他のより複雑な物体のような純粋に仮想的な対象物を差込入射する(重ね合わせる:Einblendung)ための手段(可能性)とを組み合わせることにより、知識伝達の新たな教育的手段(可能性)が得られる。「仮想現実3D光学顕微鏡検出画像」のデータと3Dサイバースペースメガネ(3D-Cyberspace-Brille)と組み合わせることにより、以前には見られなかった正確性と全体性で顕微鏡検出対象物を観察することが可能となる。
「仮想現実3D光学顕微鏡検出画像」のデータはコンピュータに記憶することができるので、データを他のシステムで表示すること、例えばイントラネット又はインターネットのようなコンピュータネットワークを介してデータ伝送すること、及び「仮想現実3D光学顕微鏡検出画像データ」をウェブブラウザを介して表示することも可能である。更に、3次元的画像分析も実行可能である。
仮想顕微鏡検出法、即ち、利用者による顕微鏡「なし」での、換言すれば得られた及び/又は記憶された「仮想現実3D光学顕微鏡検出画像データ」のみを基礎とする顕微鏡検出法により、現実の顕微鏡検出法と得られたデータの評価とを分離することができる。
標準的な照明を備える通常の標準的な光学顕微鏡は、本発明の3D画像の生成のために使用することができ、従って価格的にも妥当である。
本発明の更なる利点及び更なる有利な実施形態は、以下の図面及びその説明により明らかとなる。なお、図面の表示は見易さの観点から縮尺通りには記載していない。
図1に、本発明の方法の原理的フローの一例を示した。この方法に関しては、図2及び図3において実施例に基づき改めて詳細に説明する。対象物22に基づき(図2)、方法ステップ10において、対象物22の複数のフォーカス面の各々から個別画像26をそれぞれ手動で又は完全自動的に撮像することによって積層画像24が生成される。個別画像間の距離ないし間隔は、大焦点深度の3次元画像を復元(再構築)できるように適切に計算されるが、有利には等間隔に維持される。個別画像26の各々は鮮鋭な画像領域と不鮮鋭な画像領域を有するが、個別画像26の画像間隔及び総数は既知である。画像(複数)は、撮像後、差し当たっては圧縮されないか、又はデータ損失を伴わない圧縮方法により圧縮されて方法ステップ12で記憶される。個別画像26は、カラー画像又は白黒画像とすることができる。カラーないしグレー値の解像度(8ビット、24ビット等)も任意に選択することができる。
積層画像を生成する際には、複数の画像を1つのフォーカス面(x−、y方向)において並置し、フォーカス面のいわゆるモザイク画像が生成するようピクセル的に正確に再び合成する(組み合わせる)ようにすることも可能である。この場合、複数のモザイク画像から1つの積層画像24を生成することも可能である。所望のフォーカス面(z面:z軸と直交する面)の各々において1つの個別画像を撮像した後には、更なる画像処理のための一連の(一続きの)個別画像26を備える1つの積層画像24が存在する。各z面は互いに等間隔であると都合がよい。
積層画像24を生成するために、結像システムを使用することが可能であるが、とりわけ顕微鏡又はマクロスコープが使用される。尤も、(1つの)対物レンズを備え適切に固定されたカメラシステムを使用することも可能である。結像システムが利用可能である限りにおいて、試料(対象物)の近紫外から遠赤外に至るまでのすべての照明(波長)領域が使用可能である。
撮像システムは、一般的に、アナログ又はデジタル式CCDカメラを有することができる。CCDカメラは、すべての形式、とりわけラインカメラ、カラーカメラ、白黒カメラ、IRカメラ、積算カメラ(integrierende Kameras)、マルチチャネルプレート内蔵カメラ等を使用することができる。
次の方法ステップ14において、積層画像24の得られたデータから、(1つの)マルチフォーカス画像15及び(1つの)マスク画像17が生成される。これについては、とりわけDE 101 49 357.6及びDE 101 44 709.4による方法を使用することができる。顕微鏡の焦点深度に基づいて、個別画像26の各々は、鮮鋭な領域と不鮮鋭な領域を含む。所定の基準に従って、個々の個別画像26中においてそれぞれ鮮鋭な領域が検出され、その面番号と共に相応の座標点(x,y)に割当てられる。面番号と座標点(x,y)との割当ては、記憶ユニットに記憶され、マスク画像17を構成する。マスク画像17の画像処理の際には、マスク画像に記憶された面番号をグレー値と見なすことができる。
マルチフォーカス画像15においては、予め撮像及び記憶された積層画像24の個々の個別画像の不鮮鋭な画像領域がすべて除去されるため、完全に鮮鋭で大焦点深度の画像が生成する。マルチフォーカス画像15は、異なる複数のフォーカス面からの複数のモザイク画像を1つのマルチフォーカス画像15に計算して得られる(1つの)積層モザイク画像から生成することも可能である。
マスク画像17では、ピクセル(複数)のすべてのグレー値が、鮮鋭なピクセルの生成面の番号を表わす(特徴付ける)。このため、マスク画像は、3次元高さレリーフ画像28としても表示可能である。3次元性はマスク画像ピクセル(複数)のx、y位置と、3次元データセットのフォーカス面位置を表わす(特徴付ける)ピクセルのグレー値の値(Betrag)とから得られる。マスク画像17は、(1つの)積層モザイク画像から生成可能であるが、異なる複数のフォーカス面からの複数のモザイク画像が当該マスク画像17へと計算される。
このようにしてマスク画像17が生成された後、ここからいわゆる3次元擬似(仮想)画像28が生成可能となる。このため、方法ステップ16において、マスク画像17が高さレリーフとして示される。この画像は、高さ情報の他には、直接的画像情報を有していない。マスク画像17は、このために適切なソフトウエアによって3次元高さレリーフとして結像(画像生成)される。ソフトウエアは、例えば公知のソフトウエアライブラリOpenGL又はDirect3D(Microsoft社)をベースに開発することができる。更に、例えばCinema4D(Maxon社)、MAYA3.0、3D Studio MAX又はPovrayのような3Dシーンの表示、作成、アニメーション(動画作成)及び操作を行うその他の市販のソフトウエア製品も好適に利用できる。
このような表示を生成するために、いわゆるスプライン(Splines)が使用される。スプラインは、実質的に3次元空間に存在し直線(複数:Linien)により互いに結合される(複数の)支持点(Stuetzpunkt)の連続である。スプラインは、3次元対象物を生成するための数学的に周知の技術である。このスプラインは、ある意味では、地図上の等高線をなす。支持点(複数)は、スプライン補間のための支持点(複数)の座標(x,y)が後続するマスク画像データに相応するよう、マスク画像のグレー値から得られる。
支持点座標Xは、マスク画像ピクセル座標Xに相応する。
支持点座標Yは、マスク画像ピクセル座標Yに相応する。
支持点座標Zは、マスク画像17のX、Yにおけるグレー値に相応する。
スプライン曲線の推移は、いわゆる補間により求められる。ここでスプライン曲線の推移が、スプラインの支持点間の補間(例えばベジエの多項式(Bezier Polynome)又はベルンシュタインの多項式(Bernstein Polynome)等によるような空間の所定数の点によるn次の多項式(Polynom)の多項式はめこみ(Polynom-Fit))により計算されることによって、スプライン曲線が生成される。使用される補間関数の種類及び支持点の数に応じて、所与の支持点(複数)に対する多かれ少なかれディテールどおりの(細部に忠実な)(detailgenau)曲線適合化が実行可能となる。マスク画像点(複数)をすべてスプラインのための支持点として把握するのではなく、マスク画像点(複数)の適切に選択された部分集合のみを使用することにより、支持点の数を変化することができる。例えば、マスク画像17の4つに1つのピクセルのみ(3つおきのピクセルのみ)を使用することができる。より少数の支持点間で行われる次の補間は、対象物表面をより低い解像度で表示することとなる。このため、支持点の数を適合化することにより、表面を多かれ少なかれ大きな詳細度(Detailierungsgrad)で表示し、種々の表面アーチファクトをフィルタ除去することができる。従って、より少ない支持点数によって、3次元表面の滑面化作用が得られる。
本発明では、予め計算されたマスク画像が支持点データベースを形成する。支持点は、3D空間に存在し、従って3次元空間座標により表わされなければならない。スプラインのための個々の支持点の3つの空間座標(x,y,z)は、マスク画像ピクセルのx、yピクセル位置と、各マスクピクセルのグレー値(z位置)とにより形成される。マスク画像のグレー値はいずれにしろその基礎をなす顕微鏡検出画像の高さ情報に相当するため、3D擬似画像は、その基礎をなす顕微鏡検出画像の高さ推移の表示と解釈することができる。
マスク画像点及びマスク画像点座標のすべて又は適切な部分集合を含む支持点のアレイを設定すれば、選択可能な密度のスプラインネットワークを支持点アレイの上に置くことができる。図4aに、このようにして得られた3次元擬似画像28を示した。
図4bに示すように、例えばいわゆるグーローシェーディング(Gouraud-Shading)のような適切な三角測量と陰影化により、微細構造をこの表面の上に置くことができる。光線追跡(Raytracing)アルゴリズムにより、とりわけ表面反射と陰影(シャドウ)投影から非常に写実的に(現実的に)作用する表面28’が得られる。
更に、3次元擬似画像28とテクスチャ(Textur)29とを結合することが必要である。ここに、テクスチャ29とは、「仮想の構造体の表面形状に対する基本要素」(Grundelement fuer die Oberflaechengestaltung virtueller Gebilde)であり、表面に自然かつ現実的な外観を与えるという目標が達成されるべきである。従って、方法ステップ18において、予め作成されたマルチフォーカス画像15からテクスチャ29が生成される。このため、例えば、予め計算された大焦点深度のマルチフォーカス画像15がテクスチャ画像として使用される。
次に、その他の点で検出されたとりわけマルチフォーカス画像15に存在する情報と、3次元擬似画像28とを結合するために、方法ステップ20において、図1〜図3に示したように、3次元擬似画像28とテクスチャ29とが結合される。
ここに、テクスチャ29とは、仮想現実においては通例であるように、3次元投影法により適切に仮想3次元対象物の表面に投影されるとりわけ1つの画像であると理解すべきである。所望の効果を達成するために、テクスチャ画像は、仮想対象物の表面に適切に配向して(揃えて)投影されなければならない。適切に配向するためには、テクスチャ29は、マスク画像17及びマルチフォーカス画像15のピクセル座標(x,y)(複数)の割当て(関連付け)が破壊されないように、3次元擬似画像28に割当てる(関連付ける)ことが必要である。即ち、位置(x,y)におけるグレー値を有する各マスクピクセルに、それに対応し正確に同じ位置(x,y)におけるグレー値を有するマルチフォーカスピクセルが割当てられる。マルチフォーカス画像15が予め画像分析的に又はその他の画像処理操作により変更すべき場合には、マスク画像のピクセル座標(x,y)と、画像分析的に又はその他の画像処理操作により任意に変更されたマルチフォーカス画像のピクセル座標(x,y)との割当て(関連付け)が失われないように注意すべきである。
擬似画像28とテクスチャ29とを結合するために、テクスチャ29が3次元擬似画像28にも適切に投影されると都合がよい。これにより、対象物22の3次元対象物画像30が生成するように、2つのリソースの融合が達成される。この対象物画像30は、仮想現実の意味において仮想的結像を構成する。
図5の実施例に示したように、本発明のテクスチャ化ないしテクスチャ作成(Texturierung)のためのベース(基礎)は、予め計算されたマルチフォーカス画像自体によって形成される。既に現実感を奏している擬似画像28と、マスク画像17とが、適切に配向され(揃えられ)、擬似画像28の高さ情報とマスク画像17の画像情報、即ちテクスチャとが、ピクセル的に正確に重なり合うように揃えられる(配向される)。マルチフォーカス−テクスチャ画像、即ちテクスチャ29は、3次元擬似画像28に投影され、これによりマルチフォーカス−テクスチャ画像29の各ピクセルが、3次元擬似画像28のその所属の(それぞれ割当てられた)ピクセルに正確に結像される。その結果、仮想結像技術と現実の結像技術との融合によって、対象物22の大焦点深度の対象物画像30が仮想画像として生成される。
図1〜図3に概略的に示した方法のフローにより、本発明の新規な結像(画像生成)は、現実に存在する対象物22の現実に検出された測定値を基礎とする。そして、光学顕微鏡検出データの仮想現実3次元結像(画像)が得られるように、この測定値は統合される。従来の仮想(現実)技術と異なり、本発明では、対象物22の現実的な撮像が実行される。現実の対象物22について、3次元空間における画像鮮鋭度のデータ、対象物のトポロジーのデータ及び画像の鮮鋭な部分領域の正確な位置のデータが記録される。この場合、これらの現実のデータは、3次元空間において仮想的結像(画像)を生成するための開始ベースとして使用される。仮想的結像は、現実の画像から、例えば画像情報、鮮鋭度、及び3次元性などのデータを検出し、同時に結像する。従って、この仮想的結像は、従来の光学顕微鏡検出法と比べると格段に大きな付加価値を創出する。
本発明により、現実の例えば光学顕微鏡検出対象物データを検出するという中核的特質を有しかつ3次元仮想空間に統合表示を有するような新たな種類の光学顕微鏡検出法が提案される。この意味において、本発明の方法は、「仮想現実3D光学顕微鏡検出法」と称することができる。この「仮想現実3D光学顕微鏡」では、現実(3D、鮮鋭度等)の生成された結像(画像)は、更に、現在既知の及び将来開発される仮想結像(画像生成)技術の方法すべてによって調整(処理)することができる。
上記の実施例では、「仮想現実3D光学顕微鏡検出画像」の手動生成と完全自動生成とについて説明した。以下の実施例では、「仮想現実3D光学顕微鏡検出画像」のビジュアル化、処理操作及び分析方法について説明する。
現実の顕微鏡検出データの仮想空間への変換に基づき対象物データ30をビジュアル化するために、対象物画像30の顕微鏡検出データは、大焦点深度の3次元画像として存在する。
(複数の)仮想のランプ(光源)によって対象物画像30の表面を照明し、顕微鏡検出データのそのようにして求められたディテールを視覚的に強調することができる。仮想ランプは、仮想空間内に任意に配置することができ、例えば照射特性又は光色のような仮想ランプの特性は、フレキシブルに調整することができる。
この方法により、学習及び記録目的のための格段に良好かつ持続的に保存可能な顕微鏡検出画像を作成することができる。
画像は、空間において、回転及び並進操作により任意に回転及びスケーリング(skalieren)することができる。この操作により、通常の顕微鏡では不可能な観察角度での画像の観察が可能となる。
更に、「仮想現実3D光学顕微鏡検出画像」の配向の段階的な調整及びこれら個別画像の記憶によって、「仮想現実3D光学顕微鏡検出画像」が運動しているかのように見せかける動画(アニメーション)シーケンスを作成することができる。これら個別画像を(例えばAVI、MOV等のデータフォーマットの)フィルムシーケンスとして記憶することにより、この動画シーケンスを再生することができる。
データを、更に処理操作することも可能である。3次元擬似画像の結像(画像生成)は、3次元スプライン補間のための支持点として存在する。グーローシェーディング及び光線追跡により、これら3次元データに、最終的に3次元的効果を奏する表面を配属する(割当てる)ことができる。
例えば所定のディテールの測定又は明瞭な強調等に使用されるデータ処理操作に対する中心的役割は、x、y、z支持点(複数)が果たすことができる。
z値とある数との乗算は、例えば高さレリーフの拡大又は縮小を意味し得る。個々の支持点を目標を定めて処理操作することにより、3次元擬似画像28の3Dプロファイルの所定部分を個別に処理操作することができる。
更に、重ね投影されたマルチフォーカス・テクスチャ画像を画像分析的に処理操作することにより、例えば個々の画像対象物のマーキング、エッジ強調、対象物分類、2値画像、画像改善等の画像分析結果を重ね投影することができる。このことは、画像分析的に変更された結果画像(マルチフォーカス・テクスチャ画像)を新たな「処理操作された」マルチフォーカス・テクスチャ画像として使用し、その新たな画像をテクスチャとして3D擬似画像の3次元表面に投影することによって行われる。このようにして、画像分析的に処理操作された画像(新たなテクスチャ)もまた、3次元擬似画像と融合することができる。
従って、例えばスプライン補間のための支持点の処理操作のような3Dデータ処理操作の手段(可能性)も、画像分析方法によりマルチフォーカス画像の処理操作の手段(可能性)も存在する。
これら2つの表示の融合により、顕微鏡検出画像表示に付加価値が生じうる。というのは、対象物画像(複数)30は、3次元表示に加えて、画像分析的に処理操作されたマルチフォーカス画像の位置(場所)忠実的な重畳を有するからである。
現実の対象物22のデータを仮想空間に存在するデータへ変換するため、その容積、表面ないし面積及び粗度等に関する3次元データを測定することができる。
更なる改善により、マルチフォーカス画像に関して画像分析的に得られた測定結果の組合せと、3次元データ測定とが可能となる。更に、3次元データと他の適切な3次元対象物との論理的結合により、3次元データに関する多数の計算が実行可能となる。
従って、簡単な表示形式により、2次元画像分析は、画像分析の第3の次元及び画像分析のトポロジー的次元に関して拡大される。
時間シーケンス(Zeitserien)の記録、即ち上述の方法により順次連続する異なる複数の時点における対象物22の画像(複数)の撮像により、データ分析のための更なる1つの次元、即ち時間的次元が追加される。これにより、時間プロセスの表示、例えば対象物22の時間的変化をスローモーション又はクイックモーションで表示することができる。
本発明の方法は、立体画像の生成及び立体画像のアニメーション化にも適する。対象物画像30のデータは3次元的に存在するので、仮想的顕微鏡検出画像の2つの観察角度からの2つのアスペクト(側面、視点)(Ansichten)を計算することができる。これにより、「仮想現実3D光学顕微鏡検出画像」のビジュアル化が、古典的な立体画像の意味において実行可能となる。
「仮想現実3D光学顕微鏡検出画像」のビジュアル化は、モニタ、プリンタ又はプロッタへの出力の他にも、偏光シャッタガラス又はアナグリフ技術(anaglyphentechnik)又は3Dサイバースペースメガネを介した結像により行うことも可能である。
右眼及び左眼に対してそれぞれ遠近法的に分離された「仮想現実3D光学顕微鏡検出画像」に関する異なる(2つの)アスペクトを有する一連のアニメーションにより、上述のビジュアル化方法の1つによって、現実の顕微鏡検出データから生成された「仮想現実3D光学顕微鏡検出画像」の運動する立体画像もまた生成することができる。
データは3次元的に存在するので、左右の眼に関し、「仮想現実3D光学顕微鏡検出画像」に対する(それぞれ)1つの遠近法的に正しいアスペクトを計算することができる。従って、「仮想現実3D光学顕微鏡検出画像(複数)」は、例えば3DステレオLCDモニタ又はサイバースペースメガネのような3D出力ユニットへ出力することも可能である。
3D−LCDステレオモニタの場合は、画像分析を介して観察者の実際の眼の位置が測定される。そして、これらのデータからそれぞれの視線(注視)角(Blickwinkel)が計算される。この視線角から、右側観察眼及び左側観察眼のための「仮想現実3D光学顕微鏡検出画像」に対する遠近法的アスペクトのためのデータが得られる。この2つの透視像(アスペクト像)(Perspektiven)が計算され、3D−LCDステレオモニタに表示される。これにより観察者に対して「仮想現実3D光学顕微鏡検出画像」がモニタ前方の空間中に浮かんでいるような印象が与えられる。これにより、現実の空間的3次元結像(画像)が生成するよう、現実に検出された顕微鏡検出データを結像(画像化)することが可能となる。更に、時間的及び遠近法的に正しい画像シーケンス(Bildfolge)により、現実の顕微鏡検出画像の空間的に動画化(アニメーション化)された3次元結像(画像)が実現可能となる。
サイバースペースメガネの場合、技術的制約から、遠近法的に正しいアスペクトにおける画像がそれぞれ個々の眼に分離されて差込入射される。観察者の脳は、当該画像から3次元的印象を形成する。更に、この場合も、時間的及び遠近法的に正しい画像シーケンスによって、現実の顕微鏡検出画像の空間的に動画化された3次元結像(画像)が実現可能となる。
本発明の更なる一実施例では、「仮想現実3D光学顕微鏡検出法」において時間的にも変化するプロセスを動画化及びビジュアル化ができるように、「仮想現実3D光学顕微鏡検出法」から得られたデータを互いに組み合わせることも可能である。このため、3つの空間座標X、Y、Zの他に、更に、テクスチャ29、即ち対象物の鮮鋭的に計算された純粋な画像情報(マルチフォーカス画像)、又は表面及び/又はテクスチャの時間的変化(画像の時間シーケンス)に関連するデータ処理操作を実行することができる。
上述の方法と同様に、同じ積層画像をz方向(結像システムの光軸の方向)において異なる複数の時点で繰り返し撮像することにより、顕微鏡検出対象物での時間的変化もまた検出することができる。これにより、異なる複数の時点における対象物22の状態に相応する積層画像のシーケンスが生成する。この場合、3次元顕微鏡検出表面構造も、顕微鏡検出画像データ自体も時間的に変化する。
常に同じ顕微鏡検出領域の時間シーケンスによって、時間的に順次連続するマスク画像(複数)のシーケンスと、所属のマルチフォーカス画像(複数)のシーケンスが、以下のようにして生成する。
マスク[t]→マスク[t]→ ・・・ →マスク[t]→マスク[tn+1
及び所属の
マルチフォーカス[t]→マルチフォーカス[t]→ ・・・ →マルチフォーカス[t]→マルチフォーカス[tn+1]。
トポロジーが時間的に変化する場合には
マスク[t]≠マスク[tn+1]{n=1,2,3,4,・・・}
が成り立ち、及び画像が変化する場合には
マルチフォーカス[t]≠マルチフォーカス[tn+1]{n=1,2,3,4,・・・} が成り立つ。
この時間シーケンスは、手動でも自動的にも生成することができる。
モザイクマルチフォーカス画像(複数)及び所属のモザイクマスク画像(複数)の時間シーケンスを撮像することにより、表面変化及び/又は画像変化の時間的動力学(Kinetik)も可能となる。
図6に示したように、アニメーション(動画)を生成するための方法フローは、DE 101 49 357.6及びDE 101 44 709.4に記載されている方法フローに組み込むことができるので、完全自動化されたフローを実現することも可能である。これに加えて、上記刊行物に記載されている方法フローに、更なる自動化ステップが幾つか補充される。仮想現実対象物画像30の生成方法フローが開始すると、ステップ32において、仮想現実対象物画像30を上述のようにして生成することができる。この対象物画像30は、ステップ34において任意に動画化(アニメーション化)される。この場合、動画化された画像が、ステップ36において記憶されると都合がよい。このようにしてモザイク画像、マスク画像及びモザイクマルチフォーカス画像を所定の各時点で生成し、記憶することができる。この場合、このマスク画像及びマルチフォーカス画像は、それぞれ所属のマスク画像とマルチフォーカス画像を組み合わせるための開始ベースとして使用される。
第2のステップにおいて、互いに緊密に関連するマスク及びマルチフォーカス画像が、「仮想現実3D光学顕微鏡検出法」の個別画像へと合成される(組み合わせられる)。
これにより、個々の「仮想現実3D光学顕微鏡検出画像」の時間シーケンスが生成する。個々の「仮想現実3D光学顕微鏡検出画像」は、マスク画像の3D情報と、マルチフォーカス画像の(重ね)投影されたテクスチャとを同時に含む。尤も、個別画像(複数)は、対象物22が時間的に変化する場合には、3次元トポロジー現象及び/又はテクスチャ29の変化の点で互いに異なり得る。
個々の画像を順次配列することにより、「仮想現実3D光学顕微鏡検出法」の手段(複数)による撮像の時間的動画化(アニメーション化)が可能となる。
このため、3次元表面情報、表面の時間的変化、大焦点深度的に計算されたマルチフォーカス画像、及び当該マルチフォーカス画像の時間的変化を同時に表示することが可能となる。
ここで、必要なマスク画像17及びマルチフォーカス画像15は、それぞれ、対象物22の表面を所定の各時点で繰り返し走査することにより生成するモザイクマスク画像及びモザイクマルチフォーカス画像として理解することができる。
この「仮想現実3D光学顕微鏡検出」画像を回転することにより、3次元表面情報、表面の時間的変化大焦点深度的に計算されたマルチフォーカス画像及びマルチフォーカス画像の時間的変化などのような同時に結像された特徴は、他の観察角度でも観察することができる。このため、3次元表面を記述するデータセットは、適切な3次元変換を受ける。
まとめると、「仮想現実3D光学顕微鏡検出法」の上述の結像(画像生成)は、対象物22の顕微鏡検出データの5つの次元の同時的結像と理解することができる。ここに、5つの次元とは:
・X、Y、Z、即ち対象物22の純粋な3次元表面情報
・テクスチャ29、即ち鮮鋭的に計算された対象物22の純粋な画像情報
・画像の時間シーケンスとしての表面及び/又はテクスチャの時間的変化
である。
本発明の方法の一例を簡略的に示したフロー。 本発明の方法の一例を図で表したフロー。 本発明の方法の他の一例を図で表したフロー。 (a)擬似画像の一例。 (b)構造化された擬似画像の一例。 擬似画像とテクスチャとの組合せの一例。 自動化された方法フローの一例。
符号の説明
10 対象物の積層画像の生成
12 積層画像の個々の(個別)画像の記憶
14 マルチフォーカス画像及びマスク画像の生成
15 マルチフォーカス画像
16 3次元擬似画像の生成
17 マスク画像
18 テクスチャの作成
20 テクスチャと擬似画像との結合
22 対象物
24 積層画像
26 1つのフォーカス面の個別画像
28 3次元擬似画像
28’ 表面構造を有する3次元擬似画像
29 テクスチャ
30 対象物画像
32 仮想現実画像の生成
34 アニメーションの作成
36 画像の記憶

Claims (20)

  1. 3次元の対象物(22)を対象物画像(30)として表示する方法であって、
    初めに、前記対象物(22)から、異なる複数のフォーカス面においてそれぞれ撮像された複数の画像(26)から構成される積層画像(24)が生成される形式の方法において、
    前記積層画像(24)から、3次元の高さレリーフ画像(28)が生成され、及び
    該3次元の高さレリーフ画像(28)が、テクスチャ(29)と組合せられること(とりわけテクスチャ(29)が前記3次元の高さレリーフ画像(28)に投影されること)
    を特徴とする方法。
  2. 前記テクスチャ及び前記3次元の高さレリーフ画像(28)は、前記積層画像(24)の複数の個別画像(6)のデータから得られること
    を特徴とする請求項1に記載の方法。
  3. 前記3次元の高さレリーフ画像(28)は、補間により互いに結合される支持点(複数)を通過する等高線(複数)により形成されること
    を特徴とする請求項1又は2に記載の方法。
  4. 前記テクスチャ(29)は、前記3次元の高さレリーフ画像(28)に投影されること
    を特徴とする請求項1〜3の何れか1項に記載の方法。
  5. 前記テクスチャ(29)は、前記3次元の高さレリーフ画像(28)へ投影するために、ピクセル的に正確に前記3次元の高さレリーフ画像(28)に合せられること
    を特徴とする請求項4記載の方法。
  6. 前記3次元の高さレリーフ画像(28)は、前記テクスチャ(29)との組合せられる前に変化されること(とりわけ三角測量、陰影化及び/又は光線追跡アルゴリズムにより仮想表面が設けられること)
    を特徴とする請求項1〜5の何れか1項に記載の方法。
  7. 前記テクスチャ(29)は、前記対象物(22)の大焦点深度の情報を有するマルチフォーカス画像(15)のデータから得られること
    を特徴とする請求項1〜6の何れか1項に記載の方法。
  8. 前記3次元の高さレリーフ画像(28)は、フォーカス面(複数)の高さ情報を有するマスク画像(17)のデータから得られること
    を特徴とする請求項1〜7の何れか1項に記載の方法。
  9. 前記3次元の高さレリーフ画像(28)は、前記等高線の支持点(複数)の拡大又は縮小により、前記テクスチャ(29)との組合せ前又は組合せ後に変化されること
    を特徴とする請求項3に記載の方法。
  10. 前記対象物画像(30)は、画像分析的に処理されること(とりわけ他のテクスチャと組合せられること)
    を特徴とする請求項1〜9の何れか1項に記載の方法。
  11. 前記対象物画像(30)の生成は、前記積層画像(24)の複数の個別画像(26)の記録後に手動的に又は自動的に開始されること
    を特徴とする請求項1〜10の何れか1項に記載の方法。
  12. 時間的に順次連続する複数の対象物画像(30)が生成されること
    を特徴とする請求項1〜7の何れか1項に記載の方法。
  13. 前記対象物画像(30)は、出力装置(とりわけモニタ、プロッタ、プリンタ、LCDモニタ又はサイバースペースメガネ)に出力されること
    を特徴とする請求項1〜12の何れか1項に記載の方法。
  14. 前記対象物画像(30)は、出力する前に変化されること(とりわけ仮想のランプにより照明されること、回転ないし並進操作により処理されること、及び/又は仮想の物理法則に当てはめられること)
    を特徴とする請求項1〜13の何れか1項に記載の方法。
  15. 複数の対象物画像(30)は、時間的に連続する(複数の)対象物画像(30)の例として(とりわけ映画フィルム又はアニメーションとして)前記出力装置に出力されること
    を特徴とする請求項1〜14の何れか1項に記載の方法。
  16. 前記複数の対象物画像(30)は、モーフィングによって互いに融合されること
    を特徴とする請求項15に記載の方法。
  17. 3次元の対象物(22)を対象物画像として表示するための装置であって、
    結像システム(とりわけ対象物(22)を結像するための顕微鏡)と、コンピュータと、x−、y−及びz方向において対象物(22)を目標を定めて迅速に位置変化するための複数のアクチュエータ(Aktoren)と、撮像装置(とりわけ対象物(22)の異なる複数のフォーカス面において撮像される(複数の)個別画像(26)から構成される積層画像(24)を生成するためのアナログ又はデジタル式CCDカメラ)と、前記結像システムのハードウエアを制御するための制御装置とを有する装置において、
    前記積層画像(24)の複数の個別画像(26)から3次元の高さレリーフ画像(28)及びテクスチャ(29)を生成するための分析装置、及び該3次元の高さレリーフ画像(28)と該テクスチャ(29)とを組合せるための制御装置を有すること
    を特徴とする装置。
  18. 前記対象物画像(30)を出力するための出力装置(とりわけモニタ、プロッタ、プリンタ、LCDモニタ又はサイバースペースメガネ)を有すること
    を特徴とする請求項17に記載の装置。
  19. 前記対象物画像(30)をデータ分析するための装置を有すること
    を特徴とする請求項17又は18に記載の装置。
  20. 前記分析装置、前記制御装置及び/又は前記対象物画像(30)をデータ分析するための装置は、前記コンピュータにおいて実現されること
    を特徴とする請求項17〜19の何れか1項に記載の装置。

JP2003538981A 2001-10-22 2002-10-14 光学顕微鏡検出3次元画像の生成方法及び生成装置 Pending JP2005521123A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10151285 2001-10-22
DE10237470A DE10237470A1 (de) 2001-10-22 2002-08-16 Verfahren und Vorrichtung zur Erzeugung lichtmikroskopischer, dreidimensionaler Bilder
PCT/EP2002/011458 WO2003036566A2 (de) 2001-10-22 2002-10-14 Verfahren und vorrichtung zur erzeugung lichtmikroskopischer, dreidimensionaler bilder

Publications (2)

Publication Number Publication Date
JP2005521123A true JP2005521123A (ja) 2005-07-14
JP2005521123A5 JP2005521123A5 (ja) 2006-03-23

Family

ID=26010396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003538981A Pending JP2005521123A (ja) 2001-10-22 2002-10-14 光学顕微鏡検出3次元画像の生成方法及び生成装置

Country Status (4)

Country Link
US (1) US20040257360A1 (ja)
EP (1) EP1438697A2 (ja)
JP (1) JP2005521123A (ja)
WO (1) WO2003036566A2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015524578A (ja) * 2012-07-18 2015-08-24 ザ、トラスティーズ オブ プリンストン ユニバーシティ マルチスケールスペクトルナノスコピー
CN106104356A (zh) * 2014-03-24 2016-11-09 卡尔蔡司显微镜有限公司 具有孔径相关的共聚焦显微镜
JP2017058386A (ja) * 2015-09-14 2017-03-23 株式会社ニコン 顕微鏡装置および観察方法
JP2020508496A (ja) * 2017-04-07 2020-03-19 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh 試料の三次元画像を撮影および表示するための顕微鏡装置

Families Citing this family (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7668362B2 (en) 2000-05-03 2010-02-23 Aperio Technologies, Inc. System and method for assessing virtual slide image quality
GB0208088D0 (en) * 2002-04-09 2002-05-22 Delcam Plc Method and system for the generation of a computer model
JP5134365B2 (ja) 2004-05-27 2013-01-30 アペリオ・テクノロジーズ・インコーポレイテッド 三次元仮想スライドを生成しかつ可視化するためのシステム及び方法
US20060038144A1 (en) * 2004-08-23 2006-02-23 Maddison John R Method and apparatus for providing optimal images of a microscope specimen
WO2006077668A1 (ja) * 2005-01-18 2006-07-27 National University Corporation Gunma University 顕微鏡観察再現方法、顕微鏡観察再現装置、顕微鏡観察再現プログラムおよびその記録媒体
US8164622B2 (en) 2005-07-01 2012-04-24 Aperio Technologies, Inc. System and method for single optical axis multi-detector microscope slide scanner
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
US8184364B2 (en) * 2007-05-26 2012-05-22 Zeta Instruments, Inc. Illuminator for a 3-D optical microscope
US7729049B2 (en) * 2007-05-26 2010-06-01 Zeta Instruments, Inc. 3-d optical microscope
DE102007045834B4 (de) * 2007-09-25 2012-01-26 Metaio Gmbh Verfahren und Vorrichtung zum Darstellen eines virtuellen Objekts in einer realen Umgebung
DE102007045897A1 (de) * 2007-09-26 2009-04-09 Carl Zeiss Microimaging Gmbh Verfahren zur mikroskopischen dreidimensionalen Abbildung einer Probe
US20090174704A1 (en) * 2008-01-08 2009-07-09 Graham Sellers Graphics Interface And Method For Rasterizing Graphics Data For A Stereoscopic Display
WO2010065344A1 (en) 2008-11-25 2010-06-10 Refocus Imaging, Inc. System of and method for video refocusing
WO2010077625A1 (en) 2008-12-08 2010-07-08 Refocus Imaging, Inc. Light field data acquisition devices, and methods of using and manufacturing same
US8908058B2 (en) * 2009-04-18 2014-12-09 Lytro, Inc. Storage and transmission of pictures including multiple frames
US8749620B1 (en) 2010-02-20 2014-06-10 Lytro, Inc. 3D light field cameras, images and files, and methods of using, operating, processing and viewing same
US9389408B2 (en) 2010-07-23 2016-07-12 Zeta Instruments, Inc. 3D microscope and methods of measuring patterned substrates
US8768102B1 (en) 2011-02-09 2014-07-01 Lytro, Inc. Downsampling light field images
US9184199B2 (en) 2011-08-01 2015-11-10 Lytro, Inc. Optical assembly including plenoptic microlens array
US9420276B2 (en) 2012-02-28 2016-08-16 Lytro, Inc. Calibration of light-field camera geometry via robust fitting
US8811769B1 (en) 2012-02-28 2014-08-19 Lytro, Inc. Extended depth of field and variable center of perspective in light-field processing
US8948545B2 (en) 2012-02-28 2015-02-03 Lytro, Inc. Compensating for sensor saturation and microlens modulation during light-field image processing
US8995785B2 (en) 2012-02-28 2015-03-31 Lytro, Inc. Light-field processing and analysis, camera control, and user interfaces and interaction on light-field capture devices
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
DE102012009257B4 (de) * 2012-05-02 2023-10-05 Leica Microsystems Cms Gmbh Verfahren zur Ausführung beim Betreiben eines Mikroskops und Mikroskop
US9607424B2 (en) 2012-06-26 2017-03-28 Lytro, Inc. Depth-assigned content for depth-enhanced pictures
US10129524B2 (en) 2012-06-26 2018-11-13 Google Llc Depth-assigned content for depth-enhanced virtual reality images
US9858649B2 (en) 2015-09-30 2018-01-02 Lytro, Inc. Depth-based image blurring
US8997021B2 (en) 2012-11-06 2015-03-31 Lytro, Inc. Parallax and/or three-dimensional effects for thumbnail image displays
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US10334151B2 (en) 2013-04-22 2019-06-25 Google Llc Phase detection autofocus using subaperture images
WO2016033590A1 (en) 2014-08-31 2016-03-03 Berestka John Systems and methods for analyzing the eye
TWI549478B (zh) * 2014-09-04 2016-09-11 宏碁股份有限公司 產生三維影像的方法及其電子裝置
US9984494B2 (en) * 2015-01-26 2018-05-29 Uber Technologies, Inc. Map-like summary visualization of street-level distance data and panorama data
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US11328446B2 (en) 2015-04-15 2022-05-10 Google Llc Combining light-field data with active depth data for depth map generation
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10565734B2 (en) 2015-04-15 2020-02-18 Google Llc Video capture, processing, calibration, computational fiber artifact removal, and light-field pipeline
US10440407B2 (en) 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US9979909B2 (en) 2015-07-24 2018-05-22 Lytro, Inc. Automatic lens flare detection and correction for light-field images
US10445894B2 (en) * 2016-05-11 2019-10-15 Mitutoyo Corporation Non-contact 3D measuring system
US10275892B2 (en) 2016-06-09 2019-04-30 Google Llc Multi-view scene segmentation and propagation
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
CN106875485B (zh) * 2017-02-10 2020-09-01 中国电建集团成都勘测设计研究院有限公司 面向水电工程地质施工编录的现场三维坐标体系建立方法
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
US10545215B2 (en) 2017-09-13 2020-01-28 Google Llc 4D camera tracking and optical stabilization
DE102017123510A1 (de) * 2017-10-10 2019-04-11 Carl Zeiss Microscopy Gmbh Digitales Mikroskop und Verfahren zum Aufnehmen eines Stapels von mikroskopischen Bildern einer Probe
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
US10812701B2 (en) * 2018-12-13 2020-10-20 Mitutoyo Corporation High-speed tag lens assisted 3D metrology and extended depth-of-field imaging
CN111381357B (zh) * 2018-12-29 2021-07-20 中国科学院深圳先进技术研究院 图像三维信息提取方法、对象成像方法、装置及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05299048A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd 電子線装置および走査電子顕微鏡
JPH05340712A (ja) * 1992-06-11 1993-12-21 Olympus Optical Co Ltd 走査型プローブ顕微鏡リアルタイム表示装置
JPH0670212A (ja) * 1992-03-26 1994-03-11 Sony Corp 画像処理装置
JPH0937035A (ja) * 1995-07-17 1997-02-07 Ricoh Co Ltd 画像形成装置
JPH10198263A (ja) * 1997-01-07 1998-07-31 Tomotaka Marui 仮想現実空間を製作し表示する装置および仮想現実感による教育ソフトウェア
JPH1196334A (ja) * 1997-09-17 1999-04-09 Olympus Optical Co Ltd 画像処理装置
JP2000162504A (ja) * 1998-11-26 2000-06-16 Sony Corp 拡大観察装置
JP2000329552A (ja) * 1999-05-20 2000-11-30 Gen Tec:Kk 3次元地図作成方法
JP2001084944A (ja) * 1999-07-09 2001-03-30 Hitachi Ltd 荷電粒子線装置

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3982323A (en) * 1975-07-07 1976-09-28 Jake Matiosian Combination interpolator and distance divider
IL80364A (en) * 1986-10-20 1990-03-19 Elscint Ltd Three dimensional image construction using binary space interpolation
US5394268A (en) * 1993-02-05 1995-02-28 Carnegie Mellon University Field synthesis and optical subsectioning for standing wave microscopy
ZA948824B (en) * 1993-12-08 1995-07-11 Caterpillar Inc Method and apparatus for operating geography altering machinery relative to a work site
US5841892A (en) * 1995-05-31 1998-11-24 Board Of Trustees Operating Michigan State University System for automated analysis of 3D fiber orientation in short fiber composites
US6151404A (en) * 1995-06-01 2000-11-21 Medical Media Systems Anatomical visualization system
US5704025A (en) * 1995-06-08 1997-12-30 Hewlett-Packard Company Computer graphics system having per pixel depth cueing
US5748199A (en) * 1995-12-20 1998-05-05 Synthonics Incorporated Method and apparatus for converting a two dimensional motion picture into a three dimensional motion picture
JP3957816B2 (ja) * 1997-06-05 2007-08-15 富士通株式会社 フレーム間補間画像処理装置
US6037949A (en) * 1997-08-04 2000-03-14 Pixar Animation Studios Texture mapping and other uses of scalar fields on subdivision surfaces in computer graphics and animation
DE69730030T2 (de) * 1997-11-17 2005-07-21 MAX-PLANCK-Gesellschaft zur Förderung der Wissenschaften e.V. Konfokales Spektroskopiesystem und -verfahren
US6556704B1 (en) * 1999-08-25 2003-04-29 Eastman Kodak Company Method for forming a depth image from digital image data
JP3367934B2 (ja) * 2000-03-24 2003-01-20 株式会社コナミコンピュータエンタテインメントジャパン ゲームシステム、ゲームシステムにおける画像描画方法およびゲーム用プログラムが記憶されたコンピュータ読み取り可能な記録媒体
EP1199542A3 (de) * 2000-10-13 2003-01-15 Leica Microsystems Imaging Solutions Ltd. Verfahren und Vorrichtung zur optischen Vermessung eines Oberflächenprofils eines Objektes
DE10149357A1 (de) * 2000-10-13 2002-04-18 Leica Microsystems Imaging Sol Verfahren und Vorrichtung zur optischen Vermessung eines Oberflächenprofils eines Objektes
EP1436658B1 (de) * 2001-09-11 2008-06-18 Leica Microsystems CMS GmbH Verfahren und vorrichtung zur optischen untersuchung eines objektes
US7120286B2 (en) * 2001-11-21 2006-10-10 Mitutoyo Corporation Method and apparatus for three dimensional edge tracing with Z height adjustment
EP1428169B1 (en) * 2002-02-22 2017-01-18 Olympus America Inc. Focusable virtual microscopy apparatus and method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0670212A (ja) * 1992-03-26 1994-03-11 Sony Corp 画像処理装置
JPH05299048A (ja) * 1992-04-24 1993-11-12 Hitachi Ltd 電子線装置および走査電子顕微鏡
JPH05340712A (ja) * 1992-06-11 1993-12-21 Olympus Optical Co Ltd 走査型プローブ顕微鏡リアルタイム表示装置
JPH0937035A (ja) * 1995-07-17 1997-02-07 Ricoh Co Ltd 画像形成装置
JPH10198263A (ja) * 1997-01-07 1998-07-31 Tomotaka Marui 仮想現実空間を製作し表示する装置および仮想現実感による教育ソフトウェア
JPH1196334A (ja) * 1997-09-17 1999-04-09 Olympus Optical Co Ltd 画像処理装置
JP2000162504A (ja) * 1998-11-26 2000-06-16 Sony Corp 拡大観察装置
JP2000329552A (ja) * 1999-05-20 2000-11-30 Gen Tec:Kk 3次元地図作成方法
JP2001084944A (ja) * 1999-07-09 2001-03-30 Hitachi Ltd 荷電粒子線装置

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KUDO T ET AL: ""Recovering 3D shape and texture from continuous focus series: using a polarized filter"", PROCEEDINGS OF THE INTERNATIONAL CONFERENCE ON IMAGE PRECESSING(ICIP), vol. 1, JPN7008005884, 16 September 1996 (1996-09-16), US, pages 741 - 744, XP010202172, ISSN: 0001257163, DOI: 10.1109/ICIP.1996.559605 *
高島 照弘: ""画像処理Up−to−Data 入力デバイスの物理的限界を画像処理ソフトウェアで解決「analySI", 映像情報, vol. 第31巻,第23号, JPN6008037567, 1 December 1999 (1999-12-01), JP, pages 63 - 67, ISSN: 0001097401 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015524578A (ja) * 2012-07-18 2015-08-24 ザ、トラスティーズ オブ プリンストン ユニバーシティ マルチスケールスペクトルナノスコピー
CN106104356A (zh) * 2014-03-24 2016-11-09 卡尔蔡司显微镜有限公司 具有孔径相关的共聚焦显微镜
JP2017509028A (ja) * 2014-03-24 2017-03-30 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh 開口相関を有する共焦点顕微鏡
CN106104356B (zh) * 2014-03-24 2018-04-17 卡尔蔡司显微镜有限公司 具有孔径相关的共聚焦显微镜
US10754136B2 (en) 2014-03-24 2020-08-25 Carl Zeiss Microscopy Gmbh Confocal microscope with aperture correlation
JP2017058386A (ja) * 2015-09-14 2017-03-23 株式会社ニコン 顕微鏡装置および観察方法
JP2020508496A (ja) * 2017-04-07 2020-03-19 カール ツァイス マイクロスコピー ゲーエムベーハーCarl Zeiss Microscopy Gmbh 試料の三次元画像を撮影および表示するための顕微鏡装置

Also Published As

Publication number Publication date
WO2003036566A2 (de) 2003-05-01
EP1438697A2 (de) 2004-07-21
WO2003036566A3 (de) 2003-08-21
US20040257360A1 (en) 2004-12-23

Similar Documents

Publication Publication Date Title
JP2005521123A (ja) 光学顕微鏡検出3次元画像の生成方法及び生成装置
Rivers et al. Sculpting by numbers
EP1522051B1 (en) Discrete linear space sampling method and apparatus for generating digital 3d models
US20050122549A1 (en) Computer assisted hologram forming method and apparatus
Lee et al. Depth-of-field rendering with multiview synthesis
JP6921973B2 (ja) 試料の三次元画像を撮影および表示するための顕微鏡装置
JP2018514237A (ja) 歯科用3dスキャナ用のテクスチャマッピングの装置及び方法
CA2605347A1 (en) 3d image generation and display system
JP2003099799A (ja) 変化のないシーン内の静止した3dの物理的な物体の動きをシミュレートするための方法
JP2007514230A (ja) 3dイメージ表示画面上で3dシーンをレンダリングするコンピュータ・グラフィックス・プロセッサおよび方法
CN106772996B (zh) 一种增强现实操作方法及系统
Benton " Alcove" Holograms For Computer-Aided Design
JP6255008B2 (ja) 顕微鏡の稼働時に実施する方法および顕微鏡
JPH10111953A (ja) 画像処理方法および装置および記憶媒体
JP2003216973A (ja) 三次元画像処理方法、三次元画像処理プログラム、三次元画像処理装置および三次元画像処理システム
JP2018077702A (ja) 質感調整支援システム及び質感調整支援方法
JP2006140553A (ja) 立体画像生成プログラム、立体画像生成装置および立体画像生成方法
US20200233379A1 (en) Cell observation device
Soh et al. Texture mapping of 3D human face for virtual reality environments
KR20010096556A (ko) 입체영상 입출력 방법 및 장치
JP3693735B2 (ja) 画像合成装置
JP2005092549A (ja) 三次元画像処理方法および装置
Güssefeld et al. Are reflectance field renderings appropriate for optical flow evaluation?
DE10237470A1 (de) Verfahren und Vorrichtung zur Erzeugung lichtmikroskopischer, dreidimensionaler Bilder
JPH09245192A (ja) 仮想環境生成実現方法およびその装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051011

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20051219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060104

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20060104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20051219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080729

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081023

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081031

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081127

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20081204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20081222

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20090427

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20090508

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090818