JP2001502197A - 三次元仮想的検査を行うためのシステム及び方法 - Google Patents

三次元仮想的検査を行うためのシステム及び方法

Info

Publication number
JP2001502197A
JP2001502197A JP10513870A JP51387098A JP2001502197A JP 2001502197 A JP2001502197 A JP 2001502197A JP 10513870 A JP10513870 A JP 10513870A JP 51387098 A JP51387098 A JP 51387098A JP 2001502197 A JP2001502197 A JP 2001502197A
Authority
JP
Japan
Prior art keywords
dimensional
organ
data
virtual
navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP10513870A
Other languages
English (en)
Inventor
アリー イー カウフマン
リチョン ホン
ツェンロン リャン
マーク アール ワックス
アヤイ ヴィスワムバラン
Original Assignee
ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=24871098&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=JP2001502197(A) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク filed Critical ザ リサーチ ファウンデーション オブ ステイト ユニヴァーシティ オブ ニューヨーク
Publication of JP2001502197A publication Critical patent/JP2001502197A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B23/00Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
    • G09B23/28Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/147Details of sensors, e.g. sensor lenses
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20036Morphological image processing
    • G06T2207/20044Skeletonization; Medial axis transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/28Force feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Vascular Medicine (AREA)
  • Multimedia (AREA)
  • Computational Mathematics (AREA)
  • Educational Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Algebra (AREA)
  • Chemical & Material Sciences (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Physics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Medical Informatics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Processing Or Creating Images (AREA)
  • Magnetic Resonance Imaging Apparatus (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Electron Beam Exposure (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Casting Devices For Molds (AREA)

Abstract

(57)【要約】 本発明は、立体可視化技術を用いて器官(1301,1303)等の対象物の三次元可視化映像を発生し、オペレータがフライト経路に沿って移動し且つ関心のある映像の特定の部分に視野を調整することができる案内ナビゲーションシステムを用いて映像を検査し、可視化された器官中のポリープ(1305)、嚢胞又は他の異常な特徴等を認識するためのシステム及び方法に関する。同様に、可視化された対象物の中で認識された腫瘍又は集塊に対して、電子的な生体組織検査を行うことができる。

Description

【発明の詳細な説明】 三次元仮想的検査を行うためのシステム及び方法 技術分野 本発明は、計画ナビゲーション及び案内ナビゲーション技術を用いて立体に基 づく三次元仮想的検査を行うためのシステム及び方法に関する。一つの応用は仮 想的な内視を行うことである。 発明の背景 結腸癌は、世界的に主要な死因となり続けている。人の結腸の癌性腫瘍は初期 には大部分がポリープであるため、早期検出により、患者の回復のチャンスを大 幅に改善することができる。現在、患者の結腸にあるポリープ又は他の集塊を検 出する一般的な方法が二つある。第一の方法は、コロノスコープと呼ばれる可撓 性の光ファイバチューブを用い、人体の直腸の入口からスコープを入れることに よって可視的に結腸を検査するコロノスコピー法である。ドクターは、チューブ を操作して、結腸中の異常な腫瘍を全て探し当てることができる。コロノスコピ ーは信頼性があるが、比較的高価であり、時間がかかる上に、患者にとって体内 に挿入され、不快で、苦痛を伴う方法である。 第二の検出技術は、バリウムを浣腸し、結腸の二次元のX線映像を撮影する方 法である。バリウムの浣腸によりバリウムで結腸を覆い、二次元のX線撮影で結 腸の映像を捉える。しかしながら、バリウムの浣腸の方法は、常に結腸全体の映 像が得られるとは限らず、多くの予備的な処理及び患者の処置が必要であり、手 術を行う時は手術者に依存し、患者がかなりの放射線に曝され、コロノスコピー より感度が悪い。上述のような従来の方法における欠点により、更に信頼性があ り、体内に入ることが少なく、高価ではない結腸のポリープをチェックする方法 が望まれている。更に、人の、例えば肺のような他の器官を、信頼性高く、適正 な価格で、且つ患者の不快感が少なく検査する方法も望まれている。 コンピュータ化された断層X線写真法及びMRI(磁気共鳴撮像)のような現 在利用できる医療用撮像装置を用いる人の器官の二次元(2D)の可視化は、患 者の診断に広く用いられている。走査装置から得られる二次元映像を蓄積しその 間を補完することにより、三次元映像を形成することができる。一つの器官の映 像を撮影しその立体を三次元空間に可視化することは、人体への挿入がなく、デ ータの取扱いが容易であるという利点を有する。しかしながら、三次元立体映像 の検査は、器官の内側から仮想的に見る利点を高度に利用するために適正に実行 する必要がある。 或る環境の三次元(3D)立体の仮想的映像を見る場合、仮想的空間を検査す るために機能的モデルを用いる必要がある。一つの可能なモデルは、検査者にと って仮想的空間を検査するための基準点として用いることができる仮想的カメラ である。通常の3D仮想的環境中におけるナビゲーションのようなカメラ制御が 既に研究されている。仮想的空間のナビゲーションのために提案されているカメ ラ制御には従来から二つの型がある。第一はオペレータがカメラの全ての制御を 行うことであり、オペレータは、望みの視野を得るためにカメラを種々の位置及 び方向に操作することができる。オペレータは、実際にはカメラのパイロットに なる。これにより、オペレータは、関心がある特定の部分を検査し他の部分を無 視することができる。しかしながら、広い範囲におけるカメラの完全な制御は退 屈で疲れることであり、オペレータは、検査の開始点から終了点までの全ての重 要な特徴を見ることはできないものと思われる。不注意なオペレータ又は予期し ない障害により、カメラは、容易に、離れた領域については「ロスト」を起こし 又は一つの壁面に「クラッシュ」し得る。 カメラ制御の第二の技術は、計画ナビゲーション法であり、これは、予め定め られた撮影経路をカメラに設定し、オペレータが変更できないようにする方法で ある。これは予約された「自動パイロット」に近い。これにより、オペレータは 見ている仮想的空間に注意を集中することができ、検査している環境の壁面に向 かって進むことを心配する必要がなくなる。しかしながら、この第二の技術は、 検査者がコースを変更し、又は、経路に沿って見える関心のある領域を深く検査 するというような柔軟性を持っていない。 上述の二つのナビゲーション技術の両者の利点を活用するためには、両技術に ついて、それぞれの欠点を小さくする両者の組合せを用いることが望ましいよう に思われる。検査の間を通して非挿入で苦痛なしを達成するためには、仮想的3 D空間に表示されている人又は動物の器官の検査に、柔軟性があるナビゲーショ ン技術を適用することが望ましいように思われる。望ましいナビゲーション技術 は、更に、オペレータに柔軟性を与え一方で器官を通り又は器官を周る円滑な経 路及び完全な検査を保証し、オペレータによる3D空間中の仮想的な器官の完全 な検査を可能にすることであるように思われる。更に、器官を見るために必要な 計算を最小限にする技術を用い、リアルタイムで器官の検査を表示できるように することが望ましい。望ましい技術は、更に他の仮想的な対象物にも同様に応用 されるものでなければならない。 本発明の概要 本発明は、立体の可視化技術を用いて、人の器官のような対象物の三次元可視 化映像を発生し、案内ナビゲーションシステムを用いて仮想的映像を検査する。 案内ナビゲーションシステムにおいては、オペレータが予め定められたフライト 経路に沿って移動することができ、予め定められた経路から映像中の特定の関心 のある部分に位置及び視角の両者を合わせ、ポリープ、嚢胞又は他の器官の異常 な特徴を認識することができる。 対象物の三次元仮想的検査のための発明的技術は、対象物を立体要素で不連続 的に表示すること、検査されるべき対象物の部分を決定すること、仮想的対象物 中でナビゲーション操作が行われること及びナビゲーションの間にリアルタイム で仮想的対象物が表示されることを含む。 三次元仮想的検査のための発明的技術が患者の器官に適用される場合は、必要 な場合に走査するための器官を準備状態にすること、器官を走査すること及びデ ータを立体要素に変換すること、検査されるべき対象物の部分を決定すること、 仮想的器官中で案内ナビゲーション操作を行うこと及びナビゲーションの間にリ アルタイムで仮想的対象物を表示することを含む。 本発明の目的は、比較的苦痛が少なく、高価ではなく、且つ挿入がなく、走査 された器官の実際の解析を患者がいなくても実行できる、生体の器官の内部の検 査を行うためのシステム及び方法を提供することにある。器官をリアルタイムで 走査し且つ可視化するか、又は、格納されたデータを後刻可視化することができ る。 本発明の他の目的は、一つの器官のような対象物の3D立体表示を発生するこ とである。この場合、対象物の範囲を層毎に剥がして、映像化された対象物の範 囲の副表面解析を行うことができる。一つの対象物(例えば器官)の表面を透明 に又は半透明にすることにより、対象物の壁面の中側又は背後の他の対象物を見 ることができる。更に、対象物をスライスし、対象物の特定の断面を検査するこ とができる。 本発明の他の目的は、ポテンシャル場を用いて例えば一つの器官のような対象 物の3D立体を表示する、案内ナビゲーションのシステム及び方法を提供するこ とである。 本発明の更に他の目的は、上述のような層毎に剥ぐ技術を用いて例えば一つの 器官のような対象物の中を仮想的に飛び抜けるために、その中心線を計算するこ とである。 本発明の更に他の目的は、可視スクリーンを発生するために必要な計算の数を 小さくするために、修正Zバッファ技術を用いることである。 本発明のもう一つの目的は、表示中の各立体要素に不透明係数を設定し、特定 の立体要素を透明又は半透明にして透明度を変化させ、見るべき対象物の部分の 可視化を自由に行うことができるようにすることである。更に、不透明係数を用 いて対象物の一部分を合成することができる。 図面の簡単な説明 本発明の好適な実施例を示す添付の図面を用いて行われる以下の詳細な説明に より、本発明の他の目的、特徴及び利点が明らかとなろう。図面は下記のとおり である。 図1は、本発明により対象物、特に結腸の仮想的検査を行うための諸ステップ を示すフローチャートであり、 図2は、仮想的器官中で案内ナビゲーションを行う「潜水艦」カメラモデルを 示す図であり、 図3は、「潜水艦」カメラのピッチ及びロールをモデル化するために用いられ る振り子を示す図であり、 図4は、結腸の立体測定のための二次元断面図中に、二つのブロック壁面を示 す図であり、 図5は、結腸の立体測定のための二次元断面図中に、最初及び最後として選択 された立体要素を示す図であり、 図6は、結腸の立体測定のための二次元断面図中に、ブロック壁面及び結腸表 面で囲まれた不連続の副立体を示す図であり、 図7は、結腸の立体測定のための二次元断面図中に、剥き取られた複数の層を 示す図であり、 図8は、結腸の立体測定のための二次元断面図中に、残っているフライト経路 を示す図であり、 図9は、走査した器官を立体として可視化する諸ステップを示すフローチャー トであり、 図10は、セルに分割された仮想的結腸を示す図であり、 図11Aは、仮想的に検査されている器官を示す図であり、 図11Bは、図11Aの器官を描画する際に発生するスタブツリーを示す図であり、 図11Cは、図11Aの器官を描画する際に発生する他のスタブツリーを示す図であ り、 図12Aは、視野の或るセルの中に対象物を表示する図であり、 図12Bは、図12Aの表示を描画する際に発生するスタブツリーを示す図であり、 図12C−図12Eは、図12Aの表示を描画する際に発生する他のスタブツリーを示 す図であり、 図13は、ポリープを含み、その層を除去することができる、仮想的結腸の二次 元表示を示す図であり、及び 図14は、本発明により、人の器官の仮想的検査を行うために用いられるシステ ムを示す図である。 詳細な説明 この出願に記載された方法及びシステムは検査されるべき全ての対象物に適用 することができるが、以下に述べる好適な実施例は、人体の器官、特に結腸の検 査に関するものである。結腸は長く且つ折れ曲がっているため患者の金銭的並び に人体用プローブの不快性及び危険性の両者の負担が大きいが、これらを軽減す るために仮想的検査が特に適している。検査することができる器官の他の例は、 肺、胃並びに消化器系、心臓及び血管の一部分である。 図1は、立体可視化技術を用いて仮想的結腸内視を行うために必要な諸ステッ プを示す図である。ステップ101では、走査すべき結腸について、ドクター又は 特定の走査装置のいずれかによって要求された場合に、検査のために見えるよう にするための準備を行う。この準備は、「カクテル」即ち口から摂取され胃を通 過して結腸に入る液体で結腸を洗浄することを含む。このカクテルは、患者の結 腸の中に存在する老廃物を排出させる。主として用いられる例は「ゴリテリ」で ある。更に、結腸の場合は、空気又はCO2を結腸の中に送り込み、それを膨張 させ、走査及び検査を容易にすることができる。直腸に入れた細いチューブを用 いて約1,000ccの空気をポンプで結腸の中に送り込むことにより、結腸を膨張さ せることができる。用いる走査装置の型により、結腸壁面自体と結腸中にある老 廃物とを区別するために、排出されない便を被覆するバリウムのような造影剤を 患者が飲むことが必要である。他方、結腸を仮想的に検査する方法は、この明細 書で後述するように、仮想的検査に先立って又は検査中に、仮想的老廃物を除去 することができる。図1には点線で示されているように、ステップ101は、全て の検査で実行しなければならないということはない。 ステップ103では、検査されるべき器官を走査する。走査装置としては、結腸 を走査する場合にはスパイラルのCTスキャナー、例えばキセノンガスで標識付 けされた肺を走査するためにはZenitaのMRIマシン等、既知の通常の装置を用 いることができる。走査装置は、立体可視化のために必要なデータを生成するた めに、呼吸を止めている間に人体の周りの種々の位置から複数の映像を得ること ができなければならない。一つのCT映像の例は、5mm幅、1:1又は2:1の ピッチ、視野40cmで、結腸の脾臓湾曲部の頂点から直腸までを撮影できるX線ビ ームを用いるものである。 前記の対象物の不連続的なデータの表示は、走査以外の他の方法によっても生 成することができる。1988年7月26日に出願され1991年8月8日に発行されたKa ufmanによる米国特許第5,038,302号「連続的三次元幾何学的表示を三次元ヴ ォクセルシステムにおける不連続的三次元ヴォクセル表示に変換する方法」(Met hod of Converting Continuous Three-Dimensional Geometrical Represen-tati ons into Discrete Three-Dimensional Voxel-Based Representations Within a Three-Dimensional Voxel-Based System)に開示されている技術を用いて、幾何 学的モデルから、対象物を表すヴォクセルデータを導出することができる。更に 、映像のコンピュータモデルによって生成したデータを三次元ヴォクセルに変換 し、本発明によって検査することができる。この型のデータの一つの例は、スペ ースシャトル飛行機の周囲における乱気流のコンピュータシミュレーションであ る。 ステップ104では、走査された映像を三次元立体要素(ヴォクセル)に変換す る。結腸を検査するための好適な実施例においては、走査データは1mm又は2.5m m毎に5mmの厚さの切片にフォーマットし直され、各切片は512×512ピクセルの マトリクスとして表される。このように多数の2D切片は、走査の長さに依存し て生成される。この2D切片の組は、次に3Dヴォクセルに再構成される。走査 装置から得られる2D映像を3Dヴォクセルに変換するプロセスは、既知の技術 (例えば、1988年11月11日に出願され1991年1月15日に発行されたKaufman他に よる米国特許第4,985,856号「ヴォクセルデータの格納、アクセス及び処理のた めの方法及び装置」(Method and Apparatus for Storing,Accessing and Proce ssing Voxel-based Data)参照)を用いて、走査マシン自体により又はコンピュ ータのような独立のマシンによって実行することができる。 ステップ105では、選択した器官について検査すべき部分をオペレータが決定 することを可能にする。医師が、ポリープが見えるとして結腸の特定の部分に関 心を持つことがある。医師は、検査すべき部分を示す二次元切片の全体マップを 見ることができる。見る経路の開始点及び終了点は、医師/オペレータが表示す ることができる。結腸の検査すべき部分を示すために、通常のコンピュータ及び コンピュータインターフェース(例えば、キーボード、マウス又はスペースボー ル)を用いることができる。キーボード入力のために座標を有するグリッドシス テムを用いることができ、又は、医師/オペレータが所望の点を「クリック」す ることができる。更に、必要な場合は、結腸の全体映像を見ることができる。 ステップ107では、検査する仮想的器官の計画ナビゲーション及び案内ナビゲ ーションの操作を実行する。案内ナビゲーション操作の実行は、予め定められる か又は自動的に定められ、且つ何時でもオペレータが手動で調整することができ るフライト経路を通ってナビゲートするように行う。走査データを3Dヴォクセ ルに変換し後、選択した開始点から選択した終了点まで器官の内部を移動する。 仮想的検査は、終了点に向いたレンズを具えて仮想的空間を通って移動する小さ いカメラを持つようにモデル化される。案内ナビゲーション技術はカメラとの対 話のレベルを具えているので、オペレータが対話を行わない場合は、カメラが仮 想的環境を自動的に通ってナビゲートすることができ、同時に必要な時にオペレ ータがカメラを操作することができる。案内ナビゲーションを達成する好ましい 実施例においては、カメラの動きを制御するために、図2及び3に詳細に図示さ れているような、ポテンシャル場を用いる物理的なカメラモデルを使用する。 ステップ109は、案内ナビゲーション操作のために選択された経路に沿ってカ メラモデルの視点から器官の内側を表示するステップであり、ステップ107と同 時に実行することができる。マーチングキューブ技術のような既知の技術を用い て、三次元表示を発生することができる。しかしながら、結腸のリアルタイム表 示を生成するためには、仮想的器官の表示のために必要なデータの莫大な計算量 を減らさなければならない。図9は、この表示ステップを更に詳細に示す図であ る。 図1に示された方法は、人体の複数の器官を同時に走査するために用いること ができる。例えば、患者の結腸と肺との両者について癌性腫瘍を検査することが できる。図1の方法は、ステップ103で関心のある全ての領域を走査し、ステッ プ105で、検査する対象物としてその器官を選択するように修正することができ る。例えば、医師/オペレータは仮想的に検査する対象物として最初に結腸を選 択し、後で肺を検査してもよい。その代わりに、専門が異なる2人の別のドクタ ーが、別に走査された器官のうちそれぞれの専門に関する器官を仮想的に検査す ることができる。ステップ109に続いて、次に検査すべき器官を選択し、その部 分を決定し、検査する。これは、全ての器官について必要な検査が終了するまで 続けられる。 図1について説明した諸ステップは、立体要素によって表すことができる全て の対象物の検査に適用することができる。例えば、階層構造又は無生物について も同様に表示し検査することができる。 図2は、ステップ107で案内ナビゲーション技術を実行する「潜水艦」カメラ 制御モデルを示す。案内ナビゲーションの間にオペレータが制御を行わない時の ために予め定められたナビゲーションは、計画ナビゲーションと同様である。計 画ナビゲーションでは、カメラがフライト経路に沿って結腸の選択された一端か ら他端へ自動的に向く。計画ナビゲーションフェーズの間、結腸表面のよりよい 視野を得るために、カメラは結腸の中心から外れないようにする。関心のある領 域に出会うと、仮想的カメラのオペレータは、案内ナビゲーションを用いて、対 話的に、カメラを、結腸の壁面との望ましくない衝突を避けながら、特定の部分 に近づけ、カメラの動き及び角度を、関心のある領域を詳細に検査できる方向に 向ける。オペレータは、キーボード、マウスのような標準的なインターフェース 装置又はスペースボールのような非標準的な装置を用いてカメラを制御すること ができる。仮想的環境でカメラを完全に操作するためには、カメラについて6個 の自由度が必要である。カメラは、仮想的環境で全ての方向及び角度で移動し且 つ走査できるためには、水平、垂直、及びZ方向(軸217)に動くことができなけ ればならず、更に他の3個の自由度(軸219)で回転できなければならない。案内 ナビゲーションのためのカメラモデルは、伸ばすことができず且つ無重量で二つ の粒子x1203とx2205とを結合するロッド201を含む。二つの粒子は両者共ポテ ンシャル場215の中にある。このポテンシャル場は、器官の壁面で最大になるよ うに定義されており、これによりカメラが壁面で押し戻される。 粒子の位置はx1及びx2で与えられ、それらは同一の質量mを有する。カメラ は潜水艦の頭部x1203に装着され、その視線は、ベクトルx1→x2に一致する。 潜水艦は、以下に定義されるポテンシャル場V(x)からの応力、摩擦力及び擬 制外力によって影響を受けながら、移動及びモデルの質量の中心xの周りの回転 を行う。x1、x2及びxの間の関係は以下のとおりである。 x=(x,y,z), r=(r sinθ cosφ,r sinθ sinφ,r cosθ), x1=x+r, x2=x−r, (1) ここで、r、θ及びφは、ベクトルx1→x2の極座標である。モデルの運動エネ ルギーTは、x1及びx2の動きの運動エネルギーの和として以下のように定義さ れる。 次に、ラグランジュの式を用いて潜水艦モデルの動きについての方程式が以下の ように得られる。 ここで、qjはモデルの一般化座標であり、以下のように時間tの関数と考える ことができる。 (q1,q2,q3,q4,q5,q6)=(x,y,z,θ,φ,ψ)=q(t) (4) ここで、ψは後述するこのカメラ系の回転角を示す。Fiを一般化応力と呼ぶ。 潜水艦の制御はx1に擬制外力 Fext=(Fx,Fy,Fz) を加えることによって行い、x1及びx2の両者共、ポテンシャル場からの応力及 び各粒子の速度と逆の方向に作用する摩擦によって影響を受けると仮定する。そ の結果、一般化応力は、次式で表される。 ここで、kは系の摩擦係数を表す。図2に示されるように、オペレータがマウス のボタンを単にクリックするだけで、発生された映像中の所望の方向207に外力 Fextが印加される。続いてこのカメラモデルがその方向に動く。これにより、 オペレータがマウスのボタンを単にクリックするだけで、カメラの少なくとも5 個の自由度を制御できる。式(2)、(3)及び(5)から、この潜水艦モデル の五つのパラメータの加速度を以下のように導出することができる。 それらは潜水艦の角速度の交換に関係する。このモデルは潜水艦のロッドについ ての慣性モーメントを持っていないので、これらの項はφの数値計算のオーバー フローを引き起こし易い。幸運なことに、これらの項は、潜水艦モデルの角速度 が意味を持って来る時、即ち、本質的にカメラが早く動き過ぎる時にのみ、意味 を持つようになる。カメラが早く動き過ぎると器官が正しく見えないため、カメ ラを過度に早く動かすことは意味が無いので、この実施例ではこれらの項は小さ く、オーバーフローの問題は起きない。 式(6)の初めの三つの式から、の条件を満足すると、ポテンシャル場と逆の外力によって潜水艦を進めることが できないことが分かる。この実施例では、対象物の境界で充分に大きいポテンシ ャル値を与えることにより、潜水艦の速度及び外力Fextに上限を設けているの で、潜水艦が対象物又は環境の壁面に衝突しないことが保証される。 上述したように、カメラ系の回転角ψについて検討する必要がある。一つの可 能なオプションにより、オペレータが角ψを完全に制御することが可能になる。 しかしながら、オペレータがカメラをモデルのロッドの周りに自在に回転できる としても、オペレータが方向を見失うことが容易に起こり得る。図3に示すよう に、カメラの上方向が潜水艦のロッドの周りを自在に回転する質量m2の振り子3 01に結合していると仮定することが好ましい技術である。振り子の方向r2で表される。潜水艦の動きに沿ったこの振り子の正確な動きを計算することは可 能であるが、系の方程式が極めて複雑になる。従って、回転角ψ以外の全ての一 般化座標は一定であると仮定し、振り子系についての独立の運動エネルギーを のように定める。これは、回転角についてのモデルを簡略化する。このモデルに おいては、重力 Fg=m2g=(m2x,m2y,m2z) が質点m2に作用すると仮定しているので、ψの加速度は、ラグランジュの式を 用いて のように導出される。式(6)及び(7)から、一般化座標q(t)及びそれらの 導関数q(t)が のようなテイラー級数を用いて漸近的に計算され、潜水艦を自在に動かす。潜水 艦の動きをスムーズにするための時間ステップhは、動きをスムーズにするため には可能な限り小さく、一方、計算コストを低くするためには可能な限り大きく する必要があるので、その間の平衡値が選択される。 ポテンシャル場の決定 図2における潜水艦モデル中のポテンシャル場は、境界部分に高いポテンシャ ルを設定することにより仮想的器官中の境界(壁面又は他の境界)が定められ、 潜水艦カメラが壁面又は他の境界に衝突しないようにされている。オペレータが ポテンシャルの高い領域にカメラモデルを移動しようとすると、カメラモデルは 止められる。但し、例えば、オペレータが境界の先の器官又はポリープの内側を 検査しようとする場合は例外である。仮想的コロノスコピーを実行する場合、結 腸の各立体データ片(立体要素)にポテンシャル場の値を設定する。関心のある 特定の範囲が図1のステップ105において開始点及び終了点として表されている 場合には、走査される結腸の選択された領域中のヴォクセルが通常のブロック操 作を用いて識別される。続いて、終了点からの距離dt(x)、結腸表面からの距離 ds(x)、及び結腸空間の中心からの距離dc(x)の三つの距離の値に基づいて選択 された立体におけるそれぞれのヴォクセルxに、ポテンシャル値が設定される。 dt(x)は通常の成長法を用いて計算される。結腸表面からの距離ds(x)は、表面 のヴォクセルから内側へ成長する通常の技術を用いて計算される。dc(x)を求め る場合は、最初にヴォクセルから結腸の中心線が引かれ、次に通常の成長法を用 いて結腸の中心線から計算される。 ユーザーが特定した開始点及びユーザーが特定した終了点によって定められた 結腸の選択された領域の中心線を計算するためには、ds(x)の最大値を求め、こ れをdmaxと書く。次に、関心のある領域の内側の各ヴォクセルについてdmax −ds(x)を求める。このように、結腸表面に近いヴォクセルは高いコスト値を持 ち、中心線に近いヴォクセルは比較的低いコスト値を持つ。次にコスト付与に基 づいて、既知の一元最短経路技術を適用し、開始点から終了点への最小コスト経 路を効率的に計算する。この低コスト線は、結腸の検査しようとしている部分の 中心線又はスケルトンを示す。中心線を求めるためのこの技術は、本発明の好ま しい技術である。 関心のある領域の内側のヴォクセルxに対するポテンシャル値V(x)を計算す るためには、式 を用いる。ここで、C1,C2,μ及びνはタスクについて選択される定数である。 仮想的カメラと仮想的結腸表面との衝突を避けるため、結腸の外側の全ての点に ついて充分に大きいポテンシャル値を付与する。従って、ポテンシャル場の傾斜 が著しくなるので、潜水艦モデルのカメラが走行する際に結腸壁面に衝突するこ とはない。 結腸中の経路の中心線を求めるための他の技術は、「層剥離」技術と呼ばれ、 図4乃至図8に示されているものである。 図4は、結腸の立体測定のための2D断面を示す図であり、結腸の二つの壁面 401及び403が図示されている。オペレータが二つのブロック壁面を選択し、結腸 の検査の対象物となる部分を決定する。このブロック壁面の背後には何も見えな い。これは仮想的表現を表示する際の計算の数を減らすために役立つ。ブロック 壁面と側壁面とによって、検査すべき結腸の立体測定のための形状が確定される 。 図5は仮想的検査のフライト経路の両端の点、即ち開始点の立体要素501及び 終了点の立体要素503を示す図である。開始点及び終了点は図1のステップ105で オペレータにより選択される。開始点と終了点との間の結腸の内側にあるヴォク セルが、図6に「x」で示された領域によって表示されているように、認識され マークされる。ヴォクセルは、画素の三次元表現である。 次に、図6で識別されマークされたヴォクセルに層剥離技術を適用する。全て のヴォクセルの最も外側の層(結腸壁面に近い層)を、ヴォクセルの内側層の一 つだけを残して段階的に剥離する。言い換えると、中心点から離れた各ヴォクセ ルの除去を、そのヴォクセルの除去が開始ヴォクセルと終了ヴォクセルとの間の 経路を切断しない場合に行う。図7は、仮想的結腸中のヴォクセルの剥離を多数 回繰り返した後の中間結果を示す。結腸の壁面に最も近いヴォクセルは既に除去 されている。図8は、全ての剥離を繰り返した後の状態を示す図であり、結腸の 中心に沿ってカメラモデルが動くための最終のフライト経路を示す。これは本質 的に結腸の中心にスケルトンを生成し、カメラモデルの所望のフライト経路にな る。 可視化を助けるZバッファ 図9は、器官の仮想的三次元立体表現の中でカメラモデルが見た仮想的映像を 表示するためのリアルタイム可視化技術を説明する図である。図9は、図1のス テップ109に対応する修正Zバッファを用いる表示技術を示す。カメラモデルか ら見ることができるヴォクセルの数は極めて大きい。計算して可視化すべき要素 (又は多角形)の数が走査環境における全体のヴォクセルから減らない場合、内 側領域が広い場合には計算の総数が多いため、可視化表示プロセスが著しく遅く なる。しかしながら、本発明によれば、表示のためには、結腸の表面上で見るこ とができる映像のみを計算すればよい。走査環境を小さい部分、即ちセルに分割 することができる。従って、Zバッファ技術はカメラから見えるセルの部分のみ を表示する。Zバッファ技術は、更に、三次元ヴォクセル表現のために用いられ る。修正Zバッファ技術を用いると、計算すべき可視ヴォクセルの数が減り、医 師又は医療技術者による仮想的結腸のリアルタイムの検査が可能になる。 ステップ107で中心線が計算された関心のある領域を、表示技術を適用する前 にセルに分割する。セルは、可視ユニットになるヴォクセルの集合グループであ る。各セル中のヴォクセルは、グループとして表示される。各セルは多数の門を 含み、それを通して他のセルを見ることができる。結腸は、選択された開始点に おいて、終了点に向かい中心線1001に沿って最初に分割される。次に結腸は、中 心経路に沿って予め定められた閾値距離に達した場合、セルに分割される(例え ば、図10のセル1003,1005及び1007)。閾値距離は、可視化技術が実行されるプ ラットフォームの仕様並びに、その記憶及び処理の能力に基づく。セルのサイズ は、プラットフォームによって記憶及び処理されるヴォクセルの数に直接関係す る。閾値距離の一つの例は5cmであるが、この距離は大きく変わり得る。図10に 示すように、各セルは、セルの外側を見るための門として二つの断面を持つ。 図9のステップ901では、選択された器官の中の現在カメラを含んでいるセル を認識する。現在のセル及びカメラの向きにより見ることができる他のセルが表 示される。ステップ903では、カメラから(定められた門を通して)見える可能 性のあるセルの階層データのスタブツリー(ツリー図)を構成する。これの詳細 については後に説明する。このスタブツリーは、カメラから見える可能性がある 各セルに対するノードを含む。一部のセルは遮蔽物が存在せずに透明である可能 性があるため、一つの方向に1以上のセルが見える場合がある。ステップ905で は、隣接しているセルの縁部の交点を含むセルからのヴォクセルの部分的な組を 記憶し、それらをスタブツリーの外側縁部に記憶し、それにより、見えるセルを より効率的に決定する。 ステップ907では、スタブツリー中にループノードが存在するか否かをチェッ クする。一つのセルの2以上の縁部が同一の隣接セルと接している場合に、ルー プノードが発生する。これは、一つのセルが他の一つのセルに取り囲まれている 時に発生することがある。スタブツリー中にループノードが認識されると、この 方法はステップ909に続く。ループノードが存在しない場合は、処理はステップ9 11に進む。 ステップ909では、ループノードを形成している二つのセルを一つの大きいノ ードに統合する。このようにしてスタブツリーは正常に戻る。これにより、ルー プノードのために同一のセルを2回見るという問題が解消される。このステップ は、認識された全てのループノードで実行される。処理は次にステップ911に進 む。 次に、ステップ911ではZの最大値でZバッファを初期化する。Z値はスケル トン経路に沿ったカメラからの距離を決定する。次に、ツリー上を移動して、各 ノードにおける交点値の最初のチェックを行う。ノード交点がカバーされている 場合、即ち現在の門のシーケンスが閉じられている場合(Zバッファ試験によっ て決定される)は、ツリーの現在のブランチ上の移動を中止する。ステップ913 では、各ブランチを移動してノードがカバーされているか否かをチェックし、カ バーされていない場合にそれを表示する。 ステップ915では、例えば合成による立体描写のような既知の種々の技術のう ちの一つを用いて、ステップ913で認識された見えるセルの中の立体要素からオ ペレータのスクリーンに表示する映像を構成する。見える可能性のあるセルと定 められたセルのみが表示される。この技術は、計算を必要とするセルの数を限定 することによりリアルタイムの表示を達成し、これに対応して表示速度を上げ、 性能を向上させる。この技術は、実際に見えると否とにかかわらず見える可能性 のある全てのデータ点を計算する従来の技術を改善するものである。 図11Aは、案内ナビゲーションによって検査されている器官を、オペレータが 見ることができるように二次元で表示した図である。器官1101には、二つの側壁 面1102及び経路の中心の対象物1105が見える。この器官は4個のセルA1151、B 1153、C1155及びD1157に分割されている。カメラ1103はセルD1157の方向を向 いており、視野ベクトル1107,1108によって定められる円錐形の視野を持つ。見 える可能性のあるセルは、セルB1153、C1155及びD1157である。セルC1155は 周囲を完全にセルBで取り囲まれており、これはノードループを構成する。 図11Bは、図11Aのセルから作られたスタブツリーを表す図である。カメラを含 むノードA1109がツリーのルーツにある。遮蔽物なしに見える1本の線又は視野 円錐がノードB1110から引かれている。ノードBはノードC1112及びノードD11 14の両者に対して直接見える視線を持つ。図には、これらが双方を結ぶ矢印で示 されている。ノードC1112のカメラを見る方向の視線は、ノードB1110に結ばれ ている。このため、ノードC1112とノードB1110とは、図11Cに示すように、一 つの大きいノードB'1122に統合される。 図11Cは、カメラを含むノードA1109、それに隣接するノードB'1122(ノード B及びノードCの両者を含む)及びノードD1114を示す図である。ノードA、B ’及びDが少なくとも部分的にオペレータに表示される。 図12A−12Eは、視界を遮る対象物を含むセルを有する修正Zバッファの使用 を説明する図である。対象物は、仮想的結腸の一部における老廃物であってもよ い。図12Aは、10個のポテンシャルセルA1251,B1253,C1255,D1257,E1 259,F1261,G1263,H1265,I1267及びJ1269を持つ仮想的空間を示す図で ある。これらのうちの幾つかが対象物を含む。カメラ1201が視野ベクトル1203で 表されるように、セルI1267中に位置しセルF1261の方向に向いている場合、ス タブツリーは、図9のフロー図に示された技術によって発生される。図12Bは交 点ノードで発生されたスタブツリーを示す図であり、これは、図12Aと同様の仮 想的表現を示す。セル11267がカメラ1201を含んでいるので、図12BではセルI12 67をツリーのルーツノードとして示す。セルFがカメラの視線に直接結合されて いるので、ノード11211は(矢印で示すように)ノードF1213を指している。ノ ードF1213は、ノードB1215及びノードE1215の両者を指している。ノードB12 15はノードA1217を指している。ノードC1202はカメラ1201による視線から完全 に遮蔽されているので、スタブツリーには含まれない。 図12Cは、ノードI1211がオペレータに対して表示された後のスタブツリーを 示す図である。ここではノードI1211は既に表示されたのでスタブツリーから消 えており、ノードF1213がルーツになっている。図12Dは、ノードF1213がノー ドI1211に合体する状態を示す。次に、ツリー中で矢印で結合された次のノード に対し、既にカバーされたか(既に処理されたか)否かのチェックを行う。この 例では、セルI1267中に位置するカメラからの交点ノードの全てがカバーされた ので、ノードB1215(及び従って従属ノードA)をディスプレイに表示する必要 はない。 図12Eは、ノードE1219が、その交点が既にカバーされたか否かを見るための チェックを受ける状態を示す図である。これは終了しているので、この図12A−1 2Eの例で表示されたノードはノードI及びFであり、一方、ノードA、B及びE は見ることができず、これらのセルを表示するための準備を行う必要はない。 図9に示した修正Zバッファ技術により、計算をより少なくすることができ、 ヴォクセル又は例えば多角形のような他の立体要素で表されている対象物に適用 することができる。 図13は、一つの壁面に沿って大きいポリープが存在する結腸の仮想的な二次元 像を示す図である。図13は、更に検査することが必要とされた患者の結腸の選択 された部分を示す。この図には、二つの結腸壁面1301及び1303、並びに腫瘍1305 が示されている。層1307、1309及び1311は腫瘍の内層を示す。医師にとっては、 ポリープ又は腫瘍の層を剥ぎ取り、本体の内側で癌性又は他の有害なものを検査 できることが望ましい。このプロセスは、実際には、本体を切り開くことなく本 体の仮想的な生体組織検査を実行することになる。結腸が一旦仮想的にヴォクセ ルによって表されると、対象物の層の剥離処理は図4乃至8に関して説明したと 同様の方法で容易に実行される。更に、本体をスライスすることができ、それに より、特定の断面を検査することができる。図13においては、平面カット1313を 行うことができ、それにより腫瘍の特定の部分を検査することができる。更に、 任意の方法により、腫瘍からユーザーが決めた切片1319を切取ることができる。 ヴォクセル1319については、以下に説明するように、剥ぎ取るか又は修正するか いずれをも行うことができる。 関心のある領域中の各ヴォクセルに対して変換機能を実行することができ、各 ヴォクセルに対する透明度を表す係数を変えることにより、対象物を透明、半透 明又は不透明にすることができる。ヴォクセルの密度に応じて各ヴォクセルの不 透明係数を定める。次に、マッピング機能が密度値を、透明度を表す係数に変換 する。走査された高密度のヴォクセルは、単純なオープンの空間に面した壁面又 は他の密度の高い部分を表す。次に、オペレータ又はプログラムルーチンが、ヴ ォクセル又はヴォクセル群の不透明係数を、それらのヴォクセル又はヴォクセル 群が潜水艦カメラモデルから透明又は半透明に見えるように、変換することがで きる。例えば、オペレータは、腫瘍全体の内側又は外側の腫瘍部分を見ることが できる。また図9の表示ステップにおいては、透明なヴォクセルについてそれら が存在しないように見せることができる。対象物の部分におけるヴォクセルの不 透明係数の加重平均を用いることにより、その部分の合成を行うことができる。 医師が癌性の部分を検査するためポリープの種々の層を見ることを望む場合、 ポリープ1305の外側の層を除去して第1の層1307を得ることにより、これを実行 することができる。更に、第1の内側の層1307を剥ぎ取り第2の内側の層1309を 見えるようにすることができる。第2の内側の層を剥ぎ取り第3の内側の層1311 を見えるようにすることができる。以下同様である。更に、医師はポリープ1305 をスライスし、所望の断面中のヴォクセルのみを見ることができる。スライスす る領域は完全にユーザーが決めることができる。 更に、仮想的システムの探索を助けるために、不透明係数を他の方法で同様に 用いることができる。老廃物が存在し、或る既知の範囲の中の他の物と同様の密 度を持つ場合、検査の間老廃物の不透明係数を変えることにより、仮想的カメラ に対して老廃物を透明にすることができる。これにより、患者が手術の前に腸洗 浄剤を飲む必要がなくなり、検査を迅速に且つ容易に行うことができるようにな る。同様に、実際の用途に応じて他の対象物を消すことができる。更に、造影剤 を用い、続いて適当な変換機能を用いることにより、ポリープ様の対象物を電子 的に強調することができる。 図14は、この明細書に記載されている技術を用いて人体の器官のような対象物 の仮想的検査を実行するためのシステムを示す図である。患者1401がプラットフ ォーム1402の上に横たわり、走査装置1405が、検査する器官を含む領域を走査す る。走査装置1405は、患者の映像を実際に撮影する走査部分1403及びエレクトロ ニクス部分1406を含む。エレクトロニクス部分1406は、インターフェース1407、 中央処理ユニット1409、走査データを一時的に記憶するためのメモリー1411、及 び仮想的ナビゲーションプラットフォームにデータを送るための第2のインター フェース1413を含む。インターフェース1407及び1413は、一つのインターフェー ス部材中にまとめることもでき、また同一の部材とすることもできる。部分1406 中のこれらの部材は、通常のコネクタで相互に接続されている。 システム1400においては、走査装置の走査部分1403から供給されるデータが部 分1406に転送されて処理され、メモリー1411に記憶される。走査された2Dのデ ータが中央処理ユニット1409により3Dのヴォクセルデータに変換され、その結 果がメモリー1411の他の部分に記憶される。又はこれに代わり、変換されたデー タが直接インターフェースユニット1413に送られ、仮想的ナビゲーションターミ ナル1416に転送されるようにしてもよい。更に、2Dデータがインターフェース 1413から転送された後、仮想的ナビゲーションターミナル1416で変換が行われる ようにしてもよい。好ましい実施例においては、変換されたデータが伝送路1414 を通って仮想的ナビゲーションターミナル1416に伝送され、オペレータが仮想的 検査を実行する。更に、記憶媒体上にデータを記憶しそれを物理的にターミナル 1416に運ぶ方法又は衛星通信を用いる方法等、他の一般的な方法によってデータ を送ることができる。 可視化エンジンが3Dの形にすることを必要とするまで、走査データを3D表 示に変換しないようしてもよい。これにより、計算ステップ及びメモリーの記憶 空間を節約することができる。 仮想的ナビゲーションターミナル1416は、仮想的器官又は他の走査された映像 を見るためのスクリーン1417、エレクトロニクス部分1415、及びキーボード、マ ウス又はスペースボール等のインターフェース装置1419を含む。エレクトロニク ス部分1415は、インターフェースポート1421、中央処理ユニット1423、ターミナ ルがランするために必要な他の部材1427、及びメモリー1425を含む。ターミナル 1416中のこれらの部材は、通常のコネクタで相互に接続されている。変換された ヴォクセルデータがインターフェースポート1421で受信され、メモリー1425に記 憶される。次に、中央処理ユニット1423により3Dヴォクセルが仮想的表現にア センブルされ、図2及び3で説明したように、潜水艦カメラモデルを動かして仮 想的検査を実行する。潜水艦カメラが仮想的器官を通って移動するので、図9で 説明したような可視化技術を用いて仮想的カメラから見える範囲のみを計算し、 スクリーン1417に表示する。更に、表示を発生させるためにグラフィックスアク セレレータを用いることができる。オペレータは、インターフェース装置1419を 用いて、走査された人体について検査することを望む部分を指示することができ る。インターフェース装置1419を用いて、更に、図2及びそれに関連して説明し たように、潜水艦カメラを制御し動かすことができる。ターミナル部分1415とし て、Stony Brookにおけるthe State University of New Yorkのコンピュータサ イエンス学部から得られるキューブ4専用システムボックスを用いることができ る。 走査装置1405及びターミナル1416、又はそれらの部分は、同一ユニットの部分 とすることができる。走査映像データを受信するために一つのプラットフォーム を用い、必要な場合にはそれを3Dヴォクセルに接続し、案内ナビゲーションを 実行することができる。 システム1400における重要な特徴は、後刻、患者がいない場所で、仮想的器官 を検査することができることである。更に、患者を走査している間に仮想的検査 を行うことができる。更に、走査データを複数のターミナルに送ることができ、 それにより、複数のドクターが器官の内側を同時に見ることができる。このよう に、ニューヨークの1人のドクターがカリフォルニアのドクターと相談しながら 共に、患者の器官の同一部分を同時に見ることができる。これに代わり、データ を別の時に見ることができる。困難な事例においては、2人以上のドクターが同 一のデータについてそれぞれ検査することができる。複数の仮想的ナビゲーショ ンターミナルを用いて同一の走査データを見ることができる。別個のデータの組 を用いて器官を仮想的器官として再生することにより、精度、コスト及びデータ 操作の可能性等の面で多大の利点が得られる。 上記においては本発明の原理のみを説明した。従って、当業者にとって、ここ に明示的に図示されておらず又は記載されていないとはいえ、本発明の原理を実 施するものであり従って請求項に記載された本発明の精神及び範囲の中に存在す る多数のシステム、装置及び方法を案出することができることは明らかである。 例えば、ここに説明した方法及びシステムは、動物、魚類又は無生物の対象物 を仮想的に検査するために応用することができる。更に、上述の医学の分野以外 においても、開封することができない密封された対象物の中身を検査するために この技術を応用することができる。更に、この技術は、ビルディング又は洞窟等 の階層構造物の内側に適用し、オペレータがその構造物を通ってナビゲートする ことができる。
【手続補正書】 【提出日】平成11年4月12日(1999.4.12) 【補正内容】 請求の範囲 1.少なくとも一つの対象物の三次元仮想的検査を行う方法であって、 走査装置を用いて前記対象物を走査し、前記対象物を表す走査データを生成 すること、 前記走査データに基づいて、立体要素からなる前記対象物の三次元立体表現 を生成すること、 前記三次元立体表現から開始立体要素及び終了立体要素を選択すること、 前記間始及び終了立休要素間の一定の経路を発生すること、 前記開始及び終了立体要素間の経路に沿って前記三次元立体表現の案内ナビ ゲーションを実行すること、及び 前記案内ナビゲーションの間前記経路から見える前記立体要素及びオペレー タの入力に基づく前記立体要素をリアルタイムで表示すること を含む方法。 2.前記ナビゲーションを実行するステップが、各前記立体要素にポテンシャル 値を設定することを含む請求項1に記載の方法。 3.器官の壁面に近い立体要素の前記ポテンシャル値に大きい値を設定する請求 項2に記載の方法。 4.前記一定の経路が前記対象物の外壁面からほぼ等距離に位置する詰求項1に 記載の方法。 5.複数の前記立体要素が低ポテンシャル値を設定され且つ前記一定の経路に沿 って位置する請求項4に記載の方法。 6.前記対象物が器官である請求項1に記載の方法。 7.前記器官が結腸である請求項6に記載の方法。 8.前記器官が肺である請求項6に記載の方法。 9.前記器官が少なくとも一つの血管である請求項6に記載の方法。 10.前記表示するステップが、前記経路に沿って見える各前記立体要素を認識す ることを含む請求項1に記載の方法。 11.前記認識することが、視野データを含む階層データ構造を用いて実行される 請求項10に記載の方法。 12.前記実行されるナビゲーションが案内ナビゲーションである請求項1に記載 の方法。 13.前記案内ナビゲーションが、カメラモデルを用いて前記経路に沿って移動す ることをシミュレートする請求項12に記載の方法。 14.前記カメラモテルの位置を6個の自由度で変えることができる請求項13に記 載の方法。 15.前記経路が予め選択され、更にオペレータからの入力により前記カメラの方 向を変えることができる請求項1に記載の方法。 16.前記仮想的検査が、前記カメラモデルの視野円錐の中にある前記立体要素の みを表示する請求項15に記載の方法。 17.前記ナビゲーションを実行するステップが、ただ一つの経路が残るまで前記 対象物の壁面に最も近い立体要素を除去することにより、中心線を選択するこ とを含む請求項1に記載の方法。 18.前記仮想的検査が、更に各前記立体要素に不透明係数を設定するステップを 含む請求項1に記載の方法。 19.オペレータからの入力により、選択された立体要素の前記不透明係数を変え る請求項18に記載の方法。 20.前記表示するステップの間、不透明係数が小さい前記立体要素を表示しない 請求項19に記載の方法。 21.少なくとも一つの前記立体要素の不透明係数を変え、前記変えられた立体要 素を前記表示するステップで表示しない請求項20に記載の方法。 22.前記立体要素を、前記立体要素の前記不透明係数に応じた程度の半透明に表 示する請求項19に記載の方法。 23.少なくとも一つの立体要素に対応するデータを変え、前記変えられた立体要 素を前記表示するステップで表示しない請求項1に記載の方法。 24.更に走査するための対象物を準備するステップを含む請求項1に記載の方法 。 25.前記準備するステップが、走査の際に前記対象物のコントラストを改善する ための物質で前記対象物を被覆することを含む請求項24に記載の方法。 26.前記対象物を表す走査データを生成するステップが、前記対象物を走査する ことを含む請求項1に記載の方法。 27.前記対象物を表す走査データを生成するステップが、幾何学的モデルからヴ ォクセル映像を生成することを含む請求項1に記載の方法。 28.少なくとも一つの器官の三次元内部仮想的検査を行う方法であって、 放射線走査装置を用いて器官を走査し、前記器官を表す走査データを生成す ること、 前記走査データに基づいて、立体要素からなる前記器官の三次元立体表現を 生成すること、 前記三次元立体表現から開始立体要素及び終了立体要素を選択すること、 前記開始及び終了立体要素間に一定の経路を発生すること、 前記経路に沿って前記三次元立体表現の案内ナビゲーションを実行すること 、及び 前記案内ナビゲーションの間前記経路から見える前記立体要素及びオペレー タの入力に基づく前記立体要素をリアルタイムで表示すること を含む方法。 29.前記案内ナビゲーションを実行するステップが、各前記立体要素にポテンシ ャル値を設定することを含む請求項28に記載の方法。 30.前記器官の壁面に近い立体要素の前記ポテンシャル値に大きい値を設定する 請求項29に記載の方法。 31.前記一定の経路が前記対象物の外壁面からほぼ等距離に位置する請求項28に 記載の方法。 32.複数の前記立体要素が低ポテンシャル値を設定され且つ前記一定の経路に沿 って位置する請求項31に記載の方法。 33.前記器官が結腸である請求項28に記載の方法。 34.前記器官が肺である請求項28に記載の方法。 35.前記器官が少なくとも一つの血管である請求項28に記載の方法。 36.前記表示するステップが、前記経路に沿って見える各前記立体要素を認識す ることを含む請求項28に記載の方法。 37.前記認識することが、視野テータを含む階層テータ構造を用いて実行される 請求項36に記載の方法。 38.前記案内ナビゲーションが、カメラモデルを用いて前記経路に沿って移動す ることをシミュレートする請求項28に記載の方法。 39.前記カメラモテルの位置を6個の自由度で変えることができる請求頂38に記 載の方法。 40.前記経路が予め選択され、更にオペレータからの入力により前記カメラの方 向を変えることができる請求項28に記載の方法。 41.前記仮想的検査が、前記カメラモデルの視野の中にある前記立体要素のみを 表示する請求項40に記載の方法。 42.前記案内ナビゲーションを実行するステップが、ただ一つの経路が残るまで 前記器官の壁面に最も近い立体要素を除去することにより、中心線を選択する ことを含む請求項28に記載の方法。 43.前記仮想的検査が、更に各前記立体要素に不透明係数を設定するステップを 含む請求項28に記載の方法。 44.オペレータからの入力により、選択された立休要素の前記不透明係数を変え る請求項43に記載の方法。 45.前記表示するステップの間、不透明係数が小さい前記立体要素を表示しない 請求項44に記載の方法。 46.少なくとも一つの前記立体要素の不透明係数を変え、前記変えられた立体要 素を前記表示するステップで表示しない請求項45に記載の方法。 47.前記立体要素を、前記立体要素の前記不透明係数に応じた程度の半透明に表 示する請求項44に記載の方法。 48.少なくとも一つの立体要素に対応するデータを変え、前記変えられた立体要 素を前記表示するステップで表示しない請求項28に記載の方法。 49.更に走査するための器官を準備するステップを含む請求項28に記載の方法。 50.前記準備するステップが、前記器官の移動性の対象物を洗浄することを含む 請求項49に記載の方法。 51.前記準備するステップが、走査の際に前記器官のコントラストを改善するた めの物質で前記器官を被覆することを含む請求項49に記載の方法。 52.一つの対象物の三次元仮想的検査を行うためのシステムであって、 前記対象物の不連続的表現を生成するための装置、 前記不連続的表現を三次元立体データ要素に変換するための装置、 前記三次元立体データ要素から可視化すべき領域を選択するための装置、 前記選択された三次元立体データ要素の経路に沿って案内ナビゲーションを 実行するための装置、及び 前記経路に沿って近接している前記立体要素及びオペレータの入力に基づく 前記立体要素をリアルタイムで表示するための装置 を具えるシステム。 53.前記三次元立体データ要素が不透明係数を含み、前記表示する装置が前記不 透明係数に応答する請求項52に記載のシステム。 54.前記実行する装置が選択された立体データ要素の不透明係数を変更すること ができる請求項53に記載のシステム。 55.前記表示する装置が前記不透明係数に応答して立体データ要素を半透明に表 示することができる請求項54に記載のシステム。 56.前記変換する装置及び前記実行する装置が一つのユニットに収容された請求 項52に記載のシステム。 57.前記対象物の不連続的表現を生成する装置が走査データを生成し、前記走査 データが前記変換する装置から離れて記憶される請求項52に記載のシステム。 58.前記対象物の不連続的表現を生成する装置が走査データを生成し、前記走査 データが前記選択する装置から離れて記憶される請求項52に記載のシステム。 59.更に、前記対象物の追加の仮想的三次元検査を実行するための、少なくとも 一つの追加の選択する装置、実行する装置及び表示する装置を具える謂求項52 に記載のシステム。 60.一つの器官の三次元仮想的内部検査を行うためのシステムであって、 前記器官を走査し、前記器官を表す走査データを生成するための装置、 前記走査データを三次元立体データ要素に変換するための装置、 前記三次元立体データ要素から可視化すべき領域を選択するための装置、 前記選択された三次元立体データ要素の経路に沿って案内ナビゲーションを 実行するための装置、及び オペレータの入力に基づいて前記経路に沿って前記立体データ要素をリアル タイムで表示するための装置 を具えるシステム。 61.前記三次元立体データ要素が不透明係数を含み、前記表示する装置が前記不 透明係数に応答する請求項60に記載のシステム。 62.前記実行する装置が選択された前記立体データ要素の不透明係数を変更する ことができる請求項61に記載のシステム。 63.前記表示する装置が立体要素を半透明に表示することができる請求項62に記 載のシステム。 64.前記変換する装置及び前記実行する装置が一つのユニットに収容された請求 項60に記載のシステム。 65.前記走査データを前記変換する装置から離れて記憶する請求項60に記載のシ ステム。 66.前記走査データを前記選択する装置から離れて記憶する請求頂60に記載のシ ステム。 67.更に、前記器官の追加の仮想的三次元検査を実行するための、少なくとも一 つの追加の選択する装置、実行する装置及び表示する装置を具える請求項60に 記載のシステム。
───────────────────────────────────────────────────── フロントページの続き (81)指定国 EP(AT,BE,CH,DE, DK,ES,FI,FR,GB,GR,IE,IT,L U,MC,NL,PT,SE),OA(BF,BJ,CF ,CG,CI,CM,GA,GN,ML,MR,NE, SN,TD,TG),AP(GH,KE,LS,MW,S D,SZ,UG,ZW),EA(AM,AZ,BY,KG ,KZ,MD,RU,TJ,TM),AL,AM,AT ,AU,AZ,BA,BB,BG,BR,BY,CA, CH,CN,CU,CZ,DE,DK,EE,ES,F I,GB,GE,GH,HU,IL,IS,JP,KE ,KG,KP,KR,KZ,LC,LK,LR,LS, LT,LU,LV,MD,MG,MK,MN,MW,M X,NO,NZ,PL,PT,RO,RU,SD,SE ,SG,SI,SK,SL,TJ,TM,TR,TT, UA,UG,UZ,VN,YU,ZW (72)発明者 ホン リチョン アメリカ合衆国 ニューヨーク州 11741 ホルブルック ブロードウェイ アヴェ ニュー 835 アパートメント 6ビー (72)発明者 リャン ツェンロン アメリカ合衆国 ニューヨーク州 17790 ストーニー ブルック フレッシュマン レイン 9 (72)発明者 ワックス マーク アール アメリカ合衆国 ニューヨーク州 11740 グリーンローン イー サンダース ス トリート 6 (72)発明者 ヴィスワムバラン アヤイ アメリカ合衆国 ニューヨーク州 11741 ホルブルック クラリス ブールヴァー ド 421

Claims (1)

  1. 【特許請求の範囲】 1.少なくとも一つの対象物の三次元仮想的検査を行う方法であって、 前記対象物の不連続的データ表現を生成すること、 前記データから、立体要素からなる前記対象物の三次元立体表現を生成する こと、 前記三次元立体表現から開始立体要素及び終了立体要素を選択すること、 前記開始及び終了立体要素間の経路に沿って前記三次元表現のナビゲーショ ンを実行すること、 前記ナビゲーションの間前記経路から見える前記立体要素を表示することを 含む方法。 2.前記ナビゲーションを実行するステップか、各々の前記立体要素にポテンシ ャル値を設定することを含む請求項1に記載の方法。 3.器官の壁面に近い立体要素の前記ポテンシャル値に大きい値を設定する請求 項2に記載の方法。 4.前記経路が予め選択される請求項1に記載の方法。 5.前記予め選択される経路が前記対象物の中心に沿って前記開始及び終了立体 要素間に位置する請求項4に記載の方法。 6.低ポテンシャル値を持つ前記立体要素が対象物の中心に位置する請求項3に 記載の方法。 7.前記対象物が器官である請求項1に記載の方法。 8.前記器官が結腸である請求項7に記載の方法。 9.前記器官が肺である請求項7に記載の方法。 10.前記器官が少なくとも一つの血管である請求項7に記載の方法。 11.前記表示するステップが、前記経路に沿って見える各前記立体要素を認識す ることを含む請求項1に記載の方法。 12.前記認識することが、視野データを含む階層データ構造を用いて実行される 請求項11に記載の方法。 13.前記実行されるナビゲーションが案内ナビゲーションである請求項1に記載 の方法。 14.前記案内ナビゲーションが、カメラモデルを用いて前記経路に沿って移動す ることをシミュレートする請求項13に記載の方法。 15.前記カメラモデルの位置を6個の自由度で変えることができる請求項14に記 載の方法。 16.前記経路が予め選択され、更にオペレータからの入力により前記カメラの方 向を変えることができる請求項1に記載の方法。 17.前記仮想的検査が、前記カメラモデルの視野円錐の中にある前記立体要素の みを表示する請求項16に記載の方法。 18.前記ナビゲーションのステップが、ただ一つの経路が残るまで前記対象物の 壁面に最も近い立体要素を除去することにより、中心線を選択することを含む 請求項1に記載の方法。 19.前記仮想的検査が、更に各前記立体要素に不透明係数を設定するステップを 含む請求項1に記載の方法。 20.オペレータからの入力により、選択された立体要素の前記不透明係数を変え る請求項19に記載の方法。 21.前記表示ステップの間、不透明係数が小さい前記立体要素を表示しない請求 項20に記載の方法。 22.少なくとも一つの前記立体要素の不透明係数を変え、前記表示ステップで前 記変えられた立体要素を表示しない請求項21に記載の方法。 23.前記立体要素を、前記立体要素の前記不透明係数に応じた程度の半透明に表 示する請求項20に記載の方法。 24.少なくとも一つの立体要素に対応するデータを変え、前記表示ステップで前 記変えられた立体要素を表示しない請求項1に記載の方法。 25.更に走査するための対象物を準備するステップを含む請求項1に記載の方法 。 26.前記準備するステップが、走査の際に前記対象物のコントラストを改善する ための物質で前記対象物を被覆することを含む請求項25に記載の方法。 27.前記対象物の不連続的データ表現を生成するステップが、前記対象物を走査 することを含む請求項1に記載の方法。 28.前記対象物の不連続的データ表現を生成するステップが、幾何学的モデルか らヴォクセル映像を生成することを含む請求項1に記載の方法。 29.前記対象物の不連続的データ表現を生成するステップが、前記対象物をコン ピュータでシミュレートすることを含む請求項1に記載の方法。 30.少なくとも一つの器官の三次元仮想的検査を行う方法であって、 放射線走査装置で器官を走査すること、及び前記器官の走査データ表現を生 成すること、 前記走査データから、立体要素からなる前記器官の三次元立体表現を生成す ること、 前記三次元立体表現から開始立体要素及び終了立体要素を選択すること、 前記開始及び終了立体要素間の経路に沿って前記三次元表現の案内ナビゲー ションを実行すること、 前記案内ナビゲーションの間経路から見える前記立体要素を表示することを 含む方法。 31.前記案内ナビゲーションを実行するステップか、各々の前記立体要素にポテ ンシャル値を設定することを含む請求項30に記載の方法。 32.前記器官の壁面に近い立体要素の前記ポテンシャル値に大きい値を設定する 請求項31に記載の方法。 33.前記経路が予め選択される請求項30に記載の方法。 34.前記予め選択される経路が前記器官の中心に沿って前記開始及び終了立体要 素間に位置する請求項33に記載の方法。 35.低ポテンシャル値を持つ前記立体要素が前記器官の中心に位置する請求項32 に記載の方法。 36.前記器官が結腸である請求項30に記載の方法。 37.前記器官が肺である請求項30に記載の方法。 38.前記器官が少なくとも一つの血管である請求項30に記載の方法。 39.前記表示するステップが、前記経路に沿って見える各前記立体要素を認識す ることを含む請求項30に記載の方法。 40.前記認識することが、視野データを含む階層データ構造を用いて実行される 請求項39に記載の方法。 41.前記案内ナビゲーションが、カメラモデルを用いて前記経路に沿って移動す ることをシミュレートする請求項30に記載の方法。 42.前記カメラモデルの位置を6個の自由度で変えることができる請求項41に記 載の方法。 43.前記経路が予め選択され、更にオペレータからの入力により前記カメラの方 向を変えることができる請求項30に記載の方法。 44.前記仮想的検査が、前記カメラモデルの視線の中にある前記立体要素のみを 表示する請求項43に記載の方法。 45.前記案内ナビゲーションのステップが、ただ一つの経路が残るまで前記器官 の壁面に最も近い立体要素を除去することにより、中心線を選択することを含 む請求項30に記載の方法。 46.前記仮想的検査が、更に各前記立体要素に不透明係数を設定するステップを 含む請求項30に記載の方法。 47.オペレータからの入力により、選択された立体要素の前記不透明係数を変え る請求項46に記載の方法。 48.前記表示ステップの間、不透明係数が小さい前記立体要素を表示しない請求 項47に記載の方法。 49.少なくとも一つの前記立体要素の不透明係数を変え、前記表示ステップで前 記変えられた立体要素を表示しない請求項48に記載の方法。 50.前記立体要素を、前記立体要素の前記不透明係数に応じて半透明に表示する 請求項47に記載の方法。 51.少なくとも一つの立体要素を変え、前記表示ステップで前記変えられた立体 要素を表示しない請求項30に記載の方法。 52.更に走査するための器官を準備するステップを含む請求項30に記載の方法。 53.前記準備するステップが、前記器官の移動性の対象物を洗浄することを含む 請求項52に記載の方法。 54.前記準備するステップが、走査の際に前記器官のコントラストを改善するた めの物質で前記器官を被覆することを含む請求項52に記載の方法。 55.一つの対象物の三次元仮想的検査を行うためのシステムであって、 前記対象物の不連続的表現を生成するための装置、 前記不連続的表現を三次元立体データ要素に変換するための装置、 前記三次元立体データ要素から可視化すべき領域を選択するための装置、 前記選択された三次元立体データ要素の経路に沿ってナビゲーションを実行 するための装置、及び 前記経路に沿って近接している前記立体要素を表示するための装置 を具えるシステム。 56.前記三次元データ要素が不透明係数を含む請求項55に記載のシステム。 57.前記表示装置が前記不透明係数に応答する請求項56に記載のシステム。 58.前記表示装置が、前記不透明係数に応答して立体要素を半透明に表示するこ とができる請求項57に記載のシステム。 59.前記変換装置及び前記実行装置が一つのユニットに収容された請求項55に記 載のシステム。 60.前記走査データを前記変換装置から離れて記憶する請求項55に記載のシステ ム。 61.前記走査データを前記選択装置から離れて記憶する請求項55に記載のシステ ム。 62.更に、前記対象物の追加の仮想的三次元検査を実行するための、少なくとも 一つの追加の選択装置、実行装置及び表示装置を具える請求項55に記載のシス テム。 63.一つの器官の三次元仮想的検査を行うためのシステムであって、 前記器官を走査し、前記器官の走査データ表現を生成するための装置、 前記走査データを三次元立体データ要素に変換するための装置、 前記三次元立体データ要素から可視化すべき領域を選択するための装置、 前記選択された三次元立体データ要素の経路に沿って案内ナビゲーションを 実行するための装置、及び 前記経路に沿って前記立体要素を表示するための装置 を具えるシステム。 64.前記三次元データ要素が不透明係数を含む請求項63に記載のシステム。 65.前記表示装置が前記不透明係数に応答する請求項64に記載のシステム。 66.前記表示装置が立体要素を半透明に表示することができる請求項65に記載の システム。 67.前記変換装置及び前記実行装置が一つのユニットに収容された請求項63に記 載のシステム。 68.前記走査データを前記変換装置から離れて記憶する請求項63に記載のシステ ム。 69.前記走査データを前記選択装置から離れて記憶する請求項63に記載のシステ ム。 70.更に、前記器官の追加の仮想的三次元検査を実行するための、少なくとも一 つの追加の選択装置、実行装置及び表示装置を具える請求項63に記載のシステ ム。
JP10513870A 1996-09-16 1997-09-10 三次元仮想的検査を行うためのシステム及び方法 Pending JP2001502197A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US08/714,697 1996-09-16
US08/714,697 US5971767A (en) 1996-09-16 1996-09-16 System and method for performing a three-dimensional virtual examination
PCT/US1997/016109 WO1998011524A1 (en) 1996-09-16 1997-09-10 System and method for performing a three-dimensional virtual examination

Publications (1)

Publication Number Publication Date
JP2001502197A true JP2001502197A (ja) 2001-02-20

Family

ID=24871098

Family Applications (1)

Application Number Title Priority Date Filing Date
JP10513870A Pending JP2001502197A (ja) 1996-09-16 1997-09-10 三次元仮想的検査を行うためのシステム及び方法

Country Status (12)

Country Link
US (1) US5971767A (ja)
EP (3) EP1492071A1 (ja)
JP (1) JP2001502197A (ja)
KR (1) KR20000036177A (ja)
CN (1) CN1265331C (ja)
AT (1) ATE283528T1 (ja)
AU (1) AU734557B2 (ja)
CA (1) CA2265808C (ja)
DE (1) DE69731775T2 (ja)
ES (1) ES2234029T3 (ja)
IL (1) IL128884A (ja)
WO (1) WO1998011524A1 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004522480A (ja) * 2000-12-06 2004-07-29 インテュメド リミテッド 自己誘導型挿管装置
JP2007275258A (ja) * 2006-04-05 2007-10-25 Hitachi Medical Corp 画像表示装置
JP2007537836A (ja) * 2004-05-19 2007-12-27 ボストン サイエンティフィック リミテッド 生体構造オリフィス及びルーメンをグラフィカルに表すシステム
JP2009018184A (ja) * 2001-02-13 2009-01-29 Mediguide Ltd 医療用撮像兼ナビゲーションシステム
JP2011502566A (ja) * 2007-11-02 2011-01-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 強調された冠状動脈表示
JP2011504629A (ja) * 2007-11-22 2011-02-10 トウシバメディカルビジュアライゼーションシステムズヨーロッパ・リミテッド ボリュームレンダリング装置及び方法
JP2012228523A (ja) * 2005-11-15 2012-11-22 Johns Hopkins Univ バイオセンシング及び外科的処置のための能動的カニューレ
JP2014512931A (ja) * 2011-05-10 2014-05-29 コーニンクレッカ フィリップス エヌ ヴェ ユーザ操作されるオンザフライの経路プランニング
WO2014199640A1 (ja) * 2013-06-13 2014-12-18 富士フイルム株式会社 仮想内視鏡画像生成装置および方法並びにプログラム

Families Citing this family (169)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US6694163B1 (en) 1994-10-27 2004-02-17 Wake Forest University Health Sciences Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US6343936B1 (en) 1996-09-16 2002-02-05 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination, navigation and visualization
US6331116B1 (en) * 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
US7194117B2 (en) 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US8682045B2 (en) * 1997-02-25 2014-03-25 Wake Forest University Health Sciences Virtual endoscopy with improved image segmentation and lesion detection
JP4063933B2 (ja) * 1997-12-01 2008-03-19 オリンパス株式会社 手術シミュレーション装置
US6928314B1 (en) 1998-01-23 2005-08-09 Mayo Foundation For Medical Education And Research System for two-dimensional and three-dimensional imaging of tubular structures in the human body
US7167180B1 (en) 1998-02-23 2007-01-23 Algotec Systems Ltd. Automatic path planning system and method
DE19835215C2 (de) * 1998-08-05 2000-07-27 Mannesmann Vdo Ag Kombinationsinstrument
US6771262B2 (en) * 1998-11-25 2004-08-03 Siemens Corporate Research, Inc. System and method for volume rendering-based segmentation
EP2302594A3 (en) 1998-11-25 2011-04-06 Wake Forest University Virtual endoscopy with improved image segmentation and lesion detection
US6314125B1 (en) * 1998-12-09 2001-11-06 Qualcomm Incorporated Method and apparatus for the construction and transmission of binary quasi orthogonal vectors
DE69927001T2 (de) 1999-01-04 2006-06-08 Koninklijke Philips Electronics N.V. Verfahren, system und vorrichtung zur verarbeitung eines eine röhrenartige struktur darstellenden bildes und zur bestimmung eines pfades durch die genannte struktur
US6694057B1 (en) * 1999-01-27 2004-02-17 Washington University Method and apparatus for processing images with curves
US9572519B2 (en) 1999-05-18 2017-02-21 Mediguide Ltd. Method and apparatus for invasive device tracking using organ timing signal generated from MPS sensors
US7386339B2 (en) 1999-05-18 2008-06-10 Mediguide Ltd. Medical imaging and navigation system
US7477768B2 (en) * 1999-06-29 2009-01-13 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US7815590B2 (en) 1999-08-05 2010-10-19 Broncus Technologies, Inc. Devices for maintaining patency of surgically created channels in tissue
US6621918B1 (en) 1999-11-05 2003-09-16 H Innovation, Inc. Teleradiology systems for rendering and visualizing remotely-located volume data sets
US6488507B1 (en) * 1999-11-29 2002-12-03 Ethicon, Inc. Portable surgical trainer
WO2001063561A1 (en) * 2000-02-25 2001-08-30 The Research Foundation Of State University Of New York Apparatus and method for volume processing and rendering
US6477401B1 (en) 2000-03-10 2002-11-05 Mayo Foundation For Medical Education And Research Colonography of an unprepared colon
US6468203B2 (en) 2000-04-03 2002-10-22 Neoguide Systems, Inc. Steerable endoscope and improved method of insertion
US6858005B2 (en) 2000-04-03 2005-02-22 Neo Guide Systems, Inc. Tendon-driven endoscope and methods of insertion
US8888688B2 (en) 2000-04-03 2014-11-18 Intuitive Surgical Operations, Inc. Connector device for a controllable instrument
US6610007B2 (en) 2000-04-03 2003-08-26 Neoguide Systems, Inc. Steerable segmented endoscope and method of insertion
US8517923B2 (en) 2000-04-03 2013-08-27 Intuitive Surgical Operations, Inc. Apparatus and methods for facilitating treatment of tissue via improved delivery of energy based and non-energy based modalities
US6947784B2 (en) * 2000-04-07 2005-09-20 The General Hospital Corporation System for digital bowel subtraction and polyp detection and related techniques
WO2001093745A2 (en) * 2000-06-06 2001-12-13 The Research Foundation Of State University Of New York Computer aided visualization, fusion and treatment planning
US7706600B2 (en) 2000-10-02 2010-04-27 The Research Foundation Of State University Of New York Enhanced virtual navigation and examination
AU2002222701A1 (en) * 2000-11-25 2002-06-03 Infinitt Co., Ltd. System and method for displaying a virtual endoscopy and computer readable medium storing thereof
KR100426396B1 (ko) * 2000-11-28 2004-04-08 김종찬 3차원 영상처리방법을 이용한 가상 내시경 방법
US7630750B2 (en) * 2001-02-05 2009-12-08 The Research Foundation For The State University Of New York Computer aided treatment planning
DE10119454A1 (de) * 2001-04-20 2002-10-31 Siemens Ag Verfahren zur navigationsgestützten bildlichen Darstellung positionsabhängiger Messinformationen von längsförmigen Körperorganen
US7202851B2 (en) 2001-05-04 2007-04-10 Immersion Medical Inc. Haptic interface for palpation simulation
US7043064B2 (en) * 2001-05-04 2006-05-09 The Board Of Trustees Of The Leland Stanford Junior University Method for characterizing shapes in medical images
WO2002093496A1 (en) * 2001-05-15 2002-11-21 Koninklijke Philips Electronics N.V. Analysis of a multi-dimensional data set
US7056123B2 (en) 2001-07-16 2006-06-06 Immersion Corporation Interface apparatus with cable-driven force feedback and grounded actuators
US6901277B2 (en) * 2001-07-17 2005-05-31 Accuimage Diagnostics Corp. Methods for generating a lung report
US20030028401A1 (en) * 2001-07-17 2003-02-06 Leon Kaufman Customizable lung report generator
US7130457B2 (en) * 2001-07-17 2006-10-31 Accuimage Diagnostics Corp. Systems and graphical user interface for analyzing body images
US7039723B2 (en) 2001-08-31 2006-05-02 Hinnovation, Inc. On-line image processing and communication system
US7324104B1 (en) * 2001-09-14 2008-01-29 The Research Foundation Of State University Of New York Method of centerline generation in virtual objects
US7596256B1 (en) 2001-09-14 2009-09-29 The Research Foundation For The State University Of New York Computer assisted detection of lesions in volumetric medical images
FR2831698A1 (fr) * 2001-10-30 2003-05-02 Koninkl Philips Electronics Nv Station d'imagerie medicale a fonction d'extraction de trajectoire au sein d'un objet ramifie
WO2003046811A1 (en) * 2001-11-21 2003-06-05 Viatronix Incorporated Registration of scanning data acquired from different patient positions
US6711231B2 (en) * 2001-12-10 2004-03-23 Ge Medical Systems Global Technology Company, Llc Methods and apparatus to assist and facilitate vessel analysis
US20030152897A1 (en) * 2001-12-20 2003-08-14 Bernhard Geiger Automatic navigation for virtual endoscopy
US7570802B2 (en) * 2001-12-27 2009-08-04 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Automated centerline detection algorithm for colon-like 3D surfaces
KR100439756B1 (ko) * 2002-01-09 2004-07-12 주식회사 인피니트테크놀로지 3차원 가상내시경 화면 표시장치 및 그 방법
US7338505B2 (en) 2002-01-09 2008-03-04 Neoguide Systems, Inc. Apparatus and method for endoscopic colectomy
US7224827B2 (en) * 2002-09-27 2007-05-29 The Board Of Trustees Of The Leland Stanford Junior University Method for matching and registering medical image data
US7272251B2 (en) * 2002-09-30 2007-09-18 The Board Of Trustees Of The Leland Stanford Junior University Method for detecting and classifying a structure of interest in medical images
US7260250B2 (en) * 2002-09-30 2007-08-21 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Computer-aided classification of anomalies in anatomical structures
US7346209B2 (en) * 2002-09-30 2008-03-18 The Board Of Trustees Of The Leland Stanford Junior University Three-dimensional pattern recognition method to detect shapes in medical images
JP4346297B2 (ja) * 2002-10-22 2009-10-21 株式会社東芝 X線コンピュータ断層撮影装置、画像処理装置及び画像処理方法
US8882657B2 (en) 2003-03-07 2014-11-11 Intuitive Surgical Operations, Inc. Instrument having radio frequency identification systems and methods for use
AU2004220870B2 (en) * 2003-03-18 2011-03-17 The General Hospital Corporation Polarized light devices and methods
JP3810381B2 (ja) * 2003-04-25 2006-08-16 オリンパス株式会社 画像表示装置、画像表示方法および画像表示プログラム
CN101264001B (zh) * 2003-04-25 2010-11-10 奥林巴斯株式会社 图像显示装置
US7457444B2 (en) * 2003-05-14 2008-11-25 Siemens Medical Solutions Usa, Inc. Method and apparatus for fast automatic centerline extraction for virtual endoscopy
MXPA05013237A (es) * 2003-06-07 2006-03-09 Samsung Electronics Co Ltd Aparato y metodo para la organizacion e interpretacion de datos multimedia en un medio de grabacion.
US7822461B2 (en) * 2003-07-11 2010-10-26 Siemens Medical Solutions Usa, Inc. System and method for endoscopic path planning
US7850456B2 (en) * 2003-07-15 2010-12-14 Simbionix Ltd. Surgical simulation device, system and method
US20050015004A1 (en) * 2003-07-17 2005-01-20 Hertel Sarah Rose Systems and methods for combining an anatomic structure and metabolic activity for an object
US8308682B2 (en) 2003-07-18 2012-11-13 Broncus Medical Inc. Devices for maintaining patency of surgically created channels in tissue
US8002740B2 (en) 2003-07-18 2011-08-23 Broncus Technologies, Inc. Devices for maintaining patency of surgically created channels in tissue
US20050074150A1 (en) * 2003-10-03 2005-04-07 Andrew Bruss Systems and methods for emulating an angiogram using three-dimensional image data
US20050148848A1 (en) * 2003-11-03 2005-07-07 Bracco Imaging, S.P.A. Stereo display of tube-like structures and improved techniques therefor ("stereo display")
US20050110791A1 (en) * 2003-11-26 2005-05-26 Prabhu Krishnamoorthy Systems and methods for segmenting and displaying tubular vessels in volumetric imaging data
WO2005055148A1 (en) * 2003-11-29 2005-06-16 Vital Images, Inc. Segmented volume rendering using a programmable graphics pipeline
US7729739B2 (en) * 2003-12-03 2010-06-01 The Board Of Trustees Of The Leland Stanford Junior University Heat diffusion based detection of structures of interest in medical images
US7289106B2 (en) 2004-04-01 2007-10-30 Immersion Medical, Inc. Methods and apparatus for palpation simulation
US7609910B2 (en) * 2004-04-09 2009-10-27 Siemens Medical Solutions Usa, Inc. System and method for creating a panoramic view of a volumetric image
US8409167B2 (en) 2004-07-19 2013-04-02 Broncus Medical Inc Devices for delivering substances through an extra-anatomic opening created in an airway
US7613492B2 (en) * 2004-07-26 2009-11-03 General Electric Company Apparatus for aligning an object being scanned in multi-modality systems
US7835892B2 (en) * 2004-09-28 2010-11-16 Immersion Medical, Inc. Ultrasound simulation apparatus and method
US7463262B2 (en) * 2004-09-30 2008-12-09 Kabushiki Kaisha Toshiba Image processing apparatus and method
US20090226065A1 (en) * 2004-10-09 2009-09-10 Dongqing Chen Sampling medical images for virtual histology
US20060079746A1 (en) * 2004-10-11 2006-04-13 Perret Florence M Apparatus and method for analysis of tissue classes along tubular structures
WO2007030132A2 (en) * 2005-02-14 2007-03-15 Mayo Foundation For Medical Education And Research Electronic stool subtraction in ct colonography
US20080160489A1 (en) * 2005-02-23 2008-07-03 Koninklijke Philips Electronics, N.V. Method For the Prediction of the Course of a Catheter
US7893938B2 (en) * 2005-05-04 2011-02-22 Siemens Medical Solutions Usa, Inc. Rendering anatomical structures with their nearby surrounding area
US7889905B2 (en) * 2005-05-23 2011-02-15 The Penn State Research Foundation Fast 3D-2D image registration method with application to continuously guided endoscopy
US7756563B2 (en) * 2005-05-23 2010-07-13 The Penn State Research Foundation Guidance method based on 3D-2D pose estimation and 3D-CT registration with application to live bronchoscopy
US7586501B2 (en) * 2005-05-24 2009-09-08 Siemens Medical Solutions Usa, Inc. Simultaneous projection of multi-branched vessels and their context on a single image
CN101203180A (zh) * 2005-06-21 2008-06-18 皇家飞利浦电子股份有限公司 对血管进行成像的方法和设备
US7379062B2 (en) * 2005-08-01 2008-05-27 Barco Nv Method for determining a path along a biological object with a lumen
US20070046661A1 (en) * 2005-08-31 2007-03-01 Siemens Medical Solutions Usa, Inc. Three or four-dimensional medical imaging navigation methods and systems
US7623900B2 (en) * 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
US7711168B2 (en) * 2005-10-19 2010-05-04 Siemens Medical Solutions Usa, Inc. Method for tracking blood vessels
WO2007046019A1 (en) * 2005-10-21 2007-04-26 Koninklijke Philips Electronics, N.V. Rendering method and apparatus
JP4450786B2 (ja) * 2005-11-15 2010-04-14 ザイオソフト株式会社 画像処理方法および画像処理プログラム
US20070109299A1 (en) * 2005-11-15 2007-05-17 Vital Images, Inc. Surface-based characteristic path generation
EP3788944B1 (en) 2005-11-22 2024-02-28 Intuitive Surgical Operations, Inc. System for determining the shape of a bendable instrument
US8083879B2 (en) 2005-11-23 2011-12-27 Intuitive Surgical Operations, Inc. Non-metallic, multi-strand control cable for steerable instruments
WO2007064981A2 (en) * 2005-11-30 2007-06-07 The Research Foundation Of State University Of New York Reducing false positives of polyp in cad
US8452061B2 (en) * 2005-11-30 2013-05-28 The Research Foundation Of State University Of New York Electronic colon cleansing method for virtual colonoscopy
CN101331525B (zh) * 2005-12-14 2013-03-27 皇家飞利浦电子股份有限公司 用于使医学3d数据图像观察平面彼此相关联的方法和设备
DE102006003179B4 (de) * 2006-01-23 2009-02-26 Siemens Ag Verfahren und Vorrichtung zur virtuellen Endoskopie eines Hohlkanals
JP2007260144A (ja) * 2006-03-28 2007-10-11 Olympus Medical Systems Corp 医療用画像処理装置及び医療用画像処理方法
WO2007112557A1 (en) * 2006-03-31 2007-10-11 Calgary Scientific Inc. Super resolution contextual close-up visualization of volumetric data
US8568299B2 (en) 2006-05-19 2013-10-29 Intuitive Surgical Operations, Inc. Methods and apparatus for displaying three-dimensional orientation of a steerable distal tip of an endoscope
US8560047B2 (en) 2006-06-16 2013-10-15 Board Of Regents Of The University Of Nebraska Method and apparatus for computer aided surgery
EP2051631A4 (en) * 2006-06-30 2013-06-05 Broncus Tech Inc SELECTION OF AIRWAY BYPASS SITE AND PLANNING A TREATMENT
JP2008021092A (ja) * 2006-07-12 2008-01-31 Fanuc Ltd ロボットシステムのシミュレーション装置
US7853058B2 (en) * 2006-11-22 2010-12-14 Toshiba Medical Visualization Systems Europe, Limited Determining a viewpoint for navigating a virtual camera through a biological object with a lumen
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
US9037215B2 (en) 2007-01-31 2015-05-19 The Penn State Research Foundation Methods and apparatus for 3D route planning through hollow organs
US8672836B2 (en) * 2007-01-31 2014-03-18 The Penn State Research Foundation Method and apparatus for continuous guidance of endoscopy
US20090156895A1 (en) * 2007-01-31 2009-06-18 The Penn State Research Foundation Precise endoscopic planning and visualization
US8023710B2 (en) * 2007-02-12 2011-09-20 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Virtual colonoscopy via wavelets
US8175348B2 (en) * 2007-06-05 2012-05-08 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Segmenting colon wall via level set techniques
US9220398B2 (en) 2007-10-11 2015-12-29 Intuitive Surgical Operations, Inc. System for managing Bowden cables in articulating instruments
CN101842814B (zh) * 2007-11-02 2013-02-13 皇家飞利浦电子股份有限公司 自动影像运行路径计算
US8182418B2 (en) 2008-02-25 2012-05-22 Intuitive Surgical Operations, Inc. Systems and methods for articulating an elongate body
US9171484B2 (en) * 2008-03-06 2015-10-27 Immersion Corporation Determining location and orientation of an object positioned on a surface
US8243334B2 (en) * 2008-06-06 2012-08-14 Virginia Venture Industries, Llc Methods and apparatuses for printing three dimensional images
US8200466B2 (en) 2008-07-21 2012-06-12 The Board Of Trustees Of The Leland Stanford Junior University Method for tuning patient-specific cardiovascular simulations
US9679499B2 (en) 2008-09-15 2017-06-13 Immersion Medical, Inc. Systems and methods for sensing hand motion by measuring remote displacement
CA2738610C (en) * 2008-09-25 2016-10-25 Cae Healthcare Inc. Simulation of medical imaging
US8428326B2 (en) * 2008-10-23 2013-04-23 Immersion Corporation Systems and methods for ultrasound simulation using depth peeling
US20100123715A1 (en) * 2008-11-14 2010-05-20 General Electric Company Method and system for navigating volumetric images
US9405886B2 (en) 2009-03-17 2016-08-02 The Board Of Trustees Of The Leland Stanford Junior University Method for determining cardiovascular information
WO2011021254A1 (ja) * 2009-08-21 2011-02-24 株式会社 東芝 医用画像処理装置及びその方法
EP2400465A3 (en) * 2009-09-10 2012-02-15 Infinitt Healthcare Co., Ltd. Virtual endoscopy apparatus, method for driving thereof and medical examination apparatus
US8442806B2 (en) * 2010-03-03 2013-05-14 Immersion Medical, Inc. Systems and methods for simulations utilizing a virtual coupling
JP5380348B2 (ja) * 2010-03-31 2014-01-08 富士フイルム株式会社 内視鏡観察を支援するシステムおよび方法、並びに、装置およびプログラム
JP5486432B2 (ja) * 2010-07-28 2014-05-07 富士フイルム株式会社 画像処理装置、その作動方法およびプログラム
US8315812B2 (en) 2010-08-12 2012-11-20 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
US8157742B2 (en) 2010-08-12 2012-04-17 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
WO2012158553A2 (en) 2011-05-13 2012-11-22 Broncus Technologies, Inc. Methods and devices for excision of tissue
US8709034B2 (en) 2011-05-13 2014-04-29 Broncus Medical Inc. Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall
CA2840397A1 (en) 2011-06-27 2013-04-11 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US11911117B2 (en) 2011-06-27 2024-02-27 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
US9498231B2 (en) 2011-06-27 2016-11-22 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
KR101305678B1 (ko) * 2011-07-27 2013-09-09 가톨릭대학교 산학협력단 가상 대장내시경에서 전자적 장세척 방법 및 장치
WO2013078235A1 (en) 2011-11-23 2013-05-30 Broncus Medical Inc Methods and devices for diagnosing, monitoring, or treating medical conditions through an opening through an airway wall
US8548778B1 (en) 2012-05-14 2013-10-01 Heartflow, Inc. Method and system for providing information from a patient-specific model of blood flow
US20150230730A1 (en) * 2012-10-16 2015-08-20 Koninklijke Philips N.V. Pulmonary plethysmography based on optical shape sensing
US9459770B2 (en) 2013-03-15 2016-10-04 Covidien Lp Pathway planning system and method
US9925009B2 (en) 2013-03-15 2018-03-27 Covidien Lp Pathway planning system and method
US9639666B2 (en) 2013-03-15 2017-05-02 Covidien Lp Pathway planning system and method
US10105149B2 (en) 2013-03-15 2018-10-23 Board Of Regents Of The University Of Nebraska On-board tool tracking system and methods of computer assisted surgery
WO2014168350A1 (ko) 2013-04-10 2014-10-16 재단법인 아산사회복지재단 폐동맥과 폐정맥을 구분하는 방법 및 이를 이용한 혈관의 정량화 방법
US9603668B2 (en) 2014-07-02 2017-03-28 Covidien Lp Dynamic 3D lung map view for tool navigation inside the lung
CA2953146A1 (en) 2014-07-02 2016-01-07 Covidien Lp System and method for segmentation of lung
US9770216B2 (en) 2014-07-02 2017-09-26 Covidien Lp System and method for navigating within the lung
US20160000414A1 (en) 2014-07-02 2016-01-07 Covidien Lp Methods for marking biopsy location
US9754367B2 (en) 2014-07-02 2017-09-05 Covidien Lp Trachea marking
CA2953267C (en) 2014-07-02 2022-11-15 Covidien Lp Real-time automatic registration feedback
US9607395B2 (en) 2014-07-02 2017-03-28 Covidien Lp System and method for detecting trachea
US11227427B2 (en) 2014-08-11 2022-01-18 Covidien Lp Treatment procedure planning system and method
CA2980378A1 (en) * 2015-03-20 2016-09-29 The Governing Council Of The Universtiy Of Toronto Systems and methods of ultrasound simulation
US10986990B2 (en) 2015-09-24 2021-04-27 Covidien Lp Marker placement
US10709352B2 (en) 2015-10-27 2020-07-14 Covidien Lp Method of using lung airway carina locations to improve ENB registration
CN105686803B (zh) * 2016-01-08 2019-06-14 上海伴诚医疗科技有限公司 扫描数据处理方法及装置
JP7019594B2 (ja) 2016-04-04 2022-02-15 コーニンクレッカ フィリップス エヌ ヴェ 撮像システムおよび方法
CA3039666C (en) 2016-10-28 2022-08-23 Ppg Industries Ohio, Inc. Coatings for increasing near-infrared detection distances
CN114777686A (zh) 2017-10-06 2022-07-22 先进扫描仪公司 生成一个或多个亮度边缘以形成物体的三维模型
CN107993294A (zh) * 2017-12-14 2018-05-04 山东数字人科技股份有限公司 一种局部解剖数据处理方法、装置及系统
US11224392B2 (en) 2018-02-01 2022-01-18 Covidien Lp Mapping disease spread
CN108711313A (zh) * 2018-05-22 2018-10-26 哈尔滨医科大学 胃镜检查术自助学习方法
US11561329B2 (en) 2019-01-07 2023-01-24 Ppg Industries Ohio, Inc. Near infrared control coating, articles formed therefrom, and methods of making the same
US11628020B2 (en) 2019-06-19 2023-04-18 Virtuoso Surgical, Inc. Insertable robot for minimally invasive surgery
CN113696484B (zh) * 2021-08-27 2022-05-24 吉林大学 应用3d打印技术制造人体透明椎管管腔的方法
CN116614617B (zh) * 2023-05-29 2024-03-19 广东横琴全域空间人工智能有限公司 多视角三维建模方法、系统、自动化设备以及拍摄终端

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5038302A (en) * 1988-07-26 1991-08-06 The Research Foundation Of State University Of New York Method of converting continuous three-dimensional geometrical representations into discrete three-dimensional voxel-based representations within a three-dimensional voxel-based system
US4985856A (en) * 1988-11-10 1991-01-15 The Research Foundation Of State University Of New York Method and apparatus for storing, accessing, and processing voxel-based data
DE4117117A1 (de) * 1991-05-25 1992-11-26 Hoehne Karl Heinz Prof Dr Dreidimensionale darstellung von raeumlichen strukturen
US5361385A (en) * 1992-08-26 1994-11-01 Reuven Bakalash Parallel computing system for volumetric modeling, data processing and visualization
JP3483929B2 (ja) * 1994-04-05 2004-01-06 株式会社日立製作所 3次元画像生成方法
US5458111A (en) * 1994-09-06 1995-10-17 William C. Bond Computed tomographic colonoscopy
US5782762A (en) * 1994-10-27 1998-07-21 Wake Forest University Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen
US5611025A (en) * 1994-11-23 1997-03-11 General Electric Company Virtual internal cavity inspection system

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004522480A (ja) * 2000-12-06 2004-07-29 インテュメド リミテッド 自己誘導型挿管装置
JP2009018184A (ja) * 2001-02-13 2009-01-29 Mediguide Ltd 医療用撮像兼ナビゲーションシステム
JP2007537836A (ja) * 2004-05-19 2007-12-27 ボストン サイエンティフィック リミテッド 生体構造オリフィス及びルーメンをグラフィカルに表すシステム
JP2012228523A (ja) * 2005-11-15 2012-11-22 Johns Hopkins Univ バイオセンシング及び外科的処置のための能動的カニューレ
JP2007275258A (ja) * 2006-04-05 2007-10-25 Hitachi Medical Corp 画像表示装置
JP2011502566A (ja) * 2007-11-02 2011-01-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 強調された冠状動脈表示
JP2011504629A (ja) * 2007-11-22 2011-02-10 トウシバメディカルビジュアライゼーションシステムズヨーロッパ・リミテッド ボリュームレンダリング装置及び方法
JP2014512931A (ja) * 2011-05-10 2014-05-29 コーニンクレッカ フィリップス エヌ ヴェ ユーザ操作されるオンザフライの経路プランニング
WO2014199640A1 (ja) * 2013-06-13 2014-12-18 富士フイルム株式会社 仮想内視鏡画像生成装置および方法並びにプログラム
JP2015000094A (ja) * 2013-06-13 2015-01-05 富士フイルム株式会社 仮想内視鏡画像生成装置および方法並びにプログラム
US9542772B2 (en) 2013-06-13 2017-01-10 Fujifilm Corporation Virtual endoscope image-generating device, method, and program

Also Published As

Publication number Publication date
KR20000036177A (ko) 2000-06-26
ES2234029T3 (es) 2005-06-16
CN1230271A (zh) 1999-09-29
EP1012812B1 (en) 2004-11-24
DE69731775T2 (de) 2005-12-22
IL128884A0 (en) 2000-01-31
WO1998011524A1 (en) 1998-03-19
EP1012812A1 (en) 2000-06-28
AU734557B2 (en) 2001-06-14
IL128884A (en) 2002-03-10
US5971767A (en) 1999-10-26
EP1492071A1 (en) 2004-12-29
CA2265808A1 (en) 1998-03-19
AU4267897A (en) 1998-04-02
CN1265331C (zh) 2006-07-19
EP1012812A4 (en) 2002-06-12
CA2265808C (en) 2006-06-06
ATE283528T1 (de) 2004-12-15
EP1482470A2 (en) 2004-12-01
EP1482470A3 (en) 2004-12-08
DE69731775D1 (de) 2004-12-30

Similar Documents

Publication Publication Date Title
JP2001502197A (ja) 三次元仮想的検査を行うためのシステム及び方法
JP4435430B2 (ja) 3次元仮想細分化および検査を実施するシステムおよび方法
KR100790536B1 (ko) 가상 결장 내강을 통한 이동 경로를 생성하는 방법
Hong et al. Virtual voyage: Interactive navigation in the human colon
US7825924B2 (en) Image processing method and computer readable medium for image processing
US20010031920A1 (en) System and method for performing a three-dimensional virtual examination of objects, such as internal organs
Serlie et al. Improved visualization in virtual colonoscopy using image-based rendering
IL178768A (en) System and method for optical mapping of texture properties from at least one optical image to a monochromatic array of information
Sharghi et al. A novel method for accelerating the visualisation process used in virtual colonoscopy
MXPA99002340A (en) System and method for performing a three-dimensional virtual examination
MXPA01009388A (en) System and method for performing a three-dimensional virtual segmentation and examination
MXPA01009387A (en) System and method for performing a three-dimensional virtual examination, navigation and visualization
Truyen et al. Improved visualization in virtual colonoscopy using image-based rendering Iwo Serlie¹, 2, Frans Vos¹, 3, Rogier van Gelder4, Jaap Stoker4
Hong Computer aided diagnosis for virtual endoscopy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070116

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070416

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070717

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070717

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071120