JP2006526225A - 仮想内視鏡のための高速自動中心線抽出方法および装置 - Google Patents

仮想内視鏡のための高速自動中心線抽出方法および装置 Download PDF

Info

Publication number
JP2006526225A
JP2006526225A JP2006514360A JP2006514360A JP2006526225A JP 2006526225 A JP2006526225 A JP 2006526225A JP 2006514360 A JP2006514360 A JP 2006514360A JP 2006514360 A JP2006514360 A JP 2006514360A JP 2006526225 A JP2006526225 A JP 2006526225A
Authority
JP
Japan
Prior art keywords
trajectory
sphere
voxel
collision
central
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2006514360A
Other languages
English (en)
Inventor
ガイガー ベルンハルト
ボワソナ ジャン−ダニエル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Corporate Research Inc
Original Assignee
Siemens Corporate Research Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Corporate Research Inc filed Critical Siemens Corporate Research Inc
Publication of JP2006526225A publication Critical patent/JP2006526225A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/34Smoothing or thinning of the pattern; Morphological operations; Skeletonisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30028Colon; Small intestine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2210/00Indexing scheme for image generation or computer graphics
    • G06T2210/41Medical
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S128/00Surgery
    • Y10S128/92Computer assisted medical diagnostics
    • Y10S128/922Computer assisted medical diagnostics including image analysis

Abstract

本発明は、境界面を有する器官の内視鏡データセットのための自動中心線抽出方法であって、内視鏡データセットから導き出される画像を通る初期軌道の選択された各点に、前記境界面に接触せずに最大直径を有する各球をセンタリングし、前記各球の中心を連続的に連結して中心軌道を形成するステップにより実現する。

Description

特別な参考文献として、本出願の発明者であるベルナルド・ガイガーなどの名で2003年5月14日に「高速自動中心線抽出」の名称で出願された、米国仮出願NO.60/470579があり、それに基づく優先権を主張し、そこで開示されたことは、ここで参考として編入される。さらに、参考文献として、本出願の発明者であるベルナルド・ガイガーなどの名で2004年1月8日に「仮想大腸鏡のための高速ローカル軌道設定方法および装置」の名称で出願された、米国出願NO.10/753703もあり、そこで開示されたことは、本発明と矛盾しない範囲で、ここで参考として編入される。
この発明は一般的にコンピュータ映像およびイメージングシステム、仮想内視鏡に関係し、特に、仮想大腸鏡を含む仮想内視鏡のために用いられる高速、自動の中心線抽出のための方法およびシステムに関する。
「発明の背景」
仮想大腸鏡とは、患者の特定の3次元解剖データセットを用いた、標準で最小限の人体への侵入ですむ内視鏡処置によるコンピュータシミュレーションに基づく診断方法のことである。現在の内視鏡検査の例には、気管支鏡、血管内視鏡、上部胃腸内視鏡、大腸鏡、膀胱鏡、心臓鏡そして尿道鏡が含まれる。人体への侵入を最小限にして入手した患者の特定の解剖構造の(仮想大腸鏡)画像化は、本当の内視鏡検査に伴う、人体への穴あけ、感染、出血などのリスクを避け、そして、本当の内視鏡検査を実施するに先だって、内視鏡検査者に重要な情報を提供する。そのような情報や理解は、処置の困難さを最小限化し、患者の健康を害することを低減し、トレーニングを高め、治療結果に対するより良き理解を助ける。
仮想内視鏡において、3D画像は、2次元(2D)コンピュータトモグラフィー(CT)あるいは磁気共鳴(MR)データから、ボリュームレンダリングによって作成している。最近のCTやMRIは、典型的には1セットの横断面画像を作成し、それらを組み合わせて、1セットのボリューム・データを作成する。これらの3D画像は、ファイバー光学内視鏡のような本当の内視鏡から得られる画像を模擬するために作成される。
検査処置に対するガイドとして中心線を決定することは、本当の内視鏡検査においても望ましいが、仮想内視鏡検査においては特に望ましい。このような中心線を計算する従来技術としては、典型的には、形態的演算、距離変換、最少コスト軌道、ダイクストラ法(Dijkstra法)などの考えが利用される。一例として、そのような従来技術の参考文献には次のようなものがある。
「近似最小距離領域に基づく3次元スケルトンおよび中心線作成:Zhou他、The Visual Computer、14:303−314(1998);Zhou et al., "Three-Dimensional Skeleton and Centerline Generation Based on an Approximate Minimum Distance Field," The Visual Computer, 14:303-314 (1998);」
「仮想大腸鏡のための自動軌道追跡装置の臨床評価:Truyen、T.deschamps、l.D.Chen、MICCAI学会、Utrecht市、オランダ、2001年10月;Truyen, T. Deschamps, L. D. Cohen. Clinical evaluation of an automatic path tracker for virtual colonoscopy.Medical Image Computing and Computer-Assisted Intervention (MICCAI), Utrecht, Netherlands, October 2001」
「仮想大腸鏡のための中心線作成の高速アルゴリズム:SPIE学会、2000年2月12〜18日; Chen et al., "A Fast Algorithm to Generate Centerline for Virtual Colonscopy", SPIE Conference, Feb. 12-18, 2000. Richard Robb,」
「ビジュアルヒューマンデータセットを用いた仮想内視鏡の開発および評価:Richard Robb、www.mayo.edu、1996年10月7,8日;Richard Robb, "Virtual (Computed) Endoscopy: Development and Evaluation Using the Visible Human Datasets", Oct. 7-8, 1996. www.mayo.edu.」
「萎縮部矯正を伴う3次元検査を実行するためのシステムおよび方法:米国特許US6514082、Kaufman他、2004年2月4日発行;U.S. Pat. No. 6,514,082 entitled "System and method for performing a three-dimensional examination with collapse correction," issued in the name of Kaufman et al., Feb. 4, 2003.」
「発明の概要」
形態的演算、距離変換、最少コスト軌道、ダイクストラ法などの考えを利用した前述の技術のような中心線計算のための従来技術は、相対的に遅いことが認識される。
本発明の特徴によれば、中心線計算の方法が、特に、大腸データに対して有効である特徴を示している。
本発明の原理によれば、3D環境における中心線は、境界条件によって規制される最大直径を有する球の位置として解釈される。
本発明の特徴によれば、
境界面を有する器官の内視鏡データセットのための自動中心線抽出方法であって、
内視鏡データセットから導き出される画像を通る初期軌道の選択された各点に、前記境界面に接触せずに最大直径を有する各球をセンタリングし、前記各球の中心を連続的に連結して中心軌道を形成する、ステップを有する。
本発明の特徴によれば、
前記中心軌道を形成するステップが、修正された中心軌道を形成するために前記中心軌道をスムーズ化する、ステップを有する。
本発明のさらに別の特徴によれば、
前記中心軌道を形成するステップが、前記修正された中心軌道の選択された各点に、前記境界面に接触せずに最大直径を有する各球をセンタリングし、そして、前記各球の中心を連続的に連結して、更に修正された中心軌道を形成する、ステップを有する。
本発明の別の特徴によれば、
前記中心軌道を形成するステップが、希望するレベルまで修正された最終の中心軌道を導き出すために請求項1および請求項2記載のステップを繰り返し実行する、ステップを有する。
本発明の別の特徴によれば、
前記各球のセンタリングのステップが、
(a)各多面体によって模擬された各球を用いて、
(b)前記境界面の中の利用できるスペースと比較して比較的小さい第1の模擬された球をセンタリングし、
(c)前記境界面と前記第1の模擬された球との衝突を検査し、
(d)前記境界のある点において衝突が検出された場合、前記衝突を終了させるために、前記模擬された球を前記境界の前記点から離れるように動かすための計算された力を導き出し、
(e)衝突がない(A)、又は衝突が終了した(B)の少なくともどちらかの場合、衝突が検出されるまで前記第1の模擬された球を大きくし、衝突が検出されることなく前記第1の模擬された球を大きくすることが不可能となるまで前記ステップ(d)を繰り返し、
(f)前記各球の残された各球に対しても、前記ステップ(b)から(e)を繰り返し、そして、各球の中心を連続的に連結して、中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
前記計算された力が、前記模擬された球を前記初期軌道に対して垂直な面上を動かすように作用する。
本発明の別の特徴によれば、
前記計算された力を導き出すステップが、空間と時間との関係を用いて、待ち時間の少ない応答の早い処理速度を実現する。
本発明の別の特徴によれば、
前記各球のセンタリングのステップが、
(A)各多面体によって表される模擬された各球を用いて、
(B)第1の模擬された球をセンタリングし、
(C)前記第1の模擬された球の頂点と前記境界面との衝突を検査し、
(D)前記境界面のある点で衝突が検出された場合、前記衝突を終了させるため、前記模擬された球を前記境界面の前記ある点から離れるように動かす計算された力を導き出し、
(E)衝突がない(A)、又は衝突が終了した(B)の少なくともどちらかの場合、衝突が検出されるまで前記第1の模擬された球を大きくし、衝突が検出されることなく前記第1の模擬された球を大きくすることが不可能となるまで前記ステップ(D)を繰り返し、そしてステップ(F)に進み、
(F)前記各球の残された球に対しても、前記ステップ(B)から(E)を繰り返し、そして、各球の中心を連続的に連結して、中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
前記ステップ(D)において、前記計算された力が、前記模擬された球を前記初期軌道に対して垂直な面上を動かすように作用する。
本発明の別の特徴によれば、
前記計算された力を導き出すステップが、空間と時間との関係を用いて、待ち時間の少ない応答の早い処理速度を実現する。
本発明の別の特徴によれば、
境界面を有する器官の仮想内視鏡画像のための自動中心線抽出方法であって、
内視鏡データセットの最初のボクセルと最後のボクセルの間の、前記画像を通る初期軌道を導き出し、
前記境界面に接触せずに最大直径を有する各球を初期軌道の選択された各点にセンタリングし、
前記各球の中心を連続的に連結して中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
境界面を有する器官の仮想内視鏡画像のための自動中心線抽出方法であって、
大腸内視鏡検査のための処置(プロトコル)をもちいて大腸内視鏡ボクセルデータセットを導き出し、
内視鏡データセットの最初のボクセルと最後のボクセルの間の、前記画像を通じて初期軌道を導き出し、
前記境界面に接触せずに最大直径を有する各球を、前記初期軌道の選択された各点にセンタリングし、
前記各球の中心を連続的に連結して中心軌道を形成する、ステップを有する。
本発明の別の特徴によれば、
境界面を有する器官の仮想内視鏡画像のための自動中心線抽出方法であって、
内視鏡検査のための処置(プロトコル)をもちいて内視鏡ボクセルデータセットを導き出し、
前記データセットの最初のボクセルと最後のボクセルの間の、前記画像を通じて初期軌道を導き出し、ここで、前記初期軌道は複数の頂点を有しており、
前記境界面に接触せずに最大直径を有する各球を、前記複数の頂点の連続した各頂点にセンタリングし、
前記各球の中心を連続的に連結して中心軌道を形成する、ステップを有する。
本発明の別の特徴によれば、
境界壁を有する器官の仮想内視鏡画像のための自動中心線抽出方法であって、
内視鏡検査のための処置をもちいて内視鏡ボクセルデータセットを導き出し、
前記データセットの初期ボクセルをスタートとして、前記初期ボクセルに隣接する複数のボクセルに、一連の連続的に増加するラベル番号の第1のラベル番号をラベリングし、
前記第1のラベル番号を有する前記複数のボクセルの各ボクセルに隣接する複数のボクセルに、前記一連の番号における第2のラベル番号をラベリングし、
最も大きいラベル番号を有するボクセルに終点が到達するまで、前記先行のステップにおいて番号付けされた複数のボクセルに隣接する複数のボクセルに、漸次増加するラベル番号をラベリングすることによって先行のステップを繰り返し、
前記最もラベル大きい番号を有する第1のボクセルをスタートとし、前記第1のボクセルより小さいラベル番号を有する隣接する第2のボクセルを探し、そしてその位置を記憶し、
前記第2のボクセルをスタートとし、前記第2のボクセルより小さいラベル番号を有する隣接する第3のボクセルを探し、そしてその位置を記憶し、
前記初期ボクセルに到達するまで前記先行するステップを繰り返し、それによって、前記初期ボクセルと前記第1のボクセル間の画像を通じた初期軌道を確立し、
前記初期軌道をスムーズ化して中間軌道を作成し、ここで、前記中間軌道は複数の頂点を示し、
前記壁に接触しない最大直径を有する球を第1の頂点にセンタリングし、
前記壁に接触しない各最大直径を有する各球を更なる各頂点にセンタリングし、
そして、前記各球の中心を連続的に連結して中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
前記各球の中心を連続的に連結して中心軌道を形成するステップが、
前記中心軌道をスムーズ化し、
前記壁に接触しない最大直径を有する球を、前記中心軌道の選択された第1の点にセンタリングし、
前記壁に接触しない各最大直径を有する各球を、前記中心軌道の選択された更なる各点にセンタリングし、
前記各球の中心を連続的に連結して修正された中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
前記第1の点および更なる各点が、前記中心軌道の頂点を構成する。
本発明の別の特徴によれば、
前記各球の中心を連続的に連結して修正された中心軌道を形成するステップが、
前記中心軌道をスムーズ化し、
前記壁に接触しない最大直径を有する球を、前記中心軌道の選択された第1の点にセンタリングし、
前記壁に接触しない各最大直径を有する各球を、前記中心軌道の選択された更なる各点にセンタリングし、
前記各球の中心を連続的に連結して修正された中心軌道を形成し、
そして、選択的に、前記修正された軌道が希望するレベルのスムーズさまで更に修正されるまで、上述されたステップを繰り返す、
ステップを有する。
本発明の別の特徴によれば、
前記第1の点および更なる各点が、前記中心軌道の頂点を構成する。
本発明の別の特徴によれば、
境界壁を有する器官の仮想内視鏡画像のための自動中心線抽出方法であって、
内視鏡検査のための処置をもちいて内視鏡ボクセルデータセットを導き出し、
前記データセットの初期ボクセルをスタートとして、前記初期ボクセルの第1の隣接する複数のボクセルに、一連の連続的に増加する第1のラベル番号をラベリングし、
前記第1の隣接するボクセルに次に隣接する各ボクセルに、前記一連の番号における第2のラベル番号をラベリングし、
一連の最終ラベル番号を有するボクセルに終点が到達するまで、先行のステップを繰り返し、
前記最終ラベル番号を有する第1のボクセルをスタートとし、前記第1のボクセルより先行するラベル番号を有する隣接する第2のボクセルを探し、そしてその位置を記憶し、
前記第2のボクセルをスタートとし、前記第2のボクセルより先行するラベル番号を有する隣接する第3のボクセルを探し、そしてその位置を記憶し、
前記初期ボクセルに到達するまで前記先行するステップを繰り返し、それによって、前記初期ボクセルと前記第1のボクセル間の画像を通じた初期軌道を確立し、
前記初期軌道をスムーズ化して中間軌道を作成し、
前記境界に接触しない各最大直径を有する各球を、前記中間軌道の選択された各点にセンタリングし、
そして、前記各球の中心を連続的に連結して中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
境界壁を有する器官の仮想大腸鏡画像のための自動中心線抽出方法であって、
大腸鏡検査のための処置をもちいて大腸鏡ボクセルデータセットを導き出し、
前記データセットの初期ボクセルをスタートとして、前記初期ボクセルに隣接する複数のボクセルに、一連の連続的に増加するラベル番号の第1のラベル番号をラベリングし、
前記第1のラベル番号を有する前記複数のボクセルの各ボクセルに隣接する複数のボクセルに、前記一連の番号における第2のラベル番号をラベリングし、
最も大きいラベル番号を有するボクセルに終点が到達するまで、前記先行のステップにおいて番号付けされた複数のボクセルに隣接する複数のボクセルに、漸次増加するラベル番号をラベリングすることによって先行のステップを繰り返し、
前記最も大きい番号を有する第1のボクセルをスタートとし、前記第1のボクセルより小さいラベル番号を有する隣接する第2のボクセルを探し、そしてその位置を記憶し、
前記第2のボクセルをスタートとし、前記第2のボクセルより小さいラベル番号を有する隣接する第3のボクセルを探し、そしてその位置を記憶し、
前記初期ボクセルに到達するまで前記先行するステップを繰り返し、それによって、前記初期ボクセルと前記第1のボクセル間の画像を通じた初期軌道を確立し、
前記初期軌道をスムーズ化して中間軌道を作成し、ここで、前記中間軌道は複数の頂点を示し、
前記壁に接触せず最大直径を有する球を第1の頂点にセンタリングし、
前記壁に接触しない各最大直径を有する各球を更なる各頂点にセンタリングし、
そして、前記各球の中心を連続的に連結して中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
境界面を有する器官の仮想大腸鏡画像のための自動中心線抽出方法であって、
大腸内視鏡検査のための処置をもちいて大腸内視鏡ボクセルデータセットを導き出し、
前記データセットの最初のボクセルと最後のボクセルの間の、前記画像を通る初期軌道を導き出し、
前記境界面に接触しない最大直径を有する各球を、前記初期軌道の選択された各点にセンタリングし、
前記各球の中心を連続的に連結して中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
境界面を有する大腸の仮想大腸鏡画像のための自動中心線抽出装置であって、
大腸内視鏡検査のための処置をもちいて大腸内視鏡ボクセルデータセットを導き出す手段と、
前記データセットから最初のボクセルと最後のボクセルの間の、前記画像を通じて初期軌道を導き出す手段と、
前記境界面に接触しない最大直径を有する各球を、前記初期軌道の選択された各点にセンタリングする手段と、
前記各球の中心を連続的に連結して中心軌道を形成する手段と、
を有する。
本発明の別の特徴によれば、
境界面を有する器官の仮想内視鏡画像のための自動中心線抽出装置であって、
内視鏡データセットから導き出される画像を通る初期軌道の選択された各点に、前記境界面に接触せずに最大直径を有する各球をセンタリングする手段と、
前記各球の中心を連続的に連結して中心軌道を形成する手段と、
を有する。
本発明の別の特徴によれば、
境界面を有する物体を表すデータセットのための自動中心線抽出方法であって、
前記データセットから導き出される前記物体を通る初期軌道の選択された各点に、前記境界面に接触せずに最大直径を有する各球をセンタリングし、
前記各球の中心を連続的に連結して中心軌道を形成する。
本発明の別の特徴によれば、
前記中心軌道を形成するステップが、修正された中心軌道を形成するために前記中心軌道をスムーズ化する、ステップを有する。
本発明の別の特徴によれば、
前記中心軌道を形成するステップが、
前記境界面に接触しない最大直径を有する各球を、前記修正された中心軌道の選択された各点にセンタリングし、
前記各球の中心を連続的に連結して更なる修正された中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
前記中心軌道を形成するステップが、
希望するレベルまで修正された最終の中心軌道を導き出すため、請求項C1および請求項C2のステップを繰り返し実行する、
ステップを有する。
本発明の別の特徴によれば、
前記各球のセンタリングのステップが、
(a)各多面体によって模擬された各球を用いて、
(b)前記境界面の中の利用できるスペースと比較して比較的小さい第1の模擬された球をセンタリングし、
(c)前記境界面と前記第1の模擬された球との衝突を検査し、
(d)前記境界のある点において衝突が検出された場合、前記衝突を終了させるために、前記模擬された球を前記境界の前記点から離れるように動かすための計算された力を導き出し、
(e)衝突がない(A)、又は衝突が終了した(B)の少なくともどちらかの場合、衝突が検出されるまで前記第1の模擬された球を大きくし、衝突が検出されることなく前記第1の模擬された球を大きくすることが不可能となるまで前記ステップ(d)を繰り返し、
(f)前記各球の残された各球に対しても、前記ステップ(b)から(e)を繰り返し、そして、各球の中心を連続的に連結して、中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
前記ステップ(d)において、前記力が、前記模擬された球を前記初期軌道に対して垂直な面上を動かすように作用する。
本発明の別の特徴によれば、
前記計算された力を導き出すステップが、空間と時間との関係を用いて、待ち時間の少ない応答の早い処理速度を実現する。
本発明の別の特徴によれば、
前記各球のセンタリングのステップが、
(A)各多面体によって表される模擬された各球を用いて、
(B)第1の模擬された球をセンタリングし、
(C)前記第1の模擬された球の頂点と前記境界面との衝突を検査し、
(D)前記境界面のある点で衝突が検出された場合、前記衝突を終了させるため、前記模擬された球を前記境界面の前記点から離れるように動かす計算された力を導き出し、
(E)衝突がない(A)、又は衝突が終了した(B)の少なくともどちらかの場合、衝突が検出されるまで前記第1の模擬された球を大きくし、衝突が検出されることなく前記第1の模擬された球を大きくすることが不可能となるまで前記ステップ(D)を繰り返し、そしてステップ(F)に進む、
(F)前記各球の残された球に対しても、前記ステップ(B)から(E)を繰り返し、そして、各球の中心を連続的に連結して、中心軌道を形成する、
ステップを有する。
本発明の別の特徴によれば、
前記ステップ(D)において、前記計算された力が、前記模擬された球を前記初期軌道に対して垂直な面上を動かすように作用する。
本発明の別の特徴によれば、
前記計算された力を導き出すステップが、空間と時間との関係を用いて、待ち時間の少ない応答の早い処理速度を実現する。
「図面の簡単な説明」
本発明は、以下の図面と組み合わせて、詳細な説明からさらに良く理解できる。
図1および図2は、本発明の実施例に従って、初期ボクセル・軌道(パス)、初期スムーズイング・ステップ、およびセンタリングを示している。
図3は、本発明の実施例に従ったセンタリングのステップの詳細について示している。
「発明の詳細な説明」
本発明の方法およびシステムがプログラム可能なディジタルコンピュータを用いて装置化されることが好ましく、また、ここで述べる作用も、そのような装置化に関連していることが理解される。
イメージングの分野において、「空気(air)」、「内腔」などの用語は、典型的には、これらの特性に関連する画像のことの意味で言及していることが意図とされている。
本発明の実施例によれば、大腸のセグメント化は、計算の始点および終点を形成すること、および、以下に説明するように初期軌道(パス)計算を形成すること、を有している。この後で、この軌道のセンタリングとスムージング(スムーズ化)が引き続き行われる。
一般的に、本発明による方法は、典型的には、腸に対する前処置や空気吸入を含む大腸内視鏡プロトコル(処置、手順)を用いて得られた大腸データセットをスタートとする。このデータセットは、空気に対する閾値を適用したり、結合した部分を分析することによりセグメント化される。ここで、結合した部分のうち大腸に所属しない部分は、自動的に、あるいはマニュアル選択的に除去される。
なお、本発明の方法は、他の仮想内視鏡検査にも適用可能であり、一般的には、境界を有する腔(空洞)には適用可能である。さらには、本発明の方法は、仮想内視鏡のために必ずしも用意されていないデータセット、例えば、コントラストを有する血管に対しても適用可能である。また、本発明の中心線(センターライン)方法には、2つのセンターラインを登録し、互いにマッピングし、測定し、血管に沿って垂直面を定義し、セグメント化し、可視化するような用途を含む、他の用途もある。
本発明の実施例は次のようなステップを有する。
A 大腸のセグメント化
B 始点と終点の計算
C 初期軌道の計算
D 軌道のセンタリングおよびスムージング
ステップAでは、大腸内視鏡プロトコル、即ち、腸に対する事前処置や空気吸入などを用いて得られた大腸データセットをスタートとする。このデータセットは、空気に対する閾値を適用したり、結合した部分を分析することによりセグメント化される。ここで、結合した部分のうち大腸に所属しない部分は、自動的に、あるいはマニュアル選択的に除去される。
ステップB(始点と終点の計算)では、距離ラベリングが、大腸に属する第1のボクセルから出発して、実行される。この第1のボクセルには0がラベルされ、それに隣接する各ボクセルには1がラベルされ、それらに隣接する各ボクセルには2がラベルされ、以下同様にラベリングされる。この探索は最も大きな数字のラベルを有するボクセルまで実行される。これを始点p0とする。始点p0から始めて、ステップBを繰り返し、そして最も大きな数字を有する別のボクセルを得ることによって、新しい距離ラベルマップが作成される。この別のボクセルを終点p1とする。
ステップC(初期軌道計算)では、距離ラベルが、終点p1をスタートとして始点p0を終了とする結合されたボクセルによる一つの軌道を得るために用いられる。これは、p1に隣接する各ボクセルの中から、より小さいラベルを有するボクセルを探し、その位置を記憶し、次に、このボクセルに隣接する各ボクセルの中から、より小さいラベルを有するボクセルを探し、p0に達するまでこれらを繰り返すことによって遂行される。図1aを参照のこと。前記の初期軌道計算は、一例として揚げたもので、この計算のための別の適したステップを本発明の代替的実施例として代わりに用いても良い。
ステップD(軌道のセンタリングとスムージング)では、このようにして得られた初期軌道は、一般的にはギザギザ(ジグザグ)しており、そこで、例えば、公知のガウスのスムージング法を適用してスムージング(スムーズ化)される。如何なる頂点(vertex)も、それに隣接するn個の頂点の加重平均によって置き換えられる。ここで、nは、希望するスムージングのタイプの特性(スムーズさの程度)に基づいて選択された常数であり、nとしてより大きい値又はより小さい値は、平均値をとる範囲の程度を決定するものである。このプロセスは、非常に多数の反復(iteration)によって繰り返えされる。如何なる新しい頂点も、その新しい座標がそのセグメント化された大腸の中にまだ位置しているかどうかを検査することによって、大腸壁又は境界面と衝突しているかがテストされる。衝突した場合には、その頂点は衝突しなかった最後の位置に置かれる。このようにして得られた軌道は、静力学の分野からの有益な類推の助けにより可視化される。つまり、このプロセスによって得られる軌道は、大腸内を通る量の概念のないフレキシブルな紐の両端を引っ張って得られる軌道に似ている。図1bを参照のこと。
このスムーズ化された軌道は、サイズが大きくなる球を用いてセンタリングされる。図3を参照のこと。本発明における意味での球とは、許容できる程度に似た表現をするために十分な数の面をもつ多面体によって表現される。このような多面体は複数の頂点(vertices)を示すが、先ほどの軌道の頂点(vertices)とは混同すべきではない。小さい球がその軌道に沿ったある頂点においてセンタリングされる。
この球の各頂点は大腸壁との衝突がチェックされる。もし、それらの頂点が衝突するならば、変位力が、この球の法線に基づいて定義され計算される。この力はこの球を壁から離すように働く。この球は軌道に対して垂直な面上を動くように強いられる。もし、球がもはや衝突しないならば、球のサイズは大きくされ、衝突の計算と変位が繰り返される。球が衝突することなく、もはや変位もできない、かつ/又は、サイズを大きくすることもできなくなるとこのプロセスはストップする。このようにして、この球は壁に衝突しない範囲で最大のサイズを示す。この球の中心は、今や、その頂点のための新しい位置として用いられる。このプロセスは、軌道の新しい頂点のために繰り返される。図1C参照のこと。センタリングの後で、軌道には、衝突制御を用いた更なるガウスのスムージング法を施す。この反復時間を短くしたければ、狭い隣接する範囲を用いればよい。
衝突探索の手法および変位力の計算については、論文「Geiger, B. "Real-Time Collision Detection and Response for Complex Environments," Computer Graphics International 2000; Jun. 19-23, 2000; Geneva, Switzerland」に記述されている。本発明と矛盾しない程度に参考としてここで組み入れられるところを開示しているこの記事は、医療画像から得られるような複雑な環境や、永久に接触している物体に対して適した衝突探索の方法を開示している。この方法は、ポイント−非正4面体−メッシュ−クエリー(a point−intetrahedral−mesh query)に基づいている。空間と時間のコヒレンス(coherence)が、インタラクティブ(interactive)な速度を実現するために用いられる(待ち時間の少ない応答の早い処理速度を実現するため、空間(領域)と時間の関係が決定される)。衝突探索に加えて、このシステムは、衝突のレスポンスのために用いる力とトルクを計算する。
しかし、本発明における衝突探索と力の計算は、多面体復元体の上で実行するよりも直接ボクセルの上で実行されることが好ましい、それは、一般的には上述したGeiger氏の論文でアプローチの概要は述べられている。
纏めると、図1aと図2aは初期ボクセル・軌道を示し、図1bと図2bは初期スムーズ化ステップを示し、そして、図1cと図2cは最後のセンタリングを示している。図3aは、球が頂点位置においてセンタリングされるところのセンタリングステップを示している。図3bにおいて、その球のサイズは壁に衝突するまで大きくされる。衝突から、変位力が計算される。図3cにおいて、球がもはや衝突しなくなるまで変位力が与えられる。球のサイズはもう一度大きくされ、壁に衝突することとなる。図3dにおいて、変位力が計算される。変位が起こった後で、球はそれ以上大きくなることができない位置に達する。これが、図3eにおいて、最終の頂点位置となる。
第1の例として仮想大腸鏡の例を用いたが、本発明の方法は、他の仮想内視鏡検査に適用可能であり、実際一般的には、境界面をもつ腔には適用可能である。
本発明の方法は、必ずしも仮想内視鏡のためにだけ用意したものではなく、例えば、上述したコントラストを有する血管のような他のデータセットにも適用可能であることは特に強調しておく。中心線方法は、2つの中心線を登録し、又はマッピングし、測定し、血管に沿った垂直セクションを定義し、セグメント化し、可視化するような、他の用途の可能性を有している。
本発明は実施例を用いて説明された。当業者であれば、本発明の本質から逸脱することなしに色々な修正や代替が可能であることは明らかである。理解しやすいように例を挙げるなら、ボクセルの一連のナンバリングを都合の良いように数が大きくなるナンバリングの順序にしたが、数を小さくする順序や他の通常のラベリング順序を用いても良いことは明らかである。他の例を挙げるなら、初期軌道を導く方法のバリエーションとして等価な方法を用いることもできる。従って、初期軌道を導き出す他の適当な方法が、大腸のセグメント化、始点と終点計算、および/又は初期軌道計算の各ステップに対する例としての上述したステップの代わりに用いられても良い。適当な初期軌道が与えられるなら、それによって軌道のセンタリングやスムージングが実行できる。
これらの、そして似たようなバリエーションや代替案は、クレームに定義された本発明においては、意図とされているものである。
図1は、初期ボクセル軌道、初期スムーズイングおよびセンタリングを示している。 図2は、初期ボクセル軌道、初期スムーズイングおよびセンタリングを示している。 図3は、センタリングのステップの詳細について示している。

Claims (58)

  1. 境界面を有する器官の内視鏡データセットのための自動中心線抽出方法であって、
    内視鏡データセットから導き出される画像を通る初期軌道の選択された各点に、前記境界面に接触せずに最大直径を有する各球をセンタリングし、
    前記各球の中心を連続的に連結して中心軌道を形成する、
    ことを特徴とする方法。
  2. 前記中心軌道を形成するステップが、修正された中心軌道を形成するために前記中心軌道をスムーズ化する、ステップを有する請求項1記載の方法。
  3. 前記中心軌道を形成するステップが、
    前記修正された中心軌道の選択された各点に、前記境界面に接触せずに最大直径を有する各球をセンタリングし、
    そして、前記各球の中心を連続的に連結して、更に修正された中心軌道を形成する、
    ステップを有する請求項2記載の方法。
  4. 前記中心軌道を形成するステップが、希望するレベルまで修正された最終の中心軌道を導き出すために請求項1および請求項2記載のステップを繰り返し実行する、
    ステップを有する請求項2記載の方法。
  5. 前記各球のセンタリングのステップが、
    (a)各多面体によって模擬された各球を用いて、
    (b)前記境界面の中の利用できるスペースと比較して比較的小さい第1の模擬された球をセンタリングし、
    (c)前記境界面と前記第1の模擬された球との衝突を検査し、
    (d)前記境界のある点において衝突が検出された場合、前記衝突を終了させるために、前記模擬された球を前記境界の前記点から離れるように動かすための計算された力を導き出し、
    (e)衝突がない(A)、又は衝突が終了した(B)の少なくともどちらかの場合、衝突が検出されるまで前記第1の模擬された球を大きくし、衝突が検出されることなく前記第1の模擬された球を大きくすることが不可能となるまで前記ステップ(d)を繰り返し、
    (f)前記各球の残された各球に対しても、前記ステップ(b)から(e)を繰り返し、そして、各球の中心を連続的に連結して、中心軌道を形成する、
    ステップを有する請求項1記載の方法。
  6. 前記ステップ(d)において、前記計算された力が、前記模擬された球を前記初期軌道に対して垂直な面上を動かすように作用する、請求項5記載の方法。
  7. 前記計算された力を導き出すステップが、空間と時間との関係を用いて、待ち時間の少ない応答の早い処理速度を実現する、請求項6記載の方法。
  8. 前記各球のセンタリングのステップが、
    (A)各多面体によって表される模擬された各球を用いて、
    (B)第1の模擬された球をセンタリングし、
    (C)前記第1の模擬された球の頂点と前記境界面との衝突を検査し、
    (D)前記境界面のある点で衝突が検出された場合、前記衝突を終了させるため、前記模擬された球を前記境界面の前記ある点から離れるように動かす計算された力を導き出し、
    (E)衝突がない(A)、又は衝突が終了した(B)の少なくともどちらかの場合、衝突が検出されるまで前記第1の模擬された球を大きくし、衝突が検出されることなく前記第1の模擬された球を大きくすることが不可能となるまで前記ステップ(D)を繰り返し、そしてステップ(F)に進み、
    (F)前記各球の残された球に対しても、前記ステップ(B)から(E)を繰り返し、そして、各球の中心を連続的に連結して、中心軌道を形成する、
    ステップを有する請求項1記載の方法。
  9. 前記ステップ(D)において、前記計算された力が、前記模擬された球を前記初期軌道に対して垂直な面上を動かすように作用する、
    請求項8記載の方法。
  10. 前記計算された力を導き出すステップが、空間と時間との関係を用いて、待ち時間の少ない応答の早い処理速度を実現する、請求項8記載の方法。
  11. 境界面を有する器官の仮想内視鏡画像のための自動中心線抽出方法であって、
    内視鏡データセットの最初のボクセルと最後のボクセルの間の、前記画像を通る初期軌道を導き出し、
    前記境界面に接触せずに最大直径を有する各球を初期軌道の選択された各点にセンタリングし、
    前記各球の中心を連続的に連結して中心軌道を形成する、
    ことを特徴とする方法。
  12. 前記中心軌道を形成するステップが、修正された中心軌道を形成するために前記中心軌道をスムーズ化するステップを有する、請求項11記載の方法。
  13. 前記中心軌道を形成するステップが、
    前記境界面に接触せずに最大直径を有する各球を、前記修正された中心軌道の選択された各点にセンタリングし、
    そして、前記各球の中心を連続的に連結して、さらに修正された中心軌道を形成する、
    ステップを有する請求項12記載の方法。
  14. 前記中心軌道を形成するステップが、希望するレベルまで修正された最終の中心軌道を導き出すために請求項12および請求項13記載のステップを繰り返し実行する、
    ステップを有する請求項12記載の方法。
  15. 境界面を有する器官の仮想内視鏡画像のための自動中心線抽出方法であって、
    大腸内視鏡検査のための処置(プロトコル)をもちいて大腸内視鏡ボクセルデータセットを導き出し、
    内視鏡データセットの最初のボクセルと最後のボクセルの間の、前記画像を通じて初期軌道を導き出し、
    前記境界面に接触せずに最大直径を有する各球を、前記初期軌道の選択された各点にセンタリングし、
    前記各球の中心を連続的に連結して中心軌道を形成する、
    ことを特徴とする方法。
  16. 前記中心軌道を形成するステップが、修正された中心軌道を形成するために前記中心軌道をスムーズ化する、請求項15記載の方法。
  17. 前記中心軌道を形成するステップが、
    前記境界面に接触せずに最大直径を有する各球を、前記修正された中心軌道の選択された各点にセンタリングし、
    そして、前記各球の中心を連続的に連結して、さらに修正された中心軌道を形成する、
    ステップを有する請求項15記載の方法。
  18. 前記中心軌道を形成するステップが、希望するレベルまで修正された最終の中心軌道を導き出すために請求項C1および請求項C2記載のステップを繰り返し実行する、
    請求項16記載の方法。
  19. 前記各球のセンタリングのステップが、
    (a)各多面体によって模擬された各球を用いて、
    (b)前記境界面の中の利用できるスペースと比較して比較的小さい第1の模擬された球をセンタリングし、
    (c)前記境界面と前記第1の模擬された球との衝突を検査し、
    (d)前記境界のある点において衝突が検出された場合、前記衝突を終了させるために、前記模擬された球を前記境界の前記点から離れるように動かすための計算された力を導き出し、
    (e)衝突がない(A)、又は衝突が終了した(B)の少なくともどちらかの場合、衝突が検出されるまで前記第1の模擬された球を大きくし、衝突が検出されることなく前記第1の模擬された球を大きくすることが不可能となるまで前記ステップ(d)及び(e)を繰り返し、
    (f)前記各球の残された各球に対しても、前記ステップ(b)から(e)を繰り返し、そして、各球の中心を連続的に連結して、中心軌道を形成する、
    ステップを有する請求項15記載の方法。
  20. 前記ステップ(d)において、前記力が、前記模擬された球を前記初期軌道に対して垂直な面上を動かすように作用する、
    請求項19記載の方法。
  21. 前記計算された力を導き出すステップが、空間と時間との関係を用いて、待ち時間の少ない応答の早い処理速度を実現する、請求項20記載の方法。
  22. 前記各球のセンタリングのステップが、
    (A)各多面体によって表される模擬された各球を用いて、
    (B)第1の模擬された球をセンタリングし、
    (C)前記第1の模擬された球の頂点と前記境界面との衝突を検査し、
    (D)前記境界面のある点で衝突が検出された場合、前記衝突を終了させるため、前記模擬された球を前記境界面の前記点から離れるように動かす計算された力を導き出し、
    (E)衝突がない(A)、又は衝突が終了した(B)の少なくともどちらかの場合、衝突が検出されるまで前記第1の模擬された球を大きくし、衝突が検出されることなく前記第1の模擬された球を大きくすることが不可能となるまで前記ステップ(D)を繰り返し、そしてステップ(F)に進む、
    (F)前記各球の残された球に対しても、前記ステップ(B)から(E)を繰り返し、そして、各球の中心を連続的に連結して、中心軌道を形成する、
    ステップを有する請求項15記載の方法。
  23. 前記ステップ(D)において、前記計算された力が、前記模擬された球を前記初期軌道に対して垂直な面上を動かすように作用する、
    請求項22記載の方法。
  24. 前記計算された力を導き出すステップが、空間と時間との関係を用いて、待ち時間の少ない応答の早い処理速度を実現する、請求項23記載の方法。
  25. 境界面を有する器官の仮想内視鏡画像のための自動中心線抽出方法であって、
    内視鏡検査のための処置(プロトコル)をもちいて内視鏡ボクセルデータセットを導き出し、
    前記データセットの最初のボクセルと最後のボクセルの間の、前記画像を通じて初期軌道を導き出し、ここで、前記初期軌道は複数の頂点を有しており、
    前記境界面に接触せずに最大直径を有する各球を、前記複数の頂点の連続した各頂点にセンタリングし、
    前記各球の中心を連続的に連結して中心軌道を形成する、
    ことを特徴とする方法。
  26. 前記中心軌道を形成するステップが、修正された中心軌道を形成するために前記中心軌道をスムーズ化する、
    ステップを有する請求項25記載の方法。
  27. 前記中心軌道を形成するステップが、
    前記境界面に接触せずに最大直径を有する各球を、前記修正された中心軌道の選択された各点にセンタリングし、
    そして、前記各球の中心を連続的に連結して、さらに修正された中心軌道を形成する、
    ステップを有する請求項26記載の方法。
  28. 前記中心軌道を形成するステップが、希望するレベルまで修正された最終の中心軌道を導き出すために請求項C1および請求項C2記載のステップを繰り返し実行する、
    請求項26記載の方法。
  29. 境界壁を有する器官の仮想内視鏡画像のための自動中心線抽出方法であって、
    内視鏡検査のための処置をもちいて内視鏡ボクセルデータセットを導き出し、
    前記データセットの初期ボクセルをスタートとして、前記初期ボクセルに隣接する複数のボクセルに、一連の連続的に増加するラベル番号の第1のラベル番号をラベリングし、
    前記第1のラベル番号を有する前記複数のボクセルの各ボクセルに隣接する複数のボクセルに、前記一連の番号における第2のラベル番号をラベリングし、
    最も大きいラベル番号を有するボクセルに終点が到達するまで、前記先行のステップにおいて番号付けされた複数のボクセルに隣接する複数のボクセルに、漸次増加するラベル番号をラベリングすることによって先行のステップを繰り返し、
    前記最もラベル大きい番号を有する第1のボクセルをスタートとし、前記第1のボクセルより小さいラベル番号を有する隣接する第2のボクセルを探し、そしてその位置を記憶し、
    前記第2のボクセルをスタートとし、前記第2のボクセルより小さいラベル番号を有する隣接する第3のボクセルを探し、そしてその位置を記憶し、
    前記初期ボクセルに到達するまで前記先行するステップを繰り返し、それによって、前記初期ボクセルと前記第1のボクセル間の画像を通じた初期軌道を確立し、
    前記初期軌道をスムーズ化して中間軌道を作成し、ここで、前記中間軌道は複数の頂点を示し、
    前記壁に接触しない最大直径を有する球を第1の頂点にセンタリングし、
    前記壁に接触しない各最大直径を有する各球を更なる各頂点にセンタリングし、
    そして、前記各球の中心を連続的に連結して中心軌道を形成する、
    ことを特徴とする方法。
  30. 前記各球の中心を連続的に連結して中心軌道を形成するステップが、
    前記中心軌道をスムーズ化し、
    前記壁に接触しない最大直径を有する球を、前記中心軌道の選択された第1の点にセンタリングし、
    前記壁に接触しない各最大直径を有する各球を、前記中心軌道の選択された更なる各点にセンタリングし、
    前記各球の中心を連続的に連結して修正された中心軌道を形成する、
    ステップを有する請求項29記載の方法。
  31. 前記第1の点および更なる各点が、前記中心軌道の頂点を構成する、請求項30記載の方法。
  32. 前記各球の中心を連続的に連結して修正された中心軌道を形成するステップが、
    前記中心軌道をスムーズ化し、
    前記壁に接触しない最大直径を有する球を、前記中心軌道の選択された第1の点にセンタリングし、
    前記壁に接触しない各最大直径を有する各球を、前記中心軌道の選択された更なる各点にセンタリングし、
    前記各球の中心を連続的に連結して修正された中心軌道を形成し、
    そして、選択的に、前記修正された軌道が希望するレベルのスムーズさまで更に修正されるまで、上述されたステップを繰り返す、
    ステップを有する、請求項29記載の方法。
  33. 前記第1の点および更なる各点が、前記中心軌道の頂点を構成する、請求項32記載の方法。
  34. 境界壁を有する器官の仮想内視鏡画像のための自動中心線抽出方法であって、
    内視鏡検査のための処置をもちいて内視鏡ボクセルデータセットを導き出し、
    前記データセットの初期ボクセルをスタートとして、前記初期ボクセルの第1の隣接する複数のボクセルに、一連の連続的に増加する第1のラベル番号をラベリングし、
    前記第1の隣接するボクセルに次に隣接する各ボクセルに、前記一連の番号における第2のラベル番号をラベリングし、
    一連の最終ラベル番号を有するボクセルに終点が到達するまで、先行のステップを繰り返し、
    前記最終ラベル番号を有する第1のボクセルをスタートとし、前記第1のボクセルより先行するラベル番号を有する隣接する第2のボクセルを探し、そしてその位置を記憶し、
    前記第2のボクセルをスタートとし、前記第2のボクセルより先行するラベル番号を有する隣接する第3のボクセルを探し、そしてその位置を記憶し、
    前記初期ボクセルに到達するまで前記先行するステップを繰り返し、それによって、前記初期ボクセルと前記第1のボクセル間の画像を通じた初期軌道を確立し、
    前記初期軌道をスムーズ化して中間軌道を作成し、
    前記境界に接触しない各最大直径を有する各球を、前記中間軌道の選択された各点にセンタリングし、
    そして、前記各球の中心を連続的に連結して中心軌道を形成する、
    ことを特徴とする方法。
  35. 前記初期軌道を形成するステップが、各頂点を示す初期軌道を形成するステップを有し、そして、前記中間軌道の選択された各点に各球をセンタリングするステップが、前記各頂点に前記各球をセンタリングするステップを有する、請求項34記載の方法。
  36. 前記各球の中心を連続的に連結して修正された中心軌道を形成するステップが、
    前記中心軌道をスムーズ化し、
    前記壁に接触しない最大直径を有する球を、前記中心軌道の選択された第1の点にセンタリングし、
    前記境界壁に接触しない各最大直径を有する各球を、前記中心軌道の選択された更なる各点にセンタリングし、
    前記各球の中心を連続的に連結して修正された中心軌道を形成し、
    そして、選択的に、前記修正された軌道が希望するレベルのスムーズさまで更に修正されるまで、上述されたステップを繰り返す、
    ステップを有する請求項34記載の方法。
  37. 前記初期軌道を形成するステップが、各頂点を示す初期軌道を形成するステップを有し、そして、前記中間軌道の選択された各点に各球をセンタリングするステップが、前記各頂点に前記各球をセンタリングするステップを有する、請求項34記載の方法。
  38. 境界壁を有する器官の仮想大腸鏡画像のための自動中心線抽出方法であって、
    大腸鏡検査のための処置をもちいて大腸鏡ボクセルデータセットを導き出し、
    前記データセットの初期ボクセルをスタートとして、前記初期ボクセルに隣接する複数のボクセルに、一連の連続的に増加するラベル番号の第1のラベル番号をラベリングし、
    前記第1のラベル番号を有する前記複数のボクセルの各ボクセルに隣接する複数のボクセルに、前記一連の番号における第2のラベル番号をラベリングし、
    最も大きいラベル番号を有するボクセルに終点が到達するまで、前記先行のステップにおいて番号付けされた複数のボクセルに隣接する複数のボクセルに、漸次増加するラベル番号をラベリングすることによって先行のステップを繰り返し、
    前記最も大きい番号を有する第1のボクセルをスタートとし、前記第1のボクセルより小さいラベル番号を有する隣接する第2のボクセルを探し、そしてその位置を記憶し、
    前記第2のボクセルをスタートとし、前記第2のボクセルより小さいラベル番号を有する隣接する第3のボクセルを探し、そしてその位置を記憶し、
    前記初期ボクセルに到達するまで前記先行するステップを繰り返し、それによって、前記初期ボクセルと前記第1のボクセル間の画像を通じた初期軌道を確立し、
    前記初期軌道をスムーズ化して中間軌道を作成し、ここで、前記中間軌道は複数の頂点を示し、
    前記壁に接触せず最大直径を有する球を第1の頂点にセンタリングし、
    前記壁に接触しない各最大直径を有する各球を更なる各頂点にセンタリングし、
    そして、前記各球の中心を連続的に連結して中心軌道を形成する、
    ことを特徴とする方法。
  39. 前記各球の中心を連続的に連結して中心軌道を形成するステップが、
    前記中心軌道をスムーズ化し、
    前記壁に接触しない最大直径を有する球を、前記中心軌道の選択された第1の点にセンタリングし、
    前記壁に接触しない各最大直径を有する各球を、前記中心軌道の選択された更なる各点にセンタリングし、そして、
    前記各球の中心を連続的に連結して修正された中心軌道を形成する、
    ステップを有する請求項38記載の方法。
  40. 前記第1の点および更なる各点が、前記中心軌道の頂点を有する、請求項39記載の方法。
  41. 前記各球の中心を連続的に連結して修正された中心軌道を形成するステップが、
    前記中心軌道をスムーズ化し、
    前記壁に接触しない最大直径を有する球を、前記中心軌道の選択された第1の点にセンタリングし、
    前記境界壁に接触しない各最大直径を有する各球を、前記中心軌道の選択された更なる各点にセンタリングし、
    前記各球の中心を連続的に連結して修正された中心軌道を形成し、
    そして、選択的に、前記修正された軌道が希望するレベルのスムーズさまで更に修正されるまで、上述されたステップを繰り返す、
    ステップを有する請求項38記載の方法。
  42. 前記第1の点および更なる各点が、前記中心軌道の頂点を構成する、請求項41記載の方法。
  43. 境界面を有する器官の仮想大腸鏡画像のための自動中心線抽出方法であって、
    大腸内視鏡検査のための処置をもちいて大腸内視鏡ボクセルデータセットを導き出し、
    前記データセットの最初のボクセルと最後のボクセルの間の、前記画像を通る初期軌道を導き出し、
    前記境界面に接触しない最大直径を有する各球を、前記初期軌道の選択された各点にセンタリングし、
    前記各球の中心を連続的に連結して中心軌道を形成する、
    ことを特徴とする方法。
  44. 前記中心軌道を形成するステップが、修正された中心軌道を形成するために前記中心軌道をスムーズ化するステップを有する請求項38記載の方法。
  45. 前記中心軌道を形成するステップが、
    前記境界面に接触しない最大直径を有する各球を、前記修正された中心軌道の選択された各点にセンタリングし、
    前記各球の中心を連続的に連結して更なる修正された中心軌道を形成する、
    ステップを有する請求項39記載の方法。
  46. 前記中心軌道を形成するステップが、
    希望するレベルまで修正された最終の中心軌道を導き出すため、請求項C1および請求項C2のステップを繰り返し実行する
    ステップを有する請求項44記載の方法。
  47. 境界面を有する大腸の仮想大腸鏡画像のための自動中心線抽出装置であって、
    大腸内視鏡検査のための処置をもちいて大腸内視鏡ボクセルデータセットを導き出す手段と、
    前記データセットから最初のボクセルと最後のボクセルの間の、前記画像を通じて初期軌道を導き出す手段と、
    前記境界面に接触しない最大直径を有する各球を、前記初期軌道の選択された各点にセンタリングする手段と、
    前記各球の中心を連続的に連結して中心軌道を形成する手段と、
    を有することを特徴とする装置。
  48. 境界面を有する器官の仮想内視鏡画像のための自動中心線抽出装置であって、
    内視鏡データセットから導き出される画像を通る初期軌道の選択された各点に、前記境界面に接触せずに最大直径を有する各球をセンタリングする手段と、
    前記各球の中心を連続的に連結して中心軌道を形成する手段と、
    を有することを特徴とする装置。
  49. 境界面を有する物体を表すデータセットのための自動中心線抽出方法であって、
    前記データセットから導き出される前記物体を通る初期軌道の選択された各点に、前記境界面に接触せずに最大直径を有する各球をセンタリングし、
    前記各球の中心を連続的に連結して中心軌道を形成する、
    ことを特徴とする方法。
  50. 前記中心軌道を形成するステップが、修正された中心軌道を形成するために前記中心軌道をスムーズ化する、ステップを有する請求項49記載の方法。
  51. 前記中心軌道を形成するステップが、
    前記境界面に接触しない最大直径を有する各球を、前記修正された中心軌道の選択された各点にセンタリングし、
    前記各球の中心を連続的に連結して更なる修正された中心軌道を形成する、
    ステップを有する請求項50記載の方法。
  52. 前記中心軌道を形成するステップが、
    希望するレベルまで修正された最終の中心軌道を導き出すため、請求項C1および請求項C2のステップを繰り返し実行する、
    ステップを有する請求項50記載の方法。
  53. 前記各球のセンタリングのステップが、
    (a)各多面体によって模擬された各球を用いて、
    (b)前記境界面の中の利用できるスペースと比較して比較的小さい第1の模擬された球をセンタリングし、
    (c)前記境界面と前記第1の模擬された球との衝突を検査し、
    (d)前記境界のある点において衝突が検出された場合、前記衝突を終了させるために、前記模擬された球を前記境界の前記点から離れるように動かすための計算された力を導き出し、
    (e)衝突がない(A)、又は衝突が終了した(B)の少なくともどちらかの場合、衝突が検出されるまで前記第1の模擬された球を大きくし、衝突が検出されることなく前記第1の模擬された球を大きくすることが不可能となるまで前記ステップ(d)を繰り返し、
    (f)前記各球の残された各球に対しても、前記ステップ(b)から(e)を繰り返し、そして、各球の中心を連続的に連結して、中心軌道を形成する、
    ステップを有する請求項49記載の方法。
  54. 前記ステップ(d)において、前記力が、前記模擬された球を前記初期軌道に対して垂直な面上を動かすように作用する、請求項53記載の方法。
  55. 前記計算された力を導き出すステップが、空間と時間との関係を用いて、待ち時間の少ない応答の早い処理速度を実現する、請求項54記載の方法。
  56. 前記各球のセンタリングのステップが、
    (A)各多面体によって表される模擬された各球を用いて、
    (B)第1の模擬された球をセンタリングし、
    (C)前記第1の模擬された球の頂点と前記境界面との衝突を検査し、
    (D)前記境界面のある点で衝突が検出された場合、前記衝突を終了させるため、前記模擬された球を前記境界面の前記点から離れるように動かす計算された力を導き出し、
    (E)衝突がない(A)、又は衝突が終了した(B)の少なくともどちらかの場合、衝突が検出されるまで前記第1の模擬された球を大きくし、衝突が検出されることなく前記第1の模擬された球を大きくすることが不可能となるまで前記ステップ(D)を繰り返し、そしてステップ(F)に進む、
    (F)前記各球の残された球に対しても、前記ステップ(B)から(E)を繰り返し、そして、各球の中心を連続的に連結して、中心軌道を形成する、
    ステップを有する請求項49記載の方法。
  57. 前記ステップ(D)において、前記計算された力が、前記模擬された球を前記初期軌道に対して垂直な面上を動かすように作用する、請求項56記載の方法。
  58. 前記計算された力を導き出すステップが、空間と時間との関係を用いて、待ち時間の少ない応答の早い処理速度を実現する、請求項56記載の方法。
JP2006514360A 2003-05-14 2004-05-14 仮想内視鏡のための高速自動中心線抽出方法および装置 Withdrawn JP2006526225A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US47057903P 2003-05-14 2003-05-14
US10/842,972 US7457444B2 (en) 2003-05-14 2004-05-11 Method and apparatus for fast automatic centerline extraction for virtual endoscopy
PCT/US2004/015105 WO2004104939A1 (en) 2003-05-14 2004-05-14 Method and apparatus for fast automatic centerline extraction for virtual endoscopy

Publications (1)

Publication Number Publication Date
JP2006526225A true JP2006526225A (ja) 2006-11-16

Family

ID=33479260

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006514360A Withdrawn JP2006526225A (ja) 2003-05-14 2004-05-14 仮想内視鏡のための高速自動中心線抽出方法および装置

Country Status (4)

Country Link
US (4) US7457444B2 (ja)
JP (1) JP2006526225A (ja)
DE (1) DE112004000722T5 (ja)
WO (1) WO2004104939A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005861A (ja) * 2016-07-08 2018-01-11 富士通株式会社 最短経路特定プログラム、最短経路特定方法および情報処理装置

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7081088B2 (en) * 2003-01-30 2006-07-25 Siemens Corporate Research, Inc. Method and apparatus for automatic local path planning for virtual colonoscopy
US7457444B2 (en) * 2003-05-14 2008-11-25 Siemens Medical Solutions Usa, Inc. Method and apparatus for fast automatic centerline extraction for virtual endoscopy
DE102004027709B4 (de) * 2004-06-07 2006-08-10 Siemens Ag Verfahren der virtuellen Endoskopie zur medizinischen 3D-Bilddarstellung und -verarbeitung, Computertomografiegerät, Arbeitsstation und Computerprogrammprodukt
US7379062B2 (en) * 2005-08-01 2008-05-27 Barco Nv Method for determining a path along a biological object with a lumen
WO2007015187A2 (en) * 2005-08-01 2007-02-08 Koninklijke Philips Electronics N.V. Method and apparatus for matching first and second image data of a tubular object
US7623900B2 (en) * 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
US7574029B2 (en) * 2005-11-23 2009-08-11 Vital Images, Inc. Characteristic path-based colon segmentation
JP4719579B2 (ja) * 2006-01-26 2011-07-06 任天堂株式会社 画像処理プログラムおよび画像処理装置
CN100434044C (zh) * 2006-08-03 2008-11-19 上海交通大学 用特征点非刚性配准实现管道性脏器虚拟充气膨胀的方法
CN100464709C (zh) * 2006-08-03 2009-03-04 上海交通大学 用虚拟充气改进空腔性脏器可视化效果的方法
US7853058B2 (en) * 2006-11-22 2010-12-14 Toshiba Medical Visualization Systems Europe, Limited Determining a viewpoint for navigating a virtual camera through a biological object with a lumen
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
US8280125B2 (en) * 2007-02-02 2012-10-02 Siemens Aktiengesellschaft Method and system for segmentation of tubular structures using pearl strings
CN100454340C (zh) * 2007-02-13 2009-01-21 上海交通大学 管道性脏器虚拟切开可视化方法
US8290247B2 (en) * 2007-05-16 2012-10-16 Siemens Aktiengesellschaft Method and system for segmentation of tubular structures in 3D images
US8934604B2 (en) * 2007-09-28 2015-01-13 Kabushiki Kaisha Toshiba Image display apparatus and X-ray diagnostic apparatus
US8160345B2 (en) 2008-04-30 2012-04-17 Otismed Corporation System and method for image segmentation in generating computer models of a joint to undergo arthroplasty
US8817014B2 (en) * 2009-11-23 2014-08-26 Siemens Medical Solutions Usa, Inc. Image display of a tubular structure
US10835207B2 (en) * 2009-12-23 2020-11-17 Biosense Webster (Israel) Ltd. Fast anatomical mapping using ultrasound images
EP2619729B1 (en) * 2010-09-20 2018-07-04 Koninklijke Philips N.V. Quantification of a characteristic of a lumen of a tubular structure
US20120203067A1 (en) * 2011-02-04 2012-08-09 The Penn State Research Foundation Method and device for determining the location of an endoscope
EP2996589B1 (en) 2013-03-15 2022-01-19 Howmedica Osteonics Corporation Generation of a mating surface model for patient specific cutting guide based on anatomical model segmentation
US9892506B2 (en) * 2015-05-28 2018-02-13 The Florida International University Board Of Trustees Systems and methods for shape analysis using landmark-driven quasiconformal mapping
JP6938469B2 (ja) * 2015-09-16 2021-09-22 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 血管を特徴付ける装置
CN105261052B (zh) 2015-11-03 2018-09-18 沈阳东软医疗系统有限公司 管腔图像展开绘制方法及装置
US10691846B2 (en) 2017-03-01 2020-06-23 International Business Machines Corporation Capillary network simulations based on a low-dimensional representation of porous media
EP3398551A1 (en) 2017-05-03 2018-11-07 Stryker European Holdings I, LLC Methods of pose estimation of three-dimensional bone models in surgical planning a total ankle replacement
US11436724B2 (en) 2020-10-30 2022-09-06 International Business Machines Corporation Lesion detection artificial intelligence pipeline computing system
US11688063B2 (en) 2020-10-30 2023-06-27 Guerbet Ensemble machine learning model architecture for lesion detection
US11688517B2 (en) 2020-10-30 2023-06-27 Guerbet Multiple operating point false positive removal for lesion identification
US11749401B2 (en) * 2020-10-30 2023-09-05 Guerbet Seed relabeling for seed-based segmentation of a medical image

Family Cites Families (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2194656B (en) * 1986-09-03 1991-10-09 Ibm Method and system for solid modelling
US5920319A (en) * 1994-10-27 1999-07-06 Wake Forest University Automatic analysis in virtual endoscopy
US5611025A (en) * 1994-11-23 1997-03-11 General Electric Company Virtual internal cavity inspection system
KR100219072B1 (ko) * 1996-04-02 1999-09-01 김영환 중심축 변환을 이용한 폰트 및 그 폰트 서체의 변형 및 라스터라이징 방식
US6133921A (en) * 1996-05-24 2000-10-17 University Of Washington Constructing shape skeletons of 3D objects using generalized Voronoi diagrams
US5971767A (en) * 1996-09-16 1999-10-26 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination
US7194117B2 (en) * 1999-06-29 2007-03-20 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual examination of objects, such as internal organs
US6331116B1 (en) 1996-09-16 2001-12-18 The Research Foundation Of State University Of New York System and method for performing a three-dimensional virtual segmentation and examination
JP3678378B2 (ja) * 1996-09-20 2005-08-03 富士写真フイルム株式会社 異常陰影候補の検出方法および装置
US5669382A (en) * 1996-11-19 1997-09-23 General Electric Company System for measuring myocardium in cardiac images
US6100893A (en) * 1997-05-23 2000-08-08 Light Sciences Limited Partnership Constructing solid models using implicit functions defining connectivity relationships among layers of an object to be modeled
US6369812B1 (en) 1997-11-26 2002-04-09 Philips Medical Systems, (Cleveland), Inc. Inter-active viewing system for generating virtual endoscopy studies of medical diagnostic data with a continuous sequence of spherical panoramic views and viewing the studies over networks
US7167180B1 (en) * 1998-02-23 2007-01-23 Algotec Systems Ltd. Automatic path planning system and method
US6204853B1 (en) * 1998-04-09 2001-03-20 General Electric Company 4D KAPPA5 Gaussian noise reduction
US6266443B1 (en) * 1998-12-22 2001-07-24 Mitsubishi Electric Research Laboratories, Inc. Object boundary detection using a constrained viterbi search
EP1058913B1 (en) * 1999-01-04 2005-08-31 Koninklijke Philips Electronics N.V. Method, system and apparatus for processing an image representing a tubular structure and for constructing a path through said structure
JP4327289B2 (ja) * 1999-02-12 2009-09-09 Juki株式会社 部品認識方法および装置
US6385332B1 (en) * 1999-02-19 2002-05-07 The John P. Roberts Research Institute Automated segmentation method for 3-dimensional ultrasound
US7840252B2 (en) * 1999-05-18 2010-11-23 MediGuide, Ltd. Method and system for determining a three dimensional representation of a tubular organ
WO2001078005A2 (en) * 2000-04-11 2001-10-18 Cornell Research Foundation, Inc. System and method for three-dimensional image rendering and analysis
US6968299B1 (en) * 2000-04-14 2005-11-22 International Business Machines Corporation Method and apparatus for reconstructing a surface using a ball-pivoting algorithm
US7706600B2 (en) * 2000-10-02 2010-04-27 The Research Foundation Of State University Of New York Enhanced virtual navigation and examination
JP4614548B2 (ja) * 2001-01-31 2011-01-19 パナソニック株式会社 超音波診断装置
US7085689B2 (en) * 2001-03-12 2006-08-01 Alliant Techsystems Inc. Method and apparatus for creating a simulated particle pack
US6813373B1 (en) * 2001-04-03 2004-11-02 Koninklijke Philips Electronics, N.V. Image segmentation of embedded shapes using constrained morphing
US7079674B2 (en) * 2001-05-17 2006-07-18 Siemens Corporate Research, Inc. Variational approach for the segmentation of the left ventricle in MR cardiac images
US20050018885A1 (en) * 2001-05-31 2005-01-27 Xuesong Chen System and method of anatomical modeling
US7324104B1 (en) * 2001-09-14 2008-01-29 The Research Foundation Of State University Of New York Method of centerline generation in virtual objects
EP1442427B1 (en) * 2001-10-16 2005-12-28 Koninklijke Philips Electronics N.V. Method for automatic branch labelling
WO2003046811A1 (en) * 2001-11-21 2003-06-05 Viatronix Incorporated Registration of scanning data acquired from different patient positions
US6711231B2 (en) * 2001-12-10 2004-03-23 Ge Medical Systems Global Technology Company, Llc Methods and apparatus to assist and facilitate vessel analysis
WO2003058553A2 (en) * 2001-12-27 2003-07-17 The Government Of The United States Of America, As Represented By The Secretary Of The Department Of Health And Human Services Automated centerline detection algorithm for colon-like 3d surfaces
WO2003070102A2 (en) * 2002-02-15 2003-08-28 The Regents Of The University Of Michigan Lung nodule detection and classification
US7006677B2 (en) * 2002-04-15 2006-02-28 General Electric Company Semi-automatic segmentation algorithm for pet oncology images
US7379574B2 (en) * 2002-11-27 2008-05-27 The Board Of Trustees Of The Leland Stanford Junior University Quantification of vascular irregularity
US7081088B2 (en) * 2003-01-30 2006-07-25 Siemens Corporate Research, Inc. Method and apparatus for automatic local path planning for virtual colonoscopy
US7457444B2 (en) * 2003-05-14 2008-11-25 Siemens Medical Solutions Usa, Inc. Method and apparatus for fast automatic centerline extraction for virtual endoscopy
JP4644195B2 (ja) * 2003-08-04 2011-03-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 球体上への冠状動脈のマッピング
US7300398B2 (en) * 2003-08-14 2007-11-27 Siemens Medical Solutions Usa, Inc. Method and apparatus for registration of virtual endoscopic images
US7454045B2 (en) * 2003-10-10 2008-11-18 The United States Of America As Represented By The Department Of Health And Human Services Determination of feature boundaries in a digital representation of an anatomical structure
US7440601B1 (en) * 2003-10-10 2008-10-21 The United States Of America As Represented By The Department Of Health And Human Services Automated identification of ileocecal valve
US20050152588A1 (en) * 2003-10-28 2005-07-14 University Of Chicago Method for virtual endoscopic visualization of the colon by shape-scale signatures, centerlining, and computerized detection of masses
US20070201737A1 (en) * 2003-11-26 2007-08-30 Wenli Cai System And Method For Vascular Visualization Using Planar Reformation Of Vascular Central Axis Surface With Biconvex Slab
US20050110791A1 (en) * 2003-11-26 2005-05-26 Prabhu Krishnamoorthy Systems and methods for segmenting and displaying tubular vessels in volumetric imaging data
US7447344B2 (en) * 2004-04-16 2008-11-04 Siemens Medical Solutions Usa, Inc. System and method for visualization of pulmonary emboli from high-resolution computed tomography images
JP2008503303A (ja) * 2004-06-22 2008-02-07 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 気管気管支樹を表示する方法及び装置
US20060079746A1 (en) * 2004-10-11 2006-04-13 Perret Florence M Apparatus and method for analysis of tissue classes along tubular structures
US7529395B2 (en) * 2004-12-07 2009-05-05 Siemens Medical Solutions Usa, Inc. Shape index weighted voting for detection of objects
US7711163B2 (en) * 2005-05-26 2010-05-04 Siemens Medical Solutions Usa, Inc. Method and system for guided two dimensional colon screening
US7379062B2 (en) * 2005-08-01 2008-05-27 Barco Nv Method for determining a path along a biological object with a lumen
US7623900B2 (en) * 2005-09-02 2009-11-24 Toshiba Medical Visualization Systems Europe, Ltd. Method for navigating a virtual camera along a biological object with a lumen
JP4808477B2 (ja) * 2005-11-25 2011-11-02 ザイオソフト株式会社 画像処理方法及び画像処理プログラム
US20070249912A1 (en) * 2006-04-21 2007-10-25 Siemens Corporate Research, Inc. Method for artery-vein image separation in blood pool contrast agents
US8077939B2 (en) * 2006-11-22 2011-12-13 General Electric Company Methods and systems for enhanced plaque visualization
US20080117210A1 (en) * 2006-11-22 2008-05-22 Barco N.V. Virtual endoscopy
US7953262B2 (en) * 2007-02-05 2011-05-31 General Electric Company Vascular image extraction and labeling system and method
US8290247B2 (en) * 2007-05-16 2012-10-16 Siemens Aktiengesellschaft Method and system for segmentation of tubular structures in 3D images
US8175348B2 (en) * 2007-06-05 2012-05-08 The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services Segmenting colon wall via level set techniques
US8300047B2 (en) * 2008-03-10 2012-10-30 Siemens Aktiengesellschaft System and method for colon unfolding via skeletal subspace deformation

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018005861A (ja) * 2016-07-08 2018-01-11 富士通株式会社 最短経路特定プログラム、最短経路特定方法および情報処理装置

Also Published As

Publication number Publication date
US7457444B2 (en) 2008-11-25
US8059877B2 (en) 2011-11-15
US7634124B2 (en) 2009-12-15
US20090040221A1 (en) 2009-02-12
US7551761B2 (en) 2009-06-23
US20090041321A1 (en) 2009-02-12
US20090052759A1 (en) 2009-02-26
US20050033114A1 (en) 2005-02-10
WO2004104939A1 (en) 2004-12-02
DE112004000722T5 (de) 2008-01-24

Similar Documents

Publication Publication Date Title
JP2006526225A (ja) 仮想内視鏡のための高速自動中心線抽出方法および装置
US7081088B2 (en) Method and apparatus for automatic local path planning for virtual colonoscopy
US9104902B2 (en) Instrument-based image registration for fusing images with tubular structures
JP5873440B2 (ja) 自動セグメンテーション及び時間的追跡方法
JP4822142B2 (ja) 内視鏡挿入支援システム及び内視鏡挿入支援方法
EP3260042B1 (en) Adaptive navigation technique for navigating a catheter through a body channel or cavity
CN111798451B (zh) 基于血管3d/2d匹配的3d导丝跟踪方法及装置
JP6912168B2 (ja) 3d+時間再構成を改良する方法および装置
CN102596003B (zh) 使用内窥镜判定气道直径的系统
JP2007509649A6 (ja) 仮想結腸鏡検査法のためのローカルパス自動プランニング方法及び装置
US20220092791A1 (en) Methods for the Segmentation of Lungs, Lung Vasculature and Lung Lobes from CT Data and Clinical Applications
JP2009136679A (ja) 3−d画像および表面マッピングによる解剖学的モデル化
JP2006246941A (ja) 画像処理装置及び管走行トラッキング方法
Meuschke et al. Combined visualization of vessel deformation and hemodynamics in cerebral aneurysms
JP2007202957A (ja) 壁運動測定装置及び医用画像診断装置
JP2006519631A (ja) 仮想内視鏡法の実行システムおよび実行方法
CN110301883B (zh) 用于导航管状网络的基于图像的向导
Perchet et al. Advanced navigation tools for virtual bronchoscopy
JP6134978B2 (ja) 投影画像生成装置、方法およびプログラム
Luo et al. Externally navigated bronchoscopy using 2-D motion sensors: Dynamic phantom validation
RU2459261C2 (ru) Способы, системы и компьютерный программный продукт для обнаружения выбухания
Shoji et al. Camera motion tracking of real endoscope by using virtual endoscopy system and texture information
Neubauer Virtual Endoscopy for preoperative planning and training of endonasal transsphenoidal pituitary surgery
JP7356714B2 (ja) 画像処理装置と画像処理プログラムと画像処理方法
Du et al. Guidewire Endpoint Detection Based on Pixel‐Adjacent Relation during Robot‐Assisted Intravascular Catheterization: In Vivo Mammalian Models

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20061018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20061018

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20070712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20070713