JP2007531554A - 管状構造を立体的に表示するディスプレイ及び該ディスプレイのための改善された技術(「ステレオ・ディスプレイ」) - Google Patents
管状構造を立体的に表示するディスプレイ及び該ディスプレイのための改善された技術(「ステレオ・ディスプレイ」) Download PDFInfo
- Publication number
- JP2007531554A JP2007531554A JP2006537315A JP2006537315A JP2007531554A JP 2007531554 A JP2007531554 A JP 2007531554A JP 2006537315 A JP2006537315 A JP 2006537315A JP 2006537315 A JP2006537315 A JP 2006537315A JP 2007531554 A JP2007531554 A JP 2007531554A
- Authority
- JP
- Japan
- Prior art keywords
- tubular structure
- point
- display
- viewpoint
- tubular
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005516 engineering process Methods 0.000 title claims abstract description 5
- 238000000034 method Methods 0.000 claims abstract description 99
- 210000001072 colon Anatomy 0.000 claims abstract description 97
- 210000003484 anatomy Anatomy 0.000 claims abstract description 13
- 230000002452 interceptive effect Effects 0.000 claims abstract description 12
- 238000012937 correction Methods 0.000 claims abstract description 5
- 230000006870 function Effects 0.000 claims description 21
- 230000008569 process Effects 0.000 claims description 12
- 239000007787 solid Substances 0.000 claims description 11
- 230000000007 visual effect Effects 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 9
- 210000004534 cecum Anatomy 0.000 claims description 7
- 230000001678 irradiating effect Effects 0.000 claims description 7
- 210000000664 rectum Anatomy 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 4
- 230000003993 interaction Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims 2
- 238000012935 Averaging Methods 0.000 claims 1
- 241000252983 Caecum Species 0.000 claims 1
- 210000001367 artery Anatomy 0.000 claims 1
- 238000004590 computer program Methods 0.000 claims 1
- 230000008859 change Effects 0.000 abstract description 7
- 230000001052 transient effect Effects 0.000 abstract description 2
- 238000012800 visualization Methods 0.000 abstract description 2
- 230000000739 chaotic effect Effects 0.000 abstract 1
- 208000037062 Polyps Diseases 0.000 description 32
- 238000010586 diagram Methods 0.000 description 21
- 239000011521 glass Substances 0.000 description 7
- 206010013554 Diverticulum Diseases 0.000 description 6
- 230000008901 benefit Effects 0.000 description 6
- 230000002093 peripheral effect Effects 0.000 description 6
- 238000002591 computed tomography Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000002609 virtual colonoscopy Methods 0.000 description 4
- 210000004204 blood vessel Anatomy 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 3
- 238000001839 endoscopy Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 206010013530 Diverticula Diseases 0.000 description 2
- 230000000112 colonic effect Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 239000000523 sample Substances 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241001422033 Thestylus Species 0.000 description 1
- 210000001015 abdomen Anatomy 0.000 description 1
- 210000000436 anus Anatomy 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000002052 colonoscopy Methods 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000010561 standard procedure Methods 0.000 description 1
- 230000003335 steric effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B23/00—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes
- G09B23/28—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine
- G09B23/285—Models for scientific, medical, or mathematical purposes, e.g. full-sized devices for demonstration purposes for medicine for injections, endoscopy, bronchoscopy, sigmoidscopy, insertion of contraceptive devices or enemas
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/62—Semi-transparency
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/028—Multiple view windows (top-side-front-sagittal-orthogonal)
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Business, Economics & Management (AREA)
- Medicinal Chemistry (AREA)
- General Health & Medical Sciences (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Radiology & Medical Imaging (AREA)
- Pure & Applied Mathematics (AREA)
- Medical Informatics (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Pulmonology (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
- Endoscopes (AREA)
Abstract
管状の解剖学的構造を立体視的に表示するとともに仮想観察するための改善されたシステム並びに方法が提供される。このような構造を立体視表示することにより、観察者は観察対象であるこの構造の奥行き感をよりよく知覚できるから、より現実に近い仮想検査を行うことができる。本発明の好適な実施形態において、光線技術と適切なエラー補正技術を組み合わせて用いることにより、立体ディスプレイのための輻輳点を動的に調節可能となる。本発明の好適な実施形態において、輻輳点の正確さが点検され、無秩序な或いは不快な視覚化が防止される。加えて、本発明の好適な実施形態においては、連続する時間フレームにおける輻輳点が比較される。急速な変化が検知された場合、過渡的な輻輳点を補間することにより補正を行う。本発明の好適な実施形態においては、光線照射を用いて、結腸内壁の襞状部分及び突起部分の裏に隠れた領域を表示することが可能である。本発明の好適な実施形態において、相互作用的ディスプレイ制御機能は、ゲーム・タイプのジョイスティック或いはその他の3次元コントローラにマッピング可能である。これにより、ユーザが、標準的なマウス或いはトラックボールのような2次元コンピュータ・インターフェース・デバイスの制約を受けることがなくなる。
Description
本発明は医療用撮像に関し、より詳しくは管状の解剖学的構造に関する3次元(3D)データ・セットを視覚化並びに立体表示するための改善されたシステム及び方法に関する。
医療従事者や医療専門家が、例えば血管或いは結腸などの管状解剖学的構造の内部を調べるには、従来の内視鏡法/結腸内視鏡法において行われるように、プローブとカメラを挿入する以外の方法はこれまで存在しなかった。磁気共鳴撮影(MRI、magnetic resonance imaging)やコンピュータ断層撮影(CT、computerized tomography)などの高度な撮像技術の出現とともに、管腔組織(及びその他の組織)のボリューム・データ・セット表現(3次元データ・セット表現)を作成可能となった。これらボリューム・データ・セットを提供された放射線専門医或いはその他の使用者は、侵襲性の処置を行うことなく患者の管状組織内部を検査できる。
例えば、結腸内視鏡法の分野では、下腹部を撮影した多数のCT断層画像からボリューム・データ・セットが作成される。一般的にこの技術において、300乃至600若しくはそれ以上の断層画像が用いられる。様々な補間方法を用いてこれらCT断層画像を融合することにより、3次元(3D)ボリューム画像が生成される。従来のボリューム・レンダリング技術を用いると、結腸のような3Dボリュームの一部を区画化及びレンダリングすることができる。また、このような技術を用いて、患者の結腸に関する3次元データ・セットを適切なディスプレイ上に表示することが可能である。使用者はこのようなディスプレイを見ながら、患者の結腸に沿って観察できるから、実際の観測計器を挿入する必要がない。このような過程は、「仮想結腸内視鏡」として知られる。仮想結腸内視鏡(より一般的には仮想内視鏡)によると、結腸内視鏡或いはその他の内視鏡を実際に挿入する場合と比べて、侵襲性技術の必要性が大幅に低減されるから、患者にとって魅力的な方法である。
例えば、結腸内視鏡法の分野では、下腹部を撮影した多数のCT断層画像からボリューム・データ・セットが作成される。一般的にこの技術において、300乃至600若しくはそれ以上の断層画像が用いられる。様々な補間方法を用いてこれらCT断層画像を融合することにより、3次元(3D)ボリューム画像が生成される。従来のボリューム・レンダリング技術を用いると、結腸のような3Dボリュームの一部を区画化及びレンダリングすることができる。また、このような技術を用いて、患者の結腸に関する3次元データ・セットを適切なディスプレイ上に表示することが可能である。使用者はこのようなディスプレイを見ながら、患者の結腸に沿って観察できるから、実際の観測計器を挿入する必要がない。このような過程は、「仮想結腸内視鏡」として知られる。仮想結腸内視鏡(より一般的には仮想内視鏡)によると、結腸内視鏡或いはその他の内視鏡を実際に挿入する場合と比べて、侵襲性技術の必要性が大幅に低減されるから、患者にとって魅力的な方法である。
利便性や利点の一方で、従来の「仮想結腸内視鏡」或いは「仮想内視鏡」には、多数の課題も存在する。標準的な技術を用いて管状構造の仮想検査を行うときには、管状構造の種類に関わらず、同様の問題が生じる。例えば、従来の「仮想結腸内視鏡」では、使用者の視点は結腸の内部に位置する。この視点は通常、算出された中心線に沿って結腸内を移動する。従来の仮想結腸内視鏡は標準的な平面視コンピュータ・ディスプレイに表示される。よって環境の奥行き手掛りは通常表示されない(すなわち奥行き方向の情報を十分に得ることはできない)。結果として解剖学的構造の重要な特性が表示されなかったり、看過されたりする。
大型の管状組織(例えば結腸或いは血管)を仮想検査する手順を改善して、このような手順を最適化し、対象である管状組織を含む解剖学的領域のスキャン・データから構築される3次元ボリューム・データ・セットにおいて利用可能な情報を最大限生かすことが当該技術分野において必要とされている。このことは、立体視ディスプレイを介して実行される。したがって、管状構造のリアルタイム立体視的ディスプレイのための改善された方法が必要である。
大型の管状組織(例えば結腸或いは血管)を仮想検査する手順を改善して、このような手順を最適化し、対象である管状組織を含む解剖学的領域のスキャン・データから構築される3次元ボリューム・データ・セットにおいて利用可能な情報を最大限生かすことが当該技術分野において必要とされている。このことは、立体視ディスプレイを介して実行される。したがって、管状構造のリアルタイム立体視的ディスプレイのための改善された方法が必要である。
本発明は、管状の解剖学的構造を立体視表示及び仮想表示するための改善されたシステム並びに方法を提供する。このような構造を立体視表示することにより、使用者が表示される構造の奥行きをより明確に認識できるから、より現実に近い仮想検査を行うことができる。
本発明は更に、適切なエラー補正技術と光線照射技術を組み合わせて用いることにより、立体視表示のための輻輳点を動的に調整可能であることを特徴とする。本発明は更に、輻輳点の正確さを検証可能であるから、無秩序或いは不快な視覚化が防止されることを特徴とする。本発明は更に、連続する時間フレームにおける輻輳点が比較されることを特徴とする。もし急な変化が検知されると、システムは過渡的な輻輳点を補間することにより埋め合わせを行う。本発明は更に、光線照射技術を用いて結腸内壁の襞状部分及び突起部の後ろに隠れた領域を表示することを特徴とする。本発明は更に、相互作用的ディスプレイ・コントロール機能が、ゲーム・タイプ・ジョイスティック或いはその他の3次元コントローラにマップされ、これにより、例えば標準的なマウス或いはトラックボールといった2次元のコンピュータ・インターフェース・デバイスに起因する制約を使用者が受けないようにすることを特徴とする。
本発明は更に、適切なエラー補正技術と光線照射技術を組み合わせて用いることにより、立体視表示のための輻輳点を動的に調整可能であることを特徴とする。本発明は更に、輻輳点の正確さを検証可能であるから、無秩序或いは不快な視覚化が防止されることを特徴とする。本発明は更に、連続する時間フレームにおける輻輳点が比較されることを特徴とする。もし急な変化が検知されると、システムは過渡的な輻輳点を補間することにより埋め合わせを行う。本発明は更に、光線照射技術を用いて結腸内壁の襞状部分及び突起部の後ろに隠れた領域を表示することを特徴とする。本発明は更に、相互作用的ディスプレイ・コントロール機能が、ゲーム・タイプ・ジョイスティック或いはその他の3次元コントローラにマップされ、これにより、例えば標準的なマウス或いはトラックボールといった2次元のコンピュータ・インターフェース・デバイスに起因する制約を使用者が受けないようにすることを特徴とする。
本発明の更なる特徴、性質及び利点は、図面と様々な実施形態に関する以下の詳細な説明により明らかにされる。
本発明の更なる目的及び利点が以下の詳細な説明において開示される。本発明のこれら目的及び利点は以下の説明或いは慣例に従って理解される。本発明の目的及び利点は、請求の範囲に示す本発明の構成及びこれらを組み合わせたものにより実施される。
上記の一般的説明及び以下の詳細な説明は例示のためにのみ示されたものであって、本発明の範囲を限定するものではない。
本出願は、以下の米国仮特許出願に基づくものであり、以下の出願それぞれの記載事項は本明細書中に組み込まれている。米国特許出願第60/517,043号及び第60/516,998号(出願日:2003年11月3日)、並びに第60/562,100号(出願日:2004年4月14日)。
本発明の特許出願書類は少なくとも1つのカラー図面を含む。カラー図面が添付されたこの特許或いは特許出願公報の写しは、米国特許庁に請求し、必要な費用を支払えば入手可能である。
本出願においては、様々なカラー図面をグレースケール図面にした図面が多数用いられているが、カラー図面についての言及は、対応するグレースケール図面についての言及として理解されるべきものである。逆も同じである。記述を簡略化するために、カラー図面についての説明或いは言及を、対応するグレースケール図面について繰り返すことはしないが、特に別途記載のない限り、このような対応する図面にも等しく当てはまるものとする。
本発明の実施形態においては、3次元モデル空間内の任意の第1位置から、該3次元モデル空間内の任意の第2の位置まで光線が照射される。このような光線が通過するボクセルのそれぞれの値を所定の閾値と比較することにより、本発明の一実施形態に係るシステムは任意の2点の視認度(visibility)に関する情報を得る。例えば、図6Aに示すごとく、点Aから点Bまで光線が照射される。光線は多数のボクセルを通って進む。これらボクセルのいずれもが所定の閾値より大きな濃淡値(intensity value)を有さなければ、この光線が通過するボクセルは不可視であり、点Aと点Bは互いに可視である。一方で光線の経路内で、任意のボクセルの濃淡値が閾値を超えると、点A及びBはこのボクセルによりブロックされ、互いに不可視となる。したがって光線が障害ボクセルに最初に当たる第1の点(例えば図6Aの点C)は、点Aから点Bへ向かう方向において、点Aから最大視認距離に位置する。この距離すなわち、点Aと点Cの距離は計算可能である。本発明においては、特に光線照射などの技術を用いて、3次元管状構造の相互作用的表示を改善してもよい。
(ステレオ・ディスプレイ)
本発明においては、管状解剖学的構造を立体視的に表示することにより、使用者が奥行きを寄り明確に認識し、表示された視覚データに含まれる利用可能な奥行き手がかりを処理できるようにしてもよい。平面視的に表現された場合、管腔内から管腔壁内部の映像において、管腔壁上に位置し、使用者から隠れた位置にある壁面内の窪んだ領域或いは穴から、使用者に向かって立上がった物体を見分けることが難しい。このような状況を示す図として、図1Aは窪んだ領域或いは穴部の一例を示し、図1Bはポリープの一例を示す。結腸管腔内に視点を有する者には、ポリープは凸状部分として見える。これらの構造は、平面視的に表示されると識別が難しい。
本発明においては、管状解剖学的構造を立体視的に表示することにより、使用者が奥行きを寄り明確に認識し、表示された視覚データに含まれる利用可能な奥行き手がかりを処理できるようにしてもよい。平面視的に表現された場合、管腔内から管腔壁内部の映像において、管腔壁上に位置し、使用者から隠れた位置にある壁面内の窪んだ領域或いは穴から、使用者に向かって立上がった物体を見分けることが難しい。このような状況を示す図として、図1Aは窪んだ領域或いは穴部の一例を示し、図1Bはポリープの一例を示す。結腸管腔内に視点を有する者には、ポリープは凸状部分として見える。これらの構造は、平面視的に表示されると識別が難しい。
立体的な仮想表示を行うことによりこの不明確さを解決可能である。例えば図2は、対象物(図1Bのポリープ)の画像であり、この画像は左眼と右眼それぞれのために形成されている。例えば、インタレース表示と3Dグラスを用いると、使用者はこの対象物の立体表示から、周囲から「突出した(popping up)」ポリープを容易に識別できる。両眼の視線を交差させて、左眼で右側の「左眼」画像を、右眼で左側の「右眼」画像を見ると、図2の画像を融合して得られる立体効果を知覚できる。図3は、結腸で撮影された対象物の別の例を示し、この画像はアナグリフ赤−緑立体画像として表示されている。この画像は、赤−緑眼鏡を用いて見るための画像である。赤−緑眼鏡は、手品用品や科学プロジェクト用品を扱う小売店で一般的に入手可能である。この画像の対象物は結腸から突出するポリープである。図2と同様に、図3(a)及び図3(b)は図3の左眼用(赤)のチャネルと右眼用(緑)のチャネルをそれぞれ示す。図3(a)と図3(b)を横に並べて(右に左眼用、左に右眼用)手に持ち、視線を交差させると、立体効果が知覚できる。このように立体視的に画像を見る方法は、本明細書中で説明する全ての立体視画像の左眼用及び右眼用チャネルの組に対して適用される。記述を簡略化するために、以下ではこのような方法がとられることを前提として、左眼用及び右眼用チャネルの組について説明し或いは論じる度に説明を繰り返すことはしない。
図3A乃至図3Jは更に、例えばヒトの結腸といった管状の解剖学的構造の検査における立体視画像の利点を示す図である。図3Aは、結腸の典型的な分節を立体視的に示す。この典型的な結腸の分節は、アナグリフ(赤−緑)立体画像を用いて示されている。適切な眼鏡(手品用品店や、教育/科学用品店、或いは玩具店にて入手可能な赤―緑「3D眼鏡」程度の簡便なものでよい)を用いてこのような画像を見ると、容易に奥行き感が得られる。このような奥行き感は、立体視ディスプレイを用いなければ得られないものである。図3Aにおいて、結腸の上側のカーブに沿って形成された結腸の襞状部分は、全ての奥行き手掛かりと、容易に視認可能な3次元情報を用いて描かれている。図3A(a)及び(b)はそれぞれ、図3Aに示される立体視画像の左眼用チャネルと右眼用チャネルを示す。
図3Bは、図3Aに示す典型的な結腸分節を示すが、画像の一部に番号を付してよりわかりやすく示している。図3B(a)及び(b)はそれぞれ、図3Bに示される立体視画像の左眼用(赤)チャネルと右眼用(緑)チャネルを示す。図3Bに示すごとく、この結腸分節には、上方結腸分節(300)の上方襞状部分(100)と下方襞状部分(200)が存在する。図3Bにおいて、上方結腸分節(300)はズーム・ボックスのフォワード・プレーン(ディスプレイ・デバイスのフォワード垂直プレーンとして知覚される)により長手方向に両断された状態で示されている。上方結腸分節とは明らかに不連続である下方結腸分節(500)及び(600)も同様に示されている。図3Bの大部分を占める上方結腸分節(300)の下方に当たる図の下部中央には、2つの別の結腸分節(500)及び(600)が見えている。これらの分節は、ズーム・ボックスのフォワード・プレーンにより軸方向に両断されている。これらの分節がズーム・ボックスのフォワード・プレーンにより軸方向に両断されているのは、これら分節を多少なりとも内視鏡的に観察できるようにするためである。上方結腸分節の上方襞状部分(100)と下方襞状部分(200)の間には、ポリープ状の2つの突起部分(350)が見える。これらポリープが起こりそうな部分を取囲む矩形状領域は、図3C乃至図3Fおいて拡大して示される。
図3Cは2つのポリープ(図3Bの符号(350)で示す部分)とこれらを取囲む組織を示す。一方のポリープは画像の中央に示され、他方のポリープは画像の右端に示されている。図3Cはこの領域の平面視画像であるから、容易に使用可能な状態にない奥行き情報が存在する。管腔内壁の周辺領域に対するこれらのポリープと疑われる突起部分の方向及び大きさは容易には判断できない。
図3D乃至図3Fは、図3Cに示す典型的な結腸分節を拡大して示したアナグリフ立体視画像である。図3Dは赤−青立体画像、図3Eは赤−シアン立体画像、図3Fは赤−緑立体画像である。図3D乃至図3Fを適切な立体視眼鏡を用いて見ると、利用可能な奥行き手掛かりを簡単に視認できる。つまり、ポリープと疑われる領域の突起部分が管腔内壁からの突起する方向と、この突起部分の周辺組織の輪郭を観察できる。図3F(a)及び(b)はそれぞれ、図3Fに示す立体視画像の左眼用チャネルと右眼用チャネルを示す。図3D及び図3Dに示す左眼用(赤)チャネル及び右眼用(緑)チャネルと、図3F(a)及び(b)は基本的に同一である。
図3G乃至図3Jは別の典型的な結腸分節を示す。以下で述べるように、この結腸分節は凹状の「穴」或いは憩室を有する。図3Gに示すごとく、この分節は2つの憩室を有し、位法の憩室は中央に、他方は画像の右端付近に位置する。図3Gは平面視的画像であるから、憩室と疑われる部分の形状は把握できても、この部分が周辺組織に対して凹状の領域であるか否か、或いは凸状の領域であるか否かはすぐには判断できない。このような不明確さは、同一の画像を立体視的に表示することにより解決できる。このような立体視的画像は、例えば図3H、図3I、及び図3Jに示す本発明の好適な実施形態において表示されている。図3H、図3I、及び図3Jは、異なるステレオ・フォーマット(すなわち、それぞれ赤−青、赤−シアン、赤−緑ステレオ)を用いて描画されている。これらの画像からは、容易に奥行き情報を得て、2つの疑わしい領域が実際は、周辺組織に対して凹状の領域であると判断できる。よって、画像に示された結腸の一部において、これらの領域が実際は、憩室或いは凹状の「穴」領域であることがわかる。
本発明の実施例において、立体視ディスプレイ技術は対象となる構造の全体的な「マップ」画像のためにも使用可能である。例えば図4は従来の「全体マップ」を示し、この「全体マップ」は多数の仮想結腸内視鏡ディスプレイ・システムにおいて用いられる一般的な画像である。図4(a)はこのような画像のグレースケール画像の例を示す。図4に示すごとく、このようなマップを用いると、使用者は管状組織(例えば結腸)を溯る或いは下る間、自らの位置及び向きに関する情報を得られる。このようなマップは、例えば、本発明の実施例において、メイン・ビュー・ウィンドウの横に表示される。メイン・ビュー・ウィンドウは例えば、管状構造の一部の局所的画像を提供する。これにより、使用者は、管状組織内を移動する間、管状構造内における自身の総合位置をメイン・ビュー・ウィンドウ内で追跡することが可能である。追加的な視覚表示を表示することにより、このような全体表示マップが、使用者の現在の位置及び向きを示すだけでなく、使用者が通過してきた経路を表示することも可能となる。このような全体マップは有用であるが、このマップを平面視的に表示すると、使用者に多くの奥行き情報をもたらすことはできない。或いは奥行き情報を全くもたらすことができない。結腸を表示する場合にしばしば起こるように、表示される構造の一部が重なりあって表示される場合、奥行き情報は非常に重要な意味を持ちうる。例えば、図4の画像に表示されている結腸の左上部分と右上部分はそれぞれ、これら領域において、表示されている結腸が重なり合っていることを示している。しかしながら、奥行き手掛かりなしには、どちらの部分が上(使用者の視点に対してディスプレイの前方)になり、どちらが下(使用者の視点に対してディスプレイの後方)になって重なり合っているのか判断することは出来ない。このような不明確さを解消するために、本発明の実施例においては、全体的構造の立体視的画像、すなわち「マップ」表示が、追加的な視覚表示を用いて立体視的に表示される。追加的な視覚表示としては、例えば、その時点までの通過経路を示す曲線及び/又は現在位置及び視線方向を示す矢印などを用いる。このような表示により、使用者に、より明確且つ直感的な奥行き情報と向きに関する情報がもたらされる。
図5は、本発明の一実施例にしたがって立体視的に描画された全体的画像の例を示す。図5に示す例において、2つのわずかに異なる結腸全体の静止画像のそれぞれが、左眼と右眼の視野角に対して予めレンダリングされている。これら画像を用いると例えば、現在位置と通過経路のみを更新しながら、動作中に立体画像を表示することが可能である。この場合、全てのディスプレイ・ループで立体画像が再描画されることはない。これにより例えば、情報が結果的に失われることなく計算リソースの節約が可能となる。結腸全体において描画される視野はマップ表示であり、基本的に一定だからである。管状構造の形状が処理中に変化することはない。マップ表示の要素は変化しない。すなわち視覚表示は立体視的に動的に表示されるが、レンダリングに必要なコストは非常に低い。本発明の変更形態において、結腸或いはその他の管状構造の全体としての形状、向き、或いは位置は結腸管腔の軸方向に沿って変化する。使用者が結腸を通って移動する間、マップ・ウィンドウ内に、連続して立体視的に結腸全体を描画することが可能である。図5(a)及び図5(b)はそれぞれ、図5の画像の左眼用(赤)チャネルと右眼用(緑)チャネルをグレースケールで示している。
(最適化された中心線の生成)
本発明のいくつかの実施例においては、上記した光線照射アルゴリズムを様々な方法で用いることにより、管状構造の相互作用的ディスプレイを最適化する。例えば、図6(a)に示すごとく、典型的な管状構造内部に位置する任意の開始位置において、一連の光線が、例えば3次元空間内に向けて照射される。これらの光線は、最終的に管状構造の内壁に衝突し、結果的な「衝突点」(管状構造の壁部表面において、照射された光線の衝突を受ける点)が計算され、記録される。
本発明のいくつかの実施例においては、上記した光線照射アルゴリズムを様々な方法で用いることにより、管状構造の相互作用的ディスプレイを最適化する。例えば、図6(a)に示すごとく、典型的な管状構造内部に位置する任意の開始位置において、一連の光線が、例えば3次元空間内に向けて照射される。これらの光線は、最終的に管状構造の内壁に衝突し、結果的な「衝突点」(管状構造の壁部表面において、照射された光線の衝突を受ける点)が計算され、記録される。
十分な数の光線が照射されると、結果的な「衝突点」(すなわち、図6(a)の管腔表面の白い点)により管状構造の内部空間の形状を概略的に示すことが可能となる。例えば、このような構造が円筒形状を有するとき、全ての衝突点はこの円筒形状の表面上に位置するから、全ての衝突点を総合すると円筒形状が形成される。
衝突点の群の3D座標を用いると、全ての衝突点の座標の平均を求めることにより、平均点(610)を計算できる。平均点(610)は全ての衝突点の平均を表すから、管状構造において光線により検査される部分の中心に近い位置に位置することになる。
結果として得られる平均点はその後、新たな開始点として使用される。更に例えば、上記の処理が繰り返されてもよい。図6(b)に示すごとく、一例としての新たな光線の群が最初の平均点(610)から照射され、例えば新たな平均点(620)が計算される。
このような処理段階を連続的に実行することにより、このような平均点が、例えば図6(c)に示すように、管状構造の管腔の軸方向に沿って連続的に決定される。このような一連の点は例えば、3次元空間における曲線(630)の制御点の群として用いられる。このような一連の点からなる曲線は、管状構造の有する形状の中心線を描いている。この中心線を生成する段階は、以下で説明する図7に詳細に示される。
上記の中心線を生成する段階においては、実際の地理的な「中心」に対する近似的な中心が求められているから、更にチェックを行い、このような近似的な中心が適切であることを確認する。例えば、平均点のそれぞれが求められると、この平均点から周壁に対して追加的な光線が照射され、この平均点と壁面の間の距離がチェックされる。平均点が管腔の一方の壁面に近すぎるとわかった場合は、この平均点が他方に向けて「押さ」れる。この段階は、以下で説明する図8に示される。
本発明のいくつかの実施形態において、上記の光線照射アルゴリズムは、例えば以下の擬似コードにしたがって実行される。
(光線照射により中心線を生成するための擬似コードの例)
Function GenerateCenterline:
Input: The lumen volume,
the starting point and starting direction (by user or by program),
the end point (by user or by program)
Output: A series of points inside the lumen forming a centerline of the lumen
Function body:
{
Create empty centerline_point_list; //initialization
current_seed=starting point; //initialization
current_direction=starting direction; //initialization
centerlne_point_list.add(current_seed); //add the starting point
While((distance between current_seed and end point)>MIN_DISTANCE)
{
hit_points=ShootRays(current_seed, current_direction,N);
//shoot N rays from current_seed, towards current_direction, spread the
//rays out in a pattern such that they cover the whole image plane;
//collect N hit points resulting from the shooting ray;
p=avrg(hit_points.x, hit_ponts.y, hit_points.z);
//compute the averages of x, y, z coordinates of all the N hit points;
//set a new point p=(avrg(x), avrg(y), avrg(z));
ErrorCorrection(p); //error correction if p happens
//to be not at center of lumen
current_direction=p-current_seed; //new direction from the
//seed to new point
current_seed=p; //new seed point
centerline_point _list.add(current_seed); //add as centerline_point
}
}//end of function GenerateCenterline
Function ShootRays:
Input: vol- The lumen volume,
Start- the ray start point
Direction- the main direction,
N- the number of rays to shoot
Output: The hit points
Function Body:
{
InitRays(N); //initialize the directions of the N rays to
//cover the current image plane
For(all N rays Rn)
hitPoints n=ShootSingleRay();
Return hitPoints;
}
Function ErrorCorrection:
//this can be done in various ways
//one way:
Shoot M Rays to all the directions perpendicular to the current_direciton;
Calculate the distances between the hit points and point P;
If some of the distance is too short comparing with the average of all the distances, the point P might be too close to one side of the lumen wall, so put it to another side.
Function GenerateCenterline:
Input: The lumen volume,
the starting point and starting direction (by user or by program),
the end point (by user or by program)
Output: A series of points inside the lumen forming a centerline of the lumen
Function body:
{
Create empty centerline_point_list; //initialization
current_seed=starting point; //initialization
current_direction=starting direction; //initialization
centerlne_point_list.add(current_seed); //add the starting point
While((distance between current_seed and end point)>MIN_DISTANCE)
{
hit_points=ShootRays(current_seed, current_direction,N);
//shoot N rays from current_seed, towards current_direction, spread the
//rays out in a pattern such that they cover the whole image plane;
//collect N hit points resulting from the shooting ray;
p=avrg(hit_points.x, hit_ponts.y, hit_points.z);
//compute the averages of x, y, z coordinates of all the N hit points;
//set a new point p=(avrg(x), avrg(y), avrg(z));
ErrorCorrection(p); //error correction if p happens
//to be not at center of lumen
current_direction=p-current_seed; //new direction from the
//seed to new point
current_seed=p; //new seed point
centerline_point _list.add(current_seed); //add as centerline_point
}
}//end of function GenerateCenterline
Function ShootRays:
Input: vol- The lumen volume,
Start- the ray start point
Direction- the main direction,
N- the number of rays to shoot
Output: The hit points
Function Body:
{
InitRays(N); //initialize the directions of the N rays to
//cover the current image plane
For(all N rays Rn)
hitPoints n=ShootSingleRay();
Return hitPoints;
}
Function ErrorCorrection:
//this can be done in various ways
//one way:
Shoot M Rays to all the directions perpendicular to the current_direciton;
Calculate the distances between the hit points and point P;
If some of the distance is too short comparing with the average of all the distances, the point P might be too close to one side of the lumen wall, so put it to another side.
図7(a)乃至図7(f)は、平均点の位置にエラーが存在しない場合に実行されるGenerateCenterline関数の各段階を示す。図8(a)乃至図8(d)は平均点の位置にエラーが見つかった場合に実行されるErrorCorrection関数の各段階を示す。ErrorCorrection関数は、上記した例の擬似コードを用いて実行される。図9は、平均点が決定された後に、この平均点の位置が正しいことを確認するためにどのようにして平均点から光線が照射されるかを詳しく示す。図9の例においては、最初の平均点が左側の管腔壁に近すぎたことから、修正した点が次のシード点として採用され、この点から次の光線の群が照射される。
(動的立体視輻輳)
本発明の光線照射技術はまた、立体視的に表示された管状構造の最適な輻輳を維持するために用いられてもよい。この機能を説明するために、立体輻輳に関する基本的な事項を以下で簡単に説明する。
本発明の光線照射技術はまた、立体視的に表示された管状構造の最適な輻輳を維持するために用いられてもよい。この機能を説明するために、立体輻輳に関する基本的な事項を以下で簡単に説明する。
三次元の物体を立体視的に表示するとき、使用者に正しい立体視的効果をもたらすとともに表示される物体の対象領域を強調するためには、輻輳点を注意深く配置しなければならない。管状構造の立体視的内視鏡表示を行う場合、3次元仮想空間における輻輳点の位置は、ディスプレイの質を左右する重要な要素となるから、この問題はより複雑な問題となる。
当該技術分野において知られているように、人間の両眼は互いから平均で65mm離れている。したがってそれぞれの眼はわずかに異なる角度から、それぞれ異なる映像を知覚している。このように両眼が離れて位置することから起こる両眼視差は、立体視(steropsis或いはstereo vision)と称される強力な奥行き手掛かりをもたらす。人間の脳はこれら2つの画像を処理して1つの画像にまとめ、この画像が立体を表すものとして解釈される。これら2つの画像はステレオ・ペアと呼ばれる。脳は、ステレオ・ペアの間の差を用いて、2つの画像をまとめた画像における相対的な奥行き感を得る。
(人間の眼はどのように対象を見るか)
実生活において、人が特定の対象を見るとき、ヒトの両眼はその対象に焦点を合わせる。すなわち、それぞれの眼の視線は、この対象上の一点で交差する。この点の画像が両眼の視界中央に映像化される。人が最も明瞭且つ快適に物を見る点であるこのような点は、輻輳点として知られている。この点以外の位置において視認される対象は、両眼の視界中央に位置づけられず、すなわち焦点から外れている。したがって、人は輻輳点から離れて位置する対象にはあまり注目しない或いは明瞭に視認しない。図10はこのような状況を示す。図10はティーポットの注ぎ口を注視する両眼を示す上面図である。ティーポットのその他の部分と他の描画された対象は、視野の中央に位置せず、両眼からの距離が近すぎる或いは遠すぎるから、明瞭に見えない。
実生活において、人が特定の対象を見るとき、ヒトの両眼はその対象に焦点を合わせる。すなわち、それぞれの眼の視線は、この対象上の一点で交差する。この点の画像が両眼の視界中央に映像化される。人が最も明瞭且つ快適に物を見る点であるこのような点は、輻輳点として知られている。この点以外の位置において視認される対象は、両眼の視界中央に位置づけられず、すなわち焦点から外れている。したがって、人は輻輳点から離れて位置する対象にはあまり注目しない或いは明瞭に視認しない。図10はこのような状況を示す。図10はティーポットの注ぎ口を注視する両眼を示す上面図である。ティーポットのその他の部分と他の描画された対象は、視野の中央に位置せず、両眼からの距離が近すぎる或いは遠すぎるから、明瞭に見えない。
ある視野において、視野の中央以外の部分を見ようとすると、人の眼は焦点を別の位置に移し、対象となる新たなスポット上に焦点(新たな視線の交差点)が位置するようにする。
(カメラを用いた擬似実験)
図11及び図12において、両眼を同一の点に焦点を合わせた2つのカメラとして示している。図11及び図12は、これら2つのカメラと、その視線と、視野角錐体を示す。視野角錐体は3次元空間の一部であり、この範囲内の全ての対象はカメラから見えるが、この範囲より外の対象はカメラから見えない。図11において、視野角錐体はそれぞれのカメラを頂点とする三角形により表されている。視野角錐体は立体であるから、図12においてはより正確に角錐体として示されている。この角錐体の頂点はそれぞれのカメラのレンズである。
図11及び図12において、両眼を同一の点に焦点を合わせた2つのカメラとして示している。図11及び図12は、これら2つのカメラと、その視線と、視野角錐体を示す。視野角錐体は3次元空間の一部であり、この範囲内の全ての対象はカメラから見えるが、この範囲より外の対象はカメラから見えない。図11において、視野角錐体はそれぞれのカメラを頂点とする三角形により表されている。視野角錐体は立体であるから、図12においてはより正確に角錐体として示されている。この角錐体の頂点はそれぞれのカメラのレンズである。
図13(a)及び(b)はそれぞれ、図11の左のカメラと右のカメラによりそれぞれ捕捉された画像の例を示す。これらのカメラにより得られた画像は、両眼により観察される画像と同様であり、図13(a)は左眼の画像を示し、図13(b)は右眼の画像を示す。これら画像は異なる角度からの画像であるから、わずかに異なる。しかしながら、焦点(ここではティーポットの注ぎ口)は、両方の画像において中央に投影されている。これは、2つのカメラ(両眼)の視線がこの点において交差するからである。別の対象に焦点を合わすと、2つのカメラは新たな焦点を定めるように調節され、新たな焦点上の画像が新たな画像の中心に投影される。
(コンピュータ・グラフィックスにおける立体効果)
コンピュータ・グラフィックス・アプリケーションにおいて、例えば立体画法技術を用いて図13(a)及び(b)に示す2つの画像をコンピュータ・モニタに表示して、使用者の左眼が左側の表示のみを観察し、使用者の右眼が右側の表示のみを観察するようにすると、この使用者は、例えば対象の奥行き感を得られる。したがって、立体効果が生じる。
コンピュータ・グラフィックス・アプリケーションにおいて、例えば立体画法技術を用いて図13(a)及び(b)に示す2つの画像をコンピュータ・モニタに表示して、使用者の左眼が左側の表示のみを観察し、使用者の右眼が右側の表示のみを観察するようにすると、この使用者は、例えば対象の奥行き感を得られる。したがって、立体効果が生じる。
2つの画像のそれぞれを正確に描画するには、プログラムはそれぞれのカメラの視野角錐体を構築し、これら角錐体を正しい位置と向きに配置することが必要である。これらカメラは両眼を模擬しているから、これら角錐体は同一の形状を備えるが、両眼の位置及び向きが異なるように、これら角錐体の位置及び向きは異なる。
このプロセスにおいては通常、使用者の体格は重要ではないから、例えば、使用者の現在位置は近似的に1つの点として表される。使用者の両眼は使用者の現在位置の両側に位置付けられる。人間の両眼は通常互いから約65mm離れているから、コンピュータ・グラフィクス・プログラムは2つの角錐体の間に65mmの間隔を設ける必要がある。このような配置を図14に示す。図14において、両眼の間の大きな点は、ここでの輻輳点に対応する使用者の視点を表す。また、角錐体は視点を中心にして65mmの間隔を開けて位置付けられている。
両眼の位置を正しく決定した後、プログラムは正確な輻輳点を設定する。輻輳点は両眼の視線が交差する点であるから、輻輳点を設定すると、両眼の視線方向が設定される。
立体画法の分野において、2つの視線が交差する位置は輻輳点として知られている。コンピュータ・グラフィクス・アプリケーションの立体ディスプレイにおいては、輻輳点の画像は左眼用表示と右眼用表示について同じスクリーン位置に投影される。これにより、観察者はこの点の画像を自然に且つ快適に詳しく観察できる。実生活において人間の脳は両眼が同じ位置に輻輳点を投影するように両眼を調節する。2つのカメラを用いる場合は、2つの画像において輻輳点の位置が同じ位置にあるように撮影者が注意する。コンピュータ・グラフィックス・アプリケーションにおいては、プログラムが輻輳点の正しい位置を計算し、輻輳点を正しくディスプレイに投影しなければならない。
一般的に、人間の視線は対象より手前の空中で交差したり、対象の内部で交差することはない。実生活において、人が室内やトンネル内(部屋やトンネル内部は空いており、考慮すべき物体が存在しないものとする)を歩くとき、人は自然に(隆起した部分や絵画などがある)壁或いは表面上に焦点を合わせる。つまり、両眼の輻輳点は対象表面上の対象となる領域内の1つのスポット上にある。したがって、仮想内視鏡により実際の内視鏡を最適に模擬するためには、使用者は、仮想管腔の表面を注視するように導かれる必要がある。つまり、使用者の視線が対象の表面より手前の空中で交差したり、管腔壁面を越えて管腔壁内部で交差したりしないようにする。これを避けるために、仮想内視鏡を好適に実施するためには、輻輳点の正確な位置を適宜決定して、輻輳点が検査する管腔の対象領域表面上に常に位置するようにしなければならない。このことは、図15(a)乃至(c)に示される。この例においては、上記のカメラが用いられており、これらカメラの焦点は3次元空間内の1点上に合わされている。
同様に、図16は、立方体(1610)手前のボール(1620)を注視する両眼(1601)及び(1602)を示す。既に述べたように、人間の眼は互いから数インチ離れているから、図17(a)及び(b)にそれぞれ示すごとく、左眼と右眼のそれぞれにはこれら対象のわずかに異なる映像が見えている。また、既に述べたように、人間の眼が対象の或る1点(例えば、図17(a)及び(b)におけるボール表面の明るい点)に焦点を合わせると、それぞれの眼の視線はこの点において交差し、すなわちこの点が輻輳点となる。
コンピュータ・スクリーン上の立体視ディスプレイにおいて、図17(a)及び(b)に示すような画像はスクリーンの同じ領域に表示されてもよい。本発明の好適な実施形態においては、例えば使用者が立体眼鏡をかけると立体視が可能になる。別の好適な実施形態においては、視差バリア方式のLCDモニタを用いて立体視を可能とする。このようなモニタでは、右眼用と左眼用である別個の画像のそれぞれが3D表示のためのディスプレイ上に投影される。更に別の好適な実施形態においては、裸眼立体視モニタにより立体視を可能とする。裸眼立体視モニタは、現在例えばSiemens社から入手可能である。更に別の好適な実施形態においては、2つの高解像度ディスプレイ或いはデュアル・プロジェクション・システム(二重投影システム)により立体視を可能とする。或いは立体視パネル及び偏光レンズ・ビュー眼鏡を用いてもよい。この場合、輻輳点はスクリーンの同じ場所(例えば中心)に設定され、観察者は例えばこの点に焦点を合わせるように導かれる。視野内の他の物体は、輻輳点よりも使用者から近い或いは遠い位置にあるとき、様々な相対的な奥行きを有するように映し出される。
管状構造の内視鏡映像を立体視的に表示するとき、輻輳点が正確に計算されており、立体画像がスクリーン上に正確に表示されていることが重要である。このようにすると、使用者が注目すべき領域を観察可能となるとともに、注目すべき対象以外に注意が集まることが回避される。
本発明の好適な実施形態においては例えば、画像の中心が最も重要な部分であり、使用者は常にこの点に焦点を合わせると仮定する。(運転者は通常運転中に真直ぐ前方を見るという仮定と同じ程度に妥当な仮定である。)したがって、本発明の好適な実施形態において、ディスプレイの中で、使用者正面のスクリーンの中心である領域は、立体輻輳点として表現される。本発明の別の実施形態において、輻輳点は必要なときに変更可能であるか、或いは動的に設定可能である。輻輳点を動的に設定可能とする場合、例えば、使用者の視点を示す方向ベクトルが管腔内壁と交差する或いは「衝突する」点である「衝突点」に、使用者が焦点を合わせる。この好適な機能は以下で詳しく説明する。
図18は管状構造の内部管腔の典型例を示す。この例には、輻輳点に関する問題が存在する。図18(a)に示す局所領域(1801)と同様の構造に対して、使用者が観察したい領域は例えば点A近傍に設定される。したがって、仮想内視鏡システムは例えば、計算を行い、点Aに輻輳点を位置付けする。図18(b)及び図18(c)のそれぞれにおいて、同様の影を付けた領域(1801)が、図18(a)に比べて縮小して示されている。輻輳点が不正確な位置(図18(a)(遠すぎる例)及び図18(b)(近すぎる例)に示される)にあると、使用者が領域(1801)を検査しようとすると、使用者に不快な画像が見えることになる。したがって、使用者が最適に立体視を行うためには、立体視輻輳点を正確に計算しその位置を決定することが重要である。
本発明の好適な実施形態において、いくつかの方法を用いて、管状の解剖学的構造を観察する時間中、正確な立体視輻輳点を確実に計算することが可能である。これらの方法を例えば組み合わせて用いて輻輳点の非常に正確な位置を定めてもよい。またこれら方法の一部を用いると、より簡便な計算により良い結果を得ることが可能である。
本発明の好適な実施形態において、上述の光線照射技術を用いて更に、左眼及び右眼の視野の輻輳点を動的に調節することが可能である。これにより、左眼及び右眼の視野の立体輻輳点が常に管状組織の表面に位置するようになる。この管状構造は視野中央から使用者の視線の方向に延出する。上述のごとく、仮想管状組織の立体ディスプレイは、奥行き感の点において非常に大きな利点を有する。立体視ディスプレイの分野で知られているように、立体視ディスプレイは、使用者の視点からの任意の輻輳距離を仮定する。使用者の視点とは、使用者の両眼が注視していると考えられる点をいう。この輻輳距離において、左眼用画像と右眼用画像は最も快適な輻輳を有する。この距離が一定に保たれるならば、使用者が管状組織を通って移動しながら、この視点から輻輳距離とは異なる距離を有する対象を注視するとき、両眼が常に調節されなければならない。したがって、立体画像の輻輳点を動的に調節して、使用者が現在検査している対象或いはその付近に輻輳点を位置づけすることが望ましい。この点は、視点(すなわち、立体ディスプレイに使用される左眼位置と右眼位置の中央)から結腸壁へ、左眼と右眼の視点を結ぶ線に直角の方向に光線を照射することにより、自動的に取得される。
したがって、本発明の好適な実施形態において、使用者が管状構造を通って移動するのにしたがって、両眼が新たな位置に移ったとき、システムは例えば、両眼の中央にある点から視線方向に光線を照射する。
光線照射について、両眼の間隔が、使用者から使用者正面の壁面までの距離と比べて大きな影響を与えない場合、本発明の好適な実施形態において、両眼が同じ位置にあると仮定してもよい。或いは同様に1つの眼しか存在しないと仮定してもよい。したがって、大部分の計算はこの仮定に基づいて行われてもよい。両眼間の距離が重要である場合、両眼は別個のものとしてみなされ、光線は両眼それぞれの位置から照射される。このような光線はその経路上の最初の不透明な点をピックアップする。この点は両眼の正面にある表面であるか、或いは観察対象の点である。システムはその後、例えばこの点を輻輳点として用いて、ディスプレイのために画像を描画する。
図19は本発明の好適な実施形態にしたがって輻輳点を決定する方法を示す。1つの瞬間において、光線は両眼間の中央にある点から照射され、点Aをピックアップする。システムは点Aを描画過程における輻輳点として設定する。両眼がわずかに右方向に移動した後の次の瞬間において、別の光線が照射され、描画を更新するときの輻輳点として点A’をピックアップする。したがって、使用者の輻輳点は、被写体の観察対象点の方向に向けられる。この様な方法は、多くの場合に有効である。
上記の本発明の好適な実施形態において、光線照射アルゴリズムは例えば以下の擬似コードにしたがって実行される。
For every display loop,
shoot ray to get a hit point;
if get a hit point, set it as the convergence point.
Thus:
Input: user's position, viewing direction, volume
Output: new convergence point
Function UpdateConvergencePoint:
{
Create ray from the user's position along the viewing direction;
hitPoint=shootSingleRay(ray);
distance=CalculateDistanceFromUserPosition(hitPoint);
if(distance>MIN_CONVERGENCE_DISTANCE) set as new convergence point;
}
For every display loop,
shoot ray to get a hit point;
if get a hit point, set it as the convergence point.
Thus:
Input: user's position, viewing direction, volume
Output: new convergence point
Function UpdateConvergencePoint:
{
Create ray from the user's position along the viewing direction;
hitPoint=shootSingleRay(ray);
distance=CalculateDistanceFromUserPosition(hitPoint);
if(distance>MIN_CONVERGENCE_DISTANCE) set as new convergence point;
}
両眼の間隔が、使用者から使用者正面の壁面までの距離に対して意味が大きいとき、この方法は有効ではない。図20に示すごとく、上記の方法を用いて決定される輻輳点は、点A’となる。これは、この点が視点と点A’の間の長いベクトルにより示される視線方向で最も近い衝突点であるからである。点Aを観察可能な左眼に対してはこの輻輳点は正しい輻輳点であるといえるが、右眼に対しては、輻輳点は実際には点Aとなるべきである。なぜならば、管腔壁の一部が突起していることから、右眼には点A’は観察できず、点Aが見えるからである。輻輳点が点A’として設定されると、使用者の右眼には不明瞭な障害物が見えて邪魔となり、不快感を与えかねない。
したがって、本発明の好適な実施形態において、上記の方法を用いて輻輳点を決定した後、システムは例えば、2本の光線を照射することにより、結果を二重にチェックする。この2本の光線は左眼と右眼のそれぞれから照射され、その後例えば、管腔表面上の2つの衝突点が得られる。上記の方法を用いて見出された輻輳点がこれらの新たな点と一致しているとシステムが判断すると、システムは輻輳点が適切であると確認する。このような例を示す図18(a)及び図19において、両眼の視線の輻輳点は同じ点A及びA’である。しかしながら、図20に示す状況が起こると、実際の輻輳点が視線方向上の衝突点Aと一致しないという矛盾が生じる。このような状況が検知される場合、使用者が管腔壁から近すぎるために、管腔壁が障害物として使用者の視界に映っている。使用者が管腔に過度に近づけないようにすると、この問題は解決できる。若しくは、輻輳点が別の点に設定される。点A及びA’が輻輳点からわずかに外れているが、短時間であれば許容できる。本発明の好適な実施形態において、このような場合、使用者はポップアップ或いはその他のプロンプトにより、現在の視点において、両眼に対する立体輻輳が得られていないことを通知される。
本発明の好適な実施形態において、図7に示すごとく衝突点に関する情報を収集することにより、システムは例えば、使用者の視点から周囲の壁面までの距離を用いて「激突(collision)」の可能性を検知し、警告ポップアップ或いはその他の通知プロンプトを表示することにより、使用者が壁面内部に侵入することを防いでもよい。
観察者が管状構造内部を移動するとき、輻輳点は前後に激しく移動する。これは使用者に混乱や不快感を与える。本発明の好適な実施形態において、連続的な時間フレームにおける輻輳点は例えば、記憶される或いはトラックされる。輻輳点が激しく移動する場合、システムは例えば、いくつかの立体輻輳点をこれら輻輳点の間に挿入することにより、意図的にこの移動を遅らせる。例えば、図21に示すごとく、使用者が視線を左(反時計回り)に動かすと、輻輳点は点Aから点A’に移動されなければならない。しかしながらこのシステムは点Aと点A’の間にいくつかの補間された輻輳点を挿入することにより、輻輳点が点Aから点A’まで素早く「ジャンプ」する(通常目立つ)のではなく、滑らかに移動しているような視覚効果を使用者に与える。
(襞状部分を透明に描画して該襞状部分後方に隠れたボクセルを表示する方法)
本発明の好適な実施形態において、適切な立体視輻輳を維持するとともに中心線を生成する方法に関して上記で説明した光線照射技術は、「隠れたスポット」の特定にも同様に適用可能である。本発明の好適な実施形態において、この技術は図22に示すように実行される。図22は結腸管腔の縦断面を示す。この図には上方結腸壁(2275)及び下方結腸壁(2276)が示されている。また、中心線(2210)が示されており、この中心線(2210)は上記の光線照射技術にしたがって、或いは当該技術分野において既知であるその他の技術を用いて計算される。最後に、結腸壁下部から突起部(2250)が突出している。このような突起部は、例えば結腸壁の襞状部分、或いは例えば図22に示すようなポリープである。突起部が襞状部分或いはポリープのいずれであっても、このような突起部付近において結腸管腔の直径は減少する。したがって中心線(2210)をポリープ(2250)より上まで情報に移動して調整し、このような直径の減少に対応させる。図22に概略的に示す例において、使用者は図の左から図の右まで移動しながらフライ・スルー(fly-through)或いは内視鏡画像により、仮想の結腸を観察する。よって、使用者が結腸を通って左から右の方向(中心線(2210)端部の矢印が示す方向)に移動する間、結腸のうち、ポリープ(2250)のような突起部後方の領域に関連するボクセルを、中心線(2210)に沿って移動する視点からでは、使用者は観察できない。
本発明の好適な実施形態において、適切な立体視輻輳を維持するとともに中心線を生成する方法に関して上記で説明した光線照射技術は、「隠れたスポット」の特定にも同様に適用可能である。本発明の好適な実施形態において、この技術は図22に示すように実行される。図22は結腸管腔の縦断面を示す。この図には上方結腸壁(2275)及び下方結腸壁(2276)が示されている。また、中心線(2210)が示されており、この中心線(2210)は上記の光線照射技術にしたがって、或いは当該技術分野において既知であるその他の技術を用いて計算される。最後に、結腸壁下部から突起部(2250)が突出している。このような突起部は、例えば結腸壁の襞状部分、或いは例えば図22に示すようなポリープである。突起部が襞状部分或いはポリープのいずれであっても、このような突起部付近において結腸管腔の直径は減少する。したがって中心線(2210)をポリープ(2250)より上まで情報に移動して調整し、このような直径の減少に対応させる。図22に概略的に示す例において、使用者は図の左から図の右まで移動しながらフライ・スルー(fly-through)或いは内視鏡画像により、仮想の結腸を観察する。よって、使用者が結腸を通って左から右の方向(中心線(2210)端部の矢印が示す方向)に移動する間、結腸のうち、ポリープ(2250)のような突起部後方の領域に関連するボクセルを、中心線(2210)に沿って移動する視点からでは、使用者は観察できない。
従来、仮想結腸内視鏡の使用者が結腸内のフライ・スルー画像を観察するときの視点は中心線に沿って前方に方向付けられ、図22に示す中心線に沿って移動する。ポリープ(2250)或いは結腸壁の襞状部分などの突起部の前方(すなわち「裏」)にあるボクセルが観察できないときには、まず突起部を通過した後に、停止して視点の向きを下方或いは上方に変更し、続いて突起部を振り返らなければならなかった。振り返る位置は、図22においては視点Bとして示される。点Aにおいてポリープ(2250)に気付いた使用者には、ポリープが結腸管腔内に突出しているせいでポリープの後方に隠れたスポット(2220)が存在することがわかる。ポリープ(2250)の「隠れたスポット」内のボクセル(2220)を検査する唯一の方法は、例えば点Bのような視点で立止まり、視線の向きを下方に変更して隠れたスポット(2220)の領域を観察することである。このような作業は時間を要する退屈な作業であり、単純にスクリーン上のフライ・スルー表示を観察する以上に使用者による相互作用を必要とする。よってこのような作業は使用者(例えば放射線専門医)には好まれない。したがって、本発明の好適な実施形態においては、光線照射技術を用いて隠れたスポット(2220)のような隠れたスポットを位置付けする。一度位置付けされると、本発明の好適な実施形態において、使用者の視点が突起部付近(例えば図22の点A)に来ると、このような突起部は透明に描画される。
図22は、多数の光線(2230)と、1つの特別な光線(2238)を示す。光線(2230)は例えば、中心線から結腸壁の内表面へ照射される。中心線の生成と立体視輻輳点に関して上述したように、結腸内管腔(通常空気で満たされている)と結腸内管腔の壁面の間には、ボクセル強度の差があるから、光線が壁面のボクセルに衝突したことを検知することは容易である。2つの光線(2230)のそれぞれが中心線(2210)から、中心線の方向とほぼ等しい角度で照射されると、これら光線は中心線を始点とするという理由により、2つの光線の結腸内壁までの距離は互いから特定の割合の範囲内にあると考えられる。しかしながら、ポリープ(2250)付近のように、突起部が結腸壁の一方の側に存在して他方には存在しない場合、本発明の好適な実施形態において、突起部が存在し、したがって隠れたスポットが存在することが検知可能である。ポリープ(2250)付近においては、点R(2230)から照射される上側の光線は結腸壁に当たるが、下側の光線は、ポリープ(2250)頂部の結腸管腔と結腸壁の界面上に位置する点Tに当った後、ポリープ内を通って点T’を通過して、第3の結腸管腔(の空気)と結腸壁の界面T”を照射する。
本発明の変更形態において、別のアルゴリズムを用いて、1つの光線が管腔と管腔壁界面を通過する回数だけでなく、突起部が発生しているか否かを決定することができる。突起部の発生は、突起部から上流の適切な点(突起部に達する前に通過する点、すなわち図22の点Rより左側)から照射された場合と比べて、光線(2230)と(2238)の間の求められた距離が非常に短いことから決定される。結腸管腔に突起部或いはポリープが検知されると、本発明の好適な実施形態において、様々な機能を実行可能である。システムは例えば、使用者に隠れたスポットに接近していることを警告したり、使用者に「突起部を透明に表示する」というコマンドを入力するように促す。或いはシステムは使用者が結腸管腔内部を移動する速度を減少させる。これにより、使用者は十分に時間を掛けて突起部を観察するとともに突起部を透明にモーフィングするかどうかを決定することができる。したがって結腸を通って移動するときにその視点を変更することなく使用者がボクセル及び隠れたスポットを観察可能となる。
本発明の好適な実施形態において、隠れたスポットは例えば次のように検知される。使用者が短い(2乃至5分)休憩を取る間に、システムが例えば結腸内壁のポリゴン表面を生成し、各ポリゴンの空間位置が既知となる。若しくは、管腔(空気)と結腸壁の界面に沿って位置する全てのボクセルのマップが生成され、これらボクセルの位置が特定される。その後、システムは例えば、結腸管腔の中心線に沿って肛門から盲腸まで、カメラとともに移動しているかのような画像を提供するとともに、移動中に光線を照射する。続いて、このような光線と結腸内壁の交差の全てが検知される。このような光線は例えば4mm2ごとに1光線の密度で結腸壁を照射するように多数回放射される。この手順にしたがって、例えば、中心線に沿って自動的に移動する間に、観察可能な結腸表面のマップが生成される。この観察可能な表面を上記のように予め生成された結腸壁全体の表面から取除くと、隠れたスポットが残る。このようなスポットはその後、例えば色付けされて、移動中結腸壁上に表示される。或いはこれらのスポットを用いて、いつ、どの程度、特定の部分を透明に描画するかを予め決定してもよい。
本発明の変更形態において、隠れたスポットを観察する別の方法は、中心線に沿ってこの隠れたスポットまで自動的に移動してそこで移動を停止し、その後隠れたスポットの方向に視線を向ける方法である。この方法においては、全てのポリープを透明に設定する必要はない。このためには例えば、任意の隠れたスポットの周辺領域内に或いは周辺領域上の点のうちいずれかの点と、中心線の間の最短距離を決定した後、中心線上の平均点を決定する。この平均点からは、隠れたスポット上の全ての点を観察できる。中心線に沿って移動中にこの点に達すると例えば、表示は自動的に隠れたスポットに切替わる。隠れたスポットが大きすぎて1つのショットで観察できないならば、例えば、「俯瞰的(fly-over)」視野が自動的に採用される、或いは隠れたスポット全体が見えるまで視点を移動する。このような自動化されたアクションの全ては、フィードバック・ループを用いる光線照射に基づく。
本発明の好適な実施形態において、上記したように、隠れたスポットを検知する過程は事前に前処理段階として行われてもよい。これによりシステムは使用者が隠れたスポットに至る前にこのスポットの位置を知っておくことができる。或いは、本発明の変更形態においては、隠れたスポットの検知はリアルタイムで動的に行われる。この場合、使用者が突起部及び隠れたスポットに達すると、システムは例えば、(i)使用者に上記の透明性コマンドを使用するように促す(ii)使用者が結腸を通って移動する速度を変更して、特定の時間をおいて自動的に突起部を透明に表示する。或いは(iii)その他望ましい手順を用いる。
(相互作用的ディスプレイ制御インターフェース)
上記のように、3次元データ・セットの仮想表示が最初標準的なパーソナル・コンピュータ及びこれと同様のデバイス上で実施されたことから、管状構造(例えば結腸)といった3次元ボリュームを通って移動しながら仮想表示を行うための従来のシステムは、使用者制御インターフェースとして、通常マウス(或いは、例えばトラックボールなどのその他同様のデバイス)のみを用いる。よってマウス或いはその他の2次元デバイスは、実際はドキュメント、画像、或いはスプレッド・シートの範囲内の2次元空間におけるナビゲーションのために設計されているから、3次元におけるナビゲーションのためにはマウスの使用が好ましくない場合がある。2自由度である2次元空間と比べて、3次元空間には6つの自由度が存在するからである。
上記のように、3次元データ・セットの仮想表示が最初標準的なパーソナル・コンピュータ及びこれと同様のデバイス上で実施されたことから、管状構造(例えば結腸)といった3次元ボリュームを通って移動しながら仮想表示を行うための従来のシステムは、使用者制御インターフェースとして、通常マウス(或いは、例えばトラックボールなどのその他同様のデバイス)のみを用いる。よってマウス或いはその他の2次元デバイスは、実際はドキュメント、画像、或いはスプレッド・シートの範囲内の2次元空間におけるナビゲーションのために設計されているから、3次元におけるナビゲーションのためにはマウスの使用が好ましくない場合がある。2自由度である2次元空間と比べて、3次元空間には6つの自由度が存在するからである。
一般的に、従来の2ボタンマウス或いはホイールマウスはそれぞれ、2つのボタン、或いは2つのボタンと1つのボタンを備え、これらを用いて、様々な動きと相互作用的ディスプレイのパラメータの全てを制御する。この相互作用的ディスプレイのパラメータは、例えば結腸といった管状の解剖学的構造の仮想画像の観察に関連している。結腸、血管、及びこれに類するものを描画した3次元空間を通ってのナビゲーションは、3よりも格段に多いアクションを必要とする。この問題を解決するために、本発明の好適な実施形態において、結腸の仮想画像を観察するために、ゲームタイプのジョイスティックにより以下の表1に示す制御オペレーションを提供する。ジョイスティックは通常X、Y、及びZ方向での移動を可能にする。ジョイスティックはまた、その上部及び下部に多数のボタンを有し、このボタンを用いて多数の相互作用的ディスプレイ・パラメータが制御される。図23はこのようなジョイスティックの一例を示す。
上記の表1に示すごとく、本発明の好適な実施形態において、以下のような相互作用的仮想観察オペレーションが使用可能である。
(A.ナビゲーション)
本発明の好適な実施形態において、仮想結腸を通ってのナビゲーションは、ジョイスティック上部の2つのボタンを用いて制御可能である。このようなボタンは、通常使用者の手の親指により操作される。例えば、ジョイスティックの左上部に位置するボタン02は、盲腸方向への誘導された移動と、盲腸方向への手動による移動の間で切替えを行う。ボタン03は、直腸方向(標準的な仮想結腸内視鏡用語では、後方方向)への誘導された移動と手動による移動の間で切替えを行うために用いられる。標準的な仮想結腸内視鏡では、使用者は直腸から盲腸に向けて移動する。この方向を「前方」方向と称する。したがって、本発明の好適な実施形態において、1つのボタンを盲腸方向への手動による移動と誘導された移動の間の切替えに割当て、別のボタンを直腸方向への手動による移動と誘導された移動の間の切替えに割当てると便利である。これらの方向を「前方」或いは「後方」のいずれで呼ぶかは、用途により決まる。仮想結腸の軸方向での方向が、直腸或いは結腸に向かう方向のいずれであるかに関わらず、使用者は、視線方向を直腸方向或いは盲腸方向のいずれかに自由に決定してよい。したがって次の4つの可能性がある。移動の方向が直腸方向で視線方向が「後方」或いは盲腸方向、移動の方向が盲腸方向で視線方向が盲腸方向、或いは移動の方向が盲腸方向で視線方向が直腸方向となる可能性がある。本発明の好適な実施形態においては、ボタン04を用いて視線方向を盲腸方向へ変更可能であり、ボタン05を用いて視線方向を直腸方向へ変更可能である。
本発明の好適な実施形態において、仮想結腸を通ってのナビゲーションは、ジョイスティック上部の2つのボタンを用いて制御可能である。このようなボタンは、通常使用者の手の親指により操作される。例えば、ジョイスティックの左上部に位置するボタン02は、盲腸方向への誘導された移動と、盲腸方向への手動による移動の間で切替えを行う。ボタン03は、直腸方向(標準的な仮想結腸内視鏡用語では、後方方向)への誘導された移動と手動による移動の間で切替えを行うために用いられる。標準的な仮想結腸内視鏡では、使用者は直腸から盲腸に向けて移動する。この方向を「前方」方向と称する。したがって、本発明の好適な実施形態において、1つのボタンを盲腸方向への手動による移動と誘導された移動の間の切替えに割当て、別のボタンを直腸方向への手動による移動と誘導された移動の間の切替えに割当てると便利である。これらの方向を「前方」或いは「後方」のいずれで呼ぶかは、用途により決まる。仮想結腸の軸方向での方向が、直腸或いは結腸に向かう方向のいずれであるかに関わらず、使用者は、視線方向を直腸方向或いは盲腸方向のいずれかに自由に決定してよい。したがって次の4つの可能性がある。移動の方向が直腸方向で視線方向が「後方」或いは盲腸方向、移動の方向が盲腸方向で視線方向が盲腸方向、或いは移動の方向が盲腸方向で視線方向が直腸方向となる可能性がある。本発明の好適な実施形態においては、ボタン04を用いて視線方向を盲腸方向へ変更可能であり、ボタン05を用いて視線方向を直腸方向へ変更可能である。
(B.回転(見回す))
一般的に知られているように、3次元データ・セット、或いはより一般的にいうと3次元における任意の動きにおいて、X、Y、或いはZ軸周囲で回転しながら、仮想三次元立体描画により描画された解剖学的管状構造を観察できる。回転を用いて使用者の仮想の視点が存在する領域を「見回す」ことはしばしば有用である。また、回転の方向は時計回り又は反時計回り、すなわち回転軸の右側又は左側へ回転可能であるから、6つの回転自由度が存在する。ジョイスティックを左或いは右に動かすことにより、揺れを制御できる。本発明の好適な実施形態において、表1に示したように、これら6つの回転自由度は、6つの制御アクションを用いて生み出される。ジョイスティックを左右に動かすとこれら方向のうちいずれかの方向への揺れを制御できる。またジョイスティックを前後に動かすと、これらいずれかの方向への揺れを制御できる。ジョイスティックを時計回り或いは反時計回りに捻ると、時計回り或いは反時計回りに向きが変わる。ジョイスティックを時計回り或いは反時計回りに捻る動作は、ジョイスティックのZ軸正側周囲で行われる。Z軸はジョイスティック内を縦方向に下から上へ通過している。
一般的に知られているように、3次元データ・セット、或いはより一般的にいうと3次元における任意の動きにおいて、X、Y、或いはZ軸周囲で回転しながら、仮想三次元立体描画により描画された解剖学的管状構造を観察できる。回転を用いて使用者の仮想の視点が存在する領域を「見回す」ことはしばしば有用である。また、回転の方向は時計回り又は反時計回り、すなわち回転軸の右側又は左側へ回転可能であるから、6つの回転自由度が存在する。ジョイスティックを左或いは右に動かすことにより、揺れを制御できる。本発明の好適な実施形態において、表1に示したように、これら6つの回転自由度は、6つの制御アクションを用いて生み出される。ジョイスティックを左右に動かすとこれら方向のうちいずれかの方向への揺れを制御できる。またジョイスティックを前後に動かすと、これらいずれかの方向への揺れを制御できる。ジョイスティックを時計回り或いは反時計回りに捻ると、時計回り或いは反時計回りに向きが変わる。ジョイスティックを時計回り或いは反時計回りに捻る動作は、ジョイスティックのZ軸正側周囲で行われる。Z軸はジョイスティック内を縦方向に下から上へ通過している。
(C.ズーム/ズーム・アップ三面表示)
仮想結腸内視鏡の多くの実施形態において、使用者が観察するボクセルのディスプレイに対する大きさを拡大するためのある種のズーム機能が非常に有用であるとともに必要である。このためには、実際にはボクセルの特定の群がデジタル式に拡大される。本発明の好適な実施形態において、ジョイスティックを用いて相互作用的ディスプレイ制御を行いながら、トリガ・ボタンを用いてズームを行うことが可能である。このようなズームは、使用者が結腸を通って移動する間結腸の一部を拡大したいと思ったときいつでも、トリガを引くだけで実行可能である。対象として選んだ点を中心にしてズームは実行される。
仮想結腸内視鏡の多くの実施形態において、使用者が観察するボクセルのディスプレイに対する大きさを拡大するためのある種のズーム機能が非常に有用であるとともに必要である。このためには、実際にはボクセルの特定の群がデジタル式に拡大される。本発明の好適な実施形態において、ジョイスティックを用いて相互作用的ディスプレイ制御を行いながら、トリガ・ボタンを用いてズームを行うことが可能である。このようなズームは、使用者が結腸を通って移動する間結腸の一部を拡大したいと思ったときいつでも、トリガを引くだけで実行可能である。対象として選んだ点を中心にしてズームは実行される。
変更例として、トリガ・ボタン或いはその他のボタンが、体軸、冠状、及び矢印画像のそれぞれのディスプレイに対して断層面上の点を変更するようにプログラムされてもよい。例えば、トリガ・ボタン或いはトリガに関連するボタンが押されないと、体軸、冠状、及び矢印画像のそれぞれのディスプレイに対しての断層面は、使用者のオンライン位置に向けられる。トリガ・ボタン或いはトリガに関連するボタンが押されると、断層面は例えば管状組織の内壁上の1点となる。この点は、視点からの仮想光線が照射する点である。このことを用いて、任意の点(例えばポリープが疑われる点)における壁面の特性を調べることが可能である。このような点の体軸、冠状、及び矢印画像をデジタル拡大モードで表示可能である。デジタル拡大モードの画像として例えば、1つのCTピクセルが2つのモニターピクセルにマッピングされた画像が挙げられる。その他所望のズーム・マッピングを画像に施してもよい。
(D.場所のマーキング)
仮想結腸内視鏡法及び内視鏡法において、結腸の一部を通る特定のパス上で始点と終点が観察されることが望ましい。本発明の好適な実施形態において、使用者はボタン06を押すことにより始点を設定でき、ボタン06を再度押すことにより終点を設定してマーカーを終了することができる。本発明の好適な実施形態において、ボタン06は、ジョイスティック本体部のボタンにより実行される他の機能のように仮想観察中常に使用されるボタンではないから、ジョイスティック底部に配される。使用者がボタン06を用いて設定された最新のマーカー(終点が設定されていても、されていなくてもよい)を取除くことを希望する場合には、本発明の好適な実施形態において、使用者は好ましくはジョイスティックの底部に配されるボタン07を押す。
仮想結腸内視鏡法及び内視鏡法において、結腸の一部を通る特定のパス上で始点と終点が観察されることが望ましい。本発明の好適な実施形態において、使用者はボタン06を押すことにより始点を設定でき、ボタン06を再度押すことにより終点を設定してマーカーを終了することができる。本発明の好適な実施形態において、ボタン06は、ジョイスティック本体部のボタンにより実行される他の機能のように仮想観察中常に使用されるボタンではないから、ジョイスティック底部に配される。使用者がボタン06を用いて設定された最新のマーカー(終点が設定されていても、されていなくてもよい)を取除くことを希望する場合には、本発明の好適な実施形態において、使用者は好ましくはジョイスティックの底部に配されるボタン07を押す。
本発明の変更形態において、制御機能は6自由度(6D)コントローラにマッピングされる。このコントローラの一例を図24に示す(図中コントローラは右に示され、スタイラスがその左に示されている)。6Dコントローラは6自由度トラッカーを備え、このトラッカーは1若しくはそれ以上のボタンを有する。このトラッカーは、例えば高周波を用いるトラッカー又は光学トラッカーであってもよい。或いは当該技術分野において既知のその他の技術を用いてもよい。デバイスに配されたボタンを用いると、使用者はコンピュータにオン/オフ信号を送信できる。このボタンと、これらデバイスからの6D情報を組み合わせることにより、管状構造内を移動しながら観察する間、使用者のコマンドを実行すべき動きにマッピングすることが可能となる。例えば、使用者がスクリーン上にトゥールの仮想表現(デバイスの形状モデルではなく象徴的なモデル)として示されてもよい。これにより、デバイスの移動並びに回転が、この動き或いは回転をコンピュータがどのように解釈しているかを正確に反映することになる。
6Dコントローラはより多くの自由度を提供して、アクションのコマンドへのマッピングにおける自在性を増大させることが可能である。更に、このような制御インターフェースは機械的部分が比較的少ないから(一実施形態においてはトラッカーとボタンのみ)、耐久性に優れている。使用者とトラッカー(通常高周波或いは光学的要素)の間に物理的接触がないから、トラッカーはより頑健性を保つことができる。
(システムの例)
本発明は、データ・プロセッサ上のソフトウェア・ラン、1若しくはそれ以上の専用チップ、或いはこれらを組み合わせたものとして実施可能である。システムは例えば、立体視ディスプレイ、データ・プロセッサ、1若しくはそれ以上のインターフェース(相互作用的ディスプレイ制御コマンド及び機能がマップされる)、1若しくはそれ以上のメモリ或いはストレージ・デバイス、グラフィックス・プロセッサ、及び関連するシステムを備える。例えば、RadioDexterソフトウェアを実行するDextroscope及びDextrobeamシステム(Volume Interactions Pte Ltd社製(シンガポール))上では、本発明の方法を容易に実行可能である。
本発明は、データ・プロセッサ上のソフトウェア・ラン、1若しくはそれ以上の専用チップ、或いはこれらを組み合わせたものとして実施可能である。システムは例えば、立体視ディスプレイ、データ・プロセッサ、1若しくはそれ以上のインターフェース(相互作用的ディスプレイ制御コマンド及び機能がマップされる)、1若しくはそれ以上のメモリ或いはストレージ・デバイス、グラフィックス・プロセッサ、及び関連するシステムを備える。例えば、RadioDexterソフトウェアを実行するDextroscope及びDextrobeamシステム(Volume Interactions Pte Ltd社製(シンガポール))上では、本発明の方法を容易に実行可能である。
本発明の好適な実施形態は、本発明の好適な実施形態を実行可能である適切なデータ・プロセッサにより実行可能な命令のモジュラー・ソフトウェア・プログラムとして実行可能である。このソフトウェア・プログラムは例えば、ハード・ドライブ、フラッシュ・メモリ、メモリ・スティック・光学記憶媒体、或いは当該技術分野において既知のその他のデータ記憶デバイスに記憶される。適切なデータ・プロセッサのCPUによりこのようなプログラムがアクセスされるとともに実行されると、本発明の好適な実施形態において、このプログラムは、上記の管状構造の3Dコンピュータ・モデルを3Dデータ・ディスプレイ・システム内に表示する方法を実行する。
本発明は好適な実施形態を例に説明されてきたが、これらの例は例示のためにのみ示されたものである。当業者であれば、以下の請求の範囲により定められる本発明の範囲及び要旨を実質的に離れることなく、これら好適な実施形態に容易に変更を加えることが可能であることが理解できる。
Claims (31)
- 観察対象物の管状構造を有する領域に関するスキャン・データを取得する段階と、
前記スキャン・データからボリューム・データ・セットを構築する段階と、
前記ボリューム・データ・セットを処理することにより、管状構造の一部或いは全体を仮想表示する段階を備え、
前記管状構造が立体視表示されることを特徴とする管状解剖学的構造を仮想表示する方法。 - 前記管状構造の小区画が主表示ウィンドウに表示され、隣接する全体表示ウィンドウに前記管状構造全体の内壁の透明画像が表示されることを特徴とする請求項1記載の方法。
- 前記全体表示ウィンドウが、前記管状構造内における軌跡の1つと現在位置を表示する追加的な視覚表示を備えることを特徴とする請求項2記載の方法。
- 前記管状構造が赤−緑アナグリフ立体表示、赤−青アナグリフ立体表示、赤−シアン・アナグリフ立体表示、インタレース表示、及び裸眼立体表示を含む様々な立体視フォーマットを用いて表示可能であることを特徴とする請求項1記載の方法。
- 様々なカラー・ルックアップ・テーブルを用いて、前記管状構造の壁面の半透明画像が表示されることを特徴とする請求項1記載の方法。
- 様々なカラー・ルックアップ・テーブルを用いて、前記管状構造の壁面の不透明画像が表示されることを特徴とする請求項1記載の方法。
- 前記管状組織と該管状組織内の空気の間のボクセル強度の差に基づいて、前記管状構造の壁面が前記ボリューム・データ・セットから抽出されることを特徴とする請求項1記載の方法。
- 前記管状構造がヒト或いは哺乳類の結腸であることを特徴とする請求項1乃至7いずれかに記載の方法。
- 前記管状構造がヒト或いは哺乳類の動脈であることを特徴とする請求項1乃至7いずれかに記載の方法。
- 管状構造の中心線を生成するための方法であって、
視点から複数の光線を照射する段階と、
前記光線が照射する前記構造の内壁上の複数の照射点を求める段階と、
前記照射点の3次元座標の平均化することにより、中心線上の1点を求める段階と、
前記中心線上の点を次の視点として用いる段階からなることを特徴とする方法。 - 第1の視点として前記管状構造の一端上の点を選択し、該一端上の点から前記管状構造の他端まで処理が反復されることを特徴とする請求項11記載の方法。
- 前記管状構造が結腸であり、
前記第1の視点が直腸近傍の点であることを特徴とする請求項11記載の方法。 - 中心線上の点のそれぞれを求めた後に、該中心線上の点から追加的な複数の光線が照射され、該中心線上の点が中心線上の点として適切であることが検証されることを特徴とする請求項10記載の方法。
- 前記追加的な複数の光線が、前記暫定的な中心線上の点から現在の方向に対して直角の方向照射されることを特徴とする請求項13記載の方法。
- エラーが発見されるとエラー補正操作が実行され、補正した位置に前記中心線上の点が動かされることを特徴とする請求項13記載の方法。
- 立体輻輳点を動的に調節しながら管状構造を表示する方法であって、
視点から視線方向に光線を照射する段階と、
前記光線が照射する前記構造の内壁上の1点を求める段階と、
前記光線が照射する点を、前記立体輻輳点として設定する段階を備えることを特徴とする方法。 - それぞれの眼点から追加的な光線を照射することにより、前記立体輻輳点をテストする段階を更に備えることを特徴とする請求項16記載の方法。
- 視点が変更される度に、前記テストする段階が反復されることを特徴とする請求項16記載の方法。
- 立体輻輳点の座標が第1の座標から所定量を超えて第2の座標に変更されるとき、1若しくはそれ以上の中間立体輻輳点が、以前の立体輻輳点と次の立体輻輳点の間に補間されることを特徴とする請求項18記載の方法。
- 管状組織のディスプレイと使用者の間の相互作用と、管状組織のディスプレイに対する使用者のコントロールを最適化する方法であって、
3次元データ・セットのボリューム・レンダリングにより該管状組織のディスプレイが得られ、
ナビゲーション及びコントロール機能を1若しくはそれ以上のジョイスティック及び6Dコントローラにマッピングする段階を備えることを特徴とする方法。 - 前記管状組織がヒトの結腸であり、
前記マッピングされた機能が、3次元空間における3方向それぞれへの移動、横揺れ、縦揺れ、時計回りの回転、反時計回りの回転、盲腸方向への誘導された移動、直腸方向への誘導された移動、盲腸方向への手動による移動、直腸方向への手動による移動、視線方向の変更、始点の設定、終点の設定、及びズームからなる群から選択される1若しくはそれ以上の機能を含むことを特徴とする請求項20記載の方法。 - 管状構造を相互作用的に仮想表示する方法であって、
観察対象物の管状構造を有する領域に関するスキャン・データを取得する段階と、
前記スキャン・データからボリューム・データ・セットを構築する段階と、
前記ボリューム・データ・セットを処理することにより、管状構造の一部或いは全体を仮想表示する段階と、
前記管状構造の立体視表示を行う段階と
光線照射技術を用いて、前記管状構造の中心線を算出し、視点が前記管状構造内部を動かされるとき、該視点の立体輻輳点を動的に調整する段階を備えることを特徴とする方法。 - 前記視点が前記管状構造内部で自動的に動かされることを特徴とする請求項22記載の方法。
- 使用者の相互作用的コントロールにより、前記視点が前記管状構造内部を動かされることを特徴とする請求項22記載の方法。
- 光線照射技術が更に、視点が障害物から所定距離内にあることを使用者に警告するためにも用いられることを特徴とする請求項22記載の方法。
- 光線照射技術が更に、前記管状構造の壁面上の1若しくはそれ以上の襞状部分と該襞状部分の裏に隠れたスポットを検知するためにも用いられることを特徴とする請求項22記載の方法。
- 前記襞状部分が検知された場合に、前記視点が該襞状部分から所定距離内に入ると、該襞状部分が透明に設定されることを特徴とする請求項26記載の方法。
- コンピュータ可読のプログラム・コード手段が埋め込まれたコンピュータ上で使用可能な媒体を備え、
該コンピュータ可読のプログラム・コード手段は、コンピュータに、観察対象物の管状構造を有する領域に関するスキャン・データを取得し、該スキャン・データからボリューム・データ・セットを構築し、該ボリューム・データ・セットを処理することにより前記管状構造の一部或いは全体を仮想表示させるための手段を備え、
前記管状構造が立体視的に表示されることを特徴とするコンピュータ・プログラム製品。 - マシンにより読み取り可能なプログラム格納デバイスであって、
該デバイスが、該マシンにより実行可能な命令プログラムを実行することにより、管状解剖学的構造を仮想表示する方法が行われ、
該方法が、観察対象物の管状構造を有する領域に関するスキャン・データを取得する段階と、
前記スキャン・データからボリューム・データ・セットを構築する段階と、
該ボリューム・データ・セットを処理することにより、前記管状構造の一部或いは全体を仮想表示する段階を備え、
前記管状構造が立体視的に表示されることを特徴とするデバイス。 - コンピュータ可読のプログラム・コード手段が埋め込まれたコンピュータ上で使用可能な媒体を備え、
該コンピュータ可読のプログラム・コード手段は、コンピュータに、観察対象物の管状構造を有する領域に関するスキャン・データを取得し、該スキャン・データからボリューム・データ・セットを構築し、該ボリューム・データ・セットを処理することにより前記管状構造の一部或いは全体を仮想表示し、光線照射技術を使用させるための手段を備え、
該光線照射技術を用いることにより、前記管状構造の中心線が算出され、視点が前記管状構造内を動かされるとき、該視点の立体輻輳点が動的に調整されることを特徴とするコンピュータ・プログラム製品。 - マシンにより読み取り可能なプログラム格納デバイスであって、
該デバイスが、該マシンにより実行可能な命令プログラムを実行することにより、管状解剖学的構造を仮想表示する方法が行われ、
該方法が、観察対象物の管状構造を有する領域に関するスキャン・データを取得する段階と、
該スキャン・データからボリューム・データ・セットを構築する段階と、
該ボリューム・データ・セットを処理することにより前記管状構造の一部或いは全体を仮想表示する段階と、
前記管状構造を立体視する段階と、
光線照射技術を用いる段階を備え、
該光線照射技術を用いることにより、前記管状構造の中心線が算出され、視点が前記管状構造内を動かされるとき、該視点の立体輻輳点が動的に調整されることを特徴とするデバイス。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US51704303P | 2003-11-03 | 2003-11-03 | |
US51699803P | 2003-11-03 | 2003-11-03 | |
US56210004P | 2004-04-14 | 2004-04-14 | |
PCT/EP2004/052780 WO2005043465A2 (en) | 2003-11-03 | 2004-11-03 | Stereo display of tube-like structures and improved techniques therefor ('stereo display') |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007531554A true JP2007531554A (ja) | 2007-11-08 |
Family
ID=34557390
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006537314A Pending JP2007537770A (ja) | 2003-11-03 | 2004-11-03 | 内視鏡画像内の管腔状構造のディスプレイ最適化のための動的なクロップボックス決定方法 |
JP2006537315A Pending JP2007531554A (ja) | 2003-11-03 | 2004-11-03 | 管状構造を立体的に表示するディスプレイ及び該ディスプレイのための改善された技術(「ステレオ・ディスプレイ」) |
JP2006537317A Pending JP2007537771A (ja) | 2003-11-03 | 2004-11-03 | 内腔組織スクリーニングのためのシステム及び方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006537314A Pending JP2007537770A (ja) | 2003-11-03 | 2004-11-03 | 内視鏡画像内の管腔状構造のディスプレイ最適化のための動的なクロップボックス決定方法 |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006537317A Pending JP2007537771A (ja) | 2003-11-03 | 2004-11-03 | 内腔組織スクリーニングのためのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (3) | US20050119550A1 (ja) |
EP (3) | EP1680765A2 (ja) |
JP (3) | JP2007537770A (ja) |
CA (3) | CA2551053A1 (ja) |
WO (3) | WO2005043465A2 (ja) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008029694A (ja) * | 2006-07-31 | 2008-02-14 | Toshiba Corp | 画像処理装置及び該画像処理装置を備える医用診断装置 |
JP2008529578A (ja) * | 2005-02-08 | 2008-08-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 医用画像ビューイングプロトコル |
WO2009116663A1 (ja) * | 2008-03-21 | 2009-09-24 | Takahashi Atsushi | 三次元デジタル拡大鏡手術支援システム |
JP2010200787A (ja) * | 2009-02-27 | 2010-09-16 | Fujifilm Corp | 放射線画像表示装置 |
JP2011043796A (ja) * | 2009-08-21 | 2011-03-03 | Mitsubishi Electric Research Laboratories Inc | 可動表示装置上に画像を表示するための方法およびシステム |
WO2012102022A1 (ja) * | 2011-01-27 | 2012-08-02 | 富士フイルム株式会社 | 立体視画像表示方法、並びに、立体視画像表示制御装置およびプログラム |
WO2012137821A1 (ja) * | 2011-04-07 | 2012-10-11 | 株式会社東芝 | 画像処理システム、装置、方法及びプログラム |
WO2014192275A1 (ja) * | 2013-05-28 | 2014-12-04 | 富士フイルム株式会社 | 投影画像生成装置、方法およびプログラム |
JP2015123250A (ja) * | 2013-12-26 | 2015-07-06 | 株式会社Aze | 医用画像表示制御装置、方法およびプログラム |
WO2015186439A1 (ja) * | 2014-06-03 | 2015-12-10 | 株式会社 日立メディコ | 画像処理装置及び立体視表示方法 |
Families Citing this family (76)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7983733B2 (en) * | 2004-10-26 | 2011-07-19 | Stereotaxis, Inc. | Surgical navigation using a three-dimensional user interface |
WO2007011306A2 (en) * | 2005-07-20 | 2007-01-25 | Bracco Imaging S.P.A. | A method of and apparatus for mapping a virtual model of an object to the object |
US7889897B2 (en) * | 2005-05-26 | 2011-02-15 | Siemens Medical Solutions Usa, Inc. | Method and system for displaying unseen areas in guided two dimensional colon screening |
US9014438B2 (en) * | 2005-08-17 | 2015-04-21 | Koninklijke Philips N.V. | Method and apparatus featuring simple click style interactions according to a clinical task workflow |
US20070046661A1 (en) * | 2005-08-31 | 2007-03-01 | Siemens Medical Solutions Usa, Inc. | Three or four-dimensional medical imaging navigation methods and systems |
US7623900B2 (en) * | 2005-09-02 | 2009-11-24 | Toshiba Medical Visualization Systems Europe, Ltd. | Method for navigating a virtual camera along a biological object with a lumen |
IL181470A (en) * | 2006-02-24 | 2012-04-30 | Visionsense Ltd | Method and system for navigation within a flexible organ in the human body |
JP2007260144A (ja) * | 2006-03-28 | 2007-10-11 | Olympus Medical Systems Corp | 医療用画像処理装置及び医療用画像処理方法 |
US20070236514A1 (en) * | 2006-03-29 | 2007-10-11 | Bracco Imaging Spa | Methods and Apparatuses for Stereoscopic Image Guided Surgical Navigation |
US7570986B2 (en) * | 2006-05-17 | 2009-08-04 | The United States Of America As Represented By The Secretary Of Health And Human Services | Teniae coli guided navigation and registration for virtual colonoscopy |
CN100418478C (zh) * | 2006-06-08 | 2008-09-17 | 上海交通大学 | 基于血流成像的虚拟内窥镜表面彩色映射方法 |
US8560047B2 (en) | 2006-06-16 | 2013-10-15 | Board Of Regents Of The University Of Nebraska | Method and apparatus for computer aided surgery |
EP2050071B1 (en) * | 2006-07-31 | 2018-09-12 | Koninklijke Philips N.V. | A method, apparatus and computer-readable medium for creating a preset map for the visualization of an image dataset |
US8014561B2 (en) * | 2006-09-07 | 2011-09-06 | University Of Louisville Research Foundation, Inc. | Virtual fly over of complex tubular anatomical structures |
US7853058B2 (en) * | 2006-11-22 | 2010-12-14 | Toshiba Medical Visualization Systems Europe, Limited | Determining a viewpoint for navigating a virtual camera through a biological object with a lumen |
US11315307B1 (en) | 2006-12-28 | 2022-04-26 | Tipping Point Medical Images, Llc | Method and apparatus for performing rotating viewpoints using a head display unit |
US10795457B2 (en) | 2006-12-28 | 2020-10-06 | D3D Technologies, Inc. | Interactive 3D cursor |
US9349183B1 (en) * | 2006-12-28 | 2016-05-24 | David Byron Douglas | Method and apparatus for three dimensional viewing of images |
US7941213B2 (en) * | 2006-12-28 | 2011-05-10 | Medtronic, Inc. | System and method to evaluate electrode position and spacing |
US11275242B1 (en) | 2006-12-28 | 2022-03-15 | Tipping Point Medical Images, Llc | Method and apparatus for performing stereoscopic rotation of a volume on a head display unit |
US11228753B1 (en) | 2006-12-28 | 2022-01-18 | Robert Edwin Douglas | Method and apparatus for performing stereoscopic zooming on a head display unit |
US8023710B2 (en) * | 2007-02-12 | 2011-09-20 | The United States Of America As Represented By The Secretary Of The Department Of Health And Human Services | Virtual colonoscopy via wavelets |
JP5455290B2 (ja) * | 2007-03-08 | 2014-03-26 | 株式会社東芝 | 医用画像処理装置及び医用画像診断装置 |
EP2136706A1 (en) | 2007-04-18 | 2009-12-30 | Medtronic, Inc. | Chronically-implantable active fixation medical electrical leads and related methods for non-fluoroscopic implantation |
JP4563421B2 (ja) * | 2007-05-28 | 2010-10-13 | ザイオソフト株式会社 | 画像処理方法及び画像処理プログラム |
US9171391B2 (en) * | 2007-07-27 | 2015-10-27 | Landmark Graphics Corporation | Systems and methods for imaging a volume-of-interest |
US8839798B2 (en) | 2008-04-18 | 2014-09-23 | Medtronic, Inc. | System and method for determining sheath location |
US8663120B2 (en) * | 2008-04-18 | 2014-03-04 | Regents Of The University Of Minnesota | Method and apparatus for mapping a structure |
US8340751B2 (en) | 2008-04-18 | 2012-12-25 | Medtronic, Inc. | Method and apparatus for determining tracking a virtual point defined relative to a tracked member |
US8457371B2 (en) | 2008-04-18 | 2013-06-04 | Regents Of The University Of Minnesota | Method and apparatus for mapping a structure |
US8532734B2 (en) * | 2008-04-18 | 2013-09-10 | Regents Of The University Of Minnesota | Method and apparatus for mapping a structure |
US8494608B2 (en) * | 2008-04-18 | 2013-07-23 | Medtronic, Inc. | Method and apparatus for mapping a structure |
CA2665215C (en) * | 2008-05-06 | 2015-01-06 | Intertape Polymer Corp. | Edge coatings for tapes |
JP2010075549A (ja) * | 2008-09-26 | 2010-04-08 | Toshiba Corp | 画像処理装置 |
US8676942B2 (en) * | 2008-11-21 | 2014-03-18 | Microsoft Corporation | Common configuration application programming interface |
JP5624308B2 (ja) * | 2008-11-21 | 2014-11-12 | 株式会社東芝 | 画像処理装置及び画像処理方法 |
WO2010064687A1 (ja) * | 2008-12-05 | 2010-06-10 | 株式会社 日立メディコ | 医用画像表示装置及び医用画像表示方法 |
US8175681B2 (en) | 2008-12-16 | 2012-05-08 | Medtronic Navigation Inc. | Combination of electromagnetic and electropotential localization |
US8350846B2 (en) * | 2009-01-28 | 2013-01-08 | International Business Machines Corporation | Updating ray traced acceleration data structures between frames based on changing perspective |
JP5300570B2 (ja) * | 2009-04-14 | 2013-09-25 | 株式会社日立メディコ | 画像処理装置 |
US8494613B2 (en) | 2009-08-31 | 2013-07-23 | Medtronic, Inc. | Combination localization system |
US8446934B2 (en) * | 2009-08-31 | 2013-05-21 | Texas Instruments Incorporated | Frequency diversity and phase rotation |
US8494614B2 (en) | 2009-08-31 | 2013-07-23 | Regents Of The University Of Minnesota | Combination localization system |
US8355774B2 (en) * | 2009-10-30 | 2013-01-15 | Medtronic, Inc. | System and method to evaluate electrode position and spacing |
JP5551955B2 (ja) * | 2010-03-31 | 2014-07-16 | 富士フイルム株式会社 | 投影画像生成装置、方法、及びプログラム |
US9401047B2 (en) * | 2010-04-15 | 2016-07-26 | Siemens Medical Solutions, Usa, Inc. | Enhanced visualization of medical image data |
WO2012137113A1 (en) * | 2011-04-08 | 2012-10-11 | Koninklijke Philips Electronics N.V. | Image processing system and method. |
US9498231B2 (en) | 2011-06-27 | 2016-11-22 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US11911117B2 (en) | 2011-06-27 | 2024-02-27 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
CA2840397A1 (en) | 2011-06-27 | 2013-04-11 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
US8817076B2 (en) * | 2011-08-03 | 2014-08-26 | General Electric Company | Method and system for cropping a 3-dimensional medical dataset |
JP5755122B2 (ja) * | 2011-11-30 | 2015-07-29 | 富士フイルム株式会社 | 画像処理装置、方法、及びプログラム |
JP5981178B2 (ja) * | 2012-03-19 | 2016-08-31 | 東芝メディカルシステムズ株式会社 | 医用画像診断装置、画像処理装置及びプログラム |
JP5670945B2 (ja) * | 2012-04-02 | 2015-02-18 | 株式会社東芝 | 画像処理装置、方法、及びプログラム、並びに、立体画像表示装置 |
US9373167B1 (en) * | 2012-10-15 | 2016-06-21 | Intrinsic Medical Imaging, LLC | Heterogeneous rendering |
US10105149B2 (en) | 2013-03-15 | 2018-10-23 | Board Of Regents Of The University Of Nebraska | On-board tool tracking system and methods of computer assisted surgery |
JP5896063B2 (ja) * | 2015-03-20 | 2016-03-30 | 株式会社Aze | 医用診断支援装置、方法およびプログラム |
US10222932B2 (en) | 2015-07-15 | 2019-03-05 | Fyusion, Inc. | Virtual reality environment based manipulation of multilayered multi-view interactive digital media representations |
US11006095B2 (en) | 2015-07-15 | 2021-05-11 | Fyusion, Inc. | Drone based capture of a multi-view interactive digital media |
US10147211B2 (en) | 2015-07-15 | 2018-12-04 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US10242474B2 (en) | 2015-07-15 | 2019-03-26 | Fyusion, Inc. | Artificially rendering images using viewpoint interpolation and extrapolation |
US11095869B2 (en) | 2015-09-22 | 2021-08-17 | Fyusion, Inc. | System and method for generating combined embedded multi-view interactive digital media representations |
JP6310149B2 (ja) * | 2015-07-28 | 2018-04-11 | 株式会社日立製作所 | 画像生成装置、画像生成システム及び画像生成方法 |
US11783864B2 (en) | 2015-09-22 | 2023-10-10 | Fyusion, Inc. | Integration of audio into a multi-view interactive digital media representation |
JP6384925B2 (ja) * | 2016-02-05 | 2018-09-05 | 株式会社Aze | 医用診断支援装置、方法およびプログラム |
US11202017B2 (en) | 2016-10-06 | 2021-12-14 | Fyusion, Inc. | Live style transfer on a mobile device |
US10437879B2 (en) | 2017-01-18 | 2019-10-08 | Fyusion, Inc. | Visual search using multi-view interactive digital media representations |
US11127197B2 (en) * | 2017-04-20 | 2021-09-21 | Siemens Healthcare Gmbh | Internal lighting for endoscopic organ visualization |
US10313651B2 (en) | 2017-05-22 | 2019-06-04 | Fyusion, Inc. | Snapshots at predefined intervals or angles |
US11069147B2 (en) | 2017-06-26 | 2021-07-20 | Fyusion, Inc. | Modification of multi-view interactive digital media representation |
CN111163837B (zh) * | 2017-07-28 | 2022-08-02 | 医达科技公司 | 用于混合现实环境中手术规划的方法和系统 |
US10592747B2 (en) | 2018-04-26 | 2020-03-17 | Fyusion, Inc. | Method and apparatus for 3-D auto tagging |
CN111325077B (zh) * | 2018-12-17 | 2024-04-12 | 同方威视技术股份有限公司 | 一种图像显示方法、装置、设备及计算机存储介质 |
CN109598999B (zh) * | 2018-12-18 | 2020-10-30 | 济南大学 | 一种可以智能感知用户倾倒行为的虚拟实验容器 |
US11399806B2 (en) * | 2019-10-22 | 2022-08-02 | GE Precision Healthcare LLC | Method and system for providing freehand render start line drawing tools and automatic render preset selections |
US11918178B2 (en) | 2020-03-06 | 2024-03-05 | Verily Life Sciences Llc | Detecting deficient coverage in gastroenterological procedures |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5261404A (en) * | 1991-07-08 | 1993-11-16 | Mick Peter R | Three-dimensional mammal anatomy imaging system and method |
US5782762A (en) * | 1994-10-27 | 1998-07-21 | Wake Forest University | Method and system for producing interactive, three-dimensional renderings of selected body organs having hollow lumens to enable simulated movement through the lumen |
US5611025A (en) * | 1994-11-23 | 1997-03-11 | General Electric Company | Virtual internal cavity inspection system |
US6151404A (en) * | 1995-06-01 | 2000-11-21 | Medical Media Systems | Anatomical visualization system |
JP3570576B2 (ja) * | 1995-06-19 | 2004-09-29 | 株式会社日立製作所 | マルチモダリティに対応した3次元画像合成表示装置 |
US6028606A (en) * | 1996-08-02 | 2000-02-22 | The Board Of Trustees Of The Leland Stanford Junior University | Camera simulation system |
US6331116B1 (en) * | 1996-09-16 | 2001-12-18 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual segmentation and examination |
US7486811B2 (en) * | 1996-09-16 | 2009-02-03 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination of objects, such as internal organs |
US5971767A (en) * | 1996-09-16 | 1999-10-26 | The Research Foundation Of State University Of New York | System and method for performing a three-dimensional virtual examination |
US6016439A (en) * | 1996-10-15 | 2000-01-18 | Biosense, Inc. | Method and apparatus for synthetic viewpoint imaging |
US5891030A (en) * | 1997-01-24 | 1999-04-06 | Mayo Foundation For Medical Education And Research | System for two dimensional and three dimensional imaging of tubular structures in the human body |
US6028608A (en) * | 1997-05-09 | 2000-02-22 | Jenkins; Barry | System and method of perception-based image generation and encoding |
US6246784B1 (en) * | 1997-08-19 | 2001-06-12 | The United States Of America As Represented By The Department Of Health And Human Services | Method for segmenting medical images and detecting surface anomalies in anatomical structures |
US5993391A (en) * | 1997-09-25 | 1999-11-30 | Kabushiki Kaisha Toshiba | Ultrasound diagnostic apparatus |
US6928314B1 (en) * | 1998-01-23 | 2005-08-09 | Mayo Foundation For Medical Education And Research | System for two-dimensional and three-dimensional imaging of tubular structures in the human body |
US6300965B1 (en) * | 1998-02-17 | 2001-10-09 | Sun Microsystems, Inc. | Visible-object determination for interactive visualization |
US6304266B1 (en) * | 1999-06-14 | 2001-10-16 | Schlumberger Technology Corporation | Method and apparatus for volume rendering |
FR2797978B1 (fr) * | 1999-08-30 | 2001-10-26 | Ge Medical Syst Sa | Procede de recalage automatique d'images |
FR2802002B1 (fr) * | 1999-12-02 | 2002-03-01 | Ge Medical Syst Sa | Procede de recalage automatique d'images tridimensionnelles |
US6782287B2 (en) * | 2000-06-27 | 2004-08-24 | The Board Of Trustees Of The Leland Stanford Junior University | Method and apparatus for tracking a medical instrument based on image registration |
US7574024B2 (en) * | 2000-10-02 | 2009-08-11 | The Research Foundation Of State University Of New York | Centerline and tree branch skeleton determination for virtual objects |
US20030132936A1 (en) * | 2001-11-21 | 2003-07-17 | Kevin Kreeger | Display of two-dimensional and three-dimensional views during virtual examination |
KR100439756B1 (ko) * | 2002-01-09 | 2004-07-12 | 주식회사 인피니트테크놀로지 | 3차원 가상내시경 화면 표시장치 및 그 방법 |
WO2003077758A1 (en) * | 2002-03-14 | 2003-09-25 | Netkisr Inc. | System and method for analyzing and displaying computed tomography data |
US20050151730A1 (en) * | 2002-03-29 | 2005-07-14 | Koninklijke Philips Electronics N.V. | Method, system and computer program for stereoscopic viewing of 3d medical images |
ATE331995T1 (de) * | 2002-04-16 | 2006-07-15 | Koninkl Philips Electronics Nv | Medizinisches darstellungssystem und bildverarbeitungsverfahren zur visualisierung von gefalteten anatomischen bereichen von objektoberflächen |
WO2004066137A2 (en) * | 2002-11-29 | 2004-08-05 | Bracco Imaging, S.P.A. | System and method for managing a plurality of locations of interest in 3d data displays |
JP4113040B2 (ja) * | 2003-05-12 | 2008-07-02 | 株式会社日立メディコ | 医用三次元画像構成方法 |
US7301538B2 (en) * | 2003-08-18 | 2007-11-27 | Fovia, Inc. | Method and system for adaptive direct volume rendering |
US8021300B2 (en) * | 2004-06-16 | 2011-09-20 | Siemens Medical Solutions Usa, Inc. | Three-dimensional fly-through systems and methods using ultrasound data |
-
2004
- 2004-11-03 JP JP2006537314A patent/JP2007537770A/ja active Pending
- 2004-11-03 WO PCT/EP2004/052780 patent/WO2005043465A2/en active Application Filing
- 2004-11-03 CA CA002551053A patent/CA2551053A1/en not_active Abandoned
- 2004-11-03 CA CA002543635A patent/CA2543635A1/en not_active Abandoned
- 2004-11-03 EP EP04798151A patent/EP1680765A2/en not_active Withdrawn
- 2004-11-03 JP JP2006537315A patent/JP2007531554A/ja active Pending
- 2004-11-03 US US10/981,227 patent/US20050119550A1/en not_active Abandoned
- 2004-11-03 WO PCT/EP2004/052777 patent/WO2005043464A2/en active Application Filing
- 2004-11-03 EP EP04817402A patent/EP1680767A2/en not_active Withdrawn
- 2004-11-03 US US10/981,109 patent/US20050116957A1/en not_active Abandoned
- 2004-11-03 CA CA002543764A patent/CA2543764A1/en not_active Abandoned
- 2004-11-03 US US10/981,058 patent/US20050148848A1/en not_active Abandoned
- 2004-11-03 JP JP2006537317A patent/JP2007537771A/ja active Pending
- 2004-11-03 EP EP04798155A patent/EP1680766A2/en not_active Withdrawn
- 2004-11-03 WO PCT/EP2004/052790 patent/WO2005073921A2/en active Application Filing
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008529578A (ja) * | 2005-02-08 | 2008-08-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 医用画像ビューイングプロトコル |
JP2008029694A (ja) * | 2006-07-31 | 2008-02-14 | Toshiba Corp | 画像処理装置及び該画像処理装置を備える医用診断装置 |
WO2009116663A1 (ja) * | 2008-03-21 | 2009-09-24 | Takahashi Atsushi | 三次元デジタル拡大鏡手術支援システム |
JP2010200787A (ja) * | 2009-02-27 | 2010-09-16 | Fujifilm Corp | 放射線画像表示装置 |
JP2011043796A (ja) * | 2009-08-21 | 2011-03-03 | Mitsubishi Electric Research Laboratories Inc | 可動表示装置上に画像を表示するための方法およびシステム |
WO2012102022A1 (ja) * | 2011-01-27 | 2012-08-02 | 富士フイルム株式会社 | 立体視画像表示方法、並びに、立体視画像表示制御装置およびプログラム |
WO2012137821A1 (ja) * | 2011-04-07 | 2012-10-11 | 株式会社東芝 | 画像処理システム、装置、方法及びプログラム |
JP2012217591A (ja) * | 2011-04-07 | 2012-11-12 | Toshiba Corp | 画像処理システム、装置、方法及びプログラム |
US9445082B2 (en) | 2011-04-07 | 2016-09-13 | Toshiba Medical Systems Corporation | System, apparatus, and method for image processing |
WO2014192275A1 (ja) * | 2013-05-28 | 2014-12-04 | 富士フイルム株式会社 | 投影画像生成装置、方法およびプログラム |
JP2014230581A (ja) * | 2013-05-28 | 2014-12-11 | 富士フイルム株式会社 | 投影画像生成装置、方法およびプログラム |
US9585569B2 (en) | 2013-05-28 | 2017-03-07 | Fujifilm Corporation | Virtual endoscopic projection image generating device, method and program |
JP2015123250A (ja) * | 2013-12-26 | 2015-07-06 | 株式会社Aze | 医用画像表示制御装置、方法およびプログラム |
WO2015186439A1 (ja) * | 2014-06-03 | 2015-12-10 | 株式会社 日立メディコ | 画像処理装置及び立体視表示方法 |
Also Published As
Publication number | Publication date |
---|---|
JP2007537770A (ja) | 2007-12-27 |
WO2005043465A2 (en) | 2005-05-12 |
WO2005073921A2 (en) | 2005-08-11 |
WO2005043464A2 (en) | 2005-05-12 |
CA2543764A1 (en) | 2005-05-12 |
CA2543635A1 (en) | 2005-08-11 |
CA2551053A1 (en) | 2005-05-12 |
US20050116957A1 (en) | 2005-06-02 |
WO2005043464A3 (en) | 2005-12-22 |
EP1680766A2 (en) | 2006-07-19 |
JP2007537771A (ja) | 2007-12-27 |
EP1680765A2 (en) | 2006-07-19 |
US20050148848A1 (en) | 2005-07-07 |
WO2005043465A3 (en) | 2006-05-26 |
US20050119550A1 (en) | 2005-06-02 |
EP1680767A2 (en) | 2006-07-19 |
WO2005073921A3 (en) | 2006-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007531554A (ja) | 管状構造を立体的に表示するディスプレイ及び該ディスプレイのための改善された技術(「ステレオ・ディスプレイ」) | |
US11103200B2 (en) | Medical device approaches | |
US11259879B2 (en) | Selective transparency to assist medical device navigation | |
US11464575B2 (en) | Systems, methods, apparatuses, and computer-readable media for image guided surgery | |
US10398513B2 (en) | Systems, methods, apparatuses, and computer-readable media for image management in image-guided medical procedures | |
JP6242569B2 (ja) | 医用画像表示装置及びx線診断装置 | |
US7102634B2 (en) | Apparatus and method for displaying virtual endoscopy display | |
EP2303097B1 (en) | A system, a method and a computer program for inspection of a three-dimensional environment by a user | |
CN113453606B (zh) | 具有双图像传感器的内窥镜 | |
EP2641561A1 (en) | System and method for determining camera angles by using virtual planes derived from actual images | |
WO2010119690A1 (ja) | 診断支援装置、診断支援方法および診断支援プログラムが記憶された記憶媒体 | |
JP6116754B2 (ja) | 低侵襲手術において画像データを立体視表示するための装置およびその装置の作動方法 | |
WO2008076079A1 (en) | Methods and apparatuses for cursor control in image guided surgery | |
JP2009531128A (ja) | 立体画像誘導の手術ナビゲーションのための方法及び装置 | |
JP2017225700A (ja) | 観察支援装置及び内視鏡システム | |
IL293951A (en) | Visualization of route finding in three dimensions | |
CN114126527A (zh) | 复合医学成像系统和方法 | |
JP2023004884A (ja) | 拡張現実のグラフィック表現を表示するための表現装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090907 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100217 |