JP2009536859A - 体積測定画像にカラーテクスチャ化された外部表面をマッチングさせること - Google Patents
体積測定画像にカラーテクスチャ化された外部表面をマッチングさせること Download PDFInfo
- Publication number
- JP2009536859A JP2009536859A JP2009510161A JP2009510161A JP2009536859A JP 2009536859 A JP2009536859 A JP 2009536859A JP 2009510161 A JP2009510161 A JP 2009510161A JP 2009510161 A JP2009510161 A JP 2009510161A JP 2009536859 A JP2009536859 A JP 2009536859A
- Authority
- JP
- Japan
- Prior art keywords
- volumetric
- data
- dimensional
- image data
- scanner
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Image Processing (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
Abstract
被験体の体積測定画像および被験体のカラーテクスチャ化された外部表面を表す組み合わされた画像データを生成するためのシステムおよび方法。体積測定画像データ(ボクセルデータ)(410)は、体積測定スキャナから取得され、該体積測定画像データは、被験体の内部および外部の構造を含む。写真の二次元画像データ(405)は、被験体の外部の色およびテクスチャを保持し、例えば、患者の正面の顔のショット(face shot)写真を表し得る。二次元の画像データ(405)は、カラーテクスチャされた外部表面データを体積測定データ(410)に提供し、体積測定データおよび外部のカラーテクスチャ化された表面データの両方を有する表示画像データを生成するために用いられ得る。
Description
(関連出願の引用)
この出願は、2006年5月11日に出願された米国仮特許出願第60/799,388号の本出願であり、該仮特許出願の利益を主張し、該仮特許出願は、すべての目的のために、その全体が本明細書に参考として援用される。
この出願は、2006年5月11日に出願された米国仮特許出願第60/799,388号の本出願であり、該仮特許出願の利益を主張し、該仮特許出願は、すべての目的のために、その全体が本明細書に参考として援用される。
(発明の背景)
体積測定イメージングすなわちボリュームレンダリングは、測定された三次元の対象または被験体の図的表現を提供し、対象または被験体の内部構造を可視化するために用いられ得る。例えば、医療画像化において、コンピュータ断層撮影(CAT)スキャナ、磁気共鳴画像(MRI)スキャナ、円錐ビームコンピュータ断層撮影(CT)スキャナ、または他のタイプのスキャナなどの体積測定スキャナが、患者の体の部分などのスキャンされた対象の体積測定データを生成するために用いられ得る。この体積測定データから、スキャンされた対象の体積測定画像が生成され得る。体積測定画像は、体積測定データを同一表面モデルに変換後のレイトレーシング(ray tracing)または表面レンダリングなどの体積測定レンダリング技術を用いる三次元の対象表現であり得る。本明細書において用いられる場合、「被験体」は、スキャナなどの入力デバイスによって、観察され、スキャンされるなどがされる、物理的に存在する対象、患者、患者の体の部分、物などを表すために文脈において用いられる。
体積測定イメージングすなわちボリュームレンダリングは、測定された三次元の対象または被験体の図的表現を提供し、対象または被験体の内部構造を可視化するために用いられ得る。例えば、医療画像化において、コンピュータ断層撮影(CAT)スキャナ、磁気共鳴画像(MRI)スキャナ、円錐ビームコンピュータ断層撮影(CT)スキャナ、または他のタイプのスキャナなどの体積測定スキャナが、患者の体の部分などのスキャンされた対象の体積測定データを生成するために用いられ得る。この体積測定データから、スキャンされた対象の体積測定画像が生成され得る。体積測定画像は、体積測定データを同一表面モデルに変換後のレイトレーシング(ray tracing)または表面レンダリングなどの体積測定レンダリング技術を用いる三次元の対象表現であり得る。本明細書において用いられる場合、「被験体」は、スキャナなどの入力デバイスによって、観察され、スキャンされるなどがされる、物理的に存在する対象、患者、患者の体の部分、物などを表すために文脈において用いられる。
被験体の体積測定データに基づきレンダリングされた画像は、被験体の異なるビュー(view)を提示するように調整され得る。例えば、不透明および透明の制御の閾値を変化させることによって、被験体の内部形状もしくは外部形状および/またはその構造が可視化され得る。医療用途において、画像閾値は、堅い組織または柔らかい組織(すなわち骨または筋肉および肉)を可視化するために調整され得る。体積測定画像は被験体の外部形状を視覚化するために調整されるので、その結果は、三次元表面スキャナによって提供される結果と非常に類似し得る。すなわち、外部体積密度と周囲の空気または他の含有する背景物質との間に十分なコントラストがあるとき、被験体の表面は非常に鮮明に視覚化され得る。例えば、医療用途において、患者の三次元の顔の輪郭は、鮮明に作成され、視覚化され得る。
被験体の体積測定スキャンの目的は必ずしも、被験体の外部輪郭を視覚化することではないが、外部輪郭が内部構造と共に示される場合、有用であり得る。例えば、形成外科、歯列矯正術、口腔外科および顎顔面外科のような医療用途において、顔の輪郭およびその下にある頭蓋構造は、診断または治療計画の進展に対して有用な情報を提供し得る。
そのような方法によって作成された三次元外部輪郭は、被験体の表面の形状の正確な幾何学的表現を生成し得るが、被験体の外部表面の色またはテクスチャが欠けている。一部の用途に関して、外部輪郭の光学的ビューは非常に有用である。例えば、形成外科または歯列矯正術の用途において、顔の光学的ビューは、目、唇、および眉毛に関して、より良い画定を生成し得る。同時に、三次元形状およびテクスチャは、仮想的な患者モデルを生成し得る。そのような画像は、診断、治療計画または患者提示を高め得る。
一部の三次元の光学またはレーザの表面スキャナは、カラーテクスチャを有する三次元モデルを生成し得るが、体積測定スキャナは、その性質上表面テクスチャを再現し得ない。なぜなら、体積測定スキャナは、被験体の表面の光学的反射ではなく、被験体を構成する塊(mass)の物理的特性を検出するからである。
被験体の表面テクスチャおよび体積測定画像を得るために、数種の方式の表現が用いられ得る。すなわち、体積測定スキャナによって生成された体積測定画像および表面スキャナによって生成されたテクスチャ化された表面スキャンモデルは、組合せデータに一緒にされ得る。例えば、顔表面の光学スキャンと体積測定画像の組合せは、内部の頭蓋構造が重ねられているフォトリアリスティック(photorealistic)な顔を示し得る仮想の顔モデルを生成し得る。そのような組合せモデルは、形成外科の用途および歯列矯正の用途において非常に効果的かつ有用であり得る。
そのような数種の方式の画像表現に関する課題の一つは、重ね合わせの問題である。2つの組のデータ、すなわち表面スキャンデータおよび体積測定スキャンデータは独立して作成されるので、それらは2つの異なる座標系にある。表面スキャンデータを体積測定スキャンデータに正確に重ね合わせ、正確なビューを生成するために、2つの組のデータは、三次元空間において同じ座標に重ね合わされなければならない。そのような画像とモデルとの重ね合わせは、スキャン前に共通の基準データ特徴を設定することおよびスキャン後にデータの計算による最良適合を生成することなどの余分のステップを必要とし得る。余分なステップを用いたとしても、誤差の源および一致の問題がある。従って、2つの独立したスキャンからの数種の方式の重ね合わせは、時間がかかりかつ信頼できないことであり得る。
一体化したスキャナシステムが、数種の方式の重ね合わせの問題を解決するために用いられてきた。一体化したスキャナシステムは、レーザスキャナなどの表面スキャンユニットおよびCTスキャナなどの体積測定スキャンユニットを共通の構造に備えており、すなわち、センサは同じハウジング内に取り付けられる。そのような一体化したスキャナは、表面スキャンデータおよび体積測定スキャンデータの両方を同時に作成し得る。表面スキャナおよび体積測定スキャナは同じハウジング内に物理的に取り付けられるので、表面スキャンデータおよび体積測定スキャンデータは同じ座標系において一致して整列され得る。そのような場合、スキャン前のデータ基準設定またはスキャン後の最良適合マッチングの余分のステップの必要がない。
しかしながら、そのような一体化したスキャナシステムは、商業的に実行可能であり得ない。第1に、システムは体積測定スキャナおよび表面スキャナの両方を必要とするので、システムのコストが増加する。第2に、2つのユニットが異なる空間要求を有するので、システムのサイズが増加し得る。第3に、データは、体積測定スキャンデータと、表面スキャンデータと、カラーテクスチャデータとから構成されるので、メモリおよび計算はより多くのリソースを要求する。
従って、表面スキャナユニットの追加の費用、サイズおよび計算リソースを必要とせず、画像の重ね合わせの必要性を起こすことなく、現在ある体積測定スキャナに適合され得る、カラーテクスチャ化された外部表面を有する体積測定画像を生成するための改善された方法およびシステムの必要性がある。
(発明の概要)
本発明の実施形態は、被験体のカラーテクスチャ化された外部表面を有する該被験体の体積測定画像を生成するためのシステムおよび方法を提供する。一実施形態に従って、被験体の体積測定画像および被験体の外部表面のカラーテクスチャ化された画像を表す組み合わされた画像データを生成するための方法は、二次元画像装置から被験体の表面の二次元画像(「二次元表面画像データ」)を表すデータを取得することを含み得る。二次元画像データは、例えば、デジタル写真を含み得る。被験体の体積測定データは、体積測定スキャナから取得され得る。体積測定データは、コンピュータ断層撮影(CAT)スキャン、磁気共鳴画像(MRI)スキャン、円錐ビームコンピュータ断層撮影(CT)スキャン、または他のタイプの体積測定スキャンからのデータを含み得る。二次元画像装置および体積測定スキャナは、互いに対して既知の物理的な位置を有し得る。
本発明の実施形態は、被験体のカラーテクスチャ化された外部表面を有する該被験体の体積測定画像を生成するためのシステムおよび方法を提供する。一実施形態に従って、被験体の体積測定画像および被験体の外部表面のカラーテクスチャ化された画像を表す組み合わされた画像データを生成するための方法は、二次元画像装置から被験体の表面の二次元画像(「二次元表面画像データ」)を表すデータを取得することを含み得る。二次元画像データは、例えば、デジタル写真を含み得る。被験体の体積測定データは、体積測定スキャナから取得され得る。体積測定データは、コンピュータ断層撮影(CAT)スキャン、磁気共鳴画像(MRI)スキャン、円錐ビームコンピュータ断層撮影(CT)スキャン、または他のタイプの体積測定スキャンからのデータを含み得る。二次元画像装置および体積測定スキャナは、互いに対して既知の物理的な位置を有し得る。
一部の場合において、方法は、二次元画像装置の視野が体積測定スキャナの視野にマッチングするかどうかを決定することも包含し得る。そのような場合において、二次元画像装置の視野が体積測定スキャナの視野にマッチングしない場合、結果として生じる二次元表面画像データおよび/または体積測定データは、クロッピングされ、二次元画像装置の視野の境界に適合され得る。
外部表面メッシュデータは、体積測定データに基づき生成され得る。二次元の表面画像データは、二次元の画像装置および体積測定スキャナの既知の物理的な位置に基づき、外部表面メッシュデータにマップされ得る。体積測定データに組み合わされた外部表面マップデータにマップされる二次元表面画像データを含む表示データは、組み合わされた表示画像として生成かつ表示され得る。外部表面メッシュデータは、例えば、区分的平面(piecewise planar surface)を画定する多角形のリストとして格納され得る。
別の実施形態に従って、被験体の体積測定画像および被験体の外部表面のカラーテクスチャ化された画像を表す組み合わされた画像データを生成するための画像システムは、体積測定スキャナおよび二次元画像装置を備え得る。二次元画像装置は、例えば、デジタルカメラを備え得る。体積測定スキャナは、例えば、コンピュータ断層撮影(CAT)スキャナ、磁気共鳴画像(MRI)スキャナ、円錐ビームコンピュータ断層撮影(CT)スキャナ、または他のタイプの体積測定スキャナを備え得る。二次元画像装置および体積測定スキャナは、互いに対して既知の物理的な位置を有し得る。
システムはまた、体積測定スキャナおよび二次元画像装置と通信するように結合されるプロセッサを含み得る。プロセッサは、二次元画像装置から二次元表面画像データを取得し、体積測定スキャナから被験体の体積測定データを取得するように適合され得る。一部の場合において、プロセッサは、二次元画像装置の視野が体積測定スキャナの視野にマッチングするかどうかを決定するように適合され得る。そのような場合、プロセッサは、二次元画像装置の視野が体積測定スキャナの視野にマッチングしないという決定に応答して、二次元画像データおよび/または体積測定データをクロッピングし、可能性としては、一方のデータセットは表されているが他方のデータセットが表されていない領域を除去するように適合され得る。
プロセッサはまた、体積測定データに基づき外部表面メッシュデータを生成し、二次元画像装置および体積測定スキャナの既知の物理的な位置に基づき、二次元表面画像データを外部表面メッシュデータにマップするように適合され得る。プロセッサは、体積測定データと組み合わされた外部表面マップデータにマップされた二次元表面画像データを含む、表示画像または表示画像データを生成するようにさらに適合され得る。システムは、プロセッサと通信するように結合される表示デバイスをさらに備え得る。そのような場合、プロセッサは、表示画像データを表示デバイスに表示するようにさらに適合され得る。
さらに別の実施形態に従って、機械読み取り可能媒体は、一連の命令をそこに格納し得、該一連の命令は、プロセッサによって実行されるとき、二次元の画像装置から二次元表面画像データを取得することと、体積測定スキャナから被験体の体積測定データを取得することとによって、被験体の体積測定画像および被験体の外部表面のカラーテクスチャされた画像を表す組み合わされた画像データをプロセッサに生成させ、この場合、二次元画像装置および体積測定スキャナは、互いに対して既知の物理的な位置を有する。二次元画像データは、例えば、デジタル写真を含み得る。体積測定データは、コンピュータ断層撮影(CAT)スキャン、磁気共鳴画像(MRI)スキャン、円錐ビームコンピュータ断層撮影(CT)スキャン、または他のタイプの体積測定スキャンからのデータを含み得る。
機械読み取り可能媒体はまた、二次元画像装置の視野が体積測定スキャナの視野にマッチングするかどうかを決定するための命令を有し得る。そのような場合、二次元画像データおよび/または体積測定データは、二次元画像装置の視野が体積測定スキャナの視野にマッチングしないという決定に応答して、クロッピングされ得る。
機械読み取り可能媒体はまた、体積測定データに基づき外部表面メッシュデータを生成するための命令を含み得る。二次元表面画像データは、二次元画像装置および体積測定スキャナの既知の物理的な位置に基づき、外部表面メッシュデータにマップされ得る。体積測定データと組み合わされた外部表面マップにマップされた二次元表面画像データからの二次元画像を含む表示画像が、生成および表示され得る。
(発明の詳細な説明)
以下の説明において、説明の目的のために、本発明の完全な理解を提供するために多数の特定の詳細が述べられる。しかしながら、本発明がこれらの特定の詳細のうちの一部がなくても実行され得ることは当業者にとって明らかである。他の例において、周知の構造およびデバイスはブロック図形式にて示される。
以下の説明において、説明の目的のために、本発明の完全な理解を提供するために多数の特定の詳細が述べられる。しかしながら、本発明がこれらの特定の詳細のうちの一部がなくても実行され得ることは当業者にとって明らかである。他の例において、周知の構造およびデバイスはブロック図形式にて示される。
本発明の実施形態は、カラーテクスチャ化された外部表面を有する体積測定画像を生成するためのシステムおよび方法を提供する。一般的に言って、カラーテクスチャ化された外部表面を有する体積測定画像を生成することは、デジタルカメラまたは他の二次元画像装置などの二次元画像装置から被験体の表面を表す二次元画像データを得ることを包含し得る。被験体の体積測定データは、コンピュータ断層撮影(CAT)スキャナ、磁気共鳴画像(MRI)スキャナ、円錐ビームコンピュータ断層(CT)スキャナまたは他のタイプの体積測定スキャナを含むがこれらに限定されない体積測定スキャナから得られ得る。
二次元画像装置および体積測定スキャナは、互いに対して既知の物理的な位置を有し得る。すなわち、以下に詳細に説明されるように、二次元画像装置および体積測定スキャナは、互いに対して一定の物理的な位置または所定の物理的な位置を有し得る。あるいは、二次元画像装置および体積測定スキャナは、必ずしも一定の物理的な位置または所定の位置ではないが、各々によって生成される二次元画像データおよび体積測定データが、一方のデータの座標に対してもう一方のデータに座標を重ね合わせる必要なしに、装置の位置に基づき互いに対して整列またはマップされ得るように決定可能である互いに対する物理的な位置を有し得る。理解されるように、表示画像は、二次元画像データおよび体積測定データに基づいて、生成され得る。一般的に言って、表示画像は、体積測定データにマップされるかまたはそれにオーバレイされる被験体の表面を表す二次元画像データを含み、体積測定画像およびカラーテクスチャ化された外部表面の両方を有する画像を生成し得る。
重要なことであるが、本明細書に説明される例示は医療および/または歯科の用途を参照し得るが、本発明の実施形態が異なる用途における使用にも適し得ることは理解されるべきである。例えば、画像の被験体が人または人体の一部分である医療および歯科の用途に加えて、他の使用法は、被験体が1つの装置、1つの製品、または他の物理的な対象である産業の用途を含む。さらに、図を参照して以下に説明される実施形態は、例示として提供されるのであって、限定ではないことは注意されるべきである。それどころか、これらの例示的な実施形態に対する多数の変形が本発明の範囲内であることは意図されかつ考慮される。例えば、任意の種々様々な開放型または密閉型の体積測定スキャナは、本発明の様々な実施形態と共に使用されることに適していると考えられる。同様に、任意の様々なあり得る二次元画像装置も用いられ得る。
図1は、本発明の一実施形態に従う、カラーテクスチャ化された外部表面を有する体積測定画像データを生成するためのシステムを例示する。この例示において、システム100は、CATスキャナ、MRIスキャナ、CTスキャナまたは他のタイプの体積測定スキャナを含む。体積測定スキャナ105は、患者または被験体が直立して座り得るシート110を有する直立ユニットとしてここに例示されるが、代わりに、患者または被験体が横たわることを可能にするベッドまたはテーブルを有する水平の配向を有し得る。さらに、体積測定スキャナ105は、患者が多少とも開放の視野を有することを可能にしながら、患者または被験体の周りを回転するヘッドユニット115を有する「開放」タイプのスキャナとしてここに示されるが、代わりに、患者または被験体を囲む(enclose)かまたは取り巻く(surround)「密閉」タイプであり得る。
システムは、デジタルカメラなどの二次元画像装置125も含み得る。二次元画像装置は、単一の二次元画像装置125としてここに示されるが、他の実施形態において、複数の二次元画像装置が用いられ得る。例えば、1つの画像装置は患者または被験体の前面のビューまたは画像を得るために用いられ、一方、他の画像装置は患者または被験体の側面のビューおよび/または背面のビューを得るために用いられ得る。上記のように、二次元画像装置125は、体積測定スキャナ105に対して既知の物理的な位置を有し得る。この例示において、二次元画像装置125は、体積測定スキャナ105のヘッドユニット115から延びる支持120によって体積測定スキャナ105に固定されて、示される。あるいは、他の配置が、二次元画像装置125と体積測定スキャナ105との間の一定の位置を維持するために用いられ得る。例えば、支持構造は、ヘッドユニット115以外の別の位置または場所において、二次元画像装置125を体積測定スキャナ105に固定するために用いられ得る。別の代案に従ってかつ上記のように、体積測定スキャナ105に固定されるよりはむしろ、二次元画像装置125は、体積測定スキャナ105に対して所定の位置またはそうでなければ既知の位置に置かれ得る。そのような配置は、図2を参照して以下に詳細に説明される。
図1に例示されるように、システム100はまた、有線または無線の通信リンク145を介して、体積測定スキャナ105および二次元画像装置125と通信するように結合される、コンピュータ130または他のプロセッサを含み得る。コンピュータ130は、二次元画像装置125から被験体の表面を表す二次元画像データを得、体積測定スキャナ105から被験体の体積測定データを得るように適合され得る。以下に詳細に説明されるように、表示画像データは、二次元画像データおよび体積測定データに基づきコンピュータ130によって生成され得る。一般的に言って、表示画像データは、体積測定データにマップされるかまたはそれにオーバレイされる被験体の表面を表す二次元画像データを含み、体積測定画像およびカラーテクスチャ化された外部表面の両方を有する画像を生成し得る。
システムはまた、表示画像および/または他の情報を表示するための、コンピュータ130に結合されるディスプレイ135またはモニタを含み得る。コンピュータ130はまた、人間のオペレータがコンピュータ130と対話し、表示画像を操作し、体積測定スキャナ105および/または二次元画像装置125を制御し、または他の操作を実行することを可能にする、キーボード140または他の入力デバイスに結合され得る。
使用時、被験体の1つ以上の写真または他の二次元画像は二次元画像装置125によってとられ、体積測定スキャンは体積測定スキャナ105によってとられ得る。二次元画像は、体積測定スキャンの前もしくは後か、または体積測定スキャナ105のヘッド115もしくは他の構造が被験体に対する二次元画像装置のビューをふさいでいない間の任意の他の時間にとられ得る。従って、二次元画像データは、被験体の外部の色およびテクスチャを提供し得る。医療用途において、二次元画像データは、例えば、患者の正面の顔のショットを表し得る。体積測定画像データは、内部および外部の構造を提供し得る。コンピュータ断層撮影画像に関して、体積測定データは、スキャナの視野における質量密度分布を提供し得る。理解されるように、これらのデータは、組み合わされ、体積測定画像およびカラーテクスチャ化された外部表面画像の両方を含む画像のためのデータを生成し得る。そのような画像は、例えば、ディスプレイ135上に表示され、システム100のオペレータによって操作され得る。
一実施形態に従って、二次元画像装置はさらに、視覚モニタとして働き、実況かつ/または連続する画像を提供し得る。すなわち、スキャナが作動している間、技術者またはオペレータは、スキャンルームの外にいて、x線放射に対する不要な被爆を回避し得る。そのような場合、患者を監視することまたは患者に位置決めを指示することが困難であり得る。二次元画像装置からの実況の画像の供給によって、技術者は、スキャンルームの中に入ることなく、患者を監視および手助けし得る。
上記のように、本のシステムの他の配置は、可能であり、本発明の範囲内であると考えられる。例えば、図2は、本発明の代替の実施形態に従う、カラーテクスチャ化された表面のデータを有する体積測定画像を生成するためのシステムを例示する。ここで、システム200は、上記のように、体積測定スキャナ105ならびにディスプレイ135およびキーボード140を有するコンピュータ130を含む。しかしながら、この例示において、二次元画像装置205は、体積測定スキャナ105に取り付けられていないかまたは固定されていない。そうではなくて、二次元画像装置205は、体積測定スキャナ105から離れた三脚210または他の支持に取り付けられる。この配置は、本明細書に記述されるようにカラーテクスチャ化された外部表面データを体積測定データに追加する能力を含むように既存の体積測定スキャナを改修するかまたは修正するとき、有用であり得る。二次元画像装置205はまた、有線の接続215または無線の接続によってコンピュータ130に通信するように結合され得る。
しかしながら、上記のように、二次元画像装置205および体積測定スキャナ105は、互いに対して物理的な位置を有し得るが、該物理的な位置は、必ずしも一定の位置または所定の位置ではなく、各々によって生成される二次元画像データおよび体積測定データが、一方のデータの座標に対してもう一方のデータに座標を重ね合わせる必要なしに、装置の位置に基づき互いに対して整列またはマップされ得るように、決定可能であり、求められる。例えば、二次元画像装置205および体積測定スキャナ105の位置は、例えば、装置製造業者からの仕様一式に基づいて、物理的装置の実測から、かつ/または他の手段または手順によって装置が設置される時点において、決定および/または配置され得る。さらに、上記のようにここに1つのみの二次元画像装置205が示されるが、2つ以上の画像装置が被験体の複数のビューを提供するために用いられ得る。例えば、1つの画像装置は正面のビューを提供するために用いられ得、一方、他の画像装置は側面のビューを提供するために用いられ得る。
動作時、システム200は上記のように機能し得る。すなわち、被験体を表す1つ以上の写真または他の二次元画像データは二次元画像装置205によってとられ得、体積測定スキャンは体積測定スキャナ105によってとられ得る。二次元データは、体積測定スキャンの前もしくは後か、または体積測定スキャナ105のヘッド115もしくは他の構造が被験体に対する二次元画像装置205のビューをふさいでいない間の任意の他の時間にとられ得る。これらのデータは、組み合わされ、体積測定画像データおよびカラーテクスチャ化された外部表面の両方を含む画像データを生成し得る。この組み合わされたデータに基づく画像は、例えば、ディスプレイ135上に表示され、システム200のオペレータによって操作され得る。
図3は、本発明の一実施形態に従う、カラーテクスチャ化された外部表面データを有する体積測定画像データを生成するためのシステム用のシステムの機能構成要素を例示するブロック図である。この例示において、システムは、上記のように、体積測定スキャナ105と、二次元画像装置205と、ディスプレイ135と、キーボードまたは他の入力デバイス140と、コンピュータ130とを含む。コンピュータ130は、単なる例示であるが、Microsoft CorporationのWindows(登録商標)オペレーティングシステム、Apple Corporationのオペレーティングシステム、任意の様々な市販のUNIX(登録商標)またはUNIX(登録商標)ライクなオペレーティングシステム(GNU/Linuxオペレーティングシステムの種類を含むがこれに限定しない)、などの様々なバージョンを実行させるパーソナルコンピュータおよび/またはラップトップコンピュータを含む任意の様々な汎用コンピュータであり得る。
コンピュータ130はまた、1つ以上のストレージデバイス325を含み得る。例示として、ストレージデバイス325は、プログラマブルでありフラッシュ更新可能であり得る、ディスクドライブ、光ストレージデバイス、ランダムアクセスメモリ(「RAM」)および/または読出し専用メモリ(「ROM])などの固体ストレージデバイス、および/または類似のものであり得る。コンピュータシステム130はまた、オペレーティングシステムおよび/またはアプリケーションプログラムなどの他のコード350などのソフトウェア要素を含むストレージを含み得る。アプリケーションプログラムは、本明細書に説明されるように、本発明の画像システムの構成要素および/または方法をインプリメントし得る。コンピュータシステム130の代替の実施形態は上記のシステムからの多数の変形を有し得ることは理解されるべきである。例えば、カスタマイズされたハードウェアも用いられ得、かつ/または特定の要素は、ハードウェア、ソフトウェア(アプレットなどのポータブルソフトウェアを含む)、またはその両方においてインプリメントされ得る。
ソフトウェアにおいてインプリメントされる場合であろうとカスタマイズされたハードウェアにおいてインプリメントされる場合であろうと、コンピュータシステム130は、上記の様々な特徴および機能をインプリメントするための構成要素を含み得る。例えば、コンピュータシステム130は、体積測定スキャナ105と通信し、体積測定データを取得するための体積測定スキャナコントローラおよび/またはインタフェースモジュール305を含み得る。同様に、コンピュータ130は、二次元画像装置205と通信し、二次元画像データを取得するための二次元画像コントローラおよび/またはインタフェースモジュール310を含み得る。
さらに、コンピュータ130は、コンピュータシステム130の他のモジュール305〜330とインタフェースし、かつ/またはそれらを制御するための制御モジュール315を含み得る。さらにまたは代わりに、制御モジュール315または他のモジュールは、スキャンデバイス、マウス、キーボードなどの入力デバイス140、およびディスプレイ135またはプリンタ、プロッタなどの他の出力デバイスとインタフェースし得る。
コンピュータ130はまた、ネットワーク335および/または任意の他のコンピュータまたは他のタイプのデバイスとデータが交換されることを可能にする通信モジュールを含み得る。ネットワーク335は、TCP/IP、SNA、IPX、AppleTalkなどを含むがこれらに限定しない任意の様々な市販のプロトコルを用いるデータ通信をサポートし得る、当業者にとってよく知られた任意のタイプのネットワークであり得る。単なる例示として、ネットワーク335は、イーサネット(登録商標)ネットワーク、トークンリングネットワークおよび/または類似のものなどのローカルエリアネットワーク(「LAN」)、ワイドエリアネットワーク、仮想私設網(「VPN」)を含むがこれに限定しない仮想ネットワーク、インターネット、イントラネット、エキストラネット、公衆交換電話網(「PSTN」)、赤外線ネットワーク、無線ネットワーク(例えば、IEEE802.11のプロトコル一式、当該分野において公知のブルートゥースプロトコル、および/または任意の他の無線プロトコル)、ならびに/または、これらおよび/または他のネットワークの任意の組合せであり得る。
ネットワーク335を介して、コンピュータ130は、1つ以上の他のコンピュータシステム340と通信し、例えば、被験体の画像データを提供すること、画像システム300の制御および/または遠隔操作を提供するなどを行い得る。コンピュータ130はまた、ネットワーク335を介して、画像を格納および/または検索するための大容量記憶装置345にアクセスし得る。さらにまたは代わりに、コンピュータシステムは、ネットワーク335を介して1つ以上のディスプレイに画像を送り得る。
上記に紹介されるように、コンピュータシステム130は、1つ以上の二次元画像装置205から取得される二次元画像データ、および体積測定スキャナ105から取得される体積測定データに基づき、表示画像データ生成し得る。表示画像データは、体積測定データにマップされるか、またはそれに重ねられる被験体の表面を表す二次元画像データを含み、体積測定画像データおよびカラーテクスチャ化された外部表面データの両方を有する画像データを生成し得る。図4は、本発明の一実施形態に従う、カラーテクスチャ化された外部表面データを有する体積測定画像データを生成することを概念的に例示する。
図4に示されるように、写真または他の二次元画像データ405は、例えば、スキャナ構造が被験体に対する二次元画像装置のビューをふさいでいない間、体積測定スキャンの直前またはスキャンの直後にとられる。体積測定画像データ(ボクセルデータ)410はまた、体積測定スキャナから取得され得る。上記のように、写真の二次元画像データ405は、被験体の外部のカラーおよびテクスチャを保持する。医療用途において、二次元画像データ405は、例えば、患者の正面顔のショットを表し得る。体積測定画像データ410は、内部および外部構造を含む。コンピュータ断層撮影画像に関して、体積測定画像データ410は、視野における質量密度分布を含み得る。二次元画像データ405は、カラーテクスチャ化された外部表面データを体積測定データ410に提供するために用いられ、体積測定データおよび外部のカラーテクスチャ化された表面データの両方を有する表示画像データを生成し得る。
中間のプロセスとして、二次元画像データ405は、三次元空間すなわち座標系にマップされ得る。一実施形態に従って、これは、体積測定データ410に基づき、まず外部表面メッシュデータを生成することによって達成され得る。二次元画像データ405は、次いで、外部表面メッシュデータにマップされ得、事実上、二次元画像データを二次元座標系から体積測定データの座標系に対応する三次元座標系に変換または平行移動させ得る。さらに、二次元画像装置および体積測定画像装置は、互いに対して既知の物理的な位置を有するので、二次元画像データの座標系を体積測定データの座標系に重ね合わせる必要がない。それどころか、二次元画像データを外部表面メッシュデータおよびそれが生成される体積測定データにマップすることは、二次元画像装置および体積測定スキャナの既知の物理的な位置に基づき得る。
図5は、本発明の一実施形態に従う、カラーテクスチャ化された外部表面データを有する体積測定画像データを生成することをさらに例示する。この例示は、上記の二次元画像データ405および体積測定データから生成される外部表面メッシュデータ505を示す。一般的に言って、外部表面メッシュデータ505上の座標510は、二次元画像データ405上の固有のマッチングする座標515を有する。テクスチャマップおよび510からのマッチングするテクスチャ座標515として二次元画像データ405を用いて、カラー画像は三次元表面メッシュデータにマップされ得る。
より詳細には、体積測定データが取得された後に、外部表面メッシュデータ505は、例えば、体積測定データから同位相面生成法(iso−surface generation method)または体積ラッピング法(volume wrapping method)によって作成され得る。表面メッシュデータ505は、空気と被験体との間の外部境界を表す。従って表面メッシュデータ505は、被験体の三次元幾何学的形状を表す。例えば、医療用途において、表面メッシュデータ505は、患者の顔輪郭を表し得る。
二次元画像装置の光学的特性および体積測定スキャナに対する位置が所定または既知であるので、二次元画像データ405の座標系における位置は体積測定データの三次元座標に変換され得る。二次元画像データ405が体積測定スキャナの視野全体をカバーする場合、表面メッシュデータ505の三次元位置、および従って、表面メッシュデータが生成される体積測定データの表面は、二次元画像データ405における対応するマッチングする二次元の点を有し得る。図5に示されるように、表面メッシュデータ505の三次元座標系(例えば、x,y,z)において、従って、体積測定データ座標系においても、定義される点510は、二次元画像データ405の二次元座標系(例えば、u,v)において定義される対応する二次元の点515を有し得る。同様に、表面メッシュデータ505における他の点は、二次元画像データ405における対応する座標を有する。この座標マッピングを用いて、表面メッシュデータ505のテクスチャマップが構成され得る。
一実施形態に従って、二次元画像を表面メッシュにマップする前に、二次元画像装置の視野が体積測定スキャナの視野にマッチングするかどうかについて決定がなされ得る。必要に応じて、すなわち、視野がマッチングしない場合、表面メッシュデータの一部は、トリミングされ削除されるか、またはクロッピングされ得る。代わりにまたはさらに、二次元画像データの部分はクロッピングされ得る。さらに別の場合において、体積測定データは、例えば、表面メッシュデータの生成の前に、さらにまたは代わりにクロッピングされ得る。
どの画像またはデータがクロッピングされるかにかかわらず、二次元画像データの境界および表面メッシュデータの境界は、マッチングされ得る。クロッピングは、例えば、二次元画像装置または体積測定スキャナのいずれかの視野の既知の限界または外部境界に基づき得る。二次元画像データ、体積測定データ、および/または表面メッシュデータの座標系における点は、他の限界にマッチングするように削除され得る。
一実施形態に従って、二次元画像装置の視点からは見えない被験体の表面の一部は削除され得る。例えば、1つの二次元画像装置が患者の顔の画像を捕捉するために用いられる医療用途において、患者の頭の後側は表面メッシュデータから削除され得る。別の例示において、表面メッシュが同位相面生成法によって作成される場合、表面メッシュデータにおいて表され得るが実際には外部表面にはない気道などを含む内部構造は、削除され得る。
それで例えば、医療用途において、顔の輪郭は体積測定スキャンから作成され得、患者の顔の正面写真または他の二次元画像は、カメラユニットまたは他の二次元画像装置によって作成され得る。顔輪郭メッシュの各頂点は、正面写真における対応する点を有し得る。カラーテクスチャがメッシュ上に作成されるので、詳細な目、唇、眉毛、および肌色が、仮想三次元患者モデルを作成する顔輪郭上に作成され得る。
このようにして、カラーテクスチャ化されたメッシュモデルは、体積測定画像データと同じ座標にある。従って、内部構造および外部写真の現実的な輪郭は、同時に、視覚化され、測定され、かつ操作され得る。すなわち、表示画像は、カラーテクスチャ化されたメッシュモデルと体積測定データとを重ねるかまたはそうでなければ、組み合せることによって作成され得る。それで例えば、医療用途において、フォトリアリスティックな顔のモデルおよび内部の頭蓋骨、歯列、脳、または気道構造は、同じデータにおいて同時に表され得る。
図6は、本発明の一実施形態に従う、カラーテクスチャ化された外部表面データを有する体積測定画像データを生成するためのプロセスを例示する。この例示において、プロセスは、二次元画像装置から被験体の表面を表す二次元画像データを取得することから開始する605。例えば、被験体の写真は、デジタルカメラによってとられ得る。同様に、被験体の体積測定データは、体積測定スキャナから取得され得る610。例えば、CATスキャン、MRIスキャン、または他の体積測定スキャンが、とられ得る。上に詳細に説明されるように、二次元画像装置および体積測定スキャナは、互いに対して既知の物理的な位置を有し得る。
外部表面メッシュデータは、体積測定データに基づき生成され得る615。すなわち、体積測定データが取得された後610、外部表面メッシュデータは、例えば、体積測定データから同位相面生成法または体積ラッピング法によって作成され得る615。表面メッシュデータは、空気と被験体との間の外部境界を表し得る。従って表面メッシュデータは、被験体の三次元幾何学的形状を表す。例えば、医療用途において、表面メッシュデータは、患者の顔輪郭を表し得る。
被験体の表面を表す二次元画像データは、二次元画像装置および体積測定スキャナの既知の物理的な位置に基づき、外部表面メッシュデータにマップされ得る620。すなわち、上記のように、表面メッシュデータの三次元座標系(例えば、x,y,z)において、また従って、表面メッシュが生成された体積測定データ座標系において、定義される点は、二次元画像データの二次元座標系(例えば、u,v)において定義される対応する二次元の点を有し得る。同様に、表面メッシュデータ上の他の点は、二次元画像データにおける対応する座標を有する。被験体の表面の二次元画像データを外部表面メッシュデータにマップすることによって、表面メッシュデータのテクスチャマップ、および従って、表面メッシュデータが作成された体積測定データが、構成され得る。
図7は、本発明の代替の実施形態に従う、カラーテクスチャ化された外部表面データを有する体積測定画像データを生成するためのプロセスを例示する。ここで、前の例示におけるように、プロセスは、二次元画像装置から被験体の表面を表す二次元画像データを取得すること705から開始する。例えば、被験体の写真は、デジタルカメラによってとられ得る。同様に、被験体の体積測定データは、体積測定スキャナから取得され得る710。例えば、CATスキャン、MRIスキャン、CTスキャン、または他の体積測定スキャンが、とられ得る。上に詳細に説明されるように、二次元画像装置および体積測定スキャナは、互いに対して既知の物理的な位置を有し得る。
図7に例示されるように、体積測定データに対するカラーテクスチャ化された表面は、二次元画像に基づき作成され得る715。すなわち、図7に関して上に説明されるように、外部表面メッシュデータを生成することと、二次元画像データを表面メッシュにマップすることとよりはむしろ、カラーテクスチャ化された表面の視覚化は、表面メッシュデータを作成することなく、作成され得る715。例えば、レイキャスティングボリュームレンダリングは、どの多角形表面メッシュも作成することなく、陰影表面に類似の視覚化を作成し得る。カラーテクスチャは、レイキャスティングレンダリングに向けられ追加され得る。
一実施形態に従って、ボリュームレンダリング、すなわち体積測定データに基づく画像データは、被験体の外部輪郭を視覚化するために設定され得る。例えば、不透明閾値レベルは、被験体の外部の柔らかい組織輪郭または他の外部表面を示すように設定され得る。二次元画像データおよび三次元体積測定データは所定の座標マッチングを有するので、体積測定データにおけるボクセルは、二次元の画像データにおける対応するテクスチャ画像カラー値を有する。レイキャスティングボリュームレンダリングは、光線が閾値より高い体積測定データのボクセルに当るまで、すなわち、光線が被験体の表面に遭遇するまで、二次元像の視点からアレイレイを延ばすことを含み得る。
光線が体積測定データの外部輪郭ボクセルに達すると、ボクセルの視覚化照度は、レイの集積密度(density accumulation)と、ボクセルにおける表面の通常および照明の状態と、事前設定のカラーマップとを含むいくつかの因子によって計算され得る。ボリュームレンダリングのためのレイキャスティングは、ボクセルグレースケールからの事前設定のカラーマップを用い得る。一実施形態に従って、カラーマップは、二次元画像、すなわち写真の画像、データに由来する。ボクセルと二次元画像との間の座標マッチングは既知であるので、ボクセルに対するカラー値は二次元画像から決定され得る。レイキャスティングと、陰影因数と、カラー値とを組み合せて、体積測定データに対する最終のレンダリング照度およびカラー値が決定され得る。次いで、体積測定データの三次元体積測定レンダリングは表示され720、外部表面上におけるテクスチャマッピングを示し得る。そのように、外部表面輪郭を視覚化する不透明閾値が与えられるとすると、レイキャスティング技術は、表面メッシュを生成することなく、カラーテクスチャ化された外部輪郭を有する体積測定データの三次元レンダリングを生成し得る。
図8は、本発明の一実施形態に従う、カラーテクスチャ化された外部表面データを有する体積測定画像データを生成するためのプロセスのさらなる詳細を例示する。ここで、前の例示におけるように、プロセスは、ここで、二次元画像装置から被験体の表面を表す二次元画像データを取得すること805から開始する。例えば、被験体の写真は、デジタルカメラによってとられ得る。同様に、被験体の体積測定データは、体積測定スキャナから取得され得る810。例えば、CATスキャン、MRIスキャン、または他の体積測定スキャンが、とられ得る。上に詳細に説明されるように、二次元画像装置および体積測定スキャナは、互いに対して既知の物理的な位置を有し得る。
外部表面メッシュは、体積測定データに基づき生成され得る815。すなわち、体積測定データが取得された後810、外部表面メッシュデータは、例えば、体積測定データから同位相面生成法または体積測定ラッピング法によって作成され得る815。表面メッシュデータは、空気と被験体との間の外部境界を表し得る。従って表面メッシュデータは、被験体の三次元幾何学的形状を表す。例えば、医療用途において、表面メッシュデータは、患者の顔輪郭を表し得る。
二次元画像装置の視野が体積測定スキャナの視野にマッチングするかどうかについて決定820がなされ得る。この決定820は、例えば、二次元画像装置または体積測定スキャナのいずれかの視野の既知の限界または外部境界に基づき得る。視野がマッチングしないという決定820がなされた場合、表面メッシュデータ、二次元画像データ、および/または体積測定データの一部は、トリミングされ削除されるか、またはクロッピング825され得る。すなわち、二次元画像データ、体積測定データ、および/または表面メッシュデータの座標系における点、は、他の限界にマッチングするように削除され得る。
被験体の表面を表す二次元画像データは、二次元画像装置および体積測定スキャナの既知の物理的な位置に基づき、外部表面メッシュデータにマップされ得る830。すなわち、上記のように、表面メッシュデータの三次元座標系(例えば、x,y,z)において、また従って、表面メッシュが生成された体積測定データ座標系において、定義される点は、二次元画像データの二次元座標系(例えば、u,v)において定義される対応する二次元の点を有し得る。同様に、表面メッシュデータ上の他の点は、二次元画像データにおける対応する座標を有する。二次元画像データを外部表面メッシュデータにマップすることによって、表面メッシュデータのテクスチャマップ、および従って、表面メッシュが作成された体積測定データが、構成され得る。
表示画像は、生成され得る835。表示画像は、体積測定データと組み合わされた外部表面マップデータにマップされた被験体の表面を表す二次元画像データを含み得る。すなわち、表面メッシュデータのカラーテクスチャマップ、および従って、表面メッシュデータが作成された体積測定データは、重ねられるかまたはそうでなければ、体積測定データと組み合わされ、表示画像データを作成し得る。それで例えば、医療用途において、フォトリアリスティックな顔のモデルおよび内部の頭蓋骨、歯列、脳、または気道構造は、同じデータにおいて同時に表され得る。表示画像データは、次いで、ビデオディスプレイまたはモニタ上などに表示され得る840。
上記の説明において、例示の目的のために、方法は特定の順序で説明される。代替の実施形態において、説明される順序とは異なる順序で実行され得ることは理解されるべきである。さらに、方法は、上記に追加するステップまたは上記のステップより少ないステップを含み得る。上記の方法は、ハードウェア構成要素によって実行され得、機械実行可能なシーケンスで実施され得、機械実行可能な命令は、命令によってプログラムされた、汎用または専用のプロセッサまたは論理回路などの機械に方法を実行させるために用いられることも理解されるべきである。これらの機械実行可能な命令は、CD−ROMまたは他のタイプの光ディスク、フロッピー(登録商標)ディスケット、ROM、RAM、EPROM、EEPROM,磁気カードまたは光学式カード、フラッシュメモリ、あるいは、電子命令を格納するのに適した他のタイプの機械読み取り可能媒体などの1つ以上の機械読み取り可能媒体に格納され得る。あるいは、方法は、ハードウェアとソフトウェアとの組合せによって実行され得る。
本発明の例示的かつ現在好ましい実施形態が本明細書に詳細に説明されたが、発明の概念は、他の方法で様々に実施されかつ用いられ得、添付の請求項は、先行技術によって限定されることを除いて、そのような変形を含むように解釈することが意図されることは理解されるべきである。
Claims (36)
- 被験体の体積測定画像および該被験体の外部表面のカラーテクスチャ化された画像を表す組み合わされた画像データを生成する方法であって、該方法は、
二次元画像装置を用いて該被験体の表面の二次元画像データを取得することと、
体積測定スキャナが該二次元画像装置に対して既知の物理的な位置を有する間、該体積測定スキャナを用いて該被験体の体積測定データを取得することと、
該体積測定データに基づき外部表面メッシュデータを生成することと、
該二次元画像装置および該体積測定スキャナの該既知の物理的な位置に基づき、該二次元画像データを該外部表面メッシュにマップすることと
を包含する、方法。 - 前記体積測定データに組み合わされた前記外部表面マップデータにマップされた前記二次元画像データを含む表示画像データを生成することをさらに包含する、請求項1に記載の方法。
- 前記表示画像データを表示することをさらに包含する、請求項2に記載の方法。
- 前記二次元画像装置の視野が前記体積測定スキャナの視野にマッチングするかどうかを決定することをさらに包含する、請求項1に記載の方法。
- 前記二次元画像装置の視野が前記体積測定スキャナの視野にマッチングしないという決定に応答して、前記二次元画像データをクロッピングすることをさらに包含する、請求項4に記載の方法。
- 前記二次元画像装置の視野が前記体積測定スキャナの視野にマッチングしないという決定に応答して、前記体積測定データをクロッピングすることをさらに包含する、請求項4に記載の方法。
- 前記二次元画像データは、デジタル写真を含む、請求項1に記載の方法。
- 前記体積測定データは、コンピュータ断層撮影(CAT)スキャンからのデータを含む、請求項1に記載の方法。
- 前記体積測定データは、磁気共鳴画像(MRI)スキャンからのデータを含む、請求項1に記載の方法。
- 前記体積測定データは、円錐ビームコンピュータ断層撮影(CT)スキャンからのデータを含む、請求項1に記載の方法。
- 被験体の体積測定画像および該被験体の外部表面のカラーテクスチャ化された画像を表す組み合わされた画像データを生成するためのイメージングシステムであって、該システムは、
体積測定スキャナと、
二次元画像装置であって、該二次元画像装置は該体積測定スキャナに対して既知の物理的な位置を有する、画像装置と、
該体積測定スキャナおよび該二次元画像装置と通信するように結合されるプロセッサであって、該プロセッサは、該二次元画像装置から該被験体の該表面の二次元画像データを取得することと、該体積測定スキャナから該被験体の体積測定データを取得することと、該体積測定データに基づき外部表面メッシュデータを生成することと、該体積測定データと該二次元画像データとの間の座標マッチングに基づき、該二次元画像データを該外部表面メッシュデータにマップすることを行うように適合される、プロセッサと
を備えている、システム。 - 前記体積測定データと前記二次元画像データとの間の座標マッチングは、前記体積測定スキャナに対する前記二次元画像装置の既知の物理的な位置および光学的特性に基づく、請求項11に記載のシステム。
- 前記プロセッサは、前記体積測定データと組み合わされた前記外部表面マップデータにマップされた前記二次元画像データを含む表示画像データを生成するようにさらに適合される、請求項11に記載のシステム。
- 前記プロセッサと通信するように結合される表示デバイスをさらに備え、該プロセッサは、前記表示画像データを該表示デバイスに表示するようにさらに適合される、請求項13に記載のシステム。
- 前記プロセッサは、前記二次元画像装置の視野が前記体積測定スキャナの視野にマッチングするかどうかを決定するようにさらに適合される、請求項11に記載のシステム。
- 前記プロセッサは、前記二次元画像装置の視野が前記体積測定スキャナの視野にマッチングしないという決定に応答して、前記二次元画像データをクロッピングするようにさらに適合される、請求項15に記載のシステム。
- 前記プロセッサは、前記二次元画像装置の視野が前記体積測定スキャナの視野にマッチングしないという決定に応答して、前記体積測定データをクロッピングするようにさらに適合される、請求項15に記載のシステム。
- 前記二次元画像装置は、デジタルカメラを備えている、請求項11に記載のシステム。
- 前記体積測定スキャナは、コンピュータ断層撮影(CAT)スキャナを備えている、請求項11に記載のシステム。
- 前記体積測定スキャナは、磁気共鳴画像(MRI)スキャナを備えている、請求項11に記載のシステム。
- 前記体積測定スキャナは、円錐ビームコンピュータ断層撮影(CT)スキャナを備えている、請求項11に記載のシステム。
- 一連の命令を格納している機械読み取り可能媒体であって、該一連の命令がプロセッサによって実行されるとき、
二次元画像装置を用いて被験体の表面の二次元画像データを取得することと、
体積測定スキャナが該二次元画像装置に対して既知の物理的な位置を有する間、該体積測定スキャナを用いて該被験体の体積測定データを取得することと、
該体積測定データに基づき外部表面メッシュデータを生成することと、
該二次元画像装置および該体積測定スキャナの該既知の物理的な位置に基づき、該二次元画像データを該外部表面メッシュデータにマップすることと
によって、該一連の命令は、該被験体の体積測定画像および該被験体の外部表面のカラーテクスチャ化された画像を表す組み合わされた画像データを該プロセッサに生成させる、機械読み取り可能媒体。 - 前記体積測定データに組み合わされた前記外部表面マップデータにマップされた前記二次元画像データを含む表示画像データを生成する命令をさらに含む、請求項22に記載の機械読み取り可能媒体。
- 前記表示画像データを表示する命令をさらに含む、請求項23に記載の機械読み取り可能媒体。
- 前記二次元画像装置の視野が前記体積測定スキャナの視野にマッチングするかどうかを決定する命令をさらに含む、請求項22に記載の機械読み取り可能媒体。
- 前記二次元画像装置の視野が前記体積測定スキャナの視野にマッチングしないという決定に応答して、前記二次元画像データをクロッピングする命令をさらに含む、請求項25に記載の機械読み取り可能媒体。
- 前記二次元画像装置の視野が前記体積測定スキャナの視野にマッチングしないという決定に応答して、前記体積測定データをクロッピングする命令をさらに含む、請求項25に記載の機械読み取り可能媒体。
- 前記二次元画像データは、デジタル写真を含む、請求項22に記載の機械読み取り可能媒体。
- 前記体積測定データは、コンピュータ断層撮影(CAT)スキャンからのデータを含む、請求項22に記載の機械読み取り可能媒体。
- 前記体積測定データは、磁気共鳴画像(MRI)スキャンからのデータを含む、請求項22に記載の機械読み取り可能媒体。
- 前記体積測定データは、円錐ビームコンピュータ断層撮影(CT)スキャンからのデータを含む、請求項22に記載の機械読み取り可能媒体。
- 被験体の体積測定画像および該被験体の外部表面のカラーテクスチャ化された画像を表す組み合わされた画像データを生成する方法であって、該方法は、
二次元画像装置を用いて該被験体の表面の二次元画像データを取得することと、
体積測定スキャナが該二次元画像装置に対して既知の物理的な位置を有する間、該体積測定スキャナを用いて該被験体の体積測定データを取得することと、
該二次元画像データに基づき、該体積測定データのためにカラーテクスチャ化された表面を作成することと
を包含する、方法。 - 前記二次元画像データに基づき、前記体積測定データのためにカラーテクスチャ化された表面を作成することは、レイキャスティングボリュームレンダリングを用いて実行される、請求項32に記載の方法。
- レイキャスティングボリュームレンダリングは、前記被験体の表面をレンダリングするために前記体積測定データの不透明閾値を設定することを含む、請求項33に記載の方法。
- レイキャスティングレンダリングは、前記二次元画像データの視点から、閾値よりも高い不透明レベルを有する前記体積測定データのボクセルまで配列レイを拡張することをさらに含む、請求項34に記載の方法。
- レイキャスティングレンダリングは、前記二次元画像データから前記ボクセルに色をマップすることによって該ボクセルの可視化照度を計算することをさらに包含する、請求項35に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US79938806P | 2006-05-11 | 2006-05-11 | |
US11/465,021 US8446410B2 (en) | 2006-05-11 | 2006-08-16 | Apparatus for generating volumetric image and matching color textured external surface |
PCT/US2007/068599 WO2007134129A2 (en) | 2006-05-11 | 2007-05-09 | Matching color textured external surface on volumetric image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009536859A true JP2009536859A (ja) | 2009-10-22 |
Family
ID=38684660
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009510161A Withdrawn JP2009536859A (ja) | 2006-05-11 | 2007-05-09 | 体積測定画像にカラーテクスチャ化された外部表面をマッチングさせること |
Country Status (4)
Country | Link |
---|---|
US (2) | US8446410B2 (ja) |
EP (1) | EP2024907A2 (ja) |
JP (1) | JP2009536859A (ja) |
WO (1) | WO2007134129A2 (ja) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014507027A (ja) * | 2011-01-14 | 2014-03-20 | ダッソー システムズ ソリッドワークス コーポレイション | Gpu上でのcadモデルの直接的なレンダリング |
JP2014506806A (ja) * | 2010-12-23 | 2014-03-20 | ヴォルカノ コーポレイション | 統合システム構造および使用の方法 |
JP2014226515A (ja) * | 2013-05-27 | 2014-12-08 | セコム株式会社 | 診断支援システム |
KR101656194B1 (ko) * | 2015-08-25 | 2016-09-09 | 재단법인대구경북과학기술원 | 3차원 영상 획득 장치 및 방법 |
WO2018159709A1 (ja) * | 2017-02-28 | 2018-09-07 | 富士フイルム株式会社 | 3次元画像処理装置および方法並びにプログラム |
KR20210077636A (ko) * | 2019-12-17 | 2021-06-25 | 한국전자통신연구원 | 다시점 비디오 부호화 및 복호화 방법 |
JP7297960B1 (ja) | 2022-03-04 | 2023-06-26 | 株式会社バンダイ | 情報処理装置、及び、コンピュータプログラム |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7978191B2 (en) | 2007-09-24 | 2011-07-12 | Dolphin Imaging Systems, Llc | System and method for locating anatomies of interest in a 3D volume |
WO2010099109A1 (en) * | 2009-02-24 | 2010-09-02 | Bell Helicopter Textron Inc. | System and method for mapping two-dimensional image data to a three-dimensional faceted model |
WO2011095695A1 (en) | 2010-02-02 | 2011-08-11 | Planmeca Oy | Dental computed tomography apparatus |
US10776533B2 (en) | 2010-07-12 | 2020-09-15 | 3Shape A/S | 3D modeling of a dental restoration using textural features |
US9625258B2 (en) * | 2011-06-06 | 2017-04-18 | 3Shape A/S | Dual-resolution 3D scanner |
US9076246B2 (en) * | 2012-08-09 | 2015-07-07 | Hologic, Inc. | System and method of overlaying images of different modalities |
CN105007824B (zh) * | 2012-12-28 | 2017-07-11 | 株式会社日立制作所 | 医用图像处理装置以及图像处理方法 |
EP3633543A1 (en) | 2013-03-15 | 2020-04-08 | Hologic, Inc. | System and method for reviewing and analyzing cytological specimens |
CN103310440A (zh) * | 2013-05-16 | 2013-09-18 | 北京师范大学 | 基于典型相关分析的颅骨身份认证方法 |
KR102285840B1 (ko) * | 2013-11-11 | 2021-08-05 | 삼성전자주식회사 | 3차원 영상 렌더링 방법 및 이를 적용한 영상 출력 장치 |
CN104732048A (zh) * | 2013-12-20 | 2015-06-24 | 杨国煌 | 建立整型手术预览模型及植入物模型的方法 |
US10169909B2 (en) * | 2014-08-07 | 2019-01-01 | Pixar | Generating a volumetric projection for an object |
US9741161B2 (en) * | 2014-08-26 | 2017-08-22 | General Electric Company | Method, system, and medical imaging device for shading with multiple light sources |
US10092191B2 (en) * | 2015-01-16 | 2018-10-09 | Siemens Healthcare Gmbh | Joint visualization of 3D reconstructed photograph and internal medical scan |
US11127197B2 (en) | 2017-04-20 | 2021-09-21 | Siemens Healthcare Gmbh | Internal lighting for endoscopic organ visualization |
US10470825B2 (en) * | 2017-08-16 | 2019-11-12 | Synaptive Medical (Barbados) Inc. | Method, system and apparatus for surface rendering using medical imaging data |
DE102018002622A1 (de) * | 2018-03-29 | 2019-10-02 | Twinner Gmbh | 3-D-Objekt-Erfassungssystem |
US11145111B2 (en) | 2018-12-04 | 2021-10-12 | Intuitive Research And Technology Corporation | Volumetric slicer |
US11113868B2 (en) | 2018-12-04 | 2021-09-07 | Intuitive Research And Technology Corporation | Rastered volume renderer and manipulator |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4669812A (en) * | 1983-09-12 | 1987-06-02 | Hoebing John L | Method and apparatus for 3-D image synthesis |
JPH07325934A (ja) * | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | 仮想世界に向上したグラフィックスを提供する方法および装置 |
US5462068A (en) * | 1993-02-19 | 1995-10-31 | University Of Virginia Patent Foundation | Wrist fixation device for elbow stress examination |
US5588428A (en) * | 1993-04-28 | 1996-12-31 | The University Of Akron | Method and apparatus for non-invasive volume and texture analysis |
JPH06327649A (ja) * | 1993-05-24 | 1994-11-29 | Hitachi Ltd | 核磁気共鳴イメージング装置における画像再構成方法 |
US6002738A (en) * | 1995-07-07 | 1999-12-14 | Silicon Graphics, Inc. | System and method of performing tomographic reconstruction and volume rendering using texture mapping |
JP4078677B2 (ja) * | 1995-10-08 | 2008-04-23 | イーサム リサーチ デヴェロップメント カンパニー オブ ザ ヘブライ ユニヴァーシティ オブ エルサレム | 映画のコンピュータ化された自動オーディオビジュアルダビングのための方法 |
US5720291A (en) * | 1996-03-22 | 1998-02-24 | Advanced Technology Laboratories, Inc. | Three dimensional medical ultrasonic diagnostic image of tissue texture and vasculature |
US6549200B1 (en) * | 1997-06-17 | 2003-04-15 | British Telecommunications Public Limited Company | Generating an image of a three-dimensional object |
US6208347B1 (en) * | 1997-06-23 | 2001-03-27 | Real-Time Geometry Corporation | System and method for computer modeling of 3D objects and 2D images by mesh constructions that incorporate non-spatial data such as color or texture |
US6181348B1 (en) * | 1997-09-22 | 2001-01-30 | Siemens Corporate Research, Inc. | Method for selective volume visualization via texture mapping |
US6081739A (en) * | 1998-05-21 | 2000-06-27 | Lemchen; Marc S. | Scanning device or methodology to produce an image incorporating correlated superficial, three dimensional surface and x-ray images and measurements of an object |
US6072496A (en) * | 1998-06-08 | 2000-06-06 | Microsoft Corporation | Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects |
US6947584B1 (en) * | 1998-08-25 | 2005-09-20 | General Electric Company | Volume imaging system |
US6771262B2 (en) * | 1998-11-25 | 2004-08-03 | Siemens Corporate Research, Inc. | System and method for volume rendering-based segmentation |
GB2354416B (en) * | 1999-09-17 | 2004-04-21 | Technologies Limit Imagination | Depth based blending for 3D graphics systems |
JP3639475B2 (ja) * | 1999-10-04 | 2005-04-20 | シャープ株式会社 | 3次元モデル生成装置および3次元モデル生成方法ならびに3次元モデル生成プログラムを記録した記録媒体 |
US7234937B2 (en) * | 1999-11-30 | 2007-06-26 | Orametrix, Inc. | Unified workstation for virtual craniofacial diagnosis, treatment planning and therapeutics |
DE19960020A1 (de) * | 1999-12-13 | 2001-06-21 | Ruediger Marmulla | Vorrichtung zur optischen Erfassung und Referenzierung zwischen Datensatz, Operationssitus und 3D-Markersystem zur Instrumenten- und Knochensegmentnavigation |
US7657083B2 (en) * | 2000-03-08 | 2010-02-02 | Cyberextruder.Com, Inc. | System, method, and apparatus for generating a three-dimensional representation from one or more two-dimensional images |
US6807290B2 (en) * | 2000-03-09 | 2004-10-19 | Microsoft Corporation | Rapid computer modeling of faces for animation |
US20020012472A1 (en) * | 2000-03-31 | 2002-01-31 | Waterfall Andrew E. | Method for visualization of time sequences of 3D optical fluorescence microscopy images |
US6760024B1 (en) * | 2000-07-19 | 2004-07-06 | Pixar | Method and apparatus for rendering shadows |
US6975750B2 (en) * | 2000-12-01 | 2005-12-13 | Microsoft Corp. | System and method for face recognition using synthesized training images |
WO2002058009A1 (en) * | 2001-01-17 | 2002-07-25 | African Medical Imaging (Proprietary) Limited | A method of reconstructing tomographic images |
IL158190A0 (en) * | 2001-04-03 | 2004-03-28 | L 3 Comm Security & Detection | X-ray inspection system |
JP4446663B2 (ja) * | 2001-05-11 | 2010-04-07 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 医療レポートを作成する方法、システム及びコンピュータプログラム |
US6879712B2 (en) * | 2001-05-25 | 2005-04-12 | Orhan C. Tuncay | System and method of digitally modelling craniofacial features for the purposes of diagnosis and treatment predictions |
US20020198764A1 (en) * | 2001-06-26 | 2002-12-26 | Schorno Dean L. | On-line evaluating and marketing system and method |
JP2003075137A (ja) * | 2001-09-04 | 2003-03-12 | Minolta Co Ltd | 撮影システム並びにそれに用いられる撮像装置および3次元計測用補助ユニット |
US7221809B2 (en) * | 2001-12-17 | 2007-05-22 | Genex Technologies, Inc. | Face recognition system and method |
US6978040B2 (en) * | 2001-12-19 | 2005-12-20 | Canon Kabushiki Kaisha | Optical recovery of radiographic geometry |
US7324695B2 (en) * | 2002-03-18 | 2008-01-29 | Seimens Medical Solutions Usa, Inc. | Prioritized image visualization from scalable compressed data |
US20030179308A1 (en) * | 2002-03-19 | 2003-09-25 | Lucia Zamorano | Augmented tracking using video, computed data and/or sensing technologies |
US6985143B2 (en) * | 2002-04-15 | 2006-01-10 | Nvidia Corporation | System and method related to data structures in the context of a computer graphics system |
US6825838B2 (en) * | 2002-10-11 | 2004-11-30 | Sonocine, Inc. | 3D modeling system |
US7386704B2 (en) * | 2002-10-31 | 2008-06-10 | Lockheed Martin Corporation | Pipeline accelerator including pipeline circuits in communication via a bus, and related system and method |
JP4414682B2 (ja) * | 2003-06-06 | 2010-02-10 | オリンパス株式会社 | 超音波内視鏡装置 |
US7822461B2 (en) * | 2003-07-11 | 2010-10-26 | Siemens Medical Solutions Usa, Inc. | System and method for endoscopic path planning |
US7212664B2 (en) * | 2003-08-07 | 2007-05-01 | Mitsubishi Electric Research Laboratories, Inc. | Constructing heads from 3D models and 2D silhouettes |
KR100682889B1 (ko) * | 2003-08-29 | 2007-02-15 | 삼성전자주식회사 | 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치 |
US7103399B2 (en) * | 2003-09-08 | 2006-09-05 | Vanderbilt University | Apparatus and methods of cortical surface registration and deformation tracking for patient-to-image alignment in relation to image-guided surgery |
US20050135560A1 (en) * | 2003-12-17 | 2005-06-23 | Ehud Dafni | Portable computed tomography scanner and methods thereof |
US7609807B2 (en) * | 2004-02-17 | 2009-10-27 | General Electric Company | CT-Guided system and method for analyzing regions of interest for contraband detection |
US20050197558A1 (en) * | 2004-03-04 | 2005-09-08 | Williams James P. | System and method for performing a virtual endoscopy in a branching structure |
JP4408794B2 (ja) * | 2004-11-18 | 2010-02-03 | ザイオソフト株式会社 | 画像処理プログラム |
US7333107B2 (en) * | 2005-08-18 | 2008-02-19 | Voxar Limited | Volume rendering apparatus and process |
US8442283B2 (en) * | 2006-08-30 | 2013-05-14 | Anatomage Inc. | Patient-specific three-dimensional dentition model |
-
2006
- 2006-08-16 US US11/465,021 patent/US8446410B2/en active Active
-
2007
- 2007-05-09 EP EP07762072A patent/EP2024907A2/en not_active Withdrawn
- 2007-05-09 JP JP2009510161A patent/JP2009536859A/ja not_active Withdrawn
- 2007-05-09 WO PCT/US2007/068599 patent/WO2007134129A2/en active Application Filing
-
2013
- 2013-04-15 US US13/863,165 patent/US9105127B2/en active Active
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014506806A (ja) * | 2010-12-23 | 2014-03-20 | ヴォルカノ コーポレイション | 統合システム構造および使用の方法 |
JP2014507027A (ja) * | 2011-01-14 | 2014-03-20 | ダッソー システムズ ソリッドワークス コーポレイション | Gpu上でのcadモデルの直接的なレンダリング |
JP2014226515A (ja) * | 2013-05-27 | 2014-12-08 | セコム株式会社 | 診断支援システム |
KR101656194B1 (ko) * | 2015-08-25 | 2016-09-09 | 재단법인대구경북과학기술원 | 3차원 영상 획득 장치 및 방법 |
WO2018159709A1 (ja) * | 2017-02-28 | 2018-09-07 | 富士フイルム株式会社 | 3次元画像処理装置および方法並びにプログラム |
JPWO2018159709A1 (ja) * | 2017-02-28 | 2019-08-08 | 富士フイルム株式会社 | 3次元画像処理装置および方法並びにプログラム |
US10832459B2 (en) | 2017-02-28 | 2020-11-10 | Fujifilm Corporation | Three-dimensional image display apparatus for displaying target to which color is assigned |
KR20210077636A (ko) * | 2019-12-17 | 2021-06-25 | 한국전자통신연구원 | 다시점 비디오 부호화 및 복호화 방법 |
KR102612539B1 (ko) * | 2019-12-17 | 2023-12-11 | 한국전자통신연구원 | 다시점 비디오 부호화 및 복호화 방법 |
JP7297960B1 (ja) | 2022-03-04 | 2023-06-26 | 株式会社バンダイ | 情報処理装置、及び、コンピュータプログラム |
WO2023167227A1 (ja) * | 2022-03-04 | 2023-09-07 | 株式会社バンダイ | 情報処理装置、画像処理装置、及び、コンピュータプログラム |
JP2023128649A (ja) * | 2022-03-04 | 2023-09-14 | 株式会社バンダイ | 情報処理装置、及び、コンピュータプログラム |
Also Published As
Publication number | Publication date |
---|---|
US20070262983A1 (en) | 2007-11-15 |
US20130229411A1 (en) | 2013-09-05 |
WO2007134129A2 (en) | 2007-11-22 |
WO2007134129A3 (en) | 2008-10-16 |
EP2024907A2 (en) | 2009-02-18 |
US8446410B2 (en) | 2013-05-21 |
US9105127B2 (en) | 2015-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9105127B2 (en) | Apparatus for generating volumetric image and matching color textured external surface | |
JP6327845B2 (ja) | 口腔内画像と体積画像の統合 | |
JP6596514B2 (ja) | 咬合用歯科模型のx線走査のための方法及び装置 | |
US9117255B2 (en) | Patient-specific three-dimensional dentition model | |
US8487962B2 (en) | Augmented reality system for a dental laboratory | |
Xia et al. | Computer-assisted three-dimensional surgical planning and simulation: 3D color facial model generation | |
ES2724115T3 (es) | Interfaz gráfica de usuario para el marcado de márgenes asistido por ordenador sobre dentaduras | |
US10980612B2 (en) | Face tracking and reproduction with post-treatment smile | |
US20210045701A1 (en) | Simulated orthodontic treatment via augmented visualization in real-time | |
JP2014117611A5 (ja) | ||
US11083552B2 (en) | Rendering of dental models | |
JP2015221217A (ja) | 表面走査情報を用いることによる歯科用3次元x線データセットからのアーチファクトの低減及び除去 | |
Nahm et al. | Accurate registration of cone-beam computed tomography scans to 3-dimensional facial photographs | |
KR20190109455A (ko) | 사람의 3차원 가상 표현을 생성하기 위한 방법 | |
JP2022516487A (ja) | 下顎と上顎の3dセグメンテーション | |
EP3629337A1 (en) | Rendering of dental models | |
US11331164B2 (en) | Method and apparatus for dental virtual model base | |
EP3629301B1 (en) | Rendering a dental model in an image | |
KR20220017830A (ko) | 3차원 데이터 획득 방법, 장치 및 그 방법을 수행하는 프로그램이 저장된 컴퓨터 판독 가능 저장 매체 | |
CN109003676B (zh) | 一种牙齿美学设计方法与装置 | |
EP4328861A2 (en) | Jaw movements data generation apparatus, data generation method, and data generation program | |
EP4194804A1 (en) | Method and device for acquiring three-dimensional data, and computer-readable storage medium storing program for performing method | |
Matsopoulos et al. | Image registration based on lifting process: an application to digital subtraction radiography | |
AU2022281999A1 (en) | Method for acquiring a model of a dental arch | |
Varghese et al. | 3d Imaging and its Implications in Orthodontics.-A review |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100803 |