JP2007283108A - 画像の位置合わせを容易にするシステム及び方法 - Google Patents
画像の位置合わせを容易にするシステム及び方法 Download PDFInfo
- Publication number
- JP2007283108A JP2007283108A JP2007108230A JP2007108230A JP2007283108A JP 2007283108 A JP2007283108 A JP 2007283108A JP 2007108230 A JP2007108230 A JP 2007108230A JP 2007108230 A JP2007108230 A JP 2007108230A JP 2007283108 A JP2007283108 A JP 2007283108A
- Authority
- JP
- Japan
- Prior art keywords
- image
- point
- digital image
- correspondence
- volume
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 230000009466 transformation Effects 0.000 claims description 53
- 238000009826 distribution Methods 0.000 claims description 42
- 238000013519 translation Methods 0.000 claims description 30
- 238000004422 calculation algorithm Methods 0.000 claims description 29
- 238000012549 training Methods 0.000 claims description 27
- 238000001514 detection method Methods 0.000 claims description 25
- 239000000203 mixture Substances 0.000 claims description 15
- 230000004044 response Effects 0.000 claims description 6
- 238000002591 computed tomography Methods 0.000 claims 6
- 238000002372 labelling Methods 0.000 claims 3
- 238000002595 magnetic resonance imaging Methods 0.000 claims 3
- 238000002600 positron emission tomography Methods 0.000 claims 3
- 230000006870 function Effects 0.000 description 28
- 230000014616 translation Effects 0.000 description 24
- 239000013598 vector Substances 0.000 description 20
- 238000000844 transformation Methods 0.000 description 14
- 238000006243 chemical reaction Methods 0.000 description 9
- 230000004927 fusion Effects 0.000 description 7
- 238000007476 Maximum Likelihood Methods 0.000 description 6
- 206010028980 Neoplasm Diseases 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 238000003909 pattern recognition Methods 0.000 description 5
- 238000013507 mapping Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 206010056342 Pulmonary mass Diseases 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 210000003484 anatomy Anatomy 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000009795 derivation Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000002452 interceptive effect Effects 0.000 description 3
- 239000003550 marker Substances 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000011218 segmentation Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 230000003902 lesion Effects 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 210000001519 tissue Anatomy 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 239000000853 adhesive Substances 0.000 description 1
- 230000001070 adhesive effect Effects 0.000 description 1
- 201000011510 cancer Diseases 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000004195 computer-aided diagnosis Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 208000027124 goblet cell carcinoma Diseases 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 210000003734 kidney Anatomy 0.000 description 1
- 201000007270 liver cancer Diseases 0.000 description 1
- 208000014018 liver neoplasm Diseases 0.000 description 1
- 210000004072 lung Anatomy 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 210000004197 pelvis Anatomy 0.000 description 1
- NRNCYVBFPDDJNE-UHFFFAOYSA-N pemoline Chemical compound O1C(N)=NC(=O)C1C1=CC=CC=C1 NRNCYVBFPDDJNE-UHFFFAOYSA-N 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000002685 pulmonary effect Effects 0.000 description 1
- 238000011897 real-time detection Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000011524 similarity measure Methods 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
- 238000007794 visualization technique Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Nuclear Medicine (AREA)
Abstract
【課題】視覚的に相似していない局所領域間の局所位置合わせを良好な精度と効率性とをもって行うことができるようにする。
【解決手段】画像対の視覚的に相似していない局所領域をリンクする方法において、対象物の少なくとも第1及び第2のデジタル画像を取得するステップと、3Dランドマーク検出法を使用して第1及び第2のデジタル画像の一部との間の対応を決定するステップとを有し、前記第1の画像の一部はユーザ定義されたクリックポイントとしてユーザにより選択された関心点を含んでおり、前記第1の画像の一部は、その位置合わせの精度が第1の画像の他の部分における位置合わせの精度よりも高くなくてはならないような第1の画像内の箇所であり、前記対応は第1の画像内のユーザ定義されたクリックポイントと第2の画像内の所定の点との間の幾何学的関係を用いて決定される。
【選択図】なし
【解決手段】画像対の視覚的に相似していない局所領域をリンクする方法において、対象物の少なくとも第1及び第2のデジタル画像を取得するステップと、3Dランドマーク検出法を使用して第1及び第2のデジタル画像の一部との間の対応を決定するステップとを有し、前記第1の画像の一部はユーザ定義されたクリックポイントとしてユーザにより選択された関心点を含んでおり、前記第1の画像の一部は、その位置合わせの精度が第1の画像の他の部分における位置合わせの精度よりも高くなくてはならないような第1の画像内の箇所であり、前記対応は第1の画像内のユーザ定義されたクリックポイントと第2の画像内の所定の点との間の幾何学的関係を用いて決定される。
【選択図】なし
Description
関連出願の相互参照
本願は2006年4月17日に提出されたOkada他による同時係属中の米国特許仮出願通し番号第60/792,507号の本出願である。
本願は2006年4月17日に提出されたOkada他による同時係属中の米国特許仮出願通し番号第60/792,507号の本出願である。
発明の分野
本発明は画像の位置合わせを容易にするシステム及び方法、より詳しくは、画像間の高度な空間的対応を達成するために医用画像データ対をアラインするシステム及び方法に関するものである。
本発明は画像の位置合わせを容易にするシステム及び方法、より詳しくは、画像間の高度な空間的対応を達成するために医用画像データ対をアラインするシステム及び方法に関するものである。
位置合わせは医用画像分析における主要な問題の1つである。単一モード位置合わせの場合、幾つかの部分で異なる画像データ対に最も高い空間的一致が見られるように、この対をアラインする幾何学的変換を修復することを目的としている。変化分析やデータ融合のような臨床上重要な多くのタスクは、このようなデータ対の精確な空間的アラインメントを必要とする。
単一モード位置合わせの従来の解決法は、全体的なミスマッチ誤差を最小化する特定タイプのドメインマッピングを見つけ出すことを目的としている。厳格な位置合わせの場合、このような全体的誤差はドメイン全体にわたって平均された大域的な性質のものである。非厳密位置合わせの場合には誤差を局所的に扱うことができるが、問題を扱いやすくするために幾つかの大域的な正則化条件が用いられることが多い。これらの大域的ファクタを用いれば、相似してないデータ部分の間に一致を確立することが可能である。しかし、同時に、これらの大域的ファクタは、相似していない部分が相似している部分においてさえ全体的な位置合わせに影響を及ぼすことを許容してしまう。さらに、これらの解決法において、位置合わせがどこで正確であり、どこで不正確であるかは、データと費用関数の特定の選択により決定されてしまい、利用可能な臨床上の意味関係や要求がいずれも無視されてしまう。
T.Kadir and M.Brady, "Saliency, scale and imgage description", International Journal of Computer Vision, vol.45, no.2, pp.83-105, 2001 X.Huang, Y.Sun, D.Metaxas, F.Sauer; C.Xu, "Hybrid image registration based on configural matching of scale-invariant salient region features", in Second IEEE Workshop on Image and Video Registration, in conjunction with CVPR '04, 2004 D.Hahn, Y.Sun, J.Homegger, C.Xu, G.Wolz, and T.Kuwert, "A practical salient region feature based 3D multimodality regtistration method for medical images", in SPIE Med.Imag., 2006 D.Comaniciu, "An algorithm for data-driven bandwidth selection", IEEE Trans.Pat.Anal. Mach.Intell, vol.25, no.2, pp.281-288, 2003 R.Fergus, P.Perona, and A.Zisserman, "Object class recognition by unsuperviesed scale-invariant learining", in IEEE Conf.on Computer Vision and Pattern Recognition, vol.2, 2003, pp.264-271 B.Epshtein and S.Ulman, "Identifying semantically equivalent object fragments", in IEEE Conf. on Computer Vision and Pattern Recognition, vol.1,2005, pp.2-9 X.Pennec, N.Ayache, and J.Thirion, "Landmark-based registration using features identified through differnetial geometry", in Handbook of Medical Imaging, Academic Press, 2000, pp.499-513 K.Okada, D.Cornaniciu, and A.Krishnan, "Robust anisotropic Gaussian fitting for volumetric characterization of pulmonary nodules in multislice CT", IEEE Trans.Med.Imag., vol.24, no.3, pp.409-423, 2005 C.Novak, H.Shen, B.Odry, J.Ko, and D.Naidich, "System for automatic detection of lung nodules exhibiting growth", in SPIE Med.Imag., 2004 P.J.Besl and N.D.McKay, "A method for registration of 3-d shapes", IEEE Trans. Pattern Anal.Mach.Intell, vol.14, no.2, pp.239-256, 1992 J.Sill and C.Tomasi, "Good features to track", in IEEE Conf.On Comptuter Vision and Pattern Recognition, 1994, pp.593-600 P.Viola and M.Jones, "Rapid object detection using a boosted cascade of simple features", in Proc. of IEEE Int'l Cont on Comptuter Vision and Pattern Recognition, 2001, pp.511-518 B.Georgescu, X.S.Zhou, D.Comaniciu, and A.Gupta, "Database-guided segmentation of anatomical structures with complex appearances", in Proc. of IEEE Int'l Cont on Computer Vision and Pattern Recognition, 2005, pp.429-436
T.Kadir and M.Brady, "Saliency, scale and imgage description", International Journal of Computer Vision, vol.45, no.2, pp.83-105, 2001 X.Huang, Y.Sun, D.Metaxas, F.Sauer; C.Xu, "Hybrid image registration based on configural matching of scale-invariant salient region features", in Second IEEE Workshop on Image and Video Registration, in conjunction with CVPR '04, 2004 D.Hahn, Y.Sun, J.Homegger, C.Xu, G.Wolz, and T.Kuwert, "A practical salient region feature based 3D multimodality regtistration method for medical images", in SPIE Med.Imag., 2006 D.Comaniciu, "An algorithm for data-driven bandwidth selection", IEEE Trans.Pat.Anal. Mach.Intell, vol.25, no.2, pp.281-288, 2003 R.Fergus, P.Perona, and A.Zisserman, "Object class recognition by unsuperviesed scale-invariant learining", in IEEE Conf.on Computer Vision and Pattern Recognition, vol.2, 2003, pp.264-271 B.Epshtein and S.Ulman, "Identifying semantically equivalent object fragments", in IEEE Conf. on Computer Vision and Pattern Recognition, vol.1,2005, pp.2-9 X.Pennec, N.Ayache, and J.Thirion, "Landmark-based registration using features identified through differnetial geometry", in Handbook of Medical Imaging, Academic Press, 2000, pp.499-513 K.Okada, D.Cornaniciu, and A.Krishnan, "Robust anisotropic Gaussian fitting for volumetric characterization of pulmonary nodules in multislice CT", IEEE Trans.Med.Imag., vol.24, no.3, pp.409-423, 2005 C.Novak, H.Shen, B.Odry, J.Ko, and D.Naidich, "System for automatic detection of lung nodules exhibiting growth", in SPIE Med.Imag., 2004 P.J.Besl and N.D.McKay, "A method for registration of 3-d shapes", IEEE Trans. Pattern Anal.Mach.Intell, vol.14, no.2, pp.239-256, 1992 J.Sill and C.Tomasi, "Good features to track", in IEEE Conf.On Comptuter Vision and Pattern Recognition, 1994, pp.593-600 P.Viola and M.Jones, "Rapid object detection using a boosted cascade of simple features", in Proc. of IEEE Int'l Cont on Comptuter Vision and Pattern Recognition, 2001, pp.511-518 B.Georgescu, X.S.Zhou, D.Comaniciu, and A.Gupta, "Database-guided segmentation of anatomical structures with complex appearances", in Proc. of IEEE Int'l Cont on Computer Vision and Pattern Recognition, 2005, pp.429-436
本発明の課題は、視覚的に相似していない局所領域間の局所位置合わせを良好な精度と効率性とをもって行うことができるようにすることである。
上記課題は、対象物の少なくとも第1及び第2のデジタル画像を取得するステップと、3Dランドマーク検出法を使用して第1のデジタル画像の一部と第2のデジタル画像の一部との間の対応を決定するステップとを有しており、前記第1の画像の一部はユーザ定義されたクリックポイントとしてユーザにより選択された関心点を含んでおり、前記第1の画像の一部は、その位置合わせの精度が第1の画像の他の部分における位置合わせの精度よりも高くなくてはならないような第1の画像内の箇所であり、前記対応は第1の画像内のユーザ定義されたクリックポイントと第2の画像内の所定の点との間の幾何学的関係を用いて決定されることを特徴とする、画像対の視覚的に相似していない局所領域をリンクする方法により解決される。
上記課題はまた、上記方法ステップを実行する機械により実行可能な一連の命令を有体的に実現した機械可読記憶装置、ならびに、上記方法ステップを実行する手段を備えた医用画像データ対を位置合わせするシステムによっても解決される。
本願はロバストクリックポイントリンキングの技法を開示する。クリックポイントリンキングは局所的位置合わせの新しいフレームワークであり、これによりユーザは高い精度が必要とされる箇所を対話的に指定することができる。発明者は、データ対のうちの一方の関心領域の近傍に位置する点位置をユーザ(又は自律エージェント)が指定すると仮定している。ユーザにより提供されたこのような点位置は関心点又は"POI"と呼ばれる。したがって、対話的局所位置合わせのタスクは原データにおける所与のPOIに対応する他データ内の点を見つけ出すことである。本願で発明者が考察する適用シナリオは、同一患者の一連の追跡調査を分析の対象とする長期的な3Dデータ調査である。POIはユーザのマウスクリックにより与えられると仮定する。したがって、クリックポイントリンキング問題は一方のデータにおけるマウスクリック位置を他方のデータにおける対応する点に自動的にリンクすることにより解決される。このフレームワークは、上で述べた一般的な位置合わせ問題を、(1)特定の点における点ごとの対応を確立すること、及び、(2)これを異なる点に対して逐次実行することとして解釈することを支持する。
対話的局所位置合わせ方式の主な利点の1つは、位置合わせ結果の実際の用いられ方に忠実であることである。臨床上の多くの状況において、医用画像は局所的にしか評価されない。特定の病変や解剖学的構造を評価する際、目標位置における位置合わせの精度は高くなくてはならない。しかし、現場では、他の目標領域が同様に正しく位置合わせされていることにも、データ対が最小平均誤差でアラインされていることにも関心がないことが多い。このような局所的な関心の集中は、POIから離れた非目標領域からの影響を無視し、非目標領域の計算を避けることにより、より良い精度と効率性の達成を容易にする。
他方で、このフレームワークの主要な問題は、変化しつつある又は本質的に異なる対応領域をどのようにしてリンクするかということである。治療の前後に撮像された肝臓癌を内容とする追跡データ対を調査するとしよう。治療の効果を定量化するには、データ対の位置合わせと、それに続く変化分析とが必要とされる。これは典型的な循環問題である。といのも、関心対象である時間的変化を分析するには位置合わせが必要であるが、これらの変化そのものが位置合わせを困難にするからである。局所位置合わせは視覚的に非常に異なる局所領域間に対応を見つけ出すというより困難なタスクを要するので、問題をさらに悪くしてしまう。
上記の問題に対処するため、発明者は幾何構成コンテクストを用いた局所位置合わせの解決法を開発した。点ごとの対応は他の安定したデータ点を基準とした所与のPOIの幾何構成を利用することにより確立される。より重要なことに、これは潜在的に信頼のできない局所的な外観/輝度情報を使用せずに行われる。この解決法は各データについて最初に検出されたスケール不変の顕著特徴点(非特許文献1,2,及び3参照)の集合を利用している。したがって、任意のPOIは顕著特徴位置の集合を基準として幾何学的に表現される。幾何構成コンテクスト(GCC)は、与えられた特徴の集合に対してPOIの空間尤度をモデル化するガウシアン混合分布として定義される。POIの与えられた1つのデータドメインにおいて定義されたGCCは、特徴点集合の粗い対応があれば、他のデータドメインに変換することができる。新しいドメインに変換されたGCCの最大尤度推定値は所望の対応点を提供し、また可変帯域平均シフト法(非特許文献4参照)を用いて効率的に解かれる。
本明細書で開示される位置合わせのフレームワークは部分ベース物体認識の研究における最近の発展に触発されたものである(非特許文献5及び6参照)。最近、EpshteinとUllmanは、我々のモデルに似た尤度モデルを利用して、意味論的には等しいが視覚的には異なる物体の部分を検出する自動アルゴリズムを提案している。我々の仕事は彼らのフレームワークの柔軟なオンライン学習バージョンとして解釈しうるものであり、ブートストラップ尤度を互いに素なデータ集合からでなくテストデータインスタンスから推定する。ランドマークベースの位置合わせ(例えば、非特許文献7参照)も、位置合わせが正確でなければならない点位置がユーザにより与えられることを前提としている点で、上で提案されたフレームワークに関連している。しかし、それらは技術的にも使用上でも異なる目的をもっている。ロバストクリックポイントリンキングが与えられたPOIに関してボリューム対の間の対応を確立しようとするのに対して、ランドマークベースの位置合わせはユーザにより提供された対応の集合に関してドメイン変換を推定することを目的としている。ランドマークベースの位置合わせが所与の対応と交わるスムーズなドメインマッピングの全体を得ようとするのに対して、クリックポイントリンキングは局所的である。本明細書で開示される技術は、平均シフト法アルゴリズム(例えば、非特許文献4参照)を用いて、上記の顕著特徴に基づいた位置合わせ法(例えば、非特許文献2及び3参照)を改良することも目的としている。平均シフト法はコンピュータビジョンにおける追跡とセグメンテーションのための一般的な解決法である。平均シフト法アルゴリズムは医用画像のセグメンテーション問題に適用され成功を収めてきたが(例えば、非特許文献8参照)、本願の発明者は本願こそが平均シフト法アルゴリズムの医用画像位置合わせ問題への初めての適用であると考える。
本願では、(1)純粋な並進、(2)スケーリングと並進、(3)相似変換(スケーリング、並進、及び回転)を考慮した、上記GCCベースのフレームワークの3つの例が提示される。このシステムの性能は手作業で注釈をつけた16個の全身CT追跡データを用いてすでに評価されている。このクリックポイントリンキングの構想は以前に肺小結節検出に関連してすでに提案されたものである(例えば、非特許文献9参照)。しかしながら、本願は、肺小結節のコンテクストを超え、一般的な状況のもとで、視覚的に異なる領域の処理に重きをおいてこの問題を解決することを目指している。
本願は次のように組織されている。以下のセクションでは、GCCと、純粋な並進のもとでの3Dロバストクリックポイントリンキングの問題に対するGCCを用いた解決法とが説明される。セクションII−Aでは、ロバストクリックポイントリンキング問題が形式的に定義され、GCCを用いたその解決法が概観される。本願全体を通して使用される用語及び記号もこのセクションで定義される。セクションII−B及びII−Cでは、顕著特徴を抽出し、全数探索法をベースとした戦略を用いてボリューム対間の特徴の対応を推定するために使用されるアルゴリズムが説明される。セクションII−Dでは、所与のPOIに対応する点の空間尤度関数を表現するGCCが提案される。セクションII−Eでは、GCCの最大尤度推定を解くために使用される最適化法が導入される。次の2つのセクションでは、上記アプローチを陰伏的なドメイン変換のより一般的なクラスへ拡張することが検討される。セクションIIIでは、このような一般化されたフレームワークが説明され、セクションIVではさらに、ドメイン変換を陽に推定せずに、相似変換までの複数の変換のもとでどのようにしてこのような解を導き出すことができるのかが詳述される。セクションVでは、幾何学的アンカーとして使用される顕著特徴に対する代案が説明される。セクションVIでは、提案された方法の実行可能性が評価される。
II. ロバストクリックポイントリンキング
A. 定義と概観
位置合わせすべき画像関数の対が与えられているとしよう。一般性を失うことなく、一方は基準画像と呼ばれ、Ir(xr)で表され、他方は浮動画像と呼ばれ、If(xf)で表される。ここで、xr∈R3とxf∈R3は各々の連続ドメインにおける座標変数を表している。ドメインの対はθをパラメータとする未知の変換Tθによって陰伏的に関係づけられているものと仮定される。
A. 定義と概観
位置合わせすべき画像関数の対が与えられているとしよう。一般性を失うことなく、一方は基準画像と呼ばれ、Ir(xr)で表され、他方は浮動画像と呼ばれ、If(xf)で表される。ここで、xr∈R3とxf∈R3は各々の連続ドメインにおける座標変数を表している。ドメインの対はθをパラメータとする未知の変換Tθによって陰伏的に関係づけられているものと仮定される。
クリックポイントリンキングのタスクは、基準画像Ir(xr)内の所与のクリックポイント又はPOI crに対応する浮動画像If(xf)内の点cfの推定として定義される。真のドメイン変換Tθが知られていれば、真の解cfを定義することができる。
Cf=Tθ(cr) (2)
次に、Pで表される3D座標をもつ顕著特徴を導入する。ここで、それぞれ、基準画像についてはNr個の特徴から成る集合Crが計算され、浮動画像についてはNf個の特徴から成る集合Cfが計算されるものと仮定する。
次に、Pで表される3D座標をもつ顕著特徴を導入する。ここで、それぞれ、基準画像についてはNr個の特徴から成る集合Crが計算され、浮動画像についてはNf個の特徴から成る集合Cfが計算されるものと仮定する。
Cr={Pr1,..,PrNr} (3)
Cf={Pf1,..,PfNf} (4)
CrとCfから構成されたM個の対応する特徴の対Qから成る集合をQで表せば、
Q={(qr1,qf1),..,(qrM,qfM)} (5)
ここで、qri∈Cr、qfi∈Cf、M<min(Nr,Nf)。
Cf={Pf1,..,PfNf} (4)
CrとCfから構成されたM個の対応する特徴の対Qから成る集合をQで表せば、
Q={(qr1,qf1),..,(qrM,qfM)} (5)
ここで、qri∈Cr、qfi∈Cf、M<min(Nr,Nf)。
標準的な位置合わせの解法はエネルギー最小化問題
を解くことによりドメイン変換
を推定することを狙いとしている。例えば、特徴ベースの位置合わせは、
となるように
とQを同時に推定する反復最近傍点(ICP)アルゴリズムを使用して解くことができる(非特許文献10参照)。いったんドメイン変換が正しく推定されれば、クリックポイントリンキングは
とトリビアルになる。しかし、雑音のあるデータから変換を推定することはトリビアルと言うには程遠い。推定精度は対応の誤差に非常に敏感である。ICPのような反復的解法はまた計算コストが高くなりがちでもある。
を解くことによりドメイン変換
を推定することを狙いとしている。例えば、特徴ベースの位置合わせは、
となるように
とQを同時に推定する反復最近傍点(ICP)アルゴリズムを使用して解くことができる(非特許文献10参照)。いったんドメイン変換が正しく推定されれば、クリックポイントリンキングは
とトリビアルになる。しかし、雑音のあるデータから変換を推定することはトリビアルと言うには程遠い。推定精度は対応の誤差に非常に敏感である。ICPのような反復的解法はまた計算コストが高くなりがちでもある。
本発明のアプローチによれば、リンキング問題はドメイン変換を陽に推定せずに局所変数の上の空間尤度関数を直に最適化することにより解かれる。
B.スケール不変顕著特徴抽出
特徴をベースにしたマッチング法の研究の道筋は長いこと「どんな特徴を使用すべきか」という問題によって制限されてきた。隠蔽化及び非隠蔽化のもとでの物体追跡に関して、興味深い特徴選択の基準が非特許文献11において提案されている。この基準は、追跡のための正しい特徴とはまさに追跡装置を最も良好に動作させる特徴に他ならないと述べる。この基準に含まれる直観は使用目的が方法論の選択を決定するというものである。同様の理屈を適用すれば、信頼できる対応を形成するという脈絡で使用されるべき良い特徴とは「一意の」又は「まれな」特徴であるべきである。すなわち、基準画像から特徴が与えられたときに、この特徴がマッチング画像上に対応する複数の特徴を有する尤度が低ければ、この特徴は「良い」と見なされる。この基準を満たす特徴はますます研究されるようになってきており、画像位置合わせや物体追跡の目的で使用されている。特に、スケール不変顕著「領域」特徴検出器は非特許文献1において提案されている。顕著領域は空間的空間とスケール空間の両方において最も高い顕著度を有する局所画像領域として選択される。局所領域の顕著度と最良スケールはエントロピーをベースとした基準に基づいて決定される。顕著領域特徴の画像位置合わせへの適用は、2D(例えば、非特許文献2参照)と3D(例えば、非特許文献3参照)の両方において研究されており、領域特徴の主な利点の1つは回転、並進、及びスケールに関する不変性であることが示されている(例えば、非特許文献2参照)。本明細書において、発明者は顕著領域特徴検出器を3Dで使用してCTボリュームから特徴を抽出している。
特徴をベースにしたマッチング法の研究の道筋は長いこと「どんな特徴を使用すべきか」という問題によって制限されてきた。隠蔽化及び非隠蔽化のもとでの物体追跡に関して、興味深い特徴選択の基準が非特許文献11において提案されている。この基準は、追跡のための正しい特徴とはまさに追跡装置を最も良好に動作させる特徴に他ならないと述べる。この基準に含まれる直観は使用目的が方法論の選択を決定するというものである。同様の理屈を適用すれば、信頼できる対応を形成するという脈絡で使用されるべき良い特徴とは「一意の」又は「まれな」特徴であるべきである。すなわち、基準画像から特徴が与えられたときに、この特徴がマッチング画像上に対応する複数の特徴を有する尤度が低ければ、この特徴は「良い」と見なされる。この基準を満たす特徴はますます研究されるようになってきており、画像位置合わせや物体追跡の目的で使用されている。特に、スケール不変顕著「領域」特徴検出器は非特許文献1において提案されている。顕著領域は空間的空間とスケール空間の両方において最も高い顕著度を有する局所画像領域として選択される。局所領域の顕著度と最良スケールはエントロピーをベースとした基準に基づいて決定される。顕著領域特徴の画像位置合わせへの適用は、2D(例えば、非特許文献2参照)と3D(例えば、非特許文献3参照)の両方において研究されており、領域特徴の主な利点の1つは回転、並進、及びスケールに関する不変性であることが示されている(例えば、非特許文献2参照)。本明細書において、発明者は顕著領域特徴検出器を3Dで使用してCTボリュームから特徴を抽出している。
まず、CTボリュームIの各ボクセルxについて、半径sと中心xとにより記述されるあるスケールの球領域R(s,x)における輝度値iから確率密度関数(p.d.f)p(i|R(s,x))が計算される。
領域の輝度p.d.fが与えられれば、その輝度分布の微分エントロピーが下式により定義される。
xを中心とした周囲の領域に対する最良スケールSxは局所エントロピーを最大化するスケールとして選択される:Sx=argmaxsH(R(s,x))。したがって、最良スケールをもつ領域の顕著度A(R(s,x))は最良スケールSxで重み付けされたエントロピー極値とスケール空間内の微分自己相似測度とにより定義される。
上記の顕著度測度は空間的空間とスケール空間の両方に適用可能であるから、異なる位置及びスケールにおける領域特徴の顕著度の値を比較することができる。
次に、大域的に最も顕著な少数N(N<100)の領域特徴(各々その中心と最良スケールとにより定義される)を選ぶために、以下の処理ステップが導入される。
特徴抽出
A1 各ボクセル位置xについて、xを中心とした周囲の領域の最良スケールSxと顕著度A(R(s,x))を計算する。
A1 各ボクセル位置xについて、xを中心とした周囲の領域の最良スケールSxと顕著度A(R(s,x))を計算する。
A2 顕著度が局所極大値であるボクセルを同定する。ここで、関心顕著領域とはこれらのボクセルを中心とし、かつ最良スケールを有する関心領域である。
A3 局所極大な顕著領域の中から、CTボリュームの領域特徴として最も顕著なN個の領域{pi}(最高の顕著度を有する)を選ぶ。
1つのCTボリュームの顕著領域特徴を計算するにはおよそ2.5分かかる。この性能は我々の用途においては許容しうるものである。というのも、特徴はポイントをクリックする前にオフラインで計算されるからである。
臨床上の実務では、一般に12ビットの正値CTボリュームデータがCT数値の標準的な物理単位であるハウンスフィールド単位(HU)に変換される。本研究で使用するデータは0〜4095の範囲であり、−1024のオフセットと1の傾斜をもつHUに関係している。特定のタイプの組織を標準的な8ビットのグレイスケールで視覚化するために、一般にHU値に窓が当てはめられる。本研究では、脂肪(−100〜−50HU)のようなある種の柔軟な組織や水分(0HU)を抑制するために、30〜285HUの特定の窓を使用する。この種の柔軟な組織の除去は特徴抽出プロセスの安定化を助け、異時点間の対応の確立を可能にするより硬い構造への集中が可能になる。
C. 特徴対応マッチング
基準画像Ir(xr)と浮動画像If(xf)は双方独立して、前のセクションII−Bで説明したスケール不変特徴を抽出するための手続きを受ける。その結果、式(3)で定義されたIrのNr個の特徴から成るCrと呼ばれる集合と式(4)で定義されたIfのNf個の特徴から成るCfと呼ばれる集合との対が得られる。
基準画像Ir(xr)と浮動画像If(xf)は双方独立して、前のセクションII−Bで説明したスケール不変特徴を抽出するための手続きを受ける。その結果、式(3)で定義されたIrのNr個の特徴から成るCrと呼ばれる集合と式(4)で定義されたIfのNf個の特徴から成るCfと呼ばれる集合との対が得られる。
基準ドメインxrのPOI crを所与として、式(5)で定義されたM個の対応する特徴から成る集合Qを、以下の全数探索戦略を用いて見つけ出す。
全数探索による特徴マッチング
B1 ユークリッド距離の観点でcrに最も近いCrからM<Nr個の特徴{qr1,..,qrM}を選択する。
B1 ユークリッド距離の観点でcrに最も近いCrからM<Nr個の特徴{qr1,..,qrM}を選択する。
B2 各基準特徴qriについて、
B2a CfからのNf個の浮動ドメイン特徴{pfj}について、外観に基づいた相似性をしらみつぶしに計算する。
外観の相似性は、それぞれqriとpfjを中心とする円形領域R(sqri,qri)とR(spfj,pfj)から導出された輝度ヒストグラムの対の間のカイ二乗距離によって測られる。
B2a CfからのNf個の浮動ドメイン特徴{pfj}について、外観に基づいた相似性をしらみつぶしに計算する。
外観の相似性は、それぞれqriとpfjを中心とする円形領域R(sqri,qri)とR(spfj,pfj)から導出された輝度ヒストグラムの対の間のカイ二乗距離によって測られる。
B2b 最も相似したpfjを選択し、それをqfiに設定する。
注意しなければならないのは、これは非常に単純なマッチングアルゴリズムであり、粗い結果のみを出すことを意図したものであるということである。上記の全数探索はICPのようなより複雑な方式に比べれば正確さに劣ることもある。したがって、Qは無視できない数の誤った対応を含んでいることがありうる。しかし、その計算の複雑さは他の複雑な方式よりも著しく低くなることが予想され、より効率的な解法の実現が可能になる。
D. 空間尤度モデリング
このサブセクションでは、どのように空間尤度関数L(xf|cr,Q)をモデル化するかを説明する。このようなモデルがどのように構成されるかは、Tθでどのような変換のクラスを考えるのかに依存する。説明のために、まず、極度に単純化された並進のみの変換に対するモデル構成を具体的に示す。より一般的な変換クラスへの拡張はセクションIIIで論じられる。
このサブセクションでは、どのように空間尤度関数L(xf|cr,Q)をモデル化するかを説明する。このようなモデルがどのように構成されるかは、Tθでどのような変換のクラスを考えるのかに依存する。説明のために、まず、極度に単純化された並進のみの変換に対するモデル構成を具体的に示す。より一般的な変換クラスへの拡張はセクションIIIで論じられる。
基準ドメインと浮動ドメインの両方に対して、まず、それぞれの顕著特徴位置に原点の設定された局所フレームを導入する。
xr=xri+pri (10)
xf=xfi+pfi (11)
ここで、xriとxfiはそれぞれ基準ドメイン内の特徴priを中心とする局所フレーム内の座標値と浮動ドメイン内の特徴pfiを中心とする局所フレーム内の座標値を表している。
xr=xri+pri (10)
xf=xfi+pfi (11)
ここで、xriとxfiはそれぞれ基準ドメイン内の特徴priを中心とする局所フレーム内の座標値と浮動ドメイン内の特徴pfiを中心とする局所フレーム内の座標値を表している。
我々は基準ドメイン内の幾何構成コンテクスト、すなわち、GCCをM個の要素分布を有するガウシアン混合分布として定義する。この混合分布モデルは、QからのM個の顕著特徴{qri}を基準としたPOI位置crの空間尤度を表す。
最後に、xrにおける所与のPOIに対応する浮動ドメインxfにおける点の空間尤度を表す所望のGCCを定義する。
式(10)及び(11)で定義されたqriとqfiを中心とする局所フレームに関する基盤的変換Tθはここでは直線的な剛体並進のみから構成されるものと仮定されていることを想起されたい。ベクトルは純粋な並進のもとでは不変であるから、xfiはxriに等しくなければならない。結果として、式(18)の導出は、上で述べた純粋な並進の仮定のもとでqriとqfiとの間の対応を用いることにより、基準ドメインxrにおいて式(13)で定義されたガウシアン要素分布を浮動ドメインxfへ移すことと解釈しうる。まず始めに、z番目の基準局所フレームにおけるPOIを特定するために式(10)を使用する。
cr=cri+qri (20)
次に、平均mfiが式(11)のようにi番目の浮動局所フレーム内で表現されたcfに等しいものとして定義される。続いて、並進不変性cfi=criを適用して式(20)への代入が行われ、結果として式(18)に示されている形が得られる。
mfi=cf=cfi+qfi=cri+qfi=cr−qri+qfi (21)
ガウシアン幅のモデル化のために、我々は前に述べた最大エントロピーアルゴリズムにより導出された各特徴のスケールを点位置同定の統計的不確実性として解釈する。平均推定量(21)は両方のドメインにおける特徴qriとqfiとの間で均衡しているので、ガウシアン幅は式(19)に示されているように推定されたスケールの対の不偏平均としてモデル化される。
mfi=cf=cfi+qfi=cri+qfi=cr−qri+qfi (21)
ガウシアン幅のモデル化のために、我々は前に述べた最大エントロピーアルゴリズムにより導出された各特徴のスケールを点位置同定の統計的不確実性として解釈する。平均推定量(21)は両方のドメインにおける特徴qriとqfiとの間で均衡しているので、ガウシアン幅は式(19)に示されているように推定されたスケールの対の不偏平均としてモデル化される。
空間尤度L(xf|cr,Q)の混合分布モデル(16)は、(12)の場合とは異なり、平均と幅が可変のガウシアン要素分布から成っている。これは抽出された特徴位置に異なる時点にわたって分散を生じさせる測定誤差に因るものである。さらに、Qにおける誤った特徴の対応が平均推定値を真の平均から大幅に外れさせることもありうる。スケール推定値Sqri及びSqfiが空間的に可変であるため、ガウス幅も可変である。
E. 平均シフトに基づいたロバスト最大尤度推定
このセクションでは、(16)〜(19)において定義された尤度モデルを用いて、(6)における最大尤度推定問題に対する我々のロバストかつ効率的な解法が説明される。セクションII−C及びII−Dで論じた特徴マッチングの誤差のため、尤度関数は外れ値モードを成す誤った対応によってマルチモーダルとなる。したがって、解決すべき課題は正しく見つけ出された対応のみによって混合分布を推定することである。言い換えれば、任意の分布における外れ値の中から正しいモードが選び出されなければならない。この課題は非特許文献4において提案されている可変帯域平均シフト(VBMS)法を用いて解決される。平均シフト法は適応的な反復ステップサイズを有する効率的かつ収束の保証された勾配上昇アルゴリズムである。本来のアルゴリズムは与えられたデータ点集合に対してカーネル密度推定値のモード構造を分析するために設計された。この設定では、カーネル帯域幅は空間的に一定であると見なされることが多い。VBMSは上記平均シフト法のフレームワークを帯域幅が空間的に可変のケースに拡張したものであり、このケースでは、データ点が異なれば、有意性も異なる。この拡張により、一般的なガウシアン混合分布モデルのモード構造の分析と一般的な情報融合問題の解決への適用が可能になる。ここで、情報融合問題とは、与えられた仮説の集合に対して、最も妥当な解を推定することを課題とする問題のことである。以下では、VBMSフレームワークを手短に要約する。
このセクションでは、(16)〜(19)において定義された尤度モデルを用いて、(6)における最大尤度推定問題に対する我々のロバストかつ効率的な解法が説明される。セクションII−C及びII−Dで論じた特徴マッチングの誤差のため、尤度関数は外れ値モードを成す誤った対応によってマルチモーダルとなる。したがって、解決すべき課題は正しく見つけ出された対応のみによって混合分布を推定することである。言い換えれば、任意の分布における外れ値の中から正しいモードが選び出されなければならない。この課題は非特許文献4において提案されている可変帯域平均シフト(VBMS)法を用いて解決される。平均シフト法は適応的な反復ステップサイズを有する効率的かつ収束の保証された勾配上昇アルゴリズムである。本来のアルゴリズムは与えられたデータ点集合に対してカーネル密度推定値のモード構造を分析するために設計された。この設定では、カーネル帯域幅は空間的に一定であると見なされることが多い。VBMSは上記平均シフト法のフレームワークを帯域幅が空間的に可変のケースに拡張したものであり、このケースでは、データ点が異なれば、有意性も異なる。この拡張により、一般的なガウシアン混合分布モデルのモード構造の分析と一般的な情報融合問題の解決への適用が可能になる。ここで、情報融合問題とは、与えられた仮説の集合に対して、最も妥当な解を推定することを課題とする問題のことである。以下では、VBMSフレームワークを手短に要約する。
VBMSベクトルmv(x)は(23)により定義される。
VBMSベクトルが基礎となる密度の正規化された勾配の適応推定量であることは示すことができる:
VBMSベクトルを用いた以下の反復アルゴリズムは、面倒なパラメータ調整
y0=xinit
yn+1=mv(yn)+yn (26)
なしに、初期値xinitの近傍における密度推定値のモードに勾配上昇方向で収束することが保証されている。
y0=xinit
yn+1=mv(yn)+yn (26)
なしに、初期値xinitの近傍における密度推定値のモードに勾配上昇方向で収束することが保証されている。
イテレータの収束値はy*で表される。
上記VBMSアルゴリズム(26)を用いてマルチモード尤度モデル(16)の最大尤度を推定するために、2つのロバストなアルゴリズムが使用される。(16)における特定のモデルへのアルゴリズムの適用は直接的であり、それぞれ(18)と(19)において定義されているように単にxi=mfi,Hi=σfi 2Iと設定するだけである。第1の解法であるシングルVBMSは純粋な並進の仮定のもとでCrとCfとから推定された初期値xinitからの単一のVBMS反復を必要とする。その一方で、第2の解法であるマルチプルVBMSは各要素分布の平均mfiにおいて初期化された複数のVBMS反復からの収束値の集合からの投票を必要とする。
シングルVBMS:
C1 CrとCfにおける顕著特徴点の平均zrとzfをそれぞれ計算する。
C1 CrとCfにおける顕著特徴点の平均zrとzfをそれぞれ計算する。
C2 CrとCfの間の平均バイアスz=zf−zrを計算する。
C3 浮動ドメイン内の平均バイアス補正されたPOIによりVBMSイテレータの初期値を設定する:xinit=cr+z。
C4 (26)におけるVBMSアルゴリズムを実行し、収束値y*を得る。
マルチプルVBMS:
D1 M個のVBMSイテレータを(18)におけるM個の要素分布の平均{mfi}で初期化する:xinit,i=mfi。
D1 M個のVBMSイテレータを(18)におけるM個の要素分布の平均{mfi}で初期化する:xinit,i=mfi。
D2 M個の独立したVBMS反復(26)を実行し、収束値の集合{yi *}を得る。
D3 点対間ユークリッド距離に従って{yi *}をグループ分けし、最も多くの要素を含むクラスタを形成する部分集合{yk *}を選ぶ。
前者の解法は単一のVBMS反復しか必要としないため効率性を重視している。しかしながら、推定精度は推定された初期値に大きく依存している。この解法は、ボリューム対の間に顕著特徴の大きな変化と純粋な並進を越えた変形とが存在する場合には有効でない。後者の解法は複数のVBMS反復を行うことによってロバストネスを改善する。この解法は前者の解法よりも効率性の点で劣るものの、特定のドメイン変換を仮定しないため、より一般性がある。
III. 一般の変換クラスへの拡張
セクションII−Dで述べたように、浮動ドメインにおける空間尤度関数(16)は基礎となるドメイン変換としてどのようなタイプのドメイン変換を考えるのかに依存している。例えば、(18)及び(19)におけるガウシアン要素分布の平均と幅の式は純粋な並進を越えた変換のもとでは成り立たない。これは(21)に示されているような(18)の導出が変換クラスに固有の不変性を利用しているからである。このセクションでは、尤度のモデル化に使用される戦略をどのようにしてより一般的な変換クラスに拡張するかを論じる。
セクションII−Dで述べたように、浮動ドメインにおける空間尤度関数(16)は基礎となるドメイン変換としてどのようなタイプのドメイン変換を考えるのかに依存している。例えば、(18)及び(19)におけるガウシアン要素分布の平均と幅の式は純粋な並進を越えた変換のもとでは成り立たない。これは(21)に示されているような(18)の導出が変換クラスに固有の不変性を利用しているからである。このセクションでは、尤度のモデル化に使用される戦略をどのようにしてより一般的な変換クラスに拡張するかを論じる。
QはセクションII−Cで説明した手続きを用いて計算された基準ドメインと浮動ドメインとにおける顕著特徴の間のM個の対応から成る集合を表していたことを想起されたい。各対応qiは2つ組(qri,qfi)により表現される。Pは
であるようなQのすべての部分集合から成る集合を表すものと仮定する。
ここで、LはPのカーディナル数であり、PlはQのK部分集合である。一般性を失うことなく、Plから任意に1つの対応qkを選び、それをアンカー対応ql=(qrl,qfl)と呼ぶことができる。これにより、各K部分集合{ql|l=1,..,L}に対してアンカーの集合が得られる。
ここで、LはPのカーディナル数であり、PlはQのK部分集合である。一般性を失うことなく、Plから任意に1つの対応qkを選び、それをアンカー対応ql=(qrl,qfl)と呼ぶことができる。これにより、各K部分集合{ql|l=1,..,L}に対してアンカーの集合が得られる。
上記設定を所与として、(16−19)で定義された空間尤度関数をより一般的な線形変換のクラスに拡張することを検討する。一般化された空間尤度はセクションII−DIで説明した純粋な並進のケースに似てL個のガウシアン要素分布の混合分布として定義される。
これらは特定の変換クラスに依存する関数ggとfgを除いて(16−19)に似た形をとっていることに注意されたい。尤度関数も集合Qに代わって集合Pに従属している。したがって、各ガウシアン要素分布はK個の特徴の対応から成る集合Plに依存する。
ここで、基礎となるドメイン変換Tgはある種の一般的なパラメトリックモデルによりモデル化することができ、ドメイン変換を一意に決定するにはPlにおいて与えられたK個の対応から成る集合で十分であることを前提とする。すると、下記によって変換クラスに対してgg及びfgを決定する一般的な手続きが提供される。
E3 Pl内のすべての特徴点のスケールの関数としてl番目の要素分布の幅を計算する。
上記の尤度の定式化は、適切なK値を選ぶことによりドメイン変換の異なるクラスを扱う一般的なフレームワークを提供する。自由度(DOF)の大きな複雑な変換を扱うには高いK値が必要である。例えば、R3では、K=3の尤度関数は相似変換までの変換を扱うことができる。K=2の尤度はスケーリングと並進による変換しか決定することができない。K=1の場合には、純粋な並進しか扱うことができない。(16−19)の空間尤度関数が一般的な尤度(28−31)のK=1のときの具体例であることは容易に示される。このような状態においては、(27)で定義された集合PはQに還元されるので、PP=QかつL=Mである。(18)及び(19)における元々の平均と幅の式はE1−E3の手続きを満たし、K=1の場合には、gg−gtとfg−ftに等しくなる。
関数fg(cr,Pl)はl番目のガウシアン要素分布の幅を決定する。セクションII−Dで論じたように、Plにおける顕著特徴のスケールSrkとSfkは特徴点の位置を同定する際の統計的不確実性として解釈できる。特徴位置におけるこのような不確実性は変換Tgを介して伝播させられることにより要素分布の推定された平均mflの位置へ移されなければならない。しかし、ドメイン変換による変形が過度に大きくないことを仮定して、伝播による変化を無視できるものとして扱えるようにしてもよい。それゆえ、特徴における不確実性は要素分布の推定された平均として扱うこともできる。本研究では、不確実性の平均を不確実性集合の融合の簡単な例として論じる。
IV. 不変性に基づいた陰伏変換の推定
前セクションで説明した手続きE1−E3はQにおける元の対応の各K部分集合Plから変換パラメータθlを陽に推定することを要する。crとcfならびにmrlとmflの間にリンクを確立するという我々の目的にとって、推定問題のより直観的な幾何学的解釈が存在しており、この解釈がより効率的な解法へと導いてくれる。このセクションでは、E1及びE2のような陽的なパラメータ推定をせずに幾何学的不変性に基づいてl番目のガウシアン要素分布の平均を特定する代替的な解法を提示する。
前セクションで説明した手続きE1−E3はQにおける元の対応の各K部分集合Plから変換パラメータθlを陽に推定することを要する。crとcfならびにmrlとmflの間にリンクを確立するという我々の目的にとって、推定問題のより直観的な幾何学的解釈が存在しており、この解釈がより効率的な解法へと導いてくれる。このセクションでは、E1及びE2のような陽的なパラメータ推定をせずに幾何学的不変性に基づいてl番目のガウシアン要素分布の平均を特定する代替的な解法を提示する。
あるK値とこれに対応する許容される変換のクラスに対して、特定の変換クラスのもとで真である幾何学的不変性を用いてmflの推定量を構成する。以下がその設定である。(10)及び(11)で定義されているように、基準局所フレームと浮動局所フレームの対を考える。これら2つの局所フレームの原点を相互に対応するアンカー点qrlとqflに設定する。セクションIIIに記載されている定義により、基礎となるドメイン変換Tθlを決定するには、Plにおいて与えられたK個の対応から成る集合で十分である。変換Tθlは所与のPlに関して陰伏的に推定されると仮定する。すると、l番目のガウシアン要素分布の平均mflは、陰伏的な推定値において与えられた制約条件のもとで所与のPOI crに対して
を与える関数ggにより定義される。:
を与える関数ggにより定義される。:
2つの重要な問題が存在している。1つは、ここで考察している変換
が局所フレーム内で定義されているため、手続きE1−E3の場合とは異なり、各部分集合Plごとに変換の各インスタンスが互いに異なることである。しかし、このことは何ら余分な計算コストを付加するものではない。というのも、手続きE1−E3もまた各Plごとに大域フレームxfで変換を再計算するからである。この組合せ的計算はQにおける推定された対応における誤差を処理するためにも必要である。2つめは、大域フレームにおけるxrとxfとの間の並進はqlにおける対応点をこれらのフレームの原点として設定することにより局所フレームの対に吸収されてしまうということである。したがって、局所フレームにおける
のDOFは相応して調整されなければならない。
が局所フレーム内で定義されているため、手続きE1−E3の場合とは異なり、各部分集合Plごとに変換の各インスタンスが互いに異なることである。しかし、このことは何ら余分な計算コストを付加するものではない。というのも、手続きE1−E3もまた各Plごとに大域フレームxfで変換を再計算するからである。この組合せ的計算はQにおける推定された対応における誤差を処理するためにも必要である。2つめは、大域フレームにおけるxrとxfとの間の並進はqlにおける対応点をこれらのフレームの原点として設定することにより局所フレームの対に吸収されてしまうということである。したがって、局所フレームにおける
のDOFは相応して調整されなければならない。
本明細書は相似変換までのドメイン変換をカバーするK=1,2,3の場合の解法を提供する。K=4の場合はR3におけるアフィン変換をカバーするが、その解法は将来の仕事として残しておく。K=1の場合については、セクションII−Dにおける導出において既に1つの解法が提供されている。K=1という条件はRdにおける純粋な並進しか許容しない。さらに、ベクトルはRdにおけるこの並進という変換クラスのもとで不変である。局所フレームの対は等しく、したがってcfl=crlであることを理解するのは容易である。以下では、K=1,2の場合について検討する。
A. スケーリング及び並進変換
R3では、K=2の場合のK部分集合Plは2つの対応を生じさせ、6つの制約条件を提供する。スケーリングと推進とによる変換(4自由度(DOF))と純粋な並進(3DOF)を決定するには、これらの制約条件で十分である。
R3では、K=2の場合のK部分集合Plは2つの対応を生じさせ、6つの制約条件を提供する。スケーリングと推進とによる変換(4自由度(DOF))と純粋な並進(3DOF)を決定するには、これらの制約条件で十分である。
まず、式(10)と(11)を用いて、それぞれアンカーqrl、qflを中心とするl番目の基準局所フレームと浮動局所フレームにおける所与のPOIとその対応する点を特定する。
cr=crl+qrl cf=cfl+qfl (34)
ここで、cflは未知数であり、既知数crl,ql及びPlの関数として決定されなければならない。
cr=crl+qrl cf=cfl+qfl (34)
ここで、cflは未知数であり、既知数crl,ql及びPlの関数として決定されなければならない。
K=1の場合と同じ論法を用いるならば、並進要素をキャンセルしてしまえば、スケーリングが局所フレームcrlとcflとの間の座標マッピングにおける唯一の可変要素として残る。Plは2つの対応しか含んでいないので、アンカーを選んだ後には残りの1つの対応しか存在しない。qla=(qrla,qfla)がこの残りを表すものとしよう。また、arlとaflがそれぞれの局所フレームにおける相対ベクトルarl=qrla−qrlとafl=qfla−qflを表すとしよう。
すると、Plにおける対応の対と、crlとcflとの対は、一対の相似三角形(0,arl,crl)と(0,afl,cfl)として解釈することができる。なおここで、これらの相似三角形は回転なしの異なる大きさの相似三角形である。したがって、この解釈はスケーリングのもとでの下記の2つの不変性を提供する:正規化されたベクトル
及びベクトルノルムの比
ここで、||・||はベクトルノルムを表している。(35)、(36)及び(33)を組み合わせれば、K=2の場合のl番目のガウシアン要素分布の平均を推定する所望の関数が得られる。
B. 相似及びユークリッド変換
R3では、K=3の場合のK部分集合Plは3つの対応を生じさせ、9つの制約条件を提供する。相似変換(7DOF)とユークリッド変換(6DOF)までの射影変換を決定するには、これらの制約条件で十分である。局所フレームにおける部分集合内の2つの点を結ぶベクトルの周りの3D回転の多義性のため、2部分集合で与えられる6つの制約条件では6DOFのユークリッド変換を一意に決定するには不十分である。
R3では、K=3の場合のK部分集合Plは3つの対応を生じさせ、9つの制約条件を提供する。相似変換(7DOF)とユークリッド変換(6DOF)までの射影変換を決定するには、これらの制約条件で十分である。局所フレームにおける部分集合内の2つの点を結ぶベクトルの周りの3D回転の多義性のため、2部分集合で与えられる6つの制約条件では6DOFのユークリッド変換を一意に決定するには不十分である。
qla=(qrla,qfla)とqlb=(qrlb,qflb)がPlからアンカーqlを選んだ後の残りの2つを表すものとしよう。また、arlとaflがそれぞれの局所フレームにおける相対ベクトルarl=qrla−qrlとafl=qfla−qflを表すとしよう。同様に、brlとbflがそれぞれ相対ベクトルbrl=qrlb−qrlとbfl=qflb−qflを表すとしよう。
すると、Plにおける対応とcrlとcflとの対応の3つの対応を一対の相似四面体(0,arl,brl,crl)と(0,afl,bfl,cfl)として解釈することができる。定義により、幾何学的相似性は、対応するそれぞれの角が等しく、かつ、各辺が同じ係数でスケーリングされていることを保証する。以下では、上記四面体の幾何学的相似性を利用して、未知数cflの閉形式の式を他の既知数の関数として導出する。
基準四面体の表面を含んだ3D平面Lrlを考えてみよう。ただし、基準四面体とは基準局所フレーム内の2つのベクトルarlとbrlを含んでいるものである。同様に、表面(0,afl,bfl)を含んだ浮動局所フレーム内の3D平面をLflで表すことにしよう。次に、ベクトルcrlとcflをそれぞれ平面LrlとLflへ直交射影する。このような直交射影をurlとuflで表すことにする。その結果、ベクトルcrlとcflは直交射影と上記平面に対して垂直なベクトルとのベクトル和に線形分解することができる。
crl=url+vrl (38)
cfl=ufl+vfl (39)
vrl=krnrl kr∈R (40)
vfl=kfnfl kf∈R (41)
ここで、nrlとnflはそれぞれLrlとLflの単位法線を表している。直交射影により、ベクトルvrlとvflはそれぞれ(arl,brl)と(afl,bfl)に直交し、urlとuflはそれぞれLrlとLflに含まれることが保証される。
crl=url+vrl (38)
cfl=ufl+vfl (39)
vrl=krnrl kr∈R (40)
vfl=kfnfl kf∈R (41)
ここで、nrlとnflはそれぞれLrlとLflの単位法線を表している。直交射影により、ベクトルvrlとvflはそれぞれ(arl,brl)と(afl,bfl)に直交し、urlとuflはそれぞれLrlとLflに含まれることが保証される。
urlはLrl内にあるのであるから、arlとbrlの線形結合で書き表すことができる。重みは上記の直交性制約条件を用いて陽に解くことができる。
crlは既知であるから、urlが与えられれば、vrlは(38)から求められる。
vrl=crl−url=crl−waarl−wbbrl (45)
浮動四面体の場合、uflは(42)のurlのようにaflとbflの線形結合としても書き表すことができる。さらに、幾何学的相似性のため、浮動局所フレーム内のuflも(43)及び(44)と同じ重みで決定される。
ufl=waafl+wbbfl (46)
したがって、Lflの単位法線もaflとbflから導き出すことができる。
vrl=crl−url=crl−waarl−wbbrl (45)
浮動四面体の場合、uflは(42)のurlのようにaflとbflの線形結合としても書き表すことができる。さらに、幾何学的相似性のため、浮動局所フレーム内のuflも(43)及び(44)と同じ重みで決定される。
ufl=waafl+wbbfl (46)
したがって、Lflの単位法線もaflとbflから導き出すことができる。
(41)と(49)を組み合わせれば、陽形式のサイズ係数kfが得られる。
最後に、(46)と(41)を(39)に挿入すれば、K=3の場合のl番目のガウシアン要素分布の平均を推定する所望の関数が得られる。
mfl=gg,K=3(cr,Pl)=waafl+wbbfl+kfnfl (51)
ここで、wa,wb及びkfはそれぞれ(43)、(44)及び(50)において与えられている。そして、nは(47)及び(48)において与えられている。
mfl=gg,K=3(cr,Pl)=waafl+wbbfl+kfnfl (51)
ここで、wa,wb及びkfはそれぞれ(43)、(44)及び(50)において与えられている。そして、nは(47)及び(48)において与えられている。
V. 学習に基づいた解剖学的ランドマーク検出
ロバストな融合のための幾何構成コンテクスト(GCC)方式において、クリックポイントの対応点はN個の最近傍顕著領域特徴の対応に基づいて推論される。これらの最近傍顕著領域特徴はクリックポイントのコンテクスト特徴と考えることができる。したがって、クリックポイントに関する良好な対応を導き出すためには、そのN個のコンテクスト特徴対応の主要部分が正確であることが重要である。顕著領域に基づいた特徴は並進、回転、及びスケーリングに対して不変であることが理論的に証明されているが(非特許文献1参照)、構造の出現/消滅がある場合には、変化した構造の近傍で検出された特徴は劇的に変化することがありうる。例えば、大きな腫瘍のある患者を異なる3時点にイメージングした場合、画像の外観は腫瘍の変化により変化し、腫瘍の近傍で検出された顕著領域特徴は3つの画像において安定していない。ユーザが時間の経過とともに急速に変化及び進展する傾向のある患部近傍にある関心点をクリックすることもよくあることを考慮するならば、患部近傍で検出された顕著領域特徴はロバストな融合アルゴリズムにとってさえ厄介となりうる。
ロバストな融合のための幾何構成コンテクスト(GCC)方式において、クリックポイントの対応点はN個の最近傍顕著領域特徴の対応に基づいて推論される。これらの最近傍顕著領域特徴はクリックポイントのコンテクスト特徴と考えることができる。したがって、クリックポイントに関する良好な対応を導き出すためには、そのN個のコンテクスト特徴対応の主要部分が正確であることが重要である。顕著領域に基づいた特徴は並進、回転、及びスケーリングに対して不変であることが理論的に証明されているが(非特許文献1参照)、構造の出現/消滅がある場合には、変化した構造の近傍で検出された特徴は劇的に変化することがありうる。例えば、大きな腫瘍のある患者を異なる3時点にイメージングした場合、画像の外観は腫瘍の変化により変化し、腫瘍の近傍で検出された顕著領域特徴は3つの画像において安定していない。ユーザが時間の経過とともに急速に変化及び進展する傾向のある患部近傍にある関心点をクリックすることもよくあることを考慮するならば、患部近傍で検出された顕著領域特徴はロバストな融合アルゴリズムにとってさえ厄介となりうる。
事前学習した判別分類子を用いて検出された解剖学的ランドマークは顕著領域特徴の代案となりうる。この学習フレームワークは非特許文献12及び非特許文献13によるリアルタイム検出アルゴリズムに基づいている。
基本的なアイデアは、画像のデータベースを使用し、このデータベースから、学習に基づいたアルゴリズムが特に解剖学的構造と構造間の大域的な解剖学的関係とにおける変化を表すものを抽出することができるようにするというものである。この方法は全身ボリュームを訓練データとしてデータベースに収集することから始まる。次に、各訓練ボリュームについて、関心ランドマークに手作業でラベル付けする。特定のランドマークについての判別分類子を学習するために、まず、関心ランドマークに他のランドマークよりも大きな重みを与える重み付けアラインメントアルゴリズムを用いて訓練ボリュームのアラインメントを行う。ボリュームのアラインメントが済むと、ランドマークを含んだ正事例を形成するために関心ランドマークの周囲のデータがクロッピングされ、負事例を形成するために訓練ボリュームの他の箇所がランダムにクロッピングされる。つぎに、正及び負の訓練事例のデータベースを使用することにより、カスケード型AdaBoost法を用いた判別分類子が学習される。実行時には、新たな全身ボリュームが走査され、分類子によって正として分類された窓が可能性のある検出結果として返される。検出された窓はまたそれらの応答に基づいてランク付けされ、最も応答値の高い窓が新たな全身ボリュームにおける検出されたランドマークである尤度が最も高い。
学習をベースとした方法を用いて検出されたランドマークは、特に構造の出現又は消滅がある場合には、顕著領域特徴よりも安定している。なぜならば、これらのランドマークは事前定義されたものであり、訓練プロセスがこれらのランドマークの近傍にある構造の変化をある程度吸収するからである。検出されたランドマークのロバストネスも保証され、また正負検出は粗密検出の実施とランドマーク間の幾何学的制約条件の利用とにより除くことができる。我々のこの研究では、訓練データとして46個の全身CTボリュームにおけるランドマークを手作業でラベル付けした。次に、重み付けアラインメントを用いてボリュームのアラインメントが行われ、正及び負の事例が収集され、カスケード型AdaBoost学習器に入力として与えられる。実行時には、14個のランドマークについて87%の平均検出率が得られる。そのあと、検出されたランドマークをGCCロバスト融合のためのコンテクスト特徴として使用することもできる。
基本的なアイデアは、画像のデータベースを使用し、このデータベースから、学習に基づいたアルゴリズムが特に解剖学的構造と構造間の大域的な解剖学的関係とにおける変化を表すものを抽出することができるようにするというものである。この方法は全身ボリュームを訓練データとしてデータベースに収集することから始まる。次に、各訓練ボリュームについて、関心ランドマークに手作業でラベル付けする。特定のランドマークについての判別分類子を学習するために、まず、関心ランドマークに他のランドマークよりも大きな重みを与える重み付けアラインメントアルゴリズムを用いて訓練ボリュームのアラインメントを行う。ボリュームのアラインメントが済むと、ランドマークを含んだ正事例を形成するために関心ランドマークの周囲のデータがクロッピングされ、負事例を形成するために訓練ボリュームの他の箇所がランダムにクロッピングされる。つぎに、正及び負の訓練事例のデータベースを使用することにより、カスケード型AdaBoost法を用いた判別分類子が学習される。実行時には、新たな全身ボリュームが走査され、分類子によって正として分類された窓が可能性のある検出結果として返される。検出された窓はまたそれらの応答に基づいてランク付けされ、最も応答値の高い窓が新たな全身ボリュームにおける検出されたランドマークである尤度が最も高い。
学習をベースとした方法を用いて検出されたランドマークは、特に構造の出現又は消滅がある場合には、顕著領域特徴よりも安定している。なぜならば、これらのランドマークは事前定義されたものであり、訓練プロセスがこれらのランドマークの近傍にある構造の変化をある程度吸収するからである。検出されたランドマークのロバストネスも保証され、また正負検出は粗密検出の実施とランドマーク間の幾何学的制約条件の利用とにより除くことができる。我々のこの研究では、訓練データとして46個の全身CTボリュームにおけるランドマークを手作業でラベル付けした。次に、重み付けアラインメントを用いてボリュームのアラインメントが行われ、正及び負の事例が収集され、カスケード型AdaBoost学習器に入力として与えられる。実行時には、14個のランドマークについて87%の平均検出率が得られる。そのあと、検出されたランドマークをGCCロバスト融合のためのコンテクスト特徴として使用することもできる。
VI. 実験研究
A. 方法
16個の全身CTボリューム対を用いて上記アルゴリズムの3D実施をテストすることにより、提案されたフレームワークの実行可能性の評価を行った。各対の2つのボリュームは異なる時点において同じ患者に対して行われたスキャンである。各対の間で同じスキャナプロトコルを使用した。512×512の体軸スライスのスタックによる元々のボリュームを128×128のスライスにダウンサンプリングした。各対のうちの一方を任意に選んで基準ボリュームとし、他方を浮動ボリュームとした。
A. 方法
16個の全身CTボリューム対を用いて上記アルゴリズムの3D実施をテストすることにより、提案されたフレームワークの実行可能性の評価を行った。各対の2つのボリュームは異なる時点において同じ患者に対して行われたスキャンである。各対の間で同じスキャナプロトコルを使用した。512×512の体軸スライスのスタックによる元々のボリュームを128×128のスライスにダウンサンプリングした。各対のうちの一方を任意に選んで基準ボリュームとし、他方を浮動ボリュームとした。
実際に実施してテストしたのは、提案されたアルゴリズムの以下の特定の構成である。各ボリュームについて、50個の顕著特徴が事前計算される:Nr=Nf=50。各対に対して、セクションII−Cで説明した特徴マッチングアルゴリズムが各クリックポイントcrに最も近い10個の特徴を基準特徴として実行される:M=10。
幾何学的ユークリッド距離と輝度ヒストグラムのカイ二乗距離の2つの相似関数が検討される。(1)セクションII−DのK=1のときの純粋な並進と、(2)セクションIV−AのK=2のときのスケーリング及び並進の場合について、2つのGCC解がテストされる。セクションII−Eに記載されているように両方のGCCを最適化するために、シングルVBMS法を使用する。
幾何学的ユークリッド距離と輝度ヒストグラムのカイ二乗距離の2つの相似関数が検討される。(1)セクションII−DのK=1のときの純粋な並進と、(2)セクションIV−AのK=2のときのスケーリング及び並進の場合について、2つのGCC解がテストされる。セクションII−Eに記載されているように両方のGCCを最適化するために、シングルVBMS法を使用する。
テストのために、セクションVに記載されているように、手作業でラベル付けした判別ランドマークを使用した。それぞれの人について、骨盤、肺、腎臓、及び鎖骨を含む重要な解剖学的ランドマークに散らばった14個のランドマークが存在した。各対について、基準ボリューム内のこれら14個の点をクリックポイントとして使用し、推定されたリンクcfと浮動ドメイン内のグラウンドトゥルースランドマークとの間のユークリッド誤差を計算した。その結果、全部で224(14個のランドマークに関して16人の患者)のテスト事例が得られた。GCCを用いてクリックポイントリンキングを行った後、テンプレートマッチングに基づいた精緻化により浮動ドメイン内の推定されたクリックポイントを精緻化することも考慮した。球形テンプレートのサイズは最大エントロピー基準を用いて自動的に評価した(例えば、非特許文献2参照)。
A. 結果と考察
図1は本発明の実験の結果を示したものである。誤差は対応するグラウンドトゥルースとR3における推定値との間のユークリッド距離として計算されている。左側の例のプロットでは、異なる複数のランドマークにわたって平均した16人の患者の関数として誤差が示されている。一方、右側のプロットでは、異なる複数の患者にわたって平均した14個のランドマークの関数として誤差が示されている。特徴対応マッチングのために、2つの相似関数を検討した。一方は平均バイアス調整付きの幾何学的ユークリッド距離であり、他方は幾何学的距離と輝度ヒストグラムのカイ二乗距離を用いた外観をベースとした距離との線形結合である。一番上の行には幾何学的距離に関する結果が示されている。トータルの平均誤差と中央誤差はそれぞれ4.23ボクセル、3.50ボクセルであった。次に、自動スケール選択を備えたテンプレートマッチングを使用してポストリファインメントを行った。その結果は真ん中の行に示されている。平均誤差と中央誤差はそれぞれ4.39、3.24であった。最後に、外観をベースにした相似性とポストリファインメントの結果が一番下の行に示されている。平均誤差と中央誤差はそれぞれ4.68、3.10であった。
図1は本発明の実験の結果を示したものである。誤差は対応するグラウンドトゥルースとR3における推定値との間のユークリッド距離として計算されている。左側の例のプロットでは、異なる複数のランドマークにわたって平均した16人の患者の関数として誤差が示されている。一方、右側のプロットでは、異なる複数の患者にわたって平均した14個のランドマークの関数として誤差が示されている。特徴対応マッチングのために、2つの相似関数を検討した。一方は平均バイアス調整付きの幾何学的ユークリッド距離であり、他方は幾何学的距離と輝度ヒストグラムのカイ二乗距離を用いた外観をベースとした距離との線形結合である。一番上の行には幾何学的距離に関する結果が示されている。トータルの平均誤差と中央誤差はそれぞれ4.23ボクセル、3.50ボクセルであった。次に、自動スケール選択を備えたテンプレートマッチングを使用してポストリファインメントを行った。その結果は真ん中の行に示されている。平均誤差と中央誤差はそれぞれ4.39、3.24であった。最後に、外観をベースにした相似性とポストリファインメントの結果が一番下の行に示されている。平均誤差と中央誤差はそれぞれ4.68、3.10であった。
全体的に、平均誤差は3〜5ボクセルの範囲内にあり、提案された方法の実行可能性を実証するものであった。この結果はまた、精度は患者に強く依存するが、ランドマークにはそれほど強く依存しないということも示している。目視での観察により、比較的大きな誤差(例えば、患者7及び14)は主に大量のミスマッチした特徴に起因する外れ値によって引き起こされていることが明らかになった。外観に基づいた相似とポストリファインメントの使用により精度は少しばかり改善された。しかし、この改善は小さく、実際には外れ値誤差をより悪化させたため、平均誤差は実際には悪化した。インライアー(inliers)については、ポストリファインメントを行った場合、平均誤差は3ボクセルよりも小さかった。
VII. 結論
本願はロバストクリックポイントリンキングの新しいフレームワークを開示している。クリックポイントリンキングは所与の関心点に対応する点を推定するための局所化された位置合わせとして解釈できる。変化する腫瘍のような視覚的に相似していない局所領域をリンクするロバストな解を導き出すために、我々は相似変換までのドメインマッピングのクラスのもとでリンク点の空間尤度を表すガウシアン混合分布に基づいた幾何構成コンテクストを提案した。可変帯域平均シフト法に基づいた最適解はマルチモーダル混合分布の1つのモードにおいてロバストかつ効率的にリンク点を見つけ出すために開示されている。我々の実験研究により、手作業でラベル付けした全身CTデータセットを用いる提案された手法の有望性が実証された。
本願はロバストクリックポイントリンキングの新しいフレームワークを開示している。クリックポイントリンキングは所与の関心点に対応する点を推定するための局所化された位置合わせとして解釈できる。変化する腫瘍のような視覚的に相似していない局所領域をリンクするロバストな解を導き出すために、我々は相似変換までのドメインマッピングのクラスのもとでリンク点の空間尤度を表すガウシアン混合分布に基づいた幾何構成コンテクストを提案した。可変帯域平均シフト法に基づいた最適解はマルチモーダル混合分布の1つのモードにおいてロバストかつ効率的にリンク点を見つけ出すために開示されている。我々の実験研究により、手作業でラベル付けした全身CTデータセットを用いる提案された手法の有望性が実証された。
開示されたロバストクリックポイントリンキングのフレームワークを実施すれば、前述の癌治療モニタリングのための長期3Dデータ調査における放射線医の典型的な作業の流れに忠実な直観的な図表的視覚化を用いた医用画像のブラウジングと分析のためのコンピュータ支援診断ツールが提供される。
典型的な医用画像/ボリュームブラウジングシステムは医用画像のうちの少なくとも一対を並べて視覚化する。このような視覚化方式により、さまざまな画像にわたって画像の任意の3D位置を位置指示子(例えば、マーカー、十字線)によって独立に指定することが可能になる。最終的に、ユーザはユーザ制御デバイス(例えば、マウス及びキーパッド)により制御される位置ロケータ(例えば、カーソル)を用いていつでも自由に選択した任意の画像の任意の箇所を探索及びブラウズすることができる。
ロバストクリックポイントリンキングはモニタに表示された複数の画像にわたって位置マーカー/十字線を結合する自動的方法を提供する。ユーザが特定の画像をアクティブにして、ブラウジング後に関心点を見つけた場合、ユーザはマウス制御されたカーソルを用いてその箇所をクリックすることができる。これが開示されたリンキングアルゴリズムを開始させ、このリンキングアルゴリズムが他の画像におけるマーカーを自動的に対応する箇所に定位させ、「粘着マーカー」と呼ばれうる作用を実現する。これにより、ユーザは手動でブラウズしなくても、リンクされたマーカーによって指定された対応する病変に直接赴き、分析することができる。このことが、対応する領域を見つけ出すために続く他の画像を手作業で再ブラウズする必要性をなくすことにより、ユーザ/放射線医の作業の流れを改善する。これらの粘着マーカーは異なる関心位置において次々とマウスをシングルクリックすること(すなわち、クリックアンドルック)により対話的な作業の流れを容易にする。
本明細書に記載された発明は、例えば、命令のプログラムをこの命令を実行することのできるマシーンによって読むことのできるコンピュータ可読プログラム記憶媒体上に有体的に実現することにより自動化してもよい。汎用コンピュータはこのようなマシーンの一例である。適切な記憶媒体の例は当該分野では周知であり、読み書き可能なCD、フラッシュメモリチップ(例えば、サムドライブ)、さまざまな磁気記憶媒体などのようなデバイスを含む。
以上、本発明の特徴を開示したが、さらなる変更形態は当業者には明らかである。このような変更形態のすべては添付した請求項の範囲内にあると考えられる。本発明の真の範囲を示すものは以上の明細書ではなく、添付した請求項が参照されなければならない。
Claims (20)
- 画像対の視覚的に相似していない局所領域をリンクする方法において、対象物の少なくとも第1及び第2のデジタル画像を取得するステップと、3Dランドマーク検出法を使用して第1のデジタル画像の一部と第2のデジタル画像の一部との間の対応を決定するステップとを有しており、前記第1の画像の一部はユーザ定義されたクリックポイントとしてユーザにより選択された関心点を含んでおり、前記第1の画像の一部は、その位置合わせの精度が第1の画像の他の部分における位置合わせの精度よりも高くなくてはならないような第1の画像内の箇所であり、前記対応は第1の画像内のユーザ定義されたクリックポイントと第2の画像内の所定の点との間の幾何学的関係を用いて決定される、ことを特徴とする方法。
- 前記3Dランドマーク検出法は学習をベースにした検出法であり、訓練データとして全身ボリュームをデータベースに収集するステップと、各訓練ボリュームについて関心ランドマークを手作業でラベル付けするステップと、所与の訓練ボリュームの関心ランドマークに他のランドマークよりも大きな重みを付与する重み付けアラインメントアルゴリズムを用いて訓練ボリュームをアラインするステップと、所与の訓練ボリュームの関心ランドマークの周囲のデータをクロッピングして前記関心ランドマークを含んだ正事例を形成するステップと、前記訓練ボリュームの他の箇所のデータをランダムにクロッピングして負事例を形成するステップと、前記正及び負の訓練事例から成るデータベースを用いて判別分類子を開発するステップと、ランドマークを検出するために対象物に対して新たな全身ボリューム走査を行うステップとを有しており、前記分類子により正として分類された窓が可能性のある検出結果として返され、検出された窓はその応答に基づいてランク付けされ、その中で最も応答の大きな窓は新たな全身ボリュームにおいて検出されたランドマークである尤度が最も高い、請求項1記載の方法。
- 前記3Dランドマーク検出法は、第1のデジタル画像についてスケール不変の顕著特徴の集合を計算するステップと、第2のデジタル画像についてスケール不変の顕著特徴の集合を計算するステップと、要素分布の平均と幅とを有するガウシアン混合分布から成る幾何構成コンテクスト(GCC)を第1のデジタル画像の顕著特徴と第2のデジタル画像の顕著特徴との間の対応に応じてモデル化するステップとから成る顕著領域検出法を含んでおり、前記GCCは第1の画像の中のユーザ定義されたクリックポイントに対応する第2のデジタル画像内の点の空間尤度を表すものである、請求項1記載の方法。
- 純粋な並進、スケーリング及び並進、ならびに相似変換から成る3つの変換クラスのうちの少なくとも1つについて、前記GCCモデルを導出する、請求項3記載の方法。
- 第1及び第2のデジタル画像の少なくとも一部の間の前記対応は、前記第1のデジタル画像内の第1の点と前記第2のデジタル画像内の第2の点との間の点ごとの対応を確立するステップを含む、請求項1記載の方法。
- 前記第1のデジタル画像内の第1の点と前記第2のデジタル画像内の第2の点との間の点ごとの対応を確立するステップを画像内の異なる複数の点について順次行う、請求項1記載の方法。
- 前記第1及び第2のデジタル画像を(a)コンピュータ断層撮影(CT)ボリューム、(b)磁気共鳴画像法(MRI)、又は(c)陽電子放射断層撮影法(PET)のうちの1つを用いて取得する、請求項1記載の方法。
- 一連のステップを実行する機械により実行可能な一連の命令を有体的に実現した機械可読記憶装置において、前記ステップは、対象物の少なくとも第1及び第2のデジタル画像を取得するステップと、3Dランドマーク検出法を使用して第1のデジタル画像の一部と第2のデジタル画像の一部との間の対応を決定するステップとを有しており、前記第1の画像の一部はユーザ定義されたクリックポイントとしてユーザにより選択された関心点を含んでおり、前記第1の画像の一部は、その位置合わせの精度が第1の画像の他の部分における位置合わせの精度よりも高くなくてはならないような第1の画像内の箇所であり、前記対応は第1の画像内のユーザ定義されたクリックポイントと第2の画像内の所定の点との間の幾何学的関係を用いて決定される、ことを特徴とする機械可読記憶装置。
- 前記3Dランドマーク検出法は学習をベースにした検出法であり、訓練データとして全身ボリュームをデータベースに収集するステップと、各訓練ボリュームについて関心ランドマークを手作業でラベル付けするステップと、所与の訓練ボリュームの関心ランドマークに他のランドマークよりも大きな重みを付与する重み付けアラインメントアルゴリズムを用いて訓練ボリュームをアラインするステップと、所与の訓練ボリュームの関心ランドマークの周囲のデータをクロッピングして前記関心ランドマークを含んだ正事例を形成するステップと、前記訓練ボリュームの他の箇所のデータをランダムにクロッピングして負事例を形成するステップと、前記正及び負の訓練事例から成るデータベースを用いて判別分類子を開発するステップと、ランドマークを検出するために対象物に対して新たな全身ボリューム走査を行うステップとを有しており、前記分類子により正として分類された窓が可能性のある検出結果として返され、検出された窓はその応答に基づいてランク付けされ、その中で最も応答の大きな窓は新たな全身ボリュームにおいて検出されたランドマークである尤度が最も高い、請求項8記載の機械可読記憶装置。
- 前記3Dランドマーク検出法は、第1のデジタル画像についてスケール不変の顕著特徴の集合を計算するステップと、第2のデジタル画像についてスケール不変の顕著特徴の集合を計算するステップと、要素分布の平均と幅とを有するガウシアン混合分布から成る幾何構成コンテクスト(GCC)を第1のデジタル画像の顕著特徴と第2のデジタル画像の顕著特徴との間の対応に応じてモデル化するステップとから成る顕著領域検出法を含んでおり、前記GCCは第1の画像の中のユーザ定義されたクリックポイントに対応する第2のデジタル画像内の点の空間尤度を表すものである、請求項8記載の機械可読記憶装置。
- 前記GCCモデルは、純粋な並進、スケーリング及び並進、ならびに相似変換から成る3つの変換クラスのうちの少なくとも1つについて導出される、請求項10記載の機械可読記憶装置。
- 第1及び第2のデジタル画像の少なくとも一部の間の前記対応は、前記第1のデジタル画像内の第1の点と前記第2のデジタル画像内の第2の点との間の点ごとの対応の確立を含む、請求項10記載の機械可読記憶装置。
- 前記第1のデジタル画像内の第1の点と前記第2のデジタル画像内の第2の点との間の点ごとの対応の確立は画像内の異なる複数の点について順次行われる、請求項12記載の機械可読記憶装置。
- 前記第1及び第2のデジタル画像は、(a)コンピュータ断層撮影(CT)ボリューム、(b)磁気共鳴画像法(MRI)、又は(c)陽電子放射断層撮影法(PET)のうちの1つを用いて取得される、請求項10記載の機械可読記憶装置。
- 医用画像データ対の間の空間的対応に高い自由度を実現するために医用画像データ対を位置合わせするシステムにおいて、該システムは、対象物の少なくとも第1及び第2のデジタル画像を取得する手段と、第1及び第2の医用画像を表すデータを記憶する手段と、3Dランドマーク検出法を使用して第1のデジタル画像の一部と第2のデジタル画像の一部との間の対応を決定する手段とを有しており、前記第1の画像の一部はユーザ定義されたクリックポイントとしてユーザにより選択された関心点を含んでおり、前記第1の画像の一部は、その位置合わせの精度が第1の画像の他の部分における位置合わせの精度よりも高くなくてはならないような第1の画像内の箇所であり、前記対応は第1の画像内のユーザ定義されたクリックポイントと第2の画像内の所定の点との間の幾何学的関係を用いて決定される、ことを特徴とする医用画像データ対を位置あわせするシステム。
- 3Dランドマーク検出法を実行する手段は学習をベースにした検出法を使用するものであり、該検出法は、訓練データとして全身ボリュームをデータベースに収集するステップと、各訓練ボリュームについて関心ランドマークを手作業でラベル付けするステップと、所与の訓練ボリュームの関心ランドマークに他のランドマークよりも大きな重みを付与する重み付けアラインメントアルゴリズムを用いて訓練ボリュームをアラインするステップと、所与の訓練ボリュームの関心ランドマークの周囲のデータをクロッピングして前記関心ランドマークを含んだ正事例を形成するステップと、前記訓練ボリュームの他の箇所のデータをランダムにクロッピングして負事例を形成するステップと、前記正及び負の訓練事例から成るデータベースを用いて判別分類子を開発するステップと、ランドマークを検出するために対象物に対して新たな全身ボリューム走査を行うステップとを有しており、前記分類子により正として分類された窓が可能性のある検出結果として返され、検出された窓はその応答に基づいてランク付けされ、その中で最も応答の大きな窓は新たな全身ボリュームにおいて検出されたランドマークである尤度が最も高い、請求項15記載のシステム。
- 3Dランドマーク検出法を使用する前記手段は、第1のデジタル画像についてスケール不変の顕著特徴の集合を計算するステップと、第2のデジタル画像についてスケール不変の顕著特徴の集合を計算するステップと、要素分布の平均と幅とを有するガウシアン混合分布から成る幾何構成コンテクスト(GCC)を第1のデジタル画像の顕著特徴と第2のデジタル画像の顕著特徴との間の対応に応じてモデル化するステップとから成る顕著領域検出法の使用を含んでおり、前記GCCは第1の画像の中のユーザ定義されたクリックポイントに対応する第2のデジタル画像内の点の空間尤度を表すものである、請求項1記載の方法。
- 前記GCCモデルは純粋な並進、スケーリング及び並進、ならびに相似変換から成る3つの変換クラスのうちの少なくとも1つについて導出される、請求項17記載のシステム。
- 第1及び第2のデジタル画像の少なくとも一部の間の前記対応は、前記第1のデジタル画像内の第1の点と前記第2のデジタル画像内の第2の点との間の点ごとの対応を確立することを含む、請求項16記載のシステム。
- 前記第1及び第2のデジタル画像は(a)コンピュータ断層撮影(CT)ボリューム、(b)磁気共鳴画像法(MRI)、又は(c)陽電子放射断層撮影法(PET)のうちの1つを用いて取得される、請求項16記載のシステム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US79250706P | 2006-04-17 | 2006-04-17 | |
US11/705,375 US7903857B2 (en) | 2006-04-17 | 2007-02-12 | Robust click-point linking with geometric configuration context: interactive localized registration approach |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007283108A true JP2007283108A (ja) | 2007-11-01 |
Family
ID=38604897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007108230A Withdrawn JP2007283108A (ja) | 2006-04-17 | 2007-04-17 | 画像の位置合わせを容易にするシステム及び方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US7903857B2 (ja) |
JP (1) | JP2007283108A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9235781B2 (en) | 2013-08-09 | 2016-01-12 | Kabushiki Kaisha Toshiba | Method of, and apparatus for, landmark location |
JP2018538010A (ja) * | 2015-06-24 | 2018-12-27 | レイサーチ ラボラトリーズ,エービー | 画像データをハンドリングするためのシステム及び方法 |
JP2019515382A (ja) * | 2016-05-04 | 2019-06-06 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 医療アトラス登録 |
US10588581B2 (en) | 2015-09-02 | 2020-03-17 | Fujitsu Limited | Cross-sectional image generating apparatus, cross-sectional image generating method, and recording medium |
JPWO2021182229A1 (ja) * | 2020-03-13 | 2021-09-16 | ||
JP2021149818A (ja) * | 2020-03-23 | 2021-09-27 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102005036998B4 (de) * | 2005-08-05 | 2014-11-20 | Siemens Aktiengesellschaft | Vorrichtung zur automatischen Detektion von Auffälligkeiten in medizinischen Bilddaten |
WO2012109641A2 (en) * | 2011-02-11 | 2012-08-16 | Emory University | Systems, methods and computer readable storage mediums storing instructions for 3d registration of medical images |
US8837813B2 (en) * | 2011-07-01 | 2014-09-16 | Sharp Laboratories Of America, Inc. | Mobile three dimensional imaging system |
US20130346182A1 (en) * | 2012-06-20 | 2013-12-26 | Yahoo! Inc. | Multimedia features for click prediction of new advertisements |
US9336457B2 (en) * | 2012-12-06 | 2016-05-10 | Siemens Medical Solutions Usa, Inc. | Adaptive anatomical region prediction |
US10496729B2 (en) * | 2014-02-25 | 2019-12-03 | Siemens Healthcare Gmbh | Method and system for image-based estimation of multi-physics parameters and their uncertainty for patient-specific simulation of organ function |
US9437004B2 (en) * | 2014-06-23 | 2016-09-06 | Google Inc. | Surfacing notable changes occurring at locations over time |
EP2989988B1 (en) * | 2014-08-29 | 2017-10-04 | Samsung Medison Co., Ltd. | Ultrasound image display apparatus and method of displaying ultrasound image |
CN109102543B (zh) * | 2018-08-17 | 2021-04-02 | 深圳蓝胖子机器智能有限公司 | 基于图像分割的物体定位方法、设备和存储介质 |
US11755948B2 (en) * | 2019-12-18 | 2023-09-12 | Google Llc | Attribution and generation of saliency visualizations for machine-learning models |
CN115642998B (zh) * | 2022-12-26 | 2023-03-28 | 浙大城市学院 | 一种毫米波频段联合通信与定位的导频分配方法 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6771262B2 (en) | 1998-11-25 | 2004-08-03 | Siemens Corporate Research, Inc. | System and method for volume rendering-based segmentation |
US6597801B1 (en) * | 1999-09-16 | 2003-07-22 | Hewlett-Packard Development Company L.P. | Method for object registration via selection of models with dynamically ordered features |
US7244230B2 (en) | 2002-11-08 | 2007-07-17 | Siemens Medical Solutions Usa, Inc. | Computer aided diagnostic assistance for medical imaging |
US7087018B2 (en) | 2002-11-13 | 2006-08-08 | Siemens Medical Solutions Usa, Inc. | System and method for real-time feature sensitivity analysis based on contextual information |
US7333644B2 (en) | 2003-03-11 | 2008-02-19 | Siemens Medical Solutions Usa, Inc. | Systems and methods for providing automatic 3D lesion segmentation and measurements |
CN100507928C (zh) | 2003-03-11 | 2009-07-01 | 美国西门子医疗解决公司 | 用于确保医学图像中计算机标记的人工审查的计算机辅助检测系统和方法 |
US7458936B2 (en) | 2003-03-12 | 2008-12-02 | Siemens Medical Solutions Usa, Inc. | System and method for performing probabilistic classification and decision support using multidimensional medical image databases |
US7308132B2 (en) | 2003-07-18 | 2007-12-11 | Siemens Medical Solutions Usa, Inc. | Method for robust scale-space analysis of 3D local structures in medical images |
US7634120B2 (en) | 2003-08-13 | 2009-12-15 | Siemens Medical Solutions Usa, Inc. | Incorporating spatial knowledge for classification |
US7616792B2 (en) | 2003-11-18 | 2009-11-10 | Siemens Medical Solutions Usa, Inc. | Scale selection for anisotropic scale-space: application to volumetric tumor characterization |
US7536044B2 (en) | 2003-11-19 | 2009-05-19 | Siemens Medical Solutions Usa, Inc. | System and method for detecting and matching anatomical structures using appearance and shape |
US20050201606A1 (en) | 2004-03-12 | 2005-09-15 | Kazunori Okada | 3D segmentation of targets in multislice image |
US7672491B2 (en) | 2004-03-23 | 2010-03-02 | Siemens Medical Solutions Usa, Inc. | Systems and methods providing automated decision support and medical imaging |
US7894647B2 (en) | 2004-06-21 | 2011-02-22 | Siemens Medical Solutions Usa, Inc. | System and method for 3D contour tracking of anatomical structures |
US7555151B2 (en) | 2004-09-02 | 2009-06-30 | Siemens Medical Solutions Usa, Inc. | System and method for tracking anatomical structures in three dimensional images |
US7421415B2 (en) | 2004-09-07 | 2008-09-02 | Siemens Corporate Research, Inc. | Methods and systems for 3D object detection using learning |
US7447359B2 (en) | 2004-09-07 | 2008-11-04 | Siemens Medical Solutions Usa, Inc. | System and method for anatomical structure parsing and detection |
US7430321B2 (en) | 2004-09-09 | 2008-09-30 | Siemens Medical Solutions Usa, Inc. | System and method for volumetric tumor segmentation using joint space-intensity likelihood ratio test |
US7558413B2 (en) | 2004-10-12 | 2009-07-07 | Siemens Medical Solutions USA, Inc, | Method for detecting polyps in a three dimensional image volume |
US7876934B2 (en) | 2004-11-08 | 2011-01-25 | Siemens Medical Solutions Usa, Inc. | Method of database-guided segmentation of anatomical structures having complex appearances |
US7583831B2 (en) | 2005-02-10 | 2009-09-01 | Siemens Medical Solutions Usa, Inc. | System and method for using learned discriminative models to segment three dimensional colon image data |
US7995809B2 (en) | 2005-04-18 | 2011-08-09 | Siemens Medical Solutions Usa, Inc. | Refined segmentation of nodules for computer assisted diagnosis |
-
2007
- 2007-02-12 US US11/705,375 patent/US7903857B2/en not_active Expired - Fee Related
- 2007-04-17 JP JP2007108230A patent/JP2007283108A/ja not_active Withdrawn
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9235781B2 (en) | 2013-08-09 | 2016-01-12 | Kabushiki Kaisha Toshiba | Method of, and apparatus for, landmark location |
JP2018538010A (ja) * | 2015-06-24 | 2018-12-27 | レイサーチ ラボラトリーズ,エービー | 画像データをハンドリングするためのシステム及び方法 |
US10588581B2 (en) | 2015-09-02 | 2020-03-17 | Fujitsu Limited | Cross-sectional image generating apparatus, cross-sectional image generating method, and recording medium |
JP2019515382A (ja) * | 2016-05-04 | 2019-06-06 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 医療アトラス登録 |
JPWO2021182229A1 (ja) * | 2020-03-13 | 2021-09-16 | ||
WO2021182229A1 (ja) * | 2020-03-13 | 2021-09-16 | 富士フイルム株式会社 | 画像生成装置およびプログラム、学習装置およびプログラム、並びに画像処理装置およびプログラム |
JP7513697B2 (ja) | 2020-03-13 | 2024-07-09 | 富士フイルム株式会社 | 画像生成装置およびプログラム、学習装置およびプログラム、並びに画像処理装置およびプログラム |
JP2021149818A (ja) * | 2020-03-23 | 2021-09-27 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
JP7395396B2 (ja) | 2020-03-23 | 2023-12-11 | 株式会社東芝 | 情報処理装置、情報処理方法およびプログラム |
Also Published As
Publication number | Publication date |
---|---|
US7903857B2 (en) | 2011-03-08 |
US20070242901A1 (en) | 2007-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2007283108A (ja) | 画像の位置合わせを容易にするシステム及び方法 | |
Zheng et al. | Fast automatic heart chamber segmentation from 3D CT data using marginal space learning and steerable features | |
Cheung et al. | $ n $-SIFT: $ n $-Dimensional Scale Invariant Feature Transform | |
US7916919B2 (en) | System and method for segmenting chambers of a heart in a three dimensional image | |
Ecabert et al. | Automatic model-based segmentation of the heart in CT images | |
Ma et al. | Hierarchical segmentation and identification of thoracic vertebra using learning-based edge detection and coarse-to-fine deformable model | |
Heimann et al. | Real-time ultrasound transducer localization in fluoroscopy images by transfer learning from synthetic training data | |
Zhuang | Challenges and methodologies of fully automatic whole heart segmentation: a review | |
Brejl et al. | Object localization and border detection criteria design in edge-based image segmentation: automated learning from examples | |
Giannarou et al. | Probabilistic tracking of affine-invariant anisotropic regions | |
Gao et al. | A coupled global registration and segmentation framework with application to magnetic resonance prostate imagery | |
Tran et al. | In defence of RANSAC for outlier rejection in deformable registration | |
Ma et al. | Hierarchical segmentation and identification of thoracic vertebra using learning-based edge detection and coarse-to-fine deformable model | |
Muenzing et al. | Supervised quality assessment of medical image registration: Application to intra-patient CT lung registration | |
Georgescu et al. | Real-time multi-model tracking of myocardium in echocardiography using robust information fusion | |
US20070172105A1 (en) | System and method for local pulmonary structure classification for computer-aided nodule detection | |
US8554016B2 (en) | Image registration system and method for registering images for deformable surfaces | |
Zheng et al. | Marginal space learning for efficient detection of 2D/3D anatomical structures in medical images | |
Ni et al. | Reconstruction of volumetric ultrasound panorama based on improved 3D SIFT | |
JP2008080132A (ja) | 高次元画像空間内の対象を検出するためのシステム及び方法 | |
Xiang et al. | CorteXpert: A model-based method for automatic renal cortex segmentation | |
Saygili et al. | Confidence estimation for medical image registration based on stereo confidences | |
Lu et al. | A hybrid multimodal non-rigid registration of MR images based on diffeomorphic demons | |
Donner12 et al. | Sparse MRF appearance models for fast anatomical structure localisation | |
Hong et al. | Database-guided simultaneous multi-slice 3D segmentation for volumetric data |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20100706 |