JP2018538010A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2018538010A5 JP2018538010A5 JP2017566113A JP2017566113A JP2018538010A5 JP 2018538010 A5 JP2018538010 A5 JP 2018538010A5 JP 2017566113 A JP2017566113 A JP 2017566113A JP 2017566113 A JP2017566113 A JP 2017566113A JP 2018538010 A5 JP2018538010 A5 JP 2018538010A5
- Authority
- JP
- Japan
- Prior art keywords
- region
- interest
- roi2
- target image
- img2
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000005457 optimization Methods 0.000 claims description 8
- 101700066110 img2 Proteins 0.000 claims 20
- 101700070114 img1 Proteins 0.000 claims 10
- 210000000056 organs Anatomy 0.000 claims 4
- 230000001131 transforming Effects 0.000 claims 3
- 230000000875 corresponding Effects 0.000 claims 1
Description
本発明のこの態様のさらに好ましい実施形態によれば、第2の関心領域は三角形メッシュによって表されると仮定する。ここで、非線形最適化アルゴリズムは、第2の関心領域と第1の平面との交点の組を計算することを含み、交点の組における各交点は、平均値座標を用いて交点の近傍に存在する8つのボクセル中心の凸結合によって計算される。非線形最適化アルゴリズムは、各計算された交点と第1の輪郭との間のユークリッド距離に二次元距離変換を適用することを含む。したがって、アルゴリズムは、第1の平面内のユーザにより定義される輪郭の3Dの態様を考慮に入れている。これは、提案されたシステムの効率及び正確度をさらに向上し得る。
Claims (14)
- 画像ハンドリングシステム(100)であって、
変形し得る物理エンティティのリファレンス画像(IMG13D)、前記物理エンティティのターゲット画像(IMG23D)、および前記リファレンス画像(IMG13D)の第1のボリュームを定義する第1の関心領域(ROI13D)を受信するように構成されたデータ処理ユニット(110)であって、前記第1のボリュームは、リファレンス画像要素を示し、前記リファレンス画像(IMG13D)、前記ターゲット画像(IMG23D)、および前記第1の関心領域(ROI13D)が、各々それぞれの三次元データセットを含む、データ処理ユニット(110)と、
ユーザコマンド(c1;c2)を受信するように構成された少なくとも1つのデータ入力ユニット(131、132)と、
前記リファレンス画像(IMG13D)、前記ターゲット画像(IMG23D)、および前記第1の関心領域(ROI13D)を反映するグラフィックデータ(GD)を提示するように構成されたディスプレイユニット(140)、
を備え、
さらに前記データ処理ユニット(110)が、
前記ユーザコマンド(c1;c2)に応答して、前記ターゲット画像(IMG23D)を介して第1の平面(P1)内の第1の輪郭(C12D)を定義するように構成され、前記第1の輪郭(C12D)は、前記ターゲット画像(IMG23D)のターゲット画像要素(IE3D)の第1の辺縁(IEB1)の少なくとも一部と位置合わせされ、前記ターゲット画像要素(IE3D)は、前記リファレンス画像(IMG13D)の前記リファレンス画像要素に対応し、前記ターゲット画像要素(IE3D)の前記第1の辺縁(IEB1)が特定の器官のアウトラインを示し、
前記ターゲット画像(IMG23D)の第2のボリュームを定義する第2の関心領域(ROI23D)を決定するように構成され、前記第2の関心領域(ROI23D)は、前記第1の輪郭(C12D)、前記ターゲット画像(IMG23D)、及び前記第1の関心領域(ROI13D)に基づいて決定され、かつ
前記第1の関心領域(ROI13D)と前記第2の関心領域(ROI23D)との関係性を記述するベクトルフィールド(VF1→2)を計算するように構成され、前記ベクトルフィールド(VF1→2)を介して前記第1の関心領域(ROI13D)を変換することによって前記第2の関心領域(ROI23D)を得ることができる、
画像ハンドリングシステム(100)。 - 前記データ処理ユニット(110)が、さらに
前記第1の関心領域(ROI13D)及び前記ベクトルフィールド(VF1→2)に基づいて前記第2の関心領域(ROI23D)を生成するように構成され、かつ
前記ディスプレイユニット(140)上に提示するためのグラフィックデータ(GP)を生成するように構成され、前記グラフィックデータ(GP)は、前記ターゲット画像(IMG23D)上にオーバーレイされた前記第2の関心領域(ROI23D)を反映する、
請求項1に記載の画像ハンドリングシステム(100)。 - 前記データ処理ユニット(110)が、
さらなるユーザコマンド(c1;c2)を受信し、これに応答して、前記ターゲット画像(IMG23D)を介して第2の平面(P2)内の第2の輪郭(C22D)を定義し、前記第2の輪郭(C22D)は、前記ターゲット画像(IMG23D)の前記ターゲット画像要素(IE3D)の第2の辺縁(IEB2)の少なくとも一部と位置合わせされ、前記ターゲット画像要素(IE3D)の前記第2の辺縁(IEB2)が、特定の器官のアウトラインを示し、かつ
前記第2の輪郭(C22D)に基づいて前記第2の関心領域(ROI23D)を決定する、
ようにさらに構成される、
請求項2に記載の画像ハンドリングシステム(100)。 - 前記データ処理ユニット(110)が、前記第1の輪郭(C12D)に適用された非線形最適化アルゴリズムおよび前記第2の関心領域(ROI23D)と前記第1の平面(P1)との交点に基づいて、前記第2の関心領域(ROI23D)を決定するように構成され、ここで前記非線形最適化アルゴリズムは、前記第1の輪郭(C12D)からの前記第2の関心領域(ROI23D)の偏差にペナルティを課すように構成される、
請求項1〜3のいずれか一項に記載の画像ハンドリングシステム(100)。 - 前記第2の関心領域(ROI23D)が三角形メッシュによって表され、
前記非線形最適化アルゴリズムが、
前記第2の関心領域(ROI23D)と前記第1の平面(P1)との交点の組を計算し、前記交点の組における各交点(V0)は、平均値座標を用いて前記交点(V0)の近傍に存在する8つのボクセル中心(V1、V2、V3、V4、V5、V6、V7、V8)の凸結合によって計算され、かつ
各計算された交点と前記第1の輪郭(C12D)との間のユークリッド距離に二次元距離変換を適用する、
ように構成される、
請求項4に記載の画像ハンドリングシステム(100)。 - 前記第2の関心領域(ROI23D)が三角形メッシュによって表され、
前記非線形最適化アルゴリズムが、
前記第2の関心領域(ROI23D)と前記第1の平面(P1)との交点の組を計算し、かつ前記交点の組における各交点に関して、
前記第2の関心領域(ROI23D)から前記第1の平面(P1)への法線投影を決定し、前記法線投影は所定の長さのインターバル内で延び、前記所定の長さ内で前記法線が前記第1の輪郭(C12D)と接触点で交わる場合、前記接触点は、更新された第2の関心領域の仮の限界点として含まれ、かつ
ストップ基準が満たされるまで、前記更新された第2の関心領域に基づいて前記決定するステップを繰り返す、
ように構成される、
請求項4に記載の画像ハンドリングシステム(100)。 - 画像をハンドリングする方法であって、
変形し得る物理エンティティのリファレンス画像(IMG13D)を受信するステップと、
前記物理エンティティのターゲット画像(IMG23D)を受信するステップと、
前記リファレンス画像(IMG13D)における第1のボリュームを定義する第1の関心領域(ROI13D)を受信するステップであって、前記第1のボリュームは、リファレンス画像要素を示し、前記リファレンス画像(IMG13D)、前記ターゲット画像(IMG23D)、および前記第1の関心領域(ROI13D)が、各々それぞれの三次元データセットを含む、ステップと、
少なくとも1つのデータ入力ユニット(131、132)を介してユーザコマンド(c1;c2)を受信するステップと、
ディスプレイユニット(140)上にグラフィックデータ(GD)を提示するステップであって、前記グラフィックデータ(GD)は、前記リファレンス画像(IMG13D)、前記ターゲット画像(IMG23D)、及び前記第1の関心領域(ROI13D)を反映する、ステップ
を含み、
さらに前記方法が、
前記ユーザコマンド(c1;c2)に応答して、前記ターゲット画像(IMG23D)を通る第1の平面(P1)内の第1の輪郭(C12D)を定義するステップであって、前記第1の輪郭(C12D)は、前記ターゲット画像(IMG23D)におけるターゲット画像要素(IE3D)の第1の辺縁(IEB1)の少なくとも一部と位置合わせされ、前記ターゲット画像要素(IE3D)は、前記リファレンス画像(IMG13D)における前記リファレンス画像要素に対応し、前記ターゲット画像要素(IE3D)の前記第1の辺縁(IEB1)が、特定の器官のアウトラインを示す、ステップと、
前記ターゲット画像(IMG23D)における第2のボリュームを定義する第2の関心領域(ROI23D)を決定するステップであって、前記第2の関心領域(ROI23D)は、前記第1の輪郭(C12D)、前記ターゲット画像(IMG23D)、及び前記第1の関心領域(ROI13D)に基づいて決定される、ステップと、および
前記第1の関心領域(ROI13D)と前記第2の関心領域(ROI23D)との関係性を記述するベクトルフィールド(VF1→2)を計算するステップであって、前記ベクトルフィールド(VF1→2)を介して前記第1の関心領域(ROI13D)を変換することによって前記第2の関心領域(ROI23D)を得ることができるステップ
をさらに含む、
方法。 - 前記第1の関心領域(ROI13D)及び前記ベクトルフィールド(VF1→2)に基づいて前記第2の関心領域(ROI23D)を生成するステップと、
前記ディスプレイユニット(140)上に提示するためのグラフィックデータ(GP)を生成するステップであって、前記グラフィックデータ(GP)は、前記ターゲット画像(IMG23D)上にオーバーレイされた前記第2の関心領域(ROI23D)を反映する、ステップ
をさらに含む、
請求項7に記載の方法。 - さらなるユーザコマンド(c1;c2)を受信するステップであって、これに応答して、前記ターゲット画像(IMG23D)を通る第2の平面(P2)内の第2の輪郭(C22D)を定義するステップと、前記第2の輪郭(C22D)は、前記ターゲット画像(IMG23D)における前記ターゲット画像要素(IE3D)の第2の辺縁(IEB2)の少なくとも一部と位置合わせされる、ステップと、および
前記第2の輪郭(C22D)にさらに基づいて前記第2の関心領域(ROI23D)を決定するステップであって、前記ターゲット画像要素(IE3D)の前記第2の辺縁(IEB2)が、特定の器官のアウトラインを示す、ステップ、
をさらに含む、
請求項7または請求項8に記載の方法。 - 前記第1の輪郭(C12D)に適用された非線形最適化アルゴリズム及び前記第2の関心領域(ROI23D)と前記第1の平面(P1)との交点に基づいて前記第2の関心領域(ROI23D)を決定するステップであって、前記非線形最適化アルゴリズムは、前記第1の輪郭(C12D)からの前記第2の関心領域(ROI23D)の偏差にペナルティを課すように構成される、ステップ、
をさらに含む、
請求項7〜請求項9のいずれか一項に記載の方法。 - 前記第2の関心領域(ROI23D)が三角形メッシュによって表され、かつ
前記方法が、
前記第2の関心領域(ROI23D)と前記第1の平面(P1)との交点の組を計算するステップであって、前記交点の組における各交点(V0)は、平均値座標を用いて前記交点(V0)の近傍に存在する8つのボクセル中心(V1、V2、V3、V4、V5、V6、V7、V8)の凸結合によって計算されるステップと、および
各計算された交点と前記第1の輪郭(C12D)との間のユークリッド距離に二次元距離変換を適用するステップ、
を含む、
請求項10に記載の方法。 - 前記第2の関心領域(ROI23D)が三角形メッシュによって表され、
前記方法が、
前記第2の関心領域(ROI23D)と前記第1の平面(P1)との交点の組を計算するステップと、
前記交点の組における各交点に関して、
前記第2の関心領域(ROI23D)から前記第1の平面(P1)への法線投影を決定するステップであって、前記法線投影は所定の長さのインターバル内で延び、前記所定の長さ内で前記法線が前記第1の輪郭(C12D)と接触点で交わる場合、前記接触点は、更新された第2の関心領域の仮の限界点として含まれる、ステップと、
ストップ基準が満たされるまで、前記更新された第2の関心領域に基づいて前記決定するステップを繰り返すステップ、
を含む、
請求項10に記載の方法。 - 少なくとも1つのプロセッサ上で実行されるときに請求項7〜請求項12のいずれか一項に記載の方法を行うためのソフトウェアを含む、前記少なくとも1つのプロセッサのメモリ(115)にロード可能なコンピュータプログラム製品(SW)。
- 少なくとも1つのプロセッサによって実行されるときに前記少なくとも1つのプロセッサに請求項7〜請求項12のいずれか一項に記載の方法を行わせる命令を含む、プロセッサ可読媒体(115)。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EPEP15173679.0 | 2015-06-24 | ||
EP15173679.0A EP3109824B1 (en) | 2015-06-24 | 2015-06-24 | System and method for handling image data |
PCT/EP2016/064516 WO2016207271A1 (en) | 2015-06-24 | 2016-06-23 | System and method for handling image data |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018538010A JP2018538010A (ja) | 2018-12-27 |
JP2018538010A5 true JP2018538010A5 (ja) | 2019-11-14 |
JP6620172B2 JP6620172B2 (ja) | 2019-12-11 |
Family
ID=53488246
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017566113A Active JP6620172B2 (ja) | 2015-06-24 | 2016-06-23 | 画像データをハンドリングするためのシステム及び方法 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10467761B2 (ja) |
EP (1) | EP3109824B1 (ja) |
JP (1) | JP6620172B2 (ja) |
CN (1) | CN107924565B (ja) |
WO (1) | WO2016207271A1 (ja) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3441936B1 (de) * | 2017-08-11 | 2021-04-21 | Siemens Healthcare GmbH | Verfahren zur auswertung von bilddaten eines patienten nach einem minimalinvasiven eingriff, auswerteeinrichtung, computerprogramm und elektronisch lesbarer datenträger |
EP3756728A1 (en) * | 2019-06-24 | 2020-12-30 | Vision RT Limited | Patient motion tracking system configured for automatic roi generation |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7903857B2 (en) * | 2006-04-17 | 2011-03-08 | Siemens Medical Solutions Usa, Inc. | Robust click-point linking with geometric configuration context: interactive localized registration approach |
EP2036037B1 (en) * | 2006-05-18 | 2013-04-17 | Resonant Medical Inc. | Methods and systems for segmentation using boundary reparameterization |
EP2081494B1 (en) * | 2006-11-16 | 2018-07-11 | Vanderbilt University | System and method of compensating for organ deformation |
WO2009052497A2 (en) * | 2007-10-18 | 2009-04-23 | The University Of North Carolina At Chapel Hill | Methods, systems, and computer readable media for mapping regions in a model of an object comprising an anatomical structure from one image data set to images used in a diagnostic or therapeutic intervention |
SG182591A1 (en) * | 2010-01-22 | 2012-08-30 | Univ Vanderbilt | System and method for correcting data for deformations during image-guided procedures |
US8805035B2 (en) * | 2010-05-03 | 2014-08-12 | Mim Software, Inc. | Systems and methods for contouring a set of medical images |
US9996929B2 (en) * | 2010-10-27 | 2018-06-12 | Varian Medical Systems International Ag | Visualization of deformations using color overlays |
WO2012069965A1 (en) | 2010-11-23 | 2012-05-31 | Koninklijke Philips Electronics N.V. | Interactive deformation map corrections |
US9245336B2 (en) * | 2010-12-15 | 2016-01-26 | Koninklijke Philips N.V. | Contour guided deformable image registration |
EP2686831A1 (en) * | 2011-03-15 | 2014-01-22 | Koninklijke Philips N.V. | Correlated image mapping pointer |
US8520923B2 (en) * | 2011-08-06 | 2013-08-27 | Carestream Health, Inc. | Reporting organ volume for a medical digital image |
CN102629391A (zh) * | 2012-02-28 | 2012-08-08 | 华北水利水电学院 | 基于数字图形介质的三维空间结构图形切割及切片方法 |
US8824733B2 (en) * | 2012-03-26 | 2014-09-02 | Tk Holdings Inc. | Range-cued object segmentation system and method |
CN103356218B (zh) * | 2012-03-31 | 2015-06-24 | 上海西门子医疗器械有限公司 | 一种x射线计算机断层扫描方法和系统 |
EP2648160B1 (en) * | 2012-04-03 | 2017-03-08 | Intrasense | Topology-preserving ROI remapping method between medical images |
US10388020B2 (en) * | 2012-04-11 | 2019-08-20 | The Trustees Of Columbia University In The City Of New York | Methods and systems for segmentation of organs and tumors and objects |
US10354377B2 (en) * | 2012-04-11 | 2019-07-16 | The Trustees Of Columbia University In The City Of New York | Techniques for segmentation of lymph nodes, lung lesions and other solid or part-solid objects |
US10178955B2 (en) * | 2012-08-06 | 2019-01-15 | Vanderbilt University | Enhanced method for correcting data for deformations during image guided procedures |
CN102968822A (zh) * | 2012-08-23 | 2013-03-13 | 华南理工大学 | 一种基于图论的三维医学图像的分割方法 |
KR102123061B1 (ko) * | 2012-11-27 | 2020-06-16 | 삼성전자주식회사 | 사용자의 인터랙션을 기반으로 영상 내의 윤곽선을 분할하는 장치 및 방법 |
CN103236058B (zh) * | 2013-04-25 | 2016-04-13 | 内蒙古科技大学 | 获取四维心脏图像感兴趣体积的方法 |
JP6182045B2 (ja) * | 2013-10-11 | 2017-08-16 | キヤノン株式会社 | 画像処理装置およびその方法 |
JP6489800B2 (ja) * | 2014-01-16 | 2019-03-27 | キヤノン株式会社 | 画像処理装置、画像診断システム、画像処理方法およびプログラム |
CN104490413A (zh) * | 2014-12-05 | 2015-04-08 | 杭州市肿瘤医院 | 一种体外定位标以及应用该定位标的定位配准方法 |
CN104408734B (zh) * | 2014-12-11 | 2017-10-27 | 山东师范大学 | 联合图像分割与形变配准技术的自适应目标区域转换方法 |
CN104599268A (zh) * | 2015-01-06 | 2015-05-06 | 广州医科大学附属肿瘤医院 | 一种联合点配准的局部区域精确变形配准算法 |
CN104637056B (zh) * | 2015-02-02 | 2018-02-23 | 复旦大学 | 基于稀疏表示的医学ct图像肾上腺肿瘤分割方法 |
US11449208B2 (en) * | 2017-07-06 | 2022-09-20 | Varian Medical Systems International Ag | Interactive and intuitive method to shape 3D dose distribution during optimization of IMRT plans |
-
2015
- 2015-06-24 EP EP15173679.0A patent/EP3109824B1/en active Active
-
2016
- 2016-06-23 US US15/738,891 patent/US10467761B2/en active Active
- 2016-06-23 CN CN201680037212.4A patent/CN107924565B/zh active Active
- 2016-06-23 WO PCT/EP2016/064516 patent/WO2016207271A1/en active Application Filing
- 2016-06-23 JP JP2017566113A patent/JP6620172B2/ja active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3139589B1 (en) | Image processing apparatus and image processing method | |
US9215382B1 (en) | Apparatus and method for data fusion and visualization of video and LADAR data | |
JP7403528B2 (ja) | シーンの色及び深度の情報を再構成するための方法及びシステム | |
KR101560508B1 (ko) | 3차원 이미지 모델 조정을 위한 방법 및 장치 | |
RU2016120724A (ru) | Способ и устройство для отображения медицинских изображений | |
WO2016165209A1 (zh) | 一种三维图像的裁剪方法 | |
JP2005531352A5 (ja) | ||
KR20100000671A (ko) | 영상 처리 방법 | |
JP6911123B2 (ja) | 学習装置、認識装置、学習方法、認識方法及びプログラム | |
JP6935786B2 (ja) | 幾何変換行列推定装置、幾何変換行列推定方法、及びプログラム | |
CN110910507A (zh) | 计算机实现方法、计算机可读介质和用于混合现实的系统 | |
JP2017021759A (ja) | 画像処理装置、画像処理方法及びプログラム | |
US20150130804A1 (en) | Shape data generation method and apparatus | |
KR20220008466A (ko) | 3차원 점군 데이터의 메쉬 생성 방법 및 장치 | |
JP5571128B2 (ja) | 計測支援装置、方法及びプログラム | |
CN111145328B (zh) | 三维文字表面纹理坐标计算方法、介质、设备及装置 | |
JP2018500082A5 (ja) | ||
JP2018538010A5 (ja) | ||
US8902217B2 (en) | Image generating method | |
JP2016126673A (ja) | 情報処理装置及びその制御方法、並びに、ビデオカメラ | |
JP2020126208A5 (ja) | ||
JP6719945B2 (ja) | 情報処理装置、情報処理方法、情報処理システム及びプログラム | |
US11107267B2 (en) | Image generation apparatus, image generation method, and program | |
EP3059663B1 (en) | A method and a system for interacting with virtual objects in a three-dimensional space | |
JP2013069026A (ja) | 被写体の3次元形状を復元する装置、方法およびプログラム |