JP6312898B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents
情報処理装置、情報処理方法及びプログラム Download PDFInfo
- Publication number
- JP6312898B2 JP6312898B2 JP2017083692A JP2017083692A JP6312898B2 JP 6312898 B2 JP6312898 B2 JP 6312898B2 JP 2017083692 A JP2017083692 A JP 2017083692A JP 2017083692 A JP2017083692 A JP 2017083692A JP 6312898 B2 JP6312898 B2 JP 6312898B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- deformation
- information processing
- subject
- information indicating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 230000010365 information processing Effects 0.000 title claims description 173
- 238000003672 processing method Methods 0.000 title claims description 20
- 238000005259 measurement Methods 0.000 claims description 57
- 238000003384 imaging method Methods 0.000 claims description 34
- 230000008859 change Effects 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 238000012879 PET imaging Methods 0.000 claims 2
- 238000013170 computed tomography imaging Methods 0.000 claims 2
- 238000000034 method Methods 0.000 description 116
- 239000013598 vector Substances 0.000 description 91
- 238000009826 distribution Methods 0.000 description 77
- 230000008569 process Effects 0.000 description 73
- 230000003902 lesion Effects 0.000 description 60
- 238000004364 calculation method Methods 0.000 description 58
- 238000002595 magnetic resonance imaging Methods 0.000 description 54
- 238000004088 simulation Methods 0.000 description 47
- 230000006870 function Effects 0.000 description 23
- 239000000523 sample Substances 0.000 description 23
- 238000002604 ultrasonography Methods 0.000 description 23
- 238000010586 diagram Methods 0.000 description 19
- 239000000203 mixture Substances 0.000 description 11
- 238000003860 storage Methods 0.000 description 10
- 210000000481 breast Anatomy 0.000 description 9
- 239000002131 composite material Substances 0.000 description 7
- 230000015572 biosynthetic process Effects 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 6
- 238000003786 synthesis reaction Methods 0.000 description 6
- 230000007246 mechanism Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000012285 ultrasound imaging Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 238000001225 nuclear magnetic resonance method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 210000000062 pectoralis major Anatomy 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 210000002307 prostate Anatomy 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 210000004872 soft tissue Anatomy 0.000 description 1
- 238000002945 steepest descent method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Quality & Reliability (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Magnetic Resonance Imaging Apparatus (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
Description
例えば、下記の特許文献1では、X線CT等の三次元画像上で指摘した病変部の位置に関する情報を超音波断層画像上に重畳表示することで、超音波断層画像上における対応病変部の探索を支援している。具体的に、特許文献1では、三次元画像と超音波断層画像との位置合わせを行うことで三次元画像の空間における超音波断層画像の位置を得て、注目病変部が超音波断面に交わる場合にその境界線からなる領域を超音波断層画像上に描画する。これにより、注目病変部に対応する超音波断層画像中の対応病変部の探索が容易になる。
また、本発明は、上述の誤差が正確に予測できない場合でも、ユーザが効率的に対応病変部を同定できるようにすることを第2の目的とする。
また、本発明は、上述した情報処理装置による情報処理方法、及び、当該情報処理方法をコンピュータに実行させるためのプログラムを含む。
第1の実施形態に係る情報処理システムは、三次元画像データ等の参照画像中の注目領域に対応する領域が存在する確率の分布(以下、「存在確率分布」と称する)を、実時間で撮影している超音波断層画像等の対象画像中に表示する。注目領域が注目病変部である場合、これに対応する領域は対応病変部である。そうすることで、医師及び技師等の操作者が超音波断層画像上で対応領域を容易に探索して同定できるようにする。
図1に示すように、本実施形態における情報処理装置100には、断層画像取得部110、位置姿勢取得部112、三次元画像データ取得部120、注目領域取得部122、断面画像生成部130、分布取得部135、画像合成部140及び表示制御部150が含まれる。また、情報処理装置100は、データサーバ190及び第2医用画像収集装置180に接続されている。データサーバ190は、三次元画像データ及び後に記述する誤差要因情報等を保持する。また、第2医用画像収集装置180は、例えば超音波画像診断装置であり、被検体の超音波断層画像を撮像する。
データサーバ190が保持する三次元画像データは、第1医用画像収集装置170によって被検体を予め撮像して得られた画像である。以下の説明では、第1医用画像収集装置170としてMRI装置が用いられることとするが、第1医用画像収集装置170としては、他にX線CT装置等が用いられてもよい。本実施形態では、三次元画像データは、三次元のボクセルに輝度値を格納した三次元ボリュームデータとして表現されているものとする。また、各ボクセルの座標はMRI装置座標系で表現されているものとする。データサーバ190が保持する三次元画像データは、三次元画像データ取得部120により取得され、情報処理装置100に入力される。
更に、データサーバ190は、三次元画像データ中の注目領域を表す情報を保持している。この注目領域を表す情報の詳細については後述する。データサーバ190が保持する注目領域を表す情報は、注目領域取得部122により取得され、情報処理装置100に入力される。なお、以下の説明では、注目領域を表す情報も、三次元画像データと同様にMRI装置座標系で表されているものとする。また、データサーバ190は、対応領域の存在確率分布を算出するための情報を保持している。この対応領域の存在確率分布を算出するための情報は誤差要因情報であり、その詳細については後述する。データサーバ190が保持する誤差要因情報は、分布取得部135を介して情報処理装置100に入力される。
超音波画像診断装置等の第2医用画像収集装置180は、被検体の超音波断層画像を実時間で撮像する。超音波断層画像は、断層画像取得部110により取得され、情報処理装置100に逐次入力される。また、超音波探触子の位置姿勢は不図示の位置姿勢センサで計測され、位置姿勢取得部112により取得されて、情報処理装置100に入力される。ここで、超音波探触子の位置姿勢は、例えば被検体を基準とした基準座標系における位置姿勢で表されている。また、位置姿勢取得部112は、基準座標系における超音波探触子の位置姿勢を取得して、これに基づいてMRI装置座標系における超音波断層画像の位置姿勢を算出する。
分布取得部135は、注目領域取得部122が取得した注目領域を表す情報と、位置姿勢取得部112が取得した超音波断層画像の位置姿勢とに基づいて、注目領域に対応する領域、即ち対応領域を超音波座標系上で推定する。ここで、超音波座標系とは、超音波断層画像を基準とした三次元座標系であり、例えば、該断層画像上の1点を原点として、該断層画像の平面上にx軸及びy軸を設定し、該平面に直交する方向にz軸を設定した座標系として定義できる。そして、分布取得部135は、この推定した対応領域と、データサーバ190から取得する誤差要因情報とに基づいて、超音波断層画像上における対応領域の存在確率分布を算出する。
断面画像生成部130は、三次元画像データ取得部120の出力である三次元ボリュームデータ、及び位置姿勢取得部112の出力である超音波断層画像の位置姿勢を入力する。そして、断面画像生成部130は、これらのデータに基づいて、超音波断層画像に対応する断面画像を三次元ボリュームデータから生成して、画像合成部140へと出力する。画像合成部140は、対応病変部の存在確率分布示す情報を分布取得部135から取得して、断層画像取得部110から取得した超音波断層画像上に重畳して描画する。更に、画像合成部140は、その画像と断面画像生成部130から取得した断面画像とを合成した合成画像、例えば、これらを左右に並べた合成画像を生成して、これを表示制御部150又は外部へと出力する。表示制御部150は、画像合成部140の出力である合成画像を取得し、これを表示部160に表示する。
図2は、断層画像取得部110、位置姿勢取得部112、三次元画像データ取得部120、注目領域取得部122、断面画像生成部130、分布取得部135、画像合成部140、表示制御部150の夫々の機能を、ソフトウェアを実行することで実現するためのコンピュータの基本構成を示す図である。
このフローチャートに示す処理は、本実施形態ではCPU1001が各部の機能を実現するプログラムを実行することにより実現される。なお、以下の処理を行う前段で、図3に示すフローチャートに従ったプログラムコードは、例えば外部記憶装置1007からRAM1002に既にロードされているものとする。
ステップS1000において、情報処理装置100は、三次元画像データ取得部120の処理として、データサーバ190から三次元画像データを取得する。また、情報処理装置100は、注目領域取得部122の処理として、データサーバ190から注目領域を表す情報を取得する。ここで、注目領域を表す情報とは、例えば、注目病変部の位置や、注目病変部の領域境界に位置する点群の座標である。注目病変部の位置としては、例えば領域の重心位置が用いられる。
ステップS1010において、情報処理装置100は、分布取得部135の処理として、存在確率分布の算出に用いる各種の誤差要因情報をデータサーバ190から取得する。例えば、情報処理装置100は、超音波探触子の位置姿勢を計測する位置姿勢センサの種別(例えば、センサA,センサBなど)を表す情報を、誤差要因情報としてデータサーバ190から取得する。
ステップS1020において、情報処理装置100は、断層画像取得部110の処理として、第2医用画像収集装置180から超音波断層画像を取得する。また、情報処理装置100は、位置姿勢取得部112の処理として、上記超音波断層画像を撮像した際の超音波探触子の位置姿勢を第2医用画像収集装置180から取得する。そして、情報処理装置100は、既知の値として予め記憶している校正データを利用して、基準座標系における超音波探触子の位置姿勢から、MRI装置座標系における超音波断層画像の位置姿勢を算出する。
ステップS1040において、情報処理装置100は、断面画像生成部130の処理として、ステップS1020で得た超音波断層画像に対応する参照画像の断面画像を生成する。具体的には、情報処理装置100は、ステップS1020で得た超音波断層画像の位置姿勢に基づき、ステップS1000で得た三次元ボリュームデータから該超音波断層画像と同じ断面を切り出した断面画像を生成する。
ステップS1050において、情報処理装置100は、分布取得部135の処理として、ステップS1020で得た超音波断層画像上における対応領域の存在確率分布を算出する。
ステップS1060において、情報処理装置100は、画像合成部140の処理として、ステップS1050で算出した超音波断層画像上における対応病変部の存在確率分布を表す情報を、当該超音波断層画像上に重畳して描画する。例えば、情報処理装置100は、ステップS1050で算出した同心円のラインを超音波断層画像上に描画する。このとき、夫々の円のラインの線種を、円が表す確率に応じて変更するようにすることが好ましい。例えば、線の太さ、色、濃度、実線か点線か(点の間隔)を変更してもよい。また、それぞれの円の近傍に、対応する球の内部に対応病変部が存在する確率(前述の例では90%、95%、98%、99.5%)を表示するようにしてもよい。また、球と球との間の領域に対応病変部が存在する確率(すなわち、内側の球との確率の差分)を求めて表示するようにしてもよい。この場合、それぞれの円に表示される値は、前述の例では90%、5%、3%、1.5%となる。本ステップの処理の結果として、図4に示すような、対応病変部401の存在確率分布402を超音波断層画像403上に重畳した画像が生成される。なお、ステップS1050における所定の閾値を、分布の標準偏差に基づく値(例えば、σ、1.5σ、2σ、2.5σ、3σなど)に設定しておいて、夫々を表す文字情報(すなわち、「σ」、「2σ」など)を夫々の円の近傍に表示するようにしてもよい。図4の例では複数の確率を表わす複数の円が描かれているが、これに限らず、ある特定の確率、例えば90%の確率を示す円のみを超音波断層画像403に重畳して表示させることとしてもよい。
ステップS1070において、情報処理装置100は、画像合成部140の処理として、ステップS1040で得た断面画像と、ステップS1060で得た画像とを合成する。例えば、情報処理装置100は、これらの画像を左右に並べた画像を生成する。そして、情報処理装置100は、表示制御部150の処理として、合成した画像を表示部160に表示する。また、必要に応じて、情報処理装置100は、I/F1009を介してこれを外部へと出力し、更に、他のアプリケーションから利用可能な状態としてRAM1002上に格納する。
ステップS1080において、情報処理装置100は、全体の処理を終了するか否かの判定を行う。例えば、情報処理装置100は、キーボード1004の所定のキー(終了キー)を操作者が押すなどして入力した終了の指示を取得する。終了すると判定した場合には、情報処理装置100の処理の全体を終了させる。一方、終了すると判定しなかった場合には、ステップS1010へと処理を戻し、新たに撮像される超音波断層画像に対して、ステップS1010以降の処理を再度実行する。
次に、第1の実施形態の変形例について説明する。上記の第1の実施形態の説明では、対応領域の推定位置を中心として正規分布に従って存在確率が分布すると仮定しているが、この存在確率は正規分布に従っていなくてもよい。例えば、対応病変部の存在確率が空間中の任意の分布として与えられている場合でも、同様の表示を行うことができる。この場合、例えば、分布取得部135が領域内の存在確率の積分値が所定の値となるような領域の中から、体積が最小となる領域を選択するようにすればよい。これにより、存在確率の分布に偏りがある場合であっても、分布の偏りを断層画像に重畳して表示させるため、病変の位置をより効率的に特定することができる。
次に、本発明の第2の実施形態について説明する。第1の実施形態に係る情報処理システムは、三次元画像データ撮影時の被検体の形状と、超音波撮影時の被検体の形状とは変化していない(剛体である)と仮定して処理を行う。そして、被検体に対する超音波探触子の位置姿勢を計測することで、超音波座標系における注目領域の対応領域の存在確率分布を推定する。これに対し、第2の実施形態に係る情報処理システムは、三次元画像データ撮影時の被検体の形状から超音波撮影時の被検体の形状への変形を推定して対応領域を求める場合に、その変形推定の曖昧さを考慮することによって、対応領域の存在確率分布を推定する。以下、第2の実施形態に係る情報処理システムについて、第1の実施形態と相違する部分を中心にして説明する。
ステップS6000において、情報処理装置500は、第1の実施形態におけるステップS1000と同様の処理を行い、三次元画像データと注目領域を表す情報を取得する。また、情報処理装置500は、形状取得部527の処理として、形状計測装置585から被検体の表面形状データを取得する。
ステップS6005において、情報処理装置500は、変形推定部528の処理として、ステップS6000で取得した表面形状データに基づいて被検体の変形状態を推定する。例えば、情報処理装置500は、特開2011−092263号公報に記載の変形推定方法を用いて、三次元画像データから被検体の変形モデルを生成し、これを該形状データにあてはめることでその変形パラメータを推定する。また、情報処理装置500は、この推定の工程で生成される異なるパラメータによる変形シミュレーション結果の夫々を、分布取得部535へと出力する。更に、情報処理装置500は、推定した変形パラメータに基づいて、三次元画像データを超音波撮影時の被検体の形状へと変形させた変形三次元画像を生成する。
ステップS6015において、情報処理装置500は、分布取得部535の処理として、複数の変形シミュレーションによって変位した対応領域のばらつきに基づいて、三次元空間中における対応領域の存在確率分布を算出する。具体的には、情報処理装置500は、先ず、ステップS6005で求めた変形シミュレーション結果の夫々における変形後の対応領域を算出する。そして、情報処理装置500は、夫々の対応領域に、ステップS6005で推定した対応領域からの距離に応じた重み、例えば近いほど大きくなるような重みを、総計が1となるように付与する。そして、推定した対応領域からの距離が近いものを順に選び、その重みの和が所定の値(例えば、0.9,0.95,0.98,0.995)となるような領域を導出する。
ステップS6020において、情報処理装置500は、第1の実施形態におけるステップS1020と同様の処理を行い、超音波断層画像及びその位置姿勢を取得する。
ステップS6040において、情報処理装置500は、断面画像生成部530の処理として、ステップS6020で得た超音波断層画像に対応する変形三次元画像の断面画像を生成する。
ステップS6050において、情報処理装置500は、分布取得部535の処理として、超音波断層画像上における対応領域の存在確率分布を算出する。具体的には、情報処理装置500は、ステップS6015で算出した三次元空間中における対応領域の存在確率分布を超音波断面で切り取ることによって、二次元平面上における対応領域の存在確率分布を算出する。
次に、本発明の第3の実施形態について説明する。第1の実施形態に係る情報処理システムは、対応病変部の存在確率分布を表示する方法として、存在確率分布の積分値が所定の値となるような同心球を表示する。これに対し、第3の実施形態では、断層画像上の各画素における対応病変部の存在確率をそのまま重畳表示する。以下、第3の実施形態に係る情報処理システムについて、第1の実施形態と相違する部分を中心にして説明する。
ステップS1050において、情報処理装置100は、分布取得部135の処理として、第1の実施形態と同様な処理を行い、対応病変の存在確率分布を得る。ここで、分布を表わす関数を得る処理までは第1の実施形態と同様であるが、本実施形態では、第1の実施形態で求めたような同心球やその断面としての同心円の算出は実行しない。その代わりに、情報処理装置100は、超音波断層画像上の夫々の画素の位置における対応病変の存在確率を計算する。なお、第1の実施形態と同様な同心円を求める処理を、更に実行するようにしてもよい。
ステップS1060において、情報処理装置100は、画像合成部140の処理として、ステップS1050で算出した対応病変部の存在確率分布を表す情報を、超音波断層画像の夫々の画素上に重畳して描画する。例えば、情報処理装置100は、存在確率の値の変化に従って、画素に重畳する色を変化させる。より具体的には、情報処理装置100は、存在確率の値が大きくなるに従って、画素に重畳する色を薄くする。また、存在確率の等高線(等確率線)を所定の値について求め、これを断層画像上に重畳表示するようにしてもよい。なお、ステップS1050の処理において第1の実施形態と同様な同心円を求める処理を実行している場合には、第1の実施形態におけるステップS1060と同様な表示をあわせて行ってもよい。
本実施形態に係る情報処理装置は、うつ伏せの状態で被検体の乳房を撮影したMRI画像(MRI装置で撮影した画像)と、仰向けの状態で被検体の乳房を撮影した超音波画像(超音波画像撮影装置で撮影した画像)とを対応付けて観察できるようにする。そして、本実施形態に係る情報処理装置では、MRI画像中に描出される病変部などの注目領域と対応する超音波画像中における領域を超音波画像中に表示する。ここで、超音波画像中における領域は、上述した対応付けの誤差に起因する曖昧さを含む領域である。本実施形態に係る情報処理装置では、上述した対応付けの際に生じる誤差の範囲を推定し、当該誤差により超音波画像中における領域の変動範囲(注目領域が存在するであろう範囲)を算出する。これにより、本実施形態では、MRI画像中の注目領域に対応する部位の超音波画像中における存在範囲を提示できるようにする。
本実施形態に係る情報処理システムは、図7に示すように、情報処理装置1100−1、MRI画像撮影装置1110、データサーバ1120、形状計測装置1130、位置姿勢計測装置1140、超音波画像撮影装置1150、及び、モニタ1160を備えている。
この情報処理装置1100−1は、図7に示すように、データサーバ1120、形状計測装置1130、位置姿勢計測装置1140、超音波画像撮影装置1150、及び、モニタ1160に接続されている。
図8に示す情報処理システムでは、図7に示す処理システムに対して、マウス1170、及び、キーボード1180が追加されている。
ステップS300において、図7のMRI画像取得部2001は、MRI画像撮影装置1110が被検体を撮影した3次元のMRI画像をデータサーバ1120から取得する。本実施形態におけるMRI画像は、うつ伏せの状態の被検体の乳房を撮影した画像である場合を例として説明する。
ステップS310において、図7の注目領域取得部2002は、被検体内部における病変などの注目領域の位置に関する情報(座標値)をデータサーバ1120から取得する。本実施形態では、注目領域は、被検体内部の病変の中心の位置を表す点である場合を例として説明する。以下では、前記病変の中心の位置を表す点のMRI画像座標系を基準とした位置座標値をpと表記する。つまり、本処理ステップは、データサーバ1120が保持する被検体内部の病変の中心位置の座標値pを注目領域取得部2002が取得する処理である。
ステップS320において、図7の変形シミュレーション部2003は、MRI画像を撮影した際のうつ伏せの状態の被検体が、超音波撮影を行う姿勢である仰向けの状態に姿勢を変えた際に、被検体の乳房に生じる変形を物理シミュレーションにより算出する。この算出処理は、例えば、有限要素法などの公知の方法により実行できる。この場合の算出処理方法について、具体的な方法を以下に例示する。
ステップS330において、図7の変形モデル生成部2004は、ステップS320で算出された被検体の変形に関するシミュレーション結果diに基づいて、その変形をパラメトリックに表現する変形モデルを生成する。この変形モデルの生成方法としては、例えば、上記の非特許文献1に記載の方法で実行することができる。
上述した処理により算出し主成分ベクトルを、下記の(3)式に示すように、主成分ベクトルの数と同数のパラメータc1〜cM-1で重み付けした線形和を計算すると、シミュレーション結果diを含む様々な変形状態rを生成することができる。
ステップS340において、図7の形状計測値取得部2005は、形状計測装置1130が計測した被検体の体表形状に係る形状計測値を取得する処理を実行する。本実施形態では、被検体の体表形状に係る形状計測値は、MRI画像座標系における位置座標値の群として取得されるものとする。本実施形態では、被検体の体表形状に係る形状計測値を三次元ベクトルの群qjと表記する。ただし、jは複数の位置座標値毎に振られる添え字であり、1≦j≦Kである。ここで、Kは形状計測値の数を意味する。
ステップS350において、図7の変形パラメータ算出部2006は、ステップS330で生成された変形モデルが表す変形状態が、ステップS340で取得された被検体の体表形状に係る形状計測値と略一致する変形モデルの変形パラメータを算出する。具体的には、図7の変形パラメータ算出部2006は、下記の(5)式に示す距離関数Ldist(c)が最小となる最適変形パラメータベクトルcoptを求める処理を実行する。
ステップS360において、図7のパラメータ変動範囲算出部2007は、(5)式で示した距離関数が所定の値以下となる変形パラメータベクトルの変動範囲を算出する処理を実行する。具体的に、図7のパラメータ変動範囲算出部2007は、ステップS350で算出された最適変形パラメータベクトルcoptを含み、(5)式で示した距離関数の値が、Ldist(copt)と所定の範囲内となる変形パラメータベクトルの変動の範囲を算出する。この変動範囲の算出方法について、具体的な方法を以下に例示する。
ステップS370において、図7の注目領域変動算出部2008は、ステップS310で取得された注目領域の位置に関する情報(座標値)と、ステップS330で生成された変形モデルと、ステップS360で算出されたパラメータベクトルの変動範囲に基づいて、ステップS310で取得した注目領域の変動範囲を算出する処理を実行する。この注目領域の変動範囲の算出方法について、具体的な方法を以下に例示する。
図10において、変形後の注目領域の群550は、MRI画像座標系510における、前記pUPPER_1〜pUPPER_M-1、pLOWER_1〜pLOWER_M-1の位置座標の群である。そして、図7の注目領域変動算出部2008は、変形後の注目領域の群550を包含し、かつ最小の大きさの楕円体の内部の領域を注目領域の変動範囲520として算出する。なお、楕円体で表現する注目領域の変動範囲は、MRI画像座標系510における前記楕円体を表す数式や当該数式を構成する係数などでも良いし、MRI画像座標系510における二値ボリュームであっても良い。いずれにしても、MRI画像座標系510における任意の位置座標が前記注目領域の変動範囲の内部か外部かが判別できる情報であればよい。
なお、上述した例では、注目領域の変動範囲を楕円体とする場合を例として説明したが、本発明の実施はこれに限定されるものではなく、例えば、球体や直方体など任意の形状で表すようにしても良い。
ステップS380において、図7の超音波画像取得部2009は、仰向け状態の被検体の乳房を超音波画像撮影装置1150が撮影した超音波画像を取得する。
ステップS390において、図7の位置姿勢計測値取得部2010は、位置姿勢計測装置1140が計測した超音波プローブの位置と姿勢に係る位置姿勢計測値を取得する。ここで、本実施形態では、図7の位置姿勢計測値取得部2010は、位置姿勢計測装置1140の計測値に公知の校正処理を施すことで、MRI画像座標系におけるプローブ座標系の位置と姿勢の関係を取得する。ここで、プローブ座標系は、超音波プローブの撮影面(被検体と接する面)の中心を原点とし、超音波ビームの放射方向をY軸とする。また、超音波画像撮影装置1150が撮影する超音波画像の撮影面に含まれ、前記Y軸と直交する方向をX軸とする。そして、X軸とY軸の外積の方向をZ軸とする。プローブ座標系は、上記のようにして定める直交座標系である。なお、本実施形態において、ステップS380で取得した超音波画像の画像座標系は、前記プローブ座標系(のZ=0平面)と一致するものとして定義されているものとする。
ステップS400において、図7の観察画像生成部2011は、ステップS390で取得された位置姿勢計測値に基づいて、ステップS380で取得された超音波画像に、ステップS370で算出した注目領域の変動範囲を重畳した観察画像を生成する。そして、図7の観察画像生成部2011は、生成した観察画像を図7のモニタ1160に表示する処理を実行する。本ステップの処理方法について、具体的な方法を以下に例示する。
図11(a)において、超音波画像600は、ステップS380で取得された超音波画像である。また、超音波画像600は、プローブ座標系610における所定の平面領域を超音波撮影した画像である。このプローブ座標系610は、ステップS390で取得された位置姿勢計測値により、MRI画像座標系510との位置と姿勢の関係が定められる。また、ステップS370で算出された注目領域の変動範囲520は、MRI画像座標系510における楕円体領域であるので、この楕円体領域と超音波画像600との交差領域630は、MRI画像座標系510における楕円領域として一意に定めることができる。
図11(b)は、超音波画像600及び当該超音波画像の平面上に位置する交差領域630を、プローブ座標系610を基準として表示した観察画像の例である。この図11(b)に示すように、本実施形態における観察画像の一例としては、超音波画像600上に交差領域630を重畳して描画した画像とすることができる。本実施形態に係る処理装置は、以上の処理により生成した観察画像を、表示メモリ1214への送信を介してモニタ1160に表示する。
ステップS410において、本実施形態に係る情報処理装置は、処理を終了するか否かを判定する。この判定は、ユーザ(操作者)によるマウス1170やキーボード1180を介した入力操作に基づいて行うことができる。
そして、ステップS410の判定の結果、処理を終了しない場合には、ステップS380の処理に戻る。
一方、ステップS410の判定の結果、処理を終了する場合には、図9に示すフローチャートの処理を終了する。
以上の処理によって、本実施形態に係る情報処理装置1100−1の処理が実施される。
また、本実施形態に係る情報処理装置1100−1は、姿勢が仰向けの状態(第2状態)の前記被検体を超音波画像撮影装置(第2撮影装置)1150を用いて撮影した超音波画像(第2画像)を取得する超音波画像取得部(第2画像取得手段)2009を備える。
また、本実施形態に係る情報処理装置1100−1は、MRI画像(第1画像)の注目領域を取得する注目領域取得部2002を備える。
また、本実施形態に係る情報処理装置1100−1は、被検体をうつ伏せの状態(第1状態)から仰向けの状態(第2状態)にした際の当該被検体の変形状態をパラメータにより表現する変形モデルを生成する変形モデル生成部2004を備える。
また、本実施形態に係る情報処理装置1100−1は、被検体が仰向けの状態(第2状態)のときの当該被検体の形状計測値を取得する形状計測値取得部2005を備える。
また、本実施形態に係る情報処理装置1100−1は、前記変形モデルと前記形状計測値とに基づいて前記変形モデルによる変形パラメータを算出する変形パラメータ算出部2006を備える。
また、本実施形態に係る情報処理装置1100−1は、前記変形モデルと前記変形パラメータとに基づいて当該変形パラメータの変動範囲を算出するパラメータ変動範囲算出部2007を備える。
また、本実施形態に係る情報処理装置1100−1は、注目領域取得部2002で取得した注目領域と前記変形モデルと前記変形パラメータの変動範囲とに基づいて当該注目領域の変動範囲を算出する注目領域変動算出部2008を備える。
また、本実施形態に係る情報処理装置1100−1は、超音波画像(第2画像)に前記注目領域の変動範囲を示した観察画像を生成する観察画像生成部2011を備える。
上述した第4の実施形態では、図9のステップS360において変形パラメータベクトルの各要素毎に上限幅と下限幅を算出し、図9のステップS370においてその上限幅と下限幅に基づいて注目領域の変動範囲を算出する場合を例として説明した。しかしながら、本発明の実施においては、これに限定されるものではない。例えば、ステップS360の処理で算出する変形パラメータベクトルの変動範囲は、変形パラメータベクトルが取りうる値が張る空間、即ち本実施形態ではM−1次元(11次元)のパラメータ空間の任意の領域として算出しても良い。この場合、例えば、図9のステップS350で算出された最適変形パラメータベクトルcoptを起点とし、前記M−1次元のパラメータ空間において(5)式に示した距離関数が所定の値以内となる領域を探索的に求めるようにしても良い。そして、前記処理で求めたM−1次元のパラメータ空間における領域の境界位置を変形パラメータベクトルの変動範囲としても良い。この場合、図9のステップS370の処理としては、前記処理で求めたパラメータ空間の領域の境界の位置における変形パラメータベクトルの群を用いて注目領域の変動範囲を算出することになる。この方法によれば、注目領域の変動範囲をより正確に算出することができるという作用・効果がある。
上述した第4の実施形態における図9のステップS360の処理では、最適変形パラメータベクトルcoptを起点として前記ベクトルを微小変動させ、(5)式に示した距離関数が所定の値以内となる範囲として変形パラメータベクトルの変動範囲を算出する場合を例として説明した。しかしながら、本発明の実施においては、これに限定されるものではない。例えば、(5)式に示した距離関数の最適変形パラメータベクトルcoptにおける、パラメータベクトルの各要素に関する微分を算出し、これに基づいて変形パラメータベクトルの変動範囲を算出するようにしても良い。この場合、前記算出した変形パラメータベクトルの各要素に関する微分値の逆数に比例する量を変形パラメータベクトルの変動範囲とすることになる。この方法によれば、探索的な方法によらずに変形パラメータベクトルの変動範囲を定めることができるため、処理を効率的に行うことができるという作用・効果がある。
上述した第4の実施形態における図9のステップS330の処理では、図9のステップS320の処理で得た複数の変形シミュレーションの結果を主成分分析することで主成分ベクトルを算出し、これらの線形和で被検体の変形状態を表現する変形モデルを生成する場合を例として説明した。しかしながら、本発明の実施においては、これに限定されるものではない。例えば、図9のステップS320で得た複数の変形シミュレーション結果と、これらを算出する際に設定した変形シミュレーションの条件とを関連付けて保持し、変形シミュレーションの条件に関する値をパラメータとした変形モデルとするようにすることもできる。ヤング率とポアソン比をシミュレーション条件とする本実施形態の場合には、ヤング率とポアソン比の2つの要素を持つ2次元の変形パラメータベクトルにより変形状態を表現する変形モデルとすることができる。この場合、前記複数の変形シミュレーションの結果を補間、外挿することで、連続量としての任意の2次元パラメータに対する被検体の変形状態を表現する変形モデルとすることができる。つまり、本実施形態で説明したM−1次元の変形パラメータベクトルに変えて、ヤング率とポアソン比で構成される2次元の変形パラメータベクトルを使う。そして、図9のステップS350、S360、S370における処理として、変形パラメータベクトルから変形状態を算出する場合には、上述したように変形シミュレーション結果の補間、外挿により変形状態を算出する。それ以外の処理は、第4の実施形態で説明した方法と同様の処理を実行することができる。
本実施形態に係る情報処理装置は、第4の実施形態に係る情報処理装置の仕組みに加えて、被検体の変形の推定の誤差範囲に基づいて、変形推定によって求めた体表形状の変動範囲を提示する。この情報は、推定によって求めた体表形状の曖昧さを示す情報であり、即ち推定した変形状態の曖昧さを示す情報である。これにより、被検体の体表形状の計測の追加の必要性を判断する情報が、ユーザに提示される。これにより、被検体の変形をユーザが所望する精度で算出するのに必要な被検体の体表形状の計測を行えるようにする。
図12において、図7に示す第4の実施形態に係る情報処理システムの機能構成と同様の構成については同じ符号を付しており、その説明は省略する。
ステップS670において、図12の形状変動算出部2020は、ステップS630で生成された変形モデルと、ステップS660で算出された変形パラメータベクトルの変動範囲に基づいて、推定した体表形状の変動範囲を算出する処理を実行する。この体表形状の変動範囲の算出方法について、具体的な方法を以下に例示する。
図14において、体表面の形状900は、例えば、被検体の変形状態rUPPER_1に基づいて生成した被検体の体表面の形状である。同様に、体表面の形状910は、例えば、被検体の変形状態rUPPER_2に基づいて生成した被検体の体表面の形状である。このように、図12の形状変動算出部2020は、被検体の変形状態の群のそれぞれについて体表面の形状を算出する。また、coptに基づいて生成した体表面の形状920に示すように、ステップS650で算出した最適変形パラメータベクトルcoptに基づいて、被検体の変形状態を算出し、それに基づいて被検体の体表面を算出してもよい。本実施形態では、上述した方法で算出した複数の体表面を体表面の形状の群と称し、これを体表形状の変動範囲とする。
ステップS680において、図12の形状変動画像生成部2021は、ステップS670で算出された体表形状の変動範囲を視認できる形状変動画像を生成し、これをモニタ1160に表示する処理を実行する。この体表形状の表示処理方法について、具体的な方法を以下に例示する。
なお、本発明の実施は上述した例に限られない。例えば、形状変動画像は、上述した処理により算出した被検体の体表面の形状の群に基づいて、体表面上の変動の大きい位置を強調した画像であっても良い。これによれば、被検体の体表形状の計測が不足している位置をユーザにより分かり易く提示することができる。
ステップS690において、本実施形態に係る情報処理装置は、被検体の体表形状に係る形状計測値を追加するか否かを判定する。
そして、ステップS690の判定の結果、形状計測値を追加する場合には、ステップS640の処理に戻る。
一方、ステップS690の判定の結果、形状計測値を追加しない場合には、ステップS700に進む。
このステップS690の判定は、ユーザ(操作者)によるマウス1170やキーボード1180を介した入力操作に基づいて行うことができる。つまり、ユーザは、ステップS680の処理で表示された形状変動画像を視認し、被検体の変形状態が正確に推定されていないと知った場合に、処理をステップS640に戻して被検体の体表形状を追加して取得するように処理を切り替えることができる。
なお、ステップS690の判定によってステップS640に処理を戻した場合に、ステップS640の処理では、既に取得した被検体の体表形状に係る形状測定値に加えて、新たに計測した体表形状の係る形状測定値を追加して取得し、以降の処理を実行する。
以上の処理によって、本実施形態に係る情報処理装置1100−2の処理が実施される。
本実施形態に係る情報処理装置は、第5の実施形態に係る情報処理装置の仕組みに加えて、仰向け状態における被検体の注目領域の位置をより正確に推定するために必要な、被検体の体表形状の計測に関する誘導情報を提示する仕組みを備える。これにより、より効率的に被検体の体表形状の計測を行うための情報をユーザに提示できるようにする。
図15において、図12に示す第5の実施形態に係る情報処理システムの機能構成と同様の構成については同じ符号を付しており、その説明は省略する。
ステップS890において、図15の誘導情報生成部2030は、ステップS870で算出された体表形状の変動範囲と、ステップS880で算出された注目領域の変動範囲に基づいて、被検体の体表形状の計測に関する誘導情報を生成し、これをモニタ1160に表示する処理を実行する。この誘導情報は、具体的には、被検体の体表形状を追加して計測するための候補となる位置を提示する情報である。この誘導情報の表示処理方法について、具体的な方法を以下に例示する。
図17(a)において、変動量930は、例えば、変形パラメータベクトルの1番目の要素の変動に関する注目領域の位置の変動量g1である。同様に、変動量940は、例えば、変形パラメータベクトルの2番目の要素の変動に関する注目領域の位置の変動量g2である。以後、図面上での説明においては、図面の記載を簡略化するために、変形パラメータベクトルが2つの場合について例示する。
本処理ステップでは、例えば、上述した処理によって選択した体表面の形状910と、coptに基づいて生成した体表面の形状920とを重ねて描画した画像を生成し、これを誘導情報とすることができる。この重ねて描画した画像を生成する方法としては、例えば、第5実施形態における図13のステップS680と同様の処理で実現できる。そして、図15の誘導情報生成部2030は、以上の処理で生成した誘導情報をモニタ1160に表示する。
以上の処理によって、本実施形態に係る情報処理装置1100−3の処理が実施される。
また、本発明は、以下の処理を実行することによっても実現される。
即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
このプログラム及び当該プログラムを記憶したコンピュータ読み取り可能な記録媒体は、本発明に含まれる。
また、本発明によれば、異なるモダリティで撮影された第1画像と第2画像との対応付けを行う際に、第1画像中の注目領域に対応する部位の第2画像中における存在範囲を提示することができる。
Claims (9)
- 被検体の第1画像を取得する第1画像取得手段と、
前記被検体の第2画像を取得する第2画像取得手段と、
前記第1画像の注目領域を示す情報を取得する注目領域取得手段と、
前記第1画像と前記第2画像との間の変形の変動範囲を示す情報を取得する変動範囲取得手段と、
前記注目領域を示す情報と、前記変形の変動範囲を示す情報とに基づいて、当該注目領域の変動範囲を示す情報を取得する注目領域変動取得手段と、
前記注目領域の変動範囲を示す情報に基づいて、前記第2画像上に前記注目領域の変動範囲を表示させる表示制御手段と、
を有することを特徴とする情報処理装置。 - 前記第1画像取得手段は、姿勢が第1状態の前記被検体を第1撮影装置を用いて撮影した前記第1画像を取得し、
前記第2画像取得手段は、姿勢が前記1状態とは異なる第2状態の前記被検体を、前記第1撮影装置とは異なる第2撮影装置を用いて撮影した前記第2画像を取得し、
前記第1状態から他の状態へ変化した場合の当該被検体の変形をパラメータにより表現する変形モデルを取得する変形モデル取得手段と、
前記被検体が前記第2状態のときの当該被検体の形状を示す情報を取得する形状取得手段と、
前記変形モデルと前記形状を示す情報とに基づいて、前記変形モデルによる前記第1状態と前記2状態との間の変形を表す変形パラメータを算出する変形パラメータ算出手段と、
を更に有し、
前記変動範囲取得手段は、前記変形モデル及び前記変形パラメータに基づいて、前記変形の変動範囲を示す情報を取得する
ことを特徴とする請求項1に記載の情報処理装置。 - 前記第1撮影装置は、超音波画像撮影装置、MRI画像撮影装置、X線CT画像撮影装置、PET画像撮影装置のいずれかであり、
前記第2撮影装置は、超音波画像撮影装置、MRI画像撮影装置、X線CT画像撮影装置、PET画像撮影装置のいずれかである
ことを特徴とする請求項2に記載の情報処理装置。 - 前記変動範囲取得手段は、前記変形パラメータによる前記変形モデルの変形に関して、前記被検体の形状における変位が所定の範囲に収まる前記変形パラメータの変動範囲を取得し、前記変形パラメータを当該変形パラメータの変動範囲で変動させた場合に前記変形モデルが表す変形の変動範囲を示す情報を取得する
ことを特徴とする請求項2または3に記載の情報処理装置。 - 前記注目領域変動取得手段は、前記変形の変動範囲で前記変形モデルの変形を変動させた場合に、当該変形の変動によって前記注目領域の位置が前記第2画像上で変動する位置の範囲に基づいて前記注目領域の変動範囲を示す情報を取得する
ことを特徴とする請求項2から4のいずれか1項に記載の情報処理装置。 - 前記変形モデルと前記変形の変動範囲を示す情報とに基づいて、前記被検体の形状の変動範囲を示す情報を取得する形状変動取得手段を更に有し、
前記表示制御手段は、前記被検体の形状の変動範囲を示す情報に基づいて、形状変動画像を表示させる
ことを特徴とする請求項2から5のいずれか1項に記載の情報処理装置。 - 前記変形モデルと前記変形の変動範囲を示す情報とに基づいて、前記被検体の形状の変動範囲を示す情報を取得する形状変動取得手段と、
前記被検体の形状の変動範囲を示す情報と前記注目領域の変動範囲を示す情報とに基づいて、前記被検体の形状の計測に関する誘導情報を取得する誘導情報取得手段と、
を更に有することを特徴とする請求項2から5のいずれか1項に記載の情報処理装置。 - 被検体の第1画像を取得する第1画像取得ステップと、
前記被検体の第2画像を取得する第2画像取得ステップと、
前記第1画像の注目領域を示す情報を取得する注目領域取得ステップと、
前記第1画像と前記第2画像との間の変形の変動範囲を示す情報を取得する変動範囲取得ステップと、
前記注目領域を示す情報と、前記変形の変動範囲を示す情報とに基づいて、当該注目領域の変動範囲を示す情報を取得する注目領域変動取得ステップと、
前記注目領域の変動範囲を示す情報に基づいて、前記第2画像上に前記注目領域の変動範囲を表示させる表示ステップと、
を有することを特徴とする情報処理方法。 - コンピュータに、
被検体の第1画像を取得する第1画像取得ステップと、
前記被検体の第2画像を取得する第2画像取得ステップと、
前記第1画像の注目領域を示す情報を取得する注目領域取得ステップと、
前記第1画像と前記第2画像との間の変形の変動範囲を示す情報を取得する変動範囲取得ステップと、
前記注目領域を示す情報と、前記変形の変動範囲を示す情報とに基づいて、当該注目領域の変動範囲を示す情報を取得する注目領域変動取得ステップと、
前記注目領域の変動範囲を示す情報に基づいて、前記第2画像上に前記注目領域の変動範囲を表示させる表示ステップと、
を実行させるためのプログラム。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012006394 | 2012-01-16 | ||
JP2012006394 | 2012-01-16 | ||
JP2012038719 | 2012-02-24 | ||
JP2012038719 | 2012-02-24 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013005691A Division JP6132558B2 (ja) | 2012-01-16 | 2013-01-16 | 情報処理装置、情報処理方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017124286A JP2017124286A (ja) | 2017-07-20 |
JP6312898B2 true JP6312898B2 (ja) | 2018-04-18 |
Family
ID=48779994
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013005691A Active JP6132558B2 (ja) | 2012-01-16 | 2013-01-16 | 情報処理装置、情報処理方法及びプログラム |
JP2017083692A Expired - Fee Related JP6312898B2 (ja) | 2012-01-16 | 2017-04-20 | 情報処理装置、情報処理方法及びプログラム |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013005691A Active JP6132558B2 (ja) | 2012-01-16 | 2013-01-16 | 情報処理装置、情報処理方法及びプログラム |
Country Status (3)
Country | Link |
---|---|
US (1) | US9058647B2 (ja) |
JP (2) | JP6132558B2 (ja) |
CN (1) | CN103251431B (ja) |
Families Citing this family (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5950619B2 (ja) * | 2011-04-06 | 2016-07-13 | キヤノン株式会社 | 情報処理装置 |
US9058647B2 (en) * | 2012-01-16 | 2015-06-16 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP2014183876A (ja) * | 2013-03-22 | 2014-10-02 | Fujifilm Corp | 画像表示装置および方法 |
JP6200249B2 (ja) | 2013-09-11 | 2017-09-20 | キヤノン株式会社 | 情報処理装置、情報処理方法 |
KR20150077184A (ko) * | 2013-12-27 | 2015-07-07 | 삼성전자주식회사 | 의료 영상의 병변 유사도 판단 장치 및 방법 |
JP2019013852A (ja) * | 2014-01-16 | 2019-01-31 | キヤノン株式会社 | 画像処理装置、システム、画像処理方法、医用画像撮像方法およびプログラム |
JP6489800B2 (ja) | 2014-01-16 | 2019-03-27 | キヤノン株式会社 | 画像処理装置、画像診断システム、画像処理方法およびプログラム |
JP6431342B2 (ja) * | 2014-01-16 | 2018-11-28 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6489801B2 (ja) * | 2014-01-16 | 2019-03-27 | キヤノン株式会社 | 画像処理装置、画像診断システム、画像処理方法およびプログラム |
JP6403393B2 (ja) * | 2014-02-12 | 2018-10-10 | 住友重機械工業株式会社 | 画像生成装置 |
CN103942795B (zh) * | 2014-04-22 | 2016-08-24 | 浙江大学 | 一种图像物体的结构化合成方法 |
JP6383189B2 (ja) | 2014-06-16 | 2018-08-29 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
JP6376873B2 (ja) | 2014-07-16 | 2018-08-22 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
EP3174490B1 (en) | 2014-07-28 | 2020-04-15 | Intuitive Surgical Operations, Inc. | Systems and methods for planning multiple interventional procedures |
WO2016017987A1 (en) * | 2014-07-31 | 2016-02-04 | Samsung Electronics Co., Ltd. | Method and device for providing image |
KR102301231B1 (ko) * | 2014-07-31 | 2021-09-13 | 삼성전자주식회사 | 영상 제공 방법 및 이를 위한 장치 |
US9808213B2 (en) * | 2014-08-11 | 2017-11-07 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, medical image diagnostic system, and storage medium |
KR20160032586A (ko) * | 2014-09-16 | 2016-03-24 | 삼성전자주식회사 | 관심영역 크기 전이 모델 기반의 컴퓨터 보조 진단 장치 및 방법 |
JP6331922B2 (ja) * | 2014-09-22 | 2018-05-30 | コニカミノルタ株式会社 | 医用画像システム及びプログラム |
JP6541334B2 (ja) * | 2014-11-05 | 2019-07-10 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP6467221B2 (ja) | 2014-12-22 | 2019-02-06 | キヤノン株式会社 | 画像処理装置および方法 |
JP6448356B2 (ja) * | 2014-12-22 | 2019-01-09 | キヤノン株式会社 | 画像処理装置、画像処理方法、画像処理システム、及びプログラム |
US9824189B2 (en) * | 2015-01-23 | 2017-11-21 | Panasonic Intellectual Property Management Co., Ltd. | Image processing apparatus, image processing method, image display system, and storage medium |
JP6598565B2 (ja) * | 2015-08-06 | 2019-10-30 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
EP3337418B1 (en) * | 2015-08-17 | 2021-10-13 | Koninklijke Philips N.V. | Simulating breast deformation |
US10147183B2 (en) * | 2015-11-25 | 2018-12-04 | Fovia, Inc. | Methods and systems for stochastic growth assessment |
JP6632361B2 (ja) * | 2015-12-15 | 2020-01-22 | キヤノン株式会社 | 画像処理装置、画像処理システム、画像処理方法、及びプログラム。 |
JP6821303B2 (ja) | 2015-12-15 | 2021-01-27 | キヤノン株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP6615603B2 (ja) | 2015-12-24 | 2019-12-04 | キヤノンメディカルシステムズ株式会社 | 医用画像診断装置および医用画像診断プログラム |
US11219427B2 (en) * | 2016-06-07 | 2022-01-11 | Koninklijke Philips N.V. | Ultrasound system and method for breast tissue imaging and annotation of breast ultrasound images |
JP6637610B2 (ja) * | 2016-09-16 | 2020-01-29 | 富士フイルム株式会社 | 超音波診断装置及び超音波診断装置の制御方法 |
WO2018051577A1 (ja) * | 2016-09-16 | 2018-03-22 | 富士フイルム株式会社 | 超音波診断装置及び超音波診断装置の制御方法 |
JP7054787B2 (ja) * | 2016-12-22 | 2022-04-15 | パナソニックIpマネジメント株式会社 | 制御方法、情報端末、及びプログラム |
JP6660428B2 (ja) * | 2018-08-01 | 2020-03-11 | キヤノン株式会社 | 処理装置、処理方法、およびプログラム |
JP7239363B2 (ja) * | 2019-03-22 | 2023-03-14 | ソニー・オリンパスメディカルソリューションズ株式会社 | 医療用画像処理装置、医療用観察装置、医療用観察システム、医療用画像処理装置の作動方法および医療用画像処理プログラム |
JP7291534B2 (ja) * | 2019-05-14 | 2023-06-15 | キヤノンメディカルシステムズ株式会社 | 解析装置及び超音波診断装置 |
CN112215804B (zh) * | 2020-09-15 | 2021-10-15 | 数坤(北京)网络科技股份有限公司 | 一种数据处理方法、设备和计算机存储介质 |
Family Cites Families (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003260056A (ja) | 2002-03-08 | 2003-09-16 | Toshiba Corp | 超音波診断装置 |
US20040210133A1 (en) * | 2003-04-15 | 2004-10-21 | Dror Nir | Method and system for selecting and recording biopsy sites in a body organ |
EP2460474B1 (en) | 2003-05-08 | 2015-12-16 | Hitachi Medical Corporation | Reference image display method for ultrasonography and ultrasonic diagnosis apparatus |
CN101422378B (zh) | 2003-05-08 | 2012-07-18 | 株式会社日立医药 | 超声诊断设备 |
US20060036162A1 (en) * | 2004-02-02 | 2006-02-16 | Ramin Shahidi | Method and apparatus for guiding a medical instrument to a subsurface target site in a patient |
US8425418B2 (en) * | 2006-05-18 | 2013-04-23 | Eigen, Llc | Method of ultrasonic imaging and biopsy of the prostate |
CA2670261A1 (en) * | 2006-11-16 | 2008-05-29 | Vanderbilt University | Apparatus and methods of compensating for organ deformation, registration of internal structures to images, and applications of same |
US7907768B2 (en) | 2006-12-19 | 2011-03-15 | Fujifilm Corporation | Method and apparatus for probabilistic atlas based on shape modeling technique |
US8175350B2 (en) * | 2007-01-15 | 2012-05-08 | Eigen, Inc. | Method for tissue culture extraction |
US8303502B2 (en) | 2007-03-06 | 2012-11-06 | General Electric Company | Method and apparatus for tracking points in an ultrasound image |
US7899226B2 (en) * | 2007-04-03 | 2011-03-01 | General Electric Company | System and method of navigating an object in an imaged subject |
US8184886B2 (en) * | 2007-08-21 | 2012-05-22 | Siemens Aktiengesellschaft | Deformable 2D-3D registration |
US20100256493A1 (en) * | 2007-11-09 | 2010-10-07 | Tomoaki Chono | Ultrasonic diagostic apparatus, operation method thereof, and ultrasonic diagnostic program |
US20090129650A1 (en) * | 2007-11-19 | 2009-05-21 | Carestream Health, Inc. | System for presenting projection image information |
JP5305757B2 (ja) * | 2008-06-30 | 2013-10-02 | 株式会社東芝 | 画像処理装置、超音波診断装置、および画像処理プログラム |
US20100016710A1 (en) * | 2008-07-11 | 2010-01-21 | Dinesh Kumar | Prostate treatment apparatus |
JP5486182B2 (ja) * | 2008-12-05 | 2014-05-07 | キヤノン株式会社 | 情報処理装置および情報処理方法 |
JP5546230B2 (ja) * | 2009-12-10 | 2014-07-09 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP5580030B2 (ja) * | 2009-12-16 | 2014-08-27 | 株式会社日立製作所 | 画像処理装置、および画像位置合せ方法 |
JP5538861B2 (ja) * | 2009-12-18 | 2014-07-02 | キヤノン株式会社 | 情報処理装置、情報処理方法、情報処理システム、及びプログラム |
JP5234671B2 (ja) | 2010-05-19 | 2013-07-10 | ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー | 超音波診断装置 |
CN101859441B (zh) | 2010-05-25 | 2011-12-21 | 中国人民解放军第四军医大学 | 基于影像的无创监测肿瘤浸润周围组织程度的计算机辅助分析方法 |
US9058647B2 (en) * | 2012-01-16 | 2015-06-16 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
-
2013
- 2013-01-15 US US13/741,665 patent/US9058647B2/en active Active
- 2013-01-16 JP JP2013005691A patent/JP6132558B2/ja active Active
- 2013-01-16 CN CN201310015437.8A patent/CN103251431B/zh active Active
-
2017
- 2017-04-20 JP JP2017083692A patent/JP6312898B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US9058647B2 (en) | 2015-06-16 |
CN103251431A (zh) | 2013-08-21 |
JP2017124286A (ja) | 2017-07-20 |
CN103251431B (zh) | 2015-09-02 |
US20130182901A1 (en) | 2013-07-18 |
JP6132558B2 (ja) | 2017-05-24 |
JP2013198722A (ja) | 2013-10-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6312898B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
KR101267759B1 (ko) | 화상 처리 장치, 화상 처리 방법 및 저장 매체 | |
US9035941B2 (en) | Image processing apparatus and image processing method | |
CN102727258B (zh) | 图像处理装置、超声波摄影系统及图像处理方法 | |
JP5538862B2 (ja) | 画像処理装置、画像処理システム、画像処理方法、及びプログラム | |
US8908944B2 (en) | Information processing apparatus, information processing method, and program | |
US20110262015A1 (en) | Image processing apparatus, image processing method, and storage medium | |
JP5631453B2 (ja) | 画像処理装置、画像処理方法 | |
JP5591309B2 (ja) | 画像処理装置、画像処理方法、プログラム、及び記憶媒体 | |
US10856850B2 (en) | Information processing apparatus, method, and program for matching target object position between the prone and supine positions obtained by MRI and ultrasound | |
KR20130016942A (ko) | 3차원 볼륨 파노라마 영상 생성 방법 및 장치 | |
US20050197558A1 (en) | System and method for performing a virtual endoscopy in a branching structure | |
JP2020018767A (ja) | 超音波診断システム | |
JP6548798B2 (ja) | 情報処理装置、情報処理方法、プログラム | |
JP6487999B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP2019500114A (ja) | 位置合わせ精度の決定 | |
Luo et al. | Externally navigated bronchoscopy using 2-D motion sensors: Dynamic phantom validation | |
JP6251002B2 (ja) | 画像処理装置及び画像処理方法、コンピュータプログラム | |
JP2017023834A (ja) | 画像処理装置、撮影システム及び画像処理方法 | |
JP2011156117A (ja) | 医用画像読影システム、医用画像参照装置及び血管長計測用制御プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170522 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170522 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180208 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180320 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6312898 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |