JP6886260B2 - 画像処理装置、その制御方法、およびプログラム - Google Patents
画像処理装置、その制御方法、およびプログラム Download PDFInfo
- Publication number
- JP6886260B2 JP6886260B2 JP2016174964A JP2016174964A JP6886260B2 JP 6886260 B2 JP6886260 B2 JP 6886260B2 JP 2016174964 A JP2016174964 A JP 2016174964A JP 2016174964 A JP2016174964 A JP 2016174964A JP 6886260 B2 JP6886260 B2 JP 6886260B2
- Authority
- JP
- Japan
- Prior art keywords
- point
- image
- consistency
- subject
- distance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title claims description 87
- 238000000034 method Methods 0.000 title claims description 61
- 230000008569 process Effects 0.000 claims description 24
- 210000000481 breast Anatomy 0.000 claims description 19
- 210000002445 nipple Anatomy 0.000 claims description 18
- 238000009795 derivation Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 35
- 238000012986 modification Methods 0.000 description 6
- 230000004048 modification Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 4
- 230000003902 lesion Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000003825 pressing Methods 0.000 description 3
- 210000004204 blood vessel Anatomy 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 210000004197 pelvis Anatomy 0.000 description 2
- 230000036544 posture Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000002238 attenuated effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000009472 formulation Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000002603 single-photon emission computed tomography Methods 0.000 description 1
- 238000003325 tomography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5238—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
- A61B8/5246—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from the same or different imaging techniques, e.g. color Doppler and B-mode
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5247—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from an ionising-radiation diagnostic technique and a non-ionising radiation diagnostic technique, e.g. X-ray and ultrasound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/337—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10072—Tomographic images
- G06T2207/10088—Magnetic resonance imaging [MRI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
- G06T2207/10136—3D ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
- G06T2207/20101—Interactive definition of point of interest, landmark or seed
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Radiology & Medical Imaging (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Human Computer Interaction (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Description
本実施形態における画像処理装置は、ユーザが指定した2つの画像(第1の画像と第2の画像)間における2つの点(第1の点と第2の点)が対応点の組であることの整合度を導出して表示する。整合度は、第1の点と第2の点の位置と第1の画像と第2の画像からそれぞれ得られる被検体特徴の位置の位置関係に基づいて算出される。具体的には、本実施形態では、整合度は、第1の点と第2の点の、第1の画像と第2の画像からそれぞれ得られる被検体特徴に対する距離値に基づいて算出される。整合度の算出のために、対応付け済みの多数の点を必要としていた特許文献1の技術とは異なり、本画像処理装置は、被検体特徴のみを用いて整合度を算出することが可能である。なお、以降の説明において、「第1の画像上の注目点(第1の点)」と、「該注目点と第2の画像上において対応する点(第2の点)」の2点を「対応点の組」と称する。また、対応点の組の候補としてユーザが指定した2点を、「対応点候補の組」と称する。ユーザは、指定した対応点候補の組の整合度をインタラクティブに確認することができる。このため、不整合と判定された場合は点入力をやり直し、より適切な位置に対応点の組を入力することが可能である。本実施形態において、第1の画像と第2の画像は、同一患者を異なる姿勢で撮像した乳房の画像であるとする。以下、図1から4を用いて本実施形態の構成および処理を説明する。
S2000において、画像取得部102は、データサーバ150から、第1の画像、および第2の画像を取得する。そして、取得した情報を特徴取得部103と表示制御部110へ出力する。
S2005において、特徴取得部103は、S2000で取得した第1の画像と第2の画像から、第1の画像と第2の画像それぞれに撮像されている被検体特徴(特徴部分)を取得する。そして、特徴取得部103は、取得した情報を距離値計測部106へと出力する。
S2010において、対応点候補取得部104は、ユーザの指示に従って、第1の画像における注目点(第1の点)の位置(3次元座標)を取得する。具体的には、まず、ーザはマウスやキーボードを操作して、着目する断面画像を選択し、表示制御部110が、選択された断面画像を第1の画像の断面画像として表示部170に表示させる。そして、表示された断面画像において、ユーザは、マウスボタンクリックやキーボードキー押下といった操作を行うことによって、注目位置を注目点として画像処理装置100に入力する。対応点候補取得部104は、断面画像上で指定された注目位置を、第1の画像における断層画像の位置および姿勢を利用して、基準座標系における注目点の位置に変換する。なお、インタレストオペレータ等の画像特徴点抽出処理によって第1の画像から注目点候補を自動抽出し、最も特徴量が高く、かつこれまでに一度も第1の点として選択されたことがない点を選択する構成であってもよい。あるいは、同様にして抽出した注目点候補の中から、ユーザが注目点を選択する構成であってもよい。
S2020において、対応点候補取得部104は、ユーザの指示に従って、S2010で取得した注目点(第1の点)と第2の画像上において対応する点の候補(第2の点)の位置(3次元座標)を取得する。S2010とは異なり、第2の点は、ユーザによるマウスクリックやキー押下といった明示的な操作なしに、単に第2の画像上の位置をマウスカーソル(マウスポインタ)やクロスヘアカーソルなどのポインタで指し示すことで取得されるものとする。この場合、指し示されている位置を第2の画像の基準座標系における注目点の位置に変換した座標が、第2の点の座標として取得される。そして、取得した第1の点と第2の点を対応点候補の組(3次元座標の組)として、距離値計測部106へと出力する。なお、本実施形態では、ユーザの指示に従って、マウスカーソル等で指し示された位置を第2の点として取得する場合を例に挙げて説明したが、第2の点を自動的に算出してもよい。この場合、例えば、第1の点を中心とする局所画像(テンプレート)との類似度が最も高い第2の画像上の位置をテンプレートマッチングによって算出し、その位置を第2の点として取得することができる。このようにすることで、ユーザに必要とされる作業を削減することができる。
S2030において、距離値計測部106は、S2010およびS2020で取得された第1・第2の点(対応点候補の組)から、S2005で取得された被検体特徴までの距離値を計測する。そして、距離値計測部106は、計測した距離値を、整合度算出部108へと出力する。
S2040において、整合度算出部108は、S2030で計測された対応点候補位置から被検体特徴までの距離値を用いて、対応点候補の組の整合度を算出する。そして、整合度算出部108は、算出した整合度を表示制御部110へと出力する。
(数1)
(数2)
ここで、p1 nippleとp2 nippleはそれぞれ、第1の画像と第2の画像における乳頭位置座標である(図3の乳頭位置302および305)。s1 nearestは、体表点群上の点のうち第1の点に対する最近傍点、s2 nearestは、体表点群上の点のうち第2の点に対する最近傍点である(図3の体表点群上の最近傍点301および304)。p1 inputとp2 inputはそれぞれ、第1の点と第2の点である(図3の第1の点303および第2の点306)。distは、S2030で算出された、2つの点の間の距離値を表す。すなわち、これらの式は、第1の画像における第1の点から乳頭までの距離に対する、第2の画像における第2の点から乳頭までの距離の比(数1)、および、第1の画像における第1の点から体表点群までの距離に対する、第2の画像における第2の点から体表点群までの距離の比(数2)であることを意味する。
S2050において、表示制御部110は、S2040で算出された整合度を、表示部170に表示する制御を行う。表示制御部110は、複数の整合度表示方法を備え、それら表示方法の中からいずれかを選択し、あるいは複数の表示方法を組み合わせて表示することができる。
S2060において、対応点候補取得部104は、対応点候補の組を対応点の組として採用するか否かというユーザからの指示を取得し、それに応じて以降の処理を分岐させる処理を行う。対応点候補の組を採用する場合は(S2060でYes)、画像処理装置100は処理ステップをS2070へと進める。対応点候補の組を採用しない場合は(S2060でNo)、処理ステップをS2080へと進める。
S2070において、対応点候補取得部104は、対応点候補の組を対応点として確定し、不図示の記憶部に格納されている対応点群に追加する。そして、処理ステップをS2110へと進める。
S2080において、画像処理装置100は、S2020で取得した第2の点の情報を削除する。これにより、画像処理装置100は、第1の点のみが取得された状態で、第2の点は未取得の状態となる。そして、画像処理装置100は、処理ステップをS2010へと進め、以降の処理を繰り返す。
S2110において、終了判定部112は、対応点候補の指定処理を終了するか否かの判定を行う。例えば、表示部170に配置された終了ボタンをマウスでクリックするなどしてユーザが入力した終了の指示を取得する。終了判定部112が終了すると判定した場合には(S2110でYes)、処理ステップをS2120へと進める。一方、終了判定部112が終了しないと判定した場合には(S2110でNo)、処理ステップをS2010へと戻し、以降の処理が再度実行される。ここで、対応点候補の再指定の入力がない場合には、画像処理装置100は、終了の入力があるまで断面画像が表示された状態で待機状態となる。
S2120において、位置合わせ実行部114は、S2070の処理で対応点として確定されて不図示の記憶部に格納されている対応点群の情報を用いて、第1の画像と第2の画像の間の位置合わせを実行する。位置合わせのアルゴリズムは、対応点群の距離差をコストとして用いるものであれば、任意の公知の手法を利用することが可能である。例えば、薄板スプライン(Thin plate spline:TPS)に基づく手法や自由変形(Free form deformation:FFD)に基づく手法、あるいは、ランドマークLDDMM(Large Deformation Diffeomorphic Metric Mapping)法を用いる。位置合わせ実行部114は、位置合わせ結果として、第1の画像と第2の画像の間の対応関係を表す変形場を導出する。さらに、位置合わせ実行部114は、第1の画像と第2の画像の少なくともいずれか一方を変形させて他方の画像に位置合わせした変形画像を生成する。位置合わせ実行部114は、これらの情報を不図示の記憶部に格納する。
S2130において、表示制御部110は、S2120で得た位置合わせ結果の情報(変形画像や変形場など)を表示部170に表示する制御を行う。以上が、画像処理装置100による処理の流れである。
本実施形態では、S2030で計測される距離値のみに基づいて整合度を算出する場合を例に挙げて説明したが、他の情報も考慮に入れる構成であってもよい。例えば、「信頼度」という要素を導入し、画像領域の中で信頼度が高い領域は整合度を高く、信頼度が低い領域は整合度を低くするように重みづけしてもよい。
(数4)
ここで、dthは体表面までの距離値の閾値であり、距離値がこの値よりも大きい場合、信頼度(係数)は0となる。ここでは、信頼度係数R1とR2は、体表からの距離値が大きくなるほどに線形に減衰する場合を例に挙げて説明したが、その他の形の関数を用いてもよい。例えば、体表からの距離と信頼度の間の関係が正規分布に従うという事前知識がある場合は、平均値が0である半ガウス関数によって信頼度係数を算出することで、その事前知識を直接的に表現することが可能となる。
(数5)
この式は、夫々の画像における信頼度係数(R1とR2)の積を整合度の信頼度と定義して、この信頼度を、整合度Cに積算する補正係数として用いることで、補正後の整合度C’を求めることを意味する。なお、(数5)では、信頼度の積を用いる場合を例に挙げて説明したが、(数5)以外の定式化を行うことも可能である。例えば、R1とR2の平均値を整合度の信頼度として用いてもよい。すなわち、R1とR2の平均値と整合度Cとの積により、補正後の整合度C’を求めるようにしてもよい。(数5)のように信頼度の積を用いる場合、一方の信頼度が0になると、他方の信頼度の値に関係なく整合度が0となるが、平均値を用いることでこのような極端な傾向を緩和することできる。また、R1とR2のいずれか一方のみを整合度の信頼度として用いてもよい。この場合、R1とR2のいずれか一方をCに乗算することでC’を算出すればよい。 なお、いずれの信頼度係数を整合度の信頼度として用いるかは、予め定めておいてもよいし、入力画像に応じて選択するようにしてもよい。例えば、体表面抽出の精度が高い方の画像のみを信頼度の算出対象として用いることができる。
本実施形態では、算出される整合度は、対応点候補から被検体特徴までの距離値に基づくもののみであったが、対応点候補を直接使用せずに算出される整合度をさらに含む構成であってもよい。例えば、図3における体表点群上の最近傍点301(および体表点群上の最近傍点305)と、乳頭位置302(および乳頭位置304)との間の測地線距離(Geodesic distance)を計測し、該距離値に基づいて算出される整合度をさらに含んでもよい。この場合、測定される距離値が、対応点候補の体表からの深さに影響されないため、整合度の信頼性が向上することが期待できる。なお、近似値として、測地線距離の代わりに、体表点群上の最近傍点と乳頭位置の直線距離を用いてもよい。
本実施形態では、取得した対応点群を用いて2枚の画像の位置合わせ処理を行ったが、位置合わせ処理は必須ではなく、画像処理装置100は、対応点の取得と保存のみを行う構成であってもよい。この場合、画像処理装置100は、画像間の対応点や対応部位を探索するあらゆる目的に用いることができる。例えば、画像処理装置100は、第1の画像上における病変位置などの注目点が与えられている場合に、第2の画像上におけるその対応病変を探索する目的に用いることができる。
本実施形態では、第1の点および第2の点を指定する際にユーザが参照する画像と、整合度算出に使用する画像は同一の画像であったが、第1および第2の点を指定する際には、ユーザが対応点を探索しやすい表示形態となるように、第1の画像と第2の画像を変形させて表示する構成であってもよい。例えば、画像処理装置100は、体表面からの深さが同一のボクセルは同一平面に含まれるように画像を変形(以下、矩形変形)させ、これを表示画像として用いるようにすることができる。これには、例えば特許文献2の技術を用いることができる。これによると、乳房画像において、体表面から同一の深さに走行する血管を、画像のスライスを切り替えなくても観察することができるため、対応点候補(第1の点および第2の点)の取得の効率を向上させることができる。
本実施形態における画像処理装置100は、第1の画像で入力された第1の点との整合度の分布を表示することにより、対応点の入力を支援する。本実施形態における画像処理システムの構成は図1と同様である。ただし、以下に説明するように、各部の処理内容の一部は第1の実施形態とは異なっている。以下、本実施形態における画像処理装置100について、第1の実施形態との相違部分について説明する。
S6015において、画像処理装置100は、第2の画像上の各ボクセル位置について、当該位置を注目点に対応する点の候補と仮定した際の整合度を算出する。すなわち、画像処理装置100は、それぞれのボクセル位置を、第1の点に対応する第2の点と仮定した場合(対応点候補の組と仮定した場合)の整合度を算出する。そして、画像処理装置100は、各ボクセル位置における整合度をボクセル値として有するボリューム画像(以下、整合度画像)を生成する。この整合度画像は、各ボクセル位置における整合度の分布を示すこととなる。以下、図7のフローチャートを用いて、S6015の処理の詳細について説明する。図7は、図6のS6015の詳細な処理手順の一例を示すフローチャートである。
S7000において、整合度算出部108は、第2の画像と同サイズの整合度画像を生成して初期化する。例えば、整合度画像のすべてのボクセルに0を与える。
S7010において、対応点候補取得部104は、第2の画像中の各ボクセルのうち、まだ選択していない1つのボクセルを第2の点として選択し、そのボクセル位置(3次元座標値)を取得する。すなわち、本ステップで取得した第2の点と、S6010で取得した第1の点と組み合わせたものを、対応点候補の組とする。そして、対応点候補取得部104は、取得した第1の点と第2の点を対応点候補の組(3次元座標の組)として、距離値計測部106へと出力する。
S7015において、距離値計測部106は、S7010で取得した対応点候補の組からS6005で取得した被検体特徴までの距離値を計測する。本処理は、図2のS2030と同様の処理によって実施できる。そして、距離値計測部106は、計測した距離値を整合度算出部108へと出力する。
次に、S7020において、整合度算出部108は、S7015で計測した距離値を用いて、対応点候補の組の整合度を算出する。本処理は、図2のS2040と同様の処理によって実施できる。そして、整合度算出部108は、算出した値を、S7010で取得したボクセル位置に対応する整合度画像のボクセルに、該位置における整合度の値として設定する。なお、整合度算出部108は、複数の整合度(夫々の個別整合度や統合整合度)を各ボクセルにベクトル値として保存(設定)してもよいし、事前に選択したいずれかの整合度をスカラー値として保存(設定)してもよい。
次に、S7030において、整合度算出部108は、整合度が算出されていないボクセルが存在するか否かを判定する。この判定の結果すべてのボクセルについて整合度の算出が終了している場合は、S6015の処理を終了する。一方、まだ整合度が算出されていないボクセルが存在する場合は(S7030でNo)、処理はS7010に戻り、残されたボクセルに対して同様の処理が実行される。以上の手順により、整合度画像が生成される。
図6の説明に戻り、続いてS6020において、表示制御部110は、S6015で生成した整合度画像を表示部170に表示する制御を行う。具体的には、表示制御部110は、S6015で生成した整合度画像において、第2の画像の断面画像に対応する断面の整合度を得る。そして、表示制御部110は、表示部170に、第2の画像の断面画像を表示するとともに、当該整合度の分布の情報を表示させる。この表示は、例えば、濃淡で表現した第2の画像の断面画像上に整合度の分布をカラーマップ(整合度マップ)として重畳表示するような形態とすることができる。例えば、表示制御部110は、整合度の値と表示色との対応をあらかじめテーブルで定義しておき、そのテーブルに従って決定した表示色を第2の画像の対応するボクセル位置に重畳してもよい。なお、整合度分布の情報の表示・非表示は、ユーザの指示に応じて選択可能であってもよい。また、夫々の個別整合度や統合整合度のいずれを表示するかについても、ユーザの指示に応じて選択可能であってもよい。
S6030において、対応点候補取得部104は、ユーザによる操作部160の操作に従って、第2の点の位置を取得する。第1の実施形態で説明した図2のS2020では、対応点候補取得部104は、マウスカーソル等で単に指し示した位置を取得していた。それに対して、本ステップでユーザによってマウスのクリックやキーボードの操作が行われて初めて、第2の点の取得処理が行われる。対応点候補取得部104は、第2の点を取得すると、第1の点と第2の点の組を対応点として確定し、不図示の記憶部に格納されている対応点群に追加する。
上記実施形態では、第2の画像の全てのボクセルに対応するボクセル位置で整合度の算出を行ったが、整合度を算出するボクセル位置はこれに限定されない。例えば、第2の画像を所定の間隔で間引いたボクセル位置においてのみ整合度の算出を行い、整合度の算出を行わなかった(間引かれた)ボクセル位置の整合度は補間によって求めてもよい。これによると、整合度マップの算出を高速に行うことができる。また、被検体の内外が判定できる場合には、被検体内に属するボクセル位置の整合度のみを算出するようにしてもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
Claims (18)
- 被検体を異なる条件で撮影することにより得られた第1の画像と第2の画像のそれぞれにおいて当該被検体の対応する特徴部分を取得する取得手段と、
前記第1の画像上の第1の点と、前記第2の画像における前記第1の点の対応点候補である候補点を指定する指定手段と、
前記第1の画像における前記第1の点と前記被検体の特徴部分の間の第1の距離と、前記第2の画像における前記候補点と前記被検体の特徴部分の間の第2の距離との第1の距離の比に基づいて、前記第1の点と前記候補点との整合度を導出する導出手段と、
前記導出された整合度を表示部に表示させる表示制御手段と、
を有し、
前記指定手段によって前記第2の画像における前記候補点の位置が変更された場合、
前記導出手段は、前記第1の画像における前記第1の点と前記特徴部分の間の第1の距離と、前記第2の画像において該位置が変更された前記候補点と前記特徴部分の間の第3の距離との第2の距離の比に基づいて、前記第1の画像における前記第1の点と前記第2の画像において該位置が変更された候補点との整合度を再導出し、
前記指定手段は、前記第2の距離の比に基づいて整合度が再導出された候補点を前記第2の画像における第2の点として指定した場合、該指定された第2の点は前記第1の点の対応点として設定されることを特徴とする画像処理装置。 - 前記導出手段は、前記第1の画像における前記第1の点から前記被検体の特徴部分の位置までの第1の距離と、前記第2の画像における前記候補点から前記被検体の特徴部分の位置までの第2の距離に基づいて、前記整合度を導出することを特徴とする請求項1に記載の画像処理装置。
- 前記導出手段は、前記第1の距離と、前記第2の距離と、前記第1の距離または前記第2の距離に基づく重み付け値に基づいて、 前記整合度を導出することを特徴とする請求項2に記載の画像処理装置。
- 前記被検体は、乳房であり、前記取得手段は、前記被検体の特徴部分として、乳房の乳頭または乳房の体表面上の点を取得することを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
- 前記取得手段は、2種類以上の前記被検体の特徴部分を取得し、
前記導出手段は、当該2種類以上の特徴部分のそれぞれについて前記整合度を導出し、
前記表示制御手段は、前記導出手段により導出された2種類以上の整合度を組み合わせて前記表示部に表示させることを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。 - 前記被検体は、乳房であり、前記取得手段は、前記被検体の特徴部分として、少なくとも乳房の乳頭と乳房の体表面上の点を取得することを特徴とする請求項5に記載の画像処理装置。
- 前記導出手段は、前記第1の画像における、乳房の乳頭と前記第1の点の位置に対して最近傍の乳房の体表面上の点との距離、および、前記第2の画像における、乳房の乳頭と前記候補点の位置に対して最近傍の乳房の体表面上の点との距離とに基づいて前記整合度を導出することを特徴とする請求項6に記載の画像処理装置。
- 前記第1の画像と前記第2の画像をそれぞれ変形させて第1の変形画像と第2の変形画像を導出する変形手段と、
前記第1の変形画像上の点の位置に対応する前記第1の画像上の点の位置と、前記第2の変形画像上の点の位置に対応する前記第2の画像上の点の位置を算出する座標変換手段と、をさらに備え、
前記指定手段は、前記第1の変形画像上の第3の点と、前記第2の変形画像上の第4の点をさらに指定し、
前記導出手段は、前記第3の点に対応する前記第1の画像における第5の点と前記被検体の特徴部分との位置関係、および、前記第4の点に対応する前記第2の画像における第6の点と前記被検体の特徴部分との位置関係に基づいて、前記第5の点と前記第6の点との整合度をさらに導出することを特徴とする請求項1に記載の画像処理装置。 - 前記表示制御手段は、前記導出された整合度を数値として前記表示部に表示させることを特徴とする請求項1に記載の画像処理装置。
- 前記指定手段によって前記第2の画像における前記候補点の位置のリアルタイムに更新されることに応じて、前記導出手段は、前記第1の画像における前記第1の点と前記第2の画像において該位置が更新された候補点の整合度を再導出し続けることを特徴とする請求項1に記載の画像処理装置。
- 前記表示制御手段は、導出された前記整合度を前記第2の画像とともに前記表示部に表示させることを特徴とする請求項1に記載の画像処理装置。
- 前記指定手段によって前記第2の画像における前記候補点の位置が変更された場合、
前記表示制御手段は、再導出された前記整合度を、前記第2の画像において変更された位置における前記候補点とともに前記表示部に表示させることを特徴とする請求項1に記載の画像処理装置。 - 前記指定手段によって前記第2の画像における前記候補点の位置が変更された場合に、前記第1の点、前記候補点、および、変更された位置における前記候補点の点群の情報を用いて、前記第1の画像と前記第2の画像の間の位置合わせを実行する位置合わせ手段を更に有することを特徴とする請求項1に記載の画像処理装置。
- 被検体を所定の条件で撮影することにより得られた第1の画像において当該被検体の特徴部分を取得する第1の取得手段と、
実空間中で、前記第1の取得手段により取得された特徴部分と対応する、前記被検体の特徴部分を取得する第2の取得手段と、
前記第1の画像上の第1の点を指定する第1の指定手段と、
実空間中で前記被検体における第2の点を指定する第2の指定手段と、
前記第1の画像における前記第1の点と前記第1の取得手段により取得された前記被検体の特徴部分との位置関係、および、実空間中での前記被検体における第2の点と前記第2の取得手段により取得された前記被検体の特徴部分との位置関係に基づいて、前記第1の点と前記第2の点との整合度を導出する導出手段と、
前記導出された整合度を表示部に表示させる表示制御手段と、
を有することを特徴とする画像処理装置。 - 前記導出手段は、前記第1の画像における前記第1の点から前記被検体の特徴部分の位置までの第1の距離と、前記第2の点から前記被検体の特徴部分の位置までの第2の距離に基づいて、前記整合度を導出することを特徴とする請求項14に記載の画像処理装置。
- 被検体を異なる条件で撮影することにより得られた第1の画像と第2の画像のそれぞれにおいて当該被検体の対応する特徴部分を取得する取得工程と、
前記第1の画像上の第1の点と、前記第2の画像における前記第1の点の対応点候補である候補点を指定する指定工程と、
前記第1の画像における前記第1の点と前記被検体の特徴部分の間の第1の距離と、前記第2の画像における前記候補点と前記被検体の特徴部分の間の第2の距離との第1の距離の比に基づいて、前記第1の点と前記候補点との整合度を導出する導出工程と、
前記導出された整合度を表示部に表示させる表示制御工程と、
を有し、
前記指定工程において前記第2の画像における前記候補点の位置が変更された場合、
前記導出工程では、前記第1の画像における前記第1の点と前記特徴部分の間の第1の距離と、前記第2の画像において該位置が変更された前記候補点と前記特徴部分の間の第3の距離との第2の距離の比に基づいて、前記第1の画像における前記第1の点と前記第2の画像において該位置が変更された候補点との整合度を再導出し、
前記指定工程では、前記第2の距離の比に基づいて整合度が再導出された候補点を前記第2の画像における第2の点として指定した場合、該指定された第2の点は前記第1の点の対応点として設定されることを特徴とする画像処理装置の制御方法。 - 被検体を所定の条件で撮影することにより得られた第1の画像において当該被検体の特徴部分を取得する第1の取得工程と、
実空間中で、前記第1の取得工程において取得された特徴部分と対応する、前記被検体の特徴部分を取得する第2の取得工程と、
前記第1の画像上の第1の点を取得する第3の取得工程と、
3次元センサが実空間中で前記被検体における第2の点を計測する計測工程と、
前記第1の画像における前記第1の点と前記第1の取得工程において取得された前記被検体の特徴部分との位置関係、および、実空間中での前記被検体における第2の点と前記第2の取得工程において取得された前記被検体の特徴部分との位置関係に基づいて、前記第1の点と前記第2の点との整合度を導出する導出工程と、
前記導出された整合度を表示部に表示させる表示制御工程と、
を有することを特徴とする画像処理装置の作動方法。
- コンピュータを、請求項1から11のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016174964A JP6886260B2 (ja) | 2016-09-07 | 2016-09-07 | 画像処理装置、その制御方法、およびプログラム |
US15/678,233 US10603016B2 (en) | 2016-09-07 | 2017-08-16 | Image processing apparatus, method of controlling the same, and non-transitory computer-readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016174964A JP6886260B2 (ja) | 2016-09-07 | 2016-09-07 | 画像処理装置、その制御方法、およびプログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2018038609A JP2018038609A (ja) | 2018-03-15 |
JP2018038609A5 JP2018038609A5 (ja) | 2019-09-12 |
JP6886260B2 true JP6886260B2 (ja) | 2021-06-16 |
Family
ID=61281795
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016174964A Active JP6886260B2 (ja) | 2016-09-07 | 2016-09-07 | 画像処理装置、その制御方法、およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US10603016B2 (ja) |
JP (1) | JP6886260B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6840481B2 (ja) * | 2016-07-19 | 2021-03-10 | キヤノン株式会社 | 画像処理装置および画像処理方法 |
JP6656207B2 (ja) * | 2017-05-31 | 2020-03-04 | キヤノン株式会社 | 情報処理装置、その制御方法、及びプログラム |
US10445891B2 (en) * | 2017-11-03 | 2019-10-15 | Canon Medical Systems Corporation | Medical image processing apparatus and method |
KR102084256B1 (ko) | 2018-03-26 | 2020-03-03 | (주)레벨소프트 | 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법 |
CN110772280B (zh) * | 2018-07-31 | 2023-05-23 | 佳能医疗系统株式会社 | 超声波诊断装置和方法以及图像处理装置和方法 |
KR102233585B1 (ko) | 2020-02-26 | 2021-03-30 | (주)레벨소프트 | 복수의 후보 대응점을 이용하는 영상 정합 장치 및 방법 |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7783094B2 (en) * | 2005-06-02 | 2010-08-24 | The Medipattern Corporation | System and method of computer-aided detection |
JP2008073076A (ja) * | 2006-09-19 | 2008-04-03 | Institute Of National Colleges Of Technology Japan | 乳房x線画像処理装置 |
US8194947B2 (en) * | 2006-11-21 | 2012-06-05 | Hologic, Inc. | Facilitating comparison of medical images |
US20090154782A1 (en) * | 2007-12-17 | 2009-06-18 | Three Palm Software | Dual-magnify-glass visualization for soft-copy mammography viewing |
JP5523791B2 (ja) * | 2008-10-27 | 2014-06-18 | 株式会社東芝 | X線診断装置および画像処理装置 |
CN102197412B (zh) * | 2008-10-28 | 2014-01-08 | 日本电气株式会社 | 伪装检测系统和伪装检测方法 |
US8475377B2 (en) * | 2009-09-28 | 2013-07-02 | First Sense Medical, Llc | Multi-modality breast cancer test system |
US8903144B2 (en) * | 2010-12-01 | 2014-12-02 | Olympus Corporation | Endoscope apparatus and method of measuring object |
WO2012116746A1 (en) * | 2011-03-02 | 2012-09-07 | Mevis Medical Solutions Ag | Image processing device for finding corresponding regions in two image data sets of an object |
JP2012213558A (ja) * | 2011-04-01 | 2012-11-08 | Canon Inc | 画像処理装置、画像処理方法およびプログラム |
JP5812841B2 (ja) * | 2011-12-14 | 2015-11-17 | 株式会社日立製作所 | 画像診断支援装置、画像診断支援方法、画像診断支援プログラム |
US9420973B1 (en) * | 2013-04-01 | 2016-08-23 | Alon Konchitsky | Apparatus, device and method for validating electrocardiogram |
JP6197340B2 (ja) * | 2013-04-05 | 2017-09-20 | オムロン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US9129362B2 (en) * | 2013-05-22 | 2015-09-08 | Siemens Aktiengesellschaft | Semantic navigation and lesion mapping from digital breast tomosynthesis |
US10074199B2 (en) * | 2013-06-27 | 2018-09-11 | Tractus Corporation | Systems and methods for tissue mapping |
JP6309376B2 (ja) * | 2013-07-03 | 2018-04-11 | キヤノンメディカルシステムズ株式会社 | 医用情報処理システム、医用情報処理プログラム及び超音波診断装置 |
KR20150074304A (ko) * | 2013-12-23 | 2015-07-02 | 삼성전자주식회사 | 의료 영상 정보를 제공하는 방법 및 그 장치 |
JP6346445B2 (ja) | 2014-01-10 | 2018-06-20 | キヤノン株式会社 | 処理装置、処理装置の制御方法、およびプログラム |
JP6238755B2 (ja) * | 2014-01-10 | 2017-11-29 | キヤノン株式会社 | 情報処理装置、情報処理方法、及びプログラム |
JP6376873B2 (ja) | 2014-07-16 | 2018-08-22 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP6482250B2 (ja) * | 2014-11-20 | 2019-03-13 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US10531840B2 (en) * | 2015-03-19 | 2020-01-14 | Panasonic Intellectual Property Management Co., Ltd. | Image display device, image display system, image display method, and program |
JP6768389B2 (ja) * | 2015-08-07 | 2020-10-14 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
US20170055844A1 (en) * | 2015-08-27 | 2017-03-02 | Canon Kabushiki Kaisha | Apparatus and method for acquiring object information |
WO2017054775A1 (en) * | 2015-09-30 | 2017-04-06 | Shanghai United Imaging Healthcare Co., Ltd. | System and method for determining a breast region in a medical image |
US10318102B2 (en) * | 2016-01-25 | 2019-06-11 | Adobe Inc. | 3D model generation from 2D images |
KR20180066781A (ko) * | 2016-12-09 | 2018-06-19 | 삼성전자주식회사 | 의료 영상을 표시하는 방법 및 장치 |
-
2016
- 2016-09-07 JP JP2016174964A patent/JP6886260B2/ja active Active
-
2017
- 2017-08-16 US US15/678,233 patent/US10603016B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10603016B2 (en) | 2020-03-31 |
US20180064422A1 (en) | 2018-03-08 |
JP2018038609A (ja) | 2018-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6886260B2 (ja) | 画像処理装置、その制御方法、およびプログラム | |
US9480456B2 (en) | Image processing apparatus that simultaneously displays two regions of interest on a body mark, processing method thereof and storage medium | |
JP5995449B2 (ja) | 情報処理装置及びその制御方法 | |
CN105167793B (zh) | 图像显示装置、显示控制装置及显示控制方法 | |
US10008048B2 (en) | Information processing apparatus and information processing method | |
US9129362B2 (en) | Semantic navigation and lesion mapping from digital breast tomosynthesis | |
EP2849157B1 (en) | Image processing apparatus, image processing method, and computer-readable storage medium | |
JP6376873B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
CN104586418B (zh) | 医用图像数据处理装置和医用图像数据处理方法 | |
JP2017035469A (ja) | 画像処理装置、画像処理方法、およびプログラム | |
JP2016147026A (ja) | 画像処理装置、画像処理方法およびプログラム | |
US20120027277A1 (en) | Interactive iterative closest point algorithm for organ segmentation | |
CN107111875A (zh) | 用于多模态自动配准的反馈 | |
WO2021234907A1 (ja) | 画像処理装置、制御方法及び記憶媒体 | |
JP6293619B2 (ja) | 画像処理方法および装置並びにプログラム | |
JP5121399B2 (ja) | 画像表示装置 | |
JP5925576B2 (ja) | 画像処理装置、画像処理方法 | |
JP4497951B2 (ja) | 医用画像診断装置 | |
JP6934734B2 (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム | |
US20130332868A1 (en) | Facilitating user-interactive navigation of medical image data | |
JP6821303B2 (ja) | 情報処理装置、情報処理方法およびプログラム | |
US11139069B2 (en) | Medical image diagnostic apparatus, image processing apparatus, and registration method | |
JP7309447B2 (ja) | 医用画像診断装置、画像処理装置及び位置合わせ方法 | |
JP6752254B2 (ja) | 情報処理装置、情報処理方法 | |
JP2016106781A (ja) | 画像処理装置、画像処理装置の制御方法およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190730 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200703 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201027 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20210103 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210416 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210514 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6886260 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |