JP2017127623A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2017127623A
JP2017127623A JP2016207259A JP2016207259A JP2017127623A JP 2017127623 A JP2017127623 A JP 2017127623A JP 2016207259 A JP2016207259 A JP 2016207259A JP 2016207259 A JP2016207259 A JP 2016207259A JP 2017127623 A JP2017127623 A JP 2017127623A
Authority
JP
Japan
Prior art keywords
image
deformation
region
interest
approximate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016207259A
Other languages
Japanese (ja)
Other versions
JP2017127623A5 (en
JP6905323B2 (en
Inventor
和大 宮狭
Kazuhiro Miyasa
和大 宮狭
亮 石川
Ryo Ishikawa
亮 石川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to EP16002762.9A priority Critical patent/EP3206189B1/en
Priority to EP18191466.4A priority patent/EP3444781B1/en
Priority to US15/400,074 priority patent/US10417777B2/en
Publication of JP2017127623A publication Critical patent/JP2017127623A/en
Publication of JP2017127623A5 publication Critical patent/JP2017127623A5/ja
Application granted granted Critical
Publication of JP6905323B2 publication Critical patent/JP6905323B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To estimate deformation conformed as an entire image.SOLUTION: An image processor acquires a first image and a second image obtained by photographing a subject under different conditions, acquires an area of interest in the first image, acquires a first deformation displacement field between the first image and the second image, generates an approximated displacement field by using an approximation conversion model less in freedom than the first deformation displacement field to approximate the first deformation displacement field, generates correspondence information between the first image and an image where the first image is displaced on the basis of the approximated displacement field with respect to the area of interest, and acquires a second deformation displacement field between the first image and the second image by using the correspondence information.SELECTED DRAWING: Figure 1

Description

本発明は、核磁気共鳴映像装置(MRI)、X線コンピュータ断層撮影装置(X線CT)、超音波画像診断装置(US)など、種々の撮像装置(モダリティ)で撮像した3次元画像を処理する画像処理装置、画像処理方法、およびプログラムに関する。   The present invention processes three-dimensional images captured by various imaging apparatuses (modalities) such as a nuclear magnetic resonance imaging apparatus (MRI), an X-ray computed tomography apparatus (X-ray CT), and an ultrasonic diagnostic imaging apparatus (US). The present invention relates to an image processing apparatus, an image processing method, and a program.

3次元画像(被検体内部の情報を表す3次元断層画像)を用いた画像診断において、医師は、複数の撮像装置(モダリティ)、異なる体位、時刻、撮像パラメータ等で撮像した画像を対比しながら診断を行う。しかし、画像間で被検体の形状が異なるため、病変部の同定や対比を行うことが困難である。そこで、複数画像間の変形位置合わせ(変形推定)を行うことが試みられている。これにより、一方の画像に変形を施して、画像中に描出されている被検体の位置や形状を他方の画像に略一致させた変形画像を生成することが可能となる。また、一方の画像上で注目した点の、他方の画像上における対応点の位置を算出して提示することが可能となる。その結果、医師は、複数画像間における病変部の同定や対比を容易に行うことが可能となる。医療以外の分野においても、3次元画像を用いて物体の内部状態を検査する目的において、同様の作業が実施される場合がある。   In image diagnosis using a three-dimensional image (a three-dimensional tomographic image representing information inside a subject), a doctor compares images taken with a plurality of imaging devices (modalities), different positions, times, imaging parameters, and the like. Make a diagnosis. However, since the shape of the subject is different between images, it is difficult to identify and compare the lesioned part. Therefore, attempts have been made to perform deformation position alignment (deformation estimation) between a plurality of images. Thus, it is possible to generate a deformed image in which one image is deformed and the position and shape of the subject depicted in the image are substantially matched with the other image. It is also possible to calculate and present the position of the corresponding point on the other image of the point of interest on one image. As a result, the doctor can easily identify and compare a lesioned portion between a plurality of images. In fields other than medical treatment, the same operation may be performed for the purpose of inspecting the internal state of an object using a three-dimensional image.

このとき、画像には、様々な臓器や体組織が含まれており、種類によって組織の硬さが異なる。例えば、骨は非常に硬いため、比較する画像間で被検体の姿勢や形状が変わっても、殆ど形状が変形しない。また、腫瘍などの病変部も種類によっては周囲の組織よりも硬く、形状が変形しづらいものが存在する。従って、このような硬い組織を周囲の柔らかい組織と同様に扱って変形位置合わせ(変形推定)を行うと、実際には変形していない硬い領域が変形していると推定されて、誤った位置合わせ結果が得られてしまう場合がある。   At this time, the image includes various organs and body tissues, and the hardness of the tissues varies depending on the type. For example, since the bone is very hard, even if the posture and shape of the subject change between images to be compared, the shape hardly deforms. Also, some lesions such as tumors are harder than the surrounding tissue depending on the type, and their shape is difficult to deform. Therefore, if such a hard tissue is handled in the same way as the surrounding soft tissue and deformation positioning (deformation estimation) is performed, it is estimated that the hard region that is not actually deformed is deformed, resulting in an incorrect position. In some cases, a matching result may be obtained.

この問題に対する解決手段として、特許文献1では、非剛体位置合わせによって得られた変位場において、剛体であるべき硬い関心領域の変位場のみを剛体変換に近付けることで、関心領域が変形しているという誤った推定を回避する技術が提案されている。より具体的には、特許文献1には、関心領域の変形のみを剛体変換に近似し、関心領域に関しては近似した剛体変換の変位場を生成し、非関心領域に関しては元の変形位置合わせの変位場を生成し、それらを空間的に結合した変位場を生成する技術が記載されている。ここで、変位場とは2画像間の各位置の間の変換(変位)を保持した場のことである。このように、特許文献1では、画像内の領域によって性質の異なる変換モデルを用いて、画像間の変形位置合わせ(変形推定)を行う技術が開示されている。ここで、変換モデルとは、位置合わせにおいて画像上の各位置の座標を変換させるためのモデルを表す。   As a solution to this problem, in Patent Document 1, in the displacement field obtained by non-rigid body alignment, the region of interest is deformed by bringing only the displacement field of the hard region of interest that should be a rigid body close to rigid body transformation. A technique for avoiding such an erroneous estimation has been proposed. More specifically, in Patent Document 1, only the deformation of the region of interest is approximated to rigid transformation, a displacement field of the approximated rigid transformation is generated for the region of interest, and the original deformation alignment of the non-interest region is generated. Techniques for generating displacement fields and generating displacement fields that are spatially coupled are described. Here, the displacement field is a field that holds the transformation (displacement) between each position between two images. As described above, Patent Document 1 discloses a technique for performing deformation alignment (deformation estimation) between images using a conversion model having different properties depending on regions in the image. Here, the conversion model represents a model for converting the coordinates of each position on the image in alignment.

特開2013−141603号公報JP 2013-141603 A

K.Rohr,H.S.Stiehl,R.Sprengel,T.M.Buzug,J.Weese,and M.H.Kuhn,“Landmark−Based Elastic Registration Using Approximating Thin−Plate Splines”,IEEE Transactions on Medical Imaging,Vol.20,No.6 June2001.K. Rohr, H .; S. Stiehl, R.M. Sprangel, T .; M.M. Buzz, J. et al. Weese, and M.M. H. Kuhn, “Landmark-Based Elastic Registration Using Applicating Thin-Plate Springs”, IEEE Transactions on Medical Imaging, Vol. 20, no. 6 June2001.

しかし、特許文献1の技術では、関心領域と非関心領域とで性質の異なる変換モデルで座標変換を表し、その間を補間してつなぎ合わせることで全体の変形位置合わせを行っている。そのため、特にそのつなぎ目で整合の取れた変形が得られない場合があるという課題があった。   However, in the technique of Patent Document 1, coordinate transformation is represented by a transformation model having different properties between a region of interest and a non-region of interest, and the entire deformation position is aligned by interpolating and joining them. For this reason, there is a problem that a consistent deformation may not be obtained particularly at the joint.

本発明は、上記課題に鑑みてなされたものであり、画像全体として整合の取れた変形を推定することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to estimate a consistent deformation of the entire image.

上記目的を達成するための一手段として、本発明の画像処理装置は以下の構成を備える。すなわち、画像処理装置は、被検体を異なる条件で撮像することにより得られた第1の画像と第2の画像を取得するデータ取得手段と、前記第1の画像内の関心領域を取得する関心領域取得手段と、前記第1の画像と前記第2の画像の間の第1の変形変位場を取得する第1の変形取得手段と、前記第1の変形変位場を、前記第1の変形変位場より自由度が少ない近似変換モデルを用いて近似して近似変位場を生成する変形近似手段と、前記関心領域に関して、前記第1の画像と前記第1の画像が前記近似変位場に基づいて変位される画像との間の対応情報を生成する対応情報生成手段と、前記対応情報を用いて、前記第1の画像と前記第2の画像の間の第2の変形変位場を取得する第2の変形取得手段と、を備えることを特徴とする。   As a means for achieving the above object, an image processing apparatus of the present invention comprises the following arrangement. That is, the image processing apparatus includes a data acquisition unit that acquires a first image and a second image obtained by imaging a subject under different conditions, and an interest that acquires a region of interest in the first image. Area acquisition means, first deformation acquisition means for acquiring a first deformation displacement field between the first image and the second image, and the first deformation displacement field as the first deformation. Deformation approximating means for generating an approximate displacement field by approximation using an approximate transformation model having a lower degree of freedom than the displacement field, and for the region of interest, the first image and the first image are based on the approximate displacement field. A correspondence information generating means for generating correspondence information between the first and second images and a second deformation displacement field between the first image and the second image using the correspondence information. And second deformation acquisition means.

本発明によれば、関心領域と非関心領域とをひとつの変換モデルでシームレスに記述できるので、画像全体として整合の取れた変形を推定できる。   According to the present invention, a region of interest and a non-region of interest can be described seamlessly with a single conversion model, so that a consistent deformation can be estimated for the entire image.

第1の実施形態における画像処理システムの構成を示す図。1 is a diagram illustrating a configuration of an image processing system according to a first embodiment. 第1の実施形態における全体の処理手順を示すフローチャート。5 is a flowchart showing an overall processing procedure in the first embodiment. 同一の被検体に関する第1の画像と第2の画像を示す図。The figure which shows the 1st image and 2nd image regarding the same subject. 第1の画像と代表点に対して第1の変形を適用する様子を説明する図。The figure explaining a mode that a 1st deformation | transformation is applied with respect to a 1st image and a representative point. 関心領域の第1の変形を剛体変換で近似する様子を説明する図。The figure explaining a mode that the 1st deformation | transformation of a region of interest is approximated by rigid body transformation. 関心領域上に近似仮想対応点を生成する様子を説明する図。The figure explaining a mode that an approximate virtual corresponding point is produced | generated on a region of interest. 第1の画像に対して第2の変形を適用する様子を説明する図。The figure explaining a mode that a 2nd deformation | transformation is applied with respect to a 1st image. 第2の実施形態における画像処理装置の構成を示す図。The figure which shows the structure of the image processing apparatus in 2nd Embodiment. 第2の実施形態における全体の処理手順を示すフローチャート。The flowchart which shows the whole process sequence in 2nd Embodiment. 第3の実施形態における画像処理装置の構成を示す図。The figure which shows the structure of the image processing apparatus in 3rd Embodiment. 第3の実施形態における全体の処理手順を示すフローチャート。The flowchart which shows the whole process sequence in 3rd Embodiment. 中間代表点を示す図。The figure which shows an intermediate | middle representative point. 第4の実施形態における画像処理装置の構成を示す図。The figure which shows the structure of the image processing apparatus in 4th Embodiment. 第4の実施形態における全体の処理手順を示すフローチャート。The flowchart which shows the whole process sequence in 4th Embodiment. 第5の実施形態における画像処理装置の構成を示す図。The figure which shows the structure of the image processing apparatus in 5th Embodiment. 第5の実施形態における全体の処理手順を示すフローチャート。The flowchart which shows the whole process sequence in 5th Embodiment. 第5の実施形態における第1の変形を取得する処理の詳細な手順を示すフローチャート。The flowchart which shows the detailed procedure of the process which acquires the 1st deformation | transformation in 5th Embodiment.

以下、添付図面に従って本発明における画像処理装置の好ましい実施形態について詳説する。ただし、発明の範囲は図示例に限定されるものではない。   Hereinafter, preferred embodiments of an image processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings. However, the scope of the invention is not limited to the illustrated examples.

<第1の実施形態>
本実施形態における画像処理装置は、3次元画像である第1の画像と第2の画像の変形位置合わせを行う。このとき、硬い病変や骨などの硬くあるべき領域が関心領域として第1の画像上で与えられた場合には、画像処理装置は、関心領域を剛体として維持したまま、画像全体として整合性の取れた変形位置合わせを行う。また、画像処理装置は、剛体に限らず、全体よりも自由度が小さい変形を関心領域に適用させた変形位置合わせを行うことができる。ここで、変形位置合わせとは、第1の画像中の披検体の形状が第2の画像中の披検体の形状に合致するように第1の画像に施す変形を推定することを意味する。また、そのように第1の画像を変形させた変形画像を生成することを意味する。
<First Embodiment>
The image processing apparatus according to the present embodiment performs deformation position alignment between the first image and the second image that are three-dimensional images. At this time, when a region that should be hard, such as a hard lesion or bone, is given as a region of interest on the first image, the image processing apparatus maintains consistency as the entire image while maintaining the region of interest as a rigid body. Perform the deformed alignment. In addition, the image processing apparatus is not limited to a rigid body, and can perform deformation alignment by applying deformation having a smaller degree of freedom than the whole to the region of interest. Here, the deformation alignment means that the deformation to be applied to the first image is estimated so that the shape of the specimen in the first image matches the shape of the specimen in the second image. Further, it means that a deformed image obtained by deforming the first image is generated.

本実施形態における画像処理装置は、具体的には、まず、位置合わせの適切さを評価する所定の評価関数に基づき、2つの画像間の第1の変形位置合わせを行う。次に、画像処理装置は、第1の変形位置合わせで得た第1の画像内の関心領域の局所的な変形を、剛体変換のような自由度の小さい変換で近似する。そして、画像処理装置は、関心領域上の複数の代表点の夫々について、近似した変換を用いて代表点を第1の画像から第2の画像に変位させた点(変位点)を得て、代表点と変位点とからなる2画像間で仮想的に対応する対応点(対応する点の対)を生成する。最後に、画像処理装置は、生成した複数の仮想的な対応点を2つの画像間の位置合わせの拘束条件として位置合わせの評価関数に追加し、再度、2つの画像間の第2の変形位置合わせを行う。これにより、硬い病変や骨などの硬くあるべき領域を関心領域(変形を抑制したい領域)として設定することで、評価関数に基づく適切な変形を画像全体に適用しつつ、関心領域の形状を維持した変形を推定できる。つまり、画像全体として整合が取れた変形を推定できる。   Specifically, the image processing apparatus according to the present embodiment first performs first deformation alignment between two images based on a predetermined evaluation function for evaluating the appropriateness of alignment. Next, the image processing apparatus approximates the local deformation of the region of interest in the first image obtained by the first deformation alignment by a transformation with a small degree of freedom such as a rigid body transformation. Then, the image processing apparatus obtains a point (displacement point) obtained by displacing the representative point from the first image to the second image using approximate conversion for each of the plurality of representative points on the region of interest. Corresponding corresponding points (a pair of corresponding points) are generated virtually between two images composed of representative points and displacement points. Finally, the image processing apparatus adds the generated plurality of virtual corresponding points to the alignment evaluation function as the alignment constraint between the two images, and again the second deformation position between the two images. Align. By setting hard regions such as hard lesions and bones as regions of interest (regions where deformation is to be suppressed), the shape of the region of interest is maintained while applying appropriate deformation based on the evaluation function to the entire image. Can be estimated. That is, it is possible to estimate a deformation that is consistent with the entire image.

以下、図1から図7を用いて、本実施形態の構成及び処理を説明する。図1は、本実施形態における画像処理装置100の構成を示す図である。同図に示すように、画像処理装置100は、データサーバ110および表示部120と接続されている。なお、画像処理装置100は、データサーバ110と表示部120を含む構成としてもよい。   Hereinafter, the configuration and processing of this embodiment will be described with reference to FIGS. 1 to 7. FIG. 1 is a diagram illustrating a configuration of an image processing apparatus 100 according to the present embodiment. As shown in the figure, the image processing apparatus 100 is connected to a data server 110 and a display unit 120. Note that the image processing apparatus 100 may include a data server 110 and a display unit 120.

データサーバ110が保持する第1および第2の画像は、異なる条件(異なるモダリティ、撮像モード、日時、体位等)で被検体を予め撮像して得られた3次元断層画像(ボリュームデータ)である。3次元断層画像を撮像するモダリティは、MRI(Magnetic Resonance Imaging)装置、X線CT(Computed Tomography)装置、3次元超音波撮影装置、光音響トモグラフィ装置、PET(Positron Emission Tomography)/SPECT(Single Photon Emission Computed Tomography)、OCT(Optical Coherence Tomography)装置などであってもよい。第1および第2の画像は、例えば、異なるモダリティや異なる撮像モードで同時期に撮像されたものであってもよい。また、経過観察のために同一患者を同一モダリティ、同一体位で異なる日時に撮像した画像であってもよい。第1および第2の画像は、データ取得部1010を介して画像処理装置100に入力される。   The first and second images held by the data server 110 are three-dimensional tomographic images (volume data) obtained by imaging the subject in advance under different conditions (different modalities, imaging modes, date / time, posture, etc.). . The modalities for imaging 3D tomographic images are MRI (Magnetic Resonance Imaging) apparatus, X-ray CT (Computed Tomography) apparatus, 3D ultrasound imaging apparatus, photoacoustic tomography apparatus, PET (Positron Emission Tomography) / SPECT (Single Photon Emission Computed Tomography (OCT), OCT (Optical Coherence Tomography) apparatus, etc. may be used. The first and second images may be captured at the same time in different modalities and different imaging modes, for example. Moreover, the image which image | photographed the same patient for the follow-up observation with the same modality and the same posture on the different date may be sufficient. The first and second images are input to the image processing apparatus 100 via the data acquisition unit 1010.

表示部120は液晶モニタ等であり、画像処理装置100が生成する表示画像等の各種の情報を表示する。また、表示部120には、ユーザからの指示を取得するためのGUI(Graphical User Interface)も配置されている。このGUIは、以下の説明における操作部としても機能する。   The display unit 120 is a liquid crystal monitor or the like, and displays various types of information such as a display image generated by the image processing apparatus 100. The display unit 120 is also provided with a GUI (Graphical User Interface) for obtaining an instruction from the user. This GUI also functions as an operation unit in the following description.

画像処理装置100は、データ取得部1010、関心領域取得部1020、第1の変形取得部1030、変形近似部1040、対応情報生成部1050、第2の変形取得部1060、表示制御部1070から構成される。   The image processing apparatus 100 includes a data acquisition unit 1010, a region of interest acquisition unit 1020, a first deformation acquisition unit 1030, a deformation approximation unit 1040, a correspondence information generation unit 1050, a second deformation acquisition unit 1060, and a display control unit 1070. Is done.

データ取得部1010は、画像処理装置100へと入力される第1および第2の画像をデータサーバ110から取得する。関心領域取得部1020は、第1の画像上の変形を抑制したい領域(以下、関心領域)の情報を取得する。第1の変形取得部1030は、第1の画像と第2の画像との間の第1の変形位置合わせを行い、第1の画像を変形させるための第1の変形変位場を取得する。変形近似部1040は、関心領域における第1の変形変位場を、この変位場よりも自由度の小さい近似変換モデルを用いて近似することで、近似変位場を生成する。対応情報生成部1050は、画像間における仮想的な対応情報(仮想対応情報)として、近似変位場に基づき、関心領域上における仮想的な対応点(近似仮想対応点)の情報を生成する。第2の変形取得部1060は、画像間の一致度を評価する評価関数に仮想対応情報に基づく拘束条件を追加した評価関数に基づき、第1の画像と第2の画像との間で第2の変形位置合わせを行い、第1の画像を変形させるための第2の変形変位場を取得する。表示制御部1070は、第1の画像、第2の画像、位置合わせ結果に基づく変形画像の断層画像などの情報を表示部120に表示させる制御を行う。   The data acquisition unit 1010 acquires the first and second images input to the image processing apparatus 100 from the data server 110. The region-of-interest acquisition unit 1020 acquires information on a region (hereinafter referred to as a region of interest) that is desired to suppress deformation on the first image. The first deformation acquisition unit 1030 performs a first deformation position alignment between the first image and the second image, and acquires a first deformation displacement field for deforming the first image. The deformation approximating unit 1040 generates an approximate displacement field by approximating the first deformation displacement field in the region of interest using an approximate transformation model having a smaller degree of freedom than the displacement field. The correspondence information generation unit 1050 generates information on virtual corresponding points (approximate virtual corresponding points) on the region of interest based on the approximate displacement field as virtual correspondence information (virtual correspondence information) between images. The second deformation acquisition unit 1060 performs second processing between the first image and the second image based on an evaluation function obtained by adding a constraint condition based on virtual correspondence information to an evaluation function for evaluating the degree of coincidence between images. To obtain a second deformation displacement field for deforming the first image. The display control unit 1070 performs control for causing the display unit 120 to display information such as the first image, the second image, and the tomographic image of the deformed image based on the alignment result.

図2は、画像処理装置100が行う全体の処理手順を示すフローチャートである。   FIG. 2 is a flowchart illustrating an overall processing procedure performed by the image processing apparatus 100.

(S2000)(データの取得)
ステップS2000において、データ取得部1010は、データサーバ110から、第1の画像と第2の画像を取得する。そして、データ取得部1010は、第1および第2の画像を、関心領域取得部1020、第1の変形取得部1030、第2の変形取得部1060、および表示制御部1070へと出力する。
(S2000) (Data acquisition)
In step S2000, the data acquisition unit 1010 acquires the first image and the second image from the data server 110. Then, the data acquisition unit 1010 outputs the first and second images to the region of interest acquisition unit 1020, the first deformation acquisition unit 1030, the second deformation acquisition unit 1060, and the display control unit 1070.

図3は、同一の被検体に関する第1の画像3000と第2の画像3030を示す図である。図3の例では、第1の画像と第2の画像は異なる種類のモダリティの撮像画像であり、被写体が人体における乳房である場合を示している。それぞれの画像は、例えばCTやMRI、3D超音波画像などの3次元のボリュームデータを表すが、紙面が2次元である都合上、ボリュームデータからx−y平面に平行に切り出された断面画像の形式で示されている。   FIG. 3 is a diagram showing a first image 3000 and a second image 3030 relating to the same subject. In the example of FIG. 3, the first image and the second image are captured images of different types of modalities, and the subject is a breast in a human body. Each image represents, for example, three-dimensional volume data such as CT, MRI, and 3D ultrasound image. However, for the convenience of the two-dimensional paper surface, a cross-sectional image cut out parallel to the xy plane from the volume data. Shown in the format.

第1の画像3000には、被写体の領域3010と病変領域3020が示されている。同様に、第2の画像3030には、被写体の領域3040と病変領域3050が示されている。病変領域3020と病変領域3050は、それぞれ解剖学的に対応する領域である。図3の例では、第1の画像と第2の画像の間で、乳房である被検体の領域3010と3040は大きく変形しているが、病変領域3020と3050は、解剖学的に硬い病変であるため、あまり変形していない状況を表している。   In the first image 3000, a subject area 3010 and a lesion area 3020 are shown. Similarly, the second image 3030 shows a subject area 3040 and a lesion area 3050. The lesion area 3020 and the lesion area 3050 are anatomically corresponding areas. In the example of FIG. 3, the regions 3010 and 3040 of the subject that are breasts are greatly deformed between the first image and the second image, but the lesion regions 3020 and 3050 are anatomically hard lesions. Therefore, it represents a situation where the deformation is not so much.

(S2010)(関心領域の取得)
ステップS2010において、関心領域取得部1020は、データ取得部1010から取得した画像上において、関心領域の情報(変形を抑制したい病変部等の情報)を取得する。そして、関心領域取得部1020は、取得した関心領域の情報を、対応情報生成部1050へと出力する。
(S2010) (Obtain region of interest)
In step S2010, the region-of-interest acquisition unit 1020 acquires information on the region of interest (information on a lesion or the like whose deformation is to be suppressed) on the image acquired from the data acquisition unit 1010. Then, the region of interest acquisition unit 1020 outputs the acquired information of the region of interest to the correspondence information generation unit 1050.

ここで、関心領域は、例えば、硬い病変部等の領域や骨の領域、胸壁、大胸筋など、撮像画像間で変形しづらい領域であってもよい。さらには、第1の画像と第2の画像が異なる日時に撮像された経時画像である場合には、関心領域は、経過観察の対象となる病変領域であってもよい。これは、治療効果の判定等を目的として、経時画像間を変形位置合わせした上で病変領域の経過観察をしたい場合に、病変領域まで変形してしまっては、経時変化による病変の大きさ等の変化が観察できないためである。そこで、実際には剛体ではない病変であっても、画像間で病変領域を剛体(形状を変化させない領域)として扱うことで、大きさ等の変化の観察が容易となる。   Here, the region of interest may be a region that is difficult to deform between captured images, such as a region such as a hard lesion, a bone region, a chest wall, and a great pectoral muscle. Furthermore, when the first image and the second image are time-lapse images captured at different dates and times, the region of interest may be a lesion region that is a subject of follow-up observation. This is because, for the purpose of determining the therapeutic effect, etc., if it is desired to observe the progress of the lesion area after aligning the positions of the images over time, the size of the lesion due to changes over time, etc. This is because the change of cannot be observed. Therefore, even in the case of a lesion that is not actually a rigid body, it is easy to observe changes in size and the like by treating the lesion area as a rigid body (a region in which the shape is not changed) between images.

本実施形態では、例えば、関心領域取得部1020は、図3の第1の画像3000上で輪郭が明瞭に描出されている病変領域3020を関心領域として取得する。本実施形態では、ユーザが不図示の操作部を操作して画像上の病変部の輪郭形状を手動で抽出することにより、関心領域取得部1020は、関心領域の情報を取得する。取得された関心領域としての病変領域3020は例えば、関心領域内外が2値化されたマスク画像IROIで表現される。なお、関心領域は、関心領域の内外が区別できる形式であれば、どのような形式で表現されてもよい。また、関心領域は必ずしも1箇所である必要はなく、複数の関心領域が取得されてもよい。 In the present embodiment, for example, the region-of-interest acquisition unit 1020 acquires a lesion region 3020 whose outline is clearly depicted on the first image 3000 in FIG. 3 as the region of interest. In the present embodiment, the region of interest acquisition unit 1020 acquires the information of the region of interest when the user manually operates the operation unit (not shown) to manually extract the contour shape of the lesion on the image. The acquired lesion region 3020 as the region of interest is represented by, for example, a mask image I ROI that is binarized inside and outside the region of interest. The region of interest may be expressed in any format as long as the region of interest can be distinguished. Moreover, the region of interest does not necessarily have to be one place, and a plurality of regions of interest may be acquired.

なお、関心領域取得部1020は、関心領域を取得する処理を、一般的に用いられている画像解析技術により行ってもよい。例えば、変形を抑制する病変領域内の座標をユーザがシード点として与えた後に、関心領域取得部1020は、領域拡張法によって領域を抽出してもよい。なお、病変領域の抽出方法はこれに限られるものではなく、SNAKESやLevelSet法などの公知の領域分割手法で行ってもよい。また、関心領域取得部1020が複数の病変候補領域を検出する一般的な画像処理を第1または第2の画像に施した後に、変形を制御する領域をユーザが不図示の操作部を操作して指定(選択)することにより、関心領域取得部1020は関心領域を取得してもよい。   Note that the region-of-interest acquisition unit 1020 may perform the process of acquiring the region of interest by a commonly used image analysis technique. For example, the region-of-interest acquisition unit 1020 may extract a region by a region expansion method after the user gives coordinates in a lesion region that suppresses deformation as a seed point. The extraction method of the lesion area is not limited to this, and a known area division method such as SNAKES or LevelSet method may be used. Further, after the region-of-interest acquisition unit 1020 performs general image processing for detecting a plurality of lesion candidate regions on the first or second image, the user operates an operation unit (not shown) on the region for controlling deformation. The region of interest acquisition unit 1020 may acquire the region of interest by designating (selecting).

(S2020)(第1の変形の取得)
ステップS2020において、第1の変形取得部1030は、データ取得部1010から取得した第1の画像と第2の画像との間の第1の変形位置合わせを実行し、第1の変形変位場を取得する。そして、第1の変形取得部1030は、取得した第1の変形変位場を対応情報生成部1050へと出力する。さらに、第1の変形取得部1030は、第1の変形変位場に基づいて第1の画像を変形させた第1の変形画像を生成して、表示制御部1070へと出力する。
(S2020) (Acquisition of first deformation)
In step S2020, the first deformation acquisition unit 1030 executes the first deformation alignment between the first image and the second image acquired from the data acquisition unit 1010, and obtains the first deformation displacement field. get. Then, the first deformation acquisition unit 1030 outputs the acquired first deformation displacement field to the correspondence information generation unit 1050. Furthermore, the first deformation acquisition unit 1030 generates a first deformation image obtained by deforming the first image based on the first deformation displacement field, and outputs the first deformation image to the display control unit 1070.

このとき、第1の変形取得部1030は、変形Φによる位置合わせの適切さを評価する評価関数(コスト関数)を定義し、該評価関数を最小化するような変形Φを推定する。このとき推定された変形Φを第1の変形と称する。変形Φは変位場(変形変位場)によって表現される。ここで、変位場の形態は、画像上の各位置を変位させる変位ベクトルからなる変位ベクトル場であってもよいし、空間的な場で表現されておらずとも、画像上の任意の位置を変位可能な所定の変換モデルが有する変換パラメータの形で表わされていてもよい。   At this time, the first deformation acquisition unit 1030 defines an evaluation function (cost function) that evaluates the appropriateness of alignment by the deformation Φ, and estimates the deformation Φ that minimizes the evaluation function. The deformation Φ estimated at this time is referred to as a first deformation. The deformation Φ is expressed by a displacement field (deformation displacement field). Here, the form of the displacement field may be a displacement vector field composed of displacement vectors for displacing each position on the image, or an arbitrary position on the image may be represented even if not represented by a spatial field. It may be expressed in the form of conversion parameters of a predetermined conversion model that can be displaced.

ここで、本ステップで定義する評価関数を第1の評価関数E1(Φ)と称する。本実施形態では、第1の評価関数を構成する指標として、変形による画像間の一致度を適用する。例えば、第1の画像と第2の画像の間における解剖学的に対応する特徴点(対応点)の位置の誤差を適用する。後述する仮想対応点と区別するために、このような画像間で実際に対応する対応点を実対応点と称する。特に、上述のように解剖学的に画像間で対応する実対応点をランドマーク対応点と称する。すなわち、第1の変形取得部1030は、ランドマーク対応点の位置を極力一致させるような変形を推定する。   Here, the evaluation function defined in this step is referred to as a first evaluation function E1 (Φ). In this embodiment, the degree of coincidence between images due to deformation is applied as an index constituting the first evaluation function. For example, an error in the position of a feature point (corresponding point) corresponding to an anatomy between the first image and the second image is applied. In order to distinguish from virtual corresponding points described later, such corresponding points that actually correspond between images are referred to as actual corresponding points. In particular, as described above, actual corresponding points corresponding anatomically between images are referred to as landmark corresponding points. That is, the first deformation acquisition unit 1030 estimates a deformation that matches the positions of the landmark corresponding points as much as possible.

第1の変形取得部1030は、対応点を取得するために、例えば、まず第1の画像、第2の画像に、それぞれインタレストオペレータ等の公知の画像特徴点抽出処理を施して、それぞれの画像から血管分岐等の解剖学的な特徴点を抽出する。その後、第1の変形取得部1030は、抽出されたそれぞれの特徴点の間で、1対1に対応付けすることによってランドマーク対応点の組を生成する処理を行う。この処理は、各画像上の特徴点ごとに特徴点近傍に関心領域を設定し、画像間で関心領域の画像類似度が高くなる特徴点同士を対応付けすることで行われる。   In order to acquire corresponding points, the first deformation acquisition unit 1030 first performs known image feature point extraction processing, such as an interest operator, on the first image and the second image, respectively, for example. Extract anatomical feature points such as blood vessel bifurcation. Thereafter, the first deformation acquisition unit 1030 performs a process of generating a set of landmark corresponding points by associating the extracted feature points with one-to-one correspondence. This process is performed by setting a region of interest in the vicinity of a feature point for each feature point on each image and associating feature points that increase the image similarity of the region of interest between images.

なお、ランドマーク対応点の取得方法は、上記の方法に限られるものではない。例えば、表示部120上に表示された第1の画像と第2の画像に対して、ユーザが不図示の操作部を用いて手動で入力した対応点により、ランドマーク対応点が取得されてもよい。また、第1の評価関数E1(Φ)は、上記のように実対応点位置の誤差に限られるものではなく、例えば、変形させた第1の画像と第2の画像との間の画像類似度を指標としてもよい。また、評価関数E1(Φ)として、上述の画像全体の類似度や実対応点位置の誤差の何れか一方ではなく、両方を併用してもよい。   Note that the method for acquiring landmark corresponding points is not limited to the above method. For example, even if landmark corresponding points are acquired by corresponding points manually input by a user using an operation unit (not shown) with respect to the first image and the second image displayed on the display unit 120. Good. Further, the first evaluation function E1 (Φ) is not limited to the error of the actual corresponding point position as described above. For example, the image similarity between the deformed first image and the second image The degree may be used as an index. Further, as the evaluation function E1 (Φ), either one of the above-described similarity of the whole image or the error of the actual corresponding point position may be used together.

第1の変形取得部1030は、第1の評価関数E1を最小化するように、変形Φを表現する所定の変換モデルの変換パラメータを最適化する。これにより、画像内の被検体全体の位置合わせとして望ましい最適な変形が推定される。ここで、所定の変換モデルで表現された変換パラメータをpと定義する。本実施形態では、所定の変換モデルとして、変形の基底関数がBスプライン関数で表されるFFD(Free Form Deformation)を適用する。FFDにおける変換パラメータpは、画像内に規則的に配置された制御点の制御量で表現される。なお、本ステップで推定された変換パラメータpを第1の変換パラメータp1と表記する。なお、適用する変換モデルは、FFDに限定されるものではない。例えば、TPS(Thin Plate Spline)などの放射基底関数や、LDDMM(Large Deformation Diffeomorphic Metric Mapping)など、変形を表現できる公知の何れの変換モデルであってもよい。   The first deformation acquisition unit 1030 optimizes the conversion parameter of a predetermined conversion model expressing the deformation Φ so as to minimize the first evaluation function E1. As a result, the optimum deformation that is desirable as the alignment of the entire subject in the image is estimated. Here, a conversion parameter expressed by a predetermined conversion model is defined as p. In the present embodiment, FFD (Free Form Deformation) in which the deformation basis function is represented by a B-spline function is applied as the predetermined transformation model. The conversion parameter p in the FFD is expressed by a control amount of control points regularly arranged in the image. Note that the conversion parameter p estimated in this step is referred to as a first conversion parameter p1. Note that the conversion model to be applied is not limited to FFD. For example, it may be any known transformation model that can express deformation, such as a radial basis function such as TPS (Thin Plate Spline) or LDDMM (Large Deformation Diffeomorphic Metric Mapping).

このように、第1の変形取得部1030は、第1の変形変位場として、変換パラメータp1を生成する。そして、第1の変形取得部1030は、生成した第1の変形変位場に基づき、第2の画像に形状が一致するように第1の画像を変形させた第1の変形画像を生成する。また、必要に応じて、第1の画像の形状に一致するように第2の画像を変形させた変形画像(逆変形画像)を、第1の変形変位場に基づいて生成する。   Thus, the first deformation acquisition unit 1030 generates the conversion parameter p1 as the first deformation displacement field. Then, the first deformation acquisition unit 1030 generates a first deformed image obtained by deforming the first image so that the shape matches the second image based on the generated first deformation displacement field. Further, if necessary, a deformed image (reverse deformed image) obtained by deforming the second image so as to match the shape of the first image is generated based on the first deformed displacement field.

(S2030)(関心領域における第1の変形を近似変換で近似)
ステップS2030において、対応情報生成部1050および変形近似部1040は、関心領域における第1の変形変位場よりも自由度の小さい変換モデルで近似した近似変位場を生成する。そして、対応情報生成部1050は、生成した近似変位場を、第2の変形取得部1060へと出力する。
(S2030) (Approximate first deformation in region of interest by approximate transformation)
In step S2030, the correspondence information generating unit 1050 and the deformation approximating unit 1040 generate an approximate displacement field approximated by a conversion model having a lower degree of freedom than the first deformation displacement field in the region of interest. Then, the correspondence information generation unit 1050 outputs the generated approximate displacement field to the second deformation acquisition unit 1060.

以下では、近似変位場を生成するための変換モデル(すなわち、第1の変形変位場よりも自由度の小さい変換モデル)を、近似変換モデルと称する。例えば、近似変換モデルとして、剛体変換モデルを適用することができる。第1の変形変位場は非剛体の変形位置合わせの結果であるため、剛体変換モデルは、第1の変形変位場よりも自由度が小さいモデルといえる。より具体的な処理を以下に説明する。   Hereinafter, a conversion model for generating an approximate displacement field (that is, a conversion model having a smaller degree of freedom than the first deformation displacement field) is referred to as an approximate conversion model. For example, a rigid body transformation model can be applied as the approximate transformation model. Since the first deformation displacement field is a result of the non-rigid body deformation alignment, the rigid body transformation model can be said to be a model having a smaller degree of freedom than the first deformation displacement field. More specific processing will be described below.

まず、対応情報生成部1050は、関心領域上の複数の代表点の夫々について、代表点と、それを第1の変形変位場を用いて変位させた変位点とからなる、画像間の仮想的な対応点(変形仮想対応点)を生成する。そして、対応情報生成部1050は、生成した変形仮想対応点を変形近似部1040へと出力する。   First, the correspondence information generation unit 1050 is a virtual image between images including a representative point and a displacement point obtained by displacing the representative point using a first deformation displacement field for each of a plurality of representative points on the region of interest. Corresponding points (deformed virtual corresponding points) are generated. Then, the correspondence information generation unit 1050 outputs the generated deformation virtual corresponding point to the deformation approximation unit 1040.

この、対応情報生成部1050の処理について、具体的な処理を説明する。まず、対応情報生成部1050は、関心領域上に代表点を設定する。ここで、代表点を設定する領域は、関心領域の内部領域のみであってもよいし、関心領域を囲む所定範囲内の領域であってもよい。例えば、代表点を設定する領域を、関心領域の輪郭から周囲5mm以内の領域に設定できる。また、対応情報生成部1050は、代表点を、領域内に均等な間隔(0.25mm等)で配置してもよいし、ランダムに配置してもよい。例えば、対応情報生成部1050は、関心領域上に等間隔に複数の代表点を設定する。次に、対応情報生成部1050は、第1の変形変位場を用いて夫々の代表点の位置を変位させて、夫々の代表点に対応する変位点の位置を算出する。算出した変位点を変形代表点と称する。本実施形態では、代表点とそれに対応する変形代表点とを、第1の変形による画像間の仮想的な対応点と定義し、以下ではこれを、変形仮想対応点と称する。   A specific process for the process of the correspondence information generation unit 1050 will be described. First, the correspondence information generation unit 1050 sets a representative point on the region of interest. Here, the region where the representative point is set may be only the inner region of the region of interest, or may be a region within a predetermined range surrounding the region of interest. For example, the region where the representative point is set can be set to a region within 5 mm from the outline of the region of interest. Further, the correspondence information generation unit 1050 may arrange the representative points at equal intervals (0.25 mm or the like) in the region, or may arrange them at random. For example, the correspondence information generation unit 1050 sets a plurality of representative points at equal intervals on the region of interest. Next, the correspondence information generation unit 1050 calculates the position of the displacement point corresponding to each representative point by displacing the position of each representative point using the first deformation displacement field. The calculated displacement point is referred to as a deformation representative point. In the present embodiment, a representative point and a corresponding deformation representative point are defined as virtual corresponding points between images by the first deformation, and hereinafter, these are referred to as deformation virtual corresponding points.

図4は、第1の変形変位場に基づいて変形仮想対応点を生成する様子を示す図である。図4には、第1の変形変位場に基づいて第1の画像3000を変形させた第1の変形画像4000が表されている。第1の変形画像4000には、変形後の被写体の領域4010と変形後の関心領域4020が示されている。また、代表点4030は、関心領域としての病変領域3020上に設定された代表点、変形代表点4040は、代表点4030を第1の変形場に基づいて変形させた代表点を表す。図4の例では、第1の変形位置合わせによって、関心領域4020が被検体の領域4010と同様に押しつぶされると同時に、並進移動と回転が生じているように推定された様子が示されている。このとき、変形代表点4040の分布も、関心領域4020と同様に、代表点4030が全体的に押しつぶされて、さらに並進移動と回転が生じたような分布として算出される。   FIG. 4 is a diagram illustrating a state in which a deformation virtual corresponding point is generated based on the first deformation displacement field. FIG. 4 shows a first deformed image 4000 obtained by deforming the first image 3000 based on the first deformed displacement field. The first deformed image 4000 shows a deformed subject area 4010 and a deformed region of interest 4020. The representative point 4030 represents a representative point set on the lesion area 3020 as the region of interest, and the deformed representative point 4040 represents a representative point obtained by deforming the representative point 4030 based on the first deformation field. In the example of FIG. 4, a state in which the region of interest 4020 is crushed in the same manner as the region 4010 of the subject and is estimated to be translated and rotated by the first deformation alignment is shown. . At this time, similarly to the region of interest 4020, the distribution of the deformation representative points 4040 is also calculated as a distribution in which the representative points 4030 are crushed as a whole and further translational movement and rotation occur.

次に、変形近似部1040は、生成した変形仮想対応点に基づき、変形仮想対応点の変位を近似変換モデルで近似した近似変位場を生成する。より具体的には、変形近似部1040は、式(1)に示す誤差の和eを最小にする近似変換モデルΦ’のパラメータ(近似変換パラメータ)qを算出する。近似変換モデルとして剛体変換モデルを用いる場合には、物体の移動と回転を表す3×4の剛体変換行列Tを規定する位置と姿勢の6パラメータが、近似変換パラメータqに相当する。すなわち、式(2)のように、変形近似部1040は、剛体変換行列及び代表点の積と、変形代表点との差のノルムの総和eを算出し、総和eが最小となる剛体変換行列Tを剛体変換の制約下で算出する。   Next, the deformation approximating unit 1040 generates an approximate displacement field in which the displacement of the deformation virtual corresponding point is approximated by an approximate conversion model based on the generated deformation virtual corresponding point. More specifically, the deformation approximating unit 1040 calculates a parameter (approximate conversion parameter) q of the approximate conversion model Φ ′ that minimizes the error sum e shown in Expression (1). When a rigid transformation model is used as the approximate transformation model, six parameters of position and orientation that define a 3 × 4 rigid transformation matrix T representing the movement and rotation of the object correspond to the approximate transformation parameter q. That is, as in Expression (2), the deformation approximation unit 1040 calculates the sum e of norms of the difference between the product of the rigid body transformation matrix and the representative point and the deformation representative point, and the rigid body transformation matrix that minimizes the sum e. T is calculated under the constraints of rigid transformation.

ここで、Φ’(x|q)は、パラメータqで表される近似変換モデルΦ’によって座標xを変位させた座標を表す。また、(xD1i,xD2i)は、第1の画像と第2の画像上におけるi番目の変形仮想対応点の座標の組を表す。すなわち、xD1iがi番目の代表点の座標、xD2iがi番目の変形代表点の座標を表す。また、Nは、変形仮想対応点の数を表す。なお、行列Tは特異値分解などを用いる公知の方法で算出することができるので、算出方法の説明は省略する。 Here, Φ ′ (x | q) represents coordinates obtained by displacing the coordinate x by the approximate conversion model Φ ′ represented by the parameter q. Further, (x D1i , x D2i ) represents a set of coordinates of the i-th deformed virtual corresponding point on the first image and the second image. That is, the coordinates of x D1i is i-th representative point, x D2i represent the coordinates of the i-th deformation representative points. N D represents the number of deformation virtual corresponding points. Since the matrix T can be calculated by a known method using singular value decomposition or the like, description of the calculation method is omitted.

このようにして、変形近似部1040は、関心領域における第1の変形変位場の近似変位場を取得する。最後に、変形近似部1040は、取得した近似変換パラメータqを、近似変位場の情報として対応情報生成部1050へと出力する。   In this way, the deformation approximating unit 1040 acquires the approximate displacement field of the first deformation displacement field in the region of interest. Finally, the deformation approximating unit 1040 outputs the acquired approximate conversion parameter q to the correspondence information generating unit 1050 as approximate displacement field information.

図5は、関心領域としての病変領域3020における第1の変形を剛体変換で近似した様子を説明する図である。図5において、座標軸5000は、関心領域としての病変領域3020上の代表点(図4の代表点4030)の重心位置を原点とし、第1の画像3000のx‐y軸に平行な座標軸を表している。座標軸5010は、剛体変換行列Tを用いて座標軸5000を変換した後の座標軸を表している。但し、紙面が平面である都合上、説明を分かりやすくするためにz軸に平行な軸に関しては省略している。また、座標軸5010のx‐y軸がなす面は第1の変形画像4000のx‐y軸がなす面と必ずしも平行になるものではないが、簡略化して図示している。図に示すように、座標軸5010が、図4の代表点4030から変形代表点4040への変換(第1の変形変位場)から、領域を押しつぶすような変形成分のみを除いた、並進移動・回転成分を抽出した変換に一致することが分かる。   FIG. 5 is a diagram for explaining a state in which the first deformation in the lesion area 3020 as the region of interest is approximated by rigid transformation. In FIG. 5, the coordinate axis 5000 represents a coordinate axis parallel to the xy axis of the first image 3000 with the center of gravity of the representative point (representative point 4030 in FIG. 4) on the lesion area 3020 as the region of interest as the origin. ing. A coordinate axis 5010 represents a coordinate axis after the coordinate axis 5000 is converted using the rigid body transformation matrix T. However, for the sake of simplicity of explanation, the axis parallel to the z axis is omitted for the convenience of the plane of the paper. The plane formed by the xy axes of the coordinate axes 5010 is not necessarily parallel to the plane formed by the xy axes of the first modified image 4000, but is shown in a simplified manner. As shown in the figure, the coordinate axis 5010 translates / rotates by removing only deformation components that crush the region from the transformation from the representative point 4030 to the deformation representative point 4040 (first deformation displacement field) in FIG. It can be seen that it matches the conversion from which the components were extracted.

(S2040)(近似変換に基づく近似仮想対応情報の生成)
ステップS2040において、対応情報生成部1050は、画像間における仮想的な対応情報として、関心領域上に近似変位場に基づく複数の仮想的な対応点(仮想対応情報)を生成する。本実施形態において、以下ではこれを、近似仮想対応点と称する。そして、生成した近似仮想対応点を第2の変形取得部1060へと出力する。
(S2040) (Generation of approximate virtual correspondence information based on approximate transformation)
In step S2040, the correspondence information generation unit 1050 generates a plurality of virtual correspondence points (virtual correspondence information) based on the approximate displacement field on the region of interest as virtual correspondence information between images. In the present embodiment, this is hereinafter referred to as an approximate virtual corresponding point. Then, the generated approximate virtual corresponding point is output to the second deformation acquisition unit 1060.

以下に、具体的な処理を説明する。まず、対応情報生成部1050は、ステップS2030の処理と同様に、関心領域上に設定した複数の代表点の夫々の位置を、近似変位場Φ’を用いて変位させて、夫々の代表点に対応する変位点の位置を算出する。算出した変位点を近似代表点と称する。そして、代表点とそれに対応する近似代表点とを、近似変換モデルによる画像間の仮想的な対応点と定義し、以下ではこれを、近似仮想対応点と称する。   Specific processing will be described below. First, the correspondence information generation unit 1050 displaces the respective positions of the plurality of representative points set on the region of interest using the approximate displacement field Φ ′, as in the processing of step S2030, and sets the representative points as the representative points. The position of the corresponding displacement point is calculated. The calculated displacement point is referred to as an approximate representative point. Then, the representative point and the corresponding approximate representative point are defined as virtual corresponding points between the images based on the approximate conversion model, and are hereinafter referred to as approximate virtual corresponding points.

図6は、近似変位場に基づいて近似仮想対応点を生成する様子を示す図である。近似代表点6000は、代表点4030を近似変形場に基づいて変換させた近似代表点を表す。図に示すように、近似代表点6000の分布が、変形は生じずに、図5の座標軸5000から座標軸5010への変換が示す並進移動と回転のみが生じた分布になっていることが分かる。   FIG. 6 is a diagram illustrating a state in which approximate virtual corresponding points are generated based on the approximate displacement field. The approximate representative point 6000 represents an approximate representative point obtained by converting the representative point 4030 based on the approximate deformation field. As shown in the figure, it can be seen that the distribution of the approximate representative points 6000 is a distribution in which only the translation and rotation indicated by the conversion from the coordinate axis 5000 to the coordinate axis 5010 in FIG.

(S2050)(近似仮想対応点に基づく第2の変形の取得)
ステップS2050において、第2の変形取得部1060は、ステップS2040で取得した近似仮想対応点(仮想対応情報)を拘束条件として用いて、第1の画像と第2の画像との間の第2の変形位置合わせを実行する。そして、第2の変形取得部1060は、第1の画像と第2の画像との間の変形推定の結果として、生成した第2の変形変位場をデータサーバ110へと出力する。データサーバ110への出力は、不図示の出力部を用いて行われ得る。また、第2の変形取得部1060は、第2の変形変位場に基づいて第1の画像を変形させた第2の変形画像を生成して、表示制御部1070へと出力する。
(S2050) (Acquisition of second deformation based on approximate virtual corresponding point)
In step S2050, the second deformation acquisition unit 1060 uses the approximate virtual corresponding point (virtual correspondence information) acquired in step S2040 as a constraint condition, and performs a second change between the first image and the second image. Perform deformation alignment. Then, the second deformation acquisition unit 1060 outputs the generated second deformation displacement field to the data server 110 as a result of deformation estimation between the first image and the second image. The output to the data server 110 can be performed using an output unit (not shown). Further, the second deformation acquisition unit 1060 generates a second deformation image obtained by deforming the first image based on the second deformation displacement field, and outputs the second deformation image to the display control unit 1070.

このとき、第2の変形取得部1060は、ステップS2020と同様に、変形Φによる位置合わせの適切さを評価する評価関数を最小化するような変形Φを推定する。このとき推定された変形Φを第2の変形と称する。また、本ステップで定義する評価関数を第2の評価関数E2(Φ)と称する。本実施形態では、第2の評価関数として、ステップS2020で用いた第1の評価関数E1(Φ)に対して近似仮想対応点の対応点位置の誤差項を追加した評価関数を適用する。   At this time, as in step S2020, the second deformation acquisition unit 1060 estimates a deformation Φ that minimizes an evaluation function that evaluates the appropriateness of alignment by the deformation Φ. The deformation Φ estimated at this time is referred to as a second deformation. The evaluation function defined in this step is referred to as a second evaluation function E2 (Φ). In the present embodiment, an evaluation function obtained by adding an error term of the corresponding point position of the approximate virtual corresponding point to the first evaluation function E1 (Φ) used in step S2020 is applied as the second evaluation function.

ここで、変形Φによる近似仮想対応点の対応点位置の誤差項をR(Φ)と定義すると、第2の評価関数E2(Φ)は以下の式で表される。
ここで、Φ(x|p2)は、パラメータをp2とした所定の変換モデルで表される第2の変形Φによって座標xを変位させた座標を表す。また(xR1i,xR2i)は、第1の画像と第2の画像上におけるi番目の近似仮想対応点の座標の組を表す。すなわち、xR1iがi番目の代表点の座標、xR2iがi番目の近似代表点の座標を表す。また、Nは、近似仮想対応点の総数を表す。すなわち、R(Φ)は、第2の変形Φによる変位後の代表点を、対応する近似代表点になるべく一致させるための項である。
Here, if the error term of the corresponding point position of the approximate virtual corresponding point due to the deformation Φ is defined as R (Φ), the second evaluation function E2 (Φ) is expressed by the following equation.
Here, Φ (x | p2) represents coordinates obtained by displacing the coordinate x by the second deformation Φ represented by a predetermined conversion model with the parameter p2. Also, (x R1i , x R2i ) represents a set of coordinates of the i-th approximate virtual corresponding point on the first image and the second image. That is, xR1i represents the coordinates of the i-th representative point, and xR2i represents the coordinates of the i-th approximate representative point. N R represents the total number of approximate virtual corresponding points. That is, R (Φ) is a term for matching the representative point after displacement by the second deformation Φ as much as possible to the corresponding approximate representative point.

第2の変形取得部1060は、第2の評価関数E2(Φ)を最小化するように、変形Φを表現する所定の変換モデルの変換パラメータp2を最適化する。これにより、画像内の被検体全体の位置合わせとして望ましい最適な変形が推定される。本実施形態では、所定の変換モデルとして、ステップS2020で用いたものと同じ変換モデルを適用する。すなわち、ステップS2020でFFDを適用した場合は、本ステップにおいてもFFDを適用する。ここで、変換モデルがFFDであって、第2の評価関数E2(Φ)が、実対応点(ランドマーク対応点)位置の誤差項と近似仮想対応点位置の誤差項のみによって表現される場合を考える。この場合、FFDのパラメータと対応点間の位置の誤差との関係は、線形方程式で表すことができる。したがって、第2の変形取得部1060は、対応点間の位置の誤差を最小化する変換パラメータp2を公知の線形最適化手法によって推定する。これにより、高速に変換パラメータp2を算出可能である。また、変換モデルがTPSの場合も同様に、第2の変形取得部1060は、公知の線形最適化手法によってパラメータp2が算出できる。なお、評価関数E2(Φ)として画像間の類似度や非線形な正則化項を考慮する場合や、変換モデルとしてLDDMMを用いる場合には、第2の変形取得部1060は、公知の非線形最適化によってパラメータp2を推定する。このとき、第2の変形取得部1060は、ステップS2020で第1の変形取得部1030が算出したパラメータp1を、パラメータp2の初期値として用いることができる。これによると、パラメータp2の算出をより少ない反復処理で行うことができる。   The second deformation acquisition unit 1060 optimizes the conversion parameter p2 of a predetermined conversion model expressing the deformation Φ so as to minimize the second evaluation function E2 (Φ). As a result, the optimum deformation that is desirable as the alignment of the entire subject in the image is estimated. In the present embodiment, the same conversion model as that used in step S2020 is applied as the predetermined conversion model. That is, when FFD is applied in step S2020, FFD is also applied in this step. Here, when the conversion model is FFD and the second evaluation function E2 (Φ) is expressed only by the error term of the actual corresponding point (landmark corresponding point) position and the error term of the approximate virtual corresponding point position think of. In this case, the relationship between the FFD parameter and the positional error between corresponding points can be expressed by a linear equation. Therefore, the second deformation acquisition unit 1060 estimates the transformation parameter p2 that minimizes the position error between corresponding points by a known linear optimization method. Thereby, the conversion parameter p2 can be calculated at high speed. Similarly, when the conversion model is TPS, the second deformation acquisition unit 1060 can calculate the parameter p2 by a known linear optimization method. When the similarity between images and a nonlinear regularization term are considered as the evaluation function E2 (Φ), or when LDDMM is used as the conversion model, the second deformation acquisition unit 1060 uses a known nonlinear optimization. The parameter p2 is estimated by At this time, the second deformation acquisition unit 1060 can use the parameter p1 calculated by the first deformation acquisition unit 1030 in step S2020 as an initial value of the parameter p2. According to this, the calculation of the parameter p2 can be performed with fewer iterative processes.

このように、第2の変形取得部1060は、第2の変形変位場として、変換パラメータp2を生成する。そして、第2の変形取得部1060は、生成した第2の変形変位場に基づき、第2の画像に形状が一致するように第1の画像を変形させた第2の変形画像を生成する。また、必要に応じて、第2の変形取得部1060は、第1の画像の形状に一致するように第2の画像を変形させた変形画像(逆変形画像)を、第2の変形変位場に基づいて生成する。   As described above, the second deformation acquisition unit 1060 generates the conversion parameter p2 as the second deformation displacement field. Then, the second deformation acquisition unit 1060 generates a second deformed image obtained by deforming the first image so that the shape matches the second image based on the generated second deformation displacement field. Further, if necessary, the second deformation acquisition unit 1060 converts a deformed image (reverse deformed image) obtained by deforming the second image so as to match the shape of the first image into the second deformation displacement field. Generate based on

このように、本実施形態では、第1の評価関数E1(Φ)に基づくことで被検体全体として適切な位置合わせを実現しつつ、近似仮想対応点位置の誤差項R(Φ)に基づくことで関心領域をなるべく近似変換モデルが表す形状(例えば剛体)に保つような変形を推定できる。さらに、画像全体の変形が単一の変換モデル(FFD)で表現されるので、全体として整合性のとれた変形が推定できる。   As described above, in the present embodiment, based on the first evaluation function E1 (Φ), appropriate alignment as the whole subject is realized, and based on the error term R (Φ) of the approximate virtual corresponding point position. Thus, it is possible to estimate a deformation that keeps the region of interest in a shape (for example, a rigid body) represented by the approximate conversion model as much as possible. Furthermore, since the deformation of the entire image is expressed by a single transformation model (FFD), it is possible to estimate a deformation that is consistent as a whole.

また、本ステップで得られた第2の変形は、関心領域以外の領域を評価する評価関数内の指標、および変換モデルともに、第1の変形と同条件となる。従って、関心領域以外の領域の変形を第1の変形に類似した変形にすることができる。これにより、第2の変形において関心領域の周囲の近似変換成分も第1の変形に類似するものとなる。従って、関心領域の変形に対して、近似仮想対応点の拘束により第1の変形の関心領域の近似変換成分がそのまま適用される結果となっても、近似変換成分が関心領域の周囲と略合致するため、違和感のない整合の取れた位置合わせ結果を取得することができる。   In addition, the second deformation obtained in this step has the same conditions as the first deformation for both the index in the evaluation function for evaluating the region other than the region of interest and the conversion model. Therefore, the deformation of the region other than the region of interest can be made similar to the first deformation. As a result, the approximate transformation component around the region of interest in the second modification is also similar to the first modification. Accordingly, even if the approximate transformation component of the region of interest of the first deformation is directly applied to the deformation of the region of interest due to the constraint of the approximate virtual corresponding point, the approximate transformation component substantially matches the surroundings of the region of interest. For this reason, it is possible to acquire an alignment result with no sense of incongruity.

図7は、第1の画像を第2の変形変位場に基づいて変形させた第2の変形画像を生成する様子を示す図である。第2の変形画像7000には、変形後の被写体の領域7010、変形後の関心領域7020が示されている。図に示すように、変形後の被検体の領域7010は、図4における変形後の被検体の領域4010とほぼ同じような形状となる。一方で、変形後の関心領域7020は、図4における変形後の関心領域4020のような押しつぶされた変形は生じずに、関心領域としての病変領域3020の形状が剛体に保たれたまま、並進移動と回転のみ関心領域4020と同様の変換が行われた結果になることを示している。これは、第2の位置合わせにおいて、代表点4030と近似代表点6000からなる近似仮想対応点位置の誤差項による、関心領域の変換を近似変換モデル(ここでは剛体)に拘束する拘束条件の効果が発揮されていることを示している。   FIG. 7 is a diagram illustrating a state in which a second deformed image is generated by deforming the first image based on the second deformed displacement field. The second deformed image 7000 shows a region 7010 of the subject after deformation and a region of interest 7020 after deformation. As shown in the figure, the deformed subject area 7010 has substantially the same shape as the deformed subject area 4010 in FIG. On the other hand, the region of interest 7020 after the deformation does not cause a crushed deformation like the region of interest 4020 after the deformation in FIG. 4, and the translation is performed while the shape of the lesion region 3020 as the region of interest is kept rigid. It shows that only the movement and rotation result in the same transformation as the region of interest 4020. This is because, in the second alignment, the effect of the constraint condition that constrains the transformation of the region of interest to the approximate transformation model (here, a rigid body) by the error term of the approximate virtual corresponding point position composed of the representative point 4030 and the approximate representative point 6000. Indicates that is being demonstrated.

(S2060)(変形画像の表示)
ステップS2060において、表示制御部1070は、ユーザによる不図示の操作部への操作に応じて、取得した変形画像と第2の画像の断面画像を、表示部120へと表示する制御を行う。このとき、表示制御部1070は、変形画像として、第1の変形変位場に基づく第1の変形画像と、第2の変形変位場に基づく第2の変形画像と、第2の画像の同一断面を、並べて表示するように構成することができる。また、表示制御部1070は、第1の変形画像と第2の変形画像を、ユーザの操作に応じて、1つの表示画面領域内で切り替えて表示するように制御を行ってもよい。なお、表示制御部1070は、第1の変形画像の生成や表示を行わなくてもよい。以上が、本実施形態における画像処理装置100の処理の説明である。
(S2060) (Display of deformation image)
In step S2060, the display control unit 1070 performs control to display the acquired deformed image and the cross-sectional image of the second image on the display unit 120 in accordance with an operation on the operation unit (not illustrated) by the user. At this time, the display control unit 1070 uses the same cross section of the first modified image based on the first modified displacement field, the second modified image based on the second modified displacement field, and the second image as modified images. Can be configured to be displayed side by side. Further, the display control unit 1070 may perform control so that the first deformed image and the second deformed image are switched and displayed within one display screen area in accordance with a user operation. Note that the display control unit 1070 may not generate or display the first modified image. The above is the description of the processing of the image processing apparatus 100 in the present embodiment.

本実施形態によれば、画像処理装置100は、単一の変換モデルを用いて、画像全体を適切に一致させる指標と、関心領域の変形をより小さい自由度(例えば剛体)に留めるための指標とに基づいて変形を推定する。これにより、画像処理装置100は、被検体内の関心領域以外の領域を適切に変形させつつ、関心領域に対してはより自由度の小さい変換(例えば剛体変換)を施した上で、画像全体として整合の取れた変形を推定することができる。   According to the present embodiment, the image processing apparatus 100 uses a single transformation model to appropriately match the entire image and an index for keeping the deformation of the region of interest with a smaller degree of freedom (for example, a rigid body). Based on the above, the deformation is estimated. As a result, the image processing apparatus 100 appropriately transforms the region other than the region of interest in the subject and performs transformation (for example, rigid transformation) with a lower degree of freedom on the region of interest, and then performs the entire image. As a result, a consistent deformation can be estimated.

(変形例1−1)(近似変換モデルは剛体変換でなくともよい)
第1の実施形態では、ステップS2030で関心領域の変形を近似する近似変換モデルとして、剛体変換を適用していたが、近似変換モデルは、第1の変形よりも自由度が小さければどのようなモデルであってもよい。例えば、変形近似部1040は、アフィン変換によって第1の変形を近似してもよい。
(Modification 1-1) (Approximate transformation model may not be rigid transformation)
In the first embodiment, rigid transformation is applied as the approximate transformation model that approximates the deformation of the region of interest in step S2030. However, the approximate transformation model has any degree of freedom that is smaller than the first transformation. It may be a model. For example, the deformation approximation unit 1040 may approximate the first deformation by affine transformation.

具体的には、まず、対応情報生成部1050は、第1の実施形態と同様に、変形仮想対応点を生成する。次に、変形近似部1040は、生成した変形仮想対応点の変位をアフィン変換で近似したアフィン変位場を生成する。より具体的には、変形近似部1040は、式(2)に示す誤差の和eを最小にする3×4の行列Tを、アフィン変換の制約化で算出する。この式において、アフィン変換行列Tと上記のノルムの間の関係を線形方程式で表せることが一般的に知られている。従って、行列Tは、LU分解やQR分解などの公知の方法で算出することができる。この方法の説明は公知の技術であるため、説明は省略する。これにより、例えば、関心領域が完全に剛体ではないが、複雑な変形はしないような場合に、関心領域の変形を実際に近い形で推定できる。   Specifically, first, the correspondence information generation unit 1050 generates a deformed virtual corresponding point as in the first embodiment. Next, the deformation approximating unit 1040 generates an affine displacement field that approximates the displacement of the generated virtual deformation corresponding point by affine transformation. More specifically, the deformation approximating unit 1040 calculates a 3 × 4 matrix T that minimizes the error sum e shown in Expression (2) by constraining the affine transformation. In this equation, it is generally known that the relationship between the affine transformation matrix T and the norm can be expressed by a linear equation. Therefore, the matrix T can be calculated by a known method such as LU decomposition or QR decomposition. Since the description of this method is a known technique, the description is omitted. Thereby, for example, when the region of interest is not completely rigid, but the complex deformation is not performed, the deformation of the region of interest can be estimated in a form close to the actual one.

また、変形近似部1040は、関心領域の変形を単なるアフィン変換ではなく、体積保存の拘束条件が加わったアフィン変換で近似するようにしてもよい。このとき、体積保存の拘束条件は、アフィン変換行列Tにおける、x、y、z方向のスケールファクター成分をそれぞれ、s、s、sとすると、以下の式で表される。
すなわち、変形近似部1040は、ステップS2030におけるパラメータqを算出するという問題を、式(5)を満たすという条件下で式(2)の評価関数eを最小化するようなアフィン変換行列Tのパラメータを推定する問題とみなすことができる。この行列Tは、公知の非線形最適化手法を用いて算出できる。これにより、例えば、関心領域が複雑な変形はせず、かつ変形の過程で圧縮・膨張が発生しないような場合に、関心領域の変形を実際に近い形で推定できる。
In addition, the deformation approximating unit 1040 may approximate the deformation of the region of interest by affine transformation to which a constraint condition for volume preservation is added instead of simple affine transformation. At this time, the constraint condition for volume preservation is expressed by the following equations, where s x , s y , and s z are the scale factor components in the x, y, and z directions in the affine transformation matrix T, respectively.
That is, the deformation approximating unit 1040 solves the problem of calculating the parameter q in step S2030, and the parameter of the affine transformation matrix T that minimizes the evaluation function e of the equation (2) under the condition that the equation (5) is satisfied. Can be regarded as a problem to estimate. The matrix T can be calculated using a known nonlinear optimization method. Thereby, for example, when the region of interest does not undergo complex deformation and compression / expansion does not occur during the deformation process, the deformation of the region of interest can be estimated in a form close to reality.

(変形例1−2)(拘束条件は近似仮想対応点を面状に拘束するものであってもよい)
第1の実施形態では、ステップS2050において、近似仮想対応点を構成する各対応点間の位置関係が一致する拘束条件を、第2の評価関数E2(Φ)に適用した。しかし、第2の評価関数E2(Φ)に追加する拘束条件は、必ずしもこれに限定されない。
(Modification 1-2) (The constraint condition may be to constrain the approximate virtual corresponding point to a planar shape)
In the first embodiment, in step S2050, a constraint condition in which the positional relationship between corresponding points constituting the approximate virtual corresponding point matches is applied to the second evaluation function E2 (Φ). However, the constraint condition added to the second evaluation function E2 (Φ) is not necessarily limited to this.

例えば、関心領域が胸壁や大胸筋面などの面状の領域である場合に、近似仮想対応点を関心領域の面上に拘束する(面上にあれば位置が一致せずともよい)拘束条件を、第2の評価関数E2(Φ)に適用してもよい。これにより、以下のような場合に効果を期待できる。   For example, when the region of interest is a planar region such as the chest wall or pectoral muscle surface, the approximate virtual corresponding point is constrained on the surface of the region of interest (the position may not match if on the surface) The condition may be applied to the second evaluation function E2 (Φ). Thereby, an effect can be expected in the following cases.

例えば、乳房を圧迫するような変形において、乳房に外力が与えられると、乳房内の乳腺や脂肪の組織はその奥にある大胸筋面上を滑って変形していくことが知られている。このとき、大胸筋面は殆ど変形しないため、大胸筋面を関心領域として、大胸筋面を剛体に保つような変形を行うことを想定する。このとき、ステップS2050において、近似仮想対応点の位置そのものが一致するような拘束条件を第2の評価関数E2(Φ)に適用すると、大胸筋近傍の組織は、そのまま大胸筋面上の位置に拘束されてしまうため、大胸筋面上を滑るような変形にはならない。そこで、本変形例では、近似仮想対応点を関心領域(大胸筋面)の面上のみに拘束するという条件を第2の評価関数E2(Φ)に追加する。これにより、近似仮想対応点が関心領域の面上を滑る場合を許容できる。すなわち、関心領域の外面を含む関心領域上に設定された代表点は、近似変位場による変位後も、関心領域の面上を沿って動くことを許容される。これにより、大胸筋近傍の組織が大胸筋面上を滑ることを許容できるようにすることが可能となる。   For example, it is known that when an external force is applied to the breast in a deformation that compresses the breast, the mammary gland and fat tissue in the breast slide and deform on the pectoralis major muscle surface behind it. . At this time, since the pectoralis muscle surface hardly deforms, it is assumed that the pectoral muscle surface is used as a region of interest and that the pectoral muscle surface is deformed so as to be a rigid body. At this time, in step S2050, when a constraint condition is applied to the second evaluation function E2 (Φ) so that the positions of the approximate virtual corresponding points themselves coincide, the tissue in the vicinity of the pectoralis major muscle is directly on the pectoral muscle surface. Because it is constrained by the position, it does not deform so as to slide on the pectoral muscle surface. Therefore, in this modification, a condition that the approximate virtual corresponding point is constrained only on the surface of the region of interest (the pectoralis major muscle surface) is added to the second evaluation function E2 (Φ). This allows a case where the approximate virtual corresponding point slides on the surface of the region of interest. That is, the representative point set on the region of interest including the outer surface of the region of interest is allowed to move along the surface of the region of interest even after being displaced by the approximate displacement field. As a result, it becomes possible to allow the tissue in the vicinity of the pectoralis major muscle to slide on the pectoral pectoral surface.

以下に具体的な方法を説明する。まず、近似仮想対応点を構成する代表点は、面領域である関心領域上に均等に配置されているものとする。このとき、ステップS2050において、近似仮想対応点を関心領域の面上に拘束する拘束条件は、評価関数E2(Φ)を構成する関数R(Φ)として、以下の式で表わされる。
ここで、(6)式では、(4)式と同じ記号は、(4)式と同様の意味を表す。また、Cov(x)は位置xにおける3次元の誤差に関する共分散行列を返す関数を表す。以下、共分散Cov(x)をCovと略して表記する。
A specific method will be described below. First, it is assumed that the representative points constituting the approximate virtual corresponding points are evenly arranged on the region of interest which is a surface region. At this time, in step S2050, the constraint condition for constraining the approximate virtual corresponding point on the surface of the region of interest is expressed by the following expression as a function R (Φ) that constitutes the evaluation function E2 (Φ).
Here, in the expression (6), the same symbols as those in the expression (4) represent the same meaning as in the expression (4). Cov (x) represents a function that returns a covariance matrix related to a three-dimensional error at the position x. Hereinafter, covariance Cov (x) is abbreviated as Cov.

本変形例の場合、共分散Covは、例えば、i番目の近似代表点xR2i近傍の法線方向には狭く、それに直交する平面の方向には非常に広い分布を有するガウス分布を表す共分散を返す関数にできる。ここで、近似代表点xR2i近傍の法線方向とは、面状に分布している近似代表点の中で、近似代表点xR2i近傍の近似代表点の集合によって張られる平面の法線ベクトルの方向を意味する。この法線ベクトルは、例えば、公知の手法である、近似代表点xR2i近傍の近似代表点の集合の位置を主成分分析し、その第3主成分ベクトルとして算出できる。 In the case of this modification, the covariance Cov is, for example, a covariance representing a Gaussian distribution having a narrow distribution in the normal direction in the vicinity of the i-th approximate representative point xR2i and a very wide distribution in the direction of a plane orthogonal thereto. Can be a function that returns Here, the normal direction of the approximate representative point x R2i vicinity, in approximate representative points are distributed in the planar, the plane spanned by the set of approximate representative points of the approximate representative point x R2i near normal vector Means the direction. This normal vector can be calculated as a third principal component vector by performing principal component analysis on the position of a set of approximate representative points in the vicinity of the approximate representative point xR2i , which is a known technique, for example.

なお、法線ベクトルの算出方法は、これに限られるものではなく、公知の何れの方法を採ってもよい。ここで、(6)式において、第2の変形Φによる変位後の代表点と、対応する近似代表点の間の誤差を表す3次元ベクトルをeと定義する。(6)式により、入力ベクトルにおける法線成分が大きい場合には、Cov−1と誤差ベクトルeの積は大きい値を返し、それ以外の成分が大きい場合には非常に小さい値を返す。従って、(6)式により、R(Φ)は、第2の変形Φによる変位後の代表点と、対応する近似代表点の間の誤差eのうち、近似代表点の法線方向の成分にのみペナルティをかけることができる。すなわち、R(Φ)は、変位後の代表点が、対応する近似代表点から法線方向にのみずれないようにするための項として機能する。 Note that the normal vector calculation method is not limited to this, and any known method may be employed. Here, in Equation (6), a three-dimensional vector representing an error between the representative point after displacement by the second deformation Φ and the corresponding approximate representative point is defined as e. According to equation (6), when the normal component in the input vector is large, the product of Cov −1 and the error vector e returns a large value, and when the other components are large, a very small value is returned. Therefore, according to the equation (6), R (Φ) is a component in the normal direction of the approximate representative point of the error e between the representative point after displacement by the second deformation Φ and the corresponding approximate representative point. Can only be penalized. That is, R (Φ) functions as a term for preventing the displaced representative point from deviating only from the corresponding approximate representative point in the normal direction.

このように定義された評価関数E2(Φ)を最小化するような変換パラメータp2の算出方法としては、ステップS2050と同様に公知の非線形最適化手法で算出することができる。また、非特許文献1に記載された、上記共分散Covに基づく線形最適化手法によっても算出することができる。   As a calculation method of the conversion parameter p2 that minimizes the evaluation function E2 (Φ) defined in this way, it can be calculated by a known nonlinear optimization method as in step S2050. It can also be calculated by a linear optimization method based on the above-described covariance Cov described in Non-Patent Document 1.

(変形例1−3)
第1の実施形態では、ステップS2040およびステップS2050で利用する画像間における仮想対応情報として、仮想的な対応点を適用していた。しかし、利用する仮想対応情報は、必ずしも対応点ではなくてもよい。
(Modification 1-3)
In the first embodiment, virtual corresponding points are applied as virtual correspondence information between images used in steps S2040 and S2050. However, the virtual correspondence information to be used is not necessarily a corresponding point.

例えば、仮想対応情報として、関心領域の形状に関する情報の、画像間における仮想的な対応情報を用いてもよい。具体的には、ステップS2040において、対応情報生成部1050は、関心領域そのものを、近似変形場Φ’を用いて変位させて、対応する変位後の関心領域(近似関心領域)を取得する。より具体的には、対応情報生成部1050は、関心領域を表すマスク画像IROIを、近似変形場Φ’を用いて変位させて、近似関心領域のマスク画像IA_ROIを取得する。そして、対応情報生成部1050は、関心領域と近似関心領域とを、近似変換モデルによる画像間の仮想的な対応領域として生成する。仮想的な対応領域の情報は、関心領域の輪郭形状の情報を保持しているため、本変形例における画像間の仮想対応情報として、これを近似仮想対応形状と称する。 For example, as the virtual correspondence information, virtual correspondence information between images of information regarding the shape of the region of interest may be used. Specifically, in step S2040, the correspondence information generation unit 1050 displaces the region of interest itself using the approximate deformation field Φ ′, and acquires the corresponding region of interest after the displacement (approximate region of interest). More specifically, the correspondence information generation unit 1050 obtains a mask image I A_ROI of the approximate region of interest by displacing the mask image I ROI representing the region of interest using the approximate deformation field Φ ′. Then, the correspondence information generation unit 1050 generates the region of interest and the approximate region of interest as a virtual correspondence region between images based on the approximate conversion model. Since the information on the virtual corresponding region holds information on the contour shape of the region of interest, this is referred to as an approximate virtual corresponding shape as virtual correspondence information between images in this modification.

そして、対応情報生成部1050は、生成した近似仮想対応形状を第2の変形取得部1060へ出力する。そして、ステップS2050において、第2の変形取得部1060は、ステップS2040で取得した近似仮想対応形状を拘束条件として用いて、第1の画像と第2の画像との間の第2の変形位置合わせを実行する。このとき、本ステップで最小化する第2の評価関数E2(Φ)において、本変形例では、第1の実施形態における近似仮想対応点の対応点位置の誤差項R(Φ)の代わりに、近似仮想対応形状の誤差項R’(Φ)を適用する。近似仮想対応形状の誤差項R’(Φ)は以下の式で表される。
ここで、関数S(I,I)は、画像Iと画像Iの間の画像類似度関数を表す。画像類似度を計算する尺度としては、一般的に用いられているSSD(Sum of Squared Difference)や相互情報量、相互相関係数などの公知の手法を用いるものとする。これにより、近似仮想対応形状である関心領域のマスク画像IROIが、近似関心領域のマスク画像IA_ROIに極力一致するように変形Φを推定することができる。つまり、
関心領域の輪郭形状を近似変換モデルが表す形状に保つような変形を推定できる。
Then, the correspondence information generation unit 1050 outputs the generated approximate virtual correspondence shape to the second deformation acquisition unit 1060. In step S2050, the second deformation acquisition unit 1060 uses the approximate virtual corresponding shape acquired in step S2040 as a constraint condition, and performs the second deformation alignment between the first image and the second image. Execute. At this time, in the second evaluation function E2 (Φ) that is minimized in this step, in this modification, instead of the error term R (Φ) of the corresponding point position of the approximate virtual corresponding point in the first embodiment, The error term R ′ (Φ) of the approximate virtual corresponding shape is applied. The error term R ′ (Φ) of the approximate virtual corresponding shape is expressed by the following equation.
Here, the function S (I 1 , I 2 ) represents an image similarity function between the image I 1 and the image I 2 . As a scale for calculating the image similarity, a commonly used method such as a commonly used SSD (Sum of Squared Difference), mutual information, cross-correlation coefficient, or the like is used. Thereby, the deformation Φ can be estimated so that the mask image I ROI of the region of interest that is the approximate virtual corresponding shape matches the mask image I A_ROI of the approximate region of interest as much as possible. That means
A deformation that keeps the contour shape of the region of interest in the shape represented by the approximate conversion model can be estimated.

また、仮想対応情報として、次の情報を適用してもよい。まず、対応情報生成部1050は、関心領域のマスク画像IROIと近似関心領域のマスク画像IA_ROIの夫々から、画像中の関心領域の輪郭位置からの距離場を生成する。続いて、対応情報生成部1050は、夫々の距離場内の各距離値を輝度値に変換して画像化した距離場画像を夫々生成する。ここで、IROIに対応する距離場画像をIDIST、IA_ROIに対応する距離場画像をIA_DISTと定義し、それらを、近似変換モデルによる画像間の仮想対応情報とする。この場合、(6)式において、IROI、IA_ROIの代わりに、IDIST、IA_DISTを適用することで、関心領域の輪郭だけでなく、内部まで輝度情報を類似させることができる。これにより、関心領域内部も含めて関心領域IROIの形状を近似変換モデルが表す形状に保つような変形を推定できる。 Further, the following information may be applied as the virtual correspondence information. First, the correspondence information generation unit 1050 generates a distance field from the contour position of the region of interest in the image from each of the mask image I ROI of the region of interest and the mask image I A_ROI of the approximate region of interest. Subsequently, the correspondence information generation unit 1050 generates a distance field image obtained by converting each distance value in each distance field into a luminance value and imaging it. Here, the distance field image corresponding the distance field image corresponding to the I ROI I DIST, the I A_ROI defined as I A_DIST, they, and virtual correspondence information between the images due to the approximate conversion model. In this case, by applying I DIST and I A_DIST instead of I ROI and I A_ROI in the equation (6), the luminance information can be made similar not only to the contour of the region of interest but also to the inside. Thereby, it is possible to estimate a deformation that keeps the shape of the region of interest I ROI including the inside of the region of interest in the shape represented by the approximate conversion model.

(変形例1−4)
第1の実施形態では、ステップS2030で生成する変形仮想対応点と、ステップS2040で生成する近似仮想対応点は、第1の画像上の同じ代表点から生成するものであった。しかし、それらは同じ代表点から生成されるものである必要はなく、変形仮想対応点と近似仮想対応点とが別々の代表点から生成されるものであってもよい。例えば、変形仮想対応点に関しては、関心領域を囲む所定範囲内(周囲5mm以内)の領域上に設定された代表点から生成し、近似仮想対応点に関しては、厳密に関心領域上に設定された代表点から生成する方法を採ってもよい。これにより、第2の変形において、関心領域の周囲の領域により整合した近似変換成分を抽出でき、かつ厳密に関心領域に対してのみ形状を維持させる拘束条件を与えることができる。
(Modification 1-4)
In the first embodiment, the deformed virtual corresponding point generated in step S2030 and the approximate virtual corresponding point generated in step S2040 are generated from the same representative point on the first image. However, they do not have to be generated from the same representative point, and the deformed virtual corresponding point and the approximate virtual corresponding point may be generated from different representative points. For example, a deformed virtual corresponding point is generated from a representative point set on a region within a predetermined range (within 5 mm circumference) surrounding the region of interest, and an approximate virtual corresponding point is strictly set on the region of interest. You may take the method of producing | generating from a representative point. As a result, in the second modification, it is possible to extract an approximate transformation component that is more consistent with a region around the region of interest, and to give a constraint condition that strictly maintains the shape only for the region of interest.

(変形例1−5)(第1の変形推定と第2の変形推定でE1(Φ)は同じでなくてもよい)
第1の実施形態では、ステップS2050における第2の評価関数E2(Φ)は、(3)式に示すように第1の評価関数E1(Φ)を用いていた。しかし、ステップS2050で、第1の評価関数E1(Φ)を必ずしも用いる必要はない。例えば、ステップS2050では、より多くの計算コストを要して高精度な評価を行う評価関数を、E1(Φ)として用いるようにしてもよい。例えば、第1の変形推定ではランドマーク対応点位置の誤差をE1(Φ)として用いて、第2の変形推定では画像全体の画像類似度をE1(Φ)として用いるようにできる。これは、第1の変形推定は近似変形場を求めるための中間処理に過ぎないが、第2の変形推定は位置合わせの結果を得ることを目的としているからである。
(Modification 1-5) (E1 (Φ) may not be the same in the first deformation estimation and the second deformation estimation)
In the first embodiment, the second evaluation function E2 (Φ) in step S2050 uses the first evaluation function E1 (Φ) as shown in the equation (3). However, it is not always necessary to use the first evaluation function E1 (Φ) in step S2050. For example, in step S2050, an evaluation function that requires a higher calculation cost and performs high-precision evaluation may be used as E1 (Φ). For example, in the first deformation estimation, the landmark corresponding point position error can be used as E1 (Φ), and in the second deformation estimation, the image similarity of the entire image can be used as E1 (Φ). This is because the first deformation estimation is merely an intermediate process for obtaining an approximate deformation field, but the second deformation estimation is intended to obtain a registration result.

(変形例1−6)(第2の変形における変換モデルは第1の変形と同じでなくてもよい)
第1の実施形態では、ステップS2050の第2の変形における変換モデルは、ステップS2020における第1の変形と同じ変形モデルを用いていた。しかし、関心領域の周囲の近似変換成分が第1の変形と類似する結果になるのであれば、第2の変形で利用する変換モデルは、必ずしもステップS2020と一致する必要はない。
(Modification 1-6) (The conversion model in the second modification may not be the same as the first modification)
In the first embodiment, the same deformation model as the first deformation in step S2020 is used as the conversion model in the second deformation in step S2050. However, if the approximate transformation component around the region of interest has a result similar to the first transformation, the transformation model used in the second transformation does not necessarily need to match step S2020.

例えば、本実施形態では、ステップS2020においてFFDを変換モデルとして採用しているが、FFDのモデルを構成するパラメータの一つである、制御点の間隔を変えたFFDをステップS2050で採用してもよい。具体的には、ステップS2020において、制御点を20mm間隔で配置している場合に、ステップS2050において、その半分の10mm間隔で配置するようにしてもよい。これにより、Bスプライン基底関数により滑らかな変形が得られるという特性は変えずに、変形の自由度を増やすことができる。つまり、より詳細な変形を表現できる。さらに、画像全体の概略の変形を第1の変形と第2の変形の間で類似させるために、例えば、第2の変形では段階的に変形の自由度を上げていく変換モデルを適用する。具体的には、第1の変形と同様の変形の自由度の低い「荒い制御点(20mm間隔)」で表現されたFFDから変形の自由度の高い「細かい制御点(10mm間隔)」で表現されるFFDの順に適用する、公知の技術である多重解像度FFDを、変換モデルとして適用する。   For example, in the present embodiment, FFD is adopted as a conversion model in step S2020. However, even if FFD in which the control point interval is changed, which is one of the parameters constituting the FFD model, is adopted in step S2050. Good. Specifically, when the control points are arranged at intervals of 20 mm in step S2020, they may be arranged at intervals of 10 mm, which is half of the control points, in step S2050. As a result, the degree of freedom of deformation can be increased without changing the characteristic that smooth deformation can be obtained by the B-spline basis function. That is, more detailed deformation can be expressed. Further, in order to make the general deformation of the entire image similar between the first deformation and the second deformation, for example, a conversion model that increases the degree of freedom of deformation stepwise is applied in the second deformation. Specifically, it is expressed by “fine control points (10 mm intervals)” with high degree of freedom of deformation from FFD expressed by “rough control points (20 mm intervals)” with low degree of freedom of deformation similar to the first deformation. A multi-resolution FFD that is a known technique that is applied in the order of FFDs to be applied is applied as a conversion model.

これにより、第2の変形において、第1の変形よりもより詳細な位置合わせを実現しながら、概略の変形としては第1の変形の状態が保持されるため、関心領域の周囲の近似変換成分が第1の変形と類似する結果になる。また、関心領域の周囲の近似変換成分が大きく変わらないのであれば、第1の変形と第2の変形の組み合わせとして、FFDとTPS、FFDとLDDMMなど、性質の異なる変換モデルを適用してもよい。また、仮想対応点の対応点位置の誤差項R(Φ)を第2の変形の評価関数E2(Φ)の一部として用いるものであれば、何れの変換モデルや評価関数を用いてもよい。   Thus, in the second deformation, the first deformation state is maintained as a rough deformation while achieving more detailed alignment than the first deformation, and thus the approximate transformation component around the region of interest. Is similar to the first variant. Also, if the approximate transformation components around the region of interest do not change significantly, a transformation model with different properties such as FFD and TPS, FFD and LDDMM, etc. can be applied as a combination of the first and second transformations. Good. Further, any conversion model or evaluation function may be used as long as the error term R (Φ) of the corresponding point position of the virtual corresponding point is used as a part of the evaluation function E2 (Φ) of the second deformation. .

<第2の実施形態>
第1の実施形態では、予め定められた近似変換モデルを用いて関心領域の第1の変形を近似していた。しかし、関心領域の性質に応じて適応的に近似変換モデルを選択できるようにしてもよい。本実施形態における画像処理装置は、関心領域に対応する部位(臓器や病変等)の種類に応じて適切な近似変換モデルを選択し、選択された近似変換モデルを用いて関心領域の第1の変形を近似する。これにより、予め定められた近似変換モデルが使用されることで、本来関心領域の変形とは異なる性質の近似変換モデルが適用されてしまい、位置合わせ精度が低下することを防ぐことができる。以下、本実施形態における画像処理装置について、第1の実施形態との相違部分について説明する。
<Second Embodiment>
In the first embodiment, the first deformation of the region of interest is approximated using a predetermined approximate conversion model. However, an approximate conversion model may be adaptively selected according to the nature of the region of interest. The image processing apparatus according to the present embodiment selects an appropriate approximate conversion model according to the type of a part (an organ, a lesion, or the like) corresponding to the region of interest, and uses the selected approximate conversion model for the first of the region of interest. Approximate deformation. Thereby, by using a predetermined approximate conversion model, an approximate conversion model having a property different from that of the deformation of the region of interest is applied, and it is possible to prevent the alignment accuracy from being lowered. Hereinafter, the difference between the image processing apparatus according to the present embodiment and the first embodiment will be described.

図8は、本実施形態における画像処理装置800の構成を示す図であり、新たに近似変換モデル選択部8000が追加された点以外は、第1の実施形態における画像処理装置100(図1)と同様である。また、関心領域取得部1020と変形近似部1040に関しては、第1の実施形態と機能が異なるため以下でその機能を説明する。その他の構成については第1の実施形態と機能が同じであるため、同じ機能に関しては説明を省略する。   FIG. 8 is a diagram illustrating a configuration of the image processing apparatus 800 according to the present embodiment, and the image processing apparatus 100 according to the first embodiment (FIG. 1) except that an approximate conversion model selection unit 8000 is newly added. It is the same. Further, since the functions of the region of interest acquisition unit 1020 and the deformation approximation unit 1040 are different from those of the first embodiment, their functions will be described below. Since other functions are the same as those of the first embodiment, the description of the same functions is omitted.

関心領域取得部1020は、第1の画像から関心領域の取得と、関心領域に対応する部位の種類の分類(識別)を行う。近似変換モデル選択部8000は、分類(識別)された部位の種類に応じて、当該部位の変形表現に適切な近似変換モデルを選択する。変形近似部1040は、関心領域における第1の変形変位場を、選択された近似変換モデルを用いて近似することで、近似変位場を生成する。   The region-of-interest acquisition unit 1020 acquires a region of interest from the first image and classifies (identifies) the type of part corresponding to the region of interest. The approximate conversion model selection unit 8000 selects an approximate conversion model appropriate for the modified expression of the part according to the type of the classified (identified) part. The deformation approximation unit 1040 generates an approximate displacement field by approximating the first deformation displacement field in the region of interest using the selected approximate conversion model.

図9は、画像処理装置800が行う全体の処理手順を示すフローチャートである。但し、本フローチャートにおいて、ステップS9000、ステップS9020、およびステップS9040からS9060までの処理はそれぞれ、図2におけるステップS2000、ステップS2020、およびステップS2040からS2060までの処理と同じであるため説明は省略する。以下、図2のフローチャートとの相違部分についてのみ説明する。   FIG. 9 is a flowchart illustrating an overall processing procedure performed by the image processing apparatus 800. However, in this flowchart, the processes from step S9000, step S9020, and steps S9040 to S9060 are the same as the processes from step S2000, step S2020, and steps S2040 to S2060 in FIG. Only the differences from the flowchart of FIG. 2 will be described below.

(S9010)(関心領域の取得と対応する部位の種類の分類)
ステップS9010において、関心領域取得部1020は、データ取得部1010から取得した画像上において、変形を抑制したい関心領域を表す情報を取得し、該関心領域に対応する部位の種類を分類(識別)する。そして、取得された関心領域とその分類情報を近似変換モデル選択部8000へ出力する。
(S9010) (Classification of part type corresponding to acquisition of region of interest)
In step S9010, the region-of-interest acquisition unit 1020 acquires information representing the region of interest for which deformation is desired to be suppressed on the image acquired from the data acquisition unit 1010, and classifies (identifies) the type of part corresponding to the region of interest. . Then, the acquired region of interest and its classification information are output to the approximate conversion model selection unit 8000.

本ステップの具体的な処理を説明する。例えば、関心領域が臓器である場合を考える。関心領域取得部1020は、臓器の種類ごとの統計アトラスの当てはめ等の公知の画像解析処理によって、第1の画像から、臓器領域の抽出と、対応する臓器の種類の分類を行う。そして、関心領域取得部1020は、抽出・分類された臓器領域に基づいて、関心領域を取得する。関心領域として、抽出された臓器領域の少なくとも一つの領域が設定される。これは、ユーザによる画像上の領域の指定などの入力により設定されてもよいし、予め定められた変形を近似すべき臓器の種類(骨や肝臓など)に対応する領域が、抽出された臓器領域の中から設定されてもよい。なお、関心領域が複数存在する場合には、関心領域取得部1020は、これらの処理を夫々の関心領域に対して実行する。   Specific processing of this step will be described. For example, consider a case where the region of interest is an organ. The region-of-interest acquisition unit 1020 extracts an organ region from the first image and classifies the corresponding organ type by a known image analysis process such as statistical atlas fitting for each organ type. Then, the region-of-interest acquisition unit 1020 acquires a region of interest based on the extracted and classified organ region. As the region of interest, at least one region of the extracted organ region is set. This may be set by an input such as designation of an area on the image by the user, or an area corresponding to an organ type (such as bone or liver) to which a predetermined deformation should be approximated is extracted. It may be set from the area. Note that, when there are a plurality of regions of interest, the region of interest acquisition unit 1020 executes these processes for each region of interest.

なお、関心領域取得部1020は、データサーバに格納された被検体の臨床情報に記載された情報に基づいて、臓器領域の分類を行ってもよい。例えば、撮影された画像が腹部造影CT画像である場合は、画像内に写る臓器は、肝臓や脾臓の領域等であるため、関心領域取得部1020は、臓器の種類を絞りこむことができる。そして、例えば、関心領域取得部1020は、抽出された領域の体積が大きければ肝臓、小さければ脾臓のように分類できる。   Note that the region-of-interest acquisition unit 1020 may classify the organ region based on information described in the clinical information of the subject stored in the data server. For example, when the captured image is an abdominal contrast-enhanced CT image, the organ shown in the image is a region of the liver, spleen, or the like, and thus the region-of-interest acquisition unit 1020 can narrow down the types of organs. For example, the region-of-interest acquisition unit 1020 can classify the extracted region as a liver if the volume is large, or as a spleen if the volume is small.

また、関心領域が病変部である場合に、第1の画像に付随する情報として所見情報が記載されている場合に、関心領域取得部1020は、該所見情報に応じて病変部の分類情報を取得するようにしてもよい。例えば、「硬癌」「良性腫瘍」「DCIS」やそれに類する記載がある場合には、関心領域取得部1020は、その情報を部位の分類情報と設定することができる。また、それらの記載がない場合には、関心領域取得部1020は、分類情報を「不明」とすることができる。   Further, when the region of interest is a lesioned part and the finding information is described as information accompanying the first image, the region-of-interest acquiring unit 1020 displays the classification information of the lesioned part according to the finding information. You may make it acquire. For example, if there is a description such as “hard cancer”, “benign tumor”, “DCIS”, or the like, the region-of-interest acquisition unit 1020 can set the information as site classification information. Moreover, when there is no description of them, the region-of-interest acquisition unit 1020 can set the classification information to “unknown”.

(S9015)(近似変換モデルの選択)
ステップS9015において、近似変換モデル選択部8000は、関心領域に対応する臓器の種類や性質に応じて、近似変換モデルの種類を選択する。例えば、近似変換モデル選択部8000は、骨に分類された領域には剛体変換モデルを適用し、肝臓に分類された領域には体積保存のアフィン変換モデルを適用することができる。なお、関心領域が複数存在する場合には、近似変換モデル選択部8000は、これらの処理を夫々の関心領域に対して実行する。また、近似変換モデル選択部8000は、「硬癌」には剛体変換モデル、「良性腫瘍」には体積保存のアフィン変換モデル、「DCIS」や「不明」には「近似なし」を適用することができる。なお、近似変換モデル選択部8000は、「近似なし」を適用した関心領域については、以降の近似処理を行う処理の対象から除外することができる。そして、近似変換モデル選択部8000は、選択した近似変換モデルの種類を、対応情報生成部1050へ出力する。
(S9015) (Selection of approximate conversion model)
In step S9015, the approximate conversion model selection unit 8000 selects the type of approximate conversion model according to the type and property of the organ corresponding to the region of interest. For example, the approximate transformation model selection unit 8000 can apply a rigid transformation model to a region classified as a bone and apply a volume-preserving affine transformation model to a region classified as a liver. Note that when there are a plurality of regions of interest, the approximate conversion model selection unit 8000 executes these processes for each region of interest. The approximate transformation model selection unit 8000 applies a rigid transformation model to “hard cancer”, a volume-preserving affine transformation model to “benign tumor”, and “no approximation” to “DCIS” and “unknown”. Can do. Note that the approximate conversion model selection unit 8000 can exclude the region of interest to which “no approximation” is applied from the target of the subsequent approximation processing. Then, the approximate conversion model selection unit 8000 outputs the type of the selected approximate conversion model to the correspondence information generation unit 1050.

(S9030)(関心領域における第1の変形を近似変換で近似)
ステップS9030において、変形近似部1040は、関心領域における第1の変形変位場を、この変位場よりも自由度の小さい、近似変換モデル選択部8000から取得した近似変換モデルで近似した近似変位場を生成する。そして、変形近似部1040は、生成した近似変位場を、第2の対応情報生成部1050へと出力する。
(S9030) (Approximation of first deformation in region of interest by approximate transformation)
In step S9030, the deformation approximating unit 1040 calculates an approximate displacement field obtained by approximating the first deformation displacement field in the region of interest with the approximate conversion model acquired from the approximate conversion model selection unit 8000 having a smaller degree of freedom than the displacement field. Generate. Then, the deformation approximating unit 1040 outputs the generated approximate displacement field to the second correspondence information generating unit 1050.

本ステップの処理は、以下の点についてのみ第1の実施形態のステップS2030と異なる。すなわち、第1の実施形態のステップS2030では、変形近似部1040は、予め定められた近似変換モデルを用いていた。それに対し、本ステップでは、変形近似部1040は、近似変換モデル選択部8000から取得した近似変換モデルを用いるようにしている。それ以外は、ステップS2030の処理と同様であるため、詳細な説明は省略する。なお、関心領域が複数存在する場合には、変形近似部1040は、これらの処理を夫々の関心領域に対して実行する。以上によって、画像処理装置800の処理が実施される。   The processing in this step is different from step S2030 in the first embodiment only in the following points. That is, in step S2030 of the first embodiment, the deformation approximation unit 1040 uses a predetermined approximate conversion model. On the other hand, in this step, the deformation approximation unit 1040 uses the approximate conversion model acquired from the approximate conversion model selection unit 8000. The rest is the same as the processing in step S2030, and a detailed description thereof will be omitted. When there are a plurality of regions of interest, the deformation approximating unit 1040 executes these processes for each region of interest. As described above, the processing of the image processing apparatus 800 is performed.

このように、本実施形態における画像処理装置は、関心領域に対応する臓器の種類に応じて適切な近似変換モデルを選択し、選択された近似変換モデルを用いて関心領域の第1の変形を近似する。これにより、予め定められた近似変換モデルが使用されることで、本来関心領域の変形とは異なる性質の近似変換モデルが適用されてしまい、位置合わせ精度が低下することを防ぐことができる。   As described above, the image processing apparatus according to the present embodiment selects an appropriate approximate conversion model according to the type of organ corresponding to the region of interest, and performs the first deformation of the region of interest using the selected approximate conversion model. Approximate. Thereby, by using a predetermined approximate conversion model, an approximate conversion model having a property different from that of the deformation of the region of interest is applied, and it is possible to prevent the alignment accuracy from being lowered.

<第3の実施形態>
第1の実施形態では、関心領域の第1の変形を自由度が小さい近似変換で近似して得た仮想的な対応情報を、そのまま第2の変形位置合わせの位置合わせ指標として利用していた。しかし、近似変換から得た仮想的な対応情報を直接、第2の変形位置合わせの位置合わせ指標として利用しなくてもよい。本実施形態では、第1の変形から得た仮想的な対応情報と、近似変換から得た仮想的な対応情報と、の間に位置する中間的な対応情報を、第2の変形位置合わせの位置合わせ指標として利用する。以下、本実施形態における画像処理装置について、第1の実施形態との相違部分について説明する。
<Third Embodiment>
In the first embodiment, the virtual correspondence information obtained by approximating the first deformation of the region of interest by the approximate transformation with a small degree of freedom is used as it is as an alignment index for the second deformation alignment. . However, the virtual correspondence information obtained from the approximate conversion does not have to be directly used as the alignment index for the second deformation alignment. In the present embodiment, intermediate correspondence information located between the virtual correspondence information obtained from the first modification and the virtual correspondence information obtained from the approximate transformation is converted into the second modification alignment. Use as alignment index. Hereinafter, the difference between the image processing apparatus according to the present embodiment and the first embodiment will be described.

図10は、本実施形態における画像処理装置1000の構成を示す図であり、新たに形状維持度取得部10010が追加された点以外は、第1の実施形態における画像処理装置100と同様である。しかし、対応情報生成部1050、第2の変形取得部1060、表示制御部1070に関しては、第1の実施形態と機能が異なるため、以下でその機能を説明する。その他の構成については第1の実施形態と機能が同じであるため、同じ機能に関しては説明を省略する。   FIG. 10 is a diagram illustrating a configuration of the image processing apparatus 1000 according to the present embodiment, and is the same as the image processing apparatus 100 according to the first embodiment except that a shape maintenance degree acquisition unit 10010 is newly added. . However, regarding the correspondence information generation unit 1050, the second deformation acquisition unit 1060, and the display control unit 1070, the functions are different from those of the first embodiment, and the functions will be described below. Since other functions are the same as those of the first embodiment, the description of the same functions is omitted.

形状維持度取得部10010は、ユーザによる不図示の操作部からの入力により、変形位置合わせにおいて関心領域にどの程度形状を維持させるかを表す形状維持度の値を取得する。言い換えると、形状維持度とは、関心領域に関しての前記第1の変形変位場から前記第2の変形変位場への変化の程度を示す指標である。対応情報生成部1050は、第1実施形態と同様に変形仮想対応点と近似仮想対応点を生成する機能に加え、形状維持度取得部10010から取得した形状維持度に基づき変形仮想対応点と近似仮想対応点との間に位置する仮想対応点を生成する。これを中間仮想対応点と称する。第2の変形取得部1060は、第1実施形態において近似仮想対応点に基づいて行う変形位置合わせの処理を、近似仮想対応点に限定せずに、近似仮想対応点または中間仮想対応点の何れかの仮想対応点に基づくように置き換えた処理を行う。それ以外の機能は第1実施形態と同様であるため、詳細な説明は省略する。表示制御部1070は、第1実施形態と同様の機能に加え、ユーザによる不図示の操作部から処理を終了するか否かの命令を取得し、命令“終了する”を取得した場合には、処理は終了する。命令“終了しない”を取得した場合には、ユーザによる入力待ちの状態を維持する。   The shape maintenance degree acquisition unit 10010 acquires a shape maintenance degree value indicating how much the shape is maintained in the region of interest in the deformation alignment by an input from the operation unit (not shown) by the user. In other words, the shape maintenance degree is an index indicating the degree of change from the first deformation displacement field to the second deformation displacement field with respect to the region of interest. The correspondence information generation unit 1050 approximates the deformation virtual corresponding point based on the shape maintenance degree acquired from the shape maintenance degree acquisition unit 10010 in addition to the function of generating the deformation virtual correspondence point and the approximate virtual correspondence point as in the first embodiment. A virtual corresponding point located between the virtual corresponding points is generated. This is called an intermediate virtual corresponding point. The second deformation acquisition unit 1060 does not limit the deformation alignment processing performed based on the approximate virtual corresponding points in the first embodiment to any of the approximate virtual corresponding points or the intermediate virtual corresponding points. The replacement process is performed based on the virtual corresponding point. Since other functions are the same as those of the first embodiment, detailed description thereof is omitted. In addition to the same function as in the first embodiment, the display control unit 1070 acquires an instruction on whether to end the process from the operation unit (not shown) by the user, and when the instruction “end” is acquired, The process ends. When the instruction “do not end” is acquired, the state of waiting for input by the user is maintained.

図11は、画像処理装置1000が行う全体の処理手順を示すフローチャートである。但し、本フローチャートにおいて、ステップS11000からS11020、S11050、S11060、およびステップS11100の処理はそれぞれ、図2のフローチャートにおけるステップS2000からS2020、S2030、S2040、およびステップS2060の処理と同じであるため説明は省略する。なお、本実施形態において、仮想対応情報は、第1の実施形態において述べたような近似仮想対応点であるとする。以下、図2のフローチャートとの相違部分について説明する。   FIG. 11 is a flowchart illustrating an overall processing procedure performed by the image processing apparatus 1000. However, in this flowchart, the processing from step S11000 to S11020, S11050, S11060, and step S11100 is the same as the processing from step S2000 to S2020, S2030, S2040, and step S2060 in the flowchart of FIG. To do. In the present embodiment, the virtual correspondence information is assumed to be an approximate virtual correspondence point as described in the first embodiment. Hereinafter, differences from the flowchart of FIG. 2 will be described.

(S11025)(第1の変形画像の表示)
ステップS11025において、表示制御部1070は、ユーザによる不図示の操作部への操作に応じて、取得した第1の変形画像と第2の画像の断面画像を、表示部120へと表示する制御を行う。このとき、表示制御部1070は、第1の変形画像と第2の画像の同一断面を、並べて表示部120へ表示するように制御することができる。
(S11025) (Display of first modified image)
In step S11025, the display control unit 1070 performs control for displaying the acquired cross-sectional images of the first deformed image and the second image on the display unit 120 in response to an operation on the operation unit (not illustrated) by the user. Do. At this time, the display control unit 1070 can control to display the same cross section of the first deformed image and the second image side by side on the display unit 120.

(S11030)(形状維持度の取得)
ステップS11030において、形状維持度取得部10010は、ユーザが不図示の操作部から入力した形状維持度を取得する。そして、取得した形状維持度の値を、対応情報生成部1050および表示制御部1070へと出力する。
(S11030) (Acquisition of shape maintenance degree)
In step S11030, the shape maintenance degree acquisition unit 10010 acquires the shape maintenance degree input from the operation unit (not shown) by the user. Then, the acquired shape maintenance value is output to the correspondence information generation unit 1050 and the display control unit 1070.

以下では、形状維持度の値をλと表記する。本ステップで取得された形状維持度の値λに基づいて、ステップS11090の第2の変形位置合わせが実施される。形状維持度の値λは、0≦λ≦1の範囲を満たす。λが0に近いほど、中間仮想対応点が変形仮想対応点の位置に近付き、関心領域の変形は周囲と変わらない変形に近付く。すなわち、関心領域は、周囲と変わらず特に拘束のない変形しやすい状態に近付く。一方、λが1に近いほど、中間仮想対応点の位置が近似仮想対応点の位置に近付き、関心領域の変形は近似変換に近付く。すなわち、関心領域は、周囲とは異なり変形しづらい状態に近付く。 In the following, the value of the shape retaining degree is expressed as lambda R. Based on the shape maintenance degree value λ R acquired in this step, the second deformation alignment in step S11090 is performed. The shape maintenance value λ R satisfies the range of 0 ≦ λ R ≦ 1. as lambda R is closer to 0, approaches the intermediate virtual corresponding points to the position of the deformation virtual corresponding points, deformation of the region of interest close to the deformation unchanged the surroundings. That is, the region of interest does not change from the surroundings, and approaches a state that is not particularly restricted and is easily deformed. On the other hand, lambda higher R is close to 1, close position of the intermediate virtual corresponding points to the position of the approximate virtual corresponding points, deformation of the region of interest is close to the approximate conversion. That is, the region of interest approaches a state that is unlikely to deform unlike the surroundings.

形状維持度取得部10010は、λを、例えば、予め定められた複数の値の中からユーザが選択することで取得できる。例えば、予め設定された複数のλのリスト(例えば、{0、0.25、0.5、0.75、1.0})が、表示部120上に表示されている場合を考える。この場合、ユーザは不図示の操作部を通じて、リストの中の何れかの値(例えば、0.5)を選択すると、形状維持度取得部10010は、その選択された値をλとして取得する。 The shape maintenance degree acquisition unit 10010 can acquire λ R by, for example, the user selecting from a plurality of predetermined values. For example, preset list of a plurality of lambda R (e.g., {0,0.25,0.5,0.75,1.0}) is considered a case that is displayed on the display unit 120. In this case, the user through the operation unit (not shown), one of the values in the list (e.g., 0.5) is selected, the shape retaining degree acquisition unit 10010 acquires the selected value as a lambda R .

なお、形状維持度の取得方法はこれに限られるものではなく、どのような方法であってもよい。例えば、ユーザが不図示の操作部を通じて直接値を入力し、形状維持度取得部10010は、その値を取得するようにしてもよい。この場合、例えばユーザが値1.0と入力すれば、形状維持度取得部10010は、λ=1.0を取得する。 In addition, the acquisition method of a shape maintenance degree is not restricted to this, What kind of method may be sufficient. For example, the user may input a value directly through an operation unit (not shown), and the shape maintenance degree acquisition unit 10010 may acquire the value. In this case, for example, if the user inputs a value of 1.0, the shape maintenance degree acquisition unit 10010 acquires λ R = 1.0.

また、ユーザは、ステップS11030において表示部120上に表示された第1の変形画像と第2の画像とを観察し、その結果に基づいて判断した形状維持度の値を入力することができる。例えば、表示部120上に表示された第1の変形画像上の関心領域が第2の画像上の対応する領域にある程度近い場合には、ユーザは、関心領域の変形が第1の変形の変換モデルである程度正確に表現できていると判断して、形状維持度を小さく設定できる。一方、形状が大きくかけ離れている場合には、ユーザは、関心領域の変形が第1の変形の変換モデルからかけ離れていると判断して、形状維持度を大きく設定できる。   Further, the user can observe the first deformed image and the second image displayed on the display unit 120 in step S11030, and input the value of the shape maintenance degree determined based on the result. For example, when the region of interest on the first deformation image displayed on the display unit 120 is somewhat close to the corresponding region on the second image, the user can convert the deformation of the region of interest into the transformation of the first deformation. Judging that the model can be expressed to some extent accurately, the shape maintenance degree can be set small. On the other hand, when the shape is far apart, the user can determine that the deformation of the region of interest is far from the conversion model of the first deformation, and can set the shape maintenance degree large.

前述したように、本実施形態における画像処理装置1000は、形状維持度に応じて、関心領域の変形のしにくさを調整できる。例えば、近似変換モデルとして剛体変換を適用する場合には、画像処理装置1000は、形状維持度によって関心領域の大よその硬さを調整することができる。そこで、例えば、予め作成された、定性的な硬さの「度合い」と形状維持度の値「λ」との対応テーブルにおいて、ユーザが定性的な硬さの度合いを選択してもよい。形状維持度取得部10010は、選択された「度合い」それに対応するλを取得するようにしてもよい。より具体的には、例えば、“柔らかい”=0.0、“やや柔らかい”=0.25、“中間”=0.25、“やや硬い”=0.75、“硬い”=1.0のようなマッピングを行う対応テーブルが予め画像処理装置1000に保持されているとする。そして、表示制御部1070が、表示部120上に定性的な硬さの度合いのリスト(例えば、{“柔らかい”、“やや柔らかい”、“中間”、“やや硬い”、“硬い”})を表示する。そして、ユーザが不図示の操作部を通じていずれかの度合い(例えば、“硬い”)を選択した場合に、形状維持度取得部10010は、対応テーブルを参照して、該度合いに対応する値(例えば、1.0)をλとして取得することができる。 As described above, the image processing apparatus 1000 according to the present embodiment can adjust the difficulty of deformation of the region of interest according to the degree of shape maintenance. For example, when rigid transformation is applied as the approximate transformation model, the image processing apparatus 1000 can adjust the approximate hardness of the region of interest according to the shape maintenance degree. Therefore, for example, the user may select the degree of qualitative hardness in a correspondence table created in advance between the “degree” of qualitative hardness and the value “λ R ” of the shape maintenance degree. The shape maintenance degree acquisition unit 10010 may acquire the selected “degree” and λ R corresponding thereto. More specifically, for example, “soft” = 0.0, “slightly soft” = 0.25, “intermediate” = 0.25, “slightly hard” = 0.75, “hard” = 1.0 Assume that a correspondence table for performing such mapping is stored in the image processing apparatus 1000 in advance. Then, the display control unit 1070 displays a list of qualitative hardness levels on the display unit 120 (for example, {“soft”, “slightly soft”, “intermediate”, “slightly hard”, “hard”}). indicate. When the user selects any degree (for example, “hard”) through an operation unit (not shown), the shape maintenance degree acquisition unit 10010 refers to the correspondence table and refers to a value corresponding to the degree (for example, , it is possible to obtain a 1.0) as lambda R.

なお、形状維持度λの取得方法は、ユーザによる手動入力による方法に限定されない。例えば、形状維持度取得部10010は、事前に画像処理装置800内の不図示の記憶部に記憶された所定の値をλとして取得するようにしてもよい。また、形状維持度取得部10010は、データサーバ110に格納された被検体の臨床情報に基づいてλを取得するようにしてもよい。 In addition, the acquisition method of shape maintenance degree (lambda) R is not limited to the method by the manual input by a user. For example, the shape retaining degree acquisition unit 10010, a predetermined value stored in the storage unit (not shown) in advance the image processing apparatus 800 may acquire the lambda R. The shape retaining degree acquisition unit 10010 may be acquired lambda R based on the subject of clinical information stored in the data server 110.

例えば、読影レポート等の臨床情報に“病変部が硬い”あるいは“硬癌”、”石灰化”といった意味を示す所見や診断名が記載されている場合は、形状維持度取得部10010は、λ=1.0を設定する。同様に、“病変部が周囲の組織と変わらず柔らかい”あるいは“非浸潤性癌”といった意味を示す所見や診断名が記載されている場合は、形状維持度取得部10010は、λ=0.0を設定する。また、不図示の解析部が、第1の画像における関心領域に相当する領域の画像特徴を解析することで関心領域の定性的な硬さの度合いを判定し、それに基づいて、形状維持度取得部10010が、上述したマッピングによりλを取得するようにしてもよい。また、第2の実施形態において説明した図9のステップS9010と同様の方法で、関心領域取得部1020が第1の画像から臓器領域の抽出を行い、形状維持度取得部10010が、夫々の臓器に予め定めた形状維持度の値を夫々の領域に設定するようにしてもよい。例えば、形状維持度取得部10010は、骨と分類された領域にはλ=1.0を、肝臓や肺と分類された領域にはλ=0.75を設定するといった処理を行うことができる。 For example, when the clinical information such as an interpretation report includes a finding or diagnosis name indicating a meaning such as “hard lesion”, “hard cancer”, or “calcification”, the shape maintenance degree acquisition unit 10010 Set R = 1.0. Similarly, in the case where a finding or diagnostic name indicating a meaning such as “the lesion is soft as the surrounding tissue” or “non-invasive cancer” is described, the shape maintenance degree acquisition unit 10010 has λ R = 0. Set to .0. In addition, an analysis unit (not shown) determines the qualitative hardness of the region of interest by analyzing the image feature of the region corresponding to the region of interest in the first image, and acquires the shape maintenance degree based on the determination. The unit 10010 may acquire λ R by the mapping described above. Further, the region-of-interest acquisition unit 1020 extracts an organ region from the first image in the same manner as in step S9010 of FIG. 9 described in the second embodiment, and the shape maintenance degree acquisition unit 10010 receives each organ. Alternatively, a predetermined shape maintenance value may be set in each region. For example, the shape maintenance degree acquisition unit 10010 performs processing such as setting λ R = 1.0 for a region classified as bone and λ R = 0.75 for a region classified as liver or lung. Can do.

(S11040)(形状維持度が0か否かの判定)
ステップS11040において、形状維持度取得部10010は、形状維持度の値λが0か否かを判定する。そして、λ≠0の場合は、処理はステップS11050へ進む。一方、λ=0の場合は、処理はステップS11100へ進む。これにより、形状維持度λが0以外の場合は、画像処理装置1000は、ステップS11050からS11090の処理により、形状維持度の値λに基づいて関心領域の形状が維持された第2の変形画像を最終的な位置合わせ結果として取得できる。一方、λが0の場合は関心領域の形状を維持する必要がないため、画像処理装置1000は、ステップS11020で生成された第1の変形画像をそのまま最終的な位置合わせ結果として取得できる。これにより、不要に第2の画像を生成する処理を削減でき、全体の処理フローを効率化することができる。
(S11040) (Determination whether shape maintenance degree is 0)
In step S11040, the shape maintenance degree acquisition unit 10010 determines whether or not the shape maintenance degree value λ R is zero. If λ R ≠ 0, the process advances to step S11050. On the other hand, if λ R = 0, the process proceeds to step S11100. As a result, when the shape maintenance degree λ R is other than 0, the image processing apparatus 1000 uses the processing from steps S11050 to S11090 to perform the second processing for maintaining the shape of the region of interest based on the shape maintenance degree value λ R. A deformed image can be acquired as a final alignment result. On the other hand, lambda R is not necessary to maintain the shape of the region of interest in the case of 0, the image processing apparatus 1000 can obtain the first modification image generated in step S11020 as it final alignment results. Thereby, the process which produces | generates a 2nd image unnecessarily can be reduced and the whole process flow can be made efficient.

(S11070)(形状維持度が1か否かの判定)
ステップS11070において、形状維持度取得部10010は、形状維持度の値λが1か否かを判定する。そして、λ≠1の場合は、処理はステップS11080へ進む。一方、λ=1の場合は、処理はステップS11090へ進む。これにより、λが1以外の場合は、画像処理装置1000は、ステップS11080の処理によって中間仮想対応点を生成し、ステップS11090においてそれを仮想対応点位置の誤差項に適用して位置合わせした第2の変形画像を最終的な位置合わせ結果として取得できる。一方、λが1の場合は、画像処理装置1000は、ステップS11060で生成した近似仮想対応点を、そのままステップS11090における仮想対応点位置の誤差項に適用して位置合わせした第2の変形画像を最終的な位置合わせ結果として取得できる。従って、不要に中間仮想対応点を生成する処理を削減でき、全体の処理フローを効率化することができる。
(S11070) (Determination of whether or not the shape maintenance degree is 1)
In step S11070, the shape maintenance degree acquisition unit 10010 determines whether or not the shape maintenance degree value λ R is 1. If λ R ≠ 1, the process proceeds to step S11080. On the other hand, if λ R = 1, the process proceeds to step S11090. Thus, otherwise 1 lambda R, the image processing apparatus 1000 generates an intermediate virtual corresponding points by the processing in step S11080, it is aligned by applying it to the error term of the virtual corresponding point positions in step S11090 The second deformed image can be acquired as the final alignment result. Meanwhile, lambda when R is 1, the image processing unit 1000, a second modified image of the approximate virtual corresponding point generated in step S11060, and aligned directly applied to the error term of the virtual corresponding point positions in step S11090 Can be obtained as the final alignment result. Accordingly, it is possible to reduce the process of generating intermediate virtual corresponding points unnecessarily, and to improve the efficiency of the entire process flow.

(S11080)(形状維持度に基づき中間仮想対応点を生成)
ステップS11080において、対応情報生成部1050は、形状維持度取得部10010から取得した形状維持度の値λに基づき、関心領域DROI上の変形仮想対応点と近似仮想対応点の間に位置する中間仮想対応点を生成する。そして、対応情報生成部1050は、生成した中間仮想対応点を第2の変形取得部1060へと出力する。
(S11080) (Generate intermediate virtual corresponding point based on shape maintenance degree)
In step S11080, the correspondence information generation unit 1050 is positioned between the deformation virtual corresponding point and the approximate virtual corresponding point on the region of interest D ROI based on the shape maintenance degree value λ R acquired from the shape maintenance degree acquisition unit 10010. An intermediate virtual corresponding point is generated. Then, the correspondence information generation unit 1050 outputs the generated intermediate virtual corresponding point to the second deformation acquisition unit 1060.

中間仮想対応点の位置は、λが0に近い場合は変形仮想対応点に近付き、λが1に近い場合は近似仮想対応点に近付く。近似仮想対応点は、関心領域の変形を近似変換モデルに従うように拘束するの。それに対し、中間仮想対応点は、関心領域の変形を周囲の変形と変わらない状態と近似変換モデルに従う状態の間の状態に拘束する特徴を持つ。以下に中間仮想対応点の具体的な生成方法を説明する。 The position of the intermediate virtual corresponding point approaches the deformed virtual corresponding point when λ R is close to 0, and approaches the approximate virtual corresponding point when λ R is close to 1. The approximate virtual corresponding point constrains the deformation of the region of interest to follow the approximate transformation model. On the other hand, the intermediate virtual corresponding point has a feature that constrains the deformation of the region of interest to a state between a state that does not change from the surrounding deformation and a state that follows the approximate transformation model. A specific method for generating the intermediate virtual corresponding point will be described below.

まず、対応情報生成部1050は、変形仮想対応点と近似仮想対応点とを夫々構成する、第1の画像上の代表点を夫々変換した先の対応する代表点、つまり変形代表点と近似代表点との間に位置する代表点を生成する。これを、中間代表点と称する。次に、対応情報生成部1050は、代表点とそれに対応する中間代表点から、中間仮想対応点として、画像間の仮想的な対応点を生成する。   First, the correspondence information generation unit 1050 constitutes the deformed virtual corresponding point and the approximate virtual corresponding point, respectively, and the corresponding representative point obtained by converting the representative point on the first image, that is, the deformed representative point and the approximate representative point. A representative point located between the points is generated. This is referred to as an intermediate representative point. Next, the correspondence information generation unit 1050 generates a virtual corresponding point between images as an intermediate virtual corresponding point from the representative point and the corresponding intermediate representative point.

中間代表点の具体的な生成方法として、本実施形態では以下の方法を採用する。変形代表点と近似代表点におけるi番目の点を夫々、PDi、PRiと定義する。点PDi、PRiの座標は、前述の通り夫々、xD2i、xR2iで表される。iは、1≦i≦N=Nを満たす。このとき、中間代表点のi番目の点PMiを、PDiとPRiの間を結んだ線分PDiRi上に位置し、かつ点PDiからの距離が線分PDiRiの距離に対して比率がλとなる位置として算出する。つまり、点PMiの座標をxM2iとすると、xM2iは以下の式で表される。
これにより、中間代表点として、変形代表点と近似代表点の間に位置する点を取得することができる。
In the present embodiment, the following method is adopted as a specific method for generating the intermediate representative point. The i-th point at the deformation representative point and the approximate representative point is defined as P Di and P Ri , respectively. The coordinates of the points P Di and P Ri are respectively represented by x D2i and x R2i as described above. i satisfies 1 ≦ i ≦ N D = N R. At this time, the i-th point P Mi of the intermediate representative point is located on the line segment P Di PR Ri connecting P Di and PRi , and the distance from the point P Di is equal to the line segment P Di PR Ri Is calculated as a position where the ratio becomes λ R with respect to the distance of That is, assuming that the coordinates of the point P Mi are x M2i , x M2i is expressed by the following equation.
Thereby, a point located between the deformation representative point and the approximate representative point can be acquired as the intermediate representative point.

図12は、中間代表点12000を示す図である。図に示すように、中間代表点12000は、元の代表点の分布が斜めにつぶれたような分布の変形代表点4040と、つぶれていない分布の剛体代表点(近似代表点)6000の間の分布となっていることが分かる。   FIG. 12 is a diagram showing the intermediate representative point 12000. As shown in the figure, the intermediate representative point 12000 is between a deformed representative point 4040 in which the distribution of the original representative point is slanted and a rigid representative point (approximate representative point) 6000 in the distribution that is not collapsed. It can be seen that this is a distribution.

(S11090)(取得した仮想対応点に基づき第2の変形を取得)
ステップS11090において、第2の変形取得部1060は、取得した仮想対応点に基づき、データ取得部1010から取得した第1の画像を第2の画像に対して変形位置合わせする。第1実施形態のステップS2050で用いる仮想対応点が近似仮想対応点に限定されていたのに対し、本実施形態では、近似仮想対応点と中間仮想対応点の何れかの仮想対応点を用いる点が異なる。すなわち、λ=1の場合はステップS11060で生成した近似仮想対応点を用い、λ≠1の場合はステップS11080で生成した近似仮想対応点を用いる。但し、取得された仮想対応点に基づく変形位置合わせ処理に関しては、ステップS2050と同様であるため、詳細な説明は省略する。
(S11090) (Acquire second deformation based on acquired virtual corresponding point)
In step S11090, the second deformation acquisition unit 1060 aligns the first image acquired from the data acquisition unit 1010 with the second image based on the acquired virtual corresponding point. Whereas the virtual corresponding points used in step S2050 of the first embodiment are limited to approximate virtual corresponding points, the present embodiment uses a virtual corresponding point of either the approximate virtual corresponding point or the intermediate virtual corresponding point. Is different. That is, when λ R = 1, the approximate virtual corresponding point generated at step S11060 is used, and when λ R ≠ 1, the approximate virtual corresponding point generated at step S11080 is used. However, the deformation alignment processing based on the acquired virtual corresponding points is the same as that in step S2050, and thus detailed description thereof is omitted.

(S11110)(終了判定)
ステップS11110において、表示制御部1070は、ユーザによる不図示の操作部から処理を終了するか否かの命令を取得する。そして、命令“終了する”を取得した場合には、処理は終了、命令“終了しない”を取得した場合には、処理はステップS11030へ進み、ユーザによる入力待ちの状態が維持される。これにより、ユーザがステップS11100において位置合わせ結果として第1の変形画像または第2の変形画像を観察した結果、位置合わせを完了したと判断した場合には、不図示の操作部を通じて命令“終了する”を与えることで、画像処理装置1000は処理を終了できる。一方、ユーザが位置合わせ結果の画像を観察した結果、形状維持度を変更して再度結果を観察したいと考えた場合には、不図示の操作部を通じて命令“終了しない”を与えることで、画像処理装置1000は、再度、新たな形状維持度を与えて位置合わせ結果を生成し表示させることができる。
(S11110) (End determination)
In step S <b> 11110, the display control unit 1070 obtains an instruction on whether to end the process from an operation unit (not shown) by the user. If the instruction “end” is acquired, the process ends. If the instruction “do not end” is acquired, the process proceeds to step S11030, and the state of waiting for input by the user is maintained. As a result, when the user observes the first deformed image or the second deformed image as the alignment result in step S11100 and determines that the alignment is completed, the command “ends” through the operation unit (not shown). The image processing apparatus 1000 can end the processing. On the other hand, as a result of observing the image of the alignment result, if the user wants to change the shape maintenance degree and observe the result again, by giving a command “do not end” through an operation unit (not shown) The processing apparatus 1000 can again generate and display the alignment result by giving a new shape maintenance degree.

以上によって、画像処理装置800の処理が実施される。本処理フローにより、例えば、ステップS11020およびステップS11090において、線形最適化で変換パラメータが算出できる場合は、高速に夫々の位置合わせが可能である。そのため、ユーザがインタラクティブに形状維持度を画像処理装置1000に入力した場合に、該入力に対応する第2の変形画像の表示が可能となる。より具体的には、不図示の操作部が、形状維持度を0から1まで調整可能なスライダーであるとする。このとき、ユーザがスライダーを動かした場合は、命令“終了しない”を画像処理装置1000に与えるようにすることで、画像処理装置1000は、スライダー位置の形状維持度に基づく変形画像を生成し表示できる。これにより、例えば、ユーザがスライダー位置を0から1に向けて徐々に動かしていくと、画像処理装置1000は、それに連動して徐々に形状が維持された第2の変形画像をほぼリアルタイムに表示部120に表示できる。従って、ユーザは表示部120に表示された第2の画像と第2の変形画像を観察しながら、適切な形状維持度に基づく第2の変形画像を容易に決めることができる。なお、ユーザがインタラクティブに形状維持度の入力を行うための不図示の操作部のインターフェースは、スライダーに限られるものではなく、例えば直接数値を入力するようなものであってもよい。   As described above, the processing of the image processing apparatus 800 is performed. With this processing flow, for example, in step S11020 and step S11090, when conversion parameters can be calculated by linear optimization, each alignment is possible at high speed. Therefore, when the user interactively inputs the shape maintenance level to the image processing apparatus 1000, the second modified image corresponding to the input can be displayed. More specifically, it is assumed that an operation unit (not shown) is a slider that can adjust the shape maintenance degree from 0 to 1. At this time, when the user moves the slider, the image processing apparatus 1000 generates and displays a deformed image based on the shape maintenance degree of the slider position by giving the image processing apparatus 1000 a command “do not end”. it can. As a result, for example, when the user gradually moves the slider position from 0 to 1, the image processing apparatus 1000 displays the second deformed image whose shape is gradually maintained in association with it in almost real time. Can be displayed on the unit 120. Therefore, the user can easily determine the second deformed image based on an appropriate shape maintenance degree while observing the second image and the second deformed image displayed on the display unit 120. Note that the interface of the operation unit (not shown) for the user to interactively input the shape maintenance level is not limited to the slider, and may be, for example, a value directly input.

本実施形態によれば、画像処理装置1000は、関心領域の変形仮想的対応点と近似仮想対応点との間に位置する中間仮想対応点を、画像間の位置合わせ指標に利用する。これにより、関心領域の変形に関して、第1の変形と近似変換の間の変形状態となるような位置合わせ結果が得られる。そのため、周囲より硬いが変形は生じるような病変部を含む画像であっても、被検体全体を適切に位置合わせできる。   According to the present embodiment, the image processing apparatus 1000 uses an intermediate virtual corresponding point located between the deformation virtual corresponding point and the approximate virtual corresponding point of the region of interest as an alignment index between images. Thereby, with respect to the deformation of the region of interest, an alignment result is obtained so that a deformation state between the first deformation and the approximate conversion is obtained. Therefore, the entire subject can be properly aligned even if the image includes a lesion that is harder than the surrounding but deformed.

(変形例3−1)(中間仮想対応点を非線形の補間で生成)
第3の実施形態では、ステップS11080において、中間仮想対応点を構成する中間代表点を、変形代表点と近似代表点とを結ぶ線分上の点としていた。言い換えると、変形代表点と近似代表点の座標間を線形補間した座標としていた。しかし、中間代表点の生成方法はこれに限られるものではなく、変形代表点と近似代表点の座標間を非線形に補間した座標としてもよい。すなわち、関心領域に関しての第1の変形変位場から第2の変形変位場への変化は線形であっても、非線形であってもよい。
(Modification 3-1) (Intermediate virtual corresponding point is generated by nonlinear interpolation)
In the third embodiment, in step S11080, the intermediate representative point constituting the intermediate virtual corresponding point is a point on the line segment connecting the deformation representative point and the approximate representative point. In other words, the coordinates of the transformation representative point and the approximate representative point are linearly interpolated. However, the method of generating the intermediate representative point is not limited to this, and may be coordinates obtained by nonlinearly interpolating between the coordinates of the deformed representative point and the approximate representative point. That is, the change from the first deformation displacement field to the second deformation displacement field with respect to the region of interest may be linear or non-linear.

例えば、以下の方法を採ってもよい。まず、対応情報生成部1050は、関心領域の変形代表点と近似体表点の夫々から、関心領域の表面上に設定されたもののみを抽出する。それらを、それぞれ変形表面代表点、近似表面代表点と称する。次に、対応情報生成部1050は、変形表面代表点と近似表面代表点の間に位置する中間的な表面代表点を、ステップS11080と同様に形状維持度の値λに基づいて線形補間によって生成する。これを中間表面代表点と称する。そして、対応情報生成部1050は、近似表面代表点と中間表面代表点の位置を境界条件とし、近似表面代表点から中間表面代表点へ向かう方向へ、関心領域内部の変形を物理変形シミュレーションによって推定する。 For example, the following method may be employed. First, the correspondence information generation unit 1050 extracts only those set on the surface of the region of interest from each of the deformation representative point and the approximate body surface point of the region of interest. These are referred to as a deformed surface representative point and an approximate surface representative point, respectively. Next, the correspondence information generation unit 1050 linearly interpolates an intermediate surface representative point located between the deformed surface representative point and the approximate surface representative point based on the shape maintenance degree value λ R as in step S11080. Generate. This is referred to as an intermediate surface representative point. Then, the correspondence information generation unit 1050 uses the positions of the approximate surface representative point and the intermediate surface representative point as boundary conditions, and estimates the deformation inside the region of interest in the direction from the approximate surface representative point toward the intermediate surface representative point by physical deformation simulation. To do.

ここで、近似表面代表点を基準としてシミュレーションを行っているのは、関心領域が近似変換モデルに従っている状態を、仮想的に外力が生じていない状態であるとしたためである。そして、変形表面代表点に対応する関心領域が最も外力が生じている状態であり、中間表面代表点に対応する関心領域がその中間的な外力が生じている状態であると仮定している。また、シミュレーションに必要な関心領域のヤング率・ポアソン比の値は、予め所定の値を設定する。例えば、画像処理装置1000は、関心領域の種類ごとに予め対応するヤング率・ポアソン比の値のテーブルを用意しておき、対応情報生成部1050は、当該症例の関心領域の種類を臨床データ等から取得することで、テーブルから対応するヤング率・ポアソン比の値を取得し、設定する。関心領域の種類の情報は、データサーバ110から、データ取得部1010、関心領域取得部1020を通じて、対応情報生成部1050が取得するものとする。そして、対応情報生成部1050は、シミュレーションにより得られた変位場を用いて、近似代表点を変換することで、中間表面代表点に対応する、関心領域内部の代表点が取得できる。これを中間内部代表点と称する。そして、対応情報生成部1050は、中間表面代表点と中間内部代表点を合わせると、関心領域全体に関する中間的な変換後の代表点が得られるため、これを中間代表点として取得する。   Here, the simulation is performed based on the approximate surface representative point because the state in which the region of interest follows the approximate conversion model is a state in which no external force is virtually generated. It is assumed that the region of interest corresponding to the deformed surface representative point is in a state where the external force is most generated, and the region of interest corresponding to the intermediate surface representative point is in a state where the intermediate external force is generated. A predetermined value is set in advance as the value of the Young's modulus / Poisson's ratio of the region of interest necessary for the simulation. For example, the image processing apparatus 1000 prepares a table of Young's modulus / Poisson ratio values corresponding to each type of region of interest in advance, and the correspondence information generation unit 1050 sets the type of region of interest of the case as clinical data or the like. To obtain and set the corresponding Young's modulus / Poisson's ratio value from the table. It is assumed that the information on the type of region of interest is acquired from the data server 110 by the correspondence information generation unit 1050 through the data acquisition unit 1010 and the region of interest acquisition unit 1020. Then, the correspondence information generation unit 1050 can acquire a representative point inside the region of interest corresponding to the intermediate surface representative point by converting the approximate representative point using the displacement field obtained by the simulation. This is referred to as an intermediate internal representative point. Then, when the intermediate surface representative point and the intermediate internal representative point are combined, the correspondence information generating unit 1050 obtains an intermediate converted representative point for the entire region of interest, and acquires this as the intermediate representative point.

これにより、関心領域の表面に関しては近似代表点と変形代表点との座標を線形補間した座標となる。一方、内部領域に関しては、近似代表点と変形代表点との座標を非線形に(より、物理的に整合性のとれた位置に)補間した座標として取得できる。なお、例えば、関心領域内部のヤング率を領域によって変えることで、領域によって異なった非線形な補間を行うことができる。例えば、関心領域の重心に近いほどヤング率を大きくし、関心領域の表面に近いほどヤング率を小さくすることで、関心領域の重心近くは硬くなり変位量が小さくなる。一方、関心領域の表面近くは柔らかくなり変位量が大きくなる。これにより、中心部が硬く周辺部が柔らかい病変などに関して、現実に近い変形を取得することができる。   As a result, the surface of the region of interest becomes a coordinate obtained by linearly interpolating the coordinates of the approximate representative point and the deformation representative point. On the other hand, the internal region can be acquired as coordinates obtained by interpolating the coordinates of the approximate representative point and the deformation representative point in a nonlinear manner (in a more physically consistent position). Note that, for example, by changing the Young's modulus inside the region of interest depending on the region, different nonlinear interpolation can be performed depending on the region. For example, by increasing the Young's modulus closer to the center of gravity of the region of interest and decreasing the Young's modulus closer to the surface of the region of interest, the region near the center of gravity of the region of interest becomes harder and the amount of displacement decreases. On the other hand, the area near the surface of the region of interest becomes soft and the displacement becomes large. As a result, it is possible to acquire a deformation that is close to reality with respect to a lesion having a hard central portion and a soft peripheral portion.

(変形例3−2)(一度に複数の形状維持度を取得し複数の第2の画像を生成)
第3の実施形態では、ステップS11030において、形状維持度取得部10010は、形状維持度を1つだけ取得した。そして、ステップS11040からS11090を経て、その値に対応する変形画像を1つだけ生成されていた。また、必要であれば、形状維持度を再取得しそれに対応する変形画像を取得する、という処理を繰り返していた。しかしながら、形状維持度取得部10010は、形状維持度の値を1度に複数取得し、それに対応する変形画像を1度に複数生成されるようにしてもよい。
(Modification 3-2) (A plurality of shape maintenance degrees are acquired at a time to generate a plurality of second images)
In 3rd Embodiment, in step S11030, the shape maintenance degree acquisition part 10010 acquired only one shape maintenance degree. Then, only one deformed image corresponding to the value is generated through steps S11040 to S11090. Further, if necessary, the process of reacquiring the shape maintenance degree and acquiring the corresponding deformed image has been repeated. However, the shape maintenance degree acquisition unit 10010 may acquire a plurality of shape maintenance degree values at a time and generate a plurality of deformed images corresponding to the values.

例えば、ステップS11000からS11025の後のステップS11030において、形状維持度取得部10010は、予め定めた複数の形状維持度の値λを取得する。例えば、形状維持度取得部10010は、{0、0.25、0.5、0.75、1.0}の値すべてをλとして取得する。このとき、画像処理装置1000は、ステップS11040及びステップS11070の処理は行わない。次に、変形近似部1040と対応情報生成部1050は、ステップS11050およびS11060の処理を行い、近似仮想対応点を生成する。次に、ステップS11080において、対応情報生成部1050は、λ≠0かつλ≠1である全ての形状維持度の夫々に対応する中間仮想対応点を生成する。前記の例では、対応情報生成部1050は、{0.25、0.5、0.75}の夫々に対応する中間仮想対応点3種類を生成する。そして、ステップS11090において、第2の変形取得部1060は、ステップS11060で生成した近似仮想対応点と、ステップS11080で生成した全ての中間仮想対応点の夫々に基づいて、対応する第2の変形画像を生成する。前記の例では、中間仮想対応点3種類(λ=0.25、0.5、0.75に対応)と、近似仮想対応点(λ=1に対応)の、合計4種類に対応する第2の変形画像が生成される。 For example, in step S11030 after steps S11000 to S11025, the shape maintenance degree acquisition unit 10010 acquires a plurality of predetermined shape maintenance degree values λ R. For example, the shape retaining degree acquisition unit 10010 acquires all values of {0,0.25,0.5,0.75,1.0} as lambda R. At this time, the image processing apparatus 1000 does not perform the processes in steps S11040 and S11070. Next, the deformation approximating unit 1040 and the correspondence information generating unit 1050 perform the processes of steps S11050 and S11060 to generate approximate virtual corresponding points. Next, in step S11080, the correspondence information generation unit 1050 generates intermediate virtual corresponding points corresponding to all of the shape maintenance degrees where λ R ≠ 0 and λ R ≠ 1. In the above example, the correspondence information generation unit 1050 generates three types of intermediate virtual corresponding points corresponding to {0.25, 0.5, 0.75}, respectively. In step S11090, the second deformation acquisition unit 1060 corresponds to the second modified image corresponding to each of the approximate virtual corresponding points generated in step S11060 and all the intermediate virtual corresponding points generated in step S11080. Is generated. In the above example, three types of intermediate virtual corresponding points (corresponding to λ R = 0.25, 0.5, 0.75) and approximate virtual corresponding points (corresponding to λ R = 1) are supported. A second deformed image is generated.

そして、ステップS11100において、表示制御部1070は、生成された全ての変形画像を表示する。前記の例では、第1の変形画像(λ=0に対応)と、第2の変形画像4種類(λ=0.25、0.5、0.75、1.0に対応)の、合計5種類の変形画像が表示される。表示方法として、例えば、全ての変形画像を並べて表示してもよいし、ユーザの不図示の操作部からの入力に応じて、同じ表示領域上で切り替えて表示するようにしてもよい。 In step S11100, the display control unit 1070 displays all the generated modified images. In the above example, the first modified image (corresponding to λ R = 0) and the second modified image (corresponding to λ R = 0.25, 0.5, 0.75, 1.0) A total of five types of deformed images are displayed. As a display method, for example, all the deformed images may be displayed side by side, or may be switched and displayed on the same display area in accordance with an input from a user operation unit (not shown).

本変形例によると、画像処理装置1000は、予めステップS11000からS11090までの処理を、ユーザの入力を介さずオフラインで処理することができる。この場合、画像処理装置1000は、生成した全ての変形画像を不図示の記憶部に保存しておく。そして、ステップS11100において、記憶部から変形画像を読み込んで表示するようにする。第3の実施形態では、異なる形状維持度の結果を表示するためには、その度にステップS11040からS11090までの処理を行う必要があり、ユーザに待ち時間を与えてしまっていた。しかし、本変形例の処理は、ステップS11100では予め生成された複数の変形画像を読み込んで表示するだけである。そのため、ユーザは待ち時間なく変形画像を観察でき、効率的に作業を行うことができる。   According to this modification, the image processing apparatus 1000 can process the processes from steps S11000 to S11090 in advance offline without user input. In this case, the image processing apparatus 1000 stores all the generated deformed images in a storage unit (not shown). In step S11100, the deformed image is read from the storage unit and displayed. In the third embodiment, in order to display the results of different shape maintenance degrees, it is necessary to perform the processing from step S11040 to S11090 each time, giving a waiting time to the user. However, the process of this modification only reads and displays a plurality of modified images generated in advance in step S11100. Therefore, the user can observe the deformed image without waiting time, and can work efficiently.

<第4の実施形態>
第1の実施形態では、位置合わせの評価関数の例として、ランドマーク対応点位置の誤差を採用していた。しかし、評価関数には、予め1対1に対応する点として取得されない情報の誤差を含むようにしてもよい。本実施形態における画像処理装置は、夫々の画像から抽出した被検体の表面形状の情報に基づいて、ある変換パラメータに対する画像間での表面形状の一致度を求め、これを評価関数の誤差項として併用する。これにより、表面形状が一致するような変換パラメータを算出することができる。以下、本実施形態における画像処理装置について、第1の実施形態との相違部分について説明する。
<Fourth Embodiment>
In the first embodiment, the error of the position corresponding to the landmark is employed as an example of the evaluation function for alignment. However, the evaluation function may include an information error that is not acquired as a point corresponding to one-to-one in advance. The image processing apparatus according to the present embodiment obtains the degree of coincidence of surface shapes between images with respect to a certain conversion parameter based on information on the surface shape of the subject extracted from each image, and uses this as an error term of the evaluation function. Combined. As a result, conversion parameters that match the surface shapes can be calculated. Hereinafter, the difference between the image processing apparatus according to the present embodiment and the first embodiment will be described.

図13は、本実施形態における画像処理装置1300の構成を示す図であり、新たに表面形状取得部13010が追加された点以外は、第1の実施形態における画像処理装置100(図1)と同様である。また、第1の変形取得部1030及び第2の変形取得部1060に関しては、第1の実施形態と機能が異なるため以下でその機能を説明する。その他の構成については第1の実施形態と機能が同じであるため、同じ機能に関しては説明を省略する。   FIG. 13 is a diagram illustrating a configuration of the image processing apparatus 1300 according to the present embodiment. Except for the point that a surface shape acquisition unit 13010 is newly added, the image processing apparatus 100 according to the first embodiment (FIG. 1) and FIG. It is the same. Further, since the functions of the first deformation acquisition unit 1030 and the second deformation acquisition unit 1060 are different from those of the first embodiment, the functions will be described below. Since other functions are the same as those of the first embodiment, the description of the same functions is omitted.

表面形状取得部13010は、第1の画像および第2の画像から被検体の表面形状を夫々取得する。第1の変形取得部1030及び第2の変形取得部1060の機能は第1の実施形態とほぼ同じであるが、取得された夫々の表面形状にさらに基づいて変形位置合わせを行う点のみが、第1の実施形態と異なっている。   The surface shape acquisition unit 13010 acquires the surface shape of the subject from the first image and the second image, respectively. The functions of the first deformation acquisition unit 1030 and the second deformation acquisition unit 1060 are substantially the same as those of the first embodiment, but only the point of performing the deformation alignment based on the acquired surface shapes is only This is different from the first embodiment.

図14は、画像処理装置1300が行う全体の処理手順を示すフローチャートである。但し、本フローチャートにおいて、ステップS14000、S14010、S14030、S14040、S14060の処理はそれぞれ、図2におけるステップS2000、S2010、S2030、S2040、S2060の処理と同じであるため説明は省略する。以下、図2のフローチャートとの相違部分についてのみ説明する。   FIG. 14 is a flowchart illustrating an overall processing procedure performed by the image processing apparatus 1300. However, in this flowchart, the processes of steps S14000, S14010, S14030, S14040, and S14060 are the same as the processes of steps S2000, S2010, S2030, S2040, and S2060 in FIG. Only the differences from the flowchart of FIG. 2 will be described below.

(S14015)(表面形状の取得)
ステップS14015において、表面形状取得部13010は、データ取得部1010から取得した第1の画像と第2の画像の夫々において、被検体の表面形状を表す情報を取得する。ここで、被検体の表面とは、例えば、被検体が乳房の場合には、体表や大胸筋面である。また、被検体が肝臓や腎臓などの臓器の場合には、表面とは当該臓器の表面のことである。ここで、表面形状は、例えば画像に対して面強調フィルタやエッジ検出等の画像処理を行うことで自動的に取得するようにできる。また、画像をユーザが観察できるようにして、ユーザによる入力操作等に基づいて表面形状を取得するようにしてもよい。取得した第1の画像および第2の画像の表面形状を夫々、第1の表面形状および第2の表面形状と表記する。本実施例では表面形状は点群により構成される。但し、表面形状は必ずしも点群である必要はなく、形状を表現できる形式であれば何であってもよい。例えば、表面形状は、多項式などの曲面を表現可能な数式で近似された関数(以降、曲面関数と称する)であってもよい。そして、取得された第1の表面形状および第2の表面形状を第1の変形取得部1030及び第2の変形取得部1060へと出力する。
(S14015) (Acquisition of surface shape)
In step S14015, the surface shape acquisition unit 13010 acquires information representing the surface shape of the subject in each of the first image and the second image acquired from the data acquisition unit 1010. Here, the surface of the subject is, for example, the body surface or the pectoral muscle surface when the subject is a breast. When the subject is an organ such as the liver or kidney, the surface is the surface of the organ. Here, the surface shape can be automatically acquired by performing image processing such as a surface enhancement filter and edge detection on the image, for example. Alternatively, the user may observe the image, and the surface shape may be acquired based on an input operation or the like by the user. The surface shapes of the acquired first image and second image are referred to as a first surface shape and a second surface shape, respectively. In this embodiment, the surface shape is constituted by a point group. However, the surface shape does not necessarily need to be a point group, and any form can be used as long as the shape can be expressed. For example, the surface shape may be a function approximated by a mathematical expression that can express a curved surface such as a polynomial (hereinafter referred to as a curved surface function). Then, the acquired first surface shape and second surface shape are output to the first deformation acquisition unit 1030 and the second deformation acquisition unit 1060.

(S14020)(表面形状に基づく第1の変形の取得)
ステップS14020において、第1の変形取得部1030は、取得した第1の表面形状および第2の表面形状に基づき、取得した第1の画像と第2の画像との間の第1の変形位置合わせを実行し、第1の変形変位場を取得する。そして、第1の変形取得部1030は、取得した第1の変形変位場を対応情報生成部1050へと出力する。さらに、第1の変形取得部1030は、第1の変形変位場に基づいて第1の画像を変形させた第1の変形画像を生成して、表示制御部1070へと出力する。
(S14020) (Acquisition of first deformation based on surface shape)
In step S14020, the first deformation acquisition unit 1030 performs first deformation alignment between the acquired first image and the second image based on the acquired first surface shape and second surface shape. To obtain the first deformation displacement field. Then, the first deformation acquisition unit 1030 outputs the acquired first deformation displacement field to the correspondence information generation unit 1050. Furthermore, the first deformation acquisition unit 1030 generates a first deformation image obtained by deforming the first image based on the first deformation displacement field, and outputs the first deformation image to the display control unit 1070.

このとき、第1の変形取得部1030は、第1の実施形態のステップS2020と同様、変形Φによる位置合わせの適切さを評価する評価関数E1(Φ)を定義し、該評価関数を最小化するような変形Φを推定する。本ステップとステップS2020との処理の違いは、評価関数E1(Φ)の計算方法のみであり、それ以外の処理はステップS2020と同様であるため、説明を省略する。ステップS2020では、評価関数E1(Φ)において、実対応点位置の誤差はランドマーク対応点位置の誤差で表わされていたのに対し、本ステップでは実対応点位置の誤差は、ランドマーク対応点位置の誤差に加え、画像間の表面形状の誤差も含めた関数で表わされる点で異なる。ここで、表面形状の誤差は、画像間の表面形状を表す点群同士が対応付けられた対応点(表面対応点)の位置の誤差として表現される。   At this time, the first deformation acquisition unit 1030 defines an evaluation function E1 (Φ) that evaluates the appropriateness of the alignment by the deformation Φ, and minimizes the evaluation function, as in step S2020 of the first embodiment. The deformation Φ is estimated. The difference in processing between this step and step S2020 is only the method of calculating the evaluation function E1 (Φ), and the other processing is the same as that of step S2020, and thus the description thereof is omitted. In step S2020, in the evaluation function E1 (Φ), the error of the actual corresponding point position is represented by the error of the landmark corresponding point position, whereas in this step, the error of the actual corresponding point position is the landmark correspondence. It differs in that it is expressed by a function including the error of the surface shape between images in addition to the error of the point position. Here, the surface shape error is expressed as an error in the position of a corresponding point (surface corresponding point) in which point groups representing surface shapes between images are associated with each other.

以下に、具体的な算出方法を説明する。表面対応点位置の誤差項は、夫々点群によって表現されている第1の表面形状と第2の表面形状の間で、1対1に対応付けられた表面対応点を生成し、生成された表面対応点の誤差として算出する。しかし、第1の表面形状と第2の表面形状は夫々を構成する点群同士が最初から対応付けられているわけではない。そのため、第1の表面形状を構成する点群により表現される表面形状の曲面と、第2の表面形状を構成する点群により表現される表面形状の曲面との間の位置合わせを行い、点群間の対応付けを行う必要がある。この処理は、例えば、Iterative Closest Point(ICP)法などを公知の手法を用いて実行することができる。また、画像間で元々の表面形状が大きく異なる場合には、まずステップS2020と同様の処理によってランドマーク対応点の誤差のみを用いた変形変位場を算出し、この変形変位場を第1の表面形状に適用することで、一旦、第2の表面形状に形状を近付けた変形後の第1の表面形状を取得する。そして、変形後の第1の表面形状を表す点群と第2の表面形状を表す点群の間でICP法などで対応付けるようにしてもよい。これにより、画像間で元々の表面形状が大きく異なる場合でも、第1の表面形状と第2の表面形状との間で適切に点群を対応付けることができる。なお、表面形状の対応付け方法はこれに限られるものではない。例えば、一方の表面形状を点群として、他方の表面形状を曲面関数として取得し、これらの点群と曲面関数との間で、一方の点群に対応する他方の曲面関数上の最近傍点を探索しながらICP法などで点群の対応付けを行ってもよい。これにより、一方の表面形状を表す点群は、他方の連続的な形式で表現された表面形状上の点と対応付けられることになる。そのため、両方の画像の表面形状を点群として離散化した場合に生じる、一方の表面形状上の点に厳密に対応する他方の表面形状上の点が存在せず、誤差が発生してしまうという問題が起こらない。   A specific calculation method will be described below. The surface-corresponding point position error term is generated by generating a surface-corresponding point corresponding to one-to-one between the first surface shape and the second surface shape represented by the point group, respectively. Calculated as the error of the surface corresponding point. However, the first surface shape and the second surface shape are not associated with each other from the beginning. Therefore, alignment is performed between the curved surface having the surface shape represented by the point group constituting the first surface shape and the curved surface having the surface shape represented by the point group constituting the second surface shape. It is necessary to associate the groups. This process can be executed using, for example, the Iterative Closest Point (ICP) method using a known method. If the original surface shape differs greatly between the images, first, a deformation displacement field using only the error of the landmark corresponding point is calculated by the same processing as in step S2020, and this deformation displacement field is calculated as the first surface. By applying to the shape, the first surface shape after the deformation that once brought the shape close to the second surface shape is acquired. And you may make it match | combine by the ICP method etc. between the point group showing the 1st surface shape after a deformation | transformation, and the point group showing the 2nd surface shape. Thereby, even when the original surface shape differs greatly between images, a point group can be appropriately matched between the first surface shape and the second surface shape. The method for associating the surface shape is not limited to this. For example, one surface shape is obtained as a point group, the other surface shape is obtained as a curved surface function, and the nearest point on the other curved surface function corresponding to one point group is obtained between these point groups and the curved surface function. While searching, the point cloud may be associated by the ICP method or the like. Thereby, the point group showing one surface shape is matched with the point on the surface shape expressed in the other continuous form. Therefore, when the surface shape of both images is discretized as a point group, there is no point on the other surface shape that exactly corresponds to the point on one surface shape, and an error occurs. There is no problem.

次に、表面対応点の誤差項Surf(Φ)は次式で表わされる。
ここで、(9)式では、Φ(x|p1)は、パラメータをp1とした所定の変換モデルで表される第1の変形Φによって座標xを変位させた座標を表す。また(xS1i,xS2i)は、第1の画像と第2の画像上におけるi番目の表面対応点の座標の組を表す。また、NSは、表面対応点の総数を表す。また、Cov(x)は、第1の実施形態の変形例1−2と同様、位置xにおける3次元の誤差に関する共分散行列を返す関数を表す。(9)式は、(6)式における近似仮想対応点(xR1i,xR2i)を、表面対応点(xS1i,xS2i)に、変換パラメータp2を変換パラメータp1に置き換えただけの式である。従って、変形例1−2においてこのようにパラメータを置き換えると、(9)式は以下のように解釈できる。すなわち、Surf(Φ)は、変換パラメータp1による変位後の第1の表面形状の表面対応点が、対応する第2の表面形状の表面対応点から法線方向にのみずれないようにするための項として機能する。つまり、表面形状上に設定された表面対応点は、第1の変位場の算出時に、表面形状の面上に沿って動くことを許容される。なお、評価関数E1(Φ)、つまり実対応点の誤差は、上述の通り、ランドマーク対応点の誤差項に表面対応点の誤差項Surf(Φ)を加えることで算出できる。実対応点の誤差は表面対応点の誤差項Surf(Φ)のみで構成されてもよい。
Next, the error term Surf (Φ) of the surface corresponding point is expressed by the following equation.
Here, in equation (9), Φ (x | p1) represents a coordinate obtained by displacing the coordinate x by a first deformation Φ represented by a predetermined conversion model with a parameter p1. Further , (x S1i , x S2i ) represents a set of coordinates of the i-th surface corresponding point on the first image and the second image. NS represents the total number of surface corresponding points. Cov (x) represents a function that returns a covariance matrix related to a three-dimensional error at the position x, as in Modification 1-2 of the first embodiment. The equation (9) is an equation in which the approximate virtual corresponding point (x R1i , x R2i ) in the equation (6) is replaced with the surface corresponding point (x S1i , x S2i ) and the conversion parameter p2 is replaced with the conversion parameter p1. is there. Therefore, when parameters are replaced in this manner in Modification 1-2, equation (9) can be interpreted as follows. That is, Surf (Φ) is used to prevent the surface corresponding point of the first surface shape after displacement by the conversion parameter p1 from deviating only in the normal direction from the surface corresponding point of the corresponding second surface shape. Functions as a term. That is, the surface corresponding point set on the surface shape is allowed to move along the surface shape surface when calculating the first displacement field. Note that the error of the evaluation function E1 (Φ), that is, the actual corresponding point can be calculated by adding the error term Surf (Φ) of the surface corresponding point to the error term of the landmark corresponding point as described above. The error of the actual corresponding point may be composed only of the error term Surf (Φ) of the surface corresponding point.

このように、評価関数E1(Φ)は対応点位置の誤差項のみによって表されるため、第1の実施形態のステップS2050に記載した通り、変換パラメータと対応点間の誤差(誤差)との関係は、線形方程式で表すことができる。従って、対応点間の誤差を最小化する変換パラメータp1を線形最適化手法で推定できる。   As described above, since the evaluation function E1 (Φ) is represented only by the error term of the corresponding point position, as described in step S2050 of the first embodiment, the error (error) between the conversion parameter and the corresponding point is calculated. The relationship can be expressed by a linear equation. Therefore, the conversion parameter p1 that minimizes the error between corresponding points can be estimated by the linear optimization method.

(S14050)(表面形状に基づく第2の変形の取得)
ステップS14050において、第2の変形取得部1060は、ステップS2040で取得した近似仮想対応点(仮想対応情報)を拘束条件として用いて第2の変形変位場を取得する。このとき、第2の評価関数E2(Φ)の算出において、ステップS14020の処理と同様に、ステップS14015で取得した第1の表面形状および第2の表面形状の一致度を考慮する点が第1の実施形態とは異なっている。ここで、第2の評価関数E2(Φ)の算出において、第1の評価関数E1(Φ)に追加される近似仮想対応点の誤差項R(Φ)も対応点位置の誤差項である。従って、最終的な位置合わせの評価関数E2(Φ)も対応点位置の誤差項のみで表わされるため、変換パラメータと対応点間の誤差との関係を線形方程式で表わすことができる。従って、対応点間の誤差を最小化する変換パラメータp2を線形最適化手法によって推定できる。
(S14050) (Acquisition of second deformation based on surface shape)
In step S14050, the second deformation acquisition unit 1060 acquires the second deformation displacement field using the approximate virtual corresponding point (virtual correspondence information) acquired in step S2040 as a constraint condition. At this time, in the calculation of the second evaluation function E2 (Φ), the first point in consideration of the degree of coincidence between the first surface shape and the second surface shape acquired in step S14015 is the same as the processing in step S14020. This is different from the embodiment. Here, in the calculation of the second evaluation function E2 (Φ), the error term R (Φ) of the approximate virtual corresponding point added to the first evaluation function E1 (Φ) is also an error term of the corresponding point position. Therefore, since the final alignment evaluation function E2 (Φ) is also expressed only by the error term of the corresponding point position, the relationship between the conversion parameter and the error between the corresponding points can be expressed by a linear equation. Therefore, the conversion parameter p2 that minimizes the error between corresponding points can be estimated by the linear optimization method.

以上によって、画像処理装置1300の処理が実施される。本実施形態によれば、被検体の表面形状が一致するような位置合わせを行うことができる。このとき、予め対応点として取得されていない画像間の表面形状の一致度(誤差)を評価関数に含む場合でも、線形最適化によって変換パラメータを算出可能となり、高速に位置合わせの結果を取得することができる。さらに、本実施形態によれば、位置合わせにおいて、被検体の表面形状上に設定された表面対応点は、表面形状の面上に沿って動くことを許容される。これにより、以下のような効果が得られる。本実施形態では、表面形状間をICP法などの方法で対応付けを行っているが、アルゴリズムの不安定さや精度面での不十分さなどにより各画像の表面形状の面上で解剖学的に厳密に正しい位置が常に対応付けられるわけではない。そのため、多少なりとも対応付けの誤りが生じる。従って、表面形状の面上の位置の対応の誤りにより、表面形状上の近傍に存在する対応点間の距離が画像間で大きく食い違ってしまうことがある。これにより、単純に対応点の位置そのものをなるべく一致させるような評価関数で位置合わせすると、表面形状が局所的に不自然に伸び縮みしてしまう。これに対して、表面形状の面上に動くことを許容する評価関数で位置合わせすることで、変形を表現する変換モデルの性質に基づいて、表面形状の面上に沿って誤差を許した状態で位置合わせが行われる。これにより、本実施形態のように滑らかな変形を表現することが知られているFFDやTPSのような変換モデルを適用することで、被検体の表面形状が局所的に不自然な変形にならないような位置合わせ結果を得ることができる。   Thus, the processing of the image processing apparatus 1300 is performed. According to this embodiment, it is possible to perform alignment so that the surface shape of the subject matches. At this time, even if the evaluation function includes the degree of coincidence (error) of the surface shapes between images that have not been previously acquired as corresponding points, the conversion parameter can be calculated by linear optimization, and the alignment result is acquired at high speed. be able to. Furthermore, according to the present embodiment, in the alignment, the surface corresponding points set on the surface shape of the subject are allowed to move along the surface shape surface. Thereby, the following effects are obtained. In this embodiment, the surface shapes are associated with each other by a method such as the ICP method, but anatomically on the surface shape surface of each image due to instability of the algorithm or insufficient accuracy. Strictly correct positions are not always associated. For this reason, an association error occurs to some extent. Accordingly, the distance between corresponding points existing in the vicinity on the surface shape may greatly differ between images due to an error in the correspondence of the position on the surface shape surface. As a result, if the position is simply aligned using an evaluation function that matches the positions of the corresponding points as much as possible, the surface shape locally expands and contracts unnaturally. On the other hand, by aligning with an evaluation function that allows movement on the surface shape surface, an error is allowed along the surface shape surface based on the properties of the transformation model that expresses the deformation. Alignment is performed. Thus, by applying a transformation model such as FFD or TPS that is known to express smooth deformation as in the present embodiment, the surface shape of the subject does not become locally unnaturally deformed. Such an alignment result can be obtained.

(変形例4−1)
上記の実施形態では、第1の実施形態から第3の実施形態と同様に、関心領域の変形を制御するための第2の変形を取得していた。しかし、関心領域の変形を制御しない(制御する必要がない)場合であっても、被検体の表面形状を一致させるための処理を位置合わせに用いる上記処理の効果は損なわれるものではない。すなわち、ステップS14010、および、S14030からステップS14050の処理は実行せずに、第1の変形を変形結果として用いるようにしてもよい。
(Modification 4-1)
In the above embodiment, as in the first to third embodiments, the second deformation for controlling the deformation of the region of interest is acquired. However, even when the deformation of the region of interest is not controlled (it is not necessary to control), the effect of the above processing using the processing for matching the surface shape of the subject for alignment is not impaired. In other words, the first modification may be used as a modification result without executing the processes of steps S14010 and S14030 to S14050.

<第5の実施形態>
上述の第4の実施形態の変形例4−1では、被検体の表面形状に基づき、画像間の表面形状の一致度を、位置合わせの評価関数の誤差項として用いる場合について説明した。しかし、これらの実施形態は本発明の実施のおける一例に過ぎない。本実施形態では変形例4−1とは異なる形態の例について説明する。
<Fifth Embodiment>
In the modification 4-1 of the fourth embodiment described above, the case where the degree of coincidence of the surface shapes between images is used as the error term of the evaluation function for alignment based on the surface shape of the subject has been described. However, these embodiments are only examples in the practice of the present invention. In the present embodiment, an example of a form different from Modification 4-1 will be described.

図15は、本実施形態における画像処理装置1500の構成を示す図である。本実施形態における画像処理装置1500は、第4の実施形態で説明した画像処理装置1300の構成要素の一部と同じ構成要素で構成されている。同様の機能を有する構成要素には同一の番号を付し、詳細な説明は省略する。   FIG. 15 is a diagram illustrating a configuration of an image processing apparatus 1500 according to the present embodiment. The image processing apparatus 1500 according to the present embodiment includes the same constituent elements as some of the constituent elements of the image processing apparatus 1300 described in the fourth embodiment. Components having similar functions are denoted by the same reference numerals, and detailed description thereof is omitted.

図16は、本実施形態における画像処理装置1500が行う全体の処理手順を示すフローチャートである。   FIG. 16 is a flowchart showing an overall processing procedure performed by the image processing apparatus 1500 according to this embodiment.

(S15000)データの取得
ステップS15000において、データ取得部1010は、データサーバ110から、第1の画像と第2の画像を取得する。この処理は第4の実施形態におけるステップS14000と同様であるため説明を省略する。
(S15000) Data Acquisition In step S15000, the data acquisition unit 1010 acquires a first image and a second image from the data server 110. Since this process is the same as step S14000 in the fourth embodiment, a description thereof will be omitted.

(S15015)表面形状の取得
ステップS15015において、表面形状取得部13010は、データ取得部1010から取得した第1の画像と第2の画像の夫々において、被検体の表面形状を表す情報を取得する。この処理は第4の実施形態におけるステップS14015と同様であるため説明を省略する。
(S15015) Acquisition of Surface Shape In step S15015, the surface shape acquisition unit 13010 acquires information representing the surface shape of the subject in each of the first image and the second image acquired from the data acquisition unit 1010. Since this process is the same as step S14015 in the fourth embodiment, a description thereof will be omitted.

(S15020)表面形状に基づく第1の変形の取得
ステップS15020において、第1の変形取得部1030は、取得した第1の表面形状および第2の表面形状に基づき、取得した第1の画像と第2の画像との間の第1の変形位置合わせを実行し、第1の変形変位場を取得する。さらに、第1の変形取得部1030は、第1の変形変位場に基づいて第1の画像を変形させた第1の変形画像を生成して、表示制御部1070へと出力する。
(S15020) Acquisition of First Deformation Based on Surface Shape In step S15020, the first deformation acquisition unit 1030 acquires the first image and the first acquired based on the acquired first surface shape and the second surface shape. A first deformation alignment between the two images is performed to obtain a first deformation displacement field. Furthermore, the first deformation acquisition unit 1030 generates a first deformation image obtained by deforming the first image based on the first deformation displacement field, and outputs the first deformation image to the display control unit 1070.

図17は、本処理ステップにおいて第1の変形取得部1030が実行する処理をより詳細に説明するためのフローチャートである。   FIG. 17 is a flowchart for explaining in more detail the processing executed by the first deformation acquisition unit 1030 in this processing step.

(S15022)対応関係取得
ステップS15022において、第1の変形取得部1030は、第1の表面形状および第2の表面形状を構成する点群の間の対応付け処理を実行する。具体的な処理方法は、第4の実施形態におけるステップS14020に一例として記載したICP法などを用いることができる。この処理により、表面対応点(xS1i,xS2i)、1≦i≦Nを取得する。ここで、Nは表面対応点の総数である。
(S15022) Correspondence Relationship Acquisition In step S15022, the first deformation acquisition unit 1030 executes an association process between point groups constituting the first surface shape and the second surface shape. As a specific processing method, the ICP method described as an example in step S14020 in the fourth embodiment can be used. By this processing, surface corresponding points (x S1i , x S2i ), 1 ≦ i ≦ N S are acquired. Here, N S is the total number of surface corresponding points.

(S15024)法線方向取得
ステップS15024において、第1の変形取得部1030は、ステップS15022で取得した表面対応点の夫々について、当該位置における表面形状に関する法線方向の算出処理を実行する。ここで、表面対応点(xS1i,xS2i)を構成するxS1iおよびxS2iは、夫々、第1の表面形状および第2の表面形状を構成する点である。本処理ステップでは、位置xS1iにおける第1の表面形状の法線方向を表すベクトル(第1の法線ベクトル)n1iおよび、位置xS2iにおける第2の表面形状の法線方向を表すベクトル(第2の法線ベクトル)n2iを夫々算出して取得する。表面形状から法線ベクトルを算出する方法は、変形例1−2に記載した方法(当該位置の近傍の点群の位置を主成分分析して得る方法)で算出できる。法線ベクトルの算出方法は、他にも表面形状の距離場を算出し、その距離場の空間勾配に基づいて法線ベクトルを算出するようにしても良い。以上の方法により得た第1の表面形状の位置xS1iにおける法線ベクトルn1iおよび、第2の表面形状の位置xS2iにおける法線ベクトルn2iを得る。なお、n1iおよびn2iは夫々、ノルムが1.0に正規化された3次元ベクトルである。
(S15024) Normal Direction Acquisition In step S15024, the first deformation acquisition unit 1030 executes a normal direction calculation process related to the surface shape at the position for each of the surface corresponding points acquired in step S15022. Here, x S1i and x S2i constituting the surface corresponding points (x S1i , x S2i ) are points constituting the first surface shape and the second surface shape, respectively. In this process step, a vector representing a first surface vector representing the normal direction of the shape and (first normal vector) n 1i, the normal direction of the second surface shape at the position x S2i at position x S1i ( The second normal vector) n 2i is calculated and acquired. A method for calculating the normal vector from the surface shape can be calculated by the method described in Modification 1-2 (a method obtained by performing principal component analysis on the position of a point group near the position). Alternatively, the normal vector may be calculated by calculating a surface shape distance field and calculating the normal vector based on the spatial gradient of the distance field. The normal vector n 1i at the position x S1i of the first surface shape and the normal vector n 2i at the position x S2i of the second surface shape obtained by the above method are obtained. Note that n 1i and n 2i are three-dimensional vectors each having a norm normalized to 1.0.

(S15026)変形算出
ステップS15026において第1の変形取得部1030は、ステップS15022およびステップS15024の処理結果に基づいて、第1の変形変位場を取得する。
(S15026) Deformation Calculation In step S15026, the first deformation acquisition unit 1030 acquires the first deformation displacement field based on the processing results of steps S15022 and S15024.

このとき、第1の変形取得部1030は、第4の実施形態のステップS14020と同様、変形Φによる位置合わせの適切さを評価する評価関数E1(Φ)を定義し、該評価関数を最小化するような変形Φを推定する。
(10)式の、Φ(x|p1)は、パラメータをp1とした所定の変換モデルで表される第1の変形Φによって座標xを変位させた座標を表す。本実施形態において、Φ(x|p1)は、第1の画像の座標系から第2の画像の座標系への変換を意味する。また、Φ−1(x|p1)はΦ(x|p1)の逆関数であり、第2の画像の座標系から第1の画像の座標系への変換を意味する。また、Cov1i、Cov2iは、i番目の表面対応点の位置における3次元の誤差に関する共分散行列である。Cov1iは、第1の表面形状の位置xS1iにおける法線ベクトルn1iに基づいて算出される。また、Cov2iは、第2の表面形状の位置xS2iにおける法線ベクトルn2iに基づいて算出される。
At this time, the first deformation acquisition unit 1030 defines an evaluation function E1 (Φ) that evaluates the appropriateness of alignment by the deformation Φ, and minimizes the evaluation function, as in step S14020 of the fourth embodiment. The deformation Φ is estimated.
In the equation (10), Φ (x | p1) represents coordinates obtained by displacing the coordinate x by a first deformation Φ expressed by a predetermined conversion model with a parameter p1. In the present embodiment, Φ (x | p1) means conversion from the coordinate system of the first image to the coordinate system of the second image. Further, Φ −1 (x | p1) is an inverse function of Φ (x | p1), and means conversion from the coordinate system of the second image to the coordinate system of the first image. Cov 1i and Cov 2i are covariance matrices related to a three-dimensional error at the position of the i-th surface corresponding point. Cov 1i is calculated based on the normal vector n 1i at the position x S1i of the first surface shape. Cov 2i is calculated based on the normal vector n 2i at the position x S2i of the second surface shape.

(S15028)変形画像生成
ステップS15028において第1の変形取得部1030は、ステップS15026で取得した第1の変形変位場に基づいて第1の画像を変形させた第1の変形画像を生成して、表示制御部1070へと出力する。
(S15028) Deformed Image Generation In step S15028, the first deformation acquisition unit 1030 generates a first deformed image obtained by deforming the first image based on the first deformation displacement field acquired in step S15026. The data is output to the display control unit 1070.

以上に説明したステップS15022からステップS15028により、本実施形態におけるステップS15020の処理が実行される。   From step S15022 to step S15028 described above, the process of step S15020 in this embodiment is executed.

(S15060)変形画像の表示
ステップS15060において、表示制御部1087は、ユーザによる不図示の操作部への操作に応じて、取得した変形画像と第2の画像の断面画像を、表示部120へと表示する制御を行う。この処理は第4の実施形態におけるステップS14060と同様であるため詳細な説明を省略する。
(S15060) Display of Deformed Image In step S15060, the display control unit 1087 displays the acquired deformed image and the cross-sectional image of the second image to the display unit 120 in response to an operation on the operation unit (not shown) by the user. Control the display. Since this process is the same as step S14060 in the fourth embodiment, a detailed description thereof will be omitted.

以上によって、第6の実施形態における画像処理装置1500の処理が実施される。本実施形態によれば、第1の表面形状に関する法線ベクトルおよび、第2の表面形状に関する法線ベクトルの双方に基づいて第1の変形変位場を取得することができる。これにより、第1の表面形状と第2の表面形状の違い等に対して安定的に動作させることができる効果がある。   As described above, the processing of the image processing apparatus 1500 in the sixth embodiment is performed. According to the present embodiment, the first deformation displacement field can be acquired based on both the normal vector related to the first surface shape and the normal vector related to the second surface shape. Thereby, there exists an effect which can be made to operate | move stably with respect to the difference of a 1st surface shape, and a 2nd surface shape.

(変形例5−1):法線方向の算出方法(画像の輝度勾配も用いる)
上記の実施形態では、第1の表面形状に基づいて第1の法線ベクトルを算出する場合を例として説明した。しかし、本発明の実施はこれに限らない。例えば、第1の法線ベクトルn1iは、第1の画像の表面対応点位置xS1iの近傍の輝度勾配に基づいて算出するようにしても良い。同様に、第2の法線ベクトルn2iは第2の画像の表面対応点位置xS2iの近傍の輝度勾配に基づいて算出するようにしても良い。表面形状を表す点群の分布が空間的に疎な場合など、表面形状に関する情報から法線ベクトルを高精度に算出するのが困難な場合であっても以降の処理を実行することができる。
(Modification 5-1): Method for calculating normal direction (also using luminance gradient of image)
In the above embodiment, the case where the first normal vector is calculated based on the first surface shape has been described as an example. However, the implementation of the present invention is not limited to this. For example, the first normal vector n 1i may be calculated based on the luminance gradient in the vicinity of the surface corresponding point position x S1i of the first image. Similarly, the second normal vector n 2i may be calculated based on the luminance gradient in the vicinity of the surface corresponding point position x S2i of the second image. Even when it is difficult to calculate the normal vector with high accuracy from the information on the surface shape, such as when the distribution of the point cloud representing the surface shape is spatially sparse, the subsequent processing can be executed.

また、法線ベクトルの算出は、表面形状と画像の輝度勾配の両方に基づいて算出するようにしても良い。例えば、表面形状に基づいて算出した法線ベクトルと、画像の輝度勾配に基づいて算出した法線ベクトルとの中間ベクトルを算出し、そのベクトルを用いて以後の処理を実行するようにしても良い。また、表面形状の粗密度合いに基づいて、表面形状から法線ベクトルを算出するか、画像の輝度勾配から法線ベクトルを算出するかを切り替えるようにしても良い。例えば、表面形状を表す点群の空間密度が所定の閾値よりも大きい場合には表面形状に基づいて法線ベクトルを算出し、そうでない場合には画像の輝度勾配に基づいて法線ベクトルを算出するようにできる。また、画像の輝度勾配の大きさによって上記の切り替えを行うようにしても良い。これらの方法によれば、表面形状を表す点群データや画像の輝度分布に対して、より安定的に法線ベクトルを算出できる効果がある。   The normal vector may be calculated based on both the surface shape and the luminance gradient of the image. For example, an intermediate vector between the normal vector calculated based on the surface shape and the normal vector calculated based on the luminance gradient of the image may be calculated, and the subsequent processing may be executed using the vector. . Further, based on the roughness density of the surface shape, switching between calculating the normal vector from the surface shape or calculating the normal vector from the luminance gradient of the image may be performed. For example, if the spatial density of the point cloud representing the surface shape is greater than a predetermined threshold, the normal vector is calculated based on the surface shape, otherwise the normal vector is calculated based on the brightness gradient of the image. You can do that. Further, the above switching may be performed depending on the magnitude of the luminance gradient of the image. According to these methods, there is an effect that the normal vector can be calculated more stably with respect to the point cloud data representing the surface shape and the luminance distribution of the image.

(変形例5−2):2つの法線方向を統合して用いる場合
上記の実施形態では、第1の法線ベクトルおよび第2の法線ベクトルを算出し、それらに基づいて式(10)に記載した評価関数を用いる場合を例として説明した。しかし、本発明の実施はこれに限らない。例えば、第1の法線ベクトルおよび第2の法線ベクトルの双方に基づいて、これらを統合した法線ベクトルを算出するようにしても良い。そして、統合した法線ベクトルに基づいて第4の実施形態で説明した式(9)に記載した評価関数を用いて第1の変形変換を取得するようにしても良い。具体的には、ステップS15015で取得した第1の画像の座標系で定義される第1の法線ベクトルを座標変換Φ(x|p1)に基づいて、第2の画像座標系の法線ベクトルへと変換する。より具体的にはn1i’=Φ(x1i+n1i|p1)−Φ(x1i|p1)により法線ベクトルを計算する。そして、n1i’とn2iから中間ベクトルnmiを算出する。そして、第4の実施形態のステップS14020で説明した方法により共分散行列Cov(x)を算出し、同実施形態の式(9)に記載し評価関数を用いて第1の変形変位場を取得するようにできる。以上に説明した方法によれば、式(10)を用いる第6の実施形態に記載の方法に比べて、より簡易な計算により本発明を実施することができる。
(Modification 5-2): Case where two normal directions are integrated and used In the above-described embodiment, the first normal vector and the second normal vector are calculated, and the equation (10) is calculated based on them. The case where the evaluation function described in 1 is used has been described as an example. However, the implementation of the present invention is not limited to this. For example, a normal vector obtained by integrating these may be calculated based on both the first normal vector and the second normal vector. And you may make it acquire 1st deformation | transformation transformation | conversion using the evaluation function described in Formula (9) demonstrated in 4th Embodiment based on the integrated normal vector. Specifically, the first normal vector defined in the coordinate system of the first image acquired in step S15015 is converted into the normal vector of the second image coordinate system based on the coordinate transformation Φ (x | p1). Convert to. More specifically, the normal vector is calculated by n 1i ′ = Φ (x 1i + n 1i | p1) −Φ (x 1i | p1). Then, an intermediate vector n mi is calculated from n 1i ′ and n 2i . Then, the covariance matrix Cov (x) is calculated by the method described in step S14020 of the fourth embodiment, and the first deformation displacement field is obtained using the evaluation function described in the equation (9) of the same embodiment. You can do that. According to the method described above, the present invention can be implemented by a simpler calculation than the method described in the sixth embodiment using Expression (10).

また、第2の画像の座標系に変換した第1の法線ベクトルn1i’と第2の法線ベクトルn2iとの中間ベクトルを算出する際に、これらのベクトルに対して異なる重み付けをしても良い。例えば、第1の画像および第2の画像の撮影装置(モダリティ)の種別に基づいて、この重みを設定するようにできる。例えば、第1の画像が第2の画像と比べて被検体の表面形状を高い信頼度で算出できるモダリティで撮影されている場合には、第1の法線ベクトルに対する重みを大きくするようにできる。これによれば、より信頼できる表面形状に関する情報を重視して法線ベクトルを算出できるため、第1の変形変位場を高い精度で取得できる効果がある。また前記の重みづけは、モダリティの種別に基づく場合に限らず、例えば第1の表面形状および第2の表面形状の信頼度を取得し、それに基づいて重みを設定するようにしても良い。この信頼度は、例えばユーザによる入力操作によって取得するようにしても良いし、これ以外にも第1および第2の体表形状を表す点群の空間密度や、第1および第2の画像のノイズレベル等に基づいて取得するようにしても良い。この場合、体表対応点の全てに対して同一の重みを設定しても良いし、体表対応点の各々に関して個別に重みを設定するようにしても良い。また設定する重みは0から1までの連続値であっても良いし、0または1といった二値の重みであっても良い。 Further, when calculating an intermediate vector between the first normal vector n 1i ′ converted into the coordinate system of the second image and the second normal vector n 2i , these vectors are weighted differently. May be. For example, this weight can be set based on the type of the imaging device (modality) of the first image and the second image. For example, when the first image is captured with a modality that can calculate the surface shape of the subject with higher reliability than the second image, the weight for the first normal vector can be increased. . According to this, since the normal vector can be calculated with emphasis on more reliable information on the surface shape, there is an effect that the first deformation displacement field can be acquired with high accuracy. The weighting is not limited to the type of modality, and for example, the reliability of the first surface shape and the second surface shape may be acquired, and the weight may be set based on the reliability. This reliability may be obtained, for example, by an input operation by a user, or in addition to this, the spatial density of point groups representing the first and second body surface shapes, and the first and second images. You may make it acquire based on a noise level etc. In this case, the same weight may be set for all the body surface corresponding points, or the weight may be individually set for each of the body surface corresponding points. The set weight may be a continuous value from 0 to 1, or may be a binary weight such as 0 or 1.

(変形例5−3):夫々の法線方向で評価値を統合して評価値を算出する
第6の実施形態では、式(10)に示す通り、第1の法線ベクトルに基づいて算出される評価値と、第2の法線ベクトルに基づいて算出される評価値との合算により全体の評価値を計算する場合を例として説明した。しかし本発明の実施はこれに限らない。例えば、式(11)に示すようにして評価関数を構成するようにしても良い。
ここで関数min(a,b)は最小値選択関数であり、関数minの1番目の引数である評価値と、2番目の引数である評価値のうち、評価が良い方(値が小さい方)の評価値が、全体の評価として採用される。これによれば、第1の法線ベクトルと第2の法線ベクトルの向きが大きく異なる場合に、より適切な変形変位場を取得できる効果がある。
(Modification 5-3): Evaluation values are calculated by integrating evaluation values in respective normal directions In the sixth embodiment, calculation is performed based on the first normal vector as shown in Expression (10). An example has been described in which the overall evaluation value is calculated by adding the evaluation value to be calculated and the evaluation value calculated based on the second normal vector. However, the implementation of the present invention is not limited to this. For example, the evaluation function may be configured as shown in Expression (11).
Here, the function min (a, b) is a minimum value selection function, and the evaluation value (the smaller value) of the evaluation value that is the first argument and the evaluation value that is the second argument of the function min. ) Is adopted as the overall evaluation. According to this, there is an effect that a more appropriate deformation displacement field can be acquired when the directions of the first normal vector and the second normal vector are greatly different.

<第6の実施形態>
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
<Sixth Embodiment>
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

100 画像処理装置 110 データサーバ 120 表示部 1010 データ取得部 1020 関心領域取得部 1030 第1の変形取得部 1040 変形近似部 1050 対応情報生成部 1060 第2の変形取得部 1070 表示制御部 DESCRIPTION OF SYMBOLS 100 Image processing apparatus 110 Data server 120 Display part 1010 Data acquisition part 1020 Region of interest acquisition part 1030 1st deformation | transformation acquisition part 1040 Deformation approximation part 1050 Correspondence information generation part 1060 2nd deformation | transformation acquisition part 1070 Display control part

Claims (25)

被検体を異なる条件で撮像することにより得られた第1の画像と第2の画像を取得するデータ取得手段と、
前記第1の画像内の関心領域を取得する関心領域取得手段と、
前記第1の画像と前記第2の画像の間の第1の変形変位場を取得する第1の変形取得手段と、
前記関心領域における前記第1の変形変位場を、前記第1の変形変位場より自由度が少ない近似変換モデルを用いて近似して近似変位場を生成する変形近似手段と、
前記関心領域に関して、前記第1の画像と、前記第1の画像が前記近似変位場に基づいて変位される画像との間の対応情報を生成する対応情報生成手段と、
前記対応情報を用いて、前記第1の画像と前記第2の画像の間の第2の変形変位場を取得する第2の変形取得手段と、
を備えることを特徴とする画像処理装置。
Data acquisition means for acquiring a first image and a second image obtained by imaging the subject under different conditions;
A region of interest acquisition means for acquiring a region of interest in the first image;
First deformation acquisition means for acquiring a first deformation displacement field between the first image and the second image;
Deformation approximating means for generating an approximate displacement field by approximating the first deformation displacement field in the region of interest using an approximate transformation model having a lower degree of freedom than the first deformation displacement field;
Correspondence information generating means for generating correspondence information between the first image and an image in which the first image is displaced based on the approximate displacement field with respect to the region of interest;
Second deformation acquisition means for acquiring a second deformation displacement field between the first image and the second image using the correspondence information;
An image processing apparatus comprising:
前記第1の変形取得手段は、前記第1の変形変位場に基づいて、前記第1の画像を変位させた第1の変形画像を生成し、
前記第2の変形取得手段は、前記第2の変形変位場に基づいて、前記第1の画像を変位させた第2の変形画像を生成することを特徴とする請求項1に記載の画像処理装置。
The first deformation acquisition means generates a first deformation image obtained by displacing the first image based on the first deformation displacement field,
The image processing according to claim 1, wherein the second deformation acquisition unit generates a second deformed image obtained by displacing the first image based on the second deformation displacement field. apparatus.
前記対応情報は、前記関心領域上に設定された複数の代表点と、該代表点の夫々を前記近似変位場を用いて変位させた複数の代表点とに基づいて取得される、仮想的な対応点であることを特徴とする請求項2に記載の画像処理装置。   The correspondence information is acquired based on a plurality of representative points set on the region of interest and a plurality of representative points obtained by displacing each of the representative points using the approximate displacement field. The image processing apparatus according to claim 2, wherein the image processing apparatus is a corresponding point. 前記設定された複数の代表点と、前記変位させた複数の代表点との位置関係は一致することを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein a positional relationship between the set representative points and the displaced representative points coincides. 前記変位させた複数の代表点は、前記関心領域の面上に沿って動くことが許容されることを特徴とする請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the plurality of displaced representative points are allowed to move along a surface of the region of interest. 前記対応情報は、前記関心領域上に設定された領域と、該設定された領域を前記近似変位場を用いて変位させた領域とに基づいて取得される、仮想的な形状であることを特徴とする請求項2に記載の画像処理装置。   The correspondence information is a virtual shape acquired based on a region set on the region of interest and a region obtained by displacing the set region using the approximate displacement field. The image processing apparatus according to claim 2. 前記関心領域の性質に応じて、前記近似変位場を生成するために用いられる近似変換モデルを選択する近似変換モデル選択手段を更に備えることを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。   The approximate transformation model selection means for selecting an approximate transformation model used for generating the approximate displacement field according to the property of the region of interest is further provided. The image processing apparatus described. 前記関心領域が複数存在する場合は、前記近似変換モデル選択手段は、それぞれの前記関心領域の性質に応じて、前記近似変位場を生成するために用いられる近似変換モデルを選択することを特徴とする請求項7に記載の画像処理装置。   When there are a plurality of the regions of interest, the approximate conversion model selection unit selects an approximate conversion model used for generating the approximate displacement field according to the property of each region of interest. The image processing apparatus according to claim 7. 前記関心領域に関しての前記第1の変形変位場から前記第2の変形変位場への変化の程度を示す形状維持度を取得する形状維持度取得手段を更に備え、
前記対応情報生成手段は、前記第1の画像と、前記第1の画像が前記近似変位場と前記形状維持度とに基づいて変位される画像との間の対応情報を生成することを特徴とする請求項1から8のいずれか1項に記載の画像処理装置。
A shape maintenance degree acquisition means for acquiring a shape maintenance degree indicating a degree of change from the first deformation displacement field to the second deformation displacement field with respect to the region of interest;
The correspondence information generating means generates correspondence information between the first image and an image in which the first image is displaced based on the approximate displacement field and the shape maintenance degree. The image processing apparatus according to any one of claims 1 to 8.
前記関心領域に関しての前記第1の変形変位場から前記第2の変形変位場への変化は線形であることを特徴とする請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein a change from the first deformation displacement field to the second deformation displacement field with respect to the region of interest is linear. 前記関心領域に関しての前記第1の変形変位場から前記第2の変形変位場への変化は非線形であることを特徴とする請求項9に記載の画像処理装置。   The image processing apparatus according to claim 9, wherein a change from the first deformation displacement field to the second deformation displacement field with respect to the region of interest is nonlinear. 前記第1の変形変位場は、前記第1の画像と前記第2の画像との間で実際に対応する実対応点の位置の誤差の評価に基づいて算出され、
前記第2の変形変位場は、前記実対応点の位置の誤差と前記仮想対応点の位置の誤差の評価とに基づいて算出されることを特徴とする請求項3に記載の画像処理装置。
The first deformation displacement field is calculated based on an error evaluation of a position of an actual corresponding point that actually corresponds between the first image and the second image,
The image processing apparatus according to claim 3, wherein the second deformation displacement field is calculated based on an error of a position of the actual corresponding point and an evaluation of an error of a position of the virtual corresponding point.
前記第1の画像に描出された前記被検体の第1の表面形状を取得し、前記第2の画像に描出された該被検体の第2の表面形状を取得する表面形状取得手段をさらに備え、
前記実対応点は、前記第1の表面形状と前記第2の表面形状との間で対応する表面対応点であることを特徴とする請求項12に記載の画像処理装置。
Surface shape acquisition means for acquiring a first surface shape of the subject depicted in the first image and obtaining a second surface shape of the subject depicted in the second image is further provided. ,
The image processing apparatus according to claim 12, wherein the actual corresponding point is a surface corresponding point that corresponds between the first surface shape and the second surface shape.
前記実対応点の位置の誤差の評価は、前記第1の表面形状と前記第2の表面形状の何れか一方の曲面の法線方向の位置の誤差は大きく評価し、該曲面に沿った方向の位置の誤差は小さく評価することを特徴とする請求項13に記載の画像処理装置。   The error of the position of the actual corresponding point is evaluated by greatly evaluating the position error in the normal direction of the curved surface of either the first surface shape or the second surface shape, and the direction along the curved surface. The image processing apparatus according to claim 13, wherein the position error is evaluated to be small. 前記近似変換モデルは剛体変換モデルであることを特徴とする請求項1から14のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the approximate conversion model is a rigid body conversion model. 前記取得手段は、ユーザによる操作に基づいて前記関心領域を取得することを特徴とする請求項1から15のいずれか1項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the acquisition unit acquires the region of interest based on an operation by a user. 前記第1の変形画像と前記第2の変形画像を表示部に表示させるための制御を行う表示制御手段を更に備えることを特徴とする請求項1から16のいずれか1項に記載の画像処理装置。   17. The image processing according to claim 1, further comprising display control means for performing control for displaying the first modified image and the second modified image on a display unit. apparatus. 被検体を異なる条件で撮像することにより得られた第1の画像と第2の画像を取得するデータ取得手段と、
前記第1の画像に描出された前記被検体の第1の表面形状を取得し、前記第2の画像に描出された該被検体の第2の表面形状を取得する表面形状取得手段と、
前記第1の表面形状と前記第2の表面形状との間の誤差の評価に基づいて、前記第1の画像と前記第2の画像の間の変形変位場を取得する変形取得手段とを備え、
前記誤差の評価は、前記第1の表面形状と前記第2の表面形状の何れか一方の曲面の法線方向の位置の誤差は大きく評価し、該曲面に沿った方向の位置の誤差は小さく評価することを特徴とする画像処理装置。
Data acquisition means for acquiring a first image and a second image obtained by imaging the subject under different conditions;
Surface shape obtaining means for obtaining a first surface shape of the subject depicted in the first image and obtaining a second surface shape of the subject depicted in the second image;
Deformation acquisition means for acquiring a deformation displacement field between the first image and the second image based on evaluation of an error between the first surface shape and the second surface shape. ,
In the evaluation of the error, the position error in the normal direction of one of the first surface shape and the second surface shape is greatly evaluated, and the position error in the direction along the curved surface is small. An image processing apparatus characterized by being evaluated.
第1の変形状態における被検体の第1の表面形状を取得する第1の形状取得手段と、
第2の変形状態における前記被検体の第2の表面形状を取得する第2の形状取得手段と、
前記第1の表面形状に関する表面上の第1の法線方向を取得する法線方向取得手段と、
前記第1と第2の表面形状との間の複数の位置の対応関係を取得する対応関係取得手段と、
前記複数の位置の対応関係の前記法線方向に基づいて算出される距離を指標として、前記被検体に関する前記第1の変形状態と前記第2の変形状態との間の座標変換を算出する算出手段と、
を備える画像処理装置。
First shape acquisition means for acquiring a first surface shape of the subject in the first deformation state;
Second shape acquisition means for acquiring a second surface shape of the subject in a second deformation state;
Normal direction acquisition means for acquiring a first normal direction on the surface related to the first surface shape;
A correspondence acquisition means for acquiring a correspondence of a plurality of positions between the first and second surface shapes;
Calculation for calculating coordinate transformation between the first deformation state and the second deformation state related to the subject, using a distance calculated based on the normal direction of the correspondence relationship of the plurality of positions as an index. Means,
An image processing apparatus comprising:
前記第1の形状取得手段は、前記第1の変形状態で前記被検体を撮影した第1の画像に基づいて第1の表面形状を取得し、
前記第2の形状取得手段は、前記第2の変形状態で前記被検体を撮影した第2の画像に基づいて第2の表面形状を取得し、
前記算出手段が算出した座標変換に基づいて、前記第1の画像または第2の画像を変形させた変形画像を生成する生成手段、
を備えることを特徴とする前記請求項19に記載の画像処理装置。
The first shape acquisition means acquires a first surface shape based on a first image obtained by imaging the subject in the first deformation state,
The second shape acquisition means acquires a second surface shape based on a second image obtained by imaging the subject in the second deformation state,
Generating means for generating a deformed image obtained by deforming the first image or the second image based on the coordinate transformation calculated by the calculating means;
The image processing apparatus according to claim 19, further comprising:
前記法線方向取得手段は、さらに、前記第2の表面形状に関する第2の法線方向を取得し、
前記算出手段は、前記法線方向取得手段が算出した前記第2の法線方向にさらに基づいて前記座標変換を算出することを特徴とする前記請求項19に記載の画像処理装置。
The normal direction acquisition means further acquires a second normal direction related to the second surface shape,
The image processing apparatus according to claim 19, wherein the calculation unit calculates the coordinate transformation based further on the second normal direction calculated by the normal direction acquisition unit.
前記算出手段は、前記第1の法線方向および前記第2の法線方向の夫々に関する信頼度を取得し、前記信頼度にさらに基づいて前記座標変換を算出することを特徴とする前記請求項21に記載の画像処理装置。   The said calculation means acquires the reliability regarding each of the said 1st normal line direction and the said 2nd normal line direction, and calculates the said coordinate transformation further based on the said reliability. The image processing apparatus according to 21. 第1の変形状態における被検体の第1の表面形状を取得する第1の形状取得工程と、
第2の変形状態における前記被検体の第2の表面形状を取得する第2の形状取得工程と、
前記第1の表面形状に関する表面上の第1の法線方向を取得する法線方向取得工程と、
前記第1と第2の表面形状との間の複数の位置の対応関係を取得する対応関係取得工程と、
前記複数の位置の対応関係の前記法線方向に基づいて算出される距離を指標として、前記被検体に関する前記第1の変形状態と前記第2の変形状態との間の座標変換を算出する算出工程と
を備える画像処理方法。
A first shape acquisition step of acquiring a first surface shape of a subject in a first deformation state;
A second shape acquisition step of acquiring a second surface shape of the subject in a second deformation state;
A normal direction acquisition step of acquiring a first normal direction on the surface with respect to the first surface shape;
A correspondence acquisition step of acquiring a correspondence of a plurality of positions between the first and second surface shapes;
Calculation for calculating coordinate transformation between the first deformation state and the second deformation state related to the subject, using a distance calculated based on the normal direction of the correspondence relationship of the plurality of positions as an index. An image processing method comprising the steps.
被検体を異なる条件で撮像することにより得られた第1の画像と第2の画像を取得するデータ取得工程と、
前記第1の画像内の関心領域を取得する関心領域取得工程と、
前記第1の画像と前記第2の画像の間の第1の変形変位場を取得する第1の変形取得工程と、
前記関心領域における前記第1の変形変位場を、前記第1の変形変位場より自由度が少ない近似変換モデルを用いて近似して近似変位場を生成する変形近似工程と、
前記関心領域に関して、前記第1の画像と、前記第1の画像が前記近似変位場に基づいて変位される画像との間の対応情報を生成する対応情報生成工程と、
前記対応情報を用いて、前記第1の画像と前記第2の画像の間の第2の変形変位場を取得する第2の変形取得工程と、
を備えることを特徴とする画像処理方法。
A data acquisition step of acquiring a first image and a second image obtained by imaging the subject under different conditions;
A region of interest acquisition step of acquiring a region of interest in the first image;
A first deformation acquisition step of acquiring a first deformation displacement field between the first image and the second image;
A deformation approximation step of generating an approximate displacement field by approximating the first deformation displacement field in the region of interest using an approximate transformation model having a lower degree of freedom than the first deformation displacement field;
A correspondence information generating step for generating correspondence information between the first image and an image in which the first image is displaced based on the approximate displacement field with respect to the region of interest;
A second deformation acquisition step of acquiring a second deformation displacement field between the first image and the second image using the correspondence information;
An image processing method comprising:
コンピュータを、請求項1から22のいずれか1項に記載の画像処理装置として機能させるためのプログラム。   A program for causing a computer to function as the image processing apparatus according to any one of claims 1 to 22.
JP2016207259A 2016-01-15 2016-10-21 Image processing equipment, image processing methods, and programs Active JP6905323B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP16002762.9A EP3206189B1 (en) 2016-01-15 2016-12-29 Image processing apparatus, image processing method, and program
EP18191466.4A EP3444781B1 (en) 2016-01-15 2016-12-29 Image processing apparatus and image processing method
US15/400,074 US10417777B2 (en) 2016-01-15 2017-01-06 Image processing apparatus, image processing method, and non-transitory computer-readable storage medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016006556 2016-01-15
JP2016006556 2016-01-15

Publications (3)

Publication Number Publication Date
JP2017127623A true JP2017127623A (en) 2017-07-27
JP2017127623A5 JP2017127623A5 (en) 2019-11-07
JP6905323B2 JP6905323B2 (en) 2021-07-21

Family

ID=59394203

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016207259A Active JP6905323B2 (en) 2016-01-15 2016-10-21 Image processing equipment, image processing methods, and programs

Country Status (1)

Country Link
JP (1) JP6905323B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020018705A (en) * 2018-08-02 2020-02-06 キヤノンメディカルシステムズ株式会社 Medical image processing device, image formation method and image formation program
JP2022516472A (en) * 2018-12-28 2022-02-28 アクティブ サージカル, インコーポレイテッド Occurrence of synthetic 3D imaging from a partial depth map
CN114111610A (en) * 2020-08-26 2022-03-01 Ykk株式会社 Method and computer system for dynamically measuring deformation of conveyed fabric
CN114187338A (en) * 2021-12-08 2022-03-15 卡本(深圳)医疗器械有限公司 Organ deformation registration method based on estimated 2d displacement field
JP2022527604A (en) * 2019-04-12 2022-06-02 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン A method for calculating the deformation of an object in a time-resolved form and a computer program for the calculation.

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050057569A1 (en) * 2003-08-26 2005-03-17 Berger Michael A. Static and dynamic 3-D human face reconstruction
JP2007516744A (en) * 2003-12-11 2007-06-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Elastic image alignment
JP2009160045A (en) * 2007-12-28 2009-07-23 Toshiba Corp Medical image display device and image display method
JP2011092263A (en) * 2009-10-27 2011-05-12 Canon Inc Information processor, information processing method, and program
JP2013501290A (en) * 2009-08-07 2013-01-10 ユーシーエル ビジネス ピーエルシー Apparatus and method for aligning two medical images
JP2013141603A (en) * 2012-01-12 2013-07-22 Toshiba Corp Medical image processing apparatus, medical image processing method and medical image processing program
JP2014008414A (en) * 2012-07-02 2014-01-20 Toshiba Corp Motion correction apparatus and method
JP2014108349A (en) * 2012-12-04 2014-06-12 Toshiba Corp Image alignment device, image segmentation device, medical image apparatus, image alignment method, and image segmentation method
WO2014196069A1 (en) * 2013-06-06 2014-12-11 株式会社日立製作所 Image processing device and image processing method
JP2015073901A (en) * 2013-10-08 2015-04-20 株式会社東芝 Medical image processing apparatus and medical image processing method
JP2015073855A (en) * 2013-10-11 2015-04-20 キヤノン株式会社 Image processor, and method thereof
JP2015083068A (en) * 2013-10-25 2015-04-30 株式会社日立製作所 Radiotherapy treatment apparatus, system and method
JP2015531923A (en) * 2012-08-06 2015-11-05 ヴァンダービルト ユニヴァーシティ An improved method of correcting data for deformation during image guidance procedures

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050057569A1 (en) * 2003-08-26 2005-03-17 Berger Michael A. Static and dynamic 3-D human face reconstruction
JP2007516744A (en) * 2003-12-11 2007-06-28 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Elastic image alignment
JP2009160045A (en) * 2007-12-28 2009-07-23 Toshiba Corp Medical image display device and image display method
JP2013501290A (en) * 2009-08-07 2013-01-10 ユーシーエル ビジネス ピーエルシー Apparatus and method for aligning two medical images
JP2011092263A (en) * 2009-10-27 2011-05-12 Canon Inc Information processor, information processing method, and program
JP2013141603A (en) * 2012-01-12 2013-07-22 Toshiba Corp Medical image processing apparatus, medical image processing method and medical image processing program
JP2014008414A (en) * 2012-07-02 2014-01-20 Toshiba Corp Motion correction apparatus and method
JP2015531923A (en) * 2012-08-06 2015-11-05 ヴァンダービルト ユニヴァーシティ An improved method of correcting data for deformation during image guidance procedures
JP2014108349A (en) * 2012-12-04 2014-06-12 Toshiba Corp Image alignment device, image segmentation device, medical image apparatus, image alignment method, and image segmentation method
WO2014196069A1 (en) * 2013-06-06 2014-12-11 株式会社日立製作所 Image processing device and image processing method
JP2015073901A (en) * 2013-10-08 2015-04-20 株式会社東芝 Medical image processing apparatus and medical image processing method
JP2015073855A (en) * 2013-10-11 2015-04-20 キヤノン株式会社 Image processor, and method thereof
JP2015083068A (en) * 2013-10-25 2015-04-30 株式会社日立製作所 Radiotherapy treatment apparatus, system and method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020018705A (en) * 2018-08-02 2020-02-06 キヤノンメディカルシステムズ株式会社 Medical image processing device, image formation method and image formation program
JP7179521B2 (en) 2018-08-02 2022-11-29 キヤノンメディカルシステムズ株式会社 MEDICAL IMAGE PROCESSING APPARATUS, IMAGE GENERATION METHOD, AND IMAGE GENERATION PROGRAM
JP2022516472A (en) * 2018-12-28 2022-02-28 アクティブ サージカル, インコーポレイテッド Occurrence of synthetic 3D imaging from a partial depth map
JP2022527604A (en) * 2019-04-12 2022-06-02 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン A method for calculating the deformation of an object in a time-resolved form and a computer program for the calculation.
JP7187714B2 (en) 2019-04-12 2022-12-12 フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン A method for calculating the deformation of an object in a time-resolved form and a computer program for the calculation
CN114111610A (en) * 2020-08-26 2022-03-01 Ykk株式会社 Method and computer system for dynamically measuring deformation of conveyed fabric
CN114187338A (en) * 2021-12-08 2022-03-15 卡本(深圳)医疗器械有限公司 Organ deformation registration method based on estimated 2d displacement field

Also Published As

Publication number Publication date
JP6905323B2 (en) 2021-07-21

Similar Documents

Publication Publication Date Title
US10699410B2 (en) Automatic change detection in medical images
US10417777B2 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
Chartrand et al. Liver segmentation on CT and MR using Laplacian mesh optimization
EP3625768B1 (en) Determining a clinical target volume
JP6905323B2 (en) Image processing equipment, image processing methods, and programs
US9741131B2 (en) Anatomy aware articulated registration for image segmentation
Wang et al. A review of deformation models in medical image registration
JP7214434B2 (en) MEDICAL IMAGE PROCESSING APPARATUS AND MEDICAL IMAGE PROCESSING PROGRAM
JP2015130972A (en) Processing equipment, processing method, and program
EP3424017A1 (en) Automatic detection of an artifact in patient image data
US20230260129A1 (en) Constrained object correction for a segmented image
JP6934734B2 (en) Image processing device, control method and program of image processing device
JP2015130973A (en) processing equipment, processing method, and program
CA3088626C (en) Method, system and computer program for determining position and/or orientation parameters of an anatomical structure
Krüger et al. Simulation of mammographic breast compression in 3D MR images using ICP-based B-spline deformation for multimodality breast cancer diagnosis
US20210251694A1 (en) Determining a consensus plane for imaging a medical device
Kang et al. Simulating liver deformation during respiration using sparse local features
US10832423B1 (en) Optimizing an atlas
Duan et al. Surface function actives
US20230298186A1 (en) Combining angiographic information with fluoroscopic images
JP2017080157A (en) Image processing device
Maris et al. Deformable surface registration for breast tumors tracking: a phantom study
Kouamé Mapping Endometrial Implants by Registering Transvaginal Ultrasound to Pelvic Magnetic Resonance Images
Royer Real-time tracking of deformable targets in 3D ultrasound sequences
Almeida et al. 3D shape prior active contours for an automatic segmentation of a patient specific femur from a CT scan

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190920

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201014

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201202

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210316

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210528

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210625

R151 Written notification of patent or utility model registration

Ref document number: 6905323

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151