JP5832938B2 - Image processing apparatus, method, and program - Google Patents

Image processing apparatus, method, and program Download PDF

Info

Publication number
JP5832938B2
JP5832938B2 JP2012059224A JP2012059224A JP5832938B2 JP 5832938 B2 JP5832938 B2 JP 5832938B2 JP 2012059224 A JP2012059224 A JP 2012059224A JP 2012059224 A JP2012059224 A JP 2012059224A JP 5832938 B2 JP5832938 B2 JP 5832938B2
Authority
JP
Japan
Prior art keywords
image
pixel
images
movement amount
movement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012059224A
Other languages
Japanese (ja)
Other versions
JP2013192569A (en
Inventor
潤 桝本
潤 桝本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2012059224A priority Critical patent/JP5832938B2/en
Publication of JP2013192569A publication Critical patent/JP2013192569A/en
Application granted granted Critical
Publication of JP5832938B2 publication Critical patent/JP5832938B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める画像処理装置、方法及びプログラムに関する。   The present invention relates to an image processing apparatus, method, and program for obtaining a corresponding positional relationship between two three-dimensional images of the same subject to be compared.

画像診断では、直近の検査で取得された被検体の画像を、過去の検査で取得された同じ被検体の画像と対比することにより、病状の変化を確認することができる。このとき、両画像の対比を容易にするため、画像間の位置合わせが行われている。具体的には、特許文献1および非特許文献1に示されているように、一方の画像にその空間を所定間隔で区切る制御点を設定し、この制御点の位置を変位させて変形した一方の画像と他方の画像との類似度を、所定の評価尺度を用いて評価したときに、その評価値が最大となる制御点の変位量を決定し、このときの制御点の変位量を用いて画像間の位置合わせを行う。   In image diagnosis, a change in a medical condition can be confirmed by comparing an image of a subject acquired in the latest examination with an image of the same subject obtained in a previous examination. At this time, alignment between the images is performed in order to facilitate comparison between the two images. Specifically, as shown in Patent Document 1 and Non-Patent Document 1, a control point that divides the space at a predetermined interval is set in one image, and the position of this control point is displaced and deformed. When the degree of similarity between the first image and the other image is evaluated using a predetermined evaluation scale, the displacement amount of the control point that maximizes the evaluation value is determined, and the displacement amount of the control point at this time is used. To align the images.

特表2006−506153号公報JP-T-2006-506153

J. Masumoto et al.、“A similarity measure for nonrigid volume registration using known joint distribution of targeted tissue: Application to dynamic CT data of the liver” Medical Image Analysis 7 (2003), pp. 553-564J. Masumoto et al., “A similarity measure for nonrigid volume registration using known joint distribution of targeted tissue: Application to dynamic CT data of the liver” Medical Image Analysis 7 (2003), pp. 553-564

ところで、従来は、診断において注目されている特定の部位を含む必要最小限の範囲だけを撮影していたため、得られた画像に対する位置合わせ処理においても、その特定の部位に特化した1つの評価尺度を用いるだけで充分であった。しかし、近年、被曝低減技術の進歩により、一回の撮影で多数の部位を含むより広範囲を撮影できるようになり、1回の検査で複数の部位について複合的な診断を行うことができるようになった。これに伴い、得られた画像に対する位置合わせ処理においても、多数の部位のそれぞれが充分な精度をもって位置合わせできる技術が要望されるようになってきた。   By the way, conventionally, since only a necessary minimum range including a specific part that is attracting attention in diagnosis is photographed, one evaluation specialized for the specific part is also performed in the alignment processing for the obtained image. It was sufficient to use a scale. However, in recent years, with the advancement of exposure reduction technology, it has become possible to image a wider range including a large number of sites in a single imaging, and to perform multiple diagnoses for multiple sites in a single examination. became. Accordingly, there has been a demand for a technique capable of aligning each of a large number of parts with sufficient accuracy in the alignment process for the obtained image.

なお、上記特許文献1および非特許文献1にはいずれにも与えられた画像全体に対して注目されている特定の部位に特化した1つの評価尺度を適用して位置合わせを行う方法が提案されているにすぎず、これらの方法では上記の要望に答えることができない。   Note that Patent Document 1 and Non-Patent Document 1 both propose a method of performing alignment by applying one evaluation scale specialized for a specific part of interest for the entire image given to both. However, these methods cannot answer the above demand.

本発明は、上記事情に鑑み、比較対象となる同一被写体についての2つの3次元画像間においてより正確な対応位置関係を求めることができる画像処理装置、方法およびプログラムを提供することを目的とするものである。   In view of the circumstances described above, an object of the present invention is to provide an image processing apparatus, method, and program capable of obtaining a more accurate corresponding positional relationship between two three-dimensional images of the same subject to be compared. Is.

本発明の画像処理装置は、比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める画像処理装置であって、被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶する記憶部と、2つの3次元画像を構成する断層画像のそれぞれが被写体のいずれの部位を表す断層画像であるかの情報を取得する部位情報取得部と、取得された情報を用いて、2つの3次元画像において、同一の部位を表す断層画像の集合からなる部分画像の組を複数特定する部分画像特定部と、特定された各組の部分画像毎に、それらの部分画像に表されている部位に対応付けて記憶されている変形手法を用いて一方の3次元画像の部分画像内の各画素を所定の移動量で移動させることにより該部分画像を変形し、変形後の部分画像と他方の3次元画像の部分画像との類似度を、それらの部分画像に表されている部位に対応付けて記憶されている評価尺度を用いて評価する処理を、前記変形における前記各画素に与えられる移動量を変化させながら繰り返し行い、該移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量を求める移動量算出部と、該求められた移動量を用いて2つの3次元画像間の対応位置関係を求める位置関係算出部とを備えたことを特徴とするものである(第1の画像処理装置)。   An image processing apparatus according to the present invention is an image processing apparatus for obtaining a corresponding positional relationship between two three-dimensional images of the same subject to be compared, and for each of a plurality of parts constituting the subject. A storage unit that associates and stores a deformation method used when deforming and an evaluation scale used when evaluating the degree of similarity between two images, and each of the tomographic images forming the two three-dimensional images is a subject. A part information acquisition unit that acquires information about whether a tomographic image represents a part of the image, and a set of partial images that are a set of tomographic images representing the same part in two three-dimensional images using the acquired information A partial image specifying unit that specifies a plurality of images, and for each set of specified partial images, a deformation method that is stored in association with a part represented in each partial image is used to store one of the three-dimensional images. Partial image The partial image is deformed by moving each of the pixels by a predetermined movement amount, and the degree of similarity between the deformed partial image and the partial image of the other three-dimensional image is represented in the partial image. An evaluation value obtained by repeatedly performing the process of evaluating using the evaluation scale stored in association with the image while changing the movement amount given to each pixel in the deformation, and evaluating the similarity with respect to the change in the movement amount A movement amount calculation unit for obtaining a movement amount given to each pixel in the deformation when the change amount of the image becomes a predetermined value or less, and a corresponding positional relationship between two three-dimensional images using the obtained movement amount. A positional relationship calculation unit to be obtained (first image processing apparatus).

ここで、「部分画像を変形する」というのは、部分画像中の少なくとも一部の画素の位置を変化させることを意味し、部分画像の外形に変化を伴う変形に限らず、平行移動のみまたは回転のみによる変形も含まれる。   Here, “deforming a partial image” means changing the position of at least some of the pixels in the partial image, and is not limited to the deformation accompanied by a change in the external shape of the partial image, only the translation or Deformation by rotation alone is also included.

また、「部位」の具体例としては、被写体が人体の場合、肺・腎臓・心臓・大腸等の臓器、血管・気管・気管支、皮膚、肋骨・椎体・頭蓋骨等の骨等の様々な解剖学的構造物や、頭部、頸部、胸部、腹部、骨盤部、脚部の他、前記各部のうち隣接する2つの部位の両方を含む複合部位、例えば頭頸部や胸腹部等が挙げられる。   As specific examples of “parts”, when the subject is a human body, various anatomies such as organs such as lungs / kidneys / hearts / colon, blood vessels / trachea / bronchi, skin, bones such as ribs / vertebral bodies / skulls, etc. In addition to biological structures, the head, neck, chest, abdomen, pelvis, legs, and other complex parts including two adjacent parts of each part, such as the head and neck and the chest abdomen .

なお、上記第1の画像処理装置において、移動量算出部は、前記一方の3次元画像において、複数の部位を表す断層画像の集合からなる部分画像の各画素については、部分画像に表されている各部位毎に、その部位に対応付けられている変形手法および評価尺度を用いて移動量を求めるものであり、位置関係算出部は、その各部位毎に求められた移動量を平均した値を前記求められた移動量として用いて2つの3次元画像間の対応位置関係を求めるものであってもよい。   In the first image processing apparatus, the movement amount calculation unit represents each pixel of a partial image including a set of tomographic images representing a plurality of parts in the one three-dimensional image. For each of the parts, the movement amount is obtained using the deformation method and the evaluation scale associated with the part, and the positional relationship calculation unit is a value obtained by averaging the movement amounts obtained for the respective parts. May be used as the obtained movement amount to obtain a corresponding positional relationship between two three-dimensional images.

また、位置関係算出部は、前記一方の3次元画像において、異なる変形手法および/または異なる評価尺度を用いて移動量を求めた部分画像同士が隣接する部分における各画素については、移動量算出部により求められた該画素の移動量を当該画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて平均化し、平均化された値を前記求められた移動量として用いて2つの3次元画像間の対応位置関係を求めるものであってもよい。   In addition, the positional relationship calculation unit is configured to calculate a movement amount calculation unit for each pixel in a portion where the partial images obtained by using different deformation methods and / or different evaluation scales in the one three-dimensional image are adjacent to each other. The movement amount of the pixel obtained by the above is averaged using the movement amount in each of two or more pixels located in the vicinity of the pixel, and the averaged value is used as the obtained movement amount. The corresponding positional relationship between the three-dimensional images may be obtained.

また、位置関係算出部は、移動量算出部により求められた移動量を用いて前記一方の3次元画像中の前記特定された部分画像以外の部分における各画素の移動量の推定値を求め、求められた推定値および前記求められた移動量を用いて2つの3次元画像間の対応位置関係を求めるものであってもよい。   In addition, the positional relationship calculation unit obtains an estimated value of the movement amount of each pixel in a portion other than the specified partial image in the one three-dimensional image using the movement amount obtained by the movement amount calculation unit, A corresponding positional relationship between two three-dimensional images may be obtained using the obtained estimated value and the obtained movement amount.

記憶部は、被写体を構成する複数の部位のそれぞれに対して、非剛体レジストレーション、剛体レジストレーションおよびサーフェスレジストレーションのいずれかを変形手法として記憶し、相関係数、相互情報量および画素値の差分のいずれかを評価尺度として記憶するものであってもよい。なお、記憶部は、ここで例示している変形部や評価尺度に限らず、各部位に適した他の変形部または評価尺度をその部位に対応付けて記憶するものであってもよい。たとえばMark Holdenらによる, “Voxel Similarity Measures for 3-D Serial MR Brain Image Registration”, IEEE Transactions on Medical Imaging, vol. 19, no. 2, February 2000, pp.94-102に紹介されているいずれかの評価尺度を対応付けて記憶するものであってもよい。   The storage unit stores any of non-rigid registration, rigid registration, and surface registration as a deformation method for each of a plurality of parts constituting the subject, and stores correlation coefficients, mutual information amounts, and pixel values. Any one of the differences may be stored as an evaluation scale. Note that the storage unit is not limited to the deforming unit and the evaluation scale exemplified here, and may store another deforming unit or evaluation scale suitable for each part in association with the part. For example, Mark Holden et al., “Voxel Similarity Measures for 3-D Serial MR Brain Image Registration”, IEEE Transactions on Medical Imaging, vol. 19, no. 2, February 2000, pp. 94-102 May be stored in association with each other.

移動量算出部は、前記一方の3次元画像において、複数の部位を表す断層画像の集合からなる部分画像の各画素については、その部分画像に表されている複数の部位の中から選択されたいずれか1つの部位に対応付けて記憶されている変形手法および評価尺度を用いて移動量を求めるものであってもよい。   In the one three-dimensional image, the movement amount calculation unit selects each pixel of the partial image including a set of tomographic images representing a plurality of parts from the plurality of parts represented in the partial image. The amount of movement may be obtained using a deformation method and an evaluation scale stored in association with any one part.

また、本発明の画像処理装置は、比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める画像処理装置であって、被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶する記憶部と、2つの3次元画像において、同一の部位が表されている部位画像の組を複数特定する部位画像特定部と、特定された各組の部位画像毎に、それらの部位画像に表されている部位に対応付けて記憶されている変形手法を用いて一方の3次元画像の部位画像内の各画素を所定の移動量で移動させることにより該部位画像を変形し、変形後の部位画像と他方の3次元画像の部位画像との類似度を、それらの部位画像に表されている部位に対応付けて記憶されている評価尺度を用いて評価する処理を、前記変形における前記各画素に与えられる移動量を変化させながら繰り返し行い、該移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる評価値が所定値以上となる前記変形における部位画像の各画素の移動量を求める移動量算出部と、求められた移動量を用いて前記一方の3次元画像中の前記特定された部位画像以外の部分における各画素の移動量の推定値を求め、求められた推定値および前記求められた移動量を用いて2つの3次元画像間の対応位置関係を求める位置関係算出部とを備えたことを特徴とするものである(第2の画像処理装置)。   The image processing apparatus of the present invention is an image processing apparatus for obtaining a corresponding positional relationship between two three-dimensional images of the same subject to be compared, and for each of a plurality of parts constituting the subject. A storage unit that associates and stores a deformation technique used when deforming an image and an evaluation scale used when evaluating the similarity between two images, and the same part is represented in two three-dimensional images. A part image specifying unit that specifies a plurality of sets of part images, and a deformation method that is stored in association with the part represented in each part image for each part image specified The part image is deformed by moving each pixel in the part image of the three-dimensional image by a predetermined movement amount, and the degree of similarity between the part image after deformation and the part image of the other three-dimensional image It is shown in the part image Evaluation by using the evaluation scale stored in association with the position repeatedly while changing the amount of movement given to each pixel in the deformation, and evaluating the similarity to the change in the amount of movement A movement amount calculation unit that obtains a movement amount of each pixel of the part image in the deformation in which an evaluation value given to each pixel in the deformation when the change amount of the value is equal to or less than a predetermined value is equal to or greater than a predetermined value; Using the obtained amount of movement, an estimated value of the amount of movement of each pixel in a portion other than the specified part image in the one three-dimensional image is obtained, and using the obtained estimated value and the obtained amount of movement And a positional relationship calculation unit that obtains a corresponding positional relationship between two three-dimensional images (second image processing apparatus).

ここで、位置関係算出部は、前記一方の3次元画像において、異なる変形手法および/または異なる評価尺度を用いて移動量を求めた部位画像同士が隣接する部分における各画素については、移動量算出部により求められた該画素の移動量を当該画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて平均化し、平均化された値を前記求められた移動量として用いて2つの3次元画像間の対応位置関係を求めるものであってもよい。   Here, the positional relationship calculation unit calculates a movement amount for each pixel in a portion where the movement amounts are obtained by using different deformation methods and / or different evaluation scales in the one three-dimensional image. The movement amount of the pixel obtained by the unit is averaged using the movement amounts in each of two or more pixels located in the vicinity of the pixel, and the averaged value is used as the obtained movement amount. A corresponding positional relationship between two three-dimensional images may be obtained.

位置関係算出部は、前記一方の3次元画像中の前記特定された部位画像以外の部分における各画素の移動量の推定値をその画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて補間により求めるものであってもよい。   The positional relationship calculation unit calculates an estimated value of the amount of movement of each pixel in a portion other than the specified part image in the one three-dimensional image, and the amount of movement in each of two or more pixels located in the vicinity of the pixel. May be obtained by interpolation using.

本発明の第1および第2の画像処理方法は、それぞれ上記第1および第2の画像処理装置の各部が行う処理を、少なくとも1台のコンピュータにより実行する方法である。   The first and second image processing methods of the present invention are methods in which processes performed by the respective units of the first and second image processing apparatuses are executed by at least one computer.

本発明の第1および第2の画像処理プログラムは、それぞれ上記第1および第2の画像表示装置の各部が行う処理を、少なくとも1台のコンピュータに実行させるプログラムである。このプログラムは、CD−ROM,DVDなどの記録メディアに記録され、またはサーバコンピュータに付属するストレージやネットワークストレージにダウンロード可能な状態で記録されて、ユーザに提供される。   The first and second image processing programs of the present invention are programs that cause at least one computer to execute the processes performed by the respective units of the first and second image display devices. This program is recorded on a recording medium such as a CD-ROM or DVD, or recorded in a state where it can be downloaded to a storage attached to a server computer or a network storage, and provided to the user.

本発明の第1の画像処理装置、方法およびなプログラムによれば、比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める際に、被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶し、2つの3次元画像を構成する断層画像のそれぞれが被写体のいずれの部位を表す断層画像であるかの情報を取得し、取得された情報を用いて、2つの3次元画像において、同一の部位を表す断層画像の集合からなる部分画像の組を複数特定し、特定された各組の部分画像毎に、それらの部分画像に表されている部位に対応付けて記憶されている変形手法を用いて一方の3次元画像の部分画像内の各画素を所定の移動量で移動させることにより該部分画像を変形し、変形後の部分画像と他方の3次元画像の部分画像との類似度を、それらの部分画像に表されている部位に対応付けて記憶されている評価尺度を用いて評価する処理を、前記変形における前記各画素に与えられる移動量を変化させながら繰り返し行い、該移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量を求め、求められた移動量を用いて2つの3次元画像間の対応位置関係を求めているので、複数の部位のそれぞれに対して適した変形手法および評価尺度を用いてその部位を表す画像部分同士の対応位置関係を求めることができ、2つの3次元画像の間において全体的により正確な対応位置関係を求めることができる。   According to the first image processing apparatus, method, and program of the present invention, when a corresponding positional relationship is obtained between two three-dimensional images of the same subject to be compared, each of a plurality of parts constituting the subject is obtained. On the other hand, the deformation method used when deforming the image and the evaluation scale used when evaluating the similarity between the two images are stored in association with each other, and each of the tomographic images constituting the two three-dimensional images is stored. Information on which part of the subject is a tomographic image is acquired, and using the acquired information, a plurality of sets of partial images composed of a set of tomographic images representing the same part in two three-dimensional images are obtained. For each identified partial image of each set, each pixel in the partial image of one three-dimensional image is determined using a deformation method stored in association with the portion represented in those partial images. With a certain amount of movement The partial image is deformed by moving, and the degree of similarity between the deformed partial image and the partial image of the other three-dimensional image is stored in association with the part represented in the partial image. The process of evaluating using a scale is repeatedly performed while changing the amount of movement given to each pixel in the deformation, and the amount of change in the evaluation value that evaluates the similarity to the change in the amount of movement is less than or equal to a predetermined value. Since the movement amount given to each pixel in the deformation in the case is obtained and the corresponding positional relationship between two three-dimensional images is obtained using the obtained movement amount, it is suitable for each of a plurality of parts. By using a deformation method and an evaluation scale, it is possible to obtain a corresponding positional relationship between image parts representing the part, and to obtain a more accurate corresponding positional relationship between two three-dimensional images as a whole. Kill.

なお、前記一方の3次元画像において、複数の部位を表す断層画像の集合からなる部分画像の各画素について、部分画像に表されている各部位毎に、その部位に対応付けられている変形手法および評価尺度を用いて移動量を求め、その各部位毎に求められた移動量を平均した値を前記求められた移動量として用いて2つの3次元画像間の対応位置関係を求めるものである場合には、その部分画像に表されている複数の部位の全てに平均的に適した対応位置関係を求めることができる。   In addition, in the one three-dimensional image, for each pixel of the partial image formed of a set of tomographic images representing a plurality of parts, a deformation method associated with the part for each part represented in the partial image Then, the movement amount is obtained using an evaluation scale, and the corresponding positional relationship between two three-dimensional images is obtained using a value obtained by averaging the movement amounts obtained for each part as the obtained movement amount. In this case, it is possible to obtain a corresponding positional relationship that is averagely suitable for all of the plurality of parts represented in the partial image.

また、前記一方の3次元画像において、異なる変形手法および/または異なる評価尺度を用いて移動量を求めた部分画像同士が隣接する部分における各画素について、移動量算出部により求められた該画素の移動量を当該画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて平均化し、平均化された値を前記求められた移動量として用いて2つの3次元画像間の対応位置関係を求めるようにした場合には、異なる変形手法および/または異なる評価尺度を用いて移動量を求めた部分画像同士の対応位置関係を滑らかに連結することができる。   Further, in the one three-dimensional image, for each pixel in a portion where the partial images obtained by using different deformation methods and / or different evaluation scales are adjacent to each other, the pixel of the pixel obtained by the movement amount calculation unit is obtained. The movement amount is averaged using the movement amount in each of two or more pixels located in the vicinity of the pixel, and the averaged value is used as the obtained movement amount to correspond between the two three-dimensional images. When the relationship is obtained, the corresponding positional relationship between the partial images for which the movement amount is obtained using different deformation methods and / or different evaluation scales can be smoothly connected.

また、前記一方の3次元画像において、複数の部位を表す断層画像の集合からなる部分画像の各画素について、その部分画像に表されている複数の部位の中から選択されたいずれか1つの部位に対応付けて記憶されている変形手法および評価尺度を用いて移動量を求めるものである場合いは、選択された1つの部位について正確な対応位置関係を求めることができる。   Further, in the one three-dimensional image, for each pixel of the partial image including a set of tomographic images representing a plurality of parts, any one part selected from the plurality of parts represented in the partial image When the movement amount is obtained by using the deformation method and the evaluation scale stored in association with each other, it is possible to obtain an accurate corresponding positional relationship with respect to one selected part.

本発明の第2の画像処理装置、方法およびなプログラムによれば、比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める際に、被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶し、2つの3次元画像において、同一の部位が表されている部位画像の組を複数特定し、特定された各組の部位画像毎に、それらの部位画像に表されている部位に対応付けて記憶されている変形手法を用いて一方の3次元画像の部位画像内の各画素を所定の移動量で移動させることにより該部位画像を変形し、変形後の部位画像と他方の3次元画像の部位画像との類似度を、それらの部位画像に表されている部位に対応付けて記憶されている評価尺度を用いて評価する処理を、前記変形における前記各画素に与えられる移動量を変化させながら繰り返し行い、該移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量を求め、求められた移動量を用いて前記一方の3次元画像中の前記特定された部位画像以外の部分における各画素の移動量の推定値を求め、求められた推定値および前記求められた移動量を用いて2つの3次元画像間の対応位置関係を求めているので、複数の部位のそれぞれに対して適した変形手法および評価尺度を用いてその部位を表す画像部分同士の対応位置関係を求めることができ、2つの3次元画像の間において全体的により正確な対応位置関係を求めることができる。   According to the second image processing apparatus, method, and program of the present invention, when the corresponding positional relationship is obtained between two three-dimensional images of the same subject to be compared, each of a plurality of parts constituting the subject is obtained. On the other hand, the deformation method used when deforming the image and the evaluation scale used when evaluating the similarity between the two images are stored in association with each other, and the same part is represented in the two three-dimensional images. One of the three-dimensional images is identified by using a deformation method stored in association with the part represented in each part image for each part image of the part part identified. The part image is deformed by moving each pixel in the part image by a predetermined movement amount, and the degree of similarity between the part image after deformation and the part image of the other three-dimensional image is displayed in the part image. Corresponding to the part that is A process of evaluating using a stored evaluation scale is repeated while changing the amount of movement given to each pixel in the deformation, and the amount of change in the evaluation value that evaluates the similarity to the change in the amount of movement is The amount of movement given to each pixel in the deformation when it is less than or equal to a predetermined value is obtained, and the obtained amount of movement is used to determine the amount of each pixel in the portion other than the specified part image in the one three-dimensional image. Since the estimated value of the movement amount is obtained, and the corresponding positional relationship between the two three-dimensional images is obtained using the obtained estimated value and the obtained movement amount, the deformation suitable for each of the plurality of parts Using a technique and an evaluation scale, it is possible to obtain the corresponding positional relationship between image parts representing the part, and to obtain a more accurate corresponding positional relationship between two three-dimensional images. It can be.

なお、前記一方の3次元画像において、異なる変形手法および/または異なる評価尺度を用いて移動量を求めた部位画像同士が隣接する部分における各画素について、移動量算出部により求められた該画素の移動量を当該画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて平均化し、平均化された値を前記求められた移動量として用いて2つの3次元画像間の対応位置関係を求めるようにした場合には、異なる変形手法および/または異なる評価尺度を用いて移動量を求めた部位画像同士の対応位置関係を滑らかに連結することができる。   Note that in the one three-dimensional image, for each pixel in a portion where the part images obtained by using different deformation methods and / or different evaluation scales are adjacent to each other, the pixel of the pixel obtained by the movement amount calculation unit is obtained. The movement amount is averaged using the movement amount in each of two or more pixels located in the vicinity of the pixel, and the averaged value is used as the obtained movement amount to correspond between the two three-dimensional images. When the relationship is obtained, the corresponding positional relationship between the part images for which the movement amount is obtained using different deformation methods and / or different evaluation scales can be smoothly connected.

第1の実施形態における画像生成装置の概略ブロック図1 is a schematic block diagram of an image generation apparatus according to a first embodiment. 第1の実施形態における画像生成装置による処理を説明するための図The figure for demonstrating the process by the image generation apparatus in 1st Embodiment. 第1の実施形態における画像生成装置の動作を示すフローチャートThe flowchart which shows operation | movement of the image generation apparatus in 1st Embodiment. 第2の実施形態における画像生成装置の概略ブロック図Schematic block diagram of an image generation apparatus according to the second embodiment 第2の実施形態における画像生成装置による処理を説明するための図The figure for demonstrating the process by the image generation apparatus in 2nd Embodiment. 第2の実施形態における画像生成装置の動作を示すフローチャートThe flowchart which shows operation | movement of the image generation apparatus in 2nd Embodiment. 第1の実施形態に使用されるテーブルの例を示す図The figure which shows the example of the table used for 1st Embodiment 第2の実施形態に使用されるテーブルの例を示す図The figure which shows the example of the table used for 2nd Embodiment

以下、図面を参照して、本発明の第1の実施形態について説明する。図1は、画像処理装置1の概略構成を示すブロック図である。なお、図1のような画像処理装置1の構成は、補助記憶装置に読み込まれた画像処理プログラムをコンピュータ上で実行することにより実現される。このとき、この画像処理プログラムは、CD−ROM等の記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされる。   Hereinafter, a first embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram illustrating a schematic configuration of the image processing apparatus 1. The configuration of the image processing apparatus 1 as shown in FIG. 1 is realized by executing an image processing program read into the auxiliary storage device on the computer. At this time, the image processing program is stored in a storage medium such as a CD-ROM or distributed via a network such as the Internet and installed in a computer.

画像処理プログラムは、コンピュータのCPUに実行させる処理として、画像取得処理と、部位情報取得処理と、部分画像特定処理と、移動量算出処理と、位置関係算出処理と、画像生成処理と、表示制御処理とを規定しており、この規定にしたがって、CPUが上記各処理を実行することにより、コンピュータは、後述の画像取得部12と、部位情報取得部13と、部分画像特定部14と、移動量算出部15と、位置関係算出部16と、画像生成部17と、表示制御部18として機能する。   The image processing program includes an image acquisition process, a part information acquisition process, a partial image specifying process, a movement amount calculation process, a positional relationship calculation process, an image generation process, and a display control as processes to be executed by the CPU of the computer. In accordance with this rule, the CPU executes each of the above processes, so that the computer moves the image acquisition unit 12, the part information acquisition unit 13, the partial image specification unit 14, and the movement described later. It functions as an amount calculation unit 15, a positional relationship calculation unit 16, an image generation unit 17, and a display control unit 18.

また、画像処理装置1は、ハードディスクドライブなどの記憶装置11を備えており、この記憶装置11が、本発明の記憶部に相当する。さらに、画像処理装置1には、ディスプレイなどの表示装置3と、マウス、キーボードなどの入力装置4が接続されている。   Further, the image processing apparatus 1 includes a storage device 11 such as a hard disk drive, and this storage device 11 corresponds to a storage unit of the present invention. Further, a display device 3 such as a display and an input device 4 such as a mouse and a keyboard are connected to the image processing apparatus 1.

記憶装置11には、直近の検査でCT、MRI、PET、SPECT、超音波画像などの撮影装置により所定の被写体を撮影して得られた画像Va(以下、「第1画像Va」という)と、過去の検査で上記いずれかの撮影装置により同じ被写体を撮影して得られた画像Vb(以下、「第2画像Vb」という)とが記憶されている。第1画像Vaおよび第2画像Vbは、同じモダリティにより撮影された画像であってもよいし、異なるモダリティにより撮影された画像であってもよい。   In the storage device 11, an image Va (hereinafter referred to as “first image Va”) obtained by photographing a predetermined subject using an imaging device such as CT, MRI, PET, SPECT, or an ultrasonic image in the latest examination. In addition, an image Vb (hereinafter, referred to as “second image Vb”) obtained by photographing the same subject by any one of the above-described photographing apparatuses in a past examination is stored. The first image Va and the second image Vb may be images taken with the same modality or may be images taken with different modalities.

第1画像Vaおよび第2画像Vbはそれぞれ、所定のスライス間隔およびスライス厚による軸位断画像(断層画像)の画像データの集合体として構成されるものであり、記憶装置11には、それらの第1画像Vaおよび第2画像Vbを構成する断層画像のうち、部位が認識されていない一部の断層画像を除いた全ての断層画像のそれぞれに対して、その断層画像が被写体のいずれの部位を表す断層画像であるかを表す部位情報が対応づけて記憶されている。図2は、第1画像Vaおよび第2画像Vbおよびそれらの画像を構成する断層画像のそれぞれに対応づけて記憶されている部位情報を示すイメージ図である。図2に示すように、第1画像Vaおよび第2画像Vbを構成する断層画像には、頭部を表す「Head」、頸部を表す「Neck」、胸部を表す「Thorax」、肝臓を表す「Liver」、下腹部を表す「Abdoman」などの部位情報が対応付けられている。   Each of the first image Va and the second image Vb is configured as an aggregate of image data of axial discontinuity images (tomographic images) with a predetermined slice interval and slice thickness. Of the tomographic images constituting the first image Va and the second image Vb, for each of all tomographic images except for some tomographic images whose parts are not recognized, the tomographic image is any part of the subject. The part information indicating whether the tomographic image represents is stored in association with each other. FIG. 2 is an image diagram showing part information stored in association with each of the first image Va, the second image Vb, and the tomographic images constituting the images. As shown in FIG. 2, in the tomographic images constituting the first image Va and the second image Vb, “Head” representing the head, “Neck” representing the neck, “Thorax” representing the chest, and the liver are represented. Site information such as “Live” and “Abdoman” representing the lower abdomen are associated with each other.

部位情報は、予め各断層画像に対して部位認識処理を行うことにより取得しておく。部位認識処理としては、例えば特開平2008−259682号公報に記載された手法を用いることができる。特開平2008−259682号公報に記載された手法は、入力された複数の断層画像を正規化し、正規化された断層画像から多数の特徴量を算出し、正規化した断層画像毎に算出された特徴量を、AdaBoost手法によって得られた判別器に入力して、部位らしさを表す部位毎のスコアを算出し、算出された部位スコアを入力として、動的計画法を用いて、人体の体部の並び順が保たれるように各断層画像に表された部位を決定する手法である。また、カラーテンプレートマッチングによる方法(例えば特開2002−253539号公報参照)および、各部位の固有画像を用いた方法(例えば特開2003−10166号公報参照)等を用いることもできる。   The part information is acquired in advance by performing part recognition processing on each tomographic image. As the part recognition process, for example, a technique described in Japanese Patent Laid-Open No. 2008-259682 can be used. The method described in Japanese Patent Laid-Open No. 2008-259682 normalizes a plurality of input tomographic images, calculates a large number of feature amounts from the normalized tomographic images, and calculates each normalized tomographic image. The feature amount is input to the discriminator obtained by the AdaBoost method, the score for each part representing the part-likeness is calculated, and the body part of the human body is obtained using the calculated part score as an input and using dynamic programming. This is a method of determining the site represented in each tomographic image so that the arrangement order of the images is maintained. Also, a method using color template matching (see, for example, Japanese Patent Application Laid-Open No. 2002-253539), a method using a unique image of each part (for example, see Japanese Patent Application Laid-Open No. 2003-10166), or the like can be used.

さらに、記憶装置11には、被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とが対応づけたテーブルが記憶されている。図7は本実施形態に使用されるテーブルの例を示す図である。図7に示すように、テーブルT1には、複数の部位のそれぞれに対して変形手法と評価尺度が対応づけられている。具体的には、頭部には剛体レジストレーションと相関係数が、頸部にはサーフェスレジストレーションと相互情報量が、胸部には非剛体レジストレーションと画素値の差分の二乗が、肝臓部には非剛体レジストレーションと相互情報量が、下腹部にはサーフェスレジストレーションと相関係数が、下肢部にはサーフェスレジストレーションと表面間の最小二乗誤差がそれぞれ対応づけられている。   Further, in the storage device 11, for each of a plurality of parts constituting the subject, a deformation method used when deforming the image is associated with an evaluation scale used when evaluating the similarity between the two images. Table is stored. FIG. 7 is a diagram showing an example of a table used in this embodiment. As shown in FIG. 7, in the table T1, a deformation method and an evaluation scale are associated with each of a plurality of parts. Specifically, rigid registration and correlation coefficient in the head, surface registration and mutual information in the neck, non-rigid registration and the square of the pixel value difference in the chest, Is associated with non-rigid registration and mutual information, the lower abdomen is associated with surface registration and correlation coefficient, and the lower limb is associated with surface registration and the least square error between surfaces.

ここで、非剛体レジストレーションは、基準画像に合せて変形される対象画像が非剛体であるとの前提下で、すなわち対象画像内の任意の2点間の距離が可変であるとの前提下で、該対象画像を構成する各画素の位置を変化させる手法であり、剛体レジストレーションは、対象画像が剛体であるとの前提下で、すなわち対象画像内の任意の2点間の距離が常に一定であるとの前提下で、該対象画像を構成する各画素の位置を変化させる手法であり、サーフェスレジストレーションは、表面形状を有する対象画像上の点列と対応する基準画像上の点列との間において残差が最小になるように、該対象画像を構成する各画素の位置を変化させる手法である。   Here, the non-rigid registration is based on the premise that the target image to be deformed according to the reference image is non-rigid, that is, the distance between any two points in the target image is variable. The rigid registration is based on the premise that the target image is a rigid body, that is, the distance between any two points in the target image is always constant. This is a method for changing the position of each pixel constituting the target image under the assumption that the target image is constant. Surface registration is a point sequence on the reference image corresponding to a point sequence on the target image having a surface shape. This is a method of changing the position of each pixel constituting the target image so that the residual is minimized.

また、相関係数(NCC:peason product-moment corss correlation)は、下記式(1)により算出される値であり、相互情報量(MI:mutual information)は、下記式(2)により算出される値であり、それらの評価尺度はいずれもその値が大きいほど類似度の評価値は大きくなる。なお、以下の式(1)〜(3)において、領域Xoは基準画像Xを構成するNo個の画素位置の部分集合を表し、ここで基準画像Xは、該基準画像Xに合せて変形される対象画像X´の変形後の空間上に存在する画像である。すなわち、
である。ここで、Tは変形関数である。また、f(Xo)は基準画像X内の画素位置Xoに位置する画素の画素値を表し、g(Xo)はその画素に対応する変形後の対象画像X´内の画素の画素値を表し、F(Xo)とG(Xo)は、基準画像Xと変形後の対象画像X´のそれらの画像が重なり合う部分における画素値群を表す。
Further, the correlation coefficient (NCC: peason product-moment corss correlation) is a value calculated by the following formula (1), and the mutual information (MI) is calculated by the following formula (2). It is a value, and the evaluation value of similarity becomes large, so that those evaluation scales are large. In the following formulas (1) to (3), a region Xo represents a subset of No pixel positions constituting the reference image X. Here, the reference image X is deformed according to the reference image X. The target image X ′ is an image existing in the space after deformation. That is,
It is. Here, T is a deformation function. F (Xo) represents the pixel value of the pixel located at the pixel position Xo in the reference image X, and g (Xo) represents the pixel value of the pixel in the modified target image X ′ corresponding to that pixel. , F (Xo) and G (Xo) represent a pixel value group in a portion where the reference image X and the target image X ′ after deformation overlap.

画素値の差分(MSD:mean square difference of intensities)は、下記式(3)により算出される値であり、その値が小さいほど類似度の評価値は大きくなる。下記式(3)において、差分画像D(Xo)は、基準画像Xと変形後の対象画像X´が重なり合う部分における画素値の差を表す。すなわち、d(Xo)=f(Xo)−g(Xo)である。また、P(fa)は、F(Xo)に画素値faが現れる確率を表し、P(gb)は、G(Xo)に画素値gbが現れる確率を表し、P(fa,gb)は、F(Xo)に画素値faが現れ、かつ、G(Xo)に画素値gbが現れる確率を表す。   A pixel value difference (MSD: mean square difference of intensities) is a value calculated by the following equation (3), and the smaller the value, the larger the similarity evaluation value. In the following equation (3), the difference image D (Xo) represents a difference in pixel values in a portion where the reference image X and the target image X ′ after deformation overlap. That is, d (Xo) = f (Xo) −g (Xo). P (fa) represents the probability that the pixel value fa appears in F (Xo), P (gb) represents the probability that the pixel value gb appears in G (Xo), and P (fa, gb) This represents the probability that the pixel value fa appears in F (Xo) and the pixel value gb appears in G (Xo).

画像取得部12は、記憶装置11に記憶されている第1画像Vaおよび第2画像Vbを取得し、部位情報取得部13は、第1画像Vaおよび第2画像Vbを構成する断層画像のそれぞれに対応づけて記憶装置11に記憶されている部位情報を取得する。   The image acquisition unit 12 acquires the first image Va and the second image Vb stored in the storage device 11, and the part information acquisition unit 13 each of the tomographic images constituting the first image Va and the second image Vb. The site | part information memorize | stored in the memory | storage device 11 in response to is acquired.

部分画像特定部14は、部位情報取得部13により取得された部位情報を用いて、第1画像Vaおよび第2画像Vbにおいて同一の部位を表す断層画像の集合からなる部分画像の組を複数特定する。具体的には、図2に示すように、対応づけられている部位情報に「Head」が含まれている、第1画像Va中の全ての断層画像からなる部分画像Ra1と第2画像Vb中の全ての断層画像からなる部分画像Rb1の組と、対応づけられている部位情報に「Neck」が含まれている、第1画像Va中の全ての断層画像からなる部分画像Ra2と第2画像Vb中の全ての断層画像からなる部分画像Rb2の組と、・・・、対応づけられている部位情報に「Abdoman」が含まれている、第1画像Va中の全ての断層画像からなる部分画像Ra5と第2画像Vb中の全ての断層画像からなる部分画像Rb5の組とを特定する。   The partial image specifying unit 14 uses the part information acquired by the part information acquiring unit 13 to specify a plurality of sets of partial images including a set of tomographic images representing the same part in the first image Va and the second image Vb. To do. Specifically, as shown in FIG. 2, in the partial image Ra1 and the second image Vb, which include all tomographic images in the first image Va, in which “Head” is included in the associated part information. The partial image Ra2 and the second image consisting of all the tomographic images in the first image Va, in which “Neck” is included in the part information associated with the set of the partial images Rb1 consisting of all the tomographic images. A set of partial images Rb2 composed of all tomographic images in Vb,..., A portion composed of all tomographic images in the first image Va in which “Adoman” is included in the associated part information The image Ra5 and a set of partial images Rb5 including all tomographic images in the second image Vb are specified.

移動量算出部15は、部分画像特定部14により特定された各組の部分画像RaiとRbi(i=1〜5)毎に、図7に示すようなテーブルT1を参照して、その組の部分画像に表されている部位に対応付けて記憶されている変形手法と、評価尺度とを特定し、特定された変形手法を用いて第1画像Vaの部分画像Rai内の各画素を所定の移動量で移動させることにより該部位画像Raiを変形し、該変形後の部分画像Rai´と第2画像Vbの部分画像Rbiとの類似度を、特定された評価尺度を用いて評価する処理を、その変形における各画素Xo(Xo∈Rai)に与えられる移動量m(Xo)を変化させながら繰り返し行い、移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量m(Xo)を求める。ここで、移動量はm、移動の方向と距離を有するベクトル量であり、変形後の部分画像Rai´は、部分画像Raiの各画素Xoを移動量m(Xo)だけ変位させることにより形成される画像である。また、以下の説明において、部分画像Rai内の各画素Xoを移動量m(Xo)の集合を移動量m(Rai)という。   The movement amount calculation unit 15 refers to a table T1 as shown in FIG. 7 for each set of partial images Rai and Rbi (i = 1 to 5) specified by the partial image specification unit 14 and sets the set of the partial images. The deformation method stored in association with the part represented in the partial image and the evaluation scale are specified, and each pixel in the partial image Rai of the first image Va is set to a predetermined value using the specified deformation method. A process of deforming the part image Rai by moving it by a movement amount, and evaluating the degree of similarity between the deformed partial image Rai ′ and the partial image Rbi of the second image Vb using the specified evaluation scale. In this modification, the amount of change m (Xo) given to each pixel Xo (Xo∈Rai) is repeatedly changed, and the amount of change in the evaluation value that evaluates the degree of similarity with respect to the change in the amount of movement becomes a predetermined value or less. In case of said deformation Serial calculating the moving amount m (Xo) given to each pixel. Here, the amount of movement is m, a vector amount having the direction and distance of movement, and the transformed partial image Rai ′ is formed by displacing each pixel Xo of the partial image Rai by the amount of movement m (Xo). This is an image. In the following description, a set of movement amounts m (Xo) for each pixel Xo in the partial image Rai is referred to as a movement amount m (Rai).

移動量算出部15は、具体的には、移動量m(Rai)を前記評価値が高くなる方向に変化させながら、その移動量m(Rai)の変化に対する評価値の変化量を所定値と比較する処理を繰り返し行うことにより、評価値の変化量が所定値以下となる場合の移動量m(Rai)を特定する。ここで、所定値としては、移動量m(Rai)の変化に対する評価値の変化量が十分大きい値であると見なせる任意の値を設定してよい。   Specifically, the movement amount calculation unit 15 changes the evaluation value change amount with respect to the change in the movement amount m (Rai) to a predetermined value while changing the movement amount m (Rai) in the direction in which the evaluation value increases. By repeatedly performing the comparison process, the movement amount m (Rai) when the change amount of the evaluation value is equal to or less than the predetermined value is specified. Here, as the predetermined value, an arbitrary value that can be regarded as a sufficiently large change amount of the evaluation value with respect to the change of the movement amount m (Rai) may be set.

なお、これに代えて、たとえば移動量m(Rai)を変化させながら、その移動量m(Rai)の設定下において部分画像Rai´と部分画像Rbiとの類似度を評価した評価値を所定値と比較する処理を繰り返し行うことにより、その類似度の評価値が所定値以上となる場合の移動量m(Rai)を特定してもよい。ここで、所定値としては、類似度の評価値が十分大きい値であると見なせる任意の値を設定してよい。また、たとえば複数の異なる移動量m(Rai)の設定に対して部分画像Rai´と部分画像Rbiとの類似度を評価した評価値をそれぞれ算出して、算出した評価値のうち評価値が最大であるものを特定し、特定された最大評価値に対応する移動量m(Rai)を特定してもよい。   Instead of this, for example, an evaluation value obtained by evaluating the similarity between the partial image Rai ′ and the partial image Rbi under the setting of the movement amount m (Rai) while changing the movement amount m (Rai) is a predetermined value. The amount of movement m (Rai) in the case where the evaluation value of the similarity is equal to or greater than a predetermined value may be specified by repeatedly performing the process of comparing with. Here, as the predetermined value, an arbitrary value that can be regarded as a sufficiently large evaluation value of the similarity may be set. Further, for example, evaluation values obtained by evaluating the degree of similarity between the partial image Rai ′ and the partial image Rbi are calculated for a plurality of different movement amounts m (Rai), and the evaluation value is the largest among the calculated evaluation values. May be specified, and the movement amount m (Rai) corresponding to the specified maximum evaluation value may be specified.

また、移動量算出部15は、第1画像Vaにおいて、複数の部位を表す断層画像の集合からなる部分画像の各画素については、該部分画像に表されている各部位毎に、その部位に対応付けられている変形手法および評価尺度を用いて前記移動量を求める。つまり、図2に示すように、対応づけられている部位情報に「Thorax」と「Liver」の2つの部位が含まれている部分画像、すなわち部分画像Ra3と部分画像Ra4が重なる部分の画像については、胸部を表す部位画像としての移動量と、肝臓を表す部位画像としての移動量とをそれぞれ特定する。   In addition, the movement amount calculation unit 15 applies, for each part represented in the partial image, each part of the partial image including a set of tomographic images representing a plurality of parts in the first image Va. The amount of movement is obtained using the associated deformation technique and evaluation scale. That is, as shown in FIG. 2, a partial image in which two parts “Thorax” and “Live” are included in the associated part information, that is, an image of a part where the partial image Ra3 and the partial image Ra4 overlap. Specifies a movement amount as a part image representing the chest and a movement amount as a part image representing the liver, respectively.

位置関係算出部16は、移動量算出部15により各組の部分画像RaiとRbi(i=1〜5)毎に求められた移動量m(Rai)を用いて第1画像Vaと第2画像Vb間の全ての画素の対応位置関係を求める。具体的には、第1画像Va内の全ての画素それぞれに対して移動量を与えるベクトル場を求める。このベクトル場は、各画素が、その画素に与えられた移動量だけ離れた位置の、第2画像Vb上の画素と対応関係があることを表す。   The positional relationship calculation unit 16 uses the movement amount m (Rai) obtained for each set of partial images Rai and Rbi (i = 1 to 5) by the movement amount calculation unit 15 to perform the first image Va and the second image. The corresponding positional relationship of all pixels between Vb is obtained. Specifically, a vector field that gives a movement amount to each of all the pixels in the first image Va is obtained. This vector field indicates that each pixel has a corresponding relationship with a pixel on the second image Vb at a position separated by the amount of movement given to that pixel.

まず、部分画像Rai(i=1〜5)の各画素Xoに対して、移動量算出部15により特定された移動量m(Rai)により定められる移動量m(Xo)を与え、第1画像Va中の部分画像Rai(i=1〜5)以外の部分(たとえば、図2に示す部分Rafなど)における各画素の移動量の推定値を、その画素の近傍に位置する2つ以上の画素のそれぞれに与えられている移動量を用いて補間により求め、該求められた推定値をその画素の移動量として与える。この補間処理には、線形補間、スプライン補間等の種々の空間補間技術を用いることができる。特にスプライン補間としては、たとえばSeungyong Leeらによる、“Scattered Data Interpolation with Multilevel B-Splines”, IEEE Transactions on Visualization and Computer Graphics, vol. 3,no. 3, July‐September 1997に記載された手法を用いることができる。   First, a movement amount m (Xo) determined by the movement amount m (Rai) specified by the movement amount calculation unit 15 is given to each pixel Xo of the partial image Rai (i = 1 to 5), and the first image Two or more pixels located in the vicinity of the estimated value of the movement amount of each pixel in a portion other than the partial image Rai (i = 1 to 5) in Va (for example, the portion Raf shown in FIG. 2). Are obtained by interpolation using the amount of movement given to each of them, and the obtained estimated value is given as the amount of movement of the pixel. Various spatial interpolation techniques such as linear interpolation and spline interpolation can be used for this interpolation processing. In particular, as the spline interpolation, for example, the method described in “Scattered Data Interpolation with Multilevel B-Splines”, IEEE Transactions on Visualization and Computer Graphics, vol. 3, no. 3, July-September 1997 by Seungyong Lee et al. be able to.

このとき、第1画像Vaにおいて、複数の部位を表す断層画像の集合からなる部分画像、すなわち本実施例における部分画像Ra3と部分画像Ra4が重なる部分の画像を構成する各画素については、移動量算出部15においてその部分画像に表されている複数の部位についてそれぞれ特定された移動量を平均した値を求め、該求められた平均値をその画素の移動量として与える。   At this time, in the first image Va, a movement amount is set for each pixel constituting a partial image composed of a set of tomographic images representing a plurality of parts, that is, an image of a portion where the partial image Ra3 and the partial image Ra4 overlap in this embodiment. The calculation unit 15 obtains a value obtained by averaging the movement amounts specified for each of the plurality of parts represented in the partial image, and gives the obtained average value as the movement amount of the pixel.

位置関係算出部16は、上述のように第1画像Va内の全ての画素それぞれに対して移動量を与えた上で、さらに、異なる変形手法および/または異なる評価尺度を用いて前記移動量を求めた部分画像同士が隣接する部分における各画素について、前記与えられた画素の移動量をその画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて平均化し、該平均化された値をその画素の移動量として与え直す。   The positional relationship calculation unit 16 gives the movement amount to each of all the pixels in the first image Va as described above, and further calculates the movement amount using a different deformation method and / or a different evaluation scale. For each pixel in the portion where the obtained partial images are adjacent to each other, the movement amount of the given pixel is averaged using the movement amount in each of two or more pixels located in the vicinity of the pixel, and the averaged This value is given again as the movement amount of the pixel.

画像生成部17は、位置関係算出部16により求められた対応位置関係を用いて、第1画像Vaを変形して変形後の画像Va´を生成する。表示制御部18は、画像生成部17により生成された画像Va´および第2画像Vbを比較可能に表示装置3に表示させる。   The image generation unit 17 generates a deformed image Va ′ by deforming the first image Va using the corresponding positional relationship obtained by the positional relationship calculation unit 16. The display control unit 18 causes the display device 3 to display the image Va ′ and the second image Vb generated by the image generation unit 17 so that they can be compared.

図2は、画像生成装置1の動作を示すフローチャートである。図示のように、まず、画像取得部12が、記憶装置11に記憶されている第1画像Vaおよび第2画像Vbを取得し(S1)、部位情報取得部13が、第1画像Vaおよび第2画像Vbを構成する断層画像のそれぞれに対応づけて記憶装置11に記憶されている部位情報を取得する(S2)。次に、部分画像特定部14が、ステップS2において取得された部位情報を用いて、第1画像Vaおよび第2画像Vbにおいて同一の部位を表す断層画像の集合からなる部分画像の組を複数特定する(S3)。ここでは、特定された部分画像の組の総数をnとする。   FIG. 2 is a flowchart showing the operation of the image generation apparatus 1. As illustrated, first, the image acquisition unit 12 acquires the first image Va and the second image Vb stored in the storage device 11 (S1), and the part information acquisition unit 13 acquires the first image Va and the first image Vb. The site | part information memorize | stored in the memory | storage device 11 is acquired corresponding to each of the tomographic image which comprises 2 image Vb (S2). Next, the partial image specifying unit 14 specifies a plurality of sets of partial images including sets of tomographic images representing the same part in the first image Va and the second image Vb using the part information acquired in step S2. (S3). Here, the total number of the set of identified partial images is n.

次に、移動量算出部15が、カウントiを初期値に設定し(S4)、テーブルT1を参照して、部分画像RaiとRbiに表されている部位に対応付けて記憶されている変形手法と評価尺度を特定し、該特定された変形手法を用いて部分画像Raiに対して任意の移動量m(Rai)を設定する(S5)。続いて移動量算出部15が、ステップS5において設定された移動量m(Rai)だけ部分画像Raiを変形し(S6)、該変形後の部分画像Rai´と第2画像Vbの部分画像Rbiとの類似度の評価値を、ステップS5において特定された評価尺度を用いて評価し(S7)、その際の移動量m(Rai)の変化に対する評価値の変化量が所定値以下であるかを判断する(S8)。ステップS8が否定されると、移動量m(Rai)を変更し(S9)、ステップS6に戻る。一方、ステップS8が肯定されると、カウントiがnに達したか否かをさらに判断する(S10)。ステップS10が否定されると、iに1を加算し(S11)、ステップS5に戻る。   Next, the movement amount calculation unit 15 sets the count i to an initial value (S4), refers to the table T1, and stores the deformation method stored in association with the parts represented in the partial images Rai and Rbi. And an evaluation scale are specified, and an arbitrary movement amount m (Rai) is set for the partial image Rai using the specified deformation method (S5). Subsequently, the movement amount calculation unit 15 deforms the partial image Rai by the movement amount m (Rai) set in step S5 (S6), and the partial image Rai ′ after the deformation and the partial image Rbi of the second image Vb The evaluation value of the similarity is evaluated using the evaluation scale specified in step S5 (S7), and whether the change amount of the evaluation value with respect to the change of the movement amount m (Rai) at that time is equal to or smaller than a predetermined value is determined. Judgment is made (S8). If step S8 is negative, the movement amount m (Rai) is changed (S9), and the process returns to step S6. On the other hand, if step S8 is affirmed, it is further determined whether or not the count i has reached n (S10). If step S10 is negative, 1 is added to i (S11), and the process returns to step S5.

一方、ステップS10が肯定されると、位置関係算出部16が、移動量算出部15により各組の部分画像RaiとRbi(i=1〜n)毎に求められた移動量m(Rai)を用いて第1画像Vaと第2画像Vb間の全ての画素の対応位置関係を求める(S12)。次に、画像生成部17が、位置関係算出部16により求められた対応位置関係を用いて、第1画像Vaを変形して変形後の画像Va´を生成し(S13)、表示制御部18が、画像生成部17により生成された画像Va´および第2画像Vbを比較可能に表示装置3に表示させ(S14)、処理を終了する。   On the other hand, when step S10 is affirmed, the positional relationship calculation unit 16 calculates the movement amount m (Rai) obtained by the movement amount calculation unit 15 for each partial image Rai and Rbi (i = 1 to n). Using this, the corresponding positional relationship of all the pixels between the first image Va and the second image Vb is obtained (S12). Next, the image generation unit 17 deforms the first image Va using the corresponding positional relationship obtained by the positional relationship calculation unit 16 to generate a deformed image Va ′ (S13), and the display control unit 18 However, the image Va ′ and the second image Vb generated by the image generation unit 17 are displayed on the display device 3 so that they can be compared (S14), and the process ends.

このように、上記実施の形態によれば、比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める際に、被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶しておき、2つの3次元画像において特定された同一の部位が表されている部分画像の組毎に、それらの部分画像に表されている部位に対応付けて記憶されている変形手法と評価尺度を用いて一方の3次元画像の部分画像を他方の3次元画像の部分画像に合せて変形する際の各画素の移動量を求め、求められた移動量を用いて2つの3次元画像間の対応位置関係を求めているので、複数の部位のそれぞれに対して適した変形手法および評価尺度を用いてその部位を表す画像部分同士の対応位置関係を求めることができ、2つの3次元画像の間において全体的により正確な対応位置関係を求めることができる。   As described above, according to the above embodiment, when the corresponding positional relationship is obtained between two three-dimensional images of the same subject to be compared, an image is obtained for each of a plurality of parts constituting the subject. The deformation method used when deforming and the evaluation scale used when evaluating the similarity between two images are stored in association with each other, and the same part specified in the two three-dimensional images is represented. For each set of partial images, a partial image of one three-dimensional image is converted into a partial image of the other three-dimensional image by using a deformation method and an evaluation scale stored in association with the parts represented in the partial images. Since the movement amount of each pixel at the time of deformation is obtained and the corresponding positional relationship between the two three-dimensional images is obtained using the obtained movement amount, the deformation suitable for each of a plurality of parts is obtained. Using methods and rating scales It is possible to obtain the corresponding positional relationship between the image portion between representing the site, it is possible to determine the exact correspondence positional relationship by overall between the two three-dimensional images.

なお、上記実施の形態では、部位情報が、別途の処理において予め取得されて記憶装置11に記憶されていることを前提に、部位情報取得部13が、その情報を記憶装置11から取得するものである場合について説明したが、部位情報取得部13は、直接部位認識処理を実行して、第1画像Vaおよび第2画像Vbを構成する断層画像のそれぞれが被写体のいずれの部位を表す断層画像であるかの情報を取得するものであってもよい。   In the above embodiment, the part information acquisition unit 13 acquires the information from the storage device 11 on the assumption that the part information is acquired in advance in a separate process and stored in the storage device 11. However, the part information acquisition unit 13 directly executes the part recognition process, and each tomographic image forming the first image Va and the second image Vb represents any part of the subject. It is also possible to acquire information on whether or not.

また、上記実施の形態では、複数の部位を表す断層画像の集合からなる部分画像の各画素については、移動量算出部15が、該部分画像に表されている各部位毎に、その部位に対応付けられている変形手法および評価尺度を用いて移動量を求めるものであり、位置関係算出部16が、各求められた複数の移動量の平均値を用いて画像間の対応位置関係を求めるものである場合について説明したが、移動量算出部15は、その部分画像に表されている複数の部位の中から選択されたいずれか1つの部位に対応付けて記憶されている変形手法および評価尺度を用いて移動量を求めるものであり、位置関係算出部16は、その求められた1つの移動量を用いて画像間の対応位置関係を求めるものであってもよい。   Further, in the above embodiment, for each pixel of the partial image composed of a set of tomographic images representing a plurality of parts, the movement amount calculation unit 15 applies the part to each part represented in the partial image. The movement amount is obtained using the deformation method and the evaluation scale that are associated with each other, and the positional relationship calculation unit 16 obtains the corresponding positional relationship between the images by using the average value of the plurality of obtained movement amounts. Although the movement amount calculation unit 15 has been described with reference to a case where the movement amount is calculated, the movement amount calculation unit 15 stores the deformation method and evaluation stored in association with any one part selected from a plurality of parts represented in the partial image. The movement amount is obtained using a scale, and the positional relationship calculation unit 16 may obtain a corresponding positional relationship between images using the obtained one movement amount.

このとき、いずれか1つの部位の選択は、それらの部位に優先順位が与えられている場合、その優先度が高い方の部位が自動的に選択されるようにしてもよいし、ユーザによる直近の入力操作に基づいて最も注目されていると推測される1つの部位を決定し、該決定された部位が選択されるようにしてもよい。このようなユーザによる直近の入力操作の具体例としては、いずれか1つの部位を表す領域内の任意の点を指定する操作や、いずれか1つの部位が主として表されている画像を表示させる操作などが挙げられる。   At this time, in the selection of any one part, when priority is given to those parts, the part with the higher priority may be automatically selected, or the most recent by the user It is also possible to determine one part that is presumed to receive the most attention based on the input operation and to select the determined part. As specific examples of the most recent input operation by such a user, an operation for designating an arbitrary point in an area representing any one part, or an operation for displaying an image mainly representing any one part Etc.

また、上記実施の形態では、画像生成装置1が画像生成部17や表示制御部18を備えたものである場合について説明したが、それらの構成は必ずしも必要ではなく、必要に応じて設けるとよい。   Moreover, although the case where the image generation apparatus 1 is provided with the image generation part 17 and the display control part 18 was demonstrated in the said embodiment, those structures are not necessarily required and it is good to provide as needed. .

以下、図面を参照して、本発明の第2の実施形態について説明する。図4は、画像処理装置100の概略構成を示すブロック図である。なお、図4のような画像処理装置100の構成は、補助記憶装置に読み込まれた画像処理プログラムをコンピュータ上で実行することにより実現される。このとき、この画像処理プログラムは、CD−ROM等の記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされる。   The second embodiment of the present invention will be described below with reference to the drawings. FIG. 4 is a block diagram illustrating a schematic configuration of the image processing apparatus 100. The configuration of the image processing apparatus 100 as shown in FIG. 4 is realized by executing an image processing program read into the auxiliary storage device on the computer. At this time, the image processing program is stored in a storage medium such as a CD-ROM or distributed via a network such as the Internet and installed in a computer.

この画像処理プログラムは、コンピュータのCPUに実行させる処理として、画像取得処理と、部位画像特定処理と、移動量算出処理と、位置関係算出処理と、画像生成処理と、表示制御処理とを規定しており、この規定にしたがって、CPUが上記各処理を実行することにより、コンピュータは、後述の画像取得部112と、部位画像特定部114と、移動量算出部115と、位置関係算出部116と、画像生成部117と、表示制御部118として機能する。   This image processing program defines an image acquisition process, a part image specifying process, a movement amount calculating process, a positional relationship calculating process, an image generating process, and a display control process as processes to be executed by the CPU of the computer. In accordance with this rule, when the CPU executes each of the above processes, the computer acquires an image acquisition unit 112, a part image specifying unit 114, a movement amount calculation unit 115, and a positional relationship calculation unit 116, which will be described later. , Function as an image generation unit 117 and a display control unit 118.

また、画像処理装置100は、ハードディスクドライブなどの記憶装置111を備えており、この記憶装置111が、本発明の記憶部に相当する。さらに、画像処理装置100には、ディスプレイなどの表示装置3と、マウス、キーボードなどの入力装置4が接続されている。   The image processing apparatus 100 also includes a storage device 111 such as a hard disk drive, and this storage device 111 corresponds to the storage unit of the present invention. Further, a display device 3 such as a display and an input device 4 such as a mouse and a keyboard are connected to the image processing apparatus 100.

記憶装置111には、直近の検査でCT、MRI、PET、SPECT、超音波画像などの撮影装置により所定の被写体を撮影して得られた画像Vc(以下、「第1画像Vc」という)と、過去の検査で上記いずれかの撮影装置により同じ被写体を撮影して得られた画像Vd(以下、「第2画像Vd」という)とが記憶されている。第1画像Vcおよび第2画像Vdは、同じモダリティにより撮影された画像であってもよいし、異なるモダリティにより撮影された画像であってもよい。   In the storage device 111, an image Vc (hereinafter, referred to as “first image Vc”) obtained by photographing a predetermined subject using an imaging device such as CT, MRI, PET, SPECT, or an ultrasonic image in the latest examination. In addition, an image Vd (hereinafter referred to as “second image Vd”) obtained by photographing the same subject by any of the above-described photographing apparatuses in the past examination is stored. The first image Vc and the second image Vd may be images taken with the same modality, or may be images taken with different modalities.

また、記憶装置111には、被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とが対応づけたテーブルが記憶されている。図8は本実施形態に使用されるテーブルの例を示す図である。図8に示すように、テーブルT2には、複数の部位のそれぞれに対して変形手法と評価尺度が対応づけられている。具体的には、頭部には剛体レジストレーションと相関係数が、肺には非剛体レジストレーションと画素値の差分の二乗が、皮膚にはサーフェスレジストレーションと表面間の最小二乗誤差が、大動脈には木構造マッチングと対応点間の距離が、肝臓には非剛体レジストレーションと相互情報量が、心臓には非剛体レジストレーションと相互情報量が、骨(個々に分割されたもの)には剛体レジストレーションとが素値の差分の二乗が、大腸には構造マッチングと対応点間の距離がそれぞれ対応づけられている。   Also, in the storage device 111, a deformation technique used when deforming an image is associated with each of a plurality of parts constituting the subject and an evaluation scale used when evaluating the similarity between the two images. Table is stored. FIG. 8 is a diagram showing an example of a table used in this embodiment. As shown in FIG. 8, in the table T2, a deformation method and an evaluation scale are associated with each of a plurality of parts. Specifically, the head has rigid registration and correlation coefficients, the lung has non-rigid registration and the square of the pixel value difference, the skin has surface registration and the least square error between the surfaces, the aorta Is the tree structure matching and the distance between corresponding points, the liver is non-rigid registration and mutual information, the heart is non-rigid registration and mutual information, and bones (individually divided) The rigid registration is associated with the square of the difference between the prime values, and the large intestine is associated with the structure matching and the distance between corresponding points.

ここで、構造マッチングは、対象画像と基準画像のそれぞれにおいてグラフ構造(木構造マッチングの場合には木構造を有するグラフ構造)を抽出し、それらの抽出されたグラフ構造上の対応する点同士が重なり合うように、対象画像を構成する各画素の位置を変化させる手法である。その他のテーブルT2に例示する各変形手法および評価尺度ついては前記第1の実施形態の記載を参照されたい。   Here, in the structure matching, a graph structure (a graph structure having a tree structure in the case of tree structure matching) is extracted from each of the target image and the reference image, and corresponding points on the extracted graph structures are extracted from each other. This is a method of changing the position of each pixel constituting the target image so as to overlap. Refer to the description of the first embodiment for each deformation technique and evaluation scale exemplified in the other table T2.

画像取得部112は、記憶装置111に記憶されている第1画像Vcおよび第2画像Vdを取得する。部分画像特定部114は、画像取得部112により取得された第1画像Vcおよび第2画像Vdにおいて、同一の部位が表されている部位画像の組を複数特定する。たとえば被写体を構成する個々の部位について、第1画像Vcおよび第2画像Vdのそれぞれからその部位が表されている領域を抽出し、それらの抽出された領域を1つの部位画像の組として特定する。ここで、特定の部位が表された領域とは、その部位を表す領域を全部含み、かつ、それ以外の領域は含んでいない領域をいう。なお、対象の3次元画像(第1画像Vcまたは第2画像Vd)から個々の部位が表されている領域を抽出する処理には、最適な抽出結果が得られるように、その部位に応じて適宜手法を変更するとよい。   The image acquisition unit 112 acquires the first image Vc and the second image Vd stored in the storage device 111. The partial image specifying unit 114 specifies a plurality of sets of part images in which the same part is represented in the first image Vc and the second image Vd acquired by the image acquisition unit 112. For example, for each part constituting the subject, an area in which the part is expressed is extracted from each of the first image Vc and the second image Vd, and the extracted area is specified as a set of one part image. . Here, the region in which a specific part is represented refers to a region that includes the entire region representing the part and does not include any other region. It should be noted that, in the process of extracting the region where each part is represented from the target three-dimensional image (the first image Vc or the second image Vd), according to the part so that an optimum extraction result can be obtained. The method may be changed as appropriate.

たとえば部位が肝臓である場合、以下に説明する手法によりその領域を抽出することができる。まず、肝臓が表された断面画像に対するユーザによるポインティングデバイス等の操作に応じて、肝臓領域内の任意の点を設定する(以下、この点を「ユーザ設定点」という)。次に、AdaBoost手法等の機械学習によって取得された識別器を用いて肝臓領域の輪郭の角ばった箇所を基準点として検出する。さらに、ユーザ設定点を中心として、肝臓を含む程度の大きさの3次元領域(以下、「処理対象領域」という)内の各点(ボクセル)について、AdaBoost手法等の機械学習によって取得された識別器を用いて、肝臓の輪郭上の点かどうかを表す評価値を算出する。そして、処理対象領域の外周上の各点を肝臓領域外の背景領域内の点と予め判定するとともに、ユーザ設定点および基準点が肝臓領域内の点であると予め判定した上で、さらに処理対象領域内の各点の評価値を用いて、グラフカット法を適用することによって、対象の3次元画像から肝臓領域を抽出する。   For example, when the region is the liver, the region can be extracted by the method described below. First, an arbitrary point in the liver region is set according to the user's operation of a pointing device or the like with respect to the cross-sectional image showing the liver (hereinafter, this point is referred to as “user set point”). Next, using a discriminator acquired by machine learning such as the AdaBoost method, a corner portion of the contour of the liver region is detected as a reference point. Further, identification obtained by machine learning such as the AdaBoost method for each point (voxel) in a three-dimensional region (hereinafter referred to as “processing target region”) having a size including the liver around the user set point. An evaluation value indicating whether the point is on the outline of the liver is calculated using a container. Then, each point on the outer periphery of the processing target region is determined in advance as a point in the background region outside the liver region, and the user set point and the reference point are determined in advance as points in the liver region, and further processing is performed. The liver region is extracted from the three-dimensional image of the target by applying the graph cut method using the evaluation value of each point in the target region.

また、部位が血管である場合には、以下に説明する手法によりその領域を抽出することができる。まず、対象の3次元画像内の局所領域ごとに、3×3のヘシアン(Hessian)行列の固有値を算出することにより線状構造の探索を行う。線状構造が含まれる領域では、ヘシアン行列の3つの固有値のうち1つは0に近い値となり、他の2つは相対的に大きな値となる。また、値が0に近い固有値に対応する固有ベクトルは、線状構造の主軸方向を示すものとなる。領域特定部13は、この関係を利用して、局所領域ごとに、ヘシアン行列の固有値に基づいて線状構造らしさを判定し、線状構造が識別された局所領域については、その中心点を候補点として検出する。そして、探索により検出された候補点を、所定のアルゴリズムに基づいて連結する。これにより、候補点および候補点同士を連結する血管枝(エッジ)からなる木構造が構築される。検出された複数の候補点の座標情報や、血管枝の方向を示すベクトル情報は、候補点や血管枝の識別子とともにメモリに記憶される。続いて、検出された候補点ごとに、周辺の画素値に基づき、血管経路に垂直な断面において、血管の輪郭(血管の外壁)を識別する。形状の識別は、Graph−Cutsに代表される公知のセグメンテーション手法を用いて行う。以上の処理により、対象の3次元画像から血管領域を抽出する。なお、血管領域については、閾値法、Region Growing法や、Level Set法、その他の種々の画像処理を利用して抽出することもできる。   Further, when the part is a blood vessel, the region can be extracted by the method described below. First, a linear structure is searched by calculating eigenvalues of a 3 × 3 Hessian matrix for each local region in the target three-dimensional image. In the region including the linear structure, one of the three eigenvalues of the Hessian matrix is a value close to 0, and the other two are relatively large values. The eigenvector corresponding to the eigenvalue whose value is close to 0 indicates the principal axis direction of the linear structure. The area specifying unit 13 uses this relationship to determine the likelihood of a linear structure based on the eigenvalues of the Hessian matrix for each local area, and for the local area where the linear structure is identified, the center point is a candidate. Detect as a point. Then, the candidate points detected by the search are connected based on a predetermined algorithm. Thereby, a tree structure composed of candidate points and blood vessel branches (edges) connecting the candidate points is constructed. The coordinate information of the detected candidate points and vector information indicating the direction of the blood vessel branch are stored in the memory together with the candidate point and the identifier of the blood vessel branch. Subsequently, for each detected candidate point, the outline of the blood vessel (outer wall of the blood vessel) is identified in the cross section perpendicular to the blood vessel path based on the surrounding pixel values. The shape is identified using a known segmentation technique represented by Graph-Cuts. Through the above processing, a blood vessel region is extracted from the target three-dimensional image. The blood vessel region can also be extracted by using a threshold method, a Region Growing method, a Level Set method, and other various image processes.

なお、一般的には、3次元画像において所定の構造物を認識する処理として、AdaBoost、サポートベクターマシン(SVM)、適合ベクターマシン(RVM)、人工ニューラルネットワーク(ANN)等を用いた機械学習によって得られる判別手段を用いることができる。   In general, as processing for recognizing a predetermined structure in a three-dimensional image, machine learning using an AdaBoost, a support vector machine (SVM), an adaptive vector machine (RVM), an artificial neural network (ANN), or the like is used. The resulting discriminating means can be used.

図5は、第1画像Vcおよび第2画像Vdを示すイメージ図である。図5に示す例では、第1画像Vcおよび第2画像Vdにおいて、頭部が表されている領域Rc1とRd1の組と、肺が表されている領域Rc2とRd2の組と、肝臓が表されている領域Rc3とRd3の組と、皮膚が表されている領域Rc4とRd4の組とが特定されている。   FIG. 5 is an image diagram showing the first image Vc and the second image Vd. In the example shown in FIG. 5, in the first image Vc and the second image Vd, a set of regions Rc1 and Rd1 in which the head is represented, a set of regions Rc2 and Rd2 in which the lungs are represented, and the liver are represented. A set of the regions Rc3 and Rd3 that are displayed, and a set of the regions Rc4 and Rd4 that indicate the skin are specified.

移動量算出部115は、部位画像特定部114により特定された各組の部位画像RciとRdi(i=1〜4)毎に、図8に示すようなテーブルT2を参照して、その組の部位画像に表されている部位に対応付けて記憶されている変形手法と、評価尺度とを特定し、特定された変形手法を用いて第1画像Vcの部位画像Rci内の各画素を所定の移動量で移動させることにより該部位画像Rciを変形し、該変形後の部位画像Rci´と第2画像Vdの部位画像Rdiとの類似度を、特定された評価尺度を用いて評価する処理を、その変形における各画素Xo(Xo∈Rci)に与えられる移動量m(Xo)を変化させながら繰り返し行い、移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量m(Xo)を求める。ここで、移動量はm、移動の方向と距離を有するベクトル量であり、変形後の部位画像Rci´は、部位画像Rciの各画素Xoを移動量m(Xo)だけ変位させることにより形成される画像である。また、以下の説明において、部位画像Rci内の各画素Xoを移動量m(Xo)の集合を移動量m(Rci)という。   The movement amount calculation unit 115 refers to the table T2 as shown in FIG. 8 for each group of site images Rci and Rdi (i = 1 to 4) specified by the site image specifying unit 114, and sets the set of the group images. The deformation method stored in association with the region represented in the region image and the evaluation scale are specified, and each pixel in the region image Rci of the first image Vc is set to a predetermined value using the specified deformation method. The part image Rci is deformed by being moved by the movement amount, and the degree of similarity between the part image Rci ′ after the deformation and the part image Rdi of the second image Vd is evaluated using the specified evaluation scale. In this modification, the amount of change m (Xo) given to each pixel Xo (Xo∈Rci) is changed repeatedly, and the amount of change in the evaluation value that evaluates the degree of similarity with respect to the change in amount of movement is less than or equal to a predetermined value In case of deformation That the calculating the moving amount m given to each pixel (Xo). Here, the movement amount is m, a vector amount having a movement direction and a distance, and the deformed region image Rci ′ is formed by displacing each pixel Xo of the region image Rci by the movement amount m (Xo). This is an image. In the following description, each pixel Xo in the part image Rci is referred to as a movement amount m (Rci).

移動量算出部115は、具体的には、移動量m(Rci)を前記評価値が高くなる方向に変化させながら、その移動量m(Rci)の変化に対する評価値の変化量を所定値と比較する処理を繰り返し行うことにより、評価値の変化量が所定値以下となる場合の移動量m(Rci)を特定する。ここで、所定値としては、移動量m(Rci)の変化に対する評価値の変化量が十分大きい値であると見なせる任意の値を設定してよい。   Specifically, the movement amount calculation unit 115 changes the evaluation value change amount with respect to the change in the movement amount m (Rci) to a predetermined value while changing the movement amount m (Rci) in the direction in which the evaluation value increases. By repeatedly performing the comparison process, the movement amount m (Rci) when the change amount of the evaluation value is equal to or less than the predetermined value is specified. Here, as the predetermined value, an arbitrary value that can be regarded as a sufficiently large change amount of the evaluation value with respect to the change of the movement amount m (Rci) may be set.

なお、これに代えて、たとえば移動量m(Rci)を変化させながら、その移動量m(Rci)の設定下において部分画像Rci´と部分画像Rdiとの類似度を評価した評価値を所定値と比較する処理を繰り返し行うことにより、その類似度の評価値がが所定値以上となる場合の移動量m(Rci)を特定してもよい。ここで、所定値としては、類似度の評価値が十分大きい値であると見なせる任意の値を設定してよい。また、たとえば複数の異なる移動量m(Rci)の設定に対して部位画像Rci´と部位画像Rdiとの類似度を評価した評価値をそれぞれ算出して、算出した評価値のうち評価値が最大であるものを特定し、特定された最大評価値に対応する移動量m(Rci)を特定してもよい。   Instead of this, for example, an evaluation value obtained by evaluating the similarity between the partial image Rci ′ and the partial image Rdi under the setting of the movement amount m (Rci) while changing the movement amount m (Rci) is a predetermined value. The amount of movement m (Rci) when the evaluation value of the similarity is equal to or greater than a predetermined value may be specified by repeatedly performing the process of comparing with the above. Here, as the predetermined value, an arbitrary value that can be regarded as a sufficiently large evaluation value of the similarity may be set. In addition, for example, evaluation values obtained by evaluating the similarity between the part image Rci ′ and the part image Rdi are set for a plurality of different movement amounts m (Rci), and the evaluation value is the largest among the calculated evaluation values. The movement amount m (Rci) corresponding to the specified maximum evaluation value may be specified.

位置関係算出部116は、移動量算出部115により各組の部位画像RciとRdi(i=1〜4)毎に求められた移動量m(Rci)を用いて第1画像Vcと第2画像Vd間の全ての画素の対応位置関係を求める。具体的には、第1画像Vc内の全ての画素それぞれに対して移動量を与えるベクトル場を求める。このベクトル場は、各画素が、その画素に与えられた移動量だけ離れた位置の、第2画像Vd上の画素と対応関係があることを表す。   The positional relationship calculation unit 116 uses the movement amount calculation unit 115 to calculate the first image Vc and the second image using the movement amount m (Rci) obtained for each group of part images Rci and Rdi (i = 1 to 4). The corresponding positional relationship of all pixels between Vd is obtained. Specifically, a vector field that gives a movement amount to each of all the pixels in the first image Vc is obtained. This vector field indicates that each pixel has a correspondence relationship with a pixel on the second image Vd at a position separated by the amount of movement given to that pixel.

まず、部位画像Rci(i=1〜4)の各画素Xoに対して、移動量算出部115により特定された移動量m(Rci)により定められる移動量m(Xo)を与え、第1画像Vc中の部位画像Rci(i=1〜4)以外の部分(たとえば、図5に示す部分Rcfなど)における各画素の移動量の推定値を、その画素の近傍に位置する2つ以上の画素のそれぞれに与えられている移動量を用いて補間により求め、該求められた推定値をその画素の移動量として与える。この補間処理には、線形補間、スプライン補間等の種々の空間補間技術を用いることができる。特にスプライン補間としては、たとえばSeungyong Leeらによる、“Scattered Data Interpolation with Multilevel B-Splines”, IEEE Transactions on Visualization and Computer Graphics, vol. 3,no. 3, July‐September 1997に記載された手法を用いることができる。   First, the movement amount m (Xo) determined by the movement amount m (Rci) specified by the movement amount calculation unit 115 is given to each pixel Xo of the part image Rci (i = 1 to 4), and the first image Two or more pixels located in the vicinity of the estimated value of the movement amount of each pixel in a part other than the part image Rci (i = 1 to 4) in Vc (for example, part Rcf shown in FIG. 5). Are obtained by interpolation using the amount of movement given to each of them, and the obtained estimated value is given as the amount of movement of the pixel. Various spatial interpolation techniques such as linear interpolation and spline interpolation can be used for this interpolation processing. In particular, as the spline interpolation, for example, the method described in “Scattered Data Interpolation with Multilevel B-Splines”, IEEE Transactions on Visualization and Computer Graphics, vol. 3, no. 3, July-September 1997 by Seungyong Lee et al. be able to.

位置関係算出部116は、上述のように第1画像Vc内の全ての画素それぞれに対して移動量を与えた上で、さらに、異なる変形手法および/または異なる評価尺度を用いて前記移動量を求めた部位画像同士が隣接する部分における各画素について、前記与えられた画素の移動量をその画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて平均化し、該平均化された値をその画素の移動量として与え直す。   The positional relationship calculation unit 116 gives the movement amount to each of all the pixels in the first image Vc as described above, and further calculates the movement amount using a different deformation method and / or a different evaluation scale. For each pixel in a portion where the obtained part images are adjacent to each other, the movement amount of the given pixel is averaged using the movement amount in each of two or more pixels located in the vicinity of the pixel, and the averaged This value is given again as the movement amount of the pixel.

画像生成部117は、位置関係算出部116により求められた対応位置関係を用いて、第1画像Vcを変形して変形後の画像Vc´を生成する。表示制御部118は、画像生成部117により生成された画像Vc´および第2画像Vdを比較可能に表示装置3に表示させる。   The image generation unit 117 uses the corresponding positional relationship obtained by the positional relationship calculation unit 116 to deform the first image Vc and generate a deformed image Vc ′. The display control unit 118 causes the display device 3 to display the image Vc ′ and the second image Vd generated by the image generation unit 117 so that they can be compared.

図6は、画像生成装置100の動作を示すフローチャートである。図示のように、まず、画像取得部112が、記憶装置111に記憶されている第1画像Vcおよび第2画像Vdを取得し(S101)、部位画像特定部114が、第1画像Vcおよび第2画像Vdにおいて同一の部位を表す部位画像の組を複数特定する(S102)。ここでは、特定された部位画像の組の総数をnとする。   FIG. 6 is a flowchart showing the operation of the image generation apparatus 100. As shown in the figure, first, the image acquisition unit 112 acquires the first image Vc and the second image Vd stored in the storage device 111 (S101), and the part image specifying unit 114 detects the first image Vc and the first image Vc. A plurality of sets of part images representing the same part in the two images Vd are specified (S102). Here, it is assumed that the total number of sets of identified part images is n.

次に、移動量算出部115が、カウントiを初期値に設定し(S103)、テーブルT2を参照して、部位画像RciとRdiに表されている部位に対応付けて記憶されている変形手法と評価尺度を特定し、該特定された変形手法を用いて部位画像Rciに対して任意の移動量m(Rci)を設定する(S104)。続いて移動量算出部115が、ステップS105において設定された移動量m(Rci)だけ部位画像Rciを変形し(S105)、該変形後の部位画像Rci´と第2画像Vdの部位画像Rdiとの類似度の評価値を、ステップS104において特定された評価尺度を用いて評価し(S106)、その際の移動量m(Rci)の変化に対する評価値の変化量が所定値以下であるかを判断する(S107)。ステップS107が否定されると、移動量m(Rci)を変更し(S108)、ステップS105に戻る。一方、ステップS107が肯定されると、カウントiがnに達したか否かをさらに判断する(S109)。ステップS109が否定されると、iに1を加算し(S110)、ステップS104に戻る。   Next, the movement amount calculation unit 115 sets the count i to an initial value (S103), refers to the table T2, and stores the deformation method stored in association with the parts represented in the part images Rci and Rdi. An evaluation scale is specified, and an arbitrary movement amount m (Rci) is set for the part image Rci using the specified deformation method (S104). Subsequently, the movement amount calculation unit 115 deforms the part image Rci by the movement amount m (Rci) set in step S105 (S105), the part image Rci ′ after the deformation, and the part image Rdi of the second image Vd. The evaluation value of the similarity is evaluated using the evaluation scale specified in step S104 (S106), and whether the change amount of the evaluation value with respect to the change of the movement amount m (Rci) at that time is equal to or less than a predetermined value is determined. Judgment is made (S107). If step S107 is negative, the movement amount m (Rci) is changed (S108), and the process returns to step S105. On the other hand, if step S107 is affirmed, it is further determined whether or not the count i has reached n (S109). If step S109 is negative, 1 is added to i (S110), and the process returns to step S104.

一方、ステップS109が肯定されると、位置関係算出部116が、移動量算出部115により各組の部位画像RciとRdi(i=1〜n)毎に求められた移動量m(Rci)を用いて第1画像Vcと第2画像Vd間の全ての画素の対応位置関係を求める(S111)。次に、画像生成部117が、位置関係算出部116により求められた対応位置関係を用いて、第1画像Vcを変形して変形後の画像Vc´を生成し(S112)、表示制御部118が、画像生成部117により生成された画像Vc´および第2画像Vdを比較可能に表示装置3に表示させ(S113)、処理を終了する。   On the other hand, when step S109 is affirmed, the positional relationship calculation unit 116 calculates the movement amount m (Rci) obtained by the movement amount calculation unit 115 for each group of part images Rci and Rdi (i = 1 to n). Using this, the corresponding positional relationship of all the pixels between the first image Vc and the second image Vd is obtained (S111). Next, the image generation unit 117 deforms the first image Vc using the corresponding positional relationship obtained by the positional relationship calculation unit 116 to generate a deformed image Vc ′ (S112), and the display control unit 118. However, the image Vc ′ and the second image Vd generated by the image generation unit 117 are displayed on the display device 3 so that they can be compared (S113), and the process ends.

このように、上記実施の形態によれば、比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める際に、被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶しておき、2つの3次元画像において特定された同一の部位が表されている部位画像の組毎に、それらの部位画像に表されている部位に対応付けて記憶されている変形手法と評価尺度を用いて一方の3次元画像の部位画像を他方の3次元画像の部位画像に合せて変形する際の各画素の移動量を求め、求められた移動量を用いて2つの3次元画像間の対応位置関係を求めているので、複数の部位のそれぞれに対して適した変形手法および評価尺度を用いてその部位を表す画像部分同士の対応位置関係を求めることができ、2つの3次元画像の間において全体的により正確な対応位置関係を求めることができる。   As described above, according to the above embodiment, when the corresponding positional relationship is obtained between two three-dimensional images of the same subject to be compared, an image is obtained for each of a plurality of parts constituting the subject. The deformation method used when deforming and the evaluation scale used when evaluating the similarity between two images are stored in association with each other, and the same part specified in the two three-dimensional images is represented. For each set of part images, a part image of one three-dimensional image is converted into a part image of the other three-dimensional image using a deformation method and an evaluation scale stored in association with the part represented in those part images. Since the movement amount of each pixel at the time of deformation is obtained and the corresponding positional relationship between the two three-dimensional images is obtained using the obtained movement amount, the deformation suitable for each of a plurality of parts is obtained. Using methods and rating scales It is possible to obtain the corresponding positional relationship between the image portion between representing the site, it is possible to determine the exact correspondence positional relationship by overall between the two three-dimensional images.

なお、上記第1の実施形態では、部位情報取得部13、部分画像特定部14および移動量算出部15の処理に用いられる、被写体を構成する複数の部位が、頭部、頸部、胸部、肝臓および下腹部の4つの部位であり、上記第2の実施形態では、部位画像特定部114および移動量算出部115の処理に用いられる、被写体を構成する複数の部位が、頭部、肺、肝臓および皮膚の4つの部位である場合について例示したが、いずれの実施形態においても、処理に用いる部位は必要に応じて適宜取捨選択することができる。たとえば、骨と肝臓が接触する領域においては、実際に不連続な変形を伴っている場合が考えられるので、骨は対象部位からはずすことにより、このような不連続点付近における、意図しない変形場の生成を防ぐことができる。   In the first embodiment, the plurality of parts constituting the subject used for the processing of the part information acquisition unit 13, the partial image specification unit 14, and the movement amount calculation unit 15 are the head, neck, chest, The liver and the lower abdomen are four parts. In the second embodiment, a plurality of parts constituting the subject used in the processing of the part image specifying unit 114 and the movement amount calculating unit 115 are the head, lungs, Although the case where there are four parts of the liver and skin has been illustrated, in any of the embodiments, the part used for the treatment can be appropriately selected as necessary. For example, in the region where the bone and liver are in contact with each other, there may be a case where there is actually a discontinuous deformation. Can be prevented.

また、上記実施の形態では、画像生成装置100が画像生成部117や表示制御部118を備えたものである場合について説明したが、それらの構成は必ずしも必要ではなく、必要に応じて設けるとよい。   In the above embodiment, the case where the image generation apparatus 100 includes the image generation unit 117 and the display control unit 118 has been described. However, these configurations are not necessarily required, and may be provided as necessary. .

1,100 画像生成装置
3 表示装置
4 入力装置
11,111 記憶装置
12,112 画像取得部
13 部位情報取得部
14,114 部分画像特定部
15,115 移動量算出部
16,116 位置関係算出部
17,117 画像生成部
18,118 表示制御部
Va,Vc 第1画像
Vb,Vd 第1画像
Ra1〜Ra5 部分画像
Rb1〜Rb5 部分画像
Rc1〜Rc4 部位画像
Rd1〜Rd4 部位画像
1,100 Image generation device 3 Display device 4 Input device 11, 111 Storage device 12, 112 Image acquisition unit 13 Part information acquisition unit 14, 114 Partial image specification unit 15, 115 Movement amount calculation unit 16, 116 Position relation calculation unit 17 , 117 Image generation unit 18, 118 Display control unit Va, Vc First image Vb, Vd First image Ra1-Ra5 Partial image Rb1-Rb5 Partial image Rc1-Rc4 Partial image Rd1-Rd4 Partial image

Claims (14)

比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める画像処理装置であって、
前記被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶する記憶部と、
前記2つの3次元画像を構成する断層画像のそれぞれが前記被写体のいずれの部位を表す断層画像であるかの情報を取得する部位情報取得部と、
該取得された情報を用いて、前記2つの3次元画像において、同一の部位を表す断層画像の集合からなる部分画像の組を複数特定する部分画像特定部と、
該特定された各組の部分画像毎に、それらの部分画像に表されている部位に対応付けて記憶されている変形手法を用いて一方の3次元画像の部分画像内の各画素を所定の移動量で移動させることにより該部分画像を変形し、該変形後の部分画像と他方の3次元画像の部分画像との類似度を、それらの部分画像に表されている部位に対応付けて記憶されている評価尺度を用いて評価する処理を、前記変形における前記各画素に与えられる移動量を変化させながら繰り返し行い、該移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量を求める移動量算出部と、
該求められた移動量を用いて前記2つの3次元画像間の対応位置関係を求める位置関係算出部とを備え、
前記移動量算出部が、前記一方の3次元画像において、複数の部位を表す断層画像の集合からなる部分画像の各画素については、該部分画像に表されている各部位毎に、該部位に対応付けられている変形手法および評価尺度を用いて前記移動量を求めるものであり、
前記位置関係算出部が、該各部位毎に求められた移動量を平均した値を前記求められた移動量として用いて前記2つの3次元画像間の対応位置関係を求めるものであることを特徴とする画像処理装置。
An image processing apparatus for obtaining a corresponding positional relationship between two three-dimensional images of the same subject to be compared,
A storage unit that stores a deformation technique used when deforming an image and an evaluation scale used when evaluating the similarity between two images in association with each of a plurality of parts constituting the subject,
A site information acquisition unit that acquires information on which tomographic image represents which site of the subject each of the tomographic images constituting the two three-dimensional images;
Using the acquired information, a partial image specifying unit for specifying a plurality of sets of partial images composed of a set of tomographic images representing the same part in the two three-dimensional images;
For each identified partial image of each set, each pixel in the partial image of one of the three-dimensional images is assigned a predetermined value using a deformation method stored in association with the portion represented in the partial image. The partial image is deformed by being moved by the movement amount, and the similarity between the deformed partial image and the partial image of the other three-dimensional image is stored in association with the part represented in the partial image. The process of evaluating using the evaluated evaluation scale is repeated while changing the amount of movement given to each pixel in the deformation, and the amount of change in the evaluation value that evaluates the similarity to the change in the amount of movement is predetermined. A movement amount calculation unit for obtaining a movement amount given to each pixel in the deformation when the value is equal to or less than a value;
A positional relationship calculation unit for determining a corresponding positional relationship between the two three-dimensional images using the determined movement amount ;
In the one three-dimensional image, the movement amount calculation unit adds each pixel of a partial image including a set of tomographic images representing a plurality of parts to each part represented in the partial image. The amount of movement is calculated using the associated deformation method and evaluation scale,
The positional relationship calculation unit calculates a corresponding positional relationship between the two three-dimensional images by using a value obtained by averaging the movement amounts obtained for each part as the obtained movement amount. An image processing apparatus.
前記位置関係算出部が、前記一方の3次元画像において、異なる変形手法および/または異なる評価尺度を用いて前記移動量を求めた部分画像同士が隣接する部分における各画素については、前記移動量算出部により求められた該画素の移動量を当該画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて平均化し、該平均化された値を前記求められた移動量として用いて前記2つの3次元画像間の対応位置関係を求めるものであることを特徴とする請求項記載の画像処理装置。 The positional relationship calculation unit calculates the movement amount for each pixel in a part where the partial images obtained by using the different deformation methods and / or different evaluation scales in the one three-dimensional image are adjacent to each other. The movement amount of the pixel obtained by the unit is averaged using the movement amount in each of two or more pixels located in the vicinity of the pixel, and the averaged value is used as the obtained movement amount. the image processing apparatus according to claim 1, characterized in that to obtain the corresponding positional relationship between the two three-dimensional images. 前記位置関係算出部が、前記移動量算出部により求められた移動量を用いて前記一方の3次元画像中の前記特定された部分画像以外の部分における各画素の移動量の推定値を求め、該求められた推定値および前記求められた移動量を用いて前記2つの3次元画像間の対応位置関係を求めるものであることを特徴とする請求項1または2記載の画像処理装置。 The positional relationship calculation unit obtains an estimated value of the movement amount of each pixel in a portion other than the specified partial image in the one three-dimensional image using the movement amount obtained by the movement amount calculation unit, the image processing apparatus according to claim 1, wherein a is intended to determine the correspondence position relationship between the two three-dimensional images using the estimated value and the movement amount obtained the determined said. 比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める画像処理装置であって、
前記被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶する記憶部と、
前記2つの3次元画像において、同一の部位が表されている部位画像の組を複数特定する部位画像特定部と、
該特定された各組の部位画像毎に、それらの部位画像に表されている部位に対応付けて記憶されている変形手法を用いて一方の3次元画像の部位画像内の各画素を所定の移動量で移動させることにより該部位画像を変形し、該変形後の部位画像と他方の3次元画像の部位画像との類似度を、それらの部位画像に表されている部位に対応付けて記憶されている評価尺度を用いて評価する処理を、前記変形における前記各画素に与えられる移動量を変化させながら繰り返し行い、該移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量を求める移動量算出部と、
該求められた移動量を用いて前記一方の3次元画像中の前記特定された部位画像以外の部分における各画素の移動量の推定値を求め、該求められた推定値および前記求められた移動量を用いて前記2つの3次元画像間の対応位置関係を求める位置関係算出部と
を備えたことを特徴とする画像処理装置。
An image processing apparatus for obtaining a corresponding positional relationship between two three-dimensional images of the same subject to be compared,
A storage unit that stores a deformation technique used when deforming an image and an evaluation scale used when evaluating the similarity between two images in association with each of a plurality of parts constituting the subject,
A part image specifying unit for specifying a plurality of sets of part images in which the same part is represented in the two three-dimensional images;
For each identified part image of each set, each pixel in the part image of one of the three-dimensional images is determined in advance using a deformation method stored in association with the part represented in those part images. The part image is deformed by being moved by the movement amount, and the similarity between the part image after the deformation and the part image of the other three-dimensional image is stored in association with the part represented in the part image. The process of evaluating using the evaluated evaluation scale is repeated while changing the amount of movement given to each pixel in the deformation, and the amount of change in the evaluation value that evaluates the similarity to the change in the amount of movement is predetermined. A movement amount calculation unit for obtaining a movement amount given to each pixel in the deformation when the value is equal to or less than a value;
Using the obtained movement amount, an estimated value of the movement amount of each pixel in a portion other than the specified part image in the one three-dimensional image is obtained, and the obtained estimated value and the obtained movement An image processing apparatus comprising: a positional relationship calculation unit that obtains a corresponding positional relationship between the two three-dimensional images using a quantity.
前記位置関係算出部が、前記一方の3次元画像において、異なる変形手法および/または異なる評価尺度を用いて前記移動量を求めた部位画像同士が隣接する部分における各画素については、前記移動量算出部により求められた該画素の移動量を当該画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて平均化し、該平均化された値を前記求められた移動量として用いて前記2つの3次元画像間の対応位置関係を求めるものであることを特徴とする請求項記載の画像処理装置。 In the one three-dimensional image, the positional relationship calculation unit calculates the movement amount for each pixel in a portion where the part images obtained by using different deformation methods and / or different evaluation scales are adjacent to each other. The movement amount of the pixel obtained by the unit is averaged using the movement amount in each of two or more pixels located in the vicinity of the pixel, and the averaged value is used as the obtained movement amount. 5. The image processing apparatus according to claim 4, wherein a corresponding positional relationship between the two three-dimensional images is obtained. 前記位置関係算出部が、前記一方の3次元画像中の前記特定された部位画像以外の部分における各画素の移動量の推定値を当該画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて補間により求めるものであることを特徴とする請求項4または5記載の画像処理装置。 The positional relationship calculation unit moves the estimated value of the movement amount of each pixel in a portion other than the specified part image in the one three-dimensional image in each of two or more pixels located in the vicinity of the pixel. 6. The image processing apparatus according to claim 4 , wherein the image processing apparatus is obtained by interpolation using a quantity. 比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める画像処理方法であって、
前記被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶し、
前記2つの3次元画像を構成する断層画像のそれぞれが前記被写体のいずれの部位を表す断層画像であるかの情報を取得し、
該取得された情報を用いて、前記2つの3次元画像において、同一の部位を表す断層画像の集合からなる部分画像の組を複数特定し、
該特定された各組の部分画像毎に、それらの部分画像に表されている部位に対応付けて記憶されている変形手法を用いて一方の3次元画像の部分画像内の各画素を所定の移動量で移動させることにより該部分画像を変形し、該変形後の部分画像と他方の3次元画像の部分画像との類似度を、それらの部分画像に表されている部位に対応付けて記憶されている評価尺度を用いて評価する処理を、前記変形における前記各画素に与えられる移動量を変化させながら繰り返し行い、該移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量を求め、
該求められた移動量を用いて前記2つの3次元画像間の対応位置関係を求めることを特徴とする画像処理方法であって、
前記移動量を求める処理が、前記一方の3次元画像において、複数の部位を表す断層画像の集合からなる部分画像の各画素については、該部分画像に表されている各部位毎に、該部位に対応付けられている変形手法および評価尺度を用いて前記移動量を求める処理であり、
前記位置関係を求める処理が、該各部位毎に求められた移動量を平均した値を前記求められた移動量として用いて前記2つの3次元画像間の対応位置関係を求める処理であることを特徴とする画像処理方法
An image processing method for obtaining a corresponding positional relationship between two three-dimensional images of the same subject to be compared,
For each of the plurality of parts constituting the subject, a deformation method used when deforming the image and an evaluation scale used when evaluating the similarity between the two images are stored in association with each other.
Obtaining information as to which tomographic image represents which part of the subject each of the tomographic images constituting the two three-dimensional images;
Using the acquired information, in the two three-dimensional images, specify a plurality of sets of partial images consisting of a set of tomographic images representing the same part,
For each identified partial image of each set, each pixel in the partial image of one of the three-dimensional images is assigned a predetermined value using a deformation method stored in association with the portion represented in the partial image. The partial image is deformed by being moved by the movement amount, and the similarity between the deformed partial image and the partial image of the other three-dimensional image is stored in association with the part represented in the partial image. The process of evaluating using the evaluated evaluation scale is repeated while changing the amount of movement given to each pixel in the deformation, and the amount of change in the evaluation value that evaluates the similarity to the change in the amount of movement is predetermined. Find the amount of movement given to each pixel in the deformation when it is less than or equal to the value,
An image processing method characterized by obtaining a corresponding positional relationship between the two three-dimensional images using the obtained movement amount ,
In the one three-dimensional image, the process for obtaining the movement amount is performed for each part of the partial image formed of a set of tomographic images representing a plurality of parts, for each part represented in the partial image. Is a process for obtaining the amount of movement using a deformation method and an evaluation scale associated with
The process for obtaining the positional relationship is a process for obtaining a corresponding positional relationship between the two three-dimensional images by using a value obtained by averaging the movement amounts obtained for each part as the obtained movement amount. A featured image processing method .
前記位置関係を求める処理が、前記一方の3次元画像において、異なる変形手法および/または異なる評価尺度を用いて前記移動量を求めた部分画像同士が隣接する部分における各画素については、前記求められた該画素の移動量を当該画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて平均化し、該平均化された値を前記求められた移動量として用いて前記2つの3次元画像間の対応位置関係を求める処理であることを特徴とする請求項記載の画像処理方法。 The processing for obtaining the positional relationship is performed for each pixel in a portion where the partial images obtained by using the different deformation methods and / or different evaluation scales in the one three-dimensional image are adjacent to each other. Further, the movement amount of the pixel is averaged using the movement amount in each of two or more pixels located in the vicinity of the pixel, and the average value is used as the obtained movement amount. The image processing method according to claim 7 , wherein the image processing method is a process for obtaining a corresponding positional relationship between two-dimensional images. 前記位置関係を求める処理が、前記求められた移動量を用いて前記一方の3次元画像中の前記特定された部分画像以外の部分における各画素の移動量の推定値を求め、該求められた推定値および前記求められた移動量を用いて前記2つの3次元画像間の対応位置関係を求める処理であることを特徴とする請求項7または8記載の画像処理方法。 The processing for obtaining the positional relationship obtains an estimated value of the amount of movement of each pixel in a portion other than the specified partial image in the one three-dimensional image using the obtained amount of movement. 9. The image processing method according to claim 7, wherein the image processing method is a process of obtaining a corresponding positional relationship between the two three-dimensional images using an estimated value and the obtained movement amount. 比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める画像処理方法であって、
前記被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶し、
前記2つの3次元画像において、同一の部位が表されている部位画像の組を複数特定し、
該特定された各組の部位画像毎に、それらの部位画像に表されている部位に対応付けて記憶されている変形手法を用いて一方の3次元画像の部位画像内の各画素を所定の移動量で移動させることにより該部位画像を変形し、該変形後の部位画像と他方の3次元画像の部位画像との類似度を、それらの部位画像に表されている部位に対応付けて記憶されている評価尺度を用いて評価する処理を、前記変形における前記各画素に与えられる移動量を変化させながら繰り返し行い、該移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量を求め、
該求められた移動量を用いて前記一方の3次元画像中の前記特定された部位画像以外の部分における各画素の移動量の推定値を求め、該求められた推定値および前記求められた移動量を用いて前記2つの3次元画像間の対応位置関係を求めることを特徴とする画像処理方法。
An image processing method for obtaining a corresponding positional relationship between two three-dimensional images of the same subject to be compared,
For each of the plurality of parts constituting the subject, a deformation method used when deforming the image and an evaluation scale used when evaluating the similarity between the two images are stored in association with each other.
In the two three-dimensional images, specify a plurality of sets of part images in which the same part is represented,
For each identified part image of each set, each pixel in the part image of one of the three-dimensional images is determined in advance using a deformation method stored in association with the part represented in those part images. The part image is deformed by being moved by the movement amount, and the similarity between the part image after the deformation and the part image of the other three-dimensional image is stored in association with the part represented in the part image. The process of evaluating using the evaluated evaluation scale is repeated while changing the amount of movement given to each pixel in the deformation, and the amount of change in the evaluation value that evaluates the similarity to the change in the amount of movement is predetermined. Find the amount of movement given to each pixel in the deformation when it is less than or equal to the value,
Using the obtained movement amount, an estimated value of the movement amount of each pixel in a portion other than the specified part image in the one three-dimensional image is obtained, and the obtained estimated value and the obtained movement An image processing method characterized in that a corresponding positional relationship between the two three-dimensional images is obtained using a quantity.
前記位置関係を求める処理が、前記一方の3次元画像において、異なる変形手法および/または異なる評価尺度を用いて前記移動量を求めた部位画像同士が隣接する部分における各画素については、前記求められた該画素の移動量を当該画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて平均化し、該平均化された値を前記求められた移動量として用いて前記2つの3次元画像間の対応位置関係を求める処理であることを特徴とする請求項10記載の画像処理方法。 In the processing for obtaining the positional relationship, in the one three-dimensional image, for each pixel in a portion where the part images obtained by using different deformation methods and / or different evaluation scales are adjacent to each other, the above-described calculation is performed. Further, the movement amount of the pixel is averaged using the movement amount in each of two or more pixels located in the vicinity of the pixel, and the average value is used as the obtained movement amount. The image processing method according to claim 10 , wherein the image processing method is a process of obtaining a corresponding positional relationship between two-dimensional images. 前記位置関係を求める処理が、前記一方の3次元画像中の前記特定された部位画像以外の部分における各画素の移動量の推定値を当該画素の近傍に位置する2つ以上の画素のそれぞれにおける移動量を用いて補間により求める処理であることを特徴とする請求項10または11記載の画像処理方法。 In the processing for obtaining the positional relationship, an estimated value of the amount of movement of each pixel in a portion other than the specified part image in the one three-dimensional image is obtained in each of two or more pixels located in the vicinity of the pixel. 12. The image processing method according to claim 10, wherein the image processing method is obtained by interpolation using a movement amount. コンピュータを、比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める画像処理装置として機能させるためのプログラムであって、
前記コンピュータを、
前記被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶する記憶部、
前記2つの3次元画像を構成する断層画像のそれぞれが前記被写体のいずれの部位を表す断層画像であるかの情報を取得する部位情報取得部、
該取得された情報を用いて、前記2つの3次元画像において、同一の部位を表す断層画像の集合からなる部分画像の組を複数特定する部分画像特定部、
該特定された各組の部分画像毎に、それらの部分画像に表されている部位に対応付けて記憶されている変形手法を用いて一方の3次元画像の部分画像内の各画素を所定の移動量で移動させることにより該部分画像を変形し、該変形後の部分画像と他方の3次元画像の部分画像との類似度を、それらの部分画像に表されている部位に対応付けて記憶されている評価尺度を用いて評価する処理を、前記変形における前記各画素に与えられる移動量を変化させながら繰り返し行い、該移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量を求める移動量算出部、
該求められた移動量を用いて前記2つの3次元画像間の対応位置関係を求める位置関係算出部として機能させるための画像処理プログラムであって、
前記移動量算出部が、前記一方の3次元画像において、複数の部位を表す断層画像の集合からなる部分画像の各画素については、該部分画像に表されている各部位毎に、該部位に対応付けられている変形手法および評価尺度を用いて前記移動量を求めるものであり、
前記位置関係算出部が、該各部位毎に求められた移動量を平均した値を前記求められた移動量として用いて前記2つの3次元画像間の対応位置関係を求めるものであることを特徴とする画像処理プログラム
A program for causing a computer to function as an image processing device for obtaining a corresponding positional relationship between two three-dimensional images of the same subject to be compared,
The computer,
A storage unit that stores a deformation technique used when deforming an image and an evaluation scale used when evaluating the similarity of two images in association with each of a plurality of parts constituting the subject,
A site information acquisition unit that acquires information about which of the tomographic images each of the tomographic images represents each of the tomographic images constituting the two three-dimensional images;
Using the acquired information, in the two three-dimensional images, a partial image specifying unit that specifies a plurality of sets of partial images composed of a set of tomographic images representing the same part,
For each identified partial image of each set, each pixel in the partial image of one of the three-dimensional images is assigned a predetermined value using a deformation method stored in association with the portion represented in the partial image. The partial image is deformed by being moved by the movement amount, and the similarity between the deformed partial image and the partial image of the other three-dimensional image is stored in association with the part represented in the partial image. The process of evaluating using the evaluated evaluation scale is repeated while changing the amount of movement given to each pixel in the deformation, and the amount of change in the evaluation value that evaluates the similarity to the change in the amount of movement is predetermined. A movement amount calculation unit for obtaining a movement amount given to each pixel in the deformation when the value is equal to or less than a value;
An image processing program for functioning as a positional relationship calculation unit for determining a corresponding positional relationship between the two three-dimensional images using the determined movement amount ,
In the one three-dimensional image, the movement amount calculation unit adds each pixel of a partial image including a set of tomographic images representing a plurality of parts to each part represented in the partial image. The amount of movement is calculated using the associated deformation method and evaluation scale,
The positional relationship calculation unit calculates a corresponding positional relationship between the two three-dimensional images by using a value obtained by averaging the movement amounts obtained for each part as the obtained movement amount. An image processing program .
コンピュータを、比較対象となる同一被写体についての2つの3次元画像間で対応位置関係を求める画像処理装置として機能させるためのプログラムであって、
前記コンピュータを、
前記被写体を構成する複数の部位のそれぞれに対して、画像を変形する際に用いる変形手法と、2つの画像の類似度を評価する際に用いる評価尺度とを対応づけて記憶する記憶部、
前記2つの3次元画像において、同一の部位が表されている部位画像の組を複数特定する部位画像特定部、
該特定された各組の部位画像毎に、それらの部位画像に表されている部位に対応付けて記憶されている変形手法を用いて一方の3次元画像の部位画像内の各画素を所定の移動量で移動させることにより該部位画像を変形し、該変形後の部位画像と他方の3次元画像の部位画像との類似度を、それらの部位画像に表されている部位に対応付けて記憶されている評価尺度を用いて評価する処理を、前記変形における前記各画素に与えられる移動量を変化させながら繰り返し行い、該移動量の変化に対する前記類似度を評価した評価値の変化量が所定値以下となる場合の前記変形における前記各画素に与えられる移動量を求める移動量算出部、
該求められた移動量を用いて前記一方の3次元画像中の前記特定された部位画像以外の部分における各画素の移動量の推定値を求め、該求められた推定値および前記求められた移動量を用いて前記2つの3次元画像間の対応位置関係を求める位置関係算出部
として機能させるための画像処理プログラム。
A program for causing a computer to function as an image processing device for obtaining a corresponding positional relationship between two three-dimensional images of the same subject to be compared,
The computer,
A storage unit that stores a deformation technique used when deforming an image and an evaluation scale used when evaluating the similarity of two images in association with each of a plurality of parts constituting the subject,
A part image specifying unit for specifying a plurality of sets of part images in which the same part is represented in the two three-dimensional images;
For each identified part image of each set, each pixel in the part image of one of the three-dimensional images is determined in advance using a deformation method stored in association with the part represented in those part images. The part image is deformed by being moved by the movement amount, and the similarity between the part image after the deformation and the part image of the other three-dimensional image is stored in association with the part represented in the part image. The process of evaluating using the evaluated evaluation scale is repeated while changing the amount of movement given to each pixel in the deformation, and the amount of change in the evaluation value that evaluates the similarity to the change in the amount of movement is predetermined. A movement amount calculation unit for obtaining a movement amount given to each pixel in the deformation when the value is equal to or less than a value;
Using the obtained movement amount, an estimated value of the movement amount of each pixel in a portion other than the specified part image in the one three-dimensional image is obtained, and the obtained estimated value and the obtained movement The image processing program for functioning as a positional relationship calculation part which calculates | requires the corresponding positional relationship between said two three-dimensional images using quantity.
JP2012059224A 2012-03-15 2012-03-15 Image processing apparatus, method, and program Expired - Fee Related JP5832938B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012059224A JP5832938B2 (en) 2012-03-15 2012-03-15 Image processing apparatus, method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012059224A JP5832938B2 (en) 2012-03-15 2012-03-15 Image processing apparatus, method, and program

Publications (2)

Publication Number Publication Date
JP2013192569A JP2013192569A (en) 2013-09-30
JP5832938B2 true JP5832938B2 (en) 2015-12-16

Family

ID=49392254

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012059224A Expired - Fee Related JP5832938B2 (en) 2012-03-15 2012-03-15 Image processing apparatus, method, and program

Country Status (1)

Country Link
JP (1) JP5832938B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104545957B (en) * 2013-10-22 2017-08-08 上海西门子医疗器械有限公司 X-ray image system, x-ray image documentation equipment, server and method
JP6716228B2 (en) * 2014-11-25 2020-07-01 キヤノンメディカルシステムズ株式会社 Medical image processing apparatus and medical image processing method
JP6560597B2 (en) * 2014-11-28 2019-08-14 ジーイー・メディカル・システムズ・グローバル・テクノロジー・カンパニー・エルエルシー Ultrasonic image processing method and ultrasonic image processing apparatus
JP6768389B2 (en) * 2015-08-07 2020-10-14 キヤノン株式会社 Image processing equipment, image processing methods and programs
WO2017086433A1 (en) * 2015-11-19 2017-05-26 国立大学法人 東京大学 Medical image processing method, device, system, and program
CN109310396B (en) 2016-06-20 2021-11-09 蝴蝶网络有限公司 Automatic image acquisition for assisting a user in operating an ultrasound device
JP6820805B2 (en) 2017-06-30 2021-01-27 富士フイルム株式会社 Image alignment device, its operation method and program
US10878529B2 (en) 2017-12-22 2020-12-29 Canon Medical Systems Corporation Registration method and apparatus
JP7167564B2 (en) * 2018-09-05 2022-11-09 株式会社島津製作所 Radiographic device and method of operating the radiographic device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4702971B2 (en) * 1999-11-10 2011-06-15 株式会社東芝 Computer-aided diagnosis system
US20070280556A1 (en) * 2006-06-02 2007-12-06 General Electric Company System and method for geometry driven registration

Also Published As

Publication number Publication date
JP2013192569A (en) 2013-09-30

Similar Documents

Publication Publication Date Title
JP5832938B2 (en) Image processing apparatus, method, and program
US8953856B2 (en) Method and system for registering a medical image
CN109074639B (en) Image registration system and method in medical imaging system
RU2677764C2 (en) Registration of medical images
EP3355273B1 (en) Coarse orientation detection in image data
US9155470B2 (en) Method and system for model based fusion on pre-operative computed tomography and intra-operative fluoroscopy using transesophageal echocardiography
US9218542B2 (en) Localization of anatomical structures using learning-based regression and efficient searching or deformation strategy
CN111862249A (en) System and method for generating canonical imaging data for medical image processing using deep learning
US9336457B2 (en) Adaptive anatomical region prediction
EP3625768B1 (en) Determining a clinical target volume
EP2646979B1 (en) Image registration apparatus
EP3424017B1 (en) Automatic detection of an artifact in patient image data
JP5415245B2 (en) MEDICAL IMAGE DISPLAY DEVICE, METHOD, AND PROGRAM
JP6458166B2 (en) MEDICAL IMAGE PROCESSING METHOD, DEVICE, SYSTEM, AND PROGRAM
CN111311655A (en) Multi-modal image registration method and device, electronic equipment and storage medium
EP4156096A1 (en) Method, device and system for automated processing of medical images to output alerts for detected dissimilarities
Tahoces et al. Deep learning method for aortic root detection
JP5364009B2 (en) Image generating apparatus, image generating method, and program thereof
JP6827707B2 (en) Information processing equipment and information processing system
US20150043809A1 (en) Automatic Segmentation of Articulated Structures
Tobon-Gomez et al. A multimodal database for the 1 st cardiac motion analysis challenge
Pei et al. Superimposition of cone-beam computed tomography images by joint embedding
Rodriguez-Lopez et al. Automatic ventricle detection in computed tomography pulmonary angiography
Chandran et al. Prediction of trabecular bone anisotropy from quantitative computed tomography using supervised learning and a novel morphometric feature descriptor
JP2019500114A (en) Determination of alignment accuracy

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140528

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150402

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20151006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20151028

R150 Certificate of patent or registration of utility model

Ref document number: 5832938

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees