JP2006247293A - Image processing method, image processing device, and program - Google Patents

Image processing method, image processing device, and program Download PDF

Info

Publication number
JP2006247293A
JP2006247293A JP2005071765A JP2005071765A JP2006247293A JP 2006247293 A JP2006247293 A JP 2006247293A JP 2005071765 A JP2005071765 A JP 2005071765A JP 2005071765 A JP2005071765 A JP 2005071765A JP 2006247293 A JP2006247293 A JP 2006247293A
Authority
JP
Japan
Prior art keywords
image
difference
pixel
group
alignment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2005071765A
Other languages
Japanese (ja)
Inventor
Satoru Osawa
哲 大沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Holdings Corp
Original Assignee
Fuji Photo Film Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Photo Film Co Ltd filed Critical Fuji Photo Film Co Ltd
Priority to JP2005071765A priority Critical patent/JP2006247293A/en
Publication of JP2006247293A publication Critical patent/JP2006247293A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing method, an image processing device, and a program which fit the position of a subject to be examined between a first image group which consists of two or more images representing the same subject and a second image, and produce a difference image of higher precision irrespective of a change of the posture and condition of the subject when producing the difference picture of the first image group and the second image after positioning. <P>SOLUTION: A positioning means 2 processes a positioning processing between each image P<SB>1</SB>to P<SB>N</SB>of a past image group and an image P<SB>A</SB>for diagnostic reading. A difference calculating means 3 obtains ▵<SB>N</SB>(x, y) from a difference ▵<SB>1</SB>(x, y) with the corresponding pixel in the image P<SB>A</SB>with respect to each pixel of each image P<SB>1</SB>" to P<SB>N</SB>" after positioning processing. A synthetic difference image generation means 4 regards a minimum value of the absolute value of ▵<SB>N</SB>(x, y) from the difference ▵<SB>1</SB>(x, y) with respect to each pixel as a synthetic difference ▵<SB>C</SB>(x, y). A synthetic difference image Q<SB>C</SB>is produced based on this synthetic difference ▵<SB>C</SB>(x, y). This constitution can eliminate the contribution to the synthetic difference image Q<SB>C</SB>of the pixel with the large absolute value of a difference which causes an artifact. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、画像処理方法および装置ならびにプログラムに関し、より詳細には、同一の被検体を表す複数の画像間で被検体の位置合わせを行い、位置合わせ後の画像間の差分を表す画像を生成する方法および装置ならびにコンピュータにこの方法を行わせるプログラムに関するものである。   The present invention relates to an image processing method, apparatus, and program, and more specifically, aligns a subject between a plurality of images representing the same subject, and generates an image representing a difference between the images after the alignment. And a program for causing a computer to perform this method.

従来、同一被写体についての2以上の画像を比較読影して、両画像間の差異を調べ、その差異に基づいて被写体の検査などを行うことが、種々の分野において行われている。例えば工業製品の製造分野においては、ある製品について新品の状態の時に撮影された画像と、当該製品の耐久試験後に撮影された画像とを比較読影して、両者の差異の大きな部位に注目することにより、製品の耐久性を向上させるべき部位を検討することが行われており、また、医療分野においては、ある患者の疾患部位について異なる時期に撮影された複数枚の放射線画像を医師が比較読影することにより、当該疾患の進行状況や治癒状況を把握して治療方針を検討することが行われている。   2. Description of the Related Art Conventionally, in various fields, two or more images of the same subject are comparatively read and checked for a difference between both images, and the subject is inspected based on the difference. For example, in the field of manufacturing industrial products, an image taken when a product is new and an image taken after an endurance test of the product are comparatively read and attention is paid to areas where the difference between the two is large. In the medical field, doctors compare and interpret multiple radiographic images taken at different times for a diseased part of a patient in the medical field. By doing so, it is carried out to grasp the progress and cure status of the disease and to examine the treatment policy.

このような2以上の画像の比較読影を支援する技術として経時サブトラクション技術が知られている。経時サブトラクション技術とは、撮影時期の異なる同一被写体を表す複数の画像間の位置合わせを行い、差分画像を生成し、経時変化部分を抽出、強調する技術である。具体的には、2つの画像間の全体的なシフト量(位置ずれ量)を検出する概略的な位置合わせ処理(グローバルマッチング)を行った後、両画像中の局所領域毎のシフト量を検出し、それに基づき各画素のシフト量を決定する局所的な位置合わせ処理(ローカルマッチング)を行い、決定された各画素のシフト量に基づき一方の画像に対して非線形歪変換処理(ワーピング)を行うことによって両画像中の被写体の位置合わせを行う。そして、非線形歪変換処理された一方の画像と他方の画像との差分処理を行うことによって差分画像を生成する。これにより、2つの画像を比較的良好に位置合わせすることが可能になる(例えば、特許文献1、2、3、4、非特許文献1)
しかしながら、この経時サブトラクション技術は、あくまでも2次元に投影した後の画像間の位置合わせを実現する技術であり、撮影時の被写体の3次元的な体位変化(例えば、患者の前傾、後傾、回旋)に対応することは原理的に不可能であった。また、大きな状態変化に対応することも非常に困難であった。例えば、人間の胸部の経時変化の観察のために、胸部放射線画像に対して経時サブトラクションを適用した場合、呼吸相の変化により肺野サイズに1〜2cm以上の大きな変化があると、差分画像中の横隔膜下付近に大きな位置ずれアーチファクト(偽像)が生じてしまう。
A time-lapse subtraction technique is known as a technique for supporting comparative interpretation of two or more images. The temporal subtraction technique is a technique for performing alignment between a plurality of images representing the same subject at different shooting times, generating a differential image, and extracting and emphasizing a temporally changing portion. Specifically, after performing a rough alignment process (global matching) that detects the overall shift amount (position shift amount) between two images, the shift amount for each local region in both images is detected. Then, local alignment processing (local matching) for determining the shift amount of each pixel is performed based on that, and nonlinear distortion conversion processing (warping) is performed on one image based on the determined shift amount of each pixel. Thus, the subject in both images is aligned. Then, a difference image is generated by performing a difference process between the one image subjected to the nonlinear distortion conversion process and the other image. Thereby, it becomes possible to align two images relatively well (for example, Patent Documents 1, 2, 3, 4, Non-Patent Document 1).
However, this temporal subtraction technique is a technique that realizes alignment between images after being projected in two dimensions, and is a three-dimensional change in the position of the subject at the time of imaging (for example, forward tilt, backward tilt of the patient, It was impossible in principle to deal with (rotation). Also, it was very difficult to cope with a large change in state. For example, when temporal subtraction is applied to a chest radiograph for observing changes in the human chest over time, if there is a large change in lung field size of 1 to 2 cm due to changes in the respiratory phase, A large misalignment artifact (false image) occurs near the diaphragm.

このような問題を解決するために、本出願人は、患者の体位や呼吸相をコントロールしながら撮影をして取得した複数の過去画像と複数の現在画像のすべての組合せについて、両画像の一致性を表す指標値を算出し、最も一致性の高い組合せを抽出し、この一致性の高い組合せを構成する現在画像と過去画像について位置合わせ処理を行い、位置合わせ後の両画像の差分を表す画像を生成することを提案している(例えば、特許文献5)。
特開平7-37074号公報 特開平8-335271号公報 特開2001-157675号公報 特開2002-032735号公報 特開2005-012248号公報 A.Kano, K.Doi, H.MacMahon, D.Hassell, M.L.Giger, “Digital image subtraction of temporally sequential chest images for detection of interval change”,(米国), Medical Physics, AAPM, Vol.21, Issue 3, March 1994, p.453-461
In order to solve such a problem, the applicant of the present application agrees that both images are the same for all combinations of a plurality of past images and a plurality of current images acquired by controlling the patient's posture and respiratory phase. The index value representing the sex is calculated, the combination with the highest matching is extracted, the registration processing is performed on the current image and the past image constituting the combination with the highest matching, and the difference between the two images after the registration is expressed. It is proposed to generate an image (for example, Patent Document 5).
JP-A-7-37074 JP-A-8-335271 JP 2001-157675 A JP 2002-032735 A Japanese Patent Laid-Open No. 2005-012248 A.Kano, K.Doi, H.MacMahon, D.Hassell, MLGiger, “Digital image subtraction of temporally sequential chest images for detection of interval change”, (USA), Medical Physics, AAPM, Vol.21, Issue 3, March 1994, p.453-461

しかしながら、この特許文献5記載の方法では、画像の単位で最適な組合せを選択しているが、実際には、画像中の局所領域レベルでは最適な組合せとなっていないこともあるため、位置合わせの精度向上や、差分画像中のアーチファクトの軽減の点で、さらなる改善の余地がある。   However, in the method described in Patent Document 5, an optimal combination is selected for each image unit. However, in practice, the optimal combination may not be obtained at the local region level in the image. There is room for further improvement in terms of improvement in accuracy and reduction of artifacts in the difference image.

本発明は、上記事情に鑑みてなされたものであり、同一被検体を表す2以上の画像からなる第1の画像群と第2の画像との間での画像中の被検体の位置合わせを行い、位置合わせ後の第1の画像群と第2の画像との差分画像を生成する際に、被検体の姿勢や状態の変化にかかわらず、より精度の高い差分画像を生成する方法および装置ならびにプログラムを提供することを目的とするものである。   The present invention has been made in view of the above circumstances, and aligns a subject in an image between a first image group composed of two or more images representing the same subject and a second image. A method and an apparatus for generating a difference image with higher accuracy regardless of a change in posture or state of the subject when generating a difference image between the first image group and the second image after registration The purpose is to provide a program.

本発明による画像処理方法は、同一被検体を表す2以上の画像からなる第1の画像群の各々の画像中の被検体の位置を、第1の画像群と同じ被検体を表す第2の画像に含まれる被検体の位置に合わせる位置合わせ処理を行い、位置合わせ処理後の第1の画像群の各々の画像の画素毎に、第2の画像中の対応する画素との画素値の差分を求め、求められた差分を、位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成することによって、第1の画像群と第2の画像との差分を表す合成差分画像を生成することを特徴とする。   According to the image processing method of the present invention, the position of the subject in each image of the first image group composed of two or more images representing the same subject is set to the second one representing the same subject as the first image group. Alignment processing is performed to match the position of the subject included in the image, and for each pixel of each image in the first image group after the alignment processing, the difference in pixel value from the corresponding pixel in the second image And, for each corresponding pixel of each image in the first image group after the alignment process, the calculated difference is weighted so that the contribution becomes smaller as the absolute value of the difference increases. Thus, a composite difference image representing a difference between the first image group and the second image is generated.

また、本発明による画像処理装置は、この方法を実現するものである。すなわち、同一被検体を表す2以上の画像からなる第1の画像群の各々の画像中の被検体の位置を、第1の画像群と同じ被検体を表す第2の画像に含まれる被検体の位置に合わせる位置合わせ手段と、位置合わせ処理後の第1の画像群の各々の画像の画素毎に、第2の画像中の対応する画素との画素値の差分を求める差分算出手段と、求められた差分を、位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成することによって、第1の画像群と第2の画像との差分を表す合成差分画像を生成する合成差分画像生成手段とを設けたことを特徴とする。   The image processing apparatus according to the present invention implements this method. That is, the subject included in the second image representing the same subject as the first image group is the position of the subject in each image of the first image group composed of two or more images representing the same subject. Positioning means for matching the position of the first image group, difference calculation means for obtaining a pixel value difference with a corresponding pixel in the second image for each pixel of each image of the first image group after the positioning process; The obtained difference is weighted and synthesized so that the contribution becomes smaller as the absolute value of the difference is larger for each corresponding pixel of each image in the first image group after the alignment process, There is provided a composite difference image generation means for generating a composite difference image representing a difference between one image group and the second image.

さらに、本発明による画像処理プログラムは、コンピュータに上記の方法を行わせる(上記の各手段として機能させる)ものである。すなわち、コンピュータを、同一被検体を表す2以上の画像からなる第1の画像群の各々の画像中の被検体の位置を、第1の画像群と同じ被検体を表す第2の画像に含まれる被検体の位置に合わせる位置合わせ手段と、位置合わせ処理後の第1の画像群の各々の画像の画素毎に、第2の画像中の対応する画素との画素値の差分を求める差分算出手段と、求められた差分を、位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成することによって、第1の画像群と第2の画像との差分を表す合成差分画像を生成する合成差分画像生成手段として機能させることを特徴とする。   Furthermore, an image processing program according to the present invention causes a computer to perform the above method (functions as each of the above means). That is, the computer includes the position of the subject in each image of the first image group composed of two or more images representing the same subject in the second image representing the same subject as the first image group. Difference calculation for obtaining a difference between a pixel value of a corresponding pixel in the second image for each pixel of each image in the first image group after the alignment processing, The means and the calculated difference are weighted for each corresponding pixel of each image in the first image group after the alignment process so that the contribution is reduced as the absolute value of the difference is increased. To function as a composite difference image generation means for generating a composite difference image representing a difference between the first image group and the second image.

次に、本発明の詳細について説明する。   Next, details of the present invention will be described.

本発明の画像処理の適用例としては、人体の胸部を表す医用画像を処理対象とし、第1の画像群は過去に撮影された過去画像、第2の画像は読影対象の現在画像として、過去画像の撮影時点から現在までの胸部の経時的変化を表す差分画像を生成し、読影者による、画像中の病変を表す異常陰影の有無の診断に供することが考えられる。   As an application example of the image processing of the present invention, a medical image representing the chest of a human body is a processing target, a first image group is a past image captured in the past, a second image is a past image as a current image to be interpreted, It is conceivable to generate a differential image representing the change in the chest over time from the time when the image is taken to the present time, and to use it for the diagnosis of the presence or absence of an abnormal shadow representing a lesion in the image.

「位置合わせ処理」は、処理対象の2つの画像中の被検体の位置に注目し、画素毎の位置の対応関係を求め、画素毎に一方の画像から他方の画像へのシフト量を求める処理であることが好ましい。具体例としては、前述の特許文献や非特許文献記載の経時サブトラクション技術により、2つの画像間の全体的なシフト量(位置ずれ量)を検出して線形変換を行う概略的な位置合わせ処理(グローバルマッチング)を行った後、両画像中の局所領域毎のシフト量を検出し、それに基づき各画素のシフト量を決定する局所的な位置合わせ処理(ローカルマッチング)を行い、決定された各画素のシフト量に基づき一方の画像に対して非線形歪変換処理(ワーピング)を行うことによって位置合わせを行う方法が考えられる。なお、位置合わせ手法は、このような線形と非線形の位置合わせを組み合わせて行うものであってもよいし、線形または非線形の位置合わせのいずれか一方のみを行うものであってもよい。   “Alignment process” is a process of paying attention to the position of the subject in the two images to be processed, obtaining the correspondence between the positions of each pixel, and obtaining the shift amount from one image to the other image for each pixel. It is preferable that As a specific example, a rough alignment process (linear displacement is performed by detecting an overall shift amount (position shift amount) between two images by the temporal subtraction technique described in the above-mentioned patent document and non-patent document ( After performing global matching, local shift processing (local matching) is performed to detect the shift amount for each local region in both images, and to determine the shift amount of each pixel based on the detected shift amount. A method of performing alignment by performing non-linear distortion conversion processing (warping) on one image based on the shift amount is considered. Note that the alignment method may be performed by combining such linear and nonlinear alignment, or may perform only one of linear or nonlinear alignment.

「差分を、位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成する」処理では、差分の絶対値に応じて連続的に重みづけを行ってもよいし、不連続的な重みづけであってもよい。不連続的な重みづけの例としては、差分の絶対値の最小値を合成差分画像の対応する画素の画素値とし、他の差分の値は重みづけを0とすることや、差分の絶対値が所定の閾値より大きいものは重みづけを0とし、絶対値がその閾値以下の差分は均等に重みづけて、すなわち、絶対値がその閾値以下の差分の平均値を求めて、合成差分画像の対応する画素の画素値とすることが考えられる。   In the process of “combining the differences by weighting so that the contribution becomes smaller as the absolute value of the difference is larger” for each corresponding pixel of each image in the first image group after the alignment process, The weighting may be performed continuously according to the absolute value or may be a discontinuous weighting. As an example of discontinuous weighting, the minimum value of the absolute value of the difference is the pixel value of the corresponding pixel of the composite difference image, and the other difference values are weighted to 0, or the absolute value of the difference Is greater than a predetermined threshold, the weight is set to 0, and differences whose absolute value is less than or equal to the threshold are weighted equally, that is, the average value of the differences whose absolute value is less than or equal to the threshold is obtained, The pixel value of the corresponding pixel can be considered.

また、位置合わせ処理後の第1の画像群の各々の画像毎に、画像中の各画素における前記の差分の絶対値の散布度を求め、散布度が所定の基準を満たす程度に小さい画像を選択し、選択された画像と第2の画像との差分を表す合成差分画像を生成するようにしてもよい。ここで、「散布度」とは、差分の絶対値の散らばりの度合であり、具体的な指標値の例としては、分散や標準偏差が挙げられる。また、「散布度が所定の基準を満たす程度に小さい画像を選択」の具体例としては、散布度が所定の閾値よりも小さい画像を選択することや、散布度が小さい順に所定の数の画像を選択することが考えられる。このようにして選択された画像が単数の場合には、その選択された画像と第2の画像との差分による画像が合成差分画像であり、このようにして選択された画像が複数ある場合には、例えば、選択された画像中の対応する画素毎に、前記の差分の絶対値の最小値を合成差分画像の対応する画素の画素値として合成差分画像を生成してもよいし、選択された画像中の対応する画素毎に、前記の差分の平均値を合成差分画像の対応する画素の画素値として合成差分画像を生成してもよい。この他、選択された各々の画像の対応する画素毎に、差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成するのであれば、どのようにして合成差分画像の対応する画素の画素値を決定してもよい。なお、位置合わせ処理により画像中の被検体の位置が完全に一致した場合には、この差分の散布度は0になるのに対して、この差分の散布度が大きいほど、差分が大きい部分と小さい部分が混在し、位置合わせの精度が低いことを意味する。したがって、前記の差分の散布度が所定の基準を満たす程度に小さい画像を選択し、選択された画像に基づいて合成差分画像を生成すれば、差分が大きい部分を排除して合成差分画像を生成することになり、これは、「差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成する」ことと同じことを意味する。   Further, for each image in the first image group after the alignment processing, the dispersion degree of the absolute value of the difference in each pixel in the image is obtained, and an image that is small enough to satisfy the predetermined standard is obtained. You may make it produce | generate and produce | generate the synthetic | combination difference image showing the difference of the selected image and a 2nd image. Here, the “dispersion degree” is the degree of dispersion of the absolute value of the difference, and examples of specific index values include dispersion and standard deviation. In addition, as a specific example of “selecting an image whose degree of dispersion satisfies a predetermined criterion”, an image whose degree of dispersion is smaller than a predetermined threshold is selected, or a predetermined number of images in order of increasing degree of dispersion. Can be considered. When there is a single image selected in this way, an image based on the difference between the selected image and the second image is a composite difference image, and when there are a plurality of images selected in this way. For example, for each corresponding pixel in the selected image, a composite difference image may be generated or selected by using the minimum value of the absolute value of the difference as the pixel value of the corresponding pixel of the composite difference image. For each corresponding pixel in the image, the composite difference image may be generated using the average value of the differences as the pixel value of the corresponding pixel in the composite difference image. In addition, for each corresponding pixel of each selected image, if the weighting is combined so that the contribution becomes smaller as the absolute value of the difference is larger, how is the corresponding pixel of the combined difference image? The pixel value may be determined. Note that when the position of the subject in the image is completely matched by the alignment processing, the scatter degree of this difference is 0, whereas the greater the scatter degree of this difference is, the larger the difference is. This means that small parts are mixed and the accuracy of alignment is low. Therefore, if an image that is small enough to satisfy the predetermined standard is selected and a composite difference image is generated based on the selected image, a portion having a large difference is excluded and a composite difference image is generated. This means the same thing as “combining weights so that the contribution becomes smaller as the absolute value of the difference is larger”.

本発明の画像処理方法および装置ならびにプログラムでは、同一被検体を表す2以上の画像からなる第1の画像群の各々と第2の画像との間で位置合わせ処理を行い、位置合わせ処理後の第1の画像群の各々の画像の画素毎に、第2の画像中の対応する画素との画素値の差分を求め、求められた差分を、位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成することによって、第1の画像群と第2の画像との差分を表す合成差分画像を生成する。   In the image processing method, apparatus, and program of the present invention, alignment processing is performed between each of the first image group including two or more images representing the same subject and the second image, and after the alignment processing For each pixel of each image in the first image group, a difference in pixel value from the corresponding pixel in the second image is obtained, and the obtained difference is determined for each of the first image group after the alignment processing. For each corresponding pixel of the image of, a composite difference image representing the difference between the first image group and the second image is synthesized by weighting and combining so that the contribution becomes smaller as the absolute value of the difference is larger. Generate.

図1は、この処理による効果を模式的に表したものである。図1(a)は、第1の画像群の2つの画像Pn1、Pn2と第2の画像PAの一方向における各位置での画素値を表している。また、図1(b)は、上記の各位置における第2の画像PAと第1の画像群の画像Pn1との差分、および、第2の画像PAと第1の画像群の画像Pn2との差分の画素値を表している。ここで、第2の画像PAにのみ病変を表す異常陰影が存在するものとし、第2の画像PAと第1の画像群の画像Pn2との間では、位置合わせ処理の結果、位置ズレが生じており、両画像の差分による画像ではアーチファクトとなって現れるものとする。 FIG. 1 schematically shows the effect of this process. FIGS. 1 (a) represents the pixel value at each position two images P of the first image group n1, P n2 and the direction of the second image P A. 1 (b) is the difference between the images P n1 of the second image P A in the first image group at each position of the above, and the second image P A in the first image group in the image The pixel value of the difference from P n2 is represented. Here, it is assumed that abnormal shadow representing a lesion only the second image P A is present, between the second image P A in the first image P n2 of images, the alignment processing results, the position It is assumed that there is a deviation and an image due to the difference between the two images appears as an artifact.

図1(b)において、差分画素値を、位置合わせ処理後の第1の画像群の各々の画像Pn1、Pn2の対応する画素毎に、差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成すれば、差分の絶対値の大きい、画像Pn2との差分におけるアーチファクトの部分は、合成差分画像の画素値への寄与が小さくなり、合成差分画像中のアーチファクトが軽減される。 In FIG. 1B, the contribution of the difference pixel value becomes smaller as the absolute value of the difference is larger for each corresponding pixel of each of the images P n1 and P n2 of the first image group after the alignment processing. If the image is weighted and synthesized, the artifact portion in the difference from the image P n2 having a large absolute value of the difference has a small contribution to the pixel value of the synthesized difference image, and the artifact in the synthesized difference image is reduced. The

一方、画像PAと画像Pn2との間で位置ズレが生じていない部分の中には、画像PAと画像Pn1との間よりも位置合わせ精度の高い部分もあり、このような部分では、差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成することにより、より位置合わせ精度の高い画像PAと画像Pn2の差分による画素値の合成差分画像の画素値への寄与が大きくなる。このように、第1の画像群の各画像の局所領域や画素毎に位置合わせの精度が高くなるように合成差分画像を生成することにより、合成差分画像の精度が向上する。 On the other hand, among the portions where no positional deviation occurs between the image P A and the image P n2 , there is a portion with higher alignment accuracy than between the image P A and the image P n1. In this case, weighting is performed so that the contribution becomes smaller as the absolute value of the difference is larger, whereby the pixel value of the combined difference image of the pixel value based on the difference between the image P A and the image P n2 with higher alignment accuracy is obtained. The contribution of increases. In this way, the accuracy of the combined difference image is improved by generating the combined difference image so that the alignment accuracy is increased for each local region or pixel of each image in the first image group.

なお、画像PAの異常陰影部分については、Pn1、Pn2のどちらの画像との差分も大きいため、差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成しても、合成差分画像の大幅に軽減されることはない。さらに、実際には、異常陰影部分の差分画素値は、被検体の構造物の位置ズレによるアーチファクトによる差分画素値よりは大きくならないため、重みづけのルールを適切に設定することにより、異常陰影部分の差分の画素値は軽減されないようにすることも可能である。 Note that the abnormal shadow portion of the image P A has a large difference from both of the images P n1 and P n2 , and therefore, even if weighted so that the contribution becomes smaller as the absolute value of the difference increases, The composite difference image is not greatly reduced. Furthermore, in practice, the difference pixel value of the abnormal shadow portion does not become larger than the difference pixel value due to the artifact due to the positional deviation of the structure of the subject. Therefore, by appropriately setting the weighting rule, the abnormal shadow portion It is also possible not to reduce the pixel value of the difference.

以上のように、本発明による画像処理を行うことにより、撮影毎の被検体の姿勢の相違や状態の変化によるアーチファクトを軽減し、より精度の高い差分画像を生成することが可能になり、診断精度や診断効率の向上に資する。   As described above, by performing image processing according to the present invention, it is possible to reduce artifacts due to differences in the posture of the subject for each radiographing and changes in the state, and to generate a more accurate differential image. Contributes to improved accuracy and diagnostic efficiency.

以下、図面を参照しつつ、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図2は、本発明の実施形態となる胸部画像診断支援システムの構成の概要を示したものである。図に示すように、画像撮影・読取システム20と、画像管理システム30、画像処理システム10、画像表示システム40が、LAN等のネットワーク50を経由して通信可能な状態で接続されている。   FIG. 2 shows an outline of the configuration of the chest image diagnosis support system according to the embodiment of the present invention. As shown in the figure, an image capturing / reading system 20 and an image management system 30, an image processing system 10, and an image display system 40 are connected in a communicable state via a network 50 such as a LAN.

画像撮影・読取システム20は、患者の胸部を撮影した放射線画像を取得するものであり、CR(Computed Radiography)装置21や、FPDを搭載したX線画像デジタル撮影装置(以下、FPD装置という)22等が含まれる。   The image photographing / reading system 20 acquires a radiographic image obtained by photographing a patient's chest, and a CR (Computed Radiography) device 21 or an X-ray image digital photographing device (hereinafter referred to as an FPD device) 22 equipped with an FPD. Etc. are included.

画像処理システム10は、画像撮影・読取システム20で撮影された放射線画像に対して画像処理を行い、診断者の読影に適した画像を生成するものであり、画像処理サーバ11等が含まれる。本発明の画像処理方法(装置)は、この画像処理サーバ11に実装される。   The image processing system 10 performs image processing on the radiographic image captured by the image capturing / reading system 20 to generate an image suitable for interpretation by a diagnostician, and includes an image processing server 11 and the like. The image processing method (apparatus) of the present invention is mounted on this image processing server 11.

画像管理システム30は、画像撮影・読取システム20や画像処理システム10で生成された画像を保存・管理するものであり、画像管理サーバ31と大容量外部記憶装置32、データベース管理ソフトウェア(例えば、ORDB(Object Relational DataBase)管理ソフトウェア)等が含まれる。各画像は、被検者ID、被検者名、性別、生年月日等の被検者情報や、検査日時、検査部位、検査結果等の検査情報等と関連づけられて、データベース管理ソフトウェアによる管理の下で、大容量外部記憶装置32に記憶されている。   The image management system 30 stores and manages images generated by the image capturing / reading system 20 and the image processing system 10, and includes an image management server 31, a large-capacity external storage device 32, and database management software (for example, ORDB). (Object Relational DataBase) management software). Each image is associated with subject information such as subject ID, subject name, gender, date of birth, and examination information such as examination date and time, examination site, examination result, etc., and is managed by database management software Is stored in the large-capacity external storage device 32.

画像表示システム40は、画像撮影・読取システム20や画像処理システム10で生成された画像を表示するものであり、クライアントPC41や高精細液晶ディスプレイ42等が含まれる。また、クライアントPC41のキーボードやマウス等の入力装置を用いて、読影対象の画像やその画像に対する画像処理方法等の読影条件の設定を行うことも可能になっている。   The image display system 40 displays an image generated by the image capturing / reading system 20 or the image processing system 10, and includes a client PC 41, a high-definition liquid crystal display 42, and the like. It is also possible to set interpretation conditions such as an image to be interpreted and an image processing method for the image using an input device such as a keyboard and a mouse of the client PC 41.

本発明の実施形態となる画像処理方法(装置)は、過去に撮影された、被検者の胸部を表す2以上の医用画像(過去画像)P1からPNからなる過去画像群の各々の画像と、読影対象となる、過去画像群と同じ被験者の胸部を表す画像(読影対象画像)PAとの間での位置合わせを行い、位置合わせ後の過去画像群と読影対象画像との差分を表す合成差分画像Qcを生成する機能を実現するものである。 An image processing method (apparatus) according to an embodiment of the present invention includes a past image group including two or more medical images (past images) P 1 to P N representing a chest of a subject that have been photographed in the past. image, the interpreted performs alignment between the image (image to be interpreted) P a representing the chest of the same subject in the past image group, the difference between the past image group and the image to be interpreted after the positioning The function which produces | generates the synthetic | combination difference image Qc showing is realized.

図3は、本発明の実施形態となる上記の画像処理機能が実装される画像処理サーバ11の論理的な構成とデータの流れとを表したブロック図である。図に示すように、画像管理システム30から、過去画像群の各々の過去画像P1からPNと読影対象画像PAとを取得する取得手段1と、過去画像群の各々の画像Pn(n=1,2,・・・,N)中の胸部の位置を、読影対象画像PAに含まれる胸部の位置に合わせる位置合わせ手段2と、位置合わせ処理後の過去画像群の各々の画像Pn″の画素(x,y)(x=1,2,・・・,X、y=1,2,・・・,Y)毎に、読影対象画像PA中の対応する画素との差分△n(x,y)を求める差分算出手段3と、求められた差分△n(x,y)を、位置合わせ処理後の過去画像群の各々の画像Pnの対応する画素毎に、差分△n(x,y)の絶対値が大きいほど寄与が小さくなるように重みづけして合成することによって、過去画像群(P1からPN)と読影対象画像PAとの差分を表す合成差分画像Qcを生成する合成差分画像生成手段4と、合成差分画像Qcと読影対象画像PAとをクライアントPC41に送信する送信手段5から構成される。 FIG. 3 is a block diagram showing a logical configuration and a data flow of the image processing server 11 in which the image processing function according to the embodiment of the present invention is implemented. As shown, the image management system 30, from the past image P 1 of each of the past images and acquiring means 1 for acquiring and P N and interpretation target image P A, each of the past images of the image P n ( n = 1, 2,..., N) The position of the chest in the interpretation target image PA and the position adjustment means 2 for matching the position of the chest in the interpretation target image P A and each image of the past image group after the position alignment processing P n pixels "(x, y) (x = 1,2, ···, X, y = 1,2, ···, Y) for each of the corresponding pixel in the image to be interpreted P a difference △ n (x, y) and the difference calculation means 3 for determining the, the obtained difference △ n (x, y) and, for each corresponding pixel of the image P n of each of the past images after the positioning process, Table by contributing as the absolute value is large synthesized weighted so as to reduce the difference (from P 1 P n) past images and the image to be interpreted P a difference △ n (x, y) Synthesis difference image generation unit 4 for generating an be combined difference image Q c, a transmitting unit 5 for transmitting and synthesizing the difference image Q c and interpretation target image P A to the client PC 41.

上記の各手段は、CD−ROM等の記憶媒体から画像処理サーバ11にインストールされたプログラムが実行されることによって、画像処理サーバ11のCPU、主記憶装置、外部記憶装置、入出力インターフェース、オペレーティングシステム等と連携して実現される。また、このプログラムによって、上記の各手段による処理順序が制御される。   Each of the above means executes the program installed in the image processing server 11 from a storage medium such as a CD-ROM, thereby executing the CPU, main storage device, external storage device, input / output interface, operating system of the image processing server 11 Realized in cooperation with the system. In addition, the processing order by each of the above means is controlled by this program.

次に、本発明の実施形態において行われる処理の流れについて説明する。   Next, the flow of processing performed in the embodiment of the present invention will be described.

まず、画像撮影・読取システム20において、検査の際に、例えば、FPD装置23によって患者の胸部の撮影が行われ、画像Pn(n=1,2,・・・,N,A)が生成される。生成された画像は、各々、被検者情報や検査情報等の付随情報と関連づけられ、画像毎にファイルに格納されて出力される。出力された画像ファイルは、画像管理システム30にネットワーク50経由で送信される。 First, in the image capturing / reading system 20, at the time of examination, for example, the patient's chest is imaged by the FPD device 23, and an image P n (n = 1, 2,..., N, A) is generated. Is done. Each of the generated images is associated with accompanying information such as subject information and examination information, and each image is stored in a file and output. The output image file is transmitted to the image management system 30 via the network 50.

画像管理システム30では、画像管理サーバ31が、送信されてきた画像ファイルを受信し、データベース管理ソフトウェアで定められたデータ形式、データ構造に基づき、その受信した画像ファイル中の画像データを付随情報と関連づけて大容量外部記憶装置32に記憶する。記憶された画像データは、被検者IDや検査日時等の付随情報の一部または全部を検索キーとして、検索可能な状態となっている。   In the image management system 30, the image management server 31 receives the transmitted image file, and based on the data format and data structure defined by the database management software, the image data in the received image file is used as accompanying information. The data is stored in the large capacity external storage device 32 in association with each other. The stored image data is in a searchable state using part or all of the accompanying information such as the subject ID and the examination date and time as a search key.

読影者は、クライアントPC41の操作により、患者IDや撮影日時等の付随情報と、読影パターン(過去画像との差分による比較読影)とを指定し、処理の実行を要求する。ここで、上記の付随情報を指定することによって過去画像群の画像P1からPNと読影対象画像PAが特定され、読影パターンを指定することによってその読影に必要な画像処理の内容が特定される。 The interpreter designates accompanying information such as patient ID and photographing date and time and an interpretation pattern (comparison interpretation based on a difference from a past image) and requests execution of the process by operating the client PC 41. Here, P N and the image to be interpreted P A from the image P 1 of the past image group by specifying the associated information described above are identified, the contents of the image processing necessary for the image interpretation by specifying the interpretation pattern specific Is done.

クライアントPC41で指定された付随情報と読影パターンは、画像処理サーバ11に送信され、画像処理サーバ11では、受信した読影パターンに基づいて、その読影に必要な画像を生成する画像処理プログラム、すなわち、画像処理サーバ11を図3の各手段として機能させるプログラムが起動される。   The accompanying information and interpretation pattern specified by the client PC 41 are transmitted to the image processing server 11, and the image processing server 11 generates an image necessary for interpretation based on the received interpretation pattern, that is, an image processing program. A program for causing the image processing server 11 to function as each unit in FIG. 3 is started.

図4は、起動された画像処理プログラムによって実行される処理の流れを表すフローチャートである。   FIG. 4 is a flowchart showing the flow of processing executed by the activated image processing program.

まず、プログラム中で使用される制御パラメータの初期化処理によりn=0に設定された後(ステップa1)、取得手段1が、クライアントPC41から受信した付随情報に基づく検索条件による画像管理システム30のデータベースに対する検索要求を送信する。画像管理サーバ31では、受信した検索要求に応じてデータベース検索を行い、検索条件に合致する画像P1からPN、PAを取得し、画像処理サーバ11に送信する。画像処理サーバ11の取得手段1は、画像P1からPN、PAを受信し、画像処理サーバ11の主記憶装置または外部記憶装置に一時的に記憶する(ステップa2)。 First, after n = 0 is set by initialization processing of control parameters used in the program (step a1), the acquisition unit 1 of the image management system 30 based on the search condition based on the accompanying information received from the client PC 41 is used. Send a search request for the database. In the image management server 31 performs a database search in response to the received search request, retrieves the P N, P A from the image P 1 that matches the search condition, and transmits to the image processing server 11. The acquisition unit 1 of the image processing server 11 receives the images P 1 to P N and P A and temporarily stores them in the main storage device or the external storage device of the image processing server 11 (step a2).

次に、画像を識別する添字nの値が1加算され、n=1となった後(ステップa3)、位置合わせ手段2が、画像Pn(=P1)とPAを読み込み、画像P1中の胸部の位置を、読影対象画像PAに含まれる胸部の位置に合わせる位置合わせ処理を行い、位置合わせ処理後の画像P1″を生成する(ステップa4)。ここでは、前述の特許文献1等に記載の経時サブトラクション手法を用いる。以下、詳細に説明する。 Then, the value of subscript n identifies the image is incremented by one, after becoming a n = 1 (step a3), the alignment means 2, image P n (= P 1) and reads the P A, the image P the position of the chest in 1 performs alignment processing to align the position of the breast contained in the image to be interpreted P a, generates an image P 1 "after the positioning process (step a4). here, the aforementioned patents The temporal subtraction method described in Document 1 etc. is used, which will be described in detail below.

まず、画像Pと画像PAとの概略的な位置合わせ処理(グローバルマッチング)を行う。これは、画像P1を画像PAに一致させるように、P1に対してアフィン変換(回転、平行シフト)を施す処理であり、この処理により画像P1は、図5に示すようにP1′に変換される。 First, schematic alignment processing between the image P 1 and the image P A (global matching). This image P 1 so as to coincide with the image P A, affine transformation (rotation, translation shift) with respect to P 1 is a process for performing an image P 1 by this process, P as shown in FIG. 5 Converted to 1 '.

グローバルマッチング処理の完了後、局所的な位置合わせ処理(ローカルマッチング)を行う。   After the global matching process is completed, a local alignment process (local matching) is performed.

具体的には、図6に示すように、画像PAを横I×縦J個の局所領域RA[1,1]からRA[I,J]に分割し、各局所領域の中心画素をそれぞれx−y座標系(x,y)により表す。また、画像P1′に探索ROIR1'[1,1]、・・・、R1'[i,j]、・・・、R1'[I,J]を設定する。この探索ROIは、画像PAの各局所領域RA[1,1]からRA[I,J]に対応して設定され、同一の中心座標(x,y)を有し、各局所領域RA[1,1]からRA[I,J]よりも大きい領域である。ここでは、各局所領域RA[1,1]からRA[I,J]の4倍(縦横ともに2倍)の大きさの領域としている。 Specifically, as shown in FIG. 6, the image P A is divided into horizontal I × longitudinal J local areas R A [1,1] to R A [I, J], and the central pixel of each local area is divided. Are represented by an xy coordinate system (x, y). Also, search ROIR 1 '[1, 1], ..., R 1 ' [i, j], ..., R 1 '[I, J] are set in the image P 1 '. This search ROI is set corresponding to each local area R A [1,1] to R A [I, J] of the image P A and has the same center coordinates (x, y). The region is larger than R A [1,1] to R A [I, J]. Here, it is assumed that each local region R A [1,1] to R A [I, J] is a region that is four times as large (twice both vertically and horizontally).

画像P1′に設定された各探索ROIの中で、画像PAの各局所領域RA[1,1]からRA[I,J]を移動させて、局所領域のマッチング度合いが最も高くなる位置(各局所領域RA[1,1]からRA[I,J]の中心位置(x′,y′))を探索ROI毎に求める。マッチング度合いの高低を示す指標値としては、最小自乗法や相互相関による指標値を用いることができる。 Among the search ROIs set in the image P 1 ′, RA A [I, J] is moved from each local region R A [1,1] of the image P A , and the matching degree of the local region is the highest. The position (center position (x ′, y ′) of R A [I, J] from each local area R A [1,1]) is obtained for each search ROI. As the index value indicating the level of matching, an index value based on the least square method or cross-correlation can be used.

そして、各局所領域RA[1,1]からRA[I,J]の中心画素(x,y)毎のシフト値(Δx,Δy)(ただし、Δx=x′−x,Δy=y′−y)を求める。図7は、画像PAと画像P1′の各局所領域の中心画素(x,y)と(x′,y′)、画像間での変位△1[1,1]を模式的に表したものである。さらに、中心画素(x,y)毎のシフト値(Δx,Δy)を用いて、画像P1′の全ての画素に対するシフト値(Δx,Δy)を求めるために、2次元10次のフィッティング多項式による近似処理を行い、得られた画素毎のシフト値(Δx,Δy)に基づいて、画像P1′の各画素(x,y)をシフトさせる非線形歪変換処理(ワーピング)を画像P1′に対して施して位置合わせ後の画像P1″を生成する。 A shift value (Δx, Δy) for each central pixel (x, y) of each local region R A [1,1] to R A [I, J] (where Δx = x′−x, Δy = y). '-Y) is obtained. FIG. 7 schematically shows the central pixels (x, y) and (x ′, y ′) of each local region of the images P A and P 1 ′, and the displacement Δ 1 [1,1] between the images. It is a thing. Further, a two-dimensional tenth-order fitting polynomial is used to obtain shift values (Δx, Δy) for all the pixels of the image P 1 ′ using the shift values (Δx, Δy) for each central pixel (x, y). performs approximation processing by, based on a shift value for each pixel obtained ([Delta] x, [Delta] y), the image P 1 'each pixel of the (x, y) nonlinear distortion conversion process of shifting the (warping) of the image P 1' To generate an image P 1 ″ after alignment.

以上のようにして画像P1とPAの位置合わせ処理が終了したら、差分算出手段3が、画像P1″の画素(x,y)毎に、画像PA中の対応する画素との差分△1(x,y)を求める(ステップa5)。 When the alignment processing between the images P 1 and P A is completed as described above, the difference calculating unit 3 calculates the difference between the pixel (x, y) of the image P 1 ″ and the corresponding pixel in the image P A. Δ 1 (x, y) is obtained (step a5).

そして、画像を識別する添字nの値が1加算され、n=2となった後(ステップa6, a3)、上記と同様にして、位置合わせ手段2による画像P2とPAの位置合わせ処理(ステップa4)、差分算出手段による画像P2″とPAの差分△2(x,y)の算出(ステップa5)が行われ、さらに、同様の処理がn=Nになるまで繰り返され(ステップa6)、最終的に、差分△1(x,y)から△N(x,y)が得られる。 Then, the value of subscript n identifies the image is incremented by one, after becoming a n = 2 (step a6, a3), in the same manner as described above, the position adjustment process of images P 2 and P A by the alignment means 2 (step a4), the calculation of the difference △ 2 image P 2 "and P a by the difference calculating means (x, y) (step a5) is carried out, further, is repeated until the same process is n = n ( Step a6) Finally, Δ N (x, y) is obtained from the difference Δ 1 (x, y).

合成差分画像生成手段4は、各差分△1(x,y)から△N(x,y)に基づいて合成差分△c(x,y)を求める(ステップa7)。具体的には、各差分の対応する位置(座標)毎に、差分の絶対値が最小となるものを選択し、合成差分△c(x,y)とする。 The composite difference image generation means 4 obtains a composite difference Δ c (x, y) based on each difference Δ 1 (x, y) to Δ N (x, y) (step a7). Specifically, for each corresponding position (coordinate) of each difference, the one having the smallest absolute value of the difference is selected and set as the combined difference Δ c (x, y).

さらに、合成差分画像生成手段4は、合成差分△c(x,y)に基づいて合成差分画像Qcを生成する(ステップa8)。具体的には、次式(1)により合成差分画像Qcの各画素の画素値Qc(x、y)を求める。
c(x、y)=cont・△c(x,y)+mid ・・・(1)
ただし、cont:差分の強調度を表す係数
mid:画像の階調数の中間値(10bit画像では、mid=512)
送信手段5は、生成された合成差分画像Qcと読影対象画像PAの画像データをクライアントPC41に送信する(ステップa9)。
Further, the synthesized difference image generating means 4 generates a synthesized difference image Q c based on the synthesized difference Δ c (x, y) (step a8). Specifically, the pixel value Q c (x, y) of each pixel of the composite difference image Q c is obtained by the following equation (1).
Q c (x, y) = cont · Δ c (x, y) + mid (1)
Where cont is a coefficient that expresses the degree of difference enhancement
mid: Intermediate value of the number of gradations of the image (mid = 512 for 10-bit images)
Transmission means 5 transmits the image data of the generated synthesized difference image Q c and interpretation target image P A to the client PC 41 (step a9).

クライアントPC41は、画像処理サーバ11から受信した画像データに基づいて合成差分画像Qcと読影対象画像PAを高精細液晶ディスプレイ42に表示させる。図8(c)、(b)は表示される画像を模式的に表したものである。 Client PC41 displays the synthesized difference image Q c and interpretation target image P A on the basis of the image data received from the image processing server 11 to the high-resolution liquid crystal display 42. FIGS. 8C and 8B schematically show displayed images.

以上のように、本発明の実施形態では、画像処理サーバ11において、位置合わせ手段2が、過去画像群の各々の画像P1からPNと読影対象画像PAとの間で位置合わせ処理を行い、差分算出手段3が、位置合わせ処理後の過去画像群の各々の画像P1″からPN″の画素毎に、読影対象画像PA中の対応する画素との差分△1(x、y)から△N(x、y)を求め、合成差分画像生成手段4が、画素毎に差分△1(x、y)から△N(x、y)の絶対値の最小値を合成差分△c(x、y)とし、この合成差分△c(x、y)に基づいて合成差分画像QCを生成する。ここで、合成差分画像生成手段4は、差分△1(x、y)から△N(x、y)の絶対値の最小値を合成差分△c(x、y)とすることから、合成差分画像QCの各画素の画素値の決定には、差分△1(x、y)から△N(x、y)の絶対値が最小のもののみが寄与し、それ以外のものはまったく寄与していないことになる。すなわち、過去画像群中の各画像P1からPNの画素毎に、読影対象画像PAとの位置合わせ精度が最も高いものを選択して、合成差分画像QCを生成したことになる。図8は、このことを模式的に表したものである。図に示したように、本発明による画像処理では、過去画像群の各画像の画素毎に、読影対象画像PAとの位置合わせ精度が最も高いものを選択して生成した画像Pn″(図8(a))と読影対象画像PAとの差分による画像QCを生成したことになる。したがって、被検者の姿勢の相違や状態の変化によるアーチファクトを軽減し、より精度の高い差分画像を生成することが可能になり、診断精度や診断効率の向上に資する。 As described above, in the embodiment of the present invention, in the image processing server 11, the alignment means 2, the alignment processing between the image P 1 of each of the past image group and P N and the image to be interpreted P A performed, the difference calculating unit 3, for each pixel of the "P N from" image P 1 of each of the past images after the positioning process, the difference between the corresponding pixel in the image to be interpreted P a1 (x, y) is obtained from Δ N (x, y), and the composite difference image generating means 4 determines the minimum absolute value of the differences Δ 1 (x, y) to Δ N (x, y) for each pixel. c (x, y), and a synthesized difference image Q C is generated based on this synthesized difference Δ c (x, y). Here, the composite difference image generation means 4 uses the minimum absolute value of the differences Δ 1 (x, y) to Δ N (x, y) as the composite difference Δ c (x, y). In determining the pixel value of each pixel of the image Q C , only the smallest absolute value of the difference Δ 1 (x, y) to Δ N (x, y) contributes, and the others do not contribute at all. Will not be. That is, from the images P 1 for each pixel of the P N in the past images, select the one with the highest positioning accuracy of the image to be interpreted P A, it means that generates a composite difference image Q C. FIG. 8 schematically shows this. As shown, in the image processing according to the present invention, for each pixel of each image of the past image group, the image P n generated by selecting with the highest positioning accuracy of the image to be interpreted P A "( 8 (a)) and the image Q C resulting from the difference between the image to be interpreted P A. Therefore, the difference in posture of the subject and the artifact due to the change in state are reduced, and the difference is more accurate. An image can be generated, which contributes to improvement of diagnosis accuracy and diagnosis efficiency.

なお、上記の説明では、過去画像群の各々の画像P1からPNと読影対象画像PAとの間での位置合わせ処理と差分算出処理を、過去画像群の画像毎に順次行っていたが、図9に示すように、過去画像群の画像毎に並列処理で行うようにしてもよい。すなわち、画像P1からPNとPAを取得した後(ステップb1)、画像P1とPAとの位置合わせ(ステップb2-1)から差分△1(x、y)の算出(ステップb3-1)までの処理を行うと同時に、画像P2とPAとの位置合わせ(ステップb2-2)から差分△2(x、y)の算出(ステップb3-2)までの処理、・・・、画像PnとPAとの位置合わせ(ステップb2-n)から差分△n(x、y)の算出(ステップb3-n)までの処理、・・・、画像PNとPAとの位置合わせ(ステップb2-N)から差分△n(x、y)の算出(ステップb3-N)までの処理を並列的に行って、差分△1(x、y)から△n(x、y)までを同時に算出し、これらに基づいて、合成差分△C(x、y)を算出し(ステップb4)、合成差分画像QCの生成(ステップb5)、画像QC、PAの送信(ステップb6)を行う。この並列処理により処理時間の短縮が図られる。 In the above description, the positioning process and the difference calculation processing between the image P 1 of each of the past image group and P N and the image to be interpreted P A, it was performed sequentially for each image of the past image group However, as shown in FIG. 9, it may be performed by parallel processing for each image in the past image group. That is, after acquiring P N and P A from the image P 1 (step b1), the difference Δ 1 (x, y) is calculated from the alignment (step b2-1) between the images P 1 and P A (step b3). -1) and processing from the alignment of the images P 2 and P A (step b2-2) to the calculation of the difference Δ 2 (x, y) (step b3-2).・ Processing from registration (step b2-n) of images P n and P A to calculation of difference Δ n (x, y) (step b3-n),..., And images P N and P A From the alignment (step b2-N) to the calculation of the difference Δ n (x, y) (step b3-N) in parallel, the difference Δ 1 (x, y) to Δ n (x, y) are calculated at the same time, and based on these, a composite difference Δ C (x, y) is calculated (step b4), a composite difference image Q C is generated (step b5), and images Q C and P A are transmitted. (Su Perform step b6). Processing time can be reduced by this parallel processing.

また、上記の説明では、過去画像群の画像毎に位置合わせ処理と差分の算出を行っていたが、差分の算出および合成差分の算出は、対応する画素毎に行うようにしてもよい。図10、図11はこの場合の処理の流れを表すフローチャートである。図に示したように、パラメータn,m,x,yを初期化して0とし(ステップc1)、取得手段1が画像P1からPNとPAを取得した後(ステップc2)、画像PnとPAの位置合わせを行い、位置合わせ後の画像P1″からPN″を得る(ステップc3からc5)ところまでは上記と同様であるが、その後、位置(1,1)について(ステップc6,c7)、画像P1″と画像PAの画素値の差分△1(1,1)から画像PN″と画像PAの画素値の差分△N(1,1)までを順次算出し(ステップc8からc10)、算出された差分△1(1,1)から△N(1,1)に基づいて、位置(1,1)における合成差分△C(1,1)を算出し(ステップc12)、さらに、位置(2,1)、・・・、(X、1)、(1,2)、・・・、(X,2)、・・・、(1,Y)、・・・、(X,Y)について(ステップc6,c7,c13,c14,c15)、画像P1″と画像PAの画素値の差分△1(x,y)から画像PN″と画像PAの画素値の差分△N(x,y)までを順次算出し(ステップc8からc10)、算出された差分△1(x,y)から△N(x,y)に基づいて、位置(x,y)における合成差分△C(x,y)を算出する(ステップc12)。そして、すべての位置における合成差分△C(x,y)に基づいて合成差分画像QCを生成し(ステップc16)、画像PAとともにクライアントPC41に送信する(ステップc17)。 In the above description, the alignment process and the difference calculation are performed for each image in the past image group. However, the difference calculation and the composite difference calculation may be performed for each corresponding pixel. 10 and 11 are flowcharts showing the flow of processing in this case. As shown in FIG, and the parameter n, m, x, and 0 to initialize the y (step c1), after the acquisition unit 1 acquires the P N and P A from the image P 1 (step c2), the image P aligns n and P a, to obtain a "P n from" image P 1 after the positioning While (from step c3 c5) until it is the same as described above, then the position (1,1) ( Steps c6 and c7), sequentially from the difference Δ 1 (1,1) between the pixel values of the image P 1 ″ and the image P A to the difference Δ N (1,1) between the pixel values of the image P N ″ and the image P A Calculate (steps c8 to c10), and based on the calculated differences Δ 1 (1,1) to Δ N (1,1), calculate the composite difference Δ C (1,1) at the position (1,1). (Step c12), and further, positions (2, 1), ..., (X, 1), (1, 2), ..., (X, 2), ..., (1, Y) , ... , (X, Y) for (step c6, c7, c13, c14, c15), " the difference △ 1 of the pixel values of the image P A (x, y) from the image P N" image P 1 and the image P A The pixel value difference Δ N (x, y) is sequentially calculated (steps c8 to c10), and the position (x, y) is calculated based on the calculated difference Δ 1 (x, y) to Δ N (x, y). The composite difference Δ C (x, y) in y) is calculated (step c12). Then, the composition difference at all positions △ C (x, y) based on the generated composite difference image Q C (Step c16), and transmits together with the image P A to the client PC 41 (Step c17).

さらに、図12に示すように、過去画像群の各々の画像P1からPNと読影対象画像PAとの位置合わせ処理を画像毎に並列して行った後(ステップd3-1からd3-N)、各画像P1からPNと画像PAとの差分△1(x,y)から△N(x,y)の算出および合成差分△C(x,y)の算出を、対応する画素毎に並列して行うようにしてもよい(ステップd4-1からd7-1、d4-2からd7-2、・・・、d4-Kからd7-K;K=X・Yであり、画像中の全画素数を表す)。これにより、合成差分△C(1,1)、・・・、△C(X、1)、△C(1,2)、・・・、△C(X,2)、・・・、△C(1,Y)、・・・、△C(X,Y)が同時に算出されるので、処理時間の短縮が図られる。 Furthermore, as shown in FIG. 12, from (step d3-1 after conducted in parallel from the image P 1 of each of the past images of the position adjustment process of the P N and the image to be interpreted P A for each image d3- N), the calculation of Δ N (x, y) from the difference Δ 1 (x, y) between each image P 1 to P N and the image P A and the calculation of the composite difference Δ C (x, y). It may be performed in parallel for each pixel (steps d4-1 to d7-1, d4-2 to d7-2,..., D4-K to d7-K; K = X · Y, Represents the total number of pixels in the image). Thus, the composite difference Δ C (1,1),..., Δ C (X, 1), Δ C (1,2),..., Δ C (X, 2),. Since C (1, Y),..., Δ C (X, Y) are calculated at the same time, the processing time can be shortened.

また、図13のブロック図に示すように、合成差分画像生成手段4を、差分算出手段3によって算出された過去画像群の各画像P1からPNと読影対象画像PAとの差分△1(x,y)から△N(x,y)に基づいて、過去画像群の画像単位で、差分の絶対値の散布度Vnを求め、散布度Vnが小さいものから3画像(Pn1、Pn2、Pn3)を選択する選択部4aと、選択された3画像(Pn1、Pn2、Pn3)と画像PAとの差分△n1(x,y)、△n2(x,y)、△n3(x,y)に基づいて合成差分△C(x,y)を算出する合成差分算出部4bと、算出された合成差分△C(x,y)に基づいて合成差分画像QCを生成する合成差分画像生成部4cとから構成するようにしてもよい。 Further, as shown in the block diagram of FIG. 13, synthesized the difference image generation unit 4, the difference △ 1 from the images P 1 of the past images calculated by the difference calculation means 3 and P N and the image to be interpreted P A (x, y) on the basis of the △ on n (x, y), the image units of previous images, determine the degree of dispersion V n of the absolute value of the difference, 3 images from those spread of V n is small (P n1 , P n2, P n3) a selection unit 4a for selecting, selected 3 images (P n1, P n2, the difference between P n3) and the image P a △ n1 (x, y ), △ n2 (x, y), △ n3 (x, based on y) synthesis difference △ C (x, a synthetic difference calculation unit 4b for calculating a y), the calculated synthesized difference △ C (x, synthetic differential image based on y) it may be composed of a synthetic difference image generation unit 4c for generating a Q C.

ここで、選択部4aは、まず、△n(x,y)(n=1,2,・・・,N)のうち、肺野領域内の画素における差分について、過去画像群の画像単位で、差分の絶対値の散布度Vnを求める。具体的には、次式(2)に基づいて差分の絶対値の分散を算出する。

Figure 2006247293
Here, the selection unit 4a first determines the difference in the pixels in the lung field region among Δ n (x, y) (n = 1, 2,..., N) in units of images of the past image group. The dispersion degree V n of the absolute value of the difference is obtained. Specifically, the variance of the absolute value of the difference is calculated based on the following equation (2).
Figure 2006247293

なお、画像中の肺野領域の検出方法は、公知の方法(例えば、特開2003−006661号公報に記載の方法)を用いることができる。 Note that a known method (for example, a method described in Japanese Patent Laid-Open No. 2003-006661) can be used as a method for detecting a lung field region in an image.

さらに、選択部4aは、算出した分散V1からVNのうち、値が小さいものから順に3つを選択し、それらに対応する過去画像Pn1、Pn2、Pn3を選択する。なお、選択される画像の数は3に限定されない。また、分散Vnについての所定の閾値ThVを予め設定しておき、分散Vnが閾値ThVよりも小さいものに対応する過去画像を選択するようにしてもよい。 Further, the selection unit 4a among the calculated variance V 1 of the V N, select the three in order of smaller value, selects the past image P n1, P n2, P n3 corresponding to them. Note that the number of images to be selected is not limited to three. Alternatively, it is acceptable to set the predetermined threshold value Th V of the dispersion V n in advance, may be selected past image corresponding to the intended dispersion V n is smaller than the threshold value Th V.

そして、合成差分算出部4bが、選択された過去画像Pn1、Pn2、Pn3の差分△n1(x,y)、△n2(x,y)、△n3(x,y)に基づいて、各差分の対応する位置毎に差分の平均値を合成差分△c(x,y)として算出し、合成差分画像生成部4cが、合成差分△c(x,y)に基づいて、前述の式(1)に基づいて合成差分画像Qcを生成する。なお、合成差分算出部4bは、各差分の対応する位置毎に、差分△n1(x,y)、△n2(x,y)、△n3(x,y)の絶対値の最小値を合成差分△c(x,y)としてもよい。 Then, the composite difference calculation unit 4b is based on the differences Δn 1 (x, y), Δ n2 (x, y), Δ n3 (x, y) of the selected past images P n1 , P n2 , P n3. Then, the average value of the differences is calculated as a composite difference Δ c (x, y) for each position corresponding to each difference, and the composite difference image generation unit 4 c is based on the composite difference Δ c (x, y). The composite difference image Q c is generated based on the equation (1). The composite difference calculation unit 4b calculates the minimum absolute value of the differences Δn 1 (x, y), Δ n2 (x, y), Δ n3 (x, y) for each position corresponding to each difference. The composite difference Δ c (x, y) may be used.

このように、選択部4aが、過去画像群の画像単位で算出した差分の絶対値の散布度Vnが小さい画像を選択することにより、散布度Vnの大きい画像が合成差分画像QCの生成に利用されなくなる。ここで、位置合わせ処理における位置ズレによるアーチファクトの可能性が高い、散布度Vnの大きい画像は、差分△n(x,y)の絶対値の大きい部分を含むものである。したがって、差分△n(x,y)の絶対値の大きい画素が合成差分画像QCの画素値の決定に寄与しなくなり、上記の実施形態と同様の効果が得られる。 Thus, selection portion 4a, by the degree of scattering V n of the absolute value of the difference calculated by the image units of the past image group selects the small image, the large image dispersion degree V n of synthetic difference image Q C It is no longer used for generation. Here, an image with a high degree of dispersion V n that has a high possibility of artifacts due to misalignment in the alignment process includes a portion with a large absolute value of the difference Δ n (x, y). Therefore, the difference △ n (x, y) pixels having large absolute value of not contribute to the determination of the pixel value of the composite difference image Q C, the same effect as the above embodiment can be obtained.

また、合成差分算出部4bが、各差分△n(x,y)の対応する位置毎に差分の平均値を合成差分△c(x,y)として算出するので、差分△n(x,y)の絶対値が最小となるものを合成差分△c(x,y)とする場合と比べて、画像中の画素間の画素値の不連続性が軽減され、合成差分画像QCはより見やすい画像となる。 Moreover, since the synthetic | combination difference calculation part 4b calculates the average value of a difference for every position corresponding to each difference (DELTA) n (x, y) as synthetic | combination difference (DELTA) c (x, y), difference (DELTA) n (x, y) ), The discontinuity of the pixel values between the pixels in the image is reduced, and the composite difference image Q C is easier to see compared to the case where the absolute value of) is the minimum as the composite difference Δ c (x, y). It becomes an image.

上記の実施形態では、差分△n(x,y)に基づいて合成差分△C(x,y)を算出するようにしていたが、次式(1)′により、画像PnとPaの差分を表す差分画像Qnを生成し、差分画像Qn中の各画素の画素値Qn(x,y)と画像の階調数の中間値との差△Qn(x,y)に基づいて、合成差分画像QCの各画素の画素値を決定するようにしてもよい。例えば、各差分画像Qnの対応する位置毎に△Qn(x,y)の絶対値が最小となるものを合成差分画像QCの対応する位置の画素値とすることが考えられる。
n(x、y)=cont・△n(x,y)+mid ・・・(1)′
また、上記の実施形態では、ネットワーク50で接続された画像処理サーバ11とクライアントPC41で処理を分散したシステム構成としていたが、これらの処理を診断用ワークステーションのようなコンピュータ単体で行うようにしてもよい。
In the above embodiment, the difference △ n (x, y) based on the composite difference △ C (x, y) had to calculate the, by the following equation (1) ', the images P n and P a A difference image Q n representing a difference is generated, and based on a difference Δ Qn (x, y) between a pixel value Q n (x, y) of each pixel in the difference image Q n and an intermediate value of the number of gradations of the image. , it may be determined a pixel value of each pixel of the composite difference image Q C. For example, it is conceivable that the pixel value at the corresponding position in the composite difference image Q C is the one having the smallest absolute value of Δ Qn (x, y) for each corresponding position in each difference image Q n .
Q n (x, y) = cont · Δ n (x, y) + mid (1) ′
In the above embodiment, the system configuration is such that the processing is distributed between the image processing server 11 and the client PC 41 connected via the network 50. However, these processing are performed by a single computer such as a diagnostic workstation. Also good.

2つの過去画像と読影対象画像の画素値の分布に基づいて、本発明の効果を模式的に表した図The figure which represented typically the effect of this invention based on distribution of the pixel value of two past images and an image to be interpreted 本発明の実施形態となる胸部画像診断支援システムの構成の概要を示した図The figure which showed the outline | summary of the structure of the chest image-diagnosis assistance system used as embodiment of this invention. 本発明による画像処理機能が実装される画像処理サーバの論理的な構成とデータの流れとを表したブロック図The block diagram showing the logical structure and data flow of the image processing server by which the image processing function by this invention is mounted 本発明による画像処理の流れを表すフローチャートThe flowchart showing the flow of image processing according to the present invention. 位置合わせ手段が行うグローバルマッチング処理を説明する図The figure explaining the global matching process which a positioning means performs 位置合わせ手段が行うローカルマッチング処理を説明する図The figure explaining the local matching process which an alignment means performs 位置合わせ手段が行うローカルマッチング処理により求めた各局所領域の中心画素のシフトの様子を模式的に表した図A diagram schematically showing the shift of the center pixel of each local area obtained by local matching processing performed by the positioning means 本発明の実施形態における、過去画像群と読影対象画像と合成差分画像との関係を模式的に表した図The figure which represented typically the relationship between the past image group, the interpretation target image, and a synthetic | combination difference image in embodiment of this invention. 本発明の画像処理の流れの他の一例を表すフローチャートThe flowchart showing another example of the flow of the image processing of this invention 本発明の画像処理の流れの他の一例を表すフローチャート(前半)The flowchart showing the other example of the flow of image processing of the present invention (the first half) 本発明の画像処理の流れの他の一例を表すフローチャート(後半)Flowchart showing another example of the flow of image processing according to the present invention (second half) 本発明の画像処理の流れの他の一例を表すフローチャートThe flowchart showing another example of the flow of the image processing of this invention 本発明の他の実施形態における合成差分画像生成手段の詳細な構成を表すブロック図The block diagram showing the detailed structure of the synthetic | combination difference image generation means in other embodiment of this invention.

符号の説明Explanation of symbols

1 取得手段
2 位置合わせ手段
3 差分算出手段
4 合成差分画像生成手段
4a 選択部
4b 合成差分算出部
4c 合成差分画像生成部
5 送信手段
10 画像処理システム
11 画像処理サーバ
20 画像撮影・読取システム
21 CR装置
22 FPDを搭載したX線画像デジタル撮影装置
30 画像管理システム
31 画像管理サーバ
32 大容量外部記憶装置
40 画像表示システム
41 クライアントPC
42 高精細液晶ディスプレイ
50 ネットワーク
DESCRIPTION OF SYMBOLS 1 Acquisition means 2 Positioning means 3 Difference calculation means 4 Composite difference image generation means 4a Selection part 4b Composite difference calculation part 4c Composite difference image generation part 5 Transmission means 10 Image processing system 11 Image processing server 20 Image photographing / reading system 21 CR Device 22 X-ray digital imaging device equipped with FPD 30 Image management system 31 Image management server 32 Large capacity external storage device 40 Image display system 41 Client PC
42 High-definition LCD 50 Network

Claims (9)

同一被検体を表す2以上の画像からなる第1の画像群の各々の画像中の前記被検体の位置を、前記被検体を表す第2の画像に含まれる該被検体の位置に合わせる位置合わせ処理を行い、
該位置合わせ処理後の第1の画像群の各々の画像の画素毎に、前記第2の画像中の対応する画素との画素値の差分を求め、
該差分を、前記位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、該差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成することによって、前記第1の画像群と前記第2の画像との差分を表す合成差分画像を生成することを特徴とする画像処理方法。
Alignment for aligning the position of the subject in each image of the first image group consisting of two or more images representing the same subject with the position of the subject included in the second image representing the subject Process
For each pixel of each image in the first image group after the alignment process, obtain a difference in pixel value from the corresponding pixel in the second image,
The difference is weighted for each corresponding pixel of each image in the first image group after the alignment process so that the contribution becomes smaller as the absolute value of the difference is larger, An image processing method, comprising: generating a composite difference image representing a difference between a first image group and the second image.
前記位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、前記差分の絶対値の最小値を前記合成差分画像の対応する画素の画素値とすることを特徴とする請求項1記載の画像処理方法。   The minimum value of the absolute value of the difference is set as the pixel value of the corresponding pixel of the composite difference image for each corresponding pixel of each image of the first image group after the alignment process. Item 8. The image processing method according to Item 1. 前記位置合わせ処理後の第1の画像群の各々の画像毎に、該画像中の各画素における前記差分の絶対値の散布度を求め、
該散布度が所定の基準を満たす程度に小さい画像を選択し、
選択された画像と前記第2の画像との差分を表す前記合成差分画像を生成することを特徴とする請求項1または2記載の画像処理方法。
For each image of the first image group after the alignment process, obtain the degree of dispersion of the absolute value of the difference at each pixel in the image,
Select an image that is so small that the degree of dispersion meets a predetermined standard,
The image processing method according to claim 1, wherein the composite difference image representing a difference between the selected image and the second image is generated.
同一被検体を表す2以上の画像からなる第1の画像群の各々の画像中の前記被検体の位置を、前記被検体を表す第2の画像に含まれる該被検体の位置に合わせる位置合わせ手段と、
該位置合わせ後の第1の画像群の各々の画像の画素毎に、前記第2の画像中の対応する画素との画素値の差分を求める差分算出手段と、
該差分を、前記位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、該差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成することによって、前記第1の画像群と前記第2の画像との差分を表す合成差分画像を生成する合成差分画像生成手段とを備えたことを特徴とする画像処理装置。
Alignment for aligning the position of the subject in each image of the first image group consisting of two or more images representing the same subject with the position of the subject included in the second image representing the subject Means,
Difference calculating means for obtaining a pixel value difference with a corresponding pixel in the second image for each pixel of each image of the first image group after the alignment;
The difference is weighted for each corresponding pixel of each image in the first image group after the alignment process so that the contribution becomes smaller as the absolute value of the difference is larger, An image processing apparatus comprising: a synthesized difference image generating unit that generates a synthesized difference image representing a difference between a first image group and the second image.
前記合成差分画像生成手段が、前記位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、前記差分の絶対値の最小値を前記合成差分画像の対応する画素の画素値とするものであることを特徴とする請求項4記載の画像処理装置。   For each corresponding pixel of each image of the first image group after the alignment processing, the combined difference image generation unit calculates the minimum value of the absolute value of the difference as the pixel value of the corresponding pixel of the combined difference image The image processing apparatus according to claim 4, wherein: 前記合成差分画像生成手段が、前記位置合わせ処理後の第1の画像群の各々の画像毎に、該画像中の各画素における前記差分の絶対値の散布度を求め、該散布度が所定の基準を満たす程度に小さい画像を選択し、該選択された画像と前記第2の画像との差分を表す合成差分画像を生成するものであることを特徴とする請求項4または5記載の画像処理装置。   The composite difference image generation means obtains a dispersion degree of the absolute value of the difference in each pixel in the image for each image of the first image group after the alignment process, and the dispersion degree is a predetermined degree. 6. The image processing according to claim 4, wherein an image that is small enough to satisfy a criterion is selected, and a composite difference image that represents a difference between the selected image and the second image is generated. apparatus. コンピュータを、
同一被検体を表す2以上の画像からなる第1の画像群の各々の画像中の前記被検体の位置を、前記被検体を表す第2の画像に含まれる該被検体の位置に合わせる位置合わせ手段と、
該位置合わせ後の第1の画像群の各々の画像の画素毎に、前記第2の画像中の対応する画素との画素値の差分を求める差分算出手段と、
該差分を、前記位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、該差分の絶対値が大きいほど寄与が小さくなるように重みづけして合成することによって、前記第1の画像群と前記第2の画像との差分を表す合成差分画像を生成する合成差分画像生成手段として機能させることを特徴とする画像処理プログラム。
Computer
Alignment for aligning the position of the subject in each image of the first image group consisting of two or more images representing the same subject with the position of the subject included in the second image representing the subject Means,
Difference calculating means for obtaining a pixel value difference with a corresponding pixel in the second image for each pixel of each image of the first image group after the alignment;
The difference is weighted for each corresponding pixel of each image in the first image group after the alignment process so that the contribution becomes smaller as the absolute value of the difference is larger, An image processing program that functions as a composite difference image generation unit that generates a composite difference image representing a difference between a first image group and the second image.
前記コンピュータを、
前記合成差分画像生成手段が、前記位置合わせ処理後の第1の画像群の各々の画像の対応する画素毎に、前記差分の絶対値の最小値を前記合成差分画像の対応する画素の画素値とするように機能させることを特徴とする請求項7記載の画像処理プログラム。
The computer,
For each corresponding pixel of each image of the first image group after the alignment processing, the combined difference image generation unit calculates the minimum value of the absolute value of the difference as the pixel value of the corresponding pixel of the combined difference image The image processing program according to claim 7, wherein the image processing program is made to function as follows.
前記コンピュータを、
前記合成差分画像生成手段が、前記位置合わせ処理後の第1の画像群の各々の画像毎に、該画像中の各画素における前記差分の絶対値の散布度を求め、該散布度が所定の基準を満たす程度に小さい画像を選択し、該選択された画像と前記第2の画像との差分を表す合成差分画像を生成するように機能させることを特徴とする請求項7または8記載の画像処理プログラム。
The computer,
The composite difference image generation means obtains a dispersion degree of the absolute value of the difference in each pixel in the image for each image of the first image group after the alignment process, and the dispersion degree is a predetermined degree. The image according to claim 7 or 8, wherein an image that is small enough to satisfy a criterion is selected, and a function is generated to generate a composite difference image that represents a difference between the selected image and the second image. Processing program.
JP2005071765A 2005-03-14 2005-03-14 Image processing method, image processing device, and program Withdrawn JP2006247293A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005071765A JP2006247293A (en) 2005-03-14 2005-03-14 Image processing method, image processing device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005071765A JP2006247293A (en) 2005-03-14 2005-03-14 Image processing method, image processing device, and program

Publications (1)

Publication Number Publication Date
JP2006247293A true JP2006247293A (en) 2006-09-21

Family

ID=37088353

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005071765A Withdrawn JP2006247293A (en) 2005-03-14 2005-03-14 Image processing method, image processing device, and program

Country Status (1)

Country Link
JP (1) JP2006247293A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017015724A (en) * 2011-06-24 2017-01-19 シレカ セラノスティック エルエルシー Method for analyzing biological sample by spectrum imaging
JP2018159600A (en) * 2017-03-22 2018-10-11 日本電気株式会社 Printed image inspection device, printed image inspection method, and program
US10460439B1 (en) 2015-08-12 2019-10-29 Cireca Theranostics, Llc Methods and systems for identifying cellular subtypes in an image of a biological specimen

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10067051B2 (en) 2010-06-25 2018-09-04 Cireca Theranostics, Llc Method for analyzing biological specimens by spectral imaging
JP2017015724A (en) * 2011-06-24 2017-01-19 シレカ セラノスティック エルエルシー Method for analyzing biological sample by spectrum imaging
US10460439B1 (en) 2015-08-12 2019-10-29 Cireca Theranostics, Llc Methods and systems for identifying cellular subtypes in an image of a biological specimen
JP2018159600A (en) * 2017-03-22 2018-10-11 日本電気株式会社 Printed image inspection device, printed image inspection method, and program
JP7039851B2 (en) 2017-03-22 2022-03-23 日本電気株式会社 Print image inspection device, print image inspection method, program

Similar Documents

Publication Publication Date Title
JP6534998B2 (en) Method and apparatus for displaying a medical image
US10650516B2 (en) Information processing apparatus, information processing method, and recording medium
JP5643304B2 (en) Computer-aided lung nodule detection system and method and chest image segmentation system and method in chest tomosynthesis imaging
JP2006239195A (en) Computer-aided image diagnosis support method, image diagnosis support device and program
US9024941B2 (en) Sequentially displaying virtual endoscopic images by setting an observation path to compensate for a curved region of the tubular structure
JP2011125568A (en) Image processor, image processing method, program and image processing system
JP6448356B2 (en) Image processing apparatus, image processing method, image processing system, and program
US7620229B2 (en) Method and apparatus for aiding image interpretation and computer-readable recording medium storing program therefor
JP6381895B2 (en) Image processing apparatus, image processing method, and X-ray diagnostic apparatus
JP2004041694A (en) Image generation device and program, image selecting device, image outputting device and image providing service system
KR20130018168A (en) Method and device for visualizing the registration quality of medical image data sets
JP2013244211A (en) Medical image processor, medical image processing method and control program
JP2007151645A (en) Medical diagnostic imaging support system
JP6429958B2 (en) Image processing apparatus, image processing method, and program
JP4493436B2 (en) Image interpretation support method, apparatus and program
JP2024010085A (en) Information processing device, information processing method, and program
JP2005124617A (en) Medical image diagnosis support system
JP6738631B2 (en) Medical image processing apparatus, medical image processing method, and medical image processing program
JP2006247293A (en) Image processing method, image processing device, and program
JP2018153455A (en) Image processing apparatus, control method of image processing apparatus, and program
EP2449527B1 (en) Digital image subtraction
JP6167841B2 (en) Medical image processing apparatus and program
JP2005136594A (en) Image processing apparatus and control method thereof
US10535167B2 (en) Method and system for tomosynthesis projection image enhancement and review
JP2005012248A (en) Method and apparatus of assisting image reading

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20061208

A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20080603