JP2005136594A - Image processing apparatus and control method thereof - Google Patents

Image processing apparatus and control method thereof Download PDF

Info

Publication number
JP2005136594A
JP2005136594A JP2003368921A JP2003368921A JP2005136594A JP 2005136594 A JP2005136594 A JP 2005136594A JP 2003368921 A JP2003368921 A JP 2003368921A JP 2003368921 A JP2003368921 A JP 2003368921A JP 2005136594 A JP2005136594 A JP 2005136594A
Authority
JP
Japan
Prior art keywords
image
difference
partial
parameter
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003368921A
Other languages
Japanese (ja)
Inventor
Makoto Sato
眞 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2003368921A priority Critical patent/JP2005136594A/en
Publication of JP2005136594A publication Critical patent/JP2005136594A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Apparatus For Radiation Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing apparatus for generating a difference image in which aging of an object is clearly recognized from a first image and a second image indicating the object picked up at different times. <P>SOLUTION: When a portion region is designated from the difference image because the difference image is not clear, a first parameter for coordinate conversion for solving positional deviation or distortion of the second image from the first image which is previously stored is used to match the positions between the images, and then a first portion image of the first image and a second portion image of the second image with respect to the portion image are extracted. For the first portion image and the second portion image which are extracted, a second parameter for coordinate conversion for solving the positional deviation or distortion between the images is calculated, the positions between the images are matched using this second parameter before generating the first portion image and the second portion image, and the generated images are displayed so as to be overlapped on the difference image. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、画像処理装置、その制御方法、制御プログラム及び記憶媒体に関し、より具体的には、単純X線画像等の医療画像における被写体の経時変化を高精度かつ効果的に表示することができる画像処理装置、その制御方法及び記憶媒体に関する。   The present invention relates to an image processing apparatus, a control method thereof, a control program, and a storage medium, and more specifically, can display changes with time of a subject in a medical image such as a simple X-ray image with high accuracy and effectively. The present invention relates to an image processing apparatus, a control method thereof, and a storage medium.

医療画像分野においては、近年CAD(コンピュータ支援診断:Computer Aided Diagnosis)の研究が活発に行われており、単純X線、CT(コンピュータ断層撮影法)などの画像をコンピュータにより解析し、病変部分の疑いがある部分を検出することで、疾病の早期発見に貢献することが期待されている。   In the medical imaging field, CAD (Computer Aided Diagnosis) has been actively researched in recent years, and images of simple X-rays, CT (Computerized Tomography), etc. are analyzed by a computer, and lesions are analyzed. It is expected to contribute to early detection of diseases by detecting suspicious parts.

CADには対象とする画像や検出対象により様々な種類が考えられているが、その中に同一部位を撮影した画像の差分を取ることにより、経時変化を強調した画像を得る経時差分方式によるCAD(経時差分CAD)が注目されている。   Various types of CAD are conceivable depending on the target image and the detection target. By taking a difference between images obtained by photographing the same part in the CAD, a CAD based on a time-difference method that obtains an image that emphasizes temporal changes is obtained. (Time difference CAD) is attracting attention.

経時差分CADにおいては、例えば、時間的に異なる時点で撮影された1組の胸部単純X線画像を入力し、画像解析を行ってそれぞれの画像において解剖学的に同一となる位置を求め、現在又は過去のいずれか一方の画像を変形し、画素毎の差分処理を行う。   In the temporal difference CAD, for example, a set of chest X-ray images taken at different points in time are input, and image analysis is performed to obtain anatomically identical positions in the respective images. Alternatively, any one of the past images is deformed, and the difference processing for each pixel is performed.

このような経時差分CADの手法に関しては、例えば米国特許第5,982,915号公報等に開示されている(例えば、特許文献1)。同文献によれば、差分処理対象となる画像を所定の解像度となるように縮小し、縮小された画像間で差分処理を行って結果が出力される。例えば元画像が2048×2048の画素数を持つ画像は512×512の解像度に縮小された後に差分処理が行われるが、これは処理画素数を減ずることによる処理の高速化および差分画像における必要画質との関係で決定されている。   Such a temporal difference CAD method is disclosed in, for example, US Pat. No. 5,982,915 (for example, Patent Document 1). According to this document, an image to be subjected to difference processing is reduced so as to have a predetermined resolution, difference processing is performed between the reduced images, and a result is output. For example, an image having the number of pixels of 2048 × 2048 is subjected to differential processing after being reduced to a resolution of 512 × 512. This is because the processing speed is increased by reducing the number of processed pixels and the required image quality in the difference image. Is determined in relation to.

ところで差分画像は、正常な解剖学的構造が十分除去され、経時的な変化が生じた部分のみが差分信号として抽出されることが望ましい。これには、差分処理対象となる1対の画像の間で、被験者の姿勢および呼気の状態ができるだけ同一である必要がある。しかし、通常臨床現場においてこれらの項目を同一にして撮像を行うことには限界がある。   By the way, it is desirable that the difference image is extracted as a difference signal only from a portion where a normal anatomical structure is sufficiently removed and a change with time is generated. For this purpose, the posture of the subject and the state of exhalation need to be as identical as possible between the pair of images to be subjected to the difference processing. However, there is a limit to performing imaging with these items being the same in normal clinical settings.

したがって、前掲の文献等において開示されているように、画像内に複数のROI(Region of Interest :関心領域)を設定して複数のシフトベクトル量を求め、それらを非線型に補間して変形画像を作り、これを基にして差分処理を行っう方法が取られている。しかしながら、この差分処理を行ったとしても、2枚の画像間の位置合わせが完全に行われずに位置ずれに起因するアーチファクト(陰影)が生ずることがある。   Therefore, as disclosed in the above-mentioned documents, a plurality of ROIs (Region of Interest) are set in an image to obtain a plurality of shift vector amounts, and they are nonlinearly interpolated to form a deformed image. And a method of performing difference processing based on this. However, even if this difference processing is performed, the alignment between the two images may not be performed completely, and artifacts (shadows) due to misalignment may occur.

このような場合は、2枚の画像間に微小な変化が生じた場合に、その変化の部分が経時的な変化が生じた部分なのか、あるいはアーチファクトに起因して発生したものなのか、区別がつきにくいという問題が発生する。そのため上記の区別がつきにくい場合には、差分画像観察時に例えば、拡大鏡等の機能を用いてより詳細な差分画像を表示して観察を行うことになるが、処理済みの差分画像を拡大表示しても差分処理前に解像度を下げているため十分な画質が得られない場合があった。
米国特許第5,982,915号公報
In such a case, when a minute change occurs between two images, it is discriminated whether the changed part is a part that has changed over time or is caused by an artifact. The problem that it is difficult to stick occurs. Therefore, if it is difficult to distinguish the above, for example, when a difference image is observed, a detailed difference image is displayed using a function such as a magnifying glass. Even if the resolution is lowered before the difference processing, sufficient image quality may not be obtained.
US Pat. No. 5,982,915

本発明は、上記説明した従来技術の問題点を解決することを出発点としてなされたものであり、その目的は、差分画像の観察時にアーチファクトの影響を排除した高精度の差分画像を提供できる画像処理装置及びその制御方法を提供することである。   The present invention has been made starting from solving the above-described problems of the prior art, and an object of the present invention is to provide a high-accuracy differential image that eliminates the influence of artifacts when observing the differential image. It is providing a processing apparatus and its control method.

上記目的を達成するための本発明に係る一実施形態の画像形成装置は、以下の構成を有する。すなわち、異なる時刻で撮像された対象物の第1画像と第2画像とから差分画像を生成する画像処理装置であって、前記第1画像と第2画像と、前記第1画像と第2画像間の位置ずれまたは歪みを解消する座標変換用の第1パラメータと、前記第1パラメータを用いて画像間の位置を一致させた後に生成された前記第1画像と第2画像間の差分画像とを予め格納する格納手段と、前記格納手段に格納されている前記差分画像を表示する表示手段と、前記表示手段に表示された前記差分画像内の部分領域が指定されると、前記第1パラメータを用いて前記第1画像と第2画像間の位置ずれまたは歪みを解消し画像間の位置を一致させてから前記部分領域に対応する前記第1画像内の第1部分画像と前記第2画像内の第2部分画像とを決定する決定手段と、前記決定手段によって決定された第1部分画像と第2部分画像間の位置ずれまたは歪みを解消する座標変換用の第2パラメータを算出し、該第2パラメータを用いて画像間の位置を一致させた後に前記第1部分画像と第2部分画像間の部分差分画像を生成する生成手段と、を有することを特徴とする。   In order to achieve the above object, an image forming apparatus according to an embodiment of the present invention has the following arrangement. That is, an image processing device that generates a difference image from a first image and a second image of an object captured at different times, wherein the first image, the second image, the first image, and the second image A first parameter for coordinate conversion that eliminates a positional shift or distortion between the first image and a difference image between the first image and the second image generated after matching the positions between the images using the first parameter; Is stored in advance, a display means for displaying the difference image stored in the storage means, and a partial area in the difference image displayed on the display means is designated, the first parameter The first partial image and the second image in the first image corresponding to the partial area after the positional deviation or distortion between the first image and the second image is eliminated by using To determine the second partial image And a second parameter for coordinate conversion that eliminates displacement or distortion between the first partial image and the second partial image determined by the determination unit, and using the second parameter, the position between the images is calculated. And generating means for generating a partial difference image between the first partial image and the second partial image after matching.

ここで、例えば、前記第1パラメータは、2つの画像間で対象物の特徴的な位置を示す基準点の座標に対して所定変換式に基づいていずれか一方の画像の点座標を他方の点座標に座標変換するときに用いるパラメータを含むことが好ましい。   Here, for example, the first parameter is obtained by changing the point coordinate of one image to the other point based on a predetermined conversion formula with respect to the coordinate of the reference point indicating the characteristic position of the object between the two images. It is preferable to include a parameter used when converting the coordinates to coordinates.

ここで、例えば、前記第1画像と第2画像は単純X線またはコンピュータ断層撮影法により撮像された画像であり、前記基準点は解剖学的に特徴的な部位の位置であることが好ましい。   Here, for example, it is preferable that the first image and the second image are images taken by simple X-ray or computed tomography, and the reference point is a position of an anatomically characteristic part.

ここで、例えば、前記生成手段は、前記所定変換式を用いて前記第2部分画像内に設定する第2設定領域の設定位置を、前記第2設定領域に対応して設定される前記第1部分画像内に設定する第1設定領域の設定位置に変換する変換手段を含むことが好ましい。   Here, for example, the generating means sets the setting position of the second setting area to be set in the second partial image using the predetermined conversion formula, corresponding to the second setting area. It is preferable that conversion means for converting into a setting position of the first setting area set in the partial image is included.

ここで、例えば、前記表示手段は前記格納手段に格納されている前記第1画像と第2画像とを前記差分画像と並べて表示することが好ましい。   Here, for example, it is preferable that the display unit displays the first image and the second image stored in the storage unit side by side with the difference image.

ここで、例えば、前記生成手段は、前記部分領域の画像の解像度を選択する選択手段と、前記部分領域に相当する前記第1画像と第2画像のデータを前記格納手段から読み出し、該読み出したデータの画素サイズを前記選択手段によって選択された解像度となるよう変更する変更手段と、を含むことが好ましい。   Here, for example, the generation unit reads out the data of the first image and the second image corresponding to the partial area from the selection unit that selects the resolution of the image of the partial area and reads the data. And changing means for changing the pixel size of the data to the resolution selected by the selecting means.

ここで、例えば、前記格納手段に保存される前記第1画像と第2画像のデータは、圧縮符号化されたデータであることが好ましい。   Here, for example, the data of the first image and the second image stored in the storage unit is preferably compression-coded data.

上記目的を達成するための本発明に係る一実施形態の画像処理装置の制御方法は、以下の構成を有する。すなわち、異なる時刻で撮像された対象物の前記第1画像と第2画像と、前記第1画像と第2画像間の位置ずれまたは歪みを解消する座標変換用の第1パラメータと、前記第1パラメータを用いて画像間の位置を一致させた後に生成された前記第1画像と第2画像間の差分画像とを予め格納する格納手段を備える画像処理装置の制御方法であって、前記格納手段に格納されている前記差分画像を表示する表示工程と、前記表示工程により表示された前記差分画像内の部分領域が指定されると、前記第1パラメータを用いて前記第1画像と第2画像間の位置ずれまたは歪みを解消し画像間の位置を一致させてから前記部分領域に対応する前記第1画像内の第1部分画像と前記第2画像内の第2部分画像とを決定する決定工程と、前記決定工程によって決定された第1部分画像と第2部分画像間の位置ずれまたは歪みを解消する座標変換用の第2パラメータを算出し、該第2パラメータを用いて画像間の位置を一致させた後に前記第1部分画像と第2部分画像間の差分画像を生成する生成工程と、を有することを特徴とする。 上記目的を達成するための本発明に係る一実施形態の制御プログラムは、以下の構成を有する。すなわち、異なる時刻で撮像された対象物の前記第1画像と第2画像と、前記第1画像と第2画像間の位置ずれまたは歪みを解消する座標変換用の第1パラメータと、前記第1パラメータを用いて画像間の位置を一致させた後に生成された前記第1画像と第2画像間の差分画像とを予め格納する格納手段を備える画像処理装置を制御する制御プログラムであって、前記格納手段に格納されている前記差分画像を表示する表示工程のプログラムコードと、前記表示工程により表示された前記差分画像内の部分領域が指定されると、前記第1パラメータを用いて前記第1画像と第2画像間の位置ずれまたは歪みを解消し画像間の位置を一致させてから前記部分領域に対応する前記第1画像内の第1部分画像と前記第2画像内の第2部分画像とを決定する決定工程のプログラムコードと、前記決定工程によって決定された第1部分画像と第2部分画像間の位置ずれまたは歪みを解消する座標変換用の第2パラメータを算出し、該第2パラメータを用いて画像間の位置を一致させた後に前記第1部分画像と第2部分画像間の差分画像を生成する生成工程のプログラムコードと、を有することを特徴とする。   In order to achieve the above object, an image processing apparatus control method according to an embodiment of the present invention has the following arrangement. That is, the first image and the second image of the object imaged at different times, the first parameter for coordinate conversion for eliminating the displacement or distortion between the first image and the second image, and the first A control method for an image processing apparatus comprising storage means for storing in advance a difference image between the first image and the second image generated after matching positions between images using parameters, the storage means When the display step for displaying the difference image stored in the image and the partial area in the difference image displayed by the display step are designated, the first image and the second image are used using the first parameter. Deciding to determine a first partial image in the first image and a second partial image in the second image corresponding to the partial region after eliminating the positional deviation or distortion between them and matching the positions between the images Process and the decision process After calculating the second parameter for coordinate conversion that eliminates the positional deviation or distortion between the first partial image and the second partial image determined in this way, and using the second parameter to match the positions between the images A generating step of generating a difference image between the first partial image and the second partial image. In order to achieve the above object, a control program according to an embodiment of the present invention has the following arrangement. That is, the first image and the second image of the object imaged at different times, the first parameter for coordinate conversion for eliminating the displacement or distortion between the first image and the second image, and the first A control program for controlling an image processing apparatus comprising storage means for storing in advance a difference image between the first image and the second image generated after matching positions between images using a parameter, When the program code of the display step for displaying the difference image stored in the storage means and the partial area in the difference image displayed by the display step are specified, the first parameter is used to specify the first parameter. The first partial image in the first image and the second partial image in the second image corresponding to the partial area after eliminating the positional deviation or distortion between the image and the second image and matching the position between the images. Decided And calculating a second parameter for coordinate conversion that eliminates a positional shift or distortion between the first partial image and the second partial image determined by the determination step, and using the second parameter And a program code of a generating step for generating a difference image between the first partial image and the second partial image after matching the positions between the images.

上記目的を達成するための本発明に係る一実施形態の画像処理装置は、以下の構成を有する。すなわち、異なる時刻で撮像された対象物の第1画像と第2画像とから差分画像を生成する画像処理装置であって、前記第1画像および第2画像の画像サイズを縮小する縮小手段と、前記縮小手段で縮小した第1画像と第2画像とから差分画像を生成する第1の差分画像生成手段と、前記第1の差分画像生成手段によって、生成された差分画像上で特定の領域を指定する領域指定手段と、前記第1画像および第2画像から前記特定の領域に対応する領域を抽出する抽出手段と、前記抽出手段によって、前記第1画像から抽出された領域と前記第2画像から抽出された領域とから差分画像を生成する第2の差分画像生成手段と、を有することを特徴とする。   In order to achieve the above object, an image processing apparatus according to an embodiment of the present invention has the following arrangement. That is, an image processing apparatus that generates a difference image from a first image and a second image of an object captured at different times, a reduction unit that reduces the image size of the first image and the second image, A first difference image generation means for generating a difference image from the first image and the second image reduced by the reduction means, and a specific area on the difference image generated by the first difference image generation means. A region designating unit for designating, an extracting unit for extracting a region corresponding to the specific region from the first image and the second image, a region extracted from the first image by the extracting unit, and the second image And a second difference image generating means for generating a difference image from the region extracted from.

上記目的を達成するための本発明に係る一実施形態の画像処理装置は、以下の構成を有する。すなわち、異なる時刻で撮像された対象物の第1画像と第2画像とから差分画像を生成する画像処理装置であって、前記第1画像および第2画像の画像サイズを縮小する縮小手段と、前記縮小手段で縮小した第1画像と第2画像とから差分画像を生成する第1の差分画像生成手段と、前記第1の差分画像生成手段によって、生成された差分画像上で特定の領域を指定する領域指定手段と、前記第1画像および第2画像の画像サイズを指定する画像サイズ指定手段と、前記第1画像および第2画像を前記画像サイズ指定手段によって指定された画像サイズに変更し、画像サイズが変更された第1画像および第2画像から前記特定の領域に対応する領域を抽出する抽出手段と、前記抽出手段によって、前記第1画像から抽出された領域と前記第2画像から抽出された領域とから差分画像を生成する第2の差分画像生成手段と、を有することを特徴とする。   In order to achieve the above object, an image processing apparatus according to an embodiment of the present invention has the following arrangement. That is, an image processing apparatus that generates a difference image from a first image and a second image of an object captured at different times, a reduction unit that reduces the image size of the first image and the second image, A first difference image generation means for generating a difference image from the first image and the second image reduced by the reduction means, and a specific area on the difference image generated by the first difference image generation means. An area designating unit for designating, an image size designating unit for designating an image size of the first image and the second image, and changing the first image and the second image to an image size designated by the image size designating unit. Extraction means for extracting the area corresponding to the specific area from the first image and the second image whose image size has been changed, the area extracted from the first image by the extraction means, and the second And having a second difference image generating means for generating a difference image from the extracted region from the image, a.

上記目的を達成するための本発明に係る一実施形態の画像処理方法は、以下の構成を有する。すなわち、異なる時刻で撮像された対象物の第1画像と第2画像とから差分画像を生成する画像処理方法であって、前記第1画像および第2画像の画像サイズを縮小する縮小工程と、前記縮小工程で縮小した第1画像と第2画像とから差分画像を生成する第1の差分画像生成工程と、前記第1の差分画像生成工程によって、生成された差分画像上で特定の領域を指定する領域指定工程と、前記第1画像および第2画像から前記特定の領域に対応する領域を抽出する抽出工程と、前記抽出工程によって、前記第1画像から抽出された領域と前記第2画像から抽出された領域とから差分画像を生成する第2の差分画像生成工程と、を有することを特徴とする。   In order to achieve the above object, an image processing method according to an embodiment of the present invention has the following arrangement. That is, an image processing method for generating a difference image from a first image and a second image of an object captured at different times, a reduction step of reducing the image sizes of the first image and the second image; A first difference image generation step for generating a difference image from the first image and the second image reduced in the reduction step, and a specific region on the difference image generated by the first difference image generation step. A region designating step, an extracting step for extracting a region corresponding to the specific region from the first image and the second image, a region extracted from the first image by the extracting step, and the second image And a second difference image generation step of generating a difference image from the region extracted from

上記目的を達成するための本発明に係る一実施形態の画像処理方法は、以下の構成を有する。すなわち、異なる時刻で撮像された対象物の第1画像と第2画像とから差分画像を生成する画像処理方法であって、前記第1画像および第2画像の画像サイズを縮小する縮小工程と、前記縮小手段で縮小した第1画像と第2画像とから差分画像を生成する第1の差分画像生成工程と、前記第1の差分画像生成手段によって、生成された差分画像上で特定の領域を指定する領域指定工程と、前記第1画像および第2画像の画像サイズを指定する画像サイズ指定工程と、前記第1画像および第2画像を前記画像サイズ指定工程によって指定された画像サイズに変更し、画像サイズが変更された第1画像および第2画像から前記特定の領域に対応する領域を抽出する抽出工程と、前記抽出工程によって、前記第1画像から抽出された領域と前記第2画像から抽出された領域とから差分画像を生成する第2の差分画像生成工程と、を有することを特徴とする。   In order to achieve the above object, an image processing method according to an embodiment of the present invention has the following arrangement. That is, an image processing method for generating a difference image from a first image and a second image of an object captured at different times, a reduction step of reducing the image sizes of the first image and the second image; A first difference image generation step for generating a difference image from the first image and the second image reduced by the reduction means, and a specific area on the difference image generated by the first difference image generation means. An area designating step for designating, an image size designating step for designating image sizes of the first image and the second image, and changing the first image and the second image to the image size designated by the image size designating step. An extraction step of extracting a region corresponding to the specific region from the first image and the second image whose image size has been changed, and the region extracted from the first image by the extraction step and the second And having a second difference image generation step of generating a difference image from the extracted region from the image.

本発明によれば、差分画像を観察時において、表示された差分画像が不明瞭な場合でも、アーチファクトの影響を排除した高精度の差分画像を提供できる画像処理装置及びその制御方法を提供できる。   According to the present invention, it is possible to provide an image processing apparatus that can provide a high-accuracy difference image that eliminates the influence of artifacts and a control method thereof even when the displayed difference image is unclear when the difference image is observed.

以下、本発明の実施の形態について、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

<第1実施形態>
[画像処理装置の構成:図1]
図1は、本発明による画像処理装置の構成を示す図である。以下に同図を参照して本実施の形態における画像処理装置の動作について説明する。
<First Embodiment>
[Configuration of Image Processing Device: FIG. 1]
FIG. 1 is a diagram showing a configuration of an image processing apparatus according to the present invention. The operation of the image processing apparatus according to the present embodiment will be described below with reference to FIG.

撮像部1は、診断に用いられる医用画像を新たに生成する撮像装置、例えば、X線撮像装置等のモダリティである。本実施の形態においては胸部を対象とした単純X線撮像装置であるとするが、他の撮像装置、例えば、CT(コンピュータ断層撮影法)などであっても本発明の適用が可能である。   The imaging unit 1 is a modality such as an imaging device that newly generates a medical image used for diagnosis, such as an X-ray imaging device. In the present embodiment, the simple X-ray imaging apparatus is intended for the chest, but the present invention can be applied to other imaging apparatuses such as CT (Computer Tomography).

撮像部1により生成された画像は、保存部2に出力され保存される。保存部2はハードディスクドライブ、光磁気ディスクドライブ等の記憶装置であり、医療画像の保存システムとしては一般的な機能を有しているため本実施の形態においては詳細な説明は行わないが、同一患者の一連の画像が撮像日時・条件等の付加情報と共に互いに関連付けられて保存されている。   The image generated by the imaging unit 1 is output to the storage unit 2 and stored. The storage unit 2 is a storage device such as a hard disk drive or a magneto-optical disk drive, and has a general function as a medical image storage system, and will not be described in detail in the present embodiment. A series of images of a patient are stored in association with each other together with additional information such as imaging date / time and conditions.

保存部2に保存された画像は、必要に応じて画像入力部3により読み出され、差分処理部4に出力される。ここで、読み出される画像は差分処理の対象となるために、同一患者の部位を異なる時刻で撮像した1対の画像(異なる時刻で撮像された対象物の第1画像と第2画像)であるが、2枚以上の画像が保存されている場合には、所定の選択基準により2枚が選択される。例えば、最新の画像(以下、現在画像という)とその1つ前の時点で撮像された画像(以下、過去画像という)が読み出されるが、この選択基準については、本発明に直接係わる部分ではないため、詳細説明は省略する。   The image stored in the storage unit 2 is read by the image input unit 3 as necessary, and is output to the difference processing unit 4. Here, since the read image is a target of the difference process, it is a pair of images obtained by imaging the same patient's part at different times (a first image and a second image of the target imaged at different times). However, when two or more images are stored, two are selected according to a predetermined selection criterion. For example, the latest image (hereinafter referred to as the current image) and the image captured immediately before (hereinafter referred to as the past image) are read out, but this selection criterion is not directly related to the present invention. Therefore, detailed description is omitted.

ここで、画像入力部3により読み出された画像は、撮像時の解像度と同じとは限らず、本実施の形態においては、元画像(撮像時の画像)の解像度に対して所定の解像度に縮小された画像が読み出されるものとする。どの解像度に縮小するかの条件は予め設定されていても良いし、制御部5からユーザが対話的に与えても良い。   Here, the image read by the image input unit 3 is not necessarily the same as the resolution at the time of imaging. In the present embodiment, the resolution is a predetermined resolution with respect to the resolution of the original image (image at the time of imaging). Assume that a reduced image is read out. The condition for which resolution is reduced may be set in advance, or may be interactively given by the user from the control unit 5.

ここでは、制御部5には表示に際してのパラメータを入力するための入力機器(入力部)、例えばマウスやキーボード等が接続されているものとする。   Here, it is assumed that an input device (input unit) for inputting parameters for display, such as a mouse and a keyboard, is connected to the control unit 5.

画像を縮小する処理は画像入力部3において行われるものとするが、縮小処理は公知の技術により行うことができる。縮小処理としては、例えばガウシアンフィルタとサブサンプリングの組み合わせ等が考えられる。   The processing for reducing an image is performed in the image input unit 3, but the reduction processing can be performed by a known technique. As the reduction processing, for example, a combination of a Gaussian filter and sub-sampling can be considered.

なお、以降の説明においては、元画像の解像度は、例えば、2048×2048であり、差分処理用に縮小された画像の解像度は512×512であるとして説明する。ここでいう解像度とは、撮影された画像サイズを意味する。   In the following description, it is assumed that the resolution of the original image is, for example, 2048 × 2048, and the resolution of the image reduced for difference processing is 512 × 512. The resolution here means the size of the photographed image.

差分処理部4は入力した2枚の画像に対して、差分処理を行い差分画像と差分処理過程におけるパラメータを保存部2に出力する。   The difference processing unit 4 performs difference processing on the two input images, and outputs the difference image and parameters in the difference processing process to the storage unit 2.

制御部5は、ROMに格納された各種制御プログラムに基づいて、RAMを使用しながら画像入力部3,差分処理部4,表示制御部6などの各部を制御しながら図2や図8Bに示す処理を実行する。   The control unit 5 shown in FIG. 2 and FIG. 8B while controlling each unit such as the image input unit 3, the difference processing unit 4, and the display control unit 6 while using the RAM based on various control programs stored in the ROM. Execute the process.

[差分処理部の処理:図2]
図2は、差分処理部4の動作を示すフローチャートであり、同図を参照して差分処理部4の動作を説明する。
[Difference Processing Unit Processing: FIG. 2]
FIG. 2 is a flowchart showing the operation of the difference processing unit 4, and the operation of the difference processing unit 4 will be described with reference to FIG.

(ステップS401:全体マッチング)
ステップS401では、以下の手順により現在画像(第1画像)、過去画像(過去画像)の基準位置の検出、グローバルマッチングパラメータを算出する。
(Step S401: Whole matching)
In step S401, detection of the reference position of the current image (first image) and past image (past image) and global matching parameters are calculated according to the following procedure.

入力された2枚の画像(一方を現在画像、他方を所定の過去の時点で撮像された過去画像とする)に対して所定の基準位置が検出され、被写体の全体的なずれが求められる。基準位置としては、差分対象となる臓器の位置の基準を表すものが好ましい。例えば、胸部X線画像の場合は、右肺と左肺の最下端部の位置である肺底部、右肺の肺尖部と左肺の肺尖部との中点位置など対象部位の特徴的な部分が対象となる肺の概略位置を特定するのに適している。   A predetermined reference position is detected with respect to two input images (one is a current image and the other is a past image captured at a predetermined past time point), and an overall shift of the subject is obtained. As the reference position, a reference position representing the reference of the position of the organ to be a difference target is preferable. For example, in the case of a chest X-ray image, the characteristic features of the target part such as the bottom of the right lung and the bottom of the left lung, the midpoint of the right lung and the left lung apex This is suitable for specifying the approximate position of the target lung.

図3Aは基準位置の検出例である。同図において例えば(a)は現在画像、(b)は過去画像であり、各々の画像において1つの肺尖部中点と2つの肺底部の3つの基準点(P1、P1’〜P3、P3’)が検出される。基準点の検出の方法については公知の方法(例えば”Image feature analysis of computer-aided diagnosis : Accurate determination of ribcage boundary in chest radiographs”, Xin-Wei Xu and Kunio Doi, Med. Phys. 22(5), May 1995など)によることが出来る。   FIG. 3A is an example of detecting the reference position. In the figure, for example, (a) is a current image and (b) is a past image. In each image, three reference points (P1, P1 ′ to P3, P3) of one midpoint of lung apex and two lung bottoms are shown. ') Is detected. As for the detection method of the reference point, a known method (for example, “Image feature analysis of computer-aided diagnosis: Accurate determination of ribcage boundary in chest radiographs”, Xin-Wei Xu and Kunio Doi, Med. Phys. 22 (5), May 1995).

次に検出した3対の基準点を元に2つの画像間の位置ずれを補正するパラメータ(位置ずれを解消し画像間の対応する位置を一致させるための座標変換用のパラメータ)を計算する。補正の方法としては、例えば(式 1)に示すアフィン変換を用いることが出来る。   Next, based on the detected three pairs of reference points, parameters for correcting the positional deviation between the two images (coordinate conversion parameters for eliminating the positional deviation and matching the corresponding positions between the images) are calculated. As a correction method, for example, affine transformation shown in (Expression 1) can be used.

u=ax+by+c
v=dx+ey+f (式 1)
上式においてx、yは過去画像の基準点座標値、u,vは現在画像の基準点座標値を表し、a〜dは2つの画像間の回転および拡大を、eおよびfは並行移動を表すパラメータであり、前述した3つの基準点の座標を元に上式のパラメータを決定すれば2つの画像間の全体的な位置ずれ量を決定して対応する点間における座標変換を行うことが出来る。
u = ax + by + c
v = dx + ey + f (Formula 1)
In the above equation, x and y are the reference point coordinate values of the past image, u and v are the reference point coordinate values of the current image, a to d are rotation and enlargement between two images, and e and f are parallel movements. If the parameters of the above equation are determined based on the coordinates of the three reference points described above, the overall positional deviation between the two images can be determined and coordinate conversion between corresponding points can be performed. I can do it.

すなわち、過去画像の点(x、y)を現在画像における対応点(u,v)に変換することが可能となる。なおパラメータの決定方法に関しては、例えば(“画像解析ハンドブック”, 高木幹雄 監修、東京大学出版会、1991)に記載されているため詳細説明は省略する。また求められたパラメータは不図示のメモリに記憶される。なお、以降の説明でこれらのパラメータをグローバルマッチングパラメータと呼ぶ。   That is, the point (x, y) of the past image can be converted into the corresponding point (u, v) in the current image. The parameter determination method is described in, for example, (“Image Analysis Handbook”, supervised by Mikio Takagi, The University of Tokyo Press, 1991), and detailed description thereof is omitted. The obtained parameters are stored in a memory (not shown). In the following description, these parameters are referred to as global matching parameters.

(ステップS402:ROI設定)
ステップS402では、グローバルマッチングパラメータを用いて、過去画像中に設定されるROI(Region of Interest :関心領域)の設定位置に対応する現在画像上のROIの設定位置を以下の手順により設定する。
(Step S402: ROI setting)
In step S402, the setting position of the ROI on the current image corresponding to the setting position of the ROI (Region of Interest) set in the past image is set by the following procedure using the global matching parameter.

差分処理部4は過去および現在画像に複数のROIを設定する。この時、2つの画像における、位置的に対応するROIはステップS401において求められた全体的な座標変換のパラメータ(a〜f)に基づき決定される。   The difference processing unit 4 sets a plurality of ROIs in the past and current images. At this time, the ROIs corresponding to each other in the two images are determined based on the overall coordinate transformation parameters (af) obtained in step S401.

まず、過去画像中に複数のROIを設定する。各ROIは図3Bに示すように対象部位の特徴的な部分の位置を基準として、予め設定された間隔で水平および垂直方向にマトリクス上に設定される。すなわち、肺尖部中点P1と肺底部P2,P3で囲まれる範囲に、均等にROIを配置すればよい。   First, a plurality of ROIs are set in the past image. As shown in FIG. 3B, each ROI is set on the matrix in the horizontal and vertical directions at predetermined intervals with reference to the position of the characteristic part of the target region. That is, the ROI may be evenly arranged in a range surrounded by the lung apex midpoint P1 and the lung bottoms P2 and P3.

次に、過去画像に設定されたROIに対応する現在画像のROIの設定位置は以下の手順で決める。すなわち、過去画像におけるある1つのROIの設定位置(x、y)に対応する現在画像の設定位置(u,v)は(式 1)により計算される。これにより、後続の詳細マッチングを行う際に2つの対応するROIは解剖学的に略等しい位置に設定されることとなる。なお、本実施の形態においてはROIの大きさは予め決定されており、過去画像のROIサイズは現在画像のROIサイズよりも小さく設定されているものとする。   Next, the ROI setting position of the current image corresponding to the ROI set in the past image is determined by the following procedure. That is, the setting position (u, v) of the current image corresponding to one ROI setting position (x, y) in the past image is calculated by (Equation 1). As a result, when the subsequent detailed matching is performed, the two corresponding ROIs are set at substantially the same anatomical positions. In the present embodiment, the ROI size is determined in advance, and the ROI size of the past image is set smaller than the ROI size of the current image.

(ステップS403:詳細マッチング)
ステップS403では、以下の手順により上記設定された各ROIペアごとに最大のマッチ度を示す座標が計算され、図4(b)に示すような2つの画像間のシフトベクトル(Δxi、 Δyi)が求められる。
(Step S403: Detailed matching)
In step S403, coordinates indicating the maximum matching degree are calculated for each ROI pair set as described above according to the following procedure, and shift vectors (Δxi, Δyi) between two images as shown in FIG. Desired.

ステップS402において、過去画像および現在画像に設定された対応するROIの間でマッチングを行い、各ROIのペア毎に最大のマッチ度を示す座標が計算される。ここで、マッチングは過去画像のROIを、対応する現在画像のROIに対して位置をずらしながら行うものとする。   In step S402, matching is performed between the corresponding ROIs set in the past image and the current image, and coordinates indicating the maximum matching degree are calculated for each pair of ROIs. Here, the matching is performed while shifting the position of the ROI of the past image with respect to the ROI of the corresponding current image.

マッチングの方法としては例えば相互相関、差分の最大値等の尺度を用いることが出来る。ここで最大のマッチ度を示す座標値間の差分を求めることにより、図4に示すように各ROIのペア毎に2つの画像間のシフトベクトル(Δxi、 Δyi)を求めることができる。   As a matching method, for example, a measure such as a cross-correlation or a maximum difference value can be used. Here, by obtaining a difference between coordinate values indicating the maximum degree of matching, a shift vector (Δxi, Δyi) between two images can be obtained for each pair of ROIs as shown in FIG.

(ステップS404:シフトベクトル補間)
ステップS404では、ステップS403において求められた複数のシフトベクトルに基づいて、過去画像の任意の位置(x、y)に対応する、現在画像の設定位置(u,v)に座標変換するパラメータを求める。
(Step S404: Shift vector interpolation)
In step S404, parameters for coordinate conversion to the set position (u, v) of the current image corresponding to an arbitrary position (x, y) of the past image are obtained based on the plurality of shift vectors obtained in step S403. .

ここで、本ステップでは2つの画像の位置合わせ方法がステップS402と比較して、より局所的な歪みを補正可能な方法であることが望ましい。そこで本実施の形態では座標変換方法として高次多項式を用いるとする。この場合は、(式 2)に示す変換式におけるパラメータaijおよびbijを先に述べたように公知の技術、例えば最小2乗法により求めればよい。   Here, in this step, it is desirable that the alignment method of the two images is a method capable of correcting more local distortion than that in step S402. Therefore, in this embodiment, it is assumed that a high-order polynomial is used as the coordinate conversion method. In this case, the parameters aij and bij in the conversion equation shown in (Equation 2) may be obtained by a known technique such as the least square method as described above.

Figure 2005136594
Figure 2005136594

なお、以降の説明ではこれらのパラメータを詳細マッチングパラメータと呼ぶ。この詳細マッチングパラメータは先のグローバルマッチングパラメータと同様に不図示のメモリに記憶される。
(ステップS405:一方の画像変形)
ステップS404により求められた詳細マッチングパラメータを用いて、過去画像の座標を現在画像の座標に変換した変形画像を生成する。
In the following description, these parameters are called detailed matching parameters. This detailed matching parameter is stored in a memory (not shown) in the same manner as the previous global matching parameter.
(Step S405: One image deformation)
Using the detailed matching parameters obtained in step S404, a modified image is generated by converting the coordinates of the past image into the coordinates of the current image.

(ステップS406:差分処理)
ステップS405により生成された過去画像を変形した画像と現在画像の画素毎の差分を計算し、計算結果を画素値とする差分画像を生成する。なお、ステップS405およびステップS406は区別せずに直接座標を変換しながら差分処理を行っても良い。この場合は過去画像を変形した画像を生成する必要はない。
(Step S406: Difference processing)
A difference for each pixel between the image obtained by deforming the past image generated in step S405 and the current image is calculated, and a difference image having the calculation result as a pixel value is generated. Note that step S405 and step S406 may perform difference processing while directly converting the coordinates without distinction. In this case, it is not necessary to generate an image obtained by deforming the past image.

(ステップS407:差分画像とパラメータ出力)
ステップS406において生成された差分画像と不図示のメモリに記憶されたグローバルマッチングパラメータ、詳細マッチングパラメータを保存部2に対して出力する。
(Step S407: difference image and parameter output)
The difference image generated in step S406 and the global matching parameter and the detailed matching parameter stored in the memory (not shown) are output to the storage unit 2.

以上の処理により、1対の画像(現在画像、過去画像)の差分処理が行われたことになる。このようにして、保存部2には予め現在画像、過去画像、差分画像、グローバルマッチングパラメータ、詳細マッチングパラメータが保存される。   With the above processing, the difference processing of a pair of images (current image and past image) is performed. In this way, the current image, the past image, the difference image, the global matching parameter, and the detailed matching parameter are stored in the storage unit 2 in advance.

[差分画像の表示:図5]
次に保存された差分画像などの表示における各種動作について説明する。この処理は、例えば、医師が差分画像を表示画面に表示させて胸部の経時変化を観察するときなど医師の指示に応じて制御部が制御プログラムに基づいて各部を制御しながら行う処理である。
[Difference image display: FIG. 5]
Next, various operations in displaying a stored difference image or the like will be described. This process is a process performed by the control unit while controlling each unit based on the control program according to the doctor's instruction, for example, when the doctor displays a difference image on the display screen and observes the change in the chest over time.

図1において制御部5は画像の保存部2からの読み出しおよび表示に際しての様々な形態を制御する。   In FIG. 1, the control unit 5 controls various modes in reading and displaying an image from the storage unit 2.

差分画像の表示に際し、制御部5は画像入力部3に対して保存部2から差分画像とそれを生成するときに用いた2枚の画像を出力するよう指示を与える。画像入力部3により読み出された画像は表示制御部6を介して表示部7に出力され、医師による読影が行われる。表示部7はCRTモニタ等の画像表示装置であり、表示制御部6は読み出された画像を読影に適した形態に変換・配置するものであり、例えば、モニタの大きさに応じて画像を配置し、モニタの表示能力に応じた画素精度に変換を行う。   When displaying the difference image, the control unit 5 instructs the image input unit 3 to output the difference image and the two images used when generating the difference image from the storage unit 2. The image read by the image input unit 3 is output to the display unit 7 via the display control unit 6 and is interpreted by a doctor. The display unit 7 is an image display device such as a CRT monitor, and the display control unit 6 converts and arranges the read image into a form suitable for interpretation. For example, the image is displayed according to the size of the monitor. It is arranged and converted to pixel accuracy according to the display capability of the monitor.

図5は2つのモニタから構成される表示部7での画像表示形態の概略図である。モニタ1には差分画像の生成に用いられた2つの画像が表示され、モニタ2には差分画像が表示されているが、必ずしもこの構成に限定されなくても良く、例えばモニタ1には現在又は過去のいずれか一方の画像を表示するようにしても良い。これらの表示方法についてはユーザがマウス等の入力機器から表示制御部5に指示を与えることで変更することが可能である。   FIG. 5 is a schematic diagram of an image display form on the display unit 7 composed of two monitors. Two images used to generate the difference image are displayed on the monitor 1 and the difference image is displayed on the monitor 2. However, the present invention is not necessarily limited to this configuration. Any one of the past images may be displayed. These display methods can be changed by the user giving an instruction to the display control unit 5 from an input device such as a mouse.

[差分画像が不明瞭な場合の処理:図6]
次に、医師が差分画像を表示画面に表示させて胸部の経時変化を観察するときに、差分画像を識別できた場合、すなわち、2枚の画像間に微小な変化が生じたことを発見した場合において、差分画像が不明瞭なためその変化の部分が経時的な変化が生じた部分なのか、あるいはアーチファクトに起因して発生したものなのか、区別がつきにくい場合の処理について説明する。
[Processing when the difference image is unclear: FIG. 6]
Next, when the doctor displayed the difference image on the display screen and observed changes in the chest over time, he found that the difference image could be identified, that is, that a minute change occurred between the two images. In this case, a process will be described in which it is difficult to distinguish whether the difference image is unclear and whether the change portion is a change portion with time or is caused by an artifact.

図6はモニタ2における表示を拡大したものである。同図において差分画像の右肺において陰影Nが存在しているが、その陰影は小さく不明瞭であるとする。この時、医師が画面上から画像内の一部の領域R(陰影Nを含む領域)を指定し、さらに詳細な差分画像を生成する処理の開始動作を行う。   FIG. 6 is an enlarged view of the display on the monitor 2. In the figure, it is assumed that there is a shadow N in the right lung of the difference image, but the shadow is small and unclear. At this time, the doctor designates a partial area R (an area including the shadow N) in the image from the screen, and starts a process of generating a more detailed difference image.

[部分差分画像の生成処理:図8B]
すなわち、図6におけるCはマウスカーソルであり、図6に示すようにマウスを用いることにより陰影Nを含む領域Rが医師により設定される。領域Rを確定すると、医師(ユーザ)は差分処理実行ボタンBをマウスでクリックする。すると、図8Bに示す差分処理が制御プログラムに基づいて制御部が5各部を制御しながら実行される。
[Partial Difference Image Generation Processing: FIG. 8B]
That is, C in FIG. 6 is a mouse cursor, and a region R including a shadow N is set by a doctor by using the mouse as shown in FIG. When the region R is determined, the doctor (user) clicks the difference processing execution button B with the mouse. Then, the difference process shown in FIG. 8B is executed while the control unit controls the five units based on the control program.

まず、ステップS501において、差分処理実行ボタンBが押下されたのを検出すると、モニタ2上に表示された差分画像に対応する現在画像、過去画像、マッチングパラメータに関する情報を取得する。   First, in step S501, when it is detected that the difference processing execution button B is pressed, information on the current image, the past image, and the matching parameter corresponding to the difference image displayed on the monitor 2 is acquired.

次に、ステップS502において、モニタ2上で設定された領域R(差分画像内の部分領域)の位置と大きさを検出し、検出した領域Rの位置と大きさを画像入力部3に出力される。   Next, in step S502, the position and size of the region R (partial region in the difference image) set on the monitor 2 are detected, and the position and size of the detected region R are output to the image input unit 3. The

次に、ステップS503において、画像入力部3ではモニタ2上に表示された差分画像内に設定された領域Rに対応する現在画像の部分画像のデータと過去画像の部分画像のデータとを保存部2に保存された現在画像(図7(a))および過去画像(図7(b))から抽出して差分処理部4に出力するが、この時、保存部2に保存されたグローバルマッチングパラメータおよび詳細マッチングパラメータのどちらか又は両方のマッチングパラメータを用いて保存部2に保存された現在画像からの部分画像と過去画像からの部分画像の抽出が行われる。   Next, in step S503, the image input unit 3 stores the partial image data of the current image and the partial image data of the past image corresponding to the region R set in the difference image displayed on the monitor 2. 2 is extracted from the current image (FIG. 7A) and the past image (FIG. 7B) stored in 2 and output to the difference processing unit 4. At this time, the global matching parameter stored in the storage unit 2 is stored. The partial image from the current image stored in the storage unit 2 and the partial image from the past image are extracted using either or both of the detailed matching parameters and both.

すなわち、先の差分処理(図2)においては、例えば、ステップS401またはステップS403において、過去画像と現在画像間の位置ずれまたは歪みを解消するためにグローバルマッチングパラメータまたは詳細マッチングパラメータを用いて過去画像を現在画像に重ね合わせるように変形した。したがって、差分画像において指定された領域Rは、現在画像の座標系を基準としているため、現在画像から部分的に画像データを抽出する際は差分画像において指定された領域Rの位置と大きさはそのまま現在画像から部分的に抽出される画像データの領域(図7(a))(部分画像)となるが、過去画像から部分的に画像データを抽出する際は、画像間の位置ずれまたは歪みを解消し画像間の位置を一致させるためにマッチングパラメータを用いて現在画像の座標系から過去画像の座標系に領域Rの座標値を変換しなければならない。このようにして、過去画像から指定された領域Rに対応する部分的に抽出される画像データの領域(部分画像)が得られる。   That is, in the previous difference processing (FIG. 2), for example, in step S401 or step S403, the past image is used by using the global matching parameter or the detailed matching parameter in order to eliminate the positional deviation or distortion between the past image and the current image. Has been transformed to overlap the current image. Accordingly, since the region R designated in the difference image is based on the coordinate system of the current image, the position and size of the region R designated in the difference image are determined when partially extracting image data from the current image. The image data area (FIG. 7A) (partial image) that is partially extracted from the current image is used as it is. However, when image data is partially extracted from the past image, misalignment or distortion between images. In order to eliminate the above and match the positions of the images, the coordinate value of the region R must be converted from the coordinate system of the current image to the coordinate system of the past image using the matching parameter. In this way, a region (partial image) of image data partially extracted corresponding to the region R designated from the past image is obtained.

この時、抽出される領域Rが現在画像において矩形形状であっても、過去画像においては必ずしも矩形になるとは限らない。そこで、以下の説明では、図7(b)に示すように過去画像の画像データに関しては、領域Rが過去画像に占める領域を含む矩形領域R’が抽出されるものとする。   At this time, even if the extracted region R has a rectangular shape in the current image, the extracted region R does not necessarily have a rectangular shape in the past image. Therefore, in the following description, as shown in FIG. 7B, regarding the image data of the past image, it is assumed that a rectangular region R ′ including a region occupied by the region R in the past image is extracted.

次に、ステップS504において、これにより抽出された現在画像および過去画像の画像データは差分処理部4において領域Rの差分処理が行われ、差分画像SI’が生成される。この処理は、先に説明した図2の差分処理のステップS402〜ステップS407の処理と同じであり重複するのでその説明は省略する。 なお、ステップS504では、既に2つの領域RおよびR’の基準点(P〜QおよびP’〜Q’)の対応は既知であるため、図2のステップS401の処理を行う必要はないため、図2のステップS402〜ステップS407のみの処理を行っている。また、図7に示すように領域RおよびR’の大きさが等しくない場合は、不足する画像データは全て0と仮定することにより、上記説明した同じ処理を適用することができる。   Next, in step S504, the image data of the current image and the past image thus extracted is subjected to the difference processing of the region R in the difference processing unit 4, and a difference image SI 'is generated. This process is the same as the process of steps S402 to S407 of the difference process of FIG. In step S504, since the correspondence between the reference points (P to Q and P ′ to Q ′) of the two regions R and R ′ is already known, it is not necessary to perform the process of step S401 in FIG. Only steps S402 to S407 in FIG. 2 are performed. Also, as shown in FIG. 7, when the sizes of the regions R and R ′ are not equal, it is possible to apply the same processing described above by assuming that all of the missing image data is zero.

次にステップS505において、得られた差分画像SI’は直接表示制御部6を介して表示部7に出力される。ここで、本実施の形態においては、表示制御部6は図8Aに示すように新たに生成された差分画像SI’を元の差分画像に重ね合わせて表示するが、画像サイズが異なるので、図6で指定した領域Rよりも大きく表示される。新たに生成された差分画像SI’は元の差分画像とは別画面(別ウィンドウ)に表示することもできる。ここで、差分画像SI’は元の画像(縮小される前の)から一部分を抽出したものであるため、元の画像と同じ画像サイズ(解像度)を有している。したがって、元の差分画像よりも高精細な差分信号を得ることが可能となる。   In step S505, the obtained difference image SI 'is output to the display unit 7 via the direct display control unit 6. Here, in the present embodiment, the display control unit 6 displays the newly generated difference image SI ′ superimposed on the original difference image as shown in FIG. 8A, but the image size is different. 6 is displayed larger than the area R specified in FIG. The newly generated difference image SI 'can be displayed on a different screen (a different window) from the original difference image. Here, since the difference image SI 'is a part extracted from the original image (before being reduced), it has the same image size (resolution) as the original image. Therefore, it is possible to obtain a differential signal with higher definition than the original differential image.

なお、上記の説明では、過去画像と現在画像間の位置ずれまたは歪みを解消するためにグローバルマッチングパラメータまたは詳細マッチングパラメータを用いて過去画像を現在画像に重ね合わせるように変形した。しかしながら、これは一例であり、上記説明した手法を用いると過去画像と現在画像間の位置ずれまたは歪みを解消するために現在画像を過去画像に重ね合わせるように変形することもできる。   In the above description, the past image is modified to be superimposed on the current image using the global matching parameter or the detailed matching parameter in order to eliminate the positional deviation or distortion between the past image and the current image. However, this is an example, and when the above-described method is used, the current image can be modified to be superimposed on the past image in order to eliminate the positional shift or distortion between the past image and the current image.

なお、新たに生成された部分領域の差分画像は必要に応じて保存部2に保存するようにしても良い。   The newly generated difference image of the partial area may be stored in the storage unit 2 as necessary.

以上説明したように、差分画像を観察時において、表示された差分画像が不明瞭な場合でも、予め差分画像処理で得られて保存されている画像間の位置を一致させるパラメータを利用し、それに基づいて指定された領域のみの差分処理を縮小していない解像度の画像で、再度行うことにより詳細な部分差分画像を生成して表示することができる。   As explained above, even when the difference image displayed is unclear when observing the difference image, it uses the parameter for matching the positions between the images obtained and stored in advance by the difference image processing. It is possible to generate and display a detailed partial difference image by performing again the difference processing of only the area designated based on the resolution of the image that has not been reduced.

<第2実施形態>
第1実施形態においては、表示された差分画像が不明瞭な場合において、再度差分画像を生成する際には、元画像と同じ画像サイズ(解像度)で処理を行った。しかしながら、部分領域を指定する際に部分領域内の画素サイズ(解像度)を指定可能としても良い。このような機能は差分画像における詳細表示を行う陰影が比較的大きい場合に有効である。この処理について以下説明する。
Second Embodiment
In the first embodiment, when the displayed difference image is unclear, when the difference image is generated again, processing is performed with the same image size (resolution) as the original image. However, the pixel size (resolution) in the partial area may be specified when the partial area is specified. Such a function is effective when the shadow for performing the detailed display in the difference image is relatively large. This process will be described below.

図9は本実施の形態における拡大表示領域を指定する画面例である。第1実施形態と同様に、差分画像上で領域Rを選択すると同時に、マウスの右クリックにより表示されるポップアップメニューP等で表示解像度を指定する。   FIG. 9 shows an example of a screen for designating an enlarged display area in the present embodiment. Similar to the first embodiment, the region R is selected on the difference image, and at the same time, the display resolution is designated by the pop-up menu P displayed by right-clicking the mouse.

元の画像の画像サイズ(解像度)が2048×2048の場合同図に示すように、水平・垂直共に(1/2)(n=1,2,3)の解像度の組み合わせが表示され、この中からユーザが表示を行う際の解像度に対応する画素サイズを決定する。例えば、画像サイズ(解像度)として1024×1024が選択された場合は、元の画素サイズに対して1/2のサイズが指定されたことになる。ここでいう画像サイズは、差分画像上での領域Rの画像サイズではなく、画像全体のサイズ(解像度)を意味している。 When the image size (resolution) of the original image is 2048 × 2048, as shown in the figure, a combination of resolutions of (1/2) n (n = 1, 2, 3) is displayed in both horizontal and vertical directions. The pixel size corresponding to the resolution when the user performs display is determined. For example, when 1024 × 1024 is selected as the image size (resolution), a size that is ½ of the original pixel size is designated. The image size here means not the image size of the region R on the difference image but the size (resolution) of the entire image.

以上の操作により決定された差分画像における部分領域Rの位置・大きさと解像度は制御部5を介して画像入力部3に出力される。画像入力部3は保存部2に保存された現在および過去画像の指定領域Rに相当する部分を読み出し、さらに画像サイズ(解像度)が指定の大きさとなるよう縮小した後に差分処理部4に出力する。ここで、指定領域Rの抽出に関しては第1実施形態で説明したのと同じ処理方法を取ることが出来るので、重複する詳細説明は省略する。また、差分処理部4における再度の差分処理も第1実施形態で説明したのと同じ処理方法を取ることが出来るので、重複する詳細説明は省略する。   The position / size and resolution of the partial region R in the difference image determined by the above operation are output to the image input unit 3 via the control unit 5. The image input unit 3 reads the portion corresponding to the designated area R of the current and past images stored in the storage unit 2, further reduces the image size (resolution) to a specified size, and outputs the reduced size to the difference processing unit 4. . Here, regarding the extraction of the designated region R, the same processing method as that described in the first embodiment can be used, and therefore a detailed description thereof is omitted. Moreover, since the difference process in the difference process part 4 can also take the same processing method as demonstrated in 1st Embodiment, the overlapping detailed description is abbreviate | omitted.

新たに生成された縮小画像は、図8Aに示した第1実施の形態における表示形態と同様であるが、本実施の形態において拡大表示される部分の差分画像は水平垂直共に半分の大きさとなる。   The newly generated reduced image is the same as the display form in the first embodiment shown in FIG. 8A, but the difference image of the enlarged display part in this embodiment is half the size both horizontally and vertically. .

<第3実施の形態>
第1実施形態においては、保存部2に保存される画像データは、圧縮符号化されている画像データではなかった。しかしながら、保存部2に保存される画像が圧縮符号化されている場合は、さらに効率的な処理を行うことも可能となる。
<Third Embodiment>
In the first embodiment, the image data stored in the storage unit 2 is not compression-encoded image data. However, when the image stored in the storage unit 2 is compression-encoded, more efficient processing can be performed.

そこで、本実施の形態においては、保存部2における画像の保存形式がウェーブレット変換を利用した圧縮データとなっている場合の処理について以下説明する。さらに圧縮符号化の方式としては様々な形態が適用可能であるが、本実施の形態では画像データはISO/IEC15444(以降JPEG2000と呼ぶ)により圧縮されているとして説明する。   Therefore, in the present embodiment, processing when the image storage format in the storage unit 2 is compressed data using wavelet transform will be described below. Further, various forms can be applied as a compression encoding method. In the present embodiment, it is assumed that image data is compressed by ISO / IEC15444 (hereinafter referred to as JPEG2000).

図10はJPEG2000で画像IMを圧縮する際の形態の一例である。同図(a)で画像IMはタイルTに分割され、タイル毎に独立して圧縮符号化される。   FIG. 10 shows an example of a form when the image IM is compressed by JPEG2000. In FIG. 5A, the image IM is divided into tiles T and is compressed and encoded independently for each tile.

ここで現在画像及び過去画像がJPEG2000で圧縮符号化されて保存部2に保存されており、差分画像の部分拡大表示領域が図 10(a)におけて網がけしたタイルに含まれる場合、画像入力部3は当該タイルの符号化データのみを保存部から読み出し、復号処理を行う。さらに、指定された画素サイズが水平・垂直共に1/2の場合、同図(b)において斜線を付したサブバンドの符号に対して復号動作を行い、画像を復元する。その結果復元された画像は元のサイズに対して1/2の大きさを持つ。   Here, when the current image and the past image are compressed and encoded by JPEG2000 and stored in the storage unit 2, and the partial enlarged display area of the difference image is included in the shaded tile in FIG. The input unit 3 reads only the encoded data of the tile from the storage unit and performs a decoding process. Further, when the designated pixel size is 1/2 in both the horizontal and vertical directions, a decoding operation is performed on the subband codes hatched in FIG. As a result, the restored image has a size 1/2 that of the original size.

この処理は現在及び過去画像の両方に対して行われ、復元された画像は差分処理部4に出力されて、第1の実施例で説明したのと同様な方法で差分画像が生成され、表示されるが、その説明は重複するのでここでの詳細説明は省略する。   This process is performed for both the current and past images, and the restored image is output to the difference processing unit 4 to generate and display a difference image in the same manner as described in the first embodiment. However, since the description overlaps, detailed description here is abbreviate | omitted.

<その他の実施の形態>
さらに、本発明は上記実施の形態を実現するための装置及び方法のみに限定されるものではなく、上記システム又は装置内のコンピュータ(CPUあるいはMPU)に、上記実施の形態を実現するためのソフトウエアのプログラムコードを供給し、このプログラムコードに従って上記システムあるいは装置のコンピュータが上記各種デバイスを動作させることにより上記実施の形態を実現する場合も本発明の範疇に含まれる。
<Other embodiments>
Furthermore, the present invention is not limited to only the apparatus and method for realizing the above-described embodiment, but software for realizing the above-described embodiment on a computer (CPU or MPU) in the system or apparatus. A case in which the above-described embodiment is realized by supplying a software program code and causing the system or apparatus computer to operate the various devices according to the program code is also included in the scope of the present invention.

またこの場合、前記ソフトウエアのプログラムコード自体が上記実施の形態の機能を実現することになり、そのプログラムコード自体、及びそのプログラムコードをコンピュータに供給するための手段、具体的には上記プログラムコードを格納した記憶媒体は本発明の範疇に含まれる。   In this case, the program code of the software itself realizes the function of the above embodiment, and the program code itself and means for supplying the program code to the computer, specifically, the program code Is included in the scope of the present invention.

この様なプログラムコードを格納する記憶媒体としては、例えばフレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、磁気テープ、不揮発性のメモリカード、ROM等を用いることができる。   As a storage medium for storing such a program code, for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a magnetic tape, a nonvolatile memory card, a ROM, or the like can be used.

また、上記コンピュータが、供給されたプログラムコードのみに従って各種デバイスを制御することにより、上記実施の形態の機能が実現される場合だけではなく、上記プログラムコードがコンピュータ上で稼働しているOS(オペレーティングシステム)、あるいは他のアプリケーションソフト等と共同して上記実施の形態が実現される場合にもかかるプログラムコードは本発明の範疇に含まれる。   The computer controls various devices according to only the supplied program code so that the functions of the above-described embodiments are realized, and the OS (operating system) on which the program code is running on the computer is also provided. Such program code is also included in the scope of the present invention when the above embodiment is realized in cooperation with a system) or other application software.

更に、この供給されたプログラムコードが、コンピュータの機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに格納された後、そのプログラムコードの指示に基づいてその機能拡張ボードや機能格納ユニットに備わるCPU等が実際の処理の一部または全部を行い、その処理によって上記実施の形態が実現される場合も本発明の範疇に含まれる。   Further, after the supplied program code is stored in the memory of the function expansion board of the computer or the function expansion unit connected to the computer, the program code is stored in the function expansion board or function storage unit based on the instruction of the program code. The case where the above-described embodiment is realized by performing a part or all of the actual processing and the processing is included in the scope of the present invention.

本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明した図2、図8Bに示した処理を実現するプログラムが格納されることになる。   When the present invention is applied to the above storage medium, the storage medium stores a program that realizes the processing shown in FIGS. 2 and 8B described above.

以上説明したように、本実施形態によれば、予め、第1画像と第2画像、第1画像と第2画像間の位置ずれまたは歪みを解消する座標変換用の第1パラメータ、第1パラメータを用いて画像間の位置を一致させた後に生成された第1画像と第2画像の差分画像、を予めメモリに格納しておき、この差分画像が表示画面に表示され差分画像内の部分領域が指定されると、第1パラメータを用いて画像間の位置を一致させて部分領域に対応する第1画像内の第1部分画像と第2画像内の第2部分画像を決定し、第1部分画像と第2部分画像間の位置ずれまたは歪みを解消する座標変換用の第2パラメータを算出し、第2パラメータを用いて画像間の位置を一致させた後に第1部分画像と第2部分画像間の部分差分画像を生成することができる。   As described above, according to the present embodiment, the first parameter and the first parameter for coordinate conversion for eliminating the positional deviation or distortion between the first image and the second image and between the first image and the second image in advance. The difference image between the first image and the second image generated after matching the positions between the images using is stored in a memory in advance, and the difference image is displayed on the display screen and is a partial area in the difference image. Is specified, the first parameter is used to match the positions of the images, the first partial image in the first image and the second partial image in the second image corresponding to the partial region are determined, and the first A second parameter for coordinate conversion that eliminates a positional shift or distortion between the partial image and the second partial image is calculated, and after the positions of the images are matched using the second parameter, the first partial image and the second partial image A partial difference image between images can be generated.

そのため、表示された差分画像が不明瞭な場合(ユーザがこの差分画像を対象物の経時変化によるものなのかアーチファクトによるものなのか識別できない場合)でも、この表示される部分差分画像は最初に表示された差分画像より鮮明な画像なのでユーザは対象物の経時変化をより精度良く識別できる。   Therefore, even if the displayed difference image is ambiguous (when the user cannot identify whether the difference image is due to changes in the object over time or due to artifacts), the displayed partial difference image is displayed first. Since the image is clearer than the difference image, the user can identify the change of the object with time with higher accuracy.

本発明による画像処理装置の全体構成図である。1 is an overall configuration diagram of an image processing apparatus according to the present invention. 差分画像生成処理のフローチャートである。It is a flowchart of a difference image generation process. グローバルマッチング時の基準点検出例である。It is an example of the reference point detection at the time of global matching. 過去画像中に複数のROIを設定する例を説明する図である。It is a figure explaining the example which sets several ROI in the past image. シフトベクトル例である。It is an example of a shift vector. 表示装置の構成である。It is a structure of a display apparatus. 差分画像で示された陰影部分の指定例である。It is an example of designation | designated of the shadow part shown with the difference image. 現在画像と過去画像の抽出された部分領域を説明する図である。It is a figure explaining the partial area | region where the present image and the past image were extracted. 再差分画像を差分画像に重ねて表示する例を説明する図である。It is a figure explaining the example which superimposes and displays a re-difference image on a difference image. 再差分画像生成処理のフローチャートである。It is a flowchart of a re-difference image generation process. 第2実施形態における領域指定説明図である。It is area | region specification explanatory drawing in 2nd Embodiment. 画像のタイル分割説明図である。It is tile division explanatory drawing of an image.

符号の説明Explanation of symbols

1 撮像部
2 保存部
3 画像入力部
4 差分処理部
5 制御部
6 表示制御部
7 表示部
DESCRIPTION OF SYMBOLS 1 Image pick-up part 2 Storage part 3 Image input part 4 Difference processing part 5 Control part 6 Display control part 7 Display part

Claims (14)

異なる時刻で撮像された対象物の第1画像と第2画像とから差分画像を生成する画像処理装置であって、
前記第1画像と第2画像と、前記第1画像と第2画像間の位置ずれまたは歪みを解消する座標変換用の第1パラメータと、前記第1パラメータを用いて画像間の位置を一致させた後に生成された前記第1画像と第2画像間の差分画像とを予め格納する格納手段と、
前記格納手段に格納されている前記差分画像を表示する表示手段と、
前記表示手段に表示された前記差分画像内の部分領域が指定されると、前記第1パラメータを用いて前記第1画像と第2画像間の位置ずれまたは歪みを解消し画像間の位置を一致させてから前記部分領域に対応する前記第1画像内の第1部分画像と前記第2画像内の第2部分画像とを決定する決定手段と、
前記決定手段によって決定された第1部分画像と第2部分画像間の位置ずれまたは歪みを解消する座標変換用の第2パラメータを算出し、該第2パラメータを用いて画像間の位置を一致させた後に前記第1部分画像と第2部分画像間の部分差分画像を生成する生成手段と、
を有することを特徴とする画像処理装置。
An image processing device that generates a difference image from a first image and a second image of an object imaged at different times,
The first image and the second image, the first parameter for coordinate conversion that eliminates the displacement or distortion between the first image and the second image, and the position between the images are matched using the first parameter. Storage means for storing in advance a difference image between the first image and the second image generated after
Display means for displaying the difference image stored in the storage means;
When a partial area in the difference image displayed on the display means is designated, the first parameter is used to eliminate positional deviation or distortion between the first image and the second image, and to match the positions between the images. And determining means for determining a first partial image in the first image and a second partial image in the second image corresponding to the partial area,
A second parameter for coordinate conversion that eliminates a positional shift or distortion between the first partial image and the second partial image determined by the determining means is calculated, and the position between the images is matched using the second parameter. Generating means for generating a partial difference image between the first partial image and the second partial image after,
An image processing apparatus comprising:
前記第1パラメータは、2つの画像間で対象物の特徴的な位置を示す基準点の座標に対して所定変換式に基づいていずれか一方の画像の点座標を他方の点座標に座標変換するときに用いるパラメータを含むことを特徴とする請求項1に記載の画像処理装置。   The first parameter is a coordinate conversion of the point coordinate of one image to the other point coordinate based on a predetermined conversion formula with respect to the coordinate of the reference point indicating the characteristic position of the object between the two images. The image processing apparatus according to claim 1, further comprising parameters used at times. 前記第1画像と第2画像は単純X線またはコンピュータ断層撮影法により撮像された画像であり、前記基準点は解剖学的に特徴的な部位の位置であることを特徴とする請求項2に記載の画像処理装置。   The first image and the second image are images obtained by simple X-ray or computed tomography, and the reference point is a position of an anatomically characteristic part. The image processing apparatus described. 前記生成手段は、前記所定変換式を用いて前記第2部分画像内に設定する第2設定領域の設定位置を、前記第2設定領域に対応して設定される前記第1部分画像内に設定する第1設定領域の設定位置に変換する変換手段を含むことを特徴とする請求項2に記載の画像処理装置。   The generation unit sets a setting position of a second setting area set in the second partial image using the predetermined conversion formula in the first partial image set corresponding to the second setting area. The image processing apparatus according to claim 2, further comprising conversion means for converting into a setting position of the first setting area. 前記表示手段は前記格納手段に格納されている前記第1画像と第2画像とを前記差分画像と並べて表示することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the display unit displays the first image and the second image stored in the storage unit side by side with the difference image. 前記生成手段は、前記部分領域の画像の解像度を選択する選択手段と、
前記部分領域に相当する前記第1画像と第2画像のデータを前記格納手段から読み出し、該読み出したデータの画素サイズを前記選択手段によって選択された解像度となるよう変更する変更手段と、
を含むことを特徴とする請求項5に記載の画像処理装置。
The generating means is a selecting means for selecting the resolution of the image of the partial area;
Changing means for reading the data of the first image and the second image corresponding to the partial area from the storage means and changing the pixel size of the read data to the resolution selected by the selection means;
The image processing apparatus according to claim 5, further comprising:
前記格納手段に保存される前記第1画像と第2画像のデータは、圧縮符号化されたデータであることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the data of the first image and the second image stored in the storage unit is compression-coded data. 異なる時刻で撮像された対象物の前記第1画像と第2画像と、前記第1画像と第2画像間の位置ずれまたは歪みを解消する座標変換用の第1パラメータと、前記第1パラメータを用いて画像間の位置を一致させた後に生成された前記第1画像と第2画像間の差分画像とを予め格納する格納手段を備える画像処理装置の制御方法であって、
前記格納手段に格納されている前記差分画像を表示する表示工程と、
前記表示工程により表示された前記差分画像内の部分領域が指定されると、前記第1パラメータを用いて前記第1画像と第2画像間の位置ずれまたは歪みを解消し画像間の位置を一致させてから前記部分領域に対応する前記第1画像内の第1部分画像と前記第2画像内の第2部分画像とを決定する決定工程と、
前記決定工程によって決定された第1部分画像と第2部分画像間の位置ずれまたは歪みを解消する座標変換用の第2パラメータを算出し、該第2パラメータを用いて画像間の位置を一致させた後に前記第1部分画像と第2部分画像間の差分画像を生成する生成工程と、
を有することを特徴とする画像処理装置の制御方法。
The first image and the second image of the object imaged at different times, the first parameter for coordinate conversion for eliminating the positional deviation or distortion between the first image and the second image, and the first parameter A method for controlling an image processing apparatus comprising storage means for preliminarily storing a difference image between the first image and the second image generated after matching positions between images using the method,
A display step of displaying the difference image stored in the storage means;
When a partial area in the difference image displayed in the display step is specified, the first parameter is used to eliminate positional deviation or distortion between the first image and the second image, and to match the positions between the images. A determination step of determining a first partial image in the first image and a second partial image in the second image corresponding to the partial region;
A second parameter for coordinate conversion that eliminates a positional shift or distortion between the first partial image and the second partial image determined in the determining step is calculated, and the position between the images is matched using the second parameter. Generating a difference image between the first partial image and the second partial image after,
A control method for an image processing apparatus, comprising:
異なる時刻で撮像された対象物の前記第1画像と第2画像と、前記第1画像と第2画像間の位置ずれまたは歪みを解消する座標変換用の第1パラメータと、前記第1パラメータを用いて画像間の位置を一致させた後に生成された前記第1画像と第2画像間の差分画像とを予め格納する格納手段を備える画像処理装置を制御する制御プログラムであって、
前記格納手段に格納されている前記差分画像を表示する表示工程のプログラムコードと、
前記表示工程により表示された前記差分画像内の部分領域が指定されると、前記第1パラメータを用いて前記第1画像と第2画像間の位置ずれまたは歪みを解消し画像間の位置を一致させてから前記部分領域に対応する前記第1画像内の第1部分画像と前記第2画像内の第2部分画像とを決定する決定工程のプログラムコードと、
前記決定工程によって決定された第1部分画像と第2部分画像間の位置ずれまたは歪みを解消する座標変換用の第2パラメータを算出し、該第2パラメータを用いて画像間の位置を一致させた後に前記第1部分画像と第2部分画像間の差分画像を生成する生成工程のプログラムコードと、
を有することを特徴とする画像処理装置を制御する制御プログラム。
The first image and the second image of the object imaged at different times, the first parameter for coordinate conversion for eliminating the positional deviation or distortion between the first image and the second image, and the first parameter A control program for controlling an image processing apparatus comprising storage means for preliminarily storing a difference image between the first image and the second image generated after matching the positions between the images,
A program code of a display step for displaying the difference image stored in the storage means;
When a partial area in the difference image displayed in the display step is specified, the first parameter is used to eliminate positional deviation or distortion between the first image and the second image, and to match the positions between the images. And a program code of a determining step for determining a first partial image in the first image and a second partial image in the second image corresponding to the partial region,
A second parameter for coordinate conversion that eliminates a positional shift or distortion between the first partial image and the second partial image determined in the determining step is calculated, and the position between the images is matched using the second parameter. A program code of a generating step for generating a difference image between the first partial image and the second partial image after
A control program for controlling an image processing apparatus.
請求項9記載のコンピュータプログラムを格納したコンピュータ読み取り可能な記録媒体。   A computer-readable recording medium storing the computer program according to claim 9. 異なる時刻で撮像された対象物の第1画像と第2画像とから差分画像を生成する画像処理装置であって、
前記第1画像および第2画像の画像サイズを縮小する縮小手段と、
前記縮小手段で縮小した第1画像と第2画像とから差分画像を生成する第1の差分画像生成手段と、
前記第1の差分画像生成手段によって、生成された差分画像上で特定の領域を指定する領域指定手段と、
前記第1画像および第2画像から前記特定の領域に対応する領域を抽出する抽出手段と、
前記抽出手段によって、前記第1画像から抽出された領域と前記第2画像から抽出された領域とから差分画像を生成する第2の差分画像生成手段と、
を有することを特徴とする画像処理装置。
An image processing device that generates a difference image from a first image and a second image of an object imaged at different times,
Reduction means for reducing the image size of the first image and the second image;
First difference image generation means for generating a difference image from the first image and the second image reduced by the reduction means;
Area specifying means for specifying a specific area on the difference image generated by the first difference image generating means;
Extraction means for extracting a region corresponding to the specific region from the first image and the second image;
Second difference image generation means for generating a difference image from the area extracted from the first image and the area extracted from the second image by the extraction means;
An image processing apparatus comprising:
異なる時刻で撮像された対象物の第1画像と第2画像とから差分画像を生成する画像処理装置であって、
前記第1画像および第2画像の画像サイズを縮小する縮小手段と、
前記縮小手段で縮小した第1画像と第2画像とから差分画像を生成する第1の差分画像生成手段と、
前記第1の差分画像生成手段によって、生成された差分画像上で特定の領域を指定する領域指定手段と、
前記第1画像および第2画像の画像サイズを指定する画像サイズ指定手段と、
前記第1画像および第2画像を前記画像サイズ指定手段によって指定された画像サイズに変更し、画像サイズが変更された第1画像および第2画像から前記特定の領域に対応する領域を抽出する抽出手段と、
前記抽出手段によって、前記第1画像から抽出された領域と前記第2画像から抽出された領域とから差分画像を生成する第2の差分画像生成手段と、
を有することを特徴とする画像処理装置。
An image processing device that generates a difference image from a first image and a second image of an object imaged at different times,
Reduction means for reducing the image size of the first image and the second image;
First difference image generation means for generating a difference image from the first image and the second image reduced by the reduction means;
Area specifying means for specifying a specific area on the difference image generated by the first difference image generating means;
Image size designating means for designating image sizes of the first image and the second image;
Extracting the first image and the second image to an image size designated by the image size designation means, and extracting an area corresponding to the specific area from the first image and the second image having the changed image size Means,
Second difference image generation means for generating a difference image from the area extracted from the first image and the area extracted from the second image by the extraction means;
An image processing apparatus comprising:
異なる時刻で撮像された対象物の第1画像と第2画像とから差分画像を生成する画像処理方法であって、
前記第1画像および第2画像の画像サイズを縮小する縮小工程と、
前記縮小工程で縮小した第1画像と第2画像とから差分画像を生成する第1の差分画像生成工程と、
前記第1の差分画像生成工程によって、生成された差分画像上で特定の領域を指定する領域指定工程と、
前記第1画像および第2画像から前記特定の領域に対応する領域を抽出する抽出工程と、
前記抽出工程によって、前記第1画像から抽出された領域と前記第2画像から抽出された領域とから差分画像を生成する第2の差分画像生成工程と、
を有することを特徴とする画像処理方法。
An image processing method for generating a difference image from a first image and a second image of an object imaged at different times,
A reduction step of reducing the image size of the first image and the second image;
A first difference image generation step of generating a difference image from the first image and the second image reduced in the reduction step;
An area designating process for designating a specific area on the differential image generated by the first differential image generating process;
An extraction step of extracting an area corresponding to the specific area from the first image and the second image;
A second difference image generation step of generating a difference image from the region extracted from the first image and the region extracted from the second image by the extraction step;
An image processing method comprising:
異なる時刻で撮像された対象物の第1画像と第2画像とから差分画像を生成する画像処理方法であって、
前記第1画像および第2画像の画像サイズを縮小する縮小工程と、
前記縮小手段で縮小した第1画像と第2画像とから差分画像を生成する第1の差分画像生成工程と、
前記第1の差分画像生成手段によって、生成された差分画像上で特定の領域を指定する領域指定工程と、
前記第1画像および第2画像の画像サイズを指定する画像サイズ指定工程と、
前記第1画像および第2画像を前記画像サイズ指定工程によって指定された画像サイズに変更し、画像サイズが変更された第1画像および第2画像から前記特定の領域に対応する領域を抽出する抽出工程と、
前記抽出工程によって、前記第1画像から抽出された領域と前記第2画像から抽出された領域とから差分画像を生成する第2の差分画像生成工程と、
を有することを特徴とする画像処理方法。
An image processing method for generating a difference image from a first image and a second image of an object imaged at different times,
A reduction step of reducing the image size of the first image and the second image;
A first difference image generation step of generating a difference image from the first image and the second image reduced by the reduction means;
An area designating step of designating a specific area on the differential image generated by the first differential image generating means;
An image size designation step for designating image sizes of the first image and the second image;
Extracting the first image and the second image to an image size designated by the image size designation step, and extracting an area corresponding to the specific area from the first image and the second image whose image size has been changed Process,
A second difference image generation step of generating a difference image from the region extracted from the first image and the region extracted from the second image by the extraction step;
An image processing method comprising:
JP2003368921A 2003-10-29 2003-10-29 Image processing apparatus and control method thereof Withdrawn JP2005136594A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003368921A JP2005136594A (en) 2003-10-29 2003-10-29 Image processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003368921A JP2005136594A (en) 2003-10-29 2003-10-29 Image processing apparatus and control method thereof

Publications (1)

Publication Number Publication Date
JP2005136594A true JP2005136594A (en) 2005-05-26

Family

ID=34646439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003368921A Withdrawn JP2005136594A (en) 2003-10-29 2003-10-29 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP2005136594A (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012137947A1 (en) * 2011-04-08 2012-10-11 株式会社東芝 Medical image processing system, medical image processing apparatus, medical image diagnostic apparatus, medical image processing method and medical image processing program
JP2013077717A (en) * 2011-09-30 2013-04-25 Dainippon Screen Mfg Co Ltd Image display apparatus for direct drawing device and program
JP2013077718A (en) * 2011-09-30 2013-04-25 Dainippon Screen Mfg Co Ltd Image display apparatus for direct drawing device and program
US9224226B2 (en) 2011-09-30 2015-12-29 SCREEN Holdings Co., Ltd. Image display device for direct drawing apparatus, and recording medium
JP2019115515A (en) * 2017-12-27 2019-07-18 キヤノン株式会社 Image processing device, image processing method, image processing system, and program
US10567632B2 (en) 2017-09-07 2020-02-18 Fujitsu Limited Non-transitory computer-readable storage medium, image processing method, and image processing apparatus
WO2020209013A1 (en) * 2019-04-10 2020-10-15 キヤノン株式会社 Image processing device, image processing method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012137947A1 (en) * 2011-04-08 2012-10-11 株式会社東芝 Medical image processing system, medical image processing apparatus, medical image diagnostic apparatus, medical image processing method and medical image processing program
JP2012217633A (en) * 2011-04-08 2012-11-12 Toshiba Corp Medical image processing system, medical image processing apparatus, medical image diagnostic apparatus, medical image processing method and medical image processing program
US10140752B2 (en) 2011-04-08 2018-11-27 Toshiba Medical Systems Corporation Medical image processing system, medical image processing apparatus, medical image diagnosis apparatus, and medical image processing method, related to a stereoscopic medical image process
JP2013077717A (en) * 2011-09-30 2013-04-25 Dainippon Screen Mfg Co Ltd Image display apparatus for direct drawing device and program
JP2013077718A (en) * 2011-09-30 2013-04-25 Dainippon Screen Mfg Co Ltd Image display apparatus for direct drawing device and program
US9224226B2 (en) 2011-09-30 2015-12-29 SCREEN Holdings Co., Ltd. Image display device for direct drawing apparatus, and recording medium
US10567632B2 (en) 2017-09-07 2020-02-18 Fujitsu Limited Non-transitory computer-readable storage medium, image processing method, and image processing apparatus
JP2019115515A (en) * 2017-12-27 2019-07-18 キヤノン株式会社 Image processing device, image processing method, image processing system, and program
US11170505B2 (en) 2017-12-27 2021-11-09 Canon Kabushiki Kaisha Image processing apparatus, image processing method, image processing system, and storage medium
WO2020209013A1 (en) * 2019-04-10 2020-10-15 キヤノン株式会社 Image processing device, image processing method, and program
JP2020171481A (en) * 2019-04-10 2020-10-22 キヤノン株式会社 Image processing device, image processing method, and program
JP7387280B2 (en) 2019-04-10 2023-11-28 キヤノン株式会社 Image processing device, image processing method and program

Similar Documents

Publication Publication Date Title
US20190355174A1 (en) Information processing apparatus, information processing system, information processing method, and computer-readable recording medium
JP5355638B2 (en) Image processing apparatus and method, and program
US10825190B2 (en) Dynamic image processing apparatus for aligning frame images obtained by photographing dynamic state of chest based on movement of lung-field region
US11468589B2 (en) Image processing apparatus, image processing method, and program
JP4911029B2 (en) Abnormal shadow candidate detection method, abnormal shadow candidate detection device
JP2011125568A (en) Image processor, image processing method, program and image processing system
JP3712234B2 (en) Region of interest extraction method and image processing server
JP2007159643A (en) Image processing device and method
JP6772123B2 (en) Image processing equipment, image processing methods, image processing systems and programs
US11406340B2 (en) Method for converting tone of chest X-ray image, storage medium, image tone conversion apparatus, server apparatus, and conversion method
US20040114790A1 (en) Projection conversion device and method and elapsed-time differential image preparation device and method
US20070053564A1 (en) Image processing method and computer readable medium for image processing
JP6429958B2 (en) Image processing apparatus, image processing method, and program
JP4493436B2 (en) Image interpretation support method, apparatus and program
JP2005124617A (en) Medical image diagnosis support system
JP2009172190A (en) Image generating apparatus, program, and image generating method
JP6371515B2 (en) X-ray image processing apparatus, X-ray image processing method, and program
JP2005136594A (en) Image processing apparatus and control method thereof
JP2005270635A (en) Method for processing image and device for processing image
JP4099357B2 (en) Image processing method and apparatus
JP2004329742A (en) Image displaying device, image displaying method, computer program, and recording medium in which computer reading is possible
US9727965B2 (en) Medical image processing apparatus and medical image processing method
JP2006026396A (en) Image processing system and method, control program, and storage medium
JP7211172B2 (en) Dynamic image analysis system and dynamic image processing device
JP6167841B2 (en) Medical image processing apparatus and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070109