JP2000342558A - Image positioning processor and inter-picture arithmetic processor - Google Patents

Image positioning processor and inter-picture arithmetic processor

Info

Publication number
JP2000342558A
JP2000342558A JP11157821A JP15782199A JP2000342558A JP 2000342558 A JP2000342558 A JP 2000342558A JP 11157821 A JP11157821 A JP 11157821A JP 15782199 A JP15782199 A JP 15782199A JP 2000342558 A JP2000342558 A JP 2000342558A
Authority
JP
Japan
Prior art keywords
image
images
alignment
plurality
means
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11157821A
Other languages
Japanese (ja)
Inventor
Akiko Yanagida
亜紀子 柳田
Original Assignee
Konica Corp
コニカ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Corp, コニカ株式会社 filed Critical Konica Corp
Priority to JP11157821A priority Critical patent/JP2000342558A/en
Publication of JP2000342558A publication Critical patent/JP2000342558A/en
Application status is Pending legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To efficiently, stably and automatically process a precise positioning though there is relatively large positional deviation between the radiation images of a human body. SOLUTION: This positioning processor 1 processes the positioning between plural images including a common subject. The processor 1 has a partial area setting means 2 for setting plural partial areas in at least one image among the plural images, a partial similarity deciding means 3 for deciding similarity to a corresponding area in another image by each set partial area, a whole area similarity deciding means 4 for deciding whole area similarity by weight- adding decided partial area similarity through the use of weighting coefficient set to each partial area, an image converting condition deciding means 6 for deciding an image converting condition for positioning one image to the other image based on decided whole area similarity, and an image converting means 7 for positioning an image by converting the images based on the decided converting condition.

Description

【発明の詳細な説明】 DETAILED DESCRIPTION OF THE INVENTION

【0001】 [0001]

【発明の属する技術分野】この発明は、画像の位置合わせ処理装置及び画像間演算処理装置に関し、特に、複数の画像間における被写体の相対的な位置ずれを精度良くかつ効率良く合わせる技術に関する。 TECHNICAL FIELD The present invention relates to a positioning apparatus and the inter-image calculation processing unit of the image, in particular, the relative positional deviation of the object about the accuracy and efficiently align technology between a plurality of images.

【0002】 [0002]

【従来の技術】例えば、X線画像のような放射線画像は、病気診断用等に多く用いられており、このX線画像を得るために、被写体を透過したX線を蛍光体層(蛍光スクリーン)に照射し、これにより可視光を生じさせてこの可視光を通常の写真と同様に銀塩を使用したフィルムに照射して現像した、所謂、放射線写真が従来から多く利用されている。 BACKGROUND ART For example, radiographic images such as X-ray images are often used in the diagnosis of diseases for such, in order to obtain the X-ray image, the phosphor layer X-rays transmitted through an object (fluorescent screen irradiating the), thereby to cause visible light and developed by irradiation with visible light to the film using conventional photographic similar to silver, so-called radiography is utilized many conventionally.

【0003】しかし、近年、銀塩を塗布したフィルムを使用しないで、蛍光体層から直接画像を取り出す方法が工夫されるようになってきている。 However, in recent years, without using a silver salt was coated film has come to a method of retrieving images directly from the phosphor layer is devised. この方法としては、 As this method is,
被写体を透過した放射線を蛍光体に吸収せしめ、しかる後、この蛍光体を例えば光又は熱エネルギーで励起することによりこの蛍光体が上記吸収により蓄積している放照射エネルギーを蛍光として放射せしめ、この蛍光を光電変換し、更にA/D変換してディジタル画像信号を得る方法がある(米国特許3,859,527号、特開昭55−12144号公報等参照)。 Allowed absorb the radiation transmitted through the subject phosphor, thereafter, allowed to emit radiation energy release of the phosphor are accumulated by the absorption by exciting the phosphor, for example, light or heat energy as fluorescence, this fluorescence was photoelectrically converted, there is a further method of obtaining a digital image signal into a / D (U.S. Pat. No. 3,859,527, see JP-a-55-12144, etc.).

【0004】このようにして得られた放射線画像信号は、そのままの状態で、或いは画像処理を施されて銀塩フィルム、CRT等に出力されて可視化される。 [0004] The radiation image signal thus obtained is intact, or the image processing performed is in silver halide film, is output to the CRT or the like is visualized. また、 Also,
放射線画像を記録した銀塩フィルムに、レーザ・蛍光灯等の光源からの光を照射して、銀塩フィルムの透過光を得て、かかる透過光を光電変換して放射線画像信号を得る方法もある。 A radiation image recorded silver halide film, is irradiated with light from a light source such as a laser, fluorescent light, with the light transmitted through the silver film, a method of obtaining a radiographic image signal such transmitted light is converted photoelectrically also is there.

【0005】一方、従来から、共通の被写体部分を含む複数の画像間で、テンプレートマッチング法に基づいて、被写体の相対的な位置ずれを合わせる位置合わせ処理が公知となっている。 On the other hand, conventionally, among a plurality of images including a common object portion, based on the template matching method, alignment processing to align the relative positional deviation of the object are known. 即ち、検出しようとする対象を表すテンプレートt(x,y)を画像f(x,y)中の点(i,j)にその中心が重なるようにし、t(x, That is, the template t (x, y) representing an object to be detected the image f (x, y) point (i, j) in so that its center overlaps, t (x,
y)とそれと重なる画像の部分パターンとの類似度を測り、その値を点(i,j)に対象が存在する確からしさとする方法である。 Measure the similarity between images of the partial pattern that overlaps y) and it is a method for the certainty that there is a subject that value at point (i, j). 対象物の位置を求めるには、この操作を画像のすべての点に対して施し、類似度が最大となる位置を求めたり、類似度がある閥値を超える位置を探したりするものがある(コンピュータ画像処理入門 日本工業技術センター編 平成3年4月1日第1版第9刷 第149頁参照)。 To determine the position of the object, subjected to the operation for all points of the image, or obtain the position at which the degree of similarity is the maximum, there is one or locate the position beyond the clique values ​​that similarity ( the first edition of Introduction to computer image processing Japan industrial technology Center, eds 1991 April 1, see Section 9 Printing page 149).

【0006】ここで、共通の被写体部分を含む2枚の画像を用い、一方の画像から切り出した部分画像をテンプレートt、他方の画像を画像fと見なして上記処理を行うことにより、2枚の画像間の位置合わせを行うことができる。 [0006] Here, using the two images include a common object portion, one of the partial image template t cut from the image, by regarding the other image and the image f by performing the above processing, two it can be aligned between the images.

【0007】 [0007]

【発明が解決しようとする課題】ところで、2枚の画像の位置合わせ手法としてのテンプレートマッチング法は、画像全体に対して小さいテンプレートを用いた場合には、人体のX線画像のような複雑な画像の全体を精度良く位置合わせすることが困難である。 [SUMMARY OF THE INVENTION Incidentally, the template matching method as a registration method of the two images, in the case of using a small template for the entire image, such as complex as a human X-ray image it is difficult to align accurately position the entire image.

【0008】また、例えば異なる時期に撮影された同一患者の2枚の胸部画像間では、診断の対象となる病理的変化以外にも、種々の変化が含まれ、一般に胸部X線画像の胸郭外の領域には、肩当て具やlD情報ラベルなど人体以外の物体の写り込みがあり、また被検者の腕の姿勢も一定しないため画像情報の再現性はきわめて低いが、画像全体に対して大きいテンプレートを用いると、 Further, for example in between the two chest images of the same patient taken at different times, in addition to pathological changes to be diagnosed also includes various changes, extrathoracic generally chest X-ray image the area has glare of an object other than a human body, such as shoulder rest member and lD information label, Although reproducibility of image information is very low because no constant attitude of the arm of the subject, the entire image with the large template,
それらの再現性の低い領域がテンプレートに含まれ、位置合わせ誤差が大きくなるという問題もあった。 Region their low reproducibility is included in the template, there is a problem that the alignment error increases.

【0009】この発明は前記問題点に鑑みなされたものであり、人体の放射線画像の間で相対的に大きな位置ずれがあっても、精度良く位置合わせする処理を、効率的かつ安定的に自動処理できるようにする画像の位置合わせ処理装置及び画像間処理装置を提供することを目的とする。 [0009] This invention has been made in view of the above problems, even when relatively large positional deviation between the body of the radiographic image, a process of aligning precisely position, efficient and stable automatic and to provide a positioning apparatus and the inter-image processing apparatus of an image to be processed.

【0010】 [0010]

【課題を解決するための手段】前記課題を解決するために、この発明は、以下のように構成した。 Means for Solving the Problems] To solve the above problems, the present invention is constituted as follows.

【0011】請求項1に記載の発明は、『共通の被写体を含む複数の画像間で位置合わせ処理を行う画像の位置合わせ処理装置であって、前記複数の画像のうち少なくとも一つの画像内に複数の部分領域を設定する部分領域設定手段と、設定された部分領域毎に、他の画像内の対応する領域との間の類似度を決定する部分領域類似度決定手段と、決定された部分領域類似度を、各部分領域に対して設定された重み係数を用いて重み付け加算することにより、全体領域類似度を決定する全体領域類似度決定手段と、決定された全体領域類似度に基づいて、一方の画像を他の画像に位置合わせするための画像変換条件を決定する画像変換条件決定手段と、決定された画像変換条件に基づいて画像変換を行うことにより、画像の位置合わせを行う画 [0011] According to one aspect of the present invention, a positioning apparatus of the image for aligning processing between a plurality of images including a "common object, in at least one image of the images a partial region setting means for setting a plurality of partial areas, each partial area set a partial region similarity determination means for determining a similarity was determined portion between the corresponding regions in the other image the region similarity, by weighted addition using a weighting factor set for each partial region, the entire region similarity determining means for determining the overall area similarity, based on the determined total area similarity , image performing an image conversion condition determining means for determining an image conversion condition for aligning the one image to another image, by performing image conversion based on the determined image conversion condition, the alignment of the image 変換手段を有することを特徴とする画像の位置合わせ処理装置。 Positioning processing apparatus for an image, characterized in that it comprises a conversion means. 』である。 "It is.

【0012】この請求項1に記載の発明によれば、複数の画像のうち少なくとも一つの画像内に複数の部分領域を設定し、この設定された部分領域毎に、他の画像内の対応する領域との間の類似度を決定し、決定された部分領域類似度を、各部分領域に対して設定された重み係数を用いて重み付け加算することにより、全体領域類似度を決定し、決定された全体領域類似度に基づいて、一方の画像を他の画像に位置合わせするための画像変換条件を決定し、決定された画像変換条件に基づいて画像変換を行うことにより、人体の放射線画像の間で相対的に位置ずれがあっても、精度良く位置合わせする処理を、効率的かつ安定的に自動処理できる。 According to the invention described in claim 1, setting a plurality of partial regions within the at least one image of the plurality of images, for each the set partial area, corresponding in other images determining the similarity between the region, the determined partial area similarity, by weighted summing using the set weighting factors for each partial region, to determine the entire region similarity is determined based on the entire region similarity was, one of the images to determine the image conversion conditions for aligning the other image, by performing image conversion based on the determined image conversion condition, the human body radiation image even relatively positional deviation between the process of aligning precisely position can be efficiently and stably automated processing.

【0013】請求項2に記載の発明は、『前記共通の被写体が人体の一部であり、前記複数の画像のうち少なくとも一つの画像から人体の解剖学的構造を抽出する解剖学的構造抽出手段を有し、前記部分領域設定手段は、前記解剖学的構造抽出手段における抽出結果に基づいて前記複数の部分領域を設定することを特徴とする請求項1 [0013] According to a second aspect of the invention, "a part said common subject is a human body, extracting anatomy of extracting human anatomy from at least one image of the images and means, said partial region setting means, according to claim 1, characterized in that to set a plurality of partial regions on the basis of the extraction result of the anatomical structure extraction means
に記載の画像の位置合わせ処理装置。 Positioning processing apparatus for an image according to. 』である。 "It is.

【0014】この請求項2に記載の発明によれば、共通の被写体が人体の一部であり、複数の画像のうち少なくとも一つの画像から人体の解剖学的構造を抽出し、抽出結果に基づいて複数の部分領域を設定することにより、 According to the invention described in claim 2, a part common subject is a human body, extracting the human anatomy from at least one image of the plurality of images, based on the extraction result by setting a plurality of partial regions Te,
人体の放射線画像の間で相対的に位置ずれがあっても、 Even relatively positional deviation between the body of the radiographic image,
精度良く位置合わせする処理を、効率的かつ安定的に自動処理できる。 The process of aligning precisely position efficiently and stably can be automatically processed.

【0015】請求項3に記載の発明は、『前記複数の画像のうち少なくとも一つの画像内に注目位置を指定する注目位置指定手段を有し、指定された注目位置に基づいて前記複数の部分領域を設定することを特徴とする請求項1または請求項2に記載の画像の位置合わせ処理装置。 [0015] invention as set forth in claim 3, "at least have one of the target position specifying means for specifying a target position in the image, the plurality of portions based on the specified target position of the plurality of images positioning processing apparatus for an image according to claim 1 or claim 2, characterized in that to set the region. 』である。 "It is.

【0016】この請求項3に記載の発明によれば、複数の画像のうち少なくとも一つの画像内に注目位置を指定し、指定された注目位置に基づいて複数の部分領域を設定するから、注目位置に着目することでよりずれを精度良く位置合わせすることができる。 According to the invention described in claim 3, specifying the target position within the at least one image of the plurality of images, since setting a plurality of partial regions on the basis of the specified target position, target more deviation by paying attention to the position can be combined accurately position.

【0017】請求項4に記載の発明は、『前記複数の画像のうち少なくとも一つの画像内に注目位置を指定する注目位置指定手段を有し、前記複数の部分領域のうち、 [0017] The invention according to claim 4, "has a target position specifying means for specifying a target position within at least one image of the plurality of images, among the plurality of partial regions,
指定された注目位置を含む部分領域に対応する重み係数が、他の部分領域に対応する重み係数よりも大きくなるように前記重み係数を設定することを特徴とする請求項1乃至請求項3のいずれか1項に記載の画像の位置合わせ処理装置。 Weighting factor corresponding to the partial area including the designated target position is, of claims 1 to 3, characterized in that setting the weighting factor to be larger than the weighting factor corresponding to the other partial regions positioning processing apparatus for an image according to any one. 』である。 "It is.

【0018】この請求項4に記載の発明によれば、複数の画像のうち少なくとも一つの画像内に注目位置を指定し、複数の部分領域のうち、指定された注目位置を含む部分領域に対応する重み係数が、他の部分領域に対応する重み係数よりも大きくなるように重み係数を設定することで、注目位置に着目して位置ずれをより精度良く位置合わせすることができる。 According to the invention described in claim 4, specify the target position within the at least one image of the plurality of images, among the plurality of partial regions, corresponding to the partial region including the specified target position weighting factor is, by setting the weighting factor to be larger than the weighting factor corresponding to the other partial regions, it is possible to make the positional deviation by paying attention to the target aligned more accurately position.

【0019】請求項5に記載の発明は、『前記画像変換手段は、前記決定された画像変換条件に基づいて画像変換を行うことにより、画像の位置合わせを行う粗位置合わせの後に、精位置合わせの2段階の画像の位置合わせを行なうことを特徴とする請求項1乃至請求項4のいずれか1項に記載の画像の位置合わせ処理装置。 [0019] The invention according to claim 5, "wherein the image converting means performs an image conversion on the basis of the determined image conversion condition, after the rough alignment for aligning the image, fine position positioning processing apparatus for an image according to conduct alignment of the two stages of the image to any one of claims 1 to 4, wherein the mating. 』である。 "It is.

【0020】この請求項5に記載の発明によれば、粗位置合わせの後に、精位置合わせの2段階の画像の位置合わせを行なうことで、比較的短い処理時間で位置合わせ精度を向上することができる。 According to the invention described in claim 5, after the rough alignment, by aligning the two-step image of fine alignment, to improve the positioning accuracy in a relatively short processing time can.

【0021】請求項6に記載の発明は、『請求項1乃至請求項5のいずれか1項に記載の画像の位置合わせ処理装置で位置合わせが行われた複数の画像を同時に表示する画像表示手段を有することを特徴とする画像の位置合わせ処理装置。 [0021] The invention according to claim 6, image display for displaying "a plurality of images alignment was performed in the alignment processing apparatus for an image according to any one of claims 1 to 5 at the same time positioning processing apparatus for an image, characterized in that it comprises a means. 』である。 "It is.

【0022】この請求項6に記載の発明によれば、画像の位置合わせ処理装置で位置合わせが行われた複数の画像を同時に表示するから、位置ずれのない画像により比較読影に基づく診断を容易にかつ正確で、しかも迅速に行うことができる。 According to the invention described in claim 6, since displaying a plurality of images alignment was performed in the alignment processing unit of the image at the same time, a diagnosis based on comparative reading by no positional deviation images easily the accurate and, moreover can be performed quickly.

【0023】請求項7に記載の発明は、『請求項1乃至請求項5のいずれか1項に記載の画像の位置合わせ処理装置で位置合わせが行われた複数の画像間で演算を行う画像間演算手段を有することを特徴とする画像間演算処理装置。 [0023] The invention according to claim 7, the "image for performing an operation between claims 1 to any one plurality of the alignment is performed by the positioning process unit of the image according to item image according to claim 5 inter-image calculation processing apparatus characterized by having between arithmetic means. 』である。 "It is.

【0024】この請求項7に記載の発明によれば、画像の位置合わせ処理装置で位置合わせが行われた複数の画像間で演算を行うから、演算負担を軽減しつつ、細かな位置合わせの精度が確保される。 According to the invention described in claim 7, since performing the calculation alignment between a plurality of images made in the alignment processing unit of the image, while reducing the computation load, the fine alignment accuracy is ensured.

【0025】請求項8に記載の発明は、『請求項1乃至請求項5のいずれか1項に記載の画像の位置合わせ処理装置で位置合わせが行われた複数の画像間で演算を行う画像間演算手段と、位置合わせが行われた複数の画像または画像間演算により生成された演算処理画像を表示する画像表示手段を有することを特徴とする画像間演算処理装置。 [0025] The invention according to claim 8, "image for performing an operation between claims 1 to any one plurality of the alignment is performed by the positioning process unit of the image according to item image according to claim 5 and while calculating means, positioning the inter-image calculation processing apparatus characterized by comprising an image display means for displaying an arithmetic processing images generated by the plurality of image or inter-image calculation is performed. 』である。 "It is.

【0026】この請求項8に記載の発明によれば、位置合わせが行われた複数の画像または画像間演算により生成された演算処理画像を表示するから、位置ずれのない画像により比較読影や画像間演算結果に基づく診断を容易にかつ正確で、しかも迅速に行うことができる。 According to the invention described in claim 8, since displays the processing image which has been created by a plurality of images or the inter-image calculation the alignment is performed, comparative image observation and an image by no positional deviation image during operation result based on the diagnostic readily and accurately, yet can be performed quickly.

【0027】 [0027]

【発明の実施の形態】以下、この発明の画像の位置合わせ処理装置及び画像間演算処理装置の実施の形態を図面に基づいて説明するが、この実施の形態に限定されるものではない。 BEST MODE FOR CARRYING OUT THE INVENTION Hereinafter, will be explained based on the embodiment of the positioning process unit and the inter-image calculation processing unit of the image of the present invention in the drawings, but is not limited to this embodiment.

【0028】図1は画像の位置合わせ処理装置の概略構成図である。 [0028] FIG. 1 is a schematic configuration diagram of a positioning processor in the image. この画像の位置合わせ処理装置1は、共通の被写体を含む複数の画像間で位置合わせ処理を行う画像の位置合わせを行なう画像間演算処理装置でもある。 Positioning processing apparatus 1 of the image is also a inter-image calculation processing unit performs image alignment for aligning processing between a plurality of images including a common object.
この画像の位置合わせ処理装置1には、部分領域設定手段2、部分領域類似度決定手段3、全体領域類似度決定手段4、重み係数記憶手段5、画像変換条件決定手段6、画像変換手段7、画像記憶手段8、画像表示制御手段9及び画像表示手段10が備えられている。 The positioning process unit 1 of the image, a partial region setting means 2, a partial region similarity determination unit 3, the whole region similarity determination means 4, the weighting coefficient storage unit 5, an image conversion condition determining means 6, the image conversion unit 7 , the image storage unit 8, the image display control unit 9 and the image display unit 10 is provided.

【0029】部分領域設定手段2では、複数の画像のうち少なくとも一つの画像内、この実施の形態では画像データ1から得られる画像内に複数の部分領域を設定する。 [0029] In partial region setting means 2, in at least one image of the plurality of images, setting a plurality of partial regions within the image obtained from the image data 1 in this embodiment. 部分領域類似度決定手段3では、設定された部分領域毎に、他の画像内、この実施の形態では画像データ2 The partial region similarity determination means 3, each set partial regions, the image data 2 in other image, in this embodiment
から得られる画像内の対応する領域との間の類似度を決定し、全体領域類似度決定手段4では、決定された部分領域類似度を、各部分領域に対して設定された重み係数を用いて重み付け加算することにより、全体領域類似度を決定する。 Determining the similarity between the corresponding regions in the images obtained from, and in the entire region similarity determination means 4, the determined partial area similarity, the weighting coefficients set for each of the partial regions using by weighted summing Te, it determines the entire region similarity. 重み係数は重み係数記憶手段5に予め記憶されている。 Weighting coefficients are stored in advance in the weighting coefficient storage unit 5. 画像変換条件決定手段6では、決定された全体領域類似度に基づいて、一方の画像を他の画像に位置合わせするための画像変換条件を決定し、画像変換手段7では決定された画像変換条件に基づいて画像変換を行うことにより、画像の位置合わせを行う。 In the image conversion condition determining means 6, based on the determined total area similarity, one of the images to determine the image conversion conditions for aligning the other image, the image conversion condition determined in the image conversion unit 7 by performing image transformation, the image alignment performed based on.

【0030】また、この実施の形態では、画像変換手段7が決定された画像変換条件に基づいて画像変換を行うことにより、画像の位置合わせを行う粗位置合わせの後に、精位置合わせの2段階の画像の位置合わせを行なうことができ、比較的短い処理時間で位置合わせ精度を向上することができる。 Further, in this embodiment, by performing the image conversion based on the image conversion condition by the image conversion unit 7 is determined, after the rough alignment for aligning images, two-step fine alignment can be aligned in the image, it is possible to improve the positioning accuracy in a relatively short processing time.

【0031】画像記憶手段8には、画像データ2から得られる画像と決定された画像変換条件に基づいて画像変換を行うことにより位置合わせされた画像とが記憶され、画像表示制御手段9による制御に基づいて画像表示手段10に表示される。 [0031] the image storage unit 8, an image that has been aligned by performing the image conversion based on the image and the determined image conversion condition obtained from the image data 2 is stored, the control by the image display control means 9 It is displayed on the image display unit 10 based on.

【0032】このように複数の画像のうち少なくとも一つの画像内に複数の部分領域を設定し、この設定された部分領域毎に、他の画像内の対応する領域との間の類似度を決定し、決定された部分領域類似度を、各部分領域に対して設定された重み係数を用いて重み付け加算することにより、全体領域類似度を決定し、決定された全体領域類似度に基づいて、一方の画像を他の画像に位置合わせするための画像変換条件を決定し、決定された画像変換条件に基づいて画像変換を行うことにより、人体の放射線画像の間で相対的に位置ずれがあっても、かかる位置ずれを精度良く位置合わせする処理を、効率的かつ安定的に自動処理できる。 [0032] Thus setting a plurality of partial regions within the at least one image of the plurality of images, for each the set partial regions, determines the degree of similarity between the corresponding regions in the other image and, the determined partial area similarity, by weighted summing using the set weighting factors for each partial region, to determine the entire region similarity, based on the determined total area similarity, one of the images to determine the image conversion conditions for aligning the other image, by performing image conversion based on the determined image conversion conditions, there is a relatively positional deviation between the human body radiation image even, the process of aligning precisely position such positional deviation, efficiently and stably can be automatically processed.

【0033】ここで、画像データ1及び画像データ2の入力は、例えば放射線画像の撮影が通常X線フィルムを用いて行われる。 [0033] Here, the input image data 1 and image data 2, for example, radiographic imaging is performed using an ordinary X-ray film. これらのX線写真をこの実施の形態の画像の位置合わせ処理装置に入力するためには、レーザディジタイザを用いている。 To enter these X-ray photographs the alignment processing unit of the image of this embodiment uses a laser digitizer. これは、フィルム上をレーザビームで走査し、透過した光量を測定し、その値をアナログディジタル変換することにより、ディジタル画像データとして入力するものである。 This scans the film with a laser beam, the transmitted light amount measured by analog-digital converts the value, and inputs the digital image data.

【0034】画像の入力には、CCDなどの光センサを用いる装置を使用することも可能である。 [0034] The input image, it is also possible to use a device using a light sensor such as a CCD. またフィルムを読み取るのではなく、特開昭55−12429号公報に記載されているような、蓄積性蛍光体を用いたディジタル画像を直接出力することのできる撮影装置を接続することも可能である。 Also instead of reading the film, as described in JP-A-55-12429, it is also possible to connect the photographing apparatus capable of outputting a digital image directly using the stimulable phosphor . この場合にはフィルムが不要になり、コストダウンを図ることができる。 In this case, the film becomes unnecessary, the cost can be reduced.

【0035】また、2次元的に配列された複数の検出素子によりX線画像を撮像して電気信号として出力するフラットパネルディテクタ(FPD)から得たX線画像を入力することもできる。 Further, it is also possible to enter the X-ray image obtained from the flat panel detector (FPD) for outputting X-ray image as an electric signal picked up by a plurality of detection elements arranged two-dimensionally. 例えば、特開平6−34209 For example, JP-A-6-34209
8号公報に記載されているように、照射されたX線の強度に応じた電荷を生成する光導電層と、生成された電荷を2次元的に配列された複数のコンデンサに蓄積する方式が用いられる。 As described in 8 JP, method of accumulating a plurality of capacitors and a photoconductive layer, arranged charges generated two-dimensionally to generate a charge corresponding to the intensity of the irradiated X-rays used. また、特開平9−90048号公報に記載されているように、X線を増感紙等の蛍光体層に吸収させて蛍光を発生させ、その蛍光の強度を画素毎に設けたフォトダイオード等の光検出器で検知する方式も用いられる。 Further, as described in JP-A-9-90048, it is absorbed in the phosphor layer of the intensifying screen or the like X-rays to generate fluorescence, photodiode or the like provided the strength of the fluorescence for each pixel method of detecting in a photodetector is also used. 蛍光の検知手段としては他にCCDやC−M Other CCD or C-M as fluorescence detection means
OSセンサを用いる方法もある。 There is also a method of using the OS sensor. また、X線の照射により可視光を発するX線シンチレータと、レンズアレイ及び各々のレンズに対応するエリアセンサとを組み合わせた構成も用いられる。 Further, the X-ray scintillator which emits visible light upon irradiation with X-rays, also constituted of a combination of an area sensor corresponding to the lens array and each lens used.

【0036】この画像の位置合わせ処理装置は、例えば、異なる時期に撮影された同一患者の2枚の胸部X線画像(時系列胸部画像)間の位置合わせに使用することにより、撮影条件の変動や被写体の体形の影響を受けにくい高精度の位置合わせ処理を実現することができる。 The positioning process unit of the image, for example, by using the alignment between two chest X-ray image of the same patient taken at different times (time-series chest image), variations in imaging conditions it can be realized and less susceptible highly accurate position adjustment process of body shape of the subject.
以下において、2枚の胸部X線画像(過去画像及び現在画像)を対象として、診断上最も重要な肺野に相当する画像部分に重点をおくと同時に、病理と関係のない背景部分や呼吸・心拍等に基づく変化を生じやすい画像部分は重みを小さくするような重み付きテンプレートマッチング法を用いた、この発明に基づく画像の位置合わせ処理を説明する。 In the following, the target two chest X-ray image (past image and the present image), and at the same time focus on image portions corresponding to the diagnostically most important lung, and no background portion of Pathology relationship breathing- easy image portion caused changes based upon the heart rate or the like using a weighted template matching method that reduces the weight, explaining the position adjustment process of images based on the present invention.

【0037】例えば、同一患者の時系列胸部画像間にみられる変化は、診断の対象となる病理的変化以外にも、 [0037] For example, a change seen between the time series chest image of the same patient, in addition to pathological changes as a target of diagnosis,
種々の変化が含まれている。 It includes various changes. 一般に胸部X線画像の胸郭外の領域には、肩当て具やID情報ラベル等人体以外の物体の写り込みがあり、また被検者の腕の姿勢も一定しないため、画像情報の再現性はきわめて低い。 In the region outside the rib cage of the chest X-ray image is generally has a glare of the object other than the shoulder rest member and ID information label such as a human body, also because no constant attitude of the arm of the subject, the reproducibility of the image information extremely low. 胸郭内に注目すると、被検者の吸気状態による横隔膜高さの変化及び心拍位相による心臓の幅の変化は頻繁に起こりうる。 Focusing on the thorax, the variation of the width of the heart due to changes and cardiac phases of the diaphragm height by the intake condition of the subject can occur frequently. また、被検者の腕の上げ方による鎖骨角度の変化も観察される場合がある。 Further, it may also be observed change in clavicle angle by the way up the arm of the subject.

【0038】以上の知見から、下記(i)〜(iv)の観点に基づいて、図5に示すように胸部画像を部分領域A 1 〜A 5に分割する。 [0038] From the above findings, based on the viewpoint of the following (i) ~ (iv), is divided into partial areas A 1 to A 5 chest image, as shown in FIG.

【0039】(i)病理的変化以外にはほとんど変化がない領域:中肺部(部分領域A 1 ) (ii)部分的に変化がありうる領域:上肺部(部分領域A [0039] (i) there is little change in other pathological changes area: Chuhai part (partial area A 1) (ii) partially change may be regions: Uehai part (partial area A
2 )、下肺辺縁部(部分領域A 3 ) (iii)多くの場合で変化がある領域:下肺縦隔付近(部分領域A 4 ) (iv)ほとんど再現性のない領域:胸郭外(部分領域A 5 ) 部分領域の定め方は、肺野輪郭線Rを左・右・上方向に所定幅拡げた曲線R'、及び肺野輪郭線の下端を結ぶ直線Bを描き、R'とBに囲まれる閉曲線の外側を部分領域A 5とする。 2) region there is a change in many cases lower lung edges (partial area A 3) (iii): the lower lung mediastinum near (partial region A 4) (iv) almost irreproducible area: extrathoracic ( partial areas a 5) partial area method of determining of the curve was spread predetermined width lung field contour line R to the left, right, upward direction R ', and draws a line B connecting the lower end of the lung field contour, R' and an outer closed curve surrounded by B and the partial area a 5. ここで肺野輪郭線Rは、後述する解剖学的構造の抽出手段を用いて自動的に決定するか、またはユーザが手動で指定してもよい。 Here lung field contour R, either automatically determined using the extraction means of the anatomy to be described later, or the user may manually specify.

【0040】R'の上端ラインTとBとの間を上から1 [0040] between the upper end line T and B R 'from above 1
/5及び2/3のところで水平方向に分割し、R'に囲まれる最も上の部分領域をA 2 、その下の部分領域をA / 5 and divided in the horizontal direction at 2/3, the uppermost partial area surrounded by the R 'A 2, a partial region under the A
1とする。 1 to. さらにA 1の下の部分を、R'に左右から挟まれる区間の左から1/4及び3/4のカラムで3分割し、中央の部分領域をA 4 、その両側の部分領域をA 3とする。 Furthermore the lower part of A 1, divided into three in the left from the 1/4 and 3/4 column section sandwiched from right and left in R ', the central partial area A 4, the partial regions on both sides of A 3 to.

【0041】次に、位置合わせへの寄与率が大きい方から上記分類(i)、(ii)、(iii)、(iv)の順に小さくなるような重み付けを施した重み付きテンプレートマッチング法により、画像の位置合わせを行う。 Next, the classified the larger contribution to the alignment (i), by (ii), (iii), the weighted template matching method which has been subjected to weighting such that smaller in the order of (iv), to position the image.

【0042】過去画像をテンプレートとし、現在画像を参照画像として、テンプレートの平行移動及び回転によるテンプレートマッチングを行う。 [0042] and the past image template, as a reference image of the current image, performing template matching based translation and rotation of the template. ここで、マッチングの良否の指標となる類似度Sを、式1により定義する。 Here, the similarity S as an index of the quality of the matching is defined by Equation 1.

【0043】 [0043]

【式1】 [Formula 1]

【0044】ここで、C iはテンプレート内の部分領域A i (i=1,2,...,N)とそれに対応する参照画像内の領域B iとの間の規格化相互相関値を表す。 [0044] Here, C i is the partial region A i (i = 1,2, ... , N) in the template normalized cross-correlation value between the region B i in the reference image and its corresponding represent. i W i
は領域A iに割り当てられた重み係数であり、w i (i= Is a weighting factor assigned to the area A i is, w i (i =
l,2,・・・,N)の総和は1.0である。 l, 2, ···, the sum of N) is 1.0. この実施の形態では領域の分割数Nを5とし、重み係数w iはそれぞれw 1 =0.445、w 2 =0.222、w 3 =0. The division number N of the regions in this embodiment is 5, each weighting factor w i w 1 = 0.445, w 2 = 0.222, w 3 = 0.
222、w 4 =0.111,w 5 =0とした。 222, w 4 = 0.111, was w 5 = 0. 規格化相互相関値は、A i中のj番目の画素の画素値をA i (j), Normalized cross-correlation value, a pixel value of the j-th pixel in A i A i (j),
それに対応するB i中のj番目の画素の画素値をB B pixel value of the j-th pixel in B i the corresponding
i (j)と表した場合に、式2で示される。 When expressed as i (j), the formula 2.

【0045】 [0045]

【式2】 [Equation 2]

【0046】このように、各領域内の画素値の平均値m The average value m in this manner, pixel values ​​in each area
Ai 、m Bi及び標準偏差σ Ai ,σ BIを用いて規格化した相互相関値を用いることにより、2枚のX線画像間での露光条件の差に起因する平均濃度や階調の違いに影響を受けることなくマッチングを行うことができる。 Ai, m Bi and standard deviation sigma ai, sigma by using a cross-correlation value obtained by normalizing with the BI, the average concentration of and gradation difference due to the difference in exposure conditions between the two X-ray images effect it is possible to perform matching without being subjected to.

【0047】前記Sが最大値をとる場合のテンプレートの平行移動量及び回転量に基づき、過去画像全体の平行移動及び回転を行ない、画像の位置合わせを行なう。 [0047] Based on the amount of parallel movement and the rotation amount of the template when the S takes the maximum value, performs translation and rotation of the entire past image, aligning the image.

【0048】また、部分領域類似度は、前記した規格化相互相関値に限らない。 [0048] The partial region similarity is not limited to the above-mentioned normalized cross-correlation values. 例えば、通常の相互相関値、あるいは、フーリエ変換の位相項の相関値(Medica For example, conventional cross-correlation value or correlation value of the phase term of the Fourier transform (Medica
lImaging Technology,Vol. lImaging Technology, Vol.
7,pp175−176,1989)を部分領域類似度としてもよい。 7, pp175-176,1989) may be a partial region similarity.

【0049】また、この実施の形態では、画像変換が平行移動及び回転で行なわれるが、これに限らず、画像変換は、回転、拡大・縮小、平行移動の組み合わせからなる線型変換を用いてもよい。 [0049] Further, in this embodiment, the image conversion is performed by translating and rotating, not limited to this, image conversion, rotation, scaling, even using a linear transformation to a combination of parallel movement good. 変換前のx,y座標を(x,y)、変換後のx,y座標を(x',y')、係数をa ij 、b ijとすると、2次元画像の線型変換は、式3として表される。 Before conversion x, y coordinates (x, y), x after the conversion, the y-coordinate (x ', y'), coefficient a ij, When b ij, linear transformation of the two-dimensional image, wherein 3 It expressed as.

【0050】 [0050]

【式3】 [Equation 3]

【0051】ここで式3における係数a ij 、b ijを決定するには、以下に示す方法を用いる。 [0051] Here, the coefficient a ij in Equation 3, to determine the b ij uses the method described below. ij 、b ijの値を所定の範囲で少しづつ変化させながら、その都度、式3 a ij, while the value of b ij is little by little changed in a predetermined range, each time, the formula 3
に基づいて過去画像に画像変換を施し、その変換画像をテンプレートとし現在画像を参照画像として、前述の類似度Sを計算する。 Performing image transformation in the past image based on, and the converted image and the template as a reference image of the current image, it calculates the similarity S of the foregoing. Sが最大値をとる場合の係数a ij Coefficient when S is a maximum value a ij,
ijの組み合わせを、位置合わせのための画像変換条件として確定する。 The combination of b ij, is determined as an image conversion condition for alignment.

【0052】また、ここで、前記画像変換においては、 [0052] In addition, here, in the image conversion,
非線型変換を用いてもよい。 It may be used non-linear transformation. 即ち、非線型変換では、画像を歪ませることが可能であるから、人体の複雑な位置ずれを精度良く位置合わせすることが可能である。 That is, in the non-linear transformation, since it is possible to distort the image, it is possible to align accurately position a complex positional displacement of the human body. 2次元画像の非線型変換は、例えば変換前の座標を(x, Nonlinear conversion of 2-dimensional images, for example, converts the previous coordinates (x,
y)、変換後の座標を(x',y')とすると、以下の式4に示される2次元多項式変換で表される。 y), the coordinates after transformation (x ', y' When), represented by 2-dimensional polynomial transform shown in Equation 4 below.

【0053】 [0053]

【式4】 [Equation 4]

【0054】ここで、多項式の次数nとしては、2以上6以下が好ましい。 [0054] Here, as the degree n of the polynomial, 2 to 6 are preferred. 式4における係数a ij 、b ijは、線型変換の場合と同様に決定される このように複数の画像のうち少なくとも一つの画像内に複数の部分領域を設定し、この設定された部分領域毎に、他の画像内の対応する領域との間の類似度を決定し、決定された部分領域類似度を、各部分領域に対して設定された重み係数を用いて重み付け加算することにより、全体領域類似度を決定し、決定された全体領域類似度に基づいて、一方の画像を他の画像に位置合わせするための画像変換条件を決定し、決定された画像変換条件に基づいて画像変換を行うことにより、胸部画像において、画像間で相対的に位置ずれがあっても、診断上重要な肺野の構造を精度良く位置合わせする処理を、効率的かつ安定的に自動処理できる。 Coefficients a ij, b ij in Equation 4 sets a plurality of partial areas on at least one in the image of such a plurality of images determined as in the linear transformation, the set partial regions each to, to determine the similarity between the corresponding regions in the other image, the determined partial area similarity, by weighted summing using the set weighting factors for each partial region, the entire determine the area similarity, based on the determined total area similarity, one of the images to determine the image conversion conditions for aligning the other image, the image conversion based on the determined image conversion condition by performing, in the chest images, even when relatively positional deviation between the images, the process of the diagnostically relevant lung field structure to align accurately position efficiently and stably it can be automatically processed.

【0055】また、この実施の形態では、前記した決定された画像変換条件に基づいて画像変換を行うことにより、画像の位置合わせを行う粗位置合わせの後に、精位置合わせの2段階の画像の位置合わせを行なう。 [0055] Further, in this embodiment, by performing the image conversion based on the the determined image conversion condition, after the rough alignment for aligning images, the two-step image of fine alignment alignment performed.

【0056】次に、粗位置合わせの後で行われる精位置合わせ処理について説明する。 Next, a description will be given fine alignment process performed after the rough alignment. 精位置合わせ処理においては、画像全体の大まかな位置合わせを行う粗位置合わせ処理を施した画像データに基づき、画像間における共通の被写体部分の構造を相対的により精細に合わせるように、画像変換を行うか、或いは、画像変換を表す式、 In fine alignment process, based on the image data subjected to the rough alignment process for rough alignment of the entire image, to match the structure of the common object portion between images relatively more finely, an image conversion or performed, or expression representing the image transformation,
係数等を決定する。 To determine the coefficient and the like.

【0057】ここで、粗位置合わせと精位置合わせからなる2段階の画像の位置合わせを行う場合には、粗位置合わせの段階では平均化間引き処理等により画素数を低減した縮小画像を用いることが、計算量が少なく処理速度が速いので好ましい。 [0057] Here, in the case of performing the alignment of the two stages of image composed of coarse alignment and fine alignment, at the stage of the rough alignment using the reduced image obtained by reducing the number of pixels by averaging decimation process, etc. but preferable because the amount of calculation is small processing speed is fast. また、粗位置合わせの段階で用いる画像は、平均化フィルタやメジアンフィルタ、ガウシアンフィルタ等を用いて平滑化処理した画像であってもよい。 The image used in the stage of the coarse alignment, the averaging filter or a median filter, may be an image obtained by smoothing process using a Gaussian filter or the like. これは、粗位置合わせにおいては画像の大局的な特徴すなわち低空間周波数成分のみを用いて合わせられればよく、縮小画像や平滑化画像で十分な精度が得られるからである。 This is in rough alignment is because it is sufficient combined using only global characteristics or low spatial frequency components of the image, sufficient accuracy can be obtained in the reduced image and the smoothed image.

【0058】また、粗位置合わせにおける画像変換としては線形変換、または平行移動と回転の組み合わせによる変換を用いることが好ましい。 [0058] Further, it is preferable to use a conversion by a combination of linear transformation, or translation and rotation as image conversion in the coarse alignment. これは、粗位置合わせにおいては画像内の大きな構造物を大まかに合わせられればよく、これらの画像変換を用いることにより、計算量を低減し処理速度を向上できるからである。 This is in rough alignment it is sufficient roughly align the large structures in the image, because by using these image conversion, to reduce the amount of calculation can improve the processing speed. 一方、精位置合わせにおける画像変換としては、非線形変換を用いることが好ましい。 On the other hand, as the image conversion at the fine alignment, it is preferable to use a non-linear transformation. すなわち、非線形変換では、画像を歪ませることが可能であるから、粗位置合わせで完全に合わせられなかった局所的なずれを補正し、人体の複雑な位置ずれを精度良く位置合わせすることが可能である。 That is, in the non-linear transformation, since it is possible to distort the image, fully keyed did not correct the local deviations, the possible complex positional displacement of the human body to align accurately position the coarse alignment it is.

【0059】2次元画像の非線型変換は、例えば変換前の座標を(x,y)、変換後の座標を(x',y')とすると、前記式4に示される2次元多項式変換で表される。 [0059] Non-linear transformation of the two-dimensional image, for example, the pre-conversion coordinates (x, y), the coordinates after transformation (x ', y') When, in the two-dimensional polynomial transformation represented by the formula 4 expressed. ここで、多項式の次数nとしては、4以上10以下が好ましい。 Here, as the degree n of the polynomial, preferably 4 to 10. また、胸部のように略左右対称な人体部分では、人体構造の位置ずれも略対称であることから、多項式の次数nが偶数である偶関数を用いることが好ましい。 Further, in the Ryakuhidari right symmetrical body parts like the chest, since the positional deviation of the body structures is substantially symmetrical, it is preferable that the degree n of the polynomial used even function is even.

【0060】また、非線型変換における係数(式4におけるa ij 、b ij )の決定においては、複数の点においてそれそれローカルマッチングの手法を用いて求めた複数の移動量を総合することにより定めると良い。 [0060] In the determination of the coefficients in the non-linear conversion (a ij, b ij in equation 4), determined by integrating the plurality of mobile amount obtained by using it it local matching technique at a plurality of points and good. ローカルマッチングとは、一方の画像内に微小な関心領域を選択し、この関心領域内の構造に基づいて、他方の画像内の対応する位置の近傍で最も良く構造が一致する領域を探索し、探索結果に基づいて、関心領域の中心点に対応する移動量を求めるものである。 Local matching is to select a small region of interest in one image, based on the structure of the ROI, to explore the best areas the structure is consistent in the vicinity of the corresponding position in the other image, based on the search result, and requests the movement amount corresponding to the center point of the region of interest.

【0061】画像変換条件が前記式4の2次元多項式で表される場合、非線形変換における係数の決定の具体的な方法として、多数の関心領域のローカルマッチングにより求めた(x',y')を標本値として、最小二乗法等を用いた近似を行うことにより係数a ij 、b ijを定める。 [0061] If the image conversion conditions are represented by two-dimensional polynomial of the formula 4, as a specific method of the coefficient of determination in the non-linear conversion, was determined by the local matching of a number of regions of interest (x ', y') as sample values, determining the coefficients a ij, b ij by performing approximation using the least square method. 近似はx方向とy方向とで独立に行ってもよいし、 Approximation may be performed independently in the x and y directions,
2次元平面内の距離を用いて行ってもよい。 It may be performed using the distance in a two-dimensional plane.

【0062】別の方法として、ローカルマッチングにより求めた(x',y')を標本値として、公知の直線補間やスプライン補間等の補間処理により標本間を埋めることにより、全ての座標位置に対する(x',y')の値を決定する。 [0062] Alternatively, as determined by local matching (x ', y') as a sample value, by filling between samples by interpolation processing such as known linear interpolation or spline interpolation, for all coordinate positions ( x ', y' to determine the value of). このような2種類の方法を併用し、2つの結果を総合して最終的な画像変換条件を定めてもよい。 A combination of such two kinds of methods, and integrating the two results may be determined a final image conversion conditions.

【0063】また、ローカルマッチングに基づく精位置合わせ処理を2回以上繰り返して実行することにより、 [0063] By repeatedly performing fine alignment process based on local matching more than once,
より精細な位置合わせを行う構成としても良い。 It may be configured to perform a more precise alignment. この場合、ローカルマッチング用の関心領域の大きさや設定位置、画像変換式の次数や係数決定方法などは、2回以上の精位置合わせ処理において常に同一としてもよいし、 In this case, the size and set position of the region of interest for local matching, such as orders and coefficient determination method of the image conversion formula, to always be the same in two or more fine positioning process,
1回毎に異なるものを用いてもよい。 It may be used for different things each time.

【0064】ローカルマッチングに基づく精位置合わせ処理の具体例として、胸部放射線画像においては、肺野領域の輪郭を抽出し、現在画像と過去画像それぞれについて画像の肺野領域全体にわたって多数の点をマトリックス的に配置する。 [0064] Specific examples of the fine alignment process based on local matching, in the chest radiographic image, and extracting the contour of the lung field, the matrix a large number of points throughout the lung region of the image for each of the current and previous images It is arranged. 次いで、それぞれの点を中心として、一定の大きさの関心領域を設定する。 Then, about a respective point, it sets a certain size of the region of interest. このとき、一方の画像における関心領域の大きさを、他方の画像の関心領域の大きさに比べて大きく設定し、小さい方の関心領域をテンプレート、大きい方の関心領域をサーチ領域と呼ぶ。 At this time, the size of the region of interest in one image, set larger than the size of the region of interest of the other image, called a region of interest smaller templates, the larger the region of interest of the search area. 関心領域の形状としては、正方形やそれ以外の矩形、円形、十字形などを用いることができる。 The shape of the region of interest, may be used a square or other rectangular, circular, etc. cross.

【0065】そして、図6に示すように、対応する位置にあるテンプレートとサーチ領域とのペアを用いて、サーチ領域に含まれる、テンプレートTと同形の副領域を少しずつ移動しながら、その中でテンプレートTと最も良く類似した副領域T'を探索する。 [0065] Then, as shown in FIG. 6, using a pair of the template and search region at the corresponding positions, included in the search area, while moving the sub-region of the template T having the same shape slightly, therein in searching for the best similar subregions T 'and the template T. 副領域T'が探索されると、中心座標(x',y')に基づいてテンプレートTの中心座標(x,y)に対する移動量Δx及びΔ 'When is searched, the center coordinates (x' sub region T, y ') the center coordinates (x, y) of the template T on the basis of the movement amount Δx and Δ for
yを、x'=x+Δy、y'=y+Δyなる関係に基づいて計算する。 y a, x '= x + Δy, y' is calculated based on = y + [Delta] y becomes relevant. ここで、ある副領域がテンプレートとどの程度類似しているか(類似度)を評価する手段としては公知の、SSDA法、相互相関法、フーリエ変換位相相関法等を使用することができる。 Here, there are sub-areas is how similar the template is known as a means of evaluating (similarity), SSDA method, cross-correlation method can be used Fourier transform phase correlation method or the like.

【0066】複数のテンプレートについて決定された移動量Δx及びΔyの分布に基づいて、式4に示すようなn次の多項式で表される画像変換式が決定され、かかる変換式に基づいて一方の画像の変換を行うことにより、 [0066] Based on the distribution of the amount of movement Δx and Δy determined for a plurality of templates, image conversion formula is determined which is represented by n-th order polynomial as shown in Equation 4, one on the basis of the conversion formula by performing the conversion of the image,
画像の位置合わせを実行する。 Performing alignment of the image.

【0067】移動量Δx及びΔyの分布から式4のn次多項式の係数を決定する際には、ローカルマッチングを行った全てのテンプレートの中心点に対する移動量の値を使用しても良いが、下記に示すようにマッチングの比較的劣るテンプレートから得られた値を除外することが好ましい。 [0067] When the distribution of the amount of movement Δx and Δy to determine the coefficients of the polynomial of degree n in Equation 4, may be used the value of the movement amount with respect to the center point of all templates were local matching, it is preferred to exclude the values ​​obtained from relatively poor template matching as shown below.

【0068】例えば2枚の時系列画像において、一方の画像のみの一部にペースメーカー等の医療器具による特異な陰影が存在する場合、この特異な陰影を含むテンプレートにおいては、他方の画像にそれに相当する陰影がどこにも存在しないため、得られた移動量は信頼性の低い値となり、かつ、そのときの類似度は低くなる。 [0068] For example, in time-series images of two, if the specific shading is present by medical instrument pacemakers part of only one image, the template containing the specific shading corresponds to that in the other image for shading the absence nowhere, resulting movement amount becomes unreliable values, and the similarity of that time is low. このような値が多項式近似または補間処理のためのデータに混在していると、近傍のデータに悪影響を与え、結果として位置合わせ精度が低下する。 If such values ​​are mixed in the data for polynomial approximation or interpolation process, adversely affect the vicinity of the data, the alignment accuracy as a result decreases. そこで、このようなマッチングの悪い移動量を認識して、多項式近似または補間処理の計算から除外するようにすることが好ましい。 Therefore, by recognizing the poor amount of movement of such matching, it is preferable to exclude from the calculation of the polynomial approximation or interpolation.

【0069】マッチングの劣る移動量を認識するには、 [0069] to recognize the amount of movement of poor matching,
例えば移動量の得られたときの類似度が所定の闘値よりも小さいものを選べば良い。 For example similarity when obtained amount of movement may be selected to be smaller than a predetermined 闘値. 或いは、隣接するテンプレートから得られた移動量と比較して、その値が特異に大きいか又は小さいものを選んでも良い。 Alternatively, as compared with the amount of movement obtained from the neighboring template, it may be selected as the value or less specifically large. また、移動量の多項式近似の計算への寄与度を0以上1以下の値で表される重み係数として定義し、類似度に応じて重み付けを行っても良い。 Moreover, the contribution to the calculation of the polynomial approximation of the movement amount is defined as the weight coefficient represented by 0 or 1 the following values ​​may be weighted in accordance with the degree of similarity. 例えば類似度として相互相関値を使用した場合、相互相関値が大きくなるに従って重み係数が大きくなるように予め定めておくことが好ましい。 For example when using a cross-correlation value as the similarity, it is preferable to set in advance so that the weight coefficient increases as the cross-correlation value increases. 相互相関値と重み係数との関係の例を図7に示す。 An example of the relationship between the cross-correlation value and the weight coefficient shown in Fig.

【0070】また、マッチングの劣る移動量を認識するための別の方法として、移動量Δx及びΔyをベクトル要素として有する2次元平面内の移動ベクトル(Δx, [0070] Further, as another method for recognizing the movement amount of poor matching, motion vector in a two-dimensional plane having an amount of movement [Delta] x and Δy as vector elements ([Delta] x,
Δy)を全てのテンプレート中心点に対して定義し、ベクトルの長さまたは方向に基づいて認識してもよい。 The [Delta] y) is defined for all template center point it may recognize based on the length or direction of the vector. 例えば、隣接するテンプレートから得られた移動ベクトルと比較して、その長さまたは方向が大きく異なっているものを選んでもよい。 For example, compared to the movement vectors obtained from adjacent template may choose what its length or direction is different. また、画像の全体または一部分に含まれる複数のテンプレート中心点に対する移動ベクトルの方向(角度)を統計的に解析することにより、平均の角度からある程度以上かけ離れた角度をもつものを選んでもよい。 Further, by statistically analyzing the direction of the movement vector for a plurality of templates center point in the entire or a portion of the image (angle) may choose one having a certain level far angle from the average of angles.

【0071】ところで、ローカルマッチングにおけるテンプレートの大きさをあまり小さくすると、位置合わせの精度が悪化することになる一方、テンプレートの大きさをあまり大きくすると、演算時間が長引くことになってしまうので、位置合わせ精度と演算時間との兼ね合いでテンプレートの大きさを決定することが望まれ、例えば実効画素サイズが0.7mmの場合には、テンプレートの領域の一辺の大きさは、5〜50mmが好ましく1 By the way, if too small a size of the template in the local matching, while resulting in the accuracy of the alignment is degraded, when too large a size of the template, because that would calculation time is prolonged, the position determining the size of the template in view of the accuracy and computation time combined is desired, for example, when the effective pixel size is 0.7mm, the size of one side of the region of the template, 5 to 50 mm preferably 1
5〜40mmとすることがより好ましい。 It is more preferable that the 5~40mm. 同様に、サーチ領域の大きさをあまり小さくすると、位置合わせ精度が低下する一方、サーチ領域の大きさをあまり大きくすると、演算時間が増大する上に経時的な変化部分までも位置合わせしてしまう可能性があるので、テンプレートの大きさに対して、10〜40mm程度だけ大きなサイズとすることが好ましい。 Similarly, reducing the size of the search area much, while the positioning accuracy decreases, when too large a size of the search area, thereby also aligned to temporal change portion on the calculation time increases since there is a possibility, with respect to the size of the template, it is preferable that the large size by about 10 to 40 mm. また、隣合うテンプレートの中心点間の距離をあまり小さくすると、テンプレートの総数が大きくなるので演算時間が増大する一方、中心点間の距離をあまり大きくすると位置合わせ精度が低下するので、距離は、5〜50mmとすることが好ましい。 Further, when the distance between the center points of adjacent template too small, while the calculation time because the total number of templates increases increases, since the alignment accuracy is decreased too large a distance between the center points, the distance is it is preferable that the 5~50mm.
なお、隣合うテンプレート同士は、重なり合っても良い。 It should be noted that the adjacent template each other, may overlap. また、粗位置合わせ処理において、位置合わせが平行移動と回転との組み合わせで行われる場合には、精位置合わせ処理におけるローカルマッチングでは、サーチ領域内での副領域の平行移動のみによる探索を行わせることが好ましい。 Further, the rough alignment process, if the alignment is performed in combination with the rotation movement parallel, the local matching in fine alignment process, to perform a search only by parallel movement of the sub-region in the search region it is preferable. かかる構成とすれば、画像全体の回転ずれを1段階の処理で補正できることになり、処理速度を早めることができる。 If such a configuration, will be possible to correct the rotational deviation of the entire image in one step of the process, it is possible to speed up the processing speed.

【0072】このように、この発明のローカルマッチング処理では、粗位置合わせにおいて画像全体の大まかな位置合わせが済んでいるため、精位置合わせ処理においては局所的なわずかな歪みを補正するのみでよく、サーチ領域の大きさをある程度の範囲に限定し、かつ平行移動のみによる探索を行うことで、2段階の位置合わせ処埋を行うにも関わらず比較的短い処埋時間で極めて精度の高い位置合わせが可能である。 [0072] Thus, in the local matching process of the present invention, because it finished rough alignment of the entire image is in rough alignment, the fine alignment process may only be corrected local slight distortion , the size of the search area is limited to a certain range, and by performing a search by translation only, very accurate position in two stages relatively short treatment embedding time despite aligning Cimicifuga of together is possible.

【0073】図2は画像の位置合わせ処理装置の概略構成図である。 [0073] FIG. 2 is a schematic configuration diagram of a positioning processor in the image. この実施の形態の画像の位置合わせ処理装置1は、図1の画像の位置合わせ処理装置と同じ構成は、同じ符号を付して説明を省略するが、この実施の形態では、共通の被写体が人体の一部であり、複数の画像のうち少なくとも一つの画像から人体の解剖学的構造を抽出する解剖学的構造抽出手段20を有し、部分領域設定手段12は、解剖学的構造抽出手段20における抽出結果に基づいて複数の部分領域を設定する。 Positioning processing apparatus 1 of this embodiment of the image, the same structure as the positioning processing apparatus of the image 1, the description thereof will be denoted by the same reference numerals, in this embodiment, a common subject is part of the human body has an anatomical structure extraction means 20 for extracting the human anatomy from at least one image of the plurality of images, a partial region setting means 12, the anatomical structure extraction means setting a plurality of partial regions on the basis of the extraction result at 20.

【0074】このように共通の被写体が人体の一部であり、複数の画像のうち少なくとも一つの画像から人体の解剖学的構造を抽出し、抽出結果に基づいて複数の部分領域を設定することにより、人体の放射線画像の間で相対的に位置ずれがあっても、精度良く位置合わせする処理を、効率的かつ安定的に自動処理できる。 [0074] is a part common object in this way a human body, it extracts the human anatomy from at least one image of the plurality of images, setting a plurality of partial regions on the basis of the extraction result Accordingly, even if there is relatively positional deviation between the body of the radiographic image, a process of aligning precisely position can be efficiently and stably automated processing.

【0075】ここで、解剖学的構造の抽出(解剖学的構造抽出手段)について説明する。 [0075] Here will be described the extraction of anatomical structures (anatomy extracting means). 人体を透過した放射線の透過量に対応して形成される放射線画像の場合、人体の解剖学的構造に対応して信号レベルが局所的に変化するため、画像信号の解析によって解剖学的構造を抽出することができる。 For radiographic images formed to correspond to the amount of transmitted radiation transmitted through a human body, since the signal level in response to the human anatomy varies locally, the anatomy by analysis of the image signal it can be extracted.

【0076】例えば、図8に示す乳房放射線画像においては、スキンラインL1の検出が行なわれ、スキンラインL1の点のうち最も画像右端に近い点として認識される乳頭位置P1の検出を行ない、乳頭を中心とした同心円に基づき部分領域A 1 、A 2 、A 3を設定する。 [0076] For example, in breast radiation image shown in FIG. 8, the detection of the skin line L1 is performed, performs detection of the nipple position P1 is recognized as the point closest to the image right end among the points of the skin line L1, nipple setting the partial area a 1, a 2, a 3 based on concentric circles centered. この乳房画像からのスキンライン検出手法は、引用文献医用画像情報学会雑誌,Vol. Skin line detection method from the breast image, cited medical image information Journal, Vol. 14,pp. 14, pp. 104−11 104-11
3,19972の記載が参照される。 Description of 3,19972 is referenced.

【0077】また、胸部放射線画像における肺野部の輸郭抽出は、例えば特開昭63−240832号公報に開示される方法を用いて行える。 [0077] Further, 輸郭 extraction of lung field in chest radiographs, performed using the method disclosed in JP Sho 63-240832. 具体的には、画像データの1つの行又は列についてのみ注目し、その1次元の画像データ列の中で前後のデータとの関係が予め定めた特定のパターンとなる点を、その行或いは列における輪郭点とし、必要な範囲の行或いは列について前記輪郭点を求めてそれらの点を結んだ線を肺野の輪郭とするものであり、特定のパターンとしては極小となる点、傾きが最大となる点、傾きが最小となる点等を用いる。 Specifically, attention for one row or column of the image data only, a point at which the specific pattern relationship is predetermined between the data before and after in the image data stream of the one-dimensional, the row or column a contour point in, which the connecting points thereof seeking the contour points for row or column of the expected range lines and lung field contour points becomes minimum as specific pattern, slope up become points, using a point such that the inclination is minimized.

【0078】また、胸部放射線画像において肺野を含む矩形領域を抽出する方法としては、例えば特開平3−2 [0078] Further, as a method for extracting the rectangular area including the lung field in chest radiographic image is, for example JP-A-3-2
18578号公報に開示されるような方法がある。 A method as disclosed in 18578 JP. 具体的には、画像の縦方向についてプロジェクション値(画像データの一方向の累積値)を求める。 Specifically, determining the longitudinal direction of the image projection value (accumulated value of the one-way image data). そして、プロジェクション値が最小値となる点を正中線とし、この正中線から外側に向けて移動しながらプロジェクション値と所定の闘値とを比較して、プロジェクション値が最初に闘値以下になった左右それぞれの点を、肺野の左端及び右端として決定する。 Then, a point where the projection value becomes the minimum value as the midline, this while moving from the midline outward by comparing the projection value and a predetermined 闘値, projection values ​​first become 闘値 below the point of the left and right respectively, is determined as a lung field left and right. 同様に画像の横方向についてもプロジェクション値を求めて、肺野の上端及び下端を決定する。 Likewise the lateral direction of the image in search of projection values ​​also determine the lung of the upper end and the lower end.

【0079】また、胸部放射線画像において肺野輪郭や肋骨位置を抽出する方法としては、特開平2−2501 [0079] Further, as a method of extracting a lung field contour or rib located in the chest radiographic image, Hei 2-2501
80号公報に開示されるようなものがある。 There is as disclosed in 80 JP. このものは、縦横のプロファイル情報に基づいて肺野輪郭や肋骨位置を抽出するものであり、特に肋骨の抽出においては、背景部分の影響を多項式近似により排除する構成となっている。 This thing is for extracting a lung field contour or rib located on the basis of the profile information of the aspect, especially in the extraction of ribs are configured to eliminate the polynomial approximation the effect of the background portion.

【0080】一方、腹部の放射線画像において、解剖学的構造として腰椎,腸骨,骨盤などの骨部を抽出する方法としては、特開平4−341246号公報に開示される方法がある。 [0080] On the other hand, in the abdomen of the radiation image, lumbar as anatomy, iliac, as a method for extracting bone portions such as the pelvis, there is a method disclosed in JP-A-4-341246. 例えば、腹部放射線画像において腸骨部を抽出するには、画像の横方向における信号変化を示すプロファイルを作成し、かかるプロファイルにおいて極小値をとる部位の個数・位置に基づいて、腸骨部を囲む上下2つの線分を求めて、腸骨部領域を抽出する。 For example, to extract the iliac portion in the abdomen radiographic image is to create a profile indicating the signal change in the horizontal direction of the image, based on the number and position of the portion takes the minimum value in such a profile, surrounding the iliac portion seeking two upper and lower segments, and extracts the iliac region. また、骨部と骨以外の部分との境界信号値をヒストグラム等から求めて、かかる境界信号を闘値として画像信号の2値化を行うことで、腰椎,腸骨,骨盤などの骨部領域とそれ以外の領域とに区分して骨部領域を抽出することが可能である。 Moreover, seeking boundary signal value of the bone portion and the portion other than the bone from the histogram or the like, by performing the binarization of the image signal such boundary signal as 闘値, lumbar, iliac bone regions such as the pelvic and then divided into the other regions it is possible to extract a bone region.

【0081】図3は画像の位置合わせ処理装置の概略構成図である。 [0081] FIG. 3 is a schematic configuration diagram of a positioning processor in the image. この実施の形態の画像の位置合わせ処理装置1は、図1の画像の位置合わせ処理装置と同じ構成は、同じ符号を付して説明を省略するが、この実施の形態では、複数の画像のうち少なくとも一つの画像内に注目位置を指定する注目位置指定手段30を有し、指定された注目位置に基づいて複数の部分領域を設定する。 Positioning processing apparatus 1 of this embodiment of the image, the same structure as the positioning processing apparatus of the image 1, the description thereof will be denoted by the same reference numerals, in this embodiment, a plurality of images out has a target position specifying means 30 for specifying the target position within the at least one image, it sets a plurality of partial regions based on the specified target position. また、複数の部分領域のうち、指定された注目位置を含む部分領域に対応する重み係数が、他の部分領域に対応する重み係数よりも大きくなるように重み係数を設定する。 Further, among the plurality of partial regions, the weighting coefficients corresponding to the partial region including the specified target position sets the weighting factor to be larger than the weighting factor corresponding to the other partial regions.

【0082】この実施の形態の注目位置の指定は、図9 [0082] specification of the target position of this embodiment, as shown in FIG. 9
に示すように、画像表示手段10に表示された画像を観察しながら、ユーザがマウス等のポインティングデバイスを用いて注目位置P2を指定し、この注目位置P2を中心に、部分領域A 1 、A 2 、A 3を決定し、重み係数をW 1 >W 2 >W 3となるように定める。 As shown in, while observing the image displayed on the image display unit 10, the user specifies the target position P2 using a pointing device such as a mouse, around this target position P2, the partial area A 1, A 2, the a 3 determines, determine the weighting factors such that W 1> W 2> W 3 . 重み係数は、例えばW 1 =0.7、W 2 =0.3、W 3 =0に設定される。 Weighting factors, for example, W 1 = 0.7, W 2 = 0.3, is set to W 3 = 0.

【0083】このように複数の画像のうち少なくとも一つの画像内に注目位置を指定し、指定された注目位置に基づいて複数の部分領域を設定するから、注目位置の位置ずれを精度良く位置合わせする処理を、効率的かつ安定的に自動処理できる。 [0083] At least one specifies the target position in the image, because setting a plurality of partial regions on the basis of the specified target position, the positional deviation of the target position accurately positioning among Thus a plurality of images the process of efficiently and stably can be automatically processed.

【0084】また、指定された注目位置を含む部分領域に対応する重み係数が、他の部分領域に対応する重み係数よりも大きくなるように重み係数を設定することで、 [0084] Also, by weighting coefficient corresponding to the partial region including the specified target position sets the weighting factor to be larger than the weighting factor corresponding to the other partial regions,
注目位置の位置ずれを精度良く位置合わせする処理を、 The process of positional deviation of the target position and the combined accurately position,
効率的かつ安定的に自動処理できる。 Efficiently and stably it can be automatically processed.

【0085】図1乃至図4の実施の形態の画像の位置合わせ処理装置で位置合わせが行われた複数の画像を同時に表示する画像表示手段10を有し、図10に示すように表示される。 [0085] Figure 1 to have an image display unit 10 for displaying a plurality of images alignment was performed in the alignment processing apparatus according to an embodiment of the image of FIG. 4 at the same time, is displayed as shown in FIG. 10 .

【0086】画像表示制御手段9においては、予め指定された表示フォーマットに従って画像を表示すべく、画像表示手段10に出力する画像データの加工を行う。 [0086] In the image display control means 9, in order to display an image according to a pre-designated display format, performs processing of image data to be output to the image display unit 10. 前記画像データの加工には、画像を指定された表示サイズに適合させるための拡大/縮小処理や、画像の階調を表示装置の輝度特性に適合させるためのウィンドウ処理などの階調変換も含まれる。 The processing of the image data, enlargement / reduction processing and for adapting the display size to the specified image, even the tone transformation such as windowing for adapting the luminance characteristics of the display device the gradation of images included It is.

【0087】画像表示手段としては、CRT、液晶ディスプレイ、プラズマディスプレイなどの公知の画像表示手段を用いることができ、中でも医療画像専用の高精細高輝度のCRTまたは液晶ディスプレイが最も好ましく、さらに表示画素数が約1000×1000以上である高精細ディスプレイが好ましい。 [0087] As the image display means, CRT, a liquid crystal display, it is possible to use a known image display device such as a plasma display, among them the most preferred CRT or a liquid crystal display of high definition and high brightness of the medical image only, further display pixel high-definition display that number is about 1000 × 1000 or higher.

【0088】図10(a)は異なる時期に撮影された同―患者の胸部X線画像を並べて表示し、図10(b)は異なる時期に撮影された同一患者の同一方向の乳房X線画像を並べて表示し、図10(c)は同一検査で撮影された同一患者の左と右の乳房X線画像を並べて表示した例を示す。 [0088] FIG. 10 (a) the shot at different times - to display side by side chest X-ray image of the patient, FIG. 10 (b) in the same direction of the same patient taken at different times breast X-ray image and displayed side by side, FIG. 10 (c) shows an example of displaying side by side left and right breast X-ray image of the same patient taken at the same test. この図10(c)の場合は、右と左の画像で乳頭方向が逆を向いているので、いずれかの画像を左右反転し、この発明の位置合わせを行ない、左右反転を元に戻すという手順で行う。 For this FIG. 10 (c), the so nipple direction right and left images is facing opposite, any image to left and right reversed, that performs alignment of the present invention, undo Mirror carried out in the procedure.

【0089】このように画像の位置合わせ処理装置で位置合わせが行われた複数の画像を同時に表示するから、 [0089] Since display thus the plurality of images alignment was performed in the alignment processing apparatus for an image at the same time,
読影医師が同一患者の過去の画像と現在の画像を対比しながら読影する場合(比較読影)や、同一患者の左右乳房を対比しながら読影を行う場合に、対応する画像部分同士の比較検討を容易にかつ正確で、しかも迅速に行うことができる。 If the interpretation doctor interpreting while comparing the past image and the current image of the same patient or (comparative reading), when performing the interpretation while comparing the left and right breasts of the same patient, a comparison of the corresponding image portion to each other easily and accurately, yet it can be performed quickly. これにより、例えば表示された2画像のうちの一方の画像のみに存在する病変陰影Xを、より精度良く検出することが可能になる。 Thus, a lesion shadow X present on only one of the images of the example displayed two images, it is possible to more accurately detect. また、例えば過去画像と現在画像の間で病状が進行したり改善された病変陰影の診断を、より正確に行うことが可能になる。 Further, for example, the diagnosis of a lesion shadow condition has improved or advanced in the past and current images, it is possible to perform more accurately.

【0090】また、図4の実施の形態の画像の位置合わせ処理装置は、位置合わせが行われた複数の画像間で演算を行う画像間演算手段40を有し、画像の位置合わせ処理装置で位置合わせが行われた複数の画像間で演算を行う。 [0090] Further, the alignment apparatus of the embodiment of the image of FIG. 4 has a inter-image calculation unit 40 for performing operation between a plurality of images aligned is performed, in the alignment processing apparatus for an image performing a calculation between a plurality of images alignment has been performed.

【0091】画像間演算手段40に示される画像間演算(差分処理)に演算情報として与えられ、時系列画像間において同一の解剖学的構造に対応する画像部分を位置合わせして差分処理が行われ、経時変化のない正常構造部分を打ち消して経時変化部分を選択的に強調した差分画像(時系列処理画像)が生成される。 [0091] given as the calculation information between the images shown in the inter-image calculation unit 40 calculating (differential processing), when combined to differential processing position an image portion corresponding to the same anatomical structure among the streams image line We selectively emphasized difference image with time change portion by canceling a normal structure portion without aging (time-series processing image) is generated.

【0092】なお、粗位置合わせと精位置合わせからなる2段階の画像の位置合わせを行う場合には、粗位置合わせ処理によって得た位置合わせ情報に基づいて少なくとも一方の時系列画像を画像変換し、かかる画像変換が施された時系列画像間で精位置合わせ処理を実行させても良いし、粗位置合わせ処理によって位置合わせ情報を得た後、画像データの画像変換を行った変換画像を生成せずに、粗位置合わせ情報と原画像データとに基づいて精位置合わせ処理が実行されるようにしても良い。 [0092] Incidentally, in the case of adjusting the position of two-stage image composed of coarse alignment and fine alignment, at least one of the time-series images based on the alignment information obtained by the rough alignment process to the image conversion , may be executed seminal alignment processing between time-series images according the image conversion is performed, after obtaining positioning information by the coarse positioning process, generates a converted image subjected to image transformation of the image data without, fine alignment process may be executed on the basis of the rough alignment information and the original image data. 同様に、精位置合わせ処理によって得た位置合わせ情報に基づいて少なくとも一方の時系列画像を画像変換し、かかる画像変換が施された時系列画像に基づいて画像間演算(差分処理)を行わせても良いし、画像データの画像変換を行った変換画像を生成せずに、精位置合わせ情報と原画像データとに基づいて画像間演算を行わせるようにしても良い。 Similarly, at least one of the time-series images based on the alignment information obtained by the fine position alignment processing image conversion, to perform inter-image calculation (difference processing) based on the time-series images according the image conversion is performed also it may be, without generating a converted image subjected to image transformation of the image data, may be to perform inter-image calculation based on a fine alignment information and the original image data.

【0093】例えば、変形前の過去画像及び変形後の過去画像の座標(x,y)における画素値を、それぞれS [0093] For example, the coordinates of the past image after the previous image and the deformed before deformation (x, y) the pixel value at each S
p (x,y)及びS pw (x,y)と表すと、S pw (x, p (x, y) and S pw (x, y) and expressed, S pw (x,
y)は式5により定められる. y) is defined by Equation 5.

【0094】 [0094]

【式5】 [Equation 5]

【0095】ここでΔx及びΔyは、座標(x、y)に対する移動量を表す。 [0095] Here, Δx and Δy represent the amount of movement with respect to the coordinate (x, y). ここで、(x+Δx)または(y Here, (x + Δx) or (y
+Δy)が非整数の場合には、最近傍4画素の画素値を用いた直線補間により仮想的な画素値を決定する。 + [Delta] y) is in the case of non-integer determines the virtual pixel values ​​Recent linear interpolation using the pixel values ​​of near four pixels. 最後に、変形後の過去画像と現在画像との間で、対応する画素の画素値間の差分をとることにより、差分画像を得る。 Finally, between the past and current images after deformation, by calculating the difference between pixel values ​​of corresponding pixels to obtain a difference image.

【0096】この発明において、位置合わせ処理を行う前に、画像全体の濃度・階調を標準的な濃度・階調特性に合わせる濃度・階調補正処理を行わせるようにしてもよい。 [0096] In the present invention, before performing the positioning process, it may be made to perform density-gradation correction processing to adjust the density and gradation of the entire image to a standard density and gradation characteristics. 具体的には、米国特許5224177号に開示されるような濃度・階調補正処理を用いることができる。 Specifically, it is possible to use a density-gradation correction process as disclosed in U.S. Patent No. 5,224,177.
また、画像を複数の小領域に分割し、対応する小領域内の画素値の統計値が等しくなるように一方の画像の画素値を補正する方法を用してもよい。 Further, an image is divided into a plurality of small regions, may use the method of correcting the pixel value of the corresponding small statistical value of the pixel values ​​within the region is so one equally image. 前記統計量としては、平均値、分散値等が用いられる。 As the statistic average value, the variance value or the like is used. また、位置合わせ処理を行う前に、特定の空間周波数成分を強調または減弱する周波数強調処埋を行わせるようにしてもよい。 Also, before performing the positioning process, it may be to perform the embedding frequency enhancement processing to emphasize or attenuate certain spatial frequency components. これにより、前記強調された周波数成分または減弱されなかった周波数成分を含む構造に着目した位置合わせ処理を行うことができる。 Thus, it is possible to perform the positioning process which focuses on the structure including the emphasized frequency components or attenuated not frequency components. また、位置合わせ処理を行う前に、エッジ強調を用いて肋骨あるいは肺紋理など特定の構造物を強調する画像処理を行わせるようにしてもよい(日本放射線技術学会雑誌55巻1号、pp.б0―б Also, before performing the positioning process, it may be configured to perform emphasizing image processing certain structures such as ribs or Haimonri using edge enhancement (Japanese Society of Radiological Technology Journal Volume 55 No. 1, pp. б0-б
8・1999)。 8, 1999).

【0097】また、この発明における画像間演算により生成された演算処理画像に対して、濃度・階調を変更する階調処理や、特定の空間周波数成分を強調または減弱する周波数強調処理を施してもよい。 [0097] Further, with respect to processing images generated by the operation between the images in the present invention, gradation processing for changing the density and gradation, and performs frequency enhancement processing to emphasize or attenuate certain spatial frequency components it may be. また、画像間演算により生成された演算処理画像内で、例えば胸部画像における胸郭外の画像部分のように、読影診断に必要とされない画像部分をマスキングまたはトリミングする処理を施してもよい。 Also, in the inter-image generated by the arithmetic operation processing image, for example, as an image portion of the outside rib cage in breast image, the image portion which is not required for image diagnosis may be subjected to a process of masking or trimming.

【0098】なお、前記実施例では、異なる時期に撮影された同一患者の放射線画像間における差分処理を行う画像間演算の例を示したが、これに限定するものではなく、例えば造影剤注入により特定構造物が強調された放射線画像から、造影剤が注入されていない放射線画像を減算することによって前記特定構造物を抽出する画像間演算処理や、同一の被写体に対して異なるエネルギー分布を有する放射線を照射し、あるいは被写体透過後の放射線をエネルギー分布を変えて二つの放射線検出手段に照射して、その後この二つの放射線画像の画像信号間で適当な重み付けをしたうえで減算処埋を行って特定構造物を抽出するエネルギーサブトラクション処理に応用してもよい。 [0098] In the above embodiment, an example of the inter-image calculation for performing difference processing between the radiation image of the same patient taken at different times, not limited to this, for example, by contrast injection radiation having a radiation image is identified structure is emphasized, the inter-image calculation processing for extracting the particular structure by subtracting the radiation image contrast agent is not injected, the different energy distributions for the same subject irradiated with, or by irradiating the two radiation detecting means radiation after the subject transmitted by changing energy distribution, by performing the subtraction processing filled subsequently after having appropriate weighting between the images signals of the two radiation images it may be applied to the energy subtraction processing of extracting a specific structure.

【0099】画像表示手段10では、位置合わせが行われた複数の画像または画像間演算により生成された演算処理画像を表示する。 [0099] In the image display unit 10 displays the processing image which has been created by a plurality of images or the inter-image calculation the alignment has been performed. この表示は、図11に示すように異なる時期に撮影された同一患者の胸部X線画像C1, This display is the same patient's chest X-ray image C1 taken at different times as shown in FIG. 11,
C2と、それらの差分画像C3を並べて表示する。 And C2, displayed side by side those of the difference image C3.

【0100】この差分画像C3では、位置合わせが行われたC1とC2の間で差分を計算しているため、C1とC2間で変化のない骨や血管等の胸部の正常構造部分が打ち消されるとともに新たに発生した病変陰影Xが強調されるので、読影医師が病変陰影をより精度良く検出することが可能になる。 [0100] In the differential image C3, because it calculates the difference between the C1 and C2 that alignment has been performed, the normal structure portion of the chest bones and blood vessels, such as no change between C1 and C2 is canceled since new lesions shadow X generated is emphasized along with the interpretation doctor makes it possible to more accurately detect a lesion shadow. また、例えばC1とC2の間で病状が進行したり改善された病変陰影の診断を、より正確に行うことが可能になり、変化量の定量的診断の助けとなる。 Further, the diagnosis of lesions shadow medical condition, for example, between C1 and C2 is improved or progression, it becomes possible to perform more accurate, to aid in the quantitative diagnosis of variation.

【0101】なお、図10及び図11においては、同一表示画面上に複数の画像を同時に表示する例を示したが、複数の表示画面から成る画像表示手段を有する構成としてもよい。 [0102] In FIG. 10 and FIG. 11, an example of displaying a plurality of images simultaneously on the same display screen may be configured to have an image display means comprising a plurality of display screens. 例えば表示画面1と表示画面2の二つの表示画面を有する画像表示手段であって、図11におけるC1とC2が表示画面1に並べて表示され、C3が表示画面2に表示されるような構成であってもよい。 For example an image display unit having two display screens of the display screen 1 and the display screen 2, C1 and C2 in FIG. 11 is displayed side by side on the display screen 1, a configuration shown C3 is displayed on the display screen 2 it may be.

【0102】一般に、画像の画素数と表示画面における表示可能な領域の画素数とが一致しない場合には画像の拡大/縮小処理が行われるが、表示される画像のうち、 [0102] Generally, enlargement / reduction processing of the image is performed when the number of pixels of the displayable area of ​​the display screen and the number of pixels of the image does not coincide, in the image to be displayed,
位置合わせ処理の適用される複数の画像の全てについて、画像に含まれる被写体の大きさが実質的に等しくなるように(実物大の人体に対する拡大/縮小率が画像間で同一になるように)拡大/縮小率を決定することが好ましい。 For all of the plurality of images to be applied in the positioning process, as the size of an object included in an image are substantially equal (as enlargement / reduction ratio to the human body of the life-size are the same between images) it is preferable to determine the enlargement / reduction ratio. 一方、図11における差分画像のように画像間演算により生成された演算処理画像は、位置合わせ処理の適用される複数の画像と同一の大きさで表示される必要はなく、例えば差分画像のみが2枚の原画像より小さくなるように拡大/縮小率を決定する構成としてもよい。 On the other hand, the arithmetic processing images generated by the inter-image calculation as the difference image in FIG. 11 does not have to be displayed in a plurality of images identical to the size to be applied for the registration process, for example, only the difference image two may be configured to determine the enlargement / reduction ratio to be less than the original image. これは、差分画像のような演算処理画像は読影診断の参考にする目的で表示されるものであって、最終的な診断は原画像の観察に基づいて行われるためである。 This processing images such as the difference image is an intended to be displayed in Sankounisuru purpose of reading diagnosis, the final diagnosis is to be done based on the observation of the original image.

【0103】画像表示手段10の表示画面には、画像と共に患者情報、検査情報、所見情報等を表示する構成としてもよい。 [0103] on the display screen of the image display unit 10, the patient along with the image information, examination information, may be displayed findings information. 画像表示手段10の他に、画像のハードコピー出力を行う外部機器を接続することにより、本発明における位置合わせが行われた複数の画像または画像間演算により生成された演算処理画像のハードコピーを得られる構成としてもよい。 In addition to the image display unit 10, by connecting an external device to perform a hard copy output of the image, a hard copy of the processing image alignment was generated by the operation between a plurality of images or image made in the present invention it may be configured to obtain. 例えば、出力インタフェースを介して、画像データがレーザーイメージャとよばれる走査型レーザ露光装置に出力される。 For example, through the output interface and output to a scanning laser exposure device in which the image data is referred to as laser imager. この走査型レーザ露光装置では、画像データに基づいてレーザビーム強度を変調し、従来のハロゲン化銀写真感光材料や熱現像ハロゲン化銀写真感光材に露光した後、適切な現像処理を行うことによって画像のハードコピーが得られるものである。 In this scanning laser exposure device modulates the laser beam intensity on the basis of the image data, after exposure to conventional silver halide photographic light-sensitive material and the heat development of silver halide photographic light-sensitive material, by making appropriate development in which a hard copy of the image is obtained. また、インクジェットプリンタやサーマルプリンタ等により画像のハードコピーを得る構成としてもよい。 Further, it may be configured to obtain a hard copy of the image by an ink jet printer or a thermal printer or the like. 画像のハードコピーには、画像と共に患者情報、検査情報、所見情報等を出力する構成とすることが好ましい。 The hard copy of the image, the patient along with the image information, examination information, it is preferable to adopt a configuration for outputting observation information, and the like.

【0104】 [0104]

【発明の効果】前記したように、請求項1に記載の発明では、決定された全体領域類似度に基づいて、一方の画像を他の画像に位置合わせするための画像変換条件を決定し、決定された画像変換条件に基づいて画像変換を行うことにより、人体の放射線画像の間で相対的に位置ずれがあっても、精度良く位置合わせする処理を、効率的かつ安定的に自動処理できる。 As aforementioned, according to the present invention, in the invention according to claim 1, based on the determined total area similarity, and decides an image conversion condition for aligning the one image to another image, by performing the image conversion based on the determined image conversion condition, even if there is relatively positional deviation between the body of the radiographic image, a process of aligning precisely position can be efficiently and stably automated processing .

【0105】請求項2に記載の発明では、共通の被写体が人体の一部であり、複数の画像のうち少なくとも一つの画像から人体の解剖学的構造を抽出し、抽出結果に基づいて複数の部分領域を設定することにより、人体の放射線画像の間で相対的に位置ずれがあっても、精度良く位置合わせする処理を、効率的かつ安定的に自動処理できる。 [0105] In the invention of claim 2 is part common subject is a human body, from at least one image of the plurality of images to extract the anatomy of the human body, extraction results in a plurality of the basis by setting the partial region, even if there is relatively positional deviation between the body of the radiographic image, a process of aligning precisely position can be efficiently and stably automated processing.

【0106】請求項3に記載の発明では、複数の画像のうち少なくとも一つの画像内に注目位置を指定し、指定された注目位置に基づいて複数の部分領域を設定するから、注目位置に着目することでよりずれを精度良く位置合わせすることができる。 [0106] In the invention described in claim 3, specifying the target position within the at least one image of the plurality of images, since setting a plurality of partial regions on the basis of the specified target position, paying attention to the target position it can be combined accurately position more displaced by.

【0107】請求項4に記載の発明では、複数の画像のうち少なくとも一つの画像内に注目位置を指定し、複数の部分領域のうち、指定された注目位置を含む部分領域に対応する重み係数が、他の部分領域に対応する重み係数よりも大きくなるように重み係数を設定することで、 [0107] In the invention described in claim 4, at least one specifies the target position in the image, among a plurality of partial regions, the weighting coefficients corresponding to the partial region including the specified target position among the plurality of images but, by setting the weighting factor to be larger than the weighting factor corresponding to the other partial regions,
注目位置に着目して位置ずれをより精度良く位置合わせすることができる。 Positional deviation by paying attention to the target position can be a be twisted accurately position.

【0108】請求項5に記載の発明では、粗位置合わせの後に、精位置合わせの2段階の画像の位置合わせを行なうことで、比較的短い処理時間で位置合わせ精度を向上することができる。 [0108] In the invention according to claim 5, after the rough alignment, by aligning the two-step image of fine alignment, it is possible to improve the positioning accuracy in a relatively short processing time.

【0109】請求項6に記載の発明では、画像の位置合わせ処理装置で位置合わせが行われた複数の画像を同時に表示するから、位置ずれのない画像により比較読影に基づく診断を容易にかつ正確で、しかも迅速に行うことができる。 [0109] In the invention described in claim 6, since displaying a plurality of images alignment was performed in the alignment processing unit of the image simultaneously and easily diagnosed based on a comparison interpretation by no positional deviation image accurately in, yet it can be performed quickly.

【0110】請求項7に記載の発明では、画像の位置合わせ処理装置で位置合わせが行われた複数の画像間で演算を行うから、演算負担を軽減しつつ、細かな位置合わせの精度が確保される。 [0110] In the invention described in claim 7, since performing the calculation alignment between a plurality of images made in the alignment processing unit of the image, while reducing the calculation load, ensuring that fine positioning accuracy It is.

【0111】請求項8に記載の発明では、位置合わせが行われた複数の画像または画像間演算により生成された演算処理画像を表示するから、位置ずれのない画像により比較読影や画像間演算結果に基づく診断を容易にかつ正確で、しかも迅速に行うことができる。 [0111] claimed in the invention described in claim 8, since displays the processing image generated by the calculation between the plurality of images or image alignment is performed, comparative image observation and the inter-image calculation result by no positional deviation image and a diagnosis based on readily accurate, yet can be performed quickly.

【図面の簡単な説明】 BRIEF DESCRIPTION OF THE DRAWINGS

【図1】画像の位置合わせ処理装置の概略構成図である。 1 is a schematic configuration diagram of a positioning processor in the image.

【図2】画像の位置合わせ処理装置の他の実施の形態の概略構成図である。 2 is a schematic block diagram of another embodiment of the alignment apparatus of the image.

【図3】画像の位置合わせ処理装置の他の実施の形態の概略構成図である。 Figure 3 is a schematic block diagram of another embodiment of the alignment apparatus of the image.

【図4】画像の位置合わせ処理装置の他の実施の形態の概略構成図である。 4 is a schematic block diagram of another embodiment of the alignment apparatus of the image.

【図5】重み付きテンプレートマッチング法を説明する図である。 FIG. 5 is a diagram for explaining a weighted template matching method.

【図6】ローカルマッチングで用いるテンプレート及びサーチ領域の様子を示す図である。 6 is a diagram showing a state of the template and search region used by local matching.

【図7】相互相関値と重み係数との関係を示す線図である。 7 is a diagram showing a relationship between the cross-correlation value and the weighting factor.

【図8】乳房放射線画像のスキンラインの検出と部分領域の設定を説明する図である。 8 is a diagram illustrating the configuration of the detection and partial regions of the skin line of the breast radiation image.

【図9】部分領域の設定を説明する図である。 9 is a diagram illustrating the configuration of a partial region.

【図10】異なる時期に撮影された同―患者の胸部X線画像を並べて表示する図である。 [10] the taken at different times - a diagram displayed side by side chest X-ray image of the patient.

【図11】異なる時期に撮影された同一患者の胸部X線画像と、それらの差分画像を並べて表示する図である。 [11] and chest X-ray image of the same patient taken at different times, a diagram displayed side by side their difference image.

【符号の説明】 DESCRIPTION OF SYMBOLS

1 画像の位置合わせ処理装置 2 部分領域設定手段 3 部分領域類似度決定手段 4 全体領域類似度決定手段 5 重み係数記憶手段 6 画像変換条件決定手段 7 画像変換手段 8 画像記憶手段 9 画像表示制御手段 10 画像表示手段 20 解剖学的構造抽出手段 30 注目位置指定手段 40 画像間演算手段 1 image alignment processor 2 partial region setting means 3 subregions similarity determining means 4 entire region similarity determining means 5 weight factor memory section 6 the image conversion condition determining unit 7 the image converting unit 8 image storage means 9 image display control means 10 image display unit 20 anatomical structure extraction means 30 target position specifying means 40 inter-image calculation unit

Claims (8)

    【特許請求の範囲】 [The claims]
  1. 【請求項1】共通の被写体を含む複数の画像間で位置合わせ処理を行う画像の位置合わせ処理装置であって、 前記複数の画像のうち少なくとも一つの画像内に複数の部分領域を設定する部分領域設定手段と、 設定された部分領域毎に、他の画像内の対応する領域との間の類似度を決定する部分領域類似度決定手段と、 決定された部分領域類似度を、各部分領域に対して設定された重み係数を用いて重み付け加算することにより、 1. A positioning apparatus of an image for performing alignment processing between a plurality of images including a common object, the portion for setting a plurality of partial regions within the at least one image of the images an area setting means, for each set subregion, corresponding with the partial region similarity determination means for determining a similarity between the region, the determined partial area similarity, the partial regions in the other image by weighted summing using the set weighting factors for,
    全体領域類似度を決定する全体領域類似度決定手段と、 決定された全体領域類似度に基づいて、一方の画像を他の画像に位置合わせするための画像変換条件を決定する画像変換条件決定手段と、 決定された画像変換条件に基づいて画像変換を行うことにより、画像の位置合わせを行う画像変換手段を有することを特徴とする画像の位置合わせ処理装置。 The overall region similarity determining means for determining the overall area similarity, based on the determined total area similarity, an image conversion condition determining means for determining an image conversion condition for aligning the one image to another image When, by performing image conversion based on the determined image conversion condition, the alignment processing unit of the image characterized by having an image conversion means for aligning the images.
  2. 【請求項2】前記共通の被写体が人体の一部であり、 前記複数の画像のうち少なくとも一つの画像から人体の解剖学的構造を抽出する解剖学的構造抽出手段を有し、 前記部分領域設定手段は、前記解剖学的構造抽出手段における抽出結果に基づいて前記複数の部分領域を設定することを特徴とする請求項1に記載の画像の位置合わせ処理装置。 Wherein a portion said common subject is a human body, has the anatomical structure extraction means for extracting the human anatomy from at least one image of the plurality of images, said partial region setting means, the alignment processing unit of an image according to claim 1, characterized in that to set a plurality of partial regions on the basis of the extraction result of the anatomical structure extraction means.
  3. 【請求項3】前記複数の画像のうち少なくとも一つの画像内に注目位置を指定する注目位置指定手段を有し、 指定された注目位置に基づいて前記複数の部分領域を設定することを特徴とする請求項1または請求項2に記載の画像の位置合わせ処理装置。 3. have a target position specifying means for specifying a target position within at least one image of the plurality of images, and characterized by setting a plurality of partial regions on the basis of the specified target position positioning processing apparatus for an image according to claim 1 or claim 2.
  4. 【請求項4】前記複数の画像のうち少なくとも一つの画像内に注目位置を指定する注目位置指定手段を有し、 前記複数の部分領域のうち、指定された注目位置を含む部分領域に対応する重み係数が、他の部分領域に対応する重み係数よりも大きくなるように前記重み係数を設定することを特徴とする請求項1乃至請求項3のいずれか1項に記載の画像の位置合わせ処理装置。 4. have a target position specifying means for specifying a target position within at least one image of the plurality of images, among the plurality of partial regions, corresponding to the partial region including the specified target position weighting factors, the position adjustment process of images according to any one of claims 1 to 3, characterized in that setting the weighting factor to be larger than the weighting factor corresponding to the other partial regions apparatus.
  5. 【請求項5】前記画像変換手段は、前記決定された画像変換条件に基づいて画像変換を行うことにより、画像の位置合わせを行う粗位置合わせの後に、精位置合わせの2段階の画像の位置合わせを行なうことを特徴とする請求項1乃至請求項4のいずれか1項に記載の画像の位置合わせ処理装置。 Wherein said image converting means performs an image conversion on the basis of the determined image conversion condition, after the rough alignment for aligning images, the position of the two-step image of fine alignment combined positioning processing apparatus for an image according to any one of claims 1 to 4, characterized in that to perform.
  6. 【請求項6】請求項1乃至請求項5のいずれか1項に記載の画像の位置合わせ処理装置で位置合わせが行われた複数の画像を同時に表示する画像表示手段を有することを特徴とする画像の位置合わせ処理装置。 Characterized by having an image display means for simultaneously displaying a plurality of images alignment was performed in the alignment processing apparatus for an image according to any one of the claims 6] claims 1 to 5 positioning processing apparatus for an image.
  7. 【請求項7】請求項1乃至請求項5のいずれか1項に記載の画像の位置合わせ処理装置で位置合わせが行われた複数の画像間で演算を行う画像間演算手段を有することを特徴とする画像間演算処理装置。 7. characterized in that it has an inter-image calculation unit for performing operation between claims 1 to any one plurality of the alignment is performed by the positioning process unit of the image according to item image according to claim 5 inter-image calculation processing unit to.
  8. 【請求項8】請求項1乃至請求項5のいずれか1項に記載の画像の位置合わせ処理装置で位置合わせが行われた複数の画像間で演算を行う画像間演算手段と、 位置合わせが行われた複数の画像または画像間演算により生成された演算処理画像を表示する画像表示手段を有することを特徴とする画像間演算処理装置。 8. A inter-image calculation unit for performing an operation multiple between image alignment is performed by the positioning process unit of the image according to any one of claims 1 to 5, the alignment inter-image calculation processing apparatus characterized by comprising an image display means for displaying an arithmetic processing images generated by calculating inter performed a plurality of images or image.
JP11157821A 1999-06-04 1999-06-04 Image positioning processor and inter-picture arithmetic processor Pending JP2000342558A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11157821A JP2000342558A (en) 1999-06-04 1999-06-04 Image positioning processor and inter-picture arithmetic processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11157821A JP2000342558A (en) 1999-06-04 1999-06-04 Image positioning processor and inter-picture arithmetic processor

Publications (1)

Publication Number Publication Date
JP2000342558A true JP2000342558A (en) 2000-12-12

Family

ID=15658052

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11157821A Pending JP2000342558A (en) 1999-06-04 1999-06-04 Image positioning processor and inter-picture arithmetic processor

Country Status (1)

Country Link
JP (1) JP2000342558A (en)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003033341A (en) * 2001-07-23 2003-02-04 Shimadzu Corp X-ray fluoroscopy photographing apparatus
JP2005020719A (en) * 2003-06-06 2005-01-20 Fuji Photo Film Co Ltd Diagnostic image reading supporting method and apparatus, and program
JP2005261846A (en) * 2004-03-22 2005-09-29 Konica Minolta Medical & Graphic Inc Medical image processing apparatus and medical image processing method
JP2005305113A (en) * 2004-03-23 2005-11-04 Fuji Photo Film Co Ltd Radiographic equipment and its program
JP2005312007A (en) * 2004-03-23 2005-11-04 Fuji Photo Film Co Ltd Method, apparatus and program for obtaining difference image
JP2005354201A (en) * 2004-06-08 2005-12-22 Canon Inc Apparatus and method for image processing
WO2005120352A1 (en) * 2004-06-08 2005-12-22 Canon Kabushiki Kaisha Image processing device and method which use two images
JP2006055419A (en) * 2004-08-20 2006-03-02 Konica Minolta Medical & Graphic Inc Mammogram generating system
JP2006204618A (en) * 2005-01-28 2006-08-10 Canon Inc Image processing device, its method and program
JP2006301077A (en) * 2005-04-18 2006-11-02 Fuji Photo Film Co Ltd Image forming apparatus
JP2006346459A (en) * 2005-06-14 2006-12-28 General Electric Co <Ge> Method and apparatus for correcting real-time movement of ultrasonic spatial complex imaging
JP2007082907A (en) * 2005-09-26 2007-04-05 Canon Inc Apparatus and method for photographing image
JP2008000499A (en) * 2006-06-26 2008-01-10 Toshiba Corp X-ray ct system, control method for x-ray ct system, and control program for x-ray ct system
JP2008258486A (en) * 2007-04-06 2008-10-23 Sharp Corp Distribution analysis method and system, abnormality facility estimation method and system, program for causing computer to execute its distribution analysis method or its abnormality facility estimation method, and recording medium readable by computer having its program recorded therein
JP2009045131A (en) * 2007-08-15 2009-03-05 Fujifilm Corp Medical information processing system, medical information processing method, and program
JP2009512528A (en) * 2005-10-25 2009-03-26 ブラッコ イメージング ソチエタ ペル アチオニBracco Imaging S.P.A. Method and system for automatic processing and evaluation of diagnostic images
JP2009261541A (en) * 2008-04-24 2009-11-12 Hitachi Medical Corp Image processor
JP2009273638A (en) * 2008-05-14 2009-11-26 Fujifilm Corp Energy subtraction method and apparatus
US7697744B2 (en) 2001-03-06 2010-04-13 Kabushiki Kaisha Toshiba X-ray diagnostic apparatus and image processor
EP2395476A2 (en) 2010-06-11 2011-12-14 FUJIFILM Corporation Method, apparatus, and program for aligning images
JP2011254959A (en) * 2010-06-08 2011-12-22 Canon Inc Image processor, image processing method, and program
WO2012063939A1 (en) * 2010-11-12 2012-05-18 株式会社東芝 Diagnostic imaging device
US8189896B2 (en) 2008-02-21 2012-05-29 Fujifilm Corporation Alignment apparatus for aligning radiation images by evaluating an amount of positional shift, and recording medium storing a program for aligning radiation images
JP2012128638A (en) * 2010-12-15 2012-07-05 Canon Inc Image processing device, alignment method and program
WO2013018575A1 (en) * 2011-08-03 2013-02-07 株式会社日立メディコ Image diagnostic device and image correction method
JP2013146585A (en) * 2006-12-19 2013-08-01 Fujifilm Corp Method and apparatus for processing image
JP2014228940A (en) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 Image processing method, image processing apparatus, and image processing program
JPWO2013035150A1 (en) * 2011-09-05 2015-03-23 株式会社モルフォ Face authentication system, face authentication method, and face authentication program
JP2015080679A (en) * 2013-10-24 2015-04-27 キヤノン株式会社 Image processing system, image processing method, and program
US9042609B2 (en) 2011-09-05 2015-05-26 Morpho, Inc. Face authentication system, face authentication method, and face authentication program
JP2016514535A (en) * 2013-03-29 2016-05-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image registration
JP2016517559A (en) * 2013-03-14 2016-06-16 ベンタナ メディカル システムズ, インコーポレイテッド Hall slide image registration and inter-image annotation device, system, and method
US20170325772A1 (en) * 2016-05-11 2017-11-16 Toshiba Medical Systems Corporation Medical image processing apparatus, medical image diagnostic apparatus, and image processing method
US9846939B2 (en) 2015-02-05 2017-12-19 Fujitsu Limited Image display apparatus and image display method
US10503868B2 (en) 2013-10-01 2019-12-10 Ventana Medical Systems, Inc. Line-based image registration and cross-image annotation devices, systems and methods

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7697744B2 (en) 2001-03-06 2010-04-13 Kabushiki Kaisha Toshiba X-ray diagnostic apparatus and image processor
JP2003033341A (en) * 2001-07-23 2003-02-04 Shimadzu Corp X-ray fluoroscopy photographing apparatus
JP2005020719A (en) * 2003-06-06 2005-01-20 Fuji Photo Film Co Ltd Diagnostic image reading supporting method and apparatus, and program
JP4493408B2 (en) * 2003-06-06 2010-06-30 富士フイルム株式会社 Image interpretation support method, apparatus and program
JP2005261846A (en) * 2004-03-22 2005-09-29 Konica Minolta Medical & Graphic Inc Medical image processing apparatus and medical image processing method
JP4626165B2 (en) * 2004-03-22 2011-02-02 コニカミノルタエムジー株式会社 Medical image processing device
JP2005312007A (en) * 2004-03-23 2005-11-04 Fuji Photo Film Co Ltd Method, apparatus and program for obtaining difference image
JP2005305113A (en) * 2004-03-23 2005-11-04 Fuji Photo Film Co Ltd Radiographic equipment and its program
JP4510564B2 (en) * 2004-03-23 2010-07-28 富士フイルム株式会社 Radiation imaging apparatus and program thereof
US8111947B2 (en) 2004-06-08 2012-02-07 Canon Kabushiki Kaisha Image processing apparatus and method which match two images based on a shift vector
JP4708740B2 (en) * 2004-06-08 2011-06-22 キヤノン株式会社 Image processing apparatus and image processing method
JP2005354201A (en) * 2004-06-08 2005-12-22 Canon Inc Apparatus and method for image processing
WO2005120352A1 (en) * 2004-06-08 2005-12-22 Canon Kabushiki Kaisha Image processing device and method which use two images
JP2006055419A (en) * 2004-08-20 2006-03-02 Konica Minolta Medical & Graphic Inc Mammogram generating system
JP2006204618A (en) * 2005-01-28 2006-08-10 Canon Inc Image processing device, its method and program
JP4684667B2 (en) * 2005-01-28 2011-05-18 キヤノン株式会社 Image processing apparatus and method, and program
JP4686243B2 (en) * 2005-04-18 2011-05-25 富士フイルム株式会社 Image forming apparatus
JP2006301077A (en) * 2005-04-18 2006-11-02 Fuji Photo Film Co Ltd Image forming apparatus
JP2006346459A (en) * 2005-06-14 2006-12-28 General Electric Co <Ge> Method and apparatus for correcting real-time movement of ultrasonic spatial complex imaging
JP4708944B2 (en) * 2005-09-26 2011-06-22 キヤノン株式会社 Image photographing apparatus and image photographing method
JP2007082907A (en) * 2005-09-26 2007-04-05 Canon Inc Apparatus and method for photographing image
JP2009512528A (en) * 2005-10-25 2009-03-26 ブラッコ イメージング ソチエタ ペル アチオニBracco Imaging S.P.A. Method and system for automatic processing and evaluation of diagnostic images
JP2008000499A (en) * 2006-06-26 2008-01-10 Toshiba Corp X-ray ct system, control method for x-ray ct system, and control program for x-ray ct system
JP2013146585A (en) * 2006-12-19 2013-08-01 Fujifilm Corp Method and apparatus for processing image
JP2008258486A (en) * 2007-04-06 2008-10-23 Sharp Corp Distribution analysis method and system, abnormality facility estimation method and system, program for causing computer to execute its distribution analysis method or its abnormality facility estimation method, and recording medium readable by computer having its program recorded therein
JP2009045131A (en) * 2007-08-15 2009-03-05 Fujifilm Corp Medical information processing system, medical information processing method, and program
US8189896B2 (en) 2008-02-21 2012-05-29 Fujifilm Corporation Alignment apparatus for aligning radiation images by evaluating an amount of positional shift, and recording medium storing a program for aligning radiation images
JP2009261541A (en) * 2008-04-24 2009-11-12 Hitachi Medical Corp Image processor
JP2009273638A (en) * 2008-05-14 2009-11-26 Fujifilm Corp Energy subtraction method and apparatus
JP2011254959A (en) * 2010-06-08 2011-12-22 Canon Inc Image processor, image processing method, and program
US8983164B2 (en) 2010-06-08 2015-03-17 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program
EP2395476A2 (en) 2010-06-11 2011-12-14 FUJIFILM Corporation Method, apparatus, and program for aligning images
US8842936B2 (en) 2010-06-11 2014-09-23 Fujifilm Corporation Method, apparatus, and program for aligning images
US8903146B2 (en) 2010-11-12 2014-12-02 Kabushiki Kaisha Toshiba Image diagnosis apparatus
CN102630151A (en) * 2010-11-12 2012-08-08 东芝医疗系统株式会社 Diagnostic imaging device
WO2012063939A1 (en) * 2010-11-12 2012-05-18 株式会社東芝 Diagnostic imaging device
JP2012115658A (en) * 2010-11-12 2012-06-21 Toshiba Corp Diagnostic imaging apparatus
JP2012128638A (en) * 2010-12-15 2012-07-05 Canon Inc Image processing device, alignment method and program
WO2013018575A1 (en) * 2011-08-03 2013-02-07 株式会社日立メディコ Image diagnostic device and image correction method
US9165363B2 (en) 2011-08-03 2015-10-20 Hitachi Medical Corporation Image diagnostic device and image correction method
JPWO2013035150A1 (en) * 2011-09-05 2015-03-23 株式会社モルフォ Face authentication system, face authentication method, and face authentication program
US9042609B2 (en) 2011-09-05 2015-05-26 Morpho, Inc. Face authentication system, face authentication method, and face authentication program
JP2016517559A (en) * 2013-03-14 2016-06-16 ベンタナ メディカル システムズ, インコーポレイテッド Hall slide image registration and inter-image annotation device, system, and method
JP2016514535A (en) * 2013-03-29 2016-05-23 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Image registration
JP2014228940A (en) * 2013-05-20 2014-12-08 コニカミノルタ株式会社 Image processing method, image processing apparatus, and image processing program
US10503868B2 (en) 2013-10-01 2019-12-10 Ventana Medical Systems, Inc. Line-based image registration and cross-image annotation devices, systems and methods
JP2015080679A (en) * 2013-10-24 2015-04-27 キヤノン株式会社 Image processing system, image processing method, and program
US9846939B2 (en) 2015-02-05 2017-12-19 Fujitsu Limited Image display apparatus and image display method
US20170325772A1 (en) * 2016-05-11 2017-11-16 Toshiba Medical Systems Corporation Medical image processing apparatus, medical image diagnostic apparatus, and image processing method
US10085708B2 (en) * 2016-05-11 2018-10-02 Toshiba Medical Systems Corporation Medical image processing apparatus, medical image diagnostic apparatus, and image processing method

Similar Documents

Publication Publication Date Title
US5359513A (en) Method and system for detection of interval change in temporally sequential chest images
EP0576961B1 (en) Method for automatic foreground and background detection in digital radiographic images
US6836570B2 (en) Method for contrast-enhancement of digital portal images
JPWO2002086821A1 (en) Image processing method and image processing apparatus
JP2007007440A (en) Automated method and apparatus to detect phyma and parenchyma deformation in medical image using computer
US5790690A (en) Computer-aided method for automated image feature analysis and diagnosis of medical images
US7110495B2 (en) Area exposure dosimetry and area absorbed dosimetry
US5982953A (en) Image displaying apparatus of a processed image from temporally sequential images
US7155048B2 (en) PCI radiation image processing apparatus, PCI radiation image detecting apparatus, PCI radiation image outputting apparatus, and PCI image diagnosis supporting apparatus
JP3001232B2 (en) Image processing method and apparatus
CN101632591B (en) Radiograph and image processing program
JP4112762B2 (en) Image processing apparatus and X-ray diagnostic apparatus
US5830141A (en) Image processing method and device for automatic detection of regions of a predetermined type of cancer in an intensity image
US8391576B2 (en) Device, method and recording medium containing program for separating image component, and device, method and recording medium containing program for generating normal image
US5862249A (en) Automated method and system for determination of positional orientation of digital radiographic images
US5878108A (en) Method for generating X-ray image and apparatus therefor
JP3400008B2 (en) Automated method and system in a digital chest radiograph to detect the medium and selection of regions of interest 隔線
JP4820582B2 (en) Method to reduce helical windmill artifact with recovery noise for helical multi-slice CT
US7853064B2 (en) Method for the processing of radiological images in tomosynthesis for a detection of radiological signs
US20070242869A1 (en) Processing and measuring the spine in radiographs
US7826885B2 (en) Method and apparatus for calculating index concerning local blood flow circulations
JP4718003B2 (en) Method for detecting interval changes in radiographs
DE10303086A1 (en) Algorithm for reducing motion artifacts for two-exposure dual energy radiography
EP1501048B1 (en) Method of segmenting a radiographic image into diagnostically relevant and diagnostically irrelevant regions
JP4363833B2 (en) Method and apparatus for calculating an index relating to local hemodynamics

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070913

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071101

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071126

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080317