JP2008167950A - Radiographic image processing method and apparatus, and program - Google Patents

Radiographic image processing method and apparatus, and program Download PDF

Info

Publication number
JP2008167950A
JP2008167950A JP2007003976A JP2007003976A JP2008167950A JP 2008167950 A JP2008167950 A JP 2008167950A JP 2007003976 A JP2007003976 A JP 2007003976A JP 2007003976 A JP2007003976 A JP 2007003976A JP 2008167950 A JP2008167950 A JP 2008167950A
Authority
JP
Japan
Prior art keywords
image
subject
radiation
teacher
radiographic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007003976A
Other languages
Japanese (ja)
Other versions
JP4913606B2 (en
Inventor
Yoshiro Kitamura
嘉郎 北村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007003976A priority Critical patent/JP4913606B2/en
Priority to PCT/JP2008/050651 priority patent/WO2008084880A1/en
Priority to US12/523,001 priority patent/US20100067772A1/en
Priority to EP08703501.0A priority patent/EP2120718A4/en
Publication of JP2008167950A publication Critical patent/JP2008167950A/en
Application granted granted Critical
Publication of JP4913606B2 publication Critical patent/JP4913606B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Conversion Of X-Rays Into Visible Images (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve the quality of a radiation image indicating an object without increasing the dose of radiation to be emitted to the object in a radiographic image processing method. <P>SOLUTION: The radiation image 11 for input composed of an object image 11H indicating an object 1P and a part specifying image 11C indicating the boundary Pc of a specified part Px in the object 1P and the other part Po is prepared for each of the plurality of objects 1P of the same kind, the radiation image 33 for a teacher which emphatically indicates the specified part Px of the object image 11H is prepared for each of the respective objects 1P by the radiography of the object 1P, and a teacher learning completed filter 40 for which learning is performed with the radiation image 11 for the input as an object and the radiation image 33 for the teacher as the teacher is obtained. Thereafter, the radiation image 21 of the same kind as the radiation image 11 for the input prepared for a given object 3P is inputted to the teacher learning completed filter 40, and the radiation image 60 whose image quality degradation is compensated and which emphasizes the specified part Px is formed. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、被写体中の特定の部位を強調して表す放射線画像を得る放射線画像処理方法および装置ならびにプログラムに関するものである。   The present invention relates to a radiographic image processing method, apparatus, and program for obtaining a radiographic image that emphasizes and expresses a specific part in a subject.

従来より、医療用の放射線撮影等においては、互いにエネルギ分布が異なる放射線を用いた被写体の放射線撮影により高圧画像と低圧画像を得、上記高圧画像と低圧画像との加重減算処理により被写体中の特定の放射線吸収特性を示す部位、例えば生体組織の骨部や軟部を強調して表すエネルギサブトラクション画像を得る手法が知られている(特許文献1参照)。このエネルギサブトラクション画像は上記高圧画像と低圧画像との差に基づいて形成された画像である。   Conventionally, in medical radiography and the like, a high-pressure image and a low-pressure image are obtained by radiography of a subject using radiation having different energy distributions, and the subject is identified by weighted subtraction processing between the high-pressure image and the low-pressure image. There is known a technique for obtaining an energy subtraction image that emphasizes a part exhibiting the radiation absorption characteristics of, for example, a bone part or a soft part of a living tissue (see Patent Document 1). This energy subtraction image is an image formed based on the difference between the high pressure image and the low pressure image.

上記高圧画像と低圧画像とを得る放射線撮影としては、例えば、放射線源の管電圧を違えて発生させた2種類の互いにエネルギ分布の異なる放射線それぞれを、互に異なるタイミングで合計2度、被写体へ照射して上記高圧画像と低圧画像とを得る2ショット放射線撮影法、あるいは、被写体への1度の放射線照射によって、銅板を間に挟んで配された2枚の蓄積性蛍光体シートそれぞれに上記被写体の高圧画像と低圧画像を同時に記録する1ショット放射線撮影法等が知られている。   In radiography for obtaining the high-voltage image and the low-voltage image, for example, two types of radiations having different energy distributions generated with different tube voltages of the radiation source are applied to the subject twice in total at different timings. Each of the two stimulable phosphor sheets disposed with a copper plate interposed between them by two-shot radiography to irradiate the above-described high-pressure image and low-pressure image, or by one-time irradiation of the subject. A one-shot radiography method for simultaneously recording a high-pressure image and a low-pressure image of a subject is known.

上記高圧画像と低圧画像とを用いて形成されるエネルギサブトラクション画像は、通常の放射線撮影法(以後、単純放射線撮影法という)によって得られる放射線画像(以後、単純放射線画像という)よりも上記特定の部位を強調できる点では優れているが、より多くのノイズを含む画像となる。なお、上記単純放射線撮影法は、互いにエネルギ分布の異なる複数種類の放射線を用いることなく、被写体に対し1種類の放射線を1度照射する放射線撮影により上記被写体の単純放射線画を取得するものである。   The energy subtraction image formed using the high-pressure image and the low-pressure image is more specific than the radiographic image (hereinafter referred to as simple radiographic image) obtained by a normal radiographic method (hereinafter referred to as simple radiographic method). Although it is excellent in that the part can be emphasized, the image includes more noise. In the simple radiography method, a simple radiographic image of the subject is acquired by radiography in which one type of radiation is irradiated to the subject once without using a plurality of types of radiation having different energy distributions. .

上記エネルギサブトラクション画像に生じるノイズは、主に、上記高圧画像や低圧画像を取得するときに照射する放射線の線量の不足に起因している。   Noise generated in the energy subtraction image is mainly caused by a shortage of radiation dose to be irradiated when the high pressure image or the low pressure image is acquired.

すなわち、医療用放射線撮影等においては、放射線撮影に使用する放射線の線量を少なくして患者への負担を軽減することが望まれている。例えば、通常の放射線撮影が2回必要な放射線撮影(2ショット放射線撮影法)において2回ともに十分な線量が用いられなかったり、銅板での放射線の吸収により線量を減衰させた放射線撮影(1ショット放射線撮影法)で得られた放射線画像(高圧画像や低圧画像)を用いて作成されるエネルギサブトラクション画像は、上記単純放射線撮影法によって得られる単純放射線像画像よりも画像品質が劣化する。   That is, in medical radiography and the like, it is desired to reduce the burden on patients by reducing the dose of radiation used for radiography. For example, in radiography (two-shot radiography) in which normal radiography is required twice, radiography (one-shot radiography) in which a sufficient dose is not used twice or the dose is attenuated by the absorption of radiation by a copper plate The energy subtraction image created using the radiographic image (high-pressure image or low-pressure image) obtained by the radiography method has a lower image quality than the simple radiographic image obtained by the simple radiography method.

上記1ショット放射線撮影法、2ショット放射線撮影法のいずれにおいても、その放射線撮影で被写体へ照射する放射線の線量を少なくすることが求められるが、上記のように放射線撮影において被写体へ照射する放射線の線量を少なくしようとするとこの放射線撮影で得られる放射線画像中に生じるノイズの量が多くなり画像品質が劣化する。   In both the one-shot radiography method and the two-shot radiography method, it is required to reduce the dose of radiation applied to the subject in the radiography. If an attempt is made to reduce the dose, the amount of noise generated in the radiographic image obtained by this radiography increases and the image quality deteriorates.

一方、単純放射線撮影で得られた1枚の放射線画像から被写体の骨部を表す成分を推定し、複数の放射線画像の加重減算処理を行うことなく被写体中の骨部を強調して表す放射線画像を形成する手法が知られている。この手法は、互いにエネルギ分布の異なる放射線を用いた放射線撮影を行うことなく、上記エネルギサブトラクション画像である骨部画像に類似した画像を得ようとするものである。   On the other hand, a radiological image that estimates a component representing a bone portion of a subject from one radiographic image obtained by simple radiography and emphasizes the bone portion in the subject without performing weighted subtraction processing of the plurality of radiographic images. There are known methods for forming. This technique is intended to obtain an image similar to the bone image that is the energy subtraction image without performing radiation imaging using radiation having different energy distributions.

より具体的には、この手法は以下の手順によって上記骨部画像に類似した画像を得ようとするものである。   More specifically, this method is intended to obtain an image similar to the bone part image by the following procedure.

すなわち、予め、被写体となる人体胸部の放射線撮影で得られた骨部が強調された教師用の放射線画像を形成しておく。そして、上記被写体と同種の被写体である人体胸部の放射線撮影で得られた学習用の単純放射線画像が入力されたときに、上記教師用放射線画像を教師とした放射線画像、すなわち骨部が強調された放射線画像が出力されるように学習を繰り返して教師学習済フィルタ(人口ニューラルネットワーク(ANN)を利用したフィルタ)を作成する。その後、上記被写体と同種の診断対象となる人体胸部の放射線撮影で得られた単純放射線画像を上記教師学習済フィルタに入力して、骨部が強調された上記人体胸部の診断用の放射線画像を得ようとするものである(特許文献2参照)。
特開平3−285475号公報 米国特許公開第2005/0100208A1号明細書
That is, a radiographic image for a teacher is formed in advance by emphasizing a bone portion obtained by radiography of a human chest that is a subject. When a learning simple radiographic image obtained by radiography of a human chest that is the same type of subject as the subject is input, a radiographic image using the teacher radiographic image as a teacher, that is, a bone portion is emphasized. Learning is repeated so that a radiographic image is output, and a teacher-learned filter (a filter using an artificial neural network (ANN)) is created. Thereafter, a simple radiographic image obtained by radiography of the human chest that is the same type of diagnosis subject as the subject is input to the teacher-learned filter, and a radiographic image for diagnosis of the human chest with the bones emphasized is input. It is to be obtained (see Patent Document 2).
JP-A-3-285475 US Patent Publication No. 2005 / 0100208A1

しかしながら、上記教師学習済フィルタを利用した方式は、被写体中の特定の部位である骨部を推定する信頼性が十分とは言えず、骨部と骨部以外の部位との区別が不明確になり、上記被写体中の軟部を表す成分が上記強調して表された骨部を表す画像領域中に入り込んでしまうことがある。すなわち上記軟部成分が偽画像として骨部領域中に現われることがある。   However, the method using the teacher-learned filter is not reliable enough to estimate a bone part that is a specific part in the subject, and the distinction between the bone part and a part other than the bone part is unclear. Thus, the component representing the soft part in the subject may enter the image area representing the bone part expressed in the emphasized manner. That is, the soft part component may appear in the bone region as a false image.

そのため、上記偽画像を生じさせることなく被写体中の特定の部位を強調して表す放射線画像が得られるようにしたいという要請がある。   Therefore, there is a demand for obtaining a radiographic image that emphasizes and expresses a specific part in a subject without generating the false image.

本発明は、上記事情に鑑みてなされたものであり、被写体へ照射する放射線の線量を増大することなく、上記被写体を表す放射線画像の品質を高めることができる放射線画像処理方法および装置ならびにプログラムを提供することを目的とするものである。   The present invention has been made in view of the above circumstances, and provides a radiographic image processing method, apparatus, and program capable of improving the quality of a radiographic image representing the subject without increasing the dose of radiation applied to the subject. It is intended to provide.

本発明の放射線画像処理方法は、複数の同種の被写体毎に、該被写体の放射線撮影で得られた前記被写体中の特定の部位とこの特定の部位とは異なる他の部位との境界を表す部位特定画像および前記被写体を表す被写体画像からなる入力用放射線画像を用意し、前記各被写体の放射線撮影により得られた該被写体中の前記特定の部位を強調して表す教師用放射線画像を各被写体毎に用意し、各被写体を表す入力用放射線画像の入力に対し、前記被写体中における前記特定の部位が強調されてなる該被写体の放射線画像が出力されるように、前記被写体に対応する前記教師用放射線画像を教師として学習させた教師学習済フィルタを得、その後、前記被写体と同種の与えられた被写体について、前記入力用放射線画像と同種の放射線画像を作成し、該放射線画像を前記教師学習済フィルタに入力して、前記与えられた被写体中の前記特定の部位と同じ部位が強調されてなる該被写体の放射線画像を形成することを特徴とするものである。   In the radiographic image processing method of the present invention, a part representing a boundary between a specific part in the subject obtained by radiography of the subject and another part different from the specific part for each of a plurality of same-type subjects A radiographic image for input composed of a specific image and a subject image representing the subject is prepared, and a radiographic image for teacher representing the specific portion in the subject obtained by radiography of the subject is displayed for each subject. And for the teacher corresponding to the subject so that a radiographic image of the subject in which the specific part in the subject is emphasized is output in response to an input radiation image representing each subject. Obtain a teacher-learned filter that trains radiation images as a teacher, and then create a radiation image of the same type as the input radiation image for a given subject of the same type as the subject The radiographic image is input into the teacher-learned filter, and a radiographic image of the subject is formed in which the same part as the specific part in the given subject is emphasized. .

前記教師用放射線画像を作成するための放射線撮影に用いられる放射線の線量は、被写体画像を作成するための放射線撮影に用いられる放射線の線量よりも大きくすることが望ましい。   It is desirable that the radiation dose used for radiography for creating the teacher radiographic image be larger than the radiation dose used for radiography for creating the subject image.

前記教師用放射線画像は、互いにエネルギ分布の異なる放射線による放射線撮影で得られた高圧画像と低圧画像を用いた加重減算処理、いわゆるエネルギサブトラクション処理により形成されたものとすることができる。   The teacher radiation image may be formed by a weighted subtraction process using a high-pressure image and a low-pressure image obtained by radiation imaging using radiation having different energy distributions, so-called energy subtraction process.

前記入力用放射線画像は、互いにエネルギ分布の異なる放射線による放射線撮影で得られた高圧画像と低圧画像を用いた加重減算処理、いわゆるエネルギサブトラクション処理により形成されたものとすることができる。また、前記入力用放射線画像は、単純放射線撮影によって得られた単純放射線画像としてもよい。   The input radiation image may be formed by a weighted subtraction process using a high-pressure image and a low-pressure image obtained by radiation imaging with radiation having different energy distributions, so-called energy subtraction process. The input radiation image may be a simple radiation image obtained by simple radiation imaging.

前記被写体画像は、単純放射線撮影によって得られた単純放射線画像とすることができる。   The subject image can be a simple radiation image obtained by simple radiation imaging.

前記特定の部位は、他の部位とは異なる特定の放射線吸収特性を有する部位とすることができる。   The specific part may be a part having specific radiation absorption characteristics different from other parts.

前記被写体を生体組織とし、前記特定の部位を、骨部、肋骨、後肋骨、前肋骨、鎖骨、脊椎のうちの少なくとも1つを含むものとすることができる。   The subject may be a living tissue, and the specific part may include at least one of a bone part, a rib, a posterior rib, an anterior rib, a clavicle, and a spine.

前記被写体を生体組織とし、前記特定の部位とは異なる他の部位を、肺野、縦隔膜、横隔膜、肋骨間のうちの少なくとも1つを含むものとすることができる。   The subject may be a living tissue, and another part different from the specific part may include at least one of the lung field, the mediastinum, the diaphragm, and the ribs.

前記被写体を生体組織とし、前記特定の部位を前記生体組織の骨部あるいは軟部とすることができる。   The subject can be a living tissue, and the specific part can be a bone or soft part of the living tissue.

前記特定の部位は、前記高圧画像と低圧画像とにおいて被写体中の位置が変化した部位とすることができる。   The specific part may be a part where the position in the subject has changed between the high-pressure image and the low-pressure image.

前記教師学習済フィルタは、教師学習済フィルタを取得するための学習および与えられた被写体に対する放射線画像の形成を互に異なる複数の空間周波数帯域毎に行い、各空間周波数帯域毎に形成された前記放射線画像のそれぞれを合成して1つの放射線画像を得るものとすることができる。   The teacher-learned filter performs learning for obtaining the teacher-learned filter and formation of a radiographic image for a given subject for each of a plurality of different spatial frequency bands, and is formed for each spatial frequency band. Each of the radiographic images can be synthesized to obtain one radiographic image.

本発明の放射線画像処理装置は、複数の同種の被写体毎の放射線撮影で得られた該被写体中の特定の部位とこの特定の部位とは異なる他の部位との境界を表す部位特定画像および前記被写体を表す被写体画像からなる入力用放射線画像と、前記各被写体の放射線撮影により得られた該被写体中の前記特定の部位を強調して表す各被写体毎の教師用放射線画像とを用い、前記各被写体を表す入力用放射線画像の入力に対し、前記被写体中における前記特定の部位が強調されてなる該被写体の放射線画像が出力されるように、前記被写体に対応する前記教師用放射線画像を教師として学習させた教師学習済フィルタを得るフィルタ取得手段と、前記被写体と同種の与えられた被写体について、前記入力用放射線画像と同種の放射線画像を作成する同種画像作成手段と、該放射線画像を前記教師学習済フィルタに入力して、前記与えられた被写体中の前記特定の部位と同じ部位が強調されてなる該被写体の放射線画像を形成する部位強調画像形成手段とを備えたことを特徴とするものである。   The radiological image processing apparatus according to the present invention includes a part specifying image representing a boundary between a specific part in the subject obtained by radiography for each of the same kind of subjects and another part different from the specific part, and A radiographic image for input composed of a subject image representing a subject, and a radiographic image for teacher for each subject expressed by emphasizing the specific part in the subject obtained by radiography of the subject. The teacher radiation image corresponding to the subject is used as a teacher so that a radiation image of the subject in which the specific part in the subject is emphasized is output in response to an input radiation image representing the subject. A filter acquisition unit that obtains a learned teacher-learned filter and creates a radiation image of the same type as the input radiation image for a given subject of the same type as the subject. A part-enhanced image that forms a radiographic image of the subject in which the same part as the specific part in the given subject is enhanced by inputting the radiographic image into the teacher-learned filter And a forming means.

本発明のプログラムは、複数の同種の被写体毎の放射線撮影で得られた前記被写体中の特定の部位とこの特定の部位とは異なる他の部位との境界を表す部位特定画像および前記被写体を表す被写体画像からなる入力用放射線画像と、前記各被写体の放射線撮影により得られた該被写体中の前記特定の部位を強調して表す各被写体毎の教師用放射線画像とを用い、前記各被写体を表す入力用放射線画像の入力に対し、前記被写体中における前記特定の部位が強調されてなる該被写体の放射線画像が出力されるように、前記被写体に対応する前記教師用放射線画像を教師として学習させた教師学習済フィルタを得る手順と、前記被写体と同種の与えられた被写体について、前記入力用放射線画像と同種の放射線画像を作成する手順と、該放射線画像を前記教師学習済フィルタに入力して、前記与えられた被写体中の前記特定の部位と同じ部位が強調されてなる該被写体の放射線画像を形成する手順とを実行する放射線画像処理方法をコンピュータに実行させるためのものである。   The program of the present invention represents a part specifying image representing a boundary between a specific part in the subject obtained by radiation imaging for a plurality of subjects of the same type and another part different from the specific part, and the subject. An input radiation image composed of a subject image and a teacher radiation image for each subject that highlights and displays the specific part in the subject obtained by radiography of each subject represent each subject. The teacher radiograph corresponding to the subject was learned as a teacher so that the radiographic image of the subject in which the specific part in the subject is emphasized is output in response to the input of the input radiographic image A procedure for obtaining a teacher-learned filter, a procedure for creating a radiation image of the same type as the input radiation image for a given subject of the same type as the subject, and the radiation image A radiological image processing method for executing a procedure for forming a radiographic image of the subject in which the same part as the specific part in the given subject is emphasized It is for execution.

前記同種の被写体とは、例えば、大きさ、形状、構造、および各部位の放射線吸収特性が略等しい被写体を意味するものである。例えば人体であれば同じ部位であり、互に異なる成人男性の胸部は同種の被写体である。また、互に異なる成人女性の腹部、あるいは互に異なる子供の頭部等も同種の被写体である。また、例えば、工業製品であれば、大きさ、形状、構造、材質等が略等しい被写体を意味するものである。さらに、例えば、同種の被写体は、互に異なる成人男性の胸部の一部分(例えば、胸部中の首に近い側の1/3の部位)等としてもよい。また、同種の被写体は、同一被写体中の互に異なる小領域とすることができる。   The same kind of subject means, for example, a subject having substantially the same size, shape, structure, and radiation absorption characteristics of each part. For example, the human body is the same part, and the chests of different adult males are the same type of subject. The abdomen of different adult women or the heads of different children are also the same kind of subject. For example, in the case of an industrial product, it means a subject having substantially the same size, shape, structure, material, and the like. Further, for example, the same type of subject may be a part of the chest of an adult male different from each other (for example, 1/3 of the chest close to the neck). In addition, the same type of subjects can be different small areas in the same subject.

前記「与えられた被写体について、入力用放射線画像と同種の放射線画像を作成する」とは、与えられた被写体に対し、上記入力用放射線画像を得る際の処理と同様の処理を施して上記与えられた被写体の放射線画像を作成することを意味する。すなわち、例えば、入力用放射線画像を取得するときと同等の撮影条件で上記与えられた被写体の放射線撮影を行い、この放射線撮影で得られた放射線画像に対し、上記入力用放射線画像を取得するときと同様の画像処理を施して上記与えられた被写体の放射線画像を作成することができる。   “To create a radiation image of the same type as the input radiation image for the given subject” means that the given subject is subjected to the same processing as the processing for obtaining the input radiation image. This means that a radiographic image of a given subject is created. That is, for example, when performing radiography of the given subject under the same imaging conditions as when acquiring an input radiographic image, and acquiring the input radiographic image for the radiographic image obtained by this radiography The radiographic image of the given subject can be created by performing the same image processing.

前記特定の部位の強調は、特定の部位を他の部位よりも目立つように表す場合に限らず、特定の部位のみを表すようにしてもよい。   The emphasis on the specific part is not limited to the case where the specific part is expressed more conspicuously than the other part, and only the specific part may be expressed.

前記部位特定画像とは、例えば、放射線画像中の局所領域毎にその局所領域が主として属する所定の組織を判別した画像、あるいは互に異なる組織間の境界を判別した画像である。また、上記部位特定画像は、例えば、特定の部位とこの特定の部位とは異なる部位との判別処理によって得ることができる。   The region specifying image is, for example, an image in which a predetermined tissue to which the local region mainly belongs is determined for each local region in a radiographic image, or an image in which a boundary between different tissues is determined. Moreover, the said site | part specific image can be obtained by the discrimination | determination process of a specific site | part and a site | part different from this specific site | part, for example.

本発明の放射線画像処理方法および装置ならびにプログラムは、入力用放射線画像を対象とし、被写体中における特定の部位が強調されてなる上記被写体の放射線画像が出力されるように、教師用放射線画像を教師として学習させた教師学習済フィルタを得、その後、与えられた被写体について、入力用放射線画像と同種の放射線画像を作成し、その放射線画像を前記教師学習済フィルタに入力して、与えられた被写体中の前記特定の部位と同じ部位が強調されてなる放射線画像を形成するようにしたので、被写体へ照射する放射線の線量を増大させることなく、上記被写体を表す放射線画像の品質を高めることができる。   The radiographic image processing method, apparatus, and program of the present invention are directed to an input radiographic image, and the radiographic image for the teacher is output so that the radiographic image of the subject in which a specific part in the subject is emphasized is output. A learning filter that has been trained as follows, and for the given subject, a radiation image of the same type as the input radiation image is created, and the radiation image is input to the teacher-learned filter, and the given subject Since the radiographic image in which the same part as the specific part is emphasized is formed, the quality of the radiographic image representing the subject can be improved without increasing the dose of radiation applied to the subject. .

すなわち、従来のように教師学習済フィルタへ入力する画像を単純放射線画像のみとせず、被写体中の特定の部位と他の部位との境界を表す部位特定画像と上記被写体を表す被写体画像とを教師学習済フィルタへ入力する画像としたので、上記偽画像の発生も抑制することができる。   That is, the image input to the teacher-learned filter as in the past is not limited to a simple radiation image, but a part specifying image that represents a boundary between a specific part in the subject and another part and a subject image that represents the subject. Since the image is input to the learned filter, the occurrence of the false image can be suppressed.

より具体的には、単純放射線画像のみを教師学習済フィルタへ入力させる従来の方式では、被写体中の特定の部位を推定する信頼性が不十分なため偽画像が生じていた。一方、本発明では、教師学習済フィルタへ、被写体を表す被写体画像に加えて上記境界を表す部位特定画像を入力するので、上記単純放射線画像のみの入力に比して、被写体中の特定の部位と他の部位とを区別するためのより多くの情報を利用することができる。したがって、教師学習済フィルタにより上記特定の部位を推定する信頼性を高めることができ、これにより上記与えられた被写体の放射線画像中に生じた偽画像を補償することができる。   More specifically, in the conventional method in which only a simple radiation image is input to the teacher learned filter, a false image is generated because the reliability of estimating a specific part in the subject is insufficient. On the other hand, in the present invention, since the part specifying image representing the boundary in addition to the subject image representing the subject is input to the teacher learned filter, the specific part in the subject is compared with the input of only the simple radiation image. More information can be used to distinguish between and other parts. Therefore, it is possible to improve the reliability of estimating the specific part by the supervised learned filter, thereby compensating for the false image generated in the radiation image of the given subject.

上記のことにより、与えられた被写体へ照射する放射線の線量を増大させることなく上記被写体中の特定の部位が強調された放射線画像を作成することができ、上記被写体を表す放射線画像の品質を高めることができる。   By the above, it is possible to create a radiographic image in which a specific part in the subject is emphasized without increasing the dose of radiation irradiated to a given subject, and improve the quality of the radiographic image representing the subject. be able to.

さらに、教師用放射線画像を、この教師用放射線画像に対応する学習用放射線画像を構成する被写体画像および部位特定画像よりもノイズ等による画質劣化が少ないものとすれば、上記教師学習済フィルタを、画質劣化を補償するように学習させることができる。そして、上記入力用放射線画像と同種の放射線画像を教師学習済フィルタへ通すことにより、上記入力用放射線画像と同種の放射線画像が作成される際にこの放射線画像に生じた画質劣化を補償した放射線画像を得ることができる。   Further, if the teacher radiological image is less subject to image quality degradation due to noise or the like than the subject image and the part specifying image constituting the learning radiographic image corresponding to the teacher radiographic image, the teacher learned filter is It can be learned to compensate for image quality degradation. Then, by passing a radiation image of the same type as the input radiation image through a teacher-learned filter, radiation that compensates for image quality degradation that has occurred in the radiation image when a radiation image of the same type as the input radiation image is created. An image can be obtained.

また、教師用放射線画像を作成するための放射線撮影に用いられる放射線の線量を、被写体画像を作成するための放射線撮影に用いられる放射線の線量よりも大きくすれば、より確実に、上記教師用放射線画像を、入力用放射線画像を構成する被写体画像よりも画質劣化が少ない画像とすることができ、これにより、上記被写体を表す放射線画像の品質を高めることができる。   In addition, if the radiation dose used for radiography for creating the radiographic image for teacher is made larger than the dose of radiation used for radiography for creating the subject image, the above-mentioned radiation for teacher can be more reliably obtained. The image can be an image with less image quality deterioration than the subject image constituting the input radiation image, and thereby the quality of the radiation image representing the subject can be improved.

また、教師用放射線画像を、互いにエネルギ分布の異なる放射線による放射線撮影で得られた高圧画像と低圧画像を用いた加重減算処理、いわゆるエネルギサブトラクション処理により形成されたエネルギサブトラクション画像とすれば、より確実に、上記教師用放射線画像を、上記特定の部位を強調して表す画像とすることができる。   In addition, if the teacher radiograph is an energy subtraction image formed by a weighted subtraction process using a high-pressure image and a low-pressure image obtained by radiation imaging with radiation having different energy distributions, so-called energy subtraction process, it is more reliable. In addition, the teacher radiation image can be an image that emphasizes the specific part.

ここで、特定の部位を、他の部位とは異なる特定の放射線吸収特性を有する部位とすれば、より確実に、被写体中の特定の部位と他の部位との境界を定めることができ、より正確に被写体中の特定の部位を強調してなる放射線画像を形成することができる。   Here, if the specific part is a part having a specific radiation absorption characteristic different from the other part, the boundary between the specific part and the other part in the subject can be determined more reliably. A radiographic image formed by accurately emphasizing a specific part in a subject can be formed.

以下、本発明の放射線画像処理方法および装置ならびにプログラムについて説明する。本発明の第1の実施の形態による放射線画像処理方法は、入力用放射線画像として、被写体を表す単純放射線画像、およびこの単純放射線画像から作成した上記被写体中の特定の部位と他の部位との境界を表す部位特定画像の2種類の画像を採用したものである。   The radiation image processing method and apparatus and program of the present invention will be described below. The radiological image processing method according to the first embodiment of the present invention includes, as an input radiographic image, a simple radiographic image representing a subject, and a specific part and other parts in the subject created from the simple radiographic image. Two types of images of the part specifying image representing the boundary are adopted.

図1は上記第1の実施の形態による放射線画像処理方法に用いる教師学習済フィルタを取得する手順を示す図、図2は上記教師学習済フィルタを用いて診断用の放射線画像を取得する手順を示す図である。なお、図中の斜線部は画像あるいは画像を表す画像データを示している。   FIG. 1 is a diagram showing a procedure for acquiring a supervised learned filter used in the radiological image processing method according to the first embodiment, and FIG. 2 is a procedure for obtaining a diagnostic radiographic image using the supervised learned filter. FIG. Note that the hatched portion in the figure indicates an image or image data representing the image.

上記放射線画像処理方法は、複数の同種の被写体である成人男性の胸部1Pα、1Pβ・・・(以後、まとめて胸部1Pともいう)毎に、各胸部1Pの単純放射線撮影10で得られた上記胸部1Pを表す単純放射線画像である学習用の被写体画像11H、および上記被写体画像11Hに対し境界抽出処理12を施して得られた胸部1P中の特定の部位である骨部Pxとこの骨部Pxとは異なる他の部位Poとの境界Pcを表す学習用の部位特定画像11Cからなる入力用放射線画像11を用意する。   The radiographic image processing method is obtained by performing simple radiography 10 on each chest 1P for each chest 1Pα, 1Pβ (hereinafter collectively referred to as chest 1P) of an adult male that is a plurality of similar subjects. A subject image 11H for learning, which is a simple radiation image representing the chest 1P, and a bone portion Px which is a specific part in the chest 1P obtained by subjecting the subject image 11H to boundary extraction processing 12 and the bone portion Px An input radiation image 11 including a learning part specifying image 11C representing a boundary Pc with another part Po different from the above is prepared.

なお、上記単純放射線撮影法は、互いにエネルギ分布の異なる複数種類の放射線を用いることなく、被写体に対し1種類の放射線を1度照射する放射線撮影により上記被写体の放射線画像(単純放射線画像)を取得するものである。   In the above simple radiography method, a radiographic image (simple radiographic image) of the subject is obtained by radiography in which one type of radiation is irradiated to the subject once without using a plurality of types of radiation having different energy distributions. To do.

また、上記各胸部1Pの放射線撮影により得られた、上記各胸部1Pα、1Pβ・・・中の特定の部位である骨部Pxを強調して表す教師用放射線画像33を各胸部1P毎に用意する。   Further, a radiological image 33 for teacher is obtained for each chest 1P, which is obtained by emphasizing the bone Px, which is a specific part in each of the chests 1Pα, 1Pβ,. To do.

そして、上記入力用放射線画像11を対象とし、教師用放射線画像33を教師として学習させた教師学習済フィルタ40を得る。   Then, the teacher learned filter 40 is obtained in which the input radiation image 11 is the target and the teacher radiation image 33 is learned as a teacher.

すなわち、上記教師学習済フィルタ40は、各胸部1Pα、1Pβ・・・毎に用意された入力用放射線画像11と教師用放射線画像33の組を用い、上記各胸部1Pα、1Pβ・・・毎に作成された入力用放射線画像11それぞれが入力されたときに、上記骨部Pxを強調して表す上記胸部1Pの放射線画像50が出力されるように、各胸部1Pα、1Pβ・・・に対応する教師用放射線画像33を教師として学習させることによって得られるものである。より具体的には、上記教師学習済フィルタ40は、胸部1Pαについて用意された入力用放射線画像11および教師用放射線画像33の組を用い、上記胸部1Pαに対応する入力用放射線画像11が入力されたときに、上記骨部Pxを強調して表す上記胸部1Pαに対応する放射線画像50が出力されるように、胸部1Pαに対応する教師用放射線画像33を教師として学習させることによって得られるものである。   That is, the teacher-learned filter 40 uses a set of the input radiation image 11 and the teacher radiation image 33 prepared for each chest 1Pα, 1Pβ, and so on, and for each chest 1Pα, 1Pβ,. Corresponding to each chest 1Pα, 1Pβ,... So that when the created input radiation image 11 is inputted, the radiation image 50 of the chest 1P representing the bone Px is emphasized. This is obtained by learning the teacher radiation image 33 as a teacher. More specifically, the teacher-learned filter 40 uses a set of the input radiation image 11 and the teacher radiation image 33 prepared for the chest 1Pα, and the input radiation image 11 corresponding to the chest 1Pα is input. The training radiation image 33 corresponding to the chest 1Pα is learned as a teacher so that the radiation image 50 corresponding to the chest 1Pα representing the bone portion Px in an emphasized manner is output. is there.

上記教師用放射線画像33は、各胸部1Pに対する放射線撮影30で得られた高圧画像31Hと低圧画像31Lの加重減算処理32、すなわち、エネルギサブトラクション処理により形成したエネルギサブトラクション画像である骨部画像を表すものである。   The teacher radiographic image 33 represents a bone image which is an energy subtraction image formed by weighted subtraction processing 32 of the high pressure image 31H and the low pressure image 31L obtained by the radiography 30 for each chest 1P, that is, energy subtraction processing. Is.

図2に示すように、上記教師学習済フィルタ40を取得した後、上記胸部1Pと同種の与えられた1つの被写体である診断対象となる胸部3Pについて単純放射線撮影20を行い、上記入力用放射線画像11と同種の放射線画像21を作成する。   As shown in FIG. 2, after obtaining the teacher-learned filter 40, simple radiography 20 is performed on the chest 3 </ b> P to be diagnosed which is one given subject of the same type as the chest 1 </ b> P, and the input radiation is obtained. A radiation image 21 of the same type as the image 11 is created.

すなわち、胸部3Pの単純放射線撮影20で得られた単純放射線画像であるこの胸部3Pを表す診断対象の被写体画像21H、およびその被写体画像21Hに対し境界抽出処理22を施して得られた胸部3P中の特定の部位である骨部Pxとこの骨部Pxとは異なる他の部位Poとの境界Pcを表す診断対象の部位特定画像21Cとからなる放射線画像21を作成する。   That is, a subject image 21H to be diagnosed representing the chest 3P, which is a simple radiation image obtained by simple radiation imaging 20 of the chest 3P, and a chest 3P obtained by subjecting the subject image 21H to boundary extraction processing 22 A radiographic image 21 is created that includes a bone-specific part Px, which is a specific part of the first part, and a part-specific image 21C to be diagnosed representing a boundary Pc between another part Po different from the bone part Px.

この診断対象の被写体画像21Hおよび部位特定画像21Cを上記のようにして得られた教師学習済フィルタ40に入力して、与えられた被写体である胸部3P中の骨部Pxを強調して表した診断用放射線画像を形成する。この診断用放射線画像は骨部を表す画像中への骨部以外の部位の偽画像の混入が抑制された放射線画像である。   The subject image 21H and the part specifying image 21C to be diagnosed are input to the teacher learned filter 40 obtained as described above, and the bone portion Px in the chest 3P that is a given subject is emphasized and represented. A diagnostic radiographic image is formed. This diagnostic radiographic image is a radiographic image in which the fake image of a part other than the bone portion in the image representing the bone portion is suppressed.

なお、上記入力用放射線画像11と同種の放射線画像21は、与えられた胸部3Pについて、上記単純放射線撮影10と略同様の撮影条件下での単純放射線撮影20に基づいて得られたものである。すなわち、入力用放射線画像11と放射線画像21とは、略同じ放射線エネルギ分布を有する略同じ線量の放射線を被写体に照射する放射線撮影によって得られたものである。また、上記境界抽出処理22で行われる処理も境界抽出処理12で行われる処理と同等のものである。   The radiation image 21 of the same type as the input radiation image 11 is obtained on the basis of the simple radiography 20 under the same imaging conditions as the simple radiography 10 for the given chest 3P. . That is, the input radiation image 11 and the radiation image 21 are obtained by radiation imaging in which a subject is irradiated with substantially the same dose of radiation having substantially the same radiation energy distribution. The process performed in the boundary extraction process 22 is also equivalent to the process performed in the boundary extraction process 12.

上記入力用放射線画像11および、教師用放射線画像の作成に用いた胸部1Pα、1Pβ・・・、および診断用放射線画像60を作成する際に与えられた1つの胸部3Pは共に互に同種の被写体である。すなわち、上記各胸部1Pα、1Pβ、・・・、3Pは、互に形状、構造、大きさ、および各部位の放射線吸収特性が略等しい生体組織である。また、上記特定の部位である骨部Pxは、上記被写体となる胸部中の上記他の部位Poとは異なる特定の放射線吸収特性を有する部位である。   The input radiation image 11, the chests 1Pα, 1Pβ,... Used for creating the teacher radiation image, and the one chest 3P given when creating the diagnostic radiation image 60 are both the same type of subjects. It is. That is, each of the breasts 1Pα, 1Pβ,..., 3P is a living tissue having a shape, a structure, a size, and radiation absorption characteristics of each part that are substantially equal. Further, the bone part Px which is the specific part is a part having specific radiation absorption characteristics different from the other part Po in the chest which is the subject.

また、上記境界抽出処理12(境界抽出処理22)は、単純放射線画像11H(単純放射線画像21H)中の小領域部分毎に、その小領域部分が主として属する組織が骨部であるか骨部以外であるかを判別し、各小領域部分における判別結果を統合して上記部位特定画像11C(部位特定画像21C)を取得するものである。   Further, the boundary extraction process 12 (boundary extraction process 22) is performed for each small area portion in the simple radiation image 11H (simple radiation image 21H), where the tissue to which the small area portion mainly belongs is a bone portion or other than a bone portion. Are determined, and the determination results in each small region portion are integrated to acquire the region specifying image 11C (region specifying image 21C).

上記のように、第1の実施の形態の放射線画像処理方法によれば、診断対象となる被写体へ照射する放射線の線量を増大させることなく、被写体中の特定の部位とこの特定の部位とは異なる他の部位との境界をより明確に表す骨部画像を生成できる。   As described above, according to the radiographic image processing method of the first embodiment, the specific part in the subject and the specific part are not increased without increasing the dose of radiation applied to the subject to be diagnosed. It is possible to generate a bone part image that more clearly represents a boundary with another different part.

なお、教師用放射線画像33として被写体画像11Hよりも画質劣化が少ないものを採用して教師学習済フィルタ40の学習を行うことにより、与えられた被写体を表す被写体画像21Hに生じた画質劣化が補償され、かつ、与えられた胸部3P中の骨部Pxを強調して表した診断用放射線画像を形成することもできる。   It should be noted that by using the teacher radiographic image 33 having less image quality degradation than the subject image 11H and performing learning by the teacher learned filter 40, the image quality degradation caused in the subject image 21H representing the given subject is compensated. In addition, it is possible to form a diagnostic radiographic image in which the bone portion Px in the given chest 3P is emphasized.

しかしながら、本発明の放射線画像処理方法は、教師用放射線画像33や被写体画像11Hの画質劣化の度合いにかかわらず適用することができる。すなわち、例えば教師用放射線画像33が被写体画像11Hと同様の画質劣化を含むものであっても本発明の放射線画像処理方法を適用することができる。   However, the radiographic image processing method of the present invention can be applied regardless of the degree of image quality degradation of the teacher radiographic image 33 and the subject image 11H. That is, for example, the radiographic image processing method of the present invention can be applied even if the teacher radiographic image 33 includes image quality degradation similar to that of the subject image 11H.

以下、本発明の第2の実施の形態による放射線画像処理方法について説明する。この放射線画像処理方法は、入力用放射線画像として、被写体を表す高圧画像、上記被写体の高圧画像と低圧画像の加重減算処理により形成した画質の劣化した骨部画像、および上記高圧画像と画質の劣化した骨部画像とを用いて形成した上記被写体中の特定の部位と他の部位との境界を表す部位特定画像の3種類の画像を採用したものである。   The radiation image processing method according to the second embodiment of the present invention will be described below. In this radiographic image processing method, as an input radiographic image, a high-pressure image representing a subject, a bone image with deteriorated image quality formed by weighted subtraction processing of the high-pressure image and the low-pressure image of the subject, and deterioration of the image quality with the high-pressure image Three types of images of a part specifying image representing a boundary between a specific part and another part in the subject formed using the bone part image are used.

図3は上記第2の実施の形態による放射線画像処理方法に用いる教師学習済フィルタを取得する手順を示す図、図4は上記教師学習済フィルタを用いて診断用の放射線画像を取得する放射線画像処理方法の手順を示す図である。   FIG. 3 is a diagram showing a procedure for acquiring a supervised learned filter used in the radiographic image processing method according to the second embodiment, and FIG. 4 is a radiographic image for acquiring a diagnostic radiographic image using the supervised learned filter. It is a figure which shows the procedure of a processing method.

上記第2の実施の形態の放射線画像処理方法は、複数の同種の被写体である成人女性の胸部1Qα、1Qβ・・・(以後、まとめて胸部1Qともいう)毎に、互いにエネルギ分布の異なる放射線による放射線撮影14で得られた上記胸部1Qを表す高圧画像15Hと低圧画像15Lとを用いて作成した入力用放射線画像15を用意する。   In the radiation image processing method of the second embodiment, radiations having different energy distributions are obtained for each of the breasts 1Qα, 1Qβ (hereinafter collectively referred to as the chest 1Q) of adult women, which are a plurality of similar subjects. An input radiation image 15 created using the high-pressure image 15H and the low-pressure image 15L representing the chest 1Q obtained by the radiation imaging 14 is prepared.

上記入力用放射線画像15は、被写体画像である上記高圧画像15H、この高圧画像15Hと低圧画像15Lの加重減算処理16により形成した画質の劣化した被写体画像である骨部画像15K、および上記高圧画像15Hと上記骨部画像15Kとを用いた境界抽出処理17によって形成した上記胸部1Q中の骨部Qxとこの骨部Qxとは異なる他の部位Qoとの境界Qcを表す部位特定画像15Cとからなる3種類の学習用の放射線画像を含むものである。   The input radiation image 15 includes the high-pressure image 15H that is a subject image, the bone image 15K that is a subject image with degraded image quality formed by the weighted subtraction process 16 of the high-pressure image 15H and the low-pressure image 15L, and the high-pressure image. From the part specifying image 15C representing the boundary Qc between the bone part Qx in the chest 1Q and the other part Qo different from the bone part Qx formed by the boundary extraction process 17 using 15H and the bone part image 15K These three types of learning radiation images are included.

また、上記放射線撮影14は、低圧画像15Lを得るときに照射する放射線の線量よりも高圧画像15Hを得るときに照射する放射線の線量を多くした放射線撮影である。したがって、高圧画像15Hはノイズの少ない画像となり低圧画像15Lは上記高圧画像よりノイズの多い画像となる。また、上記ノイズの多い低圧画像15Lを用いて作成された骨部画像15Kの画質は劣化したものとなる。   The radiography 14 is radiography in which the dose of radiation applied when obtaining the high-pressure image 15H is larger than the dose of radiation applied when obtaining the low-pressure image 15L. Therefore, the high pressure image 15H is an image with less noise, and the low pressure image 15L is an image with more noise than the high pressure image. Further, the image quality of the bone portion image 15K created using the low-noise image 15L with much noise is deteriorated.

なお、上記境界抽出処理17には、従来より知られている特定の部位と他の部位との境界を定める種々の画像処理の手法等を適用することができる。   For the boundary extraction process 17, various image processing techniques and the like that determine the boundary between a specific part and another part that are conventionally known can be applied.

上記入力用放射線画像15を用意するとともに、上記胸部1Qの放射線撮影により得られた、上記学習用の高圧画像15Hよりも画質劣化が少なく、かつ、胸部1Q中の骨部Qxを強調して表す教師用放射線画像36を各胸部1Qα、1Qβ・・・毎に用意する。   The input radiation image 15 is prepared, the image quality is less deteriorated than the learning high-pressure image 15H obtained by radiography of the chest 1Q, and the bone portion Qx in the chest 1Q is highlighted. A radiographic image 36 for teacher is prepared for each chest 1Qα, 1Qβ,.

上記骨部を表す教師用被写体画像36は、従来より知られている手法を用いて作成することができる。例えば、上記入力用放射線画像15を作成したときの各胸部Q1毎の個別の放射線撮影において使用した放射線の線量よりも大きな線量を用いた上記胸部1Qの放射線撮影35によって得られた上記胸部1Qを表す高圧画像と低圧画像との加重減算処理により形成した骨部画像とすることができる。   The teacher subject image 36 representing the bone part can be created by using a conventionally known method. For example, the chest 1Q obtained by the radiation imaging 35 of the chest 1Q using a dose larger than the radiation dose used in the individual radiography for each chest Q1 when the input radiation image 15 is created The bone part image formed by the weighted subtraction process between the high-pressure image to be represented and the low-pressure image can be obtained.

次に、上記入力用放射線画像15を対象とし、教師用放射線画像36を教師として学習させた教師学習済フィルタ41を得る。   Next, a teacher-learned filter 41 is obtained by learning the input radiation image 15 and learning the teacher radiation image 36 as a teacher.

すなわち、上記教師学習済フィルタ41は、上記各被写体である胸部1Q毎の学習用の高圧画像15H、骨部画像15K、および部位特定画像15Cそれぞれが入力されたときに、画質劣化が補償され、かつ上記特定の部位である上記胸部1Q中の骨部Qxを強調して表す放射線画像51が出力されるように、上記教師用放射線画像36を教師として学習させたものである。より具体的には上記教師学習済フィルタ41は、上記用意された数種類の各被写体1Qα、1Qβ・・・それぞれに対応する入力用放射線画像15と教師用放射線画像36の組からの学習によって得ることができる。   That is, the teacher-learned filter 41 compensates for image quality degradation when the high-pressure image 15H for learning for each chest 1Q that is each subject, the bone image 15K, and the part specifying image 15C are input. The teacher radiographic image 36 is trained as a teacher so that a radiographic image 51 representing the bone portion Qx in the chest 1Q, which is the specific part, is output. More specifically, the teacher learned filter 41 is obtained by learning from a set of the input radiation image 15 and the teacher radiation image 36 corresponding to each of the prepared several types of subjects 1Qα, 1Qβ,. Can do.

上記教師学習済フィルタ41を取得した後、上記胸部1Qと同種の被写体である、診断対象となる与えられた成人女性の胸部3Qについて、入力用放射線画像15と同種の診断対象の放射線画像25を作成し、この放射線画像25を上記のようにして得られた教師学習済フィルタ41に入力して、画質劣化が補償され、かつ、与えられた胸部3Q中の特定の部位である骨部Qxが強調されてなる放射線画像を形成する。この放射線画像は骨部を表す画像中への骨部以外の部位の偽画像の混入が抑制された放射線画像である。   After obtaining the teacher-learned filter 41, a radiation image 25 of the same type of diagnosis object as the input radiation image 15 is obtained for the breast 3Q of a given adult woman to be diagnosed, which is the same kind of subject as the chest 1Q. The radiographic image 25 is created and input to the teacher-learned filter 41 obtained as described above, the image quality deterioration is compensated, and a bone part Qx which is a specific part in the given chest 3Q is obtained. An enhanced radiographic image is formed. This radiographic image is a radiographic image in which mixing of false images of parts other than the bone portion into the image representing the bone portion is suppressed.

上記放射線画像25は、上記胸部3Qについて、互いにエネルギ分布の異なる放射線による放射線撮影24で得られたこの胸部3Qを表す高圧画像25Hと低圧画像25Lとを用いて作成したものである。   The radiation image 25 is created using the high-pressure image 25H and the low-pressure image 25L representing the chest 3Q obtained by radiation imaging 24 using radiation having different energy distributions with respect to the chest 3Q.

すなわち、上記放射線画像25は、上記診断対象の被写体画像である高圧画像25H、この高圧画像25Hと低圧画像25Lの加重減算処理26により形成した画質の劣化した診断対象の被写体画像である骨部画像25K、および上記高圧画像25Hと骨部画像25Kとを用いた境界抽出処理27によって形成した上記胸部3Q中の骨部Qxとこの骨部Qxとは異なる他の部位Qoとの境界Qcを表す診断対象の部位特定画像25Cの3種類の画像からなるものである。   That is, the radiation image 25 is a high-pressure image 25H that is a subject image to be diagnosed, and a bone image that is a subject image to be diagnosed that has deteriorated in image quality, formed by weighted subtraction processing 26 of the high-pressure image 25H and the low-pressure image 25L. Diagnosis representing the boundary Qc between the bone part Qx in the chest 3Q formed by the boundary extraction processing 27 using the 25K and the high-pressure image 25H and the bone part image 25K and another part Qo different from the bone part Qx It consists of three types of images of the target part specifying image 25C.

上記のように、第2の実施の形態の放射線画像処理方法によれば、診断対象となる被写体へ照射する放射線の線量を増大することなく、上記被写体を表す放射線画像の品質を高めることができる。   As described above, according to the radiographic image processing method of the second embodiment, the quality of the radiographic image representing the subject can be improved without increasing the dose of radiation applied to the subject to be diagnosed. .

ここで、上記境界抽出処理17、27を実施する手法の1例について説明する。上述のように、この境界抽出処理には従来より知られている手法を適用することができる。図5は境界抽出処理の様子を示す図である。   Here, an example of a technique for performing the boundary extraction processes 17 and 27 will be described. As described above, conventionally known methods can be applied to this boundary extraction processing. FIG. 5 is a diagram showing a state of the boundary extraction process.

上記境界抽出処理では、判別すべきクラスとして骨部と骨部以外の部位の2つのクラス(例えば、値−1からなる画像領域と値+1からなる画像領域)を定める。   In the boundary extraction process, two classes (for example, an image region having a value of −1 and an image region having a value of +1) are determined as a class to be discriminated.

被写体となる胸部D1の放射線撮影により得られた高圧画像と低圧画像の加重減算処理によって得られた上記胸部D1の放射線像を表す骨部画像E、および上記高圧画像Fを入力用放射線画像とする。   A bone image E representing the radiation image of the chest D1 obtained by weighted subtraction between the high-pressure image obtained by radiography of the chest D1 as the subject and the low-pressure image, and the high-pressure image F are used as input radiation images. .

また、上記胸部D1の放射線像について上記胸部中の骨部と骨部以外の部位を区別する上記2つのクラスを手入力によってラベル付けした部位特定画像Gを教師用放射線画像とする。そして、骨部画像Eと高圧画像Fが判別フィルタN1に入力されたときに、上記胸部D1中の骨部とこの骨部以外の部位との境界を表す部位特定画像Jが形成されるように、上記教師用の部位特定画像Gを教師として学習させることにより上記判別フィルタN1が得られる。   Further, a part specifying image G obtained by manually labeling the two classes for distinguishing a part other than the bone part and the bone part in the chest part from the radiographic image of the chest part D1 is used as a teacher radiation image. And when the bone part image E and the high voltage | pressure image F are input into the discrimination filter N1, the site | part specific image J showing the boundary of the bone part in the said chest D1 and parts other than this bone part is formed. The discriminating filter N1 is obtained by learning the teacher site identification image G as a teacher.

なお、部位特定画像Jは、上記教師用の部位特定画像Gの類似画像である。   The part specifying image J is a similar image to the teacher part specifying image G.

また、上記判別フィルタN1の学習は、例えば、骨部画像E、高圧画像F、および部位特定画像Gそれぞれの画像中の互に対応する小領域部分にサブウィンドウSwを定め、上記サブウィンドウSw中の画素の値である特徴量とこの特徴量に対応するクラスとを定めて実施する。   The learning of the discrimination filter N1 is performed by, for example, defining a subwindow Sw in a small region corresponding to each other in each of the bone part image E, the high-pressure image F, and the part specifying image G, and pixels in the subwindow Sw A feature amount that is a value of and a class corresponding to the feature amount are determined and executed.

上記特徴量は、骨部画像Eと高圧画像Fを多重解像度変換した互に異なる各空間周波数帯域毎の画像(骨部画像EH,EM,EL、および高圧画像FH、FM,FL)におけるサブウィンドウSw中の5×5画素の矩形領域の画素値であり、上記空間周波数帯域が3帯域なら3×5×5=75個の画素値で、8帯域なら8×5×5=200個の画素値で表されるものとなる。そして後述するサポートベクターマシン(SVM)を用いて2クラス、すなわち骨部と骨部以外の部位とを判別するための2クラスについての学習を行う。   The feature amount is the sub-window Sw in each of the different spatial frequency bands (bone image EH, EM, EL and high voltage image FH, FM, FL) obtained by multiresolution conversion of the bone image E and the high voltage image F. It is a pixel value of a rectangular area of 5 × 5 pixels, and if the spatial frequency band is 3 bands, 3 × 5 × 5 = 75 pixel values, and if it is 8 bands, 8 × 5 × 5 = 200 pixel values It will be represented by Then, using a support vector machine (SVM) to be described later, learning is performed for two classes, that is, two classes for discriminating between a bone part and a part other than the bone part.

上記のように学習した境界抽出処理用の判別フィルタN1を有する上記境界抽出処理17および境界抽出処理27は、同一被写体の骨部画像と高圧画像が入力されると、上記被写体中の骨部とこの骨部以外の部位との境界を表す部位特定画像を形成する。   The boundary extraction process 17 and the boundary extraction process 27 having the boundary extraction process discriminating filter N1 learned as described above, when a bone image and a high-pressure image of the same subject are input, A part specifying image representing a boundary with a part other than the bone part is formed.

以下、サポートベクターマシン(SVM)による2クラス(骨部と骨部以外の部位)の判別について説明する。図6はサポートベクターマシンによる2クラスの判別を示す図である。   Hereinafter, the discrimination of two classes (a bone part and a part other than the bone part) by the support vector machine (SVM) will be described. FIG. 6 is a diagram showing discrimination of two classes by the support vector machine.

なお、このサポートベクターマシン(SVM)については、以下の文献を参照することができる。   For this support vector machine (SVM), the following documents can be referred to.

Nello Cristianini(著)、John Shawe-Taylor(著)、大北剛(訳)、題名「サポートベクターマシン入門」、共立出版、2005年3月25日発行、P.149からP.156。   Nello Cristianini (Author), John Shawe-Taylor (Author), Takeshi Ohkita (Translation), titled “Introduction to Support Vector Machine”, Kyoritsu Shuppan, published on March 25, 2005, p. 149 to P.I. 156.

n次元の特徴ベクトルxに対応する2つのクラスy={-1,1}を判別する下記関数を学習する問題について、まず判別関数が線形である場合を考える。
Regarding the problem of learning the following function that discriminates two classes y = {-1,1} corresponding to an n-dimensional feature vector x, first consider the case where the discriminant function is linear.

このとき判別面と学習サンプルとの幾何学的距離(マージン)は、
At this time, the geometric distance (margin) between the discriminant plane and the learning sample is

となる。   It becomes.

サポートベクターマシンは全ての学習サンプルが判別関数によって正しく分離されているという制約条件の元で、このマージンを最大化する判別面を学習する。
The support vector machine learns the discriminant plane that maximizes this margin under the constraint that all learning samples are correctly separated by the discriminant function.

ξは正しく判別されない学習サンプルを許容する緩和変数である。またCはモデルの複雑さと制約条件の緩和との間のトレードオフを設定するパラメータである。   ξ is a relaxation variable that allows learning samples that are not correctly identified. C is a parameter that sets a trade-off between model complexity and constraint relaxation.

上記の問題は次の双対問題を解くことと等価であり、凸2次計画問題の特性から必ず大域解を求めることができる。
The above problem is equivalent to solving the following dual problem, and a global solution can always be obtained from the characteristics of the convex quadratic programming problem.

この双対問題を解いて得られる判別関数は次式で表現される。
The discriminant function obtained by solving this dual problem is expressed by the following equation.

この関数は線形関数であるが、非線形に拡張するには入力Xを高次の特徴空間Φ(X)に写像し、その特徴空間でのベクトルΦ(X)をこれまでの入力Xとみなせばよい(X→Φ(X))。通常、高次元空間への写像は計算量の大幅な増加を伴うが、最適化すべき式に現れる内積の項をK(x,y)=<Φ(x),Φ(y)>の関係を満たすカーネル関数で置き換えると、入力次元の計算で高次元に写像してから計算したものと同じ結果を求めることができる。カーネル関数には、RBFカーネル、多項式カーネル、シグモイドカーネルなどが利用できる。   This function is a linear function, but in order to extend it nonlinearly, if the input X is mapped to a higher-order feature space Φ (X) and the vector Φ (X) in that feature space is regarded as the previous input X, Good (X → Φ (X)). In general, mapping to a high-dimensional space is accompanied by a significant increase in computational complexity, but the inner product terms appearing in the formula to be optimized are expressed as K (x, y) = <Φ (x), Φ (y)>. If it is replaced with a kernel function that satisfies, the same result as that calculated after mapping to a higher dimension in the calculation of the input dimension can be obtained. As the kernel function, an RBF kernel, a polynomial kernel, a sigmoid kernel, or the like can be used.

次に、上記境界抽出処理用の判別フィルタN1について補足する。図7は境界抽出処理の対象となる上記境界を判別すべき放射線画像とこの放射線画像が対応するクラスの教師画像にサブウィンドウを設定する様子を示す図である。   Next, the discrimination filter N1 for boundary extraction processing will be supplemented. FIG. 7 is a diagram illustrating a state in which sub-windows are set in a radiographic image for determining the boundary to be subjected to boundary extraction processing and a teacher image of a class corresponding to the radiographic image.

判別すべき放射線画像ZaにサブウィンドウSaを設定し、サブウィンドウSa内の画素Gaの値を特徴量とする。この放射線画像Gaに対応するクラスの教師画像Zbにおいて、同じ位置に設定されたサブウィンドウSbの中央の画素Gbの位置におけるクラスラベルが教師データである。   A subwindow Sa is set in the radiation image Za to be discriminated, and the value of the pixel Ga in the subwindow Sa is used as a feature amount. In the teacher image Zb of the class corresponding to the radiation image Ga, the class label at the position of the center pixel Gb of the subwindow Sb set at the same position is the teacher data.

N次元の入力(特徴量)に対する1次元の出力値がペアで一つの学習サンプルになる。判別フィルタの学習は、この学習サンプルが多数集まった集合を用いて行う。   One-dimensional output values corresponding to N-dimensional inputs (features) form one learning sample in pairs. Discrimination filter learning is performed using a set of many learning samples.

学習された判別フィルタによる判別結果は一つの画素における結果である。そのため判別フィルタを全ての画素に走査させることによって判別画像を得る。これは後述するサポートベクター回帰の場合も同様であり、後述するように骨部画像を生成するには高空間周波帯域画像、中空間周波数帯域画像、低空間周波数帯域画像における全ての画素位置で、対応する骨部の値を求めるために非線形フィルタ処理を適用する。   The discrimination result by the learned discrimination filter is a result for one pixel. Therefore, a discrimination image is obtained by causing the discrimination filter to scan all pixels. This is the same in the case of support vector regression described later.To generate a bone image as described later, at all pixel positions in a high spatial frequency band image, a middle spatial frequency band image, and a low spatial frequency band image, Nonlinear filtering is applied to determine the corresponding bone value.

次に、上記教師学習済フィルタ41の作成について詳しく説明する。   Next, the creation of the teacher learned filter 41 will be described in detail.

図8は与えられた被写体についての各空間周波数帯域毎の放射線画像を教師学習済フィルタへ入力して診断用の放射線画像を作成する様子を示す図、図9は各空間周波数帯域毎に教師学習済フィルタを作成する様子を示す図である。   FIG. 8 is a diagram showing a state in which a radiation image for each spatial frequency band for a given subject is input to a teacher-learned filter to create a diagnostic radiation image, and FIG. 9 is a teacher learning for each spatial frequency band It is a figure which shows a mode that a completed filter is created.

ここでは、入力用放射線画像を、被写体の放射線撮影および境界抽出処理で得られた上記部位特定画像から作成した互に異なる解像度の複数の部位特定画像、および上記被写体を表す上記互に異なる空間周波数帯域毎の被写体画像からなるものとする。また、教師用放射線画像を、上記被写体と同種の被写体の放射線撮影により得られた、上記被写体画像よりも画質劣化が少なく、かつ、その被写体中の特定の部位と同じ部位を強調して表す上記互に異なる空間周波数帯域毎の複数の教師用放射線画像からなるものとする。   Here, a plurality of part specifying images having different resolutions created from the part specifying image obtained by radiography and boundary extraction processing of the subject, and the different spatial frequencies representing the subject It is assumed that it consists of subject images for each band. Further, the teacher radiographic image is obtained by radiographing a subject of the same type as the subject, the image quality degradation is less than that of the subject image, and the same portion as the specific portion in the subject is emphasized. It is assumed that it consists of a plurality of radiographic images for teachers for different spatial frequency bands.

すなわち、1種類の解像度からなる部位特定画像から、互に異なるより低い解像度の複数の部位特定画像を得るために、上記1種類の部位特定画像に対して画素数を間引いて少なくする縮小処理を施し、少ない画素数で構成される低解像度の部位特定画像を得る。これにより、各部位特定画像の解像度を、上記被写体画像における互に異なる空間周波数帯域に合わせることができる。なお、1種類の空間周波数帯域からなる被写体画像から、互に異なるより低い空間周波数帯域の複数の被写体画像を得る多重解像度変換の手法については後述する。   That is, in order to obtain a plurality of part specifying images having lower resolutions different from each other from a part specifying image having one type of resolution, a reduction process for reducing the number of pixels with respect to the one type of part specifying image is reduced. To obtain a low-resolution part specifying image composed of a small number of pixels. As a result, the resolution of each part specifying image can be adjusted to different spatial frequency bands in the subject image. Note that a multi-resolution conversion technique for obtaining a plurality of subject images having lower spatial frequency bands that are different from each other from subject images having one type of spatial frequency band will be described later.

また、上記教師学習済フィルタは、上記互に異なる解像度の複数の部位特定画像、および上記互に異なる空間周波数帯域毎の被写体画像からなる入力用放射線画像を対象とし、上記互に異なる空間周波数帯域毎の複数の教師用放射線画像を教師として学習させたものとする。   The teacher-learned filter is intended for the input radiological image including the plurality of region specifying images having different resolutions and the subject images for the different spatial frequency bands, and the spatial frequency bands different from each other. It is assumed that a plurality of radiographic images for teachers are learned as teachers.

そして、上記被写体と同種の診断対象となる与えられた被写体について、入力用放射線画像と同種の上記互に異なる空間周波数帯域毎の複数の放射線画像を作成し、この互に異なる空間周波数帯域毎の複数の放射線画像を教師学習済フィルタに入力して、この教師学習済フィルタにより、画質劣化が補償され、かつ、前記与えられた被写体中の特定の部位が強調されてなる上記互に異なる空間周波数帯域毎の複数の放射線画像を形成し、上記複数の放射線画像を合成して1つの放射線画像を作成するものとする。   Then, for a given subject to be diagnosed of the same type as the subject, a plurality of radiation images for the different spatial frequency bands of the same type as the input radiation image are created, and for each of the different spatial frequency bands. A plurality of radiation images are input to a supervised learned filter, and the supervised learned filter compensates for image quality degradation and emphasizes a specific part in the given subject. A plurality of radiation images for each band are formed, and the plurality of radiation images are combined to create one radiation image.

すなわち、図8に示すように、上記教師学習済フィルタ41は、診断対象となる与えられた被写体である胸部3Qの放射線画像である高圧画像25H、および骨部画像25Kのそれぞれを多重解像度変換して得られた各空間周波数帯域毎の複数の放射線画像の入力と、上記互に異なる空間周波数帯域毎の部位特定画像25Cに基づいて、診断対象となる上記空間周波数帯域毎の複数の放射線画像61H、61M、61Lを作成し、上記作成された複数の放射線画像61H、61M、61Lを合成して診断用の放射線画像61を得るように構成することができる。   That is, as shown in FIG. 8, the teacher-learned filter 41 multi-resolution converts each of the high-pressure image 25H that is a radiographic image of the chest 3Q that is a given subject to be diagnosed and the bone image 25K. A plurality of radiographic images 61H for each spatial frequency band to be diagnosed based on the input of a plurality of radiographic images for each spatial frequency band and the part specifying image 25C for each spatial frequency band different from each other. , 61M, 61L and a plurality of the created radiographic images 61H, 61M, 61L can be combined to obtain a diagnostic radiographic image 61.

ここで、上記教師学習済フィルタ41は、高周波帯域教師学習済フィルタ41H、中周波帯域教師学習済フィルタ41M、低周波帯域教師学習済フィルタ41L、および画像合成フィルタ41T等から構成されるものである。   Here, the teacher learned filter 41 includes a high frequency band teacher learned filter 41H, a medium frequency band teacher learned filter 41M, a low frequency band teacher learned filter 41L, an image synthesis filter 41T, and the like. .

また、図9に示すように、上記教師学習済フィルタ41を作成するために用意された上記胸部1Qを表す各空間周波数帯域毎の教師用放射線画像36H、36M、36Lは、画質劣化が補償され、かつ上記特定の部位である骨部を主に表す放射線画像36(骨部高解像度画像)を多重解像度変換して得られたものである。   As shown in FIG. 9, the radiographic images for training 36H, 36M, and 36L for each spatial frequency band representing the chest 1Q prepared for creating the teacher learned filter 41 are compensated for image quality degradation. In addition, the radiographic image 36 (bone high-resolution image) mainly representing the bone that is the specific part is obtained by multi-resolution conversion.

また、上記教師学習済フィルタ41を作成するために用意された上記各空間周波数帯域毎の入力用放射線画像15である上記空間周波数帯域毎の骨部画像15KH、15KM、15KL、上記空間周波数帯域毎の高圧画像15HH、15HM、15HLのそれぞれも、上記教師用放射線画像36の場合と同様に、胸部Q1を表す骨部画像15K、高圧画像15Hそれぞれを多重解像度変換して得られたものである。   Further, the bone image 15KH, 15KM, 15KL for each spatial frequency band, which is the input radiation image 15 for each spatial frequency band prepared for creating the teacher learned filter 41, for each spatial frequency band. The high-pressure images 15HH, 15HM, and 15HL are obtained by performing multi-resolution conversion on the bone image 15K representing the chest Q1 and the high-pressure image 15H, respectively, as in the case of the teacher radiation image 36.

また、上記空間周波数帯域毎の部位特定画像15CH、15CM、15CLは、部位特定画像Cの縮小処理によって得られたものである。   The part specifying images 15CH, 15CM, and 15CL for each spatial frequency band are obtained by reducing the part specifying image C.

すなわち、上記教師用放射線画像36を多重解像度変換して、上記各空間周波数帯域毎の放射線画像である高周波数帯域を表す放射線画像(以後、教師用高周波帯域画像36Hという)、中周波数帯域を表す放射線画像(以後、教師用中周波帯域画像36Mという)、低周波数帯域を表す放射線画像(以後、教師用低周波帯域画像36Lという)が形成される。   That is, the radiographic image 36 for teacher is subjected to multi-resolution conversion, and a radiographic image representing a high frequency band, which is a radiographic image for each spatial frequency band (hereinafter referred to as a teacher high frequency band image 36H), representing a medium frequency band. A radiographic image (hereinafter referred to as a teacher medium frequency band image 36M) and a radiographic image representing a low frequency band (hereinafter referred to as a teacher low frequency band image 36L) are formed.

また、上記学習用の骨部画像15Kを多重解像度変換して、上記各空間周波数帯域毎の放射線画像である高周波数帯域を表す放射線画像(以後、骨部高周波帯域画像15KHという)、中周波数帯域を表す放射線画像(以後、骨部中周波帯域画像15KMという)、低周波数帯域を表す放射線画像(以後、骨部低周波帯域画像15KLという)が得られる。   The learning bone image 15K is subjected to multi-resolution conversion, and a radiographic image representing a high-frequency band (hereinafter referred to as a bone high-frequency band image 15KH), a medium frequency band, which is a radiographic image for each spatial frequency band. (Hereinafter referred to as bone intermediate frequency band image 15KM) and a radiation image representing a low frequency band (hereinafter referred to as bone low frequency band image 15KL).

また、上記学習用の高圧画像15Hを多重解像度変換して、上記各空間周波数帯域毎の放射線画像である高周波数帯域を表す放射線画像(以後、高圧高周波帯域画像15HHという)、中周波数帯域を表す放射線画像(以後、高圧中周波帯域画像15HMという)、低周波数帯域を表す放射線画像(以後、高圧低周波帯域画像15HLという)が形成される。   Further, the high-voltage image 15H for learning is subjected to multi-resolution conversion, and a radiographic image representing a high-frequency band (hereinafter referred to as a high-frequency high-frequency band image 15HH) and a medium-frequency band representing the radiographic image for each spatial frequency band. A radiographic image (hereinafter referred to as a high-voltage medium frequency band image 15HM) and a radiographic image representing a low-frequency band (hereinafter referred to as a high-voltage low-frequency band image 15HL) are formed.

図10は画像を多重解像度変換する様子を示す図である。   FIG. 10 is a diagram illustrating a state in which an image is subjected to multiresolution conversion.

図10に示すように、例えば、高圧高周波帯域画像15HHは、上記高圧画像15H(高圧高解像度画像)とこの高圧画像15Hをダウンサンプリングして得られた高圧中解像度画像H1とのアップサンプリングによって得られたものである。   As shown in FIG. 10, for example, the high-pressure and high-frequency band image 15HH is obtained by upsampling the high-pressure image 15H (high-pressure high-resolution image) and the high-pressure medium-resolution image H1 obtained by down-sampling the high-pressure image 15H. It is what was done.

上記ダウンサンプリングは、σ=1のガウシアンローパスフィルタと上記高圧画像15H(高圧高解像度画像)の1/2間引きとを行うものである。また、上記アップサンプリングは3次Bスプライン補間を利用して実施されるものである。   In the downsampling, a Gaussian low-pass filter with σ = 1 and 1/2 thinning of the high-pressure image 15H (high-pressure high-resolution image) are performed. The upsampling is performed using cubic B-spline interpolation.

上記高圧中周波帯域画像15HMは、上記高圧高周波帯域画像15HHの場合と同様に、上記高圧中解像度画像H1とこの高圧中解像度画像H1をダウンサンプリングして得られた高圧低解像度画像H2とのアップサンプリングによって得られたものである。   As in the case of the high-voltage high-frequency band image 15HH, the high-voltage medium-frequency band image 15HM is an increase of the high-pressure medium-resolution image H1 and the high-pressure low-resolution image H2 obtained by down-sampling the high-pressure medium-resolution image H1. It was obtained by sampling.

上記高圧低周波帯域画像15HLは、上記高圧高周波帯域画像15HHや高圧中周波帯域画像15HMを取得した場合と同様に、上記高圧低解像度画像H2とこの高圧低解像度画像H2をダウンサンプリングして得られた高圧極低解像度画像H3とのアップサンプリングによって得られたものである。   The high-voltage low-frequency band image 15HL is obtained by down-sampling the high-voltage low-resolution image H2 and the high-pressure low-resolution image H2 in the same manner as when the high-voltage high-frequency band image 15HH or the high-pressure medium-frequency band image 15HM is acquired. It was obtained by upsampling with the high-pressure ultra-low resolution image H3.

上記のようにして、骨部画像Eについても、骨部高周波帯域画KH、骨部中周波帯域画像KM、骨部低周波帯域画像KLを作成する。   As described above, the bone high-frequency band image KH, the bone mid-frequency band image KM, and the bone low-frequency band image KL are also created for the bone image E.

また、上記学習用の部位特定画像15Cの解像度を上記各画像の解像度に合わせるために、この部位特定画像15Cに対して画素数を少なくする縮小処理を施してより低解像度の画像を得る。これにより、高解像度の上記部位特定画像15Cである(以後、境界高周波帯域画像15CHともいう)から、中解像度の放射線画像(以後、境界中周波帯域画像15CMという)、低解像度の放射線画像(以後、境界低周波帯域画像15CLという)が形成される。   Further, in order to match the resolution of the part specifying image 15C for learning with the resolution of each image, a reduction process for reducing the number of pixels is performed on the part specifying image 15C to obtain a lower resolution image. As a result, the high-resolution part specifying image 15C (hereinafter also referred to as a boundary high-frequency band image 15CH), a medium-resolution radiation image (hereinafter referred to as a boundary high-frequency band image 15CM), and a low-resolution radiation image (hereinafter referred to as a boundary high-frequency band image 15CM). , A boundary low frequency band image 15CL) is formed.

なお、上記境界高周波帯域画像15CH、境界中周波帯域画像15CM、境界低周波帯域画像15CLの画像それぞれは、上記のように高解像度の画像に縮小処理を施して低解像度の画像を得る場合に限らない。例えば、互に異なる解像度毎に、特定の空間周波数帯域の画像からこの空間周波数帯域に対応する部位特定画像を作成するようにしてもよい。   Each of the boundary high frequency band image 15CH, the boundary medium frequency band image 15CM, and the boundary low frequency band image 15CL is limited to the case where the high resolution image is subjected to the reduction process to obtain the low resolution image as described above. Absent. For example, a part specifying image corresponding to this spatial frequency band may be created from an image of a specific spatial frequency band for each different resolution.

また、上記教師学習済フィルタ41も上記3つの空間周波数帯域毎に作成される。すなわち、上記各空間周波数帯域毎の学習によって上記高周波帯域教師学習済フィルタ41H、中周波帯域教師学習済フィルタ41M、および低周波帯域教師学習済フィルタ41Lが得られる。   The teacher learned filter 41 is also created for each of the three spatial frequency bands. That is, the high frequency band teacher learned filter 41H, the medium frequency band teacher learned filter 41M, and the low frequency band teacher learned filter 41L are obtained by learning for each spatial frequency band.

以下、上記高周波帯域教師学習済フィルタ41H等を学習によって作成する場合について説明する。   Hereinafter, a case where the high frequency band teacher learned filter 41H and the like are created by learning will be described.

図9に示すように、学習用の骨部高周波帯域画像15KH、学習用の高圧高周波帯域画像15HH、学習用の高解像度の部位特定画像である境界高周波帯域画像15CH、および教師用高周波帯域画像36Hそれぞれについて互に対応する小領域部分である5画素×5画素(合計25画素)の矩形領域からなるサブウィンドウSwを設定する。   As shown in FIG. 9, the bone high-frequency band image 15KH for learning, the high-voltage high-frequency band image 15HH for learning, the boundary high-frequency band image 15CH that is a high-resolution part specifying image for learning, and the high-frequency band image 36H for teachers For each, a sub-window Sw consisting of a rectangular area of 5 pixels × 5 pixels (a total of 25 pixels), which is a small area corresponding to each other, is set.

そして、骨部高周波帯域画像15KHと高圧高周波帯域画像15HHと境界高周波帯域画像15CHの各サブウィンドウSwを構成するそれぞれ25画素の値からなる特徴量に対し、教師用高周波帯域画像36H中のサブウィンドウSwの中心画素の値を目標値とする学習用サンプルを取り出し、サブウィンドウを移動させつつ、複数の学習用サンプルを抽出する。これにより抽出された、例えば1万種類の学習用サンプルを学習させることによって、上記高周波帯域教師学習済フィルタ41Hを得る。   Then, with respect to the feature amount consisting of the value of 25 pixels constituting each sub-window Sw of the bone high-frequency band image 15KH, the high-voltage high-frequency band image 15HH, and the boundary high-frequency band image 15CH, the sub-window Sw of the teacher high-frequency band image 36H A learning sample whose target value is the value of the center pixel is taken out, and a plurality of learning samples are extracted while moving the subwindow. The high frequency band teacher learned filter 41H is obtained by learning, for example, 10,000 kinds of learning samples extracted in this manner.

なお、高周波帯域画像51H、および後述する中周波帯域画像51M、低周波帯域画像51Lそれぞれは、上記教師用高周波帯域画像36H,教師用中周波帯域画像36M,教師用低周波帯域画像36Lの類似画像である。   Note that the high frequency band image 51H, the medium frequency band image 51M, and the low frequency band image 51L described later are similar images of the teacher high frequency band image 36H, the teacher medium frequency band image 36M, and the teacher low frequency band image 36L, respectively. It is.

上記高周波帯域教師学習済フィルタ41H等は、下記のサポートベクター回帰を用いた回帰モデルを学習してなるものである。この回帰モデルは、入力された骨部高周波帯域画像15KHの特徴量(上記25画素分で表される画像)と高圧高周波帯域画像15HHの特徴量(上記25画素分で表される画像)と境界高周波帯域画像15CHの特徴量(上記25画素分で表される画像)に応じて、画質劣化が補償され、かつ上記特定の部位である骨部を主に表す高周波帯域画像51Hを出力する高周波帯域の非線形フィルタである。   The high frequency band teacher learned filter 41H and the like are obtained by learning a regression model using the following support vector regression. This regression model has a boundary between the feature amount of the input bone high-frequency band image 15KH (image represented by 25 pixels) and the feature amount of the high-pressure high-frequency band image 15HH (image represented by 25 pixels). High-frequency band that outputs a high-frequency band image 51H that mainly compensates for the bone portion that is the specific part, with image quality degradation compensated according to the feature amount of the high-frequency band image 15CH (the image represented by the 25 pixels). This is a nonlinear filter.

また、上記骨部中周波帯域画像15KM、高圧中周波帯域画像15HM、境界中周波帯域画像15CM、および教師用中周波帯域画像36Mを用いた上記と同様の学習により、上記中周波帯域用教師学習済フィルタ41Mが得られる。   Further, the above-mentioned medium frequency band teacher learning is performed by the same learning using the bone medium frequency band image 15KM, the high voltage medium frequency band image 15HM, the boundary medium frequency band image 15CM, and the teacher medium frequency band image 36M. A finished filter 41M is obtained.

さらに、上記骨部低周波帯域画像15KL、高圧低周波帯域画像15HL、境界中周波帯域画像15CL、および教師用低周波帯域画像36Lを用いた上記と同様の学習により、上記低周波帯域用教師学習済フィルタ41Lが得られる。   Further, the low frequency band teacher learning is performed by learning similar to the above using the bone low frequency band image 15KL, the high voltage low frequency band image 15HL, the boundary middle frequency band image 15CL, and the teacher low frequency band image 36L. A finished filter 41L is obtained.

上記のように、回帰モデルの学習は各空間周波数帯域毎に実施され、上記教師学習済フィルタ41H、教師学習済フィルタ41M、教師学習済フィルタ41Lからなる教師学習済フィルタ41が得られる。   As described above, the learning of the regression model is performed for each spatial frequency band, and the teacher learned filter 41 including the teacher learned filter 41H, the teacher learned filter 41M, and the teacher learned filter 41L is obtained.

図8に示すように、上記のようにして作成された教師学習済フィルタ41には、診断対象となる与えられた成人女性の胸部3Qについて作成された、上記入力用放射線画像15と同種の診断対象の放射線画像25である骨部画像25Kと高圧画像25Hと部位特定画像25Cそれぞれについての各空間周波数帯域毎の画像が入力される。   As shown in FIG. 8, the teacher-learned filter 41 created as described above has the same kind of diagnosis as the input radiation image 15 created for the breast 3Q of a given adult woman to be diagnosed. An image for each spatial frequency band for each of the bone image 25K, the high-pressure image 25H, and the region specifying image 25C, which are the target radiographic images 25, is input.

すなわち、骨部画像25Kを多重解像度変換してなる骨部高周波帯域画像25KH、骨部中周波帯域画像25KM、および骨部低周波帯域画像25KL、高圧画像25Hを多重解像度変換してなる高圧高周波帯域画像25HH、高圧中周波帯域画像25HM、高圧低周波帯域画像25HL、および部位特定画像25Cを縮小処理してなる境界高周波帯域画像25CH、境界中周波帯域画像25CM、境界低周波帯域画像25CLを教師学習済フィルタ41に入力する。   That is, a high-frequency high-frequency band obtained by multi-resolution conversion of the bone high-frequency band image 25KH, the bone intermediate-frequency band image 25KM, the bone low-frequency band image 25KL, and the high-pressure image 25H obtained by multi-resolution conversion of the bone image 25K. Supervised learning of boundary high-frequency band image 25CH, boundary high-frequency band image 25CM, and boundary low-frequency band image 25CL obtained by reducing image 25HH, high-voltage medium-frequency band image 25HM, high-voltage low-frequency band image 25HL, and part specifying image 25C To the completed filter 41.

そして、骨部画像25Kと高圧画像25Hと部位特定画像25Cそれぞれの各空間周波数帯域毎の画像が入力された上記教師学習済フィルタ41H,41M、41Lは、各空間周波数帯域毎に診断用の放射線画像61H、61M、61Lを推定し、上記推定された放射線画像61H、61M、61Lを画像合成フィルタ41Tで合成して診断用の放射線画像61を得る。   The teacher-learned filters 41H, 41M, and 41L to which the images for the respective spatial frequency bands of the bone part image 25K, the high-pressure image 25H, and the region specifying image 25C are input are diagnostic radiation for each spatial frequency band. The images 61H, 61M, and 61L are estimated, and the estimated radiation images 61H, 61M, and 61L are synthesized by the image synthesis filter 41T to obtain a diagnostic radiation image 61.

すなわち、高周波帯域用教師学習済フィルタ41Hに、骨部高周波帯域画像25KHと高圧高周波帯域画像25HHと境界高周波帯域画像25CHが入力されると、画質劣化が補償され、かつ上記特定の部位である骨部を主に表す高周波帯域の診断用の放射線画像61Hが形成される。   That is, when the bone high-frequency band image 25KH, the high-pressure high-frequency band image 25HH, and the boundary high-frequency band image 25CH are input to the high-frequency band supervised learned filter 41H, the image quality deterioration is compensated and the bone that is the specific part A radiographic image 61H for diagnosis in a high frequency band mainly representing the portion is formed.

また、中周波帯域用教師学習済フィルタ41Mに、骨部中周波帯域画像25KMと高圧中周波帯域画像25HMと境界中周波帯域画像25CMが入力されると、画質劣化が補償され、かつ上記特定の部位である骨部を主に表す中周波帯域の診断用の放射線画像61Mが形成される。   In addition, when the bone intermediate frequency band image 25KM, the high-voltage intermediate frequency band image 25HM, and the boundary intermediate frequency band image 25CM are input to the medium frequency band teacher learned filter 41M, the image quality deterioration is compensated for, and the specific A radiographic image 61M for diagnosis in the medium frequency band mainly representing the bone part as a part is formed.

さらに、低周波帯域用教師学習済フィルタ41Lに、骨部低周波帯域画像25KLと高圧低周波帯域画像25HLと境界低周波帯域画像25CLとが入力されると、画質劣化が補償され、かつ上記特定の部位である骨部を主に表す低周波帯域の診断用の放射線画像61Lが形成される。   Furthermore, when the bone low-frequency band image 25KL, the high-voltage low-frequency band image 25HL, and the boundary low-frequency band image 25CL are input to the low-frequency band teacher-learned filter 41L, the image quality degradation is compensated for and A diagnostic radiographic image 61L in the low frequency band mainly representing the bone portion, which is a part of the above, is formed.

そして、上記形成された高周波帯域の診断用放射線画像61H、中周波帯域の診断用放射線画像61M、および低周波帯域の診断用放射線画像61Lが上記画像合成フィルタ41Tによって合成され、画質劣化が補償され、かつ特定の部位である骨部を主に表す上記診断用放射線画像61が作成される。   The formed high-frequency band diagnostic radiation image 61H, medium-frequency band diagnostic radiation image 61M, and low-frequency band diagnostic radiation image 61L are combined by the image combining filter 41T to compensate for image quality degradation. And the said diagnostic radiation image 61 which mainly represents the bone part which is a specific site | part is created.

図11は画像合成フィルタにおけるアップサンプリングと加算の処理の様子を示す図である。   FIG. 11 is a diagram illustrating how upsampling and addition are performed in the image synthesis filter.

図11に示すように、上記画像合成フィルタ41Tは低周波帯域の診断用放射線画像61L、中周波帯域の診断用放射線画像61M、高周波帯域の診断用放射線画像61Hの順にアップサンプリングと加算を繰り返して上記診断用放射線画像61を得るものである。   As shown in FIG. 11, the image synthesis filter 41T repeats upsampling and addition in the order of the diagnostic radiographic image 61L in the low frequency band, the diagnostic radiographic image 61M in the medium frequency band, and the diagnostic radiographic image 61H in the high frequency band. The diagnostic radiation image 61 is obtained.

すなわち、低周波帯域の診断用放射線画像61Lをアップサンプリングして得られた画像と中周波帯域の診断用放射線画像61Mとを加算した画像を得、その画像をアップサンプリングして得られた画像と高周波帯域の診断用放射線画像61Hとを加算して上記診断用放射線画像61が得られる。   That is, an image obtained by upsampling the diagnostic radiographic image 61L in the low frequency band and the diagnostic radiographic image 61M in the medium frequency band is obtained, and an image obtained by upsampling the image is obtained. The diagnostic radiographic image 61 is obtained by adding the diagnostic radiographic image 61H in the high frequency band.

上記回帰モデルの学習において入力される特徴量について以下に具体的に説明する。図12は上記特徴量を示す領域の1例を示す図である。   The feature amount input in the learning of the regression model will be specifically described below. FIG. 12 is a diagram illustrating an example of a region indicating the feature amount.

上記特徴量は各空間周波数帯域毎の放射線画像における画素値そのものであってもよいし、特別なフィルタ処理を施して得られたものであっても良い。例えば、図12に示すような、特定の空間周波数帯域の放射線画像中の縦方向に互に隣り合う3画素からなる領域U1あるいは横方向に互に隣り合う3画素からなる領域U2の各画素値の平均値を新たな特徴量としてもよい。またウェーブレット変換を行い、ウェーブレット係数を特徴量に用いてもよい。また、複数の周波数帯域に渡る画素を特徴量に用いても良い。   The feature amount may be a pixel value itself in a radiation image for each spatial frequency band, or may be obtained by performing a special filter process. For example, as shown in FIG. 12, each pixel value of a region U1 consisting of three pixels adjacent to each other in the vertical direction or a region U2 consisting of three pixels adjacent to each other in the horizontal direction in a radiographic image in a specific spatial frequency band. The average value may be a new feature amount. In addition, wavelet transform may be performed and wavelet coefficients may be used as feature amounts. Further, pixels over a plurality of frequency bands may be used for the feature amount.

上記回帰モデルの学習において実施するコントラスト正規化について以下に説明する。   The contrast normalization performed in the learning of the regression model will be described below.

各空間周波数帯域毎の画像中に設定されたサブウィンドウSw(図9参照)に含まれる各画素の画素値について標準偏差を計算する。上記標準偏差が所定の目標値に一致するように帯域画像の画素値に係数を掛ける。   A standard deviation is calculated for the pixel value of each pixel included in the sub-window Sw (see FIG. 9) set in the image for each spatial frequency band. The pixel value of the band image is multiplied by a coefficient so that the standard deviation matches a predetermined target value.

I' = I ×(C/SD)
ここで、Iは原画像の画素値、I'はコントラスト正規化後の画素値、SDはサブウィンドウSw内の画素値についての標準偏差、Cは標準偏差の目標値(上記Cは事前に設定する定数)である。
I '= I × (C / SD)
Here, I is the pixel value of the original image, I ′ is the pixel value after contrast normalization, SD is the standard deviation for the pixel value in the sub-window Sw, C is the target value of the standard deviation (the above C is set in advance) Constant).

上記各放射線画像中の全領域を網羅するようにサブウィンドウSwの走査を行ない、各画像中に設定可能な全てのサブウィンドウSwについて上記標準偏差を目標値に近づけるように上記サブウィンドウSw中の画素値に所定の係数を乗じて正規化する。   The sub-window Sw is scanned so as to cover the entire region in each radiation image, and the pixel value in the sub-window Sw is set so that the standard deviation approaches the target value for all sub-windows Sw that can be set in each image. Normalize by multiplying by a predetermined coefficient.

上記正規化の結果、各空間周波数帯域毎の画像成分の振幅の大きさ(コントラスト)が揃う。これにより、上記教師学習済フィルタ41へ入力される各空間周波数帯域毎の放射線画像における画像パターンのバリエーションが減るので、上記骨部の推定精度を向上させる効果が得られる。   As a result of the normalization, the magnitudes (contrasts) of the amplitudes of the image components for each spatial frequency band are aligned. Thereby, since the variation of the image pattern in the radiographic image for every spatial frequency band input into the said teacher learning filter 41 reduces, the effect which improves the estimation precision of the said bone part is acquired.

上記非線形フィルタである教師学習済フィルタを学習するステップでは、高圧画像に上記のコントラスト正規化処理を施し、乗算した係数を劣化のない骨部画像にも乗算する。正規化した高圧画像と骨部画像のペアから学習サンプルを用意して非線形フィルタを学習する。   In the step of learning the supervised learned filter that is the non-linear filter, the high-pressure image is subjected to the above-described contrast normalization process, and the multiplied coefficient is also multiplied to the bone part image without deterioration. A learning sample is prepared from a pair of normalized high-pressure image and bone part image to learn a nonlinear filter.

診断用の被写体の骨部を主に表す診断用放射線画像を推定するステップでは、入力される高圧画像をコントラスト正規化し、正規化済みの各空間周波数帯域毎の画像の画素値を教師学習済フィルタに入力する。上記教師学習済フィルタの出力値に対し、上記正規化したときに用いた係数の逆数を乗算し、骨部の推定値とする。   In the step of estimating the diagnostic radiographic image mainly representing the bone part of the diagnostic object, the input high-voltage image is subjected to contrast normalization, and the pixel value of each normalized spatial frequency band is set as a teacher-learned filter. To enter. The output value of the teacher-learned filter is multiplied by the reciprocal of the coefficient used when the normalization is performed to obtain an estimated value of the bone.

なお、上記のように1つの画像を互に異なる空間周波数帯域毎の複数の画像に変換し、変換された各画像毎に画像処理を施して各空間周波数帯域毎の複数の処理済画像を作成し、上記複数の処理済画像を合成して1つの処理済画像を得る手法としては、従来より知られている種々の手法を採用することができる。   In addition, as described above, one image is converted into a plurality of images for each different spatial frequency band, and image processing is performed for each converted image to create a plurality of processed images for each spatial frequency band. As a technique for combining the plurality of processed images to obtain one processed image, various conventionally known techniques can be employed.

次に、サポートベクター回帰(サポートベクターマシンによる回帰(SVR))について説明する。   Next, support vector regression (regression by support vector machine (SVR)) will be described.

図13はサポートベクター回帰により近似関数を求める様子を示す図である。   FIG. 13 is a diagram showing how an approximate function is obtained by support vector regression.

d次元の入力ベクトルxに対応する実数値yを近似する関数を学習する問題について、まず近似関数が線形である場合を考える。
Regarding the problem of learning a function that approximates a real value y corresponding to a d-dimensional input vector x, first consider the case where the approximation function is linear.

Vapnikの提案するε-SVRアルゴリズムでは次の損失関数を最小化するfを求める。   The ε-SVR algorithm proposed by Vapnik finds f that minimizes the following loss function.

なお、上記Vapnikの提案するε-SVRアルゴリズムについては上記文献「サポートベクターマシン入門」を参照することができる。
For the ε-SVR algorithm proposed by Vapnik, the above document “Introduction to Support Vector Machine” can be referred to.

上記<w・w>はデータを近似するモデルの複雑さを表す項であり、Remp[f]は次のように表現される。
<W · w> is a term representing the complexity of a model that approximates data, and Remp [f] is expressed as follows.

ここで|y-f(x)|ε=max{0,|y-f(x)|-ε}であり、εより小さい誤差は無視することを表す。ξ、ξ*はそれぞれ正方向、負方向にεを超える誤差を許容する緩和変数である。また、Cはモデルの複雑さと制約条件の緩和との間のトレードオフを設定するパラメータである。   Here, | y−f (x) | ε = max {0, | y−f (x) | −ε}, which means that errors smaller than ε are ignored. ξ and ξ * are relaxation variables that allow an error exceeding ε in the positive direction and the negative direction, respectively. C is a parameter that sets a trade-off between the complexity of the model and relaxation of constraints.

上の主問題は次の双対問題を解くことと等価であり、凸2次計画問題の特性から必ず大域解を求めることができる。
The above main problem is equivalent to solving the following dual problem, and a global solution can always be obtained from the characteristics of the convex quadratic programming problem.

この双対問題を解いて得られる回帰モデルは次式で表現される。
The regression model obtained by solving this dual problem is expressed by the following equation.

この関数は線形関数であるが、非線形に拡張するには入力Xを高次の特徴空間Φ(X)に写像し、その特徴空間でのベクトルΦ(X)をこれまでの入力Xとみなせばよい(X→Φ(X))。通常、高次元空間への写像は計算量の大幅な増加を伴うが、最適化すべき式に現れる内積の項をK(x,y)=<Φ(x),Φ(y)>の関係を満たすカーネル関数で置き換えると、入力次元の計算で高次元に写像してから計算したものと同じ結果を求めることができる。カーネル関数には、RBFカーネル、多項式カーネル、シグモイドカーネルなどが利用できる。 This function is a linear function, but in order to extend it nonlinearly, if the input X is mapped to a higher-order feature space Φ (X) and the vector Φ (X) in that feature space is regarded as the previous input X, Good (X → Φ (X)). In general, mapping to a high-dimensional space is accompanied by a significant increase in computational complexity, but the inner product terms appearing in the formula to be optimized are expressed as K (x, y) = <Φ (x), Φ (y)>. If it is replaced with a kernel function that satisfies, the same result as that calculated after mapping to a higher dimension in the calculation of the input dimension can be obtained. As the kernel function, an RBF kernel, a polynomial kernel, a sigmoid kernel, or the like can be used.

上記判別における学習方法は、上記サポートベクターマシン(SVM)以外にAdaBoostなどを用いても良い。   As a learning method in the discrimination, AdaBoost or the like may be used in addition to the support vector machine (SVM).

上記判別すべきクラスは、骨部と骨部以外の部位や、後肋骨、肋骨間等からなる2クラスに限らず、後肋骨、肋骨間、鎖骨からなる3クラスや、鎖骨を含む3クラス以上のものであってもよい。   The classes to be identified are not limited to two classes consisting of bones and parts other than bone parts, posterior ribs, and ribs, but three classes including posterior ribs, ribs, and clavicles, and more than three classes including clavicles. It may be.

図14は胸部を表す骨部画像中に生じたモーションアーチファクトを示す図である。   FIG. 14 is a diagram showing motion artifacts that occur in the bone image representing the chest.

図14に示すように、互いにエネルギ分布の異なる放射線による放射線撮影で得られた高圧画像および低圧画像を用いた加重減算により形成されたエネルギサブトラクション画像である成人女性の胸部を表す骨部画像FK中に心臓の鼓動に応じて生じたモーションアーチファクトMaが生じることがある。このようなモーションアーチファクトは、放射線画像中から除去することが求められるので、上記特定の部位をモーションアーチファクトとし、このモーションアーチファクトMaを強調して表す放射線画像を上記教師学習済フィルタを通して形成する。そのようにして形成された放射線画像を、例えば上記骨部画像FKから差し引くことにより、このモーションアーチファクトMaが除去された骨部画像を作成することができる。   As shown in FIG. 14, in a bone part image FK representing an adult female breast that is an energy subtraction image formed by weighted subtraction using a high-pressure image and a low-pressure image obtained by radiation imaging with different energy distributions. In some cases, a motion artifact Ma generated in response to the heartbeat may occur. Since such motion artifacts are required to be removed from the radiographic image, the specific part is set as a motion artifact, and a radiographic image representing the motion artifact Ma is formed through the supervised learned filter. By subtracting the radiographic image thus formed from, for example, the bone image FK, a bone image from which the motion artifact Ma has been removed can be created.

上記のように、特定の部位は、互に異なるタイミングで得られた高圧画像と低圧画像とにおいて被写体中の表示位置が変化した部位とすることができる。また、上記のように、強調されて表される特定の部位は放射線画像中の不要な部位(欠陥部位)としてもよい。そのような場合には、この不要部位を表す放射線画像を、上記不要部位およびこの不要部位以外の必要部位の両方を含む放射線画像から差し引くことにより、不要部位が除去され必要部位のみを表す所望の放射線画像を得ることができる。   As described above, the specific part can be a part where the display position in the subject has changed in the high-pressure image and the low-pressure image obtained at different timings. In addition, as described above, the specific part that is emphasized may be an unnecessary part (defect part) in the radiographic image. In such a case, by subtracting the radiation image representing the unnecessary part from the radiation image including both the unnecessary part and the necessary part other than the unnecessary part, the unnecessary part is removed and the desired image representing only the necessary part is represented. A radiographic image can be obtained.

なお、教師用放射線画像を、入力用放射線画像を得る際の1回の放射線撮影に用いた放射線の線量よりも大きな線量を用いた放射線撮影に基づいて取得する場合には、1回の放射線撮影で上記被写体へ照射する放射線の線量が許容値を超える場合があるが、所定期間に上記被写体へ照射する放射線の線量の総和を制限する等のことにより上記大きな線量を用いた教師用の被写体に対する放射線撮影を実施することができる。   In addition, when acquiring the radiographic image for teachers based on radiography using a dose larger than the dose of radiation used for one radiography when obtaining an input radiographic image, one radiography In some cases, the radiation dose to the subject may exceed the permissible value. However, by limiting the sum of the radiation doses to the subject for a predetermined period, etc. Radiography can be performed.

図1,2に示すように、本発明の放射線画像処理方法を実施する放射線画像処理装置110は、複数の同種の被写体である成人男性の胸部1P毎に取得した、この胸部1Pの単純放射線撮影10で得られた上記胸部1Pを表す単純放射線画像である学習用の被写体画像11H、およびその被写体画像11Hに対し境界抽出処理12を施して得られた胸部1P中の特定の部位である骨部Pxとこの骨部Pxとは異なる他の部位Poとの境界Pcを表す学習用の部位特定画像11Cからなる入力用放射線画像11と、上記胸部1Pの放射線撮影により得られた、上記被写体画像11Hよりも画質劣化が少なく、かつ、胸部1P中の特定の部位である骨部Pxを強調して表す教師用放射線画像33を用い、上記入力用放射線画像11を対象とし教師用放射線画像33を教師として学習させた教師学習済フィルタ40を得るフィルタ取得部Mh1(図1参照)と、与えられた被写体である上記胸部1Pと同種の被写体である診断対象となる胸部3Pについて単純放射線撮影20を行い、上記入力用放射線画像11と同種の放射線画像21を作成する同種画像作成部Mh2(図2参照)と、この診断対象の放射線画像21を上記教師学習済フィルタ40に入力して、与えられた胸部3P中の骨部Pxを強調して表した診断用放射線画像を形成する部位強調画像形成部Mh3(図2参照)とを備えたものである。   As shown in FIGS. 1 and 2, the radiographic image processing apparatus 110 that performs the radiographic image processing method of the present invention obtains simple radiography of the chest 1P obtained for each chest 1P of an adult male that is a plurality of similar subjects. Subject image 11H for learning, which is a simple radiation image representing the chest 1P obtained in step 10, and a bone portion that is a specific part in the chest 1P obtained by subjecting the subject image 11H to boundary extraction processing 12 An input radiation image 11 composed of a learning part specifying image 11C representing a boundary Pc between Px and another part Po different from the bone part Px, and the subject image 11H obtained by radiography of the chest 1P. The teacher radiation image 33 is used for the input radiation image 11 and the teacher radiation image 33 is expressed by emphasizing the bone portion Px, which is a specific part in the chest 1P. A filter acquisition unit Mh1 (see FIG. 1) that obtains a teacher-learned filter 40 that has learned the radiographic image 33 as a teacher, and a chest 3P that is a subject to be diagnosed that is the same type of subject as the chest 1P that is a given subject. The same-type image creation unit Mh2 (see FIG. 2) that performs radiography 20 and creates a radiation image 21 of the same type as the input radiation image 11, and inputs the diagnosis-target radiation image 21 to the teacher-learned filter 40. And a region-enhanced image forming unit Mh3 (see FIG. 2) that forms a diagnostic radiographic image that emphasizes and represents the bone portion Px in the given chest 3P.

この、放射線画像処理装置110の作用は、既に説明した上記放射線画像処理方法と同様なので省略する。なお、上記フィルタ取得部Mh1、同種画像作成部Mh2、および部位強調画像形成部Mh3それぞれで扱う各画像は、画像そのものとしたり、画像を表す画像データとすることができる。   Since the operation of the radiographic image processing apparatus 110 is the same as that of the radiographic image processing method already described, a description thereof will be omitted. Note that each image handled by the filter acquisition unit Mh1, the same kind of image creation unit Mh2, and the part-enhanced image formation unit Mh3 can be an image itself or image data representing an image.

なお、上記教師学習済フィルタは小領域ごとに学習するものではなく、一つの周波数あたり1種類だけ用意し、一つのフィルタによって全ての小領域を処理するものである。フィルタの学習は、単一の(または小数の)放射線画像のさまざまな小領域から学習用サンプルを取り出し、それら多数のサンプルを同時に集合として扱い学習するものである。つまり、例えばAさんの鎖骨あたり、Aさんの鎖骨の下あたり、Aさんの肋骨の輪郭あたり、Aさんの肋骨の中心あたり・・・などからなる学習サンプルをまとめて学習するものである。また、フィルタの入力となる特徴量は25画素だが、上記25画素に対応する出力である教師は25画素ではなく小領域の中心部分の1画素である。   Note that the teacher-learned filter is not learned for each small region, but only one type is prepared for each frequency, and all small regions are processed by one filter. In the learning of the filter, learning samples are taken out from various small regions of a single (or a small number) of radiographic images, and these many samples are treated as a set at the same time. That is, for example, learning samples consisting of Mr. A's collarbone, Mr. A's collarbone, Mr. A's rib contour, Mr. A's rib center, etc. are collectively learned. In addition, although the feature quantity to be input to the filter is 25 pixels, the teacher who is the output corresponding to the 25 pixels is not 25 pixels but one pixel at the center of the small area.

また、本発明の放射線画像処理装置の機能を実行するためのプログラムをパソコンにインストールし、パソコンにおいて上記実施形態と同様の作用を実行させることが可能である。すなわち、上記実施の形態の放射線画像処理方法をコンピュータに実行させるためのプログラムが本発明のプログラムに該当する。   Further, a program for executing the function of the radiation image processing apparatus of the present invention can be installed in a personal computer, and the same operation as in the above embodiment can be executed in the personal computer. That is, a program for causing a computer to execute the radiographic image processing method of the above embodiment corresponds to the program of the present invention.

第1の実施の形態の放射線画像処理方法に用いる教師学習済フィルタを取得する手順を示す図The figure which shows the procedure which acquires the teacher learning completed filter used for the radiographic image processing method of 1st Embodiment. 第1の実施の形態の放射線画像処理方法の手順を示す図The figure which shows the procedure of the radiographic image processing method of 1st Embodiment 第2の実施の形態の放射線画像処理方法に用いる教師学習済フィルタを取得する手順を示す図The figure which shows the procedure which acquires the teacher learning completed filter used for the radiographic image processing method of 2nd Embodiment. 第2の実施の形態の放射線画像処理方法の手順を示す図The figure which shows the procedure of the radiographic image processing method of 2nd Embodiment. 境界抽出処理の様子を示す図Diagram showing the boundary extraction process サポートベクターマシンによる2クラスの判別を示す図Diagram showing discrimination of two classes by support vector machine 判別すべき放射線画像と教師画像にサブウィンドウを設定する様子を示す図The figure which shows a mode that a subwindow is set to the radiographic image and teacher image which should be distinguished 与えられた被写体についての各空間周波数帯域毎の放射線画像を教師学習済フィルタへ入力して診断用の放射線画像を作成する様子を示す図The figure which shows a mode that the radiographic image for every spatial frequency band about the given subject is inputted into a teacher learned filter, and the radiographic image for diagnosis is created. 各空間周波数帯域毎に教師学習済フィルタを作成する様子を示す図The figure which shows a mode that a teacher learned filter is produced for every spatial frequency band 画像を多重解像度変換する様子を示す図The figure which shows a mode that multi-resolution conversion of the image 画像合成フィルタにおけるアップサンプリングと加算の様子を示す図The figure which shows the state of upsampling and addition in the image composition filter 特徴量を構成する領域を示す図The figure which shows the field which constitutes the feature quantity サポートベクター回帰により近似関数を求める様子を示す図Diagram showing how approximate function is calculated by support vector regression 胸部を表す骨部画像中に生じたモーションアーチファクト示す図である。It is a figure which shows the motion artifact which arose in the bone part image showing a chest part.

符号の説明Explanation of symbols

1P 被写体
3P 被写体
10 放射線撮影
11H 被写体画像
11C 部位特定画像
11 入力用放射線画像
20 放射線撮影
21 放射線画像
33 教師用放射線画像
40 教師学習済フィルタ
60 放射線画像
1P Subject 3P Subject 10 Radiography 11H Subject image 11C Site specific image 11 Radiation image for input 20 Radiography 21 Radiation image 33 Radiation image for teacher 40 Teacher-trained filter 60 Radiation image

Claims (13)

複数の同種の被写体毎に、該被写体の放射線撮影で得られた前記被写体中の特定の部位とこの特定の部位とは異なる他の部位との境界を表す部位特定画像および前記被写体を表す被写体画像からなる入力用放射線画像を用意し、
前記各被写体の放射線撮影により得られた、該被写体中の前記特定の部位を強調して表す教師用放射線画像を前記各被写体毎に用意し、
前記各被写体を表す入力用放射線画像の入力に対し、該被写体に対応する前記教師用放射線画像を教師として学習させた教師学習済フィルタを得、
その後、前記被写体と同種の与えられた被写体について、前記入力用放射線画像と同種の放射線画像を作成し、
該放射線画像を前記教師学習済フィルタに入力して、前記与えられた被写体中の前記特定の部位と同じ部位が強調されてなる該被写体の放射線画像を形成することを特徴とする放射線画像処理方法。
For each of a plurality of the same type of subjects, a part specifying image representing a boundary between a specific part in the subject obtained by radiography of the subject and another part different from the specific part, and a subject image representing the subject Prepare an input radiation image consisting of
Prepared for each subject is a teacher radiographic image obtained by radiographing each subject, representing the specific portion of the subject in an emphasized manner,
Obtaining a teacher-learned filter that trains the teacher radiation image corresponding to the subject as a teacher with respect to the input radiation image representing each subject,
Then, for a given subject of the same type as the subject, create a radiation image of the same type as the input radiation image,
The radiographic image processing method, wherein the radiographic image is input to the teacher-learned filter to form a radiographic image of the subject in which the same part as the specific part in the given subject is emphasized .
前記教師用放射線画像を作成するための放射線撮影に用いられる放射線の線量が、前記被写体画像を作成するための放射線撮影に用いられる放射線の線量よりも大きいことを特徴とする請求項1記載の放射線画像処理方法。   2. The radiation according to claim 1, wherein a radiation dose used for radiography for creating the teacher radiographic image is larger than a radiation dose used for radiography for creating the subject image. Image processing method. 前記教師用放射線画像が、互いにエネルギ分布の異なる放射線による放射線撮影で得られた高圧画像と低圧画像を用いた加重減算処理により形成されたものであることを特徴とする請求項1または2記載の放射線画像処理方法。   3. The teacher radiation image according to claim 1, wherein the teacher radiation image is formed by a weighted subtraction process using a high-pressure image and a low-pressure image obtained by radiation imaging with radiation having different energy distributions. Radiation image processing method. 前記入力用放射線画像が、互いにエネルギ分布の異なる放射線による放射線撮影で得られた高圧画像と低圧画像を用いた加重減算処理により形成されたものであることを特徴とする請求項1から3のいずれか1項記載の放射線画像処理方法。   4. The input radiation image is formed by weighted subtraction processing using a high-pressure image and a low-pressure image obtained by radiation imaging with radiation having different energy distributions from each other. 5. A radiation image processing method according to claim 1. 前記被写体画像が、単純放射線撮影によって得られた単純放射線画像であることを特徴とする請求項1から3のいずれか1項記載の放射線画像処理方法。   The radiographic image processing method according to claim 1, wherein the subject image is a simple radiographic image obtained by simple radiography. 前記特定の部位が、他の部位とは異なる特定の放射線吸収特性を有する部位であることを特徴とする請求項1から5のいずれか1項記載の放射線画像処理方法。   The radiographic image processing method according to claim 1, wherein the specific part is a part having specific radiation absorption characteristics different from other parts. 前記被写体が生体組織であり、前記特定の部位が、骨部、肋骨、後肋骨、前肋骨、鎖骨、脊椎のうちの少なくとも1つを含むものであることを特徴とする請求項1から6のいずれか1項記載の放射線画像処理方法。   7. The object according to claim 1, wherein the subject is a living tissue, and the specific part includes at least one of a bone part, a rib, a posterior rib, an anterior rib, a clavicle, and a spine. The radiation image processing method according to claim 1. 前記被写体が生体組織であり、前記特定の部位とは異なる他の部位が、肺野、縦隔膜、横隔膜、肋骨間のうちの少なくとも1つを含むものであることを特徴とする請求項1から7のいずれか1項記載の放射線画像処理方法。   8. The object according to claim 1, wherein the subject is a living tissue, and another part different from the specific part includes at least one of a lung field, a mediastinum, a diaphragm, and a rib. The radiographic image processing method of any one of Claims 1. 前記被写体が生体組織であり、前記特定の部位が前記生体組織の骨部あるいは軟部であることを特徴とする請求項1から6のいずれか1項記載の放射線画像処理方法。   The radiographic image processing method according to claim 1, wherein the subject is a biological tissue, and the specific part is a bone part or a soft part of the biological tissue. 前記特定の部位が、前記高圧画像と低圧画像とにおいて被写体中の位置が変化した部位であることを特徴とする請求項4記載の放射線画像処理方法。   The radiographic image processing method according to claim 4, wherein the specific part is a part whose position in the subject has changed between the high-pressure image and the low-pressure image. 前記教師学習済フィルタが、前記教師学習済フィルタを取得するための学習および前記与えられた被写体に対する放射線画像の形成を互に異なる複数の空間周波数帯域毎に行い、各空間周波数帯域毎に形成された前記放射線画像のそれぞれを合成して1つの放射線画像を得るものであることを特徴とする請求項1から10のいずれか1項記載の放射線画像処理方法。   The teacher-learned filter performs learning for obtaining the teacher-learned filter and formation of a radiation image for the given subject for each of a plurality of different spatial frequency bands, and is formed for each spatial frequency band. The radiographic image processing method according to claim 1, wherein each radiographic image is synthesized to obtain one radiographic image. 複数の同種の被写体毎の放射線撮影で得られた、該被写体中の特定の部位とこの特定の部位とは異なる他の部位との境界を表す部位特定画像および前記被写体を表す被写体画像からなる入力用放射線画像と、前記各被写体の放射線撮影により得られた該被写体中の前記特定の部位を強調して表す各被写体毎の教師用放射線画像とを用い、前記各被写体を表す入力用放射線画像の入力に対し、該被写体に対応する前記教師用放射線画像を教師として学習させた教師学習済フィルタを得るフィルタ取得手段と、
前記被写体と同種の与えられた被写体について、前記入力用放射線画像と同種の放射線画像を作成する同種画像作成手段と、
該放射線画像を前記教師学習済フィルタに入力して、前記与えられた被写体中の前記特定の部位と同じ部位が強調されてなる該被写体の放射線画像を形成する部位強調画像形成手段とを備えたことを特徴とする放射線画像処理装置。
An input comprising a part specifying image representing a boundary between a specific part in the subject and another part different from the specific part, and a subject image representing the subject, obtained by radiography for a plurality of subjects of the same type An input radiographic image representing each subject using the radiographic image for each subject and the radiographic image for each subject representing the particular portion in the subject emphasized by radiography of the subject. Filter acquisition means for obtaining a teacher-learned filter in which the teacher radiograph corresponding to the subject is learned as a teacher in response to the input;
For a given subject of the same type as the subject, the same kind of image creating means for creating a radiation image of the same kind as the input radiation image;
A site-enhanced image forming unit configured to input the radiographic image to the teacher-learned filter and form a radiographic image of the subject in which the same site as the specific site in the given subject is enhanced A radiographic image processing apparatus.
複数の同種の被写体毎の放射線撮影で得られた、該被写体中の特定の部位とこの特定の部位とは異なる他の部位との境界を表す部位特定画像および前記被写体を表す被写体画像からなる入力用放射線画像と、前記各被写体の放射線撮影により得られた該被写体中の前記特定の部位を強調して表す各被写体毎の教師用放射線画像とを用い、前記各被写体を表す入力用放射線画像の入力に対し、該被写体に対応する前記教師用放射線画像を教師として学習させた教師学習済フィルタを得る手順と、
前記被写体と同種の与えられた被写体について、前記入力用放射線画像と同種の放射線画像を作成する手順と、
該放射線画像を前記教師学習済フィルタに入力して、前記与えられた被写体中の前記特定の部位と同じ部位が強調されてなる該被写体の放射線画像を形成する手順とを実行する放射線画像処理方法をコンピュータに実行させるためのプログラム。
An input comprising a part specifying image representing a boundary between a specific part in the subject and another part different from the specific part, and a subject image representing the subject, obtained by radiography for a plurality of subjects of the same type An input radiographic image representing each subject using the radiographic image for each subject and the radiographic image for each subject representing the particular portion in the subject emphasized by radiography of the subject. A procedure for obtaining a teacher-learned filter for learning the teacher radiation image corresponding to the subject as a teacher in response to the input;
Creating a radiation image of the same type as the input radiation image for a given subject of the same type as the subject;
A radiographic image processing method for inputting the radiographic image to the teacher-learned filter and executing a procedure for forming a radiographic image of the subject in which the same portion as the specific portion in the given subject is emphasized A program that causes a computer to execute.
JP2007003976A 2007-01-12 2007-01-12 Radiation image processing method, apparatus, and program Active JP4913606B2 (en)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007003976A JP4913606B2 (en) 2007-01-12 2007-01-12 Radiation image processing method, apparatus, and program
PCT/JP2008/050651 WO2008084880A1 (en) 2007-01-12 2008-01-11 Radiation image processing method, apparatus and program
US12/523,001 US20100067772A1 (en) 2007-01-12 2008-01-11 Radiation image processing method, apparatus and program
EP08703501.0A EP2120718A4 (en) 2007-01-12 2008-01-11 Radiation image processing method, apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007003976A JP4913606B2 (en) 2007-01-12 2007-01-12 Radiation image processing method, apparatus, and program

Publications (2)

Publication Number Publication Date
JP2008167950A true JP2008167950A (en) 2008-07-24
JP4913606B2 JP4913606B2 (en) 2012-04-11

Family

ID=39696591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007003976A Active JP4913606B2 (en) 2007-01-12 2007-01-12 Radiation image processing method, apparatus, and program

Country Status (1)

Country Link
JP (1) JP4913606B2 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010122727A1 (en) 2009-04-20 2010-10-28 富士フイルム株式会社 Image processing apparatus, image processing method, and computer-readable medium
WO2011013608A1 (en) 2009-07-31 2011-02-03 富士フイルム株式会社 Image processing device and method, data processing device and method, program, and recording medium
WO2011013610A1 (en) 2009-07-31 2011-02-03 富士フイルム株式会社 Image processing device and method, data processing device and method, program, and recording medium
WO2011013606A1 (en) 2009-07-31 2011-02-03 富士フイルム株式会社 Image processing device and method, data processing device and method, program, and recording medium
CN104464872A (en) * 2014-12-09 2015-03-25 安徽华星电缆集团有限公司 Shielding cable for environment-friendly car and preparing method thereof
JP2016063876A (en) * 2014-09-22 2016-04-28 国立研究開発法人放射線医学総合研究所 Image processing apparatus
JP2016537099A (en) * 2013-11-20 2016-12-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Dual energy spectrum mammography image processing
JP2020092976A (en) * 2018-12-14 2020-06-18 キヤノン株式会社 Image processing device, image processing method, medical information processing device, medical information processing method, radiographic system, and program
JP2020119312A (en) * 2019-01-24 2020-08-06 キヤノンメディカルシステムズ株式会社 Data processing apparatus, data processing method and data processing program
WO2020175445A1 (en) * 2019-02-28 2020-09-03 富士フイルム株式会社 Learning method, learning device, generative model and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000232611A (en) * 1999-02-12 2000-08-22 Fuji Photo Film Co Ltd Method and device for generating energy subtraction picture
US20050100208A1 (en) * 2003-11-10 2005-05-12 University Of Chicago Image modification and detection using massive training artificial neural networks (MTANN)

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000232611A (en) * 1999-02-12 2000-08-22 Fuji Photo Film Co Ltd Method and device for generating energy subtraction picture
US20050100208A1 (en) * 2003-11-10 2005-05-12 University Of Chicago Image modification and detection using massive training artificial neural networks (MTANN)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010122727A1 (en) 2009-04-20 2010-10-28 富士フイルム株式会社 Image processing apparatus, image processing method, and computer-readable medium
WO2011013608A1 (en) 2009-07-31 2011-02-03 富士フイルム株式会社 Image processing device and method, data processing device and method, program, and recording medium
WO2011013610A1 (en) 2009-07-31 2011-02-03 富士フイルム株式会社 Image processing device and method, data processing device and method, program, and recording medium
WO2011013606A1 (en) 2009-07-31 2011-02-03 富士フイルム株式会社 Image processing device and method, data processing device and method, program, and recording medium
US8548230B2 (en) 2009-07-31 2013-10-01 Fujifilm Corporation Image processing device and method, data processing device and method, program, and recording medium
US8565518B2 (en) 2009-07-31 2013-10-22 Fujifilm Corporation Image processing device and method, data processing device and method, program, and recording medium
US8605995B2 (en) 2009-07-31 2013-12-10 Fujifilm Corporation Image processing device and method, data processing device and method, program, and recording medium
JP2016537099A (en) * 2013-11-20 2016-12-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Dual energy spectrum mammography image processing
JP2016063876A (en) * 2014-09-22 2016-04-28 国立研究開発法人放射線医学総合研究所 Image processing apparatus
CN104464872A (en) * 2014-12-09 2015-03-25 安徽华星电缆集团有限公司 Shielding cable for environment-friendly car and preparing method thereof
JP2020092976A (en) * 2018-12-14 2020-06-18 キヤノン株式会社 Image processing device, image processing method, medical information processing device, medical information processing method, radiographic system, and program
JP7373273B2 (en) 2018-12-14 2023-11-02 キヤノン株式会社 Image processing device, image processing method, medical information processing device, medical information processing method, radiography system and program
JP2020119312A (en) * 2019-01-24 2020-08-06 キヤノンメディカルシステムズ株式会社 Data processing apparatus, data processing method and data processing program
JP7210301B2 (en) 2019-01-24 2023-01-23 キヤノンメディカルシステムズ株式会社 DATA PROCESSING DEVICE, DATA PROCESSING METHOD, AND DATA PROCESSING PROGRAM
WO2020175445A1 (en) * 2019-02-28 2020-09-03 富士フイルム株式会社 Learning method, learning device, generative model and program
JPWO2020175445A1 (en) * 2019-02-28 2021-12-23 富士フイルム株式会社 Learning methods, learning devices, generative models and programs
JP7106741B2 (en) 2019-02-28 2022-07-26 富士フイルム株式会社 Learning method, learning device, generative model and program
US11948349B2 (en) 2019-02-28 2024-04-02 Fujifilm Corporation Learning method, learning device, generative model, and program

Also Published As

Publication number Publication date
JP4913606B2 (en) 2012-04-11

Similar Documents

Publication Publication Date Title
JP4919408B2 (en) Radiation image processing method, apparatus, and program
JP4913606B2 (en) Radiation image processing method, apparatus, and program
JP4895204B2 (en) Image component separation device, method, and program, and normal image generation device, method, and program
EP3751516B1 (en) Autonomous multidimensional segmentation of anatomical structures on three-dimensional medical imaging
US9002134B2 (en) Multi-scale image normalization and enhancement
Nakao et al. Regularized three-dimensional generative adversarial nets for unsupervised metal artifact reduction in head and neck CT images
US7978886B2 (en) System and method for anatomy based reconstruction
EP1248234A2 (en) Method for improving breast cancer diagnosis using mountain-view and contrast-enhancement presentation of mammography
US20100266188A1 (en) Chest x-ray registration, subtraction and display
Gajera et al. CT-scan denoising using a charbonnier loss generative adversarial network
Azevedo-Marques et al. Classification of vertebral compression fractures in magnetic resonance images using spectral and fractal analysis
Patanachai et al. Wavelet transformation for dental X-ray radiographs segmentation technique
US20240177378A1 (en) Systems and Methods for Multi-Kernel Synthesis and Kernel Conversion in Medical Imaging
Fonseca et al. X-ray image enhancement: A technique combination approach
CN109767410A (en) A kind of lung CT and MRI image blending algorithm
Vikhe et al. A wavelet and adaptive threshold-based contrast enhancement of masses in mammograms for visual screening
IDOWU et al. Improved Enhancement Technique for Medical Image Processing
Frosio et al. Real time enhancement of cephalometric radiographies
Lee et al. Framework for dual‐energy‐like chest radiography image synthesis from single‐energy computed tomography based on cycle‐consistent generative adversarial network
Pandey et al. A Framework for Mathematical Methods in Medical Image Processing
EP4336452A1 (en) Computer-implemented method for processing spectral computed tomography (spectral ct) data, computer program and spectral ct system
Mansoor et al. Generic method for intensity standardization of medical images using multiscale curvelet representation
Carlos et al. MRI Knee Image Enhancement using Image Processing
Makwana et al. A comparative analysis of image enhancement techniques for detection of microcalcification in screening mammogram
Naseem Cross-modality guided Image Enhancement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111227

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120119

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4913606

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150127

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250