JP6002324B2 - Radiation image generating apparatus and image processing method - Google Patents

Radiation image generating apparatus and image processing method Download PDF

Info

Publication number
JP6002324B2
JP6002324B2 JP2015525261A JP2015525261A JP6002324B2 JP 6002324 B2 JP6002324 B2 JP 6002324B2 JP 2015525261 A JP2015525261 A JP 2015525261A JP 2015525261 A JP2015525261 A JP 2015525261A JP 6002324 B2 JP6002324 B2 JP 6002324B2
Authority
JP
Japan
Prior art keywords
image
noise reduction
region
similarity
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015525261A
Other languages
Japanese (ja)
Other versions
JPWO2015002247A1 (en
Inventor
健太 高野橋
健太 高野橋
昌宏 荻野
昌宏 荻野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of JP6002324B2 publication Critical patent/JP6002324B2/en
Publication of JPWO2015002247A1 publication Critical patent/JPWO2015002247A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • A61B6/5264Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise due to motion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20182Noise reduction or smoothing in the temporal domain; Spatio-temporal filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Heart & Thoracic Surgery (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明は、放射線透視画像のノイズを低減する技術に関する。   The present invention relates to a technique for reducing noise in a radiographic image.

X線画像診断装置では、透視画像を得る場合、X線が低線量であることに伴って信号成分が微小となり、ノイズが撮影と比べて顕現しやすい。この種のノイズ除去法としては、現画像より1フレーム前の画像に重み付けを行ったものを現画像に加算するリカーシブフィルタ処理を用いられることがある。しかしながら、X線照射野内にガイドワイヤ等の動くものが存在する場合は、このリカーシブフィルタ処理によってガイドワイヤ等の動きがぼけ画像となって現れることがある。   In the X-ray diagnostic imaging apparatus, when a fluoroscopic image is obtained, the signal component becomes minute with the low dose of X-rays, and noise is easily manifested as compared with imaging. As this type of noise removal method, there is a case where recursive filter processing is used in which an image obtained by weighting an image one frame before the current image is added to the current image. However, when there is a moving object such as a guide wire in the X-ray irradiation field, the movement of the guide wire or the like may appear as a blurred image by this recursive filter processing.

当該技術に関して、特許文献1には、「この発明による画像処理装置では、リカーシブフィルタ手段と、現フレームの画像データから画素ごとのリカーシブフィルタ係数をその画素の近傍の平均輝度に応じて制御する手段と、現フレームの画像データを空間フィルタ処理する手段と、現フレームの画像データと前フレームの画像データとの間の関係から求めた画素ごとの動き成分に応じて上記の空間フィルタ処理データを用いる手段とを有する」との技術が開示されている。   With regard to the technology, Patent Document 1 describes, “In the image processing apparatus according to the present invention, recursive filter means and means for controlling the recursive filter coefficient for each pixel from the image data of the current frame according to the average luminance in the vicinity of the pixel. And the means for spatially filtering the image data of the current frame, and using the spatial filter processing data according to the motion component for each pixel obtained from the relationship between the image data of the current frame and the image data of the previous frame. The technology of “having a means” is disclosed.

特開平6−47036号公報JP-A-6-47036

特許文献1に開示の技術では、局所的な動き成分を画素毎に検出して処理に用いている。しかしながら、X線透視画像などの放射線透視画像はノイズが多い。このようなノイズの多い画像については、局所的な動き成分検出は誤検出が生じやすく、リカーシブフィルタと空間フィルタとを適切に使い分けることが容易でなく、十分に所望の効果を得られないという課題があった。   In the technique disclosed in Patent Document 1, a local motion component is detected for each pixel and used for processing. However, radiographic images such as X-ray fluoroscopic images are noisy. For such noisy images, local motion component detection is likely to be erroneously detected, and it is not easy to properly use the recursive filter and the spatial filter, and the desired effect cannot be obtained sufficiently. was there.

上記課題を解決するための一実施の態様は、例えば、放射線を用いて撮像した放射線透視画像について撮像時間の異なる複数の画像を入力し、入力した複数の画像のうち、時間的に先の画像と時間的に後の画像とを用いて動き検出を行なって1枚の画像について1つの動き情報を検出し、時間的に先の画像を動き情報の分だけ位置を変更した画像と時間的に後の画像との差分を局所的な領域毎に算出し、局所的な領域毎の差分に基づいて、時間方向のノイズ低減処理を行う領域と空間方向のノイズ低減処理を行う領域とを決定し、少なくとも時間方向のノイズ低減処理を行い、空間方向のノイズ低減処理を行わない領域、空間方向のノイズ低減処理を行い、時間方向のノイズ低減処理を行わない領域、時間方向のノイズ低減処理と空間方向のノイズ低減処理との両者を行う領域、の3つの領域を設定し、それぞれの領域毎にことなるノイズ低減処理を行うように構成すればよい。   One embodiment for solving the above-described problem is, for example, that a plurality of images having different imaging times are input with respect to a fluoroscopic image captured using radiation, and the temporally preceding image among the plurality of input images. And motion detection using the later image to detect one motion information for one image, and temporally change the position of the previous image by the amount of motion information. The difference from the subsequent image is calculated for each local region, and the region for performing noise reduction processing in the time direction and the region for performing noise reduction processing in the spatial direction are determined based on the difference for each local region. , Perform at least noise reduction processing in the time direction, do not perform spatial noise reduction processing, perform spatial noise reduction processing, do not perform temporal noise reduction processing, temporal noise reduction processing and space Direction Area for both the noise reduction processing, to set the three regions may be configured to perform noise reduction processing different for each region.

本発明によれば、より好適に放射線透視画像のノイズを低減することが可能となる。   According to the present invention, it is possible to more suitably reduce noise in a radiographic image.

第一の実施形態の放射線画像診断装置の一例の構成図である。It is a block diagram of an example of the radiographic image diagnostic apparatus of 1st embodiment. 第一の実施形態に係る画像処理部の処理を説明するブロック図である。It is a block diagram explaining the process of the image process part which concerns on 1st embodiment. 第一の実施形態の類似度ヒストグラム表示の例を説明するための説明図である。It is explanatory drawing for demonstrating the example of the similarity histogram display of 1st embodiment. (a)-(c)は、第一の実施形態の空間方向ノイズ低減処理と時間方向ノイズ低減処理が適用される領域の一例を説明するための説明図である。(A)-(c) is explanatory drawing for demonstrating an example of the area | region where the spatial direction noise reduction process and time direction noise reduction process of 1st embodiment are applied. (a)および(b)は、それぞれ、第一の実施形態の、映像が静止しているとき、映像が運動・変形しているときの類似度ヒストグラムの例を説明するための説明図である。(A) And (b) is explanatory drawing for demonstrating the example of a similarity histogram when an image | video is still and the image | video is moving and deform | transforming, respectively, of 1st embodiment. . 第二の実施形態に係る画像処理部の処理を説明するブロック図である。It is a block diagram explaining the process of the image process part which concerns on 2nd embodiment. 第二の実施形態の第1のLUTの設定例を説明するための説明図である。It is explanatory drawing for demonstrating the example of a setting of the 1st LUT of 2nd embodiment. 第二の実施形態の第2のLUTの設定例を説明するための説明図である。It is explanatory drawing for demonstrating the example of a setting of the 2nd LUT of 2nd embodiment. 第二の実施形態の類似度ヒストグラムとLUTの表示例を説明するための説明図である。It is explanatory drawing for demonstrating the example of a display of a similarity histogram and LUT of 2nd embodiment. (a)−(c)は、第二の実施形態の空間方向ノイズ低減処理と時間方向ノイズ低減処理が適用される領域の一例を説明するための説明図である。(A)-(c) is explanatory drawing for demonstrating an example of the area | region where the spatial direction noise reduction process and time direction noise reduction process of 2nd embodiment are applied. 第一の実施形態の画像処理のフローチャートである。It is a flowchart of the image processing of 1st embodiment.

以下、本発明の実施形態を、図面を用いて説明する。本発明の実施形態に関する放射線画像診断装置(放射線透視画像生成装置、放射線撮像画像生成装置または放射線画像生成装置とも呼ぶ)は、X線以外の放射線を用いるものでも構わないが、以下の各実施形態においては、その一例としてX線画像診断装置を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. The radiographic image diagnostic apparatus (also referred to as a radiographic image generation apparatus, a radiographic image generation apparatus, or a radiographic image generation apparatus) according to an embodiment of the present invention may use radiation other than X-rays. Will be described using an X-ray image diagnostic apparatus as an example.

<<第一の実施形態>>
図1は,本実施形態に係るX線画像診断装置の構成を示す概略図である。
本実施形態に係るX線画像診断装置1は、X線を発生して照射するX線管2と、X線管2と電気的に接続される高電圧発生部4と、高電圧発生部4と電気的に接続されるX線制御部3と、X線管2のX線照射方向に配置される絞り5と、X線補償フィルタ6と、X線補償フィルタ6及び絞り5と電気的に接続される絞り・フィルタ制御部7と、テーブル8と、絞り5及びX線補償フィルタ6及びテーブル8を介在してX線管2と対向配置されるX線平面検出器9と、X線平面検出器9と電気的に接続される画像処理部10と、画像処理部10と電気的に接続される表示出力部11と、テーブル8及びX線平面検出器9と電気的に接続される機構制御部12と、X線制御部3、高電圧発生部4、絞り・フィルタ制御部7、X線平面検出器9、画像処理部10および機構制御部12と電気的に接続される中央処理部13と、を有する。
<< First Embodiment >>
FIG. 1 is a schematic diagram showing the configuration of the X-ray image diagnostic apparatus according to the present embodiment.
The X-ray diagnostic imaging apparatus 1 according to the present embodiment includes an X-ray tube 2 that generates and irradiates X-rays, a high voltage generator 4 that is electrically connected to the X-ray tube 2, and a high voltage generator 4. Are electrically connected to the X-ray controller 3, the diaphragm 5 disposed in the X-ray irradiation direction of the X-ray tube 2, the X-ray compensation filter 6, the X-ray compensation filter 6 and the diaphragm 5. A diaphragm / filter controller 7, a table 8, an X-ray plane detector 9 disposed opposite to the X-ray tube 2 through the diaphragm 5, the X-ray compensation filter 6 and the table 8, and an X-ray plane An image processing unit 10 electrically connected to the detector 9, a display output unit 11 electrically connected to the image processing unit 10, and a mechanism electrically connected to the table 8 and the X-ray flat panel detector 9. Control unit 12, X-ray control unit 3, high voltage generation unit 4, diaphragm / filter control unit 7, X-ray flat panel detector 9, image Having a processing unit 10 and the mechanism control section 12 and the central processing unit 13 which is electrically connected, the.

ここで、高電圧発生部4はX線管2に与える高電圧を発生させる。X線管2は被検体に向けてX線を照射する。X線制御部3は高電圧発生部4を制御し、X線管2から照射されるX線の線質を制御する。絞り5はX線管2で発生したX線が照射される領域を、X線吸収率の高い金属の開閉によって制御する。X線補償フィルタ6は、X線吸収率の高い物質で構成され、被検体のX線吸収率の低い部位に到達するX線を減衰させることで、ハレーションを軽減する。テーブル8は被検体を乗せる寝台である。   Here, the high voltage generator 4 generates a high voltage to be applied to the X-ray tube 2. The X-ray tube 2 irradiates the subject with X-rays. The X-ray controller 3 controls the high voltage generator 4 and controls the quality of X-rays emitted from the X-ray tube 2. The diaphragm 5 controls an area irradiated with X-rays generated by the X-ray tube 2 by opening and closing a metal having a high X-ray absorption rate. The X-ray compensation filter 6 is made of a substance having a high X-ray absorption rate, and reduces halation by attenuating X-rays that reach a portion of the subject having a low X-ray absorption rate. Table 8 is a bed on which a subject is placed.

X線平面検出器9は、X線管2から照射され被検体を透過したX線の強度分布に応じた画像データを出力する。X線平面検出器9は、当該画像データを静止画として生成することも可能である。この場合、X線撮像静止画データとなる。また、時間的に異なるタイミングで撮像した複数の画像データを生成し、動画像として生成することも可能である。この場合、X線撮像動画像データとなる。   The X-ray flat detector 9 outputs image data corresponding to the intensity distribution of X-rays irradiated from the X-ray tube 2 and transmitted through the subject. The X-ray plane detector 9 can also generate the image data as a still image. In this case, X-ray imaging still image data is obtained. It is also possible to generate a plurality of image data captured at different timings and generate a moving image. In this case, X-ray imaging moving image data is obtained.

画像処理部10は、X線平面検出器9から出力された画像データの補正処理を行う。表示出力部11は、補正処理後のX線撮像画像データを表示する。機構制御部12は、テーブル8及びX線平面検出器9を移動して被検体の透視又は撮影に適した位置へ移動するよう制御する。中央処理部13は、前記電気的に接続される構成要素を制御するコンピュータである。   The image processing unit 10 performs a correction process on the image data output from the X-ray plane detector 9. The display output unit 11 displays the X-ray captured image data after the correction process. The mechanism control unit 12 controls the table 8 and the X-ray flat detector 9 to move to a position suitable for fluoroscopy or imaging of the subject. The central processing unit 13 is a computer that controls the electrically connected components.

X線管2、X線制御部3、高電圧発生部4は、被検体に放射線を照射する放射線照射部を構成する。また、X線平面検出器9は、放射線照射部が照射した放射線を検出して放射線画像を生成する検出部を構成する。画像処理部10は、検出部で生成した画像に対して画像処理を行う。   The X-ray tube 2, the X-ray control unit 3, and the high voltage generation unit 4 constitute a radiation irradiation unit that irradiates the subject with radiation. Further, the X-ray flat panel detector 9 constitutes a detection unit that detects radiation irradiated by the radiation irradiation unit and generates a radiation image. The image processing unit 10 performs image processing on the image generated by the detection unit.

本発明におけるノイズ除去処理は、画像処理部10において、中央処理部13が実行するプログラムによって行われる。すなわち、中央処理部13は、CPUとメモリと記憶装置とを備える。そして、中央処理部13の各機能は、CPUが記憶装置に予め記憶されたプログラムを、メモリにロードして実行することにより実現される。なお、全部または一部の機能は、ASIC(Application Specific Integrated Circuit)、FPGA(field−programmable gate array)などのハードウェアによって実現されても、GPU(Graphics Processing Unit)による汎目的計算技術によって実現されてもよい。また、各機能の処理に用いる各種のデータ、処理中に生成される各種のデータは、記憶装置に格納される。   The noise removal processing in the present invention is performed by a program executed by the central processing unit 13 in the image processing unit 10. That is, the central processing unit 13 includes a CPU, a memory, and a storage device. Each function of the central processing unit 13 is realized by the CPU loading a program stored in advance in the storage device into the memory and executing it. All or some of the functions may be realized by hardware such as ASIC (Application Specific Integrated Circuit) or FPGA (field-programmable gate array), but may be realized by GPU (Graphics Processing Unit). May be. Various data used for processing of each function and various data generated during the processing are stored in the storage device.

図2は、画像処理部10で実行されるノイズ除去処理の処理ブロック図である。図2に示すように、前記画像処理部10は、入力画像を記憶するフレームメモリ200と、フレームメモリ200から読みだした、時間的に異なる複数の入力画像を用いて動き検出を行う動き検出部201と、動き検出部201が検出した動き情報でフレームメモリ200にから読みだした複数の画像を動き補正をしつつ局所的な領域ごとに画像間の類似度を算出する類似度算出部202と、類似度算出部202が算出した類似度から第1の領域を決定する第1領域判定部203と、類似度算出部202が算出した類似度から第2の領域を決定する第2領域判定部205と、フレームメモリ200から読みだした複数の入力画像において、第1領域判定部203が決定した第1の領域に対して時間方向のノイズ低減処理を行う時間方向ノイズ低減部204と、時間方向ノイズ低減部204がノイズ低減した画像において、第2領域判定部205が決定した第2の領域に対して空間方向ノイズ低減処理を行う空間方向ノイズ低減部206と、類似度算出部202が算出した類似度のヒストグラムを算出する類似度ヒストグラム算出部207と、を有している。   FIG. 2 is a processing block diagram of noise removal processing executed by the image processing unit 10. As shown in FIG. 2, the image processing unit 10 includes a frame memory 200 that stores input images, and a motion detection unit that performs motion detection using a plurality of temporally different input images read from the frame memory 200. 201 and a similarity calculation unit 202 that calculates a similarity between images for each local region while performing motion correction on a plurality of images read from the frame memory 200 using motion information detected by the motion detection unit 201. The first region determining unit 203 that determines the first region from the similarity calculated by the similarity calculating unit 202 and the second region determining unit that determines the second region from the similarity calculated by the similarity calculating unit 202 205 and time direction noise for performing noise reduction processing in the time direction on the first region determined by the first region determination unit 203 in the plurality of input images read from the frame memory 200 Similar to the spatial noise reduction unit 206 that performs the spatial noise reduction process on the second region determined by the second region determination unit 205 in the image in which the noise reduction unit 204 and the temporal direction noise reduction unit 204 reduce noise. A similarity histogram calculation unit 207 that calculates a histogram of the similarity calculated by the degree calculation unit 202.

フレームメモリ200は、入力画像の各フレームを時間的な前後関係を保持する形態で記憶し、後述する他のブロックからの要求に従い出力する。記憶する入力画像の枚数は、後述する時間方向ノイズ低減部204で利用する画像の枚数分あれば良い。   The frame memory 200 stores each frame of the input image in a form that retains the temporal context, and outputs it according to a request from another block described later. The number of input images to be stored may be as many as the number of images used in the time direction noise reduction unit 204 described later.

動き検出部201は、フレームメモリ200に記憶された複数の画像を入力とし、前記複数の画像を用いて動き検出を行い、一枚につき一つの動き情報を検出し、出力する。すなわち、画像中の大域の動きを検出して、その画像の動き情報として出力する。より具体的には、動き検出部201は、2枚の画像のうち、時間的に後の画像の所定の領域を画素単位などの所定の間隔で移動させながら、画像間のSAD(Sum of Absolute Difference)を算出する。   The motion detection unit 201 receives a plurality of images stored in the frame memory 200, performs motion detection using the plurality of images, detects one motion information per sheet, and outputs it. That is, a global motion in the image is detected and output as motion information of the image. More specifically, the motion detection unit 201 moves a predetermined region of a temporally subsequent image out of the two images at a predetermined interval such as a pixel unit, and performs SAD (Sum of Absolute) between the images. Difference) is calculated.

本処理は、画像中の大域の動きの検出を目的とするため、当該所定の領域は、例えば、画像サイズの50%以上の範囲を対象とすることが望ましい。当該領域は、類似度算出部202の処理の対象となる局所的な領域よりも大きな領域とする。数式(1)は、SADの算出式であり、dは動き方向、Ia及びIbは異なるタイミングで取得した入力画像、ΩはSADの計算範囲の座標の集合、を示す。動き検出部201は大域の動きを検出するため、Ωには画像全体の座標の集合を指定する。Since this process is intended to detect a global movement in the image, it is desirable that the predetermined area is, for example, a range of 50% or more of the image size. The region is assumed to be a region larger than the local region to be processed by the similarity calculation unit 202. Formula (1) is a calculation formula for SAD, where d is the direction of motion, I a and I b are input images acquired at different timings, and Ω is a set of coordinates in the SAD calculation range. Since the motion detection unit 201 detects global motion, a set of coordinates of the entire image is designated for Ω.

Figure 0006002324
Figure 0006002324

ここで、数式(1)で算出されるSADの値が小さいほど、入力画像Ia及びIbは類似していると考えられる。つまり、探索範囲内でSADが最小の方向が、画像Iaを基準とした入力画像IaとIb間の動き方向となる。数式(2)は、入力画像Iaを基準とした入力画像IaとIb間の動き情報Va,bの算出式であり、Ψは探索範囲の座標の集合を示す。探索範囲は、典型的には水平20画素、垂直20画素程度の矩形領域の座標を指定する。ただし、入力画像中に想定される被検体の最大の動きの速度や、数式(1)及び数式(2)を計算する速度を考慮して決めた領域を指定しても良い。Here, it is considered that the input images I a and I b are more similar as the value of SAD calculated by Expression (1) is smaller. In other words, the direction SAD is the smallest within the search range, the motion direction between the input image I a and I b relative to the image I a. Equation (2), the input image I a input image relative to the I a and I b between the motion information V a, a calculation formula of b, [psi denotes the set of coordinates of the search range. The search range typically specifies the coordinates of a rectangular area of about 20 horizontal pixels and 20 vertical pixels. However, an area determined in consideration of the speed of the maximum movement of the subject assumed in the input image and the speed of calculating Formula (1) and Formula (2) may be specified.

Figure 0006002324
Figure 0006002324

類似度算出部202は、フレームメモリ200に記憶された2枚の入力画像と、動き検出部201で算出した動き情報を入力とし、撮像時間の異なる2枚の入力画像のうち、時間的に先の入力画像を当該動き情報の分だけ位置をずらしたのち、局所的な領域ごとに画像間の類似度を算出して出力する。   The similarity calculation unit 202 receives the two input images stored in the frame memory 200 and the motion information calculated by the motion detection unit 201 as input. After the position of the input image is shifted by the amount of the motion information, the similarity between the images is calculated and output for each local region.

より具体的には、各座標で局所領域のSADを計算しこれを類似度とする。よって、類似度は値が小さいほど画像は似ていることになる。数式(3)は、入力画像Ia及びIb間の座標xにおける類似度Sa,bの算出式であり、Ωxは座標xにおける局所領域の座標の集合、Va,bは動き検出部201で算出した画像IaとIbの間の動き情報である。Ωxには、典型的には座標xを中心とした水平7画素、垂直7画素の座標の集合を指定する。ただし、画像中の物体の模様の細かさ、画像のノイズレベル、計算速度などを鑑みて、その範囲や形状を変更しても良い。More specifically, the SAD of the local area is calculated at each coordinate, and this is used as the similarity. Therefore, the smaller the similarity is, the more similar the images are. Formula (3) is a calculation formula for the similarity S a, b at the coordinate x between the input images I a and I b , Ω x is a set of local area coordinates at the coordinate x, and V a, b is motion detection. This is motion information between the images I a and I b calculated by the unit 201. Ω x typically designates a set of coordinates of 7 horizontal pixels and 7 vertical pixels centered on the coordinate x. However, the range and shape may be changed in consideration of the fineness of the pattern of the object in the image, the noise level of the image, the calculation speed, and the like.

Figure 0006002324
Figure 0006002324

第1領域判定部203および第2領域判定部205は、類似度算出部202が算出した類似度に基づいて、入力画像上で、時間方向のノイズ低減処理を行う領域と、空間方向のノイズ低減処理を行う領域とを決定する領域判定を行う領域判定部である。ここでは、入力画像を、(1)時間方向のノイズ低減処理を行い、空間方向のノイズ低減処理を行わない領域、(2)空間方向のノイズ低減処理を行い、時間方向のノイズ低減処理を行わない領域、および、(3)時間方向のノイズ低減処理と空間方向のノイズ低減処理との両者を行う領域の3つの領域のうち、少なくとも2つの領域に分ける。   The first region determination unit 203 and the second region determination unit 205 are based on the similarity calculated by the similarity calculation unit 202, and perform a noise reduction process in the time direction on the input image and a noise reduction in the spatial direction. An area determination unit that performs area determination to determine an area to be processed. Here, (1) an area where noise reduction processing in the time direction is performed and noise reduction processing in the spatial direction is not performed, and (2) noise reduction processing in the spatial direction is performed and noise reduction processing in the time direction is performed on the input image. And (3) at least two of the three areas that perform both the noise reduction process in the time direction and the noise reduction process in the spatial direction.

第1領域判定部203は、類似度算出部202が算出した類似度Sa,bに対して、第1の閾値を用いた閾値処理を行い第1の領域区分を決定する。第1の閾値は、画像のノイズレベルなどを鑑みてあらかじめ設定しておく。数式(4)は、座標xにおける第1の領域区分R1 a,bの算出式であり、Sa,bは類似度、T1は第1の閾値を示す。The first region determination unit 203 performs threshold processing using the first threshold on the similarity S a, b calculated by the similarity calculation unit 202 and determines the first region classification. The first threshold is set in advance in view of the noise level of the image. Formula (4) is a calculation formula for the first region segment R 1 a, b at the coordinate x, where S a, b is the similarity and T 1 is the first threshold value.

Figure 0006002324
Figure 0006002324

第1の領域区分R1 a,bが“1”である座標の集合は、類似度が小さな(画像が似ている)領域を表している。つまり、動き検出部201で検出した動き情報Va,bを用いて入力画像Ia及びIbを動き補償したときに、静止に近い状態の領域である。すなわち、第1の閾値T1は静止状態に近い領域が抽出されるように設定する。A set of coordinates in which the first region segment R 1 a, b is “1” represents a region having a low similarity (images are similar). In other words, this is a region close to a still state when motion compensation is performed on the input images I a and I b using the motion information V a, b detected by the motion detection unit 201. That is, the first threshold T 1 is set so that a region close to a stationary state is extracted.

第2領域判定部205は、類似度算出部202が算出した類似度に対して、第1の閾値を用いた閾値処理を行い第2の領域区分を決定する。第2の閾値は、画像のノイズレベルなどを鑑みてあらかじめ設定しておく。数式(5)は、座標xにおける第2の領域区分R2 a,bの算出式であり、Sa,bは類似度、T2は第2の閾値を示す。The second region determination unit 205 performs threshold processing using the first threshold on the similarity calculated by the similarity calculation unit 202 and determines the second region classification. The second threshold is set in advance in view of the noise level of the image. Formula (5) is a formula for calculating the second region segment R 2 a, b at the coordinate x, where S a, b is the similarity and T 2 is the second threshold value.

Figure 0006002324
Figure 0006002324

第2の領域区分R2 a,bが“1”である座標の集合は、類似度が大きな(画像が似ていない)領域を表している。つまり、動き検出部201で検出した動き情報Va,bを用いて入力画像Ia及びIbを動き補償したときに、運動や変形をしている領域である。すなわち、第2の閾値T2は運動や変形をしている領域が抽出されるように設定する。A set of coordinates in which the second region segment R 2 a, b is “1” represents a region having a high degree of similarity (images are not similar). That is, this is a region where the motion information V a, b detected by the motion detection unit 201 is used for motion or deformation when the input images I a and I b are compensated for motion. That is, the second threshold value T 2 is set so that a region that moves or deforms is extracted.

時間方向ノイズ低減部204および空間方向ノイズ低減部206は、第1領域判定部203および第2領域判定部205の判定結果に従って、各領域にノイズ低減処理を行うノイズ低減処理部である。   The time direction noise reduction unit 204 and the spatial direction noise reduction unit 206 are noise reduction processing units that perform noise reduction processing on each region according to the determination results of the first region determination unit 203 and the second region determination unit 205.

時間方向ノイズ低減部204は、フレームメモリに記憶された複数枚の入力画像と、動き検出部201で算出した動き情報と、第1領域判定部203で決定した第1の領域区分を入力する。入力された複数枚の画像を、動き情報を用いて動き補償しつつ、第1の領域区分が1である領域に対して、入力画像のフレーム間の加重平均を計算することでノイズ低減を行い、ノイズが低減された画像を出力する。   The time direction noise reduction unit 204 inputs a plurality of input images stored in the frame memory, the motion information calculated by the motion detection unit 201, and the first region classification determined by the first region determination unit 203. While performing motion compensation on a plurality of input images using motion information, noise reduction is performed by calculating a weighted average between frames of the input image for a region where the first region segment is 1. Outputs an image with reduced noise.

数式(6)は、座標xにおける時間方向ノイズ低減が行われた画像ITIMEの算出式であり、In(1≦n≦A)が入力画像、cn(1≦n≦A)がフレームごとの重み係数、V1,nが最新のフレームと各フレーム間の動き、R1 1,nが最新のフレームと各フレーム間の類似度、を示す。Formula (6) is a formula for calculating the image I TIME in which the time-direction noise reduction at the coordinate x is performed, where I n (1 ≦ n ≦ A) is the input image and c n (1 ≦ n ≦ A) is the frame. The weight coefficient for each frame, V 1, n indicates the motion between the latest frame and each frame, and R 1 1, n indicates the similarity between the latest frame and each frame.

Figure 0006002324
Figure 0006002324

ここで、入力画像I1からIAが時間的に連続するフレームであれば、動き検出部201で隣接するフレーム間の動き情報V1,2、V2,3、・・・、V(A-1),Aが算出されているとき、V1,nはそれらの累積加算で求められる。数式(7)は、入力画像I1とIn間の動き情報V1,nの算出式である。Here, if the input images I 1 to I A are temporally continuous frames, motion information V 1,2 , V 2,3 ,..., V (A -1) When A is calculated, V 1, n is obtained by accumulating them. Equation (7) is a calculation formula for the motion information V 1, n between the input image I 1 and I n.

Figure 0006002324
Figure 0006002324

また、重み係数cnは総和が1になるように設定しておく。数式(8)は、重み係数cnの制約式である。Also, the weighting coefficient c n is set so that the sum is 1. Equation (8) is a constraint of the weighting coefficients c n.

Figure 0006002324
Figure 0006002324

以上のように、本実施形態に係る時間方向ノイズ低減部204は、入力された複数枚の画像について、動き検出部201で検出した大域の動き情報を用いて動き補償しつつ、入力画像のフレーム間の加重平均によりノイズの低減を図る。よって、動き情報を用いずに時間方向の加重平均を行なう場合に比べてより好適にノイズを低減することが可能となる。   As described above, the time-direction noise reduction unit 204 according to the present embodiment performs frame compensation on the input image while performing motion compensation on the input images using the global motion information detected by the motion detection unit 201. Reduce noise by a weighted average. Therefore, it is possible to reduce noise more suitably than in the case of performing weighted averaging in the time direction without using motion information.

空間方向ノイズ低減部206は、時間方向ノイズ低減部204で第1の領域区分が1である領域に対して時間方向ノイズ除去が行われた画像と、第2領域判定部205で決定した第2の領域区分を入力として、入力された画像における第2の領域区分が1である領域に対して、空間方向のノイズ低減を行い、ノイズが低減された画像を出力する。   The spatial direction noise reduction unit 206 includes an image obtained by performing temporal direction noise removal on the region in which the first region division is 1 by the time direction noise reduction unit 204 and the second region determination unit 205 determines the second region. Is input to the region where the second region segment is 1 in the input image, noise in the spatial direction is reduced, and an image with reduced noise is output.

空間方向のノイズ低減法としては、時間方向のノイズ低減処理で発生する可能性がある物体の運動に起因するぼやけが発生しにくい手法を採用する。すなわち入力された1枚の画像だけを用いてノイズ除去する手法を用いると、原理的にこのぼやけは発生しない。例えば、ガウシアンフィルタ、バイラテラルフィルタ、ノンローカルミーン、ウェーブレット縮退などの手法が好適である。ただし、物体の運動に起因するぼやけに強いノイズ低減手法であれば、複数フレームを利用するなど、その他の手法を用いても構わない。   As the noise reduction method in the spatial direction, a method is employed in which blurring due to the motion of an object that may occur in the noise reduction processing in the time direction is less likely to occur. That is, if a method of removing noise using only one input image is used, this blur does not occur in principle. For example, methods such as a Gaussian filter, a bilateral filter, a non-local means, and a wavelet degeneration are suitable. However, other methods such as using a plurality of frames may be used as long as the noise reduction method is resistant to blur caused by the motion of an object.

以下一例として、ガウシアンフィルタを用いて空間方向のノイズ低減をする例を説明する。空間方向のノイズ低減は、時間方向のノイズ低減処理が行われた画像における第2の領域区分が1である領域に対して適用する。数式(9)は、座標xにおける、空間方向ノイズ低減が行われた画像ISPACEを生成する算出式であり、ITIMEは時間方向のノイズ除去が行われた画像、R2 1,2は入力画像I1とI2間の第2の領域区分、αはガウシアンカーネルの大きさ(ノイズ除去の強さを制御するパラメータ)、Σはガウシアンカーネルが適用される範囲の座標の集合、を示す。ガウシアンカーネルの大きさαおよびガウシアンカーネルの適用範囲Σは、画像のノイズレベルや、数式(9)の計算速度を鑑みて決定する。As an example, an example in which noise in the spatial direction is reduced using a Gaussian filter will be described below. The noise reduction in the spatial direction is applied to an area where the second area division is 1 in the image subjected to the noise reduction process in the time direction. Formula (9) is a calculation formula for generating an image I SPACE in which the noise in the spatial direction is reduced at the coordinate x, I TIME is an image from which noise in the time direction has been removed, and R 2 1 and 2 are input. A second region segment between the images I 1 and I 2 , α is the size of the Gaussian kernel (a parameter for controlling the strength of noise removal), and Σ is a set of coordinates in a range to which the Gaussian kernel is applied. The Gaussian kernel size α and the Gaussian kernel application range Σ are determined in view of the noise level of the image and the calculation speed of Equation (9).

Figure 0006002324
Figure 0006002324

類似度ヒストグラム算出部207は、類似度算出部202で算出された類似度の度数分布を計算し、類似度ヒストグラムとして出力する。ヒストグラムのビンの数は、入力画像の階調数程度にする。ただし、後述するヒストグラムウィンドウのサイズ(ピクセル数)や、第1(第2)の閾値の設定精度を鑑みて変えて良い。   The similarity histogram calculation unit 207 calculates the frequency distribution of the similarity calculated by the similarity calculation unit 202 and outputs it as a similarity histogram. The number of histogram bins is about the number of gradations of the input image. However, it may be changed in view of the size (number of pixels) of a histogram window, which will be described later, and the setting accuracy of the first (second) threshold value.

表示出力部11は、ノイズ除去された画像の他に、類似度ヒストグラムと第1の閾値あるいは第2の閾値を可視化して表示する。   The display output unit 11 visualizes and displays the similarity histogram and the first threshold value or the second threshold value in addition to the image from which noise has been removed.

図3は、類似度ヒストグラムを可視化したときの表示例である。   FIG. 3 is a display example when the similarity histogram is visualized.

ウィンドウ300の中に、類似度ヒストグラムを表現した棒グラフ301の上に、第1の閾値あるいは第2の閾値を表現した縦線302を重畳させて配置する。   In the window 300, a vertical line 302 representing the first threshold value or the second threshold value is superimposed on the bar graph 301 representing the similarity histogram.

棒グラフ301は、横軸が類似度、縦軸を度数として類似度ヒストグラムを表現する。縦線302は、棒グラフ301の横軸(類似度)の位置に合わせて第1(第2)の閾値を表現する。   The bar graph 301 represents a similarity histogram with the horizontal axis representing similarity and the vertical axis representing frequency. A vertical line 302 represents the first (second) threshold value in accordance with the position of the horizontal axis (similarity) of the bar graph 301.

以上の構成により、本実施形態の画像処理部10は、検出部で生成した画像に、第1の閾値と第2の閾値の調整により、(1)時間方向のノイズ低減処理を行い、空間方向のノイズ低減処理を行わない領域、(2)空間方向のノイズ低減処理を行い、時間方向のノイズ低減処理を行わない領域、(3)時間方向のノイズ低減処理と空間方向のノイズ低減処理の両者を行う領域の3つの領域を設定することが可能となる。   With the above configuration, the image processing unit 10 of the present embodiment performs (1) noise reduction processing in the time direction on the image generated by the detection unit by adjusting the first threshold value and the second threshold value, and the spatial direction (2) Area where noise reduction processing in the spatial direction is performed and noise reduction processing in the time direction is not performed, (3) Both noise reduction processing in the time direction and noise reduction processing in the spatial direction It is possible to set three areas for performing.

図4(a)−図4(c)は、第1の領域区分及び第2の領域区分と、時間方向ノイズ除去及び空間方向ノイズ除去が適用される領域を示した模式図である。例えば、図示するように、第1の領域区分400として、中央付近が“0”それ以外が“1”、第2の領域区分401として、中央付近が“1”それ以外が“0”と検出されたものとする。   FIG. 4A to FIG. 4C are schematic diagrams illustrating the first region segment and the second region segment, and regions to which temporal direction noise removal and spatial direction noise removal are applied. For example, as shown in the figure, the first area segment 400 is detected as “0” near the center and “1”, and the second area segment 401 is detected as “1” near the center and “0” elsewhere. It shall be assumed.

このとき、各ノイズ低減処理が適用される範囲402は以下のとおりとなる。第1の領域区分400の“0”と検出された領域と第2の領域区分401の“1”と検出された領域とが重なった領域411は、空間方向ノイズ低減処理が適用され、時間方向ノイズ低減処理が適用されない。第1の領域区分400の“1”と検出された領域と第2の領域区分401の“0”と検出された領域とが重なった領域413は、時間方向ノイズ低減が適用され、空間方向ノイズ低減処理が適用されない。第1の領域区分400の“1”と検出された領域と第2の領域区分401の“1”と検出された領域とが重なった領域412は、時間方向ノイズ低減処理及び空間方向ノイズ低減処理が適用される。   At this time, the range 402 to which each noise reduction process is applied is as follows. The area 411 in which the area detected as “0” in the first area section 400 and the area detected as “1” in the second area section 401 overlap is applied with the spatial noise reduction processing, and the time direction Noise reduction processing is not applied. In the region 413 where the region detected as “1” in the first region segment 400 and the region detected as “0” in the second region segment 401 overlap, temporal direction noise reduction is applied, and spatial direction noise is applied. Reduction processing is not applied. A region 412 in which the region detected as “1” in the first region segment 400 and the region detected as “1” in the second region segment 401 overlap is a time direction noise reduction process and a spatial direction noise reduction process. Applies.

すなわち、本実施形態に係る処理では、時間方向のノイズ低減が効果的な領域(静止している領域など)や、空間方向のノイズ低減が効果的な領域(運動、あるいは変形している領域など)や、時間・空間両方のノイズ低減を適用することが効果的な領域(わずかに変形している領域など)を、第1の閾値及び第2の閾値により選択することで、適切に定めることができ、それぞれの領域に適切なノイズ低減処理を適用することが可能となる。   That is, in the processing according to the present embodiment, a region where noise reduction in the time direction is effective (such as a stationary region) or a region where noise reduction in the spatial direction is effective (such as a region that is moving or deforming). ) And areas where it is effective to apply both temporal and spatial noise reduction (such as areas that are slightly deformed) are selected appropriately by the first threshold and the second threshold. Therefore, it is possible to apply an appropriate noise reduction process to each region.

また、第1の閾値および第2の閾値の設定を、より視覚的に分かりやすく行えるように構成してもよい。図5(a)および図5(b)はこの場合の設定の様子を図示したものであり、X線画像診断装置1の表示出力部11に出力する設定画面の一部(ウィンドウ)である。当該設定画面は、X線撮像画像の表示に重畳してもよく、並べて表示してもよい。また、X線撮像画像を表示せず単独で表示しても良い。   Further, the first threshold value and the second threshold value may be set so as to be more visually understandable. FIG. 5A and FIG. 5B illustrate a setting state in this case, and are a part (window) of a setting screen output to the display output unit 11 of the X-ray image diagnostic apparatus 1. The setting screen may be superimposed on the display of the X-ray captured image, or may be displayed side by side. Alternatively, the X-ray captured image may be displayed alone without being displayed.

例えば、ウィンドウ500は静止した映像を入力した場合のヒストグラムの例である。このとき、類似度ヒストグラム501は、類似度が小さな領域に集中した型になることが期待される。この山は映像に含まれるノイズ成分を表す。静止した映像で、かつノイズが乗っていなければ、類似度はすべてゼロである。すなわち、時間方向ノイズリダクションをこの山に適用すれば、効果的にノイズが除去できる。そこで、X線画像診断装置1の設定を行なうユーザは、ウィンドウ500を目視しつつ、第1の閾値502をこの山の右端付近に設定すれば良い。   For example, the window 500 is an example of a histogram when a still image is input. At this time, the similarity histogram 501 is expected to be a type in which the similarity is concentrated in a small area. This mountain represents a noise component included in the video. If the image is stationary and no noise is present, all the similarities are zero. In other words, if time direction noise reduction is applied to this mountain, noise can be effectively removed. Therefore, the user who sets the X-ray image diagnostic apparatus 1 may set the first threshold 502 near the right end of the mountain while viewing the window 500.

この場合、本実施形態のX線画像診断装置1は、図1に示すように操作入力部14をさらに備える。そして、当該設定は、この操作入力部14などを介して行なう。すなわち、本実施形態のX線画像診断装置1では、表示出力部11から上記ヒストグラムを提示しながら、ユーザからの画像処理部10の処理の設定変更を入力可能とするものである。   In this case, the X-ray image diagnostic apparatus 1 of the present embodiment further includes an operation input unit 14 as shown in FIG. The setting is performed via the operation input unit 14 and the like. That is, in the X-ray image diagnostic apparatus 1 according to the present embodiment, the setting change of the process of the image processing unit 10 from the user can be input while presenting the histogram from the display output unit 11.

また、ウィンドウ510は、運動・変形している映像を入力した場合のヒストグラムの例である。類似度ヒストグラム511は、類似度が大きな領域にも集中することが期待される。この山は、映像が運動・変形しているため類似度が大きくなってしまった領域を示している。すなわち、空間方向ノイズリダクションをこの山に適用すれば、効果的にノイズが除去できる。そこで、ユーザはウィンドウ510を目視しつつ、第2の閾値512をこの山の左端付近に設定すれば良い。   A window 510 is an example of a histogram when a moving / deforming video is input. The similarity histogram 511 is expected to be concentrated even in a region where the similarity is large. This mountain indicates a region where the similarity has increased due to the movement and deformation of the image. In other words, if spatial noise reduction is applied to this mountain, noise can be effectively removed. Therefore, the user may set the second threshold 512 near the left end of the mountain while viewing the window 510.

以上説明したように、本実施形態の放射線画像診断装置1は、放射線を照射する放射線照射部と、前記放射線照射部が照射した放射線を検出して、画像を生成する検出部と、前記検出部で生成した前記画像に対して画像処理を行う画像処理部10と、を備え、前記画像処理部10は、前記検出部で生成した撮像時間の異なる複数の画像のうち、時間的に先の画像と時間的に後の画像とを用いて動き検出を行なって、1枚の画像について1つの動き情報を検出する動き検出部201と、前記時間的に先の画像を前記動き情報の分だけ位置を変更した画像と前記時間的に後の画像との差分を、局所的な領域毎に類似度として算出する類似度算出部202と、前記類似度に基づいて、前記画像上で、時間方向のノイズ低減処理を行う領域と、空間方向のノイズ低減処理を行う領域とを決定する領域判定を行う領域判定部と、前記領域判定部の前記領域判定結果に従って、各領域に前記ノイズ低減処理を行うノイズ低減処理部と、を備える。
そして、前記領域判定部は、前記類似度について閾値処理を行うにより、時間方向のノイズ低減処理を行う領域と空間方向のノイズ低減処理を行う領域とを決定する。
前記時間方向のノイズ低減処理を行う領域と、前記空間方向のノイズ低減処理を行う領域とは、一部または全部が重複してもよい。
As described above, the radiological image diagnostic apparatus 1 according to the present embodiment includes a radiation irradiation unit that irradiates radiation, a detection unit that detects radiation irradiated by the radiation irradiation unit, and generates an image, and the detection unit. An image processing unit 10 that performs image processing on the image generated in Step 1, wherein the image processing unit 10 is a temporally previous image among a plurality of images generated by the detection unit and having different imaging times. And a motion detection unit 201 that detects one piece of motion information for one image by performing motion detection using a temporally subsequent image and the temporally previous image by the amount of the motion information. A similarity calculation unit 202 that calculates the difference between the image that has been changed and the temporally subsequent image as a similarity for each local region, and on the image based on the similarity, the time direction Noise reduction processing area and spatial direction Of comprising a region determination unit that performs area determination for determining an area to perform noise reduction processing according to the region determination result of the area determination unit, and a noise reduction unit which performs the noise reduction process to each region.
The region determination unit determines a region for performing noise reduction processing in the time direction and a region for performing noise reduction processing in the spatial direction by performing threshold processing on the similarity.
The area for performing the noise reduction process in the time direction and the area for performing the noise reduction process in the spatial direction may partially or entirely overlap.

以上説明した、本実施形態の放射線画像診断装置1およびその画像処理方法によれば、時間方向のノイズ低減処理と、空間方向のノイズ低減処理とのそれぞれ、またはこれら両者を行う領域を、より好適に選択することが可能となり、より好適にノイズの低減とボケ発生の抑制を両立することができる。これにより、より好適な放射線透視画像のノイズの低減が実現できる。   According to the radiological image diagnostic apparatus 1 and the image processing method thereof according to the present embodiment described above, it is more preferable to use the time direction noise reduction process and the spatial direction noise reduction process, or a region in which both are performed. Therefore, it is possible to achieve both noise reduction and suppression of blurring more suitably. Thereby, it is possible to realize a more preferable noise reduction of the radiographic image.

なお、以上説明した第一の実施形態では、ノイズ低減処理を行う前段の処理において、大域の動きの検出により大域の動き情報を1つのみ検出した。しかしながら、本実施形態は、放射線画像診断装置1が、上述の処理の前後に、局所的な動きの検出を行なった処理を行うことを妨げるものではない。また、本実施形態は、放射線画像診断装置1が、局所的な動きの検出を用いた別のノイズ低減処理を行うモードを有することを妨げるものではない。   In the first embodiment described above, only one piece of global motion information is detected by detecting the global motion in the previous stage of performing the noise reduction processing. However, this embodiment does not prevent the radiological image diagnostic apparatus 1 from performing a process in which a local motion is detected before and after the above-described process. In addition, the present embodiment does not prevent the radiological image diagnosis apparatus 1 from having a mode for performing another noise reduction process using local motion detection.

<<第二の実施形態>>
本実施形態のX線画像診断装置は、基本的に第一の実施形態のX線画像診断装置1と同様の構成を有する。ただし、画像処理部10の処理が異なる。以下、本実施形態について、第一の実施形態と異なる構成に主眼をおいて説明する。
<< Second Embodiment >>
The X-ray image diagnostic apparatus of the present embodiment has basically the same configuration as the X-ray image diagnostic apparatus 1 of the first embodiment. However, the processing of the image processing unit 10 is different. Hereinafter, the present embodiment will be described focusing on the configuration different from the first embodiment.

図6は、第二の実施形態における画像処理部10を示す処理ブロック図の例である。第二の実施形態における画像処理部10では、第1領域および第2領域の領域判定において、類似度算出部202が算出した類似度に対して、LUT(Look Up Table)を用いた変換処理を行う。LUTは、予め画像処理部10の第1領域判定部600または第2領域判定部601のそれぞれが記憶しておいてもよく、画像処理部10内の図示しない記憶部に記憶しておいてもよい。   FIG. 6 is an example of a processing block diagram illustrating the image processing unit 10 according to the second embodiment. The image processing unit 10 according to the second embodiment performs conversion processing using a LUT (Look Up Table) on the similarity calculated by the similarity calculation unit 202 in the region determination of the first region and the second region. Do. The LUT may be stored in advance by each of the first region determination unit 600 or the second region determination unit 601 of the image processing unit 10 or may be stored in a storage unit (not shown) in the image processing unit 10. Good.

図6の画像処理部10のうち、既に説明した図2に示された同一の符号を付された構成と、同一の機能を有する部分については、説明を省略する。第1領域判定部600は、類似度算出部202が算出した類似度に対して、第1のLUTを用いた変換を行い第1の領域を決定する。第1のLUTは、画像のノイズレベルなどを鑑みてあらかじめ設定しておく。数式(10)は、座標xにおける第1の領域R1 a,bの算出式であり、Sa,bは類似度、L1は第1のLUTによる変換を示す。In the image processing unit 10 in FIG. 6, the description of the components having the same functions as those in FIG. The first region determination unit 600 performs conversion using the first LUT on the similarity calculated by the similarity calculation unit 202 and determines the first region. The first LUT is set in advance in view of the noise level of the image. Formula (10) is a calculation formula for the first region R 1 a, b at the coordinate x, S a, b is the similarity, and L 1 is the conversion by the first LUT.

Figure 0006002324
Figure 0006002324

第一の実施形態では、第1の領域R1 a,bは2値をとるが、本実施形態では0から1までの多値(実数)をとる。第1のLUTは、全体として傾きが負の形状を指定する。図7は第1のLUTの一例である。LUTの設定方法は任意であり、一般的なLUTの設定に用いられるn点指定による折れ線近似でも構わない。In the first embodiment, the first region R 1 a, b takes a binary value, but in this embodiment takes a multi-value (a real number) from 0 to 1. The first LUT specifies a shape having a negative slope as a whole. FIG. 7 is an example of the first LUT. The LUT setting method is arbitrary, and it may be a polygonal line approximation by n-point designation used for general LUT setting.

より簡便に設定するのであればシグモイド関数を用いてLUT形状を作成すると良い。数式(11)は、第1のLUTであるL1の形状を示す式であり、xはLUTの入力値、β1及びβ2はLUTの形状を制御するパラメータである。If it is set more simply, it is preferable to create an LUT shape using a sigmoid function. Expression (11) is an expression indicating the shape of L 1 which is the first LUT, x is an input value of the LUT, and β 1 and β 2 are parameters for controlling the shape of the LUT.

Figure 0006002324
Figure 0006002324

第2領域判定部601は、類似度算出部202が算出した類似度に対して、第2のLUT(Look Up Table)を用いた変換を行い第2の領域を決定する。第2のLUTは、画像のノイズレベルなどを鑑みてあらかじめ設定しておく。数式(12)は、座標xにおける第2の領域R2 a,bの算出式であり、Sa,bは類似度、L2は第2のLUTによる変換を示す。The second area determination unit 601 performs conversion using a second LUT (Look Up Table) on the similarity calculated by the similarity calculation unit 202 to determine a second area. The second LUT is set in advance in consideration of the noise level of the image. Formula (12) is a calculation formula for the second region R 2 a, b at the coordinate x, S a, b is the similarity, and L 2 is the conversion by the second LUT.

Figure 0006002324
Figure 0006002324

第一の実施形態では、第2の領域R2 a,bは2値をとるが、本実施形態では0から1までの多値(実数)をとる。第2のLUTは、全体として傾きが正の形状を指定する。図8は第2のLUTの一例である。LUTの設定方法は任意であり、一般的なLUTの設定に用いられるn点指定による折れ線近似でも構わない。In the first embodiment, the second region R 2 a, b takes a binary value, but in the present embodiment takes a multivalue (real number) from 0 to 1. The second LUT designates a shape having a positive slope as a whole. FIG. 8 is an example of the second LUT. The LUT setting method is arbitrary, and it may be a polygonal line approximation by n-point designation used for general LUT setting.

より簡便に設定するのであればシグモイド関数を用いてLUT形状を作成すると良い。数式(13)は、第2のLUTであるL2の形状を示す式であり、xはLUTの入力値、β1及びβ2はLUTの形状を制御するパラメータである。If it is set more simply, it is preferable to create an LUT shape using a sigmoid function. Expression (13) is an expression showing the shape of L 2 as the second LUT, x is an input value of the LUT, and β 1 and β 2 are parameters for controlling the shape of the LUT.

Figure 0006002324
Figure 0006002324

表示出力部11は、ノイズ除去された画像の表示を行う。この表示に替えて、または加えて、類似度ヒストグラムと第1のLUTあるいは第2のLUTを可視化して表示してもよい。   The display output unit 11 displays an image from which noise has been removed. Instead of or in addition to this display, the similarity histogram and the first LUT or the second LUT may be visualized and displayed.

図9は、類似度ヒストグラムと第1のLUTを可視化したときの表示例である。   FIG. 9 is a display example when the similarity histogram and the first LUT are visualized.

ウィンドウ900の中に、類似度ヒストグラムを表現した棒グラフ901と、第1のLUTあるいは第2のLUTを表現した曲線902を配置する。
以上のように、LUTを用いることにより、類似度に基づいて、第1の領域区分および第2の領域区分をより細かく表現することが可能となる。本実施形態での第1の領域区分および第2の領域区分の一例を図10(a)−図10(c)に示す。
In the window 900, a bar graph 901 expressing a similarity histogram and a curve 902 expressing the first LUT or the second LUT are arranged.
As described above, by using the LUT, the first area section and the second area section can be expressed more finely based on the similarity. An example of the first area section and the second area section in the present embodiment is shown in FIGS. 10 (a) to 10 (c).

図10(a)−図10(c)は、第1の領域区分及び第2の領域区分と、時間方向ノイズ除去及び空間方向ノイズ除去が適用される領域を示した模式図である。例えば、図示するように、第1の領域区分1000は、中央付近が“0”それ以外が“1”、第2の領域区分1001は、中央付近が“1”それ以外が“0”と検出されたものとする。   FIG. 10A to FIG. 10C are schematic diagrams illustrating the first region segment and the second region segment, and regions to which temporal direction noise removal and spatial direction noise removal are applied. For example, as shown in the figure, the first area section 1000 detects “0” in the vicinity of the center and “1” in other areas, and the second area section 1001 detects “1” in the vicinity of the center and “0” in other areas. It shall be assumed.

このとき、各ノイズ低減処理が適用される範囲1002は以下のとおりとなる。第1の領域区分1000の“0”と検出された領域と第2の領域区分1001の“1”と検出された領域とが重なった領域1011は、空間方向ノイズ低減処理が適用され、時間方向ノイズ低減処理が適用されない。第1の領域区分1000の“1”と検出された領域と第2の領域区分1001の“0”と検出された領域とが重なった領域1013は、時間方向ノイズ低減が適用され、空間方向ノイズ低減処理が適用されない。第1の領域区分1000の“1”と検出された領域と第2の領域区分1001の“1”と検出された領域とが重なった領域1012は、時間方向ノイズ低減処理及び空間方向ノイズ低減処理が適用される。また、第1の領域区分1000の“0”と検出された領域と第2の領域区分1001の“0”と検出された領域とが重なった領域1014はノイズ低減が行われない。   At this time, the range 1002 to which each noise reduction process is applied is as follows. The area 1011 in which the area detected as “0” in the first area section 1000 and the area detected as “1” in the second area section 1001 are overlapped, the spatial direction noise reduction processing is applied, and the time direction Noise reduction processing is not applied. The area 1013 in which the area detected as “1” in the first area section 1000 and the area detected as “0” in the second area section 1001 overlap is applied with time direction noise reduction, and spatial direction noise is applied. Reduction processing is not applied. A region 1012 in which a region detected as “1” in the first region segment 1000 and a region detected as “1” in the second region segment 1001 overlap is a time direction noise reduction process and a spatial direction noise reduction process. Applies. In addition, noise reduction is not performed in a region 1014 in which the region detected as “0” in the first region segment 1000 and the region detected as “0” in the second region segment 1001 overlap.

図10(a)−図10(c)で示した例のように、本実施形態の処理では、第1の領域区分および第2の領域区分を第一の実施形態よりも細かく設定することが可能となり、例えば、(1)時間方向のノイズ低減処理を行い、空間方向のノイズ低減処理を行わない領域、(2)空間方向のノイズ低減処理を行い、空間方向のノイズ低減処理を行わない領域、(3)時間方向のノイズ低減処理と空間方向のノイズ低減処理の両者を行う領域、(4)時間方向のノイズ低減処理と空間方向のノイズ低減処理の両者を行なわない領域の4つの領域を設定することが可能となる。   As in the example shown in FIGS. 10A to 10C, in the processing of this embodiment, the first area section and the second area section may be set more finely than in the first embodiment. For example, (1) a region where noise reduction processing in the time direction is performed and noise reduction processing in the spatial direction is not performed, and (2) a region where noise reduction processing in the spatial direction is performed and noise reduction processing in the spatial direction is not performed , (3) four areas: a region where both noise reduction processing in the time direction and noise reduction processing in the spatial direction are performed, and (4) a region where both noise reduction processing in the time direction and noise reduction processing in the spatial direction are not performed It becomes possible to set.

以上説明したように、本実施形態の放射線画像診断装置1は、第一の実施形態同様、放射線照射部と、検出部と、画像処理部10と、を備える。前記領域判定部は、前記類似度について、予め前記放射線画像生成装置1が記憶しているルックアップテーブルを用いることにより、時間方向のノイズ低減処理を行う領域と空間方向のノイズ低減処理を行う領域とを決定する。
前記時間方向のノイズ低減処理を行う領域と、前記空間方向のノイズ低減処理を行う領域とは、一部または全部が重複してもよい。
As described above, the radiation image diagnostic apparatus 1 according to the present embodiment includes the radiation irradiation unit, the detection unit, and the image processing unit 10 as in the first embodiment. The region determination unit uses a lookup table stored in advance in the radiation image generation device 1 for the similarity, so that a region for performing noise reduction processing in the time direction and a region for performing noise reduction processing in the spatial direction are used. And decide.
The area for performing the noise reduction process in the time direction and the area for performing the noise reduction process in the spatial direction may partially or entirely overlap.

以上の構成により、第1の領域および第2の領域が多値で表現されるようになり、かつその値を第1のLUTおよび第2のLUTにより細かく調整できる。よって、時間方向ノイズ低減及び空間方向ノイズ低減が適用される範囲および強さをそれぞれ独立に設定することで、よりX線透視画像のノイズを効果的に低減することができるようになる。   With the above configuration, the first area and the second area are expressed in multiple values, and the values can be finely adjusted by the first LUT and the second LUT. Therefore, by setting the range and intensity to which the time direction noise reduction and the spatial direction noise reduction are applied independently, it becomes possible to more effectively reduce the noise of the fluoroscopic image.

また、第一の実施形態で説明したように、第1の閾値および第2の閾値は類似度ヒストグラムを観察しながら設定するのが適切である。第1のLUTおよび第2のLUTも、類似度ヒストグラムに重畳することで、ユーザは各LUTの形状を視覚的に変更することでき、画像に対して適切なノイズ低減処理を選択することが可能となる。   Further, as described in the first embodiment, it is appropriate to set the first threshold value and the second threshold value while observing the similarity histogram. By superimposing the first LUT and the second LUT on the similarity histogram, the user can visually change the shape of each LUT, and can select an appropriate noise reduction process for the image. It becomes.

最後に、上記各実施形態の、画像処理部10による画像処理の流れを説明する。図11は、上記各実施形態の画像処理の処理フローである。ここでは、第一の実施形態の構成を例にあげて説明する。   Finally, the flow of image processing by the image processing unit 10 in each of the above embodiments will be described. FIG. 11 is a processing flow of image processing of each of the above embodiments. Here, the configuration of the first embodiment will be described as an example.

画像処理部10は、放射線を用いて撮像した画像について、撮像時間の異なる複数の画像の入力を受け付ける(ステップS1101)。   The image processing unit 10 receives an input of a plurality of images having different imaging times for an image captured using radiation (step S1101).

動き検出部201は、画像処理部10が受け付けた複数の画像のうち、時間的に先の画像と時間的に後の画像とを用いて動き検出を行なって、1枚の画像について1つの動き情報を検出する(ステップS1102)。   The motion detection unit 201 performs motion detection using a temporally preceding image and a temporally subsequent image among a plurality of images received by the image processing unit 10, and performs one motion for one image. Information is detected (step S1102).

類似度算出部202は、時間的に先の画像を前記動き情報の分だけ位置を変更した画像と時間的に後の画像との差分を、局所的な領域毎に類似度として算出する(ステップS1103)。   The similarity calculation unit 202 calculates the difference between the temporally previous image whose position is changed by the amount of the motion information and the temporally subsequent image as the similarity for each local region (step). S1103).

第1領域判定部203および第2領域判定部205は、前記類似度に基づいて、撮像した画像の、第1の領域および第2の領域を決定する(ステップS1104)。そして、第1の領域および第2の領域との情報を用い、入力画像を、(1)時間方向のノイズ低減処理を行い、空間方向のノイズ低減処理を行わない領域、(2)空間方向のノイズ低減処理を行い、時間方向のノイズ低減処理を行わない領域、(3)時間方向のノイズ低減処理と空間方向のノイズ低減処理との両者を行う領域の3つの領域の内、少なくとも2つの領域に分ける(ステップS1105)。   The first region determination unit 203 and the second region determination unit 205 determine the first region and the second region of the captured image based on the similarity (step S1104). Then, using the information on the first region and the second region, the input image is subjected to (1) a noise reduction process in the time direction and no noise reduction process in the spatial direction, and (2) a spatial direction. At least two of the three areas: the area that performs noise reduction processing and does not perform noise reduction processing in the time direction, and (3) the area that performs both noise reduction processing in the time direction and noise reduction processing in the spatial direction. (Step S1105).

具体的には、領域判定部は、図4(a)−図4(c)に示すように、類似度が小さいと判定された第1の領域については、時間方向ノイズ低減処理を適用する領域と判定する。また、類似度が大きいと判定された第2の領域については、空間方向ノイズ低減処理を適用する。第1と第2の領域いずれにも判定された領域については、時間方向ノイズ低減処理および空間方向ノイズ低減処理の両方を適用する領域と判定される。   Specifically, as illustrated in FIGS. 4A to 4C, the region determination unit applies a time direction noise reduction process to the first region determined to have a low similarity. Is determined. In addition, the spatial direction noise reduction process is applied to the second region determined to have a high degree of similarity. A region determined as both the first and second regions is determined as a region to which both the time direction noise reduction processing and the spatial direction noise reduction processing are applied.

そして、時間方向ノイズ低減部204および空間方向ノイズ低減部206は、第1領域判定部203および第2領域判定部205の判定に従って、各領域にノイズ低減処理を行う(ステップS1106)。   Then, the time direction noise reduction unit 204 and the spatial direction noise reduction unit 206 perform noise reduction processing on each region according to the determinations of the first region determination unit 203 and the second region determination unit 205 (step S1106).

ここでは、まず、時間方向ノイズ低減部204が、入力画像に対して第1の領域に時間方向ノイズ低減処理を行い、その後、空間方向ノイズ低減部206が、処理後の画像の第2の領域に対し、空間方向ノイズ低減処理を行う。   Here, first, the time direction noise reduction unit 204 performs the time direction noise reduction processing on the first region with respect to the input image, and then the space direction noise reduction unit 206 performs the second region of the processed image. On the other hand, a spatial noise reduction process is performed.

なお、第二の実施形態の画像処理の流れも基本的に同様である。ただし、第1領域判定部600および第2領域判定部601は、ステップS1104で第1の領域および第2の領域を決定後、入力画像を、(1)時間方向のノイズ低減処理を行い、空間方向のノイズ低減処理を行わない領域、(2)空間方向のノイズ低減処理を行い、時間方向のノイズ低減処理を行わない領域、(3)時間方向のノイズ低減処理と空間方向のノイズ低減処理との両者を行う領域、および、(4)時間方向のノイズ低減処理と空間方向のノイズ低減処理との両者を行なわない領域、の4つの領域に分ける。   Note that the image processing flow of the second embodiment is basically the same. However, after determining the first region and the second region in step S1104, the first region determination unit 600 and the second region determination unit 601 perform (1) time-direction noise reduction processing on the input image to determine the space. An area where noise reduction processing in the direction is not performed, (2) An area where noise reduction processing in the spatial direction is performed and noise reduction processing in the time direction is not performed, and (3) Noise reduction processing in the time direction and noise reduction processing in the spatial direction Are divided into four areas, and (4) an area where both the noise reduction process in the time direction and the noise reduction process in the spatial direction are not performed.

なお、2枚以上の静止画を撮影し、上記実施形態1または実施形態2に記載の手法を用いて静止画のノイズを低減することも可能である。一般に、静止画を撮影する場合は、ノイズが少ない画像を得るために高いX線量で曝射するため、被曝量が多くなる。上記各実施形態の手法によれば、より低線量の曝射によって2枚以上の静止画を撮影することで、高線量で1枚撮影したときよりも、被曝を低減しつつノイズの少ない静止画を得ることが可能となる。   Note that it is possible to take two or more still images and reduce the noise of the still image using the method described in the first embodiment or the second embodiment. In general, when a still image is taken, the exposure dose increases because a high X-ray dose is used to obtain an image with less noise. According to the method of each of the above embodiments, a still image with less noise while reducing exposure than by shooting a single image with a high dose by capturing two or more still images with a lower dose of exposure. Can be obtained.

なお、本発明の実施形態は、上述した各実施形態に限定されず、発明の趣旨を逸脱しない範囲において、種々の追加・変更等が可能である。また、画像処理部10および表示出力部11は、X線画像診断装置1が備えなくてもよい。例えば、X線画像診断装置1とデータを送受信可能な、独立した情報処理装置上に構築されてもよい。   The embodiments of the present invention are not limited to the above-described embodiments, and various additions and changes can be made without departing from the spirit of the invention. Further, the image processing unit 10 and the display output unit 11 may not be included in the X-ray image diagnostic apparatus 1. For example, it may be constructed on an independent information processing apparatus capable of transmitting / receiving data to / from the X-ray image diagnostic apparatus 1.

1:X線画像診断装置、2:X線管、3:X線制御部、4:高電圧発生部、5:絞り、6:X線補償フィルタ、7:絞り・フィルタ制御部、8:テーブル、9:X線平面検出器、10:画像処理部、11:表示出力部、12:機構制御部、13:中央処理部、14:操作入力部、200:フレームメモリ、201:動き検出部、202:類似度算出部、203:第1領域判定部、204:時間方向ノイズ低減部、205:第2領域判定部、206:空間方向ノイズ低減部、207:類似度ヒストグラム算出部、300:ウィンドウ、301:類似度ヒストグラム、302:縦線、400:第1の領域区分、401:第2の領域区分、402:ノイズ低減処理適用範囲、411:空間方向ノイズ低減処理適用領域、412:時間方向および空間方向ノイズ低減処理適用領域、413:時間方向ノイズ低減処理適用領域、500:ウィンドウ、501:類似度ヒストグラム、502:第1の閾値、510:ウィンドウ、511:類似度ヒストグラム、512:第2の閾値、600:第1領域判定部、601:第2領域判定部、900:ウィンドウ、901:類似度ヒストグラム、902:LUT、1000:第1の領域区分、1001:第2の領域区分、1002:ノイズ低減処理適用範囲、1011:空間方向ノイズ低減処理適用領域、1012:時間方向および空間方向ノイズ低減処理適用領域、1013:時間方向ノイズ低減処理適用領域、1014:ノイズ低減処理非適用領域   1: X-ray diagnostic imaging apparatus, 2: X-ray tube, 3: X-ray controller, 4: High voltage generator, 5: Aperture, 6: X-ray compensation filter, 7: Aperture / filter controller, 8: Table 9: X-ray plane detector, 10: Image processing unit, 11: Display output unit, 12: Mechanism control unit, 13: Central processing unit, 14: Operation input unit, 200: Frame memory, 201: Motion detection unit, 202: similarity calculation unit, 203: first region determination unit, 204: time direction noise reduction unit, 205: second region determination unit, 206: spatial direction noise reduction unit, 207: similarity histogram calculation unit, 300: window , 301: similarity histogram, 302: vertical line, 400: first region section, 401: second region section, 402: noise reduction processing application range, 411: spatial direction noise reduction processing application region, 412: time direction And space Directional noise reduction processing application region, 413: Time direction noise reduction processing application region, 500: Window, 501: Similarity histogram, 502: First threshold, 510: Window, 511: Similarity histogram, 512: Second threshold , 600: first region determination unit, 601: second region determination unit, 900: window, 901: similarity histogram, 902: LUT, 1000: first region segment, 1001: second region segment, 1002: noise Reduction processing application range, 1011: Spatial direction noise reduction processing application region, 1012: Time direction and spatial direction noise reduction processing application region, 1013: Time direction noise reduction processing application region, 1014: Noise reduction processing non-application region

Claims (16)

放射線を照射する放射線照射部と、
前記放射線照射部が照射した放射線を検出して、画像を生成する検出部と、
前記検出部で生成した前記画像に対して画像処理を行う画像処理部と、を備え、
前記画像処理部は、
前記検出部で生成した撮像時間の異なる複数の画像のうち、時間的に先の画像と時間的に後の画像とを用いて動き検出を行なって、1枚の画像について1つの動き情報を検出する動き検出部と、
前記時間的に先の画像を前記動き情報の分だけ位置を変更した画像と前記時間的に後の画像との差分を、局所的な領域毎に類似度として算出する類似度算出部と、
前記類似度に基づいて、前記画像上で、時間方向のノイズ低減処理を行う領域と、空間方向のノイズ低減処理を行う領域とを決定する領域判定を行う領域判定部と、
前記領域判定部の前記領域判定結果に従って、各領域に前記ノイズ低減処理を行うノイズ低減処理部と、を備えることを特徴とする放射線画像生成装置。
A radiation irradiator for irradiating radiation;
A detection unit that detects radiation irradiated by the radiation irradiation unit and generates an image;
An image processing unit that performs image processing on the image generated by the detection unit,
The image processing unit
Among a plurality of images having different imaging times generated by the detection unit, motion detection is performed using a temporally previous image and a temporally subsequent image, and one motion information is detected for one image. A motion detector to perform,
A similarity calculator that calculates a difference between the temporally previous image and the image whose position has been changed by the amount of motion information and the temporally subsequent image as a similarity for each local region;
An area determination unit that performs area determination on the image based on the similarity and determines an area for performing noise reduction processing in the time direction and an area for performing noise reduction processing in the spatial direction;
A radiological image generation apparatus comprising: a noise reduction processing unit that performs the noise reduction processing on each region in accordance with the region determination result of the region determination unit.
前記領域判定部は、前記類似度について閾値処理を行うにより、前記領域判定を行うことを特徴とする請求項1に記載の放射線画像生成装置。   The radiological image generation apparatus according to claim 1, wherein the region determination unit performs the region determination by performing threshold processing on the similarity. 前記領域判定部は、予め前記放射線画像生成装置が記憶している前記類似度についてのルックアップテーブルを用いることにより、時間方向のノイズ低減処理を行う領域と空間方向のノイズ低減処理を行う領域とを決定することを特徴とする請求項1に記載の放射線画像生成装置。   The region determination unit includes a region for performing noise reduction processing in the time direction and a region for performing noise reduction processing in the spatial direction by using a look-up table for the similarity stored in advance in the radiation image generation device. The radiation image generating apparatus according to claim 1, wherein: 前記時間方向のノイズ低減処理を行う領域と、前記空間方向のノイズ低減処理を行う領域とは、一部または全部が重複することを特徴とする請求項1に記載の放射線画像生成装置。   The radiographic image generation apparatus according to claim 1, wherein a part of the area for performing the noise reduction process in the time direction and a part of the area for performing the noise reduction process in the spatial direction overlap. 前記動き検出部は、前記検出部で生成した画像のサイズの50%以上の範囲を対象とした差分算出処理の結果に基づいて前記動き検出を行うことを特徴とする請求項1に記載の放射線画像生成装置。   The radiation according to claim 1, wherein the motion detection unit performs the motion detection based on a result of a difference calculation process for a range of 50% or more of a size of an image generated by the detection unit. Image generation device. 表示部をさらに備え、
前記表示部は、前記画像処理部で画像処理を行った画像を表示することを特徴とする請求項1に記載の放射線画像生成装置。
A display unit;
The radiographic image generation apparatus according to claim 1, wherein the display unit displays an image subjected to image processing by the image processing unit.
前記表示部は、前記画像処理部で画像処理を行った画像に替えてまたは該画像とともに、前記類似度算出部が算出した前記類似度の分布を表示することを特徴とする請求項6に記載の放射線画像生成装置。   The said display part displays the distribution of the said similarity calculated by the said similarity calculation part instead of the image which performed the image process in the said image process part, or the said image. Radiation image generation device. 操作入力部をさらに備え、
前記表示部が、前記類似度の分布の表示を行っている間に、前記操作入力部は、前記画像処理部の処理についての設定変更操作の入力を受け付けることを特徴とする請求項7に記載の放射線画像生成装置。
It further includes an operation input unit,
The operation input unit receives an input of a setting change operation for processing of the image processing unit while the display unit displays the distribution of the similarity. Radiation image generation device.
放射線透視画像に対する画像処理方法であって、
放射線を用いて撮像した画像について、撮像時間の異なる複数の画像を入力する入力ステップと、
前記入力ステップで入力した複数の画像のうち、時間的に先の画像と時間的に後の画像とを用いて動き検出を行なって、1枚の画像について1つの動き情報を検出する動き情報検出ステップと、
前記時間的に先の画像を前記動き情報の分だけ位置を変更した画像と前記時間的に後の画像との差分を、局所的な領域毎に類似度として算出する類似度算出ステップと、
前記類似度に基づいて、前記画像上で、時間方向のノイズ低減処理を行う領域と、空間方向のノイズ低減処理を行う領域と、を決定する領域判定を行う領域判定ステップと、
前記領域判定ステップの前記領域判定結果に従って、各領域に前記ノイズ低減処理を行うノイズ低減処理ステップと、
を備えることを特徴とする画像処理方法。
An image processing method for a fluoroscopic image,
An input step of inputting a plurality of images having different imaging times for an image captured using radiation,
Motion information detection for detecting one piece of motion information for one image by performing motion detection using a temporally previous image and a temporally subsequent image among the plurality of images input in the input step. Steps,
A similarity calculation step of calculating the difference between the image that has been changed in position by the amount of the motion information and the image that has been changed in time as the similarity for each local region;
A region determination step for performing region determination for determining a region for performing noise reduction processing in the time direction and a region for performing noise reduction processing in the spatial direction on the image based on the similarity,
According to the region determination result of the region determination step, a noise reduction processing step for performing the noise reduction processing on each region;
An image processing method comprising:
前記領域判定ステップでは、前記類似度についての閾値処理を行うことにより、前記領域判定を行うことを特徴とする請求項9に記載の画像処理方法。   The image processing method according to claim 9, wherein in the region determination step, the region determination is performed by performing threshold processing on the similarity. 前記領域判定ステップでは、予め記憶している前記類似度についてのルックアップテーブルを用いることにより、時間方向のノイズ低減処理を行う領域と空間方向のノイズ低減処理を行う領域とを決定することを特徴とする請求項9に記載の画像処理方法。   In the region determining step, a region for performing noise reduction processing in the time direction and a region for performing noise reduction processing in the spatial direction are determined by using a lookup table for the similarity stored in advance. The image processing method according to claim 9. 前記時間方向のノイズ低減処理を行う領域と、前記空間方向のノイズ低減処理を行う領域とは、一部または全部が重複することを特徴とする請求項9に記載の画像処理方法。   10. The image processing method according to claim 9, wherein a part of the area for performing the noise reduction process in the time direction and a part of the area for performing the noise reduction process in the spatial direction overlap partly. 前記動き情報検出ステップでは、前記入力ステップで入力された画像のサイズの50%以上の範囲を対象とした差分算出処理の結果に基づいて前記動き検出を行なうことを特徴とする請求項9に記載の画像処理方法。   The motion detection is performed in the motion information detection step based on a result of a difference calculation process for a range of 50% or more of the size of the image input in the input step. Image processing method. 前記ノイズ低減処理ステップを経た画像データを表示する表示ステップをさらに備えることを特徴とする請求項9に記載の画像処理方法。   The image processing method according to claim 9, further comprising a display step of displaying the image data that has undergone the noise reduction processing step. 前記表示ステップでは、前記ノイズ低減処理ステップを経た画像データに替えてまたは該画像データとともに、前記類似度算出ステップで算出した前記類似度の分布の表示を可能とすることを特徴とする請求項14に記載の画像処理方法。   The distribution of the similarity calculated in the similarity calculation step can be displayed in the display step, instead of or together with the image data that has undergone the noise reduction processing step. An image processing method described in 1. 前記表示ステップにおいて前記類似度の分布の表示を行っている間に、前記領域設定ステップの処理についての設定変更操作の入力を受け付ける操作入力ステップをさらに備えることを特徴とする請求項15に記載の画像処理方法。   The operation input step of receiving an input of a setting change operation for the processing of the region setting step while displaying the distribution of the similarity in the display step. Image processing method.
JP2015525261A 2013-07-03 2014-07-02 Radiation image generating apparatus and image processing method Active JP6002324B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013139383 2013-07-03
JP2013139383 2013-07-03
PCT/JP2014/067689 WO2015002247A1 (en) 2013-07-03 2014-07-02 Radiographic image generating device and image processing method

Publications (2)

Publication Number Publication Date
JP6002324B2 true JP6002324B2 (en) 2016-10-05
JPWO2015002247A1 JPWO2015002247A1 (en) 2017-02-23

Family

ID=52143819

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015525261A Active JP6002324B2 (en) 2013-07-03 2014-07-02 Radiation image generating apparatus and image processing method

Country Status (3)

Country Link
JP (1) JP6002324B2 (en)
CN (1) CN105324081B (en)
WO (1) WO2015002247A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023229118A1 (en) * 2022-05-27 2023-11-30 주식회사 디알텍 Image processing device and method for reducing noise included in image acquired by radiography

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6816018B2 (en) * 2015-04-14 2021-01-20 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Equipment and methods for improving medical image quality
EP3244368A1 (en) * 2016-05-13 2017-11-15 Stichting Katholieke Universiteit Noise reduction in image data
KR101795663B1 (en) * 2016-06-17 2017-11-08 연세대학교 산학협력단 Apparatus for eliminating noise of radiography image and method thereof

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010131371A (en) * 2008-10-27 2010-06-17 Toshiba Corp X-ray diagnostic apparatus and image processing apparatus
JP2010171615A (en) * 2009-01-21 2010-08-05 Nippon Hoso Kyokai <Nhk> Noise reduction device and noise reduction program
JP2011199349A (en) * 2010-03-17 2011-10-06 Fujitsu Ltd Unit and method for processing image, and computer program for image processing
JP2012231389A (en) * 2011-04-27 2012-11-22 Sony Corp Image processing apparatus, image processing method, and program
JP2013048782A (en) * 2011-08-31 2013-03-14 Canon Inc Image processing apparatus, image processing method, program and computer recording medium

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3326819B2 (en) * 1992-07-31 2002-09-24 株式会社島津製作所 Image processing device
JP3377071B2 (en) * 1996-12-26 2003-02-17 日本電信電話株式会社 Global rain area prediction device
JP3849481B2 (en) * 2001-10-03 2006-11-22 ソニー株式会社 Signal processing method, signal processing apparatus, and signal processing program
JP5013932B2 (en) * 2007-04-03 2012-08-29 三洋電機株式会社 Noise reduction device, noise reduction method, and electronic device
JP5430234B2 (en) * 2009-06-04 2014-02-26 パナソニック株式会社 Image processing apparatus, image processing method, program, recording medium, and integrated circuit
WO2013073627A1 (en) * 2011-11-15 2013-05-23 株式会社 東芝 Image processing device and method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010131371A (en) * 2008-10-27 2010-06-17 Toshiba Corp X-ray diagnostic apparatus and image processing apparatus
JP2010171615A (en) * 2009-01-21 2010-08-05 Nippon Hoso Kyokai <Nhk> Noise reduction device and noise reduction program
JP2011199349A (en) * 2010-03-17 2011-10-06 Fujitsu Ltd Unit and method for processing image, and computer program for image processing
JP2012231389A (en) * 2011-04-27 2012-11-22 Sony Corp Image processing apparatus, image processing method, and program
JP2013048782A (en) * 2011-08-31 2013-03-14 Canon Inc Image processing apparatus, image processing method, program and computer recording medium

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023229118A1 (en) * 2022-05-27 2023-11-30 주식회사 디알텍 Image processing device and method for reducing noise included in image acquired by radiography

Also Published As

Publication number Publication date
CN105324081B (en) 2018-03-20
WO2015002247A1 (en) 2015-01-08
CN105324081A (en) 2016-02-10
JPWO2015002247A1 (en) 2017-02-23

Similar Documents

Publication Publication Date Title
JP5645399B2 (en) X-ray image processing apparatus, X-ray image processing method, and computer program
US10672108B2 (en) Image processing apparatus, image processing method, and image processing program
JP6071444B2 (en) Image processing apparatus, operation method thereof, and program
CN107533755B (en) Apparatus and method for improving medical image quality
JP6156847B2 (en) Radiation image processing apparatus and method, and program
JP6002324B2 (en) Radiation image generating apparatus and image processing method
JP5641148B2 (en) Image processing apparatus and radiation imaging apparatus including the same
JP5839710B2 (en) Analysis point setting device and method, and body motion detection device and method
KR102448069B1 (en) Method and apparatus for reducing noise of image obtained by radiography
JP5274101B2 (en) Radiation image processing apparatus, radiation image processing method and program
WO2013073627A1 (en) Image processing device and method
CN111353958A (en) Image processing method, device and system
JP2019130083A (en) Image processing apparatus, radiation imaging apparatus, image processing method, and program
CN111050648B (en) Radiographic apparatus
CN115397332A (en) System and method for real-time video enhancement
JP2006230512A (en) Radiographic diagnostic apparatus, image processing method and program
JP4095140B2 (en) Image processing apparatus and method
JP6789620B2 (en) Image processing device and its control method, computer program
JP2009054013A (en) Image processor
JP2009000164A (en) Radiation image processor
EP4421729A1 (en) Image processing method and apparatus for reducing noise included in image acquired by radiography
JP6586678B2 (en) Image processing apparatus and X-ray diagnostic apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20160629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160902

R150 Certificate of patent or registration of utility model

Ref document number: 6002324

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350