WO2018055684A1 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
WO2018055684A1
WO2018055684A1 PCT/JP2016/077779 JP2016077779W WO2018055684A1 WO 2018055684 A1 WO2018055684 A1 WO 2018055684A1 JP 2016077779 W JP2016077779 W JP 2016077779W WO 2018055684 A1 WO2018055684 A1 WO 2018055684A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pixel
pixel value
composite
smoothed
Prior art date
Application number
PCT/JP2016/077779
Other languages
English (en)
French (fr)
Inventor
遼 武田
Original Assignee
株式会社島津製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津製作所 filed Critical 株式会社島津製作所
Priority to JP2018540526A priority Critical patent/JP6597912B2/ja
Priority to EP16916755.8A priority patent/EP3518178A4/en
Priority to PCT/JP2016/077779 priority patent/WO2018055684A1/ja
Priority to CN201680089394.XA priority patent/CN109716387B/zh
Priority to US16/335,000 priority patent/US10853920B2/en
Priority to TW106128502A priority patent/TWI639976B/zh
Publication of WO2018055684A1 publication Critical patent/WO2018055684A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/48Diagnostic techniques
    • A61B6/486Diagnostic techniques involving generating temporal series of image data
    • A61B6/487Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3871Composing, repositioning or otherwise geometrically modifying originals the composed originals being of different kinds, e.g. low- and high-resolution originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20004Adaptive image processing
    • G06T2207/20012Locally adaptive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Definitions

  • the present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that smoothes an image with a plurality of smoothing filters and generates an image with reduced noise components by combining the plurality of smoothed images. .
  • a noise reduction filter (image processing apparatus) that acquires an absolute value of a pixel value difference for each of a plurality of smoothing filters, weights the plurality of smoothing filters based on the absolute value of the pixel value difference, and smoothes each pixel ) Is disclosed.
  • This noise reduction filter is configured so that emphasis is placed on a smoothing filter that performs smoothing in a direction including many pixels having a small absolute value of the sum of pixel value differences with respect to the pixel value of the target pixel.
  • the present invention has been made to solve the above-described problems, and one object of the present invention is to appropriately smooth an image even when a noise component is generated in a pixel value of image data.
  • An object of the present invention is to provide an image processing apparatus that can be combined.
  • an image processing apparatus performs processing using a plurality of different smoothing filters for smoothing noise components for each pixel of a processing target image.
  • An image smoothing unit that obtains pixel values of each pixel of a plurality of smoothed images from pixel values corresponding to luminance or chromaticity of each pixel of the target image, and a pixel value of each pixel of the processing target image and a plurality of smoothings
  • a pixel value difference which is a difference in consideration of positive / negative of a plurality of pixel values corresponding to the luminance or chromaticity of each pixel, between the pixel values of each pixel at a corresponding position of the image
  • the pixel value of each pixel of the plurality of smoothed images is positive or negative with respect to the pixel value of the pixel of the processing target image at the corresponding pixel.
  • a combination weight acquisition unit that acquires a combined image by performing weighted combination based on a plurality of pixel value differences in consideration of
  • the overall tendency of the pixel value difference taking into account the positive and negative is considered to remain unchanged even if a noise component occurs, so unlike the case of weighted synthesis of a smoothed image based on the absolute value of the pixel value difference.
  • the relationship between pixel value differences does not reverse.
  • the composite weight acquisition unit preferably acquires an average value of a plurality of pixel value differences in which positive and negative are considered, and a plurality of pixel value differences and an average value of the pixel value differences Based on the above, a plurality of composite weights corresponding to each pixel are obtained. If comprised in this way, since the smoothed image with a peculiar pixel value difference can be found easily based on the average value which is the whole tendency of a pixel value difference, the change by the smoothing for every smoothing filter can be performed. Based on each pixel value difference in which the positive and negative values shown are taken into account, it is possible to appropriately perform weighted synthesis using the smoothed image.
  • the composite weight acquisition unit has a positive value of the pixel value difference for each pixel in the index determined to increase the pixel value difference from negative to positive.
  • control is performed to increase the composite weight of the smoothed image corresponding to the small pixel value difference, and when the average value of the pixel value differences is negative, The control for increasing the synthesis weight of the smoothed image corresponding to the large pixel value difference is performed. If configured in this way, if the average value of the pixel value difference is positive in the index for which the pixel value difference is determined to increase from negative to positive, the overall trend is away from the negative value.
  • the pixel value of each pixel of the processing target image and the pixel value of each pixel at a corresponding position of the composite image are weighted and combined for each pixel.
  • An addition composite image generation unit for obtaining the addition composite image is provided. According to this configuration, the original processing target image is further compared with the synthesized image that is the smoothed result, and the degree of change due to the smoothing is considered, and the processing target image and the synthesized image are compared. Additive synthesis can be performed.
  • the addition composite image generation unit supports each pixel based on the pixel value of each pixel of the processing target image and the pixel value of each pixel at the corresponding position of the composite image.
  • the added weight is obtained, and an added composite image is obtained based on the added weight.
  • frequency analysis is performed on the input image, and a plurality of band-limited images for extracting only an image including a specific frequency are obtained for each frequency.
  • the image processing apparatus further includes a band-limited image processing unit that performs frequency synthesis to re-integrate the plurality of divided images and obtains the frequency-synthesized output image.
  • the band-limited image processing unit performs frequency analysis on the processing target image as an input image.
  • a processing target image that is band-limited To obtain a processing target image that is band-limited, obtain a composite image that is band-limited and weighted and combined based on a pixel value difference in which positive and negative are considered for each pixel, and band-limited Further, frequency composition is performed on the image based on the synthesized image that has been weighted and synthesized, and an output image is obtained.
  • a several smoothed image will be acquired for every frequency component of a process target image, the pixel value of each pixel of a process target image, and the pixel value of each pixel of the position corresponding to a some smoothed image, Is weighted and synthesized based on a plurality of pixel value differences in consideration of positive and negative, and a synthesized image is acquired, so that noise components can be smoothed for each frequency band, so that the structure of the subject reflected in the image can be Weighting synthesis can be performed on image data in which noise components are smoothed more effectively while suppressing blurring (blurring) of the boundary line.
  • the smoothed image is appropriately weighted to be appropriately smoothed and combined with the image. be able to.
  • FIG. 1 is a block diagram illustrating an image processing apparatus according to a first embodiment of the present invention. It is the figure which showed the process which acquires a smoothed image by using a smoothing filter for a process target image. It is the figure which showed an example of the smoothing filter of 5 rows 5 columns which smoothes in a mutually different line segment direction which has a relationship of every 45 degree
  • FIG. 10 is a diagram for explaining a function for acquiring a composite weight according to a modification of the first to third embodiments of the present invention.
  • FIG. 10 is a diagram for explaining a function for obtaining an addition weight according to a modification of the first to third embodiments of the present invention.
  • the image processing apparatus 100 includes a main control unit 1, an image processing unit 2, and a storage unit 3.
  • the image processing unit 2 includes an image smoothing unit 21, a pixel value difference acquisition unit 22, a composite weight acquisition unit 23, a composite image acquisition unit 24, and an addition composite image generation unit 25.
  • the storage unit 3 includes a program 31 and data 32.
  • the image processing apparatus 100 is configured by, for example, a PC (personal computer) or the like, and is configured to function as an image processing apparatus by appropriately reading and executing the program 31.
  • the image processing apparatus 100 is connected to the X-ray imaging apparatus 101.
  • the main control unit 1 causes the PC to function as the image processing apparatus 100 and to function as the control unit of the X-ray imaging apparatus 101 by executing the program 31 stored in the storage unit 3.
  • the main control unit 1 controls the execution of X-ray imaging, the imaging direction, the range, the number of imaging, and the like as a control unit for the X-ray imaging apparatus 101.
  • the function as the image processing apparatus 100 will be described later.
  • the X-ray imaging apparatus 101 is connected to the image processing apparatus 100 that functions as a control unit of the X-ray imaging apparatus 101, and irradiates the subject S with X-rays to detect an imaging part (a fluoroscopic part or an imaging part) of the subject S.
  • the apparatus is configured to perform fluoroscopy or image capturing and to send the captured image to the image processing apparatus 100.
  • the X-ray imaging apparatus 101 includes an X-ray irradiation unit 4, an X-ray image receiving unit 5, an operation unit 6, and a display unit 7. Note that the X-ray image captured by the X-ray imaging apparatus 101 includes both an X-ray fluoroscopic image captured continuously with a low dose and an X-ray captured image captured with a high dose.
  • X-ray imaging is representatively described will be described, but the same result can be obtained for X-ray fluoroscopy.
  • the X-ray irradiation unit 4 irradiates the subject S with X-rays.
  • the X-ray image receiving unit 5 receives X-rays that have passed through the subject, captures an X-ray captured image, converts the received X-ray captured image data into an electrical signal, and sends the processed image In to the image processing apparatus 100. X-ray captured image data is sent out.
  • the X-ray irradiation unit 4 and the X-ray image receiving unit 5 are arranged so as to face each other with the top plate interposed therebetween, and are configured to take an X-ray image of the subject S lying on the top plate.
  • the X-ray irradiation part 4 is comprised by the X-ray tube, for example.
  • the X-ray image receiving unit 5 is configured by, for example, FTP (Flat Panel Detector).
  • the operation unit 6 is configured to accept an operator's operation command input. In addition, the operation unit 6 is configured to be able to perform operations such as selection of an image processing method of the image processing apparatus 100 as well as operations of the X-ray imaging apparatus 101.
  • the display unit 7 displays, for example, X-ray captured images that have been subjected to image processing by the image processing apparatus 100 and various screen displays related to operations of the X-ray imaging apparatus 101 and the image processing apparatus 100.
  • the operation unit 6 includes, for example, a keyboard, a mouse, an operation lever, and the like that receive an operation input from the operator.
  • the display part 7 is comprised by the liquid crystal panel, the backlight, etc., for example.
  • the image processing apparatus 100 acquires image data of an X-ray captured image (X-ray fluoroscopic image or X-ray captured image) from the X-ray imaging apparatus 101.
  • X-ray captured image X-ray fluoroscopic image or X-ray captured image
  • the X-ray captured image is a grayscale image in which the size of transmitted X-rays received for each pixel is expressed as a pixel value. In this case, only the luminance is considered as the pixel value.
  • an operator emphasizes a boundary line of an object included in an image, an adjustment process such as contrast, and an enlargement / reduction process of an arbitrary part Various image processing such as rotation processing, trimming processing, and negative / positive inversion processing are performed.
  • the image processing apparatus 100 according to the first embodiment of the present invention performs the above-described image processing, suppresses a variation due to a noise component included in the pixel value of the pixel of the image, and makes the change in the pixel value of the image smooth visibility. It is configured to perform smoothing processing to obtain a good image.
  • the image smoothing process will be described in particular.
  • the noise component When the noise component is included in the image, the pixel value fluctuates from the ideal pixel value due to the noise component, resulting in an image with poor visibility where the pixel value does not change smoothly.
  • This noise component is generated for various reasons.
  • the X-ray irradiation unit 4 X-ray tube
  • Inhomogeneous X-ray irradiation quantitative noise, which is a statistical variation
  • Poisson distribution which cannot be avoided in principle, is a major cause of noise components on the image.
  • the noise generated in the X-ray captured image includes noise generated when the pixel value of the X-ray image receiving unit 5 (FDP) is read, and external electromagnetic waves, thermal noise, and the like while the image data is exchanged. There is also noise that occurs. Note that the smoothed image acquired by the image processing apparatus 100 can remove noise regardless of the cause of occurrence.
  • the smoothing method will be briefly described. Since the image has a substantially uniform structure locally when viewed in a sufficiently small range, the pixel values are considered to be substantially equal in this range. That is, if each pixel is sufficiently fine, it is considered that the pixel value of a pixel at a certain target position and the pixel at the peripheral position are substantially equal. On the other hand, since the noise component is randomly added to each pixel value, the pixel value varies depending on the noise component, and becomes a larger or smaller value than the original value. Therefore, the noise component can be canceled by obtaining the average value of the pixel values of the pixel at the target position and its peripheral position and replacing it with the pixel value of the pixel at the target position. If the process of replacing with the average value is performed for all pixels, a smoothed image in which noise is smoothed is obtained.
  • the boundary line of the subject is also smoothed, resulting in blurring (blurring) in the boundary line of the subject. Therefore, it is necessary to emphasize smoothing in the direction along the structure of the subject and perform smoothing so as to ignore the smoothing in the direction across the boundary of the subject structure.
  • smoothing according to the structure of the subject is performed by preparing a smoothing filter F (d) that performs smoothing in a specific direction.
  • a process of taking an average value of pixel values of pixels located on a line segment extending in a specific direction centered on the pixel at the target position and replacing it with the pixel value at the target position is performed.
  • the processing target image In is a collection of pixel data of M rows and N columns, and is an image to be smoothed.
  • a portion surrounded by a dotted circle is a pixel at the target position, and a region surrounded by a square centering on the pixel at the target position is a smoothed region to be smoothed.
  • D smoothing filters (d) depending on the direction in which the smoothing is performed, and each is an anisotropic filter having a different smoothing direction.
  • d takes a positive integer value from 1 to D and is a numerical value for distinguishing the smoothing filter F (d).
  • the line segment shown in the smoothing filter F (d) represents that the pixel located on the line segment among the pixels at the target position and its surrounding positions is a pixel contributing to smoothing.
  • the smoothing filter F (d) is expressed as a matrix of operators having values as shown in FIG. 3, for example.
  • the smoothing filter F (d) is expressed as a matrix of eight 5 rows and 5 columns, and includes the pixel at the target position with respect to the eight directions in 45 ° increments around the pixel value at the target position. Smooth the pixel values of two adjacent pixels.
  • the coefficient 1/3 in the smoothing filter F (d) indicates that the pixel value of the pixel of the processing target image In at the corresponding position is acquired by 1/3 (coefficient multiplication). If all the acquired pixel values are summed, an average value of the pixel values of the pixels at the coefficient position can be acquired.
  • the pixel values of the pixels of the eight smoothed images Smooth (d) can be obtained for each smoothing filter F (d).
  • the blank portion where no coefficient is written is a portion where the coefficient is omitted from 0, indicating that the pixel at the blank position does not contribute to smoothing.
  • represents the direction of smoothing.
  • smoothing is performed in the direction along the structure of the subject in the D smoothed images Smooth (d).
  • the smoothed image Smooth (d) is weighted and combined with a large weight, and the smoothed image Smooth (d) smoothed in a direction across the structure of the subject is weighted and combined.
  • the contribution of the smoothed image smoothed between the pixels belonging to the same structure of the subject is increased and combined, and the contribution of the smoothed image smoothed across different parts of the subject structure is reduced. Therefore, blurring (blurring) of the boundary line caused by smoothing across the boundary of the structure of the subject can be suppressed while reducing the noise component by smoothing.
  • FIG. 4 is a diagram showing up to the third of 24 smoothing filters F (d) that can be smoothed in 24 directions in increments of 15 degrees.
  • the coefficient k (1, 0) and the coefficient k (1, 1) are the coefficients 1/3 corresponding to the contribution of one pixel value.
  • a value distributed using tan ( ⁇ / 6) which is geometrically tangent of 30 degrees may be used. That is, k (1,0) becomes tan ( ⁇ / 6) / 3, and k (1,1) becomes ⁇ 1-tan ( ⁇ / 6) ⁇ / 3.
  • tan ( ⁇ / 6) is an irrational number
  • the acquisition is terminated with an appropriate number of digits according to the processing capability of the computer and the number of digits of the pixel value, and the result value is stored in the storage unit 3 in advance. It is only necessary to read from the storage unit 3 as appropriate. Specific values of other coefficients are omitted.
  • the configuration is the same as the smoothing filter shown in FIG.
  • the smoothing filter F (d) after 45 degrees has the same configuration as that obtained by rotating or inverting one of the above-mentioned filters around the target position, and the illustration is omitted.
  • the size of the smoothing filter F (d) can be expanded to n rows and n columns (for example, 7 rows and 7 columns).
  • a coefficient obtained by equally dividing 1 may be distributed to pixels existing in the smoothing direction, or may be distributed so that the coefficient is relatively large for pixels close to the target position.
  • the sum of the coefficients included in each smoothing filter F (d) is normalized to be 1. Need to be.
  • the weighting of the smoothed image Smooth (d) will be specifically described. If the pixel value of the pixel of the processing target image In and the pixel value of the pixel at the corresponding position of the smoothed image Smooth (d) are close, they belong to a place close to the structure of the subject having substantially the same pixel value. It can be considered that smoothing was successfully performed between pixels. On the other hand, if the pixel value of the pixel of the processing target image In and the pixel value of the pixel at the corresponding position of the smoothed image Smooth (d) are greatly different, a different structure of the subject (boundary line of the structure of the subject) It can be considered that smoothing is performed while straddling. Therefore, by comparing the pixel value of the pixel of the processing target image In and the pixel value of the pixel of the smoothed image Smooth (d), which smoothed image Smooth (d) needs to be emphasized when combining Judgment can be made.
  • the subject S has a substantially uniform structure around the tip portion.
  • the portion shown in white is a portion where the subject S is reflected, and the amount of the subject S incident on the X-ray image receiving unit 5 is reduced, and therefore the portion where the X-ray image is small.
  • the portion represented by the oblique line is a portion where the reflection of the subject S is not generated, and the X-ray irradiated by the X-ray irradiation unit 4 enters the X-ray image receiving unit 5 without passing through the subject S. Therefore, it is a portion where the dose of X-ray image reception is large.
  • the graph shown in FIG. 6A is a graph showing the pixel value difference S (d) in consideration of ideal positive / negative when there is no noise component and the absolute value
  • the pixel value difference S (d) is substantially zero in the 180 degree direction because the subject S is uniform at the tip, and becomes a negative value as it deviates from 180 degrees. That is, corresponding to the line structure of the subject S, the pixel value difference S (d) is a mountain-shaped graph having a peak close to 0 value in the 180 degree direction.
  • of the pixel value difference are, for example, a graph as shown in FIG.
  • of the pixel value difference each vary in value due to noise components, the overall tendency is as shown in the graph of FIG. 6 (1). You can see that it keeps its shape. That is, the pixel value difference S (d) is a peak-shaped graph having a peak in the 180 degree direction, and the absolute value
  • the graph shown in FIG. 6 (3) may be obtained depending on how the noise component is applied.
  • the pixel value difference S (d) corresponding to the smoothing in the direction of 180 degrees should be substantially zero in a situation where there is no noise component, but has shifted to a positive value due to the superimposition of the noise component. .
  • the pixel value difference S (d) does not change as the overall trend of the graph, it still maintains a mountain-shaped graph, and the 180 ° direction is the peak of the graph.
  • of the pixel value difference is not considered as positive or negative, as shown in the graph on the right side of FIG. I misunderstand it.
  • the smoothed image Smooth (d) is weighted and synthesized with emphasis on the 195 degree direction.
  • Such misrecognition of the direction of the structure occurs because when the pixel value difference S (d) is close to 0, the sign can be easily switched by the influence of the noise component.
  • the smoothing is not based on the absolute value
  • a plurality of different smoothing filters F (d) for smoothing noise components are used for each pixel of the processing target image In, and the processing target is processed.
  • An image smoothing unit 21 is provided that acquires pixel values of each pixel of the plurality of smoothed images Smooth (d) from pixel values corresponding to the luminance or chromaticity of each pixel of the image In.
  • the image smoothing unit 21 acquires a processing target image In that is an X-ray captured image acquired from the X-ray imaging apparatus 101.
  • the image smoothing unit 21 may store the X-ray captured image data in the storage unit 3 and read the data from the storage unit 3 (data 32) to acquire the processing target image In.
  • the image smoothing unit 21 uses the D smoothing filters F (d) that are matrices of operators including different smoothing coefficients in the processing target image In, and thereby the pixels at each position of the processing target image In.
  • the pixel values of the pixels of the total number D of smoothed images Smooth (d) corresponding to d are acquired with respect to the pixel values of.
  • the calculation for obtaining the pixel value of the pixel corresponding to each position of the smoothed image Smooth (d) can be expressed as Equation (1).
  • the operator represented by the black circle acquires the pixel value of the pixel at the target position of the processing target image In and the pixel value of the pixel at the peripheral position of the target position corresponding to the smoothing filter F (d).
  • the pixel value is multiplied by a different smoothing coefficient for each smoothing filter F (d), and smoothed (for example, arithmetic mean) by adding, and the obtained pixel value is replaced with the pixel value of the pixel at the target position.
  • smoothed for example, arithmetic mean
  • a pixel value difference acquisition unit 22 is provided for acquiring a pixel value difference S (d) that is a difference in consideration of the positive / negative of a plurality of pixel values corresponding to the luminance or chromaticity of the plurality of smoothing filters F (d). It has been.
  • the pixel value difference acquisition unit 22 is a difference value in which positive / negative is taken into consideration for the pixel at each position of the processing target image In and the pixel at each corresponding position of the smoothed image Smooth (d).
  • the pixel value difference S (d) is acquired.
  • the calculation for obtaining the pixel value difference S (d) for each pixel can be expressed as Equation (2).
  • a composite weight acquisition unit 23 that acquires the weight ⁇ (d) is provided.
  • the synthetic weight acquisition unit 23 acquires an average value AvrS of a plurality of pixel value differences S (d) in which positive and negative are taken into account, and the plurality of pixel value differences S (d) and the pixel value differences.
  • the plurality of composite weights ⁇ (d) corresponding to the respective pixels are acquired based on the average value AvrS.
  • the composite weight acquisition unit 23 determines that the pixel value difference increases from negative to positive, the average value AvrS of the pixel value difference is positive for each pixel. Includes performing control to increase the combined weight ⁇ (d) of the smoothed image Smooth (d) corresponding to the small pixel value difference S (d) among the plurality of pixel value differences S (d), and the pixel value When the average difference value AvrS is negative, the composite weight ⁇ (d) of the smoothed image Smooth (d) corresponding to the large pixel value difference S (d) among the plurality of pixel value differences S (d). It is configured to perform control to increase.
  • the composite weight acquisition unit 23 acquires the average value AvrS of the pixel value differences by arithmetically averaging all the pixel value differences S (d).
  • the calculation for obtaining the average value AvrS of the pixel value difference can be expressed as Equation (3).
  • the composite weight acquisition unit 23 acquires the composite weight ⁇ (d) of the smoothed image Smooth (d) based on the pixel value difference S (d) and the average value AvrS of the pixel value differences.
  • the synthesis weight ⁇ (d) is a positive real value, and the synthesis weights for all d are set so that the pixel values of the entire synthesized image Comp after synthesis are the same reference as the pixel values of the entire processing target image In before synthesis. Normalization is performed so that the sum of ⁇ (d) is exactly 1.
  • the calculation for obtaining the composite weight ⁇ (d) can be expressed as Equation (4).
  • k is a normalization constant for normalizing the composite weight ⁇ (d).
  • the function ⁇ is a function having the pixel value difference S (d) and the average value AvrS of the pixel value differences as arguments.
  • the graph of the pixel value difference S (d) taking into account the positive / negative when the pixel at the tip of the line structure of the subject S is the target position is An upwardly convex peak appears in the pixel value difference S (d) corresponding to the smoothed image Smooth (d) along the direction of.
  • the pixel value of the pixel corresponding to the portion other than the line structure at the peripheral position of the target position of the processing target image In becomes larger because more X-rays are incident than the target position.
  • the pixel value difference S (d) corresponding to a direction other than the direction along the line structure is a negative value. Therefore, the average value AvrS of the pixel value difference is negative.
  • the peak of the graph of the pixel value difference S (d) corresponds to the pixel value difference S (d) farthest in the positive value direction among the pixel value differences S (d). That is, when the average value AvrS of the pixel value differences is negative, a smoothed image Smooth (d) having a large pixel value difference S (d) in an index determined to increase the pixel value difference from negative to positive. It corresponds to smoothing along the direction of the structure.
  • the target position is a portion where the subject S is not reflected and the boundary (structure) of the subject S is present in the peripheral position.
  • smoothing is performed in a direction that crosses the boundary of the subject S, blur (blurring) occurs at the edge of the image.
  • the smoothed image Smooth smoothed in the direction in which the subject S does not appear must be weighted and synthesized.
  • the pixel value difference S (d) corresponding to smoothing in a direction in which the subject does not appear is substantially zero if there is no noise component.
  • the pixel value difference S (d) corresponding to the smoothing in the direction across the subject boundary is a positive value.
  • the pixel value difference S (d) smoothed in the direction perpendicular to the boundary of the subject is the largest value.
  • the graph of the pixel value difference S (d) taking into account positive and negative is a bottom (peak) where S (d) corresponding to the smoothed image Smooth (d) smoothed perpendicularly to the boundary of the subject S is close to 0 value.
  • the average value AvrS of the pixel value difference is positive. That is, when the average value AvrS of the pixel value difference is positive, the smoothed image Smooth (d) having a small pixel value difference S (d) in an index that is determined to increase the pixel value difference from negative to positive. It corresponds to smoothing along the direction of the structure.
  • the smoothed image Smooth (d) when the average value AvrS of the pixel value difference is positive in the index for which the pixel value difference is determined to increase from negative to positive, the smoothed image Smooth (d) having a small pixel value difference S (d). ) Corresponds to the smoothing along the direction of the structure, and when the average value AvrS of the pixel value difference is negative, the smoothed image Smooth (d) with the larger pixel value difference S (d) is along the direction of the structure. It corresponds to smoothing.
  • the smoothed image Smooth (d) that increases the pixel value difference S (d) may be a function that increases the composite weight ⁇ (d).
  • the function ⁇ is the combined weight ⁇ (dmin) corresponding to the smoothed image Smooth (dmin) with the smallest pixel value difference S (d). ) Is set to 1, and the other synthesis weight ⁇ (d) is set to 0.
  • the function ⁇ is set to 1 as the synthesis weight ⁇ (d) corresponding to the smoothed image Smooth (dmax) where the pixel value difference S (d) is the largest.
  • the other synthesis weight ⁇ (dmax) is set to 0.
  • dmin is d corresponding to the minimum S (d)
  • dmax is d corresponding to the maximum S (d).
  • the composite image Comp is an image that is evenly smoothed in all directions at the target position.
  • the image processing apparatus 100 includes the composite image acquisition unit 24 that performs weighted synthesis on each pixel of a plurality of smoothed images based on the composite weight and acquires a composite image.
  • the composite image acquisition unit 24 acquires the composite image Comp by multiplying the smoothed image Smooth (d) by the composite weight ⁇ (d) acquired by the composite weight acquisition unit 23 and adding them together. .
  • the calculation for obtaining the composite image Comp can be expressed as Equation (5).
  • the pixel value of each pixel of the processing target image In and the pixel value of each pixel at the corresponding position of the composite image Comp are weighted and combined.
  • an addition composite image generation unit 25 for obtaining the addition composite image Out is provided.
  • the addition composite image generation unit 25 calculates the pixel value of each pixel of the processing target image In that is the original image and the pixel value of the pixel at the corresponding position of the composite image that is the result of smoothing.
  • the addition weight ⁇ is a positive real value between 0 and 1, and the pixel value of the entire added synthesized image Out after the added synthesis is the same as the pixel value of the processing target image In and the synthesized image Comp before the synthesis. It is standardized to be.
  • the calculation for obtaining the added composite image Out by the addition weight ⁇ can be expressed as Equation (6).
  • the addition composite image generation unit 25 performs weighted addition based on the pixel value of each pixel of the processing target image In and the pixel value of each pixel at the corresponding position of the composite image Comp.
  • An addition weight ⁇ corresponding to each pixel is acquired, and an addition composite image Out is acquired based on the addition weight ⁇ .
  • the addition composite image generation unit 25 acquires the addition weight ⁇ for each pixel based on the pixel value of the processing target image In at the corresponding position and the pixel value of the composite image Comp.
  • the calculation for obtaining the addition weight ⁇ can be expressed as Equation (7).
  • l is a normalization constant for normalizing the addition weight ⁇ .
  • the function ⁇ is a function having as arguments the pixel value of the processing target image In and the pixel value of the composite image Comp.
  • the function ⁇ is a function indicating the correlation between the processing target image In and the composite image Comp, and is configured to increase as the pixel value of the processing target image In and the pixel value of the composite image Comp are closer.
  • Expression (6) and Expression (7) are combined, the pixel value of the composite image Comp is weighted and added as the pixel value of the processing target image In and the pixel value of the composite image Comp are closer to each other.
  • the pixel value of the target image In and the pixel value of the composite image Comp are farther from each other, the pixel value of the processing target image In is weighted and added.
  • the function ⁇ ⁇ ⁇ that gives ⁇ is, for example, a function based on the absolute value
  • the function ⁇ is configured such that the value becomes relatively smaller when the absolute value
  • step S1 the image processing unit 2 acquires the processing target image In (X-ray captured image), and the process proceeds to step S2.
  • step S2 D smoothing images Smooth (d) are acquired by using D smoothing filters F (d) for the pixel values of each pixel included in the processing target image In, and the process proceeds to step S3. .
  • step S3 a difference value in which the sign of the pixel value of each pixel of the processing target image In and the pixel value of the corresponding position of the D smoothed images Smooth (d) is taken into consideration is calculated for each d. Pixel value difference S (d) is acquired, and the process proceeds to step S4.
  • step S4 a composite weight ⁇ (d) corresponding to the pixel value difference S (d) is acquired, and the process proceeds to step S5. Note that the flow of obtaining the synthesis weight ⁇ (d) in step S4 will be described later as a synthesis weight acquisition process.
  • step S5 the smoothed image Smooth (d) is weighted and synthesized with the synthesis weight ⁇ (d) to obtain a synthesized image Comp, and the process proceeds to step S6.
  • step S6 the addition weight ⁇ is acquired from the processing target image In and the composite image Comp, and the process proceeds to step S7.
  • step S7 the addition target image In and the composite image Comp are weighted and added by the addition weight ⁇ to obtain the addition composite image Out, and the addition composite image generation process is terminated.
  • the above addition composite image generation processing is appropriately executed for each X-ray captured image acquired from the X-ray image receiving unit 5 or an external memory (not shown). Further, the added composite image Out acquired by the image processing apparatus 100 is stored in the storage unit 3, and can be appropriately read and displayed on the display unit 7.
  • step S11 the image processing unit 2 (composition weight acquisition unit 23) acquires a pixel value difference S (d) in which the positive / negative is considered in each pixel, and proceeds to step S12.
  • step S12 an average value AvrS over all d of the pixel value difference S (d) is acquired, and the process proceeds to step S13.
  • step S13 it is determined whether or not the average value AvrS of the pixel value difference is a positive value. If it is a positive value, the process proceeds to step S14. If not, the process proceeds to step S25.
  • step S14 only the synthesis weight ⁇ (dmin) corresponding to the argument dmin that gives the minimum pixel value difference S (dmin) is set to 1, and the synthesis weight ⁇ (d) corresponding to the other argument d is set to 0. Then, the synthesis weight acquisition process is terminated.
  • the value of the synthesis weight ⁇ (dmin) may be a value obtained by evenly distributing 1 by the number of dmins. In this case, for example, when there are two minimum pixel value differences S (dmin) with the same value, the values of the two combined weights ⁇ (dmin1) and ⁇ (dmin2) are set to 0.5 (1/2) each. .
  • step S15 it is determined whether or not the average value AvrS of the pixel value difference is a negative value. If the average value AvrS is a negative value, the process proceeds to step S16, and if not, the process proceeds to step S17. In addition, when progressing to step S17, the average value AvrS of a pixel value difference is just 0.
  • step S16 only the synthesis weight ⁇ (dmax) corresponding to the argument dmax giving the maximum pixel value difference S (dmax) is set to 1, and the synthesis weight ⁇ (d) corresponding to the other arguments d is set to 0. Then, the synthesis weight acquisition process is terminated.
  • the value of the composite weight ⁇ (dmax) may be a value obtained by evenly distributing 1 by the number of dmax. In this case, for example, when the maximum pixel value difference S (dmin) is two with the same value, the values of the two combined weights ⁇ (dmin1) and ⁇ (dmin2) are set to 0.5 (1/2) each. .
  • step S17 a value obtained by evenly distributing 1 to all the synthesis weights ⁇ (d) is set, and the synthesis weight acquisition process is terminated. If the total number of smoothing filters is D, the synthesis weight ⁇ (d) is 1 / D.
  • the smoothed image Smooth () smoothed in the optimum direction based on the positive / negative pixel value difference S (d) and the average value AvrS of the pixel value differences is easily obtained. Weighting (selection) can be performed with emphasis on d).
  • the pixel value of each pixel of the plurality of smoothed images Smooth (d) is positive or negative with the pixel value of the pixel of the processing target image In.
  • a synthesis weight acquisition unit 23 is provided that acquires a synthesized image Comp by performing weighted synthesis based on a plurality of pixel value differences S (d) considered. As a result, it is considered that the overall tendency of the pixel value difference S (d) taking into account positive and negative does not change even if a noise component occurs.
  • of the pixel value difference S (d) Unlike the case where the smoothed image Smooth (d) is weighted and synthesized based on the above, the relationship of the pixel value difference S (d) does not reverse. As a result, it is possible to appropriately perform weighted synthesis of the smoothed image Smooth (d) based on the pixel value difference S (d) taking into account positive and negative. Specifically, when the pixel value difference S (d) is close to the zero value, the pixel value difference S (d) fluctuates between positive and negative values near the zero value due to the influence of the noise component. When the absolute value
  • the normalized image Smooth (d) can be selected and weighted synthesis can be performed. Thereby, the smoothed image Smooth (d) can be appropriately weighted and synthesized, and the appropriately smoothed composite image Comp can be obtained.
  • the composite weight acquisition unit 23 acquires the average value AvrS of the plurality of pixel value differences S (d) in consideration of the positive and negative, and the plurality of pixel value differences S ( d) and an average value AvrS of pixel value differences are configured to acquire a plurality of composite weights ⁇ (d) corresponding to each pixel based on a function ⁇ ⁇ ⁇ having arguments.
  • the combination weight acquisition unit 23 uses the pixel value for each pixel in an index that determines that the pixel value difference S (d) increases from negative to positive.
  • the smoothed image Smooth corresponding to the large pixel value difference S (d) among the plurality of pixel value differences S (d) is controlled. Control is performed to increase the composite weight ⁇ (d) in (d).
  • the smoothed image Smooth (d) having a unique pixel value difference S (d) can be easily found.
  • the index for which the pixel value difference S (d) is determined to increase from negative to positive if the average value AvrS of the pixel value difference is negative, the overall trend is away from the positive direction. Due to the large pixel value difference S (d), it is possible to easily find a smoothed image Smooth (d) having a unique pixel value difference S (d).
  • the smoothed image Smooth (d) in which the pixel value difference S (d) is unique.
  • the composite weight ⁇ (d) corresponding to can be easily increased. As a result, it is possible to obtain a composite image Comp obtained by appropriately weighting and compositing with the smoothed image Smooth (d) in accordance with the overall tendency of the pixel value difference S (d).
  • the pixel value of each pixel of the processing target image In and the pixel value of each pixel at a corresponding position in the composite image Comp are weighted and combined.
  • an addition composite image generation unit 25 for obtaining the addition composite image Out is provided.
  • the addition composite image generation unit 25 when the addition composite image generation unit 25 performs weighted addition, the pixel value of each pixel of the processing target image In and the position of each pixel at the corresponding position of the composite image Comp.
  • An addition weight ⁇ corresponding to each pixel is acquired based on a function ⁇ ⁇ ⁇ having a pixel value as an argument, and an addition composite image Out is acquired based on the addition weight ⁇ .
  • a frequency analysis is performed on the input image In1, and a plurality of bands that are limited in the band to extract only an image including the specific frequency ⁇ j are used.
  • a band-limited image processing unit 20 is further provided that acquires an image for each frequency ⁇ j, performs frequency synthesis for reintegrating a plurality of images divided for each frequency ⁇ j, and acquires an output image subjected to frequency synthesis. Further, the band limited image processing unit performs frequency analysis on the processing target image In as the input image In1, acquires the band limited processing target image In, is band limited, and considers positive / negative for each pixel.
  • a synthesized image Comp obtained by weighted synthesis based on the pixel value difference S (d) is obtained, and frequency synthesis is performed on the image based on the synthesized image Comp subjected to band limitation and weighted synthesis to obtain an output image Out1. Is configured to do.
  • the band limited image processing unit 20 obtains a differential image IniDiff ( ⁇ j) subjected to a plurality of band limits from the input image In1.
  • i is an integer value corresponding to a power of 2 such as 1, 2, 4,..., And is a value representing the size of the image as will be described later.
  • the frequency ⁇ j corresponds to the frequency of the pixel value included in the difference image IniDiff ( ⁇ j).
  • the band-limited image processing unit 20 divides pixels into groups of 2 rows and 2 columns enclosed by crosses as shown in parentheses at the bottom of FIG.
  • the reduced image In2 ( ⁇ 1) is obtained by associating the pixel value obtained by arithmetic averaging (adding four pixel values and dividing by four) with the pixel value of one pixel.
  • the input image In1 is a collection of pixels of M rows and N columns, and is the processing target image In (X-ray captured image) itself. Further, 1 of In1 indicates that the size of In1 is equal to (1 times) the size of the original processing target image In (X-ray captured image).
  • the size of the image is 1 ⁇ 2 times the vertical and horizontal widths, respectively, and M / 2 rows N / 2 A collection of pixels in a column.
  • each pixel value included in the image has a certain pixel value, but the increase / decrease of the pixel value extracted from a pixel arranged in a line is relative to the superposition of many sine waves having different frequencies. It can always be represented by a constant value.
  • a pixel above the line indicated by the alternate long and short dash line shown in the image of FIG. 10 is a combination of several sine waves, such as sine waves W1, W2, and W3 within the frame indicated by the dotted line. Can be represented.
  • the sine waves W1, W2, and W3 have frequencies of ⁇ 1, ⁇ 2, and ⁇ 3, respectively.
  • the sine wave W1 is a high frequency with a large frequency (short wavelength), the sine wave W2 has the next highest frequency, and the sine wave W3 has the lowest frequency.
  • these sine wave graphs are microscopically represented as a collection of step-like lines because the pixels and pixel values are sampled and quantized. Further, the number of sine waves for representing pixel values is actually more than three. Further, not only the horizontal pixel value column but also the vertical pixel value column can be similarly represented by superimposing sine waves.
  • the sine wave component in which both peaks and valleys are included in the matrix of 2 rows and 2 columns included in the input image In1 is a peak portion and valley portion in the process of averaging groups of pixels of 2 rows and 2 columns. Disappears by negating each other.
  • the sine wave W1 having a high-frequency component disappears in the reduced image In2 ( ⁇ 1).
  • the sine wave corresponding to each sine wave included in the input image In1 has a frequency twice (wavelength is halved) corresponding to the fact that the width of the image is halved. It has become.
  • the band limited image processing unit 20 acquires the re-enlarged image In1 ( ⁇ 1) of M rows and N columns by associating one pixel of the reduced image In2 ( ⁇ 1) with four pixels.
  • the pixel values of the pixels belonging to each group divided into 2 rows and 2 columns are equal, and the average value of the pixel values of the pixels belonging to the same position of the original input image In1 is averaged.
  • the component of the sine wave W1 corresponding to the frequency ⁇ 1 disappears in the re-enlarged image In1 ( ⁇ 1).
  • the band limited image processing unit 20 subtracts the pixel value of the pixel at the corresponding position of the re-enlarged image In1 ( ⁇ 1) from the pixel value of the pixel of the input image In1,
  • the difference image In1Diff ( ⁇ 1) is acquired.
  • the difference image In1Diff ( ⁇ 1) only the component of the sine wave W1 corresponding to the frequency ⁇ 1 remains.
  • the reduced image In2 ( ⁇ 1) of M / 2 rows and N / 2 columns pixels are grouped into groups of 2 rows and 2 columns, and the pixel values are averaged to correspond to one pixel, so that M / 4 rows.
  • N / 4 rows of reduced images In4 ( ⁇ 2) are acquired.
  • the component of the sine wave W2 in which both the peaks and the valleys are included in the 2 ⁇ 2 matrix included in the reduced image In2 ( ⁇ 1) cancels the peaks and valleys. It disappears by meeting.
  • a re-enlarged image In2 ( ⁇ 2) of M / 2 rows and N / 2 columns is acquired.
  • the difference image In2Diff ( ⁇ 2) is obtained by subtracting the pixel value of the pixel at the corresponding position of the re-enlarged image In2 ( ⁇ 2) from the pixel value of the pixel of the reduced image In2 ( ⁇ 1).
  • the positive value i attached to the reduced image Ini ( ⁇ j) or the like indicates that the vertical and horizontal width of the image is 1 / (2) ⁇ i times the input image In1.
  • i matches 2 ⁇ j
  • the difference image IniDiff ( ⁇ j) i matches 2 ⁇ (j ⁇ 1).
  • a ⁇ b represents a calculation in which a is raised to an exponent b.
  • the difference image IniDiff ( ⁇ j) is halved in vertical and horizontal size each time the process is repeated. Accordingly, the band limited image processing unit 20 acquires the difference image IniDiff ( ⁇ j) up to an appropriate frequency ⁇ j (the size of the corresponding image) at which the structure of the subject S can be read, and terminates the process of acquiring the difference image IniDiff ( ⁇ j). .
  • all the obtained difference images IniDiff ( ⁇ j) and the minimum reduced image Ini ( ⁇ j) used to obtain the minimum difference image IniDiff ( ⁇ j) are appropriately replaced with one pixel in two rows and two columns.
  • the process of adjusting the size to the image of M rows and N columns is performed repeatedly, and the pixel values of the pixels at the corresponding positions of the respective images are integrated (added), thereby obtaining the original input image.
  • An image that matches In1 can be acquired. That is, the process of obtaining a plurality of differential images IniDiff ( ⁇ j) is equivalent to the process of acquiring the input image In1 by decomposing it into a plurality of images whose frequency bands are limited to sine wave components corresponding to the bands of the respective frequencies ⁇ j. .
  • the process of acquiring a plurality of difference images IniDiff ( ⁇ j) in which the band of the sine component is limited to the frequency ⁇ j from the input image In1 is performed by performing a frequency analysis on the input image
  • This is an example of a process of “obtaining, for each frequency, a plurality of band-limited images for extracting only images including frequencies”.
  • the processing for integrating the difference images IniDiff ( ⁇ j) with the same size is an example of “frequency synthesis for integrating a plurality of images divided for each frequency” in the claims.
  • the range occupied by the pixel of the noise component on the pixel value of the image of the processing target image In (X-ray captured image) has various sizes.
  • this noise component for example, by using a smoothing filter F (d) having a size matched to the size of the range occupied by the noise component, the pixel values of the smoothed image obtained for each size are further weighted and synthesized. Can also be obtained. Specifically, a plurality of filter sets of 3 rows and 3 columns, a set of filters of 5 rows and 5 columns,..., A set of filters of n rows and n columns, and a plurality of sizes of the smoothing filter F (d) may be prepared.
  • the size of the smoothing filter F (d) can be increased to an arbitrary size, the amount of calculation becomes enormous as the size increases.
  • the difference image IniDiff ( ⁇ j) is an image whose size is reduced according to i. Since it is a collection, the size of the range occupied by the noise component is reduced in response to the reduction in the size of the image. Further, by integrating all the difference images IniDiff ( ⁇ j) again, it is possible to return to the original input image In1. Thereby, noise corresponding to the size of the smoothing filter F (d) can be removed by using the smoothing filter F (d) of the same size for the difference image IniDiff ( ⁇ j), and thus the large difference image IniDiff.
  • a noise component occupying a small range in the original input image In1 can be removed from ( ⁇ j), and a noise component occupying a large range in the original input image In1 can be removed from the small difference image IniDiff ( ⁇ j).
  • the image smoothing unit 21 uses the D smoothing filters F (d) for each of the difference images IniDiff ( ⁇ j) acquired from the band limited image processing unit 20 to limit the frequency to ⁇ j.
  • D smoothed images Smooth (d) are obtained for each band of frequency ⁇ j.
  • the pixel value difference acquisition unit 22 determines whether D is positive or negative based on the difference image IniDiff ( ⁇ j) as the processing target image In and the D smoothed images Smooth (d) for each band of the frequency ⁇ j.
  • the pixel value difference S (d) is acquired.
  • the synthesis weight acquisition unit 23 acquires D synthesis weights ⁇ (d) for each band of the frequency ⁇ j based on the pixel value difference S (d) and the average value AvrS of the pixel value differences.
  • the composite image acquisition unit 24 acquires a composite image Comp, which is weighted and composited based on the D smoothed images Smooth (d) and the D composite weights ⁇ (d) for each band of the frequency ⁇ j. .
  • the addition composite image generation unit 25 obtains the addition composite image Out that has been subjected to the weighted addition synthesis based on the difference image IniDiff ( ⁇ j) and the composite image Comp as the processing target image In for each band of the frequency ⁇ j.
  • This added composite image Out is an image obtained by removing noise components for each band of frequency ⁇ j from the difference image IniDiff ( ⁇ j) by smoothing, and the difference image IniDiff ( ⁇ j) has the same size in the vertical and horizontal widths. ing.
  • the band limited image processing unit 20 aligns the image sizes of all the added composite images Out acquired for each band of the frequency ⁇ j and the difference image IniDiff ( ⁇ j) having the smallest size, and the corresponding pixel of each position
  • An integrated output image Out1 is acquired from the pixel values.
  • the process of aligning the image size is a process of repeating the process of doubling the vertical and horizontal width of the image by replacing the one pixel with a pixel having the same pixel value in 2 rows and 2 columns.
  • the process of acquiring the integrated output image Out1 is a process of adding pixel values of pixels at corresponding positions.
  • the output image Out1 is subjected to smoothing processing for each sine wave component corresponding to each frequency band of the processing target image In (input image In1) that is the original image, and noise components with various sizes are appropriately included. It is a removed image.
  • the image processing apparatus 200 acquires the image data transmitted from the X-ray imaging apparatus 101 as the input image In1 (processing target image In). Further, as described above, the image processing unit 2 included in the image processing apparatus 300 performs the difference image IniDiff ( ⁇ j) or the smallest reduced image Ini ( ⁇ j) obtained by band-limiting the processing target image In for each frequency ⁇ j. ) Is acquired as an image whose band is limited to the frequency ⁇ j of the processing target image In. In addition, the image processing unit 2 included in the image processing device 300 performs an addition composite image generation process including a composite weight acquisition process on each of the images that is band-limited to the acquired frequency ⁇ j, and from each image.
  • the image processing unit 2 included in the image processing device 300 performs an addition composite image generation process including a composite weight acquisition process on each of the images that is band-limited to the acquired frequency ⁇ j, and from each image.
  • a composite image Comp corresponding to a frequency ⁇ j component obtained by performing weighted synthesis on the basis of a pixel value difference S (d) in which positive and negative are considered in the plurality of smoothed images Smooth (d) to be acquired is acquired, and the frequency ⁇ j Is added to the processing target image In and the composite image Comp that have been band-limited to obtain an additive composite image Out.
  • the image processing unit 2 performs frequency synthesis by superimposing (adding) the added composite image Out whose band is limited to the frequency ⁇ j over all ⁇ j, and obtains an integrated output image Out1.
  • step S21 frequency analysis is performed on the input image In1 that is the processing target image In, and a differential image IniDiff ( ⁇ j) including only frequency components corresponding to the band of the predetermined frequency ⁇ j in the pixel value is obtained for each ⁇ j. Proceed to S22.
  • step S22 only the frequency component of the band corresponding to the frequency ⁇ j is obtained as the pixel value by performing addition synthesis image generation processing on the difference image IniDiff ( ⁇ j) including only the frequency component corresponding to the band of the frequency ⁇ j in the pixel value.
  • the added combined image Out is acquired, and the process proceeds to step S23.
  • the noise component is smoothed for each difference image IniDiff ( ⁇ j), so that the noise component can be removed for each band of the frequency ⁇ j.
  • the composite weight acquisition process executed in the addition composite image generation process and the addition composite image generation process according to the second embodiment is executed in the addition composite image generation process and the addition composite image generation process according to the first embodiment. This is the same process as the combined weight acquisition process.
  • step S23 the size of the acquired addition composite image Out and the minimum difference image IniDiff ( ⁇ j) is made uniform and synthesized over the bands of all the frequencies ⁇ j, thereby obtaining an integrated addition composite image.
  • the addition composite image generation / integration processing is terminated.
  • a composite weight acquisition unit 23 acquires a composite image Comp by performing weighted composite based on a plurality of pixel value differences S (d) that are considered to be positive or negative with respect to the pixel value of the pixel of the processing target image In.
  • the smoothed image Smooth (d) can be appropriately weighted and synthesized, and the appropriately smoothed composite image Comp can be obtained.
  • the frequency analysis is performed on the input image In1 that is the processing target image In, and band limitation is performed to extract only the difference image IniDiff ( ⁇ j) including the specific frequency ⁇ j.
  • a plurality of difference images IniDiff ( ⁇ j) are obtained for each frequency ⁇ j, and a frequency synthesis is performed by integrating the plurality of difference images IniDiff ( ⁇ j) divided for each frequency ⁇ j, and a frequency synthesized output image Out1 is obtained.
  • a band limited image processing unit 20 is provided.
  • a plurality of smoothed images Smooth (d) are obtained for each sine wave component corresponding to the frequency ⁇ j included in the processing target image In, and each pixel at a corresponding position in the plurality of smoothed images Smooth (d) is obtained.
  • a noise component can be smoothed for each band of the frequency ⁇ j by weighting and synthesizing pixel values based on a plurality of pixel value differences S (d) in which positive and negative are considered, and obtaining a synthesized image Comp.
  • Weighted synthesis can be performed.
  • the original processing target image In is appropriately smoothed for each frequency ⁇ j
  • An output image Out1 that is a converted image can be acquired.
  • the image processing apparatus 300 is connected to a low illuminance camera 301 including an imaging unit 8 including an imaging optical system 81 and an imaging element 82. Further, the image processing apparatus 300 is connected to the operation unit 6 and the display unit 7.
  • the imaging optical system 81 optically adjusts light incident from the outside, and sends it to the image sensor 82 as incident light.
  • the image sensor 82 converts the amplified light into an electrical signal and sends it to the image processing apparatus 300 as image data.
  • the imaging optical system 81 is configured by a combination of one or a plurality of lenses.
  • the image pickup element 82 is configured by, for example, a CCD (Charge Coupled Devices) image sensor, a CMOS (Complementary Metal Oxide Semiconductor) image sensor, or the like. Note that the image sensor 82 may be a cooled CCD image sensor or a cooled CMOS image sensor.
  • the low-illuminance camera 301 When imaging with the low-illuminance camera 301, a high-resolution image is acquired with a small amount of light, so that a noise component is likely to occur in the pixel value of the pixel. Therefore, even when a noise component is added to the pixel value, it is necessary to perform smoothing appropriately.
  • the low-illuminance camera 301 is configured to acquire not only the amount of incident light but also the wavelength, and unlike the case of the X-ray imaging apparatus 101, the pixel value of the pixel of the image includes chromaticity as well as luminance. It is. Since the chromaticity can be smoothed by the same processing as the luminance, the luminance and chromaticity can be individually smoothed to reduce noise components.
  • the image processing apparatus 300 acquires the image data sent from the low-illuminance camera 301 as the processing target image In.
  • the image processing unit 2 included in the image processing device 300 performs an additive composite image generation process including a composite weight acquisition process on the acquired processing target image In, and performs a plurality of smoothing operations acquired from the processing target image In.
  • the synthesized image Smooth (d) is weighted and synthesized based on the pixel value difference S (d) in which the sign is taken into account to obtain a synthesized image Comp, and the processing target image In and the synthesized image Comp are added and synthesized. Acquire image Out.
  • the pixel value of the pixel of the processing target image In is compared with the pixel value of each pixel of the plurality of smoothed images Smooth (d) at the pixel at the corresponding position.
  • a composite weight acquisition unit 23 is provided that acquires a composite image Comp by performing weighted composite based on a plurality of pixel value differences S (d) in which the positive and negative of the above are considered. Thereby, the smoothed image Smooth (d) can be appropriately weighted and synthesized, and the appropriately smoothed composite image Comp can be obtained.
  • the smoothing image Smooth (d) acquired from the processing target image In is appropriately applied.
  • the image can be synthesized with appropriate smoothing.
  • the image processing unit 2 is configured to acquire the added composite image Out by individually executing the calculations represented by Expressions (1) to (8).
  • the image processing unit 2 may calculate a plurality of mathematical expressions in one mathematical expression.
  • the addition composite image may be acquired by calculating the following equation (9) that combines the equations (5) and (6). In this case, steps S5 and S7 of the addition composite image generation process are combined into one step, and the acquisition of the composite image Comp is omitted.
  • Equation (9) ⁇ in the case of Equation (9) is changed so as to be obtained from the function ⁇ having the processing target image In and the smoothed image Smooth (d) as arguments.
  • the image processing unit 2 may acquire the calculation results of the mathematical formulas (1) to (8) by reading from the data stored in the storage unit 3 as a result of executing the calculation in advance. That is, the calculation process may be appropriately replaced with a reference process using a LUT (Lookup Table) or the like.
  • LUT Lookup Table
  • the image processing unit 2 is configured to acquire the addition combined image Out by weighting and combining the processing target image In and the combined image Comp.
  • the present invention is not limited to this.
  • the image processing unit 2 may acquire the composite image Comp as it is as a processed image, assuming that the processing target image In has been smoothed when the composite image Comp is acquired.
  • the synthesized weight ⁇ (d) corresponding to the smoothed image Smooth that is considered to be the most appropriate in the smoothing direction is set to 1, and the smoothed image Smooth in the other directions is set to 1.
  • the corresponding synthesis weight ⁇ (d) is configured to be 0, but the present invention is not limited to this. In the present invention, a value may be distributed to a plurality of synthesis weights ⁇ (d) such that the sum is 1.
  • the synthesis weight corresponding to the smoothed image Smooth (d) that causes the largest pixel value difference S (d) is 2/3
  • the synthesis weight corresponding to the second largest smoothed image Smooth (d) may be 1/3.
  • a function ⁇ (S (d), AvrS) that gives the pixel value difference S (d) and the synthesis weight ⁇ (d) by the function shown in FIG. Can be associated with each other.
  • the function of FIG. 14 corresponds to the case where the average AvrS of pixel value differences is negative.
  • the smoothing is performed in a direction closer to the peak near the zero value where the smoothing functioned better as the pixel value difference S (d) becomes larger in the positive direction. it is conceivable that. Therefore, the pixel value difference S (d) needs to be increased as the composite weight ⁇ (d) corresponding to the smoothed image that increases in the positive direction.
  • the function ⁇ shown in FIG. 14 (1) is a step function, and is a function that switches from 0 to a positive constant value at a certain threshold as the pixel value difference S (d) increases.
  • the composite weight ⁇ (d) becomes a positive value only when the pixel value difference S (d) exceeds a certain threshold, and the pixel value difference S (d) is less than the certain threshold.
  • the composition weight ⁇ (d) can be configured to be zero.
  • the function ⁇ shown in FIG. 14 (2) is a linear function, and is a function that increases smoothly (proportional) at a constant increase rate as the pixel value difference S (d) increases.
  • ⁇ (d) can be configured to increase smoothly as the pixel value difference S (d) increases.
  • the function ⁇ shown in FIG. 14 (3) is a logistic function having an inflection point, and is 0 when the pixel value difference S (d) is small and sufficiently far from the position of the inflection point to the negative value side (left side). Asymptotically, as the pixel value difference S (d) increases, the increase rate increases so that the maximum increase rate is reached at the position of the inflection point (threshold), and the increase rate starts to decrease.
  • This function is asymptotic to a positive constant value when S (d) is large and sufficiently far from the position of the inflection point to the positive value side (right side).
  • This logistic function has an intermediate property between the step function and the linear function.
  • the composite weight ⁇ (d) is distributed to a certain positive constant value and 0 value like a step function, and at a position near the inflection point, ⁇ This is a function to increase or decrease (d).
  • the logistic function when the pixel value difference S (d) is sufficiently large, the combination weight ⁇ (d) becomes a positive value, and when the pixel value difference S (d) is sufficiently small, the combination is performed.
  • the weight ⁇ (d) is 0 and the pixel value difference S (d) is an intermediate value, the composition weight ⁇ (d) can be configured to change smoothly.
  • the logistic function can smoothly perform weighted composition because the composition weight ⁇ (d) does not change abruptly depending on whether the pixel value difference S (d) exceeds the threshold value.
  • the logistic function is different from the linear function that weights in proportion to the pixel value difference S (d), and increases the composite weight ⁇ (d) corresponding to the smoothed image having a sufficiently large pixel value difference S (d). Weighting is performed and the combined weight ⁇ (d) corresponding to a smoothed image having a sufficiently small pixel value difference S (d) is set to approximately 0, so that a combined image Comprehensive is obtained.
  • the function in FIG. 14 may be a function that is reversed left and right around the origin.
  • the step function threshold and the inflection point position of the logistic function are arranged so as to be on the negative side (left side) with respect to the position where S (d) becomes 0, but S (d) May be configured to coincide with the position where S is 0, or may be configured to be on the positive side (right side) from the position where S (d) is 0.
  • the function ⁇ may be other functions.
  • a step function, a linear function, or a logistic function similar to the above can be used for the function ⁇ ⁇ ⁇ that gives the addition weight ⁇ .
  • the composite image Comp is distorted from the processing target image In by smoothing. it is conceivable that. Therefore, when the absolute value of the difference between the pixel value of the pixel to be processed In and the composite image Comp is small, the composite image Comp is weighted and added, and the pixel value of the pixel to be processed and the pixel value of the composite image Comp is calculated.
  • the processing target image In is weighted and added, so that the result of the synthesized image Comp that is the result of smoothing can be fed back to the processing target image In.
  • the properties of the function are the same as in the case of the synthesis weight ⁇ (d) shown in FIG. It should be noted that the function in FIG. 15 has a form that is horizontally reversed from the function in FIG.
  • the smoothing filter F (d) is set between the pixel value of the pixel at the target position and the pixel value of a pixel in the direction of one line segment extending around the target position.
  • the smoothing filter F (d) that performs smoothing between the pixel value of the pixel at the target position and the pixel value of the pixels located on two line segments extending in different directions around the target position is provided. You may comprise so that it may be included.
  • the smoothing filter F (d) corresponds to smoothing of the polygonal line structure of the subject S whose corner is the target position.
  • a smoothing filter F (d) that performs smoothing between the pixel value of the pixel at the target position and the pixel value of the pixel positioned on the curve extending from the target position may be included.
  • the smoothing filter F (d) corresponds to smoothing of the curved structure of the subject S passing through the target position. Further, it may be configured to include an isotropic smoothing filter F (d) for smoothing without depending on a specific direction. Further, although each coefficient included in the smoothing filter F (d) is configured to be constant regardless of the distance from the target position, the pixel value of the pixel that is close to the target position is more emphasized ( You may comprise so that it may smooth (weight heavily).
  • the shape of the smoothing filter F (d) is not limited to a square filter of n rows and n columns, but may be a rectangular filter or a circular filter of m rows and n columns.
  • the image processing apparatuses 100, 200, and 300 are configured by PCs.
  • the present invention is not limited to this.
  • the image processing apparatuses 100, 200, and 300 may be configured by a collection of electronic components (semiconductors such as a CPU) attached to a board.
  • a board in a cartridge shape may be built in the X-ray imaging apparatus 101 or the low-illuminance camera 301, or the board and the X-ray imaging apparatus 101 or the low-illuminance camera 301 may be connected by wired or wireless connection. May be.
  • the frequency analysis and frequency synthesis by the band-limited image processing unit 20 is performed, and the average value of the pixel values of four pixels in two rows and two columns is calculated as one pixel pixel with respect to the input image In1.
  • An example that is configured by a so-called Laplacian pyramid process that is performed by a combination of a process that corresponds to a value and a process that corresponds a pixel value of one pixel to a pixel value of four pixels in 2 rows and 2 columns and a process that obtains a difference between them.
  • the present invention is not limited to this.
  • the frequency analysis and frequency synthesis performed by the band limited image processing unit 20 may be configured to limit the band of the input image In1 by, for example, wavelet transform, decompose the image for each frequency, and integrate the images again.
  • the wavelet transform is a process of decomposing pixel values of an image by a set of wave packets (short wave clusters) having a portion that vibrates only in a predetermined range.
  • the image processing apparatus 300 having the same configuration as that of the first embodiment is used for the low-illuminance camera 301 is shown, but the present invention is not limited to this.
  • the image processing apparatus 300 according to the third embodiment may be provided with the same band limited image processing unit 20 as in the second embodiment.
  • the band-limited image processing unit 20 removes and smoothes noise for each sine wave component corresponding to the frequency ⁇ j with respect to the image acquired from the low-illuminance camera 301, and integrates the images from which noise has been removed.
  • An output image Out1 is acquired.
  • the image processing apparatus 300 may be widely used not only for the low-illuminance camera 301 but also for cameras that acquire images as image data (pixel values for each pixel).
  • an amplifying unit that amplifies the light incident from the imaging optical system 81 and sends it to the imaging element 82 may be provided between the imaging optical system 81 and the imaging element 82.
  • the amplification unit is configured by, for example, an image intensifier.
  • the addition composite image generation process and the composite weight acquisition process have been described using the “flow drive type” flowchart, but the present invention is not limited to this.
  • the band-by-band addition combined image acquisition / integration processing shown in the second embodiment may be configured to be performed by a flow driving type or an event driving type and a combination thereof.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Optics & Photonics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

この画像処理装置(100)は、処理対象画像に対して、ノイズ成分が平滑化された互いに異なる複数の平滑化画像を取得し、処理対象画像の画素の画素値と取得した平滑化画像の画素の画素値との正負が考慮された画素値差に基づいて、平滑化画像の重み付け合成を行う合成画像取得部(24)を備える。

Description

画像処理装置
 この発明は、画像処理装置に関し、特に、複数の平滑化フィルタにより画像を平滑化するとともに、平滑化された複数の画像を合成することによりノイズ成分が低減された画像を生成する画像処理装置に関する。
 従来、複数の平滑化フィルタにより画像を平滑化するとともに、平滑化された複数の画像を合成することによりノイズ成分が低減された画像を生成する画像処理装置が知られている。このような画像処理装置は、たとえば、特許第3472596号公報に開示されている。
 上記特許第3472596号公報には、処理対象画像の各画素に対して、ノイズ成分を平滑化するための互いに異なる複数の平滑化フィルタを用いて、処理対象画像の各画素の輝度または色度に対応する画素値から複数の平滑化画像の各画素の画素値を取得するとともに、処理対象画像の各画素の画素値と複数の平滑化画像の対応する位置における各画素の画素値との間において、画素値差の絶対値を複数の平滑化フィルタごとに取得し、画素値差の絶対値に基づいて複数の平滑化フィルタについて重み付けを行い、各画素について平滑化するノイズ低減フィルター(画像処理装置)が開示されている。このノイズ低減フィルターでは、注目画素の画素値に対する画素値の差の合計の絶対値が小さい画素を多く含む方向に平滑化する平滑化フィルタを重視して合成するように構成されている。
特許第3472596号公報
 しかしながら、上記特許第3472596号公報のノイズ低減フィルター(画像処理装置)では、注目画素の画素値に対する画素値の差の合計の絶対値が小さい画素を多く含む方向に平滑化する平滑化フィルタによる平滑化画像を重視して合成するように構成されている。このため、画像データの画素値にノイズ成分が生じる場合に、画素値の差の絶対値がノイズのない場合の値から増減するため、ノイズにより、ノイズがない場合とは異なる平滑化フィルタの重み付けを大きくして合成する場合があると考えられる。この場合に、処理対象画像を適切に平滑化して合成することが困難であるという問題点がある。
 この発明は、上記のような課題を解決するためになされたものであり、この発明の1つの目的は、画像データの画素値にノイズ成分が生じた場合にも、適切に平滑化して画像を合成することが可能な画像処理装置を提供することである。
 上記目的を達成するために、この発明の一の局面における画像処理装置は、処理対象画像の各画素に対して、ノイズ成分を平滑化するための互いに異なる複数の平滑化フィルタを用いて、処理対象画像の各画素の輝度または色度に対応する画素値から複数の平滑化画像の各画素の画素値を取得する画像平滑化部と、処理対象画像の各画素の画素値と複数の平滑化画像の対応する位置における各画素の画素値との間において、各画素の輝度または色度に対応する複数の画素値の正負が考慮された差である画素値差を複数の平滑化フィルタごとに取得する画素値差取得部と、複数の画素値差に基づいて、複数の平滑化画像の各画素の画素値を合成する際の重み付けに用いる合成重みを取得する合成重み取得部と、複数の平滑化画像の各画素に対して、平滑化画像の各画素の画素値の合成重みに基づいて重み付け合成を行い合成画像を取得する合成画像取得部とを備える。
 この発明の一の局面による画像処理装置では、上記のように、対応する位置の画素において、複数の平滑化画像の各画素の画素値に対して、処理対象画像の画素の画素値との正負が考慮された複数の画素値差に基づいて重み付け合成を行うことにより合成画像を取得する合成重み取得部を設ける。これにより、正負が考慮された画素値差の全体としての傾向はノイズ成分が生じても変わらないと考えられるので、画素値差の絶対値に基づいて平滑化画像を重み付け合成する場合とは異なり、画素値差の関係は逆転することがない。その結果、正負が考慮された画素値差に基づいて適切に平滑化画像の重み付け合成を行うことができる。具体的には、画素値差が0値に近いところでは、ノイズ成分の影響により画素値差が0値付近において正負をまたいで変動するため、画素値差の絶対値を取った場合には全体の傾向を考える場合に区別がつかなくなってしまう。一方で、画素値差の正負を保存したままであれば、ノイズ成分が乗ったとしても、画素値差の全体としての傾向は大きく変わらないことから、適切な平滑化画像を選択し、重み付け合成を行うことができる。これにより、適切に平滑化画像を重み付け合成し、適切に平滑化された画像を取得することができる。
 上記一の局面による画像処理装置において、好ましくは、合成重み取得部は、正負が考慮された複数の画素値差の平均値を取得するとともに、複数の画素値差と画素値差の平均値とに基づいて各画素に対応した複数の合成重みを取得するように構成されている。このように構成すれば、画素値差の全体の傾向である平均値に基づいて画素値差が特異な平滑化画像を容易に見つけることができるので、各平滑化フィルタごとの平滑化による変化を示す正負が考慮された各画素値差に基づいて、平滑化画像により適切に重み付け合成を行うことができる。
 この場合、好ましくは、合成重み取得部は、負から正に向かって画素値差が大きくなると判断される指標において、各画素に対して、画素値差の平均値が正である場合には、複数の画素値差のうち、小さい画素値差に対応する平滑化画像の合成重みを大きくする制御を行うとともに、画素値差の平均値が負である場合には、複数の画素値差のうち、大きい画素値差に対応する平滑化画像の合成重みを大きくする制御を行うように構成されている。このように構成すれば、負から正に向かって画素値差が大きくなると判断される指標において、画素値差の平均値が正であれば、全体の傾向から負値の方向に向かって離れている小さい画素値差により、画素値差が特異な平滑化画像を容易に見つけることができる。また、負から正に向かって画素値差が大きくなると判断される指標において、画素値差の平均値が負であれば、全体の傾向から正値の方向に向かって離れている大きい画素値差により、画素値差が特異な平滑化画像を容易に見つけることができる。したがって、画素値差の平均値に対してピークの位置(特異な位置)にある画素値差に基づいて、画素値差が特異な平滑化画像に対応する合成重みを容易に大きくすることができる。その結果、画素値差の全体の傾向に合わせて、平滑化画像により適切に重み付けをして合成した合成画像を取得することができる。
 上記一の局面による画像処理装置において、好ましくは、各画素に対して、処理対象画像の各画素の画素値と合成画像の対応する位置における各画素の画素値とを重み付け加算して合成を行い、加算合成画像の取得を行う加算合成画像生成部を設ける。このように構成すれば、元の処理対象画像と平滑化された結果である合成画像とをさらに比較して、平滑化による変化の度合いを考慮して、処理対象画像と合成画像との間において加算合成を行うことができる。
 この場合、好ましくは、加算合成画像生成部は、重み付け加算を行う場合に、処理対象画像の各画素の画素値と合成画像の対応する位置における各画素の画素値とに基づいて各画素に対応した加算重みを取得し、加算重みに基づいて加算合成画像を取得するように構成されている。このように構成すれば、処理対象画像の各画素の画素値と合成画像の対応する位置における各画素の画素値とから、処理対象画像と合成画像との加算の重み付けの度合いを容易に取得することができる。
 上記一の局面による画像処理装置において、好ましくは、入力画像に対して周波数解析を行い、特定の周波数を含む画像のみを取り出す帯域制限がされた複数の画像を周波数ごとに取得するとともに、周波数ごとに分けられた複数の画像を再び統合する周波数合成を行い、周波数合成された出力画像を取得する帯域制限画像処理部をさらに備え、帯域制限画像処理部は、入力画像として処理対象画像に対する周波数解析を行い、帯域制限がされた処理対象画像を取得し、帯域制限がされるとともに各画素に対して正負が考慮された画素値差に基づいて重み付け合成がされた合成画像を取得し、帯域制限および重み付け合成がされた合成画像に基づいて画像に対する周波数合成を行い、出力画像を取得するように構成されている。このように構成すれば、処理対象画像の周波数成分ごとに複数の平滑化画像を取得し、処理対象画像の各画素の画素値と複数の平滑化画像の対応する位置の各画素の画素値とを正負が考慮された複数の画素値差に基づいて重み付け合成し、合成画像を取得することにより、周波数帯域ごとにノイズ成分を平滑化することができるので、画像に映りこんだ被写体の構造の境界線のボケ(ぼやけ)を抑制しつつ、より効果的にノイズ成分を平滑化した画像データに対して重み付け合成を行うことができる。
 上記のように、本発明によれば、画像データの画素値にノイズ成分が生じた場合にも、平滑化画像に対して適切に重み付けを行うことにより、適切に平滑化して画像に合成を行うことができる。
本発明の第1実施形態による画像処理装置を示したブロック図である。 処理対象画像に平滑化フィルタを用いることにより平滑化画像を取得する処理を示した図である。 注目位置からそれぞれ45度刻みの関係にある互いに異なる線分方向に平滑化を行う5行5列の平滑化フィルタの一例を示した図である。 注目位置からそれぞれ15度刻みの関係にある互いに異なる線分方向に平滑化を行う5行5列の平滑化フィルタの一例を示した図である。 線構造の被写体が映りこんだX線撮像画像の一例を示した図である。 線構造の被写体の先端部分の画素の画素値と平滑化画像の画素の画素値との画素値差および画素値差の絶対値をプロットしたグラフである。 本発明の第1実施形態による加算合成画像生成処理を説明するためのフローチャートである。 本発明の第1実施形態による合成重み取得処理を説明するためのフローチャートである。 本発明の第2実施形態による画像処理装置を示したブロック図である。 入力画像に対して縮小画像を取得するとともに縮小画像を再拡大画像とすることにより周波数成分が除去されることを説明するための図である。 入力画像の画素の画素値から再拡大画像の画素の画素値を減算することにより特定の周波数成分のみが残ることを説明するための図である。 本発明の第2実施形態による帯域別加算合成画像生成・取得処理を説明するためのフローチャートである。 本発明の第3実施形態による画像処理装置を示したブロック図である。 本発明の第1~3実施形態の変形例による合成重みを取得するための関数を説明するための図である。 本発明の第1~3実施形態の変形例による加算重みを取得するための関数を説明するための図である。
 以下、本発明を具体化した実施形態を図面に基づいて説明する。
 [第1実施形態]
 (画像処理装置の構成)
 まず、図1~図8を参照して、本発明の第1実施形態による画像処理装置100の全体構成について説明する。第1実施形態においては、画像処理装置100をX線撮像装置101に用いた場合の例を示す。なお、画像処理装置100は、本発明の第1実施形態による画像処理装置として機能するとともに、X線撮像装置101の制御部としても機能するように構成されている。これは、装置構成の簡素化のための措置であって、画像処理装置100とX線撮像装置101の制御部とを別構成とし、互いにデータをやり取りするように構成してもよい。
 図1に示されるように、画像処理装置100は、主制御部1と、画像処理部2と、記憶部3を備えている。画像処理部2は、画像平滑化部21と、画素値差取得部22と、合成重み取得部23と、合成画像取得部24と、加算合成画像生成部25とを含む。記憶部3は、プログラム31とデータ32とを含んでいる。また、画像処理装置100は、たとえば、PC(パーソナルコンピュータ)などによって構成され、プログラム31を適宜読み出し実行することにより、画像処理装置として機能するように構成されている。また、画像処理装置100は、X線撮像装置101に接続されている。
 主制御部1は、記憶部3に格納されたプログラム31を実行することによって、PCを画像処理装置100として機能させるとともに、X線撮像装置101の制御部として機能させる。また、主制御部1は、X線撮像装置101に対する制御部としては、X線撮影の実行や撮影方向・範囲・撮影回数などを制御する。画像処理装置100としての機能については後述する。
 X線撮像装置101は、X線撮像装置101制御部として機能する画像処理装置100と接続されるとともに、被写体SにX線を照射して、被写体Sの撮影部位(透視部位または撮像部位)の透視または撮像をするとともに、撮影した画像を画像処理装置100に送出するように構成されている。また、X線撮像装置101は、X線照射部4と、X線受像部5と、操作部6と、表示部7とを備えている。なお、X線撮像装置101により撮影されるX線画像は、低線量によって連続的に撮影するX線透視画像と、高線量によって撮影するX線撮像画像との両方の画像を含んでいる。以下では、代表してX線撮像がされる場合について説明するが、X線透視についても同様の結果が得られる。
 X線照射部4は、被写体Sに向けてX線を照射する。X線受像部5は、被写体を透過したX線を受像し、X線撮像画像を撮像するとともに、受像したX線撮像画像のデータを電気信号に変換し、画像処理装置100に処理対象画像InであるX線撮像画像のデータを送出する。また、X線照射部4とX線受像部5とは、天板を挟んで対向するように配置され、天板上に横臥する被写体SをX線撮像するように構成されている。なお、X線照射部4は、たとえば、X線管により構成されている。また、X線受像部5は、たとえば、FTP(Flat Panel Detector)により構成されている。
 操作部6は、操作者の操作命令の入力を受け付けるように構成されている。また、操作部6は、X線撮像装置101の操作とともに画像処理装置100の画像処理方法の選択等の操作も行うことができるように構成されている。また、表示部7は、たとえば、画像処理装置100によって画像処理がされたX線撮像画像を表示するほか、X線撮像装置101および画像処理装置100の操作に関する各種画面表示を行う。なお、操作部6は、たとえば、操作者の操作入力を受け付けるキーボード、マウスおよび操作レバーなどから構成されている。また、表示部7は、たとえば、液晶パネルおよびバックライトなどにより構成されている。
 (画像の平滑化処理)
 以下では、図2~図6に基づいて、画像処理装置100による画像の平滑化処理を説明する。
 画像処理装置100は、X線撮像装置101からX線による撮影画像(X線透視画像またはX線撮像画像)の画像データを取得する。以下では、代表してX線撮像画像を取得した場合を考える。なお、X線撮像画像は、画素ごとに受像した透過X線の大きさが画素値としてあらわされるグレースケールの画像であり、この場合、画素値としては輝度のみを考える。
 画像処理装置では、たとえば、画像データに対して、操作者が視認性を向上させるために、画像に含まれる被写体の境界線の強調処理や、コントラストなどの調整処理、任意部分の拡大・縮小処理、回転処理、トリミング処理、ネガとポジの反転処理など様々な画像処理が行われる。本発明の第1実施形態による画像処理装置100は、上記の画像処理を行うとともに、画像の画素の画素値に含まれるノイズ成分による変動を抑制し、画像の画素値の変化が滑らかな視認性の良い画像とする平滑化処理を行うように構成されている。以下では、特に画像の平滑化処理について説明する。
 画像にノイズ成分が含まれている場合、ノイズ成分によって理想的な画素値から変動してしまうため、画素値が滑らかに変化しない視認性の悪い画像になってしまう。このノイズ成分は、様々な理由によって発生するが、X線撮像画像の場合は、たとえば、X線照射部4(X線管)が熱電子を電極に衝突させてX線を発生させることに起因して、原理的に避けることができないポアソン分布に由来するX線照射の不均一(統計的な変動である量子ノイズ)が、画像にノイズ成分が乗る大きな原因となっている。X線照射部4により照射されるX線の強度を大きくすればこのポアソン分布に由来するノイズを小さくすることが可能ではあるが、同時に被写体Sや操作者の被曝量が大きくなるため望ましくない。したがって、X線照射量を低く抑えた状態においても、発生するノイズ成分の影響をできるだけ除去し、X線撮像画像の視認性を向上させる必要がある。なお、X線撮像画像に生じるノイズには、X線受像部5(FDP)の画素値の読み出し時に生じるノイズや、画像のデータをやり取りする間に、外来の電磁波や熱雑音などによって電子回路に生じるノイズなども存在する。なお、画像処理装置100によって取得される平滑化画像は、発生原因によらずノイズを除去することが可能である。
 まず、平滑化方法について簡単に説明する。画像は、十分に小さい範囲で見れば局所的に略一様の構造となっているため、画素値もこの範囲では略等しいと考えられる。すなわち、画素の1つ1つが十分に細かいとすると、ある注目位置の画素とその周辺位置の画素は、画素値が略等しいと考えられる。一方で、ノイズ成分はそれぞれの画素値にランダムに乗るため、画素値はノイズ成分によって変動が生じ、本来の値から大きい値または小さい値となる。そこで、注目位置およびその周辺位置における画素の画素値の平均値を取得して、注目位置の画素の画素値と置き換えることにより、ノイズ成分を相殺することができる。全ての画素において上記平均値で置き換える処理を行えば、ノイズを平滑化した平滑化画像が得られる。
 なお、周辺位置の全ての画素の画素値との平均値を取る処理を行うとすれば、注目位置の周辺位置に画像に映りこんだ被写体の構造が変わる境界線の部分がある場合に、境界線をまたぎながら画素値の平均値を取ることになる。これにより、被写体の境界線についても平滑化されてしまうため、被写体の境界線にボケ(ぼやけ)が生じてしまう。したがって、被写体の構造に沿った方向の平滑化を重視し、被写体の構造の境界をまたぐ方向の平滑化を無視するような平滑化を行う必要がある。
 具体的には、たとえば、図2に示されるように、ある特定の方向に平滑化を行う平滑化フィルタF(d)を用意することによって、被写体の構造に応じた平滑化を行う。注目位置の画素を中心にある特定の方向に伸びる線分上に位置する画素の画素値の平均値を取り、注目位置の画素値として置き換える処理を行う。ここで、処理対象画像InはM行N列の画素データの集まりであり、平滑化を行う対象となる画像である。また、点線の丸で囲まれた部分が注目位置の画素であり、注目位置の画素を中心とする正方形により囲まれた領域が平滑化の行われる対象となる平滑化領域である。平滑化フィルタ(d)は平滑化を行う方向に応じてD枚あり、それぞれ互いに平滑化の方向が異なる異方性のフィルタである。dは、1からDのいずれかの正の整数値をとり、平滑化フィルタF(d)を区別するための数値である。平滑化フィルタF(d)内に示される線分は、注目位置およびその周辺の位置の画素のうち、線分上に位置する画素が平滑化に寄与する画素であることを表している。D枚の平滑化フィルタF(d)を処理対象画像Inに用いることにより、注目位置および平滑化フィルタF(d)に対応する周辺位置における画素の画素値が平滑化され、D枚の平滑化画像Smooth(d)の画素値が取得される。上記D枚の平滑化フィルタF(d)を用いて平滑化を行う処理は、処理対象画像Inの全ての画素に対して行われ、各画素ごとにD枚の平滑化画像Smooth(d)の画素値が得られる。
 より詳細には、平滑化フィルタF(d)は、たとえば、図3のような値を持つ演算子のマトリクスとしてあらわされる。この場合、平滑化フィルタF(d)は、8枚の5行5列のマトリクスとしてあらわされ、注目位置の画素値を中心に45度刻みの8方向に対して、注目位置の画素を含む3つの隣接する画素の画素値を平滑化する。平滑化フィルタF(d)内の係数1/3は、対応する位置にある処理対象画像Inの画素の画素値を1/3倍(係数倍)して取得することを表している。取得された全ての画素値を合計すれば、係数の位置にある画素の画素値の平均値を取得することができる。すなわち、処理対象画像Inの各位置の画素について、平滑化フィルタF(d)ごとに8枚の平滑化画像Smooth(d)の画素の画素値を得ることができる。なお、係数が書かれていない空欄の部分は、係数が0であることを省略した部分であり、空欄の位置にくる画素は平滑化に寄与しないことを示している。また、θは平滑化の方向をあらわしている。
 8枚の平滑化画像Smooth(d)から1枚の合成画像Compを得るために、D枚の平滑化画像Smooth(d)のうち、被写体の構造に沿った方向に平滑化が行われている平滑化画像Smooth(d)を大きく重み付けして合成し、被写体の構造をまたぐ方向に平滑化が行われている平滑化画像Smooth(d)を小さく重み付けして合成する重み付け合成処理を行う。これにより、被写体の同じ構造に属する画素の間において平滑化された平滑化画像の寄与を大きくして合成し、被写体の構造の異なる部分をまたぎながら平滑化された平滑化画像の寄与を小さくして合成を行うことができるので、平滑化によりノイズ成分を低減しつつ、被写体の構造の境界をまたいで平滑化することに起因する境界線のボケ(ぼやけ)を抑制することができる。処理対象画像Inの各画素について上記のように平滑化画像Smooth(d)を重み付け合成すことにより、適切に平滑化がなされた結果である合成画像Compを取得することができる。
 なお、図4に示されるように、平滑化フィルタF(d)の枚数をさらに増やし、より多くの平滑化方向を設定することもできる。図4は、15度刻み24方向に平滑化することが可能な24枚の平滑化フィルタF(d)の3枚目までを示した図である。この場合、15度方向や30度方向に平滑化するときは、2つの画素をまたいだ方向に平滑化する必要が生じるため、またがった2つの画素の画素値の寄与を補償して平滑化する必要が生じる。たとえば、30度方向に平滑化する平滑化フィルタF(3)において、係数k(1,0)と係数k(1,1)とは、1つの画素値の寄与に対応する係数1/3を、幾何的に30度の正接であるtan(π/6)を用いて分配した値とすればよい。すなわち、k(1,0)はtan(π/6)/3となり、k(1,1)は{1-tan(π/6)}/3となる。実際には、tan(π/6)は無理数であるから、計算機の処理能力や画素値の桁数に合わせて適当な桁数で取得を打ち切り、結果の値をあらかじめ記憶部3に記憶させ、適宜記憶部3から読み出して用いればよい。他の係数の具体的な値については省略する。また、45度の場合は、図3に示される平滑化フィルタと同様の構成となる。45度以降の平滑化フィルタF(d)については、上記いずれかのフィルタに対して注目位置を中心として回転または反転させたものと同様の構成であり、図示を省略する。
 また、図示は省略するが、平滑化フィルタF(d)の大きさをn行n列(たとえば、7行7列)に拡大することもできる。この場合、上記と同様に平滑化方向に存在する画素に1を等分した係数を分配してもよいし、注目位置に近い画素に対して係数が比較的大きくなるように分配してもよい。いずれにしても、平滑化の前後において画像全体の画素値が変化しないようにするためには、各平滑化フィルタF(d)に含まれる係数の合計は、1となるように規格化されている必要がある。
 平滑化画像Smooth(d)の重み付けについて具体的に説明する。処理対象画像Inの画素の画素値と平滑化画像Smooth(d)の対応する位置の画素の画素値との値が近いものであれば、略同じ画素値となる被写体の構造の近いところに属する画素の間において平滑化がうまく行われたと考えることができる。一方で、処理対象画像Inの画素の画素値と平滑化画像Smooth(d)の対応する位置の画素の画素値との値が大きく異なっていれば、被写体の異なる構造(被写体の構造の境界線)をまたぎながら平滑化が行われていると考えることができる。そのため、処理対象画像Inの画素の画素値と平滑化画像Smooth(d)の画素の画素値とを比較することにより、どの平滑化画像Smooth(d)を合成の際に重視する必要があるか判断することができる。
 このような場合に、処理対象画像Inの画素の画素値と平滑化画像Smooth(d)の画素の画素値との差の絶対値を取得し、画素値差の絶対値が小さいSmooth(d)をより大きく重み付けして合成を行う処理がなされてきた。
 ここで、図5に示される線形構造の被写体を撮像した画像に対して平滑化を行う場合を考える。この被写体Sは先端部分の周辺において略一様な構造となっているとする。白くあらわされている部分は、被写体Sの映りこみが生じている部分であり、被写体SによってX線受像部5に入射する量が減るため、X線受像が少ない部分である。また、斜線によってあらわされている部分は、被写体Sの映りこみが生じていない部分であり、X線照射部4で照射されたX線が被写体Sを透過することなくX線受像部5に入射するため、X線受像の線量が多い部分である。
 このとき、注目位置の画素を中心としてそれぞれ15度刻みの互いに異なる24方向に伸びる線分上に画素の画素値を平滑化する24枚の平滑化フィルタF(d)を用いることにより、24枚の平滑化画像Smooth(d)を取得する。線構造の先端部分を注目位置とすると、注目位置における処理対象画像Inの画素の画素値から平滑化画像Smooth(d)の画素の画素値を減算することにより、平滑化画像Smooth(d)に対応した24の画素値差S(d)が取得される。
 図6(1)で示されるグラフは、ノイズ成分がない場合の理想的な正負が考慮された画素値差S(d)および画素値差の絶対値|S(d)|をあらわすグラフである。画素値差S(d)は、先端部分において被写体Sが一様となることから、180度方向には略0となり、180度からずれるにつれて負値となる。すなわち、被写体Sの線構造と対応して、画素値差S(d)は、180度方向に0値に近いピークを持つ山型のグラフとなっている。この場合、画素値差S(d)の画素値差の絶対値|S(d)|を取ると、正負の逆転により180度方向に0値に近いピークを持つ谷型のグラフとなる。この場合、ノイズ成分の影響がないので、画素値差S(d)と画素値差の絶対値|S(d)|との間においてピークとして得られる方向に違いがない。すなわち、画素値差S(d)および画素値差の絶対値|S(d)|のいずれの場合も、線構造に沿った方向に平滑化されている180度方向に対応する平滑化画像Smooth(d)をより大きく重み付け合成して合成画像Compを取得すればよいとわかる。
 次に、ノイズ成分が処理対象画像Inの画素の画素値に乗った場合を考える。画素値差S(d)および画素値差の絶対値|S(d)|は、ノイズ成分がある場合に、たとえば、図6(2)に示すようなグラフとなる。この場合に、画素値差S(d)および画素値差の絶対値|S(d)|は、それぞれノイズ成分による値の変動があるものの、全体の傾向としては略図6(1)のグラフの形を保っていることがわかる。つまり、画素値差S(d)はやはり180度方向をピークとした山型のグラフとなり、画素値差の絶対値|S(d)|は180度方向をピークとした谷型のグラフとなる。
 一方で、ノイズ成分の乗り方によっては、図6(3)に示されるグラフが得られる場合もある。このとき、180度方向の平滑化に対応する画素値差S(d)は、ノイズ成分がない状況であれば略0であるはずが、ノイズ成分の重畳により正の値にずれてしまっている。この場合でも、画素値差S(d)は、グラフの全体の傾向としては変わらないため、依然として山型のグラフを保っており、180度方向がグラフのピークとなっている。一方で、画素値差の絶対値|S(d)|は、正負の考慮がされないため、図6(3)の右側のグラフのように、195度方向の平滑化画像に対応する方向をピークであると誤認してしまう。すなわち、195度方向を重視して平滑化画像Smooth(d)を重み付け合成してしまうことになる。このような構造の方向の誤認は、画素値差S(d)が0に近い場合に、ノイズ成分の影響によって正負が容易に入れ替わりうるために生じる。
 以上のように、ノイズ成分を考慮して平滑化する場合には、画素値差の絶対値|S(d)|ではなく、正負が考慮された画素値差S(d)に基づいて平滑化画像の重み付け合成を行うことにより適切に平滑化画像Smooth(d)の重み付け合成を行うことができる。
 以下では、正負が考慮された画素値差S(d)によって処理対象画像Inから平滑化処理の最終結果である加算合成画像(処理済み画像)Outを取得する一連の処理について画像処理装置100の構成に基づいて詳細に説明する。
 ここで、第1実施形態による画像処理装置100では、処理対象画像Inの各画素に対して、ノイズ成分を平滑化するための互いに異なる複数の平滑化フィルタF(d)を用いて、処理対象画像Inの各画素の輝度または色度に対応する画素値から複数の平滑化画像Smooth(d)の各画素の画素値を取得する画像平滑化部21が設けられている。
 具体的には、画像平滑化部21は、X線撮像装置101から取得したX線撮像画像である処理対象画像Inを取得する。この場合、画像平滑化部21は、記憶部3にX線撮像画像のデータを記憶させ、記憶部3(データ32)から読み出すことにより処理対象画像Inを取得するように構成してもよい。また、画像平滑化部21は、処理対象画像Inに互いに異なる平滑化係数を含む演算子のマトリクスであるD枚の平滑化フィルタF(d)を用いて、処理対象画像Inの各位置の画素の画素値に対して、dに応じた総数D枚の平滑化画像Smooth(d)の画素の画素値を取得する。この平滑化画像Smooth(d)の各位置に対応する画素の画素値を取得する計算は、数式(1)のようにあらわすことができる。
Figure JPOXMLDOC01-appb-M000001
 ただし、黒丸であらわされる演算子は、処理対象画像Inの注目位置における画素の画素値および平滑化フィルタF(d)に対応した注目位置の周辺位置における画素の画素値を取得して、取得した画素値に平滑化フィルタF(d)ごとに異なる平滑化係数を乗算し、足し合わせることにより平滑化(たとえば、相加平均)し、得られた画素値を注目位置の画素の画素値として置き換えることにより平滑化画像Smooth(d)を取得する計算をあらわしている。なお、dは、1、2、3、…、Dに対応する正の整数のいずれかである。
 また、第1実施形態による画像処理装置100では、処理対象画像Inの各画素の画素値と複数の平滑化画像Smooth(d)の対応する位置における各画素の画素値との間において、各画素の輝度または色度に対応する複数の画素値の正負が考慮された差である画素値差S(d)を複数の平滑化フィルタF(d)とに取得する画素値差取得部22が設けられている。
 具体的には、画素値差取得部22は、処理対象画像Inの各位置の画素と平滑化画像Smooth(d)の対応する各位置の画素に対して、正負が考慮された差分値である画素値差S(d)を取得する。この各画素に対して画素値差S(d)を取得する計算は、数式(2)のようにあらわすことができる。
Figure JPOXMLDOC01-appb-M000002
 また、第1実施形態による画像処理装置100では、複数の画素値差S(d)に基づいて、複数の平滑化画像Smooth(d)の各画素の画素値を合成する際の重み付けに用いる合成重みα(d)を取得する合成重み取得部23が設けられている。
 また、第1実施形態による合成重み取得部23は、正負が考慮された複数の画素値差S(d)の平均値AvrSを取得するとともに、複数の画素値差S(d)と画素値差の平均値AvrSとに基づいて各画素に対応した複数の合成重みα(d)を取得するように構成されている。
 また、第1実施形態による合成重み取得部23は、負から正に向かって画素値差が大きくなると判断される指標において、各画素に対して、画素値差の平均値AvrSが正である場合には、複数の画素値差S(d)のうち、小さい画素値差S(d)に対応する平滑化画像Smooth(d)の合成重みα(d)を大きくする制御を行うとともに、画素値差の平均値AvrSが負である場合には、複数の画素値差S(d)のうち、大きい画素値差S(d)に対応する平滑化画像Smooth(d)の合成重みα(d)を大きくする制御を行うように構成されている。
 具体的には、合成重み取得部23は、全ての画素値差S(d)に対して相加平均することにより、画素値差の平均値AvrSを取得する。この画素値差の平均値AvrSを取得する計算は、数式(3)のようにあらわすことができる。
Figure JPOXMLDOC01-appb-M000003
 また、合成重み取得部23は、平滑化画像Smooth(d)の合成重みα(d)を、画素値差S(d)および画素値差の平均値AvrSに基づいて取得する。合成重みα(d)は正の実数値であり、合成後の合成画像Comp全体の画素値が合成前の処理対象画像In全体の画素値と同じ基準となるように、全てのdについて合成重みα(d)を合計すればちょうど1となるように規格化されている。この合成重みα(d)を取得する計算は、数式(4)のようにあらわすことができる。
Figure JPOXMLDOC01-appb-M000004
 ただし、kは合成重みα(d)を規格化するための規格化定数である。
 関数Αは、画素値差S(d)および画素値差の平均値AvrSを引数とする関数である。図6(3)の左のグラフによって示されたように、被写体Sの線構造の先端部分の画素を注目位置とした場合の正負が考慮された画素値差S(d)のグラフは、構造の方向に沿った平滑化画像Smooth(d)に対応する画素値差S(d)に上に凸のピークがくる。また、処理対象画像Inの注目位置の周辺位置の線構造以外の部分に対応する画素の画素値は、注目位置より相対的にX線が多く入射するため、大きくなる。これにより、線構造に沿った方向以外の方向に対応する画素値差S(d)は負の値となる。したがって、画素値差の平均値AvrSは負となる。ここで、画素値差S(d)のグラフのピークは、画素値差S(d)の中で正値の方向に最も離れた画素値差S(d)に対応している。すなわち、画素値差の平均値AvrSが負であるときは、負から正に向かって画素値差が大きくなると判断される指標において、画素値差S(d)が大きい平滑化画像Smooth(d)ほど、構造の方向に沿った平滑化に対応している。
 一方で、図示は省略するが、注目位置を被写体Sが映りこまない部分にとり、周辺位置に被写体Sの境界(構造)がある状況を考える。この場合、被写体Sの境界をまたぐ方向に平滑化してしまうと、画像のエッジにボケ(ぼやけ)が生じてしまう。したがって、被写体Sの映りこまない方向に平滑化した平滑化画像Smoothを大きく重み付けして合成する必要がある。また、被写体の映りこまない方向の平滑化に対応する画素値差S(d)は、ノイズ成分がないとすれば、略0値となる。また、被写体の境界をまたぐ方向の平滑化に対応する画素値差S(d)は、正の値となる。特に、被写体の境界と垂直となる方向に平滑化した画素値差S(d)が最も大きな値となる。この結果、正負を考慮した画素値差S(d)のグラフは、被写体Sの境界に垂直に平滑化する平滑化画像Smooth(d)に対応するS(d)が0値と近い底部(ピーク)をもつ下に凸の谷型のグラフとなる。つまり、画素値差S(d)のピークは、上記のように、画素値差S(d)の中で負値の方向に最も離れた画素値差S(d)に対応している。また、被写体の映りこまない方向以外の方向に対応する画素値差S(d)は正の値となるため、画素値差の平均値AvrSは正となる。すなわち、画素値差の平均値AvrSが正であるときは、負から正に向かって画素値差が大きくなると判断される指標において、画素値差S(d)が小さい平滑化画像Smooth(d)ほど、構造の方向に沿った平滑化に対応している。
 まとめると、負から正に向かって画素値差が大きくなると判断される指標において、画素値差の平均値AvrSが正であるときは、画素値差S(d)が小さい平滑化画像Smooth(d)ほど構造の方向に沿った平滑化に対応し、画素値差の平均値AvrSが負であるときは、画素値差S(d)が大きい平滑化画像Smooth(d)ほど構造の方向に沿った平滑化に対応している。すなわち、関数Αは、画素値差の平均値AvrSが正の場合には、画素値差S(d)が小さくなる平滑化画像Smooth(d)ほど、合成重みα(d)を小さくし、画素値差の平均値AvrSが負の場合には、画素値差S(d)が大きくなる平滑化画像Smooth(d)ほど、合成重みα(d)を大きくする関数であればよい。第1実施形態では、関数Αを、画素値差の平均値AvrSが正の場合には、画素値差S(d)が最も小さくなる平滑化画像Smooth(dmin)に対応する合成重みα(dmin)を1とし、その他の合成重みα(d)を0とする。また、関数Αを、画素値差の平均値AvrSが負の場合には、画素値差S(d)が最も大きくなる平滑化画像Smooth(dmax)に対応する合成重みα(d)を1とし、その他の合成重みα(dmax)を0とする。dminは最小のS(d)に対応するdであり、dmaxは、最大のS(d)に対応するdである。関数Αをこのように構成すれば、平滑化の方向が最適となる方向に対応する平滑化画像Smooth(d)のみが合成画像Compに寄与することになる。
 なお、AvrSが0となる場合は、注目位置の周辺位置の画素の画素値に特異な方向性がないと考えられる。したがって、AvrSが0となる場合は、たとえば全ての合成重みα(d)を均等配分とし、1/Dとすればよい。この場合、合成画像Compは、注目位置において全方向に対して均等に平滑化した画像となっている。
 また、第1実施形態による画像処理装置100では、複数の平滑化画像の各画素に対して合成重みに基づいて重み付け合成を行い合成画像を取得する合成画像取得部24を設ける。
 具体的には、合成画像取得部24は、合成重み取得部23によって取得された合成重みα(d)を平滑化画像Smooth(d)に乗算して足し合わせることにより、合成画像Compを取得する。この合成画像Compを取得する計算は、数式(5)のようにあらわすことができる。
Figure JPOXMLDOC01-appb-M000005
 この場合、数式(5)の計算は、画素値の平均値AvrSが正の場合は、画素値差S(d)が最も小さくなる方向に対応する平滑化画像Smooth(dmin)を合成画像Compとし、画素値の平均値AvrSが負の場合は、画素値差S(d)が最も大きくなる方向に対応する平滑化画像Smooth(dmax)を合成画像Compとする計算に等しくなる。
 また、第1実施形態による画像処理装置100では、各画素に対して、処理対象画像Inの各画素の画素値と合成画像Compの対応する位置における各画素の画素値とを重み付け加算して合成を行い、加算合成画像Outの取得を行う加算合成画像生成部25を設ける。
 具体的には、加算合成画像生成部25は、元の画像である処理対象画像Inの各画素の画素値と平滑化を行った結果である合成画像の対応する位置の画素の画素値とを加算重みβを用いて重み付けして加算合成することにより、最終結果である加算合成画像を取得する。加算重みβは0から1の間の正の実数値であり、加算合成後の加算合成画像Out全体の画素値と合成前の処理対象画像Inおよび合成画像Comp全体の画素値とが同じ基準となるように規格化されている。この加算重みβによって加算合成画像Outを取得する計算は、数式(6)のようにあらわすことができる。
Figure JPOXMLDOC01-appb-M000006
 また、第1実施形態による加算合成画像生成部25は、重み付け加算を行う場合に、処理対象画像Inの各画素の画素値と合成画像Compの対応する位置における各画素の画素値とに基づいて各画素に対応した加算重みβを取得し、加算重みβに基づいて加算合成画像Outを取得するように構成されている。
 具体的には、加算合成画像生成部25は、各画素に対して、対応する位置の処理対象画像Inの画素値と合成画像Compの画素値とに基づいて、加算重みβを取得する。この加算重みβを取得する計算は、数式(7)のようにあらわすことができる。
Figure JPOXMLDOC01-appb-M000007
 ただし、lは加算重みβを規格化するための規格化定数である。
 ここで、関数Βは、処理対象画像Inの画素値と合成画像Compの画素値とを引数とする関数である。関数Βは、処理対象画像Inと合成画像Compとの相関を示す関数であり、処理対象画像Inの画素値と合成画像Compの画素値とが近い値であるほど大きくなるように構成する。これにより、数式(6)と数式(7)とを合わせると、処理対象画像Inの画素値と合成画像Compの画素値とが近い値となるほど合成画像Compの画素値を大きく重み付け加算し、処理対象画像Inの画素値と合成画像Compの画素値とが遠い値となるほど処理対象画像Inの画素値を大きく重み付け加算する計算となる。すなわち、合成画像Compが処理対象画像Inからそれほど大きく変化していない場合には、平滑化が上手く機能したと考えられるため、合成画像Compを重視して加算合成を行う。一方で、合成画像Compが処理対象画像Inから大きく変化している場合は、平滑化によって大きく画素値が変わることによって歪みが生じると考えられるため、処理対象画像Inを重視して加算合成を行う。
 なお、βを与える関数Βは、たとえば、処理対象画像Inの各画素の画素値と合成画像Compの対応する各位置の画素の画素値との差の絶対値|In-Comp|に基づく関数として数式(8)のように定義することができる。
Figure JPOXMLDOC01-appb-M000008
 ただし、関数Βは、引数である絶対値|In-Comp|が大きくなれば相対的に値が小さくなるように構成する。
 以上のように、数式(1)から数式(8)までの計算を行うことにより、ノイズが乗った場合にも、被写体Sの構造に合わせて適切に平滑化を行うとともに、被写体Sの境界(エッジ)のボケ(ぼやけ)を抑制した加算合成画像Outを取得することができる。したがって、画像データの画素値にノイズ成分が生じた場合にも、平滑化画像に対して適切に重み付けを行うことにより、適切に平滑化して画像の合成を行うことができる。
 以下では、上記一連の平滑化処理についてフローチャートを用いて説明する。なお、各画像や値を取得するための具体的な計算については、上記説明と重複するため、適宜省略する。
 (加算合成画像生成処理)
 以下では、図7に基づいて、加算合成画像生成の流れを、フローチャートを用いて説明する。
 まず、合成重み取得処理が開始されると、ステップS1に進む。ステップS1では、画像処理部2は、処理対象画像In(X線撮像画像)を取得し、ステップS2に進む。
 ステップS2では、処理対象画像Inに含まれる各画素の画素値にD枚の平滑化フィルタF(d)を用いることにより、D枚の平滑化画像Smooth(d)を取得し、ステップS3に進む。
 ステップS3では、処理対象画像Inの各画素の画素値とD枚の平滑化画像Smooth(d)の対応する位置の画素値との正負が考慮された差分値をdごとに計算し、D個の画素値差S(d)を取得し、ステップS4に進む。
 ステップS4では、画素値差S(d)に対応する合成重みα(d)を取得し、ステップS5に進む。なお、ステップS4における合成重みα(d)の取得の流れについては、別途、合成重み取得処理として後述する。
 ステップS5では、平滑化画像Smooth(d)を合成重みα(d)によって重み付け合成することにより、合成画像Compを取得し、ステップS6に進む。
 ステップS6では、処理対象画像Inおよび合成画像Compから加算重みβを取得し、ステップS7に進む。
 ステップS7では、処理対象画像Inと合成画像Compとを加算重みβによって重み付け加算することにより、加算合成画像Outを取得し、加算合成画像生成処理を終了する。
 以上の加算合成画像生成処理は、X線受像部5または図示しない外部メモリから取得したそれぞれのX線撮像画像に対して適宜実行される。また、画像処理装置100により取得された加算合成画像Outは、記憶部3に記憶され、適宜読み出して表示部7に表示することができるように構成されている。
 (合成重み取得処理)
 以下では、図8に基づいて、合成重み取得処理の流れを、フローチャートを用いて説明する。この合成重み取得処理は、上記加算合成画像生成処理のステップS4において実行される処理を詳細に説明したものである。
 まず、合成重み取得処理が開始されると、ステップS11に進む。ステップS11では、画像処理部2(合成重み取得部23)は、各画素における正負が考慮された画素値差S(d)を取得して、ステップS12に進む。
 ステップS12では、画素値差S(d)の全てのdにわたる平均値AvrSを取得し、ステップS13に進む。
 ステップS13では、画素値差の平均値AvrSが正の値かどうかを判断し、正の値であればステップS14に進み、正の値でなければ、ステップS25に進む。
 ステップS14では、最小の画素値差S(dmin)を与える引数dminに対応する合成重みα(dmin)のみを1とするとともに、それ以外の引数dに対応する合成重みα(d)を0とし、合成重み取得処理を終了する。ただし、最小の画素値差S(dmin)を与えるdminが複数ある場合は、合成重みα(dmin)の値を、dminの数で1を均等配分した値としてもよい。この場合、たとえば、最小の画素値差S(dmin)が同値で2つある場合は、2つの合成重みα(dmin1)およびα(dmin2)の値を0.5(1/2)ずつとする。
 ステップS15では、画素値差の平均値AvrSが負の値かどうかを判断し、負の値であればステップS16に進み、負の値でなければ、ステップS17に進む。なお、ステップS17に進む場合は、画素値差の平均値AvrSがちょうど0となっている。
 ステップS16では、最大の画素値差S(dmax)を与える引数dmaxに対応する合成重みα(dmax)のみを1とするとともに、それ以外の引数dに対応する合成重みα(d)を0とし、合成重み取得処理を終了する。ただし、最大の画素値差S(dmax)を与えるdmaxが複数ある場合は、合成重みα(dmax)の値を、dmaxの数で1を均等配分した値としてもよい。この場合、たとえば、最大の画素値差S(dmin)が同値で2つある場合は、2つの合成重みα(dmin1)およびα(dmin2)の値を0.5(1/2)ずつとする。
 ステップS17では、全ての合成重みα(d)に1を均等配分した値とし、合成重み取得処理を終了する。平滑化フィルタの総数がDであれば、合成重みα(d)は1/Dである。
 上記のように、合成重み取得処理では、正負の考慮された画素値差S(d)と画素値差の平均値AvrSに基づいて、容易に最適な方向に平滑化された平滑化画像Smooth(d)を重視して重み付け(選択)することができる。
 (第1実施形態の効果)
 第1実施形態では、以下のような効果を得ることができる。
 第1実施形態では、上記のように、対応する位置の画素において、複数の平滑化画像Smooth(d)の各画素の画素値に対して、処理対象画像Inの画素の画素値との正負が考慮された複数の画素値差S(d)に基づいて重み付け合成を行うことにより合成画像Compを取得する合成重み取得部23を設ける。これにより、正負が考慮された画素値差S(d)の全体としての傾向はノイズ成分が生じても変わらないと考えられるので、画素値差S(d)の絶対値|S(d)|に基づいて平滑化画像Smooth(d)を重み付け合成する場合とは異なり、画素値差S(d)の関係は逆転することがない。その結果、正負が考慮された画素値差S(d)に基づいて適切に平滑化画像Smooth(d)の重み付け合成を行うことができる。具体的には、画素値差S(d)が0値に近いところでは、ノイズ成分の影響により画素値差S(d)が0値付近において正負をまたいで変動するため、画素値差S(d)の絶対値|S(d)|を取った場合には全体の傾向を考える場合に区別がつかなくなってしまう。一方で、画素値差S(d)の正負を保存したままであれば、ノイズ成分が乗ったとしても、画素値差S(d)の全体としての傾向は大きく変わらないことから、適切な平滑化画像Smooth(d)を選択し、重み付け合成を行うことができる。これにより、適切に平滑化画像Smooth(d)を重み付け合成し、適切に平滑化された合成画像Compを取得することができる。
 また、第1実施形態では、上記のように、合成重み取得部23を、正負が考慮された複数の画素値差S(d)の平均値AvrSを取得するとともに、複数の画素値差S(d)と画素値差の平均値AvrSとを引数とする関数Αに基づいて各画素に対応した複数の合成重みα(d)を取得するように構成する。これにより、画素値差S(d)の全体の傾向である平均値AvrS(d)に基づいて画素値差が特異な平滑化画像を容易に見つけることができるので、各平滑化フィルタF(d)ごとの平滑化による変化を示す正負が考慮された各画素値差S(d)に基づいて、平滑化画像Smooth(d)により適切に重み付け合成を行うことができる。
 また、第1実施形態では、上記のように、合成重み取得部23を、負から正に向かって画素値差S(d)が大きくなると判断される指標において、各画素に対して、画素値差の平均値AvrSが正である場合には、複数の画素値差S(d)のうち、小さい画素値差S(d)に対応する平滑化画像Smooth(d)の合成重みα(d)を大きくする制御を行うとともに、画素値差の平均値AvrSが負である場合には、複数の画素値差S(d)のうち、大きい画素値差S(d)に対応する平滑化画像Smooth(d)の合成重みα(d)を大きくする制御を行うように構成する。これにより、負から正に向かって画素値差S(d)が大きくなると判断される指標において、画素値差の平均値AvrSが正であれば、全体の傾向から負値の方向に向かって離れている小さい画素値差S(d)により、画素値差S(d)が特異な平滑化画像Smooth(d)を容易に見つけることができる。また、負から正に向かって画素値差S(d)が大きくなると判断される指標において、画素値差の平均値AvrSが負であれば、全体の傾向から正値の方向に向かって離れている大きい画素値差S(d)により、画素値差S(d)が特異な平滑化画像Smooth(d)を容易に見つけることができる。したがって、画素値差の平均値AvrSに対してピークの位置(特異な位置)にある画素値差S(d)に基づいて、画素値差S(d)が特異な平滑化画像Smooth(d)に対応する合成重みα(d)を容易に大きくすることができる。その結果、画素値差S(d)の全体の傾向に合わせて、平滑化画像Smooth(d)により適切に重み付けをして合成した合成画像Compを取得することができる。
 また、第1実施形態では、上記のように、各画素に対して、処理対象画像Inの各画素の画素値と合成画像Compの対応する位置における各画素の画素値とを重み付け加算して合成を行い、加算合成画像Outの取得を行う加算合成画像生成部25を設ける。これにより、元の処理対象画像Inと平滑化された結果である合成画像Compとをさらに比較して、平滑化による変化の度合いを考慮して、処理対象画像Inと合成画像Compとの間において加算合成を行うことができる。
 また、第1実施形態では、上記のように、加算合成画像生成部25を、重み付け加算を行う場合に、処理対象画像Inの各画素の画素値と合成画像Compの対応する位置における各画素の画素値とを引数とする関数Βに基づいて各画素に対応した加算重みβを取得し、加算重みβに基づいて加算合成画像Outを取得するように構成する。これにより、処理対象画像Inの各画素の画素値と合成画像Compの対応する位置における各画素の画素値とから、処理対象画像Inと合成画像Compとの加算の重み付けの度合いを容易に取得することができる。
 [第2実施形態]
 (画像処理装置の構成)
 次に、図9~12を参照して、本発明の第2実施形態による画像処理装置200の全体構成について説明する。第2実施形態では、図9に示すように、上記第1実施形態の構成に加えて、入力画像に対して周波数解析を行い、特定の周波数を含む画像のみを取り出す帯域制限がされた複数の画像を周波数ごとに取得するとともに、周波数ごとに分けられた複数の画像を再び統合する周波数合成を行い、周波数合成された出力画像を取得する帯域制限画像処理部20を設ける構成について説明する。なお、上記第1実施形態と同様の構成については同様の符号を付し、説明を省略する。また、第2実施形態においても、第1実施形態と同じく、X線撮像装置101に画像処理装置200を用いる例について説明する。
 第2実施形態における画像処理装置200では、上記第1実施形態における構成に加えて、入力画像In1に対して周波数解析を行い、特定の周波数ωjを含む画像のみを取り出す帯域制限がされた複数の画像を周波数ωjごとに取得するとともに、周波数ωjごとに分けられた複数の画像を再び統合する周波数合成を行い、周波数合成された出力画像を取得する帯域制限画像処理部20をさらに設ける。また、帯域制限画像処理部は、入力画像In1として処理対象画像Inに対する周波数解析を行い、帯域制限がされた処理対象画像Inを取得し、帯域制限がされるとともに各画素に対して正負が考慮された画素値差S(d)に基づいて重み付け合成がされた合成画像Compを取得し、帯域制限および重み付け合成がされた合成画像Compに基づいて画像に対する周波数合成を行い、出力画像Out1を取得するように構成されている。
 具体的には、図10および図11に示されるように、帯域制限画像処理部20は、入力画像In1から複数の帯域制限がされた差分画像IniDiff(ωj)を得る。ここで、iは1、2、4、…となる2の累乗に対応する整数値であり、後述するように画像の大きさをあらわす値である。また、周波数ωjは差分画像IniDiff(ωj)にふくまれる画素値の周波数と対応している。まず、帯域制限画像処理部20は、入力画像In1について、図10下部の括弧内に示されるように、バツ印により括られた2行2列のグループごとに画素を区切り、このグループ内の画素の画素値を相加平均(4つの画素値を足すとともに4によって除算)して得られた画素値を1つの画素の画素値に対応させることにより縮小画像In2(ω1)を取得する。ここで、入力画像In1はM行N列の画素の集まりであり、処理対象画像In(X線撮像画像)そのものである。また、In1の1は、In1の大きさが元の処理対象画像In(X線撮像画像)の大きさと等しい(1倍)であることを示している。また、縮小画像In2(ω1)は、4つの画素を1つの画素に対応させたことから、画像の大きさは縦横の幅がそれぞれ1/2倍となっており、M/2行N/2列の画素の集まりである。
 ここで、画像に含まれる画素値の1つ1つがある画素値をもつが、ある一列に並んだ画素から取り出した画素値の増減は、周波数の異なる多数の正弦波の重ね合わせに対してある定数値を加えたものによって必ずあらわすことができる。たとえば、図10の画像内に示される一点鎖線で示された線の上にある画素は、点線によって示される枠線内の正弦波W1、W2およびW3のように、いくつかの正弦波の組によりあらわすことができる。また、正弦波W1、W2およびW3は、それぞれ周波数の大きさがω1、ω2およびω3となっている。正弦波W1は周波数の大きい(波長の短い)高周波であり、正弦波W2は次に周波数が大きく、正弦波W3が最も周波数が小さい。ただし、これらの正弦波のグラフは、画素および画素値が標本化および量子化されていることから、微視的には階段状の線の集まりで表されるグラフとなっている。また、画素値をあらわすための正弦波の数は、実際には3つよりも多い。また、横方向の画素値の列に限らず、縦方向の画素値の列も同様に、正弦波の重ねあわせによってあらわすことができる。
 入力画像In1に含まれる2行2列のマトリクスに山と谷の両方が収まるような正弦波の成分は、2行2列の画素のグループを平均化する過程において、山の部分と谷の部分とが打ち消しあうことによって消えてしまう。これにより、図10に示されるように、縮小画像In2(ω1)では、高周波成分をもつ正弦波W1が消えている。なお、縮小画像In2(ω1)において、入力画像In1に含まれる各正弦波に対応する正弦波は、画像の幅のサイズが半分になったことに対応して周波数が2倍(波長が半分)となっている。
 また、帯域制限画像処理部20は、縮小画像In2(ω1)の1つの画素を4つの画素に対応させることにより、M行N列の再拡大画像In1(ω1)を取得する。再拡大画像In1(ω1)は、2行2列に区切られたそれぞれグループに属する画素の画素値が等しくなっており、元の入力画像In1の同じ位置に属する画素の画素値の平均値に均されている。また、再拡大画像In1(ω1)では周波数ω1に対応する正弦波W1の成分が消えている。
 次に、図11に示されるように、帯域制限画像処理部20は、入力画像In1の画素の画素値から、再拡大画像In1(ω1)の対応する位置の画素の画素値を差分して、差分画像In1Diff(ω1)を取得する。差分画像In1Diff(ω1)は、周波数ω1に対応する正弦波W1の成分のみが残る。
 また、M/2行N/2列の縮小画像In2(ω1)に対して、画素を2行2列のグループに括り画素値を平均化して1つの画素に対応させることにより、M/4行N/4列の縮小画像In4(ω2)が取得される。この場合、上記と同様に、縮小画像In2(ω1)に含まれる2行2列のマトリクスに山と谷の両方が収まるような正弦波W2の成分は、山の部分と谷の部分とが打ち消しあうことによって消えてしまう。縮小画像In4(ω2)の1つの画素を4つの画素に対応させることにより、M/2行N/2列の再拡大画像In2(ω2)が取得される。縮小画像In2(ω1)の画素の画素値から、再拡大画像In2(ω2)の対応する位置の画素の画素値を差分して、差分画像In2Diff(ω2)が取得される。差分画像In2Diff(ω2)は、周波数ω2に対応する正弦波W2の成分のみが残る。なお、上記のように、縮小画像Ini(ωj)などに付された正数値iは、その画像の縦横の幅が入力画像In1の1/(2)^i倍となることを示している。また、縮小画像Ini(ωj)においては、iは2^jと一致し、再拡大画像Ini(ωj)および差分画像IniDiff(ωj)においては、iは2^(j-1)と一致する。なお、「a^b」は、aを指数bで累乗する計算をあらわしている。
 上記処理を繰り返すことにより、周波数ω3、ω4、…に対応する正弦波成分のみをもつ差分画像IniDiff(ωj)を取得することができる。差分画像IniDiff(ωj)は、処理を繰り返すたびに縦横のサイズが1/2倍となる。したがって、帯域制限画像処理部20は、被写体Sの構造が読み取れる適当な周波数ωj(対応する画像のサイズ)まで差分画像IniDiff(ωj)を取得し、差分画像IniDiff(ωj)を取得する処理を打ち切る。また、得られた全ての差分画像IniDiff(ωj)と最小の差分画像IniDiff(ωj)を得るために用いた最小の縮小画像Ini(ωj)とを、適宜1つの画素を2行2列の画素に対応させ再拡大する処理を繰り返しM行N列の画像にサイズを合わせる処理を行うとともに、それぞれの画像の対応する位置の画素の画素値を統合する(足し合わせる)ことにより、元の入力画像In1と一致した画像を取得することができる。すなわち、複数の差分画像IniDiff(ωj)を得る処理は、入力画像In1を各周波数ωjの帯域に対応する正弦波の成分に周波数帯域が制限された複数の画像に分解して取得する処理に等しい。なお、入力画像In1から周波数ωjに正弦派成分の帯域制限がされた複数の差分画像IniDiff(ωj)を取得する処理は、特許請求の範囲の「入力画像に対して周波数解析を行い、特定の周波数を含む画像のみを取り出す帯域制限がされた複数の画像を周波数ごとに取得する」処理の一例である。また、差分画像IniDiff(ωj)のサイズを揃えて統合する処理は、特許請求の範囲の「周波数ごとに分けられた複数の画像を再び統合する周波数合成」処理の一例である。
 さて、処理対象画像In(X線撮像画像)の画像の画素値に乗るノイズ成分の画素に占める範囲は、様々な大きさを持っている。このノイズ成分は、たとえば、ノイズ成分の占める範囲の大きさに合わせたサイズを持つ平滑化フィルタF(d)を用いることにより、サイズごとに得られた平滑化画像の画素値をさらに重み付け合成することによっても取得することができる。具体的には、3行3列のフィルタの組、5行5列のフィルタの組…、n行n列のフィルタの組と、平滑化フィルタF(d)のサイズを複数用意すればよい。ただし、平滑化フィルタF(d)のサイズは任意のサイズに大きくすることができるものの、サイズが大きくなるにつれて計算量が膨大となってしまう。
 ここで、上記の処理によって得られた様々な差分画像IniDiff(ωj)に対して平滑化フィルタF(d)を用いることにより、差分画像IniDiff(ωj)がiに応じてサイズが小さくなる画像の集まりであるため、画像のサイズが小さくなることに対応してノイズ成分の占める範囲のサイズも小さくなる。また、全ての差分画像IniDiff(ωj)を再び統合することにより、元の入力画像In1に戻すことができる。これにより、同一のサイズの平滑化フィルタF(d)を差分画像IniDiff(ωj)に用いることによって、平滑化フィルタF(d)のサイズに応じたノイズが除去できるので、サイズの大きい差分画像IniDiff(ωj)から元の入力画像In1において小さな範囲を占めるノイズ成分を取り除くとともに、サイズの小さい差分画像IniDiff(ωj)から元の入力画像In1において大きな範囲を占めるノイズ成分を取り除くことができる。これにより、画像平滑化部21は、帯域制限画像処理部20から取得した差分画像IniDiff(ωj)のそれぞれにD枚の平滑化フィルタF(d)を用いることにより、周波数がωjに帯域制限されたD枚の平滑化画像Smooth(d)を周波数ωjの帯域ごとに取得する。
 また、画素値差取得部22は、周波数ωjの帯域ごとに、処理対象画像Inとしての差分画像IniDiff(ωj)およびD枚の平滑化画像Smooth(d)に基づいて、正負が考慮されたD個の画素値差S(d)を取得する。また、合成重み取得部23は、周波数ωjの帯域ごとに、画素値差S(d)および画素値差の平均値AvrSに基づいて、D個の合成重みα(d)を取得する。また、合成画像取得部24は、周波数ωjの帯域ごとに、D枚の平滑化画像Smooth(d)およびD個の合成重みα(d)に基づいて、重み付け合成された合成画像Compを取得する。また、加算合成画像生成部25は、周波数ωjの帯域ごとに、処理対象画像Inとしての差分画像IniDiff(ωj)および合成画像Compに基づいて、重み付け加算合成された加算合成画像Outを取得する。この加算合成画像Outは、平滑化により差分画像IniDiff(ωj)から周波数ωjの帯域ごとのノイズ成分が除去された画像であり、差分画像IniDiff(ωj)と画像の縦横の幅のサイズが等しくなっている。
 帯域制限画像処理部20は、周波数ωjの帯域ごとに取得された全ての加算合成画像Outとサイズが最小となる差分画像IniDiff(ωj)との画像サイズを揃えて、各位置の対応する画素の画素値から統合された出力画像Out1を取得する。画像サイズを揃える処理は、上記1つの画素を2行2列の等しい画素値を持つ画素に置き換えることにより画像の縦横幅を2倍にする処理を繰り返す処理である。また、統合された出力画像Out1を取得する処理は、対応する位置の画素の画素値を足し合わせる処理である。出力画像Out1は、元の画像である処理対象画像In(入力画像In1)の各周波数帯域に対応する正弦波成分ごとに平滑化処理がされ、占める範囲の大きさが様々なノイズ成分が適切に除去された画像である。
 ここで、第2実施形態による画像処理装置200は、X線撮像装置101から送出される画像データを入力画像In1(処理対象画像In)として取得する。また、画像処理装置300の備える画像処理部2は、上記のように、処理対象画像Inを周波数ωjごとに帯域制限することにより得られた差分画像IniDiff(ωj)または最小の縮小画像Ini(ωj)を処理対象画像Inの周波数ωjに帯域制限がされた画像として取得する。また、画像処理装置300の備える画像処理部2は、取得された周波数ωjに帯域制限がされたそれぞれの画像に対して、合成重み取得処理を含む加算合成画像生成処理を行い、それぞれの画像から取得される複数の平滑化画像Smooth(d)に正負が考慮された画素値差S(d)に基づいて重み付け合成が行われた周波数ωj成分に対応する合成画像Compを取得するとともに、周波数ωjに帯域制限がされた処理対象画像Inと合成画像Compを加算合成して加算合成画像Outを取得する。また、画像処理部2は、周波数ωjに帯域制限がされた加算合成画像Outをすべてのωjにわたって重ね合わせる(足し合わせる)ことにより周波数合成を行い、統合された出力画像Out1を取得する。
 (帯域別加算合成画像生成・統合処理)
 以下では、図12に基づいて、帯域別加算合成画像生成・統合処理の流れを、フローチャートを用いて説明する。
 まず、帯域別加算合成画像生成・統合処理が開始されると、ステップS21に進む。ステップS21では、処理対象画像Inである入力画像In1に周波数解析を行い、画素値に所定の周波数ωjの帯域に対応する周波数成分のみを含む差分画像IniDiff(ωj)をωjごとに取得し、ステップS22に進む。
 ステップS22では、画素値に周波数ωjの帯域に対応する周波数成分のみを含む差分画像IniDiff(ωj)に加算合成画像生成処理を行うことにより、画素値として周波数ωjに対応する帯域の周波数成分のみを含む加算合成画像Outを取得し、ステップS23に進む。なお、加算合成画像生成処理を行う過程において、差分画像IniDiff(ωj)ごとにノイズ成分が平滑化されるので、周波数ωjのそれぞれの帯域ごとにノイズ成分を取り除くことができる。なお、第2実施形態による加算合成画像生成処理および加算合成画像生成処理の中において実行される合成重み取得処理は、第1実施形態による加算合成画像生成処理および加算合成画像生成処理の中において実行される合成重み取得処理と同一の処理である。
 ステップS23では、取得された加算合成画像Outおよび最小サイズの差分画像IniDiff(ωj)のサイズを揃え、全ての周波数ωjの帯域にわたって合成することにより、統合された加算合成画像を取得し、帯域別加算合成画像生成・統合処理を終了する。
 なお、第2実施形態において、上記第1実施形態と共通する構成には、同一の符号を使用するとともに説明を省略した。
 (第2実施形態の効果)
 第2実施形態では、以下のような効果を得ることができる。
 第2実施形態では、上記第1形態と同様に、対応する位置の画素において、処理対象画像Inに対して取得された複数の平滑化画像Smooth(d)の各画素の画素値に対して、処理対象画像Inの画素の画素値との正負が考慮された複数の画素値差S(d)に基づいて重み付け合成を行うことにより合成画像Compを取得する合成重み取得部23を設ける。これにより、適切に平滑化画像Smooth(d)を重み付け合成し、適切に平滑化された合成画像Compを取得することができる。
 また、第2実施形態では、上記のように、処理対象画像Inである入力画像In1に対して周波数解析を行い、特定の周波数ωjを含む差分画像IniDiff(ωj)のみを取り出す帯域制限がされた複数の差分画像IniDiff(ωj)を周波数ωjごとに取得するとともに、周波数ωjごとに分けられた複数の差分画像IniDiff(ωj)を再び統合する周波数合成を行い、周波数合成された出力画像Out1を取得する帯域制限画像処理部20を設ける。これにより、処理対象画像Inに含まれる周波数ωjに対応する正弦波成分ごとに複数の平滑化画像Smooth(d)を取得し、複数の平滑化画像Smooth(d)の対応する位置の各画素の画素値を正負が考慮された複数の画素値差S(d)に基づいて重み付け合成し、合成画像Compを取得することにより、周波数ωjの帯域ごとにノイズ成分を平滑化することができる。その結果、処理対象画像Inに映りこんだ被写体Sの構造の境界線のボケ(ぼやけ)を抑制しつつ、より効果的にノイズ成分が平滑化された周波数ωjごとのSmooth(d)に対して重み付け合成を行うことができる。また、得られた合成画像Compと処理対象画像Inとを加算合成して得られる加算合成画像Outを全ての周波数ωjにわたって統合することにより、元の処理対象画像Inから周波数ωjごとに適切に平滑化された画像である出力画像Out1を取得することができる。
 なお、第2実施形態のその他の効果は、上記第1実施形態と同様である。
 [第3実施形態]
 次に、図13を参照して、本発明の第3実施形態による画像処理装置300の全体構成について説明する。第3実施形態では、図13に示すように、上記第1実施形態とは異なり、画像処理装置300を低照度カメラ301に用いる。なお、上記第1実施形態と同様の構成については同様の符号を付し、説明を省略する。
 第3実施形態では、撮像光学系81と、撮像素子82とを含む撮像部8を備える低照度カメラ301に、画像処理装置300が接続されている。また、画像処理装置300は、操作部6および表示部7に接続されている。
 撮像光学系81は、外部から入射した光を光学的に調整して、入射光として撮像素子82に送出する。撮像素子82は、増幅光を電気信号に変換し、画像データとして画像処理装置300に送出する。なお、撮像光学系81は、1枚または複数枚のレンズの組み合わせで構成されている。また、撮像素子82は、たとえば、CCD(Charge Coupled Devices;電荷結合素子)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor;相補性金属酸化膜半導体)イメージセンサなどによって構成されている。なお、撮像素子82を冷却CCDイメージセンサまたは冷却CMOSイメージセンサとしてもよい。
 低照度カメラ301で撮像は、光量の少ない状態で高解像度の画像を取得するために、画素の画素値にノイズ成分が発生しやすい。したがって、画素値にノイズ成分が乗った場合にも、適切に平滑化を行う必要がある。なお、低照度カメラ301は、入射光の光量のみならず波長まで取得できるように構成されており、X線撮像装置101の場合と異なり、画像の画素の画素値には輝度とともに色度も含まれる。色度についても輝度と同じ処理によって平滑化ができるので、輝度と色度とは、それぞれ個別に平滑化処理をしてノイズ成分を低減させることができる。
 ここで、第3実施形態による画像処理装置300は、低照度カメラ301から送出される画像データを処理対象画像Inとして取得する。また、画像処理装置300の備える画像処理部2は、取得された処理対象画像Inに対して、合成重み取得処理を含む加算合成画像生成処理を行い、処理対象画像Inから取得される複数の平滑化画像Smooth(d)に正負が考慮された画素値差S(d)に基づいて重み付け合成を行い合成画像Compを取得するとともに、処理対象画像Inと合成画像Compとを加算合成して加算合成画像Outを取得する。
 (第3実施形態の効果)
 第3実施形態では、以下のような効果を得ることができる。
 第3実施形態では、上記第1形態と同様に、対応する位置の画素において、複数の平滑化画像Smooth(d)の各画素の画素値に対して、処理対象画像Inの画素の画素値との正負が考慮された複数の画素値差S(d)に基づいて重み付け合成を行うことにより合成画像Compを取得する合成重み取得部23を設ける。これにより、適切に平滑化画像Smooth(d)を重み付け合成し、適切に平滑化された合成画像Compを取得することができる。その結果、低照度カメラ301で撮像された処理対象画像Inの画素の画素値にノイズ成分が生じた場合にも、処理対象画像Inから取得される平滑化画像Smooth(d)に対して適切に重み付けを行うことにより、適切に平滑化して画像の合成を行うことができる。
 なお、第3実施形態のその他の構成および効果は、上記第1実施形態と同様である。
 (変形例)
 今回開示された実施形態は、すべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は、上記した実施形態の説明ではなく請求の範囲によって示され、さらに請求の範囲と均等の意味および範囲内でのすべての変更(変形例)が含まれる。
 たとえば、上記第1~第3実施形態において、画像処理部2が、数式(1)~数式(8)によってあらわされる計算を個別に実行するによって加算合成画像Outを取得するように構成されている例を示したが、本発明はこれに限られない。本発明では、画像処理部2は、複数の数式を1つの数式にまとめて計算してもよい。たとえば、数式(5)と数式(6)をまとめた次の数式(9)の計算をすることで加算合成画像を取得してもよい。この場合、加算合成画像生成処理のステップS5およびS7を1つのステップにまとめた構成であり、合成画像Compの取得を省略する構成となっている。
Figure JPOXMLDOC01-appb-M000009
 なお、上記数式(9)の場合のβは、処理対象画像Inと平滑化画像Smooth(d)とを引数とする関数Βから取得されるように変更する。
 また、画像処理部2は、数式(1)~(8)の計算結果を、あらかじめ計算が実行された結果として記憶部3に記憶されたデータから読み出すことで取得してもよい。すなわち、LUT(Lookup Table)などを用いて、計算処理を適宜参照処理に置き換えた構成にしてもよい。
 また、上記第1~第3実施形態において、画像処理部2が、処理対象画像Inと合成画像Compとを重み付けして加算合成することにより加算合成画像Outを取得するように構成されている例を示したが、本発明はこれに限られない。本発明では、画像処理部2は、合成画像Compを取得した時点で処理対象画像Inの平滑化が達成されたとして、合成画像Compをそのまま処理済み画像として取得する構成にしてもよい。
 また、上記第1~第3実施形態において、平滑化の方向が最も適切であると考えられる平滑化画像Smoothに対応する合成重みα(d)を1として、その他の方向の平滑化画像Smoothに対応する合成重みα(d)を0とするように構成したが、本発明はこれに限られない。本発明では、複数の合成重みα(d)に、合計が1となるように値を分配してもよい。具体的には、たとえば、画素値差の平均値AvrSが負である場合に、画素値差S(d)が最も大きくなる平滑化画像Smooth(d)に対応する合成重みを2/3とし、2番目に大きくなる平滑化画像Smooth(d)に対応する合成重みを1/3としてもよい。
 また、合成重みα(d)を取得するその他の構成として、図14に示される関数によって、画素値差S(d)と合成重みα(d)を与える関数Α(S(d),AvrS)とを対応付けることができる。図14の関数は、画素値差の平均AvrSが負となる場合に対応している。画素値差の平均AvrSが負となる場合は、画素値差S(d)が正の方向に大きい値となるほど、平滑化が上手く機能した0値に近いピークと近い方向に平滑化されていると考えられる。したがって、画素値差S(d)正の方向に大きい値となる平滑化画像に対応する合成重みα(d)ほど、値を大きくする必要がある。
 数式(4)において関数Αにかけられる規格化定数kは正の実数値であるとすると、α(d)の関数の形とΑの関数の形は略同一視できるため、以下では関数Αについて説明する。図14(1)に示される関数Αは、階段関数であり、画素値差S(d)が増加するにつれて、ある閾値を境に0から正の定数値に切り替わる関数である。この階段関数を用いることにより、画素値差S(d)がある閾値を以上となる場合にのみ合成重みα(d)がある正の値となり、画素値差S(d)がある閾値未満となる場合には合成重みα(d)が0となるように構成することができる。
 図14(2)に示される関数Αは、線形関数であり、画素値差S(d)が増加するにつれて、一定の増加率で滑らかに増加する(比例する)関数である。この線形関数を用いることにより、画素値差S(d)増加するにつれてα(d)が滑らかに増加するように構成することができる。
 図14(3)に示される関数Αは、変曲点を持つロジスティック関数であり、画素値差S(d)が小さく変曲点の位置から負値側(左側)に十分に遠いときには0に漸近し、画素値差S(d)が増加するにつれて増加率が大きくなるように増加し、変曲点(閾値)の位置で最大の増加率となるとともに増加率が減少に転じ、画素値差S(d)が大きく変曲点の位置から正値側(右側)に十分に遠いときには正の定数値に漸近する関数である。このロジスティック関数は、階段関数と線形関数との中間の性質を持っている。すなわち、変曲点(閾値)から十分に遠い位置では階段関数のように合成重みα(d)をある正の定数値と0値とに振り分けるとともに、変曲点に近い位置では、滑らかにα(d)を増減させる関数である。
 したがって、このロジスティック関数を用いることにより、画素値差S(d)が十分大きい場合には合成重みα(d)がある正の値となり、画素値差S(d)が十分小さい場合には合成重みα(d)が0となり、画素値差S(d)が中間の値の場合には合成重みα(d)が滑らかに変化するように構成することができる。ロジスティック関数は、階段関数とは異なり、画素値差S(d)が閾値を超えるか否かによって合成重みα(d)が急激に変わることがないので、滑らかに重み付け合成を行うことができる。また、ロジスティック関数は、画素値差S(d)に比例して重み付けする線形関数とは異なり、画素値差S(d)が十分に大きい平滑化画像に対応する合成重みα(d)を大きく重み付けし、画素値差S(d)が十分に小さい平滑化画像に対応する合成重みα(d)を略0にするので、メリハリのある合成画像Compが得られる。
 また、画素値差の平均値AvrSが正である場合は、画素値差S(d)が正負を考慮して小さい値(負の方向に大きい値)となるほど、平滑化が上手く機能した0値に近いピークと近い方向に平滑化がなされていると考えられるため、画素値差S(d)が正負を考慮して小さい値となる平滑化画像に対応する合成重みα(d)ほど、値を大きくする必要がある。この場合、図14の関数は、原点を中心に左右反転した関数とすればよい。
 なお、階段関数の閾値およびロジスティック関数の変曲点の位置は、図14においては、S(d)が0となる位置よりも負側(左側)にくるように構成したが、S(d)が0となる位置と一致するように構成してもよいし、S(d)が0となる位置よりも正側(右側)にくるように構成してもよい。また、関数Αはその他の関数でもよい。各合成重みα(d)の合計が1となるように関数Αに規格化定数kをかけることにより、関数Αを介して、画素値差S(d)と画素値差の平均値AvrSとに基づいて合成重みα(d)を取得することができる。
 ここで、加算重みβを与える関数Βに対しても、図15に示されるように、上記と同様の階段関数、線形関数またはロジスティック関数を用いることができる。具体的には、対応する位置における処理対象画像Inと合成画像Compの画素の画素値との差の絶対値が大きいほど、合成画像Compは、平滑化によって処理対象画像Inから歪んでしまっていると考えられる。したがって、処理対象画像Inと合成画像Compの画素の画素値との差の絶対値が小さい場合には合成画像Compを大きく重み付け加算し、処理対象画像Inと合成画像Compの画素の画素値との差の絶対値が大きい場合には処理対象画像Inを大きく重み付け加算することで、平滑化の結果である合成画像Compの結果を処理対象画像Inに対してフィードバックすることができる。関数の性質については図14に示される合成重みα(d)の場合と同様であるので、省略する。なお、図15における関数は、図14における関数と左右反転した形となっている。
 また、第1~第3実施形態では、平滑化フィルタF(d)を、注目位置の画素の画素値と注目位置を中心として伸びる1本の線分方向にある画素の画素値との間において平滑化を行うように構成したが、本発明はこれに限られない。本発明では、注目位置の画素の画素値と注目位置を中心として異なる方向に伸びる2本の線分上に位置する画素の画素値との間において平滑化を行う平滑化フィルタF(d)を含むように構成してもよい。この場合、平滑化フィルタF(d)は、注目位置を角とする被写体Sの折れ線構造の平滑化に対応する。また、注目位置の画素の画素値と注目位置をから伸びる曲線の上に位置する画素の画素値との間において平滑化を行う平滑化フィルタF(d)を含むように構成してもよい。この場合、平滑化フィルタF(d)は、注目位置を通る被写体Sの曲線構造の平滑化に対応する。また、特定の方向に寄らず平滑化する等方向性の平滑化フィルタF(d)を含むように構成してもよい。また、平滑化フィルタF(d)に含まれる各係数は、注目位置からの距離によらず一定となるように構成したが、注目位置に近い位置に来る画素の画素値をより重視して(大きく重み付けして)平滑化するように構成してもよい。また、平滑化フィルタF(d)の形状は、n行n列の正方形フィルタに限らず、m行n列の長方形フィルタや円形フィルタなどでもよい。
 また、上記第1~第3実施形態では、画像処理装置100、200および300をPCによって構成する例を示したが、本発明はこれに限られない。本発明では、画像処理装置100、200および300を、ボードに取り付けられた電子部品(CPUなどの半導体)の集まりによって構成してもよい。この場合、X線撮像装置101や低照度カメラ301にカートリッジ状にしたボード組み込む構成にしてもよいし、ボードとX線撮像装置101または低照度カメラ301とを有線または無線で繋いで取り付ける構成にしてもよい。
 また、上記第2実施形態では、帯域制限画像処理部20による周波数解析および周波数合成を、入力画像In1に対して、2行2列の4つの画素の画素値の平均値を1つの画素の画素値に対応させる処理、1つの画素の画素値を2行2列の4つの画素の画素値に対応させる処理およびそれらの差分を取る処理の組み合わせで行ういわゆるラプラシアンピラミッドの処理で構成されている例を示したが、本発明はこれに限られない。本発明では、帯域制限画像処理部20による周波数解析および周波数合成を、たとえば、ウェーブレット変換によって入力画像In1の帯域を制限し、画像を周波数ごとに分解し、再び統合するように構成してもよい。なお、ウェーブレット変換は、ある所定の範囲にのみ振動する部分を持つ波束(短い波の塊)の組によって画像の画素値を分解する処理である。
 また、上記第3実施形態では、第1実施形態と同じ構成の画像処理装置300を低照度カメラ301に用いる例を示したが、本発明はこれに限られない。第3実施形態による画像処理装置300に第2実施形態と同じ帯域制限画像処理部20を設けてもよい。この場合、帯域制限画像処理部20は、低照度カメラ301から取得した画像に対して周波数ωjに対応する正弦波成分ごとにノイズを除去して平滑化し、ノイズが除去された画像を統合して出力画像Out1を取得する。また、画像処理装置300を、低照度カメラ301に限らず、画像を画像データ(画素ごとの画素値)として取得するカメラに広く用いてもよい。また、撮像光学系81と撮像素子82との間に、撮像光学系81から入射した光を増幅して撮像素子82に向けて送出する増幅部を設けてもよい。増幅部は、たとえば、イメージインテンシファイアにより構成されている。
 また、上記第1~第3実施形態では、説明の便宜上、加算合成画像生成処理および合成重み取得処理を「フロー駆動型」のフローチャートを用いて説明したが、本発明はこれに限られない。加算合成画像生成処理および合成重み取得処理をイベント単位で実行する「イベント駆動型」により行ってもよい。この場合、完全なイベント駆動型で行ってもよいし、イベント駆動およびフロー駆動を組み合わせて行ってもよい。また、第2実施形態で示された帯域別加算合成画像取得・統合処理についても同様に、フロー駆動型またはイベント駆動型、および、その組み合わせによって行うように構成してもよい。
 20 帯域制限画像処理部
 21 画像平滑化部
 22 画素値差取得部
 23 合成重み取得部
 24 合成画像取得部
 25 加算合成画像生成部
 100、200,300 画像処理装置

Claims (6)

  1.  処理対象画像の各画素に対して、ノイズ成分を平滑化するための互いに異なる複数の平滑化フィルタを用いて、前記処理対象画像の各画素の輝度または色度に対応する画素値から複数の平滑化画像の各画素の画素値を取得する画像平滑化部と、
     前記処理対象画像の各画素の画素値と複数の前記平滑化画像の対応する位置における各画素の画素値との間において、各画素の輝度または色度に対応する複数の画素値の正負が考慮された差である画素値差を複数の前記平滑化フィルタごとに取得する画素値差取得部と、
     複数の前記画素値差に基づいて、複数の前記平滑化画像の各画素の画素値を合成する際の重み付けに用いる合成重みを取得する合成重み取得部と、
     複数の前記平滑化画像の各画素に対して、前記合成重みに基づいて重み付け合成を行い合成画像を取得する合成画像取得部とを備える、画像処理装置。
  2.  前記合成重み取得部は、正負が考慮された複数の前記画素値差の平均値を取得するとともに、複数の前記画素値差と前記画素値差の平均値とに基づいて各画素に対応した複数の前記合成重みを取得するように構成されている、請求項1に記載の画像処理装置。
  3.  前記合成重み取得部は、負から正に向かって画素値差が大きくなると判断される指標において、各画素に対して、前記画素値差の平均値が正である場合には、複数の前記画素値差のうち、小さい前記画素値差に対応する前記平滑化画像の前記合成重みを大きくする制御を行うとともに、前記画素値差の平均値が負である場合には、複数の前記画素値差のうち、大きい前記画素値差に対応する前記平滑化画像の前記合成重みを大きくする制御を行うように構成されている、請求項2に記載の画像処理装置。
  4.  各画素に対して、前記処理対象画像の各画素の画素値と前記合成画像の対応する位置における各画素の画素値とを重み付け加算して合成を行い、加算合成画像の取得を行う加算合成画像生成部をさらに備える、請求項1に記載の画像処理装置。
  5.  前記加算合成画像生成部は、前記重み付け加算を行う場合に、前記処理対象画像の各画素の画素値と前記合成画像の対応する位置における各画素の画素値とに基づいて各画素に対応した加算重みを取得し、前記加算重みに基づいて前記加算合成画像を取得するように構成されている、請求項4に記載の画像処理装置。
  6.  入力画像に対して周波数解析を行い、特定の周波数を含む画像のみを取り出す帯域制限がされた複数の画像を周波数ごとに取得するとともに、周波数ごとに分けられた複数の画像を再び統合する周波数合成を行い、周波数合成された出力画像を取得する帯域制限画像処理部をさらに備え、
     前記帯域制限画像処理部は、前記入力画像として前記処理対象画像に対する周波数解析を行い、帯域制限がされた前記処理対象画像を取得し、帯域制限がされるとともに各画素に対して正負が考慮された前記画素値差に基づいて前記重み付け合成がされた前記合成画像を取得し、帯域制限および前記重み付け合成がされた前記合成画像に基づいて画像に対する周波数合成を行い、前記出力画像を取得するように構成されている、請求項1に記載の画像処理装置。
PCT/JP2016/077779 2016-09-21 2016-09-21 画像処理装置 WO2018055684A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP2018540526A JP6597912B2 (ja) 2016-09-21 2016-09-21 画像処理装置
EP16916755.8A EP3518178A4 (en) 2016-09-21 2016-09-21 IMAGE PROCESSING DEVICE
PCT/JP2016/077779 WO2018055684A1 (ja) 2016-09-21 2016-09-21 画像処理装置
CN201680089394.XA CN109716387B (zh) 2016-09-21 2016-09-21 图像处理装置
US16/335,000 US10853920B2 (en) 2016-09-21 2016-09-21 Image processing apparatus
TW106128502A TWI639976B (zh) 2016-09-21 2017-08-23 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/077779 WO2018055684A1 (ja) 2016-09-21 2016-09-21 画像処理装置

Publications (1)

Publication Number Publication Date
WO2018055684A1 true WO2018055684A1 (ja) 2018-03-29

Family

ID=61690799

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/077779 WO2018055684A1 (ja) 2016-09-21 2016-09-21 画像処理装置

Country Status (6)

Country Link
US (1) US10853920B2 (ja)
EP (1) EP3518178A4 (ja)
JP (1) JP6597912B2 (ja)
CN (1) CN109716387B (ja)
TW (1) TWI639976B (ja)
WO (1) WO2018055684A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031362A1 (ja) * 2018-08-10 2020-02-13 三菱電機株式会社 画像処理装置及び画像処理方法
JP2020048836A (ja) * 2018-09-26 2020-04-02 キヤノン株式会社 放射線撮像装置、放射線撮像システム、放射線撮像装置の制御方法、および、プログラム

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10764471B1 (en) * 2019-09-27 2020-09-01 Konica Minolta Business Solutions U.S.A., Inc. Customized grayscale conversion in color form processing for text recognition in OCR
CN113040578A (zh) * 2021-04-01 2021-06-29 快展有限公司 枕头高度调节方法、装置、计算机设备和存储介质
WO2022206880A1 (zh) * 2021-04-01 2022-10-06 快展有限公司 枕头高度调节方法、装置、计算机设备和存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3472596B2 (ja) 1993-06-11 2003-12-02 株式会社日立製作所 ノイズ低減フィルター
JP2010178302A (ja) * 2009-02-02 2010-08-12 Olympus Corp 画像処理装置及び画像処理方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5526446A (en) * 1991-09-24 1996-06-11 Massachusetts Institute Of Technology Noise reduction system
US5602934A (en) * 1993-09-08 1997-02-11 The Regents Of The University Of California Adaptive digital image signal filtering
JP4244094B2 (ja) 1999-02-17 2009-03-25 富士フイルム株式会社 画像処理方法および装置並びに記録媒体
US6771793B1 (en) 1999-02-17 2004-08-03 Fuji Photo Film Co., Ltd. Image processing method and apparatus
TW200618610A (en) * 2004-07-20 2006-06-01 Qualcomm Inc Method and apparatus for motion vector processing
JP4962573B2 (ja) * 2007-12-06 2012-06-27 富士通株式会社 画像処理装置
JP4727720B2 (ja) * 2008-12-31 2011-07-20 株式会社モルフォ 画像処理方法および画像処理装置
US8411321B2 (en) * 2009-09-09 2013-04-02 Seiko Epson Corporation Printing apparatus, layout adjustment method, program and recording medium
JP2012191465A (ja) * 2011-03-11 2012-10-04 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP5633550B2 (ja) * 2012-09-05 2014-12-03 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP5971089B2 (ja) * 2012-11-14 2016-08-17 富士通株式会社 生体情報補正装置、生体情報補正方法及び生体情報補正用コンピュータプログラム
CN104123699A (zh) 2013-04-26 2014-10-29 富士通株式会社 降低图像噪声的方法和装置
TWI537875B (zh) * 2015-04-08 2016-06-11 大同大學 影像合成方法與影像處理裝置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3472596B2 (ja) 1993-06-11 2003-12-02 株式会社日立製作所 ノイズ低減フィルター
JP2010178302A (ja) * 2009-02-02 2010-08-12 Olympus Corp 画像処理装置及び画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3518178A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020031362A1 (ja) * 2018-08-10 2020-02-13 三菱電機株式会社 画像処理装置及び画像処理方法
JPWO2020031362A1 (ja) * 2018-08-10 2021-01-07 三菱電機株式会社 画像処理装置及び画像処理方法
JP2020048836A (ja) * 2018-09-26 2020-04-02 キヤノン株式会社 放射線撮像装置、放射線撮像システム、放射線撮像装置の制御方法、および、プログラム

Also Published As

Publication number Publication date
US20190266709A1 (en) 2019-08-29
US10853920B2 (en) 2020-12-01
CN109716387A (zh) 2019-05-03
TW201814651A (zh) 2018-04-16
CN109716387B (zh) 2023-05-23
TWI639976B (zh) 2018-11-01
JPWO2018055684A1 (ja) 2019-06-24
EP3518178A4 (en) 2020-03-04
EP3518178A1 (en) 2019-07-31
JP6597912B2 (ja) 2019-10-30

Similar Documents

Publication Publication Date Title
JP6597912B2 (ja) 画像処理装置
US11115610B2 (en) Noise aware edge enhancement
US8941762B2 (en) Image processing apparatus and image pickup apparatus using the same
US10672112B2 (en) Method and system for real-time noise removal and image enhancement of high-dynamic range images
CN109804619B (zh) 图像处理装置、图像处理方法和摄影装置
TWI330036B (en) Apparatus for sharpening an image, and method thereof
US9167216B2 (en) Image processing apparatus, image capture apparatus and image processing method
JP5315157B2 (ja) 情報処理装置、ライン状ノイズ低減処理方法、及びプログラム
US20150009355A1 (en) Motion adaptive cmos imaging system
US20080259176A1 (en) Image pickup apparatus, image processing apparatus, image pickup method, and image processing method
EP2740101B1 (en) Local area contrast enhancement
JP6711396B2 (ja) 画像処理装置、撮像装置、および画像処理方法、並びにプログラム
JP2008165312A (ja) 画像処理装置及び画像処理方法
US20180185002A1 (en) Image processing apparatus, image processing method, and image processing system
DE102018130086A1 (de) Mehrkameraprozessor mit merkmalsabgleich
US20120121203A1 (en) Image processing apparatus, image processing method, and computer program
JP4179849B2 (ja) 同じ被検体や背景の複数の画像を共通の基準画像に対してコントラスト・マッチングさせる方法
US8942477B2 (en) Image processing apparatus, image processing method, and program
CN1229986C (zh) 边缘校正方法和装置
Al-Ameen et al. Fast and Efficient Algorithm for Contrast Enhancement of Color Images.
TWM458747U (zh) 影像處理模組
US10917590B2 (en) Imaging control device, imaging apparatus, and imaging control method
US11647298B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP2003348382A (ja) 輪郭強調回路
Al-Ameen Increasing the lucidity of sandstorm images using a multistep color reparation algorithm

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16916755

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018540526

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2016916755

Country of ref document: EP

Effective date: 20190423