WO2011080808A1 - 放射線画像処理装置および放射線画像処理プログラム - Google Patents

放射線画像処理装置および放射線画像処理プログラム Download PDF

Info

Publication number
WO2011080808A1
WO2011080808A1 PCT/JP2009/007368 JP2009007368W WO2011080808A1 WO 2011080808 A1 WO2011080808 A1 WO 2011080808A1 JP 2009007368 W JP2009007368 W JP 2009007368W WO 2011080808 A1 WO2011080808 A1 WO 2011080808A1
Authority
WO
WIPO (PCT)
Prior art keywords
feature
frequency
image
low
image processing
Prior art date
Application number
PCT/JP2009/007368
Other languages
English (en)
French (fr)
Inventor
大野義典
Original Assignee
株式会社島津製作所
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社島津製作所 filed Critical 株式会社島津製作所
Priority to PCT/JP2009/007368 priority Critical patent/WO2011080808A1/ja
Priority to JP2011547117A priority patent/JP5333607B2/ja
Priority to US13/519,773 priority patent/US8831325B2/en
Priority to CN200980163236.4A priority patent/CN102711611B/zh
Publication of WO2011080808A1 publication Critical patent/WO2011080808A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/42Arrangements for detecting radiation specially adapted for radiation diagnosis
    • A61B6/4208Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector
    • A61B6/4233Arrangements for detecting radiation specially adapted for radiation diagnosis characterised by using a particular type of detector using matrix detectors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/168Segmentation; Edge detection involving transform domain methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Definitions

  • the present invention relates to a radiographic image processing apparatus and a radiographic image processing program for processing a radiographed radiographic image.
  • a direct radiation is directly applied by a lead plate or the like that blocks radiation.
  • the image processing is performed by blocking the part and photographing with a narrow irradiation field of radiation.
  • Patent Document 1 of the prior art feature points are extracted from the entire image data by filtering or differentiation. Therefore, when noise is included in the image, not only the feature corresponding to the boundary of the required illumination field region but also many other unnecessary feature points are detected. Therefore, there is a problem that the detection accuracy is deteriorated.
  • the extracted edge points are classified into a plurality of groups and features are selected.
  • the combination of candidate points may be enormous and the calculation is complicated.
  • the problem of becoming since the collimator has many rectangular shapes, the illumination field region also has a rectangular shape, and the boundary of the illumination field region is a linear pattern, but an extra pattern (for example, linear data on the side of the subject) is detected. There is also a problem.
  • the present invention has been made in view of such circumstances, and achieves highly accurate feature extraction and region extraction by reducing the influence of noise and the like, and a radiological image processing apparatus capable of reducing the amount of calculation, and An object is to provide a radiation image processing program.
  • the radiographic image processing apparatus of the present invention is a radiographic image processing apparatus that processes a radiographic image obtained by radiography, and reduces the spatial resolution of the radiographic image so as to be an image having a lower frequency than the radiographic image.
  • a feature extraction is performed by obtaining a feature amount based on a signal level difference between the low-frequency image generating means for generating a frequency image and a signal level of a peripheral pixel with respect to the pixel in an arbitrary pixel of the low-frequency image.
  • a feature extraction means for generating a feature image by associating the feature amount with a pixel, and generating a low-frequency feature that is an image having a lower frequency than the feature image by reducing the spatial resolution of the feature image.
  • a low-frequency feature generating unit; and a region extracting unit that selects a feature serving as a boundary of a radiation irradiation field region based on the low-frequency feature and extracts the irradiation field region from the radiation image That it comprises a and is characterized in.
  • the low-frequency image generating means generates a low-frequency image that is an image having a frequency lower than that of the radiographic image by reducing the spatial resolution of the radiographic image.
  • the feature extraction unit performs feature extraction by obtaining a feature amount based on a signal level difference with respect to the peripheral pixel with respect to the pixel in an arbitrary pixel of the low-frequency image, and performs the above-described process on each pixel of the low-frequency image.
  • a feature image is generated in correspondence with the feature amount.
  • the low-frequency feature generation means generates a low-frequency feature that is an image having a frequency lower than that of the feature image by reducing the spatial resolution of the feature image.
  • the area extracting means selects a feature that becomes a boundary of the irradiation field area of the radiation based on the above-described low frequency feature, and extracts the above-mentioned irradiation field area from the radiation image.
  • the spatial resolution is lowered a total of two times by the low-frequency image generation means and the low-frequency feature generation means, and the amount of calculation is reduced by reducing the influence of noise and the like.
  • the influence of noise or the like can be reduced and the amount of calculation can be reduced for the low-frequency feature generated by the low-frequency feature generating unit and the illumination field region extracted by the subsequent region extracting unit.
  • the influence of noise and the like can be reduced and the amount of calculation can be reduced for the low-frequency feature generated by the low-frequency feature generating unit and the illumination field region extracted by the subsequent region extracting unit.
  • An example of the low-frequency image generation means is to generate the above-described low-frequency image by reducing the radiation image
  • another example of the low-frequency image generation means converts the radiation image into a spatial frequency domain
  • the low-frequency image is generated by converting the low-frequency region of the converted spatial frequency region into a real space.
  • the spatial resolution of the radiographic image is reduced by reducing the radiographic image to generate a low-frequency image.
  • the low-frequency of the transformed spatial frequency region is reduced.
  • the spatial resolution of the radiographic image is reduced to generate a low-frequency image.
  • a low-frequency image may be generated by performing smoothing by filtering on the radiation image.
  • An example of the low-frequency feature generation unit is to generate the above-described low-frequency feature by reducing the feature image, and another example of the low-frequency feature generation unit converts the feature image into a spatial frequency domain,
  • the above-mentioned low frequency feature is generated by converting a low frequency region of the transformed spatial frequency region into a real space.
  • the feature image is reduced to reduce the spatial resolution of the feature image to generate a low-frequency feature
  • the low-frequency region of the transformed spatial frequency region is reduced.
  • the spatial resolution of the feature image is lowered to generate a low-frequency feature.
  • the low-frequency feature may be generated by performing smoothing by filtering on the feature image.
  • An example of the feature extraction means is to perform the above-described feature extraction by obtaining a gradient strength based on a signal level difference between the pixel and the surrounding pixels.
  • the region extraction unit binarizes the above-described low frequency feature using a preset threshold value, creates binary data indicating the presence or absence of the feature, and converts the binary data into the binary data. Based on this, it is preferable to select a feature that is a boundary of the illumination field region. By creating binary data in this way, extra patterns can be further removed.
  • the region extraction unit includes a normal distance from a reference origin to a straight line on a two-dimensional plane and an angle formed by the normal and the reference axis.
  • a Hough transform that transforms coordinates on a two-dimensional plane into space, the above low frequency features are projected onto a space consisting of the above distance and the above angle to obtain a plurality of sinusoids. It is preferable to detect a straight line that is a candidate for the boundary of the illumination field region based on the location where the sinusoids intersect each other and the number of intersections. By detecting a straight line using such a Hough transform, it is possible to easily find a straight line that is a candidate for the boundary of the irradiation field region.
  • the radiographic image processing program of the present invention is a radiographic image processing program for causing a computer to process a radiographic image taken by radiography, and lowers the spatial resolution of the radiographic image so that the radiographic image is lower than the radiographic image.
  • a low-frequency image generation step for generating a low-frequency image, which is a frequency image, and, for any pixel of the low-frequency image, feature extraction is performed by obtaining a feature amount based on a signal level difference between the pixel and a peripheral pixel.
  • a feature extraction step for generating a feature image by associating the feature quantity with each pixel of the low-frequency image; and a spatial resolution of the feature image is reduced, so that the image has a lower frequency than the feature image.
  • a low-frequency feature generation step for generating a low-frequency feature, and a feature that serves as a boundary of an irradiation field area of radiation is selected based on the low-frequency feature;
  • a region extraction step of extracting the irradiation field area, is characterized in that to execute the processing in these steps on a computer.
  • the spatial resolution is reduced twice in total in the low-frequency image generation step and the low-frequency feature generation step, thereby reducing the influence of noise and the like and reducing the amount of calculation.
  • the spatial resolution is lowered a total of two times to reduce the influence of noise and the like, thereby reducing the amount of calculation.
  • FIG. 1 It is a block diagram of the radiographic image processing apparatus which concerns on an Example. It is a schematic diagram of the detection surface of a flat panel type radiation detector (FPD).
  • FPD flat panel type radiation detector
  • (A) is a schematic diagram of an image before reduction
  • (b) is a schematic diagram of an image after reduction. It is the flowchart which showed the flow of a series of area
  • (A) to (d) are schematic diagrams for explaining the Hough transform.
  • (A), (b) is a schematic diagram used for description of Hough transform. It is a schematic diagram of the image with which it uses for the description regarding the conditions of the left side boundary line of an irradiation visual field area
  • FIG. 1 is a block diagram of the radiation image processing apparatus according to the embodiment
  • FIG. 2 is a schematic view of a detection surface of a flat panel radiation detector (FPD)
  • FIG. 3B is a schematic diagram of an image after reduction
  • FIG. 4 is a flowchart showing a flow of a series of region extraction
  • FIGS. 5 and 6 are Hough transforms.
  • FIG. 7 is a schematic diagram of an image used for explaining the boundary condition on the left side of the illumination field region.
  • the radiographic image processing apparatus includes a top plate 1 on which a subject M is placed, and a radiation source 2 (for example, X-rays) that irradiates the subject M with radiation (for example, X-rays).
  • a radiation source 2 for example, X-rays
  • X-ray tube a flat panel radiation detector (hereinafter abbreviated as “FPD”) 3 that detects radiation irradiated from the radiation source 2 and transmitted through the subject M, and radiation detected by the FPD 3
  • An image processing unit 4 that performs image processing
  • a display unit 5 that displays radiographic images subjected to various types of image processing by the image processing unit 4.
  • the display unit 5 includes display means such as a monitor and a television. Further, a collimator 21 for operating the irradiation field of radiation is disposed on the irradiation side of the radiation source 2.
  • the image processing unit 4 includes a central processing unit (CPU).
  • a program for performing various image processing is written and stored in a storage medium represented by ROM (Read-only Memory) and the like, and the CPU of the image processing unit 4 executes the program from the storage medium.
  • image processing corresponding to the program is performed.
  • the low-frequency image generation unit 41, the feature extraction unit 42, the low-frequency feature generation unit 43, and the region extraction unit 44 described later of the image processing unit 4 generate a low-frequency image, extract a feature, generate a low-frequency feature, and a region.
  • a program related to generation of low-frequency images, feature extraction, generation of low-frequency features, and region extraction corresponds to the radiation image processing program in the present invention.
  • the image processing unit 4 reduces the spatial resolution of the radiographic image captured by the FPD 3 to generate a low-frequency image that is a lower-frequency image than the radiographic image, and an arbitrary low-frequency image. For each pixel, feature extraction is performed by obtaining a feature amount based on a signal level difference (for example, pixel value difference or luminance difference) with respect to the surrounding pixel with respect to the pixel, and the feature amount is associated with each pixel of the low-frequency image.
  • a signal level difference for example, pixel value difference or luminance difference
  • a feature extraction unit 42 that generates a feature image
  • a low-frequency feature generation unit 43 that generates a low-frequency feature that is a lower-frequency image than the feature image by reducing the spatial resolution of the feature image
  • a low-frequency feature And a region extraction unit 44 that selects a feature serving as a boundary of the irradiation field region of radiation and extracts the irradiation field region from the radiation image.
  • the low frequency image generation unit 41 corresponds to the low frequency image generation unit in the present invention
  • the feature extraction unit 42 corresponds to the feature extraction unit in the present invention
  • the low frequency feature generation unit 43 corresponds to the low frequency feature in the present invention.
  • the region extraction unit 44 corresponds to the generation unit in the present invention.
  • the FPD 3 is configured by arranging a plurality of detection elements d sensitive to radiation on a detection surface in a two-dimensional matrix.
  • the detection element d detects the radiation by converting the radiation transmitted through the subject M into an electrical signal, temporarily storing it, and reading the stored electrical signal.
  • An electrical signal detected by each detection element d is converted into a pixel value corresponding to the electrical signal, and a radiation image is output by assigning the pixel value to each pixel corresponding to the position of the detection element d.
  • the radiographic image is sent to the low frequency image generation unit 41 and the region extraction unit 44 (see FIG. 1) of the image processing unit 4.
  • an imaging button (not shown) is pressed, radiation is generated from the radiation source 2, the radiation is irradiated toward the subject M, and imaging is started in conjunction therewith.
  • the generated radiation passes through the subject M through the collimator 21 and enters the FPD 3 so that the FPD 3 detects the radiation, outputs a radiation image, and performs imaging.
  • the collimator 21 is disposed on the irradiation side of the radiation source 2, the irradiation field area of the radiation corresponding to the shape of the collimator 21 is determined.
  • the radiation image corresponding to the determined illumination field area is sent to the low frequency image generation section 41 of the image processing section 4 and also to the area extraction section 44.
  • the low frequency image generation unit 41 reduces the spatial resolution of the radiographic image and generates a low frequency image that is an image having a frequency lower than that of the radiographic image.
  • the low frequency image generation unit 41 generates a low frequency image by reducing the radiation image.
  • the reduction ratio of the image or the size of the low frequency image is arbitrary. However, if the image reduction ratio or the size of the low-frequency image is too small, the deterioration of information is too large. Therefore, the low-frequency image is preferably about 1/8 of the radiation image. In the case of generating a low-frequency image by reducing it to 1/8, the average pixel value of 8 ⁇ 8 pixels in the vertical and horizontal directions in the radiation image shown in FIG.
  • 3A is the same as that of the low-frequency image shown in FIG.
  • the reduction process is executed by setting the pixel value as one pixel.
  • a region surrounded by a thick frame is 8 ⁇ 8 pixels in length and width, and a portion having the same hatching in FIG. 3 is shown in FIG.
  • 3 (b) one pixel after reduction corresponding to FIG. 3 (a) is assumed.
  • the method of generating a low-frequency image by reducing the radiation image is not limited to the method for obtaining the average value as described above, and thinning out the pixels of the radiation image, etc. Any reduction method that is normally used may be used.
  • the method of generating a low-frequency image is not limited to the reduction processing as described above, and is a method of generating a low-frequency image by smoothing by filter processing. Any method for generating a low-frequency image that is normally used, such as a method for generating a low-frequency image by converting a low-frequency region in the spatial frequency region to a real space, or a combination of these methods may be used. There are the following methods for generating a low-frequency image by converting a radiographic image into a spatial frequency domain and converting a low-frequency area of the converted spatial frequency domain into a real space.
  • a radiographic image is converted into a spatial frequency domain by Fourier transform, and a high frequency component is removed from the converted spatial frequency domain, or a low frequency component is allowed to pass through to obtain a low frequency domain.
  • a low frequency image may be generated by transforming into real space by inverse Fourier transform. In the case of the method using the Fourier transform / inverse Fourier transform, a low frequency image can be generated without changing the size of the image. Further, the present invention is not limited to Fourier transform, and processing such as wavelet transform and Gabor filter may be performed.
  • the generation of the low frequency image by the low frequency image generation unit 41 corresponds to the low frequency image generation step in the present invention.
  • the low frequency image generated by the low frequency image generation unit 41 is sent to the feature extraction unit 42.
  • the feature extraction unit 42 performs feature extraction by obtaining a feature amount based on a signal level difference (for example, a pixel value difference or a luminance difference) with respect to a peripheral pixel with respect to the pixel in an arbitrary pixel of the low-frequency image.
  • a feature image is generated by associating a feature amount with each pixel.
  • feature extraction is performed by the following method to generate a feature image.
  • a pixel gradient (a luminance gradient in the case of the monitor of the display unit 5) is obtained.
  • the calculation of the gradient will be specifically described.
  • the pixel value at the coordinates (x, y) on the pixel is I (x, y), and the feature quantity in the x-axis direction among the obtained feature quantities is Ex (x, y).
  • the feature quantity in the y-axis direction is Ey (x, y)
  • expression (1) and expression (2) are used.
  • the calculation of the feature amount is not limited to the calculation by the gradient using the above equation (3). If the technique is to extract the signal level difference of the image as a feature value, such as edge calculation by 1D or 2D differential filter processing such as Sobel, Prewitt, Laplacian or Canny, high frequency component extraction by frequency processing, etc. But you can. Furthermore, as long as the feature amount to be obtained is a feature that increases the numerical value at the boundary position of the illumination field region, another feature amount may be substituted.
  • the boundary lines of the regions in approximately four directions (up, down, left, and right) corresponding to the four sides of the rectangle with respect to the subject in the center of the image Therefore, four feature amounts corresponding to each of them may be obtained.
  • the feature amount is obtained in the same way. Then, a feature image is generated by associating a feature amount with each pixel of the low-frequency image. In this feature image, a large value is shown at a portion where the pixel value change (luminance change) is strong.
  • the feature extraction by the feature extraction unit 42 corresponds to the feature extraction step in the present invention.
  • the feature amount and feature image extracted by the feature extraction unit 42 are sent to the low-frequency feature generation unit 43.
  • the low frequency feature generation unit 43 generates a low frequency feature that is an image having a frequency lower than that of the feature image by reducing the spatial resolution of the feature image.
  • the method of generating the low-frequency feature by reducing the feature image Similar to the method of generating a low-frequency image by reducing the radiation image (reduction processing by the low-frequency image generation unit 41), the method of generating the low-frequency feature by reducing the feature image (low-frequency feature generation)
  • the reduction processing by the unit 43 is not limited to the method for obtaining the average value as described above, and may be any reduction method that is normally used, such as thinning out pixels of the feature image.
  • the method for generating the low-frequency feature is not limited to the reduction processing as described above.
  • the method for generating the low-frequency feature by the smoothing by the filter processing, the feature image is converted into the spatial frequency domain, and converted.
  • Any method may be used as long as it is a method of generating a low frequency characteristic by converting a low frequency region of the spatial frequency region into a real space, or a method of generating a low frequency that is normally used, such as a combination of these methods.
  • a reduction process by the low-frequency image generation unit 41 Similar to, Fourier transform and inverse Fourier transform may be used. Further, the present invention is not limited to Fourier transform, and processing such as wavelet transform and Gabor filter may be performed.
  • the generation of the low frequency feature by the low frequency feature generation unit 43 corresponds to the low frequency feature generation step in the present invention.
  • the low frequency feature generated by the low frequency feature generation unit 43 is sent to the region extraction unit 44.
  • the region extraction unit 44 selects a feature serving as a boundary of the irradiation field region of the radiation based on the low frequency feature, and extracts the irradiation field region from the radiation image.
  • region extraction is performed by the region extraction unit 44 in the flow of FIG.
  • Step S1 Binarization
  • the low-frequency feature is binarized with a preset threshold value to create binary data indicating the presence or absence of the feature. For example, if the data value (gradient intensity in this case) at an arbitrary point (coordinate on the pixel) of the feature image data is larger than the threshold value, it is assumed that there is a feature and “1” is substituted. Is smaller, “0” is substituted because there is no feature.
  • the threshold value is obtained in advance by an empirical rule or an average value of characteristic image data values (gradient intensity in this case).
  • the value to be assigned is not limited to “0” or “1”. Other values or symbols may be used as long as the presence / absence of the feature can be determined.
  • the threshold value is not limited to a fixed value, and may be a value set based on the pixel value of the radiation image.
  • Step S2 Straight Line Detection From the binary data indicating the presence / absence of the feature binarized in step S1, a group of pixels in which pixels determined to have a feature are linearly continuous is selected to obtain a linear equation. A plurality of straight lines may be detected.
  • a Hough transform is used as a method for obtaining a linear expression.
  • the Hough transform represents a two-dimensional straight line on a two-dimensional plane (here, on the image) by a normal distance r from the origin to the straight line and an angle ⁇ formed by the normal and the x axis.
  • This is a method of detecting a straight line by projecting the feature point (here, the coordinate of “1”) onto the Hough space and obtaining the distance r and the angle ⁇ .
  • a straight line passing through the coordinates (x, y) and perpendicular to the distance r 0 from the origin to the coordinates (x, y) is drawn as shown in FIG.
  • the straight line on the Hough space is a black circle on the sine curve expressed by the above equation (4) as shown in FIG. Is projected onto the portion ( ⁇ 0 , r 0 ) drawn at.
  • a straight line passing through the coordinates (x, y) and parallel to the y axis is drawn as shown in FIG.
  • the distance r between the y-axis and the straight line is a distance r 1 from the origin
  • a straight line orthogonal to the distance r 1 from the origin is parallel to the y-axis.
  • a straight line passing through the coordinates (x, y) and parallel to the x-axis is drawn as shown in FIG.
  • the distance r between the x axis and the straight line is a distance r 2 from the origin
  • a straight line orthogonal to the distance r 2 from the origin is parallel to the x axis.
  • the straight line orthogonal to the distance r 0 from the origin to the coordinate (x, y) described above, the straight line parallel to the y axis, and the straight line parallel to the x axis, the coordinate (x, y ) are projected onto the Hough space, the sinusoidal curve expressed by the above equation (4) is drawn by the drawn portion ( ⁇ , r).
  • one coordinate is set to (x 1 , y 1 ), and the other coordinate is set to (x 2 , y 2).
  • various straight lines (not shown) passing through the coordinates (x 1 , y 1 ) are respectively projected onto the Hough space
  • a sine curve shown in FIG. 6B is drawn, and various straight lines passing through the coordinates (x 2 , y 2 ) are drawn.
  • a sine curve shown in FIG. 6B is drawn.
  • the coordinates at which the two sinusoids intersect in the Hough space are a straight line on the image (here, the two coordinates (x 1 , y 1 ) and (x 2 , y 2 ) shown in FIG. 6A). It corresponds to a straight line passing through both.
  • this Hough transform is applied to a feature point in the image of the present embodiment (in this case, the coordinate that is “1”), the coordinates of the feature point of the binary data indicating the presence or absence of the feature binarized in step S1 are obtained. Extraction is performed, and various straight lines passing through the respective coordinates are projected onto the Hough space, and the locations ( ⁇ L , r L ) where the sine curves intersect and the number of intersections are detected.
  • the method of detecting a straight line from feature image data is not limited to using the Hough transform. You may use the least squares method which calculates
  • the matching data may be detected as a straight line.
  • the side data of the subject is known as an unnecessary pattern
  • the side data of the subject is set as a template, and the template is compared with the feature points in the image.
  • the matching data may be excluded from straight line detection as an extra pattern.
  • Step S3 Straight Line Selection Of the straight lines detected in step S2, the straight line that shows the strongest feature whose position and inclination meet the conditions (for example, FIG. a) The straight line in) is selected.
  • the above conditions are as follows when a rectangular illumination field region is extracted.
  • the straight line is located on the left side with respect to the center O of the subject in the image (a feature image in this embodiment).
  • the angle between the image frame F L of the left side of the image (feature image in this embodiment) is in the range of up to 45 ° -45 °.
  • the sign F R that indicate like conditions corresponding to each direction in FIG. 7 in the right image frame of the image, reference numeral F B is in the lower image frame of the image, reference numeral F U denotes the upper image frame of the image).
  • Step S4 Region Division
  • the straight line selected in step S3 is determined as the boundary line of the irradiation field region, the size is returned to the radiographic image, and the selected straight line is drawn on the radiographic image. Then, the region is divided in the radiation image corresponding to the selected straight line position.
  • Step S5 All? It is determined whether or not all boundary lines (straight lines) in the illumination field region have been detected. If not, the process returns to the straight line detection in step S2 and the same processing is performed for the other boundary lines (straight lines). When all the boundary lines (straight lines) are detected, the region extraction processing by the region extraction unit 44 ends.
  • the region extraction (steps S1 to S5) by the region extraction unit 44 corresponds to the region extraction step in this invention.
  • the irradiation field region extracted by the region extraction unit 44 is sent to the display unit 5 together with the radiation image, and the display unit 5 displays and outputs the irradiation field region together with the radiation image.
  • the irradiation field area together with the radiation image may be written in and stored in a storage medium represented by RAM (Random-Access Memory), and read out as necessary, or printing means represented by a printer or the like. May be printed out.
  • RAM Random-Access Memory
  • a line representing the boundary of the illumination field is output and displayed in the radiation image, or the pixel value outside the illumination field is displayed (when displayed on the monitor). Is set to “0” for output display.
  • the low-frequency image generation unit 41 generates a low-frequency image that is a lower-frequency image than the radiographic image by reducing the spatial resolution of the radiographic image.
  • the feature extraction unit 42 performs feature extraction by obtaining a feature amount based on a signal level difference (pixel value difference or luminance difference in the present embodiment) with respect to a peripheral pixel with respect to the pixel in an arbitrary pixel of the above-described low frequency image.
  • a feature image is generated by associating the above-described feature amount with each pixel of the low-frequency image.
  • the low-frequency feature generation unit 43 generates a low-frequency feature that is an image having a frequency lower than that of the feature image by reducing the spatial resolution of the feature image.
  • the region extraction unit 44 selects a feature that becomes a boundary of the irradiation field region of the radiation based on the above-described low frequency feature, and extracts the above-mentioned irradiation field region from the radiation image. In this way, the spatial resolution is lowered a total of two times by the low-frequency image generation unit 41 and the low-frequency feature generation unit 43 to reduce the influence of noise and the like, thereby reducing the amount of calculation.
  • the low frequency image generation unit 41 generates a low frequency image by reducing the radiation image as described above.
  • the spatial resolution of the radiographic image is reduced, and a low-frequency image is generated.
  • the low frequency image generation unit 41 when the low frequency image generation unit 41 generates a low frequency region by converting a radiation image into a spatial frequency region and converting the low frequency region of the converted spatial frequency into a real space, The low frequency region of the converted spatial frequency region is converted into a real space, thereby reducing the spatial resolution of the radiation image and generating a low frequency image.
  • the low frequency feature generation unit 43 generates the low frequency feature by reducing the feature image as described above. By reducing the feature image in this way, the spatial resolution of the feature image is reduced, and a low-frequency feature is generated. Further, when the low frequency feature generation unit 43 converts the feature image into the spatial frequency domain and generates the low frequency feature by converting the low frequency domain of the converted spatial frequency domain into the real space. The low frequency region of the converted spatial frequency region is converted into a real space, thereby reducing the spatial resolution of the feature image and generating a low frequency feature.
  • the feature extraction unit 42 obtains the gradient strength P (x, y) based on the signal level difference (pixel value difference or luminance difference in the present embodiment) with respect to the above-described pixel and the surrounding pixels. The above feature extraction is performed.
  • the region extraction unit 44 binarizes the low-frequency feature using a preset threshold value, creates binary data indicating the presence / absence of the feature, and based on the binary data The feature that is the boundary of the illumination field is selected. By creating binary data in this way, it is possible to further remove an extra pattern (in this case, coordinates that are “0”).
  • the region extraction unit 44 has a normal distance r from a reference origin to a straight line on a two-dimensional plane, and the normal and a reference axis (here, x-axis).
  • a plurality of sinusoids by projecting a low-frequency feature onto the space consisting of the above-mentioned distance r and the above-mentioned angle ⁇ using the Hough transform for converting the coordinates on the two-dimensional plane into the space consisting of the angle ⁇ formed by Based on the locations where the sinusoids intersect each other and the number of intersections, straight lines that are candidates for the boundary of the irradiation field region are detected.
  • the present invention is not limited to the above embodiment, and can be modified as follows.
  • the X-ray is taken as an example of radiation, but it may be applied to radiation other than X-ray (for example, ⁇ -ray).
  • the radiographic image processing apparatus has a structure in which imaging is performed by placing the subject on the top plate 1 as shown in FIG. Not.
  • it may have a structure in which a subject (in this case, the subject to be examined is a subject) is transported on a belt and photographed, as in a non-destructive inspection apparatus used for industrial use, etc.
  • It may be a structure such as an X-ray CT apparatus used in the present invention.
  • an apparatus that performs imaging may be configured as a separate apparatus as an external apparatus, and may simply include a low-frequency image generation unit, a feature extraction unit, a low-frequency feature generation unit, and a region extraction unit.
  • the flat panel radiation detector (FPD) is used as the image sensor, but the image sensor is not limited to the FPD.
  • the present invention can be applied to any image sensor that is normally used, as exemplified by an image intensifier. It is particularly useful when a digital image sensor such as an FPD is used.
  • the signal level is the pixel value or the brightness.
  • the embodiment describes the value of the electrical signal output from the FPD 3 as illustrated in the embodiment. They can be used together.
  • the irradiation field area to be extracted is a rectangle, but is not limited to a rectangle typified by a square or a rectangle, but a shape such as a rhombus or a parallelogram, or a trapezoid
  • the illumination field area having a shape may be used, and the illumination field area having such a shape can be extracted with high accuracy. Further, it may be a polygonal shape such as an octagon or an illumination field region such as a circle or an ellipse, and the shape of the illumination field region is not particularly limited as long as it is a closed shape.
  • the Hough transform of a circle In the case of a circular or elliptical illumination field region, the Hough transform of a circle, a method by matching with a circular template, a method of comparing the correlation with circular data, and a minimum two using an equation indicating a circle
  • the boundary line may be detected using multiplication or the like.
  • the low-frequency feature is binarized to create binary data.
  • the present invention is not limited to binarization. For example, using two thresholds, if the value is higher than the threshold value having a high value, the feature is considered to be much, and “2” is substituted, and the threshold value having a lower value is lower than the threshold value having a higher value. If it is high, it is assumed that there is a little feature and “1” is substituted, and if it is lower than a threshold having a low value, it is assumed that there is no feature and “0” is substituted to create ternary data, etc.
  • Data may be created by sorting into a plurality of three or more values.
  • a straight line is detected using the intersection of sinusoids, for example, ternary data is used, and when there is the most characteristic (when higher than a threshold having a high value), for example, a weight of “2” If there is a little feature (lower than a threshold having a high value and higher than a threshold having a low value), for example, a weight of “1” is used to detect a straight line more accurately. It may be.
  • a straight line may be detected by setting a value proportional to the feature value in the space. In this case, the binarization in step S1 in FIG. 4 is not necessary.

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Veterinary Medicine (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Public Health (AREA)
  • Pathology (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

 この発明の放射線画像処理装置は、低周波画像生成部41および低周波特徴生成部43による合計2回にわたる空間分解能の低下を行って、ノイズ等の影響を減らして演算量を低減させる。また、低周波画像生成部41および特徴抽出部42を経て抽出された特徴量のうち、除去しきれなかった余分な特徴量(パターン)を、低周波特徴生成部43の空間分解能の低下によって減らすことが可能となる。したがって、低周波特徴生成部43により生成された低周波特徴や、後段の領域抽出部44により抽出された照視野領域について、ノイズ等の影響を減らし、演算量を低減させることができる。その結果、ノイズ等の影響を減らして精度の高い特徴抽出および領域抽出を実現し、演算量を低減させることができる。

Description

放射線画像処理装置および放射線画像処理プログラム
 この発明は、放射線撮影された放射線画像を処理する放射線画像処理装置および放射線画像処理プログラムに関する。
 放射線画像処理装置では、散乱放射線(散乱線)の影響による放射線画像のコントラスト低下を抑制したり、不必要な被曝を避けるために、放射線を遮断する鉛板等によって直接放射線(直接線)の一部を遮断して、放射線の照視野を絞って撮影して、画像処理を行うことがある。このとき撮影された放射線画像を適切な階調に最適化したり、撮影時に被検体を透過する放射線量を制御するためには、放射線画像中から照視野の領域を抽出することが必要となる。
 そこで、放射線検出器から得られる画像から2本の候補点の複数の組み合わせを生成し、それぞれの候補に対して点数化を行い、数値の高い候補を照視野領域の輪郭として抽出する技術などがある(例えば、特許文献1参照)。その他にも、放射線画像よりも低周波の画像であるボケ画像から特徴量を抽出し、コリメータによる照視野領域の輪郭(「コリメータエッジ」あるいは「コリメーションエッジ」とも呼ばれる)を抽出する技術などがある(例えば、特許文献2参照)。なお、画像処理の分野では、画像の記述に当たり、区別するための要素を抽出する処理を「特徴抽出」と呼んでいる。
特許第4280729号公報 特開2006-181362号公報
 従来技術の特許文献1では、画像データ全体からフィルタ処理や微分演算などによって特徴点を抽出する。したがって、画像にノイズが含まれていると、必要となる照視野領域の境界に相当する特徴のみならず、その他の不必要な特徴点も多数検出されてしまう。そのために、検出の精度が悪くなってしまうという問題点がある。
 また、抽出されたエッジ点を複数のグループに分類して特徴を選択しているが、特徴点が多数検出されている場合には、候補点の組み合わせが膨大になる場合があり、演算が複雑になってしまうという問題点もある。また、コリメータは矩形の形状が多いので、照視野領域も矩形の形状となり、照視野領域の境界は直線パターンとなるが、余分なパターン(例えば被検体の脇の直線データ)まで検出されてしまうという問題点もある。
 この発明は、このような事情に鑑みてなされたものであって、ノイズ等の影響を減らして精度の高い特徴抽出および領域抽出を実現し、演算量を低減させることができる放射線画像処理装置および放射線画像処理プログラムを提供することを目的とする。
 この発明は、このような目的を達成するために、次のような構成をとる。
 すなわち、この発明の放射線画像処理装置は、放射線撮影された放射線画像を処理する放射線画像処理装置であって、前記放射線画像の空間分解能を低下させて、放射線画像よりも低周波の画像である低周波画像を生成する低周波画像生成手段と、前記低周波画像の任意の画素において、当該画素に対する周辺画素との信号レベル差に基づく特徴量を求めることで特徴抽出を行い、低周波画像の各々の画素に対して前記特徴量を対応させて特徴画像を生成する特徴抽出手段と、前記特徴画像の空間分解能を低下させて、前記特徴画像よりも低周波の画像である低周波特徴を生成する低周波特徴生成手段と、前記低周波特徴に基づいて放射線の照視野領域の境界となる特徴を選択し、前記放射線画像から前記照視野領域を抽出する領域抽出手段とを備えていることを特徴とするものである。
 この発明の放射線画像処理装置によれば、低周波画像生成手段は、放射線画像の空間分解能を低下させて、放射線画像よりも低周波の画像である低周波画像を生成する。特徴抽出手段は、上述の低周波画像の任意の画素において、当該画素に対する周辺画素との信号レベル差に基づく特徴量を求めることで特徴抽出を行い、低周波画像の各々の画素に対して上述の特徴量を対応させて特徴画像を生成する。低周波特徴生成手段は、上述の特徴画像の空間分解能を低下させて、特徴画像よりも低周波の画像である低周波特徴を生成する。領域抽出手段は、上述の低周波特徴に基づいて放射線の照視野領域の境界となる特徴を選択し、放射線画像から上述の照視野領域を抽出する。このように、低周波画像生成手段および低周波特徴生成手段により合計2回にわたる空間分解能の低下を行って、ノイズ等の影響を減らして演算量を低減させる。また、低周波画像生成手段および特徴抽出手段を経て抽出された特徴量のうち、除去しきれなかった余分な特徴量(パターン)を、低周波特徴生成手段による空間分解能の低下によって減らすことが可能となる。したがって、低周波特徴生成手段により生成された低周波特徴や、後段の領域抽出手段により抽出された照視野領域について、ノイズ等の影響を減らし、演算量を低減させることができる。その結果、ノイズ等の影響を減らして精度の高い特徴抽出および領域抽出を実現し、演算量を低減させることができる。
 低周波画像生成手段の一例は、放射線画像を縮小することにより上述の低周波画像を生成することであり、低周波画像生成手段の他の一例は、放射線画像を空間周波数領域に変換して、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより上述の低周波画像を生成することである。前者の一例の場合には、放射線画像を縮小することにより放射線画像の空間分解能を低下させて、低周波画像を生成し、後者の一例の場合には、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより放射線画像の空間分解能を低下させて、低周波画像を生成する。なお、放射線画像に対してフィルタ処理による平滑化を行うことにより低周波画像を生成してもよい。
 低周波特徴生成手段の一例は、特徴画像を縮小することにより上述の低周波特徴を生成することであり、低周波特徴生成手段の他の一例は、特徴画像を空間周波数領域に変換して、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより上述の低周波特徴を生成することである。前者の一例の場合には、特徴画像を縮小することにより特徴画像の空間分解能を低下させて、低周波特徴を生成し、後者の一例の場合には、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより特徴画像の空間分解能を低下させて、低周波特徴を生成する。なお、特徴画像に対してフィルタ処理による平滑化を行うことにより低周波特徴を生成してもよい。
 特徴抽出手段の一例は、上述の当該画素に対する周辺画素との信号レベル差に基づく勾配強度を求めることで上述の特徴抽出を行うことである。
 また、この発明の放射線画像処理装置では、領域抽出手段は、予め設定された閾値により上述の低周波特徴を2値化して、特徴の有無を示す2値データを作成し、その2値データに基づいて照視野領域の境界となる特徴を選択するのが好ましい。このように2値データを作成することより、余分なパターンをより一層除去することができる。
 また、この発明の放射線画像処理装置では、領域抽出手段は、2次元平面上で基準となる原点から直線への法線の距離と、当該法線と基準となる軸とがなす角度とからなる空間に2次元平面上の座標を変換するハフ(Hough)変換を利用して、上述の低周波特徴を上述の距離と上述の角度からなる空間に投影して複数の正弦曲線を求め、各々の正弦曲線が互いに交わる箇所、および交わる個数に基づいて、照視野領域の境界の候補となる直線を検出するのが好ましい。このようなハフ変換を利用して直線を検出することで、照視野領域の境界の候補となる直線を簡易に見出すことができる。
 また、この発明の放射線画像処理プログラムは、放射線撮影された放射線画像の処理をコンピュータに実行させるための放射線画像処理プログラムであって、前記放射線画像の空間分解能を低下させて、放射線画像よりも低周波の画像である低周波画像を生成する低周波画像生成工程と、前記低周波画像の任意の画素において、当該画素に対する周辺画素との信号レベル差に基づく特徴量を求めることで特徴抽出を行い、低周波画像の各々の画素に対して前記特徴量を対応させて特徴画像を生成する特徴抽出工程と、前記特徴画像の空間分解能を低下させて、前記特徴画像よりも低周波の画像である低周波特徴を生成する低周波特徴生成工程と、前記低周波特徴に基づいて放射線の照視野領域の境界となる特徴を選択し、前記放射線画像から前記照視野領域を抽出する領域抽出工程とを備え、これらの工程での処理をコンピュータに実行させることを特徴とするものである。
 この発明の放射線画像処理プログラムによれば、低周波画像生成工程および低周波特徴生成工程で合計2回にわたる空間分解能の低下を行って、ノイズ等の影響を減らして演算量を低減させる。また、低周波画像生成工程および特徴抽出工程を経て抽出された特徴量のうち、除去しきれなかった余分な特徴量(パターン)を、低周波特徴生成工程で空間分解能の低下によって減らすことが可能となる。したがって、低周波特徴生成工程で生成された低周波特徴や、後段の領域抽出工程で抽出された照視野領域について、ノイズ等の影響を減らし、演算量を低減させることができる。その結果、ノイズ等の影響を減らして精度の高い特徴抽出および領域抽出を実現し、演算量を低減させることができる。
 この発明に係る放射線画像処理装置および放射線画像処理プログラムによれば、合計2回にわたる空間分解能の低下を行って、ノイズ等の影響を減らして演算量を低減させる。また、抽出された特徴量のうち、除去しきれなかった余分な特徴量(パターン)を、2回目の空間分解能の低下によって減らすことが可能となる。したがって、低周波特徴や照視野領域について、ノイズ等の影響を減らし、演算量を低減させることができる。その結果、ノイズ等の影響を減らして精度の高い特徴抽出および領域抽出を実現し、演算量を低減させることができる。
実施例に係る放射線画像処理装置のブロック図である。 フラットパネル型放射線検出器(FPD)の検出面の模式図である。 (a)は縮小前の画像の模式図、(b)は縮小後の画像の模式図である。 一連の領域抽出の流れを示したフローチャートである。 (a)~(d)はハフ変換の説明に供する模式図である。 (a)、(b)はハフ変換の説明に供する模式図である。 照視野領域の左側の境界線の条件に関する説明に供する画像の模式図である。
 4 … 画像処理部
 41 … 低周波画像生成部
 42 … 特徴抽出部
 43 … 低周波特徴生成部
 44 … 領域抽出部
 P(x、y) … 勾配強度
 r … 距離
 θ … 角度
 以下、図面を参照してこの発明の実施例を説明する。図1は、実施例に係る放射線画像処理装置のブロック図であり、図2は、フラットパネル型放射線検出器(FPD)の検出面の模式図であり、図3(a)は、縮小前の画像の模式図であり、図3(b)は、縮小後の画像の模式図であり、図4は、一連の領域抽出の流れを示したフローチャートであり、図5および図6は、ハフ変換の説明に供する模式図であり、図7は、照視野領域の左側の境界線の条件に関する説明に供する画像の模式図である。
 本実施例に係る放射線画像処理装置は、図1に示すように、被検体Mを載置した天板1と、被検体Mに向けて放射線(例えばX線)を照射する放射線源2(例えばX線管)と、放射線源2から照射されて被検体Mを透過した放射線を検出するフラットパネル型放射線検出器(以下、「FPD」と略記する)3と、FPD3によって検出された放射線に基づいて画像処理を行う画像処理部4と、画像処理部4によって各種の画像処理された放射線画像を表示する表示部5とを備えている。表示部5はモニタやテレビジョンなどの表示手段で構成されている。また、放射線源2の照射側には放射線の照視野を操作するコリメータ21を配設している。
 画像処理部4は、中央演算処理装置(CPU)などで構成されている。なお、各種の画像処理を行うためのプログラム等をROM(Read-only Memory)などに代表される記憶媒体に書き込んで記憶し、その記憶媒体からプログラム等を読み出して画像処理部4のCPUが実行することでそのプログラムに応じた画像処理を行う。特に、画像処理部4の後述する低周波画像生成部41や特徴抽出部42や低周波特徴生成部43や領域抽出部44は、低周波画像の生成や特徴抽出や低周波特徴の生成や領域抽出に関するプログラムを実行することで、そのプログラムに応じた低周波画像の生成や特徴抽出や低周波特徴の生成や領域抽出をそれぞれ行う。低周波画像の生成や特徴抽出や低周波特徴の生成や領域抽出に関するプログラムは、この発明における放射線画像処理プログラムに相当する。
 画像処理部4は、FPD3によって撮影された放射線画像の空間分解能を低下させて、放射線画像よりも低周波の画像である低周波画像を生成する低周波画像生成部41と、低周波画像の任意の画素において、当該画素に対する周辺画素との信号レベル差(例えば画素値差あるいは輝度差)に基づく特徴量を求めることで特徴抽出を行い、低周波画像の各々の画素に対して特徴量を対応させて特徴画像を生成する特徴抽出部42と、特徴画像の空間分解能を低下させて、特徴画像よりも低周波の画像である低周波特徴を生成する低周波特徴生成部43と、低周波特徴に基づいて放射線の照視野領域の境界となる特徴を選択し、放射線画像から照視野領域を抽出する領域抽出部44とを備えている。低周波画像生成部41は、この発明における低周波画像生成手段に相当し、特徴抽出部42は、この発明における特徴抽出手段に相当し、低周波特徴生成部43は、この発明における低周波特徴生成手段に相当し、領域抽出部44は、この発明における領域抽出手段に相当する。
 FPD3は、図2に示すように、その検出面には放射線に有感な複数の検出素子dを2次元マトリックス状に配列して構成されている。検出素子dは、被検体Mを透過した放射線を電気信号に変換して一旦蓄積して、その蓄積された電気信号を読み出すことで、放射線を検出する。各々の検出素子dでそれぞれ検出された電気信号を、電気信号に応じた画素値に変換して、検出素子dの位置にそれぞれ対応した画素にその画素値を割り当てることで放射線画像を出力して、画像処理部4の低周波画像生成部41および領域抽出部44(図1を参照)に放射線画像を送り込む。
 実際の撮影および各画像に関するデータの流れについて説明する。図示を省略する撮影ボタンを押下することで、放射線源2から放射線を発生させて、その放射線を被検体Mに向けて照射し、それに連動して撮影を開始する。発生した放射線はコリメータ21を介して被検体Mを透過して、FPD3に入射することで、FPD3は放射線を検出して放射線画像を出力して撮影を行う。上述したように、放射線源2の照射側にコリメータ21を配設しているので、コリメータ21の形状に対応した放射線の照視野領域が決定する。
 この決定された照視野領域に対応した放射線画像を画像処理部4の低周波画像生成部41に送り込むとともに、領域抽出部44にも送り込む。
 低周波画像生成部41は、放射線画像の空間分解能を低下させて、放射線画像よりも低周波の画像である低周波画像を生成する。本実施例では、低周波画像生成部41は、放射線画像を縮小することにより低周波画像を生成している。画像の縮小率または低周波画像のサイズについては任意である。ただし、画像の縮小率または低周波画像のサイズが小さすぎると情報の劣化も大きすぎるので、低周波画像は放射線画像に対して8分の1程度が好ましい。8分の1に縮小して低周波画像を生成する場合には、図3(a)に示す放射線画像中の縦横8×8画素の平均画素値を図3(b)に示す低周波画像の1画素の画素値として設定することにより縮小処理を実行する。なお、図3(a)では、太枠で囲まれた領域を縦横8×8画素とし、図3のハッチングが同一の箇所を、図3(a)では縮小前の縦横8×8画素、図3(b)では図3(a)に対応する縮小後の1画素とする。
 なお、放射線画像を縮小することにより低周波画像を生成する方法(低周波画像生成部41による縮小処理)は、上述のような平均値を求める方法に限定されず、放射線画像の画素の間引きなど、通常において用いられる縮小手法であればよい。また、低周波画像を生成する方法は、上述のような縮小処理に限定されず、フィルタ処理による平滑化によって低周波画像を生成する方法、放射線画像を空間周波数領域に変換して、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより低周波画像を生成する方法、あるいは、これらの方法の組み合わせなど、通常において用いられる低周波画像を生成する手法であればよい。放射線画像を空間周波数領域に変換して、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより低周波画像を生成する方法としては、以下のよう方法がある。
 すなわち、放射線画像をフーリエ変換により空間周波数領域に変換して、変換された空間周波数領域から高周波成分を除去する、あるいは低周波成分のみを通過させることで低周波領域を求め、その低周波領域を逆フーリエ変換により実空間に変換することにより低周波画像を生成してもよい。このフーリエ変換・逆フーリエ変換を用いた方法の場合には画像のサイズを変えずに低周波画像を生成することが可能である。また、フーリエ変換に限定されず、ウェーブレット(Wavelet)変換やガボールフィルタなどの処理を行ってもよい。低周波画像生成部41による低周波画像の生成は、この発明における低周波画像生成工程に相当する。
 低周波画像生成部41により生成された低周波画像を特徴抽出部42に送り込む。特徴抽出部42は、低周波画像の任意の画素において、当該画素に対する周辺画素との信号レベル差(例えば画素値差あるいは輝度差)に基づく特徴量を求めることで特徴抽出を行い、低周波画像の各々の画素に対して特徴量を対応させて特徴画像を生成する。本実施例では、以下のような手法で特徴抽出を行って、特徴画像を生成する。
 すなわち、最終的に抽出すべき照視野領域の境界付近では画像の明暗の画素値差(表示部5のモニタの場合には輝度差)が大きくなることから、本実施例では特徴量として画像の画素勾配(表示部5のモニタの場合には輝度勾配)を求める。勾配の演算について具体的に説明すると、画素上の座標(x、y)における画素値をI(x、y)とし、求められる特徴量のうちx軸方向の特徴量をEx(x、y)、y軸方向の特徴量をEy(x、y)とすると、下記(1)式および(2)式のように表される。
 Ex(x、y)=I(x+1、y)-I(x-1、y)  …(1)
 Ey(x、y)=I(x、y+1)-I(x、y-1)  …(2)
 勾配強度をP(x、y)とする。特徴量Ex(x、y),Ey(x、y)間で正負が互いに逆転して勾配強度P(x、y)を求める際に打ち消される心配があるので、下記(3)式のように平方和をとって勾配強度P(x、y)を算出する。
 P(x、y)=√〔{Ex(x、y)}+{Ey(x、y)}〕  …(3)
 なお、画像の画素勾配(表示部5のモニタの場合には輝度勾配)を求める方法は、上記(3)式を用いた方法に限定されず、その他公知の方法を使用してもよい。
 また、特徴量の算出は、上記(3)式を用いた勾配による算出に限定されない。Sobel、Prewitt、LaplacianまたはCannyなどの1次元または2次元微分フィルタ処理によるエッジ算出、周波数処理による高周波成分抽出などのように画像の信号レベル差を特徴量として抽出する手法であれば、他の処理でもよい。さらに求められる特徴量は、照視野領域の境界位置での数値が大きくなる特徴であれば、他の特徴量で代用してもよい。
 また、照視野領域として抽出される領域の形状が矩形である場合には、画像中心部にある被検体に対して、矩形の4つの辺に相当するおよそ上下左右の4方向に領域の境界線が存在するので、そのそれぞれに対応する4つの特徴量を求めてもよい。
 低周波画像の各々の画素についても、同様に特徴量を求める。そして、低周波画像の各々の画素に対して特徴量を対応させて特徴画像を生成する。この特徴画像では、画素値変化(輝度変化)が強い箇所において大きな値を示す。特徴抽出部42による特徴抽出は、この発明における特徴抽出工程に相当する。
 特徴抽出部42により特徴抽出された特徴量および特徴画像を低周波特徴生成部43に送り込む。低周波特徴生成部43は、特徴画像の空間分解能を低下させて、特徴画像よりも低周波の画像である低周波特徴を生成する。本実施例では、低周波特徴生成部43は、特徴画像を縮小することにより低周波特徴を生成している。低周波画像生成部41による縮小処理と同様に、画像の縮小率または低周波画像のサイズについては任意であり、低周波特徴は特徴画像に対して8分の1程度が好ましい。8分の1に縮小して低周波特徴を生成する場合には、図3(a)に示す放射線画像から図3(b)に示す低周波画像に縮小処理するのと同様に、図3(a)に示す特徴画像から図3(b)に示す低周波特徴に縮小処理する。ただし、放射線画像から見たら、低周波特徴は64分の1(=8分の1×8分の1)に縮小されることに留意されたい。
 なお、放射線画像を縮小することにより低周波画像を生成する方法(低周波画像生成部41による縮小処理)と同様に、特徴画像を縮小することにより低周波特徴を生成する方法(低周波特徴生成部43による縮小処理)は、上述のような平均値を求める方法に限定されず、特徴画像の画素の間引きなど、通常において用いられる縮小手法であればよい。また、低周波特徴を生成する方法は、上述のような縮小処理に限定されず、フィルタ処理による平滑化によって低周波特徴を生成する方法、特徴画像を空間周波数領域に変換して、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより低周波特徴を生成する方法、あるいは、これらの方法の組み合わせなど、通常において用いられる低周波を生成する手法であればよい。
 特徴画像を空間周波数領域に変換して、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより低周波特徴を生成する方法については、低周波画像生成部41による縮小処理と同様にフーリエ変換・逆フーリエ変換を用いて行えばよい。また、フーリエ変換に限定されず、ウェーブレット(Wavelet)変換やガボールフィルタなどの処理を行ってもよい。低周波特徴生成部43による低周波特徴の生成は、この発明における低周波特徴生成工程に相当する。
 低周波特徴生成部43により生成された低周波特徴を領域抽出部44に送り込む。領域抽出部44は、低周波特徴に基づいて放射線の照視野領域の境界となる特徴を選択し、放射線画像から照視野領域を抽出する。本実施例では、図4のフローで領域抽出部44による領域抽出を行う。
 (ステップS1)2値化
 低周波特徴に関して、予め設定された閾値により2値化して、特徴の有無を示す2値データを作成する。例えば、特徴画像のデータの任意の点(画素上の座標)におけるデータの値(ここでは勾配強度)が閾値よりも大きい場合には、特徴があるとみなして“1”を代入し、閾値よりも小さい場合には、特徴がないとして“0”を代入する。閾値については経験則あるいは特徴画像のデータの値(ここでは勾配強度)の平均値によって予め求める。
 ただし、代入される値は“0”または“1”に限定されない。特徴の有無が判定できる値であれば、他の値や記号などでもよい。また、閾値については固定の値に限定されず、放射線画像の画素値に基づいて設定された値でもよい。
 (ステップS2)直線検出
 ステップS1で2値化された特徴の有無を示す2値データから、特徴があると判定された画素が直線的に連続する画素群を選択し、直線式を求める。直線については複数本検出してもよい。
 本実施例では、直線式を求める方法として、ハフ(Hough)変換を利用する。ハフ変換とは、2次元平面上(ここでは画像上)で原点から直線への法線の距離rと、当該法線とx軸とがなす角度θとで2次元の直線を表し、画像中の特徴点(ここでは“1”となった座標)をハフ空間に投影して、距離rおよび角度θを求めることで直線を検出する手法である。
 先ず、ハフ変換について説明する。2次元座標上(ここでは画素上)の座標(x、y)を通る直線は無限個存在し、それぞれの直線は様々な方向を向く。距離rを角度θ、xおよびyで表すと、下記(4)式のように表される。
 r=x*cosθ+y*sinθ             …(4)
 上記(4)式から明らかなように距離rは角度θの正弦曲線でハフ空間上では表される。
 この座標(x、y)を通る直線で、原点から座標(x、y)までの距離rに対して直交する直線を、図5(a)に示すように描画する。このときの法線とx軸とがなす角度θをθとすると、ハフ空間上では当該直線は、図5(d)に示すように上記(4)式で表された正弦曲線上の黒丸で描画された箇所(θ、r)に投影される。
 一方、この座標(x、y)を通る直線で、y軸に平行な直線を、図5(b)に示すように描画する。y軸と当該直線との距離rが、この場合には原点からの距離rとなり、この原点からの距離rに対して直交する直線がy軸に平行となる。このときの法線とx軸とがなす角度θをθとすると、当該法線がx軸に平行であることからθ=0[rad]となり、上記(4)式にθ=0[rad]を代入することで、r=xとなる。ハフ空間上では当該直線は、図5(d)に示すように上記(4)式で表された正弦曲線上の黒塗りの方形で描画された箇所(θ、r)(=(0、x))に投影される。
 また、この座標(x、y)を通る直線で、x軸に平行な直線を、図5(c)に示すように描画する。x軸と当該直線との距離rが、この場合には原点からの距離rとなり、この原点からの距離rに対して直交する直線がx軸に平行となる。このときの法線とx軸とがなす角度θをθとすると、当該法線がy軸に平行であることからθ=π/2[rad]となり、上記(4)式にθ=π/2[rad]を代入することで、r=yとなる。ハフ空間上では当該直線は、図5(d)に示すように上記(4)式で表された正弦曲線上の黒塗りの三角で描画された箇所(θ、r)(=(π/2、y))に投影される。
 上述した原点から座標(x、y)までの距離rに対して直交する直線、y軸に平行な直線、x軸に平行な直線以外に、以下、同様の手法で、座標(x、y)を通る様々な直線(図示省略)をハフ空間上にそれぞれ投影すると、描画された箇所(θ、r)によって上記(4)式で表された正弦曲線を描くことになる。
 次に、着目すべき座標が2つ存在する場合に、図6(a)に示すように、一方の座標を(x、y)とするとともに、他方の座標を(x、y)とする。座標(x、y)を通る様々な直線(図示省略)をハフ空間上にそれぞれ投影すると、図6(b)に示す正弦曲線が描画され、座標(x、y)を通る様々な直線(図示省略)をハフ空間上にそれぞれ投影すると、図6(b)に示す正弦曲線が描画される。
 一方、図6(a)に示す2つの座標(x、y)および(x、y)の両方を通る直線に対する法線とx軸とがなす角度θをθとして、この直線から原点に垂線を下ろしたときの距離rをrとする。このとき、原点からの距離rに対して図6(a)に示す当該直線が直交することになる。図6(a)に示す座標(x、y)をそれぞれ通る様々な直線、および図6(a)に示す座標(x、y)をそれぞれ通る様々な直線をハフ空間上にそれぞれ投影すると、上述したように図6(b)に示す2つの正弦曲線がそれぞれ描画され、2つの正弦曲線は、座標(θ、r)で交わる。言い換えると、図6(a)に示す2つの座標(x、y)および(x、y)を通る直線は、図6(b)に示す2つの正弦曲線が交わる箇所(θ、r)に投影される。
 このように、ハフ空間内において2つの正弦曲線が交わる座標は、画像上のある直線(ここでは図6(a)に示す2つの座標(x、y)および(x、y)の両方を通る直線)に対応することになる。このハフ変換を本実施例の画像中の特徴点(ここでは“1”となった座標)に適用すると、ステップS1で2値化された特徴の有無を示す2値データの特徴点の座標を抽出して、各々の座標を通る様々な直線をハフ空間にそれぞれ投影して、各々の正弦曲線が交わる箇所(θ、r)および交わる個数を検出する。そして、検出された(交わる)個数の多いのを抽出して、そのときのx軸のなす角度θで、原点からの距離rに対して直交する直線が、検出すべき直線であると判定する。このように検出された直線上に、特徴があると判定された画素群が乗ることになる。
 なお、特徴画像のデータから直線を検出する方法はハフ変換を利用するのに限定されない。1次式で表された直線と、画像中の特徴点(ここでは“1”となった座標)との二乗誤差が最小となる直線を求める最小二乗法を利用してもよい。また、予め設定されたテンプレートとのマッチングによる方法、直線データとの相関性を比較する方法など、直線的な特徴を選択する方法なら、他の方法でもよい。
 テンプレートとのマッチングによる方法について詳しく説明する。例えばコリメータ21の配設位置とかは予め既知であることから、コリメータ21(の枠)が投影された画像上の座標位置をテンプレートとして設定して、当該テンプレートと画像中の特徴点とを比較して、一致しているデータを直線として検出してもよい。逆に不要なパターンとして被検体の脇の直線データがわかっている場合には、その被検体の脇の直線データをテンプレートとして設定して、当該テンプレートと画像中の特徴点とを比較して、一致しているデータを余分なパターンだとして直線検出から除外してもよい。
 (ステップS3)直線選択
 ステップS2で検出された直線の中から、位置や傾きが条件に合致し、かつ最も強度の強い特徴を示す直線(例えば上述の正弦曲線の交わる個数が最も多い図6(a)中の直線)を選択する。上述の条件とは、矩形の照視野領域を抽出する場合には、以下を示すものとする。
 <照視野領域の左側の境界線の条件>
 ・図7に示すように、画像(本実施例では特徴画像)中の被検体の中心Oに対して、直線が左側に位置する。
 ・図7に示すように、画像(本実施例では特徴画像)の左側の画像枠Fとのなす角度が、-45度から45度までの範囲内である。
 照視野領域の右側、下側および上側の条件に関しても、それぞれの方向に対応した同様の条件を示すものとする(図7中の符号Fは画像の右側の画像枠で、符号Fは画像の下側の画像枠で、符号Fは画像の上側の画像枠を示す)。
 (ステップS4)領域分割
 ステップS3で選択された直線を照視野領域の境界線と判定し、サイズを放射線画像に戻した上で選択された直線を、放射線画像上に描画する。そして、選択された直線位置に対応する放射線画像において領域を分割する。
 (ステップS5)全て?
 照視野領域の全ての境界線(直線)を検出したか否かを判定し、まだの場合にはステップS2の直線検出に戻って、他の境界線(直線)に関して同様の処理を行う。全ての境界線(直線)を検出した場合には、領域抽出部44による領域抽出の処理を終了する。領域抽出部44による領域抽出(ステップS1~S5)は、この発明における領域抽出工程に相当する。
 領域抽出部44により領域抽出された照視野領域を放射線画像とともに表示部5に送り込んで、表示部5は放射線画像とともに照視野領域を表示出力する。また、放射線画像とともに照視野領域を、RAM(Random-Access Memory)などに代表される記憶媒体に書き込んで記憶して、適宜必要に応じて読み出してもよいし、プリンタなどに代表される印刷手段に印刷出力してもよい。照視野領域の抽出結果を表示部5に出力表示する場合には、放射線画像内に照視野領域の境界を表す線を出力表示したり、照視野領域外の画素値(モニタに出力表示する場合には輝度値)を“0”に設定することで出力表示する。
 本実施例に係る放射線画像処理装置によれば、低周波画像生成部41は、放射線画像の空間分解能を低下させて、放射線画像よりも低周波の画像である低周波画像を生成する。特徴抽出部42は、上述の低周波画像の任意の画素において、当該画素に対する周辺画素との信号レベル差(本実施例では画素値差あるいは輝度差)に基づく特徴量を求めることで特徴抽出を行い、低周波画像の各々の画素に対して上述の特徴量を対応させて特徴画像を生成する。低周波特徴生成部43は、上述の特徴画像の空間分解能を低下させて、特徴画像よりも低周波の画像である低周波特徴を生成する。領域抽出部44は、上述の低周波特徴に基づいて放射線の照視野領域の境界となる特徴を選択し、放射線画像から上述の照視野領域を抽出する。このように、低周波画像生成部41および低周波特徴生成部43により合計2回にわたる空間分解能の低下を行って、ノイズ等の影響を減らして演算量を低減させる。また、低周波画像生成部41および特徴抽出部42を経て抽出された特徴量のうち、除去しきれなかった余分な特徴量(パターン)(例えば被検体の脇の直線データ)を、低周波特徴生成部43による空間分解能の低下によって減らすことが可能となる。したがって、低周波特徴生成部43により生成された低周波特徴や、後段の領域抽出部44により抽出された照視野領域について、ノイズ等の影響を減らし、演算量を低減させることができる。その結果、ノイズ等の影響を減らして精度の高い特徴抽出および領域抽出を実現し、演算量を低減させることができる。
 本実施例では、低周波画像生成部41は、上述したように放射線画像を縮小することにより低周波画像を生成している。このように放射線画像を縮小することにより放射線画像の空間分解能を低下させて、低周波画像を生成する。また、低周波画像生成部41が、放射線画像を空間周波数領域に変換して、変換された空間周波数のうちの低周波領域を実空間に変換することにより低周波領域を生成する場合には、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより放射線画像の空間分解能を低下させて、低周波画像を生成する。
 また、本実施例では、低周波特徴生成部43は、上述したように特徴画像を縮小することにより低周波特徴を生成している。このように特徴画像を縮小することにより特徴画像の空間分解能を低下させて、低周波特徴を生成する。また、低周波特徴生成部43が、特徴画像を空間周波数領域に変換して、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより低周波特徴を生成する場合には、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより特徴画像の空間分解能を低下させて、低周波特徴を生成する。
 また、本実施例では、特徴抽出部42は、上述の当該画素に対する周辺画素との信号レベル差(本実施例では画素値差あるいは輝度差)に基づく勾配強度P(x、y)を求めることで上述の特徴抽出を行っている。
 また、本実施例では、好ましくは、領域抽出部44は、予め設定された閾値により低周波特徴を2値化して、特徴の有無を示す2値データを作成し、その2値データに基づいて照視野領域の境界となる特徴を選択している。このように2値データを作成することにより、余分なパターン(ここでは“0”となった座標)をより一層除去することができる。
 また、本実施例では、好ましくは、領域抽出部44は、2次元平面上で基準となる原点から直線への法線の距離rと、当該法線と基準となる軸(ここではx軸)とがなす角度θとからなる空間に2次元平面上の座標を変換するハフ変換を利用して、低周波特徴を上述の距離rと上述の角度θからなる空間に投影して複数の正弦曲線を求め、各々の正弦曲線が互いに交わる箇所、および交わる個数に基づいて、照視野領域の境界の候補となる直線を検出している。このようなハフ変換を利用して直線を検出することで、照視野領域の境界の候補となる直線を簡易に見出すことができる。
 この発明は、上記実施形態に限られることはなく、下記のように変形実施することができる。
 (1)上述した実施例では、放射線としてX線を例に採って説明したが、X線以外の放射線(例えばγ線など)に適用してもよい。
 (2)上述した実施例では、放射線画像処理装置は、医用等に用いられる、図1に示すような天板1に被検体を載置して撮影を行う構造であったが、これに限定されない。例えば、工業用等に用いられる非破壊検査装置のように被検体(この場合には検査の対象物が被検体)をベルト上に運搬させて撮影を行う構造であってもよいし、医用等に用いられるX線CT装置などのような構造であってもよい。また、撮影を行う装置を外部装置として別装置で構成し、低周波画像生成手段と特徴抽出手段と低周波特徴生成手段と領域抽出手段とを単に備えた装置であってもよい。
 (3)上述した実施例では、フラットパネル型放射線検出器(FPD)をイメージセンサとして用いたが、イメージセンサはFPDに限定されない。通常において用いられるイメージセンサであれば、イメージインテンシファイアなどに例示されるように、この発明は適用することができる。なお、FPDのようなディジタルのイメージセンサを用いた場合に、特に有用である。
 (4)上述した実施例では、信号レベルは画素値あるいは輝度であったが、放射線に基づく信号レベルであれば、FPD3で出力された電気信号の値などに例示されるように、実施形態に合わせて用いることができる。
 (5)上述した実施例では、抽出される照視野領域は矩形であったが、正方形や長方形に代表される矩形に限定されず、菱形や平行四辺形のような形状、または台形のような形状の照視野領域であってもよく、かかる形状の照視野領域でも精度よく抽出することができる。また、八角形などの多角形状や、円や楕円などの照視野領域でもよく、閉じられた形状であれば、照視野領域の形状については特に限定されない。
 (6)円や楕円形状の照視野領域の場合には、円のハフ変換、円形のテンプレートとのマッチングによる方法、円形データとの相関性を比較する方法、円を示す式を利用した最小二乗法などを利用して境界線を検出すればよい。
 (7)上述した実施例では、低周波特徴に関して2値化して、2値データを作成したが、閾値により特徴の有無を仕分ける場合には、2値化に限定されない。例えば、2つの閾値を用いて、高い値を有する閾値よりも高い場合には特徴が大いにあるとみなして“2”を代入し、高い値を有する閾値よりも低く、低い値を有する閾値よりも高い場合には特徴が少しあるとみなして“1”を代入して、低い値を有する閾値よりも低い場合には特徴がないとみなして“0”を代入して3値データを作成するなど、3以上の複数の値に仕分けてデータを作成してもよい。そして、正弦曲線の交わりを利用して直線を検出する場合には、例えば3値データを用いて、最も特徴がある場合(高い値を有する閾値よりも高い場合)には例えば“2”の重みづけを行い、少し特徴がある場合(高い値を有する閾値よりも低く、低い値を有する閾値よりも高い場合)には例えば“1”の重みづけを行って、より精度よく直線を検出するようにしてもよい。また、特徴量の値に比例した値を空間に設定して直線を検出してもよい。この場合には、図4のステップS1の2値化は不要となる。

Claims (11)

  1.  放射線撮影された放射線画像を処理する放射線画像処理装置であって、
     前記放射線画像の空間分解能を低下させて、放射線画像よりも低周波の画像である低周波画像を生成する低周波画像生成手段と、
     前記低周波画像の任意の画素において、当該画素に対する周辺画素との信号レベル差に基づく特徴量を求めることで特徴抽出を行い、低周波画像の各々の画素に対して前記特徴量を対応させて特徴画像を生成する特徴抽出手段と、
     前記特徴画像の空間分解能を低下させて、前記特徴画像よりも低周波の画像である低周波特徴を生成する低周波特徴生成手段と、
     前記低周波特徴に基づいて放射線の照視野領域の境界となる特徴を選択し、前記放射線画像から前記照視野領域を抽出する領域抽出手段と
     を備えていることを特徴とする放射線画像処理装置。
  2.  請求項1に記載の放射線画像処理装置において、
     前記低周波画像生成手段は、前記放射線画像を縮小することにより前記低周波画像を生成することを特徴とする放射線画像処理装置。
  3.  請求項1に記載の放射線画像処理装置において、
     前記低周波画像生成手段は、前記放射線画像を空間周波数領域に変換して、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより前記低周波画像を生成することを特徴とする放射線画像処理装置。
  4.  請求項1に記載の放射線画像処理装置において、
     前記低周波画像生成手段は、前記放射線画像に対してフィルタ処理による平滑化を行うことにより、前記低周波画像を生成することを特徴とする放射線画像処理装置。
  5.  請求項1から請求項4のいずれかに記載の放射線画像処理装置において、
     前記低周波特徴生成手段は、前記特徴画像を縮小することにより前記低周波特徴を生成することを特徴とする放射線画像処理装置。
  6.  請求項1から請求項4のいずれかに記載の放射線画像処理装置において、
     低周波特徴生成手段は、前記特徴画像を空間周波数領域に変換して、変換された空間周波数領域のうちの低周波領域を実空間に変換することにより前記低周波特徴を生成することを特徴とする放射線画像処理装置。
  7.  請求項1から請求項4のいずれかに記載の放射線画像処理装置において、
     低周波特徴生成手段は、前記特徴画像に対してフィルタ処理による平滑化を行うことにより、前記低周波特徴を生成することを特徴とする放射線画像処理装置。
  8.  請求項1から請求項7のいずれかに記載の放射線画像処理装置において、
     前記特徴抽出手段は、前記当該画素に対する周辺画素との信号レベル差に基づく勾配強度を求めることで前記特徴抽出を行うことを特徴とする放射線画像処理装置。
  9.  請求項1から請求項8のいずれかに記載の放射線画像処理装置において、
     前記領域抽出手段は、予め設定された閾値により前記低周波特徴を2値化して、特徴の有無を示す2値データを作成し、
     その2値データに基づいて前記照視野領域の境界となる特徴を選択することを特徴とする放射線画像処理装置。
  10.  請求項1から請求項9のいずれかに記載の放射線画像処理装置において、
     前記領域抽出手段は、2次元平面上で基準となる原点から直線への法線の距離と、当該法線と基準となる軸とがなす角度とからなる空間に前記2次元平面上の座標を変換するハフ変換を利用して、前記低周波特徴を前記距離と前記角度からなる空間に投影して複数の正弦曲線を求め、
     各々の前記正弦曲線が互いに交わる箇所、および交わる個数に基づいて、前記照視野領域の境界の候補となる直線を検出することを特徴とする放射線画像処理装置。
  11.  放射線撮影された放射線画像の処理をコンピュータに実行させるための放射線画像処理プログラムであって、
     前記放射線画像の空間分解能を低下させて、放射線画像よりも低周波の画像である低周波画像を生成する低周波画像生成工程と、
     前記低周波画像の任意の画素において、当該画素に対する周辺画素との信号レベル差に基づく特徴量を求めることで特徴抽出を行い、低周波画像の各々の画素に対して前記特徴量を対応させて特徴画像を生成する特徴抽出工程と、
     前記特徴画像の空間分解能を低下させて、前記特徴画像よりも低周波の画像である低周波特徴を生成する低周波特徴生成工程と、
     前記低周波特徴に基づいて放射線の照視野領域の境界となる特徴を選択し、前記放射線画像から前記照視野領域を抽出する領域抽出工程と
     を備え、
     これらの工程での処理をコンピュータに実行させることを特徴とする放射線画像処理プログラム。
PCT/JP2009/007368 2009-12-29 2009-12-29 放射線画像処理装置および放射線画像処理プログラム WO2011080808A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
PCT/JP2009/007368 WO2011080808A1 (ja) 2009-12-29 2009-12-29 放射線画像処理装置および放射線画像処理プログラム
JP2011547117A JP5333607B2 (ja) 2009-12-29 2009-12-29 放射線画像処理装置および放射線画像処理プログラム
US13/519,773 US8831325B2 (en) 2009-12-29 2009-12-29 Radiographic image processing apparatus and radiographic image processing program
CN200980163236.4A CN102711611B (zh) 2009-12-29 2009-12-29 放射线图像处理装置以及放射线图像处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/007368 WO2011080808A1 (ja) 2009-12-29 2009-12-29 放射線画像処理装置および放射線画像処理プログラム

Publications (1)

Publication Number Publication Date
WO2011080808A1 true WO2011080808A1 (ja) 2011-07-07

Family

ID=44226243

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/007368 WO2011080808A1 (ja) 2009-12-29 2009-12-29 放射線画像処理装置および放射線画像処理プログラム

Country Status (4)

Country Link
US (1) US8831325B2 (ja)
JP (1) JP5333607B2 (ja)
CN (1) CN102711611B (ja)
WO (1) WO2011080808A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6326812B2 (ja) * 2013-12-26 2018-05-23 コニカミノルタ株式会社 画像処理装置及び照射野認識方法
JP7134017B2 (ja) * 2018-08-14 2022-09-09 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
WO2020129384A1 (ja) * 2018-12-21 2020-06-25 株式会社島津製作所 放射線画像処理装置、放射線画像処理方法及び放射線画像処理プログラム
US10955241B2 (en) * 2019-06-26 2021-03-23 Aurora Flight Sciences Corporation Aircraft imaging system using projected patterns on featureless surfaces

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10286249A (ja) * 1997-04-14 1998-10-27 Fuji Photo Film Co Ltd 放射線画像の照射野認識装置
JP2005218581A (ja) * 2004-02-04 2005-08-18 Canon Inc 画像処理装置及びその制御方法、プログラム
JP2006181362A (ja) * 2004-12-24 2006-07-13 General Electric Co <Ge> ディジタル画像放射線撮像においてコリメーション・エッジを検出するシステム、方法及び装置
WO2007013300A1 (ja) * 2005-07-27 2007-02-01 Konica Minolta Medical & Graphic, Inc. 異常陰影候補検出方法及び異常陰影候補検出装置
JP2007041664A (ja) * 2005-08-01 2007-02-15 Olympus Corp 領域抽出装置および領域抽出プログラム
JP2007202811A (ja) * 2006-02-02 2007-08-16 Fujifilm Corp 照射野認識装置、照射野認識方法およびそのプログラム
WO2009044452A1 (ja) * 2007-10-02 2009-04-09 Shimadzu Corporation 放射線画像処理装置および放射線画像処理プログラム
JP4280729B2 (ja) * 2005-05-31 2009-06-17 キヤノン株式会社 照射野領域抽出方法及び放射線撮影装置

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3225969B2 (ja) 1991-03-11 2001-11-05 株式会社安川電機 リクレーマの制御装置
JP3617751B2 (ja) * 1997-03-12 2005-02-09 富士写真フイルム株式会社 放射線画像の照射野認識方法および装置
US6901158B2 (en) * 1997-09-22 2005-05-31 Canon Kabushiki Kaisha Image discrimination apparatus and image discrimination method
US7050648B1 (en) * 1998-09-18 2006-05-23 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and recording medium
JP3631095B2 (ja) * 2000-04-17 2005-03-23 キヤノン株式会社 照射野領域抽出装置、放射線撮影装置、放射線画像用システム、照射野領域抽出方法、及びコンピュータ可読記憶媒体
US7359541B2 (en) 2000-04-28 2008-04-15 Konica Corporation Radiation image processing apparatus
JP2001331800A (ja) 2000-05-19 2001-11-30 Konica Corp 特徴抽出方法および被写体認識方法ならびに画像処理装置
JP3619158B2 (ja) * 2001-02-13 2005-02-09 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、画像処理方法プログラム及び記録媒体
JP2004030596A (ja) * 2002-05-10 2004-01-29 Canon Inc 画像階調変換方法、画像階調変換装置、システム、プログラム及び記憶媒体
JP4538260B2 (ja) * 2004-04-15 2010-09-08 株式会社日立メディコ 特定領域抽出方法及び装置
US7801344B2 (en) * 2006-12-01 2010-09-21 Carestream Health, Inc. Edge boundary definition for radiographic detector
JP4586052B2 (ja) * 2007-08-08 2010-11-24 キヤノン株式会社 画像処理装置及びその制御方法
JP5804340B2 (ja) * 2010-06-10 2015-11-04 株式会社島津製作所 放射線画像領域抽出装置、放射線画像領域抽出プログラム、放射線撮影装置および放射線画像領域抽出方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10286249A (ja) * 1997-04-14 1998-10-27 Fuji Photo Film Co Ltd 放射線画像の照射野認識装置
JP2005218581A (ja) * 2004-02-04 2005-08-18 Canon Inc 画像処理装置及びその制御方法、プログラム
JP2006181362A (ja) * 2004-12-24 2006-07-13 General Electric Co <Ge> ディジタル画像放射線撮像においてコリメーション・エッジを検出するシステム、方法及び装置
JP4280729B2 (ja) * 2005-05-31 2009-06-17 キヤノン株式会社 照射野領域抽出方法及び放射線撮影装置
WO2007013300A1 (ja) * 2005-07-27 2007-02-01 Konica Minolta Medical & Graphic, Inc. 異常陰影候補検出方法及び異常陰影候補検出装置
JP2007041664A (ja) * 2005-08-01 2007-02-15 Olympus Corp 領域抽出装置および領域抽出プログラム
JP2007202811A (ja) * 2006-02-02 2007-08-16 Fujifilm Corp 照射野認識装置、照射野認識方法およびそのプログラム
WO2009044452A1 (ja) * 2007-10-02 2009-04-09 Shimadzu Corporation 放射線画像処理装置および放射線画像処理プログラム

Also Published As

Publication number Publication date
US8831325B2 (en) 2014-09-09
US20120288179A1 (en) 2012-11-15
CN102711611A (zh) 2012-10-03
JP5333607B2 (ja) 2013-11-06
CN102711611B (zh) 2015-07-15
JPWO2011080808A1 (ja) 2013-05-09

Similar Documents

Publication Publication Date Title
JP4154374B2 (ja) パターンマッチング装置及びそれを用いた走査型電子顕微鏡
JP5804340B2 (ja) 放射線画像領域抽出装置、放射線画像領域抽出プログラム、放射線撮影装置および放射線画像領域抽出方法
JP2000287956A (ja) X線画像での輪郭検出方法
US9619893B2 (en) Body motion detection device and method
WO2016174926A1 (ja) 画像処理装置及び画像処理方法及びプログラム
JP6055228B2 (ja) 形状計測装置
US7256392B2 (en) Inspection method of radiation imaging system and medical image processing apparatus using the same, and phantom for use of inspection of radiation imaging system
JP5333607B2 (ja) 放射線画像処理装置および放射線画像処理プログラム
TWI512284B (zh) 玻璃氣泡瑕疵檢測系統
JP5526775B2 (ja) 放射線撮像装置
US10282826B2 (en) Despeckling method for radiographic images
CN109870730B (zh) 一种用于x光机图像解析度测试体定检的方法及系统
JP4353479B2 (ja) ムラ検査装置、ムラ検査方法、および、濃淡ムラをコンピュータに検査させるプログラム
JP4801697B2 (ja) 画像形成方法,画像形成装置、及びコンピュータプログラム
JP2008249413A (ja) 欠陥検出方法および装置
JP4981433B2 (ja) 検査装置、検査方法、検査プログラムおよび検査システム
JP2007271434A (ja) 検査装置、検査方法、検査プログラムおよび検査システム
JP2016217989A (ja) 欠陥検査装置および欠陥検査方法
JP2019120644A (ja) 表面検査装置、及び表面検査方法
JP2006293522A (ja) 直線検出装置、直線検出方法およびそのプログラム
JP5231779B2 (ja) 外観検査装置
He et al. Computer Assisted Image Analysis for Objective Determination of Scanning Resolution for Photographic Collections–An Automated Approach
CN102735169B (zh) 一种计算剂量曲线带宽度的系统和方法
JP5851269B2 (ja) 欠陥検査システム及び欠陥検査方法
JP2013160710A (ja) 放射線撮影装置および投影画像処理方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980163236.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09852786

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011547117

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13519773

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09852786

Country of ref document: EP

Kind code of ref document: A1