WO2023281890A1 - 放射線画像取得装置、放射線画像取得システム、及び放射線画像取得方法 - Google Patents

放射線画像取得装置、放射線画像取得システム、及び放射線画像取得方法 Download PDF

Info

Publication number
WO2023281890A1
WO2023281890A1 PCT/JP2022/017170 JP2022017170W WO2023281890A1 WO 2023281890 A1 WO2023281890 A1 WO 2023281890A1 JP 2022017170 W JP2022017170 W JP 2022017170W WO 2023281890 A1 WO2023281890 A1 WO 2023281890A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
noise
radiographic image
ray
image acquisition
Prior art date
Application number
PCT/JP2022/017170
Other languages
English (en)
French (fr)
Inventor
達也 大西
敏康 須山
智 土屋
Original Assignee
浜松ホトニクス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 浜松ホトニクス株式会社 filed Critical 浜松ホトニクス株式会社
Priority to KR1020237039772A priority Critical patent/KR20240028334A/ko
Priority to CN202280047575.1A priority patent/CN117616272A/zh
Priority to EP22837311.4A priority patent/EP4357818A1/en
Priority to US18/576,210 priority patent/US20240210331A1/en
Publication of WO2023281890A1 publication Critical patent/WO2023281890A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/083Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption the radiation being X-rays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/18Investigating the presence of flaws defects or foreign matter
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/16Measuring radiation intensity
    • G01T1/20Measuring radiation intensity with scintillation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01TMEASUREMENT OF NUCLEAR OR X-RADIATION
    • G01T1/00Measuring X-radiation, gamma radiation, corpuscular radiation, or cosmic radiation
    • G01T1/16Measuring radiation intensity
    • G01T1/20Measuring radiation intensity with scintillation detectors
    • G01T1/2018Scintillation-photodiode combinations
    • G01T1/20184Detector read-out circuitry, e.g. for clearing of traps, compensating for traps or compensating for direct hits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/10Different kinds of radiation or particles
    • G01N2223/101Different kinds of radiation or particles electromagnetic radiation
    • G01N2223/1016X-ray
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/30Accessories, mechanical or electrical features
    • G01N2223/33Accessories, mechanical or electrical features scanning, i.e. relative motion for measurement of successive object-parts
    • G01N2223/3307Accessories, mechanical or electrical features scanning, i.e. relative motion for measurement of successive object-parts source and detector fixed; object moves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/30Accessories, mechanical or electrical features
    • G01N2223/33Accessories, mechanical or electrical features scanning, i.e. relative motion for measurement of successive object-parts
    • G01N2223/3308Accessories, mechanical or electrical features scanning, i.e. relative motion for measurement of successive object-parts object translates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/401Imaging image processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/50Detectors
    • G01N2223/501Detectors array
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/50Detectors
    • G01N2223/505Detectors scintillation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/643Specific applications or type of materials object on conveyor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/652Specific applications or type of materials impurities, foreign matter, trace amounts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Definitions

  • One aspect of the embodiments relates to a radiographic image acquisition device, a radiographic image acquisition system, and a radiographic image acquisition method.
  • the signal value tends to improve and the noise value tends to increase in the addition result. Therefore, in some cases, the S/N ratio of image data is not sufficiently improved. Moreover, the resolution of image data obtained by using a scintillator may be lowered.
  • one aspect of the embodiments has been made in view of this problem, and includes a radiographic image acquisition apparatus, a radiographic image acquisition system, and a radiographic image that can effectively improve the S/N ratio while increasing the resolution of the radiographic image.
  • An object is to provide an acquisition method.
  • a radiographic image acquisition apparatus includes an imaging apparatus that acquires a radiographic image by scanning radiation that has passed through an object in one direction to capture an image, and an imaging apparatus provided on the imaging apparatus that converts the radiation into light. Equipped with a scintillator layer for conversion and an image processing module for executing noise removal processing for removing noise from a radiographic image, and N (N is an integer of 2 or more) imaging devices arranged in a direction orthogonal to one direction
  • the scintillator layer includes a detection element that detects light and outputs a detection signal, and a readout circuit that outputs a radiation image by outputting the detection signal for each of the N detection elements, and the scintillator layer includes: It includes P (where P is an integer equal to or greater than 2) scintillator sections arranged separately corresponding to the N detection elements, and separation sections arranged between the P scintillator sections.
  • a radiographic image acquisition system includes the above-described radiographic image acquisition device, a generation source that irradiates a target with radiation, and a transport that transports the target in one direction with respect to the imaging device. a device;
  • a radiographic image acquisition method includes a step of acquiring a radiographic image by scanning scintillation light corresponding to radiation transmitted through an object in one direction and capturing an image;
  • N is an integer of 2 or more
  • An imaging device including detection elements that output signals, and P scintillator sections (P is an integer equal to or greater than 2) separately arranged corresponding to the N detection elements and arranged between the P scintillator sections
  • a radiation image is output by outputting a detection signal for each of the N detection elements using a scintillator layer that converts radiation into light and includes a separation portion.
  • the scintillation light corresponding to the radiation transmitted through the object is detected by the N detection elements arranged in a direction orthogonal to the scanning direction of the object.
  • a radiographic image is output by outputting detection signals from the N detection elements.
  • the radiation transmitted through the object is converted into scintillation light by P scintillator sections arranged separately, and the scintillation light from the P scintillator sections is detected by N detection elements, respectively.
  • noise is removed from the output radiographic image by performing noise removal processing.
  • the scintillator section separated corresponding to the detection element the resolution of the radiographic image can be enhanced, and the S/N ratio in the radiographic image can be effectively improved.
  • FIG. 1 is a schematic configuration diagram of an image acquisition device 1 according to a first embodiment
  • FIG. 2 is a plan view showing the configuration of a scan camera 12 of FIG. 1
  • FIG. 3 is a diagram showing the structure of a scintillator layer 11 arranged on a scan camera 12
  • FIG. 2 is a block diagram showing an example of a hardware configuration of a control device 20 of FIG. 1
  • FIG. 2 is a block diagram showing a functional configuration of a control device 20 of FIG. 1
  • FIG. 6 is a diagram showing an example of an X-ray image acquired by an image acquiring unit 203 of FIG. 5
  • FIG. 6 is a diagram showing an example of noise standard deviation map generation by the noise map generation unit 204 of FIG. 5.
  • FIG. 5 is a diagram showing an example of noise standard deviation map generation by the noise map generation unit 204 of FIG. 5.
  • FIG. 6 is a diagram showing an example of input/output data of a trained model 207 of FIG. 5;
  • FIG. FIG. 10 is a diagram showing an example of a training image, which is one of training data used to build a trained model 207.
  • FIG. 4 is a flowchart showing a procedure for creating image data, which is teacher data (training data) used for building a trained model 207 by a building unit 206.
  • FIG. 4 is a flowchart showing a procedure of observation processing by the image acquisition device 1; FIG.
  • 11 is a block diagram showing a functional configuration of a control device 20A according to a modified example of the present disclosure
  • 10 is a flowchart showing a procedure of observation processing by the image acquisition device 1 according to the modified example of the present disclosure
  • 13 is a graph showing an example of a simulation calculation result of the energy spectrum of transmitted X-rays by the calculation unit 202A of FIG. 12
  • 13 is a table showing an example of simulation calculation results of the relationship between the thickness of the object and the average energy and transmittance by the calculation unit 202A of FIG. 12
  • 13 is a graph showing an example of a simulation calculation result of the relationship between the thickness of the target object and the X-ray transmittance by the calculator 202A of FIG.
  • 13 is a graph showing an example of a simulation calculation result of the relationship between the thickness of the object and the average energy of transmitted X-rays by the calculator 202A of FIG. 12; 13 is a graph showing an example of a simulation calculation result of the relationship between the pixel value of the X-ray image and the average energy by the calculation unit 202A of FIG. 12; 7 is a graph showing an example of a simulation calculation result of the relationship between the pixel value of an X-ray image and the standard deviation of the noise value; 13 is a graph showing an example of the relationship between the pixel value and the standard deviation of the noise value when the material of the object is changed, which is derived by the calculation unit 202A of FIG. 12; FIG.
  • FIG. 11 is a block diagram showing a functional configuration of a control device 20B according to another modified example of the present disclosure
  • FIG. 10 is a flow chart showing a procedure of observation processing by the image acquisition device 1 according to another modified example of the present disclosure
  • FIG. FIG. 22 is a diagram showing an example of noise standard deviation map generation by the noise map generation unit 204B of FIG. 21
  • FIG. 11 is a perspective view showing an example of the structure of a jig used for imaging in the image acquisition device 1 according to another modified example of the present disclosure
  • FIG. 25 is a diagram showing an example of a captured image of the jig in FIG. 24
  • FIG. 11 is a block diagram showing the functional configuration of a control device 20C according to the second embodiment
  • FIG. 27 is a diagram showing an example of image data, which is teacher data used to construct a trained model 206C of FIG. 26;
  • FIG. 27 is a diagram showing an example of an X-ray transmission image to be analyzed by the selection unit 204C of FIG. 26;
  • FIG. 27 is a diagram showing an example of a thickness-luminance characteristic graph acquired by the selection unit 204C of FIG. 26;
  • FIG. 27 is a diagram showing an example of a luminance-SNR characteristic graph acquired by the selection unit 204C of FIG. 26;
  • FIG. 27 is a diagram for explaining a function of selecting a learned model based on image characteristics by the selection unit 204C of FIG. 26;
  • FIG. 27 is a diagram showing an example of an X-ray transmission image used for resolution evaluation by the selection unit 204C of FIG. 26;
  • FIG. 27 is a perspective view showing an example of the structure of a jig used for evaluating the luminance-noise ratio by the selector 204C of FIG. 26;
  • FIG. 34 is a diagram showing an X-ray transmission image after noise removal processing obtained from the jig of FIG. 33;
  • 9 is a flowchart showing the procedure of observation processing using the image acquisition device 1 according to the second embodiment;
  • FIG. 11 is a block diagram showing a functional configuration of a control device 20D according to a modified example of the second embodiment;
  • FIG. 10 is a flow chart showing the procedure of observation processing using the image acquisition device 1 according to the modified example of the second embodiment.
  • FIG. 12 is a block diagram showing the functional configuration of a control device 20E according to the third embodiment;
  • FIG. FIG. 39 is a diagram showing an example of image data, which is teacher data used to construct a learned model 206E of FIG. 38; 39 is a diagram showing an example of an X-ray transmission image to be analyzed by the identifying unit 202E in FIG. 38;
  • FIG. 39 is a diagram showing an example of a thickness-luminance characteristic graph acquired by the specifying unit 202E of FIG. 38.
  • FIG. 39 is a diagram showing an example of a luminance-SNR characteristic graph acquired by the specifying unit 202E in FIG. 38.
  • FIG. 39 is a diagram showing an example of an X-ray transmission image used for evaluation of resolution by the identifying unit 202E of FIG. 38; 39 is a diagram for explaining a function of selecting a trained model based on image characteristics by the selection unit 204E in FIG. 38; FIG. FIG. 39 is a perspective view showing an example of the structure of a jig used for evaluating the luminance-noise ratio by the selector 204E in FIG. 38; FIG. 46 is a diagram showing an X-ray transmission image after noise removal processing obtained from the jig of FIG. 45; 11 is a flow chart showing a procedure of observation processing using the image acquisition device 1 according to the third embodiment; FIG. 11 is a plan view showing the configuration of a scan camera 12A according to a modification; 3 is a diagram showing the structure of a scintillator layer 11A arranged on a scan camera 12A; FIG.
  • FIG. 1 is a configuration diagram of an image acquisition apparatus 1, which is a radiation image acquisition apparatus and a radiation image acquisition system according to this embodiment.
  • the image acquisition device 1 irradiates an object F transported in the transport direction TD with X-rays (radiation), and determines the object F based on the X-rays transmitted through the object F. It is an apparatus for obtaining a captured X-ray transmission image (radiation image).
  • the image acquisition device 1 uses an X-ray transmission image to perform foreign matter inspection, weight inspection, product inspection, etc. of the object F, and is used for food inspection, baggage inspection, circuit board inspection, battery inspection, material inspection, etc. inspection and the like.
  • the image acquisition device 1 includes a belt conveyor (transport device) 60, an X-ray irradiator (radiation source) 50, an X-ray detection camera (imaging device) 10, a control device (image processing module) 20, and a display device. 30 and an input device 40 for performing various inputs.
  • the radiographic image in the embodiments of the present disclosure is not limited to X-ray images, and includes images obtained by ionizing radiation other than X-rays, such as ⁇ -rays.
  • the belt conveyor 60 has a belt portion on which the object F is placed. By moving the belt portion in the conveying direction (one direction) TD, the object F is conveyed at a predetermined conveying speed in the conveying direction. Transport to TD.
  • the conveying speed of the object F is, for example, 48 m/min.
  • the belt conveyor 60 can change the conveying speed to, for example, 24 m/min, 96 m/min, etc., as required. Further, the belt conveyor 60 can change the height position of the belt portion as appropriate to change the distance between the X-ray irradiator 50 and the object F.
  • the X-ray irradiator 50 is a device that irradiates (outputs) the object F with X-rays as an X-ray source.
  • the X-ray irradiator 50 is a point light source, and radiates X-rays by diffusing them in a predetermined angular range in a predetermined irradiation direction.
  • the X-ray irradiator 50 is arranged so that the X-ray irradiation direction is directed toward the belt conveyor 60 and the diffusing X-rays cover the entire width direction of the object F (the direction intersecting the conveying direction TD). is arranged above the belt conveyor 60 at a predetermined distance from the .
  • the X-ray irradiator 50 in the length direction of the object F (direction parallel to the transport direction TD), the X-ray irradiator 50 has a predetermined divided range in the length direction as an irradiation range, and the object F moves to the belt conveyor 60.
  • the object F is conveyed in the conveying direction TD, so that the entire length of the object F is irradiated with X-rays.
  • the X-ray irradiator 50 has a tube voltage and a tube current set by the control device 20, and irradiates the belt conveyor 60 with X-rays having a predetermined energy and radiation dose corresponding to the set tube voltage and tube current. .
  • a filter 51 that transmits a predetermined wavelength range of X-rays is provided near the belt conveyor 60 side of the X-ray irradiator 50 .
  • the X-ray detection camera 10 detects X-rays that have passed through the object F among the X-rays irradiated to the object F by the X-ray irradiator 50, and acquires and outputs detection signals based on the X-rays.
  • the image acquisition apparatus 1 according to the present embodiment scans an X-ray transmission image in the transport direction TD by sequentially or simultaneously outputting detection signals based on X-rays that pass through the object F transported by the belt conveyor 60. output the X-ray transmission image captured by
  • the X-ray detection camera 10 includes a filter 19, a scintillator layer 11, a scan camera 12, a sensor control section 13, an amplifier 14, an AD converter 15, a correction circuit 16, an output interface 17, and an amplifier control section 18. and have The scan camera 12, amplifier 14, AD converter 15, correction circuit 16, and output interface 17 are electrically connected to each other.
  • the scintillator layer 11 is fixed on the scan camera 12 by an adhesive or the like, and converts X-rays transmitted through the object F into scintillation light (detailed configuration will be described later).
  • the scintillator layer 11 outputs scintillation light to the scan camera 12 .
  • the filter 19 transmits a predetermined wavelength range of X-rays toward the scintillator layer 11 .
  • FIG. 2 is a plan view showing the configuration of the scan camera 12.
  • the scan camera 12 includes a plurality of pixels (detection elements) 72, which are photodiodes (photoelectric conversion elements) arranged two-dimensionally on a substrate 71, and the plurality of pixels 72 emit scintillation light.
  • a readout circuit 73 for outputting a detection signal that is photoelectrically converted and output to the outside, and a wiring portion W electrically connecting between the readout circuit 73 and each of the plurality of pixels 72 are provided.
  • the scan camera 12 has a pixel line (pixel group) 74 formed of M (M is an integer equal to or greater than 2) pixels 72 arranged on a substrate 71 along the transport direction TD. are arranged in N rows (N is an integer of 2 or more) in a direction substantially orthogonal to the .
  • N is an integer of 2 or more
  • the number of pixels M is 4, and the number of pixel lines N is any integer between 200 and 30,000.
  • the readout circuit 73 sequentially receives detection signals output at intervals of a predetermined detection cycle (details of which will be described later) from the M pixels 72 for each pixel line 74 in accordance with the control by the sensor control unit 13 .
  • the detection signals of at least two pixels 72 are added (addition processing), and the detection signals subjected to the addition processing are combined for each pixel line 74.
  • addition processing in the present embodiment also includes averaging processing of adding detection signals of at least two pixels 72 and obtaining an average value.
  • the readout circuit 73 performs addition processing on all M detection signals.
  • the readout circuit 73 performs addition processing on the detection signals sequentially output from the M pixels 72 with a predetermined detection period shifted, thereby obtaining the next 1 of the object F orthogonal to the transport direction TD. Outputs the line detection signal. Similarly, the readout circuit 73 sequentially or simultaneously outputs detection signals for a plurality of lines of the object F perpendicular to the transport direction TD.
  • 3A and 3B are diagrams showing the configuration of the scintillator layer 11, showing a cross-sectional view along the transport direction TD on the upper side and a plan view of the substrate 71 viewed from the pixel 72 side on the lower side.
  • the scintillator layer 11 has M ⁇ P pieces (P is 2
  • the rectangular scintillator portions 11a each having a value equal to the above integer) and the separation portions 11b positioned between the scintillator portions 11a are formed.
  • the number P may be 2 or more and N or less.
  • the number P may be an integer equal to or greater than 2, and may be an integer obtained by dividing N by an integer. In this case, blurring due to the spread of light can be suppressed according to the spacing of the separating portions 11 b of the scintillator layer 11 .
  • the number P may be an integer larger than N. In this case, the spacing between the separating portions 11b of the scintillator layer 11 is smaller than the spacing between the plurality of pixels 72, but alignment between the scintillator layer 11 and the plurality of pixels 72 is facilitated.
  • P N, but is not limited to this.
  • the M ⁇ P scintillator portions 11a are made of a scintillator material capable of converting incident X-rays into scintillation light, and are arranged so as to cover the entire pixels 72 corresponding to them.
  • the separating portion 11b is formed in a mesh shape so as to separate the M ⁇ P scintillator portions 11a, and is made of a material capable of shielding scintillation light.
  • the separating portion 11b may contain a material that reflects the scintillation light.
  • the separating portion 11b may be made of a material that can shield radiation.
  • Materials constituting such a scintillator layer 11 and a method for manufacturing the scintillator layer 11 may use, for example, the materials and manufacturing methods described in Japanese Unexamined Patent Publication No. 2001-99941 or Japanese Unexamined Patent Publication No. 2003-167060. can.
  • the material and manufacturing method of the scintillator layer 11 are not limited to those described in the above document.
  • the sensor control unit 13 repeatedly images the scan camera 12 at a predetermined detection cycle so that all the pixels 72 in the pixel line 74 in the scan camera 12 can capture X-rays that have passed through the same area of the object F. to control.
  • the predetermined detection period may be set based on the pixel width of pixels 72 in pixel line 74 in scan camera 12 .
  • the predetermined detection cycle is, for example, the distance between the pixels 72 in the pixel line 74 in the scan camera 12, the speed of the belt conveyor 60, the distance between the X-ray irradiator 50 and the object F on the belt conveyor 60 (FOD (Focus within the pixel line 74 in the scan camera 12 based on the distance between the X-ray irradiator 50 and the scan camera 12 (FDD (Focus Detector Distance))
  • FOD Fluor Distance
  • a detection timing shift (delay time) of the pixels 72 may be specified, and a predetermined detection cycle may be set based on the shift.
  • the amplifier 14 amplifies the detection signal with a predetermined set amplification factor to generate an amplified signal, and outputs the amplified signal to the AD converter 15 .
  • the set amplification factor is an amplification factor set by the amplifier controller 18 .
  • the amplifier control unit 18 sets the set amplification factor of the amplifier 14 based on predetermined imaging conditions.
  • the AD converter 15 converts the amplified signal (voltage signal) output by the amplifier 14 into a digital signal and outputs it to the correction circuit 16 .
  • the correction circuit 16 performs predetermined correction such as signal amplification on the digital signal, and outputs the corrected digital signal to the output interface 17 .
  • the output interface 17 outputs digital signals to the outside of the X-ray detection camera 10 .
  • the control device 20 is, for example, a computer such as a PC (Personal Computer).
  • the control device 20 generates an X-ray transmission image based on digital signals (amplified signals) corresponding to multiple lines of detection signals sequentially or simultaneously output from the X-ray detection camera 10 (more specifically, the output interface 17). do.
  • the control device 20 generates one X-ray transmission image based on 128 lines of digital signals output from the output interface 17 .
  • the generated X-ray transmission image is output to the display device 30 after undergoing noise removal processing, which will be described later, and displayed by the display device 30 .
  • the controller 20 also controls the X-ray irradiator 50 , the amplifier controller 18 , and the sensor controller 13 .
  • the control device 20 of the present embodiment is a device provided independently outside the X-ray detection camera 10 , but may be integrated inside the X-ray detection camera 10 .
  • FIG. 4 shows the hardware configuration of the control device 20.
  • the control device 20 physically includes a CPU (Central Processing Unit) 101 and a GPU 105 (Graphic Processing Unit) as processors, a RAM (Random Access Memory) 102 and a ROM (Read Only Memory) 103, a communication module 104, an input/output module 106, etc., which are electrically connected to each other.
  • the control device 20 may include a display, keyboard, mouse, touch panel display, etc. as the input device 40 and the display device 30, and may include a data recording device such as a hard disk drive and a semiconductor memory. Also, the control device 20 may be configured by a plurality of computers.
  • FIG. 5 is a block diagram showing the functional configuration of the control device 20.
  • the control device 20 includes an input unit 201 , a calculation unit 202 , an image acquisition unit 203 , a noise map generation unit 204 , a processing unit 205 and a construction unit 206 .
  • Each functional unit of the control device 20 shown in FIG. 5 controls the CPU 101 and the GPU 105 by causing the hardware such as the CPU 101, the GPU 105, and the RAM 102 to read the program (radiation image processing program of the first embodiment).
  • the communication module 104, the input/output module 106, etc. are operated, and data is read from and written to the RAM 102.
  • the CPU 101 and GPU 105 of the control device 20 cause the control device 20 to function as the functional units shown in FIG. 5, and sequentially execute processing corresponding to a radiographic image acquisition processing method, which will be described later.
  • the CPU 101 and the GPU 105 may be single hardware, or only one of them may be used.
  • the CPU 101 and GPU 105 may be implemented in programmable logic such as FPGA, like soft processors.
  • the RAM and ROM may be stand-alone hardware, or may be built in programmable logic such as FPGA.
  • Various data necessary for executing this computer program and various data generated by executing this computer program are all stored in a built-in memory such as ROM 103 and RAM 102, or a storage medium such as a hard disk drive.
  • a learned model 207 that is read by the CPU 101 and the GPU 105 into the built-in memory or storage medium in the control device 20 causes the CPU 101 and the GPU 105 to execute noise removal processing on an X-ray image (X-ray transmission image). is stored in advance (described later).
  • the input unit 201 accepts input of condition information indicating either the condition of the radiation source or the imaging condition when the object F is imaged by irradiating radiation. Specifically, the input unit 201 inputs the operating conditions of the X-ray irradiator (radiation source) 50 when capturing an X-ray image of the object F, or the conditions indicating the imaging conditions of the X-ray detection camera 10, and the like. Input of information is accepted from the user of the image acquisition device 1 . Operating conditions include all or part of tube voltage, target angle, target material, and the like.
  • the condition information indicating the imaging conditions includes the material and thickness of the filters 51 and 19 arranged between the X-ray irradiator 50 and the X-ray detection camera 10, Distance (FDD), type of window material of the X-ray detection camera 10, information on the material and thickness of the scintillator layer 11 of the X-ray detection camera 10, X-ray detection camera information (for example, gain setting value, circuit noise value , saturation charge amount, conversion coefficient value (e ⁇ /count), camera line rate (Hz) or line speed (m/min)), information on the object F, and the like, all or part of them.
  • FDD Distance
  • type of window material of the X-ray detection camera 10 information on the material and thickness of the scintillator layer 11 of the X-ray detection camera 10
  • X-ray detection camera information for example, gain setting value, circuit noise value , saturation charge amount, conversion coefficient value (e ⁇ /count), camera line rate (Hz) or line speed (m/min)
  • the input unit 201 may receive the input of the condition information as a direct input of information such as numerical values, or as a selective input of information such as numerical values set in advance in the internal memory.
  • the input unit 201 accepts input of the above condition information from the user, but may acquire part of the condition information (tube voltage, etc.) according to the detection result of the control state by the control device 20 .
  • the calculation unit 202 calculates the average energy of X-rays (radiation) transmitted through the object F based on the condition information.
  • the condition information includes any of the tube voltage of the source, information about the object F, filter information of the camera used to image the object F, scintillator information of the camera, and filter information of the X-ray source. At least one is included.
  • the calculation unit 202 uses the image acquisition device 1 to transmit X-rays through the object F to be detected by the X-ray detection camera 10. Calculate the average energy value.
  • the calculation unit 202 calculates the tube voltage, the target angle, the material of the target, the material and thickness of the filters 51 and 19 and their presence/absence, the type of window material of the X-ray detection camera 10 and their presence/absence, which are included in the condition information. Based on information such as the material and thickness of the scintillator layer 11 of the X-ray detection camera 10, the X-ray spectrum detected by the X-ray detection camera 10 is calculated using, for example, a known Tucker approximation formula. .
  • the calculation unit 202 further calculates the spectral intensity integral value and the photon number integral value from the X-ray spectrum, and divides the spectral intensity integral value by the photon number integral value to obtain the average energy value of the X-ray. calculate.
  • the calculation unit 202 when the calculation unit 202 specifies that the target is tungsten and the target angle is 25°, Em: kinetic energy at the time of electron target collision, T: electron kinetic energy in the target, A: proportionality constant determined by the atomic number of the target material , ⁇ : density of target, ⁇ (E): linear attenuation coefficient of target material, B: Z and T function that changes slowly, C: Thomson-Whiddington constant, ⁇ : target angle, c: speed of light in vacuum , can be determined. Furthermore, the calculation unit 202 can calculate the irradiation X-ray spectrum by calculating the following formula (1) based on them.
  • Em can be determined from information on the tube voltage
  • A, ⁇ , and ⁇ (E) can be determined from information on the material of the object F
  • can be determined from information on the angle of the object F.
  • the calculation unit 202 can calculate the X-ray energy spectrum transmitted through the filter and the object F and absorbed by the scintillator using the following X-ray attenuation formula (2).
  • is the attenuation coefficient of the object F, filter, scintillator, etc.
  • x is the thickness of the object F, filter, scintillator, etc.
  • FIG. ⁇ can be determined from information on the material of the object F, the filter, and the scintillator
  • x can be determined from information on the thickness of the object F, the filter, and the scintillator.
  • the X-ray photon number spectrum is obtained by dividing this X-ray energy spectrum by the energy of each X-ray.
  • the calculation unit 202 calculates the average energy of X-rays using the following formula (3) by dividing the integrated value of the energy intensity by the integrated value of the number of photons.
  • Average energy E spectral intensity integral value/photon number integral value (3)
  • the calculator 202 calculates the average energy of X-rays.
  • a known approximation formula by Kramers or Birch et al. may be used.
  • the image acquisition unit 203 acquires a radiographic image in which the object F is irradiated with radiation and the radiation transmitted through the object F is captured. Specifically, the image acquisition unit 203 generates an X-ray image based on the digital signal (amplified signal) output from the X-ray detection camera 10 (more specifically, the output interface 17). The image acquisition unit 203 generates one X-ray image based on the digital signals for multiple lines output from the output interface 17 .
  • FIG. 6 is a diagram showing an example of an X-ray image acquired by the image acquiring unit 203. As shown in FIG.
  • the noise map generation unit 204 derives an evaluation value from the pixel value of each pixel of the radiographic image based on relational data representing the relationship between the pixel value and the evaluation value that evaluates the spread of the noise value, and calculates the evaluation value of each pixel of the radiographic image.
  • a noise map is generated as data in which the evaluation values derived from are associated with each other.
  • the noise map generator 204 derives an evaluation value from the average energy of the radiation transmitted through the object F and the pixel value of each pixel of the radiographic image.
  • the noise map generation unit 204 uses the relational expression (relationship data) between the pixel value and the standard deviation of the noise value (evaluation value obtained by evaluating the spread of the noise value).
  • a standard deviation of the noise value is derived from the average energy of X-rays and the pixel value of each pixel of the X-ray image (radiation image) acquired by the image acquisition unit 203 .
  • the noise map generator 204 generates a noise standard deviation map (noise map) by associating each pixel of the X-ray image with the derived standard deviation of the noise value.
  • variable Noise is the standard deviation of the noise value
  • variable Signal is the signal value of the pixel (pixel value)
  • constant F is the noise factor
  • the constant M is the multiplication factor by the scintillator
  • the constant C is In the X-ray detection camera 10, the coupling efficiency between the scan camera 12 and the scintillator layer 11, the constant Q is the quantum efficiency of the scan camera 12, and the constant cf is the signal value of the pixel in the scan camera 12.
  • variable Em is the average energy of X-rays
  • constant D is dark current noise generated by thermal noise in the image sensor
  • constant R is readout noise in the scan camera 12.
  • the pixel value of each pixel of the X-ray image acquired by the image acquisition unit 203 is substituted for the variable Signal by the noise map generation unit 204, and the value of each pixel of the X-ray image acquired by the image acquisition unit 203 is substituted for the variable Em.
  • the numerical value of the average energy calculated by is substituted.
  • the variable Noise calculated using the above equation (4) is obtained by the noise map generation unit 204 as a numerical value of the standard deviation of the noise values. Note that other parameters including the average energy may be obtained by receiving inputs through the input unit 201, or may be set in advance.
  • FIG. 7 is a diagram showing an example of noise standard deviation map generation by the noise map generation unit 204.
  • the noise map generating unit 204 uses the relational expression (4) between the pixel values and the standard deviation of the noise values to substitute various pixel values for the variable Signal and obtain the correspondence relationship between the pixel values and the variable Noise.
  • a relationship graph G3 representing the correspondence relationship between the pixel value and the standard deviation of the noise value is derived.
  • the noise map generation unit 204 derives relationship data G2 representing the correspondence relationship between each pixel position and pixel value from the X-ray image G1 acquired by the image acquisition unit 203 .
  • the noise map generation unit 204 applies the correspondence shown in the relationship graph G3 to each pixel value in the relationship data G2, thereby deriving the standard deviation of the noise values corresponding to the pixels at each pixel position in the X-ray image. do.
  • the noise map generation unit 204 associates the derived noise standard deviation with each pixel position, and derives relationship data G4 indicating the correspondence relationship between each pixel position and the noise standard deviation.
  • the noise map generator 204 then generates a noise standard deviation map G5 based on the derived relational data G4.
  • the processing unit 205 inputs the radiographic image and the noise map to the learned model 207 constructed in advance by machine learning, and executes image processing to remove noise from the radiographic image. That is, as shown in FIG. 8, the processing unit 205 acquires a learned model 207 (described later) constructed by the construction unit 206 from the built-in memory or storage medium in the control device 20 . The processing unit 205 inputs the X-ray image G ⁇ b>1 acquired by the image acquisition unit 203 and the noise standard deviation map G ⁇ b>5 generated by the noise map generation unit 204 to the trained model 207 . Accordingly, the processing unit 205 uses the learned model 207 to perform image processing for removing noise from the X-ray image G1, thereby generating an output image G6. Then, the processing unit 205 outputs the generated output image G6 to the display device 30 or the like.
  • the construction unit 206 generates a training image that is a radiation image, a noise map that is generated from the training image based on the relational expression between the pixel value and the standard deviation of the noise value, and noise that is data obtained by removing noise from the training image. Using the removed image data as training data, a trained model 207 that outputs noise-removed image data based on the training image and the noise map is constructed by machine learning.
  • the construction unit 206 stores the constructed learned model 207 in the built-in memory or storage medium in the control device 20 .
  • Machine learning includes supervised learning, unsupervised learning, and reinforcement learning, including deep learning, neural network learning, and the like.
  • a two-dimensional convolutional neural network described in Kai Zhang et al.'s article "Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising” is employed as an example of a deep learning algorithm.
  • the learned model 207 may be generated by an external computer or the like and downloaded to the control device 20 instead of being constructed by the construction unit 206 .
  • Radiographic images used for machine learning include radiographic images obtained by imaging known structures or images obtained by reproducing the radiographic images.
  • FIG. 9 is an example of a training image, which is one of the training data used to construct the trained model 207.
  • FIG. X-ray images of patterns of various thicknesses, various materials, and various resolutions can be used as training images.
  • the example shown in FIG. 9 is a training image G7 generated for chicken meat.
  • the training image G7 may be an X-ray image actually generated for a plurality of types of known structures using the image acquisition device 1 including the scintillator layer 11 and the scan camera 12, or may be an X-ray image obtained by simulation calculation. A generated image may be used.
  • the X-ray image may be acquired using a device different from the image acquisition device 1 .
  • the constructing unit 206 As preprocessing for performing machine learning, the constructing unit 206 generates an evaluation value from the pixel value of each pixel of the radiographic image based on relational data representing the relationship between the pixel value and the evaluation value obtained by evaluating the spread of the noise value. A noise map is generated as data in which each pixel of the radiographic image is associated with the derived evaluation value.
  • the construction unit 206 acquires training images generated by actual imaging or simulation calculations from the image acquisition unit 203 or the like. Then, the construction unit 206 sets, for example, the operating conditions of the X-ray irradiator 50 of the image acquisition device 1 or the imaging conditions of the image acquisition device 1 .
  • the construction unit 206 sets operating conditions or imaging conditions of the X-ray irradiator 50 at the time of simulation calculation.
  • the constructing unit 206 uses the same technique as the calculating unit 202 to calculate the average energy of X-rays based on the above operating conditions or imaging conditions. Further, the constructing unit 206 generates a noise standard deviation map based on the average energy of X-rays and the training image using a method similar to the method by the noise map generating unit 204 as shown in FIG.
  • the preprocessing method of the machine learning method derives an evaluation value from the pixel value of each pixel of the radiographic image based on the relationship data representing the relationship between the pixel value and the evaluation value that evaluates the spread of the noise value
  • a noise map generation step is provided for generating a noise map, which is data in which the derived evaluation values are associated with each pixel of the image.
  • the construction unit 206 uses training images, a noise map generated from the training images, and noise-removed image data, which is data in which noise has been removed in advance from the training images, as training data (teacher data) to create a trained model 207.
  • training data teacher data
  • the construction unit 206 acquires in advance noise-removed image data obtained by removing noise from the training image.
  • the training images are X-ray images generated by simulation calculation
  • the constructing unit 206 uses the images before noise is added in the process of generating the training images as the noise-removed image data.
  • the constructing unit 206 selects a mean value filter or a median value from the X-ray images.
  • An image from which noise has been removed using image processing such as a filter, bilateral filter, or NLM filter is used as noise-removed image data.
  • the constructing unit 206 constructs a trained model 207 that outputs noise-removed image data based on the training images and the noise standard deviation map by performing training by machine learning.
  • FIG. 10 is a flow chart showing the procedure for creating image data, which is teacher data (training data) used for building the learned model 207 by the building unit 206 .
  • the image data (also referred to as teacher image data), which is training data, is created by a computer in the following steps.
  • an image of a structure having a predetermined structure (structure image) is created (step S301).
  • an image of a structure having a given structure may be created by simulation calculation.
  • a structure image may be created by acquiring an X-ray image of a structure such as a chart having a predetermined structure.
  • a sigma value which is the standard deviation of pixel values, is calculated for one pixel selected from among the plurality of pixels forming the structure image (step S302).
  • a normal distribution (Poisson distribution) indicating noise distribution is set based on the sigma value obtained in step S302 (step S303).
  • step S304 a randomly set noise value is calculated along the normal distribution set based on the sigma value in step S303 (step S304). Furthermore, by adding the noise value obtained in step S304 to the pixel value of one pixel, a pixel value constituting image data, which is teacher data, is generated (step S305). The processing from step S302 to step S305 is performed for each of a plurality of pixels forming the structure image (step S306), and teacher image data serving as teacher data is generated (step S307).
  • step S308 If more teacher image data is required, it is determined that the processing from steps S301 to S307 should be performed for another structure image (step S308), and another teacher image data to be teacher data is prepared. Generate.
  • the different structure image may be an image of a structure having the same structure or an image of a structure having a different structure.
  • the structure image is preferably an image with little noise, ideally an image with no noise. Therefore, generating structure images by simulation calculation can generate many noise-free images, so generating structure images by simulation calculation is effective.
  • FIG. 11 is a flow chart showing a procedure of observation processing by the image acquisition device 1. As shown in FIG.
  • the construction unit 206 uses the training images, the noise standard deviation map generated from the training images based on the relational expression, and the noise-removed image data as training data.
  • a trained model 207 that outputs the removed image data is constructed by machine learning.
  • the input unit 201 receives input of condition information indicating operating conditions of the X-ray irradiator 50 or imaging conditions of the X-ray detection camera 10 from the operator (user) of the image acquisition apparatus 1 (step S101). .
  • the calculation unit 202 calculates the average energy value of the X-rays detected by the X-ray detection camera 10 (step S102).
  • the object F is set in the image acquisition device 1, the object F is imaged, and the X-ray image of the object F is acquired by the control device 20 (step S103). Furthermore, the control device 20 derives the standard deviation of the noise value from the average energy of the X-rays and the pixel value of each pixel of the X-ray image based on the relational expression between the pixel value and the standard deviation of the noise value. A noise standard deviation map is generated by associating the obtained noise standard deviation with each pixel value (step S104).
  • the processing unit 205 inputs the X-ray image and the noise standard deviation map of the object F to the trained model 207 constructed and stored in advance, and performs noise removal processing on the X-ray image (step S105). Furthermore, an output image, which is an X-ray image subjected to noise removal processing by the processing unit 205 , is output to the display device 30 . (Step S106).
  • the scintillation light corresponding to the X-rays transmitted through the object F emits N pixel lines 74 having M pixels 72 arranged in the scanning direction TD of the object F.
  • the detection signals of at least two pixels 72 out of the detection signals of M pixels 72 detected by the scan cameras 12 arranged in columns and output for each pixel line 74 are added, and the added N An X-ray image is output by outputting the detection signals sequentially or simultaneously.
  • the X-rays that have passed through the object F are converted into scintillation light by the M ⁇ P scintillator units 11a that are separately arranged, and the scintillation light from the P scintillator units 11a is respectively M ⁇ N pixels 72 are detected.
  • noise removal processing is performed on the X-ray image by inputting the output X-ray image into the learned model 207 constructed in advance by machine learning using image data.
  • the noise component can be removed while increasing the signal component in the X-ray image, and the S/N ratio in the X-ray image can be effectively improved.
  • the scintillator portion 11a separated corresponding to the pixel 72 the resolution of the X-ray image can be enhanced.
  • the separating portion 11b that shields or reflects the scintillation light, it is possible to prevent the scintillation light from entering the adjacent scintillator portion, thereby preventing deterioration in resolution.
  • the detection signal becomes small (decreases) according to the size (area) of the separating portion 11b.
  • a drop in the detected signal means a drop in the S/N ratio. Therefore, it has been considered difficult to achieve both an improvement in resolution and an improvement in the S/N ratio by using a scintillator having the separating portion 11b.
  • the S/N ratio can be effectively improved while increasing the resolution of the X-ray image.
  • a scintillator that integrally covers the entire scan camera 12 is used.
  • the CNR Contrast to Noise Ratio
  • the CNR is improved by about 20 times compared to the case where an X-ray image is acquired by using the noise reduction process, and a pseudo It was found that the signal was sufficiently removed.
  • the trained model 207 is constructed by machine learning using image data obtained by adding noise values along a normal distribution to an X-ray image of a predetermined structure as teacher data. be done. This makes it easy to prepare image data, which is teacher data used to build the trained model 207, and efficiently builds the trained model 207.
  • image data which is teacher data used to build the trained model 207.
  • the trained model 207 is constructed by machine learning using X-ray images obtained using the scintillator layer 11 as teacher data.
  • an X-ray image using the scintillator layer 11 in which the scintillator portion 11a is separated into a plurality of pieces compared to an X-ray image using an integrated scintillator, high-frequency noise tends to occur because the noise does not blur. .
  • a finished model 207 can be built.
  • the standard deviation of the noise value is derived from the pixel value of each image of the X-ray image using the relational expression of the standard deviation of the pixel value and the noise value, and each pixel of the X-ray image is A noise standard deviation map is generated, which is data in which the standard deviation of the noise values derived from .
  • the X-ray image and the noise standard deviation map are input to the trained model 207 constructed in advance by machine learning, and image processing is performed to remove noise from the X-ray image.
  • the noise in each pixel of the X-ray image is removed by machine learning, taking into consideration the standard deviation of the noise value derived from the pixel value of each pixel of the X-ray image.
  • the trained model 207 noise removal corresponding to the relationship between the pixel value and the standard deviation of the noise value in the X-ray image can be realized.
  • noise in the X-ray image can be effectively removed.
  • the X-ray image is the tube voltage, filter, scintillator, X-ray detection camera conditions (gain setting value, circuit noise value, saturation charge amount, conversion factor value (e-/count), camera line rate), object
  • the form of noise changes depending on the difference in objects and the like. Therefore, when trying to implement noise removal by machine learning, it is conceivable to prepare learning models trained under various conditions. That is, as a comparative example, a method of constructing a plurality of learning models according to the conditions at the time of X-ray image measurement, selecting a learning model for each condition, and executing noise removal processing can be adopted.
  • a learning model must be constructed for each noise condition such as the average energy of X-rays, the gain of the X-ray detection camera, and the type of X-ray camera.
  • a learning model needs to be generated, which can take a lot of time to build.
  • 240 trained models are required. If it takes one day per model, it will take 240 days for machine learning.
  • by generating a noise map from an X-ray image and using the noise map as input data for machine learning it is possible to reduce noise conditions that require generation of a trained model. , the learning time for building the trained model 207 is greatly reduced.
  • FIG. 12 is a block diagram showing the functional configuration of the control device 20A in the modified example of the first embodiment.
  • the control device 20A has a function of deriving the average energy of X-rays from the pixel values of the X-ray image in the calculation unit 202A, and calculates the X-ray image in the noise map generation unit 204A. , and the average energy of X-rays derived from the X-ray image, it has a function of deriving a noise standard deviation map.
  • FIG. 13 is a flow chart showing a procedure of observation processing by the image acquisition device 1 including the control device 20A of FIG. As shown in FIG.
  • step S103 of the control device 20 according to the first embodiment shown in FIG. 11 is performed immediately after step S100. Then, in the control device 20A, the processes shown in S102A and S104A are replaced with the processes in steps S102 and S104 of the control device 20 and executed.
  • the calculation unit 202A calculates the average energy from the pixel value of each pixel of the radiographic image (step S102A). Specifically, the calculation unit 202A derives in advance the relationship between the pixel value and the average energy for each piece of condition information by simulation calculation of the X-ray spectrum or the like. The calculation unit 202A acquires condition information including at least the tube voltage acquired by the input unit 201 and information on the scintillator included in the X-ray detection camera 10 . Then, based on the condition information, the calculation unit 202A selects the relationship corresponding to the condition information from the previously derived relationships between the pixel values and the average energies. Further, the calculation unit 202A derives the average energy of each pixel from the pixel value of each pixel of the X-ray image acquired by the image acquisition unit 203 based on the selected relationship.
  • the calculator 202A creates a graph G18 representing the relationship between the thickness of the object F and the X-ray transmittance, and the relationship between the thickness of the object F and the average energy of X-rays.
  • Graph G19 is derived.
  • the calculation unit 202A calculates the target Energy spectra G14 to G17 of X-rays transmitted when the thickness of the object F is varied are calculated by simulation calculation.
  • FIG. 14 is a graph showing an example of a simulation calculation result of the energy spectrum of X-rays transmitted through the object F by the calculator 202A.
  • energy spectra G14 to G17 of transmitted X-rays are illustrated when the simulation calculation is performed by gradually increasing the thickness of the object F made of water. Furthermore, based on the calculated energy spectra G14 to G17, the calculation unit 202A calculates the average energy of X-rays transmitted when the thickness of the object F is varied. In addition to the simulation calculation, the calculation unit 202A obtains the relationship between the thickness of the object F and the average energy based on an X-ray image obtained by imaging a structure with a known thickness. good too.
  • the calculation unit 202A also derives the relationship between the thickness of the object F and the X-ray transmittance based on the above simulation results.
  • FIG. 15 is a chart showing an example of the relationship between the thickness of the object F and the average energy and transmittance derived by the calculator 202A. As shown in FIG. 15, the average energy of transmitted X-rays and the transmittance of X-rays are derived corresponding to each of the energy spectra G14 to G17 calculated for each thickness of the object F.
  • FIG. 15 is a chart showing an example of the relationship between the thickness of the object F and the average energy and transmittance derived by the calculator 202A. As shown in FIG. 15, the average energy of transmitted X-rays and the transmittance of X-rays are derived corresponding to each of the energy spectra G14 to G17 calculated for each thickness of the object F.
  • the calculation unit 202A derives a graph G18 showing the relationship between the thickness of the object F and the X-ray transmittance from the X-ray transmittance derived for the object F having various thicknesses.
  • FIG. 16 is a graph showing the relationship between the thickness of the object F and the X-ray transmittance of the object F derived by the calculator 202A.
  • the calculation unit 202A derives a graph G19 showing the relationship between the thickness of the object F and the average energy of X-rays from the average energy of X-rays derived for objects F of various thicknesses.
  • FIG. 17 is a graph showing the relationship between the thickness of the object F and the average energy of X-rays that pass through the object F, derived by the calculator 202A.
  • the calculation unit 202A creates a graph G20 showing the relationship between the pixel values of the X-ray image and the average energy as shown in FIG. It is derived for each of various condition information.
  • FIG. 18 is a graph showing the relationship between the pixel value of the X-ray image and the average energy derived by the calculator 202A.
  • the calculation unit 202A derives the pixel value I0 of the X-ray transmission image when the object F does not exist based on the condition information. Then, the calculation unit 202A sets the pixel value I of the X-ray image when the object F exists, and calculates I/ I0 which is the X-ray transmittance.
  • the calculation unit 202A calculates the thickness of the object F from the calculated X-ray transmittance I/I 0 based on the graph G18 of the thickness of the object F and the X-ray transmittance of the object F. to derive Finally, the calculation unit 202A calculates the average energy of transmitted X-rays corresponding to the thickness based on the derived thickness of the object F and the graph G19 of the thickness of the object F and the average energy of transmitted X-rays.
  • the calculation unit 202A performs the above derivation for each of various condition information while varying the pixel value I of the X-ray image, thereby obtaining the pixel value of the X-ray image and the average energy of transmitted X-rays.
  • a graph G20 showing the relationship between is derived for each condition information.
  • the calculation unit 202A determines that the thickness corresponding to the X-ray transmittance of 0.1 is 30 mm based on the graph G18 showing the relationship between the thickness of the object F and the X-ray transmittance of the object F.
  • the calculation unit 202A derives that the average energy corresponding to the pixel value 500 is 27 keV based on the graph G19 showing the relationship between the thickness of the object F and the average energy of transmitted X-rays. Finally, the calculation unit 202A repeats the derivation of the average energy of X-rays for each pixel value, and derives a graph G20 showing the relationship between the pixel value of the X-ray image and the average energy.
  • the calculation unit 202A selects the graph G20 corresponding to the condition information acquired by the input unit 201 from among the plurality of graphs G20 derived in advance by the above procedure.
  • the calculation unit 202A derives the average energy of transmitted X-rays corresponding to the pixel value of each pixel of the X-ray image acquired by the image acquisition unit 203 based on the selected graph G20.
  • the calculation unit 202A does not derive the relationship between the pixel value and the average energy of X-rays for each condition information in advance, but from the condition information acquired by the input unit 201 and the pixel value of each pixel of the X-ray image. , graphs G18 and G19 may be referred to derive the average energy of X-rays. Specifically, the calculation unit 202A derives the pixel value I0 of the X-ray image when the object does not exist based on the condition information. Then, the calculation unit 202A calculates the transmittance by obtaining the ratio of the pixel value I of each pixel of the X-ray image acquired by the image acquisition unit 203 to the pixel value I0 .
  • the calculator 202A derives the thickness based on the graph G18 showing the relationship between the thickness and the X-ray transmittance and the calculated transmittance. Then, the calculation unit 202A derives the average energy for each pixel value of each pixel of the X-ray image by deriving the average energy based on the graph G19 showing the relationship between the thickness and the average energy and the derived thickness. do.
  • the noise map generation unit 204A generates a noise standard deviation map from the X-ray image acquired by the image acquisition unit 203 and the average energy of X-rays corresponding to each pixel of the X-ray image derived by the calculation unit 202A. (step S104A). Specifically, the noise map generation unit 204A uses the pixel value of each pixel of the X-ray image acquired by the image acquisition unit 203 and the average energy derived for each pixel by the calculation unit 202A as the relational expression (4 ) to derive the standard deviation of the noise value for each pixel considering the thickness of the object. The noise map generation unit 204A generates the standard deviation of the noise values corresponding to each pixel of the X-ray image as a noise standard deviation map.
  • FIG. 19 is a graph showing an example of the relationship between pixel values and standard deviations of noise values.
  • This graph shows the relationship between the standard deviation of the noise values derived from the pixel values of the X-ray image and the pixel values of the X-ray image by the calculation unit 202A and the noise map generation unit 204A according to this modification.
  • the standard deviation of the noise value is derived in consideration of the thickness of the object. Therefore, as the pixel value increases, the thickness of the object becomes smaller and the average energy in the pixel decreases. Therefore, as can be deduced from the relational expression (4), the change in the standard deviation of the noise value when the pixel value increases differs between the first embodiment and this modified example.
  • the graph G22 of this modified example has a smaller degree of increase in the standard deviation of the noise value when the pixel value increases than the graph G21 of the first embodiment.
  • the control device 20A of the modified example of the first embodiment calculates the average energy from the pixel value of each pixel of the X-ray image.
  • the average energy differs greatly for each object, and noise cannot be sufficiently removed from the X-ray image.
  • the average energy of the X-rays that pass through the object F is calculated for each pixel value of each pixel of the X-ray image. Noise removal corresponding to the relationship between the pixel value of each pixel and noise can be realized. As a result, noise in the X-ray image can be effectively removed.
  • control device 20A derives the average energy from the pixel values of the X-ray image using the graph G20 derived for each of various condition information.
  • the average energy may be derived from the pixel values while ignoring the difference in the material of the object F.
  • FIG. 20 is a graph showing the relationship between the pixel value of the X-ray image and the standard deviation of the noise value derived by the calculator 202A.
  • the relationship is derived taking into consideration the change in the material of the object F as condition information. shows an example of derivation when the material is copper.
  • the control device 20A can ignore the difference in the material of the object F as the condition information and derive the average energy from the pixel values of the X-ray image. Even in such a case, according to the control device 20A of this modified example, noise removal corresponding to the relationship between the pixel value and the standard deviation of noise can be realized. As a result, noise in the X-ray image can be removed more effectively.
  • FIG. 21 is a block diagram showing the functional configuration of a control device 20B according to another modification of the first embodiment.
  • the control device 20B has a function of acquiring an X-ray image of the jig in the image acquisition unit 203B and an X-ray image of the jig in the noise map generation unit 204B. The difference is that it has a function of deriving a graph showing the relationship between the pixel value and the standard deviation of the noise value.
  • FIG. 22 is a flow chart showing a procedure of observation processing by the image acquisition device 1 including the control device 20B of FIG. As shown in FIG. 22, in the control device 20B according to this modification, the processing shown in steps S201 and S202 is performed by the control device 20 according to the first embodiment shown in FIG. is executed instead of
  • the image acquisition unit 203B acquires a radiographic image of the jig in which the jig is irradiated with radiation and the radiation transmitted through the jig is imaged (step S201). Specifically, the image acquisition unit 203B acquires an X-ray image captured by irradiating the jig and the object F with X-rays using the image acquisition device 1 . As the jig, a plate member or the like having a known thickness and material is used. That is, the image acquisition unit 203B acquires an X-ray image of the jig captured using the image acquisition device 1 prior to the observation processing of the object F. FIG.
  • the image acquisition unit 203B acquires an X-ray image of the object F imaged using the image acquisition device 1 .
  • the acquisition timing of the X-ray images of the jig and object F is not limited to the above, and may be simultaneous or reverse timing (step S103).
  • the image acquiring unit 203B acquires an X-ray image obtained by irradiating the object F with X-rays and capturing the X-rays transmitted through the object F in the same manner as the image acquiring unit 203B.
  • a jig is set in the image acquisition device 1 and an image of the jig is captured, and the noise map generation unit 204B calculates the relationship between the pixel value and the evaluation value obtained by evaluating the spread of the noise value from the radiographic image of the jig obtained as a result. (step S202). Specifically, the noise map generator 204B derives a noise standard deviation map representing the relationship between the pixel value and the standard deviation of the noise value from the X-ray image of the jig.
  • FIG. 23 is a diagram showing an example of noise standard deviation map generation by the noise map generation unit 204B.
  • the noise map generator 204B derives a relationship graph G27 representing the correspondence relationship between the pixel value and the standard deviation of the noise value from the X-ray image G26 of the jig. Then, similarly to the first embodiment, the noise map generation unit 204B derives relational data G2 representing the correspondence between each pixel position and pixel value from the X-ray image G1 acquired by the image acquisition unit 203B. do. Furthermore, the noise map generation unit 204 applies the correspondence shown in the relationship graph G27 to each pixel in the relationship data G2 to derive the standard deviation of the noise values corresponding to the pixels at each pixel position in the X-ray image. .
  • the noise map generation unit 204 associates the derived noise standard deviation with each pixel position, and derives relationship data G4 indicating the correspondence relationship between each pixel position and the noise standard deviation.
  • the noise map generator 204 then generates a noise standard deviation map G5 based on the derived relational data G4.
  • FIG. 24 shows an example of the structure of a jig used for imaging in this modified example.
  • a member P1 whose thickness changes stepwise in one direction can be used.
  • FIG. 25 shows an example of an X-ray image of the jig of FIG.
  • the noise map generation unit 204B derives pixel values (hereinafter referred to as true pixel values) when there is no noise for each step of the jig in the X-ray image G26 of the jig.
  • the noise map generator 204B derives the average value of the pixel values at a certain step of the jig. Then, the noise map generation unit 204B takes the derived average value of the pixel values as the true pixel value at that step. In that step, the noise map generator 204B derives the difference between each pixel value and the true pixel value as a noise value. The noise map generator 204B derives the standard deviation of the noise values from the derived noise values for each pixel value.
  • the noise map generation unit 204B derives the relationship between the true pixel value and the standard deviation of the noise value as a relationship graph G27 between the pixel value and the standard deviation of the noise value. Specifically, the noise map generator 204B derives the true pixel value and the standard deviation of the noise value for each step of the jig. The noise map generation unit 204B plots the derived relationship between the true pixel value and the standard deviation of the noise value on a graph, and draws an approximate curve to obtain the relationship representing the relationship between the pixel value and the standard deviation of the noise value. Graph G27 is derived. Note that exponential approximation, linear approximation, logarithmic approximation, polynomial approximation, exponential approximation, or the like is used for the approximation curve.
  • relational data is generated based on a radiographic image obtained by imaging an actual jig.
  • the optimum relational data for removing noise from the radiation image of the object F can be obtained.
  • noise in radiographic images can be removed more effectively.
  • the noise map generation unit 204B derives the relationship between the pixel value and the standard deviation of the noise value from the captured image when the tube current or the exposure time is changed in the absence of the object without using a jig. may According to this configuration, since the relational data is generated based on the radiographic image obtained by actually imaging and the noise map is generated, noise removal corresponding to the relationship between the pixel value and the spread of noise can be realized. As a result, noise in radiographic images can be removed more effectively.
  • the image acquisition unit 203B acquires a plurality of radiographic images captured without an object (step S201), and the noise map generation unit 204B generates a , the relationship between the pixel value and the standard deviation of the noise value may be derived (step S202).
  • the plurality of radiographic images are a plurality of images that differ from each other in at least one of the radiation source conditions and the imaging conditions.
  • the image acquisition unit 203B acquires a plurality of X-rays captured using the image acquisition device 1 without the object F prior to observation processing of the object F while changing the tube current or the exposure time. Get an image.
  • the noise map generator 204B derives the true pixel value for each X-ray image, and derives the noise standard deviation based on the true pixel value in the same manner as in the present modification. Furthermore, the noise map generation unit 204B plots the relationship between the true pixel value and the standard deviation of the noise on a graph and draws an approximate curve to obtain the standard deviation of the pixel value and the noise value in the same manner as in this modification Derive a relationship graph representing the relationship between Finally, the noise map generation unit 204B generates a noise standard deviation map from the X-ray image acquired by the image acquisition unit 203B, based on the derived relationship graph, in the same manner as in the first embodiment. [Second embodiment] FIG.
  • the control device 20C includes an input section 201C, a calculation section 202C, a narrowing section 203C, a selection section 204C, and a processing section 205C.
  • control device 20C stores in advance a plurality of learned models 206C for executing noise removal processing on X-ray transmission images.
  • the plurality of learned models 206C are machine learning learning models pre-constructed using image data as teacher data.
  • Machine learning includes supervised learning, deep learning, reinforcement learning, neural network learning, and the like.
  • a deep learning algorithm a two-dimensional convolutional neural network described in Kai Zhang et al.'s article "Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising” is adopted.
  • the plurality of trained models 206C may be generated by an external computer or the like and downloaded to the control device 20C, or may be generated within the control device 20C.
  • FIG. 27 shows an example of image data, which is teacher data used to build the trained model 206C.
  • X-ray transmission images of patterns of various thicknesses, various materials, and various resolutions can be used as training data.
  • the example shown in FIG. 27 is an example of an X-ray transmission image generated for chicken meat.
  • the image data may be X-ray transmission images actually generated for a plurality of types of objects using the image acquisition device 1, or may be image data generated by simulation calculation.
  • the X-ray transmission image may be acquired using a device different from the image acquisition device 1 .
  • an X-ray transmission image and image data generated by simulation calculation may be used in combination.
  • the plurality of trained models 206C are constructed in advance using image data obtained from transmitted X-rays having different average energies and having a known noise distribution.
  • the average energy of the X-rays in the image data is determined by setting the operating conditions of the X-ray irradiator (radiation source) 50 of the image acquisition device 1, the imaging conditions of the image acquisition device 1, or the like, or by setting the Different values are set in advance by setting the operating conditions or imaging conditions of the X-ray irradiator 50 (a method of setting the average energy according to the operating conditions or imaging conditions will be described later).
  • the plurality of trained models 206C indicate the operating conditions of the X-ray irradiator (radiation source) 50 or the imaging conditions of the X-ray detection camera 10 when capturing an X-ray transmission image of the object F.
  • a training image which is an X-ray image corresponding to the average energy of X-rays transmitted through the object F calculated on the basis of the condition information, is used as training data and constructed by machine learning (construction step).
  • the plurality of trained models 206C each store a plurality of frames (for example, 20, 000 frames).
  • the image data which is teacher data used to build the trained model 206C, is generated by the same creation procedure as in the first embodiment described above.
  • the input unit 201C inputs condition information indicating the operating conditions of the X-ray irradiator (radiation source) 50 when capturing an X-ray transmission image of the object F, or the imaging conditions of the X-ray detection camera 10. , from the user of the image acquisition device 1 .
  • Operating conditions include all or part of tube voltage, target angle, target material, and the like.
  • filters 51 and 19 arranged between the X-ray irradiator 50 and the X-ray detection camera 10 filters provided in the camera used for imaging the object or filters provided in the generation source
  • Material and thickness, distance (FDD) between X-ray irradiator 50 and X-ray detection camera 10 type of window material of X-ray detection camera 10, material and thickness of scintillator layer 11 of X-ray detection camera 10 information
  • X-ray detection camera information e.g., gain setting value, circuit noise value, saturation charge amount, conversion coefficient value (e-/count), camera line rate (Hz) or line speed (m/min)
  • All or part of the information of the object and the like can be mentioned.
  • the input unit 201C may receive the input of the condition information as a direct input of information such as numerical values, or as a selective input of information such as numerical values set in advance in the internal memory.
  • the input unit 201C receives the input of the condition information from the user, but may acquire part of the condition information (tube voltage, etc.) according to the detection result of the control state by the control device 20C.
  • the calculation unit 202C calculates the average energy value of X-rays (radiation) transmitted through the object F using the image acquisition device 1 and detected by the X-ray detection camera 10. Calculate For example, the calculation unit 202C calculates the tube voltage, target angle, target material, filter material and thickness and presence/absence thereof, window material type and presence/absence thereof, scintillator layer 11 of the X-ray detection camera 10, which are included in the condition information.
  • the X-ray spectrum detected by the X-ray detection camera 10 is calculated using, for example, a known Tucker approximation formula, based on information such as the material and thickness of the X-ray detection camera 10 .
  • the calculation unit 202C further calculates the spectral intensity integral value and the photon number integral value from the X-ray spectrum, and divides the spectral intensity integral value by the photon number integral value to obtain the average energy value of the X-ray. calculate.
  • the calculation unit 202C specifies that Em: kinetic energy at the time of collision with the electron target, T: electron kinetic energy in the target, and A: proportionality constant determined by the atomic number of the target material.
  • density of target
  • ⁇ (E) linear attenuation coefficient of target material
  • B Z and T function that changes slowly
  • C Thomson-Whiddington constant
  • target angle
  • c speed of light in vacuum
  • the calculation unit 202C can calculate the irradiation X-ray spectrum by calculating the above formula (1) based on them.
  • the calculation unit 202C can calculate the X-ray energy spectrum transmitted through the filter and the object F and absorbed by the scintillator using the above X-ray attenuation formula (2).
  • the X-ray photon number spectrum is obtained by dividing this X-ray energy spectrum by the energy of each X-ray.
  • the calculator 202C calculates the average energy of X-rays using the above formula (3) by dividing the integrated value of the energy intensity by the integrated value of the number of photons. Through the above calculation process, the calculator 202C calculates the average energy of X-rays.
  • a known approximation formula by Kramers or Birch et al. may be used.
  • the narrowing-down unit 203C Based on the average energy value calculated by the calculation unit 202C, the narrowing-down unit 203C narrows down learned model candidates from among a plurality of pre-constructed learned models 206C. That is, the narrowing-down unit 203C compares the calculated average energy value with the average energy value of X-rays in the image data used to construct the plurality of trained models 206C, and A plurality of trained models 206C constructed from image data are narrowed down as candidates. More specifically, when the average energy value calculated by the calculation unit 202C is 53 keV, the narrowing-down unit 203C selects an average energy value of 40 keV whose difference from the value is less than a predetermined threshold value (for example, 15 keV). , 50 keV, and 60 keV are used as trained model candidates.
  • a predetermined threshold value for example, 15 keV
  • the selection unit 204C selects the learned model 206C that is finally used for noise removal processing of the X-ray transmission image of the object F from among the candidates narrowed down by the narrowing down unit 203C. Specifically, the selection unit 204C acquires an X-ray transmission image captured by irradiating a jig with X-rays in the image acquisition device 1, and based on the image characteristics of the X-ray transmission image, finally Select the trained model 206C to use. At this time, the selection unit 204C analyzes the energy characteristics, noise characteristics, resolution characteristics, etc. as the image characteristics of the X-ray transmission image, and selects the learned model 206C based on the analysis results.
  • the selection unit 204C selects a plate-shaped member having a known thickness and material as a jig and having a known relationship between the average energy of X-rays and the X-ray transmittance.
  • An image is acquired, and the brightness of the X-ray image transmitted through the jig and the brightness of the X-ray image transmitted through air are compared to determine the X-ray transmittance at one point (or the average of multiple points) on the jig. calculate. For example, if the brightness of the X-ray image transmitted through the jig is 5,550 and the brightness of the X-ray image transmitted through air is 15,000, the transmittance is calculated as 37%.
  • the selection unit 204C specifies the average energy (for example, 50 keV) of the transmitted X-rays estimated from the transmittance of 37% as the energy characteristic of the X-ray transmitted image of the jig.
  • the selection unit 204C selects one trained model 206C constructed by the image data having the average energy closest to the specified average energy value.
  • the selection unit 204C may analyze characteristics at a plurality of points of a jig whose thickness or material changes as the energy characteristics of the X-ray transmission image of the jig.
  • FIG. 28 is a diagram showing an example of an X-ray transmission image to be analyzed by the selection unit 204C.
  • FIG. 28 is an X-ray transmission image of a jig whose thickness changes stepwise.
  • the selection unit 204C selects a plurality of measurement regions (ROI: Region Of Interest) with different thicknesses from such an X-ray transmission image, analyzes the brightness average value for each of the plurality of measurement regions, and calculates the thickness-brightness ratio. Get the characteristic graph as an energy characteristic.
  • FIG. 29 shows an example of a thickness-luminance characteristic graph acquired by the selection unit 204C.
  • the selection unit 204C similarly acquires a thickness-brightness characteristic graph for the image data used to build the trained model 206C narrowed down by the narrowing unit 203C, and obtains a characteristic graph for the jig.
  • a trained model 206C constructed by image data having characteristics closest to the acquired characteristic graph is selected as the final trained model 206C.
  • the image characteristics of the image data used to build this trained model 206C may refer to those previously calculated outside the control device 20C.
  • SNR Average value of luminance values
  • the selection unit 204C selects the trained model 206C constructed by the image data having the noise characteristics closest to the acquired characteristic graph as the final trained model 206C.
  • the selection unit 204C may acquire, as the noise characteristic, a characteristic graph in which noise calculated from the standard deviation of luminance values is plotted on the vertical axis instead of the luminance-SNR characteristic graph.
  • a luminance-noise characteristic graph By using such a luminance-noise characteristic graph, for each signal amount detected by the X-ray detection camera 10, dominant noise factors (shot noise, readout noise, etc.) can be identified and a trained model 206C can be selected based on the identified results.
  • FIG. 31 is a diagram for explaining a function of selecting a trained model based on image characteristics by the selection unit 204C.
  • part (a) shows luminance-SNR characteristic graphs G 1 , G 2 , and G 3 of respective image data used to construct a plurality of trained models 206C
  • part (b) shows , and in addition to these characteristic graphs G 1 , G 2 , and G 3 , a luminance-SNR characteristic graph GT of an X-ray transmission image of the jig is shown.
  • the selection unit 204C selects a learning graph constructed by the image data of the characteristic graph G 2 that is closest to the characteristics of the characteristic graph GT .
  • the selection unit 204C calculates the SNR error for each brightness value at regular intervals between the characteristic graphs G 1 , G 2 , G 3 and the characteristic graph GT , and averages the errors A root mean squared error (RMSE) is calculated, and the learned model 206C corresponding to the characteristic graphs G 1 , G 2 and G 3 with the smallest mean squared error is selected.
  • the selection unit 204C can similarly select the learned model 206C when selecting using the energy characteristics.
  • the selection unit 204C can also select the learned model 206C based on the characteristics of the image after noise removal processing is performed by applying a plurality of learned models to the X-ray transmission image of the jig. .
  • the selection unit 204C applies a plurality of trained models 206C to the X-ray images obtained by imaging jigs having charts of various resolutions, and the noise-removed image generated as a result. Evaluate. Then, the selection unit 204C selects the trained model 206C used for the image with the smallest change in resolution before and after the noise removal process.
  • FIG. 32 shows an example of an X-ray transmission image used for evaluation of resolution. In this X-ray transmission image, a chart whose resolution changes stepwise along one direction is taken. The resolution of X-ray transmission images can be measured using MTF (Modulation Transfer Function) or CTF (Contrast Transfer Function).
  • the selection unit 204C evaluates the characteristics of the luminance-noise ratio of the image after noise removal, and selects the trained model 206C that was used to generate the image with the highest characteristics.
  • FIG. 33 shows an example of the structure of a jig used for evaluating the luminance-noise ratio.
  • a member P1 whose thickness changes stepwise in one direction is dotted with foreign substances P2 having various materials and various sizes.
  • FIG. 34 shows an X-ray transmission image after noise removal processing obtained from the jig of FIG. 33 .
  • the selection unit 204C selects an image region R1 including the image of the foreign substance P2 in the X-ray transmission image and an image region R2 not including the image of the foreign substance P2 in the vicinity of the region R1, and selects the minimum brightness in the image region R1.
  • the value L MIN , the luminance average value L AVE in the image region R2, and the luminance standard deviation L SD in the image region R2 are calculated.
  • the selection unit 204C calculates the brightness-noise ratio CNR for each of the X-ray transmission images after applying the plurality of trained models 206C, and generates the X-ray transmission image with the highest brightness-noise ratio CNR. Select the used trained model 206C.
  • the processing unit 205C applies the trained model 206C selected by the selection unit 204C to the X-ray transmission image acquired for the object F, and performs image processing for removing noise, thereby producing an output image. Generate. Then, the processing unit 205C outputs the generated output image to the display device 30 or the like.
  • FIG. 35 is a flowchart showing a procedure of observation processing by the image acquisition device 1.
  • control device 20C receives input of condition information indicating operating conditions of the X-ray irradiator 50 or imaging conditions of the X-ray detection camera 10 from the operator (user) of the image acquisition device 1 (step S1). .
  • controller 20C calculates the average energy value of the X-rays detected by the X-ray detection camera 10 based on the condition information (step S2).
  • control device 20C identifies the value of the average X-ray energy in the image data used to build the learned model 206C stored in the control device 20C (step S3). After that, the determination of the average X-ray energy value is repeated for all learned models 206C stored in the control device 20C (step S4).
  • control device 20C compares the calculated average X-ray energy values to narrow down a plurality of trained model 206C candidates (step S5). Further, a jig is set in the image acquisition device 1 and an image of the jig is captured to obtain an X-ray transmission image of the jig (step S6).
  • the image characteristics of the X-ray transmission image of the jig (X-ray average energy value, thickness-luminance characteristics, luminance-noise ratio characteristics, luminance-noise characteristics, resolution change characteristics) are controlled by the control device 20C. etc.) is acquired (step S7). Then, the controller 20C selects the final learned model 206C based on the acquired image characteristics (step S8).
  • the object F is set in the image acquisition device 1 and an image of the object F is imaged, whereby an X-ray transmission image of the object F is acquired (step S9).
  • the control device 20C applies the finally selected learned model 206C to the X-ray transmission image of the object F, thereby performing noise removal processing on the X-ray transmission image (step S10).
  • the control device 20C outputs an output image, which is an X-ray transmission image subjected to noise removal processing, to the display device 30 (step S11).
  • the image acquisition device 1 described above it is possible to remove noise components while increasing signal components in an X-ray transmission image, and to effectively improve the S/N ratio in the X-ray transmission image. Further, the average energy of the X-rays transmitted through the object F is calculated based on the operating conditions of the X-ray generation source when acquiring the X-ray transmission image of the object F or the imaging conditions of the X-ray transmission image. . Then, based on the average energy, candidates for the trained model 206C to be used for noise removal are narrowed down from the trained models 206C constructed in advance.
  • the trained model 206C corresponding to the average energy of the X-rays of the object to be imaged is used for noise removal, so noise removal corresponding to the relationship between luminance and noise in the X-ray transmission image can be realized.
  • noise in the X-ray transmission image can be effectively removed, and for example, foreign matter detection performance can be improved.
  • the X-ray transmission image is based on the conditions of the tube voltage, filter, scintillator, X-ray detection camera (gain setting value, circuit noise value, saturation charge amount, conversion coefficient value (e-/count), camera line rate), The form of noise changes depending on the difference in the object or the like.
  • X-ray transmission images contain noise derived from X-ray generation. It is conceivable to increase the X-ray dose in order to improve the S/N ratio of the X-ray transmission image, but in that case, if the X-ray dose is increased, the exposure dose of the sensor will increase and the life of the sensor will be shortened. There is a problem that the lifetime of the radiation source is shortened, and it is difficult to achieve both an improvement in the S/N ratio and a longer lifetime. In this embodiment, since it is not necessary to increase the X-ray dose, it is possible to achieve both an improvement in the S/N ratio and a longer life.
  • the control device 20C of the present embodiment also has a function of executing image processing for removing noise from the X-ray transmission image of the object F using the selected learned model 206C. With such a function, noise removal corresponding to the relationship between luminance and noise in an X-ray transmission image can be realized, and noise in the X-ray transmission image can be effectively removed.
  • control device 20C of the present embodiment compares the average X-ray energy value calculated from the selection information with the average energy value specified from the image data used to construct the trained model 206C. By doing so, it has a function of narrowing down trained model candidates. With such a function, noise removal corresponding to the relationship between luminance and noise in an X-ray transmission image can be reliably realized.
  • control device 20C of this embodiment has a function of selecting a learned model 206C from candidates based on the image characteristics of the X-ray transmission image of the jig. With such a function, the most suitable learned model 206C for removing noise from the X-ray transmission image of the object F can be selected. As a result, noise removal corresponding to the relationship between luminance and noise in an X-ray transmission image can be more reliably achieved.
  • the control device 20C of the second embodiment selects candidates for the learned model 206C based on the value of the average X-ray energy calculated from the condition information. It may have a function corresponding to output fluctuation or performance deterioration of the irradiator 50 .
  • FIG. 36 is a block diagram showing the functional configuration of a control device 20D according to the modified example of the second embodiment.
  • the control device 20D differs from the control device 20C according to the second embodiment in that it has a measurement section 207C and functions of a calculation section 202D and a narrowing-down section 203D.
  • the relationship between the luminance and noise in the X-ray transmission image is estimated from the average energy of the X-rays on the assumption that there is no performance deterioration of the X-ray detection camera 10 and no output fluctuation or performance deterioration of the X-ray irradiator 50.
  • the trained model 206C is narrowed down on the premise that it can be done.
  • the X-ray conversion coefficient is calculated in consideration of performance deterioration of the X-ray detection camera 10, output fluctuation of the X-ray irradiator 50, or performance deterioration thereof.
  • the X-ray conversion coefficient is a parameter that indicates the efficiency with which X-rays are converted into visible light by the scintillator and then converted into electrons (electrical signals) by the sensor of the camera.
  • the X-ray conversion coefficient FT is given by the following, where E [keV] is the average energy of X-rays, EM [photon/keV] is the scintillator emission amount, C is the coupling efficiency in the sensor, and QE is the quantum efficiency of the sensor.
  • F T E ⁇ EM ⁇ C ⁇ QE
  • the measurement unit 207C of the control device 20D measures the amount of decrease in the light emission amount EM as performance deterioration of the scintillator layer 11, the amount of decrease in the quantum efficiency QE of the sensor as performance deterioration of the scan camera 12, the output fluctuation of the X-ray irradiator 50, and the It has a function of measuring the amount of change in average energy E as performance deterioration.
  • the measurement unit 207C measures the amount of decrease in the amount of light emission between the scintillator layer 11 in a state where there is no performance deterioration (state when new) and the current scintillator layer 11, and calculates the current light emission amount based on the amount of decrease. Estimate the quantity EM.
  • the measurement unit 207C measures the amount of decrease in brightness between the scan camera 12 in a state where there is no performance deterioration (when new) and the current scan camera 12, and calculates the current quantum efficiency QE based on the amount of decrease. to estimate In addition, the measurement unit 207C calculates the current average energy E from the amount of change in the average energy between the X-ray irradiator 50 in a state without performance deterioration (state when new) and the current X-ray irradiator 50. presume.
  • the average energy E is obtained from imaging data of a flat plate-shaped member whose thickness and material are known and the relationship between the average energy of X-rays and the X-ray transmittance is known. may be obtained from imaging data at a plurality of points.
  • the calculation unit 202D of the control device 20D calculates the X-ray conversion coefficient FT using the calculated average energy E of X-rays and the light emission amount EM and quantum efficiency QE estimated by the measurement unit 207C.
  • the narrowing-down unit 203D of the control device 20D compares the calculated X-ray conversion coefficient FT with the X-ray conversion coefficient FT in the image data used to construct the learned model 206C , thereby determining the learned model 206C . It has a function to narrow down candidates for
  • control device 20D of the modified example selects a learned model based on image characteristics obtained by imaging the jig after narrowing down candidates for the trained model.
  • the noise removal process may be performed on the X-ray transmission image of the object without performing.
  • FIG. 37 is a flowchart showing the procedure of observation processing by the image acquisition device 1 according to another modification. In this way, it is also possible to omit the processing of steps S6 to S8 in FIG. 35 and execute the noise removal processing using the trained model narrowed down based on the average energy.
  • FIG. 38 is a block diagram showing the functional configuration of the control device 20E according to the third embodiment.
  • the control device 20E includes an acquisition unit 201E, an identification unit 202E, a selection unit 204E, and a processing unit 205E.
  • the controller 20E stores in advance a plurality of trained models 206E for executing noise removal processing on X-ray transmission images.
  • the plurality of learned models 206E are machine learning learning models pre-constructed using image data as teacher data.
  • Machine learning includes supervised learning, deep learning, reinforcement learning, neural network learning, and the like.
  • a deep learning algorithm a two-dimensional convolutional neural network described in Kai Zhang et al.'s article "Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising" is adopted.
  • the plurality of trained models 206E may be generated by an external computer or the like and downloaded to the control device 20E, or may be generated within the control device 20E.
  • FIG. 39 shows an example of image data, which is teacher data used to build the trained model 206E.
  • X-ray transmission images of patterns of various thicknesses, various materials, and various resolutions can be used as training data.
  • the example shown in FIG. 39 is an example of an X-ray transmission image generated for chicken meat.
  • the image data may be X-ray transmission images actually generated for a plurality of types of objects using the image acquisition device 1, or may be image data generated by simulation calculation.
  • the X-ray transmission image may be acquired using a device different from the image acquisition device 1 .
  • an X-ray transmission image and image data generated by simulation calculation may be used in combination.
  • the plurality of trained models 206E are constructed in advance using image data obtained from transmitted X-rays having different average energies and having a known noise distribution.
  • the average energy of the X-rays in the image data is determined by setting the operating conditions of the X-ray irradiator (radiation source) 50 of the image acquisition device 1, the imaging conditions of the image acquisition device 1, or the like, or by setting the Different values are set in advance by setting operating conditions or imaging conditions of the X-ray irradiator 50 .
  • the plurality of trained models 206E indicate the operating conditions of the X-ray irradiator (radiation source) 50 when capturing an X-ray transmission image of the object F, or the imaging conditions of the X-ray detection camera 10.
  • a training image which is an X-ray image corresponding to the average energy of X-rays transmitted through the object F calculated on the basis of the condition information, is used as training data and constructed by machine learning (construction step).
  • the plurality of trained models 206E each store a plurality of frames (for example, 20, 000 frames).
  • the image data which is teacher data used to build the learned model 206E, is generated by the same creation procedure as in the first embodiment described above.
  • the acquisition unit 201E acquires an X-ray transmission image captured by irradiating the jig and the object F with X-rays using the image acquisition device 1 .
  • the jig there is a plate-shaped member whose thickness and material are known and the relationship between the average energy of X-rays and the X-ray transmittance is known, or a jig having a chart imaged at various resolutions. Used. That is, the acquisition unit 201E acquires an X-ray transmission image of the jig imaged using the image acquisition device 1 prior to the observation processing of the object F.
  • the acquisition unit 201E acquires an X-ray transmission image of the object F imaged using the image acquisition device 1 at the timing after the learned model 206E is selected based on the X-ray transmission image of the jig. do.
  • the acquisition timing of the X-ray transmission images of the jig and the object F is not limited to the above, and may be simultaneous or reverse timing.
  • the specifying unit 202E specifies the image characteristics of the X-ray transmission image of the jig acquired by the acquiring unit 201E. Specifically, the selection unit 204E specifies energy characteristics, noise characteristics, resolution characteristics, frequency characteristics, or the like as the image characteristics of the X-ray transmission image.
  • the specifying unit 202E determines the brightness of the X-ray image transmitted through the jig and the brightness of the X-ray image transmitted through air. are compared to calculate the X-ray transmittance at one point (or the average of a plurality of points) on the jig. For example, if the brightness of the X-ray image transmitted through the jig is 5,550 and the brightness of the X-ray image transmitted through air is 15,000, the transmittance is calculated as 37%. Then, the identifying unit 202E identifies the average energy of transmitted X-rays (eg, 50 keV) estimated from the transmittance of 37% as the energy characteristic of the X-ray transmitted image of the jig.
  • the average energy of transmitted X-rays eg, 50 keV
  • the identifying unit 202E may analyze the characteristics at multiple points of the jig whose thickness or material changes as the energy characteristics of the X-ray transmission image of the jig.
  • FIG. 40 is a diagram showing an example of an X-ray transmission image to be analyzed by the specifying unit 202E.
  • FIG. 40 is an X-ray transmission image of a jig whose thickness changes stepwise.
  • the specifying unit 202E selects a plurality of measurement regions (ROI: Region Of Interest) with different thicknesses from such an X-ray transmission image, analyzes the brightness average value for each of the plurality of measurement regions, and calculates the thickness-brightness ratio. Get the characteristic graph as an energy characteristic.
  • FIG. 41 shows an example of a thickness-luminance characteristic graph acquired by the specifying unit 202E.
  • SNR Average value of luminance values
  • the identifying unit 202E may obtain, as the noise characteristic, a characteristic graph in which noise calculated from the standard deviation of luminance values is plotted on the vertical axis, instead of the luminance-SNR characteristic graph.
  • the specifying unit 202E can also acquire the resolution distribution in the X-ray transmission image of the jig as the resolution characteristics.
  • the identifying unit 202E also has a function of obtaining resolution characteristics of an image obtained by applying a plurality of learned models 206E to the X-ray transmission image of the jig and performing noise removal processing.
  • FIG. 43 shows an example of an X-ray transmission image used for evaluation of resolution. In this X-ray transmission image, a chart whose resolution changes stepwise along one direction is taken. The resolution of X-ray transmission images can be measured using MTF (Modulation Transfer Function) or CTF (Contrast Transfer Function).
  • the selection unit 204E based on the image characteristics acquired by the specifying unit 202E, the selection unit 204E finally selects the target object F from among the plurality of learned models 206E stored in the control device 20E. selects the trained model 206E to be used for noise removal processing of X-ray transmission images of . That is, the selection unit 204E compares the image characteristics identified by the identification unit 202E with the image characteristics identified from the image data used to construct the plurality of trained models 206E, and determines whether the trained models are similar to each other. Select 206E.
  • the selection unit 204E selects one trained model 206E constructed by image data with an average energy closest to the average energy value of transmitted X-rays specified by the specification unit 202E.
  • the selection unit 204E acquires a thickness-brightness characteristic graph for the image data used to construct the plurality of trained models 206E in the same manner as the identification method by the identification unit 202E, and obtains the jig as the object.
  • a trained model 206E constructed by image data having characteristics that are closest to the thickness-brightness characteristic graph obtained in 1 is selected as the final trained model 206E.
  • the image characteristics of the image data used to build the trained model 206E may refer to those previously calculated outside the control device 20E. In this way, by using the image characteristics obtained by setting a plurality of measurement regions, it is possible to select a trained model that is optimal for removing noise from the X-ray transmission image of the object F. In particular, it is possible to accurately estimate differences in X-ray spectra or differences in filter effects during measurement of X-ray transmission images.
  • the selecting unit 204E selects the trained model 206E constructed by the image data having the luminance-to-noise ratio characteristic closest to the luminance-to-noise ratio characteristic acquired by the identifying unit 202E as the final trained model 206E. may be selected as However, the image characteristics of the image data used to build the learned model 206E may be obtained from the image data by the selection unit 204E, or may be calculated in advance outside the control device 20E. . Here, the selection unit 204E may select the trained model 206E using the luminance-noise characteristic instead of the luminance-noise ratio characteristic as the noise characteristic.
  • dominant noise factors can be obtained from the slope of the graph of each signal amount region for each signal amount detected by the X-ray detection camera 10.
  • a trained model 206E can be selected based on the results of that identification.
  • FIG. 44 is a diagram for explaining a function of selecting a learned model based on image characteristics by the selection unit 204E.
  • part (a) shows luminance-SNR characteristic graphs G 1 , G 2 , and G 3 of respective image data used to construct a plurality of trained models 206E
  • part (b) shows , and in addition to these characteristic graphs G 1 , G 2 , and G 3 , a luminance-SNR characteristic graph GT of an X-ray transmission image of the jig is shown.
  • the selection unit 204E selects a learning graph constructed by the image data of the characteristic graph G 2 that is closest to the characteristics of the characteristic graph G T . It functions to select the finished model 206E.
  • the selection unit 204E calculates the SNR error for each brightness value at regular intervals between the characteristic graphs G 1 , G 2 , G 3 and the characteristic graph GT , and averages the errors A root mean squared error (RMSE) is calculated, and the trained model 206E corresponding to the characteristic graphs G 1 , G 2 and G 3 with the smallest mean squared error is selected.
  • the selection unit 204E can similarly select the learned model 206E when selecting using energy characteristics.
  • the selection unit 204E generates an image with relatively excellent characteristics based on the characteristics of the image after noise removal processing is performed by applying a plurality of learned models to the X-ray transmission image of the jig. It is also possible to select the trained model 206E used for .
  • the selection unit 204E applies a plurality of trained models 206E to the X-ray images obtained by imaging jigs having charts of various resolutions, and the noise-removed image generated as a result. Evaluate the resolution characteristics of Then, the selection unit 204E selects the trained model 206E used for the image with the smallest change in resolution of each distribution before and after the noise removal process.
  • the selection unit 204E evaluates the characteristics of the luminance-noise ratio of the image after noise removal, and selects the trained model 206E that was used to generate the image with the highest characteristics.
  • FIG. 45 shows an example of the structure of a jig used for evaluating the luminance-noise ratio. For example, as a jig, a member P1 whose thickness changes stepwise in one direction is dotted with foreign substances P2 having various materials and various sizes.
  • FIG. 46 shows an X-ray transmission image after noise removal processing obtained from the jig of FIG. 45 .
  • the selection unit 204E selects an image region R1 including the image of the foreign matter P2 and an image region R2 near the region R1 that does not include the image of the foreign matter P2 in the X-ray transmission image, and selects the minimum brightness in the image region R1.
  • the value L MIN , the luminance average value L AVE in the image region R2, and the luminance standard deviation L SD in the image region R2 are calculated.
  • the selection unit 204E calculates the brightness-noise ratio CNR for each of the X-ray transmission images after applying the plurality of trained models 206E, and generates the X-ray transmission image having the highest brightness-noise ratio CNR. Select the used trained model 206E.
  • the processing unit 205E applies the trained model 206E selected by the selection unit 204E to the X-ray transmission image acquired for the object F, and performs image processing for removing noise, thereby producing an output image. Generate. Then, the processing unit 205E outputs the generated output image to the display device 30 or the like.
  • FIG. 47 is a flowchart showing a procedure of observation processing by the image acquisition device 1.
  • the operator (user) of the image acquisition device 1 sets the imaging conditions of the image acquisition device 1, such as the tube voltage of the X-ray irradiator 50 or the gain of the X-ray detection camera 10 (step S1E).
  • a jig is set in the image acquisition device 1, and an X-ray transmission image of the jig is acquired by the control device 20E (step S2E).
  • X-ray transmission images of a plurality of types of jigs may be acquired sequentially.
  • control device 20E identifies the image characteristics (energy characteristics, noise characteristics, and resolution characteristics) of the X-ray transmission image of the jig (step S3E). Furthermore, the control device 20E applies a plurality of learned models 206E to the X-ray transmission image of the jig, and the image characteristics (resolution characteristics or luminance-to-noise ratio values, etc.) are determined (step S4E).
  • the controller 20E compares the energy characteristics of the X-ray transmission image of the jig with the energy characteristics of the image data used to build the learned model 206E, and the resolution of the X-ray transmission image of the jig.
  • a learned model 206E is selected based on the degree of change in characteristics before and after application of the learned model (step S5E).
  • the learned model 206E may be selected based on the state of change before and after application of .
  • a trained model 206E having the highest luminance-to-noise ratio CNR after application of the trained model of the X-ray transmission image of the jig may be selected.
  • the object F is set in the image acquisition device 1 and an image of the object F is imaged, whereby an X-ray transmission image of the object F is acquired (step S7E).
  • the control device 20E applies the finally selected learned model 206E to the X-ray transmission image of the object F, thereby performing noise removal processing on the X-ray transmission image (step S8E).
  • the control device 20E outputs an output image, which is an X-ray transmission image subjected to noise removal processing, to the display device 30 (step S9E).
  • the image acquisition device 1 described above it is possible to remove noise components while increasing signal components in an X-ray transmission image, and to effectively improve the S/N ratio in the X-ray transmission image.
  • the image characteristics of the X-ray transmission image of the jig are specified, and based on the image characteristics, a trained model to be used for noise removal is selected from the trained models constructed in advance.
  • the learned model 206E selected according to this estimation result is used for noise removal.
  • noise removal corresponding to the relationship between luminance and noise in an X-ray transmission image can be realized.
  • noise in the X-ray transmission image can be effectively removed.
  • X-ray transmission images contain noise derived from X-ray generation. It is conceivable to increase the X-ray dose in order to improve the S/N ratio of the X-ray transmission image, but in that case, if the X-ray dose is increased, the exposure dose of the sensor will increase and the life of the sensor will be shortened. There is a problem that the lifetime of the radiation source is shortened, and it is difficult to achieve both an improvement in the S/N ratio and a longer lifetime. In this embodiment, since it is not necessary to increase the X-ray dose, it is possible to achieve both an improvement in the S/N ratio and a longer life.
  • the image characteristics of the X-ray transmission image of the jig are compared with the image characteristics of the image data used to construct the trained model.
  • the trained model 206E constructed by the image data corresponding to the image characteristics of the X-ray transmission image of the jig is selected, so noise in the X-ray transmission image of the object F can be effectively removed.
  • a learned model is selected using the image characteristics of an image obtained by applying a plurality of learned models 206E to the X-ray transmission image of the jig.
  • the trained model 206E is selected according to the image characteristics of the X-ray transmission image of the jig to which the multiple trained models 206E are actually applied, the noise in the X-ray transmission image of the object F can be effectively reduced. can be removed.
  • energy characteristics or noise characteristics are used as image characteristics.
  • the trained model 206E constructed from images with characteristics similar to the energy characteristics or noise characteristics of the X-ray transmission image of the jig, which varies depending on the imaging conditions of the image acquisition device 1, is selected. As a result, it becomes possible to remove noise in the X-ray transmission image of the object F corresponding to the condition change of the image acquisition device 1 .
  • resolution characteristics or brightness-to-noise ratio are also used as image characteristics. According to such a configuration, by applying the selected learned model 206E, it is possible to obtain an X-ray transmission image with good resolution characteristics or brightness-noise ratio. As a result, it is possible to remove noise in the X-ray transmission image of the object corresponding to the condition change of the image acquisition device 1 .
  • the image acquisition device 1 may include a scan camera 12A and a scintillator layer 11A configured as follows.
  • FIG. 48 is a plan view showing the configuration of a scan camera 12A according to a modification.
  • 49A and 49B are diagrams showing the configuration of the scintillator layer 11A according to the modification arranged on the scan camera 12A. shows a plan view.
  • the scan camera 12A has N (N is an integer equal to or greater than 2) pixels 72 arranged on a substrate 71 along a direction substantially orthogonal to the transport direction TD.
  • N is an integer between 200 and 30,000.
  • the scintillator layer 11 includes P (where P is an integer equal to or greater than 2) rectangular scintillator portions 11a arranged separately corresponding to the N pixels 72 arranged along the direction substantially orthogonal to the transport direction TD. , and a separating portion 11b located between the scintillator portions 11a.
  • the readout circuit 73 provided in the scan camera 12A configured as described above receives, sequentially or simultaneously, the detection signals output from the N pixels 72 at intervals of a predetermined detection cycle according to the control by the sensor control unit 13, and reads the N detection signals.
  • the detection signals from the pixels 72 are combined and output to the outside as a detection signal for one line of the object F perpendicular to the transport direction TD.
  • the readout circuit 73 performs processing on the detection signals sequentially or simultaneously output from the N pixels 72 with a predetermined detection period shifted, so that the next image of the object F orthogonal to the transport direction TD is detected. Outputs one line of detection signals.
  • the readout circuit 73 sequentially or simultaneously outputs detection signals for a plurality of lines of the object F perpendicular to the transport direction TD.
  • the above predetermined detection cycle is, for example, the speed of the belt conveyor 60, the distance between the X-ray irradiator 50 and the object F on the belt conveyor 60 (FOD (Focus Object Distance)), the X-ray It may be set based on the distance between the illuminator 50 and the scan camera 12 (FDD (Focus Detector Distance: distance between radiation source sensors)) and the detection interval of the pixels 72 on the object F.
  • FOD Fluor Object Distance
  • the separation portion 11b that shields or reflects the scintillation light, it is possible to prevent the scintillation light from entering the adjacent scintillator portion and prevent the resolution from deteriorating.
  • the detection signal becomes small (decreases) according to the size (area) of the separating portion 11b.
  • a drop in the detected signal means a drop in the S/N ratio. Therefore, it has been considered difficult to achieve both an improvement in resolution and an improvement in S/N ratio by using a scintillator having the separating portion 11b.
  • control device 20 executes noise removal processing by filtering the X-ray image instead of inputting the X-ray image to the learned model and executing the noise removal processing.
  • the control device 20 executes edge-preserving filtering as such filtering. More specifically, the control device 20 executes processing using a median filter, bilateral filter, NLM (Non Local Mean) filter, total variation filter, BM3D, etc. as edge-preserving filter processing. At this time, the control device 20 may perform a combination of multiple types of filter processing.
  • the noise component can be appropriately removed from the X-ray image, and the S/N ratio in the radiographic image can be further improved.
  • a scintillator that integrally covers the entire scan camera 12 is used.
  • the CNR is improved by about two times compared to the case where an X-ray image is acquired using the X-ray image and the noise removal process is not performed, and pseudo signals are sufficiently removed in the binarized image generated by thresholding It turns out that it will be.
  • this modified example in the application of foreign matter inspection, it is possible to prevent foreign matter from crossing each other and being detected.
  • control device 20 may perform edge enhancement processing on the X-ray image in addition to filtering processing.
  • edge enhancement processing the control device 20 executes processing using an edge enhancement filter, unsharp mask processing, and the like.
  • the control device 20 may combine and execute a plurality of types of processing.
  • the contrast can be improved in addition to the improvement of the S/N ratio. Specifically, when an X-ray image is acquired using the scan camera 12 and the scintillator layer 11 and both edge-preserving filtering and edge enhancement processing are performed, a scintillator that covers the entire scan camera 12 as a whole is used.
  • the CNR is improved by about 4 times compared to the case where an X-ray image is acquired using , and noise removal processing is not performed, and the pseudo signal is sufficiently removed in the binarized image generated by performing threshold processing. It turns out that it will be. As a result, in the application of foreign matter inspection, it is possible to prevent foreign matter from crossing each other and being detected in this modified example as well.
  • the imaging device has pixel lines each having M (M is an integer equal to or greater than 2) pixels arranged along one direction, arranged in N columns ( N is an integer equal to or greater than 2), and a detector element for outputting a detection signal related to light for each pixel; and a reading circuit for outputting a radiographic image by performing addition processing on the detection signals output from and outputting N detection signals resulting from the addition processing.
  • the imaging device has pixel lines each having M (M is an integer equal to or greater than 2) pixels arranged along one direction, arranged in N columns (N is an integer equal to or greater than 2), including detector elements that output a detection signal related to light for each pixel, and in the obtaining step, for each N pixel line of the detector element, out of the M pixels It is preferable to add the detection signals output from at least two pixels and output the N detection signals resulting from the addition process, thereby outputting the radiographic image.
  • M is an integer equal to or greater than 2
  • N is an integer equal to or greater than 2
  • the scintillation light corresponding to the radiation transmitted through the object is detected by the detector elements in which pixel lines each having M pixels arranged in the scanning direction of the object are arranged in N rows.
  • the detection signals of at least two pixels among the detection signals of M pixels output for each pixel line are subjected to addition processing, and the addition processing of N detection signals is sequentially output, thereby forming a radiographic image. is output.
  • the S/N ratio in the radiographic image can be effectively improved by increasing the signal component in the radiographic image.
  • the image processing module inputs the radiographic image to a trained model constructed in advance by machine learning using image data, and executes noise removal processing for removing noise from the radiographic image. . Furthermore, in the executing step, it is also preferable to input the radiographic image into a trained model constructed in advance by machine learning using image data, and execute noise removal processing for removing noise from the radiographic image. . In this case, noise components can be appropriately removed from the radiographic image, and the S/N ratio of the radiographic image can be further improved.
  • the trained model is constructed by machine learning using image data obtained by adding noise values along a normal distribution to a radiographic image of a predetermined structure as training data. is preferred. This makes it easy to prepare image data, which is teacher data used to construct a trained model, and efficiently constructs a trained model.
  • the learned model is constructed by machine learning using radiation images obtained using a scintillator layer as training data. By doing this, it becomes easy to reflect the conditions at the time of image acquisition in the image data, which is teacher data used to construct the trained model, and it is possible to construct a trained model that achieves appropriate noise removal.
  • the image processing module derives an evaluation value from the pixel value of each pixel of the radiographic image based on the relationship data representing the relationship between the pixel value and the evaluation value obtained by evaluating the spread of the noise value, and calculates the evaluation value of each pixel of the radiographic image.
  • a noise map generation unit that generates a noise map that is data associated with the evaluation values derived from , and a radiographic image and noise map are input to the trained model, and noise removal processing is performed to remove noise from the radiographic image. It is also preferable to have a processing unit.
  • an evaluation value is derived from the pixel value of each pixel of the radiographic image based on relationship data representing the relationship between the pixel value and the evaluation value obtained by evaluating the spread of the noise value, and each pixel of the radiographic image is It is also preferable to generate a noise map that is data associated with the evaluation value derived from , input the radiographic image and the noise map to the trained model, and perform noise removal processing to remove noise from the radiographic image.
  • an evaluation value is derived from the pixel value of each image of the radiographic image based on the relational data representing the relationship between the pixel value and the evaluation value that evaluates the spread of the noise value, and the evaluation derived for each pixel of the radiographic image.
  • a noise map which is data with associated values, is generated. Then, the radiographic image and the noise map are input to a trained model constructed in advance by machine learning, and noise removal processing is performed to remove noise from the radiographic image.
  • the spread of the noise value evaluated from the pixel value of each pixel of the radiographic image is taken into consideration, the noise in each pixel of the radiographic image is removed by machine learning, and the pixel value in the radiographic image is determined using the trained model. Noise removal corresponding to the relationship between the noise and the spread of noise can be realized. As a result, noise in radiographic images can be effectively removed.
  • the image processing module includes an input unit for receiving input of condition information indicating either the condition of the radiation source or the imaging condition when irradiating the object with radiation and imaging the object, and based on the condition information, the object A calculation unit that calculates the average energy of radiation that has passed through an object, and based on the average energy, a trained model that is used for noise reduction processing is selected from among a plurality of trained models that have been constructed in advance by machine learning using image data. and a narrowing-down unit for narrowing down the models. Further, in the executing step, input of condition information indicating either the condition of the radiation source or the imaging condition when irradiating radiation and imaging the object is received, and the object is transmitted based on the condition information.
  • the average energy related to radiation and based on the average energy, narrow down the trained model to be used for noise removal processing from among a plurality of trained models that have been constructed in advance by machine learning using image data.
  • the average energy of the radiation transmitted through the object is calculated based on the conditions of the radiation source or the imaging conditions when acquiring the radiographic image of the object.
  • trained model candidates for use in noise removal are narrowed down from the pre-constructed trained models.
  • the image processing module includes a specifying unit that specifies the image characteristics of the radiographic image obtained by the imaging device for the jig, and a machine learning that uses image data in advance based on the image characteristics. It is also preferable to have a selection unit that selects a trained model from among a plurality of trained models, and a processing unit that executes noise removal processing using the selected trained model. Further, in the executing step, the image characteristics of the radiographic image acquired for the jig are specified, and based on the image characteristics, among a plurality of trained models respectively constructed in advance by machine learning using image data, It is also preferable to select a trained model from , and perform noise removal processing using the selected trained model.
  • the image characteristics of the radiographic image of the jig are specified, and based on the image characteristics, a trained model to be used for noise removal is selected from the trained models constructed in advance.
  • a trained model to be used for noise removal is selected from the trained models constructed in advance.
  • the image processing module performs noise removal processing for filtering the radiographic image and removing noise from the radiographic image. Moreover, it is also preferable that in the executing step, filter processing is performed on the radiographic image, and noise removal processing for removing noise from the radiographic image is executed. According to such a configuration, it is possible to appropriately remove noise components in the radiographic image, and further improve the S/N ratio in the radiographic image.
  • the image processing module performs edge enhancement processing on the radiographic image in addition to filtering processing. Furthermore, it is also preferable that in the executing step, edge enhancement processing is performed on the radiographic image in addition to the filtering processing. In this case, in the radiographic image, contrast can be improved in addition to the improvement of the S/N ratio.
  • SYMBOLS 1 Image acquisition apparatus (radiation image acquisition apparatus, radiation image acquisition system), 10... X-ray detection camera (imaging apparatus), 11, 11A... Scintillator layer, 11a... Scintillator part, 11b... Separation part, 12, 12A... Scan Camera, 20, 20A to 20E... Control device (image processing module), 50... X-ray irradiator (radiation source), 60... Belt conveyor (conveyor), 72... Pixel (detection element), 74...
  • Pixel line ( 201, 201C input unit 202, 202A, 202C, 202D calculation unit 202E identification unit 203C, 203D narrowing down unit 204, 204A, 204B noise map generation unit , 204C, 204E... Selecting unit, 205, 205C, 205E... Processing unit, 206C, 206E, 207... Learned model, F... Object, TD... Conveying direction (one direction).

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Pathology (AREA)
  • Immunology (AREA)
  • Biochemistry (AREA)
  • Analytical Chemistry (AREA)
  • Chemical & Material Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Toxicology (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Quality & Reliability (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Measurement Of Radiation (AREA)

Abstract

画像取得装置1は、対象物を透過した放射線を一の方向にスキャンして撮像してX線画像を取得するカメラ10と、カメラ10上に設けられ、X線を光に変換するシンチレータ層11と、X線画像からノイズを除去するノイズ除去処理を実行する制御装置20とを備え、カメラ10は、一の方向に直交する方向にN個(Nは2以上の整数)配列されて構成され、光を検出して検出信号を出力する画素72と、N個の画素72毎の検出信号を出力することにより、X線画像を出力する読み出し回路73と、を含み、シンチレータ層11は、N個の画素72に対応して分離して配置されたP個(Pは2以上の整数)のシンチレータ部11aと、P個のシンチレータ部11aの間に配置された分離部11bとを含む。

Description

放射線画像取得装置、放射線画像取得システム、及び放射線画像取得方法
 実施形態の一側面は、放射線画像取得装置、放射線画像取得システム、及び放射線画像取得方法に関する。
 従来から、対象物の搬送方向に直交して配置されたラインセンサを複数列設けて、複数列のラインセンサから出力された検出データを加算することにより、対象物を透過したX線等の電磁波の分布を画像データとして取得する装置が用いられている。このような装置によれば、対象物を透過した電磁波を検出した画像データにおいて積分露光効果を得ることができる。
再公表特許WO2019/082276号公報 特開2019-158663号公報
 上述したような従来の装置においては、複数列のラインセンサから得られる検出データを加算することにより、加算結果において信号値が向上するとともにノイズ値も増加する傾向にある。そのため、画像データにおいてS/N比が十分に向上しない場合があった。また、シンチレータを用いることにより得られる画像データにおける解像度が低下してしまう場合もあった。
 そこで、実施形態の一側面は、かかる課題に鑑みてなされたものであり、放射線画像における解像度を高めながらS/N比を効果的に向上できる放射線画像取得装置、放射線画像取得システム、及び放射線画像取得方法を提供することを課題とする。
 実施形態の一側面に係る放射線画像取得装置は、対象物を透過した放射線を一の方向にスキャンして撮像して放射線画像を取得する撮像装置と、撮像装置上に設けられ、放射線を光に変換するシンチレータ層と、放射線画像からノイズを除去するノイズ除去処理を実行する画像処理モジュールと、を備え、撮像装置は、一の方向に直交する方向にN個(Nは2以上の整数)配列されて構成され、光を検出して検出信号を出力する検出素子と、N個の検出素子毎の検出信号を出力することにより、放射線画像を出力する読出回路と、を含み、シンチレータ層は、N個の検出素子に対応して分離して配置されたP個(Pは2以上の整数)のシンチレータ部と、P個のシンチレータ部の間に配置された分離部と、を含む。
 あるいは、実施形態の他の側面に係る放射線画像取得システムは、上記の放射線画像取得装置と、対象物に放射線を照射する発生源と、対象物を撮像装置に対して一の方向に搬送する搬送装置と、を備える。
 あるいは、実施形態の他の側面に係る放射線画像取得方法は、対象物を透過した放射線に応じたシンチレーション光を一の方向にスキャンして撮像して放射線画像を取得するステップと、放射線画像からノイズを除去するノイズ除去処理を実行するステップと、を備え、取得するステップでは、一の方向に直交する方向にN個(Nは2以上の整数)配列されて構成され、光を検出して検出信号を出力する検出素子を含む撮像装置と、N個の検出素子に対応して分離して配置されたP個(Pは2以上の整数)のシンチレータ部とP個のシンチレータ部の間に配置された分離部とを含む放射線を光に変換するシンチレータ層と、を用いて、N個の検出素子毎の検出信号を出力することにより、放射線画像を出力する。
 上記一側面あるいは他の側面のいずれかによれば、対象物を透過した放射線に応じたシンチレーション光が、対象物のスキャンの方向に対して直交する方向に配列されたN個の検出素子によって検出され、N個の検出素子からの検出信号が出力されることにより、放射線画像が出力される。この際、対象物を透過した放射線は分離して配置されたP個のシンチレータ部によってシンチレーション光に変換され、P個のシンチレータ部からのシンチレーション光が、それぞれ、N個の検出素子によって検出される。加えて、出力された放射線画像は、ノイズ除去処理が施されることにより、ノイズが除去される。このように、検出素子に対応して分離されたシンチレータ部を用いることにより放射線画像の解像度を高めることができるとともに、放射線画像におけるS/N比を効果的に向上させることができる。
 実施形態によれば、放射線画像における解像度を高めながらS/N比を効果的に向上させることができる。
第1実施形態にかかる画像取得装置1の概略構成図である。 図1のスキャンカメラ12の構成を示す平面図である。 スキャンカメラ12上に配置されたシンチレータ層11の構成を示す図である。 図1の制御装置20のハードウェア構成の一例を示すブロック図である。 図1の制御装置20の機能構成を示すブロック図である。 図5の画像取得部203が取得したX線画像の一例を示す図である。 図5のノイズマップ生成部204によるノイズ標準偏差マップの生成例を示す図である。 図5の学習済みモデル207の入出力データの一例を示す図である。 学習済みモデル207の構築に用いられる訓練データの1つである訓練画像の一例を示す図である。 構築部206による学習済みモデル207の構築に用いられる教師データ(訓練データ)である画像データの作成手順を示すフローチャートである。 画像取得装置1による観察処理の手順を示すフローチャートである。 本開示の変形例に係る制御装置20Aの機能構成を示すブロック図である。 本開示の変形例に係る画像取得装置1による観察処理の手順を示すフローチャートである。 図12の算出部202Aによる透過X線のエネルギースペクトルのシミュレーション計算結果の一例を示すグラフである。 図12の算出部202Aによる、対象物の厚さと平均エネルギー及び透過率との関係のシミュレーション計算結果の一例を示す図表である。 図12の算出部202Aによる、対象物の厚さとX線の透過率との関係のシミュレーション計算結果の一例を示すグラフである。 図12の算出部202Aによる、対象物の厚さと透過X線の平均エネルギーとの関係のシミュレーション計算結果の一例を示すグラフである。 図12の算出部202AによるX線画像の画素値と平均エネルギーとの関係のシミュレーション計算結果の一例を示すグラフである。 X線画像の画素値とノイズ値の標準偏差との関係のシミュレーション計算結果の一例を示すグラフである。 図12の算出部202Aにおいて導出される、対象物の材質が変化した場合の画素値とノイズ値の標準偏差との関係の一例を示すグラフである。 本開示の別の変形例に係る制御装置20Bの機能構成を示すブロック図である。 本開示の別の変形例に係る画像取得装置1による観察処理の手順を示すフローチャートである。 図21のノイズマップ生成部204Bによるノイズ標準偏差マップの生成例を示す図である。 本開示の別の変形例に係る画像取得装置1において撮像に用いられる治具の構造の一例を示す斜視図である。 図24の治具の撮像画像の一例を示す図である。 第2実施形態に係る制御装置20Cの機能構成を示すブロック図である。 図26の学習済みモデル206Cの構築に用いられる教師データである画像データの一例を示す図である。 図26の選択部204Cの解析対象のX線透過画像の一例を示す図である。 図26の選択部204Cが取得した厚さ-輝度の特性グラフの一例を示す図である。 図26の選択部204Cが取得した輝度-SNRの特性グラフの一例を示す図である。 図26の選択部204Cによる画像特性に基づいた学習済みモデルの選択機能を説明するための図である。 図26の選択部204Cによる解像度の評価に用いられるX線透過画像の一例を示す図である。 図26の選択部204Cによる輝度-ノイズ比の評価に用いられる治具の構造の一例を示す斜視図である。 図33の治具を対象に得られたノイズ除去処理後のX線透過画像を示す図である。 第2実施形態に係る画像取得装置1を用いた観察処理の手順を示すフローチャートである。 第2実施形態の変形例に係る制御装置20Dの機能構成を示すブロック図である。 第2実施形態の変形例に係る画像取得装置1を用いた観察処理の手順を示すフローチャートである。 第3実施形態に係る制御装置20Eの機能構成を示すブロック図である。 図38の学習済みモデル206Eの構築に用いられる教師データである画像データの一例を示す図である。 図38の特定部202Eの解析対象のX線透過画像の一例を示す図である。 図38の特定部202Eが取得した厚さ-輝度の特性グラフの一例を示す図である。 図38の特定部202Eが取得した輝度-SNRの特性グラフの一例を示す図である。 図38の特定部202Eによる解像度の評価に用いられるX線透過画像の一例を示す図である。 図38の選択部204Eによる画像特性に基づいた学習済みモデルの選択機能を説明するための図である。 図38の選択部204Eによる輝度-ノイズ比の評価に用いられる治具の構造の一例を示す斜視図である。 図45の治具を対象に得られたノイズ除去処理後のX線透過画像を示す図である。 第3実施形態に係る画像取得装置1を用いた観察処理の手順を示すフローチャートである。 変形例に係るスキャンカメラ12Aの構成を示す平面図である。 スキャンカメラ12A上に配置されたシンチレータ層11Aの構成を示す図である。
 以下、添付図面を参照して、本開示の実施形態について詳細に説明する。なお、説明において、同一要素又は同一機能を有する要素には、同一符号を用いることとし、重複する説明は省略する。
[第1実施形態]
 図1は、本実施形態に係る放射線画像取得装置および放射線画像取得システムである画像取得装置1の構成図である。図1に示されるように、画像取得装置1は、搬送方向TDに搬送される対象物Fに対してX線(放射線)を照射し、対象物Fを透過したX線に基づき対象物Fを撮像したX線透過画像(放射線画像)を取得する装置である。画像取得装置1は、X線透過画像を用いて、対象物Fを対象にした異物検査、重量検査、検品検査などを行い、用途としては、食品検査、手荷物検査、基板検査、電池検査、材料検査等が挙げられる。画像取得装置1は、ベルトコンベア(搬送装置)60と、X線照射器(放射線発生源)50と、X線検出カメラ(撮像装置)10と、制御装置(画像処理モジュール)20と、表示装置30と、各種入力を行うための入力装置40と、を備えて構成されている。なお、本開示の実施形態における放射線画像とは、X線画像に限らず、γ線などのX線以外の電離放射線による画像も含む。
 ベルトコンベア60は、対象物Fが載置されるベルト部を有しており、該ベルト部を搬送方向(一の方向)TDに移動させることにより、対象物Fを所定の搬送速度で搬送方向TDに搬送する。対象物Fの搬送速度は、例えば48m/分である。ベルトコンベア60は、必要に応じて、搬送速度を、例えば24m/分、96m/分等の搬送速度に変更することができる。また、ベルトコンベア60は、ベルト部の高さ位置を適宜変更し、X線照射器50と対象物Fとの距離を変更することができる。なお、ベルトコンベア60で搬送される対象物Fとしては、例えば、食肉、魚介類、農作物、菓子等の食品、タイヤ等のゴム製品、樹脂製品、金属製品、鉱物等の資源材料、廃棄物、及び電子部品や電子基板等、様々な物品を挙げることができる。X線照射器50は、X線源としてX線を対象物Fに照射(出力)する装置である。X線照射器50は、点光源であり、一定の照射方向に所定の角度範囲でX線を拡散させて照射する。X線照射器50は、X線の照射方向がベルトコンベア60に向けられると共に、拡散するX線が対象物Fの幅方向(搬送方向TDと交差する方向)全体に及ぶように、ベルトコンベア60から所定の距離を離れてベルトコンベア60の上方に配置されている。また、X線照射器50は、対象物Fの長さ方向(搬送方向TDと平行な方向)においては、長さ方向における所定の分割範囲が照射範囲とされ、対象物Fがベルトコンベア60にて搬送方向TDへ搬送されることにより、対象物Fの長さ方向全体に対してX線が照射されるようになっている。X線照射器50は、制御装置20により管電圧及び管電流が設定され、設定された管電圧及び管電流に応じた所定のエネルギー、放射線量のX線を、ベルトコンベア60に向けて照射する。また、X線照射器50のベルトコンベア60側の近傍には、X線の所定波長域を透過させるフィルタ51が設けられている。
 X線検出カメラ10は、X線照射器50により対象物Fに照射されたX線のうち、対象物Fを透過したX線を検出し、該X線に基づく検出信号を取得及び出力する。本実施形態に係る画像取得装置1は、ベルトコンベア60によって搬送される対象物Fを透過するX線に基づく検出信号を順次あるいは同時に出力することにより、X線透過像を搬送方向TDにスキャンして撮像したX線透過画像を出力する。
 X線検出カメラ10は、フィルタ19、シンチレータ層11と、スキャンカメラ12と、センサ制御部13と、アンプ14と、AD変換器15と、補正回路16と、出力インターフェイス17と、アンプ制御部18と、を有している。スキャンカメラ12、アンプ14、AD変換器15、補正回路16、及び出力インターフェイス17はそれぞれ電気的に接続されている。
 シンチレータ層11は、スキャンカメラ12上に接着等により固定されており 、対象物Fを透過したX線をシンチレーション光に変換する(詳細の構成は後述する。)。シンチレータ層11は、シンチレーション光をスキャンカメラ12に出力する。フィルタ19は、X線の所定波長域をシンチレータ層11に向けて透過させる。
 スキャンカメラ12は、シンチレータ層11からのシンチレーション光を検出し、電荷に変換して、検出信号(電気信号)としてアンプ14に出力する。図2は、スキャンカメラ12の構成を示す平面図である。図2に示すように、スキャンカメラ12は、基板71上に2次元的に配列されたフォトダイオード(光電変換素子)である複数の画素(検出素子)72と、複数の画素72がシンチレーション光を光電変換して出力する検出信号を外部に出力する読み出し回路73と、読み出し回路73と複数の画素72のそれぞれとの間を電気的に接続する配線部Wとを備える。
 詳細には、スキャンカメラ12は、基板71上に、搬送方向TDに沿って配列されたM個(Mは2以上の整数)の画素72からなる画素ライン(画素群)74が、搬送方向TDに略直交する方向にN列(Nは、2以上の整数)で配列された構成を有する。例えば、画素数Mは、4個であり、画素ライン数Nは、200以上30,000以下の任意の整数である。
 読み出し回路73は、センサ制御部13による制御に応じて、画素ライン74毎にM個の画素72から所定の検出周期(詳細は後述する。)の間隔で出力される検出信号を順次受け、M個の画素72からの検出信号のうち、少なくとも2個の画素72の検出信号を加算する(足し合わせる)処理(加算処理)を行い、画素ライン74毎に加算処理を施した検出信号を組み合わせて、搬送方向TDに直交する対象物Fの1ラインの検出信号として、外部に出力する。なお、本実施形態でいう加算処理は、少なくとも2個の画素72の検出信号を加算し、平均値を得る平均処理も含む。本実施形態では、読み出し回路73は、M個の全ての検出信号を対象に加算処理を行う。加えて、読み出し回路73は、所定の検出周期をずらしてM個の画素72から順次出力される検出信号を対象に加算処理を行うことにより、搬送方向TDに直交する対象物Fの次の1ラインの検出信号を出力する。同様にして、読み出し回路73は、搬送方向TDに直交する対象物Fの複数ラインの検出信号を順次あるいは同時に出力する。
 上記構成のスキャンカメラ12上に配置されたシンチレータ層11の構成について説明する。図3は、シンチレータ層11の構成を示す図であり、上方に搬送方向TDに沿った断面図、下方に基板71の画素72側の面から見た平面図を示している。このように、シンチレータ層11は、搬送方向TD及び搬送方向TDに垂直な方向に沿ってM×N個で並ぶ画素72に対応して分離して配置されるM×P個(Pは、2以上の整数)の矩形状のシンチレータ部11aと、それらのシンチレータ部11aの間に位置する分離部11bとが形成されてなる。なお、個数Pは、2以上かつN以下であってもよい。さらに、個数Pは、2以上の整数であって、Nを整数で割った整数であってもよい。この場合、シンチレータ層11の分離部11bの間隔に応じて光の広がりによるボケを抑えることができる。また、個数Pは、Nより大きい整数でもよい。この場合、シンチレータ層11の分離部11bの間隔が複数の画素72の間隔よりも小さくなるが、シンチレータ層11と複数の画素72の位置合わせが容易になる。本実施形態では、例えばP=Nであるが、これには限定されない。
 M×P個のシンチレータ部11aは、入射するX線をシンチレーション光に変換可能なシンチレータ材料によって構成され、それぞれに対応する画素72の全体を覆うように配置される。分離部11bは、M×P個のシンチレータ部11aを区切るように網目状に形成され、シンチレーション光を遮蔽可能な材料によって構成されている。また、分離部11bには、シンチレーション光を反射する材料が含まれていてもよい。さらに、分離部11bは、放射線を遮蔽可能な材料によって構成されていてもよい。このようなシンチレータ層11を構成する材料、およびシンチレータ層11の製造方法は、例えば、特開2001-99941号公報、あるいは特開2003-167060号公報に記載された材料及び製造方法を用いることができる。ただし、シンチレータ層11の材料および製造方法は、上記文献に記載されたものには限定されない。
 センサ制御部13は、スキャンカメラ12における画素ライン74内の全画素72が、対象物Fの同じ領域を透過したX線を撮像できるように、スキャンカメラ12を、所定の検出周期で繰り返し撮像するよう制御する。所定の検出周期は、スキャンカメラ12における画素ライン74内の画素72の画素幅に基づいて設定されてもよい。所定の検出周期は、例えば、スキャンカメラ12における画素ライン74内の画素72間の距離、ベルトコンベア60の速度、X線照射器50とベルトコンベア60上の対象物Fとの距離(FOD(Focus Object Distance:線源物体間距離))、並びに、X線照射器50とスキャンカメラ12との距離(FDD(Focus Detector Distance:線源センサ間距離))に基づいてスキャンカメラ12における画素ライン74内の画素72の検出タイミングのズレ(遅延時間)を特定し、そのズレを基に所定の検出周期が設定されてもよい。
 アンプ14は、所定の設定増幅率にて検出信号を増幅して増幅信号を生成し、該増幅信号をAD変換器15に出力する。設定増幅率は、アンプ制御部18によって設定される増幅率である。アンプ制御部18は、所定の撮像条件に基づいて、アンプ14の設定増幅率を設定する。
 AD変換器15は、アンプ14により出力された増幅信号(電圧信号)をデジタル信号に変換し、補正回路16に出力する。補正回路16は、デジタル信号に対して、信号増幅等の所定の補正を行い、補正後のデジタル信号を出力インターフェイス17に出力する。出力インターフェイス17は、デジタル信号をX線検出カメラ10の外部に出力する。
 制御装置20は、例えばPC(Personal Computer)等のコンピュータである。制御装置20は、X線検出カメラ10(より詳細には、出力インターフェイス17)から順次あるいは同時に出力された複数ラインの検出信号に対応するデジタル信号(増幅信号)に基づいてX線透過画像を生成する。本実施形態では、制御装置20は、出力インターフェイス17から出力された128ライン分のデジタル信号を基に、1つのX線透過画像を生成する。生成されたX線透過画像は、後述するノイズ除去処理が施された後に表示装置30に出力され、表示装置30によって表示される。また、制御装置20は、X線照射器50、アンプ制御部18、及びセンサ制御部13を制御する。なお、本実施形態の制御装置20は、X線検出カメラ10の外部に独立に設けられた装置であるが、X線検出カメラ10の内部に一体化されていてもよい。
 図4は、制御装置20のハードウェア構成を示している。図4に示すように、制御装置20は、物理的には、プロセッサであるCPU(Central Processing Unit)101及びGPU105(Graphic Processing Unit)、記録媒体であるRAM(Random Access Memory)102及びROM(Read Only Memory)103、通信モジュール104、及び入出力モジュール106等を含んだコンピュータ等であり、各々は電気的に接続されている。なお、制御装置20は、入力装置40及び表示装置30として、ディスプレイ、キーボード、マウス、タッチパネルディスプレイ等を含んでいてもよいし、ハードディスクドライブ、半導体メモリ等のデータ記録装置を含んでいてもよい。また、制御装置20は、複数のコンピュータによって構成されていてもよい。
 図5は、制御装置20の機能構成を示すブロック図である。制御装置20は、入力部201、算出部202、画像取得部203、ノイズマップ生成部204、処理部205、及び構築部206を備える。図5に示す制御装置20の各機能部は、CPU101、GPU105、及びRAM102等のハードウェア上にプログラム(第1実施形態の放射線画像処理プログラム)を読み込ませることにより、CPU101及びGPU105の制御のもとで、通信モジュール104、及び入出力モジュール106等を動作させるとともに、RAM102におけるデータの読み出し及び書き込みを行うことで実現される。制御装置20のCPU101及びGPU105は、このコンピュータプログラムを実行することによって制御装置20を図5の各機能部として機能させ、後述する放射線画像取得処理方法に対応する処理を順次実行する。なお、CPU101及びGPU105は、単体のハードウェアでもよく、いずれか一方のみでもよい。また、CPU101及びGPU105は、ソフトプロセッサのようにFPGAのようなプログラマブルロジックの中に実装されたものでもよい。RAMやROMについても単体のハードウェアでもよく、FPGAのようなプログラマブルロジックの中に内蔵されたものでもよい。このコンピュータプログラムの実行に必要な各種データ、及び、このコンピュータプログラムの実行によって生成された各種データは、全て、ROM103、RAM102等の内蔵メモリ、又は、ハードディスクドライブなどの記憶媒体に格納される。また、制御装置20内の内蔵メモリあるいは記憶媒体には、CPU101及びGPU105によって読み込まれることによって、CPU101及びGPU105にX線画像(X線透過画像)を対象にノイズ除去処理を実行させる学習済みモデル207が予め格納されている(後述する)。
 以下、制御装置20の各機能部の機能の詳細について説明する。
 入力部201は、放射線を照射して対象物Fを撮像する際の放射線の発生源の条件あるいは撮像条件のいずれかを示す条件情報の入力を受け付ける。具体的には、入力部201は、対象物FのX線画像を撮像する際のX線照射器(放射線発生源)50の動作条件、あるいは、X線検出カメラ10による撮像条件等を示す条件情報の入力を、画像取得装置1のユーザから受け付ける。動作条件としては、管電圧、ターゲット角度、ターゲットの材料等のうちの全部又は一部が挙げられる。撮像条件を示す条件情報としては、X線照射器50とX線検出カメラ10との間に配置されるフィルタ51,19の材質及び厚さ、X線照射器50とX線検出カメラ10との距離(FDD)、X線検出カメラ10の窓材の種類、及び、X線検出カメラ10のシンチレータ層11の材料及び厚さに関する情報、X線検出カメラ情報(例えば、ゲイン設定値、回路ノイズ値、飽和電荷量、変換係数値(e-/count)、カメラのラインレート(Hz)もしくはラインスピード(m/min))、対象物Fの情報等のうちの全部又は一部が挙げられる。入力部201は、条件情報の入力を、数値等の情報の直接入力として受け付けてもよいし、予め内部メモリに設定された数値等の情報に対する選択入力として受け付けてもよい。入力部201は、上記の条件情報の入力をユーザから受け付けるが、一部の条件情報(管電圧等)を、制御装置20による制御状態の検出結果に応じて取得してもよい。
 算出部202は、条件情報を基に、対象物Fを透過したX線(放射線)に関する平均エネルギーを算出する。条件情報には、発生源の管電圧、対象物Fに関する情報、対象物Fの撮像に用いるカメラが備えるフィルタの情報、カメラが備えるシンチレータの情報、X線発生源が備えるフィルタの情報のいずれか1つが少なくとも含まれる。具体的には、算出部202は、入力部201によって入力を受け付けられた条件情報を基に、画像取得装置1を用いて対象物Fを透過させてX線検出カメラ10によって検出させるX線の平均エネルギーの値を算出する。例えば、算出部202は、条件情報に含まれる、管電圧、ターゲット角度、ターゲットの材料、フィルタ51,19の材質及び厚さ及びその有無、X線検出カメラ10の窓材の種類及びその有無、X線検出カメラ10のシンチレータ層11の材料及び厚さ、等の情報に基づいて、X線検出カメラ10で検出されるX線のスペクトルを、例えば公知のTucker等の近似式を用いて算出する。そして、算出部202は、X線のスペクトルから、スペクトル強度積分値と光子数積分値とをさらに算出し、スペクトル強度積分値を光子数積分値で除することによりX線の平均エネルギーの値を算出する。
 公知のTuckerの近似式を用いた算出方法について記載する。例えば、算出部202は、ターゲットをタングステン、ターゲット角度を25°と特定すると、Em:電子ターゲット衝突時の運動エネルギー、T:ターゲット中の電子運動エネルギー、A:ターゲット物質の原子番号で決まる比例定数、ρ:ターゲットの密度、μ(E):ターゲット物質の線減弱係数、B:緩やかに変化するZとTの関数、C:Thomson-Whiddington定数、θ:ターゲット角度、c:真空中の光速度、を決定することができる。さらに、算出部202は、それらを基に下記式(1)を計算することにより、照射X線スペクトルが算出できる。
Figure JPOXMLDOC01-appb-M000001
なお、Emは管電圧の情報から決定でき、A、ρ、μ(E)は、対象物Fの材料の情報から決定でき、θは対象物Fの角度の情報から決定できる。
 次に、算出部202は、フィルタ及び対象物Fを透過してシンチレータに吸収されるX線エネルギースペクトルを下記式(2)のX線の減弱式を用いて算出できる。
Figure JPOXMLDOC01-appb-M000002
ここで、μは対象物F、フィルタ、シンチレータ等の減弱係数、xは対象物F、フィルタ、シンチレータ等の厚さである。μは対象物F、フィルタ、及びシンチレータの材質の情報から決定でき、xは対象物F、フィルタ、及びシンチレータの厚さの情報から決定できる。X線光子数スペクトルは、このX線エネルギースペクトルを各X線のエネルギーで除することで求まる。算出部202は、X線の平均エネルギーを、エネルギー強度の積分値を光子数の積分値で除することにより、下記式(3)を用いて算出する。
平均エネルギーE=スペクトル強度積分値/光子数積分値  …(3)
上記の計算過程により、算出部202は、X線の平均エネルギーを算出する。なお、X線スペクトルの算出に関しては、公知のKramersや、Birchらによる近似式を使用してもよい。
 画像取得部203は、対象物Fに放射線が照射され、対象物Fを透過した放射線が撮像された放射線画像を取得する。具体的には、画像取得部203は、X線検出カメラ10(より詳細には、出力インターフェイス17)から出力されたデジタル信号(増幅信号)に基づいてX線画像を生成する。画像取得部203は、出力インターフェイス17から出力された複数ライン分のデジタル信号を基に1つのX線画像を生成する。図6は、画像取得部203が取得したX線画像の一例を示す図である。
 ノイズマップ生成部204は、画素値とノイズ値の広がりを評価した評価値との関係を表す関係データに基づいて、放射線画像の各画素の画素値から評価値を導出し、放射線画像の各画素に導出した評価値を対応付けたデータであるノイズマップを生成する。このとき、ノイズマップ生成部204は、対象物Fを透過した放射線に関する平均エネルギー、及び、放射線画像の各画素の画素値から、評価値を導出する。具体的には、ノイズマップ生成部204は、画素値とノイズ値の標準偏差(ノイズ値の広がりを評価した評価値)との関係式(関係データ)を用いて、算出部202によって算出されたX線の平均エネルギー、及び画像取得部203によって取得されたX線画像(放射線画像)の各画素の画素値からノイズ値の標準偏差を導出する。ノイズマップ生成部204は、X線画像の各画素に、導出したノイズ値の標準偏差を対応付けることにより、ノイズ標準偏差マップ(ノイズマップ)を生成する。
 ノイズマップ生成部204によって使用される画素値及び平均エネルギーとノイズ値の標準偏差との関係式は、下記式(4)で表される。
Figure JPOXMLDOC01-appb-M000003
 上記式(4)中、変数Noiseはノイズ値の標準偏差、変数Signalは画素の信号値(画素値)、定数Fはノイズファクター(Noise Factor)、定数Mはシンチレータによる増倍率、定数Cは、X線検出カメラ10においてスキャンカメラ12とシンチレータ層11とのカップリング効率(Coupling Efficiency)、定数Qはスキャンカメラ12の量子効率(Quantum Efficiency)、定数cfはスキャンカメラ12において画素の信号値を電荷に変換する変換係数、変数EmはX線の平均エネルギー、定数Dは、イメージセンサにおいて熱雑音によって発生した暗電流ノイズ、定数Rはスキャンカメラ12における読み出しノイズ、をそれぞれ表す情報である。上記式(4)が使用される際、ノイズマップ生成部204により、変数Signalには画像取得部203によって取得されたX線画像の各画素の画素値が代入され、変数Emには算出部202によって算出された平均エネルギーの数値が代入される。そして、ノイズマップ生成部204により、上記式(4)を用いて計算された変数Noiseが、ノイズ値の標準偏差の数値として得られる。なお、平均エネルギーを含むその他のパラメータは、入力部201によって入力を受け付けられることで取得されてもよいし、予め設定されていてもよい。
 図7は、ノイズマップ生成部204によるノイズ標準偏差マップの生成例を示す図である。ノイズマップ生成部204は、画素値とノイズ値の標準偏差との関係式(4)を用いて、変数Signalに様々な画素値を代入して画素値と変数Noiseとの対応関係を取得することにより、画素値とノイズ値の標準偏差との対応関係を表す関係グラフG3を導出する。そして、ノイズマップ生成部204は、画像取得部203によって取得されたX線画像G1から、それぞれの画素位置と画素値との対応関係を表す関係データG2を導出する。さらに、ノイズマップ生成部204は、関係グラフG3の示す対応関係を、関係データG2における各画素値に適用することによって、X線画像における各画素位置の画素に対応したノイズ値の標準偏差を導出する。その結果、ノイズマップ生成部204は、導出したノイズの標準偏差を各画素位置に対応付け、それぞれの画素位置とノイズの標準偏差との対応関係を示す関係データG4を導出する。そして、ノイズマップ生成部204は、導出した関係データG4を基に、ノイズ標準偏差マップG5を生成する。
 処理部205は、放射線画像及びノイズマップを、予め機械学習によって構築された学習済みモデル207に入力し、放射線画像からノイズを除去する画像処理を実行する。すなわち、図8に示されるように、処理部205は、制御装置20内の内蔵メモリあるいは記憶媒体から、構築部206によって構築された学習済みモデル207(後述する)を取得する。処理部205は、画像取得部203によって取得されたX線画像G1、及びノイズマップ生成部204によって生成されたノイズ標準偏差マップG5を、学習済みモデル207に入力する。これにより、処理部205は、学習済みモデル207を利用してX線画像G1からノイズを除去する画像処理を実行させることにより出力画像G6を生成する。そして、処理部205は、生成した出力画像G6を表示装置30等に出力する。
 構築部206は、放射線画像である訓練画像、画素値とノイズ値の標準偏差との関係式に基づいて訓練画像から生成されたノイズマップ、及び、訓練画像からノイズが除去されたデータであるノイズ除去画像データ、を訓練データとして用いて、訓練画像及びノイズマップを基にノイズ除去画像データを出力する学習済みモデル207を、機械学習によって構築する。構築部206は、構築した学習済みモデル207を、制御装置20内の内蔵メモリあるいは記憶媒体に記憶させる。機械学習には、教師あり学習、教師なし学習、強化学習があり、それらの学習の中には、深層学習(ディープラーニング)、ニューラルネットワーク学習などがある。第1実施形態では、ディープラーニングのアルゴリズムの一例として、Kai Zhangらの論文“Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising”に記載された2次元の畳み込みニューラルネットワークが採用される。なお、学習済みモデル207は、構築部206によって構築される以外に、外部のコンピュータ等により生成されて制御装置20にダウンロードされてもよい。なお、機械学習に用いられる放射線画像は、既知の構造物を撮像した放射線画像、或いは当該放射線画像を再現した画像を含む。
 図9は、学習済みモデル207の構築に用いられる訓練データの1つである訓練画像の一例である。訓練画像としては、様々な厚さ、様々な材質、及び様々な解像度のパターンを撮像対象にしたX線画像が用いられうる。図9に示す例は、鶏肉を対象に生成された訓練画像G7である。該訓練画像G7は、実際にシンチレータ層11およびスキャンカメラ12を含む画像取得装置1を用いて複数種類の既知の構造物を対象に生成されたX線画像を用いてもよいし、シミュレーション計算によって生成された画像を用いてもよい。X線画像については、画像取得装置1とは異なる装置を用いて取得したものでもかまわない。
 構築部206は、機械学習を行うための前処理として、画素値とノイズ値の広がりを評価した評価値との関係を表す関係データに基づいて、放射線画像の各画素の画素値から評価値を導出し、放射線画像の各画素に導出した評価値を対応付けたデータであるノイズマップを生成する。具体的には、構築部206は、学習済みモデル207を構築する際に、実際の撮像あるいはシミュレーション計算等により生成された訓練画像を、画像取得部203等から取得する。そして、構築部206は、例えば、画像取得装置1のX線照射器50の動作条件あるいは画像取得装置1の撮像条件等を設定する。あるいは、構築部206は、シミュレーション計算時のX線照射器50の動作条件あるいは撮像条件を設定する。構築部206は、算出部202と同様の手法を用いて、X線の平均エネルギーを、上記の動作条件あるいは撮像条件を基に計算する。さらに、構築部206は、図7に示したようなノイズマップ生成部204による手法と同様の手法を用いて、X線の平均エネルギー及び該訓練画像を基に、ノイズ標準偏差マップを生成する。つまり、機械学習方法の前処理方法は、画素値とノイズ値の広がりを評価した評価値との関係を表す関係データに基づいて、放射線画像の各画素の画素値から評価値を導出し、放射線画像の各画素に導出した評価値を対応付けたデータであるノイズマップを生成するノイズマップ生成ステップを備える。
 構築部206は、訓練画像、該訓練画像から生成したノイズマップ、及び訓練画像から予めノイズが除去されたデータであるノイズ除去画像データを訓練データ(教師データ)として用いて、学習済みモデル207を機械学習によって構築する。具体的には、構築部206は、該訓練画像からノイズが除去されたノイズ除去画像データを予め取得する。構築部206は、訓練画像がシミュレーション計算によって生成されたX線画像である場合、訓練画像の生成過程においてノイズが付加される前の画像を、ノイズ除去画像データとする。一方、構築部206は、訓練画像が、実際に画像取得装置1を用いて複数種類の既知の構造物を対象に生成されたX線画像である場合、X線画像から平均値フィルタ、或いはメディアンフィルタ、バイラテラルフィルタ、NLMフィルタなどの画像処理を用いてノイズ除去された画像をノイズ除去画像データとする。構築部206は、該訓練画像及びノイズ標準偏差マップを基にノイズ除去画像データを出力する学習済みモデル207を、機械学習によるトレーニングを実行して構築する。
 図10は、構築部206による学習済みモデル207の構築に用いられる教師データ(訓練データ)である画像データの作成手順を示すフローチャートである。
 教師データである画像データ(教師画像データともいう。)はコンピュータによって次の手順で作成される。まず、所定の構造をもつ構造体の画像(構造体画像)を作成する(ステップS301)。例えば、シミュレーション計算により、所定の構造を持つ構造体の画像を作成してもよい。また、所定の構造をもつチャートなどの構造体のX線画像を取得して構造体画像を作成してもよい。次に、この構造体画像を構成する複数の画素のうちから選択した一の画素について、画素値の標準偏差であるシグマ値を算出する(ステップS302)。そして、ステップS302で求めたシグマ値に基づいてノイズ分布を示す正規分布(ポアソン分布)を設定する(ステップS303)。このように、シグマ値に基づいて正規分布を設定することで様々なノイズ条件の教師データを生成することができる。続いて、ステップS303でシグマ値に基づいて設定された正規分布に沿って、ランダムに設定されたノイズ値を算出する(ステップS304)。さらに、一の画素の画素値にステップS304で求めたノイズ値を付加することで、教師データである画像データを構成する画素値を生成する(ステップS305)。ステップS302~ステップS305までの処理を、構造体画像を構成する複数の画素それぞれに対して行い(ステップS306)、教師データとなる教師画像データを生成する(ステップS307)。また、教師画像データがさらに必要な場合は、ステップS301~ステップS307までの処理を、別の構造体画像に対して行うことを判断し(ステップS308)、教師データとなる別の教師画像データを生成する。なお、別の構造体画像は、同じ構造を持つ構造体の画像であってもよいし、別の構造を持つ構造体の画像であってもよい。
 なお、学習済みモデル207の構築に用いられる教師データである画像データは多数用意する必要がある。また、構造体画像は、ノイズが少ない画像がよく、理想的には、ノイズがない画像がよい。そのため、シミュレーション計算によって構造体画像を生成すると、ノイズがない画像を数多く生成することができるので、シミュレーション計算によって、構造体画像を生成することは効果的である。
 次に、第1実施形態に係る画像取得装置1を用いた対象物FのX線透過像の観察処理の手順、すなわち、第1実施形態に係る放射線画像取得方法の流れについて説明する。図11は、画像取得装置1による観察処理の手順を示すフローチャートである。
 まず、構築部206によって、訓練画像、関係式に基づいて訓練画像から生成されたノイズ標準偏差マップ、及びノイズ除去画像データ、を訓練データとして用いて、訓練画像及びノイズ標準偏差マップを基にノイズ除去画像データを出力する学習済みモデル207が、機械学習によって構築される。(ステップS100)。次に、入力部201によって、画像取得装置1のオペレータ(ユーザ)から、X線照射器50の動作条件あるいはX線検出カメラ10による撮像条件等を示す条件情報の入力が受け付けられる(ステップS101)。そして、算出部202によって、条件情報を基に、X線検出カメラ10によって検出されるX線の平均エネルギーの値が算出される(ステップS102)。
 続いて、画像取得装置1において対象物Fがセットされて対象物Fが撮像され、制御装置20によって、対象物FのX線画像が取得される(ステップS103)。さらに、制御装置20によって、画素値とノイズ値の標準偏差との関係式に基づいて、X線の平均エネルギー及びX線画像の各画素の画素値からノイズ値の標準偏差が導出され、導出されたノイズの標準偏差が各画素値に対応付けられることにより、ノイズ標準偏差マップが生成される(ステップS104)。
 次に、処理部205によって、予め構築され記憶された学習済みモデル207に、対象物FのX線画像及びノイズ標準偏差マップが入力され、X線画像を対象にノイズ除去処理が実行される(ステップS105)。さらに、処理部205によって、ノイズ除去処理が施されたX線画像である出力画像が、表示装置30に出力される。(ステップS106)。
 以上説明した画像取得装置1によれば、対象物Fを透過したX線に応じたシンチレーション光が、対象物Fのスキャンの方向TDに配列されたM個の画素72を有する画素ライン74がN列で配列されたスキャンカメラ12によって検出され、画素ライン74毎に出力されたM個の画素72の検出信号のうちの少なくとも2個の画素72の検出信号が加算処理され、加算処理されたN個の検出信号が順次あるいは同時に出力されることにより、X線画像が出力される。この際、対象物Fを透過したX線は分離して配置されたM×P個のシンチレータ部11aによってシンチレーション光に変換され、P個のシンチレータ部11aからのシンチレーション光が、それぞれ、M×N個の画素72によって検出される。加えて、出力されたX線画像を、予め画像データを用いた機械学習により構築された学習済みモデル207に入力させることにより、そのX線画像に対してノイズ除去処理が施される。これにより、X線画像において信号成分を大きくしつつノイズ成分を除去することができ、X線画像におけるS/N比を効果的に向上させることができる。さらに、画素72に対応して分離されたシンチレータ部11aを用いることによりX線画像の解像度を高めることができる。一般的に、シンチレーション光を遮蔽或いは反射する分離部11bを形成することにより、シンチレーション光が隣のシンチレータ部に入り込むことを防ぐことができ、解像度の低下を防ぐことが可能となる。しかしながら、分離部11bが存在する部分は、入射するX線からシンチレーション光への変換に寄与していないため、分離部11bの大きさ(面積)に応じて、検出信号が小さくなる(減少する)という問題もあった。検出信号の低下は、S/N比の低下を意味する。そのため、分離部11bを有するシンチレータによって、解像度の向上とS/N比の向上を両立させることは、困難とされていた。これに対し、画像取得装置1によれば、X線画像における解像度を高めながらS/N比を効果的に向上できる。具体的には、シンチレータ層11を用いてX線画像を取得し、学習済みモデル207を用いたノイズ除去処理を施した本実施形態の場合は、スキャンカメラ12の全体を一体で覆うシンチレータを用いてX線画像を取得し、ノイズ除去処理を施さない場合に比較して、CNR(Contrast to Noise Ratio)が約20倍に改善されるとともに、閾値処理を行って生成した二値化画像において擬似信号が十分に除去されることが分かった。これにより、本実施形態によれば、異物検査の用途においては、異物どうしが交わって検出されることを防止できる。
 また、画像取得装置1においては、学習済みモデル207は、所定の構造体のX線画像に対し正規分布に沿ったノイズ値を付加して得られた画像データを教師データとした機械学習によって構築される。これにより、学習済みモデル207の構築に用いられる教師データである画像データを用意することが容易となり、学習済みモデル207を効率的に構築することができる。
 また、画像取得装置1においては、学習済みモデル207は、シンチレータ層11を用いて得られたX線画像を教師データとした機械学習によって構築される。シンチレータ部11aが複数に分離されたシンチレータ層11を用いたX線画像においては、一体化されたシンチレータを用いたX線画像に比較して、ノイズがぼけないため高周波ノイズが生じやすい傾向にある。上記の場合、学習済みモデル207の構築に用いられる教師データである画像データに画像取得時の条件を反映させることが容易となり、高周波ノイズが生じやすい傾向に対応した適切なノイズ除去を実現する学習済みモデル207を構築することができる。
 また、画像取得装置1によれば、画素値とノイズ値の標準偏差の関係式を用いて、X線画像の各画像の画素値からノイズ値の標準偏差が導出され、X線画像の各画素に導出したノイズ値の標準偏差を対応付けたデータであるノイズ標準偏差マップが生成される。そして、X線画像及びノイズ標準偏差マップが、予め機械学習によって構築された学習済みモデル207に入力され、X線画像からノイズを除去する画像処理が実行される。かかる構成によれば、X線画像の各画素の画素値から導出されるノイズ値の標準偏差が考慮されて、該X線画像の各画素におけるノイズが機械学習により除去される。これにより、学習済みモデル207を用いて、X線画像における画素値とノイズ値の標準偏差との関係に対応したノイズ除去が実現できる。その結果、X線画像におけるノイズを効果的に除去できる。
 特に、X線画像は、管電圧、フィルタ、シンチレータ、X線検出カメラの条件(ゲイン設定値、回路ノイズ値、飽和電荷量、変換係数値(e-/count)、カメラのラインレート)、対象物等の違いによってノイズの態様が変化する。そのため、機械学習によってノイズ除去を実現しようとする場合、様々な条件で学習させた学習モデルを用意しておくことが考えられる。つまり、比較例として、X線画像の測定時の条件に合わせて複数の学習モデルを構築し、条件ごとに学習モデルを選択し、ノイズ除去処理を実行する手法も採りうる。このような比較例の場合、例えば、X線の平均エネルギー、X線検出カメラのゲイン、及びX線カメラの種類などのノイズ条件ごとに、学習モデルを構築しなければならず、膨大な数の学習モデルを生成する必要があり、構築のための多くの時間を要する場合がある。一例として、X線の平均エネルギーが10通り、X線検出カメラのゲインが8通り、製品の種類が3種類であるとき、240個の学習済みモデルが必要になるが、学習済みモデルの構築に1モデルにつき1日を要する場合、機械学習のために、240日もの時間がかかってしまう。この点、本実施形態によれば、X線画像からノイズマップを生成し、当該ノイズマップを機械学習の入力データとすることで、学習済みモデルの生成が必要なノイズ条件を低減することができ、学習済みモデル207を構築するための学習時間が大きく低減される。
[第1実施形態の制御装置20の変形例]
 図12は、第1実施形態の変形例における制御装置20Aの機能構成を示すブロック図である。制御装置20Aは、上述した第1実施形態に比較して、算出部202AにおいてX線画像の画素値からX線の平均エネルギーを導出する機能を有する点、及びノイズマップ生成部204AにおいてX線画像の画素値及び該X線画像から導出されたX線の平均エネルギーに基づいて、ノイズ標準偏差マップを導出する機能を有する点が異なる。図13は、図12の制御装置20Aを含む画像取得装置1による観察処理の手順を示すフローチャートである。図13に示されるように、制御装置20Aにおいては、図11に示す第1実施形態に係る制御装置20のステップS103に示す処理が、ステップS100の直後に行われる。そして、制御装置20Aにおいては、S102A、S104Aに示す処理が、制御装置20のステップS102、S104の処理に置き換えて実行される。
 算出部202Aは、放射線画像の各画素の画素値から平均エネルギーを算出する(ステップS102A)。具体的には、算出部202Aは、X線スペクトルのシミュレーション計算等により、条件情報ごとに画素値と平均エネルギーの関係を予め導出する。算出部202Aは、入力部201によって取得された管電圧、及びX線検出カメラ10が備えるシンチレータの情報を少なくとも含む条件情報を取得する。そして、算出部202Aは、該条件情報を基に、予め導出しておいた画素値と平均エネルギーの関係の中から、該条件情報に対応する関係を選択する。さらに、算出部202Aは、選択した関係に基づいて、画像取得部203によって取得されたX線画像の各画素の画素値から、画素毎の平均エネルギーを導出する。
 以下、算出部202Aによる、該条件情報ごとの画素値と平均エネルギーの関係の導出について図14~図18を用いて説明する。
 最初に、算出部202Aは、条件情報を基に、対象物Fの厚さとX線の透過率との関係を表すグラフG18、及び対象物Fの厚さとX線の平均エネルギーとの関係を表すグラフG19を導出する。具体的には、図14の(a)部~(d)部に示すように、算出部202Aは、管電圧及びX線検出カメラ10が備えるシンチレータの情報を少なくとも含む条件情報を基に、対象物Fの厚さを様々に変更した場合に透過するX線のエネルギースペクトルG14~G17を、シミュレーション計算により算出する。図14は、算出部202Aによる対象物Fを透過したX線のエネルギースペクトルのシミュレーション計算結果の一例を示すグラフである。ここでは、水によって構成される対象物Fの厚さを段階的に増加させてシミュレーション計算を行った場合の透過X線のエネルギースペクトルG14~G17が例示されている。さらに、算出部202Aは、算出したエネルギースペクトルG14~G17を基に、対象物Fの厚さを様々に変更した場合に透過するX線の平均エネルギーを算出する。なお、算出部202Aは、シミュレーション計算以外に、厚さが既知の構造物を対象に撮像することにより得られたX線画像を基に、対象物Fの厚さと平均エネルギーの関係が得られてもよい。
 さらに、算出部202Aは、上記のシミュレーション結果を基に、対象物Fの厚さとX線の透過率との関係も導出する。図15は、算出部202Aによって導出された、対象物Fの厚さと平均エネルギー及び透過率との関係の一例を示す図表である。図15に示されるように、対象物Fの厚さ毎に算出されたエネルギースペクトルG14~G17のそれぞれに対応して、透過X線の平均エネルギー及びX線の透過率が導出される。
 続いて、算出部202Aは、様々な厚さの対象物Fに対して導出したX線の透過率から、対象物Fの厚さとX線の透過率との関係を示すグラフG18を導出する。図16は、算出部202Aによって導出された、対象物Fの厚さと対象物Fに対するX線の透過率との関係を示すグラフである。加えて、算出部202Aは、様々な厚さの対象物Fに対して導出したX線の平均エネルギーから、対象物Fの厚さとX線の平均エネルギーとの関係を示すグラフG19を導出する。図17は、算出部202Aによって導出された、対象物Fの厚さと、対象物Fを透過するX線の平均エネルギーとの関係を示すグラフである。
 そして、算出部202Aは、様々な条件情報ごとに導出した2つのグラフG18,G19に基づいて、図18に示されるようなX線画像の画素値と平均エネルギーとの関係を示すグラフG20を、様々な条件情報ごとに導出する。図18は、算出部202Aによって導出されたX線画像の画素値と平均エネルギーとの関係を示すグラフである。具体的には、算出部202Aは、条件情報を基に、対象物Fが存在しない場合のX線画透過像の画素値Iを導出する。そして、算出部202Aは、対象物Fが存在する場合のX線画像の画素値Iを設定し、X線の透過率であるI/Iを計算する。さらに、算出部202Aは、対象物Fの厚さと対象物Fに対するX線の透過率とのグラフG18に基づいて、計算したX線の透過率であるI/Iから、対象物Fの厚さを導出する。最後に、算出部202Aは、導出した対象物Fの厚さと、対象物Fの厚さと透過X線の平均エネルギーとのグラフG19とに基づいて、その厚さに対応する透過X線の平均エネルギーを導出する。続いて、算出部202Aは、上記の導出を、X線画像の画素値Iを様々に変化させながら、様々な条件情報ごとに行うことにより、X線画像の画素値と透過X線の平均エネルギーとの関係を示すグラフG20を、条件情報ごとに導出する。
 ここで、算出部202Aによる画素値を基にした平均エネルギーの導出例について説明する。例えば、算出部202Aが、条件情報を基に対象物Fが存在しない場合のX線画透過像の画素値をI=5000と導出し、対象物Fが存在する場合のX線画像の画素値がI=500であると設定した場合を想定する。この場合、算出部202Aは、X線の透過率をI/I=0.1であると計算する。続いて、算出部202Aは、対象物Fの厚さと対象物Fに対するX線の透過率との関係を示すグラフG18に基づいて、X線の透過率0.1に対応する厚さが30mmであると導出する。さらに、算出部202Aは、対象物Fの厚さと透過X線の平均エネルギーとの関係を示すグラフG19に基づいて、画素値500に対応する平均エネルギーが27keVであると導出する。最後に、算出部202Aは、各画素値ごとにX線の平均エネルギーの導出を繰り返し、X線画像の画素値と平均エネルギーとの関係を示すグラフG20を導出する。
 さらに、算出部202Aは、以上の手順で予め導出した複数のグラフG20の中からから、入力部201によって取得された条件情報に対応するグラフG20を選択する。算出部202Aは、選択したグラフG20に基づいて、画像取得部203によって取得されたX線画像の各画素の画素値に対応する透過X線の平均エネルギーを導出する。
 なお、算出部202Aは、予め条件情報ごとに画素値とX線の平均エネルギーの関係を導出するのではなく、入力部201によって取得された条件情報とX線画像の各画素の画素値とから、グラフG18,G19を参照してX線の平均エネルギーを導出してもよい。具体的には、算出部202Aは、条件情報を基に対象物が存在しない場合のX線画像の画素値Iを導出する。そして、算出部202Aは、画像取得部203によって取得されたX線画像の各画素の画素値Iごとに画素値Iに対する比率を求めることにより、透過率を計算する。さらに、算出部202Aはし、厚さとX線の透過率との関係を示すグラフG18と、計算した透過率とに基づいて厚さを導出する。そして、算出部202Aは、厚さと平均エネルギーとの関係を示すグラフG19と、導出した厚さとに基づいて平均エネルギーを導出することで、X線画像の各画素の画素値ごとに平均エネルギーを導出する。
 ノイズマップ生成部204Aは、画像取得部203によって取得されたX線画像、及び算出部202Aによって導出された該X線画像の各画素に対応するX線の平均エネルギーから、ノイズ標準偏差マップを生成する(ステップS104A)。具体的には、ノイズマップ生成部204Aは、画像取得部203によって取得されたX線画像の各画素の画素値、及び算出部202Aによって各画素ごとに導出された平均エネルギーを、関係式(4)に代入することで、対象物の厚さを考慮した各画素ごとのノイズ値の標準偏差を導出する。ノイズマップ生成部204Aは、X線画像の各画素に対応したノイズ値の標準偏差を、ノイズ標準偏差マップとして生成する。
 図19は、画素値とノイズ値の標準偏差との関係の一例を表すグラフである。このグラフは、本変形例に係る算出部202A及びノイズマップ生成部204Aによって、X線画像の画素値から導出されたノイズ値の標準偏差と、X線画像の画素値との関係を示している。本変形例では、対象物の厚さを考慮してノイズ値の標準偏差が導出されるため、画素値が増加するほど対象物の厚さが小さくなり、画素における平均エネルギーが低下する。したがって、関係式(4)からも推定されるように、第1実施形態と本変形例とは、画素値が増大したときのノイズ値の標準偏差の変化が異なる。図19に示される例では、本変形例のグラフG22は、第1実施形態のグラフG21より画素値が増大したときのノイズ値の標準偏差の増大の度合いが小さい。
 第1実施形態の変形例の制御装置20Aでは、X線画像の各画素の画素値から平均エネルギーが計算される。ここで、例えば、X線画像中に厚さや材質の異なる複数の対象物が存在する場合、対象物ごとに平均エネルギーが大きく異なり、X線画像から十分にノイズを除去できない。かかる構成によれば、対象物Fを透過するX線の平均エネルギーが、X線画像の各画素の画素値ごとに計算されるため、例えば、厚さや材質の違い等を考慮し、X線画像の各画素の画素値とノイズとの関係に対応したノイズ除去を実現できる。その結果、X線画像におけるノイズを効果的に除去できる。
 なお、本変形例に係る制御装置20Aは、様々な条件情報ごとに導出したグラフG20を用いてX線画像の画素値から平均エネルギーを導出している。このとき、対象物Fの材質の違いは無視して画素値から平均エネルギーを導出してもよい。図20は、算出部202Aによって導出されたX線画像の画素値とノイズ値の標準偏差との関係を示すグラフである。ここでは、対象物Fの材質の変化も条件情報として考慮に入れて関係を導出しており、グラフG24は、材質がアルミニウムの場合、グラフG23は材質がPET(Polyethylene terephthalate)の場合、グラフG25は材質が銅の場合の導出例を示している。このように、対象物Fの材質が変化した場合でも、X線照射器50の管電圧及び対象物Fの撮像に用いるX線検出カメラ10が備えるシンチレータの情報が同一であれば、画素値と透過X線の平均エネルギーとの関係は大きく変化しないため、画素値とノイズ値の標準偏差との関係も大きく変化しない。このような性質を考慮して、制御装置20Aは、条件情報としての対象物Fの材質の違いは無視して、X線画像の画素値から平均エネルギーを導出することができる。このような場合でも、本変形例の制御装置20Aによれば、画素値とノイズの標準偏差との関係に対応したノイズ除去が実現できる。その結果、X線画像におけるノイズをさらに効果的に除去できる。
[第1実施形態の制御装置20の別の変形例]
 図21は、第1実施形態の別の変形例にかかる制御装置20Bの機能構成を示すブロック図である。制御装置20Bは、上述した第1実施形態に比較して、画像取得部203Bにおいて、治具のX線画像を取得する機能を有する点、及びノイズマップ生成部204Bにおいて、治具のX線画像から画素値とノイズ値の標準偏差との関係を示すグラフを導出する機能を有する点が異なる。図22は、図21の制御装置20Bを含む画像取得装置1による観察処理の手順を示すフローチャートである。図22に示されるように、本変形例に係る制御装置20Bにおいては、ステップS201、S202に示す処理が、図11に示す第1実施形態にかかる制御装置20によるステップS101、S102及びS104の処理に置き換えて実行される。
 画像取得部203Bは、治具に放射線が照射され、治具を透過した放射線が撮像された治具の放射線画像を取得する(ステップS201)。具体的には、画像取得部203Bは、画像取得装置1を用いて治具及び対象物Fを対象にX線を照射して撮像したX線画像を取得する。治具としては、厚さ及び材質が既知である平板状部材等が用いられる。すなわち、画像取得部203Bは、対象物Fの観察処理に先立って画像取得装置1を用いて撮像された治具のX線画像を取得する。そして、画像取得部203Bは、画像取得装置1を用いて撮像された対象物FのX線画像を取得する。ただし、治具及び対象物FのX線画像の取得タイミングは上記には限定されず、同時であってもよいし逆のタイミングであってもよい(ステップS103)。また、画像取得部203Bは、画像取得部203と同様に、対象物FにX線が照射され、対象物Fを透過したX線が撮像されたX線画像を取得する。
 画像取得装置1において治具がセットされて治具が撮像され、ノイズマップ生成部204Bは、その結果得られる治具の放射線画像から、画素値とノイズ値の広がりを評価した評価値との関係を表す関係データを導出する(ステップS202)。具体的には、ノイズマップ生成部204Bは、治具のX線画像から、画素値とノイズ値の標準偏差との関係を表すノイズ標準偏差マップを導出する。
 図23は、ノイズマップ生成部204Bによるノイズ標準偏差マップの生成例を示す図である。ノイズマップ生成部204Bは、治具のX線画像G26から、画素値とノイズ値の標準偏差との対応関係を表す関係グラフG27を導出する。そして、ノイズマップ生成部204Bは、第1実施形態と同様にして、画像取得部203Bによって取得されたX線画像G1から、それぞれの画素位置と画素値との対応関係を表す関係データG2を導出する。さらに、ノイズマップ生成部204は、関係グラフG27の示す対応関係を、関係データG2における各画素に適用することによって、X線画像における各画素位置の画素に対応したノイズ値の標準偏差を導出する。その結果、ノイズマップ生成部204は、導出したノイズの標準偏差を各画素位置に対応付け、それぞれの画素位置とノイズの標準偏差との対応関係を示す関係データG4を導出する。そして、ノイズマップ生成部204は、導出した関係データG4を基に、ノイズ標準偏差マップG5を生成する。
 ノイズマップ生成部204Bによる、治具のX線画像G26からの、画素値とノイズ値の標準偏差との関係を表す関係グラフG27の導出について説明する。図24には、本変形例における撮像に用いられる治具の構造の一例を示している。治具には、例えば、厚さが一方向にステップ状に変化する部材P1が用いられうる。図25は、図24の治具のX線画像の一例を示している。まず、ノイズマップ生成部204Bは、治具のX線画像G26において、治具のステップごとにノイズがない場合の画素値(以下、真の画素値と表記する)を導出し、真の画素値に基づいてノイズ値の標準偏差を導出する。具体的には、ノイズマップ生成部204Bは、治具のあるステップにおける画素値の平均値を導出する。そして、ノイズマップ生成部204Bは、導出した画素値の平均値を、そのステップにおける真の画素値とする。ノイズマップ生成部204Bは、そのステップにおいて、各画素値と真の画素値との差をノイズ値として導出する。ノイズマップ生成部204Bは、導出した画素値ごとのノイズ値から、ノイズ値の標準偏差を導出する。
 そして、ノイズマップ生成部204Bは、真の画素値とノイズ値の標準偏差との関係を、画素値とノイズ値の標準偏差との関係グラフG27として導出する。具体的には、ノイズマップ生成部204Bは、治具のステップごとに、真の画素値、及びノイズ値の標準偏差を導出する。ノイズマップ生成部204Bは、導出した真の画素値とノイズ値の標準偏差との関係をグラフにプロットして、近似曲線を引くことにより、画素値とノイズ値の標準偏差との関係を表す関係グラフG27を導出する。なお、近似曲線については、指数近似、或いは線形近似、対数近似、多項式近似、累乗近似などを使用する。
 本変形例にかかる制御装置20Bでは、実際の治具を撮像して得られる放射線画像を基に関係データが生成される。これにより、対象物Fの放射線画像のノイズ除去に最適な関係データが得られる。その結果、放射線画像におけるノイズをより効果的に除去できる。
 なお、ノイズマップ生成部204Bは、治具を用いずに、対象物がない状態で管電流あるいは露光時間を変更した場合の撮像画像から、画素値とノイズ値の標準偏差との関係を導出してもよい。かかる構成によれば、実際に撮像して得られる放射線画像を基に関係データが生成され、ノイズマップが生成されるため、画素値とノイズの広がりとの関係に対応したノイズ除去が実現できる。その結果、放射線画像におけるノイズをより効果的に除去できる。
 具体的には、画像取得部203Bは、対象物がない状態で撮像された複数の放射線画像を取得し(ステップS201)、ノイズマップ生成部204Bは、画像取得部203Bによって取得された放射線画像から、画素値とノイズ値の標準偏差との関係を導出してもよい(ステップS202)。複数の放射線画像は、放射線の発生源の条件あるいは撮像条件の少なくとも一方の条件が互いに異なる複数の画像である。一例としては、画像取得部203Bは、管電流あるいは露光時間が変更されつつ、対象物Fの観察処理に先立って対象物Fがない状態で画像取得装置1を用いて撮像された複数のX線画像を取得する。そして、ノイズマップ生成部204Bは、X線画像ごとに真の画素値を導出し、本変形例と同様にして、真の画素値に基づいてノイズの標準偏差を導出する。さらに、ノイズマップ生成部204Bは、本変形例と同様にして、真の画素値とノイズの標準偏差との関係をグラフにプロットして近似曲線を引くことにより、画素値とノイズ値の標準偏差との関係を表す関係グラフを導出する。最後に、ノイズマップ生成部204Bは、第1実施形態と同様にして、導出した関係グラフを基に、画像取得部203Bによって取得されたX線画像からノイズ標準偏差マップを生成する。
[第2実施形態]
 図26は、第2実施形態に係る制御装置20Cの機能構成を示すブロック図である。制御装置20Cは、入力部201C、算出部202C、絞込部203C、選択部204C、及び処理部205Cを備える。
 また、制御装置20Cには、X線透過画像を対象にノイズ除去処理を実行させる学習済みモデル206Cが予め複数格納されている。複数の学習済みモデル206Cは、それぞれ、画像データを教師データとして予め構築された機械学習による学習モデルである。機械学習には、教師あり学習、深層学習(ディープラーニング)、或いは強化学習、ニューラルネットワーク学習などがある。本実施形態では、ディープラーニングのアルゴリズムの一例として、Kai Zhangらの論文“Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising”に記載された2次元の畳み込みニューラルネットワークが採用される。複数の学習済みモデル206Cは、外部のコンピュータ等により生成されて制御装置20Cにダウンロードされてもよいし、制御装置20C内で生成されてもよい。
 図27には、学習済みモデル206Cの構築に用いられる教師データである画像データの一例を示す。教師データとしては、様々な厚さ、様々な材質、及び様々な解像度のパターンを撮像対象にしたX線透過画像が用いられうる。図27に示す例は、鶏肉を対象に生成されたX線透過画像の例である。この画像データは、実際に画像取得装置1を用いて複数種類の対象物を対象に生成されたX線透過画像を用いてもよいし、シミュレーション計算によって生成された画像データを用いてもよい。X線透過画像については、画像取得装置1とは異なる装置を用いて取得したものでもかまわない。また、X線透過画像とシミュレーション計算によって生成された画像データを組み合わせて用いてもよい。複数の学習済みモデル206Cは、それぞれ、平均エネルギーが異なる透過X線を対象に得られた画像データであって、ノイズ分布が既知の画像データを用いて予め構築されている。画像データにおけるX線の平均エネルギーは、それぞれ、画像取得装置1のX線照射器(放射線発生源)50の動作条件あるいは画像取得装置1の撮像条件等を設定することにより、あるいはシミュレーション計算時のX線照射器50の動作条件あるいは撮像条件を設定することにより、予め異なる値に設定されている(動作条件あるいは撮像条件による平均エネルギーの設定方法については後述する。)。つまり、複数の学習済みモデル206Cは、対象物FのX線透過画像を撮像する際のX線照射器(放射線発生源)50の動作条件、あるいは、X線検出カメラ10による撮像条件等を示す条件情報を基に算出された対象物Fを透過したX線に関する平均エネルギーに対応するX線画像である訓練画像を訓練データとして用いて、機械学習によって構築される(構築ステップ)。例えば、本実施形態では、複数の学習済みモデル206Cは、それぞれ、平均エネルギーが、10keV、20keV、30keV、…と10keV刻みの値が設定された複数種類の画像データを複数フレーム(例えば、20,000フレーム)用いて構築されている。
 学習済みモデル206Cの構築に用いられる教師データである画像データは、上述した第1実施形態における作成手順と同様な作成手順によって生成される。
 以下、図26に戻って、制御装置20Cの各機能部の機能の詳細について説明する。
 入力部201Cは、対象物FのX線透過画像を撮像する際のX線照射器(放射線発生源)50の動作条件、あるいは、X線検出カメラ10による撮像条件等を示す条件情報の入力を、画像取得装置1のユーザから受け付ける。動作条件としては、管電圧、ターゲット角度、ターゲットの材料等のうちの全部又は一部が挙げられる。撮像条件を示す条件情報としては、X線照射器50とX線検出カメラ10との間に配置されるフィルタ51,19(対象物の撮像に用いるカメラが備えるフィルタ或いは発生源が備えるフィルタ)の材質及び厚さ、X線照射器50とX線検出カメラ10との距離(FDD)、X線検出カメラ10の窓材の種類、及び、X線検出カメラ10のシンチレータ層11の材料及び厚さに関する情報、X線検出カメラ情報(例えば、ゲイン設定値、回路ノイズ値、飽和電荷量、変換係数値(e-/count)、カメラのラインレート(Hz)もしくはラインスピード(m/min))、対象物の情報等のうちの全部又は一部が挙げられる。入力部201Cは、条件情報の入力を、数値等の情報の直接入力として受け付けてもよいし、予め内部メモリに設定された数値等の情報に対する選択入力として受け付けてもよい。入力部201Cは、上記の条件情報の入力をユーザから受け付けるが、一部の条件情報(管電圧等)を、制御装置20Cによる制御状態の検出結果に応じて取得してもよい。
 算出部202Cは、入力部201Cによって受け付けられた条件情報を基に、画像取得装置1を用いて対象物Fを透過させてX線検出カメラ10によって検出させるX線(放射線)の平均エネルギーの値を算出する。例えば、算出部202Cは、条件情報に含まれる、管電圧、ターゲット角度、ターゲットの材料、フィルタの材質及び厚さ及びその有無、窓材の種類及びその有無、X線検出カメラ10のシンチレータ層11の材料及び厚さ、等の情報に基づいて、X線検出カメラ10で検出されるX線のスペクトルを、例えば公知のTucker等の近似式を用いて算出する。そして、算出部202Cは、X線のスペクトルから、スペクトル強度積分値と光子数積分値とをさらに算出し、スペクトル強度積分値を光子数積分値で除することによりX線の平均エネルギーの値を算出する。
 公知のTuckerの近似式を用いた算出方法について記載する。例えば、算出部202Cは、ターゲットをタングステン、ターゲット角度を25°と特定すると、Em:電子ターゲット衝突時の運動エネルギー、T:ターゲット中の電子運動エネルギー、A:ターゲット物質の原子番号で決まる比例定数、ρ:ターゲットの密度、μ(E):ターゲット物質の線減弱係数、B:緩やかに変化するZとTの関数、C:Thomson-Whiddington定数、θ:ターゲット角度、c:真空中の光速度、を決定することができる。さらに、算出部202Cは、それらを基に上記の式(1)を計算することにより、照射X線スペクトルが算出できる。
 次に、算出部202Cは、フィルタ及び対象物Fを透過してシンチレータに吸収されるX線エネルギースペクトルを上記の式(2)のX線の減弱式を用いて算出できる。X線光子数スペクトルは、このX線エネルギースペクトルを各X線のエネルギーで除することで求まる。算出部202Cは、X線の平均エネルギーを、エネルギー強度の積分値を光子数の積分値で除することにより、上記の式(3)を用いて算出する。上記の計算過程により、算出部202Cは、X線の平均エネルギーを算出する。なお、X線スペクトルの算出に関しては、公知のKramersや、Birchらによる近似式を使用してもよい。
 絞込部203Cは、算出部202Cによって算出された平均エネルギーの値を基に、予め構築された複数の学習済みモデル206Cの中から、学習済みモデルの候補を絞り込む。すなわち、絞込部203Cは、算出された平均エネルギーの値と、複数の学習済みモデル206Cの構築に用いられた画像データにおけるX線の平均エネルギーの値とを比較し、平均エネルギーの値が近い画像データによって構築された複数の学習済みモデル206Cを候補として絞り込む。より具体的には、算出部202Cによって算出された平均エネルギーの値が53keVの場合には、絞込部203Cは、その値との差が所定の閾値(例えば15keV)未満である平均エネルギー値40keV、50keV、60keVの画像データによって構築された学習済みモデル206Cを、学習済みモデルの候補とする。
 選択部204Cは、絞込部203Cによって絞り込まれた候補の中から、最終的に対象物FのX線透過画像のノイズ除去処理に用いる学習済みモデル206Cを選択する。詳細には、選択部204Cは、画像取得装置1において治具を対象にX線を照射して撮像したX線透過画像を取得し、そのX線透過画像の画像特性に基づいて、最終的に用いる学習済みモデル206Cを選択する。このとき、選択部204Cは、X線透過画像の画像特性として、エネルギー特性、ノイズ特性、あるいは、解像度特性等を解析し、その解析結果を基に学習済みモデル206Cを選択する。
 より具体的には、選択部204Cは、治具として、厚さ及び材質が既知であり、X線の平均エネルギーとX線透過率との関係が既知である平板状部材を対象にX線透過画像を取得し、治具を透過したX線像の輝度と空気を透過したX線像の輝度とを比較して、治具における1点(あるいは複数点の平均)のX線の透過率を算出する。例えば、治具を透過したX線像の輝度が5,550であり、空気を透過したX線像の輝度が15,000の場合には、透過率37%と算出する。そして、選択部204Cは、透過率37%から推定される透過X線の平均エネルギー(例えば、50keV)を、治具のX線透過画像のエネルギー特性として特定する。選択部204Cは、特定した平均エネルギーの値に最も近い平均エネルギーの画像データによって構築された学習済みモデル206Cを一つ選択する。
 また、選択部204Cは、治具のX線透過画像のエネルギー特性として、厚さあるいは材質が変化する治具の複数点における特性を解析してもよい。図28は、選択部204Cの解析対象のX線透過画像の一例を示す図である。図28は、厚さがステップ状に変化した形状の治具を対象にしたX線透過画像である。選択部204Cは、このようなX線透過画像から厚さの異なる複数の測定領域(ROI:Region Of Interest)を選択し、複数の測定領域ごとの輝度平均値を解析し、厚さ-輝度の特性グラフをエネルギー特性として取得する。図29には、選択部204Cが取得した厚さ-輝度の特性グラフの一例を示している。
 さらに、選択部204Cは、同様にして、絞込部203Cによって絞り込まれた学習済みモデル206Cの構築に用いた画像データを対象に、厚さ-輝度の特性グラフを取得し、治具を対象に取得した特性グラフと最も近い特性を有する画像データによって構築された学習済みモデル206Cを、最終的な学習済みモデル206Cとして選択する。ただし、この学習済みモデル206Cの構築に用いられた画像データの画像特性は予め制御装置20Cの外部で算出されたものを参照してもよい。このように、複数の測定領域を設定することにより、対象物FのX線透過画像のノイズ除去に最適な学習済みモデルを選択することができる。特に、X線透過画像の測定時のX線スペクトルの違いあるいはフィルタの効果の違いを精度よく推定することが可能となる。
 また、選択部204Cは、治具のX線透過画像のノイズ特性として、複数の測定領域ごとの輝度値とノイズを解析し、輝度-ノイズ比の特性グラフをノイズ特性として取得することもできる。すなわち、選択部204Cは、X線透過画像から厚さあるいは材質の異なる複数の測定領域ROIを選択し、複数の測定領域ROIの輝度値の標準偏差及び輝度値の平均値を解析し、輝度-SNR(S/N比)の特性グラフをノイズ特性として取得する。このとき、選択部204Cは、測定領域ROI毎のSNRを、SNR=(輝度値の平均値)÷(輝度値の標準偏差)によって算出する。図30には、選択部204Cが取得した輝度-SNRの特性グラフの一例を示している。そして、選択部204Cは、取得した特性グラフと最も近いノイズ特性を有する画像データによって構築された学習済みモデル206Cを、最終的な学習済みモデル206Cとして選択する。
 ここで、選択部204Cは、ノイズ特性として、上記の輝度-SNRの特性グラフに代えて、縦軸を輝度値の標準偏差から計算されるノイズとした特性グラフを取得してもよい。このような輝度-ノイズの特性グラフを用いることにより、X線検出カメラ10によって検出される各信号量に対し、各信号量の領域のグラフの傾きから支配的なノイズ要因(ショットノイズ、読み出しノイズ等)を特定し、その特定の結果を基に学習済みモデル206Cを選択できる。
 図31は、選択部204Cによる画像特性に基づいた学習済みモデルの選択機能を説明するための図である。図31において、(a)部は、複数の学習済みモデル206Cの構築に用いられたそれぞれの画像データの輝度-SNRの特性グラフG,G,Gを示し、(b)部には、これらの特性グラフG,G,Gに加えて、治具を撮像したX線透過画像の輝度-SNRの特性グラフGを示している。このような特性グラフG,G,G,Gを対象にした場合には、選択部204Cは、特性グラフGの特性に最も近い特性グラフGの画像データによって構築された学習済みモデル206Cを選択するように機能する。選択の際には、選択部204Cは、各特性グラフG,G,Gと特性グラフGと間で、一定間隔の輝度値毎のSNRの誤差を計算し、それらの誤差の平均二乗誤差(RMSE:Root Mean Squared Error)を計算し、平均二乗誤差が最も小さい特性グラフG,G,Gに対応した学習済みモデル206Cを選択する。また、選択部204Cは、エネルギー特性を用いて選択する場合にも、同様にして学習済みモデル206Cを選択できる。
 選択部204Cは、治具のX線透過画像を対象に、複数の学習済みモデルを適用してノイズ除去処理を実行した後の画像の特性を基に、学習済みモデル206Cを選択することもできる。
 例えば、選択部204Cは、様々な解像度のチャートを有する治具を撮像したX線透過画像を用いて、その画像に複数の学習済みモデル206Cを適用し、その結果生成されたノイズ除去後の画像を評価する。そして、選択部204Cは、ノイズ除去処理前後における解像度の変化が最も小さい画像に用いられた学習済みモデル206Cを選択する。図32には、解像度の評価に用いられるX線透過画像の一例を示している。このX線透過画像においては、一方向に沿ってステップ状に解像度が変化するチャートが撮像対象とされている。X線透過画像の解像度は、MTF(Modulation Transfer Function)又はCTF(Contrast Transfer Function)を用いて測定することができる。
 上記の解像度の変化の評価以外にも、選択部204Cは、ノイズ除去後の画像の輝度-ノイズ比の特性を評価し、その特性が最も高い画像の生成に用いられた学習済みモデル206Cを選択してもよい。図33には、輝度-ノイズ比の評価に用いられる治具の構造の一例を示している。例えば、治具として、厚さが一方向にステップ状に変化する部材P1中に様々な材質及び様々な大きさを有する異物P2が点在したものが用いられうる。図34は、図33の治具を対象に得られたノイズ除去処理後のX線透過画像を示している。選択部204Cは、X線透過画像中において異物P2の像を含む画像領域R1と、その領域R1の近傍の異物P2の像を含まない画像領域R2とを選択し、画像領域R1における輝度の最小値LMINと、画像領域R2における輝度の平均値LAVEと、画像領域R2における輝度の標準偏差LSDとを計算する。そして、選択部204Cは、下記式;
CNR=(LAVE-LMIN)/LSD
を用いて、輝度-ノイズ比CNRを算出する。さらに、選択部204Cは、複数の学習済みモデル206Cの適用後のX線透過画像のそれぞれを対象に輝度-ノイズ比CNRを算出し、輝度-ノイズ比CNRが最も高いX線透過画像の生成に用いられた学習済みモデル206Cを選択する。
 または、選択部204Cは、画像領域R1における輝度の平均値LAVE_R1と、画像領域R2における輝度の平均値LAVE_R2と、画像領域R2における輝度の標準偏差LSDとを基に、下記式により計算してもよい。
CNR=(LAVE_R1-LMIN_R2)/LSD
 処理部205Cは、対象物Fを対象に取得されたX線透過画像に、選択部204Cによって選択された学習済みモデル206Cを適用して、ノイズを除去する画像処理を実行することにより出力画像を生成する。そして、処理部205Cは、生成した出力画像を表示装置30等に出力する。
 次に、第2実施形態に係る画像取得装置1を用いた対象物FのX線透過像の観察処理の手順、すなわち、第2実施形態に係る放射線画像取得方法の流れについて説明する。図35は、画像取得装置1による観察処理の手順を示すフローチャートである。
 まず、制御装置20Cによって、画像取得装置1のオペレータ(ユーザ)から、X線照射器50の動作条件、あるいはX線検出カメラ10による撮像条件等を示す条件情報の入力が受け付けられる(ステップS1)。次に、制御装置20Cによって、条件情報を基に、X線検出カメラ10によって検出されるX線の平均エネルギーの値が算出される(ステップS2)。
 さらに、制御装置20Cによって、制御装置20Cに格納されている学習済みモデル206Cの構築に用いられた画像データにおけるX線の平均エネルギーの値が特定される(ステップS3)。その後、制御装置20Cに格納されている全ての学習済みモデル206Cに関して、X線の平均エネルギーの値の特定が繰り返される(ステップS4)。
 次に、制御装置20Cによって、算出したX線の平均エネルギーの値が比較されることにより、複数の学習済みモデル206Cの候補が絞り込まれる(ステップS5)。さらに、画像取得装置1において治具がセットされてその治具が撮像されることにより、治具のX線透過画像が取得される(ステップS6)。
 その後、制御装置20Cにより、治具のX線透過画像の画像特性(X線の平均エネルギーの値、厚さ-輝度の特性、輝度-ノイズ比の特性、輝度-ノイズの特性、解像度変化の特性等)が取得される(ステップS7)。そして、制御装置20Cにより、取得した画像特性を基に、最終的な学習済みモデル206Cが選択される(ステップS8)。
 さらに、画像取得装置1において対象物Fがセットされて対象物Fが撮像されることにより、対象物FのX線透過画像が取得される(ステップS9)。次に、制御装置20Cにより、最終的に選択した学習済みモデル206Cを対象物FのX線透過画像に適用することによって、X線透過画像を対象にノイズ除去処理が実行される(ステップS10)。最後に、制御装置20Cにより、ノイズ除去処理が施されたX線透過画像である出力画像が、表示装置30に出力される(ステップS11)。
 以上説明した画像取得装置1によっても、X線透過画像において信号成分を大きくしつつノイズ成分を除去することができ、X線透過画像におけるS/N比を効果的に向上させることができる。また、対象物FのX線透過画像を取得する際のX線の発生源の動作条件あるいはX線透過画像の撮像条件を基に、対象物Fを透過したX線の平均エネルギーが算出される。そして、その平均エネルギーを基に、予め構築された学習済みモデル206Cの中からノイズ除去に用いる学習済みモデル206Cの候補が絞り込まれる。これにより、撮像対象のX線の平均エネルギーに対応した学習済みモデル206Cがノイズ除去に用いられるので、X線透過画像における輝度とノイズとの関係に対応したノイズ除去が実現できる。その結果、X線透過画像におけるノイズを効果的に除去でき、例えば、異物検出性能を向上させることができる。特に、X線透過画像は、管電圧、フィルタ、シンチレータ、X線検出カメラの条件(ゲイン設定値、回路ノイズ値、飽和電荷量、変換係数値(e-/count)、カメラのラインレート)、対象物等の違いによってノイズの態様が変化する。そのため、機械学習によってノイズ除去を実現しようとする場合、様々な条件で学習させた複数の学習モデルを用意しておく必要がある。従来は、X線透過画像の測定時の条件に合わせて複数の学習モデルの中からノイズの態様に合った学習モデルを選択することは実現されていなかった。本実施形態によれば、撮像対象のX線の平均エネルギーに対応した学習済みモデル206Cが選択されることで、常にノイズの態様に合った学習モデルの選択が実現される。
 一般に、X線透過画像においては、X線発生由来のノイズが含まれている。X線透過画像のS/N比を向上させるためにX線量を増加させることも考えられるが、その場合は、X線量を増加させるとセンサの被ばく量が増加しセンサの寿命が短くなる、X線発生源の寿命が短くなる、という問題があり、S/N比の向上と長寿命化との両立が困難である。本実施形態では、X線量を増加させる必要はないので、S/N比の向上と長寿命化の両立が可能である。
 また、本実施形態の制御装置20Cは、選択した学習済みモデル206Cを用いて対象物FのX線透過画像からノイズを除去する画像処理を実行する機能を有する。このような機能により、X線透過画像における輝度とノイズとの関係に対応したノイズ除去が実現でき、X線透過画像におけるノイズを効果的に除去できる。
 また、本実施形態の制御装置20Cは、選択情報から算出されたX線の平均エネルギーの値と、学習済みモデル206Cの構築に用いられた画像データから特定される平均エネルギーの値とを比較することにより、学習済みモデルの候補を絞り込む機能を有している。このような機能により、X線透過画像における輝度とノイズとの関係に対応したノイズ除去が確実に実現できる。
 さらに、本実施形態の制御装置20Cは、治具のX線透過画像の画像特性に基づいて候補から学習済みモデル206Cを選択する機能を有している。このような機能により、対象物FのX線透過画像のノイズ除去に最適な学習済みモデル206Cを選択できる。その結果、X線透過画像における輝度とノイズとの関係に対応したノイズ除去がより確実に実現できる。
[第2実施形態の変形例]
 上記第2実施形態の制御装置20Cは、条件情報から算出したX線の平均エネルギーの値を基に学習済みモデル206Cの候補を選択していたが、X線検出カメラ10の性能劣化、X線照射器50の出力変動あるいは性能劣化に対応した機能を有していてもよい。
 図36は、第2実施形態の変形例に係る制御装置20Dの機能構成を示すブロック図である。制御装置20Dは、上記第2実施形態に係る制御装置20Cに比較して、測定部207Cを有する点と、算出部202D及び絞込部203Dの機能とが異なっている。
 制御装置20Cにおいては、X線検出カメラ10の性能劣化及びX線照射器50の出力変動あるいは性能劣化は無いものとして、X線の平均エネルギーからX線透過画像における輝度とノイズとの関係が推定できるという前提で、学習済みモデル206Cを絞り込んでいる。これに対して、本変形例に係る制御装置20Dにおいては、X線検出カメラ10の性能劣化、X線照射器50の出力変動、あるいはその性能劣化を考慮して、X線変換係数を算出し、X線変換係数を基に学習済みモデル206Cを絞り込む機能を有する。X線変換係数は、X線がシンチレータで可視光に変換された後にカメラのセンサで電子(電気信号)に変換されるまでの効率を示すパラメータである。
 一般に、X線変換係数Fは、X線の平均エネルギーをE[keV]とし、シンチレータ発光量をEM[photon/keV]、センサにおけるカップリング効率をC、センサの量子効率をQEとすると、下記式;
=E×EM×C×QE
により計算できる。また、X線透過画像におけるS/N比(SNR)は、X線変換係数Fと、X線フォトン数Nと、カメラの読み出しノイズNrとを用いて、下記式;
SNR=FTNP/{(FTNP+Nr2)1/2}
より求められることから、X線変換係数Fを基に、カメラの性能劣化を考慮した上でのX線透過画像における輝度とノイズとの関係が推定できる。
 制御装置20Dの測定部207Cは、シンチレータ層11の性能劣化としての発光量EMの低下量、スキャンカメラ12の性能劣化としてのセンサの量子効率QEの低下量、X線照射器50の出力変動及び性能劣化としての平均エネルギーEの変化量を測定する機能を有する。例えば、測定部207Cは、シンチレータ層11の性能劣化の無い状態(新品時での状態)と、現在のシンチレータ層11との間の発光量の低下量を測定してその低下量から現在の発光量EMを推定する。また、測定部207Cは、スキャンカメラ12の性能劣化の無い状態(新品時での状態)と、現在のスキャンカメラ12との間の輝度低下量を測定してその低下量から現在の量子効率QEを推定する。また、測定部207Cは、X線照射器50の性能劣化の無い状態(新品時での状態)と、現在のX線照射器50との間の平均エネルギーの変化量から現在の平均エネルギーEを推定する。平均エネルギーEは、厚さ及び材質が既知であり、X線の平均エネルギーとX線透過率との関係が既知である平板状部材の撮像データから求めたり、厚さあるいは材質が変化する治具の複数点における撮像データから求めるなどしてもよい。
 制御装置20Dの算出部202Dは、算出したX線の平均エネルギーEと、測定部207Cによって推定された発光量EM及び量子効率QEとを用いてX線変換係数Fを算出する。制御装置20Dの絞込部203Dは、算出したX線変換係数Fと、学習済みモデル206Cの構築に用いられた画像データにおけるX線変換係数Fとを比較することにより、学習済みモデル206Cの候補を絞り込む機能を有する。
 また、上記変形例の制御装置20Dは、学習済みモデルの候補を絞り込んだ後に、治具を撮像して得られた画像特性を基に学習済みモデルを選択していたが、治具の撮像を行うことなく、対象物のX線透過画像に対するノイズ除去処理を実行してもよい。図37は、別の変形例に係る画像取得装置1による観察処理の手順を示すフローチャートである。このように、図35におけるステップS6~S8の処理を省略して、平均エネルギーを基に絞り込んだ学習済みモデルを用いてノイズ除去処理を実行することもできる。
[第3実施形態]
 図38は、第3実施形態に係る制御装置20Eの機能構成を示すブロック図である。制御装置20Eは、取得部201E、特定部202E、選択部204E、及び処理部205Eを備える。
 また、制御装置20Eには、X線透過画像を対象にノイズ除去処理を実行させる学習済みモデル206Eが予め複数格納されている。複数の学習済みモデル206Eは、それぞれ、画像データを教師データとして予め構築された機械学習による学習モデルである。機械学習には、教師あり学習、深層学習(ディープラーニング)、或いは強化学習、ニューラルネットワーク学習などがある。本実施形態では、ディープラーニングのアルゴリズムの一例として、Kai Zhangらの論文“Beyond a Gaussian Denoiser: Residual Learning of Deep CNN for Image Denoising”に記載された2次元の畳み込みニューラルネットワークが採用される。複数の学習済みモデル206Eは、外部のコンピュータ等により生成されて制御装置20Eにダウンロードされてもよいし、制御装置20E内で生成されてもよい。
 図39には、学習済みモデル206Eの構築に用いられる教師データである画像データの一例を示す。教師データとしては、様々な厚さ、様々な材質、及び様々な解像度のパターンを撮像対象にしたX線透過画像が用いられうる。図39に示す例は、鶏肉を対象に生成されたX線透過画像の例である。この画像データは、実際に画像取得装置1を用いて複数種類の対象物を対象に生成されたX線透過画像を用いてもよいし、シミュレーション計算によって生成された画像データを用いてもよい。X線透過画像については、画像取得装置1とは異なる装置を用いて取得したものでもかまわない。また、X線透過画像とシミュレーション計算によって生成された画像データを組み合わせて用いてもよい。複数の学習済みモデル206Eは、それぞれ、平均エネルギーが異なる透過X線を対象に得られた画像データであって、ノイズ分布が既知の画像データを用いて予め構築されている。画像データにおけるX線の平均エネルギーは、それぞれ、画像取得装置1のX線照射器(放射線発生源)50の動作条件あるいは画像取得装置1の撮像条件等を設定することにより、あるいはシミュレーション計算時のX線照射器50の動作条件あるいは撮像条件を設定することにより、予め異なる値に設定されている。つまり、複数の学習済みモデル206Eは、対象物FのX線透過画像を撮像する際のX線照射器(放射線発生源)50の動作条件、あるいは、X線検出カメラ10による撮像条件等を示す条件情報を基に算出された対象物Fを透過したX線に関する平均エネルギーに対応するX線画像である訓練画像を訓練データとして用いて、機械学習によって構築される(構築ステップ)。例えば、本実施形態では、複数の学習済みモデル206Eは、それぞれ、平均エネルギーが、10keV、20keV、30keV、…と10keV刻みの値が設定された複数種類の画像データを複数フレーム(例えば、20,000フレーム)用いて構築されている。
 学習済みモデル206Eの構築に用いられる教師データである画像データは、上述した第1実施形態における作成手順と同様な作成手順によって生成される。
 以下、図38に戻って、制御装置20Eの各機能部の機能の詳細について説明する。
 取得部201Eは、画像取得装置1を用いて治具及び対象物Fを対象にX線を照射して撮像したX線透過画像を取得する。治具としては、厚さ及び材質が既知であり、X線の平均エネルギーとX線透過率との関係が既知である平板状部材、あるいは、様々な解像度で撮像されるチャートを有する治具が用いられる。すなわち、取得部201Eは、対象物Fの観察処理に先立って画像取得装置1を用いて撮像された治具のX線透過画像を取得する。そして、取得部201Eは、治具のX線透過画像を基に学習済みモデル206Eが選択された後のタイミングで、画像取得装置1を用いて撮像された対象物FのX線透過画像を取得する。ただし、治具及び対象物FのX線透過画像の取得タイミングは上記には限定されず、同時であってもよいし逆のタイミングであってもよい。
 特定部202Eは、取得部201Eによって取得された治具のX線透過画像の画像特性を特定する。具体的には、選択部204Eは、X線透過画像の画像特性として、エネルギー特性、ノイズ特性、解像度特性、あるいは周波数特性等を特定する。
 例えば、特定部202Eは、治具として、厚さ及び材質が既知である平板状部材が用いられた場合には、治具を透過したX線像の輝度と空気を透過したX線像の輝度とを比較して、治具における1点(あるいは複数点の平均)のX線の透過率を算出する。例えば、治具を透過したX線像の輝度が5,550であり、空気を透過したX線像の輝度が15,000の場合には、透過率37%と算出する。そして、特定部202Eは、透過率37%から推定される透過X線の平均エネルギー(例えば、50keV)を、治具のX線透過画像のエネルギー特性として特定する。
 また、特定部202Eは、治具のX線透過画像のエネルギー特性として、厚さあるいは材質が変化する治具の複数点における特性を解析してもよい。図40は、特定部202Eの解析対象のX線透過画像の一例を示す図である。図40は、厚さがステップ状に変化した形状の治具を対象にしたX線透過画像である。特定部202Eは、このようなX線透過画像から厚さの異なる複数の測定領域(ROI:Region Of Interest)を選択し、複数の測定領域ごとの輝度平均値を解析し、厚さ-輝度の特性グラフをエネルギー特性として取得する。図41には、特定部202Eが取得した厚さ-輝度の特性グラフの一例を示している。
 また、特定部202Eは、治具のX線透過画像のノイズ特性として、複数の測定領域ごとの輝度値とノイズを解析し、輝度-ノイズ比の特性グラフをノイズ特性として取得することもできる。すなわち、特定部202Eは、X線透過画像から厚さあるいは材質の異なる複数の測定領域ROIを選択し、複数の測定領域ROIの輝度値の標準偏差及び輝度値の平均値を解析し、輝度-SNR(S/N比)の特性グラフをノイズ特性として取得する。このとき、特定部202Eは、測定領域ROI毎のSNRを、SNR=(輝度値の平均値)÷(輝度値の標準偏差)によって算出する。図42には、特定部202Eが取得した輝度-SNRの特性グラフの一例を示している。ここで、特定部202Eは、ノイズ特性として、上記の輝度-SNRの特性グラフに代えて、縦軸を輝度値の標準偏差から計算されるノイズとした特性グラフを取得してもよい。
 また、特定部202Eは、チャートを有する治具が用いられた場合には、治具のX線透過画像における解像度の分布を解像度特性として取得することもできる。さらに、特定部202Eは、治具のX線透過画像に対して複数の学習済みモデル206Eを適用してノイズ除去処理を施した後の画像に関しても、解像度特性を取得する機能を有する。図43には、解像度の評価に用いられるX線透過画像の一例を示している。このX線透過画像においては、一方向に沿ってステップ状に解像度が変化するチャートが撮像対象とされている。X線透過画像の解像度は、MTF(Modulation Transfer Function)又はCTF(Contrast Transfer Function)を用いて測定することができる。
 再び図38を参照して、選択部204Eは、特定部202Eによって取得された画像特性を基に、制御装置20E内に格納された複数の学習済みモデル206Eの中から、最終的に対象物FのX線透過画像のノイズ除去処理に用いる学習済みモデル206Eを選択する。すなわち、選択部204Eは、特定部202Eによって特定された画像特性と、複数の学習済みモデル206Eの構築に用いられた画像データから特定された画像特性とを比較し、両者が類似する学習済みモデル206Eを選択する。
 例えば、選択部204Eは、特定部202Eが特定した透過X線の平均エネルギーの値に最も近い平均エネルギーの画像データによって構築された学習済みモデル206Eを一つ選択する。
 また、選択部204Eは、特定部202Eによる特定方法と同様にして、複数の学習済みモデル206Eの構築に用いた画像データを対象に、厚さ-輝度の特性グラフを取得し、治具を対象に取得した厚さ-輝度の特性グラフと最も近い特性を有する画像データによって構築された学習済みモデル206Eを、最終的な学習済みモデル206Eとして選択する。ただし、学習済みモデル206Eの構築に用いられた画像データの画像特性は予め制御装置20Eの外部で算出されたものを参照してもよい。このように、複数の測定領域を設定して得られた画像特性を用いることにより、対象物FのX線透過画像のノイズ除去に最適な学習済みモデルを選択することができる。特に、X線透過画像の測定時のX線スペクトルの違いあるいはフィルタの効果の違いを精度よく推定することが可能となる。
 また、選択部204Eは、特定部202Eによって取得された輝度-ノイズ比の特性と最も近い輝度-ノイズ比の特性を有する画像データによって構築された学習済みモデル206Eを、最終的な学習済みモデル206Eとして選択してもよい。ただし、学習済みモデル206Eの構築に用いられた画像データの画像特性は、選択部204Eが画像データから取得してもよいし、予め制御装置20Eの外部で算出されたものを参照してもよい。ここで、選択部204Eは、ノイズ特性として、輝度-ノイズ比の特性に代えて、輝度-ノイズの特性を用いて学習済みモデル206Eを選択してもよい。このような輝度-ノイズの特性を用いることにより、X線検出カメラ10によって検出される各信号量に対し、各信号量の領域のグラフの傾きから支配的なノイズ要因(ショットノイズ、読み出しノイズ等)を特定し、その特定の結果を基に学習済みモデル206Eを選択できる。
 図44は、選択部204Eによる画像特性に基づいた学習済みモデルの選択機能を説明するための図である。図44において、(a)部は、複数の学習済みモデル206Eの構築に用いられたそれぞれの画像データの輝度-SNRの特性グラフG,G,Gを示し、(b)部には、これらの特性グラフG,G,Gに加えて、治具を撮像したX線透過画像の輝度-SNRの特性グラフGを示している。このような特性グラフG,G,G,Gを対象にした場合には、選択部204Eは、特性グラフGの特性に最も近い特性グラフGの画像データによって構築された学習済みモデル206Eを選択するように機能する。選択の際には、選択部204Eは、各特性グラフG,G,Gと特性グラフGと間で、一定間隔の輝度値毎のSNRの誤差を計算し、それらの誤差の平均二乗誤差(RMSE:Root Mean Squared Error)を計算し、平均二乗誤差が最も小さい特性グラフG,G,Gに対応した学習済みモデル206Eを選択する。また、選択部204Eは、エネルギー特性を用いて選択する場合にも、同様にして学習済みモデル206Eを選択できる。
 選択部204Eは、治具のX線透過画像を対象に、複数の学習済みモデルを適用してノイズ除去処理を実行した後の画像の特性を基に、特性が相対的に優れた画像の生成に用いられた学習済みモデル206Eを選択することもできる。
 例えば、選択部204Eは、様々な解像度のチャートを有する治具を撮像したX線透過画像を用いて、その画像に複数の学習済みモデル206Eを適用し、その結果生成されたノイズ除去後の画像の解像度特性を評価する。そして、選択部204Eは、ノイズ除去処理前後における各分布の解像度の変化が最も小さい画像に用いられた学習済みモデル206Eを選択する。
 上記の解像度の変化の評価以外にも、選択部204Eは、ノイズ除去後の画像の輝度-ノイズ比の特性を評価し、その特性が最も高い画像の生成に用いられた学習済みモデル206Eを選択してもよい。図45には、輝度-ノイズ比の評価に用いられる治具の構造の一例を示している。例えば、治具として、厚さが一方向にステップ状に変化する部材P1中に様々な材質及び様々な大きさを有する異物P2が点在したものが用いられうる。図46は、図45の治具を対象に得られたノイズ除去処理後のX線透過画像を示している。選択部204Eは、X線透過画像中において異物P2の像を含む画像領域R1と、その領域R1の近傍の異物P2の像を含まない画像領域R2とを選択し、画像領域R1における輝度の最小値LMINと、画像領域R2における輝度の平均値LAVEと、画像領域R2における輝度の標準偏差LSDとを計算する。そして、選択部204Eは、下記式;
CNR=(LAVE-LMIN)/LSD
を用いて、輝度-ノイズ比CNRを算出する。さらに、選択部204Eは、複数の学習済みモデル206Eの適用後のX線透過画像のそれぞれを対象に輝度-ノイズ比CNRを算出し、輝度-ノイズ比CNRが最も高いX線透過画像の生成に用いられた学習済みモデル206Eを選択する。
 または、選択部204Eは、画像領域R1における輝度の平均値LAVE_R1と、画像領域R2における輝度の平均値LAVE_R2と、画像領域R2における輝度の標準偏差LSDとを基に、下記式により計算してもよい。
CNR=(LAVE_R1-LMIN_R2)/LSD
 処理部205Eは、対象物Fを対象に取得されたX線透過画像に、選択部204Eによって選択された学習済みモデル206Eを適用して、ノイズを除去する画像処理を実行することにより出力画像を生成する。そして、処理部205Eは、生成した出力画像を表示装置30等に出力する。
 次に、第3実施形態に係る画像取得装置1を用いた対象物FのX線透過像の観察処理の手順、すなわち、第3実施形態に係る放射線画像取得方法の流れについて説明する。図47は、画像取得装置1による観察処理の手順を示すフローチャートである。
 まず、画像取得装置1のオペレータ(ユーザ)によって、X線照射器50の管電圧あるいはX線検出カメラ10におけるゲイン等の画像取得装置1における撮像条件が設定される(ステップS1E)。次に、画像取得装置1に治具がセットされて、制御装置20Eによって治具を対象としてX線透過画像が取得される(ステップS2E)。このとき、複数種類の治具のX線透過画像が順次取得されてもよい。
 それに応じて、制御装置20Eによって、治具のX線透過画像の画像特性(エネルギー特性、ノイズ特性、及び解像度特性)が特定される(ステップS3E)。さらに、制御装置20Eによって、治具のX線透過画像に対して複数の学習済みモデル206Eが適用され、複数の学習済みモデル206Eの適用後のそれぞれのX線透過画像の画像特性(解像度特性あるいは輝度-ノイズ比の値、等)が特定される(ステップS4E)。
 次に、制御装置20Eによって、治具のX線透過画像のエネルギー特性と学習済みモデル206Eの構築に用いられた画像データのエネルギー特性との比較結果、及び、治具のX線透過画像の解像度特性の学習済みモデルの適用前後における変化度合いを基に、学習済みモデル206Eが選択される(ステップS5E)。ここでは、治具のX線透過画像のノイズ特性と学習済みモデル206Eの構築に用いられた画像データのノイズ特性との比較結果、及び、治具のX線透過画像の解像度特性の学習済みモデルの適用前後における変化状態を基に、学習済みモデル206Eが選択されてもよい。また、ステップS5Eでは、上記処理に代えて、治具のX線透過画像の学習済みモデルの適用後における輝度-ノイズ比CNRが最も高い学習済みモデル206Eが選択されてもよい。
 さらに、画像取得装置1において対象物Fがセットされて対象物Fが撮像されることにより、対象物FのX線透過画像が取得される(ステップS7E)。次に、制御装置20Eにより、最終的に選択した学習済みモデル206Eを対象物FのX線透過画像に適用することによって、X線透過画像を対象にノイズ除去処理が実行される(ステップS8E)。最後に、制御装置20Eにより、ノイズ除去処理が施されたX線透過画像である出力画像が、表示装置30に出力される(ステップS9E)。
 以上説明した画像取得装置1によっても、X線透過画像において信号成分を大きくしつつノイズ成分を除去することができ、X線透過画像におけるS/N比を効果的に向上させることができる。また、治具のX線透過画像の画像特性が特定され、その画像特性を基に、予め構築された学習済みモデルの中からノイズ除去に用いる学習済みモデルが選択される。これにより、画像取得装置1におけるX線照射器50の動作条件等により変化するX線透過画像の特性を推定でき、この推定結果に応じて選択された学習済みモデル206Eがノイズ除去に用いられるので、X線透過画像における輝度とノイズとの関係に対応したノイズ除去が実現できる。その結果、X線透過画像におけるノイズを効果的に除去できる。
 一般に、X線透過画像においては、X線発生由来のノイズが含まれている。X線透過画像のS/N比を向上させるためにX線量を増加させることも考えられるが、その場合は、X線量を増加させるとセンサの被ばく量が増加しセンサの寿命が短くなる、X線発生源の寿命が短くなる、という問題があり、S/N比の向上と長寿命化との両立が困難である。本実施形態では、X線量を増加させる必要はないので、S/N比の向上と長寿命化の両立が可能である。
 本実施形態では、学習済みモデルの選択において、治具のX線透過画像の画像特性と、学習済みモデルの構築に用いられた画像データの画像特性とが比較されている。これにより、治具のX線透過画像の画像特性に対応した画像データによって構築された学習済みモデル206Eが選択されるので、対象物FのX線透過画像におけるノイズを効果的に除去できる。
 また、本実施形態では、治具のX線透過画像に対して複数の学習済みモデル206Eを適用した画像の画像特性を用いて、学習済みモデルが選択されている。この場合、実際に複数の学習済みモデル206Eを適用した治具のX線透過画像の画像特性により、学習済みモデル206Eが選択されるので、対象物FのX線透過画像におけるノイズを効果的に除去できる。
 特に、本実施形態では、画像特性としてエネルギー特性又はノイズ特性が用いられている。この場合、画像取得装置1の撮像条件によって変化する治具のX線透過画像のエネルギー特性又はノイズ特性と類似した特性の画像によって構築された学習済みモデル206Eを選択することとなる。その結果、画像取得装置1の条件変化に対応した対象物FのX線透過画像におけるノイズ除去が可能となる。
 本実施形態では、画像特性として、解像度特性又は輝度-ノイズ比も用いられている。このような構成によれば、選択した学習済みモデル206Eを適用することにより、解像度特性又は輝度-ノイズ比が良好なX線透過画像を得ることができるようになる。その結果、画像取得装置1の条件変化に対応した対象物のX線透過画像におけるノイズ除去が可能となる。
[第1~3実施形態に関するその他の変形例]
 第1~第3実施形態に係る画像取得装置1は、以下のような構成のスキャンカメラ12A及びシンチレータ層11Aを備えていてもよい。図48は、変形例にかかるスキャンカメラ12Aの構成を示す平面図である。図49は、スキャンカメラ12A上に配置される変形例に係るシンチレータ層11Aの構成を示す図であり、上方に搬送方向TDに沿った断面図、下方に基板71の画素72側の面から見た平面図を示している。
 スキャンカメラ12Aは、基板71上に、搬送方向TDに略直交する方向に沿って配列されたN個(Nは、2以上の整数)の画素72を有する。例えば、画素数Nは、200以上30,000以下の任意の整数である。シンチレータ層11は、搬送方向TDに略直交する方向に沿ってN個で並ぶ画素72に対応して分離して配置されるP個(Pは2以上の整数)の矩形状のシンチレータ部11aと、それらのシンチレータ部11aの間に位置する分離部11bとが形成されてなる。
 上記構成のスキャンカメラ12Aに備えられる読み出し回路73は、センサ制御部13による制御に応じて、N個の画素72から所定の検出周期の間隔で出力される検出信号を順次あるいは同時に受け、N個の画素72からの検出信号を組み合わせて、搬送方向TDに直交する対象物Fの1ラインの検出信号として、外部に出力する。加えて、読み出し回路73は、所定の検出周期をずらしてN個の画素72から順次あるいは同時に出力される検出信号を対象に処理を行うことにより、搬送方向TDに直交する対象物Fの次の1ラインの検出信号を出力する。同様にして、読み出し回路73は、搬送方向TDに直交する対象物Fの複数ラインの検出信号を順次あるいは同時に出力する。
 上記の所定の検出周期は、例えば、ベルトコンベア60の速度、X線照射器50とベルトコンベア60上の対象物Fとの距離(FOD(Focus Object Distance:線源物体間距離))、X線照射器50とスキャンカメラ12との距離(FDD(Focus Detector Distance:線源センサ間距離))、及び対象物F上の画素72の検出間隔を基に、設定されてもよい。
 一般的に、シンチレーション光を遮蔽あるいは反射する分離部11bを形成することにより、シンチレーション光が隣のシンチレータ部に入り込むことを防ぐことができ、解像度の低下を防ぐことが可能となる。しかしながら、分離部11bが存在する部分は、入射するX線からシンチレーション光への変換に寄与していないため、分離部11bの大きさ(面積)に応じて、検出信号が小さくなる(減少する)という問題もあった。検出信号の低下は、S/N比の低下を意味する。そのため、分離部11bを有するシンチレータによって、解像度の向上とS/N比の向上を両立させることは、困難とされていた。これに対し、本変形例によれば、画素72に対応して分離されたシンチレータ部11aを用いることによりX線画像の解像度を高めることができるとともに、X線画像におけるS/N比を効果的に向上させることができる。
 また、別の変形例として、制御装置20は、X線画像を学習済モデルに入力させてノイズ除去処理を実行させる代わりに、X線画像に対してフィルタ処理を施してノイズ除去処理を実行してもよい。例えば、制御装置20は、このようなフィルタ処理としてエッジ保存型フィルタ処理を実行する。さらに詳細には、制御装置20は、エッジ保存型フィルタ処理として、メディアンフィルタ、バイラテラルフィルタ、NLM(Non Local Mean)フィルタ、トータルバリエーション(Total Variation)フィルタ、BM3D等を用いた処理を実行する。このとき、制御装置20は、複数種類のフィルタ処理を組み合わせて実行してもよい。
 上記別の変形例によれば、X線画像においてノイズ成分を適切に除去することができ、放射線画像におけるS/N比を一層向上させることができる。具体的には、スキャンカメラ12及びシンチレータ層11を用いてX線画像を取得し、エッジ保存型フィルタ処理を用いたノイズ除去処理を施した場合は、スキャンカメラ12の全体を一体で覆うシンチレータを用いてX線画像を取得し、ノイズ除去処理を施さない場合に比較して、CNRが約2倍に改善されるとともに、閾値処理を行って生成した二値化画像において擬似信号が十分に除去されることが分かった。これにより、本変形例によれば、異物検査の用途においては、異物どうしが交わって検出されることを防止できる。
 また、上記別の変形例にかかる制御装置20は、X線画像に対してフィルタ処理に加えてエッジ強調処理を施してもよい。例えば、制御装置20は、このようなエッジ強調処理として、エッジ強調フィルタを用いた処理、アンシャープマスク処理等を実行する。このとき、制御装置20は、複数種類の処理を組み合わせて実行してもよい。この場合、X線画像において、S/N比の向上に加えて、コントラストを向上させることができる。具体的には、スキャンカメラ12及びシンチレータ層11を用いてX線画像を取得し、エッジ保存型フィルタ処理及びエッジ強調処理の両方を施した場合は、スキャンカメラ12の全体を一体で覆うシンチレータを用いてX線画像を取得し、ノイズ除去処理を施さない場合に比較して、CNRが約4倍に改善されるとともに、閾値処理を行って生成した二値化画像において擬似信号が十分に除去されることが分かった。これにより、本変形例によっても、異物検査の用途においては、異物どうしが交わって検出されることを防止できる。
 ここで、本実施形態では、撮像装置は、一の方向に沿って配列されたM個(Mは2以上の整数)の画素を有する画素ラインが、一の方向に直交する方向にN列(Nは2以上の整数)配列されて構成され、画素毎に光に関する検出信号を出力する検出素子と、検出素子のN列の画素ライン毎に、M個の画素のうちの少なくとも2個の画素から出力される検出信号を加算処理し、加算処理したN個の検出信号を出力することにより、放射線画像を出力する読出回路と、を含む、ことが好適である。また、本実施形態では、撮像装置は、一の方向に沿って配列されたM個(Mは2以上の整数)の画素を有する画素ラインが、一の方向に直交する方向にN列(Nは2以上の整数)配列されて構成され、画素毎に光に関する検出信号を出力する検出素子を含み、取得するステップでは、検出素子のN列の画素ライン毎に、M個の画素のうちの少なくとも2個の画素から出力される検出信号を加算処理し、加算処理したN個の検出信号を出力することにより、放射線画像を出力する、ことが好適である。
 このような構成の場合、対象物を透過した放射線に応じたシンチレーション光が、対象物のスキャンの方向に配列されたM個の画素を有する画素ラインがN列で配列された検出素子によって検出され、画素ライン毎に出力されたM個の画素の検出信号のうちの少なくとも2個の画素の検出信号が加算処理され、加算処理されたN個の検出信号が順次出力されることにより、放射線画像が出力される。これにより、放射線画像において信号成分を増加させることで放射線画像におけるS/N比を効果的に向上させることができる。
 さらに、上記画像処理モジュールは、放射線画像を予め画像データを用いて機械学習によって構築された学習済みモデルに入力させて、放射線画像からノイズを除去するノイズ除去処理を実行する、ことも好適である。さらに、上記実行するステップでは、放射線画像を予め画像データを用いて機械学習によって構築された学習済みモデルに入力させて、放射線画像からノイズを除去するノイズ除去処理を実行する、ことも好適である。この場合、放射線画像においてノイズ成分を適切に除去することができ、放射線画像におけるS/N比を一層向上させることができる。
 また、本実施形態では、学習済みモデルは、所定の構造体の放射線画像に対し正規分布に沿ったノイズ値を付加して得られた画像データを教師データとした機械学習によって構築される、ことが好適である。これにより、学習済みモデルの構築に用いられる教師データである画像データを用意することが容易となり、学習済みモデルを効率的に構築することができる。
 また、上記学習済みモデルは、シンチレータ層を用いて得られた放射線画像を教師データとした機械学習によって構築される、ことも好適である。こうすれば、学習済みモデルの構築に用いられる教師データである画像データに画像取得時の条件を反映させることが容易となり、適切なノイズ除去を実現する学習済みモデルを構築することができる。
 また、画像処理モジュールは、画素値とノイズ値の広がりを評価した評価値との関係を表す関係データに基づいて、放射線画像の各画素の画素値から評価値を導出し、放射線画像の各画素に導出した評価値を対応付けたデータであるノイズマップを生成するノイズマップ生成部と、放射線画像及びノイズマップを、学習済みモデルに入力し、放射線画像からノイズを除去するノイズ除去処理を実行する処理部と、を有する、ことも好適である。また、実行するステップでは、画素値とノイズ値の広がりを評価した評価値との関係を表す関係データに基づいて、放射線画像の各画素の画素値から評価値を導出し、放射線画像の各画素に導出した評価値を対応付けたデータであるノイズマップを生成し、放射線画像及びノイズマップを、学習済みモデルに入力し、放射線画像からノイズを除去するノイズ除去処理を実行する、ことも好適である。この場合、画素値とノイズ値の広がりを評価した評価値との関係を表す関係データに基づいて、放射線画像の各画像の画素値から評価値が導出され、放射線画像の各画素に導出した評価値を対応付けたデータであるノイズマップが生成される。そして、放射線画像及びノイズマップが、予め機械学習によって構築された学習済みモデルに入力され、放射線画像からノイズを除去するノイズ除去処理が実行される。これにより、放射線画像の各画素の画素値から評価されるノイズ値の広がりが考慮されて、該放射線画像の各画素におけるノイズが機械学習により除去され、学習済みモデルを用いて放射線画像における画素値とノイズの広がりとの関係に対応したノイズ除去が実現できる。その結果、放射線画像におけるノイズを効果的に除去できる。
 さらに、画像処理モジュールは、放射線を照射して対象物を撮像する際の放射線の発生源の条件あるいは撮像条件のいずれかを示す条件情報の入力を受け付ける入力部と、条件情報を基に、対象物を透過した放射線に関する平均エネルギーを算出する算出部と、平均エネルギーを基に、予め画像データを用いて機械学習によってそれぞれ構築された複数の学習済みモデルの中から、ノイズ除去処理に用いる学習済みモデルを絞り込む絞込部と、を有する、ことが好適である。また、実行するステップでは、放射線を照射して対象物を撮像する際の放射線の発生源の条件あるいは撮像条件のいずれかを示す条件情報の入力を受け付け、条件情報を基に、対象物を透過した放射線に関する平均エネルギーを算出し、平均エネルギーを基に、予め画像データを用いて機械学習によってそれぞれ構築された複数の学習済みモデルの中から、ノイズ除去処理に用いる学習済みモデルを絞り込む、ことも好適である。この場合、対象物の放射線画像を取得する際の放射線の発生源の条件あるいは撮像条件を基に、対象物を透過した放射線の平均エネルギーが算出される。そして、その平均エネルギーを基に、予め構築された学習済みモデルの中からノイズ除去に用いる学習済みモデルの候補が絞り込まれる。これにより、撮像対象の放射線の平均エネルギーに対応した学習済みモデルがノイズ除去に用いられるので、放射線画像における輝度とノイズとの関係に対応したノイズ除去が実現できる。その結果、放射線画像におけるノイズを効果的に除去できる。
 またさらに、画像処理モジュールは、治具を対象として撮像装置によって取得された放射線画像の画像特性を特定する特定部と、画像特性を基に、予め画像データを用いて機械学習によってそれぞれ構築された複数の学習済みモデルの中から、学習済みモデルを選択する選択部と、選択された学習済みモデルを用いてノイズ除去処理を実行する処理部と、を有する、ことも好適である。また、実行するステップでは、治具を対象として取得された放射線画像の画像特性を特定し、画像特性を基に、予め画像データを用いて機械学習によってそれぞれ構築された複数の学習済みモデルの中から、学習済みモデルを選択し、選択された学習済みモデルを用いてノイズ除去処理を実行する、ことも好適である。かかる構成によれば、治具の放射線画像の画像特性が特定され、その画像特性を基に、予め構築された学習済みモデルの中からノイズ除去に用いる学習済みモデルが選択される。これにより、システムにおける放射線発生源の条件等により変化する放射線画像の特性を推定でき、この推定結果に応じて選択された学習済みモデルがノイズ除去に用いられるので、放射線画像における輝度とノイズとの関係に対応したノイズ除去が実現できる。その結果、放射線画像におけるノイズを効果的に除去できる。
 また、上記画像処理モジュールは、放射線画像に対してフィルタ処理を施し、放射線画像からノイズを除去するノイズ除去処理を実行する、ことも好適である。また、上記実行するステップでは、放射線画像に対してフィルタ処理を施し、放射線画像からノイズを除去するノイズ除去処理を実行する、ことも好適である。かかる構成によれば、放射線画像においてノイズ成分を適切に除去することができ、放射線画像におけるS/N比を一層向上させることができる。
 さらに、上記画像処理モジュールは、放射線画像に対して、フィルタ処理に加えてエッジ強調処理を施す、ことも好適である。さらに、上記実行するステップでは、放射線画像に対して、フィルタ処理に加えてエッジ強調処理を施す、ことも好適である。この場合、放射線画像において、S/N比の向上に加えて、コントラストを向上させることができる。
 1…画像取得装置(放射線画像取得装置、放射線画像取得システム)、10…X線検出カメラ(撮像装置)、11,11A…シンチレータ層、11a…シンチレータ部、11b…分離部、12,12A…スキャンカメラ、20,20A~20E…制御装置(画像処理モジュール)、50…X線照射器(放射線発生源)、60…ベルトコンベア(搬送装置)、72…画素(検出素子)、74…画素ライン(画素群)、73…読み出し回路、201,201C…入力部、202,202A,202C,202D…算出部、202E…特定部、203C,203D…絞込部、204,204A,204B…ノイズマップ生成部、204C,204E…選択部、205,205C,205E…処理部、206C,206E,207…学習済みモデル、F…対象物、TD…搬送方向(一の方向)。

Claims (22)

  1.  対象物を透過した放射線を一の方向にスキャンして撮像して放射線画像を取得する撮像装置と、
     前記撮像装置上に設けられ、前記放射線を光に変換するシンチレータ層と、
     前記放射線画像からノイズを除去するノイズ除去処理を実行する画像処理モジュールと、
    を備え、
     前記撮像装置は、
     前記一の方向に直交する方向にN個(Nは2以上の整数)配列されて構成され、前記光を検出して検出信号を出力する検出素子と、
     N個の前記検出素子毎の前記検出信号を出力することにより、前記放射線画像を出力する読出回路と、
    を含み、
     前記シンチレータ層は、
     N個の前記検出素子に対応して分離して配置されたP個(Pは2以上の整数)のシンチレータ部と、
     前記P個のシンチレータ部の間に配置された分離部と、
    を含む、
    放射線画像取得装置。
  2.  前記撮像装置は、
     前記一の方向に沿って配列されたM個(Mは2以上の整数)の画素を有する画素ラインが、前記一の方向に直交する方向にN列(Nは2以上の整数)配列されて構成され、前記画素毎に前記光に関する検出信号を出力する前記検出素子と、
     前記検出素子のN列の前記画素ライン毎に、M個の前記画素のうちの少なくとも2個の前記画素から出力される前記検出信号を加算処理し、加算処理したN個の前記検出信号を出力することにより、前記放射線画像を出力する前記読出回路と、
    を含む、
    請求項1に記載の放射線画像取得装置。
  3.  前記画像処理モジュールは、前記放射線画像を予め画像データを用いて機械学習によって構築された学習済みモデルに入力させて、前記放射線画像からノイズを除去するノイズ除去処理を実行する、
    請求項1または2に記載の放射線画像取得装置。
  4.  前記学習済みモデルは、所定の構造体の放射線画像に対し正規分布に沿ったノイズ値を付加して得られた画像データを教師データとした機械学習によって構築される、
    請求項3に記載の放射線画像取得装置。
  5.  前記学習済みモデルは、前記シンチレータ層を用いて得られた放射線画像を教師データとした機械学習によって構築される、
    請求項3に記載の放射線画像取得装置。
  6.  前記画像処理モジュールは、
     画素値とノイズ値の広がりを評価した評価値との関係を表す関係データに基づいて、前記放射線画像の各画素の画素値から前記評価値を導出し、前記放射線画像の各画素に導出した前記評価値を対応付けたデータであるノイズマップを生成するノイズマップ生成部と、
     前記放射線画像及び前記ノイズマップを、前記学習済みモデルに入力し、前記放射線画像からノイズを除去するノイズ除去処理を実行する処理部と、
    を有する請求項3~5のいずれか1項に記載の放射線画像取得装置。
  7.  前記画像処理モジュールは、
     放射線を照射して対象物を撮像する際の前記放射線の発生源の条件あるいは撮像条件のいずれかを示す条件情報の入力を受け付ける入力部と、
     前記条件情報を基に、前記対象物を透過した前記放射線に関する平均エネルギーを算出する算出部と、
     前記平均エネルギーを基に、予め画像データを用いて機械学習によってそれぞれ構築された複数の学習済みモデルの中から、前記ノイズ除去処理に用いる学習済みモデルを絞り込む絞込部と、
    を有する請求項3~5のいずれか1項に記載の放射線画像取得装置。
  8.  前記画像処理モジュールは、
     治具を対象として前記撮像装置によって取得された放射線画像の画像特性を特定する特定部と、
     前記画像特性を基に、予め画像データを用いて機械学習によってそれぞれ構築された複数の学習済みモデルの中から、学習済みモデルを選択する選択部と、
     選択された前記学習済みモデルを用いて前記ノイズ除去処理を実行する処理部と、
    を有する請求項3~5のいずれか1項に記載の放射線画像取得装置。
  9.  前記画像処理モジュールは、前記放射線画像に対してフィルタ処理を施し、前記放射線画像からノイズを除去するノイズ除去処理を実行する、
    請求項1または2に記載の放射線画像取得装置。
  10.  前記画像処理モジュールは、前記放射線画像に対して、前記フィルタ処理に加えてエッジ強調処理を施す、
    請求項9に記載の放射線画像取得装置。
  11.  請求項1~10のいずれか1項に記載の放射線画像取得装置と、
     前記対象物に放射線を照射する発生源と、
     前記対象物を前記撮像装置に対して前記一の方向に搬送する搬送装置と、
    を備える放射線画像取得システム。
  12.  対象物を透過した放射線に応じたシンチレーション光を一の方向にスキャンして撮像して放射線画像を取得するステップと、
     前記放射線画像からノイズを除去するノイズ除去処理を実行するステップと、を備え、
     前記取得するステップでは、
    前記一の方向に直交する方向にN個(Nは2以上の整数)配列されて構成され、前記光を検出して検出信号を出力する検出素子を含む撮像装置と、N個の前記検出素子に対応して分離して配置されたP個(Pは2以上の整数)のシンチレータ部と前記P個のシンチレータ部の間に配置された分離部とを含む前記放射線を光に変換するシンチレータ層と、を用いて、N個の前記検出素子毎の前記検出信号を出力することにより、前記放射線画像を出力する、
    放射線画像取得方法。
  13.  前記撮像装置は、前記一の方向に沿って配列されたM個(Mは2以上の整数)の画素を有する画素ラインが、前記一の方向に直交する方向にN列(Nは2以上の整数)配列されて構成され、前記画素毎に前記光に関する検出信号を出力する前記検出素子を含み、
     前記取得するステップでは、前記検出素子のN列の前記画素ライン毎に、M個の前記画素のうちの少なくとも2個の前記画素から出力される前記検出信号を加算処理し、加算処理したN個の前記検出信号を出力することにより、前記放射線画像を出力する、
    請求項12に記載の放射線画像取得方法。
  14.  前記実行するステップでは、前記放射線画像を予め画像データを用いて機械学習によって構築された学習済みモデルに入力させて、前記放射線画像からノイズを除去するノイズ除去処理を実行する、
    請求項12または13に記載の放射線画像取得方法。
  15.  前記学習済みモデルは、所定の構造体の放射線画像に対し正規分布に沿ったノイズ値を付加して得られた画像データを教師データとした機械学習によって構築される、
    請求項14に記載の放射線画像取得方法。
  16.  前記学習済みモデルは、前記シンチレータ層を用いて得られた放射線画像を教師データとした機械学習によって構築される、
    請求項14に記載の放射線画像取得方法。
  17.  前記実行するステップでは、画素値とノイズ値の広がりを評価した評価値との関係を表す関係データに基づいて、前記放射線画像の各画素の画素値から前記評価値を導出し、前記放射線画像の各画素に導出した前記評価値を対応付けたデータであるノイズマップを生成し、前記放射線画像及び前記ノイズマップを、前記学習済みモデルに入力し、前記放射線画像からノイズを除去するノイズ除去処理を実行する、
    請求項14~16のいずれか1項に記載の放射線画像取得方法。
  18.  前記実行するステップでは、放射線を照射して対象物を撮像する際の前記放射線の発生源の条件あるいは撮像条件のいずれかを示す条件情報の入力を受け付け、前記条件情報を基に、前記対象物を透過した前記放射線に関する平均エネルギーを算出し、前記平均エネルギーを基に、予め画像データを用いて機械学習によってそれぞれ構築された複数の学習済みモデルの中から、前記ノイズ除去処理に用いる学習済みモデルを絞り込む、
    請求項14~16のいずれか1項に記載の放射線画像取得方法。
  19.  前記実行するステップでは、治具を対象として取得された放射線画像の画像特性を特定し、前記画像特性を基に、予め画像データを用いて機械学習によってそれぞれ構築された複数の学習済みモデルの中から、学習済みモデルを選択し、選択された前記学習済みモデルを用いて前記ノイズ除去処理を実行する、
    請求項14~16のいずれか1項に記載の放射線画像取得方法。
  20.  前記実行するステップでは、前記放射線画像に対してフィルタ処理を施し、前記放射線画像からノイズを除去するノイズ除去処理を実行する、
    請求項12または13に記載の放射線画像取得方法。
  21.  前記実行するステップでは、前記放射線画像に対して、前記フィルタ処理に加えてエッジ強調処理を施す、
    請求項20に記載の放射線画像取得方法。
  22.  前記対象物に放射線を照射するステップと、
     前記対象物を前記検出素子に対して前記一の方向に搬送するステップと、
    をさらに備える請求項12~21のいずれか1項に記載の放射線画像取得方法。
PCT/JP2022/017170 2021-07-05 2022-04-06 放射線画像取得装置、放射線画像取得システム、及び放射線画像取得方法 WO2023281890A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
KR1020237039772A KR20240028334A (ko) 2021-07-05 2022-04-06 방사선 화상 취득 장치, 방사선 화상 취득 시스템 및 방사선 화상 취득 방법
CN202280047575.1A CN117616272A (zh) 2021-07-05 2022-04-06 放射线图像取得装置、放射线图像取得系统及放射线图像取得方法
EP22837311.4A EP4357818A1 (en) 2021-07-05 2022-04-06 Radiographic image acquiring device, radiographic image acquiring system, and radiographic image acquisition method
US18/576,210 US20240210331A1 (en) 2021-07-05 2022-04-06 Radiographic image acquiring device, radiographic image acquiring system, and radiographic image acquisition method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021111609A JP2023008225A (ja) 2021-07-05 2021-07-05 放射線画像取得装置、放射線画像取得システム、及び放射線画像取得方法
JP2021-111609 2021-07-05

Publications (1)

Publication Number Publication Date
WO2023281890A1 true WO2023281890A1 (ja) 2023-01-12

Family

ID=84800200

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/017170 WO2023281890A1 (ja) 2021-07-05 2022-04-06 放射線画像取得装置、放射線画像取得システム、及び放射線画像取得方法

Country Status (6)

Country Link
US (1) US20240210331A1 (ja)
EP (1) EP4357818A1 (ja)
JP (1) JP2023008225A (ja)
KR (1) KR20240028334A (ja)
CN (1) CN117616272A (ja)
WO (1) WO2023281890A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7487159B2 (ja) * 2021-10-12 2024-05-20 キヤノン株式会社 医用画像処理装置、医用画像処理方法およびプログラム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099941A (ja) 1999-09-30 2001-04-13 Hitachi Metals Ltd 放射線遮蔽板、放射線検出器及び放射線遮蔽板の製造方法
JP2003167060A (ja) 2001-11-30 2003-06-13 Toshiba Corp X線平面検出器
JP2004069384A (ja) * 2002-08-02 2004-03-04 Anritsu Corp X線異物検出装置,x線異物検出方法及びx線異物検出プログラム
JP2009192519A (ja) * 2008-01-17 2009-08-27 Anritsu Sanki System Co Ltd X線異物検出装置
WO2013069353A1 (ja) * 2011-11-08 2013-05-16 浜松ホトニクス株式会社 非破壊検査装置及び非破壊検査装置での位置ずれ検出方法
JP2018206382A (ja) * 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
WO2019082276A1 (ja) 2017-10-24 2019-05-02 株式会社システムスクエア 電磁波検出モジュール、電磁波検出モジュール列、及び非破壊検査装置
JP2019158663A (ja) 2018-03-14 2019-09-19 株式会社 システムスクエア 検査装置
WO2020031984A1 (ja) * 2018-08-08 2020-02-13 Blue Tag株式会社 部品の検査方法及び検査システム

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001099941A (ja) 1999-09-30 2001-04-13 Hitachi Metals Ltd 放射線遮蔽板、放射線検出器及び放射線遮蔽板の製造方法
JP2003167060A (ja) 2001-11-30 2003-06-13 Toshiba Corp X線平面検出器
JP2004069384A (ja) * 2002-08-02 2004-03-04 Anritsu Corp X線異物検出装置,x線異物検出方法及びx線異物検出プログラム
JP2009192519A (ja) * 2008-01-17 2009-08-27 Anritsu Sanki System Co Ltd X線異物検出装置
WO2013069353A1 (ja) * 2011-11-08 2013-05-16 浜松ホトニクス株式会社 非破壊検査装置及び非破壊検査装置での位置ずれ検出方法
JP2018206382A (ja) * 2017-06-01 2018-12-27 株式会社東芝 画像処理システム及び医用情報処理システム
WO2019082276A1 (ja) 2017-10-24 2019-05-02 株式会社システムスクエア 電磁波検出モジュール、電磁波検出モジュール列、及び非破壊検査装置
JP2019158663A (ja) 2018-03-14 2019-09-19 株式会社 システムスクエア 検査装置
WO2020031984A1 (ja) * 2018-08-08 2020-02-13 Blue Tag株式会社 部品の検査方法及び検査システム

Also Published As

Publication number Publication date
KR20240028334A (ko) 2024-03-05
JP2023008225A (ja) 2023-01-19
US20240210331A1 (en) 2024-06-27
EP4357818A1 (en) 2024-04-24
CN117616272A (zh) 2024-02-27

Similar Documents

Publication Publication Date Title
EP2951615B1 (en) Method and device for generating an energy-resolved x-ray image with adapted energy threshold
CN110072459B (zh) 用于自校准的自校准ct检测器、系统和方法
JP5555048B2 (ja) X線検査装置
EP2689725A1 (en) Image processing device, image processing method, and image processing program
US10595808B2 (en) System and method of computed tomography signal restoration via noise reduction
WO2023281890A1 (ja) 放射線画像取得装置、放射線画像取得システム、及び放射線画像取得方法
US20140023258A1 (en) Image processing apparatus, image processing method and image processing program
JP2012228404A (ja) 放射線画像処理方法および放射線画像処理装置
JP7060446B2 (ja) X線ラインセンサ及びそれを用いたx線異物検出装置
WO2021210612A1 (ja) 放射線画像取得装置、放射線画像取得システム、及び放射線画像取得方法
WO2021210618A1 (ja) 放射線画像処理方法、学習済みモデル、放射線画像処理モジュール、放射線画像処理プログラム、及び放射線画像処理システム
TW202234049A (zh) 放射線圖像獲取裝置、放射線圖像獲取系統及放射線圖像獲取方法
WO2021210617A1 (ja) 放射線画像処理方法、学習済みモデル、放射線画像処理モジュール、放射線画像処理プログラム、放射線画像処理システム、及び機械学習方法
TW202307465A (zh) 放射線圖像處理方法、學習完成模型、放射線圖像處理模組、放射線圖像處理程式、放射線圖像處理系統及機器學習方法
Kotwaliwale et al. Calibration of a soft X-ray digital imaging system for biological materials
TW202307785A (zh) 放射線圖像處理方法、學習完成模型、放射線圖像處理模組、放射線圖像處理程式及放射線圖像處理系統
WO2024036278A1 (en) System and method for generating denoised spectral ct images from spectral ct image data acquired using a spectral ct imaging system
Forthmann et al. Comparison of three sinogram restoration methods

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22837311

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 202280047575.1

Country of ref document: CN

Ref document number: 18576210

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2022837311

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022837311

Country of ref document: EP

Effective date: 20240117