WO2018034056A1 - 欠陥検査装置、欠陥検査方法、およびプログラム - Google Patents

欠陥検査装置、欠陥検査方法、およびプログラム Download PDF

Info

Publication number
WO2018034056A1
WO2018034056A1 PCT/JP2017/022740 JP2017022740W WO2018034056A1 WO 2018034056 A1 WO2018034056 A1 WO 2018034056A1 JP 2017022740 W JP2017022740 W JP 2017022740W WO 2018034056 A1 WO2018034056 A1 WO 2018034056A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
exposure
unit
defect
received light
Prior art date
Application number
PCT/JP2017/022740
Other languages
English (en)
French (fr)
Inventor
康彦 金子
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2018534285A priority Critical patent/JP6669874B2/ja
Publication of WO2018034056A1 publication Critical patent/WO2018034056A1/ja
Priority to US16/268,719 priority patent/US10989672B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/84Systems specially adapted for particular applications
    • G01N21/88Investigating the presence of flaws or contamination
    • G01N21/8851Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
    • G01N2021/8883Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges involving the calculation of gauges, generating models
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/03Investigating materials by wave or particle radiation by transmission
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/05Investigating materials by wave or particle radiation by diffraction, scatter or reflection
    • G01N2223/052Investigating materials by wave or particle radiation by diffraction, scatter or reflection reflection
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/40Imaging
    • G01N2223/401Imaging image processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2223/00Investigating materials by wave or particle radiation
    • G01N2223/60Specific applications or type of materials
    • G01N2223/646Specific applications or type of materials flaws, defects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30108Industrial image inspection

Definitions

  • the present invention relates to a defect inspection apparatus, a defect inspection method, and a program, and more particularly, to a defect inspection apparatus, a defect inspection method, and a program for supporting defect inspection using an image of an industrial product that is an inspection object.
  • Patent Document 1 relates to a technique for identifying a defect from a radiation transmission image of a welding defect.
  • image processing is performed on captured image data to detect an abnormal density region as a defect candidate image, and welding conditions and the like are added to feature parameters such as the shape and density of the detected defect candidate.
  • Techniques aimed at identifying defects, non-defects, and defect types are described.
  • Patent Document 2 relates to a technique for determining a defect from an image of a metal material obtained by radiation irradiation.
  • the relative position between the object to be inspected and the radiation irradiation region is changed a plurality of times, and whether or not a defect is included based on the radiation transmission image acquired at each changed position. Techniques for determining whether or not are described.
  • fine defects and defects represented by weak signals (image data) in the received light image obtained by photographing the object to be inspected are also accurately and quickly. There is a need to detect.
  • Patent Document 1 when image processing is performed on acquired image data and an abnormal density region is detected as a defect candidate image, a minute defect and a defect represented by a weak signal are accurately and quickly detected. Is not specifically mentioned. Further, in Patent Document 2, it is necessary to change the relative position between the object to be inspected and the irradiation region of the radiation a plurality of times to perform imaging of the object to be inspected.
  • the present invention has been made in view of such circumstances, and the purpose thereof is a defect capable of accurately and quickly detecting a minute defect and a defect represented by a weak signal in a light-receiving image of an inspection object.
  • An inspection apparatus, a defect inspection method, and a program are provided.
  • a defect inspection apparatus is a light-receiving image created based on transmitted light or reflected light of an inspection object obtained by irradiating the inspection object with radiation.
  • An image acquisition unit for acquiring a physical feature including at least a material of an object to be inspected, an exposure condition acquisition unit for acquiring a radiation exposure condition, a physical feature, a radiation irradiation condition, and Based on the storage unit that stores the exposure information that is the density relationship of the received light image, the exposure conditions acquired by the exposure condition acquisition unit, the physical features received by the input unit, and the exposure information stored in the storage unit
  • a light receiving image by performing image processing of the light receiving image based on the image processing parameter determined by the parameter determining unit that determines the image processing parameter for the light receiving image and the parameter determining unit.
  • an image processing unit for extracting a defect candidate image is an image corresponding to the defect candidate of the test subject from the image.
  • the parameter determination unit performs image processing parameters for the received light image based on the exposure conditions acquired by the exposure condition acquisition unit, the physical features received by the input unit, and the exposure information stored in the storage unit. Is determined.
  • the determined image processing parameter is an image processing parameter corresponding to the conditions under which the received light image is captured, and is an image processing parameter that matches the light and shade of the received light image.
  • the parameter determination unit corresponds to the thickness of the object to be inspected based on the exposure conditions acquired by the exposure condition acquisition unit, the physical characteristics received by the input unit, and the exposure information stored in the storage unit.
  • An image processing parameter is determined by calculating a density condition and calculating a noise level of the received light image based on the calculated density condition and the received light image acquired by the image acquisition unit.
  • the thickness of the object to be inspected based on the exposure conditions acquired by the exposure condition acquisition unit, the physical characteristics received by the input unit, and the exposure information stored in the storage unit by the parameter determination unit.
  • the shade condition corresponding to is calculated.
  • the parameter determination unit calculates the noise level of the received light image based on the calculated shading condition and the received light image acquired by the image acquisition unit, thereby determining the image processing parameter.
  • this aspect can determine the image processing parameter based on the noise level of the received light image.
  • the image acquisition unit acquires a plurality of light reception images of the object to be inspected
  • the exposure condition acquisition unit acquires the exposure conditions of each of the plurality of light reception images
  • the parameter determination unit includes each of the plurality of light reception images.
  • the image processing parameters are determined by calculating the noise level based on the calculated light / dark conditions of the plurality of received light images and the plurality of received light images acquired by the image acquisition unit.
  • the plurality of received light images are acquired by the image acquisition unit, the exposure conditions of the plurality of received light images are acquired by the exposure condition acquisition unit, and the light / dark conditions of the plurality of received light images are determined by the parameter determination unit. Calculated. Then, the noise level of the received light image is calculated by the parameter determination unit based on the plurality of calculated light / dark conditions and the plurality of received light images acquired by the image acquisition unit, thereby determining the image processing parameter. Thereby, this aspect can determine the image processing parameter based on the exact noise level according to the imaging conditions of the received light image.
  • the thickness for each local region of the object to be inspected is calculated based on the received light image acquired by the image acquisition unit, the exposure condition acquired by the exposure condition acquisition unit, and the exposure information stored in the storage unit.
  • a thickness calculating unit is further provided, and the parameter determining unit determines an image processing parameter corresponding to the thickness of each local region of the object calculated by the thickness calculating unit.
  • the thickness calculation unit calculates the thickness for each local region of the object to be inspected based on the received light image, the exposure condition, and the exposure information
  • the parameter determination unit calculates the thickness for each local region.
  • Image processing parameters are calculated based on the thickness, exposure conditions, physical characteristics, and exposure information.
  • the image processing parameter corresponding to the calculated thickness of the object to be inspected for each local region is determined, so that accurate and rapid defect detection is performed.
  • the thickness for each local region of the object to be inspected is calculated based on the received light image acquired by the image acquisition unit, the exposure condition acquired by the exposure condition acquisition unit, and the exposure information stored in the storage unit.
  • a thickness calculating unit is further provided, the storage unit further stores a noise level corresponding to the thickness of the object to be inspected, and the parameter determining unit is a thickness for each local region of the object to be inspected calculated by the thickness calculating unit.
  • an image processing parameter for each local region of the object to be inspected are determined from the noise level stored in the storage unit.
  • the noise level corresponding to the thickness of the object to be inspected is stored in the storage unit, and the thickness calculating unit determines each local region of the object to be inspected based on the received light image, the exposure condition, and the exposure information. Is calculated. Then, the parameter determination unit determines the image processing parameters based on the noise level stored in the storage unit and the thickness of each local region calculated by the thickness calculation unit. An image processing parameter corresponding to the noise level is determined.
  • the storage unit stores a plurality of exposure information.
  • the parameter determination unit determines image processing parameters corresponding to various physical characteristics of the inspected object and / or various irradiation conditions. .
  • the storage unit stores exposure information based on the exposure diagram.
  • the exposure information based on the exposure diagram is stored in the storage unit.
  • the exposure diagram shows the physical characteristics of the object to be inspected, the irradiation conditions, and the light / dark relationship of the received light image.
  • the storage unit of this aspect stores the physical characteristics of the object to be inspected, the irradiation conditions, and the light / dark relationship of the received light image.
  • the defect inspection apparatus detects a defect candidate from the surface of the inspection object based on the received light image acquired by the image acquisition unit, the exposure condition acquired by the exposure condition acquisition unit, and the exposure information stored in the storage unit.
  • a depth calculation unit for calculating the depth to the position is further provided.
  • the depth from the surface of the inspection object to the position of the defect candidate is calculated based on the received light image, the exposure condition, and the exposure information.
  • this aspect can provide the user with the depth from the surface to be inspected to the position of the defect candidate.
  • the physical characteristics relating to the material include at least one of the density and atomic number of the object to be inspected.
  • the parameter determination unit performs image processing according to at least one of the density and atomic number of the object to be inspected. Parameters are determined.
  • the irradiation condition is at least one of radiation intensity and irradiation time.
  • the parameter determination unit determines the image processing parameter according to the irradiation intensity and the irradiation time of the radiation.
  • the input unit accepts an input of the thickness of the object to be inspected as a physical feature
  • the exposure condition acquisition unit has the thickness, material, and exposure stored in the storage unit, which are physical characteristics of the object to be inspected
  • An exposure condition is acquired by calculating an appropriate exposure condition based on the information.
  • the input unit receives an input of the thickness of the inspection object as a physical feature
  • the exposure condition acquisition unit stores the physical characteristic of the inspection object in the thickness, material, and storage unit.
  • the exposure conditions are acquired by calculating the appropriate exposure conditions based on the exposure information.
  • the image processing parameter is determined by the parameter determination unit using the calculated appropriate exposure condition as the exposure condition.
  • the exposure condition acquisition unit acquires information on the state of the radiation source when the received light image acquired by the image acquisition unit is created, and calculates the exposure condition based on the information on the state of the radiation source.
  • the exposure condition acquisition unit acquires information on the state of the radiation source, and calculates the exposure condition based on the acquired information on the state of the radiation source. Therefore, even if exposure conditions are not directly input into an exposure condition acquisition part by this aspect, exposure conditions are acquired based on the information regarding the state of a radiation source.
  • the defect inspection method includes an image acquisition step of acquiring a received light image created based on transmitted light or reflected light of an inspection object obtained by irradiating the inspection object with radiation.
  • An input step for receiving an input of physical features including at least a material of an object to be inspected an exposure condition acquisition step for acquiring exposure conditions of radiation, and a relationship between the physical characteristics, the irradiation conditions of radiation, and the density of the received light image
  • the image processing parameters for the received light image A parameter determination step for determining the received image, and the image processing parameters determined in the parameter determination step
  • a defect inspection program includes an image acquisition step of acquiring a received light image created based on transmitted light or reflected light of an inspection object obtained by irradiating the inspection object with radiation.
  • An input step for receiving an input of physical features including at least a material of an object to be inspected, an exposure condition acquisition step for acquiring exposure conditions of radiation, and a relationship between the physical characteristics, the irradiation conditions of radiation, and the density of the received light image
  • the storage step for storing certain exposure information, the exposure condition acquired in the exposure condition acquisition step, the physical characteristics received in the input step, and the exposure information stored in the storage step, the image processing parameters for the received light image Based on the parameter determination step and the image processing parameters determined in the parameter determination step.
  • the parameter determination unit performs image processing parameters for the received light image based on the exposure conditions acquired by the exposure condition acquisition unit, the physical features received by the input unit, and the exposure information stored in the storage unit.
  • the determined image processing parameter is an image processing parameter according to the conditions under which the received light image is captured, and is an image processing parameter that matches the density of the received light image. Detection of a defect candidate image represented by a minute defect and a weak signal by image processing is performed accurately and quickly.
  • FIG. 1 is a block diagram showing a defect inspection apparatus 10 according to an embodiment of the present invention.
  • a defect inspection apparatus 10 is an apparatus that detects and displays defect candidates (defect candidates) from an image obtained by photographing an industrial product to be inspected (hereinafter referred to as an inspected object OBJ). It is an apparatus for supporting diagnosis of a defect of an inspection object OBJ.
  • the interpreter is a person who interprets the defect of the inspection object OBJ from the received light image of the inspection object OBJ using the defect inspection apparatus 10.
  • an application example of the present invention in defect inspection by interpretation will be described, but the application example of the present invention is not limited to this.
  • the present invention is also applied to an inspection in which an extracted defect candidate image is determined as a defect without interpretation.
  • the inspected object OBJ is an object to be inspected, and various objects are assumed.
  • an object to be inspected OBJ an industrial product that is an industrial part that requires a high-precision design is assumed.
  • the received light image is an image created based on the transmitted light or reflected light of the inspection object OBJ obtained by irradiating the inspection object OBJ with radiation.
  • a defect inspection apparatus 10 includes a control unit 12, an operation unit 14, an input / output interface (hereinafter referred to as I / F (interface)) 16, a display unit 18, and a buffer memory 20.
  • the processing unit 22 and the storage unit 24 are provided.
  • the control unit 12 includes a CPU (Central Processing Unit) that controls the operation of each unit of the defect inspection apparatus 10.
  • the control unit 12 functions as a display control unit, receives an operation input from a radiogram interpreter via the operation unit 14, and transmits a control signal corresponding to the operation input to each unit of the defect inspection apparatus 10 to perform an operation of each unit. Control.
  • the control unit 12 performs display control to display or hide the auxiliary display on the display unit 18 based on a command output from the operation unit 14.
  • the auxiliary display is a display indicating the position of the defect candidate image and the classification of the defect candidate image, and is displayed on the display unit 18 together with the defect candidate image.
  • the radiogram interpreter can perform radiogram interpretation more accurately and quickly by performing radiogram interpretation while viewing the auxiliary display displayed on the display unit 18.
  • the operation unit 14 is an input device that receives operation input from a radiogram interpreter, and is a pointing device (mouse, trackball, etc.) for operating a keyboard for inputting characters, a pointer displayed on the display unit 18, icons, and the like. Is included. Note that the operation unit 14 may be provided with a touch panel on the surface of the display unit 18 instead of the above-listed means or in addition to the above-listed means. For example, the operation unit 14 receives selection of display or non-display of the auxiliary display on the display unit 18 and outputs a command to display or hide the selected auxiliary display to the control unit 12.
  • the I / F 16 is a means for performing communication with an external device via the network NW.
  • wired communication for example, LAN (Local Area Network), WAN (Wide Area Network), Internet connection, etc.
  • wireless communication for example, LAN, WAN
  • the I / F 16 functions as an image acquisition unit, and acquires a received light image created based on reflected light or transmitted light from the inspection object OBJ obtained by irradiating the inspection object OBJ with light or radiation.
  • the I / F 16 also functions as an exposure condition acquisition unit. That is, the I / F 16 acquires the radiation exposure conditions when the received light image acquired by the image acquisition unit is created.
  • the exposure conditions are exposure conditions when exposing the object OBJ to radiation, and are represented by, for example, tube voltage, irradiation time, or tube voltage and irradiation time.
  • the exposure condition input to the I / F 16 may be an exposure condition measured when an acquired received light image is taken with a dosimeter attached to the outside. Further, for example, the I / F 16 may acquire information on the state of the radiation source when the acquired received light reception image is created, and calculate the exposure condition based on the information on the state of the radiation source. For the I / F 16, a known dose calculation software is used. Further, for example, the I / F 16 acquires the exposure condition by calculating the appropriate exposure condition based on the thickness, material, and exposure information stored in the storage unit 24, which are physical characteristics of the object OBJ.
  • the appropriate exposure condition refers to an exposure condition in which an image (light-receiving image) having the most appropriate light and shade is obtained when the object OBJ is imaged by irradiation with radiation.
  • an inspector refers to an exposure diagram to determine appropriate exposure conditions and performs irradiation. Therefore, the received light image is taken under appropriate exposure conditions.
  • the I / F 16 also functions as an input unit that receives input of physical characteristics of the object OBJ. That is, the I / F 16 accepts physical characteristics of the inspected object OBJ input manually or automatically.
  • the physical characteristics are not particularly limited as long as the object OBJ can be physically characterized.
  • the physical characteristics of the inspected object OBJ include at least one of the material name (substance name), thickness, density, and atomic number of the inspected object OBJ.
  • the density and atomic number are physical characteristics regarding the material.
  • the defect inspection apparatus 10 can accept input of inspection object imaging data D100 including imaging image data of the inspection object OBJ imaged by the imaging system 100 via the I / F 16.
  • the photographed image data is image data constituting a received light image.
  • the method of inputting the inspection object imaging data D100 from the imaging system 100 to the defect inspection apparatus 10 is not limited to the communication via the network NW listed above.
  • the defect inspection apparatus 10 and the imaging system 100 may be connected by a USB (Universal Serial Bus) cable, Bluetooth (registered trademark), infrared communication, or the like, and the inspection object imaging data D100 is connected to the defect inspection apparatus 10. It may be stored in a removable and readable memory card, and image data may be input to the defect inspection apparatus 10 via this memory card.
  • the defect inspection apparatus 10 can communicate with a product database (product DB (database)) 200 via a network NW.
  • Product data D200 for each industrial product that can be inspected is stored in the product DB.
  • the control unit 12 searches for and reads inspected object specifying information for specifying the inspected object OBJ from the inspected object imaging data of the inspected object OBJ acquired from the imaging system 100, and uses the read inspected object specifying information.
  • Corresponding product data D200 can be acquired from product DB200. By using the product data D200, it is possible to detect defect candidates according to the type or feature of the inspection object OBJ.
  • product DB 200 may be installed on the network NW and the product data D200 may be updated by the manufacturer or the like as in the present embodiment, or may be provided in the defect inspection apparatus 10.
  • the display unit 18 is a device for displaying an image.
  • a liquid crystal monitor see FIG. 7 can be used.
  • the display unit 18 displays a received light image and an auxiliary display displayed in association with the received light image. Note that the control of the display of the display unit 18 is performed by the control unit 12.
  • the buffer memory 20 is used as a work area for the control unit 12 and an area for temporarily storing image data output to the display unit 18.
  • the storage unit 24 is a means for storing data including a control program used by the control unit 12.
  • a device including a magnetic disk such as an HDD (Hard Disk Drive), a device including a flash memory such as an eMMC (embedded Multi Media Card), an SSD (Solid State Drive), or the like can be used.
  • eMMC embedded Multi Media Card
  • SSD Solid State Drive
  • the storage unit 24 stores exposure information.
  • the exposure information is information indicating the relationship between the physical characteristics of the inspected object OBJ, the irradiation condition of the radiation, and the density of the received light image.
  • a specific example of exposure information is an exposure diagram.
  • the exposure diagram (FIG. 9) shows the density of the image obtained depending on the physical characteristics of the object OBJ and the irradiation conditions of the radiation.
  • the storage unit 24 can store a plurality of pieces of exposure information in which at least one of physical characteristics and irradiation conditions of the inspection object is different from each other.
  • the storage unit 24 may store exposure information according to the material, thickness, density, and atomic number of the inspected object OBJ, which are physical characteristics of the inspected object OBJ.
  • a plurality of types of exposure information may be stored according to the size, quality, tube voltage, tube current, or the like.
  • the storage unit 24 stores an exposure diagram for each metal type.
  • the irradiation conditions are irradiation intensity and irradiation time of radiation.
  • the exposure diagram may be called by various names such as an exposure diagram and an exposure diagram.
  • information (data) stored in the storage unit 24 may be updated.
  • the information stored in the storage unit 24 may be updated by sequentially storing in the storage unit 24 the interpretation results obtained by the image interpreter using the defect inspection apparatus 10.
  • the storage unit 24 stores a calculation table of image processing parameters corresponding to the thickness, for example. That is, the storage unit 24 stores a calculation table that associates the thickness of the object OBJ with the image processing parameters.
  • the calculation table may be stored for each substance of the object OBJ or for each exposure condition.
  • a specific example of the calculation table is a noise level corresponding to the thickness of the object OBJ, and an image processing parameter is derived according to the noise level.
  • the processing unit 22 extracts a defect candidate image, which is an image corresponding to the defect candidate of the inspection object OBJ, from the received light image by image processing.
  • the processing unit 22 performs image processing based on the image processing parameter determined by the parameter determination unit 220 (FIG. 2), and extracts a defect candidate image from the received light image.
  • the functions provided in the processing unit 22 will be described later.
  • the processing unit 22 reads out the captured image data of the inspection object OBJ from the inspection object imaging data D100, performs image processing on the imaging image data, and extracts defect candidates.
  • the processing unit 22 outputs the captured image data and information regarding the defect candidate image indicating the detection result (feature calculation result) of the detected defect candidate to the buffer memory 20.
  • the control unit 12 uses the data output to the buffer memory 20 to create a display image with an auxiliary display added to the defect candidate image of the received light image, and causes the display unit 18 to display the display image. Thereby, the radiogram interpreter can interpret the image displayed on the display unit 18 and inspect the inspected object OBJ.
  • the “reader OBJ is immediately replaced with a new one” for each piece of information regarding the defect candidate image attached to the image displayed on the display unit 18 via the operation unit 14. It is possible to input diagnostic results such as “observe the progress (re-examination after a day)”, “leave (no defect)”.
  • the control unit 12 creates inspected object inspection result data D10 (see FIG. 5) including the diagnosis result data and stores it in the storage unit 24. As a result, the information (data) stored in the storage unit 24 is updated.
  • FIG. 2 is a block diagram illustrating an example of functions provided in the processing unit 22. As shown in FIG. 2, the processing unit 22 includes a parameter determination unit 220 and a defect candidate extraction unit 222.
  • the parameter determination unit 220 determines an image processing parameter based on the exposure conditions acquired by the exposure condition acquisition unit, the physical characteristics received by the input unit, and the exposure information stored in the storage unit 24. Since the determined image processing parameter is determined based on the exposure condition in the exposure diagram corresponding to the physical feature, the image processing parameter corresponding to the condition under which the received light image is captured is determined.
  • the image processing parameters determined by the parameter determination unit 220 are parameters used for image processing on the received light image performed by the defect candidate extraction unit 222, and various parameters are assumed. For example, as an image processing parameter, a threshold for canceling noise in a received light image can be given.
  • a threshold value related to luminance when a defect candidate image is extracted can be given.
  • the noise refers to random noise caused by unevenness of molding of the object OBJ or radiation scattering. The determination of specific image processing parameters will be described later.
  • the defect candidate extraction unit 222 functions as an image processing unit, and performs image processing (for example, color conversion processing, monochrome conversion processing, edge enhancement processing, conversion processing into three-dimensional data, etc.) on the captured image data, and the inspection target
  • image processing for example, color conversion processing, monochrome conversion processing, edge enhancement processing, conversion processing into three-dimensional data, etc.
  • candidates for defects for example, scratches, cracks, wear, rust, etc.
  • the defect candidate extraction unit 222 detects defects based on, for example, color change, edge detection results, and the like. Thereby, the position and shape of a defect candidate are specified.
  • the defect candidate extraction unit 222 performs image processing based on the image processing parameters determined by the parameter determination unit 220 described above, so that the defect is an image corresponding to the defect candidate of the inspection object OBJ from the received light image. Extract candidate images.
  • This image processing parameter may be updated or changed for each received light image, or may be updated or changed for each region where image processing is performed on the received light image.
  • product image data including an image of a (new) product in which the same defect of the inspection object OBJ is not detected is included in the product data D200, and the product image data and a captured image of the inspection object OBJ are included.
  • the defect candidate may be detected by comparing the data.
  • FIG. 3 is a block diagram showing an example of inspected object imaging data.
  • the inspected object imaging data D100 includes inspected object specifying information, captured image data, imaging condition data, and illumination condition data.
  • the inspection object specifying information is information for specifying the inspection object OBJ, and includes, for example, information indicating the product name, product number, manufacturer name, and technical classification of the inspection object OBJ.
  • the captured image data is image data (for example, an X-ray image or a visible light image) obtained by capturing the object OBJ.
  • the photographing condition data is stored for each photographed image data of the inspected object OBJ.
  • the illumination condition data includes information indicating the type of radiation (for example, X-ray, visible light, transmitted light, reflected light) used for imaging the object OBJ, irradiation intensity, and irradiation angle. That is, the illumination condition data includes the radiation exposure conditions described above.
  • FIG. 4 is a block diagram showing an example of product data.
  • the product information includes product identification information, product attribute information, and inspection area designation information.
  • the product data D200 may be recorded in the storage unit 24 in association with the inspection object imaging data D100 and the inspection object inspection result data D10 via the inspection object specifying information and the product specifying information. You may make it acquire from product DB200 each time.
  • the product specifying information is information for specifying a product, and includes, for example, information indicating a product name, a product number, a manufacturer name, and a technical classification.
  • the product attribute information includes, for example, information indicating the material and dimensions of each part of the product and the use of the product.
  • the information indicating the use of the product includes, for example, information on the name, type, processing state, and attachment method (for example, joint, weld, screwing, fitting, soldering) of a device to which the product is attached.
  • the product attribute information includes defect occurrence information.
  • the defect occurrence information includes, for example, the past inspection date and time, the material of the inspected object OBJ, the type of defect that has occurred in the past (for example, foreign matter, crack, etc.), shape, size, depth, and occurrence site (part coordinates, material , Thickness information, processing state (for example, joints, welds, etc.)), frequency information regarding the frequency of defect occurrence, and defect capture images.
  • the inspection area designation information is information indicating the inspection area designated by the manufacturer of each product (for example, information including the position of the inspection area, occurrence of defects such as presence / absence of past defects, frequency information on defect occurrence frequency, etc.) Created based on information).
  • the inspection area designation information is created, for example, by specifying a place where a defect is likely to occur statistically and structurally based on information when a manufacturer repairs a product in the past.
  • the processing unit 22 When detecting a defect candidate from the inspected object OBJ, the processing unit 22 increases the detection accuracy of the defect candidate for the inspection region specified by the inspection region specification information (for example, the minimum of scratches detected as defect candidates). It is possible to reduce the size (threshold of size) and the threshold of crack depth. Further, when displaying the image of the inspection object OBJ and the defect candidate image on the display unit 18, a mark for identifying the defect candidate detected from the captured image data of the inspection region and the detection target region is added. Alternatively, processing for emphasizing these may be performed.
  • the inspection region specification information for example, the minimum of scratches detected as defect candidates. It is possible to reduce the size (threshold of size) and the threshold of crack depth.
  • inspection area designation information is created for each application of the product (for example, for each type of device to which the product is attached and for each installation location), and an inspection corresponding to the designated application is performed.
  • the defect candidate may be detected using the area designation information.
  • product data of products with similar technical classifications may be acquired and used for image processing.
  • FIG. 5 is a block diagram showing an example of inspection object inspection result data.
  • inspected object inspection result data D10 includes inspected object measurement data, information on defect candidate images, and diagnosis result data in addition to the inspected object specifying information.
  • the inspection object inspection result data D10 is recorded in the storage unit 24 in association with the inspection object imaging data D100 via the inspection object specifying information.
  • the inspected object measurement data includes information indicating the measurement result of the size of the inspected object OBJ and the thickness at each position of the inspected object OBJ described later.
  • the diagnosis result data includes information that the image interpreter additionally inputs for the inspection date and the defect candidate.
  • the diagnosis result data is, for example, “Defect. Classification is a spot-like”, “Defect. Classification is a foreign object shadow.”, Or “Not a defect.”
  • the diagnostic result data includes, for example, “ready to replace the object OBJ immediately with a new one”, “observe the progress (re-examination after n days)”, “leave (no defect)”, etc. Information indicating the diagnosis result input by may be included.
  • the inspection object inspection result data D10 may include a part of the inspection object imaging data D100 and product data D200.
  • the inspection object inspection result data D10 is transmitted to and accumulated in the product DB 200, and the product data D200 is obtained using the analysis result of the information on the defect candidates and the diagnosis result data included in the inspection object inspection result data D10.
  • the inspection area designation information may be updated.
  • FIG. 6 is a block diagram illustrating an example of the imaging system 100.
  • the imaging system 100 is for imaging the object OBJ placed in the imaging room 114. As shown in FIG. 6, the imaging control unit 102, the imaging operation unit 104, the image recording unit 106, and the camera 108 are used. As well as radiation sources 110 and 112.
  • the imaging control unit 102 includes a CPU (Central Processing Unit) that controls the operation of each unit of the imaging system 100.
  • the imaging control unit 102 receives an operation input from an operator (photographer) via the imaging operation unit 104 and transmits a control signal corresponding to the operation input to each unit of the imaging system 100 to control the operation of each unit.
  • the photographing operation unit 104 is an input device that accepts an operation input from an operator, and is a pointing device (mouse, trackball, etc.) for operating a keyboard for inputting characters, a pointer displayed on the display unit 18, icons, and the like. Is included.
  • the operator inputs information related to the inspected object OBJ and inputs a shooting execution instruction to the camera 108 (setting of shooting conditions such as exposure time, focal length, aperture, shooting angle, shooting location, etc.) via the shooting operation unit 104.
  • the image recording unit 106 records image data (light reception image) of the object OBJ photographed by the camera 108. In the image recording unit 106, information for specifying the inspection object OBJ is recorded in association with the image data.
  • the camera 108 and the radiation sources 110 and 112 are disposed inside the imaging room 114.
  • the radiation sources 110 and 112 are, for example, X-ray sources, and X-ray protection is applied to a partition wall and an entrance between the imaging room 114 and the outside by an X-ray protection material (for example, lead, concrete, etc.). Yes. It should be noted that when photographing is performed by irradiating the inspected object OBJ with visible light, it is not necessary to use the photographing room 114 with protection.
  • the radiation sources 110 and 112 irradiate the object OBJ placed in the imaging room 114 according to an instruction from the imaging control unit 102.
  • the camera 108 irradiates the object OBJ irradiated from the radiation source 110 and reflected by the object OBJ, or irradiated from the radiation source 112 to the object OBJ in accordance with an instruction to perform imaging from the imaging control unit 102.
  • the inspected object OBJ is photographed by receiving the radiation transmitted through the inspected object OBJ.
  • the inspected object OBJ is held in the imaging room 114 by a holding member (not shown) (for example, a manipulator, a mounting table, a movable mounting table), and the inspected object OBJ includes the camera 108, the radiation sources 110 and 112.
  • the distance and angle with respect to can be adjusted.
  • the operator can control the relative positions of the inspected object OBJ, the camera 108, and the radiation sources 110 and 112 via the imaging control unit 102, and can image a desired portion of the inspected object OBJ. Yes.
  • the radiation sources 110 and 112 end the radiation irradiation to the object OBJ in synchronization with the end of the execution of photographing by the camera 108.
  • the camera 108 is arranged inside the imaging room 114, but the camera 108 is arranged outside if the object OBJ in the imaging room 114 can be imaged. May be.
  • one camera 108 and two radiation sources 110 and 112 are provided, but the number of cameras and radiation sources is not limited to this. For example, there may be a plurality of cameras and radiation sources, or one each.
  • FIG. 7 is a front view showing an appearance of the display unit 18 of the defect inspection apparatus 10.
  • an example of the display unit 18 is a liquid crystal monitor.
  • Other specific examples of the display unit 18 include a display screen of a smartphone or a display screen of a mobile terminal.
  • FIG. 8 is a diagram showing an example of an input screen (GUI (Graphical User Interface)) for inputting physical characteristics of the inspected object OBJ.
  • GUI Graphic User Interface
  • the input screen 50 is displayed on the display unit 18 of the defect inspection apparatus 10.
  • the user inputs the physical characteristics of the inspected object OBJ via the operation unit 14.
  • it is the input screen 50 which can input the thickness, density, and atomic number of to-be-inspected object OBJ.
  • the physical characteristics of the inspected object OBJ input on the input screen 50 are received by the I / F 16.
  • FIG. 9 is a diagram showing an exposure diagram which is an example of exposure information stored in the storage unit 24.
  • the X axis shows the irradiation condition (for example, tube voltage), and the Y axis shows the density of the received light image.
  • each of the thicknesses A, B, and C of the inspected object OBJ exhibits different characteristics.
  • the exposure diagram is used for an inspector to know appropriate exposure conditions when the imaging system 100 described with reference to FIG. 6 emits radiation. That is, when an inspector takes a radiographic image of the inspected object OBJ, the inspector sets an appropriate exposure condition based on the exposure diagram and takes an image.
  • FIG. 10 is a diagram showing an operation flow of the defect inspection apparatus 10.
  • the received image of the object OBJ is acquired by the image acquisition unit (I / F 16) (image acquisition step: step S10).
  • the input unit accepts input of physical characteristics of the object OBJ (input step: step S11).
  • information on physical characteristics including at least the material of the object OBJ is received.
  • physical characteristics related to the material of the object OBJ for example, the atomic number of the metal element, the alloy type and ratio, or the density of the object OBJ is input.
  • the exposure condition acquisition unit acquires the exposure condition of the radiation (exposure condition acquisition step: step S12).
  • the exposure condition acquisition unit may acquire the tube conditions and the imaging time of radiation.
  • the parameter determination unit 220 determines image processing parameters with reference to the exposure information stored in the storage unit 24 (parameter determination step: step S13).
  • the parameter determination unit 220 selects exposure information based on the input physical feature amount, and determines an image processing parameter according to the shading corresponding to the exposure condition in the selected exposure information. The specific image processing parameter determination will be described later.
  • the storage unit 24 stores necessary exposure information in advance (storage step). Further, the user can add and change the exposure information in the storage unit 24. Thereafter, the defect candidate extraction unit 222 performs image processing on the received light image based on the determined image processing parameter, and extracts defect candidate images (image processing step: step S14). Thereafter, the defect candidate image and the received light image are displayed on the display unit 18 (step S15). Then, the interpreter interprets the received light image and the defect candidate image displayed on the display unit 18 to make a diagnosis (step S16). Thereafter, when the inspection by the radiogram interpreter is completed and an instruction to end the display is input by the operation unit 14, the diagnosis result of the defect is stored as the diagnosis result data in the inspection object inspection result data D10 and stored. Stored in the unit 24 (step S17).
  • FIG. 11 is a flowchart for explaining a specific example regarding determination of image processing parameters.
  • the metal type (tungsten or atomic number 74) and the maximum thickness (5 mm) of the object OBJ, which are physical characteristics of the object OBJ, are received by the input unit via the input screen 50 (FIG. 8).
  • the parameter determination unit 220 selects an exposure diagram (exposure information) of tungsten from the storage unit 24 based on the received metal type (step S21).
  • the exposure condition acquisition unit calculates an appropriate exposure condition based on the thickness, material, and exposure information stored in the storage unit 24, which are physical characteristics of the inspection object OBJ, thereby exposing the exposure condition ( ⁇ eV). Is acquired (step S22).
  • the exposure condition acquisition unit acquires appropriate exposure conditions (tube voltage ⁇ eV) from the tungsten exposure diagram from the input maximum thickness (5 mm) of the inspection object OBJ. If tag information (illumination condition data: see FIG. 3) is attached to the received light image, the exposure condition may be acquired from the tag information.
  • the parameter determination unit 220 determines the thickness of the inspected object OBJ based on the exposure condition acquired by the exposure condition acquisition unit, the physical characteristics received by the input unit, and the exposure information stored in the storage unit 24. Corresponding shading conditions are calculated (step S23). Specifically, the parameter determination unit 220 calculates a light / dark condition corresponding to the thickness of the object OBJ from the exposure condition ( ⁇ eV) acquired by the exposure condition acquisition unit and the exposure diagram of tungsten.
  • the light / dark condition is information regarding light / dark according to the thickness of the object OBJ, and can be calculated from the exposure condition and the exposure diagram.
  • the parameter determination unit 220 calculates the noise level of the received light image based on the calculated shading conditions and the received light image acquired by the image acquisition unit (step S24). For example, the parameter determination unit 220 can calculate the noise level from the difference between the light and dark conditions and the received light image, and estimates the light and dark vibration in the received light image that is not linked to the thickness of the object OBJ as noise or unevenness. calculate.
  • the noise level is a scale indicating the magnitude of noise.
  • the parameter determination unit 220 determines an image processing parameter based on the calculated noise level (step S25). For example, the parameter determination unit 220 selects a parameter for canceling noise from the parameter list based on the calculated noise level.
  • the exposure condition acquisition unit acquires the exposure conditions of each of the plurality of received light images.
  • the parameter determination unit calculates the density condition of each of the plurality of light reception images, and calculates the noise level based on the calculated density conditions of the plurality of light reception images and the plurality of light reception images acquired by the image acquisition unit.
  • the image processing parameter is determined.
  • the thickness for each local region of the object OBJ is calculated, and an image processing parameter corresponding to the calculated thickness for each local region is determined.
  • FIG. 12 is a block diagram illustrating a functional configuration example of the processing unit 22 of the present embodiment.
  • the processing unit 22 illustrated in FIG. 12 includes a parameter determination unit 220, a defect candidate extraction unit 222, and a thickness calculation unit 224.
  • the thickness calculation unit 224 is configured for each local region of the object OBJ based on the received light image acquired by the image acquisition unit, the exposure condition acquired by the exposure condition acquisition unit, and the exposure information stored in the storage unit 24. Calculate the thickness. Specifically, the thickness calculation unit 224 uses the relationship between the thickness of the inspection object OBJ in the exposure information, the irradiation conditions, and the density of the received light image, and the received light image (photographing the inspection object OBJ). Information on the reflectance and transmittance (transmission attenuation) of the irradiation light at the time) and the exposure condition acquired by the exposure condition acquisition unit, the thickness of each local region of the object OBJ is calculated.
  • the parameter determination unit 220 has a thickness for each local region of the object OBJ calculated by the thickness calculation unit 224, an exposure condition acquired by the exposure condition acquisition unit, a physical feature received by the input unit, and a storage. Based on the exposure information stored in the unit 24, an image processing parameter is determined.
  • the parameter determination unit 220 can determine the image processing condition of, for example, the strength of noise removal processing for each region by determining image processing parameters including the thickness for each local region. Further, when the calculation table (for example, noise level) corresponding to the thickness of the object OBJ and the image processing parameter is stored in the storage unit 24, the parameter determination unit 220 stores the calculation table and the thickness for each local region. Based on the image processing parameters.
  • FIG. 13 is a flowchart for explaining a specific example relating to determination of image processing parameters when an image processing parameter calculation table is stored in the storage unit 24.
  • the metal type that is a physical characteristic of the object OBJ is received by tungsten and the input unit (step S30). Thereafter, an exposure diagram (exposure information) of tungsten is selected from the storage unit 24 by the parameter determination unit (step S31). Then, the exposure condition acquisition unit acquires that the exposure condition is ⁇ eV from the tag information of the received light image (step S32). Next, the thickness calculator 224 calculates the local thickness of the inspected object OBJ from the exposure diagram of tungsten from the density (brightness value) of the received light image and ⁇ eV (step S33). Thereafter, a local image processing parameter (noise cancellation threshold) is determined according to the calculated local thickness (step S34).
  • FIG. 14 is a block diagram illustrating an example of functions provided in the processing unit 22 of the present embodiment.
  • the part already demonstrated in FIG. 2 attaches
  • the processing unit 22 of this embodiment includes a parameter determination unit 220, a defect candidate extraction unit 222, and a depth calculation unit 226.
  • the depth calculation unit 226 detects defects from the surface of the inspection object OBJ based on the received light image acquired by the image acquisition unit, the exposure conditions acquired by the exposure condition acquisition unit, and the exposure information stored in the storage unit 24. The depth to the candidate position is calculated.
  • FIGS. 15 and 16 are diagrams for explaining the depth calculation performed by the depth calculation unit 226.
  • FIG. FIGS. 15 and 16 describe the difference in the received light image obtained by irradiating the inspection object OBJ with the X-ray and depending on the position of the defect D.
  • the defect D in the inspection object OBJ is located at a depth M from the surface of the inspection object OBJ.
  • the defect D in the inspection object OBJ is located at a depth N from the surface of the inspection object OBJ.
  • FIGS. 15 and 16 show a front view of a rectangular parallelepiped object OBJ and a light reception image 53 and a light reception image 54 obtained by irradiating X-rays and transmitting the light.
  • the image corresponding to the defect D in the received light image 53 is more contour (edge) than the image corresponding to the defect D in the received light image 54. Becomes a clear image.
  • the depth N (FIG. 16) is shallower than the depth M (FIG. 15)
  • the image corresponding to the defect D in the light reception image 54 has a contour compared to the image corresponding to the defect D in the light reception image 53. It becomes a blurred image.
  • the depth calculation unit 226 includes information on shading in the exposure information stored in the storage unit 24, the received light image acquired by the image acquisition unit, and the exposure condition acquisition unit. The depth of the defect is calculated based on the exposure condition acquired in step (1).
  • information related to the received light image corresponding to the defect D located at a plurality of depths is stored in the storage unit 24 in advance, and the depth calculation unit 226 stores a plurality of information stored in the storage unit 24. The depth may be calculated based on information about the received light image corresponding to the defect D located at the depth.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Health & Medical Sciences (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Pathology (AREA)
  • Analytical Chemistry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Theoretical Computer Science (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Abstract

本発明は、被検査体の受光画像において微小な欠陥および微弱な信号で表された欠陥候補画像を正確に且つ迅速に検出することができる欠陥検査装置、欠陥検査方法、およびプログラムを提供することを目的とする。欠陥検査装置(10)は、画像取得部(I/F16)と、入力部(I/F16)と、露光条件取得部(I/F16)と、記憶部(24)と、露光条件取得部で取得された露光条件、入力部で受け付けられた物理的特徴、および記憶部で記憶された露光情報に基づいて、受光画像に対する画像処理パラメータを決定するパラメータ決定部(処理部22)と、パラメータ決定部(処理部22)で決定された画像処理パラメータに基づいて、受光画像の画像処理を行うことにより、受光画像から被検査体の欠陥候補に対応する画像である欠陥候補画像を抽出する画像処理部(処理部22)と、を備える。

Description

欠陥検査装置、欠陥検査方法、およびプログラム
 本発明は、欠陥検査装置、欠陥検査方法、およびプログラムに関し、特に検査対象である工業製品の画像を用いた欠陥の検査を支援するための欠陥検査装置、欠陥検査方法、およびプログラムに関する。
 特許文献1は、溶接欠陥の放射線透過画像から欠陥識別を行う技術に関するものである。特許文献1に記載された技術では、取り込まれた画像データに画像処理を行い濃度異常領域を欠陥候補画像として検出し、検出した欠陥候補の形状、濃度等の特徴パラメータに溶接条件等も加えて、欠陥、非欠陥、および欠陥の種類を識別することを目的とした技術が記載されている。
 また特許文献2は、放射線照射によって得られた金属材料の画像から、欠陥の判定を行う技術に関するものである。特許文献2に記載された技術では、被検査体と放射線の照射領域との相対位置が複数回変更され、変更された位置毎で取得された放射線透過画像に基づいて、欠陥が含まれるか否かを判定する技術が記載されている。
特開平8-96136号公報 特開2010-281648号公報
 ここで工業製品の検品および検査においては、被検査体が撮影されることにより取得される受光画像中の微小な欠陥および微弱な信号(画像データ)で表された欠陥も、精度良く且つ迅速に検出することが求められている。
 しかしながら、特許文献1では取得した画像データに画像処理を行い濃度異常領域を欠陥候補画像として検出する際に、微小な欠陥および微弱な信号で表された欠陥を精度良く、迅速に検出することに関しては特に言及されていない。また特許文献2では被検査体と放射線の照射領域との相対位置を複数回変更して被検査体の撮影を行わなければならないく、検査に時間を要してしまう。
 本発明はこのような事情に鑑みてなされたもので、その目的は、被検査体の受光画像において微小な欠陥および微弱な信号で表された欠陥を正確に且つ迅速に検出することができる欠陥検査装置、欠陥検査方法、およびプログラムを提供することである。
 上記目的を達成するための本発明の一の態様である欠陥検査装置は、被検査体に放射線を照射することにより得られた被検査体の透過光または反射光に基づいて作成された受光画像を取得する画像取得部と、被検査体の少なくとも材質を含む物理的特徴の入力を受け付ける入力部と、放射線の露光条件を取得する露光条件取得部と、物理的特徴、放射線の照射条件、および受光画像の濃淡の関係である露光情報を記憶する記憶部と、露光条件取得部で取得された露光条件、入力部で受け付けられた物理的特徴、および記憶部で記憶された露光情報に基づいて、受光画像に対する画像処理パラメータを決定するパラメータ決定部と、パラメータ決定部で決定された画像処理パラメータに基づいて、受光画像の画像処理を行うことにより、受光画像から被検査体の欠陥候補に対応する画像である欠陥候補画像を抽出する画像処理部と、を備える。
 本態様によれば、パラメータ決定部により、露光条件取得部で取得された露光条件、入力部で受け付けられた物理的特徴、および記憶部に記憶された露光情報に基づいて受光画像に対する画像処理パラメータが決定される。すなわち、この決定された画像処理パラメータは、受光画像が撮影された条件に応じた画像処理パラメータであり、受光画像の濃淡に適合する画像処理パラメータである。これにより本態様は、受光画像において微小な欠陥および微弱な信号で表された欠陥候補画像の画像処理による検出が正確に且つ迅速に行われる。
 好ましくは、パラメータ決定部は、露光条件取得部で取得された露光条件、入力部で受け付けられた物理的特徴、および記憶部で記憶された露光情報に基づいて被検査体の厚さに対応する濃淡条件を算出し、算出された濃淡条件と画像取得部で取得された受光画像とに基づいて受光画像のノイズレベルを算出することにより、画像処理パラメータを決定する。
 本態様によれば、パラメータ決定部により、露光条件取得部で取得された露光条件、入力部で受け付けられた物理的特徴、および記憶部で記憶された露光情報に基づいて被検査体の厚さに対応する濃淡条件が算出される。そして、パラメータ決定部により、算出された濃淡条件と画像取得部で取得された受光画像とに基づいて受光画像のノイズレベルが算出されることにより、画像処理パラメータが決定される。これにより本態様は、受光画像のノイズレベルに基づいた画像処理パラメータを決定することができる。
 好ましくは、画像取得部は、被検査体の複数の受光画像を取得し、露光条件取得部は、複数の受光画像の各々の露光条件を取得し、パラメータ決定部は、複数の受光画像の各々の濃淡条件を算出し、算出された複数の受光画像の濃淡条件と画像取得部で取得された複数の受光画像とに基づいてノイズレベルを算出することにより、画像処理パラメータを決定する。
 本態様によれば、画像取得部により複数の受光画像が取得され、露光条件取得部により複数の受光画像の各々の露光条件が取得され、パラメータ決定部により複数の受光画像の各々の濃淡条件が算出される。そして、パラメータ決定部により、算出された複数の濃淡条件と画像取得部で取得された複数の受光画像とに基づいて受光画像のノイズレベルが算出されることにより、画像処理パラメータが決定される。これにより本態様は、受光画像の撮影条件に応じた正確なノイズレベルに基づいた画像処理パラメータを決定することができる。
 好ましくは、画像取得部で取得された受光画像、露光条件取得部で取得された露光条件、および記憶部で記憶された露光情報に基づいて、被検査体の局所領域毎の厚さを算出する厚さ算出部を更に備え、パラメータ決定部は、厚さ算出部で算出された被検査体の局所領域毎の厚さに対応する画像処理パラメータを決定する。
 本態様によれば、厚さ算出部により、受光画像、露光条件、および露光情報に基づいて被検査体の局所領域毎の厚さが算出され、パラメータ決定部により、算出された局所領域毎の厚さ、露光条件、物理的特徴、および露光情報に基づいて画像処理パラメータが算出される。これにより本態様は、算出された局所領域毎の被検査体の厚さに対応した画像処理パラメータが決定されるので、正確且つ迅速な欠陥の検出が行われる。
 好ましくは、画像取得部で取得された受光画像、露光条件取得部で取得された露光条件、および記憶部で記憶された露光情報に基づいて、被検査体の局所領域毎の厚さを算出する厚さ算出部を更に備え、記憶部は、被検査体の厚さに応じたノイズレベルを更に記憶し、パラメータ決定部は、厚さ算出部で算出された被検査体の局所領域毎の厚さと記憶部に記憶されたノイズレベルとから被検査体の局所領域毎の画像処理パラメータを決定する。
 本態様によれば、記憶部には被検査体の厚さに応じたノイズレベルが記憶され、厚さ算出部により、受光画像、露光条件、および露光情報に基づいて被検査体の局所領域毎の厚さが算出される。そしてパラメータ決定部により、記憶部に記憶されたノイズレベルと厚さ算出部で算出された局所領域毎の厚さに基づいて画像処理パラメータが決定されるので、被検査体の局所領域毎の厚さに応じたノイズレベルに対応した画像処理パラメータが決定される。
 好ましくは、記憶部は、複数の露光情報を記憶する。
 本態様によれば、記憶部には複数の露光情報が記憶されるので、パラメータ決定部により様々な被検査体の物理的特徴および/または様々な照射条件に対応した画像処理パラメータが決定される。
 好ましくは、記憶部は、露光線図に基づく露光情報を記憶する。
 本態様によれば、記憶部には露光線図に基づく露光情報が記憶される。露光線図は、被検査体の物理的特徴、照射条件、および受光画像の濃淡関係が示されている。これにより、本態様の記憶部には、被検査体の物理的特徴、照射条件、および受光画像の濃淡関係が記憶される。
 好ましくは、欠陥検査装置は、画像取得部で取得された受光画像、露光条件取得部で取得された露光条件、および記憶部で記憶された露光情報に基づいて、被検査体の表面から欠陥候補の位置までの深さを算出する深さ算出部を更に備える。
 本態様によれば、受光画像、露光条件、および露光情報に基づいて、被検査体の表面から欠陥候補の位置までの深さが算出される。これにより本態様は、ユーザに被検査の表面から欠陥候補の位置までの深さを提供することができる。
 好ましくは、材質に関する物理的特徴は、被検査体の密度および原子番号のうち少なくとも一つを含む。
 本態様によれば、物理的特徴が被検査体の密度および原子番号のうち少なくとも一つを含むので、パラメータ決定部により、被検査体の密度および原子番号のうち少なくとも一つに応じた画像処理パラメータが決定される。
 好ましくは、照射条件は、放射線の照射強度および照射時間のうち少なくとも一方である。
 本態様によれば、照射条件は放射線の照射強度および照射時間のうち少なくとも一方であるので、パラメータ決定部により、放射線の照射強度および照射時間に応じた画像処理パラメータが決定される。
 好ましくは、入力部は、物理的特徴として被検査体の厚さの入力を受け付け、露光条件取得部は、被検査体の物理的特徴である厚さ、材質、および記憶部に記憶された露光情報に基づいて適正露光条件を算出することにより露光条件を取得する。
 本態様によれば、入力部により物理的特徴として被検査体の厚さの入力が受け付けられ、露光条件取得部により被検査体の物理的特徴である厚さ、材質、および記憶部に記憶された露光情報に基づいて適正露光条件が算出されることにより露光条件が取得される。これにより本態様は、算出された適正露光条件を露光条件として、パラメータ決定部により画像処理パラメータが決定される。
 好ましくは、露光条件取得部は、画像取得部で取得された受光画像が作成されたときの放射線源の状態に関する情報を取得し、放射線源の状態に関する情報に基づいて、露光条件を算出する。
 本態様によれば、露光条件取得部により、放射線源の状態に関する情報が取得され、取得された放射線源の状態に関する情報に基づいて露光条件が算出される。これにより本態様は、露光条件取得部に露光条件が直接入力されなくても、放射線源の状態に関する情報に基づいて露光条件が取得される。
 本発明の他の態様である欠陥検査方法は、被検査体に放射線を照射することにより得られた被検査体の透過光または反射光に基づいて作成された受光画像を取得する画像取得ステップと、被検査体の少なくとも材質を含む物理的特徴の入力を受け付ける入力ステップと、放射線の露光条件を取得する露光条件取得ステップと、物理的特徴、放射線の照射条件、および受光画像の濃淡の関係である露光情報を記憶する記憶ステップと、露光条件取得ステップで取得された露光条件、入力ステップで受け付けられた物理的特徴、および記憶ステップで記憶された露光情報に基づいて、受光画像に対する画像処理パラメータを決定するパラメータ決定ステップと、パラメータ決定ステップで決定された画像処理パラメータに基づいて、受光画像の画像処理を行うことにより、受光画像から被検査体の欠陥候補に対応する画像である欠陥候補画像を抽出する画像処理ステップと、を含む。
 本発明の他の態様である欠陥検査プログラムは、被検査体に放射線を照射することにより得られた被検査体の透過光または反射光に基づいて作成された受光画像を取得する画像取得ステップと、被検査体の少なくとも材質を含む物理的特徴の入力を受け付ける入力ステップと、放射線の露光条件を取得する露光条件取得ステップと、物理的特徴、放射線の照射条件、および受光画像の濃淡の関係である露光情報を記憶する記憶ステップと、露光条件取得ステップで取得された露光条件、入力ステップで受け付けられた物理的特徴、および記憶ステップで記憶された露光情報に基づいて、受光画像に対する画像処理パラメータを決定するパラメータ決定ステップと、パラメータ決定ステップで決定された画像処理パラメータに基づいて、受光画像の画像処理を行うことにより、受光画像から被検査体の欠陥候補に対応する画像である欠陥候補画像を抽出する画像処理ステップと、をコンピュータに実現させる。この欠陥検査プログラムを記録したコンピュータ読み取り可能な非一時的有形媒体も本発明の態様に含まれる。
 本発明によれば、パラメータ決定部により、露光条件取得部で取得された露光条件、入力部で受け付けられた物理的特徴、および記憶部に記憶された露光情報に基づいて受光画像に対する画像処理パラメータが決定され、この決定された画像処理パラメータは、受光画像が撮影された条件に応じた画像処理パラメータであり、受光画像の濃淡に適合する画像処理パラメータであるので、本発明では、受光画像において微小な欠陥および微弱な信号で表された欠陥候補画像の画像処理による検出が正確に且つ迅速に行われる。
欠陥検査装置を示すブロック図である。 処理部が備える機能の一例を示すブロック図である。 被検査体撮影データの例を示すブロック図である。 製品データの例を示すブロック図である。 被検査体検査結果データの例を示すブロック図である。 撮影システムの例を示すブロック図である。 表示部の外観を示す正面図である。 物理的特徴を入力する入力画面の一例を示す図である。 露光情報の一例である露光線図を示す図である。 欠陥検査装置の動作フローを示す図である。 画像処理パラメータの決定に関しての具体例を説明するフロー図である。 処理部が備える機能の一例を示すブロック図である。 画像処理パラメータの決定に関しての具体例を説明するフロー図である。 処理部が備える機能の一例を示すブロック図である。 深さの算出に関して説明する図である。 深さの算出に関して説明する図である。
 以下、添付図面にしたがって本発明に係る欠陥検査装置、欠陥検査方法および欠陥検査プログラムの実施の形態について説明する。
 [第1の実施形態]
 図1は、本発明の一実施形態に係る欠陥検査装置10を示すブロック図である。
 本実施形態に係る欠陥検査装置10は、検査対象の工業製品(以下、被検査体OBJという)を撮影した画像から欠陥の候補(欠陥候補)を検出および表示を行う装置であり、読影者による被検査体OBJの欠陥の診断を支援するための装置である。ここで読影者とは、欠陥検査装置10を使用して被検査体OBJの受光画像から被検査体OBJの欠陥を読影する者である。なお以下の説明では、読影による欠陥検査における本発明の適用例に関して説明をするが、本発明の適用例はこれに限定されるものではない。例えば、抽出された欠陥候補画像を読影せずに欠陥と判定する検査にも、本発明は適用される。また被検査体OBJとは、検査の対象物のことであり様々なものが想定されている。特に被検査体OBJとしては、高精密度の設計が必要とされる工業部品である工業製品が想定される。また受光画像とは、被検査体OBJに放射線を照射することにより得られた被検査体OBJの透過光または反射光に基づいて作成された画像である。
 図1に示すように、本実施形態に係る欠陥検査装置10は、制御部12、操作部14、入出力インターフェース(以下、I/F(interface)という。)16、表示部18、バッファメモリ20、処理部22および記憶部24を備えている。
 制御部12は、欠陥検査装置10の各部の動作を制御するCPU(Central Processing Unit)を含んでいる。制御部12は、表示制御部として機能し、操作部14を介して読影者からの操作入力を受け付け、この操作入力に応じた制御信号を欠陥検査装置10の各部に送信して各部の動作を制御する。例えば制御部12は、操作部14から出力される指令に基づいて、補助表示を表示部18に表示または非表示にする表示制御を行う。ここで補助表示とは、欠陥候補画像の位置および欠陥候補画像の分類を示す表示であり、表示部18に欠陥候補画像と共に表示される。読影者は、表示部18に表示される補助表示を見ながら読影を行うことにより、より正確に且つ迅速に読影を行うことができる。
 操作部14は、読影者からの操作入力を受け付ける入力装置であり、文字入力のためのキーボード、表示部18に表示されるポインタ、アイコン等を操作するためのポインティングデバイス(マウス、トラックボール等)を含んでいる。なお、操作部14としては、上記に列挙した手段に代えて、または、上記に列挙した手段に加えて、表示部18の表面にタッチパネルを設けることもできる。例えば操作部14は、補助表示の表示部18への表示または非表示の選択を受け付けて、選択された補助表示の表示または非表示の指令を制御部12に出力する。
 I/F16は、ネットワークNWを介して外部装置との間で通信を行うための手段である。欠陥検査装置10と外部装置との間のデータの送受信方法としては、有線通信(例えば、LAN(Local Area Network)、WAN(Wide Area Network)、インターネット接続等)または無線通信(例えば、LAN、WAN、インターネット接続等)を用いることができる。I/F16は、画像取得部として機能し、被検査体OBJに光線または放射線を照射することにより得られる被検査体OBJからの反射光または透過光に基づいて作成された受光画像を取得する。
 またI/F16は、露光条件取得部としても機能する。すなわちI/F16は、画像取得部で取得された受光画像が作成されたときの放射線の露光条件を取得する。ここで露光条件とは、放射線を被検査体OBJに露光する場合の露光の条件であり、例えば、管電圧、照射時間、または管電圧と照射時間で表される。
 I/F16に入力される露光条件は、外部に取り付けられた線量計で、取得された受光画像が撮影されたときに測定された露光条件であってもよい。また例えば、I/F16は、取得された受光画像が作成されたときの放射線源の状態に関する情報を取得し、放射線源の状態に関する情報に基づいて、露光条件を算出してもよく、この場合にはI/F16において公知の線量計算ソフトが用いられる。また例えば、I/F16は、被検査体OBJの物理的特徴である厚さ、材質、および記憶部24に記憶された露光情報に基づいて適正露光条件を算出することにより露光条件を取得する。ここで適正露光条件とは、被検査体OBJが放射線を照射されて撮影される場合に、最も適正な濃淡を有する画像(受光画像)が得られる露光条件のことをいう。一般に被検査体OBJの放射線を照射して撮影画像を取得する場合には、検査員は露光線図を参照して、適正露光条件を決定して照射を行う。したがって受光画像は、適正露光条件で撮影されている。
 またI/F16は、被検査体OBJの物理的特徴の入力を受け付ける入力部としても機能する。すなわちI/F16は、手動または自動により入力された被検査体OBJの物理的特徴を受け付ける。ここで物理的特徴は、物理的に被検査体OBJを特徴付けることができれば特に限定されるものではない。例えば被検査体OBJの物理的特徴は、被検査体OBJの材質名(物質名)、厚さ、密度、および原子番号のうち少なくとも一つを含むものである。なお、密度および原子番号は、材質に関する物理的特徴である。
 欠陥検査装置10は、I/F16を介して撮影システム100によって撮影された被検査体OBJの撮影画像データを含む被検査体撮影データD100の入力を受け付けることが可能である。ここで撮影画像データは、受光画像を構成する画像データである。また、被検査体撮影データD100を撮影システム100から欠陥検査装置10に入力する方法は、上記に列挙したネットワークNWを介した通信に限定されるものではない。例えば、欠陥検査装置10と撮影システム100を、USB(Universal Serial Bus)ケーブル、Bluetooth(登録商標)、赤外線通信等により接続してもよいし、被検査体撮影データD100を、欠陥検査装置10に着脱および読取可能なメモリカードに格納して、このメモリカードを介して欠陥検査装置10に画像データを入力するようにしてもよい。
 更に、欠陥検査装置10は、ネットワークNWを介して製品データベース(製品DB(database))200と通信可能となっている。製品DBには、検査対象となり得る工業製品ごとの製品データD200が格納されている。制御部12は、撮影システム100から取得した被検査体OBJの被検査体撮影データから被検査体OBJを特定するための被検査体特定情報を検索して読み出し、読み出した被検査体特定情報に対応する製品データD200を製品DB200から取得することが可能となっている。この製品データD200を用いることにより、被検査体OBJの種類または特徴に応じた欠陥候補の検出が可能となる。
 なお、製品DB200は、本実施形態のように、ネットワークNW上に設置して、製品データD200をメーカー等が更新可能としてもよいし、欠陥検査装置10の中に設けられていてもよい。
 表示部18は、画像を表示するための装置である。表示部18としては、例えば、液晶モニタ(図7参照)を用いることができる。表示部18は、受光画像および受光画像に関連付けて表示される補助表示を表示する。なお、表示部18の表示の制御は、制御部12により行われている。
 バッファメモリ20は、制御部12の作業領域、表示部18に出力される画像データを一時記憶するための領域として用いられる。
 記憶部24は、制御部12が使用する制御プログラムを含むデータを格納するための手段である。記憶部24としては、例えば、HDD(Hard Disk Drive)等の磁気ディスクを含む装置、eMMC(embedded Multi Media Card)、SSD(Solid State Drive)等のフラッシュメモリを含む装置等を用いることができる。
 また記憶部24は、露光情報を記憶する。ここで露光情報とは、被検査体OBJの物理的特徴、放射線の照射条件、および受光画像の濃淡の関係を示す情報である。露光情報の具体例としては、露光線図があげられる。露光線図(図9)は、被検査体OBJの物理的特徴と放射線の照射条件とにより、得られる画像の濃淡が示されているものである。記憶部24は、検査体の物理的特徴および照射条件のうち少なくとも一つが相互に異なる複数の露光情報を記憶することができる。記憶部24は、被検査体OBJの物理的特徴である被検査体OBJの材質、厚さ、密度、および原子番号に応じて露光情報を記憶してもよいし、線源の種類、線量の大きさ、線質、管電圧、または管電流などに応じて複数の種類の露光情報を記憶してもよい。例えば記憶部24は、被検査体OBJが金属の場合は、金属の種類毎に露光線図を記憶する。ここで、照射条件とは放射線の照射強度および照射時間のことである。なお、露光線図は、露光図、露出線図など様々な名称で呼ばれている場合がある。
 また記憶部24に記憶された情報(データ)は更新されてもよい。例えば記憶部24に記憶された情報は、欠陥検査装置10で読影者が読影した読影結果を記憶部24に逐次記憶させることにより更新されてもよい。
 また記憶部24は、例えば厚さに応じた画像処理パラメータの算出テーブルを記憶する。すなわち記憶部24は、被検査体OBJの厚さと画像処理パラメータと対応させた算出テーブルを記憶する。なおこの算出テーブルは、被検査体OBJの物質毎、または露光条件毎に記憶されていてもよい。算出テーブルの具体例としては、被検査体OBJの厚さに応じたノイズレベルであり、このノイズレベルに応じて画像処理パラメータが導出される。
 処理部22は、被検査体OBJの欠陥候補に対応する画像である欠陥候補画像を受光画像から画像処理により抽出する。ここで処理部22は、パラメータ決定部220(図2)で決定された画像処理パラメータに基づいて画像処理を行い、受光画像から欠陥候補画像を抽出する。なお処理部22に備えられる機能に関しては後で説明する。
 処理部22は、被検査体撮影データD100から被検査体OBJの撮影画像データを読み出し、撮影画像データに画像処理を施して欠陥候補の抽出を行う。処理部22は、撮影画像データと検出した欠陥候補の検出結果(特徴の算出結果)を示す欠陥候補画像に関する情報とをバッファメモリ20に出力する。制御部12は、バッファメモリ20に出力されたデータを用いて、受光画像の欠陥候補画像に補助表示を付した表示用画像を作成し、この表示用画像を表示部18に表示させる。これにより、読影者は、表示部18に表示された画像を読影して被検査体OBJの検査を行うことが可能となる。
 読影者は、操作部14を介して、表示部18に表示された画像に付された欠陥候補画像に関する情報のそれぞれに対して、例えば、「すぐに被検査体OBJを新しいものと交換する」、「経過を観察する(a日後に再検査する)」、「放置する(欠陥ではない)」等の診断結果を入力することが可能となっている。制御部12は、上記診断結果データを含む被検査体検査結果データD10(図5参照)を作成して記憶部24に格納する。これにより、記憶部24に記憶されている情報(データ)は更新される。
 図2は、処理部22が備える機能の一例を示すブロック図である。図2に示すように、処理部22は、パラメータ決定部220および欠陥候補抽出部222およびを備えている。
 先ずパラメータ決定部220に関して説明する。パラメータ決定部220は、露光条件取得部で取得された露光条件、入力部で受け付けられた物理的特徴、および記憶部24で記憶された露光情報に基づいて、画像処理パラメータを決定する。決定された画像処理パラメータは、物理的特徴に対応する露光線図において露光条件に基づいて決定されるので、受光画像が撮影された条件に応じた画像処理パラメータが決定される。ここでパラメータ決定部220が決定する画像処理パラメータは、欠陥候補抽出部222で行われる受光画像に対する画像処理に使用されるパラメータであり、様々なものが想定される。例えば画像処理パラメータとして、受光画像におけるノイズをキャンセルする場合の閾値があげられる。また画像処理パラメータとして欠陥候補画像を抽出する場合の輝度に関する閾値があげられる。ここでノイズとは被検査体OBJの成形ムラに起因するものであったり、放射線の散乱に起因するランダムノイズのことである。なお、具体的な画像処理パラメータの決定は後で説明をする。
 欠陥候補抽出部222は、画像処理部として機能し、撮影画像データに画像処理(例えば、色変換処理、モノクロ変換処理、エッジ強調処理、3次元データへの変換処理等)を施して、被検査体OBJの色および輝度値等の変化を検出することにより、被検査体OBJの欠陥(例えば、傷、ヒビ割れ(クラック)、磨耗、さび等)の候補の検出を行う。欠陥候補抽出部222は、例えば、色の変化、エッジの検出結果等に基づいて、欠陥の検出を行う。これにより、欠陥候補の位置および形状が特定される。ここで欠陥候補抽出部222は、上述のパラメータ決定部220で決定された画像処理パラメータに基づいて、画像処理を行うことにより、受光画像から被検査体OBJの欠陥候補に対応する画像である欠陥候補画像を抽出する。この画像処理パラメータは、受光画像毎に更新または変更されてもよいし、受光画像における画像処理を行う領域毎に更新または変更されてもよい。
 なお、例えば、被検査体OBJの同一の欠陥が検出されていない(新品の)製品の画像を含む製品画像データを製品データD200に含めておき、この製品画像データと被検査体OBJの撮影画像データとを比較することにより、欠陥候補の検出を行うようにしてもよい。
 図3は、被検査体撮影データの例を示すブロック図である。図3に示すように、被検査体撮影データD100は、被検査体特定情報、撮影画像データ、撮影条件データおよび照明条件データを含んでいる。
 被検査体特定情報は、被検査体OBJを特定するための情報であり、例えば、被検査体OBJの製品名、製品番号、メーカー名、技術分類を示す情報を含んでいる。
 撮影画像データは、被検査体OBJを撮影した画像データ(例えば、X線画像、可視光画像)である。
 撮影条件データは、被検査体OBJの撮影画像データごとに格納されており、撮影日時、各撮影画像データの撮影対象箇所、撮影時における被検査体OBJとカメラとの間の距離およびカメラに対する角度を示す情報を含んでいる。
 照明条件データは、被検査体OBJの撮影に用いた放射線の種類(例えば、X線、可視光線、透過光線、反射光線)、照射強度、照射角度を示す情報を含んでいる。すなわち照明条件データは、前述した放射線の露光条件を含んでいる。
 図4は、製品データの例を示すブロック図である。図4に示すように、製品情報には、製品特定情報、製品の属性情報、検査領域指定情報が含まれている。製品データD200は、被検査体特定情報および製品特定情報を介して、被検査体撮影データD100および被検査体検査結果データD10と関連付けられて記憶部24に記録されてもよいし、欠陥検査の都度、製品DB200から取得するようにしてもよい。
 製品特定情報は、製品を特定するための情報であり、例えば、製品名、製品番号、メーカー名、技術分類を示す情報を含んでいる。
 製品属性情報は、例えば、製品の各部の材質、寸法、製品の用途を示す情報を含んでいる。製品の用途を示す情報は、例えば、製品が取り付けられる装置等の名称、種類、加工状態および取付方法(例えば、接合部、溶接部、ねじ止め、はめ込み、ハンダ付け)に関する情報を含んでいる。また、製品属性情報は、欠陥発生情報を含んでいる。欠陥発生情報は、例えば、過去の検査日時、被検査体OBJの材質、過去に発生した欠陥の種類(例えば、異物、亀裂等)、形状、大きさ、深さ、発生部位(部位座標、材質の肉厚、加工状態(例えば、接合部、溶接部等))、欠陥発生頻度に関する頻度情報、欠陥のキャプチャー画像のうち少なくとも1つの情報を含んでいる。
 検査領域指定情報は、各製品のメーカー等によって指定された検査領域を示す情報(例えば、検査領域の位置を含む情報であり、過去の欠陥発生の有無、欠陥発生頻度に関する頻度情報等の欠陥発生情報に基づいて作成される。)を含んでいる。検査領域指定情報は、例えば、メーカー等が製品を過去に修理したときの情報に基づいて、統計的、構造的に欠陥が生じやすい箇所を特定することにより作成される。
 処理部22は、被検査体OBJから欠陥候補を検出する場合に、検査領域指定情報によって指定された検査領域については、欠陥候補の検出精度を上げる(例えば、欠陥候補として検出する傷等の最小サイズ(サイズの閾値)、ヒビ割れの深さの閾値を小さくする)ことが可能である。また、被検査体OBJの画像および欠陥候補の画像を表示部18に表示する際に、検査領域の撮影画像データおよび検出対象領域から検出された欠陥候補を識別するためのマーク等を付与してもよいし、これらを強調する処理を施すようにしてもよい。
 なお、複数の用途がある製品の場合には、製品の用途ごとに(例えば、製品が取り付けられる装置の種類、取付場所ごとに)検査領域指定情報を作成し、指定された用途に対応する検査領域指定情報を用いて欠陥候補の検出を行うようにしてもよい。
 また、製品名または製品番号が一致する製品データが存在しない場合には、技術分類が類似する製品の製品データを取得して、画像処理に用いるようにしてもよい。
 図5は、被検査体検査結果データの例を示すブロック図である。図5に示すように、被検査体検査結果データD10は、上記の被検査体特定情報に加えて、被検査体測定データ、欠陥候補画像に関する情報および診断結果データを含んでいる。被検査体検査結果データD10は、被検査体特定情報を介して被検査体撮影データD100と関連付けられて記憶部24に記録される。
 被検査体測定データは、被検査体OBJのサイズ、後述する被検査体OBJの位置ごとの肉厚の測定結果を示す情報を含んでいる。
 診断結果データは、検査日時および欠陥候補に対して読影者が追加入力した情報を含んでいる。診断結果データは、例えば「欠陥である。分類はシミ状である」、「欠陥である。分類は異物影である。」、または「欠陥でない。」である。更に診断結果データは、例えば「すぐに被検査体OBJを新しいものと交換する」、「経過を観察する(n日後に再検査する)」、「放置する(欠陥ではない)」等の読影者により入力された診断結果を示す情報を含んでいてもよい。
 なお、被検査体検査結果データD10には、被検査体撮影データD100および製品データD200の一部を含めるようにしてもよい。
 また、被検査体検査結果データD10を製品DB200に送信して蓄積しておき、被検査体検査結果データD10に含まれる欠陥候補に関する情報および診断結果データを解析した結果を用いて、製品データD200の検査領域指定情報が更新されるようにしてもよい。
 次に、被検査体OBJの画像を撮影するための撮影システム100について説明する。図6は、撮影システム100の例を示すブロック図である。
 撮影システム100は、撮影室114内に置かれた被検査体OBJを撮影するためのものであり、図6に示すように、撮影制御部102、撮影操作部104、画像記録部106、カメラ108ならびに放射線源110および112を備えている。
 撮影制御部102は、撮影システム100の各部の動作を制御するCPU(Central Processing Unit)を含んでいる。撮影制御部102は、撮影操作部104を介してオペレータ(撮影者)からの操作入力を受け付け、この操作入力に応じた制御信号を撮影システム100の各部に送信して各部の動作を制御する。
 撮影操作部104は、オペレータからの操作入力を受け付ける入力装置であり、文字入力のためのキーボード、表示部18に表示されるポインタ、アイコン等を操作するためのポインティングデバイス(マウス、トラックボール等)を含んでいる。オペレータは、撮影操作部104を介して、被検査体OBJに関する情報の入力、カメラ108に対する撮影実行の指示の入力(露出時間、焦点距離、絞り等の撮影条件、撮影角度、撮影箇所等の設定を含む)、放射線源110および112に対する放射線の照射の指示の入力(照射開始時間、照射継続時間、照射角度、照射強度等の設定を含む)、取得した画像データを画像記録部106に記録する指示の入力を行うことができる。
 画像記録部106は、カメラ108によって撮影された被検査体OBJの画像データ(受光画像)を記録する。画像記録部106には、被検査体OBJを特定するための情報が画像データと関連付けられて記録される。
 カメラ108、放射線源110および112は、撮影室114の内部に配置されている。放射線源110および112は、例えば、X線源であり、撮影室114と外部との間の隔壁および出入口には、X線防護材料(例えば、鉛、コンクリート等)によりX線防護が施されている。なお、被検査体OBJに可視光を照射して撮影を行う場合には、防護を施した撮影室114を用いる必要はない。
 放射線源110および112は、撮影制御部102からの指示にしたがって、撮影室114内に置かれた被検査体OBJに放射線を照射する。
 カメラ108は、撮影制御部102からの撮影実行の指示にしたがって、放射線源110から被検査体OBJに照射されて被検査体OBJにより反射された放射線、または放射線源112から被検査体OBJに照射されて被検査体OBJを透過した放射線を受光して被検査体OBJを撮影する。被検査体OBJは、不図示の保持部材(例えば、マニピュレーター、載置台、可動式の載置台)によって撮影室114内に保持されており、被検査体OBJは、カメラ108、放射線源110および112に対する距離および角度が調整可能となっている。操作者は、撮影制御部102を介して、被検査体OBJ、カメラ108、放射線源110および112の相対位置を制御可能となっており、被検査体OBJの所望の箇所を撮影可能となっている。
 放射線源110および112は、カメラ108による撮影の実行の終了に同期して、被検査体OBJに対する放射線の照射を終了する。
 なお、図6に示す例では、カメラ108は、撮影室114の内部に配置されているが、カメラ108は、撮影室114内の被検査体OBJを撮影可能であれば、外部に配置されていてもよい。
 また、図6に示す例では、カメラ108が1台、放射線源110および112が2台設けられているが、カメラおよび放射線源の台数はこれに限定されるものではない。例えば、カメラおよび放射線源は、それぞれ複数台あってもよいし、1つずつであってもよい。
 図7は、欠陥検査装置10の表示部18の外観を示す正面図である。図7に示すように、表示部18の一例として液晶モニタがあげられる。この他にも表示部18の具体例としては、スマートフォンの表示画面または携帯端末の表示画面があげられる。
 図8は、被検査体OBJの物理的特徴を入力する入力画面(GUI(Graphical User Interface))の一例を示す図である。入力画面50は、欠陥検査装置10の表示部18に表示される。例えばユーザが操作部14を介して、被検査体OBJの物理的特徴を入力していく。図8に示した例では、被検査体OBJの厚さ、密度、および原子番号を入力することができる入力画面50である。入力画面50で入力された被検査体OBJの物理的特徴は、I/F16で受け付けられる。
 図9は、記憶部24に記憶される露光情報の一例である露光線図を示す図である。図9で示された露光線図では、X軸は照射条件(例えば管電圧)を示し、Y軸は受光画像の濃淡が示されている。また、被検査体OBJの厚さA、BおよびCのそれぞれにおいて、異なる特性を示すことが示されている。露光線図は、図6で説明をした撮影システム100で放射線を照射する際に、適切な露光条件を検査員が知るために用いられる。すなわち、検査員は被検査体OBJの放射線画像を撮影する場合には、露光線図に基づいて適切な露光条件に設定を行い撮影をする。
 図10は、欠陥検査装置10の動作フローを示す図である。
 先ず画像取得部(I/F16)により、被検査体OBJの受光画像が取得される(画像取得ステップ:ステップS10)。次に入力部により、被検査体OBJの物理的特徴の入力が受け付けられる(入力ステップ:ステップS11)。入力部では、被検査体OBJの少なくとも材質を含む物理的特徴に関する情報が受け付けられる。そして被検査体OBJの材質に関する物理的特徴として、例えば、金属元素の原子番号、合金種類と比率、または被検査体OBJの密度が入力される。その後露光条件取得部(I/F16)により、放射線の露光条件が取得される(露光条件取得ステップ:ステップS12)。なお露光条件取得部により、放射線の管球条件や撮影時間が取得されてもよい。
 そしてパラメータ決定部220は、記憶部24に記憶されている露光情報を参照して、画像処理パラメータを決定する(パラメータ決定ステップ:ステップS13)。パラメータ決定部220は、入力された物理的特徴量に基づいて露光情報を選択し、その選択された露光情報における露光条件に対応する濃淡に応じて、画像処理パラメータを決定する。具体的な画像処理パラメータの決定の説明は後で行う。
 記憶部24には予め必要な露光情報が記憶されている(記憶ステップ)。また、ユーザにより記憶部24の露光情報は追加および変更が可能である。その後欠陥候補抽出部222により、決定された画像処理パラメータに基づいて受光画像に画像処理が行われて、欠陥候補画像の抽出が行われる(画像処理ステップ:ステップS14)。その後、表示部18に欠陥候補画像および受光画像が表示される(ステップS15)。そして、読影者は表示部18に表示された受光画像および欠陥候補画像の読影を行い診断をする(ステップS16)。その後、読影者による検査が終了し、操作部14により、表示を終了させる指示が入力されると、欠陥の診断結果が診断結果データとして被検査体検査結果データD10の中に格納されて、記憶部24に保存される(ステップS17)。
 次に、画像処理パラメータの決定に関しての具体例を説明する。
 図11は、画像処理パラメータの決定に関しての具体例を説明するフロー図である。
 先ず、被検査体OBJの物理的特徴である金属の種類(タングステンまたは原子番号74)と被検査体OBJの最大厚さ(5mm)が入力画面50(図8)を介して入力部により受け付けられる(ステップS20)。その後パラメータ決定部220により、受け付けられた金属の種類に基づいて、記憶部24よりタングステンの露光線図(露光情報)が選択される(ステップS21)。次に露光条件取得部により、被検査体OBJの物理的特徴である厚さ、材質、および記憶部24に記憶された露光情報に基づいて適正露光条件が算出されることにより露光条件(αeV)が取得される(ステップS22)。具体的には露光条件取得部は、入力された被検査体OBJの最大厚さ(5mm)よりタングステンの露光線図から適正露光条件(管電圧αeV)を取得する。なお、受光画像にタグ情報(照明条件データ:図3を参照)が付されている場合には、タグ情報により露光条件を取得してもよい。
 次にパラメータ決定部220は、露光条件取得部で取得された露光条件、入力部で受け付けられた物理的特徴、および記憶部24で記憶された露光情報に基づいて被検査体OBJの厚さに対応する濃淡条件を算出する(ステップS23)。具体的にはパラメータ決定部220は、露光条件取得部で取得された露光条件(αeV)とタングステンの露光線図より、被検査体OBJの厚さに対応する濃淡条件を算出する。ここで濃淡条件とは、被検査体OBJの厚さに応じた濃淡に関する情報であり、露光条件と露光線図とから算出することができる。その後パラメータ決定部220により、算出された濃淡条件と画像取得部で取得された受光画像とに基づいて受光画像のノイズレベルが算出される(ステップS24)。例えばパラメータ決定部220は、濃淡条件と受光画像との差分からノイズレベルを算出することができ、被検査体OBJの厚さと連動しない受光画像における濃淡振動をノイズまたはムラと推定し、ノイズレベルを算出する。ここでノイズレベルは、ノイズの大きさを示す尺度である。次にパラメータ決定部220は、算出されたノイズレベルに基づいて画像処理パラメータを決定する(ステップS25)。例えばパラメータ決定部220は、算出されたノイズレベルに基づいてノイズをキャンセルするパラメータをパラメータリストから選択する。
 なお、画像取得部が被検査体OBJの複数の受光画像を取得した場合も、各受光画像に対して上述した工程が行われる。すなわち、先ず露光条件取得部は、複数の受光画像の各々の露光条件を取得する。そしてパラメータ決定部は、複数の受光画像の各々の濃淡条件を算出し、算出された複数の受光画像の濃淡条件と画像取得部で取得された複数の受光画像とに基づいてノイズレベルを算出することにより、画像処理パラメータを決定する。
 上述の各構成および機能は、任意のハードウェア、ソフトウェア、或いは両者の組み合わせによって適宜実現可能である。例えば、上述の処理ステップ(処理手順)をコンピュータに実行させるプログラム、そのようなプログラムを記録したコンピュータ読み取り可能な記録媒体(非一時的有形媒体)、或いはそのようなプログラムをインストール可能なコンピュータに対しても本発明を適用することが可能である。
 [第2の実施形態]
 次に、本発明の第2の実施形態に関して説明する。本実施形態では、被検査体OBJの局所領域毎の厚さが算出され、その算出された局所領域毎の厚さに応じた画像処理パラメータが決定される。
 図12は、本実施形態の処理部22の機能構成例を示すブロック図である。なお、図2において既に説明を行った箇所は、同じ符号を付し説明は省略する。図12に示された処理部22は、パラメータ決定部220、欠陥候補抽出部222、および厚さ算出部224を備えている。
 厚さ算出部224は、画像取得部で取得された受光画像、露光条件取得部で取得された露光条件、および記憶部24で記憶された露光情報に基づいて、被検査体OBJの局所領域毎の厚さを算出する。具体的に厚さ算出部224は、露光情報における被検査体OBJの厚み、照射条件、受光画像の濃淡の関係を利用して、画像取得部で取得された受光画像(被検査体OBJの撮影時の照射光の反射率、透過率(透過減衰)を示す情報)、露光条件取得部で取得された露光条件から被検査体OBJの局所領域毎の厚さを算出する。
 パラメータ決定部220は、厚さ算出部224で算出された被検査体OBJの局所領域毎の厚さ、露光条件取得部で取得された露光条件、入力部で受け付けられた物理的特徴、および記憶部24で記憶された露光情報に基づいて、画像処理パラメータを決定する。パラメータ決定部220は、局所領域毎の厚さを含めて画像処理パラメータを決定することにより、例えば領域毎のノイズ除去処理の強さの画像処理条件を決定することができる。またパラメータ決定部220は、記憶部24に被検査体OBJの厚さと画像処理パラメータと対応させた算出テーブル(例えばノイズレベル)が記憶されている場合には、算出テーブルと局所領域毎の厚さとに基づいて画像処理パラメータを算出することができる。
 図13は、記憶部24に画像処理パラメータの算出テーブルが記憶されている場合の画像処理パラメータの決定に関しての具体例を説明するフロー図である。
 図13に示す場合では、予め被検査体OBJの厚さおよび露光条件(eV)と、ノイズレベルとの関係は予め既知であり算出テーブルとして記憶部24に記憶されているものとする。
 先ず、被検査体OBJの物理的特徴である金属種類がタングステンと入力部により受け付ける(ステップS30)。その後パラメータ決定部により記憶部24よりタングステンの露光線図(露光情報)が選択される(ステップS31)。そして、受光画像のタグ情報から露光条件がαeVであることを露光条件取得部により取得される(ステップS32)。次に厚さ算出部224により、受光画像の濃淡(輝度値)とαeVとの値からタングステンの露光線図より、被検査体OBJの局所的な厚さが算出される(ステップS33)。その後、算出された局所的な厚さに応じて局所的な画像処理パラメータ(ノイズキャンセルの閾値)が決定される(ステップS34)。
 [第3の実施形態]
 次に欠陥検査装置10の第3の実施形態に関して説明をする。
 図14は、本実施形態の処理部22が備える機能の一例を示すブロック図である。なお、図2において既に説明を行った箇所は、同じ符号を付し説明は省略する。
 本実施形態の処理部22は、パラメータ決定部220、欠陥候補抽出部222、および深さ算出部226で構成されている。
 深さ算出部226は、画像取得部で取得された受光画像、露光条件取得部で取得された露光条件、および記憶部24で記憶された露光情報に基づいて、被検査体OBJの表面から欠陥候補の位置までの深さを算出する。
 図15および図16は、深さ算出部226が行う深さの算出に関して説明する図である。図15および図16ではX線が被検査体OBJに照射され、欠陥Dの位置に応じて得られる受光画像の違いに関して説明している。図15では、被検査体OBJにおける欠陥Dは、被検査体OBJの表面から深さMに位置している。また図16では、被検査体OBJにおける欠陥Dは、被検査体OBJの表面から深さNに位置している。また図15および図16では、直方体の被検査体OBJの正面図およびそれぞれX線を照射して、その透過光から得られた受光画像53および受光画像54が示されている。深さM(図15)は、深さN(図16)に対して深いので、受光画像53において欠陥Dに対応する画像は受光画像54の欠陥Dに対応する画像に比べて輪郭(エッジ)がはっきりとした像となる。一方、深さN(図16)は、深さM(図15)に対して浅いので、受光画像54において欠陥Dに対応する画像は受光画像53の欠陥Dに対応する画像に比べて輪郭がボケた像となる。
 深さ算出部226の深さの算出の一例では、深さ算出部226は、記憶部24で記憶された露光情報における濃淡の情報、画像取得部で取得された受光画像、および露光条件取得部で取得された露光条件に基づいて、欠陥の深さを算出する。また他の例として、複数の深さに位置する欠陥Dに対応する受光画像に関する情報を記憶部24に予め記憶させておき、深さ算出部226は、記憶部24に記憶されている複数の深さに位置する欠陥Dに対応する受光画像に関する情報に基づいて深さを算出してもよい。
 以上で本発明の例に関して説明してきたが、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。
10    欠陥検査装置
12    制御部
14    操作部
16    I/F
18    表示部
20    バッファメモリ
22    処理部
24    記憶部
50    入力画面
100   撮影システム
102   撮影制御部
104   撮影操作部
106   画像記録部
108   カメラ
110   放射線源
112   放射線源
114   撮影室
200   製品データベース
220   パラメータ決定部
222   欠陥候補抽出部
224   厚さ算出部
226   深さ算出部
ステップS10~ステップS17   欠陥検査方法の工程
ステップS20~ステップS25   画像処理パラメータの算出工程
ステップS30~ステップS35   画像処理パラメータの算出工程

Claims (15)

  1.  被検査体に放射線を照射することにより得られた前記被検査体の透過光または反射光に基づいて作成された受光画像を取得する画像取得部と、
     前記被検査体の少なくとも材質を含む物理的特徴の入力を受け付ける入力部と、
     前記放射線の露光条件を取得する露光条件取得部と、
     前記物理的特徴、前記放射線の照射条件、および前記受光画像の濃淡の関係である露光情報を記憶する記憶部と、
     前記露光条件取得部で取得された前記露光条件、前記入力部で受け付けられた前記物理的特徴、および前記記憶部で記憶された前記露光情報に基づいて、前記受光画像に対する画像処理パラメータを決定するパラメータ決定部と、
     前記パラメータ決定部で決定された前記画像処理パラメータに基づいて、前記受光画像の画像処理を行うことにより、前記受光画像から前記被検査体の欠陥候補に対応する画像である欠陥候補画像を抽出する画像処理部と、
     を備える欠陥検査装置。
  2.  前記パラメータ決定部は、前記露光条件取得部で取得された前記露光条件、前記入力部で受け付けられた前記物理的特徴、および前記記憶部で記憶された前記露光情報に基づいて前記被検査体の厚さに対応する濃淡条件を算出し、前記算出された前記濃淡条件と前記画像取得部で取得された前記受光画像とに基づいて前記受光画像のノイズレベルを算出することにより、前記画像処理パラメータを決定する請求項1に記載の欠陥検査装置。
  3.  前記画像取得部は、前記被検査体の複数の前記受光画像を取得し、
     前記露光条件取得部は、複数の前記受光画像の各々の露光条件を取得し、
     前記パラメータ決定部は、複数の前記受光画像の各々の前記濃淡条件を算出し、前記算出された複数の前記受光画像の前記濃淡条件と前記画像取得部で取得された複数の前記受光画像とに基づいて前記ノイズレベルを算出することにより、前記画像処理パラメータを決定する請求項2に記載の欠陥検査装置。
  4.  前記画像取得部で取得された前記受光画像、前記露光条件取得部で取得された前記露光条件、および前記記憶部で記憶された前記露光情報に基づいて、前記被検査体の局所領域毎の厚さを算出する厚さ算出部を更に備え、
     前記パラメータ決定部は、前記厚さ算出部で算出された前記被検査体の局所領域毎の前記厚さに対応する前記画像処理パラメータを決定する請求項1から3のいずれか1項に記載の欠陥検査装置。
  5.  前記画像取得部で取得された前記受光画像、前記露光条件取得部で取得された前記露光条件、および前記記憶部で記憶された前記露光情報に基づいて、前記被検査体の局所領域毎の厚さを算出する厚さ算出部を更に備え、
     前記記憶部は、前記被検査体の厚さに応じたノイズレベルを更に記憶し、
     前記パラメータ決定部は、前記厚さ算出部で算出された前記被検査体の局所領域毎の前記厚さと前記記憶部に記憶された前記ノイズレベルとから前記被検査体の局所領域毎の前記画像処理パラメータを決定する請求項1に記載の欠陥検査装置。
  6.  前記記憶部は、複数の前記露光情報を記憶する請求項1から5のいずれか1項に記載の欠陥検査装置。
  7.  前記記憶部は、露光線図に基づく前記露光情報を記憶する請求項1から6のいずれか1項に記載の欠陥検査装置。
  8.  前記画像取得部で取得された前記受光画像、前記露光条件取得部で取得された前記露光条件、および前記記憶部で記憶された前記露光情報に基づいて、前記被検査体の表面から前記欠陥候補の位置までの深さを算出する深さ算出部を更に備える請求項1から7のいずれか1項に記載の欠陥検査装置。
  9.  前記材質に関する物理的特徴は、前記被検査体の密度および原子番号のうち少なくとも一つを含む請求項1から8のいずれか1項に記載の欠陥検査装置。
  10.  前記照射条件は、前記放射線の照射強度および照射時間のうち少なくとも一方である請求項1から9のいずれか1項に記載の欠陥検査装置。
  11.  前記入力部は、前記物理的特徴として前記被検査体の厚さの入力を受け付け、
     前記露光条件取得部は、前記被検査体の前記物理的特徴である前記厚さ、前記材質、および前記記憶部に記憶された露光情報に基づいて適正露光条件を算出することにより前記露光条件を取得する請求項1から10のいずれか1項に記載の欠陥検査装置。
  12.  前記露光条件取得部は、前記画像取得部で取得された前記受光画像が作成されたときの放射線源の状態に関する情報を取得し、前記放射線源の状態に関する情報に基づいて、前記露光条件を算出する請求項1から11のいずれか1項に記載の欠陥検査装置。
  13.  被検査体に放射線を照射することにより得られた前記被検査体の透過光または反射光に基づいて作成された受光画像を取得する画像取得ステップと、
     前記被検査体の少なくとも材質を含む物理的特徴の入力を受け付ける入力ステップと、
     前記放射線の露光条件を取得する露光条件取得ステップと、
     前記物理的特徴、前記放射線の照射条件、および前記受光画像の濃淡の関係である露光情報を記憶する記憶ステップと、
     前記露光条件取得ステップで取得された前記露光条件、前記入力ステップで受け付けられた前記物理的特徴、および前記記憶ステップで記憶された前記露光情報に基づいて、前記受光画像に対する画像処理パラメータを決定するパラメータ決定ステップと、
     前記パラメータ決定ステップで決定された前記画像処理パラメータに基づいて、前記受光画像の画像処理を行うことにより、前記受光画像から前記被検査体の欠陥候補に対応する画像である欠陥候補画像を抽出する画像処理ステップと、
     を含む欠陥検査方法。
  14.  被検査体に放射線を照射することにより得られた前記被検査体の透過光または反射光に基づいて作成された受光画像を取得する画像取得ステップと、
     前記被検査体の少なくとも材質を含む物理的特徴の入力を受け付ける入力ステップと、
     前記放射線の露光条件を取得する露光条件取得ステップと、
     前記物理的特徴、前記放射線の照射条件、および前記受光画像の濃淡の関係である露光情報を記憶する記憶ステップと、
     前記露光条件取得ステップで取得された前記露光条件、前記入力ステップで受け付けられた前記物理的特徴、および前記記憶ステップで記憶された前記露光情報に基づいて、前記受光画像に対する画像処理パラメータを決定するパラメータ決定ステップと、
     前記パラメータ決定ステップで決定された前記画像処理パラメータに基づいて、前記受光画像の画像処理を行うことにより、前記受光画像から前記被検査体の欠陥候補に対応する画像である欠陥候補画像を抽出する画像処理ステップと、
     をコンピュータに実現させる欠陥検査プログラム。
  15.  請求項14に記載の欠陥検査プログラムを記録したコンピュータ読み取り可能な非一時的有形媒体。
PCT/JP2017/022740 2016-08-18 2017-06-20 欠陥検査装置、欠陥検査方法、およびプログラム WO2018034056A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018534285A JP6669874B2 (ja) 2016-08-18 2017-06-20 欠陥検査装置、欠陥検査方法、およびプログラム
US16/268,719 US10989672B2 (en) 2016-08-18 2019-02-06 Defect inspection device, defect inspection method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016160769 2016-08-18
JP2016-160769 2016-08-18

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/268,719 Continuation US10989672B2 (en) 2016-08-18 2019-02-06 Defect inspection device, defect inspection method, and program

Publications (1)

Publication Number Publication Date
WO2018034056A1 true WO2018034056A1 (ja) 2018-02-22

Family

ID=61196725

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/022740 WO2018034056A1 (ja) 2016-08-18 2017-06-20 欠陥検査装置、欠陥検査方法、およびプログラム

Country Status (3)

Country Link
US (1) US10989672B2 (ja)
JP (1) JP6669874B2 (ja)
WO (1) WO2018034056A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020159789A (ja) * 2019-03-26 2020-10-01 東芝Itコントロールシステム株式会社 放射線画像の画質調整装置
JP2020190531A (ja) * 2019-05-23 2020-11-26 東芝Itコントロールシステム株式会社 放射線検査装置
CN113409315A (zh) * 2021-08-19 2021-09-17 深圳市信润富联数字科技有限公司 工件缺陷检测方法、电子装置、装置及可读存储介质
WO2023248583A1 (ja) * 2022-06-21 2023-12-28 富士フイルム株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11003911B2 (en) * 2017-02-28 2021-05-11 Nec Corporation Inspection assistance device, inspection assistance method, and recording medium
JP6988592B2 (ja) * 2018-03-13 2022-01-05 オムロン株式会社 画像検査装置、画像検査方法及び画像検査プログラム
JP7087885B2 (ja) * 2018-09-27 2022-06-21 日立金属株式会社 計測システムおよび穴付きシャフトの製造方法
CN112102255B (zh) * 2020-08-21 2024-01-23 杭州培慕科技有限公司 基于工业场景下的x射线成像图像的缺陷智能评级方法
CN112014404A (zh) * 2020-08-27 2020-12-01 Oppo(重庆)智能科技有限公司 组件检测方法、装置、系统、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002296022A (ja) * 2001-03-29 2002-10-09 Anritsu Corp X線による質量測定方法及びx線質量測定装置
JP2002323461A (ja) * 2001-04-26 2002-11-08 Hitachi Medical Corp X線異物検査装置
JP2006300888A (ja) * 2005-04-25 2006-11-02 Anritsu Sanki System Co Ltd 濃度データ変換方法および装置並びにx線検査システム
JP2009168740A (ja) * 2008-01-18 2009-07-30 Anritsu Sanki System Co Ltd X線異物検出装置
JP2013178242A (ja) * 2012-02-06 2013-09-09 Hitachi High-Technologies Corp X線検査装置、検査方法およびx線検出器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2968442B2 (ja) 1994-09-26 1999-10-25 川崎重工業株式会社 溶接欠陥の評価システム
JP3888623B2 (ja) * 2002-06-25 2007-03-07 アンリツ産機システム株式会社 X線異物検出方法及びx線異物検出装置
JP5557271B2 (ja) 2009-06-03 2014-07-23 名古屋電機工業株式会社 放射線検査装置、放射線検査方法および放射線検査プログラム
JP5848881B2 (ja) * 2011-03-30 2016-01-27 アンリツインフィビス株式会社 X線異物検出装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002296022A (ja) * 2001-03-29 2002-10-09 Anritsu Corp X線による質量測定方法及びx線質量測定装置
JP2002323461A (ja) * 2001-04-26 2002-11-08 Hitachi Medical Corp X線異物検査装置
JP2006300888A (ja) * 2005-04-25 2006-11-02 Anritsu Sanki System Co Ltd 濃度データ変換方法および装置並びにx線検査システム
JP2009168740A (ja) * 2008-01-18 2009-07-30 Anritsu Sanki System Co Ltd X線異物検出装置
JP2013178242A (ja) * 2012-02-06 2013-09-09 Hitachi High-Technologies Corp X線検査装置、検査方法およびx線検出器

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020159789A (ja) * 2019-03-26 2020-10-01 東芝Itコントロールシステム株式会社 放射線画像の画質調整装置
JP7164474B2 (ja) 2019-03-26 2022-11-01 東芝Itコントロールシステム株式会社 放射線画像の画質調整装置
JP2020190531A (ja) * 2019-05-23 2020-11-26 東芝Itコントロールシステム株式会社 放射線検査装置
JP7355525B2 (ja) 2019-05-23 2023-10-03 東芝Itコントロールシステム株式会社 放射線検査装置
CN113409315A (zh) * 2021-08-19 2021-09-17 深圳市信润富联数字科技有限公司 工件缺陷检测方法、电子装置、装置及可读存储介质
WO2023248583A1 (ja) * 2022-06-21 2023-12-28 富士フイルム株式会社 情報処理装置、情報処理方法、及び情報処理プログラム

Also Published As

Publication number Publication date
JPWO2018034056A1 (ja) 2019-06-13
US10989672B2 (en) 2021-04-27
JP6669874B2 (ja) 2020-03-18
US20190170665A1 (en) 2019-06-06

Similar Documents

Publication Publication Date Title
JP6669874B2 (ja) 欠陥検査装置、欠陥検査方法、およびプログラム
JP6767490B2 (ja) 欠陥検査装置、欠陥検査方法、およびプログラム
JP6556266B2 (ja) 欠陥検査装置、方法およびプログラム
JP6930926B2 (ja) 欠陥検査装置、方法およびプログラム
EP3610986B1 (en) Apparatus and method for shot peening evaluation
US9875574B2 (en) Method and device for automatically identifying the deepest point on the surface of an anomaly
JP6422573B2 (ja) 画像処理装置及び画像処理方法及びプログラム
JP6363573B2 (ja) 線源画像面間距離取得装置、方法およびプログラム、並びに放射線画像処理装置、方法およびプログラム
JP6989444B2 (ja) 作業端末、漏油検出装置、及び、漏油検出方法
JP6451839B2 (ja) 形状検査方法、形状検査装置及びプログラム
JP4981433B2 (ja) 検査装置、検査方法、検査プログラムおよび検査システム
JP6570113B2 (ja) 不具合の許否判定方法
WO2023136031A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5214323B2 (ja) 目視検査装置及び方法
JP2016139351A (ja) 構造物点検支援システム
JP2008134074A (ja) タイヤ検査方法
JP7260996B2 (ja) 配管の肉厚推定方法及び配管の肉厚推定装置
JP7042168B2 (ja) 検出同等性評価方法及び検出同等性評価装置
JP7238366B2 (ja) 分析システム
WO2023136030A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2022181231A (ja) 検査支援方法及び検査支援システム
CN117957439A (zh) 显示处理装置、显示处理方法及显示处理程序
JP2023056825A (ja) 検査装置
JP2020003398A (ja) 塗装欠陥の評価方法
JP2018105664A (ja) コーティングの検査方法およびその装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17841284

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018534285

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17841284

Country of ref document: EP

Kind code of ref document: A1