WO2024009572A1 - 情報処理装置、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
WO2024009572A1
WO2024009572A1 PCT/JP2023/013733 JP2023013733W WO2024009572A1 WO 2024009572 A1 WO2024009572 A1 WO 2024009572A1 JP 2023013733 W JP2023013733 W JP 2023013733W WO 2024009572 A1 WO2024009572 A1 WO 2024009572A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
information processing
radiation
image
inspection
Prior art date
Application number
PCT/JP2023/013733
Other languages
English (en)
French (fr)
Inventor
遼 池田
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2024009572A1 publication Critical patent/WO2024009572A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/18Investigating the presence of flaws defects or foreign matter

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and an information processing program.
  • Japanese Unexamined Patent Publication No. 2012-108078 discloses a radiographic imaging device that captures a radiographic image by irradiating the irradiated surface of the housing of a radiation detector with radiation, and performs line defect detection processing on the radiographic image. is disclosed.
  • This radiographic image capturing apparatus re-captures a radiographic image when there is a line defect set as a re-detection target among the line defects detected by the line defect detection process.
  • a two-dimensional radiographic image taken by irradiating the object with radiation may not show flaws in the object depending on the thickness of the object.
  • the user checks the radiation image, determines whether or not it is necessary to retake the radiation image, and if it is determined that the radiation image should be retaken, the user can set up the inspection object, set the radiation irradiation conditions, etc. The inspection efficiency of the non-destructive inspection will decrease as the inspection will have to be carried out again.
  • the present disclosure has been made in view of the above circumstances, and aims to provide an information processing device, an information processing method, and an information processing program that can suppress a decrease in inspection efficiency of non-destructive inspection. .
  • the information processing device is an information processing device including at least one processor, and the processor is configured to perform imaging conditions including the imaging direction of a radiation image taken by irradiating the inspection object with radiation. and structural information representing the three-dimensional structure of the object to be inspected, it is determined whether or not to perform re-imaging of the radiographic image.
  • the processor is configured to detect a position within the inspection object when the imaging direction of the radiographic image that has already been taken is set as the viewing direction, based on the structural information. When it is determined that there is an area in the object to be inspected in which the existing flaw does not appear in the radiation image, it is determined that the radiation image is to be re-photographed.
  • the processor detects a flaw from the radiographic image that has been taken, and based on the structural information, the processor detects the flaw and the radiation. When it is determined that the object to be inspected has a thickness equal to or greater than a certain thickness along the straight line connecting the radiation image to the source, it is determined that the radiation image is to be re-photographed.
  • the processor determines to perform re-imaging of the radiation image, the Based on the imaging conditions of , the imaging conditions for re-imaging are derived.
  • the processor determines to perform re-imaging of the radiographic image, based on the imaging conditions and structural information of the radiographic image that has already been taken, Derive shooting conditions for reshooting.
  • the information processing method of the sixth aspect is based on imaging conditions including the imaging direction of a radiographic image taken by irradiating the inspection object with radiation, and structural information representing the three-dimensional structure of the inspection object.
  • a processor included in the information processing apparatus executes a process of determining whether or not to perform re-imaging of a radiation image.
  • the information processing program of the seventh aspect is based on imaging conditions including the imaging direction of a radiographic image taken by irradiating the inspection object with radiation, and structural information representing the three-dimensional structure of the inspection object. This is for causing a processor included in the information processing apparatus to execute a process of determining whether or not to perform re-imaging of a radiation image.
  • FIG. 1 is a block diagram showing a schematic configuration of a radiation image capturing apparatus.
  • FIG. 2 is a block diagram showing an example of a hardware configuration of an information processing device.
  • FIG. 3 is a diagram for explaining structure information.
  • FIG. 3 is a diagram for explaining a trained model.
  • FIG. 2 is a block diagram illustrating an example of a functional configuration of an information processing device.
  • FIG. 6 is a diagram for explaining a process for deriving a photographing direction.
  • FIG. 6 is a diagram for explaining a process for deriving the position of a flaw in structural information.
  • FIG. 6 is a diagram for explaining the relationship between the depth of a flaw and the degree of blur of a flaw area in an inspection image.
  • FIG. 1 is a block diagram showing a schematic configuration of a radiation image capturing apparatus.
  • FIG. 2 is a block diagram showing an example of a hardware configuration of an information processing device.
  • FIG. 3 is a diagram for explaining structure information.
  • FIG. 6 is a diagram for explaining a process of deriving the position of a flaw based on a plurality of inspection images.
  • FIG. 6 is a diagram for explaining an example of a determination process for re-imaging a test image.
  • FIG. 6 is a diagram for explaining an example of a determination process for re-imaging a test image.
  • FIG. 6 is a diagram for explaining an example of a determination process for re-imaging a test image. It is a figure showing an example of a display screen.
  • 3 is a flowchart illustrating an example of photographing control processing.
  • FIG. 7 is a diagram showing an example of a photographing direction according to a modification.
  • FIG. 7 is a diagram for explaining a process for determining re-capturing of an inspection image according to a modified example.
  • the radiographic imaging device 1 is used for non-destructive inspection of an object to be inspected.
  • the radiation image capturing apparatus 1 includes an information processing device 10, a radiation source 12, and a radiation detector 14.
  • the information processing device 10, the radiation source 12, and the radiation detector 14 are connected to each other so as to be able to communicate with each other.
  • the information processing device 10 is, for example, a computer such as a personal computer or a server computer.
  • the radiation source 12 irradiates the inspection object O with radiation R such as X-rays, for example.
  • the radiation source 12 according to this embodiment emits cone beam-shaped radiation R.
  • the direction from the radiation source 12 to a point on the radiation detector 14 where the radiation R that has passed through the inspection object O reaches is referred to as "imaging direction D.”
  • imaging direction D is the direction toward a point on the radiation detector 14 where the radiation R transmitted from the radiation source 12 through the center of the inspection object O reaches.
  • the radiation detector 14 includes a scintillator, which is an example of a light emitting layer that emits light when irradiated with the radiation R, and a TFT (Thin Film Transistor) substrate.
  • the scintillator and TFT substrate are stacked.
  • the TFT substrate includes a plurality of pixels arranged in a two-dimensional manner, and each pixel includes a sensor section and a field effect thin film transistor as an example of a conversion element whose charge increases as the amount of radiation irradiated increases. Be prepared.
  • the sensor section absorbs light emitted by the scintillator, generates electric charges, and accumulates the generated electric charges.
  • the field effect thin film transistor converts the charges accumulated in the sensor section into an electrical signal and outputs the electrical signal.
  • a radiographic image captured by irradiating the radiation R from the radiation source 12 onto the inspection object O along the capturing direction D is stored in the information processing device 10.
  • a radiation image photographed by irradiating the inspection object O with the radiation R along the photographing direction D will be referred to as an "inspection image.”
  • the information processing device 10 includes a CPU (Central Processing Unit) 20, a memory 21 as a temporary storage area, and a nonvolatile storage section 22.
  • the information processing device 10 also includes a display 23 such as a liquid crystal display, an input device 24 such as a keyboard and a mouse, and a network I/F (InterFace) 25 connected to a network.
  • the information processing device 10 includes an external I/F 26 to which the radiation source 12 and the radiation detector 14 are connected.
  • the CPU 20 , memory 21 , storage section 22 , display 23 , input device 24 , network I/F 25 , and external I/F 26 are connected to the bus 27 .
  • the CPU 20 is an example of a processor according to the disclosed technology.
  • the storage unit 22 is realized by a HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like.
  • An information processing program 30 is stored in the storage unit 22 as a storage medium.
  • the CPU 20 reads out the information processing program 30 from the storage unit 22, loads it into the memory 21, and executes the loaded information processing program 30.
  • the storage unit 22 stores inspection images, structural information 32, and a learned model 34.
  • the structure information 32 includes information representing the three-dimensional structure of the inspection object O. As shown in FIG. 3, the structure information 32 according to the present embodiment is information used when the virtual inspection object O is displayed on the display 23, and the three-dimensional structure of the inspection object O is This information is expressed in coordinates of an orthogonal coordinate system consisting of three axes: the Y-axis and the Z-axis. Further, the structure information 32 also includes the materials of each component that constitutes the inspection object O. The transmittance of the radiation R of the component is determined by the material of the component. An example of the structure information 32 is design information such as CAD (Computer Aided Design) data.
  • CAD Computer Aided Design
  • the trained model 34 is a trained model that inputs an inspection image and outputs information regarding flaws on the inspection object O in the input inspection image, and includes multiple sets of inspection images and their This is a learned model that has been trained using information regarding flaws on the inspection object O in the inspection image as learning data (sometimes referred to as teacher data). Examples of information regarding flaws include the position of the flaw in the inspection image, the size of the flaw, the shape of the flaw, and the like.
  • the position of the flaw in the inspection image is determined by orthogonal coordinates with the origin at a specific point (for example, the upper left corner point) of the two-dimensional inspection image, and made up of two axes, the X axis and the Y axis. expressed in system coordinates.
  • a specific point for example, the upper left corner point
  • the term "flaw" in this specification is defined as a term for non-destructive testing, and means a discontinuous portion such as a bubble, a foreign object, or a crack.
  • the information processing device 10 includes an imaging control section 40, a detection section 42, a first derivation section 44, a second derivation section 46, a determination section 48, a third derivation section 50, and a display control section 52.
  • the CPU 20 functions as the imaging control section 40, the detection section 42, the first derivation section 44, the second derivation section 46, the determination section 48, the third derivation section 50, and the display control section 52. do.
  • the photographing control unit 40 performs control to photograph the inspection image by irradiating the inspection object O with the radiation R along the photographing direction D. Specifically, the imaging control unit 40 controls the radiation source 12 to irradiate the radiation R according to the set radiation R irradiation conditions via the external I/F 26.
  • the irradiation conditions of the radiation R include, for example, the tube voltage of the radiation source 12, the tube current of the radiation source 12, the irradiation period of the radiation R, and are set by the user.
  • the imaging control unit 40 controls turning on and off of the field effect thin film transistor of the radiation detector 14 in accordance with the irradiation timing of the radiation R via the external I/F 26. Through this control, the radiation detector 14 generates a two-dimensional inspection image according to the radiation R applied to the inspection object O from the radiation source 12, and outputs the generated inspection image to the information processing device 10. .
  • the detection unit 42 detects flaws on the inspection object O in the inspection image based on the inspection image photographed under the control of the photography control unit 40 and the trained model 34. Specifically, the detection unit 42 inputs the test image to the trained model 34. The trained model 34 outputs information regarding flaws on the inspection object O corresponding to the input inspection image. Thereby, the detection unit 42 detects flaws on the inspection object O in the inspection image.
  • the detection unit 42 may detect flaws on the inspection object O in the inspection image using a known detection algorithm. Furthermore, the flaw on the inspection object O in the inspection image may be specified by the user via the input device 24. In this case, the detection unit 42 detects the flaw specified by the user.
  • the first derivation unit 44 derives the photographing direction D in the structure information 32.
  • a specific example of the process of deriving the photographing direction D in the structure information 32 by the first deriving unit 44 will be described with reference to FIG. 6.
  • a two-dimensional inspection image is obtained by irradiating radiation R from the radiation source 12 onto the inspection object O along the imaging direction D.
  • the first derivation unit 44 projects the inspection object O along the viewpoint direction when the virtual inspection object O is displayed on the display 23, based on the structure information 32. By doing so, a two-dimensional simulation image is generated.
  • the viewpoint direction is a direction in which the surface of the virtual inspection object O is in front of the display screen when the virtual inspection object O is viewed in that direction.
  • the example on the left side of FIG. 6 shows an example in which a simulation image is generated when a virtual inspection object O based on the structure information 32 is viewed from the right side of FIG. 6, that is, in the direction of arrow A.
  • the viewpoint direction is expressed by the coordinates of one point, and the direction from that coordinate to the origin is the viewpoint direction.
  • the first derivation unit 44 generates simulation images for each of a plurality of different viewpoint directions. Further, the first derivation unit 44 derives the degree of similarity between each generated simulation image and the inspection image. Specifically, for example, the first derivation unit 44 derives the degree of similarity between the silhouette of the inspection object O in the simulation image and the silhouette of the inspection object O in the inspection image. Note that the first derivation unit 44 extracts the contour line of the inspection object O in the simulation image and the contour line of the inspection object O in the inspection image, and calculates the outer shape of the inspection object O constituted by the extracted contour lines. The degree of similarity may be derived.
  • the first derivation unit 44 sets the viewpoint direction of the simulation image having the highest degree of similarity to the inspection image as the photographing direction D in the structure information 32.
  • the second derivation unit 46 uses the imaging direction D derived by the first derivation unit 44 to convert the position of the flaw on the inspection object O in the inspection image detected by the detection unit 42 into the position of the flaw in the structure information 32. By converting, the three-dimensional coordinates of the flaw in the structure information 32 are derived. Note that the second derivation unit 46 may acquire the photographing direction D derived by an external device instead of the first derivation unit 44 via the network I/F 25.
  • the second derivation unit 46 converts the position of the flaw on the inspection object O in the inspection image to the position of the structural information 32 in the plane when the photographing direction D is the viewpoint direction.
  • the second derivation unit 46 performs the above conversion by adjusting the scale of the outer shape of the inspected object O in the inspection image and the outer shape of the virtual inspected object O seen from the photographing direction D in the structure information 32. be able to.
  • the position of the flaw on the inspection object O in the plane when the virtual inspection object O is viewed from the photographing direction D in the structure information 32 can be determined. Therefore, as shown in FIG. 7, if the depth L of the flaw along the imaging direction D can be determined, the three-dimensional coordinates of the flaw in the structural information 32 can be determined.
  • the second derivation unit 46 derives the depth of the flaw along the photographing direction D based on one inspection image. As shown in FIG. 8, the smaller the depth of the flaw along the imaging direction D, that is, the farther the flaw is from the radiation detector 14, the greater the degree of blur in the flaw area in the inspection image. This is because the farther away the flaw is from the radiation detector 14, the more susceptible it is to the effects of scattered radiation. Therefore, the second derivation unit 46 derives the depth of the flaw along the photographing direction D based on the degree of blur of the flaw area in the inspection image.
  • the second derivation unit 46 derives the depth of the flaw along the photographing direction D as a larger value as the degree of blur in the flaw area in the inspection image is greater. Then, the second deriving unit 46 sets a position away from a position corresponding to the surface of the inspection object O in the structural information 32 by the derived depth along the photographing direction D as the position of the flaw in the structural information 32. Derive.
  • the second derivation unit 46 can convert the position of the flaw on the inspection object O in the two-dimensional inspection image into three-dimensional coordinates in the structure information 32.
  • the second derivation unit 46 converts the position of the flaw on the inspection object O in the inspection image into the position of the flaw in the structural information 32 based on a plurality of inspection images taken from a plurality of different shooting directions D. Good too.
  • the second deriving unit 46 uses the photographing direction D derived by the first deriving unit 44 to determine the position of the flaw in each of the plurality of inspection images within the plane when the photographing direction D is the viewing direction. Convert to the position of the structure information 32. Then, as shown in FIG.
  • the second deriving unit 46 calculates the intersection point P of the plurality of straight lines along each of the photographing directions D, which is a straight line passing through the position of the flaw after conversion for each of the plurality of inspection images. It is derived as the position of the flaw in the structure information 32.
  • FIG. 9 shows an example in which there are two inspection images.
  • the determining unit 48 determines whether or not to re-photograph the inspection image based on the photographing conditions including the photographing direction D derived by the first deriving unit 44 and the structure information 32. Specifically, based on the structure information 32, the determination unit 48 determines, based on the structure information 32, an area where flaws existing in the inspection object O are not captured in the inspection image when the shooting direction D of the inspection image that has already been taken is taken as the viewpoint direction. If it is determined that there exists within the inspection object O, it is determined that the inspection image is to be re-photographed. An example in which this determination is made will be described with reference to FIG. 10.
  • the inspection object O is composed of three parts P1, P2, and P3, and the photographing direction D is along the longitudinal direction of the parts P1 and P2.
  • the thickness of parts P1 and P2 along the imaging direction D is equal to or greater than a certain value
  • the transmittance of radiation R of parts P1 and P2 is equal to or less than a certain value
  • part P1 and The radiation R irradiated to P2 does not reach component P3. That is, in this case, if the photographing direction D is set as the viewpoint direction, even if there is a flaw in the shadow area of each of the parts P1 and P2 in the part P3, it is assumed that the flaw will not appear in the inspection image.
  • the determination unit 48 determines whether or not there is an area in the inspection object O in which the flaws present in the inspection object O are not captured in the inspection image, based on the structure information 32 and the photographing direction D. Based on this, it is determined whether or not to retake the inspection image.
  • the determination unit 48 determines whether to re-photograph the inspection image based on the structure information 32 and the position of the flaw derived by the second derivation unit 46. Determine whether or not. Specifically, the determination unit 48 detects a flaw in the photographed inspection image, and based on the structure information 32, determines whether the inspection object O has a certain thickness along a straight line connecting the flaw and the radiation source 12. If it is determined that the thickness is greater than or equal to the thickness above, it is determined that the inspection image is to be re-photographed. An example in which this determination is made will be described with reference to FIGS. 11 and 12.
  • the straight line connecting the flaw and the radiation source 12 is shown as a dashed-dotted line.
  • the thickness of the inspection object O along the straight line connecting the flaw and the radiation source 12 is the sum of T1 and T2. Further, when the flaw is located at the position shown in FIG. 12, the thickness of the inspection object O along the straight line connecting the flaw and the radiation source 12 is T.
  • the determination unit 48 determines that when a flaw is detected from the photographed inspection image and based on the structure information 32, the inspection object O has a thickness equal to or more than a certain thickness along a straight line connecting the flaw and the radiation source 12. By determining whether or not the test image is present, it is determined whether or not to retake the inspection image.
  • the third derivation unit 50 derives the imaging conditions for re-imaging based on the imaging conditions and structure information 32 of the already-taken inspection image. For example, the third derivation unit 50 may locate a region in the inspection object O where it is determined that the radiation R does not reach in the captured inspection image based on the imaging direction D and the structure information 32 of the captured inspection image.
  • the imaging direction D in which the radiation R reaches is derived as the imaging direction D for re-imaging.
  • the third derivation unit 50 determines that there is a possibility that flaws may appear overlapped in the photographed inspection image based on the photographing direction D of the photographed inspection image, the structural information 32, and the position of the flaw.
  • the imaging direction D in which the radiation R reaches the region determined as such is derived as the imaging direction D for re-imaging.
  • An example of the imaging direction D for re-imaging in this case is a direction perpendicular to the straight line connecting the flaw and the radiation source 12.
  • the third deriving unit 50 determines the imaging conditions for the re-imaging based on the imaging conditions of the already-captured inspection image, without using the structural information 32. May be derived. In this case, for example, the third deriving unit 50 derives a direction perpendicular to the photographing direction D of the photographed inspection image as the photographing direction D for re-photographing.
  • the display control section 52 Based on the photographing direction D derived by the third deriving section 50, the display control section 52 performs control to display information indicating that re-photographing will be performed on the display 23. As an example, as shown in FIG. 13, the display control unit 52, based on the structure information 32, displays a front view F of the inspection object O when the photographing direction D is the viewpoint direction, a front view F of the inspection object O, which recommends re-photographing, and Control is performed to display on the display 23 a message M prompting the installation of the inspection object O according to FIG.
  • the operation of the information processing device 10 according to this embodiment will be described with reference to FIG. 14.
  • the photographing control process shown in FIG. 14 is executed.
  • the photographing control process shown in FIG. 14 is executed, for example, when the user inputs an instruction to start execution.
  • step S10 of FIG. 14 the imaging control unit 40 performs control to capture an inspection image by irradiating the inspection object O with the radiation R along the imaging direction D, as described above.
  • step S12 the detection unit 42 detects flaws on the inspection object O in the inspection image based on the inspection image photographed in step S10 and the trained model 34, as described above.
  • step S14 the first derivation unit 44 derives the photographing direction D in the structure information 32, as described above.
  • step S16 the second derivation unit 46 uses the imaging direction D derived in step S14 to calculate the position of the flaw on the inspection object O in the inspection image detected in step S12 using the structural information 32, as described above. By converting to the position of the flaw in , the three-dimensional coordinates of the flaw in the structure information 32 are derived.
  • step S18 the determination unit 48 determines whether or not to re-photograph the inspection image based on the photographing conditions including the photographing direction D derived in step S14 and the structure information 32. . If this determination is affirmative, the process moves to step S20.
  • step S20 as described above, the third derivation unit 50 derives the imaging conditions for re-imaging based on the imaging conditions and structure information 32 of the inspected image that has been taken through the processing in step S10.
  • step S22 the display control unit 52 performs control to display information indicating that re-photographing will be performed on the display 23, based on the photographing direction D derived in step S20, as described above.
  • the user changes the posture of the inspection object O based on the information displayed on the display 23 and inputs an instruction for re-imaging.
  • step S24 the photographing control unit 40 performs control to photograph a test image similarly to step S10.
  • step S24 ends, the photographing control process ends. Further, if the determination in step S18 is negative, the photographing control process ends. Note that after step S24 is executed, steps S12 and subsequent steps may be executed again.
  • the information processing device 10 immediately determines whether re-photographing is necessary. Therefore, it is possible to suppress a decrease in the inspection efficiency of non-destructive inspection.
  • the imaging direction D is set relative to the direction from the radiation source 12 to the center of the inspection object O. It may also be tilted in a tilted direction.
  • the imaging conditions may include the radiation R irradiation conditions in addition to the imaging direction D.
  • the determination unit 48 determines that the inspection object O has a plurality of intersecting surfaces, based on the structure information 32 and the flaw positions derived by the second derivation unit 46. If it is determined that a flaw exists in a portion where at least two of the surfaces overlap along the photographing direction D, it may be determined that re-photographing is to be performed. An example in which this determination is made will be described with reference to FIG. 16. As shown in FIG. 16, here, it is assumed that the inspection object O has two intersecting surfaces S1 and S2, and a portion of the two surfaces S1 and S2 overlap along the photographing direction D. do.
  • the determination unit 48 may determine that re-imaging is to be performed in such a case.
  • the hardware structure of a processing unit that executes various processes includes the following various processors.
  • the various processors mentioned above include the CPU, which is a general-purpose processor that executes software (programs) and functions as various processing units, as well as circuits that are manufactured after manufacturing, such as FPGA (Field Programmable Gate Array).
  • a programmable logic device (PLD) which is a processor whose configuration can be changed, and a dedicated electrical device, which is a processor with a circuit configuration specifically designed to execute a specific process, such as an ASIC (Application Specific Integrated Circuit) Includes circuits, etc.
  • ASIC Application Specific Integrated Circuit
  • One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs, or a combination of a CPU and an FPGA). combination). Further, the plurality of processing units may be configured with one processor.
  • one processor is configured with a combination of one or more CPUs and software, as typified by computers such as a client and a server.
  • a processor functions as multiple processing units.
  • processors that use a single IC (Integrated Circuit) chip, such as System on Chip (SoC), which implements the functions of an entire system that includes multiple processing units. be.
  • SoC System on Chip
  • various processing units are configured using one or more of the various processors described above as a hardware structure.
  • circuitry that is a combination of circuit elements such as semiconductor elements can be used.
  • the information processing program 30 is stored (installed) in the storage unit 22 in advance, but the present invention is not limited to this.
  • the information processing program 30 is provided in a form recorded on a recording medium such as a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Read Only Memory), and a USB (Universal Serial Bus) memory. Good too. Further, the information processing program 30 may be downloaded from an external device via a network.

Abstract

情報処理装置は、検査対象物に対して放射線を照射することによって撮影された放射線画像の撮影方向を含む撮影条件と、検査対象物の3次元構造を表す構造情報とに基づいて、放射線画像の再撮影を行うか否かを判定する。

Description

情報処理装置、情報処理方法、及び情報処理プログラム
 本開示は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。
 特開2012-108078号公報には、放射線を放射線検出器の筐体の被照射面に照射することにより放射線画像を撮影し、その放射線画像に対して線欠陥の検出処理を行う放射線画像撮影装置が開示されている。この放射線画像撮影装置は、線欠陥の検出処理により検出された線欠陥の中に、再検出対象に設定された線欠陥が存在する場合、放射線画像の再撮影を行う。
 非破壊検査において、検査対象物に対して放射線を照射することにより撮影された2次元の放射線画像では、検査対象物の厚み等によっては、検査対象物に存在するきずが写らない場合がある。この場合、ユーザが、放射線画像を確認し、放射線画像の再撮影の要否を判断し、放射線画像の再撮影を行うと判断した場合、検査対象物の設置及び放射線の照射条件の設定等を再度行うことになり、非破壊検査の検査効率が低下してしまう。
 本開示は、以上の事情を鑑みてなされたものであり、非破壊検査の検査効率の低下を抑制することができる情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。
 第1の態様の情報処理装置は、少なくとも一つのプロセッサを備える情報処理装置であって、プロセッサは、検査対象物に対して放射線を照射することによって撮影された放射線画像の撮影方向を含む撮影条件と、検査対象物の3次元構造を表す構造情報とに基づいて、放射線画像の再撮影を行うか否かを判定する。
 第2の態様の情報処理装置は、第1の態様の情報処理装置において、プロセッサは、構造情報に基づいて、撮影済みの放射線画像の撮影方向を視点方向とした際に、検査対象物内に存在するきずが放射線画像に写らない領域が検査対象物内に存在すると判定した場合に、放射線画像の再撮影を行うと判定する。
 第3の態様の情報処理装置は、第1の態様又は第2の態様の情報処理装置において、プロセッサは、撮影済みの放射線画像からきずが検出され、かつ構造情報に基づいて、そのきずと放射線源とを結ぶ直線に沿って検査対象物が一定の厚み以上の厚みを有すると判定した場合に、放射線画像の再撮影を行うと判定する。
 第4の態様の情報処理装置は、第1の態様から第3の態様の何れか1態様の情報処理装置において、プロセッサは、放射線画像の再撮影を行うと判定した場合、撮影済みの放射線画像の撮影条件に基づいて、再撮影での撮影条件を導出する。
 第5の態様の情報処理装置は、第4の態様の情報処理装置において、プロセッサは、放射線画像の再撮影を行うと判定した場合、撮影済みの放射線画像の撮影条件及び構造情報に基づいて、再撮影での撮影条件を導出する。
 第6の態様の情報処理方法は、検査対象物に対して放射線を照射することによって撮影された放射線画像の撮影方向を含む撮影条件と、検査対象物の3次元構造を表す構造情報とに基づいて、放射線画像の再撮影を行うか否かを判定する処理を情報処理装置が備えるプロセッサが実行するものである。
 第7の態様の情報処理プログラムは、検査対象物に対して放射線を照射することによって撮影された放射線画像の撮影方向を含む撮影条件と、検査対象物の3次元構造を表す構造情報とに基づいて、放射線画像の再撮影を行うか否かを判定する処理を情報処理装置が備えるプロセッサに実行させるためのものである。
 本開示によれば、非破壊検査の検査効率の低下を抑制することができる。
放射線画像撮影装置の概略構成を示すブロック図である。 情報処理装置のハードウェア構成の一例を示すブロック図である。 構造情報を説明するための図である。 学習済みモデルを説明するための図である。 情報処理装置の機能的な構成の一例を示すブロック図である。 撮影方向の導出処理を説明するための図である。 構造情報におけるきずの位置の導出処理を説明するための図である。 きずの深さと検査画像におけるきずの領域のぼけ度合いとの関係を説明するための図である。 複数の検査画像に基づいてきずの位置を導出する処理を説明するための図である。 検査画像の再撮影の判定処理の一例を説明するための図である。 検査画像の再撮影の判定処理の一例を説明するための図である。 検査画像の再撮影の判定処理の一例を説明するための図である。 表示画面の一例を示す図である。 撮影制御処理の一例を示すフローチャートである。 変形例に係る撮影方向の一例を示す図である。 変形例に係る検査画像の再撮影の判定処理を説明するための図である。
 以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
 まず、図1を参照して、本実施形態に係る放射線画像撮影装置1の構成を説明する。放射線画像撮影装置1は、検査対象物の非破壊検査に用いられる。図1に示すように、放射線画像撮影装置1は、情報処理装置10、放射線源12、及び放射線検出器14を含む。情報処理装置10、放射線源12、及び放射線検出器14は、互いに通信可能な状態で接続される。情報処理装置10は、例えば、パーソナルコンピュータ又はサーバコンピュータ等のコンピュータである。
 放射線源12は、例えばX線等の放射線Rを検査対象物Oに照射する。本実施形態に係る放射線源12は、コーンビーム状の放射線Rを照射する。放射線源12から、検査対象物Oを透過した放射線Rが到達した放射線検出器14上の一点への方向を「撮影方向D」という。本実施形態では、放射線源12から検査対象物Oの中心を透過した放射線Rが到達した放射線検出器14上の一点への方向を撮影方向Dとした場合を例に説明する。
 放射線検出器14は、放射線Rが照射されることにより光を発する発光層の一例としてのシンチレータ及びTFT(Thin Film Transistor)基板を含む。シンチレータ及びTFT基板は積層されている。TFT基板は二次元状に配置された複数の画素を備え、各画素は、照射される放射線量の増加に伴って発生する電荷が増加する変換素子の一例としてのセンサ部及び電界効果型薄膜トランジスタを備える。センサ部は、シンチレータが発する光を吸収して電荷を発生させ、発生させた電荷を蓄積する。電界効果型薄膜トランジスタは、センサ部に蓄積された電荷を電気信号に変換して出力する。以上の構成により、放射線検出器14は、放射線源12から検査対象物Oに対して照射された放射線Rに応じた2次元の放射線画像を生成し、生成した放射線画像を情報処理装置10に出力する。
 このように、放射線画像撮影装置1では、放射線源12から検査対象物Oに対して撮影方向Dに沿って放射線Rを照射することによって撮影された放射線画像が情報処理装置10に保存される。以下では、検査対象物Oに対して撮影方向Dに沿って放射線Rを照射することによって撮影された放射線画像を「検査画像」という。
 次に、図2を参照して、本実施形態に係る情報処理装置10のハードウェア構成を説明する。図2に示すように、情報処理装置10は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、情報処理装置10は、液晶ディスプレイ等のディスプレイ23、キーボードとマウス等の入力装置24、及びネットワークに接続されるネットワークI/F(InterFace)25を含む。また、情報処理装置10は、放射線源12及び放射線検出器14が接続される外部I/F26を含む。CPU20、メモリ21、記憶部22、ディスプレイ23、入力装置24、ネットワークI/F25、及び外部I/F26は、バス27に接続される。CPU20は、開示の技術に係るプロセッサの一例である。
 記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、情報処理プログラム30が記憶される。CPU20は、記憶部22から情報処理プログラム30を読み出してからメモリ21に展開し、展開した情報処理プログラム30を実行する。
 また、記憶部22には、検査画像、構造情報32、及び学習済みモデル34が記憶される。構造情報32は、検査対象物Oの3次元構造を表す情報を含む。図3に示すように、本実施形態に係る構造情報32は、ディスプレイ23に仮想の検査対象物Oが表示される際に用いられる情報であり、検査対象物Oの3次元構造をX軸、Y軸、及びZ軸の3軸で構成される直交座標系の座標で表した情報である。また、構造情報32は、検査対象物Oを構成する各部品の素材も含む。部品の素材によって、その部品の放射線Rの透過率が特定される。構造情報32の例としては、CAD(Computer Aided Design)データ等の設計情報が挙げられる。
 図4に示すように、学習済みモデル34は、検査画像を入力とし、入力の検査画像における検査対象物Oのきずに関する情報を出力とする学習済みモデルであって、複数組の検査画像及びその検査画像における検査対象物Oのきずに関する情報を学習用データ(教師データと称されることもある)として用いて学習された学習済みモデルである。きずに関する情報の例としては、検査画像におけるきずの位置、きずのサイズ、及びきずの形状等が挙げられる。本実施形態では、検査画像におけるきずの位置は、2次元の検査画像の特定の点(例えば、左上の角の点)を原点とし、かつX軸及びY軸の2軸で構成された直交座標系の座標で表される。なお、本明細書における「きず」とは、非破壊検査の用語として定義されているものであり、気泡、異物、及び亀裂等の不連続部を意味する。
 次に、図5を参照して、本実施形態に係る情報処理装置10の機能的な構成について説明する。図5に示すように、情報処理装置10は、撮影制御部40、検出部42、第1導出部44、第2導出部46、判定部48、第3導出部50、及び表示制御部52を含む。CPU20が情報処理プログラム30を実行することにより、撮影制御部40、検出部42、第1導出部44、第2導出部46、判定部48、第3導出部50、及び表示制御部52として機能する。
 撮影制御部40は、検査対象物Oに対して撮影方向Dに沿って放射線Rを照射することによって検査画像を撮影する制御を行う。具体的には、撮影制御部40は、外部I/F26を介して、放射線源12に対し、設定された放射線Rの照射条件に従って放射線Rを照射させる制御を行う。放射線Rの照射条件は、例えば、放射線源12の管電圧、放射線源12の管電流、及び放射線Rの照射期間等を含み、ユーザによって設定される。撮影制御部40は、外部I/F26を介して、放射線Rの照射タイミングに合わせて放射線検出器14の電界効果型薄膜トランジスタのオン及びオフを制御する。この制御により、放射線検出器14は、放射線源12から検査対象物Oに対して照射された放射線Rに応じた2次元の検査画像を生成し、生成した検査画像を情報処理装置10に出力する。
 検出部42は、撮影制御部40による制御により撮影された検査画像と、学習済みモデル34とに基づいて、検査画像における検査対象物Oのきずを検出する。具体的には、検出部42は、学習済みモデル34に対し、検査画像を入力する。学習済みモデル34は、入力された検査画像に対応する検査対象物Oのきずに関する情報を出力する。これにより、検出部42は、検査画像における検査対象物Oのきずを検出する。
 なお、検出部42は、公知の検出アルゴリズムによって検査画像における検査対象物Oのきずを検出してもよい。また、検査画像における検査対象物Oのきずは、ユーザにより入力装置24を介して指定されてもよい。この場合、検出部42は、ユーザにより指定されたきずを検出する。
 第1導出部44は、構造情報32における撮影方向Dを導出する。図6を参照して、第1導出部44による構造情報32における撮影方向Dの導出処理の具体例を説明する。
 図6の右側に示すように、2次元の検査画像は、放射線源12から検査対象物Oに対して撮影方向Dに沿って放射線Rを照射することにより撮影されることによって得られる。図6の左側に示すように、第1導出部44は、構造情報32に基づいて、ディスプレイ23に仮想の検査対象物Oが表示される際の視点方向に沿って検査対象物Oを射影することにより、2次元のシミュレーション画像を生成する。視点方向とは、その方向に仮想の検査対象物Oを見た場合における検査対象物Oの面が表示画面の正面となる方向である。図6の左側の例では、構造情報32に基づく仮想の検査対象物Oを図6の右側から、すなわち、矢印A方向に見た場合のシミュレーション画像が生成される例を示している。例えば、視点方向は一点の座標で表され、その座標から原点を通る方向が視点方向となる。
 第1導出部44は、異なる複数の視点方向それぞれについてシミュレーション画像を生成する。また、第1導出部44は、生成した各シミュレーション画像と検査画像との類似度を導出する。具体的には、例えば、第1導出部44は、シミュレーション画像の検査対象物Oのシルエットと、検査画像の検査対象物Oのシルエットとの類似度を導出する。なお、第1導出部44は、シミュレーション画像の検査対象物Oの輪郭線と、検査画像の検査対象物Oの輪郭線をそれぞれ抽出し、抽出した輪郭線により構成される検査対象物Oの外形の類似度を導出してもよい。
 そして、第1導出部44は、検査画像との類似度が最も高いシミュレーション画像の視点方向を、構造情報32における撮影方向Dとする。
 第2導出部46は、第1導出部44により導出された撮影方向Dを用いて、検出部42により検出された検査画像における検査対象物Oのきずの位置を構造情報32におけるきずの位置に変換することによって、構造情報32におけるきずの3次元座標を導出する。なお、第2導出部46は、第1導出部44ではなく、外部装置により導出された撮影方向Dを、ネットワークI/F25を介して取得してもよい。
 具体的には、まず、第2導出部46は、検査画像における検査対象物Oのきずの位置を、撮影方向Dを視点方向とした場合の平面内の構造情報32の位置に変換する。例えば、第2導出部46は、検査画像における検査対象物Oの外形と構造情報32における撮影方向Dから見た仮想の検査対象物Oの外形との縮尺を合わせる処理等によって上記の変換を行うことができる。
 このように、構造情報32における撮影方向Dから仮想の検査対象物Oを見た場合における平面内の検査対象物Oのきずの位置を求めることができる。このため、図7に示すように、撮影方向Dに沿ったきずの深さLを求めることができれば、構造情報32におけるきずの3次元座標を求めることができる。
 本実施形態に係る第2導出部46は、1枚の検査画像に基づいて撮影方向Dに沿ったきずの深さを導出する。図8に示すように、撮影方向Dに沿ったきずの深さが小さくなるほど、すなわち、きずが放射線検出器14から離れるほど、検査画像におけるきずの領域のぼけ度合いが大きくなる。これは、きずが放射線検出器14から離れるほど、散乱線の影響等を受けやすくなるためである。そこで、第2導出部46は、検査画像におけるきずの領域のぼけ度合いに基づいて撮影方向Dに沿ったきずの深さを導出する。具体的には、第2導出部46は、検査画像におけるきずの領域のぼけ度合いが大きいほど、撮影方向Dに沿ったきずの深さを大きい値として導出する。そして、第2導出部46は、構造情報32における検査対象物Oの表面に相当する位置から、撮影方向Dに沿って導出した深さの分だけ離れた位置を構造情報32におけるきずの位置として導出する。
 以上の処理により、第2導出部46は、2次元の検査画像における検査対象物Oのきずの位置を構造情報32における3次元の座標に変換することができる。
 なお、第2導出部46は、異なる複数の撮影方向Dから撮影された複数の検査画像に基づいて、検査画像における検査対象物Oのきずの位置を構造情報32におけるきずの位置に変換してもよい。この場合、第2導出部46は、第1導出部44により導出された撮影方向Dを用いて、複数の検査画像それぞれのきずの位置を、撮影方向Dを視点方向とした場合の平面内の構造情報32の位置に変換する。そして、図9に示すように、第2導出部46は、複数の検査画像それぞれについての変換後のきずの位置を通る直線であって、撮影方向Dそれぞれに沿った複数の直線の交点Pを構造情報32におけるきずの位置として導出する。図9では、検査画像が2枚の場合の例を示している。
 判定部48は、第1導出部44により導出された撮影方向Dを含む撮影条件と、構造情報32とに基づいて、検査画像の再撮影を行うか否かを判定する。具体的には、判定部48は、構造情報32に基づいて、撮影済みの検査画像の撮影方向Dを視点方向とした際に、検査対象物O内に存在するきずが検査画像に写らない領域が検査対象物O内に存在すると判定した場合に、検査画像の再撮影を行うと判定する。図10を参照して、この判定が行われる場合の一例を説明する。
 図10に示すように、ここでは、検査対象物Oが3つの部品P1、P2、P3により構成され、撮影方向Dが部品P1及び部品P2の長手方向に沿った方向であるものとする。図10に示す例では、部品P1及び部品P2の撮影方向Dに沿った厚みが一定値以上であり、部品P1及び部品P2の放射線Rの透過率が一定値以下の場合に、部品P1及び部品P2に照射された放射線Rが部品P3にまで到達しない。すなわち、この場合、撮影方向Dを視点方向とした場合、部品P3内の部品P1及び部品P2それぞれの影になる領域には、きずが存在したとしても、そのきずは検査画像に写らないと考えられる。図10の例では、撮影方向Dを視点方向とした場合に部品P3内の部品P1及び部品P2それぞれの影になる領域が斜線で塗りつぶされた矩形で表されている。そこで、判定部48は、構造情報32及び撮影方向Dに基づいて、検査対象物O内に存在するきずが検査画像に写らない領域が検査対象物O内に存在するか否かを判定することによって、検査画像の再撮影を行うか否かを判定する。
 また、判定部48は、撮影済みの検査画像からきずが検出された場合、構造情報32と、第2導出部46により導出されたきずの位置とに基づいて、検査画像の再撮影を行うか否かを判定する。具体的には、判定部48は、撮影済みの検査画像からきずが検出され、かつ構造情報32に基づいて、そのきずと放射線源12とを結ぶ直線に沿って検査対象物Oが一定の厚み以上の厚みを有すると判定した場合に、検査画像の再撮影を行うと判定する。図11及び図12を参照して、この判定が行われる場合の一例を説明する。
 図11及び図12に示すように、検査対象物Oの形状が円筒状であり、検査対象物Oの側面から放射線Rが照射された場合を例に説明する。図11及び図12の例では、きずと放射線源12とを結ぶ直線が一点鎖線で示されている。きずの位置が図11に示す位置である場合、きずと放射線源12とを結ぶ直線に沿った検査対象物Oの厚みは、T1とT2とを加算した値になる。また、きずの位置が図12に示す位置である場合、きずと放射線源12とを結ぶ直線に沿った検査対象物Oの厚みは、Tになる。きずと放射線源12とを結ぶ直線に沿った検査対象物Oの厚みが一定の厚み以上である場合、複数のきずが重なった状態で検査画像に写る可能性がある。そこで、判定部48は、撮影済みの検査画像からきずが検出され、かつ構造情報32に基づいて、そのきずと放射線源12とを結ぶ直線に沿って検査対象物Oが一定の厚み以上の厚みを有するか否かを判定することによって、検査画像の再撮影を行うか否かを判定する。
 第3導出部50は、判定部48により再撮影を行うと判定された場合、撮影済みの検査画像の撮影条件及び構造情報32に基づいて、再撮影での撮影条件を導出する。例えば、第3導出部50は、撮影済みの検査画像の撮影方向Dと構造情報32とに基づいて、撮影済みの検査画像では放射線Rが到達しないと判定された検査対象物O内の領域に放射線Rが到達する撮影方向Dを再撮影での撮影方向Dとして導出する。また、例えば、第3導出部50は、撮影済みの検査画像の撮影方向Dと構造情報32ときずの位置とに基づいて、撮影済みの検査画像ではきずが重なった状態で写る可能性があると判定された領域に放射線Rが到達する撮影方向Dを再撮影での撮影方向Dとして導出する。この場合の再撮影での撮影方向Dの例としては、きずと放射線源12とを結ぶ直線に直交する方向が挙げられる。
 なお、第3導出部50は、判定部48により再撮影を行うと判定された場合、構造情報32を用いずに、撮影済みの検査画像の撮影条件に基づいて、再撮影での撮影条件を導出してもよい。この場合、例えば、第3導出部50は、撮影済みの検査画像の撮影方向Dに直交する方向を、再撮影での撮影方向Dとして導出する。
 表示制御部52は、第3導出部50により導出された撮影方向Dに基づいて、再撮影を行うことを表す情報をディスプレイ23に表示する制御を行う。一例として図13に示すように、表示制御部52は、構造情報32に基づいて、撮影方向Dを視点方向とした場合の検査対象物Oの正面図Fと、再撮影を推奨し、かつ正面図Fに従って検査対象物Oを設置することを促すメッセージMとをディスプレイ23に表示する制御を行う。
 次に、図14を参照して、本実施形態に係る情報処理装置10の作用を説明する。CPU20が情報処理プログラム30を実行することによって、図14に示す撮影制御処理が実行される。図14に示す撮影制御処理は、例えば、ユーザにより実行開始の指示が入力された場合に実行される。
 図14のステップS10で、撮影制御部40は、前述したように、検査対象物Oに対して撮影方向Dに沿って放射線Rを照射することによって検査画像を撮影する制御を行う。ステップS12で、検出部42は、前述したように、ステップS10で撮影された検査画像と、学習済みモデル34とに基づいて、検査画像における検査対象物Oのきずを検出する。
 ステップS14で、第1導出部44は、前述したように、構造情報32における撮影方向Dを導出する。ステップS16で、第2導出部46は、前述したように、ステップS14で導出された撮影方向Dを用いて、ステップS12で検出された検査画像における検査対象物Oのきずの位置を構造情報32におけるきずの位置に変換することによって、構造情報32におけるきずの3次元座標を導出する。
 ステップS18で、判定部48は、前述したように、ステップS14で導出された撮影方向Dを含む撮影条件と、構造情報32とに基づいて、検査画像の再撮影を行うか否かを判定する。この判定が肯定判定となった場合、処理はステップS20に移行する。ステップS20で、第3導出部50は、前述したように、ステップS10の処理による撮影済みの検査画像の撮影条件及び構造情報32に基づいて、再撮影での撮影条件を導出する。
 ステップS22で、表示制御部52は、前述したように、ステップS20で導出された撮影方向Dに基づいて、再撮影を行うことを表す情報をディスプレイ23に表示する制御を行う。ユーザは、ディスプレイ23に表示された情報に基づいて、検査対象物Oの姿勢を変更し、かつ再撮影の指示を入力する。再撮影の指示が入力されると、ステップS24で、撮影制御部40は、ステップS10と同様に、検査画像を撮影する制御を行う。
 ステップS24の処理が終了すると、撮影制御処理が終了する。また、ステップS18の判定が否定判定となった場合、撮影制御処理が終了する。なお、ステップS24の実行後に、再度ステップS12以降を実行してもよい。
 以上説明したように、本実施形態によれば、検査画像の撮影後に、情報処理装置10によって直ちに再撮影の要否が判定される。従って、非破壊検査の検査効率の低下を抑制することができる。
 なお、上記実施形態において、図15に示すように、第2導出部46がきずの3次元座標を導出する際に、撮影方向Dを放射線源12から検査対象物Oの中心への方向に対して傾いた方向としてもよい。
 また、上記実施形態において、撮影条件に、撮影方向Dに加えて、放射線Rの照射条件を含めてもよい。
 また、上記実施形態において、判定部48は、構造情報32と、第2導出部46により導出されたきずの位置とに基づいて、検査対象物Oが交差する複数の面を有し、複数の面のうちの少なくとも2つの面の撮影方向Dに沿って重なる部分にきずが存在すると判定した場合に、再撮影を行うと判定してもよい。図16を参照して、この判定が行われる場合の一例を説明する。図16に示すように、ここでは、検査対象物Oが交差する2つの面S1及び面S2を有し、2つの面S1及び面S2の一部が撮影方向Dに沿って重なっているものとする。この場合、その面S1及び面S2の重なっている部分にきずが存在すると、検査画像に写るきずは、面S1のきずであるか面S2のきずであるかを判別することが難しい。そこで、判定部48は、このような場合に再撮影を行うと判定してもよい。
 また、上記実施形態において、例えば、情報処理装置10の各機能部のように各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 また、上記実施形態では、情報処理プログラム30が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。情報処理プログラム30は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、情報処理プログラム30は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 2022年7月7日に出願された日本国特許出願2022-110030号の開示は、その全体が参照により本明細書に取り込まれる。また、本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (7)

  1.  少なくとも一つのプロセッサを備える情報処理装置であって、
     前記プロセッサは、
     検査対象物に対して放射線を照射することによって撮影された放射線画像の撮影方向を含む撮影条件と、前記検査対象物の3次元構造を表す構造情報とに基づいて、前記放射線画像の再撮影を行うか否かを判定する
     情報処理装置。
  2.  前記プロセッサは、
     前記構造情報に基づいて、撮影済みの前記放射線画像の前記撮影方向を視点方向とした際に、前記検査対象物内に存在するきずが前記放射線画像に写らない領域が前記検査対象物内に存在すると判定した場合に、前記放射線画像の再撮影を行うと判定する
     請求項1に記載の情報処理装置。
  3.  前記プロセッサは、
     撮影済みの前記放射線画像からきずが検出され、かつ前記構造情報に基づいて、そのきずと放射線源とを結ぶ直線に沿って前記検査対象物が一定の厚み以上の厚みを有すると判定した場合に、前記放射線画像の再撮影を行うと判定する
     請求項1又は請求項2に記載の情報処理装置。
  4.  前記プロセッサは、
     前記放射線画像の再撮影を行うと判定した場合、撮影済みの前記放射線画像の前記撮影条件に基づいて、再撮影での前記撮影条件を導出する
     請求項1又は請求項2に記載の情報処理装置。
  5.  前記プロセッサは、
     前記放射線画像の再撮影を行うと判定した場合、撮影済みの前記放射線画像の前記撮影条件及び前記構造情報に基づいて、再撮影での前記撮影条件を導出する
     請求項4に記載の情報処理装置。
  6.  検査対象物に対して放射線を照射することによって撮影された放射線画像の撮影方向を含む撮影条件と、前記検査対象物の3次元構造を表す構造情報とに基づいて、前記放射線画像の再撮影を行うか否かを判定する
     処理を情報処理装置が備えるプロセッサが実行する情報処理方法。
  7.  検査対象物に対して放射線を照射することによって撮影された放射線画像の撮影方向を含む撮影条件と、前記検査対象物の3次元構造を表す構造情報とに基づいて、前記放射線画像の再撮影を行うか否かを判定する
     処理を情報処理装置が備えるプロセッサに実行させるための情報処理プログラム。
PCT/JP2023/013733 2022-07-07 2023-03-31 情報処理装置、情報処理方法、及び情報処理プログラム WO2024009572A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-110030 2022-07-07
JP2022110030 2022-07-07

Publications (1)

Publication Number Publication Date
WO2024009572A1 true WO2024009572A1 (ja) 2024-01-11

Family

ID=89452980

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/013733 WO2024009572A1 (ja) 2022-07-07 2023-03-31 情報処理装置、情報処理方法、及び情報処理プログラム

Country Status (1)

Country Link
WO (1) WO2024009572A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010133983A (ja) * 2010-03-15 2010-06-17 Omron Corp X線検査装置およびx線検査方法
JP2012108078A (ja) * 2010-11-19 2012-06-07 Fujifilm Corp 放射線画像撮影装置
JP5439106B2 (ja) * 2009-09-30 2014-03-12 株式会社日立ハイテクノロジーズ 走査荷電粒子顕微鏡を用いたパターン形状評価装置およびその方法
JP2018057694A (ja) * 2016-10-07 2018-04-12 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム。
WO2019073592A1 (ja) * 2017-10-13 2019-04-18 株式会社日立ハイテクノロジーズ パターン計測装置およびパターン計測方法
JP2019158447A (ja) * 2018-03-09 2019-09-19 東芝Itコントロールシステム株式会社 Ct撮影装置
JP2019180605A (ja) * 2018-04-04 2019-10-24 キヤノン株式会社 情報処理装置、放射線撮影装置、放射線撮影システム、情報処理方法及びプログラム
JP2020025781A (ja) * 2018-08-14 2020-02-20 キヤノン株式会社 情報処理装置、放射線撮影装置及びそれらの制御方法
JP2021194339A (ja) * 2020-06-17 2021-12-27 株式会社トプコン スリットランプ顕微鏡

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5439106B2 (ja) * 2009-09-30 2014-03-12 株式会社日立ハイテクノロジーズ 走査荷電粒子顕微鏡を用いたパターン形状評価装置およびその方法
JP2010133983A (ja) * 2010-03-15 2010-06-17 Omron Corp X線検査装置およびx線検査方法
JP2012108078A (ja) * 2010-11-19 2012-06-07 Fujifilm Corp 放射線画像撮影装置
JP2018057694A (ja) * 2016-10-07 2018-04-12 キヤノン株式会社 情報処理装置、情報処理方法、情報処理システム及びプログラム。
WO2019073592A1 (ja) * 2017-10-13 2019-04-18 株式会社日立ハイテクノロジーズ パターン計測装置およびパターン計測方法
JP2019158447A (ja) * 2018-03-09 2019-09-19 東芝Itコントロールシステム株式会社 Ct撮影装置
JP2019180605A (ja) * 2018-04-04 2019-10-24 キヤノン株式会社 情報処理装置、放射線撮影装置、放射線撮影システム、情報処理方法及びプログラム
JP2020025781A (ja) * 2018-08-14 2020-02-20 キヤノン株式会社 情報処理装置、放射線撮影装置及びそれらの制御方法
JP2021194339A (ja) * 2020-06-17 2021-12-27 株式会社トプコン スリットランプ顕微鏡

Similar Documents

Publication Publication Date Title
KR102493849B1 (ko) 화상 취득 장치 및 화상 취득 방법, 그리고 화상 보정 프로그램
JP5148159B2 (ja) 被検体の断層撮影装置及び層構造抽出方法
WO2016174926A1 (ja) 画像処理装置及び画像処理方法及びプログラム
TW201350788A (zh) X射線檢查方法及x射線檢查裝置
US20070165938A1 (en) Pattern inspection apparatus and method and workpiece tested thereby
JP4834373B2 (ja) X線検査装置、x線検査方法およびx線検査プログラム
JP2020005706A (ja) 画像表示装置、方法およびプログラム
WO2007125981A1 (ja) 境界の位置決定装置、境界の位置を決定する方法、当該装置としてコンピュータを機能させるためのプログラム、および記録媒体
WO2024009572A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
KR101621815B1 (ko) 컴퓨터 단층 촬영 영상 처리 장치 및 이를 이용한 3차원 복원 영상 생성 방법
Zhang et al. DEIReconstructor: a software for diffraction enhanced imaging processing and tomography reconstruction
WO2023248583A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
WO2014010421A1 (ja) X線検査方法及びx線検査装置
JP2003329616A (ja) ユーセントリック型傾斜三次元x線ct及びそれによる三次元画像の撮影方法
JP5333607B2 (ja) 放射線画像処理装置および放射線画像処理プログラム
JP4906602B2 (ja) 多結晶シリコン基板の欠陥検査装置および欠陥検査方法
JP2009237704A (ja) 3次元画像化方法およびx線断層像撮影装置
WO2023248573A1 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
JP2020159896A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP4356413B2 (ja) X線ct装置
Kehoe Detection and evaluation of defects in industrial images
JP2007121082A (ja) X線画像出力装置、x線画像出力方法およびx線画像出力プログラム
JP2020187035A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP7314091B2 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2005292027A (ja) 三次元形状計測・復元処理装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23835113

Country of ref document: EP

Kind code of ref document: A1