WO2023248573A1 - 表示制御装置、表示制御方法、及び表示制御プログラム - Google Patents

表示制御装置、表示制御方法、及び表示制御プログラム Download PDF

Info

Publication number
WO2023248573A1
WO2023248573A1 PCT/JP2023/013732 JP2023013732W WO2023248573A1 WO 2023248573 A1 WO2023248573 A1 WO 2023248573A1 JP 2023013732 W JP2023013732 W JP 2023013732W WO 2023248573 A1 WO2023248573 A1 WO 2023248573A1
Authority
WO
WIPO (PCT)
Prior art keywords
display control
inspection
control device
display
image
Prior art date
Application number
PCT/JP2023/013732
Other languages
English (en)
French (fr)
Inventor
誓哉 稲木
遼 池田
伸治 林
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2023248573A1 publication Critical patent/WO2023248573A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • G01N23/044Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material using laminography or tomosynthesis
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/18Investigating the presence of flaws defects or foreign matter

Definitions

  • the present disclosure relates to a display control device, a display control method, and a display control program.
  • JP 2021-135153A discloses a technique for creating three-dimensional data of an inspection object using information on a plurality of X-ray images obtained by photographing the inspection object. This technique uses three-dimensional data of the object to be inspected to create and display an image for user confirmation that shows the shape of the part to be inspected on the object as a two-dimensional shape of a desired observation target surface.
  • non-destructive testing it is possible to correlate flaw information in a two-dimensional inspection image taken by irradiating the object with radiation and the position of the flaw in the three-dimensional structure of the object. preferable. This is because inspection efficiency can be improved by referring to the shape and texture information of the flaw in the two-dimensional inspection image and the position of the flaw in the three-dimensional structure of the object to be inspected.
  • the present disclosure has been made in view of the above circumstances, and aims to provide a display control device, a display control method, and a display control program that can improve the inspection efficiency of non-destructive inspection.
  • the display control device includes at least one processor, and displays a plurality of inspection images taken by irradiating the inspection object with radiation from a plurality of different imaging directions, and three images of the inspection object.
  • a display control device that performs display control based on structural information representing a dimensional structure, wherein the processor associates a viewpoint direction when performing display control based on the structural information with a shooting direction of each of a plurality of inspection images. Display control is performed based on the association information.
  • the processor displays at least one inspection image and a virtual inspection object based on the structural information based on the association information. Take control.
  • a display control device is the display control device according to the second aspect, in which the processor changes the display mode of at least a plurality of test images based on the association information.
  • a display control device is the display control device according to the third aspect, in which the processor changes the display mode of the inspection image based on the viewpoint direction.
  • the processor selects one inspection image from the plurality of inspection images based on the angle formed by the viewpoint direction and the photographing direction. , change the display mode of the selected inspection image.
  • the processor performs a process based on the degree of similarity between the two-dimensional image obtained by projecting the structural information along the viewpoint direction and the inspection image. to select one inspection image from a plurality of inspection images, and change the display mode of the selected inspection image.
  • the processor performs control to highlight the selected inspection image.
  • a display control device is the display control device according to the fifth aspect or the sixth aspect, wherein the processor changes the display position of the selected inspection image.
  • a display control device is the display control device according to the fifth aspect or the sixth aspect, in which the processor performs control to display only a selected inspection image from among the plurality of inspection images.
  • the display control device is the display control device according to the fourth aspect, in which the processor controls the angle between the viewpoint direction and the photographing direction of each inspection image when performing control to display the plurality of inspection images. Each inspection image is placed at a position according to the angle.
  • the processor when performing control to display a plurality of inspection images, displays each inspection image in an order according to the attribute information of each inspection image. Place.
  • the processor controls the angle between the viewpoint direction and the photographing direction of each inspection image when performing control to display the plurality of inspection images.
  • the inspection images are arranged in an order according to the angle or in an order according to the degree of similarity between each inspection image and a two-dimensional image obtained by projecting the structural information along the viewpoint direction.
  • the processor performs image capturing according to a selected position within a display area of a plurality of inspection images.
  • the display mode of the virtual inspection object is changed based on the direction.
  • a display control device is the display control device according to the thirteenth aspect, in which the processor changes the viewpoint direction to a direction equal to the photographing direction of the selected inspection image.
  • the processor moves the selected inspection image in the same direction or in the opposite direction as the moving operation, depending on the operation to move the selected inspection image. Change direction.
  • the processor selects the selected position and the selected position.
  • the viewpoint direction is changed so that the relative positional relationship with the test images arranged around the viewpoint approaches the relative positional relationship between the viewpoint direction and the test images arranged around the viewpoint.
  • a display control device is the display control device according to any one of the second to sixteenth aspects, wherein the processor associates the structural information with the plurality of inspection images based on the association information. Control is performed to synthesize and display information representing the relationship on at least one of the virtual inspection object and the inspection image.
  • the processor detects that the inspection images exist around the virtual inspection object and in a direction corresponding to the photographing direction of each inspection image. Controls the display of objects that represent things.
  • a display control device is the display control device according to the eighteenth aspect, in which the processor performs control to highlight an object representing the presence of the selected inspection image.
  • a display control device is the display control device according to the 17th aspect, wherein the processor performs control to synthesize and display grid-like auxiliary lines on the selected inspection image, and For the inspection object, control is performed to synthesize and display grid-like auxiliary lines having the same spacing as the auxiliary lines on a plane perpendicular to the direction corresponding to the photographing direction of the selected inspection image.
  • the display control device is the display control device according to the seventeenth aspect, wherein the processor selects the corresponding feature points of the selected inspection image and the virtual inspection object from the inspection image and the virtual inspection object. Controls the compositing and display of images.
  • the display control device is the display control device according to the seventeenth aspect, wherein the processor places an object representing a flaw at a position on the virtual inspection object corresponding to a position of the flaw on the selected inspection image. Controls compositing and displaying.
  • the display control device is the display control device according to any one of the second to twenty-second aspects, in which the position information of the flaw reflected in the inspection image corresponds to the position information of the flaw in the structural information.
  • the processor changes at least one of the display mode of the virtual inspection object and the display mode of the inspection image based on the position information of the flaw selected in the inspection image or structural information.
  • the display control device is the display control device according to the twenty-third aspect, wherein the processor determines the distance between the position of a selected flaw among the plurality of flaws and the position of a flaw other than the selected flaw.
  • the display mode of the inspection image is changed based on the test image.
  • the processor calculates the average value of the pixel values of the selected flaw area and the average value of the pixel values of the surrounding area of the flaw area.
  • the display mode of the inspection image is changed based on the ratio.
  • a display control device is the display control device according to the twenty-third aspect, in which the processor changes the display mode of the inspection image based on the smoothness of the pixel values of the surrounding area of the selected flaw.
  • a display control device is the display control device according to the twenty-third aspect, wherein the processor changes the viewpoint direction so that the selected flaw is located at the center and front side of the screen.
  • the display control device is the display control device according to the twenty-third aspect, wherein the processor adjusts the viewing direction so that the thickness of the inspection object along the viewing direction is the thinnest at the position of the selected flaw. change.
  • a display control method includes at least one processor, and includes a plurality of inspection images taken by irradiating the inspection object with radiation from a plurality of different imaging directions, and three images of the inspection object.
  • a display control program includes at least one processor, and includes a plurality of inspection images taken by irradiating the inspection object with radiation from a plurality of different imaging directions, and three images of the inspection object.
  • the inspection efficiency of non-destructive inspection can be improved.
  • FIG. 1 is a block diagram showing a schematic configuration of a radiation image capturing apparatus.
  • FIG. 2 is a block diagram showing an example of the hardware configuration of a display control device.
  • FIG. 3 is a diagram for explaining structure information. It is a figure showing an example of inspection image information. It is a figure showing an example of flaw position information.
  • FIG. 2 is a block diagram showing an example of a functional configuration of a display control device. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is
  • FIG. 3 is a flowchart illustrating an example of display control processing. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen. It is a figure showing an example of a display screen.
  • the configuration of a radiation image capturing apparatus 1 will be described.
  • the radiographic imaging device 1 is used for non-destructive inspection of an object to be inspected.
  • the radiation image capturing apparatus 1 includes a display control device 10, a radiation source 12, and a radiation detector 14.
  • the display control device 10, the radiation source 12, and the radiation detector 14 are connected to each other so as to be able to communicate with each other.
  • the display control device 10 is, for example, a computer such as a personal computer or a server computer.
  • the radiation source 12 irradiates the inspection object O with radiation R such as X-rays, for example.
  • the radiation source 12 according to this embodiment emits cone beam-shaped radiation R.
  • the direction from the radiation source 12 to a point on the radiation detector 14 where the radiation R that has passed through the inspection object O reaches is referred to as "imaging direction D.”
  • imaging direction D is the direction toward a point on the radiation detector 14 where the radiation R transmitted from the radiation source 12 through the center of the inspection object O reaches.
  • the radiation detector 14 includes a scintillator, which is an example of a light emitting layer that emits light when irradiated with the radiation R, and a TFT (Thin Film Transistor) substrate.
  • the scintillator and the TFT substrate are stacked along the irradiation direction of the radiation R, that is, the imaging direction D.
  • the TFT substrate includes a plurality of pixels arranged in a two-dimensional manner, and each pixel includes a sensor section and a field effect thin film transistor as an example of a conversion element whose charge increases as the amount of radiation irradiated increases. Be prepared.
  • the sensor section absorbs light emitted by the scintillator, generates electric charges, and accumulates the generated electric charges.
  • the field effect thin film transistor converts the charges accumulated in the sensor section into an electrical signal and outputs the electrical signal.
  • the radiation detector 14 generates a two-dimensional radiation image according to the radiation dose of the radiation R that is irradiated from the radiation source 12 to the inspection object O and has passed through the inspection object O, The generated radiation image is output to the display control device 10.
  • a radiographic image captured by irradiating the radiation R from the radiation source 12 to the inspection object O is stored in the display control device 10.
  • a radiation image photographed by irradiating the inspection object O with the radiation R will be referred to as an "inspection image.”
  • the display control device 10 includes a CPU (Central Processing Unit) 20, a memory 21 as a temporary storage area, and a nonvolatile storage section 22.
  • the display control device 10 also includes a display 23 such as a liquid crystal display, an input device 24 such as a keyboard and a mouse, and a network I/F (InterFace) 25 connected to a network.
  • the display control device 10 includes an external I/F 26 to which the radiation source 12 and the radiation detector 14 are connected.
  • the CPU 20 , memory 21 , storage section 22 , display 23 , input device 24 , network I/F 25 , and external I/F 26 are connected to the bus 27 .
  • the CPU 20 is an example of a processor according to the disclosed technology.
  • the storage unit 22 is realized by a HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like.
  • a display control program 30 is stored in the storage unit 22 as a storage medium.
  • the CPU 20 reads out the display control program 30 from the storage unit 22, expands it into the memory 21, and executes the expanded display control program 30.
  • the storage unit 22 stores structure information 32, inspection image information 34, and flaw position information 36.
  • the structure information 32 includes information representing the three-dimensional structure of the inspection object O. As shown in FIG. 3 as an example, the structure information 32 according to the present embodiment is information used when a virtual inspection object O is displayed on the display 23, and the three-dimensional structure of the inspection object O is This information is expressed in coordinates of an orthogonal coordinate system consisting of three axes: the Y-axis, the Y-axis, and the Z-axis. Further, the structure information 32 also includes the materials of each component that constitutes the inspection object O. The transmittance of the radiation R of the component is determined by the material of the component. An example of the structure information 32 is design information such as CAD data.
  • the inspection image information 34 includes a plurality of inspection images captured by irradiating the inspection object O with radiation R from a plurality of different imaging directions D.
  • FIG. 4 shows an example in which there are four photographing directions D, that is, four inspection images. The number of photographing directions D and which direction the photographing direction D is to be set are set by the user according to the shape and material of the inspection object O.
  • the inspection image information 34 includes an ID for identifying the inspection image associated with each inspection image, a photographing direction D when each inspection image was photographed, and each inspection image. Contains information regarding flaws on the inspection object O detected from the inspection object O.
  • the imaging direction D included in the inspection image information 34 has been converted to coordinates in the orthogonal coordinate system of the structure information 32.
  • the direction passing through the origin (0, 0, 0) from the coordinates of the photographing direction D included in the test image information 34 is the photographing direction D when the test image is photographed.
  • the information regarding the flaw included in the inspection image information 34 includes an ID for identifying the flaw detected from the inspection image, and position information of the flaw in the inspection image.
  • the IDs of the respective flaws are "A,” "B,” and "C.”
  • the position information of flaws in the inspection image has a specific point (for example, the upper left corner point) of the two-dimensional inspection image as the origin, and is composed of two axes, the X axis and the Y axis. It is expressed in coordinates in a rectangular coordinate system.
  • the term "flaw" in this specification is defined as a term for nondestructive testing, and means a discontinuous portion such as a bubble, a foreign object, or a crack.
  • the flaw location information 36 includes an ID for identifying the flaw and flaw location information.
  • the ID included in the flaw location information 36 is the same as the ID included in the information regarding flaws in the inspection image information 34.
  • the flaw position information included in the flaw position information 36 is obtained by converting the flaw position information in the inspection image included in the inspection image information 34 into coordinates in the orthogonal coordinate system of the structure information 32. That is, the flaw position information included in the inspection image information 34, which is the flaw position information reflected in the inspection image, and the flaw position information in the structure information 32 are associated with each other using an ID for identifying the flaw.
  • the display control device 10 includes a reception section 40, a selection section 42, and a display control section 44.
  • the CPU 20 functions as a reception section 40, a selection section 42, and a display control section 44.
  • the reception unit 40 accepts a user's operation on a screen displayed on the display 23 under the control of a display control unit 44, which will be described later.
  • the user may perform an operation to select one of the plurality of inspection images displayed on the display 23, an operation to rotate the virtual inspection object O displayed on the display 23, and an operation to select a flaw displayed on the display 23. Perform operations such as selecting.
  • the selection unit 42 selects one image from a plurality of inspection images based on the angle between the viewpoint direction when the display control unit 44 performs display control based on the structure information 32 and the photographing direction D of each inspection image. Select the test image.
  • the viewpoint direction is the direction of the display screen of the virtual inspection object O as seen from the virtual inspection object O.
  • the viewpoint direction is expressed, for example, by coordinates of the orthogonal coordinate system of the structure information 32. That is, the viewpoint direction and the photographing direction D included in the inspection image information 34 are associated with each other using coordinates of the same orthogonal coordinate system.
  • the virtual inspection object O when looking in the direction from the coordinates representing the viewpoint direction to the origin will directly face the display screen. That is, for example, when the user performs an operation to rotate the inspection object O displayed on the display 23, the viewpoint direction is changed. Further, when the viewpoint direction is changed, the posture of the virtual inspection object O is changed so that the surface directly facing the viewpoint direction directly faces the display screen.
  • the selection unit 42 calculates the angle between the viewpoint direction and the photographing direction D of each test image based on the test image information 34, and selects the test image with the smallest calculated angle. .
  • the selection unit 42 may calculate the degree of similarity between each inspection image and a two-dimensional image obtained by projecting the structural information 32 along the viewpoint direction. In this case, the selection unit 42 selects one test image from the plurality of test images based on the calculated similarity. Specifically, the selection unit 42 selects the test image with the highest calculated degree of similarity.
  • the display control unit 44 controls displaying the virtual inspection object O and a plurality of inspection images on the display 23 based on the structure information 32 and inspection image information 34.
  • the screen displayed under the display control by the display control unit 44 includes a first display area A1 in which a virtual inspection object O is displayed and a second display area A1 in which a plurality of inspection images are displayed. Including area A2.
  • a plurality of test images are displayed arranged in tiles, but the plurality of test images may be displayed arranged in a row in the vertical or horizontal direction of the screen.
  • the display control unit 44 further performs control to display an object representing a flaw on the virtual inspection object O based on the flaw position information 36.
  • flaws are represented by black circles.
  • the object representing the flaw is not particularly limited, and may be, for example, a predetermined mark or an icon.
  • the object representing the flaw may be an image of the flaw area in the inspection image.
  • the color of the object representing the flaw may be made different for each flaw.
  • the display control unit 44 rotates the virtual inspection object O by changing the viewpoint direction according to the rotation amount of the operation. let In this case, the display control unit 44 changes the display mode of the inspection image based on the changed viewpoint direction. Specifically, the display control unit 44 changes the display mode of the inspection image selected by the selection unit 42 based on the changed viewpoint direction.
  • the display control unit 44 draws the outline of the inspection image selected by the selection unit 42 using a preset color such as red. Performs control to highlight the inspection image.
  • FIG. 8 shows an example in which the inspection image located at the upper left is selected by the selection unit 42.
  • the display control unit 44 displays the examination image selected by the selection unit 42 in a larger size than other examination images, thereby displaying the examination image selected by the selection unit 42. Control may be performed to highlight the image.
  • the display control section 44 may change the display position of the inspection image selected by the selection section 42.
  • the example in FIG. 10 shows a state in which a plurality of inspection images are arranged vertically in the display area A2, and the display position of the inspection image selected by the selection unit 42 has been changed to the top. There is.
  • the display control section 44 may perform control to display only the inspection image selected by the selection section 42 from among the plurality of inspection images.
  • the display control unit 44 switches one test image to be displayed in the display area A2 in response to an operation by the user such as a scroll operation to switch the test image to be displayed.
  • the display control unit 44 when performing control to display a plurality of test images, displays each test image at a position corresponding to the angle formed by the viewpoint direction and the photographing direction D of each test image. Inspection images may also be placed. In this case, the user can easily understand the photographing direction D in which each test image was photographed. In the example of FIG. 12, each test image is arranged on a sphere in order to make it easier for the user to understand the photographing direction D in which each test image was taken.
  • the display control unit 44 when arranging each test image at a position corresponding to the angle formed by the viewpoint direction and the photographing direction D of each test image, the display control unit 44 The inspection image with the smallest angle between the two may be placed at the center of the display area A2. In this case, for the inspection images other than the inspection image placed at the center of the display area A2, the display control unit 44 controls the shooting direction D of the inspection image and the shooting direction D of the inspection image placed at the center of the display area A2. Place them according to the angle of the corner. Furthermore, in the example of FIG. 13, the display control unit 44 performs control to display the inspection image placed in the center of the display area A2 larger than the other inspection images.
  • the display control unit 44 may arrange each test image in an order according to the attribute information of each test image. For example, in the display area A2 of the display screen shown in FIG. 10, the display control unit 44 arranges the test images from the top in the order of the shooting date and time closest to the display time. Further, the attribute information in this case is not limited to the date and time of photographing, and may be the photographer, the examiner, or the like.
  • the display control unit 44 may arrange the test images in an order according to the angle formed by the viewpoint direction and the photographing direction D of each test image. good. For example, in the display area A2 of the display screen shown in FIG. 10, the display control unit 44 arranges the test images in descending order of the angle between the viewpoint direction and the photographing direction D of the test images, starting from the top.
  • the display control unit 44 displays information according to the degree of similarity between each inspection image and a two-dimensional image obtained by projecting the structural information 32 along the viewpoint direction.
  • Each inspection image may be arranged in order.
  • the test images are arranged from the top in order of the similarity between the two-dimensional image obtained by projecting the structural information 32 along the viewpoint direction and the test image.
  • the display control unit 44 When the reception unit 40 accepts an operation for selecting a position in the display area A2 of a plurality of images, the display control unit 44 performs the following operations based on the photographing direction D corresponding to the selected position in the display area A2.
  • the display mode of the virtual inspection object O is changed. Examples of operations in this case include an operation in which the inspection image itself is selected, an operation in which a position between the inspection images is selected, and the like.
  • the display control unit 44 changes the viewpoint direction to the same direction as the photographing direction D of the selected inspection image.
  • the virtual inspection object O is displayed in the display area A1 with the surface of the virtual inspection object O viewed from the photographing direction D directly facing the display screen.
  • the display control unit 44 may change the viewpoint direction in the same direction as the moving operation or in the opposite direction according to the operation of moving the selected inspection image. good.
  • the virtual inspection object O rotates in response to the operation of moving the inspection image.
  • the display control unit 44 may synchronize the speed at which the inspection image is moved and the speed at which the inspection image is moved in the viewpoint direction.
  • the display control unit 44 displays the selected position and the The viewpoint direction may be changed so that the relative positional relationship with the inspection image approaches the relative positional relationship between the viewpoint direction and the surrounding inspection images.
  • the virtual inspection object O is displayed in the display area A1 with the surface of the virtual inspection object O corresponding to the selected position directly facing the display screen.
  • the operation of the display control device 10 according to this embodiment will be described.
  • the CPU 20 executes the display control program 30
  • the display control process shown in FIG. 14 is executed.
  • the display control process shown in FIG. 14 is executed, for example, when the user inputs an instruction to start execution.
  • step S10 in FIG. 14 the display control unit 44 controls displaying the virtual inspection object O and a plurality of inspection images on the display 23 based on the structure information 32 and inspection image information 34. Further, the display control unit 44 controls displaying an object representing a flaw on the virtual inspection object O based on the flaw position information 36.
  • the viewpoint direction when the virtual inspection object O is displayed on the initial display screen in step S10 may be the viewpoint direction of the initial setting value, or the viewpoint direction when the virtual inspection object O was displayed last time. You can take over the direction.
  • the display state of the plurality of inspection images may also follow the initial setting value, or may take over the display state when the plurality of inspection images were displayed last time.
  • step S12 the receiving unit 40 waits until it receives an operation by the user on the screen displayed by the control in step S10, step S20, or step S22 that was executed immediately before.
  • the determination in step S12 becomes an affirmative determination, and the process moves to step S14.
  • step S14 the reception unit 40 determines whether the operation received in step S12 is an operation to rotate the virtual inspection object O. If this determination is affirmative, the process moves to step S16.
  • step S16 the display control unit 44 rotates the virtual inspection object O by changing the viewpoint direction according to the rotation amount of the operation accepted in step S12.
  • step S18 as described above, the selection unit 42 selects one image from the plurality of inspection images based on the angle formed by the viewpoint direction changed by the processing in step S16 and the photographing direction D of each inspection image. Select the inspection image.
  • step S20 the display control unit 44 performs control to highlight the inspection image selected in step S18, as described above.
  • step S12 determines whether the operation accepted in step S12 is an operation in which positions within the display area A2 of a plurality of images are selected.
  • step S14 determines whether the operation accepted in step S12 is an operation in which positions within the display area A2 of a plurality of images are selected.
  • step S22 the display control unit 44 changes the viewpoint direction to the same direction as the photographing direction D of the inspection image selected by the operation accepted in step S12, as described above.
  • the process of step S22 ends, the process returns to step S12.
  • the display control process ends.
  • flaw information in a two-dimensional inspection image is associated with the flaw position in the three-dimensional structure of the inspection object O, and the two-dimensional inspection image is displayed. , and the display of the three-dimensional virtual inspection object O. Thereby, the inspection efficiency of non-destructive inspection can be improved.
  • the display control unit 44 displays information representing the correspondence between the structural information 32 and a plurality of inspection images based on the structural information 32 and the inspection image information 34 on the virtual inspection object O and the inspection image information 34. Control may be performed such that the image is combined with at least one of the images and displayed.
  • the display control unit 44 displays an example in which the inspection images exist around the virtual inspection object O and in a direction corresponding to the photographing direction D of each inspection image. Control may also be performed to synthesize objects representing the objects and display them on the display 23.
  • FIG. 15 shows an example in which a thumbnail image of a test image is used as an object representing the presence of a test image.
  • an arrow representing the photographing direction D of the test image may be used as an object representing the presence of the test image.
  • a mark or icon representing the test image may be used as an object representing the presence of the test image.
  • the display control unit 44 may perform control to highlight an object indicating that the test image exists.
  • the display control unit 44 performs control to synthesize and display grid-like auxiliary lines for the selected inspection image, and for the virtual inspection object O.
  • control may be performed such that grid-like auxiliary lines having the same spacing as the auxiliary lines are synthesized and displayed on a plane perpendicular to the direction corresponding to the photographing direction D of the selected inspection image.
  • the display control unit 44 displays the composite of the corresponding feature points of the selected inspection image and the virtual inspection object O with the inspection image and the virtual inspection object O. Control may also be performed.
  • the corresponding feature points of the inspection image and the virtual inspection object O are represented by round, triangular, and square marks, respectively.
  • the display control unit 44 may perform control to synthesize and display an object representing a flaw at a position on the virtual inspection object O corresponding to the position of the flaw on the selected inspection image.
  • the display control unit 44 controls the position of the selected flaw. Based on the information, at least one of the display mode of the virtual inspection object O and the display mode of the inspection image may be changed.
  • the selection unit 42 selects one image from among the plurality of inspection images based on the distance between the position of the flaw selected by the user among the plurality of flaws and the position of a flaw other than the selected flaw. Select the inspection image. More specifically, the selection unit 42 selects one inspection image with the longest distance.
  • the display control unit 44 performs control to highlight and display the inspection image selected by the selection unit 42. This makes it easier for the user to refer to an inspection image in which the flaws are relatively far apart, that is, an inspection image in which the condition of the flaw is relatively easy to see.
  • the selection unit 42 selects a plurality of inspection images based on the ratio between the average pixel value of the flaw area selected by the user and the average pixel value of the surrounding area of the flaw area.
  • One inspection image may be selected.
  • the selection unit 42 selects one inspection image with the largest ratio.
  • the display control unit 44 performs control to highlight and display the inspection image selected by the selection unit 42. This makes it easier for the user to refer to the inspection image in which the flaw area is relatively easy to see.
  • the selection unit 42 may select one inspection image from the plurality of inspection images based on the smoothness of the pixel values of the area surrounding the flaw selected by the user. Specifically, the selection unit 42 selects one inspection image with the highest degree of smoothness.
  • the display control unit 44 performs control to highlight and display the inspection image selected by the selection unit 42. This makes it easier for the user to refer to the inspection image in which the flaw area is relatively easy to see.
  • the display control unit 44 may change the viewpoint direction so that the flaw selected by the user is located at the center and front side of the screen.
  • the viewpoint direction may be changed so that the thickness of the inspection object O along the viewpoint direction is the thinnest at the position of the flaw selected by the user.
  • the display control unit 44 does not need to perform control to display an object representing a flaw on the virtual inspection object O based on the flaw position information 36.
  • the display control device 10 does not need to hold the flaw position information 36.
  • the hardware structure of the processing unit that executes various processes includes the following various processors.
  • processors can be used.
  • the various processors mentioned above include the CPU, which is a general-purpose processor that executes software (programs) and functions as various processing units, as well as circuits that are manufactured after manufacturing, such as FPGA (Field Programmable Gate Array).
  • FPGA Field Programmable Gate Array
  • a programmable logic device (PLD) which is a processor whose configuration can be changed, and a dedicated electrical device, which is a processor with a circuit configuration specifically designed to execute a specific process, such as an ASIC (Application Specific Integrated Circuit) Includes circuits, etc.
  • ASIC Application Specific Integrated Circuit
  • One processing unit may be composed of one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of multiple FPGAs, or a combination of a CPU and an FPGA). combination). Further, the plurality of processing units may be configured with one processor.
  • one processor is configured with a combination of one or more CPUs and software, as typified by computers such as a client and a server.
  • a processor functions as multiple processing units.
  • processors that use a single IC (Integrated Circuit) chip, such as System on Chip (SoC), which implements the functions of an entire system that includes multiple processing units. be.
  • SoC System on Chip
  • various processing units are configured using one or more of the various processors described above as a hardware structure.
  • circuitry that is a combination of circuit elements such as semiconductor elements can be used.
  • the display control program 30 is stored (installed) in the storage unit 22 in advance, but the present invention is not limited to this.
  • the display control program 30 is provided in a form recorded on a recording medium such as a CD-ROM (Compact Disc Read Only Memory), a DVD-ROM (Digital Versatile Disc Read Only Memory), and a USB (Universal Serial Bus) memory. Good too. Further, the display control program 30 may be downloaded from an external device via a network.

Landscapes

  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Analysing Materials By The Use Of Radiation (AREA)

Abstract

表示制御装置は、検査対象物に対して異なる複数の撮影方向から放射線を照射することにより撮影された複数の検査画像と、検査対象物の3次元構造を表す構造情報とに基づく表示制御を行う場合、構造情報に基づく表示制御を行う際の視点方向と複数の検査画像それぞれの撮影方向とが対応付けられた対応付け情報に基づいて表示制御を行う。

Description

表示制御装置、表示制御方法、及び表示制御プログラム
 本開示は、表示制御装置、表示制御方法、及び表示制御プログラムに関する。
 特開2021-135153号公報には、検査対象物を撮影して得られた複数のX線画像の情報を用いて検査対象物の3次元データを作成する技術が開示されている。この技術では、その検査対象物の3次元データを用いて、検査対象物における検査対象箇所の形状を所望の観察対象面の2次元形状として示すユーザー確認用画像を作成し、かつ表示する。
 非破壊検査において、検査対象物に対して放射線を照射することにより撮影された2次元の検査画像におけるきずの情報と、検査対象物の3次元構造におけるきずの位置とを対応付けることができると、好ましい。これは、2次元の検査画像のきずの形状及びテクスチャ情報と検査対象物の3次元構造におけるきずの位置とを合わせて参照することによって、検査効率を向上させることができるためである。
 本開示は、以上の事情を鑑みてなされたものであり、非破壊検査の検査効率を向上させることができる表示制御装置、表示制御方法、及び表示制御プログラムを提供することを目的とする。
 第1の態様の表示制御装置は、少なくとも一つのプロセッサを備え、かつ検査対象物に対して異なる複数の撮影方向から放射線を照射することにより撮影された複数の検査画像と、検査対象物の3次元構造を表す構造情報とに基づく表示制御を行う表示制御装置であって、プロセッサは、構造情報に基づく表示制御を行う際の視点方向と複数の検査画像それぞれの撮影方向とが対応付けられた対応付け情報に基づいて表示制御を行う。
 第2の態様の表示制御装置は、第1の態様の表示制御装置において、プロセッサは、対応付け情報に基づいて、少なくとも1枚の検査画像と構造情報に基づく仮想の検査対象物とを表示する制御を行う。
 第3の態様の表示制御装置は、第2の態様の表示制御装置において、プロセッサは、対応付け情報に基づいて、少なくとも複数の検査画像の表示態様を変更する。
 第4の態様の表示制御装置は、第3の態様の表示制御装置において、プロセッサは、視点方向に基づいて、検査画像の表示態様を変更する。
 第5の態様の表示制御装置は、第4の態様の表示制御装置において、プロセッサは、視点方向と撮影方向とがなす角の角度に基づいて複数の検査画像から1枚の検査画像を選択し、選択した検査画像の表示態様を変更する。
 第6の態様の表示制御装置は、第4の態様の表示制御装置において、プロセッサは、構造情報を視点方向に沿って射影することにより得られる2次元画像と、検査画像との類似度に基づいて複数の検査画像から1枚の検査画像を選択し、選択した検査画像の表示態様を変更する。
 第7の態様の表示制御装置は、第5の態様又は第6の態様の表示制御装置において、プロセッサは、選択した検査画像を強調表示する制御を行う。
 第8の態様の表示制御装置は、第5の態様又は第6の態様の表示制御装置において、プロセッサは、選択した検査画像の表示位置を変更する。
 第9の態様の表示制御装置は、第5の態様又は第6の態様の表示制御装置において、プロセッサは、複数の検査画像のうち、選択した検査画像のみを表示する制御を行う。
 第10の態様の表示制御装置は、第4の態様の表示制御装置において、プロセッサは、複数の検査画像を表示する制御を行う際に、視点方向と各検査画像の撮影方向とがなす角の角度に応じた位置に各検査画像を配置する。
 第11の態様の表示制御装置は、第4の態様の表示制御装置において、プロセッサは、複数の検査画像を表示する制御を行う際に、各検査画像の属性情報に従った順序で各検査画像を配置する。
 第12の態様の表示制御装置は、第4の態様の表示制御装置において、プロセッサは、複数の検査画像を表示する制御を行う際に、視点方向と各検査画像の撮影方向とがなす角の角度に応じた順序、又は構造情報を視点方向に沿って射影することにより得られる二次元画像と各検査画像との類似度に応じた順序で各検査画像を配置する。
 第13の態様の表示制御装置は、第2の態様から第12の態様の何れか1態様の表示制御装置において、プロセッサは、複数の検査画像の表示領域内の選択された位置に応じた撮影方向に基づいて、仮想の検査対象物の表示態様を変更する。
 第14の態様の表示制御装置は、第13の態様の表示制御装置において、プロセッサは、選択された検査画像の撮影方向と等しい方向に視点方向を変更する。
 第15の態様の表示制御装置は、第13の態様の表示制御装置において、プロセッサは、選択された検査画像を移動させる操作に応じて、その移動させる操作と同じ方向又は逆の方向に、視点方向を変更する。
 第16の態様の表示制御装置は、第13の態様の表示制御装置において、プロセッサは、選択された位置が複数の検査画像の間の位置である場合、選択された位置と、選択された位置の周囲に配置された検査画像との相対位置関係が、視点方向と周囲に配置された検査画像との相対位置関係に近づくように視点方向を変更する。
 第17の態様の表示制御装置は、第2の態様から第16の態様の何れか1態様の表示制御装置において、プロセッサは、対応付け情報に基づいて、構造情報と複数の検査画像との対応関係を表す情報を、仮想の検査対象物及び検査画像の少なくとも一方に合成して表示する制御を行う。
 第18の態様の表示制御装置は、第17の態様の表示制御装置において、プロセッサは、仮想の検査対象物の周囲であり、かつ各検査画像の撮影方向に対応する方向に、検査画像が存在することを表すオブジェクトを表示する制御を行う。
 第19の態様の表示制御装置は、第18の態様の表示制御装置において、プロセッサは、選択された検査画像が存在することを表すオブジェクトを強調表示する制御を行う。
 第20の態様の表示制御装置は、第17の態様の表示制御装置において、プロセッサは、選択された検査画像に対しては、格子状の補助線を合成して表示する制御を行い、かつ仮想の検査対象物に対しては、選択された検査画像の撮影方向に対応する方向に直交する面に、補助線と同間隔の格子状の補助線を合成して表示する制御を行う。
 第21の態様の表示制御装置は、第17の態様の表示制御装置において、プロセッサは、選択された検査画像と仮想の検査対象物との対応する特徴点を、検査画像及び仮想の検査対象物に合成して表示する制御を行う。
 第22の態様の表示制御装置は、第17の態様の表示制御装置において、プロセッサは、選択された検査画像上のきずの位置に対応する仮想の検査対象物上の位置にきずを表すオブジェクトを合成して表示する制御を行う。
 第23の態様の表示制御装置は、第2の態様から第22の態様の何れか1態様の表示制御装置において、検査画像に写るきずの位置情報と、構造情報におけるきずの位置情報とが対応付けられ、プロセッサは、検査画像又は構造情報において選択されたきずの位置情報に基づいて、仮想の検査対象物の表示態様及び検査画像の表示態様の少なくとも一方を変更する。
 第24の態様の表示制御装置は、第23の態様の表示制御装置において、プロセッサは、複数のきずのうちの選択されたきずの位置と、選択されたきず以外のきずの位置との距離に基づいて検査画像の表示態様を変更する。
 第25の態様の表示制御装置は、第23の態様の表示制御装置において、プロセッサは、選択されたきずの領域の画素値の平均値と、そのきずの領域の周辺領域の画素値の平均値との比に基づいて検査画像の表示態様を変更する。
 第26の態様の表示制御装置は、第23の態様の表示制御装置において、プロセッサは、選択されたきずの周辺領域の画素値の平滑度に基づいて検査画像の表示態様を変更する。
 第27の態様の表示制御装置は、第23の態様の表示制御装置において、プロセッサは、選択されたきずが画面の中心かつ手前側に位置するように、視点方向を変更する。
 第28の態様の表示制御装置は、第23の態様の表示制御装置において、プロセッサは、選択されたきずの位置において、視点方向に沿った検査対象物の厚みが最も薄くなるように視点方向を変更する。
 第29の態様の表示制御方法は、少なくとも一つのプロセッサを備え、かつ検査対象物に対して異なる複数の撮影方向から放射線を照射することにより撮影された複数の検査画像と、検査対象物の3次元構造を表す構造情報とに基づく表示制御を行う表示制御装置のプロセッサが実行する表示制御方法であって、構造情報に基づく表示制御を行う際の視点方向と複数の検査画像それぞれの撮影方向とが対応付けられた対応付け情報に基づいて表示制御を行うものである。
 第30の態様の表示制御プログラムは、少なくとも一つのプロセッサを備え、かつ検査対象物に対して異なる複数の撮影方向から放射線を照射することにより撮影された複数の検査画像と、検査対象物の3次元構造を表す構造情報とに基づく表示制御を行う表示制御装置のプロセッサに実行させるための表示制御プログラムであって、構造情報に基づく表示制御を行う際の視点方向と複数の検査画像それぞれの撮影方向とが対応付けられた対応付け情報に基づいて表示制御を行うものである。
 本開示によれば、非破壊検査の検査効率を向上させることができる。
放射線画像撮影装置の概略構成を示すブロック図である。 表示制御装置のハードウェア構成の一例を示すブロック図である。 構造情報を説明するための図である。 検査画像情報の一例を示す図である。 きず位置情報の一例を示す図である。 表示制御装置の機能的な構成の一例を示すブロック図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示制御処理の一例を示すフローチャートである。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。 表示画面の一例を示す図である。
 以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
 まず、図1を参照して、本実施形態に係る放射線画像撮影装置1の構成を説明する。放射線画像撮影装置1は、検査対象物の非破壊検査に用いられる。図1に示すように、放射線画像撮影装置1は、表示制御装置10、放射線源12、及び放射線検出器14を含む。表示制御装置10、放射線源12、及び放射線検出器14は、互いに通信可能な状態で接続される。表示制御装置10は、例えば、パーソナルコンピュータ又はサーバコンピュータ等のコンピュータである。
 放射線源12は、例えばX線等の放射線Rを検査対象物Oに照射する。本実施形態に係る放射線源12は、コーンビーム状の放射線Rを照射する。放射線源12から、検査対象物Oを透過した放射線Rが到達した放射線検出器14上の一点への方向を「撮影方向D」という。本実施形態では、放射線源12から検査対象物Oの中心を透過した放射線Rが到達した放射線検出器14上の一点への方向を撮影方向Dとした場合を例に説明する。
 放射線検出器14は、放射線Rが照射されることにより光を発する発光層の一例としてのシンチレータ及びTFT(Thin Film Transistor)基板を含む。シンチレータ及びTFT基板は放射線Rの照射方向、すなわち、撮影方向Dに沿って積層されている。TFT基板は二次元状に配置された複数の画素を備え、各画素は、照射される放射線量の増加に伴って発生する電荷が増加する変換素子の一例としてのセンサ部及び電界効果型薄膜トランジスタを備える。センサ部は、シンチレータが発する光を吸収して電荷を発生させ、発生させた電荷を蓄積する。電界効果型薄膜トランジスタは、センサ部に蓄積された電荷を電気信号に変換して出力する。以上の構成により、放射線検出器14は、放射線源12から検査対象物Oに対して照射され、かつ検査対象物Oを透過した放射線Rの放射線量に応じた2次元の放射線画像を生成し、生成した放射線画像を表示制御装置10に出力する。
 このように、放射線画像撮影装置1では、放射線源12から検査対象物Oに対して放射線Rを照射することにより撮影された放射線画像が表示制御装置10に保存される。以下では、検査対象物Oに対して放射線Rを照射することにより撮影された放射線画像を「検査画像」という。
 次に、図2を参照して、本実施形態に係る表示制御装置10のハードウェア構成を説明する。図2に示すように、表示制御装置10は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を含む。また、表示制御装置10は、液晶ディスプレイ等のディスプレイ23、キーボードとマウス等の入力装置24、及びネットワークに接続されるネットワークI/F(InterFace)25を含む。また、表示制御装置10は、放射線源12及び放射線検出器14が接続される外部I/F26を含む。CPU20、メモリ21、記憶部22、ディスプレイ23、入力装置24、ネットワークI/F25、及び外部I/F26は、バス27に接続される。CPU20は、開示の技術に係るプロセッサの一例である。
 記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、又はフラッシュメモリ等によって実現される。記憶媒体としての記憶部22には、表示制御プログラム30が記憶される。CPU20は、記憶部22から表示制御プログラム30を読み出してからメモリ21に展開し、展開した表示制御プログラム30を実行する。
 また、記憶部22には、構造情報32、検査画像情報34、及びきず位置情報36が記憶される。構造情報32は、検査対象物Oの3次元構造を表す情報を含む。一例として図3に示すように、本実施形態に係る構造情報32は、ディスプレイ23に仮想の検査対象物Oが表示される際に用いられる情報であり、検査対象物Oの3次元構造をX軸、Y軸、及びZ軸の3軸で構成される直交座標系の座標で表した情報である。また、構造情報32は、検査対象物Oを構成する各部品の素材も含む。部品の素材によって、その部品の放射線Rの透過率が特定される。構造情報32の例としては、CADデータ等の設計情報が挙げられる。
 一例として図4に示すように、検査画像情報34は、検査対象物Oに対して異なる複数の撮影方向Dから放射線Rを照射することにより撮影された複数の検査画像を含む。図4では、撮影方向Dが4方向、すなわち、検査画像が4枚の例を示している。撮影方向Dの数、及び撮影方向Dをどの方向とするかは、検査対象物Oの形状及び素材等に応じてユーザーにより設定される。
 また、図4に示すように、検査画像情報34には、各検査画像に対応付けられた検査画像を識別するためのID、各検査画像が撮影された際の撮影方向D、及び各検査画像から検出された検査対象物Oのきずに関する情報が含まれる。検査画像情報34に含まれる撮影方向Dは、構造情報32の直交座標系の座標に変換されている。検査画像情報34に含まれる撮影方向Dの座標から原点(0、0、0)を通る方向が、検査画像が撮影された際の撮影方向Dである。
 検査画像情報34に含まれるきずに関する情報は、検査画像から検出されたきずを識別するためのID、及びその検査画像におけるきずの位置情報を含む。図4の例では、3つのきずが検出され、それぞれのきずのIDが「A」、「B」、及び「C」であることを示している。また、本実施形態では、検査画像におけるきずの位置情報は、2次元の検査画像の特定の点(例えば、左上の角の点)を原点とし、かつX軸及びY軸の2軸で構成された直交座標系の座標で表される。本明細書における「きず」とは、非破壊検査の用語として定義されているものであり、気泡、異物、及び亀裂等の不連続部を意味する。
 一例として図5に示すように、きず位置情報36は、きずを識別するためのID及びきずの位置情報を含む。きず位置情報36に含まれるIDは、検査画像情報34のきずに関する情報に含まれるIDと同じものである。きず位置情報36に含まれるきずの位置情報は、検査画像情報34に含まれる検査画像におけるきずの位置情報が、構造情報32の直交座標系の座標に変換されたものである。すなわち、検査画像に写るきずの位置情報である検査画像情報34に含まれるきずの位置情報と、構造情報32におけるきずの位置情報とは、きずを識別するためのIDで対応付けられている。
 次に、図6を参照して、本実施形態に係る表示制御装置10の機能的な構成について説明する。図6に示すように、表示制御装置10は、受付部40、選択部42、及び表示制御部44を含む。CPU20が表示制御プログラム30を実行することにより、受付部40、選択部42、及び表示制御部44として機能する。
 受付部40は、後述する表示制御部44による制御によってディスプレイ23に表示された画面へのユーザーによる操作を受け付ける。例えば、ユーザーは、ディスプレイ23に表示された複数の検査画像のうちの1枚を選択する操作、ディスプレイ23に表示された仮想の検査対象物Oを回転させる操作、及びディスプレイ23に表示されたきずを選択する操作等を行う。
 選択部42は、表示制御部44が構造情報32に基づく表示制御を行う際の視点方向と、各検査画像の撮影方向Dとがなす角の角度に基づいて、複数の検査画像から1枚の検査画像を選択する。視点方向とは、仮想の検査対象物Oの表示画面において、仮想の検査対象物Oから見た表示画面の方向である。視点方向は、例えば、構造情報32の直交座標系の座標で表される。すなわち、視点方向と検査画像情報34に含まれる撮影方向Dとは、同じ直交座標系の座標により対応付けられている。
 また、視点方向を表す座標から原点への方向を見た場合の仮想の検査対象物Oが表示画面に正対することになる。すなわち、例えば、ユーザーがディスプレイ23に表示された検査対象物Oを回転させる操作を行うと、視点方向が変更される。また、視点方向が変更されると、その視点方向に正対する面が表示画面に正対するように仮想の検査対象物Oの姿勢が変更される。
 具体的には、選択部42は、検査画像情報34に基づいて、視点方向と、各検査画像の撮影方向Dとがなす角の角度を算出し、算出した角度が最も小さい検査画像を選択する。
 なお、選択部42は、構造情報32を視点方向に沿って射影することにより得られる2次元画像と、各検査画像との類似度を算出してもよい。この場合、選択部42は、算出した類似度に基づいて複数の検査画像から1枚の検査画像を選択する。具体的には、選択部42は、算出した類似度が最も高い検査画像を選択する。
 図7に示すように、表示制御部44は、構造情報32及び検査画像情報34に基づいて、仮想の検査対象物O及び複数の検査画像をディスプレイ23に表示する制御を行う。図7に示すように、表示制御部44による表示制御により表示される画面は、仮想の検査対象物Oが表示される第1の表示領域A1及び複数の検査画像が表示される第2の表示領域A2を含む。図7の例では、複数の検査画像がタイル状に並べられて表示されているが、複数の検査画像は、画面の縦方向又は横方向に一列に並べられて表示されてもよい。
 また、図7に示すように、表示制御部44は、更に、きず位置情報36に基づいて、仮想の検査対象物O上にきずを表すオブジェクトを表示する制御を行う。図7の例では、きずが黒色の丸印で表されている。きずを表すオブジェクトは、特に限定されず、例えば、予め定められたマークでもよいし、アイコンでもよい。また、例えば、きずを表すオブジェクトは、検査画像におけるきずの領域部分の画像でもよい。また、例えば、きずを表すオブジェクトの色をきず毎に異ならせてもよい。
 表示制御部44は、受付部40により仮想の検査対象物Oを回転させる操作が受け付けられた場合、その操作の回転量に応じて視点方向を変更することによって、仮想の検査対象物Oを回転させる。この場合、表示制御部44は、変更後の視点方向に基づいて、検査画像の表示態様を変更する。具体的には、表示制御部44は、変更後の視点方向に基づいて選択部42により選択された検査画像の表示態様を変更する。
 一例として図8に示すように、表示制御部44は、選択部42により選択された検査画像の輪郭を赤色等の予め設定された色を用いて描画することによって、選択部42により選択された検査画像を強調表示する制御を行う。図8では、左上に配置された検査画像が選択部42により選択された例を示している。
 なお、図9に示すように、表示制御部44は、選択部42により選択された検査画像を他の検査画像よりも大きいサイズで表示する制御を行うことによって、選択部42により選択された検査画像を強調表示する制御を行ってもよい。
 また、図10に示すように、表示制御部44は、選択部42により選択された検査画像の表示位置を変更してもよい。図10の例では、表示領域A2に複数の検査画像が縦方向に沿って並べられて配置され、選択部42により選択された検査画像の表示位置が一番上に変更された状態を示している。
 また、図11に示すように、表示制御部44は、複数の検査画像のうち、選択部42により選択された検査画像のみを表示する制御を行ってもよい。この場合、表示制御部44は、スクロール操作等のユーザーによる表示対象の検査画像を切り替える操作に応じて、表示領域A2に表示する1枚の検査画像を切り替える。
 また、図12に示すように、表示制御部44は、複数の検査画像を表示する制御を行う際に、視点方向と各検査画像の撮影方向Dとがなす角の角度に応じた位置に各検査画像を配置してもよい。この場合、ユーザーは、各検査画像が撮影された際の撮影方向Dを把握しやすくなる。図12の例では、各検査画像が撮影された際の撮影方向Dをユーザーがより把握しやすくするために、球体上に各検査画像が配置されている。
 また、図13に示すように、表示制御部44は、視点方向と各検査画像の撮影方向Dとがなす角の角度に応じた位置に各検査画像を配置する場合、視点方向と撮影方向Dとのなす角の角度が最も小さい検査画像を表示領域A2の中央に配置してもよい。この場合、表示制御部44は、表示領域A2の中央に配置した検査画像以外の検査画像については、その検査画像との撮影方向Dと表示領域A2の中央に配置した検査画像の撮影方向Dとのなす角の角度に応じて配置する。また、図13の例では、表示制御部44は、表示領域A2の中央に配置した検査画像を、他の検査画像よりも大きく表示する制御を行っている。
 また、表示制御部44は、複数の検査画像を表示する制御を行う際に、各検査画像の属性情報に従った順序で各検査画像を配置してもよい。例えば、図10に示す表示画面の表示領域A2において、表示制御部44は、撮影日時が表示時点に近い順に上から検査画像を配置する。また、この場合の属性情報は、撮影日時に限定されず、撮影者又は検査者等でもよい。
 また、表示制御部44は、複数の検査画像を表示する制御を行う際に、視点方向と各検査画像の撮影方向Dとがなす角の角度に応じた順序で各検査画像を配置してもよい。例えば、図10に示す表示画面の表示領域A2において、表示制御部44は、視点方向と検査画像の撮影方向Dとがなす角の角度が大きい順に上から検査画像を配置する。
 また、表示制御部44は、複数の検査画像を表示する制御を行う際に、構造情報32を視点方向に沿って射影することにより得られる2次元画像と各検査画像との類似度に応じた順序で各検査画像を配置してもよい。例えば、図10に示す表示画面の表示領域A2において、構造情報32を視点方向に沿って射影することにより得られる2次元画像と検査画像との類似度が高い順に上から検査画像を配置する。
 表示制御部44は、受付部40により複数の画像の表示領域A2内の位置が選択される操作が受け付けられた場合、表示領域A2内の選択された位置に応じた撮影方向Dに基づいて、仮想の検査対象物Oの表示態様を変更する。この場合の操作の例としては、検査画像自体が選択される操作、及び検査画像の間の位置が選択される操作等が挙げられる。
 具体的には、表示制御部44は、選択された検査画像の撮影方向Dと等しい方向に視点方向を変更する。この場合、仮想の検査対象物Oを撮影方向Dから見た面が表示画面に正対した状態で、仮想の検査対象物Oが表示領域A1に表示される。
 なお、図12又は図13の例において、表示制御部44は、選択された検査画像を移動させる操作に応じて、その移動させる操作と同じ方向又は逆の方向に、視点方向を変更してもよい。この場合、検査画像を移動させる操作に応じて、仮想の検査対象物Oが回転する。また、この際、表示制御部44は、検査画像を移動させる速度と、視点方向の移動速度とを同期させてもよい。
 また、図12又は図13の例において、表示制御部44は、選択された位置が複数の検査画像の間の位置である場合、選択された位置と、選択された位置の周囲に配置された検査画像との相対位置関係が、視点方向と周囲に配置された検査画像との相対位置関係に近づくように視点方向を変更してもよい。この場合、選択された位置に応じた仮想の検査対象物Oの面が表示画面に正対した状態で、仮想の検査対象物Oが表示領域A1に表示される。
 次に、図14を参照して、本実施形態に係る表示制御装置10の作用を説明する。CPU20が表示制御プログラム30を実行することによって、図14に示す表示制御処理が実行される。図14に示す表示制御処理は、例えば、ユーザーにより実行開始の指示が入力された場合に実行される。
 図14のステップS10で、表示制御部44は、構造情報32及び検査画像情報34に基づいて、仮想の検査対象物O及び複数の検査画像をディスプレイ23に表示する制御を行う。更に、表示制御部44は、きず位置情報36に基づいて、仮想の検査対象物O上にきずを表すオブジェクトを表示する制御を行う。このステップS10での初期表示画面において仮想の検査対象物Oが表示される際の視点方向は、初期設定値の視点方向でもよいし、前回に仮想の検査対象物Oが表示された際の視点方向を引き継いでもよい。また、複数の検査画像の表示状態も、初期設定値に従ってもよいし、前回に複数の検査画像が表示された際の表示状態を引き継いでもよい。
 ステップS12で、受付部40は、直前に実行されたステップS10、ステップS20、又はステップS22での制御により表示された画面へのユーザーによる操作を受け付けるまで待機する。受付部40がユーザーによる操作を受け付けると、ステップS12の判定が肯定判定となり、処理はステップS14に移行する。
 ステップS14で、受付部40は、ステップS12で受け付けられた操作が仮想の検査対象物Oを回転させる操作であるか否かを判定する。この判定が肯定判定となった場合、処理はステップS16に移行する。
 ステップS16で、表示制御部44は、ステップS12で受け付けられた操作の回転量に応じて視点方向を変更することによって、仮想の検査対象物Oを回転させる。ステップS18で、選択部42は、前述したように、ステップS16の処理による変更後の視点方向と、各検査画像の撮影方向Dとがなす角の角度に基づいて、複数の検査画像から1枚の検査画像を選択する。ステップS20で、表示制御部44は、前述したように、ステップS18で選択された検査画像を強調表示する制御を行う。ステップS20の処理が終了すると、処理はステップS12に戻る。
 一方、ステップS12で受け付けられた操作が複数の画像の表示領域A2内の位置が選択される操作である場合、ステップS14の判定が否定判定となり、処理はステップS22に移行する。ステップS22で、表示制御部44は、前述したように、ステップS12で受け付けられた操作によって選択された検査画像の撮影方向Dと等しい方向に視点方向を変更する。ステップS22の処理が終了すると、処理はステップS12に戻る。ユーザーにより画面の表示終了の指示が入力されると、表示制御処理が終了する。
 以上説明したように、本実施形態によれば、2次元の検査画像におけるきずの情報と、検査対象物Oの3次元構造におけるきずの位置とを対応付け、かつ2次元の検査画像の表示と、3次元の仮想の検査対象物Oの表示とが連携する。これにより、非破壊検査の検査効率を向上させることができる。
 なお、上記実施形態において、表示制御部44は、構造情報32及び検査画像情報34に基づいて、構造情報32と複数の検査画像との対応関係を表す情報を、仮想の検査対象物O及び検査画像の少なくとも一方に合成して表示する制御を行ってもよい。
 具体的には、一例として図15に示すように、表示制御部44は、仮想の検査対象物Oの周囲であり、かつ各検査画像の撮影方向Dに対応する方向に、検査画像が存在することを表すオブジェクトを合成してディスプレイ23に表示する制御を行ってもよい。図15では、検査画像が存在することを表すオブジェクトとして、検査画像のサムネイル画像を適用した例を示している。この場合、図16に示すように、検査画像が存在することを表すオブジェクトとして、検査画像の撮影方向Dを表す矢印を適用してもよい。また、この場合、検査画像が存在することを表すオブジェクトとして、検査画像を表すマーク又はアイコン等を適用してもよい。また、この場合、表示制御部44は、表示領域A2において、ユーザーにより検査画像が選択された場合、その検査画像が存在することを表すオブジェクトを強調表示する制御を行ってもよい。
 また、図17に示すように、表示制御部44は、選択された検査画像に対しては、格子状の補助線を合成して表示する制御を行い、かつ仮想の検査対象物Oに対しては、選択された検査画像の撮影方向Dに対応する方向に直交する面に、補助線と同間隔の格子状の補助線を合成して表示する制御を行ってもよい。
 また、図18に示すように、表示制御部44は、選択された検査画像と仮想の検査対象物Oとの対応する特徴点を、検査画像及び仮想の検査対象物Oに合成して表示する制御を行ってもよい。図18では、検査画像と仮想の検査対象物Oとの対応する特徴点が、それぞれ丸、三角、及び四角のマークで表されている。
 また、表示制御部44は、選択された検査画像上のきずの位置に対応する仮想の検査対象物O上の位置にきずを表すオブジェクトを合成して表示する制御を行ってもよい。
 また、上記実施形態において、表示制御部44は、受付部40により検査画像のきず又は仮想の検査対象物Oのきずを表すオブジェクトが選択される操作が受け付けられた場合、選択されたきずの位置情報に基づいて、仮想の検査対象物Oの表示態様及び検査画像の表示態様の少なくとも一方を変更してもよい。
 具体的には、まず、選択部42は、複数のきずのうちのユーザーにより選択されたきずの位置と、選択されたきず以外のきずの位置との距離に基づいて複数の検査画像から1枚の検査画像を選択する。より具体的には、選択部42は、上記距離が最も長い1枚の検査画像を選択する。表示制御部44は、選択部42により選択された検査画像を強調表示する制御を行う。これにより、きずときずとが比較的離れた検査画像、すなわち、きずの状態が比較的見易い検査画像をユーザーが参照しやすくなる。
 また、この場合、選択部42は、ユーザーにより選択されたきずの領域の画素値の平均値と、そのきずの領域の周辺領域の画素値の平均値との比に基づいて複数の検査画像から1枚の検査画像を選択してもよい。具体的には、選択部42は、上記比が最も大きい1枚の検査画像を選択する。表示制御部44は、選択部42により選択された検査画像を強調表示する制御を行う。これにより、きずの領域が比較的見易い検査画像をユーザーが参照しやすくなる。
 また、この場合、選択部42は、ユーザーにより選択されたきずの周辺領域の画素値の平滑度に基づいて複数の検査画像から1枚の検査画像を選択してもよい。具体的には、選択部42は、上記平滑度が最も高い1枚の検査画像を選択する。表示制御部44は、選択部42により選択された検査画像を強調表示する制御を行う。これにより、きずの領域が比較的見易い検査画像をユーザーが参照しやすくなる。
 また、図19に示すように、表示制御部44は、ユーザーにより選択されたきずが画面の中心かつ手前側に位置するように、視点方向を変更してもよい。
 また、図20に示すように、ユーザーにより選択されたきずの位置において、視点方向に沿った検査対象物Oの厚みが最も薄くなるように視点方向を変更してもよい。
 また、上記実施形態において、表示制御部44は、きず位置情報36に基づいて、仮想の検査対象物O上にきずを表すオブジェクトを表示する制御を行わなくてもよい。この場合、表示制御装置10は、きず位置情報36を保持しなくてもよい。
 また、上記実施形態において、例えば、受付部40、選択部42、及び表示制御部44といった各種の処理を実行する処理部(processing unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(processor)を用いることができる。上記各種のプロセッサには、前述したように、ソフトウェア(プログラム)を実行して各種の処理部として機能する汎用的なプロセッサであるCPUに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
 1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせや、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
 複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアント及びサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System on Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
 更に、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)を用いることができる。
 また、上記実施形態では、表示制御プログラム30が記憶部22に予め記憶(インストール)されている態様を説明したが、これに限定されない。表示制御プログラム30は、CD-ROM(Compact Disc Read Only Memory)、DVD-ROM(Digital Versatile Disc Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の記録媒体に記録された形態で提供されてもよい。また、表示制御プログラム30は、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 2022年6月24日に出願された日本国特許出願2022-101831号の開示は、その全体が参照により本明細書に取り込まれる。また、本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (30)

  1.  少なくとも一つのプロセッサを備え、かつ検査対象物に対して異なる複数の撮影方向から放射線を照射することにより撮影された複数の検査画像と、前記検査対象物の3次元構造を表す構造情報とに基づく表示制御を行う表示制御装置であって、
     前記プロセッサは、
     前記構造情報に基づく表示制御を行う際の視点方向と前記複数の検査画像それぞれの前記撮影方向とが対応付けられた対応付け情報に基づいて前記表示制御を行う
     表示制御装置。
  2.  前記プロセッサは、
     前記対応付け情報に基づいて、少なくとも1枚の前記検査画像と前記構造情報に基づく仮想の検査対象物とを表示する制御を行う
     請求項1に記載の表示制御装置。
  3.  前記プロセッサは、
     前記対応付け情報に基づいて、少なくとも前記複数の検査画像の表示態様を変更する
     請求項2に記載の表示制御装置。
  4.  前記プロセッサは、
     前記視点方向に基づいて、前記検査画像の表示態様を変更する
     請求項3に記載の表示制御装置。
  5.  前記プロセッサは、
     前記視点方向と前記撮影方向とがなす角の角度に基づいて前記複数の検査画像から1枚の検査画像を選択し、
     選択した検査画像の表示態様を変更する
     請求項4に記載の表示制御装置。
  6.  前記プロセッサは、
     前記構造情報を前記視点方向に沿って射影することにより得られる2次元画像と、前記検査画像との類似度に基づいて前記複数の検査画像から1枚の検査画像を選択し、
     選択した検査画像の表示態様を変更する
     請求項4に記載の表示制御装置。
  7.  前記プロセッサは、
     選択した検査画像を強調表示する制御を行う
     請求項5又は請求項6に記載の表示制御装置。
  8.  前記プロセッサは、
     選択した検査画像の表示位置を変更する
     請求項5又は請求項6に記載の表示制御装置。
  9.  前記プロセッサは、
     前記複数の検査画像のうち、選択した検査画像のみを表示する制御を行う
     請求項5又は請求項6に記載の表示制御装置。
  10.  前記プロセッサは、
     前記複数の検査画像を表示する制御を行う際に、前記視点方向と各検査画像の前記撮影方向とがなす角の角度に応じた位置に各検査画像を配置する
     請求項4に記載の表示制御装置。
  11.  前記プロセッサは、
     前記複数の検査画像を表示する制御を行う際に、各検査画像の属性情報に従った順序で各検査画像を配置する
     請求項4に記載の表示制御装置。
  12.  前記プロセッサは、
     前記複数の検査画像を表示する制御を行う際に、前記視点方向と各検査画像の前記撮影方向とがなす角の角度に応じた順序、又は前記構造情報を前記視点方向に沿って射影することにより得られる二次元画像と各検査画像との類似度に応じた順序で各検査画像を配置する
     請求項4に記載の表示制御装置。
  13.  前記プロセッサは、
     前記複数の検査画像の表示領域内の選択された位置に応じた前記撮影方向に基づいて、前記仮想の検査対象物の表示態様を変更する
     請求項2から請求項6の何れか1項に記載の表示制御装置。
  14.  前記プロセッサは、
     選択された前記検査画像の前記撮影方向と等しい方向に前記視点方向を変更する
     請求項13に記載の表示制御装置。
  15.  前記プロセッサは、
     選択された前記検査画像を移動させる操作に応じて、その移動させる操作と同じ方向又は逆の方向に、前記視点方向を変更する
     請求項13に記載の表示制御装置。
  16.  前記プロセッサは、
     選択された位置が前記複数の検査画像の間の位置である場合、選択された位置と、選択された位置の周囲に配置された前記検査画像との相対位置関係が、前記視点方向と前記周囲に配置された前記検査画像との相対位置関係に近づくように前記視点方向を変更する
     請求項13に記載の表示制御装置。
  17.  前記プロセッサは、
     前記対応付け情報に基づいて、前記構造情報と前記複数の検査画像との対応関係を表す情報を、前記仮想の検査対象物及び前記検査画像の少なくとも一方に合成して表示する制御を行う
     請求項2から請求項6の何れか1項に記載の表示制御装置。
  18.  前記プロセッサは、
     前記仮想の検査対象物の周囲であり、かつ各検査画像の前記撮影方向に対応する方向に、前記検査画像が存在することを表すオブジェクトを表示する制御を行う
     請求項17に記載の表示制御装置。
  19.  前記プロセッサは、
     選択された前記検査画像が存在することを表すオブジェクトを強調表示する制御を行う
     請求項18に記載の表示制御装置。
  20.  前記プロセッサは、
     選択された前記検査画像に対しては、格子状の補助線を合成して表示する制御を行い、かつ前記仮想の検査対象物に対しては、選択された前記検査画像の前記撮影方向に対応する方向に直交する面に、前記補助線と同間隔の格子状の補助線を合成して表示する制御を行う
     請求項17に記載の表示制御装置。
  21.  前記プロセッサは、
     選択された前記検査画像と前記仮想の検査対象物との対応する特徴点を、前記検査画像及び前記仮想の検査対象物に合成して表示する制御を行う
     請求項17に記載の表示制御装置。
  22.  前記プロセッサは、
     選択された前記検査画像上のきずの位置に対応する仮想の検査対象物上の位置にきずを表すオブジェクトを合成して表示する制御を行う
     請求項17に記載の表示制御装置。
  23.  前記検査画像に写るきずの位置情報と、前記構造情報におけるきずの位置情報とが対応付けられ、
     前記プロセッサは、
     前記検査画像又は前記構造情報において選択された前記きずの位置情報に基づいて、前記仮想の検査対象物の表示態様及び前記検査画像の表示態様の少なくとも一方を変更する
     請求項2から請求項6の何れか1項に記載の表示制御装置。
  24.  前記プロセッサは、
     複数の前記きずのうちの選択されたきずの位置と、選択されたきず以外のきずの位置との距離に基づいて前記検査画像の表示態様を変更する
     請求項23に記載の表示制御装置。
  25.  前記プロセッサは、
     選択された前記きずの領域の画素値の平均値と、そのきずの領域の周辺領域の画素値の平均値との比に基づいて前記検査画像の表示態様を変更する
     請求項23に記載の表示制御装置。
  26.  前記プロセッサは、
     選択された前記きずの周辺領域の画素値の平滑度に基づいて前記検査画像の表示態様を変更する
     請求項23に記載の表示制御装置。
  27.  前記プロセッサは、
     選択された前記きずが画面の中心かつ手前側に位置するように、前記視点方向を変更する
     請求項23に記載の表示制御装置。
  28.  前記プロセッサは、
     選択された前記きずの位置において、前記視点方向に沿った前記検査対象物の厚みが最も薄くなるように前記視点方向を変更する
     請求項23に記載の表示制御装置。
  29.  少なくとも一つのプロセッサを備え、かつ検査対象物に対して異なる複数の撮影方向から放射線を照射することにより撮影された複数の検査画像と、前記検査対象物の3次元構造を表す構造情報とに基づく表示制御を行う表示制御装置の前記プロセッサが実行する表示制御方法であって、
     前記構造情報に基づく表示制御を行う際の視点方向と前記複数の検査画像それぞれの前記撮影方向とが対応付けられた対応付け情報に基づいて前記表示制御を行う
     表示制御方法。
  30.  少なくとも一つのプロセッサを備え、かつ検査対象物に対して異なる複数の撮影方向から放射線を照射することにより撮影された複数の検査画像と、前記検査対象物の3次元構造を表す構造情報とに基づく表示制御を行う表示制御装置の前記プロセッサに実行させるための表示制御プログラムであって、
     前記構造情報に基づく表示制御を行う際の視点方向と前記複数の検査画像それぞれの前記撮影方向とが対応付けられた対応付け情報に基づいて前記表示制御を行う
     表示制御プログラム。
PCT/JP2023/013732 2022-06-24 2023-03-31 表示制御装置、表示制御方法、及び表示制御プログラム WO2023248573A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-101831 2022-06-24
JP2022101831 2022-06-24

Publications (1)

Publication Number Publication Date
WO2023248573A1 true WO2023248573A1 (ja) 2023-12-28

Family

ID=89379502

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/013732 WO2023248573A1 (ja) 2022-06-24 2023-03-31 表示制御装置、表示制御方法、及び表示制御プログラム

Country Status (1)

Country Link
WO (1) WO2023248573A1 (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070052724A1 (en) * 2005-09-02 2007-03-08 Alan Graham Method for navigating a virtual camera along a biological object with a lumen
JP2009174972A (ja) * 2008-01-24 2009-08-06 Shimadzu Corp X線透視による3次元観測方法およびx線透視装置
JP2009294047A (ja) * 2008-06-04 2009-12-17 Shimadzu Corp X線検査装置
WO2016035147A1 (ja) * 2014-09-02 2016-03-10 株式会社ニコン 測定処理装置、測定処理方法、測定処理プログラムおよび構造物の製造方法
JP2020003301A (ja) * 2018-06-27 2020-01-09 オムロン株式会社 外観検査システム、外観検査結果の表示方法、および、外観検査結果の表示プログラム
WO2021054360A1 (ja) * 2019-09-20 2021-03-25 Hoya株式会社 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
WO2022065110A1 (ja) * 2020-09-23 2022-03-31 アンリツ株式会社 X線検査装置およびx線検査方法
JP2022092083A (ja) * 2020-12-10 2022-06-22 株式会社明和eテック 製品の欠陥検出方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070052724A1 (en) * 2005-09-02 2007-03-08 Alan Graham Method for navigating a virtual camera along a biological object with a lumen
JP2009174972A (ja) * 2008-01-24 2009-08-06 Shimadzu Corp X線透視による3次元観測方法およびx線透視装置
JP2009294047A (ja) * 2008-06-04 2009-12-17 Shimadzu Corp X線検査装置
WO2016035147A1 (ja) * 2014-09-02 2016-03-10 株式会社ニコン 測定処理装置、測定処理方法、測定処理プログラムおよび構造物の製造方法
JP2020003301A (ja) * 2018-06-27 2020-01-09 オムロン株式会社 外観検査システム、外観検査結果の表示方法、および、外観検査結果の表示プログラム
WO2021054360A1 (ja) * 2019-09-20 2021-03-25 Hoya株式会社 内視鏡用プロセッサ、プログラム、情報処理方法及び情報処理装置
WO2022065110A1 (ja) * 2020-09-23 2022-03-31 アンリツ株式会社 X線検査装置およびx線検査方法
JP2022092083A (ja) * 2020-12-10 2022-06-22 株式会社明和eテック 製品の欠陥検出方法

Similar Documents

Publication Publication Date Title
JP6683206B2 (ja) 斜めct装置
US9129427B2 (en) Method and apparatus for generating a three-dimensional model of a region of interest using an imaging system
US10210667B2 (en) Displaying 3D image with a plurality of surface images at depths of interest
JP7315242B2 (ja) 物体の内部構造の非破壊撮像方法及びその実行装置
JP2012037491A (ja) 点群位置データ処理装置、点群位置データ処理システム、点群位置データ処理方法、および点群位置データ処理プログラム
US11477432B2 (en) Information processing apparatus, information processing method and storage medium
EP3306309B1 (en) Image acquisition device, image acquisition method, and image correction program
RU2612572C2 (ru) Система обработки изображений и способ
US20210072165A1 (en) Defect display device and method
CN112739976B (zh) 尺寸测量装置以及尺寸测量方法
JP2009517728A (ja) 画像の非接触操作方法
TW201350788A (zh) X射線檢查方法及x射線檢查裝置
WO2023248573A1 (ja) 表示制御装置、表示制御方法、及び表示制御プログラム
JP3694833B2 (ja) ユーセントリック型傾斜三次元x線ct及びそれによる三次元画像の撮影方法
JP2008032754A (ja) X線透視検査装置
JPH05135155A (ja) 連続シルエツト画像による3次元モデル構成装置
JP2009294047A (ja) X線検査装置
JP2007064906A (ja) X線撮影装置
JP4665696B2 (ja) X線検査装置
WO2023248583A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP4032357B2 (ja) 画像情報処理装置および方法、並びにプログラム
WO2005104953A1 (ja) 画像診断支援装置及びその方法
JP4728092B2 (ja) X線画像出力装置、x線画像出力方法およびx線画像出力プログラム
WO2024009572A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
JP2008185359A (ja) X線ct装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23826762

Country of ref document: EP

Kind code of ref document: A1