WO2024010360A1 - 3차원 영상 생성 방법 및 상기 방법을 수행하는 전자 장치 - Google Patents

3차원 영상 생성 방법 및 상기 방법을 수행하는 전자 장치 Download PDF

Info

Publication number
WO2024010360A1
WO2024010360A1 PCT/KR2023/009501 KR2023009501W WO2024010360A1 WO 2024010360 A1 WO2024010360 A1 WO 2024010360A1 KR 2023009501 W KR2023009501 W KR 2023009501W WO 2024010360 A1 WO2024010360 A1 WO 2024010360A1
Authority
WO
WIPO (PCT)
Prior art keywords
sample
radiation
images
image
feature point
Prior art date
Application number
PCT/KR2023/009501
Other languages
English (en)
French (fr)
Inventor
김응범
임재현
김정수
Original Assignee
주식회사 에스지헬스케어
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020230085670A external-priority patent/KR20240007606A/ko
Application filed by 주식회사 에스지헬스케어 filed Critical 주식회사 에스지헬스케어
Publication of WO2024010360A1 publication Critical patent/WO2024010360A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/04Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material
    • G01N23/046Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and forming images of the material using tomography, e.g. computed tomography [CT]
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/083Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption the radiation being X-rays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N23/00Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00
    • G01N23/02Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material
    • G01N23/06Investigating or analysing materials by the use of wave or particle radiation, e.g. X-rays or neutrons, not covered by groups G01N3/00 – G01N17/00, G01N21/00 or G01N22/00 by transmitting the radiation through the material and measuring the absorption
    • G01N23/18Investigating the presence of flaws defects or foreign matter

Definitions

  • the disclosure below relates to a method for generating a three-dimensional image and an electronic device that performs the method. More specifically, it relates to a 3D image generation method and electronic device for performing a 3D inspection using radiation on a conveyor belt or in-line without moving the sample or sample to a separate chamber.
  • a moving sample or specimen is moved through a transfer device such as a conveyor belt to a space equipped with separate inspection equipment for inspection, and then again transferred to a transfer device conveyor.
  • a belt movement method was used.
  • the method of moving the sample from the transfer device conveyor belt to the inspection equipment makes it difficult to inspect all products produced due to the sample movement time and waiting time before entering the inspection equipment, and it is difficult to conduct inspection of all products by limiting the quantity to a specific sample or a specific range.
  • the inspection method is mainly used.
  • the 3D image generation method and electronic device are intended to be applied to industrial inspection equipment by modifying Tomosynthesis or Spiral CT to reconstruct an accurate 3D image of the inspection object and shorten inspection time.
  • a 3D image of the sample in order to speed up image capture and inspection, can be reconstructed with a small amount of image data while the sample to be inspected is moving on a conveyor belt.
  • An image generation method and electronic device can be provided.
  • a 3D image generation method and electronic device that can reduce the inspection time for a sample and reduce the size of data required for 3D image reconstruction by applying 3D perspective imaging technology suitable for an industrial environment. can be provided.
  • An electronic device includes an imaging device and a processor that acquires a plurality of radiation images of a sample moving in a set direction on a transfer device, and the processor reconstructs a three-dimensional image of the sample. Determine feature points of the plurality of radiological images, calculate position information of the feature point using the position of the feature point, generate a feature point image based on the position information, and generate the feature point image and the location information. Using this, the 3D image can be generated.
  • the imaging device includes a radiation irradiation device and a detector in which pixels are arranged in two dimensions, and acquires the plurality of radiation images when the sample passes through a cone beam area determined according to the radiation irradiation device and the detector. You can.
  • the radiation irradiation device may emit radiation in the form of pulses to the sample.
  • the detector includes a gate line and an output line for transmitting a signal detected in the panel of the detector, and the processor drives a gate line in an effective area corresponding to an area in which the sample moves on the transfer device.
  • the frame for acquiring the plurality of radiation images is controlled, and the gate line may be arranged in a direction parallel to the set direction in which the sample moves.
  • the processor may determine whether the sample is defective by comparing the 3D image with a set standard.
  • the imaging device may acquire a plurality of radiation images for a plurality of samples, and the processor may determine the feature point using the plurality of radiation images for the plurality of samples.
  • the processor may preprocess the plurality of radiation images and determine the feature point using the plurality of preprocessed radiation images.
  • the processor may determine whether a foreign substance has entered the sample by comparing pixel values of the plurality of radiation images with a set threshold.
  • An electronic device includes an imaging device and a processor that acquires a plurality of radiation images for a sample moving in a set direction on a transfer device, wherein the processor determines the shape of the sample and the plurality of radiation images. Based on at least one of the characteristics of the image, determine a feature point of the plurality of radiological images, calculate position information of the sample corresponding to the feature point using the location of the feature point and the speed of the transfer device, and Based on location information, a three-dimensional image of the sample can be generated by matching the plurality of radiation images.
  • the imaging device includes a radiation irradiation device and a detector in which pixels are arranged in two dimensions, and can acquire the plurality of images when the sample passes through a cone beam area determined according to the radiation irradiation device and the detector. there is.
  • the processor may determine whether the sample is defective by comparing the 3D image with a set standard.
  • a method of generating a 3D image includes using an imaging device to acquire a plurality of radiation images of a sample moving in a set direction on a transfer device, and reconstructing a 3D image of the sample.
  • An operation of determining feature points of the plurality of radiological images, an operation of calculating position information of the feature point using the position of the feature point, an operation of generating a feature point image based on the position information, and the feature point image and the An operation of generating the 3D image using location information may be included.
  • the imaging device includes a radiation irradiation device and a detector in which pixels are arranged in two dimensions, and the operation of acquiring the plurality of radiation images includes the sample passing through a cone beam area determined according to the radiation irradiation device and the detector. When doing so, the plurality of radiation images can be acquired.
  • the operation of acquiring the plurality of radiation images may include the operation of emitting radiation in the form of a pulse to the sample using the radiation irradiation device.
  • the detector includes a gate line and an output line for transmitting a signal detected in the panel of the detector, and the operation of acquiring the plurality of radiation images is performed using an effective signal corresponding to an area in which the sample moves on the transfer device.
  • the method of generating a 3D image may further include comparing the 3D image with a set standard to determine whether the sample is defective.
  • the operation of acquiring the plurality of radiation images includes acquiring a plurality of radiation images for a plurality of samples, and the operation of determining the feature point involves determining the feature point using the plurality of radiation images of the plurality of samples. You can decide.
  • the method of generating a 3D image further includes preprocessing the plurality of radiation images, and the operation of determining the feature point may determine the feature point using the plurality of preprocessed radiation images.
  • the method of generating a 3D image may further include comparing pixel values of the plurality of radiation images with a set threshold to determine whether a foreign substance has entered the sample.
  • a 3D image generation method and electronic device generates a 3D image of the sample on a conveyor belt or in-line without moving the sample requiring 3D inspection to a separate chamber or space, Inspection can be performed.
  • a 3D image generation method and electronic device can shorten and/or improve the inspection time for a sample, simplify sample processing steps, and generate data for a 3D image of a sample.
  • the size can be reduced.
  • 3D image generation methods and electronic devices can increase inspection accuracy and shorten inspection speed by generating accurate 3D images of inspection objects.
  • FIG. 1 is a schematic block diagram of an electronic device according to various embodiments.
  • FIG. 2 is a diagram illustrating an operation of an electronic device acquiring a radiation image of a sample according to various embodiments.
  • Figure 3 is an operation flowchart of a method for generating a 3D image according to various embodiments.
  • FIG. 4 is a diagram illustrating an operation in which an electronic device determines a feature point using a plurality of radiation images according to various embodiments.
  • Figure 5 is a diagram showing the image signal detected by the detector according to the movement of the sample.
  • Figure 6 is a diagram showing the output of radiation irradiated from a radiation irradiation device according to various embodiments.
  • Figure 7 is a diagram showing an operation frame of a detector according to various embodiments.
  • Figure 8 is a diagram showing gate lines and output lines of detectors according to various embodiments.
  • FIG. 9 is a diagram illustrating a two-dimensional image acquired by an electronic device according to various embodiments.
  • FIG. 10 is a diagram illustrating a cross section of a 3D image generated by an electronic device according to various embodiments.
  • FIG. 1 is a schematic block diagram of an electronic device 100 according to various embodiments.
  • an electronic device 100 may include a processor 110, a memory 120, and an image capturing device 130.
  • the processor 110 may, for example, execute software (e.g., a program) to control at least one other component (e.g., a hardware or software component) of the electronic device 100 connected to the processor 110. and can perform various data processing or calculations. According to one embodiment, as at least part of data processing or computation, the processor 110 stores commands or data received from other components (e.g., sensors, imaging device 130, etc.) in volatile memory, Commands or data stored in memory can be processed and the resulting data can be stored in non-volatile memory.
  • software e.g., a program
  • the processor 110 stores commands or data received from other components (e.g., sensors, imaging device 130, etc.) in volatile memory, Commands or data stored in memory can be processed and the resulting data can be stored in non-volatile memory.
  • the processor 110 is a main processor (e.g., a central processing unit or an application processor) or an auxiliary processor (e.g., a graphics processing unit, a neural processing unit (NPU)) that can operate independently or together with the main processor. , an image signal processor, a sensor hub processor, or a communication processor).
  • a main processor e.g., a central processing unit or an application processor
  • auxiliary processor e.g., a graphics processing unit, a neural processing unit (NPU)
  • NPU neural processing unit
  • the auxiliary processor may be set to use less power than the main processor or be specialized for a designated function.
  • the auxiliary processor may be implemented separately from the main processor or as part of it.
  • a co-processor may act on behalf of the main processor while the main processor is in an inactive (e.g. sleep) state, or together with the main processor while the main processor is in an active (e.g. application execution) state.
  • At least some of the functions or states related to at least one of the components of the device 100 may be controlled.
  • the co-processor e.g. an image signal processor or a communication processor
  • the auxiliary processor may include a hardware structure specialized for processing artificial intelligence models. Artificial intelligence models can be created through machine learning.
  • Such learning may be performed in the electronic device 100 itself on which the artificial intelligence model is performed, or may be performed through a separate server.
  • Learning algorithms may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but It is not limited.
  • An artificial intelligence model may include multiple artificial neural network layers.
  • Artificial neural networks include deep neural network (DNN), convolutional neural network (CNN), recurrent neural network (RNN), restricted boltzmann machine (RBM), belief deep network (DBN), bidirectional recurrent deep neural network (BRDNN), It may be one of deep Q-networks or a combination of two or more of the above, but is not limited to the examples described above.
  • artificial intelligence models may additionally or alternatively include software structures.
  • the memory 120 may store various data used by at least one component (eg, processor 110 or sensor module) of the electronic device 100.
  • Data may include, for example, input data or output data for software (e.g., a program) and instructions related thereto.
  • Memory 120 may include volatile memory or non-volatile memory.
  • the imaging device 130 may include a radiation irradiation device 140 (eg, an X-ray tube), a detector 150, and a rotation device 160.
  • the detector 150 may include a gate line 151, an output line 153, and a panel.
  • the imaging device 130 may acquire a plurality of radiation images of the sample (or samples) moving on the transfer device. For example, the imaging device 130 may detect radiation emitted from the radiation irradiation device 140 by the detector 150 and obtain a plurality of radiation images of the sample. There may be a difference in the intensity of radiation detected by passing through the sample and radiation that does not pass through the sample.
  • the electronic device 100 may acquire a radiation image for a sample according to a signal (eg, a detected radiation signal or an image signal) detected by the detector 150.
  • the radiation irradiation device 140 may be located above a transfer device that moves the sample in a straight line, and the detector 150 may be located below the transfer device.
  • the imaging device 130 irradiates radiation from the radiation irradiation device 140 and detects the radiation with the detector 150, thereby obtaining multiple radiation images of the sample.
  • the conveying device may include a highly radiolucent conveyor belt.
  • the sample may be moved in a straight line perpendicular to the normal line of the tube focus and the X-ray detector 150 through a transfer device disposed between the radiation irradiation device 140 and the detector 150.
  • the detector 150 may include a panel in which pixels are arranged in two dimensions.
  • the imaging device 130 may acquire a two-dimensional radiation image of the sample according to the size of the radiation signal detected in the panel.
  • a plurality of radiation images acquired by the imaging device 130 are acquired for a moving sample, and the location of the sample when each radiation image is acquired may be different. Therefore, when each of a plurality of radiation images is captured, the angle, position, distance, etc. at which the radiation is irradiated to the sample may be different.
  • the electronic device 100 may determine feature points of a plurality of radiation images in order to reconstruct a 3D image of the sample.
  • a feature point may represent a reference point for combining multiple radiological images.
  • the electronic device 100 may determine feature points using a pattern set according to the shape of the sample. As another example, the electronic device 100 may determine a feature point according to the characteristics of the radiation image.
  • the electronic device 100 may calculate location information of a feature point based on the location of the feature point.
  • the location information of the feature point may include the angle and coordinates of the feature point.
  • the electronic device 100 may generate a feature point image based on location information.
  • the electronic device 100 may generate a two-dimensional feature point image by matching or matching feature points of a plurality of radiation images.
  • the electronic device 100 may generate a feature point image by matching location information of feature points of a plurality of radiation images.
  • the electronic device 100 may adjust the position of the radiation image so that the feature point of each radiation image matches according to the location information of the feature point, and combine the radiation images whose positions have been adjusted to generate a feature point image.
  • the electronic device 100 may correspond the feature point image to the location of the sample (on the transfer device).
  • the electronic device 100 may generate a plurality of feature point images for the sample using a plurality of radiation images taken while the sample passes through the cone beam area.
  • the electronic device 100 may preprocess a plurality of radiation images and generate a feature point image using the plurality of preprocessed radiation images.
  • the electronic device 100 may reduce the size of the radiation image to include the area where the sample was imaged.
  • the electronic device 100 may identify an area where the sample was imaged and an area where the sample was not imaged in the radiation image.
  • the electronic device 100 may preprocess a plurality of radiation images based on feature points. For example, the size of a radiology image can be reduced to include an area set based on a feature point.
  • the electronic device 100 can generate a 3D image of a sample using a feature point image and location information.
  • the electronic device 100 can generate a three-dimensional image of the sample by matching the location information of the feature points in each feature point image.
  • the electronic device 100 may calculate location information of feature points of a sample (eg, coordinates of the sample) using location information of feature points of a radiation image.
  • the electronic device 100 may generate a 3D image from a plurality of feature point images using tomosynthesis.
  • Tomosynthesis is a technology that synthesizes multiple slice images by recombining multiple two-dimensional images or images taken at a certain angle (e.g., about 15° to about 50°), and selects the area to be observed. It refers to an image creation technique that takes pictures and synthesizes them as a whole.
  • the electronic device 100 can acquire radiation images at different angles between the sample and the radiation irradiation device 140. Additionally, since the feature point image is generated using a plurality of radiation images, the angle between the sample and the radiation irradiation device 140 in each feature point image may be different. The electronic device 100 may generate a three-dimensional image of the sample by combining images of feature points at different angles for the sample.
  • the electronic device 100 can generate a 3D image of the sample using various techniques for generating a 3D image of the target using images taken at different angles. .
  • the image capturing device 130 may include a rotation device 160.
  • the rotation device 160 may cause the radiation irradiation device 140 and the detector 150 to rotate based on the transfer device.
  • the radiation irradiation device 140 and the detector 150 rotate, so that the imaging device 130 can acquire a plurality of radiation images of the sample from various angles.
  • the electronic device 100 may generate a three-dimensional image of the sample using a plurality of radiation images acquired using the rotating radiation irradiation device 140 and the detector 150.
  • the electronic device 100 may generate a feature point image using a plurality of radiation images acquired using the imaging device 130 including the rotation device 160.
  • the electronic device 100 can generate a 3D image of a sample using a feature point image and location information.
  • the electronic device 100 synthesizes a plurality of images acquired using an imaging device 130 that rotates based on the test object, such as a spiral CT scan method, to create a three-dimensional image of the test object.
  • an imaging device 130 that rotates based on the test object
  • a spiral CT scan is an image that passes between a radiation irradiation device 140 (e.g., an Indicates the creation method.
  • the electronic device 100 can determine whether the sample is defective by comparing the 3D image with a set standard. For example, the electronic device 100 may determine whether a sample is defective by comparing various 3D shape characteristics, such as the shape, size, and shape of the 3D image, with a set standard.
  • the electronic device 100 can extract or calculate various information about the sample from a 3D image in order to determine whether the sample is defective, and the criteria for determining whether the sample is defective can be set in various ways. You can.
  • the electronic device 100 accumulates the values obtained by projecting images from various angles of the sample through which radiation (e.g., can be reconstructed or created.
  • the electronic device 100 uses a two-dimensional transmission image (e.g., multiple radiation images, feature point images, etc.) in a memory 120 or a processor 110 for image processing. ) (e.g., GPU) can be transmitted to the memory 120, and operations to construct a three-dimensional virtual space can be performed.
  • the electronic device 100 can project images for each angle onto voxels in a 3D virtual space and store the 3D image of the sample.
  • the electronic device 100 preprocesses a plurality of radiation images as described above and creates a feature point image using the plurality of preprocessed radiation images. can be created.
  • the electronic device 100 acquires a plurality of radiation images for a plurality of samples and performs calculations to generate 3D images of the plurality of samples in parallel, thereby reducing the computation step.
  • the time taken can be shortened.
  • the imaging device 130 may acquire a plurality of radiation images for a plurality of samples.
  • the electronic device 100 may use a plurality of radiation images for a plurality of samples to determine feature points of the plurality of radiation images. Feature points of the plurality of radiological images may be determined for each of the plurality of samples.
  • the electronic device 100 may generate a three-dimensional image for each of a plurality of samples using feature points of a plurality of radiation images for the plurality of samples.
  • the operations of the electronic device 100 that generates a 3D image for each of a plurality of samples can be applied substantially in the same way as the operations of the electronic device 100 that generates a 3D image of a single sample.
  • the electronic device 100 can shorten or improve the time to generate a 3D image for all samples by acquiring multiple radiation images for multiple samples and generating a 3D image for each of the multiple samples. . Additionally, by generating a 3D image for each of the plurality of samples, the electronic device 100 can shorten the inspection time for determining whether all samples are defective.
  • the electronic device 100 obtains a two-dimensional radiation image corresponding to a partial area of the detector 150, or uses some radiation images among a plurality of radiation images to reduce the number of radiation images to be processed for calculation. The time required can be shortened.
  • the electronic device 100 may use a plurality of radiation images to determine whether a foreign substance has entered the sample. For example, the electronic device 100 may determine whether a foreign substance has entered the sample using the pixel value of a radiation image or the pixel value of a set area.
  • the electronic device 100 may determine whether a foreign substance has entered the sample by comparing the pixel value of the radiation image with the set pixel value. For example, if the difference between the pixel value of the radiation image and the set pixel value exceeds the set range, the electronic device 100 may determine that a foreign substance has entered the sample.
  • the electronic device 100 may determine whether foreign matter has entered by using the pixel value of the radiation image or the standard deviation of the pixel value of a partial area.
  • a partial area or a set area of the radiology image may be determined according to a set standard.
  • the electronic device 100 may identify the area where the sample was photographed in the radiation image.
  • the electronic device 100 may calculate the standard deviation of all or part of the pixel values of the area where the sample was photographed.
  • the electronic device 100 is configured according to the settings (when the calculated standard deviation is less than the set standard deviation, when the calculated standard deviation exceeds the set standard deviation, when the calculated standard deviation exceeds the set standard deviation range, etc.), It can be determined whether foreign matter has entered the sample.
  • the electronic device 100 can determine whether a foreign substance has entered the sample using the pixel value of the radiation image or the pixel value of a partial area. there is.
  • FIG. 2 is a diagram illustrating an operation of the electronic device 100 to acquire a radiation image of a sample 210 according to various embodiments.
  • the radiation irradiation device 140 may be located above the sample 210 moving on the transfer device, and the detector 150 may be located below.
  • the sample 210 can move in a set direction on the transfer device. For example, in FIG. 2, the sample 210 may be moved from the left (eg, 9 o'clock direction in FIG. 2) to the right (eg, 3 o'clock direction in FIG. 2) by a transfer device.
  • the imaging device 130 may acquire a plurality of radiation images of the sample 210 moving in a set direction on the transfer device.
  • the electronic device 100 moves the sample 210 to a separate space or moves the sample 210 to a separate space. It is possible to determine whether the sample 210 is defective without stopping the sample 210.
  • the electronic device 100 can shorten the inspection time for the sample 210 by acquiring a plurality of radiation images when the sample 210 moves according to an existing process.
  • a cone beam area where a radiation image for the sample 210 is captured may be determined.
  • the imaging device 130 may acquire a radiation image of the sample 210 when the sample 210 passes through the cone beam area 170.
  • the transfer device may be arranged so that the sample 210 passes through the cone beam area 170. For example, in FIG. 2, the transfer device moves from the left direction (e.g., 9 o'clock in FIG. 2) to the right (e.g., 3 o'clock in FIG. 2) while the sample 210 is in the cone beam area 170. It can be arranged to pass through.
  • FIG. 2 is a diagram illustrating an operation of the imaging device 130 to acquire a radiation image when a portion of the sample 210 is located in the cone beam area 170.
  • the operation of the imaging device 130 to acquire a radiation image can be substantially applied in the same way even when the entire sample 210 is located in the cone beam area 170.
  • the arrangement of the radiation irradiation device 140 and the detector 150 shown in FIG. 2 is illustrative and is not limited to the embodiment shown in FIG. 2.
  • the electronic device 100 may determine the feature point 213 of the radiation image, as shown in FIG. 2 .
  • the electronic device 100 may determine the feature point 213 of the radiation image based on the shape of the sample 210. As shown in FIG. 2 , when the shape of the sample 210 is a square plate, the electronic device 100 may determine the vertex of the square radiation image as the feature point 213.
  • the electronic device 100 may determine the feature point 213 of the radiation image based on the characteristics of the radiation image. As shown in FIG. 2 , when the radiation image is square, the electronic device 100 may determine the vertex of the square as the feature point 213.
  • the electronic device 100 can recognize patterns in radiation images.
  • the electronic device 100 may use the shape or marker of the sample 210 to determine the radiation image in which the set pattern is recognized as the starting point of the radiation image for the sample 210.
  • the electronic device may determine the feature point 213 of the radiation image according to the pattern of the recognized radiation image.
  • the electronic device 100 may determine a radiation image in which the set pattern is not recognized or a radiation image taken in the frame immediately preceding the radiation image in which the set pattern is not recognized as the end point of the radiation image for the sample 210.
  • the electronic device 100 may determine the start point and/or end point of the radiation image for the sample 210 using the pixel value of the radiation image. For example, when the pixel value of a set area in the radiation image changes from the set value (e.g., initial value), the electronic device 100 may determine that the sample 210 has reached the cone beam area 170. . When the sample 210 reaches the cone beam area 170, the electronic device 100 may determine the corresponding radiation image as the starting point.
  • the set value e.g., initial value
  • the electronic device 100 may determine the end point of the radiation image using the pixel value of the radiation image. For example, when the pixel value of a set area in the radiation image changes from the set value (e.g., initial value) and returns to the initial value, the electronic device 100 detects that the sample 210 is outside the cone beam area 170. It can be judged that When the sample 210 deviates from the cone beam area 170, the electronic device 100 may determine a radiation image taken in the corresponding frame or the frame immediately preceding the corresponding frame as the end point.
  • the set value e.g., initial value
  • the electronic device 100 may determine a start point and/or an end point of the radiation image for each of the plurality of samples 210.
  • the electronic device 100 may calculate the position information of the feature point 213 of the radiation image and/or the position information of the feature point 211 of the sample using the position of the feature point 213 of the radiation image.
  • the location information of the feature point 213 of the radiation image may include coordinates, angle, magnification, etc. of the feature point 213 of the radiation image.
  • the location information of the feature point 211 of the sample 210 may include coordinates, angle, magnification, etc. of the feature point 211 of the sample 210.
  • the electronic device 100 may determine the location information of the feature point 213 of the radiation image and/or the location information of the feature point of the specimen 210 as shown in Equations 1 to 4 below.
  • the focus of the detector 150 plane may mean a point where a line extending vertically from the position of the radiation irradiation device 140 to the detector 150 plane meets.
  • the location of the feature point of the radiation image may be determined using the focus of the detector 150 plane as the origin.
  • Equation 1 above may represent the angle of the feature point.
  • angle of feature point may represent the angle between the feature point 213 of the radiation image - the radiation irradiation device 140 - the focus.
  • (source image distance) may represent the distance from the radiation device 140 to the focus of the plane of the detector 150.
  • M is the magnification ratio
  • (source object distance) may represent the distance from the radiation device 140 to the focus of the object plane.
  • the focus of the object plane may be determined to be substantially the same as the focus of the detector 150 plane.
  • the focus of the object plane may mean a point where a line extending vertically from the position of the radiation irradiation device 140 to the object plane meets.
  • the location of the feature point 211 of the sample 210 ( , ) can be determined using the focus of the object plane as the origin.
  • the electronic device 100 determines the position of the feature point 211 of the sample 210, as shown in Equations 3 and 4 above ( , ) can be determined.
  • the angle of the feature point 211 of the sample 210 may be the same as the angle of the feature point 213 of the radiation image.
  • the electronic device 100 determines the location of the feature point 213 of the radiation image ( , ) will be used to calculate the location information of the feature point of the radiation image (e.g., angle, magnification, location of the feature point of the sample 210, etc.), but the method is not limited to this.
  • the electronic device 100 determines the location of the feature point 213 of the sample 210 ( , ), time, and movement speed can be used to calculate the location information of the feature point of the sample 210 after t seconds.
  • the location of the feature point 211 of the sample 210 at time 0s is ( , ), the location of the feature point of the sample 210 at time t is ( , )(yes: may be the speed of the sample 210 by the transfer device).
  • the electronic device 100 may calculate the position information of the feature point of the sample 210 after t seconds by using the speed of the sample 210 and the frame for capturing the radiation image.
  • the characteristics of the operation of calculating the position information of the feature point of the sample 210 after t seconds in consideration of the movement speed can be similarly applied to the operation of calculating the position information of the feature point of the radiation image after t seconds by considering the movement speed. .
  • the movement speed and magnification rate can be considered.
  • the electronic device 100 moves a different sample 210.
  • a plurality of radiation images corresponding to the location can be acquired. In each radiation image, the location and angle of each feature point may be different.
  • the electronic device 100 may use the time at which the sample 210 enters the cone beam area 170 to determine location information of the sample 210 when each of a plurality of radiation images is captured.
  • the electronic device 100 may include a sensor to sense whether the sample 210 has entered the cone beam area 170.
  • the electronic device 100 calculates the location information of the sample 210 by considering the speed at which the transfer device moves the sample 210 based on the time at which the sample 210 entered the cone beam area 170 in the sensor. You can.
  • the electronic device 100 may correspond the calculated location information of the sample 210 to each radiation image.
  • Figure 3 is an operation flowchart of a method for generating a 3D image according to various embodiments.
  • the electronic device 100 may acquire a plurality of radiation images for the sample 210 moving on the transfer device.
  • the radiation irradiation device 140 emits radiation to the moving sample 210, the detector 150 detects the radiation signal, accumulates the detected radiation signal for each set frame, and outputs the image signal to the processor 110, It can be transmitted to memory 120, etc.
  • the electronic device 100 may use an image signal to acquire a plurality of radiation images for the sample 210, each at a different location, according to the movement of the sample 210.
  • the electronic device 100 may determine feature points of a plurality of radiation images for reconstructing a 3D image of the sample 210.
  • the electronic device 100 may determine feature points of each of a plurality of radiation images using the shape or marker of the sample 210.
  • the electronic device 100 may analyze the radiation image and determine feature points of each of the plurality of radiation images based on the characteristics of the sample 210 captured in the radiation image.
  • the feature point determined for each of the plurality of radiological images may correspond to the same part of the sample 210.
  • the electronic device 100 may calculate the location information of the feature point using the location of the feature point.
  • the electronic device 100 may calculate the position information of the feature point of the radiation image and/or the position information of the feature point of the sample 210, as shown in Equations 1 to 4 above.
  • the feature point of the sample 210 may represent a portion corresponding to the feature point of the radiation image.
  • the electronic device 100 may generate a feature point image based on location information.
  • the electronic device 100 may generate a feature point image by matching feature points of each radiation image based on location information.
  • the feature point image may represent a two-dimensional image for generating a three-dimensional image of the sample 210.
  • the electronic device 100 may generate a feature point image by combining parts of a plurality of radiation images.
  • the electronic device 100 may generate a plurality of feature point images.
  • the electronic device 100 may generate a 3D image using a feature point image and location information.
  • the electronic device 100 may generate a three-dimensional image of the sample 210 by combining a plurality of feature point images.
  • the electronic device 100 may determine whether the sample 210 is defective by comparing the 3D image with a set standard.
  • the electronic device 100 can shorten the inspection time for the sample 210 by determining whether the sample 210 is defective using a three-dimensional image of the sample 210 generated using a plurality of radiation images.
  • FIG. 4 is a diagram illustrating an operation in which the electronic device 100 determines a feature point using a plurality of radiation images according to various embodiments.
  • the electronic device 100 determines the feature point of the radiation image, it can determine the feature point of the radiation image of a subsequent frame based on the determined feature point of the radiation image. For example, the electronic device 100 may calculate the movement speed of a feature point in the radiation image by considering the movement speed of the sample 210. The electronic device 100 may determine the feature point of the radiation image captured in the frame after determining the feature point of the radiation image based on the moving speed of the feature point of the radiation image.
  • the electronic device 100 may preprocess the corresponding radiation image based on the determined feature points of the radiation image. For example, the electronic device 100 may generate a preprocessed radiation image by cutting out an area set based on feature points of the radiation image.
  • the electronic device 100 may preprocess the radiation image of the frame after determining the feature points of the radiation image. For example, the electronic device 100 may preprocess the radiation image in a frame after determining the feature point of the radiation image based on the moving speed of the feature point of the radiation image.
  • the electronic device 100 When a feature point is recognized in a captured radiation image, the electronic device 100 generates a feature point image using a set number of radiation images taken from the time when the radiation image in which the feature point was recognized and the radiation image in which the feature point was recognized were captured. can do.
  • the radiation images shown in FIG. 4 may be arranged from left to right according to the order in which they were photographed. That is, Figure 4 may show a plurality of radiation images taken for each frame arranged sequentially.
  • the electronic device 100 displays radiology image 1 (410) to radiology image 3 (430).
  • a feature point image for sample 1 can be generated using the radiation image of .
  • the electronic device 100 displays from radiology image 2 (420) to radiology image 4 (440).
  • a feature point image for sample 2 can be generated using the radiation image.
  • FIG. 5 is a diagram showing an image signal detected by the detector 150 as the sample 210 moves.
  • the sample 210 may move from the first position 510 to the second position 520 over time. Assuming that the radiation emitted from the radiation device 140 is incident perpendicularly to the detector 150, a section 531 in which the image signal linearly decreases from the entire image signal 530 as the sample 210 moves ), a section 532 in which the video signal is constant, and a section 533 in which the video signal linearly increases may appear.
  • the image signal detected by the detector 150 may refer to the intensity or size of radiation accumulated and detected in each frame (or operation cycle). Regardless of the movement of the sample 210, the intensity or size of the radiation detected in the section 532 is constant, but the intensity or size of the radiation detected in the section 531 and section 533 depends on the movement of the sample 210. It changes accordingly.
  • the radiation signal changes due to the movement of the sample 210 (e.g., sections 531 and 533). Because afterimages occur in the image, the clarity of the radiological image may be reduced.
  • a clear radiation image is required.
  • a moving artifact occurs.
  • the moving speed of the sample 210 must be maintained at a high speed, in order to obtain a clear radiation image, the radiation image must be photographed at high speed and the distance that the sample 210 moves between each frame must be shortened.
  • the clarity of a radiation image taken with respect to the moving sample 210 can be improved or improved. 6 and 7 below, a method for improving the clarity of a radiation image according to various embodiments will be described.
  • FIG. 6 is a diagram showing the output of radiation irradiated from the radiation irradiation device 140 according to various embodiments.
  • the radiation irradiation device 140 may emit radiation in the form of a pulse to the sample 210.
  • the radiation irradiation device 140 emits pulse-shaped radiation to the sample 210, thereby reducing the time it takes to accumulate image signals and improving the clarity of the captured radiation image.
  • the radiation irradiation device 140 continuously emits radiation (e.g., X-ray) like the output 610, radiation of a constant size is output regardless of time.
  • radiation e.g., X-ray
  • the radiation device 140 emits radiation like the output 620, a section in which the output of radiation increases and decreases for a short time and a section in which radiation of a set size is output may be repeated.
  • the radiation device 140 emits radiation like the output 630
  • radiation in the form of a pulse may be output.
  • the output 620 it can be seen that radiation is output in the form of a pulse, but the output 620 includes a section in which the output of radiation linearly increases or decreases in some sections.
  • the detector 150 when the radiation device 140 emits radiation like the output 630, the detector 150 accumulates image signals more than when it emits radiation like the output 610 or the output 620. Time may be reduced. The radiation irradiation device 140 can emit radiation like the output 630, thereby improving the clarity of the radiation image.
  • the radiation irradiation device 140 includes a CXT (CNT X-ray tube, carbon nanotube
  • FIG. 7 is a diagram illustrating an operation frame of the detector 150 according to various embodiments.
  • the detector 150 accumulates radiation signals (e.g., X-rays) for each window time 710 of the detector 150 corresponding to each frame, and detects the image signal. can do.
  • Window time is the reciprocal of frame rate.
  • the electronic device 100 can increase the frame rate at which the imaging device 130 acquires radiation images, thereby increasing the number of images captured per second.
  • the time to accumulate image signals is reduced, so the electronic device 100 can acquire a radiation image with improved clarity.
  • FIG. 8 is a diagram showing the gate line 151 and output line 153 of the detector 150 according to various embodiments.
  • the detector 150 may include a gate line 151 and an output line 153 for transmitting a signal (eg, an image signal) detected in the panel 155.
  • the electronic device 100 may acquire a plurality of radiation images by driving the gate line 151 in the effective area corresponding to the area where the sample 210 moves on the transfer device.
  • the sample 210 may move from the left (e.g., 9 o'clock in FIG. 8) to the right (e.g., 3 o'clock in FIG. 8) or from right to left by the transfer device. .
  • the direction set for the sample 210 may be left to right or right to left.
  • the gate line 151 may be arranged in a direction parallel to the set direction in which the sample 210 moves. As shown in Figure 8, the gate line 151 is arranged in a direction parallel to the set direction in which the sample 210 moves, and can control the output of the signal detected in the panel 155 according to the direction parallel to the set direction. there is.
  • the signal detected in the area of the panel 155 parallel to the direction set from the gate line 151-1 in FIG. 8 is transmitted to a plurality of output lines ( It can be output according to the signal applied to 153-1, 153-2, 153-3, 153-4, 153-5, 153-6, 153-7).
  • the area of the panel 155 horizontally parallel from the gate line 151-1 and the output line 153-1 A signal detected in an area where the area of the panel 155 perpendicular to 1) intersects may be output through the output line 153-1.
  • the detector 150 has a plurality of gate lines (151-1, 151-2, 151-3, 151-4, 151-5, 151-6, 151-7) and a plurality of output lines ( 153-1, 153-2, 153-3, 153-4, 153-5, 153-6, 153-7).
  • the panel 155 may store a signal (eg, an image signal) by accumulating radiation signals detected during the window time.
  • the detector 150 turns on the TFT (thin film transistor) of one line at the gate IC of the gate line, and the signal of the corresponding line is output. It may be transmitted to the readout IC (ROIC) of line 153.
  • the detector 150 may output the signal transmitted to the ROIC of the output line 153 to the outside of the detector 150.
  • the detector 150 drives the gate line 151-1
  • the signal stored in the line of the panel corresponding to the gate line 151-1 is transmitted to a plurality of output lines 153-1 and 153-2. , 153-3, 153-4, 153-5, 153-6, 153-7).
  • the detector 150 configures the electronic device 100 by receiving signals transmitted to a plurality of output lines (153-1, 153-2, 153-3, 153-4, 153-5, 153-6, and 153-7). (e.g. processor 110, memory 120, etc.) or can be transmitted to an external device.
  • the time required to output a signal from the output line 153 to the outside of the detector 150 is line read out time, and the gate line 151 is at line read out time.
  • the gate line 151 is at line read out time.
  • the frame rate is the reciprocal of the time to drive one frame, the time to drive one frame must be reduced to increase the frame rate.
  • the electronic device 100 may reduce the number of driving gate lines 151 to increase the frame rate. As the frame rate increases, the time for which image signals are accumulated decreases, and the clarity of radiological images can be improved.
  • the effective area may represent an area in which the sample 210 moves on the transfer device.
  • the electronic device 100 can reduce the number of driven gate lines 151 by driving the gate lines 151 in the effective area. For example, in FIG. 8, the electronic device 100 drives the gate lines 151-3, 151-4, and 151-5 corresponding to the effective area 810 to generate a plurality of The frame for acquiring the radiation image can be controlled. In FIG. 8, the electronic device 100 has an effective area 810 among the plurality of gate lines 151-1, 151-2, 151-3, 151-4, 151-5, 151-6, and 151-7. By driving only the corresponding gate lines 151-3, 151-4, and 151-5, the frame can be controlled and the frame rate can be increased.
  • a plurality of gate lines 151-1, 151-2, 151-3, 151-4, 151-5, 151-6, and 151-7 are used to move the sample 210.
  • the electronic device 100 controls the driving of a plurality of gate lines 151-1, 151-2, 151-3, 151-4, 151-5, 151-6, and 151-7.
  • a plurality of output lines (153-1, 153-2, 153-3, 153-4, 153-5, 153-6, 153-7) are arranged parallel to the direction in which the sample 210 moves.
  • the electronic device 100 controls the operation of the plurality of output lines 153-1, 153-2, 153-3, 153-4, 153-5, 153-6, and 153-7 to generate a plurality of radiation You can also control the frame at which images are acquired.
  • FIG. 9 is a diagram illustrating a two-dimensional image 900 acquired by the electronic device 100 according to various embodiments.
  • FIG. 10 is a diagram illustrating a cross section 1000 of a 3D image generated by the electronic device 100 according to various embodiments.
  • the electronic device 100 may capture a radiation image 900 as shown in FIG. 9 .
  • the electronic device 100 can use the 3D image of the sample 210 to check the cross section of the sample 210, as shown in FIG. 10 .
  • the electronic device 100 may use a 3D image of the sample 210 to determine whether a foreign substance has entered the sample 210.
  • the method according to the present invention is written as a program that can be executed on a computer and can be implemented in various recording media such as magnetic storage media, optical read media, and digital storage media.
  • Implementations of the various techniques described herein may be implemented in digital electronic circuitry, or in computer hardware, firmware, software, or combinations thereof. Implementations may include a computer program product, i.e., an information carrier, e.g., a machine, for processing by or controlling the operation of a data processing device, e.g., a programmable processor 110, a computer, or a plurality of computers. It may be implemented as a computer program tangibly embodied in a readable storage device (computer-readable medium) or a radio signal.
  • Computer programs such as the computer program(s) described above, may be written in any form of programming language, including compiled or interpreted languages, and may be written as a stand-alone program or as a module, component, subroutine, or part of a computing environment. It can be deployed in any form, including as other units suitable for use.
  • the computer program may be deployed for processing on one computer or multiple computers at one site or distributed across multiple sites and interconnected by a communications network.
  • Processors 110 suitable for processing computer programs include, by way of example, both general-purpose and special-purpose microprocessors 110, and any one or more processors 110 of any type of digital computer.
  • processor 110 will receive instructions and data from read-only memory 120 or random access memory 120, or both.
  • Elements of the computer may include at least one processor 110 that executes instructions and one or more memory 120 devices that store instructions and data.
  • a computer may include one or more mass storage devices that store data, such as magnetic, magneto-optical disks, or optical disks, receive data from, transmit data to, or both. It can also be combined to make .
  • Information carriers suitable for embodying computer program instructions and data include, for example, semiconductor memory 120 devices, such as magnetic media such as hard disks, floppy disks, and magnetic tapes, and compact disk drives (CD-ROMs).
  • semiconductor memory 120 devices such as magnetic media such as hard disks, floppy disks, and magnetic tapes, and compact disk drives (CD-ROMs).
  • Read Only Memory Optical Media such as DVD (Digital Video Disk), Magneto-Optical Media such as Floptical Disk, ROM (Read Only Memory), It includes RAM (Random Access Memory), flash memory (120), EPROM (Erasable Programmable ROM), and EEPROM (Electrically Erasable Programmable ROM).
  • the processor 110 and memory 120 may be supplemented by or included in special-purpose logic circuitry.
  • computer-readable media can be any available media that can be accessed by a computer, and can include both computer storage media and transmission media.

Landscapes

  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Chemical & Material Sciences (AREA)
  • Pathology (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Toxicology (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pulmonology (AREA)
  • Radiology & Medical Imaging (AREA)
  • Theoretical Computer Science (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Image Analysis (AREA)

Abstract

다양한 실시예들에 따른 3차원 영상 생성 방법 및 상기 방법을 수행하는 전자 장치가 개시된다. 본 발명의 일실시예에 따른 전자 장치는, 이송 장치 위에서 이동하는 시료에 대하여 복수의 방사선 이미지를 획득하는 영상 촬영 장치 및 프로세서를 포함하고, 상기 프로세서는, 상기 시료의 3차원 영상을 재구성하기 위한 상기 복수의 방사선 이미지의 특징점을 결정하고, 상기 특징점의 위치를 이용하여, 상기 특징점의 위치 정보를 계산하고, 상기 위치 정보에 기초하여, 특징점 영상을 생성하고, 상기 특징점 영상 및 상기 위치 정보를 이용하여, 상기 3차원 영상을 생성할 수 있다.

Description

3차원 영상 생성 방법 및 상기 방법을 수행하는 전자 장치
아래의 개시는 3차원 영상 생성 방법 및 상기 방법을 수행하는 전자 장치에 관한 것이다. 보다 상세하게는, 3차원 검사가 샘플 또는 시료를 별도의 챔버 등으로 이동시키지 않고, 컨베이어 벨트 또는 인라인 상에서 방사선을 이용하여 검사를 진행하기 위한 3차원 영상 생성 방법 및 전자 장치에 관한 것이다.
산업용 방사선 검사장비 분야에서, 3차원으로 물체의 내부를 검사하기 위해서는 컨베이어 벨트와 같은 이송장치를 통해 이동중인 샘플 또는 시료를 별도의 검사장비가 구비된 공간으로 이동시켜 검사를 하고, 다시 이송장치컨베어 벨트로 이동하는 방법을 사용하였다.
샘플을 이송 장치컨베어 벨트에서 검사장비로 이동하는 방식은 샘플의 이동시간, 검사장비에 들어가기 까지의 대기시간 등으로 인하여 생산하는 제품에 대한 전수검사가 어렵고, 특정 샘플 또는 특정 범위의 수량만 한정하여 검사하는 방법을 주로 이용하고 있다.
산업용 제품의 불량은 확률적으로 발생이 되나 이를 고속으로 정밀 검사할 경우 이러한 확률적으로 발생되는 불량품을 사전에 선별할 수 있어 불량제품으로 인해 발생되는 화재나 사고를 미연에 방지할 수 있다. 특히 자동차용 배터리나 엔진의 경우 사고가 발생될 경우 인명사고로 이어질 수 있으므로 부품에 대한 전수검사가 필요한 상황이나 검사에 소요되는 시간을 고려하여 일부 제품에 대한 선별검사만 진행되고 있다.
제품에 대한 불량 여부를 고속으로 검사하기 위하여 2차원 투시 검사만 진행할 경우, 엑스선의 광경로 차이로 인한 왜곡과 물체가 중첩된 영상으로 인해 불량의 판별이 어렵다.
2차원 투시 검사에서 발생하는 왜곡과 중첩을 해결하기 위해, CT를 촬영하여 제품에 대한 검사를 진행하는 방법이 있는데, 이 방법은 촬영과정에 시간소요가 많이 되어 전수 검사가 어려운 문제가 있다.
산업용 검사장비의 경우 빠른 속도와 정확한 영상을 기반으로 한 양/불판정 기술이 필요하나 빠른 속도를 위해 영상을 1~2장만 촬영하면 정확한 양/불 판정을 정확히 할 정도의 이미지를 얻을 수 없으며, 정확한 영상을 위해 여러장의 영상을 촬영하면 영상의 용량으로 인하여 분석용으로 영상을 재구성하기까지 시간이 오래 걸리게 된다.
다양한 실시예들에 따른 3차원 영상 생성 방법 및 전자 장치는, 검사 대상에 대한 정확한 3차원 영상을 재구성하고, 검사 시간을 단축하기 위하여 Tomosynthesis 또는 Spiral CT를 변형하여 산업용 검사장비에 적용하고자 한다.
다양한 실시예들에 따르면, 영상 촬영 및 검사의 속도를 높이기 위해, 검사 대상인 시료가 이송장치컨베이어 벨트상에서 이동 중인 상태에서, 적은 영상 데이터 용량으로도 시료에 대한 3차원 영상을 재구성할 수 있는 3차원 영상 생성 방법 및 전자 장치를 제공할 수 있다.
다양한 실시예들에 따르면, 산업 환경에 적합한 3차원 투시 영상 기술을 적용하여, 시료에 대한 검사 시간을 단축하고, 3차원 영상 재구성에 필요한 데이터의 크기를 줄일 수 있는 3차원 영상 생성 방법 및 전자 장치를 제공할 수 있다.
다양한 실시예들에 따른 전자 장치는 이송 장치 위에서, 설정된 방향으로 이동하는 시료에 대하여 복수의 방사선 이미지를 획득하는 영상 촬영 장치 및 프로세서를 포함하고, 상기 프로세서는, 상기 시료의 3차원 영상을 재구성하기 위한 상기 복수의 방사선 이미지의 특징점을 결정하고, 상기 특징점의 위치를 이용하여, 상기 특징점의 위치 정보를 계산하고, 상기 위치 정보에 기초하여, 특징점 영상을 생성하고, 상기 특징점 영상 및 상기 위치 정보를 이용하여, 상기 3차원 영상을 생성할 수 있다.
상기 영상 촬영 장치는, 방사선 조사 장치 및 2차원으로 픽셀이 배열된 디텍터를 포함하고, 상기 방사선 조사 장치 및 상기 디텍터에 따라 결정된 콘빔 영역을 상기 시료가 통과할 때, 상기 복수의 방사선 이미지를 획득할 수 있다.
상기 방사선 조사 장치는, 펄스(pulse) 형태의 방사선을 상기 시료에 대하여 방출할 수 있다.
상기 디텍터는, 상기 디텍터의 판넬에서 감지된 신호를 전송하기 위한 게이트 라인 및 출력 라인을 포함하고, 상기 프로세서는, 상기 시료가 상기 이송 장치 위에서 이동하는 영역에 대응하는 유효 영역의 게이트 라인을 구동하여, 상기 복수의 방사선 이미지를 획득하는 프레임을 제어하고, 상기 게이트 라인은, 상기 시료가 이동하는 상기 설정된 방향에 평행한 방향으로 배치될 수 있다.
상기 프로세서는, 상기 3차원 영상을 설정된 기준과 비교하여, 상기 시료의 불량 여부를 판단할 수 있다.
상기 영상 촬영 장치는, 복수의 시료에 대한 복수의 방사선 이미지를 획득하고, 상기 프로세서는, 상기 복수의 시료에 대한 상기 복수의 방사선 이미지를 이용하여, 상기 특징점을 결정할 수 있다.
상기 프로세서는, 상기 복수의 방사선 이미지를 전처리하고, 전처리된 상기 복수의 방사선 이미지를 이용하여 상기 특징점을 결정할 수 있다.
상기 프로세서는, 상기 복수의 방사선 이미지의 픽셀 값을 설정된 임계값과 비교하여, 상기 시료 내부에 이물이 유입되었는지 여부를 판단할 수 있다.
다양한 실시예들에 따른 전자 장치는 이송 장치 위에서, 설정된 방향으로 이동하는 시료에 대하여 복수의 방사선 이미지를 획득하는 영상 촬영 장치 및 프로세서를 포함하고, 상기 프로세서는, 상기 시료의 형상 및 상기 복수의 방사선 이미지의 특징 중 적어도 하나에 기초하여, 상기 복수의 방사선 이미지의 특징점을 결정하고, 상기 특징점의 위치 및 상기 이송 장치의 속도를 이용하여, 상기 특징점에 대응하는 상기 시료의 위치 정보를 계산하고, 상기 위치 정보에 기초하여, 상기 복수의 방사선 이미지를 매칭시켜 상기 시료의 3차원 영상을 생성할 수 있다.
상기 영상 촬영 장치는, 방사선 조사 장치 및 2차원으로 픽셀이 배열된 디텍터를 포함하고, 상기 방사선 조사 장치 및 상기 디텍터에 따라 결정된 콘빔 영역을 상기 시료가 통과할 때, 상기 복수의 이미지를 획득할 수 있다.
상기 프로세서는, 상기 3차원 영상을 설정된 기준과 비교하여, 상기 시료의 불량 여부를 판단할 수 있다.
다양한 실시예들에 따른 3차원 영상 생성 방법은, 영상 촬영 장치를 이용하여, 이송 장치 위에서, 설정된 방향으로 이동하는 시료에 대하여 복수의 방사선 이미지를 획득하는 동작, 상기 시료의 3차원 영상을 재구성하기 위한 상기 복수의 방사선 이미지의 특징점을 결정하는 동작, 상기 특징점의 위치를 이용하여, 상기 특징점의 위치 정보를 계산하는 동작, 상기 위치 정보에 기초하여, 특징점 영상을 생성하는 동작 및 상기 특징점 영상 및 상기 위치 정보를 이용하여, 상기 3차원 영상을 생성하는 동작을 포함할 수 있다.
상기 영상 촬영 장치는, 방사선 조사 장치 및 2차원으로 픽셀이 배열된 디텍터를 포함하고, 상기 복수의 방사선 이미지를 획득하는 동작은, 상기 방사선 조사 장치 및 상기 디텍터에 따라 결정된 콘빔 영역을 상기 시료가 통과할 때, 상기 복수의 방사선 이미지를 획득할 수 있다.
상기 복수의 방사선 이미지를 획득하는 동작은, 상기 방사선 조사 장치를 이용하여, 펄스(pulse) 형태의 방사선을 상기 시료에 대하여 방출하는 동작을 포함할 수 있다.
상기 디텍터는, 상기 디텍터의 판넬에서 감지된 신호를 전송하기 위한 게이트 라인 및 출력 라인을 포함하고, 상기 복수의 방사선 이미지를 획득하는 동작은, 상기 시료가 상기 이송 장치 위에서 이동하는 영역에 대응하는 유효 영역의 게이트 라인을 구동하여, 상기 복수의 방사선 이미지를 획득하는 프레임을 제어하는 동작을 포함하고, 상기 게이트 라인은, 상기 시료가 이동하는 상기 설정된 방향에 평행한 방향으로 배치될 수 있다.
상기 3차원 영상 생성 방법은 상기 3차원 영상을 설정된 기준과 비교하여, 상기 시료의 불량 여부를 판단하는 동작을 더 포함할 수 있다.
상기 복수의 방사선 이미지를 획득하는 동작은, 복수의 시료에 대한 복수의 방사선 이미지를 획득하고, 상기 특징점을 결정하는 동작은, 상기 복수의 시료에 대한 상기 복수의 방사선 이미지를 이용하여, 상기 특징점을 결정할 수 있다.
상기 3차원 영상 생성 방법은 상기 복수의 방사선 이미지를 전처리하는 동작을 더 포함하고, 상기 특징점을 결정하는 동작은, 전처리된 상기 복수의 방사선 이미지를 이용하여 상기 특징점을 결정할 수 있다.
상기 3차원 영상 생성 방법은 상기 복수의 방사선 이미지의 픽셀 값을 설정된 임계값과 비교하여, 상기 시료 내부에 이물이 유입되었는지 여부를 판단하는 동작을 더 포함할 수 있다.
다양한 실시예들에 따른 3차원 영상 생성 방법 및 전자 장치는 3차원 검사가 필요한 시료를 별도의 챔버 내지 공간으로 이동시키지 않고, 컨베이어 벨트 또는 인라인 상에서 시료에 대한 3차원 영상을 생성하여, 시료에 대한 검사를 수행할 수 있다.
다양한 실시예들에 따른 3차원 영상 생성 방법 및 전자 장치는 시료에 대한 검사 시간을 단축 및/또는 개선할 수 있고, 시료의 공정 단계를 간소화할 수 있으며, 시료에 대한 3차원 영상을 위한 데이터의 크기를 감소시킬 수 있다.
다양한 실시예들에 따른 3차원 영상 생성 방법 및 전자 장치는 검사 대상에 대한 정확한 3차원 영상을 생성하여 검사의 정확도를 높이고, 검사 속도를 단축시킬 수 있다.
도 1은 다양한 실시예들에 따른 전자 장치의 개략적인 블록도이다.
도 2는 다양한 실시예들에 따른 전자 장치가 시료에 대한 방사선 이미지를 획득하는 동작을 나타낸 도면이다.
도 3은 다양한 실시예들에 따른 3차원 영상 생성 방법의 동작 흐름도이다.
도 4는 다양한 실시예들에 따른 전자 장치가 복수의 방사선 이미지를 이용하여 특징점을 결정하는 동작을 나타낸 도면이다.
도 5는 시료의 이동에 따라, 디텍터에서 검출되는 영상 신호를 나타낸 도면이다.
도 6은 다양한 실시예들에 따른 방사선 조사 장치에서 조사되는 방사선의 출력을 나타낸 도면이다.
도 7은 다양한 실시예들에 따른 디텍터의 동작 프레임을 나타낸 도면이다.
도 8은 다양한 실시예들에 따른 디텍터의 게이트 라인 및 출력 라인을 나타낸 도면이다.
도 9는 다양한 실시예들에 따른 전자 장치가 획득한 2차원 이미지를 나타낸 도면이다.
도 10은 다양한 실시예들에 따른 전자 장치가 생성한 3차원 영상의 단면을 나타낸 도면이다.
이하에서, 첨부된 도면을 참조하여 실시예들을 상세하게 설명한다. 그러나, 실시예들에는 다양한 변경이 가해질 수 있어서 특허출원의 권리 범위가 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 실시예들에 대한 모든 변경, 균등물 내지 대체물이 권리 범위에 포함되는 것으로 이해되어야 한다.
실시예에서 사용한 용어는 단지 설명을 목적으로 사용된 것으로, 한정하려는 의도로 해석되어서는 안된다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서 상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일한 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 실시예의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다.
도 1은 다양한 실시예들에 따른 전자 장치(100)의 개략적인 블록도이다.
도 1을 참조하면, 다양한 실시예들에 따른 전자 장치(100)는 프로세서(110), 메모리(120) 및 영상 촬영 장치(130)를 포함할 수 있다.
프로세서(110)는, 예를 들면, 소프트웨어(예: 프로그램)를 실행하여 프로세서(110)에 연결된 전자 장치(100)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(110)는 다른 구성요소(예: 센서, 영상 촬영 장치(130) 등)로부터 수신된 명령 또는 데이터를 휘발성 메모리에 저장하고, 휘발성 메모리에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리에 저장할 수 있다.
일실시예에 따르면, 프로세서(110)는 메인 프로세서(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(100)가 메인 프로세서 및 보조 프로세서를 포함하는 경우, 보조 프로세서는 메인 프로세서보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서는 메인 프로세서와 별개로, 또는 그 일부로서 구현될 수 있다.
보조 프로세서는, 예를 들면, 메인 프로세서)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서를 대신하여, 또는 메인 프로세서가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서와 함께, 전자 장치(100)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈, 센서 모듈, 또는 통신 모듈)와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈 또는 통신 모듈)의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(100) 자체에서 수행될 수 있고, 별도의 서버를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.
메모리(120)는, 전자 장치(100)의 적어도 하나의 구성요소(예: 프로세서(110) 또는 센서 모듈)에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(120)는, 휘발성 메모리 또는 비휘발성 메모리를 포함할 수 있다.
영상 촬영 장치(130)는 방사선 조사 장치(140)(예: X-ray tube), 디텍터(150) 및 회전 장치(160)를 포함할 수 있다. 디텍터(150)는 게이트 라인(151), 출력 라인(153) 및 패널을 포함할 수 있다.
영상 촬영 장치(130)는 이송 장치 위에서 이동하는 시료(또는 샘플)에 대한 복수의 방사선 이미지를 획득할 수 있다. 예를 들어, 영상 촬영 장치(130)는 방사선 조사 장치(140)에서 방출된 방사선을 디텍터(150)에서 검출하여, 시료에 대한 복수의 방사선 이미지를 획득할 수 있다. 시료를 통과하여 검출되는 방사선과 시료를 통과하지 않는 방사선의 세기는 차이가 발생할 수 있다. 전자 장치(100)는 디텍터(150)에서 검출된 신호(예: 검출된 방사선 신호, 영상 신호)에 따라, 시료에 대한 방사선 이미지를 획득할 수 있다.
예를 들어, 직선으로 시료를 이동시키는 이송 장치의 상측에 방사선 조사 장치(140)가 위치하고, 이송 장치의 하측에 디텍터(150)가 위치할 수 있다. 시료가 이송 장치 위에서 직선으로 이동할 때, 영상 촬영 장치(130)는 방사선 조사 장치(140)에서 방사선을 조사하고, 디텍터(150)로 방사선을 검출하여, 시료에 대한 복수의 방사선 이미지를 획득할 수 있다. 이송 장치는 방사선 투과도가 높은 컨베이어 벨트를 포함할 수 있다.
시료는 방사선 조사 장치(140)와 디텍터(150) 사이에 배치된 이송 장치를 통해, 튜브 초점과 엑스선 디텍터(150)의 법선에 수직한 직선 방향으로 이동할 수 있다.
예를 들어, 디텍터(150)는 2차원으로 픽셀이 배열된 패널을 포함할 수 있다. 영상 촬영 장치(130)는 패널에서 검출된 방사선 신호의 크기에 따라, 시료에 대한 2차원 방사선 이미지를 획득할 수 있다.
영상 촬영 장치(130)가 획득하는 복수의 방사선 이미지는 이동하는 시료에 대하여 획득하는 것으로, 각 방사선 이미지를 획득할 때의 시료의 위치는 상이할 수 있다. 따라서, 복수의 방사선 이미지 각각이 촬영될 때, 방사선이 시료에 대하여 조사되는 각도, 위치, 거리 등이 상이할 수 있다.
전자 장치(100)는 시료의 3차원 영상을 재구성하기 위하여, 복수의 방사선 이미지의 특징점을 결정할 수 있다. 예를 들어, 특징점은 복수의 방사선 이미지를 결합하기 위한 기준점을 나타낼 수 있다.
전자 장치(100)는 시료의 형상에 따라 설정된 패턴을 이용하여, 특징점을 결정할 수 있다. 다른 예로, 전자 장치(100)는 방사선 이미지의 특징에 따라, 특징점을 결정할 수 있다.
전자 장치(100)는 특징점의 위치에 기초하여, 특징점의 위치 정보를 계산할 수 있다. 특징점의 위치 정보는 특징점의 각도, 좌표 등을 포함할 수 있다.
전자 장치(100)는 위치 정보에 기초하여, 특징점 영상을 생성할 수 있다. 전자 장치(100)는 복수의 방사선 이미지의 특징점을 매칭 또는 일치시켜서 2차원의 특징점 영상을 생성할 수 있다. 전자 장치(100)는 복수의 방사선 이미지의 특징점의 위치 정보를 매칭시켜, 특징점 영상을 생성할 수 있다.
시료가 이송 장치에서 이동하기 때문에, 각 방사선 이미지에서 특징점의 위치 정보는 서로 상이할 수 있다. 전자 장치(100)는 특징점의 위치 정보에 따라, 각 방사선 이미지의 특징점이 일치하도록 방사선 이미지의 위치를 조정하고, 위치가 조정된 방사선 이미지를 결합하여 특징점 영상을 생성할 수 있다.
예를 들어, 전자 장치(100)는 특징점 영상을 (이송 장치 위의) 시료의 위치에 대응시킬 수 있다. 전자 장치(100)는 시료가 콘빔 영역을 통과하는 동안 촬영한 복수의 방사선 이미지를 이용하여, 시료에 대한 복수의 특징점 영상을 생성할 수 있다.
전자 장치(100)는 복수의 방사선 이미지를 전처리하고, 전처리된 복수의 방사선 이미지를 이용하여, 특징점 영상을 생성할 수 있다. 전자 장치(100)는 시료가 촬영된 영역을 포함하도록, 방사선 이미지의 크기를 축소시킬 수 있다. 전자 장치(100)는 방사선 이미지에서 시료가 촬영된 영역과 촬영되지 않은 영역을 식별할 수 있다.
전자 장치(100)는 특징점에 기초하여, 복수의 방사선 이미지를 전처리할 수 있다. 예를 들어, 특징점을 기준으로 설정된 영역을 포함하도록 방사선 이미지의 크기를 축소시킬 수 있다.
전자 장치(100)는 특징점 영상 및 위치 정보를 이용하여, 시료의 3차원 영상을 생성할 수 있다. 전자 장치(100)는 각 특징점 영상에서 특징점의 위치 정보를 매칭 시켜, 시료의 3차원 영상을 생성할 수 있다.
시료에 대한 3차원 영상을 재구성하기 위해서는 방사선 조사 장치(140), 디텍터(150), 시료 각각의 좌표 정보 및 좌표 정보에 따른 방사선 이미지가 필요할 수 있다. 방사선 조사 장치(140) 및 디텍터(150)의 좌표는 설정된 좌표가 이용될 수 있다. 전자 장치(100)는 도 2에서 설명하는 바와 같이, 방사선 이미지의 특징점의 위치 정보를 이용하여, 시료의 특징점의 위치 정보(예: 시료의 좌표)를 계산할 수 있다.
예를 들어, 전자 장치(100)는 단층영상합성법(Tomosynthesis)을 이용하여, 복수의 특징점 영상으로부터 3차원 영상을 생성할 수 있다. 단층영상합성법은 일정 각도(예: 약 15°~ 약 50°) 범위에서 촬영한 다수의 2차원 영상 또는 이미지를 재조합하여, 다수의 슬라이스(slice) 영상을 합성하는 기술으로, 관찰하고자 하는 부위를 전체적으로 촬영하여 합성하는 영상 생성 기법을 나타낸다.
이동하는 시료에 대하여 복수의 방사선 이미지를 획득하기 때문에, 전자 장치(100)는 시료와 방사선 조사 장치(140) 사이의 각도가 서로 다른 방사선 이미지를 획득할 수 있다. 또한, 특징점 영상은 복수의 방사선 이미지를 이용하여 생성하기 때문에, 각 특징점 영상에서 시료와 방사선 조사 장치(140) 사이의 각도는 상이할 수 있다. 전자 장치(100)는 시료에 대한 서로 다른 각도의 특징점 영상을 합성하여, 시료의 3차원 영상을 생성할 수 있다.
전자 장치(100)는 상기의 방법 이외에, 대상에 대하여 서로 다른 각도로 촬영한 이미지를 이용하여, 대상에 대한 3차원 영상을 생성하는 다양한 기술들을 이용하여, 시료의 3차원 영상을 생성할 수 있다.
일례로, 영상 촬영 장치(130)는 회전 장치(160)를 포함할 수 있다. 회전 장치(160)는 방사선 조사 장치(140)와 디텍터(150)가 이송 장치를 기준으로 회전하도록 할 수 있다. 이송 장치에서 시료가 이동할 때, 방사선 조사 장치(140)와 디텍터(150)가 회전함으로써, 영상 촬영 장치(130)는 다양한 각도에서 시료에 대한 복수의 방사선 이미지를 획득할 수 있다.
전자 장치(100)는 회전하는 방사선 조사 장치(140) 및 디텍터(150)를 이용하여 획득한 복수의 방사선 이미지를 이용하여, 시료의 3차원 영상을 생성할 수 있다. 전자 장치(100)는 회전 장치(160)를 포함하는 영상 촬영 장치(130)를 이용하여 획득한 복수의 방사선 이미지를 이용하여, 특징점 영상을 생성할 수 있다. 전자 장치(100)는 특징점 영상 및 위치 정보를 이용하여, 시료의 3차원 영상을 생성할 수 있다.
전자 장치(100)는 나선 CT 스캔(spiral CT scan) 방법과 같이, 검사 대상을 기준으로 회전하는 영상 촬영 장치(130)를 이용하여 획득한 복수의 이미지를 합성하여, 검사 대상에 대한 3차원 영상을 획득하는 다양한 방법을 이용할 수 있다. 나선 CT 스캔은 대상의 일정 구간을 회전하는 방사선 조사 장치(140)(예: 엑스선 튜브)와 디텍터(150) 사이를 통과하며 영상을 촬영한 후, 재구성하고자 지정된 구간을 3차원 영상으로 재구성하는 영상 생성 방법을 나타낸다.
전자 장치(100)는 3차원 영상을 설정된 기준과 비교하여, 시료의 불량 여부를 판단할 수 있다. 예를 들어, 전자 장치(100)는 3차원 영상의 형상, 크기, 모양 등과 같이 다양한 3차원 형상의 특징들을 설정된 기준과 비교하여, 시료의 불량 여부를 판단할 수 있다.
상기의 예시에 한정되지 않고, 전자 장치(100)는 시료의 불량 여부를 판단하기 위하여 3차원 영상으로부터 시료에 관한 다양한 정보를 추출 내지 계산할 수 있고, 불량 여부를 판단하기 위한 기준은 다양하게 설정될 수 있다.
전자 장치(100)는 방사선(예: X-ray)가 투과된 시료에 대한 다양한 각도의 영상을 3차원의 가상 공간 상에 만든 복셀(voxel)에 투영한 값을 누적하여, 시료의 3차원 영상을 재구성 또는 생성할 수 있다.
시료의 3차원 영상의 생성에 필요한 연산을 수행하기 위하여, 전자 장치(100)는 2차원 투과 영상(예: 복수의 방사선 이미지, 특징점 영상 등)을 메모리(120) 또는 이미지 처리를 위한 프로세서(110)(예: GPU)의 메모리(120)로 전송하고, 3차원 가상 공간을 구성하는 연산을 수행할 수 있다. 전자 장치(100)는 3차원 가상 공간의 복셀에 각 각도별 영상을 투영하고, 시료의 3차원 영상을 저장할 수 있다.
시료의 3차원 영상을 생성하기 위한 연산 단계에 소요되는 시간을 단축하기 위하여, 전자 장치(100)는 상기에서 설명한 바와 같이 복수의 방사선 이미지를 전처리하고, 전처리된 복수의 방사선 이미지를 이용하여 특징점 영상을 생성할 수 있다.
또한, 이하에서 설명하는 바와 같이, 전자 장치(100)는 복수의 시료에 대한 복수의 방사선 이미지를 획득하고, 복수의 시료의 3차원 영상을 생성하는 연산을 병렬적으로 수행함으로써, 연산 단계에 소요되는 시간을 단축시킬 수 있다.
영상 촬영 장치(130)는 복수의 시료에 대한 복수의 방사선 이미지를 획득할 수 있다. 전자 장치(100)는 복수의 시료에 대한 복수의 방사선 이미지를 이용하여, 복수의 방사선 이미지의 특징점을 결정할 수 있다. 복수의 방사선 이미지의 특징점은 복수의 시료 각각에 대하여 결정될 수 있다.
전자 장치(100)는 복수의 시료에 대한 복수의 방사선 이미지의 특징점을 이용하여, 복수의 시료 각각에 대한 3차원 영상을 생성할 수 있다. 복수의 시료 각각에 대한 3차원 영상을 생성하는 전자 장치(100)의 동작들은, 단일 시료에 대한 3차원 영상을 생성하는 전자 장치(100)의 동작이 실질적으로 동일하게 적용될 수 있다.
전자 장치(100)는 복수의 시료에 대한 복수의 방사선 이미지를 획득하고, 복수의 시료 각각에 대한 3차원 영상을 생성함으로써, 전체 시료에 대한 3차원 영상을 생성하는 시간을 단축 또는 개선할 수 있다. 또한, 복수의 시료 각각에 대한 3차원 영상을 생성함으로써, 전자 장치(100)는 전체 시료의 불량 여부를 판단하기 위한 검사 시간을 단축할 수 있다.
또한, 전자 장치(100)는 디텍터(150)의 일부 영역에 대응하여 2차원 방사선 이미지의 획득하거나, 처리하는 방사선 이미지의 개수를 줄이기 위해, 복수의 방사선 이미지 중 일부 방사선 이미지를 이용하여, 연산에 소요되는 시간을 단축시킬 수 있다.
전자 장치(100)는 복수의 방사선 이미지를 이용하여, 시료 내부에 이물이 유입되었는지 여부를 판단할 수 있다. 예를 들어, 전자 장치(100)는 방사선 이미지의 픽셀 값, 또는 설정된 영역의 픽셀 값을 이용하여, 시료 내부에 이물이 유입되었는지 여부를 판단할 수 있다.
전자 장치(100)는 방사선 이미지의 픽셀 값이 설정된 픽셀 값과 비교하여, 시료 내부에 이물이 유입되었는지 여부를 판단할 수 있다. 예를 들어, 방사선 이미지의 픽셀 값과 설정된 픽셀 값의 차이가 설정된 범위를 초과하는 경우, 전자 장치(100)는 시료 내부에 이물이 유입된 것으로 판단할 수 있다.
전자 장치(100)는 방사선 이미지의 픽셀 값, 또는 일부 영역의 픽셀 값에 대한 표준편차를 이용하여, 이물 유입 여부를 판단할 수 있다. 방사선 이미지의 일부 영역 또는 설정된 영역은, 설정된 기준에 따라 결정될 수 있다.
예를 들어, 전자 장치(100)는 방사선 이미지에서 시료가 촬영된 영역을 식별할 수 있다. 전자 장치(100)는 시료가 촬영된 영역의 전체 또는 일부 픽셀 값의 표준편차를 계산할 수 있다. 전자 장치(100)는 설정(계산된 표준편차가 설정된 표준편자 미만인 경우, 계산된 표준편차가 설정된 표준편차를 초과하는 경우, 계산된 표준편차가 설정된 표준편차 범위를 초과하는 경우 등)에 따라, 시료에 이물이 유입되었는지 여부를 판단할 수 있다.
시료 내에 이물이 유입된 경우, 이물로 인하여 방사선 투과량이 달라지기 때문에, 전자 장치(100)는 방사선 이미지의 픽셀 값, 또는 일부 영역의 픽셀 값을 이용하여, 시료 내부에 이물 유입 여부를 판단할 수 있다.
도 2는 다양한 실시예들에 따른 전자 장치(100)가 시료(210)에 대한 방사선 이미지를 획득하는 동작을 나타낸 도면이다.
도 2와 같이, 이송 장치 위에서 이동하는 시료(210)의 상측에 방사선 조사 장치(140)가 위치하고, 하측에 디텍터(150)가 위치할 수 있다.
시료(210)은 이송 장치 위에서, 설정된 방향으로 이동할 수 있다. 예를 들어, 도 2에서 시료(210)는 이송 장치에 의하여 좌측(예: 도 2의 9시 방향)에서 우측(예: 도 2의 3시 방향)으로 이동할 수 있다.
영상 촬영 장치(130)는 이송 장치 위에서 설정된 방향으로 이동하는 시료(210)에 대한 복수의 방사선 이미지를 획득할 수 있다. 영상 촬영 장치(130)가 이송 장치에 의하여 설정된 방향으로 이동하는 시료(210)에 대한 복수의 방사선 이미지를 획득함으로써, 전자 장치(100)는 시료(210)를 별도의 공간으로 이동시키거나, 시료(210)를 정지시키지 않고, 시료(210)에 대한 불량 여부를 판단할 수 있다. 전자 장치(100)는 시료(210)가 기존 공정에 따라 이동할 때 복수의 방사선 이미지를 획득함으로써, 시료(210)에 대한 검사 시간을 단축시킬 수 있다.
방사선 조사 장치(140) 및 디텍터(150)의 위치에 따라, 시료(210)에 대한 방사선 이미지가 촬영되는 콘빔(cone beam) 영역이 결정될 수 있다. 영상 촬영 장치(130)는 시료(210)가 콘빔 영역(170)을 통과할 때, 시료(210)에 대한 방사선 이미지를 획득할 수 있다. 이송 장치는 시료(210)가 콘빔 영역(170)을 통과하도록 배치될 수 있다. 예를 들어, 도 2에서, 이송 장치는 왼쪽 방향(예: 도 2의 9시 방향)에서 오른쪽 방향(예: 도 2의 3시 방향)으로 이동하면서, 시료(210)가 콘빔 영역(170)을 통과하도록 배치될 수 있다.
도 2는 시료(210)의 일부가 콘빔 영역(170)에 위치할 때, 영상 촬영 장치(130)가 방사선 이미지를 획득하는 동작을 나타낸 도면이다. 영상 촬영 장치(130)가 방사선 이미지를 획득하는 동작은 시료(210)의 전부가 콘빔 영역(170)에 위치할 때에도 실질적으로 동일하게 적용될 수 있다.
도 2에 도시된 방사선 조사 장치(140), 디텍터(150)의 배치는 예시적인 것으로, 도 2에 도시된 실시예에 한정되지 않는다.
전자 장치(100)는 도 2와 같이, 방사선 이미지의 특징점(213)을 결정할 수 있다. 예를 들어, 전자 장치(100)는 시료(210)의 형상에 기초하여, 방사선 이미지의 특징점(213)을 결정할 수 있다. 도 2와 같이, 시료(210)의 형상이 사각 판인 경우, 전자 장치(100)는 사각형의 방사선 이미지의 꼭지점을 특징점(213)으로 결정할 수 있다.
예를 들어, 전자 장치(100)는 방사선 이미지의 특징에 기초하여, 방사선 이미지의 특징점(213)을 결정할 수 있다. 도 2와 같이, 방사선 이미지가 사각형인 경우, 전자 장치(100)는 사각형의 꼭지점을 특징점(213)으로 결정할 수 있다.
전자 장치(100)는 방사선 이미지의 패턴을 인식할 수 있다. 전자 장치(100)는 시료(210)의 형태 또는 마커를 이용하여, 설정된 패턴이 인식된 방사선 이미지를 시료(210)에 대한 방사선 이미지의 시작점으로 결정할 수 있다. 전자 장치는 인식된 방사선 이미지의 패턴에 따라, 방사선 이미지의 특징점(213)을 결정할 수 있다.
전자 장치(100)는 설정된 패턴이 인식되지 않는 방사선 이미지 또는 설정된 패턴이 인식되지 않는 방사선 이미지의 직전 프레임에 촬영된 방사선 이미지를 시료(210)에 대한 방사선 이미지의 끝점으로 결정할 수 있다.
전자 장치(100)는 방사선 이미지의 픽셀 값을 이용하여, 시료(210)에 대한 방사선 이미지의 시작점 및/또는 끝점을 결정할 수 있다. 예를 들어, 전자 장치(100)는 방사선 이미지에서 설정된 영역의 픽셀 값이 설정된 값(예: 초기값)에서 변화하는 경우, 시료(210)가 콘빔 영역(170)에 도달한 것으로 판단할 수 있다. 시료(210)가 콘빔 영역(170)에 도달한 경우, 전자 장치(100)는 해당 방사선 이미지를 시작점으로 결정할 수 있다.
전자 장치(100)는 방사선 이미지의 픽셀 값을 이용하여, 방사선 이미지의 끝점을 결정할 수 있다. 예를 들어, 전자 장치(100)는 방사선 이미지에서 설정된 영역의 픽셀 값이 설정된 값(예: 초기값)에서 변화하고, 다시 초기값이 되는 경우, 시료(210)가 콘빔 영역(170)을 벗어난 것으로 판단할 수 있다. 시료(210)가 콘빔 영역(170)을 벗어난 경우, 전자 장치(100)는 해당 프레임 또는 해당 프레임의 직전 프레임에 촬영한 방사선 이미지를 끝점으로 결정할 수 있다.
복수의 시료(210)에 대하여 복수의 방사선 이미지를 촬영하는 경우, 전자 장치(100)는 복수의 시료(210) 각각에 대하여 방사선 이미지의 시작점 및/또는 끝점을 결정할 수 있다.
전자 장치(100)는 방사선 이미지의 특징점(213)의 위치를 이용하여, 방사선 이미지의 특징점(213)의 위치 정보 및/또는 시료의 특징점(211)의 위치 정보를 계산할 수 있다. 방사선 이미지의 특징점(213)의 위치 정보는, 방사선 이미지의 특징점(213) 좌표, 각도, 확대율 등을 포함할 수 있다. 시료의 특징점(211)의 위치 정보는, 시료(210)의 특징점(211) 좌표, 각도, 확대율 등을 포함할 수 있다.
예를 들어, 도 2와 같이, 방사선 이미지의 특징점(213)의 위치가 (
Figure PCTKR2023009501-appb-img-000001
,
Figure PCTKR2023009501-appb-img-000002
)인 경우, 전자 장치(100)는 아래 수학식 1 내지 수학식 4와 같이 방사선 이미지의 특징점(213)의 위치 정보 및/또는 시료(210)의 특징점의 위치 정보를 결정할 수 있다. 디텍터(150) 평면의 초점은 방사선 조사 장치(140)의 위치에서 디텍터(150) 평면으로 수직으로 연장한 선이 만나는 점을 의미할 수 있다. 방사선 이미지의 특징점의 위치는 디텍터(150) 평면의 초점을 원점으로 하여 결정될 수 있다.
[수학식 1]
Figure PCTKR2023009501-appb-img-000003
상기 수학식 1에서,
Figure PCTKR2023009501-appb-img-000004
는 특징점의 각도를 나타낼 수 있다. 특징점의 각도
Figure PCTKR2023009501-appb-img-000005
는 방사선 이미지의 특징점(213)-방사선 조사 장치(140)-초점 사이의 각도를 나타낼 수 있다. 상기 수학식 1에서
Figure PCTKR2023009501-appb-img-000006
(source image distance)는 방사선 조사 장치(140)로부터 디텍터(150) 평면의 초점까지의 거리를 나타낼 수 있다.
[수학식 2]
Figure PCTKR2023009501-appb-img-000007
상기 수학식 2에서 M은 확대율,
Figure PCTKR2023009501-appb-img-000008
(source object distance)는 방사선 조사 장치(140)로부터 오브젝트 평면의 초점까지의 거리를 나타낼 수 있다. 오브젝트 평면의 초점은 디텍터(150) 평면의 초점과 실질적으로 동일하게 결정될 수 있다. 오브젝트 평면의 초점은 방사선 조사 장치(140)의 위치에서 오브젝트 평면으로 수직으로 연장한 선이 만나는 점을 의미할 수 있다. 도 2에서 시료(210)의 특징점(211)의 위치 (
Figure PCTKR2023009501-appb-img-000009
,
Figure PCTKR2023009501-appb-img-000010
)는 오브젝트 평면의 초점을 원점으로 하여 결정될 수 있다.
[수학식 3]
Figure PCTKR2023009501-appb-img-000011
[수학식 4]
Figure PCTKR2023009501-appb-img-000012
전자 장치(100)는 상기 수학식 3 및 4와 같이, 시료(210)의 특징점(211)의 위치 (
Figure PCTKR2023009501-appb-img-000013
,
Figure PCTKR2023009501-appb-img-000014
)를 결정할 수 있다. 시료(210)의 특징점(211)의 각도는 방사선 이미지의 특징점(213)의 각도와 동일할 수 있다.
상기 수학식 1 내지 4에 대하여, 전자 장치(100)가 방사선 이미지의 특징점(213)의 위치 (
Figure PCTKR2023009501-appb-img-000015
,
Figure PCTKR2023009501-appb-img-000016
)을 이용하여 방사선 이미지의 특징점의 위치 정보(예: 각도, 확대율, 시료(210)의 특징점의 위치 등)을 계산하는 예에 대해서 설명하나, 이에 한정되지 않는다. 예를 들어, 전자 장치(100)는 시료(210)의 특징점(213)의 위치 (
Figure PCTKR2023009501-appb-img-000017
,
Figure PCTKR2023009501-appb-img-000018
), 시간, 이동 속도를 이용하여, t초 후의 시료(210)의 특징점의 위치 정보를 계산할 수 있다.
예를 들어, 시간 0s 에서 시료(210)의 특징점(211)의 위치가 (
Figure PCTKR2023009501-appb-img-000019
,
Figure PCTKR2023009501-appb-img-000020
)인 경우, 시간 t에서 시료(210)의 특징점의 위치는 (
Figure PCTKR2023009501-appb-img-000021
,
Figure PCTKR2023009501-appb-img-000022
)(예:
Figure PCTKR2023009501-appb-img-000023
는 이송 장치에 의한 시료(210)의 속도)일 수 있다. 전자 장치(100)는 시료(210)의 속도, 방사선 이미지를 촬영하는 프레임을 이용하여, t초 후의 시료(210)의 특징점의 위치 정보를 계산할 수 있다.
이동 속도를 고려하여 t초 후의 시료(210)의 특징점의 위치 정보를 계산하는 동작의 특징은, 이동 속도를 고려하여 t초 후의 방사선 이미지의 특징점의 위치 정보를 계산하는 동작에 유사하게 적용될 수 있다. t초 후의 방사선 이미지의 특징점의 위치 정보를 계산하기 위하여, 이동 속도 및 확대율을 고려할 수 있다.
일례로, 이송 장치에서 시료(210)가 좌측(예: 도 2의 9시 방향)에서 우측(예: 도 2의 3시 방향)으로 이동하는 경우, 전자 장치(100)는 상이한 시료(210)의 위치에 대응하는 복수의 방사선 이미지를 획득할 수 있다. 각각의 방사선 이미지에서, 각각의 특징점의 위치, 각도 등은 서로 상이할 수 있다.
일례로, 전자 장치(100)는 시료(210)가 콘빔 영역(170)에 진입한 시간을 이용하여, 복수의 방사선 이미지 각각이 촬영될 때 시료(210)의 위치 정보를 결정할 수 있다. 전자 장치(100)는 콘빔 영역(170)에 시료(210)가 진입하였는지 여부를 센싱하기 위한 센서를 포함할 수 있다. 전자 장치(100)는 센서에서 시료(210)가 콘빔 영역(170)에 진입한 시간을 기준으로, 이송 장치가 시료(210)를 이동시키는 속도를 고려하여, 시료(210)의 위치 정보를 계산할 수 있다. 전자 장치(100)는 계산한 시료(210)의 위치 정보를 각각의 방사선 이미지에 대응시킬 수 있다.
도 3은 다양한 실시예들에 따른 3차원 영상 생성 방법의 동작 흐름도이다.
전자 장치(100)는 동작(310)에서, 이송 장치 위에서 이동하는 시료(210)에 대하여 복수의 방사선 이미지를 획득할 수 있다.
방사선 조사 장치(140)는 이동하는 시료(210)에 대하여 방사선을 방출하고, 디텍터(150)는 방사선 신호를 검출하고, 설정된 각 프레임마다 검출된 방사선 신호를 누적하여 영상 신호를 프로세서(110), 메모리(120) 등으로 전송할 수 있다. 전자 장치(100)는 영상 신호를 이용하여, 시료(210)의 이동에 따라, 각각 위치가 상이한 시료(210)에 대한 복수의 방사선 이미지를 획득할 수 있다.
전자 장치(100)는 동작(320)에서, 시료(210)의 3차원 영상을 재구성하기 위한 복수의 방사선 이미지의 특징점을 결정할 수 있다.
예를 들어, 전자 장치(100)는 시료(210)의 형상 또는 마커를 이용하여, 복수의 방사선 이미지 각각의 특징점을 결정할 수 있다. 전자 장치(100)는 방사선 이미지를 분석하여, 방사선 이미지에 촬영된 시료(210)의 특징에 기초하여, 복수의 방사선 이미지 각각의 특징점을 결정할 수 있다. 복수의 방사선 이미지 각각에 대하여 결정된 특징점은 시료(210)의 동일한 부분에 대응할 수 있다.
전자 장치(100)는 동작(330)에서, 특징점의 위치를 이용하여, 특징점의 위치 정보를 계산할 수 있다.
전자 장치(100)는 상기의 수학식 1 내지 4와 같이, 방사선 이미지의 특징점의 위치 정보 및/또는 시료(210)의 특징점의 위치 정보를 계산할 수 있다. 시료(210)의 특징점은 방사선 이미지의 특징점에 대응하는 부분을 나타낼 수 있다.
전자 장치(100)는 동작(340)에서, 위치 정보에 기초하여 특징점 영상을 생성할 수 있다. 예를 들어, 전자 장치(100)는 각 방사선 이미지의 특징점을 위치 정보에 기초하여 매칭시켜 특징점 영상을 생성할 수 있다.
특징점 영상은 시료(210)의 3차원 영상을 생성하기 위한 2차원 영상을 나타낼 수 있다. 전자 장치(100)는 복수의 방사선 이미지의 일부를 합성하여, 특징점 영상을 생성할 수 있다. 전자 장치(100)는 복수의 특징점 영상을 생성할 수 있다.
전자 장치(100)는 동작(350)에서, 특징점 영상 및 위치 정보를 이용하여, 3차원 영상을 생성할 수 있다. 전자 장치(100)는 복수의 특징점 영상을 합성하여, 시료(210)의 3차원 영상을 생성할 수 있다.
전자 장치(100)는 동작(360)에서, 3차원 영상을 설정된 기준과 비교하여, 시료(210)의 불량 여부를 판단할 수 있다. 전자 장치(100)는 복수의 방사선 이미지를 이용하여 생성한 시료(210)의 3차원 영상으로, 시료(210)의 불량 여부를 판단함으로써 시료(210)에 대한 검사 시간을 단축시킬 수 있다.
도 4는 다양한 실시예들에 따른 전자 장치(100)가 복수의 방사선 이미지를 이용하여 특징점을 결정하는 동작을 나타낸 도면이다.
전자 장치(100)는 방사선 이미지의 특징점을 결정하면, 결정된 방사선 이미지의 특징점을 기준으로 이후 프레임의 방사선 이미지의 특징점을 결정할 수 있다. 예를 들어, 전자 장치(100)는 시료(210)의 이동 속도를 고려하여, 방사선 이미지에서 특징점의 이동 속도를 계산할 수 있다. 전자 장치(100)는 방사선 이미지의 특징점의 이동 속도에 기초하여, 방사선 이미지의 특징점을 결정한 이후 프레임에서 촬영된 방사선 이미지의 특징점을 결정할 수 있다.
또한, 전자 장치(100)는 결정된 방사선 이미지의 특징점을 기준으로, 해당 방사선 이미지를 전처리할 수 있다. 예를 들어, 전자 장치(100)는 방사선 이미지의 특징점을 기준으로 설정된 영역을 잘라내어, 전처리된 방사선 이미지를 생성할 수 있다.
전자 장치(100)는 방사선 이미지의 특징점을 결정한 이후 프레임의 방사선 이미지를 전처리할 수 있다. 예를 들어, 전자 장치(100)는 방사선 이미지의 특징점의 이동 속도에 기초하여, 방사선 이미지의 특징점을 결정한 이후 프레임에서 방사선 이미지를 전처리할 수 있다.
전자 장치(100)는 촬영한 방사선 이미지에서 특징점이 인식된 경우, 특징점이 인식된 방사선 이미지, 특징점이 인식된 방사선 이미지가 촬영된 시점으로부터 촬영된 설정된 개수의 방사선 이미지를 이용하여, 특징점 영상을 생성할 수 있다.
도 4에 도시된 방사선 이미지는 촬영된 순서에 따라 왼쪽부터 오른쪽으로 배열된 것을 나타낼 수 있다. 즉, 도 4는 각 프레임마다 촬영된 복수의 방사선 이미지가 순차적으로 배열된 것을 나타낼 수 있다.
예를 들어, 도 4에서 시료 1에 대한 특징점이 방사선 이미지 1(410)에서 인식되고, 설정된 개수가 17개인 경우, 전자 장치(100)는 방사선 이미지 1(410)부터 방사선 이미지 3(430)까지의 방사선 이미지를 이용하여, 시료 1에 대한 특징점 영상을 생성할 수 있다.
예를 들어, 도 4에서 시료 2에 대한 특징점이 방사선 이미지 2(420)에서 인식되고, 설정된 개수가 17개인 경우, 전자 장치(100)는 방사선 이미지 2(420)부터 방사선 이미지 4(440)까지의 방사선 이미지를 이용하여, 시료 2에 대한 특징점 영상을 생성할 수 있다.
도 5는 시료(210)의 이동에 따라, 디텍터(150)에서 검출되는 영상 신호를 나타낸 도면이다.
도 5에서, 시료(210)는 시간의 흐름에 따라 제1 위치(510)에서 제2 위치(520)로 이동할 수 있다. 방사선 조사 장치(140)에서 방출된 방사선이 디텍터(150)에 수직하게 입사한다고 가정하는 경우, 시료(210)의 이동에 따라 전체 영상 신호(530)에서 영상 신호가 선형적으로 감소하는 구간(531), 영상 신호가 일정한 구간(532), 영상 신호가 선형적으로 증가하는 구간(533)이 나타날 수 있다.
디텍터(150)에서 검출하는 영상 신호는, 각 프레임(또는 동작 주기)에서 누적되어 검출된 방사선의 세기 또는 크기를 의미할 수 있다. 시료(210)의 이동과 무관하게 구간(532)에서 검출되는 방사선의 세기 또는 크기는 일정하나, 구간(531)과 구간(533)에서 검출되는 방사선의 세기 또는 크기는 시료(210)의 이동에 따라 변하게 된다.
도 5와 같이, 시료(210)가 이동하는 동안 방사선 이미지를 촬영하는 경우, 시료(210)의 이동으로 인하여 검출되는 방사선 신호가 변하는 구간(예: 구간(531), 구간(533))때문에 방사선 이미지에 잔상이 발생하기 때문에, 방사선 이미지의 선명도가 저하될 수 있다.
전자 장치(100)가 시료(210)의 3차원 영상을 이용하여, 시료(210)의 불량 여부를 판단하기 위해서는 선명한 방사선 이미지가 필요하다. 이동중인 시료(210)에 대하여 방사선 이미지를 촬영하는 경우, 무빙 아티펙트(moving artifact)가 발생된다. 시료(210)의 이동 속도를 고속으로 유지하여야 하는 경우, 선명한 방사선 이미지를 획득하기 위해서는 방사선 이미지를 고속으로 촬영하여, 각 프레임 사이에 시료(210)가 이동하는 거리가 짧아져야 한다.
영상 신호를 누적하는 시간을 줄임으로써, 이동하는 시료(210)에 대하여 촬영한 방사선 이미지의 선명도를 향상 또는 개선할 수 있다. 이하의 도 6 및 도 7에서, 다양한 실시예들에 따라 방사선 이미지의 선명도를 향상시키기 위한 방법을 설명한다.
도 6은 다양한 실시예들에 따른 방사선 조사 장치(140)에서 조사되는 방사선의 출력을 나타낸 도면이다.
도 6을 참조하면, 다양한 실시예들에 따른 방사선 조사 장치(140)는 펄스(pulse) 형태의 방사선을 시료(210)에 대하여 방출할 수 있다. 방사선 조사 장치(140)는 펄스 형태의 방사선을 시료(210)에 대하여 방출함으로써, 영상 신호를 누적하는 시간을 감소시키고, 촬영된 방사선 이미지의 선명도를 향상시킬 수 있다.
도 6과 같이, 방사선 조사 장치(140)가 출력(610)과 같이 방사선(예: X-ray)을 연속하여 방출하는 경우, 시간과 무관하게 일정한 크기의 방사선이 출력된다. 방사선 조사 장치(140)가 출력(620)과 같이 방사선을 방출하는 경우, 짧은 시간 방사선의 출력이 증가 및 감소하는 구간과 설정된 크기의 방사선이 출력되는 구간이 반복될 수 있다. 방사선 조사 장치(140)가 출력(630)과 같이 방사선을 방출하는 경우, 펄스 형태의 방사선이 출력될 수 있다. 출력(620)의 경우, 펄스 형태의 방사선이 출력되는 것으로 볼 수 있으나, 출력(620)은 일부 구간에서 선형적으로 방사선의 출력이 증가 또는 감소하는 구간을 포함한다.
도 6에서, 방사선 조사 장치(140)가 출력(630)과 같이 방사선을 방출하는 경우, 출력(610) 또는 출력(620)과 같이 방사선을 방출하는 경우보다 디텍터(150)가 영상 신호를 누적하는 시간이 줄어들 수 있다. 방사선 조사 장치(140)는 출력(630)과 같이 방사선을 방출하여, 방사선 이미지의 선명도를 향상시킬 수 있다.
예를 들어, 방사선 조사 장치(140)는 CXT(CNT X-ray tube, carbon nanotube X-ray tube)를 포함하고, 출력(630)과 같이 방사선 출력을 디지털 방식으로 출력할 수 있다.
도 7은 다양한 실시예들에 따른 디텍터(150)의 동작 프레임을 나타낸 도면이다.
도 7과 같이, 디텍터(150)는 각 프레임(frame)에 해당하는 디텍터(150)의 윈도우 타임(710)(window time)마다 방사선 신호(예: X-ray)를 누적하여, 영상 신호를 검출할 수 있다. 윈도우 타임은 프레임 레이트(frame rate)의 역수이다.
전자 장치(100)는 영상 촬영 장치(130)가 방사선 이미지를 획득하는 프레임 레이트를 높여서, 초당 영상 촬영 장수를 높일 수 있다. 높은 프레임 레이트로 방사선 이미지를 획득하는 경우, 영상 신호를 누적하는 시간이 감소하기 때문에, 전자 장치(100)는 선명도가 개선 또는 향상된 방사선 이미지를 획득할 수 있다.
도 8은 다양한 실시예들에 따른 디텍터(150)의 게이트 라인(151) 및 출력 라인(153)을 나타낸 도면이다.
디텍터(150)는 판넬(155)에서 감지된 신호(예: 영상 신호)를 전송하기 위한 게이트 라인(151) 및 출력 라인(153)을 포함할 수 있다. 전자 장치(100)는 시료(210)가 이송 장치 위에서 이동하는 영역에 대응하는 유효 영역의 게이트 라인(151)을 구동하여, 복수의 방사선 이미지를 획득할 수 있다.
도 8에서, 시료(210)는 이송 장치에 의하여 좌측(예: 도 8의 9시 방향)에서 우측(예: 도 8의 3시 방향) 방향으로 이동하거나,또는 우측에서 좌측 방향으로 이동할 수 있다. 도 8에서, 일 실시 예에 따른 시료(210)에 대하여 설정된 방향은 좌측에서 우측 방향 또는 우측에서 좌측 방향일 수 있다.
게이트 라인(151)은 시료(210)가 이동하는 설정된 방향에 평행한 방향으로 배치될 수 있다. 도 8과 같이, 게이트 라인(151)은 시료(210)가 이동하는 설정된 방향에 평행한 방향으로 배치되어, 설정된 방향과 평행한 방향에 따라 판넬(155)에서 감지된 신호의 출력을 제어할 수 있다.
예를 들어, 게이트 라인(151-1)에 신호가 인가되는 경우, 도 8에서 게이트 라인(151-1)으로부터 설정된 방향에 평행한 판넬(155)의 영역에서 감지된 신호가 복수의 출력 라인(153-1, 153-2, 153-3, 153-4, 153-5, 153-6, 153-7)에 인가되는 신호에 따라 출력될 수 있다.
예를 들어, 게이트 라인(151-1) 및 출력 라인(153-1)에 신호가 인가되는 경우, 게이트 라인(151-1)로부터 수평으로 평행한 판넬(155)의 영역과 출력 라인(153-1)로부터 수직한 판넬(155)의 영역이 교차하는 영역에서 감지된 신호가 출력 라인(153-1)을 통해 출력될 수 있다.
도 8을 참조하면, 디텍터(150)는 복수의 게이트 라인(151-1, 151-2, 151-3, 151-4, 151-5, 151-6, 151-7) 및 복수의 출력 라인(153-1, 153-2, 153-3, 153-4, 153-5, 153-6, 153-7)을 포함할 수 있다.
판넬(155)은 윈도우 타임동안 검출된 방사선 신호를 누적하여 신호(예: 영상 신호)를 저장할 수 있다. 디텍터(150)는 판넬에 저장된 신호를 출력하기 위하여, 게이트 라인의 게이트 IC(gate IC)에서 하나의 라인(line)의 TFT(thin film transistor, 박막 트랜지스터)를 on 시키면, 해당 라인의 신호가 출력 라인(153)의 ROIC(readout IC)로 전달될 수 있다. 디텍터(150)는 출력 라인(153)의 ROIC로 전달된 신호를 디텍터(150) 외부로 출력할 수 있다.
예를 들어, 디텍터(150)가 게이트 라인(151-1)을 구동하는 경우, 게이트 라인(151-1)에 대응하는 패널의 라인에 저장된 신호가 복수의 출력 라인(153-1, 153-2, 153-3, 153-4, 153-5, 153-6, 153-7)으로 전송될 수 있다. 디텍터(150)는 복수의 출력 라인(153-1, 153-2, 153-3, 153-4, 153-5, 153-6, 153-7)으로 전송된 신호를 전자 장치(100)의 구성(예: 프로세서(110), 메모리(120) 등) 또는 외부 장치로 전송할 수 있다.
출력 라인(153)에서 디텍터(150) 외부(예: 프로세서(110), 메모리(120) 등)로 신호를 출력하는데 소요되는 시간은 line read out time이며, line read out time에 게이트 라인(151)의 수를 곱하면, 한 프레임을 구동하는 시간이 된다. 프레임 레이트는 한 프레임을 구동하는 시간의 역수이므로, 프레임 레이트를 높이기 위해서는 한 프레임을 구동하는 시간을 줄여야 한다.
전자 장치(100)는 프레임 레이트를 높이기 위하여, 구동하는 게이트 라인(151)의 수를 줄일 수 있다. 프레임 레이트가 높아지면, 영상 신호가 누적되는 시간이 감소하여, 방사선 이미지의 선명도가 향상될 수 있다.
유효 영역은 시료(210)가 이송 장치 위에서 이동하는 영역을 나타낼 수 있다. 전자 장치(100)는 유효 영역의 게이트 라인(151)을 구동하여, 구동하는 게이트 라인(151)의 수를 줄일 수 있다. 예를 들어, 도 8에서 전자 장치(100)는 유효 영역(810)에 대응하는 게이트 라인(151-3), 게이트 라인(151-4), 게이트 라인(151-5)를 구동하여, 복수의 방사선 이미지를 획득하는 프레임을 제어할 수 있다. 도 8에서, 전자 장치(100)는 복수의 게이트 라인(151-1, 151-2, 151-3, 151-4, 151-5, 151-6, 151-7) 중에서, 유효 영역(810)에 대응하는 게이트 라인(151-3), 게이트 라인(151-4) 및 게이트 라인(151-5)만 구동하여, 프레임을 제어하고, 프레임 레이트를 높일 수 있다.
도 8에서, 다양한 실시예들 중 복수의 게이트 라인(151-1, 151-2, 151-3, 151-4, 151-5, 151-6, 151-7)이 시료(210)가 이동하는 방향에 평행하게 배치되고, 전자 장치(100)는 복수의 게이트 라인(151-1, 151-2, 151-3, 151-4, 151-5, 151-6, 151-7)의 구동을 제어하여, 복수의 방사선 이미지를 획득하는 프레임을 제어하는 실시예를 도시하고 있으나, 이에 한정되지 않는다. 예를 들어, 복수의 출력 라인(153-1, 153-2, 153-3, 153-4, 153-5, 153-6, 153-7)이 시료(210)가 이동하는 방향에 평행하게 배치되고, 전자 장치(100)는 복수의 출력 라인(153-1, 153-2, 153-3, 153-4, 153-5, 153-6, 153-7)의 구동을 제어하여, 복수의 방사선 이미지를 획득하는 프레임을 제어할 수도 있다.
도 9는 다양한 실시예들에 따른 전자 장치(100)가 획득한 2차원 이미지(900)를 나타낸 도면이다. 도 10은 다양한 실시예들에 따른 전자 장치(100)가 생성한 3차원 영상의 단면(1000)을 나타낸 도면이다.
전자 장치(100)는 도 9와 같은 방사선 이미지(900)를 촬영할 수 있다. 전자 장치(100)는 시료(210)의 3차원 영상을 이용하여, 도 10과 같이 시료(210)의 단면을 확인할 수 있다.
일례로, 전자 장치(100)는 시료(210)의 3차원 영상을 이용하여, 시료(210)에 이물이 유입되었는지 여부를 판단할 수 있다.
한편, 본 발명에 따른 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성되어 마그네틱 저장매체, 광학적 판독매체, 디지털 저장매체 등 다양한 기록 매체로도 구현될 수 있다.
본 명세서에 설명된 각종 기술들의 구현들은 디지털 전자 회로조직으로, 또는 컴퓨터 하드웨어, 펌웨어, 소프트웨어로, 또는 그들의 조합들로 구현될 수 있다. 구현들은 데이터 처리 장치, 예를 들어 프로그램가능 프로세서(110), 컴퓨터, 또는 다수의 컴퓨터들의 동작에 의한 처리를 위해, 또는 이 동작을 제어하기 위해, 컴퓨터 프로그램 제품, 즉 정보 캐리어, 예를 들어 기계 판독가능 저장 장치(컴퓨터 판독가능 매체) 또는 전파 신호에서 유형적으로 구체화된 컴퓨터 프로그램으로서 구현될 수 있다. 상술한 컴퓨터 프로그램(들)과 같은 컴퓨터 프로그램은 컴파일된 또는 인터프리트된 언어들을 포함하는 임의의 형태의 프로그래밍 언어로 기록될 수 있고, 독립형 프로그램으로서 또는 모듈, 구성요소, 서브루틴, 또는 컴퓨팅 환경에서의 사용에 적절한 다른 유닛으로서 포함하는 임의의 형태로 전개될 수 있다. 컴퓨터 프로그램은 하나의 사이트에서 하나의 컴퓨터 또는 다수의 컴퓨터들 상에서 처리되도록 또는 다수의 사이트들에 걸쳐 분배되고 통신 네트워크에 의해 상호 연결되도록 전개될 수 있다.
컴퓨터 프로그램의 처리에 적절한 프로세서(110)들은 예로서, 범용 및 특수 목적 마이크로프로세서(110)들 둘 다, 및 임의의 종류의 디지털 컴퓨터의 임의의 하나 이상의 프로세서(110)들을 포함한다. 일반적으로, 프로세서(110)는 판독 전용 메모리(120) 또는 랜덤 액세스 메모리(120) 또는 둘 다로부터 명령어들 및 데이터를 수신할 것이다. 컴퓨터의 요소들은 명령어들을 실행하는 적어도 하나의 프로세서(110) 및 명령어들 및 데이터를 저장하는 하나 이상의 메모리(120) 장치들을 포함할 수 있다. 일반적으로, 컴퓨터는 데이터를 저장하는 하나 이상의 대량 저장 장치들, 예를 들어 자기, 자기-광 디스크들, 또는 광 디스크들을 포함할 수 있거나, 이것들로부터 데이터를 수신하거나 이것들에 데이터를 송신하거나 또는 양쪽으로 되도록 결합될 수도 있다. 컴퓨터 프로그램 명령어들 및 데이터를 구체화하는데 적절한 정보 캐리어들은 예로서 반도체 메모리(120) 장치들, 예를 들어, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(Magnetic Media), CD-ROM(Compact Disk Read Only Memory), DVD(Digital Video Disk)와 같은 광 기록 매체(Optical Media), 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media), 롬(ROM, Read Only Memory), 램(RAM, Random Access Memory), 플래시 메모리(120), EPROM(Erasable Programmable ROM), EEPROM(Electrically Erasable Programmable ROM) 등을 포함한다. 프로세서(110) 및 메모리(120)는 특수 목적 논리 회로조직에 의해 보충되거나, 이에 포함될 수 있다.
또한, 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용매체일 수 있고, 컴퓨터 저장매체 및 전송매체를 모두 포함할 수 있다.
본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.
마찬가지로, 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 장치 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 장치들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징 될 수 있다는 점을 이해하여야 한다.
한편, 본 명세서와 도면에 개시된 본 발명의 실시 예들은 이해를 돕기 위해 특정 예를 제시한 것에 지나지 않으며, 본 발명의 범위를 한정하고자 하는 것은 아니다. 여기에 개시된 실시 예들 이외에도 본 발명의 기술적 사상에 바탕을 둔 다른 변형 예들이 실시 가능하다는 것은, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 자명한 것이다.

Claims (19)

  1. 전자 장치에 있어서,
    이송 장치 위에서, 설정된 방향으로 이동하는 시료에 대하여 복수의 방사선 이미지를 획득하는 영상 촬영 장치; 및
    프로세서
    를 포함하고,
    상기 프로세서는,
    상기 시료의 3차원 영상을 재구성하기 위한 상기 복수의 방사선 이미지의 특징점을 결정하고;
    상기 특징점의 위치를 이용하여, 상기 특징점의 위치 정보를 계산하고;
    상기 위치 정보에 기초하여, 특징점 영상을 생성하고;
    상기 특징점 영상 및 상기 위치 정보를 이용하여, 상기 3차원 영상을 생성하는,
    전자 장치.
  2. 제1항에 있어서,
    상기 영상 촬영 장치는,
    방사선 조사 장치 및 2차원으로 픽셀이 배열된 디텍터를 포함하고,
    상기 방사선 조사 장치 및 상기 디텍터에 따라 결정된 콘빔 영역을 상기 시료가 통과할 때, 상기 복수의 방사선 이미지를 획득하는,
    전자 장치.
  3. 제2항에 있어서,
    상기 방사선 조사 장치는,
    펄스(pulse) 형태의 방사선을 상기 시료에 대하여 방출하는,
    전자 장치.
  4. 제2항에 있어서,
    상기 디텍터는,
    상기 디텍터의 판넬에서 감지된 신호를 전송하기 위한 게이트 라인 및 출력 라인을 포함하고,
    상기 프로세서는,
    상기 시료가 상기 이송 장치 위에서 이동하는 영역에 대응하는 유효 영역의 게이트 라인을 구동하여, 상기 복수의 방사선 이미지를 획득하는 프레임을 제어하고,
    상기 게이트 라인은,
    상기 시료가 이동하는 상기 설정된 방향에 평행한 방향으로 배치되는,
    전자 장치.
  5. 제1항에 있어서,
    상기 프로세서는,
    상기 3차원 영상을 설정된 기준과 비교하여, 상기 시료의 불량 여부를 판단하는,
    전자 장치.
  6. 제1항에 있어서,
    상기 영상 촬영 장치는,
    복수의 시료에 대한 복수의 방사선 이미지를 획득하고,
    상기 프로세서는,
    상기 복수의 시료에 대한 상기 복수의 방사선 이미지를 이용하여, 상기 특징점을 결정하는,
    전자 장치.
  7. 제1항에 있어서,
    상기 프로세서는,
    상기 복수의 방사선 이미지를 전처리하고;
    전처리된 상기 복수의 방사선 이미지를 이용하여 상기 특징점을 결정하는,
    전자 장치.
  8. 제1항에 있어서,
    상기 프로세서는,
    상기 복수의 방사선 이미지의 픽셀 값을 설정된 임계값과 비교하여, 상기 시료 내부에 이물이 유입되었는지 여부를 판단하는,
    전자 장치.
  9. 전자 장치에 있어서,
    이송 장치 위에서, 설정된 방향으로 이동하는 시료에 대하여 복수의 방사선 이미지를 획득하는 영상 촬영 장치; 및
    프로세서
    를 포함하고,
    상기 프로세서는,
    상기 시료의 형상 및 상기 복수의 방사선 이미지의 특징 중 적어도 하나에 기초하여, 상기 복수의 방사선 이미지의 특징점을 결정하고;
    상기 특징점의 위치 및 상기 이송 장치의 속도를 이용하여, 상기 특징점에 대응하는 상기 시료의 위치 정보를 계산하고;
    상기 위치 정보에 기초하여, 상기 복수의 방사선 이미지를 매칭시켜 상기 시료의 3차원 영상을 생성하는,
    전자 장치.
  10. 제9항에 있어서,
    상기 영상 촬영 장치는,
    방사선 조사 장치 및 2차원으로 픽셀이 배열된 디텍터를 포함하고,
    상기 방사선 조사 장치 및 상기 디텍터에 따라 결정된 콘빔 영역을 상기 시료가 통과할 때, 상기 복수의 이미지를 획득하는,
    전자 장치.
  11. 제9항에 있어서,
    상기 프로세서는,
    상기 3차원 영상을 설정된 기준과 비교하여, 상기 시료의 불량 여부를 판단하는,
    전자 장치.
  12. 3차원 영상 생성 방법에 있어서,
    영상 촬영 장치를 이용하여, 이송 장치 위에서 설정된 방향으로 이동하는 시료에 대하여 복수의 방사선 이미지를 획득하는 동작;
    상기 시료의 3차원 영상을 재구성하기 위한 상기 복수의 방사선 이미지의 특징점을 결정하는 동작;
    상기 특징점의 위치를 이용하여, 상기 특징점의 위치 정보를 계산하는 동작;
    상기 위치 정보에 기초하여, 특징점 영상을 생성하는 동작; 및
    상기 특징점 영상 및 상기 위치 정보를 이용하여, 상기 3차원 영상을 생성하는 동작
    을 포함하는,
    3차원 영상 생성 방법.
  13. 제12항에 있어서,
    상기 영상 촬영 장치는,
    방사선 조사 장치 및 2차원으로 픽셀이 배열된 디텍터를 포함하고,
    상기 복수의 방사선 이미지를 획득하는 동작은,
    상기 방사선 조사 장치 및 상기 디텍터에 따라 결정된 콘빔 영역을 상기 시료가 통과할 때, 상기 복수의 방사선 이미지를 획득하는,
    3차원 영상 생성 방법.
  14. 제13항에 있어서,
    상기 복수의 방사선 이미지를 획득하는 동작은,
    상기 방사선 조사 장치를 이용하여, 펄스(pulse) 형태의 방사선을 상기 시료에 대하여 방출하는 동작
    을 포함하는,
    3차원 영상 생성 방법.
  15. 제13항에 있어서,
    상기 디텍터는,
    상기 디텍터의 판넬에서 감지된 신호를 전송하기 위한 게이트 라인 및 출력 라인을 포함하고,
    상기 복수의 방사선 이미지를 획득하는 동작은,
    상기 시료가 상기 이송 장치 위에서 이동하는 영역에 대응하는 유효 영역의 게이트 라인을 구동하여, 상기 복수의 방사선 이미지를 획득하는 프레임을 제어하는 동작
    을 포함하고,
    상기 게이트 라인은,
    상기 시료가 이동하는 상기 설정된 방향에 평행한 방향으로 배치되는,
    3차원 영상 생성 방법.
  16. 제12항에 있어서,
    상기 3차원 영상을 설정된 기준과 비교하여, 상기 시료의 불량 여부를 판단하는 동작
    을 더 포함하는,
    3차원 영상 생성 방법.
  17. 제12항에 있어서,
    상기 복수의 방사선 이미지를 획득하는 동작은,
    복수의 시료에 대한 복수의 방사선 이미지를 획득하고,
    상기 특징점을 결정하는 동작은,
    상기 복수의 시료에 대한 상기 복수의 방사선 이미지를 이용하여, 상기 특징점을 결정하는,
    3차원 영상 생성 방법.
  18. 제12항에 있어서,
    상기 복수의 방사선 이미지를 전처리하는 동작
    을 더 포함하고,
    상기 특징점을 결정하는 동작은,
    전처리된 상기 복수의 방사선 이미지를 이용하여 상기 특징점을 결정하는,
    3차원 영상 생성 방법.
  19. 제12항에 있어서,
    상기 복수의 방사선 이미지의 픽셀 값을 설정된 임계값과 비교하여, 상기 시료 내부에 이물이 유입되었는지 여부를 판단하는 동작
    을 더 포함하는,
    3차원 영상 생성 방법.
PCT/KR2023/009501 2022-07-08 2023-07-05 3차원 영상 생성 방법 및 상기 방법을 수행하는 전자 장치 WO2024010360A1 (ko)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2022-0084390 2022-07-08
KR20220084390 2022-07-08
KR1020230085670A KR20240007606A (ko) 2022-07-08 2023-07-03 3차원 영상 생성 방법 및 상기 방법을 수행하는 전자장치
KR10-2023-0085670 2023-07-03

Publications (1)

Publication Number Publication Date
WO2024010360A1 true WO2024010360A1 (ko) 2024-01-11

Family

ID=89453737

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/009501 WO2024010360A1 (ko) 2022-07-08 2023-07-05 3차원 영상 생성 방법 및 상기 방법을 수행하는 전자 장치

Country Status (1)

Country Link
WO (1) WO2024010360A1 (ko)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120126660A (ko) * 2011-05-12 2012-11-21 주식회사 쎄크 반도체칩의 ct 검사방법
KR20170119901A (ko) * 2016-04-20 2017-10-30 아진산업(주) 용접 비드 검사 장치
JP2019219267A (ja) * 2018-06-20 2019-12-26 株式会社日立製作所 インライン内部欠陥検査方法およびシステム
KR102193188B1 (ko) * 2019-05-14 2020-12-18 주식회사 유니아이 2차원 엑스레이 영상을 이용한 양면 실장 전자부품용 3차원 형상 측정 시스템
US20220157047A1 (en) * 2019-03-15 2022-05-19 Retinai Medical Ag Feature Point Detection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120126660A (ko) * 2011-05-12 2012-11-21 주식회사 쎄크 반도체칩의 ct 검사방법
KR20170119901A (ko) * 2016-04-20 2017-10-30 아진산업(주) 용접 비드 검사 장치
JP2019219267A (ja) * 2018-06-20 2019-12-26 株式会社日立製作所 インライン内部欠陥検査方法およびシステム
US20220157047A1 (en) * 2019-03-15 2022-05-19 Retinai Medical Ag Feature Point Detection
KR102193188B1 (ko) * 2019-05-14 2020-12-18 주식회사 유니아이 2차원 엑스레이 영상을 이용한 양면 실장 전자부품용 3차원 형상 측정 시스템

Similar Documents

Publication Publication Date Title
WO2019168298A1 (en) Method and apparatus for correcting computed tomography image
US10026011B2 (en) Mask inspection apparatus, mask evaluation method and mask evaluation system
KR20170136992A (ko) 결함 검사 시스템, 필름 제조 장치 및 결함 검사 방법
WO2019083227A1 (en) MEDICAL IMAGE PROCESSING METHOD, AND MEDICAL IMAGE PROCESSING APPARATUS IMPLEMENTING THE METHOD
WO2021006522A1 (ko) 딥 러닝 모델을 활용한 영상 진단 장치 및 그 방법
WO2013012231A2 (en) X-ray device and method for controlling an x-ray irradiation area using the same
US4678920A (en) Machine vision method and apparatus
WO2019039844A1 (en) X-RAY IMAGING APPARATUS AND CORRESPONDING CONTROL METHOD
KR20080103820A (ko) 하이브리드 터널 스캐닝 장치
US11481922B2 (en) Online navigational drift correction for metrology measurements
WO2023022537A1 (ko) Ai 기반 차량 디스크 불량 검출 시스템
CN102192713A (zh) 外观检查装置
WO2024010360A1 (ko) 3차원 영상 생성 방법 및 상기 방법을 수행하는 전자 장치
WO2023153564A1 (ko) 의료 영상 처리 방법 및 장치
US20240311994A1 (en) Training data generation device, training data generation method, program, and defect test device
EP3931597A1 (en) Lidar apparatus and control method thereof
WO2021132813A1 (ko) 딥러닝 모델을 이용한 통증 평가 방법 및 분석 장치
JPH0735697A (ja) 半導体デバイス検査システム
JP2007192652A (ja) パターン検査装置、パターン検査方法、及び検査対象試料
CN103837493A (zh) 一种架空导线缺陷联合检测方法
WO2020022786A1 (ko) 시편 검사 장치 및 시편 검사 방법
KR20210153006A (ko) 코로나 방전 검출 장치
WO2022065583A1 (ko) 유방암 진단 시스템
EP1978353A2 (en) Multiple surface inspection system and method
CN116990311A (zh) 一种缺陷检测系统、方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23835826

Country of ref document: EP

Kind code of ref document: A1