WO2024053948A1 - 변환 모델 구축 장치 및 방법과 이를 이용한 이미지 매칭 장치 및 방법 - Google Patents

변환 모델 구축 장치 및 방법과 이를 이용한 이미지 매칭 장치 및 방법 Download PDF

Info

Publication number
WO2024053948A1
WO2024053948A1 PCT/KR2023/013118 KR2023013118W WO2024053948A1 WO 2024053948 A1 WO2024053948 A1 WO 2024053948A1 KR 2023013118 W KR2023013118 W KR 2023013118W WO 2024053948 A1 WO2024053948 A1 WO 2024053948A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
module
shape
polygon
matching
Prior art date
Application number
PCT/KR2023/013118
Other languages
English (en)
French (fr)
Inventor
김도년
남윤형
김태연
김재훈
Original Assignee
서울대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 서울대학교산학협력단 filed Critical 서울대학교산학협력단
Publication of WO2024053948A1 publication Critical patent/WO2024053948A1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/14Transformations for image registration, e.g. adjusting or mapping for alignment of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures

Definitions

  • the present invention relates to a technology for determining whether images of different types match, and to an image matching device and method for converting images of different types into one type and determining whether there is a match between images.
  • a method of matching different types of images using a supervised learning algorithm is to match one image type among the different types of images to another image type. Sort after conversion.
  • the method using supervised learning requires human supervision because accurately matched training data is essential for learning the transformation model, and the degree of misalignment of the training data is reflected in the transformation model, so it is used in the inference stage. The accuracy of the conversion results may decrease.
  • methods of measuring similarity between different types of images using artificial intelligence learning algorithms include measuring similarity through comparison of pixel values between images, extracting the outline of a pattern from each image and using this to obtain the pixel value. There are methods to measure similarity through direct comparison.
  • the present invention builds a conversion model learned to convert the first type of image into the second type by using the first type of first training data and the second type of second training data.
  • the technical task is to provide devices and methods that do this.
  • the present invention converts a first image of a first type into a second image of a second type using a conversion model, and converts a first image of a first type into a second image of a second type, and
  • the technical task is to provide an image matching device and method for determining whether or not there is a match.
  • a conversion model building device is a conversion model building device that builds a conversion module for converting the type of an image, wherein a conversion model building program is stored.
  • Memory and a processor that executes the transformation model building program, wherein the transformation model building program updates the generation module to process the first training image of the first type into a transformation image using a segmentation contour module, and a shape estimation module.
  • the conversion model is learned by updating the module, and the conversion model includes the generation module, the segmentation contour module, the shape estimation module, and the discriminator module, and the segmentation contour module is included in the input image.
  • At least one polygon is separated from the background to distinguish the outline of the polygon, and when different types of first and second images are input, the shape inference module determines the border shape of the polygon included in the first image. and the edge shape of at least one polygon included in the second image to determine whether the shapes match, and the discriminator module determines whether the at least one input image is real or fake according to conditions set for the input image. It is done.
  • a conversion model building method includes updating a generation module to process a first learning image of a first type into a conversion image using a segmentation contour module; updating the generating module to process the converted image into a second type using a second learning image of a second type and a shape estimation module; And updating the generation module so that the discriminator module determines the converted image as real, according to conditions set in the discriminator module, wherein the transformation model includes the generation module, the segmentation contour module, and the shape estimation.
  • the segmentation outline module separates at least one polygon included in the input image from the background and distinguishes the outline of the polygon
  • the shape inference module is configured to separate the polygons from the background and the shape inference module.
  • an image matching device includes a memory storing an image matching program; and a processor executing the image matching program, wherein the image matching program generates a second image of a second type by applying a first image of a first type in which an object is photographed to a transformation model, and generates a second image of a second type under image matching conditions. Accordingly, it is determined whether there is a match between the second image and the third image of the second type, the object is manufactured using the third image, and the transformation model includes a generation module, a segmentation contour module, and a shape.
  • Machine learning is performed through an inference module and a discriminator module to convert the first type of image into the second type, the generation module is to process the first type of image, and the segmentation contour module is an input At least one polygon included in the image is separated from the background to distinguish the outline of the polygon, and the shape inference module is configured to input a first image and a second image of different types, including the polygon in the first image. The edge shape of the polygon is compared with the border shape of at least one polygon included in the second image to determine whether the shapes match, and the discriminator module is operated according to conditions set for at least one input image. It is about judging what is real and what is fake.
  • an image matching method includes generating a first image of a first type by photographing an object; generating a second image of a second type by applying the first image to a transformation model; and determining whether there is a match between the second image and a third image of a second type according to an image matching condition, wherein the object is manufactured through the third image, and the conversion model is generated by a generation module.
  • Machine learning is performed through a segmentation contour module, a shape inference module, and a discriminator module to convert the first type of image into the second type, and the generation module processes the first type of image
  • the segmentation outline module separates at least one polygon included in the input image from the background and distinguishes the outline of the polygon
  • the shape inference module is configured to: When first and second images of different types are input, The edge shape of the polygon included in the first image is compared with the border shape of at least one polygon included in the second image to determine whether the shapes match, and the discriminator module is configured to determine whether the shape matches the edge shape of the polygon included in the first image. It is to judge whether it is real or fake according to the conditions set for it.
  • the transformation model can be learned without the intervention of an administrator, so automatic matching between different types of images is possible.
  • FIG. 1 is a conceptual diagram of a transformation model building device according to an embodiment of the present invention.
  • Figures 2 to 5 are exemplary diagrams for explaining the operation of a conversion model building program.
  • Figure 6 is a flowchart illustrating a method for building a transformation model according to an embodiment of the present invention.
  • Figure 7 is a conceptual diagram schematically showing an image matching device according to an embodiment of the present invention.
  • Figure 8 is an exemplary diagram showing the operation of an image matching device according to an embodiment of the present invention.
  • Figures 9 to 14 are example diagrams for explaining the operation of the image matching program.
  • Figure 15 is a flowchart for explaining an image matching method according to an embodiment of the present invention.
  • FIG. 16 is a flowchart for explaining the process of determining whether there is a match between the second image and the third image shown in FIG. 15.
  • FIG. 17 is a flowchart for explaining the process of determining whether there is a match between the second image and the third image shown in FIG. 15.
  • first, second, etc. used in this specification are used only for the purpose of distinguishing one component from another component and do not limit the order or relationship of the components.
  • a first component of the present invention may be named a second component, and similarly, the second component may also be named a first component.
  • Figure 1 is a block diagram schematically showing a transformation model building device according to an embodiment of the present invention.
  • the conversion model building device 100 builds a conversion model that converts the first type of image into the second type.
  • the conversion model building device 100 includes a memory 110 and a processor 120.
  • the memory 110 stores a conversion model building program.
  • the memory 110 refers to a non-volatile storage device that continues to maintain stored information even when power is not supplied and a volatile storage device that requires power to maintain the stored information. It should be interpreted as doing so.
  • the memory 110 may perform the function of temporarily or permanently storing data processed by the processor 120.
  • the memory 110 may include magnetic storage media or flash storage media in addition to volatile storage devices that require power to maintain stored information, but the scope of the present invention is not limited thereto. no.
  • the processor 120 builds a conversion model by executing the conversion model building program stored in the memory 110.
  • the processor 120 is a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated circuit (ASIC), or an FPGA. (field programmable gate array), etc., but the scope of the present invention is not limited thereto.
  • Figures 2 to 5 are exemplary diagrams for explaining the operation of a conversion model building program. Referring to FIGS. 2 to 5, the process by which the conversion module building program builds the conversion module will be described in detail.
  • the transformation model is learned through unsupervised learning and includes a generation module (10), a segmentation contour module (20), a shape estimation module (30), and a discriminator module (40). do.
  • the creation module 10 processes the applied image according to settings, and the segmentation outline module 20 separates at least one polygon included in the input image from the background and distinguishes the outline of the polygon.
  • the shape inference module 30 compares the border shape of the polygon included in the first image with the border shape of at least one polygon included in the second image. This determines whether the shapes match, and the discriminator module 40 distinguishes between real and fake images according to conditions set for at least one input image.
  • the conversion model building program uses these plural modules (10, 20, 30, 40), the first learning image (1) of the first type, and the second learning image (2) of the second type to build the first type of first learning image (2).
  • the first learning image may be an image taken of a certain object, for example, an image of a semiconductor taken using SEM equipment.
  • the second learning image may be a blueprint of an object, for example, a blueprint of a semiconductor. Therefore, the first type is the SEM image type, the second image is the blueprint image type, and the conversion model is learned to convert the SEM image type to the blueprint image type.
  • the conversion model rescue program updates the creation module 10 to process the first learning image 1 of the first type into the conversion image 3 using the segmentation contour module 20, and uses the shape estimation module 30.
  • the generation module 10 is updated to process the converted image 3 into the shape of the second learning image 2 of the second type, and according to the conditions set in the discriminator module 40, the discriminator module 40 ), a conversion model is built through the process of updating the generation module 10 so that the conversion image 3 is determined to be genuine.
  • the transformation model building program applies the first learning image 1 to the segmented contour module 20.
  • a sample image (4) is created, and the sample image (4) and the converted image (3) are compared to determine whether they match.
  • the transformation outline module 20 separates at least one polygon included in the input image from the background and distinguishes the outline of the polygon.
  • the sample image 4 generated by the segmentation outline module 20 is the input image. This is an image in which the polygons included in the first image (1) are separated from the background and the outlines are distinguished.
  • the generation module 10 is updated to convert the corresponding point in the converted image 3 to the shape of the sample image 4.
  • the conversion model building program updates the generation module 10 by repeatedly applying the transformation image 3 to the generation module 10 until the sample image 4 and the transformation image 3 match.
  • the shape inference module 30 compares the edge shape of a polygon included in the first image with the border shape of at least one polygon included in the second image to determine the shape. By determining whether they match, the transformation model building program applies the second learning image (2) and the transformation image (3) to the shape inference module 30, and at least one first training image included in the transformation image (3). The edge shape of the polygon 3a is compared with the edge shape of the second polygon 2a included in the second learning image 2 to determine whether the shapes match.
  • the generation module ( 10) Update If the border shape of the first polygon (3a) and the border shape of the second polygon (2a) do not match, the generation module ( 10) Update.
  • the conversion model building program repeatedly applies the conversion image 3 to the generation module 10 until the border shape of the first polygon 3a and the border shape of the second polygon 2a match. Update.
  • the discriminator module 40 distinguishes between real and fake images according to conditions set for at least one input image, and the discriminator module 40 classifies the first learning image (1) and the converted image (3) as fake. recognition, and is set to recognize the second learning image (2) as real.
  • the transformation model building program updates the generation module 10 by repeatedly applying the transformation image 3 to the generation module 10 until the transformation image 3 is recognized as genuine in the discriminator module 40, where the transformation image ( The generation module 10 is updated by repeatedly applying the transformation image 3 to the segmentation contour module 20 and the shape estimation module 30 until 3) is determined to be true.
  • a process of updating the generation module 10 using the segmentation contour module 20 a process of updating the generation module 10 using the shape inference module 30, and generation using the discriminator module 40.
  • the process of updating the module 10 may be performed sequentially, or all may be performed simultaneously.
  • the communication module 130 may include a device that includes hardware and software necessary to perform data communication with an external device and transmit and receive signals such as control signals or data signals through wired or wireless connections with other network devices.
  • the database 140 may store various data for learning or operating a transformation model. For example, training images for learning a transformation model may be stored.
  • the conversion model building device 100 may operate in the form of a server that receives a first learning image and a second learning image from an external computing device and builds a conversion model based on them. You can.
  • Figure 6 is a flowchart for explaining a method of building a transformation model according to an embodiment of the present invention.
  • the present invention is a method of building a transformation model that converts a first type of image into a second type using a transformation model building device. am.
  • the method of building a transformation model involves converting the first learning image 1 of the first type into a transformation image (1) using the segmentation contour module 20. 3), update the generation module to process it (step S110), and process the conversion image 3 into the second shape using the second learning image 2 of the second type and the shape estimation module 30. (10) is updated (step S120), and according to the conditions set in the discriminator module 40, the discriminator module 40 updates the generation module 10 so that the converted image 3 is determined to be genuine (step S130).
  • the transformation model is learned through the process.
  • step S110 the process of updating the generation module 10 using the segmented contour module 20 (step S110) will be described.
  • a sample image (4) is created, and the sample image (4) and the converted image (3) are compared to determine whether they match. If the shape of some points of the sample image 4 and the converted image 3 do not match, the generation module 10 is updated to convert the corresponding point of the converted image 3 to the shape of the sample image 4. This process is repeatedly applied to the generation module 10 until the sample image 4 and the converted image 3 match, thereby updating the generation module 10.
  • step S120 the process of updating the generation module 10 using the shape inference module 30 (step S120) will be described.
  • the second learning image 2 and the second learning image 2 are provided in the shape inference module 30. Apply the converted image 3, and the border shape of at least one first polygon 3a included in the converted image 3 and the border shape of the second polygon 2a included in the second learning image 2. Compare and determine whether the shapes match.
  • the generation module ( 10) Update If the border shape of the first polygon (3a) and the border shape of the second polygon (2a) do not match, the generation module ( 10) Update.
  • the conversion model building program repeatedly applies the conversion image 3 to the generation module 10 until the border shape of the first polygon 3a and the border shape of the second polygon 2a match. Update.
  • the discriminator module 40 includes the first learning image 1 and It is set to recognize the converted image (3) as fake and recognize the second learning image (3) as real. Then, the transformation image 3 is repeatedly applied to the generation module 10 until the transformation image 3 is recognized as genuine by the discriminator module 40 to update the generation module 10, where the transformation image 3 is The generation module 10 is updated by repeatedly applying the transformation image 3 to the segmentation contour module 20 and the shape estimation module 30 until it is judged to be genuine.
  • steps S110, S120, and S130 described above may be performed sequentially or all may be performed simultaneously.
  • Figure 7 is a block diagram schematically showing an image matching device according to an embodiment of the present invention.
  • the image matching device 200 determines whether different types of images are matched. To perform this, the image matching device 200 includes a memory 210 and a processor 220.
  • the memory 210 stores an image matching program.
  • Memory 210 should be interpreted as a general term for non-volatile storage devices that continue to retain stored information even when power is not supplied and volatile storage devices that require power to maintain stored information.
  • the memory 210 may perform the function of temporarily or permanently storing data processed by the processor 220.
  • the memory 210 may include magnetic storage media or flash storage media in addition to volatile storage devices that require power to maintain stored information, but the scope of the present invention is not limited thereto. no.
  • the processor 220 executes the image matching program stored in the memory 110 to determine whether there is a match between different types of images.
  • the image matching program applies a transformation model to the first image 5 of the first type in which an object is photographed to produce a second image 6 of the second type. and determine whether there is a match between the second image 6 and the third image 7 of the second type according to the image matching conditions.
  • the conversion model is machine learned through a generation module, segmentation contour module, shape inference module, and discriminator module to convert the first type of image into the second type.
  • the generation module processes the first type of image
  • the segmentation contour module separates at least one polygon included in the input image from the background and distinguishes the outline of the polygon
  • the shape inference module processes different types of images.
  • the border shape of the polygon included in the first image is compared with the border shape of at least one polygon included in the second image to determine whether the shapes match, and the discriminator module is to judge whether at least one input image is real or fake according to conditions set.
  • the object is manufactured using the third image 7.
  • the third image 7 may be a blueprint for manufacturing the object.
  • Figures 7 to 14 are example diagrams for explaining the operation of the image matching program. Referring to FIGS. 7 to 14 , various embodiments of a process in which an image matching program determines whether a second image matches a third image will be described.
  • the image matching program matches the third image 7. (7) Move the second image 6 from above and search for the corresponding point to determine whether the second image 6 and the third image 7 match.
  • the image matching program sets the first matching point 6a in one or more of the at least one polygon included in the second image 6, and sets the first matching point 6a in the third image 7.
  • a first feature vector 6b containing information about each of at least one first matching point 6a is generated, and a second feature vector 7b containing information about each of the second matching points 7a is generated. creates .
  • the image matching program compares the first feature vector 6a and the second feature vector 7b, and places the second image on the third image 7 according to the similarity between the feature vectors. By arranging (6), it is determined whether the second image (6) matches the third image (7).
  • the image matching program sets the first center point 6c for one or more of the at least one polygon included in the second image 6, and sets the first center point 6c and the third image 6. Set the corresponding second center point (7c).
  • the first center point 6c and the second center point 7c are matched to determine whether the second image 6 and the third image 7 match.
  • the image matching program can match the first image 5 to the third image 7 as shown in FIG. 14 through the above process.
  • the processor 220 may be a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, or an application-specific integrated circuit (ASIC). , FPGA (field programmable gate array), etc., but the scope of the present invention is not limited thereto.
  • the communication module 230 may include a device including hardware and software required to transmit and receive signals such as control signals or data signals through a wired or wireless connection with other network devices in order to perform data communication for signal data with an external device. You can.
  • the database 240 may store various data for operating an image matching program. For example, data required for the location information providing program to operate, such as map data for the target space 20, may be stored.
  • the image matching device 200 receives signal data from an external device, inputs it into a conversion model, converts the first image of the first type into a second image of the second type, and converts the first image into a second image of the second type. It can also operate in the form of a server that determines whether there is a match between the third images.
  • Figure 15 is a flowchart for explaining an image matching method according to an embodiment of the present invention.
  • the present embodiment photographs an object to generate a first image 5 of the first type (step S210), and The image 5 is applied to the transformation model to generate a second image 6 of a second type (step S220). Afterwards, it is determined whether there is a match between the second image 6 and the third image 7 of the second type according to the image matching conditions (steps S230, S240, and S250).
  • the conversion model is machine learned through a generation module, segmentation contour module, shape inference module, and discriminator module to convert the first type of image into the second type.
  • the generation module processes the first type of image
  • the segmentation contour module separates at least one polygon included in the input image from the background and distinguishes the outline of the polygon
  • the shape inference module processes different types of images.
  • the border shape of the polygon included in the first image is compared with the border shape of at least one polygon included in the second image to determine whether the shapes match, and the discriminator module is to judge whether at least one input image is real or fake according to conditions set.
  • the object is manufactured using the third image 7.
  • the third image 7 may be a blueprint for manufacturing the object.
  • step S230, S240, and S250 various embodiments of the process of determining whether the second image matches the third image
  • step S230 the process of determining whether the second image 6 and the third image 7 are matched (step S230) according to an embodiment of the present invention will be described in detail.
  • the image matching program matches the third image. (7) Move the second image 6 from above and search for the corresponding point to determine whether the second image 6 and the third image 7 match.
  • step S240 the process of determining whether the second image 6 and the third image 7 match according to an embodiment of the present invention
  • the image matching program sets the first matching point 6a to one or more of the at least one polygon included in the second image 6 (step S241), and sets the first matching point 6a in the third image 7.
  • the second matching point (7a) corresponding to the first matching point (6a) is set (step S242).
  • a first feature vector 6b containing information about each of at least one first matching point 6a is generated, and a second feature vector 7b containing information about each of the second matching points 7a is generated. Create (step S243).
  • the image matching program compares the first feature vector 6a and the second feature vector 7b, and places the second image on the third image 7 according to the similarity between the feature vectors. (6) is placed to determine whether the second image (6) matches the third image (7) (step S244).
  • the image matching program determines whether the second image 6 and the third image 7 match (step S250) in detail.
  • a first center point 6c is set for one or more of the at least one polygon included in the second image 6 (step S251), and the first center point 6c and the third image 6 are set (step S251).
  • the corresponding second center point 7c is set (step S252).
  • the first center point 6c and the second center point 7c are matched to determine whether the second image 6 and the third image 7 are matched (step S253).
  • the image matching method (S200) of the present invention can match the first image 5 to the third image 7 as shown in FIG. 9 through the above process.
  • the degree of product combination can be determined based on the difference between the design drawing and the actually manufactured product.
  • the present invention may also be implemented in the form of a recording medium containing instructions executable by a computer, such as program modules executed by a computer.
  • Computer-readable media can be any available media that can be accessed by a computer and includes both volatile and non-volatile media, removable and non-removable media. Additionally, computer-readable media may include computer storage media. Computer storage media includes both volatile and non-volatile, removable and non-removable media implemented in any method or technology for storage of information such as computer-readable instructions, data structures, program modules or other data.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

본 발명에 따른 이미지의 유형을 변환하는 변환 모듈을 구축하는 변환 모델 구축 장치는, 변환 모델 구축 프로그램이 저장된 메모리; 및 상기 변환 모델 구축 프로그램을 실행하는 프로세서를 포함하고, 상기 변환 모델 구축 프로그램은, 분할 윤곽 모듈을 이용하여 제1 유형의 제1 학습 이미지를 변환 이미지로 가공하도록 생성 모듈을 업데이트하고, 형상 추정 모듈을 이용하여 제2 유형의 제2 학습 이미지의 형상으로 상기 변환 이미지를 가공하도록 상기 생성 모듈을 업데이트하며, 판별자 모듈에 설정된 조건에 따라, 상기 판별자 모듈에서 상기 변환 이미지가 진짜로 판별되도록 상기 생성 모듈을 업데이트하여 변환 모델을 학습 시키는 것이며, 상기 변환 모델은, 상기 생성 모듈, 상기 분할 윤곽 모듈, 상기 형상 추정 모듈 및 상기 판별자 모듈을 포함하고, 상기 분할 윤곽 모듈은, 입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 상기 다각형의 윤곽선을 구분하는 것이며, 상기 형상 추론 모듈은, 서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 상기 제1 이미지에 포함된 다각형의 테두리 형상과 상기 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고, 상기 판별자 모듈은, 적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것이다.

Description

변환 모델 구축 장치 및 방법과 이를 이용한 이미지 매칭 장치 및 방법
본 발명은 유형이 다른 이미지의 매칭 여부를 판단하는 기술에 관한 것으로, 유형이 다른 이미지를 하나의 유형으로 변환하여 이미지 사이의 매칭 여부를 판단하는 이미지 매칭 장치 및 방법에 관한 것이다.
인공지능 알고리즘을 활용하지 않는 서로 다른 유형의 이미지 간의 매칭은 잡음(noise), 이미지 스타일의 차이, 형상의 차이와 같은 이미지 간의 차이로 인해 정확도가 매우 떨어진다.
또한, 지도(supervised) 학습 알고리즘, 대표적으로 GAN(Generative Adversarial Network) 알고리즘을 이용하여 서로 다른 유형의 이미지를 매칭하는 방법은, 서로 다른 유형의 이미지 중 어느 하나의 이미지 유형을 다른 하나의 이미지 유형으로 변환한 후 정렬한다. 지도 학습을 이용하는 방법은 변환 모델의 학습을 위해 정확하게 매칭된 훈련데이터가 필수적이기 때문에 사람의 관리 감독이 필요하고, 훈련 데이터의 오정렬(misalignment) 정도가 변환 모델에 반영되기 때문에 추론(inference)단계에서 변환 결과의 정확도가 떨어질 수 있다.
서로 다른 유형의 이미지 사이에 오정렬된 이미지 쌍들(훈련데이터의 이종 이미지 간 패턴들은 일부 정렬된 쌍이 포함될 수 있으며, 어떤 쌍도 정렬되지 않을 수 있음)로 구성된 훈련 데이터로 변환 모델을 훈련할 경우, 정확한 위치에 패턴이 생성되지 않거나, 상응하는 패턴 형상으로 생성되지 못하거나, 잡음이 생성되거나, 생성 이미지 스타일이 다른 종으로 변경되거나, 여러 개의 생성자들과 판별자들을 사용해서 변환모델을 훈련해야 하는 등의 한계점이 발생한다. 또한, 변환 모델에 이미지의 유형을 변환하는 과정이 학습되지 않아, 다른 유형 사이의 이미지를 정렬하는 과정에 활용될 수 없다는 문제점이 있다.
그리고, 인공지능 학습을 알고리즘을 이용한 서로 다른 유형의 이미지 사이의 유사성을 측정하는 방법에는 이미지 간의 픽셀값의 비교를 통해 유사성을 측정하는 방법, 각 이미지에서 패턴의 윤곽을 추출하고 이를 활용하여 픽셀값의 직접 비교를 통해 유사성을 측정하는 방법 등이 있다.
이러한 이미지 사이의 유사성을 측정하는 방법에는 여러 한계점이 있는데, 이미지에 잡음(noise)이 많거나, 이미지 스타일이 다른 점에 의해 이미지 간의 유사성 측정을 측정하기 어렵고, 서로 다른 유형의 이미지 간 동일한 특징점(feature)을 찾는 것의 어려움 및 특징점을 설명하는 설명자(descriptor)를 유사하게 구성하는 것에 대한 어려움이 있으며, 이미지에 포함된 다각형 패턴의 형상이 다른 부분에 의해 유사성을 측정하는데 어려움이 있다.
따라서, 이러한 한계점들을 극복할 수 있는 기술이 요구된다.
본 발명은 전술한 문제점을 해결하기 위하여, 제1 유형의 제1 학습 데이터 및 제2 유형의 제2 학습 데이터를 이용하여, 제1 유형의 이미지를 제2 유형으로 변환하도록 학습된 변환 모델을 구축하는 장치 및 방법을 제공하는 것을 기술적 과제로 한다.
또한, 본 발명은 전술한 문제점을 해결하기 위해, 변환 모델을 이용하여 제1 유형의 제1 이미지를 제2 유형의 제2 이미지로 변환하고, 제2 이미지와 제2 유형의 제3 이미지 사이의 매칭 여부를 판단하는 이미지 매칭 장치 및 방법을 제공하는 것을 기술적 과제로 한다.
다만, 본 실시예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제들로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.
상술한 기술적 과제를 해결하기 위한 기술적 수단으로서, 본 발명의 일 실시예에 따른 변환 모델 구축 장치는, 이미지의 유형을 변환하는 변환 모듈을 구축하는 변환 모델 구축 장치에 있어서, 변환 모델 구축 프로그램이 저장된 메모리; 및 상기 변환 모델 구축 프로그램을 실행하는 프로세서를 포함하고, 상기 변환 모델 구축 프로그램은, 분할 윤곽 모듈을 이용하여 제1 유형의 제1 학습 이미지를 변환 이미지로 가공하도록 생성 모듈을 업데이트하고, 형상 추정 모듈을 이용하여 제2 유형의 제2 학습 이미지의 형상으로 상기 변환 이미지를 가공하도록 상기 생성 모듈을 업데이트하며, 판별자 모듈에 설정된 조건에 따라, 상기 판별자 모듈에서 상기 변환 이미지가 진짜로 판별되도록 상기 생성 모듈을 업데이트하여 변환 모델을 학습 시키는 것이며, 상기 변환 모델은, 상기 생성 모듈, 상기 분할 윤곽 모듈, 상기 형상 추정 모듈 및 상기 판별자 모듈을 포함하고, 상기 분할 윤곽 모듈은, 입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 상기 다각형의 윤곽선을 구분하는 것이며, 상기 형상 추론 모듈은, 서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 상기 제1 이미지에 포함된 다각형의 테두리 형상과 상기 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고, 상기 판별자 모듈은, 적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것이다.
또한, 본 발명의 다른 실시예에 따른 변환 모델 구축 방법은, 분할 윤곽 모듈을 이용하여 제1 유형의 제1 학습 이미지를 변환 이미지로 가공하도록 생성 모듈을 업데이트하는 단계; 제2 유형의 제2 학습 이미지와 형상 추정 모듈을 이용하여 제2 유형으로 상기 변환 이미지를 가공하도록 상기 생성 모듈을 업데이트하는 단계; 및 판별자 모듈에 설정된 조건에 따라, 상기 판별자 모듈에서 상기 변환 이미지가 진짜로 판별되도록 상기 생성 모듈을 업데이트하는 단계를 포함하되, 상기 변환 모델은, 상기 생성 모듈, 상기 분할 윤곽 모듈, 상기 형상 추정 모듈 및 상기 판별자 모듈을 포함하고, 상기 분할 윤곽 모듈은, 입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 상기 다각형의 윤곽선을 구분하는 것이며, 상기 형상 추론 모듈은, 서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 상기 제1 이미지에 포함된 다각형의 테두리 형상과 상기 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고, 상기 판별자 모듈은, 적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것이다.
또한, 본 발명의 다른 실시예에 따른 이미지 매칭 장치는, 이미지 매칭 프로그램이 저장된 메모리; 및 상기 이미지 매칭 프로그램을 실행하는 프로세서를 포함하되, 상기 이미지 매칭 프로그램은, 물체를 촬영한 제1 유형의 제1 이미지를 변환 모델에 적용하여 제2 유형의 제2 이미지를 생성하고, 이미지 매칭 조건에 따라 상기 제2 이미지와 제2 유형의 제3 이미지 사이의 매칭 여부를 판단하는 것이며, 상기 물체는 상기 제3 이미지를 이용하여 제조된 것이고, 상기 변환 모델은, 생성 모듈, 분할 윤곽 모듈, 형상 추론 모듈 및 판별자 모듈을 통해 기계 학습되어 상기 제1 유형의 이미지를 상기 제2 유형으로 변환하는 것이며, 상기 생성 모듈은, 상기 제1 유형의 이미지를 가공하는 것이고, 상기 분할 윤곽 모듈은, 입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 상기 다각형의 윤곽선을 구분하는 것이며, 상기 형상 추론 모듈은, 서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 상기 제1 이미지에 포함된 다각형의 테두리 형상과 상기 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고, 상기 판별자 모듈은, 적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것이다.
또한, 본 발명의 다른 실시예에 따른 이미지 매칭 방법은, 물체를 촬영하여 제1 유형의 제1 이미지를 생성하는 단계; 상기 제1 이미지를 변환 모델에 적용하여 제2 유형의 제2 이미지를 생성하는 단계; 및 이미지 매칭 조건에 따라 상기 제2 이미지와 제2 유형의 제3 이미지 사이의 매칭 여부를 판단하는 단계를 포함하되, 상기 물체는 상기 제3 이미지를 통해 제조된 것이고, 상기 변환 모델은, 생성 모듈, 분할 윤곽 모듈, 형상 추론 모듈 및 판별자 모듈을 통해 기계 학습되어 상기 제1 유형의 이미지를 상기 제2 유형으로 변환하는 것이며, 상기 생성 모듈은, 상기 제1 유형의 이미지를 가공하는 것이고, 상기 분할 윤곽 모듈은, 입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 상기 다각형의 윤곽선을 구분하는 것이며, 상기 형상 추론 모듈은, 서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 상기 제1 이미지에 포함된 다각형의 테두리 형상과 상기 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고, 상기 판별자 모듈은, 적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것이다.
전술한 본 발명의 과제 해결 수단에 따르면, 관리자의 개입 없이 변환 모델의 학습이 가능하므로 다른 유형의 이미지 사이에 자동 매칭이 가능하다.
도 1은 본 발명의 일 실시예에 따른 변환 모델 구축 장치의 개념도이다.
도 2 내지 도 5는 변환 모델 구축 프로그램의 동작을 설명하기 위한 예시도이다.
도 6은 본 발명의 일 실시예에 따른 변환 모델 구축 방법을 설명하기 위한 흐름도이다.
도 7은 본 발명의 일실시예에 따른 이미지 매칭 장치를 개략적으로 나타낸 개념도이다.
도 8은 본 발명의 일실시예에 따른 이미지 매칭 장치의 동작을 나타낸 예시도이다.
도 9 내지 도 14는 이미지 매칭 프로그램의 동작을 설명하기 위한 예시도이다.
도 15는 본 발명의 일 실시예에 따른 이미지 매칭 방법을 설명하기 위한 흐름도이다.
도 16은 도 15에 도시된 제2 이미지와 제3 이미지 사이의 매칭 여부를 판단하는 과정을 설명하기 위한 흐름도이다.
도 17은 도 15에 도시된 제2 이미지와 제3 이미지 사이의 매칭 여부를 판단하는 과정을 설명하기 위한 흐름도이다.
이하에서는 첨부한 도면을 참조하여 본 발명을 상세히 설명하기로 한다. 다만, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 여기에서 설명하는 실시예들로 한정되는 것은 아니다. 또한, 첨부된 도면은 본 명세서에 개시된 실시예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않는다. 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 도면에 나타난 각 구성요소의 크기, 형태, 형상은 다양하게 변형될 수 있다. 명세서 전체에 대하여 동일/유사한 부분에 대해서는 동일/유사한 도면 부호를 붙였다.
이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부" 등은 명세서 작성의 용이함만이 고려되어 부여 되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략하였다.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결(접속, 접촉 또는 결합)"되어 있다고 할 때, 이는 "직접적으로 연결(접속, 접촉 또는 결합)"되어 있는 경우뿐만 아니라, 그 중간에 다른 부재를 사이에 두고 "간접적으로 연결 (접속, 접촉 또는 결합)"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 "포함(구비 또는 마련)"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 "포함(구비 또는 마련)"할 수 있다는 것을 의미한다.
본 명세서에서 사용되는 제1, 제2 등과 같이 서수를 나타내는 용어들은 하나의 구성 요소를 다른 구성요소로부터 구별하는 목적으로만 사용되며, 구성요소들의 순서나 관계를 제한하지 않는다. 예를 들어, 본 발명의 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
도 1은 본 발명의 일 실시예에 따른 변환 모델 구축 장치를 개략적으로 나타낸 블록도이다.
도 1을 참조하여 본 발명의 일 실시예에 따른 변환 모델 구축 장치(100) 에 대해 설명한다. 변환 모델 구축 장치(100)는 제1 유형의 이미지를 제2 유형으로 변환하는 변환 모델을 구축한다. 이를 위해 변환 모델 구축 장치(100)는 메모리(110) 및 프로세서(120)를 포함한다.
메모리(110)는 변환 모델 구축 프로그램이 저장되는데, 메모리(110)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력을 필요로 하는 휘발성 저장장치를 통칭하는 것으로 해석되어야 한다. 메모리(110)는 프로세서(120)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 메모리(110)는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치 외에 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
그리고, 프로세서(120)는 메모리(110)에 저장된 변환 모델 구축 프로그램을 실행하여 변환 모델을 구축한다. 본 실시예에서, 프로세서(120)는 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 형태로 구현될 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
도 2 내지 도 5는 변환 모델 구축 프로그램의 동작을 설명하기 위한 예시도이다. 도 2 내지 도 5를 참조하여 변환 모듈 구축 프로그램이 변환 모듈을 구축하는 과정을 구체적으로 설명한다.
먼저, 도 2를 참조하면 변환 모델은 비지도 학습(Unsupervised Learning)을 통해 학습되며, 생성 모듈(10), 분할 윤곽 모듈(20), 형상 추정 모듈(30) 및 판별자 모듈(40)을 포함한다. 생성 모듈(10)은 적용되는 이미지를 설정에 따라 가공하는 것이고, 분할 윤곽 모듈(20)은 입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 상기 다각형의 윤곽선을 구분 하는 것이다.
또한, 형상 추론 모듈(30)은 서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 제1 이미지에 포함된 다각형의 테두리 형상과 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고, 판별자 모듈(40)은 적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 구분하는 것이다.
변환 모델 구축 프로그램은 이러한 복수의 모듈(10, 20, 30, 40)과 제1 유형의 제1 학습 이미지(1) 및 제2 유형의 제2 학습이미지(2)를 이용하여 제1 유형의 제1 학습이미지(1)를 제2 유형으로 변환하는 변환 모델을 학습시킨다. 여기서, 제1 학습 이미지는 소정의 물체를 찍은 이미지가 될 수 있으며, 예를 들어 SEM 설비를 이용하여 반도체를 촬영한 이미지일 수 있다. 또한, 제2 학습 이미지는 물체의 설계도가 될 수 있으며, 예를 들어 반도체의 설계도일 수 있다. 따라서, 제1 유형은 SEM 이미지 유형이고, 제2 이미지는 설계도 이미지 유형으로, 변환 모델은 SEM 이미지 유형을 설계도 이미지 유형으로 변환하도록 학습된다.
변환 모델 구출 프로그램은 분할 윤곽 모듈(20)을 이용하여 제1 유형의 제1 학습 이미지(1)를 변환 이미지(3)로 가공하도록 생성 모듈(10)을 업데이트하고, 형상 추정 모듈(30)을 이용하여 제2 유형의 제2 학습 이미지(2)의 형상으로 변환 이미지(3)를 가공하도록 생성 모듈(10)을 업데이트하며, 판별자 모듈(40)에 설정된 조건에 따라, 판별자 모듈(40)에서 변환 이미지(3)가 진짜로 판별되도록 생성 모듈(10)을 업데이트하는 과정을 통해 변환 모델을 구축한다.
이후, 생성 모듈(10)을 업데이트 하는 과정에 대해 구체적으로 설명한다.
도 3을 참조하여 분할 윤곽 모듈(20)을 이용하여 생성 모듈(10)을 업데이트하는 과정에 대해서 설명하면, 변환 모델 구축 프로그램은 제1 학습 이미지(1)를 분할 윤곽 모듈(20)에 적용하여 샘플 이미지(4)를 생성하고, 샘플 이미지(4)와 변환 이미지(3)를 비교하여 일치 여부를 판단한다. 여기서, 변환 윤곽 모듈(20)은 입력되는 이미지에 포함된 적어도 하나 이상의 다각형을 배경과 분리하여 다각형의 윤곽선을 구분하는 것으로, 분할 윤곽 모듈(20)에 의해 생성되는 샘플 이미지(4)는 입력되는 제1 이미지(1)에 포함된 다각형들을 배경과 분리하여 윤곽선을 구분한 이미지이다.
샘플 이미지(4)와 변환 이미지(3)의 소정 지점의 형상이 일치하지 않으면 변환 이미지(3)의 해당 지점을 샘플 이미지(4)의 형상으로 변환하도록 생성 모듈(10)을 업데이트한다. 변환 모델 구축 프로그램은 샘플 이미지(4)와 변환 이미지(3)가 일치할 때까지 변환 이미지(3)를 생성 모듈(10)에 반복 적용하여 생성 모듈(10)을 업데이트 한다.
도 4를 참조하여 형상 추론 모듈(30)을 이용하여 생성 모듈(10)을 업데이트하는 과정에 대해 설명한다. 형상 추론 모듈(30)은 서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 제1 이미지에 포함된 다각형의 테두리 형상과 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것으로, 변환 모델 구축 프로그램은 형상 추론 모듈(30)에 제2 학습 이미지(2)와 변환 이미지(3)를 적용하고, 변환 이미지(3)에 포함된 적어도 하나 이상의 제1 다각형(3a)의 테두리 형상과 상기 제2 학습 이미지(2)에 포함된 제2 다각형(2a)의 테두리 형상을 비교하여 형상의 일치 여부를 판단한다.
제1 다각형(3a)의 테두리 형상과 제2 다각형(2a)의 테두리 형상이 일치하지 않는 경우, 제1 다각형(3a)의 테두리 형상을 제2 다각형(2a)의 테두리 형상으로 변환하도록 생성 모듈(10)을 업데이트한다. 변환 모델 구축 프로그램은 제1 다각형(3a)의 테두리 형상과 제2 다각형(2a)의 테두리 형상이 일치할 때까지 변환 이미지(3)를 생성 모듈(10)에 반복 적용하여 생성 모듈(10)을 업데이트한다.
도 5를 참조하여 판별자 모듈(40)을 이용하여 생성 모듈(10)을 업데이트하는 과정에 대해 설명한다. 판별자 모듈(40)은 적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 구분하는 것으로, 판별자 모듈(40)은 제1 학습 이미지(1) 및 변환 이미지(3)를 가짜로 인식하고, 제2 학습 이미지(2)를 진짜로 인식하도록 설정된다. 변환 모델 구축 프로그램은 변환 이미지(3)가 판별자 모듈(40)에서 진짜로 인식될 때까지 변환 이미지(3)를 생성 모듈(10)에 반복 적용하여 생성 모듈(10)을 업데이트하는데, 변환 이미지(3)가 진짜로 판단될 때까지 분할 윤곽 모듈(20) 및 형상 추정 모듈(30)에 변환 이미지(3)를 반복 적용하여 생성 모듈(10)을 업데이트한다.
추가적으로, 분할 윤곽 모듈(20)을 이용하여 생성 모듈(10)을 업데이트하는 과정, 형상 추론 모듈(30)을 이용하여 생성 모듈(10)을 업데이트하는 과정 및 판별자 모듈(40)을 이용하여 생성 모듈(10)을 업데이트하는 과정은 순차적으로 이루어질 수도 있고, 모두 동시에 이루어질 수도 있다.
통신 모듈(130)은 외부 장치와 데이터 통신을 수행하도록 하고, 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치를 포함할 수 있다.
데이터베이스(140)는 변환 모델을 학습하거나, 동작하기 위한 다양한 데이터가 저장될 수 있다. 예를 들면, 변환 모델을 학습하기 위한 학습 이미지가 저장될 수 있다.
한편, 본 발명의 일실시예에 따른 변환 모델 구축 장치(100)는 외부 컴퓨팅 장치로부터 제1 학습 이미지 및 제2 학습 이미지를 수신하고, 이를 기반으로 변환 모델을 구축하는 서버의 형태로도 동작할 수 있다.
도 6은 본 발명의 일 실시예에 따른 변환 모델 구축 방법을 설명하기 위한 흐름도로, 본 발명은 변환 모델 구축 장치를 이용하여 제1 유형의 이미지를 제2 유형으로 변환하는 변환 모델을 구축하는 방법이다.
도 1 내지 도 6을 참조하여 본 실시예에 따른 변환 모델 구축 방법을 설명하면, 변환 모델 구축 방법은 분할 윤곽 모듈(20)을 이용하여 제1 유형의 제1 학습 이미지(1)를 변환 이미지(3)로 가공하도록 생성 모듈을 업데이트하고(단계 S110), 제2 유형의 제2 학습 이미지(2)와 형상 추정 모듈(30)을 이용하여 제2 형상으로 변환 이미지(3)를 가공하도록 생성 모듈(10)을 업데이트하며(단계 S120), 판별자 모듈(40)에 설정된 조건에 따라, 판별자 모듈(40)에서 변환 이미지(3)가 진짜로 판별되도록 생성 모듈(10)을 업데이트(단계 S130)하는 과정을 통해 변환 모델을 학습한다.
이후, 각 단계에 대한 세부 사항을 설명한다.
먼저, 도 3을 참조하여 분할 윤곽 모듈(20)을 이용하여 생성 모듈(10)을 업데이트하는 과정(단계 S110)을 설명하면, 제1 학습 이미지(1)를 분할 윤곽 모듈(20)에 적용하여 샘플 이미지(4)를 생성하고, 샘플 이미지(4)와 변환 이미지(3)를 비교하여 일치 여부를 판단한다. 샘플 이미지(4)와 변환 이미지(3)의 일부 지점의 형상이 일치하지 않으면 변환 이미지(3)의 해당 지점을 샘플 이미지(4)의 형상으로 변환하도록 생성 모듈(10)을 업데이트한다. 이러한 과정을 샘플 이미지(4)와 변환 이미지(3)가 일치할 때까지 생성 모듈(10)에 반복 적용하여 생성 모듈(10)을 업데이트 한다.
다음으로, 도 4를 참조하여 형상 추론 모듈(30)을 이용하여 생성 모듈(10)을 업데이트하는 과정(단계 S120)에 대해 설명하면, 형상 추론 모듈(30)에 제2 학습 이미지(2)와 변환 이미지(3)를 적용하고, 변환 이미지(3)에 포함된 적어도 하나 이상의 제1 다각형(3a)의 테두리 형상과 상기 제2 학습 이미지(2)에 포함된 제2 다각형(2a)의 테두리 형상을 비교하여 형상의 일치 여부를 판단한다.
제1 다각형(3a)의 테두리 형상과 제2 다각형(2a)의 테두리 형상이 일치하지 않는 경우, 제1 다각형(3a)의 테두리 형상을 제2 다각형(2a)의 테두리 형상으로 변환하도록 생성 모듈(10)을 업데이트한다. 변환 모델 구축 프로그램은 제1 다각형(3a)의 테두리 형상과 제2 다각형(2a)의 테두리 형상이 일치할 때까지 변환 이미지(3)를 생성 모듈(10)에 반복 적용하여 생성 모듈(10)을 업데이트한다.
마지막으로, 도 5를 참조하여 판별자 모듈(40)을 이용하여 생성 모듈(10)을 업데이트하는 과정(단계 S130)에 대해 설명하면, 판별자 모듈(40)은 제1 학습 이미지(1) 및 변환 이미지(3)를 가짜로 인식하고, 제2 학습 이미지(3)를 진짜로 인식하도록 설정된다. 그리고, 변환 이미지(3)가 판별자 모듈(40)에서 진짜로 인식될 때까지 변환 이미지(3)를 생성 모듈(10)에 반복 적용하여 생성 모듈(10)을 업데이트하는데, 변환 이미지(3)가 진짜로 판단될 때까지 분할 윤곽 모듈(20) 및 형상 추정 모듈(30)에 변환 이미지(3)를 반복 적용하여 생성 모듈(10)을 업데이트한다.
추가적으로, 앞서 설명한 단계 S110, 단계 S120 및 단계 S130은 순차적으로 이루어질 수도 있고, 모두 동시에 이루어질 수도 있다.
도 7은 본 발명의 일실시예에 따른 이미지 매칭 장치를 개략적으로 나타낸 블럭도이다.
도 7을 참조하여 본 발명의 일 실시예에 따른 이미지 매칭 장치(200) 에 대해 설명한다. 이미지 매칭 장치(200)는 서로 다른 유형의 이미지의 매칭 여부를 판단한다. 이를 수행하기 위해 이미치 매칭 장치(200)는 메모리(210) 및 프로세서(220)를 포함한다.
메모리(210)는 이미지 매칭 프로그램이 저장된다. 메모리(210)는 전원이 공급되지 않아도 저장된 정보를 계속 유지하는 비휘발성 저장장치 및 저장된 정보를 유지하기 위하여 전력을 필요로 하는 휘발성 저장장치를 통칭하는 것으로 해석되어야 한다. 메모리(210)는 프로세서(220)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행할 수 있다. 메모리(210)는 저장된 정보를 유지하기 위하여 전력이 필요한 휘발성 저장장치 외에 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
그리고, 프로세서(220)는 메모리(110)에 저장된 이미지 매칭 프로그램을 실행하여 서로 다른 유형의 이미지 사이의 매칭 여부를 판단한다. 도 5를 참조하여 이미지 매칭 프로그램의 동작에 대해 설명하면, 이미지 매칭 프로그램은 물체를 촬영한 제1 유형의 제1 이미지(5)를 변환 모델이 적용하여 제2 유형의 제2 이미지(6)를 생성하고, 이미지 매칭 조건에 따라 제2 이미지(6)와 제2 유형의 제3 이미지(7) 사이의 매칭 여부를 판단하는 것이다.
여기서, 변환 모델은 생성 모듈, 분할 윤곽 모듈, 형상 추론 모듈 및 판별자 모듈을 통해 기계학습 되어 제1 유형의 이미지를 제2 유형으로 변환하는 것이다. 생성 모듈은, 제1 유형의 이미지를 가공하는 것이고, 분할 윤곽 모듈은, 입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 다각형의 윤곽선을 구분하는 것이며, 형상 추론 모듈은 서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 제1 이미지에 포함된 다각형의 테두리 형상과 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고, 판별자 모듈은, 적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것이다. 또한, 물체는 제3 이미지(7)를 이용하여 제작된 것인데, 예를 들어, 제3 이미지(7)는 물체를 제작하기 위한 설계도일 수 있다.
도 7 내지 도 14는 이미지 매칭 프로그램의 동작을 설명하기 위한 예시도이다. 도 7 내지 도 14를 참조하여 이미지 매칭 프로그램이 제2 이미지와 제3 이미지의 매칭 여부를 판단하는 과정에 대한 다양한 실시예를 설명한다.
도 9를 참조하여 본 발명의 일실시예에 따른 이미지 매칭 프로그램이 제2 이미지(6)와 제3 이미지(7)의 매칭 여부를 판단하는 과정을 구체적으로 설명하면, 이미지 매칭 프로그램은 제3 이미지(7) 위에서 제2 이미지(6)를 이동하여 대응되는 지점을 탐색해 제2 이미지(6)와 제3 이미지(7)의 매칭 여부를 판단한다.
도 10 및 도 11을 참조하여 본 발명의 일 실시예에 따른 이미지 매칭 프로그램이 제2 이미지(6)와 제3 이미지(7)의 매칭 여부를 판단하는 과정을 구체적으로 설명한다.
도 10을 참조하면, 이미지 매칭 프로그램은 제2 이미지(6)에 포함된 적어도 하나 이상의 다각형 중 어느 하나 이상에 제1 매칭 포인트(6a)를 설정하고, 제3 이미지(7)에서 제1 매칭 포인트(6a)와 대응되는 제2 매칭 포인트(7a)를 설정한다. 그리고, 적어도 하나 이상의 제1 매칭 포인트(6a) 각각에 대한 정보를 포함하는 제1 특징 벡터(6b)를 생성하고, 제2 매칭 포인트(7a) 각각의 정보를 포함하는 제2 특징 벡터(7b)를 생성한다.
이후, 도 11에 도시된 것처럼 이미지 매칭 프로그램은 제1 특징 벡터(6a)와 제2 특징 벡터(7b)를 비교하고, 특징 벡터들 사이의 유사도에 따라 제3 이미지(7) 상에 제2 이미지(6)를 배치하여 제2 이미지(6)와 상기 제3 이미지(7)의 매칭 여부를 판단한다.
도 12 및 도 13을 참조하여 본 발명의 일 실시예에 따른 이미지 매칭 프로그램이 제2 이미지(6)와 제3 이미지(7)의 매칭 여부를 판단하는 과정을 구체적으로 설명한다.
도 12를 참조하면, 이미지 매칭 프로그램은 제2 이미지(6)에 포함된 적어도 하나 이상의 다각형 중 어느 하나 이상에 대하여 제1 중심점(6c)을 설정하고, 제3 이미지에서 제1 중심점(6c)과 대응되는 제2 중심점(7c)을설정한다.
그리고, 도 13에 도시된 것처럼 제1 중심점(6c)과 제2 중심점(7c)을 매칭하여 제2 이미지(6)와 제3 이미지(7)의 매칭 여부를 판단한다.
결과적으로, 이미지 매칭 프로그램은 위와 같은 과정을 통해 도 14에 도시된 것처럼 제3 이미지(7) 상에 제1 이미지(5)를 매칭할 수 있다.
추가적으로, 본 실시예에서, 프로세서(220)는 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 형태로 구현될 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.
통신 모듈(230)은 외부 장치와 신호 데이터 대한 데이터 통신을 수행하기 위해, 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하는데 요구되는 하드웨어 및 소프트웨어를 포함하는 장치를 포함할 수 있다.
데이터베이스(240)는 이미지 매칭 프로그램이 동작하기 위한 다양한 데이터가 저장될 수 있다. 예를 들면, 대상 공간(20) 대한 맵데이터와 같이 위치 정보 제공 프로그램이 동작하는데 요구되는 데이터가 저장될 수 있다.
한편, 이미지 매칭 장치(200)는 외부 장치로부터 신호 데이터를 수신하고, 이를 변환 모델에 입력하여 제1 유형의 제1 이미지를 제2 유형의 제2 이미지로 변환하고, 제2 이미지와 제2 유형의 제3 이미지 사이의 매칭 여부를 판단하는 서버의 형태로도 동작할 수 있다.
도 15는 본 발명의 일 실시예에 따른 이미지 매칭 방법을 설명하기 위한 흐름도이다.
도 8 및 도 15를 참조하여 본 실시예의 위치 정보 제공 방법(S200)을 설명하면, 본 실시예는 물체를 촬영하여 제1 유형의 제1 이미지(5)를 생성하고(단계 S210), 제1 이미지(5)를 변환 모델에 적용하여 제2 유형의 제2 이미지(6)를 생성한다(단계 S220). 이후, 이미지 매칭 조건에 따라 제2 이미지(6)와 제2 유형의 제3 이미지(7) 사이의 매칭 여부를 판단한다(단계 S230, S240, S250).
여기서, 변환 모델은 생성 모듈, 분할 윤곽 모듈, 형상 추론 모듈 및 판별자 모듈을 통해 기계학습 되어 제1 유형의 이미지를 제2 유형으로 변환하는 것이다. 생성 모듈은, 제1 유형의 이미지를 가공하는 것이고, 분할 윤곽 모듈은, 입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 다각형의 윤곽선을 구분하는 것이며, 형상 추론 모듈은 서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 제1 이미지에 포함된 다각형의 테두리 형상과 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고, 판별자 모듈은, 적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것이다. 또한, 물체는 제3 이미지(7)를 이용하여 제작된 것인데, 예를 들어, 제3 이미지(7)는 물체를 제작하기 위한 설계도일 수 있다.
이후, 제2 이미지와 제3 이미지의 매칭 여부를 판단하는 과정(단계 S230, S240, S250)에 대한 다양한 실시예를 설명한다.
도 9를 참조하여 본 발명의 일실시예에 따른 제2 이미지(6)와 제3 이미지(7)의 매칭 여부를 판단하는 과정(단계 S230)을 구체적으로 설명하면, 이미지 매칭 프로그램은 제3 이미지(7) 위에서 제2 이미지(6)를 이동하여 대응되는 지점을 탐색해 제2 이미지(6)와 제3 이미지(7)의 매칭 여부를 판단한다.
도 10, 도 11 및 도 16을 참조하여 본 발명의 일 실시예에 따른 제2 이미지(6)와 제3 이미지(7)의 매칭 여부를 판단하는 과정(단계 S240)을 구체적으로 설명한다.
도 10을 참조하면, 이미지 매칭 프로그램은 제2 이미지(6)에 포함된 적어도 하나 이상의 다각형 중 어느 하나 이상에 제1 매칭 포인트(6a)를 설정(단계 S241)하고, 제3 이미지(7)에서 제1 매칭 포인트(6a)와 대응되는 제2 매칭 포인트(7a)를 설정(단계 S242)한다. 그리고, 적어도 하나 이상의 제1 매칭 포인트(6a) 각각에 대한 정보를 포함하는 제1 특징 벡터(6b)를 생성하고, 제2 매칭 포인트(7a) 각각의 정보를 포함하는 제2 특징 벡터(7b)를 생성(단계 S243)한다.
이후, 도 11에 도시된 것처럼 이미지 매칭 프로그램은 제1 특징 벡터(6a)와 제2 특징 벡터(7b)를 비교하고, 특징 벡터들 사이의 유사도에 따라 제3 이미지(7) 상에 제2 이미지(6)를 배치하여 제2 이미지(6)와 상기 제3 이미지(7)의 매칭 여부를 판단(단계 S244)한다.
도 12, 도 13 및 도 17을 참조하여 본 발명의 일 실시예에 따른 이미지 매칭 프로그램이 제2 이미지(6)와 제3 이미지(7)의 매칭 여부를 판단하는 과정(단계 S250)을 구체적으로 설명한다.
도 12를 참조하면, 제2 이미지(6)에 포함된 적어도 하나 이상의 다각형 중 어느 하나 이상에 대하여 제1 중심점(6c)을 설정(단계 S251)하고, 제3 이미지에서 제1 중심점(6c)과 대응되는 제2 중심점(7c)을설정(단계 S252)한다.
그리고, 도 13에 도시된 것처럼 제1 중심점(6c)과 제2 중심점(7c)을 매칭하여 제2 이미지(6)와 제3 이미지(7)의 매칭 여부를 판단(단계 S253)한다.
결과적으로, 본 발명의 이미지 매칭 방법(S200)은 위와 같은 과정을 통해 도 9에 도시된 것처럼 제3 이미지(7) 상에 제1 이미지(5)를 매칭할 수 있다. 이와 같은 이미지 매칭을 통한 이미지 정렬 이후, 설계도와 실제 제작된 제품의 차이에 기초하여 제품의 결합 발생 정도를 결정할 수 있다.
본 발명은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체를 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다.
또한, 본 발명의 방법 및 시스템은 특정 실시예와 관련하여 설명되었지만, 그것들의 구성 요소 또는 동작의 일부 또는 전부는 범용 하드웨어 아키텍쳐를 갖는 컴퓨터 시스템을 사용하여 구현될 수 있다.
본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 상술한 설명을 기초로 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해되어야만 한다. 본 발명의 범위는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본원의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본원의 범위에 포함되는 것으로 해석되어야 한다.

Claims (31)

  1. 이미지의 유형을 변환하는 변환 모듈을 구축하는 변환 모델 구축 장치에 있어서,
    변환 모델 구축 프로그램이 저장된 메모리; 및
    상기 변환 모델 구축 프로그램을 실행하는 프로세서를 포함하고,
    상기 변환 모델 구축 프로그램은,
    분할 윤곽 모듈을 이용하여 제1 유형의 제1 학습 이미지를 변환 이미지로 가공하도록 생성 모듈을 업데이트하고, 형상 추정 모듈을 이용하여 제2 유형의 제2 학습 이미지의 형상으로 상기 변환 이미지를 가공하도록 상기 생성 모듈을 업데이트하며, 판별자 모듈에 설정된 조건에 따라, 상기 판별자 모듈에서 상기 변환 이미지가 진짜로 판별되도록 상기 생성 모듈을 업데이트하여 변환 모델을 학습시키는 것이며,
    상기 변환 모델은, 상기 생성 모듈, 상기 분할 윤곽 모듈, 상기 형상 추정 모듈 및 상기 판별자 모듈을 포함하고,
    상기 분할 윤곽 모듈은,
    입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 상기 다각형의 윤곽선을 구분하는 것이며,
    상기 형상 추론 모듈은,
    서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 상기 제1 이미지에 포함된 다각형의 테두리 형상과 상기 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고,
    상기 판별자 모듈은,
    적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것인, 변환 모델 구축 장치
  2. 제1항에 있어서,
    상기 변환 모델 구축 프로그램은,
    상기 제1 학습 이미지를 상기 분할 윤곽 모듈에 적용하여 샘플 이미지를 생성하고, 상기 샘플 이미지와 상기 변환 이미지를 비교하여 일치 여부를 판단하는 것인, 변환 모델 구축 장치.
  3. 제2항에 있어서,
    상기 변환 모델 구축 프로그램은,
    상기 샘플 이미지와 상기 변환 이미지의 소정 지점의 형상이 일치하지 않으면, 상기 변환 이미지의 상기 지점을 상기 샘플 이미지의 형상으로 변환하도록 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 장치.
  4. 제3항에 있어서,
    상기 변환 모델 구축 프로그램은,
    상기 샘플 이미지와 상기 변환 이미지가 일치할 때까지 상기 변환 이미지를 상기 생성 모듈에 반복 적용하여 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 방법.
  5. 제1항에 있어서,
    상기 변환 모델 구축 프로그램은,
    상기 형상 추론 모듈에 상기 제2 학습 이미지와 상기 변환 이미지를 적용하고, 상기 변환 이미지에 포함된 적어도 하나 이상의 제1 다각형의 테두리 형상과 상기 제2 학습 이미지에 포함된 제2 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것인, 변환 모델 구축 장치.
  6. 제5항에 있어서,
    상기 변환 모델 구축 프로그램은,
    상기 제1 다각형의 테두리 형성과 상기 제2 다각형의 테두리 형상이 일치하지 않는 경우, 상기 제1 다각형의 테두리 형상을 상기 제2 다각형의 테두리 형상으로 변환하도록 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 장치.
  7. 제6항에 있어서,
    상기 변환 모델 구축 프로그램은,
    상기 제1 다각형의 테두리 형상과 상기 제2 다각형의 테두리 형상이 일치할 때까지 상기 변환 이미지를 상기 생성 모듈에 반복 적용하여 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 장치.
  8. 제1항에 있어서,
    상기 판별자 모듈은,
    상기 제1 학습 이미지 및 상기 변환 이미지를 가짜로, 상기 제2학습 이미지를 진짜로 판단하도록 설정되며,
    상기 변환 모델 구축 프로그램은,
    상기 변환 이미지가 상기 판별자 모듈에서 진짜로 판단될 때까지 상기 변환 이미지를 상기 생성 모듈에 반복 적용하여 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 장치.
  9. 제8항에 있어서,
    상기 변환 모델 구축 프로그램은,
    상기 판별자 모듈에 입력된 상기 변환 이미지가 진짜로 판단될 때까지 상기 분할 윤곽 모듈 및 상기 형상 추정 모듈에 상기 변환 이미지를 반복 적용하여 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 장치.
  10. 제1항에 있어서,
    상기 변환 모델은,
    비지도 학습(Unsupervised Learning)을 통해 학습되는 것인, 변환 모델 구축 장치.
  11. 변환 모델 구축 장치를 이용하여 이미지의 유형을 변환하는 변환 모델을 구축하는 방법에 있어서,
    (a) 분할 윤곽 모듈을 이용하여 제1 유형의 제1 학습 이미지를 변환 이미지로 가공하도록 생성 모듈을 업데이트하는 단계;
    (b) 제2 유형의 제2 학습 이미지와 형상 추정 모듈을 이용하여 제2 유형으로 상기 변환 이미지를 가공하도록 상기 생성 모듈을 업데이트하는 단계; 및
    (c) 판별자 모듈에 설정된 조건에 따라, 상기 판별자 모듈에서 상기 변환 이미지가 진짜로 판별되도록 상기 생성 모듈을 업데이트하는 단계를 포함하되,
    상기 변환 모델은, 상기 생성 모듈, 상기 분할 윤곽 모듈, 상기 형상 추정 모듈 및 상기 판별자 모듈을 포함하고,
    상기 분할 윤곽 모듈은,
    입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 상기 다각형의 윤곽선을 구분하는 것이며,
    상기 형상 추론 모듈은,
    서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 상기 제1 이미지에 포함된 다각형의 테두리 형상과 상기 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고,
    상기 판별자 모듈은,
    적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것인, 변환 모델 구축 방법.
  12. 제11항에 있어서,
    상기 (a) 단계는,
    상기 제1 학습 이미지를 상기 분할 윤곽 모듈에 적용하여 샘플 이미지를 생성하고, 상기 샘플 이미지와 상기 변환 이미지를 비교하여 일치 여부를 판단하는 것인, 변환 모델 구축 방법.
  13. 제12항에 있어서,
    상기 (a) 단계는,
    상기 샘플 이미지와 상기 변환 이미지의 소정 지점의 형상이 일치하지 않으면, 상기 변환 이미지의 상기 지점을 상기 샘플 이미지의 형상으로 변환하도록 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 방법.
  14. 제13항에 있어서,
    상기 (a) 단계는,
    상기 샘플 이미지와 상기 변환 이미지가 일치할 때까지 상기 변환 이미지를 상기 생성 모듈에 반복 적용하여 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 방법.
  15. 제11항에 있어서,
    상기 (b) 단계는,
    상기 형상 추론 모듈에 상기 제2 학습 이미지와 상기 변환 이미지를 적용하고, 상기 변환 이미지에 포함된 적어도 하나 이상의 제1 다각형의 테두리 형상과 상기 제2 학습 이미지에 포함된 제2 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것인, 변환 모델 구축 방법.
  16. 제15항에 있어서,
    상기 (b) 단계는,
    상기 제1 다각형의 테두리 형성과 상기 제2 다각형의 테두리 형상이 일치하지 않으면, 상기 제1 다각형의 테두리 형상을 상기 제2 다각형의 테두리 형상으로 변환하도록 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 방법.
  17. 제16항에 있어서,
    상기 (b) 단계는,
    상기 제1 다각형의 테두리 형상과 상기 제2 다각형의 테두리 형상이 일치할 때까지 상기 변환 이미지를 상기 생성 모듈에 반복 적용하여 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 방법.
  18. 제11항에 있어서,
    상기 (c) 단계는,
    상기 판별자 모듈은,
    상기 제1 학습 데이터 및 상기 변환 데이터를 가짜로, 상기 제2학습 데이터를 진짜로 판단하도록 설정되며,
    상기 변환 이미지가 상기 판별자 모듈에서 진짜로 판단될 때까지 상기 변환 이미지를 상기 생성 모듈에 반복 적용하여 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 방법.
  19. 제18항에 있어서,
    상기 (c) 단계는,
    상기 판별자 모듈에 입력된 상기 변환 이미지가 진짜로 판단될 때까지 상기 (a) 단계 및 상기 (b) 단계를 반복하여 상기 생성 모듈을 업데이트하는 것인, 변환 모델 구축 방법.
  20. 제11항에 있어서,
    상기 변환 모델은,
    비지도 학습(Unsupervised Learning)을 통해 학습되는 것인, 변환 모델 구축 방법.
  21. 서로 다른 유형의 이미지 간의 매칭 여부를 판단하는 이미지 매칭 장치에 있어서,
    이미지 매칭 프로그램이 저장된 메모리; 및
    상기 이미지 매칭 프로그램을 실행하는 프로세서를 포함하되,
    상기 이미지 매칭 프로그램은,
    물체를 촬영한 제1 유형의 제1 이미지를 변환 모델에 적용하여 제2 유형의 제2 이미지를 생성하고, 이미지 매칭 조건에 따라 상기 제2 이미지와 제2 유형의 제3 이미지 사이의 매칭 여부를 판단하는 것이며,
    상기 물체는 상기 제3 이미지를 이용하여 제조된 것이고,
    상기 변환 모델은,
    생성 모듈, 분할 윤곽 모듈, 형상 추론 모듈 및 판별자 모듈을 통해 기계 학습되어 상기 제1 유형의 이미지를 상기 제2 유형으로 변환하는 것이며,
    상기 생성 모듈은,
    상기 제1 유형의 이미지를 가공하는 것이고,
    상기 분할 윤곽 모듈은,
    입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 상기 다각형의 윤곽선을 구분하는 것이며,
    상기 형상 추론 모듈은,
    서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 상기 제1 이미지에 포함된 다각형의 테두리 형상과 상기 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고,
    상기 판별자 모듈은,
    적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것인, 이미지 매칭 장치.
  22. 제21항에 있어서,
    상기 이미지 매칭 프로그램은,
    상기 제3 이미지 상에서 상기 제2 이미지를 이동시켜 대응되는 지점을 탐색하여 상기 제2 이미지와 상기 제3 이미지의 매칭 여부를 판단하는 것인, 이미지 매칭 장치.
  23. 제22항에 있어서,
    상기 이미지 매칭 프로그램은,
    상기 제2 이미지에 포함된 적어도 하나 이상의 다각형 중 어느 하나 이상에 대하여 제1 매칭 포인트를 설정하고,
    상기 제3 이미지에서 상기 제1 매칭 포인트와 대응되는 제2 매칭 포인트를 설정하며,
    적어도 하나 이상의 상기 제1 매칭 포인트와 상기 제2 매칭 포인트 각각의 정보를 포함하는 특징 벡터를 생성하는 것인, 이미지 매칭 장치.
  24. 제23항에 있어서,
    상기 이미지 매칭 프로그램은,
    적어도 하나 이상의 상기 제1 매칭 포인트와 상기 제2 매칭 포인트 각각에 대한 상기 특징 벡터를 비교하고, 상기 특징 벡터 사이의 유사도에 따라 상기 제3 이미지 상에 상기 제2 이미지를 매칭하여 상기 제2 이미지와 상기 제3 이미지의 매칭 여부를 판단하는 것인, 이미지 매칭 장치.
  25. 제21항에 있어서,
    상기 이미지 매칭 프로그램은,
    상기 제2 이미지에 포함된 적어도 하나 이상의 다각형 중 어느 하나 이상에 대하여 제1 중심점을 설정하고,
    상기 제3 이미지에서 상기 제1 중심점과 대응되는 제2 중심점을 설정하는 것인, 이미지 매칭 장치.
  26. 제25항에 있어서,
    상기 이미지 매칭 프로그램은,
    상기 제1 중심점과 상기 제2 중심점을 매칭하여 상기 제2 이미지와 상기 제3 이미지의 매칭 여부를 판단하는 것인, 이미지 매칭 장치.
  27. 이미지 매칭 장치를 이용하여 서로 다른 유형의 이미지의 매칭 여부를 판단하는 이미지 매칭 방법에 있어서,
    (a) 물체를 촬영하여 제1 유형의 제1 이미지를 생성하는 단계;
    (b) 상기 제1 이미지를 변환 모델에 적용하여 제2 유형의 제2 이미지를 생성하는 단계; 및
    (c) 이미지 매칭 조건에 따라 상기 제2 이미지와 제2 유형의 제3 이미지 사이의 매칭 여부를 판단하는 단계를 포함하되,
    상기 물체는 상기 제3 이미지를 통해 제조된 것이고,
    상기 변환 모델은,
    생성 모듈, 분할 윤곽 모듈, 형상 추론 모듈 및 판별자 모듈을 통해 기계 학습되어 상기 제1 유형의 이미지를 상기 제2 유형으로 변환하는 것이며,
    상기 생성 모듈은,
    상기 제1 유형의 이미지를 가공하는 것이고,
    상기 분할 윤곽 모듈은,
    입력되는 이미지에 포함된 적어도 하나이상의 다각형을 배경과 분리하여 상기 다각형의 윤곽선을 구분하는 것이며,
    상기 형상 추론 모듈은,
    서로 다른 유형의 제1 이미지와 제2 이미지가 입력되면, 상기 제1 이미지에 포함된 다각형의 테두리 형상과 상기 제2 이미지에 포함된 적어도 하나 이상의 다각형의 테두리 형상을 비교하여 형상의 일치 여부를 판단하는 것이고,
    상기 판별자 모듈은,
    적어도 하나 이상의 입력되는 이미지에 대하여 설정된 조건에 따라 진짜와 가짜를 판단하는 것인, 이미지 매칭 방법.
  28. 제27항에 있어서,
    상기 (c) 단계는,
    상기 제3 이미지 상에서 상기 제2 이미지와 일치하는 지점을 탐색하여 상기 제2 이미지와 상기 제3 이미지의 매칭 여부를 판단하는 것인, 이미지 매칭 방법.
  29. 제27항에 있어서,
    상기 (c) 단계는,
    상기 제2 이미지에 포함된 적어도 하나 이상의 다각형 중 어느 하나 이상에 대하여 제1 매칭 포인트를 설정하는 단계;
    상기 제3 이미지에서 상기 제1 매칭 포인트와 대응되는 제2 매칭 포인트를 설정하는 단계; 및
    적어도 하나 이상의 상기 제1 매칭 포인트와 상기 제2 매칭 포인트 각각에 대한 정보를 포함하는 특징 벡터를 생성하는 단계를 포함하는 것인, 이미지 매칭 방법.
  30. 제29항에 있어서,
    상기 (c) 단계는,
    적어도 하나 이상의 상기 제1 매칭 포인트와 상기 제2 매칭 포인트 각각에 대한 상기 특징 벡터를 비교하고, 상기 특징 벡터 사이의 유사도에 따라 상기 제3 이미지 상에 상기 제2 이미지를 매칭하여 상기 제2 이미지와 상기 제3 이미지의 매칭 여부를 판단하는 단계를 더 포함하는 것인, 이미지 매칭 방법.
  31. 제27항에 있어서,
    상기 (c) 단계는,
    상기 제2 이미지에 포함된 적어도 하나 이상의 다각형 중 어느 하나 이상에 대하여 제1 중심점을 설정하는 단계;
    상기 제3 이미지에서 상기 제1 중심점과 대응되는 제2 중심점을 설정하는 단계; 및
    상기 제1 중심점과 상기 제2 중심점을 매칭하여 상기 제2 이미지와 상기 제3 이미지의 매칭 여부를 판단하는 단계를 포함하는 것인, 이미지 매칭 방법.
PCT/KR2023/013118 2022-09-05 2023-09-04 변환 모델 구축 장치 및 방법과 이를 이용한 이미지 매칭 장치 및 방법 WO2024053948A1 (ko)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020220111861A KR20240033343A (ko) 2022-09-05 2022-09-05 변환 모델 구축 장치 및 방법과 이를 이용한 이미지 매칭 장치 및 방법
KR10-2022-0111861 2022-09-05

Publications (1)

Publication Number Publication Date
WO2024053948A1 true WO2024053948A1 (ko) 2024-03-14

Family

ID=90191383

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2023/013118 WO2024053948A1 (ko) 2022-09-05 2023-09-04 변환 모델 구축 장치 및 방법과 이를 이용한 이미지 매칭 장치 및 방법

Country Status (2)

Country Link
KR (1) KR20240033343A (ko)
WO (1) WO2024053948A1 (ko)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200080409A (ko) * 2018-12-19 2020-07-07 주식회사 포스코 미세 조직 분석 장치
WO2021199018A1 (en) * 2020-03-31 2021-10-07 Applied Materials Israel Ltd. Examination of a semiconductor specimen
KR102317992B1 (ko) * 2021-03-26 2021-10-28 주식회사 트윔 뉴럴 네트워크를 이용한 제품 검사 방법, 장치 및 제품 검사 장치 학습 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200080409A (ko) * 2018-12-19 2020-07-07 주식회사 포스코 미세 조직 분석 장치
WO2021199018A1 (en) * 2020-03-31 2021-10-07 Applied Materials Israel Ltd. Examination of a semiconductor specimen
KR102317992B1 (ko) * 2021-03-26 2021-10-28 주식회사 트윔 뉴럴 네트워크를 이용한 제품 검사 방법, 장치 및 제품 검사 장치 학습 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
"Thesis", 1 August 2022, SEOUL NATIONAL UNIVERSITY, Korea, article NAM, YUNHYOUNG: "Automated alignment of semiconductor lithography patterns using deep generative model for metrology and inspection", pages: 1 - 128, XP009553675 *
NAM YUNHYOUNG; JOO SUNGHO; KWAK NOHONG; KIM KIHYUN; KIM DO-NYUN: "Precise Pattern Alignment for Die-to-Database Inspection Based on the Generative Adversarial Network", IEEE TRANSACTIONS ON SEMICONDUCTOR MANUFACTURING., IEEE SERVICE CENTER, PISCATAWAY, NJ., US, vol. 35, no. 3, 30 April 2022 (2022-04-30), US , pages 532 - 539, XP011916236, ISSN: 0894-6507, DOI: 10.1109/TSM.2022.3171788 *

Also Published As

Publication number Publication date
KR20240033343A (ko) 2024-03-12

Similar Documents

Publication Publication Date Title
WO2022108015A1 (ko) 지식 증류 기반 신경망 아키텍처 탐색 방법
WO2018212494A1 (ko) 객체를 식별하는 방법 및 디바이스
WO2022055099A1 (ko) 이상 탐지 방법 및 이를 위한 장치
WO2011096651A2 (ko) 얼굴 식별 방법 및 그 장치
WO2021071288A1 (ko) 골절 진단모델의 학습 방법 및 장치
WO2019235828A1 (ko) 투 페이스 질병 진단 시스템 및 그 방법
WO2021075772A1 (ko) 복수 영역 검출을 이용한 객체 탐지 방법 및 그 장치
WO2020032420A1 (en) Method for training and testing data embedding network to generate marked data by integrating original data with mark data, and training device and testing device using the same
WO2021145502A1 (ko) 얼굴 및 스트레스 인식 장치 및 방법
WO2022114653A1 (ko) 데이터 경계 도출 시스템 및 방법
WO2022197044A1 (ko) 뉴럴 네트워크를 이용한 방광병변 진단 방법 및 그 시스템
WO2023063486A1 (ko) 기계학습모델의 생성 방법 및 그 장치
WO2024053948A1 (ko) 변환 모델 구축 장치 및 방법과 이를 이용한 이미지 매칭 장치 및 방법
WO2020050456A1 (ko) 설비 데이터의 이상 정도 평가 방법
WO2019045147A1 (ko) 딥러닝을 pc에 적용하기 위한 메모리 최적화 방법
WO2022114368A1 (ko) 뉴로 심볼릭 기반 릴레이션 임베딩을 통한 지식완성 방법 및 장치
WO2024080791A1 (ko) 데이터셋을 생성하기 위한 방법
WO2024101466A1 (ko) 속성 기반 실종자 추적 장치 및 방법
WO2021015489A2 (ko) 인코더를 이용한 이미지의 특이 영역 분석 방법 및 장치
WO2022108206A1 (ko) 설명 가능한 지식그래프 완성 방법 및 장치
WO2021071258A1 (ko) 인공지능 기반의 휴대용 보안영상 학습장치 및 방법
WO2020175729A1 (ko) 가우시안 특징점맵과 회귀 기법을 이용한 얼굴 특징점 검출 장치 및 방법
WO2023282612A1 (ko) 복수의 진단 키트의 검사 결과를 자동으로 판독하는 ai 장치 및 그 방법
WO2021182670A1 (ko) 요소 간 관계 추출 기반 이종 얼굴 인식 장치 및 방법
WO2024043531A1 (ko) 비강종물 감별을 위한 모델의 학습 방법 및 학습 장치, 비강종물 감별 방법 및 장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23863423

Country of ref document: EP

Kind code of ref document: A1