KR20180072020A - Method, apparatus and computer program stored in computer readable medium for correction of image data - Google Patents

Method, apparatus and computer program stored in computer readable medium for correction of image data Download PDF

Info

Publication number
KR20180072020A
KR20180072020A KR1020160174471A KR20160174471A KR20180072020A KR 20180072020 A KR20180072020 A KR 20180072020A KR 1020160174471 A KR1020160174471 A KR 1020160174471A KR 20160174471 A KR20160174471 A KR 20160174471A KR 20180072020 A KR20180072020 A KR 20180072020A
Authority
KR
South Korea
Prior art keywords
image data
target image
feature point
reference image
feature points
Prior art date
Application number
KR1020160174471A
Other languages
Korean (ko)
Other versions
KR101905000B1 (en
Inventor
송기영
윤관우
변경목
Original Assignee
주식회사 수아랩
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 수아랩 filed Critical 주식회사 수아랩
Priority to KR1020160174471A priority Critical patent/KR101905000B1/en
Publication of KR20180072020A publication Critical patent/KR20180072020A/en
Application granted granted Critical
Publication of KR101905000B1 publication Critical patent/KR101905000B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20016Hierarchical, coarse-to-fine, multiscale or multiresolution image processing; Pyramid transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging

Abstract

According to an embodiment of the present invention, disclosed is a method for correcting target image data, which comprises the steps of: generating reference image data on the basis of a plurality of normal image data without defects; detecting one or more reference image feature points from the reference image data; detecting one or more target image feature points from target image data; determining a target image estimated feature point and a reference image estimated feature point for each of an undetected feature point and an unmatched feature point from the reference image data and the target image data, on the basis of at least a part of an algorithm for estimating feature points; matching the reference image data and the target image data on the basis of at least the reference image feature points, the target image feature points, and the estimated feature points; and recovering at least a part of the target image data lost by illumination.

Description

이미지 데이터의 보정 방법, 장치 및 컴퓨터-판독가능 저장 매체에 저장된 컴퓨터 프로그램{METHOD, APPARATUS AND COMPUTER PROGRAM STORED IN COMPUTER READABLE MEDIUM FOR CORRECTION OF IMAGE DATA}[0001] METHOD, APPARATUS AND COMPUTER PROGRAM STORED IN COMPUTER READABLE MEDIUM FOR CORRECTION OF IMAGE DATA [0002]

본 발명은 이미지 데이터의 보정 방법에 관한 것으로, 보다 구체적으로 이미지 데이터의 상태 판단을 위한 이미지 데이터의 보정 방법에 관한 것이다.The present invention relates to a method of correcting image data, and more particularly, to a method of correcting image data for determining the state of image data.

공정에서 검사 목표인 타겟들이 이미지화 되어 결함 여부가 검사된다. 반면,이미지 데이터를 사람이 검측하고 분석하는 것에는 한계가 있으며 정확도가 높은 이미지 데이터의 상태 판단 방법이 당 업계에서 요구된다. 정확도가 높은 이미지 데이터의 상태 판단 방법을 구현하기 위해 신경망 네트워크(neural network)가 이용될 수 있다. 미국 등록 특허 7,698,239는 이러한 신경망 네트워크의 일 예를 도시한다.In the process, targets to be inspected are imaged and checked for defects. On the other hand, there is a limit in detecting and analyzing image data by a human, and a method for determining the state of image data with high accuracy is required in the art. A neural network may be used to implement a method for determining the state of image data with high accuracy. U.S. Patent No. 7,698,239 shows an example of such a neural network.

한편, 이미지 데이터 기술 영역에서 노이즈란 이미지 데이터의 픽셀 값에 추가되는 원치 않는 형태의 신호를 의미한다. 렌즈 오차에 의한 기하학적 왜곡 및 조명의 불균일 등이 그 예이다. 이런 기하학적 왜곡 현상 및 조명의 불균일은 이미지 데이터의 상태를 판단하기 위한 머신 비전 시스템이 정밀해질수록 그 판단 시스템에 검사 불능의 문제를 야기할 수 있다. On the other hand, in the image data description area, noise refers to a signal in an undesired form added to the pixel value of the image data. Geometric distortion due to lens error, and uneven illumination. Such geometric distortion phenomenon and irregularity of illumination may cause a problem of insubstantiation in the judgment system as the machine vision system for judging the state of image data becomes more precise.

이에, 이미지 데이터의 기하학적 왜곡 및 조명 불균일을 해소하기 위한 당업계의 니즈가 존재한다.Accordingly, there is a need in the art to solve the geometric distortion and illumination unevenness of the image data.

본 발명은 전술한 배경기술에 대응하여 안출된 것으로, 이미지 데이터의 보정 방법을 제공하는 것을 목적으로 한다.The present invention is devised in correspondence with the background art described above, and it is an object of the present invention to provide a method of correcting image data.

본 발명은 이미지 데이터의 보정 방법을 통해 이미지 데이터의 상태 정보를 제공하는 것을 목적으로 한다.An object of the present invention is to provide state information of image data through a method of correcting image data.

전술한 바와 같은 과제를 해결하기 위한 본 개시의 실시예들에 따른 타겟 이미지 데이터를 보정하는 방법이 개시된다. 상기 방법은:결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 참조 이미지(Reference Image) 데이터를 생성하는 단계;상기 참조 이미지 데이터로부터 하나 이상의 참조 이미지 특징점을 검출하는 단계; 상기 타겟 이미지 데이터로부터 하나 이상의 타겟 이미지 특징점을 검출하는 단계; 특징점 추정을 위한 알고리즘에 적어도 부분적으로 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지로부터 미검출된 특징점 및 미매칭된 특징점 각각에 대한 타겟 이미지 추정 특징점 및 참조 이미지 추정 특징점을 결정하는 단계;상기 참조 이미지 특징점, 상기 타겟 이미지 특징점 및 상기 추정 특징점에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 정합시키는 단계; 및조명에 의해 손실된 상기 타겟 이미지 데이터의 적어도 일부의 데이터를 복원하는 단계; 를 포함할 수 있다.A method for correcting target image data according to embodiments of the present disclosure to solve the above-described problems is disclosed. The method includes the steps of: generating reference image data based on a plurality of normal image data free from defects; detecting one or more reference image feature points from the reference image data; Detecting one or more target image feature points from the target image data; Determining a target image feature point and a reference image feature point for each of the reference image data and non-detected feature points and unmatched feature points from the target image based at least in part on an algorithm for feature point estimation, Matching the reference image data and the target image data based at least on the target image feature point and the estimated feature point; And restoring data of at least a portion of the target image data lost by the illumination; . ≪ / RTI >

대안적으로, 상기 하나 이상의 참조 이미지 특징점 및 상기 하나 이상의 타겟 이미지 특징점을 검출하는 단계는:상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 미리 설정된 크기를 갖는 하나 이상의 영역으로 분할한 후, 각 영역 내에서 특징점을 검출하는 단계;를 포함할 수 있다.Alternatively, the step of detecting the one or more reference image feature points and the one or more target image feature points may include: dividing the reference image data and the target image data into one or more regions having a predetermined size, And detecting a minutiae point.

대안적으로, 상기 미리 설정된 크기는, 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터의 이미지 해상도, 크기, 색상 모드 및 종횡 비율 중 적어도 하나에 기초하여 설정된 크기일 수 있다.Alternatively, the predetermined size may be a size that is set based on at least one of the image resolution, size, color mode, and aspect ratio of the reference image data and the target image data.

대안적으로, 상기 참조 이미지 데이터로부터 특징점을 검출하는 단계는: 특징점 검출을 위한 제 1 알고리즘에 적어도 기초하여 상기 참조 이미지 데이터로부터 특징점 후보군을 검출하는 단계; 및 특징점 검출을 위한 제 2 알고리즘에 적어도 기초하여 상기 특징점 후보군으로부터 상기 타겟 이미지 데이터와의 매칭에 필요한 특징점을 검출하는 단계; 를 더 포함할 수 있다.Alternatively, the step of detecting feature points from the reference image data may include: detecting a feature point candidate group from the reference image data based at least on a first algorithm for feature point detection; Detecting a feature point necessary for matching with the target image data from the feature point candidate group based at least on a second algorithm for feature point detection; As shown in FIG.

대안적으로, 상기 타겟 이미지 데이터로부터 하나 이상의 특징점을 검출하는 단계는: 상기 참조 이미지 데이터로부터 검출된 특징점 각각에 대한 위치 좌표에 대응되는 상기 타겟 이미지 데이터 상에 위치 좌표를 특징점으로 결정함으로써, 상기 타겟 이미지 데이터로부터 특징점 후보군을 검출하는 단계; 및 특징점 검출을 위한 제 2 알고리즘에 적어도 기초하여 상기 특징점 후보군으로부터 상기 참조 이미지 데이터와의 매칭에 필요한 특징점을 검출하는 단계; 를 더 포함할 수 있다.Alternatively, the step of detecting one or more feature points from the target image data may comprise: determining, as feature points, position coordinates on the target image data corresponding to position coordinates for each of the feature points detected from the reference image data, Detecting a feature point candidate group from the image data; Detecting a feature point necessary for matching with the reference image data from the feature point candidate group based at least on a second algorithm for feature point detection; As shown in FIG.

대안적으로, 상기 특징점 검출을 위한 제 1 알고리즘은, Harris Corner Detector 알고리즘, Shi-Tomasi Corner Detector 알고리즘 및 SIFT_DoG 알고리즘 중 적어도 하나일 수 있다.Alternatively, the first algorithm for feature point detection may be at least one of a Harris Corner Detector algorithm, a Shi-Tomasi Corner Detector algorithm, and a SIFT_DoG algorithm.

대안적으로, 상기 특징점 검출을 위한 제 2 알고리즘은, 상기 참조 이미지 데이터 및 상기 참조 이미지 데이터와 관련된 제 2 이미지 데이터 간 그리고 상기 타겟 이미지 데이터 및 상기 타겟 이미지 데이터와 관련된 제 2 이미지 데이터간의 정규화 상호 상관(Normalized Cross Correlation; NCC) 결과 데이터를 서브 픽셀 단위로 해석하는 Super Resoulution Feature Matching 알고리즘일 수 있다.Alternatively, a second algorithm for the feature point detection may comprise a normalized cross-correlation between the reference image data and second image data associated with the reference image data and between the target image data and second image data associated with the target image data (NCC) result data may be a Super Resoulution Feature Matching algorithm that analyzes the data in units of subpixels.

대안적으로, 상기 제 2 이미지 데이터는, 상기 이미지 데이터에 대하여 변형 및 손실 중 적어도 하나를 수행함으로써 생성될 수 있다.Alternatively, the second image data may be generated by performing at least one of deformation and loss on the image data.

대안적으로, 상기 제 2 이미지 데이터는, 상기 이미지 데이터에 대하여 가우시안 블러 필터(Gaussian Blur Filter) 및 가우시안 노이즈(Gaussian Noise)를 적용함으로써 생성될 수 있다.Alternatively, the second image data may be generated by applying a Gaussian Blur filter and a Gaussian noise to the image data.

대안적으로, 상기 특징점 추정을 위한 알고리즘은, 특징점의 개수 및 각 특징점을 연결한 거리에 적어도 기초하며, 그리고 특징점의 개수에 대응하여 상이한 변환모델식을 포함하도록 구성될 수 있다.Alternatively, the algorithm for feature point estimation may be configured to include at least a conversion model equation corresponding to the number of feature points, based on at least the number of feature points and the distance connecting each feature point.

대안적으로, 상기 변환모델식은, 상기 특징점의 개수가 1개인 경우 Offset 변환, 상기 특징점의 개수가 2개인 경우 Similarity 변환, 상기 특징점의 개수가 3개인 경우 Affine 변환 및 상기 특징점의 개수가 4개인 경우 Perspective 변환으로 결정될 수 있다.Alternatively, the transformation model expression may be an Offset transformation when the number of the feature points is 1, a Similarity transformation when the number of the feature points is 2, an Affine transformation when the number of the feature points is 3, Perspective transformation can be determined.

대안적으로, 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 정합시키는 단계는: 상기 타겟 이미지 데이터를 기하 변환하는 단계; 및 상기 타겟 이미지 데이터의 크기를 정규화하는 단계;를 더 포함할 수 있다.Alternatively, the step of matching the reference image data and the target image data comprises the steps of: transforming the target image data; And normalizing the size of the target image data.

대안적으로, 상기 참조 이미지 데이터에 대하여 학습된 네트워크 함수를 이용하여 상기 타겟 이미지 데이터의 상태 정보를 결정하는 단계;를 더 포함할 수 있다.Alternatively, the method may further include determining status information of the target image data using the network function learned for the reference image data.

대안적으로, 상기 타겟 이미지 데이터의 상태 정보는, 미리 설정된 크기로 분할된 하나 이상의 영역 각각에 대한 상태 정보에 기초하여 결정될 수 있다.Alternatively, the status information of the target image data may be determined based on status information for each of the one or more areas divided into a predetermined size.

본 개시의 실시예들에 따른 타겟 이미지 데이터를 보정하는 장치가 개시된다. 상기 장치는: 결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 참조 이미지(Reference Image) 및 상기 타겟 이미지 데이터를 획득하는 이미지 데이터 획득부; 상기 참조 이미지 데이터로부터 하나 이상의 특징점을 검출하는 제 1 검출부; 상기 타겟 이미지 데이터로부터 하나 이상의 특징점을 검출하는 제 2 검출부; 특징점 추정을 위한 알고리즘에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터로부터 미검출된 특징점 및 미매칭된 특징점 각각에 대한 추정 특징점을 결정하는 추정 특징점 결정부; 상기 특징점 및 상기 추정 특징점에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 정합하는 이미지 데이터 정합부; 및 조명에 의해 손실된 상기 타겟 이미지 데이터의 적어도 일부의 데이터를 복원하는 데이터 복원부; 를 포함할 수 있다.An apparatus for correcting target image data in accordance with embodiments of the present disclosure is disclosed. The apparatus includes: a reference image generated based on a plurality of normal image data free from defects; an image data acquiring unit acquiring the target image data; A first detector for detecting one or more feature points from the reference image data; A second detecting unit detecting at least one feature point from the target image data; An estimated feature point determiner for determining an estimated feature point for each of the feature point and the unmatched feature point that are not detected from the reference image data and the target image data based at least on an algorithm for feature point estimation; An image data matching unit for matching the reference image data and the target image data based at least on the feature points and the estimated feature points; And a data restoring unit for restoring at least a part of the data of the target image data lost by illumination. . ≪ / RTI >

대안적으로, 상기 이미지 데이터 획득부는, 타겟을 촬영하는 촬영 모듈; 결함이 없는 복수 개의 정상 이미지 데이터를 획득하는 제 1 획득 모듈; 및 상기 복수 개의 정상 이미지 데이터에 기초하여 상기 참조 이미지 데이터를 생성하는 참조 이미지 생성 모듈;을 포함할 수 있다.Alternatively, the image data obtaining section may include: a photographing module for photographing a target; A first acquiring module for acquiring a plurality of normal image data without defects; And a reference image generation module that generates the reference image data based on the plurality of normal image data.

대안적으로, 상기 이미지 데이터 획득부는, 타겟을 촬영하는 촬영 모듈; 및 결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 상기 참조 이미지를 획득하는 제 2 획득 모듈;을 포함할 수 있다.Alternatively, the image data obtaining section may include: a photographing module for photographing a target; And a second acquisition module for acquiring the reference image generated based on the plurality of normal image data without defects.

대안적으로, 상기 이미지 데이터 획득부는, 결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 상기 참조 이미지 데이터와 그리고 촬영 모듈에 의해 촬영된 타겟 이미지 데이터를 획득하는 제 3 획득 모듈;을 포함할 수 있다.Alternatively, the image data obtaining section may include a third obtaining module for obtaining the reference image data generated based on the plurality of normal image data without defects and the target image data taken by the photographing module have.

대안적으로, 상기 참조 이미지 데이터에 대하여 학습된 네트워크 함수를 이용하여 상기 타겟 이미지 데이터의 상태 정보를 결정하는 상태 정보 결정부;를 더 포함할 수 있다.Alternatively, the apparatus may further include a status information determination unit for determining status information of the target image data using the network function learned for the reference image data.

본 개시의 실시예들에 따른 타겟 이미지 데이터를 보정하는 장치의 하나 이상의 프로세서에 의해 실행되는 복수의 명령들을 포함하는, 컴퓨터 판독가능 저장 매체(computer readable storing medium)에 저장된 컴퓨터 프로그램이 개시된다. 상기 컴퓨터 프로그램은: 결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 참조 이미지(Reference Image) 및 상기 타겟 이미지 데이터를 획득하는 명령; 상기 참조 이미지 데이터로부터 하나 이상의 특징점을 검출하는 명령; 상기 타겟 이미지 데이터로부터 하나 이상의 특징점을 검출하는 명령; 특징점 추정을 위한 알고리즘에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터로부터 미검출된 특징점 및 미매칭된 특징점 각각에 대한 추정 특징점을 결정하는 명령; 상기 특징점 및 상기 추정 특징점에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 정합하는 명령; 및 조명에 의해 손실된 상기 타겟 이미지 데이터의 적어도 일부의 데이터를 복원하는 명령;을 포함할 수 있다.A computer program stored on a computer readable storage medium is disclosed that includes a plurality of instructions executed by one or more processors of an apparatus for correcting target image data in accordance with embodiments of the present disclosure. The computer program comprising instructions for: obtaining a reference image and a target image data generated based on a plurality of normal image data that are free from defects; Detecting one or more feature points from the reference image data; Detecting one or more feature points from the target image data; Determining an estimated feature point for each of the feature point and non-matched feature point that are not detected from the reference image data and the target image data, based at least on an algorithm for feature point estimation; Instructions for matching the reference image data and the target image data based at least on the feature points and the estimated feature points; And restoring at least a portion of the data of the target image data lost by the illumination.

본 발명은 이미지 데이터의 보정 방법을 제공할 수 있다.The present invention can provide a method of correcting image data.

본 발명은 이미지 데이터의 상태 정보를 제공할 수 있다.The present invention can provide status information of image data.

상기 언급된 본 발명 내용의 특징들이 상세하게, 보다 구체화된 설명으로, 이하의 실시예들을 참조하여 이해될 수 있도록, 실시예들 중 일부는 첨부되는 도면에서 도시된다. 또한, 도면과의 유사한 참조번호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭하는 것으로 의도된다. 그러나, 첨부된 도면들은 단지 본 발명 내용의 특정한 전형적인 실시예들만을 도시하는 것일 뿐, 본 개시의 범위를 한정하는 것으로 고려되지는 않으며, 동일한 효과를 갖는 다른 실시예들이 충분히 인식될 수 있다는 점을 유의하도록 한다.
도 1은 본 개시의 실시예들에 따른 참조 이미지 데이터 및 타겟 이미지 데이터를 도시한 도면이다.
도 2는 본 개시의 실시예들에 따라 타겟 이미지 데이터의 보정 방법을 도시한 순서도이다.
도 3은 본 개시의 실시예들에 따른 참조 이미지 데이터의 임의의 영역을 도시하고 그리고 상기 참조 이미지 데이터의 임의의 영역으로부터 특징점을 검출하는 방법을 설명하기 위한 도면이다.
도 4는 본 개시의 실시예들에 따른 참조 이미지 데이터로부터 참조 이미지 데이터와 관련된 제 2 이미지 데이터가 생성되는 개념을 도시한 도면이다.
도 5는 본 개시의 실시예들에 따른 특징점 검출을 위한 제 2 알고리즘을 설명하기 위한 도면을 도시한다.
도 6은 본 개시의 실시예들에 따른 미검출된 특징점 및/또는 미매칭된 특징점과 그 각각에 대한 추정 특징점을 도시한 도면이다.
도 7은 본 개시의 실시예들에 따라 타겟 이미지 데이터를 정합시키는 개념을 나타낸 도면이다.
도 8은 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 장치의 구성을 나타낸 블록 구성도이다.
도 9는 본 개시의 실시예들에 따른 이미지 데이터 획득부의 제 1 실시예이다.
도 10은 본 개시의 실시예들에 따른 이미지 데이터 획득부의 제 2 실시예이다.
도 11은 본 개시의 실시예들에 따른 이미지 데이터 획득부의 제 3 실시예이다.
도 12는 본 개시의 실시예들에 따른 신경망 네트워크의 일 예를 나타낸 개념도이다.
In order that the features of the above-mentioned subject matter of the present invention will be understood in detail and with reference to the following embodiments in more detail, some of the embodiments are shown in the accompanying drawings. In addition, like reference numerals in the drawings are intended to refer to the same or similar functions throughout the several views. It should be understood, however, that the appended drawings illustrate only typical exemplary embodiments of the present invention and are not to be considered limiting of its scope, and that other embodiments having the same effect may be fully recognized Please note.
1 is a diagram illustrating reference image data and target image data according to embodiments of the present disclosure.
2 is a flow chart illustrating a method of correcting target image data according to embodiments of the present disclosure.
Figure 3 is a diagram illustrating an area of reference image data according to embodiments of the present disclosure and a method for detecting feature points from any area of the reference image data.
4 is a diagram illustrating the concept that second image data associated with reference image data is generated from reference image data according to embodiments of the present disclosure.
5 illustrates a diagram for describing a second algorithm for feature point detection according to embodiments of the present disclosure.
FIG. 6 is a diagram showing non-detected and / or unmatched feature points and their estimated feature points according to embodiments of the present disclosure; FIG.
7 is a diagram illustrating a concept of matching target image data according to embodiments of the present disclosure.
8 is a block diagram showing the configuration of a correction apparatus for target image data according to the embodiments of the present disclosure.
9 is a first embodiment of an image data obtaining section according to the embodiments of the present disclosure.
10 is a second embodiment of the image data obtaining section according to the embodiments of the present disclosure.
11 is a third embodiment of the image data obtaining section according to the embodiments of the present disclosure.
12 is a conceptual diagram illustrating an example of a neural network according to embodiments of the present disclosure.

다양한 실시예들이 이제 도면을 참조하여 설명된다. 본 명세서에서, 다양한 설명들이 본 개시의 이해를 제공하기 위해서 제시된다. 그러나 이러한 실시예들은 이러한 구체적인 설명 없이도 실행될 수 있음이 명백하다.Various embodiments are now described with reference to the drawings. In this specification, various explanations are given in order to provide an understanding of the present disclosure. It will be apparent, however, that such embodiments may be practiced without these specific details.

더불어, 용어 "또는"은 배타적 "또는"이 아니라 내포적 "또는"을 의미하는 것으로 의도된다. 즉, 달리 특정되지 않거나 문맥상 명확하지 않은 경우에, "X는 A 또는 B를 이용한다"는 자연적인 내포적 치환 중 하나를 의미하는 것으로 의도된다. 즉, X가 A를 이용하거나; X가 B를 이용하거나; 또는 X가 A 및 B 모두를 이용하는 경우, "X는 A 또는 B를 이용한다"가 이들 경우들 어느 것으로도 적용될 수 있다. 또한, 본 명세서에 사용된 "및/또는"이라는 용어는 열거된 관련 아이템들 중 하나 이상의 아이템의 가능한 모든 조합을 지칭하고 포함하는 것으로 이해되어야 한다.In addition, the term "or" is intended to mean " exclusive or " That is, it is intended to mean one of the natural inclusive substitutions "X uses A or B ", unless otherwise specified or unclear in context. That is, X uses A; X uses B; Or when X uses both A and B, "X uses A or B" can be applied to either of these cases. It should also be understood that the term "and / or" as used herein refers to and includes all possible combinations of one or more of the listed related items.

또한, "포함한다" 및/또는 "포함하는"이라는 용어는, 해당 특징 및/또는 구성요소가 존재함을 의미하지만, 하나 이상의 다른 특징, 구성요소 및/또는 이들의 그룹의 존재 또는 추가를 배제하지 않는 것으로 이해되어야 한다. 또한, 달리 특정되지 않거나 단수 형태를 지시하는 것으로 문맥상 명확하지 않은 경우에, 본 명세서와 청구범위에서 단수는 일반적으로 "하나 또는 그 이상"을 의미하는 것으로 해석되어야 한다.It is also to be understood that the term " comprises "and / or" comprising " means that the feature and / or component is present, but does not exclude the presence or addition of one or more other features, components and / It should be understood that it does not. Also, unless the context clearly dictates otherwise or to the contrary, the singular forms in this specification and claims should generally be construed to mean "one or more. &Quot;

제시된 실시예들에 대한 설명은 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 발명을 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 발명은 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the disclosed embodiments is provided to enable any person skilled in the art to make or use the invention. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present invention is not intended to be limited to the embodiments shown herein but is to be accorded the widest scope consistent with the principles and novel features presented herein.

도 1은 본 개시의 실시예들에 따른 참조 이미지 데이터 및 타겟 이미지 데이터를 도시한 도면이다. 1 is a diagram illustrating reference image data and target image data according to embodiments of the present disclosure.

본 명세서에서 사용하는 용어 "정상 이미지 데이터"는 결함이 없다고 결정된 이미지 데이터를 지칭한다. 정상 이미지 데이터는 사용자의 판단에 의해 결정될 수 있다. 또는, 참조 이미지 데이터에 대하여 학습된 네트워크 함수에 의해, 타겟 이미지 데이터의 상태 정보가 '정상'으로 결정된 이미지들을 지칭할 수 있다. 본 개시의 실시예들에 따른 복수 개의 정상 이미지 데이터에 기초하여 참조 이미지 데이터가 생성될 수 있다. As used herein, the term "normal image data" refers to image data determined to be free of defects. The normal image data can be determined by the judgment of the user. Alternatively, the network function learned for the reference image data may refer to images for which the status information of the target image data is determined as " normal ". Reference image data may be generated based on a plurality of normal image data according to embodiments of the present disclosure.

본 명세서에서 사용하는 용어 "참조 이미지(Reference Image) 데이터"는 도 1의 (a)에 도시된 바와 같이 결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 이미지 데이터를 지칭한다. 이러한 참조 이미지 데이터는 타겟 이미지 데이터를 보정하기 위하여 참조될 수 있다. As used herein, the term "reference image data" refers to image data generated based on a plurality of normal image data that are free from defects as shown in Fig. 1 (a). This reference image data can be referred to for correcting the target image data.

본 개시의 실시예들에 따른 참조 이미지 데이터는, 이하에서 후술되는 타겟 이미지 데이터를 보정하는 장치(100)에 의해 생성될 수 있다. 또는, 본 개시의 실시예들에 따른 참조 이미지 데이터는 외부로부터 네트워크부(180)를 통해 수신될 수 있다. 다른 예시로, 참조 이미지 데이터는 입력부(예를 들어, USB 입력부 등)를 통해 입력될 수 있다. 이러한 참조 이미지 데이터는 네트워크 함수에 입력 가능한 크기의 이미지 패치로 분할될 수 있다. 또는 참조 이미지 데이터 자체가 네트워크 함수에 입력 가능한 크기로 미리 설정될 수 있다. Reference image data according to embodiments of the present disclosure may be generated by an apparatus 100 for correcting target image data, which will be described below. Alternatively, the reference image data according to embodiments of the present disclosure may be received from the outside via the network portion 180. In another example, reference image data may be input via an input (e.g., a USB input, etc.). Such reference image data may be partitioned into image patches of a size that can be input to the network function. Or the reference image data itself can be preset to a size that can be input to the network function.

본 명세서에서 사용하는 용어 "타겟 이미지 데이터"는 도 1의 (b)에 도시된 바와 같이, 결함 상태를 판단하고자 하는 대상(즉, 타겟)이 촬영된 이미지를 지칭한다. 본 개시의 실시예들에 따라서, 타겟 이미지 데이터는 타겟 이미지 데이터를 보정하는 장치(100)로부터 획득될 수 있다. 예를 들어, 타겟 이미지 데이터는 도 1의 (b)에 도시된 바와 같이 타겟 이미지 데이터를 보정하는 장치(100)의 촬영 모듈(111)로부터 획득될 수 있다. As used herein, the term "target image data" refers to an image in which an object (i.e., a target) for which a defect status is to be determined, as shown in Fig. According to embodiments of the present disclosure, target image data may be obtained from apparatus 100 that corrects target image data. For example, the target image data may be obtained from the photographing module 111 of the apparatus 100 for correcting the target image data as shown in Fig. 1 (b).

타겟 이미지 데이터의 상태 판단(예를 들어, 결함의 유무, 결함의 종류 판단 등)을 위하여, 타겟 이미지 데이터는 참조 이미지 데이터와 물리적으로 유사해야 할 필요가 있다. 한편, 타겟 이미지 데이터를 획득하는 경우, 기하학적 왜곡(예를 들어, 렌즈 모듈에 기인한 왜곡, 촬영 모듈(111)의 기계적 결함 및 타겟의 움직임 등) 및 조명 모듈에 의한 왜곡(예를 들어, 이미지 데이터들의 뭉개짐과 같은 손실 등)이 발생한다. 일 예로서, 컨베이어 벨트 위를 이동하는 타겟은, 미끄러짐, 움직임, 회전, 진동 등이 발생할 수 있고, 이러한 요인은 획득된 타겟 이미지 데이터 내에서 많은 기하학적 왜곡 상태로 표시된다. 더욱이, 타겟 이미지 데이터를 획득하는 경우, 조명의 불균일로 인한 왜곡 현상 또한 발생할 수 있다. In order to determine the state of the target image data (for example, the presence or absence of a defect, the type of a defect, etc.), the target image data needs to be physically similar to the reference image data. On the other hand, when acquiring the target image data, the geometric distortion (e.g., distortion caused by the lens module, mechanical defects of the imaging module 111, and target motion, etc.) Loss such as crushing of data, etc.) occurs. As an example, a target moving on a conveyor belt may experience slippage, movement, rotation, vibration, etc., and these factors are displayed in many geometric distortion states within the acquired target image data. Moreover, when acquiring the target image data, a distortion phenomenon due to non-uniformity of illumination may also occur.

이런 기하학적 왜곡 현상 및 조명의 불균일은 이미지 데이터의 상태를 판단하기 위한 머신 비전 시스템이 정밀해질 수록 치명적일 수 있다. 예를 들어, 전술한 바와 같은 왜곡 현상들은 픽셀 분해능 0.5mm 이상의 정밀하지 않은 머신 비전 시스템에서는 큰 문제가 되지 않을 수 있으나, 픽셀 분해능 0.1mm 이하의 정밀 시스템은 물론이고 픽셀 분해능 0.01mm 이하의 초정밀 시스템에서는 검사가 불가능할 정도로 아주 치명적인 문제가 될 수 있다.This geometric distortion phenomenon and uneven illumination can be fatal as the machine vision system for determining the state of the image data is more precise. For example, the above-described distortion phenomenon may not be a serious problem in an inaccurate machine vision system with a pixel resolution of 0.5 mm or more, but a precision system with a pixel resolution of 0.1 mm or less, Can be a very deadly problem that can not be tested.

이하에서 후술되는 본 개시의 실시예들에 따른 타겟 이미지 데이터 보정 방법은, 타겟 이미지 데이터를 보정할 수 있도록 허용한다. 예를 들어, 본 개시의 실시예들에 따른 타겟 이미지 데이터 보정 방법은, 촬영 모듈(111)을 이용하여 타겟 이미지 데이터를 획득할 때, 임의의 속도로 이동하는 컨테이너 벨트와 같은 촬영물 이송수단(도 1 참조)에 배치된 타겟에 대하여 촬영된 타겟 이미지 데이터를 보정할 수 있도록 허용한다. The target image data correction method according to the embodiments of the present disclosure described below allows the target image data to be corrected. For example, the target image data correcting method according to the embodiments of the present disclosure is characterized in that when the target image data is acquired using the photographing module 111, 1) to correct the photographed target image data.

이하에서 후술되는 타겟 이미지 데이터를 보정하는 방법에 따라서 타겟 이미지 데이터가 보정될 수 있다. 이에 따라, 타겟 이미지 데이터의 상태 판단이 용이해질 수 있다. 또한, 타겟 이미지 데이터의 상태 판단의 정확도가 향상될 수 있다. The target image data can be corrected according to the method of correcting the target image data described below. Accordingly, the determination of the state of the target image data can be facilitated. In addition, the accuracy of the determination of the state of the target image data can be improved.

본 명세서에서 사용하는 용어 "참조 이미지 데이터" 및 "참조 이미지"는 종종 상호교환가능하도록 사용될 수 있다. 본 명세서에서 사용하는 용어 "타겟 이미지 데이터" 및 "타겟 이미지"는 종종 상호교환가능하도록 사용될 수 있다. 나아가, 본 명세서에서 사용하는 용어 "참조 이미지 데이터" 및 "타겟 이미지 데이터"는 "이미지 데이터"로 통칭될 수도 있다. 또한, 본 명세서에서 사용하는 용어 "타겟 이미지 데이터를 보정하는 장치(100) 및 "장치(100)"는 종종 상호교환가능하도록 사용될 수 있다. As used herein, the terms "reference image data" and "reference image" are often used interchangeably. As used herein, the terms "target image data" and "target image" are often used interchangeably. Further, the terms "reference image data" and "target image data" used herein may be collectively referred to as "image data ". In addition, the term "apparatus 100 and apparatus 100 for correcting target image data" as used herein may often be used interchangeably.

이하, 도 2 내지 도 7을 참조하여 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법을 상세하게 설명하도록 한다.Hereinafter, a method for correcting target image data according to embodiments of the present disclosure will be described in detail with reference to FIGS. 2 to 7. FIG.

도 2는 본 개시의 실시예들에 따라 타겟 이미지 데이터의 보정 방법을 도시한 순서도이다.2 is a flow chart illustrating a method of correcting target image data according to embodiments of the present disclosure.

이하에서 개시되는 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법은 도 1에 도시되고 그리고 도 8 내지 도 11에서 후술되는 본 개시의 실시예들에 따른 타겟 이미지 데이터 보정 장치(100)에 의해 수행되는 것으로 설명되나 본 개시의 권리범위는 이에 제한되지 않는다. 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법은 이를 수행하기 위한 복수의 명령들을 포함하는 컴퓨터 판독가능 저장 매체에 의해 수행될 수도 있으며, 본 개시의 권리 범위는 이에 제한되지 않는다. The method of correcting target image data according to embodiments of the present disclosure described below will be described with reference to FIG. 1 and to a target image data correction apparatus 100 according to embodiments of the present disclosure, But the scope of the rights of the present disclosure is not limited thereto. A method of correcting target image data according to embodiments of the present disclosure may be performed by a computer-readable storage medium including a plurality of instructions for performing the method, and the scope of rights of the present disclosure is not limited thereto.

본 개시의 실시예들에 따라 타겟 이미지 데이터의 보정 방법은, 참조 이미지 데이터 생성 단계(S110), 참조 이미지 데이터로부터 하나 이상의 특징점을 검출하는 단계(S120), 타겟 이미지 데이터로부터 하나 이상의 특징점을 검출하는 단계(S130), 미검출된 특징점 및 미매칭된 특징점 각각에 대한 추정 특징점을 결정하는 단계(S140), 그리고 참조 이미지 데이터 및 타겟 이미지 데이터를 정합시키는 단계(S150)를 포함할 수 있다. 추가적으로, 본 개시의 실시예들에 따라 타겟 이미지 데이터의 보정 방법은, 조명에 의해 손실된 상기 타겟 이미지 데이터의 적어도 일부의 데이터를 복원하는 단계(S160)와 참조 이미지 데이터에 대하여 학습된 네크워크 함수를 이용하여 타겟 이미지 데이터의 상태 정보를 결정하는 단계(S170)를 더 포함할 수도 있다. 전술한 바와 같은 단계들은, 본 개시의 실시예들에 따른 예시적인 단계들이며, 본 개시의 권리 범위는 이에 제한되지 않는다.According to embodiments of the present disclosure, a method of correcting target image data includes generating reference image data (S110), detecting one or more feature points from reference image data (S120), detecting one or more feature points from the target image data (S140) determining an estimated feature point for each of the non-detected feature points and unmatched feature points, and matching the reference image data and the target image data (S150). In addition, a method of correcting target image data according to embodiments of the present disclosure may include reconstructing (S160) at least a portion of the data of the target image data lost by illumination (S160) and a learned network function (S170) the status information of the target image data. The steps as described above are exemplary steps in accordance with the embodiments of the present disclosure, and the scope of rights of the present disclosure is not limited thereto.

본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법은, 참조 이미지 데이터를 생성할 수 있다(S110). 참조 이미지 데이터는, 도 1에서 전술한 바와 같이, 결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성될 수 있다. 단계 S110이전에, 참조 이미지 데이터를 생성하기 위한 하나 이상의 정상 이미지 데이터가 입력될 수 있다. A method of correcting target image data according to embodiments of the present disclosure may generate reference image data (S110). The reference image data can be generated based on a plurality of normal image data without defects, as described above with reference to Fig. Prior to step S110, one or more normal image data for generating reference image data may be input.

본 개시의 실시예들에 따라서 참조 이미지 데이터로부터 하나 이상의 특징점을 검출하는 단계(S120)가 수행될 수 있다. 본 개시의 실시예들에 따른 특징점은 코너(corners), 에지(edges), 외곽선(contours), 교차점(line intersections) 등을 포함할 수 있다. 즉, 특징점이란 영상 내의 객체들의 시각적인 고유 특성을 표현할 수 있는 대표적인 픽셀들을 지칭한다. Detecting one or more feature points from the reference image data (S120) may be performed according to embodiments of the present disclosure. Feature points according to embodiments of the present disclosure may include corners, edges, contours, line intersections, and the like. That is, the feature point refers to representative pixels capable of expressing the visual characteristic of the objects in the image.

본 개시의 실시예들에 따라서 특징점 검출을 위한 제 1 알고리즘에 적어도 기초하여 참조 이미지 데이터로부터 특징점 후보군이 검출될 수 있다(S121). 본 개시의 실시예들에 따른 특징점 검출을 위한 제 1 알고리즘은, Harris Corner Detector 알고리즘, Shi-Tomasi Corner Detector 알고리즘 및 SIFT_DoG 알고리즘 중 적어도 하나일 수 있다. 본 개시의 실시예에서는 특징점 추출 알고리즘을 특별히 제한하지 않으며, 다양한 특징점 추출 알고리즘을 이용할 수 있다. 예를 들어, SUSAN 알고리즘, SURF 알고리즘, MSER 알고리즘 중 적어도 하나가 특징점 검출을 위한 제 1 알고리즘으로서 채용될 수 있다. According to embodiments of the present disclosure, a feature point candidate group may be detected from reference image data based at least on a first algorithm for feature point detection (S121). The first algorithm for feature point detection according to embodiments of the present disclosure may be at least one of a Harris Corner Detector algorithm, a Shi-Tomasi Corner Detector algorithm, and a SIFT_DoG algorithm. In the embodiments of the present disclosure, the feature point extraction algorithm is not particularly limited, and various feature point extraction algorithms can be used. For example, at least one of the SUSAN algorithm, the SURF algorithm, and the MSER algorithm may be employed as the first algorithm for feature point detection.

단계 S121을 통해 특징점 후보군이 검출되면, 이러한 특징점 후보군들 중에서 실제로 매칭이 가능한 특징점을 결정될 수 있다. 본 개시의 실시예들에 따르면, 특징점 검출을 위한 제 2 알고리즘에 적어도 기초하여 타겟 이미지 데이터와의 매칭에 필요한 특징점이 검출될 수 있다(S123). When a feature point candidate group is detected through step S121, a feature point that can be actually matched among the feature point candidate groups can be determined. According to embodiments of the present disclosure, feature points necessary for matching with target image data can be detected based at least on a second algorithm for feature point detection (S123).

본 개시의 실시예들에 따라서, 특징점 검출을 위한 제 2 알고리즘은, 참조 이미지 데이터 및 참조 이미지 데이터와 관련된 제 2 이미지 데이터의 정규화 상호 상관(Normalized Cross Correlation; NCC) 결과 데이터를 서브 픽셀 단위로 해석하는 Super Resoulution Feature Matching 알고리즘일 수 있다. According to embodiments of the present disclosure, a second algorithm for feature point detection includes interpolating normalized cross correlation (NCC) result data of second image data associated with reference image data and reference image data on a subpixel basis Which may be a Super Resoulution Feature Matching algorithm.

본 개시의 실시예들에 따라서 참조 이미지 데이터와 관련된 제 2 이미지 데이터는, 이미지 데이터에 대하여 변형 및 손실 중 적어도 하나를 수행함으로써 생성될 수 있다. 보다 상세하게, 참조 이미지 데이터와 관련된 제 2 이미지 데이터는 참조 이미지 데이터에 대하여 가우시안 블러 필터(Gaussian Blur Filter) 및 가우시안 노이즈(Gaussian Noise)를 적용함으로써 생성될 수 있으며 본 개시의 권리 범위는 이에 제한되지 않는다. Second image data associated with reference image data in accordance with embodiments of the present disclosure may be generated by performing at least one of transformation and loss on the image data. More specifically, the second image data associated with the reference image data may be generated by applying a Gaussian Blur filter and a Gaussian noise to the reference image data, and the scope of the rights of the present disclosure is not limited thereto Do not.

도 3은 본 개시의 실시예들에 따른 참조 이미지 데이터의 임의의 영역을 도시하고 그리고 상기 참조 이미지 데이터의 임의의 영역으로부터 특징점을 검출하는 방법을 설명하기 위한 도면이다.Figure 3 is a diagram illustrating an area of reference image data according to embodiments of the present disclosure and a method for detecting feature points from any area of the reference image data.

도시된 바와 같이, 참조 이미지 데이터는 미리 설정된 크기로 구분되어 각 개별 영역 내에서의 매칭이 가능한 특징점이 검출될 수 있다. 도 3에는 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법에 따라서 각 개별 영역 내에서 검출된 특징점 후보군들 및 특징점 후보군들 중 매칭이 가능한 특징점(K1, K2, ....K9)이 도시된다.As shown in the figure, the reference image data is divided into a predetermined size and feature points that can be matched in each individual region can be detected. 3, feature points (K1, K2,..., K9) that can be matched among the feature point candidate groups and the feature point candidate groups detected in each individual region according to the method of correcting the target image data according to the embodiments of the present disclosure Respectively.

도 4는 본 개시의 실시예들에 따른 참조 이미지 데이터로부터 참조 이미지 데이터와 관련된 제 2 이미지 데이터가 생성되는 개념을 도시한 도면이다.4 is a diagram illustrating the concept that second image data associated with reference image data is generated from reference image data according to embodiments of the present disclosure.

본 개시의 실시예들에 따른 참조 이미지 데이터에 관련된 제 2 이미지 데이터는, 참조 이미지 데이터에 가우시안 블러 필터 및 가우시안 노이즈를 적용함으로써 생성될 수 있다. 이러한 가우시안 블러 필터 및 가우시안 노이즈는 가우시안 분포의 특성을 이용하여 가우시안 블러 필터 및 가우시안 노이즈를 수행한다. 예를 들어, 가우시안 블러 필터는, 각 위치에 해당하는 참조 이미지 데이터의 픽셀에 대해 가우시안 블러 필터 계수를 곱한 값의 합을 산출함으로써 적용된다. 이러한 가우시안 블러 필터 및 가우시안 노이즈는 이하에서 제시되는 2차원 가우시안 분포를 이용한다. Second image data associated with reference image data according to embodiments of the present disclosure may be generated by applying a Gaussian blur filter and Gaussian noise to the reference image data. These Gaussian blur filters and Gaussian noise perform Gaussian blur filter and Gaussian noise using the characteristic of Gaussian distribution. For example, the Gaussian blur filter is applied by calculating the sum of values obtained by multiplying the pixels of the reference image data corresponding to the respective positions by the Gaussian blur filter coefficient. These Gaussian blur filters and Gaussian noise use the two-dimensional Gaussian distribution given below.

Figure pat00001
Figure pat00001

참고적으로 x는 참조 이미지 데이터의 각 픽셀값에 대한 x좌표를 의미한다. y는 참조 이미지 데이터의 각 픽셀값에 대한 y 좌표를 의미한다. 본 개시의 실시예들에 따른 가우시안 필터는 가우시안 분포를 나타내는 연속 함수이지만, x 및 y가 정수인 경우에 대해서 가우시안 함수의 값을 산출할 수 있다. 평균이 0이고 표준편차가 б인 가우시안 분포에서 참조 이미지 데이터의 각 픽셀값은 범위 내에 분포되며, 표준 편차의 크기가 더 클수록, 더 넓은 범위의 블러(blur) 현상이 일어날 수 있다. For reference, x means the x-coordinate of each pixel value of the reference image data. and y represents the y coordinate of each pixel value of the reference image data. The Gaussian filter according to the embodiments of the present disclosure is a continuous function indicating the Gaussian distribution, but the value of the Gaussian function can be calculated in the case where x and y are integers. In a Gaussian distribution with an average of zero and a standard deviation of b, each pixel value of the reference image data is distributed within a range, and the larger the standard deviation, the wider the range of blurring may occur.

도 4에서는 참조 이미지 데이터를 일례로 설명하나, 상술된 방식에 따라서 타겟 이미지 데이터에 관련한 제 2 이미지 데이터 또한 생성될 수 있다. In FIG. 4, reference image data is described as an example, but second image data related to the target image data may also be generated according to the above-described method.

다시, 도 2를 돌아가면, 단계 S121을 통해 특징점 후보군이 검출되고, 이러한 특징점 후보군들 중에서 실제로 매칭이 가능한 특징점을 결정될 수 있다. 본 개시의 실시예들에 따르면, 특징점 검출을 위한 제 2 알고리즘에 적어도 기초하여 타겟 이미지 데이터와의 매칭에 필요한 특징점이 검출될 수 있다(S123). 2, a feature point candidate group is detected through step S121, and a feature point capable of actually matching among the feature point candidate groups can be determined. According to embodiments of the present disclosure, feature points necessary for matching with target image data can be detected based at least on a second algorithm for feature point detection (S123).

이러한 특징점 검출을 위한 제 2 알고리즘은, 참조 이미지 데이터 및 참조 이미지 데이터와 관련된 제 2 이미지 데이터의 정규화 상호 상관(Normalized Cross Correlation; NCC) 결과 데이터를 서브 픽셀 단위로 해석하는 Super Resoulution Feature Matching 알고리즘일 수 있다. 도 5를 참조하여, 특징점 검출을 위한 제 2 알고리즘을 설명하도록 한다. The second algorithm for detecting the feature points may be a Super Resoulution Feature Matching algorithm that analyzes the normalized cross correlation (NCC) result data of the second image data related to the reference image data and the reference image data in units of subpixels have. Referring to Fig. 5, a second algorithm for feature point detection will be described.

도 5는 본 개시의 실시예들에 따른 특징점 검출을 위한 제 2 알고리즘을 설명하기 위한 도면을 도시한다.5 illustrates a diagram for describing a second algorithm for feature point detection according to embodiments of the present disclosure.

도 5의 (a)는 본 개시의 실시예들에 따른 이미지 데이터이고, 그리고 도 5의 (b)는 본 개시의 실시예들에 따른 상기 이미지 데이터에 관련한 제 2 이미지 데이터이다. 일례로, 도 5의 (a)는 본 개시의 실시예들에 따른 참조 이미지 데이터이며, 그리고 도 5의 (b)는 본 개시의 실시예들에 따른 상기 이미지 데이터에 관련한 제 2 이미지 데이터이다. Figure 5 (a) is image data according to embodiments of the present disclosure, and Figure 5 (b) is second image data relating to the image data according to embodiments of the present disclosure. For example, Figure 5 (a) is reference image data according to embodiments of the present disclosure, and Figure 5 (b) is second image data relating to the image data according to embodiments of the present disclosure.

본 개시의 실시예들에 따르면 참조 이미지 데이터 상의 임의의 점 C를 중심으로 임의의 크기를 갖는 제 1 템플릿(T1)이 설정될 수 있다. 제 1 템플릿(T1)의 크기는 사전 설정되어 저장될 수 있다. According to the embodiments of the present disclosure, a first template T 1 having an arbitrary size can be set around any point C on the reference image data. The size of the first template T 1 can be preset and stored.

본 개시의 실시예들에 따라서 상기 임의의 점 C에 대응하는 위치를 로 설정할 수 있다. 상기 임의의 점 C'를 중심으로 임의의 크기의 제 2 템플릿(T2)이 설정될 수 있다. 이러한 제 2 템플릿(T2)의 크기는 제 1 템플릿(T1)의 크기보다 크도록 설정될 수 있다. 일례로, 제 2 템플릿(T2)의 크기는 제 1 테플릿(T1)의 크기의 2배로 설정될 수 있다. The position corresponding to the arbitrary point C may be set to < RTI ID = 0.0 > a < / RTI > A second template T 2 having an arbitrary size centered on the arbitrary point C 'may be set. The size of the second template T 2 may be set to be larger than the size of the first template T 1 . For example, the size of the second template T 2 may be set to twice the size of the first table T 1 .

본 개시의 실시예들에 따라서, 참조 이미지 데이터(도 5의 (a)) 및 참조 이미지 데이터에 관련한 제 2 이미지 데이터(도 5의 (b))의 NCC(Normalized Cross Correlation)을 산출한다.According to the embodiments of the present disclosure, the normalized cross correlation (NCC) of the reference image data (FIG. 5A) and the second image data related to the reference image data (FIG. 5B) is calculated.

NCC는 정규화된 상호 연관성을 찾는 방식으로, 두 개의 이미지 데이터 간의 밝기의 선형적인 차이 및 기하학적인 유사도를 측정한다. 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법에 따르면, 참조 이미지 데이터로부터 상기 참조 이미지 데이터에 관련한 제 2 이미지 데이터를 생성할 수 있어서, NCC 값을 산출하기 위하여 추가적으로 이미지 데이터를 획득할 필요가 없다. The NCC measures the linear difference in brightness and geometric similarity between two image data in a way that finds a normalized correlation. According to the method of correcting target image data according to embodiments of the present disclosure, second image data related to the reference image data can be generated from reference image data, so that it is necessary to acquire additional image data to calculate the NCC value There is no.

본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법에 따라서, 참조 이미지 데이터 및 상기 참조 이미지 데이터에 관련한 제 2 이미지 데이터 간의 NCC값을 8bit 밝기의 값으로 변환한 NCC 스코어 맵을 생성할 수 있다. 본 개시의 실시예들에 따르면, 이하의 조건들:According to the method of correcting the target image data according to the embodiments of the present disclosure, an NCC score map can be generated in which the NCC value between the reference image data and the second image data related to the reference image data is converted into a value of 8-bit brightness . According to embodiments of the present disclosure, the following conditions are satisfied:

1) NCC 스코어 맵 상에 사전 결정된 임계값을 넘는 피크(peak)가 단 한 개 존재하고, 1) there is only one peak on the NCC score map that exceeds a predetermined threshold,

2) NCC 스코어에서의 상기 피크를 중심으로 획득한 소정 크기의 데이터 행렬을 2차 가우시안 분포(도 4의 [수학식 1] 참조)로 근사함으로써 산출된 б이 사전 결정된 임계값을 초과하고, 그리고2) the calculated value obtained by approximating a data matrix of a predetermined size obtained with respect to the peak in the NCC score to a second-order Gaussian distribution (see Equation 1 in FIG. 4) exceeds a predetermined threshold value, and

3) NCC 스코어에서의 상기 피크를 중심으로 획득한 소정 크기의 데이터 행렬로부터 산출된 최외각 데이터 값의 최대값이 사전 결정된 임계값 이하3) The maximum value of the outermost data value calculated from the data matrix of a predetermined size obtained centering on the peak in the NCC score is less than or equal to a predetermined threshold value

을 모두 만족하는 경우, 도 5의 (a)의 임의의 점 C를 특징점으로 결정하도록 제시한다.It is determined that the arbitrary point C in Fig. 5 (a) is determined as a minutia.

다시, 도 2로 돌아오면, 타겟 이미지 데이터로부터 하나 이상의 특징점이 검출될 수 있다(S130). Again, returning to Fig. 2, one or more feature points may be detected from the target image data (S130).

본 개시의 실시예들에 따른 타겟 이미지 데이터 보정 방법은, 참조 이미지 데이터로부터 검출된 특징점 각각에 대한 위치 좌표에 대응되는 상기 타겟 이미지 데이터 상에 위치 좌표를 특징점으로 결정함으로써, 상기 타겟 이미지 데이터로부터 특징점 후보군을 검출하는 단계(S131)를 포함할 수 있다. 그리고 본 개시의 실시예들에 따른 타겟 이미지 데이터 보정 방법은, 특징점 검출을 위한 제 2 알고리즘에 적어도 기초하여 상기 특징점 후보군으로부터 상기 참조 이미지 데이터와의 매칭에 필요한 특징점을 검출하는 단계(S133)를 포함할 수 있다.The target image data correcting method according to the embodiments of the present disclosure is characterized by determining the position coordinates on the target image data corresponding to the position coordinates for each of the detected minutiae from the reference image data as minutiae points, And detecting a candidate group (S131). The target image data correcting method according to the embodiments of the present disclosure includes a step (S133) of detecting a feature point necessary for matching with the reference image data from the feature point candidate group based at least on a second algorithm for feature point detection can do.

본 개시의 실시예들에 따른 단계 S120내지 단계 S130을 통해 참조 이미지 데이터 및 타겟 이미지 데이터 내에서 각각 이미지 데이터 내의 객체들을 표현할 수 있는 대표적인 픽셀들을 찾아 검출할 수 있다. 하나 이상의 참조 이미지 특징점을 검출하는 단계(S120) 및 하나 이상의 타겟 이미지 특징점을 검출하는 단계(S130)는 참조 이미지 데이터 및 타겟 이미지 데이터를 미리 설정된 크기를 갖는 하나 이상의 영역으로 분할한 후, 각 개별 영역 내에서 특징점을 검출함으로써 수행될 수 있다. Through steps S120 through S130 according to embodiments of the present disclosure, it is possible to detect and detect representative pixels that can represent objects in the image data, respectively, in the reference image data and the target image data. The step S120 of detecting one or more reference image feature points and the step S130 of detecting one or more target image feature points may divide the reference image data and the target image data into at least one region having a predetermined size, By detecting a feature point within the image.

본 개시의 실시예들에 따른 미리 설정된 크기는, 참조 이미지 데이터 및 타겟 이미지 데이터의 이미지 해상도, 크기, 색상 모드 및 종횡 비율 중 적어도 하나에 기초하여 설정될 수 있다. 추가적으로, 참조 이미지 데이터 및 타겟 이미지 데이터는 네트워크 함수에 입력 가능한 크기의 이미지 패치로 구분될 수 있다. 또는 참조 이미지 데이터는 네트워크 함수에 입력 가능한 크기로 미리 설정될 수도 있다.The predetermined size according to embodiments of the present disclosure may be set based on at least one of the image resolution, size, color mode and aspect ratio of the reference image data and the target image data. In addition, the reference image data and the target image data may be separated into image patches of a size that can be input to the network function. Or the reference image data may be preset to a size that can be input to the network function.

본 개시의 실시예들에 따라서 미검출된 특징점 및 미매칭된 특징점 각각에 대한 추정 특징점이 결정될 수 있다(S140). 보다 상세하게, 특징점 추정을 위한 알고리즘에 적어도 부분적으로 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지로부터 미검출된 특징점 및 미매칭된 특징점 각각에 대한 타겟 이미지 추정 특징점 및 참조 이미지 추정 특징점이 결정될 수 있다.In accordance with embodiments of the present disclosure, estimated feature points for each of an unrecognized feature point and an unmatched feature point may be determined (S140). In more detail, the reference image data and the target image estimating feature point and the reference image estimating feature point for each of the non-detected and unmatched feature points from the target image may be determined based at least in part on the algorithm for feature point estimation.

본 개시의 실시예들에 따른 특징점 추정을 위한 알고리즘은, 특징점의 개수 및 각 특징점을 연결한 거리에 적어도 기초할 수 있다. An algorithm for feature point estimation according to embodiments of the present disclosure may be based at least on the number of feature points and the distance connecting each feature point.

본 개시의 실시예들에 따른 특징점 추정을 위한 알고리즘은, 특징점의 개수에 대응하여 상이한 변환모델식을 포함하도록 구성된다. 여기서, 변환모델식은, 특징점의 개수가 1개인 경우 Offset 변환, 특징점의 개수가 2개인 경우 Similarity 변환, 특징점의 개수가 3개인 경우 Affine 변환 및 특징점의 개수가 4개인 경우 Perspective 변환으로 결정된다. 이와 관련하여 하기의 수식을 참조하도록 한다. 관련하여, 도 6을 참조하여 설명하도록 한다. The algorithm for feature point estimation according to the embodiments of the present disclosure is configured to include different transformation model expressions corresponding to the number of feature points. Here, the conversion model expression is determined by Offset conversion when the number of the minutiae is one, Similarity conversion when the number of minutiae is two, Affine conversion when the number of minutiae is three, and Perspective conversion when the number of minutiae is four. In this regard, the following equations are referred to. The description will be made with reference to Fig.

도 6은 본 개시의 실시예들에 따른 미검출된 특징점 및/또는 미매칭된 특징점과 그 각각에 대한 추정 특징점을 도시한 도면이다. FIG. 6 is a diagram showing non-detected and / or unmatched feature points and their estimated feature points according to embodiments of the present disclosure; FIG.

도 6의 (a)에 표시된 원형의 점은 이미지 데이터 상에서 검출된 특징점 및/또는 매칭된 특징점을 의미한다. 도 6의 (b)에 표시된 링(ring)형의 점은 이미지 데이터 상에서 미검출된 특징점 및/ 미매칭된 특징점에 대응하여 추정되는 추정 특징점을 의미한다. 6A indicates a feature point detected on the image data and / or a matching feature point. A ring-shaped point shown in (b) of FIG. 6 indicates estimated feature points estimated corresponding to feature points and / or non-matched feature points not detected on the image data.

도 6의 (b)에 도시된 제 1 그리드(G1)은 세 개의 특징점이 검출되었다. 이러한 경우 Affine 변환 모델식을 이용하여 다른 한 개의 특징점이 추정될 수 있다. In the first grid G 1 shown in FIG. 6 (b), three characteristic points are detected. In this case, another feature point can be estimated using the affine transformation model equation.

도 6의 (b)에 도시된 제 2 그리드(G2), 제 3 그리드 (G3), 제 4 그리드(G4)는 각각 2개, 1개 그리고 4개의 특징점이 검출되었다. 즉, 본 개시의 실시예들에 따르면 제 2 그리드(G2), 제 3 그리드 (G3), 제 4 그리드(G4)에 대하여 각각 Similarity 변환, Offset 변환 그리고 Perspective 변환 모델식을 이용하여 미검출 및/또는 미매칭된 특징점을 추정 특징점들로서 결정할 수 있다. Two, one, and four feature points are detected in the second grid G 2 , the third grid G 3 , and the fourth grid G 4 shown in FIG. 6B, respectively. That is, according to the embodiments of the present disclosure, the similarity transformation, the offset transformation, and the perspective transformation model equation are used for the second grid G 2 , the third grid G 3 , and the fourth grid G 4 , The detected and / or unmatched feature points can be determined as estimated feature points.

도 6의 (a)의 D 및 (b)의 D'를 살펴보도록 한다. 본 개시의 실시예들에 따라서, D는 참조 이미지 데이터 상에서 검출된 특징점을 의미한다. 본 개시의 실시예들에 따라서 D'는 타겟 이미지 데이터 상에서 미검출 및/또는 참조 이미지 데이터와 미매칭된 특징점을 의미한다. 즉, D'는 검출되지 못하거나 또는 매칭되지 못한 특징점이다. 이러한 D'는 이하의 [수학식 2] 및 [수학식 4]를 만족하는 특징점 추정 알고리즘을 통해 추정될 수 있다. D 'of FIG. 6A and D' of FIG. 6B will be described. In accordance with embodiments of the present disclosure, D means a feature point detected on the reference image data. In accordance with embodiments of the present disclosure, D 'means a feature point that is not detected on the target image data and / or mapped to the reference image data. That is, D 'is a feature point that is not detected or matched. This D 'can be estimated through a feature point estimation algorithm satisfying the following equations (2) and (4).

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

여기서, L1은 위치 D에서 영역 i의 무게중심까지 연결한 선분의 최대값을 의미하며, 그리고 L2는 이미지 데이터 내 각 특징점 들을 연결한 선분의 최대값(일반적으로는, 위치 이미지 데이터 내 대각선 길이)를 의미한다. 또한, n은 이미지 데이터를 구성하는 모든 영역의 개수를 의미한다. C는 변환 모델식을 의미한다. C는 전술한 바와 같이, 검출된 특징점의 개수에 따라서 Offset 변환, Similarity 변환, Affine 변환 및 Perspective 변환으로 결정된다. Here, L 1 denotes a maximum value of a line segment connecting from the position D to the center of gravity of the region i, and L 2 denotes a maximum value of a line segment connecting each of the minutiae in the image data (generally, Length). Also, n denotes the number of all the regions constituting the image data. C means the conversion model equation. C is determined by Offset transformation, Similarity transformation, Affine transformation and Perspective transformation according to the number of detected minutiae points, as described above.

다시, 도 6의 (b) 내지 (c)를 참조하면, 타겟 이미지 데이터 상의 추정 특징점 D'는 상기의 [수학식 2] 내지 [수학식 4]를 만족하며, Affine 변환식을 이용하는 특징점 추정 알고리즘에 따라 그 위치가 추정될 수 있다. 6 (b) to 6 (c), the estimated feature point D 'on the target image data satisfies the above equations (2) to (4) The position can be estimated.

다시, 도 2를 돌아가면, 참조 이미지 특징점, 타겟 이미지 특징점 및 추정 특징점에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터가 정합될 수 있다(S150). Referring again to FIG. 2, the reference image data and the target image data may be matched (S150) based at least on the reference image feature point, the target image feature point, and the estimated feature point.

이미지 데이터로부터 추출된 특징점들을 근거로하여, 다른 이미지 데이터들간에 동일한 특징점들을 찾는 단계 S150은, 이미지 데이터에서 특징점들을 추출하여 기술자를 생성하고, 다른 이미지 데이터에서 특징점들을 추출하여 기술자를 생성한 후, 기술자들 간의 비교를 통해 동일한 기술자가 있는 특징점들을 찾아 동일한 객체를 확인함으로써 수행될 수 있다. 즉, 서로 다른 이미지 데이터에서 추출된 특징들 중에서 동일한 특성을 가지는 특징점을 찾기 위해서 기술자가 사용될 수 있다. 동일한 특성을 가지는 특징점을 정확하게 찾기 위해, 기술자에는 다양한 정보가 포함된다. 특히 특징점들에 대해서는 회전이 자주 일어나기 때문에, 회전하는 특성을 고려한 비교를 위해서 기술자에 회전에 대한 정보를 포함할 수 있다. 전술한 내용은 본 개시의 실시예들에 따른 이미지 정합 방법의 예시적 기재이며, 본 개시의 권리 범위는 이에 제한되지 않는다. In operation S150, the same feature points are found among other image data based on the feature points extracted from the image data. The feature points are extracted from the image data to generate descriptors, the feature points are extracted from other image data to generate descriptors, By comparing the descriptors, it can be done by finding the same descriptor and finding the same object. That is, descriptors may be used to search for feature points having the same characteristics among features extracted from different image data. In order to accurately locate feature points having the same characteristics, the descriptor includes various information. Since rotations occur frequently, especially for minutiae, information about rotations can be included in the descriptor for comparison considering rotation characteristics. The foregoing is an exemplary description of an image matching method according to embodiments of the present disclosure, and the scope of rights of the present disclosure is not limited thereto.

전술한 바와 같은 단계들(S110 내지 S150)에 의해, 타겟 이미지 데이터에 대한 기하학적 왜곡에 대한 보정이 이루어질 수 있다. 이와 관련하여 도 7을 참조하도록 한다. By the steps S110 to S150 as described above, correction for the geometric distortion for the target image data can be made. Reference is made to Fig. 7 in this regard.

도 7은 본 개시의 실시예들에 따라 타겟 이미지 데이터를 정합시키는 개념을 나타낸 도면이다.7 is a diagram illustrating a concept of matching target image data according to embodiments of the present disclosure.

또한, 본 개시의 실시예들에 따르면 조명에 의해 손실된 상기 타겟 이미지 데이터의 적어도 일부의 데이터가 복원(S160)될 수 있다. 이를 통해 타겟 이미지 데이터의 조명 불균일에 따른 왜곡을 해소할 수 있다.Also, according to embodiments of the present disclosure, at least a portion of the data of the target image data lost by illumination may be restored (S160). This makes it possible to eliminate distortion due to uneven illumination of the target image data.

예를 들어, 단계 S160은 통해 타겟 이미지 데이터에 대해 노이즈를 저감하고, 색 보정, 색 향상, 감마 보정, 색채 처리, 블러 처리, 에지 강조 처리 등을 행할 수 있다. 전술한 내용들은 본 개시의 실시예들에 따른 예시적 기재일 뿐, 본 개시의 권리 범위는 이에 제한되지 않는다. For example, through step S160, noise can be reduced with respect to the target image data, and color correction, color enhancement, gamma correction, color processing, blur processing, edge enhancement processing, and the like can be performed. The foregoing is merely illustrative of exemplary embodiments of the present disclosure, and the scope of the present disclosure is not limited thereto.

본 개시의 실시예들에 따르면 참조 이미지 데이터에 대하여 학습된 네트워크 함수를 이용하여 타겟 이미지 데이터의 상태 정보가 결정될 수 있다(S170). 네트워크 함수에 관련하여서는, 도 12에서 후술하도록 한다. According to embodiments of the present disclosure, the state information of the target image data may be determined using the learned network function for the reference image data (S170). The network function will be described later with reference to FIG.

타겟 이미지 데이터의 상태 정보는 미리 설정된 크기로 분할된 하나 이상의 영역 각각에 대한 상태 정보에 기초하여 결정될 수 있다. 예를 들어, 각 개별 영역에 대하여 상태 정보를 결정함으로써, 타겟 이미지 데이터의 전체 영역에 대한 상태 정보가 결정될 수 있다. 타겟 이미지 데이터의 상태 정보는, 예를 들어, 결함의 유무 및 결함의 종류 판단 중 적어도 하나일 수 있으며 본 개시의 권리 범위는 이에 제한되지 않는다. The status information of the target image data may be determined based on status information for each of the one or more areas divided into a predetermined size. For example, by determining the status information for each individual area, the status information for the entire area of the target image data can be determined. The status information of the target image data may be at least one of, for example, the presence or absence of a defect and the type of a defect, and the scope of rights of the disclosure is not limited thereto.

전술한 바와 같은 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법은, 타겟 이미지 데이터의 상태를 판단하기 위해 사용될 수 있다. 본 개시의 실시예들에 따른 타겟 이미지 데이터의 판단 방법은, 예를 들어, 판단 대상이 되는 타겟 이미지 데이터의 상태를 분류하기 위해 사용될 수 있다. A method of correcting target image data according to embodiments of the present disclosure as described above can be used to determine the status of target image data. A method of determining target image data according to embodiments of the present disclosure can be used, for example, to classify the status of the target image data to be determined.

도 2에 도시된 순서도의 각 단계는 필수적인 것은 아니며 필요에 따라 일부 단계들이 생략되거나 추가될 수 있음을 당업자라면 명백히 이해할 것이다.It will be appreciated by those skilled in the art that the steps of the flowchart shown in FIG. 2 are not essential and that some steps may be omitted or added as needed.

도 8은 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 장치의 구성을 나타낸 블록 구성도이다.8 is a block diagram showing the configuration of a correction apparatus for target image data according to the embodiments of the present disclosure.

전술한 바와 같은, 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법은, 연산 능력을 구비한 장치들에서 실행될 수 있다. 예를 들어, 타겟 이미지 데이터의 보정 방법은 개인용 컴퓨터(PC), 워크스테이션(Work station), 서버용 컴퓨팅 장치 등에서 수행될 수 있다. 또는, 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법을 수행하기 위한 별도의 장치에 의해 수행될 수 있다. 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법은 하나 이상의 연산 장치들에서 수행될 수 있다. 예를 들어, 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법의 적어도 일부의 단계들은 클라이언트 디바이스에서, 다른 일부의 단계들은 서버 디바이스에서 수행될 수 있다. 이러한 경우 클라이언트 디바이스와 서버 디바이스는 네트워크로 연결되어 연산 결과를 송수신할 수 있다. 또는, 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 방법은 분산 컴퓨팅 기술에 의해 수행될 수도 있다.The method of correcting target image data according to embodiments of the present disclosure, as described above, may be performed in devices with computational capability. For example, the method of correcting the target image data may be performed in a personal computer (PC), a work station, a server computing device, and the like. Alternatively, it may be performed by a separate apparatus for performing the method of correcting the target image data according to the embodiments of the present disclosure. A method for correcting target image data according to embodiments of the present disclosure may be performed in one or more computing devices. For example, at least some of the steps of the method of correcting target image data according to embodiments of the present disclosure may be performed at the client device, and some of the steps may be performed at the server device. In this case, the client device and the server device can be connected to each other via a network to transmit and receive the operation result. Alternatively, a method for correcting target image data according to embodiments of the present disclosure may be performed by distributed computing technology.

본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 장치(100)는 이미지 데이터 획득부(110), 제 1 검출부(120), 제 2 검출부(130), 추정 특징점 결정부(140), 이미지 데이터 정합부(150), 데이터 복원부(160), 상태 정보 결정부(170), 네트워크부(180) 및 메모리(190)를 포함할 수 있다. 전술한 도 8의 구성들은 예시적인 것이며 추가적으로 상기 장치(100)는 사용자 입력부, 조명부 등을 더 포함할 수 있다. 또한, 장치(100)는 출력부를 더 포함할 수 있다. 출력부는 예를 들어, 음향 출력 모듈(예를 들어, 스피커) 및 영상 출력 모듈(예를 들어, 디스플레이) 중 적어도 하나를 포함할 수 있다. 본 개시의 실시예들에 따라서 상기 타겟 이미지 데이터 보정 장치(100)는 장치(100)에 의해 획득되거나 또는 보정 및/또는 정합되는 이미지 데이터를 표시할 수 있다. 이와 관련하여 후술하도록 한다. The apparatus 100 for correcting target image data according to embodiments of the present disclosure includes an image data obtaining unit 110, a first detecting unit 120, a second detecting unit 130, an estimated minutia determining unit 140, A data recovery unit 160, a status information determination unit 170, a network unit 180, 8 are exemplary and in addition the apparatus 100 may further include a user input, a lighting unit, and the like. In addition, the apparatus 100 may further include an output section. The output may include, for example, at least one of a sound output module (e.g., a speaker) and a video output module (e.g., a display). According to embodiments of the present disclosure, the target image data correction apparatus 100 may display image data acquired or corrected and / or matched by the apparatus 100. This will be described later.

본 개시의 실시예들에 따른 장치(100)는 전술한 컴포넌트의 일부의 구성으로만 구성될 수도 있다. 상기 장치는 외부의 서버와 통신하여 이용될 수도 있고 자체적으로 서버를 포함할 수도 있다. 또한, 전술한 도 8의 구성들 중 일부는 통합될 수 있다. 예를 들어, 제 1 검출부(120) 및 제 2 검출부(130)는 검출부(미도시)로 통합될 수 있다. 다른 예로, 추정 특징점 결정부(140), 이미지 데이터 정합부(150), 데이터 복원부(160) 및 상태 정보 결정부(170) 중 일부의 구성은 제어부(미도시)로 통합될 수 있으며, 본 개시의 권리 범위는 도시된 바에 제한되지 않는다. 실시예들에서, 상태 정보 결정부(170)는 상기 장치(100)와 유기적으로 연결되어 동작하는 추가적인 장치에 포함되어 작동할 수 있다. 이하에서, 본 개시의 실시예들에 따른 장치(100)의 컴포넌트들에 대하여 차례로 후술하도록 한다. Apparatus 100 in accordance with embodiments of the present disclosure may be constructed solely of a configuration of a portion of the components described above. The device may be used in communication with an external server or may itself comprise a server. In addition, some of the configurations of Fig. 8 described above can be integrated. For example, the first detection unit 120 and the second detection unit 130 may be integrated into a detection unit (not shown). As another example, the configuration of some of the estimated minutia determination unit 140, the image data matching unit 150, the data restoration unit 160, and the status information determination unit 170 may be integrated into a control unit (not shown) The scope of rights of disclosure is not limited to those shown. In embodiments, the state information determiner 170 may be included in and operate on an additional device that is operatively connected to the device 100. In the following, the components of the apparatus 100 according to embodiments of the present disclosure will be described below in turn.

본 개시의 실시예들에 따라서, 이미지 데이터 획득부(110)는 결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 참조 이미지(Reference Image) 및 타겟 이미지 데이터를 획득하도록 구성된다. According to embodiments of the present disclosure, the image data acquisition section 110 is configured to acquire a reference image and target image data generated based on a plurality of normal image data that are free from defects.

본 개시의 일 실시예에 따라 이미지 데이터 획득부(110)는 촬영 모듈(111)에서 촬영한 이미지로서 이미지 데이터를 획득할 수 있다. 또한 이미지 데이터 획득부(110)는 입력부를 통해 입력된 이미지에서 판단 가능한 이미지 데이터를 획득할 수 있다. 또한 이미지 데이터 획득부(110)는 촬영 모듈(111)에서 촬영한 이미지를 사전 결정된 크기의 이미지 패치로 분할하여 이미지 데이터를 획득할 수 있다. According to an embodiment of the present disclosure, the image data obtaining unit 110 may obtain image data as an image photographed by the photographing module 111. The image data obtaining unit 110 may obtain image data that can be determined from the image input through the input unit. The image data acquiring unit 110 may acquire image data by dividing the image photographed by the photographing module 111 into image patches of a predetermined size.

이미지 데이터 획득부(110)에 입력되는 이미지는 jpg, png, tif, psd, Ai 등 포맷에 제한 없이 입력 받을 수 있으며, 또한 움직이는 이미지, 영상 파일 등 파일 종류에도 제한 없이 데이터를 입력받을 수 있다. 이러한 이미지 데이터 획득부(110)에 대하여, 도 9 내지 도 11을 참조하여 설명하도록 한다. The image input to the image data acquisition unit 110 can be input in any format such as jpg, png, tif, psd, Ai, etc., and data can be input without limitation to a moving image, an image file, and the like. This image data obtaining unit 110 will be described with reference to Figs. 9 to 11. Fig.

도 9는 본 개시의 실시예들에 따른 이미지 데이터 획득부의 제 1 실시예이다.9 is a first embodiment of an image data obtaining section according to the embodiments of the present disclosure.

본 개시의 실시예들에 따라서, 이미지 데이터 획득부(110)는 타겟을 촬영하는 촬영 모듈(111), 결함이 없는 복수 개의 정상 이미지 데이터를 획득하는 제 1 획득 모듈(113) 및 상기 복수 개의 정상 이미지 데이터에 기초하여 상기 참조 이미지를 생성하는 참조 이미지 생성 모듈(113)을 포함할 수 있다.According to embodiments of the present disclosure, the image data acquisition unit 110 includes a photographing module 111 for photographing a target, a first acquiring module 113 for acquiring a plurality of normal image data free from defects, And a reference image generation module 113 for generating the reference image based on the image data.

여기서 대상이 되는 촬영물은 인쇄 이미지, 소정의 내용이 프린트된 상품, 직물, 피혁 등 다양한 촬영물을 포함할 수 있다. 전술된 촬영물은 예시일 뿐이며 촬영 모듈(111)은 촬영물의 종류에 제한 없이 촬영할 수 있다. 촬영 모듈(111)에서 촬영된 이미지들은 메모리부(190)에 저장되거나 네트워크 연결부(180)를 통하여 외부로 전송될 수 있다. 촬영 모듈(111)은 사용환경에 따라 하나의 카메라로 구성될 수 있거나 또는 두 개 이상의 카메라로 구성될 수도 있다.The subject to be photographed here may include various images such as a print image, a product printed with predetermined contents, a fabric, leather, and the like. The photographing object described above is merely an example, and the photographing module 111 can take photographs without limitation on the type of photographing objects. The images photographed by the photographing module 111 may be stored in the memory unit 190 or may be transmitted to the outside through the network connection unit 180. The photographing module 111 may be composed of one camera or may be composed of two or more cameras according to the use environment.

실시예들에서, 촬영 모듈(111)는 본 개시의 실시예들에 따른 타겟 이미지 데이터의 보정 장치(100)에 일체형으로 연결되거나, 분리 가능한 모듈로서 구성될 수 있다. 촬영 모듈(111)은 타겟 이미지 데이터를 보정하기 위한 이미지 데이터를 획득하기 위해 다양한 하드웨어 적인 구성을 포함할 수 있다. In embodiments, the imaging module 111 may be integrally connected to the correction device 100 of the target image data according to the embodiments of the present disclosure, or may be configured as a detachable module. The shooting module 111 may include various hardware configurations to obtain image data for correcting the target image data.

일 예로서, 촬영 모듈(111)은 촬영물에 대한 데이터를 고속으로 획득하기 위해, 예를 들어 컨베이어 벨트와 같은 촬영물 이송수단(도 1 참조)과 함께 동작할 수 있다. 촬영물 이송수단(도 1 참조)은 본 개시의 실시예들에 따른 장치(100)의 구성요소이거나 또는 별도의 외부 디바이스의 구성요소일 수 있다. 예를 들어, 촬영 모듈(111)은 컨베이어 벨트를 따라 이동하는 촬영 대상물을 스캔하기 위한 라인카메라로서 구성될 수 있다. 본 개시의 실시예들에 따른 촬영 모듈(111)의 구성은 전술한 구성에 제한되지 아니하며, 이미지 데이터를 효율적으로 획득하기 위한 임의의 조합이 본 발명의 일 실시예에서 사용될 수 있다.As an example, the photographing module 111 may operate in conjunction with photographing means (see FIG. 1) such as, for example, a conveyor belt, in order to obtain the data for the photograph at high speed. The image taking means (see FIG. 1) may be a component of the device 100 according to the embodiments of the present disclosure, or may be a component of a separate external device. For example, the photographing module 111 may be configured as a line camera for scanning a photographing subject moving along the conveyor belt. The configuration of the photographing module 111 according to the embodiments of the present disclosure is not limited to the above-described configuration, and any combination for efficiently acquiring image data can be used in an embodiment of the present invention.

또한, 촬영 모듈(111)은 다양한 형태의 이미지를 촬영할 수 있다. 촬영 모듈(111)의 촬영 결과물은 3D이미지, 흑백 이미지, 시간의 흐름에 따라 저장되는 GIF이미지, 영상 이미지, 적외선 이미지, 전자 이미지 등을 포함할 수 있다. 또한 촬영 모듈(111)은 필름 카메라, 디지털 카메라, 현미경, 확대경, 적외선 카메라, 자외선(UV) 카메라, X-Ray, 자기 공명 영상 장치 및 임의의 이미지 획득 장치를 포함할 수 있다. 촬영 모듈(111)은 촬영되는 대상의 촬영물에 따라 구성이 변경될 수도 있다.In addition, the photographing module 111 can photograph various types of images. The photographing result of the photographing module 111 may include a 3D image, a monochrome image, a GIF image stored in accordance with the passage of time, an image image, an infrared image, an electronic image, and the like. The imaging module 111 may also include a film camera, a digital camera, a microscope, a magnifying glass, an infrared camera, an ultraviolet (UV) camera, an X-ray, a magnetic resonance imaging device, and any image acquisition device. The photographing module 111 may be changed in configuration depending on the photographing object to be photographed.

또한, 본 개시의 실시예들에 따른 이미지 데이터 획득부(110)는 결함이 없는 복수 개의 정상 이미지 데이터를 획득하는 제 1 획득 모듈(113)을 포함할 수 있다.결함이 없는 복수 개의 정상 이미지 데이터는 제 1 획득 모듈(113)을 통해 외부로부터 수신될 수 있다. 이러한 경우 제 1 획득 모듈(113)은 네트워크부(180) 및/또는 입력부(예를 들어, USB 입력부 등)와 유기적으로 연결되어 동작할 수 있다. In addition, the image data obtaining unit 110 according to the embodiments of the present disclosure may include a first obtaining module 113 for obtaining a plurality of defect-free normal image data. May be received from the outside via the first acquisition module 113. [ In such a case, the first acquisition module 113 may operate in connection with the network section 180 and / or the input section (e.g., the USB input section, etc.).

추가적으로, 본 개시의 실시예들에 따른 이미지 데이터 획득부(110)는 복수 개의 정상 이미지 데이터에 기초하여 참조 이미지를 생성하는 참조 이미지 생성 모듈(113)을 포함할 수 있다. In addition, the image data obtaining unit 110 according to the embodiments of the present disclosure may include a reference image generating module 113 that generates a reference image based on a plurality of normal image data.

도 10은 본 개시의 실시예들에 따른 이미지 데이터 획득부의 제 2 실시예이다.10 is a second embodiment of the image data obtaining section according to the embodiments of the present disclosure.

본 개시의 실시예들에 따라서, 이미지 데이터 획득부(110)는 타겟을 촬영하는 촬영 모듈(111) 및 결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 상기 참조 이미지를 획득하는 제 2 획득 모듈(115)을 포함할 수 있다. According to embodiments of the present disclosure, the image data acquisition unit 110 includes a photographing module 111 for photographing a target, and a second acquiring module 111 for acquiring the reference image generated based on a plurality of normal image data, (115).

본 개시의 실시예들에 따라서, 참조 이미지 데이터는 제 2 획득 모듈(115)에 의해 외부로부터 네트워크를 통해 수신되거나, 또는, 추가적인 디바이스(예를 들어, USB 등)에 의해 입력받을 수 있다. According to embodiments of the present disclosure, the reference image data may be received externally by the second acquisition module 115 from the network, or may be input by an additional device (e.g., USB, etc.).

도 11은 본 개시의 실시예들에 따른 이미지 데이터 획득부의 제 3 실시예이다.11 is a third embodiment of the image data obtaining section according to the embodiments of the present disclosure.

본 개시의 실시예들에 따라서, 이미지 데이터 획득부(110)는 결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 상기 참조 이미지와 촬영 모듈에 의해 촬영된 타겟 이미지 데이터를 획득하는 제 3 획득 모듈(117)을 포함할 수 있다.According to embodiments of the present disclosure, the image data obtaining unit 110 may include a third acquiring module that acquires the reference image generated based on a plurality of normal image data without defects and the target image data photographed by the photographing module, (117).

다시, 도 8을 참조하면, 본 개시의 실시예들에 따른 제 1 검출부(120)는 참조 이미지 데이터로부터 하나 이상의 특징점을 검출할 수 있다. 본 개시의 실시예들에 따른 제 2 검출부(130)는, 타겟 이미지 데이터로부터 하나 이상의 특징점을 검출할 수 있다. 본 개시의 실시예들에 따른 추정 특징점 결정부(140)는, 특징점 추정을 위한 알고리즘에 적어도 기초하여 참조 이미지 데이터 및 타겟 이미지 데이터로부터 미검출된 특징점 및 미매칭된 특징점 각각에 대한 추정 특징점을 결정할 수 있다. 전술한 바와 같은 제 1 검출부(120), 제 2 검출부(130) 및 추정 특징점 결정부(140)는, 도 2의 단계 S120 내지 단계 S140에 각각 대응되므로, 상세한 설명은 생략하도록 한다. Referring again to FIG. 8, the first detector 120 according to embodiments of the present disclosure may detect one or more feature points from the reference image data. The second detection unit 130 according to the embodiments of the present disclosure can detect one or more feature points from the target image data. The estimated minutia determining unit 140 according to the embodiments of the present disclosure determines the estimated minutiae for each of the minutiae not detected and the unmatched minutiae from the reference image data and the target image data based at least on the algorithm for minutiae estimation . The first detection unit 120, the second detection unit 130, and the estimated minutia determination unit 140 described above correspond to the steps S120 to S140 in FIG. 2, respectively, and thus the detailed description thereof will be omitted.

본 개시의 실시예들에 따른 이미지 데이터 정합부(150)는, 두 개 이상의 이미지 데이터들의 위치 관계를 대응시켜 하나의 좌표계로 정렬시키는 영상 정합을 수행한다. 즉, 이미지 데이터 정합부(150)는 참조 이미지 데이터와 타겟 이미지 데이터의 위치 관계를 대응시켜 하나의 좌표계로 정렬시킨다. 이에 관련한 내용은 도 2의 단계 S150에서 상세히 설명하였으므로, 추가적인 설명은 생략하도록 한다. The image data matching unit 150 according to the embodiments of the present disclosure performs image matching in which positional relations of two or more image data are associated with each other and aligned in one coordinate system. That is, the image data matching unit 150 aligns the positional relationship between the reference image data and the target image data in one coordinate system. Since the details have been described in detail at step S150 in FIG. 2, further explanation will be omitted.

본 개시의 실시예들에 따른 데이터 복원부(160)는, 조명에 의해 손실된 타겟 이미지 데이터의 적어도 일부의 데이터를 복원할 수 있다. The data decompression unit 160 according to the embodiments of the present disclosure can restore at least a part of the data of the target image data lost by the illumination.

본 개시의 실시예들에 따라서, 타겟 이미지 데이터를 보정하는 장치(100)는 참조 이미지 데이터에 대하여 학습된 네트워크 함수를 이용하여 타겟 이미지 데이터의 상태 정보를 결정하는 상태 정보 결정부(170)를 포함할 수 있다.According to embodiments of the present disclosure, the apparatus 100 for correcting target image data includes a status information determination unit 170 that determines status information of target image data using the learned network function for reference image data can do.

본 개시의 일 실시예에 따라 네트워크부(180)는 이미지 데이터 획득부(110)에서 획득된 이미지를 다른 장치 또는 서버로 전송할 수 있다. 네트워크부(180)는 이미지 촬영 장치와 이미지 보정 장치가 별개로 구성되어 있는 경우 두 장치 사이의 무선 통신을 가능하게 하는 하나 이상의 모듈을 포함할 수 있다. 네트워크부(180)는 송신부 및 수신부를 포함할 수 있다. 네트워크부(180)는 네트워크 접속을 위한 유/무선 인터넷 모듈을 포함할 수 있다. 무선 인터넷 기술로는 WLAN(Wireless LAN)(Wi-Fi), Wibro(Wireless broadband), Wimax(World Interoperability for Microwave Access), HSDPA(High Speed Downlink Packet Access) 등이 이용될 수 있다. 유선 인터넷 기술로는 XDSL(Digital Subscriber Line), FTTH(Fibers to the home), PLC(Power Line Communication) 등이 이용될 수 있다.According to an embodiment of the present disclosure, the network unit 180 may transmit the image acquired by the image data acquisition unit 110 to another device or a server. The network portion 180 may include one or more modules that enable wireless communication between the two devices if the image capture device and the image correction device are separately configured. The network unit 180 may include a transmitting unit and a receiving unit. The network unit 180 may include a wired / wireless Internet module for network connection. WLAN (Wi-Fi), Wibro (Wireless broadband), Wimax (World Interoperability for Microwave Access), HSDPA (High Speed Downlink Packet Access) and the like can be used as wireless Internet technologies. Wired Internet technologies include XDSL (Digital Subscriber Line), FTTH (Fiber to the home), and PLC (Power Line Communication).

또한, 네트워크부(180)는 근거리 통신 모듈을 포함하여, 장치(100)와 비교적 근거리에 위치하고 근거리 통신 모듈을 포함한 전자 장치와 데이터를 송수신할 수 있다. 근거리 통신(short range communication) 기술로 블루투스(Bluetooth), RFID(Radio Frequency Identification), 적외선 통신(IrDA, infrared Data Association), UWB(Ultra Wideband), ZigBee 등이 이용될 수 있다. 본 개시의 일 실시예에서, 네트워크부(180)는 네트워크의 연결 상태 및 네트워크의 송수신 속도를 감지할 수 있다. 네트워크부(180)를 통해 수신된 데이터는 디스플레이를 통해 출력되거나, 메모리부(190)를 통해 저장되거나, 또는 근거리 통신 모듈을 통해 근거리에 있는 다른 전자장치들로 전송될 수 있다.In addition, the network unit 180 may transmit data to and receive data from an electronic device including a short distance communication module, which is located relatively close to the apparatus 100, including the short distance communication module. Bluetooth, Radio Frequency Identification (RFID), infrared data association (IrDA), Ultra Wideband (UWB), ZigBee, and the like can be used as a short range communication technology. In one embodiment of the present disclosure, the network portion 180 can sense the connection state of the network and the transmission / reception speed of the network. Data received via the network section 180 may be output via the display, stored through the memory section 190, or transmitted to other electronic devices in the vicinity via the local communication module.

본 개시의 일 실시예에 따라 네트워크부(180)는 외부 장치 또는 서버로부터 이미지를 수신할 수 있다. 수신된 이미지는 제어부에 의해 이미지 데이터의 상태 판단을 하여 등급을 판단하거나 분류될 수 있다. 이미지를 촬영하는 카메라부와 이미지에서 이미지 데이터를 추출하고, 상기 이미지 데이터를 상태 판단하는 제어부는 별도의 디바이스로 구성될 수 있다. 수신되는 이미지는 디지털 영상, 디지털 이미지, 압축 데이터, RAW이미지, 데이터 파일 등일 수 있으며, 이미지로 변환될 수 있는 데이터는 종류에 제한 없이 수신할 수 있다. 외부에서 네트워크부(180)를 통해 수신된 이미지는 제어부에서 이미지 데이터의 상태 판단에 이용할 수도 있고, 상기 이미지의 상태 판단을 통해 상태 판단 촬영물의 상태를 판단할 수도 있다.According to one embodiment of the present disclosure, the network portion 180 may receive an image from an external device or server. The received image can be judged or classified according to the status of the image data by the control unit. The control unit for extracting image data from the camera unit and the image capturing unit and determining the status of the image data may be configured as a separate device. The received image may be a digital image, a digital image, compressed data, a RAW image, a data file, or the like, and data that can be converted into an image can be received without limitation. The image received from the outside through the network unit 180 may be used for determining the state of the image data in the control unit or may be used for determining the state of the state determining photograph through the state determination of the image.

본 개시의 실시예들에 따른 메모리부(190)는 제어부의 동작을 위한 프로그램을 저장할 수 있고, 입/출력되는 데이터들(예를 들어, 참조 이미지 데이터 정보, 참조 이미지 데이터로부터 검출된 특징점 정보, 특징점 검출을 위한 제 1 알고리즘, 특징점 검출을 위한 제 2 알고리즘, 특징점 추정을 위한 알고리즘, 상태 판단 정보, 메시지, 정지영상, 동영상 등)을 임시 또는 영구 저장할 수도 있다. 상기 메모리부(190)는 디스플레이 및 음향에 관한 데이터를 저장할 수 있다. 메모리부(190)는 플래시 메모리 타입(flash memory type), 하드디스크 타입(hard disk type), 멀티미디어 카드 마이크로 타입(multimedia card micro type), 카드 타입의 메모리(예를 들어 SD 또는 XD 메모리 등), 램(Random Access Memory, RAM), SRAM(Static Random Access Memory), 롬(Read-Only Memory, ROM), EEPROM(Electrically Erasable Programmable Read-Only Memory), PROM(Programmable Read-Only Memory), 자기 메모리, 자기 디스크, 광디스크 중 적어도 하나의 타입의 저장매체를 포함할 수 있다. The memory unit 190 according to the embodiments of the present disclosure may store a program for operation of the control unit and may store input / output data (for example, reference image data information, minutia information detected from reference image data, A first algorithm for feature point detection, a second algorithm for feature point detection, an algorithm for feature point estimation, state determination information, a message, a still image, a moving image, etc.). The memory unit 190 may store data related to display and sound. The memory unit 190 may be a flash memory type, a hard disk type, a multimedia card micro type, a card type memory (for example, SD or XD memory) (Random Access Memory), a static random access memory (SRAM), a read-only memory (ROM), an electrically erasable programmable read-only memory (EEPROM), a programmable read-only memory (PROM) A magnetic disk, and / or an optical disk.

본 개시의 실시예들에 따른 메모리부(190)는 다양한 네트워크 함수 및 알고리즘을 저장할 수 있다. 네크워크 함수에 대해서는 도 12를 참조하여 후술하도록 한다. 본 개시의 실시예들에 따른 메모리부(190)는 장치(100)를 실행시키는 프로그램, 소프트웨어, 명령, 코드 등을 저장할 수 있다. 본 개시의 실시예들에 따른 메모리부(190)는 캐쉬를 포함하여 이미지 데이터를 임시 저장할 수 있고, 장치(100)를 동작하는데 필요한 프로그램, 명령 등을 임시 저장할 수도 있다. The memory unit 190 according to embodiments of the present disclosure may store various network functions and algorithms. The network function will be described later with reference to FIG. The memory unit 190 according to embodiments of the present disclosure may store programs, software, instructions, codes, and the like that cause the apparatus 100 to execute. The memory unit 190 according to the embodiments of the present disclosure may temporarily store image data including a cache and temporarily store programs, commands, and the like necessary for operating the apparatus 100. [

본 개시의 실시예들에 따른 메모리부(190)는 결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 참조 이미지(Reference Image) 및 상기 타겟 이미지 데이터를 획득하는 명령; 상기 참조 이미지 데이터로부터 하나 이상의 특징점을 검출하는 명령; 상기 타겟 이미지 데이터로부터 하나 이상의 특징점을 검출하는 명령; 특징점 추정을 위한 알고리즘에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터로부터 미검출된 특징점 및 미매칭된 특징점 각각에 대한 추정 특징점을 결정하는 명령; 상기 특징점 및 상기 추정 특징점에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 정합하는 명령; 및 조명에 의해 손실된 상기 타겟 이미지 데이터의 적어도 일부의 데이터를 복원하는 명령;을 포함할 수 있다.The memory unit 190 according to the embodiments of the present disclosure includes a reference image generated based on a plurality of normal image data without defects and an instruction to acquire the target image data; Detecting one or more feature points from the reference image data; Detecting one or more feature points from the target image data; Determining an estimated feature point for each of the feature point and non-matched feature point that are not detected from the reference image data and the target image data, based at least on an algorithm for feature point estimation; Instructions for matching the reference image data and the target image data based at least on the feature points and the estimated feature points; And restoring at least a portion of the data of the target image data lost by the illumination.

본 개시의 실시예들에 따른 메모리부(190)는 카메라모듈(111)에서 촬영되는 이미지 및 영상의 적어도 일부분을 저장할 수 있다. 또한, 메모리부(190)는 상기 저장된 촬영 데이터 중에서 제어부 등과 같은 다른 컴포넌트 또는 다른 디바이스에 의해 로딩되지 않은 촬영 이미지를 사전 결정된 시간 이후에 삭제할 수도 있다. 메모리부(190)는 촬영된 이미지가 다양한 크기의 이미지 패치로 분할되어 저장될 수도 있다. 상기 메모리부(190)의 구성은 예시일 뿐이며 본 개시는 이에 제한되지 않는다.The memory unit 190 according to the embodiments of the present disclosure may store at least a part of images and images photographed in the camera module 111. [ In addition, the memory unit 190 may delete, from the stored photographing data, a photographed image that is not loaded by another component such as a controller or another device after a predetermined time. The memory unit 190 may store the photographed image divided into image patches of various sizes. The configuration of the memory unit 190 is merely an example, and the present disclosure is not limited thereto.

본 개시의 실시예들에 따라 장치(100)는 입력부를 포함할 수 있다. 입력부는 외부의 장치를 연결하여 장치를 이용하도록 하거나 저장장치에 접속하여 데이터를 입력받을 수 있다. 예를 들어 USB 저장 장치를 입력부에 연결하면 USB에 저장된 이미지가 메모리에 복사되어 저장되거나 디스플레이에 표시될 수 있다. In accordance with embodiments of the present disclosure, apparatus 100 may include an input. The input unit may connect an external device to use the device, or may connect to a storage device to receive data. For example, when a USB storage device is connected to the input unit, images stored in the USB can be copied to the memory and stored or displayed on the display.

본 개시의 일 실시예에 따라 입력부는 외부의 조작을 입력받을 수 있다. 예를 들어 카메라부의 제어를 위해 입력부에 포함된 조그를 조작하면 카메라부가 촬영하는 위치를 변경하거나 초점을 변경할 수 있다. 입력부는 상태 판단 촬영물을 변경하도록 하는 스위치를 포함할 수도 있다. 입력부는 다양한 사용자의 입력을 수신할 수 있다.According to one embodiment of the present disclosure, the input unit can receive an external operation. For example, when the jog included in the input unit is manipulated for the control of the camera unit, the camera unit can change the shooting position or change the focus. The input unit may include a switch for changing the status judging photograph. The input unit may receive inputs of various users.

본 개시의 일 실시예에 따라 입력부는 하나 이상의 외부 입력 장치를 포함하거나 연결할 수 있다. 사용자는 입력부에 외부 저장 매체를 연결하여, 장치(100)의 펌웨어 업그레이드, 컨텐츠 저장 등을 수행할 수 있다. 또한, 사용자는 상기 입력부에 키보드, 마우스 등을 연결하여 사용할 수도 있다. 또한, 입력부의 USB포트는 USB 2.0, 및 USB 3.0 를 지원할 수 있다. 또한, 입력부는 USB 포트뿐만 아니라 선더볼트 등의 인터페이스를 포함할 수도 있다. 또한, 입력부는 터치스크린, 버튼 등의 다양한 입력 장치들을 결합하여 외부의 입력을 수신할 수 있고, 제어부에 의해 상기 입력에 대응하여 장치(100)가 제어될 수도 있다. In accordance with one embodiment of the present disclosure, an input may include or be coupled to one or more external input devices. The user can connect the external storage medium to the input unit and perform firmware upgrade, content storage, and the like of the device 100. [ In addition, a user may connect a keyboard, a mouse, and the like to the input unit. In addition, the USB port of the input unit can support USB 2.0, and USB 3.0. The input unit may include an interface such as a thumb bolt as well as a USB port. In addition, the input unit may receive external inputs by combining various input devices such as a touch screen, a button, etc., and the device 100 may be controlled by the control unit in response to the input.

본 개시의 실시예들에 따라서 장치(100)는 디스플레이를 더 포함할 수 있다. 디스플레이는 촬영 모듈(111)이 촬영한 이미지를 표시할 수 있다. 디스플레이는 현재 촬영 모듈(111)이 촬영하고 있는 이미지를 표시할 수도 있고 메모리부에 저장된 이미지를 불러와 표시할 수도 있다. 일례로, 본 개시의 실시예들에 따른 디스플레이는 이미지 데이터 정합부(150)에 의해 정합되거나, 또는 데이터 복원부(150)에 의해 복원되는 이미지 데이터를 표시할 수 있다. 이로써, 사용자가 디스플레이되는 영상을 모니터링할 수 있도록 허용한다. According to embodiments of the present disclosure, the apparatus 100 may further include a display. The display can display an image photographed by the photographing module 111. The display may display the image currently being photographed by the photographing module 111 or may display an image stored in the memory unit. For example, the display according to the embodiments of the present disclosure may display image data that is matched by the image data matching unit 150, or restored by the data restoring unit 150. This allows the user to monitor the displayed image.

또한, 디스플레이는 타겟에 대한 상태 판단 결과를 출력할 수 있다. 이러한 디스플레이는 외부 장치의 이미지를 수신받아 출력할 수 있으며, 외부 장치의 이미지 상태 판단 결과를 출력할 수도 있다. Further, the display can output a result of state determination for the target. Such a display may receive and output an image of an external device, and may output an image state determination result of the external device.

본 개시의 실시예들에 따라서 디스플레이는 촬영 가능한 촬영 방식을 출력할 수 있다. 예를 들어 이미지 해상도인 200dip, 300dip, 600dip등을 선택하도록 출력할 수 있다. 또한 이미지 크기, 이미지 촬영 모드, 촬영 장치 등을 선택할 수 있도록 선택 화면을 출력할 수도 있다. 디스플레이는 LCD, LED, CRT 등 임의의 시각적 출력 장치로 구성될 수 있다. 전술한 디스플레이 예시와 구성요소는 예시일 뿐이며 본 개시는 이에 한정되지 않는다. 또한 디스플레이는 사용자의 터치를 통하여 입력을 받을 수 있도록 터치 스크린 형태로 구비되어, 사용자 입력 인터페이스로서 동작할 수 있다. According to embodiments of the present disclosure, the display may output a photographable photographing mode. For example, you can output 200dip, 300dip, and 600dip image resolution. In addition, a selection screen can be displayed so that an image size, an image shooting mode, a photographing apparatus, and the like can be selected. The display may comprise any visual output device, such as an LCD, LED, CRT, or the like. The display examples and components described above are merely illustrative, and the present disclosure is not limited thereto. Also, the display may be provided as a touch screen to receive input through a user's touch, and may operate as a user input interface.

본 개시의 실시예들에 따른 장치(100)는 음향 출력이 가능하도록 구성될 수 있다. 촬영 대상이 아니거나 상태 판단 결과에 따라 경고 사운드를 출력할 수도 있다. Apparatus 100 in accordance with embodiments of the present disclosure may be configured to enable acoustic output. It is also possible to output a warning sound in accordance with the result of the state determination or not.

본 개시의 실시예들에 따른 제어부는 전술한 다른 컴포넌트들 모두와 통신할 수 있어서, 이들의 동작들을 유기적으로 제어할 수 있다.A controller in accordance with embodiments of the present disclosure can communicate with all of the other components described above, and can organically control their operation.

여기에 설명되는 다양한 실시예는 예를 들어, 소프트웨어, 하드웨어 또는 이들의 조합된 것을 이용하여 컴퓨터 또는 이와 유사한 장치로 읽을 수 있는 기록매체 내에서 구현될 수 있다. 하드웨어적인 구현에 의하면, 여기에 설명되는 실시예는 ASICs (application specific integrated circuits), DSPs (digital signal processors), DSPDs (digital signal processing devices), PLDs (programmable logic devices), FPGAs (field programmable gate arrays, 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적인 유닛 중 적어도 하나를 이용하여 구현될 수 있다. 일부의 경우에 본 명세서에서 설명되는 실시예들이 제어부자체로 구현될 수 있다. The various embodiments described herein may be embodied in a recording medium readable by a computer or similar device using, for example, software, hardware, or a combination thereof. According to a hardware implementation, the embodiments described herein may be implemented as application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays May be implemented using at least one of a processor, controllers, micro-controllers, microprocessors, and other electronic units for performing other functions. In some cases, The embodiments described may be implemented by the control itself.

소프트웨어적인 구현에 의하면, 본 명세서에서 설명되는 절차 및 기능과 같은 실시예들은 별도의 소프트웨어 모듈들로 구현될 수 있다. 상기 소프트웨어 모듈들 각각은 본 명세서에서 설명되는 하나 이상의 기능 및 작동을 수행할 수 있다. 적절한 프로그램 언어로 쓰여진 소프트웨어 어플리케이션으로 소프트웨어 코드가 구현될 수 있다. 상기 소프트웨어 코드는 메모리(190)에 저장되고, 제어부에 의해 실행될 수 있다.According to a software implementation, embodiments such as the procedures and functions described herein may be implemented with separate software modules. Each of the software modules may perform one or more of the functions and operations described herein. Software code can be implemented in a software application written in a suitable programming language. The software code is stored in the memory 190 and can be executed by the control unit.

도 12는 본 개시의 실시예들에 따른 신경망 네트워크의 일 예를 나타낸 개념도이다.12 is a conceptual diagram illustrating an example of a neural network according to embodiments of the present disclosure.

본 명세서에 걸쳐, 신경망 네트워크, 네트워크 함수, 뉴럴 네트워크(neural network)는 동일한 의미로 사용될 수 있다. 신경망 네트워크는 일반적으로 “노드”라 지칭될 수 있는 상호연결된 계산 단위들의 집합으로 구성될 수 있다. 이러한 “노드”들은 “뉴런(neuroun)”들로 지칭될 수도 있다. 신경망 네트워크는 적어도 둘 이상의 노드들을 포함하여 구성된다. 신경망 네트워크들을 구성하는 노드(또는 뉴런)들은 하나 이상의 “링크”에 의해 상호 연결될 수 있다.Throughout this specification, a neural network, a network function, and a neural network may be used interchangeably. A neural network may consist of a set of interconnected computational units, which may be referred to generally as " nodes ". These " nodes " may also be referred to as " neurons ". The neural network comprises at least two nodes. The nodes (or neurons) that make up the neural network may be interconnected by one or more " links ".

신경망 네트워크 내에서, 링크를 통해 연결된 둘 이상의 노드들은 상대적으로 입력 노드 및 출력 노드의 관계를 형성할 수 있다. 입력 노드 및 출력 노드의 개념은 상대적인 것으로서, 하나의 노드에 대하여 출력 노드 관계에 있는 임의의 노드는 다른 노드와의 관계에서 입력 노드 관계에 있을 수 있으며, 그 역도 성립할 수 있다. 전술한 바와 같이, 입력 노드 대 출력 노드 관계는 링크를 중심으로 생성될 수 있다. 하나의 입력 노드에 하나 이상의 출력 노드가 링크를 통해 연결될 수 있으며, 그 역도 성립할 수 있다. Within a neural network, two or more nodes connected through a link may form a relationship of input and output nodes relatively. The concepts of the input node and the output node are relative, and any node in the output node relationship with respect to one node can be in the input node relationship with the other node, and vice versa. As described above, the input node-to-output node relationship can be generated around the link. One or more output nodes may be connected to one input node via a link, and vice versa.

하나의 링크를 통해 연결된 입력 노드 및 출력 노드 관계에서, 출력 노드는 입력 노드에 입력된 데이터에 기초하여 그 값이 결정될 수 있다. 여기서 입력 노드와 출력 노드를 상호연결하는 노드는 가중치를 가질 수 있다. 가중치는 가변적일 수 있으며, 신경망 네트워크가 원하는 기능을 수행하기 위해, 사용자 또는 알고리즘에 의해 가변될 수 있다. 예를 들어, 하나의 출력 노드에 하나 이상의 입력 노드가 각각의 링크에 의해 상호 연결된 경우, 출력 노드는 상기 출력 노드와 연결된 입력 노드들에 입력된 값들 및 각각의 입력 노드들에 대응하는 링크에 설정된 가중치에 기초하여 출력 노드 값을 결정할 수 있다.In an input node and an output node relationship connected through one link, the output node can be determined based on data input to the input node. Here, a node interconnecting an input node and an output node may have a weight. The weights may be variable and may be varied by the user or algorithm to perform the desired function of the neural network. For example, if one or more input nodes to one output node are interconnected by respective links, then the output node is set to the values input to the input nodes associated with the output node and to the corresponding links to the respective input nodes The output node value can be determined based on the weight.

전술한 바와 같이, 신경망 네트워크는 둘 이상의 노드들이 하나 이상의 링크를 통해 상호연결 되어 신경망 네트워크 내에서 입력 노드 및 출력 노드 관계를 형성한다. 신경망 네트워크 내에서 노드들과 링크들의 개수 및 노드들과 링크들 사이의 연관관계, 링크들 각각에 부여된 가중치의 값에 따라, 신경망 네트워크의 특성이 결정될 수 있다. 예를 들어, 동일한 개수의 노드 및 링크들이 존재하고, 링크들 사이의 가중치 값이 상이한 두 신경망 네트워크가 존재하는 경우, 두 개의 신경망 네트워크들은 서로 상이한 것으로 인식될 수 있다.As described above, the neural network is interconnected by two or more nodes over one or more links to form an input node and an output node relationship within the neural network. The characteristics of the neural network can be determined according to the number of nodes and links in the neural network, the association between the nodes and links, and the value of the weight assigned to each of the links. For example, if there are the same number of nodes and links, and there are two neural network networks with different weight values between the links, then the two neural network networks may be recognized as being different from each other.

도 12에 도시된 바와 같이, 신경망 네트워크는 둘 이상의 노드들을 포함하여, 구성될 수 있다. 신경망 네트워크를 구성하는 노드들 중 일부는, 최초 입력 노드로부터의 거리들에 기초하여, 하나의 레이어(layer)를 구성할 수 있다, 예를 들어, 최초 입력 노드로부터 거리가 n인 노드들의 집합은, n 레이어를 구성할 수 있다. 최초 입력 노드로부터 거리는, 최초 입력 노드로부터 해당 노드까지 도달하기 위해 거쳐야 하는 링크들의 최소 개수에 의해 정의될 수 있다. 그러나, 이러한 레이어의 정의는 설명을 위한 임의적인 것으로서, 신경망 네트워크 내에서 레이어의 차수는 전술한 것과 상이한 방법으로 정의될 수 있다. 예를 들어, 노드들의 레이어는 최종 출력 노드로부터 거리에 의해 정의될 수도 있다.As shown in FIG. 12, the neural network may be configured to include two or more nodes. Some of the nodes that make up the neural network may configure one layer based on distances from the original input node. For example, a set of nodes with a distance n from the first input node may be , n layers can be constructed. The distance from the original input node may be defined by the minimum number of links that must go through to reach that node from the original input node. However, the definition of this layer is arbitrary for explanation, and the degree of the layer in the neural network can be defined in a manner different from the above. For example, the layer of nodes may be defined by distance from the final output node.

최초 입력 노드는 신경망 네트워크 내의 노드들 중 다른 노드들과의 관계에서 링크를 거치지 않고 데이터가 직접 입력되는 하나 이상의 노드들을 의미할 수 있다. 또는, 신경망 네트워크 내에서, 링크를 기준으로 한 노드 간의 관계에 있어서, 링크로 연결된 다른 입력 노드들 가지지 않는 노드들을 의미할 수 있다. 이와 유사하게, 최종 출력 노드는 신경망 네트워크 내의 노드들 중 다른 노드들과의 관계에서, 출력 노드를 가지지 않는 하나 이상의 노드들을 의미할 수 있다. 또한, 히든 노드는 최초 입력 노드 및 최후 출력 노드가 아닌 신경망 네트워크를 구성하는 노드들을 의미할 수 있다.The first input node may refer to one or more nodes in the neural network network to which data is directly input without going through a link in relation to other nodes. Or may refer to nodes in a neural network that do not have other input nodes connected by a link in the relationship between the nodes based on the link. Similarly, the final output node may refer to one or more nodes that do not have an output node, in relation to other ones of the nodes in the neural network. Also, the hidden node may refer to nodes constituting a neural network other than the first input node and the last output node.

도 12에 도시된 예시적인 실시예에서, 신경망 네트워크는 3개의 레이어들을 가질 수 있다. 3개의 레이어들은, 전술한 정의에 따라, 최초 입력 레이어(210), 히든 레이어(220) 및 최종 출력 레이어(230)를 포함할 수 있다. 그러나, 도 12에 도시된 예시적인 신경망 네트워크는 설명을 위해 단순화된 것이며, 신경망 네트워크를 구성하는 레이어들의 개수 및 노드들의 개수는 신경망 네트워크의 목적 및 이에 따른 복잡성에 따라 다양하게 설정될 수 있다. 다시 말해서, 둘 이상의 히든 레이어들(미도시)을 포함하는 신경망 네트워크가 존재할 수 있다. 또한, 각각의 레이어에 포함된 노드들의 수들은 도 12에 도시된 것보다 많거나 적을 수 있다.In the exemplary embodiment shown in FIG. 12, the neural network may have three layers. The three layers may include an initial input layer 210, a hidden layer 220, and a final output layer 230, in accordance with the above definition. However, the exemplary neural network shown in Fig. 12 is simplified for explanation, and the number of layers and the number of nodes constituting the neural network can be variously set according to the purpose and complexity of the neural network. In other words, there may be a neural network that includes two or more hidden layers (not shown). In addition, the number of nodes included in each layer may be more or less than that shown in FIG.

최초 입력 레이어(210)에서, 신경망 네트워크가 판단하고자 하는 대상에 대한 정보들이 최초 입력 레이어(210)를 구성하는 각각의 노드들(211, 212, 213)에 입력될 수 있다. 최초 입력 레이어(210)의 입력 노드들의 개수는 신경망 네트워크의 종류에 따라 상이하게 구성될 수 있다. 일 예에서, 신경망 네트워크가 판단하고자 하는 대상이 이미지 데이터인 경우, 신경망 네트워크의 최초 입력 레이어(210)에는 이미지 데이터에서 추출된 입력 데이터들이 입력될 수 있다. 이미지 데이터를 판단하는 동일한 목적을 가지는 상이한 신경망 네트워크에서, 신경망 네트워크의 입력 노드들(미도시)의 수는 신경망 네트워크의 목적, 설계, 정확도 등에 따라 상이하게 결정될 수 있다. At the initial input layer 210, information about an object to be determined by the neural network may be input to each of the nodes 211, 212, and 213 constituting the initial input layer 210. The number of input nodes of the initial input layer 210 may be different depending on the type of the neural network. In one example, if the object to be determined by the neural network is image data, the input data extracted from the image data may be input to the initial input layer 210 of the neural network. In a different neural network having the same purpose of determining image data, the number of input nodes (not shown) of the neural network may be determined differently depending on the purpose, design, accuracy, etc. of the neural network.

예를 들어, 하나의 신경망 네트워크는 이미지 데이터들을 구성하는 각 픽셀들에 대한 광학 정보의 개수의 대응하는 개수의 입력 노드들(미도시)을 최초 입력 레이어(210)에 포함하고 있을 수 있다. 예를 들어, 가로 및 세로가 128 X 128의 크기를 가지는 정사각형 이미지 데이터를 판단하기 위한 신경망 네트워크의 경우, 각각의 픽셀에 대한 R,G,B 수치 값들에 대한 정보가 신경망 네트워크의 최초 입력 레이어(210)에 입력될 수 있다. 따라서, 최초 입력 레이어는 128 X 128 X 3 개의 입력 노드들을 포함할 수 있다. 다른 예에서, 이미지 데이터들을 판단하기 위한 신경망 네트워크는 전술한 예보다 적은 수의 노드들을 최초 입력 레이어(210)에 포함할 수 있다. 예를 들어, 최초 입력 레이어에는 판단하고자 하는 이미지 데이터의 특징들을 나타내는 수치들(예를 들어, 이미지 데이터 상의 연속되는 픽셀의 개수, 변곡점의 개수 등)이 입력될 수 있다. For example, a single neural network may include a corresponding number of input nodes (not shown) in the original input layer 210 of the number of optical information for each of the pixels making up the image data. For example, in the case of a neural network for determining square image data having a size of 128 x 128 in the horizontal and vertical directions, information about the R, G, B numerical values for each pixel is stored in the first input layer 210). Thus, the original input layer may include 128 X 128 X 3 input nodes. In another example, a neural network network for determining image data may include fewer nodes in the original input layer 210 than the example described above. For example, numerals (e.g., the number of consecutive pixels on the image data, the number of inflection points, etc.) indicative of the characteristics of the image data to be determined may be input to the initial input layer.

전술한 실시예들은 설명을 위한 것일 뿐, 본 발명에 개시된 실시예에서 사용되는 신경망 네트워크들은 이미지 데이터를 판단하기 위한 신경망 네트워크에 한정되지 않으며, 신경망 네트워크들은 다양한 데이터(예를 들어, 컴퓨터 네트워크 상의 노드들의 통신 상태를 나타내는 데이터, 압축하고자 하는 컴퓨터 파일에 포함된 데이터, 로보틱스 공학에서 기계적 구성요소의 물리적 상태를 나태는 데이터, 재무 분석 데이터 등)를 입력 데이터로서 처리할 수 있다.The neural network networks used in the embodiments disclosed herein are not limited to neural network networks for determining image data, and neural network networks may include various data (e.g., nodes on a computer network) Data included in a computer file to be compressed, data indicating a physical state of a mechanical component in robotics engineering, financial analysis data, etc.) can be processed as input data.

신경망 네트워크(200) 내에서, 하나의 n 레이어에 입력된 데이터들은 n+1 레이어로 출력될 수 있다. n 레이어에 포함되는 노드들은 n+1 레이어에 포함되는 노드들과 링크를 통해 연결될 수 있다. n+1 레이어에 포함되는 하나의 노드는, 해당 노드와 링크를 통해 연결된 n 레이어에 포함된 하나 이상의 노드들 및 하나 이상의 링크들에 부여된 가중치에 기초하여 연산된 값을 입력 값으로서 포함할 수 있다. 다시 말해서, n 레이어에 포함된 k 개의 노드들(Nnode1, Nnode2, Nnode3, … Nnodek)과 n+1 노드에 포함되는 하나의 노드 ((N+1)node1)가 k개의 링크들 (L1, …, Lk)에 의해 연결되는 경우, 다음과 같은 [수학식 5]가 성립할 수 있다.In the neural network 200, data input to one n layer can be output as n + 1 layers. Nodes included in the n-th layer can be linked with nodes included in the n + 1-th layer. One node included in the n + 1 layer may include as input values a value computed based on weights assigned to one or more nodes and one or more links included in an n-layer connected via a link with the node have. In other words, k nodes (Nnode 1 , Nnode 2 , Nnode 3 , ... Nnode k ) included in the n layer and one node (N + 1) node 1 included in the n + (L 1 , ..., L k ), the following equation (5) can be established.

Figure pat00005
Figure pat00005

여기서, Value (X)는 신경망 네트워크 내에 존재하는 노드 X에 입력되는 노드 값을 의미할 수 있다. Weight(L)은 신경망 네트워크 내에 존재하는 링크 L이 가지는 가중치를 의미할 수 있다. y=f(x)는 y값이 x 인자에 기초하여 결정되는 함수관계를 가짐을 의미할 수 있다.Here, Value (X) may mean a node value input to a node X existing in a neural network. Weight (L) may refer to the weight of link L existing in the neural network. y = f (x) may mean that the y value has a functional relationship determined based on the x factor.

n+1 레이어에 포함되는 다른 노드들 또한, n 레이어에 포함되는 노드들의 값과, 링크들의 가중치에 기초하여 연산된 값을 입력 값으로 가질 수 있다. 다시 말해서, n+1 레이어에 포함되는 노드들에 입력되어야 하는 노드 값들은, n 레이어에 포함된 노드들의 값과, n 레이어의 노드들 및 n+1 레이어의 노드들을 상호연결하는 링크들의 연결관계 및 이들의 가중치에 기초하여 결정될 수 있다. Other nodes included in the (n + 1) -th layer may also have input values as values calculated based on the values of the nodes included in the n-th layer and the weights of the links. In other words, the node values to be input to the nodes included in the (n + 1) -th layer are the values of the nodes included in the n-th layer and the connection relations of the links connecting the nodes of the n- And their weights.

전술한 바와 같이, 최초 입력 레이어(210)는 0 레이어로 정의될 수도 있다. 따라서, 도 12의 최초 입력 레이어(210) 및 히든 레이어(220)는 0 레이어 및 1 레이어로서, 전술한 신경망 네트워크의 내부의 연산 방법에 따라, 0 레이어(최초 입력 레이어(210))에 포함되는 노드들(211, 212, 213)에 입력된 데이터 및 링크들(215)의 가중치에 기초하여, 1 레이어(히든 레이어(220))에 포함되는 노드들(221, 222, 223, 224)의 값이 결정될 수 있다. 유사하게, 2 레이어(최종 출력 레이어(230))에 포함되는 노드들(231, 232)의 값은, 1 레이어(220)에 포함되는 노드들(221, 222, 223, 224) 및 링크들(225)의 가중치에 기초하여 결정될 수 있다.As described above, the initial input layer 210 may be defined as a zero layer. Therefore, the initial input layer 210 and the hidden layer 220 of FIG. 12 are the 0-layer and the 1-layer, and are included in the 0-layer (the initial input layer 210) according to the calculation method inside the above- The value of the nodes 221, 222, 223, and 224 included in one layer (the hidden layer 220) is calculated based on the weight of the data and links 215 input to the nodes 211, 212, Can be determined. Similarly, the values of the nodes 231 and 232 included in the two layers (the final output layer 230) are the same as those of the nodes 221, 222, 223, and 224 included in the first layer 220, 225). ≪ / RTI >

도 12에 도시된 신경망 네트워크(200)는 신경망 네트워크의 일 예일 뿐이며, 다양한 형태의 신경망 네트워크들이 존재할 수 있음이 당업자에게 자명하다. 신경망 네트워크는 입력 및 출력 값이 존재한다는 의미에서, 네트워크 함수로 지칭될 수 있다. 다시 말해서, 본 명세서에서, 네트워크 함수는 신경망 네트워크를 의미하는 것으로 이해될 수 있다.It is apparent to those skilled in the art that the neural network 200 shown in FIG. 12 is only an example of a neural network, and that various types of neural networks exist. A neural network may be referred to as a network function in the sense that input and output values are present. In other words, in this specification, the network function may be understood to mean a neural network.

본 명세서에서, 네트워크 함수, 신경망 네트워크는 상호 교환가능하게 사용될 수 있다. 또한, 네트워크 함수 및 신경망 네트워크는, 오토 엔코더(auto encoder), 디아볼로 네트워크(diabolo network) 등을 포함하는 것으로 이해될 수 있다. 둘 이상의 신경망 네트워크가 존재하는 경우, 하나의 신경망 네트워크의 출력 노드들이 다른 신경망 네트워크의 입력 노드들이 되는 경우, 둘 이상의 신경망 네트워크가 직렬 연결된 것으로 지칭할 수 있다. 둘 이상의 신경망 네트워크들이 직렬 연결된 경우, 둘 이상의 직렬 연결된 신경망 네트워크들이 하나의 신경망 네트워크를 구성할 수 있다. In this specification, a network function, a neural network, can be used interchangeably. Also, the network function and the neural network may be understood to include an auto encoder, a diabolo network, and the like. When two or more neural network networks exist, if more than one neural network output nodes are input nodes of another neural network, two or more neural network networks may be referred to as a serial connection. When two or more neural network networks are connected in series, two or more serially connected neural network networks can constitute a neural network network.

한편, 신경망을 통해 공정에서 검사 목표의 객체들이 이미지화 되어 검사된다. 예를 들어, 스크래치를 찾기 위해서 제조 중에 이미지화된 텍스타일 직물이 검사될 수 있으며, 재료의 홀이나 반도체 회로의 결함을 찾기 위해 다양한 대상들이 이미지화되고 검사될 수 있다. 이미지 데이터를 사람이 검측하고 분석하는 것에는 한계가 있으며 정확도가 높은 이미지 데이터의 상태 판단 방법이 당 업계에서 요구된다.On the other hand, objects of the inspection target in the process are imaged and inspected through the neural network. For example, an imaged textile fabric may be inspected during fabrication to find scratches, and various objects may be imaged and inspected to find defects in the material's holes or semiconductor circuits. There is a limitation in detecting and analyzing image data by a person, and a method for determining the state of image data with high accuracy is required in the art.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 정보 및 신호들이 임의의 다양한 상이한 기술들 및 기법들을 이용하여 표현될 수 있다는 것을 이해할 것이다. 예를 들어, 위의 설명에서 참조될 수 있는 데이터, 지시들, 명령들, 정보, 신호들, 비트들, 심볼들 및 칩들은 전압들, 전류들, 전자기파들, 자기장들 또는 입자들, 광학장들 또는 입자들, 또는 이들의 임의의 결합에 의해 표현될 수 있다.Those of ordinary skill in the art will understand that information and signals may be represented using any of a variety of different technologies and techniques. For example, data, instructions, commands, information, signals, bits, symbols, and chips that may be referenced in the above description may include voltages, currents, electromagnetic waves, magnetic fields or particles, Particles or particles, or any combination thereof.

본 개시의 기술 분야에서 통상의 지식을 가진 자는 여기에 개시된 실시예들과 관련하여 설명된 다양한 예시적인 논리 블록들, 모듈들, 프로세서들, 수단들, 회로들 및 알고리즘 단계들이 전자 하드웨어, (편의를 위해, 여기에서 "소프트웨어"로 지칭되는) 다양한 형태들의 프로그램 또는 설계 코드 또는 이들 모두의 결합에 의해 구현될 수 있다는 것을 이해할 것이다. 하드웨어 및 소프트웨어의 이러한 상호 호환성을 명확하게 설명하기 위해, 다양한 예시적인 컴포넌트들, 블록들, 모듈들, 회로들 및 단계들이 이들의 기능과 관련하여 위에서 일반적으로 설명되었다. 이러한 기능이 하드웨어 또는 소프트웨어로서 구현되는지 여부는 특정한 애플리케이션 및 전체 시스템에 대하여 부과되는 설계 제약들에 따라 좌우된다. 본 개시의 기술 분야에서 통상의 지식을 가진 자는 각각의 특정한 함수에 대하여 다양한 방식들로 설명된 기능을 구현할 수 있으나, 이러한 구현 결정들은 본 개시의 범위를 벗어나는 것으로 해석되어서는 안 될 것이다.Those skilled in the art will appreciate that the various illustrative logical blocks, modules, processors, means, circuits, and algorithm steps described in connection with the embodiments disclosed herein may be implemented or performed with a specific purpose, (Which may be referred to herein as "software") or a combination of both. To clearly illustrate this interchangeability of hardware and software, various illustrative components, blocks, modules, circuits, and steps have been described above generally in terms of their functionality. Whether such functionality is implemented as hardware or software depends on the design constraints imposed on the particular application and the overall system. Those skilled in the art may implement the described functions in various ways for each particular function, but such implementation decisions should not be interpreted as being outside the scope of the present disclosure.

여기서 제시된 다양한 실시예들은 방법, 장치, 또는 표준 프로그래밍 및/또는 엔지니어링 기술을 사용한 제조 물품(article)으로 구현될 수 있다. 용어 "제조 물품"은 임의의 컴퓨터-판독가능 장치로부터 액세스 가능한 컴퓨터 프로그램, 캐리어, 또는 매체(media)를 포함한다. 매체는 저장 매체 또는 통신 매체를 포함할 수 있다. 예를 들어, 컴퓨터-판독가능 저장 매체는 자기 저장 장치(예를 들면, 하드 디스크, 플로피 디스크, 자기 스트립, 등), 광학 디스크(예를 들면, CD, DVD, 등), 스마트 카드, 및 플래쉬 메모리 장치(예를 들면, EEPROM, 카드, 스틱, 키 드라이브, 등)를 포함하지만, 이들로 제한되는 것은 아니다.The various embodiments presented herein may be implemented as a method, apparatus, or article of manufacture using standard programming and / or engineering techniques. The term "article of manufacture" includes a computer program, carrier, or media accessible from any computer-readable device. The medium may comprise a storage medium or a communication medium. For example, the computer-readable storage medium can be a magnetic storage device (e.g., a hard disk, a floppy disk, a magnetic strip, etc.), an optical disk (e.g., CD, DVD, But are not limited to, memory devices (e. G., EEPROM, card, stick, key drive, etc.).

통신 매체는 통상적으로 반송파(carrier wave) 또는 기타 전송 메커니즘(transport mechanism)과 같은 피변조 데이터 신호(modulated data signal)에 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터등을 구현하고 모든 정보 전달 매체를 포함한다. 피변조 데이터 신호라는 용어는 신호 내에 정보를 인코딩하도록 그 신호의 특성들 중 하나 이상을 설정 또는 변경시킨 신호를 의미한다. 제한이 아닌 예로서, 통신 매체는 유선 네트워크 또는 직접 배선 접속(direct-wired connection)과 같은 유선 매체, 그리고 음향, RF, 적외선, 기타 무선 매체와 같은 무선 매체를 포함한다. Communication media typically embodies computer readable instructions, data structures, program modules or other data in a modulated data signal, such as a carrier wave or other transport mechanism, Media. The term modulated data signal refers to a signal that has one or more of its characteristics set or changed to encode information in the signal. By way of example, and not limitation, communication media includes wired media such as a wired network or direct-wired connection, and wireless media such as acoustic, RF, infrared, or other wireless media.

제시된 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조는 예시적인 접근들의 일례임을 이해하도록 한다. 설계 우선순위들에 기반하여, 본 개시의 범위 내에서 프로세스들에 있는 단계들의 특정한 순서 또는 계층 구조가 재배열될 수 있다는 것을 이해하도록 한다. 첨부된 방법 청구항들은 샘플 순서로 다양한 단계들의 엘리먼트들을 제공하지만 제시된 특정한 순서 또는 계층 구조에 한정되는 것을 의미하지는 않는다.It will be appreciated that the particular order or hierarchy of steps in the presented processes is an example of exemplary approaches. It will be appreciated that, based on design priorities, a particular order or hierarchy of steps in the processes may be rearranged within the scope of this disclosure. The appended method claims provide elements of the various steps in a sample order, but are not meant to be limited to the specific order or hierarchy presented.

제시된 실시예들에 대한 설명은 임의의 본 개시의 기술 분야에서 통상의 지식을 가진 자가 본 개시를 이용하거나 또는 실시할 수 있도록 제공된다. 이러한 실시예들에 대한 다양한 변형들은 본 개시의 기술 분야에서 통상의 지식을 가진 자에게 명백할 것이며, 여기에 정의된 일반적인 원리들은 본 개시의 범위를 벗어남이 없이 다른 실시예들에 적용될 수 있다. 그리하여, 본 개시는 여기에 제시된 실시예들로 한정되는 것이 아니라, 여기에 제시된 원리들 및 신규한 특징들과 일관되는 최광의의 범위에서 해석되어야 할 것이다.The description of the disclosed embodiments is provided to enable any person skilled in the art to make or use the disclosure. Various modifications to these embodiments will be readily apparent to those skilled in the art, and the generic principles defined herein may be applied to other embodiments without departing from the scope of the present disclosure. Thus, the present disclosure should not be construed as limited to the embodiments set forth herein, but is to be accorded the widest scope consistent with the principles and novel features presented herein.

Claims (20)

타겟 이미지 데이터를 보정하는 방법으로서,
결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 참조 이미지(Reference Image) 데이터를 생성하는 단계;
상기 참조 이미지 데이터로부터 하나 이상의 참조 이미지 특징점을 검출하는 단계;
상기 타겟 이미지 데이터로부터 하나 이상의 타겟 이미지 특징점을 검출하는 단계;
특징점 추정을 위한 알고리즘에 적어도 부분적으로 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지로부터 미검출된 특징점 및 미매칭된 특징점 각각에 대한 타겟 이미지 추정 특징점 및 참조 이미지 추정 특징점을 결정하는 단계;
상기 참조 이미지 특징점, 상기 타겟 이미지 특징점 및 상기 추정 특징점에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 정합시키는 단계; 및
조명에 의해 손실된 상기 타겟 이미지 데이터의 적어도 일부의 데이터를 복원하는 단계;
를 포함하는,
타겟 이미지 데이터를 보정하는 방법.
A method of correcting target image data,
Generating reference image data based on a plurality of normal image data without defects;
Detecting one or more reference image feature points from the reference image data;
Detecting one or more target image feature points from the target image data;
Determining a target image estimating feature point and a reference image estimating feature point for each of the reference image data and non-detected feature points and unmatched feature points from the target image, based at least in part on an algorithm for feature point estimation;
Matching the reference image data and the target image data based at least on the reference image feature point, the target image feature point, and the estimated feature point; And
Restoring at least a portion of the data of the target image data lost by the illumination;
/ RTI >
A method for correcting target image data.
제 1 항에 있어서,
상기 하나 이상의 참조 이미지 특징점 및 상기 하나 이상의 타겟 이미지 특징점을 검출하는 단계는:
상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 미리 설정된 크기를 갖는 하나 이상의 영역으로 분할한 후, 각 영역 내에서 특징점을 검출하는 단계;
를 포함하는,
타겟 이미지 데이터를 보정하는 방법.
The method according to claim 1,
Wherein the detecting of the one or more reference image feature points and the one or more target image feature points comprises:
Dividing the reference image data and the target image data into at least one region having a predetermined size, and then detecting a feature point within each region;
/ RTI >
A method for correcting target image data.
제 2 항에 있어서,
상기 미리 설정된 크기는,
상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터의 이미지 해상도, 크기, 색상 모드 및 종횡 비율 중 적어도 하나에 기초하여 설정된 크기인,
타겟 이미지 데이터를 보정하는 방법.
3. The method of claim 2,
The predetermined size may be,
Wherein the reference image data and the target image data have a size set based on at least one of image resolution, size, color mode, and aspect ratio of the target image data.
A method for correcting target image data.
제 1 항에 있어서,
상기 참조 이미지 데이터로부터 특징점을 검출하는 단계는:
특징점 검출을 위한 제 1 알고리즘에 적어도 기초하여 상기 참조 이미지 데이터로부터 특징점 후보군을 검출하는 단계; 및
특징점 검출을 위한 제 2 알고리즘에 적어도 기초하여 상기 특징점 후보군으로부터 상기 타겟 이미지 데이터와의 매칭에 필요한 특징점을 검출하는 단계;
를 더 포함하는,
타겟 이미지 데이터를 보정하는 방법.
The method according to claim 1,
Wherein the step of detecting feature points from the reference image data comprises:
Detecting a feature point candidate group from the reference image data based at least on a first algorithm for feature point detection; And
Detecting a feature point necessary for matching with the target image data from the feature point candidate group based at least on a second algorithm for feature point detection;
≪ / RTI >
A method for correcting target image data.
제 1 항에 있어서,
상기 타겟 이미지 데이터로부터 하나 이상의 특징점을 검출하는 단계는:
상기 참조 이미지 데이터로부터 검출된 특징점 각각에 대한 위치 좌표에 대응되는 상기 타겟 이미지 데이터 상에 위치 좌표를 특징점으로 결정함으로써, 상기 타겟 이미지 데이터로부터 특징점 후보군을 검출하는 단계; 및
특징점 검출을 위한 제 2 알고리즘에 적어도 기초하여 상기 특징점 후보군으로부터 상기 참조 이미지 데이터와의 매칭에 필요한 특징점을 검출하는 단계;
를 더 포함하는,
타겟 이미지 데이터를 보정하는 방법.
The method according to claim 1,
Wherein detecting at least one feature point from the target image data comprises:
Detecting a feature point candidate group from the target image data by determining position coordinates on the target image data corresponding to position coordinates for each of the feature points detected from the reference image data as a feature point; And
Detecting a feature point necessary for matching with the reference image data from the feature point candidate group based at least on a second algorithm for feature point detection;
≪ / RTI >
A method for correcting target image data.
제 4 항에 있어서,
상기 특징점 검출을 위한 제 1 알고리즘은,
Harris Corner Detector 알고리즘, Shi-Tomasi Corner Detector 알고리즘 및 SIFT_DoG 알고리즘 중 적어도 하나인,
타겟 이미지 데이터를 보정하는 방법.
5. The method of claim 4,
Wherein the first algorithm for the feature point detection comprises:
Which is at least one of a Harris Corner Detector algorithm, a Shi-Tomasi Corner Detector algorithm, and a SIFT_DoG algorithm,
A method for correcting target image data.
제 4 항 내지 제 5 항에 있어서,
상기 특징점 검출을 위한 제 2 알고리즘은,
상기 참조 이미지 데이터 및 상기 참조 이미지 데이터와 관련된 제 2 이미지 데이터 간 그리고 상기 타겟 이미지 데이터 및 상기 타겟 이미지 데이터와 관련된 제 2 이미지 데이터간의 정규화 상호 상관(Normalized Cross Correlation; NCC) 결과 데이터를 서브 픽셀 단위로 해석하는 Super Resoulution Feature Matching 알고리즘인,
타겟 이미지 데이터를 보정하는 방법.
The method according to any one of claims 4 to 5,
Wherein the second algorithm for the feature point detection comprises:
Normalized cross correlation (NCC) result data between the reference image data and the second image data associated with the reference image data and between the target image data and the second image data associated with the target image data, The Super Resoulution Feature Matching algorithm,
A method for correcting target image data.
제 7 항에 있어서,
상기 제 2 이미지 데이터는,
상기 이미지 데이터에 대하여 변형 및 손실 중 적어도 하나를 수행함으로써 생성된,
타겟 이미지 데이터를 보정하는 방법.
8. The method of claim 7,
Wherein the second image data comprises:
And generating at least one of distortion and loss for the image data,
A method for correcting target image data.
제 7 항에 있어서,
상기 제 2 이미지 데이터는,
상기 이미지 데이터에 대하여 가우시안 블러 필터(Gaussian Blur Filter) 및 가우시안 노이즈(Gaussian Noise)를 적용함으로써 생성된,
타겟 이미지 데이터를 보정하는 방법.
8. The method of claim 7,
Wherein the second image data comprises:
A Gaussian blur filter and a Gaussian noise applied to the image data,
A method for correcting target image data.
제 1 항에 있어서,
상기 특징점 추정을 위한 알고리즘은,
특징점의 개수 및 각 특징점을 연결한 거리에 적어도 기초하며, 그리고 특징점의 개수에 대응하여 상이한 변환모델식을 포함하도록 구성되는,
타겟 이미지 데이터를 보정하는 방법.
The method according to claim 1,
The algorithm for the minutiae estimation includes:
A plurality of feature points, at least based on the number of feature points and the distance connecting each feature point, and corresponding to the number of feature points,
A method for correcting target image data.
제 10 항에 있어서,
상기 변환모델식은,
상기 특징점의 개수가 1개인 경우 Offset 변환,
상기 특징점의 개수가 2개인 경우 Similarity 변환,
상기 특징점의 개수가 3개인 경우 Affine 변환 및
상기 특징점의 개수가 4개인 경우 Perspective 변환으로 결정되는,
타겟 이미지 데이터를 보정하는 방법.
11. The method of claim 10,
The conversion model equation,
If the number of the minutiae is one, offset conversion,
If the number of feature points is two, similarity transformation,
If the number of feature points is 3, the affine transformation and
If the number of feature points is 4,
A method for correcting target image data.
제 1 항에 있어서,
상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 정합시키는 단계는:
상기 타겟 이미지 데이터를 기하 변환하는 단계; 및
상기 타겟 이미지 데이터의 크기를 정규화하는 단계;
를 더 포함하는,
타겟 이미지 데이터를 보정하는 방법.
The method according to claim 1,
Wherein matching the reference image data and the target image data comprises:
Transforming the target image data; And
Normalizing the size of the target image data;
≪ / RTI >
A method for correcting target image data.
제 1 항에 있어서,
상기 참조 이미지 데이터에 대하여 학습된 네트워크 함수를 이용하여 상기 타겟 이미지 데이터의 상태 정보를 결정하는 단계;
를 더 포함하는,
타겟 이미지 데이터를 보정하는 방법.
The method according to claim 1,
Determining status information of the target image data using the learned network function for the reference image data;
≪ / RTI >
A method for correcting target image data.
제 13 항에 있어서,
상기 타겟 이미지 데이터의 상태 정보는,
미리 설정된 크기로 분할된 하나 이상의 영역 각각에 대한 상태 정보에 기초하여 결정되는,
타겟 이미지 데이터를 보정하는 방법.
14. The method of claim 13,
Wherein the status information of the target image data includes:
And determining, based on state information for each of the one or more areas divided into a predetermined size,
A method for correcting target image data.
타겟 이미지 데이터를 보정하는 장치로서,
결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 참조 이미지(Reference Image) 및 상기 타겟 이미지 데이터를 획득하는 이미지 데이터 획득부;
상기 참조 이미지 데이터로부터 하나 이상의 특징점을 검출하는 제 1 검출부;
상기 타겟 이미지 데이터로부터 하나 이상의 특징점을 검출하는 제 2 검출부;
특징점 추정을 위한 알고리즘에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터로부터 미검출된 특징점 및 미매칭된 특징점 각각에 대한 추정 특징점을 결정하는 추정 특징점 결정부;
상기 특징점 및 상기 추정 특징점에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 정합하는 이미지 데이터 정합부; 및
조명에 의해 손실된 상기 타겟 이미지 데이터의 적어도 일부의 데이터를 복원하는 데이터 복원부;
를 포함하는,
타겟 이미지 데이터를 보정하는 장치.
An apparatus for correcting target image data,
A reference image generated based on a plurality of normal image data without defects and an image data acquiring unit acquiring the target image data;
A first detector for detecting one or more feature points from the reference image data;
A second detecting unit detecting at least one feature point from the target image data;
An estimated feature point determiner for determining an estimated feature point for each of the feature point and the unmatched feature point that are not detected from the reference image data and the target image data, based at least on an algorithm for feature point estimation;
An image data matching unit for matching the reference image data and the target image data based at least on the feature points and the estimated feature points; And
A data restoring unit for restoring at least a part of the data of the target image data lost by illumination;
/ RTI >
A device for correcting target image data.
제 15 항에 있어서,
상기 이미지 데이터 획득부는,
타겟을 촬영하는 촬영 모듈;
결함이 없는 복수 개의 정상 이미지 데이터를 획득하는 제 1 획득 모듈; 및
상기 복수 개의 정상 이미지 데이터에 기초하여 상기 참조 이미지 데이터를 생성하는 참조 이미지 생성 모듈;
을 포함하는,
타겟 이미지 데이터를 보정하는 장치.
16. The method of claim 15,
Wherein the image data obtaining unit comprises:
A photographing module for photographing a target;
A first acquiring module for acquiring a plurality of normal image data without defects; And
A reference image generation module that generates the reference image data based on the plurality of normal image data;
/ RTI >
A device for correcting target image data.
제 15 항에 있어서,
상기 이미지 데이터 획득부는,
타겟을 촬영하는 촬영 모듈; 및
결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 상기 참조 이미지를 획득하는 제 2 획득 모듈;
을 포함하는,
타겟 이미지 데이터를 보정하는 장치.
16. The method of claim 15,
Wherein the image data obtaining unit comprises:
A photographing module for photographing a target; And
A second acquiring module for acquiring the reference image generated based on a plurality of normal image data without defects;
/ RTI >
A device for correcting target image data.
제 15 항에 있어서,
상기 이미지 데이터 획득부는,
결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 상기 참조 이미지 데이터와 그리고 촬영 모듈에 의해 촬영된 타겟 이미지 데이터를 획득하는 제 3 획득 모듈;
을 포함하는,
타겟 이미지 데이터를 보정하는 장치.
16. The method of claim 15,
Wherein the image data obtaining unit comprises:
A third acquiring module for acquiring the reference image data generated based on the plurality of normal image data without defects and the target image data photographed by the photographing module;
/ RTI >
A device for correcting target image data.
제 15 항에 있어서,
상기 참조 이미지 데이터에 대하여 학습된 네트워크 함수를 이용하여 상기 타겟 이미지 데이터의 상태 정보를 결정하는 상태 정보 결정부;
를 더 포함하는,
타겟 이미지 데이터를 보정하는 장치.
16. The method of claim 15,
A status information determination unit for determining status information of the target image data using the network function learned for the reference image data;
≪ / RTI >
A device for correcting target image data.
타겟 이미지 데이터를 보정하는 장치의 하나 이상의 프로세서에 의해 실행되는 복수의 명령들을 포함하는, 컴퓨터 판독가능 저장 매체(computer readable storing medium)에 저장된 컴퓨터 프로그램으로서,
상기 컴퓨터 프로그램은:
결함이 없는 복수 개의 정상 이미지 데이터에 기초하여 생성된 참조 이미지(Reference Image) 및 상기 타겟 이미지 데이터를 획득하는 명령;
상기 참조 이미지 데이터로부터 하나 이상의 특징점을 검출하는 명령;
상기 타겟 이미지 데이터로부터 하나 이상의 특징점을 검출하는 명령;
특징점 추정을 위한 알고리즘에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터로부터 미검출된 특징점 및 미매칭된 특징점 각각에 대한 추정 특징점을 결정하는 명령;
상기 특징점 및 상기 추정 특징점에 적어도 기초하여 상기 참조 이미지 데이터 및 상기 타겟 이미지 데이터를 정합하는 명령; 및
조명에 의해 손실된 상기 타겟 이미지 데이터의 적어도 일부의 데이터를 복원하는 명령;
을 포함하는,
컴퓨터 판독가능 저장 매체에 저장된 컴퓨터 프로그램.
A computer program stored in a computer readable storage medium comprising a plurality of instructions executed by one or more processors of an apparatus for correcting target image data,
The computer program comprising:
Obtaining a reference image and a target image generated based on a plurality of normal image data that are free from defects;
Detecting one or more feature points from the reference image data;
Detecting one or more feature points from the target image data;
Determining an estimated feature point for each of the feature point and non-matched feature point that are not detected from the reference image data and the target image data, based at least on an algorithm for feature point estimation;
Instructions for matching the reference image data and the target image data based at least on the feature points and the estimated feature points; And
Restoring at least a portion of the data of the target image data lost by illumination;
/ RTI >
A computer program stored on a computer readable storage medium.
KR1020160174471A 2016-12-20 2016-12-20 Method, apparatus and computer program stored in computer readable medium for correction of image data KR101905000B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160174471A KR101905000B1 (en) 2016-12-20 2016-12-20 Method, apparatus and computer program stored in computer readable medium for correction of image data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160174471A KR101905000B1 (en) 2016-12-20 2016-12-20 Method, apparatus and computer program stored in computer readable medium for correction of image data

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020180111069A Division KR20180107047A (en) 2018-09-17 2018-09-17 Method, apparatus and computer program stored in computer readable medium for correction of image data

Publications (2)

Publication Number Publication Date
KR20180072020A true KR20180072020A (en) 2018-06-29
KR101905000B1 KR101905000B1 (en) 2018-10-08

Family

ID=62781047

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160174471A KR101905000B1 (en) 2016-12-20 2016-12-20 Method, apparatus and computer program stored in computer readable medium for correction of image data

Country Status (1)

Country Link
KR (1) KR101905000B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102130664B1 (en) * 2019-06-25 2020-07-06 대한민국 Autonomous tram detection based on image information and search method of aim point
KR102374840B1 (en) * 2020-10-20 2022-03-15 두산중공업 주식회사 Defect image generation method for deep learning and system therefor
CN116503830A (en) * 2023-06-25 2023-07-28 小米汽车科技有限公司 Method and device for testing target detection algorithm and server

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102173955B1 (en) 2019-03-21 2020-11-04 한국항공대학교산학협력단 Apparatus of detecting feature point for tracking object and method thereof

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4543153B1 (en) * 2009-08-11 2010-09-15 国立大学法人 岡山大学 Defect inspection method and defect inspection apparatus
KR101404640B1 (en) * 2012-12-11 2014-06-20 한국항공우주연구원 Method and system for image registration

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102130664B1 (en) * 2019-06-25 2020-07-06 대한민국 Autonomous tram detection based on image information and search method of aim point
KR102374840B1 (en) * 2020-10-20 2022-03-15 두산중공업 주식회사 Defect image generation method for deep learning and system therefor
CN116503830A (en) * 2023-06-25 2023-07-28 小米汽车科技有限公司 Method and device for testing target detection algorithm and server
CN116503830B (en) * 2023-06-25 2023-10-13 小米汽车科技有限公司 Method and device for testing target detection algorithm and server

Also Published As

Publication number Publication date
KR101905000B1 (en) 2018-10-08

Similar Documents

Publication Publication Date Title
KR101836096B1 (en) Method, apparatus and computer program stored in computer readable medium for state decision of image data
US11176408B2 (en) Tire image recognition method and tire image recognition device
KR102166458B1 (en) Defect inspection method and apparatus using image segmentation based on artificial neural network
US9697416B2 (en) Object detection using cascaded convolutional neural networks
KR101905000B1 (en) Method, apparatus and computer program stored in computer readable medium for correction of image data
JP5546317B2 (en) Visual inspection device, visual inspection discriminator generation device, visual inspection discriminator generation method, and visual inspection discriminator generation computer program
Wang et al. Outlier detection for scanned point clouds using majority voting
US10592764B2 (en) Reconstructing document from series of document images
JP6860079B2 (en) Anomaly detection device, anomaly detection method, and program
JP2019087181A (en) Device and method for image inspection
CN113066088A (en) Detection method, detection device and storage medium in industrial detection
CN113554624B (en) Abnormality detection method, abnormality detection device, and computer storage medium
TW201113833A (en) Detecting method and system for moving object
KR20180063869A (en) Method, apparatus and computer program stored in computer readable medium for state decision of image data
CN115485740A (en) Abnormal wafer image classification
CN110472640B (en) Target detection model prediction frame processing method and device
CN107862679B (en) Method and device for determining image detection area
KR20180107047A (en) Method, apparatus and computer program stored in computer readable medium for correction of image data
Abid et al. A novel neural network approach for image edge detection
WO2022188102A1 (en) Depth image inpainting method and apparatus, camera assembly, and electronic device
CN116109543A (en) Method and device for quickly identifying and reading data and computer readable storage medium
KR20220167824A (en) Defect detection system and method through image completion based on artificial intelligence-based denoising
Trigano et al. Fast background removal of JPEG images based on HSV polygonal cuts for a foot scanner device
Hawari et al. The automatic focus segmentation of multi-focus image fusion
SayedElahl A novel edge detection filter based on fractional order Legendre-Laguerre functions

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
A107 Divisional application of patent
E701 Decision to grant or registration of patent right