KR102289668B1 - Apparatus and method for semantic matching based on matching reliability - Google Patents

Apparatus and method for semantic matching based on matching reliability Download PDF

Info

Publication number
KR102289668B1
KR102289668B1 KR1020200021630A KR20200021630A KR102289668B1 KR 102289668 B1 KR102289668 B1 KR 102289668B1 KR 1020200021630 A KR1020200021630 A KR 1020200021630A KR 20200021630 A KR20200021630 A KR 20200021630A KR 102289668 B1 KR102289668 B1 KR 102289668B1
Authority
KR
South Korea
Prior art keywords
volume
correlation
map
reliability
feature
Prior art date
Application number
KR1020200021630A
Other languages
Korean (ko)
Inventor
손광훈
전상률
Original Assignee
연세대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 연세대학교 산학협력단 filed Critical 연세대학교 산학협력단
Priority to KR1020200021630A priority Critical patent/KR102289668B1/en
Application granted granted Critical
Publication of KR102289668B1 publication Critical patent/KR102289668B1/en

Links

Images

Classifications

    • G06K9/6212
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/758Involving statistics of pixels or of feature values, e.g. histogram matching
    • G06K9/481
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/08Volume rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)

Abstract

Provided are a semantic matching apparatus based on matching reliability capable of significantly increasing semantic matching accuracy by being guided on the basis of a reliability volume, and a method thereof. According to the present invention, the semantic matching apparatus comprises: a correlation volume acquisition unit extracting features from each of the one pair of applied input images according to a pretrained pattern estimation method to generate one pair of feature maps formed of a plurality of feature vectors and analyzing a correlation according to the degree of similarity between the feature vectors between the generated pair of feature maps to acquire a correlation volume; a reliability volume acquisition unit calculating the reliability on the basis of mutual consistency between the correlations, which are elements of the correlation volume, performing reinforcement by estimating a pattern of an initial reliability volume according to the pretrained pattern estimation method, and filtering the reinforced reliability by a predetermined reference value to acquire a refined reliability volume; a guide map acquisition unit acquiring a displacement map by calculating displacements between the feature vectors corresponding to each other in the pair of feature maps according to the reliability of the refined reliability volume and generating a guide map by propagating the displacement of the displacement map to surrounding areas in a predetermined manner; and a matching unit compensating for the correlation so that an important region of the correlation volume is emphasized by using the guide map and estimating a pattern of a refined correlation volume compensated for the correlation according to the pretrained pattern estimation method to acquire a semantic matching map.

Description

매칭 신뢰도 기반 시멘틱 매칭 장치 및 방법{APPARATUS AND METHOD FOR SEMANTIC MATCHING BASED ON MATCHING RELIABILITY}Matching reliability-based semantic matching apparatus and method {APPARATUS AND METHOD FOR SEMANTIC MATCHING BASED ON MATCHING RELIABILITY}

본 발명은 시멘틱 매칭 장치 및 방법에 관한 것으로, 매칭 신뢰도 기반 시멘틱 매칭 장치 및 방법에 관한 것이다.The present invention relates to a semantic matching apparatus and method, and to a matching reliability-based semantic matching apparatus and method.

기존에 영상의 대응점 분석은 동일 시점에서 시차를 갖고 획득된 두 영상간의 스테레오 매칭(stereo matching) 또는 시간적으로 연속되는 영상 프레임 사이의 옵티컬플로우(optical flow)를 획득하는 것과 같이 주로 기하학적 제약이 있는 환경에서 이용되었다.Conventionally, the corresponding point analysis of an image is an environment with geometrical constraints, such as stereo matching between two images acquired with a disparity at the same time point or optical flow between temporally continuous image frames. was used in

예를 들어, 스테레오 매칭을 통한 깊이정보 추정은 에피폴라 라인(Epipolar line)을 활용하여 x축으로만 검색을 실시하고, 옵티컬플로우를 통한 물체 모션 추정은 인접한 프레임들 사이에서 모션의 범위가 작다는 사실을 활용하여 지정된 크기의 윈도우 내에서만 탐색을 실시하였다.For example, depth information estimation through stereo matching searches only on the x-axis using an epipolar line, and object motion estimation through optical flow indicates that the range of motion between adjacent frames is small. Using the facts, the search was performed only within a window of a specified size.

그러나 최근에는 영상 사이에서 동일한 객체 또는 의미적으로 동일한 범주에 속하는 다양한 형상의 객체를 탐색하는 시멘틱 매칭에 대한 연구가 수행되고 있다. 이러한 시멘틱 매칭은 서로 다른 영상에서 동일한 의미를 갖지만 다른 형상으로 나타난 객체를 탐색해야 하므로, 기하학적 제약 없어 영상의 모든 픽셀을 탐색해야 한다. 따라서 탐색 범위가 넓을 뿐만아니라 탐색 대상의 형상의 큰 변화로 인해 각 픽셀을 표현하는 특징벡터의 정확도가 높지 않아 매칭 수준을 판별하는 유사도(Similarity score) 측정 시 상당한 오차가 발생하는 문제가 있다.However, recently, studies on semantic matching for searching for the same object or objects of various shapes belonging to the same semantically same category between images are being conducted. This semantic matching has to search for objects that have the same meaning in different images but appear in different shapes, so all pixels of the image must be searched without geometrical restrictions. Therefore, not only the search range is wide, but also the accuracy of the feature vector representing each pixel is not high due to a large change in the shape of the search target, so there is a problem in that a significant error occurs when measuring the similarity score that determines the matching level.

한국 공개 특허 제10-2018-0033037호 (2018.04.02 공개)Korean Patent Publication No. 10-2018-0033037 (published on April 2, 2018)

본 발명의 목적은 기하학적 제약이 없는 시멘틱 매칭의 탐색 공간을 제한하기 위한 신뢰도 볼륨을 생성할 수 있는 시멘틱 매칭 장치 및 방법을 제공하는데 있다.An object of the present invention is to provide a semantic matching apparatus and method capable of generating a confidence volume for limiting the search space of semantic matching without geometrical constraints.

본 발명의 다른 목적은 신뢰도 볼륨에 기반하여 가이드되어 시멘틱 매칭 정확도를 크게 향상시킬 수 있는 시멘틱 매칭 장치 및 방법을 제공하는데 있다.Another object of the present invention is to provide a semantic matching apparatus and method capable of significantly improving semantic matching accuracy by being guided based on a confidence volume.

상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 시멘틱 매칭 장치는 인가된 한 쌍의 입력 영상 각각에서 미리 학습된 패턴 추정 방식에 따라 특징을 추출하여 다수의 특징 벡터로 구성되는 한 상의 특징맵을 생성하고, 생성된 한 쌍의 특징맵 사이의 특징 벡터간 유사도에 따른 상관 관계를 분석하여 상관 볼륨을 획득하는 상관 볼륨 획득부; 상기 상관 볼륨의 원소인 상관 관계 사이의 상호 일관성을 기반으로 신뢰도를 계산하고, 미리 학습된 패턴 추정 방식에 따라 초기 신뢰도 볼륨의 패턴을 추정하여 보강하며, 보강된 신뢰도를 기지정된 기준값으로 필터링하여 정제 신뢰도 볼륨을 획득하는 신뢰도 볼륨 획득부; 정제 신뢰도 볼륨의 신뢰도에 따라 상기 한 쌍의 특징맵에서 서로 대응하는 특징 벡터 사이의 변위를 계산하여 변위맵을 획득하고, 상기 변위맵의 변위를 기지정된 방식으로 주변 영역으로 전파하여 가이드맵을 생성하는 가이드맵 획득부; 및 상기 가이드맵을 이용하여 상기 상관 볼륨의 중요 영역이 강조되도록 상관 관계를 보상하고, 미리 학습된 패턴 추정 방식에 따라 상관 관계를 보상된 정제 상관 볼륨의 패턴을 추정하여 시멘틱 매칭맵을 획득하는 매칭부를 포함한다.A semantic matching apparatus according to an embodiment of the present invention for achieving the above object extracts features according to a pattern estimation method learned in advance from each of a pair of applied input images, and a feature map of a phase consisting of a plurality of feature vectors a correlation volume acquisition unit that generates a correlation volume and obtains a correlation volume by analyzing a correlation according to a degree of similarity between the feature vectors between the generated pair of feature maps; Reliability is calculated based on the mutual consistency between correlations, which are elements of the correlation volume, and the pattern of the initial confidence volume is estimated and reinforced according to a pre-learned pattern estimation method, and the reinforced reliability is filtered and refined by a predetermined reference value. a reliability volume obtaining unit for obtaining a reliability volume; A displacement map is obtained by calculating the displacement between the feature vectors corresponding to each other in the pair of feature maps according to the reliability of the refining reliability volume, and a guide map is generated by propagating the displacement of the displacement map to the surrounding area in a predetermined manner. a guide map acquisition unit; and compensating for correlation so that an important region of the correlation volume is emphasized using the guide map, and estimating the pattern of the refined correlation volume compensated for correlation according to a pre-learned pattern estimation method to obtain a semantic matching map includes wealth.

상기 상관 볼륨 획득부는 각각 패턴 추정 방식이 미리 학습된 2개의 인공 신경망으로 구현되어, 상기 한 쌍의 입력 영상 중 대응하는 입력 영상을 인가받아 특징을 추출하여 상기 한 쌍의 특징맵을 획득하는 특징맵 획득부; 및 상기 한 쌍의 특징맵의 각 특징 벡터간 상관 관계를 코사인 유사도를 이용하여 계산하여 상기 상관 볼륨을 획득하는 상관 관계 분석부를 포함할 수 있다.The correlation volume acquisition unit is implemented as two artificial neural networks in which a pattern estimation method is previously learned, respectively, and receives a corresponding input image from among the pair of input images, extracts features, and obtains the pair of feature maps. acquisition department; and a correlation analyzer configured to obtain the correlation volume by calculating a correlation between the feature vectors of the pair of feature maps using a cosine similarity.

상기 신뢰도 볼륨 획득부는 상기 상관 볼륨의 상관 관계들 사이의 상호 일관성을 나타내는 초기 신뢰도 볼륨을 생성하는 상호 일관성 분석부; 패턴 추정 방식이 미리 학습된 인공 신경망을 이용하여 초기 신뢰도 볼륨의 신뢰도를 보강하는 신뢰도 보강부; 및 보강된 신뢰도 볼륨에서 기지정된 기준값을 초과하는 값을 갖는 신뢰도값을 추출하여 상기 정제 신뢰도 볼륨을 획득하는 신뢰도 볼륨 필터링부를 포함할 수 있다.The confidence volume obtaining unit may include: a mutual consistency analyzer generating an initial confidence volume indicating mutual consistency between correlations of the correlation volume; a reliability reinforcement unit for reinforcing the reliability of the initial reliability volume using an artificial neural network in which a pattern estimation method has been previously learned; and a reliability volume filtering unit configured to obtain the refined reliability volume by extracting a reliability value having a value exceeding a predetermined reference value from the reinforced reliability volume.

상기 신뢰도 볼륨 필터링부는 보강된 신뢰도 볼륨에 상기 신뢰도 볼륨을 곱한 결과에서 기준값을 초과하는 값을 갖는 신뢰도값을 추출하여 상기 정제 신뢰도 볼륨을 획득할 수 있다.The reliability volume filtering unit may obtain the refined reliability volume by extracting a reliability value having a value exceeding a reference value from a result of multiplying the reinforced reliability volume by the reliability volume.

상기 가이드맵 획득부는 상기 정제 신뢰도 볼륨의 신뢰도를 기반으로 한 쌍의 특징맵의 대응하는 특징 벡터 사이의 이동 정도를 나타내는 변위를 계산하여 상기 변위맵을 획득하는 변위맵 획득부; 및 상기 변위맵의 계산된 변위를 변위맵의 나머지 전체 영역으로 기지정된 방식으로 전파하여 상기 가이드맵을 획득하는 변위맵 보상부를 포함할 수 있다.The guide map acquisition unit may include: a displacement map acquisition unit configured to obtain the displacement map by calculating a displacement indicating a degree of movement between corresponding feature vectors of a pair of feature maps based on the reliability of the refinement reliability volume; and a displacement map compensator configured to obtain the guide map by propagating the calculated displacement of the displacement map to the remaining entire region of the displacement map in a predetermined manner.

상기 변위맵 획득부는 상기 정제 신뢰도 볼륨의 계산된 신뢰도에 따라 한 쌍의 특징맵의 대응하는 특징 벡터 사이의 위치 변화인 변위를 soft argmax 함수를 이용하여 계산할 수 있다.The displacement map obtaining unit may calculate a displacement, which is a position change between corresponding feature vectors of a pair of feature maps, using a soft argmax function according to the calculated reliability of the refinement reliability volume.

상기 변위맵 보상부는 상기 변위맵의 변위들을 이동 최소 자승(moving least square: MLS) 기법에 따라 나머지 전체 영역으로 전파할 수 있다.The displacement map compensator may propagate the displacements of the displacement map to the entire remaining area according to a moving least squares (MLS) technique.

상기 매칭부는 상기 가이드맵을 인가받아 가우시안 분포를 갖도록 변환하여 가이드맵의 변위 분포를 조절하는 가이드 분포 조절부; 변환된 가이드맵과 상기 상관 볼륨를 곱하여, 상기 상관 볼륨의 상관 관계를 보상하여 정제 상관 볼륨을 획득하는 상관 볼륨 가이드부; 및 패턴 추정 방식이 미리 학습된 인공 신경망을 이용하여 상기 정제 상관 볼륨의 패턴을 추정하여, 상기 한 쌍의 입력 영상 사이의 시멘틱 매칭 결과인 시멘틱 매칭맵을 획득하는 매칭맵 획득부를 포함할 수 있다.The matching unit receives the guide map and transforms it to have a Gaussian distribution to adjust the displacement distribution of the guide map; a correlation volume guide unit that multiplies the transformed guide map and the correlation volume to compensate for the correlation of the correlation volume to obtain a refined correlation volume; and a matching map acquisition unit configured to estimate a pattern of the refined correlation volume using an artificial neural network in which a pattern estimation method has been previously learned, and obtain a semantic matching map that is a semantic matching result between the pair of input images.

상기 다른 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 매칭 신뢰도 기반 시멘틱 매칭 방법은 인가된 한 쌍의 입력 영상 각각에서 미리 학습된 패턴 추정 방식에 따라 특징을 추출하여 다수의 특징 벡터로 구성되는 한 상의 특징맵을 생성하고, 생성된 한 쌍의 특징맵 사이의 특징 벡터간 유사도에 따른 상관 관계를 분석하여 상관 볼륨을 생성하는 단계; 상기 상관 볼륨의 원소인 상관 관계 사이의 상호 일관성을 기반으로 신뢰도를 계산하고, 미리 학습된 패턴 추정 방식에 따라 초기 신뢰도 볼륨의 패턴을 추정하여 보강하며, 보강된 신뢰도를 기지정된 기준값으로 필터링하여 정제 신뢰도 볼륨을 생성하는 단계; 정제 신뢰도 볼륨의 신뢰도에 따라 상기 한 쌍의 특징맵에서 서로 대응하는 특징 벡터 사이의 변위를 계산하여 변위맵을 획득하고, 상기 변위맵의 변위를 기지정된 방식으로 주변 영역으로 전파하여 가이드맵을 생성하는 단계; 및 상기 가이드맵을 이용하여 상기 상관 볼륨의 중요 영역이 강조되도록 상관 관계를 보상하고, 미리 학습된 패턴 추정 방식에 따라 상관 관계를 보상된 정제 상관 볼륨의 패턴을 추정하여 시멘틱 매칭맵을 획득하는 단계를 포함한다.The matching reliability-based semantic matching method according to another embodiment of the present invention for achieving the above other object is composed of a plurality of feature vectors by extracting features according to a pattern estimation method learned in advance from each of a pair of applied input images. generating a correlation volume by generating a feature map of one image and analyzing a correlation according to a degree of similarity between feature vectors between the generated pair of feature maps; Reliability is calculated based on the mutual consistency between correlations, which are elements of the correlation volume, and the pattern of the initial confidence volume is estimated and reinforced according to a pre-learned pattern estimation method, and the reinforced reliability is filtered and refined by a predetermined reference value. generating a confidence volume; A displacement map is obtained by calculating the displacement between the feature vectors corresponding to each other in the pair of feature maps according to the reliability of the refining reliability volume, and a guide map is generated by propagating the displacement of the displacement map to the surrounding area in a predetermined manner. to do; and compensating for correlation so that an important region of the correlation volume is emphasized using the guide map, and estimating a pattern of the refined correlation volume compensated for correlation according to a pre-learned pattern estimation method to obtain a semantic matching map. includes

따라서, 본 발명의 실시예에 따른 시멘틱 매칭 장치 및 방법은 각 영상에서 추출된 특징 사이의 유사도에 따른 상관 볼륨을 생성하고, 상관 볼륨의 유사도에 대한 상호 일관성을 계산하여 신뢰도 볼륨을 생성하며, 생성된 신뢰도 볼륨으로 상관 볼륨을 가이드하여 시멘틱 매칭을 수행함으로써, 기하학적 제약이 없는 시멘틱 매칭의 탐색 공간을 제한함으로써 매칭 정확도를 크게 향상시킬 수 있다.Accordingly, the semantic matching apparatus and method according to an embodiment of the present invention generates a correlation volume according to the degree of similarity between features extracted from each image, calculates the mutual coherence for the degree of similarity of the correlation volume, and generates a confidence volume. By performing semantic matching by guiding the correlation volume with the obtained confidence volume, the matching accuracy can be greatly improved by limiting the search space of semantic matching without geometrical constraints.

도 1은 본 발명의 일 실시예에 따른 시멘틱 매칭 장치의 개략적 구조를 나타낸다.
도 2는 도 1의 시멘틱 매칭 장치의 입력 영상과 정제 신뢰도 볼륨, 가이드맵 및 시멘틱 매칭 맵의 일예를 나타낸다.
도 3은 본 발명의 일 실시예에 따른 시멘틱 매칭 방법을 나타낸다.
도 4 및 도 5는 본 실시예에 따른 시멘틱 매칭 방법의 성능을 비교하기 위한 도면이다.
1 shows a schematic structure of a semantic matching device according to an embodiment of the present invention.
FIG. 2 shows an example of an input image of the semantic matching apparatus of FIG. 1, a refinement reliability volume, a guide map, and a semantic matching map.
3 shows a semantic matching method according to an embodiment of the present invention.
4 and 5 are diagrams for comparing the performance of the semantic matching method according to the present embodiment.

본 발명과 본 발명의 동작상의 이점 및 본 발명의 실시에 의하여 달성되는 목적을 충분히 이해하기 위해서는 본 발명의 바람직한 실시예를 예시하는 첨부 도면 및 첨부 도면에 기재된 내용을 참조하여야만 한다. In order to fully understand the present invention, the operational advantages of the present invention, and the objects achieved by the practice of the present invention, reference should be made to the accompanying drawings illustrating preferred embodiments of the present invention and the contents described in the accompanying drawings.

이하, 첨부한 도면을 참조하여 본 발명의 바람직한 실시예를 설명함으로써, 본 발명을 상세히 설명한다. 그러나, 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며, 설명하는 실시예에 한정되는 것이 아니다. 그리고, 본 발명을 명확하게 설명하기 위하여 설명과 관계없는 부분은 생략되며, 도면의 동일한 참조부호는 동일한 부재임을 나타낸다. Hereinafter, the present invention will be described in detail by describing preferred embodiments of the present invention with reference to the accompanying drawings. However, the present invention may be embodied in various different forms, and is not limited to the described embodiments. In addition, in order to clearly describe the present invention, parts irrelevant to the description are omitted, and the same reference numerals in the drawings indicate the same members.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라, 다른 구성요소를 더 포함할 수 있는 것을 의미한다. 또한, 명세서에 기재된 "...부", "...기", "모듈", "블록" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다. Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components unless otherwise stated. In addition, terms such as "... unit", "... group", "module", and "block" described in the specification mean a unit that processes at least one function or operation, which is hardware, software, or hardware. and a combination of software.

도 1은 본 발명의 일 실시예에 따른 시멘틱 매칭 장치의 개략적 구조를 나타내고, 도 2는 도 1의 시멘틱 매칭 장치의 입력 영상과 정제 신뢰도 볼륨, 가이드맵 및 시멘틱 매칭 맵의 일예를 나타낸다.1 shows a schematic structure of a semantic matching device according to an embodiment of the present invention, and FIG. 2 shows an example of an input image of the semantic matching device of FIG. 1, a refinement reliability volume, a guide map, and a semantic matching map.

도 1을 참조하면, 본 실시예에 따른 시멘틱 매칭 장치는 상관 볼륨 획득부(100), 신뢰도 볼륨 획득부(200), 가이드맵 획득부(300) 및 매칭부(400)를 포함할 수 있다.Referring to FIG. 1 , the semantic matching apparatus according to the present embodiment may include a correlation volume obtaining unit 100 , a reliability volume obtaining unit 200 , a guide map obtaining unit 300 , and a matching unit 400 .

상관 볼륨 획득부(100)는 한 쌍의 입력 영상(Is, It)을 인가받고, 미리 학습된 패턴 추정 방식에 따라 인가된 입력 영상(Is, It)에서 특징을 추출하여 다수의 특징 벡터로 구성되는 특징맵(Fs, Ft)을 생성하고, 생성된 특징맵(Fs, Ft)의 특징 벡터간 유사도에 따른 상관 관계를 분석하여 상관 볼륨(C)을 획득한다. 여기서 입력 영상(Is, It)는 도 2의 (a)에 도시된 바와 같이, 시멘틱 정합을 위한 소스 영상(Is)과 타겟 영상(It)일 수 있다.The correlation volume acquisition unit 100 receives a pair of input images (I s , I t ), extracts features from the applied input images (I s , I t ) according to a pre-learned pattern estimation method, and extracts a plurality of generating a feature map (F s, F t) consisting of the feature vector, and analyzing the correlation of the degree of similarity between the feature vector of the generated feature map (F s, F t) and obtains the correlation volume (C). Here, the input images I s and I t may be a source image I s and a target image I t for semantic matching, as shown in FIG. 2A .

신뢰도 볼륨 획득부(200)는 특징맵(Fs, Ft)의 특징 벡터간 상관 관계를 나타내는 상관 볼륨(C)을 인가받아, 상관 관계의 상호 일관성(Mutual Consistency)을 기반으로 신뢰도를 계산하여 초기 신뢰도 볼륨(Q)을 생성하고, 미리 학습된 패턴 추정 방식에 따라 초기 신뢰도 볼륨(Q)의 패턴을 추정하여 보강하며, 보강된 신뢰도를 필터링하여 도 2의 (b)와 같은 정제 신뢰도 볼륨(Q')을 획득한다.The reliability volume acquisition unit 200 receives a correlation volume C representing the correlation between the feature vectors of the feature maps F s , F t , and calculates the reliability based on the mutual consistency of the correlation. The initial confidence volume (Q) is generated, the pattern of the initial confidence volume (Q) is estimated and reinforced according to the pre-learned pattern estimation method, and the reinforced reliability is filtered to refine the confidence volume ( Q') is obtained.

한편, 가이드맵 획득부(300)는 정제 신뢰도 볼륨(Q')을 인가받고, 정제 신뢰도 볼륨(Q')에 남아 있는 신뢰도에 따라 제1 및 제2 특징맵(Fs, Ft)에서 대응하는 특징 벡터 사이의 변위를 계산하여 변위맵(G)을 획득하고, 변위맵(G)의 변위를 주변 영역으로 전파하여 상관 볼륨(C)을 조절하기 위한 가이드맵(G')을 도 2의 (c)와 같이 획득한다.Meanwhile, the guide map acquisition unit 300 receives the refining reliability volume Q' and corresponds to the first and second feature maps F s and F t according to the reliability remaining in the refining reliability volume Q'. A guide map (G') for adjusting the correlation volume (C) by calculating the displacement between the feature vectors to obtain a displacement map (G) and propagating the displacement of the displacement map (G) to the surrounding area is shown in FIG. It is obtained as in (c).

매칭부(400)는 가이드맵(G')을 인가받아 가우시안 모델 분포에 따르도록 변형하고, 변환된 가이드맵(G')을 이용하여 상관 볼륨(C)의 원소값인 상관 관계를 가이드하여 정제 상관 볼륨(C')을 획득하며, 미리 학습된 패턴 추정 방식에 따라 정제 상관 볼륨(C')의 패턴으로부터 입력 영상(Is, It) 사이의 시멘틱 매칭을 나타내는 시멘틱 매칭맵을 도 2의 (d)와 같이 획득할 수 있다.The matching unit 400 receives the guide map (G') and transforms it according to the Gaussian model distribution, and guides and refines the correlation, which is the element value of the correlation volume (C), using the transformed guide map (G'). A correlation volume (C') is acquired, and a semantic matching map showing semantic matching between the input images (I s , I t ) from the pattern of the refined correlation volume (C') according to a pre-learned pattern estimation method is shown in FIG. It can be obtained as in (d).

이하에서는 도 1을 참조하여, 시멘틱 매칭 장치의 각 구성을 상세하게 설명한다.Hereinafter, each configuration of the semantic matching device will be described in detail with reference to FIG. 1 .

우선 상관 볼륨 획득부(100)는 도 2의 (a)와 같은 입력 영상(Is, It)을 인가받아 미리 학습된 패턴 추정 방식에 따라 입력 영상(Is, It) 각각의 특징을 추출하여 다수의 특징 벡터로 구성된 특징맵(Fs, Ft)을 생성하는 특징맵 획득부(110)와 특징맵(Fs, Ft)의 다수의 특징 벡터 사이의 상관 관계를 분석하여 상관 볼륨(C)을 획득하는 상관 관계 분석부(120)를 포함할 수 있다.First correlation volume acquisition unit 100 of FIG. 2 (a) and the respective characteristic input image (I s, I t) according to the same input image (I s, I t), the application receives a training pattern estimated in advance how extracted by analyzing the correlation between the generating a feature map (F s, F t) consisting of a plurality of feature vector characteristic map obtaining unit 110 and the feature map (F s, F t), a plurality of characteristic vector of the correlation It may include a correlation analyzer 120 to obtain the volume (C).

특징맵 획득부(110)는 각각 패턴 추정 방식이 미리 학습된 인공 신경망으로 구현되는 제1 및 제2 특징맵 획득부(111, 112)를 포함할 수 있으며, 제1 특징맵 획득부(111)는 소스 영상(Is)의 특징을 추출하여 다수의 특징 벡터를 포함하는 제1 특징맵(Fs)을 획득하고, 제2 특징맵 획득부(112)는 타겟 영상(It)의 특징을 추출하여 다수의 특징 벡터를 포함하는 제2 특징맵(Ft)을 획득할 수 있다.The feature map obtaining unit 110 may include first and second feature map obtaining units 111 and 112 in which a pattern estimation method is implemented as an artificial neural network previously learned, respectively, and the first feature map obtaining unit 111 . obtains a first feature map (F s ) including a plurality of feature vectors by extracting features of the source image (I s ), and the second feature map acquisition unit 112 obtains the features of the target image (I t ) It is possible to obtain a second feature map (F t ) including a plurality of feature vectors by extraction.

여기서 입력 영상(Is, It)의 크기가 동일한 경우(예를 들면, Is, It

Figure 112020018742895-pat00001
), 제1 및 제2 특징맵 획득부(111, 112)에 의해 획득되는 제1 및 제2 특징맵(Fs, Ft)은 각각 h × w × d의 크기(Fs, Ft
Figure 112020018742895-pat00002
)로 획득될 수 있다.Here, if the input images (I s , I t ) have the same size (eg, I s , I t )
Figure 112020018742895-pat00001
), the first and second feature maps F s , F t acquired by the first and second feature map acquisition units 111 and 112 are h × w × d sizes (F s , F t ), respectively.
Figure 112020018742895-pat00002
) can be obtained.

제1 및 제2 특징맵 획득부(111, 112)는 일 예로 미리 학습된 컨볼루션 신경망(Convolutional Neural Network: 이하 CNN) 등으로 구현될 수 있다. CNN은 영상의 특징을 효과적으로 추출할 수 있는 것으로 잘 알려진 인공 신경망이며, 이미 기존 연구에 의해 각종 용도에 따른 특징을 추출할 수 있도록 학습된 CNN이 공개되어 있다. 따라서 본 실시예에서 제1 및 제2 특징맵 획득부(111, 112)는 공개된 방식에 따라 이미 학습된 CNN을 이용하는 것으로 가정하여 설명한다. 그러나 제1 및 제2 특징맵 획득부(111, 112)는 다른 인공 신경망이 이용하여 구현될 수도 있다.The first and second feature map acquisition units 111 and 112 may be implemented as, for example, a pre-trained convolutional neural network (CNN) or the like. CNN is a well-known artificial neural network that can effectively extract features of an image. Therefore, in the present embodiment, it is assumed that the first and second feature map acquisition units 111 and 112 use CNNs already learned according to the disclosed method. However, the first and second feature map acquisition units 111 and 112 may be implemented using other artificial neural networks.

특징맵 획득부(110)에서 제1 및 제2 특징맵(Fs, Ft)이 획득되면, 상관 관계 분석부(120)는 수학식 1과 같이 코사인 유사도에 기초하여 제1 및 제2 특징맵(Fs, Ft)의 각 특징 벡터간 상관 관계를 계산하여 상관 볼륨(C)을 획득한다.When the first and second feature maps F s , F t are obtained by the feature map acquisition unit 110 , the correlation analysis unit 120 performs the first and second characteristics based on the cosine similarity as shown in Equation 1 A correlation volume (C) is obtained by calculating the correlation between each feature vector of the map (F s , F t ).

Figure 112020018742895-pat00003
Figure 112020018742895-pat00003

여기서 i, j는 제1 및 제2 특징맵(Fs, Ft) 각각에서의 특징 벡터 위치 좌표를 나타내고, < >는 코사인 유사도 함수이며, ∥∥2 는 L2-norm 함수이다.Where i, j are the first and second characteristics map (F s, F t) represents the position coordinates of the feature vectors in each of <> it is the cosine similarity function, ∥∥ 2 is the L 2 -norm function.

즉 상관 볼륨(C)은 제1 및 제2 특징맵(Fs, Ft)의 모든 특징 벡터 사이의 상호 유사도에 기반한 상관 관계로 계산되며, (h×w)×(h×w)의 크기(C

Figure 112020018742895-pat00004
)로 획득될 수 있다.That is, the correlation volume (C) is calculated as a correlation based on the mutual similarity between all the feature vectors of the first and second feature maps (F s , F t ), and has a size of (h×w)×(h×w). (C
Figure 112020018742895-pat00004
) can be obtained.

신뢰도 볼륨 획득부(200)는 상관 볼륨(C)의 상관 관계들 사이의 상호 일관성을 나타내는 초기 신뢰도 볼륨(Q)을 생성하는 상호 일관성 분석부(210)와 패턴 추정 방식이 미리 학습된 인공 신경망을 이용하여 초기 신뢰도 볼륨(Q)의 신뢰도를 보강하는 신뢰도 보강부(220) 및 보강된 신뢰도 볼륨에서 기지정된 기준값(ρ)을 초과하는 값을 갖는 신뢰도값을 추출하여 도 2의 (b)와 같이 정제 신뢰도 볼륨(Q')을 획득하는 신뢰도 볼륨 필터링부(230)를 포함할 수 있다. 도 2에서는 설명의 편의를 위하여, 입력 영상(Is, It)에서 대응하는 점의 위치를 서로 연결하여 정제 신뢰도 볼륨(Q')을 표시하였다.The confidence volume acquisition unit 200 uses an artificial neural network in which a pattern estimation method has been previously learned with a mutual consistency analysis unit 210 that generates an initial confidence volume Q indicating mutual consistency between correlations of the correlation volume C. The reliability reinforcement unit 220 for reinforcing the reliability of the initial reliability volume (Q) using the It may include a confidence volume filtering unit 230 for obtaining the refinement confidence volume (Q'). In FIG. 2 , for convenience of explanation, positions of corresponding points in the input images (I s , I t ) are connected to each other to indicate a refinement reliability volume (Q′).

상호 일관성 분석부(210)는 수학식 2와 같이 상관 볼륨(C)에서 제1 특징맵(Fs)의 특징 벡터에 대한 제2 특징맵(Ft)의 특징 벡터의 상관 관계 중 최대 상관 관계(maxiCij)와 제2 특징맵(Ft)의 특징 벡터에 대한 제1 특징맵(Fs)의 특징 벡터 사이의 상관 관계 중 최대 상관 관계(maxjCji) 및 두 특징 벡터 사이의 상관 관계 제곱((Cji)2)의 비를 기반으로 각 특징 벡터에 대한 신뢰도값(Qij)을 계산할 수 있다.The cross-coherence analyzer 210 calculates the maximum correlation among correlations between the feature vectors of the second feature map F t with respect to the feature vectors of the first feature map F s in the correlation volume C as shown in Equation 2 Among the correlations between the feature vectors of the first feature map (F s ) with respect to the feature vectors of the (max i C ij ) and the second feature map (F t ), the maximum correlation (max j C ji ) and between the two feature vectors A confidence value (Q ij ) for each feature vector can be calculated based on the ratio of the correlation squared ((C ji ) 2 ) of .

Figure 112020018742895-pat00005
Figure 112020018742895-pat00005

수학식 2에 따르면, 신뢰도값(Qij)은 [0, 1] 사이의 값으로 계산되며, i와 j가 상호 대응하는 경우(즉 Cij = Cji)에만 1이고 이외에는 1보다 작은 값으로 계산된다. 따라서 신뢰도(Qij)는 1에 가까울수록 높은 신뢰도를 갖는 것으로 볼 수 있으며, 0에 가까울수록 낮은 신뢰도를 갖는 것으로 볼 수 있다.According to Equation 2, the reliability value (Q ij ) is calculated as a value between [0, 1], and is 1 only when i and j correspond to each other (ie, C ij = C ji ), and is smaller than 1 otherwise. Calculated. Therefore, the closer to 1 the reliability (Q ij ) is, the higher the reliability, and the closer to 0, the lower the reliability.

상호 일관성 분석부(210)는 수학식 2에 따라 상관 볼륨(C)의 모든 상관 관계에 대한 신뢰도값(Qij)을 계산하여 초기 신뢰도(Q)를 획득한다.The mutual consistency analyzer 210 obtains the initial reliability Q by calculating the reliability values Q ij for all correlations of the correlation volume C according to Equation 2 .

다만 초기 신뢰도(Q)의 경우, 특징맵 획득부(110)의 제1 및 제2 특징맵 획득부(111, 112)에서 추출된 제1 및 제2 특징맵(Fs, Ft)의 불완전성으로 인해 정확도가 낮을 수 있다. 비록 제1 및 제2 특징맵 획득부(111, 112)가 CNN과 같은 인공 신경망으로 구현되어 기존에 비해 높은 정확도로 제1 및 제2 특징맵(Fs, Ft)을 추출할 수 있으나, 제1 및 제2 특징맵 획득부(111, 112)의 학습 수준이나 입력 영상(Is, It) 자체의 특성에 따라 제1 및 제2 특징맵(Fs, Ft)은 부정확하게 추출될 수도 있다. 그리고 제1 및 제2 특징맵(Fs, Ft)이 부정확하게 추출된 경우 초기 신뢰도(Q)의 정확도 또한 낮아지게 된다.However, in the case of the initial reliability (Q), the first and second feature maps (F s , F t ) extracted from the first and second feature map acquisition units 111 and 112 of the characteristic map acquisition unit 110 are incomplete. Accuracy may be low due to gender. Although the first and second feature map acquisition units 111 and 112 are implemented with an artificial neural network such as CNN, it is possible to extract the first and second feature maps F s , F t with higher accuracy than before, Depending on the learning level of the first and second feature map acquisition units 111 and 112 or the characteristics of the input image I s , I t itself, the first and second feature maps F s , F t are extracted inaccurately. could be In addition, when the first and second feature maps F s and F t are incorrectly extracted, the accuracy of the initial reliability Q also decreases.

이에 본 실시예에서는 신뢰도 보강부(220)를 구비하여 초기 신뢰도 볼륨(Q)의 신뢰도를 보강한다. 신뢰도 보강부(220)는 패턴 추정 방식이 미리 학습된 인공 신경망으로 구현되어 초기 신뢰도 볼륨(Q)의 패턴을 추정하고, 추정된 패턴에 따라 신뢰도(Qij)를 보정하여 보강된 신뢰도 볼륨을 출력할 수 있다.Accordingly, in the present embodiment, the reliability of the initial reliability volume Q is reinforced by providing the reliability reinforcement unit 220 . The reliability reinforcement unit 220 is implemented as an artificial neural network in which the pattern estimation method is previously learned to estimate the pattern of the initial confidence volume Q, and outputs the reinforced reliability volume by correcting the reliability Q ij according to the estimated pattern. can do.

그리고 신뢰도 볼륨 필터링부(230)는 수학식 3과 같이 보강된 신뢰도 볼륨의 각 신뢰도를 신뢰도 볼륨(Q)의 각 신뢰도를 곱한 신뢰도 곱을 기지정된 기준값(ρ)과 비교하여, 기준값(ρ)을 초과하는 신뢰도만을 남기고 나머지를 제거하여 정제 신뢰도 볼륨(Q')을 획득할 수 있다.And, the reliability volume filtering unit 230 compares the reliability product obtained by multiplying each reliability of the reinforced reliability volume by each reliability of the reliability volume Q with a predetermined reference value ρ, as shown in Equation 3, and exceeds the reference value ρ. It is possible to obtain a refinement reliability volume (Q') by leaving only the reliability and removing the remainder.

Figure 112020018742895-pat00006
Figure 112020018742895-pat00006

여기서 [F(Q;WP)]는 인공 신경망으로 구현되는 신뢰도 보강부(220)에 의해 보강된 신뢰도 볼륨을 나타내고, WP 는 신뢰도 보강부(220)의 가중치를 나타내며, T는 기준값(ρ) 이하인 값을 제거하는 절단 함수(truncation function)이다.Here, [F(Q;W P )] represents the reliability volume reinforced by the reliability reinforcement unit 220 implemented as an artificial neural network, W P indicates the weight of the reliability reinforcement unit 220, and T is the reference value ρ ) is a truncation function that removes values less than or equal to .

즉 신뢰도 볼륨 필터링부(230)는 보강된 신뢰도 볼륨과 신뢰도 볼륨(Q)의 곱에서 기준값(ρ)을 초과하는 고수준의 신뢰도만을 추출하여 정제 신뢰도 볼륨(Q')을 획득한다.That is, the reliability volume filtering unit 230 obtains a refined reliability volume Q' by extracting only a high level of reliability exceeding the reference value ρ from the product of the reinforced reliability volume and the reliability volume Q.

그러나 경우에 따라서, 신뢰도 볼륨 필터링부(230)는 보강된 신뢰도 볼륨에서 그대로 기준값(ρ)을 초과하는 신뢰도만을 취하도록 구성될 수 있다.However, in some cases, the reliability volume filtering unit 230 may be configured to take only the reliability exceeding the reference value ρ as it is from the reinforced reliability volume.

가이드맵 획득부(300)는 정제 신뢰도 볼륨(Q')을 인가받아 정제 신뢰도 볼륨(Q')에 남아 있는 고수준 신뢰도를 기반으로 제1 및 제2 특징맵(Fs, Ft)의 대응하는 특징 벡터 사이의 이동 정도(displacement)를 나타내는 변위를 계산하여 변위맵(G)을 획득하는 변위맵 획득부(310) 및 변위맵(G)에서 고수준 신뢰도에 대해 획득된 변위를 변위맵(G)의 전체 영역으로 전파하여 가이드맵(G') 변위맵 보상부(320)를 포함할 수 있다.The guide map acquisition unit 300 receives the refining reliability volume Q', and based on the high-level reliability remaining in the refining reliability volume Q', corresponding to the first and second feature maps F s , F t . A displacement map acquisition unit 310 that obtains a displacement map G by calculating a displacement indicating a displacement between feature vectors, and a displacement map G with a displacement obtained from the displacement map G for high reliability The guide map G' may include a displacement map compensator 320 by propagating to the entire area of .

변위맵 획득부(310)는 정제 신뢰도 볼륨(Q')의 신뢰도값(Q'ij)으로부터 단순히 제1 및 제2 특징맵(Fs, Ft)의 대응하는 특징 벡터 사이의 위치(i, j) 차이를 계산하여 변위맵(G)을 획득할 수 있으나, 이 경우, 미분 불가능한 형태로 연산이 수행되어 인공 신경망으로 구현되는 신뢰도 보강부(220)의 학습시에 손실을 역전파할 수 없게 된다. 즉 신뢰도 보강부(220)를 학습시킬 수 없게 된다. 이에 본 실시예에서 변위맵 획득부(310)는 수학식 4와 같이 soft argmax 함수를 이용하여 제1 및 제2 특징맵(Fs, Ft)의 대응하는 특징 벡터 사이의 위치 변화인 변위를 계산함으로써 변위맵(G)을 획득한다.The displacement map obtaining unit 310 simply calculates the position (i, ) between the corresponding feature vectors of the first and second feature maps (F s , F t ) from the reliability value (Q' ij ) of the refinement reliability volume (Q'). j) The displacement map G can be obtained by calculating the difference, but in this case, the calculation is performed in a non-differentiable form so that the loss cannot be backpropagated during learning of the reliability reinforcement unit 220 implemented as an artificial neural network. do. That is, the reliability reinforcement unit 220 cannot be trained. Accordingly, in the present embodiment, the displacement map acquisition unit 310 obtains the displacement, which is a change in position between the corresponding feature vectors of the first and second feature maps F s and F t , using the soft argmax function as shown in Equation (4). A displacement map G is obtained by calculation.

Figure 112020018742895-pat00007
Figure 112020018742895-pat00007

여기서 S는 정제 신뢰도 볼륨(Q')의 신뢰도 집합을 나타낸다.where S denotes the confidence set of the refinement confidence volume (Q').

그러나 수학식 4와 같이 soft argmax 함수를 이용하여 변위맵(G)을 획득하더라도, 신뢰도 집합(S)에 포함되지 않아 무효화(invalid)된 값들로 인해 여전히 미분이 불가능하다.However, even if the displacement map G is obtained using the soft argmax function as in Equation 4, differentiation is still impossible due to invalidated values because they are not included in the confidence set S.

이에 변위맵 보상부(320)는 변위맵(G)의 변위들을 수학식 5와 같이 이동 최소 자승(moving least square: MLS) 기법에 따라 변위맵(G)의 나머지 전체 영역으로 전파하여 도 2의 (c)와 같이 가이드맵(G')을 획득한다.Accordingly, the displacement map compensator 320 propagates the displacements of the displacement map G to the entire remaining area of the displacement map G according to a moving least squares (MLS) technique as shown in Equation 5. A guide map G' is obtained as in (c).

Figure 112020018742895-pat00008
Figure 112020018742895-pat00008

여기서 w는 가중치 함수로서

Figure 112020018742895-pat00009
이고, cP는 미리 설정된 계수이다.where w is the weight function
Figure 112020018742895-pat00009
, and c P is a preset coefficient.

수학식 5에 따라 신뢰도가 높은 위치로부터 멀어질수록 낮은 가중치가 반영되어 변위맵(G)의 전 영역이 채워지게 된다. 또한 가중치 함수(w)가 선형이므로, 가이드맵(G')은 미분 가능한 형태가 된다.According to Equation (5), as the distance from the high-reliability position increases, the lower weight is reflected to fill the entire area of the displacement map (G). Also, since the weight function w is linear, the guide map G' has a differentiable form.

매칭부(400)는 가이드맵(G')을 인가받아 가우시안 파라메트릭 모델(Gaussian parametric model)에 따라 변환하여 가이드맵(G')의 변위 분포를 조절하는 가이드 분포 조절부(410)와 변환된 가이드맵과 상관 볼륨(C)을 곱하여 상관 볼륨(C)의 상관 관계를 보상하여 정제 상관 볼륨(C')을 획득하는 상관 볼륨 가이드부(420) 및 패턴 추정 방식이 미리 학습된 인공 신경망을 이용하여 정제 상관 볼륨(C')의 패턴을 추정하여 입력 영상(Is, It) 사이의 시멘틱 매칭 결과인 시멘틱 매칭맵을 획득하는 매칭맵 획득부(430)를 포함할 수 있다.The matching unit 400 receives the guide map G' and converts it according to a Gaussian parametric model to adjust the displacement distribution of the guide map G'. Using the correlation volume guide unit 420 that multiplies the guide map and the correlation volume C to compensate for the correlation of the correlation volume C to obtain the refined correlation volume C' and the artificial neural network in which the pattern estimation method has been learned in advance. and a matching map acquisition unit 430 for estimating the pattern of the refinement correlation volume C' to obtain a semantic matching map that is a result of semantic matching between the input images I s and I t .

가이드 분포 조절부(410)와 상관 볼륨 가이드부(420)는 수학식 6에 따라 정제 상관 볼륨(C')을 획득될 수 있다.The guide distribution control unit 410 and the correlation volume guide unit 420 may obtain the refined correlation volume C′ according to Equation (6).

Figure 112020018742895-pat00010
Figure 112020018742895-pat00010

여기서

Figure 112020018742895-pat00011
는 가우시안 파라메트릭 모델에 다라 변환된 가이드맵으로 k와 cM은 각각 가우시안 모델의 분포를 조절하는 하이퍼파라미터이다. 즉 제1 및 제2 특징맵(Fs, Ft)의 각 특징 벡터간 상관 관계를 나타내는 상관 볼륨(C)의 상호 일관성에 따른 신뢰도 중 고수준의 신뢰도로부터 생성된 가이드맵(G')을 기반으로 상관 볼륨(C)의 상관 관계들을 강조하여, 정제 상관 볼륨(C')을 획득한다.here
Figure 112020018742895-pat00011
is a guide map transformed according to the Gaussian parametric model, and k and c M are hyperparameters that control the distribution of the Gaussian model, respectively. That is, based on the guide map (G') generated from the high level of reliability among the reliability according to the mutual consistency of the correlation volume (C) representing the correlation between the respective feature vectors of the first and second feature maps (F s , F t ) By emphasizing the correlations of the correlation volume (C) with , a refined correlation volume (C') is obtained.

매칭맵 획득부(430)는 가이드맵(G')에 기초하여 주요 영역이 강조된 정제 상관 볼륨(C')을 인가받고, 정제 상관 볼륨(C')의 패턴을 추정함으로써, 입력 영상(Is, It)에서 의미적으로 매칭되는 상호 위치를 나타내는 시멘틱 매칭맵(τ)을 도 2의 (d)와 같이 획득한다.The matching map acquisition unit 430 receives the refined correlation volume C' in which the main region is emphasized based on the guide map G', and estimates the pattern of the refined correlation volume C', so that the input image I s , I t ), a semantic matching map (τ) indicating the semantically matched mutual positions is obtained as shown in (d) of FIG. 2 .

여기서 매칭맵 획득부(430)가 획득하는 시멘틱 매칭맵(τ)은 수학식 7로 표현될 수 있다.Here, the semantic matching map τ obtained by the matching map acquisition unit 430 may be expressed by Equation (7).

Figure 112020018742895-pat00012
Figure 112020018742895-pat00012

여기서 [F(C';WM)]i는 인공 신경망으로 구현되는 매칭맵 획득부(430)에 의해 추정된 매칭맵의 각 원소를 나타내고, WM 는 매칭맵 획득부(430)의 가중치를 나타내며, τi는 시멘틱 매칭맵(τ)의 원소를 나타낸다.Here, [F(C';W M )] i represents each element of the matching map estimated by the matching map acquiring unit 430 implemented as an artificial neural network, and W M is the weight of the matching map acquiring unit 430 . , τ i denotes an element of the semantic matching map (τ).

수학식 7에서 추정된 매칭맵의 각 원소([F(C';WM)]i)에 가이드맵(G')의 대응하는 원소(G'i)를 가산하여, 시멘틱 매칭맵의 각 원소(τi)를 획득하는 것은 매칭맵 획득부(430)의 학습을 용이하도록 하기 위함이다.Each element of the semantic matching map by adding the corresponding element (G' i ) of the guide map (G') to each element ([F(C';W M )] i ) of the matching map estimated in Equation 7 Acquiring (τ i ) is to facilitate learning of the matching map acquisition unit 430 .

매칭맵 획득부(430)는 가이드맵(G')을 추가로 가산하지 않고, 매칭맵([F(C';WM)])이 그대로 시멘틱 매칭맵(τ)으로 획득되도록 학습될 수도 있다. 다만, 매칭맵([F(C';WM)])이 그대로 시멘틱 매칭맵(τ)으로 획득되도록 학습시키는 경우, 학습 과정에서 매칭맵([F(C';WM)])의 변동 폭이 커지게 되고 이로 인해 안정적으로 학습이 완료되기까지 소요되는 시간이 길다.The matching map acquisition unit 430 may be learned to acquire the matching map ([F(C'; W M )]) as the semantic matching map τ as it is without adding the guide map G'. . However, if the matching map ([F(C';W M )]) is learned to be obtained as the semantic matching map (τ) as it is, the change in the matching map ([F(C';W M )]) in the learning process As the width increases, it takes a long time for the learning to be completed stably.

그에 반해, 수학식 7에서와 같이, 매칭맵 획득부(430)가 매칭맵([F(C';WM)])에 가이드맵(G')을 가산하여 시멘틱 매칭맵(τ)을 획득하도록 구성되는 경우, 인공 신경망의 학습 시에 매칭맵([F(C';WM)])의 변동 폭이 감소하게 되어 더욱 빠르게 학습될 수 있다. 이에 여기서는 매칭맵([F(C';WM)])에 가이드맵(G')을 가산하여 시멘틱 매칭맵(τ)을 획득하는 것으로 도시하였으나, 상기한 바와 같이, 매칭맵 획득부(430)는 매칭맵([F(C';WM)])이 그대로 시멘틱 매칭맵(τ)으로 획득되도록 구성될 수도 있다.On the other hand, as in Equation 7, the matching map obtaining unit 430 obtains the semantic matching map τ by adding the guide map G' to the matching map ([F(C';W M )]). When configured to do so, the fluctuation range of the matching map ([F(C';W M )]) is reduced during training of the artificial neural network, so that it can be learned more quickly. Accordingly, here, the semantic matching map τ is obtained by adding the guide map G' to the matching map ([F(C'; W M )]), but as described above, the matching map acquisition unit 430 ) may be configured such that the matching map ([F(C';W M )]) is obtained as the semantic matching map τ as it is.

한편 도시하지 않았으나, 본 실시예에 따른 시멘틱 매칭 장치는 인공 신경망으로 구현되는 신뢰도 보강부(220) 및 매칭맵 획득부(430)를 학습시키기 위한 학습부(미도시)를 더 포함할 수 있다.Meanwhile, although not shown, the semantic matching apparatus according to the present embodiment may further include a learning unit (not shown) for learning the reliability reinforcement unit 220 and the matching map acquisition unit 430 implemented as an artificial neural network.

본 실시예에서 학습부는 시멘틱 매칭 영역이 미리 레이블된 학습 영상을 입력 영상(Is, It)으로 인가하여 손실을 계산하고, 계산된 손실을 역전파함으로써, 신뢰도 보강부(220)와 매칭맵 획득부(430)를 학습시킬 수 있다.In this embodiment, the learning unit calculates a loss by applying a training image with a pre-labeled semantic matching region as an input image (I s , I t ), and by backpropagating the calculated loss, the reliability reinforcement unit 220 and the matching map The acquisition unit 430 may be trained.

학습부는 신뢰도 보강부(220)를 학습시키기 위해 일관성 손실(LP)을 계산한다. 일관성 손실(LP)은 소스 영상(Is)과 타겟 영상(It)의 특징 사이의 국부적인 기하학적 구조가 유사해야 한다는 점을 고려하여, 기하학 일관성 손실(geometry consistency loss)(Lgeo)을 계산하고, 정제 신뢰도 볼륨(Q')과 초기 신뢰도 볼륨(Q)에서 시멘틱 객체의 실루엣이 대응해야 한다는 점을 고려하여 실루엣 일관성 손실(silhouette consistency loss)(Lsil)하여 가산하여 계산한다.Learning unit calculates a consistent loss (P L) in order to study the reliability reinforcing portion 220. The The loss of consistency (L P ) is calculated as the loss of geometry consistency (L geo ), considering that the local geometries between the features of the source image (I s ) and the target image (I t ) must be similar. It is calculated and calculated by adding the silhouette consistency loss (L sil ) considering that the silhouette of the semantic object must correspond in the refinement confidence volume (Q') and the initial confidence volume (Q).

기하학 일관성 손실(Lgeo)은 소스 영상(Is)에 대한 특징맵(Fs)과 타겟 영상(It)에 대한 특징맵(Ft)을 가이드맵(G')에 따라 와핑한 결과 사이의 차이로 수학식 8과 같이 계산될 수 있다.Geometry consistent losses (L geo) is the source image (I s) characteristic map (F s) and the warping results in accordance with the target image (I t) characteristic map (F t) to the guide map (G ') for for between It can be calculated as in Equation 8 as a difference of .

Figure 112020018742895-pat00013
Figure 112020018742895-pat00013

여기서 Ni는 위치 i 를 중심으로 하는 국부 영역 윈도우이고, ㅇ 는 와핑 연산자(warping operator)이며, ∥∥2 F 는 브로베니우스 놈(Frobenius norm) 함수를 나타낸다.where N i is a local area window centered at position i, o is a warping operator, and ||||| 2 F denotes a Frobenius norm function.

한편, 실루엣 일관성 손실(Lsil)은 수학식 9에 따라 계산될 수 있다.Meanwhile, the silhouette coherence loss (L sil ) may be calculated according to Equation (9).

Figure 112020018742895-pat00014
Figure 112020018742895-pat00014

여기서 S* = {i,j|Q'ij ≠ 0}이므로, Q'ij/Qij는 신뢰도 보강부(220)에 의해 보강된 신뢰도 볼륨([F(Q;WP)]ij)이 된다.Here, since S * = {i,j|Q' ij ≠ 0}, Q' ij /Q ij becomes the reliability volume ([F(Q;WP)] ij ) reinforced by the reliability reinforcement unit 220 .

수학식 8 및 9로부터 일관성 손실(LP)은 수학식 10으로 계산될 수 있다.From Equations (8) and (9 ), the loss of consistency (L P ) can be calculated by Equation (10).

Figure 112020018742895-pat00015
Figure 112020018742895-pat00015

여기서 λ는 손실 가중치이다.where λ is the loss weight.

그리고 학습부는 매칭맵 획득부(430)를 학습시키기 위해, 시멘틱 매칭 영역이 미리 레이블된 입력 영상(Is, It) 중 타겟 영상(It)에 대한 특징맵(Ft)을 시멘틱 매칭맵(τ)에 따라 와핑하여 소스 영상(Is)에 대한 특징맵(Fs)과의 유사도비(Pi(τ))를 수학식 11에 따라 계산하고, 유사도비(Pi(τ))를 이용하여 수학식 12에 따라 잔여 변환 손실(LM)을 계산한다.And in order to learn the matching map acquisition unit 430, the learning unit uses the feature map (F t ) for the target image (I t ) among the input images (I s , I t ) in which the semantic matching area is pre-labeled as the semantic matching map. By warping according to (τ), the similarity ratio (P i (τ)) with the feature map (F s ) for the source image (I s ) is calculated according to Equation 11, and the similarity ratio (P i (τ)) Calculate the residual transformation loss (L M ) according to Equation (12) using

Figure 112020018742895-pat00016
Figure 112020018742895-pat00016

Figure 112020018742895-pat00017
Figure 112020018742895-pat00017

또한 학습부는 시멘틱 매칭맵(τ)의 공간 평활도를 L1 놈() 함수로 계산하여 정규화 손실(regularization loss)(Lsm)을 계산할 수 있다. In addition, the learning unit may calculate a regularization loss (L sm ) by calculating the spatial smoothness of the semantic matching map (τ) with the L1 norm ( ) function.

최종적으로 학습부는 수학식 13과 같이, 일관성 손실(LP)과 잔여 변환 손실(LM) 및 정규화 손실(Lsm)을 가산하여 총 손실을 계산하고 계산된 총 손실을 역전파하여 신뢰도 보강부(220)와 매칭맵 획득부(430)를 학습시킬 수 있다.Finally, as shown in Equation 13, the learning unit calculates the total loss by adding the coherence loss (L P ), the residual transformation loss (L M ), and the normalization loss (L sm ), and backpropagates the calculated total loss to the reliability reinforcement unit 220 and the matching map acquisition unit 430 may be trained.

Figure 112020018742895-pat00018
Figure 112020018742895-pat00018

여기서 λP, λM 및 λsm 은 각각 가중치 파라미터로서 일예로 1, 0, 0.1로 설정될 수 있다.Here, λ P , λ M , and λ sm may be set to 1, 0, or 0.1 as weight parameters, respectively.

도 3은 본 발명의 일 실시예에 따른 시멘틱 매칭 방법을 나타낸다.3 shows a semantic matching method according to an embodiment of the present invention.

도 1을 참조하여, 도 3의 시멘틱 매칭 방법을 설명하면, 우선 한 쌍의 입력 영상(Is, It)을 획득하여 특징을 추출하고 특징 사이의 유사도에 기반한 상관 관계를 분석하여 상관 볼륨(C)을 생성한다(S10).Referring to FIG. 1, the semantic matching method of FIG. 3 is described. First, a pair of input images (I s , I t ) is acquired, features are extracted, and a correlation is analyzed based on the similarity between the features to obtain a correlation volume ( C) is generated (S10).

상관 볼륨(C)을 생성하는 단계(S10)에서는 먼저 한 쌍의 입력 영상(Is, It)을 획득한다(S11). 그리고 미리 학습된 패턴 추정 방식에 따라 획득된 입력 영상(Is, It)에서 특징을 추출하여 특징맵(Fs, Ft)을 생성한다(S12). 이후 생성된 특징맵(Fs, Ft)의 특징 벡터간 유사도에 따른 상관 관계를 분석하여 상관 볼륨(C)을 획득한다(S13).In the step of generating the correlation volume C (S10), a pair of input images I s and I t are first obtained (S11). Then, the feature maps F s , F t are generated by extracting features from the input images I s , I t obtained according to the pre-learned pattern estimation method ( S12 ). Then, the correlation volume C is obtained by analyzing the correlation according to the similarity between the feature vectors of the generated feature maps F s and F t (S13).

그리고 상관 볼륨이 생성되면, 상관 볼륨(C)의 상관 관계의 상호 일관성을 기반으로 신뢰도를 계산하고, 보강 및 필터링하여 정제 신뢰도 볼륨(Q')을 생성한다(S20).And when the correlation volume is generated, the reliability is calculated based on the mutual consistency of the correlation of the correlation volume C, and the refinement reliability volume Q' is generated by reinforcement and filtering (S20).

정제 신뢰도 볼륨(Q')을 생성하는 단계(S20)는 상관 볼륨(C)의 각 원소인 상관 관계들 사이의 상호 일관성에 따른 신뢰도 값을 수학식 2에 따라 계산하여 초기 신뢰도 볼륨(Q)을 생성한다(S21). 초기 신뢰도 볼륨(Q)이 생성되면, 패턴 추정 방식이 미리 학습된 인공 신경망을 이용하여, 초기 신뢰도 볼륨(Q)의 신뢰도(Qij)를 보정하여 보강된 신뢰도 볼륨을 획득한다(S22). 그리고 보강된 신뢰도 볼륨의 각 신뢰도를 기지정된 기준값(ρ)과 비교하여, 기준값(ρ)을 초과하는 신뢰도만을 남기고 나머지를 제거하여 정제 신뢰도 볼륨(Q')을 획득할 수 있다(S23). 이때, 보강된 신뢰도 볼륨의 각 신뢰도를 신뢰도 볼륨(Q)의 각 신뢰도를 곱한 신뢰도 곱을 기지정된 기준값(ρ)과 비교하여, 정제 신뢰도 볼륨(Q')을 획득할 수도 있다.The step (S20) of generating the refinement reliability volume (Q') is to calculate the reliability value according to the mutual consistency between correlations, which are each element of the correlation volume (C), according to Equation 2 to obtain the initial confidence volume (Q). generated (S21). When the initial confidence volume Q is generated, a reinforced confidence volume is obtained by correcting the reliability Q ij of the initial confidence volume Q using the artificial neural network in which the pattern estimation method has been previously learned ( S22 ). And by comparing each reliability of the reinforced reliability volume with a predetermined reference value (ρ), only the reliability exceeding the reference value (ρ) is removed and the remainder is removed to obtain a refined reliability volume (Q') (S23). In this case, by comparing the reliability product obtained by multiplying each reliability of the reinforced reliability volume by each reliability of the reliability volume Q with a predetermined reference value ρ, the refinement reliability volume Q' may be obtained.

정제 신뢰도 볼륨(Q')이 획득되면, 정제 신뢰도 볼륨(Q')의 신뢰도에 따라 제1 및 제2 특징맵(Fs, Ft)에서 대응하는 특징 벡터 사이의 변위를 계산하여 변위맵(G)을 획득하고, 변위맵(G)의 변위를 주변 영역으로 전파하여 가이드맵(G')을 생성한다(S30)."If the obtained, purified reliability volume (Q purified reliability volume (Q)") the first and second characteristics map (F s, F t) displacement map by calculating a displacement between the corresponding feature vector in accordance with the reliability of the ( G) is obtained, and a guide map G' is generated by propagating the displacement of the displacement map G to the surrounding area (S30).

가이드맵(G')을 생성하는 단계(S30)는 soft argmax 함수를 이용하여 수학식 4에 따라 제1 및 제2 특징맵(Fs, Ft)의 대응하는 특징 벡터 사이의 위치 변화인 변위를 계산함으로써 변위맵(G)을 획득할 수 있다(S31). 그리고 획득된 변위맵(G)의 변위들을 수학식 5의 이동 최소 자승(MLS) 기법에 따라 주변으로 전파하여 가이드맵(G')을 획득할 수 있다(S32).The step S30 of generating the guide map G' is a displacement that is a change in position between the corresponding feature vectors of the first and second feature maps F s and F t according to Equation 4 using the soft argmax function. It is possible to obtain a displacement map (G) by calculating (S31). The guide map G' may be obtained by propagating the displacements of the obtained displacement map G to the periphery according to the moving least squares (MLS) technique of Equation 5 (S32).

한편, 가이드맵(G')과 상관 볼륨(C)이 생성되면, 생성된 가이드맵(G')을 가우시안 분포를 따르도록 변환하고, 변환된 가이드맵으로 상관 볼륨(C)의 상관 관계를 보상한 후, 미리 학습된 패턴 추정 방식에 따라 상관 관계를 보상된 정제 상관 볼륨(C')의 패턴을 추정하여 시멘틱 매칭맵(τ)을 추정한다(S40).On the other hand, when the guide map G' and the correlation volume C are generated, the generated guide map G' is converted to follow a Gaussian distribution, and the correlation of the correlation volume C is compensated with the converted guide map. After that, the semantic matching map τ is estimated by estimating the pattern of the refined correlation volume C′ compensated for the correlation according to the pre-learned pattern estimation method (S40).

시멘틱 매칭맵(τ)을 추정하는 단계(S40)는 우선 가이드맵(G')을 가우시안 분포를 따르도록 가우시안 파라메트릭 모델에 따라 변환한다(S41). 그리고 변환된 가이드맵과 상관 볼륨(C)을 곱하여 상관 관계가 보상된 정제 상관 볼륨(C')을 획득한다(S42). 정제 상관 볼륨(C')이 획득되면, 미리 학습된 패턴 추정 방식에 따라 정제 상관 볼륨(C')의 패턴으로부터 입력 영상(Is, It) 사이의 시멘틱 매칭맵(τ)을 획득한다(S43).In the step of estimating the semantic matching map τ ( S40 ), first, the guide map G′ is converted according to a Gaussian parametric model to follow a Gaussian distribution ( S41 ). Then, the converted guide map is multiplied by the correlation volume C to obtain a refined correlation volume C' for which the correlation is compensated (S42). When the refined correlation volume (C') is obtained, a semantic matching map (τ) between the input images (I s , I t ) is obtained from the pattern of the refined correlation volume (C') according to a pre-learned pattern estimation method ( S43).

도 4 및 도 5는 본 실시예에 따른 시멘틱 매칭 방법의 성능을 비교하기 위한 도면이다.4 and 5 are diagrams for comparing the performance of the semantic matching method according to the present embodiment.

도 4에서 좌측 영상과 가운데 영상은 각각 소스 영상(Is)과 타겟 영상(It)을 나타내고, 우측 영상은 시멘틱 매칭맵(τ)에 의해 와핑된 소스 영상(Is)을 나타낸다. 그리고 도 5는 도 4의 소스 영상(Is)과 타겟 영상(It)에 대해 기존의 RTN과 NCNet 및 FSNet 기법에 따라 획득된 시멘틱 매칭맵에 따라 와핑된 소스 영상(Is)을 나타낸다.In FIG. 4 , the left image and the middle image represent the source image I s and the target image I t , respectively, and the right image represents the source image I s warped by the semantic matching map τ. And Figure 5 shows the source image (I s) warped according to the semantic matching map obtained according to the conventional RTN and NCNet and FSNet techniques for the source image (I s) and the target image (I t) of FIG.

도 4 및 도 5를 비교하면, 본 실시예에 따른 시멘틱 매칭 방법이 기존의 다른 기법에 비해 타겟 영상(It)의 객체 형상에 가장 유사한 형태로 와핑됨을 알 수 있다. 즉 소스 영상(Is)과 타겟 영상(It) 사이에서 매우 정확하게 시멘틱 매칭을 수행할 수 있다.Comparing FIGS. 4 and 5 , it can be seen that the semantic matching method according to the present embodiment warps in a shape most similar to the object shape of the target image It t compared to other existing techniques. That is, semantic matching can be performed very accurately between the source image I s and the target image I t .

본 발명에 따른 방법은 컴퓨터에서 실행시키기 위한 매체에 저장된 컴퓨터 프로그램으로 구현될 수 있다. 여기서 컴퓨터 판독가능 매체는 컴퓨터에 의해 액세스 될 수 있는 임의의 가용 매체일 수 있고, 또한 컴퓨터 저장 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함하며, ROM(판독 전용 메모리), RAM(랜덤 액세스 메모리), CD(컴팩트 디스크)-ROM, DVD(디지털 비디오 디스크)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등을 포함할 수 있다.The method according to the present invention may be implemented as a computer program stored in a medium for execution by a computer. Here, the computer-readable medium may be any available medium that can be accessed by a computer, and may include all computer storage media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data, and read dedicated memory), RAM (Random Access Memory), CD (Compact Disk)-ROM, DVD (Digital Video Disk)-ROM, magnetic tape, floppy disk, optical data storage, and the like.

본 발명은 도면에 도시된 실시예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.Although the present invention has been described with reference to the embodiment shown in the drawings, which is merely exemplary, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom.

따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 청구범위의 기술적 사상에 의해 정해져야 할 것이다.Accordingly, the true technical protection scope of the present invention should be defined by the technical spirit of the appended claims.

100: 상관 볼륨 획득부 110: 특징맵 획득부
120: 상관 관계 분석부 200: 신뢰도 볼륨 획득부
210: 상호 일관성 분석부 220: 신뢰도 보강부
230: 신뢰도 볼륨 필터링부 300: 가이드맵 획득부
310: 변위맵 획득부 320: 변위맵 보상부
400: 매칭부 410: 가이드 분포 조절부
420: 상관 볼륨 가이드부 430: 매칭맵 획득부
100: correlation volume acquisition unit 110: feature map acquisition unit
120: correlation analysis unit 200: reliability volume acquisition unit
210: mutual consistency analysis unit 220: reliability reinforcement unit
230: reliability volume filtering unit 300: guide map acquisition unit
310: displacement map acquisition unit 320: displacement map compensation unit
400: matching unit 410: guide distribution control unit
420: correlation volume guide unit 430: matching map acquisition unit

Claims (20)

인가된 한 쌍의 입력 영상 각각에서 미리 학습된 패턴 추정 방식에 따라 특징을 추출하여 다수의 특징 벡터로 구성되는 한 상의 특징맵을 생성하고, 생성된 한 쌍의 특징맵 사이의 특징 벡터간 유사도에 따른 상관 관계를 분석하여 상관 볼륨을 획득하는 상관 볼륨 획득부;
상기 상관 볼륨의 원소인 상관 관계 사이의 상호 일관성을 기반으로 신뢰도를 계산하고, 미리 학습된 패턴 추정 방식에 따라 초기 신뢰도 볼륨의 패턴을 추정하여 보강하며, 보강된 신뢰도를 기지정된 기준값으로 필터링하여 정제 신뢰도 볼륨을 획득하는 신뢰도 볼륨 획득부;
정제 신뢰도 볼륨의 신뢰도에 따라 상기 한 쌍의 특징맵에서 서로 대응하는 특징 벡터 사이의 변위를 계산하여 변위맵을 획득하고, 상기 변위맵의 변위를 기지정된 방식으로 주변 영역으로 전파하여 가이드맵을 생성하는 가이드맵 획득부; 및
상기 가이드맵을 이용하여 상기 상관 볼륨의 중요 영역이 강조되도록 상관 관계를 보상하고, 미리 학습된 패턴 추정 방식에 따라 상관 관계를 보상된 정제 상관 볼륨의 패턴을 추정하여 시멘틱 매칭맵을 획득하는 매칭부를 포함하되,
상기 상관 볼륨 획득부는
각각 패턴 추정 방식이 미리 학습된 2개의 인공 신경망으로 구현되어, 상기 한 쌍의 입력 영상 중 대응하는 입력 영상을 인가받아 특징을 추출하여 상기 한 쌍의 특징맵을 획득하는 특징맵 획득부; 및
상기 한 쌍의 특징맵의 각 특징 벡터간 상관 관계를 코사인 유사도를 이용하여 계산하여 상기 상관 볼륨을 획득하는 상관 관계 분석부를 포함하는 시멘틱 매칭 장치.
A feature map of a phase consisting of a plurality of feature vectors is generated by extracting features from each of the applied pair of input images according to a pattern estimation method learned in advance, and the degree of similarity between the feature vectors between the pair of generated feature maps is calculated. Correlation volume acquisition unit to obtain a correlation volume by analyzing the correlation according to the
Reliability is calculated based on the mutual consistency between correlations, which are elements of the correlation volume, and the pattern of the initial confidence volume is estimated and reinforced according to a pre-learned pattern estimation method, and the reinforced reliability is filtered and refined by a predetermined reference value. a reliability volume obtaining unit for obtaining a reliability volume;
A displacement map is obtained by calculating the displacement between the feature vectors corresponding to each other in the pair of feature maps according to the reliability of the refining reliability volume, and a guide map is generated by propagating the displacement of the displacement map to the surrounding area in a predetermined manner. a guide map acquisition unit; and
A matching unit that compensates for the correlation so that an important region of the correlation volume is emphasized using the guide map, and obtains a semantic matching map by estimating the pattern of the refined correlation volume compensated for the correlation according to a pre-learned pattern estimation method including,
The correlation volume acquisition unit
a feature map acquisition unit that is implemented with two artificial neural networks in which each pattern estimation method is learned in advance, receives a corresponding input image from among the pair of input images, extracts features, and obtains the pair of feature maps; and
and a correlation analyzer configured to obtain the correlation volume by calculating a correlation between the feature vectors of the pair of feature maps using a cosine similarity.
삭제delete 제1 항에 있어서, 상기 상관 관계 분석부는
상기 한 쌍의 특징맵(Fs, Ft)의 각 특징 벡터간 상관 관계를 수학식
Figure 112021042694316-pat00019

(여기서 i, j는 제1 및 제2 특징맵(Fs, Ft) 각각에서의 특징 벡터 위치 좌표를 나타내고, < >는 코사인 유사도 함수이며, ∥∥2 는 L2-norm 함수이다.)
에 따라 계산하는 시멘틱 매칭 장치.
The method of claim 1, wherein the correlation analysis unit
The correlation between each feature vector of the pair of feature maps (F s , F t ) is expressed by the equation
Figure 112021042694316-pat00019

(Here, i and j denote feature vector position coordinates in each of the first and second feature maps F s , F t , <> is a cosine similarity function, and │ 2 is an L 2 -norm function.)
A semantic matching device that calculates according to
제1 항에 있어서, 상기 신뢰도 볼륨 획득부는
상기 상관 볼륨의 상관 관계들 사이의 상호 일관성을 나타내는 초기 신뢰도 볼륨을 생성하는 상호 일관성 분석부;
패턴 추정 방식이 미리 학습된 인공 신경망을 이용하여 초기 신뢰도 볼륨의 신뢰도를 보강하는 신뢰도 보강부; 및
보강된 신뢰도 볼륨에서 기지정된 기준값을 초과하는 값을 갖는 신뢰도값을 추출하여 상기 정제 신뢰도 볼륨을 획득하는 신뢰도 볼륨 필터링부를 포함하는 시멘틱 매칭 장치.
According to claim 1, wherein the reliability volume acquisition unit
a mutual consistency analyzer for generating an initial confidence volume indicating mutual consistency between correlations of the correlation volume;
a reliability reinforcement unit for reinforcing the reliability of the initial reliability volume using an artificial neural network in which a pattern estimation method has been previously learned; and
A semantic matching apparatus comprising: a confidence volume filtering unit configured to obtain the refined reliability volume by extracting a reliability value having a value exceeding a predetermined reference value from the reinforced reliability volume.
제4 항에 있어서, 상기 상호 일관성 분석부는
상관 볼륨에서 한 쌍의 특징맵 중 제1 특징맵(Fs)의 특징 벡터에 대한 제2 특징맵(Ft)의 특징 벡터의 상관 관계 중 최대 상관 관계(maxiCij)와 제2 특징맵(Ft)의 특징 벡터에 대한 제1 특징맵(Fs)의 특징 벡터 사이의 상관 관계 중 최대 상관 관계(maxjCji) 및 두 특징 벡터 사이의 상관 관계 제곱((Cji)2)의 비를 기반으로 각 특징 벡터에 대한 신뢰도값(Qij)을 수학식
Figure 112020018742895-pat00020

에 따라 계산하는 시멘틱 매칭 장치.
5. The method of claim 4, wherein the mutual consistency analyzer
Among the correlations between the feature vectors of the second feature map (F t ) with respect to the feature vectors of the first feature map (F s ) among the pair of feature maps in the correlation volume, the maximum correlation (max i C ij ) and the second feature Among the correlations between the feature vectors of the first feature map (F s ) with respect to the feature vectors of the map (F t ), the maximum correlation (max j C ji ) and the squared correlation between the two feature vectors ((C ji ) 2 ), the confidence value (Q ij ) for each feature vector is calculated based on the ratio of
Figure 112020018742895-pat00020

A semantic matching device that calculates according to
제4 항에 있어서, 상기 신뢰도 볼륨 필터링부는
보강된 신뢰도 볼륨에 상기 신뢰도 볼륨을 곱한 결과에서 기준값을 초과하는 값을 갖는 신뢰도값을 추출하여 상기 정제 신뢰도 볼륨을 획득하는 시멘틱 매칭 장치.
The method of claim 4, wherein the reliability volume filtering unit
A semantic matching apparatus for obtaining the refined reliability volume by extracting a reliability value having a value exceeding a reference value from a result of multiplying the reinforced reliability volume by the reliability volume.
제4 항에 있어서, 상기 가이드맵 획득부는
상기 정제 신뢰도 볼륨의 신뢰도를 기반으로 한 쌍의 특징맵의 대응하는 특징 벡터 사이의 이동 정도를 나타내는 변위를 계산하여 상기 변위맵을 획득하는 변위맵 획득부; 및
상기 변위맵의 계산된 변위를 변위맵의 나머지 전체 영역으로 기지정된 방식으로 전파하여 상기 가이드맵을 획득하는 변위맵 보상부를 포함하는 시멘틱 매칭 장치.
5. The method of claim 4, wherein the guide map acquisition unit
a displacement map acquisition unit configured to obtain the displacement map by calculating a displacement indicating a degree of movement between corresponding feature vectors of a pair of feature maps based on the reliability of the refinement reliability volume; and
and a displacement map compensator configured to obtain the guide map by propagating the calculated displacement of the displacement map to the remaining entire area of the displacement map in a predetermined manner.
제7 항에 있어서, 상기 변위맵 획득부는
상기 정제 신뢰도 볼륨의 계산된 신뢰도에 따라 한 쌍의 특징맵의 대응하는 특징 벡터 사이의 위치 변화인 변위를 soft argmax 함수를 이용하여 계산하는 시멘틱 매칭 장치.
The method of claim 7, wherein the displacement map acquisition unit
A semantic matching device for calculating a displacement, which is a position change between corresponding feature vectors of a pair of feature maps, using a soft argmax function according to the calculated reliability of the refinement reliability volume.
제8 항에 있어서, 상기 변위맵 보상부는
상기 변위맵의 변위들을 이동 최소 자승(moving least square: MLS) 기법에 따라 나머지 전체 영역으로 전파하는 시멘틱 매칭 장치.
The method of claim 8, wherein the displacement map compensator
A semantic matching device for propagating the displacements of the displacement map to the entire remaining area according to a moving least squares (MLS) technique.
제9 항에 있어서, 상기 매칭부는
상기 가이드맵을 인가받아 가우시안 분포를 갖도록 변환하여 가이드맵의 변위 분포를 조절하는 가이드 분포 조절부;
변환된 가이드맵과 상기 상관 볼륨를 곱하여, 상기 상관 볼륨의 상관 관계를 보상하여 정제 상관 볼륨을 획득하는 상관 볼륨 가이드부; 및
패턴 추정 방식이 미리 학습된 인공 신경망을 이용하여 상기 정제 상관 볼륨의 패턴을 추정하여, 상기 한 쌍의 입력 영상 사이의 시멘틱 매칭 결과인 시멘틱 매칭맵을 획득하는 매칭맵 획득부를 포함하는 시멘틱 매칭 장치.
The method of claim 9, wherein the matching unit
a guide distribution control unit that receives the guide map and converts it to have a Gaussian distribution to adjust the displacement distribution of the guide map;
a correlation volume guide unit that multiplies the transformed guide map and the correlation volume to compensate for the correlation of the correlation volume to obtain a refined correlation volume; and
A semantic matching apparatus comprising: a matching map acquisition unit configured to estimate a pattern of the refined correlation volume using an artificial neural network trained in a pattern estimation method in advance, and obtain a semantic matching map that is a semantic matching result between the pair of input images.
인가된 한 쌍의 입력 영상 각각에서 미리 학습된 패턴 추정 방식에 따라 특징을 추출하여 다수의 특징 벡터로 구성되는 한 상의 특징맵을 생성하고, 생성된 한 쌍의 특징맵 사이의 특징 벡터간 유사도에 따른 상관 관계를 분석하여 상관 볼륨을 생성하는 단계;
상기 상관 볼륨의 원소인 상관 관계 사이의 상호 일관성을 기반으로 신뢰도를 계산하고, 미리 학습된 패턴 추정 방식에 따라 초기 신뢰도 볼륨의 패턴을 추정하여 보강하며, 보강된 신뢰도를 기지정된 기준값으로 필터링하여 정제 신뢰도 볼륨을 생성하는 단계;
정제 신뢰도 볼륨의 신뢰도에 따라 상기 한 쌍의 특징맵에서 서로 대응하는 특징 벡터 사이의 변위를 계산하여 변위맵을 획득하고, 상기 변위맵의 변위를 기지정된 방식으로 주변 영역으로 전파하여 가이드맵을 생성하는 단계; 및
상기 가이드맵을 이용하여 상기 상관 볼륨의 중요 영역이 강조되도록 상관 관계를 보상하고, 미리 학습된 패턴 추정 방식에 따라 상관 관계를 보상된 정제 상관 볼륨의 패턴을 추정하여 시멘틱 매칭맵을 획득하는 단계를 포함하되,
상기 상관 볼륨을 생성하는 단계는
각각 패턴 추정 방식이 미리 학습된 2개의 인공 신경망을 이용하여, 상기 한 쌍의 입력 영상 중 대응하는 입력 영상을 인가받아 특징을 추출하여 상기 한 쌍의 특징맵을 획득하는 단계; 및
상기 한 쌍의 특징맵의 각 특징 벡터간 상관 관계를 코사인 유사도를 이용하여 계산하여 상기 상관 볼륨을 획득하는 단계를 포함하는 시멘틱 매칭 방법.
A feature map of a phase consisting of a plurality of feature vectors is generated by extracting features from each of the applied pair of input images according to a pattern estimation method learned in advance, and the degree of similarity between the feature vectors between the pair of generated feature maps is calculated. generating a correlation volume by analyzing the corresponding correlation;
Reliability is calculated based on the mutual consistency between correlations, which are elements of the correlation volume, and the pattern of the initial confidence volume is estimated and reinforced according to a pre-learned pattern estimation method, and the reinforced reliability is filtered and refined by a predetermined reference value. generating a confidence volume;
A displacement map is obtained by calculating the displacement between the feature vectors corresponding to each other in the pair of feature maps according to the reliability of the refining reliability volume, and a guide map is generated by propagating the displacement of the displacement map to the surrounding area in a predetermined manner. to do; and
Compensating for the correlation so that the important region of the correlation volume is emphasized using the guide map, and estimating the pattern of the refined correlation volume compensated for the correlation according to a pre-learned pattern estimation method to obtain a semantic matching map; including,
The step of generating the correlation volume includes
obtaining the pair of feature maps by receiving a corresponding input image from among the pair of input images by using two artificial neural networks, each of which pattern estimation methods have been previously learned, and extracting features; and
and obtaining the correlation volume by calculating a correlation between each feature vector of the pair of feature maps using a cosine similarity.
삭제delete 제11 항에 있어서, 상기 상관 볼륨을 획득하는 단계는
상기 한 쌍의 특징맵(Fs, Ft)의 각 특징 벡터간 상관 관계를 수학식
Figure 112021042694316-pat00021

(여기서 i, j는 제1 및 제2 특징맵(Fs, Ft) 각각에서의 특징 벡터 위치 좌표를 나타내고, < >는 코사인 유사도 함수이며, ∥∥2 는 L2-norm 함수이다.)
에 따라 계산하는 시멘틱 매칭 방법.
12. The method of claim 11, wherein obtaining the correlation volume comprises:
The correlation between each feature vector of the pair of feature maps (F s , F t ) is expressed by the equation
Figure 112021042694316-pat00021

(Here, i and j denote feature vector position coordinates in each of the first and second feature maps F s , F t , <> is a cosine similarity function, and │ 2 is an L 2 -norm function.)
A semantic matching method that calculates according to
제11 항에 있어서, 상기 정제 신뢰도 볼륨을 생성하는 단계는
상기 상관 볼륨의 상관 관계들 사이의 상호 일관성을 나타내는 초기 신뢰도 볼륨을 생성하는 단계;
패턴 추정 방식이 미리 학습된 인공 신경망을 이용하여 초기 신뢰도 볼륨의 신뢰도를 보강하는 단계; 및
보강된 신뢰도 볼륨에서 기지정된 기준값을 초과하는 값을 갖는 신뢰도값을 추출하여 상기 정제 신뢰도 볼륨을 획득하는 단계를 포함하는 시멘틱 매칭 방법.
12. The method of claim 11, wherein generating the refinement confidence volume comprises:
generating an initial confidence volume representing mutual consistency between correlations in the correlation volume;
Reinforcing the reliability of the initial confidence volume using an artificial neural network in which the pattern estimation method has been previously learned; and
and extracting a confidence value having a value exceeding a predetermined reference value from the reinforced confidence volume to obtain the refined confidence volume.
제14 항에 있어서, 상기 초기 신뢰도 볼륨을 생성하는 단계는
상관 볼륨에서 한 쌍의 특징맵 중 제1 특징맵(Fs)의 특징 벡터에 대한 제2 특징맵(Ft)의 특징 벡터의 상관 관계 중 최대 상관 관계(maxiCij)와 제2 특징맵(Ft)의 특징 벡터에 대한 제1 특징맵(Fs)의 특징 벡터 사이의 상관 관계 중 최대 상관 관계(maxjCji) 및 두 특징 벡터 사이의 상관 관계 제곱((Cji)2)의 비를 기반으로 각 특징 벡터에 대한 신뢰도값(Qij)을 수학식
Figure 112020018742895-pat00022

에 따라 계산하는 시멘틱 매칭 방법.
15. The method of claim 14, wherein generating the initial confidence volume comprises:
Among the correlations between the feature vectors of the second feature map (F t ) with respect to the feature vectors of the first feature map (F s ) among the pair of feature maps in the correlation volume, the maximum correlation (max i C ij ) and the second feature Among the correlations between the feature vectors of the first feature map (F s ) with respect to the feature vectors of the map (F t ), the maximum correlation (max j C ji ) and the squared correlation between the two feature vectors ((C ji ) 2 ), the confidence value (Q ij ) for each feature vector is calculated based on the ratio of
Figure 112020018742895-pat00022

A semantic matching method that calculates according to
제14 항에 있어서, 상기 정제 신뢰도 볼륨을 획득하는 단계는
보강된 신뢰도 볼륨에 상기 신뢰도 볼륨을 곱한 결과에서 기준값을 초과하는 값을 갖는 신뢰도값을 추출하여 상기 정제 신뢰도 볼륨을 획득하는 시멘틱 매칭 방법.
15. The method of claim 14, wherein obtaining the refinement confidence volume comprises:
A semantic matching method for obtaining the refined reliability volume by extracting a reliability value having a value exceeding a reference value from a result of multiplying the reinforced reliability volume by the reliability volume.
제14 항에 있어서, 상기 가이드맵을 생성하는 단계는
상기 정제 신뢰도 볼륨의 신뢰도를 기반으로 한 쌍의 특징맵의 대응하는 특징 벡터 사이의 이동 정도를 나타내는 변위를 계산하여 상기 변위맵을 획득하는 단계; 및
상기 변위맵의 계산된 변위를 변위맵의 나머지 전체 영역으로 기지정된 방식으로 전파하여 상기 가이드맵을 획득하는 단계를 포함하는 시멘틱 매칭 방법.
15. The method of claim 14, wherein generating the guide map comprises:
obtaining the displacement map by calculating a displacement indicating a degree of movement between corresponding feature vectors of a pair of feature maps based on the reliability of the refinement reliability volume; and
and acquiring the guide map by propagating the calculated displacement of the displacement map to the remaining entire area of the displacement map in a predetermined manner.
제17 항에 있어서, 상기 변위맵을 획득하는 단계는
상기 정제 신뢰도 볼륨의 계산된 신뢰도에 따라 한 쌍의 특징맵의 대응하는 특징 벡터 사이의 위치 변화인 변위를 soft argmax 함수를 이용하여 계산하는 시멘틱 매칭 방법.
The method of claim 17, wherein the obtaining of the displacement map comprises:
A semantic matching method for calculating a displacement, which is a position change between corresponding feature vectors of a pair of feature maps, using a soft argmax function according to the calculated reliability of the refinement reliability volume.
제18 항에 있어서, 상기 가이드맵을 획득하는 단계는
상기 변위맵의 변위들을 이동 최소 자승(moving least square: MLS) 기법에 따라 나머지 전체 영역으로 전파하는 시멘틱 매칭 방법.
19. The method of claim 18, wherein obtaining the guide map comprises:
A semantic matching method for propagating the displacements of the displacement map to the entire remaining area according to a moving least squares (MLS) technique.
제19 항에 있어서, 상기 시멘틱 매칭맵을 획득하는 단계는
상기 가이드맵을 인가받아 가우시안 분포를 갖도록 변환하여 가이드맵의 변위 분포를 조절하는 단계;
변환된 가이드맵과 상기 상관 볼륨를 곱하여, 상기 상관 볼륨의 상관 관계를 보상하여 정제 상관 볼륨을 획득하는 단계; 및
패턴 추정 방식이 미리 학습된 인공 신경망을 이용하여 상기 정제 상관 볼륨의 패턴을 추정하여, 상기 한 쌍의 입력 영상 사이의 시멘틱 매칭 결과인 시멘틱 매칭맵을 획득하는 단계를 포함하는 시멘틱 매칭 방법.
The method of claim 19, wherein obtaining the semantic matching map comprises:
adjusting the displacement distribution of the guide map by receiving the guide map and transforming it to have a Gaussian distribution;
multiplying the transformed guide map and the correlation volume to compensate for the correlation of the correlation volume to obtain a refined correlation volume; and
and estimating the pattern of the refined correlation volume using an artificial neural network in which a pattern estimation method has been previously learned, and obtaining a semantic matching map that is a semantic matching result between the pair of input images.
KR1020200021630A 2020-02-21 2020-02-21 Apparatus and method for semantic matching based on matching reliability KR102289668B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200021630A KR102289668B1 (en) 2020-02-21 2020-02-21 Apparatus and method for semantic matching based on matching reliability

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200021630A KR102289668B1 (en) 2020-02-21 2020-02-21 Apparatus and method for semantic matching based on matching reliability

Publications (1)

Publication Number Publication Date
KR102289668B1 true KR102289668B1 (en) 2021-08-12

Family

ID=77314404

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200021630A KR102289668B1 (en) 2020-02-21 2020-02-21 Apparatus and method for semantic matching based on matching reliability

Country Status (1)

Country Link
KR (1) KR102289668B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230089990A (en) 2021-12-14 2023-06-21 고려대학교 산학협력단 Semantic matching method and apparatus through joint learning of feature extraction network and cost aggregation network
KR102607748B1 (en) * 2022-07-19 2023-11-29 중앙대학교 산학협력단 Apparatus and method for image analysis applying multi-task adaptation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130128097A (en) * 2012-05-16 2013-11-26 전자부품연구원 Object recognition method and apparatus using depth information
KR20180033037A (en) 2016-09-23 2018-04-02 삼성전자주식회사 Apparatus and method for detecting objects
JP2018205800A (en) * 2017-05-30 2018-12-27 株式会社東芝 Image analysis apparatus, neural network apparatus, learning apparatus, image analysis method and program
KR20190056940A (en) * 2017-11-17 2019-05-27 삼성전자주식회사 Method and device for learning multimodal data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130128097A (en) * 2012-05-16 2013-11-26 전자부품연구원 Object recognition method and apparatus using depth information
KR20180033037A (en) 2016-09-23 2018-04-02 삼성전자주식회사 Apparatus and method for detecting objects
JP2018205800A (en) * 2017-05-30 2018-12-27 株式会社東芝 Image analysis apparatus, neural network apparatus, learning apparatus, image analysis method and program
KR20190056940A (en) * 2017-11-17 2019-05-27 삼성전자주식회사 Method and device for learning multimodal data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20230089990A (en) 2021-12-14 2023-06-21 고려대학교 산학협력단 Semantic matching method and apparatus through joint learning of feature extraction network and cost aggregation network
KR102607748B1 (en) * 2022-07-19 2023-11-29 중앙대학교 산학협력단 Apparatus and method for image analysis applying multi-task adaptation

Similar Documents

Publication Publication Date Title
CN111462175B (en) Space-time convolution twin matching network target tracking method, device, medium and equipment
CN110533691B (en) Target tracking method, device and storage medium based on multiple classifiers
CN109598781B (en) Method for acquiring pseudo 3D frame from 2D bounding frame by regression analysis, learning apparatus and testing apparatus using the same
KR102289668B1 (en) Apparatus and method for semantic matching based on matching reliability
KR102219561B1 (en) Unsupervised stereo matching apparatus and method using confidential correspondence consistency
US10657625B2 (en) Image processing device, an image processing method, and computer-readable recording medium
EP4287144A1 (en) Video behavior recognition method and apparatus, and computer device and storage medium
CN114565655A (en) Depth estimation method and device based on pyramid segmentation attention
CN111914878A (en) Feature point tracking training and tracking method and device, electronic equipment and storage medium
CN110992401A (en) Target tracking method and device, computer equipment and storage medium
WO2021220688A1 (en) Reinforcement learning model for labeling spatial relationships between images
Wu et al. Deep reinforcement learning with parameterized action space for object detection
CN113643329B (en) Twin attention network-based online update target tracking method and system
KR20210129503A (en) Object tracking apparatus and method using self-attention
KR102166117B1 (en) Semantic matchaing apparatus and method
CN108664918B (en) Intelligent vehicle front pedestrian tracking method based on background perception correlation filter
CN113129332A (en) Method and apparatus for performing target object tracking
CN116958740A (en) Zero sample target detection method based on semantic perception and self-adaptive contrast learning
Wang et al. Online convolution network tracking via spatio-temporal context
Han et al. Gbnet: Gradient boosting network for monocular depth estimation
CN115116128A (en) Self-constrained optimization human body posture estimation method and system
CN111126198B (en) Pedestrian re-identification method based on deep representation learning and dynamic matching
Tliba et al. Deep-based quality assessment of medical images through domain adaptation
CN112634331A (en) Optical flow prediction method and device
KR101961687B1 (en) Scene flow learning method for scene flow estimation and scene flow estimation method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant