KR102395166B1 - Apparatus and method for calculating similarity based on feature coordinates - Google Patents

Apparatus and method for calculating similarity based on feature coordinates Download PDF

Info

Publication number
KR102395166B1
KR102395166B1 KR1020210146872A KR20210146872A KR102395166B1 KR 102395166 B1 KR102395166 B1 KR 102395166B1 KR 1020210146872 A KR1020210146872 A KR 1020210146872A KR 20210146872 A KR20210146872 A KR 20210146872A KR 102395166 B1 KR102395166 B1 KR 102395166B1
Authority
KR
South Korea
Prior art keywords
matching
coordinates
image
characteristic
feature
Prior art date
Application number
KR1020210146872A
Other languages
Korean (ko)
Inventor
이시운
최우식
김태규
Original Assignee
주식회사 딥노이드
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 딥노이드 filed Critical 주식회사 딥노이드
Priority to KR1020210146872A priority Critical patent/KR102395166B1/en
Application granted granted Critical
Publication of KR102395166B1 publication Critical patent/KR102395166B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06K9/6215

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Provided is a calculation device. The calculation device comprises: an acquisition unit acquiring an image in which an object exists; an extraction unit extracting a feature coordinate of the object; a matching unit that matches the features coordinate extracted from a plurality of images with each other; and a calculation unit that calculates a similarity between a plurality of images using the matching number of feature coordinates.

Description

특징 좌표 기반의 유사도 산출 장치 및 방법{Apparatus and method for calculating similarity based on feature coordinates}Apparatus and method for calculating similarity based on feature coordinates}

본 발명은 특징 좌표 등에 기반하여 유사도를 산출하는 장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for calculating a degree of similarity based on feature coordinates and the like.

유사도 산출은 일반적으로 서로 동일한 차원을 대상으로 수행될 수 있다. 하지만, 경우에 따라 서로 다른 차원을 대상으로 유사도 산출이 수행될 필요가 있다.Calculation of similarity may be generally performed with respect to the same dimension. However, in some cases, it is necessary to perform similarity calculation for different dimensions.

예를 들어, 사진 속의 물체와 선으로만 구성된 캐드 도면 속 물체 간의 유사도 산출이 필요할 수 있다.For example, it may be necessary to calculate the similarity between an object in a photograph and an object in a CAD drawing composed of only lines.

이 경우, 사진 속 물체로 정의되는 물품과 캐드 도면 속 물체로 정의되는 도면 간의 유사도 산출 방법론은 뉴럴네트워크 등을 통해 추출된 물품, 도면 각각의 특징 벡터(Feature Vector) 간의 코사인 유사도(Cosine similarity) 또는 유클리디언 거리(Euclidean distance)를 활용한다.In this case, the similarity calculation methodology between an article defined as an object in a photograph and a drawing defined as an object in a CAD drawing is the cosine similarity or Euclidean distance is used.

그러나, 코사인 유사도 또는 유클리디언 거리를 이용한 유사도 산출 방법론은 유사도 산출에 대한 모델의 설명 가능성이 떨어진다는 단점이 존재한다.However, the similarity calculation method using the cosine similarity or Euclidean distance has a disadvantage in that the explanation possibility of the model for calculating the similarity is low.

한국등록특허공보 제1282816호에는 정규화된 상호상관도를 실시간으로 처리할 수 있는 이미지의 유사도 측정 기술이 나타나 있다.Korean Patent Publication No. 1282816 discloses a similarity measurement technique for images that can process normalized cross-correlation in real time.

한국등록특허공보 제1282816호Korean Patent Publication No. 1282816

본 발명은 서로 다른 종류의 이미지에 포함된 물체 간의 유사도를 산출하는 산출 장치 및 방법을 제공하기 위한 것이다.An object of the present invention is to provide a calculation apparatus and method for calculating a degree of similarity between objects included in different types of images.

본 발명의 산출 장치는 물체가 존재하는 이미지를 획득하는 획득부; 상기 물체의 특징 좌표를 추출하는 추출부; 복수의 이미지로부터 추출한 특징 좌표를 서로 매칭시키는 매칭부; 상기 특징 좌표의 매칭 개수를 이용하여 복수의 이미지 간의 유사도를 산정하는 산정부;를 포함할 수 있다.A calculation device of the present invention includes: an acquisition unit configured to acquire an image in which an object exists; an extraction unit for extracting feature coordinates of the object; a matching unit for matching feature coordinates extracted from a plurality of images with each other; and a calculation unit that calculates a degree of similarity between a plurality of images by using the matching number of the feature coordinates.

본 발명의 산출 방법은 물체가 존재하는 이미지를 획득하는 획득 단계; 상기 물체의 특징 벡터를 추출하는 추출 단계; 복수의 이미지로부터 추출한 특징 벡터를 서로 매칭시키는 매칭 단계; 상기 특징 벡터의 매칭 개수를 이용하여 복수의 이미지 간의 유사도를 산정하는 산정 단계;를 포함할 수 있다.The calculation method of the present invention includes an acquisition step of acquiring an image in which an object exists; an extraction step of extracting a feature vector of the object; a matching step of matching feature vectors extracted from a plurality of images with each other; and calculating the similarity between a plurality of images by using the matching number of the feature vectors.

본 발명은 서로 다른 종류, 차원의 이미지에 포함된 물체 간의 유사도를 산정하는 새로운 방안을 제공할 수 있다.The present invention can provide a new method for calculating the similarity between objects included in images of different types and dimensions.

본 발명은 높은 정확도와 시각적 설명 가능성을 겸비한 유사도 산출 방법론을 제시할 수 있다.The present invention can present a similarity calculation methodology that combines high accuracy and visual description.

본 발명에 따르면, 선으로만 표현된 도면을 갖는 디자인권과 특정 물체를 촬영한 사진 간의 유사성이 수치적으로 산출될 수 있다. 또한, 본 발명에 따르면, 도면과 사진 등과 같이 이종의 이미지 간의 유사성 매칭 결과가 시각화될 수 있다. 시각화된 매칭 결과는 사용자의 수동 해석 등이 가능한 환경을 제공할 수 있다.According to the present invention, the similarity between a design right having a drawing expressed only in lines and a photograph of a specific object can be numerically calculated. Also, according to the present invention, similarity matching results between images of different types such as drawings and photos can be visualized. The visualized matching result may provide an environment in which a user's manual interpretation is possible.

도 1은 본 발명의 산출 장치를 나타낸 개략도이다.
도 2는 산출 장치의 동작을 나타낸 개략도이다.
도 3은 다른 물체를 대상으로 하는 산출 장치의 동작을 나타낸 개략도이다.
도 4는 또 다른 물체를 대상으로 하는 산출 장치의 동작을 나타낸 개략도이다.
도 5는 본 발명의 산출 방법을 나타낸 흐름도이다.
도 6은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다.
1 is a schematic diagram showing a calculation device of the present invention.
2 is a schematic diagram showing the operation of the calculation device.
3 is a schematic diagram illustrating an operation of a calculation device for another object.
4 is a schematic diagram illustrating an operation of a calculation device targeting another object.
5 is a flowchart illustrating a calculation method according to the present invention.
6 is a diagram illustrating a computing device according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. Hereinafter, with reference to the accompanying drawings, the embodiments of the present invention will be described in detail so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

본 명세서에서, 동일한 구성요소에 대해서 중복된 설명은 생략한다.In the present specification, duplicate descriptions of the same components will be omitted.

또한 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '연결되어' 있다거나 '접속되어' 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에 본 명세서에서, 어떤 구성요소가 다른 구성요소에 '직접 연결되어' 있다거나 '직접 접속되어' 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, when it is said that a certain element is 'connected' or 'connected' to another element, it may be directly connected or connected to the other element, but other elements in the middle It should be understood that there may be On the other hand, in this specification, when it is mentioned that a certain element is 'directly connected' or 'directly connected' to another element, it should be understood that the other element does not exist in the middle.

또한, 본 명세서에서 사용되는 용어는 단지 특정한 실시예를 설명하기 위해 사용되는 것으로써, 본 발명을 한정하려는 의도로 사용되는 것이 아니다.In addition, the terms used herein are used only to describe specific embodiments, and are not intended to limit the present invention.

또한 본 명세서에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다. Also, in this specification, the singular expression may include the plural expression unless the context clearly dictates otherwise.

또한 본 명세서에서, '포함하다' 또는 '가지다' 등의 용어는 명세서에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품, 또는 이들을 조합한 것이 존재함을 지정하려는 것일 뿐, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 할 것이다.Also, in this specification, terms such as 'include' or 'have' are only intended to designate that the features, numbers, steps, operations, components, parts, or combinations thereof described in the specification exist, and one or more It is to be understood that the existence or addition of other features, numbers, steps, operations, components, parts, or combinations thereof, is not precluded in advance.

또한 본 명세서에서, '및/또는' 이라는 용어는 복수의 기재된 항목들의 조합 또는 복수의 기재된 항목들 중의 어느 항목을 포함한다. 본 명세서에서, 'A 또는 B'는, 'A', 'B', 또는 'A와 B 모두'를 포함할 수 있다.Also in this specification, the term 'and/or' includes a combination of a plurality of described items or any item of a plurality of described items. In this specification, 'A or B' may include 'A', 'B', or 'both A and B'.

또한 본 명세서에서, 본 발명의 요지를 흐리게 할 수 있는 공지 기능 및 구성에 대한 상세한 설명은 생략될 것이다.Also, in this specification, detailed descriptions of well-known functions and configurations that may obscure the gist of the present invention will be omitted.

도 1은 본 발명의 산출 장치를 나타낸 개략도이다.1 is a schematic diagram showing a calculation device of the present invention.

도 1에 도시된 산출 장치는 획득부(110), 추출부(130), 매칭부(150), 산정부(170)를 포함할 수 있다.The calculation device shown in FIG. 1 may include an acquisition unit 110 , an extraction unit 130 , a matching unit 150 , and a calculation unit 170 .

획득부(110)는 물체가 존재하는 이미지를 획득할 수 있다. 일 예로, 이미지는 사진, 도면 등을 포함할 수 있다. 사진은 RGB(Red, Green, Blue) 스케일의 컬러 사진 또는 흑백 사진을 포함할 수 있다. 도면은 물체를 선으로만 나타낸 것일 수 있다.The acquisition unit 110 may acquire an image in which an object exists. As an example, the image may include a photo, a drawing, and the like. The photo may include a color photo or a black-and-white photo in RGB (Red, Green, Blue) scale. A drawing may be a representation of an object only with lines.

획득부(110)에는 이미지를 생성하는 카메라 등의 생성 수단과 통신하거나, 이미지가 저장된 서버 등과 통신하는 통신 모듈이 마련될 수 있다. 획득부(110)는 통신 모듈을 통해 생성 수단 또는 서버로부터 물체가 포함된 각종 이미지를 유무선 통신망을 거쳐 획득할 수 있다.The acquisition unit 110 may be provided with a communication module that communicates with a generating means such as a camera that generates an image, or communicates with a server in which an image is stored. The acquisition unit 110 may acquire various images including an object from a generating means or a server through a communication module through a wired/wireless communication network.

추출부(130)는 이미지에 포함된 물체의 특징 좌표 또는 특징 벡터를 추출할 수 있다. 특징 좌표 또는 특징 벡터는 특징 좌표 추출 알고리즘을 이용해 추출될 수 있다. 특징 좌표 추출 알고리즘은 인공지능 기반의 모델인 슈퍼포인트(Superpoint) 등이 사용될 수 있다. 또는, 특징 좌표 추출 알고리즘은 전통적인 방법론인 SIFT(Scale Invariant Feature Transform), SURF(Speed Up Robust Features) 등의 알고리즘을 이용할 수 있다.The extractor 130 may extract feature coordinates or feature vectors of the object included in the image. The feature coordinates or feature vectors may be extracted using a feature coordinate extraction algorithm. As the feature coordinate extraction algorithm, an artificial intelligence-based model, Superpoint, etc. may be used. Alternatively, the feature coordinate extraction algorithm may use algorithms such as Scale Invariant Feature Transform (SIFT) and Speed Up Robust Features (SURF), which are traditional methodologies.

매칭부(150)는 복수의 이미지로부터 추출한 특징 좌표 또는 특징 벡터를 서로 매칭시킬 수 있다. 본 명세서에 기재된 '매칭'은 각 이미지에 포함된 물체의 고유 특징이 서로 일치하는 여부의 판별을 의미하거나, 고유 특징의 좌표에 해당하는 특징 좌표가 서로 일치하는 여부의 판별을 의미할 수 있다. 또는, '매칭'은 각 이미지에 포함된 물체의 고유 특징이 서로 일치하는 상태에서 서로 일치하는 각 이미지의 특징 좌표를 한 쌍으로 묶는 것을 의미할 수 있다. '일치'는 두 값이 완전히 동일한 것뿐만 아니라, 어느 한 값이 다른 값을 중심으로 하는 설정 범위 내의 값에 해당하는 것을 의미할 수 있다.The matching unit 150 may match feature coordinates or feature vectors extracted from a plurality of images with each other. 'Matching' described in the present specification may mean determining whether the intrinsic features of objects included in each image match each other, or may mean determining whether feature coordinates corresponding to the coordinates of the intrinsic features match each other. Alternatively, 'matching' may mean tying the characteristic coordinates of each image matching each other as a pair in a state in which the intrinsic characteristics of the objects included in each image coincide with each other. 'Concordance' may mean not only that two values are completely the same, but that one value corresponds to a value within a setting range centered on another value.

매칭부(150)는 좌표 매칭 알고리즘을 이용하여 서로 다른 이미지에서 발생한 고유 특징과 특징 좌표의 일치 여부를 산출할 수 있다. 매칭부(150)는 서로 매칭되는 제1 이미지의 특징 좌표 및 제2 이미지의 특징 좌표를 출력할 수 있다. 이때, 사용 가능한 좌표 매칭 알고리즘은 'SuperGlue' 등의 인공지능 기반 모델을 사용할 수도 있고, 전통적인 방법론인 L1 또는 L2 손실을 사용한 'Brute-Force' 알고리즘을 사용할 수도 있다.The matching unit 150 may calculate whether the characteristic coordinates coincide with the unique features generated in different images by using a coordinate matching algorithm. The matching unit 150 may output the characteristic coordinates of the first image and the characteristic coordinates of the second image that match each other. In this case, the available coordinate matching algorithm may use an artificial intelligence-based model such as 'SuperGlue', or the 'Brute-Force' algorithm using the traditional method L1 or L2 loss.

산정부(170)는 특징 좌표의 매칭 개수를 이용하여 복수의 이미지 간의 유사도를 산정할 수 있다. 산정부(170)에 따르면, 특징 좌표의 매칭 개수에 따라 유사도가 결정될 수 있다. 또한, 서로 매칭되는 특징 좌표가 파악된 상태이므로, 각 이미지에서 서로 매칭되는 특징 좌표가 어떤 것인지 시각적으로 나타내기 용이하다. 이를 통해 사용자는 시각적으로 두 이미지의 물체 간의 매칭 상태를 파악할 수 있다.The calculator 170 may calculate the similarity between the plurality of images by using the matching number of feature coordinates. According to the calculator 170 , the degree of similarity may be determined according to the number of matching feature coordinates. In addition, since the feature coordinates that match each other are identified, it is easy to visually indicate which feature coordinates match each other in each image. Through this, the user can visually determine the matching state between the objects in the two images.

도 2는 산출 장치의 동작을 나타낸 개략도이다.2 is a schematic diagram showing the operation of the calculation device.

획득부(110)는 복수의 이미지를 획득할 수 있다. 이때, 복수의 이미지는 종류에 무관할 수 있다. 일 예로, 획득부(110)는 제1 이미지와 제2 이미지를 획득할 수 있으며, 제1 이미지와 제2 이미지는 모두 사진일 수 있다. 또는, 제1 이미지와 제2 이미지는 모두 도면일 수 있다. 또는, 제1 이미지는 사진이고, 제2 이미지는 도면일 수 있다.The acquisition unit 110 may acquire a plurality of images. In this case, the plurality of images may be irrespective of the type. For example, the acquisition unit 110 may acquire a first image and a second image, and both the first image and the second image may be photos. Alternatively, both the first image and the second image may be drawings. Alternatively, the first image may be a photograph and the second image may be a drawing.

도 2에는 제1 이미지(우측의 이미지)가 사진이고, 제2 이미지(좌측의 이미지)가 도면인 경우가 나타나 있다. 결과적으로, 도 2의 실시예에서 획득부(110)는 사진 및 도면을 획득한 셈이 된다.2 shows a case in which the first image (the image on the right) is a photograph and the second image (the image on the left) is a drawing. As a result, in the embodiment of FIG. 2 , the acquisition unit 110 acquires a photo and a drawing.

추출부(130)는 특징 좌표 추출 알고리즘을 이용하여 사진에 포함된 제1 물체 ix의 제1 특징 벡터를 추출할 수 있다.The extractor 130 may extract a first feature vector of the first object ix included in the photo by using a feature coordinate extraction algorithm.

추출부(130)는 특징 좌표 추출 알고리즘을 이용하여 도면에 포함된 제2 물체 iy의 제2 특징 벡터를 추출할 수 있다.The extractor 130 may extract a second feature vector of the second object iy included in the drawing by using a feature coordinate extraction algorithm.

매칭부(150)는 좌표 매칭 알고리즘을 이용하여 제1 특징 벡터와 제2 특징 벡터를 서로 매칭시킬 수 있다. 도면에는 제1 특징 벡터에 포함된 제1 특징 좌표 fx와 제2 특징 벡터에 포함된 제2 특징 좌표 fy가 서로 매칭되고 있다.The matching unit 150 may match the first feature vector and the second feature vector with each other using a coordinate matching algorithm. In the drawing, the first feature coordinates fx included in the first feature vector and the second feature coordinates fy included in the second feature vector match each other.

산정부(170)는 정상적으로 매칭이 이루어진 매칭 개수에 따라 사진의 제1 물체 ix 및 도면의 제2 물체 iy 간의 유사도를 산정할 수 있다.The calculator 170 may calculate the similarity between the first object ix of the picture and the second object iy of the drawing according to the number of matches that are normally matched.

각 요소의 기능 및 작용을 보다 상세하게 설명한다.The function and action of each element will be described in more detail.

획득부(110)는 제1 물체 ix가 존재하는 제1 이미지를 획득하고, 제2 물체 iy가 존재하는 제2 이미지를 획득할 수 있다.The acquisition unit 110 may acquire a first image in which the first object ix exists, and may acquire a second image in which the second object iy exists.

획득부(110)는 유사도 추정을 위한 물체의 사진과 해당 물체의 도면을 8bit integer 형식의 그레이 스케일(Gray scale) 형식으로 변환할 수 있다.The acquisition unit 110 may convert a photograph of an object and a drawing of the object for estimating the similarity into a gray scale format of an 8-bit integer format.

추출부(130)는 제1 물체 ix의 제1 고유 특징, 제1 고유 특징의 좌표에 해당하는 제1 특징 좌표 fx를 추출할 수 있다. 제1 고유 특징은 제1 특징 벡터의 방향과 길이 성분을 포함할 수 있다. 제1 특징 좌표는 제1 특징 벡터의 시점 또는 종점의 좌표를 포함할 수 있다. 또는, 제1 특징 좌표는 제1 특징 벡터에서 시점과 종점을 연결하는 선분 상의 임의의 점의 좌표를 포함할 수 있다.The extractor 130 may extract the first characteristic coordinates of the first object ix and the first characteristic coordinates fx corresponding to the coordinates of the first intrinsic characteristic. The first intrinsic feature may include direction and length components of the first feature vector. The first feature coordinates may include coordinates of a start point or an end point of the first feature vector. Alternatively, the first feature coordinates may include coordinates of an arbitrary point on a line segment connecting the start point and the end point in the first feature vector.

추출부(130)는 제2 물체 iy의 제2 고유 특징, 제2 고유 특징의 좌표에 해당하는 제2 특징 좌표 fy를 추출할 수 있다.The extractor 130 may extract a second characteristic coordinate of the second object iy and a second characteristic coordinate fy corresponding to the coordinates of the second intrinsic characteristic.

일 예로, 추출부(130)는 획득부(110)로부터 전달된 이미지에서 특징 벡터와 좌표를 추출할 수 있다. 추출된 데이터의 형식은 32-bit floating 형식의 배열(Array)이며, 형태(Shape)는 (Number of key points, X, Y, Feature dimension)이다. 여기서 X, Y는 각 특징의 X좌표, Y좌표이며, 'Feature dimension'은 해당 좌표에서의 고유 특징을 표현한 특징 벡터이며, 일반적인 특징 추출기에서 사용되는 용어인 'Descriptor dimension'과 동일할 수 있다.As an example, the extractor 130 may extract a feature vector and coordinates from the image transmitted from the obtainer 110 . The format of the extracted data is a 32-bit floating array, and the shape is (Number of key points, X, Y, Feature dimension). Here, X and Y are the X and Y coordinates of each feature, and the 'Feature dimension' is a feature vector expressing a unique feature in the corresponding coordinate, and may be the same as the 'Descriptor dimension', a term used in a general feature extractor.

특징 추출을 통해 얻은 각각의 출력 배열은 한 쌍으로 묶여서 특징 매칭 알고리즘이 탑재된 매칭부(150)에 입력될 수 있다. 매칭부(150)는 해당 알고리즘을 통해 각 특징에 대한 1대1 매칭 좌표를 찾고 'Confidence score'가 0.2보다 높은 좌표 쌍을 출력한다. 여기서 출력의 형식은 32-bit floating 형식의 배열이며, 형태는 (Number of matching key points, X, Y)일 수 있다.Each output array obtained through feature extraction may be grouped into a pair and input to the matching unit 150 equipped with a feature matching algorithm. The matching unit 150 finds one-to-one matching coordinates for each feature through a corresponding algorithm and outputs a coordinate pair having a 'Confidence score' higher than 0.2. Here, the format of the output is a 32-bit floating array, and the format may be (Number of matching key points, X, Y).

다른 관점에서 살펴보면, 매칭부(150)는 제1 이미지에서 제2 고유 특징과 일치하면서 제2 특징 좌표 fy와 일치하는 제1 특징 좌표 fx의 개수에 해당하는 제1 매칭 개수를 산출할 수 있다.Looking from another perspective, the matching unit 150 may calculate the number of first matches corresponding to the number of first feature coordinates fx that coincide with the second feature coordinate fy while matching the second unique feature in the first image.

매칭부(150)는 제2 이미지에서 제1 고유 특징과 일치하면서 제1 특징 좌표 fx와 일치하는 제2 특징 좌표 fy의 개수에 해당하는 제2 매칭 개수를 산출할 수 있다. 이때, 제1 매칭 개수와 제2 매칭 개수는 서로 동일할 수 있다. 이 경우, 매칭부(150)는 제1 물체 ix의 제1 특징 좌표 fx와 제2 물체 iy의 제2 특징 좌표 fy가 일치하는 개수에 해당하는 매칭 개수 Nmatch를 산출하면 충분하다.The matching unit 150 may calculate the number of second matches corresponding to the number of second feature coordinates fy that coincide with the first feature coordinates fx while matching the first unique feature in the second image. In this case, the first matching number and the second matching number may be equal to each other. In this case, it is sufficient if the matching unit 150 calculates the matching number Nmatch corresponding to the number in which the first characteristic coordinates fx of the first object ix and the second characteristic coordinates fy of the second object iy coincide.

산정부(170)는 제1 매칭 개수 및 제2 매칭 개수 중 적어도 하나를 이용하여 제1 물체 ix와 제2 물체 iy의 유사도를 산정할 수 있다.The calculator 170 may calculate the similarity between the first object ix and the second object iy by using at least one of the first matching number and the second matching number.

일 예로, 매칭부(150)는 제1 특징 좌표 fx의 전체 개수에 해당하는 제1 전체 개수 Nx를 산출할 수 있다. 매칭부(150)는 제2 특징 좌표 fy의 전체 개수에 해당하는 제2 전체 개수 Ny를 산출할 수 있다.As an example, the matching unit 150 may calculate the first total number Nx corresponding to the total number of the first feature coordinates fx. The matching unit 150 may calculate a second total number Ny corresponding to the total number of second feature coordinates fy.

산정부(170)는 제1 전체 개수 Nx(x의 키 포인트(key point) 수)와 매칭 개수 Nmatch(특징 매칭 알고리즘을 통해 1대1로 매칭된 최종 key point 수)간의 제1 비율

Figure 112021124867106-pat00001
, 제2 전체 개수 Ny(y의 키 포인트(key point) 수)와 매칭 개수 Nmatch 간의 제2 비율
Figure 112021124867106-pat00002
을 이용하여 제1 물체 ix와 제2 물체 iy 간의 유사도를 산정할 수 있다.The calculation unit 170 is a first ratio between the first total number Nx (the number of key points of x) and the number of matching Nmatch (the final number of key points matched one-to-one through a feature matching algorithm)
Figure 112021124867106-pat00001
, a second ratio between the second total number Ny (the number of key points in y) and the number of matches Nmatch
Figure 112021124867106-pat00002
can be used to calculate the similarity between the first object ix and the second object iy.

산정부(170)는 제1 비율과 제2 비율을 합한 값을 제1 물체와 제2 물체의 유사도로 출력할 수 있다. 이때, 산정부(170)는 제1 비율과 제2 비율 중 작은 값에 제1 가중치를 곱할 수 있다. 산정부(170)는 제1 비율과 제2 비율 중 큰 값에 제2 가중치를 곱할 수 있다. 제1 가중치는 제2 가중치보다 작은 값일 수 있다. 제1 가중치는 0보다 크고 1보다 작은 범위 내에서 선택될 수 있다. 제2 가중치는 1보다 크고 2보다 작은 범위 내에서 선택될 수 있다.The calculator 170 may output a value obtained by adding the first ratio and the second ratio to the degree of similarity between the first object and the second object. In this case, the calculator 170 may multiply the smaller value of the first ratio and the second ratio by the first weight. The calculator 170 may multiply the larger value of the first ratio and the second ratio by the second weight. The first weight may be smaller than the second weight. The first weight may be selected within a range greater than 0 and less than 1. The second weight may be selected within a range greater than 1 and less than 2.

이상의 내용을 정리하면, 산정부(170)는 다음의 수학식1에 의해 유사도를 산정할 수 있다.Summarizing the above, the calculation unit 170 may calculate the degree of similarity by Equation 1 below.

Figure 112021124867106-pat00003
...수학식1
Figure 112021124867106-pat00003
...Equation 1

유사도(x,y)는 제1 물체 ix와 제2 물체 iy 간의 유사도를 나타낸다. x, y는 각각 이미지로부터 추출된 (Number of Key point, X, Y, Feature dimension) 정보일 수 있다. 0.5는 제1 가중치일 수 있다. 1.5는 제2 가중치일 수 있다.

Figure 112021124867106-pat00004
은 제1 비율과 제2 비율 중 작은 값을 나타낼 수 있다.
Figure 112021124867106-pat00005
은 제1 비율과 제2 비율 중 큰 값을 나타낼 수 있다.The similarity (x,y) represents the similarity between the first object ix and the second object iy. Each of x and y may be (Number of Key point, X, Y, Feature dimension) information extracted from the image. 0.5 may be the first weight. 1.5 may be the second weight.
Figure 112021124867106-pat00004
may represent a smaller value of the first ratio and the second ratio.
Figure 112021124867106-pat00005
may represent a larger value among the first ratio and the second ratio.

도 2의 경우 물체는 손목 시계이다. 제2 전체 개수 Ny는 431, 제1 전체 개수 Nx는 757, 매칭 개수 Nmatch는 187이다. 수학식1에 따라 두 이미지의 유사도는 0.77이다.In the case of Figure 2, the object is a wrist watch. The second total number Ny is 431, the first total number Nx is 757, and the matching number Nmatch is 187. According to Equation 1, the similarity between the two images is 0.77.

도 3은 다른 물체를 대상으로 하는 산출 장치의 동작을 나타낸 개략도이다.3 is a schematic diagram illustrating an operation of a calculation device for another object.

도 3에서 물체는 손선풍기이다. 제2 물체 iy를 대상으로 하는 제2 전체 개수 Ny는 506, 제1 물체 iy를 대상으로 하는 제1 전체 개수 Nx는 674, 매칭 개수 Nmatch는 176이다. 따라서, 두 이미지의 유사도는 0.65이다.3 , the object is a hand fan. The second total number Ny targeting the second object iy is 506, the first total number Nx targeting the first object iy is 674, and the matching number Nmatch is 176. Therefore, the similarity between the two images is 0.65.

도 4는 또 다른 물체를 대상으로 하는 산출 장치의 동작을 나타낸 개략도이다.4 is a schematic diagram illustrating an operation of a calculation device targeting another object.

도 4에서 물체는 손선풍기와 화장품 용기이다. 손선풍기에 해당하는 제2 물체 iy를 대상으로 하는 제2 전체 개수 Ny는 506, 화장품 용기에 해당하는 제1 물체 ix를 대상으로 하는 제1 전체 개수 Nx는 566, 매칭 개수 Nmatch는 2이다. 따라서, 두 이미지의 유사도는 0.001이다.4 , the objects are a hand fan and a cosmetic container. The second total number Ny for the second object iy corresponding to the hand fan is 506, the first total number Nx for the first object ix corresponding to the cosmetic container is 566, and the matching number Nmatch is 2. Therefore, the similarity between the two images is 0.001.

매칭부(150)에 따르면, 제1 특징 좌표 fx, 제2 특징 좌표 fy가 특정되고, 이 둘을 연결하는 선분이 생성될 수 있다. 산정부(170)에서 산정된 유사도와 함께 점으로 표시되는 각 특징 좌표, 각 특징 좌표를 연결하는 선분이 매칭부(150) 또는 산정부(170)에 의해 사용자 단말기에 제공될 수 있다. 사용자는 단말기를 통해 도 2, 도 3, 도 4와 같이 각 특징 좌표가 점으로 표시되고 각 점이 선분으로 연결된 화면(이미지)를 제공받을 수 있다. 이를 통해 사용자는 각 특징 좌표의 매칭 결과를 확실하게 시각적으로 확인할 수 있다.According to the matching unit 150 , the first characteristic coordinate fx and the second characteristic coordinate fy are specified, and a line segment connecting the two may be generated. Each feature coordinate displayed as a point along with the degree of similarity calculated by the calculator 170 , and a line segment connecting each feature coordinate may be provided to the user terminal by the matching part 150 or the calculating part 170 . The user may be provided with a screen (image) in which each feature coordinate is displayed as a point and each point is connected by a line segment through the terminal as shown in FIGS. 2, 3, and 4 . Through this, the user can visually confirm the matching result of each feature coordinate.

또한, 본 발명에 따르면, 서로 다른 이종의 이미지 간의 유사도 산정이 정확하게 수행될 수 있다. 본 발명에 따르면, 디자인권과 같은 도면과 실제 물품의 사진의 유사성이 수치적으로 구해질 수 있고, 사용자는 수치적으로 구해진 유사성, 매칭 결과를 시각적으로 해석할 수 있다.Also, according to the present invention, similarity calculation between different heterogeneous images can be accurately performed. According to the present invention, the similarity between a drawing, such as a design right, and a photograph of an actual article can be obtained numerically, and the user can visually interpret the numerically obtained similarity and matching result.

도 5는 본 발명의 산출 방법을 나타낸 흐름도이다.5 is a flowchart illustrating a calculation method according to the present invention.

도 5에 도시된 산출 방법은 도 1의 산출 장치에 의해 수행될 수 있다.The calculation method shown in FIG. 5 may be performed by the calculation device of FIG. 1 .

산출 방법은 획득 단계(S 510), 추출 단계(S 520), 매칭 단계(S 530), 산정 단계(S 540)를 포함할 수 있다.The calculation method may include an obtaining step (S510), an extraction step (S520), a matching step (S530), and a calculating step (S540).

획득 단계(S 510)는 물체가 존재하는 이미지를 획득할 수 있다. 획득 단계(S 510)는 획득부(110)에 의해 수행될 수 있다.In the acquiring step ( S510 ), an image in which an object exists may be acquired. The acquiring step ( S510 ) may be performed by the acquiring unit 110 .

추출 단계(S 520)는 물체의 특징 벡터를 추출할 수 있다. 추출 단계(S 520)는 추출부(130)에 의해 수행될 수 있다.The extraction step ( S520 ) may extract a feature vector of the object. The extraction step ( S520 ) may be performed by the extraction unit 130 .

매칭 단계(S 530)는 복수의 이미지로부터 추출한 특징 벡터를 서로 매칭시킬 수 있다. 매칭 단계(S 530)는 매칭부(150)에 의해 수행될 수 있다.In the matching step ( S530 ), feature vectors extracted from a plurality of images may be matched with each other. The matching step ( S530 ) may be performed by the matching unit 150 .

산정 단계(S 540)는 특징 벡터의 매칭 개수를 이용하여 복수의 이미지 간의 유사도를 산정할 수 있다. 산정 단계(S 540)는 산정부(170)에 의해 수행될 수 있다.In the calculating step ( S540 ), the similarity between the plurality of images may be calculated using the number of matching feature vectors. The calculation step ( S540 ) may be performed by the calculation unit 170 .

도 6은 본 발명의 실시예에 따른, 컴퓨팅 장치를 나타내는 도면이다. 도 6의 컴퓨팅 장치(TN100)는 본 명세서에서 기술된 장치(예, 산출 장치 등) 일 수 있다. 6 is a diagram illustrating a computing device according to an embodiment of the present invention. The computing device TN100 of FIG. 6 may be a device (eg, a calculation device, etc.) described herein.

도 6의 실시예에서, 컴퓨팅 장치(TN100)는 적어도 하나의 프로세서(TN110), 송수신 장치(TN120), 및 메모리(TN130)를 포함할 수 있다. 또한, 컴퓨팅 장치(TN100)는 저장 장치(TN140), 입력 인터페이스 장치(TN150), 출력 인터페이스 장치(TN160) 등을 더 포함할 수 있다. 컴퓨팅 장치(TN100)에 포함된 구성 요소들은 버스(bus)(TN170)에 의해 연결되어 서로 통신을 수행할 수 있다.In the embodiment of FIG. 6 , the computing device TN100 may include at least one processor TN110 , a transceiver device TN120 , and a memory TN130 . In addition, the computing device TN100 may further include a storage device TN140 , an input interface device TN150 , an output interface device TN160 , and the like. Components included in the computing device TN100 may be connected by a bus TN170 to communicate with each other.

프로세서(TN110)는 메모리(TN130) 및 저장 장치(TN140) 중에서 적어도 하나에 저장된 프로그램 명령(program command)을 실행할 수 있다. 프로세서(TN110)는 중앙 처리 장치(CPU: central processing unit), 그래픽 처리 장치(GPU: graphics processing unit), 또는 본 발명의 실시예에 따른 방법들이 수행되는 전용의 프로세서를 의미할 수 있다. 프로세서(TN110)는 본 발명의 실시예와 관련하여 기술된 절차, 기능, 및 방법 등을 구현하도록 구성될 수 있다. 프로세서(TN110)는 컴퓨팅 장치(TN100)의 각 구성 요소를 제어할 수 있다.The processor TN110 may execute a program command stored in at least one of the memory TN130 and the storage device TN140. The processor TN110 may mean a central processing unit (CPU), a graphics processing unit (GPU), or a dedicated processor on which methods according to an embodiment of the present invention are performed. The processor TN110 may be configured to implement procedures, functions, and methods described in connection with an embodiment of the present invention. The processor TN110 may control each component of the computing device TN100.

메모리(TN130) 및 저장 장치(TN140) 각각은 프로세서(TN110)의 동작과 관련된 다양한 정보를 저장할 수 있다. 메모리(TN130) 및 저장 장치(TN140) 각각은 휘발성 저장 매체 및 비휘발성 저장 매체 중에서 적어도 하나로 구성될 수 있다. 예를 들어, 메모리(TN130)는 읽기 전용 메모리(ROM: read only memory) 및 랜덤 액세스 메모리(RAM: random access memory) 중에서 적어도 하나로 구성될 수 있다. Each of the memory TN130 and the storage device TN140 may store various information related to the operation of the processor TN110. Each of the memory TN130 and the storage device TN140 may be configured as at least one of a volatile storage medium and a nonvolatile storage medium. For example, the memory TN130 may include at least one of a read only memory (ROM) and a random access memory (RAM).

송수신 장치(TN120)는 유선 신호 또는 무선 신호를 송신 또는 수신할 수 있다. 송수신 장치(TN120)는 네트워크에 연결되어 통신을 수행할 수 있다.The transceiver TN120 may transmit or receive a wired signal or a wireless signal. The transceiver TN120 may be connected to a network to perform communication.

한편, 본 발명의 실시예는 지금까지 설명한 장치 및/또는 방법을 통해서만 구현되는 것은 아니며, 본 발명의 실시예의 구성에 대응하는 기능을 실현하는 프로그램 또는 그 프로그램이 기록된 기록 매체를 통해 구현될 수도 있으며, 이러한 구현은 상술한 실시예의 기재로부터 본 발명이 속하는 기술 분야의 통상의 기술자라면 쉽게 구현할 수 있는 것이다. On the other hand, the embodiment of the present invention is not implemented only through the apparatus and/or method described so far, and a program for realizing a function corresponding to the configuration of the embodiment of the present invention or a recording medium in which the program is recorded may be implemented. And, such an implementation can be easily implemented by those skilled in the art from the description of the above-described embodiment.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 통상의 기술자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto, and various modifications and improvements by those skilled in the art using the basic concept of the present invention as defined in the following claims are also presented. It belongs to the scope of the invention.

110...획득부 130...추출부
150...매칭부 170...산정부
110...Acquisition Department 130...Extraction Department
150...Matching Department 170...Calculating Department

Claims (8)

물체가 존재하는 이미지를 획득하는 획득부;
상기 물체의 특징 좌표를 추출하는 추출부;
복수의 이미지로부터 추출한 특징 좌표를 서로 매칭시키는 매칭부;
상기 특징 좌표의 매칭 개수를 이용하여 복수의 이미지 간의 유사도를 산정하는 산정부;를 포함하고,
상기 매칭부에 의해 수행되는 특징 좌표의 매칭은 각 이미지에 포함된 물체의 고유 특징이 서로 일치하는 여부의 판별을 의미하거나, 상기 고유 특징의 좌표에 해당하는 특징 좌표가 서로 일치하는 여부의 판별을 의미하거나, 각 이미지에 포함된 물체의 고유 특징이 서로 일치하는 상태에서 서로 일치하는 각 이미지의 특징 좌표를 한 쌍으로 묶는 것을 의미하는 산출 장치.
an acquisition unit that acquires an image in which an object exists;
an extraction unit for extracting feature coordinates of the object;
a matching unit for matching feature coordinates extracted from a plurality of images with each other;
Including; a calculation unit for calculating the similarity between a plurality of images by using the matching number of the feature coordinates;
Matching of the feature coordinates performed by the matching unit means determining whether the intrinsic features of the object included in each image match each other, or determining whether the feature coordinates corresponding to the coordinates of the intrinsic feature match each other Calculation device which means or means to bind feature coordinates of each image that match each other as a pair in a state where the intrinsic features of objects included in each image coincide with each other.
제1항에 있어서,
상기 획득부는 제1 물체가 존재하는 제1 이미지, 제2 물체가 존재하는 제2 이미지를 획득하고,
상기 추출부는 상기 제1 물체의 제1 고유 특징, 상기 제1 고유 특징의 좌표에 해당하는 제1 특징 좌표를 추출하며,
상기 추출부는 상기 제2 물체의 제2 고유 특징, 상기 제2 고유 특징의 좌표에 해당하는 제2 특징 좌표를 추출하고,
상기 매칭부는 상기 제1 이미지에서 상기 제2 고유 특징과 일치하면서 상기 제2 특징 좌표와 일치하는 제1 특징 좌표의 개수에 해당하는 제1 매칭 개수를 산출하며,
상기 매칭부는 상기 제2 이미지에서 상기 제1 고유 특징과 일치하면서 상기 제1 특징 좌표와 일치하는 제2 특징 좌표의 개수에 해당하는 제2 매칭 개수를 산출하고,
상기 산정부는 상기 제1 매칭 개수 및 상기 제2 매칭 개수 중 적어도 하나를 이용하여 상기 제1 물체와 상기 제2 물체의 유사도를 산정하는 산출 장치.
According to claim 1,
The acquisition unit acquires a first image in which a first object exists, and a second image in which a second object exists,
The extraction unit extracts a first characteristic coordinate of the first object and a first characteristic coordinate corresponding to the coordinate of the first characteristic characteristic,
The extraction unit extracts a second characteristic coordinate of the second object and a second characteristic coordinate corresponding to a coordinate of the second characteristic characteristic,
The matching unit calculates a first matching number corresponding to the number of first characteristic coordinates that coincide with the second characteristic coordinates while matching the second unique characteristic in the first image,
The matching unit calculates a second matching number corresponding to the number of second characteristic coordinates that coincide with the first characteristic coordinates while matching the first unique characteristic in the second image,
The calculator calculates the similarity between the first object and the second object by using at least one of the first matching number and the second matching number.
제1항에 있어서,
상기 획득부는 제1 물체가 존재하는 제1 이미지, 제2 물체가 존재하는 제2 이미지를 획득하고,
상기 매칭부는 상기 제1 물체의 제1 특징 좌표와 상기 제2 물체의 제2 특징 좌표가 일치하는 개수에 해당하는 매칭 개수를 산출하며,
상기 매칭부는 상기 제1 특징 좌표의 전체 개수에 해당하는 제1 전체 개수를 산출하고,
상기 매칭부는 상기 제2 특징 좌표의 전체 개수에 해당하는 제2 전체 개수를 산출하며,
상기 매칭부는 상기 제1 전체 개수와 상기 매칭 개수 간의 제1 비율, 상기 제2 전체 개수와 상기 매칭 개수 간의 제2 비율을 이용하여 상기 제1 물체와 상기 제2 물체 간의 유사도를 산정하는 산출 장치.
The method of claim 1,
The acquisition unit acquires a first image in which a first object exists, and a second image in which a second object exists,
The matching unit calculates a matching number corresponding to the number in which the first characteristic coordinates of the first object and the second characteristic coordinates of the second object match,
The matching unit calculates a first total number corresponding to the total number of the first feature coordinates,
The matching unit calculates a second total number corresponding to the total number of the second feature coordinates,
The matching unit calculates the similarity between the first object and the second object by using a first ratio between the first total number and the matching number and a second ratio between the second total number and the matching number.
제3항에 있어서,
상기 산정부는 상기 제1 비율과 상기 제2 비율을 합한 값을 상기 제1 물체와 상기 제2 물체의 상기 유사도로 출력하는 산출 장치.
4. The method of claim 3,
The calculator outputs a value obtained by adding the first ratio and the second ratio to the degree of similarity between the first object and the second object.
제4항에 있어서,
상기 산정부는 상기 제1 비율과 상기 제2 비율 중 작은 값에 제1 가중치를 곱하고,
상기 산정부는 상기 제1 비율과 상기 제2 비율 중 큰 값에 제2 가중치를 곱하며,
상기 제1 가중치는 상기 제2 가중치보다 작은 값인 산출 장치.
5. The method of claim 4,
The calculator multiplies a smaller value of the first ratio and the second ratio by a first weight;
The calculation unit multiplies a second weight by a larger value of the first ratio and the second ratio,
The first weight is a value smaller than the second weight.
제4항에 있어서,
상기 산정부는 상기 제1 비율과 상기 제2 비율 중 작은 값에 제1 가중치를 곱하고,
상기 산정부는 상기 제1 비율과 상기 제2 비율 중 큰 값에 제2 가중치를 곱하며,
상기 제1 가중치는 0보다 크고 1보다 작은 범위 내에서 선택되고,
상기 제2 가중치는 1보다 크고 2보다 작은 범위 내에서 선택되는 산출 장치.
5. The method of claim 4,
The calculator multiplies a smaller value of the first ratio and the second ratio by a first weight;
The calculation unit multiplies a second weight by a larger value of the first ratio and the second ratio,
The first weight is selected within a range greater than 0 and less than 1,
and the second weight is selected within a range greater than 1 and less than 2.
삭제delete 산출 장치에 의해 수행되는 산출 방법에 있어서,
물체가 존재하는 이미지를 획득하는 획득 단계;
상기 물체의 특징 좌표를 추출하는 추출 단계;
복수의 이미지로부터 추출한 특징 좌표를 서로 매칭시키는 매칭 단계;
상기 특징 좌표의 매칭 개수를 이용하여 복수의 이미지 간의 유사도를 산정하는 산정 단계;를 포함하고,
상기 매칭 단계에서 수행되는 특징 좌표의 매칭은 각 이미지에 포함된 물체의 고유 특징이 서로 일치하는 여부의 판별을 의미하거나, 상기 고유 특징의 좌표에 해당하는 특징 좌표가 서로 일치하는 여부의 판별을 의미하거나, 각 이미지에 포함된 물체의 고유 특징이 서로 일치하는 상태에서 서로 일치하는 각 이미지의 특징 좌표를 한 쌍으로 묶는 것을 의미하는 산출 장치.
A calculation method performed by a calculation device, comprising:
an acquisition step of acquiring an image in which an object exists;
an extraction step of extracting feature coordinates of the object;
a matching step of matching feature coordinates extracted from a plurality of images with each other;
a calculation step of calculating the degree of similarity between a plurality of images by using the matching number of the feature coordinates;
Matching of the feature coordinates performed in the matching step means determining whether the unique features of objects included in each image match each other, or determining whether the feature coordinates corresponding to the coordinates of the unique features match each other Or, in a state in which the intrinsic features of objects included in each image coincide with each other, the calculation device means tying the coordinates of the features of each image that match each other as a pair.
KR1020210146872A 2021-10-29 2021-10-29 Apparatus and method for calculating similarity based on feature coordinates KR102395166B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210146872A KR102395166B1 (en) 2021-10-29 2021-10-29 Apparatus and method for calculating similarity based on feature coordinates

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210146872A KR102395166B1 (en) 2021-10-29 2021-10-29 Apparatus and method for calculating similarity based on feature coordinates

Publications (1)

Publication Number Publication Date
KR102395166B1 true KR102395166B1 (en) 2022-05-09

Family

ID=81583086

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210146872A KR102395166B1 (en) 2021-10-29 2021-10-29 Apparatus and method for calculating similarity based on feature coordinates

Country Status (1)

Country Link
KR (1) KR102395166B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101282816B1 (en) 2012-01-27 2013-07-05 경북대학교 산학협력단 Method and apparatus for measuring image similarity
KR101556598B1 (en) * 2014-11-25 2015-10-13 연세대학교 산학협력단 Apparatus and Method for object detection based on dominant pixel information
KR20160103053A (en) * 2013-12-26 2016-08-31 닛본 덴끼 가부시끼가이샤 Image processing device, subject identification method and program
KR20200056708A (en) * 2018-11-15 2020-05-25 충남대학교산학협력단 Method and apparatus for location determination using image processing and location information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101282816B1 (en) 2012-01-27 2013-07-05 경북대학교 산학협력단 Method and apparatus for measuring image similarity
KR20160103053A (en) * 2013-12-26 2016-08-31 닛본 덴끼 가부시끼가이샤 Image processing device, subject identification method and program
KR101556598B1 (en) * 2014-11-25 2015-10-13 연세대학교 산학협력단 Apparatus and Method for object detection based on dominant pixel information
KR20200056708A (en) * 2018-11-15 2020-05-25 충남대학교산학협력단 Method and apparatus for location determination using image processing and location information

Similar Documents

Publication Publication Date Title
US10701332B2 (en) Image processing apparatus, image processing method, image processing system, and storage medium
US11380017B2 (en) Dual-view angle image calibration method and apparatus, storage medium and electronic device
CN109859305B (en) Three-dimensional face modeling and recognizing method and device based on multi-angle two-dimensional face
KR101141643B1 (en) Apparatus and Method for caricature function in mobile terminal using basis of detection feature-point
CN110555903B (en) Image processing method and device
US11875529B2 (en) Method and system for monocular depth estimation of persons
WO2022105655A1 (en) Image processing method, image processing apparatus, electronic device, and computer readable storage medium
US11967094B2 (en) Detecting device, information processing device, detecting method, and information processing program
CN110728722A (en) Image color migration method and device, computer equipment and storage medium
US11436804B2 (en) Augmented reality system
CN111553838A (en) Model parameter updating method, device, equipment and storage medium
KR102381354B1 (en) Apparatus and method for searching design rights for objects included in images
JP7018371B2 (en) House transfer interpretation system, house transfer interpretation method, house transfer interpretation program and loss interpretation model
US20220292707A1 (en) Estimation device, learning device, control method and storage medium
KR102395166B1 (en) Apparatus and method for calculating similarity based on feature coordinates
CN113327320A (en) Three-dimensional model reconstruction method, device, equipment and computer readable storage medium
JP6202938B2 (en) Image recognition apparatus and image recognition method
US20230326251A1 (en) Work estimation device, work estimation method, and non-transitory computer readable medium
JP2016086245A (en) Image processing device, image processing system, image processing device control method, and program
KR20210036039A (en) Electronic device and image processing method thereof
US11922649B2 (en) Measurement data calculation apparatus, product manufacturing apparatus, information processing apparatus, silhouette image generating apparatus, and terminal apparatus
CN111557022B (en) Two-dimensional image processing method and device for executing the method
CN115760888A (en) Image processing method, image processing device, computer and readable storage medium
JP2020101922A (en) Image processing apparatus, image processing method and program
CN113902786B (en) Depth image preprocessing method, system and related device

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant