KR101184588B1 - A method and apparatus for contour-based object category recognition robust to viewpoint changes - Google Patents

A method and apparatus for contour-based object category recognition robust to viewpoint changes Download PDF

Info

Publication number
KR101184588B1
KR101184588B1 KR1020100136158A KR20100136158A KR101184588B1 KR 101184588 B1 KR101184588 B1 KR 101184588B1 KR 1020100136158 A KR1020100136158 A KR 1020100136158A KR 20100136158 A KR20100136158 A KR 20100136158A KR 101184588 B1 KR101184588 B1 KR 101184588B1
Authority
KR
South Korea
Prior art keywords
contour
feature points
viewpoint
robust
vector
Prior art date
Application number
KR1020100136158A
Other languages
Korean (ko)
Other versions
KR20120074356A (en
Inventor
김동환
박성기
김수환
김문상
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020100136158A priority Critical patent/KR101184588B1/en
Publication of KR20120074356A publication Critical patent/KR20120074356A/en
Application granted granted Critical
Publication of KR101184588B1 publication Critical patent/KR101184588B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/149Segmentation; Edge detection involving deformable models, e.g. active contour models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/269Analysis of motion using gradient-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치에 관한 것으로, 보다 상세하게는 영상데이터를 입력받으면 상기 영상데이터의 윤곽선을 추출하고, 상기 윤곽선에서 특징점들을 추출하여 물체를 바라보는 시점을 미리 가정하지 않고 특징점 쌍에 대해 물체의 시점 변화에 강건한 형태기술자 벡터를 이용하여 범주 물체를 인식하는, 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치에 관한 것이다.
이를 위하여, 본 발명에 따른 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법은 (a) 영상데이터를 입력받는 단계와 (b) 상기 영상데이터 중에서 범주 물체를 인식하는 단계 및 (c) 범주 물체 인식 결과를 출력하는 단계를 포함한다.
이에 따라, 물체의 시점에 대한 가정 없이도 다양한 시점에서의 범주 물체를 인식할 수 있다.
The present invention relates to a method and apparatus for recognizing an object based on a contour, which is robust to a change in the viewpoint of an object. The present invention relates to a method and apparatus for contour-based category object recognition that is robust to change in the viewpoint of an object using a form descriptor vector that is robust to the viewpoint change of an object with respect to a pair of feature points without assuming a viewpoint in advance.
To this end, the contour-based category object recognition method robust to changing the viewpoint of an object according to the present invention includes (a) receiving image data, (b) recognizing a category object among the image data, and (c) a category object. Outputting the recognition result.
Accordingly, it is possible to recognize category objects at various viewpoints without assumptions about the viewpoints of the objects.

Description

물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치{A method and apparatus for contour-based object category recognition robust to viewpoint changes}A method and apparatus for contour-based object category recognition robust to viewpoint changes}

본 발명은 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치에 관한 것으로, 보다 상세하게는 영상데이터를 입력받으면 상기 영상데이터의 윤곽선을 추출하고, 상기 윤곽선에서 특징점들을 추출하여 물체를 바라보는 시점을 미리 가정하지 않고 특징점 쌍에 대해 물체의 시점 변화에 강건한 형태기술자 벡터를 이용하여 범주 물체를 인식하는, 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치에 관한 것이다.The present invention relates to a method and apparatus for recognizing an object based on a contour, which is robust to a change in the viewpoint of an object. The present invention relates to a method and apparatus for contour-based category object recognition that is robust to change in the viewpoint of an object using a form descriptor vector that is robust to the viewpoint change of an object with respect to a pair of feature points without assuming a viewpoint in advance.

물체인식은 지능형 로봇의 4대 중점기술 중 하나로서, 미리 학습을 한 지식정보를 바탕으로 물체의 영상을 보고 물체의 종류, 크기, 방향, 위치 등 3차원적 공간정보를 실시간으로 알아내는 기술이다. Object recognition is one of the four core technologies of intelligent robots. It is a technology that finds three-dimensional spatial information such as the type, size, direction, and position of an object in real time based on the previously learned knowledge information. .

이러한 물체인식은 인간과 유사한 성능의 자연스러운 시각기반 조작 기능을 구현하기 위하여, 다양한 환경에 강인하고 실시간 처리가 가능한 것을 목표로 하고 있다. 특히, 물체인식은 3차원 물체 및 환경의 데이터 획득, 인식, 위치 및 자세 추정, 모델링 등의 핵심 기술로서, 로봇뿐만 아니라 컴퓨터 과학 분야에서 전반적으로 많이 연구되고 있다. Such object recognition aims to be robust to various environments and to process in real time in order to realize a natural visual-based manipulation function having human-like performance. In particular, object recognition is a core technology such as data acquisition, recognition, position and attitude estimation, modeling, etc. of 3D objects and environments, and is widely studied in computer science as well as robots.

이러한 연구의 일환으로, Lowe(David G. Lowe , " Distinctive Image Features from Scale - Invariant Keypoints ," International Journal of Computer Vision , Vol. 60, No. 2, pp. 91-110, 2004.)는 물체의 appearance 정보에 기반하여 스케일 및 시점변화에 강건한 물체인식 방법을 제안하였다. 그러나 이 방법은 특정한 텍스쳐 성분을 가지는 개별 물체에 대한 인식에 적합하며, 같은 범주에 속하지만 다양한 색상 및 텍스쳐 특성을 가질 수 있는 범주 물체에 대한 인식에는 적합하지 않다는 문제가 있다. As part of this research, Lowe ( David G. Lowe , " Distinctive Image Features from Scale - Invariant Keypoints , " International Journal of Computer Vision , Vol. 60, no. 2, pp. 91-110, 2004. ) proposed a robust object recognition method based on the appearance information of the object. However, this method is suitable for recognition of individual objects having a specific texture component, and has a problem in that it is not suitable for recognition of category objects that belong to the same category but may have various color and texture characteristics.

또한, Leordeanu 외 2명(Marius Leordeanu , Martial Hebert , and Rahul Sukthankar, " Beyond Local Appearance : Category Recognition from Pairwise Interactions of Simple Features ," in Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition , pp . 1-8, June 2007.)은 영상에서 윤곽선을 추출한 후, 윤곽선에서 추출된 특징점 쌍에 대한 스펙트럴 정합을 이용하여 범주 물체를 인식하는 방법을 제안하였다. 그러나 이 방법은 정합과정에서 미리 가정된 물체의 시점정보를 이용함으로써 특정 시점방향에서의 범주 물체 인식에만 적용이 가능한 한계를 가진다.In addition, Leordeanu and 2 others ( Marius Leordeanu , Martial Hebert , and Rahul Sukthankar, " Beyond Local Appearance : Category Recognition from Pairwise Interactions of Simple Features , " in Proceedings of IEEE International Conference on Computer Vision and Pattern Recognition , pp . 1-8, June 2007. ) proposed a method of recognizing category objects by extracting contours from images and using spectral matching of feature point pairs extracted from contours. However, this method has a limitation that can be applied only to category object recognition in a specific view direction by using view information of objects previously assumed in the matching process.

또한, Ferrari 외 3명(Vittorio Ferrari , Loic Fevrier , Frederic Jurie , and Cordelia Schmid , " Groups of Adjacent Contour Segments for Object Detection ," IEEE Transactions on Pattern Analysis and Machine Intelligence , Vol . 30, No. 1, pp . 36-51, Jan . 2008.)은 영상에서 윤곽선을 추출하고, 직선에 가까운 연결된 윤곽선들 사이의 상대적인 위치관계, 각도, 거리 등의 기하학적인 관계를 이용하여 범주 물체를 인식하는 방법을 제안하였다. 그러나 이 방법도 미리 가정된 물체의 시점정보를 이용하기 때문에, 물체의 시점이 변하면 적용이 어렵다는 문제가 있다. In addition, Ferrari and 3 others ( Vittorio Ferrari , Loic Fevrier , Frederic Jurie , and Cordelia Schmid , " Groups of Adjacent Contour Segments for Object Detection , " IEEE Transactions on Pattern Analysis and Machine Intelligence , Vol . 30, no. 1, pp . 36-51, Jan. 2008. ) proposed a method of extracting contours from the image and recognizing category objects using geometrical relations such as relative position, angle, and distance between connected contours close to a straight line. However, since this method also uses the viewpoint information of the object assumed in advance, it is difficult to apply if the viewpoint of the object changes.

본 발명은 상술한 문제점을 해결하기 위하여 창출된 것으로, 물체의 시점을 미리 가정하지 않고 물체의 시점 변화에 강건하게 동작하는 윤곽선 기반의 범주 물체 인식 방법 및 장치를 제공하는 데 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to provide a method and apparatus for recognizing a contour-based category object that operates robustly to change the viewpoint of an object without assuming a viewpoint of the object in advance.

상기의 목적을 달성하기 위한 본 발명에 따른 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법은 (a) 영상데이터를 입력받는 단계와 (b) 상기 영상데이터 중에서 범주 물체를 인식하는 단계 및 (c) 범주 물체 인식 결과를 출력하는 단계를 포함한다.In order to achieve the above object, an outline-based category object recognition method that is robust to a viewpoint change of an object according to the present invention includes the steps of: (a) receiving image data; (b) recognizing a category object among the image data; c) outputting the result of the category object recognition.

상기 (b) 단계는 (d) 상기 영상데이터의 윤곽선을 검출하는 단계와 (e) 상기 윤곽선의 특징점을 추출하여 형태기술자 벡터를 산출하는 단계와 (f) 윤곽선의 특징점이 추출된 모델데이터와 상기 영상데이터 간에 스펙트럴 정합(spectral matching)을 수행하는 단계와 (g) 상기 스펙트럴 정합 결과를 개선하는 단계 및 상기 영상데이터 중에서 정합 위치를 추정하여 범주 물체를 인식하는 단계를 포함할 수 있다. Step (b) includes: (d) detecting the contour of the image data; (e) extracting the feature point of the contour, calculating a shape descriptor vector; and (f) model data from which the feature point of the contour is extracted; The method may include performing spectral matching between image data, (g) improving the spectral matching result, and recognizing a category object by estimating a matching position among the image data.

또한, 상기 (d) 단계는 모서리를 검출하여 상기 모서리가 기설정된 범위 이내이고, 법선 벡터의 방향이 기설정된 범위 이내인 모서리 픽셀들을 병합하여 윤곽선을 검출할 수 있다. In addition, in the step (d), the edge may be detected to merge the edge pixels within the preset range and the normal vector may merge the edge pixels within the preset range to detect the outline.

또한, 상기 형태기술자 벡터는, 상기 특징점의 쌍의 법선 벡터, 상기 특징점의 쌍 사이의 거리, 상기 특징점의 곡률 또는 상기 특징점의 위치 벡터 중 적어도 하나를 이용하여 정의될 수 있고, 형태기술자 벡터를 eij, 상기 특징점의 쌍인 (i, j)의 법선벡터를 각각 θi와 θj, θij를 θi와 θj의 차의 절대치, 상기 i, j의 위치를 각각 (xi, yi), (xj, yj), 특징점 쌍 (i,j) 사이의 거리를 dij, 상기 i, j의 곡률을 각각 ki, kj, 특징점 j에 대해서 특징점 i의 위치벡터를 기준으로 특징점 i의 방향성을 측정한 것을 σij라 하고, 상기 σij는 수학식

Figure 112012023475480-pat00001
로 계산된다고 할 때, 수학식
Figure 112012023475480-pat00002
로 정의될 수 있다. The shape descriptor vector may be defined using at least one of a normal vector of the pair of feature points, a distance between the pair of feature points, a curvature of the feature point, or a position vector of the feature point, and the shape descriptor vector may be defined as e. ij, the normal vectors of (i, j), which are pairs of the feature points, are respectively θ i and θ j , θ ij is the absolute value of the difference between θ i and θ j , and the positions of i and j are respectively (x i , y i ) , (x j , y j ), the distance between the pairs of feature points (i, j) d ij , the curvature of the i, j k i , k j, for the feature point j based on the position vector of the feature point i Measuring the directivity of i is called σ ij , where σ ij is
Figure 112012023475480-pat00001
If it is calculated as
Figure 112012023475480-pat00002
It can be defined as.

또한, 상기 (f) 단계는 상기 모델데이터와 상기 영상데이터의 특징점 쌍간에 변형을 측정하는 단계를 포함할 수 있다. In addition, step (f) may include measuring deformation between the pair of feature points of the model data and the image data.

또한, 상기 형태기술자 벡터는 상기 모델데이터 및 상기 영상데이터의 특징점 쌍을 각각 (i,j), (a,b), 상기 (i,j)와 (a,b) 사이의 변형을 측정하는 형태기술자 벡터를 gij(a,b), i와 a, j와 b 사이의 지역적인 형태 히스토그램의 차이를 각각 Cia, Cjb, 특징점 쌍 (i,j) 사이의 거리를 dij , ε1 내지 ε6은 (i,j)와 (a,b)에서 정의된 6차원의 형태기술자 벡터의 차벡터의 각 원소라고 할 때, 수학식

Figure 112010086521883-pat00003
으로 정의되고, 상기 γ는 수학식
Figure 112010086521883-pat00004
(δ는 0으로 나누어지는 경우를 방지하기 위한 작은 양의 상수값)에 의해 정의될 수 있다. The shape descriptor vector measures a deformation between (i, j), (a, b), and (i, j) and (a, b) for each pair of feature points of the model data and the image data. The descriptor vector is g ij (a, b), i and the difference in the local shape histogram between a, j and b is the distance between C ia , C jb , and feature point pairs (i, j), respectively, d ij , ε 1 Where ε 6 is the element of the difference vector of the six-dimensional shape descriptor vector defined in (i, j) and (a, b),
Figure 112010086521883-pat00003
Γ is expressed as
Figure 112010086521883-pat00004
(δ can be defined by a small positive constant value to avoid dividing by zero).

또한, 상기 (f) 단계는 상기 특징점의 쌍에 대한 기하학적인 유사도를 측정하여 행렬을 구성하고, 상기 행렬의 가장 큰 고유값에 대응되는 고유 벡터를 계산하여 기하학적인 유사도가 큰 특징점들의 군집을 구할 수 있다. Also, in the step (f), a geometrical similarity of the pairs of feature points is measured to construct a matrix, and a cluster of feature points having high geometric similarity is obtained by calculating an eigenvector corresponding to the largest eigenvalue of the matrix. Can be.

또한, 상기 (f) 단계는 상기 특징점의 쌍에 대한 기하학적인 유사도를 측정하는 포텐셜 함수를 계산할 때, 상기 모델데이터와 상기 영상데이터의 특징점 쌍이 각각 같은 윤곽선 위에 존재하는 경우에 대한 페널티 상수를 부여할 수 있다. Also, the step (f) may give a penalty constant for the case where the pair of feature points of the model data and the image data exist on the same contour line when calculating the potential function for measuring the geometric similarity of the pair of feature points. Can be.

또한, 상기 포텐셜 함수는 상기 모델데이터 및 상기 영상데이터의 특징점 쌍을 각각 (i,j), (a,b), 상기 페널티 상수를 ρ, 포텐셜 함수를 Gia : jb, 상기 i, j의 신뢰도를 vij라고 할 때에, 수학식

Figure 112010086521883-pat00005
에 의해 정의될 수 있다. The potential function may be a pair of feature points of the model data and the image data of (i, j), (a, b), the penalty constant p, and the potential function of G ia : jb , i, j reliability When v ij is expressed as
Figure 112010086521883-pat00005
Can be defined by

또한, 상기 i, j의 신뢰도는 vij는 수학식

Figure 112010086521883-pat00006
에 의해 계산될 수 있다. In addition, the reliability of the i, j is v ij is the equation
Figure 112010086521883-pat00006
Can be calculated by

또한, 상기 (f) 단계는 상기 페널티 상수가 부여된 특징점의 쌍들에 대해서만 윤곽선을 구성하도록 할 수 있다. In addition, the step (f) may be configured to form an outline only for the pair of feature points given the penalty constant.

또한, 상기 (g) 단계는 상기 스펙트럴 정합에 의한 대응점들에 대해서 RANSAC(RANdom SAmple Consensus) 알고리즘을 적용할 수 있고, 상기 RANSAC 알고리즘의 적용은 2차원 호모그래피 변환을 추정하고 대칭전달오차를 이용하여 윤곽선을 제거하여 새로운 대응점을 탐색할 수 있다. In addition, in step (g), a random SAmple consensus (RANSAC) algorithm may be applied to the corresponding points due to the spectral matching, and the application of the RANSAC algorithm estimates a two-dimensional homography transform and uses a symmetric propagation error. Can remove the contour and search for a new corresponding point.

한편, 상기의 목적을 달성하기 위한 본 발명에 따른 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치는 영상데이터를 입력받는 데이터입력부와 상기 영상데이터 중에서 범주 물체를 인식하는 범주물체인식부 및 상기 범주물체인식부의 인식 결과를 출력하는 출력부를 포함한다.On the other hand, in order to achieve the above object, a contour-based category object recognition apparatus robust to a change in viewpoint of an object according to the present invention includes a data input unit for receiving image data, a category object recognition unit for recognizing a category object among the image data, and the It includes an output unit for outputting the recognition result of the category object recognition unit.

또한, 상기 범주물체인식부는 상기 영상데이터의 윤곽선을 검출하는 윤곽선검출부와 상기 윤곽선의 특징점을 추출하여 형태기술자 벡터를 산출하는 특징추출부와 상기 윤곽선의 특징점이 추출된 모델데이터와 상기 영상데이터 간에 스펙트럴 정합을 수행하는 스펙트럴정합부와 상기 스펙트럴정합부의 정합 결과를 개선하는 정합결과개선부 및 상기 영상데이터 중에서 정합 위치를 추정하여 범주 물체를 인식하는 정합위치추정부를 포함할 수 있다. The categorical object recognition unit may include a contour detection unit for detecting an outline of the image data, a feature extractor for extracting feature points of the outline, and a shape descriptor vector, and model data from which the feature points of the outline are extracted and the image data. The spectral matching unit performing the parallel matching, the matching result improvement unit for improving the matching result of the spectral matching unit, and a matching position estimation unit for recognizing a category object by estimating the matching position among the image data.

또한, 상기 윤곽선검출부는 모서리를 검출하여 상기 모서리가 기설정된 범위 이내이고, 법선 벡터의 방향이 기설정된 범위 이내인 모서리 픽셀들을 병합하여 윤곽선을 검출할 수 있다. The contour detection unit detects an edge to detect an edge by merging edge pixels whose edges are within a preset range and a normal vector is within a preset range.

또한, 상기 형태기술자 벡터는 상기 특징점의 쌍의 법선 벡터, 상기 특징점의 쌍 사이의 거리, 상기 특징점의 곡률 또는 상기 특징점의 위치 벡터 중 적어도 하나를 이용하여 정의될 수 있고, 형태기술자 벡터를 eij, 상기 특징점의 쌍인 (i, j)의 법선벡터를 각각 θi와 θj, θij를 θi와 θj의 차의 절대치, 상기 i, j의 위치를 각각 (xi, yi), (xj, yj), 특징점 쌍 (i,j) 사이의 거리를 dij, 상기 i, j의 곡률을 각각 ki, kj, 특징점 j에 대해서 특징점 i의 위치벡터를 기준으로 특징점 i의 방향성을 측정한 것을 σij라 하고, 상기 σij는 수학식

Figure 112012023475480-pat00007
로 계산된다고 할 때, 수학식
Figure 112012023475480-pat00008
로 정의될 수 있다. In addition, the shape descriptor vector may be defined using at least one of a position of the distance, the curvature or the feature point of the feature point between a pair of the normal of the feature point vector, pairs of the feature point vector, the shape descriptor vector e ij , The normal vectors of (i, j), which are pairs of feature points, are respectively θ i and θ j , θ ij is the absolute value of the difference between θ i and θ j , and the positions of i and j are respectively (x i , y i ), (x j , y j ), the distance between the pair of feature points (i, j) d ij , the curvature of the i, j k i , k j, and the feature point i with respect to the feature vector i Is measured as σ ij , and σ ij is expressed as
Figure 112012023475480-pat00007
If it is calculated as
Figure 112012023475480-pat00008
It can be defined as.

또한, 상기 스펙트럴정합부는 상기 모델데이터와 상기 영상데이터의 특징점 쌍간에 변형을 측정할 수 있다. The spectral matching unit may measure deformation between pairs of feature points of the model data and the image data.

또한, 상기 형태기술자 벡터는 상기 모델데이터 및 상기 영상데이터의 특징점 쌍을 각각 (i,j), (a,b), 상기 (i,j)와 (a,b) 사이의 변형을 측정하는 형태기술자 벡터를 gij(a,b), i와 a, j와 b 사이의 지역적인 형태 히스토그램의 차이를 각각 Cia, Cjb, 특징점 쌍 (i,j) 사이의 거리를 dij , ε1 내지 ε6은 (i,j)와 (a,b)에서 정의된 6차원의 형태기술자 벡터의 차벡터의 각 원소라고 할 때, 수학식

Figure 112010086521883-pat00009
으로 정의되고, 상기 γ는 수학식
Figure 112010086521883-pat00010
(δ는 0으로 나누어지는 경우를 방지하기 위한 작은 양의 상수값)에 의해 정의될 수 있다. The shape descriptor vector measures a deformation between (i, j), (a, b), and (i, j) and (a, b) for each pair of feature points of the model data and the image data. The descriptor vector is g ij (a, b), i and the difference in the local shape histogram between a, j and b is the distance between C ia , C jb , and feature point pairs (i, j), respectively, d ij , ε 1 Where ε 6 is the element of the difference vector of the six-dimensional shape descriptor vector defined in (i, j) and (a, b),
Figure 112010086521883-pat00009
Γ is expressed as
Figure 112010086521883-pat00010
(δ can be defined by a small positive constant value to avoid dividing by zero).

또한, 상기 스펙트럴정합부는 상기 특징점의 쌍에 대한 기하학적인 유사도를 측정하여 행렬을 구성하고, 상기 행렬의 가장 큰 고유값에 대응되는 고유 벡터를 계산하여 기하학적인 유사도가 큰 특징점들의 군집을 구할 수 있다. In addition, the spectral matching unit constructs a matrix by measuring geometric similarities with respect to the pair of feature points, and calculates a cluster of feature points having high geometric similarity by calculating an eigenvector corresponding to the largest eigenvalue of the matrix. have.

또한, 상기 스펙트럴정합부는 상기 특징점의 쌍에 대한 기하학적인 유사도를 측정하는 포텐셜 함수를 계산할 때, 상기 모델데이터와 상기 영상데이터의 특징점 쌍이 각각 같은 윤곽선 위에 존재하는 경우에 대한 페널티 상수를 부여할 수 있다. In addition, the spectral matching unit may give a penalty constant for the case where the pair of feature points of the model data and the image data exist on the same contour line when calculating a potential function for measuring geometric similarity with respect to the pair of feature points. have.

또한, 상기 포텐셜 함수는 상기 모델데이터 및 상기 영상데이터의 특징점 쌍을 각각 (i,j), (a,b), 상기 페널티 상수를 ρ, 포텐셜 함수를 Gia : jb, 상기 i, j의 신뢰도를 vij라고 할 때에, 수학식

Figure 112010086521883-pat00011
에 의해 정의되고, 상기 i, j의 신뢰도는 vij는 수학식
Figure 112010086521883-pat00012
에 의해 계산될 수 있다. The potential function may be a pair of feature points of the model data and the image data of (i, j), (a, b), the penalty constant p, and the potential function of G ia : jb , i, j reliability When v ij is expressed as
Figure 112010086521883-pat00011
Where i and j are the reliability of v ij
Figure 112010086521883-pat00012
Can be calculated by

또한, 상기 스펙트럴정합부는 상기 페널티 상수가 부여된 특징점의 쌍들에 대해서만 윤곽선을 구성하도록 할 수 있다. In addition, the spectral matching unit may configure an outline only for pairs of feature points given the penalty constant.

또한, 상기 정합결과개선부는 상기 스펙트럴 정합에 의한 대응점들에 대해서 RANSAC(RANdom SAmple Consensus) 알고리즘을 적용할 수 있고, 상기 RANSAC 알고리즘의 적용은 2차원 호모그래피 변환을 추정하고 대칭전달오차를 이용하여 윤곽선을 제거하여 새로운 대응점을 탐색할 수 있다. In addition, the matching result improvement unit may apply a RANSAC (RANdom SAmple Consensus) algorithm to the corresponding points by the spectral matching, and the application of the RANSAC algorithm estimates a two-dimensional homography transform and uses a symmetric propagation error. You can explore the new correspondence by removing the contour.

또한, 본 발명은 상기의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독가능한 기록매체를 포함한다. The invention also includes a computer readable recording medium having recorded thereon a program for executing the above method.

본 발명에 따른 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치에 의하면, 물체의 시점에 대한 가정 없이도 다양한 시점에서의 범주 물체를 인식할 수 있다. According to the contour-based category object recognition method and apparatus which is robust to the viewpoint change of the object according to the present invention, it is possible to recognize the category object at various viewpoints without assumptions about the object viewpoint.

도 1은 본 발명에 따른 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치의 구성도이다.
도 2는 본 발명에 따른 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치를 이용하여 휴대폰의 범주 물체 인식을 하는 실시예이다.
도 3은 본 발명에 따른 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법의 흐름도이다.
1 is a block diagram of a contour-based category object recognition apparatus robust to a change in viewpoint of an object according to the present invention.
2 is a diagram illustrating an embodiment of recognizing a category object of a mobile phone by using a contour-based category object recognition device that is robust to a viewpoint change of an object according to the present invention.
3 is a flowchart of a contour-based category object recognition method that is robust to changing the viewpoint of an object according to the present invention.

이하 첨부된 도면을 참조하면서 본 발명에 따른 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately The present invention should be construed in accordance with the meaning and concept consistent with the technical idea of the present invention.

따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in this specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and do not represent all the technical ideas of the present invention. Therefore, It is to be understood that equivalents and modifications are possible.

본 발명은 영상데이터를 입력받으면 상기 영상데이터의 윤곽선을 추출하고, 상기 윤곽선에서 특징점들을 추출하여 물체를 바라보는 시점을 미리 가정하지 않고 특징점 쌍에 대해 물체의 시점 변화에 강건한 형태기술자 벡터를 이용하여 범주 물체를 인식하는, 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치에 관한 것이다.The present invention extracts the contour of the image data when the image data is input, extracts the feature points from the contour, and uses a shape descriptor vector that is robust to the change of the viewpoint of the object with respect to the pair of feature points without pre-assuming a view of the object in advance. The present invention relates to a contour-based category object recognition method and apparatus that is robust to a change in viewpoint of an object.

도 1은 본 발명에 따른 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치의 구성도로, 도 1을 참조하여 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치를 설명한다. FIG. 1 is a block diagram of a contour-based category object recognition apparatus robust to a change in a viewpoint of an object according to the present invention. Referring to FIG.

물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치는 영상데이터를 입력받는 데이터입력부(100), 상기 영상데이터 중에서 범주 물체를 인식하는 범주물체인식부(200) 및 상기 범주물체인식부(200)의 인식 결과를 출력하는 출력부(300)를 포함한다. The contour-based category object recognition apparatus that is robust to a viewpoint change of an object includes a data input unit 100 that receives image data, a category object recognition unit 200 that recognizes a category object among the image data, and the category object recognition unit 200. It includes an output unit 300 for outputting the recognition result.

상기 데이터입력부(100)는 영상 입력 장치를 포함하여 바로 영상데이터를 얻거나, 외부의 카메라를 포함한 영상 입력 장치로부터 영상데이터를 입력받을 수 있다. The data input unit 100 may immediately obtain image data including an image input apparatus or receive image data from an image input apparatus including an external camera.

상기 범주물체인식부(200)는 상기 입력받은 영상데이터에서 인식하고자 하는 범주 물체를 자동으로 인식한다. 이 때, 물체의 시점에 대한 가정 없이 특징점 쌍에 대해 물체의 시점 변화에 강건한 형태기술자 벡터를 정의하고, 스펙트럴 정합(spectral matching) 방법을 이용하여 정합된 대응점을 검출하고, RANSAC(RANdom SAmple Consensus) 알고리즘을 이용하여 윤곽선을 제거한 후 새로운 대응점을 탐색하여 범주 물체를 인식한다. The category object recognition unit 200 automatically recognizes a category object to be recognized in the received image data. At this time, we define a shape descriptor vector that is robust to the point of view change of an object with respect to the pair of feature points without assumptions about the point of view of the object, detect the matched matching point using a spectral matching method, and run RANSAC (RANdom SAmple Consensus). After removing the contour using the algorithm, we search for a new corresponding point to recognize the category object.

따라서, 상기 범주물체인식부(200)는 상기 영상데이터의 윤곽선을 검출하는 윤곽선검출부(210), 상기 윤곽선의 특징점을 추출하여 형태기술자 벡터를 산출하는 특징추출부(220), 상기 윤곽선의 특징점이 추출된 모델데이터와 상기 영상데이터 간에 스펙트럴 정합을 수행하는 스펙트럴정합부(230), 상기 스펙트럴정합부(230)의 정합 결과를 개선하는 정합결과개선부(240) 및 상기 영상데이터 중에서 정합 위치를 추정하여 범주 물체를 인식하는 정합위치추정부(250)를 포함한다. Accordingly, the category object recognition unit 200 includes an outline detection unit 210 for detecting an outline of the image data, a feature extractor 220 for extracting feature points of the outline, and a shape descriptor vector, and a feature point of the outline. Matching among the spectral matching unit 230 for performing spectral matching between the extracted model data and the image data, the matching result improvement unit 240 for improving the matching result of the spectral matching unit 230, and the image data. And a registration position estimator 250 for estimating the position and recognizing the category object.

상기 윤곽선검출부(210)는 모서리를 검출하여 상기 모서리가 기설정된 범위 이내이고, 법선 벡터의 방향이 기설정된 범위 이내이면 모서리 픽셀들을 병합하여 윤곽선을 검출한다. 이때, 윤곽선 검출은 Canny edge 검출기를 이용할 수 있다. 기설정된 범위 이내의 모서리 및 기설정된 범위 이내의 법선 벡터를 통하여 거리가 가깝고 법선 벡터의 방향이 비슷한 모서리 픽셀들을 찾을 수 있다. The contour detector 210 detects an edge and detects an edge by merging edge pixels when the edge is within a preset range and the direction of the normal vector is within a preset range. In this case, the edge detection may use a canny edge detector. Edge pixels within a predetermined range and normal vectors within a predetermined range may find corner pixels having a close distance and similar directions to the normal vector.

상기 특징추출부(220)는 상기 윤곽선검출부(210)에서 검출된 윤곽선을 샘플링하여 특징점을 추출하고, 특징점 쌍에 대한 형태기술자 벡터를 계산한다. The feature extractor 220 extracts feature points by sampling the contour lines detected by the contour detector 210, and calculates a shape descriptor vector for the feature point pair.

상기 형태기술자 벡터는 상기 특징점의 쌍의 법선 벡터, 상기 특징점의 쌍 사이의 거리, 상기 특징점의 곡률 또는 상기 특징점의 위치 벡터 중 적어도 하나를 이용하여 정의될 수 있다. 예를 들어, 특징점 쌍(i,j)에 대한 형태기술자 벡터 eij는 하기의 수학식 1로 정의된다. The shape descriptor vector may be defined using at least one of a normal vector of the pair of feature points, a distance between the pair of feature points, a curvature of the feature point, or a position vector of the feature point. For example, the shape descriptor vector e ij for the feature point pair (i, j) is defined by Equation 1 below.

Figure 112010086521883-pat00013
Figure 112010086521883-pat00013

여기서 θi와 θj를 상기 특징점의 쌍인 (i, j)의 법선 벡터라 할때, 상기 θij는 θi와 θj의 차의 절대치, dij는 특징점 쌍 (i,j) 사이의 거리, ki, kj는 상기 i, j의 곡률을 의미하고, σij는 특징점 j에 대해서 특징점 i의 위치벡터를 기준으로 특징점 i의 방향성을 측정한 것으로 하기의 수학식 2로 정의된다. Here, when θ i and θ j are normal vectors of (i, j), which are pairs of the feature points, θ ij is the absolute value of the difference between θ i and θ j, d ij is the distance between pairs of feature points (i, j), k i and k j denote curvatures of i and j, and sigma ij is measured by directionality of the feature point i with respect to the feature vector j based on the position vector of the feature point i.

Figure 112010086521883-pat00014
Figure 112010086521883-pat00014

여기서 상기 (xi, yi), (xj, yj)는 i, j의 각각의 위치를 의미한다. 마찬가지 방법으로 σji를 정의하여 θi, θj 및 σij, σji 사이의 기하학적인 관계를 구할 수 있다. 도 2는 본 발명에 따른 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치를 이용하여 휴대폰의 범주 물체 인식을 하는 실시예를 도시한 것으로, 휴대폰에서의 θi, θj 및 σij, σji 사이의 기하학적인 관계를 나타내었다. Wherein (x i , y i ), (x j , y j ) means the respective positions of i, j. In the same way, we define σ ji , where θ i , The geometric relationship between θ j , σ ij , and σ ji can be obtained. 2 is θ i of the mobile phone that uses a strong contour-based object recognition category at the time of change of an object according to the present invention showing an embodiment in which a recognition object category of the cellular phone, and, Geometric relationships between θ j , σ ij , and σ ji are shown.

특징점 쌍에 대한 형태기술자 벡터는 법선 벡터 등을 이용함으로써 개개의 특징점의 방향성에 독립적이다. 또한, 특징점 쌍 사이의 상대적인 물리량에 기반하여 정의되기 때문에 평행이동 및 평면내 회전에 불변이고 어파인변환에 강건하게 동작한다. 따라서 물체의 시점에 대한 가정 없이도 다양한 시점에서의 범주 물체를 인식하게 해준다. The shape descriptor vector for a pair of feature points is independent of the direction of each feature point by using a normal vector or the like. In addition, since it is defined based on the relative physical quantity between pairs of feature points, it is invariant to parallel movement and in-plane rotation and robust to affine transformation. This allows us to recognize category objects at various points of view without making assumptions about the point of view of the object.

한편, 컴퓨터 비전에서 하나의 장면이나 대상을 다른 시간이나 관점에서 촬영할 경우, 영상은 서로 다른 좌표계에서 얻어지게 된다. 영상 정합(image registration)은 이와 같은 서로 다른 영상을 변형하여 하나의 좌표계에 나타내는 처리기법이다. 정합을 통해 서로 다른 측정 방식을 통해 얻은 영상이 어떻게 대응되는지 알 수 있다. On the other hand, when one scene or object is photographed at different times or perspectives in computer vision, images are obtained in different coordinate systems. Image registration is a processing technique that transforms such different images and displays them in one coordinate system. Matching tells you how images from different measurement methods correspond.

상기 스펙트럴정합부(230)는 상기 특징추출부(220)에서 계산된 특징점 쌍에 대한 형태기술자 벡터를 이용하여 스펙트럴 정합을 수행한다. 즉, 상기 특징점 쌍에 대한 기하학적인 유사도를 측정하여 행렬을 구성하고, 상기 행렬의 가장 큰 고유값에 대응되는 고유 벡터를 계산하여 기하학적인 유사도가 큰 특징점들의 군집을 구한다. The spectral matching unit 230 performs spectral matching using the shape descriptor vector for the pair of feature points calculated by the feature extraction unit 220. That is, a matrix is formed by measuring geometric similarities with respect to the pair of feature points, and a cluster of feature points having a large geometric similarity is obtained by calculating an eigenvector corresponding to the largest eigenvalue of the matrix.

이때, 정합을 위한 스코어 함수 Ef는 하기의 수학식 3과 같이 정의된다. At this time, the score function E f for matching is defined as in Equation 3 below.

Figure 112010086521883-pat00015
Figure 112010086521883-pat00015

여기서 (i,j) 및 (a,b)는 각각 모델데이터 및 영상데이터의 특징점 쌍을 의미하며, tia 및 tjb는 각각 i와 a, j와 b의 정합 강도를 의미하며 서로 정합이 될 때 1의 값을 가지고 그 이외의 경우는 0의 값을 가진다. Gia : jb는 (i,j)와 (a,b)에서 특징점 쌍에 대한 형태기술자 벡터를 기반으로, 서로 대응되는 특징점 쌍 사이의 유사도를 계산하는 포텐셜 함수로서 하기의 수학식 4와 같이 정의된다. Where (i, j) and (a, b) denote feature point pairs of model data and image data, respectively, and t ia and t jb denote matching strengths of i, a, j, and b, respectively. It has a value of 1 and a value of 0 otherwise. G ia : jb is a potential function that calculates the similarity between pairs of corresponding feature points based on the shape descriptor vector of the feature point pairs at (i, j) and (a, b), as defined in Equation 4 below. do.

Figure 112010086521883-pat00016
Figure 112010086521883-pat00016

상기 ρ는 페널티 상수, 상기 vij는 i, j의 신뢰도라고 할 때에, 상기 vij는 하시의 수학식 5에 의해 정의된다. (여기서 VAR은 분산을 의미한다.)When ρ is a penalty constant and v ij is i and j reliability, v ij is defined by Equation 5 below. (VAR here means variance.)

Figure 112010086521883-pat00017
Figure 112010086521883-pat00017

상기 스펙트럴정합부(230)는 상기 포텐셜 함수를 계산할 때, 상기 모델데이터와 상기 영상데이터의 특징점 쌍이 각각 같은 윤곽선 위에 존재하는 경우에 대한 페널티 상수(ρ)를 부여한다. (i,j) 및 (a,b)가 각각 같은 윤곽선 위에 존재하는 경우에 0.8의 값을 가지고 그 이외의 경우는 1의 값을 가진다. 곡률이 일정한 윤곽선으로부터 특징점들이 추출되는 경우 특징점 쌍 사이의 기하학적인 관계가 유사한 경우가 다수 발생할 수 있기 때문에, 이 방법을 통하여 모호한 특징점 쌍들이 포텐셜 함수에 대한 기여를 제한할 수 있다. 즉, 상기 페널티 상수가 부여된 특징점의 쌍들에 대해서만 윤곽선을 구성하도록 한다. When the spectral matching unit 230 calculates the potential function, the spectral matching unit 230 provides a penalty constant ρ for the case where the pairs of feature points of the model data and the image data exist on the same outline. It has a value of 0.8 when (i, j) and (a, b) exist on the same contour, respectively, and a value of 1 otherwise. When feature points are extracted from contours having a constant curvature, many cases may have similar geometric relationships between feature point pairs, and thus, obscure feature point pairs may limit contributions to the potential function through this method. That is, only the pairs of feature points to which the penalty constant is given are configured to form an outline.

한편, 상기 스펙트럴정합부(230)는 상기 모델데이터와 상기 영상데이터의 특징점 쌍간에 변형을 측정할 수 있다. gij(a,b)는 (i,j)와 (a,b) 사이의 변형을 측정하는 벡터로, 특징점 쌍에 대한 형태기술자 벡터를 기반으로 아래 수학식 6과 같이 정의한다. The spectral matching unit 230 may measure deformation between pairs of feature points of the model data and the image data. g ij (a, b) is a vector measuring the deformation between (i, j) and (a, b), and is defined as in Equation 6 below based on the shape descriptor vector for the feature point pair.

Figure 112010086521883-pat00018
Figure 112010086521883-pat00018

여기서, 상기 dij는 특징점 쌍 (i,j) 사이의 거리를, ε1 내지 ε6은 (i,j)와 (a,b)에서 정의된 6차원의 형태기술자 벡터의 차벡터의 각 원소를 의미할 때에, 상기 γ는 하기의 수학식 7에 의해 정의된다. Where d ij is the distance between feature point pairs (i, j), and ε 1 to ε 6 are elements of the difference vector of the six-dimensional shape descriptor vector defined in (i, j) and (a, b). When γ is defined, γ is defined by Equation 7 below.

Figure 112010086521883-pat00019
Figure 112010086521883-pat00019

또한, 상기 Cia, Cjb는 i와 a, j와 b 사이의 지역적인 형태 히스토그램의 차이를 의미하는 것으로 하기의 수학식 8에 의해 정의된다. In addition, C ia , C jb means i and a, the difference in the local shape histogram between j and b is defined by Equation 8 below.

Figure 112010086521883-pat00020
Figure 112010086521883-pat00020

여기서 상기 hi(k)와 ha(k)는 평면 내 회전에 독립적인 측정을 위하여 각각 i와 a에서의 법선 벡터의 방향을 기준으로 정렬된 shape context 히스토그램의 bin을 의미한다. Here, h i (k) and h a (k) mean bins of shape context histograms aligned with respect to the direction of the normal vector at i and a, respectively, for measurements independent of in-plane rotation.

또한, 상기 스코어 함수 Ef(수학식 3)는 특징점의 대응쌍 i와 a를 인덱스로 하는 벡터와 행렬 형태로 하기의 수학식 9와 같이 표현할 수 있다. In addition, the score function E f (Equation 3) may be expressed in the form of a vector and a matrix having the corresponding pairs i and a of feature points as indices as shown in Equation 9 below.

Figure 112010086521883-pat00021
Figure 112010086521883-pat00021

여기서, t는 지표 벡터로 하기의 수학식 10과 같이 정의된다. Here, t is defined as an index vector as shown in Equation 10 below.

Figure 112010086521883-pat00022
Figure 112010086521883-pat00022

또한, 상기 G는 포텐셜 행렬로 하기의 수학식 11과 같이 정의된다. In addition, G is a potential matrix and is defined as in Equation 11 below.

Figure 112010086521883-pat00023
Figure 112010086521883-pat00023

본 발명에서는 상기 수학식 9의 정합 스코어 함수를 최대로 하는 지표 벡터 t를 빠르게 찾기 위하여 스펙트럴 정합 방법을 적용한다. In the present invention, a spectral matching method is applied to quickly find an index vector t that maximizes the matching score function of Equation (9).

상기 정합결과개선부(240)는 상기 스펙트럴정합부(230)에서 계산된 대응점들을 이용하여 RANSAC(RANdom SAmple Consensus) 알고리즘을 적용한다. The matching result improvement unit 240 applies a random SAmple consensus (RANSAC) algorithm using the corresponding points calculated by the spectral matching unit 230.

어떤 현상을 설명하는 이론 모델을 만들고자 하면 현상에서 관측데이터를 모아야 한다. 그런데 관측 데이터는 모델에 대한 잘못된 가정이나 측정 장비의 오차 등에서 생기는 여러가지 형태의 노이즈가 들어있기 마련이다. 이러한 노이즈는 모델을 정확히 예측하는 것을 방해하므로, 이와 같이 모델 파라미터의 예측을 방해하는 데이터가 들어있는 관측데이터로부터 어떻게 하면 모델을 구축할 수 있는가라는 질문에 대한 답을 RANSAC 알고리즘이 제공한다. In order to create a theoretical model that describes a phenomenon, we need to gather observation data from the phenomenon. Observation data, however, often contains various types of noise that result from incorrect assumptions about the model or errors in measurement equipment. Since this noise prevents the model from accurately predicting, the RANSAC algorithm provides the answer to the question of how to build the model from observational data that contain data that prevents the prediction of the model parameters.

이러한 RANSAC 알고리즘을 본 발명에 적용함으로써, 2차원 호모그래피(homography) 변환을 추정하고 대칭전달오차를 이용하여 윤곽선을 제거한다. 또한, 새로운 대응점을 탐색하는데, 이를 위하여 모델데이터와 영상데이터의 대응점 i, a에 대한 오차를 측정하기 위한 척도로서 대칭전달오차를 이용하여 하기의 수학식 12로 정의한다. By applying this RANSAC algorithm to the present invention, the two-dimensional homography transform is estimated and the contour is removed using the symmetry propagation error. In addition, to search for a new corresponding point, for this purpose it is defined by the following equation (12) using a symmetric transfer error as a measure for measuring the error of the corresponding point i, a of the model data and the image data.

Figure 112010086521883-pat00024
Figure 112010086521883-pat00024

여기서, pi, qa는 각각 동차좌표계에서의 i,a의 위치 벡터이고, H는 2차원 호모그래피 변환 행렬을 의미하여 d(?)는 L2-norm을 의미한다. Here, p i and q a are position vectors of i and a in the homogeneous coordinate system, H denotes a two-dimensional homography transformation matrix, and d (?) Denotes L2-norm.

상기 대칭전달오차가 하기의 수학식 13을 만족시키는 경우, 해당 대응점은 윤곽선으로 판단하여 제거한다. When the symmetric transfer error satisfies Equation 13 below, the corresponding point is determined as an outline and removed.

Figure 112010086521883-pat00025
Figure 112010086521883-pat00025

여기서 dtransfer는 문턱값으로 상기 특징추출부(220)에서 특징점을 추출할 때의 윤곽선 샘플링 간격과 동일하게 정의한다. 또한, 대응관계를 가지지 못한 모델데이터의 특징점들에 대하여 RANSAC 알고리즘에서 계산된 2차원 호모그래피 변환 행렬을 적용하여 새로운 대응점을 탐색한다. 대응관계를 가지지 못한 모델데이터의 특징점이 대응관계를 가지지 못한 영상데이터의 특징점과의 대칭전달오차가 상기 수학식 13을 만족시키는 경우, 새로운 대응점으로 결정한다. 복수의 특징점들이 동시에 상기 수학식 13을 만족시키는 경우에는, 그 중 대칭변환오차가 가장 작은 점을 대응점으로 결정한다. Here, d transfer is defined as a threshold sampling interval equal to the contour sampling interval when the feature extracting unit 220 extracts the feature point. In addition, a new corresponding point is searched by applying a two-dimensional homography transformation matrix calculated by the RANSAC algorithm to feature points of the model data having no corresponding relationship. When the feature point of the model data having no correspondence relation does not have the correspondence relation and the symmetric transfer error with the feature point of the image data does not correspond to Equation 13, it is determined as a new correspondence point. When a plurality of feature points satisfy Equation 13 at the same time, the point having the smallest symmetric transformation error is determined as the corresponding point.

상기 정합위치추정부(250)는 상기 정합결과개선부(240)에서 확정된 대응점들에서 정합 위치를 계산한다. 인식된 범주 물체의 위치는 하기의 수학식 14와 수학식 15와 같이 대응점들을 포함하는 사각형 영역으로 결정한다. The matching position estimating unit 250 calculates the matching position at the corresponding points determined by the matching result improvement unit 240. The position of the recognized category object is determined as a rectangular area including corresponding points as shown in Equations 14 and 15 below.

Figure 112010086521883-pat00026
Figure 112010086521883-pat00026

Figure 112010086521883-pat00027
Figure 112010086521883-pat00027

여기서 (xtl ytl), (xbr, ybr)은 각각 사각형의 왼쪽 위 꼭지점과 오른쪽 아래 꼭지점을 의미하고, (xm, ym)은 확정된 대응점들의 위치를 의미하며, l은 상기 특징추출부(220)에서 특징점을 추출할 때의 윤곽선 샘플링 간격과 동일하게 정의된 상수이다. Where (x tl y tl ) and (x br , y br ) are the upper left and lower right vertices of the rectangle, respectively, (x m and y m ) are the positions of the corresponding corresponding points, and l is the The feature extraction unit 220 is a constant defined to be equal to the contour sampling interval when the feature point is extracted.

이러한 과정을 통해 상기 출력부(300)에서는 상기 범주물체인식부(200)의 인식 결과를 출력하는데, 인식 결과는 같은 범주에 속하는 다른 물체들에 대하여 시점변화에 강건하다는 특징이 있다. Through this process, the output unit 300 outputs the recognition result of the category object recognition unit 200. The recognition result is characterized in that it is robust to viewpoint changes with respect to other objects belonging to the same category.

도 3은 본 발명에 따른 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법의 흐름도로, 도 3을 참조하여 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법을 설명한다. 3 is a flowchart of a contour-based category object recognition method that is robust to a viewpoint change of an object according to the present invention. Referring to FIG. 3, a contour-based category object recognition method that is robust to a viewpoint change of an object will be described.

영상데이터를 입력받으면(S100), 상기 영상데이터 중에서 범주 물체를 인식한다(S200), 상기 범주 물체를 인식하는 단계(S200)는 상기 영상데이터의 윤곽선을 검출하고(S210), 상기 윤곽선의 특징점을 추출하여 형태기술자 벡터를 산출한 후(S220), 상기 윤곽선의 특징점이 추출된 모델데이터와 상기 영상데이터 간에 스펙트럴 정합(spectral matching)을 수행하고(S230), 상기 스펙트럴 정합 결과를 개선하여(S240), 상기 영상데이터 중에서 정합 위치를 추정하여 범주 물체를 인식하는 단계(S250)으로 세분화 될 수 있다. 그 후 상기 범주 물체 인식 결과를 출력한다(S300).When receiving the image data (S100), the category object is recognized from the image data (S200), and the step of recognizing the category object (S200) detects an outline of the image data (S210) and detects a feature point of the outline. After extracting the shape descriptor vector (S220), the spectral matching is performed between the extracted model data and the image data (S230), and the spectral matching result is improved (S220). S240), the method may be subdivided into a step S250 of recognizing a category object by estimating a matching position among the image data. Thereafter, the category object recognition result is output (S300).

여기서 상기 윤곽선의 특징점이 추출된 모델데이터와 상기 영상데이터 간에 스펙트럴 정합(spectral matching)을 수행하는 단계(S230)는 상기 모델데이터와 상기 영상데이터의 특징점 쌍간에 변형을 측정하는 단계를 더 포함할 수 있다. 또한, 상기의 각 단계의 세부 설명은 상술한 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 장치와 동일하다. In this case, performing spectral matching between the extracted model data and the image data (S230) may further include measuring deformation between the pair of feature points of the model data and the image data. Can be. Further, the detailed description of each of the above steps is the same as that of the contour-based category object device that is robust to the viewpoint change of the above-described object.

또한, 본 발명은 상기의 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 판독가능한 기록매체를 포함한다. The invention also includes a computer readable recording medium having recorded thereon a program for executing the above method.

이상과 같이, 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술 사상과 아래에 기재될 청구범위의 균등 범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.As described above, although the present invention has been described by way of limited embodiments and drawings, the present invention is not limited thereto and is intended by those skilled in the art to which the present invention pertains. Of course, various modifications and variations are possible within the scope of equivalents of the claims to be described.

100 데이터입력부 200 범주물체인식부
210 윤곽선검출부 220 특징추출부
230 스펙트럴정합부 240 정합결과개선부
250 정합위치추정부 300 출력부
100 Data input part 200 Category Object recognition part
210 Contour Detection Unit 220 Feature Extraction Unit
230 Spectral Matching Unit 240 Matching Result Improvement Unit
250 Registration Position Estimation 300 Output

Claims (29)

삭제delete (a) 영상데이터를 입력받는 단계;
(b) 상기 영상데이터 중에서 범주 물체를 인식하는 단계; 및
(c) 범주 물체 인식 결과를 출력하는 단계;를 포함하되,
상기 (b) 단계는,
(d) 상기 영상데이터의 윤곽선을 검출하는 단계;
(e) 상기 윤곽선의 특징점을 추출하여 형태기술자 벡터를 산출하는 단계;
(f) 윤곽선의 특징점이 추출된 모델데이터와 상기 영상데이터 간에 스펙트럴 정합(spectral matching)을 수행하는 단계;
(g) 상기 스펙트럴 정합 결과를 개선하는 단계; 및
(h) 상기 영상데이터 중에서 정합 위치를 추정하여 범주 물체를 인식하는 단계;를 포함하고,
상기 (d) 단계는,
모서리를 검출하여 상기 모서리가 기설정된 범위 이내이고, 법선 벡터의 방향이 기설정된 범위 이내인 모서리 픽셀들을 병합하여 윤곽선을 검출하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
(a) receiving image data;
(b) recognizing a category object among the image data; And
(c) outputting the result of category object recognition;
The step (b)
(d) detecting an outline of the image data;
(e) extracting feature points of the contour to calculate a shape descriptor vector;
(f) performing spectral matching between the model data from which feature points of an outline are extracted and the image data;
(g) improving the spectral matching result; And
(h) recognizing a category object by estimating a matching position among the image data;
The step (d)
And detecting edges by merging edge pixels whose edges are within a preset range and the direction of the normal vector is within a preset range.
삭제delete 제 2 항에 있어서,
상기 형태기술자 벡터는,
상기 특징점의 쌍의 법선 벡터, 상기 특징점의 쌍 사이의 거리, 상기 특징점의 곡률 또는 상기 특징점의 위치 벡터 중 적어도 하나를 이용하여 정의되는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
The method of claim 2,
The shape descriptor vector is
Contour-based category object recognition robust to a viewpoint change of an object, characterized by being defined using at least one of a normal vector of the pair of feature points, a distance between the pair of feature points, a curvature of the feature points, or a position vector of the feature points. Way.
제 4 항에 있어서,
상기 형태기술자 벡터는,
형태기술자 벡터를 eij, 상기 특징점의 쌍인 (i, j)의 법선 벡터를 각각 θi와 θj, θij를 θi와 θj의 차의 절대치, 상기 i, j의 위치를 각각 (xi, yi), (xj, yj), 특징점 쌍 (i,j) 사이의 거리를 dij, 상기 i, j의 곡률을 각각 ki, kj, 특징점 j에 대해서 특징점 i의 위치 벡터를 기준으로 특징점 i의 방향성을 측정한 것을 σij라 하고, 상기 σij는 수학식
Figure 112012023475480-pat00028
로 계산된다고 할 때,
수학식
Figure 112012023475480-pat00029
로 정의되는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
The method of claim 4, wherein
The shape descriptor vector is
The shape descriptor vector is e ij, the normal vectors of (i, j) which are pairs of the feature points are respectively θ i and θ j , θ ij is the absolute value of the difference between θ i and θ j , and the positions of i and j are respectively (x i , y i ), (x j , y j ), the distance between feature point pairs (i, j) is d ij , the curvature of i, j is k i , k j, the location of feature point i with respect to feature point j, respectively The directionality of the feature point i based on the vector is measured as σ ij , and σ ij is expressed as
Figure 112012023475480-pat00028
Is calculated as
Equation
Figure 112012023475480-pat00029
Contour-based category object recognition method robust to the change of viewpoint of the object, characterized in that defined by.
제 2 항에 있어서,
상기 (f) 단계는,
상기 모델데이터와 상기 영상데이터의 특징점 쌍간에 변형을 측정하는 단계;를 포함하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
The method of claim 2,
The step (f)
Measuring deformation between the pair of feature points of the model data and the image data; and a contour-based category object recognition method robust to a change in a viewpoint of an object.
제 6 항에 있어서,
상기 형태기술자 벡터는,
상기 모델데이터 및 상기 영상데이터의 특징점 쌍을 각각 (i,j), (a,b), 상기 (i,j)와 (a,b) 사이의 변형을 측정하는 형태기술자 벡터를 gij(a,b), i와 a, j와 b 사이의 지역적인 형태 히스토그램의 차이를 각각 Cia, Cjb, 특징점 쌍 (i,j) 사이의 거리를 dij , ε1 내지 ε6은 (i,j)와 (a,b)에서 정의된 6차원의 형태기술자 벡터의 차벡터의 각 원소라고 할 때,
수학식
Figure 112010086521883-pat00030
으로 정의되고,
상기 γ는 수학식
Figure 112010086521883-pat00031
(δ는 0으로 나누어지는 경우를 방지하기 위한 작은 양의 상수값)에 의해 정의되는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
The method according to claim 6,
The shape descriptor vector is
A pair of feature descriptors of the model data and the pair of feature points of the image data are (i, j), (a, b), and a shape descriptor vector measuring a deformation between the (i, j) and (a, b), respectively, g ij (a b), i and a, the difference in the local shape histogram between j and b is the distance between C ia , C jb , and feature point pairs (i, j), respectively, d ij , ε 1 to ε 6 is (i, Given each element of the difference vector of the six-dimensional shape descriptor vector defined in j) and (a, b),
Equation
Figure 112010086521883-pat00030
Defined as
Γ is an equation
Figure 112010086521883-pat00031
(δ is a small positive constant value for preventing the case of dividing by zero).
제 2 항에 있어서,
상기 (f) 단계는,
상기 특징점의 쌍에 대한 기하학적인 유사도를 측정하여 행렬을 구성하고, 상기 행렬의 가장 큰 고유값에 대응되는 고유 벡터를 계산하여 기하학적인 유사도가 큰 특징점들의 군집을 구하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
The method of claim 2,
The step (f)
A viewpoint change of an object is characterized by obtaining a cluster of feature points having a large geometric similarity by measuring a geometric similarity of the pair of feature points and calculating a eigenvector corresponding to the largest eigenvalue of the matrix. Robust contour-based category object recognition method.
제 8 항에 있어서,
상기 (f) 단계는,
상기 특징점의 쌍에 대한 기하학적인 유사도를 측정하는 포텐셜 함수를 계산할 때, 상기 모델데이터와 상기 영상데이터의 특징점 쌍이 각각 같은 윤곽선 위에 존재하는 경우에 대한 페널티 상수를 부여하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
The method of claim 8,
The step (f)
When calculating a potential function for measuring geometric similarity with respect to the pair of feature points, changing the viewpoint of the object characterized in that a penalty constant is given to the case where the pair of feature points of the model data and the image data are on the same contour, respectively Robust contour-based category object recognition method.
제 9 항에 있어서,
상기 포텐셜 함수는,
상기 모델데이터 및 상기 영상데이터의 특징점 쌍을 각각 (i,j), (a,b), 상기 페널티 상수를 ρ, 포텐셜 함수를 Gia:jb, 상기 (i, j)와 (a, b) 사이의 변형을 측정하는 벡터를 gij(a,b), 가중치 벡터를 w, 상기 i, j의 신뢰도를 vij라고 할 때에,
수학식
Figure 112012023475480-pat00032
에 의해 정의되는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
The method of claim 9,
The potential function is
The pairs of feature points of the model data and the image data are (i, j), (a, b), the penalty constant is ρ, and the potential functions are G ia: jb , (i, j) and (a, b) When the vector measuring the deformation between g ij (a, b), the weight vector w, and the reliability of the i, j is v ij ,
Equation
Figure 112012023475480-pat00032
Contour-based category object recognition method robust to the change of viewpoint of the object, characterized in that defined by.
제 10항에 있어서,
상기 i, j의 신뢰도는 vij는,
θi, θj가 특징점 i와 j의 법선벡터라고 할 때,
수학식
Figure 112012023475480-pat00033
에 의해 계산되는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
The method of claim 10,
The reliability of the i, j is v ij ,
If θ i , θ j are normal vectors of feature points i and j,
Equation
Figure 112012023475480-pat00033
Contour-based category object recognition method robust to the viewpoint change of the object, characterized in that calculated by.
제 11항에 있어서,
상기 (f) 단계는,
상기 페널티 상수가 부여된 특징점의 쌍들에 대해서만 윤곽선을 구성하도록 하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
12. The method of claim 11,
The step (f)
Contour-based category object recognition method robust to the change in the viewpoint of the object, characterized in that the contour is configured only for the pair of feature points given the penalty constant.
제 2 항에 있어서,
상기 (g) 단계는,
상기 스펙트럴 정합에 의한 대응점들에 대해서 RANSAC(RANdom SAmple Consensus) 알고리즘을 적용하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
The method of claim 2,
The step (g)
A contour-based category object recognition method robust to a change in viewpoint of an object, wherein a random SAmple consensus (RANSAC) algorithm is applied to the corresponding points by the spectral matching.
제 13 항에 있어서,
상기 RANSAC 알고리즘의 적용은,
2차원 호모그래피 변환을 추정하고 대칭전달오차를 이용하여 윤곽선을 제거하여 새로운 대응점을 탐색하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법.
The method of claim 13,
Application of the RANSAC algorithm,
An outline-based category object recognition method that is robust to changes in the viewpoint of an object, by estimating a two-dimensional homography transform and searching for a new corresponding point by removing the contour using a symmetric propagation error.
삭제delete 영상데이터를 입력받는 데이터입력부;
상기 영상데이터 중에서 범주 물체를 인식하는 범주물체인식부; 및
상기 범주물체인식부의 인식 결과를 출력하는 출력부;를 포함하되,
상기 범주물체인식부는,
상기 영상데이터의 윤곽선을 검출하는 윤곽선검출부;
상기 윤곽선의 특징점을 추출하여 형태기술자 벡터를 산출하는 특징추출부;
상기 윤곽선의 특징점이 추출된 모델데이터와 상기 영상데이터 간에 스펙트럴 정합을 수행하는 스펙트럴정합부;
상기 스펙트럴정합부의 정합 결과를 개선하는 정합결과개선부; 및
상기 영상데이터 중에서 정합 위치를 추정하여 범주 물체를 인식하는 정합위치추정부;를 포함하고,
상기 윤곽선검출부는,
모서리를 검출하여 상기 모서리가 기설정된 범위 이내이고, 법선 벡터의 방향이 기설정된 범위 이내인 모서리 픽셀들을 병합하여 윤곽선을 검출하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
A data input unit for receiving image data;
A category object recognition unit recognizing a category object among the image data; And
And an output unit for outputting a recognition result of the category object recognition unit.
The category object recognition unit,
An outline detection unit detecting an outline of the image data;
A feature extraction unit for extracting feature points of the contour to calculate a shape descriptor vector;
A spectral matching unit for performing spectral matching between the extracted model data and the image data of the contour points;
A matching result improvement unit for improving a matching result of the spectral matching unit; And
And a registration position estimator for recognizing a category object by estimating a registration position among the image data.
The contour detection unit,
An edge-based category object recognition apparatus robust to a change in viewpoint of an object, characterized by detecting edges and merging edge pixels whose corners are within a preset range and a normal vector is within a preset range.
삭제delete 제 16 항에 있어서,
상기 형태기술자 벡터는,
상기 특징점의 쌍의 법선 벡터, 상기 특징점의 쌍 사이의 거리, 상기 특징점의 곡률 또는 상기 특징점의 위치 벡터 중 적어도 하나를 이용하여 정의되는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
17. The method of claim 16,
The shape descriptor vector is
Contour-based category object recognition robust to a viewpoint change of an object, characterized by being defined using at least one of a normal vector of the pair of feature points, a distance between the pair of feature points, a curvature of the feature points, or a position vector of the feature points. Device.
제 18 항에 있어서,
상기 형태기술자 벡터는,
형태기술자 벡터를 eij, 상기 특징점의 쌍인 (i, j)의 법선벡터를 각각 θi와 θj, θij를 θi와 θj의 차의 절대치, 상기 i, j의 위치를 각각 (xi, yi), (xj, yj), 특징점 쌍 (i,j) 사이의 거리를 dij, 상기 i, j의 곡률을 각각 ki, kj, 특징점 j에 대해서 특징점 i의 위치벡터를 기준으로 특징점 i의 방향성을 측정한 것을 σij라 하고, 상기 σij는 수학식
Figure 112012023475480-pat00034
로 계산된다고 할 때,
수학식
Figure 112012023475480-pat00035
로 정의되는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
The method of claim 18,
The shape descriptor vector is
The shape descriptor vector is e ij, the normal vectors of (i, j) which are pairs of the feature points are respectively θ i and θ j , θ ij is the absolute value of the difference between θ i and θ j , and the positions of i and j are respectively (x i , y i ), (x j , y j ), the distance between feature point pairs (i, j) is d ij , the curvature of i, j is k i , k j, the location of feature point i with respect to feature point j, respectively The directionality of the feature point i based on the vector is measured as σ ij , and σ ij is expressed as
Figure 112012023475480-pat00034
Is calculated as
Equation
Figure 112012023475480-pat00035
Contour-based category object recognition device robust to the change of viewpoint of the object, characterized in that defined by.
제 16 항에 있어서,
상기 스펙트럴정합부는,
상기 모델데이터와 상기 영상데이터의 특징점 쌍간에 변형을 측정하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
17. The method of claim 16,
The spectral matching unit,
A contour-based category object recognition apparatus robust to change of viewpoint of an object, characterized by measuring deformation between pairs of feature points of the model data and the image data.
제 20 항에 있어서,
상기 형태기술자 벡터는,
상기 모델데이터 및 상기 영상데이터의 특징점 쌍을 각각 (i,j), (a,b), 상기 (i,j)와 (a,b) 사이의 변형을 측정하는 형태기술자 벡터를 gij(a,b), i와 a, j와 b 사이의 지역적인 형태 히스토그램의 차이를 각각 Cia, Cjb, 특징점 쌍 (i,j) 사이의 거리를 dij , ε1 내지 ε6은 (i,j)와 (a,b)에서 정의된 6차원의 형태기술자 벡터의 차벡터의 각 원소라고 할 때,
수학식
Figure 112010086521883-pat00036
으로 정의되고,
상기 γ는 수학식
Figure 112010086521883-pat00037
(δ는 0으로 나누어지는 경우를 방지하기 위한 작은 양의 상수값)에 의해 정의되는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
21. The method of claim 20,
The shape descriptor vector is
A pair of feature descriptors of the model data and the pair of feature points of the image data are (i, j), (a, b), and a shape descriptor vector measuring a deformation between the (i, j) and (a, b), respectively, g ij (a b), i and a, the difference in the local shape histogram between j and b is the distance between C ia , C jb , and feature point pairs (i, j), respectively, d ij , ε 1 to ε 6 is (i, Given each element of the difference vector of the six-dimensional shape descriptor vector defined in j) and (a, b),
Equation
Figure 112010086521883-pat00036
Defined as
Γ is an equation
Figure 112010086521883-pat00037
Contour-based category object recognition apparatus robust to a change in viewpoint of an object, characterized by δ being a small positive constant value to prevent dividing by zero.
제 16 항에 있어서,
상기 스펙트럴정합부는,
상기 특징점의 쌍에 대한 기하학적인 유사도를 측정하여 행렬을 구성하고, 상기 행렬의 가장 큰 고유값에 대응되는 고유 벡터를 계산하여 기하학적인 유사도가 큰 특징점들의 군집을 구하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
17. The method of claim 16,
The spectral matching unit,
A viewpoint change of an object is characterized by obtaining a cluster of feature points having a large geometric similarity by measuring a geometric similarity of the pair of feature points and calculating a eigenvector corresponding to the largest eigenvalue of the matrix. Robust contour-based category object recognition device.
제 22 항에 있어서,
상기 스펙트럴정합부는,
상기 특징점의 쌍에 대한 기하학적인 유사도를 측정하는 포텐셜 함수를 계산할 때, 상기 모델데이터와 상기 영상데이터의 특징점 쌍이 각각 같은 윤곽선 위에 존재하는 경우에 대한 페널티 상수를 부여하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
The method of claim 22,
The spectral matching unit,
When calculating a potential function for measuring geometric similarity with respect to the pair of feature points, changing the viewpoint of the object characterized in that a penalty constant is given to the case where the pair of feature points of the model data and the image data are on the same contour, respectively Robust contour-based category object recognition device.
제 23 항에 있어서,
상기 포텐셜 함수는,
상기 모델데이터 및 상기 영상데이터의 특징점 쌍을 각각 (i,j), (a,b), 상기 페널티 상수를 ρ, 포텐셜 함수를 Gia:jb, 상기 (i, j)와 (a, b) 사이의 변형을 측정하는 벡터를 gij(a,b), 가중치 벡터를 w, 상기 i, j의 신뢰도를 vij라고 할 때에,
수학식
Figure 112012055479759-pat00038
에 의해 정의되는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
24. The method of claim 23,
The potential function is
The pairs of feature points of the model data and the image data are (i, j), (a, b), the penalty constant is ρ, and the potential functions are G ia: jb , (i, j) and (a, b) When the vector measuring the deformation between g ij (a, b), the weight vector w, and the reliability of the i, j is v ij ,
Equation
Figure 112012055479759-pat00038
Contour-based category object recognition apparatus robust to the change of viewpoint of the object, characterized in that defined by.
제 24 항에 있어서,
상기 i, j의 신뢰도 vij는,
θi, θj가 특징점 i와 j의 법선벡터라고 할 때,
수학식
Figure 112012055479759-pat00039
에 의해 계산되는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
25. The method of claim 24,
The reliability v ij of i and j is
If θ i , θ j are normal vectors of feature points i and j,
Equation
Figure 112012055479759-pat00039
Contour-based category object recognition apparatus robust to the change of viewpoint of the object, characterized in that calculated by.
제 25 항에 있어서,
상기 스펙트럴정합부는,
상기 페널티 상수가 부여된 특징점의 쌍들에 대해서만 윤곽선을 구성하도록 하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
The method of claim 25,
The spectral matching unit,
Contour-based category object recognition apparatus robust to changing the viewpoint of the object, characterized in that the contour is configured only for the pair of feature points given the penalty constant.
제 16 항에 있어서,
상기 정합결과개선부는,
상기 스펙트럴 정합에 의한 대응점들에 대해서 RANSAC(RANdom SAmple Consensus) 알고리즘을 적용하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
17. The method of claim 16,
The matching result improvement unit,
A contour-based category object recognition apparatus robust to changing the viewpoint of an object, wherein a random SAmple consensus (RANSAC) algorithm is applied to the corresponding points due to the spectral matching.
제 27 항에 있어서,
상기 RANSAC 알고리즘의 적용은,
2차원 호모그래피 변환을 추정하고 대칭전달오차를 이용하여 윤곽선을 제거하여 새로운 대응점을 탐색하는 것을 특징으로 하는 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 장치.
The method of claim 27,
Application of the RANSAC algorithm,
A contour-based category object recognition apparatus robust to change in the viewpoint of an object characterized by estimating a two-dimensional homography transform and searching for a new corresponding point by removing the contour using a symmetric propagation error.
삭제delete
KR1020100136158A 2010-12-28 2010-12-28 A method and apparatus for contour-based object category recognition robust to viewpoint changes KR101184588B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100136158A KR101184588B1 (en) 2010-12-28 2010-12-28 A method and apparatus for contour-based object category recognition robust to viewpoint changes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100136158A KR101184588B1 (en) 2010-12-28 2010-12-28 A method and apparatus for contour-based object category recognition robust to viewpoint changes

Publications (2)

Publication Number Publication Date
KR20120074356A KR20120074356A (en) 2012-07-06
KR101184588B1 true KR101184588B1 (en) 2012-09-21

Family

ID=46708478

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100136158A KR101184588B1 (en) 2010-12-28 2010-12-28 A method and apparatus for contour-based object category recognition robust to viewpoint changes

Country Status (1)

Country Link
KR (1) KR101184588B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101528757B1 (en) * 2013-10-15 2015-06-16 한국과학기술연구원 Texture-less object recognition using contour fragment-based features with bisected local regions

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101384784B1 (en) * 2012-12-31 2014-04-21 창원대학교 산학협력단 Methods for detecting optimal position for mobile device
KR101714701B1 (en) * 2015-06-19 2017-03-09 삼성중공업(주) Apparatus for registration of point cloud

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101528757B1 (en) * 2013-10-15 2015-06-16 한국과학기술연구원 Texture-less object recognition using contour fragment-based features with bisected local regions

Also Published As

Publication number Publication date
KR20120074356A (en) 2012-07-06

Similar Documents

Publication Publication Date Title
US11727661B2 (en) Method and system for determining at least one property related to at least part of a real environment
US10776936B2 (en) Point cloud matching method
Svarm et al. Accurate localization and pose estimation for large 3d models
Huang et al. A coarse-to-fine algorithm for matching and registration in 3D cross-source point clouds
Novatnack et al. Scale-dependent/invariant local 3D shape descriptors for fully automatic registration of multiple sets of range images
Fraundorfer et al. Visual odometry: Part ii: Matching, robustness, optimization, and applications
Sirmacek et al. A probabilistic framework to detect buildings in aerial and satellite images
Potapova et al. Learning what matters: combining probabilistic models of 2d and 3d saliency cues
KR101260367B1 (en) Method for detecting grasping points using category recognition and computer readable record medium thereof
Urban et al. Finding a good feature detector-descriptor combination for the 2D keypoint-based registration of TLS point clouds
US20130080111A1 (en) Systems and methods for evaluating plane similarity
CN103793922B (en) A kind of particular pose real-time detection method
CN109272577B (en) Kinect-based visual SLAM method
do Nascimento et al. On the development of a robust, fast and lightweight keypoint descriptor
Lourakis et al. Accurate scale factor estimation in 3D reconstruction
CN114358133B (en) Method for detecting looped frames based on semantic-assisted binocular vision SLAM
Gilani et al. Robust building roof segmentation using airborne point cloud data
KR101528757B1 (en) Texture-less object recognition using contour fragment-based features with bisected local regions
KR101184588B1 (en) A method and apparatus for contour-based object category recognition robust to viewpoint changes
Imani et al. Histogram of the node strength and histogram of the edge weight: two new features for RGB-D person re-identification
Jiang et al. Triangulate geometric constraint combined with visual-flow fusion network for accurate 6DoF pose estimation
Zhan et al. Segmentation of LiDAR point cloud based on similarity measures in multi-dimension euclidean space
Brink et al. Probabilistic outlier removal for robust landmark identification in stereo vision based SLAM
Anvaripour et al. Accurate object detection using local shape descriptors
Huang et al. Circle detection and fitting using laser range finder for positioning system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20160901

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20170828

Year of fee payment: 6