KR101528757B1 - 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법 - Google Patents

이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법 Download PDF

Info

Publication number
KR101528757B1
KR101528757B1 KR1020130122391A KR20130122391A KR101528757B1 KR 101528757 B1 KR101528757 B1 KR 101528757B1 KR 1020130122391 A KR1020130122391 A KR 1020130122391A KR 20130122391 A KR20130122391 A KR 20130122391A KR 101528757 B1 KR101528757 B1 KR 101528757B1
Authority
KR
South Korea
Prior art keywords
feature
feature point
image data
matching
local region
Prior art date
Application number
KR1020130122391A
Other languages
English (en)
Other versions
KR20150043697A (ko
Inventor
김동환
박성기
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020130122391A priority Critical patent/KR101528757B1/ko
Publication of KR20150043697A publication Critical patent/KR20150043697A/ko
Application granted granted Critical
Publication of KR101528757B1 publication Critical patent/KR101528757B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/457Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by analysing connectivity, e.g. edge linking, connected component analysis or slices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements

Abstract

본 발명은 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법에 관한 것이다.
본 발명에 따른 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법은 영상데이터를 입력받고, 영상데이터 중에서 물체의 형상을 인식하는 단계; 상기 영상데이터에서 인식된 물체에서 윤곽선을 검출하고, 각 물체의 윤곽선 분할 기반에 의한 특징점을 추출하는 단계; 상기 각 물체의 윤곽선 분할 기반에서 추출된 특징점에 대한 특징 디스크립터가 윤곽선 분할 기반의 법선을 따라 이분된 로컬 영역 상에서 계산되는 단계; 상기 특징점에 대한 상기 특징 디스크립터 사이의 새로운 쌍 디스크립터를 정의하는 단계; 상기 쌍 디스크립터에 대응되는 쌍 디스크립터 벡터를 산출하는 단계; 상기 윤곽선 분할 기반의 물체에 대한 상기 특징 디스크립터가 추출된 모델데이터와 상기 영상데이터 간에 스펙트럴 정합을 수행하는 단계; 및 상기 스펙트럴 정합 결과를 개선하는 단계; 를 포함한다.

Description

이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법{Texture-less object recognition using contour fragment-based features with bisected local regions}
본 발명은 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법에 관한 것으로, 보다 자세하게는 물체의 윤곽선에서 추출된 특징점을 기반으로 생성된 특징 디스크립터(feature descriptor)의 정합으로 경계가 모호한 물체에 대한 인식률이 향상된 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법에 관한 것이다.
물체 인식은 이미지 처리 및 컴퓨터 비젼 분야에서 주된 과제 중에 하나이고, 특히 지능형 로봇의 4대 중점기술 중 하나로서, 미리 학습을 한 지식정보를 바탕으로 물체의 영상을 보고 물체의 종류, 크기, 방향, 위치 등 3차원적 공간정보를 실시간으로 알아내는 기술이다.
이러한, 물체 인식은 인간과 유사한 성능의 자연스러운 시각기반 조작 기능을 구현하기 위하여, 다양한 환경에 강인하고 실시간 처리가 가능한 것을 목표로 하고 있다. 특히, 물체인식은 3차원 물체 및 환경의 데이터 획득, 인식, 위치 및 자세 추정, 모델링 등의 핵심 기술로서, 로봇뿐만 아니라 컴퓨터 과학 분야에서 전반적으로 많이 연구되고 있다.
물체 인식에 대한 접근은 크게 2 부분으로 분류될 수 있는 데, 하나는 물체 확인을 위하여 범주 내에서 개별 물체를 다루는 특정 물체 인식이며, 다른 하나는 목표 물체가 포함된 물체 범주를 검출하는 물체 범주화에 대한 것이다.
이러한 연구의 일환으로, Lowe(David G. Lowe, "Distinctive Image Features from Scale-Invariant Keypoints," International Journal of Computer Vision, Vol. 60, No. 2, pp. 91-110, 2004.), Bay(H. Bay, A. Ess, T.Tuytelaars, L. Van Gool, “Speeded Up Robust Features (SURF),” Computer Vision and Image Understanding, Vol. 110, pp. 346-359, 2008.)는 물체의 어피리언스(appearance) 정보에 기반하여 스케일 및 시점 변화에 강건한 특징 및 이를 이용한 물체인식 방법을 제안하였다. 그러나, 이 방법은 특정한 텍스쳐 성분을 가지는 물체에 대한 인식에 적합하며, 텍스쳐 성분이 없는 물체에 대해서는 변별력 있는 특징들이 추출되지 못하고 인식률이 크게 저하되는 문제가 있다.
또한, Ferrari 외 3명(Vittorio Ferrari, Loic Fevrier, Frederic Jurie, and Cordelia Schmid, "Groups of Adjacent Contour Segments for Object Detection," IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 30, No. 1, pp. 36-51, Jan. 2008.)은 영상에서 윤곽선을 추출하고, 직선에 가까운 연결된 윤곽선들 사이의 상대적인 위치관계, 각도, 거리 등의 기하학적인 관계를 이용하는 형태 기반의 범주 물체 인식 방법을 제안하였다. 이 방법은 미리 가정된 물체의 시점 정보를 이용하여 물체 인식률을 높이고자 하고 있으나, 물체의 시점이 변하면 적용이 어렵고, 시점 변화에 따라 추출된 특징점의 정합 관계에서 부정확한 관계를 만들 수 있기 때문에 목표 물체들을 인식하고 로컬화시키는 데 실패할 수 있으므로 텍스쳐가 불분명한 물체에 관한 인식에 적용될 때 물체와 배경의 차이를 구별하기 어려운 단점이 있다.
대한민국공개특허공보 제2003-078932호 대한민국공개특허공보 제2008-079443호
따라서, 본 발명은 종래 물체 인식 방법에서 제기되고 있는 상기 제반 단점과 문제점을 해결하기 위하여 창안된 것으로서, 물체의 윤곽선에서 추출된 특징점을 이용하여 특징점에서의 이분한 로컬 영역에 기반한 물체 인식 알고리즘을 갖는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법이 제공됨에 발명의 목적이 있다.
또한, 본 발명의 목적은, 윤곽선에서 추출된 각각의 특징점 주변의 법선(tangent line)을 따라 분할된 로컬 영역에서 계산된 특징 디스크립터의 쌍 구속 조건을 이용하여 스펙트럴 정합 알고리즘에 적용되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법이 제공됨에 있다.
본 발명의 상기 목적은,영상데이터를 입력받고, 영상데이터 중에서 물체의 형상을 인식하는 단계; 상기 영상데이터에서 인식된 물체에서 윤곽선을 검출하고, 각 물체의 윤곽선 분할 기반에 의한 특징점을 추출하는 단계; 상기 각 물체의 윤곽선 분할 기반에서 추출된 특징점에 대한 특징 디스크립터가 윤곽선 분할 기반의 법선을 따라 이분된 로컬 영역 상에서 계산되는 단계; 상기 특징점에 대한 상기 특징 디스크립터 사이의 새로운 쌍 디스크립터를 정의하는 단계; 상기 쌍 디스크립터에 대응되는 쌍 디스크립터 벡터를 산출하는 단계; 상기 윤곽선 분할 기반의 물체에 대한 상기 특징 디스크립터가 추출된 모델데이터와 상기 영상데이터 간에 스펙트럴 정합을 수행하는 단계; 및 상기 스펙트럴 정합 결과를 개선하는 단계; 를 포함하는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법이 제공됨에 의해서 달성된다.
상기 특징 디스크립터가 이분된 로컬 영역 상에서 계산되는 단계에서, 상기 특징 디스크립터를 계산하기 위한 이분된 로컬 영역은 상기 특징점에 대하여 사각형 또는 원형의 로컬 영역으로 규정될 수 있다.
또한, 상기 스펙트럴 정합 결과를 개선하는 단계 이후에는, 상기 영상데이터 중에서 상기 특징점에 대한 상기 특징 디스크립터의 정합 위치를 추정하여 상기 물체의 강건한 인식이 이루어지는 단계를 더 포함할 수 있다.
상기 스펙트럴 정합 결과를 개선하는 단계는, 상기 스펙트럴 정합에 의한 대응점들에 대해서 RANSAC 알고리즘을 적용하여 동떨어진 대응점을 제거하고, 새로운 대응점을 초기 대응점으로 정합 위치를 추정하여 상기 영상데이터의 대칭이동오차가 작은 특징점이 새로운 대응점으로 선택됨에 의해 강건한 물체의 인식이 이루어질 수 있다.
상기 특징 디스크립터가 윤곽선 분할 기반의 법선을 따라 이분된 로컬 영역 상에서 계산되는 단계에서, 상기 특징 스크립터는 상기 특징점이 추출되는 윤곽선 분할의 법선을 따라 로컬 영역을 이분된 영역으로 나누는 단계; 상기 특징점에 대한 특징 스크립터는 이분된 로컬 영역 상에서 각각 계산되는 단계; 및 상기 이분된 로컬 영역에 대한 상기 특징 디스크립터의 비용함수를 계산하는 단계;를 더 포함한다.
상기 특징 디스크립터의 비용함수를 계산하는 단계에서, 상기 각각의 이분된 로컬 영역에 대한 정합 조합으로 4개의 정합 조합을 고려하고, 추가로 2개의 정합 조합을 더 고려하여 총 6개의 정합 조합 범위 내에서 최소 비용함수를 선택하는 단계;를 더 포함한다.
상기 쌍 디스크립터 벡터eij는, 모델데이터의 특징점 쌍(i, j)와 영상데이터 특징점 쌍(a, b)의 정합된 특징점 쌍에 대하여, θi와 θj를 각각 모델데이터의 특징점 쌍(i, j)의 법선 벡터라 할 때, θij는 θi와 θj 사이의 차의 절대값, dij는 모델데이터 특징점 쌍(i, j) 사이의 거리, 특징점 j에 대해서 특징점 i의 위치벡터를 기준으로 특징점 i의 방향성을 측정한 것을 αij라 하고, 상기 αij는 수학식
Figure 112013092832620-pat00001
로 계산된다고 할 때, 아래의 수학식으로 정의될 수 있다.
수학식
Figure 112013092832620-pat00002
여기서, (xi, yi), (xj, yj)는 i, j의 각각의 위치를 의미한다.
또한, 상기 스펙트럴 정합을 수행하는 단계에서, 상기 모델데이터와 영상데이터의 특징점 쌍 간의 정합 후 변형 여부를 측정할 수 있으며, 상기 모델데이터의 특징점(i, j)와 영상데이터의 특징점(a, b) 쌍에 대한 쌍 관계를 고려하고, 쌍 기하학 변형 벡터 gij(a, b)는 하기의 수학식과 같이 정의될 수 있으며,
수학식
Figure 112013092832620-pat00003
여기서, εk는 벡터 eij-eij의 K번째 요소를 의미하며, 상기 γ는 하기의 수학식에 의해 정의될 수 있다.
수학식
Figure 112013092832620-pat00004
여기서, δ는 {dij, dab}의 최소값이 0에 가까울 때 수리적 문제를 방지하기 위한 양의 상수이다.
상기 RANSAC 알고리즘을 적용하여 새로운 대응점을 탐색하고, 모델데이터의 특징점 i와 그 대응되는 영상데이터의 특징점 a의 기하학적 오차를 측정하기 위하여 대칭전달오차를 이용하며, 아래의 수학식 정의에 의해 2차원 호모그래피 변환 행렬인 H가 남아있는 해당 점들로부터 제거될 대응점들이 추정될 수 있다.
수학식
Figure 112013092832620-pat00005
여기서, P, P는 각각 동좌표계에서의 i, a의 위치 벡터이고,
H는 2차원 호모그래피 변환 행렬이며,
d는 두 위치 벡터 사이의 거리이다.
이때, 상기 대칭전달오차가 하기의 수학식을 만족하는 경우, 해당 대응점은 새로운 대응점으로 결정될 수 있다.
수학식
Figure 112013092832620-pat00006
여기서, dtransfer는 문턱값이다.
이상에서 설명한 바와 같이, 본 발명에 따른 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 텍스쳐가 모호한 물체 인식 방법은, 영상데이터에서 물체의 텍스쳐가 없는, 즉 배경과 경계가 모호한 물체의 강건한 물체 인식이 정확하고 빠르게 이루어질 수 있는 장점이 있으며, 상이한 배경에서 정확한 물체 인식을 위한 배경 효과를 줄일 수 있는 장점이 있다.
또한, 쌍 디스크립터 생성에 의한 특징점들 사이에서 상대적인 기하학적 속성에 의해 평면 회전과 변형 및 어파인 변환에 대해 강건하여 텍스쳐가 없이 배경과의 경계가 모호한 물체를 강건하게 인식할 수 있는 작용효과가 발휘될 수 있다.
도 1은 본 발명에 따른 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체의 인식 방법의 순서도
도 2는 본 발명에 따른 물체 인식 방법에 적용되는 특징 디스크립터의 계산 방법이 도시된 순서도
도 3과 도 4는 윤곽선 분할 기반의 물체 인식 방법을 이용하여 TV의 물체 인식을 하는 실시예를 도시한 것으로, TV에서의 로컬 영역을 이분한 상태와 θi, θj, αij, αji 사이의 기하학적인 관계를 도시한 평면도이다.
도 5는 본 발명에 따른 물체 인식 방법과 종래 물체 인식 방법의 물체 인식률이 도시된 그래프.
도 6은 도 5에 예시된 물체들의 배경과 시점 변환에 따른 촬영 이미지.
본 발명에 따른 이분된 로컬 영역을 가지는 윤곽선 기반 특징을 이용한 텍스쳐가 모호한 물체의 인식 방법의 상기 목적에 대한 기술적 구성을 비롯한 작용효과에 관한 사항은 본 발명의 바람직한 실시예가 도시된 도면을 참조한 아래의 상세한 설명에 의해서 명확하게 이해될 것이다.
이에 앞서, 본 발명의 상세한 설명 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여, 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다. 따라서, 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.
먼저, 도 1은 본 발명에 따른 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체의 인식 방법의 순서도이다.
본 발명에 따른 윤곽선 분할 기반 특징을 이용한 물체 인식 방법은, 먼저 영상데이터를 입력받고, 영상데이터 중에서 물체의 형상을 인식할 수 있다.(S100) 영상데이터는 카메라를 포함하는 외부 영상 기기로부터 촬영된 영상을 입력받거나 이미지센서와 같은 영상데이터 입력 수단을 통해 입력되는 영상 신호를 통해 입력받을 수 있다.
또한, 영상데이터에서 인식된 물체에서 윤곽선을 검출하고, 각 물체의 윤곽선 분할 기반에 의한 특징점을 추출할 수 있다.(S110) 이때, 특징점은 영상데이터에서 인식된 물체의 윤곽선 분할 기반으로 추출될 수 있다.
그리고, 물체의 윤곽선 분할 기반에서 추출된 특징점에 대한 특징 디스크립터가 윤곽선 분할 기반의 법선을 따라 이분된 로컬 영역 상에서 계산될 수 있다.(S120) 이때, 특징점에 대한 특징 디스크립터를 계산하기 위하여 이분되는 로컬 영역은 소정 범위의 사각형 또는 원형의 영역으로 규정될 수 있다.
다음으로, 각 특징점에 대한 특징 디스크립터 사이의 새로운 쌍 디스크립터가 정의(S130)되고, 쌍 디스크립터 벡터를 산출한다.(S140) 쌍 디스크립터 벡터는 모델데이터와 영상데이터 간의 정합된 쌍에 대해 평면 내의 변형과 회전불변 관계에 의해 산출될 수 있다.
다음, 윤곽선 분할 기반의 물체에 대한 특징 디스크립터가 추출된 모델데이터와 영상데이터 간에 스펙트럴 정합을 수행한다.(S150) 스펙트럴 정합은 윤곽선 분할 기반으로 추출된 특징 디스크립터에 기초한 물체 인식에 쌍 디스크립터의 구속 조건을 이용한 스펙트럴 정합 알고리즘이 채용될 수 있다.
또한, 상기 스펙트럴 정합 결과를 개선(S160)하여 상기 영상데이터 중에서 특징점에 대한 특징 디스크립터의 정합 위치를 추정하여 물체의 강건한 인식이 이루어질 수 있다.(S180) 스펙트럴 정합의 개선은 스펙트럴 정합에 의한 대응점들에 대해서 강건한 정합을 위하여 RANSAC(RANdom SAmple Consensus) 알고리즘을 적용할 때, RANSAC 적용에 의해서 동떨어진 대응점을 제거하고 새로운 대응점을 초기 대응점으로 정합 위치를 추정하여 대칭 이동 오차가 작은 영상데이터의 특징점이 새로운 대응점으로 선택함에 의해서 강건한 물체의 인식이 이루어지게 된다.
한편, 상기 특징 디스크립터가 계산되는 방법에 대하여 살펴보면, 특징 스크립터는 도 2에 도시된 바와 같이, 특징점이 추출되는 윤곽선 분할의 법선을 따라 로컬 영역을 이분된 영역으로 나눌 수 있다.(S121) 이때, 로컬 영역의 이분된 영역은 도 3과 같은 형태로 특징점 주변에 두 개의 반원 영역으로 구분될 수 있다. 여기서, 로컬 영역의 이분된 영역은 반원 외에도 상호 대응되는 직사각의 영역으로 형성될 수도 있다. 이와 같이 특징점 주변에 상, 하부로 분할된 로컬 영역은 상기 특징점의 법선 벡터의 방향에 따라서 결정될 수 있다.
다음, 각각의 특징점에 대한 특징 스크립터는 이분된 로컬 영역 상에서 각각 계산될 수 있다.(S122) 특징 스크립터의 계산을 위해서는 먼저 각각 분할된 로컬 영역에 대한 특징 디스크립터의 비용함수를 계산하는 데, 각각의 이분된 영역에 대한 정합 조합으로 4개의 정합 조합을 고려하고, 추가로 2개의 정합 조합을 더 고려하여 총 6개의 정합 조합 범위 내에서 최소 비용함수를 선택할 수 있다.(S123)
여기서, 도 2는 본 발명에 따른 물체 인식 방법에 적용되는 특징 디스크립터의 계산 방법이 도시된 순서도이다.
이와 같은 순차적인 물체 인식 방법이 적용되는 물체 인식 장치를 간략히 설명하고, 이를 통해 앞서 설명된 윤곽선 분할 기반의 물체 인식 방법에 대한 세부적인 물체 인식 방법에 대하여 살펴보면 다음과 같다.
먼저, 이미지센서 또는 외부의 영상 입력 장치를 통해 데이터입력부에서 영상데이터를 입력받고, 입력받은 영상데이터에서 물체인식부를 통해 물체 인식이 이루어지게 된다. 이때, 물체 인식은 물체의 윤곽선 분할 기반의 이분된 로컬 영역에서 추출된 특징 디스트립터와 특징 디스트립터 사이의 쌍 디스트립터에 대한 쌍 디스크립터 벡터를 정의하고, 스펙트럴 정합(spectral matching) 방식을 이용하여 정합된 대응점을 검출하고, 검출된 대응점들의 정합 결과를 RANSAC 알고리즘에 적용하여 동떨어진 대응점을 제거함과 아울러 대칭 이동 오차가 가장 작은 대응점을 찾아 새로운 특징점으로 하여 강건한 물체 인식이 이루어질 수 있다.
여기서, 영상데이터 물체의 윤곽선은 윤곽선검출부를 통해 검출되고, 윤곽선 분할 기반의 특징점을 추출한 후, 특징점을 기준으로 이분된 로컬 영역에서 특징 디스크립터와 쌍 디스크립터의 계산에 의해 쌍 디스크립터 벡터가 디스크립터추출부에서 산출될 수 있다. 또한, 윤곽선 분할 기반에서 추출된 특징점에 대해서 이분된 로컬 영역에서 특징 디스크립터가 추출된 모델데이터와 데이터입력부에서 입력받은 영상데이터 간에 스펙트럴 정합이 스펙트럴정합부에서 수행되고, 스펙트럴정합부의 정합 결과가 정합결과개선부에서 개선됨과 아울러 영상데이터 중에서 정합 위치를 추정하여 강건한 물체의 인식이 정합위치추정부를 통해 이루어지게 된다.
영상데이터에서 물체의 윤곽선은 윤곽선검출부를 통해 기설정된 범위 이내의 모서리를 검출하고 법선 벡터의 방향이 기설정된 범위 이내이면 모서리 픽셀들을 병합하여 윤곽선을 검출한다. 또한, 디스크립터추출부는 검출된 윤곽선의 분할 기반에서 샘플링하여 특징점을 추출하고, 추출된 각 특징점에 대하여 이분된 로컬 영역에서 로컬 형태 및 로컬 형태 정보에 기초한 특징 디스크립터가 계산될 수 있으며, 특징 디스크립터 사이의 쌍 디스크립터에 대한 쌍 디스크립터 벡터를 계산할 수 있다.
여기서, 쌍 디스크립터 벡터는 특징점에 대한 특징 디스크립터 사이의 새로운 쌍 디스크립터를 이용하여 정의될 수 있으며, 모델데이터의 특징점 쌍(i, j)와 영상데이터 특징점 쌍(a, b)의 정합된 쌍에 대한 쌍 디스크립터 벡터 eij는 하기의 수학식 1로 정의될 수 있다.
Figure 112013092832620-pat00007
여기서, θi와 θj를 각각 모델데이터의 특징점 쌍(i, j)의 법선 벡터라 할 때, θij는 θi와 θj 사이의 차의 절대값이고, dij는 모델데이터 특징점 쌍(i, j) 사이의 거리이며, αij, αji는 특징점 j에 대해서 특징점 i의 위치벡터를 기준으로 특징점 i의 방향성을 측정한 것으로 하기의 수학식 2에 의해서 정의될 수 있다.
Figure 112013092832620-pat00008
여기서, (xi, yi), (xj, yj)는 i, j의 각각의 위치를 의미한다. 이러한 방법으로 αji를 정의할 수 있다. 도 3과 도 4는 윤곽선 분할 기반의 물체 인식 방법을 이용하여 TV의 물체 인식을 하는 실시예를 도시한 것으로, TV에서의 로컬 영역을 이분한 상태와 θi, θj, αij, αji 사이의 기하학적인 관계를 도시한 평면도이다.
상기 쌍 디스크립터 벡터(eij)는 스펙트럴 정합을 위하여 특징 디스크립터 사이에서 추출된 쌍 디스크립터의 쌍 구속조건을 이용하고, 이에 따른 강건한 물체 인식이 이루어질 수 있다.
이를 위하여, 앞서 기재된 물체 인식 방법에서 물체의 텍스쳐가 없는, 즉 경계가 모호한 물체의 강건한 물체 인식을 위한 특징점과 특징 디스크립터 및 쌍 디스크립터에 대하여 좀 더 구체적으로 살펴보면,
영상데이터의 물체 인식 후, 그 윤곽선 분할 기반의 로컬 영역을 이분하고 특징점(A)이 추출되는 데, 특징점들은 윤곽선이 일정한 간격(예를 들어, 매 15픽셀)으로 샘플링되어 윤곽선 분할 기반에서 추출될 수 있다.
상기 특징점을 기초로 계산되는 특징 디스크립터는 특징점을 기준으로 상부와 하부로 이분된 반원형의 로컬 영역에서 계산되며, 이때, 이분된 반원형의 로컬 영역은 특징점이 추출된 윤곽선 분할 기반의 법선을 따라 상부와 하부의 영역으로 나눠져 특징 디스크립터가 각각의 반원 영역에서 계산될 수 있다.
이와 같이 반원의 이분된 로컬 영역에서 특징 디스크립터가 계산되는 것은 텍스쳐가 모호한 물체의 경우, 로컬 영역 내의 픽셀이 물체의 내부에 있는 것을 구별하기 어렵기 때문이다. 로컬 영역의 크기가 물체의 경계까지의 거리보다 클 경우 물체의 배경이 특징 디스크립터 계산에 영향을 줄 수 있으며, 로컬 영역이 물체의 배경에 많이 포함되면 특징 디스크립터가 노이즈로 판단될 수 있어 상이한 배경에서 정확한 물체 인식이 어려울 수 있어 배경 효과를 줄이기 위함이다.
또한, 특징 디스크립터가 이분된 로컬 영역, 즉 특징점을 기반으로 상, 하부 영역에서 각각 계산되는 모델데이터의 특징점 i에 영상데이터의 특징 a 가 잘 정합되게 하기 위하여 각각의 이분된 로컬 영역에 대한 4개의 정합 조합이 고려될 수 있다. 즉, 특징점 i의 상부 로컬 영역은 특징 a의 상부 로컬 영역(UU)에 대응하고, 특징점 i의 상부 로컬 영역은 특징 a의 하부 로컬 영역(UL)에 대응하며, 특징점 i의 하부 로컬 영역은 특징 a의 상부 국부 영역(LU)에 대응하고, 특징점 i의 하부 로컬 영역은 특징 a의 하부 로컬 영역(LL)에 대응된다.
이때, 물체의 배경 부분의 효과를 줄이기 위해 로컬 영역을 나누었으나, 물체의 윤곽선 분할의 내부 및 전체 로컬 영역이 물체 경계 내에 있는 경우 전체 로컬 영역이 모델데이터의 특징점 i와 영상데이터의 특징 a 사이에 정확한 정합이 이루어질 수 있다. 이에 따라, 이분된 로컬 영역에 대한 2개의 정합 조합을 추가로 고려하는 데, 특징점 i의 상부 및 하부 로컬 영역이 특징 a의 상부 및 하부 로컬 영역과 각각 일치할 때의 UU+LL, 특징점 i의 상부 및 하부 로컬 영역이 특징 a의 하부 및 상부 로컬 영역과 각각 일치할 때의 UL+LU의 정합 조합을 더 고려할 수 있다.
이러한 특징 디스크립터는 두 개 유형의 히스토그램으로 계산될 수 있으며, 첫번째로 각각의 특징점 주변의 로컬 영역 정보를 나타내기 위하여 회전 불변의 형태 정보 히스토그램(shape context)을 이용하고, 두번째는 각각의 특징점 주변의 로컬 영역 정보를 나타내기 위하여 컬러 히스토그램을 이용할 수 있다. 이때 첫번째의 특징 디스크립터 계산은 형태 정보 히스토그램이 회전에 불변인 특성을 갖도록 하기 위하여, 각각의 특징점에서 특징점의 법선 벡터 방향을 기준으로 측정될 수 있다.
이와 같이 계산된 특징 디스크립터의 사이에서 추출되는 쌍 디스크립터에 대한 쌍 디스크립터 벡터를 이용하여 스펙트럴정합부를 통해 스펙트럴 정합이 수행될 수 있다. 이때, 스펙트럴 정합을 위한 스코어 함수 Ex는 하기의 수학식 3과 같이 정의된다.
Figure 112013092832620-pat00009
여기서, (i, j) 및 (a, b)는 각각 모델데이터 및 영상데이터의 특징점 쌍이고, Xia, Xjb는 정합 강도를 의미하며, Gia , jp는 (i, j)와 (a, b)에서 특징점 쌍에 대한 쌍 디스크립터 벡터를 기반으로 서로 대응되는 특징점 쌍 사이의 유사도를 계산하는 포텐셜 함수이다. 이때, Xia, Xjb는 서로 정합이 될 때 1의 값을 가지고, 정합이 되지 않았을 때 0의 값을 가진다.
상기 포텐셜 함수 Gia , jp는 영상데이터의 특징점(a, b)와 정합되었을 때, 모델데이터의 특징점(i, j)의 기하학적인 유사도가 잘 유지되는지를 나타낼 수 있으며, 아래의 수학식 4와 같이 정의될 수 있다.
Figure 112013092832620-pat00010
여기서,
Figure 112013092832620-pat00011
는 모델데이터의 특징점 i 와 영상데이터의 특징점 a 사이의 비용함수를 의미하며, 아래의 수학식 5와 같이 정의될 수 있다.
Figure 112013092832620-pat00012
여기서,
Figure 112013092832620-pat00013
는 수동 또는 무작위로 선택된 부정확한 집합으로부터 얻어진 가중치 벡터일 때,
Figure 112013092832620-pat00014
의 수학식 6을 통해 정의될 수 있다.
로 정의될 수 있다.
Figure 112013092832620-pat00015
Figure 112013092832620-pat00016
는 각각, 형태 정보 히스토그램 및 컬러 히스토그램에 대한 비용함수이며, 아래의 수학식 7과 같이 정의될 수 있다.
Figure 112013092832620-pat00017
여기서,
Figure 112013092832620-pat00018
는 형태 정보 히스토그램을 의미하고, K1은 히스토그램의 bin 개수이다.
Figure 112013092832620-pat00019
도 컬러 히스토그램에 대하여 같은 방법으로 정의될 수 있다.
Figure 112013092832620-pat00020
는 모델데이터 특징점(i , j)과 정합된 영상데이터의 특징점(a, b) 사이의 쌍 디스크립터에 대한 비용함수를 의미하며, 아래의 수학식 8과 같이 정의될 수 있다.
Figure 112013092832620-pat00021
여기서, W p는 수동 또는 무작위로 선택된 부정확한 집합으로부터 얻어진 가중치 벡터이고,
Figure 112013092832620-pat00022
수학식 9를 통해 정의될 수 있다.
여기서, εk는 벡터 eij-eij의 k번째 요소를 의미하며, 상기 γ는 하기의 수학식 10에 의해 정의될 수 있다.
Figure 112013092832620-pat00023
여기서, δ는 {dij, dab}의 최소값이 0에 가까울 때 수리적 문제를 방지하기 위한 양의 상수이다.
이 때의 쌍 디스크립터는 특징점들 사이에서 상대적인 기하학적 속성으로 정의되기 때문에, 평행 이동 및 평면내 회전에 불변이고 어파인 변환 및 변형에 대해 강건하게 물체를 인식할 수 있다.
본 발명에서는 쌍 디스크립터를 이용한 쌍 구속조건을 통해 적용된 스펙트럴 정합 알고리즘을 적용하고, 정합 관계에 대한 유효한 근사값을 얻어 특징점 간의 일대일 구속 조건이 효과적으로 실현되도록 할 수 있다.
이와 같은 쌍 디스크립터의 쌍 구속조건은 스펙트럴 정합에 의한 유사도를 측정하기 위한 것으로, 유사도 측정에 있어 특징점 쌍 사이의 상호 작용을 고려하며 모델데이터와 영상데이터의 특징점의 개수가 각각 M과 N이라면 시간 복잡도 O(M2N2)를 가지고, 유사도 함수를 생성하는 데 걸리는 시간을 줄이기 위하여 대응 필터링을 이용할 수 있다. 이와 같은 필터링은 각 특징점에 대한 이분된 특징 디스크립터의 비용함수에 기초하여 각 모델데이터에 대한 영상데이터의 특징점을 k개 선택하고, 특징 디스크립터 쌍을 생성하는 과정에서 각 모델데이터에 대하여 대응 가능한 영상데이터의 특징점을 k개 사용한다. 이때, k<<N이라 하면, 시간 복잡도는 O(M2)로 감소하게 되고, 통상적인 k값은 20이하로 한정한다.
또한, 스텍트럴 정합된 특징점들간의 대응점들을 이용하여 RANSAC(RANdom SAmple Consensus) 알고리즘을 적용할 수 있다. RANSAC 알고리즘은 스펙트럴 정합으로부터 얻은 대응점들 중에서 동떨어진 대응점들을 제거하고 정합 개선에 의한 강건한 정합을 위해 적용될 수 있다. 이때, 스펙트럴 정합으로부터 얻은 대응점들은 RANSAC에서 초기 대응점으로 사용된다.
또한, 새로운 대응점을 탐색하고, 모델데이터의 특징점 i와 그 대응되는 영상데이터의 특징점 a의 기하학적 오차를 측정하기 위하여 대칭전달오차를 이용하며, 아래의 수학식 11로 정의할 수 있다.
Figure 112013092832620-pat00024
여기서, P, P는 각각 동좌표계에서의 i, a의 위치 벡터를 의미하고, H는 2차원 호모그래피 변환 행렬을 의미한다. 또한, d는 두 위치 벡터 사이의 거리를 의미한다. 2차원 호모그래피 변환 행렬인 H가 남아있는 해당 점들로부터 제거될 대응점들이 추정될 수 있다.
또한, 상기 대칭전달오차가 하기의 수학식 12를 만족하는 경우, 해당 대응점은 새로운 대응점으로 결정될 수 있다.
Figure 112013092832620-pat00025
여기서, dtransfer는 문턱값으로, 대응관계를 가지지 못한 모델데이터의 특징점들에 대하여 RANSAC 알고리즘에서 계산된 2차원 호모그래피 변환 행렬을 적용하여 새로운 대응점을 탐색하고, 대응점을 갖지 않는 각 모델데이터에 대하여 수학식 13을 만족하는 영상데이터의 특징점이 존재하면 모델데이터와 영상데이터의 각 특징점은 새로운 대응점으로 정해질 수 있다. 또한, 모델데이터에 대해서 영상데이터의 대응되는 특징점이 다수개 존재하는 경우에는 대칭전달오차가 가장 작은 특징점을 새로운 대응점으로 결정할 수 있다.
이와 같은 본 발명의 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법의 특징점들은 물체의 윤곽선 분열로부터 추출되며, 특징점에 대한 특징 디스크립터는 로컬 영역의 모양과 형상에 의해 정의되고, 특징 디스크립터 사이의 쌍 디스크립터는 특징점 쌍의 기하학적 관계에 의해서 정의될 수 있다. 이때, 쌍 디스크립터의 구속 조건을 이용한 스펙트럴 정합에 의해 모델데이터와 영상데이터 간의 대응 물체에 빠르고 정확한 1: 1 대응이 이루어질 수 있다.
또한, RANSAC 알고리즘에 의해서 모델데이터와 영상데이터 간에 동떨어진 대응점들이 효과적으로 제거될 수 있고, 새로운 대응점이 RANSAC에 의해 평가된 이차원의 호모그래피 변환에 의해 검출될 수 있다.
이에 따른 실험 결과, 본 발명에 따른 물체 인식 방법은 도 5 및 도 6에 도시된 바와 같이, 본 발명에 따른 특징 디스크립터를 이용한 방식(붉은색 막대)과 지엽적 외관 특징을 이용한 SURF 알고리즘 적용 방식(파란색 막대)과 ASIFT 알고리즘 적용 방식(주확색 막대)을 비교하여 보면, 본 발명에 따른 특징 디스크립터를 이용한 물체 인식 알고리즘은 다른 알고리즘을 이용한 물체 인식 방식에서 벽시계, TV, 냉장고, 테이블 등의 각기 달라지는 배경과 텍스쳐가 불분명한, 즉 경계가 단색이거나 그레이스케일 형태와 같이 모호한 물체들의 인식이 강건하게 이루어질 수 있다.
이때, 도 5는 본 발명에 따른 물체 인식 방법과 종래 물체 인식 방법의 물체 인식률이 도시된 그래프이고, 도 6은 도 5에 예시된 물체들의 배경과 시점 변환에 따른 촬영 이미지이다.
상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허청구범위에 기재되는 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
A. 특징점

Claims (18)

  1. 영상데이터를 입력받고, 영상데이터 중에서 물체의 형상을 인식하는 단계;
    상기 영상데이터에서 인식된 물체에서 윤곽선을 검출하고, 각 물체의 윤곽선 분할 기반에 의한 특징점을 추출하는 단계;
    상기 각 물체의 윤곽선 분할 기반에서 추출된 특징점에 대한 특징 디스크립터가 윤곽선 분할 기반의 법선을 따라 이분된 로컬 영역 상에서 계산되는 단계;
    상기 특징점에 대한 상기 특징 디스크립터 사이의 새로운 쌍 디스크립터를 정의하는 단계;
    상기 쌍 디스크립터에 대응되는 쌍 디스크립터 벡터를 산출하는 단계;
    상기 윤곽선 분할 기반의 물체에 대한 상기 특징 디스크립터가 추출된 모델데이터와 상기 영상데이터 간에 스펙트럴 정합을 수행하는 단계; 및
    상기 스펙트럴 정합 결과를 개선하는 단계; 를 포함하되,
    상기 특징 디스크립터가 윤곽선 분할 기반의 법선을 따라 이분된 로컬 영역 상에서 계산되는 단계에서,
    상기 특징 스크립터는 상기 특징점이 추출되는 윤곽선 분할의 법선을 따라 로컬 영역을 이분된 영역으로 나누는 단계;
    상기 특징점에 대한 특징 스크립터는 이분된 로컬 영역 상에서 각각 계산되는 단계; 및
    상기 이분된 로컬 영역에 대한 상기 특징 디스크립터의 비용함수를 계산하는 단계;를 더 포함하는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
  2. 제1항에 있어서,
    상기 특징 디스크립터가 이분된 로컬 영역 상에서 계산되는 단계에서,
    상기 특징 디스크립터를 계산하기 위한 이분된 로컬 영역은 상기 특징점에 대하여 사각형 또는 원형의 로컬 영역으로 규정되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
  3. 제1항에 있어서,
    상기 스펙트럴 정합 결과를 개선하는 단계 이후에는,
    상기 영상데이터 중에서 상기 특징점에 대한 상기 특징 디스크립터의 정합 위치를 추정하여 상기 물체의 강건한 인식이 이루어지는 단계를 더 포함하는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
  4. 제3항에 있어서,
    상기 스펙트럴 정합 결과를 개선하는 단계는,
    상기 스펙트럴 정합에 의한 대응점들에 대해서 RANSAC 알고리즘을 적용하여 동떨어진 대응점을 제거하고, 새로운 대응점을 초기 대응점으로 정합 위치를 추정하여 상기 영상데이터의 대칭이동오차가 작은 특징점이 새로운 대응점으로 선택됨에 의해 강건한 물체의 인식이 이루어지는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
  5. 삭제
  6. 제1항에 있어서,
    상기 특징점 주변에 이분된 로컬 영역은, 상기 특징점의 법선 벡터의 방향에 따라서 상, 하부로 분할된 로컬 영역으로 결정되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
  7. 제6항에 있어서,
    상기 특징 디스크립터의 비용함수를 계산하는 단계에서,
    상기 각각의 이분된 로컬 영역에 대한 정합 조합으로 4개의 정합 조합을 고려하고, 추가로 2개의 정합 조합을 더 고려하여 총 6개의 정합 조합 범위 내에서 최소 비용함수를 선택하는 단계를 더 포함하는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
  8. 제1항에 있어서,
    상기 쌍 디스크립터 벡터eij는, 모델데이터의 특징점 쌍(i, j)와 영상데이터 특징점 쌍(a, b)의 정합된 특징점 쌍에 대하여, θi와 θj를 각각 모델데이터의 특징점 쌍(i, j)의 법선 벡터라 할 때, θij는 θi와 θj 사이의 차의 절대값, dij는 모델데이터 특징점 쌍(i, j) 사이의 거리, 특징점 j에 대해서 특징점 i의 위치벡터를 기준으로 특징점 i의 방향성을 측정한 것을 αij라 하고, 상기 αij는 수학식
    Figure 112013092832620-pat00026
    로 계산된다고 할 때,
    아래의 수학식으로 정의되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
    수학식
    Figure 112013092832620-pat00027

    여기서, (xi, yi), (xj, yj)는 i, j의 각각의 위치를 의미한다.
  9. 제7항에 있어서,
    상기 4개의 정합 조합은, 상기 특징점을 기반으로 상, 하부 영역에서 각각 계산되는 모델데이터의 특징점 i에 영상데이터의 특징 a 에 대하여, 상기 특징점 i의 상부 로컬 영역은 특징 a의 상부 로컬 영역(UU)에 대응하고, 상기 특징점 i의 상부 로컬 영역은 특징 a의 하부 로컬 영역(UL)에 대응하며, 상기 특징점 i의 하부 로컬 영역은 특징 a의 상부 국부 영역(LU)에 대응하고, 상기 특징점 i의 하부 로컬 영역은 특징 a의 하부 로컬 영역(LL)에 대응되는 정합 조합인 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
  10. 제7항에 있어서,
    상기 2개의 추가 정합 조합은, 상기 특징점을 기반으로 상, 하부 영역에서 각각 계산되는 모델데이터의 특징점 i에 영상데이터의 특징 a 에 대하여, 상기 특징점 i의 상부 및 하부 로컬 영역이 특징 a의 상부 및 하부 로컬 영역과 각각 일치할 때의 UU+LL, 특징점 i의 상부 및 하부 로컬 영역이 특징 a의 하부 및 상부 로컬 영역과 각각 일치할 때의 UL+LU의 정합 조합인 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
  11. 제1항에 있어서,
    상기 스펙트럴 정합을 수행하는 단계에서,
    스펙트럴 정합을 위한 스코어 함수는 하기의 수학식과 같이 정의되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
    수학식
    Figure 112013092832620-pat00028

    여기서, (i, j) 및 (a, b)는 각각 모델데이터 및 영상데이터의 특징점 쌍이고,
    Xia, Xjb는 정합 강도를 의미하며,
    Gia , jp는 (i, j)와 (a, b)에서 특징점 쌍에 대한 쌍 디스크립터 벡터를 기반으로 서로 대 응되는 특징점 쌍 사이의 유사도를 계산하는 포텐셜 함수이다.
  12. 제11항에 있어서,
    상기 포텐셜 함수는, 하기의 수학식과 같이 정의되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
    수학식
    Figure 112013092832620-pat00029

    여기서,
    Figure 112013092832620-pat00030
    는 모델데이터의 특징점 i 와 영상데이터의 특징점 a 사이의 비용함수를 의미한다.
  13. 제12항에 있어서,
    상기 모델데이터의 특징점(i, j)과 정합된 상기 영상데이터의 특징점(a, b)에 대해 쌍 디스크립터에 대한 비용 함수는 아래의 수학식으로 정의되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
    수학식
    Figure 112013092832620-pat00031

    여기서,
    Figure 112013092832620-pat00032
    는 수동 또는 무작위로 선택된 부정확한 집합으로부터 얻어진 가중치 벡터
  14. 제13항에 있어서,
    상기 모델데이터와 영상데이터의 특징점 쌍 간의 정합 후 변형 여부를 측정할 수 있으며, 상기 모델데이터의 특징점(i, j)와 영상데이터의 특징점(a, b) 쌍에 대한 쌍 관계를 고려하고, 쌍 기하학 변형 벡터 gij(a, b)는 하기의 수학식과 같이 정의되고,
    수학식
    Figure 112013092832620-pat00033

    여기서, εk는 벡터 eij-eij의 K번째 요소를 의미하며, 상기 γ는 하기의 수학식에 의해 정의되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
    수학식
    Figure 112013092832620-pat00034

    여기서, δ는 {dij, dab}의 최소값이 0에 가까울 때 수리적 문제를 방지하기 위한 양의 상수이다.
  15. 제1항에 있어서,
    상기 모델데이터의 특징점(i, j)과 정합된 상기 영상데이터의 특징점(a, b)에 대해 쌍 디스크립터에 대한 비용 함수는 아래의 수학식으로 정의되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
    수학식
    Figure 112014125489424-pat00035

    여기서, Wp는 수동 또는 무작위로 선택된 부정확한 집합으로부터 얻어진 가중치 벡터
  16. 제4항에 있어서,
    상기 RANSAC 알고리즘을 적용하여 새로운 대응점을 탐색하고, 모델데이터의 특징점 i와 그 대응되는 영상데이터의 특징점 a의 기하학적 오차를 측정하기 위하여 대칭전달오차를 이용하며, 아래의 수학식 정의에 의해 2차원 호모그래피 변환 행렬인 H가 남아있는 해당 점들로부터 제거될 대응점들이 추정되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
    수학식
    Figure 112013092832620-pat00036

    여기서, P, P는 각각 동좌표계에서의 i, a의 위치 벡터이고,
    H는 2차원 호모그래피 변환 행렬이며,
    d는 두 위치 벡터 사이의 거리이다.
  17. 제16항에 있어서,
    상기 대칭전달오차가 하기의 수학식을 만족하는 경우, 해당 대응점은 새로운 대응점으로 결정되는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
    수학식
    Figure 112013092832620-pat00037

    여기서, dtransfer는 문턱값이다.
  18. 제17항에 있어서,
    상기 모델데이터에 대해서 상기 영상데이터의 대응되는 특징점이 다수개 존재하는 경우에 상기 대칭전달오차가 가장 작은 특징점을 새로운 대응점으로 결정하는 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법.
KR1020130122391A 2013-10-15 2013-10-15 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법 KR101528757B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130122391A KR101528757B1 (ko) 2013-10-15 2013-10-15 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130122391A KR101528757B1 (ko) 2013-10-15 2013-10-15 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법

Publications (2)

Publication Number Publication Date
KR20150043697A KR20150043697A (ko) 2015-04-23
KR101528757B1 true KR101528757B1 (ko) 2015-06-16

Family

ID=53036152

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130122391A KR101528757B1 (ko) 2013-10-15 2013-10-15 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법

Country Status (1)

Country Link
KR (1) KR101528757B1 (ko)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105374063B (zh) * 2015-10-10 2018-11-02 杭州电子科技大学 基于半监督局部小块排列的人脸动画生成方法
CN110197254B (zh) * 2019-04-25 2022-05-24 中国科学院自动化研究所南京人工智能芯片创新研究院 基于深度迁移学习的线特征描述方法
CN111091577B (zh) * 2019-12-06 2023-06-23 中科南京人工智能创新研究院 基于伪孪生网络的线特征描述方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101182683B1 (ko) * 2011-02-16 2012-09-17 인하대학교 산학협력단 시각적 형상 디스크립터 생성 방법 및 그 기록매체
KR101184588B1 (ko) * 2010-12-28 2012-09-21 한국과학기술연구원 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101184588B1 (ko) * 2010-12-28 2012-09-21 한국과학기술연구원 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치
KR101182683B1 (ko) * 2011-02-16 2012-09-17 인하대학교 산학협력단 시각적 형상 디스크립터 생성 방법 및 그 기록매체

Also Published As

Publication number Publication date
KR20150043697A (ko) 2015-04-23

Similar Documents

Publication Publication Date Title
Zhu et al. Single image 3D object detection and pose estimation for grasping
JP5845365B2 (ja) 3次元の近接インタラクションにおける、又は3次元の近接インタラクションに関連する改善
Aldoma et al. Multimodal cue integration through hypotheses verification for rgb-d object recognition and 6dof pose estimation
Zhang et al. Corner detection based on gradient correlation matrices of planar curves
Dibeklioglu et al. 3D facial landmarking under expression, pose, and occlusion variations
CN109272577B (zh) 一种基于Kinect的视觉SLAM方法
Qu et al. Evaluation of SIFT and SURF for vision based localization
do Nascimento et al. On the development of a robust, fast and lightweight keypoint descriptor
KR101260367B1 (ko) 범주 인식에 의한 파지점 생성방법 및 그 방법에 대한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체
KR101528757B1 (ko) 이분된 로컬 영역을 가지는 윤곽선 분할 기반 특징을 이용한 물체 인식 방법
CN105139013A (zh) 一种融合形状特征和兴趣点的物体识别方法
Zhu et al. Hand dorsal vein recognition based on shape representation of the venous network
KR101184588B1 (ko) 물체의 시점 변화에 강건한 윤곽선 기반의 범주 물체 인식 방법 및 장치
Wang et al. A new method for robust object tracking system based on scale invariant feature transform and camshift
Wuhrer et al. Posture invariant surface description and feature extraction
Khan et al. Tracking visual and infrared objects using joint Riemannian manifold appearance and affine shape modeling
Al-Azzawy Eigenface and SIFT for gender classification
Anvaripour et al. Accurate object detection using local shape descriptors
Guo et al. A hybrid framework based on warped hierarchical tree for pose estimation of texture-less objects
de Santos Sierra et al. Invariant hand biometrics feature extraction
Chen et al. Method of item recognition based on SIFT and SURF
Zhu et al. Auto-Corner Detection Based on the Eigenvalues Product of Covariance Matrices over Multi-Regions of Support.
Chattopadhyay et al. Exploiting pose information for gait recognition from depth streams
Pan et al. 6D Pose Estimation Based on Multiple Appearance Features from Single Color Image
Zhang et al. An image matching algorithm based on SUSAN-SIFT algorithm

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant