WO2013172491A1 - Method and device for recognizing object by using depth information - Google Patents

Method and device for recognizing object by using depth information Download PDF

Info

Publication number
WO2013172491A1
WO2013172491A1 PCT/KR2012/003840 KR2012003840W WO2013172491A1 WO 2013172491 A1 WO2013172491 A1 WO 2013172491A1 KR 2012003840 W KR2012003840 W KR 2012003840W WO 2013172491 A1 WO2013172491 A1 WO 2013172491A1
Authority
WO
WIPO (PCT)
Prior art keywords
recognition
clusters
color
depth
candidate
Prior art date
Application number
PCT/KR2012/003840
Other languages
French (fr)
Korean (ko)
Inventor
최병호
김제우
황영배
배주한
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to PCT/KR2012/003840 priority Critical patent/WO2013172491A1/en
Publication of WO2013172491A1 publication Critical patent/WO2013172491A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Abstract

A method and device for recognizing an object by using depth information is provided. The method for recognizing the object includes: obtaining a color image and a depth image; clustering the color image in a plurality of clusters on the basis of depth information represented on the depth image; and performing object recognition on the basis of the clustered clusters. Accordingly, even if an object has few characteristic points in characteristic point-based object recognition or has a complex background, it is possible to more reliably increase an object recognition rate.

Description

【명세서】  【Specification】
【발명의 명칭】  [Name of invention]
깊이 정보를 이용한 물체 인식 방법 및 장치  Object recognition method and device using depth information
【기술분야】  Technical Field
본 발명은 물체 인식 방법 및 장치에 관한 것으로, 더욱 상세하게는 깊이 정보를 이용한 물체 인식 방법 및 장치에 관한 것이다.  The present invention relates to an object recognition method and apparatus, and more particularly, to an object recognition method and apparatus using depth information.
【배경기술】  Background Art
촬영된 이미지에서 찾고자 하는 물체가 존재하는지 여부를 인식하기 위한 방법으로 특징점 매칭 기법이 주로 이용되고 있다.  Feature point matching is mainly used as a method for recognizing whether an object to be found exists in a captured image.
이 기법은 이미지 상에서 찾고자 하는 물체의 존재여부는 물론 존재 위치까지 비교적 정확하게 알아낼 수 있지만, 경우에 따라 정확도가 떨어지는 문제를 드러내고 있다.  This technique is able to find out the existence of the object to be found on the image as well as the location of the object relatively accurately, but it reveals the problem of inaccuracy in some cases.
구체적으로, 배경에 의해 잘못된 물체 인식이 발생할 수 있는데, 이는 배경이 복잡할수록 더욱 그러하다. 뿐만 아니라, 특징 기술자가 식별력이 적은 경우나, 인식 물체가 균일한 경우에도 잘못된 특징점 대웅이 나타나, 부정확한 인식을 유발한다. ^  Specifically, false object recognition may occur due to the background, which is more so, the more complicated the background. In addition, even when the feature descriptor has low discrimination power or when the recognition object is uniform, an incorrect feature point may appear, causing incorrect recognition. ^
한편, 물체 인식을 위한 특징점 매칭은 이미지 전체에 대해 수행되기 때문에 처리량의 증가로 인한 인식 속도 저하를 유발하는데, 이미지의 해상도가 높아지는 추세를 고려한다면 속도 저하는 더욱 가중될 것이라는데 문제가 있다.  On the other hand, since feature point matching for object recognition is performed for the entire image, it causes a reduction in recognition speed due to an increase in throughput, and there is a problem that the speed decrease will be further increased if the resolution of the image is increased.
【발명의 상세한 설명】 ' [Detailed Description of the Invention] "
【기술적 과제】 본 발명은 상기와 같은 문제점을 해결하기 위하여 안출된 것으로서, 본 발명의 목적은, 특징점 기반의 물체 인식에서 물체의 특징점이 별로 없는 경우나 복잡 배경을 가진 물체의 경우에도, 보다 신뢰성 있게 물체 인식율을 높일 수 있는 물체 인식 방법 및 장치를 제공함에 있다. [Technical problem] The present invention has been made to solve the above problems, and an object of the present invention is to more reliably improve the object recognition rate even in the case of a feature point-based object recognition or an object having a complex background. It is to provide a method and apparatus for recognizing an object that can be increased.
【기술적 해결방법】  Technical Solution
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른, 물체 인식 방법은, 컬러-이미지와 깊이-이미지를 획득하는 단계; 깊이-이미지에 나타난 깊이 정보를 기초로, 컬러-이미지를 다수의 클러스터들로 클러스터링하는 단계; 및 클러스터링된 클러스터들을 기반으로, 물체 인식을 수행하는 단계;를 포함한다.  In accordance with an aspect of the present invention, an object recognition method includes: obtaining a color image and a depth image; Clustering the color-image into a plurality of clusters based on the depth information indicated in the depth-image; And performing object recognition based on the clustered clusters.
그리고, 물체 인식 수행 단계는, 클러스터들 각각과 인식 물체들 각각에 대해 특징점 매칭을 수행하는 단계; 클러스터들 내의 일부 영역들을 후보 영역들로 선정하는 단계; 및 선정된 후보 영역들을 포함하는 클러스터들 밖에서 이루어진 특징점 매칭을 배제하고, 물체 인식을 수행하는 단계;를 포함할 수 있다.  The object recognition may include: performing feature point matching on each of the clusters and each of the recognition objects; Selecting some regions in the clusters as candidate regions; And eliminating feature point matching made outside clusters including the selected candidate regions, and performing object recognition.
또한, 물체 인식 수행 단계는, 클러스터들 내의 일부 영역들을 후보 영역들로 선정하는 단계; 후보 영역들 각각과 인식 물체들 각각에 대해 특징점 매칭을 수행하는 단계; 및 특징점 매칭 결과를 이용하여, 물체 인식을 수행하는 단계;를 포함할 수 있다.  Further, performing object recognition may include selecting some regions in the clusters as candidate regions; Performing feature point matching on each of the candidate areas and each of the recognition objects; And performing object recognition using the feature point matching result.
그리고, 후보 영역 선정 단계는, 클러스터들 각각에 대한 컬러-히스토그램들과 인식 물체들 각각에 대한 컬러-히스토그램들을 비교하여, 클러스터들 내의 일부 영역들을 후보 영역들로 선정하는 제 1 선정 단계; 및 제 1 선정 단계에서 선정된 후보 영역과 인식 물체의 깊이 통계치들을 비교하고, 통계치 차가 임계치 미만인 후보 영역과 인식 물체를 선정하는 제 2 선정단계;를 포함할 수 있다. The candidate region selecting step may include: a first selecting step of selecting some regions in the clusters as candidate regions by comparing color histograms for each of the clusters and color histograms for each of the recognition objects; And comparing the depth statistics of the candidate region selected in the first selection step with the recognition object, And a second selecting step of selecting a candidate region and a recognition object having a difference less than a threshold.
또한, 물체 인식 수행 단계는, 클러스터들 내의 일부 영역들을 후보 영역들로 선정하는 제 1 선정 단계; 제 1 선정단계에서 선정된 후보 영역들 각각과 인식 물체들 각각에 대해 특징점 매칭을 수행하는 단계; 제 1 선정단계에서 선정된 후보 영역들 중 일부를 다시 선정하는 제 2 선정 단계; 및 제 2 선정 단계에서 선정된 후보 영역들 밖에서 이루어진 특징점 매칭을 배제하고, 물체 인식을 수행하는 단계;를 포함할 수 있다.  The object recognition step may further include: a first selecting step of selecting some areas in the clusters as candidate areas; Performing feature point matching on each of the candidate regions selected in the first selecting step and each of the recognition objects; A second selecting step of selecting again some of the candidate areas selected in the first selecting step; And eliminating feature point matching made outside the candidate regions selected in the second selection step, and performing object recognition.
그리고, 다수의 클러스터에서 인식된 인식 물체는 인식되지 않은 것으로 처리하는 단계;를 더 포함할 수 있다.  The method may further include processing the recognized object recognized in the plurality of clusters as not recognized.
또한, 컬러 -이미지에서 다수의 인식 물체가 인식되는 경우, 클러스터와 인식 물체들 간의 컬러-상관도를 비교하여, 하나의 인식 물체를 선정하여 인식된 것으로 처리하는 단계;를 더 포함할 수 있다.  In addition, when a plurality of recognition objects are recognized in the color-image, comparing the color-correlation between the cluster and the recognition objects, selecting one recognition object and processing the recognized object.
한편, 본 발명의 다른 실시예에 따른, 물체 인식 장치는, 컬러-이미지와 깊이-이미지를 획득하는 카메라; 인식 물체들의 .이미지가 DB화 되어 있는 저장부; 및 깊이-이미지에 나타난 깊이 정보를 기초로 컬러-이미지를 다수의 클러스터들로 클러스터링하고, 클러스터링된 클러스터들을 기반으로 물체 인식을 수행하는 프로세서;를 포함한다.  On the other hand, the object recognition apparatus according to another embodiment of the present invention, the camera for acquiring a color-image and a depth-image; A storage unit in which images of recognition objects are DBized; And a processor that clusters the color-image into a plurality of clusters based on the depth information shown in the depth-image, and performs object recognition based on the clustered clusters.
【유리한 효과】  Advantageous Effects
이상 설명한 바와 같이, 본 발명에 따르면, 특징점 기반의 물체 인식에서 물체의 특징점이 별로 없는 경우나 복잡 배경을 가진 물체의 경우에도, 보다 신뢰성 있게 물체 인식율을 높일 수 있게 된다. As described above, according to the present invention, even in the case where there are few feature points of an object in an object-based object recognition or an object having a complex background, it is more reliable It is possible to increase the object recognition rate.
구체적으로, 깊이 정보를 이용하여 이미지를 클러스터링하고, 컬러 -히스토그램 비교를 통해 클러스터 내의 후보 영역을 선정하여 영상 인식에 이용하기 때문에 물체 인식율이 높아짐은 물론, 특징점 매칭 및 그 후속 처리에 소요되는 연산량을 크게 줄일 수 있게 된다.  Specifically, clustering an image using depth information, selecting candidate regions in a cluster through color-histogram comparison, and using the image recognition to increase the object recognition rate, as well as the amount of computation required for feature point matching and subsequent processing. It can be greatly reduced.
뿐만 아니라, 후보 영역과 인식 물체 간의 깊이 통계치 비교를 통해, 후보 영역을 검증할 수 있게 되어, 물체 인식율올 더욱 높일 수 있게 된다.  In addition, by comparing the depth statistics between the candidate area and the recognition object, the candidate area can be verified, thereby further increasing the object recognition rate.
아울러, 깊이 정보를 이용하더라도 인식이 어려울 수 있는 비슷한 물체에 대해서는 컬러 상관도를 보조 지표로 활용하여 유사도를 더 측정하므로 인식율을 더욱 증가시킬 수 있게 된다.  In addition, since the similarity is further measured by using the color correlation as an auxiliary index for similar objects that may be difficult to recognize even using depth information, the recognition rate may be further increased.
【도면의 간단한 설명】  [Brief Description of Drawings]
도 1은 본 발명의 일 실시예에 따른 깊이 정보를 이용한 물체 인식 방법의 설명에 제공되는 흐름도,  1 is a flowchart provided to explain an object recognition method using depth information according to an embodiment of the present invention;
도 2는, 컬러—이미지, 깊이-이미지 및 Depth Proximity Clustering 결과를 나타낸 도면,  2 shows color—image, depth-image and Depth Proximity Clustering results.
도 3은, 클러스터들 중에서 선정한 3개의 후보 영역을 컬러-이미지에 나타낸 도면,  3 is a diagram showing three candidate regions selected from clusters in a color image.
도 4는 인식 물체들의 깊이 표준 편차를 예시한 도면,  4 is a diagram illustrating depth standard deviation of recognition objects;
도 5와 도 6은, 하나의 인식 물체가 다수의 클러스터에서 인식되는 경우를 예시한 도면,  5 and 6 are views illustrating a case where one recognition object is recognized in a plurality of clusters,
도 7과 도 8은, 컬러 -이미지에서 다수의 인식 물체가 인식되는 경우를 에 예시한 도면, 7 and 8 illustrate a case where a plurality of recognition objects are recognized in a color-image. Illustrated drawing ,
도 9는 본 발명의 따른 실시예에 따른 깊이 정보를 이용한 물체 인식 방법의 설명에 제공되는 흐름도,  9 is a flowchart provided to explain an object recognition method using depth information according to an embodiment of the present invention;
도 10은 본 발명의 또 다른 실시예에 따른 깊이 정보를 이용한 물체 인식 방법의 설명에 제공되는 흐름도, 그리고,  10 is a flowchart provided to explain an object recognition method using depth information according to another embodiment of the present invention, and
도 11은ᅳ 도 1, 도 9 및 도 10에 도시된 물체 인식 방법을 수행할 수 있는 물체 인식 장치를 도시한 도면이다.  FIG. 11 is a diagram illustrating an object recognition apparatus capable of performing the object recognition method illustrated in FIGS. 1, 9, and 10.
【발명의 실시를 위한 최선의 형태】  Best Mode for Implementation of the Invention
이하에서는 도면을 참조하여 본 발명을 보다 상세하게 설명한다.  Hereinafter, with reference to the drawings will be described the present invention in more detail.
1. 깊이 정보를 이용한물체 인식 #1 1. Object recognition using depth information # 1
본 발명의 일 실시예에 따른 깊이 정보를 이용한 물체 인식 방법에서는 컬러-이미지를 클러스터링하고 클러스터 내에 인식하고자 하는 물체가 존재할 가능성이 높은 후보로 선정된 영역을 검증함에 있어 깊이 정보를 이용한다.  The object recognition method using depth information according to an embodiment of the present invention uses depth information in clustering color-images and verifying a region selected as a candidate having a high probability of the object to be recognized in the cluster.
도 1은 본 발명의 일 실시예에 따른 깊이 정보를 이용한 물체 인식 방법의 설명에 제공되는 흐름도이다.  1 is a flowchart provided to explain an object recognition method using depth information according to an exemplary embodiment of the present invention.
도 1에 도시된 바와 같이, 먼저 컬러-이미지와 깊이-이미지를 획득한다 (S110). 컬러-이미지와 깊이-이미지는 RGB-카메라와 D-카메라를 이용하여 각각 생성가능하다.  As shown in FIG. 1, first, a color-image and a depth-image are obtained (S110). Color- and depth-images can be generated using RGB cameras and D-cameras, respectively.
이후, 깊이-이미지에 나타난 깊이 정보를 기초로, 컬러-이미지를 다수의 클러스터들로 클러스터링한다 (S120). 엄밀하게, S120단계에서의 클러스터링에서는 깊이 정보 외에 위치 정보가 더 반영되는데, 반영율은 깊이 정보가 더 크다. 여기서, 위치 정보는 깊이 (d)에 수직한 평면상의 위치 (x,y)에 대한 정보를 말한다. Thereafter, the color-image is clustered into a plurality of clusters based on the depth information indicated in the depth-image (S120). Strictly speaking, clustering in the S120 phase In addition to the depth information, location information is further reflected, and the reflectance is greater in the depth information. Here, the position information refers to information on the position (x, y) on the plane perpendicular to the depth (d).
S120단계에서 수행되는 클러스터링은 깊이가 비슷하고 거리가 가까운 픽셀들을 하나의 클러스터에 클러스터링하는 것이다. .  Clustering performed in step S120 is to cluster pixels having similar depths and close distances to one cluster. .
S120단계에 의해, 컬러-이미지 상에 존재하는 '인식하고자 하는 물체' (이하, '인식 물체'로 약칭)는 어느 한 클러스터에 소속될 가능성이 매우 높다. 이는, 하나의 인식 물체를 구성하는 픽셀들의 깊이는 비슷하고 거리가 가깝기 때문이다. 인식 물체는 컬러 -이미지에서 찾고자 하는 물체로, DB에 이미지가 저장되어 있다.  By the step S120, the 'object to be recognized' (hereinafter, abbreviated as 'aware object') existing on the color image is very likely to belong to any one cluster. This is because the pixels of one recognition object have similar depths and close distances. Recognition object is the object to find in the color-image, and the image is stored in DB.
다음, 클러스터들 각각과 인식 물체들 각각에 대해 특징점 매칭을 수행한다 (S130). 클러스터링된 클러스터가 k개이고, DB에 구축되어 있는 인식 물체의 개수가 n개인 경우, S130단계는, Next, feature point matching is performed on each of the clusters and each of the recognition objects (S130). If k clusters are clustered and the number of objects recognized in the DB is n , step S130 is performed.
11) 클러스터 -1과 인식 물체 -1 간의 특징점 매칭을 수행하고,  11) perform feature point matching between the cluster -1 and the recognition object -1,
12) 클러스터 -1과 인식 물체 -2 간의 특징점 매칭을 수행하고,  12) perform feature point matching between the cluster -1 and the recognition object -2,
In) 클러스터 -1과 인식 물체 -n 간의 특징점 매칭을 수행하고, In) perform feature point matching between the cluster -1 and the recognition object- n ,
21) 클러스터 -2와 인식 물체 - 1 간의 특징점 매칭을 수행하고,ᅳ  21) perform feature point matching between cluster -2 and recognition object-1,
22) 클러스터 -2와 인식 물체 -2 간의 특징점 매칭을 수행하고,  22) perform feature point matching between the cluster -2 and the recognition object -2,
2n) 클러스터 -2와 인식 물체 -n 간의 특징점 매칭올 수행하고, kl) 클러스터 -k와 인식 물체 -1 간의 특징점 매칭을 수행하고, 2n) perform feature point matching between cluster -2 and recognition object -n; kl) perform feature point matching between the cluster -k and the recognition object -1,
k2) 클러스터ᅳ k와 인식 물체 -2 간의 특징점 매칭을 수행하고,  k2) perform feature point matching between the cluster ᅳ k and the recognition object-2;
kn) 클러스터 -k와 인식 물체 -n 간의 특징점 매칭을 수행하는 절차로 수행된다. kn) performed by a procedure for performing feature point matching between the cluster -k and the recognized object -n.
이후, 클러스터들 내의 Ξ丁 a -1들을 후보 영역들로 1차 선정한다 (S 140). After that, the clustering clusters may first select the cluster clusters as candidate regions (S 140).
S140단계는, S120단계에서 클러스터링된 클러스터들 각각에 대해 수행되며, 후보 영역 선정은 클러스터와 인식 물체의 컬러 -히스토그램 비교를 통해 수행된다. Step S140 is performed for each of the clustered clusters in step S120, and candidate region selection is performed by comparing the color and histogram of the cluster and the recognition object.
구체적으로 S140단계는,  Specifically step S140,
11) 클러스터ᅳ 1에서 인식 물체 -1의 컬러-히스토그램과 유사한 컬러 -히스토그램을 갖는 영역이 존재하는 경우, 그 영역을 후보 영역으로 선정하고,  11) If there is an area in the cluster # 1 that has a color-histogram similar to the color-histogram of the recognition object-1, the area is selected as a candidate area,
12) 클러스터 -1에서 인식 물체 -2의 컬러-히스토그램과 유사한 컬러 -히스토그램을 갖는 영역이 존재하는 경우 그 영역을 후보 영역으로 선정하고,  12) In the cluster -1, if there is an area with a color-histogram similar to the color-histogram of the object-2, the area is selected as a candidate area.
In) 클러스터 -1에서 인식 물체 -n의 컬러-히스토그램과 유사한 컬러- -히스토그램을 갖는 영역이 존재하는 경우, 그 영역을 후보 영역으로 선정하고, In) If there is an area with a color-histogram similar to the color-histogram of the recognition object -n in cluster -1, the area is selected as a candidate area,
21) 클러스터 -2에서 인식 물체 -1의 컬러-히스토그램과 유사한 컬러 · -히스토그램을 갖는 영역이 존재하는 경우, 그 영역을 후보 영역으로 선정하고,  21) In the cluster -2, if there is a region with a color-histogram similar to the color-histogram of the recognition object-1, the region is selected as a candidate region,
22) 클러스터 -2에서 인식 물체ᅳ 2의 컬러-히스토그램과 유사한 컬러 · -히스토그램을 갖는 영역이 존재하는 경우, 그 영역을 후보 영역으로 선정하고, 2n) 클러스터 -2에서 인식 물체 -n의 컬러-히스토그램과 유사한 -히스토그램을 갖는 영역이 존재하는 경우, 그 영역을 후보 영역으로 선정하고, kl) 클러스터 -k에서 인식 물체 -1의 컬러-히스토그램과 유사한 컬러-히스토그램을 갖는 영역이 존재하는 경우, 그 영역을 후보 영역으로 선정하고, k2) 클러스터 -k에서 인식 물체 -2의 컬러-히스토그램과 유사한 컬러-히스토그램을 갖는 영역이 존재하는 경우, 그 영역을 후보 영역으로 선정하고, kn) 클러스터 -k에서 인식 물체 -n의 컬러ᅳ히스토그램과 유사한 컬러-히스토그램을 갖는 영역이 존재하는 경우, 그 영역을 후보 영역으로 선정한다. 다음, S140단계에서 1차 선정된 후보 영역과 인식 물체 간의 깊이 표준 편차를 각각 비교하여, 후보 영역들을 2차로 선정한다 (S 150). 22) In the cluster -2, if there is a region with a color-histogram similar to the color histogram of the object # 2, the region is selected as a candidate region, 2n) If there is an area with a -histogram similar to the color-histogram of recognition object -n in cluster -2, the area is selected as a candidate area, and kl) with the color-histogram of recognition object -1 in cluster -k. If there is an area with a similar color-histogram, the area is selected as a candidate area, and k2) if there is an area with a color- histogram similar to the color- histogram of the recognition object -2 in the cluster -k, the area. Is selected as a candidate region, and if there is a region having a color- histogram similar to the color_ histogram of the recognition object -n in kn) cluster -k, the region is selected as the candidate region. Next, the depth standard deviations between the candidate region firstly selected in step S140 and the recognition object are compared, and the candidate regions are secondarily selected (S150).
여기서, 깊이 표준 편차는 픽셀들에 대한 깊이 값들의 표준 편차로, 후보 영역의 깊이 표준 편차는 후보 영역을 구성하는 픽샐들의 깊이 값들에 대한 표준편차이고, 인식 물체의 깊이 표준 편차는 인식 물체의 이미지를 구성하는 픽셀들의 깊이 값들에 대한 표준편차이다.  Here, the depth standard deviation is the standard deviation of the depth values for the pixels, the depth standard deviation of the candidate area is the standard deviation of the depth values of the pixels constituting the candidate area, and the depth standard deviation of the recognition object is an image of the recognition object. The standard deviation of the depth values of the pixels constituting
인식 물체의 깊이 표준 편차는 미리 계산하여 DB에 저장해 놓는 것이 바람직하다. 한편, 표준 편차를 이외의 다른 통계치, 예를 들면, 분산, 평균, 중간값 등으로 대체하는 것도 가능하다.  The depth standard deviation of the recognition object is preferably calculated in advance and stored in the DB. On the other hand, it is also possible to replace the standard deviation with other statistics, for example, variance, mean, median, and the like.
S140단계에서, 1) 클러스터 -1의 일부 영역이 '인식 물체 -1'과 컬러-히스토그램이 유사하여 '후보 영역 -1'로 선정되었고, In step S140, 1) Some areas of cluster -1 were selected as 'candidate area -1' because 'recognition object -1' and color-histogram are similar.
2) 클러스터 -3의 일부 영역이 '인식 물체 -Γ과 컬러-히스토그램이 유사하여 '후보 영역 -2'로 선정되었고,  2) A partial region of the cluster -3 was selected as the candidate region -2 because the recognition object -Γ and the color histogram are similar.
3) 클러스터 -2의 일부 영역이 '인식 물체 -2'와 컬러-히스토그램이 유사하여 '후보 영역 -3'으로 선정되었으며,  3) Some areas of cluster -2 were selected as 'candidate area -3' because 'cognitive object -2' and color- histogram are similar.
4) 클러스터 -4의 일부 영역이 '인식 물체 -2'와 컬러-히스토그램이 유사하여 '후보 영역 -4'으로 선정되었으며,  4) Some areas of the cluster -4 were selected as the candidate area -4 because the recognition object -2 and the color histogram are similar.
5) 클러스터 -3의 일부 영역이 '인식 물체 -3'과 컬러ᅳ히스토그램이 유사하여 '후보 영역 -5'로 선정되었고,  5) Some areas of cluster -3 were selected as 'candidate area -5' because the recognition object -3 and the color ᅳ histogram are similar.
6) 클러스터 -5의 일부 영역이 '인식 물체 -4'와 컬러-히스토그램이 유사하여 '후보 영역 -6'으로 선정었으며,  6) Some areas of cluster -5 were selected as 'candidate area -6' because 'cognitive object -4' and color- histogram are similar.
7) 클러스터 -6의 일부 영역이 '인식 물체 -4'와 컬러-히스토그램이 유사하여 '후보 영역 -7'로 선정된 경우를 가정하면,  7) Assuming that some areas of the cluster -6 are selected as the candidate area -7 because the recognition object -4 and the color-histogram are similar.
S 150에서는  In S 150
1) 후보 영역 -1의 깊이 표준 편차와 인식 물체ᅳ 1의 깊이 표준 편차의 차가 임계치 미만이면,'후보 영역 -1과 인식 물체ᅳ 1'을 선정하고,  1) If the difference between the depth standard deviation of the candidate area -1 and the depth standard deviation of the recognition object # 1 is less than the threshold value, the candidate area-1 and the recognition object # 1 are selected.
2) 후보 영역 -2의 깊이 표준 편차와 인식 물체 -1의 깊이 표준 편차의 차가 임계치 미만이면,'후보 영역 -2와 인식 물체ᅳ 1'을 선정하며,  2) If the difference between the depth standard deviation of the candidate area -2 and the depth standard deviation of the recognition object -1 is less than the threshold value, the candidate area -2 and the recognition object # 1 are selected.
3) 후보 영역 -3의 깊이 표준 편차와 인식 물체 -2의 깊이 표준 편차의 차가 임계치 미만이면, '후보 영역 -3과 인식 물체 -2'를 선정하며, 4) 후보 영역 -4의 깊이 표준 편차와 인식 물체 -2의 깊이 표준 편차의 차가 임계치 미만이면,'후보 영역 -4와 인식 물체 -2'를 선정하고, 3) If the difference between the depth standard deviation of the candidate area -3 and the depth standard deviation of the recognition object -2 is less than the threshold value, the candidate area -3 and the recognition object -2 are selected. 4) If the difference between the depth standard deviation of the candidate area -4 and the depth standard deviation of the recognition object -2 is less than the threshold value, the candidate area -4 and the recognition object -2 are selected.
5) 후보 영역 -5의 깊이 표준 편차와 인식 물체 -3의 깊이 표준 편차의 차가 임계치 미만이면, '후보 영역 -5와 인식 물체— 3'를 선정하며,  5) If the difference between the depth standard deviation of the candidate area -5 and the depth standard deviation of the recognition object -3 is less than the threshold value, the candidate area -5 and the recognition object-3 are selected.
6) 후보 영역 -6의 깊이 표준 편차와 인식 물체 -4의 깊이 표준 편차의 차가 임계치 미만이면,'후보 영역 -6과 인식 물체— 4'를 선정하고,  6) If the difference between the depth standard deviation of the candidate area -6 and the depth standard deviation of the recognition object -4 is less than the threshold, select the candidate area -6 and the recognition object-4,
7) 후보 영역 -7의 깊이 표준 편차와 인식 물체 -4의 깊이 표준 편차의 차가 임계치 미만이면, '후보 영역ᅳ 7과 인식 물체 -4'를 선정하게 된다.  7) If the difference between the depth standard deviation of the candidate area -7 and the depth standard deviation of the recognition object -4 is less than the threshold value, the candidate area # 7 and the recognition object -4 are selected.
이후, S130단계에서의 특징점 매칭 결과에서 S150단계에서 선정된 후보 영역들을 포함하지 않는 클러스터들에 대한 특징점 매칭을 배제하고, 물체 인식을 수행한다 (S160). 즉, S130단계에서의 특징점 매칭 결과 중 S150단계에서 선정된 후보 영역들을 포함하는 클러스터들에 대한 특징점 매칭만을 남기고, 물체 인식을 수행한다.  Subsequently, the object recognition is performed by excluding feature point matching for clusters that do not include candidate regions selected in step S150 from the feature point matching result in step S130 (S160). That is, the object recognition is performed while leaving only the feature point matching for the clusters including the candidate regions selected in step S150 among the feature point matching results in step S130.
S150단계에서, '후보 영역 -1과 인식 물체 -1', '후보 영역 -2와 인식 물체 -1', '후보 영역 -3과 인식 물체 -2', '후보 영역 -5와 인식 물체 -3' 및 '후보 영역— 6과 인식 물체 -4'가 선정된 경우,  In step S150, 'candidate area -1 and recognition object -1', 'candidate area -2 and recognition object -1', 'candidate area -3 and recognition object -2', 'candidate area -5 and recognition object -3' 'And' candidate area— 6 and recognition object -4 'are selected,
후보 영역 -1은 클러스터 -1에 포함되고, 후보 영역 -3은 클러스터 -2에 포함되며, 후보 영역 -2와 후보 영역 -5는 클러스터 -3에 포함되고, 후보 영역 -6은 클러스터 -5에 포함되므로,  Candidate region -1 is included in cluster -1, candidate region -3 is included in cluster -2, candidate region -2 and candidate region -5 are included in cluster -3, and candidate region -6 is included in cluster -5 Included,
S160단계에서는, 클러스터 -1, 클러스터— 2, 클러스터 -3 및 클러스터ᅳ 5에 대한 특징점 매칭만을 남기고, 나머지 클러스터들에 대한 특징점 매칭을 배제하고, 물체 인식을 수행한다 In step S160, only feature point matching for cluster-1, cluster-2, cluster-3, and cluster # 5 is left, except for feature point matching for the remaining clusters, Perform object recognition
한편, 하나의 인식 물체가 다수의 클러스터에서 인식되는 경우, 그 인식 물체는 인식되지 않은 것으로 처뫼할 수 있다 (S170). 구체적으로, 특징점 매칭수가 첫 번째로 많은 클러스터와 두 번째로 많은 클러스터 간에 특징점 매칭수의 비율이 특정 범위 내인 인식 물체는, 인식되지 않은 것으로 처리하는 것이다.  On the other hand, when one recognized object is recognized in a plurality of clusters, the recognized object may be treated as not recognized (S170). Specifically, a recognition object in which the ratio of the feature point matching number between the first cluster with the highest feature point matching number and the second largest cluster within a specific range is treated as not recognized.
예를 들어, 인식 물체— 1이 클러스터 -1과의 특징점 매칭수 (①)가 "100"이고, 클러스터 -3과의 특징점 매칭수 (②)가 "90"인 경우와 같이, 두 번째 매칭수 (②)가 첫 번째 매칭수 (①)의 80% 이상이서 인식 물체 -1이 클러스터 -1과 클러스터 -3 모두에서 인식된 것으로 취급할 수 있는 경우, 인식 물체 -1은 인식되지 않은 것으로 처리한다.  For example, the second matching number is the same as in the case where the recognition object—1 has a feature point matching number (①) of cluster −1 is “100” and a feature point matching number (②) of cluster −3 is “90”. If (②) is 80% or more of the first matching number (①) and the recognition object -1 can be treated as recognized in both cluster -1 and cluster -3, the recognition object -1 is treated as not recognized. .
동일한 인식 물체가 다수의 클러스터에 인식되는 것은 실제 그런 것보다, 영상 인식 과정에서의 오류에 기인했을 확률이 더 높기 때문이며, 잘못된 인식을 미연에 방지하기 위함이다.  The same recognition object is recognized in multiple clusters because it is more likely to be due to an error in the image recognition process than it actually is, and to prevent false recognition in advance.
또한, 컬러-이미지의 적어도 하나의 클러스터에서 다수의 인식 물체가 인식되는 경우, 특징점 매칭수 상위 2개의 클러스터와 인식 물체들 간의 컬러-상관도를 비교하여 하나의 인식 물체만을 선정하고, 선정된 인식 물체가 인식된 것으로 처리한다 (S180).  In addition, when a plurality of recognition objects are recognized in at least one cluster of the color-image, only one recognition object is selected by comparing the color correlation between the two clusters with the highest feature point matching number and the recognition objects, and the selected recognition is performed. The object is processed as recognized (S180).
예를 들어, 인식 물체 -2와 클러스터 -2의 특징점 매칭수 (③)가 "90"이고, 인식 물체 -3과 클러스터 -3의 특징점 매칭수 (④)가 "60"이며, 인식 불체 -4와 클러스터 -5의 특징점 매칭수 (⑤)가 "70"인 경우와 같이, 두 번째 매칭수 (⑤)가 첫 번째 매칭수 (③)의 70% 이상이서 컬러—이미지에서 인식 물체 -2와 인식 물체 -4가 모두 인식된 것으로 취급할 수 있는 경우이다. For example, the feature point matching number ③ of the recognition object -2 and the cluster -2 is "90", the feature point matching number (④) of the recognition object -3 and the cluster -3 is "60", and the recognition object -4 The second matching number (⑤) is more than 70% of the first matching number (③), as in the case where the characteristic point matching number (⑤) of the cluster-5 is " 70 " Object -4 All of them can be treated as recognized.
이 경우에는, '인식 물체 -2와 클러스터—2의 컬러—상관도 '와 '인식 물체 -4와 클러스터 -5의 컬러-상관도 '를 비교하고, 컬러-상관도가 큰 인식 물체가 컬러 -이미지에서 인식된 것으로 처리하는 것이다.  In this case, the color-correlation of recognition object -2 and cluster-2 is compared with the color-correlation of recognition object -4 and cluster -5. It's what's recognized in the image.
만약, 인식 물체—2와 클러스터 -2의 특징점 매칭수 (③)가 "90"이고, 인식 물체 -3과 클러스터 -3의 특징점 매칭수 (④)가 "40"이며, 인식 물체 -4와 클러스터 -5의 특징점 매칭수 (⑤)가 "30"인 경우와 같이, 두 번째 매칭수 (④)가 첫 번째 매칭수 (③)의 70% 미만인 경우에는, 컬러-상관도 비교 없이, 매칭수가 가장 많은 인식 물체 -2가 컬러-이미지의 클러스터 -2에서 인식된 것으로 처리한다.  If the feature point matching number ③ of the recognition object—2 and the cluster-2 is “90”, the feature point matching number ④ of the recognition object −3 and the cluster −3 is “40”, and the recognition object −4 and the cluster If the second matching number (④) is less than 70% of the first matching number (③), such as the case where the characteristic point matching number (⑤) of -5 is "30", the matching number is the most without the color correlation. Many recognition objects -2 treat as recognized in cluster -2 of color-images.
지금까지, 깊이 정보를 이용한 물체 인식 방법의 전체 과정에 대해 상세히 설명하였다. 이하에서, 물체 인식 방법을 구성하는 각 단계들에 대해 상세히 설명한다.  So far, the entire process of the object recognition method using depth information has been described in detail. Hereinafter, each step of configuring the object recognition method will be described in detail.
2. Depth Proximity Clustering (도 1의 S120) 2. Depth Proximity Clustering (S120 in FIG. 1)
Depth Proximity Clustering은 S120단계에서의 클러스터링을 명명한 것으로, 복잡한 배경으로 인해 발생하는 특징점 매칭의 부정확도를 줄이기 위해, 컬러-이미지를 물체와 배경으로 분리하여 클러스터링한다.  Depth Proximity Clustering refers to clustering in step S120. In order to reduce the inaccuracy of feature point matching caused by a complex background, color-image is divided into an object and a background and clustered.
클러스터링은 K-means 클러스터링올 웅용하여, 깊이 정보와 위치 정보를 참조로 깊이가 비슷하고 거리가 가까운 픽섹들이 하나의 클러스터에 클러스터링할 수 있는데, 구체적으로 아래의 수학식 1에 따라 수행가능하다.  Clustering may be performed using K-means clustering all, and similarly close and close distances may be clustered in one cluster with reference to depth information and location information. Specifically, the clustering may be performed according to Equation 1 below.
【수학식 1】 k [Equation 1] k
args min ^ H xi - ^ II arg s min ^ H x i-^ II
i Xj^Sj  i Xj ^ Sj
여기서, k는 클러스터링의 개수, 는 i번째 클러스터의 ¾의 기하학적 중심ᅳ Xj는 [c x, a2y, a3d]로 표현되는 백터이다. x와 y는 픽샐의 x좌표와 y좌표이고, d는 깊이 값이다. a1; a2 및 a3은 가중치로, 픽샐의 위치 (xᅳ y) 보다 깊이에 의한 영향을 더 반영하기 위해, (^=0.05, a2 = 0.05 및 a3 = 0.9로 설정함이 바람직하지만, 필요에 따라 변경가능함은 물론이다. Where k is the number of clustering, is the geometric center of ¾ of the i th cluster, and Xj is a vector expressed by [cx, a 2 y, a 3 d]. x and y are the x and y coordinates of the pixel, and d is the depth value. a 1; a 2 and a 3 are weights, and are preferably set to (^ = 0.05, a 2 = 0.05 and a 3 = 0.9 to reflect the effect of depth more than the position of the pixel (x ᅳ y). Of course, it can be changed accordingly.
도 2의 좌측 상부에는 특정 공간에 대한 컬러-이미지 나타내었고 (도면 규격 상의 제한으로 인해, 부득이하게 혹백-이미지로 변환하여 나타냄), 좌측 하부에는 그 특정 공간에 대한 깊이-이미지를 나타내었으며, 우측에는 Depth Proximity Clustering 결과를 나타내었다.  In the upper left part of FIG. 2, a color-image of a specific space is shown (in case of inevitably converted to a hog-image due to the limitation of drawing standards), and in the lower left, a depth-image of the specific space is shown. Shows the Depth Proximity Clustering results.
3. Color Histogram based Object Detection (도 1의 S140) 3.Color Histogram based Object Detection (S140 of FIG. 1)
특징점이 많이 존재하지 않는 균일한 물체를 복잡한 배경에서 물체 인식을 할 경우 잘못된 특징점 매칭이 많이 나타난다. 따라서, 본 실시예에서는 color histogram back— projection을 이용한 물체 탐지 알고리즘을 사용하여, 클러스터 내에서도 인식 물체가 존재할 가능성이 높은 일부 영역을 후보 영역으로 선정하도록 하였다.  When an object is recognized in a complex background with a uniform object that does not have many feature points, a lot of faulty feature point matching appears. Therefore, in the present embodiment, the object detection algorithm using color histogram back projection is used to select a region where a recognition object is likely to exist even in a cluster as a candidate region.
도 3에는 도 2의 클러스터링 결과에 나타난 클러스터들에 대해 Color Histogram based Object Detection 하여 선정한 3개의 후보 영역을 컬러-이미지 (도면 규격 상의 제한으로 인해, 부득이하게 흑백-이미지로 변환하여 나타냄)에 나타내었다. In FIG. 3, three candidate regions selected by Color Histogram based Object Detection for the clusters shown in the clustering result of FIG. Indicated).
4. Equality Test of Standard Deviation (도 1의 SI 50) 4.Equality Test of Standard Deviation (SI 50 of FIG. 1)
Equality Test of Standard Deviation는 Color Histogram based Object Detection을 통해 선정된 후보 영역들과 인식 물체들에 대해 깊이 표준 편차를 비교하여, 인식 물체가 존재할 가능성이 높은 후보 영역들을 검증 또는 재선정하는 절차로 이해될 수 있다.  The Equality Test of Standard Deviation can be understood as a procedure for verifying or reselecting candidate areas where recognition objects are likely to exist by comparing depth standard deviations between candidate areas selected through Color Histogram based Object Detection and recognition objects. have.
도 4에는 인식 물체들인 책, 인형, 쿠션에 대한 깊이 표준 편차를 나타내었다. 도 4에 도시된 바와 같이 하나의 물체에 대한 깊이 표준 편차는 물체의 모양과 상관없이 대부분 가우시안 분포 (Gaussian distribution)를 따른다. 따라서, 인식 물체와 후보 영역의 랜덤 샘플이 정규 분포를 따른다고 가정할 경우 표준편차의 비율은 F분포를 따른다. 그리고, 신뢰도는 α이고, 자유도는 ηχ-1, ny-l이며, 자유도는 랜덤 샘플의 개수로 설정할 경우 다음과 같은 신뢰 구간을 갖는데, 신뢰 구간을 벗어나는 매칭은 제거되고 나머지가 신뢰할 수 있는 매칭으로 간주된다. Figure 4 shows the depth standard deviation for the recognition objects, books, dolls, cushions. As shown in FIG. 4, the depth standard deviation for an object mostly follows a Gaussian distribution regardless of the shape of the object. Therefore, assuming that the random sample of the recognition object and the candidate area follows a normal distribution, the ratio of the standard deviation follows the F distribution. And, the reliability is α, the degrees of freedom are η χ -1, n y -l, the degrees of freedom have the following confidence interval when set to the number of random samples, matching beyond the confidence interval is removed and the rest is reliable It is considered a match.
신뢰 구간 : (F α/2χ-1, _1 FQ/2,nx-l,ny-l) Confidence interval: (F α / 2 , η χ -1, _1 F Q / 2, n x -l, n y -l)
5. Depth Layered Feature Matching with Geometric Constraints (도 1의5.Depth Layered Feature Matching with Geometric Constraints (FIG. 1
S160) S160)
S130단계에서의 특징점 매칭으로, 스케일과 회전에 불변한 특징점 매칭 기법을 사용함이 바람직한데, 다른 종류의 특징점 매칭 기법을 사용하는 것을 배제하는 것은 아니다. As a feature point matching in step S130, it is preferable to use a feature point matching technique that is invariant to scale and rotation, and to use another type of feature point matching technique. It is not excluded.
한편, 렌즈에 의해 발생하는 radial distortion을 고려하지 않을 경우, 일반적으로 두 이미지 간의 관계는 하나의 행렬로 표현할 수 있다. 이미지에서 대웅점들이 건물 벽과 같은 평면상에 여러 개가 존재하는 경우 하나의 평면상에 존재하는 것으로 근사할 수 있으며 이 관계를 Homography라고 한다.  On the other hand, when not considering the radial distortion caused by the lens, in general, the relationship between the two images can be expressed as a matrix. In the image, when there are several large points on the same plane as the building wall, it can be approximated to exist on one plane and this relationship is called Homography.
Depth Proximity Clustering을 통해 생성된 클러스터와 인식 물체 간의 homography는, 인식 물체와 배경의 특징점 매칭이 배제되기 때문에, 컬러-이미지와 인식 물체 간의 homography보다 정확하다.  The homography between the cluster and the recognition object generated through Depth Proximity Clustering is more accurate than the homography between the color-image and the recognition object because the matching of the feature point of the recognition object and the background is excluded.
이어 1더 나0 Color Histogram based Object Detection과 Equality Test of Standard Deviation (도 1의 S140 및 S150)을 통해 선정한 후보 영역들을 포함하는 클러스터들과 인식 물체 간의 homography는, 인식 물체와 배경의 특징점 매칭이 더욱 더 배제되기 때문에, 클러스터와 인식 물체 간의 homography보다 정확하다. Subsequently, homography between clusters containing candidate regions selected through 1 or 0 Color Histogram based Object Detection and Equality Test of Standard Deviation (S140 and S150 in FIG. Because it is more excluded, it is more accurate than homography between clusters and recognition objects.
6. Final decision with consistency check(£ 1의 S170 및 SI 80) 6. Final decision with consistency check (S170 and SI 80 of £ 1)
Final decision with consistency check는, 하나의 인식 물체 7]· 다수의 클러스터에서 인식되는 경우와 컬러 -이미지에서 다수의 인식 물체가 인식되는 경우, 최종적인 물체 인식을 위한 절차이다.  Final decision with consistency check is a procedure for final object recognition when one recognition object is recognized in multiple clusters and when multiple recognition objects are recognized in a color-image.
하나의 인식 물체가 다수의 클러스터에서 인식되는 경우를 도 5와 도 6에 예시하였다 (도면 규격 상의 제한으로 인해, 부득이하게 혹백-이미지로 변환하여 나타냄). 도 5와 도 6에 도시된 바에 따르면ᅳ 인식 물체인 "쿠션 "이 각기 다른 클러스터들에서 많은 특징점 매칭수를 보이고 있음을 확인할 수 있다. 전술했던 바와 같이, 양자 간에 특징점 매칭수의 비율이 특정 범위 내이면, 컬러 -이미지에서 "쿠션 "은 인식되지 않은 것으로 처리한다. 컬러 -이미지에서 다수의 인식 물체가 인식되는 경우를 도 7과 도 8에 예시하였다 (도면 규격 상의 제한으로 인해, 부득이하게 혹백-이미지로 변환하여 나타냄 도 7과 도 8에는, 컬러 -이미지에서 특징점 매칭수가 상위 2개인 "책"과 "인형 "에 대한 특징점 매칭이 나타나 있다. 양자 간에 특징점 매칭수의 비율이 특정 범위 밖이면, 예를 들어 "책"과 클러스터 간 특징점 매칭수가 "인형''과 클러스터 간 특징점 매칭수 보다 현저히 많은 경우, "책"이 인식된 것으로 취급한다. 반면, 양자 간에 특징점 매칭수의 비율이 특정 범위 내이면, 클러스터와 "책" 간의 컬러 _상관도와 클러스터와 "인형" 간의 컬러-상관도를 비교하여, 컬러-상관도가 큰 인식 물체가 클러스터 내에서 인식된 것으로 처리한다. 7. 깊이 정보를 이용한물체 인식 #2 The case where one recognition object is recognized in a plurality of clusters is illustrated in FIGS. 5 and 6. As shown in FIGS. 5 and 6, it can be seen that the recognition object "cushion" shows a large number of feature point matchings in different clusters. As mentioned above As such, if the ratio of the number of feature point matches between both is within a certain range, the "cushion" in the color-image is treated as not recognized. 7 and 8 illustrate a case where a large number of recognition objects are recognized in a color image (represented by inevitably converting to a hog-image due to limitations in drawing standards). Feature point matching for "book" and "doll" with the top two matching numbers is shown. If the ratio of feature point matching between the two is outside the specified range, for example, the feature number matching between "book" and cluster is equal to "doll". If the number of feature point matches between clusters is significantly greater than the number of feature points matching between clusters, the "book" is considered recognized, whereas if the ratio of the number of feature points matching between the two is within a certain range, the color_correlation between cluster and "book" and the cluster and "doll" By comparing the color-correlation between the two objects, a recognition object with a large color-correlation is recognized as being recognized in a cluster 7. Object recognition using depth information # 2
이하에서는, 본 발명의 다른 실시예에 따른 깊이 정보를 이용한 물체 인식 방법의 설명에 대해 도 9를 참조하여 설명하되, 전술한 설명과 동일한 부분에 대해서는 그 설명을 간략히 하겠다. 도 9에 도시된 바와 같이, 먼저 컬러-이미지와 깊이-이미지를 획득한다 (S210). 이후, 깊이-이미지에 나타난 깊이 정보를 기초로, 컬러-이미지를 다수의 클러스터들로 클러스터링한다 (S220).  Hereinafter, a description of an object recognition method using depth information according to another exemplary embodiment of the present invention will be described with reference to FIG. 9, and the same parts as the above description will be briefly described. As shown in FIG. 9, first, a color-image and a depth-image are obtained (S210). Thereafter, the color-image is clustered into a plurality of clusters based on the depth information indicated in the depth-image (S220).
이후, 클러스터들 내의 일부 영역들을 후보 영역들로 1차 선정한다 (S230). S230단계는, S220단계에서 클러스터링된 클러스터들 각각에 대해 수행되며, 후보 영역 선정은 클러스터와 인식 물체의 컬러 -히스토그램 비교를 통해 수행된다. Thereafter, some regions in the clusters are first selected as candidate regions (S230). In operation S230, each of the clustered clusters is performed in operation S220, and the candidate region selection is performed by comparing the color and histogram of the cluster and the recognition object.
다음, 후보 영역들 각각과 인식 물체들 각각에 대해 특징점 매칭을 수행한다 (S240). 도 9의 S240단계에서의 특징점 매칭은 "후보 영역"과 인식 물체 간의 특징점 매칭이라는 점에서, 도 1의 S130단계에서의 "클러스터"와 인식 물체 간의 특징점 매칭과 차이가 있다.  Next, feature point matching is performed on each of the candidate areas and each of the recognition objects (S240). The feature point matching in step S240 of FIG. 9 is a feature point matching between the "candidate area" and the recognition object, which is different from the feature point matching between the "cluster" and the recognition object in step S130 of FIG.
이후, S230단계에서 1차 선정된 후보 영역과 인식 물체 간의 깊이 표준 편차가 유사한 후보 영역들을 2차로 선정한다 (S250).  Subsequently, candidate regions similar in depth standard deviation between the candidate region firstly selected in step S230 and the object to be recognized are secondarily selected (S250).
다음, S240단계에서의 특징점 매칭 결과에서 S250단계에서 선정된 "후보 영역들" 밖에서 이루어진 특징점 매칭을 배제하고, 물체 인식을 수행한다 (S260). 즉, S240단계에서의 특징점 매칭 결과 중 S250단계에서 선정된 후보 영역들에 포함된 특징점 매칭만을 남기고, 물체 인식을 수행한다.  Next, the feature point matching is excluded from the feature point matching in step S240 and the object point matching performed outside the "candidate regions" selected in step S250 is performed (S260). That is, object recognition is performed while leaving only the feature point matchings included in the candidate areas selected in step S250 among the feature point matching results in step S240.
S260단계에서 배제되는 특징점 매칭들은 2차 선정된 후보 영역들 밖에서 이루어진 특징점 매칭이라는 점에서, 2차 선정된 후보 영역들을 포함하는 클러스터들 밖에서 이루어진 특징점 매칭을 배제하는 도 1의 S160단계와 차이가 있다.  Feature point matching excluded in step S260 is different from step S160 in FIG. 1 to exclude feature point matching made outside clusters including the second selected candidate areas in that the feature point matchings are made outside the second selected candidate areas. .
한편, 하나의 인식 물체가 다수의 "후보 영역"에서 인식되는 경우, 그 인식 물체는 인식되지 않은 것으로 처리할 수 있다 (S270). 구체적으로, 특징점 매칭수가 첫 번째로 많은 후보 영역과 두 번째로 많은 후보 영역 간에 특징점 매칭수의 비율이 특정 범위 내인 인식 물체는, 인식되지 않은 것으로 처리하는 것이다.  On the other hand, when one recognized object is recognized in a plurality of "candidate areas", the recognized object may be treated as not recognized (S270). Specifically, a recognition object in which the ratio of the feature point matching number between the first candidate region with the greatest number of feature point matches and the second candidate region is within a specific range is treated as not recognized.
또한, 컬러-이미지의 적어도 하나의 후보 영역에서 다수의 인식 물체가 인식되는 경우, 특징점 매칭수가 상위 2개인 후보 영역과 인식 물체들 간의 컬러-상관도를 비교하여 하나의 인식 물체만올 선정하고, 선정된 인식 물체가 인식된 것으로 처리한다 (S280). In addition, in the at least one candidate region of the color-image, a plurality of recognition objects If it is recognized, only one recognition object is selected by comparing the color-correlation between the candidate regions having the top two feature point matching numbers and the recognition objects, and the selected recognition object is processed as being recognized (S280).
구체적으로, S280단계도, 특징점 매칭수가 첫 번째로 많은 인식 물체와 두 번째로 많은 인식 물체 간에 특징점 매칭수의 비율이 특정 범위 내인 후보 영역에 대해서만 수행한다. 그렇지 않으면, 특징점 매칭수가 첫 번째로 많은 인식 물체가 인식된 것으로 처리한다.  Specifically, in step S280, only the candidate region having the ratio of the feature point matching number between the first recognition object with the highest number of feature points and the second recognition object within a specific range is performed. Otherwise, the recognition object with the highest number of feature point matches is treated as recognized.
S270단계와 S280단계에서 처리 기준은 후보 영역이라는 점에서, 처리 기준이 클러스터인 도 1의 S170단계 및 S180단계와 차이가 있다.  The processing criteria in steps S270 and S280 are different from those in steps S170 and S180 of FIG. 1, in which the processing criteria are clusters.
8. 깊이 정보를 이용한물체 인식 #3 8. Object Recognition Using Depth Information # 3
이하에서는, 본 발명의 또 다른 실시예에 따른 깊이 정보를 아용한 물체 인식 방법의 설명에 대해 도 10을 참조하여 설명한다.  Hereinafter, a description will be given of an object recognition method using depth information according to another embodiment of the present invention with reference to FIG. 10.
도 10에 도시된 물체 인식 방법은, 후보 영역 1차 선정 및 2차 선정을 수행한 후에 (S330, S340), 2차 선정된 후보 영역들 각각과 인식 물체들 각각에 대해 특징점 매칭을 수행하여 (S350), 물체를 인식한다 (S360)는 점에서, 도 9에 도시된 물체 인식 방법과 차이가 있을 뿐, 나머지 사항은 동일하므로 이에 대한 상세한 설명은 생략한다.  In the object recognition method illustrated in FIG. 10, after performing primary and secondary selection of candidate regions (S330 and S340), feature point matching is performed on each of the secondary selected candidate regions and each of the recognition objects (S330 and S340). In operation S350, the object is recognized in operation S360, which is different from the object recognition method illustrated in FIG. 9, and the rest thereof are the same, and thus a detailed description thereof will be omitted.
9.물체 인식 장치 9.Object recognition device
도 11은 도 1, 도 9 및 도 10에 도시된 물체 인식 방법을 수행할 수 있는 물체 인식 장치를 도시한 도면이다. 도 11에 도시된 바와 같이, 본 발명이 적용가능한 물체 인식 장치는, RGB-카메라 (210), D-카메라 (420), 프로세서 (430), 저장부 (440) 및 디스플레이 (450)를 구비한다. FIG. 11 may perform the object recognition method illustrated in FIGS. 1, 9, and 10. It is a figure which shows the object recognition apparatus. As shown in FIG. 11, the object recognition apparatus to which the present invention is applicable includes an RGB camera 210, a D-camera 420, a processor 430, a storage 440, and a display 450. .
RGB-카메라 (410)는 컬러-이미지를 생성하고, D-카메라 (420)는 깊이-이미지를 생성한다. RGB-카메라 (410)와 D-카메라 (420)는 도 11에 도시된 바와 같이 별도로 구성할 수도 있지만, 하나의 카메라로 구성할 수도 있다.  RGB-camera 410 produces a color-image, and D-camera 420 produces a depth-image. The RGB-camera 410 and the D-camera 420 may be configured separately as shown in FIG. 11, but may also be configured as one camera.
저장부 (440)에는 인식 물체들의 이미지들이 DB화 되어 있다. 한편, 저장부 (440)에는 인식 물체들에 대한 깊이 표준 편차들도 함께 DB화 되어 있다. 프로세서 (430)는 RGB-카메라 (410)에서 생성된 컬러-이미지, In the storage unit 440, images of recognition objects are DBized. On the other hand, the storage unit 440 is also a DB of the depth standard deviations for the recognition objects. Processor 430 is a color-image generated by the RGB camera 410,
D-카메라 (420)에서 생성된 깊이-이미지 및 저장부 (440)에는 저장된 인식 물체들을 이용하여, 도 1, 도 9 및 도 10에 도시된 물체 인식 방법을 수행한다. The depth-image generated by the D-camera 420 and the storage unit 440 perform the object recognition method illustrated in FIGS. 1, 9, and 10 by using the stored recognition objects.
디스플레이 (450)에는 RGB-카메라 (410)에 의해 생성된 컬러-이미지가 표시되는데, D-카메라 (420)에 의해 생성된 깊이-이미지를 이용하여 입체-이미지로 표시될 수도 있다. 또한, 디스플레이 (450)에는 프로세서 (430)에 의해 수행된 물체 언식 결과가 디스플레이된다. 또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어져서는 안될 것이다. Display 450 shows a color-image generated by RGB camera 410, which may be displayed as a stereo-image using depth-image generated by D-camera 420. In addition, the display 450 displays an object recognition result performed by the processor 430. In addition, although the preferred embodiment of the present invention has been shown and described above, the present invention is not limited to the specific embodiments described above, the technical field to which the invention belongs without departing from the spirit of the invention claimed in the claims Of course, various modifications can be made by those skilled in the art, and these modifications can be individually understood from the technical spirit or the prospect of the present invention. I will not.

Claims

【청구의 범위】 [Range of request]
【청구항 1】  [Claim 1]
컬러-이미지와 깊이-이미지를 획득하는 단계;  Obtaining a color-image and a depth-image;
깊이-이미지에 나타난 깊이 정보를 기초로, 컬러-이미지를 다수의 클러스터들로 클러스터링하는 단계; 및  Clustering the color-image into a plurality of clusters based on the depth information indicated in the depth-image; And
클러스터링된 클러스터들을 기반으로, 물체 인식을 수행하는 단계;를 포함하는 것을 특징으로 하는 물체 인식 방법.  Based on the clustered clusters, performing object recognition.
【청구항 2】 [Claim 2]
제 1항에 있어서,  The method of claim 1,
물체 인식 수행 단계는,  The object recognition step is
클러스터들 각각과 인식 물체들 각각에 대해 특징점 매칭을 수행하는 단계; 클러스터들 내의 일부 영역들을 후보 영역들로 선정하는 단계; 및  Performing feature point matching on each of the clusters and each of the recognition objects; Selecting some regions in the clusters as candidate regions; And
선정된 후보 영역들을 포함하는 클러스터들 밖에서 이루어진 특징점 매칭을 배제하고, 물체 인식을 수행하는 단계;를 포함하는 것을 특징으로 하는 물체 인식 방법.  And performing object recognition excluding feature point matching made outside clusters including the selected candidate regions.
【청구항 3】 [Claim 3]
계 1항에 있어서,  The method according to claim 1,
물체 인식 수행 단계는,  The object recognition step is
클러스터들 내의 일부 영역들을 후보 영역들로 선정하는 단계; 후보 영역들 각각과 인식 물체들 각각에 대해 특징점 매칭올 수행하는 단계; Selecting some regions in the clusters as candidate regions; Performing feature point matching on each of the candidate areas and each of the recognition objects;
특징점 매칭 결과를 이용하여, 물체 인식을 수행하는 단계;를 포함하는 것을 특징으로 하는 물체 인식 방법. And performing object recognition using the feature point matching result.
【청구항 4】 [Claim 4]
제 2항 또는 제 3항에 있어서,  The method according to claim 2 or 3,
후보 영역 선정 단계는,  Candidate area selection step is
클러스터들 각각에 대한 컬러-히스토그램들과 인식 물체들 각각에 대한 컬러-히스토그램들을 비교하여, 클러스터들 내의 일부 영역들을 후보 영역들로 선정하는 제 1 선정 단계; 및  A first selecting step of comparing the color histograms for each of the clusters with the color histograms for each of the recognition objects, and selecting some regions in the clusters as candidate regions; And
제 1 선정 단계에서 선정된 후보 영역과 인식 물체의 깊이 통계치들을 비교하고, 통계치 차가 임계치 미만인 후보 영역과 인식 물체를 선정하는 제 2 선정단계;를 포함하는 것을 특징으로 하는 물체 인식 방법.  And a second selection step of comparing the depth statistics of the recognition region and the recognition object selected in the first selection step, and selecting the candidate region and the recognition object having a statistical difference less than a threshold value.
【청구항 5】 [Claim 5]
제 1항에 있어서,  The method of claim 1,
물체 인식 수행 단계는,  The object recognition step is
클러스터들 내의 일부 영역들을 후보 영역들로 선정하는 제 1 선정 단계;  A first selecting step of selecting some regions in the clusters as candidate regions;
제 1 선정단계에서 선정된 후보 영역들 각각과 인식 물체들 각각에 대해 특징점 매칭을 수행하는 단계; 제 1 선정단계에서 선정된 후보 영역들 중 일부를 다시 선정하는 제 2 선정 단계; 및 Performing feature point matching on each of the candidate regions selected in the first selecting step and each of the recognition objects; A second selecting step of selecting again some of the candidate areas selected in the first selecting step; And
제 2 선정 단계에서 선정된 후보 영역들 밖에서 이루어진 특징점 매칭을 배제하고, 물체 인식을 수행하는 단계;를 포함하는 것을 특징으로 하는 물체 인식 방법.  And excluding object point matching made outside of the candidate regions selected in the second selection step, and performing object recognition.
【청구항 6】 [Claim 6]
제 1항에 있어서,  The method of claim 1,
다수의 클러스터에서 인식된 인식 물체는 인식되지 않은 것으로 처리하는 단계;를 더 포함하는 것을 특징으로 하는 물체 인식 방법.  And processing the recognized object recognized in the plurality of clusters as not recognized.
【청구항 7】 [Claim 7]
제 1항에 있어서,  The method of claim 1,
컬러 -이미지에서 다수의 인식 물체가 인식되는 경우, 클러스터와 인식 물체들 간의 컬러-상관도를 비교하여, 하나의 인식 물체를 선정하여 인식된 것으로 처리하는 단계;를 더 포함하는 것을 특징으로 하는 물체 인식 방법.  If a plurality of recognition objects are recognized in the color-image, comparing the color-correlation between the cluster and the recognition objects, selecting one recognition object, and processing the recognized object as a recognized object; Recognition method.
【청구항 8】 [Claim 8]
컬러-이미지와 깊이-이미지를 획득하는 카메라;  A camera for acquiring color- and depth-images;
인식 물체들의 이미지가 DB화 되어 있는 저장부; 및  A storage unit in which images of recognition objects are made into a DB; And
깊이-이미지에 나타난 깊이 정보를 기초로 컬러-이미지를 다수의 클러스터들로 클러스터링하고, 클러스터링된 클러스터들을 기반으로
Figure imgf000026_0001
수행하는 프로세서;를 포함하는 것을 특징으로 하는 물체 인식 장치.
Depth-Based on the depth information shown in the image, Cluster into clusters, based on clustered clusters
Figure imgf000026_0001
And a processor for performing the object recognition apparatus.
PCT/KR2012/003840 2012-05-16 2012-05-16 Method and device for recognizing object by using depth information WO2013172491A1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/KR2012/003840 WO2013172491A1 (en) 2012-05-16 2012-05-16 Method and device for recognizing object by using depth information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/KR2012/003840 WO2013172491A1 (en) 2012-05-16 2012-05-16 Method and device for recognizing object by using depth information

Publications (1)

Publication Number Publication Date
WO2013172491A1 true WO2013172491A1 (en) 2013-11-21

Family

ID=49583886

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2012/003840 WO2013172491A1 (en) 2012-05-16 2012-05-16 Method and device for recognizing object by using depth information

Country Status (1)

Country Link
WO (1) WO2013172491A1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255057A (en) * 1997-03-06 1998-09-25 Matsushita Electric Ind Co Ltd Mobile object extracting device
JP2010514064A (en) * 2006-12-21 2010-04-30 本田技研工業株式会社 Human posture estimation and tracking using labeling
JP2010257267A (en) * 2009-04-27 2010-11-11 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for detecting object area
WO2011080282A1 (en) * 2009-12-28 2011-07-07 Softkinetic Tracking method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10255057A (en) * 1997-03-06 1998-09-25 Matsushita Electric Ind Co Ltd Mobile object extracting device
JP2010514064A (en) * 2006-12-21 2010-04-30 本田技研工業株式会社 Human posture estimation and tracking using labeling
JP2010257267A (en) * 2009-04-27 2010-11-11 Nippon Telegr & Teleph Corp <Ntt> Device, method and program for detecting object area
WO2011080282A1 (en) * 2009-12-28 2011-07-07 Softkinetic Tracking method

Similar Documents

Publication Publication Date Title
WO2017092431A1 (en) Human hand detection method and device based on skin colour
US8600162B2 (en) Image identification device, image identification method and recording medium
CN102902959B (en) Face recognition method and system for storing identification photo based on second-generation identity card
EP3249579B1 (en) Object recognition apparatus, objection recognition method, and program
CN111368683B (en) Face image feature extraction method and face recognition method based on modular constraint CenterFace
CN103207898B (en) A kind of similar face method for quickly retrieving based on local sensitivity Hash
Ok et al. Circular oil tank detection from panchromatic satellite images: A new automated approach
JP5929896B2 (en) Image recognition system, image recognition method, and image recognition program
JP5521676B2 (en) Image processing apparatus and image processing program
US20140192158A1 (en) Stereo Image Matching
EP2486514A1 (en) Face recognition in digital images
JP2005316973A (en) Red-eye detection apparatus, method and program
CN108710916B (en) Picture classification method and device
JP2003030667A (en) Method for automatically locating eyes in image
CN111191655A (en) Object identification method and device
Vignesh et al. Face image quality assessment for face selection in surveillance video using convolutional neural networks
CN110765976B (en) Generation method of human face characteristic points, training method of data network and related device
KR101916460B1 (en) Object recognition method and apparatus using depth information
Lu et al. Contour box: Rejecting object proposals without explicit closed contours
CN111832405A (en) Face recognition method based on HOG and depth residual error network
CN111652292A (en) Similar object real-time detection method and system based on NCS and MS
CN107832359B (en) Picture retrieval method and system
Gankin et al. Iris image segmentation based on approximate methods with subsequent refinements
Paul et al. Rotation invariant multiview face detection using skin color regressive model and support vector regression
Zeng et al. Automated extraction of PCB components based on specularity using layered illumination

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12876607

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12876607

Country of ref document: EP

Kind code of ref document: A1