KR20160121481A - Object recognition system and method the same - Google Patents

Object recognition system and method the same Download PDF

Info

Publication number
KR20160121481A
KR20160121481A KR1020160128906A KR20160128906A KR20160121481A KR 20160121481 A KR20160121481 A KR 20160121481A KR 1020160128906 A KR1020160128906 A KR 1020160128906A KR 20160128906 A KR20160128906 A KR 20160128906A KR 20160121481 A KR20160121481 A KR 20160121481A
Authority
KR
South Korea
Prior art keywords
feature vectors
common
feature
matching
right images
Prior art date
Application number
KR1020160128906A
Other languages
Korean (ko)
Other versions
KR101715782B1 (en
Inventor
이지효
윤국진
한우섭
Original Assignee
삼성전자주식회사
광주과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사, 광주과학기술원 filed Critical 삼성전자주식회사
Priority to KR1020160128906A priority Critical patent/KR101715782B1/en
Publication of KR20160121481A publication Critical patent/KR20160121481A/en
Application granted granted Critical
Publication of KR101715782B1 publication Critical patent/KR101715782B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • G06T7/0022
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures

Abstract

The present invention relates to an object recognizing system and an object recognizing method thereof which extract right and left feature vectors from a stereo image generated from an object, find a robust feature vector coexisting in the extracted right and left feature vectors, and compare information of the right and left feature vectors and the robust feature vector with information stored in a database to extract information on the name of the object so as to recognize the object. Therefore, the object recognizing system provides improved object recognizing performance.

Description

물체 인식 시스템 및 그 물체 인식 방법{OBJECT RECOGNITION SYSTEM AND METHOD THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to an object recognition system,

본 발명은 물체 인식 시스템 및 그 물체 인식 방법에 관한 것으로, 더욱 상세하게는 스테레오 카메라로부터 주어진 좌우 영상 정보로부터 물체를 인식하는 물체 인식 장치 및 그 물체 인식 방법에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object recognition system and an object recognition method thereof, and more particularly, to an object recognition apparatus and an object recognition method for recognizing an object from left and right image information given from a stereo camera.

일반적으로 기존의 컴퓨터 비전 분야에서의 물체 인식은 오프라인에서 인식하고자 하는 물체들의 데이터베이스를 구축하여 훈련과정을 거쳐 등록한 후 특징 추출 알고리즘과 인식기를 통해 등록된 물체들을 인식하고, 나아가서 현재 들어오는 영상에 등록된 물체가 없음을 판단하는 형태로 발전되어 왔다.In general, object recognition in the field of computer vision is performed by establishing a database of objects to be recognized offline, tracing through a training process, recognizing registered objects through a feature extraction algorithm and a recognizer, It has been developed to judge that there is no object.

물체 데이터베이스 구축 시 3차원 CAD 모델을 사용하는 경우 사람의 수동 작업이 반드시 필요하므로 실제 로봇 서비스 측면에서 볼 때 활용 가능성이 없다. 최근엔 수동 작업이 필요하지 않은 물체 특징 추출 및 등록 기법이 발전되어 오고 있지만 환경 변화에 강인한 물체 인식 측면에서 볼 때 한계점을 가지고 있다.When the 3D database model is used to construct the object database, it is not possible to utilize it in terms of the actual robot service because the manual operation of the human is necessary. In recent years, object feature extraction and registration techniques that do not require manual operation have been developed, but they have limitations in terms of object recognition that is robust to environmental changes.

물체 인식에서 고려하고 있는 환경 변화란 크게 조명 변화나 노이즈 등에 의해 생기는 색도 불변(Photometric Invariance) 측면과, 카메라의 각도나 물체와의 거리 변화와 관련된 기하학적 불변(Geometric Invariance)으로 구분할 수 있다. 불변(Invariance) 요소가 중요한 이유는 로봇의 서비스 측면에서 생각해 볼 때 각 가정 및 개인마다 사용하고 있는 물체의 종류와 특징이 다를 수밖에 없기 때문에 개인 보호 및 프라이버시 측면에서 엔지니어가 직접 원하는 물체 리스트를 사용자에게 받아 등록시키는 것은 현실성이 떨어져 사용자가 직접 등록할 수밖에 없다. 즉, 사용자가 직접 물체를 온라인 또는 오프라인 상에서 학습시켜야 한다는 면에서 물체별로 각 변화에 대응하도록 많은 영상을 수집하는 것은 번거롭기 때문에 한 번의 등록에서 얼마나 많은 변화에 대응하고 안정적인 인식률을 유지할 수 있는지가 중요한 기준이 된다.The environmental changes considered in object recognition are largely divided into the aspects of photometric invariance caused by illumination changes and noise, and the geometric invariance associated with changes in camera angles and distances to objects. The Invariance factor is important because the types and characteristics of the objects used by each family and individual are different from the service aspect of the robot. It is not realistic to register it, and users have to register themselves. In other words, it is troublesome to collect a large number of images corresponding to each change in each object in the sense that a user must directly learn an object on-line or off-line. Therefore, it is important to determine how many changes can be accommodated in one registration and a stable recognition rate can be maintained .

그러나 기존의 물체 인식 시스템은 단일 카메라에 적합한 시스템들만 존재하는 관계로 물체 인식 성능의 한계점을 보인다.However, existing object recognition systems have limitations on object recognition performance due to the existence of systems suitable for a single camera.

본 발명의 일측면은 물체 인식 성능을 향상시키도록 스테레오 영상으로부터 텍스처(Texture) 기반 특징을 추출하여 물체를 인식하는 물체 인식 시스템 및 그 물체 인식 방법을 제공한다.One aspect of the present invention provides an object recognition system for extracting texture-based features from a stereo image to improve object recognition performance, and an object recognition method for the object recognition system.

물체 인식 시스템은 동일 물체의 좌우 영상을 출력하는 스테레오 카메라; 및 스테레오 카메라로부터 입력된 좌우 영상에서 좌우측 특징 벡터들을 추출하고, 추출된 좌우측 특징 벡터들을 서로 매칭시켜 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들을 추출하고, 추출된 복수의 공통 특징 벡터들과 데이터베이스부에 저장된 물체별로 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들을 매칭시키고, 매칭 결과에 기초하여 좌우 영상에 있는 물체를 인식하는 물체 인식 장치를 포함한다.The object recognition system includes a stereo camera for outputting left and right images of the same object; Extracting left and right feature vectors from left and right images input from a stereo camera, matching the extracted left and right feature vectors with each other, extracting a plurality of common feature vectors common to left and right images, And an object recognizing device for matching a plurality of common feature vectors common to right and left images for each object stored in the database and recognizing an object in left and right images based on a matching result.

또한 물체 인식 장치는 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들과 데이터베이스부에 저장된 복수의 공통 특징 벡터들을 매칭시키고, 공통 특징 벡터들의 매칭된 특징 벡터들에 대하여 유클리디언 거리값에 따라 물체별로 점수를 부여하고, 부여된 점수를 합산하여 합산된 점수가 가장 높은 물체를 좌우 영상에 있는 물체로 인식한다.In addition, the object recognition apparatus may match a plurality of common feature vectors common to right and left images with a plurality of common feature vectors stored in a database unit, and may perform a search based on Euclidean distance values for matching feature vectors of common feature vectors. A score is assigned to each object, and the added points are added together to recognize the object having the highest sum as an object in the left and right images.

또한 물체 인식 장치는: 좌측 영상의 복수의 특징점들로부터 복수의 특징 벡터들을 추출하고, 우측 영상의 복수의 특징점들로부터 복수의 특징 벡터들을 추출하는 특징 추출부; 좌측 영상으로부터 추출된 복수의 특징 벡터들과 우측 영상으로부터 추출된 복수의 특징 벡터들을 매칭시켜 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들을 추출하는 특징 벡터 매칭부; 및 추출된 복수의 공통 특징 벡터들과 데이터베이스부에 저장된 복수의 공통 특징 벡터들을 매칭시켜 좌우 영상에 있는 물체를 인식하는 물체 인식부를 포함한다.The object recognition apparatus may further include: a feature extraction unit that extracts a plurality of feature vectors from a plurality of feature points of the left image and extracts a plurality of feature vectors from the plurality of feature points of the right image; A feature vector matching unit for matching a plurality of feature vectors extracted from a left image and a plurality of feature vectors extracted from a right image to extract a plurality of common feature vectors common to left and right images; And an object recognition unit for recognizing an object in the left and right images by matching the extracted common feature vectors and a plurality of common feature vectors stored in the database unit.

또한 특징 추출부는 복수의 특징점들을 중심으로 하는 복수의 영역들에서 벡터들을 검출하고, 검출된 벡터들의 집합을 특징 벡터로 추출한다.In addition, the feature extraction unit detects vectors in a plurality of regions centered on a plurality of feature points, and extracts a set of detected vectors as a feature vector.

또한 물체 인식 장치는 좌우 영상에서 추출된 복수의 좌우측 특징 벡터 정보와, 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터 정보와, 복수의 공통 특징 벡터의 3차원 위치 정보를 데이터베이스부에 정보들에 대응하도록 미리 저장된 값들과 각각 매칭시키고, 각각의 매칭 결과에 점수를 부여하고, 부여된 점수를 합산하여 합산된 점수가 가장 높은 물체를 좌우 영상에 있는 물체로 인식한다.The object recognition apparatus also includes a plurality of left and right feature vector information extracted from left and right images, a plurality of common feature vector information common to left and right images, and three-dimensional position information of a plurality of common feature vectors to information Each of the matching results is given a score, and the added points are summed to recognize the object having the highest sum as an object in the left and right images.

또한 물체 인식 장치는 물체를 인식한 후 매칭된 복수의 공통 특징 벡터들을 대상으로 2차원 호모그래피(Homography)와 3차원 유클리디언 변환(Euclidean Transform) 중 적어도 하나를 이용하여 인식된 물체를 검증한다.In addition, the object recognizing apparatus recognizes an object and then verifies the recognized object using at least one of two-dimensional homography and a three-dimensional Euclidean transformation on a plurality of common feature vectors matched .

물체 인식 방법은 동일 물체를 촬영한 서로 다른 좌우 영상을 입력받고; 입력된 좌우 영상에서 좌우측 특징 벡터들을 추출하고; 추출된 좌우측 특징 벡터들을 서로 매칭시켜 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들을 추출하고; 추출된 복수의 공통 특징 벡터들과 데이터베이스부에 저장된 물체별로 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들을 매칭시키고; 매칭 결과에 따라 좌우 영상에 있는 물체를 인식한다.The object recognizing method includes: inputting different left and right images of the same object; Extract left and right feature vectors from input left and right images; Extracting a plurality of common feature vectors common to left and right images by matching the extracted left and right feature vectors with each other; Matching the extracted common feature vectors with a plurality of common feature vectors common to left and right images for each object stored in the database unit; And recognizes the objects in the left and right images according to the matching result.

또한 물체를 인식하는 것은, 매칭된 복수의 공통 특징 벡터들에 대하여 유클리디언 거리값에 따라 물체별로 점수를 부여하고, 부여된 점수를 합산하여 합산된 점수가 가장 높은 물체를 좌우 영상에 있는 물체로 인식하는 것을 포함한다.The recognition of an object is performed by assigning a score to each of the plurality of matching common feature vectors according to the Euclidean distance value and summing the assigned points to obtain an object having the highest total sum as an object .

또한 물체를 인식한 후 매칭된 복수의 공통 특징 벡터들을 대상으로 2차원 호모그래피(Homography)와 3차원 유클리디언 변환(Euclidean Transform) 중 적어도 하나를 이용하여 인식된 물체를 검증하는 것을 더 포함한다.The method further includes verifying the recognized object using at least one of two-dimensional homography and a three-dimensional Euclidean transform on a plurality of common feature vectors after recognizing the object .

이상에서 설명한 본 발명의 실시예에 따르면, 스테레오 카메라를 통해 들어온 좌우 영상 정보를 활용하여 한 번의 데이터베이스 등록을 통해서도 기존보다 불변(Invariance) 성능을 높이고 안정적인 인식 성능을 가지므로 다양한 물체들이 있는 각 가정에 지능형 로봇의 보급 및 실질적인 서비스 제공할 수 있고, 로봇 이외에도 스테레오 카메라를 이용한 보안 감시 등에도 활용 가능하다.According to the embodiment of the present invention described above, the invariance performance is improved and the recognition performance is stable through the registration of one database using the left and right image information inputted through the stereo camera, It is possible to provide intelligent robots and provide practical services, and can also be used for security surveillance using a stereo camera in addition to robots.

도 1은 본 발명의 실시예에 따른 물체 인식 시스템의 개략적인 제어 블록도이다.
도 2는 본 발명의 실시예에 따른 물체 인식 방법에 대한 제어 흐름도이다.
도 3은 도 2에서 좌우 영상의 특징 벡터 매칭을 설명하기 위한 도면이다.
도 4는 도 3의 매칭 결과를 보인 도면이다.
도 5는 도 2의 물체 인식 과정을 설명하기 위한 제어 흐름도이다.
도 6은 도 5에서 설명한 것과 다른 방식으로 물체를 인식하는 과정을 설명하기 위한 제어 흐름도이다.
도 7은 본 발명의 실시예에 따른 물체 인식 시스템에서 매칭된 특징 벡터 간의 3차원 거리와 데이터베이스부에 저장된 특징 벡터간의 3차원 거리 간에 가중치를 적용하는 것을 설명하기 위한 도면이다.
1 is a schematic control block diagram of an object recognition system according to an embodiment of the present invention.
2 is a control flowchart for an object recognition method according to an embodiment of the present invention.
FIG. 3 is a diagram for explaining feature vector matching of left and right images in FIG.
FIG. 4 is a diagram showing the matching result of FIG. 3. FIG.
FIG. 5 is a control flowchart for explaining an object recognition process of FIG. 2. FIG.
FIG. 6 is a control flowchart for explaining a process of recognizing an object in a manner different from that described in FIG.
FIG. 7 is a diagram for explaining weighting between three-dimensional distances between matched feature vectors in the object recognition system and three-dimensional distances between feature vectors stored in the database unit according to an embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시예에 대해 설명한다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 물체 인식 시스템의 개략적인 제어 블록도이다.1 is a schematic control block diagram of an object recognition system according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 물체 인식 시스템은 스테레오 카메라(10)와 물체 인식 장치(20)를 포함한다.As shown in FIG. 1, an object recognition system according to an embodiment of the present invention includes a stereo camera 10 and an object recognition device 20.

스테레오 카메라(10)는 스테레오 영상을 출력한다. 스테레오 영상은 동일 장면(scene)을 포함하는 서로 다른 좌우 영상으로서 서로 다른 시점의 영상이다. 이러한 스테레오 영상을 취득하는 스테레오 카메라(10)는 크게 양안식과 단안식 방식으로 나눌 수 있다. 단안식 카메라는 한 대의 카메라를 이용해 다른 시점에서 영상을 취득하는 것이고, 양안식 카메라는 두 대의 카메라를 이용해 서로 다른 시점의 영상을 취득하는 장치이다.The stereo camera 10 outputs a stereo image. Stereo images are images of different viewpoints as different right and left images including the same scene. The stereo camera 10 for acquiring such a stereo image can be largely divided into a binocular and a simplex manner. A single-frame camera captures images at different points of view using one camera. A bi-plane camera captures images at different points of view using two cameras.

물체 인식 장치(20)는 스테레오 카메라(10)로부터 입력된 좌우 영상에서 복수의 특징점으로부터 복수의 특징 벡터를 각각 추출하고, 좌우 영상에서 추출된 각각의 복수의 특징 벡터를 매칭시키고, 좌우 영상의 각각의 복수의 특징 벡터 및 매칭된 특징 벡터들을 이용하여 좌우 영상의 물체를 인식한다.The object recognition apparatus 20 extracts a plurality of feature vectors from a plurality of feature points in the left and right images input from the stereo camera 10, matches each of the plurality of feature vectors extracted from the left and right images, And recognizes the object of the left and right images using the plurality of feature vectors and the matched feature vectors.

물체 인식 장치(20)는 시스템 관리부(21), 영상 저장부(22), 제1 특징 추출부(24), 제2 특징 추출부(25), 특징 벡터 매칭부(26), 특징 벡터 관리부(23), 물체 인식부(28) 및 데이터베이스부(27)를 포함한다.The object recognition apparatus 20 includes a system management unit 21, an image storage unit 22, a first feature extraction unit 24, a second feature extraction unit 25, a feature vector matching unit 26, 23, an object recognition unit 28, and a database unit 27.

시스템 관리부(21)는 스테레오 카메라(10)에 스테레오 영상을 출력하도록 영상 출력 명령을 출력하고, 영상 저장부(22)에 영상을 저장하도록 영상 저장 명령을 출력한다. 또한, 시스템 관리부(21)는 특징 벡터 관리부(23)에 특징 벡터 추출을 위한 특징 벡터 추출 명령을 출력한다. 또한, 시스템 관리부(21)는 물체 인식부(28)에 물체 인식 명령을 출력하고 물체 인식 결과를 제공받는다.The system management unit 21 outputs a video output command to output the stereo image to the stereo camera 10 and outputs a video storage command to store the video in the video storage unit 22. [ Further, the system management unit 21 outputs a feature vector extraction instruction to the feature vector management unit 23 for feature vector extraction. Also, the system management unit 21 outputs an object recognition command to the object recognition unit 28 and receives the object recognition result.

영상 저장부(22)는 스테레오 카메라(10)로부터 출력된 좌측 영상과 우측 영상을 수신하여 특징 추출부(24, 25)에 전달한다.The image storage unit 22 receives the left and right images output from the stereo camera 10, and transmits the left and right images to the feature extraction units 24 and 25.

제1 특징 추출부(24)는 영상 저장부(22)로부터 받은 좌측 영상 정보로부터 특징 벡터를 추출한다. 이 좌측 영상의 특징 벡터는 특징 벡터 매칭부(26) 및 특징 벡터 관리부(23)에 출력된다.The first feature extraction unit 24 extracts a feature vector from the left image information received from the image storage unit 22. [ The feature vector of the left image is output to the feature vector matching unit 26 and the feature vector management unit 23.

제2 특징 추출부(25)는 영상 저장부(22)로부터 받은 우측 영상 정보로부터 특징 벡터를 추출한다. 이 우측 영상의 특징 벡터는 특징 벡터 매칭부(26) 및 특징 벡터 관리부(23)에 출력된다.The second feature extraction unit 25 extracts a feature vector from the right image information received from the image storage unit 22. The feature vector of the right image is output to the feature vector matching unit 26 and the feature vector management unit 23.

특징 추출부(24, 25)는 복수의 특징점들을 중심으로 하는 복수의 영역들에서 벡터들을 검출하고, 검출된 벡터들의 집합을 특징 벡터로 추출한다. 특징 추출부(24, 25)는 좌우 영상에서 영상 정보의 코너들 중에서 특징점들을 선택한다. 특징 추출부(24, 25)는 좌우 영상에서 관심 있는 특징점들을 추출한 후 각각의 특징점들을 중심으로 하는 복수의 영역들에서 벡터들을 검출하고, 검출된 벡터들의 집합을 특징 벡터로 추출한다. 이때, 특징점으로는 대개 에지나 모서리 등이 이용된다.The feature extraction units 24 and 25 detect vectors in a plurality of regions centered on a plurality of feature points, and extract a set of detected vectors as feature vectors. The feature extraction units 24 and 25 select the feature points from the corners of the image information in the left and right images. The feature extracting units 24 and 25 extract the interested feature points from the left and right images, detect the vectors in a plurality of regions centered on the respective feature points, and extract the set of detected vectors as feature vectors. At this time, edges and corners are usually used as feature points.

특징 벡터를 추출하기 위한 방법으로는 시프트(Scale Invariant Feature Transform ; SIFT) 방법과 서프(Speeded Up Robust Feature ; SURF) 방법이 있다.As a method for extracting a feature vector, there are a Scale Invariant Feature Transform (SIFT) method and a Speed Up Robust Feature (SURF) method.

이 두 가지 방법은 특징 벡터 추출을 위해 스케일 공간(scale space)을 이용하기 때문에 스케일 변화 및 회전에 불변이라는 공통점을 갖고 있다. 스케일 공간은 영상의 크기를 여러 가지로 조정하여 놓은 것으로, 크게 획득한 영상과 작게 획득한 영상을 모두 고려 대상으로 하기 때문에 스케일 변화에 불변인 특징 벡터를 얻을 수 있다. 스케일이 작아진 영상을 얻는 방법은 가우시안 커널(Gaussian kernel)을 이용하는 것이다. 영상의 컨볼루션(convolution)을 수행할 경우, 가우시간 커널의 분산(variance)을 크게 할수록 작은 영상을 만드는 효과를 얻을 수 있다. 시프트(SIFT)의 경우에는 분산이 어느 정도 커지면 원본 대상의 크기를 줄이고 다시 가우시안 커널과의 컨볼루션을 수행한다. 그리고 서로 이웃한 영상 간의 차이(Difference of Gaussian, DoG)를 계산한다. 스케일 공간에서의 DoG의 극점(local extrema)이 특징점 및 특징 벡터로 선택된다. 분산을 변화시키면서 라플라시안(Laplacian)을 계산하고 극점을 찾는 것인데, 서프(SURF)는 시프트(SIFT)의 단점인 계산 시간이 오래 걸린다는 것을 극복하기 위하여 특징 벡터의 추출 과정을 단순화한 것이다.Both of these methods have a common feature that they are invariant to scale change and rotation because they use scale space for feature vector extraction. Since the scale space is adjusted by adjusting the size of the image in various ways, the feature vector that is invariable to the scale change can be obtained since both the large acquired image and the small acquired image are considered. A method of obtaining a scaled-down image is to use a Gaussian kernel. When the convolution of the image is performed, the larger the variance of the gau time kernel, the smaller the image is produced. In the case of shift (SIFT), the size of the original target is reduced and the convolution with the Gaussian kernel is performed when the variance increases to some extent. Then, we calculate the difference (Difference of Gaussian, DoG) between neighboring images. The local extrema of DoG in the scale space is selected as the feature point and feature vector. Laplacian is calculated and the pole is found while varying the dispersion. The SURF simplifies the extraction process of the feature vector to overcome the long computation time which is a disadvantage of the shift (SIFT).

특징 벡터 관리부(23)는 특징 추출부(24,25)에 특징 추출 명령을 전달하고 각 특징 추출부(24)(25)로부터 각 영상의 복수의 특징 벡터 정보를 전달받아 저장한다. 또한 특징 벡터 매칭부(26)로부터 매칭 결과에 따른 좌우 영상에 공통으로 존재하는 특징 벡터들의 정보를 전달받아 저장한다. 또한, 특징 벡터 관리부(23)는 스테레오 카메라(10)의 카메라 캘리브레이션 데이터를 이용하여 좌우 영상에 공통적으로 존재하는 특징 벡터들의 3차원 위치 좌표를 추출하여 저장한다. 또한, 특징 벡터 관리부(23)는 좌우 영상의 각각의 복수의 특징 벡터 정보와, 매칭된 특징 벡터들의 정보와, 매칭된 특징 벡터들의 3차원 위치 정보를 물체 인식부(28)에 전달한다.The feature vector management unit 23 transmits a feature extraction instruction to the feature extraction units 24 and 25 and receives and stores a plurality of feature vector information of each image from the feature extraction units 24 and 25. Also, the feature vector matching unit 26 receives and stores information of feature vectors common to right and left images according to the matching result. In addition, the feature vector management unit 23 extracts and stores three-dimensional position coordinates of feature vectors commonly present in the left and right images using the camera calibration data of the stereo camera 10. In addition, the feature vector management unit 23 transmits to the object recognition unit 28 a plurality of feature vector information of each of the left and right images, information of the matched feature vectors, and three-dimensional position information of the matched feature vectors.

특징 벡터 매칭부(26)는 제1 특징 추출부(24) 및 제2 특징 추출부(25)로부터 출력된 특징 벡터들을 스테레오 매칭시켜 좌우 영상에 동일하게 존재하는 특징 벡터들을 찾는다. 이 매칭된 특징 벡터들은 특징 벡터 관리부(23)에 전달된다. 특징 벡터 매칭부(26)는 좌측 영상의 특징 벡터와 우측 영상의 특징 벡터간의 유사성에 근거하여 좌우 영상에 동일하게 존재하는 특징 벡터를 찾는다. 이러한 방법으로는 좌우 영상의 특징 벡터들 간의 정규 상호 상관값을 이용하는 정규 상호 상관도(Normalized Cross Correlation ; NCC) 방법이나 좌우 영상의 특징 벡터들 간의 유클리디안 거리값을 이용하는 유클리디안 거리(Euclidean distance) 방법을 이용한다.The feature vector matching unit 26 performs stereo matching on the feature vectors output from the first feature extracting unit 24 and the second feature extracting unit 25 to find feature vectors that exist in the left and right images. The matched feature vectors are transmitted to the feature vector management unit 23. The feature vector matching unit 26 finds a feature vector that exists in the left and right images based on the similarity between the feature vectors of the left image and the feature vectors of the right image. In this method, a normalized cross correlation (NCC) method using a normal cross-correlation value between feature vectors of left and right images, a Euclidean distance using an Euclidean distance value between feature vectors of left and right images, distance method.

물체 인식부(28)는 특징 벡터 관리부(23)로부터 전달받은 좌우 영상의 각각의 복수의 특징 벡터 정보와, 매칭된 특징 벡터들의 정보와, 매칭된 특징 벡터들의 3차원 위치 정보를 데이터베이스부(27)에 물체별로 저장된 정보와 대조하여 물체를 인식한다. 즉, 물체 인식부(28)는 물체의 존재 유무 및 존재하는 물체들의 이름 정보를 인식한다.The object recognition unit 28 receives the plurality of feature vector information of each of the left and right images received from the feature vector management unit 23, the information of the matched feature vectors, and the three-dimensional position information of the matched feature vectors, ) To recognize the object in contrast with the information stored for each object. That is, the object recognizing unit 28 recognizes the presence or absence of an object and the name information of existing objects.

데이터베이스부(27)에는 물체별로 좌측 영상의 복수의 특징 벡터 정보와, 우측 영상의 복수의 특징 벡터 정보, 매칭된 특징 벡터들의 정보, 매칭된 특징 벡터들의 3차원 위치 정보 등이 미리 저장되어 있다. 또한, 물체 인식부(28)는 물체를 인식한 결과에 대하여 2차원 호모그래피(Homography)와 3차원 유클리디안 변환(Euclidean Transform)을 이용하여 검증한다.A plurality of feature vector information of the left image, a plurality of feature vector information of the right image, information of the matched feature vectors, three-dimensional position information of the matched feature vectors, and the like are stored in advance in the database unit 27 for each object. In addition, the object recognition unit 28 verifies the result of recognizing the object using two-dimensional homography and three-dimensional Euclidean Transform.

본 발명의 실시예에 따른 물체 인식 장치(20)는 동일 물체 또는 동일 시점에서 스테레오 카메라(10)로부터 제공받은 좌우 영상을 통해 변화에 강인한 특징을 추출한다. 또한, 좌우 영상으로부터 공통적으로 존재하는 특징들을 따로 선택하여 환경 변화에 강인한 특징군을 구성한다. 이때, 공통적인 특징 벡터군을 구성하기 위한 매칭 작업 수행 시 연산 시간을 고려하여 좌우 영상으로부터 나온 특징 벡터군에 대한 매칭은 인접한 스케일 공간들에 대해서만 수행한다. 또한, 물체 인식 장치(20)는 물체 인식 시 좌우 영상에서 나온 특징 벡터의 매칭을 수행하고 이와 동시에 좌우 영상으로부터 공통적으로 추출된 특징점들을 중심으로 3차원 좌표들 간의 관계를 이용하여 물체 인식의 신뢰도를 향상시킨다.The object recognition apparatus 20 according to the embodiment of the present invention extracts characteristics that are robust against change through the same object or the left and right images provided from the stereo camera 10 at the same time. In addition, feature groups common to the left and right images are separately selected to constitute a feature group resistant to environmental changes. In this case, when performing the matching operation to construct a common feature vector group, the matching for the feature vector group from the right and left images is performed only for the adjacent scale spaces in consideration of the calculation time. In addition, the object recognition apparatus 20 performs matching of the feature vectors derived from the right and left images when recognizing the object, and at the same time, recognizes the reliability of the object recognition using the relationship between the three- .

도 2는 본 발명의 실시예에 따른 물체 인식 방법에 대한 제어 흐름도이다.2 is a control flowchart for an object recognition method according to an embodiment of the present invention.

도 2를 살펴보면, 본 발명의 실시예에 따른 물체 인식 장치(20)는 시스템이 시작되면 먼저 물체 인식을 위해 스테레오 카메라(10)를 호출하여 스테레오 카메라(10)가 동일 장면을 포함하는 서로 다른 좌우 영상을 출력하게 한다.Referring to FIG. 2, the object recognition apparatus 20 according to the embodiment of the present invention calls the stereo camera 10 for object recognition when the system is started, so that the stereo camera 10 can recognize different right and left And outputs an image.

물체 인식 장치(20)는 스테레오 카메라(10)로부터 좌우 영상을 입력받는다(100).The object recognition apparatus 20 receives the left and right images from the stereo camera 10 (100).

물체 인식 장치(20)는 스테레오 카메라(10)로부터 입력받은 좌우 영상을 영상 저장부(22)에 저장한다(101). 이때, 물체 인식 장치(20)는 영상 저장부(22)에 저장된 좌우 영상 중 좌측 영상은 제1 특징 추출부(24)에 전달하고, 우측 영상은 제2 특징 추출부(25)에 전달한다.The object recognition apparatus 20 stores the left and right images input from the stereo camera 10 in the image storage unit 22 (101). At this time, the object recognition apparatus 20 transmits the left image of the left and right images stored in the image storage unit 22 to the first feature extraction unit 24, and transmits the right image to the second feature extraction unit 25.

물체 인식 장치(20)는 제1 특징 추출부(24)를 통해 좌측 영상의 특징 벡터들을 추출하고(102), 제2 특징 추출부(25)를 통해 우측 영상의 특징 벡터들을 추출한다(103).The object recognition apparatus 20 extracts the feature vectors of the left image through the first feature extraction unit 24 and extracts the feature vectors of the right image through the second feature extraction unit 25, .

좌우 영상의 특징 벡터들을 추출한 후 물체 인식 장치(20)는 좌우 영상의 특징 벡터들을 특징 벡터 매칭부(26)에 전달하여 좌우 영상에 대한 스테레오 매칭을 수행한다(104). 이 좌우 영상에 대한 스테레오 매칭에 의해 우측 영상의 특징 벡터들과 좌측 영상의 특징 벡터들 중에서 좌우 영상에 공통적으로 존재하며 서로 대응하는 특징 벡터들(공통 특징 벡터)이 추출된다.After extracting the feature vectors of the left and right images, the object recognition apparatus 20 transmits the feature vectors of the left and right images to the feature vector matching unit 26 to perform stereo matching on the left and right images (104). By the stereo matching of the left and right images, feature vectors (common feature vectors) that are common to the right and left images and correspond to each other among the feature vectors of the right image and the left image are extracted.

이 스테레오 매칭에 의해 물체 인식 장치(20)는 좌우 영상 모두에 공통적으로 존재하는 특징 벡터들의 정보(매칭된 특징 벡터들의 정보)를 추출한다(105). 이때, 매칭된 특징 벡터 정보 외에도 스테레오 카메라(10)의 좌우 영상 파라미터 정보가 있는 카메라 캘리브레이션 데이터를 이용하여 매칭된 특징 벡터들의 3차원 위치를 함께 추출한다.By this stereo matching, the object recognition apparatus 20 extracts information (information of matched feature vectors) of the feature vectors common to both the left and right images (105). At this time, in addition to the matched feature vector information, the three-dimensional positions of the matched feature vectors are extracted together using the camera calibration data having the left and right image parameter information of the stereo camera 10.

물체 인식 장치(20)는 좌우 영상의 각각의 복수의 특징 벡터들의 정보, 좌우 영상 모두에 공통적으로 존재하는 특징 벡터들의 정보, 그리고, 이 매칭된 특징 벡터들의 3차원 위치 정보를 데이터베이스부(27)에 그에 대응하도록 저장된 물체의 정보들과 대조하여 물체를 인식한다. 이때, 물체 인식 장치(20)는 좌우 영상의 특징 벡터들과 데이터베이스부(27)에 저장된 물체별 특징 벡터들 사이의 가상 거리인 유클리디언 거리값 또는 실제 거리인 좌우 영상에 공통적으로 존재하는 특징 벡터들 간의 3차원 좌표 거리를 단독으로 이용하거나 혹은 둘 모두를 이용하여 물체를 정확히 인식할 수 있다. 즉, 좌우 영상에 대하여 매칭된 특징 벡터들간의 3차원 좌표 간의 관계를 이용하여 물체 인식 성능을 향상시킨다.The object recognition apparatus 20 acquires the information of each of the plurality of feature vectors of the left and right images, the information of the feature vectors common to both the left and right images, and the three-dimensional position information of the matched feature vectors, And recognizes the object by comparing it with the information of the object stored so as to correspond thereto. At this time, the object recognition apparatus 20 recognizes the Euclidean distance value, which is a virtual distance between the feature vectors of the right and left images and the feature vectors of the object stored in the database unit 27, The object can be correctly recognized by using the three-dimensional coordinate distance between vectors alone or both. That is, the object recognition performance is improved by using the relationship between the three-dimensional coordinates between the feature vectors matched with the right and left images.

도 3은 도 2에서 좌우 영상의 특징 벡터 매칭을 설명하기 위한 도면이고, 도 4는 도 3의 매칭 결과를 보인 도면이다.FIG. 3 is a diagram for explaining feature vector matching of left and right images in FIG. 2, and FIG. 4 is a diagram showing matching results of FIG.

도 3에 도시된 바와 같이, 본 발명의 실시예에 따른 물체 인식 장치(20)에서 스테레오 매칭을 수행할 때 좌우 영상에서 추출한 특징 벡터들에서 매칭되는 특징 벡터들에 대하여 서로 간에 가장 유사한 특징 벡터쌍들을 구하고, 매칭되지 않은 특징 벡터들은 제외한다. 이때 연산 시간의 효율성을 위해 모든 특징 벡터들과 서로 비교하는 것이 아니라 유사한 스케일 공간상에 존재하는 특징벡터들끼리 비교한다. 매칭 작업을 통해 추출된 특징 벡터들은 카메라 켈리브레이션 데이터를 이용해 각 특징 벡터의 3차원 좌표 정보를 획득한다.As shown in FIG. 3, when stereo matching is performed in the object recognition apparatus 20 according to the embodiment of the present invention, feature vectors that are matched in feature vectors extracted from left and right images, And excludes unmatched feature vectors. At this time, not all feature vectors are compared with each other, but feature vectors existing on a similar scale space are compared with each other for efficiency of computation time. The feature vectors extracted through the matching operation acquire the three-dimensional coordinate information of each feature vector using the camera calibration data.

도 3에 도시된 바와 같이, 좌측 영상의 특징 벡터군

Figure pat00001
및 우측 영상의 특징 벡터군
Figure pat00002
는 다음과 같다.As shown in FIG. 3, the feature vector group of the left image
Figure pat00001
And the feature vector group of the right image
Figure pat00002
Is as follows.

Figure pat00003
Figure pat00003

또한, 좌측 영상의 ii 번째 스케일 공간의 특징 벡터군

Figure pat00004
및 우측 영상의 ii번째 스케일 공간의 특징 벡터군
Figure pat00005
은 다음과 같다.Also, the feature vector group of the ii-th scale space of the left image
Figure pat00004
And the feature vector group of the ii-th scale space of the right image
Figure pat00005
Is as follows.

Figure pat00006
Figure pat00006

또한,

Figure pat00007
의 i 번째 특징 벡터(D차원)
Figure pat00008
Figure pat00009
의 i 번째 특징 벡터(D차원)
Figure pat00010
는 다음과 같다.Also,
Figure pat00007
The i-th feature vector (D-dimensional)
Figure pat00008
And
Figure pat00009
The i-th feature vector (D-dimensional)
Figure pat00010
Is as follows.

Figure pat00011
Figure pat00011

또한, 매칭된 특징 벡터군

Figure pat00012
Figure pat00013
은 다음과 같다.In addition,
Figure pat00012
And
Figure pat00013
Is as follows.

Figure pat00014
Figure pat00014

도 5는 도 2의 물체 인식 과정을 설명하기 위한 제어 흐름도이다.FIG. 5 is a control flowchart for explaining an object recognition process of FIG. 2. FIG.

도 5에 도시된 바와 같이, 물체 인식 장치(20)는 좌측 영상의 특징 벡터군

Figure pat00015
및 데이터베이스부(27) 내의 상의 물체별 좌측 영상의 특징 벡터군
Figure pat00016
를 매칭하는 과정(200), 이 둘 간을 순차적으로 매칭시켜 매칭 결과에 점수를 부여하는 과정(201), 우측 영상의 특징 벡터군
Figure pat00017
및 데이터베이스부(27) 내의 물체별 우측 영상의 특징 벡터군
Figure pat00018
를 매칭하는 과정(202), 이 둘 간을 순차적으로 매칭시켜 매칭 결과에 점수를 부여하는 과정(204), 그리고 좌우 합산 점수에 따라 물체를 판단하는 과정(204)을 수행함으로써 좌우 영상의 특징 벡터들을 데이터베이스부(27) 내에 물체별로 저장된 좌우 영상의 특징 벡터들과 순차적으로 매칭시키고, 좌우 영상을 매칭했을 때 유클리디언 거리값이 가까워 일치 정보가 높은 특징 벡터에 대해서 큰 점수를 주는 방식을 이용하여 좌우 영상의 특징 벡터들의 점수를 합산하여 물체를 정확히 인식한다.As shown in Fig. 5, the object recognition apparatus 20 recognizes a feature vector group
Figure pat00015
And the characteristic vector group of the left side image of the object in the database unit 27
Figure pat00016
(200), a step (201) of sequentially matching the two with each other to give a score to the matching result, a step
Figure pat00017
And the feature vector group of the right side image per object in the database unit 27
Figure pat00018
A step 204 of sequentially matching the two to assign a score to the matching result, and a step 204 of determining an object according to the left and right summation scores, Are successively matched with the feature vectors of the left and right images stored in the database unit 27 for each object, and when the left and right images are matched, the Euclidean distance values are close to each other and a large score is given to the feature vector having high matching information And adds the scores of the feature vectors of the left and right images to accurately recognize the object.

도 6은 도 5에서 설명한 것과 다른 방식으로 물체를 인식하는 과정을 설명하기 위한 제어 흐름도이다.FIG. 6 is a control flowchart for explaining a process of recognizing an object in a manner different from that described in FIG.

물체 인식 장치(20)는 좌우 영상에서 매칭된 특징 벡터들 간의 실제 거리인 3차원 좌표 간의 거리 유사도를 이용하여 물체를 정확히 인식한다. 이러한 방식을 페어 와이즈 피처 매칭 앤 보우팅(Pair-wise Feature matching and voting)이라 한다. 이러한 페어 와이즈 피처 매칭 앤 보우팅은 예를 들면, 좌우 영상의 임의의 두 개의 특징 벡터 f1, f2의 좌표가 (x1, y1, z1), (x2, y2, z2)이고, 데이터베이스부(27) 내의 물체에 대응되는 두 특징 벡터 f3, f4의 좌표가 (x3, y3, z3), (x4, y4, z4)이고, f1과 f3이 매칭되고 f2와 f4가 매칭되었다고 가정하면, f3과 f4의 3차원 좌표 거리와 f1과 f2의 3차원 좌표 거리는 비슷해야 한다는 점을 이용하여, 어떤 기준 조건 이하로 거리가 비슷할 경우 선정(voting) 점수를 높이는 방식으로 물체 인식의 정확도 및 신뢰도를 향상시킨다. 스테레오 카메라의 경우 물체와의 거리가 멀어질수록 3차원 좌표의 정확도가 떨어지므로 절대적인 수치에 의한 문턱치가 아닌 다음의 식[1] 내지 [3]과 같은 조건 비율을 이용한다.The object recognition apparatus 20 recognizes an object accurately by using a distance similarity between three-dimensional coordinates, which is an actual distance between feature vectors matched in left and right images. This method is called pair-wise feature matching and voting. This pair-wise feature matching and boating is performed, for example, in such a manner that coordinates of two arbitrary feature vectors f1 and f2 of the right and left images are (x1, y1, z1), (x2, y2, (X3, y3, z3), (x4, y4, z4), and f1 and f3 match and f2 and f4 match, assuming that the coordinates of two feature vectors f3 and f4 corresponding to the object in By using the fact that the three-dimensional coordinate distance and the three-dimensional coordinate distance between f1 and f2 should be similar, accuracy and reliability of object recognition are improved by increasing the voting score when the distance is less than a certain reference condition. In the case of a stereo camera, since the accuracy of the three-dimensional coordinates deteriorates as the distance from the object increases, the condition ratios such as the following equations [1] to [3] are used instead of absolute threshold values.

Figure pat00019
식 [1]
Figure pat00019
Equation [1]

Figure pat00020
식 [2]
Figure pat00020
Equation [2]

Figure pat00021
식 [3]
Figure pat00021
Equation [3]

여기서,

Figure pat00022
는 영상의 두 특징 벡터 사이의 3차원 거리이고,
Figure pat00023
는 DB상의 대응되는 두 특징 벡터 사이의 거리이고,
Figure pat00024
Figure pat00025
의 유사도 결정 조건 상수값이고, alpha는 거리에 따른 가중치를 주기 위한 기준 함수이다.here,
Figure pat00022
Is the three-dimensional distance between two feature vectors of the image,
Figure pat00023
Is the distance between two corresponding feature vectors on the DB,
Figure pat00024
The
Figure pat00025
, And alpha is a reference function for giving a weight according to the distance.

도 7에 도시된 바와 같이, 기준 함수 alpha는 카메라와 특징 벡터가 z_min 이하일 경우 dist_ratio로 동일한 값을 적용하지만 z_min 부터 z_max까지는 선형 함수 형태로 기준값이 증가함을 알 수 있다. 또한, 특정 거리 z_max 이상부터는 더 이상 기준값을 증가시키지 않고 동일한 기준값을 사용한다.As shown in FIG. 7, when the camera and the feature vector are equal to or less than z_min, the reference value alpha is the same as the dist_ratio, but the reference value increases from z_min to z_max in the form of a linear function. Further, from the specific distance z_max or more, the same reference value is used without increasing the reference value any more.

따라서, 물체 인식 장치(20)는 매칭된 좌우 영상의 특징 벡터군

Figure pat00026
Figure pat00027
를 매칭하는 과정(300), 데이터베이스부(27) 내에 물체별로 저장된 매칭된 좌우 영상의 특징 벡터군
Figure pat00028
에서 임의의 두 개의 특징 벡터간의 거리 dist _DB를 계산하는 과정(301), 현재의 좌우 영상의
Figure pat00029
에서 임의의 두 개의 특징 벡터간의 거리 dist_scene를 계산하는 과정(302), 위의 계산된 거리값들을 이용하여 위의 식 [1]을 계산하는 과정(303), 위의 계산된 식 [1]을 이용하여 식 [2]를 계산하는 과정(304), 식 [3]의 조건을 만족하는지를 판단하는 과정(305), 위의 식 [3]을 만족하지 않으면 작동 모드 300으로 리턴하여 이하의 작동을 수행하고, 위의 식 [3]을 만족하는 경우 물체의 점수를 증가시키는 과정(306), 물체의 점수 증가 후 모든 매칭이 완료했는지를 판단하는 과정(307), 모든 매칭이 완료되지 않은 경우 작동 모드 300으로 리턴하여 이하의 작동을 수행하고, 모든 매칭이 완료된 경우, 점수에 따라 물체를 판단하는 과정(308)을 수행한다.Accordingly, the object recognition apparatus 20 recognizes the feature vectors of the matched left and right images
Figure pat00026
Wow
Figure pat00027
A feature vector group of the matched left and right images stored for each object in the database unit 27,
Figure pat00028
(Step 301) of calculating a distance dist_DB between arbitrary two feature vectors in the current left /
Figure pat00029
A process 302 for calculating a distance dist_scene between arbitrary two feature vectors, a process 303 for calculating the above equation [1] using the calculated distance values, and the above calculated equation [1] A step 305 for calculating whether the condition of the equation [3] is satisfied or not, and if the condition [3] is not satisfied, the operation mode 300 is returned and the following operation is performed A step 306 for increasing the score of the object when the above equation [3] is satisfied, a step 307 for determining whether all matching is completed after the increase of the score of the object, Mode 300 to perform the following operation, and if all matching is completed, a step 308 of judging an object according to the score is performed.

한편, 물체 인식 장치(20)는 상술한 페어 와이즈 피처 매칭 앤 보우팅(Pair-wise Feature matching and voting) 방식 대신에 그래프 방법(Graph method)을 이용하여 물체를 인식할 수 있다.Meanwhile, the object recognition apparatus 20 can recognize an object using a graph method instead of the above-described pair-wise feature matching and voting method.

그래프 방법은 페어 와이즈 피처 매칭(pair-wise feature matching)을 일반화한 방식으로, 매칭된 특징짐들과 특징점들 사이의 관계를 종합하여 매칭되는 그래프를 찾는 방식으로 계산 시간(Computation time)은 페어 와이즈 피처 매칭(pair-wise feature matching)에 비해 더 오래 걸리지만 더 좋은 인식 성능을 보인다.The graphing method is a method of generalizing pair-wise feature matching. In this method, a matching graph is searched by integrating the relationship between matching feature loads and minutiae points. The computation time is a fairness It takes longer than pair-wise feature matching, but has better recognition performance.

상기한 그래프 방법에서 물체의 그래프 모델(G)은 다음과 같이 표현할 수 있다.In the above graph method, the graph model (G) of the object can be expressed as follows.

Figure pat00030
Figure pat00030

여기서,

Figure pat00031
는 스테레오 매칭된 3차원 특징점들의 집합이고,
Figure pat00032
는 3차원 특징점들 간의 에지(Edge) 조합들의 집합이고,
Figure pat00033
는 3차원 특징점들의 디스크립터 집합(특징 벡터)이고,
Figure pat00034
는 3차원 특징점들 간의 3차원 유클리디언 거리이다.here,
Figure pat00031
Is a set of stereo-matched three-dimensional feature points,
Figure pat00032
Is a set of edge combinations between three-dimensional feature points,
Figure pat00033
Is a descriptor set (feature vector) of three-dimensional feature points,
Figure pat00034
Dimensional Euclidian distance between three-dimensional feature points.

데이터베이스부(27) 내에 있는 각 물체의 모델을 G1, G2, G3 ...GM 이라 하고 입력 영상에 대한 모델을 Gs(A개의 3차원 특징점을 가짐)라 하면, 임의의 물체 모델 Gm(i개의 3차원 특징점을 가짐)과의 매칭 행렬 M(s,m)을 다음과 같이 정의할 수 있다. If the model of each object in the database unit 27 is G1, G2, G3 ... GM and the model of the input image is Gs (having A three-dimensional feature points), then an arbitrary object model Gm (M, s, m) can be defined as follows.

Figure pat00035
Figure pat00035

여기서,Mai = {0,1}Here, M ai = {0,1}

이때 입력 영상의 a번째 3차원 특징 포인트와 i번째 물체 모델의 3차원 특징 포인트의 매칭값인 Mai는 서로 매칭되었을 경우는 1, 매칭되지 않았을 경우는 0의 값을 갖게 된다.At this time, the a-th 3-dimensional feature point of the input image and the matching value M ai of the 3-dimensional feature point of the i-th object model have a value of 1 when they are matched with each other and a value of 0 when they are not matched.

그래프 방법의 기본 개념은 위의 매칭 행렬 M(s,m)을 모델별로 구하고(즉, M(s,1), M(s,2),.M(s,M)을 구함), 이 중에 최상의 매칭 스코어를 가지는 M(s,m)을 선택하는 방법이다(

Figure pat00036
).The basic concept of the graph method is to find the above matching matrix M (s, m) for each model (ie, find M (s, 1), M (s, 2) And selecting M (s, m) having the best matching score (
Figure pat00036
).

상기한 M(s,m) 행렬들을 찾는 방법으로는 다음과 같은 함수(

Figure pat00037
)가 최소가 되는 Mai 해를 구한다.To find the above M (s, m) matrices, the following function
Figure pat00037
) Is minimized.

Figure pat00038
Figure pat00038

여기서,

Figure pat00039
이고, α는 조절 파라미터이고,
Figure pat00040
는 '임의의'를 나타내는 기호이고, here,
Figure pat00039
, ≪ / RTI > is an adjustment parameter,
Figure pat00040
Is an arbitrary symbol,

Figure pat00041
이다.
Figure pat00041
to be.

본 발명의 실시예에서는 위의 함수(

Figure pat00042
)의
Figure pat00043
Figure pat00044
를 다음과 같이 제안한다.In the embodiment of the present invention,
Figure pat00042
)of
Figure pat00043
Wow
Figure pat00044
Is proposed as follows.

Figure pat00045
Figure pat00045

Figure pat00046
Figure pat00046

위의 함수(

Figure pat00047
)를 최소화하는 해를 찾기 위해서는 Mai에 대해 미분한 다음의 식(Qai)을 이용한다.The above function (
Figure pat00047
), We use the following equation (Q ai ) that is differentiated for M ai .

Figure pat00048
Figure pat00048

위의 함수를 이용하면 함수(

Figure pat00049
)는 다음과 같이 표현할 수 있다.Using the above function,
Figure pat00049
) Can be expressed as follows.

Figure pat00050
Figure pat00050

여기서,

Figure pat00051
이고, here,
Figure pat00051
ego,

상기한 방식에 의해 M(s,m)의 어느 열 또는 행에서는 매칭되는 노드가 1개만 나와야 하기 때문에 다중 대응(Multi-correspondence) 체크 과정을 적용한다.According to the above method, since only one matching node is required in any column or row of M (s, m), a multi-correspondence check process is applied.

모델별로 위의 함수(

Figure pat00052
)가 최대값이 되는 매칭 행렬 M(s,m)을 찾은 후 다음 조건을 만족하는 물체 후보들을 찾고, 이 물체 후보들 중에서 매칭 점수가 가장 높은 물체를 좌우 영상에 있는 물체로 인식한다.The above function (
Figure pat00052
Finds a matching matrix M (s, m) having a maximum value, and finds object candidates satisfying the following conditions, and recognizes an object having the highest matching score among the object candidates as an object in the left and right images.

Figure pat00053
Figure pat00053

한편, 물체 인식 장치(20)는 물체 인식 후 인식 결과 검증 작업을 통해 매칭된 특징 벡터들을 활용하여 2차원 호모그래피(Homography)와 3차원 유클리디언 변환(Euclidean Transform)을 이용하여 인식된 물체를 검증하고 3차원 위치 정보를 추가로 도출한다.On the other hand, the object recognition apparatus 20 uses the matching feature vectors to verify the recognized object using two-dimensional homography and three-dimensional Euclidean Transform And further derives the three-dimensional position information.

물체 인식 장치(20)는 우선 3차원 상의 유클리디언 변환을 활용한 인증(Verification) 작업을 수행한다. 이때, 매칭된 3차원 정보를 가지고 있는 특징 벡터가 충분하지 않을 경우 3차원 기반 작업을 생략하고 2차원 호모그래피 기반 검증 작업을 수행한다. 또한, 3차원 정보를 가지고 있는 특징 벡터가 충분한 경우에도 적합한 회전 매트릭스(Rotation Matrix)(이하 R라 칭함)와 병진 매트릭스(Translation Matrix)(이하 T라 칭함)를 구하지 못할 경우 2차원 호모그래피 기반 검증 작업을 수행한다.The object recognition apparatus 20 first performs a verification operation using the Euclidean transformation on the three-dimensional plane. At this time, if there is not enough feature vector with matching 3-dimensional information, 3-D based operation is omitted and 2-dimensional homography based verification work is performed. In addition, when a proper rotation matrix (hereinafter referred to as R) and a translation matrix (hereinafter referred to as T) can not be obtained even when a feature vector having three-dimensional information is sufficient, Perform the operation.

데이터베이스부(27) 내의 물체에 있는 3차원 좌표가

Figure pat00054
= (x1, y1, z1)이고, 현재 영상의 물체에 있는 3차원 좌표를
Figure pat00055
= (x2, y2, z2)라고 하면, 4개 이상의 매칭 쌍을 통해 다음과 같은 R,T를 구한다.When the three-dimensional coordinates in the object in the database unit 27 are
Figure pat00054
= (x1, y1, z1) and the three-dimensional coordinates in the object of the current image are
Figure pat00055
= (x2, y2, z2), the following R and T are obtained through four or more matching pairs.

Figure pat00056
Figure pat00056

Figure pat00057
Figure pat00057

구해진 R, T가 이상적일 경우 다음의 수식을 통해 구해진

Figure pat00058
Figure pat00059
와 같아야 한다.If the obtained R and T are ideal,
Figure pat00058
silver
Figure pat00059
.

Figure pat00060
Figure pat00060

따라서 임의의 4개의 점으로 구해진 위의 R, T에 나머지 3차원 매칭된 데이터베이스부(27) 내의 물체에 있는 특징점들에 대입해 좌표값들을 구하고 이 실제 매칭된 영상 상의 좌표들과의 오차가 일정 조건(TH) 이하인 작은 매칭쌍인 인라이어(Inlier)의 개수를 증가시킨다. 이때 인라이어 카운팅 조건을 구하는 실시 예는 다음과 같다.Accordingly, the coordinate values are substituted into the feature points in the object in the database 27, which are matched with the remaining R and T obtained from the arbitrary four points, and the error between the coordinate values on the actually matched image is constant Increases the number of inliers that are small matching pairs that are below the condition (TH). An example of obtaining the inlier counting condition is as follows.

Figure pat00061
Figure pat00061

최종적으로 R, T가 적절한지의 결정은 다음과 같은 방법이 실시 예로 가능하다.The following method can be used to determine whether R and T are appropriate at the end.

아래의 조건을 만족하면 R, T 가 적절한 것으로 판단한다. 이러한 경우, 물체 인식 장치(20)는 물체 인식이 올바르게 이루어진 것으로 판단한다.If the following conditions are satisfied, R and T are judged to be appropriate. In this case, the object recognition apparatus 20 determines that the object recognition is correctly performed.

Figure pat00062
Figure pat00062

한편, 물체 인식 장치(20)는 상기의 과정을 통과하지 못할 경우 2D 호모그래피 기반 검증 작업을 수행하여 물체 인식이 올바르게 이루어졌는지를 다시 판단한다.On the other hand, if the object recognizing apparatus 20 can not pass the above process, the object recognizing apparatus 20 performs a 2D homography-based verification operation to determine again whether the object recognition is correctly performed.

10 : 스테레오 카메라 20 : 물체 인식 장치
21 : 시스템 관리부 22 : 영상 저장부
23 : 특징 벡터 관리부 24 : 제1 특징 추출부
25 : 제2 특징 추출부 26 : 특징 벡터 매칭부
27 : 데이터베이스부 28 : 물체 인식부
10: stereo camera 20: object recognition device
21: system management unit 22: image storage unit
23: feature vector management unit 24: first feature extraction unit
25: second feature extracting unit 26: feature vector matching unit
27: Database part 28: Object recognition part

Claims (9)

동일 물체의 좌우 영상을 출력하는 스테레오 카메라; 및
상기 스테레오 카메라로부터 입력된 좌우 영상에서 좌우측 특징 벡터들을 추출하고, 상기 추출된 좌우측 특징 벡터들을 서로 매칭시켜 상기 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들을 추출하고, 상기 추출된 복수의 공통 특징 벡터들과 데이터베이스부에 저장된 물체별로 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들을 매칭시키고, 상기 매칭 결과에 기초하여 상기 좌우 영상에 있는 물체를 인식하는 물체 인식 장치를 포함하는 물체 인식 시스템.
A stereo camera for outputting left and right images of the same object; And
Extracting left and right feature vectors from left and right images input from the stereo camera, extracting a plurality of common feature vectors common to the right and left images by matching the extracted left and right feature vectors with each other, And an object recognizing device for matching the plurality of common feature vectors commonly present in the left and right images with respect to the vectors and the objects stored in the database, and recognizing an object in the left and right images based on the matching result.
제1항에 있어서,
상기 물체 인식 장치는 상기 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들과 상기 데이터베이스부에 저장된 복수의 공통 특징 벡터들을 매칭시키고, 상기 공통 특징 벡터들의 매칭된 특징 벡터들에 대하여 유클리디언 거리값에 따라 물체별로 점수를 부여하고, 상기 부여된 점수를 합산하여 합산된 점수가 가장 높은 물체를 상기 좌우 영상에 있는 물체로 인식하는 물체 인식 시스템.
The method according to claim 1,
Wherein the object recognition apparatus matches a plurality of common feature vectors common to the left and right images and a plurality of common feature vectors stored in the database unit and generates an Euclidean distance corresponding to the matched feature vectors of the common feature vectors, Wherein the score is given for each object in accordance with the value of the sum of the scores and the sum of the assigned scores to recognize the object having the highest sum as the object in the left and right images.
제1항에 있어서,
상기 물체 인식 장치는:
상기 좌측 영상의 복수의 특징점들로부터 복수의 특징 벡터들을 추출하고, 우측 영상의 복수의 특징점들로부터 복수의 특징 벡터들을 추출하는 특징 추출부;
상기 좌측 영상으로부터 추출된 복수의 특징 벡터들과 상기 우측 영상으로부터 추출된 복수의 특징 벡터들을 매칭시켜 상기 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들을 추출하는 특징 벡터 매칭부; 및
상기 추출된 복수의 공통 특징 벡터들과 상기 데이터베이스부에 저장된 복수의 공통 특징 벡터들을 매칭시켜 상기 좌우 영상에 있는 물체를 인식하는 물체 인식부를 포함하는 물체 인식 시스템.
The method according to claim 1,
The object recognition apparatus comprises:
A feature extraction unit for extracting a plurality of feature vectors from the plurality of feature points of the left image and extracting a plurality of feature vectors from the plurality of feature points of the right image;
A feature vector matching unit for matching a plurality of feature vectors extracted from the left image and a plurality of feature vectors extracted from the right image to extract a plurality of common feature vectors common to the left and right images; And
And an object recognition unit for recognizing an object in the left and right images by matching the extracted common feature vectors with a plurality of common feature vectors stored in the database unit.
제3항에 있어서,
상기 특징 추출부는 상기 복수의 특징점들을 중심으로 하는 복수의 영역들에서 벡터들을 검출하고, 상기 검출된 벡터들의 집합을 특징 벡터로 추출하는 물체 인식 시스템.
The method of claim 3,
Wherein the feature extraction unit detects vectors in a plurality of regions centered on the plurality of feature points, and extracts the set of detected vectors as a feature vector.
제1항에 있어서,
상기 물체 인식 장치는 상기 좌우 영상에서 추출된 복수의 좌우측 특징 벡터 정보와, 상기 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터 정보와, 상기 복수의 공통 특징 벡터의 3차원 위치 정보를 상기 데이터베이스부에 상기 정보들에 대응하도록 미리 저장된 값들과 각각 매칭시키고, 상기 각각의 매칭 결과에 점수를 부여하고, 부여된 점수를 합산하여 합산된 점수가 가장 높은 물체를 상기 좌우 영상에 있는 물체로 인식하는 물체 인식 시스템.
The method according to claim 1,
The object recognition apparatus includes a plurality of left and right feature vector information extracted from the left and right images, a plurality of common feature vector information common to the left and right images, and three- For each of the matching results, a score corresponding to each of the matching results, and for summing the assigned scores, and for recognizing an object having the highest summed score as an object in the left and right images, Recognition system.
제1항에 있어서,
상기 물체 인식 장치는 상기 물체를 인식한 후 상기 매칭된 복수의 공통 특징 벡터들을 대상으로 2차원 호모그래피(Homography)와 3차원 유클리디언 변환(Euclidean Transform) 중 적어도 하나를 이용하여 상기 인식된 물체를 검증하는 물체 인식 시스템.
The method according to claim 1,
The object recognition apparatus recognizes the object, and then, using at least one of a two-dimensional homography and a three-dimensional Euclidean transformation, The object recognition system.
동일 물체를 촬영한 서로 다른 좌우 영상을 입력받고;
상기 입력된 좌우 영상에서 좌우측 특징 벡터들을 추출하고;
상기 추출된 좌우측 특징 벡터들을 서로 매칭시켜 상기 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들을 추출하고;
상기 추출된 복수의 공통 특징 벡터들과 데이터베이스부에 저장된 물체별로 좌우 영상에 공통적으로 존재하는 복수의 공통 특징 벡터들을 매칭시키고;
상기 매칭 결과에 따라 상기 좌우 영상에 있는 물체를 인식하는 물체 인식 방법.
Receiving different left and right images taken of the same object;
Extracting left and right feature vectors from the input left and right images;
Extracting a plurality of common feature vectors common to the left and right images by matching the extracted left and right feature vectors with each other;
Matching the extracted common feature vectors with a plurality of common feature vectors common to left and right images for each object stored in the database unit;
And recognizing an object in the left and right images according to the matching result.
제7항에 있어서,
상기 물체를 인식하는 것은, 상기 매칭된 복수의 공통 특징 벡터들에 대하여 유클리디언 거리값에 따라 물체별로 점수를 부여하고, 상기 부여된 점수를 합산하여 상기 합산된 점수가 가장 높은 물체를 상기 좌우 영상에 있는 물체로 인식하는 것을 포함하는 물체 인식 방법.
8. The method of claim 7,
The recognition of the object may be performed by assigning a score to each of the plurality of common feature vectors according to an Euclidean distance value for each object and summing the given points so that the object having the highest summed score An object recognition method comprising recognizing an object in a video.
제7항에 있어서,
상기 물체를 인식한 후 상기 매칭된 복수의 공통 특징 벡터들을 대상으로 2차원 호모그래피(Homography)와 3차원 유클리디언 변환(Euclidean Transform) 중 적어도 하나를 이용하여 상기 인식된 물체를 검증하는 것을 더 포함하는 물체 인식 방법.
8. The method of claim 7,
And verifying the recognized object using at least one of two-dimensional homography and a three-dimensional Euclidean transform on the matched plurality of common feature vectors after recognizing the object Comprising:
KR1020160128906A 2016-10-06 2016-10-06 Object recognition system and method the same KR101715782B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160128906A KR101715782B1 (en) 2016-10-06 2016-10-06 Object recognition system and method the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160128906A KR101715782B1 (en) 2016-10-06 2016-10-06 Object recognition system and method the same

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
KR1020090120692A Division KR20110064197A (en) 2009-12-07 2009-12-07 Object recognition system and method the same

Publications (2)

Publication Number Publication Date
KR20160121481A true KR20160121481A (en) 2016-10-19
KR101715782B1 KR101715782B1 (en) 2017-03-13

Family

ID=57250928

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160128906A KR101715782B1 (en) 2016-10-06 2016-10-06 Object recognition system and method the same

Country Status (1)

Country Link
KR (1) KR101715782B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180070258A (en) 2016-12-16 2018-06-26 기아자동차주식회사 Method for detecting and learning of objects simultaneous during vehicle driving
KR20190134920A (en) * 2018-05-15 2019-12-05 연세대학교 산학협력단 Apparatus and method for detecting object based on heterogeneous sensor
US11915432B2 (en) 2020-01-16 2024-02-27 Samsung Electronics Co., Ltd. Method and apparatus for tracking target

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083297A (en) * 2000-06-28 2002-03-22 Matsushita Electric Ind Co Ltd Object recognition method and object recognition device
KR20040005895A (en) * 2001-03-23 2004-01-16 인텔 코오퍼레이션 Image retrieval using distance measure
US20060221072A1 (en) * 2005-02-11 2006-10-05 Se Shuen Y S 3D imaging system
JP2007249592A (en) * 2006-03-15 2007-09-27 Japan Science & Technology Agency Three-dimensional object recognition system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002083297A (en) * 2000-06-28 2002-03-22 Matsushita Electric Ind Co Ltd Object recognition method and object recognition device
KR20040005895A (en) * 2001-03-23 2004-01-16 인텔 코오퍼레이션 Image retrieval using distance measure
US20060221072A1 (en) * 2005-02-11 2006-10-05 Se Shuen Y S 3D imaging system
JP2007249592A (en) * 2006-03-15 2007-09-27 Japan Science & Technology Agency Three-dimensional object recognition system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180070258A (en) 2016-12-16 2018-06-26 기아자동차주식회사 Method for detecting and learning of objects simultaneous during vehicle driving
KR20190134920A (en) * 2018-05-15 2019-12-05 연세대학교 산학협력단 Apparatus and method for detecting object based on heterogeneous sensor
US11915432B2 (en) 2020-01-16 2024-02-27 Samsung Electronics Co., Ltd. Method and apparatus for tracking target

Also Published As

Publication number Publication date
KR101715782B1 (en) 2017-03-13

Similar Documents

Publication Publication Date Title
KR20110064197A (en) Object recognition system and method the same
KR101791590B1 (en) Object pose recognition apparatus and method using the same
Bąk et al. Learning to match appearances by correlations in a covariance metric space
Föckler et al. Phoneguide: museum guidance supported by on-device object recognition on mobile phones
US10909369B2 (en) Imaging system and method for object detection and localization
CN112084849A (en) Image recognition method and device
KR101460313B1 (en) Apparatus and method for robot localization using visual feature and geometric constraints
KR101715782B1 (en) Object recognition system and method the same
Erkent et al. Integration of probabilistic pose estimates from multiple views
KR101715781B1 (en) Object recognition system and method the same
JP5536124B2 (en) Image processing system and image processing method
CN105190689A (en) Image processing including adjoin feature based object detection, and/or bilateral symmetric object segmentation
Ramisa et al. Mobile robot localization using panoramic vision and combinations of feature region detectors
CN109074643B (en) Orientation-based object matching in images
Haines et al. Estimating Planar Structure in Single Images by Learning from Examples.
JP7336653B2 (en) Indoor positioning method using deep learning
WO2017042852A1 (en) Object recognition appratus, object recognition method and storage medium
CN108876849B (en) Deep learning target identification and positioning method based on auxiliary identification
Lee et al. Autonomous salient feature detection through salient cues in an HSV color space for visual indoor simultaneous localization and mapping
KR20220055072A (en) Method for indoor localization using deep learning
Kweon et al. Robust invariant features for object recognition and mobile robot navigation
Nousias et al. $ H $-RANSAC, an algorithmic variant for Homography image transform from featureless point sets: application to video-based football analytics
JP7110293B2 (en) Information processing device, information processing method and program
KR102495005B1 (en) Method for indoor localization using deep learning
Yun et al. Self-calibration with two views using the scale-invariant feature transform

Legal Events

Date Code Title Description
A107 Divisional application of patent
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200225

Year of fee payment: 4