KR20110021500A - Method for real-time moving object tracking and distance measurement and apparatus thereof - Google Patents

Method for real-time moving object tracking and distance measurement and apparatus thereof Download PDF

Info

Publication number
KR20110021500A
KR20110021500A KR1020090079332A KR20090079332A KR20110021500A KR 20110021500 A KR20110021500 A KR 20110021500A KR 1020090079332 A KR1020090079332 A KR 1020090079332A KR 20090079332 A KR20090079332 A KR 20090079332A KR 20110021500 A KR20110021500 A KR 20110021500A
Authority
KR
South Korea
Prior art keywords
region
interest
real time
hand
moving object
Prior art date
Application number
KR1020090079332A
Other languages
Korean (ko)
Inventor
유지상
김태준
김수동
이동석
Original Assignee
유지상
이동석
김태준
김수동
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 유지상, 이동석, 김태준, 김수동 filed Critical 유지상
Priority to KR1020090079332A priority Critical patent/KR20110021500A/en
Publication of KR20110021500A publication Critical patent/KR20110021500A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region

Abstract

PURPOSE: A method for real-time moving object tracking and distance measurement, and an apparatus thereof are provided to accurately separate a region of interest and reduce the left/right region of interest. CONSTITUTION: A region of interest is separated from the left/right images obtained from a camera(101). The characteristics that the region of interest has are used in a color structure. The noises generated from the internal and external regions of interest are removed. Depth is estimated by using the difference value of absolute coordinate between the regions of interest in the left/right images(103). In order to control a system, the region of interest is estimated and an operation is recognized in real time(105).

Description

이동객체의 실시간 추적과 거리 측정 방법 및 그 장치 {METHOD FOR REAL-TIME MOVING OBJECT TRACKING AND DISTANCE MEASUREMENT AND APPARATUS THEREOF}METHOD FOR REAL-TIME MOVING OBJECT TRACKING AND DISTANCE MEASUREMENT AND APPARATUS THEREOF}

본 발명은 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 양안 카메라로부터 획득된 객체가 가지는 색상구조상의 특징을 이용하여 좌우 영상에서 관심 영역을 분리하고 동일한 관심 영역의 좌표 값의 차이를 이용하여 깊이를 획득하는 방법 및 그 장치에 관한 것이다. 본 발명은 지식경제부 및 정보통신연구진흥원의 IT산업원천기술개발사업과 서울시 산학연 협력사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리 번호: 2009-F-208-01, 과제명: 대화형 디지털 홀로그램 통합서비스 시스템의 구현을 위한 신호처리 요소 기술 및 SoC 개발, 과제관리 번호: NT080528]The present invention relates to a method and apparatus for real-time tracking and distance measurement of a moving object, and more particularly, by using a color structure feature of an object obtained from a binocular camera to separate a region of interest from a left and right image, A method and apparatus for obtaining depth using a difference in coordinate values are provided. The present invention is derived from the research conducted as part of the IT industry source technology development project of the Ministry of Knowledge Economy and the Ministry of Information and Communication Research and the cooperation project of industry-university-industrial cooperation in Seoul [Task management number: 2009-F-208-01, Signal processing element technology and SoC development for the implementation of digital hologram integrated service system, task management number: NT080528]

컴퓨터 비젼(computer vision)은 인간의 시각 시스템을 그대로 컴퓨터로 구현하려는 목표를 지닌 분야로써 이동하는 특정 물체를 실시간으로 인식하고 움직임을 추적하는 기술에 대한 연구가 진행되어 왔다. 인간의 시각 시스템에서 중요한 것은 3차원 공간에서 목표물을 인식하고 추적하는 것과 목표물까지의 거리를 측정하는 것이다. 목표물까지의 거리를 측정함으로써 차후 행동에 대한 의사 결정을 할 수 있으며, 이 같은 특성을 컴퓨터에 적용함에 있어 중요한 것은 목표물까지의 거리, 즉 깊이 정보임을 알 수 있다. Computer vision is a field with the goal of realizing a human visual system as a computer, and researches on a technology of recognizing a moving object in real time and tracking a movement have been conducted. The important thing in human visual system is to recognize and track the target in 3D space and to measure the distance to the target. By measuring the distance to the target, decisions about future behavior can be made. The important thing in applying these characteristics to the computer is the distance to the target, that is, the depth information.

깊이 정보를 획득하는 방법은 여러 가지가 있는데 초음파나 레이저 센서 등을 이용한 능동적 방법은 주변 환경에 민감하게 반응해 간섭에 의해 정확한 정보를 얻기 힘든데 반해 수동적 방법은 주변 환경의 변화에 상대적으로 간섭의 영향을 적게 받아 잡음이 많은 환경에서 효과적으로 사용될 수 있다. 스테레오 비젼(stereo vision)은 대표적인 수동적 방법으로 3차원 공간상에 존재하는 양안 카메라로부터 획득된 좌우 영상에서 상호 간의 정합점(matching point)을 찾아내고 정합점 간의 차이를 이용하여 깊이를 추정한다. 스테레오 비젼은 환경의 특별한 제약 없이 일반적인 자연 환경을 대상으로 할 수 있는 장점 때문에 여러 분야에 응용되고 있다. There are many ways to acquire depth information. Active methods, such as ultrasonic or laser sensors, are sensitive to the surrounding environment and difficult to obtain accurate information due to interference, whereas passive methods are relatively insensitive to changes in the surrounding environment. It can be effectively used in a noisy environment due to its low cost. Stereo vision is a typical passive method that finds matching points between left and right images obtained from binocular cameras in three-dimensional space and estimates depths using the differences between the matching points. Stereo vision has been applied to various fields because of its advantages that it can target the general natural environment without any special environmental constraints.

영상의 정합은 스테레오 비젼에서 3차원 공간상의 한 점이 두 영상에 투영되는 점의 대응 관계를 찾아내는 중요한 과정이다. 이 과정을 스테레오 정합(stereo matching)이라 부르며 두 영상에서 선택된 점들이 대응점을 가지는가를 판단하고 그 점에서의 깊이 정보의 지표가 되는 변이를 계산하는 것이 이 과정의 핵심이다. 스테레오 정합은 좌우 영상의 대응점을 찾는 작업을 통하여 단순화 될 수 있으며, 대응점 문제를 다루기 위해서 어떠한 정합 방법을 선택하느냐는 매우 중요하다. 정합 방법은 크게 영역기반(area-based), 특징기반(feature-based), 에너지기반(energy-based) 정합으로 나뉘며 보다 나은 결과를 얻기 위해 세 가지를 혼용하는 경우도 있다. Image matching is an important process of finding the correspondence between the points projected on two images in a three-dimensional space in stereo vision. This process is called stereo matching, and the core of this process is to determine whether the selected points in the two images have corresponding points and calculate the variation that is an indicator of depth information at the points. Stereo matching can be simplified by finding the matching points of the left and right images, and it is very important to choose the matching method to deal with the matching point problem. The matching method is largely divided into area-based, feature-based, and energy-based matching, and there are cases where the three are mixed for better results.

한 영상에서 특징을 포함한 일정 영역의 영상조각을 가지고 다른 영상과의 상관관계(correlation)를 이용하는 대응점을 찾는 방법을 영역기반 정합(area-based matching)이라 한다. 두 영상의 화소 밝기 값이 직접 정합에 사용되므로 정합에 사용되는 화소들의 특징의 변화에 아주 민감하고 계산이 간단하지만 시간이 많이 소요되고 영상의 왜곡이나 잡음에 취약한 단점을 지니고 있다. Area-based matching is a method of finding a correspondence point that uses a correlation with another image with a fragment of a certain region including a feature in one image. Since the pixel brightness values of the two images are used for direct matching, they are very sensitive to changes in the characteristics of the pixels used for matching and are simple to calculate, but they are time consuming and vulnerable to image distortion and noise.

특징기반 정합(feature-based matching)은 화소의 밝기에 대한 미분 연산자를 이용하여 1차원 또는 2차원 특징값을 얻어내고 명암대비의 평균값이나 경계의 방향 등을 특징으로 선택하여 정합에 사용하는 정합 방법이다. 사용되는 영상의 특징으로는 영 교차점(zero crossing point), 경계선, 모서리(edge),기울기(gradiant), 구석(corner), 마루(ridge), 골(cave), 원추 곡선(conic curve)등이 있고, 좀 더 정확한 정합이 가능하지만 알고리즘이 복잡한 단점이 있다. Feature-based matching is a matching method that obtains one-dimensional or two-dimensional feature values using differential operators on the brightness of pixels, selects the average value of contrast and the direction of the boundary, and uses them for matching. to be. The features of the images used include zero crossing points, boundaries, edges, gradients, corners, ridges, valleys, and cone curves. More accurate matching is possible, but the algorithm is complex.

베이시안 추론을 적용한 에너지 함수를 이용하거나 정합을 정칙화(regulari- zation) 문제로 표현하여 반복법으로 변이를 구하는 정합 방법을 에너지기반 정합(energy-based matching) 정합이라 한다. 이 중 영상에서 정합될 관심영역에 포함된 모든 화소에 대하여 다른 영상과의 상관관계를 구하는 영역기반 정합 방법이 널리 사용되지만 이런 방법은 전체 변이를 한 번에 얻을 수 있는 반면 계산 복잡도가 높아 연산에 상당한 시간이 소요되는 단점이 있다. An energy-based matching match is an energy-based matching match that uses variations of the Bayesian inference or uses the iteration method to find the variation by recursion. Among these, the area-based matching method is widely used to obtain correlations with other images for all the pixels included in the ROI to be matched in the image. However, this method can obtain the entire variation at once, while the computational complexity is high. The disadvantage is that it takes considerable time.

본 발명은 상기 언급한 영역 기반 정합 방법의 단점을 해결하기 위하여 제안한 것으로서, 관심 영역을 정확히 분리하고, 좌우 관심 영역을 축소하여 계산 복잡도가 줄어든 정합 방법을 사용하는 이동객체의 깊이 추정 방법과 일련의 시스템을 제어하기 위해 획득된 객체의 움직임을 인식하는 방법 및 그 장치를 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above-mentioned shortcomings of the region-based matching method. The present invention proposes a method for estimating depth of a moving object and a series of depth estimation methods using a matching method in which the region of interest is accurately separated and the left and right regions of interest are reduced. It is an object of the present invention to provide a method and apparatus for recognizing a movement of an acquired object for controlling a system.

상기 목적을 달성하기 위한 본 발명은 양안 카메라에서 획득된 좌우 영상에서 관심 영역을 분리하는 관심 영역 분리 단계; 좌우 영상에 관심 영역 간의 절대 좌표의 차이 값을 이용하여 깊이를 추정하는 깊이 정보 추정 단계; 시스템의 제어를 위해 관심 영역을 실시간으로 추적하고 동작을 인식하는 관심 영역 추적 및 인식 단계를 포함하는 이동객체의 깊이 측정 방법을 제공한다.The present invention for achieving the above object is a region of interest separation step of separating the region of interest from the left and right images obtained by the binocular camera; A depth information estimating step of estimating depth using a difference value of absolute coordinates between regions of interest in a left and right image; The present invention provides a method for measuring a depth of a moving object including a region of interest tracking and recognition for tracking a region of interest in real time and recognizing a motion for controlling the system.

본 발명에 따르면, 양안 카메라로 획득된 좌우 영상에서 정확한 관심 영역을 획득하고, 각각의 관심 영역의 특징점만을 정합에 사용하여 비교적 정확하고 빠르게 깊이를 측정할 수 있다. 따라서 실시간으로 이동객체의 깊이를 획득할 수 있는 효과가 있다. According to the present invention, an accurate ROI can be obtained from left and right images acquired by a binocular camera, and depth can be measured relatively accurately and quickly by using only the feature points of each ROI. Therefore, the depth of the moving object can be obtained in real time.

또한 관심 영역의 동작을 인식하여서 일련의 동작의 실행 조건으로 사용할 수 있다. In addition, the operation of the region of interest may be recognized and used as an execution condition of the series of operations.

이하 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있도록 상세히 설명하기 위하여, 본 발명의 가장 바람직한 실시 예를 첨부 도면을 참조하여 설명하기로 한다.DETAILED DESCRIPTION Hereinafter, the most preferred embodiment of the present invention will be described with reference to the accompanying drawings so that those skilled in the art may easily implement the technical idea of the present invention.

도 1은 본 발명의 일실시 예를 따른 이동객체의 실시간 추적 및 깊이 측정 방법을 나타내는 전체적인 흐름도이다.1 is an overall flowchart illustrating a method for real-time tracking and depth measurement of a moving object according to an exemplary embodiment of the present invention.

도 1을 참조하면, 본 발명에 따른 이동객체의 실시간 추적 및 깊이 측정 방법은 관심 영역의 분리 단계(101), 관심 영역의 깊이 추정 및 좌표 추정 단계(103), 관심 영역의 동작 인식 단계(105)를 포함한다. Referring to FIG. 1, in the real-time tracking and depth measuring method of a moving object according to the present invention, a step 101 of separating a region of interest, a depth estimation and coordinate estimation stage 103 of a region of interest, and a motion recognition stage 105 may be performed. ).

도 2는 본 발명에 따른 관심 영역 분리 단계(101)를 나타내는 상세 흐름도이다.2 is a detailed flowchart illustrating a region of interest separation step 101 according to the present invention.

먼저 관심 영역의 분리 단계에서는 양안 카메라에서 획득된 좌우 영상(201)에서 관심 영역만을 분리해낸다. 본 발명은 손 영역을 관심 영역으로 지정하여 분리해내는데 색차 평면상에서 피부색만이 가지는 특징을 이용하여 피부 영역을 추출해 낸다. 카메라는 RGB 색상구조로 영상을 제공하는데 이는 주변 조명 환경에 민감하게 반응하여 비슷한 색상의 반사광이 함께 검출되는 문제점이 발생한다. 따라서 영상의 화소를 각각 명암 성분(luma component)과 색차 성분(chrominance component)으로 표현하여 조명 환경의 변화에도 보다 안정적인 값을 가지는 YCbCr 색상구조로 영상의 색상구조를 변환하여 피부 영역 검출에 사용한다. 양안 카메라로부터 획득한 좌우 영상의 RGB 색상구조를 YCbCr 색상구조로 변환한 후, 피부색이 분포하는 파란색의 색차 성분, Cb(blue chrominance)과 붉은색의 색차 성분, Cr(red chrominance)의 분포를 이용하여 손 영역을 분리해낸다. First, in the separation of the ROI, only the ROI is separated from the left and right images 201 obtained by the binocular camera. The present invention designates and separates a hand region as a region of interest, and extracts a skin region by using a feature of only skin color on a color difference plane. The camera provides an image in an RGB color structure, which is sensitive to the ambient lighting environment, which causes a problem of detecting similarly reflected light together. Therefore, the pixels of the image are represented by a luma component and a chrominance component, respectively, to convert the color structure of the image into a YC b C r color structure that has a more stable value even when the lighting environment is changed. use. After converting the RGB color structure of the left and right images obtained from the binocular camera into the YC b C r color structure, the blue color difference component, C b (blue chrominance) and red color difference component, C r (red chrominance) Using the distribution of), separate hand regions.

도 3은 본 발명에 따른 색차 성분을 조건으로 한 관심 영역 분리 단계(203)를 통해 영상에서 손 영역을 분리해낸 결과 영상이 도시된 도면이다.FIG. 3 is a diagram illustrating an image of a hand region separated from an image through an ROI separation step 203 subject to a chrominance component according to the present invention.

조명 환경 변화에 영향을 적게 받는 YCbCr 색상구조를 관심 영역 분리 단계(203)에 사용함에도 불구하고 주변 조명 환경에 따라 영상에 관심 영역 내외에 잡음 영역(305)이 존재하게 된다.Although the YC b C r color structure, which is less susceptible to changes in the lighting environment, is used in the region of interest separation step 203, the noise region 305 is present in and around the region of interest in the image according to the ambient lighting environment.

이와 같이 조명 환경에 따라 분리된 손 영역과 그외에 배경 영역에 발생하는 잡음 영역은 잡음 영역 제거 단계(205)를 통해 보상된다. 잡음 영역 제거 단계는 홀 처리(207)와 스무딩 필터링(209)으로 구성된다.In this way, the hand region separated by the lighting environment and the noise region occurring in the background region are compensated through the noise region removing step 205. The noise domain removal step consists of hole processing 207 and smoothing filtering 209.

홀 처리는 영상을 가로, 세로 두 방향으로 탐색하면서 손 영역으로 판단된 화소간 간격의 크기를 기준으로 하여 손 영역, 혹은 잡음 영역임을 판단하고 보상, 제거하는 동작을 수행한다.The hole processing searches for an image in two directions, horizontally and vertically, and determines, compensates, and removes a hand region or a noise region based on the size of the interval between pixels determined as the hand region.

도 4는 관심 영역을 판단하는 화소간의 간격을 2로 설정한 홀 처리의 일실시 예가 도시된 도면이다.FIG. 4 is a diagram illustrating an embodiment of a hole process in which a gap between pixels for determining a region of interest is set to two; FIG.

손 영역으로 판단된 화소간의 간격이 2 이하일 때에는 손 영역에 발생한 잡음으로 판단하고 보상하지만, 화소간의 간격이 2를 초과할 때에는 잡음으로 판단하지 않고 보상하지 않는다.When the distance between the pixels determined to be the hand region is 2 or less, the noise is determined and compensated for in the hand region. However, when the distance between the pixels exceeds 2, the noise is not judged as noise and is not compensated.

도 5는 스무딩 필터링의 일실시 예가 도시된 도면이다.5 is a diagram illustrating an embodiment of smoothing filtering.

스무딩 필터링은 화소 단위로 영상을 탐색하면서 화소를 둘러싼 일정 크기의 블록내의 화소 값들의 총합의 크기에 따라 화소가 손 영역 혹은 배경 영역인지를 판단하고 보상하는 동작을 수행한다. Smoothing filtering searches for an image on a pixel-by-pixel basis, and determines and compensates whether a pixel is a hand region or a background region according to a sum of pixel values in a predetermined size block surrounding the pixel.

도 6은 본 발명의 따른 잡음 제거 단계(205)를 포함한 관심 영역 분리 단계(101)를 거친 영상의 일실시 예가 도시된 도면이다.FIG. 6 is a diagram illustrating an embodiment of an image that has passed the ROI separation step 101 including the noise removing step 205 according to the present invention.

YCbCr 색상구조에서 피부색이 가지는 특성을 이용하여 획득한 손 영역 영상(601)에 조명 환경에 영향에 의해 발생한 잡음 영역은 홀 처리와 스무딩 필터링을 차례로 거쳐 잡음이 제거된 영상(605)으로 보상된다.The noise region generated by the influence of the lighting environment on the hand region image 601 obtained using the characteristic of the skin color in the YC b C r color structure is the image 605 from which the noise is removed through hole processing and smooth filtering. Is compensated.

도 7은 본 발명에 따른 관심 영역의 깊이 추정 및 좌표 추정 단계(103)를 상세히 나타내는 흐름도이다.7 is a flowchart showing in detail the depth estimation and coordinate estimation step 103 of the ROI in accordance with the present invention.

도 7을 참조하면, 관심 영역의 깊이 추정 및 좌표 추정 단계는 관심 영역의 중심 좌표를 이용한 변이 추정 단계(701) 및 3차원 공간 좌표 획득 단계를 포함한다.Referring to FIG. 7, the depth estimating and coordinate estimating step of the ROI includes a displacement estimation step 701 using the center coordinates of the ROI and a three-dimensional spatial coordinate acquisition step.

관심 영역 분리 단계를 통해 분리된 좌우 관심 영역은 시점의 차이 때문에 동일한 물체에 대해 좌표 값의 차이가 발생한다. 이를 변이(disparity)라 하고 이 를 이용하여 관심 영역의 깊이를 추정한다. 일반적으로 좌우 영상의 일정 영역의 영상 조각(image patch)을 가지고 서로 간의 상관관계(correlation)를 이용하여 변이를 추정하는 영역기반 정합기법을 변이추정에 사용하는 데 이는 잡음과 영상의 왜곡 등에 민감하고 계산량이 많은 단점이 있다.The left and right regions of interest separated through the region of interest separation may cause differences in coordinate values for the same object. This is called disparity and the depth of interest is estimated using this. In general, the region-based matching technique for estimating the variation using the image patch of a certain region of the left and right images using the correlation between each other is used for the estimation of the variation, which is sensitive to noise and image distortion. There is a disadvantage in that the calculation amount is large.

영역 기반 변이 추정기법의 많은 계산량을 축소하여 상기의 문제점을 개선하기 위해 변이에 사용되는 좌우 관심 영역을 축소한 깊이 추정 기법(701)을 수행한다.In order to reduce the large amount of computation of the region-based disparity estimating technique and to improve the above-mentioned problem, the depth estimation technique 701 which reduces the left and right regions of interest used for the disparity is performed.

도 8은 영역 기반 변이 추정기법의 많은 계산량을 축소하기 위해 변이에 사용되는 좌우 관심영역이 축소된 깊이 추정기법이 도시되어 있다. FIG. 8 illustrates a depth estimation technique in which the left and right regions of interest used in the variation are reduced in order to reduce a large amount of calculation of the region-based variation estimation technique.

관심 영역 분리 단계를 통해 잡음 등과 같은 외부 환경의 영향을 최소화하여 분리한 손 영역 영상(801)에서 손 영역으로 분리된 좌표값들을 모두 더하고 손 영역의 총 개수로 나누어 평균이 되는 손 영역의 중심 좌표(803)를 얻어내고 변이 추정에 사용하여 계산량을 크게 줄인다. 좌우 손 영역의 중심 좌표의 차이를 이용하여 손 영역의 깊이를 추정한다. 변이에 사용된 중심좌표와 깊이를 고려한 손 영역의 3차원 좌표(707)를 실시간으로 얻어낸다.The center coordinates of the hand region that are averaged by adding all the coordinate values separated by the hand region from the separated hand region image 801 by minimizing the influence of the external environment such as noise through the region of interest separation. Obtain (803) and use it for estimating the variance to greatly reduce the amount of computation. The depth of the hand region is estimated using the difference in the center coordinates of the left and right hand regions. The three-dimensional coordinates 707 of the hand region in consideration of the center coordinates and the depth used for the variation are obtained in real time.

도 9는 본 발명에 따른 관심 영역 동작의 인식 단계(105)를 상세히 나타내는 흐름도이다. 9 is a flow chart illustrating in detail the recognition step 105 of the ROI operation in accordance with the present invention.

도 9를 참조하면, 관심 영역 인식 단계(105)는 세선화된 경계 영상 획득 단계(901)와 손가락을 경유하는 원을 도시하는 단계(905) 및 경계와 원과의 교점의 개수를 세는 단계(907)를 포함한다.Referring to FIG. 9, the ROI recognition step 105 includes a thinning boundary image acquisition step 901, a circle showing a circle passing through a finger, and a number of intersection points between the boundary and the circle ( 907).

도 10은 손 동작을 인식하기 위해 손가락 개수를 세는 단계(903)가 도시되어 있다.10 shows a step 903 of counting the number of fingers to recognize hand gestures.

손가락의 개수를 구하기 위해 손 영역의 경계 영상에 변이 추정에 사용하였던 손 영역의 중심 좌표를 중심으로 하는 원을 그려 그 교점의 개수를 이용한다. 손가락을 적절히 경유하는 원의 크기를 정하기 위해서 손 영역의 중심좌표로부터 22.5도씩 16 방위로 검색하여 손 영역의 경계와의 교점을 구한다. 경계와 만나는 16개의 점들과 중심좌표와의 거리 중, 각각 크기가 최대와 최소인 2개의 점들을 제외한 12개의 점들의 크기의 평균을 원의 반지름으로 설정한다.In order to obtain the number of fingers, a circle centered on the coordinates of the center of the hand region used for the disparity estimation is drawn on the boundary image of the hand region, and the number of intersection points is used. In order to determine the size of the circle through the finger properly, search for 22.5 degrees in 16 directions from the center coordinate of the hand region to find the intersection with the boundary of the hand region. The radius of the circle is set to the average of the size of the 12 points except the two points having the largest and the smallest of the 16 points and the distance between the center coordinates.

도 11은 손가락을 경유하는 원과 경계의 교점의 개수를 안정화하기 위한 영상의 세선화(edge thinning) 단계(901)가 도시되어 있다. FIG. 11 shows an edge thinning step 901 of an image for stabilizing the number of intersections of a circle and a boundary via a finger.

소벨 필터(Sobel filter)를 거친 영상(1101)은 경계 부분이 부분적으로 하나 이상의 화소로 이루어져 있어서 손가락을 경유하는 원과의 교점에서 둘 이상의 화소가 겹쳐지는 문제점이 발생한다. 경계 영상이 하나의 화소로 이루어지도록 세선화 과정을 거쳐 교점의 개수를 안정적으로 셀 수 있도록 할 수 있다. 분리 단계를 거친 손 영상(1103)에 소벨 필터(Sobel filter)를 거쳐 경계 영상(1101)을 얻어내고, 소벨 필터를 거치기 전의 손 영역 분할 영상(1103)과의 뺄셈 연산을 수행한다. 뺄셈 연산 후에는 소벨 필터 경계 영상(1101)의 경계 부분 중에 손 영역에 해당되는 안쪽 화소들이 지워져 관심 영역을 둘러싼 가는 경계만 남은 영상(1105)이 남게 된다. The image 1101, which has undergone the Sobel filter, has a boundary part partially composed of one or more pixels, causing two or more pixels to overlap at an intersection with a circle passing through a finger. The number of intersections can be stably counted through the thinning process so that the boundary image is composed of one pixel. A boundary image 1101 is obtained through a Sobel filter on the hand image 1103 which has been separated, and a subtraction operation is performed with the hand region split image 1103 before passing through the Sobel filter. After the subtraction operation, the inner pixels corresponding to the hand region are erased from the boundary of the Sobel filter boundary image 1101, leaving the image 1105 having only a thin boundary surrounding the ROI.

한편, 전술한 바와 같은 본 발명에 따른 이동객체의 추적 및 깊이 추정방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.On the other hand, the tracking and depth estimation method of the moving object according to the present invention as described above can be prepared by a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. The written program is also stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. The recording medium may include any type of computer readable recording medium.

본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으면 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능하다.Although the invention has been described by way of limited embodiments and drawings, the invention is not to be limited thereto and is intended to be equivalent to those of ordinary skill in the art and claims by those skilled in the art to which the invention pertains. Various modifications and variations are possible within.

도 1은 이동객체의 추적과 깊이 추정 및 좌표 추정 방법을 나타내는 흐름도1 is a flowchart illustrating a method for tracking a moving object, estimating depth, and estimating coordinates.

도 2는 관심 영역의 분리 방법을 상세히 나타내는 흐름도2 is a flowchart illustrating a method of separating a region of interest in detail;

도 3은 각기 다른 조명 환경에서 YCbCr 색상구조상에서 피부색이 차지하는 영역을 조건으로 손 영역으로 추출한 결과 영상을 도시한 도면FIG. 3 is a diagram showing an image of a result obtained by extracting a hand region based on an area occupied by skin color on a YC b C r color structure in different lighting environments. FIG.

도 4는 홀 처리를 설명하기 위한 도면4 is a diagram for explaining hole processing;

도 5는 스무딩 필터링을 설명하기 위한 도면5 is a diagram for explaining smoothing filtering.

도 6은 홀 처리와 스무딩 필터링을 통해 영상의 잡음을 제거하는 결과 영상을 도시한 도면FIG. 6 is a diagram illustrating a resultant image of removing noise of an image through hole processing and smoothing filtering. FIG.

도 7은 관심 영역의 깊이 추정 및 좌표 추정 방법을 상세히 나타내는 흐름도7 is a flowchart illustrating a method of estimating depth and a coordinate of a region of interest in detail;

도 8은 영역기반 변이 추정기법의 계산량을 줄이기 위해 관심 영역의 중심 좌표로 변이 추정에 사용되는 영역을 줄이는 동작을 나타내는 도면8 is a diagram illustrating an operation of reducing an area used for disparity estimation to the center coordinates of a region of interest in order to reduce the calculation amount of the region-based disparity estimating technique.

도 9는 관심 영역의 동작 인식 방법을 상세히 나타내는 흐름도9 is a flowchart illustrating a method of recognizing a motion of a region of interest.

도 10은 손 동작을 인식하기 위해 손가락 개수를 세는 동작을 설명하기 위한 도면10 is a view for explaining an operation of counting the number of fingers to recognize a hand gesture.

도 11은 손가락을 경유하는 원과 손 영역의 경계와의 교점을 정확히 세기 위한 세선화 과정을 설명하기 위한 도면FIG. 11 is a view for explaining a thinning process for accurately counting an intersection between a circle passing through a finger and a boundary of a hand region; FIG.

Claims (8)

양안 카메라에서 획득된 좌우 영상에서 관심 영역을 분리하는 관심 영역 분리 단계;A region of interest separation step of separating the region of interest from the left and right images acquired by the binocular camera; 상기 좌우 영상에 관심 영역 간의 절대 좌표의 차이 값을 이용하여 깊이를 추정하는 깊이 정보 추정 단계; 및A depth information estimating step of estimating depth by using a difference value of absolute coordinates between regions of interest in the left and right images; And 상기 시스템의 제어를 위해 관심 영역을 실시간으로 추적하고 동작을 인식하는 관심 영역 추적 및 인식 단계Tracking and recognizing a region of interest for tracking the region of interest in real time and recognizing motion for control of the system 를 포함하는 이동객체의 실시간 추적 및 깊이 측정 방법.Real time tracking and depth measurement method of the moving object comprising a. 제 1항에 있어서       The method of claim 1 상기 관심 영역 분리 단계는The region of interest separation step 색상구조에서 관심 영역이 가지는 특징을 이용하는 분리 단계; 및A separation step of using features of the region of interest in the color structure; And 관심 영역 내외에 발생하는 잡음을 제거하는 잡음 제거 단계Noise Canceling Step Eliminates Noise Occurring in and Outside the Region of Interest 를 포함하는 이동객체의 실시간 추적 및 깊이 측정 방법.Real time tracking and depth measurement method of the moving object comprising a. 제 2항에 있어서       The method of claim 2 상기 잡음 영역 제거 단계는The noise region removing step 손 영역으로 판단, 분리된 화소간의 간격의 크기에 따라 잡음 영역을 제거하는 홀 처리 단계; 및A hole processing step of removing the noise area according to the size of the gap between the separated pixels, determined as the hand area; And 화소를 포함하는 블록 내 모든 화소 값의 합의 크기에 따라 화소 값을 보상하는 스무딩 필터링 단계Smoothing filtering step of compensating pixel values according to the sum of sum of all pixel values in a block including pixels 를 포함하는 이동객체의 실시간 추적 및 깊이 측정 방법.Real time tracking and depth measurement method of the moving object comprising a. 제 3항에 있어서      The method of claim 3 상기 각 단계는Each step above 화소 단위로 수행되는Performed pixel by pixel 이동객체의 실시간 추적 및 깊이 측정 방법.Real time tracking and depth measurement of moving objects. 상기 깊이 정보 추정 단계는      The depth information estimating step 분리 단계를 거친 좌우 관심 영역에 모든 좌표 값의 합을 관심 영역의 총 개수로 나누어서 손 영역의 중심 좌표를 얻어내고 변이를 추정하는 변이 추정부Disparity estimator that obtains the center coordinates of the hand region and estimates the variation by dividing the sum of all coordinate values in the left and right region of interest through the separation step by the total number of regions of interest 를 포함하는 이동객체의 실시간 추적 및 깊이 측정 방법.Real time tracking and depth measurement method of the moving object comprising a. 상기 관심 영역 인식 단계는      The ROI recognition step 상기 손 영역을 경유하는 원과의 교점의 획득의 안정화를 위한 손 영역 경계의 세분화 단계; 및Subdividing the hand region boundary for stabilization of acquisition of the intersection with the circle via the hand region; And 상기 손가락을 모두 경유하여 손 동작을 인식하기 위한 원을 도시하는 단계Showing a circle for recognizing a hand gesture via all of the fingers 를 포함하는 이동객체의 실시간 추적 및 깊이 측정 방법.Real time tracking and depth measurement method of the moving object comprising a. 제 6항에 있어서     The method of claim 6 상기 원과 손 영역 경계와의 교점을 탐색하는 방향은The direction of searching for the intersection point between the circle and the hand region boundary is 손 영역의 중심좌표를 중심으로 22.5도씩 16 방위로 검색하는Search in 16 directions by 22.5 degrees around the center of the hand area 이동객체의 실시간 추적 및 깊이 측정 방법.Real time tracking and depth measurement of moving objects. 상기 6항에 있어서The method of claim 6 손가락을 모두 경유하는 원의 크기를 정하기 위해To size a circle via all of your fingers. 원과 손 영역의 경계와의 16 교점에서 최대, 최소 2개씩을 제외한 12 교점의 평균값을 사용하는Use the average of 12 intersection points except the maximum and the minimum of 16 intersection points between the circle and the boundary of the hand region. 이동객체의 실시간 추적 및 깊이 측정 방법.Real time tracking and depth measurement of moving objects.
KR1020090079332A 2009-08-26 2009-08-26 Method for real-time moving object tracking and distance measurement and apparatus thereof KR20110021500A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090079332A KR20110021500A (en) 2009-08-26 2009-08-26 Method for real-time moving object tracking and distance measurement and apparatus thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090079332A KR20110021500A (en) 2009-08-26 2009-08-26 Method for real-time moving object tracking and distance measurement and apparatus thereof

Publications (1)

Publication Number Publication Date
KR20110021500A true KR20110021500A (en) 2011-03-04

Family

ID=43930384

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090079332A KR20110021500A (en) 2009-08-26 2009-08-26 Method for real-time moving object tracking and distance measurement and apparatus thereof

Country Status (1)

Country Link
KR (1) KR20110021500A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012124837A1 (en) * 2011-03-14 2012-09-20 Lg Electronics Inc. An apparatus and a method for gesture recognition
KR101439056B1 (en) * 2013-09-30 2014-09-05 (주)디지엔터테인먼트 Three dimensional gesture recognition system and method
KR101427130B1 (en) * 2013-01-28 2014-09-24 군산대학교산학협력단 Touchless gesture control method and system, pac-man game control method using the same
WO2015115800A1 (en) * 2014-01-29 2015-08-06 엘지이노텍 주식회사 Device for extracting depth information
WO2015115797A1 (en) * 2014-01-29 2015-08-06 엘지이노텍 주식회사 Device for extracting depth information and method thereof
US9189068B2 (en) 2011-03-14 2015-11-17 Lg Electronics Inc. Apparatus and a method for gesture recognition
KR20170035240A (en) * 2015-09-22 2017-03-30 삼성전자주식회사 Method for performing image process and electronic device thereof
JP2020174361A (en) * 2014-09-24 2020-10-22 パナビジョン インターナショナル,エル.ピー. Distance measurement device for video camera focus application

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9189068B2 (en) 2011-03-14 2015-11-17 Lg Electronics Inc. Apparatus and a method for gesture recognition
WO2012124837A1 (en) * 2011-03-14 2012-09-20 Lg Electronics Inc. An apparatus and a method for gesture recognition
KR101427130B1 (en) * 2013-01-28 2014-09-24 군산대학교산학협력단 Touchless gesture control method and system, pac-man game control method using the same
KR101439056B1 (en) * 2013-09-30 2014-09-05 (주)디지엔터테인먼트 Three dimensional gesture recognition system and method
US10802148B2 (en) 2014-01-29 2020-10-13 Lg Innotek Co., Ltd. Device for extracting depth information and method thereof
WO2015115797A1 (en) * 2014-01-29 2015-08-06 엘지이노텍 주식회사 Device for extracting depth information and method thereof
US10094926B2 (en) 2014-01-29 2018-10-09 Lg Innotek Co., Ltd. Device for extracting depth information
US10338221B2 (en) 2014-01-29 2019-07-02 Lg Innotek Co., Ltd. Device for extracting depth information and method thereof
WO2015115800A1 (en) * 2014-01-29 2015-08-06 엘지이노텍 주식회사 Device for extracting depth information
US11680789B2 (en) 2014-01-29 2023-06-20 Lg Innotek Co., Ltd. Device for extracting depth information and method thereof
JP2020174361A (en) * 2014-09-24 2020-10-22 パナビジョン インターナショナル,エル.ピー. Distance measurement device for video camera focus application
US11494929B2 (en) 2014-09-24 2022-11-08 Panavision International, L.P. Distance measurement device
KR20170035240A (en) * 2015-09-22 2017-03-30 삼성전자주식회사 Method for performing image process and electronic device thereof

Similar Documents

Publication Publication Date Title
US9317772B2 (en) Method for improving tracking using dynamic background compensation with centroid compensation
JP5952001B2 (en) Camera motion estimation method and apparatus using depth information, augmented reality system
CN109086724B (en) Accelerated human face detection method and storage medium
US9679384B2 (en) Method of detecting and describing features from an intensity image
KR20110021500A (en) Method for real-time moving object tracking and distance measurement and apparatus thereof
CN107452015B (en) Target tracking system with re-detection mechanism
Navarrete et al. Color smoothing for RGB-D data using entropy information
CN111160291B (en) Human eye detection method based on depth information and CNN
Vlaminck et al. Obstacle detection for pedestrians with a visual impairment based on 3D imaging
CN110738667A (en) RGB-D SLAM method and system based on dynamic scene
CN114782499A (en) Image static area extraction method and device based on optical flow and view geometric constraint
Song et al. Estimation of kinect depth confidence through self-training
Wang et al. Combining semantic scene priors and haze removal for single image depth estimation
El Bouazzaoui et al. Enhancing rgb-d slam performances considering sensor specifications for indoor localization
WO2022111682A1 (en) Moving pedestrian detection method, electronic device and robot
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
JP2014102805A (en) Information processing device, information processing method and program
CN113723432B (en) Intelligent identification and positioning tracking method and system based on deep learning
Deng et al. Texture edge-guided depth recovery for structured light-based depth sensor
Sabeti et al. Visual Tracking Using Color Cameras and Time-of-Flight Range Imaging Sensors.
Park et al. Depth image correction for intel realsense depth camera
KR101357581B1 (en) A Method of Detecting Human Skin Region Utilizing Depth Information
Le Cras et al. Improving robustness of vision based localization under dynamic illumination
CN111476821B (en) Target tracking method based on online learning
Kim et al. A high quality depth map upsampling method robust to misalignment of depth and color boundaries

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E601 Decision to refuse application