KR20110021500A - Method for real-time moving object tracking and distance measurement and apparatus thereof - Google Patents
Method for real-time moving object tracking and distance measurement and apparatus thereof Download PDFInfo
- Publication number
- KR20110021500A KR20110021500A KR1020090079332A KR20090079332A KR20110021500A KR 20110021500 A KR20110021500 A KR 20110021500A KR 1020090079332 A KR1020090079332 A KR 1020090079332A KR 20090079332 A KR20090079332 A KR 20090079332A KR 20110021500 A KR20110021500 A KR 20110021500A
- Authority
- KR
- South Korea
- Prior art keywords
- region
- interest
- real time
- hand
- moving object
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2621—Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
Abstract
Description
본 발명은 이동객체의 실시간 추적과 거리 측정 방법 및 그 장치에 관한 것으로, 더욱 상세하게는 양안 카메라로부터 획득된 객체가 가지는 색상구조상의 특징을 이용하여 좌우 영상에서 관심 영역을 분리하고 동일한 관심 영역의 좌표 값의 차이를 이용하여 깊이를 획득하는 방법 및 그 장치에 관한 것이다. 본 발명은 지식경제부 및 정보통신연구진흥원의 IT산업원천기술개발사업과 서울시 산학연 협력사업의 일환으로 수행한 연구로부터 도출된 것이다[과제관리 번호: 2009-F-208-01, 과제명: 대화형 디지털 홀로그램 통합서비스 시스템의 구현을 위한 신호처리 요소 기술 및 SoC 개발, 과제관리 번호: NT080528]The present invention relates to a method and apparatus for real-time tracking and distance measurement of a moving object, and more particularly, by using a color structure feature of an object obtained from a binocular camera to separate a region of interest from a left and right image, A method and apparatus for obtaining depth using a difference in coordinate values are provided. The present invention is derived from the research conducted as part of the IT industry source technology development project of the Ministry of Knowledge Economy and the Ministry of Information and Communication Research and the cooperation project of industry-university-industrial cooperation in Seoul [Task management number: 2009-F-208-01, Signal processing element technology and SoC development for the implementation of digital hologram integrated service system, task management number: NT080528]
컴퓨터 비젼(computer vision)은 인간의 시각 시스템을 그대로 컴퓨터로 구현하려는 목표를 지닌 분야로써 이동하는 특정 물체를 실시간으로 인식하고 움직임을 추적하는 기술에 대한 연구가 진행되어 왔다. 인간의 시각 시스템에서 중요한 것은 3차원 공간에서 목표물을 인식하고 추적하는 것과 목표물까지의 거리를 측정하는 것이다. 목표물까지의 거리를 측정함으로써 차후 행동에 대한 의사 결정을 할 수 있으며, 이 같은 특성을 컴퓨터에 적용함에 있어 중요한 것은 목표물까지의 거리, 즉 깊이 정보임을 알 수 있다. Computer vision is a field with the goal of realizing a human visual system as a computer, and researches on a technology of recognizing a moving object in real time and tracking a movement have been conducted. The important thing in human visual system is to recognize and track the target in 3D space and to measure the distance to the target. By measuring the distance to the target, decisions about future behavior can be made. The important thing in applying these characteristics to the computer is the distance to the target, that is, the depth information.
깊이 정보를 획득하는 방법은 여러 가지가 있는데 초음파나 레이저 센서 등을 이용한 능동적 방법은 주변 환경에 민감하게 반응해 간섭에 의해 정확한 정보를 얻기 힘든데 반해 수동적 방법은 주변 환경의 변화에 상대적으로 간섭의 영향을 적게 받아 잡음이 많은 환경에서 효과적으로 사용될 수 있다. 스테레오 비젼(stereo vision)은 대표적인 수동적 방법으로 3차원 공간상에 존재하는 양안 카메라로부터 획득된 좌우 영상에서 상호 간의 정합점(matching point)을 찾아내고 정합점 간의 차이를 이용하여 깊이를 추정한다. 스테레오 비젼은 환경의 특별한 제약 없이 일반적인 자연 환경을 대상으로 할 수 있는 장점 때문에 여러 분야에 응용되고 있다. There are many ways to acquire depth information. Active methods, such as ultrasonic or laser sensors, are sensitive to the surrounding environment and difficult to obtain accurate information due to interference, whereas passive methods are relatively insensitive to changes in the surrounding environment. It can be effectively used in a noisy environment due to its low cost. Stereo vision is a typical passive method that finds matching points between left and right images obtained from binocular cameras in three-dimensional space and estimates depths using the differences between the matching points. Stereo vision has been applied to various fields because of its advantages that it can target the general natural environment without any special environmental constraints.
영상의 정합은 스테레오 비젼에서 3차원 공간상의 한 점이 두 영상에 투영되는 점의 대응 관계를 찾아내는 중요한 과정이다. 이 과정을 스테레오 정합(stereo matching)이라 부르며 두 영상에서 선택된 점들이 대응점을 가지는가를 판단하고 그 점에서의 깊이 정보의 지표가 되는 변이를 계산하는 것이 이 과정의 핵심이다. 스테레오 정합은 좌우 영상의 대응점을 찾는 작업을 통하여 단순화 될 수 있으며, 대응점 문제를 다루기 위해서 어떠한 정합 방법을 선택하느냐는 매우 중요하다. 정합 방법은 크게 영역기반(area-based), 특징기반(feature-based), 에너지기반(energy-based) 정합으로 나뉘며 보다 나은 결과를 얻기 위해 세 가지를 혼용하는 경우도 있다. Image matching is an important process of finding the correspondence between the points projected on two images in a three-dimensional space in stereo vision. This process is called stereo matching, and the core of this process is to determine whether the selected points in the two images have corresponding points and calculate the variation that is an indicator of depth information at the points. Stereo matching can be simplified by finding the matching points of the left and right images, and it is very important to choose the matching method to deal with the matching point problem. The matching method is largely divided into area-based, feature-based, and energy-based matching, and there are cases where the three are mixed for better results.
한 영상에서 특징을 포함한 일정 영역의 영상조각을 가지고 다른 영상과의 상관관계(correlation)를 이용하는 대응점을 찾는 방법을 영역기반 정합(area-based matching)이라 한다. 두 영상의 화소 밝기 값이 직접 정합에 사용되므로 정합에 사용되는 화소들의 특징의 변화에 아주 민감하고 계산이 간단하지만 시간이 많이 소요되고 영상의 왜곡이나 잡음에 취약한 단점을 지니고 있다. Area-based matching is a method of finding a correspondence point that uses a correlation with another image with a fragment of a certain region including a feature in one image. Since the pixel brightness values of the two images are used for direct matching, they are very sensitive to changes in the characteristics of the pixels used for matching and are simple to calculate, but they are time consuming and vulnerable to image distortion and noise.
특징기반 정합(feature-based matching)은 화소의 밝기에 대한 미분 연산자를 이용하여 1차원 또는 2차원 특징값을 얻어내고 명암대비의 평균값이나 경계의 방향 등을 특징으로 선택하여 정합에 사용하는 정합 방법이다. 사용되는 영상의 특징으로는 영 교차점(zero crossing point), 경계선, 모서리(edge),기울기(gradiant), 구석(corner), 마루(ridge), 골(cave), 원추 곡선(conic curve)등이 있고, 좀 더 정확한 정합이 가능하지만 알고리즘이 복잡한 단점이 있다. Feature-based matching is a matching method that obtains one-dimensional or two-dimensional feature values using differential operators on the brightness of pixels, selects the average value of contrast and the direction of the boundary, and uses them for matching. to be. The features of the images used include zero crossing points, boundaries, edges, gradients, corners, ridges, valleys, and cone curves. More accurate matching is possible, but the algorithm is complex.
베이시안 추론을 적용한 에너지 함수를 이용하거나 정합을 정칙화(regulari- zation) 문제로 표현하여 반복법으로 변이를 구하는 정합 방법을 에너지기반 정합(energy-based matching) 정합이라 한다. 이 중 영상에서 정합될 관심영역에 포함된 모든 화소에 대하여 다른 영상과의 상관관계를 구하는 영역기반 정합 방법이 널리 사용되지만 이런 방법은 전체 변이를 한 번에 얻을 수 있는 반면 계산 복잡도가 높아 연산에 상당한 시간이 소요되는 단점이 있다. An energy-based matching match is an energy-based matching match that uses variations of the Bayesian inference or uses the iteration method to find the variation by recursion. Among these, the area-based matching method is widely used to obtain correlations with other images for all the pixels included in the ROI to be matched in the image. However, this method can obtain the entire variation at once, while the computational complexity is high. The disadvantage is that it takes considerable time.
본 발명은 상기 언급한 영역 기반 정합 방법의 단점을 해결하기 위하여 제안한 것으로서, 관심 영역을 정확히 분리하고, 좌우 관심 영역을 축소하여 계산 복잡도가 줄어든 정합 방법을 사용하는 이동객체의 깊이 추정 방법과 일련의 시스템을 제어하기 위해 획득된 객체의 움직임을 인식하는 방법 및 그 장치를 제공하는데 그 목적이 있다.The present invention has been proposed to solve the above-mentioned shortcomings of the region-based matching method. The present invention proposes a method for estimating depth of a moving object and a series of depth estimation methods using a matching method in which the region of interest is accurately separated and the left and right regions of interest are reduced. It is an object of the present invention to provide a method and apparatus for recognizing a movement of an acquired object for controlling a system.
상기 목적을 달성하기 위한 본 발명은 양안 카메라에서 획득된 좌우 영상에서 관심 영역을 분리하는 관심 영역 분리 단계; 좌우 영상에 관심 영역 간의 절대 좌표의 차이 값을 이용하여 깊이를 추정하는 깊이 정보 추정 단계; 시스템의 제어를 위해 관심 영역을 실시간으로 추적하고 동작을 인식하는 관심 영역 추적 및 인식 단계를 포함하는 이동객체의 깊이 측정 방법을 제공한다.The present invention for achieving the above object is a region of interest separation step of separating the region of interest from the left and right images obtained by the binocular camera; A depth information estimating step of estimating depth using a difference value of absolute coordinates between regions of interest in a left and right image; The present invention provides a method for measuring a depth of a moving object including a region of interest tracking and recognition for tracking a region of interest in real time and recognizing a motion for controlling the system.
본 발명에 따르면, 양안 카메라로 획득된 좌우 영상에서 정확한 관심 영역을 획득하고, 각각의 관심 영역의 특징점만을 정합에 사용하여 비교적 정확하고 빠르게 깊이를 측정할 수 있다. 따라서 실시간으로 이동객체의 깊이를 획득할 수 있는 효과가 있다. According to the present invention, an accurate ROI can be obtained from left and right images acquired by a binocular camera, and depth can be measured relatively accurately and quickly by using only the feature points of each ROI. Therefore, the depth of the moving object can be obtained in real time.
또한 관심 영역의 동작을 인식하여서 일련의 동작의 실행 조건으로 사용할 수 있다. In addition, the operation of the region of interest may be recognized and used as an execution condition of the series of operations.
이하 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있도록 상세히 설명하기 위하여, 본 발명의 가장 바람직한 실시 예를 첨부 도면을 참조하여 설명하기로 한다.DETAILED DESCRIPTION Hereinafter, the most preferred embodiment of the present invention will be described with reference to the accompanying drawings so that those skilled in the art may easily implement the technical idea of the present invention.
도 1은 본 발명의 일실시 예를 따른 이동객체의 실시간 추적 및 깊이 측정 방법을 나타내는 전체적인 흐름도이다.1 is an overall flowchart illustrating a method for real-time tracking and depth measurement of a moving object according to an exemplary embodiment of the present invention.
도 1을 참조하면, 본 발명에 따른 이동객체의 실시간 추적 및 깊이 측정 방법은 관심 영역의 분리 단계(101), 관심 영역의 깊이 추정 및 좌표 추정 단계(103), 관심 영역의 동작 인식 단계(105)를 포함한다. Referring to FIG. 1, in the real-time tracking and depth measuring method of a moving object according to the present invention, a
도 2는 본 발명에 따른 관심 영역 분리 단계(101)를 나타내는 상세 흐름도이다.2 is a detailed flowchart illustrating a region of
먼저 관심 영역의 분리 단계에서는 양안 카메라에서 획득된 좌우 영상(201)에서 관심 영역만을 분리해낸다. 본 발명은 손 영역을 관심 영역으로 지정하여 분리해내는데 색차 평면상에서 피부색만이 가지는 특징을 이용하여 피부 영역을 추출해 낸다. 카메라는 RGB 색상구조로 영상을 제공하는데 이는 주변 조명 환경에 민감하게 반응하여 비슷한 색상의 반사광이 함께 검출되는 문제점이 발생한다. 따라서 영상의 화소를 각각 명암 성분(luma component)과 색차 성분(chrominance component)으로 표현하여 조명 환경의 변화에도 보다 안정적인 값을 가지는 YCbCr 색상구조로 영상의 색상구조를 변환하여 피부 영역 검출에 사용한다. 양안 카메라로부터 획득한 좌우 영상의 RGB 색상구조를 YCbCr 색상구조로 변환한 후, 피부색이 분포하는 파란색의 색차 성분, Cb(blue chrominance)과 붉은색의 색차 성분, Cr(red chrominance)의 분포를 이용하여 손 영역을 분리해낸다. First, in the separation of the ROI, only the ROI is separated from the left and
도 3은 본 발명에 따른 색차 성분을 조건으로 한 관심 영역 분리 단계(203)를 통해 영상에서 손 영역을 분리해낸 결과 영상이 도시된 도면이다.FIG. 3 is a diagram illustrating an image of a hand region separated from an image through an
조명 환경 변화에 영향을 적게 받는 YCbCr 색상구조를 관심 영역 분리 단계(203)에 사용함에도 불구하고 주변 조명 환경에 따라 영상에 관심 영역 내외에 잡음 영역(305)이 존재하게 된다.Although the YC b C r color structure, which is less susceptible to changes in the lighting environment, is used in the region of
이와 같이 조명 환경에 따라 분리된 손 영역과 그외에 배경 영역에 발생하는 잡음 영역은 잡음 영역 제거 단계(205)를 통해 보상된다. 잡음 영역 제거 단계는 홀 처리(207)와 스무딩 필터링(209)으로 구성된다.In this way, the hand region separated by the lighting environment and the noise region occurring in the background region are compensated through the noise
홀 처리는 영상을 가로, 세로 두 방향으로 탐색하면서 손 영역으로 판단된 화소간 간격의 크기를 기준으로 하여 손 영역, 혹은 잡음 영역임을 판단하고 보상, 제거하는 동작을 수행한다.The hole processing searches for an image in two directions, horizontally and vertically, and determines, compensates, and removes a hand region or a noise region based on the size of the interval between pixels determined as the hand region.
도 4는 관심 영역을 판단하는 화소간의 간격을 2로 설정한 홀 처리의 일실시 예가 도시된 도면이다.FIG. 4 is a diagram illustrating an embodiment of a hole process in which a gap between pixels for determining a region of interest is set to two; FIG.
손 영역으로 판단된 화소간의 간격이 2 이하일 때에는 손 영역에 발생한 잡음으로 판단하고 보상하지만, 화소간의 간격이 2를 초과할 때에는 잡음으로 판단하지 않고 보상하지 않는다.When the distance between the pixels determined to be the hand region is 2 or less, the noise is determined and compensated for in the hand region. However, when the distance between the pixels exceeds 2, the noise is not judged as noise and is not compensated.
도 5는 스무딩 필터링의 일실시 예가 도시된 도면이다.5 is a diagram illustrating an embodiment of smoothing filtering.
스무딩 필터링은 화소 단위로 영상을 탐색하면서 화소를 둘러싼 일정 크기의 블록내의 화소 값들의 총합의 크기에 따라 화소가 손 영역 혹은 배경 영역인지를 판단하고 보상하는 동작을 수행한다. Smoothing filtering searches for an image on a pixel-by-pixel basis, and determines and compensates whether a pixel is a hand region or a background region according to a sum of pixel values in a predetermined size block surrounding the pixel.
도 6은 본 발명의 따른 잡음 제거 단계(205)를 포함한 관심 영역 분리 단계(101)를 거친 영상의 일실시 예가 도시된 도면이다.FIG. 6 is a diagram illustrating an embodiment of an image that has passed the
YCbCr 색상구조에서 피부색이 가지는 특성을 이용하여 획득한 손 영역 영상(601)에 조명 환경에 영향에 의해 발생한 잡음 영역은 홀 처리와 스무딩 필터링을 차례로 거쳐 잡음이 제거된 영상(605)으로 보상된다.The noise region generated by the influence of the lighting environment on the
도 7은 본 발명에 따른 관심 영역의 깊이 추정 및 좌표 추정 단계(103)를 상세히 나타내는 흐름도이다.7 is a flowchart showing in detail the depth estimation and
도 7을 참조하면, 관심 영역의 깊이 추정 및 좌표 추정 단계는 관심 영역의 중심 좌표를 이용한 변이 추정 단계(701) 및 3차원 공간 좌표 획득 단계를 포함한다.Referring to FIG. 7, the depth estimating and coordinate estimating step of the ROI includes a
관심 영역 분리 단계를 통해 분리된 좌우 관심 영역은 시점의 차이 때문에 동일한 물체에 대해 좌표 값의 차이가 발생한다. 이를 변이(disparity)라 하고 이 를 이용하여 관심 영역의 깊이를 추정한다. 일반적으로 좌우 영상의 일정 영역의 영상 조각(image patch)을 가지고 서로 간의 상관관계(correlation)를 이용하여 변이를 추정하는 영역기반 정합기법을 변이추정에 사용하는 데 이는 잡음과 영상의 왜곡 등에 민감하고 계산량이 많은 단점이 있다.The left and right regions of interest separated through the region of interest separation may cause differences in coordinate values for the same object. This is called disparity and the depth of interest is estimated using this. In general, the region-based matching technique for estimating the variation using the image patch of a certain region of the left and right images using the correlation between each other is used for the estimation of the variation, which is sensitive to noise and image distortion. There is a disadvantage in that the calculation amount is large.
영역 기반 변이 추정기법의 많은 계산량을 축소하여 상기의 문제점을 개선하기 위해 변이에 사용되는 좌우 관심 영역을 축소한 깊이 추정 기법(701)을 수행한다.In order to reduce the large amount of computation of the region-based disparity estimating technique and to improve the above-mentioned problem, the
도 8은 영역 기반 변이 추정기법의 많은 계산량을 축소하기 위해 변이에 사용되는 좌우 관심영역이 축소된 깊이 추정기법이 도시되어 있다. FIG. 8 illustrates a depth estimation technique in which the left and right regions of interest used in the variation are reduced in order to reduce a large amount of calculation of the region-based variation estimation technique.
관심 영역 분리 단계를 통해 잡음 등과 같은 외부 환경의 영향을 최소화하여 분리한 손 영역 영상(801)에서 손 영역으로 분리된 좌표값들을 모두 더하고 손 영역의 총 개수로 나누어 평균이 되는 손 영역의 중심 좌표(803)를 얻어내고 변이 추정에 사용하여 계산량을 크게 줄인다. 좌우 손 영역의 중심 좌표의 차이를 이용하여 손 영역의 깊이를 추정한다. 변이에 사용된 중심좌표와 깊이를 고려한 손 영역의 3차원 좌표(707)를 실시간으로 얻어낸다.The center coordinates of the hand region that are averaged by adding all the coordinate values separated by the hand region from the separated
도 9는 본 발명에 따른 관심 영역 동작의 인식 단계(105)를 상세히 나타내는 흐름도이다. 9 is a flow chart illustrating in detail the
도 9를 참조하면, 관심 영역 인식 단계(105)는 세선화된 경계 영상 획득 단계(901)와 손가락을 경유하는 원을 도시하는 단계(905) 및 경계와 원과의 교점의 개수를 세는 단계(907)를 포함한다.Referring to FIG. 9, the
도 10은 손 동작을 인식하기 위해 손가락 개수를 세는 단계(903)가 도시되어 있다.10 shows a
손가락의 개수를 구하기 위해 손 영역의 경계 영상에 변이 추정에 사용하였던 손 영역의 중심 좌표를 중심으로 하는 원을 그려 그 교점의 개수를 이용한다. 손가락을 적절히 경유하는 원의 크기를 정하기 위해서 손 영역의 중심좌표로부터 22.5도씩 16 방위로 검색하여 손 영역의 경계와의 교점을 구한다. 경계와 만나는 16개의 점들과 중심좌표와의 거리 중, 각각 크기가 최대와 최소인 2개의 점들을 제외한 12개의 점들의 크기의 평균을 원의 반지름으로 설정한다.In order to obtain the number of fingers, a circle centered on the coordinates of the center of the hand region used for the disparity estimation is drawn on the boundary image of the hand region, and the number of intersection points is used. In order to determine the size of the circle through the finger properly, search for 22.5 degrees in 16 directions from the center coordinate of the hand region to find the intersection with the boundary of the hand region. The radius of the circle is set to the average of the size of the 12 points except the two points having the largest and the smallest of the 16 points and the distance between the center coordinates.
도 11은 손가락을 경유하는 원과 경계의 교점의 개수를 안정화하기 위한 영상의 세선화(edge thinning) 단계(901)가 도시되어 있다. FIG. 11 shows an
소벨 필터(Sobel filter)를 거친 영상(1101)은 경계 부분이 부분적으로 하나 이상의 화소로 이루어져 있어서 손가락을 경유하는 원과의 교점에서 둘 이상의 화소가 겹쳐지는 문제점이 발생한다. 경계 영상이 하나의 화소로 이루어지도록 세선화 과정을 거쳐 교점의 개수를 안정적으로 셀 수 있도록 할 수 있다. 분리 단계를 거친 손 영상(1103)에 소벨 필터(Sobel filter)를 거쳐 경계 영상(1101)을 얻어내고, 소벨 필터를 거치기 전의 손 영역 분할 영상(1103)과의 뺄셈 연산을 수행한다. 뺄셈 연산 후에는 소벨 필터 경계 영상(1101)의 경계 부분 중에 손 영역에 해당되는 안쪽 화소들이 지워져 관심 영역을 둘러싼 가는 경계만 남은 영상(1105)이 남게 된다. The
한편, 전술한 바와 같은 본 발명에 따른 이동객체의 추적 및 깊이 추정방법은 컴퓨터 프로그램으로 작성이 가능하다. 그리고 상기 프로그램을 구성하는 코드 및 코드 세그먼트는 당해 분야의 컴퓨터 프로그래머에 의하여 용이하게 추론될 수 있다. 또한 상기 작성된 프로그램은 컴퓨터가 읽을 수 있는 기록매체(정보저장매체)에 저장되고, 컴퓨터에 의하여 판독되고 실행됨으로써 본 발명의 방법을 구현한다. 그리고 상기 기록매체는 컴퓨터가 판독할 수 있는 모든 형태의 기록매체를 포함한다.On the other hand, the tracking and depth estimation method of the moving object according to the present invention as described above can be prepared by a computer program. And the code and code segments constituting the program can be easily inferred by a computer programmer in the art. The written program is also stored in a computer-readable recording medium (information storage medium), and read and executed by a computer to implement the method of the present invention. The recording medium may include any type of computer readable recording medium.
본 발명은 비록 한정된 실시 예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으면 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능하다.Although the invention has been described by way of limited embodiments and drawings, the invention is not to be limited thereto and is intended to be equivalent to those of ordinary skill in the art and claims by those skilled in the art to which the invention pertains. Various modifications and variations are possible within.
도 1은 이동객체의 추적과 깊이 추정 및 좌표 추정 방법을 나타내는 흐름도1 is a flowchart illustrating a method for tracking a moving object, estimating depth, and estimating coordinates.
도 2는 관심 영역의 분리 방법을 상세히 나타내는 흐름도2 is a flowchart illustrating a method of separating a region of interest in detail;
도 3은 각기 다른 조명 환경에서 YCbCr 색상구조상에서 피부색이 차지하는 영역을 조건으로 손 영역으로 추출한 결과 영상을 도시한 도면FIG. 3 is a diagram showing an image of a result obtained by extracting a hand region based on an area occupied by skin color on a YC b C r color structure in different lighting environments. FIG.
도 4는 홀 처리를 설명하기 위한 도면4 is a diagram for explaining hole processing;
도 5는 스무딩 필터링을 설명하기 위한 도면5 is a diagram for explaining smoothing filtering.
도 6은 홀 처리와 스무딩 필터링을 통해 영상의 잡음을 제거하는 결과 영상을 도시한 도면FIG. 6 is a diagram illustrating a resultant image of removing noise of an image through hole processing and smoothing filtering. FIG.
도 7은 관심 영역의 깊이 추정 및 좌표 추정 방법을 상세히 나타내는 흐름도7 is a flowchart illustrating a method of estimating depth and a coordinate of a region of interest in detail;
도 8은 영역기반 변이 추정기법의 계산량을 줄이기 위해 관심 영역의 중심 좌표로 변이 추정에 사용되는 영역을 줄이는 동작을 나타내는 도면8 is a diagram illustrating an operation of reducing an area used for disparity estimation to the center coordinates of a region of interest in order to reduce the calculation amount of the region-based disparity estimating technique.
도 9는 관심 영역의 동작 인식 방법을 상세히 나타내는 흐름도9 is a flowchart illustrating a method of recognizing a motion of a region of interest.
도 10은 손 동작을 인식하기 위해 손가락 개수를 세는 동작을 설명하기 위한 도면10 is a view for explaining an operation of counting the number of fingers to recognize a hand gesture.
도 11은 손가락을 경유하는 원과 손 영역의 경계와의 교점을 정확히 세기 위한 세선화 과정을 설명하기 위한 도면FIG. 11 is a view for explaining a thinning process for accurately counting an intersection between a circle passing through a finger and a boundary of a hand region; FIG.
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090079332A KR20110021500A (en) | 2009-08-26 | 2009-08-26 | Method for real-time moving object tracking and distance measurement and apparatus thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090079332A KR20110021500A (en) | 2009-08-26 | 2009-08-26 | Method for real-time moving object tracking and distance measurement and apparatus thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20110021500A true KR20110021500A (en) | 2011-03-04 |
Family
ID=43930384
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090079332A KR20110021500A (en) | 2009-08-26 | 2009-08-26 | Method for real-time moving object tracking and distance measurement and apparatus thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20110021500A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012124837A1 (en) * | 2011-03-14 | 2012-09-20 | Lg Electronics Inc. | An apparatus and a method for gesture recognition |
KR101439056B1 (en) * | 2013-09-30 | 2014-09-05 | (주)디지엔터테인먼트 | Three dimensional gesture recognition system and method |
KR101427130B1 (en) * | 2013-01-28 | 2014-09-24 | 군산대학교산학협력단 | Touchless gesture control method and system, pac-man game control method using the same |
WO2015115800A1 (en) * | 2014-01-29 | 2015-08-06 | 엘지이노텍 주식회사 | Device for extracting depth information |
WO2015115797A1 (en) * | 2014-01-29 | 2015-08-06 | 엘지이노텍 주식회사 | Device for extracting depth information and method thereof |
US9189068B2 (en) | 2011-03-14 | 2015-11-17 | Lg Electronics Inc. | Apparatus and a method for gesture recognition |
KR20170035240A (en) * | 2015-09-22 | 2017-03-30 | 삼성전자주식회사 | Method for performing image process and electronic device thereof |
JP2020174361A (en) * | 2014-09-24 | 2020-10-22 | パナビジョン インターナショナル,エル.ピー. | Distance measurement device for video camera focus application |
-
2009
- 2009-08-26 KR KR1020090079332A patent/KR20110021500A/en not_active Application Discontinuation
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9189068B2 (en) | 2011-03-14 | 2015-11-17 | Lg Electronics Inc. | Apparatus and a method for gesture recognition |
WO2012124837A1 (en) * | 2011-03-14 | 2012-09-20 | Lg Electronics Inc. | An apparatus and a method for gesture recognition |
KR101427130B1 (en) * | 2013-01-28 | 2014-09-24 | 군산대학교산학협력단 | Touchless gesture control method and system, pac-man game control method using the same |
KR101439056B1 (en) * | 2013-09-30 | 2014-09-05 | (주)디지엔터테인먼트 | Three dimensional gesture recognition system and method |
US10802148B2 (en) | 2014-01-29 | 2020-10-13 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
WO2015115797A1 (en) * | 2014-01-29 | 2015-08-06 | 엘지이노텍 주식회사 | Device for extracting depth information and method thereof |
US10094926B2 (en) | 2014-01-29 | 2018-10-09 | Lg Innotek Co., Ltd. | Device for extracting depth information |
US10338221B2 (en) | 2014-01-29 | 2019-07-02 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
WO2015115800A1 (en) * | 2014-01-29 | 2015-08-06 | 엘지이노텍 주식회사 | Device for extracting depth information |
US11680789B2 (en) | 2014-01-29 | 2023-06-20 | Lg Innotek Co., Ltd. | Device for extracting depth information and method thereof |
JP2020174361A (en) * | 2014-09-24 | 2020-10-22 | パナビジョン インターナショナル,エル.ピー. | Distance measurement device for video camera focus application |
US11494929B2 (en) | 2014-09-24 | 2022-11-08 | Panavision International, L.P. | Distance measurement device |
KR20170035240A (en) * | 2015-09-22 | 2017-03-30 | 삼성전자주식회사 | Method for performing image process and electronic device thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9317772B2 (en) | Method for improving tracking using dynamic background compensation with centroid compensation | |
JP5952001B2 (en) | Camera motion estimation method and apparatus using depth information, augmented reality system | |
CN109086724B (en) | Accelerated human face detection method and storage medium | |
US9679384B2 (en) | Method of detecting and describing features from an intensity image | |
KR20110021500A (en) | Method for real-time moving object tracking and distance measurement and apparatus thereof | |
CN107452015B (en) | Target tracking system with re-detection mechanism | |
Navarrete et al. | Color smoothing for RGB-D data using entropy information | |
CN111160291B (en) | Human eye detection method based on depth information and CNN | |
Vlaminck et al. | Obstacle detection for pedestrians with a visual impairment based on 3D imaging | |
CN110738667A (en) | RGB-D SLAM method and system based on dynamic scene | |
CN114782499A (en) | Image static area extraction method and device based on optical flow and view geometric constraint | |
Song et al. | Estimation of kinect depth confidence through self-training | |
Wang et al. | Combining semantic scene priors and haze removal for single image depth estimation | |
El Bouazzaoui et al. | Enhancing rgb-d slam performances considering sensor specifications for indoor localization | |
WO2022111682A1 (en) | Moving pedestrian detection method, electronic device and robot | |
US10140509B2 (en) | Information processing for detection and distance calculation of a specific object in captured images | |
JP2014102805A (en) | Information processing device, information processing method and program | |
CN113723432B (en) | Intelligent identification and positioning tracking method and system based on deep learning | |
Deng et al. | Texture edge-guided depth recovery for structured light-based depth sensor | |
Sabeti et al. | Visual Tracking Using Color Cameras and Time-of-Flight Range Imaging Sensors. | |
Park et al. | Depth image correction for intel realsense depth camera | |
KR101357581B1 (en) | A Method of Detecting Human Skin Region Utilizing Depth Information | |
Le Cras et al. | Improving robustness of vision based localization under dynamic illumination | |
CN111476821B (en) | Target tracking method based on online learning | |
Kim et al. | A high quality depth map upsampling method robust to misalignment of depth and color boundaries |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |