KR20090049438A - Pose robust human detection and tracking method using the stereo image - Google Patents

Pose robust human detection and tracking method using the stereo image Download PDF

Info

Publication number
KR20090049438A
KR20090049438A KR1020070115695A KR20070115695A KR20090049438A KR 20090049438 A KR20090049438 A KR 20090049438A KR 1020070115695 A KR1020070115695 A KR 1020070115695A KR 20070115695 A KR20070115695 A KR 20070115695A KR 20090049438 A KR20090049438 A KR 20090049438A
Authority
KR
South Korea
Prior art keywords
person
head
dimensional
shoulder
candidate
Prior art date
Application number
KR1020070115695A
Other languages
Korean (ko)
Other versions
KR100922429B1 (en
Inventor
김태완
김대환
김대진
조상호
천영재
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020070115695A priority Critical patent/KR100922429B1/en
Publication of KR20090049438A publication Critical patent/KR20090049438A/en
Application granted granted Critical
Publication of KR100922429B1 publication Critical patent/KR100922429B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0014Image feed-back for automatic industrial control, e.g. robot with camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration by the use of histogram techniques

Abstract

본 발명의 스테레오 영상을 이용한 사람 검출 방법은, 스테레오 영상에서 시각차 정보를 이용하여 생성한 2차원 공간-시각차 히스토그램으로부터 변환시킨 2차원 공간-깊이 히스토그램을 4가지 방향의 방향성 2차원 타원형 필터들과의 승적 연산을 통해 사람의 후보를 검출하고, 검출된 사람 후보에 대하여 얼굴 검출 및 머리-어깨 형태 정합을 통해 검증을 수행함으로써, 스테레오 영상에서 사람의 포즈 각도가 정면이 아닌 경우에도 높은 사람 검출률을 제공한다.The human detection method using stereo images according to the present invention comprises a two-dimensional space-depth histogram transformed from a two-dimensional space-time histogram generated using visual difference information in a stereo image with four-directional directional two-dimensional elliptic filters. By detecting the candidate of the person through the multiplicative operation and verifying the detected person candidate through face detection and head-shoulder shape matching, high human detection rate is provided even when the pose angle of the person in the stereo image is not in front. do.

Description

스테레오 영상을 이용한 사람 검출 방법{Pose robust human detection and tracking method using the stereo image}Force robust human detection and tracking method using the stereo image}

본 발명은 스테레오 영상을 이용한 사람 검출 방법에 관한 것으로서 보다 상세하게는 스테레오 카메라의 시각차(Disparity) 정보를 이용하여 생성한 2차원 공간-깊이 히스토그램을 복수의 소정 각도의 방향성 2차원 타원형 필터들(Multiple-Oriented 2D Elliptical Filters; MO2DEFs)과의 승적(Convolution)연산을 통해 사람의 후보를 검출하고, 얼굴 검출 및 머리-어깨 형태 정합을 통해 사람을 검증하여, 사람의 위치를 실시간 추적하는 스테레오 영상을 이용한 포즈에 강인한 사람 검출 방법에 관한 것이다. The present invention relates to a method for detecting a person using a stereo image, and more particularly, to a two-dimensional space-depth histogram generated by using the disparity information of a stereo camera. -Oriented 2D Elliptical Filters (MO2DEFs) and Convolutional Operations (MO2DEFs) to detect human candidates, face detection and head-to-shoulder matching to verify the human, using stereo images to track the position of the person in real time The present invention relates to a method for detecting a person who is robust to a pose.

일반적으로 사용되는 단일 카메라를 통해 얻어진 영상에 대해서 배경추출을 통한 사람을 검출하는 경우에 올바르게 검출할 수 없다. 이에 따라 스테레오 영상을 통해 사람을 효과적으로 검출할 수 있는 다양한 검출 방법이 제안되고 있다. In the case of detecting a person through background extraction, an image obtained through a single camera generally used cannot be detected correctly. Accordingly, various detection methods for effectively detecting a person through stereo images have been proposed.

종래의 스테레오 영상에서 사람을 검출하는 방법 중의 하나는 천장에 스테레오 카메라를 설치하여 촬상한 스테레오 영상으로부터 높이 맵 작성 및 머리 검출을 통하여 사람 검출을 수행하였으나, 이러한 검출방법은 검출된 후보영역의 윗부분이 사람의 머리와 유사한 형태를 보이는 경우에는 사람으로 잘못 판단하는 등의 문제가 있었다. In the conventional stereoscopic image detection method, a person is detected by height map and head detection from a stereoscopic image obtained by installing a stereo camera on the ceiling. In the case of a similar shape to a human head, there was a problem such as incorrectly judged as a human.

또한 천장에 항상 고정된 카메라로부터 촬상한 영상으로 사람을 검출해야 하므로, 로봇과 같은 이동형 플랫폼에서 동일한 방식으로 카메라를 고정시킬 수 없기 때문에 적용될 수 없었다. In addition, since a person must be detected by an image captured from a camera fixed to the ceiling, it cannot be applied because the camera cannot be fixed in the same manner on a mobile platform such as a robot.

따라서, 로봇과 같은 이동형 플랫폼에 설치한 카메라를 이용하여 촬상한 스테레오 영상을 이용하여 사람을 검출할 뿐만 아니라 정면이 아닌 어느 한쪽 방향으로 일부 회전된 상태로 있는 사람의 영상에 대해서도 사람으로서 검출할 수 있는 방법이 요구되어 왔다. Therefore, not only a person can be detected by using a stereo image photographed using a camera installed on a mobile platform such as a robot, but also a person can be detected as an image of a person who is partially rotated in one direction instead of the front side. There has been a demand.

본 발명에서 이루고자 하는 기술적 과제는 로봇과 같은 이동형 플랫폼에서 촬상한 스테레오 영상을 사용하여 사람의 회전 각도에 무관하게 사람 후보를 검출하고 얼굴 검출과 머리-어깨 형태 정합(head-shoulder shape matching)으로 구성되는 사람 검증 작업을 통해 실제 사람이 맞는지를 판단하여, 최종적으로 사람을 추출하는 사람 검출 방법을 제공하는 데 있다. The technical problem to be achieved in the present invention is to detect a human candidate regardless of the rotation angle of the person using a stereo image captured on a mobile platform, such as a robot and consists of face detection and head-shoulder shape matching The present invention provides a method for detecting a person who finally extracts a person by determining whether a real person is correct through a person verification operation.

본 발명의 과제를 달성하기 위한 스테레오 영상을 이용한 사람 검출 방법은, Human detection method using a stereo image for achieving the object of the present invention,

(a) 스테레오 영상에서 시각차(disparity) 맵을 구하여 2차원 공간-깊이 히스토그램(spatial-depth histogram)을 생성하는 단계;(a) generating a two-dimensional spatial-depth histogram by obtaining a disparity map from a stereo image;

(b) 복수의 소정 각도로 각각 회전된 상태의 사람 형태와 유사한 방향성 2차원 타원형 필터들을 2차원 커널 함수로 설계하는 단계; (b) designing directional two-dimensional elliptical filters, similar to the human shape, each rotated by a plurality of predetermined angles, by a two-dimensional kernel function;

(c) 상기 2차원 공간-깊이 히스토그램과 상기 방향성 2차원 타원형 필터간의 승적(convolution) 연산을 통해 사람 후보를 검출하는 단계; 및(c) detecting a human candidate through a convolution operation between the two-dimensional space-depth histogram and the directional two-dimensional elliptic filter; And

(d) 상기 각 방향성 2차원 타원형 필터에 대한 승적 결과들을 기초로 검출된 사람 후보의 포즈 각도를 예측하는 단계;를 포함함을 특징으로 한다.(d) predicting a pose angle of the detected human candidate based on the results of the multiplication of the directional two-dimensional elliptic filter.

또한, 상기 검출 단계는 (e) 상기 검출된 사람 후보로부터 얼굴 검출로 사람을 검증하는 단계; 및In addition, the detecting step includes: (e) verifying a person by face detection from the detected person candidate; And

(f) 상기 (e) 단계에서 검증이 되지 않으면, 머리-어깨 형태 정합을 통하여 사람을 검증하는 단계를 포함하는 것을 특징으로 한다.(f) if the verification is not performed in the step (e), characterized in that it comprises the step of verifying the person through the head-shoulder shape matching.

또한, 상기 복수의 각도는 0°, 45°, 90°, 135°로 설정됨을 특징으로 한다.The plurality of angles may be set to 0 °, 45 °, 90 °, and 135 °.

또한, 상기 (a) 단계는,In addition, the step (a),

(a1) 상기 스테레오 영상에서 시각차 맵을 산출하는 단계;calculating a visual difference map from the stereo image;

(a2) 시각차 맵을 수직 방향으로 투상(project)함으로써 2차원 공간-시각차 히스토그램(spatial-disparity histogram)을 작성하는 단계; 및(a2) creating a two-dimensional spatial-disparity histogram by projecting the visual difference map in a vertical direction; And

(a3) 2차원 공간-시각차 히스토그램을 2차원 공간-깊이 히스토그램으로 변환하는 단계를 포함하는 것을 특징으로 한다.(a3) converting the two-dimensional space-time histogram into a two-dimensional space-depth histogram.

또한, 상기 (c) 단계는, In addition, the step (c),

(c1) 상기 2차원 공간-깊이 히스토그램과 4개의 방향성 2차원 타원형 필터와 각각 승적 연산을 수행하여 필터링한 결과인 4개의 히스토그램을 산출하는 단계; (c1) calculating four histograms as a result of filtering by performing a multiplicative operation with the two-dimensional space-depth histogram and the four directional two-dimensional elliptic filters;

(c2) 상기 4개의 필터링된 히스토그램 중에서 가장 큰 값의 위치를 중심으로 하는 사람 후보를 검출하는 단계를 특징으로 한다.(c2) detecting a human candidate centered on the position of the largest value among the four filtered histograms.

또한, 상기 (f) 단계는,In addition, the step (f),

(f1) 스테레오 영상에서 시간적 차분을 두 번 수행하여 산출된 이중 시간차분 결과인 사람의 움직임 정보와 시각차 맵에서의 사람 후보 검출 결과인 실루엣 정보로부터 머리-어깨 실루엣(head-shoulder silhouette)을 추출하는 단계;(f1) A head-shoulder silhouette is extracted from the motion information of a person, which is a result of a double time difference, and the silhouette information, which is a result of detecting a candidate of a person in a visual difference map. step;

(f2) 상기 머리-어깨 실루엣으로부터 머리-어깨 형태를 추출하는 단계; 및(f2) extracting the head-shoulder shape from the head-shoulder silhouette; And

(f3) 추출된 상기 머리-어깨 형태를 사전에 등록된 머리-어깨 형태의 유사성 을 비교하는 단계를 포함함을 특징으로 한다.(f3) comparing the extracted head-shoulder shape with the similarity between the previously registered head-shoulder shape.

또한, 상기 (f1) 단계에서 상기 머리-어깨 실루엣은, 상기 사람 움직임의 정보는 스테레오 영상에서 시간적 차분을 두 번 수행하여 산출된 이중 시간차분 결과와 시각차 맵에서의 사람 후보 검출 결과로부터 추출됨을 특징으로 한다.In addition, in the step (f1), the head-shoulder silhouette is extracted from the double time difference result calculated by performing the temporal difference twice in the stereo image and the human candidate detection result in the visual difference map. It is done.

또한, 상기 (f2)의 상기 머리-어깨 형태를 추출하는 단계는,In addition, extracting the head-shoulder shape of the (f2),

상기 머리-어깨 실루엣의 테두리에 있는 특정 수의 점을 샘플링하여 추출함을 특징으로 한다. And sampling a specific number of points on the edge of the head-shoulder silhouette.

또한, 상기 (c2) 단계는, 상기 가장 큰 값의 위치를 기준으로 하여 사람의 좌우 평균 너비와 앞뒤의 두께값으로 범위로서 사람 후보의 영역을 설정하는 단계를 포함함을 특징으로 한다.In addition, the step (c2) is characterized in that it comprises the step of setting the area of the person candidate as a range by the left and right average width of the person and the thickness value of the front and back on the basis of the position of the largest value.

본 발명에 의한 사람 검출 방법은 스테레오 영상에서 생성한 2차원 공간-깊이 히스토그램과 4가지 방향의 방향성 2차원 타원형 필터를 승적하여 사람 후보를 추출하고, 추출된 사람 후보에 대하여 얼굴 검출과 머리-어깨 형태 정합을 통해서 검증을 수행함으로써 영상에서 사람의 포즈 각도가 정면이 아닌 경우에도 높은 사람 검출율을 제공한다. The human detection method according to the present invention extracts a human candidate by loading a two-dimensional space-depth histogram generated from a stereo image and a directional two-dimensional elliptic filter in four directions, and detects a face and performs a head-shoulder on the extracted human candidate. Verification is performed through shape matching to provide a high detection rate even when the pose angle of the person in the image is not in front.

이하, 첨부 도면을 참조하여 본 발명의 바람직한 실시예를 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.

도 1은 본 발명에 의한 스테레오 영상 정보를 이용한 사람 검출 방법을 설명하기 위한 흐름도이다. 1 is a flowchart illustrating a person detection method using stereo image information according to the present invention.

스테레오 카메라로 촬상하여 얻은 스테레오 영상으로부터 시각차 맵을 계산하고, 3차원인 시각차 맵

Figure 112007081416247-PAT00001
에서 사람 키 방향인 수직 축 방향으로 투상(project)함으로써 2차원 공간-시각차 히스토그램
Figure 112007081416247-PAT00002
을 산출하고, 이를 근거로 2차원 공간-깊이 히스토그램을 산출한다(100 내지 102 단계). Calculate the visual difference map from the stereo image obtained by the stereo camera, and obtain the three-dimensional visual difference map
Figure 112007081416247-PAT00001
Histogram of Two-Dimensional Space-Visual Differences by Projecting from the Vertical Axis Direction in the Human Key Direction
Figure 112007081416247-PAT00002
Is calculated and a two-dimensional space-depth histogram is calculated based on this (steps 100 to 102).

도 2a는 스테레오 카메라를 정면으로 마주할 때의 사람의 영상이며, 도 2b는 도 2a의 각각의 스테레오 영상에 대한 시각차 맵을 계산한 결과로서의 시각차 영상이며, 배경에 대비하여 밝은 부분이 사람일 가능성이 높다. FIG. 2A is an image of a person when the stereo camera is face to face, and FIG. 2B is a time difference image as a result of calculating a time difference map for each stereo image of FIG. 2A, and a bright part may be a person in contrast to a background. This is high.

도 2c는 도 2b의 시각차 영상으로 구해진 공간-시각차 히스토그램이며, 도 2d는 도 2c의 공간-시각차 히스토그램으로부터 방향성 2차원 타원형 필터의 적용을 위하여 변환된 공간-깊이 히스토그램이다.FIG. 2C is a spatial-time difference histogram obtained from the visual difference image of FIG. 2B, and FIG. 2D is a space-depth histogram transformed for application of a directional two-dimensional elliptic filter from the space-time difference histogram of FIG. 2C.

Figure 112007081416247-PAT00003
를 공간-시각차 히스토그램
Figure 112007081416247-PAT00004
에서 픽셀 크기로 사람을 나타나는 공간 좌표라고 하고,
Figure 112007081416247-PAT00005
를 공간-깊이 히스토그램
Figure 112007081416247-PAT00006
에서 실제 크기로 사람을 나타내는 공간 좌표라고 하면, 2차원 공간-깊이 히스토그램은 2차원 공간-시각차 히스토그램으로부터 다음 수학식 1과 같이 산출된다.
Figure 112007081416247-PAT00003
Space-Visual Histogram
Figure 112007081416247-PAT00004
Is called the spatial coordinate in which people are represented in pixels,
Figure 112007081416247-PAT00005
Space-depth histogram
Figure 112007081416247-PAT00006
In the case of the spatial coordinates representing the person at the actual size, the two-dimensional space-depth histogram is calculated from Equation 1 from the two-dimensional space-time difference histogram.

Figure 112007081416247-PAT00007
Figure 112007081416247-PAT00007

여기서

Figure 112007081416247-PAT00008
는 2차원 공간-시각차 히스토그램에서 공간 좌표축의 중앙이며,
Figure 112007081416247-PAT00009
는 스테레오 카메라의 초점길이,
Figure 112007081416247-PAT00010
는 스테레오 카메라의 기선(baseline)이며, z는 깊이를 나타낸다. here
Figure 112007081416247-PAT00008
Is the center of the spatial coordinate axis in the two-dimensional space-time difference histogram,
Figure 112007081416247-PAT00009
Is the focal length of the stereo camera,
Figure 112007081416247-PAT00010
Is the baseline of the stereo camera, and z is the depth.

이후, 복수의 소정 각도로 각각 회전된 상태의 사람 형태를 갖는 방향성 2차원 타원형 필터를 작성한다. Subsequently, a directional two-dimensional elliptic filter having a human shape rotated at a plurality of predetermined angles is created.

각도

Figure 112007081416247-PAT00011
만큼 회전한 방향성 2차원 타원형 필터 Vθ는 타원형 형태로 다음과 같이 나타낼 수 있다.Angle
Figure 112007081416247-PAT00011
The directional two-dimensional elliptic filter V θ rotated by may be expressed in an elliptical form as follows.

Figure 112007081416247-PAT00012
Figure 112007081416247-PAT00012

여기서

Figure 112007081416247-PAT00013
Figure 112007081416247-PAT00014
는 사람 몸의 평균 너비와 두께이다.here
Figure 112007081416247-PAT00013
Wow
Figure 112007081416247-PAT00014
Is the average width and thickness of a person's body.

또한, 방향성 2차원 타원형 필터의 2차원 커널 함수

Figure 112007081416247-PAT00015
는 다음과 같이 나타내어진다. Also, two-dimensional kernel function of directional two-dimensional elliptic filter
Figure 112007081416247-PAT00015
Is expressed as follows.

Figure 112007081416247-PAT00016
Figure 112007081416247-PAT00016

필터 가중치는 타원의 윤곽에서 최대치가 1이고,

Figure 112007081416247-PAT00017
가 타원의 윤곽으로부터 멀어질수록 감소한다. 도 3a 내지 도 3d는 0°, 45°, 90°, 135°로 회전된 방향성 2차원 타원형 필터들의 2차원 커널 함수들로서 패턴을 나타낸 것이다. The filter weight has a maximum of 1 in the outline of the ellipse,
Figure 112007081416247-PAT00017
Decreases away from the contour of the ellipse. 3A-3D show patterns as two-dimensional kernel functions of directional two-dimensional elliptical filters rotated at 0 °, 45 °, 90 °, 135 °.

방향성 2차원 타원형 필터는 사람 몸의 윤곽과 닮은 타원 형태이며, 사람의 회전을 감안한 방향성 2차원 필터를 가진다. The directional two-dimensional oval filter has an elliptic shape similar to the outline of a human body and has a directional two-dimensional filter in consideration of the rotation of the person.

도 3a 내지 도 3d에 도시된 필터는 로봇의 카메라는 앞쪽에 있는 사람의 일측만 촬상하므로 2차원 커널 함수의 절반만 사용되며, 이에 따라 타원 형태에서 반쪽만 도시되어 있다. The filter shown in FIGS. 3A to 3D uses only half of the two-dimensional kernel function because the camera of the robot captures only one side of the person in front, thus only half of the elliptical form is shown.

또한 생성한 2차원 커널 함수는 필터링 결과의 합을 동일하게 하기 위해 정규화를 수행하여, 2차원 커널 필터의 합을 1로 맞춰준다.In addition, the generated 2D kernel function performs normalization to equalize the sum of the filtering results and sets the sum of the 2D kernel filters to 1.

104 단계에서 필터링된 결과는 도 2d의 공간-깊이 히스토그램과 θ값에 의한 4개의 방향성 2차원 타원형 필터와의 승적으로 산출되며 다음과 수학식 4로 나타낼 수 있다.The filtered result in step 104 is calculated as a product of the four-directional two-dimensional elliptic filter by the space-depth histogram and the θ value of Figure 2d and can be represented by the following equation (4).

Figure 112007081416247-PAT00018
Figure 112007081416247-PAT00018

여기서

Figure 112007081416247-PAT00019
는 승적 연산자이며, Fθ는(·,·)는 2차원 커널 함수이다.here
Figure 112007081416247-PAT00019
Is a multiplier operator and F θ is a two-dimensional kernel function.

106 단계는 θ값에 의한 4개의 필터링 결과로부터 사람 후보를 추출한다.Step 106 extracts the human candidate from the four filtering results based on the θ values.

도 4는 도 1에 도시된 사람 후보 추출 과정을 설명하기 위한 상세 흐름도이다. FIG. 4 is a detailed flowchart for explaining a process of extracting a human candidate shown in FIG. 1.

각각의 사람 후보는 사람의 평균 너비와 두께, 2차원 넓이를 기준으로 추출된다. 도 2d를 필터링된 2차원 깊이 히스토그램이라고 가정하면, 중앙에 도시된 반 타원 형태의 좌우측 사이를 사람의 너비, 세로축 상의 거리를 두께로서 산출한다. 이를 위해, 도 2d의 우선 2차원 깊이 히스토그램을 1차원 깊이 히스토그램으로 변환하고, 사람의 평균 2차원 넓이를 임계치로 하여 사람 후보의 앞쪽 위치 zf를 찾는 다. 그리고 사람의 평균 두께를 기준으로 사람 후보의 뒤쪽 zb를 예측한다. 그 후 필터링 결과에서 찾아진 사람 후보의 앞쪽과 뒤쪽의 범위에 해당하는 영역만으로 1차원 공간 히스토그램으로 변환을 한다(400 내지 406 단계). Each person candidate is extracted based on the average width, thickness, and two-dimensional width of the person. Assuming that FIG. 2D is a filtered two-dimensional depth histogram, the width of the person and the distance on the vertical axis are calculated as thicknesses between the left and right sides of the semi-elliptic shape shown in the center. To this end, the first two-dimensional depth histogram of FIG. 2D is converted into a one-dimensional depth histogram, and the front position z f of the human candidate is found using the average two-dimensional width of the person as a threshold. We then predict the back z b of the person candidate based on the average thickness of the person. Thereafter, only a region corresponding to the front and rear ranges of the person candidate found in the filtering result is converted into the one-dimensional spatial histogram (steps 400 to 406).

이 히스토그램에서 가장 큰 값이 나타나는 지점을 사람 후보의 중심

Figure 112007081416247-PAT00020
이라고 보고, 그 중심을 기준으로 사람의 평균 너비를 기준으로 하여 사람 후보에 해당하는 영역의 왼쪽 끝 xl과 오른쪽 끝 xr을 예측한다. 그리고 필터링 결과에서 전후좌우로 찾아낸 영역을 기준으로 사람 후보를 나타내는 봉우리의 가장자리를 찾아서 실제 사람 후보의 영역을 확정한다. 사람이 더 이상 찾아지지 않을 때까지 이와 같은 연산을 반복한다(408 내지 412 단계). The point at which the largest value appears in this histogram.
Figure 112007081416247-PAT00020
The left end x l and the right end x r of the area corresponding to the person candidate are predicted based on the average width of the person based on the center. The area of the real person candidate is determined by finding the edges of the peaks representing the person candidates based on the areas found in the filtering results. This operation is repeated until a person is no longer found (steps 408-412).

다음, 108 단계에서 사람 후보의 포즈 각도를 예측하는 과정은 다음 세 단계로 구성된다. Next, the process of predicting the pose angle of the human candidate in step 108 consists of three steps.

필터링된 2차원 공간-깊이 히스토그램들

Figure 112007081416247-PAT00021
(θ=0°, 45°, 90°, 135°)에서 찾아진 사람 후보 영역을 둘러싸는 사각형들을 얻음으로써 사람 후보를 분리한다. 다음, 각 히스토그램들에서 얻어진 사각형의 위치가 일치하는 것끼리 합친다. 관련된 사각형 전체를 둘러싸는 영역이 되므로 영역이 더 커지게 된다. Filtered 2-D Space-Depth Histograms
Figure 112007081416247-PAT00021
The human candidate is separated by obtaining squares surrounding the human candidate region found at (θ = 0 °, 45 °, 90 °, 135 °). Next, the positions of the squares obtained from the histograms coincide with each other. The area becomes larger because it becomes the area surrounding the entire associated rectangle.

2) 분리된 사람 후보에 대한 합쳐진 영역을 기준으로 각 필터링된 2차원 공간-깊이 히스토그램들

Figure 112007081416247-PAT00022
의 최고치를 찾는다. 이 과정은 각각의 필터링 결과인 모두 4개의 히스토그램에 대해서 계산된다.2) Each filtered two-dimensional space-depth histograms based on the merged region for separated person candidates
Figure 112007081416247-PAT00022
Find the highs. This process is calculated for all four histograms as a result of each filtering.

3) 4개의 히스토그램의 최고치 값 중 가장 큰 최고치를 가지는 2차원 타원 형 필터가 해당하는 각도를 사람 포즈 각도로 예측한다. 3) A two-dimensional elliptic filter having the highest of the four histogram peaks predicts the corresponding angle as the human pose angle.

110 단계는 검출된 사람 후보가 실제 사람인지를 판별한다. 우선 검출된 사람 후보에 해당하는 영역 안에서 사람의 평균 머리 높이와 2차원 머리 크기를 기준으로 머리 후보를 검출한다. 그 후 그 머리 후보에서 Adaboost 기반의 얼굴 검출을 수행하여 사람을 검증한다. 이 방법은 카메라의 정면에 있는 사람은 검증이 잘 되지만, 정면이 아닌 경우 얼굴 검출이 되지 않으므로 다른 방법이 추가로 필요하다.Step 110 determines whether the detected person candidate is a real person. First, a head candidate is detected based on a person's average head height and a two-dimensional head size in a region corresponding to the detected person candidate. The person is then validated by performing Adaboost-based face detection on that head candidate. This method works well for people in front of the camera, but if it is not in front of the face is not detected, another method is needed.

112 단계에서는 얼굴 검출이 되지 않은 사람 후보는 다시 머리-어깨 형태 정합을 사람 후보의 포즈 각도에 따라 사전에 설정된 형태 정합을 이용하여 사람을 검증한다. 머리-어깨 형태 정합을 사용한 사람 검증은 머리-어깨 실루엣 추출, 머리-어깨 형태 추출, 머리-어깨 형태 정합을 위해 다음 과정으로 수행한다.In step 112, the person candidate having no face detection verifies the person using head-shoulder shape matching based on a preset shape matching according to the pose angle of the person candidate. Person verification using head-shoulder shape matching is performed by the following process for head-shoulder silhouette extraction, head-shoulder shape extraction, and head-shoulder shape matching.

1) 움직임과 시각차 정보를 사용하여 머리-어깨 실루엣을 추출한다. 실루엣은 입력 이미지에서 시간적 차분을 두 번 수행하여 결과물을 얻어내는 이중 시간적 차분(double temporal differencing)의 결과와 시각차 맵에서의 사람 후보 검출의 결과로부터 추출하며, 실루엣의 구멍을 점으로 채운다. 1) Head-shoulder silhouette is extracted using motion and visual difference information. The silhouette is extracted from the result of the double temporal differencing which performs the temporal difference twice in the input image and the result of the detection of the human candidate in the visual difference map, and fills the holes of the silhouette with dots.

2) 이후 머리-어깨 형태를 추출하는 단계로서, 형태는 추출한 머리-어깨 실루엣의 테두리에서 점을 샘플링하여 추출된다. 형태 정합을 위해 사용되는 특정 위치의 점의 수는 항상 고정되어 있어야 하며 방향 역시 같아야 하므로 샘플링은 항상 특정 방향 예컨대, 시계방향으로 수행한다. 2) After extracting the head-shoulder shape, the shape is extracted by sampling a point at the edge of the extracted head-shoulder silhouette. Since the number of points at a particular location used for shape matching must always be fixed and the direction must be the same, sampling is always performed in a particular direction, eg clockwise.

3) 추출한 머리-어깨 형태는 미리 등록한 머리-어깨 형태와 정합한다. 추출된 머리-어깨 형태는 아직 정렬되지 않았으므로, 형태 정합에 바로 적용할 수 없 다. 형태 정합의 전처리로서, 정렬 과정은 유사성 변환 요소(similarity transformation factors)를 제거하기 위해 수행된다. 정렬된 입력 형태가 미리 정의된 머리-어깨 형태와 유사하느냐에 따라 사람인지를 판단하게 된다. 이 판단은 추출된 머리-어깨 형태의 형태 인자 벡터(shape parameter vector)인

Figure 112007081416247-PAT00023
와 등록된 머리-어깨 형태의 형태 인자 벡터
Figure 112007081416247-PAT00024
간의 마할라노비스 거리(Mahalanobis distance)가 작을 경우에 유사한 것으로 판단한다. 여기서 회전각
Figure 112007081416247-PAT00025
는 사람 포즈 각도 예측에서 얻어진 사람 포즈 각도이며, 만약 거리가 임계치
Figure 112007081416247-PAT00026
보다 작으면 그 형태는 사람이라고 판단하여 검출 결과를 출력한다(112 내지 118 단계).3) The extracted head-shoulder shape matches the pre-registered head-shoulder shape. The extracted head-shoulder shape is not yet aligned, so it cannot be directly applied to shape matching. As a preprocessing of shape matching, the alignment process is performed to remove similarity transformation factors. It is determined whether the sorted input form is similar to the predefined head-shoulder shape. This judgment is the shape parameter vector of the extracted head-shoulder shape.
Figure 112007081416247-PAT00023
And registered head-shoulder form factor vector
Figure 112007081416247-PAT00024
It is judged to be similar when the Mahalanobis distance of the liver is small. Rotation angle
Figure 112007081416247-PAT00025
Is the person pose angle obtained from the person pose angle prediction, and if the distance is the threshold
Figure 112007081416247-PAT00026
If smaller, the form is determined to be a person and outputs a detection result (steps 112 to 118).

도 5a 내지 도 5e는 상술된 본 발명에 검출 방법에 의해 각각 0도, 45도, 90도, 135도, 180도 방향에서 한 사람을 검출한 결과를 나타낸 도면이며, 도 6a 내지 도 6b는 0도, 45도, 135도 방향에서 두사람을 검출한 결과를 나타낸 도면이다. 5A to 5E are diagrams showing the results of detecting one person in the 0 degree, 45 degree, 90 degree, 135 degree, and 180 degree directions, respectively, by the detection method of the present invention described above, and FIGS. 6A to 6B are 0 Fig. 45 shows the results of detecting two people in the 45 degree and 135 degree directions.

이상 본 발명의 바람직한 실시예에 대해 상세히 기술하였지만, 본 발명이 속하는 기술분야에 있어서 통상의 지식을 가진 사람이라면, 첨부된 청구 범위에 정의된 본 발명의 정신 및 범위를 벗어나지 않으면서 본 발명을 여러 가지로 변형 또는 변경하여 실시할 수 있음을 알 수 있을 것이다. 따라서 본 발명의 앞으로의 실시예들의 변경은 본 발명의 기술을 벗어날 수 없을 것이다.Although a preferred embodiment of the present invention has been described in detail above, those skilled in the art to which the present invention pertains may make various changes without departing from the spirit and scope of the invention as defined in the appended claims. It will be appreciated that modifications or variations may be made. Therefore, changes in the future embodiments of the present invention will not be able to escape the technology of the present invention.

도 1은 본 발명에 의한 스테레오 영상 정보를 이용한 사람 검출 방법을 설명하기 위한 흐름도이다. 1 is a flowchart illustrating a person detection method using stereo image information according to the present invention.

도 2a는 스테레오 카메라를 정면으로 마주할 때의 사람의 영상이다.2A is an image of a person when facing the stereo camera in front.

도 2b는 도 2a의 각각의 스테레오 영상에 대한 시각차 맵을 산출한 결과로서의 시각차 영상이다.FIG. 2B is a time difference image as a result of calculating the time difference map for each stereo image of FIG. 2A.

도 2c는 도 2b의 시각차 영상으로 구해진 공간-시각차 히스토그램이다.FIG. 2C is a spatial-time difference histogram obtained from the time difference image of FIG. 2B.

도 2d는 도 2c의 공간-시각차 히스토그램으로부터 변환시킨 공간-깊이 히스토그램이다.FIG. 2D is a space-depth histogram converted from the space-time difference histogram of FIG. 2C.

도 3a 내지 도 3d는 본 발명에 의한 각각 0도, 45도, 90도, 135도, 180도로 회전된 방향성 필터를 나타낸다. 3A to 3D show the directional filters rotated 0 degrees, 45 degrees, 90 degrees, 135 degrees and 180 degrees, respectively, according to the present invention.

도 4는 도 1에 도시된 사람 후보 추출 과정을 설명하기 위한 상세 흐름도이다.FIG. 4 is a detailed flowchart for explaining a process of extracting a human candidate shown in FIG. 1.

도 5a 내지 도 5e는 각각 0도, 45도, 90도, 135도, 180도 방향에서 한 사람을 검출한 결과를 나타낸 도면이다.5A to 5E are diagrams showing the results of detecting one person in the directions of 0 degrees, 45 degrees, 90 degrees, 135 degrees, and 180 degrees, respectively.

도 6a 내지 도 6b는 0도, 45도, 135도 방향에서 두사람을 검출한 결과를 나타낸 도면이다.6A to 6B are diagrams showing the results of detecting two people in the directions of 0 degrees, 45 degrees, and 135 degrees.

Claims (8)

(a) 스테레오 영상에서 시각차 맵을 구하여 2차원 공간-깊이 히스토그램을 생성하는 단계; (a) generating a two-dimensional space-depth histogram by obtaining a visual difference map from a stereo image; (b) 복수의 소정 각도로 각각 회전된 상태의 사람 형태와 유사한 방향성 2차원 타원형 필터들을 2차원 커널 함수로 설계하는 단계; (b) designing directional two-dimensional elliptical filters, which are similar to human shapes, each rotated by a plurality of predetermined angles, as a two-dimensional kernel function; (c) 상기 2차원 공간-깊이 히스토그램과 각각의 상기 방향성 2차원 타원형 필터간의 승적 연산을 통해 사람 후보를 검출하는 단계; 및(c) detecting a person candidate through a multiplicative operation between the two-dimensional space-depth histogram and each of the directional two-dimensional elliptic filters; And (d) 상기 각 방향성 2차원 타원형 필터에 대한 승적 연산 결과들을 기초로 검출된 사람 후보의 포즈 각도를 예측하는 스테레오 영상을 이용한 사람 검출 방법. (d) A human detection method using stereo images for predicting the pose angle of the detected human candidate based on the result of the multiplication of the directional two-dimensional elliptic filter. 제 1항에 있어서, The method of claim 1, (e) 상기 검출된 사람 후보로부터 얼굴을 검출하여 사람을 검증하는 단계; 및(e) verifying a person by detecting a face from the detected person candidate; And (f) 상기 (e) 단계에서 검증이 되지 않으면, 머리-어깨 형태 정합을 통하여 사람을 검증하는 단계를 더 포함하는 것을 특징으로 하는 스테레오 영상을 이용한 사람 검출 방법. (f) if the verification is not performed in the step (e), further comprising the step of verifying a person by matching the head-shoulder shape. 제 1항에 있어서, 상기 복수의 각도는 0°, 45°, 90°, 135°로 설정됨을 특징으로 하는 스테레오 영상을 이용한 사람 검출 방법. The method of claim 1, wherein the plurality of angles are set to 0 °, 45 °, 90 °, and 135 °. 제 1항에 있어서, 상기 (a) 단계는,The method of claim 1, wherein step (a) comprises: (a1) 상기 스테레오 영상에서 시각차 맵을 산출하는 단계;calculating a visual difference map from the stereo image; (a2) 시각차 맵을 수직 방향으로 투상(project)함으로써 2차원 공간-시각차 히스토그램을 작성하는 단계; (a2) creating a two-dimensional space-visual histogram by projecting the visual difference map in a vertical direction; (a3) 2차원 공간-시각차 히스토그램을 2차원 공간-깊이 히스토그램으로 변환하는 단계를 포함하는 것을 특징으로 하는 스테레오 영상을 이용한 사람 검출 방법.(a3) converting a two-dimensional space-time histogram into a two-dimensional space-depth histogram. 제 1항에 있어서, 상기 (c) 단계는, The method of claim 1, wherein step (c) comprises: (c1) 상기 2차원 공간-깊이 히스토그램과 4개의 방향성 2차원 타원형 필터와 각각 승적 연산을 수행하여 필터링한 결과인 4개의 히스토그램을 산출하는 단계; (c1) calculating four histograms as a result of filtering by performing a multiplicative operation with the two-dimensional space-depth histogram and the four directional two-dimensional elliptic filters; (c2) 상기 4개의 필터링된 히스토그램 중에서 가장 큰 값의 위치를 중심으로 하는 사람 후보를 검출하는 단계를 특징으로 하는 스테레오 영상을 이용한 사람 검출 방법.(c2) detecting a person candidate centered on the position of the largest value among the four filtered histograms. 제 2항에 있어서, 상기 (f) 단계는, The method of claim 2, wherein (f) comprises: (f1) 상기 스테레오 영상에서 시간적 차분을 두 번 수행하여 산출된 이중 시간차분 결과인 사람의 움직임 정보와 상기 시각차 맵에서의 사람 후보 검출 결과인 실루엣 정보로부터 머리-어깨 실루엣을 추출하는 단계; (f1) extracting a head-shoulder silhouette from the motion information of a person, which is a double time difference result calculated by performing the temporal difference twice in the stereo image, and the silhouette information that is a result of detection of a person candidate in the visual difference map; (f2) 상기 머리-어깨 실루엣으로부터 머리-어깨 형태를 추출하는 단계; 및(f2) extracting the head-shoulder shape from the head-shoulder silhouette; And (f3) 추출된 상기 머리-어깨 형태를 사전에 등록된 머리-어깨 형태와 정합하여 유사성을 비교하는 단계를 포함함을 특징으로 하는 스테레오 영상을 이용한 사람 검출 방법.(f3) matching the extracted head-shoulder shape with a previously registered head-shoulder shape to compare similarity. 제 6항에 있어서, 상기 (f2)의 상기 머리-어깨 형태를 추출하는 단계는,The method of claim 6, wherein the extracting the head-shoulder form of (f2) comprises: 상기 머리-어깨 실루엣의 테두리에 있는 특정 수의 점을 샘플링하여 추출함을 특징으로 하는 스테레오 영상을 이용한 사람 검출 방법. And detecting and extracting a specific number of points on the edge of the head-shoulder silhouette. 제 5항에 있어서, 상기 (c2) 단계는, 상기 가장 큰 값의 위치를 기준으로 하여 사람의 좌우 평균 너비와 앞뒤의 두께값으로 범위로서 사람 후보의 영역을 설정하는 단계를 포함함을 특징으로 하는 스테레오 영상을 이용한 사람 검출 방법. 6. The method of claim 5, wherein the step (c2) comprises: setting a region of the person candidate as a range based on the left and right average widths of the person and the thickness values before and after the person based on the position of the largest value. Human detection method using a stereo image.
KR1020070115695A 2007-11-13 2007-11-13 Pose robust human detection and tracking method using the stereo image KR100922429B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070115695A KR100922429B1 (en) 2007-11-13 2007-11-13 Pose robust human detection and tracking method using the stereo image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070115695A KR100922429B1 (en) 2007-11-13 2007-11-13 Pose robust human detection and tracking method using the stereo image

Publications (2)

Publication Number Publication Date
KR20090049438A true KR20090049438A (en) 2009-05-18
KR100922429B1 KR100922429B1 (en) 2009-10-16

Family

ID=40858193

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070115695A KR100922429B1 (en) 2007-11-13 2007-11-13 Pose robust human detection and tracking method using the stereo image

Country Status (1)

Country Link
KR (1) KR100922429B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8355568B2 (en) 2009-11-10 2013-01-15 Samsung Electronics Co., Ltd. Image processing apparatus, method and computer-readable medium
CN103186776A (en) * 2013-04-03 2013-07-03 西安电子科技大学 Human detection method based on multiple features and depth information
US8885920B2 (en) 2009-09-22 2014-11-11 Samsung Electronics Co., Ltd. Image processing apparatus and method
KR101645451B1 (en) * 2015-04-14 2016-08-12 공간정보기술 주식회사 Spatial analysis system using stereo camera
US9443137B2 (en) 2012-05-08 2016-09-13 Samsung Electronics Co., Ltd. Apparatus and method for detecting body parts
WO2018101603A1 (en) * 2016-12-02 2018-06-07 (주)비전에스티 Road object recognition method and device using stereo camera
CN111539973A (en) * 2020-04-28 2020-08-14 北京百度网讯科技有限公司 Method and device for detecting pose of vehicle

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9406135B2 (en) 2012-10-29 2016-08-02 Samsung Electronics Co., Ltd. Device and method for estimating head pose

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7227526B2 (en) 2000-07-24 2007-06-05 Gesturetek, Inc. Video-based image control system
US7274800B2 (en) 2001-07-18 2007-09-25 Intel Corporation Dynamic gesture recognition from stereo sequences
KR100544677B1 (en) * 2003-12-26 2006-01-23 한국전자통신연구원 Apparatus and method for the 3D object tracking using multi-view and depth cameras
KR100748719B1 (en) * 2005-07-14 2007-08-13 연세대학교 산학협력단 Apparatus and method for 3-dimensional modeling using multiple stereo cameras

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8885920B2 (en) 2009-09-22 2014-11-11 Samsung Electronics Co., Ltd. Image processing apparatus and method
US8355568B2 (en) 2009-11-10 2013-01-15 Samsung Electronics Co., Ltd. Image processing apparatus, method and computer-readable medium
US9443137B2 (en) 2012-05-08 2016-09-13 Samsung Electronics Co., Ltd. Apparatus and method for detecting body parts
CN103186776A (en) * 2013-04-03 2013-07-03 西安电子科技大学 Human detection method based on multiple features and depth information
CN103186776B (en) * 2013-04-03 2016-04-13 西安电子科技大学 Based on the human body detecting method of multiple features and depth information
KR101645451B1 (en) * 2015-04-14 2016-08-12 공간정보기술 주식회사 Spatial analysis system using stereo camera
WO2018101603A1 (en) * 2016-12-02 2018-06-07 (주)비전에스티 Road object recognition method and device using stereo camera
CN111539973A (en) * 2020-04-28 2020-08-14 北京百度网讯科技有限公司 Method and device for detecting pose of vehicle

Also Published As

Publication number Publication date
KR100922429B1 (en) 2009-10-16

Similar Documents

Publication Publication Date Title
KR100922429B1 (en) Pose robust human detection and tracking method using the stereo image
US11360571B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
Islam et al. Efficient detection and recognition of 3D ears
Wang et al. Face liveness detection using 3D structure recovered from a single camera
US6819782B1 (en) Device and method for recognizing hand shape and position, and recording medium having program for carrying out the method recorded thereon
Mogelmose et al. Tri-modal person re-identification with rgb, depth and thermal features
US20150310257A1 (en) Object identification using 3-d curve matching
JP6221390B2 (en) Image processing apparatus, program, and image processing method
US20110243434A1 (en) Feature value extracting device, object identification device, and feature value extracting method
CN101609507A (en) Gait recognition method
KR20150065445A (en) Apparatus and method for detecting frontal face image using facial pose
Beier et al. Marker-less vision based tracking for mobile augmented reality
US20180144179A1 (en) Image processing device, image processing method, and image processing program
JP4043973B2 (en) Face detection system and method
KR20140074905A (en) Identification by iris recognition
KR100714112B1 (en) Face recognition and confirmation method and apparatus
Aissaoui et al. Rapid and accurate face depth estimation in passive stereo systems
JP2017097549A (en) Image processing apparatus, method, and program
KR101998361B1 (en) Method of facial recognition in camera image
KR20100097861A (en) Improved performance of face recognition system using auto removal background
Jaijing et al. Object detection and modeling algorithm for automatic visual people counting system
JP4812743B2 (en) Face recognition device, face recognition method, face recognition program, and recording medium recording the program
Kryszczuk et al. Singular point detection in fingerprints using quadrant change information
Khan et al. An efficient approach to extract singular points for fingerprint recognition
Khadhraoui et al. A novel approach to nose-tip and eye-corners detection using HK-classification in case of 3D face analysis

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
J201 Request for trial against refusal decision
B701 Decision to grant
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121011

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130930

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee