KR20090049438A - Pose robust human detection and tracking method using the stereo image - Google Patents
Pose robust human detection and tracking method using the stereo image Download PDFInfo
- Publication number
- KR20090049438A KR20090049438A KR1020070115695A KR20070115695A KR20090049438A KR 20090049438 A KR20090049438 A KR 20090049438A KR 1020070115695 A KR1020070115695 A KR 1020070115695A KR 20070115695 A KR20070115695 A KR 20070115695A KR 20090049438 A KR20090049438 A KR 20090049438A
- Authority
- KR
- South Korea
- Prior art keywords
- person
- head
- dimensional
- shoulder
- candidate
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0014—Image feed-back for automatic industrial control, e.g. robot with camera
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration by the use of histogram techniques
Abstract
본 발명의 스테레오 영상을 이용한 사람 검출 방법은, 스테레오 영상에서 시각차 정보를 이용하여 생성한 2차원 공간-시각차 히스토그램으로부터 변환시킨 2차원 공간-깊이 히스토그램을 4가지 방향의 방향성 2차원 타원형 필터들과의 승적 연산을 통해 사람의 후보를 검출하고, 검출된 사람 후보에 대하여 얼굴 검출 및 머리-어깨 형태 정합을 통해 검증을 수행함으로써, 스테레오 영상에서 사람의 포즈 각도가 정면이 아닌 경우에도 높은 사람 검출률을 제공한다.The human detection method using stereo images according to the present invention comprises a two-dimensional space-depth histogram transformed from a two-dimensional space-time histogram generated using visual difference information in a stereo image with four-directional directional two-dimensional elliptic filters. By detecting the candidate of the person through the multiplicative operation and verifying the detected person candidate through face detection and head-shoulder shape matching, high human detection rate is provided even when the pose angle of the person in the stereo image is not in front. do.
Description
본 발명은 스테레오 영상을 이용한 사람 검출 방법에 관한 것으로서 보다 상세하게는 스테레오 카메라의 시각차(Disparity) 정보를 이용하여 생성한 2차원 공간-깊이 히스토그램을 복수의 소정 각도의 방향성 2차원 타원형 필터들(Multiple-Oriented 2D Elliptical Filters; MO2DEFs)과의 승적(Convolution)연산을 통해 사람의 후보를 검출하고, 얼굴 검출 및 머리-어깨 형태 정합을 통해 사람을 검증하여, 사람의 위치를 실시간 추적하는 스테레오 영상을 이용한 포즈에 강인한 사람 검출 방법에 관한 것이다. The present invention relates to a method for detecting a person using a stereo image, and more particularly, to a two-dimensional space-depth histogram generated by using the disparity information of a stereo camera. -Oriented 2D Elliptical Filters (MO2DEFs) and Convolutional Operations (MO2DEFs) to detect human candidates, face detection and head-to-shoulder matching to verify the human, using stereo images to track the position of the person in real time The present invention relates to a method for detecting a person who is robust to a pose.
일반적으로 사용되는 단일 카메라를 통해 얻어진 영상에 대해서 배경추출을 통한 사람을 검출하는 경우에 올바르게 검출할 수 없다. 이에 따라 스테레오 영상을 통해 사람을 효과적으로 검출할 수 있는 다양한 검출 방법이 제안되고 있다. In the case of detecting a person through background extraction, an image obtained through a single camera generally used cannot be detected correctly. Accordingly, various detection methods for effectively detecting a person through stereo images have been proposed.
종래의 스테레오 영상에서 사람을 검출하는 방법 중의 하나는 천장에 스테레오 카메라를 설치하여 촬상한 스테레오 영상으로부터 높이 맵 작성 및 머리 검출을 통하여 사람 검출을 수행하였으나, 이러한 검출방법은 검출된 후보영역의 윗부분이 사람의 머리와 유사한 형태를 보이는 경우에는 사람으로 잘못 판단하는 등의 문제가 있었다. In the conventional stereoscopic image detection method, a person is detected by height map and head detection from a stereoscopic image obtained by installing a stereo camera on the ceiling. In the case of a similar shape to a human head, there was a problem such as incorrectly judged as a human.
또한 천장에 항상 고정된 카메라로부터 촬상한 영상으로 사람을 검출해야 하므로, 로봇과 같은 이동형 플랫폼에서 동일한 방식으로 카메라를 고정시킬 수 없기 때문에 적용될 수 없었다. In addition, since a person must be detected by an image captured from a camera fixed to the ceiling, it cannot be applied because the camera cannot be fixed in the same manner on a mobile platform such as a robot.
따라서, 로봇과 같은 이동형 플랫폼에 설치한 카메라를 이용하여 촬상한 스테레오 영상을 이용하여 사람을 검출할 뿐만 아니라 정면이 아닌 어느 한쪽 방향으로 일부 회전된 상태로 있는 사람의 영상에 대해서도 사람으로서 검출할 수 있는 방법이 요구되어 왔다. Therefore, not only a person can be detected by using a stereo image photographed using a camera installed on a mobile platform such as a robot, but also a person can be detected as an image of a person who is partially rotated in one direction instead of the front side. There has been a demand.
본 발명에서 이루고자 하는 기술적 과제는 로봇과 같은 이동형 플랫폼에서 촬상한 스테레오 영상을 사용하여 사람의 회전 각도에 무관하게 사람 후보를 검출하고 얼굴 검출과 머리-어깨 형태 정합(head-shoulder shape matching)으로 구성되는 사람 검증 작업을 통해 실제 사람이 맞는지를 판단하여, 최종적으로 사람을 추출하는 사람 검출 방법을 제공하는 데 있다. The technical problem to be achieved in the present invention is to detect a human candidate regardless of the rotation angle of the person using a stereo image captured on a mobile platform, such as a robot and consists of face detection and head-shoulder shape matching The present invention provides a method for detecting a person who finally extracts a person by determining whether a real person is correct through a person verification operation.
본 발명의 과제를 달성하기 위한 스테레오 영상을 이용한 사람 검출 방법은, Human detection method using a stereo image for achieving the object of the present invention,
(a) 스테레오 영상에서 시각차(disparity) 맵을 구하여 2차원 공간-깊이 히스토그램(spatial-depth histogram)을 생성하는 단계;(a) generating a two-dimensional spatial-depth histogram by obtaining a disparity map from a stereo image;
(b) 복수의 소정 각도로 각각 회전된 상태의 사람 형태와 유사한 방향성 2차원 타원형 필터들을 2차원 커널 함수로 설계하는 단계; (b) designing directional two-dimensional elliptical filters, similar to the human shape, each rotated by a plurality of predetermined angles, by a two-dimensional kernel function;
(c) 상기 2차원 공간-깊이 히스토그램과 상기 방향성 2차원 타원형 필터간의 승적(convolution) 연산을 통해 사람 후보를 검출하는 단계; 및(c) detecting a human candidate through a convolution operation between the two-dimensional space-depth histogram and the directional two-dimensional elliptic filter; And
(d) 상기 각 방향성 2차원 타원형 필터에 대한 승적 결과들을 기초로 검출된 사람 후보의 포즈 각도를 예측하는 단계;를 포함함을 특징으로 한다.(d) predicting a pose angle of the detected human candidate based on the results of the multiplication of the directional two-dimensional elliptic filter.
또한, 상기 검출 단계는 (e) 상기 검출된 사람 후보로부터 얼굴 검출로 사람을 검증하는 단계; 및In addition, the detecting step includes: (e) verifying a person by face detection from the detected person candidate; And
(f) 상기 (e) 단계에서 검증이 되지 않으면, 머리-어깨 형태 정합을 통하여 사람을 검증하는 단계를 포함하는 것을 특징으로 한다.(f) if the verification is not performed in the step (e), characterized in that it comprises the step of verifying the person through the head-shoulder shape matching.
또한, 상기 복수의 각도는 0°, 45°, 90°, 135°로 설정됨을 특징으로 한다.The plurality of angles may be set to 0 °, 45 °, 90 °, and 135 °.
또한, 상기 (a) 단계는,In addition, the step (a),
(a1) 상기 스테레오 영상에서 시각차 맵을 산출하는 단계;calculating a visual difference map from the stereo image;
(a2) 시각차 맵을 수직 방향으로 투상(project)함으로써 2차원 공간-시각차 히스토그램(spatial-disparity histogram)을 작성하는 단계; 및(a2) creating a two-dimensional spatial-disparity histogram by projecting the visual difference map in a vertical direction; And
(a3) 2차원 공간-시각차 히스토그램을 2차원 공간-깊이 히스토그램으로 변환하는 단계를 포함하는 것을 특징으로 한다.(a3) converting the two-dimensional space-time histogram into a two-dimensional space-depth histogram.
또한, 상기 (c) 단계는, In addition, the step (c),
(c1) 상기 2차원 공간-깊이 히스토그램과 4개의 방향성 2차원 타원형 필터와 각각 승적 연산을 수행하여 필터링한 결과인 4개의 히스토그램을 산출하는 단계; (c1) calculating four histograms as a result of filtering by performing a multiplicative operation with the two-dimensional space-depth histogram and the four directional two-dimensional elliptic filters;
(c2) 상기 4개의 필터링된 히스토그램 중에서 가장 큰 값의 위치를 중심으로 하는 사람 후보를 검출하는 단계를 특징으로 한다.(c2) detecting a human candidate centered on the position of the largest value among the four filtered histograms.
또한, 상기 (f) 단계는,In addition, the step (f),
(f1) 스테레오 영상에서 시간적 차분을 두 번 수행하여 산출된 이중 시간차분 결과인 사람의 움직임 정보와 시각차 맵에서의 사람 후보 검출 결과인 실루엣 정보로부터 머리-어깨 실루엣(head-shoulder silhouette)을 추출하는 단계;(f1) A head-shoulder silhouette is extracted from the motion information of a person, which is a result of a double time difference, and the silhouette information, which is a result of detecting a candidate of a person in a visual difference map. step;
(f2) 상기 머리-어깨 실루엣으로부터 머리-어깨 형태를 추출하는 단계; 및(f2) extracting the head-shoulder shape from the head-shoulder silhouette; And
(f3) 추출된 상기 머리-어깨 형태를 사전에 등록된 머리-어깨 형태의 유사성 을 비교하는 단계를 포함함을 특징으로 한다.(f3) comparing the extracted head-shoulder shape with the similarity between the previously registered head-shoulder shape.
또한, 상기 (f1) 단계에서 상기 머리-어깨 실루엣은, 상기 사람 움직임의 정보는 스테레오 영상에서 시간적 차분을 두 번 수행하여 산출된 이중 시간차분 결과와 시각차 맵에서의 사람 후보 검출 결과로부터 추출됨을 특징으로 한다.In addition, in the step (f1), the head-shoulder silhouette is extracted from the double time difference result calculated by performing the temporal difference twice in the stereo image and the human candidate detection result in the visual difference map. It is done.
또한, 상기 (f2)의 상기 머리-어깨 형태를 추출하는 단계는,In addition, extracting the head-shoulder shape of the (f2),
상기 머리-어깨 실루엣의 테두리에 있는 특정 수의 점을 샘플링하여 추출함을 특징으로 한다. And sampling a specific number of points on the edge of the head-shoulder silhouette.
또한, 상기 (c2) 단계는, 상기 가장 큰 값의 위치를 기준으로 하여 사람의 좌우 평균 너비와 앞뒤의 두께값으로 범위로서 사람 후보의 영역을 설정하는 단계를 포함함을 특징으로 한다.In addition, the step (c2) is characterized in that it comprises the step of setting the area of the person candidate as a range by the left and right average width of the person and the thickness value of the front and back on the basis of the position of the largest value.
본 발명에 의한 사람 검출 방법은 스테레오 영상에서 생성한 2차원 공간-깊이 히스토그램과 4가지 방향의 방향성 2차원 타원형 필터를 승적하여 사람 후보를 추출하고, 추출된 사람 후보에 대하여 얼굴 검출과 머리-어깨 형태 정합을 통해서 검증을 수행함으로써 영상에서 사람의 포즈 각도가 정면이 아닌 경우에도 높은 사람 검출율을 제공한다. The human detection method according to the present invention extracts a human candidate by loading a two-dimensional space-depth histogram generated from a stereo image and a directional two-dimensional elliptic filter in four directions, and detects a face and performs a head-shoulder on the extracted human candidate. Verification is performed through shape matching to provide a high detection rate even when the pose angle of the person in the image is not in front.
이하, 첨부 도면을 참조하여 본 발명의 바람직한 실시예를 설명하기로 한다. Hereinafter, exemplary embodiments of the present invention will be described with reference to the accompanying drawings.
도 1은 본 발명에 의한 스테레오 영상 정보를 이용한 사람 검출 방법을 설명하기 위한 흐름도이다. 1 is a flowchart illustrating a person detection method using stereo image information according to the present invention.
스테레오 카메라로 촬상하여 얻은 스테레오 영상으로부터 시각차 맵을 계산하고, 3차원인 시각차 맵 에서 사람 키 방향인 수직 축 방향으로 투상(project)함으로써 2차원 공간-시각차 히스토그램 을 산출하고, 이를 근거로 2차원 공간-깊이 히스토그램을 산출한다(100 내지 102 단계). Calculate the visual difference map from the stereo image obtained by the stereo camera, and obtain the three-dimensional visual difference map Histogram of Two-Dimensional Space-Visual Differences by Projecting from the Vertical Axis Direction in the Human Key Direction Is calculated and a two-dimensional space-depth histogram is calculated based on this (
도 2a는 스테레오 카메라를 정면으로 마주할 때의 사람의 영상이며, 도 2b는 도 2a의 각각의 스테레오 영상에 대한 시각차 맵을 계산한 결과로서의 시각차 영상이며, 배경에 대비하여 밝은 부분이 사람일 가능성이 높다. FIG. 2A is an image of a person when the stereo camera is face to face, and FIG. 2B is a time difference image as a result of calculating a time difference map for each stereo image of FIG. 2A, and a bright part may be a person in contrast to a background. This is high.
도 2c는 도 2b의 시각차 영상으로 구해진 공간-시각차 히스토그램이며, 도 2d는 도 2c의 공간-시각차 히스토그램으로부터 방향성 2차원 타원형 필터의 적용을 위하여 변환된 공간-깊이 히스토그램이다.FIG. 2C is a spatial-time difference histogram obtained from the visual difference image of FIG. 2B, and FIG. 2D is a space-depth histogram transformed for application of a directional two-dimensional elliptic filter from the space-time difference histogram of FIG. 2C.
를 공간-시각차 히스토그램 에서 픽셀 크기로 사람을 나타나는 공간 좌표라고 하고, 를 공간-깊이 히스토그램 에서 실제 크기로 사람을 나타내는 공간 좌표라고 하면, 2차원 공간-깊이 히스토그램은 2차원 공간-시각차 히스토그램으로부터 다음 수학식 1과 같이 산출된다. Space-Visual Histogram Is called the spatial coordinate in which people are represented in pixels, Space-depth histogram In the case of the spatial coordinates representing the person at the actual size, the two-dimensional space-depth histogram is calculated from Equation 1 from the two-dimensional space-time difference histogram.
여기서 는 2차원 공간-시각차 히스토그램에서 공간 좌표축의 중앙이며, 는 스테레오 카메라의 초점길이, 는 스테레오 카메라의 기선(baseline)이며, z는 깊이를 나타낸다. here Is the center of the spatial coordinate axis in the two-dimensional space-time difference histogram, Is the focal length of the stereo camera, Is the baseline of the stereo camera, and z is the depth.
이후, 복수의 소정 각도로 각각 회전된 상태의 사람 형태를 갖는 방향성 2차원 타원형 필터를 작성한다. Subsequently, a directional two-dimensional elliptic filter having a human shape rotated at a plurality of predetermined angles is created.
각도 만큼 회전한 방향성 2차원 타원형 필터 Vθ는 타원형 형태로 다음과 같이 나타낼 수 있다.Angle The directional two-dimensional elliptic filter V θ rotated by may be expressed in an elliptical form as follows.
여기서 와 는 사람 몸의 평균 너비와 두께이다.here Wow Is the average width and thickness of a person's body.
또한, 방향성 2차원 타원형 필터의 2차원 커널 함수 는 다음과 같이 나타내어진다. Also, two-dimensional kernel function of directional two-dimensional elliptic filter Is expressed as follows.
필터 가중치는 타원의 윤곽에서 최대치가 1이고, 가 타원의 윤곽으로부터 멀어질수록 감소한다. 도 3a 내지 도 3d는 0°, 45°, 90°, 135°로 회전된 방향성 2차원 타원형 필터들의 2차원 커널 함수들로서 패턴을 나타낸 것이다. The filter weight has a maximum of 1 in the outline of the ellipse, Decreases away from the contour of the ellipse. 3A-3D show patterns as two-dimensional kernel functions of directional two-dimensional elliptical filters rotated at 0 °, 45 °, 90 °, 135 °.
방향성 2차원 타원형 필터는 사람 몸의 윤곽과 닮은 타원 형태이며, 사람의 회전을 감안한 방향성 2차원 필터를 가진다. The directional two-dimensional oval filter has an elliptic shape similar to the outline of a human body and has a directional two-dimensional filter in consideration of the rotation of the person.
도 3a 내지 도 3d에 도시된 필터는 로봇의 카메라는 앞쪽에 있는 사람의 일측만 촬상하므로 2차원 커널 함수의 절반만 사용되며, 이에 따라 타원 형태에서 반쪽만 도시되어 있다. The filter shown in FIGS. 3A to 3D uses only half of the two-dimensional kernel function because the camera of the robot captures only one side of the person in front, thus only half of the elliptical form is shown.
또한 생성한 2차원 커널 함수는 필터링 결과의 합을 동일하게 하기 위해 정규화를 수행하여, 2차원 커널 필터의 합을 1로 맞춰준다.In addition, the generated 2D kernel function performs normalization to equalize the sum of the filtering results and sets the sum of the 2D kernel filters to 1.
104 단계에서 필터링된 결과는 도 2d의 공간-깊이 히스토그램과 θ값에 의한 4개의 방향성 2차원 타원형 필터와의 승적으로 산출되며 다음과 수학식 4로 나타낼 수 있다.The filtered result in
여기서 는 승적 연산자이며, Fθ는(·,·)는 2차원 커널 함수이다.here Is a multiplier operator and F θ is a two-dimensional kernel function.
106 단계는 θ값에 의한 4개의 필터링 결과로부터 사람 후보를 추출한다.Step 106 extracts the human candidate from the four filtering results based on the θ values.
도 4는 도 1에 도시된 사람 후보 추출 과정을 설명하기 위한 상세 흐름도이다. FIG. 4 is a detailed flowchart for explaining a process of extracting a human candidate shown in FIG. 1.
각각의 사람 후보는 사람의 평균 너비와 두께, 2차원 넓이를 기준으로 추출된다. 도 2d를 필터링된 2차원 깊이 히스토그램이라고 가정하면, 중앙에 도시된 반 타원 형태의 좌우측 사이를 사람의 너비, 세로축 상의 거리를 두께로서 산출한다. 이를 위해, 도 2d의 우선 2차원 깊이 히스토그램을 1차원 깊이 히스토그램으로 변환하고, 사람의 평균 2차원 넓이를 임계치로 하여 사람 후보의 앞쪽 위치 zf를 찾는 다. 그리고 사람의 평균 두께를 기준으로 사람 후보의 뒤쪽 zb를 예측한다. 그 후 필터링 결과에서 찾아진 사람 후보의 앞쪽과 뒤쪽의 범위에 해당하는 영역만으로 1차원 공간 히스토그램으로 변환을 한다(400 내지 406 단계). Each person candidate is extracted based on the average width, thickness, and two-dimensional width of the person. Assuming that FIG. 2D is a filtered two-dimensional depth histogram, the width of the person and the distance on the vertical axis are calculated as thicknesses between the left and right sides of the semi-elliptic shape shown in the center. To this end, the first two-dimensional depth histogram of FIG. 2D is converted into a one-dimensional depth histogram, and the front position z f of the human candidate is found using the average two-dimensional width of the person as a threshold. We then predict the back z b of the person candidate based on the average thickness of the person. Thereafter, only a region corresponding to the front and rear ranges of the person candidate found in the filtering result is converted into the one-dimensional spatial histogram (
이 히스토그램에서 가장 큰 값이 나타나는 지점을 사람 후보의 중심 이라고 보고, 그 중심을 기준으로 사람의 평균 너비를 기준으로 하여 사람 후보에 해당하는 영역의 왼쪽 끝 xl과 오른쪽 끝 xr을 예측한다. 그리고 필터링 결과에서 전후좌우로 찾아낸 영역을 기준으로 사람 후보를 나타내는 봉우리의 가장자리를 찾아서 실제 사람 후보의 영역을 확정한다. 사람이 더 이상 찾아지지 않을 때까지 이와 같은 연산을 반복한다(408 내지 412 단계). The point at which the largest value appears in this histogram. The left end x l and the right end x r of the area corresponding to the person candidate are predicted based on the average width of the person based on the center. The area of the real person candidate is determined by finding the edges of the peaks representing the person candidates based on the areas found in the filtering results. This operation is repeated until a person is no longer found (steps 408-412).
다음, 108 단계에서 사람 후보의 포즈 각도를 예측하는 과정은 다음 세 단계로 구성된다. Next, the process of predicting the pose angle of the human candidate in
필터링된 2차원 공간-깊이 히스토그램들 (θ=0°, 45°, 90°, 135°)에서 찾아진 사람 후보 영역을 둘러싸는 사각형들을 얻음으로써 사람 후보를 분리한다. 다음, 각 히스토그램들에서 얻어진 사각형의 위치가 일치하는 것끼리 합친다. 관련된 사각형 전체를 둘러싸는 영역이 되므로 영역이 더 커지게 된다. Filtered 2-D Space-Depth Histograms The human candidate is separated by obtaining squares surrounding the human candidate region found at (θ = 0 °, 45 °, 90 °, 135 °). Next, the positions of the squares obtained from the histograms coincide with each other. The area becomes larger because it becomes the area surrounding the entire associated rectangle.
2) 분리된 사람 후보에 대한 합쳐진 영역을 기준으로 각 필터링된 2차원 공간-깊이 히스토그램들 의 최고치를 찾는다. 이 과정은 각각의 필터링 결과인 모두 4개의 히스토그램에 대해서 계산된다.2) Each filtered two-dimensional space-depth histograms based on the merged region for separated person candidates Find the highs. This process is calculated for all four histograms as a result of each filtering.
3) 4개의 히스토그램의 최고치 값 중 가장 큰 최고치를 가지는 2차원 타원 형 필터가 해당하는 각도를 사람 포즈 각도로 예측한다. 3) A two-dimensional elliptic filter having the highest of the four histogram peaks predicts the corresponding angle as the human pose angle.
110 단계는 검출된 사람 후보가 실제 사람인지를 판별한다. 우선 검출된 사람 후보에 해당하는 영역 안에서 사람의 평균 머리 높이와 2차원 머리 크기를 기준으로 머리 후보를 검출한다. 그 후 그 머리 후보에서 Adaboost 기반의 얼굴 검출을 수행하여 사람을 검증한다. 이 방법은 카메라의 정면에 있는 사람은 검증이 잘 되지만, 정면이 아닌 경우 얼굴 검출이 되지 않으므로 다른 방법이 추가로 필요하다.Step 110 determines whether the detected person candidate is a real person. First, a head candidate is detected based on a person's average head height and a two-dimensional head size in a region corresponding to the detected person candidate. The person is then validated by performing Adaboost-based face detection on that head candidate. This method works well for people in front of the camera, but if it is not in front of the face is not detected, another method is needed.
112 단계에서는 얼굴 검출이 되지 않은 사람 후보는 다시 머리-어깨 형태 정합을 사람 후보의 포즈 각도에 따라 사전에 설정된 형태 정합을 이용하여 사람을 검증한다. 머리-어깨 형태 정합을 사용한 사람 검증은 머리-어깨 실루엣 추출, 머리-어깨 형태 추출, 머리-어깨 형태 정합을 위해 다음 과정으로 수행한다.In step 112, the person candidate having no face detection verifies the person using head-shoulder shape matching based on a preset shape matching according to the pose angle of the person candidate. Person verification using head-shoulder shape matching is performed by the following process for head-shoulder silhouette extraction, head-shoulder shape extraction, and head-shoulder shape matching.
1) 움직임과 시각차 정보를 사용하여 머리-어깨 실루엣을 추출한다. 실루엣은 입력 이미지에서 시간적 차분을 두 번 수행하여 결과물을 얻어내는 이중 시간적 차분(double temporal differencing)의 결과와 시각차 맵에서의 사람 후보 검출의 결과로부터 추출하며, 실루엣의 구멍을 점으로 채운다. 1) Head-shoulder silhouette is extracted using motion and visual difference information. The silhouette is extracted from the result of the double temporal differencing which performs the temporal difference twice in the input image and the result of the detection of the human candidate in the visual difference map, and fills the holes of the silhouette with dots.
2) 이후 머리-어깨 형태를 추출하는 단계로서, 형태는 추출한 머리-어깨 실루엣의 테두리에서 점을 샘플링하여 추출된다. 형태 정합을 위해 사용되는 특정 위치의 점의 수는 항상 고정되어 있어야 하며 방향 역시 같아야 하므로 샘플링은 항상 특정 방향 예컨대, 시계방향으로 수행한다. 2) After extracting the head-shoulder shape, the shape is extracted by sampling a point at the edge of the extracted head-shoulder silhouette. Since the number of points at a particular location used for shape matching must always be fixed and the direction must be the same, sampling is always performed in a particular direction, eg clockwise.
3) 추출한 머리-어깨 형태는 미리 등록한 머리-어깨 형태와 정합한다. 추출된 머리-어깨 형태는 아직 정렬되지 않았으므로, 형태 정합에 바로 적용할 수 없 다. 형태 정합의 전처리로서, 정렬 과정은 유사성 변환 요소(similarity transformation factors)를 제거하기 위해 수행된다. 정렬된 입력 형태가 미리 정의된 머리-어깨 형태와 유사하느냐에 따라 사람인지를 판단하게 된다. 이 판단은 추출된 머리-어깨 형태의 형태 인자 벡터(shape parameter vector)인 와 등록된 머리-어깨 형태의 형태 인자 벡터 간의 마할라노비스 거리(Mahalanobis distance)가 작을 경우에 유사한 것으로 판단한다. 여기서 회전각 는 사람 포즈 각도 예측에서 얻어진 사람 포즈 각도이며, 만약 거리가 임계치 보다 작으면 그 형태는 사람이라고 판단하여 검출 결과를 출력한다(112 내지 118 단계).3) The extracted head-shoulder shape matches the pre-registered head-shoulder shape. The extracted head-shoulder shape is not yet aligned, so it cannot be directly applied to shape matching. As a preprocessing of shape matching, the alignment process is performed to remove similarity transformation factors. It is determined whether the sorted input form is similar to the predefined head-shoulder shape. This judgment is the shape parameter vector of the extracted head-shoulder shape. And registered head-shoulder form factor vector It is judged to be similar when the Mahalanobis distance of the liver is small. Rotation angle Is the person pose angle obtained from the person pose angle prediction, and if the distance is the threshold If smaller, the form is determined to be a person and outputs a detection result (steps 112 to 118).
도 5a 내지 도 5e는 상술된 본 발명에 검출 방법에 의해 각각 0도, 45도, 90도, 135도, 180도 방향에서 한 사람을 검출한 결과를 나타낸 도면이며, 도 6a 내지 도 6b는 0도, 45도, 135도 방향에서 두사람을 검출한 결과를 나타낸 도면이다. 5A to 5E are diagrams showing the results of detecting one person in the 0 degree, 45 degree, 90 degree, 135 degree, and 180 degree directions, respectively, by the detection method of the present invention described above, and FIGS. 6A to 6B are 0 Fig. 45 shows the results of detecting two people in the 45 degree and 135 degree directions.
이상 본 발명의 바람직한 실시예에 대해 상세히 기술하였지만, 본 발명이 속하는 기술분야에 있어서 통상의 지식을 가진 사람이라면, 첨부된 청구 범위에 정의된 본 발명의 정신 및 범위를 벗어나지 않으면서 본 발명을 여러 가지로 변형 또는 변경하여 실시할 수 있음을 알 수 있을 것이다. 따라서 본 발명의 앞으로의 실시예들의 변경은 본 발명의 기술을 벗어날 수 없을 것이다.Although a preferred embodiment of the present invention has been described in detail above, those skilled in the art to which the present invention pertains may make various changes without departing from the spirit and scope of the invention as defined in the appended claims. It will be appreciated that modifications or variations may be made. Therefore, changes in the future embodiments of the present invention will not be able to escape the technology of the present invention.
도 1은 본 발명에 의한 스테레오 영상 정보를 이용한 사람 검출 방법을 설명하기 위한 흐름도이다. 1 is a flowchart illustrating a person detection method using stereo image information according to the present invention.
도 2a는 스테레오 카메라를 정면으로 마주할 때의 사람의 영상이다.2A is an image of a person when facing the stereo camera in front.
도 2b는 도 2a의 각각의 스테레오 영상에 대한 시각차 맵을 산출한 결과로서의 시각차 영상이다.FIG. 2B is a time difference image as a result of calculating the time difference map for each stereo image of FIG. 2A.
도 2c는 도 2b의 시각차 영상으로 구해진 공간-시각차 히스토그램이다.FIG. 2C is a spatial-time difference histogram obtained from the time difference image of FIG. 2B.
도 2d는 도 2c의 공간-시각차 히스토그램으로부터 변환시킨 공간-깊이 히스토그램이다.FIG. 2D is a space-depth histogram converted from the space-time difference histogram of FIG. 2C.
도 3a 내지 도 3d는 본 발명에 의한 각각 0도, 45도, 90도, 135도, 180도로 회전된 방향성 필터를 나타낸다. 3A to 3D show the directional filters rotated 0 degrees, 45 degrees, 90 degrees, 135 degrees and 180 degrees, respectively, according to the present invention.
도 4는 도 1에 도시된 사람 후보 추출 과정을 설명하기 위한 상세 흐름도이다.FIG. 4 is a detailed flowchart for explaining a process of extracting a human candidate shown in FIG. 1.
도 5a 내지 도 5e는 각각 0도, 45도, 90도, 135도, 180도 방향에서 한 사람을 검출한 결과를 나타낸 도면이다.5A to 5E are diagrams showing the results of detecting one person in the directions of 0 degrees, 45 degrees, 90 degrees, 135 degrees, and 180 degrees, respectively.
도 6a 내지 도 6b는 0도, 45도, 135도 방향에서 두사람을 검출한 결과를 나타낸 도면이다.6A to 6B are diagrams showing the results of detecting two people in the directions of 0 degrees, 45 degrees, and 135 degrees.
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070115695A KR100922429B1 (en) | 2007-11-13 | 2007-11-13 | Pose robust human detection and tracking method using the stereo image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070115695A KR100922429B1 (en) | 2007-11-13 | 2007-11-13 | Pose robust human detection and tracking method using the stereo image |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090049438A true KR20090049438A (en) | 2009-05-18 |
KR100922429B1 KR100922429B1 (en) | 2009-10-16 |
Family
ID=40858193
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070115695A KR100922429B1 (en) | 2007-11-13 | 2007-11-13 | Pose robust human detection and tracking method using the stereo image |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100922429B1 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8355568B2 (en) | 2009-11-10 | 2013-01-15 | Samsung Electronics Co., Ltd. | Image processing apparatus, method and computer-readable medium |
CN103186776A (en) * | 2013-04-03 | 2013-07-03 | 西安电子科技大学 | Human detection method based on multiple features and depth information |
US8885920B2 (en) | 2009-09-22 | 2014-11-11 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
KR101645451B1 (en) * | 2015-04-14 | 2016-08-12 | 공간정보기술 주식회사 | Spatial analysis system using stereo camera |
US9443137B2 (en) | 2012-05-08 | 2016-09-13 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting body parts |
WO2018101603A1 (en) * | 2016-12-02 | 2018-06-07 | (주)비전에스티 | Road object recognition method and device using stereo camera |
CN111539973A (en) * | 2020-04-28 | 2020-08-14 | 北京百度网讯科技有限公司 | Method and device for detecting pose of vehicle |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9406135B2 (en) | 2012-10-29 | 2016-08-02 | Samsung Electronics Co., Ltd. | Device and method for estimating head pose |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7227526B2 (en) | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
US7274800B2 (en) | 2001-07-18 | 2007-09-25 | Intel Corporation | Dynamic gesture recognition from stereo sequences |
KR100544677B1 (en) * | 2003-12-26 | 2006-01-23 | 한국전자통신연구원 | Apparatus and method for the 3D object tracking using multi-view and depth cameras |
KR100748719B1 (en) * | 2005-07-14 | 2007-08-13 | 연세대학교 산학협력단 | Apparatus and method for 3-dimensional modeling using multiple stereo cameras |
-
2007
- 2007-11-13 KR KR1020070115695A patent/KR100922429B1/en not_active IP Right Cessation
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8885920B2 (en) | 2009-09-22 | 2014-11-11 | Samsung Electronics Co., Ltd. | Image processing apparatus and method |
US8355568B2 (en) | 2009-11-10 | 2013-01-15 | Samsung Electronics Co., Ltd. | Image processing apparatus, method and computer-readable medium |
US9443137B2 (en) | 2012-05-08 | 2016-09-13 | Samsung Electronics Co., Ltd. | Apparatus and method for detecting body parts |
CN103186776A (en) * | 2013-04-03 | 2013-07-03 | 西安电子科技大学 | Human detection method based on multiple features and depth information |
CN103186776B (en) * | 2013-04-03 | 2016-04-13 | 西安电子科技大学 | Based on the human body detecting method of multiple features and depth information |
KR101645451B1 (en) * | 2015-04-14 | 2016-08-12 | 공간정보기술 주식회사 | Spatial analysis system using stereo camera |
WO2018101603A1 (en) * | 2016-12-02 | 2018-06-07 | (주)비전에스티 | Road object recognition method and device using stereo camera |
CN111539973A (en) * | 2020-04-28 | 2020-08-14 | 北京百度网讯科技有限公司 | Method and device for detecting pose of vehicle |
Also Published As
Publication number | Publication date |
---|---|
KR100922429B1 (en) | 2009-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100922429B1 (en) | Pose robust human detection and tracking method using the stereo image | |
US11360571B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
Islam et al. | Efficient detection and recognition of 3D ears | |
Wang et al. | Face liveness detection using 3D structure recovered from a single camera | |
US6819782B1 (en) | Device and method for recognizing hand shape and position, and recording medium having program for carrying out the method recorded thereon | |
Mogelmose et al. | Tri-modal person re-identification with rgb, depth and thermal features | |
US20150310257A1 (en) | Object identification using 3-d curve matching | |
JP6221390B2 (en) | Image processing apparatus, program, and image processing method | |
US20110243434A1 (en) | Feature value extracting device, object identification device, and feature value extracting method | |
CN101609507A (en) | Gait recognition method | |
KR20150065445A (en) | Apparatus and method for detecting frontal face image using facial pose | |
Beier et al. | Marker-less vision based tracking for mobile augmented reality | |
US20180144179A1 (en) | Image processing device, image processing method, and image processing program | |
JP4043973B2 (en) | Face detection system and method | |
KR20140074905A (en) | Identification by iris recognition | |
KR100714112B1 (en) | Face recognition and confirmation method and apparatus | |
Aissaoui et al. | Rapid and accurate face depth estimation in passive stereo systems | |
JP2017097549A (en) | Image processing apparatus, method, and program | |
KR101998361B1 (en) | Method of facial recognition in camera image | |
KR20100097861A (en) | Improved performance of face recognition system using auto removal background | |
Jaijing et al. | Object detection and modeling algorithm for automatic visual people counting system | |
JP4812743B2 (en) | Face recognition device, face recognition method, face recognition program, and recording medium recording the program | |
Kryszczuk et al. | Singular point detection in fingerprints using quadrant change information | |
Khan et al. | An efficient approach to extract singular points for fingerprint recognition | |
Khadhraoui et al. | A novel approach to nose-tip and eye-corners detection using HK-classification in case of 3D face analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
AMND | Amendment | ||
E601 | Decision to refuse application | ||
AMND | Amendment | ||
J201 | Request for trial against refusal decision | ||
B701 | Decision to grant | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20121011 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20130930 Year of fee payment: 5 |
|
LAPS | Lapse due to unpaid annual fee |