KR100865531B1 - Method for separating individual pedestrians by clustering foreground pixels - Google Patents

Method for separating individual pedestrians by clustering foreground pixels Download PDF

Info

Publication number
KR100865531B1
KR100865531B1 KR1020070054261A KR20070054261A KR100865531B1 KR 100865531 B1 KR100865531 B1 KR 100865531B1 KR 1020070054261 A KR1020070054261 A KR 1020070054261A KR 20070054261 A KR20070054261 A KR 20070054261A KR 100865531 B1 KR100865531 B1 KR 100865531B1
Authority
KR
South Korea
Prior art keywords
clusters
clustering
foreground
cluster
individual
Prior art date
Application number
KR1020070054261A
Other languages
Korean (ko)
Inventor
한준희
남운현
Original Assignee
(주)유디피
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)유디피 filed Critical (주)유디피
Priority to KR1020070054261A priority Critical patent/KR100865531B1/en
Application granted granted Critical
Publication of KR100865531B1 publication Critical patent/KR100865531B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition

Abstract

A method for separating individual pedestrians by clustering foreground pixels is provided to separate the discrete pedestrian accurately even though pedestrians can be overlapped in the foreground image by grouping each pixel about the foreground image to a plurality of groups and effectively merging and removing groups. A method for separating individual pedestrians by clustering foreground pixels relates to the method for separating the discrete pedestrian from the source image. More particularly, it is about the discrete pedestrian separation method by the grouping of the foreground pixel separating discrete pedestrians from foreground pixels separated from the source image for the behavioral analysis of pedestrian. Each pixel of the source image is classified into the background pixel and foreground pixel. And the foreground image comprising the silhouette image of the pedestrians with a plurality of foreground pixels is produced(S101). Each pixel comprising the foreground image is grouped to one or more groups of each pedestrian unit. A plurality of groups overlappingly mapped on one discrete pedestrian is merged. And after error groups which are not included in the discrete pedestrian are removed, the discrete pedestrian is distinguished(S103).

Description

전경 화소의 군집화에 의한 개별 보행인 분리 방법{Method for separating individual pedestrians by clustering foreground pixels}Method for separating individual pedestrians by clustering foreground pixels}

도 1은 본 발명에 따른 전경 화소의 군집화에 의한 개별 보행인 분리 절차를 나타낸 흐름도.1 is a flowchart illustrating a separation procedure, which is individual walking by clustering foreground pixels according to the present invention.

도 2는 본 발명의 실시 예에 따른 전경 화소의 군집화에 의한 개별 보행인 분리의 세부 절차를 나타낸 흐름도.2 is a flowchart illustrating a detailed procedure of separation of individual walkers by clustering foreground pixels according to an exemplary embodiment of the present invention.

도 3은 본 발명의 실시 예에 따른 원본 영상을 나타낸 도면.3 is a view showing an original image according to an embodiment of the present invention.

도 4는 본 발명의 실시 예에 따른 전경 영상을 나타낸 도면.4 is a view showing a foreground image according to an embodiment of the present invention.

도 5는 본 발명의 실시 예에 따른 보행인 실루엣 모델을 나타낸 도면.5 is a diagram showing a pedestrian silhouette model according to an embodiment of the present invention.

도 6은 본 발명의 실시 예에 따른 전경 영상을 과군집화한 결과를 나타낸 도면.6 is a diagram illustrating a result of overgrouping a foreground image according to an exemplary embodiment of the present invention.

도 7은 본 발명의 실시 예에 따른 과군집화된 영상을 선행처리한 결과를 나타낸 도면.7 is a view showing a result of preprocessing an over-grouped image according to an embodiment of the present invention.

도 8은 본 발명의 실시 예에 따른 각 군집의 점수 및 결합력을 그래프로 나타낸 도면.8 is a graph showing the score and the coupling force of each cluster according to an embodiment of the present invention.

도 9는 본 발명의 실시 예에 따라 각 군집들을 병합 및 제거하여 개별 보행인을 분리한 최종 결과를 나타낸 도면.9 is a view showing the final result of separating individual pedestrians by merging and removing respective clusters according to an embodiment of the present invention.

도 10 내지 도 14는 본 발명의 실시 예에 따른 각 원본 영상에 대한 군집화 결과 및 최종 결과를 나타낸 도면.10 to 14 illustrate clustering results and final results for each original image according to an embodiment of the present invention.

본 발명은 원본 영상으로부터 개별 보행인을 분리하는 방법에 관한 것으로, 보다 상세하게는 보행인의 행동 분석을 위해 원본 영상으로부터 분리된 전경 화소들로부터 개별 보행인들을 분리하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법에 관한 것이다.The present invention relates to a method for separating individual pedestrians from an original image, and more particularly, to a method for separating individual pedestrians by clustering foreground pixels that separate individual pedestrians from foreground pixels separated from the original image for pedestrian behavior analysis. It is about.

최근 테러가 급증함에 따라 세계 각국에서는 안전에 대한 필요성을 실감하며, 공공관련 부분에 대한 보안을 강화하고 있는 추세이다. 이러한 과정에서 영상 보안 기술의 중요성이 날로 높아지고 있다. 1980년대부터 구축한 영상 보안 시스템은 오늘날 인식과 비용, 성능 등 다양한 여건의 개선으로 인해 최첨단의 기술이 축약된 디지털 영상 감시 시스템으로 조금씩 진화하고 있다.As terrorism soared recently, countries around the world are realizing the need for safety and increasing security in the public sector. In this process, the importance of video security technology is increasing day by day. Video security systems built since the 1980s are evolving into today's digital video surveillance systems, which have been reduced to the cutting edge of technology due to improvements in recognition, cost and performance.

종래에 구축된 영상 보안 시스템은 사용의 용이함과 저렴한 가격대를 유지한다는 측면에서 장점을 갖췄다. 그러나 카메라가 찍은 영상을 VCR(Video Cassette Recorder) 또는 DVR(Digital Video Recoder)에 녹화한 후 사후 검토한다는 점, 그리고 관리자가 모니터에서 직접 지켜봐야 하는 불편함이 여전히 남아있다. 최근에는 DVR과 IP(Internet Protocol) 카메라 등에 의해서도 무인 보안 감시가 가능해지 기도 했다. 그러나 움직임 감지의 경우에도 완벽한 무인 자동화 시스템을 구축하기에는 그 성능이 기대에 미치지 못하는 실정이다.The conventional video security system has advantages in terms of ease of use and low price. However, there is still some inconvenience that the camera takes after reviewing the video captured by the video cassette recorder (VCR) or digital video recorder (DVR), and the administrator must watch directly on the monitor. Recently, unmanned security surveillance has also been enabled by DVRs and IP (Internet Protocol) cameras. However, even in the case of motion detection, the performance of the complete unmanned automation system does not meet expectations.

이러한 평가를 반전시킬 수 있는 장치로 지능형 영상 보안 시스템이 새로운 화두로 급부상하고 있다. 지능형 영상 보안 시스템은 선진국을 중심으로 개발, 출시가 활발히 진행되고 있으며 시장에서의 높은 호응을 바탕으로 그 영역을 점차 확대해 나가고 있는 중이다. 특히 움직이는 물체를 카메라가 스스로 감지해 포착하는 움직임 감지(Motion Detection) 기능이나, 사람의 감시나 감독 없이 자동으로 장면을 분석하고, 정보를 발췌해내는 비디오 콘텐츠 분석(Video Content Analysis) 기능은 시장에서 호평을 받고 있다.As a device that can reverse the evaluation, intelligent video security system is emerging as a new topic. Intelligent video security systems are actively being developed and released mainly in developed countries, and are expanding their scope based on high response in the market. In particular, the Motion Detection function, which detects and captures moving objects by itself, or the Video Content Analysis function, which automatically analyzes scenes and extracts information without human surveillance or supervision, It is well received.

이러한 지능형 영상 감지는 비디오 분석, 내용 분석 및 내용 분석에 따른 적절한 대응 등의 세 가지 단계로 이루어진다. 이를 위해서는 실시간으로 들어오는 입력 영상으로부터 프레임간의 차영상, 배경과의 차영상 등을 이용해 인물을 추출하는 기술과 추적 기술, 검출된 사람, 자동차, 동물 등으로 구별하는 객체 인식 기술과 검출된 객체의 궤적 정보를 통계 정보와 분석해 비정상 행동을 검출하는 기술 등의 요소 기술들이 필요하다.Intelligent image detection consists of three phases: video analysis, content analysis, and appropriate response to content analysis. For this purpose, the technology of extracting a person using a difference image between frames and a difference image with a background from an input image input in real time, an object recognition technique distinguishing between a detected person, a car, an animal, etc., and a trace of a detected object Elemental skills, such as techniques for analyzing information and statistical information to detect abnormal behavior, are needed.

이와 같이 대부분의 지능형 영상 감시 시스템에서는 보행인의 행동 분석이 요구된다. 보행인의 행동을 해석하기 위해서는 그들의 움직임을 추적하는 것이 중요하다. 이러한 추적은 물체의 이전 위치를 기반으로 현재 위치를 추정하는 것이기 때문에, 물체 추적을 위해서는 물체의 초기 위치를 알아야만 한다. 물체의 초기 위치를 알기 위한 간단한 방법으로 배경 감산법(Background subtraction)과 연결된 구성 요소 분류법(Connected component labeling)을 결합하는 방법이 있다.As such, most intelligent video surveillance systems require pedestrian behavior analysis. In order to interpret pedestrian behavior, it is important to track their movements. Since this tracking estimates the current position based on the previous position of the object, tracking the object requires knowing the initial position of the object. A simple way to know the initial position of an object is to combine background subtraction with connected component labeling.

즉, 먼저 상기 배경 감산법을 이용하여 보행인을 구성하는 전경 화소(foreground pixel)들을 분할하고, 상기 분할된 전경 화소들을 연결된 구성 요소 분류법을 이용하여 영역 단위로 집단화한다. 하지만, 전경 영상에서 보행인들이 겹쳐 나타날 경우, 이러한 방법은 개별 보행인을 식별할 수가 없게 된다. 따라서, 보행인들을 개별적으로 추적할 수 없고, 또한 개별 보행인의 행동을 분석할 수도 없게 되는 문제점이 있다.That is, first, the foreground pixels constituting the pedestrian are divided using the background subtraction method, and the divided foreground pixels are grouped by area using a connected component classification method. However, when pedestrians overlap in the foreground image, this method cannot identify individual pedestrians. Therefore, there is a problem in that it is not possible to track pedestrians individually and also analyze the behavior of individual pedestrians.

한편, 최근 개별 보행인을 감지하기 위한 여러 가지 접근법들이 제안되고 있다. 예컨대, 전경 영상의 수평 방향 투사 히스토그램(Histogram)을 이용한 보행인 감지법이 제안되었다. 상기 방법은 수평 방향 투사 히스토그램에서 보행인의 머리는 봉우리의 형태로 나타나게 되므로, 이와 같이 찾아낸 보행인들의 머리 위치를 기반으로 각각의 보행인들의 위치를 감지하게 된다. 그러나 상기 방법은 영상에서 여러 사람이 수평적으로 분포한다고 가정하기 때문에, 그러한 가정을 만족하지 않을 경우에는 동작하지 않게 되는 문제점이 있다.Meanwhile, various approaches for detecting individual pedestrians have recently been proposed. For example, a gait detection method using a horizontal projection histogram of a foreground image has been proposed. In this method, since the head of the pedestrian appears in the form of a peak in the horizontal projection histogram, the position of each pedestrian is detected based on the head positions of the pedestrians found in this way. However, since the method assumes that several people are horizontally distributed in the image, there is a problem that it does not operate when such an assumption is not satisfied.

따라서, 전경 영상으로부터 개별 보행인을 효과적이고 정확히 분리해내는 방법이 요구되고 있다.Therefore, there is a need for a method for effectively and accurately separating individual pedestrians from the foreground image.

본 발명의 목적은 원본 영상으로부터 전경 화소들을 분리하고, 상기 분리된 전경 화소들을 군집화함으로써 개별 보행인을 분리해내는 전경 화소의 군집화에 의 한 개별 보행인 분리 방법을 제공함에 있다.SUMMARY OF THE INVENTION An object of the present invention is to provide a method for separating individual walks by clustering foreground pixels by separating foreground pixels from an original image and grouping the separated foreground pixels.

또한, 본 발명의 목적은 분리된 전경 화소들을 과군집화하고, 과군집된 각 군집들을 병합 및 제거함으로써 개별 보행인을 분리해내는 전경 화소의 군집화에 의한 개별 보행인 분리 방법을 제공함에 있다.It is also an object of the present invention to provide a method for separating individual walks by clustering foreground pixels by overgrouping the separated foreground pixels and separating and separating individual pedestrians by merging and removing respective overgrouped clusters.

또한, 본 발명의 목적은 분리된 전경 화소들을 과군집화하고, 과군집된 각 군집들을 군집 간의 결합력 및 정규화된 사후 점수에 의해 병합 및 제거함으로써 개별 보행인을 분리해내는 전경 화소의 군집화에 의한 개별 보행인 분리 방법을 제공함에 있다.It is also an object of the present invention to over-group the separated foreground pixels and to separate individual pedestrians by merging and removing the individual pedestrians by merging and removing each of the over-populated clusters by the cohesion between the clusters and the normalized post score. To provide a separation method.

상기한 목적을 달성하기 위한 본 발명의 방법은, 복수의 화소들로 구성되는 원본 영상으로부터 하나 이상의 개별 보행인을 분리하는 방법에 있어서, 상기 원본 영상의 상기 각 화소들을 배경 화소와 전경 화소로 분류하여 상기 복수의 전경 화소들로 보행인들의 실루엣 영상을 구성하는 전경 영상을 생성하는 단계; 상기 전경 영상을 구성하는 상기 각 화소들을 하나 이상의 각 보행인 단위의 군집들로 군집화하는 단계; 및 상기 군집들 중 하나의 상기 개별 보행인에 중복하여 매핑된 복수의 군집들은 병합하고, 개별 보행인에 포함되지 않은 오류 군집들은 제거하여, 개별 보행인을 식별하는 단계를 포함하는 것을 특징으로 한다.The method of the present invention for achieving the above object, in the method for separating one or more individual pedestrians from the original image consisting of a plurality of pixels, each of the pixels of the original image is classified into a background pixel and a foreground pixel Generating a foreground image constituting a silhouette image of pedestrians using the plurality of foreground pixels; Clustering the pixels constituting the foreground image into clusters of at least one pedestrian unit; And merging a plurality of clusters mapped to the individual pedestrians of one of the clusters and removing error clusters not included in the individual pedestrians to identify individual pedestrians.

이때, 상기 군집화는 실제 개수보다 많은 수의 군집들로 과군집화하는 것을 특징으로 한다.At this time, the clustering is characterized in that over- clustering into a larger number of clusters than the actual number.

상기 원본 영상의 각 화소들을 배경 화소와 전경 화소로 분류하는 방법은, 상기 각 화소의 색상 분포를 혼합 가우시안 모델로 모델링하고, 상기 혼합 가우시안 모델에 기반하여 배경 화소 및 전경 화소를 분류하는 것을 특징으로 한다.The method of classifying each pixel of the original image into a background pixel and a foreground pixel may include classifying a color distribution of each pixel as a mixed Gaussian model and classifying the background pixel and the foreground pixel based on the mixed Gaussian model. do.

상기 분류된 화소들의 색상 값은, 상기 혼합 가우시안 모델을 갱신하는 데 재사용되는 것을 특징으로 하며, 상기 화소 분류 및 모델 갱신은, 상기 원본 영상의 매 프레임마다 반복되는 것을 특징으로 한다.The color values of the classified pixels may be reused to update the mixed Gaussian model, and the pixel classification and model update may be repeated every frame of the original image.

한편, 상기 군집화하는 단계는, 각 군집에 대한 보행인 실루엣 모델을 생성하는 단계; 상기 군집의 개수 및 각 군집에 대한 상기 모델의 매개 변수를 초기화하는 단계; 및 상기 초기화한 군집의 개수 및 각 군집의 모델 매개 변수로부터 상기 각 모델에서 보행인의 중심 위치를 나타내는 평균 벡터를 추정하는 단계를 포함하는 것을 특징으로 한다.On the other hand, the clustering step, generating a silhouette model that is walking for each cluster; Initializing the number of clusters and parameters of the model for each cluster; And estimating an average vector representing the center position of the pedestrian in each model from the number of initialized clusters and model parameters of each cluster.

상기 보행인 실루엣 모델은, 공분산 행렬이 각 위치에서 기하학적으로 고정된 2차원 가우시안 분포로 정의되는 것을 특징으로 하며, 상기 모델의 매개 변수는, 평균 벡터, 공분산 행렬 및 사전 확률로 구성되는 것을 특징으로 한다.The pedestrian silhouette model is characterized in that the covariance matrix is defined as a two-dimensional Gaussian distribution geometrically fixed at each position, and the parameters of the model are composed of an average vector, a covariance matrix, and a prior probability. .

한편, 상기 군집의 개수 및 각 군집에 대한 상기 모델의 매개 변수를 초기화하는 단계는, 물체가 움직이는 편평한 바닥으로부터 평균 신장의 1/2배만큼 떨어진 평면을 격자로 분할하는 단계; 상기 격자의 각 격자점에 대하여 보행인의 중심 위치를 가설로 설정하는 단계; 및 상기 가설로 설정된 보행인의 중심 위치를 검증하는 단계를 포함하는 것을 특징으로 한다.On the other hand, initializing the number of clusters and the parameters of the model for each cluster may include: dividing the plane into a grid separated by 1/2 times the average elongation from the flat floor on which the object is moving; Hypothesizing a central location of a pedestrian for each grid point of the grid; And verifying a center position of the pedestrian set as the hypothesis.

이때, 상기 검증의 방법은, 각 격자점에서의 군집 모델에 대한 정규화된 사 후 점수가 기설정된 제1 경계값보다 큰 격자점에 대해서 초기화하는 것을 특징으로 한다.In this case, the verification method is characterized in that the normalized post-score for the cluster model at each grid point is initialized for a grid point larger than the first predetermined boundary value.

상기 평균 벡터의 추정은, 기대값-최대화 알고리즘에 의해 수렴되는 값으로 추정하는 것을 특징으로 한다.The estimation of the average vector is characterized by estimating a value converged by an expected value-maximization algorithm.

또한, 상기 군집화하는 단계 이후에, 상기 각 군집의 중심 위치가 1화소 단위보다 가까운 군집들을 병합하는 단계를 더 포함하는 것을 특징으로 하며, 상기 각 군집들에 대해 정규화된 사후 점수를 산출하고, 상기 산출된 정규화된 사후 점수가 기설정된 제2 경계값보다 작은 군집들을 제거하는 단계를 더 포함하는 것을 특징으로 한다.In addition, after the clustering, the method may further include merging clusters in which the center position of each cluster is closer than one pixel unit, calculating a normalized post score for each of the clusters, and And removing clusters whose calculated normalized post score is less than a second predetermined threshold value.

한편, 복수의 군집들을 병합하는 방법은, 상기 복수의 군집들 중에서 선택된 두 군집의 결합력이 제3 경계값보다 클 경우 상기 두 군집을 병합하는 것을 특징으로 하며, 상기 두 군집의 결합력은, 상기 두 군집 사이의 상관 계수를 산출하여 측정하는 것을 특징으로 한다.Meanwhile, the method of merging a plurality of clusters may include merging the two clusters when a bonding force of two selected clusters from the plurality of clusters is greater than a third boundary value. It is characterized by calculating and measuring the correlation coefficient between the clusters.

상기 개별 보행인을 식별하는 단계는, 상기 두 군집에 대한 병합 과정을 상기 군집의 제거 과정보다 먼저 수행하는 것을 특징으로 하며, 상기 해당 군집의 정규화된 사후 점수가 제4 경계값보다 클 경우, 상기 해당 군집을 하나의 개별 보행인으로 판단하는 것을 특징으로 한다.The step of identifying the individual pedestrian, characterized in that performing the merging process for the two clusters before the removal of the cluster, if the normalized post score of the cluster is greater than the fourth threshold value, the corresponding Characterize the cluster as one individual pedestrian.

또한, 상기 개별 보행인을 식별하는 단계는, 상기 군집들 중에서 선택된 두 군집에 대해 각각의 정규화된 사후 점수가 제4 경계값보다 작으며, 상기 두 군집 간의 상관 계수가 제3 경계값보다 클 경우, 상기 두 군집을 병합하는 것을 특징으 로 한다.In addition, the step of identifying the individual pedestrian, when the normalized post-score for each of the two selected from the clusters is less than the fourth threshold value, the correlation coefficient between the two clusters is greater than the third threshold value, It is characterized by merging the two clusters.

이때, 상기 두 군집 간의 병합은, 깊이 우선 탐색 방법을 이용하여 병합할 군집 그룹을 결정하는 것을 특징으로 한다.In this case, the merging between the two clusters is characterized by determining a cluster group to be merged using a depth-first search method.

한편, 상기 개별 보행인을 식별하는 단계는, 상기 해당 군집의 정규화된 사후 점수가 제4 경계값보다 작으며, 상기 군집들 중 다른 모든 군집과의 상관 계수가 제3 경계값보다 작을 경우, 상기 해당 군집을 제거하는 것을 특징으로 한다.On the other hand, the step of identifying the individual pedestrian, if the normalized post-score of the cluster is less than a fourth threshold value, the correlation coefficient with all other clusters of the cluster is smaller than the third threshold value, Characterized by removing the cluster.

이때, 상기 군집의 제거는, 각 군집들의 정규화된 사후 점수가 작은 군집부터 오름차순으로 수행하는 것을 특징으로 한다.At this time, the removal of the cluster, characterized in that the normalized post-score of each cluster is performed in ascending order from the smallest cluster.

한편, 상기 전경 화소의 군집화에 의한 개별 보행인 분리 방법에 대한 정보는 서버 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있다. 이러한 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 기록매체를 포함한다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD(Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다. 또한, 이러한 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.On the other hand, the information on the separation method, which is an individual walk by clustering the foreground pixels, may be stored in a recording medium readable by a server computer. Such recording media includes all kinds of recording media on which programs and data are stored so that they can be read by a computer system. Examples include Read Only Memory (ROM), Random Access Memory (RAM), Compact Disk (CD), Digital Video Disk (DVD) -ROM, Magnetic Tape, Floppy Disk, Optical Data Storage, etc. It also includes implementations in the form of (eg, transmission over the Internet). In addition, these recording media can be distributed over network coupled computer systems so that the computer readable code is stored and executed in a distributed fashion.

물체 감지(Object detection)는 지능형 영상 감시 시스템(Intelligent visual surveillance system)에 있어서 물체들을 추적하기 위해 필수적인 요소이다. 따라서, 본 발명은 원본 영상으로부터 배경 화소(background pixel)들과 전경 화소(foreground pixel)들을 분리하고, 상기 분리된 전경 화소들을 군집화(clustering)함으로써 개별 보행인(individual pedestrian)을 분리해내는 방법을 제안한다.Object detection is an essential element for tracking objects in an intelligent visual surveillance system. Accordingly, the present invention proposes a method of separating individual pedestrians by separating background pixels and foreground pixels from an original image and clustering the separated foreground pixels. do.

즉, 본 발명에서는 여러 보행인들의 실루엣 영상(Silhouette image)이 주어져 있을 때, 군집화를 통해 개별 보행인들의 위치를 찾아내게 된다. 이때, 여러 개의 보행인 모델들은 실루엣을 구성하는 화소(pixel)들을 생성한다고 가정하고, 각 화소들의 위치는 군집화를 위한 표본으로 사용된다. 또한, 중심 좌표를 포함하는 모델의 매개 변수들은 군집화 방법을 이용하여 추정된다.That is, in the present invention, when a silhouette image of various pedestrians is given, the locations of individual pedestrians are found through clustering. In this case, it is assumed that a plurality of walking models generate pixels constituting a silhouette, and the position of each pixel is used as a sample for clustering. In addition, the parameters of the model including the center coordinates are estimated using the clustering method.

도 1은 본 발명에 따른 전경 화소의 군집화에 의한 개별 보행인 분리 절차를 나타낸 흐름도이다. 상기 도 1을 참조하면, 먼저 원본 영상으로부터 전경 화소들을 분리하여 전경 영상을 생성(S101)하게 되며, 상기 생성된 전경 영상의 전경 화소들을 과군집화(over-clustering)하여 보행인 표본들을 군집화(S102)하게 된다. 그런 다음, 상기 군집화된 각 군집들을 병합 및 제거하여 개별 보행인을 분리(S103)함으로써 최종적으로 개별 보행인을 식별하게 된다.1 is a flowchart illustrating a separation procedure, which is individual walking by clustering foreground pixels according to the present invention. Referring to FIG. 1, a foreground image is first generated by separating foreground pixels from an original image (S101), and the walking samples are clustered by over-clustering the foreground pixels of the generated foreground image (S102). Done. Then, the individual pedestrians are finally identified by merging and removing the clustered clusters to separate individual pedestrians (S103).

한편, 본 발명에서는 전경 화소들을 군집화하기 위해 기대값-최대화 알고리즘(Expectation-Maximization algorithm; 이하, 'EM 알고리즘'이라 한다.)을 이용한다. 또한, 원본 영상으로부터 전경 화소들을 분리하기 위해 배경 감산법(Background subtraction)을 이용할 수 있으며, 이러한 배경 감산법으로 계산되는 전경 화소들은 여러 개의 보행인 모델에 의해 생성된다고 가정한다.Meanwhile, in the present invention, an expectation-maximization algorithm (hereinafter, referred to as an 'EM algorithm') is used to cluster the foreground pixels. In addition, it is assumed that background subtraction may be used to separate foreground pixels from the original image, and the foreground pixels calculated by the background subtraction are generated by a plurality of walking models.

이때, 영상에 존재하는 보행인의 정확한 수를 알 수 없기 때문에, 실제 개수보다 많은 수의 군집(cluster)들로 전경 화소들을 군집화(clustering)한다. 즉, 이를 과군집화(over-clustering)라 한다. 그런 다음, 정규화된 사후 점수(Normalized posterior score)와 결합력 측정(Coherence measure)에 따라 상기 군집들을 병합하거나 제거하게 된다. 실제 영상을 이용한 실험 결과들은 본 발명에 따른 방법의 정당성을 보여준다.At this time, since the exact number of pedestrians present in the image is not known, the foreground pixels are clustered into a larger number of clusters than the actual number. In other words, this is called over-clustering. Then, the clusters are merged or removed according to a normalized posterior score and a coherence measure. Experimental results using real images show the justification of the method according to the invention.

이하 본 발명의 바람직한 실시 예에 따른 상세한 설명을 첨부된 도면들을 참조하여 설명한다. 하기에는 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.DETAILED DESCRIPTION Hereinafter, a detailed description of a preferred embodiment of the present invention will be described with reference to the accompanying drawings. In the following description, detailed descriptions of well-known functions or configurations will be omitted when it is determined that the detailed descriptions of the known functions or configurations may unnecessarily obscure the subject matter of the present invention.

도 2는 본 발명의 실시 예에 따른 전경 화소의 군집화에 의한 개별 보행인 분리의 세부 절차를 나타낸 흐름도이다.2 is a flowchart illustrating a detailed procedure of separating individual walkers by clustering foreground pixels according to an exemplary embodiment of the present invention.

상기 도 2를 참조하면, 먼저 배경 영상으로부터 전경 영상을 분리해내기 위하여 배경 감산법에 의해 물체의 실루엣을 분할(S201)하게 된다. 이때, 각 보행인 군집을 형성하게 될 보행인 실루엣 모델을 생성(S202)하게 된다.Referring to FIG. 2, first, a silhouette of an object is divided by a background subtraction method in order to separate the foreground image from the background image (S201). At this time, the pedestrian silhouette model that will form the respective pedestrian clusters is generated (S202).

그런 다음, 정규화된 사후 점수(Normalized posterior score)(Sj)에 대한 경계값(θi)으로 보행인 수(c) 및 모델 매개 변수(μj)를 초기화(S203)한다. 상기 초기화된 보행인의 수 및 모델 매개 변수로 EM 알고리즘에 의해 각 군집(ωj)의 평균 벡터(μj)를 산출(S204)하게 된다. 이러한 상기 EM 알고리즘의 반복 연산에 의해 각 군집의 평균 벡터(μj)가 특정 값으로 수렴되면, 실제 개수보다 많은 수의 초기 군집들을 얻게 된다. 즉, 전체 전경 영상이 복수의 군집들로 과군집화된다.Then, the number of walking persons c and the model parameter μ j are initialized (S203) with the boundary value θ i with respect to the normalized posterior score S j . The average vector μ j of each cluster ω j is calculated (S204) by the EM algorithm using the initialized number of pedestrians and model parameters. When the mean vector μ j of each cluster converges to a specific value by the iterative operation of the EM algorithm, more initial clusters are obtained than actual numbers. That is, the entire foreground image is overgrouped into a plurality of clusters.

이때, 이후 단계(S206, S207)의 병합 및 제거를 보다 효과적으로 할 수 있도록 선행 처리를 선택적으로 수행(S205)할 수 있다. 즉, 두 군집의 중심 위치가 1화소 단위보다 가까운 군집들은 병합을 하며, 정규화된 사후 점수(Sj)가 경계값(θp)보다 작은 군집에 대해서는 제거를 하는 선행 처리를 선택적으로 수행할 수 있다.In this case, the preceding process may be selectively performed (S205) so that the merging and removing of the steps S206 and S207 can be more effectively performed. In other words, clusters closer to the center of two clusters than 1 pixel unit are merged, and a preprocessing process for removing clusters whose normalized post-score S j is smaller than the boundary value θ p can be selectively performed. have.

그런 다음, 두 군집(ωj, ωk)의 결합력(ρjk)이 경계값(θm)보다 클 경우에는 두 군집을 병합(S206)하게 된다. 상기 병합할 군집 그룹의 결정은 깊이 우선 탐색 방법을 이용할 수 있다.Then, when the coupling force ρ jk of the two clusters ω j and ω k is greater than the boundary value θ m , the two clusters are merged (S206). The determination of the group of clusters to be merged may use a depth-first search method.

마지막으로, 각 군집에 대해 정규화된 사후 점수(Sj)를 검사하여 소정의 경계값(θr)보다 작은 정규화된 사후 점수(Sj)를 가지는 군집은 제거(S207)하게 된다.Finally, to examine the post-score (S j) normalizing for each cluster a cluster having a small post-normalized score (S j) than a predetermined threshold value (θ r) is removed (S207).

이하, 도 3 내지 도 14를 참조하여 상기 도 2에서 상술한 각 단계를 보다 상세히 설명하기로 한다.Hereinafter, each step described above with reference to FIG. 2 will be described in more detail with reference to FIGS. 3 to 14.

본 발명에서는 상술한 바와 같이 군집화 방법을 이용한 개별 보행인 분리 방법을 제안한다. 이때, 보행인 모델은 2차원 가우시안(Gaussian) 분포로 나타낼 수 있다. 이때, 상기 보행인 모델을 효과적으로 적용하기 위하여 카메라는 캘리브레이션(Calibration) 되어 있고, 보행인들은 비슷한 체격을 가지며 편평한 바닥 위를 움직이는 것으로 가정한다. 이러한 기하학적 정보들은 상기 보행인 모델에 내재된 다. 군집화 이후에 각 군집들 사이에 대한 분석을 기반으로 병합할 군집과 제거할 군집이 결정된다.In the present invention, as described above, we propose a separation method for individual walk using the clustering method. In this case, the walking model may be represented by a two-dimensional Gaussian distribution. In this case, in order to effectively apply the pedestrian model, the camera is calibrated, and it is assumed that the pedestrians have a similar physique and move on a flat floor. Such geometric information is inherent in the walking model. After clustering, the clusters to merge and the clusters to remove are determined based on the analysis between each cluster.

먼저, 원본 영상으로부터 전경 분할을 수행한 후, 각 전경 화소들을 필터링하고 군집화함으로써 개별 보행인을 분리하는 방법을 설명한다.First, a method of separating individual pedestrians by performing foreground division from an original image and then filtering and clustering each foreground pixel will be described.

만약, 카메라가 고정되어 있다면, 배경 감산법을 이용하여 물체의 실루엣을 분할할 수 있다. 예컨대, 각 화소의 RGB 분포를 여러 개의 혼합 가우시안(Mixture of Gaussians; 이하, 'MoG'라 한다.)으로 모델링할 수 있다. 상기 MoG 모델들은 초기 시간 동안 학습을 통해 초기화된다. 상기 MoG 모델에 기반하여 각 화소(pixel)들은 배경(background) 또는 전경(foreground)으로 분류된다. 상기 분류된 화소들의 RGB 값은 다시 모델을 갱신하는 데 사용된다. 이때, 화소 분류와 모델 갱신은 연속된 영상에서 매 프레임(Frame)마다 반복된다. 이렇게 함으로써 도 3과 같은 원본 영상으로부터 도 4와 같은 전경 영상을 얻을 수가 있게 된다.If the camera is fixed, the silhouette of the object may be divided by using a background subtraction method. For example, the RGB distribution of each pixel may be modeled as a plurality of mixed Gaussians (hereinafter, referred to as 'MoG'). The MoG models are initialized through learning during the initial time. Each pixel is classified into a background or a foreground based on the MoG model. The RGB values of the classified pixels are then used to update the model. In this case, pixel classification and model updating are repeated every frame in the continuous image. By doing so, the foreground image of FIG. 4 can be obtained from the original image of FIG. 3.

만약, 상기 도 4와 같은 전경 영상에서 보행인 외의 물체는 존재하지 않는다고 가정하면, 모든 전경 화소들을 모아 보행인들의 실루엣 영상(silhouette image)을 만들 수 있다. 이때, 상기 실루엣을 구성하는 화소들은 각 보행인 단위로 군집화된다.If it is assumed that no object other than the pedestrian exists in the foreground image as shown in FIG. 4, all foreground pixels may be collected to form a silhouette image of the pedestrian. At this time, the pixels constituting the silhouette are grouped in units of gait.

한편, 상기 군집화 방법을 사용하기 위해, 보행인 실루엣에 대한 생성 모델이 필요하다. 이때, 모든 보행인은 동일한 키(h)와 동일한 너비(w)를 가지며, 편평한 바닥 위를 움직인다고 가정한다. 만약, 카메라 투사 행렬(projection matrix)과 바닥의 평면 방정식(plane equation)을 알고 있다면, 영상의 각 위치에서 보행인의 방위와 크기를 결정할 수 있다. 따라서, 상기 보행인 실루엣 모델을 공분산 행렬이 각 위치에서 기하학적으로 고정된 2차원 가우시안 분포로 정의할 수 있다. 이때, 우도 확률(Likelihood probability) p(x|ωj)는 하기 <수학식 1>과 같이 2차원 가우시안 확률 분포 함수로 정의될 수 있다.On the other hand, in order to use the clustering method, a generation model for a pedestrian silhouette is required. In this case, it is assumed that all walkers have the same height h and the same width w, and move on a flat floor. If you know the camera projection matrix and the plane equation at the bottom, you can determine the orientation and size of the pedestrian at each location in the image. Thus, the walking silhouette model may be defined as a two-dimensional Gaussian distribution in which a covariance matrix is geometrically fixed at each position. In this case, the likelihood probability p (x | ω j ) may be defined as a two-dimensional Gaussian probability distribution function as shown in Equation 1 below.

Figure 112007040591011-pat00001
Figure 112007040591011-pat00001

상기 <수학식 1>에서 x는 각 화소(pixel)를 나타내며, ωj는 각 군집(cluster)을 나타낸다. 또한, μ는 해당 군집의 평균 벡터(mean vector)를 나타내며, Σ는 해당 군집의 공분산 행렬(covariance matrix)을 나타낸다.In Equation 1, x represents each pixel, and ω j represents each cluster. In addition, μ represents a mean vector of the cluster, and Σ represents a covariance matrix of the cluster.

도 5는 상기 보행인 실루엣 모델을 나타내는 도면이다. 상기 도 5에서 장축의 표준 편차는 영상에서 측정된 키(h)의 1/3배이고, 단축의 표준편차는 영상에서 측정된 너비(w)의 1/3배이다. 따라서, 보행인 실루엣의 전체 면적은 약 87% 신뢰 구간을 갖게 된다.5 is a diagram illustrating a silhouette model of the walking person. In FIG. 5, the standard deviation of the long axis is 1/3 times the height h measured in the image, and the standard deviation of the short axis is 1/3 times the width w measured in the image. Thus, the total area of the walking silhouette has about 87% confidence interval.

한편, 군집화를 위해 2차원 가우시안 모델을 사용하기 때문에, 모델 매개 변수는 평균 벡터 μj, 공분산 행렬 Σj, 사전 확률 P(ωj)로 구성된다. 이때, 상기 공분산 행렬은 영상의 각 위치에서 기하학적으로 계산할 수 있고, 사전 확률은 군집에 상관없이 같다고 가정한다.On the other hand, since a two-dimensional Gaussian model is used for clustering, the model parameter is composed of an average vector μ j , a covariance matrix Σ j , and a prior probability P (ω j ). In this case, it is assumed that the covariance matrix can be geometrically calculated at each position of the image, and the prior probability is the same regardless of the cluster.

따라서, 각 모델에서 보행인의 중심 위치를 나타내는 평균 벡터만을 추정하게 되며, 상기 평균 벡터의 학습 방법은 혼합 가우시안의 기대값-최대화 알고리즘(EM-MoG)을 적용할 수 있다. 상기 각 군집의 평균 벡터 μj는 하기 <수학식 2>와 같은 방법으로 반복해서 계산한다.Therefore, only the mean vector representing the center position of the pedestrian in each model is estimated, and the expectation-maximization algorithm (EM-MoG) of the mixed Gaussian may be applied to the learning method of the mean vector. The average vector μ j of each cluster is repeatedly calculated in the same manner as in <Equation 2>.

Figure 112007040591011-pat00002
Figure 112007040591011-pat00002

이때, 상기 <수학식 2>에서 사후 확률(posterior probability) P(ωj|xi)는 하기 <수학식 3>과 같이 산출될 수 있다.In this case, the posterior probability P (ω j | x i ) in Equation 2 may be calculated as Equation 3 below.

Figure 112007040591011-pat00003
Figure 112007040591011-pat00003

한편, 상술한 EM 알고리즘을 적용하기 위해서는, 군집의 정확한 개수(c)를 알아야 하고, 각 군집의 매개 변수(즉, 평균 벡터 μj)를 초기화할 수 있어야만 한다. 이때, 임의의 군집 개수를 사용하고 매개 변수의 초기값을 임의로 결정할 수도 있지만, 보행인 필터링 방법을 사용함으로써 보다 효과적으로 초기값을 결정할 수가 있다.On the other hand, in order to apply the above-described EM algorithm, it is necessary to know the exact number of clusters (c) and be able to initialize the parameters of each cluster (ie, the average vector μ j ). In this case, although the number of clusters may be used and the initial value of the parameter may be arbitrarily determined, the initial value may be more effectively determined by using a pedestrian filtering method.

본 발명에서는 다음과 같은 방법에 의해 보행인의 수와 모델 매개 변수를 초기화한다. 먼저, 물체가 움직이는 편평한 바닥으로부터 평균 신장 h의 1/2배 만큼 떨어진 평면을 격자로 나누고, 각 격자점에 대하여 보행인의 중심 위치를 가설로 세운다. 그런 다음, 상기 각 보행인 모델 가설은 하기 <수학식 4>와 같은 정규화된 사후 점수(nomalized posterior score)(Sj)에 대해 경계값(θi)을 적용하여 검증한 다.In the present invention, the number of pedestrians and model parameters are initialized by the following method. First, the plane divided by 1/2 times the average elongation h from the flat bottom on which the object moves is hypothesized, and the pedestrian's center position is hypothesized for each grid point. Then, each gait model hypothesis is verified by applying a boundary value θ i to a normalized posterior score S j as shown in Equation 4 below.

Figure 112007040591011-pat00004
Figure 112007040591011-pat00004

상기 <수학식 4>에서 xi는 각 전경 화소 표본을 나타내고, Aj는 군집 ωj의 영상에서 측정된 화소 단위의 면적을 나타낸다. 상기 <수학식 4>의 분자를 구성하는 사후 확률들의 합

Figure 112007040591011-pat00005
는 군집 ωj에 속하는 전경 화소 표본의 개수를 의미한다. 그러나 카메라로부터 멀리 떨어진 화소일수록 실제 나타내는 면적은 커지므로, 상기 전경 화소 표본의 개수를 면적 Aj로 나누어 정규화(normalize)한다. 따라서, 상기 정규화된 사후 점수 Sj에 대해 경계값을 적용하여, 군집의 개수 c와 각 군집의 매개 변수 μj의 초기값을 결정하게 된다. 즉, 각 군집 ωj에 대해 상기 정규화된 사후 점수 Sj가 기설정된 경계값(θi)보다 큰 군집만을 EM 알고리즘의 초기값으로 사용하게 된다.In Equation 4, x i represents each foreground pixel sample, and A j represents the area of the pixel unit measured in the image of the cluster ω j . Sum of posterior probabilities constituting the molecule of Equation 4
Figure 112007040591011-pat00005
Denotes the number of foreground pixel samples belonging to the cluster ω j . However, since the farther the pixel is from the camera, the area actually displayed becomes larger, the normalization is performed by dividing the number of the foreground pixel samples by the area A j . Therefore, by applying a boundary value to the normalized post score S j , the number of clusters c and the initial value of the parameter μ j of each cluster are determined. That is, only the cluster whose normalized post score S j is larger than the predetermined boundary value θ i for each cluster ω j is used as the initial value of the EM algorithm.

상기 조건에 따라 결정된 군집의 개수 c와 각 군집의 매개 변수 μj의 초기값으로부터 EM 알고리즘을 반복 수행하면, 점진적으로 각 군집의 평균 벡터가 특정 값에 수렴함으로써 복수의 군집들이 결정된다. If the EM algorithm is repeated from the number c of clusters determined according to the above conditions and the initial value of the parameter μ j of each cluster, a plurality of clusters are determined by gradually converging the average vector of each cluster to a specific value.

이때, 보행인 필터링시에 가설이 되는 격자점들을 조밀하게 선택하였기 때문에, 실제 개수보다 많은 개수의 초기 군집을 얻게 된다. 이와 같이 실제 개수보다 많은 수의 군집으로 표본들을 군집화하는 것을 '과군집화(over-clustering)'라 한다.At this time, since the lattice points that are hypothetically selected at the time of pedestrian filtering are densely selected, more initial clusters are obtained than actual numbers. This clustering of samples into more clusters than the actual number is called 'over-clustering'.

상술한 바와 같이 군집화 방법을 적용하게 되면 각 군집들은 실루엣 영상에 맞추어 피팅(fitting)된다. 이때, 실제 개수보다 많은 수의 군집을 적용하였기 때문에, 몇몇 군집들은 함께 뭉쳐있고, 일부는 전경 영상에서 잘못 얻어진 이상값(outlier)들에 피팅된다.As described above, when the clustering method is applied, each cluster is fitted to the silhouette image. At this time, since more clusters than actual numbers are applied, some clusters are clustered together, and some are fitted to outliers that are incorrectly obtained in the foreground image.

도 6은 도 4의 전경 영상을 중간 군집화 결과를 나타내는데, 도시된 바와 같이 중복된 군집들과 잘못된 군집들을 포함하고 있다. 따라서, 중복된 군집들을 병합(merge)하고 잘못된 군집들을 제거(remove)할 방법이 필요하게 된다. 즉, 상기 과군집화 이후, 서로 매우 가까운 군집들은 병합하여야 하며, 작은 수의 전경 화소 표본을 갖는 군집들은 제거하여야 한다.FIG. 6 illustrates a result of intermediate clustering of the foreground image of FIG. 4, which includes duplicate clusters and incorrect clusters. Therefore, there is a need for a method of merging duplicate clusters and removing erroneous clusters. That is, after the over clustering, clusters very close to each other should be merged, and clusters having a small number of foreground pixel samples should be removed.

한편, 실질적인 정확한 병합 및 제거 과정을 수행하기 전, 선택적인 선행 처리 수행에 의해 대략적인 병합 및 제거 과정을 거침으로써 실질적인 병합 및 제거 과정에 대한 연산을 줄일 수가 있게 된다.On the other hand, before performing the actual exact merging and elimination process, it is possible to reduce the operation of the actual merging and elimination process by performing a rough merging and elimination process by performing the optional preprocessing.

예컨대, 상기 선행 처리 과정으로서 중심 위치가 1화소 단위보다 가까운 군집들은 병합하고, 특정 경계값(θp)보다 작은 정규화된 사후 점수(Sj)를 갖는 군집들은 제거할 수가 있다.For example, clusters having a center position closer than one pixel unit may be merged as the preprocessing process, and clusters having a normalized post score S j smaller than a specific boundary value θ p may be removed.

도 7은 도 6의 과군집화된 전경 영상을 선행 처리한 결과를 나타낸다. 상기 도 7에서 숫자는 각 군집의 번호를 나타내며, 상기 각 군집들은 직사각형의 보행인 모델로 표시된다. 이때, 상기 각 직사각형 내부의 십자 마크는 각 군집의 중심값, 즉 평균 벡터를 의미한다.FIG. 7 illustrates a result of preprocessing the overgrouped foreground image of FIG. 6. In FIG. 7, the numbers indicate the numbers of each cluster, and each cluster is represented by a model of rectangular walking. At this time, the cross mark inside each rectangle means a center value of each cluster, that is, an average vector.

이러한 선행 처리 방법을 이용하여 군집의 개수를 상당히 줄일 수 있지만, 여전히 불필요한 군집들이 남아있게 된다. 따라서, 후술하는 방법에 의해 군집들을 병합 또는 제거함으로써 최종적인 결과를 얻게 된다.Although this pretreatment method can be used to significantly reduce the number of clusters, unnecessary clusters remain. Thus, final results are obtained by merging or removing clusters by the method described below.

군집들을 병합 또는 제거하는 방법을 설명하기에 앞서, 군집들의 병합을 위해 필요한 두 군집 간의 결합력(coherence)을 측정하는 방법을 설명한다.Before describing a method of merging or removing clusters, a method of measuring coherence between two clusters required for merging clusters is described.

이하, 두 군집 사이의 결합력을 측정할 수 있는 통계적 방법을 제안한다. 만약 두 군집 ωj와 ωk가 높게 연관되어 있다면, 표본들의 사후 확률 P(ωj|xi)와 P(ωk|xi)는 동일한 특성을 가지게 된다. 예컨대, 만약 P(ωj|xi)가 증가하면 P(ωk|xi)도 증가하고, 반대로 P(ωj|xi)가 감소하면 P(ωk|xi)도 감소한다. 따라서, 각 군집에 대한 표본들의 사후 확률들을 특성 벡터(Feature vector) Hi로 사용하며, 상기 특성 벡터 Hi는 하기 <수학식 5>와 같이 표현될 수 있다.Hereinafter, a statistical method for measuring the binding force between two clusters is proposed. If the two clusters ω j and ω k are highly related, the posterior probabilities P (ω j | x i ) and P (ω k | x i ) of the samples have the same characteristics. For example, if P (ω j | x i ) increases, P (ω k | x i ) also increases, and conversely, if P (ω j | x i ) decreases, P (ω k | x i ) decreases. Thus, the use of posterior probability of the sample for each cluster in the feature vector (Feature vector) H i, H i the characteristic vector can be expressed as <Equation 5>.

Figure 112007040591011-pat00006
Figure 112007040591011-pat00006

이때, 두 군집 ωj와 ωk 사이의 결합력을 측량하기 위해 하기 <수학식 6>과 같이 상관 계수(correlation coefficient) ρjk를 계산한다.At this time, in order to measure the coupling force between the two groups ω j and ω k , a correlation coefficient ρ jk is calculated as shown in Equation 6 below.

Figure 112007040591011-pat00007
Figure 112007040591011-pat00007

상기 <수학식 6>에서 계산된 ρjk의 값은 상관 계수이기 때문에 [-1, 1] 사이의 분포를 갖는다. 이때, X는 공분산(Covariance)과 분산(Variance)을 구하기 위해 기대값(Expectation)을 계산할 해당 확률 분포인 전경 화소의 좌표값을 나타내는 확률 변수(Random variable)이다. 한편, 상기 상관 계수의 실질적인 계산은 하기 <수학식 7>에 의해 수행된다. 이때, n은 전경 화소 표본의 전체 개수를 나타낸다.Since the value of ρ jk calculated in Equation 6 is a correlation coefficient, it has a distribution between [-1 and 1]. In this case, X is a random variable representing a coordinate value of a foreground pixel, which is a corresponding probability distribution for calculating an expectation value in order to obtain covariance and variance. On the other hand, the actual calculation of the correlation coefficient is performed by the following equation (7). In this case, n represents the total number of foreground pixel samples.

Figure 112007040591011-pat00008
Figure 112007040591011-pat00008

상기 <수학식 7>에서 각 군집의 매개 변수 μj 및 μk는 각각 하기 <수학식 8> 및 <수학식 9>와 같이 산출된다.The parameters μ j and μ k of each cluster in Equation 7 are calculated as in Equations 8 and 9, respectively.

Figure 112007040591011-pat00009
Figure 112007040591011-pat00009

Figure 112007040591011-pat00010
Figure 112007040591011-pat00010

본 발명에서 제안한 상관 계수의 특성을 살펴보면 ΣjP(ωj|x)=1 와 같은 제약조건 때문에, 만약 두 군집이 연관되어 있지 않다면 상관계수 ρjk는 음수가 된다. 이는 만약 P(ωj|xi)가 증가하면 P(ωk|xi)는 감소하고, 반대로 P(ωj|xi)가 감소하면 P(ωk|xi)는 증가하는 것을 의미한다. 이와 같이 결합력 측량에 사용하는 사후 확률들 사이의 상관 계수는 전경 화소 표본들의 분포를 기반으로 두 군집 사이의 겹치는 면적의 크고 작음을 평가할 수 있는 특성을 가진다. 따라서, 상관 계수에 경계값를 적용하여 두 군집이 결합되어야 하는지 아닌지를 판단할 수가 있게 된다.Looking at the characteristics of the correlation coefficient proposed in the present invention, because of constraints such as Σ j P (ω j | x) = 1, the correlation coefficient ρ jk becomes negative if two clusters are not related. This means that if P (ω j | x i ) increases, P (ω k | x i ) decreases and conversely, if P (ω j | x i ) decreases, P (ω k | x i ) increases. do. As such, the correlation coefficient between the posterior probabilities used in the coupling force measurement has a property of evaluating the large and small overlapping areas between two clusters based on the distribution of the foreground pixel samples. Therefore, it is possible to determine whether two clusters should be combined by applying a boundary value to the correlation coefficient.

이하, 본 발명에 따라 과군집된 군집들을 병합하고 제거하여 최종적으로 개별 보행인을 분리하는 방법을 설명한다.Hereinafter, a method of finally separating individual pedestrians by merging and removing clustered populations according to the present invention will be described.

즉, 정규화된 사후 점수 Sj와 결합력 측정값인 상관 계수 ρjk를 결합하여, 상기 두 값에 따라 세 가지 경우로 군집들을 나눌 수가 있게 된다.That is, by combining the normalized post score S j and the correlation coefficient ρ jk , which is a measure of the binding force, the clusters can be divided into three cases according to the two values.

만약, 군집 ωj의 결과가 올바르다면 그 정규화된 사후 점수 Sj는 큰 값을 갖는다. 한편, 두 군집 ωj와 ωk이 병합되어야 한다면, 둘의 정규화된 사후 점수 Sj와 Sk는 작은 값을 갖지만 둘 사이의 상관 계수 ρjk는 큰 값을 갖게 된다. 반면, 군집 ωj가 제거되야 한다면, 해당 군집의 정규화된 사후 점수 Sj가 작은 값을 갖고 다른 모든 군집과의 상관 계수 ρjk도 작은 값을 갖게 된다.If the result of cluster ω j is correct, then the normalized post score S j has a large value. On the other hand, if two clusters ω j and ω k are to be merged, the two normalized post scores S j and S k have a small value, but the correlation coefficient ρ jk between the two has a large value. On the other hand, if the cluster ω j is to be removed, the normalized post score S j of the cluster has a small value and the correlation coefficient ρ jk with all other clusters also has a small value.

하기 <표 1>은 상술한 두 값을 기반으로 병합과 제거를 수행하는 방법을 나타낸다.Table 1 below shows a method of performing merging and elimination based on the two values described above.

경우Occation 사후 점수 Sj Post Score S j 상관 계수 ρjk Correlation coefficient ρ jk 수행Perform Oh yeah -- -- 거짓lie 병합absorption 거짓lie 제거remove

도 8은 도 7의 군집들에 대한 사후 점수 Sj와 상관 계수 ρjk의 값을 그래프로 나타낸 도면이다.FIG. 8 is a graph illustrating post-scoring scores S j and values of the correlation coefficient ρ jk for the clusters of FIG. 7.

상기 도 8을 참조하면, 그래프 상의 가로축과 세로축의 각 지표(Index)는 상기 도 7에 도시된 군집들의 번호에 대응된다. 이때, 상기 그래프에서 대각선 상의 요소들(즉, 가로값과 세로값이 같은 칸)은 해당 값(즉, 해당 군집)에 대한 사후 점수 Sj를 나타내며, 나머지 요소(칸)들은 가로축 값에 해당하는 군집과 세로축 값에 해당하는 군집 간의 상관 계수 ρjk를 나타낸다. 상기 그래프에 따라 동일한 보행인으로부터 기인한 군집들은 높게 연관되어 있으므로 병합되어야 한다.Referring to FIG. 8, each index of the horizontal and vertical axes on the graph corresponds to the number of clusters shown in FIG. 7. In this graph, elements on the diagonal line (ie, a column having the same horizontal value and vertical value) represent a post score S j for the corresponding value (ie, the corresponding cluster), and the remaining elements (squares) correspond to the horizontal axis values. Correlation coefficient ρ jk between a cluster and a cluster corresponding to a vertical axis value is represented. According to the graph, clusters resulting from the same pedestrian are highly related and should be merged.

예컨대, 1번 군집과 2번 군집은 각각 0.4 정도의 사후 점수를 가지면서, 상관 계수가 1에 가까우므로 병합이 되는 것이 바람직하다. 13번 군집과 14번 군집도 마찬가지로 병합이 되는 것이 바람직하며, 15번 군집과 16번 군집도 병합이 되는 것이 바람직하다. 그러나 17번 군집과 18번 군집은 각각 1에 가까운 높은 사후 점수를 가지므로 각각 독립된 개별 보행인으로 판단할 수가 있다. 나머지 군집들도 상기와 같은 방법에 의해 병합 또는 제거될 수가 있다.For example, cluster 1 and cluster 2 each have a post score of about 0.4, and the correlation coefficient is close to 1, so it is preferable to merge. It is preferable that the 13th cluster and the 14th cluster are similarly merged, and the 15th cluster and the 16th cluster are also preferably merged. However, clusters 17 and 18 have high post scores close to 1, respectively, so they can be judged as independent individual pedestrians. The remaining clusters can also be merged or removed by the same method.

한편, 병합과 제거의 순서에 따라 서로 다른 결과를 가져올 수 있으므로 그 순서는 중요하다. 따라서, 상기 병합과 제거의 알고리즘은 병합과 제거의 두 단계로 구성되는데, 첫 단계에서는 병합만을 수행한다. 상기 병합은 두 군집씩 선택하여 사후 점수 및 상관 관계를 분석하는 과정을 전 군집에 대해 수행하여야 하므로, 이를 효과적으로 수행하기 위하여 깊이 우선 탐색 방법(Depth-First Search)을 이용하여 병합할 군집 그룹을 결정할 수 있다.On the other hand, the order is important because different results can be obtained according to the order of merging and removing. Thus, the merging and elimination algorithm consists of two stages, merging and elimination, in which only merging is performed. Since the merging must be performed for all clusters by selecting two clusters and analyzing the post scores and correlations, the cluster group to be merged is determined by using a depth-first search in order to effectively perform the merging. Can be.

이때, 두 군집 ωj와 ωk사이의 연결성(즉, 병합 여부)은 둘의 결합력 측정 요소인 상관 계수 ρjk에 대해 경계값(θm)을 적용하여 결정한다. 즉, 두 군집에 대해 각각 사후 점수가 적으면서 상기 상관 계수 ρjk가 기설정된 경계값(θm)보다 클 경우에는 두 군집을 병합 처리하게 된다.In this case, the connectivity between two clusters ω j and ω k is determined by applying a boundary value θ m to the correlation coefficient ρ jk , which is a coupling force measurement element. That is, when the correlation coefficient p jk is greater than a predetermined boundary value θ m while the post score is small for each of the two clusters, the two clusters are merged.

상기 병합 과정은 더 이상 병합할 군집 그룹이 없을 때까지 반복 수행하게 되며, 최종 결과의 정밀성을 위해 한 군집은 한 번만 병합하는 것이 바람직하다.The merging process is repeated until there are no more cluster groups to merge, and it is preferable to merge one cluster only once for the precision of the final result.

둘째 단계는 제거 단계로서 특정 경계값(θr)보다 작은 사후 점수 Sj를 갖는 군집을 한 번에 하나씩 제거한다.The second step is the removal step, which removes one cluster at a time with a post-score S j that is less than a particular boundary value θ r .

이때, 만약 하나의 군집이 제거된다면, 제약 조건 ΣjP(ωj|x)=1에 의하여 나머지 군집들의 사후 점수가 증가하게 된다. 따라서, 군집 제거는 사후 점수 Sj에 대해 오름 차순으로 수행되는 것이 바람직하다.At this time, if one cluster is removed, the post score of the remaining clusters is increased by the constraint Σ j P (ω j | x) = 1. Therefore, cluster removal is preferably performed in ascending order with respect to the post score S j .

도 9는 병합과 제거의 최종 결과를 나타낸다. 모든 보행인의 위치가 올바르게 계산되었음을 알 수 있다.9 shows the final result of merging and elimination. It can be seen that the location of all pedestrians was calculated correctly.

<실험 결과><Experiment Result>

도 10 내지 도 14는 상술한 바와 같이 본 발명에 따라 구현된 알고리즘을 보행인들의 다양한 배치에 대하여 실험한 결과이다.10 to 14 show the results of experiments on various arrangements of pedestrians of the algorithm implemented according to the present invention as described above.

도 10은 연속된 영상에서 300번째 영상을 선택하여 실험한 결과이며, 도 11은 연속된 영상에서 500번째 영상을 선택하여 실험한 결과이며, 도 12는 연속된 영상에서 700번째 영상을 선택하여 실험한 결과이며, 도 13은 연속된 영상에서 800번째 영상을 선택하여 실험한 결과이며, 도 14는 연속된 영상에서 900번째 영상을 선택하여 실험한 결과이다.FIG. 10 is a result of selecting a 300th image from a continuous image, and FIG. 11 is a result of selecting a 500th image from a continuous image, and FIG. 12 is a result of selecting a 700th image from a continuous image. 13 is a result of selecting an 800th image from a continuous image, and FIG. 14 is a result of selecting a 900th image from a continuous image.

상기 도 10 내지 도 14의 각 영상에서 좌측에 위치한 영상은 원본 영상들을 나타내고, 중간에 위치한 영상은 중간 군집화를 수행한 결과 영상을 나타낸다. 또한, 우측에 위치한 영상은 병합 및 제거를 수행한 최종 결과를 나타낸다.In each of the images of FIGS. 10 to 14, the image located on the left represents original images, and the image located in the middle represents a result of performing intermediate clustering. Also, the image located on the right side shows the final result of merging and removing.

도 10은 참조하면, 보행인의 최종 수는 올바르게 계산되었음을 알 수 있다. 즉, 영상의 왼쪽 부분에서 한 보행인이 영상을 벗어나고 있으므로, 군집의 사후 점수가 작아 제거되었다. 또한, 영상의 왼쪽 상단 부분에서 두 보행인이 겹쳐있다. 이때, 전경 분할의 결과에서 둘의 다리쪽 부분의 면적이 상체쪽 부분의 면적보다 크게 나타나서, 각 보행인의 중심 위치가 다리 쪽으로 추정되었다.Referring to FIG. 10, it can be seen that the final number of pedestrians was correctly calculated. In other words, since a pedestrian is out of the image in the left part of the image, the post score of the cluster is small and removed. Also, two pedestrians overlap in the upper left part of the image. At this time, the area of the two leg portions appeared larger than the area of the upper body portion in the result of the foreground division, and the center position of each pedestrian was estimated toward the leg.

도 11에서는 그림자와 보행인들 사이의 겹침에도 불구하고 결과가 올바르게 계산되었다. 도 12에서 보행인 배치는 분리하기 쉬우며, 올바르게 분리되었다.In FIG. 11, the result was correctly calculated despite the overlap between the shadow and the pedestrians. The walking arrangement in FIG. 12 is easy to separate and has been correctly separated.

한편, 도 13 및 도 14에서는 두 보행인이 수직으로 겹쳐있다. 이러한 상황에서 실루엣 영상은 정확한 수의 보행인을 추정하기에 너무 모호하다. 이때, 수직으로 겹친 세 명의 보행인들 또한 동일한 실루엣 영상을 만들어 낼 수 있다. 따라서, 실험 결과는 사후 점수와 결합력에 대한 경계값에 따라 다르게 계산될 수 있다.13 and 14, two pedestrians vertically overlap. In this situation, the silhouette image is too ambiguous to estimate the correct number of pedestrians. At this time, three pedestrians stacked vertically can also produce the same silhouette image. Therefore, the experimental result can be calculated differently according to the post score and the boundary value for the binding force.

이상으로 본 발명에 따른 군집화를 기반한 보행인 분리 방법을 소개하였다. 기하학적 제약 조건은 보행인 모델의 공분산 행렬을 고정하는 것으로 내재되었다. 상술한 바와 같이 본 발명에 따라 과군집화 이후, 사후 점수와 결합력 측량에 따라 중복된 군집들을 병합하고 잘못된 군집들을 제거함으로써 보행인을 효과적이고 정확히 분리할 수가 있게 된다.The pedestrian separation method based on clustering according to the present invention was introduced. Geometric constraints are inherent in fixing the covariance matrix of the walking model. As described above, after the overcrowding, the pedestrians can be effectively and accurately separated by merging the duplicated clusters according to the post score and the cohesion measurement and removing the wrong clusters.

한편, 본 발명의 실시 예에서는 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되어 정해져서는 안되며 후술하는 특허 청구의 범위뿐만 아니라 이 특허 청구의 범위와 균등한 것들에 의해 정해져야 한다.On the other hand, in the embodiment of the present invention has been described with respect to specific embodiments, various modifications are possible without departing from the scope of the invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the appended claims, but also by the equivalents of the claims.

본 발명에 따르면, 전경 영상에 대한 각 화소를 복수의 군집들로 군집화한 후 상기 군집들을 효과적으로 병합 및 제거함으로써 전경 영상에서 보행인들이 겹쳐 나타날 경우라 하더라도, 개별 보행인을 정확히 분리해 낼 수 있게 되는 장점이 있다.According to the present invention, after each pixel for the foreground image is clustered into a plurality of clusters, the clusters can be effectively merged and removed, so that even if pedestrians overlap in the foreground image, individual pedestrians can be accurately separated. There is this.

또한, 상기 군집화 시 실제 군집의 개수보다 많은 수의 군집들로 표본들을 과군집화하고, 불필요한 군집들을 병합 및 제거함으로써 개별 보행인을 정확히 분리해 낼 수 있게 되는 장점이 있다.In addition, when clustering, there is an advantage in that individual pedestrians can be accurately separated by over-aggregating samples into a larger number of clusters than actual clusters and merging and removing unnecessary clusters.

아울러, 전경 영상으로부터의 각 화소들을 과군집화한 후 정규화된 사후 점수 및 결합력을 측정하는 상관 계수에 의해 상기 병합 및 제거를 수행함으로써 효과적으로 개별 보행인을 분리해 낼 수 있게 되는 장점이 있다.In addition, it is possible to effectively separate individual pedestrians by performing the merging and elimination by correlating each pixel from the foreground image with a correlation coefficient measuring a normalized post score and coupling force.

마지막으로, 상기 과군집화 후 실질적인 병합 및 제거를 수행하기에 앞서 선행 처리에 의해 대략적인 병합 및 제거를 수행함으로써 보다 효율적인 병합 및 제거를 수행할 수가 있게 되는 장점이 있다.Finally, there is an advantage that more efficient merging and elimination can be performed by performing coarse merging and elimination by prior processing before performing substantial merging and elimination after the over-grouping.

Claims (37)

복수의 화소들로 구성되는 원본 영상으로부터 하나 이상의 개별 보행인을 분리하는 방법에 있어서,In the method for separating one or more individual walkers from the original image consisting of a plurality of pixels, 상기 원본 영상의 상기 각 화소들을 배경 화소와 전경 화소로 분류하여 상기 복수의 전경 화소들로 보행인들의 실루엣 영상을 구성하는 전경 영상을 생성하는 단계;Classifying the pixels of the original image into a background pixel and a foreground pixel to generate a foreground image constituting a silhouette image of pedestrians using the plurality of foreground pixels; 상기 전경 영상을 구성하는 상기 각 화소들을 하나 이상의 각 보행인 단위의 군집들로 군집화하는 단계; 및Clustering the pixels constituting the foreground image into clusters of at least one pedestrian unit; And 상기 군집들 중 하나의 상기 개별 보행인에 중복하여 매핑된 복수의 군집들은 병합하고, 개별 보행인에 포함되지 않은 오류 군집들은 제거하여, 개별 보행인을 식별하는 단계를 포함하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Clustering a plurality of clusters mapped to the individual pedestrians of one of the clusters, removing error clusters not included in the individual pedestrians, and identifying the individual pedestrians. Separation method of individual walkers. 제1항에 있어서, 상기 군집화는,The method of claim 1, wherein the clustering, 실제 개수보다 많은 수의 군집들로 과군집화하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method that is an individual walk by clustering the foreground pixels, characterized in that the clustered over a larger number than the actual number. 제1항에 있어서, 상기 원본 영상의 각 화소들을 배경 화소와 전경 화소로 분류하는 방법은,The method of claim 1, wherein each pixel of the original image is classified into a background pixel and a foreground pixel. 상기 각 화소의 색상 분포를 혼합 가우시안 모델로 모델링하고, 상기 혼합 가우시안 모델에 기반하여 배경 화소 및 전경 화소를 분류하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.The gait separation method according to the clustering of the foreground pixels, characterized in that the color distribution of each pixel is modeled by a mixed Gaussian model, and the background and foreground pixels are classified based on the mixed Gaussian model. 제3항에 있어서, 상기 혼합 가우시안 모델에 기반하여 분류된 배경 화소 및 전경 화소들의 색상값은,The color value of the background pixel and the foreground pixel classified based on the mixed Gaussian model, 상기 혼합 가우시안 모델을 갱신하는 데 재사용되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.And separate gait by clustering foreground pixels, wherein the mixed Gaussian model is reused to update the mixed Gaussian model. 제4항에 있어서, 상기 화소 분류 및 모델 갱신은,The method of claim 4, wherein the pixel classification and model update, 상기 원본 영상의 매 프레임마다 반복되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.The separation method of the individual walk by clustering the foreground pixels, characterized in that repeated for every frame of the original image. 제1항에 있어서, 상기 군집화하는 단계는,The method of claim 1, wherein the clustering step, 각 군집에 대한 보행인 실루엣 모델을 생성하는 단계;Generating a silhouette model that is walking for each cluster; 상기 군집의 개수 및 각 군집에 대한 상기 모델의 매개 변수를 초기화하는 단계; 및Initializing the number of clusters and parameters of the model for each cluster; And 상기 초기화한 군집의 개수 및 각 군집의 모델 매개 변수로부터 상기 각 모델에서 보행인의 중심 위치를 나타내는 평균 벡터를 추정하는 단계를 포함하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.And estimating an average vector representing the center position of the pedestrian in each model from the number of initialized clusters and model parameters of each cluster. 제6항에 있어서, 상기 보행인 실루엣 모델은,According to claim 6, The walking silhouette model, 공분산 행렬이 각 위치에서 기하학적으로 고정된 2차원 가우시안 분포로 정의되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.A method of separation that is individual walk by clustering foreground pixels, wherein the covariance matrix is defined as a two-dimensional Gaussian distribution that is geometrically fixed at each location. 제7항에 있어서, 상기 2차원 가우시안 분포는,The method of claim 7, wherein the two-dimensional Gaussian distribution, 하기 수학식으로 정의되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method which is an individual gait by clustering foreground pixels, characterized by the following equation.
Figure 112008044457118-pat00011
Figure 112008044457118-pat00011
이때, 상기 x는 각 화소, ωj는 각 군집, μ는 해당 군집의 평균 벡터, Σ는 해당 군집의 공분산 행렬을 나타낸다.Where x is each pixel, ω j is each cluster, μ is the mean vector of the cluster, and Σ is the covariance matrix of the cluster.
제6항에 있어서, 상기 모델의 매개 변수는,The method of claim 6, wherein the parameter of the model, 평균 벡터, 공분산 행렬 및 사전 확률로 구성되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.A separation method, which is an individual gait by clustering foreground pixels, comprising a mean vector, a covariance matrix, and a prior probability. 제6항에 있어서, 상기 군집의 개수 및 각 군집에 대한 상기 모델의 매개 변수를 초기화하는 단계는,The method of claim 6, wherein initializing the number of clusters and the parameters of the model for each cluster comprises: 물체가 움직이는 편평한 바닥으로부터 평균 신장의 1/2배만큼 떨어진 평면을 격자로 분할하는 단계;Dividing the plane into a grid separated by 1/2 times the average elongation from the flat bottom at which the object moves; 상기 격자의 각 격자점에 대하여 보행인의 중심 위치를 가설로 설정하는 단계; 및Hypothesizing a central location of a pedestrian for each grid point of the grid; And 상기 가설로 설정된 보행인의 중심 위치를 검증하는 단계를 포함하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.And a step of verifying a center position of the pedestrian set as the hypothesis. 제10항에 있어서, 상기 가설로 설정된 보행인의 중심 위치를 검증하는 단계는,The method of claim 10, wherein the verifying the central position of the pedestrian set as the hypothesis comprises: 각 격자점에서의 군집 모델에 대한 정규화된 사후 점수가 기설정된 제1 경계값보다 큰 격자점에 대해서 초기화하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.A method for separating individual walks by clustering foreground pixels, wherein the normalized post-score for the cluster model at each grid point is initialized for a grid point larger than a first predetermined boundary value. 제11항에 있어서, 상기 정규화된 사후 점수는,The method of claim 11, wherein the normalized post-mortem score, 하기 수학식과 같이 산출됨을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method of the individual walk by clustering the foreground pixels, characterized in that calculated as shown in the following equation.
Figure 112007040591011-pat00012
Figure 112007040591011-pat00012
이때, 상기 xi는 각 전경 화소 표본을 나타내고, Aj는 군집 ωj의 영상에서 측정된 화소 단위의 면적을 나타낸다. 상기 수학식의 분자를 구성하는 사후 확률들의 합
Figure 112007040591011-pat00013
는 군집 ωj에 속하는 전경 화소 표본의 개수를 의미한다.
In this case, x i represents each foreground pixel sample, and A j represents the area of the pixel unit measured in the image of the group ω j . Sum of posterior probabilities constituting the molecule of the equation
Figure 112007040591011-pat00013
Denotes the number of foreground pixel samples belonging to the cluster ω j .
제6항에 있어서, 상기 평균 벡터의 추정은,The method of claim 6, wherein the estimation of the average vector, 기대값-최대화 알고리즘에 의해 수렴되는 값으로 추정하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.A method for separating individual walks by clustering foreground pixels, characterized by estimating a value converged by an expected value-maximization algorithm. 제13항에 있어서, 상기 평균 벡터의 추정은,The method of claim 13, wherein the estimation of the average vector, 하기 수학식을 반복 수행하여 계산함으로써 추정하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method which is an individual gait by clustering foreground pixels, characterized by iteratively calculating by repeatedly performing the following equation.
Figure 112007040591011-pat00014
Figure 112007040591011-pat00014
이때, 상기 μj는 각 군집의 평균 벡터, xi는 각 화소, P(ωj|xi)는 사후 확률을 나타낸다.Where μ j is the mean vector of each cluster, x i is each pixel, and P (ω j | x i ) represents the posterior probability.
제14항에 있어서, 상기 사후 확률 P(ωj|xi)는 하기 수학식에 의해 산출되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.15. The method of claim 14, wherein the posterior probability P (ω j | x i ) is calculated by the following equation.
Figure 112007040591011-pat00015
Figure 112007040591011-pat00015
이때, 상기 c는 초기화한 군집의 개수, p(xij)는 군집 ωj의 2차원 가우시안 확률 분포를 나타낸다.Where c denotes the number of initialized clusters and p (x i | ω j ) denotes a two-dimensional Gaussian probability distribution of the cluster ω j .
제1항에 있어서, 상기 군집화하는 단계 이후에,The method of claim 1, wherein after the clustering step, 상기 각 군집의 중심 위치가 1화소 단위보다 가까운 군집들을 병합하는 단계를 더 포함하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.The method of claim 1, further comprising merging clusters of which the center position of each cluster is closer than one pixel unit. 제1항에 있어서, 상기 군집화하는 단계 이후에,The method of claim 1, wherein after the clustering step, 상기 각 군집들에 대해 정규화된 사후 점수를 산출하고, 상기 산출된 정규화된 사후 점수가 기설정된 제2 경계값보다 작은 군집들을 제거하는 단계를 더 포함하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Calculating a normalized post score for each of the clusters, and removing clusters of which the calculated normalized post score is smaller than a second predetermined threshold value. How to separate pedestrians. 제17항에 있어서, 상기 정규화된 사후 점수는,The method of claim 17, wherein the normalized post score, 하기 수학식과 같이 산출됨을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method of the individual walk by clustering the foreground pixels, characterized in that calculated as shown in the following equation.
Figure 112007040591011-pat00016
Figure 112007040591011-pat00016
이때, 상기 xi는 각 전경 화소 표본을 나타내고, Aj는 군집 ωj의 영상에서 측정된 화소 단위의 면적을 나타낸다. 상기 수학식의 분자를 구성하는 사후 확률들의 합
Figure 112007040591011-pat00017
는 군집 ωj에 속하는 전경 화소 표본의 개수를 의미한다.
In this case, x i represents each foreground pixel sample, and A j represents the area of the pixel unit measured in the image of the group ω j . Sum of posterior probabilities constituting the molecule of the equation
Figure 112007040591011-pat00017
Denotes the number of foreground pixel samples belonging to the cluster ω j .
제1항에 있어서, 복수의 군집들을 병합하는 방법은,The method of claim 1, wherein the method of merging a plurality of clusters comprises: 상기 복수의 군집들 중에서 선택된 두 군집의 결합력이 제3 경계값보다 클 경우 상기 두 군집을 병합하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method according to the clustering of the foreground pixels, characterized in that for merging the two clusters when the coupling force of the two selected from the plurality of clusters is greater than the third boundary value. 제19항에 있어서, 상기 두 군집의 결합력은,The method of claim 19, wherein the binding force of the two clusters, 상기 두 군집 사이의 상관 계수를 산출하여 측정하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.And separating and measuring a correlation coefficient between the two clusters. 제20항에 있어서, 상기 상관 계수는,The method of claim 20, wherein the correlation coefficient, 하기 수학식에 의해 산출되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method which is individual gait by clustering foreground pixels, which is calculated by the following equation.
Figure 112007040591011-pat00018
Figure 112007040591011-pat00018
이때, 상기 ρjk는 상관 계수이며, [-1, 1] 사이의 분포를 갖는다. 상기 X는 공분산과 분산을 구하기 위해 기대값을 계산할 해당 확률 분포인 전경 화소의 좌표 값을 나타내는 확률 변수이다.In this case, ρ jk is a correlation coefficient and has a distribution between [-1, 1]. X is a random variable representing a coordinate value of a foreground pixel, which is a corresponding probability distribution for calculating an expected value to obtain covariance and variance.
제20항에 있어서, 상기 상관 계수는,The method of claim 20, wherein the correlation coefficient, 하기 수학식에 의해 산출되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method which is individual gait by clustering foreground pixels, which is calculated by the following equation.
Figure 112007040591011-pat00019
Figure 112007040591011-pat00019
이때, n은 전경 화소 표본의 전체 개수를 나타낸다.In this case, n represents the total number of foreground pixel samples.
제22항에 있어서, 상기 각 군집의 매개 변수 μj 및 μk는 각각 하기 수학식에 의해 산출되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.23. The method of claim 22, wherein the parameters μ j and μ k of each cluster are calculated by the following equations, respectively.
Figure 112007040591011-pat00020
,
Figure 112007040591011-pat00021
Figure 112007040591011-pat00020
,
Figure 112007040591011-pat00021
제1항에 있어서, 상기 개별 보행인을 식별하는 단계는,The method of claim 1, wherein identifying the individual walker is: 상기 두 군집에 대한 병합 과정을 상기 군집의 제거 과정보다 먼저 수행하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.The method of claim 1, wherein the merging of the two clusters is performed prior to the removing of the clusters. 제1항에 있어서, 상기 개별 보행인을 식별하는 단계는,The method of claim 1, wherein identifying the individual walker is: 상기 해당 군집의 정규화된 사후 점수가 제4 경계값보다 클 경우, 상기 해당 군집을 하나의 개별 보행인으로 판단하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.And if the normalized post score of the corresponding cluster is greater than a fourth boundary value, determining the corresponding cluster as one individual pedestrian. 제25항에 있어서, 상기 정규화된 사후 점수는,The method of claim 25, wherein the normalized post score is: 하기 수학식과 같이 산출됨을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method of the individual walk by clustering the foreground pixels, characterized in that calculated as shown in the following equation.
Figure 112007040591011-pat00022
Figure 112007040591011-pat00022
이때, 상기 xi는 각 전경 화소 표본을 나타내고, Aj는 군집 ωj의 영상에서 측정된 화소 단위의 면적을 나타낸다. 상기 수학식의 분자를 구성하는 사후 확률들의 합
Figure 112007040591011-pat00023
는 군집 ωj에 속하는 전경 화소 표본의 개수를 의미한다.
In this case, x i represents each foreground pixel sample, and A j represents the area of the pixel unit measured in the image of the group ω j . Sum of posterior probabilities constituting the molecule of the equation
Figure 112007040591011-pat00023
Denotes the number of foreground pixel samples belonging to the cluster ω j .
제1항에 있어서, 상기 개별 보행인을 식별하는 단계는,The method of claim 1, wherein identifying the individual walker is: 상기 군집들 중에서 선택된 두 군집에 대해 각각의 정규화된 사후 점수가 제4 경계값보다 작으며, 상기 두 군집 간의 상관 계수가 제3 경계값보다 클 경우, 상기 두 군집을 병합하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.The normalized post-score for each of the two selected clusters is less than a fourth boundary value, and when the correlation coefficient between the two clusters is greater than a third boundary value, the two clusters are merged. Separation method which is individual gait by clustering of pixels. 제27항에 있어서, 상기 두 군집 간의 병합은,The method of claim 27, wherein the merging between the two clusters, 깊이 우선 탐색 방법을 이용하여 병합할 군집 그룹을 결정하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separating method for individual walks by clustering foreground pixels, wherein the group of clusters to be merged is determined using a depth-first search method. 제27항에 있어서, 상기 정규화된 사후 점수는,The method of claim 27, wherein the normalized post score is: 하기 수학식과 같이 산출됨을 특징으로 하는 전경 화소의 군집화에 의한 개 별 보행인 분리 방법.The separation method of the individual walk by clustering the foreground pixels, characterized in that calculated as follows.
Figure 112007040591011-pat00024
Figure 112007040591011-pat00024
이때, 상기 xi는 각 전경 화소 표본을 나타내고, Aj는 군집 ωj의 영상에서 측정된 화소 단위의 면적을 나타낸다. 상기 수학식의 분자를 구성하는 사후 확률들의 합
Figure 112007040591011-pat00025
는 군집 ωj에 속하는 전경 화소 표본의 개수를 의미한다.
In this case, x i represents each foreground pixel sample, and A j represents the area of the pixel unit measured in the image of the group ω j . Sum of posterior probabilities constituting the molecule of the equation
Figure 112007040591011-pat00025
Denotes the number of foreground pixel samples belonging to the cluster ω j .
제27항에 있어서, 상기 상관 계수는,The method of claim 27, wherein the correlation coefficient, 하기 수학식에 의해 산출되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method which is individual gait by clustering foreground pixels, which is calculated by the following equation.
Figure 112007040591011-pat00026
Figure 112007040591011-pat00026
이때, n은 전경 화소 표본의 전체 개수를 나타낸다.In this case, n represents the total number of foreground pixel samples.
제30항에 있어서, 상기 각 군집의 매개 변수 μj 및 μk는 각각 하기 수학식에 의해 산출되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.31. The method of claim 30, wherein the parameters μ j and μ k of each cluster are calculated by the following equation, respectively.
Figure 112007040591011-pat00027
,
Figure 112007040591011-pat00028
Figure 112007040591011-pat00027
,
Figure 112007040591011-pat00028
제1항에 있어서, 상기 개별 보행인을 식별하는 단계는,The method of claim 1, wherein identifying the individual walker is: 상기 해당 군집의 정규화된 사후 점수가 제4 경계값보다 작으며, 상기 군집들 중 다른 모든 군집과의 상관 계수가 제3 경계값보다 작을 경우, 상기 해당 군집을 제거하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.If the normalized post score of the corresponding cluster is smaller than a fourth boundary value, and the correlation coefficient with all other clusters among the clusters is smaller than a third boundary value, the corresponding cluster is removed. Separation method of individual gait by clustering. 제32항에 있어서, 상기 군집의 제거는,33. The method of claim 32, wherein removing the population is 각 군집들의 정규화된 사후 점수가 작은 군집부터 오름차순으로 수행하는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.A method for separating individual walks by clustering foreground pixels, wherein the normalized post scores of the clusters are performed in ascending order from the smallest cluster. 제32항에 있어서, 상기 정규화된 사후 점수는,The method of claim 32, wherein the normalized post-mortem score, 하기 수학식과 같이 산출됨을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method of the individual walk by clustering the foreground pixels, characterized in that calculated as shown in the following equation.
Figure 112007040591011-pat00029
Figure 112007040591011-pat00029
이때, 상기 xi는 각 전경 화소 표본을 나타내고, Aj는 군집 ωj의 영상에서 측정된 화소 단위의 면적을 나타낸다. 상기 수학식의 분자를 구성하는 사후 확률들의 합
Figure 112007040591011-pat00030
는 군집 ωj에 속하는 전경 화소 표본의 개수를 의미한다.
In this case, x i represents each foreground pixel sample, and A j represents the area of the pixel unit measured in the image of the group ω j . Sum of posterior probabilities constituting the molecule of the equation
Figure 112007040591011-pat00030
Denotes the number of foreground pixel samples belonging to the cluster ω j .
제32항에 있어서, 상기 상관 계수는,The method of claim 32, wherein the correlation coefficient, 하기 수학식에 의해 산출되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.Separation method which is individual gait by clustering foreground pixels, which is calculated by the following equation.
Figure 112007040591011-pat00031
Figure 112007040591011-pat00031
이때, n은 전경 화소 표본의 전체 개수를 나타낸다.In this case, n represents the total number of foreground pixel samples.
제35항에 있어서, 상기 각 군집의 매개 변수 μj 및 μk는 각각 하기 수학식에 의해 산출되는 것을 특징으로 하는 전경 화소의 군집화에 의한 개별 보행인 분리 방법.36. The method of claim 35, wherein the parameters μ j and μ k of each cluster are respectively calculated by the following equation.
Figure 112007040591011-pat00032
,
Figure 112007040591011-pat00033
Figure 112007040591011-pat00032
,
Figure 112007040591011-pat00033
제1항 내지 제36항 중에서 선택된 어느 한 항에 따른 방법을 수행할 수 있는 프로그램이 수록된 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium containing a program capable of performing the method according to any one of claims 1 to 36.
KR1020070054261A 2007-06-04 2007-06-04 Method for separating individual pedestrians by clustering foreground pixels KR100865531B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070054261A KR100865531B1 (en) 2007-06-04 2007-06-04 Method for separating individual pedestrians by clustering foreground pixels

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070054261A KR100865531B1 (en) 2007-06-04 2007-06-04 Method for separating individual pedestrians by clustering foreground pixels

Publications (1)

Publication Number Publication Date
KR100865531B1 true KR100865531B1 (en) 2008-10-29

Family

ID=40177650

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070054261A KR100865531B1 (en) 2007-06-04 2007-06-04 Method for separating individual pedestrians by clustering foreground pixels

Country Status (1)

Country Link
KR (1) KR100865531B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140132076A (en) * 2013-05-07 2014-11-17 현대모비스 주식회사 Method for detecting pedestrians based on far infrared ray camera at night
KR20150038973A (en) * 2013-10-01 2015-04-09 에스케이텔레콤 주식회사 Method and Apparatus for Access Control Using Image

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086417A (en) 2002-08-26 2004-03-18 Gen Tec:Kk Method and device for detecting pedestrian on zebra crossing
JP2006010652A (en) 2004-06-29 2006-01-12 Toyota Motor Corp Object-detecting device
KR20060100341A (en) * 2006-08-30 2006-09-20 (주)로직아이텍 Image monitoring system for object identification

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004086417A (en) 2002-08-26 2004-03-18 Gen Tec:Kk Method and device for detecting pedestrian on zebra crossing
JP2006010652A (en) 2004-06-29 2006-01-12 Toyota Motor Corp Object-detecting device
KR20060100341A (en) * 2006-08-30 2006-09-20 (주)로직아이텍 Image monitoring system for object identification

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
논문 : CAIP 2003 국제컨퍼런스

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140132076A (en) * 2013-05-07 2014-11-17 현대모비스 주식회사 Method for detecting pedestrians based on far infrared ray camera at night
KR102021152B1 (en) * 2013-05-07 2019-09-11 현대모비스 주식회사 Method for detecting pedestrians based on far infrared ray camera at night
KR20150038973A (en) * 2013-10-01 2015-04-09 에스케이텔레콤 주식회사 Method and Apparatus for Access Control Using Image
KR102054999B1 (en) * 2013-10-01 2019-12-11 에스케이 텔레콤주식회사 Method and Apparatus for Access Control Using Image

Similar Documents

Publication Publication Date Title
JP4216668B2 (en) Face detection / tracking system and method for detecting and tracking multiple faces in real time by combining video visual information
CN101853391B (en) Information processing device and method
KR101764845B1 (en) A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof
Pless et al. Evaluation of local models of dynamic backgrounds
US11443454B2 (en) Method for estimating the pose of a camera in the frame of reference of a three-dimensional scene, device, augmented reality system and computer program therefor
US9275472B2 (en) Real-time player detection from a single calibrated camera
Avgerinakis et al. Recognition of activities of daily living for smart home environments
US20060067562A1 (en) Detection of moving objects in a video
KR101697161B1 (en) Device and method for tracking pedestrian in thermal image using an online random fern learning
US20180096209A1 (en) Non-transitory computer-readable storage medium, event detection apparatus, and event detection method
Zhao et al. Stochastic human segmentation from a static camera
Kalirajan et al. Moving object detection for video surveillance
JP2019109709A (en) Image processing apparatus, image processing method and program
KR20110020718A (en) Target analysis apparatus and method of the same
US20140093142A1 (en) Information processing apparatus, information processing method, and information processing program
Fradi et al. Spatio-temporal crowd density model in a human detection and tracking framework
CN111091057A (en) Information processing method and device and computer readable storage medium
KR101406334B1 (en) System and method for tracking multiple object using reliability and delayed decision
KR102366777B1 (en) Apparatus and method for domain adaptation-based object recognition
KR100865531B1 (en) Method for separating individual pedestrians by clustering foreground pixels
WO2022228325A1 (en) Behavior detection method, electronic device, and computer readable storage medium
Baptista-Ríos et al. Human activity monitoring for falling detection. A realistic framework
CN115272967A (en) Cross-camera pedestrian real-time tracking and identifying method, device and medium
Marques et al. Human face segmentation and tracking using connected operators and partition projection
Lo et al. Vanishing point-based line sampling for real-time people localization

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121019

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20130924

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20141020

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20151021

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20161021

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20171020

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20181015

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20191015

Year of fee payment: 12