KR100907096B1 - Method and apparatus for estimating traffic - Google Patents
Method and apparatus for estimating traffic Download PDFInfo
- Publication number
- KR100907096B1 KR100907096B1 KR1020070115555A KR20070115555A KR100907096B1 KR 100907096 B1 KR100907096 B1 KR 100907096B1 KR 1020070115555 A KR1020070115555 A KR 1020070115555A KR 20070115555 A KR20070115555 A KR 20070115555A KR 100907096 B1 KR100907096 B1 KR 100907096B1
- Authority
- KR
- South Korea
- Prior art keywords
- traffic
- pixel
- moving object
- virtual
- motion vector
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/53—Recognition of crowd images, e.g. recognition of crowd congestion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/254—Analysis of motion involving subtraction of images
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
통행량 추정 방법 및 장치가 개시된다. 통행량 추정 방법은 하나 이상의 가상 문(virtual gate)에 대한 설정 정보를 저장하는 단계; 비디오 센서로부터 입력되는 비디오 데이터의 각 프레임을 이용하여 이동체에 대한 전경 영역(foreground region)을 분리하는 단계; 및 상기 가상 문에 겹쳐지는 전경 영역의 픽셀 수를 카운트하여 상응하는 통행량 값을 산출하는 단계를 포함한다. 본 발명에 의해, 이미 설치된 영상 생성 장치를 범용적으로 이용할 수 있고, 관찰 시점 및/또는 사람간의 겹쳐짐에 의해 측정 결과가 왜곡되지 않는 장점이 있다.
통행량, 영상 해석, 비디오 데이터, 영상 감시
A traffic estimation method and apparatus are disclosed. The traffic estimation method includes storing configuration information about one or more virtual gates; Separating a foreground region for the moving object using each frame of video data input from the video sensor; And calculating a corresponding traffic amount value by counting the number of pixels of the foreground area overlapping the virtual door. According to the present invention, there is an advantage in that the image generating apparatus already installed can be used universally, and the measurement results are not distorted due to overlap between the viewpoints and / or humans.
Traffic volume, video analysis, video data, video surveillance
Description
본 발명은 영상 감시에 관한 것으로, 특히 입력된 비디오 데이터를 이용하여 통행량을 측정하는 방법 및 장치에 관한 것이다.The present invention relates to video surveillance, and more particularly, to a method and apparatus for measuring a traffic volume using input video data.
우체국, 공항 등의 공공 장소, 백화점, 복합 시설물 등과 같이 유동 인원이 많은 장소에서는 CCTV 등을 이용한 영상 감시가 일반적으로 행해지고 있다. 또한, 영상 생성 장치는 보안과 안전 관리의 목적을 달성하기 위해 다양한 위치에 개별적으로 설치되어 동작하며, 영상 생성 장치에 의해 생성된 비디오 데이터는 작업자의 모니터링을 위해 중앙 감시 센터로 제공된다. Video surveillance using CCTV is generally performed in public places such as post offices, airports, department stores, and complex facilities. In addition, the image generating device is individually installed and operated in various locations to achieve the purpose of security and safety management, the video data generated by the image generating device is provided to the central monitoring center for the operator's monitoring.
근래에, 영상 생성 장치에 의해 획득된 비디오 데이터를 보안과 안전 관리의 목적 외에 통행량 측정의 용도로도 활용하기 위한 다양한 시도가 행해지고 있다. 이러한 종래 기술들로는 사람 검출자(detector) 또는 사람 모델링을 이용하는 방식, 경계 검출자(edge detector)를 기반으로 하는 방식 등이 있다.In recent years, various attempts have been made to utilize the video data acquired by the image generating apparatus for the purpose of traffic measurement in addition to the purpose of security and safety management. Such conventional techniques include a method using a human detector or human modeling, a method based on an edge detector, and the like.
사람 검출자 또는 사람 모델링을 이용하는 종래 기술에 따를때, 사람을 인식 하고 추적할 수 있어 사람 수를 비교적 정확하게 추정할 수 있는 장점은 있으나, 카메라의 시점(viewpoint)에 의존적이며 사람들간에 겹쳐짐(occlusion)이 발생했을 때 인식 성공률이 저하되며, 실시간 동작이 어려운 단점이 있다.According to the prior art using a person detector or a person modeling, there is an advantage in that the number of people can be estimated relatively accurately due to the recognition and tracking of a person, but it is dependent on the camera's viewpoint and occlusion between people. ), The recognition success rate decreases, and real-time operation is difficult.
이에 비해, 경계 검출자를 기반으로 통행량을 측정하는 방식은 사람의 머리 모양이나 어깨의 윤곽 등을 검출함으로써 여러 사람이 동시에 등장하는 영상에서도 정확한 인식이 가능하다는 장점이 있다. 그러나, 계산의 복잡도가 높아 실시간 동작이 어려운 단점이 있다.On the other hand, the method of measuring the traffic volume based on the boundary detector has an advantage that accurate recognition can be performed even in an image in which several people appear at the same time by detecting the shape of a person's head or shoulder. However, there is a disadvantage in that real-time operation is difficult due to the complexity of the calculation.
상술한 바와 같이, 비디오 데이터를 이용한 종래의 통행량 추정 방법은 관찰 시점(viewpoint) 및/또는 사람간의 겹쳐짐(occlusion)에 따라 측정 결과가 왜곡될 수 있고, 계산의 복잡을 야기한다는 문제가 있었다.As described above, the conventional traffic estimation method using the video data has a problem that the measurement result may be distorted depending on the viewpoint and / or occlusion between people and causes a complicated calculation.
이러한 종래 기술을 극복하기 위하여, 천정 시점(top-point) 카메라를 이용한 사람 인식 방법이 제시되었다. 이 방법은 천정 시점의 영상을 이용함으로써 입력 영상에서 사람끼리의 겹쳐짐이 발생되지 않아 정확하게 이동하는 사람의 숫자를 측정할 수 있는 장점을 가진다. 그러나, 이 방법은 카메라를 천정에 설치하여야 하므로 복합 시설물과 같은 넓은 공간에 쉽게 활용될 수 없는 한계를 가지며, 이미 설치된 CCTV 시스템과는 별도의 영상 생성 장치(예를 들어, 카메라 등)를 부수적으로 설치하여야 하는 문제점이 있었다.In order to overcome this prior art, a person recognition method using a top-point camera has been proposed. This method has an advantage of measuring the number of people moving accurately because the overlapping of people does not occur in the input image by using the image of the ceiling view. However, this method has a limitation that it cannot be easily used in a large space such as a complex facility because the camera must be installed on the ceiling, and additionally a video generating device (for example, a camera, etc.) separate from an already installed CCTV system is additionally used. There was a problem to install.
본 발명은 영상 생성 장치에 의해 생성된 비디오 데이터를 다양한 목적으로 이용할 수 있도록 하는 통행량 추정 방법 및 장치를 제공하기 위한 것이다.The present invention is to provide a method and apparatus for estimating traffic volume that makes it possible to use video data generated by an image generating apparatus for various purposes.
본 발명은 이미 설치된 영상 생성 장치를 범용적으로 이용하여 통행량 추정이 가능한 통행량 추정 방법 및 장치를 제공하기 위한 것이다.The present invention is to provide a method and apparatus for estimating traffic volume by using the image generating apparatus already installed in general.
본 발명은 관찰 시점(viewpoint) 및/또는 사람간의 겹쳐짐(occlusion)에 관계없이 측정 결과가 왜곡되지 않는 통행량 추정 방법 및 장치를 제공하기 위한 것이다.The present invention is to provide a method and apparatus for estimating traffic volume in which the measurement result is not distorted regardless of the viewpoint and / or occlusion between humans.
본 발명은 비디오 데이터를 이용하여 통행량 추정을 수행함에 있어 계산의 복잡도를 최소화할 수 있는 통행량 추정 방법 및 장치를 제공하기 위한 것이다. The present invention is to provide a traffic estimation method and apparatus that can minimize the complexity of the calculation in performing traffic estimation using video data.
본 발명은 영상 감시를 하는 관리자가 효율적으로 이동체(예를 들어, 사람, 차량, 동물 등)의 수나 붐비는 정도, 통행량 등을 예측할 수 있도록 하는 통행량 추정 방법 및 장치를 제공하기 위한 것이다. An object of the present invention is to provide a traffic estimation method and apparatus for allowing an administrator for video surveillance to efficiently predict the number of moving objects (for example, people, vehicles, animals, etc.), the degree of crowding, the amount of traffic, and the like.
본 발명은 효율적인 이동로 설계, 시설물 배치 및 비상시 탈출 경로 안내 등을 위해 통행량 추정 결과가 활용될 수 있도록 하는 통행량 추정 방법 및 장치를 제공하기 위한 것이다. The present invention is to provide a method and apparatus for estimating traffic volume so that the traffic estimation result can be utilized for efficient moving path design, facility arrangement, and escape route guidance during an emergency.
본 발명의 이외의 목적은 하기 설명될 실시예를 통해 보다 구체적으로 이해될 수 있을 것이다.Objects other than the present invention will be understood more specifically through the examples to be described below.
본 발명의 일 측면에 따르면, 통행량 추정 장치가 제공된다.According to one aspect of the present invention, a traffic estimation apparatus is provided.
본 발명의 일 실시예에 따른 통행량 추정 장치는 하나 이상의 가상 문(virtual gate)의 설정을 위한 설정 정보가 저장되는 저장부; 및 비디오 센서로부터 입력되는 비디오 데이터의 각 프레임을 이용하여 이동체에 대한 전경 영역(foreground region)을 분리하고, 상기 가상 문에 겹쳐지는 전경 영역의 픽셀 수를 카운트하여 추정한 통행량 값을 출력하는 통행량 추정부를 포함할 수 있다.In one embodiment, a traffic estimating apparatus includes: a storage unit configured to store setting information for setting one or more virtual gates; And a traffic volume estimation for separating the foreground region of the moving object using each frame of video data input from the video sensor, counting the number of pixels of the foreground region overlapping the virtual door, and outputting an estimated traffic volume value. It may include wealth.
상기 통행량 추정 장치는 상기 이동체에 포함되는 각 픽셀에 대한 모션 벡터를 산출하고, 상기 모션 벡터의 방향 성분에 따른 통행량 값을 구분하여 출력할 수 있다.The traffic estimating apparatus may calculate a motion vector for each pixel included in the moving object, and output a traffic amount value according to a direction component of the motion vector.
상기 통행량 추정 장치는 상기 비디오 데이터에 따른 3차원 공간 정보를 이용하여 행렬을 구성하고, 각 픽셀 위치마다 상이한 가중치를 곱하여 각 픽셀을 정규화할 수 있다. 여기서, 상기 행렬은 타원 행렬일 수 있으며, 상기 이동체에 부합하도록 투영될 수 있다.The traffic estimating apparatus may construct a matrix by using three-dimensional spatial information according to the video data, and normalize each pixel by multiplying different weights for each pixel position. Here, the matrix may be an elliptic matrix and may be projected to correspond to the moving object.
상기 이동체의 평균 면적은 상기 이동체를 타원체로 모델링하여 2차원 영상으로 투영하여 획득될 수 있으며, 상기 이동체의 타원체로의 모델링은 상기 비디오 센서의 투영 행렬 P와 3차원 타원체 Q와의 연산에 의해 산출되며, 상기 투영 행렬 P와 상기 3차원 타원체 Q와의 연산에 의해 산출되며, 하기 수학식으로 표현된다. The average area of the moving object may be obtained by modeling the moving object as an ellipsoid and projecting it into a two-dimensional image. The modeling of the moving object as an ellipsoid is calculated by calculation of the projection matrix P of the video sensor and the three-dimensional ellipsoid Q. Is calculated by calculation of the projection matrix P and the three-dimensional ellipsoid Q, and is expressed by the following equation.
C-1=PQ-1PT C -1 = PQ -1 P T
여기서, C는 상기 이동체에 부합하도록 투영되는 타원체의 행렬식을 나타내고, h는 상기 이동체의 높이로 특정된 상수, r은 타원체의 단축에 해당하는 값으로 특정된 상수, x 및 y는 상기 이동체의 위치일 수 있다.Here, C denotes a determinant of an ellipsoid projected to correspond to the mobile body, h is a constant specified by the height of the mobile body, r is a constant specified by a value corresponding to a short axis of the ellipsoid, and x and y are positions of the mobile body. Can be.
상기 가중치는 에 의해 산출될 수 있으며, area(ei)는 픽셀 i의 위치에서 투영된 타원 ei의 면적일 수 있다.The weight is And area (e i ) may be the area of ellipse e i projected at the location of pixel i.
상기 이동체의 통행량 값은 하기 수학식에 의해 산출된다. 여기서, Gate는 상기 가상문에 상응하는 픽셀들의 집합, x는 가상 문상의 픽셀, a는 스케일링 팩터(scaling factor)로서의 상수, w(x)는 상기 비디오 센서의 원근 투영에 대한 영향을 보상하기 위한 가중치, FG(x)는 해당 픽셀 x가 전경 픽셀인 경우에는 1로 설정되고 그렇지 않은 경우에는 0으로 설정되는 상수, |vx|는 픽셀 x의 위치에서의 모션 벡터의 크기, 는 모션 벡터와 가상문간의 각일 수 있다.The traffic amount value of the moving body is calculated by the following equation. Here, Gate is a set of pixels corresponding to the virtual statement, x is a pixel of the virtual sentence, a is a constant as a scaling factor, w (x) is for compensating the influence on the perspective projection of the video sensor. Weight, FG (x) is a constant that is set to 1 if the pixel x is the foreground pixel, otherwise it is set to 0, | v x | is the magnitude of the motion vector at the position of pixel x, May be the angle between the motion vector and the virtual statement.
상기 통행량 값은 카운트된 픽셀 수를 반올림하여 생성될 수 있다.The traffic amount value may be generated by rounding up the counted number of pixels.
본 발명의 다른 측면에 따르면, 통행량 추정 방법 및 통행량 추정 방법이 기록된 기록매체가 제공된다.According to another aspect of the present invention, there is provided a recording medium on which a traffic estimation method and a traffic estimation method are recorded.
본 발명의 일 실시예에 따른 통행량 추정 방법은, 하나 이상의 가상 문(virtual gate)에 대한 설정 정보를 저장하는 단계; 비디오 센서로부터 입력되는 비디오 데이터의 각 프레임을 이용하여 이동체에 대한 전경 영역(foreground region)을 분리하는 단계; 및 상기 가상 문에 겹쳐지는 전경 영역의 픽셀 수를 카운트하여 상응하는 통행량 값을 산출하는 단계를 포함할 수 있다.A traffic estimation method according to an embodiment of the present invention includes the steps of storing setting information for one or more virtual gates; Separating a foreground region for the moving object using each frame of video data input from the video sensor; And calculating a corresponding traffic amount value by counting the number of pixels of the foreground area overlapping the virtual door.
상기 이동체에 포함되는 각 픽셀에 대한 모션 벡터를 산출하는 단계가 상기 전경 영역을 분리하는 단계 직전, 직후 또는 병행하여 수행될 수 있다.The calculating of the motion vector for each pixel included in the moving object may be performed immediately before, immediately after, or in parallel with the separating of the foreground area.
상기 통행량 값을 산출하는 단계 이전에, 상기 비디오 데이터에 따른 3차원 공간 정보를 이용하여 행렬을 구성하고, 각 픽셀 위치마다 상이한 가중치를 곱하여 각 픽셀을 정규화하는 단계가 더 수행될 수 있다. 여기서, 상기 행렬은 타원 행렬이며, 상기 이동체에 부합하도록 투영될 수 있다.Prior to calculating the traffic volume value, a step of constructing a matrix using three-dimensional spatial information according to the video data and normalizing each pixel by multiplying different weights at each pixel position may be performed. Here, the matrix is an elliptic matrix and may be projected to correspond to the moving object.
상기 이동체의 평균 면적은 상기 이동체를 타원체로 모델링하여 2차원 영상으로 투영하여 획득될 수 있으며, 상기 이동체의 타원체로의 모델링은 상기 비디오 센서의 투영 행렬 P와 3차원 타원체 Q와의 연산에 의해 산출되며, 상기 투영 행렬 P와 상기 3차원 타원체 Q와의 연산에 의해 산출되며, 하기 수학식으로 표현된다.The average area of the moving object may be obtained by modeling the moving object as an ellipsoid and projecting it into a two-dimensional image. The modeling of the moving object as an ellipsoid is calculated by calculation of the projection matrix P of the video sensor and the three-dimensional ellipsoid Q. Is calculated by calculation of the projection matrix P and the three-dimensional ellipsoid Q, and is expressed by the following equation.
C-1=PQ-1PT C -1 = PQ -1 P T
여기서, C는 상기 이동체에 부합하도록 투영되는 타원체의 행렬식을 나타내고, h는 상기 이동체의 높이로 특정된 상수, r은 타원체의 단축에 해당하는 값으로 특정된 상수, x 및 y는 상기 이동체의 위치일 수 있다.Here, C denotes a determinant of an ellipsoid projected to correspond to the mobile body, h is a constant specified by the height of the mobile body, r is a constant specified by a value corresponding to a short axis of the ellipsoid, and x and y are positions of the mobile body. Can be.
상기 가중치는 에 의해 산출될 수 있다. 여기서, area(ei)는 픽셀 i의 위치에서 투영된 타원 ei의 면적일 수 있다.The weight is Can be calculated by Here, area e i may be the area of the ellipse e i projected at the position of pixel i.
상기 이돛체의 통행량 값은 하기 수학식에 의해 산출된다. 여기서, xGate는 상기 가상문에 상응하는 픽셀들의 집합, x는 가상 문상의 픽셀, a는 스케일링 팩터(scaling factor)로서의 상수, w(x)는 상기 비디오 센서의 원근 투영에 대한 영향을 보상하기 위한 가중치, FG(x)는 해당 픽셀 x가 전경 픽셀인 경우에는 1로 설정되고 그렇지 않은 경우에는 0으로 설정되는 상수, |vx|는 픽셀 x의 위치에서의 모션 벡터의 크기, 는 모션 벡터와 가상문간의 각일 수 있다.The amount of traffic of the moving body is calculated by the following equation. Here, xGate is a set of pixels corresponding to the virtual statement, x is a pixel of the virtual sentence, a is a constant as a scaling factor, w (x) is for compensating the effect on the perspective projection of the video sensor. Weight, FG (x) is a constant that is set to 1 if the corresponding pixel x is a foreground pixel, otherwise it is set to 0, | v x | is the magnitude of the motion vector at the position of pixel x, May be the angle between the motion vector and the virtual statement.
본 발명은 영상 생성 장치에 의해 생성된 비디오 데이터를 다양한 목적으로 이용할 수 있도록 하는 효과가 있다.The present invention has the effect of enabling the video data generated by the image generating apparatus to be used for various purposes.
본 발명은 이미 설치된 영상 생성 장치를 범용적으로 이용하여 통행량 추정이 가능한 효과도 있다.The present invention also has the effect that it is possible to estimate the amount of traffic by using the image generating device already installed universally.
본 발명은 관찰 시점(viewpoint) 및/또는 사람간의 겹쳐짐(occlusion)에 관계없이 측정 결과가 왜곡되지 않는 효과도 있다.The present invention also has the effect that the measurement results are not distorted regardless of the viewpoint and / or occlusion between humans.
본 발명은 비디오 데이터를 이용하여 통행량 추정을 수행함에 있어 계산의 복잡도를 최소화할 수 있는 효과도 있다.The present invention also has the effect of minimizing the complexity of calculation in performing traffic estimation using video data.
본 발명은 영상 감시를 하는 관리자가 효율적으로 이동체(예를 들어, 사람, 차량, 동물 등)의 수나 붐비는 정도, 통행량 등을 예측할 수 있도록 하는 효과도 있다.The present invention also has the effect of allowing the administrator of the video surveillance to effectively predict the number of moving objects (for example, people, vehicles, animals, etc.), the degree of crowding, the amount of traffic, and the like.
본 발명은 효율적인 이동로 설계, 시설물 배치 및 비상시 탈출 경로 안내 등을 위해 통행량 추정 결과가 활용될 수 있도록 하는 효과도 있다.The present invention also has the effect that the traffic estimation results can be utilized for efficient mobility design, facility layout and emergency escape route guidance.
본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. As the invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all modifications, equivalents, and substitutes included in the spirit and scope of the present invention.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. "및/또는" 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. Terms including ordinal numbers such as first and second may be used to describe various components, but the components are not limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as the second component, and similarly, the second component may also be referred to as the first component. The term “and / or” includes any combination of a plurality of related items or any item of a plurality of related items.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.
본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular example embodiments only and is not intended to be limiting of the present invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.
이하, 첨부한 도면들을 참조하여 본 발명에 따른 실시예를 상세히 설명하기로 하며, 첨부 도면을 참조하여 설명함에 있어 도면 부호에 상관없이 동일하거나 대응하는 구성 요소는 동일한 참조번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, and in the following description with reference to the accompanying drawings, the same or corresponding elements are denoted by the same reference numerals, and duplicated thereto. The description will be omitted.
본 명세서에서 비디오 데이터는 아날로그 및/또는 디지털 형식으로 표현되는 모션 픽처(동영상)를 의미한다. 비디오 데이터의 예로는 비디오 센서로부터 입력되는 모션 픽처, 텔레비젼, 영화 또는 다른 관찰자로부터의 이미지 시퀀스 및 컴퓨터 -생성 이미지 시퀀스 등을 포함할 수 있다. 그리고, 비디오 데이터는 초음파 센서, 적외선 센서, 적외선 카메라 등에 의해 획득된 정보를 포함할 수도 있다. 즉, 다른 센서들에 의해 획득된 정보에 대해 이하에서 설명될 통행량 측정 방법이 동일 또는 유사하게 적용됨으로써 동일한 효과를 얻을 수 있음은 당업자에게 자명하다.In the present specification, video data refers to a motion picture (video) expressed in analog and / or digital format. Examples of video data may include motion pictures input from video sensors, image sequences from televisions, movies, or other observers, computer-generated image sequences, and the like. The video data may include information obtained by an ultrasonic sensor, an infrared sensor, an infrared camera, or the like. That is, it will be apparent to those skilled in the art that the same amount of traffic measuring method described below can be applied to the information obtained by other sensors in the same or similar manner, thereby obtaining the same effect.
또한, 프레임(frame)은 하나의 비디오 데이터 내의 특정 이미지 또는 다른 개별 단위를 의미한다.Also, a frame refers to a specific image or other individual unit in one video data.
도 1은 본 발명의 일 실시예에 따른 통행량 추정 시스템의 구성도이다.1 is a block diagram of a traffic estimation system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명에 따른 통행량 추정 시스템(100)은 비디오 센서(110), 비디오 레코더(120), 통행량 추정 장치(130), I/O 장치(140)를 포함할 수 있다. 물론, 일부 구성 요소(예를 들어, 비디오 레코더(120) 등)는 생략될 수도 있다.Referring to FIG. 1, the
비디오 센서(110)는 통행량 추정 장치(130)에 비디오 데이터를 제공한다. 비디오 센서(110)는 예를 들어 직접 접속 또는 네트워크를 통해 통행량 추정 장치(130)에 연결될 수 있다. 비디오 센서(110)는 예를 들어 CCTV 카메라, 비디오 카메라, 디지털 비디오 카메라, 컬러 카메라, 캠코더, PC 카메라, 웹캠 등 중 하나 이상을 포함할 수 있다.The
비디오 레코더(120)는 저장을 위해 통행량 추정 장치(130) 또는 비디오 센서(110)로부터 비디오 데이터를 수신하여 저장한다. 또한, 비디오 레코더(120)는 통행량 추정 장치(130)로 비디오 데이터를 제공할 수도 있다. 비디오 레코더(120) 는 직접 접속 또는 네트워크를 통해 통행량 추정 장치(130)에 연결될 수 있다. 비디오 레코더는 예를 들어 비디오 테이프 레코더, 디지털 비디오 레코더, 비디오 디스크, DVD 및 컴퓨터-판독 가능한 기록 매체 등 중 하나 이상을 포함할 수 있다.The
통행량 추정 장치(130)는 비디오 센서(110) 또는 비디오 레코더(120)로부터 입력된 비디오 데이터를 이용하여 관찰 공간 내 이동하는 이동체(예를 들어, 사람, 차량, 동물 등)의 수 및 통행량 등 중 하나 이상을 추정하기 위한 연산을 수행한다. The
통행량 추정 장치(130)는 통행량 추정 등을 위해 독립된 장치로 구현될 수도 있으나, 상술한 연산 및/또는 처리를 수행하기 위한 소프트웨어가 설치된 컴퓨터 시스템으로 구현될 수도 있다. 컴퓨터 시스템이란 컴퓨터를 포함하는 시스템을 의미하며, 컴퓨터란 구조적 입력을 받아 규정된 규칙에 따라 처리하고 처리된 결과를 출력으로 생성할 수 있는 모든 장치를 의미한다. 컴퓨터의 예로는 통상의 컴퓨터, 슈퍼 컴퓨터, 워크스테이션, 대화형 텔레비전, 컴퓨터와 대화형 텔레비젼의 하이브리드 결합 및 컴퓨터를 에뮬레이팅하는 주문형 하드웨어 및/또는 소프트웨어 등이 있을 수 있다. 또한, 소프트웨어란 컴퓨터를 동작시키기 위해 규정된 규칙을 말하며, 예를 들어 통상의 소프트웨어, 코드 세그먼트, 명령어 조합, 컴퓨터 프로그램 및 프로그램된 로직 등이 포함될 수 있다.The
통행량 추정 장치(130)는 통행량 추정부(150)와 저장부(160)를 포함할 수 있다. 통행량 추정부(150)는 통행량 측정을 위해 전경 분리(220), 모션 벡터 산출(230) 등의 연산을 수행할 수 있으며, 상술한 처리를 수행하는 통행량 추정 부(150)는 소프트웨어 형태로 구현될 수도 있다. 통행량 추정부(150)의 구체적인 처리 내용은 이후 관련 도면을 참조하여 설명하기로 한다. The
I/O 장치(140)는 통행량 추정 장치(130)로 입력을 제공하고, 통행량 추정 장치(130)로부터 출력을 수신한다. I/O 장치(140)는 통행량 추정 장치(130)를 태스킹(tasking)하고, 통행량 추정 장치(130)로부터 제공된 데이터를 출력하는 등의 용도로 이용될 수 있다. I/O 장치(140)는 예를 들어 키보드, 마우스, 스타일러스, 모니터, 프린터, 터치 스크린 등 중 하나 이상을 포함할 수 있다. I /
도 2는 본 발명의 일 실시예에 따른 통행량 측정부의 처리 과정을 예시한 도면이고, 도 3은 본 발명의 일 실시예에 따른 가상 문(Virtual Gate) 설정 예를 나타낸 도면이며, 도 4는 본 발명의 일 실시예에 따른 전경 분리 처리를 나타낸 도면이다. 도 5는 본 발명의 일 실시예에 따른 모션 벡터 추출 결과를 예시한 도면이고, 도 6은 본 발명의 일 실시예에 따른 픽셀 크기 정규화를 위한 타원 투영 모델을 예시한 도면이며,도 7은 본 발명의 일 실시예에 따른 픽셀 수 보정 결과에 따라 통행량을 추정한 예를 도시한 도면이다. 도 8 및 도 9는 본 발명의 실시예에 따른 실험 결과를 각각 나타낸 도면이다. 2 is a view illustrating a process of a traffic measurement unit according to an embodiment of the present invention, Figure 3 is a view showing an example of setting a virtual gate (Virtual Gate) according to an embodiment of the present invention, Figure 4 A diagram illustrating foreground separation processing according to an embodiment of the present invention. 5 is a diagram illustrating a motion vector extraction result according to an embodiment of the present invention, FIG. 6 is a diagram illustrating an elliptic projection model for pixel size normalization according to an embodiment of the present invention, and FIG. FIG. Is a diagram illustrating an example of estimating a traffic amount according to a pixel number correction result according to an exemplary embodiment of the present invention. 8 and 9 are views showing the experimental results according to the embodiment of the present invention, respectively.
이하, 본 발명에 따른 통행량 측정을 설명함에 있어 이동체가 사람인 경우를 가정하여 설명한다. 그러나, 이동체가 차량 또는 동물 등으로 지정될지라도 동일한 기술적 사상이 적용될 수 있음은 당업자에게 자명하다.Hereinafter, in describing the traffic measurement according to the present invention, it is assumed that the moving object is a human. However, it will be apparent to those skilled in the art that the same technical spirit may be applied even if the moving object is designated as a vehicle or an animal.
일반적으로 통행량 측정은 단위 시간당 문(gate) 또는 통로(passage)를 통해 출입 및/또는 이동하는 이동체의 수를 측정하는 것이다. 그러나, 비디오 센서(110)에 의해 생성되어 입력되는 비디오 데이터는 일반적으로 특정 문이나 통로에 관한 것이라기 보다는 넓은 공간 자체에 대한 것이다. In general, traffic measurement measures the number of moving objects entering and / or moving through a gate or passage per unit time. However, the video data generated and input by the
따라서, 본 발명은 입력된 비디오 데이터를 이용하여 통행량을 측정하기 위해, 비디오 데이터 내에 포함된 이동체가 어느 지점을 통과할 때 통행량 측정의 대상으로 할 것인지에 대한 기준으로서 가상 문(Virtual Gate)에 대한 개념을 제시한다. Therefore, in order to measure the traffic volume using the input video data, the present invention provides a concept of a virtual gate as a reference for which point the moving object included in the video data passes. To present.
도 3에 가상 문(Virtual Gate) 설정 예가 하얀 선의 형태로 도시되어 있다. 도 3에 예시된 바와 같이, 가상 문은 단수로 설정되거나 복수로 설정될 수 있으며, 가상 문의 방향 및/또는 길이는 환경에 따라 변경적 설정될 수 있다.3 illustrates an example of setting a virtual gate in the form of a white line. As illustrated in FIG. 3, the virtual door may be set in the singular or plural, and the direction and / or the length of the virtual door may be set in accordance with the environment.
가상 문은 비디오 센서(110) 또는 비디오 레코더(120)로부터 입력되는 비디오 데이터를 이용한 통행량 측정(또는 추정) 이전(즉, 도 2에 예시된 전경 분리 단계(220), 모션 벡터 산출 단계(230) 등의 수행 이전)에 설정되며, 입력되는 비디오 데이터 내의 적정 지점을 라인(line)의 형태로 설정된다. 즉, 가상 문 맵(virtual gate map)이라는 이진화된 영상 데이터 또는 상응하는 좌표 정보를 미리 생성하여 저장부(160)에 저장한 후, 영상 데이터 또는 좌표 정보에 의해 인식되는 가상 문과 비디오 데이터 내의 객체(즉, 이진화된 형태의 전경 픽셀(foreground pixel))를 앤드 연산(AND operation)하여 가상 문을 지나는 객체를 인식하여 통계에 활용할 수 있다. 통행량 측정시 배경(background)으로부터 분리된 전경(foreground)의 정보가 이용될 수 있고, 분리된 전경이 가상 문을 지날때 그 정보가 계산됨은 이하의 설명 을 통해 명확해질 것이다.The virtual door is before the traffic measurement (or estimation) using the video data input from the
본 발명에서 각 단위 시간(unit time 또는 time segment) 동안 가상 문을 통과하는 사람들의 수가 제시되는 방법에 의해 측정될 것이다. 가상 문을 통과하는 사람들의 수를 카운트하기 위하여 군중 크기(crowd size) 또는 군중 밀도(crowd density) 측정에 대한 특성 기반 접근법(feature-based approach)이 이용될 수 있다.In the present invention, the number of people passing through the virtual door during each unit time or time segment will be measured by the method presented. A feature-based approach to crowd size or crowd density measurement can be used to count the number of people passing through the virtual door.
군중 크기 측정은 관찰 지역 내의 사람 수를 측정하기 위한 것으로서, 군중 크기 측정에 대한 특성 기반 방법은 화면 내의 사람 수가 전경 픽셀 수(foreground pixel count), 블로브 크기(blob size) 또는 구조 등과 같은 저-레벨 이미지 특성들(low-level image features)에 관계된다는 관찰에 기반한 것이다. The crowd size measurement is for measuring the number of people in the viewing area, and the feature-based method for crowd size measurement is that the number of people in the screen is low--such as foreground pixel count, blob size, or structure. It is based on the observation that it relates to low-level image features.
본 발명은 가상 문상에서 추출된 저-레벨 이미지 특성들이 통행량 측정을 위한 단서로서 이용한다. 즉, 본 발명은 가상 문에서의 저-레벨 특성들을 간단히 통합할 뿐, 어떠한 검출(detection)이나 추적(tracking)을 수행하지 않으므로, 계산량을 최소화할 수 있다. 또한 본 발명은 특성 정규화 프로세스(feature normalization process)를 적용함으로써 시점(viewpoint) 변경에도 강인한 특징을 가진다. 이러한 이유로, 본 발명은 기존의 CCTV 시스템들에 용이하게 채택될 수 있는 장점을 가진다.The present invention uses the low-level image characteristics extracted from the virtual image as a clue for the traffic measurement. That is, the present invention merely integrates the low-level features in the virtual statement, and does not perform any detection or tracking, thereby minimizing the amount of computation. In addition, the present invention is robust to changing the viewpoint by applying a feature normalization process. For this reason, the present invention has the advantage that it can be easily adopted in existing CCTV systems.
도 2에는 본 발명의 일 실시예에 따른 통행량 추정부(150)의 처리 과정이 예시되어 있다. 2 illustrates a process of the
도 2를 참조하면, 통행량 추정부(150)는 먼저 비디오 데이터의 매 입력 프레 임에 대해 저-레벨 이미지 특성들을 획득하기 위해 전경 분리(Foreground Segmentation) 단계(220) 및 모션 벡터 산출(Motion Vectore Computation) 단계(230)를 수행한다. 전경 분리 단계(220) 및 모션 벡터 산출 단계(230)는 병렬적으로 수행되거나, 선후 관계로서 순차적 수행될 수도 있다. Referring to FIG. 2, the
이하, 도 4 및 도 5를 참조하여 특징 추출(feature extraction)에 대해 설명한다. 본 발명에서 전경 픽셀들과 모션 벡터들은 통행량을 추정하기 위한 이미지 특징들로 이용된다. 통행량이 많을수록 선택되는 전경 픽셀의 수는 증가할 것이고, 이에 상응하도록 통행자의 이동 방향을 결정하기 위해 모션 벡터들도 선택되어진다. Hereinafter, feature extraction will be described with reference to FIGS. 4 and 5. In the present invention, foreground pixels and motion vectors are used as image features for estimating traffic volume. As the traffic volume increases, the number of foreground pixels selected will increase, and correspondingly, motion vectors are selected to determine the moving direction of the trafficker.
도 4에 예시된 전경 영역의 분리를 수행하기 위해, 스타우퍼(Stauffer)와 그림슨(Grimson)이 제안한 배경 모델링 방법(background modeling method)이 이용될 수 있다(C. Stauffer, W. E. L. Grimson, "Adaptive background mixture models for real-time tracking", International Conference on Computer Vision, Colorada, USA, 1999). 배경 모델링 방법에서 각 픽셀 위치에서의 배경 모델은 가우시안 혼합 모델로 표현된다. 복수의 가우시안 모델들(Gaussian models)의 혼합을 채택함으로써 조도 변화(illumination change), 잡음(noise) 및 겹쳐짐(occlusion)에 매우 강인할 수 있다. In order to perform the separation of the foreground region illustrated in FIG. 4, a background modeling method proposed by Stauper and Grimson may be used (C. Stauffer, WEL Grimson, “Adaptive”). background mixture models for real-time tracking ", International Conference on Computer Vision, Colorada, USA, 1999). In the background modeling method, the background model at each pixel position is represented by a Gaussian mixture model. By employing a mixture of multiple Gaussian models, it can be very robust to illumination changes, noise, and occlusion.
또한, 전경 영역의 분리 수행시 전경 이미지로부터 그림자 제거가 수행될 수 있다. 이는 보다 명확한 전경 분리를 위한 것으로, 그림자의 존재가 블로브 크기(blob size) 및 발 위치를 변동시킬 수 있어 후속 절차에 영향을 미칠 수 있기 때문이다. 전경 영역에서 그림자를 제거하기 위해 공지의 그림자 제거 방법이 적용될 수 있다(예를 들어, B.-S. Kim, G.-G. Lee, Y.-G. Hong, H.-T. Seo, W.-Y. Kim, "Method of Eliminating Shadow of Moving Object for Video Surveillance", Proceedings of IEEK Fall Conference 2006, pp. 768-771, Korea, 2006).In addition, when the separation of the foreground area is performed, shadow removal may be performed from the foreground image. This is for clearer foreground separation, since the presence of shadows can change the blob size and foot position, thus affecting subsequent procedures. Known shadow removal methods can be applied to remove shadows in the foreground area (e.g., B.-S. Kim, G.-G. Lee, Y.-G. Hong, H.-T. Seo, W.-Y.Kim, "Method of Eliminating Shadow of Moving Object for Video Surveillance", Proceedings of IEEK Fall Conference 2006, pp. 768-771, Korea, 2006).
그림자 제거 방법은 그림자 영역에 포함된 픽셀들이 배경 픽셀에 포함된 픽셀들과 동일한 색상 톤을 유지하지만 조도가 감소된다는 가정에 근거한 것이다. 베이지안 분류(Bayesian classification)에 의해 그림자 픽셀들을 제거하기 위해, 임의의 픽셀이 그림자 영역에 속할 가능성은 상술한 가정에 의해 모델링되어진다. The shadow removal method is based on the assumption that the pixels included in the shadow area maintain the same color tone as the pixels included in the background pixel, but the illuminance is reduced. In order to remove shadow pixels by Bayesian classification, the likelihood that any pixel belongs to the shadow area is modeled by the assumptions described above.
전경 분리 단계(220)에서의 처리 동작은 상술한 논문들에서 이미 상세히 설명된 것이므로, 여기서는 이에 대해 간략히 설명한다. 즉, 고정된 비디오 센서(예를 들어, CCTV 카메라)로부터 입력된 RGB 영상은 각 픽셀 위치를 기준으로 하나의 시간 축 상에서 가우시안(Gaussian) 분포를 가지게 된다. 이어서, 계산된 평균과 분산을 이용하여 해당 픽셀 위치에서 지배적인 색상이나 밝기 성분을 구한 후 매 프레임마다 업데이트하여 새로 입력된 픽셀 값과의 차이를 이용하여 전경 분리를 수행한다. 또한, 각 픽셀 위치에서 동일한 색상 값을 가지면서, 밝기 값만 어두워졌을 때, 이를 그림자 영역이라 판단하는 등의 통계적 방법을 이용한 그림자 제거 방법이 적용된다. Since the processing operation in the
상술한 과정을 통해 분리된 전경(Segmented foreground)에는 움직이는 물체 및/또는 사람만이 포함된다. 즉, 입력된 비디오 화면 내에는 위치하지만 장시간 고정된 자세로 고정된 위치에 앉아있는 사람의 경우 전경으로 분리되지 않는다. 이는, 본 발명에서 배경 모델링에 증분적 업데이트 방법(incremental update)을 이용하기 때문이며, 장시간 고정된 자세로 고정된 위치에 앉아있는 사람의 경우 혼잡도 측정시에는 고려될 필요가 있을지라도 통행량 측정시에는 고려할 필요가 없기 때문이다. 물론, 장시간 고정된 자세로 고정된 위치에 앉아있는 사람일지라도 이동 또는 움직임을 개시하면 전경으로 분리되어 인식될 수 있음은 자명하다. In the above-described segmented foreground, only the moving object and / or the person are included. That is, a person who is located in the input video screen but sits in a fixed position for a long time is not separated into the foreground. This is because the present invention uses an incremental update method for background modeling, and a person sitting in a fixed position for a long time in a fixed position may need to be considered in measuring traffic volume even though it needs to be considered in measuring congestion. Because there is no need. Of course, even if the person sitting in a fixed position for a long time fixed position can start to move or move can be recognized as separated into the foreground.
또한, 도 5에 예시된 모션 벡터를 산출하기 위하여, B. Lukas and T. Kanade, "An Iterative Image Registration Technique with an Application to Stereo Vision", Proceedings of 7th International Joint Conference on Artificial Intelligence (IJCAI), pp. 674-679, 1981.의 논문을 통해 공지된 광류(optical flow)가 적용될 수 있다. 참고로, 도 5에 예시된 각 화살표의 방향은 모션 벡터의 방향을 나타내며, 각 화살표의 길이는 모션 벡터의 크기를 나타낸다.In addition, to calculate the motion vector illustrated in FIG. 5, B. Lukas and T. Kanade, "An Iterative Image Registration Technique with an Application to Stereo Vision", Proceedings of 7 th International Joint Conference on Artificial Intelligence (IJCAI), pp. 674-679, 1981., the known optical flow can be applied. For reference, the direction of each arrow illustrated in FIG. 5 indicates the direction of the motion vector, and the length of each arrow indicates the magnitude of the motion vector.
다시 도 2를 참조하면, 통행량 추정부(150)는 원근 투영(perspective projection)의 영향을 보상하기 위해 픽셀 크기 정규화(Pixel Size Normalization) 단계(240)를 수행한다. 픽셀 크기 정규화 단계(240)는 일종의 특성 정규화 단계라 할 수 있다.Referring back to FIG. 2, the
각 통행자(pdedstrian)의 영역이 전경 분리에 의해 획득될지라도 획득된 전경 픽셀들은 통행량 추정시 직접적으로 이용될 수 없다. 이는 각 통행자들의 실제 크기가 같을지라도 그들의 현재 위치에 따라 분리된 전경 내에서 상이한 크기로 표시되기 때문이다. 즉, 비디오 센서(110)에서 가까운 위치의 통행자가 원거리에 위 치한 통행자보다 상대적으로 크게 표시된다. 이러한 문제점을 해결하기 위해, 본 발명은 본 발명자들이 발표한 논문(G.-G. Lee, S. H. Song, W.-Y. Kim, "Crowd Density Estimation for Video Surveillance". Proceedings of International Conference on Computing, Communications and Control Technologies, pp. 196-199, USA, July 2007.)에 기재된 특성 정규화 방법(feature normalization method)을 적용할 수 있다.Even if the area of each passenger (pdedstrian) is obtained by foreground separation, the obtained foreground pixels cannot be used directly in the traffic estimation. This is because even though the actual size of each pedestrian is the same, they are displayed in different sizes within the foreground separated by their current location. In other words, a pedestrian near the
특성 정규화 방법은 모든 통행자들이 동일한 크기이고, 직립해 있으며, 동일한 평면상에 존재하는 것으로 가정한다. 그리고, 통행자를 사람의 평균 키에 상응하는 타원체로서 모델링한다(도 6 참조). 타원체로서의 모델링 및 정규화는 가상문에 관계되는 관심 영역에 대해서만 수행할 수도 있으나, 가상문을 임의로 변동하거나 새로이 지정할 수도 있으므로 모든 영역에 대해 정규화를 수행할 수도 있다.The property normalization method assumes that all passers are the same size, upright, and on the same plane. The passenger is then modeled as an ellipsoid corresponding to the average height of the person (see FIG. 6). Modeling and normalization as an ellipsoid may be performed only for the region of interest related to the virtual statement, but normalization may be performed for all regions because the virtual statement may be arbitrarily changed or newly designated.
이러한 타원체 모델(ellipsoid model)을 채택하고, 평면상에 타원체 모델을 투영함으로써 인체에 대한 기대 영역(expected region)이 계산되어질 수 있다. 이를 위해, 하기 수학식 1 내지 수학식 2가 이용될 수 있다.By adopting such an ellipsoid model and projecting the ellipsoid model on a plane, an expected region for the human body can be calculated. To this end,
위 식에서, C는 투영된 타원, P는 투영 행렬(projection matrix), Q는 타원체 사람 모델(ellipsoid human model)을 각각 나타낸다. 카메라의 투영 행렬인 P는 앞서 언급한 논문(G.-G. Lee, S. H. Song, W.-Y. Kim, "Crowd Density Estimation for Video Surveillance". Proceedings of International Conference on Computing, Communications and Control Technologies, pp. 196-199, USA, July 2007.)에 이미 언급 및 설명되어 있으며, 그 실예는 본 발명의 유효성 검증을 위해 이용된 PETS2006 데이터 세트에 포함되어 있다. 물론, 통행량 추정을 위해 이용될 비디오 센서의 유형이 특정되면 이에 상응하는 투영 행렬이 산출될 수 있음은 당업자에게 자명하다.Where C is the projected ellipse, P is the projection matrix, and Q is the ellipsoid human model. P, the projection matrix of the camera, is described in the aforementioned paper (G.-G. Lee, SH Song, W.-Y. Kim, "Crowd Density Estimation for Video Surveillance" .Proceedings of International Conference on Computing, Communications and Control Technologies, pp. 196-199, USA, July 2007.), examples of which are included in the PETS2006 data set used for validation of the present invention. Of course, it will be apparent to those skilled in the art that, once the type of video sensor to be used for traffic estimation is specified, the corresponding projection matrix can be calculated.
상기 수학식 1은 이미 알고 있는 카메라의 투영 행렬 P와 가정(사람의 평균적인 키 정보)을 통해 구한 3차원 타원체 Q와의 연산을 통해 2차원 영상 평면에 투영할 타원을 산출하기 위한 행렬식C를 구하기 위한 것이다.
위 수학식 2는 타원체 Q를 나타내는 행렬식으로서, h는 사람의 평균적인 키(예를 들어, 1.7로 정의될 수 있음), r은 타원체의 단축에 해당하는 값(예를 들어, 키에 대한 비율로서 0.3 등으로 정의될 수 있음), x 및 y는 3차원 좌표계 내에서 사람이 서있는 위치를 각각 의미한다. 상술한 h는 투영되는 타원의 장축의 길이로서 이용될 수 있고, r은 투영되는 타원의 단축의 길이로서 이용될 수 있다.
일단 각 위치에서의 사람 크기가 연산되어지면, 하기 수학식 3에 의해 연산된 가중치가 곱해짐으로써 각 전경 픽셀들이 정규화된다.Once the size of the person at each location has been computed, each foreground pixel is normalized by multiplying the weight computed by
상기 수학식 3에서 area(ei)는 픽셀 i의 위치에서 투영된 타원 ei에 상응하는 면적을 의미한다. 각 전경 픽셀에 대해 가중치를 곱함으로써, 각 타원들의 위치에 관계없이 각 타원들의 면적이 동일한 크기(예를 들어, 1.0)로 정규화될 수 있다.In
즉, 상술한 수학식 1 및 2에 의해 2차원 평면에 투영되는 타원이 계산되면, 해당 타원의 면적이 계산될 수 있다. 본 발명에서는 각 픽셀 좌표가 타원의 중심이라 가정한 뒤, 해당 위치에서 타원의 면적을 산출한다. 따라서, 모든 픽셀위치에 서로 다른 크기의 타원의 면적이 저장되며, 이를 정규화(normalize)시키기 위해서 수학식 3에 의한 가중치를 이용하여 정규화시키면, 정규화된 픽셀 크기(normalized pixel size)가 저장된 조밀도 지도(density map)을 구할 수 있다. 여기서, 조밀도 지도 자체가 가중치라 할 수도 있다. 이를 타원 자체가 아닌 각 전경 픽셀에 직접 곱함으로써 위치에 따라 상이하게 표현되는 타원들(도 6 참조)도 같은 크기로 정규 화시킬 수 있게 된다.That is, when an ellipse projected on the two-dimensional plane is calculated by the
다시 도 2를 참조하면, 후속하여, 통행량 추정부(150)는 가상 문상의 픽셀 수 계산(Counting Pixels on Virtual Gate) 단계(250)를 수행한다. 일단 전경 이미지가 정규화되어지면, 가상 문상의 픽셀들의 수가 카운트되어진다. 픽셀 수를 카운팅함에 있어 카운팅된 결과 값은 정수 값일 수도 있으나, 카운팅된 결과 값이 각 픽셀별로 가중치에 대한 곱셈 결과의 합이므로 유리수 값일 수도 있을 것이다.Referring back to FIG. 2, the
가상 문상의 픽셀 수 계산 단계(250)에서는 이동체(즉, 각 움직임 픽셀(moving pixel) 또는 움직임 블로브(moving blob))의 움직임 방향을 인식하기 위해 모션 벡터가 이용되어질 수 있다. 이어서, 통행량 추정부(150)는 통행자 수 산출(Pedestrian Count) 단계(260)를 수행한다. 카운트되어진 가상 문 상의 전경 픽셀들의 수에 근거하여 가상 문을 통과하는 사람들의 수가 추정되어질 수 있다.In the
일단 전경 이미지와 모션 벡터가 획득되면, 가상 문을 통과하는 사람들의 수가 가상 문상의 전경 픽셀들을 카운팅함으로써 추정되어질 수 있다. 픽셀 카운팅은 하기 수학식 4를 이용하여 수행될 수 있다.Once the foreground image and the motion vector are obtained, the number of people passing through the virtual door can be estimated by counting the foreground pixels on the virtual door. Pixel counting may be performed using
상기 수학식 4에서 flow(i)는 i번째 프레임에서의 통행량을 나타내고, x는 가상 문상의 픽셀을 나타내며, 스케일링 팩터(scaling factor)로서의 상수 a는 사람의 평균 면적을 나타내는 타원의 사람 모델의 면적을 만들기 위해 이용되며, 예를 들어 실험적인 값으로 0.925로 설정될 수 있다. w(x)는 앞서 설명한 바와 같이 카메라 투영의 영향을 보상하기 위한 가중치이다. FG(x)는 픽셀 x에 대한 전경 분리 결과에 대한 값으로서, 해당 픽셀 x가 전경 픽셀인 경우에는 1로 설정되고, 그렇지 않은 경우에는 0으로 설정된다. vx는 픽셀 x의 위치에서의 모션 벡터를 나타낸다. |vx|는 모션 벡터의 크기를 의미하고, 는 모션 벡터와 가상문간의 각을 의미한다. 모션 벡터의 방향을 이용하여, 가상 문을 통해 나가는 객체와 들어오는 객체를 각각 분리하여 통행량 추정이 수행될 수 있다.In
상술한 수학식 4를 이용하여, 전경 객체(foreground object)가 가상 문을 통과할 때, 움직이는 블로브의 크기가 객체 스캐닝에 의해 측정되어진다. 즉, 상술한 수학식 4는 통행량 크기를 강인하게 추정할 수 있도록 가중치들을 이용하여 가상 문상의 전경 픽셀들을 통합한다. 카메라 투영의 영향을 보상하기 위한 크기 정규화는 a와 w(x)에 의해 달성될 수 있다. 즉, 카메라 설정의 변경에 의해 사람들의 투영되어진 타원 크기가 변경될지라도 픽셀 카운트 결과는 동일하게 유지될 수 있다.Using
또한, 걸음 속도의 차이에 대한 영향은 모션 벡터에 의해 보상되어질 수 있다. In addition, the influence on the difference in the walking speed can be compensated by the motion vector.
가상 문상의 픽셀 수 계산 단계(250)는 객체가 움직일 때 라인 샘플링 프로세스로 간주되어질 수 있다. 만일, 전경 객체의 걸음 속도가 빠르다면 라인 샘플링 프로세스에서 단지 짧은 시간동안만 노출되어질 수 있다. 이러한 이유로, 모션 벡터의 크기가 다른 이동 속도의 영향을 보상하기 위해 곱하여진다. sin(θvx)는 가상 문에 대해 수직한 모션 컴포넌트로 고려되어지도록 하기 위해 곱하여진다.The pixel
보정 결과에 따라 통행량을 추정한 예가 도시되어 있다. 즉, 도 7의 테스트 시퀀스의 예에는 한 사람이 가상 문을 통과하는 비디오 프레임이 예시되어 있으며, 통행량 계산 결과 예에는 상술한 수학식 4를 이용하여 각 테스트 시퀀스에 상응하도록 얻어진 통행량 계산 결과(즉, 수학식 3에 의해 한 사람의 평균 면적이 정규화되어졌으므로 통행량 값은 1에 근접되어짐)가 도시되어 있다. 통행량 계산 결과의 그래프에서 x축은 시간을 나타내고, y축은 수학식 4에 의해 연산된 결과의 누적치를 의미한다.An example of estimating the traffic amount according to the correction result is shown. That is, in the example of the test sequence of FIG. 7, a video frame in which one person passes through a virtual statement is illustrated, and in the example of a traffic calculation result, the traffic calculation result obtained by corresponding to each test
도 7의 테스트 시퀀스의 예들 각각은 움직임 속도가 각각 상이할 수 있으며(예를 들어, 각각 21 프레임과 16 프레임 등), 카메라의 시점(viewpoint)가 각각 상이할 수 있다. 그러나, 통행량 계산 결과 예를 볼때, 카메라의 시점(viewpoint)나 움직임 속도가 상이함에도 불구하고 통행량 계산 값이 1에 근접되어짐을 알 수 있다.Each of the examples of the test sequence of FIG. 7 may have different movement speeds (eg, 21 frames and 16 frames, respectively), and different viewpoints of the camera may be different. However, in the example of the traffic calculation result, it can be seen that the traffic calculation value approaches 1 even though the viewpoint or the movement speed of the camera are different.
도 7에서 보여지는 바와 같이, 가상 문을 통과하는 사람들의 수는 통행량 계산 결과를 축적함으로써 판단될 수 있다. 또한, 일정 시간동안 가상 문을 지나는 객체가 없을 경우 통행량 축적 결과를 반올림함으로써 정확한 통행자 수 검출이 가능하다. 일정 시간 동안 가상 문을 지나는 객체가 없는지 여부를 판단하는 이유는 전경 분리가 명확하게 수행되지 않았을 경우 한 사람의 모습이 몇 개의 부분으로 분리될 수 있어 이를 방지하기 위함이며, 또한 한 사람이 완전히 가상 문을 통과했음을 인식할 수 있도록 하기 위한 것이다. 이를 통해 한 사람이 완전히 가상 문을 통과하지 않은 시점에서 통행량 계산 결과가 반올림되어짐을 방지할 수 있다. As shown in FIG. 7, the number of people passing through the virtual door can be determined by accumulating traffic calculation results. In addition, if there is no object passing through the virtual door for a certain period of time, it is possible to detect the exact number of traffic by rounding up the traffic accumulation result. The reason for judging whether there is no object passing through the virtual door for a certain time is to prevent the appearance of one person into several parts if the foreground separation is not clearly performed. This is to help you recognize that you have passed the door. This prevents rounding of traffic calculations when a person has not completely gone through the virtual door.
본 발명에 따른 유효성을 증명하기 위한 테스트 결과가 도 8 및 도 9에 예시되어 있으며, 실험은 PETS2006 데이터 세트를 이용하여 수행되었다("PETS 2006 Benchmark Data", Ninth IEEE International Workshop on Performance Evaluation of Tracking and Surveillance, http://www.cvg.rdg.ac.uk/PETS2006/data.html, accessed June 2007.). Test results for demonstrating validity according to the present invention are illustrated in FIGS. 8 and 9, and experiments were performed using the PETS2006 data set (“PETS 2006 Benchmark Data”, Ninth IEEE International Workshop on Performance Evaluation of Tracking and Surveillance, http://www.cvg.rdg.ac.uk/PETS2006/data.html, accessed June 2007.).
도 8 및 도 9에 예시된 테스트 시퀀스들이 동일한 위치에 대한 것일지라도, 뷰들과 통행자들의 움직임 방향은 매우 상이하다. 통행자들의 주된 움직임 방향에 수직으로 설정된 가상 문이 도 8 및 도 9에 도시되어 있다.Although the test sequences illustrated in FIGS. 8 and 9 are for the same location, the directions of movement of the views and passers-bys are very different. Virtual doors set perpendicular to the main direction of movement of the pedestrians are shown in FIGS. 8 and 9.
계산 결과에 의한 추정을 검증하기 위하여, 관리자에 의해 카운트되어진 숫자와 비교하는 방법이 이용되었다. 또한, 도 8 및 도 9에 예시된 바와 같이, 테스트 결과에 따른 통행량 측정은 통행자들의 이동 방향을 기준으로 화면의 오른쪽으로 진행하였는지, 왼쪽으로 진행하였는지에 따라 구분하여 실시되었다. 각 테스트 시퀀스들에 대해 배경 모델들(background models)을 설정하기 위해 초기 300 프레임이 이용되어졌다. In order to verify the estimation based on the calculation result, a method of comparing with the number counted by the administrator was used. In addition, as illustrated in FIG. 8 and FIG. 9, the traffic volume measurement according to the test result was performed separately according to whether the user progressed to the right side or the left side of the screen based on the moving direction of the traffickers. Initial 300 frames were used to set background models for each test sequence.
도 8 및 도 9에 도시된 테스트 결과의 예에는 본 발명에 따른 방법에 의해 인식된 통행자들의 숫자가 축적되어 표시("proposed method" 참조)되고, 또한 관리자에 의해 카운트되어진 숫자가 축적되어 표시("Ground Truth" 참조)되어 있으며, 양자에 의한 계산량 차이가 계산 에러로서 표시되어 있다. 본 발명에 따른 방법에 의해 인식된 통행자들의 숫자와 관리자에 의해 카운트되어진 숫자간에 차이가 발생 하는 이유는 본 발명이 특성 통합에 따른 시간 지연, 가상 문을 반복하여 통과하는 사람 등에 의해 야기된다. 시간 지연을 최소화하면 상술한 차이는 제거될 수 있으며, 시간 지연을 허용하는 경우에도 도 8 및 도 9에서 보여지는 바와 같이 한 사람의 차이밖에는 존재하지 않는바 신뢰성 있는 시스템임이 명확히 입증된다.In the example of the test results shown in Figs. 8 and 9, the number of passengers recognized by the method according to the present invention is accumulated and displayed (see "proposed method"), and the number counted by the manager is accumulated and displayed. (See "Ground Truth"), and the difference in calculation amount by both is indicated as a calculation error. The reason for the difference between the number of passengers recognized by the method according to the present invention and the number counted by the manager is caused by the time delay caused by the feature integration, the person repeatedly passing through the virtual statement, and the like. By minimizing the time delay, the above-described difference can be eliminated, and it is clearly demonstrated that there is only one person difference as shown in FIGS. 8 and 9 even when the time delay is allowed.
상술한 바와 같이, 본 발명은 가상 문상에서의 픽셀 카운팅에 기반하여 통행량을 측정할 수 있는 방법을 제시한다. 또한 특성 정규화를 수행함으로써 뷰포인트의 변경이나 통행자들의 걸음 속도 등에 관계없이 일정한 결과를 얻도록 할 수 있는 장점이 있다.As described above, the present invention provides a method for measuring a traffic amount based on pixel counting on a virtual image. In addition, by performing property normalization, there is an advantage that a certain result can be obtained regardless of the change of viewpoint or the pace of the pedestrians.
상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments of the present invention, those skilled in the art may variously modify the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. And can be changed.
도 1은 본 발명의 일 실시예에 따른 통행량 추정 시스템의 구성도.1 is a block diagram of a traffic estimation system according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 통행량 측정부의 처리 과정을 예시한 도면.2 is a diagram illustrating a process of a traffic measurement unit according to an embodiment of the present invention.
도 3은 본 발명의 일 실시예에 따른 가상 문(Virtual Gate) 설정 예를 나타낸 도면.3 is a diagram illustrating an example of setting a virtual gate according to an embodiment of the present invention.
도 4는 본 발명의 일 실시예에 따른 전경 분리 처리를 나타낸 도면. 4 is a diagram illustrating a foreground separation process according to an embodiment of the present invention.
도 5는 본 발명의 일 실시예에 따른 모션 벡터 추출 결과를 예시한 도면.5 is a diagram illustrating a motion vector extraction result according to an embodiment of the present invention.
도 6은 본 발명의 일 실시예에 따른 픽셀 크기 정규화를 위한 타원 투영 모델을 예시한 도면.6 illustrates an elliptic projection model for pixel size normalization according to an embodiment of the present invention.
도 7은 본 발명의 일 실시예에 따른 픽셀 수 보정 결과에 따라 통행량을 추정한 예를 도시한 도면. 7 is a diagram illustrating an example of estimating a traffic amount according to a pixel number correction result according to an embodiment of the present invention.
도 8 및 도 9는 본 발명의 실시예에 따른 실험 결과를 각각 나타낸 도면. 8 and 9 are respectively showing the experimental results according to the embodiment of the present invention.
Claims (16)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070115555A KR100907096B1 (en) | 2007-11-13 | 2007-11-13 | Method and apparatus for estimating traffic |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020070115555A KR100907096B1 (en) | 2007-11-13 | 2007-11-13 | Method and apparatus for estimating traffic |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090049332A KR20090049332A (en) | 2009-05-18 |
KR100907096B1 true KR100907096B1 (en) | 2009-07-09 |
Family
ID=40858098
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020070115555A KR100907096B1 (en) | 2007-11-13 | 2007-11-13 | Method and apparatus for estimating traffic |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100907096B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093274A (en) * | 2012-12-30 | 2013-05-08 | 信帧电子技术(北京)有限公司 | Pedestrian counting method based on video |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101222482B1 (en) | 2011-06-23 | 2013-01-15 | 브이씨에이 테크놀러지 엘티디 | People counter having set up interface and set up method thereof |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005025328A (en) | 2003-06-30 | 2005-01-27 | Ntt Data Corp | Congestion monitoring system and congestion monitoring program |
JP2005025593A (en) | 2003-07-04 | 2005-01-27 | Minolta Co Ltd | Counting system and counting method |
JP2005148863A (en) * | 2003-11-11 | 2005-06-09 | Konica Minolta Holdings Inc | Number of person counting system |
JP2006243972A (en) | 2005-03-01 | 2006-09-14 | Matsushita Electric Works Ltd | Access controller |
-
2007
- 2007-11-13 KR KR1020070115555A patent/KR100907096B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005025328A (en) | 2003-06-30 | 2005-01-27 | Ntt Data Corp | Congestion monitoring system and congestion monitoring program |
JP2005025593A (en) | 2003-07-04 | 2005-01-27 | Minolta Co Ltd | Counting system and counting method |
JP2005148863A (en) * | 2003-11-11 | 2005-06-09 | Konica Minolta Holdings Inc | Number of person counting system |
JP2006243972A (en) | 2005-03-01 | 2006-09-14 | Matsushita Electric Works Ltd | Access controller |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103093274A (en) * | 2012-12-30 | 2013-05-08 | 信帧电子技术(北京)有限公司 | Pedestrian counting method based on video |
Also Published As
Publication number | Publication date |
---|---|
KR20090049332A (en) | 2009-05-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7428213B2 (en) | Information processing system, information processing method and program | |
Wang | Real-time moving vehicle detection with cast shadow removal in video based on conditional random field | |
US20200118423A1 (en) | Deep Learning Methods For Estimating Density and/or Flow of Objects, and Related Methods and Software | |
US8131010B2 (en) | High density queue estimation and line management | |
WO2018059408A1 (en) | Cross-line counting method, and neural network training method and apparatus, and electronic device | |
US9600898B2 (en) | Method and apparatus for separating foreground image, and computer-readable recording medium | |
KR102153607B1 (en) | Apparatus and method for detecting foreground in image | |
US10432896B2 (en) | System and method for activity monitoring using video data | |
CN105957110B (en) | Apparatus and method for detection object | |
WO2009049314A2 (en) | Video processing system employing behavior subtraction between reference and observed video image sequences | |
AU2018379393A1 (en) | Monitoring systems, and computer implemented methods for processing data in monitoring systems, programmed to enable identification and tracking of human targets in crowded environments | |
Hu et al. | A novel approach for crowd video monitoring of subway platforms | |
US20170103536A1 (en) | Counting apparatus and method for moving objects | |
US9361705B2 (en) | Methods and systems for measuring group behavior | |
Luque-Baena et al. | A self-organizing map to improve vehicle detection in flow monitoring systems | |
Lin et al. | Mirror MoCap: Automatic and efficient capture of dense 3D facial motion parameters from video | |
KR20170006356A (en) | Method for customer analysis based on two-dimension video and apparatus for the same | |
KR100907096B1 (en) | Method and apparatus for estimating traffic | |
JP6504711B2 (en) | Image processing device | |
JP4942197B2 (en) | Template creation apparatus, facial expression recognition apparatus and method, program, and recording medium | |
Hradiš et al. | Real-time tracking of participants in meeting video | |
KR102663282B1 (en) | Crowd density automatic measurement system | |
Islam et al. | Non-Lane Based Heterogeneous Traffic State Measurement using Robust Vision System | |
Dalka et al. | Video content analysis in the urban area telemonitoring system | |
van der Laan | High-statistical analysis of pedestrian dynamics at a road crossing: from depth maps to pedestrian trajectories using convolutional neural networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130628 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140701 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150630 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |