KR100885418B1 - System and method for detecting and tracking people from overhead camera video - Google Patents
System and method for detecting and tracking people from overhead camera video Download PDFInfo
- Publication number
- KR100885418B1 KR100885418B1 KR1020080074461A KR20080074461A KR100885418B1 KR 100885418 B1 KR100885418 B1 KR 100885418B1 KR 1020080074461 A KR1020080074461 A KR 1020080074461A KR 20080074461 A KR20080074461 A KR 20080074461A KR 100885418 B1 KR100885418 B1 KR 100885418B1
- Authority
- KR
- South Korea
- Prior art keywords
- ellipse
- tracking
- image
- detected
- objects
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
본 발명은 CCTV 카메라 영상으로부터 사람을 감지하고 추적하는 시스템 및 그 방법에 관한 것으로, 보다 구체적으로는 오버헤드 카메라 영상으로부터 사람의 머리 형태에 대한 모델을 이용하여 개개의 사람을 추출하고 이를 추적하는 시스템 및 그 방법에 관한 것이다.The present invention relates to a system for detecting and tracking a person from a CCTV camera image, and more particularly, to a system for extracting and tracking an individual person using a model of a human head from an overhead camera image. And to a method thereof.
기존의 CCTV 시스템은 수동적인 감시 시스템으로써, CCTV 카메라로부터 얻은 영상의 해석을 전적으로 사람에게 의존하였으나, 최근 들어 컴퓨터의 처리 능력 향상 및 컴퓨터 비전 기술이 발전함에 따라 CCTV 카메라 영상을 컴퓨터가 실시간으로 분석하여 움직이는 객체들을 감지 및 추적하고, 이를 바탕으로 의미 있는 이벤트를 감지하는 지능형 영상 감시 시스템들이 선보이고 있다. 이러한 지능형 영상 감시 시스템은 내부에 구현되어 있는 영상 분석 기능에 따라 다양한 작업에 활용될 수 있는데, 침입 감지나 방치된 물건의 감지 등과 같은 보안/감시 작업뿐만 아니라 특정 지역의 방문객의 수를 세거나 교통량을 측정하는 일과 같은 통계 분석 작업 등 에도 활용될 수 있다.Existing CCTV system is a passive surveillance system, which depends entirely on the interpretation of the images from CCTV cameras. However, in recent years, with the improvement of computer processing capability and the development of computer vision technology, the computer analyzes CCTV camera images in real time. Intelligent video surveillance systems that detect and track moving objects and detect meaningful events are being introduced. The intelligent video surveillance system can be used for various tasks depending on the internal video analysis function. It can count the number of visitors or traffic in certain areas as well as security / surveillance tasks such as intrusion detection and detection of unattended objects. It can also be used for statistical analysis tasks such as measuring data.
특히, 특정 지역을 통과하거나 점유하는 사람의 수를 세는 영상 기반의 사람 계수 시스템(People Counting System)은 기존의 적외선 센서나 기계적인 게이트 장치를 이용하는 계수 시스템에 비해 여러 가지 장점이 있는 관계로 많은 관심을 받고 있다.In particular, the image-based People Counting System, which counts the number of people passing through or occupying a certain area, has many advantages over existing counting systems using infrared sensors or mechanical gate devices. Is getting.
통상적인 영상 기반 사람 계수 시스템은 오버헤드(Overhead) 카메라로부터 영상을 입력받아 영상 분석을 통하여 움직이는 객체를 감지 및 추적하고, 이를 바탕으로 특정 지역을 통과하거나 점유하는 사람의 수를 세도록 구성되어 있다. 여기에서 오버헤드 카메라는 천정으로부터 수직으로 지면을 바라보도록 설치되어 있는 카메라를 의미하며, 통상적인 영상 기반 사람 계수 시스템에서 오버헤드 카메라 영상을 선호하는 이유는 영상에서 객체간의 겹침 현상이 최소화되어 객체의 감지/추적 및 계수 정확도를 높일 수 있기 때문이다.A typical image-based person counting system is configured to detect and track moving objects through image analysis by receiving images from an overhead camera and count the number of people passing or occupying a specific area based on the image. . Here, the overhead camera refers to a camera which is installed to face the ground vertically from the ceiling, and the reason why the overhead camera image is preferred in the conventional image-based human counting system is that the overlap of the objects in the image is minimized, This is because detection / tracking and counting accuracy can be improved.
영상 분석을 통하여 움직이는 객체를 감지 및 추적하는 시스템 또는 영상 기반의 물체 계수 시스템에 관하여 여러 공지 기술이 존재하는데, 예를 들면 대한민국 특허 등록번호가 10-0312427인 "비디오 영상에서 템플레이트와 칼만 필터를 이용한 이동 물체 추적 방법 및 장치", 대한민국 특허 등록번호가 10-0364582인 "다중 이동물체 추적/감시 시스템", 대한민국 특허 등록번호가 10-0625676인 "비디오 카메라 영상에 의한 입실/퇴실자 계수 장치 및 그 제어 방법", 국제 특허 공개번호가 WO 02/097713인 "Automatic Classification and/or Counting System", 국제 특허 공개번호가 WO 2007/067721인 "System and Method for Counting People near External Windowed Doors", 국제 특허 공개번호가 WO 2007/002404인 "Target Detection and Tracking from Overhead Video Streams", 국제 특허 공개번호가 WO 2007/086826인 "Human Detection and Tracking for Security Applications", 미국 특허 공개번호가 US 2006/0067456인 "People Counting Systems and Methods", 미국 특허 공개번호가 US 2008/0008360인 "System and Method for Counting People" 등이 있다.Various known technologies exist for detecting and tracking moving objects through image analysis or for image-based object counting systems. For example, using template and Kalman filters in video images with Korean Patent Registration No. 10-0312427. Moving object tracking method and apparatus "," Multiple moving object tracking / monitoring system "with Korean Patent Registration No. 10-0364582," Passing / Outgoing Counting Device by Video Camera Image and Korean Patent Registration No. 10-0625676 and its Control Method "," Automatic Classification and / or Counting System "with International Patent Publication No. WO 02/097713," System and Method for Counting People near External Windowed Doors "with International Patent Publication No. WO 2007/067721, International Patent Publication "Target Detection and Tracking from Overhead Video Streams", WO 2007/002404, and "Human Detection and Track, International Patent Publication No. WO 2007/086826." ing for Security Applications "," People Counting Systems and Methods ", US 2006/0067456, and" System and Method for Counting People, "US 2008/0008360.
상기 공지 기술들의 한계점으로는, 영상에서 사람의 형태 특성을 이용하여 사람을 분리해내는 메커니즘이 결여되어 있어서 여러 사람이 무리를 이루고 있거나, 사람이 쇼핑카트 등과 같은 물체와 같이 이동할 때 계수 오류가 발생할 수 있으며, 상기 공지 기술 중에 영상에서 사람을 분리해내는 메커니즘이 포함되어 있는 몇몇 기술은 오버헤드 카메라 영상에서는 제대로 동작하지 않는 문제점을 안고 있다.As a limitation of the known techniques, there is a lack of a mechanism that separates a person by using the shape characteristics of a person in an image, so that counting errors may occur when several people are crowded or when a person moves with an object such as a shopping cart. Some of the known techniques, which include a mechanism for separating a person from an image, have a problem in that they do not work properly in an overhead camera image.
본 발명의 일 실시예는 컴퓨터가 오버헤드 카메라로부터 영상을 입력 받아 실시간으로 분석하여, 영상 내에 존재하는 개개의 사람을 추출하고 이를 추적하며, 추적 결과를 바탕으로 사람의 수를 세는 일 등과 같은 작업을 수행하는 시스템 및 그 방법을 제공한다.According to an embodiment of the present invention, a computer receives an image from an overhead camera and analyzes it in real time, extracts and tracks individual people present in the image, and counts the number of people based on the tracking result. It provides a system and method for performing the same.
본 발명의 특징에 따른 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 시스템은,A system for detecting and tracking a person in an overhead camera image according to an aspect of the present invention,
오버헤드 상에서 고정되어 사람을 촬영하는 카메라; 상기 카메라에서 촬영된 영상을 분석하여 모션 영역내의 에지 픽셀들을 검출하고, 검출된 에지 픽셀들로부터 타원 객체들을 검출하고, 검출된 타원 객체들을 추적하고, 타원 객체들의 추적 결과로부터 지정된 이벤트를 감지하고, 감지된 이벤트를 발생시킨 추적 객체들을 계수하는 영상 분석기; 및 상기 영상 분석기로부터 타원 객체들의 추적 결과, 이벤트 감지 결과, 추적 객체들의 계수 결과 등을 전달 받아 가공하여 표출 또는 저장하고, 상기 영상 분석기에 대한 설정 및 제어 정보를 사용자로부터 입력받아 상기 영상 분석기에 전달하는 제어/모니터링 단말기를 포함한다.A camera fixed on the overhead to photograph a person; Analyze the image taken by the camera to detect edge pixels in the motion region, detect ellipse objects from the detected edge pixels, track the detected ellipse objects, detect a specified event from the tracking results of the ellipse objects, An image analyzer for counting the tracking objects that generated the detected event; And receive and process the tracking result of the ellipse objects, the event detection result, the counting result of the tracking objects, etc. from the image analyzer, and display or store the processed result. And a control / monitoring terminal.
상기 영상분석기는, 상기 타원 객체를 검출하는데 있어서 미리 설정된 범위의 속성 값을 갖는 타원 객체를 검출하는 것을 특징으로 하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 하는 것을 특징으로 한다. The image analyzer may detect and track a person in the overhead camera image, wherein the ellipse object has an attribute value of a preset range in detecting the ellipse object.
상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것은, 상기 카메라를 이용하여 오버헤드 상에서 사람을 촬영한 후, 획득된 오버헤드 카메라 영상에서 사람의 머리 둘레를 근사화하는 타원의 속성 값을 기준으로 삼아 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것을 특징으로 한다. The setting of the range of the property value of the ellipse object to be detected is based on the property value of the ellipse that approximates the head circumference of the person in the obtained overhead camera image after photographing the person on the overhead using the camera. Set the range of the attribute value of the ellipse object to be detected.
본 발명의 특징에 따른 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 방법은Method for detecting and tracking a person in an overhead camera image according to a feature of the present invention
고정된 카메라로부터 입력 영상을 취득하는 단계; 상기 입력 영상으로부터 움직임을 감지하여 모션 영역을 추출하는 단계; 상기 모션 영역 내에서 상기 입력 영상의 에지(Edge) 픽셀들을 검출하는 단계; 상기 에지 픽셀들로부터 커브 세그먼트(Curve Segment)들을 추출하는 단계; 상기 커브 세그먼트들을 그룹화하여 기 설정된 범위의 속성 값을 갖는 타원 객체들을 검출하는 단계; 상기 검출된 타원 객체들을 기 추적 중인 타원 객체들과 매칭을 수행하여 타원 객체들을 추적하는 단계; 상기 타원 객체들의 추적 결과를 이용하여 지정된 이벤트를 감지하는 단계; 및 상기 감지된 이벤트를 발생시킨 타원 객체들을 계수하는 단계를 포함한다. Acquiring an input image from a fixed camera; Detecting a motion from the input image to extract a motion region; Detecting edge pixels of the input image within the motion region; Extracting curve segments from the edge pixels; Grouping the curve segments to detect elliptic objects having attribute values in a preset range; Tracking the ellipse objects by matching the detected ellipse objects with the ellipse objects being tracked; Detecting a specified event using a tracking result of the ellipse objects; And counting ellipse objects that caused the detected event.
상기 에지 픽셀들로부터 커브 세그먼트들을 추출하는 것은, 상기 에지 픽셀들의 추적 및 연결을 통해 이웃하는 것들끼리 그룹화하여 1차 커브 세그먼트들을 추출하고 분기 지점들을 기록하는 단계; 상기 1차 커브 세그먼트들에 대하여, 각 커브 세그먼트의 시작점에서 종점까지 이동하면서 각 지점의 곡률 값이 그 지점을 중심으로 일정 구간 내에 있는 주위 지점들의 곡률 값보다 큰 지점을 찾고, 찾은 지점에서의 곡률 값이 설정 값 이상이면 그 지점에서 커브 세그먼트를 분할함에 의하여 2차 커브 세그먼트들을 추출하는 단계; 및 상기 2차 커브 세그먼트들에 대하여, 상기 기록된 분기 지점에서 만나는 커브 세그먼트의 쌍들 중에 분기 지점에서 곡률 값이 설정 값 이하인 커브 세그먼트의 쌍을 하나의 커브 세그먼트로 병합함에 의해 3차 커브 세그먼트들을 추출하는 단계; 상기 3차 커브 세그먼트들에 대하여, 지정된 속성 범위를 갖는 타원 객체를 추출하는데 적합하지 않은 커브 세그먼트들을 제거하여 최종적인 커브 세그먼트들을 추출하는 단계를 포함하는 것을 특징으로 한다. Extracting curve segments from the edge pixels comprises: grouping neighboring ones through tracking and concatenation of the edge pixels to extract primary curve segments and write branch points; With respect to the first curve segments, moving from the start point to the end point of each curve segment, find a point where the curvature value of each point is larger than the curvature value of the surrounding points within a predetermined interval about the point, and the curvature at the found point Extracting secondary curve segments by dividing the curve segment at that point if the value is greater than or equal to the set value; And extracting tertiary curve segments for the secondary curve segments by merging a pair of curve segments having a curvature value at or below a set value into a single curve segment among the pairs of curve segments that meet at the recorded branch point. Making; And extracting the final curve segments by removing curve segments that are not suitable for extracting an ellipse object having a specified attribute range for the cubic curve segments.
상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것은, 상기 카메라를 이용하여 오버헤드 상에서 사람을 촬영하는 단계; 상기 촬영된 영상에서 사람의 머리 둘레를 근사화하는 타원을 사용자가 지정하는 단계; 상기 지정된 타원의 속성 값을 이용하여 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 단계를 포함하는 것을 특징으로 한다. Setting a range of attribute values of the elliptic object to be detected may include: photographing a person on an overhead using the camera; Designating, by the user, an ellipse approximating a head circumference of a person in the captured image; And setting a range of attribute values of the elliptic object to be detected using the attribute values of the designated ellipse.
상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것은, 상기 카메라를 이용하여 오버헤드 상에서 사람을 촬영하는 단계; 상기 촬영된 영상에서 에지 픽셀들을 검출하는 단계; 상기 에지 픽셀들로부터 타원들을 추출하는 단계; 상기 추출된 타원들 중에 사람의 머리 둘레를 근사화하는 타원을 사용자가 선택하는 단계; 및 상기 선택된 타원의 속성 값을 이용하여 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 단계를 포함한다. Setting a range of attribute values of the elliptic object to be detected may include: photographing a person on an overhead using the camera; Detecting edge pixels in the captured image; Extracting ellipses from the edge pixels; Selecting an ellipse from the extracted ellipses to approximate a human head circumference; And setting a range of attribute values of the elliptic object to be detected using the attribute values of the selected ellipse.
상기 검출된 타원 객체들과 기 추적 중인 타원 객체들과의 매칭은, 상기 검출된 타원 객체와 기 추적 중인 타원 객체가 공유하는 영역의 면적에 의해 결정되는 것을 특징으로 한다. The matching of the detected ellipse objects and the ellipse objects being tracked is determined by the area of an area shared by the detected ellipse object and the ellipse object being tracked.
상기 타원 객체들의 추적 결과를 이용하여 지정된 이벤트를 감지하는 것은,Detecting a specified event using the tracking result of the ellipse objects,
사용자가 지정한 영역 내에 일정 시간 이상 특정 타원 객체가 존재하는 이벤트를 감지하거나,Detect an event where a specific ellipse object exists within a user-defined area for a certain time,
사용자가 지정한 가상선을 특정 타원 객체가 통과하는 이벤트를 감지하는 내용을 포함하는 것을 특징으로 한다.And detecting content of a specific ellipse object passing through a virtual line designated by a user.
전술한 본 발명의 과제 해결 수단 중 하나에 의하면, 오버헤드 카메라 영상을 통해 여러 사람이 무리를 이루고 있거나, 사람 이외의 다른 이동 물체가 공존하더라도 정확하게 개개의 사람을 감지하고 추적하며, 추적 결과를 다양한 응용 분야에 활용할 수 있는 시스템을 구현할 수 있다.According to one of the problem solving means of the present invention described above, even if a number of people in a group through an overhead camera image, even if a moving object other than the person coexists accurately detects and tracks each person, and various tracking results Implement a system that can be used for applications.
아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.
명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 " 포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, this means that it may further include other components, except to exclude other components unless otherwise stated.
이하에는 도 1 내지 도 5를 참조하여, 본 발명의 일 실시예에 따른 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 시스템 및 그 방법에 대해 설명한다.Hereinafter, a system and method for detecting and tracking a person in an overhead camera image according to an embodiment of the present invention will be described with reference to FIGS. 1 to 5.
도 1은 본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반 사람 감지/추적 시스템의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an overhead camera image-based person detection / tracking system according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반 사람 감지/추적 시스템(100)의 구성은 오버헤드 카메라(101), 영상 분석기(102), 제어/모니터링 단말기(103)를 포함한다.Referring to FIG. 1, the configuration of an overhead camera image-based person detection /
오버헤드 카메라(101)는 천정에서 지면을 수직으로 바라보도록 설치된다. 도 3은 오버헤드 카메라로 밑에 있는 사람을 촬영했을 때의 전형적인 예이다.The
영상 분석기(102)는 오버헤드 카메라(101)로부터 일련의 비디오 프레임 데이터(Video Frame Data)를 획득하고, 이를 실시간으로 분석하여 사람을 감지 및 추적하고, 추적 결과를 바탕으로 지정된 이벤트를 검출하고, 지정된 이벤트의 검출 시 지정된 작업을 수행한다. 또한 영상 분석기(102)는 다양한 통신 수단을 통해 제어/모니터링 단말기(103)와 통신을 수행한다. 영상 분석기(102)는 획득된 비디오 프레임 데이터, 사람의 감지/추적 결과, 검출된 이벤트 정보, 추적 중인 사람의 계수 정보 등 다양한 데이터를 필요 시 제어/모니터링 단말기(103)에 전달하며, 제어/모니터링 단말기(103)로부터 각종 설정 및 제어 데이터를 전송 받아 적용시킨다.The
제어/모니터링 단말기(103)는 영상 분석기(102)로부터 받은 다양한 데이터를 화면에 표출하거나 저장하고, 저장된 데이터를 검색 및 재생할 수 있으며, 사용자로부터 영상 분석기(102)의 설정 및 제어 정보를 입력 받아 영상 분석기(102)에 설정 및 제어 데이터를 전달한다.The control /
영상 분석기(102)는 제어/모니터링 단말기(103) 이외에 각종 I/O 장치(104)와 연결될 수 있다. 예를 들면 각종 센서로부터 센싱 결과를 입력 받아 활용할 수 있으며, 사람의 계수 정보 등과 같은 영상 분석을 통해 얻은 결과를 전용 디스플레이 장치 등에 출력할 수 있다.The
본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반의 사람 감지/추적 시스템(100)의 구성은 도 1에 도시된 것에 한정되는 것은 아니다. 예를 들면 영상 분석기(102)는 오버헤드 카메라(101) 또는 제어/모니터링 단말기(103)에 통합될 수 있다. 또한 전용의 제어/모니터링 단말기(103) 없이 간단한 I/O 장치들과만 연결되어 사용될 수도 있으며, 이러한 I/O 장치들이 영상 분석기(102)에 통합될 수도 있다.The configuration of an overhead camera image-based person detection /
도 2는 본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반의 사람 감지/추적 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an overhead camera image-based person detection / tracking method according to an embodiment of the present invention.
영상 분석기(102)는 오버헤드 카메라 영상에서 사람의 감지/추적을 수행하기 위해 도 2의 단계(S101) 내지 단계(S112)를 반복적으로 수행한다.The
단계(S101)에서 영상 분석기(102)는 카메라로부터 새로운 영상, 즉 새로운 비디오 프레임을 입력받는다.In step S101, the
단계(S102)에서 영상 분석기(102)는 입력 받은 영상에서 모션이 발생한 영역 을 추출한다. 모션이 발생한 영역은 움직이는 사람의 영역을 잠재적으로 포함하는 영역이라고 말할 수 있으며, 영상에서 사람의 추출 시 전제 영역을 고려하지 않고 모션 영역만을 고려함으로써 영상 처리의 효율성 증대를 도모할 수 있다.In operation S102, the
모션 영역을 추출하기 위한 여러 공지 기술이 존재하는데, 배경 영상과 입력 영상의 차를 이용하는 Background Subtraction 방법이 대표적이다. Background Subtraction 방법은 배경 영상(또는 배경 모델)을 얻는 방법, 배경 영상/모델과 입력 영상의 차를 구하는 방법, 배경 영상/모델을 업데이트하는 방법 등에 따라 다양한 형태의 방법이 존재한다. 예를 들면 C. Wren, A. Azarbayejani, T. Darrell, A. Pentland의 "Pfinder: Real-Time Tracking of the Human Body" (IEEE Trans. on PAMI, Vol. 19, No. 7, 1997), C. Stauffer, W. Grimson의 "Learning Patterns of Activity Using Real-Time Tracking" (IEEE Trans. on PAMI, Vol. 22, No. 8, 2000), A. Elgammal, D. Harwood, L. Davis의 "Non-parametric Model for Background Subtraction" (Proc. of ICCV '99 FRAME-RATE Workshop, 1999)등을 참조하라.There are several well-known techniques for extracting a motion region, and the Background Subtraction method using a difference between a background image and an input image is representative. Background Subtraction has various types of methods depending on a method of obtaining a background image (or a background model), a method of obtaining a difference between a background image / model and an input image, and a method of updating the background image / model. See, eg, C. Wren, A. Azarbayejani, T. Darrell, A. Pentland, "Pfinder: Real-Time Tracking of the Human Body" (IEEE Trans. On PAMI, Vol. 19, No. 7, 1997), C Stauffer, W. Grimson, "Learning Patterns of Activity Using Real-Time Tracking" (IEEE Trans. On PAMI, Vol. 22, No. 8, 2000), A. Elgammal, D. Harwood, L. Davis, "Non -parametric Model for Background Subtraction "(Proc. of ICCV '99 FRAME-RATE Workshop, 1999).
단계(S103)에서 영상 분석기(102)는 입력 영상으로부터 에지(Edge) 픽셀을 검출한다. 이때 에지 픽셀의 검출은 단계(S102)에서 구한 모션 영역 내에서만 수행한다. 영상에서 에지 픽셀을 구하기 위한 여러 공지 기술이 존재하는데, 본 발명에서는 1-픽셀 두께의 에지를 구할 수 있는 방법을 사용한다. 예를 들면 Sobel Edge Detector 등을 이용하여 1차적인 에지 픽셀들을 검출한 후 Thinning 방법을 이용하여 1-픽셀 두께의 에지를 생성하거나 J. Canny가 제안한 Canny Edge Detector를 사 용할 수 있다. Canny Edge Detector에 관해서는 "A Computational Approach to Edge Detection" (IEEE Trans. on PAMI, Vol. 8, No. 6, 1986)을 참조하라. 도 4는 도 3의 영상에서 에지 픽셀들을 추출한 결과이다.In operation S103, the
단계(S104)와 단계(S105)를 통하여 영상 분석기(102)는 에지 픽셀들로부터 타원을 추출한다. 도 4에서 보는 바와 같이 오버헤드 카메라 영상에서 사람의 머리는 타원 형태로 모델링될 수 있다. 일단 카메라의 고정이 완료되면, 영상에서 사람의 머리는 거의 유사한 크기 및 모양을 갖는다. 따라서 오버헤드 카메라 영상에서 적정한 크기 및 형태를 갖는 타원을 찾음으로서 사람을 분리해내는 것이 가능하다.The
타원을 추출하기 위해 우선 단계(S104)에서 영상 분석기(102)는 단계(S103)에서 구한 에지 픽셀들로부터 의미 있는 커브 세그먼트(Curve Segment)들을 추출한다.In order to extract the ellipse, first, in step S104, the
도 5는 에지 픽셀들로부터 커브 세그먼트들을 추출하는 방법을 도시한 흐름도이다.5 is a flowchart illustrating a method of extracting curve segments from edge pixels.
단계(S201)에서 영상 분석기(102)는 에지 맵(에지 픽셀은 1의 값을 갖고, 그 외의 픽셀은 0의 값을 갖는 이진 영상)이 주어지면 에지 픽셀 추적 및 연결(Edge Following & Linking) 방법을 이용하여 8-Connected Neighbor 형식으로 서로 연결되어 있는 에지 픽셀들을 하나의 커브 세그먼트로 그룹화한다. 에지 픽셀의 추적 중 분기 지점(두 갈래 이상의 진행 경로가 생기는 지점)에 도달하면, 더 이상의 추적을 멈추고 현재까지 추적된 에지 픽셀들을 하나의 커브 세그먼트로 그룹화한다. 분기 지점들은 별도로 기록해 놓고 단계(S203)에서 커브 세그먼트들의 병합 시 활 용한다.In step S201, the
단계(S202)에서 영상 분석기(102)는 각각의 커브 세그먼트에 대하여, 각 커브 세그먼트의 시작점에서 종점까지 이동하면서 각 지점의 곡률 값이 그 지점을 중심으로 일정 구간 내에 있는 주위 지점들의 곡률 값보다 큰 지점을 찾고, 찾은 지점에서의 곡률 값이 설정 값 이상이면 그 지점에서 커브 세그먼트를 분할함에 의하여 커브 세그먼트들을 추출한다. 이때 커브 세그먼트를 구성하는 에지 픽셀들 중에 i번째 에지 픽셀의 좌표를 라고 하고, 벡터 와 벡터 사이의 각(angle)을 라고 하면, 픽셀 에서의 곡률 값은 로 주어진다. 찾은 지점에서의 곡률 값이 설정 값 이상이면 그 지점에서 커브 세그먼트를 분할함으로써 하나의 커브 세그먼트 내에서 급격하게 꺾기는 부분이 없도록 만든다.In step S202, the
단계(S203)에서 영상 분석기(102)는 단계(S201)에서 찾은 분기 지점에서 만나는 커브 세그먼트들에 대하여 조건을 만족하는 커브 세그먼트의 쌍을 하나의 커브 세그먼트로 병합한다. 병합 조건은 특정 커브 세그먼트의 쌍을 연결시켰을 때 분기 지점에서의 곡률 값이 일정 값 이하인 경우이다. 이렇게 함으로써 분기 지점에서 부드럽게 이어지는 커브 세그먼트들을 하나의 커브 세그먼트로 만든다.In operation S203, the
단계(S204)에서 영상 분석기(102)는 커브 세그먼트 필터링을 수행하여 불필요한 커브 세그먼트들은 제거한다. 상기한 바와 같이 커브 세그먼트들을 구하는 이유는 도 2의 단계(S105)에서 커브 세그먼트들을 그룹화하여 타원을 추출하기 위함인데, 추출하려는 타원은 사람의 머리 모양을 근사화한 것이므로 일단 카메라가 고정되면 일정한 범위 내의 크기 및 형태를 갖는다. 따라서 단계(S201)부터 단계(S203)까지를 통해 구한 모든 커브 세그먼트들이 도 2의 단계(S105)에서 구하려는 타원을 구성하는데 적합하지는 않다. 따라서 단계(S204)에서 불필요한 커브 세그먼트들을 미리 제거함으로써 도 2의 단계(S105)에서 보다 적은 계산량으로 원하는 타원들을 추출할 수 있다. 불필요한 커브 세그먼트들을 제거하는 방법으로 예를 들면 커브 세그먼트의 길이가 허용 가능한 타원의 둘레의 최대치보다 크거나, 커브 세그먼트의 양 끝점 간의 거리가 허용 가능한 타원의 장축의 길이의 최대치보다 큰 경우 제거한다.In step S204, the
도 2로 돌아와서, 단계(S105)에서 영상 분석기(102)는 단계(S104)에서 추출한 커브 세그먼트들을 그룹화하여 타원을 추출한다. 커브 세그먼트들을 그룹화하여 타원을 추출하기 위한 여러 공지 기술이 존재한다. 예를 들면 S. C. Zhang, Z. Q. Liu의 "A Robust, Real-Time Ellipse Detector" (Pattern Recognition, Vol. 38, No. 2, 2005), Y. Qiao, S. H. Ong의 "Arc-Based Evaluation and Detection of Ellipses" (Pattern Recognition, Vol. 40, No. 7, 2007), F. Mai, Y. S. Hung, H. Zhong, W. F. Sze의 "A Hierarchical Approach for Fast and Robust Ellipse Extraction" (Pattern Recognition, Vol. 41, No. 8, 2008) 등을 참조하라.Returning to FIG. 2, in step S105, the
단계(S106)에서 영상 분석기(102)는 타원 필터링을 수행한다. 상기한 바와 같이 카메라가 일단 고정되면 오버헤드 카메라 영상에서 사람의 머리에 해당하는 타원의 면적 및 형태는 일정한 범위를 갖는다. 따라서 단계(S105)에서 구한 타원들 중에 면적 및 형태가 지정된 범위를 벗어나는 타원은 제거한다. 이 때 타원의 형태는 타원의 장축과 단축의 길이의 비로 표현된다. 또한, 구한 타원들 중에 서로 겹치는 영역을 가지고 있는 타원들의 경우, 사용자가 지정한 기준 타원에 가장 가까운 면적 및 형태를 가지는 타원을 제외하고 나머지 타원들은 제거한다.In operation S106, the
구하고자 하는 타원의 면적 및 형태에 대한 범위를 설정하기 위해 기준이 되는 타원을 사용자가 영상 분석기(102)에게 미리 지정해줘야 한다. 기준 타원을 지 정하는 방법은 수동/반자동에 의한 방법을 고려할 수 있다. 수동 방법은 시스템 설정 모드에서 사람을 카메라 밑에 위치시킨 후 참조 정지 영상을 취득한 다음, 사용자가 참조 정지 영상에서 사람의 머리에 해당하는 영역을 둘러싸는 타원을 마우스 등을 통해 그려주는 것이다. 반자동 방법은 영상 분석기(102)가 참조 정지 영상에서 타원들을 추출하여 사용자에게 제시하면 사용자가 적당한 타원을 선택하는 방법이다.In order to set a range for the area and shape of the ellipse to be obtained, the user should designate the ellipse as a reference to the
단계(S107)에서 영상 분석기(102)는 검출된 타원들과 기존에 추적 중인 타원 객체들 간의 매칭을 수행한다. 매칭 방법은 여러 가지가 있을 수 있으나 가장 간단한 방법으로, 현재 프레임에서 추적 중인 타원 객체와 검출된 타원 간의 겹침 정도를 측정하여 겹치는 면적이 일정량 이상이면 서로 매칭이 되는 것으로 간주한다. 현재 프레임에서 추적 객체의 위치는 단순히 이전 프레임에서의 위치와 동일한 값을 사용하거나, 과거 프레임들에서의 추적 객체의 위치를 바탕으로 현재 프레임에서의 위치를 예상(Prediction)하여, 예상된 값을 사용하는 방법이 있다. 현재 프레임에서의 위치를 예상하기 위하여 Kalman Filter 등을 활용할 수 있다.In operation S107, the
단계(S107)에서의 매칭 결과를 바탕으로 영상 분석기(102)는 각각의 추적 객체 또는 검출된 타원에 대하여 단계(S108) 내지 단계(S110)을 수행한다.Based on the matching result in step S107, the
단계(S108)에서 영상 분석기(102)는 특정한 추적 객체가 검출된 타원과 1:1로 대응하는 경우, 그 추적 객체의 추적 정보를 업데이트한다. 추적 객체의 추적 정보는 현재 위치, 형태 및 객체의 이동 궤적을 포함한다.In operation S108, when the specific tracking object corresponds 1: 1 with the detected ellipse, the
단계(S109)에서 영상 분석기(102)는 특정한 추적 객체와 대응되는 검출된 타 원이 없는 경우, 그 추적 객체를 소멸시킨다.In operation S109, if there is no detected ellipse corresponding to the specific tracking object, the
단계(S110)에서 영상 분석기(102)는 검출된 특정한 타원과 대응되는 추적 객체가 없는 경우, 그 검출된 타원을 신규 추적 객체로 등록한다.In operation S110, when there is no tracking object corresponding to the detected specific ellipse, the
단계(S111)에서 영상 분석기(102)는 각 추적 객체의 추적 정보를 바탕으로 특정 추적 객체가 사용자가 지정한 이벤트를 발생시켰는지의 여부를 검사한다. 유용한 이벤트 검출의 예로, 참조 영상에서 사용자가 지정한 가상선을 지정된 방향으로 통과하는 객체의 감지나 참조 영상에서 사용자가 지정한 영역에 일정 시간 이상 머물고 있는 객체의 감지 등을 들 수 있다.In operation S111, the
단계(S112)에서 영상 분석기(102)는 단계(S111)에서 이벤트 검출에 성공하였으면, 지정된 작업을 수행한다. 예를 들면, 영상 분석기(102)는 제어/모니터링 단말기(103) 또는 각종 I/O 장치(104)에게 이벤트 알람 신호 및 검출된 이벤트에 관한 정보를 전달할 수 있다. 또는 영상 분석기(102)는 특정 이벤트를 발생시킨 객체의 수를 세고, 계수 값을 제어/모니터링 단말기(103)나 I/O 장치(104)에 전달할 수도 있다.In step S112, the
본 발명의 일 실시예에 따른 오버헤드 카메라 영상에서의 사람 감지 및 추적 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. The method for detecting and tracking a person in an overhead camera image according to an embodiment of the present invention may be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by the computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.
도 1은 본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반 사람 감지/추적 시스템의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an overhead camera image-based person detection / tracking system according to an embodiment of the present invention.
도 2는 본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반의 사람 감지/추적 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an overhead camera image-based person detection / tracking method according to an embodiment of the present invention.
도 3은 오버헤드 카메라로 밑에 있는 사람을 촬영했을 때의 전형적인 예이다.3 is a typical example of photographing a person underneath with an overhead camera.
도 4는 도 3의 영상에서 에지 픽셀들을 추출한 결과이다.FIG. 4 is a result of extracting edge pixels from the image of FIG. 3.
도 5는 에지 픽셀들로부터 커브 세그먼트들을 추출하는 방법을 도시한 흐름도이다.5 is a flowchart illustrating a method of extracting curve segments from edge pixels.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080074461A KR100885418B1 (en) | 2008-07-30 | 2008-07-30 | System and method for detecting and tracking people from overhead camera video |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080074461A KR100885418B1 (en) | 2008-07-30 | 2008-07-30 | System and method for detecting and tracking people from overhead camera video |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100885418B1 true KR100885418B1 (en) | 2009-02-24 |
Family
ID=40682065
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080074461A KR100885418B1 (en) | 2008-07-30 | 2008-07-30 | System and method for detecting and tracking people from overhead camera video |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100885418B1 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101145839B1 (en) | 2012-01-09 | 2012-05-17 | (주)나인정보시스템 | Method for discriminating people and vehicle using a foreground image of fixed camera and an enlarged image of dome camera |
KR101407952B1 (en) * | 2012-11-09 | 2014-06-17 | 전창현 | Elevator crime prvent system and method of controlling the same |
KR101448391B1 (en) | 2013-06-21 | 2014-10-13 | 호서대학교 산학협력단 | People counting system |
KR101448392B1 (en) | 2013-06-21 | 2014-10-13 | 호서대학교 산학협력단 | People counting method |
US9978155B2 (en) | 2015-04-03 | 2018-05-22 | Hanwha Techwin Co., Ltd. | Method and apparatus for counting number of persons |
KR101961891B1 (en) | 2018-07-23 | 2019-03-25 | (주)넥스리얼 | Automatic counting method and appratus for human among the human and stuffs entering into automatic immigration check point |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080020441A (en) * | 2006-08-30 | 2008-03-05 | (주)로직아이텍 | Image monitoring system for object identification |
-
2008
- 2008-07-30 KR KR1020080074461A patent/KR100885418B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20080020441A (en) * | 2006-08-30 | 2008-03-05 | (주)로직아이텍 | Image monitoring system for object identification |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101145839B1 (en) | 2012-01-09 | 2012-05-17 | (주)나인정보시스템 | Method for discriminating people and vehicle using a foreground image of fixed camera and an enlarged image of dome camera |
KR101407952B1 (en) * | 2012-11-09 | 2014-06-17 | 전창현 | Elevator crime prvent system and method of controlling the same |
KR101448391B1 (en) | 2013-06-21 | 2014-10-13 | 호서대학교 산학협력단 | People counting system |
KR101448392B1 (en) | 2013-06-21 | 2014-10-13 | 호서대학교 산학협력단 | People counting method |
US9978155B2 (en) | 2015-04-03 | 2018-05-22 | Hanwha Techwin Co., Ltd. | Method and apparatus for counting number of persons |
KR101961891B1 (en) | 2018-07-23 | 2019-03-25 | (주)넥스리얼 | Automatic counting method and appratus for human among the human and stuffs entering into automatic immigration check point |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10664706B2 (en) | System and method for detecting, tracking, and classifying objects | |
US9405974B2 (en) | System and method for using apparent size and orientation of an object to improve video-based tracking in regularized environments | |
KR101172747B1 (en) | Camera tracking monitoring system and method using thermal image coordinates | |
EP2801078B1 (en) | Context aware moving object detection | |
US20170345181A1 (en) | Video monitoring method and video monitoring system | |
US20130243343A1 (en) | Method and device for people group detection | |
JP6555906B2 (en) | Information processing apparatus, information processing method, and program | |
KR20160088224A (en) | Method for recognizing an object and apparatus thereof | |
KR100885418B1 (en) | System and method for detecting and tracking people from overhead camera video | |
CN101089875A (en) | Face authentication apparatus, face authentication method, and entrance and exit management apparatus | |
KR101645959B1 (en) | The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map | |
JP4667508B2 (en) | Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program | |
KR20160035121A (en) | Method and Apparatus for Counting Entity by Using Location Information Extracted from Depth Image | |
CN105957300B (en) | A kind of wisdom gold eyeball identification is suspicious to put up masking alarm method and device | |
JP2017174343A (en) | Customer attribute extraction device and customer attribute extraction program | |
CN114140745A (en) | Method, system, device and medium for detecting personnel attributes of construction site | |
JP7354767B2 (en) | Object tracking device and object tracking method | |
US10068335B2 (en) | Moving-object counter apparatus, moving-object counting method, and non-transitory computer readable medium | |
CN115019241B (en) | Pedestrian identification and tracking method and device, readable storage medium and equipment | |
KR20150137698A (en) | Method and apparatus for movement trajectory tracking of moving object on animal farm | |
KR100853267B1 (en) | Multiple People Tracking Method Using Stereo Vision and System Thereof | |
JP2005140754A (en) | Method of detecting person, monitoring system, and computer program | |
KR20190099566A (en) | Robust Object Recognition and Object Region Extraction Method for Camera Viewpoint Change | |
KR102161344B1 (en) | Stream reasoning surveilance system and Stream reasoning surveilance method using the same | |
KR102147678B1 (en) | Image merging stream reasoning surveilance method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
A302 | Request for accelerated examination | ||
E902 | Notification of reason for refusal | ||
E90F | Notification of reason for final refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130212 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20140217 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20150130 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20160217 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20170205 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20180504 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20190307 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20200210 Year of fee payment: 12 |