KR100885418B1 - System and method for detecting and tracking people from overhead camera video - Google Patents

System and method for detecting and tracking people from overhead camera video Download PDF

Info

Publication number
KR100885418B1
KR100885418B1 KR1020080074461A KR20080074461A KR100885418B1 KR 100885418 B1 KR100885418 B1 KR 100885418B1 KR 1020080074461 A KR1020080074461 A KR 1020080074461A KR 20080074461 A KR20080074461 A KR 20080074461A KR 100885418 B1 KR100885418 B1 KR 100885418B1
Authority
KR
South Korea
Prior art keywords
ellipse
tracking
image
detected
objects
Prior art date
Application number
KR1020080074461A
Other languages
Korean (ko)
Inventor
김갑수
장정훈
Original Assignee
주식회사 일리시스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 일리시스 filed Critical 주식회사 일리시스
Priority to KR1020080074461A priority Critical patent/KR100885418B1/en
Application granted granted Critical
Publication of KR100885418B1 publication Critical patent/KR100885418B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)

Abstract

A system and a method for detecting and tracking people from an overhead camera video are provided to detect and track a person, who exists with another object or other people, accurately through an image of an overhead camera. An image analyzer receives a new video frame from a camera(S101), and extracts a region where motion occurs from the received image(S102). The image analyzer detects an edge pixel from the received image(S103), and extracts an oval from the edge pixels(S104,S105). The image analyzer carries out an oval filtering(S106), and matches the detected ovals with the previously tracked oval objects(S107). The tracking information of the tracking object is updated when a specific tracking object corresponds to the detected oval(S108). When there is no tracking object corresponding to the detected oval, the tracking object registers the detected oval as a new track object(S110).

Description

오버헤드 카메라 영상에서 사람을 감지하고 추적하는 시스템 및 그 방법 {SYSTEM AND METHOD FOR DETECTING AND TRACKING PEOPLE FROM OVERHEAD CAMERA VIDEO}System and method for detecting and tracking people in overhead camera images {SYSTEM AND METHOD FOR DETECTING AND TRACKING PEOPLE FROM OVERHEAD CAMERA VIDEO}

본 발명은 CCTV 카메라 영상으로부터 사람을 감지하고 추적하는 시스템 및 그 방법에 관한 것으로, 보다 구체적으로는 오버헤드 카메라 영상으로부터 사람의 머리 형태에 대한 모델을 이용하여 개개의 사람을 추출하고 이를 추적하는 시스템 및 그 방법에 관한 것이다.The present invention relates to a system for detecting and tracking a person from a CCTV camera image, and more particularly, to a system for extracting and tracking an individual person using a model of a human head from an overhead camera image. And to a method thereof.

기존의 CCTV 시스템은 수동적인 감시 시스템으로써, CCTV 카메라로부터 얻은 영상의 해석을 전적으로 사람에게 의존하였으나, 최근 들어 컴퓨터의 처리 능력 향상 및 컴퓨터 비전 기술이 발전함에 따라 CCTV 카메라 영상을 컴퓨터가 실시간으로 분석하여 움직이는 객체들을 감지 및 추적하고, 이를 바탕으로 의미 있는 이벤트를 감지하는 지능형 영상 감시 시스템들이 선보이고 있다. 이러한 지능형 영상 감시 시스템은 내부에 구현되어 있는 영상 분석 기능에 따라 다양한 작업에 활용될 수 있는데, 침입 감지나 방치된 물건의 감지 등과 같은 보안/감시 작업뿐만 아니라 특정 지역의 방문객의 수를 세거나 교통량을 측정하는 일과 같은 통계 분석 작업 등 에도 활용될 수 있다.Existing CCTV system is a passive surveillance system, which depends entirely on the interpretation of the images from CCTV cameras. However, in recent years, with the improvement of computer processing capability and the development of computer vision technology, the computer analyzes CCTV camera images in real time. Intelligent video surveillance systems that detect and track moving objects and detect meaningful events are being introduced. The intelligent video surveillance system can be used for various tasks depending on the internal video analysis function. It can count the number of visitors or traffic in certain areas as well as security / surveillance tasks such as intrusion detection and detection of unattended objects. It can also be used for statistical analysis tasks such as measuring data.

특히, 특정 지역을 통과하거나 점유하는 사람의 수를 세는 영상 기반의 사람 계수 시스템(People Counting System)은 기존의 적외선 센서나 기계적인 게이트 장치를 이용하는 계수 시스템에 비해 여러 가지 장점이 있는 관계로 많은 관심을 받고 있다.In particular, the image-based People Counting System, which counts the number of people passing through or occupying a certain area, has many advantages over existing counting systems using infrared sensors or mechanical gate devices. Is getting.

통상적인 영상 기반 사람 계수 시스템은 오버헤드(Overhead) 카메라로부터 영상을 입력받아 영상 분석을 통하여 움직이는 객체를 감지 및 추적하고, 이를 바탕으로 특정 지역을 통과하거나 점유하는 사람의 수를 세도록 구성되어 있다. 여기에서 오버헤드 카메라는 천정으로부터 수직으로 지면을 바라보도록 설치되어 있는 카메라를 의미하며, 통상적인 영상 기반 사람 계수 시스템에서 오버헤드 카메라 영상을 선호하는 이유는 영상에서 객체간의 겹침 현상이 최소화되어 객체의 감지/추적 및 계수 정확도를 높일 수 있기 때문이다.A typical image-based person counting system is configured to detect and track moving objects through image analysis by receiving images from an overhead camera and count the number of people passing or occupying a specific area based on the image. . Here, the overhead camera refers to a camera which is installed to face the ground vertically from the ceiling, and the reason why the overhead camera image is preferred in the conventional image-based human counting system is that the overlap of the objects in the image is minimized, This is because detection / tracking and counting accuracy can be improved.

영상 분석을 통하여 움직이는 객체를 감지 및 추적하는 시스템 또는 영상 기반의 물체 계수 시스템에 관하여 여러 공지 기술이 존재하는데, 예를 들면 대한민국 특허 등록번호가 10-0312427인 "비디오 영상에서 템플레이트와 칼만 필터를 이용한 이동 물체 추적 방법 및 장치", 대한민국 특허 등록번호가 10-0364582인 "다중 이동물체 추적/감시 시스템", 대한민국 특허 등록번호가 10-0625676인 "비디오 카메라 영상에 의한 입실/퇴실자 계수 장치 및 그 제어 방법", 국제 특허 공개번호가 WO 02/097713인 "Automatic Classification and/or Counting System", 국제 특허 공개번호가 WO 2007/067721인 "System and Method for Counting People near External Windowed Doors", 국제 특허 공개번호가 WO 2007/002404인 "Target Detection and Tracking from Overhead Video Streams", 국제 특허 공개번호가 WO 2007/086826인 "Human Detection and Tracking for Security Applications", 미국 특허 공개번호가 US 2006/0067456인 "People Counting Systems and Methods", 미국 특허 공개번호가 US 2008/0008360인 "System and Method for Counting People" 등이 있다.Various known technologies exist for detecting and tracking moving objects through image analysis or for image-based object counting systems. For example, using template and Kalman filters in video images with Korean Patent Registration No. 10-0312427. Moving object tracking method and apparatus "," Multiple moving object tracking / monitoring system "with Korean Patent Registration No. 10-0364582," Passing / Outgoing Counting Device by Video Camera Image and Korean Patent Registration No. 10-0625676 and its Control Method "," Automatic Classification and / or Counting System "with International Patent Publication No. WO 02/097713," System and Method for Counting People near External Windowed Doors "with International Patent Publication No. WO 2007/067721, International Patent Publication "Target Detection and Tracking from Overhead Video Streams", WO 2007/002404, and "Human Detection and Track, International Patent Publication No. WO 2007/086826." ing for Security Applications "," People Counting Systems and Methods ", US 2006/0067456, and" System and Method for Counting People, "US 2008/0008360.

상기 공지 기술들의 한계점으로는, 영상에서 사람의 형태 특성을 이용하여 사람을 분리해내는 메커니즘이 결여되어 있어서 여러 사람이 무리를 이루고 있거나, 사람이 쇼핑카트 등과 같은 물체와 같이 이동할 때 계수 오류가 발생할 수 있으며, 상기 공지 기술 중에 영상에서 사람을 분리해내는 메커니즘이 포함되어 있는 몇몇 기술은 오버헤드 카메라 영상에서는 제대로 동작하지 않는 문제점을 안고 있다.As a limitation of the known techniques, there is a lack of a mechanism that separates a person by using the shape characteristics of a person in an image, so that counting errors may occur when several people are crowded or when a person moves with an object such as a shopping cart. Some of the known techniques, which include a mechanism for separating a person from an image, have a problem in that they do not work properly in an overhead camera image.

본 발명의 일 실시예는 컴퓨터가 오버헤드 카메라로부터 영상을 입력 받아 실시간으로 분석하여, 영상 내에 존재하는 개개의 사람을 추출하고 이를 추적하며, 추적 결과를 바탕으로 사람의 수를 세는 일 등과 같은 작업을 수행하는 시스템 및 그 방법을 제공한다.According to an embodiment of the present invention, a computer receives an image from an overhead camera and analyzes it in real time, extracts and tracks individual people present in the image, and counts the number of people based on the tracking result. It provides a system and method for performing the same.

본 발명의 특징에 따른 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 시스템은,A system for detecting and tracking a person in an overhead camera image according to an aspect of the present invention,

오버헤드 상에서 고정되어 사람을 촬영하는 카메라; 상기 카메라에서 촬영된 영상을 분석하여 모션 영역내의 에지 픽셀들을 검출하고, 검출된 에지 픽셀들로부터 타원 객체들을 검출하고, 검출된 타원 객체들을 추적하고, 타원 객체들의 추적 결과로부터 지정된 이벤트를 감지하고, 감지된 이벤트를 발생시킨 추적 객체들을 계수하는 영상 분석기; 및 상기 영상 분석기로부터 타원 객체들의 추적 결과, 이벤트 감지 결과, 추적 객체들의 계수 결과 등을 전달 받아 가공하여 표출 또는 저장하고, 상기 영상 분석기에 대한 설정 및 제어 정보를 사용자로부터 입력받아 상기 영상 분석기에 전달하는 제어/모니터링 단말기를 포함한다.A camera fixed on the overhead to photograph a person; Analyze the image taken by the camera to detect edge pixels in the motion region, detect ellipse objects from the detected edge pixels, track the detected ellipse objects, detect a specified event from the tracking results of the ellipse objects, An image analyzer for counting the tracking objects that generated the detected event; And receive and process the tracking result of the ellipse objects, the event detection result, the counting result of the tracking objects, etc. from the image analyzer, and display or store the processed result. And a control / monitoring terminal.

상기 영상분석기는, 상기 타원 객체를 검출하는데 있어서 미리 설정된 범위의 속성 값을 갖는 타원 객체를 검출하는 것을 특징으로 하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 하는 것을 특징으로 한다. The image analyzer may detect and track a person in the overhead camera image, wherein the ellipse object has an attribute value of a preset range in detecting the ellipse object.

상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것은, 상기 카메라를 이용하여 오버헤드 상에서 사람을 촬영한 후, 획득된 오버헤드 카메라 영상에서 사람의 머리 둘레를 근사화하는 타원의 속성 값을 기준으로 삼아 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것을 특징으로 한다. The setting of the range of the property value of the ellipse object to be detected is based on the property value of the ellipse that approximates the head circumference of the person in the obtained overhead camera image after photographing the person on the overhead using the camera. Set the range of the attribute value of the ellipse object to be detected.

본 발명의 특징에 따른 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 방법은Method for detecting and tracking a person in an overhead camera image according to a feature of the present invention

고정된 카메라로부터 입력 영상을 취득하는 단계; 상기 입력 영상으로부터 움직임을 감지하여 모션 영역을 추출하는 단계; 상기 모션 영역 내에서 상기 입력 영상의 에지(Edge) 픽셀들을 검출하는 단계; 상기 에지 픽셀들로부터 커브 세그먼트(Curve Segment)들을 추출하는 단계; 상기 커브 세그먼트들을 그룹화하여 기 설정된 범위의 속성 값을 갖는 타원 객체들을 검출하는 단계; 상기 검출된 타원 객체들을 기 추적 중인 타원 객체들과 매칭을 수행하여 타원 객체들을 추적하는 단계; 상기 타원 객체들의 추적 결과를 이용하여 지정된 이벤트를 감지하는 단계; 및 상기 감지된 이벤트를 발생시킨 타원 객체들을 계수하는 단계를 포함한다. Acquiring an input image from a fixed camera; Detecting a motion from the input image to extract a motion region; Detecting edge pixels of the input image within the motion region; Extracting curve segments from the edge pixels; Grouping the curve segments to detect elliptic objects having attribute values in a preset range; Tracking the ellipse objects by matching the detected ellipse objects with the ellipse objects being tracked; Detecting a specified event using a tracking result of the ellipse objects; And counting ellipse objects that caused the detected event.

상기 에지 픽셀들로부터 커브 세그먼트들을 추출하는 것은, 상기 에지 픽셀들의 추적 및 연결을 통해 이웃하는 것들끼리 그룹화하여 1차 커브 세그먼트들을 추출하고 분기 지점들을 기록하는 단계; 상기 1차 커브 세그먼트들에 대하여, 각 커브 세그먼트의 시작점에서 종점까지 이동하면서 각 지점의 곡률 값이 그 지점을 중심으로 일정 구간 내에 있는 주위 지점들의 곡률 값보다 큰 지점을 찾고, 찾은 지점에서의 곡률 값이 설정 값 이상이면 그 지점에서 커브 세그먼트를 분할함에 의하여 2차 커브 세그먼트들을 추출하는 단계; 및 상기 2차 커브 세그먼트들에 대하여, 상기 기록된 분기 지점에서 만나는 커브 세그먼트의 쌍들 중에 분기 지점에서 곡률 값이 설정 값 이하인 커브 세그먼트의 쌍을 하나의 커브 세그먼트로 병합함에 의해 3차 커브 세그먼트들을 추출하는 단계; 상기 3차 커브 세그먼트들에 대하여, 지정된 속성 범위를 갖는 타원 객체를 추출하는데 적합하지 않은 커브 세그먼트들을 제거하여 최종적인 커브 세그먼트들을 추출하는 단계를 포함하는 것을 특징으로 한다. Extracting curve segments from the edge pixels comprises: grouping neighboring ones through tracking and concatenation of the edge pixels to extract primary curve segments and write branch points; With respect to the first curve segments, moving from the start point to the end point of each curve segment, find a point where the curvature value of each point is larger than the curvature value of the surrounding points within a predetermined interval about the point, and the curvature at the found point Extracting secondary curve segments by dividing the curve segment at that point if the value is greater than or equal to the set value; And extracting tertiary curve segments for the secondary curve segments by merging a pair of curve segments having a curvature value at or below a set value into a single curve segment among the pairs of curve segments that meet at the recorded branch point. Making; And extracting the final curve segments by removing curve segments that are not suitable for extracting an ellipse object having a specified attribute range for the cubic curve segments.

상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것은, 상기 카메라를 이용하여 오버헤드 상에서 사람을 촬영하는 단계; 상기 촬영된 영상에서 사람의 머리 둘레를 근사화하는 타원을 사용자가 지정하는 단계; 상기 지정된 타원의 속성 값을 이용하여 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 단계를 포함하는 것을 특징으로 한다. Setting a range of attribute values of the elliptic object to be detected may include: photographing a person on an overhead using the camera; Designating, by the user, an ellipse approximating a head circumference of a person in the captured image; And setting a range of attribute values of the elliptic object to be detected using the attribute values of the designated ellipse.

상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것은, 상기 카메라를 이용하여 오버헤드 상에서 사람을 촬영하는 단계; 상기 촬영된 영상에서 에지 픽셀들을 검출하는 단계; 상기 에지 픽셀들로부터 타원들을 추출하는 단계; 상기 추출된 타원들 중에 사람의 머리 둘레를 근사화하는 타원을 사용자가 선택하는 단계; 및 상기 선택된 타원의 속성 값을 이용하여 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 단계를 포함한다. Setting a range of attribute values of the elliptic object to be detected may include: photographing a person on an overhead using the camera; Detecting edge pixels in the captured image; Extracting ellipses from the edge pixels; Selecting an ellipse from the extracted ellipses to approximate a human head circumference; And setting a range of attribute values of the elliptic object to be detected using the attribute values of the selected ellipse.

상기 검출된 타원 객체들과 기 추적 중인 타원 객체들과의 매칭은, 상기 검출된 타원 객체와 기 추적 중인 타원 객체가 공유하는 영역의 면적에 의해 결정되는 것을 특징으로 한다. The matching of the detected ellipse objects and the ellipse objects being tracked is determined by the area of an area shared by the detected ellipse object and the ellipse object being tracked.

상기 타원 객체들의 추적 결과를 이용하여 지정된 이벤트를 감지하는 것은,Detecting a specified event using the tracking result of the ellipse objects,

사용자가 지정한 영역 내에 일정 시간 이상 특정 타원 객체가 존재하는 이벤트를 감지하거나,Detect an event where a specific ellipse object exists within a user-defined area for a certain time,

사용자가 지정한 가상선을 특정 타원 객체가 통과하는 이벤트를 감지하는 내용을 포함하는 것을 특징으로 한다.And detecting content of a specific ellipse object passing through a virtual line designated by a user.

전술한 본 발명의 과제 해결 수단 중 하나에 의하면, 오버헤드 카메라 영상을 통해 여러 사람이 무리를 이루고 있거나, 사람 이외의 다른 이동 물체가 공존하더라도 정확하게 개개의 사람을 감지하고 추적하며, 추적 결과를 다양한 응용 분야에 활용할 수 있는 시스템을 구현할 수 있다.According to one of the problem solving means of the present invention described above, even if a number of people in a group through an overhead camera image, even if a moving object other than the person coexists accurately detects and tracks each person, and various tracking results Implement a system that can be used for applications.

아래에서는 첨부한 도면을 참조하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 본 발명의 실시예를 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다. DETAILED DESCRIPTION Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art may easily implement the present invention. As those skilled in the art would realize, the described embodiments may be modified in various different ways, all without departing from the spirit or scope of the present invention. In the drawings, parts irrelevant to the description are omitted in order to clearly describe the present invention, and like reference numerals designate like parts throughout the specification.

명세서 전체에서, 어떤 부분이 다른 부분과 "연결"되어 있다고 할 때, 이는 "직접적으로 연결"되어 있는 경우뿐 아니라, 그 중간에 다른 소자를 사이에 두고 "전기적으로 연결"되어 있는 경우도 포함한다. 또한 어떤 부분이 어떤 구성요소를 " 포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다.Throughout the specification, when a part is "connected" to another part, this includes not only "directly connected" but also "electrically connected" with another element in between. . In addition, when a part is said to "include" a certain component, this means that it may further include other components, except to exclude other components unless otherwise stated.

이하에는 도 1 내지 도 5를 참조하여, 본 발명의 일 실시예에 따른 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 시스템 및 그 방법에 대해 설명한다.Hereinafter, a system and method for detecting and tracking a person in an overhead camera image according to an embodiment of the present invention will be described with reference to FIGS. 1 to 5.

도 1은 본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반 사람 감지/추적 시스템의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an overhead camera image-based person detection / tracking system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반 사람 감지/추적 시스템(100)의 구성은 오버헤드 카메라(101), 영상 분석기(102), 제어/모니터링 단말기(103)를 포함한다.Referring to FIG. 1, the configuration of an overhead camera image-based person detection / tracking system 100 according to an embodiment of the present invention includes an overhead camera 101, an image analyzer 102, and a control / monitoring terminal 103. It includes.

오버헤드 카메라(101)는 천정에서 지면을 수직으로 바라보도록 설치된다. 도 3은 오버헤드 카메라로 밑에 있는 사람을 촬영했을 때의 전형적인 예이다.The overhead camera 101 is installed to face the ground vertically from the ceiling. 3 is a typical example of photographing a person underneath with an overhead camera.

영상 분석기(102)는 오버헤드 카메라(101)로부터 일련의 비디오 프레임 데이터(Video Frame Data)를 획득하고, 이를 실시간으로 분석하여 사람을 감지 및 추적하고, 추적 결과를 바탕으로 지정된 이벤트를 검출하고, 지정된 이벤트의 검출 시 지정된 작업을 수행한다. 또한 영상 분석기(102)는 다양한 통신 수단을 통해 제어/모니터링 단말기(103)와 통신을 수행한다. 영상 분석기(102)는 획득된 비디오 프레임 데이터, 사람의 감지/추적 결과, 검출된 이벤트 정보, 추적 중인 사람의 계수 정보 등 다양한 데이터를 필요 시 제어/모니터링 단말기(103)에 전달하며, 제어/모니터링 단말기(103)로부터 각종 설정 및 제어 데이터를 전송 받아 적용시킨다.The image analyzer 102 acquires a series of video frame data from the overhead camera 101, analyzes it in real time to detect and track a person, detects a designated event based on the tracking result, Perform the specified task when detecting the specified event. In addition, the image analyzer 102 communicates with the control / monitoring terminal 103 through various communication means. The image analyzer 102 transmits various data such as the acquired video frame data, the detection / tracking result of the person, the detected event information, the counting information of the person being tracked, and the like to the control / monitoring terminal 103 when necessary, and controls / monitors the data. Various settings and control data are received from the terminal 103 and applied.

제어/모니터링 단말기(103)는 영상 분석기(102)로부터 받은 다양한 데이터를 화면에 표출하거나 저장하고, 저장된 데이터를 검색 및 재생할 수 있으며, 사용자로부터 영상 분석기(102)의 설정 및 제어 정보를 입력 받아 영상 분석기(102)에 설정 및 제어 데이터를 전달한다.The control / monitoring terminal 103 may display or store various data received from the image analyzer 102 on the screen, search and play the stored data, and receive the setting and control information of the image analyzer 102 from a user. Passes configuration and control data to analyzer 102.

영상 분석기(102)는 제어/모니터링 단말기(103) 이외에 각종 I/O 장치(104)와 연결될 수 있다. 예를 들면 각종 센서로부터 센싱 결과를 입력 받아 활용할 수 있으며, 사람의 계수 정보 등과 같은 영상 분석을 통해 얻은 결과를 전용 디스플레이 장치 등에 출력할 수 있다.The image analyzer 102 may be connected to various I / O devices 104 in addition to the control / monitoring terminal 103. For example, sensing results may be input from various sensors, and the results obtained through image analysis such as coefficient information of a person may be output to a dedicated display device.

본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반의 사람 감지/추적 시스템(100)의 구성은 도 1에 도시된 것에 한정되는 것은 아니다. 예를 들면 영상 분석기(102)는 오버헤드 카메라(101) 또는 제어/모니터링 단말기(103)에 통합될 수 있다. 또한 전용의 제어/모니터링 단말기(103) 없이 간단한 I/O 장치들과만 연결되어 사용될 수도 있으며, 이러한 I/O 장치들이 영상 분석기(102)에 통합될 수도 있다.The configuration of an overhead camera image-based person detection / tracking system 100 according to an embodiment of the present invention is not limited to that shown in FIG. 1. For example, the image analyzer 102 may be integrated into the overhead camera 101 or the control / monitoring terminal 103. It may also be used in connection with simple I / O devices without dedicated control / monitoring terminal 103, and these I / O devices may be integrated into the image analyzer 102.

도 2는 본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반의 사람 감지/추적 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an overhead camera image-based person detection / tracking method according to an embodiment of the present invention.

영상 분석기(102)는 오버헤드 카메라 영상에서 사람의 감지/추적을 수행하기 위해 도 2의 단계(S101) 내지 단계(S112)를 반복적으로 수행한다.The image analyzer 102 repeatedly performs steps S101 to S112 of FIG. 2 to perform detection / tracking of a person in the overhead camera image.

단계(S101)에서 영상 분석기(102)는 카메라로부터 새로운 영상, 즉 새로운 비디오 프레임을 입력받는다.In step S101, the image analyzer 102 receives a new image, that is, a new video frame, from the camera.

단계(S102)에서 영상 분석기(102)는 입력 받은 영상에서 모션이 발생한 영역 을 추출한다. 모션이 발생한 영역은 움직이는 사람의 영역을 잠재적으로 포함하는 영역이라고 말할 수 있으며, 영상에서 사람의 추출 시 전제 영역을 고려하지 않고 모션 영역만을 고려함으로써 영상 처리의 효율성 증대를 도모할 수 있다.In operation S102, the image analyzer 102 extracts a region where motion occurs from the input image. The area in which the motion occurs can be said to include the area of the moving person potentially, and the efficiency of image processing can be increased by considering only the motion area without considering the premise area when extracting the human from the image.

모션 영역을 추출하기 위한 여러 공지 기술이 존재하는데, 배경 영상과 입력 영상의 차를 이용하는 Background Subtraction 방법이 대표적이다. Background Subtraction 방법은 배경 영상(또는 배경 모델)을 얻는 방법, 배경 영상/모델과 입력 영상의 차를 구하는 방법, 배경 영상/모델을 업데이트하는 방법 등에 따라 다양한 형태의 방법이 존재한다. 예를 들면 C. Wren, A. Azarbayejani, T. Darrell, A. Pentland의 "Pfinder: Real-Time Tracking of the Human Body" (IEEE Trans. on PAMI, Vol. 19, No. 7, 1997), C. Stauffer, W. Grimson의 "Learning Patterns of Activity Using Real-Time Tracking" (IEEE Trans. on PAMI, Vol. 22, No. 8, 2000), A. Elgammal, D. Harwood, L. Davis의 "Non-parametric Model for Background Subtraction" (Proc. of ICCV '99 FRAME-RATE Workshop, 1999)등을 참조하라.There are several well-known techniques for extracting a motion region, and the Background Subtraction method using a difference between a background image and an input image is representative. Background Subtraction has various types of methods depending on a method of obtaining a background image (or a background model), a method of obtaining a difference between a background image / model and an input image, and a method of updating the background image / model. See, eg, C. Wren, A. Azarbayejani, T. Darrell, A. Pentland, "Pfinder: Real-Time Tracking of the Human Body" (IEEE Trans. On PAMI, Vol. 19, No. 7, 1997), C Stauffer, W. Grimson, "Learning Patterns of Activity Using Real-Time Tracking" (IEEE Trans. On PAMI, Vol. 22, No. 8, 2000), A. Elgammal, D. Harwood, L. Davis, "Non -parametric Model for Background Subtraction "(Proc. of ICCV '99 FRAME-RATE Workshop, 1999).

단계(S103)에서 영상 분석기(102)는 입력 영상으로부터 에지(Edge) 픽셀을 검출한다. 이때 에지 픽셀의 검출은 단계(S102)에서 구한 모션 영역 내에서만 수행한다. 영상에서 에지 픽셀을 구하기 위한 여러 공지 기술이 존재하는데, 본 발명에서는 1-픽셀 두께의 에지를 구할 수 있는 방법을 사용한다. 예를 들면 Sobel Edge Detector 등을 이용하여 1차적인 에지 픽셀들을 검출한 후 Thinning 방법을 이용하여 1-픽셀 두께의 에지를 생성하거나 J. Canny가 제안한 Canny Edge Detector를 사 용할 수 있다. Canny Edge Detector에 관해서는 "A Computational Approach to Edge Detection" (IEEE Trans. on PAMI, Vol. 8, No. 6, 1986)을 참조하라. 도 4는 도 3의 영상에서 에지 픽셀들을 추출한 결과이다.In operation S103, the image analyzer 102 detects edge pixels from the input image. At this time, detection of the edge pixel is performed only within the motion region obtained in step S102. There are several known techniques for obtaining edge pixels in an image, and the present invention uses a method for obtaining edges of 1-pixel thickness. For example, after detecting the primary edge pixels using Sobel Edge Detector, we can create 1-pixel thick edge using thinning method or use Canny Edge Detector proposed by J. Canny. For Canny Edge Detector, see "A Computational Approach to Edge Detection" (IEEE Trans.on PAMI, Vol. 8, No. 6, 1986). FIG. 4 is a result of extracting edge pixels from the image of FIG. 3.

단계(S104)와 단계(S105)를 통하여 영상 분석기(102)는 에지 픽셀들로부터 타원을 추출한다. 도 4에서 보는 바와 같이 오버헤드 카메라 영상에서 사람의 머리는 타원 형태로 모델링될 수 있다. 일단 카메라의 고정이 완료되면, 영상에서 사람의 머리는 거의 유사한 크기 및 모양을 갖는다. 따라서 오버헤드 카메라 영상에서 적정한 크기 및 형태를 갖는 타원을 찾음으로서 사람을 분리해내는 것이 가능하다.The image analyzer 102 extracts an ellipse from the edge pixels through steps S104 and S105. As shown in FIG. 4, the human head may be modeled in an ellipse shape in the overhead camera image. Once the fixing of the camera is completed, the human head in the image has a substantially similar size and shape. Therefore, it is possible to isolate a person by finding an ellipse having an appropriate size and shape in the overhead camera image.

타원을 추출하기 위해 우선 단계(S104)에서 영상 분석기(102)는 단계(S103)에서 구한 에지 픽셀들로부터 의미 있는 커브 세그먼트(Curve Segment)들을 추출한다.In order to extract the ellipse, first, in step S104, the image analyzer 102 extracts meaningful curve segments from the edge pixels obtained in step S103.

도 5는 에지 픽셀들로부터 커브 세그먼트들을 추출하는 방법을 도시한 흐름도이다.5 is a flowchart illustrating a method of extracting curve segments from edge pixels.

단계(S201)에서 영상 분석기(102)는 에지 맵(에지 픽셀은 1의 값을 갖고, 그 외의 픽셀은 0의 값을 갖는 이진 영상)이 주어지면 에지 픽셀 추적 및 연결(Edge Following & Linking) 방법을 이용하여 8-Connected Neighbor 형식으로 서로 연결되어 있는 에지 픽셀들을 하나의 커브 세그먼트로 그룹화한다. 에지 픽셀의 추적 중 분기 지점(두 갈래 이상의 진행 경로가 생기는 지점)에 도달하면, 더 이상의 추적을 멈추고 현재까지 추적된 에지 픽셀들을 하나의 커브 세그먼트로 그룹화한다. 분기 지점들은 별도로 기록해 놓고 단계(S203)에서 커브 세그먼트들의 병합 시 활 용한다.In step S201, the image analyzer 102 is given an edge pixel tracking and linking method when an edge map (binary image having an edge pixel having a value of 1 and other pixels having a value of 0) is given. By using the 8-Connected Neighbor format, edge pixels connected to each other are grouped into one curve segment. When the branch point (the point where two or more progress paths occur) is reached during the tracking of the edge pixels, further tracking is stopped and the edge pixels tracked so far are grouped into one curve segment. The branch points are recorded separately and used in merging the curve segments in step S203.

단계(S202)에서 영상 분석기(102)는 각각의 커브 세그먼트에 대하여, 각 커브 세그먼트의 시작점에서 종점까지 이동하면서 각 지점의 곡률 값이 그 지점을 중심으로 일정 구간 내에 있는 주위 지점들의 곡률 값보다 큰 지점을 찾고, 찾은 지점에서의 곡률 값이 설정 값 이상이면 그 지점에서 커브 세그먼트를 분할함에 의하여 커브 세그먼트들을 추출한다. 이때 커브 세그먼트를 구성하는 에지 픽셀들 중에 i번째 에지 픽셀의 좌표를

Figure 112008086975715-pat00006
라고 하고, 벡터
Figure 112008086975715-pat00007
와 벡터
Figure 112008086975715-pat00008
사이의 각(angle)을
Figure 112008086975715-pat00009
라고 하면, 픽셀
Figure 112008086975715-pat00010
에서의 곡률 값은
Figure 112008086975715-pat00011
로 주어진다. 찾은 지점에서의 곡률 값이 설정 값 이상이면 그 지점에서 커브 세그먼트를 분할함으로써 하나의 커브 세그먼트 내에서 급격하게 꺾기는 부분이 없도록 만든다.In step S202, the image analyzer 102 moves for each curve segment from the start point to the end point of each curve segment while the curvature value of each point is greater than the curvature value of the surrounding points within a predetermined interval about the point. When the point is found and the curvature value of the found point is more than the set value, the curve segments are extracted by dividing the curve segment at the point. At this time, the coordinates of the i th edge pixel among the edge pixels constituting the curve segment
Figure 112008086975715-pat00006
Say, vector
Figure 112008086975715-pat00007
Vector with
Figure 112008086975715-pat00008
The angle between
Figure 112008086975715-pat00009
Speaking of pixels
Figure 112008086975715-pat00010
The curvature value at is
Figure 112008086975715-pat00011
Is given by If the curvature value at the found point is more than the set value, the curve segment is divided at that point so that there is no sharp bend in one curve segment.

단계(S203)에서 영상 분석기(102)는 단계(S201)에서 찾은 분기 지점에서 만나는 커브 세그먼트들에 대하여 조건을 만족하는 커브 세그먼트의 쌍을 하나의 커브 세그먼트로 병합한다. 병합 조건은 특정 커브 세그먼트의 쌍을 연결시켰을 때 분기 지점에서의 곡률 값이 일정 값 이하인 경우이다. 이렇게 함으로써 분기 지점에서 부드럽게 이어지는 커브 세그먼트들을 하나의 커브 세그먼트로 만든다.In operation S203, the image analyzer 102 merges a pair of curve segments satisfying the condition into one curve segment with respect to the curve segments that meet at the branch point found in operation S201. The merge condition is a case where the curvature value at the branch point is a certain value or less when a pair of specific curve segments are connected. This makes the curve segments that run smoothly at the branch point into one curve segment.

단계(S204)에서 영상 분석기(102)는 커브 세그먼트 필터링을 수행하여 불필요한 커브 세그먼트들은 제거한다. 상기한 바와 같이 커브 세그먼트들을 구하는 이유는 도 2의 단계(S105)에서 커브 세그먼트들을 그룹화하여 타원을 추출하기 위함인데, 추출하려는 타원은 사람의 머리 모양을 근사화한 것이므로 일단 카메라가 고정되면 일정한 범위 내의 크기 및 형태를 갖는다. 따라서 단계(S201)부터 단계(S203)까지를 통해 구한 모든 커브 세그먼트들이 도 2의 단계(S105)에서 구하려는 타원을 구성하는데 적합하지는 않다. 따라서 단계(S204)에서 불필요한 커브 세그먼트들을 미리 제거함으로써 도 2의 단계(S105)에서 보다 적은 계산량으로 원하는 타원들을 추출할 수 있다. 불필요한 커브 세그먼트들을 제거하는 방법으로 예를 들면 커브 세그먼트의 길이가 허용 가능한 타원의 둘레의 최대치보다 크거나, 커브 세그먼트의 양 끝점 간의 거리가 허용 가능한 타원의 장축의 길이의 최대치보다 큰 경우 제거한다.In step S204, the image analyzer 102 performs curve segment filtering to remove unnecessary curve segments. As described above, the reason for obtaining the curve segments is to extract the ellipse by grouping the curve segments in step S105 of FIG. 2. Since the ellipse to be extracted approximates the shape of the human head, once the camera is fixed, it is within a certain range. Size and shape. Therefore, not all curve segments obtained through steps S201 to S203 are suitable for constructing an ellipse to be obtained in step S105 of FIG. 2. Therefore, by eliminating unnecessary curve segments in advance in step S204, it is possible to extract desired ellipses with a smaller amount of calculation in step S105 of FIG. Unnecessary curve segments are removed, for example, if the length of the curve segment is greater than the maximum of the perimeter of the permissible ellipse, or if the distance between both ends of the curve segment is greater than the maximum of the length of the long axis of the permissible ellipse.

도 2로 돌아와서, 단계(S105)에서 영상 분석기(102)는 단계(S104)에서 추출한 커브 세그먼트들을 그룹화하여 타원을 추출한다. 커브 세그먼트들을 그룹화하여 타원을 추출하기 위한 여러 공지 기술이 존재한다. 예를 들면 S. C. Zhang, Z. Q. Liu의 "A Robust, Real-Time Ellipse Detector" (Pattern Recognition, Vol. 38, No. 2, 2005), Y. Qiao, S. H. Ong의 "Arc-Based Evaluation and Detection of Ellipses" (Pattern Recognition, Vol. 40, No. 7, 2007), F. Mai, Y. S. Hung, H. Zhong, W. F. Sze의 "A Hierarchical Approach for Fast and Robust Ellipse Extraction" (Pattern Recognition, Vol. 41, No. 8, 2008) 등을 참조하라.Returning to FIG. 2, in step S105, the image analyzer 102 extracts an ellipse by grouping the curve segments extracted in step S104. There are several known techniques for grouping curve segments to extract ellipses. See, for example, "A Robust, Real-Time Ellipse Detector" (Pattern Recognition, Vol. 38, No. 2, 2005) by SC Zhang, ZQ Liu, "Arc-Based Evaluation and Detection of Ellipses by Y. Qiao, SH Ong. '' (Pattern Recognition, Vol. 40, No. 7, 2007), "A Hierarchical Approach for Fast and Robust Ellipse Extraction" by F. Mai, YS Hung, H. Zhong, WF Sze 8, 2008).

단계(S106)에서 영상 분석기(102)는 타원 필터링을 수행한다. 상기한 바와 같이 카메라가 일단 고정되면 오버헤드 카메라 영상에서 사람의 머리에 해당하는 타원의 면적 및 형태는 일정한 범위를 갖는다. 따라서 단계(S105)에서 구한 타원들 중에 면적 및 형태가 지정된 범위를 벗어나는 타원은 제거한다. 이 때 타원의 형태는 타원의 장축과 단축의 길이의 비로 표현된다. 또한, 구한 타원들 중에 서로 겹치는 영역을 가지고 있는 타원들의 경우, 사용자가 지정한 기준 타원에 가장 가까운 면적 및 형태를 가지는 타원을 제외하고 나머지 타원들은 제거한다.In operation S106, the image analyzer 102 performs elliptic filtering. As described above, once the camera is fixed, the area and shape of the ellipse corresponding to the human head in the overhead camera image have a certain range. Therefore, ellipses whose area and shape are out of the specified range are removed from the ellipses obtained in step S105. At this time, the shape of the ellipse is represented by the ratio of the length of the long axis and short axis of the ellipse. In addition, in the case of ellipses having overlapping areas among the obtained ellipses, the other ellipses are removed except an ellipse having an area and a shape closest to a reference ellipse designated by the user.

구하고자 하는 타원의 면적 및 형태에 대한 범위를 설정하기 위해 기준이 되는 타원을 사용자가 영상 분석기(102)에게 미리 지정해줘야 한다. 기준 타원을 지 정하는 방법은 수동/반자동에 의한 방법을 고려할 수 있다. 수동 방법은 시스템 설정 모드에서 사람을 카메라 밑에 위치시킨 후 참조 정지 영상을 취득한 다음, 사용자가 참조 정지 영상에서 사람의 머리에 해당하는 영역을 둘러싸는 타원을 마우스 등을 통해 그려주는 것이다. 반자동 방법은 영상 분석기(102)가 참조 정지 영상에서 타원들을 추출하여 사용자에게 제시하면 사용자가 적당한 타원을 선택하는 방법이다.In order to set a range for the area and shape of the ellipse to be obtained, the user should designate the ellipse as a reference to the image analyzer 102 in advance. As a method of designating a reference ellipse, manual or semi-automatic methods can be considered. In the manual method, a person is placed under the camera in the system setting mode, and then a reference still image is acquired, and then the user draws an ellipse surrounding the area corresponding to the human head with the mouse in the reference still image. The semi-automatic method is a method in which the user selects an appropriate ellipse when the image analyzer 102 extracts ellipses from the reference still image and presents them to the user.

단계(S107)에서 영상 분석기(102)는 검출된 타원들과 기존에 추적 중인 타원 객체들 간의 매칭을 수행한다. 매칭 방법은 여러 가지가 있을 수 있으나 가장 간단한 방법으로, 현재 프레임에서 추적 중인 타원 객체와 검출된 타원 간의 겹침 정도를 측정하여 겹치는 면적이 일정량 이상이면 서로 매칭이 되는 것으로 간주한다. 현재 프레임에서 추적 객체의 위치는 단순히 이전 프레임에서의 위치와 동일한 값을 사용하거나, 과거 프레임들에서의 추적 객체의 위치를 바탕으로 현재 프레임에서의 위치를 예상(Prediction)하여, 예상된 값을 사용하는 방법이 있다. 현재 프레임에서의 위치를 예상하기 위하여 Kalman Filter 등을 활용할 수 있다.In operation S107, the image analyzer 102 performs matching between the detected ellipses and the ellipse objects that are being tracked. There may be many matching methods, but in the simplest method, the degree of overlap between the ellipsoid object being tracked in the current frame and the detected ellipse is measured, and the overlapping area is considered to match each other. The position of the tracking object in the current frame simply uses the same value as the position in the previous frame, or based on the position of the tracking object in past frames, using the expected value. There is a way. Kalman Filter can be used to estimate the position in the current frame.

단계(S107)에서의 매칭 결과를 바탕으로 영상 분석기(102)는 각각의 추적 객체 또는 검출된 타원에 대하여 단계(S108) 내지 단계(S110)을 수행한다.Based on the matching result in step S107, the image analyzer 102 performs steps S108 to S110 for each tracking object or detected ellipse.

단계(S108)에서 영상 분석기(102)는 특정한 추적 객체가 검출된 타원과 1:1로 대응하는 경우, 그 추적 객체의 추적 정보를 업데이트한다. 추적 객체의 추적 정보는 현재 위치, 형태 및 객체의 이동 궤적을 포함한다.In operation S108, when the specific tracking object corresponds 1: 1 with the detected ellipse, the image analyzer 102 updates the tracking information of the tracking object. The tracking information of the tracking object includes the current position, shape, and movement trajectory of the object.

단계(S109)에서 영상 분석기(102)는 특정한 추적 객체와 대응되는 검출된 타 원이 없는 경우, 그 추적 객체를 소멸시킨다.In operation S109, if there is no detected ellipse corresponding to the specific tracking object, the image analyzer 102 destroys the tracking object.

단계(S110)에서 영상 분석기(102)는 검출된 특정한 타원과 대응되는 추적 객체가 없는 경우, 그 검출된 타원을 신규 추적 객체로 등록한다.In operation S110, when there is no tracking object corresponding to the detected specific ellipse, the image analyzer 102 registers the detected ellipse as a new tracking object.

단계(S111)에서 영상 분석기(102)는 각 추적 객체의 추적 정보를 바탕으로 특정 추적 객체가 사용자가 지정한 이벤트를 발생시켰는지의 여부를 검사한다. 유용한 이벤트 검출의 예로, 참조 영상에서 사용자가 지정한 가상선을 지정된 방향으로 통과하는 객체의 감지나 참조 영상에서 사용자가 지정한 영역에 일정 시간 이상 머물고 있는 객체의 감지 등을 들 수 있다.In operation S111, the image analyzer 102 checks whether a specific tracking object has generated a user-designated event based on the tracking information of each tracking object. Examples of useful event detection may include detection of an object passing through a virtual line designated by a user in a reference direction in a reference image, or detection of an object staying for a predetermined time or more in a region designated by a user in a reference image.

단계(S112)에서 영상 분석기(102)는 단계(S111)에서 이벤트 검출에 성공하였으면, 지정된 작업을 수행한다. 예를 들면, 영상 분석기(102)는 제어/모니터링 단말기(103) 또는 각종 I/O 장치(104)에게 이벤트 알람 신호 및 검출된 이벤트에 관한 정보를 전달할 수 있다. 또는 영상 분석기(102)는 특정 이벤트를 발생시킨 객체의 수를 세고, 계수 값을 제어/모니터링 단말기(103)나 I/O 장치(104)에 전달할 수도 있다.In step S112, the image analyzer 102 performs a designated task if the event detection is successful in step S111. For example, the image analyzer 102 may transmit the event alarm signal and the information about the detected event to the control / monitoring terminal 103 or various I / O devices 104. Alternatively, the image analyzer 102 may count the number of objects that generated a specific event and transmit the coefficient value to the control / monitoring terminal 103 or the I / O device 104.

본 발명의 일 실시예에 따른 오버헤드 카메라 영상에서의 사람 감지 및 추적 방법은 컴퓨터에 의해 실행되는 프로그램 모듈과 같은 컴퓨터에 의해 실행 가능한 명령어를 포함하는 기록 매체의 형태로도 구현될 수 있다. 컴퓨터 판독 가능 매체는 컴퓨터에 의해 액세스될 수 있는 임의의 가용 매체일 수 있고, 휘발성 및 비휘발성 매체, 분리형 및 비분리형 매체를 모두 포함한다. 또한, 컴퓨터 판독가능 매체는 컴퓨터 저장 매체 및 통신 매체를 모두 포함할 수 있다. 컴퓨터 저장 매체는 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈 또는 기타 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현된 휘발성 및 비휘발성, 분리형 및 비분리형 매체를 모두 포함한다. 통신 매체는 전형적으로 컴퓨터 판독가능 명령어, 데이터 구조, 프로그램 모듈, 또는 반송파와 같은 변조된 데이터 신호의 기타 데이터, 또는 기타 전송 메커니즘을 포함하며, 임의의 정보 전달 매체를 포함한다. The method for detecting and tracking a person in an overhead camera image according to an embodiment of the present invention may be implemented in the form of a recording medium including instructions executable by a computer, such as a program module executed by the computer. Computer readable media can be any available media that can be accessed by a computer and includes both volatile and nonvolatile media, removable and non-removable media. In addition, computer readable media may include both computer storage media and communication media. Computer storage media includes both volatile and nonvolatile, removable and non-removable media implemented in any method or technology for storage of information such as computer readable instructions, data structures, program modules or other data. Communication media typically includes computer readable instructions, data structures, program modules, or other data in a modulated data signal such as a carrier wave, or other transmission mechanism, and includes any information delivery media.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The foregoing description of the present invention is intended for illustration, and it will be understood by those skilled in the art that the present invention may be easily modified in other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are exemplary in all respects and not restrictive. For example, each component described as a single type may be implemented in a distributed manner, and similarly, components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is shown by the following claims rather than the above description, and all changes or modifications derived from the meaning and scope of the claims and their equivalents should be construed as being included in the scope of the present invention. do.

도 1은 본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반 사람 감지/추적 시스템의 구성을 도시한 도면이다.1 is a diagram illustrating a configuration of an overhead camera image-based person detection / tracking system according to an embodiment of the present invention.

도 2는 본 발명의 일 실시예에 따른 오버헤드 카메라 영상 기반의 사람 감지/추적 방법을 설명하기 위한 흐름도이다.2 is a flowchart illustrating an overhead camera image-based person detection / tracking method according to an embodiment of the present invention.

도 3은 오버헤드 카메라로 밑에 있는 사람을 촬영했을 때의 전형적인 예이다.3 is a typical example of photographing a person underneath with an overhead camera.

도 4는 도 3의 영상에서 에지 픽셀들을 추출한 결과이다.FIG. 4 is a result of extracting edge pixels from the image of FIG. 3.

도 5는 에지 픽셀들로부터 커브 세그먼트들을 추출하는 방법을 도시한 흐름도이다.5 is a flowchart illustrating a method of extracting curve segments from edge pixels.

Claims (9)

오버헤드 상에서 고정되어 사람을 촬영하는 카메라;A camera fixed on the overhead to photograph a person; 상기 카메라에서 촬영된 영상을 분석하여 모션 영역내의 에지 픽셀들을 검출하고, 검출된 에지 픽셀들로부터 타원 객체들을 검출하고, 검출된 타원 객체들을 추적하고, 타원 객체들의 추적 결과로부터 지정된 이벤트를 감지하고, 감지된 이벤트를 발생시킨 추적 객체들을 계수하는 영상 분석기; 및Analyze the image taken by the camera to detect edge pixels in the motion region, detect ellipse objects from the detected edge pixels, track the detected ellipse objects, detect a specified event from the tracking results of the ellipse objects, An image analyzer for counting the tracking objects that generated the detected event; And 상기 영상 분석기로부터 타원 객체들의 추적 결과, 이벤트 감지 결과, 추적 객체들의 계수 결과 등을 전달 받아 가공하여 표출 또는 저장하고, 상기 영상 분석기에 대한 설정 및 제어 정보를 사용자로부터 입력받아 상기 영상 분석기에 전달하는 제어/모니터링 단말기를 포함하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 시스템.It receives and processes the tracking results of the ellipse objects, the event detection results, the counting results of the tracking objects, and displays or stores them, and receives the setting and control information for the image analyzer from the user and delivers them to the image analyzer. A system for detecting and tracking a person in an overhead camera image comprising a control / monitoring terminal. 제 1항에 있어서,The method of claim 1, 상기 영상분석기는,The image analyzer, 상기 타원 객체를 검출하는데 있어서 미리 설정된 범위의 속성 값을 갖는 타원 객체를 검출하는 것을 특징으로 하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 시스템.And detecting an ellipse object having an attribute value within a preset range in detecting the ellipse object. 제 2항에 있어서,The method of claim 2, 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것은,Setting a range of attribute values of the ellipse object to be detected is 상기 카메라를 이용하여 오버헤드 상에서 사람을 촬영한 후, 획득된 오버헤드 카메라 영상에서 사람의 머리 둘레를 근사화하는 타원의 속성 값을 기준으로 삼아 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것을 특징으로 하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 시스템.After photographing a person on the overhead using the camera, setting the range of the attribute value of the ellipse object to be detected based on the attribute value of the ellipse approximating the head circumference of the person in the obtained overhead camera image. A system for detecting and tracking people in overhead camera images. 고정된 카메라로부터 입력 영상을 취득하는 단계;Acquiring an input image from a fixed camera; 상기 입력 영상으로부터 움직임을 감지하여 모션 영역을 추출하는 단계;Detecting a motion from the input image to extract a motion region; 상기 모션 영역 내에서 상기 입력 영상의 에지(Edge) 픽셀들을 검출하는 단계;Detecting edge pixels of the input image within the motion region; 상기 에지 픽셀들로부터 커브 세그먼트(Curve Segment)들을 추출하는 단계;Extracting curve segments from the edge pixels; 상기 커브 세그먼트들을 그룹화하여 기 설정된 범위의 속성 값을 갖는 타원 객체들을 검출하는 단계;Grouping the curve segments to detect elliptic objects having attribute values in a preset range; 상기 검출된 타원 객체들을 기 추적 중인 타원 객체들과 매칭을 수행하여 타원 객체들을 추적하는 단계;Tracking the ellipse objects by matching the detected ellipse objects with the ellipse objects being tracked; 상기 타원 객체들의 추적 결과를 이용하여 지정된 이벤트를 감지하는 단계; 및 Detecting a specified event using a tracking result of the ellipse objects; And 상기 감지된 이벤트를 발생시킨 타원 객체들을 계수하는 단계를 포함하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 방법.And counting ellipse objects that caused the detected event. 제 4항에 있어서,The method of claim 4, wherein 상기 에지 픽셀들로부터 커브 세그먼트들을 추출하는 것은,Extracting curve segments from the edge pixels, 상기 에지 픽셀들의 추적 및 연결을 통해 이웃하는 것들끼리 그룹화하여 1차 커브 세그먼트들을 추출하고 분기 지점들을 기록하는 단계;Grouping neighboring ones through tracking and concatenation of the edge pixels to extract primary curve segments and write branch points; 상기 1차 커브 세그먼트들에 대하여, 각 커브 세그먼트의 시작점에서 종점까지 이동하면서 각 지점의 곡률 값이 그 지점을 중심으로 일정 구간 내에 있는 주위 지점들의 곡률 값보다 큰 지점을 찾고, 찾은 지점에서의 곡률 값이 설정 값 이상이면 그 지점에서 커브 세그먼트를 분할함에 의하여 2차 커브 세그먼트들을 추출하는 단계; With respect to the first curve segments, moving from the start point to the end point of each curve segment, find a point where the curvature value of each point is larger than the curvature value of the surrounding points within a predetermined interval about the point, and the curvature at the found point Extracting secondary curve segments by dividing the curve segment at that point if the value is greater than or equal to the set value; 상기 2차 커브 세그먼트들에 대하여, 상기 기록된 분기 지점에서 만나는 커브 세그먼트의 쌍들 중에 분기 지점에서 곡률 값이 설정 값 이하인 커브 세그먼트의 쌍을 하나의 커브 세그먼트로 병합함에 의해 3차 커브 세그먼트들을 추출하는 단계; 및For the secondary curve segments, tertiary curve segments are extracted by merging a pair of curve segments having a curvature value at or below a set value among the pairs of curve segments meeting at the recorded branch point into one curve segment. step; And 상기 3차 커브 세그먼트들에 대하여, 지정된 속성 범위를 갖는 타원 객체를 추출하는데 적합하지 않은 커브 세그먼트들을 제거하여 최종적인 커브 세그먼트들을 추출하는 단계를 포함하는 것을 특징으로 하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 방법.Extracting the final curve segments by removing curve segments not suitable for extracting an ellipse object having a specified property range, for the third curve segments. And how to track. 제 4항에 있어서,The method of claim 4, wherein 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것은,Setting a range of attribute values of the ellipse object to be detected is 상기 카메라를 이용하여 오버헤드 상에서 사람을 촬영하는 단계;Photographing a person on overhead using the camera; 상기 촬영된 영상에서 사람의 머리 둘레를 근사화하는 타원을 사용자가 지정하는 단계; 및Designating, by the user, an ellipse approximating a head circumference of a person in the captured image; And 상기 지정된 타원의 속성 값을 이용하여 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 단계를 포함하는 것을 특징으로 하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 방법.And setting a range of property values of the ellipse object to be detected using the property values of the specified ellipse. 제 4항에 있어서,The method of claim 4, wherein 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 것은,Setting a range of attribute values of the ellipse object to be detected is 상기 카메라를 이용하여 오버헤드 상에서 사람을 촬영하는 단계;Photographing a person on overhead using the camera; 상기 촬영된 영상에서 에지 픽셀들을 검출하는 단계;Detecting edge pixels in the captured image; 상기 에지 픽셀들로부터 타원들을 추출하는 단계;Extracting ellipses from the edge pixels; 상기 추출된 타원들 중에 사람의 머리 둘레를 근사화하는 타원을 사용자가 선택하는 단계; 및Selecting an ellipse from the extracted ellipses to approximate a human head circumference; And 상기 선택된 타원의 속성 값을 이용하여 상기 검출하려는 타원 객체의 속성 값의 범위를 설정하는 단계를 포함하는 것을 특징으로 하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 방법.And setting a range of attribute values of the elliptic object to be detected using the attribute values of the selected ellipse. 제 4항에 있어서,The method of claim 4, wherein 상기 검출된 타원 객체들과 기 추적 중인 타원 객체들과의 매칭은,The matching of the detected ellipse objects and the ellipse objects being tracked is 상기 검출된 타원 객체와 기 추적 중인 타원 객체가 공유하는 영역의 면적에 의해 결정되는 것을 특징으로 하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 방법.And detecting a person in the overhead camera image, wherein the detected ellipse object and the ellipse object being previously tracked are determined by an area of a shared area. 제 4항에 있어서,The method of claim 4, wherein 상기 타원 객체들의 추적 결과를 이용하여 지정된 이벤트를 감지하는 것은,Detecting a specified event using the tracking result of the ellipse objects, 사용자가 지정한 영역 내에 일정 시간 이상 특정 타원 객체가 존재하는 이벤트를 감지하거나,Detect an event where a specific ellipse object exists within a user-defined area for a certain time, 사용자가 지정한 가상선을 특정 타원 객체가 통과하는 이벤트를 감지하는 내용을 포함하는 것을 특징으로 하는 오버헤드 카메라 영상에서 사람을 감지하고 추적하는 방법.A method for detecting and tracking a person in an overhead camera image, comprising: detecting an event that a specific ellipse object passes through a virtual line designated by a user.
KR1020080074461A 2008-07-30 2008-07-30 System and method for detecting and tracking people from overhead camera video KR100885418B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080074461A KR100885418B1 (en) 2008-07-30 2008-07-30 System and method for detecting and tracking people from overhead camera video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080074461A KR100885418B1 (en) 2008-07-30 2008-07-30 System and method for detecting and tracking people from overhead camera video

Publications (1)

Publication Number Publication Date
KR100885418B1 true KR100885418B1 (en) 2009-02-24

Family

ID=40682065

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080074461A KR100885418B1 (en) 2008-07-30 2008-07-30 System and method for detecting and tracking people from overhead camera video

Country Status (1)

Country Link
KR (1) KR100885418B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101145839B1 (en) 2012-01-09 2012-05-17 (주)나인정보시스템 Method for discriminating people and vehicle using a foreground image of fixed camera and an enlarged image of dome camera
KR101407952B1 (en) * 2012-11-09 2014-06-17 전창현 Elevator crime prvent system and method of controlling the same
KR101448391B1 (en) 2013-06-21 2014-10-13 호서대학교 산학협력단 People counting system
KR101448392B1 (en) 2013-06-21 2014-10-13 호서대학교 산학협력단 People counting method
US9978155B2 (en) 2015-04-03 2018-05-22 Hanwha Techwin Co., Ltd. Method and apparatus for counting number of persons
KR101961891B1 (en) 2018-07-23 2019-03-25 (주)넥스리얼 Automatic counting method and appratus for human among the human and stuffs entering into automatic immigration check point

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080020441A (en) * 2006-08-30 2008-03-05 (주)로직아이텍 Image monitoring system for object identification

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080020441A (en) * 2006-08-30 2008-03-05 (주)로직아이텍 Image monitoring system for object identification

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101145839B1 (en) 2012-01-09 2012-05-17 (주)나인정보시스템 Method for discriminating people and vehicle using a foreground image of fixed camera and an enlarged image of dome camera
KR101407952B1 (en) * 2012-11-09 2014-06-17 전창현 Elevator crime prvent system and method of controlling the same
KR101448391B1 (en) 2013-06-21 2014-10-13 호서대학교 산학협력단 People counting system
KR101448392B1 (en) 2013-06-21 2014-10-13 호서대학교 산학협력단 People counting method
US9978155B2 (en) 2015-04-03 2018-05-22 Hanwha Techwin Co., Ltd. Method and apparatus for counting number of persons
KR101961891B1 (en) 2018-07-23 2019-03-25 (주)넥스리얼 Automatic counting method and appratus for human among the human and stuffs entering into automatic immigration check point

Similar Documents

Publication Publication Date Title
US10664706B2 (en) System and method for detecting, tracking, and classifying objects
US9405974B2 (en) System and method for using apparent size and orientation of an object to improve video-based tracking in regularized environments
KR101172747B1 (en) Camera tracking monitoring system and method using thermal image coordinates
EP2801078B1 (en) Context aware moving object detection
US20170345181A1 (en) Video monitoring method and video monitoring system
US20130243343A1 (en) Method and device for people group detection
JP6555906B2 (en) Information processing apparatus, information processing method, and program
KR20160088224A (en) Method for recognizing an object and apparatus thereof
KR100885418B1 (en) System and method for detecting and tracking people from overhead camera video
CN101089875A (en) Face authentication apparatus, face authentication method, and entrance and exit management apparatus
KR101645959B1 (en) The Apparatus and Method for Tracking Objects Based on Multiple Overhead Cameras and a Site Map
JP4667508B2 (en) Mobile object information detection apparatus, mobile object information detection method, and mobile object information detection program
KR20160035121A (en) Method and Apparatus for Counting Entity by Using Location Information Extracted from Depth Image
CN105957300B (en) A kind of wisdom gold eyeball identification is suspicious to put up masking alarm method and device
JP2017174343A (en) Customer attribute extraction device and customer attribute extraction program
CN114140745A (en) Method, system, device and medium for detecting personnel attributes of construction site
JP7354767B2 (en) Object tracking device and object tracking method
US10068335B2 (en) Moving-object counter apparatus, moving-object counting method, and non-transitory computer readable medium
CN115019241B (en) Pedestrian identification and tracking method and device, readable storage medium and equipment
KR20150137698A (en) Method and apparatus for movement trajectory tracking of moving object on animal farm
KR100853267B1 (en) Multiple People Tracking Method Using Stereo Vision and System Thereof
JP2005140754A (en) Method of detecting person, monitoring system, and computer program
KR20190099566A (en) Robust Object Recognition and Object Region Extraction Method for Camera Viewpoint Change
KR102161344B1 (en) Stream reasoning surveilance system and Stream reasoning surveilance method using the same
KR102147678B1 (en) Image merging stream reasoning surveilance method

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130212

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140217

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150130

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160217

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170205

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20180504

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20190307

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20200210

Year of fee payment: 12