KR100968024B1 - Method and system for tracing trajectory of moving objects using surveillance systems' network - Google Patents

Method and system for tracing trajectory of moving objects using surveillance systems' network Download PDF

Info

Publication number
KR100968024B1
KR100968024B1 KR1020080058545A KR20080058545A KR100968024B1 KR 100968024 B1 KR100968024 B1 KR 100968024B1 KR 1020080058545 A KR1020080058545 A KR 1020080058545A KR 20080058545 A KR20080058545 A KR 20080058545A KR 100968024 B1 KR100968024 B1 KR 100968024B1
Authority
KR
South Korea
Prior art keywords
image
index structure
surveillance
surveillance network
feature information
Prior art date
Application number
KR1020080058545A
Other languages
Korean (ko)
Other versions
KR20090132339A (en
Inventor
박호현
오종현
박광순
안재천
Original Assignee
중앙대학교 산학협력단
(주)트루엔
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 중앙대학교 산학협력단, (주)트루엔 filed Critical 중앙대학교 산학협력단
Priority to KR1020080058545A priority Critical patent/KR100968024B1/en
Publication of KR20090132339A publication Critical patent/KR20090132339A/en
Application granted granted Critical
Publication of KR100968024B1 publication Critical patent/KR100968024B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Abstract

감시 네트워크를 이용한 객체 이동 경로 추적 방법 및 시스템을 개시한다. 감시 네트워크를 이용한 객체 이동 경로 추적 시스템은 객체의 영상을 획득하는 복수의 감시 카메라로 구성된 감시 네트워크; 상기 감시 카메라에서 획득한 영상에서 객체들의 특징 정보를 추출하는 객체 인식부; 및 상기 객체들의 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성하는 색인부를 포함한다.

Figure R1020080058545

시공간 색인, 감시 카메라, 객체, 네트워크, 추출.

Disclosed are a method and a system for tracking an object movement path using a surveillance network. An object movement path tracking system using a surveillance network includes a surveillance network including a plurality of surveillance cameras for acquiring an image of an object; An object recognition unit extracting feature information of objects from an image acquired by the surveillance camera; And an index unit configured to generate an image index structure for distinguishing the objects based on the feature information of the objects, and a space-time index structure indicating a time at which an image of the object is obtained.

Figure R1020080058545

Spatiotemporal Indexes, Surveillance Cameras, Objects, Networks, Extraction.

Description

감시 시스템 네트워크를 이용한 객체의 이동 경로 추적 방법 및 시스템{METHOD AND SYSTEM FOR TRACING TRAJECTORY OF MOVING OBJECTS USING SURVEILLANCE SYSTEMS' NETWORK}Method and system for tracking moving path of object using surveillance system network {METHOD AND SYSTEM FOR TRACING TRAJECTORY OF MOVING OBJECTS USING SURVEILLANCE SYSTEMS 'NETWORK}

본 발명은 감시 시스템 네트워크를 이용한 객체의 이동 경로 추적 방법 및 시스템에 관한 것이다.The present invention relates to a method and a system for tracking a moving path of an object using a surveillance system network.

보안의 중요성의 증가에 따라 감시 카메라를 사용한 감시 시스템이 설치된 장소가 증가하게 되었다. 그러나 종래의 감시 시스템은 감시 시스템에 포함된 각각의 감시 카메라가 담당하는 지역 또는 부분을 독립적으로 촬영하여 이미지를 시스템에 저장하고 분석하고 있었다.Increasing importance of security has led to an increase in the location of surveillance systems using surveillance cameras. However, the conventional surveillance system independently captured the area or part of each surveillance camera included in the surveillance system, and stored and analyzed images in the system.

따라서, 복수의 감시 카메라가 특정 지역을 감시하더라도 각각의 감시 카메라 간의 네트워킹 기능이 부족하여 각각의 감시 카메라로부터 포착된 영상 간의 연관성 및 동일 객체의 이동 경로 파악은 감시 시스템을 관리하는 관리자의 수작업에 의존하고 있는 실정이다. Therefore, even if a plurality of surveillance cameras monitor a specific area, there is a lack of networking capability between the surveillance cameras. Therefore, the correlation between the images captured from each surveillance camera and the movement path of the same object depend on the manual operation of the administrator who manages the surveillance system. I'm doing it.

따라서, 복수의 감시 카메라가 연결된 네트워크를 사용하여 상기 감시 카메라로부터 포착된 영상에 대한 정보를 공유하여 감시 시스템이 설치된 넓은 지역 또 는 건물 내에서 특정 시간대에 특정 인물 또는 사물의 이동 경로를 자동으로 검색 및 추적할 수 있는 방법이 필요한 실정이다.Therefore, by using a network connected to a plurality of surveillance cameras, information about the image captured by the surveillance cameras is shared to automatically search for a moving path of a specific person or object at a specific time in a large area or building where the surveillance system is installed. And there is a need for a way to track.

본 발명은 복수의 감시 카메라를 네트워크로 구성함으로써 상기 감시 카메라로부터 전달받는 영상에서 공통된 객체를 확인하고, 상기 객체의 이동 경로를 추적할 수 있는 감시 네트워크를 이용한 객체 이동 경로 추적 방법 및 시스템을 제공한다.The present invention provides a method and system for tracking an object movement path using a surveillance network capable of identifying a common object in an image received from the surveillance camera by configuring a plurality of surveillance cameras in a network and tracking the movement path of the object. .

본 발명은 감시 카메라로부터 전달받은 영상에서 객체의 얼굴 영역과 특징을 추출하여 시간을 추가한 시공간 데이터와 함께 데이터베이스에 저장함으로써 영상에 포함된 상기 객체를 서로 구별하여 특정 시간, 위치에 있는 상기 객체를 검색할 수 있으며 상기 객체의 시간에 따른 이동궤적 역시 파악할 수 있는 감시 네트워크를 이용한 객체 이동 경로 추적 방법 및 시스템을 제공한다.The present invention extracts a face region and a feature of an object from an image received from a surveillance camera, and stores the object in a database at a specific time and location by distinguishing the objects included in the image from each other by storing them in a database together with time-space data added with time. The present invention provides a method and system for tracking an object movement path using a monitoring network that can search and identify a movement trajectory of the object.

본 발명의 일실시예에 따른 감시 네트워크를 이용한 객체 이동 경로 추적 시스템은 객체의 영상을 획득하는 복수의 감시 카메라로 구성된 감시 네트워크; 상기 감시 카메라에서 획득한 영상에서 객체들의 특징 정보를 추출하는 객체 인식부; 및 상기 객체들의 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성하는 색인부를 포함한다.An object movement path tracking system using a surveillance network according to an embodiment of the present invention includes a surveillance network including a plurality of surveillance cameras for acquiring an image of an object; An object recognition unit extracting feature information of objects from an image acquired by the surveillance camera; And an index unit configured to generate an image index structure for distinguishing the objects based on the feature information of the objects, and a space-time index structure indicating a time at which an image of the object is obtained.

본 발명의 일측면에 따르면, 상기 객체 인식부는, 상기 감시 카메라에서 획득한 영상을 전처리하여 색상별로 분할하는 전처리부; 상기 색상별로 분할된 영 상에서 얼굴 영역을 추출하는 영역 추출부; 및 상기 얼굴 영역에서 특징 정보를 추출하는 특징 추출부를 포함할 수 있다.According to an aspect of the invention, the object recognition unit, a pre-processing unit for pre-processing the image obtained by the surveillance camera to divide by color; An area extracting unit extracting a face area on the image divided by the colors; And a feature extractor configured to extract feature information from the face area.

본 발명의 일측면에 따르면, 상기 특징 추출부는 피부의 색이나 이목구비의 기하학적 관계를 기초로 개체의 고유성과 마스크나 복면, 모자의 착용 여부를 확인할 수 있다.According to one aspect of the invention, the feature extraction unit can determine the uniqueness of the individual and whether the mask or mask, wearing a hat based on the color of the skin or geometrical relationship of the neck.

본 발명의 일측면에 따르면, 상기 객체 인식부는 상기 특징 정보에 차원 축소 기법을 사용하여 상기 특징 정보에 대한 차원 정보를 감소하는 차원 축소부를 더 포함할 수 있다.According to an aspect of the invention, the object recognition unit may further include a dimension reduction unit for reducing the dimensional information for the feature information by using a dimension reduction technique to the feature information.

본 발명의 일측면에 따르면, 상기 색인부는 객체의 시간을 매개 변수로 하여 상기 시공간 색인 구조를 생성할 수 있다.According to an aspect of the present invention, the index unit may generate the space-time index structure using the time of the object as a parameter.

본 발명의 일측면에 따르면, 상기 색인부는 TB-트리 구조에 기초하여 상기 시공간 색인 구조를 생성할 수 있다.According to an aspect of the present invention, the index unit may generate the space-time index structure based on the TB-tree structure.

본 발명의 일측면에 따르면, 상기 이미지 색인 구조로 상기 객체가 포함된 영상을 검색하고, 상기 시공간 색인 구조로 상기 객체의 이동 경로를 검색하는 검색부를 더 포함할 수 있다.According to an aspect of the present disclosure, the image index structure may further include a search unit for searching for an image including the object and searching for a moving path of the object with the spatiotemporal index structure.

본 발명의 일측면에 따르면, 상기 검색부는 사용자로부터 검색 대상 이미지를 입력받으면 상기 검색 대상 이미지를 상기 객체 인식부로 전송하여 상기 검색 대상 이미지의 특징 정보를 추출할 수 있다.According to an aspect of the present invention, when the searcher receives a search target image from a user, the searcher may extract the feature information of the search target image by transmitting the search target image to the object recognition unit.

본 발명의 일측면에 따르면, 상기 검색부는 상기 데이터베이스에 저장된 상기 이미지 색인 구조에서 상기 검색 대상 이미지의 특징 정보와 일치하는 이미지 색인과 그에 대응하는 객체가 포함된 영상을 검색하여 제공할 수 있다.According to an aspect of the present invention, the search unit may search for and provide an image including an image index corresponding to the feature information of the search target image and an object corresponding thereto in the image index structure stored in the database.

본 발명의 일실시예에 따른 감시 네트워크를 이용한 객체 이동 경로 추적 방법은 객체의 영상을 획득하는 단계; 상기 객체의 영상에서 상기 객체들의 특징 정보를 추출하는 단계; 및 상기 객체들의 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성하는 단계를 포함한다.Object tracking path tracking method using a surveillance network according to an embodiment of the present invention comprises the steps of obtaining an image of the object; Extracting feature information of the objects from an image of the object; And generating an image index structure for distinguishing the objects based on the feature information of the objects, and a spatiotemporal index structure indicating a time at which an image of the object is obtained.

본 발명에 따르면, 복수의 감시 카메라를 네트워크로 구성함으로써 상기 감시 카메라로부터 전달받는 영상에서 공통된 객체를 확인하고, 상기 객체의 이동 경로를 추적할 수 있다.According to the present invention, by configuring a plurality of surveillance cameras in a network, it is possible to identify a common object in the image received from the surveillance camera and to track the movement path of the object.

본 발명에 따르면, 감시 카메라로부터 전달받은 영상에서 객체의 얼굴 영역과 특징을 추출하여 시간을 추가한 시공간 데이터와 함께 데이터베이스에 저장함으로써 영상에 포함된 상기 객체를 서로 구별하여 특정 시간, 위치에 있는 상기 객체를 검색할 수 있으며 상기 객체의 시간에 따른 이동궤적 역시 파악할 수 있다.According to the present invention, by extracting a face region and a feature of an object from the image received from the surveillance camera and storing it in a database with time-space data added to the time to distinguish the objects included in the image from each other at a specific time and location The object can be searched and the movement trajectory of the object can also be identified.

이하 첨부된 도면을 참조하여 본 발명에 따른 다양한 실시예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 감시 네트워크를 이용한 객체 이동 경로 추적 시스템(100)의 개괄적인 모습을 도시한 일례다. 1 is an example illustrating an overview of an object movement path tracking system 100 using a monitoring network according to an embodiment of the present invention.

복수의 감시 카메라로 구성된 감시 네트워크(101)에서 영상을 획득하면, 객 체 인식부(102)가 상기 감시 카메라에서 획득한 영상에서 객체들의 특징 정보를 추출하고, 색인부(103)가 상기 객체들의 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성하여 데이터베이스(104)에 저장한다. 이때, 검색부(105)는 상기 이미지 색인 구조로 상기 객체가 포함된 영상을 검색하고, 상기 시공간 색인 구조로 상기 객체의 이동 경로를 검색할 수 있다.When an image is acquired from the surveillance network 101 including a plurality of surveillance cameras, the object recognition unit 102 extracts feature information of the objects from the image acquired by the surveillance camera, and the index unit 103 is configured to generate the image. An image index structure for distinguishing the objects and a spatiotemporal index structure representing the time at which the image of the object is obtained based on the feature information are generated and stored in the database 104. In this case, the searcher 105 may search for an image including the object in the image index structure and search a moving path of the object in the space-time index structure.

이때, 감시 네트워크(101)는 복수의 감시카메라에 감시하는 지역에 대응하는 일련번호를 할당하여 카메라를 식별하도록 하여 네트워크를 구성하고, 상기 감시 카메라에서 획득한 영상 정보를 객체 인식부(102)로 전송할 수 있다. 감시 네트워크(101)의 구성에 대해서는 도 2를 통해 더욱 자세히 설명한다.In this case, the surveillance network 101 configures a network by identifying a camera by assigning a serial number corresponding to a region to be monitored to the plurality of surveillance cameras, and transmits the image information obtained from the surveillance camera to the object recognition unit 102. Can transmit The configuration of the monitoring network 101 will be described in more detail with reference to FIG. 2.

이때, 객체 인식부(102)는 상기 감시 카메라에서 획득한 영상을 보정하고 상기 영상에 포함된 객체를 구별하며, 상기 객체의 특징을 추출할 수 있다. 객체 인식부(102)의 구성에 대해서는 도 3을 통해 더욱 자세히 설명한다.In this case, the object recognizing unit 102 may correct an image acquired by the surveillance camera, distinguish an object included in the image, and extract a feature of the object. The configuration of the object recognition unit 102 will be described in more detail with reference to FIG. 3.

이때, 색인부(103)가 생성하는 이미지 색인 구조는 객체 인식부(102)가 구별해낸 객체를 바탕으로 영상을 구별하여 색인을 구성함으로써 사용자가 검색하고자 하는 객체와 유사한 검색 대상 이미지를 사용하여 원하는 객체가 속한 영상을 검색할 수 있다. 이때, 상기 이미지 색인 구조는 일반적인 트리 구조를 사용하여 생성할 수 있다.In this case, the image index structure generated by the index unit 103 may be configured by using an image to be searched similar to the object to be searched by the user by constructing an index by distinguishing images based on the objects distinguished by the object recognition unit 102. You can search for images to which an object belongs. In this case, the image index structure may be generated using a general tree structure.

이때, 색인부(103)가 생성하는 시공간 색인 구조는 객체의 시간을 매개변수로 색인 구조를 구축함으로써, 사용자가 객체의 시간에 따른 이동경로 등을 검색할 수 있다. 이때, 상기 시공간 색인 구조는 일반적인 영상 정보가 아닌 시공간 정보가 생성되어 저장되어야 하므로 이에 최적화된 TB-트리(tree)구조를 기초로 생성할 수 있다. 상기 시공간 색인 구조에 대해서는 도 4를 통해 더욱 자세히 설명한다.In this case, the spatio-temporal index structure generated by the index unit 103 may construct an index structure using the time of the object as a parameter, so that the user may search for the movement path according to the time of the object. In this case, the spatiotemporal index structure may be generated based on a TB-tree structure optimized for spatiotemporal information, which is not general image information, but needs to be generated and stored. The spatiotemporal index structure will be described in more detail with reference to FIG. 4.

이때, 검색부(105)는 사용자로부터 검색 대상 이미지를 입력받으면 상기 검색 대상 이미지를 객체 인식부(102)로 전송하여 상기 검색 대상 이미지의 특징 정보를 추출하고, 데이터베이스(104)에 저장된 상기 이미지 색인 구조에서 상기 검색 대상 이미지의 특징 정보와 일치하는 이미지 색인과 그에 대응하는 객체가 포함된 영상을 검색하여 사용자에게 제공할 수 있다.In this case, when the search unit 105 receives a search target image from a user, the search unit 105 transmits the search target image to the object recognition unit 102 to extract feature information of the search target image, and the image index stored in the database 104. In the structure, an image including an image index corresponding to the feature information of the search target image and an object corresponding thereto may be searched and provided to the user.

이와 같이, 상기 확인된 감시 네트워크를 이용한 객체 이동 경로 추적 시스템(100)에 대해서는 도 2, 도 3, 및 도 4의 일례를 통해 더욱 자세히 설명한다.As such, the object movement path tracking system 100 using the checked monitoring network will be described in more detail with reference to FIGS. 2, 3, and 4.

도 2는 본 발명의 일실시예에 있어서, 감시 네트워크(101)의 개괄적인 모습을 도시한 일례다. 2 is an example showing an overview of the monitoring network 101 according to an embodiment of the present invention.

감시 네트워크(101)는 도 2에 도시된 바와 같이 복수의 감시 카메라(211, 212, 213, 214)를 하나의 네트워크로 묶어서 특정 지역인 1구역(210)에서 영상을 획득하고, 다른 복수의 감시 카메라(221, 222, 223, 224)를 하나의 네트워크로 묶어서 다른 지역인 2구역(220)에서 영상을 획득하여 객체 인식부(102)로 전송할 수 있다.As shown in FIG. 2, the surveillance network 101 bundles a plurality of surveillance cameras 211, 212, 213, and 214 into one network to acquire an image in a region 210, which is a specific area, and monitors a plurality of other surveillance. The cameras 221, 222, 223, and 224 may be bundled into one network to acquire an image in the second region 220, which is another region, and transmit the image to the object recognition unit 102.

이때, 감시 네트워크(101)는 감시카메라(211)에 일련번호 1을 할당하고, 감시카메라(212)에 일련번호 2를 할당하며, 감시카메라(213)에 일련번호 3을 할당하고, 감시카메라(214)에 일련번호 4를 할당하며, 감시카메라(221)에 일련번호 5를 할당하고, 감시카메라(222)에 일련번호 6을 할당하며, 감시카메라(223)에 일련번호 7을 할당하고, 감시카메라(224)에 일련번호 8을 할당할 수 있다.At this time, the surveillance network 101 assigns a serial number 1 to the surveillance camera 211, assigns a serial number 2 to the surveillance camera 212, assigns a serial number 3 to the surveillance camera 213, Assign serial number 4 to 214, assign serial number 5 to surveillance camera 221, assign serial number 6 to surveillance camera 222, assign serial number 7 to surveillance camera 223, and monitor Serial number 8 may be assigned to camera 224.

이때, 감시 네트워크(101)는 복수의 감시 카메라(211, 212, 213, 214, 221, 222, 223, 224)에서 객체(231)와 객체(241)에 대한 영상을 획득함으로써 객체(231)가 1구역(210)과 2구역(220)을 통과하여 도착점(233)으로 이동하는 경로(232)와 객체(241)가 1구역(210)과 2구역(220)을 통과하여 도착점(243)으로 이동하는 경로(242)의 추적할 수 있도록 할 수 있다.In this case, the surveillance network 101 acquires images of the object 231 and the object 241 from the plurality of surveillance cameras 211, 212, 213, 214, 221, 222, 223, and 224, thereby providing the object 231 with the image. The route 232 and the object 241 passing through the first zone 210 and the second zone 220 to the arrival point 233 pass through the first zone 210 and the second zone 220 to the arrival point 243. It may be possible to track the moving path 242.

이때, 감시 네트워크를 이용한 객체 이동 경로 추적 시스템(100)은 일련번호 1, 2, 4, 5, 6, 7, 8의 감시 카메라에서 획득한 영상에 객체(231)의 특징을 가진 객체가 있음을 확인하여 객체(231)가 일련번호 1, 2, 4, 5, 6, 7, 8의 감시 카메라가 촬영하는 영역을 통과한 경로(232)로 이동함을 검색할 수 있다.In this case, the object movement path tracking system 100 using the surveillance network indicates that there is an object having the characteristics of the object 231 in the image obtained from the surveillance cameras of serial numbers 1, 2, 4, 5, 6, 7, and 8. As a result, the object 231 may be searched to move to the path 232 through the area photographed by the surveillance camera of serial numbers 1, 2, 4, 5, 6, 7, and 8.

도 3은 본 발명의 일실시예에 있어서, 객체 인식부(102)의 개괄적인 모습을 도시한 일례이다.3 is an example illustrating an overview of the object recognition unit 102 according to an embodiment of the present invention.

객체 인식부(102)는 영상 입력부(301), 전처리부(302), 영역 추출부(303), 특징 추출부(304), 및 차원 축소부(305)를 포함할 수 있다.The object recognizer 102 may include an image input unit 301, a preprocessor 302, an area extractor 303, a feature extractor 304, and a dimensional reducer 305.

이때, 영상 입력부(301)는 감시 네트워크(101)로부터 프레임간의 정지 영상 정보를 차례로 수신하여 순서대로 다음 처리과정을 위해 대기시키고, 전처리부(302)에서 이전에 전송한 영상의 전처리가 종료되면, 전처리부(302)로 영상을 차례대로 전송할 수 있다. 이때, 상기 프레임간의 정지 영상 정보는 상기 감시 카메라에서 획득되는 영상일 수 있다.In this case, the image input unit 301 sequentially receives the still image information between frames from the monitoring network 101 and waits for the next processing sequence in order, and when the preprocessing of the image previously transmitted from the preprocessing unit 302 ends, The image may be sequentially transmitted to the preprocessor 302. In this case, the still image information between the frames may be an image obtained from the surveillance camera.

이때, 전처리부(302)는 영상 입력부(301)에서 전송한 영상을 전처리하여 상기 영상을 가공하기 쉽게 보정한 후, 이미지 세그멘테이션을 실행하여 색상별로 분할 할 수 있다.In this case, the preprocessor 302 may pre-process the image transmitted from the image input unit 301 to correct the image so as to be easily processed, and then segment the colors by executing image segmentation.

이때, 전처리부(302)는 전처리 과정을 통하여 통해 노이즈를 제거와 기본적인 보정을 함으로써 상기 영상의 화질을 증가 시키고 가독성에 중요한 요소인 조도를 고정하여 세그멘테이션과 특징 추출시의 정확성을 향상시킬 수 있다. At this time, the preprocessing unit 302 may improve the accuracy of segmentation and feature extraction by increasing the image quality of the image and fixing roughness, which is an important factor for readability, by removing noise and performing basic correction through a preprocessing process.

이때, 전처리부(302)는 감시 영상의 특성 및 세그멘테이션의 효율성을 고려하여 에지 보존력이 높고 임펄스 잡음에 강한 미디언 필터를 전처리에 사용할 수 있다.In this case, the preprocessor 302 may use a median filter having high edge retention and strong impulse noise in preprocessing in consideration of the characteristics of the surveillance image and the efficiency of segmentation.

또한, 전처리부(302)는 필터링의 융통성을 조금 더 높이기 위해서 α의 값에 따라 미디언 필터와 같이 동작하기도 하고 좀 더 강하거나 약한 필터링을 수행할 수 있는 α-trimmed mean 필터를 전처리에 사용할 수도 있다.In addition, the preprocessing unit 302 may use an α-trimmed mean filter for pretreatment, which may operate like a median filter depending on the value of α, and may perform stronger or weaker filtering, depending on the value of α. have.

이때, 전처리부(302)는 색상에 따른 이미지 세그멘테이션을 실행함으로써 상기 영상을 색상별로 분할하여 사람의 피부색에 해당하는 부분을 검출할 수 있다.In this case, the preprocessor 302 may segment the image by color to detect a part corresponding to a human skin color by executing image segmentation according to color.

이때, 전처리부(302)는 에지 추출을 이용하여 이미지를 분할하는 방식을 사용할 수 있다. In this case, the preprocessor 302 may use a method of segmenting an image using edge extraction.

이때, 영역 추출부(303)는 상기 색상별로 분할된 영상에서 얼굴 영역을 추출할 수 있다.In this case, the area extractor 303 may extract a face area from the image divided for each color.

이때, 영역 추출부(303)는 전처리부(302)에서 세그멘테이션 된 상기 영상에서 피부색에 해당하는 영역 중에서 얼굴에 해당하는 구성요소(대표적으로 눈, 코, 입 등)를 추출함으로써 상기 영상에서 얼굴 영역과 색상만 비슷한 팔이나 다리와 같은 부위를 구별해 낼 수 있다. In this case, the area extractor 303 extracts a component (typically an eye, a nose, a mouth, etc.) corresponding to a face from a region corresponding to a skin color in the image segmented by the preprocessor 302, thereby extracting a face region from the image. You can identify areas such as arms and legs that are similar in color and color.

이때, 영역 추출부(303)는 컬러기반의 검출법과 기하학적 방식, SVM방식의 알고리즘을 복수로 적용하여 얼굴 영역을 추출할 수 있다.In this case, the area extractor 303 may extract a face area by applying a plurality of color-based detection methods, geometric methods, and SVM methods.

이때, 특징 추출부(304)는 상기 영상에 포함된 얼굴들 간의 구분을 위해서 영역 추출부(303)에서 검출한 얼굴 영역마다의 특징을 추출할 수 있다. In this case, the feature extractor 304 may extract a feature for each face region detected by the region extractor 303 in order to distinguish between faces included in the image.

이때, 특징 추출부(304)는 피부의 색이나, 이목구비의 기하학적인 관계를 통해 개개인의 고유성뿐만 아니라 마스크나 복면, 모자 등의 착용 여부를 알아내어 객체 간의 고유성을 찾아내고 구별하여 인식할 수 있다. At this time, the feature extraction unit 304 can find out the distinctiveness between the objects by identifying the uniqueness of the individual, as well as whether the mask, mask, hat, etc., as well as the uniqueness of each individual through the geometric relationship between the color of the skin and the neck. .

이때, 특징 추출부(304)는 주성분 분석(PCA: Principal Component Analysis) 방식을 사용하여 얼굴의 전체적인 특징을 추출하고, 선형 변별 분식(LDA: Linear Discriminant Analysis) 방식과 지역적 특징 분석(LFA: Local Feature Analysis) 방식으로 상기 주성분 분석 방식에서 미비한 상세 특징을 추출할 수 있다. At this time, the feature extraction unit 304 extracts the overall features of the face using a principal component analysis (PCA) method, a linear discriminant analysis (LDA) method and a local feature analysis (LFA). Analysis) can extract the detailed features that are insufficient in the principal component analysis method.

이때, 차원 축소부(305)는 특징 추출부(304)에서 추출된 상기 특징 정보에 차원 축소 기법을 사용하여 상기 특징 정보에 대한 차원 정보를 감소할 수 있다.In this case, the dimension reduction unit 305 may reduce the dimension information on the feature information by using a dimension reduction technique on the feature information extracted by the feature extractor 304.

특징 추출부(304)에서 추출된 상기 특징 정보는 보통 n차원의 데이터로 표현이 되는데, n이 커지게 경우에 하나의 정지영상을 저장하기 위해 많은 공간이 필요하게 되고 영상 데이터 간의 유사성을 측정하기 위해 높은 연산 복잡도를 요구하게 된다. The feature information extracted by the feature extractor 304 is usually expressed as n-dimensional data. When n becomes large, a large amount of space is required to store one still image, and the similarity between the image data is measured. High computational complexity is required.

또한, 특징 정보 데이터에 색인 구조를 적용하기 위해서는 다차원에 맞는 공 간 색인 구조를 적용해야 하는데 아직까지 공간색인 구조는 차원이 커짐에 따라 효율성이 급격히 떨어지게 되는 문제점이 있다.In addition, in order to apply the index structure to the feature information data, it is necessary to apply the spatial index structure suitable for multi-dimensional. However, the spatial index structure has a problem that the efficiency decreases rapidly as the dimension increases.

따라서, 차원 축소부(305)는 n차원의 데이터로 형성된 상기 특징 정보를 차원 축소(Dimensionality Reduction) 기법을 사용하여 d (0 < d << n)차원으로 감소시켜 색인부(103)로 전송함으로써 원래의 특징 데이터를 잘 표현할 수 있다.Accordingly, the dimension reduction unit 305 reduces the feature information formed of the n-dimensional data to the d (0 <d << n) dimension and transmits the feature information to the index unit 103 by using a dimension reduction technique. The original feature data can be well represented.

이때, 객체 인식부(102)는 검색부(105)로부터 상기 검색 대상 이미지를 전처리 부(302)로 수신하여 상기 검색 대상 이미지를 전처리하고, 얼굴 영역에서 특징 정보를 추출하며 추출된 특징 정보의 차원을 축소할 수 있다.In this case, the object recognizer 102 receives the search target image from the searcher 105 as a preprocessing unit 302, preprocesses the search target image, extracts feature information from the face region, and extracts the dimension of the extracted feature information. Can be reduced.

도 4는 본 발명의 일실시예에 있어서, 데이터베이스(104)에 저장되는 시공간 색인 구조를 도시한 일례이다.4 illustrates an example of a space-time index structure stored in the database 104 according to one embodiment of the present invention.

상기 시공간 색인 구조는 TB-트리(tree)구조를 기초로 생성되며 최상위에 위치한 루트 노드(root node)에 도 2에 도시된 감시 네트워크(101)의 1구역(210)에 대응하는 1구역 노드(410)와 2구역(220)에 대응하는 2구역 노드(420)가 있다. 이때 구역 노드의 수는 감시 네트워크(101)에 포함된 구역의 수에 대응할 수 있다.The spatiotemporal index structure is generated based on the TB-tree structure, and has a one-zone node corresponding to the one-zone 210 of the monitoring network 101 shown in FIG. 2 at a root node located at the top. There are two zone nodes 420 corresponding to 410 and two zones 220. In this case, the number of zone nodes may correspond to the number of zones included in the monitoring network 101.

이때, 상기 구역 노드에는 상기 구역에 포함된 감시 카메라에서 획득한 영상에 대응하는 리프 노드(leaf node)들이 연결될 수 있다.In this case, leaf nodes corresponding to the image acquired by the surveillance camera included in the zone may be connected to the zone node.

예를 들어 객체(231)가 일련번호 1, 2, 4, 5, 6, 7, 8의 감시 카메라에서 촬영된 영상에 포함되고, 객체(241)가 일련번호 1, 3, 4, 5, 7의 감시 카메라에서 촬영된 영상에 포함된 경우에, 도 4에 도시된 바와 같이 1구역 노드(410)에 연결된 일련번호 1 리프 노드(411)에 객체(231)가 저장되고, 일련번호 1 리프 노드(412)에 객체(241)가 저장될 수 있다.For example, the object 231 is included in the image captured by the surveillance cameras of serial numbers 1, 2, 4, 5, 6, 7, 8, and the object 241 is serial numbers 1, 3, 4, 5, 7 When included in an image captured by the surveillance camera of FIG. 4, the object 231 is stored in the serial number 1 leaf node 411 connected to the first zone node 410, and the serial number 1 leaf node as shown in FIG. 4. The object 241 may be stored at 412.

이때, 일련번호 1 리프 노드(411)는 객체(231)가 저장된 일련번호 2 리프 노드(413), 일련번호 4 리프 노드(415), 일련번호 5 리프 노드(421), 일련번호 6 리프 노드(423), 일련번호 7 리프 노드(424), 일련번호 8 리프 노드(426)들과 링크 리스트로 연결될 수 있으며, 도 4의 우측에 도시된 바와 같이 궤적을 입체적으로 표시할 수도 있다.At this time, the serial number 1 leaf node 411 is a serial number 2 leaf node 413, the serial number 4 leaf node 415, the serial number 5 leaf node 421, the serial number 6 leaf node (storage object 231) is stored ( 423, the serial number 7 leaf node 424 and the serial number 8 leaf node 426 may be linked to the link list, and the trajectory may be three-dimensionally displayed as shown on the right side of FIG. 4.

또한, 이때, 일련번호 1 리프 노드(412)는 객체(231)가 저장된 일련번호 3 리프 노드(414), 일련번호 4 리프 노드(415), 일련번호 5 리프 노드(422), 일련번호 7 리프 노드(425)들과 링크 리스트로 연결될 수 있다.Also, at this time, the serial number 1 leaf node 412 is a serial number 3 leaf node 414, serial number 4 leaf node 415, serial number 5 leaf node 422, serial number 7 leaf in which the object 231 is stored. Nodes 425 may be linked to a linked list.

도 5는 본 발명의 일실시예에 있어서, 감시 네트워크를 이용한 객체 이동 경로 정보 등록 방법을 도시한 흐름도이다. 5 is a flowchart illustrating a method for registering object movement path information using a monitoring network according to an embodiment of the present invention.

단계(S501)에서 감시 네트워크(101)는 감시 카메라로부터 객체의 영상을 획득한다. 이때, 감시 네트워크(101)는 획득한 상기 영상을 객체 인식부(102)의 영상 입력부(301)로 전송할 수 있다.In operation S501, the surveillance network 101 obtains an image of an object from the surveillance camera. In this case, the surveillance network 101 may transmit the acquired image to the image input unit 301 of the object recognition unit 102.

단계(S502)에서 전처리부(302)는 단계(S502)에서 획득한 상기 객체의 영상을 전처리하여 색상별로 분할한다.In step S502, the preprocessor 302 preprocesses the image of the object obtained in step S502 and divides the image by color.

이때, 전처리부(302)는 영상 입력부(301)에서 전송한 영상을 전처리하여 상기 영상을 가공하기 쉽게 보정한 후, 이미지 세그멘테이션을 실행하여 색상별로 분할 할 수 있다.In this case, the preprocessor 302 may pre-process the image transmitted from the image input unit 301 to correct the image so as to be easily processed, and then segment the colors by executing image segmentation.

단계(S503)에서 영역 추출부(303)는 단계(S502)에서 색상별로 분할된 상기 영상에서 얼굴 영역을 추출한다.In operation S503, the area extractor 303 extracts a face region from the image divided for each color in operation S502.

이때, 영역 추출부(303)는 단계(S502)에서 세그멘테이션 된 상기 영상에서 피부색에 해당하는 영역 중에서 얼굴에 해당하는 구성요소(대표적으로 눈, 코, 입 등)를 추출함으로써 상기 영상에서 얼굴 영역과 색상만 비슷한 팔이나 다리와 같은 부위를 구별해 낼 수 있다. In this case, the area extractor 303 extracts the components corresponding to the face (typically eyes, nose, mouth, etc.) from the area corresponding to the skin color in the image segmented in step S502 and the face area in the image. You can identify areas such as arms or legs that are similar in color.

단계(S504)에서 특징 추출부(304)는 단계(S503)에서 추출한 상기 얼굴 영역에서 특징 정보를 추출한다.In operation S504, the feature extractor 304 extracts feature information from the face region extracted in operation S503.

이때, 특징 추출부(304)는 피부의 색이나, 이목구비의 기하학적인 관계를 통해 개개인의 고유성뿐만 아니라 마스크나 복면, 모자 등의 착용 여부를 알아내어 객체 간의 고유성을 찾아내고 구별하여 인식할 수 있다. At this time, the feature extraction unit 304 can find out the distinctiveness between the objects by identifying the uniqueness of the individual, as well as whether the mask, mask, hat, etc., as well as the uniqueness of each individual through the geometric relationship between the color of the skin and the neck. .

단계(S505)에서 차원 축소부(305)는 단계(S504)에서 추출한 상기 특징 정보에 차원 축소 기법을 사용하여 상기 특징 정보에 대한 차원 정보를 감소한다.In operation S505, the dimension reduction unit 305 reduces the dimension information of the feature information by using a dimension reduction technique on the feature information extracted in operation S504.

이때, 차원 축소부(305)는 n차원의 데이터로 형성된 상기 특징 정보를 차원 축소 기법을 사용하여 d(0 < d << n)차원으로 감소하여 색인부(103)로 전송할 수 있다.In this case, the dimension reduction unit 305 may reduce the feature information formed of the n-dimensional data into the d (0 <d << n) dimension by using the dimension reduction technique and transmit it to the index unit 103.

단계(S506)에서 색인부(103)는 상기 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성한다.In operation S506, the index unit 103 generates an image index structure for distinguishing the objects based on the feature information, and a space-time index structure indicating the time when the image of the object is obtained.

이때, 상기 시공간 색인 구조는 TB-트리(tree)구조를 기초로 생성할 수 있다.In this case, the spatiotemporal index structure may be generated based on a TB-tree structure.

단계(S507)에서 색인부(103)는 단계(S506)에서 생성된 상기 이미지 색인 구조와 상기 시공간 색인 구조를 데이터베이스(104)에 저장한다.In step S507, the index unit 103 stores the image index structure and the spatiotemporal index structure generated in step S506 in the database 104.

도 6은 본 발명의 일실시예에 있어서, 감시 네트워크를 이용한 객체 이동 경로 검색 방법을 도시한 흐름도이다. 6 is a flowchart illustrating a method for searching for an object moving path using a monitoring network according to an embodiment of the present invention.

단계(S601)에서 검색부(105)는 검색 대상 이미지를 입력받는다. 이때, 상기 검색 대상 이미지는 사용자가 검색하고자 하는 객체와 일정 이상 유사한 이미지일 수 있다.In operation S601, the search unit 105 receives an input of a search target image. In this case, the search target image may be an image that is similar to a predetermined number or more of the object to be searched by the user.

단계(S602)에서 전처리부(302)는 단계(S602)에서 획득한 상기 객체의 영상을 전처리하여 색상별로 분할한다.In step S602, the preprocessor 302 preprocesses the image of the object obtained in step S602 and divides the image by color.

이때, 전처리부(302)는 검색부(105)에서 전송한 영상을 전처리하여 상기 영상을 가공하기 쉽게 보정한 후, 이미지 세그멘테이션을 실행하여 색상별로 분할할 수 있다.In this case, the preprocessor 302 may preprocess the image transmitted from the searcher 105 to correct the image so as to easily process the image, and then segment the image by color by executing image segmentation.

단계(S603)에서 영역 추출부(303)는 단계(S602)에서 색상별로 분할된 상기 영상에서 얼굴 영역을 추출한다.In operation S603, the area extractor 303 extracts a face region from the image divided for each color in operation S602.

이때, 영역 추출부(303)는 단계(S602)에서 세그멘테이션 된 상기 영상에서 피부색에 해당하는 영역 중에서 얼굴에 해당하는 구성요소(대표적으로 눈, 코, 입 등)를 추출함으로써 상기 영상에서 얼굴 영역과 색상만 비슷한 팔이나 다리와 같은 부위를 구별해 낼 수 있다. In this case, the area extractor 303 extracts the components corresponding to the face (typically the eyes, the nose, the mouth, etc.) from the areas corresponding to the skin color in the image segmented in step S602 and the face area in the image. You can identify areas such as arms or legs that are similar in color.

단계(S604)에서 특징 추출부(304)는 단계(S603)에서 추출한 상기 얼굴 영역에서 특징 정보를 추출한다.In step S604, the feature extractor 304 extracts feature information from the face region extracted in step S603.

이때, 특징 추출부(304)는 피부의 색이나, 이목구비의 기하학적인 관계를 통해 개개인의 고유성뿐만 아니라 마스크나 복면, 모자 등의 착용 여부를 알아내어 객체 간의 고유성을 찾아내고 구별하여 인식할 수 있다. At this time, the feature extraction unit 304 can find out the distinctiveness between the objects by identifying the uniqueness of the individual, as well as whether the mask, mask, hat, etc., as well as the uniqueness of each individual through the geometric relationship between the color of the skin and the neck. .

단계(S605)에서 차원 축소부(305)는 단계(S604)에서 추출한 상기 특징 정보에 차원 축소 기법을 사용하여 상기 특징 정보에 대한 차원 정보를 감소한다.In step S605, the dimension reduction unit 305 reduces the dimension information for the feature information by using a dimension reduction technique on the feature information extracted in step S604.

이때, 차원 축소부(305)는 n차원의 데이터로 형성된 상기 특징 정보를 차원 축소 기법을 사용하여 d(0 < d << n)차원으로 감소하여 검색부(105)로 전송할 수 있다.In this case, the dimension reduction unit 305 may reduce the feature information formed of the n-dimensional data into the d (0 <d << n) dimension by using the dimension reduction technique and transmit it to the search unit 105.

단계(S606)에서 검색부(105)는 데이터베이스(104)에 저장된 상기 이미지 색인 구조에서 상기 검색 대상 이미지의 특징 정보와 일치하는 이미지 색인을 검색한다.In operation S606, the search unit 105 searches for an image index that matches the feature information of the search target image in the image index structure stored in the database 104.

단계(S607)에서 검색부(105)는 단계(S606)에서 검색된 이미지 색인과 대응하는 시공간 색인을 검색하여 상기 검색 대상 이미지에 대응하는 상기 객체의 이동 경로를 검색한다.In operation S607, the search unit 105 searches a space-time index corresponding to the image index found in operation S606 to search for a moving path of the object corresponding to the search target image.

단계(S608)에서 검색부(105)는 단계(S606)에서 검색된 이미지 색인과 단계(S607)에서 검색된 상기 객체의 이동 경로를 표시한다.In step S608, the searching unit 105 displays the image index found in step S606 and the moving path of the object found in step S607.

이와 같이, 본 발명의 일실시예에 따라 네트워크 기반의 감시카메라 시스템에 시공간 색인, 멀티미디어 색인을 사용하면, 사용자의 요구에 맞는 이동체 추적, 복면이나 마스크 등의 기타 특징정보 등의 유사영상의 효율적인 검색이 가능하며, 따라서 이것을 바탕으로 수상한 인물이나 복장 등을 감시하는데 보다 효율적이고 빠른 지능형 감시 시스템을 제공할 수 있다. As described above, when the spatio-temporal index and the multimedia index are used in the network-based surveillance camera system according to an embodiment of the present invention, an efficient retrieval of similar images such as moving object tracking, other feature information such as masking or masking, etc. according to the user's needs is performed. This makes it possible to provide a more efficient and faster intelligent surveillance system for monitoring suspicious figures or clothing.

본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 파일 데이터, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 시스템이 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 시스템은 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention can be implemented in the form of program instructions that can be executed by various computer means can be recorded on a computer readable medium. The computer readable medium may include program instructions, file data, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware systems specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware system described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양 한 수정 및 변형이 가능하다.As described above, the present invention has been described by specific embodiments such as specific components and the like. For those skilled in the art, various modifications and variations are possible from these descriptions.

따라서 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments, and all of the equivalents or equivalents of the claims as well as the claims to be described later belong to the scope of the present invention.

도 1은 본 발명의 일실시예에 따른 감시 네트워크를 이용한 객체 이동 경로 추적 시스템의 개괄적인 모습을 도시한 일례다. 1 is an example illustrating an overview of an object movement path tracking system using a surveillance network according to an embodiment of the present invention.

도 2는 본 발명의 일실시예에 있어서, 감시 네트워크의 개괄적인 모습을 도시한 일례다. 2 is an example illustrating an overview of a monitoring network according to an embodiment of the present invention.

도 3은 본 발명의 일실시예에 있어서, 객체 인식부의 개괄적인 모습을 도시한 일례이다.3 is an example illustrating an overview of an object recognition unit according to an embodiment of the present invention.

도 4는 본 발명의 일실시예에 있어서, 데이터베이스에 저장되는 시공간 색인 구조를 도시한 일례이다.4 illustrates an example of a space-time index structure stored in a database according to an embodiment of the present invention.

도 5는 본 발명의 일실시예에 있어서, 감시 네트워크를 이용한 객체 이동 경로 정보 등록 방법을 도시한 흐름도이다. 5 is a flowchart illustrating a method for registering object movement path information using a monitoring network according to an embodiment of the present invention.

도 6은 본 발명의 일실시예에 있어서, 감시 네트워크를 이용한 객체 이동 경로 검색 방법을 도시한 흐름도이다. 6 is a flowchart illustrating a method for searching for an object moving path using a monitoring network according to an embodiment of the present invention.

Claims (23)

객체의 영상을 획득하는 복수의 감시 카메라로 구성된 감시 네트워크;A surveillance network composed of a plurality of surveillance cameras for acquiring an image of an object; 상기 감시 카메라에서 획득한 영상을 전처리하여 색상 별로 분할하고, 상기 색상 별로 분할된 영상에서 얼굴 영역을 추출하며, 상기 얼굴 영역에서 피부의 색이나 이목구비의 기하학적 관계를 기초로 개체의 고유성을 확인할 수 있는 특징 정보를 추출하는 객체 인식부; 및The image obtained by the surveillance camera is preprocessed and divided by color, the face region is extracted from the image divided by the color, and the uniqueness of the object can be confirmed based on the geometrical relationship between the color of the skin and the neck in the face region. An object recognition unit extracting feature information; And 상기 객체들의 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성하는 색인부 An index unit for generating an image index structure for distinguishing the objects based on the feature information of the objects and a space-time index structure indicating a time at which the image of the object is obtained 를 포함하고,Including, 상기 감시 네트워크는 상기 복수의 감시 카메라가 영역별로 그룹화된 네트워크 구조인 것을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 시스템.The surveillance network is an object movement path tracking system using a surveillance network, characterized in that the plurality of surveillance cameras grouped by area. 삭제delete 제1항에 있어서,The method of claim 1, 상기 객체 인식부는 상기 영상을 전처리하여 노이즈를 제거하고 보정하며, 세그멘테이션을 하여 상기 영상을 색상별로 분할하는 것The object recognition unit preprocesses the image to remove and correct noise, and segmentation to segment the image by color. 을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 시스템.Object tracking path tracking system using a surveillance network characterized in that. 삭제delete 삭제delete 제1항에 있어서,The method of claim 1, 상기 색인부는 객체의 시간을 매개 변수로 하여 상기 시공간 색인 구조를 생성하는 것The index unit generates the space-time index structure using the time of the object as a parameter. 을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 시스템.Object tracking path tracking system using a surveillance network characterized in that. 삭제delete 제1항에 있어서,The method of claim 1, 상기 색인부가 생성한 상기 이미지 색인 구조와 상기 시공간 색인 구조를 저장하는 데이터베이스A database storing the image index structure and the space-time index structure generated by the index unit 를 더 포함하는 것을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 시스템.Object tracking path tracking system using a surveillance network further comprising a. 제8항에 있어서,The method of claim 8, 상기 이미지 색인 구조로 상기 객체가 포함된 영상을 검색하고, 상기 시공간 색인 구조로 상기 객체의 이동 경로를 검색하는 검색부 A searcher for searching for an image including the object by the image index structure and searching a moving path of the object by the space-time index structure 를 더 포함하는 것을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 시스템.Object tracking path tracking system using a surveillance network further comprising a. 제9항에 있어서,10. The method of claim 9, 상기 검색부는 사용자로부터 검색 대상 이미지를 입력받으면 상기 검색 대상 이미지를 상기 객체 인식부로 전송하여 상기 검색 대상 이미지의 특징 정보를 추출하는 것The search unit extracts feature information of the search target image by transmitting the search target image to the object recognition unit when the search target image is input from a user. 을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 시스템.Object tracking path tracking system using a surveillance network characterized in that. 제10항에 있어서,The method of claim 10, 상기 검색부는 상기 데이터베이스에 저장된 상기 이미지 색인 구조에서 상기 검색 대상 이미지의 특징 정보와 일치하는 이미지 색인과 그에 대응하는 객체가 포함된 영상을 검색하여 제공하는 것The search unit searches for and provides an image including an image index corresponding to the feature information of the search target image and an object corresponding thereto in the image index structure stored in the database. 을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 시스템.Object tracking path tracking system using a surveillance network characterized in that. 복수의 감시 카메라가 영역별로 그룹화된 감시 네트워크에 포함된 각각의 감시 카메라가 객체의 영상을 획득하는 단계;Acquiring an image of an object by each of the surveillance cameras included in the surveillance network in which the plurality of surveillance cameras are grouped by region; 상기 객체의 영상을 전처리하여 색상 별로 분할하는 단계;Preprocessing the image of the object and dividing the image by color; 상기 색상 별로 분할된 영상에서 얼굴 영역을 추출하는 단계; Extracting a face region from the image divided for each color; 상기 얼굴 영역에서 피부의 색이나 이목구비의 기하학적 관계를 기초로 개체의 고유성을 확인할 수 있는 특징 정보를 추출하는 단계; 및Extracting feature information from the face region based on the geometrical relationship between the color of the skin and the geometrical appearance of the individual; And 상기 객체들의 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성하는 단계Generating an image index structure for distinguishing the objects based on the feature information of the objects and a spatiotemporal index structure indicating a time at which the image of the object is obtained; 를 포함하는 감시 네트워크를 이용한 객체 이동 경로 추적 방법.Object tracking path tracking method using a surveillance network comprising a. 삭제delete 제12항에 있어서,The method of claim 12, 상기 분할하는 단계는 상기 영상을 전처리하여 노이즈를 제거하고 보정하며, 세그멘테이션을 하여 상기 영상을 색상별로 분할하는 것The dividing may include preprocessing the image to remove and correct noise, and segmenting the image by color. 을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 방법.Object tracking path tracking method using a surveillance network characterized in that. 삭제delete 삭제delete 제12항에 있어서,The method of claim 12, 상기 색인 구조를 생성하는 단계는 객체의 시간을 매개 변수로 하여 상기 시공간 색인 구조를 생성하는 것The generating of the index structure may include generating the spatiotemporal index structure using the time of the object as a parameter. 을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 방법.Object tracking path tracking method using a surveillance network characterized in that. 삭제delete 제12항에 있어서,The method of claim 12, 상기 색인 구조를 생성하는 단계에서 생성된 상기 이미지 색인 구조와 상기 시공간 색인 구조를 데이터베이스에 저장하는 단계Storing the image index structure and the spatiotemporal index structure generated in the step of generating the index structure in a database. 를 더 포함하는 것을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 방법.Object tracking path tracking method using a surveillance network further comprising a. 제19항에 있어서,The method of claim 19, 상기 이미지 색인 구조로 상기 객체가 포함된 영상을 검색하고, 상기 시공간 색인 구조로 상기 객체의 이동 경로를 검색하는 단계Searching for an image including the object by the image index structure and searching a moving path of the object by the space-time index structure 를 더 포함하는 것을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 방법.Object tracking path tracking method using a surveillance network further comprising a. 제20항에 있어서,The method of claim 20, 상기 검색하는 단계는 사용자로부터 검색 대상 이미지를 입력받으면 상기 검색 대상 이미지의 특징 정보를 추출하는 것The searching may include extracting feature information of the search target image when a search target image is input from a user. 을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 방법.Object tracking path tracking method using a surveillance network characterized in that. 제21항에 있어서,The method of claim 21, 상기 검색하는 단계는 상기 데이터베이스에 저장된 상기 이미지 색인 구조에서 상기 검색 대상 이미지의 특징 정보와 일치하는 이미지 색인과 그에 대응하는 객체가 포함된 영상을 검색하여 제공하는 것The searching may include searching for and providing an image including an image index corresponding to the feature information of the search target image and an object corresponding thereto in the image index structure stored in the database. 을 특징으로 하는 감시 네트워크를 이용한 객체 이동 경로 추적 방법.Object tracking path tracking method using a surveillance network characterized in that. 제12항, 제14항, 제17항, 제19항 내지 제22항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터에서 판독 가능한 기록 매체.A computer-readable recording medium having recorded thereon a program for executing the method of any one of claims 12, 14, 17 and 19-22.
KR1020080058545A 2008-06-20 2008-06-20 Method and system for tracing trajectory of moving objects using surveillance systems' network KR100968024B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020080058545A KR100968024B1 (en) 2008-06-20 2008-06-20 Method and system for tracing trajectory of moving objects using surveillance systems' network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020080058545A KR100968024B1 (en) 2008-06-20 2008-06-20 Method and system for tracing trajectory of moving objects using surveillance systems' network

Publications (2)

Publication Number Publication Date
KR20090132339A KR20090132339A (en) 2009-12-30
KR100968024B1 true KR100968024B1 (en) 2010-07-07

Family

ID=41691422

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080058545A KR100968024B1 (en) 2008-06-20 2008-06-20 Method and system for tracing trajectory of moving objects using surveillance systems' network

Country Status (1)

Country Link
KR (1) KR100968024B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014058165A1 (en) * 2012-10-09 2014-04-17 에스케이텔레콤 주식회사 Image monitoring apparatus for estimating size of singleton, and method therefor
US9866744B2 (en) 2015-07-23 2018-01-09 Hanwha Techwin Co., Ltd. Apparatus and method for controlling network camera
KR102152319B1 (en) 2019-08-09 2020-09-04 주식회사 벡터시스 Method of calculating position and size of object in 3d space and video surveillance system using the same
KR102152318B1 (en) 2019-11-13 2020-09-04 주식회사 벡터시스 Tracking system that can trace object's movement path

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017099262A1 (en) * 2015-12-07 2017-06-15 파워테크주식회사 Method for managing cctv system having image screen comparison units
KR102500838B1 (en) 2016-01-11 2023-02-16 한화테크윈 주식회사 Method of providing path based on surveillance zone and apparatus for the same
US10783648B2 (en) 2018-03-05 2020-09-22 Hanwha Techwin Co., Ltd. Apparatus and method for processing image
KR102347338B1 (en) * 2021-07-05 2022-01-06 주식회사 아이티로 Method, apparatus and computer-readable recording medium for obtaining movement path information of a dangerous object

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020076828A (en) * 2001-03-30 2002-10-11 한국전자통신연구원 A apparatus and method of content based indexing and searching for multi-channel surveillance video
KR20040077130A (en) * 2003-02-28 2004-09-04 주식회사 대우일렉트로닉스 Recording system and controlling method for security
JP2007164718A (en) * 2005-12-16 2007-06-28 Matsushita Electric Ind Co Ltd Device and method for retrieving mobile object
KR20080020595A (en) * 2005-05-31 2008-03-05 오브젝트비디오 인코퍼레이티드 Human detection and tracking for security applications

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020076828A (en) * 2001-03-30 2002-10-11 한국전자통신연구원 A apparatus and method of content based indexing and searching for multi-channel surveillance video
KR20040077130A (en) * 2003-02-28 2004-09-04 주식회사 대우일렉트로닉스 Recording system and controlling method for security
KR20080020595A (en) * 2005-05-31 2008-03-05 오브젝트비디오 인코퍼레이티드 Human detection and tracking for security applications
JP2007164718A (en) * 2005-12-16 2007-06-28 Matsushita Electric Ind Co Ltd Device and method for retrieving mobile object

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014058165A1 (en) * 2012-10-09 2014-04-17 에스케이텔레콤 주식회사 Image monitoring apparatus for estimating size of singleton, and method therefor
US9866744B2 (en) 2015-07-23 2018-01-09 Hanwha Techwin Co., Ltd. Apparatus and method for controlling network camera
KR102152319B1 (en) 2019-08-09 2020-09-04 주식회사 벡터시스 Method of calculating position and size of object in 3d space and video surveillance system using the same
KR102152318B1 (en) 2019-11-13 2020-09-04 주식회사 벡터시스 Tracking system that can trace object's movement path

Also Published As

Publication number Publication date
KR20090132339A (en) 2009-12-30

Similar Documents

Publication Publication Date Title
KR100968024B1 (en) Method and system for tracing trajectory of moving objects using surveillance systems&#39; network
US8116534B2 (en) Face recognition apparatus and face recognition method
JP7130425B2 (en) Information processing device, information processing method and program
AU2017372905B2 (en) System and method for appearance search
CN110008797B (en) Multi-camera multi-face video continuous acquisition method
KR101764845B1 (en) A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof
US8130285B2 (en) Automated searching for probable matches in a video surveillance system
US20060093185A1 (en) Moving object recognition apparatus
JP2001216515A (en) Method and device for detecting face of person
CA3014365C (en) System and method for gathering data related to quality of service in a customer service environment
CN111145223A (en) Multi-camera personnel behavior track identification analysis method
CN109544595B (en) Customer path tracking method and system
RU2315352C2 (en) Method and system for automatically finding three-dimensional images
Arsic et al. Applying multi layer homography for multi camera person tracking
JP2017174343A (en) Customer attribute extraction device and customer attribute extraction program
US20190171899A1 (en) Automatic extraction of attributes of an object within a set of digital images
Ardeshir et al. Integrating egocentric videos in top-view surveillance videos: Joint identification and temporal alignment
US10929688B2 (en) System and method of video content filtering
Chen et al. Soft biometrics integrated multi-target tracking
Razalli et al. Real-time face tracking application with embedded facial age range estimation algorithm
Ngambeki et al. Real time face recognition using region-based segmentation algorithm
Majeed et al. Nose tip detection in 3D face image based on maximum intensity algorithm
US20210166041A1 (en) System and method for tracking customer movements in a customer service environment
Rüfenacht et al. Customized Facial Expression Analysis in Video
Golda Image-based Anomaly Detection within Crowds

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130429

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20140326

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20150417

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20160325

Year of fee payment: 7

LAPS Lapse due to unpaid annual fee