KR100968024B1 - Method and system for tracing trajectory of moving objects using surveillance systems' network - Google Patents
Method and system for tracing trajectory of moving objects using surveillance systems' network Download PDFInfo
- Publication number
- KR100968024B1 KR100968024B1 KR1020080058545A KR20080058545A KR100968024B1 KR 100968024 B1 KR100968024 B1 KR 100968024B1 KR 1020080058545 A KR1020080058545 A KR 1020080058545A KR 20080058545 A KR20080058545 A KR 20080058545A KR 100968024 B1 KR100968024 B1 KR 100968024B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- index structure
- surveillance
- surveillance network
- feature information
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 239000000284 extract Substances 0.000 claims description 19
- 238000007781 pre-processing Methods 0.000 claims description 11
- 230000011218 segmentation Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 abstract description 8
- 238000012544 monitoring process Methods 0.000 description 14
- 238000003709 image segmentation Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000000873 masking effect Effects 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 239000003638 chemical reducing agent Substances 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012847 principal component analysis method Methods 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/181—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
Abstract
감시 네트워크를 이용한 객체 이동 경로 추적 방법 및 시스템을 개시한다. 감시 네트워크를 이용한 객체 이동 경로 추적 시스템은 객체의 영상을 획득하는 복수의 감시 카메라로 구성된 감시 네트워크; 상기 감시 카메라에서 획득한 영상에서 객체들의 특징 정보를 추출하는 객체 인식부; 및 상기 객체들의 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성하는 색인부를 포함한다.
시공간 색인, 감시 카메라, 객체, 네트워크, 추출.
Disclosed are a method and a system for tracking an object movement path using a surveillance network. An object movement path tracking system using a surveillance network includes a surveillance network including a plurality of surveillance cameras for acquiring an image of an object; An object recognition unit extracting feature information of objects from an image acquired by the surveillance camera; And an index unit configured to generate an image index structure for distinguishing the objects based on the feature information of the objects, and a space-time index structure indicating a time at which an image of the object is obtained.
Spatiotemporal Indexes, Surveillance Cameras, Objects, Networks, Extraction.
Description
본 발명은 감시 시스템 네트워크를 이용한 객체의 이동 경로 추적 방법 및 시스템에 관한 것이다.The present invention relates to a method and a system for tracking a moving path of an object using a surveillance system network.
보안의 중요성의 증가에 따라 감시 카메라를 사용한 감시 시스템이 설치된 장소가 증가하게 되었다. 그러나 종래의 감시 시스템은 감시 시스템에 포함된 각각의 감시 카메라가 담당하는 지역 또는 부분을 독립적으로 촬영하여 이미지를 시스템에 저장하고 분석하고 있었다.Increasing importance of security has led to an increase in the location of surveillance systems using surveillance cameras. However, the conventional surveillance system independently captured the area or part of each surveillance camera included in the surveillance system, and stored and analyzed images in the system.
따라서, 복수의 감시 카메라가 특정 지역을 감시하더라도 각각의 감시 카메라 간의 네트워킹 기능이 부족하여 각각의 감시 카메라로부터 포착된 영상 간의 연관성 및 동일 객체의 이동 경로 파악은 감시 시스템을 관리하는 관리자의 수작업에 의존하고 있는 실정이다. Therefore, even if a plurality of surveillance cameras monitor a specific area, there is a lack of networking capability between the surveillance cameras. Therefore, the correlation between the images captured from each surveillance camera and the movement path of the same object depend on the manual operation of the administrator who manages the surveillance system. I'm doing it.
따라서, 복수의 감시 카메라가 연결된 네트워크를 사용하여 상기 감시 카메라로부터 포착된 영상에 대한 정보를 공유하여 감시 시스템이 설치된 넓은 지역 또 는 건물 내에서 특정 시간대에 특정 인물 또는 사물의 이동 경로를 자동으로 검색 및 추적할 수 있는 방법이 필요한 실정이다.Therefore, by using a network connected to a plurality of surveillance cameras, information about the image captured by the surveillance cameras is shared to automatically search for a moving path of a specific person or object at a specific time in a large area or building where the surveillance system is installed. And there is a need for a way to track.
본 발명은 복수의 감시 카메라를 네트워크로 구성함으로써 상기 감시 카메라로부터 전달받는 영상에서 공통된 객체를 확인하고, 상기 객체의 이동 경로를 추적할 수 있는 감시 네트워크를 이용한 객체 이동 경로 추적 방법 및 시스템을 제공한다.The present invention provides a method and system for tracking an object movement path using a surveillance network capable of identifying a common object in an image received from the surveillance camera by configuring a plurality of surveillance cameras in a network and tracking the movement path of the object. .
본 발명은 감시 카메라로부터 전달받은 영상에서 객체의 얼굴 영역과 특징을 추출하여 시간을 추가한 시공간 데이터와 함께 데이터베이스에 저장함으로써 영상에 포함된 상기 객체를 서로 구별하여 특정 시간, 위치에 있는 상기 객체를 검색할 수 있으며 상기 객체의 시간에 따른 이동궤적 역시 파악할 수 있는 감시 네트워크를 이용한 객체 이동 경로 추적 방법 및 시스템을 제공한다.The present invention extracts a face region and a feature of an object from an image received from a surveillance camera, and stores the object in a database at a specific time and location by distinguishing the objects included in the image from each other by storing them in a database together with time-space data added with time. The present invention provides a method and system for tracking an object movement path using a monitoring network that can search and identify a movement trajectory of the object.
본 발명의 일실시예에 따른 감시 네트워크를 이용한 객체 이동 경로 추적 시스템은 객체의 영상을 획득하는 복수의 감시 카메라로 구성된 감시 네트워크; 상기 감시 카메라에서 획득한 영상에서 객체들의 특징 정보를 추출하는 객체 인식부; 및 상기 객체들의 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성하는 색인부를 포함한다.An object movement path tracking system using a surveillance network according to an embodiment of the present invention includes a surveillance network including a plurality of surveillance cameras for acquiring an image of an object; An object recognition unit extracting feature information of objects from an image acquired by the surveillance camera; And an index unit configured to generate an image index structure for distinguishing the objects based on the feature information of the objects, and a space-time index structure indicating a time at which an image of the object is obtained.
본 발명의 일측면에 따르면, 상기 객체 인식부는, 상기 감시 카메라에서 획득한 영상을 전처리하여 색상별로 분할하는 전처리부; 상기 색상별로 분할된 영 상에서 얼굴 영역을 추출하는 영역 추출부; 및 상기 얼굴 영역에서 특징 정보를 추출하는 특징 추출부를 포함할 수 있다.According to an aspect of the invention, the object recognition unit, a pre-processing unit for pre-processing the image obtained by the surveillance camera to divide by color; An area extracting unit extracting a face area on the image divided by the colors; And a feature extractor configured to extract feature information from the face area.
본 발명의 일측면에 따르면, 상기 특징 추출부는 피부의 색이나 이목구비의 기하학적 관계를 기초로 개체의 고유성과 마스크나 복면, 모자의 착용 여부를 확인할 수 있다.According to one aspect of the invention, the feature extraction unit can determine the uniqueness of the individual and whether the mask or mask, wearing a hat based on the color of the skin or geometrical relationship of the neck.
본 발명의 일측면에 따르면, 상기 객체 인식부는 상기 특징 정보에 차원 축소 기법을 사용하여 상기 특징 정보에 대한 차원 정보를 감소하는 차원 축소부를 더 포함할 수 있다.According to an aspect of the invention, the object recognition unit may further include a dimension reduction unit for reducing the dimensional information for the feature information by using a dimension reduction technique to the feature information.
본 발명의 일측면에 따르면, 상기 색인부는 객체의 시간을 매개 변수로 하여 상기 시공간 색인 구조를 생성할 수 있다.According to an aspect of the present invention, the index unit may generate the space-time index structure using the time of the object as a parameter.
본 발명의 일측면에 따르면, 상기 색인부는 TB-트리 구조에 기초하여 상기 시공간 색인 구조를 생성할 수 있다.According to an aspect of the present invention, the index unit may generate the space-time index structure based on the TB-tree structure.
본 발명의 일측면에 따르면, 상기 이미지 색인 구조로 상기 객체가 포함된 영상을 검색하고, 상기 시공간 색인 구조로 상기 객체의 이동 경로를 검색하는 검색부를 더 포함할 수 있다.According to an aspect of the present disclosure, the image index structure may further include a search unit for searching for an image including the object and searching for a moving path of the object with the spatiotemporal index structure.
본 발명의 일측면에 따르면, 상기 검색부는 사용자로부터 검색 대상 이미지를 입력받으면 상기 검색 대상 이미지를 상기 객체 인식부로 전송하여 상기 검색 대상 이미지의 특징 정보를 추출할 수 있다.According to an aspect of the present invention, when the searcher receives a search target image from a user, the searcher may extract the feature information of the search target image by transmitting the search target image to the object recognition unit.
본 발명의 일측면에 따르면, 상기 검색부는 상기 데이터베이스에 저장된 상기 이미지 색인 구조에서 상기 검색 대상 이미지의 특징 정보와 일치하는 이미지 색인과 그에 대응하는 객체가 포함된 영상을 검색하여 제공할 수 있다.According to an aspect of the present invention, the search unit may search for and provide an image including an image index corresponding to the feature information of the search target image and an object corresponding thereto in the image index structure stored in the database.
본 발명의 일실시예에 따른 감시 네트워크를 이용한 객체 이동 경로 추적 방법은 객체의 영상을 획득하는 단계; 상기 객체의 영상에서 상기 객체들의 특징 정보를 추출하는 단계; 및 상기 객체들의 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성하는 단계를 포함한다.Object tracking path tracking method using a surveillance network according to an embodiment of the present invention comprises the steps of obtaining an image of the object; Extracting feature information of the objects from an image of the object; And generating an image index structure for distinguishing the objects based on the feature information of the objects, and a spatiotemporal index structure indicating a time at which an image of the object is obtained.
본 발명에 따르면, 복수의 감시 카메라를 네트워크로 구성함으로써 상기 감시 카메라로부터 전달받는 영상에서 공통된 객체를 확인하고, 상기 객체의 이동 경로를 추적할 수 있다.According to the present invention, by configuring a plurality of surveillance cameras in a network, it is possible to identify a common object in the image received from the surveillance camera and to track the movement path of the object.
본 발명에 따르면, 감시 카메라로부터 전달받은 영상에서 객체의 얼굴 영역과 특징을 추출하여 시간을 추가한 시공간 데이터와 함께 데이터베이스에 저장함으로써 영상에 포함된 상기 객체를 서로 구별하여 특정 시간, 위치에 있는 상기 객체를 검색할 수 있으며 상기 객체의 시간에 따른 이동궤적 역시 파악할 수 있다.According to the present invention, by extracting a face region and a feature of an object from the image received from the surveillance camera and storing it in a database with time-space data added to the time to distinguish the objects included in the image from each other at a specific time and location The object can be searched and the movement trajectory of the object can also be identified.
이하 첨부된 도면을 참조하여 본 발명에 따른 다양한 실시예를 상세히 설명하기로 한다.Hereinafter, various embodiments of the present disclosure will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 감시 네트워크를 이용한 객체 이동 경로 추적 시스템(100)의 개괄적인 모습을 도시한 일례다. 1 is an example illustrating an overview of an object movement
복수의 감시 카메라로 구성된 감시 네트워크(101)에서 영상을 획득하면, 객 체 인식부(102)가 상기 감시 카메라에서 획득한 영상에서 객체들의 특징 정보를 추출하고, 색인부(103)가 상기 객체들의 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성하여 데이터베이스(104)에 저장한다. 이때, 검색부(105)는 상기 이미지 색인 구조로 상기 객체가 포함된 영상을 검색하고, 상기 시공간 색인 구조로 상기 객체의 이동 경로를 검색할 수 있다.When an image is acquired from the
이때, 감시 네트워크(101)는 복수의 감시카메라에 감시하는 지역에 대응하는 일련번호를 할당하여 카메라를 식별하도록 하여 네트워크를 구성하고, 상기 감시 카메라에서 획득한 영상 정보를 객체 인식부(102)로 전송할 수 있다. 감시 네트워크(101)의 구성에 대해서는 도 2를 통해 더욱 자세히 설명한다.In this case, the
이때, 객체 인식부(102)는 상기 감시 카메라에서 획득한 영상을 보정하고 상기 영상에 포함된 객체를 구별하며, 상기 객체의 특징을 추출할 수 있다. 객체 인식부(102)의 구성에 대해서는 도 3을 통해 더욱 자세히 설명한다.In this case, the
이때, 색인부(103)가 생성하는 이미지 색인 구조는 객체 인식부(102)가 구별해낸 객체를 바탕으로 영상을 구별하여 색인을 구성함으로써 사용자가 검색하고자 하는 객체와 유사한 검색 대상 이미지를 사용하여 원하는 객체가 속한 영상을 검색할 수 있다. 이때, 상기 이미지 색인 구조는 일반적인 트리 구조를 사용하여 생성할 수 있다.In this case, the image index structure generated by the
이때, 색인부(103)가 생성하는 시공간 색인 구조는 객체의 시간을 매개변수로 색인 구조를 구축함으로써, 사용자가 객체의 시간에 따른 이동경로 등을 검색할 수 있다. 이때, 상기 시공간 색인 구조는 일반적인 영상 정보가 아닌 시공간 정보가 생성되어 저장되어야 하므로 이에 최적화된 TB-트리(tree)구조를 기초로 생성할 수 있다. 상기 시공간 색인 구조에 대해서는 도 4를 통해 더욱 자세히 설명한다.In this case, the spatio-temporal index structure generated by the
이때, 검색부(105)는 사용자로부터 검색 대상 이미지를 입력받으면 상기 검색 대상 이미지를 객체 인식부(102)로 전송하여 상기 검색 대상 이미지의 특징 정보를 추출하고, 데이터베이스(104)에 저장된 상기 이미지 색인 구조에서 상기 검색 대상 이미지의 특징 정보와 일치하는 이미지 색인과 그에 대응하는 객체가 포함된 영상을 검색하여 사용자에게 제공할 수 있다.In this case, when the
이와 같이, 상기 확인된 감시 네트워크를 이용한 객체 이동 경로 추적 시스템(100)에 대해서는 도 2, 도 3, 및 도 4의 일례를 통해 더욱 자세히 설명한다.As such, the object movement
도 2는 본 발명의 일실시예에 있어서, 감시 네트워크(101)의 개괄적인 모습을 도시한 일례다. 2 is an example showing an overview of the
감시 네트워크(101)는 도 2에 도시된 바와 같이 복수의 감시 카메라(211, 212, 213, 214)를 하나의 네트워크로 묶어서 특정 지역인 1구역(210)에서 영상을 획득하고, 다른 복수의 감시 카메라(221, 222, 223, 224)를 하나의 네트워크로 묶어서 다른 지역인 2구역(220)에서 영상을 획득하여 객체 인식부(102)로 전송할 수 있다.As shown in FIG. 2, the
이때, 감시 네트워크(101)는 감시카메라(211)에 일련번호 1을 할당하고, 감시카메라(212)에 일련번호 2를 할당하며, 감시카메라(213)에 일련번호 3을 할당하고, 감시카메라(214)에 일련번호 4를 할당하며, 감시카메라(221)에 일련번호 5를 할당하고, 감시카메라(222)에 일련번호 6을 할당하며, 감시카메라(223)에 일련번호 7을 할당하고, 감시카메라(224)에 일련번호 8을 할당할 수 있다.At this time, the
이때, 감시 네트워크(101)는 복수의 감시 카메라(211, 212, 213, 214, 221, 222, 223, 224)에서 객체(231)와 객체(241)에 대한 영상을 획득함으로써 객체(231)가 1구역(210)과 2구역(220)을 통과하여 도착점(233)으로 이동하는 경로(232)와 객체(241)가 1구역(210)과 2구역(220)을 통과하여 도착점(243)으로 이동하는 경로(242)의 추적할 수 있도록 할 수 있다.In this case, the
이때, 감시 네트워크를 이용한 객체 이동 경로 추적 시스템(100)은 일련번호 1, 2, 4, 5, 6, 7, 8의 감시 카메라에서 획득한 영상에 객체(231)의 특징을 가진 객체가 있음을 확인하여 객체(231)가 일련번호 1, 2, 4, 5, 6, 7, 8의 감시 카메라가 촬영하는 영역을 통과한 경로(232)로 이동함을 검색할 수 있다.In this case, the object movement
도 3은 본 발명의 일실시예에 있어서, 객체 인식부(102)의 개괄적인 모습을 도시한 일례이다.3 is an example illustrating an overview of the
객체 인식부(102)는 영상 입력부(301), 전처리부(302), 영역 추출부(303), 특징 추출부(304), 및 차원 축소부(305)를 포함할 수 있다.The
이때, 영상 입력부(301)는 감시 네트워크(101)로부터 프레임간의 정지 영상 정보를 차례로 수신하여 순서대로 다음 처리과정을 위해 대기시키고, 전처리부(302)에서 이전에 전송한 영상의 전처리가 종료되면, 전처리부(302)로 영상을 차례대로 전송할 수 있다. 이때, 상기 프레임간의 정지 영상 정보는 상기 감시 카메라에서 획득되는 영상일 수 있다.In this case, the
이때, 전처리부(302)는 영상 입력부(301)에서 전송한 영상을 전처리하여 상기 영상을 가공하기 쉽게 보정한 후, 이미지 세그멘테이션을 실행하여 색상별로 분할 할 수 있다.In this case, the
이때, 전처리부(302)는 전처리 과정을 통하여 통해 노이즈를 제거와 기본적인 보정을 함으로써 상기 영상의 화질을 증가 시키고 가독성에 중요한 요소인 조도를 고정하여 세그멘테이션과 특징 추출시의 정확성을 향상시킬 수 있다. At this time, the preprocessing
이때, 전처리부(302)는 감시 영상의 특성 및 세그멘테이션의 효율성을 고려하여 에지 보존력이 높고 임펄스 잡음에 강한 미디언 필터를 전처리에 사용할 수 있다.In this case, the
또한, 전처리부(302)는 필터링의 융통성을 조금 더 높이기 위해서 α의 값에 따라 미디언 필터와 같이 동작하기도 하고 좀 더 강하거나 약한 필터링을 수행할 수 있는 α-trimmed mean 필터를 전처리에 사용할 수도 있다.In addition, the
이때, 전처리부(302)는 색상에 따른 이미지 세그멘테이션을 실행함으로써 상기 영상을 색상별로 분할하여 사람의 피부색에 해당하는 부분을 검출할 수 있다.In this case, the
이때, 전처리부(302)는 에지 추출을 이용하여 이미지를 분할하는 방식을 사용할 수 있다. In this case, the
이때, 영역 추출부(303)는 상기 색상별로 분할된 영상에서 얼굴 영역을 추출할 수 있다.In this case, the
이때, 영역 추출부(303)는 전처리부(302)에서 세그멘테이션 된 상기 영상에서 피부색에 해당하는 영역 중에서 얼굴에 해당하는 구성요소(대표적으로 눈, 코, 입 등)를 추출함으로써 상기 영상에서 얼굴 영역과 색상만 비슷한 팔이나 다리와 같은 부위를 구별해 낼 수 있다. In this case, the
이때, 영역 추출부(303)는 컬러기반의 검출법과 기하학적 방식, SVM방식의 알고리즘을 복수로 적용하여 얼굴 영역을 추출할 수 있다.In this case, the
이때, 특징 추출부(304)는 상기 영상에 포함된 얼굴들 간의 구분을 위해서 영역 추출부(303)에서 검출한 얼굴 영역마다의 특징을 추출할 수 있다. In this case, the
이때, 특징 추출부(304)는 피부의 색이나, 이목구비의 기하학적인 관계를 통해 개개인의 고유성뿐만 아니라 마스크나 복면, 모자 등의 착용 여부를 알아내어 객체 간의 고유성을 찾아내고 구별하여 인식할 수 있다. At this time, the
이때, 특징 추출부(304)는 주성분 분석(PCA: Principal Component Analysis) 방식을 사용하여 얼굴의 전체적인 특징을 추출하고, 선형 변별 분식(LDA: Linear Discriminant Analysis) 방식과 지역적 특징 분석(LFA: Local Feature Analysis) 방식으로 상기 주성분 분석 방식에서 미비한 상세 특징을 추출할 수 있다. At this time, the
이때, 차원 축소부(305)는 특징 추출부(304)에서 추출된 상기 특징 정보에 차원 축소 기법을 사용하여 상기 특징 정보에 대한 차원 정보를 감소할 수 있다.In this case, the
특징 추출부(304)에서 추출된 상기 특징 정보는 보통 n차원의 데이터로 표현이 되는데, n이 커지게 경우에 하나의 정지영상을 저장하기 위해 많은 공간이 필요하게 되고 영상 데이터 간의 유사성을 측정하기 위해 높은 연산 복잡도를 요구하게 된다. The feature information extracted by the
또한, 특징 정보 데이터에 색인 구조를 적용하기 위해서는 다차원에 맞는 공 간 색인 구조를 적용해야 하는데 아직까지 공간색인 구조는 차원이 커짐에 따라 효율성이 급격히 떨어지게 되는 문제점이 있다.In addition, in order to apply the index structure to the feature information data, it is necessary to apply the spatial index structure suitable for multi-dimensional. However, the spatial index structure has a problem that the efficiency decreases rapidly as the dimension increases.
따라서, 차원 축소부(305)는 n차원의 데이터로 형성된 상기 특징 정보를 차원 축소(Dimensionality Reduction) 기법을 사용하여 d (0 < d << n)차원으로 감소시켜 색인부(103)로 전송함으로써 원래의 특징 데이터를 잘 표현할 수 있다.Accordingly, the
이때, 객체 인식부(102)는 검색부(105)로부터 상기 검색 대상 이미지를 전처리 부(302)로 수신하여 상기 검색 대상 이미지를 전처리하고, 얼굴 영역에서 특징 정보를 추출하며 추출된 특징 정보의 차원을 축소할 수 있다.In this case, the
도 4는 본 발명의 일실시예에 있어서, 데이터베이스(104)에 저장되는 시공간 색인 구조를 도시한 일례이다.4 illustrates an example of a space-time index structure stored in the
상기 시공간 색인 구조는 TB-트리(tree)구조를 기초로 생성되며 최상위에 위치한 루트 노드(root node)에 도 2에 도시된 감시 네트워크(101)의 1구역(210)에 대응하는 1구역 노드(410)와 2구역(220)에 대응하는 2구역 노드(420)가 있다. 이때 구역 노드의 수는 감시 네트워크(101)에 포함된 구역의 수에 대응할 수 있다.The spatiotemporal index structure is generated based on the TB-tree structure, and has a one-zone node corresponding to the one-
이때, 상기 구역 노드에는 상기 구역에 포함된 감시 카메라에서 획득한 영상에 대응하는 리프 노드(leaf node)들이 연결될 수 있다.In this case, leaf nodes corresponding to the image acquired by the surveillance camera included in the zone may be connected to the zone node.
예를 들어 객체(231)가 일련번호 1, 2, 4, 5, 6, 7, 8의 감시 카메라에서 촬영된 영상에 포함되고, 객체(241)가 일련번호 1, 3, 4, 5, 7의 감시 카메라에서 촬영된 영상에 포함된 경우에, 도 4에 도시된 바와 같이 1구역 노드(410)에 연결된 일련번호 1 리프 노드(411)에 객체(231)가 저장되고, 일련번호 1 리프 노드(412)에 객체(241)가 저장될 수 있다.For example, the
이때, 일련번호 1 리프 노드(411)는 객체(231)가 저장된 일련번호 2 리프 노드(413), 일련번호 4 리프 노드(415), 일련번호 5 리프 노드(421), 일련번호 6 리프 노드(423), 일련번호 7 리프 노드(424), 일련번호 8 리프 노드(426)들과 링크 리스트로 연결될 수 있으며, 도 4의 우측에 도시된 바와 같이 궤적을 입체적으로 표시할 수도 있다.At this time, the
또한, 이때, 일련번호 1 리프 노드(412)는 객체(231)가 저장된 일련번호 3 리프 노드(414), 일련번호 4 리프 노드(415), 일련번호 5 리프 노드(422), 일련번호 7 리프 노드(425)들과 링크 리스트로 연결될 수 있다.Also, at this time, the
도 5는 본 발명의 일실시예에 있어서, 감시 네트워크를 이용한 객체 이동 경로 정보 등록 방법을 도시한 흐름도이다. 5 is a flowchart illustrating a method for registering object movement path information using a monitoring network according to an embodiment of the present invention.
단계(S501)에서 감시 네트워크(101)는 감시 카메라로부터 객체의 영상을 획득한다. 이때, 감시 네트워크(101)는 획득한 상기 영상을 객체 인식부(102)의 영상 입력부(301)로 전송할 수 있다.In operation S501, the
단계(S502)에서 전처리부(302)는 단계(S502)에서 획득한 상기 객체의 영상을 전처리하여 색상별로 분할한다.In step S502, the
이때, 전처리부(302)는 영상 입력부(301)에서 전송한 영상을 전처리하여 상기 영상을 가공하기 쉽게 보정한 후, 이미지 세그멘테이션을 실행하여 색상별로 분할 할 수 있다.In this case, the
단계(S503)에서 영역 추출부(303)는 단계(S502)에서 색상별로 분할된 상기 영상에서 얼굴 영역을 추출한다.In operation S503, the
이때, 영역 추출부(303)는 단계(S502)에서 세그멘테이션 된 상기 영상에서 피부색에 해당하는 영역 중에서 얼굴에 해당하는 구성요소(대표적으로 눈, 코, 입 등)를 추출함으로써 상기 영상에서 얼굴 영역과 색상만 비슷한 팔이나 다리와 같은 부위를 구별해 낼 수 있다. In this case, the
단계(S504)에서 특징 추출부(304)는 단계(S503)에서 추출한 상기 얼굴 영역에서 특징 정보를 추출한다.In operation S504, the
이때, 특징 추출부(304)는 피부의 색이나, 이목구비의 기하학적인 관계를 통해 개개인의 고유성뿐만 아니라 마스크나 복면, 모자 등의 착용 여부를 알아내어 객체 간의 고유성을 찾아내고 구별하여 인식할 수 있다. At this time, the
단계(S505)에서 차원 축소부(305)는 단계(S504)에서 추출한 상기 특징 정보에 차원 축소 기법을 사용하여 상기 특징 정보에 대한 차원 정보를 감소한다.In operation S505, the
이때, 차원 축소부(305)는 n차원의 데이터로 형성된 상기 특징 정보를 차원 축소 기법을 사용하여 d(0 < d << n)차원으로 감소하여 색인부(103)로 전송할 수 있다.In this case, the
단계(S506)에서 색인부(103)는 상기 특징 정보를 기초로 상기 객체들을 구별하기 위한 이미지 색인 구조와 상기 객체의 영상이 획득된 시간을 나타내는 시공간 색인 구조를 생성한다.In operation S506, the
이때, 상기 시공간 색인 구조는 TB-트리(tree)구조를 기초로 생성할 수 있다.In this case, the spatiotemporal index structure may be generated based on a TB-tree structure.
단계(S507)에서 색인부(103)는 단계(S506)에서 생성된 상기 이미지 색인 구조와 상기 시공간 색인 구조를 데이터베이스(104)에 저장한다.In step S507, the
도 6은 본 발명의 일실시예에 있어서, 감시 네트워크를 이용한 객체 이동 경로 검색 방법을 도시한 흐름도이다. 6 is a flowchart illustrating a method for searching for an object moving path using a monitoring network according to an embodiment of the present invention.
단계(S601)에서 검색부(105)는 검색 대상 이미지를 입력받는다. 이때, 상기 검색 대상 이미지는 사용자가 검색하고자 하는 객체와 일정 이상 유사한 이미지일 수 있다.In operation S601, the
단계(S602)에서 전처리부(302)는 단계(S602)에서 획득한 상기 객체의 영상을 전처리하여 색상별로 분할한다.In step S602, the
이때, 전처리부(302)는 검색부(105)에서 전송한 영상을 전처리하여 상기 영상을 가공하기 쉽게 보정한 후, 이미지 세그멘테이션을 실행하여 색상별로 분할할 수 있다.In this case, the
단계(S603)에서 영역 추출부(303)는 단계(S602)에서 색상별로 분할된 상기 영상에서 얼굴 영역을 추출한다.In operation S603, the
이때, 영역 추출부(303)는 단계(S602)에서 세그멘테이션 된 상기 영상에서 피부색에 해당하는 영역 중에서 얼굴에 해당하는 구성요소(대표적으로 눈, 코, 입 등)를 추출함으로써 상기 영상에서 얼굴 영역과 색상만 비슷한 팔이나 다리와 같은 부위를 구별해 낼 수 있다. In this case, the
단계(S604)에서 특징 추출부(304)는 단계(S603)에서 추출한 상기 얼굴 영역에서 특징 정보를 추출한다.In step S604, the
이때, 특징 추출부(304)는 피부의 색이나, 이목구비의 기하학적인 관계를 통해 개개인의 고유성뿐만 아니라 마스크나 복면, 모자 등의 착용 여부를 알아내어 객체 간의 고유성을 찾아내고 구별하여 인식할 수 있다. At this time, the
단계(S605)에서 차원 축소부(305)는 단계(S604)에서 추출한 상기 특징 정보에 차원 축소 기법을 사용하여 상기 특징 정보에 대한 차원 정보를 감소한다.In step S605, the
이때, 차원 축소부(305)는 n차원의 데이터로 형성된 상기 특징 정보를 차원 축소 기법을 사용하여 d(0 < d << n)차원으로 감소하여 검색부(105)로 전송할 수 있다.In this case, the
단계(S606)에서 검색부(105)는 데이터베이스(104)에 저장된 상기 이미지 색인 구조에서 상기 검색 대상 이미지의 특징 정보와 일치하는 이미지 색인을 검색한다.In operation S606, the
단계(S607)에서 검색부(105)는 단계(S606)에서 검색된 이미지 색인과 대응하는 시공간 색인을 검색하여 상기 검색 대상 이미지에 대응하는 상기 객체의 이동 경로를 검색한다.In operation S607, the
단계(S608)에서 검색부(105)는 단계(S606)에서 검색된 이미지 색인과 단계(S607)에서 검색된 상기 객체의 이동 경로를 표시한다.In step S608, the searching
이와 같이, 본 발명의 일실시예에 따라 네트워크 기반의 감시카메라 시스템에 시공간 색인, 멀티미디어 색인을 사용하면, 사용자의 요구에 맞는 이동체 추적, 복면이나 마스크 등의 기타 특징정보 등의 유사영상의 효율적인 검색이 가능하며, 따라서 이것을 바탕으로 수상한 인물이나 복장 등을 감시하는데 보다 효율적이고 빠른 지능형 감시 시스템을 제공할 수 있다. As described above, when the spatio-temporal index and the multimedia index are used in the network-based surveillance camera system according to an embodiment of the present invention, an efficient retrieval of similar images such as moving object tracking, other feature information such as masking or masking, etc. according to the user's needs is performed. This makes it possible to provide a more efficient and faster intelligent surveillance system for monitoring suspicious figures or clothing.
본 발명에 따른 실시예들은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 파일 데이터, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 본 발명을 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(Floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 시스템이 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 시스템은 본 발명의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.Embodiments according to the present invention can be implemented in the form of program instructions that can be executed by various computer means can be recorded on a computer readable medium. The computer readable medium may include program instructions, file data, data structures, etc. alone or in combination. Program instructions recorded on the media may be those specially designed and constructed for the purposes of the present invention, or they may be of the kind well-known and available to those having skill in the computer software arts. Examples of computer-readable recording media include magnetic media such as hard disks, floppy disks, and magnetic tape, optical media such as CD-ROMs, DVDs, and magnetic disks, such as floppy disks. Magneto-optical media, and hardware systems specifically configured to store and execute program instructions, such as ROM, RAM, flash memory, and the like. Examples of program instructions include not only machine code generated by a compiler, but also high-level language code that can be executed by a computer using an interpreter or the like. The hardware system described above may be configured to operate as one or more software modules to perform the operations of the present invention, and vice versa.
이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양 한 수정 및 변형이 가능하다.As described above, the present invention has been described by specific embodiments such as specific components and the like. For those skilled in the art, various modifications and variations are possible from these descriptions.
따라서 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.Therefore, the spirit of the present invention should not be limited to the described embodiments, and all of the equivalents or equivalents of the claims as well as the claims to be described later belong to the scope of the present invention.
도 1은 본 발명의 일실시예에 따른 감시 네트워크를 이용한 객체 이동 경로 추적 시스템의 개괄적인 모습을 도시한 일례다. 1 is an example illustrating an overview of an object movement path tracking system using a surveillance network according to an embodiment of the present invention.
도 2는 본 발명의 일실시예에 있어서, 감시 네트워크의 개괄적인 모습을 도시한 일례다. 2 is an example illustrating an overview of a monitoring network according to an embodiment of the present invention.
도 3은 본 발명의 일실시예에 있어서, 객체 인식부의 개괄적인 모습을 도시한 일례이다.3 is an example illustrating an overview of an object recognition unit according to an embodiment of the present invention.
도 4는 본 발명의 일실시예에 있어서, 데이터베이스에 저장되는 시공간 색인 구조를 도시한 일례이다.4 illustrates an example of a space-time index structure stored in a database according to an embodiment of the present invention.
도 5는 본 발명의 일실시예에 있어서, 감시 네트워크를 이용한 객체 이동 경로 정보 등록 방법을 도시한 흐름도이다. 5 is a flowchart illustrating a method for registering object movement path information using a monitoring network according to an embodiment of the present invention.
도 6은 본 발명의 일실시예에 있어서, 감시 네트워크를 이용한 객체 이동 경로 검색 방법을 도시한 흐름도이다. 6 is a flowchart illustrating a method for searching for an object moving path using a monitoring network according to an embodiment of the present invention.
Claims (23)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080058545A KR100968024B1 (en) | 2008-06-20 | 2008-06-20 | Method and system for tracing trajectory of moving objects using surveillance systems' network |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020080058545A KR100968024B1 (en) | 2008-06-20 | 2008-06-20 | Method and system for tracing trajectory of moving objects using surveillance systems' network |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20090132339A KR20090132339A (en) | 2009-12-30 |
KR100968024B1 true KR100968024B1 (en) | 2010-07-07 |
Family
ID=41691422
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020080058545A KR100968024B1 (en) | 2008-06-20 | 2008-06-20 | Method and system for tracing trajectory of moving objects using surveillance systems' network |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100968024B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014058165A1 (en) * | 2012-10-09 | 2014-04-17 | 에스케이텔레콤 주식회사 | Image monitoring apparatus for estimating size of singleton, and method therefor |
US9866744B2 (en) | 2015-07-23 | 2018-01-09 | Hanwha Techwin Co., Ltd. | Apparatus and method for controlling network camera |
KR102152319B1 (en) | 2019-08-09 | 2020-09-04 | 주식회사 벡터시스 | Method of calculating position and size of object in 3d space and video surveillance system using the same |
KR102152318B1 (en) | 2019-11-13 | 2020-09-04 | 주식회사 벡터시스 | Tracking system that can trace object's movement path |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017099262A1 (en) * | 2015-12-07 | 2017-06-15 | 파워테크주식회사 | Method for managing cctv system having image screen comparison units |
KR102500838B1 (en) | 2016-01-11 | 2023-02-16 | 한화테크윈 주식회사 | Method of providing path based on surveillance zone and apparatus for the same |
US10783648B2 (en) | 2018-03-05 | 2020-09-22 | Hanwha Techwin Co., Ltd. | Apparatus and method for processing image |
KR102347338B1 (en) * | 2021-07-05 | 2022-01-06 | 주식회사 아이티로 | Method, apparatus and computer-readable recording medium for obtaining movement path information of a dangerous object |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020076828A (en) * | 2001-03-30 | 2002-10-11 | 한국전자통신연구원 | A apparatus and method of content based indexing and searching for multi-channel surveillance video |
KR20040077130A (en) * | 2003-02-28 | 2004-09-04 | 주식회사 대우일렉트로닉스 | Recording system and controlling method for security |
JP2007164718A (en) * | 2005-12-16 | 2007-06-28 | Matsushita Electric Ind Co Ltd | Device and method for retrieving mobile object |
KR20080020595A (en) * | 2005-05-31 | 2008-03-05 | 오브젝트비디오 인코퍼레이티드 | Human detection and tracking for security applications |
-
2008
- 2008-06-20 KR KR1020080058545A patent/KR100968024B1/en not_active IP Right Cessation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020076828A (en) * | 2001-03-30 | 2002-10-11 | 한국전자통신연구원 | A apparatus and method of content based indexing and searching for multi-channel surveillance video |
KR20040077130A (en) * | 2003-02-28 | 2004-09-04 | 주식회사 대우일렉트로닉스 | Recording system and controlling method for security |
KR20080020595A (en) * | 2005-05-31 | 2008-03-05 | 오브젝트비디오 인코퍼레이티드 | Human detection and tracking for security applications |
JP2007164718A (en) * | 2005-12-16 | 2007-06-28 | Matsushita Electric Ind Co Ltd | Device and method for retrieving mobile object |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014058165A1 (en) * | 2012-10-09 | 2014-04-17 | 에스케이텔레콤 주식회사 | Image monitoring apparatus for estimating size of singleton, and method therefor |
US9866744B2 (en) | 2015-07-23 | 2018-01-09 | Hanwha Techwin Co., Ltd. | Apparatus and method for controlling network camera |
KR102152319B1 (en) | 2019-08-09 | 2020-09-04 | 주식회사 벡터시스 | Method of calculating position and size of object in 3d space and video surveillance system using the same |
KR102152318B1 (en) | 2019-11-13 | 2020-09-04 | 주식회사 벡터시스 | Tracking system that can trace object's movement path |
Also Published As
Publication number | Publication date |
---|---|
KR20090132339A (en) | 2009-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100968024B1 (en) | Method and system for tracing trajectory of moving objects using surveillance systems' network | |
US8116534B2 (en) | Face recognition apparatus and face recognition method | |
JP7130425B2 (en) | Information processing device, information processing method and program | |
AU2017372905B2 (en) | System and method for appearance search | |
CN110008797B (en) | Multi-camera multi-face video continuous acquisition method | |
KR101764845B1 (en) | A video surveillance apparatus for removing overlap and tracking multiple moving objects and method thereof | |
US8130285B2 (en) | Automated searching for probable matches in a video surveillance system | |
US20060093185A1 (en) | Moving object recognition apparatus | |
JP2001216515A (en) | Method and device for detecting face of person | |
CA3014365C (en) | System and method for gathering data related to quality of service in a customer service environment | |
CN111145223A (en) | Multi-camera personnel behavior track identification analysis method | |
CN109544595B (en) | Customer path tracking method and system | |
RU2315352C2 (en) | Method and system for automatically finding three-dimensional images | |
Arsic et al. | Applying multi layer homography for multi camera person tracking | |
JP2017174343A (en) | Customer attribute extraction device and customer attribute extraction program | |
US20190171899A1 (en) | Automatic extraction of attributes of an object within a set of digital images | |
Ardeshir et al. | Integrating egocentric videos in top-view surveillance videos: Joint identification and temporal alignment | |
US10929688B2 (en) | System and method of video content filtering | |
Chen et al. | Soft biometrics integrated multi-target tracking | |
Razalli et al. | Real-time face tracking application with embedded facial age range estimation algorithm | |
Ngambeki et al. | Real time face recognition using region-based segmentation algorithm | |
Majeed et al. | Nose tip detection in 3D face image based on maximum intensity algorithm | |
US20210166041A1 (en) | System and method for tracking customer movements in a customer service environment | |
Rüfenacht et al. | Customized Facial Expression Analysis in Video | |
Golda | Image-based Anomaly Detection within Crowds |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130429 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20140326 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20150417 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20160325 Year of fee payment: 7 |
|
LAPS | Lapse due to unpaid annual fee |