KR101092472B1 - Video indexing system using surveillance camera and the method thereof - Google Patents

Video indexing system using surveillance camera and the method thereof Download PDF

Info

Publication number
KR101092472B1
KR101092472B1 KR1020110091735A KR20110091735A KR101092472B1 KR 101092472 B1 KR101092472 B1 KR 101092472B1 KR 1020110091735 A KR1020110091735 A KR 1020110091735A KR 20110091735 A KR20110091735 A KR 20110091735A KR 101092472 B1 KR101092472 B1 KR 101092472B1
Authority
KR
South Korea
Prior art keywords
image
module
information
index
edge
Prior art date
Application number
KR1020110091735A
Other languages
Korean (ko)
Inventor
김중석
해용석
Original Assignee
(주)나인정보시스템
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by (주)나인정보시스템 filed Critical (주)나인정보시스템
Priority to KR1020110091735A priority Critical patent/KR101092472B1/en
Application granted granted Critical
Publication of KR101092472B1 publication Critical patent/KR101092472B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions

Abstract

PURPOSE: A video indexing system using a monitoring camera is provided to improve searching performance by indexing index information in a people image and an object image and storing index information at a database. CONSTITUTION: An image storage module(21) stores a photographed image. An image collection module(22) collects the photographed image and the event image. An object extracting module(23) extracts the people image and the object image from the collected image. An object index module(24) inserts index information into the detected people image and the object image. A database(25) records index data. An image searching module(26) extracts the index data. A face recognition module(27) recognizes a face.

Description

감시카메라를 활용한 비디오 색인 시스템 및 그 색인 방법{Video indexing system using surveillance camera and the method thereof}Video indexing system using surveillance camera and the method

본 발명은 감시카메라를 활용한 비디오 색인 시스템 및 그 색인 방법에 관한 것으로, 다수의 감시카메라에서 수집된 영상을 분석하여 사람 영상과 물체 영상을 구분하고, 각 사람 영상과 물체 영상에 색인 정보를 추가하여 기록 및 관리함으로써 색인된 차량이나 얼굴 검색 및 얼굴 인식을 단시간에 용이하게 수행할 수 있는 감시카메라를 활용한 비디오 색인 시스템 및 그 색인 방법에 관한 것입니다.
The present invention relates to a video indexing system using a surveillance camera and an indexing method thereof. The present invention relates to a video indexing system and an indexing method. The present invention relates to a video indexing system using a surveillance camera that can easily perform indexed vehicle or face searching and face recognition in a short time by recording and managing the same, and an indexing method thereof.

최근에는 여러가지의 사고 예방을 위해 DVR(Digital Video Recoder)이 내장된 CCTV(Closed Circuit Television) 카메라를 시설물의 출입구 및 경계구역 등에 설치하여 사물의 출입을 촬영하며 그 영상을 관리(근무)자가 육안으로 모니터를 통해 감시하고 동시에 그 영상을 영상기록 저장 장치에 자동으로 저장하는 일반적인 CCTV 시스템이 많이 설치되고 있고 이를 활용하고 있습니다. Recently, CCTV (Closed Circuit Television) camera with built-in DVR (Digital Video Recorder) is installed in the entrance and perimeter of facility to prevent various accidents. Many CCTV systems are being installed and utilized to monitor through monitors and automatically save the images to video recording and storage devices.

이와 같은 시스템은 일반 주택가, 놀이터 등 주변 곳곳에 설치되는 비율이 증가하고 있고, 매년 증가하고 있는 대인 범죄, 대물 범죄, 차량 이용 범죄 등이 CCTV 시스템을 통해 어느 정도 감소하고 있으며 이러한 사실은 여러 방송 매체를 통해서 직접 또는 간접적으로 확인할 수 있다. Such systems are being installed around residential areas, playgrounds, etc., and the number of personal crimes, object crimes, and vehicle use crimes, which are increasing every year, is being reduced to some extent through CCTV systems. This can be checked directly or indirectly.

이와 같은 CCTV 시스템은 검색 시간이 많이 소요되고, 모니터링 요원의 실수로 인해 범인이나 차량을 정확하게 검거하는데 도움이 되지 못하는 경우가 대부분이고, 영상 저장장치에 저장된 CCTV 카메라에서 촬영된 영상에서 범죄와 관련된 사람이나 차량을 검색해 내는 것은 쉬운 일이 아니다. 매년 증가되는 CCTV 시스템, 한정된 모니터링 요원, 일어나는 범죄의 증가 등 제한된 인원이 더 많은 CCTV 저장내용을 실시간으로 정확하고 빠르게 찾아내기는 사실상 불가능하고, 제약사항이 많으며, 범인이나 차량에 대한 검색 결과를 신뢰할 수 없어 여전히 모니터링 전문 인력이 요구된다. Such CCTV systems require a lot of searching time and are often not helpful in accurately arresting criminals or vehicles due to the mistakes of monitoring personnel, and people related to crimes in images taken from CCTV cameras stored in video storage devices. Searching for cars or vehicles is not easy. It is virtually impossible to find more accurate and quicker CCTV footage in real time, including limited CCTV systems, limited monitoring personnel, and increasing number of crimes, with many constraints, and reliable search results for criminals and vehicles. There is still no monitoring expertise required.

또한 외부인이 침입할 수 없는 방대한 장소를 관리(근무)자가 모니터를 통해 감시하거나, 간헐적으로 도로상에서 발생하는 교통사고를 관리(근무)자가 모니터를 통해 지속적으로 감시한다는 것은 관리자 휴식, 근무교대, 인수 인계 등으로 인해 현실적으로 불가능한 실정이고, CCTV에서 촬영된 영상을 관리자가 모니터를 통해 지속적으로 보며 침입금지 경계구역에 외부인이 침입하는 것을 감시하는 것은 현실적으로 어려운 일이다.In addition, the management (working person) monitors the vast places where outsiders cannot invade, or the management (working person) continuously monitors the traffic accidents occurring on the road intermittently by manager breaks, shifts, and acquisitions. It is practically impossible due to handovers, and it is difficult for the administrator to continuously watch the video taken by CCTV on the monitor and watch outsiders invade the intrusion-prone border area.

실제 CCTV 시스템은 매년 증가하지만 실제 그 성능을 다 발휘하지 못하고 있으므로, 영상 저장장치에 저장된 영상을 분석 및 색인화하고, 이렇게 색인화 된 데이터를 검색하는 작업, 실시간으로 입력되는 데이터 영상과 비교 대상 영상을 비교하여 그 결과를 알려주는 알고리즘이 절실히 필요하다. Actual CCTV systems are increasing every year, but they do not show their full performance, so analyzing and indexing the images stored in the image storage device, searching for these indexed data, comparing the data to be compared with the data to be input in real time There is an urgent need for an algorithm that reports the results.

이러한 점을 감안하여 본 발명의 목적은 다수의 감시카메라에서 수집된 영상을 분석하여 사람 영상과 물체 영상을 구분하고, 각 사람 영상과 물체 영상에 컬러 정보, 크기 정보를 포함하는 색인 정보를 추가하여 기록 및 관리함으로써 색인된 차량이나 얼굴 검색 및 얼굴 인식을 단시간에 용이하게 수행할 수 있고, 그로 인해 범죄를 예방할 수 있으며, 범인이나 범죄 이용 차량을 쉽고 빠르게 검거할 수 있도록 하는 감시카메라를 활용한 비디오 색인 시스템과 그 색인 방법을 제공하는 것이다.
In view of this point, an object of the present invention is to analyze images collected from a plurality of surveillance cameras, to distinguish between human images and object images, and to add index information including color information and size information to each human image and object image. Records and manages videos that are indexed or face-to-face and facial recognition can be easily performed in a short time, thereby preventing crime and using video surveillance cameras to quickly and easily arrest criminals or vehicles using crime. It provides an indexing system and its indexing method.

상술한 본 발명의 목적을 달성하기 위한 본 발명에 따른 감시카메라를 활용한 비디오 색인 시스템은, 다수의 감시카메라에서 촬영된 영상을 시간순으로 저장하는 영상 저장 모듈과, 상기 다수의 감시카메라에서 촬영된 영상 및 상기 영상 저장 모듈에서 전송되는 이벤트 영상을 수집하는 영상 수집 모듈과, 상기 영상 수집 모듈에서 수집된 영상에서 GMM(Gaussian mixture modle)을 이용하여 전경을 구분하고 에지(edge) 정보를 검출하며, 상기 에지 정보를 분석하여 사람 또는 차량을 포함한 사람 영상과 물체 영상을 추출하는 물체 추출 모듈과, 상기 물체 추출 모듈에서 검출된 사람 영상과 물체 영상에 색인 정보를 삽입하는 물체 색인 모듈과, 상기 물체 색인 모듈에서 색인 정보가 추가된 물체 영상 또는 사람 영상에 대한 색인 자료를 기록 및 관리하는 데이터베이스와, 상기 영상 저장 모듈에서 녹화 영상 검색 조건 범위에 해당하는 영상을 전달받아 얼굴 또는 차량에 대한 검색 조건에 따라 데이터베이스에서 색인 자료를 추출하는 영상 검색 모듈, 및 상기 영상 검색 모듈에서 얼굴 인식용 이미지 정보가 전달되면 상기 물체 추출 모듈에서 사람 영상을 전달받아 상기 얼굴 인식용 이미지 정보와 비교하여 얼굴 인식 결과를 상기 영상 검색 모듈에 전달하는 얼굴 인식 모듈을 포함하는 것을 특징으로 한다.In order to achieve the above object of the present invention, a video indexing system using a surveillance camera according to the present invention includes an image storage module for storing images captured by a plurality of surveillance cameras in chronological order, and the plurality of surveillance cameras. An image collection module for collecting an image and an event image transmitted from the image storage module, and using the GMM (Gaussian mixture modle) in the image collected by the image collection module to distinguish the foreground and detect edge information, An object extraction module for extracting a human image and an object image including a person or a vehicle by analyzing the edge information, an object index module for inserting index information into the human image and the object image detected by the object extraction module, and the object index Data that records and manages index data for object images or human images with index information added to the module. An image retrieval module for receiving an image corresponding to a recorded image retrieval condition range from the image storage module and extracting index data from a database according to a retrieval condition for a face or a vehicle, and an image for face recognition in the image retrieval module And a face recognition module which receives a human image from the object extraction module and compares the face image with the face recognition image information and transmits a face recognition result to the image retrieval module.

이때, 상기 영상 저장 모듈은 상기 감시카메라에서 촬영된 영상을 사진 파일로 저장하고, 상기 사진 파일명을 영상 획득 시간으로 지정하는 것을 특징으로 한다.At this time, the image storage module is characterized in that for storing the image taken by the surveillance camera as a picture file, and designates the picture file name as the image acquisition time.

그리고, 상기 물체 추출 모듈은 상기 물체 영상에서 추출된 물체의 크기가 일정치 보다 미만인 경우(설정값 미민인 경우)에 1인이라고 판단하고, 상기 물체의 크기가 일정치 이상인 경우(설정값 이상인 경우)에 2인 이상 또는 차량 영상이라고 판단하는 것을 특징으로 한다.The object extracting module determines that the object is one when the size of the object extracted from the object image is less than a predetermined value (if the set value is Min), and when the size of the object is greater than or equal to the predetermined value (more than the set value). ) Is determined as two or more people or a vehicle image.

또한, 상기 물체 추출 모듈은 상기 물체의 크기가 일정치 이상인 경우에, 물체 에지의 윤곽 분석을 수행한 후에 소벨 에지(Sobel edge)를 사용하여 에지맵(edge map)을 획득하고, 수평 투영법(horizontal projection)과 수직 투영법(vertical projection)을 적용하여 산출된 투영 결과 그래프를 통해 정점(peak)과 최하점(valley) 성분을 분석하여 차량/사람을 구분하는 것을 특징으로 한다.In addition, the object extraction module obtains an edge map by using a Sobel edge after performing the contour analysis of the object edge when the size of the object is a certain value or more, and horizontal projection method (horizontal) It is characterized by distinguishing vehicles / persons by analyzing peak and valley components through a projection result graph calculated by applying projection and vertical projection.

그리고, 상기 물체 추출 모듈은 상기 수평 투영법의 정점과 최하점의 개수를 참조하여 인원 수를 확인하는 것을 특징으로 한다.The object extraction module may identify the number of persons by referring to the number of vertices and lowest points of the horizontal projection method.

한편, 상기 물체 색인 모듈은 상기 사람 영상에서 RGB 상자의 데이터를 이용하여 원하는 픽셀의 RGB 값과 각 RGB 방향의 벡터 거리를 구해서 최단거리의 컬러 정보를 획득하고, 상기 데이터베이스에 상기 사람 영상에 컬러 정보를 색인 정보로 추가하여 저장하는 것을 특징으로 한다.Meanwhile, the object index module obtains color information of the shortest distance by obtaining the RGB value of the desired pixel and the vector distance in each RGB direction by using the data of the RGB box in the human image, and color information on the human image in the database. It is characterized by adding to the index information and storing.

또한, 상기 물체 색인 모듈은 상기 RGB 상자에 학습된 피부색 영역을 미리 설정한 후에 상기 사람 영상 중에서 상기 피부색 영역에 속하는 영역을 얼굴 영역으로 인식하고, 상기 피부색 영역이 다수일 경우에 최상단에 있는 피부색 영역을 얼굴 영역으로 인식하는 것을 특징으로 한다.In addition, the object indexing module presets the skin color region learned in the RGB box in advance, and recognizes a region belonging to the skin color region in the human image as a face region, and the skin color region at the top when the skin color region is plural. It is characterized in that the recognition as a face area.

그리고, 상기 물체 색인 모듈은, 상기 얼굴 영역이 인식되면 얼굴 영역에서 눈을 검출하고, 얼굴 인식 알고리즘을 통해 얼굴을 인식한 후에 색인 정보로 추가하는 것을 특징으로 한다.When the face region is recognized, the object indexing module detects eyes in the face region, and adds the index information after recognizing the face through a face recognition algorithm.

여기서, 상기 얼굴 인식 알고리즘은 특징점 추출에 PCA(principal component analysis)를 적용하여 고유 얼굴(Eigen face)과 웨이브릿(Wavelet) 변환 계수를 특징으로 사용하고, 유사도 측정에 상기 데이터베이스에 있는 특징 벡터와의 거리( Euclidean)를 적용하는 것을 특징으로 한다.Here, the face recognition algorithm applies a principal component analysis (PCA) to feature point extraction and uses the eigen face and wavelet transform coefficients as features, and measures similarity with the feature vector in the database. It is characterized by applying the distance (Euclidean).

한편, 상술한 본 발명의 목적을 달성하기 위한 본 발명에 따른 감시카메라를 활용한 비디오 색인 방법은, 다수의 감시 카메라에서 촬영된 영상을 시간순으로 영상 저장 모듈에 저장하는 제1 단계와, 상기 영상 저장 모듈에 저장된 영상을 GMM을 통하여 분석하여 에지(edge) 정보와 컬러 정보를 검출하고, 상기 에지 정보를 분석하여 사람 또는 차량을 포함한 사람 영상과 물체 영상을 추출하는 제2 단계와, 상기 제2 단계에서 추출된 사람 영상과 물체 영상에 컬러 정보를 포함한 색인 정보를 추가하여 색인화하여 데이터베이스에 저장하여 관리하는 제3 단계와, 상기 영상 저장 모듈에서 녹화 영상 검색 조건 범위에 해당하는 영상을 전달받아 얼굴 또는 차량에 대한 검색 조건을 토대로 상기 데이터베이스에서 색인 정보를 추출하여 상기 검색 조건에 해당하는 영상을 검출하는 제4 단계로 이루어진 것을 특징으로 한다.On the other hand, the video indexing method using the surveillance camera according to the present invention for achieving the above object of the present invention, the first step of storing the images captured by the plurality of surveillance cameras in the image storage module in chronological order, the image Analyzing the image stored in the storage module through a GMM to detect edge information and color information, and analyzing the edge information to extract a human image and an object image including a person or a vehicle; A third step of adding index information including color information to the extracted human image and the object image, indexing and storing the index information in a database, and receiving an image corresponding to a recorded image search condition range from the image storage module; Alternatively, the index information is extracted from the database based on the search condition for the vehicle and corresponds to the search condition. That consisting of a fourth step of detecting the image is characterized.

이때, 상기 제2 단계에서 물체 영상을 추출하는 단계는, 상기 물체 영상에서 추출된 물체의 크기가 일정치보다 미만인 경우에 1인이라고 판단하고, 상기 물체의 크기가 일정치 이상인 경우에 2인 이상 또는 차량 영상이라고 판단하는 것을 특징으로 한다.The extracting of the object image in the second step may include determining that the object is one when the size of the object extracted from the object image is less than a predetermined value, and the two or more when the size of the object is greater than or equal to the predetermined value. Or it is determined that the vehicle image.

그리고, 상기 물체의 크기가 일정치 이상인 경우에, 물체 에지의 윤곽 분석을 수행하는 단계와, 상기 윤곽 분석을 수행한 결과를 토대로 소벨 에지(Sobel edge)를 사용하여 에지맵(edge map)을 획득하는 단계와, 상기 에지맵에 수평 투영법(horizontal projection)과 수직 투영법(vertical projection)을 적용한 후에 투영 결과 그래프를 통해 정점(peak)과 최하점(valley) 성분을 분석하여 차량/사람을 구분하는 단계로 이루어진 것을 특징으로 한다.When the size of the object is greater than or equal to a certain value, performing an edge analysis of an object edge and obtaining an edge map using a Sobel edge based on the result of the contour analysis. And applying a horizontal projection and a vertical projection to the edge map, and then analyzing peak and valley components through a projection result graph to distinguish between vehicles and people. Characterized in that made.

또한, 상기 에지맵에 수평 투영법(horizontal projection)과 수직 투영법(vertical projection)을 적용한 후에 투영 결과 그래프를 통해 정점(peak)과 최하점(valley) 성분을 분석하여 차량/사람을 구분하는 단계는, 상기 수평 투영법의 정점과 최하점의 개수를 참조하여 인원 수를 확인하는 것을 특징으로 한다.In addition, after applying a horizontal projection and a vertical projection to the edge map, the step of analyzing the peak and valley components through the projection result graph to distinguish the vehicle / person, the The number of people is determined by referring to the number of vertices and the lowest points of the horizontal projection method.

그리고, 상기 제3 단계는, 상기 사람 영상에서 RGB 상자의 데이터를 이용하여 원하는 픽셀의 RGB 값과 각 RGB 방향의 벡터 거리를 구해서 최단거리의 컬러 정보를 획득하고, 상기 데이터베이스에 상기 사람 영상에 컬러 정보를 색인 정보로 추가하여 저장하는 것을 특징으로 한다.In the third step, the RGB image of the desired pixel and the vector distance in each RGB direction are obtained by using the data of the RGB box in the human image, and color information of the shortest distance is obtained. The information may be added as index information and stored.

한편, 상기 RGB 상자에 학습된 피부색 영역을 미리 설정한 후에 상기 사람 영상 중에서 상기 피부색 영역에 속하는 영역을 얼굴 영역으로 인식하고, 상기 피부색 영역이 다수일 경우에 최상단에 있는 피부색 영역을 얼굴 영역으로 인식하는 것을 특징으로 한다.On the other hand, after setting the skin color region learned in the RGB box in advance, the region belonging to the skin color region in the human image is recognized as a face region, and when the skin color region is plural, the skin color region at the top is recognized as the facial region. Characterized in that.

그리고, 상기 제3 단계는, 상기 얼굴 영역이 인식되면 얼굴 영역에서 눈을 검출하고, 얼굴 인식 알고리즘을 통해 얼굴을 인식한 후에 색인 정보로 추가하는 것을 특징으로 한다.In the third step, when the face region is recognized, eyes are detected in the face region, and after recognizing the face through a face recognition algorithm, the third region is added as index information.

또한, 상기 얼굴 인식 알고리즘은 특징점 추출에 PCA(principal component analysis)를 적용하여 고유 얼굴(Eigen face)과 웨이브릿(Wavelet) 변환 계수를 특징으로 사용하고, 유사도 측정에 상기 데이터베이스에 있는 특징 벡터와의 거리( Euclidean)를 적용하는 것을 특징으로 한다.
In addition, the face recognition algorithm applies a principal component analysis (PCA) to feature point extraction and uses the eigen face and wavelet transform coefficients as features, and measures the similarity with the feature vector in the database. It is characterized by applying the distance (Euclidean).

이와 같은 감시카메라를 활용한 비디오 색인 시스템 및 그 색인 방법에 따르면, 감시카메라로부터 수집된 영상을 분석하여 사람 영상과 물체 영상을 추출하고, 컬러 정보와 크기 정보를 포함한 색인 정보를 사람 영상과 물체 영상에 색인화하여 데이터베이스에 통합 저장함으로써 우수한 얼굴 또는 차량 색인 및 검색 성능을 확보할 수 있을 뿐만 아니라 얼굴 인식의 신뢰성을 높일 수 있는 효과가 있다. According to the video indexing system using the surveillance camera and the indexing method, the image collected from the surveillance camera is analyzed to extract the human image and the object image, and the index information including the color information and the size information is obtained from the human image and the object image. By indexing and storing them in a database, you can secure excellent face or vehicle index and search performance, and increase the reliability of face recognition.

그리고, 본 발명은 실종 미아, 범인이나 범죄 이용 차량 등의 이미지 데이터를 토대로 손쉽게 관리자가 원하는 날자나 시간대에 색인된 이미지 자료를 검색할 수 있고, 사전에 범죄를 예방할 수 있을 뿐만 아니라, 실종 미아를 찾거나 범인 및 범죄 이용 차량 검거하는데 소요되는 비용이나 시간을 절감할 수 있는 효과도 있다.
In addition, the present invention can easily search for image data indexed at a desired date or time of day based on image data such as missing missing persons, criminals or criminal vehicles, and can prevent crimes in advance and prevent missing missing children. It can also save you money or time in finding or arresting criminals and criminals.

도 1은 본 발명의 실시예에 따른 감시카메라를 활용한 비디오 색인 시스템의 전체 구성이 도시된 블록도,
도 2는 본 발명의 실시예에 적용되는 RGB 상자가 도시된 도면,
도 3은 얼굴 영역에서 눈을 검출한 후에 두 눈의 위치를 체크하는 도면
도 4는 본 발명의 실시예에 따른 감시카메라를 활용한 비디오 색인 방법이 도시된 순서도이다.
1 is a block diagram showing the overall configuration of a video indexing system using a surveillance camera according to an embodiment of the present invention;
2 is a view showing an RGB box applied to an embodiment of the present invention;
3 is a view of checking the position of both eyes after detecting the eyes in the face area
4 is a flowchart illustrating a video indexing method using a surveillance camera according to an embodiment of the present invention.

본 출원명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 하며, 다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. In this application, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, operation, component, part, or combination thereof described in the specification, and one or more other features. All terms used herein, including technical or scientific terms, unless otherwise defined, are to be understood as not precluding the existence or addition of numbers or numbers, steps, operations, components, components or combinations thereof. These have the same meaning as commonly understood by one of ordinary skill in the art to which the present invention belongs. Terms such as those defined in the commonly used dictionaries should be construed as having meanings consistent with the meanings in the context of the related art and shall not be construed in ideal or excessively formal meanings unless expressly defined in this application. Do not.

이하, 첨부한 도면들을 참조하여, 본 발명의 바람직한 실시예를 보다 상세하게 설명하고자 한다. Hereinafter, with reference to the accompanying drawings, it will be described in detail a preferred embodiment of the present invention.

도 1은 본 발명의 실시예에 따른 감시카메라를 활용한 비디오 색인 시스템의 전체 구성이 도시된 블록도이고, 도 2는 본 발명의 실시예에 적용되는 RGB 상자가 도시된 도면이며, 도 3은 얼굴 영역에서 눈을 검출한 후에 두 눈의 위치를 체크하는 도면이고, 도 4는 본 발명의 실시예에 따른 비디오 색인 알고리즘의 흐름을 설명하는 도면이다. 1 is a block diagram showing the overall configuration of a video indexing system using a surveillance camera according to an embodiment of the present invention, Figure 2 is a view showing an RGB box applied to an embodiment of the present invention, Figure 3 FIG. 4 is a diagram illustrating the position of two eyes after detecting eyes in a face region, and FIG. 4 is a diagram illustrating a flow of a video index algorithm according to an exemplary embodiment of the present invention.

도 1 내지 도 3을 참조하면, 본 발명의 실시예에 따른 감시카메라를 활용한 비디오 색인 시스템은, 크게 주변 곳곳에 설치된 다수의 감시 카메라(11)로 구성된 로컬 장치(10)와, 상기 감시 카메라(11)에서 촬영된 영상을 저장 및 분석하여 사람 영상과 물체 영상을 추출하고, 외부에서 입력되는 얼굴 및 차량 검색 조건에 부합하는 영상을 찾아내는 센터 장치(20)로 구분된다.1 to 3, a video indexing system using a surveillance camera according to an embodiment of the present invention includes a local device 10 composed of a plurality of surveillance cameras 11 installed in various places around the surveillance camera, and the surveillance camera. The center apparatus 20 may be classified into a center apparatus 20 that stores and analyzes the captured image, extracts a human image and an object image, and finds an image that matches an external face and vehicle search condition.

특히 센터 장치(20)는, 다수의 감시카메라(11)에서 촬영된 영상을 시간정보와 함께 저장하는 영상 저장 모듈(21)과, 상기 다수의 감시카메라(11)에서 촬영된 영상 및 상기 영상 저장 모듈(21)에서 전송되는 이벤트 영상을 수집하는 영상 수집 모듈(22)과, 상기 영상 수집 모듈(22)에서 수집된 영상을 분석하여 에지(edge) 정보를 검출하고, GMM(Gaussian mixture model) 알고리즘을 사용하여 얼굴 또는 차량을 포함한 사람 영상과 물체 영상을 추출하는 물체 추출 모듈(23)과, 상기 물체 추출 모듈(23)에서 검출된 사람 영상과 물체 영상에 컬러 정보와 크기 정보와 같은 색인 정보를 삽입하는 물체 색인 모듈(24)과, 상기 물체 색인 모듈(24)에서 색인 정보가 추가된 물체 영상 또는 사람 영상에 대한 색인 자료를 기록 및 관리하는 데이터베이스(25)와, 상기 영상 저장 모듈(21)에서 녹화 영상 검색 조건 범위에 해당하는 영상을 전달받아 얼굴 또는 차량에 대한 검색 조건에 따라 데이터베이스에서 색인 자료를 추출하는 영상 검색 모듈(26), 및 상기 영상 검색 모듈(26)에서 얼굴 인식용 이미지 정보가 전달되면 상기 물체 추출 모듈(23)에서 사람 영상을 전달받아 상기 얼굴 인식용 이미지 정보와 비교하여 얼굴 인식 결과를 상기 영상 검색 모듈(26)에 전달하는 얼굴 인식 모듈(25)을 포함하지만 이에 한정되지는 않는다. In particular, the center apparatus 20 includes an image storage module 21 for storing images captured by the plurality of surveillance cameras 11 together with time information, and images stored by the plurality of surveillance cameras 11 and the image storage. An image collection module 22 collecting event images transmitted from the module 21 and an image collected by the image collection module 22 detect edge information, and a Gaussian mixture model (GMM) algorithm. The object extraction module 23 extracts a human image and an object image including a face or a vehicle by using the same, and index information such as color information and size information is applied to the human image and the object image detected by the object extraction module 23. An object index module 24 for inserting, a database 25 for recording and managing index data for an object image or a human image to which index information is added in the object index module 24, and the image storage module 21 In The image retrieval module 26 which receives an image corresponding to a recorded image retrieval condition range and extracts index data from a database according to a retrieval condition for a face or a vehicle, and the image retrieval module 26 may include image information for face recognition. When received, the object extraction module 23 includes a face recognition module 25 that receives a human image and compares the face recognition image information with the face recognition image information to the image retrieval module 26, but is not limited thereto. Does not.

또한, 상기 센터 장치(20)의 상기 영상 저장 모듈(21), 영상 수집 모듈(22), 물체 추출 모듈(23), 물체 색인 모듈, 데이터베이스(25), 영상 검색 모듈(26), 및 얼굴 인식 모듈(25)은 모듈화될 수 있지만, 각각 서버로 구성될 수도 있다.In addition, the image storage module 21, the image collection module 22, the object extraction module 23, the object index module, the database 25, the image search module 26, and the face recognition of the center device 20. Module 25 may be modular, but may each be configured as a server.

한편, 상기 영상 저장 모듈(21)은 상기 감시카메라(11)에서 촬영된 영상을 확대하여 사진 파일로 저장하고, 상기 사진 파일명을 영상 획득 시간으로 지정함으로써 영상 검색 모듈(26)에서 검색하고자 하는 물체가 출현한 시간을 파일명을 이용하여 손쉽게 검색할 수 있다. Meanwhile, the image storage module 21 enlarges the image captured by the surveillance camera 11 and stores the image as a photo file, and designates the photo file name as the image acquisition time, thereby searching for the object in the image retrieval module 26. You can easily search for the time that appeared by using the file name.

상기 물체 추출 모듈(23)은 GMM(Gaussian mixture model) 알고리즘을 사용하여 물체 영상을 추출하고, 상기 물체 영상에서 추출된 물체의 크기가 일정치 보다 미만인 경우(설정값 미만인 경우)에 1인이라고 판단하고, 상기 물체의 크기가 일정치 이상인 경우(설정값 이상인 경우)에 2인 이상 또는 차량 영상이라고 판단한다.The object extraction module 23 extracts an object image by using a Gaussian mixture model (GMM) algorithm, and determines that the object is one when the size of the object extracted from the object image is smaller than a predetermined value (less than a set value). When the size of the object is greater than or equal to a predetermined value (more than a set value), it is determined that the object is two or more or a vehicle image.

이때, 상기 물체 추출 모듈(23)은 상기 물체의 크기가 일정치 이상인 경우에, 물체 에지의 윤곽 분석을 수행한 후에 소벨 에지(Sobel edge)를 사용하여 에지맵(edge map)을 획득하고, 수평 투영법(horizontal projection)과 수직 투영법(vertical projection)을 적용하여 산출된 투영 결과 그래프를 통해 정점(peak)과 최하점(valley) 성분을 분석하여 차량 영상인지, 사람 영상인지를 구분할 수 있다.In this case, when the size of the object is more than a predetermined value, the object extraction module 23 obtains an edge map using a Sobel edge after performing contour analysis of the object edge, and horizontally The peak and valley components may be analyzed through a projection result graph obtained by applying a horizontal projection and a vertical projection to distinguish between a vehicle image and a human image.

그리고, 상기 물체 추출 모듈(23)은 사람 영상이라고 판단된 경우에 상기 수평 투영법의 정점과 최하점의 개수를 참조하여 인원 수를 확인하게 된다.In addition, when it is determined that the object extraction module 23 is a human image, the object extraction module 23 checks the number of persons by referring to the number of vertices and lowest points of the horizontal projection method.

여기서, 상기 물체 추출 모듈(23)은 사람 영상에서 RGB 0~ 255까지의 값을 이용하여 사람의 얼굴 픽셀 좌표 하단의 컬러 정보를 확인한다.Here, the object extraction module 23 checks the color information of the lower face pixel coordinates of the human face by using values from RGB 0 to 255 in the human image.

즉, 도 2에 도시된 바와 같이 RGB 상자의 데이터를 이용하여 원하는 픽셀의 RGB 값과 각 RGB 방향의 벡터 거리를 구해서 최단거리의 컬러 정보를 획득하고, 사각형의 8개 꼭지점(Red, Green, Blue, White, Black, Cyan, Magenta, Yellow)의 데이터값과 현재 픽셀의 거리가 가장 가까운 꼭지점 값이 픽셀의 색 정보가 된다.That is, as shown in FIG. 2, using the data of the RGB box, the RGB value of the desired pixel and the vector distance of each RGB direction are obtained to obtain color information of the shortest distance, and eight vertices (Red, Green, Blue) of the rectangle are obtained. , White, black, cyan, magenta, and yellow) and the vertex value closest to the distance of the current pixel becomes the color information of the pixel.

예를 들어, 검정색은 수학식 1와 같고, 빨강색은 수학식 2과 같으며, 파랑색은 수학식 3와 같으므로, 나머지 흰색, 검정색, 파랑과 초록의 결합색인 시안(Cyan), 빨강과 파랑의 결합색인 마젠타(Magenta), 빨강과 초록의 결합색인 노랑색 순으로 각 8개 꼭지점과 거리를 다 구한 후에 최단 거리를 가지고 있는 것이 그 픽셀의 색정보로 판단한다.
For example, black is the same as Equation 1, red is the same as Equation 2, and blue is the same as Equation 3, so that the remaining colors of cyan, red, and white are combined with white, black, blue, and green. After determining all eight vertices and distances in order of magenta (blue) and yellow (red and green), the shortest distance is determined by the color information of the pixel.

Figure 112011070711361-pat00001
Figure 112011070711361-pat00001

Figure 112011070711361-pat00002
Figure 112011070711361-pat00002

Figure 112011070711361-pat00003
Figure 112011070711361-pat00003

그 후, 상기 물체 색인 모듈(24)은 데이터베이스(25)에 상기 사람 영상에 컬러 정보를 색인 정보로 추가하여 저장한다.Then, the object index module 24 adds color information to the human image as index information in the database 25 and stores it.

즉, 상기 물체 색인 모듈(24)은 상기 RGB 상자에 학습된 피부색 영역을 미리 설정한 후에 상기 사람 영상 중에서 상기 피부색 영역에 속하는 영역을 얼굴 영역으로 인식하고, 상기 피부색 영역이 다수일 경우에 최상단에 있는 피부색 영역을 얼굴 영역으로 인식한다.That is, the object index module 24 recognizes a region belonging to the skin color region in the human image as a face region after presetting the skin color region learned in the RGB box, and is located at the top when there are a plurality of skin color regions. Recognizes the skin color area as a face area.

그리고, 상기 물체 색인 모듈(24)은 상기 얼굴 영역이 인식된 후에 얼굴 영역에서 눈을 검출하고, 얼굴 인식 알고리즘을 통해 얼굴을 인식한 후에 색인 정보로 추가 저장한다.The object index module 24 detects eyes in the face area after the face area is recognized, and additionally stores the index information after recognizing the face through a face recognition algorithm.

여기서, 상기 얼굴 인식 알고리즘은 특징점 추출에 PCA(principal component analysis)를 적용하여 고유 얼굴(Eigen face)과 웨이브릿(Wavelet) 변환 계수를 특징으로 사용하고, 유사도 측정에 상기 데이터베이스(25)에 있는 특징 벡터와의 거리(Euclidean)를 적용한다.Here, the face recognition algorithm applies a principal component analysis (PCA) to feature point extraction to use an eigen face and a wavelet transform coefficient as a feature, and measures the similarity in the database 25. Apply the distance from the vector (Euclidean).

또한, 도 3에 도시된 바와 같이, 상기 얼굴 영역에서 눈을 검출한 후에 두 눈의 위치가 좌우 센터링(Centering) 되어 있는지를 검사한다. In addition, as shown in FIG. 3, after detecting the eye in the face area, it is checked whether the positions of the two eyes are centered left and right.

즉, w-(a+b)/w의 값이 제1 임계치와 제2 임계치 사이에 존재하고, c/h의 값이 제3 임계치와 제4 임계치 사이에 존재하는 경우에 두 눈이 좌우 센터링 되었다고 판단한다.That is, when the value of w- (a + b) / w is between the first and second thresholds, and the value of c / h is between the third and fourth thresholds, both eyes are centered left and right. I think it is.

그러면, 상기 물체 색인 모듈(24)은 데이터베이스(25)에 상기 차량 영상에 컬러 정보를 색인 정보로 추가하여 저장한다. Then, the object index module 24 adds color information as index information to the vehicle image and stores it in the database 25.

이하, 본 발명의 실시예에 따른 감시카메라를 활용한 비디오 색인 시스템의 동작에 대해 도면을 참조하여 보다 구체적으로 설명한다.Hereinafter, an operation of a video indexing system using a surveillance camera according to an embodiment of the present invention will be described in more detail with reference to the accompanying drawings.

도 4는 본 발명의 실시예에 따른 감시카메라를 활용한 비디오 색인 방법이 도시된 순서도이다. 4 is a flowchart illustrating a video indexing method using a surveillance camera according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시예에 따른 감시카메라를 활용한 비디오 색인 방법은, 로컬 장치(10)의 감시카메라(11)에서 촬영된 영상을 영상 저장 모듈(21)에 저장하는데, 각 영상을 확대하여 사진 파일로 저장하고, 영상 획득 시간을 파일명으로 한다.Referring to FIG. 4, the video indexing method using a surveillance camera according to an embodiment of the present invention stores images captured by the surveillance camera 11 of the local apparatus 10 in the image storage module 21. The image is enlarged and stored as a photo file, and the image acquisition time is set as the file name.

물체 추출 모듈(23)은 상기 영상 저장 모듈(21)에서 전송되는 이벤트 영상과 영상 수집 모듈(22)에서 다수의 감시 카메라(11)로부터 실시간 수집된 영상을 GMM(Gaussian Mixture Model)을 이용하여 배경과 전경을 구분한다. The object extraction module 23 performs a background image of the event image transmitted from the image storage module 21 and the image collected in real time from the plurality of surveillance cameras 11 in the image collection module 22 using a Gaussian Mixture Model (GMM). Distinguish from the foreground.

이때, 상기 물체 추출 모듈(23)은 상기 물체 영상에서 추출된 물체의 크기가 일정치보다 미만인 경우에 1인이라고 판단하고, 상기 물체의 크기가 일정치 이상인 경우에 2인 이상 또는 차량 영상이라고 판단한다.In this case, the object extraction module 23 determines that the object is one person when the size of the object extracted from the object image is smaller than a predetermined value, and determines that the object extraction module 23 is two or more or a vehicle image when the size of the object is greater than or equal to the predetermined value. do.

이때, 상기 물체의 크기가 일정치 이상인 경우에, 물체 에지의 윤곽 분석을 수행한 후에 소벨 에지를 사용하여 에지맵을 획득하고, 수평 투영법과 수직 투영법을 적용한 투영 결과 그래프를 통해 정점(peak)과 최하점(valley) 성분을 분석하여 차량/사람 영상을 구분한다.In this case, when the size of the object is greater than or equal to a certain value, after performing contour analysis of the object edge, the edge map is obtained using the Sobel edge, and the peak and peak values are obtained through a projection result graph applying the horizontal projection method and the vertical projection method. Valley components are analyzed to distinguish vehicle / person images.

이때, 상기 물체 추출 모듈(23)은 상기 사람 영상인 경우에 상기 수직 투영법의 정점과 최하점의 개수를 참조하여 인원 수를 확인할 수 있다.In this case, the object extraction module 23 may check the number of persons by referring to the number of vertices and the lowest points of the vertical projection method in the case of the human image.

한편, 물체 색인 모듈(24)은 상기 사람 영상에서 RGB 상자의 데이터를 이용하여 원하는 픽셀의 RGB 값과 각 RGB 방향의 벡터 거리를 구해서 최단거리의 컬러 정보를 획득하고, 상기 데이터베이스에 상기 사람 영상에 컬러 정보를 색인 정보로 추가하여 저장한다.On the other hand, the object indexing module 24 obtains the shortest distance color information by obtaining the RGB value of the desired pixel and the vector distance in each RGB direction using the data of the RGB box in the human image, and stores the color information in the database. Add color information as index information and store it.

이때, 상기 물체 색인 모듈(24)은 RGB 상자에 학습된 피부색 영역을 미리 설정한 후에 상기 사람 영상 중에서 상기 피부색 영역에 속하는 영역을 얼굴 영역으로 인식하고, 상기 얼굴 영역에서 눈을 검출하고, 얼굴 인식 알고리즘을 통해 얼굴을 인식한 후에 색인 정보로 추가한다.In this case, the object indexing module 24 presets the skin color region learned in the RGB box in advance, and recognizes a region belonging to the skin color region as the face region in the human image, detects the eye in the face region, and recognizes the face. The algorithm recognizes the face and adds it as index information.

그 후, 물체 색인 모듈(24)은 상기 물체 추출 모듈(23)에서 추출한 사람 영상에 피부색, 인상 착의(옷 색상) 정보, 키 등의 크기 정보를 색인화하여 데이터베이스(25)에 저장하고, 상기 차량 영상에 차량의 색상이나 크기 정보를 색인화하여 데이터베이스(25)에 저장한다. Thereafter, the object indexing module 24 indexes and stores the size information such as skin color, impression wear (clothing color) information, height, and the like in the human image extracted by the object extraction module 23, and stores the size information in the database 25. Color and size information of the vehicle is indexed in the image and stored in the database 25.

영상 검색 모듈(26)은 실종 미아나 기타 범죄와 관련된 사람의 사진 등 얼굴 인식용 이미지 정보를 얼굴 인식 모듈(25)에 전달하면, 상기 얼굴 인식 모듈(25)은 물체 추출 모듈(23)에서 실시간 사람 영상을 전달받아 상기 얼굴 인식용 이미지 정보와 비교하여, 상기 얼굴 인식용 이미지 정보에 부합되는 사람 영상을 상기 영상 검색 모듈(26)에 전달한다.When the image retrieval module 26 transmits face recognition image information, such as a picture of a person related to a missing child or other crime, to the face recognition module 25, the face recognition module 25 may perform real-time in the object extraction module 23. The human image is received and compared with the face recognition image information, and the person image corresponding to the face recognition image information is transmitted to the image retrieval module 26.

또한, 상기 영상 검색 모듈(26)은 특정 날자 또는 시간대에 차량 검색을 실시할 경우에, 영상 저장 모듈(21)로부터 검색 조건 범위의 녹화 영상을 전달받은 후에 차량의 색상이나 크기 정보 등의 검색 조건에 따라 데이터베이스(25)를 검색하여 색인 자료를 추출한다. 현재 시간 정보를 이용하여 저장된 동영상과의 시간 정보 연계를 한다. In addition, when performing a vehicle search on a specific date or time zone, the image search module 26 receives a search condition such as color or size information of a vehicle after receiving a recorded image of a search condition range from the image storage module 21. The database 25 is searched to extract index data. The time information is linked with the stored video by using the current time information.

이때, 상기 영상 검색 모듈(26)은 각 영상마다 영상 획득 시간 정보를 포함하고 있으므로 검색 조건에 해당하는 날자 및 시간대에 색인된 이미지(얼굴 또는 차량)을 검색하거나 얼굴 인식을 실행할 수 있다. In this case, since the image search module 26 includes image acquisition time information for each image, the image search module 26 may search for an image (face or vehicle) indexed at a date and time zone corresponding to a search condition or perform face recognition.

이와 같이, 상기 물체 색인 모듈(24)에서 추가되는 색인 정보는 물체 추출 모듈(23)에서 사람과 차량을 구분하여 사람 영상과 차량 영상을 전달하면, 상기 사람 영상에 사람의 인상 착의 피부색이나 옷의 색 정보, 키 등의 크기 정보를 포함하고, 상기 차량 영상에 차량의 색상 정보를 포함한다.As described above, when the index information added by the object index module 24 transmits a person image and a vehicle image by distinguishing a person from a vehicle in the object extraction module 23, the color of the skin color or clothes of a person wearing the impression is displayed on the person image. Size information such as color information and keys is included, and color information of the vehicle is included in the vehicle image.

따라서, 외부에서 입력되는 사람의 얼굴이나 차량 이미지 정보를 토대로 상기 영상 검색 모듈(26)은 데이터베이스(25)에서 색인 정보 중 어느 하나의 정보에 상응하는 영상을 화면에 출력하도록 한다.Therefore, the image retrieval module 26 outputs an image corresponding to any one of the index information from the database 25 on the screen based on the face of the person or the vehicle image information input from the outside.

이때, 상기 영상 검색 모듈(26)은 DVR과 연계하여 DVR 내에 저장된 동영상을 동시에 출력할 수도 있다. In this case, the image search module 26 may simultaneously output the video stored in the DVR in connection with the DVR.

한편, 상기 영상 검색 모듈(26)은 관리자가 실종 미아, 범인, 범죄 이용 차량 등의 이미지 정보들을 검색 조건으로 미리 세팅해 둘 경우에, 자동으로 실시간 색인된 이미지 검색 및 얼굴 인식을 실행하고, 상기 검색 조건 중 특정한 이미지 정보에 부합하는 영상이 포착된 경우에 관리자나 경찰서 등에 SMS나 MMS를 이용하여 통보할 수 있도록 통신부(도시되지 않음)가 설치될 수 있다.On the other hand, the image retrieval module 26 automatically performs real-time indexed image retrieval and face recognition when the administrator presets image information of missing missing persons, criminals, criminal vehicles, etc. as a search condition. A communication unit (not shown) may be installed to notify an administrator or a police station by SMS or MMS when an image corresponding to specific image information is captured among the search conditions.

또한, 관리자가 검색 조건 세팅시, 경찰 내의 범죄 정보 및 실종 정보와 연계하여 위험 등급을 설정하고, 상기 검색 조건에 부합되는 영상이 포착된 경우에 해당 영상의 위험 등급에 따라 SMS나 MMS에 위험 등급을 표기하여 통보할 수 있고, 또 위험 등급이 낮은 경우에는 불필요한 경찰이나 소방 출동이 방지되도록 관리자에게만 통보하지만 위험 등급이 높아질수록 112나 119 등과 바로 연동하여 경찰이나 소방 출동이 이루어지도록 할 수 있다.  In addition, when the administrator sets the search condition, the risk level is set in connection with the crime information and the missing information in the police, and when an image meeting the search condition is captured, the risk level is determined in the SMS or MMS according to the risk level of the video. If the risk level is low, the supervisor can only be notified to prevent unnecessary police or fire fighting, but the higher the risk level, the higher the risk level can be directly linked to 112 or 119, so that the police or fire fighting can be made.

이상 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
Although described with reference to the embodiments above, those skilled in the art will understand that the present invention can be variously modified and changed without departing from the spirit and scope of the invention as set forth in the claims below. Could be.

10 : 로컬 장치 11 : 감시 카메라
20 : 센터 장치 21 : 영상 저장 모듈
22 : 영상 수집 모듈 23 : 물체 추출 모듈
24 : 물체 색인 모듈 25 : 데이터베이스
26 : 영상 검색 모듈 27 : 얼굴 인식 모듈
10: local device 11: surveillance camera
20: center device 21: video storage module
22: image acquisition module 23: object extraction module
24: object index module 25: database
26: Image Search Module 27: Face Recognition Module

Claims (9)

다수의 감시카메라에서 촬영된 영상을 시간순으로 저장하는 영상 저장 모듈과,
상기 다수의 감시카메라에서 촬영된 영상 및 상기 영상 저장 모듈에서 전송되는 이벤트 영상을 수집하는 영상 수집 모듈과,
상기 영상 수집 모듈에서 수집된 영상에서 에지(edge) 정보를 검출하고, 상기 에지 정보를 분석하여 사람 또는 차량을 포함한 사람 영상과 물체 영상을 추출하는 물체 추출 모듈과,
상기 물체 추출 모듈에서 검출된 사람 영상과 물체 영상에 색인 정보를 삽입하는 물체 색인 모듈과,
상기 물체 색인 모듈에서 색인 정보가 추가된 물체 영상 또는 사람 영상에 대한 색인 자료를 기록 및 관리하는 데이터베이스와,
상기 영상 저장 모듈에서 녹화 영상 검색 조건 범위에 해당하는 영상을 전달받아 얼굴 또는 차량에 대한 검색 조건에 따라 데이터베이스에서 색인 자료를 추출하는 영상 검색 모듈, 및
상기 영상 검색 모듈에서 얼굴 인식용 이미지 정보가 전달되면 상기 물체 추출 모듈에서 사람 영상을 전달받아 상기 얼굴 인식용 이미지 정보와 비교하여 얼굴 인식 결과를 상기 영상 검색 모듈에 전달하는 얼굴 인식 모듈을 포함하고,
상기 물체 추출 모듈은 소벨 에지 검출(Sobel Edge Detection)을 사용하여 에지 정보를 검출하고, 상기 에지 정보를 분석하여 에지 내부의 컬러 영상의 RGB 데이터와 에지 크기를 분석하며,
상기 영상 저장 모듈은 상기 감시카메라에서 촬영된 영상을 사진 파일로 저장하고, 상기 사진 파일명을 영상 획득 시간으로 지정하는 것을 특징으로 하는 감시카메라를 활용한 비디오 색인 시스템.
An image storage module for storing images captured by multiple surveillance cameras in chronological order;
An image collection module for collecting images captured by the plurality of surveillance cameras and event images transmitted from the image storage module;
An object extraction module for detecting edge information from the image collected by the image collection module and extracting a human image and an object image including a person or a vehicle by analyzing the edge information;
An object index module for inserting index information into the human image and the object image detected by the object extraction module;
A database for recording and managing index data on an object image or a human image to which index information is added in the object index module;
An image retrieval module for receiving an image corresponding to a recorded image retrieval condition range from the image storage module and extracting index data from a database according to a retrieval condition for a face or a vehicle; and
And a face recognition module configured to receive a human image from the object extraction module and to compare the face recognition image information with the face recognition image to the image retrieval module if the image recognizing image information is transmitted from the image retrieval module.
The object extraction module detects edge information by using Sobel Edge Detection, analyzes the edge information, analyzes RGB data and edge size of a color image inside the edge,
The image storage module stores the image taken by the surveillance camera as a photo file, and designates the photo file name as an image acquisition time.
제1항에 있어서,
상기 물체 추출 모듈은 상기 물체 영상에서 추출된 물체의 크기가 설정값 미만인 경우에 1인이라고 판단하고, 상기 물체의 크기가 설정값 이상인 경우에 2인 이상 또는 차량 영상이라고 판단하는 것을 특징으로 하는 감시카메라를 활용한 비디오 색인 시스템
The method of claim 1,
The object extracting module may determine that the object is one person when the size of the object extracted from the object image is less than a set value, and determine that the object is two or more or a vehicle image when the size of the object is greater than or equal to the set value. Video indexing system using camera
제2항에 있어서,
상기 물체 추출 모듈은 상기 물체의 크기가 설정값 이상인 경우에, 물체 에지의 윤곽 분석을 수행한 후에 소벨 에지(Sobel edge)를 사용하여 에지맵(edge map)을 획득하고, 수평 투영법(horizontal projection)과 수직 투영법(vertical projection)을 적용하여 산출된 투영 결과 그래프를 통해 정점(peak)과 최하점(valley) 성분을 분석하여 차량/사람을 구분하는 것을 특징으로 하는 감시카메라를 활용한 비디오 색인 시스템.
The method of claim 2,
The object extraction module obtains an edge map using a Sobel edge after performing contour analysis of the object edge when the size of the object is greater than or equal to a set value, and uses horizontal projection. And a video indexing system using a surveillance camera that distinguishes vehicles / persons by analyzing peak and valley components through a projection result graph obtained by applying a vertical projection method and a vertical projection method.
제1항에 있어서,
상기 물체 색인 모듈은 상기 사람 영상에서 RGB 상자의 데이터를 이용하여 원하는 픽셀의 RGB 값과 각 RGB 방향의 벡터 거리를 구해서 최단거리의 컬러 정보를 획득하고, 상기 데이터베이스에 상기 사람 영상에 컬러 정보를 색인 정보로 추가하여 저장하고,
상기 물체 색인 모듈은 상기 RGB 상자에 학습된 피부색 영역을 미리 설정한 후에 상기 사람 영상 중에서 상기 피부색 영역에 속하는 영역을 얼굴 영역으로 인식하고, 상기 피부색 영역이 다수일 경우에 최상단에 있는 피부색 영역을 얼굴 영역으로 인식하며,
상기 얼굴 인식 알고리즘은 특징점 추출에 PCA(principal component analysis)를 적용하여 고유 얼굴(Eigen face)과 웨이브릿(Wavelet) 변환 계수를 특징으로 사용하고, 유사도 측정에 상기 데이터베이스에 있는 특징 벡터와의 거리( Euclidean)를 적용하는 것을 특징으로 하는 감시카메라를 활용한 비디오 색인 시스템.
The method of claim 1,
The object index module obtains color information of the shortest distance by obtaining a RGB value of a desired pixel and a vector distance in each RGB direction using data of an RGB box in the human image, and indexes the color information to the human image in the database. Add it as information, save it,
The object index module presets the learned skin color region in the RGB box, and then recognizes a region belonging to the skin color region as a face region in the human image, and faces the skin color region at the top when the skin color region is multiple. Recognize it as an area
The face recognition algorithm applies a principal component analysis (PCA) to feature point extraction and uses the eigen face and wavelet transform coefficients as a feature, and measures the similarity to the distance from the feature vector in the database ( Video indexing system using surveillance camera, characterized by applying Euclidean).
다수의 감시 카메라에서 촬영된 영상을 시간순으로 영상 저장 모듈에 저장하는 제1 단계와,
상기 영상 저장 모듈에 저장된 영상을 분석하여 에지(edge) 정보와 컬러 정보를 검출하고, 상기 에지 정보를 분석하여 사람 또는 차량을 포함한 사람 영상과 물체 영상을 추출하는 제2 단계와,
상기 제2 단계에서 추출된 사람 영상과 물체 영상에 컬러 정보를 포함한 색인 정보를 추가하여 색인화하여 데이터베이스에 저장하여 관리하는 제3 단계와,
상기 영상 저장 모듈에서 녹화 영상 검색 조건 범위에 해당하는 영상을 전달받아 얼굴 또는 차량에 대한 검색 조건을 토대로 상기 데이터베이스에서 색인 정보를 추출하여 상기 검색 조건에 해당하는 영상을 검출하는 제4 단계로 이루어지고,
상기 제2 단계에서 물체 영상을 추출하는 단계는,
상기 물체 영상에서 추출된 물체의 크기가 설정값 미만인 경우에 1인이라고 판단하고, 상기 물체의 크기가 설정값 이상인 경우에 2인 이상 또는 차량 영상이라고 판단하는 것을 특징으로 하는 감시카메라를 활용한 비디오 색인 방법.
A first step of storing the images captured by the plurality of surveillance cameras in the image storage module in chronological order;
A second step of analyzing edge images and color information by analyzing the images stored in the image storage module, extracting a human image and an object image including a person or a vehicle by analyzing the edge information;
A third step of adding and indexing index information including color information to the human image and the object image extracted in the second step and storing the index information in a database;
Receiving an image corresponding to a recorded image search condition range from the image storage module, extracting index information from the database based on a search condition for a face or a vehicle, and detecting an image corresponding to the search condition; ,
Extracting the object image in the second step,
When the size of the object extracted from the object image is less than the set value is determined to be one person, and when the size of the object is greater than the set value is determined to be two or more or a vehicle image video using a surveillance camera, characterized in that Index method.
제5항에 있어서,
상기 물체의 크기가 설정값 이상인 경우에,
물체 에지의 윤곽 분석을 수행하는 단계와,
상기 윤곽 분석을 수행한 결과를 토대로 소벨 에지(Sobel edge)를 사용하여 에지맵(edge map)을 획득하는 단계와,
상기 에지맵에 수평 투영법(horizontal projection)과 수직 투영법(vertical projection)을 적용한 후에 투영 결과 그래프를 통해 정점(peak)과 최하점(valley) 성분을 분석하여 차량/사람을 구분하는 단계로 이루어진 것을 특징으로 하는 감시카메라를 활용한 비디오 색인 방법.
The method of claim 5,
If the size of the object is more than the set value,
Performing contour analysis of the object edge,
Obtaining an edge map using a Sobel edge based on the result of the contour analysis;
After applying a horizontal projection (vertical) and a vertical projection (vertical projection) to the edge map characterized in that it comprises the step of analyzing the peak (valley) and the lowest (valley) component through the projection result graph to distinguish the vehicle / person Video indexing method using surveillance cameras.
제6항에 있어서,
상기 에지맵에 수평 투영법(horizontal projection)과 수직 투영법(vertical projection)을 적용한 후에 투영 결과 그래프를 통해 정점(peak)과 최하점(valley) 성분을 분석하여 차량/사람을 구분하는 단계는, 상기 수평 투영법의 정점과 최하점의 개수를 참조하여 인원 수를 확인하며,
상기 제3 단계는, 상기 사람 영상에서 RGB 상자의 데이터를 이용하여 원하는 픽셀의 RGB 값과 각 RGB 방향의 벡터 거리를 구해서 최단거리의 컬러 정보를 획득하고, 상기 데이터베이스에 상기 사람 영상에 컬러 정보를 색인 정보로 추가하여 저장하는 것을 특징으로 하는 감시카메라를 활용한 비디오 색인 방법.
The method of claim 6,
After applying a horizontal projection and a vertical projection to the edge map, analyzing a peak and a valley component through a projection result graph to classify vehicles / persons may include: The number of people is determined by referring to the number of vertices and the lowest point of,
In the third step, the RGB value of the desired pixel and the vector distance in each RGB direction are obtained by using the data of the RGB box in the human image to obtain color information of the shortest distance, and the color information is added to the human image in the database. Video indexing method using a surveillance camera, characterized in that the addition to the index information and storing.
제7항에 있어서,
상기 RGB 상자에 학습된 피부색 영역을 미리 설정한 후에 상기 사람 영상 중에서 상기 피부색 영역에 속하는 영역을 얼굴 영역으로 인식하고, 상기 피부색 영역이 다수일 경우에 최상단에 있는 피부색 영역을 얼굴 영역으로 인식하며,
상기 제3 단계는,
얼굴 영역이 인식되면 얼굴 영역에서 눈을 검출하고, 얼굴 인식 알고리즘을 통해 얼굴을 인식한 후에 색인 정보로 추가하는 것을 특징으로 하는 감시카메라를 활용한 비디오 색인 방법.
The method of claim 7, wherein
After setting the skin color region learned in the RGB box in advance, a region belonging to the skin color region in the human image is recognized as a face region, and when the skin color region is plural, the skin color region at the top is recognized as a facial region.
In the third step,
When the face region is recognized, eyes are detected in the face region, the video indexing method using a surveillance camera, characterized in that after the face recognition through the face recognition algorithm added to the index information.
제8항에 있어서,
상기 얼굴 인식 알고리즘은 특징점 추출에 PCA(principal component analysis)를 적용하여 고유 얼굴(Eigen face)과 웨이브릿(Wavelet) 변환 계수를 특징으로 사용하고, 유사도 측정에 상기 데이터베이스에 있는 특징 벡터와의 거리( Euclidean)를 적용하는 것을 특징으로 하는 감시카메라를 활용한 비디오 색인 방법.
The method of claim 8,
The face recognition algorithm applies a principal component analysis (PCA) to feature point extraction and uses the eigen face and wavelet transform coefficients as a feature, and measures the similarity to the distance from the feature vector in the database ( A video indexing method using a surveillance camera characterized by applying Euclidean).
KR1020110091735A 2011-09-09 2011-09-09 Video indexing system using surveillance camera and the method thereof KR101092472B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110091735A KR101092472B1 (en) 2011-09-09 2011-09-09 Video indexing system using surveillance camera and the method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110091735A KR101092472B1 (en) 2011-09-09 2011-09-09 Video indexing system using surveillance camera and the method thereof

Publications (1)

Publication Number Publication Date
KR101092472B1 true KR101092472B1 (en) 2011-12-13

Family

ID=45506052

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110091735A KR101092472B1 (en) 2011-09-09 2011-09-09 Video indexing system using surveillance camera and the method thereof

Country Status (1)

Country Link
KR (1) KR101092472B1 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101398684B1 (en) * 2013-01-10 2014-05-27 주식회사 에스원 Method and apparatus for sensing opening and closing door of elevator
KR101734029B1 (en) * 2016-01-19 2017-05-10 박명준 Intellegent monitoring system and the method thereof using similarity-analysis of mobile moving-image
KR101765722B1 (en) * 2016-01-12 2017-08-08 소프트온넷(주) System and method of generating narrative report based on cognitive computing for recognizing, tracking, searching and predicting vehicles and person attribute objects and events
KR20180070472A (en) * 2016-12-16 2018-06-26 눅테크 컴퍼니 리미티드 Image matching method and device
KR101960667B1 (en) 2018-08-31 2019-07-15 주식회사 텍트원 Suspect Tracking Apparatus and Method In Stored Images
KR20200066125A (en) * 2018-11-30 2020-06-09 경희대학교 산학협력단 Method and device for estimating similarity of vedio
KR102444915B1 (en) 2021-12-15 2022-09-19 주식회사 페이스테그 Image information management method using facial feature vectors, Image information management apparatus, and computer program therefor

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237941A (en) 2009-03-31 2010-10-21 Kddi Corp Mask image generation device, three-dimensional model information generation device, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010237941A (en) 2009-03-31 2010-10-21 Kddi Corp Mask image generation device, three-dimensional model information generation device, and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101398684B1 (en) * 2013-01-10 2014-05-27 주식회사 에스원 Method and apparatus for sensing opening and closing door of elevator
KR101765722B1 (en) * 2016-01-12 2017-08-08 소프트온넷(주) System and method of generating narrative report based on cognitive computing for recognizing, tracking, searching and predicting vehicles and person attribute objects and events
KR101734029B1 (en) * 2016-01-19 2017-05-10 박명준 Intellegent monitoring system and the method thereof using similarity-analysis of mobile moving-image
KR20180070472A (en) * 2016-12-16 2018-06-26 눅테크 컴퍼니 리미티드 Image matching method and device
KR102044077B1 (en) 2016-12-16 2019-11-12 눅테크 컴퍼니 리미티드 Image matching method and device
KR101960667B1 (en) 2018-08-31 2019-07-15 주식회사 텍트원 Suspect Tracking Apparatus and Method In Stored Images
KR20200066125A (en) * 2018-11-30 2020-06-09 경희대학교 산학협력단 Method and device for estimating similarity of vedio
KR102158095B1 (en) * 2018-11-30 2020-09-21 경희대학교 산학협력단 Method and device for estimating similarity of vedio
KR102444915B1 (en) 2021-12-15 2022-09-19 주식회사 페이스테그 Image information management method using facial feature vectors, Image information management apparatus, and computer program therefor

Similar Documents

Publication Publication Date Title
KR101092472B1 (en) Video indexing system using surveillance camera and the method thereof
KR101215948B1 (en) Image information masking method of monitoring system based on face recognition and body information
CN109117827B (en) Video-based method for automatically identifying wearing state of work clothes and work cap and alarm system
CN108062349B (en) Video monitoring method and system based on video structured data and deep learning
EP4105101A1 (en) Monitoring system, monitoring method, and monitoring device for railway train
US9208226B2 (en) Apparatus and method for generating evidence video
CN110942545A (en) Dense person entrance guard control system and method based on face recognition and video fence
US20130216107A1 (en) Method of surveillance by face recognition
CN105913037A (en) Face identification and radio frequency identification based monitoring and tracking system
CN108376246A (en) A kind of identification of plurality of human faces and tracking system and method
CN110619277A (en) Multi-community intelligent deployment and control method and system
CN108364374A (en) Face access control device based on deep learning and method
CN105844245A (en) Fake face detecting method and system for realizing same
CN106355154B (en) Method for detecting frequent passing of people in surveillance video
KR102159786B1 (en) System for Serarching Using Intelligent Analyzing Video
KR101036947B1 (en) The automatic guard system to prevent the crime and accident using computer video image analysis technology
KR101084914B1 (en) Indexing management system of vehicle-number and man-image
KR101113515B1 (en) Video index system using surveillance camera and the method thereof
KR101372860B1 (en) System for searching video and server for analysing video
CN109492509A (en) Personal identification method, device, computer-readable medium and system
CN112132048A (en) Community patrol analysis method and system based on computer vision
CN104102921A (en) Video detection method and video detection device based on face recognition
KR20090044957A (en) Theft and left baggage survellance system and meothod thereof
KR102244878B1 (en) Cctv security system and method based on artificial intelligence
KR101547255B1 (en) Object-based Searching Method for Intelligent Surveillance System

Legal Events

Date Code Title Description
A201 Request for examination
A302 Request for accelerated examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141121

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151102

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20180406

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180928

Year of fee payment: 8