KR20110035662A - Intelligent image search method and system using surveillance camera - Google Patents

Intelligent image search method and system using surveillance camera Download PDF

Info

Publication number
KR20110035662A
KR20110035662A KR1020090093473A KR20090093473A KR20110035662A KR 20110035662 A KR20110035662 A KR 20110035662A KR 1020090093473 A KR1020090093473 A KR 1020090093473A KR 20090093473 A KR20090093473 A KR 20090093473A KR 20110035662 A KR20110035662 A KR 20110035662A
Authority
KR
South Korea
Prior art keywords
pedestrian
image
characteristic information
background
tracking
Prior art date
Application number
KR1020090093473A
Other languages
Korean (ko)
Other versions
KR101062225B1 (en
Inventor
최유주
조위덕
양휘석
김진형
김양원
Original Assignee
아주대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 아주대학교산학협력단 filed Critical 아주대학교산학협력단
Priority to KR1020090093473A priority Critical patent/KR101062225B1/en
Publication of KR20110035662A publication Critical patent/KR20110035662A/en
Application granted granted Critical
Publication of KR101062225B1 publication Critical patent/KR101062225B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

PURPOSE: An intelligent image search system using a surveillance camera is provided to offer a multiple pedestrian sensing and tracing method. CONSTITUTION: An intelligent image search system comprises a plurality of surveillance cameras(102) for recording a monitoring target area, an image processing server(104) extracts pedestrian characteristic information based on the image recorded by the surveillance cameras and detects the image in which the pedestrian characteristic information matched with the pedestrian characteristic information, and a user interface(108) for displaying the detected image or inputting the pedestrian characteristic information for searching.

Description

감시 카메라를 이용한 지능형 영상 검색 방법 및 시스템{INTELLIGENT IMAGE SEARCH METHOD AND SYSTEM USING SURVEILLANCE CAMERA}Intelligent image search method and system using surveillance cameras {INTELLIGENT IMAGE SEARCH METHOD AND SYSTEM USING SURVEILLANCE CAMERA}

본 발명은 영상 검색 시스템 및 그 방법에 관한 것으로, 보다 구체적으로는 감시 카메라를 이용한 지능형 영상 검색 시스템 및 그 방법에 관한 것이다.The present invention relates to an image retrieval system and a method thereof, and more particularly to an intelligent image retrieval system and method using a surveillance camera.

어떤 특정 행위나 사건이 일어나는 것을 감지하는 영상 감시 시스템은 사람 추적을 이용한 연구 분야 중에서도 가장 중요하게 인식되고 있다. 그 이유는 사회가 발전할수록 공공 장소뿐 아니라 개인 공간에서도 개인 및 시설물의 안전에 대한 중요성이 높이 인식되고 있기 때문이다. Video surveillance systems that detect the occurrence of a specific activity or event are the most important of all research studies using human tracking. The reason for this is that as society develops, the importance of the safety of individuals and facilities in public spaces as well as in private spaces is highly recognized.

현대사회가 정보화, 무인화, 자동화, 전산화의 성격이 증가함에 따라 자신과 사업장의 안전과 재산에 대한 안전성과 보안성의 문제점에 대한 경고가 지속적으로 대두하고 있다. 따라서 자신과 사업장의 재산과 안전을 보호, 관리하기 위한 노력이 계속되고 있으며, 주요 시설물 및 관공서, 학교, 기업, 가정에 이르기까지 보안의 중요성과 범위가 넓어져 가고 있어 영상 감시 시스템의 중요성과 개발의 필요성이 요구되고 있다.As the modern society becomes more information, unmanned, automated, and computerized, warnings about the safety and security of the property and safety of the company and the workplace continue to emerge. As a result, efforts are being made to protect and manage the property and safety of themselves and the workplace, and the importance and scope of security is expanding to major facilities, government offices, schools, businesses, and homes. The need for

특히, 영상 감시 및 보안 시스템인 CCTV 기술, IP 카메라 네트워크 기술이 최근 급속히 발전해 지능화 되어 가고 있다. 영상 감시 시스템이 인공 지능을 부여 받아 지능형 시스템으로 거듭나기 위한 방법은 크게 3가지가 있다. In particular, CCTV technology and IP camera network technology, which is a video surveillance and security system, have recently been rapidly developed and intelligent. There are three ways for a video surveillance system to receive artificial intelligence and become an intelligent system.

첫 번째는 별도의 서버를 두고 이곳에서 여러 곳의 영상을 수집하고, 상기 수집된 영상을 다양하게 분석하는 기능을 소프트웨어 형태로 구현하는 것이다. 두 번째 방법은 CCTV 카메라가 포착한 영상을 저장, 녹화, 재생하는 DVR에 움직임 감지 기능 보다 한 단계 진화한 지능형 기능을 추가하는 것이다. 그리고 마지막으로는 카메라 자체 내에 또는 인코더 장비에 칩을 내장하거나 네트워크 연결을 통해 소프트웨어를 구동시키는 방법이 있다. The first is to implement a function of collecting a plurality of images from a separate server here, and analyzing the collected images in software form. The second method is to add intelligent functions, which are one step ahead of motion detection, to DVRs that store, record and play back images captured by CCTV cameras. Finally, there is a way to run the software in the camera itself, in the chip in the encoder equipment, or via a network connection.

이 가운데 별도의 서버에 소프트웨어를 구동시켜 여러 가지 지능형 기능을 가능하도록 하는 지능형 영상 감시 시스템은 컴퓨터 소프트웨어의 발전과 그 궤를 같이 한다. 컴퓨터에 활용되는 각종 소프트웨어가 비디오 영상 처리에도 적용되기 시작하면서 영상이 분석, 추적, 분류되기 시작하였다. 이러한 지능형 감시 시스템의 등장은 각 카메라로부터 입력되는 영상 데이터를 단순하게 체크하는 정도에서 벗어나 컴퓨터 기술과 영상 처리 소프트웨어를 통해 영상 데이터 내 관심있는 객체의 탐지 및 추적 등을 수행하는 영상 감시 체계를 구축할 수 있음을 의미하는 것이기도 하다.Among these, an intelligent video surveillance system that runs software on a separate server to enable various intelligent functions is in line with the development of computer software. As software for computers began to be applied to video image processing, images were analyzed, tracked, and classified. The emergence of such intelligent surveillance system goes beyond simply checking image data input from each camera, and establishes a video surveillance system that detects and tracks objects of interest in the image data through computer technology and image processing software. It also means that you can.

이러한 지능형 영상 감시 시스템을 효율적으로 구현하기 위해서는 카메라 영상으로부터 다중 보행자의 안정적 검출 및 추적, 보행자의 특성 추출, 보행자 특성 기반 영상 검색 기술들이 요구된다.In order to efficiently implement such an intelligent video surveillance system, stable detection and tracking of multiple pedestrians from camera images, feature extraction of pedestrians, and pedestrian feature-based image retrieval techniques are required.

본 발명은 감시 카메라 영상에 대한 지능화 검색을 지원하기 위한 다중 보행자 감지 및 추적 방법을 제공한다. The present invention provides a multi-pedestrian detection and tracking method for supporting an intelligent search for the surveillance camera image.

또한, 본 발명은 감시 카메라로부터 입력되는 다중 보행자의 특성을 추출하고, 상기 추출된 다중 보행자 특성을 기반으로 사용자가 원하는 보행자를 검색하기 위한 방법을 제공한다.The present invention also provides a method for extracting the characteristics of multiple pedestrians input from a surveillance camera and searching for pedestrians desired by a user based on the extracted multiple pedestrian characteristics.

본 발명은 감시 목표 지역을 촬영하는 복수의 감시 카메라와, 상기 복수의 감시 카메라에 의해 촬영된 영상을 기초로 보행자 특성 정보를 추출하고, 상기 추출된 보행자 특성 정보 중 검색하고자 하는 보행자 특성 정보에 매칭되는 보행자 특성 정보가 추출된 영상을 검출하는 영상 처리 서버 및 상기 검색하고자 하는 보행자 특성 정보를 입력하거나 상기 검출된 영상을 영상 검색 화면에 표시하는 사용자 인터페이스 부를 포함하는 지능형 영상 검색 시스템을 제공한다.The present invention extracts pedestrian characteristic information based on a plurality of surveillance cameras photographing a surveillance target area and images captured by the plurality of surveillance cameras, and matches the pedestrian characteristic information to be searched among the extracted pedestrian characteristic information. An image processing server for detecting an image from which pedestrian characteristic information is extracted and a user interface unit for inputting the pedestrian characteristic information to be searched or displaying the detected image on an image search screen are provided.

또한, 본 발명은 복수의 감시 카메라로부터 촬영된 영상을 수신하는 과정과, 상기 수신된 영상을 기초로 보행자의 특성 정보를 추출하는 과정과, 상기 추출된 보행자 특성 정보 중 사용자로부터 입력된 검색하고자 하는 보행자 특성 정보에 매칭되는 보행자 특성 정보가 추출된 영상을 검출하는 과정 및 상기 검출된 영상을 영상 검색 화면에 표시하는 과정을 포함하는 지능형 영상 검색 방법을 제공한다.The present invention also provides a process of receiving images captured from a plurality of surveillance cameras, extracting characteristic information of a pedestrian based on the received image, and searching for input from the user among the extracted pedestrian characteristic information. An intelligent image retrieval method includes detecting an image from which pedestrian characteristic information matching the pedestrian characteristic information is extracted and displaying the detected image on an image search screen.

또한, 본 발명은 복수의 감시 카메라를 구비하는 지능형 영상 검색 시스템에 있어서, 상기 복수의 감시 카메라에 의해 촬영된 영상을 기초로 상기 보행자의 특성 정보를 추출하고, 상기 추출된 보행자 특성 정보 중 검색하고자 하는 보행자 특성 정보에 매칭되는 보행자 특성 정보가 추출된 영상을 검출하는 영상 처리 장치를 포함하는 지능형 영상 검색 시스템을 제공한다.In addition, the present invention is an intelligent image retrieval system having a plurality of surveillance cameras, to extract the characteristic information of the pedestrian based on the images captured by the plurality of surveillance cameras, and to search among the extracted pedestrian characteristic information An intelligent image retrieval system including an image processing apparatus for detecting an image from which pedestrian characteristic information matching the pedestrian characteristic information is extracted is provided.

본 발명은 감시 카메라 영상으로부터 다중 보행자를 안정적으로 검출 및 추적하여 보행자의 특성을 추출할 수 있다. The present invention can stably detect and track multiple pedestrians from the surveillance camera image to extract the characteristics of the pedestrians.

또한, 본 발명은 감시 목표 지역에 설치되어 있는 다수의 감시 카메라로부터 실시간 영상을 입력 받아, 온라인 혹은 오프라인 영상 조회를 원하는 사용자가 검색하고자 하는 보행자 특성 정보를 입력하면 상기 특성 정보에 해당하는 보행자를 검출하여 온라인 비디오 영상 혹은 오프라인 대표 프레임 영상에 표시할 수 있다.In addition, the present invention receives a real-time image from a plurality of surveillance cameras installed in the surveillance target area, if the user who wants to search the online or offline image inputs the pedestrian characteristic information to search for detecting the pedestrian corresponding to the characteristic information It can be displayed on an online video image or an offline representative frame image.

하기에서 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술 되는 용어들은 본 발명에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In the following description of the present invention, detailed descriptions of well-known functions or configurations will be omitted if it is determined that the detailed description of the present invention may unnecessarily obscure the subject matter of the present invention. Terms to be described later are terms defined in consideration of functions in the present invention, and may be changed according to intentions or customs of users or operators. Therefore, the definition should be based on the contents throughout this specification.

본 발명의 실시 예는 감시 카메라 영상에 대한 지능화 검색을 지원하기 위하여 다중 보행자를 안정적으로 감지 및 추적하고, 상기 다중 보행자 각각의 특성을 추출하여 보행자 특성에 기반한 영상 검색 기술을 제공한다.An embodiment of the present invention provides an image retrieval technology based on the characteristics of pedestrians by stably detecting and tracking multiple pedestrians and extracting the characteristics of each of the multiple pedestrians to support intelligent search for surveillance camera images.

구체적으로, 본 발명의 실시 예는 감시 카메라로부터 실시간 입력되는 영상을 기반으로 다중 보행자를 감지하는 방법, 상기 다중 보행자를 추적하는 방법, 상기 다중 보행자 각각의 특성을 추출하는 방법을 제공함으로써 사용자가 찾고자 하는 보행자를 효율적으로 검색할 수 있다.Specifically, an embodiment of the present invention provides a method for detecting multiple pedestrians, a method for tracking the multiple pedestrians, and a method for extracting characteristics of each of the multiple pedestrians based on a real-time image input from a surveillance camera. We can search pedestrian to do efficiently.

이하에서는, 본 발명의 바람직한 실시 예에 대해 도면을 참조하여 상세히 설명하도록 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 바람직한 실시 예에 따른 감시 카메라 영상 기반 지능화 검색 시스템을 도시하고 있다.1 illustrates a surveillance camera image-based intelligent search system according to an exemplary embodiment of the present invention.

도 1을 참조하면, 상기 시스템(100)은 감시 카메라(102), 영상 처리 서버(104), 영상 데이터 저장부(106) 및 사용자 인터페이스 부(108)를 포함한다. 상기 영상 처리 서버(104)는 영상 처리 장치(미도시) 내에 구현될 수 있고, 상기 영상 처리 장치는 상기 감시 카메라(102)를 포함할 수 있음은 당업자에게 자명하다. 이하, 본 발명의 내용과 관련 없는 상기 시스템(100)의 다른 구성 요소들에 대해서는 생략하도록 한다.Referring to FIG. 1, the system 100 includes a surveillance camera 102, an image processing server 104, an image data storage unit 106, and a user interface unit 108. It will be apparent to those skilled in the art that the image processing server 104 may be implemented in an image processing apparatus (not shown), and the image processing apparatus may include the surveillance camera 102. Hereinafter, other components of the system 100 that are not related to the contents of the present invention will be omitted.

상기 감시 카메라(102)는 감시 목표 지역에 설치되어 보행자의 위치 및 움직임 등을 촬영한다.The surveillance camera 102 is installed in the surveillance target area to photograph the position and movement of the pedestrian.

상기 영상 처리 서버(104)는 상기 감시 카메라(102)로부터 입력되는 실시간 영상을 기반으로 보행자를 감지 및 추적하고, 보행자의 특성을 추출하는 기능을 수행한다. 또한, 상기 영상 처리 서버(104)는 상기 감시 카메라로부터 입력되는 보행 자의 특성 정보와 사용자에 의해 입력된 보행자 특성 정보를 비교함으로써 사용자가 원하는 보행자를 검색하는 기능을 수행한다. 한편, 상기 영상 처리 서버(104)는 상기 감시 카메라(102)로부터 실시간 영상을 입력 받아 대표 프레임들을 추출하고, 상기 추출된 대표 프레임들을 상기 영상 데이터 저장부(106)에 저장한다. The image processing server 104 detects and tracks pedestrians based on a real-time image input from the surveillance camera 102 and extracts characteristics of pedestrians. In addition, the image processing server 104 performs a function of searching for a pedestrian desired by the user by comparing the pedestrian characteristic information input by the user with the pedestrian characteristic information input from the surveillance camera. Meanwhile, the image processing server 104 receives a real time image from the surveillance camera 102, extracts representative frames, and stores the extracted representative frames in the image data storage 106.

상기 사용자 인터페이스 부(108)는 온라인 또는 오프라인 영상 조회를 원하는 사용자에 의해 보행자 특성 정보가 입력되면, 상기 보행자 특성 정보에 매칭되는 보행자를 온라인 비디오 영상 혹은 오프라인 대표 프레임 영상에 표시하는 영상 검색 창을 제공한다. 상기 영상 검색 창은 실시간 영상 검색 모드와 오프라인 대표 영상 조회 모드로 구분될 수 있다. 또한, 상기 영상 검색 창에는 쿼리(query) 입력 창을 구비하고 있어 사용자가 검색하고자 하는 보행자의 특성 정보를 입력할 수 있다.When the pedestrian characteristic information is input by the user who wants to search the online or offline image, the user interface unit 108 provides an image search window for displaying the pedestrian matching the pedestrian characteristic information on the online video image or the offline representative frame image. do. The image search window may be divided into a real time image search mode and an offline representative image search mode. In addition, the image search window is provided with a query input window so that the user can input the characteristic information of the pedestrian to search.

이하에서는 상기 영상 처리 서버(104)의 구성 및 동작에 대해 도면을 참조하여 상세히 설명하도록 한다.Hereinafter, the configuration and operation of the image processing server 104 will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 바람직한 실시 예에 따른 영상 처리 서버의 구성도를 도시하고 있다. 2 is a block diagram of an image processing server according to an exemplary embodiment of the present invention.

도 2를 참조하면, 상기 영상 처리 서버(104)는 크게 세 가지의 주요 모듈인 영상 및 쿼리 입력기(202), 보행자 추적 및 특성 추출기(204), 특성 매칭 및 결과 출력기(206)를 포함한다.Referring to FIG. 2, the image processing server 104 includes three main modules, an image and query inputter 202, a pedestrian tracking and feature extractor 204, and a feature matching and result outputter 206.

상기 영상 및 쿼리 입력기(202)는 감시 카메라 영상 입력기(208), 정지 영상/메타데이터 입력기(210), 쿼리 입력기(212)로 구성될 수 있다.The image and query inputter 202 may include a surveillance camera image inputter 208, a still image / metadata inputter 210, and a query inputter 212.

상기 감시 카메라 영상 입력기(208)는 감시 카메라(102)로부터 데이터 스트림 형태의 영상 신호를 수신한 후 상기 보행자 추적 및 특성 추출기(204)로 전달하는 기능을 수행한다. 상기 감시 카메라 영상 입력기는 최대 2대의 감시 카메라의 영상을 동시에 확인할 수 있고, IP 주소 지정에 따라 임의의 권한이 주어진 감시 카메라로의 접근이 가능하다.The surveillance camera image inputter 208 receives a video signal in the form of a data stream from the surveillance camera 102 and transmits the image signal to the pedestrian tracking and feature extractor 204. The surveillance camera image inputter can simultaneously check images of up to two surveillance cameras, and can access a surveillance camera given an arbitrary authority according to IP address designation.

상기 정지 영상/메타데이터 입력기(210)는 영상 데이터 저장부(106)로부터 정지 원영상, 배경차감 영상, 각 프레임 영상 별 보행자 영역 정보를 읽어 상기 보행자 추적 및 특성 추출기(204)로 제공한다. The still image / metadata input unit 210 reads a still original image, a background subtraction image, and pedestrian area information for each frame image from the image data storage unit 106 and provides the pedestrian tracking and feature extractor 204.

상기 쿼리 입력기(212)는 사용자 인터페이스 부(108)로부터 검색하고자 하는 보행자의 특성 정보가 입력되면, 상기 보행자 특성 정보를 상기 특성 매칭 및 결과 출력기(206)로 제공한다. 상기 보행자의 특성 정보는 보행자의 키, 모자 색, 착용하는 의상의 색상 등의 정보가 될 수 있다.The query inputter 212 may provide the pedestrian characteristic information to the characteristic matching and result outputter 206 when the characteristic information of the pedestrian to be searched from the user interface unit 108 is input. The characteristic information of the pedestrian may be information such as the height of the pedestrian, the hat color, and the color of the clothes to be worn.

상기 보행자 추적 및 특성 추출기(204)는 옵티컬 플로우 분석기(214), 적응적 배경 차감기(216), 보행자 추적기(218), 대표 프레임 추출기(220), 보행자 특성 추출기(222)로 구성될 수 있다.The pedestrian tracking and feature extractor 204 may include an optical flow analyzer 214, an adaptive background subtractor 216, a pedestrian tracker 218, a representative frame extractor 220, and a pedestrian feature extractor 222. .

상기 보행자 추적 및 특성 추출기(204)는 상기 옵티컬 플로우 분석기(214)를 통하여 객체의 움직임 정보를 추출하고, 이를 적응적 배경 차감기(216)와 결합하여 보행자의 영역을 안정적으로 추출하는 기능을 수행한다. 또한, 조명 조건이 수시로 변화하는 실외 환경에서 배경의 변화를 빠르게 수용한다. 상기 보행자 추적 및 특성 추출기(204)는 배경으로 인식되는 보행자를 빠르게 제거하면서, 일시적으로 움 직임이 없는 보행자의 경우에도 안정적으로 영역을 추출하는 기능을 제공한다. The pedestrian tracking and feature extractor 204 extracts the motion information of the object through the optical flow analyzer 214 and combines it with the adaptive background subtractor 216 to stably extract the area of the pedestrian. do. It also quickly accommodates background changes in outdoor environments where lighting conditions change frequently. The pedestrian tracking and feature extractor 204 quickly removes a pedestrian recognized as a background, and provides a function of stably extracting an area even in the case of a pedestrian temporarily not moving.

먼저, 상기 옵티컬 플로우 분석기(214)는 상기 감시 카메라 영상 입력기(208)로부터 제공된 영상을 이용하여 객체의 움직임 정보(즉, 각 픽셀 별 모션 벡터)를 추출하고, 이를 적응적 메디안 배경 차감기(216)의 입력 정보로 제공한다. First, the optical flow analyzer 214 extracts motion information (ie, a motion vector for each pixel) of an object by using an image provided from the surveillance camera image inputter 208, and then adaptive adaptive median background subtractor 216. As input information.

여기서, 옵티컬 플로우(optical flow)란 시간적으로 연속된 여러 영상에서 현재 영상과 이전 영상을 비교하여 밝기로 나타난 화소(pixel)의 이동 방향을 나타내는 벡터를 일컫는다. 객체의 동적 움직임을 나타내는 옵티컬 플로우를 통해 시간에 따라 변화하는 영상에서 객체의 움직임 정보가 결정되고, 나아가 배경(background)과 전경(foreground)의 안정적인 구분이 가능하게 된다.In this case, the optical flow refers to a vector indicating a moving direction of a pixel represented by brightness by comparing a current image and a previous image in several consecutive images. The optical flow indicating the dynamic movement of the object determines the motion information of the object in the image that changes over time, and further enables stable separation of the background from the background.

상기 옵티컬 플로우를 계산하는 대표적인 방법으로, Gradient 기반의 Lucas-Kanade 방법과 Horn-Schunck 방법이 있다. 상기 두 가지 방법 모두 렌즈 구경 문제(aperture problem)를 해결하기 위한 방안을 제시하고 있다.Representative methods for calculating the optical flow are the Gradient-based Lucas-Kanade method and the Horn-Schunck method. Both of these methods propose a solution to solve the lens aperture problem.

첫 번째 방법인 Lucas-Kanade 방법은 가장 널리 이용되고 있는 방법으로서 속도가 빠르고 노이즈에 강하며 간단하여 실시간 실행이 필요한 곳에 적합하다. 기본적으로 상기 Lucas-Kanade 방법은 하기 수학식 1의 잘 알려진 모션 제약 식에 기반을 둔다.The first method, the Lucas-Kanade method, is the most widely used method, which is fast, noise-resistant and simple, making it suitable for applications requiring real-time execution. Basically, the Lucas-Kanade method is based on the well-known motion constraint equation of Equation 1 below.

Figure 112009060464351-PAT00001
Figure 112009060464351-PAT00002
, 여기서 I는 (x,y,t)에서 명도(intensity)이며, 는 이미지 속도이다.
Figure 112009060464351-PAT00001
Figure 112009060464351-PAT00002
Where I is the intensity at (x, y, t) and is the image speed.

그러나, 이러한 한계만으로는 옵티컬 플로우의 국소에 한정된 해석에 기인한 렌즈구경문제(aperture problem)로 인하여 이동 위치추정이 어렵다. 이 때문에 Lucas와 Kanade는 국소 윈도우 내의 옵티컬 플로우 v를 상수로 가정하고, 그 윈도우 내에서 하기 수학식 2와 같이 정의되는 에러 함수 E의 가중 제곱 합(weighted sum-of-squares)을 최소화하는 방법을 제안한다.However, this limitation alone is difficult to estimate the movement position due to the aperture problem caused by the local limited interpretation of the optical flow. For this reason, Lucas and Kanade assume a constant optical flow v in the local window as a constant, and in that window minimize the weighted sum-of-squares of the error function E, which is defined as Suggest.

Figure 112009060464351-PAT00003
, 여기서 w는 가중함수이다.
Figure 112009060464351-PAT00003
Where w is the weighting function.

따라서, 상기 옵티컬 플로우 v는 하기 수학식 3과 같이 최소 제곱법으로 구할 수 있다.Therefore, the optical flow v can be obtained by the least square method as shown in Equation 3 below.

Figure 112009060464351-PAT00004
Figure 112009060464351-PAT00004

두 번째 방법인 Horn-Schunck 방법은 하기 수학식 4로 정의되는 옵티컬 플로우 구속 방정식(optical flow constraint equation)에 기반을 둔다. The second method, the Horn-Schunck method, is based on the optical flow constraint equation defined by Equation 4 below.

Figure 112009060464351-PAT00005
Figure 112009060464351-PAT00006
Figure 112009060464351-PAT00007
Figure 112009060464351-PAT00008
, 여기서 , 는 옵티컬 플로우 벡터를 이루는 구성 성분으로서 속도 벡터이고, 이다.
Figure 112009060464351-PAT00005
Figure 112009060464351-PAT00006
Figure 112009060464351-PAT00007
Figure 112009060464351-PAT00008
Where is the velocity vector as a component of the optical flow vector.

상기 수학식 4에서

Figure 112009060464351-PAT00009
는 영상으로부터 측정되는 값이며, 이를 이용하여 u와 v를 계산하게 된다. 그런데 방정식은 하나이고 구해야 할 미지수는 두 개이므로, 다른 가정이 없는 한, 한 점에서 u, v의 값을 결정할 수 없다. 이 를 렌즈 구경 문제라고 부른다. Horn과 Schunck는 상기 렌즈 구경 문제를 해결하기 위해 변분법(variation of calculus)에 의해 오차함수(error function)를 최소화시킴으로써 옵티컬 플로우 필드(optical flow field)를 얻는 방법을 제안한다.In Equation 4
Figure 112009060464351-PAT00009
Is the value measured from the image, and u and v are calculated using this. However, since there is only one equation and two unknowns, we cannot determine the values of u and v at one point unless there are other assumptions. This is called a lens aperture problem. Horn and Schunck propose a method of obtaining an optical flow field by minimizing an error function by a variation of calculus to solve the lens aperture problem.

즉, 상기 옵티컬 플로우 필드(optical flow field)가 평탄하다고 가정하면, 상기 수학식 4는 상기 변분법에 의해 해를 계산해 낼 수가 있다. 이를 위하여 속도 필드의 평탄성 정도에 대한 척도(smoothness measure:

Figure 112009060464351-PAT00010
)와 옵티컬 플로우 구속 방정식 상의 오차(
Figure 112009060464351-PAT00011
)는 각각 하기 수학식 5와 같이 표현된다.That is, assuming that the optical flow field is flat, Equation 4 can calculate the solution by the variation method. To do this, a smoothness measure of the velocity field
Figure 112009060464351-PAT00010
) And the error in the optical flow constraint equation (
Figure 112009060464351-PAT00011
Are each expressed as in Equation 5 below.

Figure 112009060464351-PAT00012
Figure 112009060464351-PAT00012

가중 상수(weighting constant) λ를 이용하고, 상기 수학식 5를 종합하여 오차함수

Figure 112009060464351-PAT00013
를 표현하면,
Figure 112009060464351-PAT00014
이 된다. 그리고, 상기
Figure 112009060464351-PAT00015
를 최소화함으로써 u, v를 구하면 하기 수학식 6과 같이 표현된다.Using a weighting constant λ, the error function by combining the equation (5)
Figure 112009060464351-PAT00013
If you express
Figure 112009060464351-PAT00014
Becomes And,
Figure 112009060464351-PAT00015
When u and v are obtained by minimizing, it is expressed as in Equation 6 below.

Figure 112009060464351-PAT00016
Figure 112009060464351-PAT00017
, 여기서 이다.
Figure 112009060464351-PAT00016
Figure 112009060464351-PAT00017
, Is here.

상기 옵티컬 플로우 분석기(214)는 전술한 두 가지 방법 중 어느 하나의 방법을 이용하여 객체의 움직임 정보를 추출할 수 있다. 즉, 상기 옵티컬 플로우 분석기(214)는 각 픽셀 별 모션 벡터의 크기가 일정 임계값 이하의 경우 정지 객체로 판별하여 0 값으로 표시하고, 일정 임계값 이상의 픽셀의 경우에만 255로 표시한 바이너리 영상을 생성한다.The optical flow analyzer 214 may extract the motion information of the object by using any one of the two methods described above. That is, the optical flow analyzer 214 determines the static object as a stationary object when the size of the motion vector for each pixel is less than or equal to a predetermined threshold value and displays the value as 0, and displays the binary image represented as 255 only for pixels greater than or equal to the predetermined threshold value. Create

적응적 배경 차감기(216)는 배경 학습을 위한 별도의 전처리 과정 없이 배경모델링을 미디언 모델링 기법을 적용하여 수행한다. 이때, 상기 옵티컬 플로우 분석기(214)의 출력에 의하여 생성된 모션 바이너리 영상을 읽어, 모션 정보가 있는 픽셀의 경우 배경 모델 갱신에서 제외하고 모션 정보가 없는 픽셀의 경우 배경 모델 갱신 과정을 수행하도록 한다. 상기 적응적 배경 차감기(216)는 미디언 배경 모델과 현재 입력된 프레임 영상 간의 차 영상(즉, 바이너리 영상)을 생성한다.The adaptive background subtractor 216 performs background modeling by applying a median modeling technique without a separate preprocessing process for background learning. At this time, the motion binary image generated by the output of the optical flow analyzer 214 is read, and in the case of pixels without motion information, the background model update process is performed except for the background model update for pixels with motion information. The adaptive background subtractor 216 generates a difference image (ie, a binary image) between the median background model and the currently input frame image.

실외 영상의 경우, 조명이 안정적이지 못하고 배경 또한 나무, 물결, 분수 등 움직임이 많은 것이 특징이다. 또한, 배경 모델링을 위하여 보행자나 차량 등 동적 객체가 전혀 없는 배경 프레임을 일정 기간 확보하는 것은 불가능하다. 그러 므로, 배경의 정보가 적응적으로 갱신되고, 시간에 따른 조명의 변화에 안정적으로 동적 객체 영역을 추출할 수 있는 방법이 필요하다. 즉, 전술한 옵티컬 플로우 기법과 함께 효율적인 배경 차감 기법이 요구된다. In the case of outdoor video, lighting is not stable and the background is also characterized by a lot of movement such as trees, waves, and fountains. In addition, it is impossible to secure a background frame without any dynamic objects such as pedestrians or vehicles for a certain period of time for background modeling. Therefore, there is a need for a method capable of adaptively updating background information and extracting dynamic object areas stably in response to changes in illumination over time. In other words, an efficient background subtraction technique is required together with the above-described optical flow technique.

상기 배경 차감 기법에는 Running Gaussian Average(RGA: Running Gaussian average) 기법, Gaussian Mixture Model(GMM: Gaussian mixture model) 기법, 변동 개수의 가우시안을 기반으로 한 GMM(GMM with adaptive number of Gaussians) 기법, 근사적 메디안 필터링 기반 배경 차감(AMF: Approximated median filtering) 기법 등이 있다.The background deduction technique includes a Running Gaussian Average (RGA) method, a Gaussian Mixture Model (GMM) method, a GMM with adaptive number of Gaussians based on Gaussian of variation, and an approximation. Median filtering-based background subtraction (AMF).

이하, 본 발명의 바람직한 실시 예에서는 상기 배경 차감 기법들 중 근사적 메디안 필터링 기반 배경 차감(AMF) 기법을 이용하여 배경을 모델링하는 방법에 대해 설명하도록 한다. 하지만, 상기 배경을 모델링함에 있어서 상기 근사적 메디안 필터링 기반 배경 차감(AMF) 기법이 아닌 다른 배경 차감 기법에 의해 구현될 수 있음은 당업자에게 자명하다.Hereinafter, a preferred embodiment of the present invention will be described a method of modeling a background using an approximate median filtering-based background subtraction (AMF) technique among the background subtraction techniques. However, it will be apparent to those skilled in the art that the background may be implemented by a background subtraction technique other than the approximate median filtering-based background subtraction (AMF) technique.

상기 근사적 메디안 필터링 기반 배경 차감(AMF) 기법은 상기 옵티컬 플로우 정보를 배경 갱신을 위한 기반 정보로 활용함으로써, 움직임이 없는 배경에 대한 안정적인 갱신뿐 만 아니라, 배경에 포함되어 있던 보행자 영역을 적응적으로 배경 영상에서 제거할 수 있다.The approximate median filtering-based background subtraction (AMF) technique utilizes the optical flow information as the base information for the background update, thereby adaptively adapting the pedestrian area included in the background as well as stable update of the background without motion. Can be removed from the background image.

즉, 기본 배경 모델링 기법은 잡음에 강한 근사적 메디안 배경 모델링 기법을 이용한다. 그리고 배경 갱신 영역을 선별할 때, 일정 기간의 옵티컬 플로우 영상 정보를 포함하고 있는 모션 히스토리 정보를 조회하여 상기 모션 히스토리 정보 가 없는 영역에 대해서만 배경 갱신을 수행한다.That is, the basic background modeling technique uses an approximate median background modeling technique that is strong against noise. When the background update area is selected, motion history information including optical flow image information of a predetermined period is queried, and the background update is performed only for an area without the motion history information.

예를 들어, 도 3은 어느 한 시점에서의 원 영상(좌) 및 배경 평균 영상(우)을 도시하고 있다. 도 3을 참조하면, 어느 한 시점에서의 배경 평균 영상에는 보행자의 영역이 배경 영상으로 포함되어 있음을 확인할 수 있다.For example, FIG. 3 illustrates an original image (left) and a background average image (right) at one time point. Referring to FIG. 3, it can be seen that the background average image at any one point includes the pedestrian area as the background image.

도 4는 시간 별 원 영상(좌), 모션 히스토리 영상(중), 배경 차감 결과 영상(우)을 도시하고 있다. 도 4를 참조하면, 본 발명의 실시 예에 따른 옵티컬 플로우 이미지 기반 근사적 메디안 배경 모델링 기법을 적용함으로써 배경 차감 결과가 생성됨을 확인할 수 있다. 즉, 초기에 배경 영상에 포함되어 있던 보행자의 영역이 본연의 배경 정보로 갱신되어 시간이 지남에 따라 정확한 보행자 영역이 배경 차감 결과 생성됨을 확인할 수 있다.4 illustrates an original image by time (left), a motion history image (middle), and a background subtraction result image (right). Referring to FIG. 4, it can be seen that a background subtraction result is generated by applying an optical flow image-based approximate median background modeling technique according to an embodiment of the present invention. That is, the area of the pedestrian that was initially included in the background image is updated with the original background information, so that the correct pedestrian area is generated as a result of background subtraction as time passes.

도 5는 본 발명의 바람직한 실시 예에 따른 배경 갱신 절차를 도시하고 있다. 도 5를 참조하면, 502 단계에서 상기 옵티컬 플로우 분석기는 원 영상을 기초로 모션 히스토리 영상을 추출한다.5 illustrates a background update procedure according to a preferred embodiment of the present invention. Referring to FIG. 5, in step 502, the optical flow analyzer extracts a motion history image based on the original image.

504 단계에서, 상기 적응적 배경 차감기는 상기 모션 히스토리 영상을 기초로 배경 갱신을 수행한다. 즉, 상기 적응적 배경 차감기는 상기 모션 히스토리 정보를 조회하여 상기 모션 히스토리 정보가 없는 영역에 대해서만 배경 갱신을 수행한다. 상기 504 단계가 완료되면, 506 단계에서 상기 적응적 배경 차감기는 원 영상과 배경 갱신 영상을 기초로 배경 차영상을 출력한다. In operation 504, the adaptive background subtractor performs a background update based on the motion history image. That is, the adaptive background subtractor inquires the motion history information and performs background update only for the region without the motion history information. When the step 504 is completed, in step 506 the adaptive background subtractor outputs a background difference image based on the original image and the background update image.

상기 504 단계인 배경 갱신 과정을 반복함으로써, 상기 적응적 배경 차감기는 시간에 따라 변화하는 배경을 적응적으로 갱신하여 배경 차영상을 획득할 수 있 다.By repeating the background update process of step 504, the adaptive background subtractor may adaptively update a background that changes with time to obtain a background difference image.

이상, 전술한 상기 옵티컬 플로우 분석기와 상기 적응적 배경 차감기를 이용하여 다중 보행자 영역을 안정적으로 감지할 수 있다. 상기 다중 보행자 영역이 감지되면, 보행자의 관심 영역(Region Of Interest, 이하 'ROI'로 칭함)을 검출하고, 상기 보행자의 이동을 추적하는 동작을 수행한다.As described above, multiple pedestrian areas may be stably detected by using the above-described optical flow analyzer and the adaptive background subtractor. When the multi-pedestrian area is detected, an area of interest of a pedestrian (hereinafter referred to as ROI) is detected, and the movement of the pedestrian is tracked.

상기 보행자 추적기(218)는 상기 적응적 배경 차감기(216)로부터 생성된 배경 차영상을 입력으로 그리드 기반 영역 분할을 수행하고, 그리드 패치 별 배경픽셀 대비 전경픽셀 비율을 계산하여 전경영역, 즉 동적 객체 영역에 대한 관심 영역을 추출하는 기능을 수행한다.The pedestrian tracker 218 divides the grid-based area by inputting the background difference image generated from the adaptive background subtractor 216, calculates the foreground pixel ratio to the background pixel for each grid patch, and thus, calculates the foreground area. Extracts the region of interest for the object region.

도 6은 본 발명의 바람직한 실시 예에 따른 보행자 ROI 검출 절차를 도시하고 있다. 도 6을 참조하면, 602 단계에서 상기 옵티컬 플로우 분석기는 원 영상을 기초로 모션 히스토리 영상을 추출한다.6 illustrates a pedestrian ROI detection procedure according to a preferred embodiment of the present invention. Referring to FIG. 6, in step 602, the optical flow analyzer extracts a motion history image based on an original image.

604 단계에서, 상기 적응적 배경 차감기는 상기 모션 히스토리 영상을 기초로 배경 갱신을 수행한다. 이후, 606 단계에서 상기 적응적 배경 차감기는 원 영상과 배경 갱신 영상을 이용하여 배경 차감 영상을 출력한다. 608 단계에서, 상기 적응적 배경 차감기는 상기 배경 차감 영상에 잡음 제거를 수행한 후 상기 보행자 추적기로 출력한다.In operation 604, the adaptive background subtractor performs a background update based on the motion history image. In operation 606, the adaptive background subtractor outputs a background subtraction image using the original image and the background update image. In operation 608, the adaptive background subtractor performs noise reduction on the background subtraction image and outputs the noise to the pedestrian tracker.

상기 608 단계가 완료되면, 610 단계에서 상기 보행자 추적기는 배경 차영상을 입력으로 그리드 기반 영역 분할을 수행한다. 그리고, 612 단계에서 상기 보행자 추적기는 그리드 패치 별 배경픽셀 대비 전경픽셀 비율을 계산하여 전경영역, 즉 동적 객체 영역에 대한 관심 영역을 검출한다. 이후, 614 단계에서 상기 보행자 추적기는 상기 모션 히스토리 영상을 이용하여 전경 ROI를 갱신한다. When the step 608 is completed, in step 610 the pedestrian tracker performs grid-based region segmentation with the input of the background difference image. In operation 612, the pedestrian tracker calculates a foreground pixel ratio to a background pixel for each grid patch to detect a region of interest for the foreground region, that is, the dynamic object region. In step 614, the pedestrian tracker updates the foreground ROI using the motion history image.

이상, 전술한 과정을 통해 감시 카메라로부터 실시간으로 입력되는 영상을 기반으로 다중 보행자 영역을 감지하고, 감지된 보행자의 ROI를 검출할 수 있다.As described above, the multi-pedestrian area may be detected based on an image input in real time from the surveillance camera through the above-described process, and the ROI of the detected pedestrian may be detected.

한편, 상기 보행자의 ROI를 검출하는 과정에서, 초기 배경 화면에 포함된 동적 객체로서 동적 객체가 움직여져서 배경에서 제거되었음에도 불구하고, 배경영상에서 바로 사라지지 않고, 동적 객체 영역으로 표현되는 현상을 고스트(Ghost) 현상이라 한다. 이러한 현상을 제거하기 위하여, 전경영역으로 추적된 영역 별로 대응되는 모션 영상 영역을 검사하여 모션 픽셀의 비율이 일정 임계값 이하이면 해당 전경영역은 고스트 영역으로 판별하여 동적 객체 후보에서 제외시키는 객체단위 정보정합 처리를 수행한다. 예를 들어, 도 7을 참조하면, 배경차감 영상과 모션 영상을 기반으로 하여 최종 동적 객체 영역을 추출하는 과정을 예제 화면을 통해 확인할 수 있다.Meanwhile, in the process of detecting the ROI of the pedestrian, although the dynamic object is removed from the background as the dynamic object included in the initial background screen, the ghost does not disappear immediately from the background image and is expressed as a dynamic object area. This is called the Ghost phenomenon. In order to eliminate this phenomenon, if the motion image area corresponding to each area tracked as the foreground area is inspected and the ratio of motion pixels is less than a predetermined threshold value, the foreground area is determined as a ghost area and the object unit information is excluded from the dynamic object candidate. Perform the matching process. For example, referring to FIG. 7, the process of extracting the final dynamic object region based on the background subtraction image and the motion image may be confirmed through an example screen.

보행자의 전경 ROI 검출이 완료되면, 상기 보행자 추적기(218)는 프레임 간 최소거리의 인접 ROI끼리의 매칭을 통하여 동일 보행자를 추적하는 기능을 수행한다. 즉, 상기 보행자 추적기(218)는 동일 프레임 내에서 ROI의 크기 및 위치에 기반하여 트랙 갱신, 트랙 생성, 트랙 병합 및 트랙 나눔을 수행함으로써 다중 보행자의 영역을 추적한다.When the foreground ROI detection of the pedestrian is completed, the pedestrian tracker 218 performs a function of tracking the same pedestrian by matching adjacent ROIs of the minimum distance between frames. That is, the pedestrian tracker 218 tracks areas of multiple pedestrians by performing track update, track generation, track merging, and track division based on the size and location of the ROI in the same frame.

실루엣이나 영역을 기반으로 다중 보행자를 추적하는 방법은 지능형 감시 시스템에서 있어서 가장 중요한 기술요소로 꼽히고 있다. 추출된 전경 블럽 마다 하 나의 트랙을 할당하고, 객체의 이동에 따라 트랙의 생성 및 제거를 수행함으로써, 다수의 보행자 영역을 추적한다. 하나의 객체가 두 개의 이상의 영역으로 분리되어 표현되더라도 전경 블럽의 크기와 거리를 고려하여 일정기간 동안 이들이 같이 움직이는 경우, 하나로 합쳐 하나의 트랙으로 관리한다. 또한, 각 트랙은 움직이는 객체의 색 정보를 가지고 있어 프레임 간 추적 시 색 정보에 의한 확인 과정을 수행할 수 있다.Tracking multiple pedestrians based on silhouettes or areas is one of the most important technology elements in intelligent surveillance systems. One track is allocated for each extracted foreground blob, and a track is created and removed according to the movement of the object, thereby tracking a plurality of pedestrian areas. Even if an object is divided into two or more areas, if they move together for a certain period in consideration of the size and distance of the foreground blob, they are managed as one track. In addition, each track has color information of a moving object, so that the process of checking by color information can be performed when tracking between frames.

도 8은 본 발명의 바람직한 실시 예에 따른 다중 보행자 영역 감지 및 추적 절차를 도시하고 있다.8 illustrates a multi-pedestrian zone detection and tracking procedure according to a preferred embodiment of the present invention.

도 8을 참조하면, 802 단계 내지 814 단계는 보행자의 전경 ROI를 검출하는 동작을 수행한다. 상기 802 단계 내지 814 단계는 전술한 상기 602 단계 내지 614 단계와 동일한 동작을 수행하기 때문에, 이하에서는 상기 동작에 대한 구체적인 설명을 생략하도록 한다.Referring to FIG. 8, in steps 802 to 814, a foreground ROI of a pedestrian is detected. Since the operations 802 to 814 perform the same operations as the operations 602 to 614 described above, a detailed description of the operations will be omitted below.

상기 802 단계 내지 814 단계를 통하여 상기 보행자의 전경 ROI가 검출되면, 상기 보행자 추적기는 다중 보행자를 추적하기 위하여 816 단계 내지 822 단계를 수행한다.When the foreground ROI of the pedestrian is detected through the steps 802 to 814, the pedestrian tracker performs steps 816 to 822 to track the multiple pedestrians.

즉, 상기 보행자 추적기는 추출된 전경 블럽 마다 하나의 트랙을 할당한다.That is, the pedestrian tracker allocates one track for each extracted foreground blob.

상기 할당된 트랙을 가진 전경 블럽이 카메라의 이전 프레임으로부터 일정 범위 안에서 지속적으로 매칭되고, 일정 간격으로 지속적인 이동이 있는 경우, 상기 보행자 추적기는 816 단계로 이동하여 트랙 갱신을 수행한다. If the foreground blob with the assigned track is consistently matched within a range from the previous frame of the camera and there is continuous movement at a certain interval, the pedestrian tracker moves to step 816 to perform track update.

만약, 상기 전경 블럽이 새롭게 생성되는 경우(즉, 새로운 보행자가 나타나 는 경우), 상기 보행자 추적기는 818 단계로 이동하여 새로운 트랙을 생성한다. If the foreground blob is newly generated (ie, a new pedestrian appears), the pedestrian tracker moves to step 818 to create a new track.

한편, 한 카메라 내에서 인식된 2인 이상의 보행자들이 이동하는 경우 일부 보행자가 다른 보행자에 가려 잠시 사라졌다가 다시 나타나는 경우가 종종 발생한다. 이 때, 서로 다른 보행자가 겹치는 경우, 상기 보행자 추적기는 820 단계로 이동하여 트랙 병합을 수행하고, 상기 서로 다른 보행자가 떨어지는 경우에는 822 단계로 이동하여 트랙 나눔을 수행한다.On the other hand, when two or more pedestrians recognized within one camera move, some pedestrians sometimes disappear after being hidden by other pedestrians and appear again. In this case, when different pedestrians overlap, the pedestrian tracker moves to step 820 to perform track merging, and if the different pedestrians fall, moves to step 822 to perform track sharing.

전술한 과정들을 통해 다중 보행자를 추적하고, 상기 816 단계 내지 822 단계가 완료되면, 824 단계에서 상기 보행자 추적기는 추적 결과를 이용하여 전경 영역을 갱신한다. 이후, 상기 갱신된 전경 영역은 배경 갱신을 위하여 804 단계로 피드백된다. After the steps 816 to 822 are completed through the above-described processes and the steps 816 to 822 are completed, the pedestrian tracker updates the foreground area by using the tracking result. Thereafter, the updated foreground region is fed back to step 804 for background updating.

이상, 전술한 과정을 통해 감시 카메라로부터 실시간으로 입력되는 영상을 기반으로 다중 보행자를 안정적으로 감지하고, 상기 감지된 보행자를 추적할 수 있다.As described above, multiple pedestrians may be stably detected based on an image input in real time from the surveillance camera through the above-described process, and the detected pedestrians may be tracked.

상기 대표 프레임 추출기(220)는 상기 보행자 추적기(218)로부터 출력된 영상으로부터 프레임 간 영상의 차이가 일정 임계값 이상인 상이한 대표 프레임을 선별하여 원영상, 전경 영상, 보행자 영역 정보, 촬영 카메라 번호, 촬영 시간등을 추출하고 이를 영상 데이터 저장부(106)에 저장한다. The representative frame extractor 220 selects different representative frames having a difference between the frames from the image output from the pedestrian tracker 218 above a predetermined threshold value, and includes the original image, the foreground image, pedestrian region information, photographing camera number, and photographing. The time and the like are extracted and stored in the image data storage unit 106.

상기 보행자 특성 추출기(222)는 상기 보행자 추적기(218)로부터 제공된 보행자 ROI와 상기 정지 영상/메타데이터 입력기(210)로부터 제공된 정지 영상 및 메타데이터를 이용하여 보행자의 특성을 추출한다. 즉, 상기 보행자 특성 추출 기(222)는 상기 보행자의 ROI에서 인체 비율에 따라 머리 영역, 상체 영역, 하체 영역으로 구분하고, 각 영역 별 색상 특성을 추출한다. 또한, 상기 보행자 특성 추출기(222)는 삼각 측량법을 이용하여 보행자의 신장을 추정하여 보행자 특성 정보로 활용한다.The pedestrian characteristic extractor 222 extracts a pedestrian's characteristic using a pedestrian ROI provided from the pedestrian tracker 218 and still images and metadata provided from the still image / metadata inputter 210. That is, the pedestrian characteristic extractor 222 is divided into a head region, an upper body region, and a lower body region according to a human body ratio in the ROI of the pedestrian, and extracts color characteristics for each region. In addition, the pedestrian characteristic extractor 222 estimates the height of the pedestrian using triangulation and uses the pedestrian characteristic information.

예를 들어, 도 9는 본 발명의 바람직한 실시 예에 따라 동일 보행자 ROI를 세부 영역으로 구분하는 배경차감 영상(좌) 및 원 영상(우)을 도시하고 있다. For example, FIG. 9 illustrates a background subtraction image (left) and an original image (right) for dividing the same pedestrian ROI into detailed regions according to an exemplary embodiment of the present invention.

도 9를 참조하면, 보행자에 대한 개별 영역(ROI)이 추출되면 ROI의 높이를 기준으로 보행자의 머리 영역, 상체 영역, 하체 영역을 구분한다. 보행자의 머리 영역의 특성으로는 상기 ROI의 전체 높이를 h라 하였을 때, 상위 h/6 에 해당하는 부분의 중앙 원형에 속하는 부분의 색상을 분석한다. 상체 영역의 특성으로는 상위 h/6영역에서 하위 h/2 위치의 영역에서 전경픽셀의 색상을 분석한다. 하위영역의 특성으로는 하위 h/2 영역에서 전경픽셀에 해당하는 색상을 분석한다. Referring to FIG. 9, when a separate ROI of a pedestrian is extracted, the head region, the upper body region, and the lower body region of the pedestrian are classified based on the height of the ROI. As a characteristic of the head area of the pedestrian, when the overall height of the ROI is h, the color of the part belonging to the center circle of the part corresponding to the upper h / 6 is analyzed. As a characteristic of the upper body region, the color of the foreground pixel is analyzed in the region of the lower h / 2 position in the upper h / 6 region. As a characteristic of the lower region, the color corresponding to the foreground pixel in the lower h / 2 region is analyzed.

상기 특성 매칭 및 결과 출력기(206)는 보행자 특성 매칭기(224)와 조회 결과 출력기(226)로 구성될 수 있다.The feature matching and result output unit 206 may include a pedestrian feature matcher 224 and a query result output unit 226.

상기 보행자 특성 매칭기(224)는 상기 쿼리 입력기(212)를 통해 입력된 보행자의 특성 정보와 상기 보행자 특성 추출기(222)로부터 추출된 보행자 특성 정보를 비교하여 유사 특성의 보행자를 추출한다. 즉, 상기 보행자 특성 매칭기(224)는 상기 보행자 특성 추출기(222)로부터 추출된 보행자 특성 정보 중 검색하고자 하는 보행자의 특성 정보에 매칭되는 보행자 특성 정보가 포함된 영상을 검출한다. The pedestrian characteristic matcher 224 extracts pedestrians having similar characteristics by comparing pedestrian characteristic information input through the query inputter 212 with pedestrian characteristic information extracted from the pedestrian characteristic extractor 222. That is, the pedestrian characteristic matcher 224 detects an image including pedestrian characteristic information matching the pedestrian characteristic information to be searched among the pedestrian characteristic information extracted from the pedestrian characteristic extractor 222.

상기 조회 결과 출력기(226)는 상기 보행자 특성 정보에 대한 매칭 결과 검 출된 영상을 상기 사용자 인터페이스 부(108)로 제공하는 기능을 수행한다.The query result output unit 226 performs a function of providing the user interface unit 108 with an image detected as a result of matching the pedestrian characteristic information.

상기 사용자 인터페이스 부(108)는 상기 검출된 영상을 영상 검색 창에 출력하고, 상기 영상 검색 창에 사용자가 검색하고자 하는 보행자를 표시한다. 즉, 온라인 동영상의 경우에는 해당 보행자에 주석(annotation)을 표시하고, 오프라인 정지 영상의 경우에는 해당 영상에 보행자 주석(annotation)과 함께 촬영 카메라 정보, 촬영 시간 등을 함께 표시한다.The user interface unit 108 outputs the detected image to an image search window and displays a pedestrian to be searched by the user in the image search window. That is, in the case of an online video, an annotation is displayed on the pedestrian, and in the case of an offline still image, the camera information, the shooting time, and the like are displayed together with the pedestrian annotation.

예를 들어, 도 10은 본 발명의 바람직한 실시 예에 따른 영상 검색 화면을 도시하고 있다. 도 10의 (a)는 실시간 영상 검색 화면의 구성을 나타내고, 도 10의 (b)는 대표 프레임 검색 화면의 구성을 나타낸다.For example, FIG. 10 illustrates an image search screen according to a preferred embodiment of the present invention. FIG. 10A illustrates the configuration of the real-time video search screen, and FIG. 10B illustrates the configuration of the representative frame search screen.

도 10을 참조하면, 사용자가 영상 검색 화면 상의 쿼리 입력 창을 통해 검색하고자 하는 보행자의 키, 상의 색, 하의 색, 모자색등의 정보를 입력하면, 상기 사용자 인터페이스 부(108)는 해당하는 보행자를 검색하여 상기 실시간 영상 검색 화면이나 대표 프레임 검색 화면에 표시한다.Referring to FIG. 10, when a user inputs information of a pedestrian's key, upper color, lower color, and hat color, which are to be searched through a query input window on an image search screen, the user interface 108 identifies a corresponding pedestrian. The search is displayed on the real-time video search screen or the representative frame search screen.

이상, 전술한 감시 카메라 영상 기반 지능화 검색 시스템의 동작을 통하여, 사용자는 감시 목표 지역에 설치되어 있는 다수의 감시 카메라로부터 실시간 입력되는 영상으로부터 검색하고자 하는 보행자를 온라인 비디오 영상 혹은 오프라인 대표 프레임 영상에서 효율적으로 검색할 수 있다.As described above, through the operation of the surveillance camera image-based intelligent retrieval system described above, the user can efficiently search for pedestrians to be searched from images input in real time from a plurality of surveillance cameras installed in the surveillance target area in an online video image or an offline representative frame image. You can search by.

도 11은 본 발명의 바람직한 실시 예에 따른 감시 카메라를 이용한 지능형 영상 검색 과정을 도시하고 있다. 11 illustrates an intelligent image retrieval process using a surveillance camera according to a preferred embodiment of the present invention.

도 11을 참조하면, 1102 단계에서 다수의 감시 카메라는 감시 목표 지역에 설치되어 촬영된 영상을 데이터 스트림 형태로 감시 카메라 영상 입력기로 제공한다. 상기 감시 카메라 영상 입력기는 상기 감시 카메라에 의해 촬영된 영상을 보행자 추적 및 특성 추출기로 제공한다. Referring to FIG. 11, in operation 1102, a plurality of surveillance cameras are installed in a surveillance target area and provide a captured image to a surveillance camera image input unit in the form of a data stream. The surveillance camera image input unit provides an image captured by the surveillance camera to a pedestrian tracking and feature extractor.

1104 단계에서, 상기 보행자 추적 및 특성 추출기는 옵티컬 플로우 분석기를 통해 객체의 움직임 정보를 추출하고, 이를 적응적 배경 차감기와 결합하여 보행자의 영역을 감지한다. 이후, 1106 단계에서 상기 보행자 추적 및 특성 추출기는 감지된 보행자의 ROI를 검출하고, 상기 보행자의 이동을 추적한다. In step 1104, the pedestrian tracking and feature extractor extracts the motion information of the object through an optical flow analyzer and combines it with the adaptive background subtractor to detect the area of the pedestrian. In step 1106, the pedestrian tracking and feature extractor detects the detected ROI of the pedestrian and tracks the movement of the pedestrian.

상기 1106 단계가 완료되면, 1108 단계에서 상기 보행자 추적 및 특성 추출기는 보행자 추적기로부터 제공된 보행자 ROI와 정지 영상/메타데이터 입력기로부터 제공된 정지 영상 및 메타데이터를 이용하여 보행자의 특성을 추출한다.When the step 1106 is completed, in step 1108, the pedestrian tracking and feature extractor extracts the pedestrian characteristics using the pedestrian ROI provided from the pedestrian tracker and the still image and metadata provided from the still image / metadata inputter.

1110 단계에서, 사용자 인터페이스 부를 통해 검색하고자 하는 보행자의 특성 정보가 입력하는지 여부를 확인한다. 만약, 사용자에 의한 검색 요청이 없는 경우 상기 영상 검색 과정은 종료한다.In operation 1110, it is determined whether the characteristic information of the pedestrian to be searched through the user interface is input. If there is no search request by the user, the image search process ends.

한편, 사용자에 의한 검색 요청이 존재하는 경우, 1112 단계로 이동한다. 상기 1112단계에서, 특성 매칭 및 결과 출력기는 쿼리 입력기를 통하여 입력된 보행자 특성 정보와 상기 보행자 추적 및 특성 추출기를 통해 추출된 보행자 특성 정보를 비교하여, 유사 특성의 보행자를 추출한다. 즉, 상기 보행자 특성 매칭기(224)는 상기 보행자 특성 추출기(222)로부터 추출된 보행자 특성 정보 중 검색하고자 하는 보행자의 특성 정보에 매칭되는 보행자 특성 정보가 포함된 영상을 검출한다.On the other hand, if there is a search request by the user, go to step 1112. In operation 1112, the feature matching and result outputter compares the pedestrian characteristic information input through the query inputter with the pedestrian characteristic information extracted through the pedestrian tracking and feature extractor and extracts pedestrians having similar characteristics. That is, the pedestrian characteristic matcher 224 detects an image including pedestrian characteristic information matching the pedestrian characteristic information to be searched among the pedestrian characteristic information extracted from the pedestrian characteristic extractor 222.

상기 1112 단계가 완료되면, 1114 단계에서 상기 특성 매칭 및 결과 출력기 는 상기 검출된 영상을 상기 사용자 인터페이스 부로 제공한다. 상기 사용자 인터페이스 부(108)는 상기 검출된 영상을 영상 검색 창에 출력하고, 상기 영상 검색 창에 사용자가 검색하고자 하는 보행자를 표시한다.When the step 1112 is completed, in step 1114, the feature matching and result output unit provides the detected image to the user interface unit. The user interface unit 108 outputs the detected image to an image search window and displays a pedestrian to be searched by the user in the image search window.

이상, 전술한 감시 카메라 영상 기반 지능화 검색 방법을 통하여, 사용자는 감시 목표 지역에 설치되어 있는 다수의 감시 카메라로부터 실시간 입력되는 영상으로부터 검색하고자 하는 보행자를 온라인 비디오 영상 혹은 오프라인 대표 프레임 영상에서 효율적으로 검색할 수 있다.As described above, through the above-described surveillance camera image-based intelligent retrieval method, the user can efficiently search for pedestrians to be searched from the video inputted in real time from a plurality of surveillance cameras installed in the surveillance target area from the online video image or the offline representative frame image. can do.

이상에서는 본 발명의 구체적인 실시 예에 관해 설명하였으나, 본 발명의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 발명의 범위는 설명된 실시 예에 국한되지 않으며, 후술 되는 특허청구범위뿐만 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.While specific embodiments of the present invention have been described above, various modifications may be made without departing from the scope of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the claims below, but also by those equivalent to the claims.

도 1은 본 발명의 바람직한 실시 예에 따른 감시 카메라 영상 기반 지능화 검색 시스템의 구성도;1 is a block diagram of a surveillance camera image-based intelligent search system according to an embodiment of the present invention;

도 2는 본 발명의 바람직한 실시 예에 따른 영상 처리 서버의 구성도;2 is a block diagram of an image processing server according to an exemplary embodiment of the present invention;

도 3은 특정한 시점에서의 원 영상(좌) 및 배경 평균 영상(우)을 도시한 도면;3 is a diagram showing an original image (left) and a background average image (right) at a specific time point;

도 4는 시간 별 원 영상(좌), 모션 히스토리 영상(중), 배경 차감 결과 영상(우)을 도시한 도면;4 is a diagram showing an original image (left), a motion history image (middle), and a background subtraction result image (right) according to time;

도 5는 본 발명의 바람직한 실시 예에 따른 배경 갱신 절차의 흐름도;5 is a flowchart of a background update procedure according to a preferred embodiment of the present invention;

도 6은 본 발명의 바람직한 실시 예에 따른 보행자 ROI 검출 절차의 흐름도;6 is a flowchart of a pedestrian ROI detection procedure according to a preferred embodiment of the present invention;

도 7은 배경차감 영상과 모션 영상을 기반으로 하여 최종 동적 객체 영역을 추출하는 절차를 도시한 도면;FIG. 7 illustrates a procedure of extracting a final dynamic object region based on a background subtraction image and a motion image; FIG.

도 8은 본 발명의 바람직한 실시 예에 따른 다중 보행자 영역 감지 및 추적 절차의 흐름도;8 is a flowchart of a multi-pedestrian zone detection and tracking procedure according to a preferred embodiment of the present invention.

도 9는 동일 보행자 ROI를 세부 영역으로 구분하는 배경차감 영상(좌) 및 원 영상(우)을 도시한 도면;9 is a diagram illustrating a background subtraction image (left) and an original image (right) for dividing the same pedestrian ROI into detailed regions;

도 10은 본 발명의 바람직한 실시 예에 따른 영상 검색 화면의 구성도;10 is a block diagram of an image search screen according to an embodiment of the present invention;

도 11은 본 발명의 바람직한 실시 예에 따른 감시 카메라를 이용한 지능형 영상 검색 과정의 흐름도.11 is a flowchart of an intelligent image search process using a surveillance camera according to a preferred embodiment of the present invention.

Claims (16)

감시 목표 지역을 촬영하는 복수의 감시 카메라와;A plurality of surveillance cameras for photographing a surveillance target area; 상기 복수의 감시 카메라에 의해 촬영된 영상을 기초로 보행자 특성 정보를 추출하고, 상기 추출된 보행자 특성 정보 중 검색하고자 하는 보행자 특성 정보에 매칭되는 보행자 특성 정보가 추출된 영상을 검출하는 영상 처리 서버; 및An image processing server extracting pedestrian characteristic information based on the images photographed by the plurality of surveillance cameras, and detecting an image from which the pedestrian characteristic information matching the pedestrian characteristic information to be searched is extracted from the extracted pedestrian characteristic information; And 상기 검색하고자 하는 보행자 특성 정보를 입력하거나 상기 검출된 영상을 영상 검색 화면에 표시하는 사용자 인터페이스 부를 포함하는 지능형 영상 검색 시스템.And a user interface to input the pedestrian characteristic information to be searched or to display the detected image on an image search screen. 제 1항에 있어서, 상기 영상 처리 서버는,The image processing server of claim 1, wherein the image processing server comprises: 상기 복수의 감시 카메라에 의해 촬영된 영상을 기초로 보행자를 감지하고, 상기 감지된 보행자의 이동을 추적하며, 상기 추적된 보행자의 특성 정보를 추출하는 보행자 추적 및 특성 추출기; 및A pedestrian tracking and feature extractor for detecting a pedestrian based on the images captured by the plurality of surveillance cameras, tracking the detected movement of the pedestrian, and extracting the characteristic information of the tracked pedestrians; And 상기 추출된 보행자 특성 정보 중 상기 검색하고자 하는 보행자 특성 정보에 매칭되는 보행자 특성 정보가 추출된 영상을 상기 사용자 인터페이스 부로 출력하는 특성 매칭 및 결과 출력기를 포함하는 것을 특징으로 하는 지능형 영상 검색 시스템.And a feature matching and result output unit for outputting the extracted image of the pedestrian characteristic information matching the pedestrian characteristic information to be searched from the extracted pedestrian characteristic information to the user interface unit. 제 2항에 있어서, 상기 보행자 추적 및 특성 추출기는,The method of claim 2, wherein the pedestrian tracking and feature extractor, 상기 복수의 감시 카메라에 의해 촬영된 영상으로부터 모션 히스토리 정보를 출력하는 옵티컬 플로우 분석기와;An optical flow analyzer for outputting motion history information from images captured by the plurality of surveillance cameras; 상기 복수의 감시 카메라에 의해 촬영된 영상에 상기 출력된 모션 히스토리 정보를 결합하여 배경 차 영상을 출력하는 적응적 배경 차감기와;An adaptive background subtractor for outputting a background difference image by combining the output motion history information with the images captured by the plurality of surveillance cameras; 상기 배경 차 영상을 기초로 그리드 기반 영역 분할을 수행하고, 그리드 패치 별 배경픽셀 대비 전경픽셀 비율을 계산하여 보행자 관심 영역(Region Of Interest)을 검출하고, 상기 검출된 보행자 ROI를 추적하는 보행자 추적기; 및A pedestrian tracker which performs grid-based area segmentation based on the background difference image, calculates a foreground pixel ratio to a background pixel for each grid patch, detects a pedestrian interest area, and tracks the detected pedestrian ROI; And 상기 보행자 추적기로부터 제공된 보행자 ROI와 영상 데이터 저장부로부터 제공된 정지 영상 및 메타데이터를 이용하여 보행자 특성 정보를 추출하는 보행자 특성 추출기를 포함하는 것을 특징으로 하는 지능형 영상 검색 시스템.And a pedestrian feature extractor for extracting pedestrian feature information using the pedestrian ROI provided from the pedestrian tracker and the still image and metadata provided from the image data storage unit. 제 3항에 있어서,The method of claim 3, wherein 상기 적응적 배경 차감기는 근사적 메디안 필터링 기반 배경 차감 기법을 이용하여 배경 차 영상을 출력하는 것을 특징으로 하는 지능형 영상 검색 시스템.The adaptive background subtractor outputs a background difference image using an approximate median filtering-based background subtraction technique. 제 2항에 있어서, 상기 특성 매칭 및 결과 출력기는,The method of claim 2, wherein the property matching and result output unit, 상기 보행자 추적 및 특성 추출기로부터 제공된 보행자 특성 정보 중 상기 검색하고자 하는 보행자 특성 정보에 매칭되는 보행자 특성 정보가 포함된 영상을 검출하는 보행자 특성 매칭기; 및A pedestrian characteristic matcher which detects an image including pedestrian characteristic information matching the pedestrian characteristic information to be searched among the pedestrian characteristic information provided from the pedestrian tracking and characteristic extractor; And 상기 검출된 영상을 상기 사용자 인터페이스 부로 출력하는 조회 결과 출력기를 포함하는 것을 특징으로 하는 지능형 영상 검색 시스템.And an inquiry result output unit for outputting the detected image to the user interface unit. 제 1항에 있어서,The method of claim 1, 상기 보행자의 특성 정보는 보행자의 키, 모자색, 안경 착용 유무, 보행자의 의상 색 중 적어도 하나임을 특징으로 하는 지능형 영상 검색 시스템.The characteristic information of the pedestrian is an intelligent image retrieval system, characterized in that at least one of the height of the pedestrian, hat color, the presence of glasses, the color of the clothes of the pedestrian. 복수의 감시 카메라로부터 촬영된 영상을 수신하는 과정과;Receiving images captured by a plurality of surveillance cameras; 상기 수신된 영상을 기초로 보행자의 특성 정보를 추출하는 과정과;Extracting characteristic information of a pedestrian based on the received image; 상기 추출된 보행자 특성 정보 중 사용자로부터 입력된 검색하고자 하는 보행자 특성 정보에 매칭되는 보행자 특성 정보가 추출된 영상을 검출하는 과정; 및Detecting an image from which the pedestrian characteristic information matching the pedestrian characteristic information input from the user is extracted from the extracted pedestrian characteristic information; And 상기 검출된 영상을 영상 검색 화면에 표시하는 과정을 포함하는 지능형 영상 검색 방법.Intelligent image search method comprising the step of displaying the detected image on the image search screen. 제 7항에 있어서, 상기 보행자의 특성 정보를 추출하는 과정은,The process of claim 7, wherein the extracting of the characteristic information of the pedestrian is performed. 상기 수신된 영상으로부터 모션 히스토리 정보를 출력하는 과정과;Outputting motion history information from the received image; 상기 수신된 영상에 상기 출력된 모션 히스토리 정보를 결합하여 배경 차 영상을 출력하는 과정과;Combining the output motion history information with the received image to output a background difference image; 상기 출력된 배경 차 영상을 기초로 보행자 관심 영역(Region Of Interest)을 검출하고, 상기 검출된 보행자 ROI를 추적하는 과정; 및Detecting a pedestrian interest area based on the output background difference image and tracking the detected pedestrian ROI; And 상기 추적된 보행자 ROI와 정지 영상 및 메타데이터를 이용하여 보행자 특성 정보를 추출하는 과정을 포함하는 것을 특징으로 하는 지능형 영상 검색 방법.And extracting the pedestrian characteristic information by using the tracked pedestrian ROI, the still image, and the metadata. 제 8항에 있어서, 상기 보행자 ROI를 검출하는 과정은,The method of claim 8, wherein the detecting of the pedestrian ROI comprises: 상기 출력된 배경 차 영상을 기초로 그리드 기반 영역 분할을 수행하고, 그리드 패치 별 배경픽셀 대비 전경픽셀 비율을 계산하여 상기 보행자 ROI를 검출하는 것을 특징으로 하는 지능형 영상 검색 방법.Grid-based region segmentation is performed based on the output background difference image, and the ratio of foreground pixels to grid pixels for each grid patch is calculated to detect the pedestrian ROI. 제 7항에 있어서, The method of claim 7, wherein 상기 보행자의 특성 정보는 보행자의 키, 모자 색, 안경 착용 유무, 보행자의 의상 색 중 적어도 하나임을 특징으로 하는 지능형 영상 검색 방법.The characteristic information of the pedestrian is an intelligent image retrieval method, characterized in that at least one of the height of the pedestrian, the hat color, the presence or absence of glasses, the color of the pedestrian costume. 복수의 감시 카메라를 구비하는 지능형 영상 검색 시스템에 있어서,In an intelligent video retrieval system having a plurality of surveillance cameras, 상기 복수의 감시 카메라에 의해 촬영된 영상을 기초로 상기 보행자의 특성 정보를 추출하고, 상기 추출된 보행자 특성 정보 중 검색하고자 하는 보행자 특성 정보에 매칭되는 보행자 특성 정보가 추출된 영상을 검출하는 영상 처리 장치를 포함하는 지능형 영상 검색 시스템.Image processing for extracting the pedestrian characteristic information based on the images captured by the plurality of surveillance cameras, and detecting an image from which the pedestrian characteristic information matching the pedestrian characteristic information to be searched is extracted from the extracted pedestrian characteristic information. Intelligent video retrieval system comprising a device. 제 11항에 있어서,The method of claim 11, 상기 검색하고자 하는 보행자 특성 정보를 입력하거나 상기 검출된 영상을 영상 검색 화면에 표시하는 사용자 인터페이스 부를 더 포함하는 것을 특징으로 하는 지능형 영상 검색 시스템.And a user interface for inputting the pedestrian characteristic information to be searched or displaying the detected image on an image search screen. 제 11항에 있어서, 상기 영상 처리 장치는,The apparatus of claim 11, wherein the image processing apparatus comprises: 상기 복수의 감시 카메라에 의해 촬영된 영상을 기초로 보행자를 감지하고, 상기 감지된 보행자의 이동을 추적하며, 상기 추적된 보행자의 특성 정보를 추출하는 보행자 추적 및 특성 추출기; 및A pedestrian tracking and feature extractor for detecting a pedestrian based on the images captured by the plurality of surveillance cameras, tracking the detected movement of the pedestrian, and extracting the characteristic information of the tracked pedestrians; And 상기 추출된 보행자 특성 정보 중 상기 검색하고자 하는 보행자 특성 정보에 매칭되는 보행자 특성 정보가 추출된 영상을 검출하는 특성 매칭 및 결과 출력기를 포함하는 것을 특징으로 하는 지능형 영상 검색 시스템.And an attribute matching and result output unit for detecting an image from which the pedestrian characteristic information matching the pedestrian characteristic information to be searched is extracted from the extracted pedestrian characteristic information. 제 13항에 있어서, 상기 보행자 추적 및 특성 추출기는,The method of claim 13, wherein the pedestrian tracking and feature extractor, 상기 복수의 감시 카메라에 의해 촬영된 영상으로부터 모션 히스토리 정보를 출력하는 옵티컬 플로우 분석기와;An optical flow analyzer for outputting motion history information from images captured by the plurality of surveillance cameras; 상기 복수의 감시 카메라에 의해 촬영된 영상에 상기 모션 히스토리 정보를 결합하여 배경 차 영상을 출력하는 적응적 배경 차감기와;An adaptive background subtractor for outputting a background difference image by combining the motion history information with the images captured by the plurality of surveillance cameras; 상기 배경 차 영상을 기초로 그리드 기반 영역 분할을 수행하고, 그리드 패치 별 배경픽셀 대비 전경픽셀 비율을 계산하여 보행자 관심 영역(Region Of Interest)을 검출하고, 상기 검출된 보행자 ROI를 추적하는 보행자 추적기; 및A pedestrian tracker which performs grid-based area segmentation based on the background difference image, calculates a foreground pixel ratio to a background pixel for each grid patch, detects a pedestrian interest area, and tracks the detected pedestrian ROI; And 상기 보행자 추적기로부터 제공된 보행자 ROI와 영상 데이터 저장부로부터 제공된 정지 영상 및 메타데이터를 이용하여 보행자 특성 정보를 추출하는 보행자 특성 추출기를 포함하는 것을 특징으로 하는 지능형 영상 검색 시스템.And a pedestrian feature extractor for extracting pedestrian feature information using the pedestrian ROI provided from the pedestrian tracker and the still image and metadata provided from the image data storage unit. 제 14항에 있어서,15. The method of claim 14, 상기 적응적 배경 차감기는 근사적 메디안 필터링 기반 배경 차감 기법을 이용하여 배경 차 영상을 출력하는 것을 특징으로 하는 지능형 영상 검색 시스템.The adaptive background subtractor outputs a background difference image using an approximate median filtering-based background subtraction technique. 제 13항에 있어서, 상기 특성 매칭 및 결과 출력기는,The method of claim 13, wherein the characteristic matching and result output unit comprises: 상기 보행자 추적 및 특성 추출기로부터 제공된 보행자 특성 정보 중 상기 검색하고자 하는 보행자 특성 정보에 매칭되는 보행자 특성 정보가 포함된 영상을 검출하는 보행자 특성 매칭기; 및A pedestrian characteristic matcher which detects an image including pedestrian characteristic information matching the pedestrian characteristic information to be searched among the pedestrian characteristic information provided from the pedestrian tracking and characteristic extractor; And 상기 검출된 영상을 출력하는 조회 결과 출력기를 포함하는 것을 특징으로 하는 지능형 영상 검색 시스템.And an inquiry result outputter for outputting the detected image.
KR1020090093473A 2009-09-30 2009-09-30 Intelligent video retrieval method and system using surveillance camera KR101062225B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090093473A KR101062225B1 (en) 2009-09-30 2009-09-30 Intelligent video retrieval method and system using surveillance camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090093473A KR101062225B1 (en) 2009-09-30 2009-09-30 Intelligent video retrieval method and system using surveillance camera

Publications (2)

Publication Number Publication Date
KR20110035662A true KR20110035662A (en) 2011-04-06
KR101062225B1 KR101062225B1 (en) 2011-09-06

Family

ID=44043981

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090093473A KR101062225B1 (en) 2009-09-30 2009-09-30 Intelligent video retrieval method and system using surveillance camera

Country Status (1)

Country Link
KR (1) KR101062225B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101398700B1 (en) * 2012-12-20 2014-05-30 인하대학교 산학협력단 Annotation system and method for video data
KR101466004B1 (en) * 2014-10-14 2014-11-28 (주)진명아이앤씨 An intelligent triplex system integrating crime and disaster prevention and their post treatments and the control method thereof
KR20150022246A (en) * 2013-08-22 2015-03-04 에스케이텔레콤 주식회사 Method and Apparatus for Searching Image by Using Adjacent Distance Reference and Computer-Readable Recording Medium with Program
US9208226B2 (en) 2013-01-31 2015-12-08 Electronics And Telecommunications Research Institute Apparatus and method for generating evidence video
KR20150138374A (en) * 2013-06-27 2015-12-09 인텔 코포레이션 Face recognition with parallel detection and tracking, and/or grouped feature motion shift tracking
KR101701225B1 (en) * 2015-12-07 2017-02-13 고려대학교 산학협력단 System for real-time pedestrian detection using apache storm framework in a distributed environment and method thereof

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101374138B1 (en) 2012-09-17 2014-03-25 주식회사 제론헬스케어 System for abnormal situation detection
KR101459103B1 (en) 2014-05-13 2014-11-13 주식회사 다이나맥스 Method for video monitoring using video surveillance system
KR102551647B1 (en) 2020-11-25 2023-07-05 주식회사 싸인텔레콤 Multithreaded-based imaging analysis system that improves real-time performance by separating the general situation event monitoring module from the specific situation event processing module

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101398700B1 (en) * 2012-12-20 2014-05-30 인하대학교 산학협력단 Annotation system and method for video data
US9208226B2 (en) 2013-01-31 2015-12-08 Electronics And Telecommunications Research Institute Apparatus and method for generating evidence video
KR20150138374A (en) * 2013-06-27 2015-12-09 인텔 코포레이션 Face recognition with parallel detection and tracking, and/or grouped feature motion shift tracking
KR20150022246A (en) * 2013-08-22 2015-03-04 에스케이텔레콤 주식회사 Method and Apparatus for Searching Image by Using Adjacent Distance Reference and Computer-Readable Recording Medium with Program
KR101466004B1 (en) * 2014-10-14 2014-11-28 (주)진명아이앤씨 An intelligent triplex system integrating crime and disaster prevention and their post treatments and the control method thereof
KR101701225B1 (en) * 2015-12-07 2017-02-13 고려대학교 산학협력단 System for real-time pedestrian detection using apache storm framework in a distributed environment and method thereof

Also Published As

Publication number Publication date
KR101062225B1 (en) 2011-09-06

Similar Documents

Publication Publication Date Title
KR101062225B1 (en) Intelligent video retrieval method and system using surveillance camera
Shaikh et al. Moving object detection using background subtraction
JP5325899B2 (en) Intrusion alarm video processor
US8200011B2 (en) Context processor for video analysis system
Nam et al. Intelligent video surveillance system: 3-tier context-aware surveillance system with metadata
Lin et al. Summarizing surveillance videos with local-patch-learning-based abnormality detection, blob sequence optimization, and type-based synopsis
Kumar et al. Study of robust and intelligent surveillance in visible and multi-modal framework
CN104378582A (en) Intelligent video analysis system and method based on PTZ video camera cruising
CN106295598A (en) A kind of across photographic head method for tracking target and device
Santoro et al. Crowd analysis by using optical flow and density based clustering
EP3973446A1 (en) Forensic video exploitation and analysis tools
Risha et al. Novel method of detecting moving object in video
Fradi et al. Spatial and temporal variations of feature tracks for crowd behavior analysis
GB2495529A (en) Identifying frames of interest in aerial survey video processing
CN113396423A (en) Method of processing information from event-based sensors
Prakash et al. Detecting and tracking of multiple moving objects for intelligent video surveillance systems
JP2006163452A (en) Tracking device and tracking method
Abdulghafoor et al. A novel real-time multiple objects detection and tracking framework for different challenges
Lalonde et al. A system to automatically track humans and vehicles with a PTZ camera
KR20190088087A (en) method of providing categorized video processing for moving objects based on AI learning using moving information of objects
KR20140141239A (en) Real Time Object Tracking Method and System using the Mean-shift Algorithm
JP7125843B2 (en) Fault detection system
Satybaldina et al. Development of an algorithm for abnormal human behavior detection in intelligent video surveillance system
Revathi et al. A survey of activity recognition and understanding the behavior in video survelliance
Branca et al. Cast shadow removing in foreground segmentation

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20140710

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20150619

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20160704

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20170703

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20180704

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20190702

Year of fee payment: 9