KR101877294B1 - Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events - Google Patents

Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events Download PDF

Info

Publication number
KR101877294B1
KR101877294B1 KR1020180005332A KR20180005332A KR101877294B1 KR 101877294 B1 KR101877294 B1 KR 101877294B1 KR 1020180005332 A KR1020180005332 A KR 1020180005332A KR 20180005332 A KR20180005332 A KR 20180005332A KR 101877294 B1 KR101877294 B1 KR 101877294B1
Authority
KR
South Korea
Prior art keywords
information
area
behavior pattern
unit
image data
Prior art date
Application number
KR1020180005332A
Other languages
Korean (ko)
Inventor
전영민
양선옥
전서희
전기주
Original Assignee
한국비전기술주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국비전기술주식회사 filed Critical 한국비전기술주식회사
Priority to KR1020180005332A priority Critical patent/KR101877294B1/en
Application granted granted Critical
Publication of KR101877294B1 publication Critical patent/KR101877294B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19613Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion
    • G08B13/19615Recognition of a predetermined image pattern or behaviour pattern indicating theft or intrusion wherein said pattern is defined by the user
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19697Arrangements wherein non-video detectors generate an alarm themselves
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B5/00Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied
    • G08B5/22Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission
    • G08B5/36Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission using visible light sources
    • G08B5/38Visible signalling systems, e.g. personal calling systems, remote indication of seats occupied using electric transmission; using electromagnetic transmission using visible light sources using flashing light

Abstract

According to the present invention, a smart CCTV system for crime prevention capable of automatically recognizing a situation comprises: a basic information storage unit to store information for a plurality of basic action patterns; a crime prevention area setting unit to set information for a crime prevention area; a non-allowed pattern setting unit to set a non-allowed action pattern which is not allowed in the crime prevention area among the plurality of basic action patterns; a postprocess setting unit to set one or more postprocesses in accordance with the non-allowed action pattern; an object information generation unit to generate path data of a target object detected by using image data of a detection camera, and use a position relation between the path data and the crime prevention area to generate action pattern information of the target object; and a driving control unit to control the one or more postprocesses to be driven if the generated action pattern information corresponds to the non-allowed action pattern.

Description

객체, 영역 및 객체가 유발하는 이벤트의 유기적 관계를 기반으로 한 복수 개 기본행동패턴 정의를 통한 복합 상황 설정 및 자동 상황 인지가 가능한 지능형 방범 CCTV 시스템{SMART CCTV SYSTEM FOR CRIME PREVENTION CAPABLE OF SETTING MULTI SITUATION AND RECOGNIZING AUTOMATIC SITUATION BY DEFINING SEVERAL BASIC BEHAVIORS BASED ON ORGANIC RELATION BETWEEN OBJECT, AREA AND OBJECT'S EVENTS}TECHNICAL FIELD [0001] The present invention relates to an intelligent security CCTV system capable of recognizing a plurality of basic behavior patterns based on an organic relationship between events caused by objects, regions and objects, RECOGNIZING AUTOMATIC SITUATION BY DEFINING SEVERAL BASIC BEHAVIORS BASED ON ORGANIC RELATION BETWEEN OBJECT, AREA AND OBJECT'S EVENTS}

본 발명은 지능형 CCTV 방범 시스템에 관한 것으로서, 더욱 구체적으로는 둘 이상의 검지 추적 알고리즘을 유기적으로 융합시켜 원거리에서 이동하는 객체를 더욱 정확하게 검지 및 추적하고 이를 기반으로 동적 객체의 움직임 등을 미리 정의된 기준행동패턴과 연계시킴으로써 동적 객체의 행동패턴을 시스템적으로 정확하게 인식하고, 객체가 유발하는 이벤트의 유기적 관계에 의한 행동패턴과 복수 개 기본행동패턴과의 매칭을 통하여 방범 상황에 대한 정확한 인지는 물론, 이에 대한 후속 조치가 자동적으로 이루어지도록 구현된 지능형 CCTV 시스템에 관한 것이다. The present invention relates to an intelligent CCTV security system, and more particularly, to an intelligent CCTV security system that more accurately detects and tracks an object moving at a long distance by organically fusing two or more detection tracking algorithms, By associating with the behavior pattern, the behavior pattern of the dynamic object is systematically recognized accurately, and by matching the behavior pattern based on the organic relation of the event triggered by the object and the plural basic action pattern, And an intelligent CCTV system implemented so that the follow-up action thereof is automatically performed.

범죄 예방, 안전사고 방지, 재난 감시, 건물 내지 시설물 감시, 대중교통 이용 승객 현황 파악, 주차, 교통 상황 모니터링 등의 다양한 목적을 구현하기 위하여 실내외를 불문하고 광범위한 영역에서 CCTV 및 관련 시스템 내지 장치가 구축되어 있으며, 이러한 장치나 시스템은 다양한 사회적 필요성 등에 의하여 점진적으로 증가되는 추세라고 할 수 있다.In order to realize various purposes such as crime prevention, prevention of accidents, disaster monitoring, monitoring of buildings and facilities, identification of passengers using public transportation, parking, traffic monitoring, etc., CCTV and related systems or devices are installed , And these devices and systems are gradually increasing due to various social needs.

이러한 CCTV 및 관련 시스템은 다양한 방법으로 이용되고 있는데, 통상적으로 특정 영역의 다수 위치에 CCTV를 설치하고, 이들 복수 개의 CCTV로부터 촬영되는 영상 데이터 관제를 위한 화면표시수단에 출력하고 관리자(관제자, 이용자 등)가 이를 시청하면서 특정 사건 등을 모니터링하거나 또는 다양한 장소 내지 위치의 영상을 DB화하고 사후적 증거 활용 등으로 이용하는 방법이 주로 이용된다.Such CCTV and related systems are used in various ways. Generally, a CCTV is installed in a plurality of locations in a specific area, and the CCTV is output to a screen display unit for controlling video data photographed from the plurality of CCTVs. Etc.) to monitor specific events while watching them, or to use images of various places or locations as a database and to use post-test evidence.

또한, 종래 CCTV 내지 관제 시스템에는 영상 분석(VA, Video Analysis) 기법 등을 이용하여 촬영된 영상에서 관심 대상이 되는 객체를 추적하고 추적된 객체의 이동을 모니터링하는 방법도 적용되고 있으며, 최근에는 추적된 객체의 이상 행위, 행동 등이 감지되는 경우 관리자 등에게 알라밍(alarming) 정보를 전송하는 방법도 조금씩 이용되고 있다. In addition, a conventional method of monitoring an object of interest in a captured image using a video analysis (VA) technique or the like and monitoring the movement of the tracked object is applied to a conventional CCTV or control system, When an abnormal behavior or an action of an object is detected, a method of transmitting alarming information to the manager is also used little by little.

이러한 객체 검지 내지 추적 등의 방법에는 영상 차분 기법, 옵티컬 플로우(Optical Flow) 기법 등을 이용하여 영상 데이터 내에 포함된 객체를 검지하는 방법이 이용되며, 나아가 민쉬프트 기법(Mean-Shift), 칼만 필터 기법(Kalman Filter) 등을 이용하여 객체를 추적하는 방법들이 이용된다. Methods for detecting and tracking such objects include a method of detecting an object included in image data using an image difference technique, an optical flow technique, and the like, and further, a method of detecting an object included in the image data, (Kalman Filter) are used to track objects.

그러나 이러한 객체 검지 및 추적과 관련된 기법들은 해당 기법에 의하여 검지 및 추적할 수 있는 제한된 특정 환경이나 특징(Feature) 파라미터들에 의하여 프로세싱되도록 설계되어 있으므로 각 기법마다의 특화된 제한된 환경에서는 어느 정도 성능이 발현될 수 있으나 이들 기법에 적합하지 않은 상황이나 환경에서는 객체 검지 및 추적의 효율성이 상당히 저하되는 문제점이 발생하게 된다. However, since the techniques related to object detection and tracking are designed to be processed by limited specific environment or feature parameters that can be detected and tracked by the corresponding technique, However, in situations or environments that are not suitable for these techniques, the efficiency of object detection and tracking is significantly degraded.

이러한 이유로 종래의 기법이나 방법들은 외부 환경의 노이즈 변화에 민감하게 반응하여 검지/추적의 신뢰성이 저하됨은 물론, 지속적으로 정확하게 객체를 검지하고 추적하는 것이 어려우므로 다양한 환경에 범용적으로 적용될 수 없는 본질적인 한계가 있다고 할 수 있다. For this reason, the conventional techniques and methods are sensitive to the noise change of the external environment, so that the reliability of detection / tracking is degraded. Moreover, since it is difficult to continuously detect and track the object accurately, There is a limit.

또한, 동적 객체의 검지 또는 추적이 이루어진다고 하더라도 종래 방법은 관리자 등에게 단순히 그 결과를 표출하거나 방대한 형태로 단순히 저장하는 방법만이 적용되는 수준이므로 그 결과를 적용하여 후속적으로 활용함에 있어서는 여전히 인적(人的) 의존적인 방법에 머물러 있어 방범 영역에서 이루어지는 침입자 등의 행위를 그 행위 종류마다 구분하여 자동적으로 인지하는 것은 물론, 침입자 등의 행동 패턴이나 행위마다 차등화된 후속 조치가 자동적으로 구현되지 못하고 있다.Even if the dynamic object is detected or tracked, the conventional method only applies the method of expressing the result to the manager or simply storing it in a large form. Therefore, in applying the result, (Human) dependent method, it is possible to automatically recognize an intruder or the like performed in the crime prevention area by classifying the type of the intruder or the like, as well as to automatically follow the action pattern of the intruder or the differentiated action for each action have.

나아가 종래 방법이 구현된 시스템에서는 다양한 방범 상황에 대한 증거 등을 확보하기 위해서 저장된 모든 영상 데이터를 일일이 확인하여야 하는 방법만이 가능하므로 방범 상황의 인지 및 확인에 대한 과정이 상당히 비효율적이며 또한, 방범 영역에서 이루어지는 침입자의 특정 행동/행위들을 특정한 기준으로 선별하여 후속적으로 활용하는 것을 거의 불가능하다고 할 수 있다. Furthermore, in the system in which the conventional method is implemented, only the method of confirming all stored image data in order to secure evidence for various crime scenes can be performed. Therefore, the process of recognition and confirmation of the crime scene is considerably inefficient, It can be said that it is almost impossible to select specific actions / actions of an intruder to be used in a subsequent step.

본 발명은 상기와 같은 배경에서 상술된 문제점을 해결하기 위하여 창안된 것으로서, 객체 검지 및 추적의 알고리즘을 유기적으로 결합시키고 계층적으로 적용하여 객체 검지 및 추적의 오류 발생 가능성을 현저히 낮춤으로써 동적(動的) 객체의 정확하고 지속 가능한 검지 및 추적이 구현되도록 함은 물론, 추적된 객체의 동선, 거동 특성 내지 움직임 패턴을 기 정의된 행동패턴의 시계열적 조합에 의하여 정확하게 규정하여 사용자에게 인터페이싱함으로써, 동적 객체의 행동 패턴에 따른 후속적인 활용을 더욱 효과적으로 구현할 수 있는 시스템 인프라를 제공하는데 그 목적이 있다.The object of the present invention is to solve the above-mentioned problems, and it is an object of the present invention to provide a method and apparatus for detecting and tracking an object, It is possible to precisely and sustainably detect and track the object and also to precisely define the motion, behavior or movement pattern of the tracked object by the time series combination of the predefined behavior pattern, The object of the present invention is to provide a system infrastructure that can more effectively implement subsequent utilization according to an action pattern of an object.

또한, 본 발명은 객체(침입자 등으로 간주될 수 있는 대상)에 대한 행동패턴의 정의를 통하여 방범 영역에서 허용되지 않는 행위 동작 내지 행동 패턴을 효과적으로 분류하여 방범 상황에 대한 자동 인지가 가능하며, 이를 이용하여 행위 동작 내지 행동 패턴마다 차등화된 후속 조치를 자동적으로 구현할 수 있는 시스템을 제공하는데 그 목적이 있다.Further, the present invention enables automatic recognition of a crime scene by effectively classifying an unacceptable behavior or behavior pattern in a crime scene through definition of a behavior pattern for an object (an object that can be regarded as an intruder or the like) And to provide a system that can automatically implement follow-up actions that are differentiated according to a behavior action or a behavior pattern.

본 발명의 다른 목적 및 장점들은 아래의 설명에 의하여 이해될 수 있으며, 본 발명의 실시예에 의하여 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타난 구성과 그 구성의 조합에 의하여 실현될 수 있다.Other objects and advantages of the present invention will become apparent from the following description, and it will be apparent from the description of the embodiments of the present invention. Further, the objects and advantages of the present invention can be realized by a combination of the constitution shown in the claims and the constitution thereof.

상기 목적을 달성하기 위한 본 발명의 지능형 방범 CCTV 시스템은 복수 개 기본행동패턴에 대한 정보가 저장되는 기초정보저장부; 방범영역에 대한 정보를 설정하는 방범영역설정부; 상기 복수 개 기본행동패턴 중 상기 방범영역에서 허용되지 않는 비허용 행동패턴을 설정하는 비허용패턴설정부; 상기 비허용 행동패턴에 따른 하나 이상의 후속프로세싱을 설정하는 후속처리설정부; 검지카메라의 영상데이터를 이용하여 검지된 대상객체의 동선데이터를 생성하며 상기 동선 데이터와 상기 방범영역과의 위치 관계를 이용하여 상기 대상객체의 행동패턴정보를 생성하는 객체정보생성부; 및 상기 생성된 행동패턴정보가 상기 비허용 행동패턴에 해당하는 경우 상기 하나 이상의 후속 프로세싱이 구동되도록 제어하는 구동제어부를 포함하여 구성될 수 있다.According to an aspect of the present invention, there is provided an intelligent security CCTV system including a basic information storage unit for storing information on a plurality of basic behavior patterns; A crime prevention area setting unit for setting information on the crime prevention area; An unauthorized pattern setting unit for setting an unacceptable behavior pattern not allowed in the crime prevention area among the plurality of basic action patterns; A subsequent process setting unit for setting one or more subsequent processes according to the unacceptable behavior pattern; An object information generating unit which generates motion line data of the detected object using the image data of the detection camera and generates motion pattern information of the object using the positional relationship between the motion data and the crime prevention area; And a drive controller for controlling the at least one subsequent processing to be driven when the generated behavior pattern information corresponds to the unacceptable behavior pattern.

여기에서 본 발명의 상기 후속 프로세싱은 상기 대상객체의 영상 저장, 경광등 점멸, 사이렌 작동, 오디오출력수단의 경고안내 출력 또는 디스플레이수단의 경고안내 출력 중 하나 이상으로 이루어질 수 있다.Here, the subsequent processing of the present invention may include at least one of image storage of the target object, flashing of a warning light, operation of a siren, warning warning output of audio output means, or warning warning output of display means.

또한, 본 발명의 상기 구동제어부는 상기 행동패턴정보가 비허용 행동패턴에 해당하는 경우 PTZF구동이 가능한 추적카메라를 제어하여 상기 대상객체의 근거리영상데이터를 촬영하는 후속 프로세싱이 구동되도록 제어할 수 있다.In addition, the drive control unit of the present invention may control the tracking camera capable of PTZF drive when the behavior pattern information corresponds to the unacceptable behavior pattern so that the subsequent processing for photographing the near object image data of the target object is driven .

바람직하게, 본 발명은 출입이 허용된 사용자의 영상데이터인 기준영상데이터가 저장되는 기준영상DB부; 및 상기 추적카메라로부터 전송된 상기 대상객체의 근거리영상데이터가 상기 기준영상데이터에 해당하는 않는 경우에 한해 상기 대상객체에 대한 근거리영상데이터를 저장하는 영상처리부를 더 포함하도록 구성될 수 있다.Preferably, the present invention includes: a reference image DB unit storing reference image data, which is image data of a user permitted to enter and exit; And an image processor for storing the near field image data of the target object only when the near field image data of the target object transmitted from the tracking camera does not correspond to the reference image data.

실시형태에 따라서, 본 발명은 주체정보 영역, 장소정보 영역, 시간정보 영역 및 행위정보 영역을 포함하는 기초 알람데이터 패킷이 저장되는 패킷저장부; 및 상기 생성된 행동패턴정보가 상기 비허용 행동패턴에 해당하는 경우 상기 기초 알람데이터 패킷의 주체정보 영역, 장소정보 영역, 시간정보 영역 및 행위정보 영역 각각에, 상기 대상객체에 대한 근거리 영상데이터, 상기 방범영역에 대한 정보, 상기 비허용 행동패턴이 이루어진 시간정보 및 하나 이상의 비허용 행동패턴정보를 수록하여 알람데이터 패킷을 생성하고 저장하는 알람처리부를 더 포함하여 구성되는 것이 바람직하다. According to an embodiment of the present invention, there is provided a mobile terminal comprising: a packet storage unit for storing a basic alarm data packet including a subject information area, a place information area, a time information area and a behavior information area; And a controller configured to generate short-range image data for the target object in each of the subject information area, the place information area, the time information area, and the action information area of the basic alarm data packet when the generated behavior pattern information corresponds to the non- And an alarm processor for generating and storing alarm data packets by storing information on the security zone, time information on the unacceptable behavior pattern, and one or more unacceptable behavior pattern information.

또한, 본 발명의 상기 영상처리부는 상기 생성된 행동패턴정보가 상기 비허용 행동패턴에 해당하는 경우 상기 대상객체의 영상 데이터를 저장하되, 해당하는 비허용 행동패턴에 대한 태그 정보를 상기 대상객체의 영상 데이터에 연계시켜 저장하도록 구성될 수 있으며, 이 경우 비허용 행동패턴에 대한 정보가 포함된 영상요청신호가 입력되면, 상기 태그 정보를 이용하여 상기 영상요청신호에 해당하는 하나 이상의 영상 데이터를 선별하여 제공하는 영상제공부를 더 포함할 수 있다.When the generated behavior pattern information corresponds to the unacceptable behavior pattern, the image processing unit of the present invention stores the image data of the target object, and stores the tag information of the corresponding unacceptable behavior pattern in the target object In this case, if a video request signal including information on an unacceptable behavior pattern is inputted, one or more video data corresponding to the video request signal is selected using the tag information And the like.

나아가, 본 발명의 상기 객체정보생성부는 n(n은 1이상의 자연수)개의 검지카메라로부터 영상데이터를 수신하는 수신부; 상기 검지카메라로부터 수신된 영상데이터를 대상으로 차분 영상 검지 알고리즘을 적용하여 객체를 검지하고 검지된 객체의 제1후보MER정보를 생성하는 제1검지부; 상기 영상데이터를 대상으로 옵티컬 플로우 알고리즘을 적용하여 객체를 검지하고 검지된 객체의 제2후보MER정보를 생성하는 제2검지부; 상기 제1 및 제2후보MER정보를 대상으로 호그 알고리즘을 적용하여 객체의 최종MER정보를 생성하는 검지판단부; 상기 객체의 최종MER정보의 이동을 추적하여 상기 객체의 동선데이터를 생성하는 트래킹부; 및 행동패턴 분석의 기준이 되는 상황인지영역과 상기 객체의 동선데이터와의 위치 관계를 이용하여 상기 객체의 행동패턴을 결정하는 행동패턴결정부를 포함하여 구성될 수 있다.Furthermore, the object information generating unit of the present invention may further include: a receiving unit for receiving image data from n (n is a natural number of 1 or more) detecting cameras; A first detection unit for detecting an object by applying a difference image detection algorithm to image data received from the detection camera and generating first candidate MER information of the detected object; A second detecting unit detecting an object by applying an optical flow algorithm to the image data and generating second candidate MER information of the detected object; A detection determination unit for generating final MER information of the object by applying a hog algorithm to the first and second candidate MER information; A tracking unit for tracking movement of final MER information of the object to generate copper line data of the object; And a behavior pattern determiner for determining a behavior pattern of the object by using a positional relationship between the context aware area as a basis of the behavior pattern analysis and the dynamic line data of the object.

또한, 본 발명의 상기 행동패턴결정부는 상기 동선데이터의 각 시간별 객체의 최종MER 중심점 위치좌표와 상기 상황인지영역의 경계라인의 위치 좌표 사이의 관계를 이용하여 객체의 이벤트 정보를 생성하는 이벤트 생성부; 및 상기 객체의 이벤트 정보의 시계열적 특성을 이용하여 상기 객체에 대한 행동패턴정보를 생성하는 패턴정보생성부를 포함하도록 구성되는 것이 바람직하다.The behavior pattern determination unit of the present invention may further include an event generation unit for generating event information of an object using the relationship between the coordinates of the final MER center point position of the object of each time of the copper line data and the position coordinates of the boundary line of the context- ; And a pattern information generator for generating behavior pattern information for the object using time-series characteristics of the object's event information.

여기에서 본 발명에 의한 상기 객체의 이벤트 정보는 객체가 상황인지영역 내부로 이동하는 진입 이벤트, 객체가 상황인지영역 내부에서 외부로 유출되는 진출 이벤트, 객체가 영상처리영역(상황인지영역보다 넓은 영역이거나 동일한 영역) 내부에서 0이 아닌 이동 속도로 움직임을 발생시키는 이동 이벤트, 객체가 상황인지영역 내부에서 움직이지 않는 정지 이벤트, 상황인지영역 내부에 위치하는 객체에서 다른 객체가 검지되고 상기 다른 객체가 기준 시간 이상 상황인지영역에 위치하는 분리 이벤트 또는 상황인지영역 내부에 위치한 서로 다른 객체가 동일한 위치정보 또는 동일한 변위 이동이 발생하는 결합 이벤트 중 하나 이상으로 이루어질 수 있다.Herein, the event information of the object according to the present invention includes an entry event in which the object moves into the context area, an entry event in which the object is exited from the context area, A moving event that generates a motion at a non-zero moving speed within the same area), a still event that does not move within the context area, an object that is located inside the context area, and the other object Or a combination event in which different objects located in the context aware area located in the context aware area over the reference time generate the same location information or the same displacement movement.

또한, 본 발명의 상기 행동패턴결정부는 상기 진입, 진출, 이동, 정지, 분리, 결합 이벤트 중 복수 개 이벤트 정보의 시계열적 조합에 의하여 정의되는 복수 개 기준행동패턴정보를 저장하는 패턴정보저장부를 더 포함할 수 있으며, 이 경우 본 발명의 상기 패턴정보생성부는 상기 복수 개 기준행동패턴정보 중 상기 동선 데이터에 대응되는 기준행동패턴정보를 이용하여 상기 객체의 행동패턴정보를 생성하도록 구성될 수 있다.The behavior pattern determination unit of the present invention further includes a pattern information storage unit for storing a plurality of reference behavior pattern information defined by a time series combination of a plurality of event information among the entry, advance, movement, stop, separation, In this case, the pattern information generator of the present invention may be configured to generate behavior pattern information of the object using the reference behavior pattern information corresponding to the copper line data among the plurality of reference behavior pattern information.

본 발명에 의한 지능형 방범 CCTV 시스템은 객체의 검지, 추적 및 행동패턴을 생성하는 프로세싱과 유기적으로 결합되도록 구성하여 이를 기초로 객체가 특정 행동패턴에 해당하는 경우 근거리 고해상도 영상 데이터가 자동적으로 생성되도록 하고 이를 이용하여 대상 객체의 얼굴을 정확히 인식할 수 있는 시스템을 구현할 수 있다.The intelligent security CCTV system according to the present invention is configured to be organically combined with processing for detecting, tracking, and generating behavior patterns of an object, and when the object corresponds to a specific behavior pattern, local high-resolution image data is automatically generated And a system capable of accurately recognizing the face of the target object can be implemented using the same.

본 발명에 의한 지능형 방범 CCTV 시스템은 객체 검지 알고리즘을 이원화시켜 프로세싱하고 그 각각의 결과에 대하여 생성된 하이브리드 영역을 대상으로, 영역 내 검출에 최적화되는 제3의 알고리즘을 사용하여 객체 검지 알고리즘을 유기적으로 그리고 계층적으로 적용시킴으로써, 외부 환경의 노이즈에 적응하고 객체 검지의 확률을 더욱 향상시킴은 물론, 연산 효율성도 높일 수 있게 된다. The intelligent security CCTV system according to the present invention processes object detection algorithms in a binary manner and processes the object results in an organic detection algorithm using a third algorithm that is optimized for intra- By applying it hierarchically, it is possible to adapt to the noise of the external environment, to further improve the probability of object detection, and to increase the computational efficiency.

또한, 본 발명의 또 다른 실시예에 의할 때, 동적 객체의 동선 데이터 즉, 동적 객체가 생성하는 거동 특성 내지 행동 특성을 기 정의된 객체의 이벤트와 이들의 시계열적 조합에 의하여 정의되는 행동패턴정보를 이용하여 정확하게 규정하고 수치화 내지 데이터화할 수 있어 동적 객체의 행동패턴을 정확하게 인터페이싱할 수 있는 효과를 창출 할 수 있다. According to still another embodiment of the present invention, dynamic data of a dynamic object, that is, dynamic characteristics or behavioral characteristics generated by a dynamic object, may be classified into an event of the predefined object and a behavior pattern It is possible to precisely define and quantify or dataize by using information, and it is possible to create an effect of accurately interfacing a behavior pattern of a dynamic object.

나아가 본 발명은 침입자 등의 행위/행동 패턴을 8가지 기본행동패턴에 따라 유형화시켜 침입자 등의 행위/행동 패턴을 정확히 자동적으로 인지할 수 있음은 물론, 이를 기초로 침입자 등의 행동 패턴에 따른 차등화된 후속 조치를 시스템적으로 자동적으로 연계시킬 수 있어 방범 상황에 따른 유기적인 대응을 최적화시킬 수 있는 시스템 인프라를 제공할 수 있다. Further, according to the present invention, an action / action pattern of an intruder or the like can be typed according to eight basic action patterns, thereby accurately and automatically recognizing an action / action pattern of an intruder or the like, It is possible to provide a system infrastructure that can optimize the organic response according to the crime situation.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술되는 발명의 상세한 설명과 함께 본 발명의 기술 사상을 더욱 효과적으로 이해시키는 역할을 하는 것이므로, 본 발명은 이러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 바람직한 일 실시예에 의한 지능형 방범 CCTV 시스템의 상세 구성을 도시한 블록도,
도 2 및 도 3은 본 발명의 바람직한 실시예들에 의한 프로세싱 과정을 도시한 흐름도,
도 4 방범 상황과 그에 따른 후속 조치를 설정하는 인터페이스 환경에 대한 본 발명의 일 실시예를 도시한 도면,
도 5는 방범 상황에 대한 다양한 정보가 연계되어 활용되는 방법 상황에 대한 이력 데이터의 일 실시예를 설명하는 도면,
도 6은 도 1에 도시된 본 발명의 객체정보 생성부에 대한 상세 구성을 도시한 블록도,
도 7은 도 6에 도시된 행동패턴결정부에 대한 상세 구성을 도시한 블록도,
도 8 및 도 9는 본 발명의 바람직한 실시예에 의한 객체 검지에 대한 상세 프로세싱 과정을 도시한 흐름도,
도 10은 본 발명의 바람직한 일 실시예에 의한 객체 추적에 대한 상세 프로세싱 과정을 도시한 흐름도,
도 11은 본 발명에 의한 영상인식영역과 상황인지영역의 일 실시예를 도시한 도면,
도 12는 객체 검지에 이용되는 HOG 알고리즘의 특징을 설명하는 도면,
도 13은 본 발명의 바람직한 일 실시예에 의한 객체의 6가지 이벤트 정보를 정의하는 도면,
도 14는 본 발명의 바람직한 일 실시예에 의한 8가지 행동패턴정보를 설명하는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate preferred embodiments of the invention and, together with the detailed description of the invention given below, serve to better understand the technical idea of the invention, And shall not be construed as limited to such matters.
1 is a block diagram showing a detailed configuration of an intelligent security CCTV system according to a preferred embodiment of the present invention;
FIG. 2 and FIG. 3 are flowcharts illustrating a processing procedure according to preferred embodiments of the present invention,
Figure 4 illustrates one embodiment of the present invention for an interface environment for establishing a security situation and subsequent actions;
FIG. 5 is a view for explaining one embodiment of history data on a method status in which various information on a crime scene is utilized in connection with the method;
FIG. 6 is a block diagram showing a detailed configuration of the object information generating unit of the present invention shown in FIG. 1;
FIG. 7 is a block diagram showing a detailed configuration of the behavior pattern determining unit shown in FIG. 6;
FIG. 8 and FIG. 9 are flowcharts illustrating a detailed processing procedure of object detection according to a preferred embodiment of the present invention;
FIG. 10 is a flowchart illustrating a detailed process of object tracking according to an exemplary embodiment of the present invention.
FIG. 11 illustrates an embodiment of an image recognition area and a context recognition area according to the present invention.
12 is a view for explaining a characteristic of the HOG algorithm used for object detection,
13 is a view for defining six event information of an object according to an exemplary embodiment of the present invention;
14 is a view for explaining eight behavior pattern information according to a preferred embodiment of the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately It should be interpreted in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and are not intended to represent all of the technical ideas of the present invention. Therefore, various equivalents It should be understood that water and variations may be present.

도 1은 본 발명의 바람직한 일 실시예에 의한 지능형 방범 CCTV 시스템(이하 ‘방범시스템’이라 지칭한다)(1000)의 상세 구성을 도시한 블록도이다. 1 is a block diagram showing a detailed configuration of an intelligent crime prevention CCTV system (hereinafter referred to as a 'crime prevention system') 1000 according to a preferred embodiment of the present invention.

도 1에 도시된 바와 같이 본 발명의 방범시스템(1000)은 객체정보생성부(100), 기초정보저장부(210), 인터페이스부(220), 비허용패턴설정부(230), 방범영역설정부(300), 후속처리설정부(400), 구동제어부(500), 영상처리부(600),알람처리부(700) 및 영상제공부(800) 등을 포함하여 구성될 수 있다.1, the security system 1000 of the present invention includes an object information generation unit 100, a basic information storage unit 210, an interface unit 220, a non-permission pattern setting unit 230, An image processing unit 600, an alarm processing unit 700, and a video image processing unit 800. The image processing unit 800 may include an image processing unit 300, a subsequent process setting unit 400, a drive control unit 500,

본 발명의 상세한 설명에 앞서, 도 1에 도시된 본 발명의 방범시스템(100) 및 도 6, 7에 도시된 본 발명의 각 구성요소는 물리적으로 구분되는 구성요소라기보다는 논리적으로 구분되는 구성요소로 이해되어야 한다.Prior to the description of the present invention, the crime prevention system 100 of the present invention shown in FIG. 1 and the respective components of the present invention shown in FIGS. 6 and 7 are not physically separated constituent elements, .

즉, 각각의 구성은 본 발명의 기술 사상을 실현하기 위한 논리적인 구성요소에 해당하므로 각각의 구성요소가 통합 또는 분리되어 구성되더라도 본 발명의 논리 구성이 수행하는 기능이 실현될 수 있다면 본 발명의 범위 내에 있다고 해석되어야 하며, 동일 또는 유사한 기능을 수행하는 구성요소라면 그 명칭 상의 일치성 여부와는 무관히 본 발명의 범위 내에 있다고 해석되어야 함은 물론이다.That is, since each constitution corresponds to a logical constituent element for realizing the technical idea of the present invention, even if each constituent element is constituted integrally or separately, if the function performed by the logical constitution of the present invention can be realized, It is to be understood that any component that performs the same or similar function should be interpreted as falling within the scope of the present invention regardless of the consistency of the name.

도 1에 도시된 바와 같이 본 발명의 감시시스템(1000)은 시스템 장치, 서버 등의 하드웨어적 구성으로도 구현될 수 있음은 물론, 검지카메라(50), 줌카메라(추적카메라/고해상도 근접영상 카메라)(70) 등과 통신 가능하게 연결되는 장치 내지 시스템 등에 탑재되어 후술되는 본 발명의 프로세싱을 수행하는 소프트웨어의 형태로도 구현될 수 있음은 물론이다. As shown in FIG. 1, the monitoring system 1000 of the present invention can be implemented in a hardware configuration such as a system device, a server, or the like, as well as a sensing camera 50, a zoom camera (a tracking camera / ) 70 and the like, and may be embodied in the form of software for carrying out the processing of the present invention which will be described later.

본 발명의 감시시스템(1000)은 하나 또는 그 이상의 검지카메라(50)가 촬영한 영상 데이터를 로-데이터로(raw-data)하여 영상 데이터 내 관심의 대상이 되는 대상객체를 정확히 검지(detection)하고 검지된 객체의 이동, 거동 특성 등을 추적(tracking)하여 객체의 동선 데이터 내지 행동패턴정보를 생성하며, 이를 이용하여 대상객체(예비 범죄자 등)의 행위 내지 행동 패턴이 방범 상황이나 주의를 요하는 행위/행동인지 여부를 자동적으로 인지하고 인지된 상황에 따라 후속적인 프로세싱이 자동적으로 수행되도록 구현하는 시스템에 해당한다. The surveillance system 1000 of the present invention accurately detects the target object of interest in the image data by raw-data of the image data photographed by one or more detection cameras 50, And motion pattern of the object is tracked to generate motion data or behavior pattern information of the object, and the behavior or behavior pattern of the object (preliminary offender, etc.) And automatically performs subsequent processing according to the recognized situation.

이를 위하여 우선, 본 발명에 의한 방범시스템(1000)은 방범이 필요한 영역(장소)에 대한 정보, 해당 방범 영역에서 허용되지 않는 행위/행동에 대한 정보 및 해당 방범 영역에서 비허용 행동/행위가 검지되는 경우 그에 따라 수행되는 후속 프로세싱이 자동적으로 설정되거나 또는 인터페이스부(220)를 통한 관리자 클라이언트 등과의 인터페이싱을 통하여 설정되도록 구성된다. To this end, the crime prevention system 1000 according to the present invention includes information on an area (place) requiring crime prevention, information on an unacceptable behavior / action in the corresponding crime prevention area, and information on unacceptable behavior / The subsequent processing to be performed is automatically set up or is configured to be set through interfacing with an administrator client or the like via the interface unit 220. [

구체적으로 본 발명의 기초정보저장부(210)는 대상 객체의 행동/행위가 방범과 관련하여 주의를 요하는 행위인지 여부를 판단하기 위한 복수 개 기본행동패턴에 대한 정보가 저장된다.Specifically, the basic information storage unit 210 of the present invention stores information on a plurality of basic behavior patterns for determining whether a behavior / action of a target object is an action requiring attention in relation to a crime.

복수 개 기본행동패턴은 도 13 및 도 14를 참조하여 후술되는 바와 같이 객체의 동선(이동) 데이터와 상황인지영역의 경계와의 위치 관계를 이용하여 진입, 진출, 이동, 정지, 분리 및 결합에 대한 이벤트를 확인하고, 이들 이벤트들에 대한 시계열적 관계를 통하여 정의되는 침입(나타남), 사라짐(탈출), 멈춤, 경로통과, 유기, 제거, 금지방향이동 및 배회로 분류되는 8가지 행동패턴을 의미한다.The plurality of basic action patterns are used for entering, advancing, moving, stopping, separating, and combining using the positional relationship between the motion data of the object and the boundary of the context-aware area as described later with reference to Figs. 13 and 14 And 8 behavior patterns classified as intrusive (appearing), disappearing (escaping), pausing, passing through, organizing, eliminating, inhibiting direction movement, and roaming defined through a time series relationship between these events it means.

방범 영역에 대한 설정은 다양한 방법으로 이루어질 수 있는데, 사용자 지향적인 환경을 구현하기 위하여, 본 발명의 방범영역설정부(300)는 CCTV 등이 설치된 실내, 실외 중 복수 개의 구역(Area)을 구분하고, 도 4에 예시적으로 도시된 인터페이스 환경을 통하여 방범 대상이 되는 이 복수 개의 구역에 대한 정보를 관리자 클라이언트 등으로 제공하고(S200) 이를 통하여 방범의 대상이 되는 방범 영역에 대한 정보가 관리자 등의 선택에 의하여 설정(S210)되도록 구성될 수 있다.In order to implement a user-oriented environment, the crime prevention area setting unit 300 of the present invention divides a plurality of areas (indoor and outdoor) in which a CCTV is installed , Information on the plurality of zones to be a crime prevention target through an interface environment exemplarily shown in FIG. 4 is provided to an administrator client or the like (S200), and information on a crime prevention area to be crime-covered is provided to a manager And may be configured to be set by selection (S210).

또한, 본 발명의 비허용패턴설정부(230)는 도 4에 예시된 인터페이스 환경을 통하여 기초정보저장부(210)에 저장된 복수 개(바람직하게 위에서 예시된 8개)의 기본행동패턴을 제공하고, 해당 방범 영역에서 허용되지 않는 행위/행동/거동(이하 ‘행동’라 지칭한다), 주의를 요하는 행동 등으로서 모니터링의 대상이 되는 비허용행동패턴을 설정한다(S210).In addition, the unauthorized pattern setting unit 230 of the present invention provides a plurality of (preferably eight illustrated above) basic behavior patterns stored in the basic information storage unit 210 through the interface environment illustrated in FIG. 4 , An unacceptable behavior pattern to be monitored is set as an unacceptable behavior / behavior / behavior (hereinafter referred to as 'action') and an action requiring attention in the corresponding crime prevention area (S210).

이와 같은 구성을 통하여 해당 구역/영역(area, section 등)의 중요도, 출입 빈도수, 침입자가 나타난 횟수, 보완 등급 등에 따라 차등적인 방범 모니터링이 가능할 수 있게 된다.Through such a configuration, it becomes possible to perform security monitoring differently according to the importance of the area / area (area, section, etc.), the frequency of access, the number of times the intruder appears, and the complementary grade.

이와 같이 방범 영역 및 해당 방범 영역에서의 비허용행동패턴이 실정되면, 본 발명의 후속처리설정부(400)는 도 4의 인터페이스 환경 등을 통하여 각각의 비허용행동패턴이 발생하는 경우 후속하여 구동되는 후속 프로세싱이 설정되도록 제어한다(S210).When the unauthorized action pattern is generated in the crime prevention area and the corresponding crime prevention area as described above, the subsequent process setting unit 400 of the present invention performs the following process when each unauthorized action pattern occurs through the interface environment, So that the subsequent processing is set (S210).

도 4에 예시된 바와 같이 각 행동별 후속 프로세싱은 줌카케라(70)에 의한 근거리 영상(줌 영상/고화질 영상) 촬영, 근거리 영상 저장, 경광등(71) 구동, 스피커(75) 등의 오디오 출력수단을 통하여 경고(계도) 멘트 방송, 디스플레이 수단(전광판)(77)을 통한 시각적 경고 방송, 관리자 단말로 SMS/MMS 전송, 관리자 비상 콜, 경찰서 긴급 콜, 사이렌(73) 구동 중 하나 이상의 조합적 선택에 의하여 설정될 수 있다.As illustrated in FIG. 4, the following processing for each action is performed by an audio output means such as a near-field image (zoom image / high-resolution image) photographing by a zoom camera 70, a near field image storage, a warning light 71 driving, A visual warning broadcast through a display means 77, an SMS / MMS transmission to an administrator terminal, a manager emergency call, a police emergency call, and a siren 73, Lt; / RTI >

도 4에 도시된 인터페이스는 방범 영역이 Area 3(연구소)인 경우, 대상객체로 사람이 설정되고, 침입, 유기 및 금지된 방향이동에 대한 행동패턴이 비허용행동패턴으로 설정되며, 이들 비허용행동패턴이 이루어지는 경우 그 후속 프로세싱으로 근거리 영상 촬영 및 저장, 경광등 구동, 관리자 단말로 알람 정보 전송이 설정된 경우를 예시하고 있다.4, a person is set as a target object when the crime prevention area is Area 3 (research center), a behavior pattern for intrusion, organic and forbidden direction movement is set to an unacceptable behavior pattern, When a behavior pattern is formed, the near-end imaging and storage, the driving of the beep light, and the alarm information transmission to the administrator terminal are set in the subsequent processing.

이와 같이 복합적으로 유형화된 인터페이스 환경을 통하여 방법 대상 영역, 행동패턴(허용/비허용) 및 비허용행동패턴에 따른 후속 프로세싱에 대한 일련의 세팅 과정이 더욱 사용자 지향적인 자동화된 환경을 통하여 구현될 수 있게 된다.Through such a complex typed interface environment, a series of setting processes for subsequent processing according to method area, behavior pattern (allowed / not allowed) and unacceptable behavior pattern can be implemented through a more user-oriented automated environment .

이와 같이 방법 상황에 대한 설정(S210)이 완료되면, 본 발명의 객체정보설정부(100)는 검지카메라(50)의 영상 데이터를 이용하여 검지된 대상객체의 동선 데이터를 생성하고 상기 동선 데이터와 앞서 설명된 방범 영역과의 위치 관계를 이용하여 상기 대상 객체의 행동패턴정보를 생성한다(S220).When the setting of the method status (S210) is completed, the object information setting unit 100 of the present invention generates the copper line data of the detected object using the video data of the detection camera 50, The action pattern information of the target object is generated using the positional relationship with the crime prevention area described above (S220).

객체의 검지, 추적, 행동패턴 결정 등을 포함한 객체정보설정부(100)에 대한 상세한 설명은 후술하도록 하며, 이하에서는 객체정보설정부(100)의 기본적인 기능과 구성에 대한 내용을 설명한다. A detailed description of the object information setting unit 100 including the detection, tracking, and pattern determination of the object will be described later. In the following, the basic functions and configuration of the object information setting unit 100 will be described.

본 발명의 객체정보설정부(100)는 검지카메라(50)로부터 영상 데이터가 수신되면 영상 데이터를 파싱(parsing) 내지 분석하여 영상 데이터 내 관심의 대상이 되는 객체(object)인 대상 객체를 검지한다(S221).The object information setting unit 100 of the present invention detects the target object that is an object of interest in the image data by parsing or analyzing the image data when the image data is received from the detection camera 50 (S221).

관심의 대상이 되는 객체(object)는 관심의 목표 내지 그 대상을 의미하는 것으로서 사람, 동물, 차량 등이 그 예가 될 수 있다. 영상 데이터에서 객체를 추출하는 방법은 이진화, 라벨링 프로세싱, 에지 검출 등의 방법을 포함하여 후술되는 바와 같이 영상 차분 알고리즘, 옵티컬 프로우(Optical flow) 알고리즘, 모델 정합 알고리즘 등 다양한 방법이 적용될 수 있다. An object of interest is an object of interest or an object of interest, such as a person, an animal, or a vehicle. Various methods such as an image difference algorithm, an optical flow algorithm, and a model matching algorithm may be applied as methods for extracting objects from image data, including binarization, labeling processing, and edge detection.

객체의 검지 결과의 표현 방법에는 최소인접 사각형 내지 최소포함사각형으로 지칭되는 엠이알(MER, Minimum Enclosing Rectangle)을 이용하게 되는데 구체적으로 사람, 차량, 동물 등과 같은 객체의 특성에 따라 MER의 너비, 높이, 중심점 좌표, 밀도정보, 너비/높이간 비율 정보 등을 정의하고 정의된 MER과 영상 데이터 내 포함된 객체의 너비, 높이 등의 특성을 상호 대비하여 특정 관심 대상인 객체를 검지/구분하는 방법이 이용될 수 있다.The method of representing the detection result of the object uses a minimum enclosing rectangle (MER), which is referred to as a minimum adjacent rectangle or a minimum containing rectangle. Specifically, the width of the MER, Height, center point coordinates, density information, and width / height ratio information, and a method of detecting / distinguishing a specific object of interest by comparing the characteristics of the MER and the width and height of the object included in the image data Can be used.

이와 같이 대상객체의 검지(detection)이 완료되면, 검지된 객체를 추적하는 프로세싱(S222)이 진행된다. 검지된 객체의 추적(tracking)은 검지된 객체가 어떠한 방향성으로 어떤 경로로 이동하는지에 대한 객체의 경로 데이터, 거동 특성 정보 내지 행동패턴정보를 생성하는 과정에 해당한다.When the detection of the target object is completed, processing for tracking the detected object (S222) proceeds. Tracking of the detected object corresponds to the process of generating path data, behavioral characteristic information, and behavioral pattern information of the object as to which direction the detected object moves to.

객체의 추적이 완료되면 생성된 객체의 동선데이터와 기 설정된 상황인지영역의 상호 위치 관계를 이용하여 객체의 행동패턴정보를 생성한다(S223). When tracking of the object is completed, the behavior pattern information of the object is generated using the mutual positional relationship between the movement data of the created object and the predetermined context-aware area (S223).

이 과정과 관련하여 도 11의 (a)와 같이 카메라(50)가 생성하는 영역인 영상생성영역에서 휴먼(human) 객체 등을 감시할 필요가 없는 영역(사람, 차량 등이 다닐 수 없는 영역 등)을 제외함으로써 연산량을 축소할 필요가 있는데, 이와 같이 영상생성영역에서 객체의 감지가 요구되지 않는 영역을 배제한 영역이 영상처리영역(도 11 (a))이 된다.As shown in FIG. 11 (a), in the image generation area, which is an area generated by the camera 50, an area that does not need to monitor a human object or the like It is necessary to reduce the amount of computation by excluding the region in which the detection of the object is not required in the image generation region, as shown in Fig. 11 (a).

나아가 이 영상처리영역에 포함되는 영역으로서 사용자의 개입 없이 시스템(장치)가 자동으로 상황을 인지하는 것을 목적으로 설정되는 영역이 상황인지영역(도 11의 (b))이 된다. Furthermore, the area set for the purpose of automatically recognizing the situation of the system (apparatus) as the area included in the image processing area becomes the situation recognition area (FIG. 11 (b)) without user intervention.

상황인지영역이 설정되면 상황인지영역(영상생성영역)의 경계(아웃라인), 중심점 좌표 등의 위치좌표가 생성되며, 이 상황인지영역의 위치좌표를 기준으로 객체의 동선 데이터 내지 각 시간별 객체의 중심점 좌표 정보를 이 상황인지영역의 위치좌표와 대비하여 객체의 거동 특성 내지 행동패턴에 대한 정보가 생성된다.When the situation recognition area is set, position coordinates such as the boundary (outline) and center point coordinates of the situation recognition area (image generation area) are generated. Based on the position coordinates of the situation recognition area, The center point coordinate information is compared with the position coordinates of the situation aware area to generate information on the behavior characteristics or behavior patterns of the object.

이와 같이 대상객체에 대한 행동패턴정보가 생성되면, 본 발명의 구동제어부(500)는 상기 생성된 행동패턴정보가 앞서 미리 설정된 비허용행동패턴에 해당하는지 여부를 판단하고(S230) 대상 객체의 행동(행동패턴정보)이 비허용행동(비허용행동패턴)에 해당하는 경우 해당 비허용행동패턴에 따라 차등적으로 설정된 하나 이상의 후속 프로세싱이 구동되도록 제어한다(S240). When the action pattern information for the target object is generated as described above, the drive control unit 500 of the present invention determines whether the generated action pattern information corresponds to the previously set unauthorized action pattern (S230) (Behavior pattern information) corresponds to the unacceptable behavior (unacceptable behavior pattern), control is performed such that at least one subsequent processing set differentially according to the unacceptable behavior pattern is driven (S240).

일예로, 대상객체의 현재 행동패턴정보가 비허용행동패턴에 해당하는 경우 본 발명의 구동제어부(500)는 소정의 위치에 설치된 추적카메라(70)의 PTZF(Pan, Tilt, Zoom, Focal length) 등을 제어하여 대상 객체에 대한 고해상도 줌 영상(근거리 영상데이터)이 촬영되도록 하여 향후 침입자 등에 대한 증거 확보가 더욱 명확하게 이루어지도록 구성할 수 있다. For example, if the current behavior pattern information of the target object corresponds to the unacceptable behavior pattern, the drive control unit 500 of the present invention can detect the PTZF (Pan, Tilt, Zoom, Focal length) of the tracking camera 70 installed at a predetermined position, And so on, so that high-resolution zoom images (near vision image data) of the target object can be photographed so that evidence for the intruder can be obtained more clearly in the future.

이와 관련하여, 도 3에 도시된 바와 같이 본 발명은 해당 건물이나 영역 등에 출입이 허용된 사용자(직원 등)의 얼굴이 수록된 영상데이터인 기준영상 데이터가 저장된 기준영상DB부(610)와 추적카메라(70)으로부터 전송된 대상객체의 근거리 영상데이터가 상기 기준영상데이터에 해당하는 않는 경우에 한해 상기 대상객체의 근거리영상데이터 또는 검지카메라(50)의 영상 데이터를 저장하는 영상처리부(600)를 더 포함할 수 있다. In this regard, as shown in FIG. 3, the present invention includes a reference image DB unit 610 in which reference image data, which is image data containing a face of a user (employee, etc.) (600) for storing the near field image data of the target object or the image data of the detection camera (50) only when the near field image data of the target object transmitted from the controller (70) does not correspond to the reference image data .

이와 같은 본 발명의 구성을 통하여 실제 비허용된 행동이 검출되어 (S310) 해당 대상 객체에 대한 근거리 영상 데이터가 촬영(S320)되더라도 촬영된 근거리 영상 데이터와 출입이 허용된 자의 영상(기준영상데이터)의 파싱/분석을 통하여 대상 객체가 출입이 허용되지 않은 자인 경우에 한해(S330) 영상데이터를 저장(S340)하도록 하여 비허용행동패턴의 행위 주체가 출입 등이 허용된 자에 해당하는 경우를 효과적으로 필터링할 수 있어 데이터 처리, 데이터 저장 등의 효율성을 더욱 높일 수 있게 된다. Although the actual unaccepted behavior is detected (S310), even if the near vision image data for the target object is captured (S320), the captured near vision image data and the image of the allowed person (reference image data) (S330) only when the target object is a person who is not permitted to enter or leave through the parsing / analysis of the unauthorized action pattern (S340), the case in which the subject of the unauthorized action pattern corresponds to the person allowed to access And the efficiency of data processing, data storage, and the like can be further enhanced.

실시형태에 따라서 출입이 허용된 자와 출입이 허용되지 않는 자 모두를 각각 구분하여 데이터를 저장하여 데이터 분석과 데이터 처리의 효율성을 모두 향상시킬 수 있도록 구성할 수 있음은 물론이다. It is needless to say that the present invention can be configured such that the efficiency of the data analysis and the data processing can be improved by storing the data separately for both the user who is permitted to enter and the user who is not allowed to enter the apparatus according to the embodiment.

이와 관련하여 대상 객체가 누구인지 명확히 확인할 수 있는 주체정보(대상객체)에 대한 근거리 영상데이터, 해당 대상 객체의 동선에 관련된 영상데이터(검지카메라(50)가 촬영한 영상데이터), 대상 객체의 비허용행동패턴에 대한 시계열적 정보가 상호 연계된 형태의 이력 데이터가 저장되도록 구성하는 것이 더욱 바람직하다. In this case, the local image data for the subject information (target object), the image data related to the copper line of the target object (the image data photographed by the detection camera 50), the ratio of the target object It is more preferable that the history data of the form in which the time series information of the allowable behavior pattern is correlated with each other is stored.

더욱 바람직하게, 본 발명의 패킷저장부(710)는 주체정보 영역, 장소정보 영역, 시간정보 영역 및 행위정보 영역을 포함하는 기초 알람데이터 패킷을 저장하도록 구성될 수 있다. 이 기초 알람데이터 패킷(packet) 내지 기초 알람데이터 셋(set)은 미리 정해진 스펙에 따른 데이터 포맷(format)의 일종에 해당한다.More preferably, the packet storage unit 710 of the present invention can be configured to store a basic alarm data packet including a subject information area, a place information area, a time information area, and a behavior information area. The basic alarm data packet (packet) to the basic alarm data set (set) corresponds to a kind of data format according to a predetermined specification.

이와 같이 기초 알람 데이터 패킷이 설정되면, 본 발명의 알람처리부(700)는 앞서 설명된 프로세싱에 의하여 설정되거나 확인되는 정보들을 블랭크(blank)로 이루어진 이 기초 알람 데이터 패킷의 각 정보 영역에 삽입하는 간단한 방식으로 방범 상황에 대한 이력 데이터를 효과적으로 생성 및 저장하고 관리할 수 있게 된다. When the basic alarm data packet is set as described above, the alarm processing unit 700 of the present invention is configured to perform a simple operation of inserting information set or confirmed by the above-described processing into each information area of the basic alarm data packet made of a blank It is possible to effectively generate, store and manage the history data on the crime scene.

구체적으로 본 발명의 알람처리부(700)는 도 5에 예시된 바와 같이 블랭크(blank)로 설정된 주체 영역에 대상 객체에 대한 영상데이터를 삽입 내지 수록하고, 장소 정보 영역에는 방범 영역으로 설정된 정보를 삽입하며, 시간 정보 영역에는 비허용행동패턴이 이루어진 시간정보를 수록하고, 행위정보 영역에는 시계열적으로 이루어지는 하나 이상의 비허용행동패턴 정보를 수록할 수 있다.Specifically, the alarm processing unit 700 of the present invention inserts or records video data for a target object in a subject area set as a blank as illustrated in FIG. 5, and inserts information set as a security area in a place information area The time information area includes time information in which an unacceptable behavior pattern is formed, and the behavior information area may include one or more unacceptable behavior pattern information in a time series.

이와 같이 방범 상황마다 개별적인 데이터 셋을 생성함으로써, 방범 상황에 대한 이력 데이터를 효과적으로 관리할 수 있음은 물론, 후속적으로 이루어질 수 있는 증거 확인 과정의 효율성을 극대화할 수 있게 된다.By generating individual data sets for each crime scene, it is possible to effectively manage the history data on the crime scene and to maximize the efficiency of the subsequent evidence check process.

각 정보 영역마다 적절한 구문 체계(조사, 서술어 등)가 부여되도록 하여 알람 데이터 패킷을 생성하고 이를 관리자 단말 또는 경찰서 등의 통신망 등으로 MMS/SMS에 의하여 전송되도록 구성하는 경우 사용자 인터페이싱을 더욱 효과적으로 구현할 수 있다.When an alarm data packet is generated so that an appropriate syntax scheme (investigation, predicate, etc.) is given to each information area, and is configured to be transmitted by MMS / SMS via a communication network such as an administrator terminal or a police station, user interfacing can be implemented more effectively have.

이와 같이 생성된 알람데이터 패킷은 TTS(text to speech) 엔진을 이용하여 오디오 데이터로 전환되도록 구성할 수 있는데, 이와 같이 오디오 데이터로 전환되어 활용하며 침입자 등이 위치한 장소에 설치된 음성출력수단(75)을 통한 계도 방송이나 관리자 단말 또는 경찰서 통신단말과의 긴급 콜(emergency call)에 이용될 수 있다.The alarm data packet thus generated can be configured to be converted into audio data using a text to speech (TTS) engine. The audio output means 75, which is installed in a place where the intruder is located, And can be used for an emergency call with an administrator terminal or a police station communication terminal.

또한, 본 발명의 영상처리부(600)는 상술된 방법에 의하여 생성된 행동패턴정보가 비허용행동패턴에 해당하는 경우 대상객체에 대한 영상 데이터(검지카메라가 촬영한 영상 데이터 및/또는 추적 카메라가 촬영한 영상데이터)를 저장하되, 해당하는 비허용행동패턴에 대한 태그 정보(tag information)가 이 영상 데이터에 연계되어 저장하도록 구성될 수 있다.In addition, when the behavior pattern information generated by the above-described method corresponds to the unacceptable behavior pattern, the image processing unit 600 of the present invention may store the image data (the image data photographed by the sensing camera and / And the tag information for the corresponding unacceptable behavior pattern is stored in association with the image data.

이와 같이 대상 객체에 대한 영상 데이터가 해당하는 비허용행동패턴을 표상하는 태그 정보와 함께 저장되면 본 발명의 영상제공부(800)는 관리자 클라이언트 등으로부터 비허용행동패턴에 대한 정보가 포함된 영상요청신호가 입력되면, 해당하는 비허용행동패턴에 따라 분류화된 영상 데이터를 더욱 용이하고 정확하게 선별하고 제공하여 정보 확인의 후속적인 효율성을 더욱 향상시킬 수 있게 된다. When the image data of the target object is stored together with the tag information representing the corresponding unacceptable behavior pattern, the imaging system 800 of the present invention transmits the image request signal including information on the unacceptable behavior pattern, It is possible to more easily and accurately select and provide the classified image data according to the corresponding unacceptable behavior pattern, thereby further improving the subsequent efficiency of the information confirmation.

이하에서는 첨부된 도 6 내지 도 9 등을 참조하여 객체 검지, 객체 추적 및 객체의 행동패턴정보 생성 등을 수행하는 본 발명의 객체정보생성부(100)에 대한 구성과 프로세싱을 상세히 설명하도록 한다. 도 6은 도 1에 도시된 본 발명(1000)의 객체정보 생성부(100)에 대한 상세 구성을 도시한 블록도이며, 도 8 및 도 9는 본 발명의 바람직한 실시예에 의한 객체 검지에 대한 상세 프로세싱 과정을 도시한 흐름도이다. Hereinafter, the configuration and processing of the object information generation unit 100 of the present invention for performing object detection, object tracking, and behavior pattern information generation of an object, etc. will be described in detail with reference to FIGS. 6 to 9 attached hereto. FIG. 6 is a block diagram showing a detailed configuration of the object information generating unit 100 of the present invention 1000 shown in FIG. 1. FIG. 8 and FIG. 9 are diagrams for explaining the object detecting method according to a preferred embodiment of the present invention. Fig. 3 is a flowchart showing a detailed processing procedure. Fig.

도 6에 도시된 바와 같이 본 발명의 감시시스템(1000)의 일 구성을 이루는 객체정보생성부(100)는 수신부(110), 제1검지부(130), 제2검지부(140), 검지판단부(150), 트래킹부(170) 및 행동패턴결정부(190)를 포함하여 구성될 수 있다.6, the object information generating unit 100 includes a receiving unit 110, a first detecting unit 130, a second detecting unit 140, a detection determining unit 140, (150), a tracking unit (170), and a behavior pattern determination unit (190).

우선 본 발명의 수신부(110)는 도 6에 도시된 바와 같이 n개의 검지카메라(50-1, 50-2, ...... , 50-n)로부터 각 검지카메라(50)가 촬영한 영상 데이터를 유선 또는 무선 통신 네트워크를 통하여 수신한다(S400). First, as shown in FIG. 6, the receiving unit 110 of the present invention is a receiving unit 110 that receives signals from n detection cameras 50-1, 50-2, ..., 50- The video data is received through a wired or wireless communication network (S400).

객체정보생성부(100)는 객체 자체의 검지 및 추적에 포커싱되어 있으므로 상기 검지카메라(50)는 국지영역의 영상이 촬영되는 일종의 줌 카메라보다는 원거리의 영역이 촬영될 수 있도록 화각(view angle)이 넓은 카메라가 적합할 수 있으며 또한, 전방위 영역의 영상이 촬영될 수 있도록 검지카메라(50)는 각 방향별 영상을 생성하는 복수 개로 구현되는 것이 바람직하다.Since the object information generating unit 100 is focused on the detection and tracking of the object itself, the detection camera 50 can detect a view angle such that a remote area can be photographed rather than a kind of zoom camera, It is preferable that a wide camera is suitable and that the detection camera 50 is implemented as a plurality of images for each direction so that the image of the omnidirectional region can be captured.

실시형태에 따라서 전방위 영역이 아닌 단일 또는 특정 방향을 커버하는 복수 개 카메라가 생성하는 특정 영역의 영상데이터가 이용될 수 있음은 물론이다.It is needless to say that image data of a specific area generated by a plurality of cameras covering a single or specific direction other than the omnidirectional area may be used according to the embodiment.

이와 같이 검지카메라(50)가 영상데이터를 전송하면 본 발명의 제1검지부(130)는 상기 전송된 영상데이터를 대상으로 외부 환경 노이즈에 강인한 차분 영상 검지 알고리즘을 적용하여 영상 데이터 내 객체(object)를 검하고 검지된 객체의 제1후보MER정보를 생성한다(S420).If the sensing camera 50 transmits the image data in this way, the first sensing unit 130 of the present invention applies the differential image sensing algorithm robust to the external environmental noise to the transmitted image data, And generates first candidate MER information of the detected object (S420).

본 발명의 제2검지부(140)는 제1검지부(130)의 프로세싱과는 독립적으로 상기 전송된 영상 데이터를 대상으로 옵티컬 플로우(Optical flow) 알고리즘을 적용하여 객체를 검지하고 검지된 객체에 대한 제2후보MER정보를 생성한다(S430).The second detection unit 140 detects an object by applying an optical flow algorithm to the transmitted image data independently of the processing of the first detection unit 130, 2 candidate MER information (S430).

앞서 언급된 바와 같이 MER정보는 객체가 포함되는 최소 사각 영역에 대한 정보로서, 너비(width), 높이(height), 중심점 좌표(a, b), 밀도정보(전체 너비 대비 객체의 구성화소수 함의(含意) 비율), 너비/높이 비율정보 등으로 이루어진 데이터 셋(set)을 의미한다.As mentioned above, the MER information is information on the minimum rectangular area in which the object is included, and includes width, height, center point coordinates (a, b), density information (Implication) ratio), width / height ratio information, and the like.

하나의 영상 데이터에 객체가 복수 개로 존재할 수 있음은 물론이며, 각 알고리즘마다 영상 데이터에서 객체로 추정되는 대상이 복수 개 존재할 수 있으므로 상기 제1후보MER정보 또는 제2후보MER정보 각각은 복수 개의 MER에 대한 정보들에 관한 데이터 셋들의 집합체일 수 있다.Since there may be a plurality of objects in one image data and a plurality of objects estimated as objects in the image data may exist for each algorithm, the first candidate MER information or the second candidate MER information may include a plurality of MERs Lt; / RTI > may be a collection of datasets related to information about < RTI ID = 0.0 >

이 때, 더욱 확대된 영역에서 객체를 더욱 효과적으로 검출하기 위하여 복수 개의 검지카메라(50)로부터 복수 개의 영상데이터가 입력되는 경우 본 발명의 전경영상부(120)는 입력된 복수 개의 영상 데이터를 머징(merging)하여 파노라마(panorama) 영상 데이터를 생성(S405)하도록 구성될 수 있다.In this case, when a plurality of image data are input from the plurality of detection cameras 50 in order to more effectively detect an object in a further enlarged area, the foreground image unit 120 of the present invention merges merged to generate panorama image data (S405).

나아가 앞서 기술된 바와 같이 영상처리의 효율성을 높이기 위하여 카메라(50)가 생성한 영상데이터 중 객체가 이동할 수 있는 영역 즉 객체 검지가 가능한 영역을 고려하여 영상데이터를 축소시키는 프로세싱(S410)이 추가적으로 수행될 수 있다.In order to improve the efficiency of the image processing as described above, the image data generated by the camera 50 may be moved (S410) to reduce the image data in consideration of the area where the object can move .

이와 같이 파노라마 영상 데이터가 생성되면 본 발명의 제1검지부(130) 및 제2검지부(140)는 상기 파노라마 영상 데이터를 대상으로 각각 제1 및 제2후보MER정보를 생성한다.When the panoramic image data is generated as described above, the first detection unit 130 and the second detection unit 140 of the present invention generate first and second candidate MER information for the panorama image data, respectively.

객체를 검지하는 알고리즘은 그 방법의 차이에 따라 크게 (1) 영상들 사이의 관계를 이용하는 영상 차분 알고리즘 (2) 이전영상과 현재영상 사이의 optical flow 속도 벡터를 연산하여 이용하는 옵티컬 플로우 알고리즘 (3) 특징점 정보를 이용하거나 또는 설정된 탐색 영역 내 화소 간의 방향 패턴을 비교하는 방법 등과 같이 검지를 위한 모델을 생성하고 활용하는 모델정합방법으로 구분할 수 있다.(2) an optical flow algorithm that computes an optical flow velocity vector between a previous image and a current image, and (3) And a method of using a minutiae point information or a method of comparing a direction pattern between pixels in a set search area, and a model matching method of generating and utilizing a model for detection.

영상 차분 알고리즘은 배경 영상 차분 알고리즘, 이전 영상 차분 알고리즘 또는 외부환경의 노이즈 변화에 적응적 배경 영상 차분 알고리즘으로 세분화될 수 있으며, 옵티컬 플로우 알고리즘은 혼 앤 청크(horn & Schunk) 알고리즘, 블록 매칭(Block Matching) 알고리즘, 루카스 앤 카나드(Lucas & Kanade) 알고리즘 또는 피라미드 루카스 앤 카나드(Pyramid Lucas & Kanade) 알고리즘으로 세분화될 수 있다.The image difference algorithm can be subdivided into a background image difference algorithm, a previous image difference algorithm, or an adaptive background image difference algorithm to the noise change of the external environment. The optical flow algorithm includes a horn & Schunk algorithm, a block matching Matching algorithm, the Lucas & Kanade algorithm, or the Pyramid Lucas & Kanade algorithm.

모델정합방법은 쉬프트(Shift) 알고리즘, 서프(Surf) 알고리즘 또는 호그(HOG, Histogram of Oriented Gradient) 알고리즘으로 세분화될 수 있다.The model matching method can be subdivided into a shift algorithm, a Surf algorithm, or a Histogram (Hogg of Oriented Gradient) algorithm.

이들 방법들은 각각 특화된 환경과 파라미터에 최적화되도록 설계되어 있어 하드웨어 리소스 사용량, 연산 속도, 논리구현 용이성, 노이즈 제거 성능, 급격한 환경 변화 적응성, 정지객체/동적객체 검지 가능성, 카메라 자체가 이동하는 경우, 구름에 의한 갑작스런 해가림 현상, 조명환경의 급격한 변화, 그림자 영향 등에 따라 각 방법들은 검지 성능의 편차가 상당히 크게 작용되고 있다.These methods are designed to be optimized for each specific environment and parameters, and thus can be used for various purposes such as hardware resource usage, computation speed, ease of logic implementation, noise removal performance, rapid environmental change adaptability, , There is a considerable variation in the detection performance of each method depending on the sudden change of the illumination environment, the sudden change of the illumination environment, and the shadow effect.

본 발명은 이러한 종래 검지 기법의 단점과 장점이 최적화될 수 있도록 검지 알고리즘을 하이브리드화하여 구성하고 상호 유기적으로 결합되도록 구성함으로써 검지 효율성을 극대화할 수 있도록 구성된다.The present invention is configured to maximize detection efficiency by configuring the detection algorithms to be hybridized so as to optimize the disadvantages and advantages of such conventional detection techniques and to organically combine them.

이를 위하여 본 발명의 상기 제1검지부(130)와 제2검지부(140)는 서로 다른 범주에 해당하는 검지 알고리즘을 각각 적용하도록 구성되는데, 우선 객체 검출의 가능성을 높이기 위하여 일차적으로 차분 영상 검지 알고리즘 즉, 외부 환경 노이즈에 강인한 차분 영상 검지 알고리즘을 이용한 제1후보MER정보와 옵티컬 플로우 알고리즘을 이용한 제2후보MER정보를 각각 생성하도록 구성된다.For this purpose, the first and second detection units 130 and 140 of the present invention are adapted to apply detection algorithms corresponding to different categories, respectively. First, in order to increase the probability of object detection, a difference image detection algorithm And generate first candidate MER information using a difference image detection algorithm robust against external environment noise and second candidate MER information using an optical flow algorithm, respectively.

구체적으로 본 발명의 제1검지부(130)는 일정시간 동안 누적된 통계적 영상을 이용하여 매 프레임마다 배경 영상을 갱신/생성하는 프로세싱(S421)을 수행한 후, 갱신/생성되는 배경 영상과 현재 영상을 차분하는 프로세싱(S423)을 통하여 하나 이상의 제1후보MER정보를 생성한다(S425).Specifically, the first detection unit 130 of the present invention performs processing S421 of updating / generating a background image every frame using statistical images accumulated for a predetermined time, And generates at least one first candidate MER information through processing (S423).

본 발명의 제2검지부(140)는 카메라와 객체의 상대적인 움직임에 의하여 발생되는 차이에 기반하여 두 영상(이전 영상과 현재 영상) 사이의 옵티컬 플로우(Optical flow) 속도 벡터를 계산한다. The second detection unit 140 calculates an optical flow velocity vector between the two images (the previous image and the current image) based on the difference caused by the relative movement of the camera and the object.

구체적으로 본 발명의 제2검지부(140)는 영상 차분 알고리즘과 구분되는 옵티컬 플로우 알고리즘을 프로세싱하여 객체를 검지하되, 객체 검지의 확률과 효율성을 향상시키기 위하여 옵티컬 플로우 알고리즘 중 스케일에 따른 영상 피라미드를 구성하고 윈도우 정합 방법으로 이전 영상과 현재 영상 사이의 Optical flow 속도 벡터를 연산하는 알고리즘인 피라미드 루카스 앤 카나드 알고리즘을 프로세싱하고(S431) 이를 이용하여 하나 이상의 제2후보MER정보를 생성하도록(S433) 구성될 수 있다.Specifically, the second detection unit 140 detects an object by processing an optical flow algorithm distinguished from the image difference algorithm. In order to improve the probability and efficiency of object detection, the second detection unit 140 constructs an image pyramid according to the scale of the optical flow algorithm A pyramid Lucas and Canard algorithm, which is an algorithm for calculating an optical flow velocity vector between a previous image and a current image, is processed (S431) and one or more second candidate MER information is generated using the window matching method (S433) .

이와 같이 서로 다른 즉, 이원화된 알고리즘을 적용하여 일차적으로 제1후보MER정보 및 제2후보MER정보가 생성되면, 본 발명의 검지판단부(150)는 상기 제1 및 제2후보MER정보를 대상으로 객체 추적에 대한 제3의 알고리즘인 호그 알고리즘을 적용하여 객체의 최종MER정보를 생성한다(S440).When the first candidate MER information and the second candidate MER information are generated by applying the different or biased algorithm in this way, the detection determination unit 150 of the present invention determines the first candidate MER information and the second candidate MER information The final MER information of the object is generated by applying a hog algorithm, which is a third algorithm for object tracking (S440).

구체적으로 본 발명의 검지판단부(150)는 상기 제1후보MER정보에 속하는 하나 이상의 MER정보들과 제2후보MER정보에 속하는 하나 이상의 MER정보들 중 상호 위치적으로 대응되는 즉, 상호 위치적 편차가 기준 편차보다 낮은 MER정보를 선별하고 이 선별된 MER정보로만 이루어진 하이브리드 영역을 산출한다(S441).Specifically, the detection determination unit 150 of the present invention determines whether or not one or more MER information items belonging to the first candidate MER information item and one or more MER information items belonging to the second candidate MER information item, The MER information in which the deviation is lower than the reference deviation is selected and a hybrid area composed of only the selected MER information is calculated (S441).

이와 같이 하이브리드 영역이 산출되면 본 발명의 검지판단부(150)는 이 하이브리드 영역을 대상으로 호그(HOG) 알고리즘 프로세싱을 수행하여(S443) 객체의 최종MER정보를 생성한다(S445).When the hybrid region is calculated as described above, the detection determination unit 150 of the present invention performs HOG algorithm processing on the hybrid region (S443) and generates final MER information of the object (S445).

호그 연산은 도 12에 도시된 바와 같이 영상을 블록(Block)으로 분할하고 다시 블록을 셀(Cell)로 분할한 후, 각 셀의 특징 벡터에 대한 히스토그램을 사용하는 방법으로서 탐색영역을 이동시키며 탐색영역 안의 화소 간의 방향 패턴을 계산하여 객체를 검지하는 방법이므로 이와 같이 탐색 영역이 하이브리드 영역으로 한정됨으로써 연산 효율성을 더욱 향상시킬 수 있게 된다.12, a hog operation is performed by dividing an image into blocks, dividing a block into cells, and then using a histogram of feature vectors of each cell, Since the method of detecting an object by calculating a direction pattern between pixels in the area, the search area is limited to the hybrid area, and the calculation efficiency can be further improved.

이와 같이 최종MER정보가 생성되면 해당 최종 MER의 특성(너비, 높이, 중심점 좌표, 밀도, 너비/높이 비율 등)을 미리 정해진 특성 정보와 대비하여 객체에 대한 최종MER정보가 휴먼(human)객체인지 판단하고(S450), 그 결과에 따라 최종MER에 해당하는 객체를 사람(S460) 또는 다른 특정물(차량, 동물, 가방 등)로 분류한다(S470).When the final MER information is generated, the final MER information about the object is compared with the predetermined characteristic information (width, height, center point coordinate, density, width / height ratio, etc.) (S450). The object corresponding to the final MER is classified into a person (S460) or another specific object (vehicle, animal, bag, etc.) according to the result (S470).

외부 환경에 의한 노이즈를 더욱 효과적으로 필터링하여 객체 검지의 신뢰성을 더욱 향상시키기 위하여 실시형태에 따라서, 도 9에 도시된 바와 같이 본 발명의 제2검지부(140)는 외부 환경 노이즈 요인을 판단하고(S431) 발생된 외부 환경 노이즈가 검지 카메라의 흔들림에 의하여 발생된 것인지 여부를 판단한다(S432).In order to further improve the reliability of object detection by more effectively filtering the noise due to the external environment, the second detection unit 140 of the present invention determines an external environmental noise factor as shown in FIG. 9 according to the embodiment (S431 It is determined whether the generated external environmental noise is caused by the shaking of the detection camera (S432).

검지 카메라 자체의 흔들림 등이 발생되는 경우 차분 영상 검지 알고리즘은 정확한 MER정보를 생성하기가 상대적으로 어려우므로 이 경우에는 객체의 제1후보MER정보와 객체의 제2후보MER정보 중 검지 카메라의 흔들림에 의한 영향이 상대적으로 적은 옵티컬 플로우 알고리즘에 의하여 생성된 제2후보MER정보만을 대상으로 후보 영영이 산출(S434)되도록 구성하는 것이 바람직하다. In this case, the first candidate MER information of the object and the second candidate MER information of the object are used as the difference between the detection camera shake and the second candidate MER information because the difference image detection algorithm is relatively difficult to generate accurate MER information. It is preferable that candidate candidates are calculated (S434) only for the second candidate MER information generated by the optical flow algorithm having a relatively small influence due to the influence of the second candidate MER information.

반면, 검지 카메라의 흔들림 등에 의한 외부 환경 노이즈가 아닌 경우에는 전술된 바와 같이 제1후보MER정보 및 제2후보MER정보를 대상으로 후보 영역을 산출한다(S433).On the other hand, if it is not the external environment noise due to the shaking of the detection camera or the like, the candidate region is calculated on the basis of the first candidate MER information and the second candidate MER information as described above (S433).

상술된 바와 같이 본 발명은 객체 검지를 위하여 단일의(single) 알고리즘을 사용하거나 또는 단순히 복수 개의 알고리즘을 병렬적으로 사용하는 것이 아니라 서로 다른 방법으로 구현되는 객체 검지 알고리즘을 유기적으로 그리고 계층적으로 사용함으로써, 객체 검지의 확률을 더욱 향상시킴은 물론, 연산 효율성도 높일 수 있게 된다. As described above, the present invention utilizes a single algorithm for object detection or an object detection algorithm that is implemented in a different manner, rather than simply using a plurality of algorithms in parallel, in an organic and hierarchical manner The probability of object detection can be further improved, and the computational efficiency can be increased.

이하에서는 본 발명의 객체 추적에 대한 상세 프로세싱 과정을 도시한 흐름도인 도 10을 참조하여 본 발명의 구성을 통하여 구현되는 객체 검지 프로세싱(S310)을 상세히 설명하도록 한다. Hereinafter, object detection processing (S310) implemented through the configuration of the present invention will be described in detail with reference to FIG. 10, which is a flowchart illustrating a detailed processing process of object tracking according to the present invention.

앞서 상술된 바와 같은 객체의 최종MER정보를 생성하여 객체를 검지하는 프로세싱이 완료되면, 본 발명의 트래킹부(170)는 상기 객체의 최종MER정보의 이동을 추적하여 객체의 이동에 대한 동선데이터(이동경로데이터)를 생성한다(S310).When the processing for detecting the object is completed by generating the final MER information of the object as described above, the tracking unit 170 of the present invention tracks the movement of the final MER information of the object, Movement path data) (S310).

객체를 추적하는 알고리즘은, 추적 객체의 대상 영역을 지정하고 기 지정된 영역의 색상 분포 특징에 해당하는 히스토그램을 구한 후, 연속적인 입력 영상에서 대상 영역 크기에 해당하는 영역의 히스토그램을 정합시키는 민쉬프트(Mean-Shift) 알고리즘, 고정된 크기의 탐색 윈도우를 사용함에 따라 발생되는 문제점을 해소하기 위하여 탐색 윈도우의 크기를 능동적으로 조정하여 객체를 추적하는 캠쉬프트(Cam-Shift) 알고리즘, 오차(P)가 포함된 현재 시스템 측정값(x)과 관측값(z)을 기반으로 미래 정보(x` & P`)을 예측하여 객체를 추적하는 칼만필터(Kalman-filter) 알고리즘 등이 있다. The algorithm for tracking an object is to specify a target area of the tracked object, obtain a histogram corresponding to the color distribution characteristic of the designated area, and then calculate the histogram of the area corresponding to the target area size in the continuous input image A Cam-Shift algorithm for tracking an object by actively adjusting the size of a search window to solve problems caused by using a fixed-size search window, an error (P) And a Kalman-filter algorithm for tracking the object by predicting future information (x '& P`) based on the current system measurement value (x) and observation value (z).

이들 객체 추적 알고리즘은 하드웨어 리소스, 논리 구현 용이성, 연산량 등에 따라 서로 다른 특장점을 가지고 있다고 할 수 있으나 민쉬트프 알고리즘의 경우 객체 추적 중 탐색윈도우의 크기를 조절하지 않으므로 객체의 이동 중 객체의 크기가 변화하는 경우 객체를 잃어버리게 되므로 객체 추적이 더 이상 유효하지 않게 되는 문제점이 있다.These object tracking algorithms have different characteristics according to hardware resource, easiness of logic implementation, and computation amount. However, since MinShitP algorithm does not control the size of search window during object tracking, There is a problem that object tracking is no longer valid since the object is lost.

또한, 캠쉬프트 알고리즘의 경우 탐색윈도우의 크기가 능동적으로 조절되도록 설계되어 있어 객체의 크기가 변화되는 환경에 효과적으로 적응할 수 있으나 객체의 이동 방향 또는 속도를 정확히 반영할 수 없어 객체가 기준 속도 이상 빠르게 이동하는 경우 객체를 추적할 수 없다는 문제점이 내포되어 있다.In the case of the camshift algorithm, the size of the search window is designed to be actively adjusted so that it can adapt to the environment where the size of the object changes. However, since the object can not accurately reflect the moving direction or speed of the object, The object can not be traced.

칼만 필터 알고리즘은 객체(물체)의 측정값에 확률적이 오차가 포함되고 또한, 물체의 특정 시점에서의 상태는 이전 시점의 상태와 선형적인 관계를 가지고 있는 경우 적용 가능하며, 이산 시간 선형 동적 시스템을 기반으로 동작하며 각 상태 벡터는 이전 시간의 벡터들에 대해서만 관계된다는 마르코프 연쇄를 가정하고 있는 알고리즘이다. The Kalman filter algorithm can be applied when there is a stochastic error in the measured value of an object (object), and when the state of the object at a certain point in time has a linear relationship with the state at the previous point of time. And each state vector is an algorithm that assumes a Markov chain that is related only to the vectors of the previous time.

칼만 필터 알고리즘의 경우 측정값과 관측값을 바탕으로 미래정보를 예측하여 객체를 추적하는 방법으로서 추적 중 객체의 이동 방향 또는 속도를 반영할 수 있어 이동하는 객체의 추적이 최적화될 수 있는 특장점을 가지고 있으나, 다음 상태의 예측을 위하여 관측값이 필요하므로 이 관측값을 항상 연산하여야 하는 적용상의 곤란성이 있다고 할 수 있다.In the case of the Kalman filter algorithm, it is a method of tracking the object by predicting the future information based on the measured value and the observed value, and it can reflect the moving direction or speed of the object during the tracking so that the tracking of the moving object can be optimized However, since the observation value is required for the prediction of the next state, it can be said that there is a difficulty in applying the observation value always.

본 발명은 이러한 객체 추적의 알고리즘 중 상기 최종MER정보에 대한 현재 측정 데이터와 관측 데이터를 이용하여 미래 정보를 예측하는 칼만 필터 알고리즘을 기본적인 객체 추적의 알고리즘으로 사용하여 움직이는 객체를 추적하여 객체의 동선 데이터를 생성하되, 칼만 필터 알고리즘에서 다음 상태 예측을 위하여 요구되는 관측 데이터는 최종 MER정보를 대상으로 캠쉬프트 알고리즘을 적용하여 연산되도록 하고 이 과정이 순환적인 적용되도록 함으로써, 움직이는 동적 객체의 추적을 더욱 정확하고 효과적으로 수행하도록 구성된다.The present invention uses a Kalman filter algorithm for predicting future information using current measurement data and observation data for the final MER information among the object tracking algorithms as a basic object tracking algorithm to track a moving object, In the Kalman filter algorithm, the observation data required for the next state prediction is calculated by applying the cam shift algorithm to the final MER information, and the process is applied cyclically, And to perform effectively.

즉, 본 발명의 트래킹부(170)는 도 10에 도시된 바와 같이 사전 프로세싱(S500), 칼만 필터 알고리즘에 의한 프로세싱(S510)과 캠쉬트프 알고리즘에 의한 프로세싱(S550)이 상호 유기적으로 결합되며 순환되는 프로세싱을 수행하여 상기 객체의 최종 MER정보의 이동을 추적하여 상기 객체의 동선데이터를 생성한다(S310).That is, as shown in FIG. 10, the tracking unit 170 of the present invention is configured such that the pre-processing (S500), the processing by the Kalman filter algorithm (S510) and the processing by the camshit algorithm (S550) (Step S310). The movement data of the object is generated by tracking the movement of the final MER information of the object by performing the circulating processing.

구체적으로 본 발명의 트래킹부(170)는 우선, 칼만 필터 알고리즘을 수행하기 위한 칼만 필터 변수를 초기화시키고(S501), 객체의 최종MER정보에 해당하는 영역으로 설정된 기초윈도우 영역의 색상공간을 HSV 색상공간으로 변경한다(S502).Specifically, the tracking unit 170 of the present invention first initializes a Kalman filter parameter for performing a Kalman filter algorithm (S501), and sets a color space of a basic window area set as an area corresponding to the final MER information of the object as an HSV color (S502).

HSV 색상공간은 RGB색상공간, CMY 색상공간과 같이 색상을 표현하는 방법 중의 하나로서 색상(Hue), 채도(Saturation) 및 명도(value)를 기준으로 색을 표현하는 색공간 내지 색상 모델에 해당한다.The HSV color space corresponds to a color space or color model representing a color based on hue, saturation, and brightness as one of the methods of expressing colors such as an RGB color space and a CMY color space .

색상 공간의 변경 내지 변환이 완료되면 HSV의 데이터를 이용하여 기초윈도우 영역의 히스토그램을 연산한다(S503).After changing or changing the color space, the histogram of the base window area is calculated using the HSV data (S503).

이와 같이 사전 프로세싱(S500)이 완료되면 본 발명의 트래킹부(170)는 초기화된 칼만 필터의 변수들(상태벡터, 측정값, 상태 행렬, 시스템 잡음(칼만 에러), 측정 잡음(측정 에러) 등)을 이용하여 객체의 중심에 대한 상태 벡터를 예측하는 프로세싱을 수행한다(S511).When the pre-processing (S500) is completed, the tracking unit 170 of the present invention updates the parameters (state vector, measured value, state matrix, system noise (Kalman error), measurement noise (Step S511). In step S511, the state vector of the center of the object is predicted.

그 후 탐색윈도우를 설정하는데 이 탐색윈도우는 예측된 상태 벡터의 위치에 해당하는 중심과 기초윈도우와 동일한 너비(width)와 높이(height)를 가지도록 설정된다(S512).Thereafter, the search window is set to have the same width and height as the center and base window corresponding to the position of the predicted state vector (S512).

탐색윈도우가 설정되면 캠쉬트프 알고리즘(S550)에 의하여 탐색윈도우에서 객체의 중심을 탐색하고(S551) 객체의 중심이 탐색되면 탐색된 객체의 중심에 탐색윈도우를 위치시키고 영역을 탐색한다(S552). If the center of the object is searched, the search window is located at the center of the searched object and the region is searched (S552) .

탐색된 영역에서 연산된 히스토그램과 사전 프로세싱(S503)에서 연산된 히스토그램의 대응관계를 이용하여 탐색 대상 객체인지 여부를 판단하고(S553) 탐색대상으로 판단되는 경우(S554) 연산된 히스토그램의 결과값을 이용하여 객체의 회전각도 및 중심좌표를 연산한다(S555). If it is determined that the object to be searched is the object to be searched using the correspondence between the histogram calculated in the searched region and the histogram calculated in the pre-processing (S503) (S553), the result of the calculated histogram The rotation angle and the center coordinates of the object are calculated (S555).

이와 같이 연산된 객체의 회전각도 및 중심좌표 정보는 칼만 필터에서 미래 정보의 예측을 위하여 사용되는 관측값으로 활용된다.The rotation angle and center coordinate information of the calculated object are used as observation values used for prediction of future information in the Kalman filter.

본 발명의 트래킹부(170)는 이와 같이 객체의 회전각도 및 중심좌표 정보(관측값 정보)가 연산되면 연산된 회전각도 및 중심좌표 정보를 이용하여 상태벡터를 갱신한다(S513).When the rotation angle of the object and the center coordinate information (observation value information) are calculated as described above, the tracking unit 170 of the present invention updates the state vector using the calculated rotation angle and center coordinate information (S513).

상태벡터가 갱신되면 칼만 필터 알고리즘의 컨트롤 벡터(객체 속도)가 연산되며(S514) 다시 칼만 필터 알고리즘의 초기 단계로 회귀하여 전술된 상태 백터 예측 단계(S511)가 순환적으로 적용된다. When the state vector is updated, the control vector (object rate) of the Kalman filter algorithm is calculated (S514) and returns to the initial stage of the Kalman filter algorithm to apply the above described state vector prediction step (S511) cyclically.

이와 같이 본 발명은 객체의 추적을 위한 알고리즘으로 단일의 알고리즘을 사용하는 것이 아니라 칼만 필터 알고리즘과 캠쉬트트 알고리즘이 상호 유기적으로 결합되도록 구성하여 객체 추적 알고리즘의 단점을 보완함으로써 객체 추적의 신뢰성을 더욱 향상시킬 수 있게 된다. As described above, according to the present invention, not only a single algorithm is used as an algorithm for tracking an object but a Kalman filter algorithm and a camshit algorithm are combined so as to be organically combined, thereby improving the reliability of object tracking .

한편, 실시형태에 따라서 본 발명은 사람, 차량, 동물 등과 같이 객체의 특성 즉, 해당 객체의 MER 특성 정보(너비, 높이, 너비높이의 비율, 밀도, 중심점 좌표, 전체 크기 정보 등)에 따라 분류된 기준정보와 상기 최종 MER정보를 대비하여 상기 최종 MER정보에 해당하는 객체를 분류하는 객체분류부(160)를 더 포함할 수 있다.According to embodiments of the present invention, the present invention can classify objects according to characteristics of objects such as a person, a vehicle, and an animal, that is, MER characteristic information (ratio of width, height, width height, density, center point coordinates, And an object classifier 160 for classifying the object corresponding to the final MER information by comparing the final MER information with the reference information.

이 경우 본 발명의 트래킹부(170)는 이와 같이 객체분류부(160)가 최종MER에 해당하는 객체를 사람으로 분류한 경우에 한해 상술된 프로세싱을 통하여 객체의 동선 데이터를 생성하도록 구성할 수도 있다. 트래킹부(170)가 생성한 경로데이터 등은 시간 정보와 함께 본 발명의 DB부(180)에 저장될 수 있다. In this case, the tracking unit 170 of the present invention may be configured to generate the moving-line data of the object through the above-described processing only when the object classifying unit 160 classifies the object corresponding to the final MER as a person . The path data generated by the tracking unit 170 and the like can be stored in the DB unit 180 of the present invention together with time information.

이하에서는 최종 생성된 객체의 동선데이터를 이용하여 객체의 행동패턴을 생성하는 본 발명의 상세한 구성과 프로세싱을 설명하도록 한다. Hereinafter, the detailed configuration and processing of the present invention for generating a behavior pattern of an object using the copper line data of the finally generated object will be described.

본 발명의 트래킹부(170)가 상술된 바와 같이 객체의 동선 데이터를 생성하면, 본 발명의 행동패턴결정부(190)는 행동패턴 분석의 기준이 되는 상황인지영역과 상기 생성된 객체의 동선 데이터 또는 동선 데이터에 포함된 각 시점별 최종MER정보와의 위치 관계를 이용하여 상기 객체의 행동패턴을 결정하고 해당하는 행동패턴정보를 생성한다(S320).When the tracking unit 170 of the present invention generates the copper line data of the object as described above, the behavior pattern determining unit 190 of the present invention determines the behavior pattern of the object based on the context- Or the final MER information for each view included in the copper line data to determine the behavior pattern of the object and generate corresponding behavior pattern information at step S320.

구체적으로 본 발명의 행동패턴결정부(190)는 도 7에 도시된 바와 같이 이벤트생성부(191), 이벤트DB부(192), 패턴정보저장부(193) 및 패턴정보생성부(194)를 포함하여 구성될 수 있다.Specifically, the behavior pattern determination unit 190 of the present invention includes an event generation unit 191, an event DB unit 192, a pattern information storage unit 193, and a pattern information generation unit 194, as shown in FIG. 7 And the like.

본 발명은 객체의 행동패턴정보를 더욱 효과적으로 정확하게 규정하고 시스템과 사용자 사이의 정확한 인터페이싱을 구현하기 위하여 도 13에 예시된 바와 같이 객체가 유발할 수 있는 6가지 기본 이벤트를 미리 정의하고 정의된 객체의 6가지 이벤트들을 하나 이상 조합적으로 결합시킴으로써 발생되는 시계열적 특성을 이용하여 객체의 행동패턴을 결정하는 방법을 포함한다.In order to more accurately define the behavior pattern information of the object more accurately and to implement accurate interfacing between the system and the user, the present invention predefines six basic events that can be caused by the object as illustrated in FIG. 13, And a method of determining a behavior pattern of an object using time-series characteristics generated by combining one or more kinds of events in combination.

도 13에 예시된 객체의 6가지 이벤트 정보와 상황인지영역 또는 영상처리영역의 경계 등에 대한 위치정보는 본 발명의 이벤트DB부(192)에 저장되어 활용될 수 있다.The six event information of the object illustrated in FIG. 13 and the position information on the boundary of the situation recognition area or the image processing area can be stored and utilized in the event DB unit 192 of the present invention.

본 발명의 이벤트 생성부(191)는 트래킹부(170)로부터 객체의 동선 데이터가 입력되면 입력된 동선 데이터의 각 시간별 객체의 최종MER정보의 중심점 위치좌표를 추출하고, 추출된 중심점 위치좌표와 상기 이벤트DB부(192)에 저장되어 있는 상황인지영역의 경계라인의 위치 좌표 사이의 관계를 이용하여 객체에 대한 이벤트 정보를 생성한다. The event generation unit 191 of the present invention extracts the coordinates of the center point position of the final MER information of the object of each time of the input copper line data when the copper line data of the object is input from the tracking unit 170, The event information for the object is generated using the relationship between the position coordinates of the boundary line of the situation recognition area stored in the event DB unit 192. [

이와 관련하여, 도 13에서 진입 이벤트는 객체가 상황인지영역 외부에서 내부로 들어오는 이벤트를 의미하며, 객체(최종MER정보)의 중심좌표와 상황인지영역의 경계좌표를 이용하여 결정한다.In this regard, in FIG. 13, an entry event refers to an event that an object comes in from outside the context area, and is determined using the coordinates of the center of the object (final MER information) and the boundary of the context area.

진출 이벤트는 실시형태에 따라 객체가 상황인지영역 내부에서 외부로 나간 이벤트, 객체가 상황인지영역 내부에서 상황인지영역외부의 영상처리영역으로 이동한 경우, 객체가 상황인지영역 내부에서 다른 상황인지영역으로 이동한 경우, 영상의 끝과 상황인지영역의 경계가 맞닿아 있는 경우 객체가 상황인지영역 내부에서 영상 밖으로 이동한 경우 중 하나 이상이 이에 해당한다. An entry event may be an event that the object has moved out of the context aware area according to the embodiment, the object has moved from the context aware area to the image processing area outside the context aware area, , The case where the boundary of the image and the boundary of the context-aware area are in contact, or the case where the object is moved out of the image in the context-aware area.

이동 이벤트는 객체가 영상처리영역(상황인지영역보다 넓은 영역일 수 있음)에 위치하고 MER의 중심좌표의 변화가 있거나 또는 상황인지영역 내부에서 기준 시간 동안 객체의 중심좌표의 이동이 발생하거나 이동거리(픽셀)/기준 시간(s)의 속도를 연산하여 연산된 속도가 0(px/s) 이 아닌 경우에 해당한다. The movement event is a motion event in which the object is located in the image processing region (which may be larger than the context-aware region) and there is a change in the center coordinates of the MER or a movement of the center coordinates of the object during the reference time within the context- Pixel) / reference time (s) and the calculated speed is not 0 (px / s).

정지 이벤트는 특정 기준 시간동안 중심좌표의 변화량(이동 거리)이 0이거나 실질적으로 0에 해당하는 경우 또는 중심좌표의 속도가 실질적으로 0인 경우에 해당한다.The stop event corresponds to a case in which the amount of change (moving distance) of the central coordinate during a specific reference time is zero or substantially equal to zero, or when the velocity of the central coordinate is substantially zero.

분리 이벤트는 객체가 상황인지영역 내부에 있는 경우 객체와 인접된 영역에서 다른 객체(사람, 사물 등)가 최초 검지되고 이 최초 검지된 객체가 일정 시간 이상 존재하는 경우에 해당하는 이벤트이며, 결합 이벤트는 서로 다른 객체(사람 vs. 사람 또는 사람 vs. 사물 등)가 상황인지영역 내부에 있는 경우 서로 다른 객체의 MER의 중심좌표가 가까워지고 MER의 영역이 겹친 후, 동일한 변위로 이동할 때를 의미하는 이벤트이다.The separation event is an event corresponding to the case where the first detected object is detected for the first time when another object (person, object, etc.) is detected in the object and the adjacent area when the object is inside the context area, Refers to when the center coordinates of the MERs of the different objects approach each other and when the regions of the MER overlap and then move to the same displacement when the different objects (person vs. person or person vs. object, etc.) are within the context area Event.

이와 같이 하나 이상의 이벤트 정보가 생성되면 본 발명의 패턴정보생성부(194)는 생성된 하나 이상의 이벤트 정보의 시계열적 특성을 이용하여 상기 객체에 대한 행동패턴정보를 생성한다.When one or more event information is generated as described above, the pattern information generator 194 of the present invention generates behavior pattern information for the object using the time series characteristic of the generated one or more event information.

실시형태에 따라서 본 발명의 행동패턴결정부(190)는 패턴정보저장부(193)를 더 포함할 수 있는데, 이 패턴정보저장부(193)에는 도 14에 도시된 바와 같이 상기 객체의 6가지 이벤트 즉, 진입, 진출, 이동, 정지, 분리, 결합 이벤트 중 복수 개 이벤트 정보의 시계열적 조합에 의하여 정의되는 복수 개 기준행동패턴정보가 저장될 수 있다.The behavior pattern determination unit 190 of the present invention may further include a pattern information storage unit 193 which stores six patterns of the objects A plurality of reference behavior pattern information defined by a time series combination of a plurality of event information among events, i.e., entry, advance, movement, stop, separation, and association events can be stored.

이와 관련하여 도 14에 도시된 기준행동패턴정보 중 “경로통과” 패턴은 설정된 방향과 설정된 경계선(외곽 경계선 또는 내부의 또 다른 경계선 등)을 넘어서 객체가 이동하는 상황을 의미하며, “금지된 방향 이동” 패턴은 이전 프레임의 객체의 위치에서 현재 프레임의 객체의 위치를 비교하였을 때, 객체의 위치 변화량이 발생되고 기 설정된 방향과 반대방향으로 이동하는 패턴을 의미한다. In this regard, among the reference behavior pattern information shown in Fig. 14, the " path passing " pattern means a situation in which an object moves beyond a set direction and a set boundary line (an outer boundary line or another inner boundary line) Quot; movement " pattern means a pattern in which a positional variation of an object is generated and moved in a direction opposite to a predetermined direction when a position of an object of a current frame is compared with a position of an object of a previous frame.

이와 같이 패턴정보저장부(193)에 복수 개의 기준행동패턴정보가 저장되면 본 발명의 패턴정보생성부(194)는 상기 복수 개 기준행동패턴정보 중 상기 동선데이터 즉, 각 시점별 객체의 최종MER정보의 특징 정보(중심점 좌표, 너비, 높이, 너비/높이 비율, 밀도 등)의 이벤트 정보들에 대응되는 기준행동패턴정보를 선별하는 등의 방법으로 기준행동패턴정보를 이용하여 상기 객체의 행동패턴정보를 생성하도록 구성될 수 있다.When a plurality of reference behavior pattern information is stored in the pattern information storage unit 193 as described above, the pattern information generation unit 194 of the present invention generates the pattern information of the reference MER The reference behavior pattern information corresponding to event information of feature information (center point coordinates, width, height, width / height ratio, density, etc.) of information is selected, Information. ≪ / RTI >

이와 같이 6개의 기본이 되는 이벤트 중 복수 개 이벤트 정보의 시계열 조합에 의하여 정의되는 기준행동패턴정보가 레고블록의 기본조각(piece)이 되고 각 조각을 이용하여 전체 블록을 구성하는 방법과 같이 객체의 다양한 행동 패턴을 정확하게 규정할 수 있음은 물론, 이들 행동 패턴을 시간의 순서에 따라 연계시키면 객체의 복합 행동 또한, 정확하게 규정할 수 있게 된다.As described above, the reference behavior pattern information defined by the time series combination of a plurality of event information among the six basic events becomes a basic piece of the LEGO block, and as a method of constructing the whole block using each piece, Not only can various behavior patterns be precisely defined, but also by associating these behavior patterns according to the order of time, the complex behavior of the object can be precisely defined.

그러므로 본 발명은 객체의 행동패턴정보를 정확하고 자동화된 방법으로 지속적으로 생성하여 객체에 대한 상황을 정확히 자동적으로 인식할 수 있으므로 생성된 행동패턴정보를 사용자에게 정확히 인터페이싱할 수 있으며 또한, 이를 통하여 인식된 상황(행동패턴)에 최적화된 후속 조치 내지 대응 프로세싱이 유도될 수 있는 시스템 인프라를 제공할 수 있다.Therefore, according to the present invention, the behavior pattern information of an object is continuously and accurately generated by an accurate and automated method, so that the situation of the object can be accurately and automatically recognized. Therefore, the generated behavior pattern information can be accurately interfaced to the user, It is possible to provide a system infrastructure in which follow-up or counter-processing optimized for a given situation (behavior pattern) can be induced.

이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not to be limited to the details thereof and that various changes and modifications will be apparent to those skilled in the art. And various modifications and variations are possible within the scope of the appended claims.

상술된 본 발명의 설명에 있어 제1 및 제2 등과 같은 수식어는 상호 간의 구성요소를 상대적으로 구분하기 위하여 사용되는 도구적 개념의 용어일 뿐이므로, 특정의 순서, 우선순위 등을 나타내기 위하여 사용되는 용어가 아니라고 해석되어야 한다.In the above description of the present invention, the first and second modifiers are merely terms of a tool concept used for relatively separating the components of each other, so that they are used to indicate a specific order, priority, etc. It should be interpreted that it is not a terminology.

본 발명의 설명과 그에 대한 실시예의 도시를 위하여 첨부된 도면 등은 본 발명에 의한 기술 내용을 강조 내지 부각하기 위하여 다소 과장된 형태로 도시될 수 있으나, 앞서 기술된 내용과 도면에 도시된 사항 등을 고려하여 본 기술 분야의 통상의 기술자 수준에서 다양한 형태의 변형 적용 예가 가능할 수 있음은 자명하다고 해석되어야 한다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. It should be understood that various modifications may be made in the ordinary skill in the art.

1000 : 본 발명의 지능형 방범 CCTV 시스템
50 : 검지카메라 70 : 추적카메라(줌카메라)
100 : 객체정보생성부 210 : 기초정보저장부
220 : 인터페이스부 230 : 비허용패턴설정부
300 : 방범영역설정부 400 : 후속처리설정부
500 : 구동제어부 600 : 영상처리부
610 : 기준영상DB부 700 : 알람처리부
710 : 패킷저장부 800 : 영상제공부
1000: Intelligent security CCTV system of the present invention
50: index camera 70: tracking camera (zoom camera)
100: Object information generation unit 210: Basic information storage unit
220: interface unit 230: non-allowable pattern setting unit
300: Crime prevention area setting unit 400:
500: drive control unit 600: image processing unit
610: reference image DB unit 700: alarm processing unit
710: Packet storage unit 800: Imaging

Claims (10)

복수 개 기본행동패턴에 대한 정보가 저장되는 기초정보저장부;
방범영역에 대한 정보를 설정하는 방범영역설정부;
상기 복수 개 기본행동패턴 중 상기 방범영역에서 허용되지 않는 비허용 행동패턴을 설정하는 비허용패턴설정부;
상기 비허용 행동패턴에 따른 하나 이상의 후속프로세싱을 설정하는 후속처리설정부;
검지카메라의 영상데이터를 이용하여 검지된 대상객체의 동선데이터를 생성하며 상기 동선 데이터와 상기 방범영역과의 위치 관계를 이용하여 상기 대상객체의 행동패턴정보를 생성하는 객체정보생성부; 및
상기 생성된 행동패턴정보가 상기 비허용 행동패턴에 해당하는 경우 상기 하나 이상의 후속 프로세싱이 구동되도록 제어하는 구동제어부를 포함하고,
상기 객체정보생성부는,
n(n은 1이상의 자연수)개의 검지카메라로부터 영상데이터를 수신하는 수신부;
상기 영상데이터를 대상으로 차분 영상 검지 알고리즘을 적용하여 객체를 검지하고 검지된 객체의 제1후보MER정보를 생성하는 제1검지부;
상기 영상데이터를 대상으로 옵티컬 플로우 알고리즘을 적용하여 객체를 검지하고 검지된 객체의 제2후보MER정보를 생성하는 제2검지부;
상기 제1 및 제2후보MER정보를 대상으로 호그 알고리즘을 적용하여 객체의 최종MER정보를 생성하되, 상기 제1 및 제2후보MER정보 중 상호 위치적 편차가 기준 편차보다 낮은 MER정보로 이루어진 하이브리드 영역을 산출하고 산출된 하이브리드 영역을 대상으로 호그 연산을 수행하여 상기 객체의 최종MER정보를 생성하는 검지판단부;
상기 객체의 최종MER정보의 이동을 추적하여 상기 객체의 동선데이터를 생성하는 트래킹부; 및
상기 동선데이터의 각 시간별 객체의 최종MER 중심점 위치좌표와 행동패턴 분석의 기준이 되는 상황인지영역의 경계라인의 위치 좌표 사이의 관계를 이용하여 객체의 이벤트 정보를 생성하는 이벤트 생성부와, 상기 객체의 이벤트 정보의 시계열적 특성을 이용하여 상기 객체에 대한 행동패턴정보를 생성하는 패턴정보생성부를 가지는 행동패턴결정부를 포함하며,
상기 객체의 이벤트 정보는,
객체가 상황인지영역 내부로 이동하는 진입 이벤트, 객체가 상황인지영역 내부에서 외부로 유출되는 진출 이벤트, 객체가 영상처리영역 내부에서 0이 아닌 이동 속도로 움직임을 발생시키는 이동 이벤트, 객체가 상황인지영역 내부에서 움직이지 않는 정지 이벤트, 상황인지영역 내부에 위치하는 객체에서 다른 객체가 검지되고 상기 다른 객체가 기준 시간 이상 상황인지영역에 위치하는 분리 이벤트 또는 상황인지영역 내부에 위치한 서로 다른 객체가 동일한 위치정보 또는 동일한 변위 이동이 발생하는 결합 이벤트 중 하나 이상으로 이루어지는 것을 특징으로 하는 자동 상황인지가 가능한 지능형 방범 CCTV 시스템.
A basic information storage unit for storing information on a plurality of basic behavior patterns;
A crime prevention area setting unit for setting information on the crime prevention area;
An unauthorized pattern setting unit for setting an unacceptable behavior pattern not allowed in the crime prevention area among the plurality of basic action patterns;
A subsequent process setting unit for setting one or more subsequent processes according to the unacceptable behavior pattern;
An object information generating unit which generates motion line data of the detected object using the image data of the detection camera and generates motion pattern information of the object using the positional relationship between the motion data and the crime prevention area; And
And a drive controller for controlling the at least one subsequent processing to be driven when the generated behavior pattern information corresponds to the unacceptable behavior pattern,
Wherein the object information generating unit comprises:
a receiving unit for receiving image data from n detection cameras (n is a natural number of 1 or more);
A first detection unit for detecting an object by applying a difference image detection algorithm to the image data and generating first candidate MER information of the detected object;
A second detecting unit detecting an object by applying an optical flow algorithm to the image data and generating second candidate MER information of the detected object;
And generating a final MER information of the object by applying a hog algorithm to the first and second candidate MER information, wherein the first candidate MER information and the second candidate MER information are hybridized with MER information, Calculating a region and performing a hog operation on the calculated hybrid region to generate final MER information of the object;
A tracking unit for tracking movement of final MER information of the object to generate copper line data of the object; And
An event generation unit for generating event information of an object by using a relationship between coordinates of a final MER center point position of each time-series object of the copper line data and position coordinates of a boundary line of a context-aware area serving as a basis of a behavior pattern analysis; And a pattern information generating unit for generating behavior pattern information for the object using the time series characteristic of the event information of the object,
The event information of the object may include:
An entry event in which the object moves into the context area, an entry event in which the object is exited from the inside of the context area, a movement event in which the object generates movement at a non-zero moving speed within the image processing area, A still event that does not move within the area, another object is detected in the object located inside the context-aware area, and the different object located in the context-aware area or the context-aware area is different Position information, or a combination event in which the same displacement movement occurs. The intelligent security CCTV system according to claim 1,
제 1항에 있어서, 상기 구동제어부는,
상기 행동패턴정보가 비허용 행동패턴에 해당하는 경우 PTZF구동이 가능한 추적카메라를 제어하여 상기 대상객체의 근거리영상데이터를 촬영하는 후속 프로세싱이 구동되도록 제어하는 것을 특징으로 하는 자동 상황인지가 가능한 지능형 방범 CCTV 시스템.
2. The apparatus according to claim 1,
When the behavior pattern information corresponds to the unacceptable behavior pattern, controls the tracking camera capable of PTZF driving to control the subsequent processing for photographing the near object image data of the target object to be driven. CCTV system.
제 1항에 있어서, 상기 후속 프로세싱은,
상기 대상객체의 영상 저장, 경광등 점멸, 사이렌 작동, 오디오출력수단의 경고안내 출력 또는 디스플레이수단의 경고안내 출력 중 하나 이상으로 이루어지는 것을 특징으로 하는 자동 상황인지가 가능한 지능형 방범 CCTV 시스템.
2. The method of claim 1,
Wherein the automatic security monitoring system comprises at least one of image storage of the target object, flashing of a warning light, operation of a siren, warning output of audio output means, or warning output of a display means.
제 2항에 있어서,
출입이 허용된 사용자의 영상데이터인 기준영상데이터가 저장되는 기준영상DB부; 및
상기 추적카메라로부터 전송된 상기 대상객체의 근거리영상데이터가 상기 기준영상데이터에 해당하는 않는 경우에 한해 상기 대상객체에 대한 근거리영상데이터를 저장하는 영상처리부를 더 포함하는 것을 특징으로 하는 자동 상황인지가 가능한 지능형 방범 CCTV 시스템.
3. The method of claim 2,
A reference image DB unit for storing reference image data which is image data of a user allowed to enter and exit; And
Further comprising an image processor for storing the local image data of the target object only when the local image data of the target object transmitted from the tracking camera does not correspond to the reference image data. Possible intelligent security CCTV system.
제 4항에 있어서,
주체정보 영역, 장소정보 영역, 시간정보 영역 및 행위정보 영역을 포함하는 기초 알람데이터 패킷이 저장되는 패킷저장부; 및
상기 생성된 행동패턴정보가 상기 비허용 행동패턴에 해당하는 경우 상기 기초 알람데이터 패킷의 주체정보 영역, 장소정보 영역, 시간정보 영역 및 행위정보 영역 각각에, 상기 대상객체에 대한 근거리 영상데이터, 상기 방범영역에 대한 정보, 상기 비허용 행동패턴이 이루어진 시간정보 및 하나 이상의 비허용 행동패턴정보를 수록하여 알람데이터 패킷을 생성하고 저장하는 알람처리부를 더 포함하는 것을 특징으로 하는 자동 상황인지가 가능한 지능형 방범 CCTV 시스템.
5. The method of claim 4,
A packet storage for storing a basic alarm data packet including a subject information area, a place information area, a time information area and a behavior information area; And
When the generated behavior pattern information corresponds to the unacceptable behavior pattern, the short-range image data for the target object, the short-range image data for the target object, the short- Further comprising an alarm processing unit for generating and storing alarm data packets by storing information on the security zone, time information on the unauthorized behavior pattern, and one or more unacceptable behavior pattern information. Security CCTV system.
제 4항에 있어서, 상기 영상처리부는,
상기 생성된 행동패턴정보가 상기 비허용 행동패턴에 해당하는 경우 상기 대상객체의 영상 데이터를 저장하되, 해당하는 비허용 행동패턴에 대한 태그 정보를 상기 대상객체의 영상 데이터에 연계시켜 저장하고,
비허용 행동패턴에 대한 정보가 포함된 영상요청신호가 입력되면, 상기 태그 정보를 이용하여 상기 영상요청신호에 해당하는 하나 이상의 영상 데이터를 선별하여 제공하는 영상제공부를 더 포함하는 것을 특징으로 하는 자동 상황인지가 가능한 지능형 방범 CCTV 시스템.
The image processing apparatus according to claim 4,
Storing the image data of the target object when the generated behavior pattern information corresponds to the unacceptable behavior pattern, associating the tag information of the corresponding unacceptable behavior pattern with the image data of the target object,
Further comprising an image preparation unit for selectively providing at least one image data corresponding to the image request signal using the tag information, when the image request signal including information on the unacceptable behavior pattern is inputted, Intelligent security CCTV system that can detect the situation.
삭제delete 삭제delete 삭제delete 삭제delete
KR1020180005332A 2018-01-16 2018-01-16 Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events KR101877294B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180005332A KR101877294B1 (en) 2018-01-16 2018-01-16 Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180005332A KR101877294B1 (en) 2018-01-16 2018-01-16 Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events

Publications (1)

Publication Number Publication Date
KR101877294B1 true KR101877294B1 (en) 2018-07-11

Family

ID=62917402

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180005332A KR101877294B1 (en) 2018-01-16 2018-01-16 Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events

Country Status (1)

Country Link
KR (1) KR101877294B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101964683B1 (en) * 2018-10-22 2019-04-02 주식회사 인텔리빅스 Apparatus for Processing Image Smartly and Driving Method Thereof
CN109785564A (en) * 2019-03-21 2019-05-21 安徽威尔信通信科技有限责任公司 A kind of home intelligent safety defense monitoring system
KR102015959B1 (en) 2018-08-16 2019-08-28 주식회사 플랜비 INTELLIGENT SECURITY SYSTEM BASED ON DEEP LEARNING USING IoT CAMERA AND METHOD FOR PROCESSING THEREOF
WO2021002722A1 (en) * 2019-07-04 2021-01-07 (주)넷비젼텔레콤 Method for perceiving event tagging-based situation and system for same
KR20210026497A (en) * 2019-08-30 2021-03-10 (주)파이온즈 object tracking and service execution system by setting event zones and execution rule on the camera screen
KR20210082301A (en) 2019-12-24 2021-07-05 주식회사 싸인텔레콤 Intelligent system for context-aware based embeded camera
KR102350381B1 (en) * 2021-04-20 2022-01-12 진테크이엔지(주) Ship safety management system based on artificial intelligence
KR102452570B1 (en) * 2022-01-19 2022-10-11 주식회사 엠아이엔테크 Apparatus, method, and program for detecting specific patterns in traffic conditions through cctv images
KR102635351B1 (en) * 2022-10-18 2024-02-13 (주)이미지데이 Crime prevention system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110130033A (en) * 2010-05-27 2011-12-05 박용헌 Active image monitoring system using motion pattern database, and method thereof
KR101213255B1 (en) * 2012-09-14 2012-12-18 박종현 System and method for context-aware using image processing and wireless sensor network
KR101470316B1 (en) * 2014-08-11 2014-12-09 (주)엔토스정보통신 Closed-circuit television system of sensing risk according to the characteristic of sensing area and method thereof
KR20150033402A (en) * 2013-09-24 2015-04-01 한국전자통신연구원 Apparatus and Method for Unmanned Safety Guard Based on Video Recognition
KR20160116842A (en) * 2015-03-31 2016-10-10 (주)블루비스 Video surveillance system and method for providing visual event outcomes
KR20170004530A (en) * 2015-07-03 2017-01-11 주식회사 한국시스템 remote surveillance method by using camera and remote surveillance apparatus
KR20170048108A (en) * 2015-10-23 2017-05-08 삼성에스디에스 주식회사 Method and system for recognizing object and environment

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110130033A (en) * 2010-05-27 2011-12-05 박용헌 Active image monitoring system using motion pattern database, and method thereof
KR101213255B1 (en) * 2012-09-14 2012-12-18 박종현 System and method for context-aware using image processing and wireless sensor network
KR20150033402A (en) * 2013-09-24 2015-04-01 한국전자통신연구원 Apparatus and Method for Unmanned Safety Guard Based on Video Recognition
KR101470316B1 (en) * 2014-08-11 2014-12-09 (주)엔토스정보통신 Closed-circuit television system of sensing risk according to the characteristic of sensing area and method thereof
KR20160116842A (en) * 2015-03-31 2016-10-10 (주)블루비스 Video surveillance system and method for providing visual event outcomes
KR20170004530A (en) * 2015-07-03 2017-01-11 주식회사 한국시스템 remote surveillance method by using camera and remote surveillance apparatus
KR20170048108A (en) * 2015-10-23 2017-05-08 삼성에스디에스 주식회사 Method and system for recognizing object and environment

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102015959B1 (en) 2018-08-16 2019-08-28 주식회사 플랜비 INTELLIGENT SECURITY SYSTEM BASED ON DEEP LEARNING USING IoT CAMERA AND METHOD FOR PROCESSING THEREOF
KR101964683B1 (en) * 2018-10-22 2019-04-02 주식회사 인텔리빅스 Apparatus for Processing Image Smartly and Driving Method Thereof
CN109785564A (en) * 2019-03-21 2019-05-21 安徽威尔信通信科技有限责任公司 A kind of home intelligent safety defense monitoring system
WO2021002722A1 (en) * 2019-07-04 2021-01-07 (주)넷비젼텔레콤 Method for perceiving event tagging-based situation and system for same
KR20210004271A (en) * 2019-07-04 2021-01-13 (주)넷비젼텔레콤 Method and system for recognizing situation based on event tagging
KR102317628B1 (en) * 2019-07-04 2021-10-26 (주)넷비젼텔레콤 Method and system for recognizing situation based on event tagging
KR102355855B1 (en) 2019-08-30 2022-02-08 주식회사 파이온즈 Object tracking and service execution system with event rules and service settings for each Vid-Fence
KR20210026497A (en) * 2019-08-30 2021-03-10 (주)파이온즈 object tracking and service execution system by setting event zones and execution rule on the camera screen
KR20210058783A (en) * 2019-08-30 2021-05-24 (주)파이온즈 Object tracking and service execution system with event rules and service settings for each Vid-Fence
KR102256271B1 (en) * 2019-08-30 2021-05-27 주식회사 파이온즈 object tracking and service execution system by setting event zones and execution rule on the camera screen
KR20210082301A (en) 2019-12-24 2021-07-05 주식회사 싸인텔레콤 Intelligent system for context-aware based embeded camera
KR102350381B1 (en) * 2021-04-20 2022-01-12 진테크이엔지(주) Ship safety management system based on artificial intelligence
KR102452570B1 (en) * 2022-01-19 2022-10-11 주식회사 엠아이엔테크 Apparatus, method, and program for detecting specific patterns in traffic conditions through cctv images
KR20230112038A (en) * 2022-01-19 2023-07-26 주식회사 엠아이엔테크 A device that detects specific patterns in traffic conditions using artificial neural network
KR102633205B1 (en) 2022-01-19 2024-02-02 주식회사 엠아이엔테크 A device that detects specific patterns in traffic conditions using artificial neural network
KR102635351B1 (en) * 2022-10-18 2024-02-13 (주)이미지데이 Crime prevention system

Similar Documents

Publication Publication Date Title
KR101877294B1 (en) Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events
KR101995107B1 (en) Method and system for artificial intelligence based video surveillance using deep learning
KR101839827B1 (en) Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object
KR102122859B1 (en) Method for tracking multi target in traffic image-monitoring-system
Kumar et al. Study of robust and intelligent surveillance in visible and multi-modal framework
KR102122850B1 (en) Solution for analysis road and recognition vehicle license plate employing deep-learning
KR102282800B1 (en) Method for trackig multi target employing ridar and camera
KR102397837B1 (en) An apparatus and a system for providing a security surveillance service based on edge computing and a method for operating them
KR101842488B1 (en) Smart monitoring system applied with patten recognition technic based on detection and tracking of long distance-moving object
CN112257683A (en) Cross-mirror tracking method for vehicle running track monitoring
KR20220000216A (en) An apparatus for providing a security surveillance service based on deep learning distributed processing
KR20220000226A (en) A system for providing a security surveillance service based on edge computing
Sadek et al. A statistical framework for real-time traffic accident recognition
KR101814040B1 (en) An integrated surveillance device using 3D depth information focus control
KR20220000175A (en) A method for operating of intelligent security surveillance service providing apparatus based on edge computing
KR20220000209A (en) Recording medium that records the operation program of the intelligent security monitoring device based on deep learning distributed processing
KR20220000424A (en) A camera system for providing a intelligent security surveillance service based on edge computing
KR20220064213A (en) Program for operation of security monitoring device
KR20210158037A (en) Method for tracking multi target in traffic image-monitoring-system
KR20200136736A (en) Multi object detection system using deep running based on closed circuit television image
KR102397839B1 (en) A captioning sensor apparatus based on image analysis and a method for operating it
KR20220031276A (en) A system for providing active security control consulting services
KR20220000189A (en) An apparatus for providing a security surveillance service based on edge computing
KR20220031258A (en) A method for providing active security control service based on learning data corresponding to counseling event
KR20220031318A (en) Program to build active security control counseling response learning data

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant