KR20220000226A - A system for providing a security surveillance service based on edge computing - Google Patents

A system for providing a security surveillance service based on edge computing Download PDF

Info

Publication number
KR20220000226A
KR20220000226A KR1020200077916A KR20200077916A KR20220000226A KR 20220000226 A KR20220000226 A KR 20220000226A KR 1020200077916 A KR1020200077916 A KR 1020200077916A KR 20200077916 A KR20200077916 A KR 20200077916A KR 20220000226 A KR20220000226 A KR 20220000226A
Authority
KR
South Korea
Prior art keywords
information
deep learning
event
security monitoring
monitoring
Prior art date
Application number
KR1020200077916A
Other languages
Korean (ko)
Inventor
박주영
이동식
이원경
Original Assignee
주식회사 자비스넷
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 자비스넷 filed Critical 주식회사 자비스넷
Priority to KR1020200077916A priority Critical patent/KR20220000226A/en
Publication of KR20220000226A publication Critical patent/KR20220000226A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0454
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

The present invention relates to a system for providing a security surveillance service based on edge computing. According to an embodiment of the present invention, the system, in a system for providing an intelligent security surveillance service, comprises: one or more camera devices and sensor devices; one or more intelligent security surveillance devices detecting one or more security surveillance events occurring in a security surveillance region based on image information and sensor information, and performing the surveillance service processing corresponding to the detected events; one or more deep learning dispersion processing devices placed for the one or more intelligent security surveillance devices, and connected for communication to be able to perform dispersion processing of information, and performing the deep learning-based object detection and object classification analysis on the data requested for deep learning dispersion processing from the intelligent security surveillance devices, and transmitting the deep learning analysis result to the relevant intelligent security surveillance device; a server relaying the image surveillance analysis data to a user terminal and a control service server; and the control service server performing the processing of various control services such as accident occurrence report, fire occurrence report, user alert, surveillance device control, and real-time monitoring based on the event detection data of each intelligent security surveillance device received through the relay server and the deep learning image analysis information received from each deep learning dispersion processing device, and transmitting the service execution information to the user terminal. The present invention aims to provide a system for providing a security surveillance service based on edge computing, which is capable of precisely detecting events.

Description

엣지 컴퓨팅 기반 지능형 보안 감시 서비스 제공 시스템{A SYSTEM FOR PROVIDING A SECURITY SURVEILLANCE SERVICE BASED ON EDGE COMPUTING}Edge computing-based intelligent security monitoring service providing system {A SYSTEM FOR PROVIDING A SECURITY SURVEILLANCE SERVICE BASED ON EDGE COMPUTING}

본 발명은 보안 서비스 제공 시스템에 관한 것이다. 보다 구체적으로, 본 발명은 엣지(EDGE) 컴퓨팅을 기반으로 하는 보안 서비스를 제공하여 감시 성능 및 시스템 효율을 향상시키는 에지 컴퓨팅 기반 지능형 보안 감시 서비스 제공 시스템에 관한 것이다.The present invention relates to a security service providing system. More specifically, the present invention relates to an edge computing-based intelligent security monitoring service providing system that improves monitoring performance and system efficiency by providing a security service based on edge (EDGE) computing.

현재 통신 및 영상분석 기술의 발전과 더불어 감시 대상 지역에 대한 보안을 위해 원격지에 위치하는 카메라로부터 수신된 영상에 대한 영상 분석 및 객체 식별을 통해 감시 대상 지역에 대한 보안을 제공하는 다양한 보안 시스템이 제공되고 있으며, 이를 통해 감시 대상 지역의 객체 감지시 관리자에게 위험 여부를 알리고 객체 감지에 따른 영상을 기록하는 등의 다양한 서비스를 제공하여 감시 대상 지역의 관리에 대한 편의성을 높이고 있다.With the development of current communication and video analysis technology, various security systems are provided that provide security for the area to be monitored through image analysis and object identification of images received from remote cameras for security in the area to be monitored. Through this, when an object is detected in the area to be monitored, various services are provided, such as notifying the manager whether there is a danger and recording an image according to the detection of the object, thereby increasing the convenience of managing the area to be monitored.

일반적으로 보안 감시 시스템은 감시 대상 지역에 위치하는 센서를 통해 감시 대상 지역에 위치하는 감시 대상을 감지하고, 감시 대상의 감지시 해당 감시 대상의 감지와 연동하여 카메라를 통해 감시 대상을 촬영하여 생성한 영상을 제공함으로써, 센서를 통해 감지된 감시 대상을 영상을 통해 확인할 수 있도록 제공한다.In general, a security monitoring system detects a monitoring target located in the monitoring target area through a sensor located in the monitoring target area, and when a monitoring target is detected, the monitoring target is captured by a camera in conjunction with the detection of the monitoring target. By providing the image, it is provided so that the monitoring target detected through the sensor can be confirmed through the image.

그러나, 기존의 보안 감시 시스템의 감시 대상에 대한 센서의 감지에 따른 침입 신호 발생시 영상을 통한 확인과 별도로 관리자에게 무조건 알람이 제공되도록 동작하고 있으며, 이로 인해 감시 대상이 아닌 객체에 대해서도 알람이 제공되어 오보가 지속적으로 발생하는 문제가 있다.However, when an intrusion signal is generated according to the detection of a sensor for the monitoring target of the existing security monitoring system, an alarm is provided to the administrator separately from the confirmation through the video. There is a problem that misinformation constantly occurs.

이를 방지하기 위해, 최근 보안 감시 시스템은 센서의 감지와 더불어 센서를 통해 침입 신호 발생시 카메라를 통해 촬영된 영상에서 감시 대상에 대응되는 감시 대상 객체가 식별되는 경우에 관리자에게 알람이 제공되도록 동작하도록 설정되어 보안 시스템의 오보를 최소화하고자 한다.To prevent this, a recent security monitoring system is set to operate so that an alarm is provided to the administrator when a monitoring target object corresponding to the monitoring target is identified in the image captured by the camera when an intrusion signal is generated through the sensor along with the detection of the sensor This is to minimize false information in the security system.

그러나, 감시 대상 지역은 일반적으로 저조도의 환경이 많으며, 이로 인해 최근의 보안 시스템 역시 센서의 감시 대상 감지시 저조도 환경에서 운용되는 카메라를 통해 생성된 영상에서 객체가 뚜렷하게 나타나지 않아 감시대상 객체가 아닌 객체에 대해서도 알람을 제공하거나 감시 대상 객체가 출현한 경우에도 감시 대상 객체가 영상을 통해 식별되지 않아 보고가 누락되는 경우가 빈번히 발생하여 오보율을 크게 개선하지 못하는 문제가 있다.However, the area to be monitored generally has a low-light environment, and for this reason, even in recent security systems, when the sensor detects the object to be monitored, the object does not appear clearly in the image generated by the camera operating in the low-light environment, so the object is not the object to be monitored. Even when an alarm is provided or a monitoring target object appears, the report is frequently omitted because the monitoring target object is not identified through the video, so there is a problem in that the false information rate cannot be significantly improved.

상술한 문제점으로 인해, 보안 감시 시스템의 감시 대상 지역에 대한 침입 감지 보고에 따른 신뢰성 및 정확도가 저하되는 문제가 발생하고 있으며, 이를 해결하기위해 딥러닝 분석 기반의 영상분석 방법이 제안되고 있다.Due to the above-mentioned problems, there is a problem that reliability and accuracy are lowered according to the intrusion detection report of the surveillance target area of the security monitoring system, and to solve this problem, an image analysis method based on deep learning analysis has been proposed.

하지만, 딥러닝 분석 처리에는 많은 컴퓨팅 자원이 소모되기 때문에 딥러닝 분석 장치나 서버가 별도의 원격지에 외부 네트워크로 연결되어 위치한 경우가 많다. 이에 따라 영상 정보가 딥러닝 분석 서버를 통해 분석이 완료된 이후에서나 객체 분류 및 정확한 이벤트 검출이 가능하게 되므로, 컴퓨팅 비용뿐만 아니라 보안 감시 시스템에서 가장 중요한 시간 자원이 소모되게 되는 문제점이 있다.However, since a lot of computing resources are consumed for deep learning analysis processing, a deep learning analysis device or server is often located in a separate remote location connected to an external network. Accordingly, object classification and accurate event detection are possible only after the image information is analyzed through the deep learning analysis server, so there is a problem that not only computing cost but also the most important time resource in the security monitoring system is consumed.

이는 결과적으로 현장에 설치된 감시 장비 동작을 지연시키며, 현실적으로는 딥러닝 분석이 완료되기 이전 시점에 단순 센서 기반으로 긴급한 알람 기능만을 먼저 처리해야 하므로, 여전히 오보율이 그대로인 문제점이 있다.As a result, it delays the operation of the monitoring equipment installed in the field, and in reality, only the urgent alarm function based on a simple sensor has to be processed first before the deep learning analysis is completed, so there is a problem that the false alarm rate is still the same.

본 발명은 상기한 바와 같은 문제점들을 해결하고자 안출된 것으로, 현장에 설치되는 보안 감시 장치를 지능형 보안 감시 장치로 구성하여 인공지능 기반의 로컬 영상감시 시스템을 구축하되, 딥러닝 분석이 필요한 추적 데이터는 분산 데이터로 가공하여 엣지 컴퓨팅 기반의 딥러닝 분산 처리 장치로 분석 요청 및 처리하게 함으로써, 시스템 지연의 최소화 및 정확한 이벤트 검출에 따른 오보율을 최소화할 수 있는 엣지 컴퓨팅 기반 보안 감시 서비스 제공 장치, 시스템 및 그 동작 방법을 제공하는데 그 목적이 있다.The present invention was devised to solve the above problems, and the security monitoring device installed in the field is configured as an intelligent security monitoring device to build an artificial intelligence-based local video monitoring system, but the tracking data requiring deep learning analysis is Edge computing-based security monitoring service providing device, system and An object of the present invention is to provide a method of operation thereof.

상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 시스템은, 보안 감시 지역에 배치되고 보안 감시 지역을 촬영하거나, 보안 감시 지역 또는 그 주변에서 발생되는 감지 신호를 센싱하여, 영상 정보 및 센서 정보를 획득하는 하나 이상의 카메라 장치 및 센서 장치와; 상기 카메라 및 센서장치들과 로컬 감시 네트워크로 연결되고, 카메라 장치 및 센서 장치로부터 수신되는 영상 정보 및 센서 정보를 수집 및 저장 관리하고, 영상 정보 및 센서 정보에 기초하여 보안 감시 지역에서 발생되는 하나 이상의 보안 감시 이벤트를 검출하되, 기초 정보 분석에 의해 검출되는 제1 보안 감시 이벤트와, 복잡한 딥러닝 분석이 필요한 영상에 대해 딥러닝 분산처리 요청데이터를 생성하여 딥러닝 분산 처리장치로 전달하고, 해당 딥러닝 분산 처리 장치로부터 딥러닝 처리 결과정보를 수신받아 반영한 제2 보안 감시 이벤트를 검출하고, 검출된 이벤트에 대응하는 감시 서비스 처리를 수행하는 지능형 보안 감시 장치와; 하나 이상의 상기 지능형 보안 감시장치에 대해 하나 이상이 배치되어 정보의 분산처리가 가능하게 통신 연결되고, 상기 지능형 보안 감시 장치로부터 객체의 정확한 검출 및 분류를 통해 보다 정확한 분석이 요구되는 딥러닝 분산처리 요청 데이타를 수신받아 딥러닝 기반 객체 검출 및 객체 분류 분석을 수행하고, 해당 딥러닝 분석정보 결과 정보를 반영한 보안 감시 이벤트를 검출하도록 딥러닝 분석 결과를 해당 지능형 보안 감시 장치로 전송하는 딥러닝 분산 처리장치와; 각지에 설치되는 지능형 보안 감시 장치들로부터 영상 감시 분석 데이터를 수집하여 저장 및 관리하고, 딥러닝 분산 처리 장치로부터 수신되는 딥러닝 영상 분석 결과와 상기 영상 감시 분석 데이터를 사용자 단말 및 관제 서비스 서버로 중계하는 서버; 및 상기 중계서버를 통해 수신되는 각 지능형 보안 감시 장치의 이벤트 검출 데이터 및 각 딥러닝 분산 처리장치로부터 수신되는 딥러닝 영상 분석 정보에 기초한 사고 발생 신고, 화재 발생 신고, 사용자 알림, 감시 장치 제어, 실시간 모니터링 등의 다양한 관제 서비스 처리를 수행하고, 서비스 수행 정보를 사용자 단말로 전송하는 관제 서비스 서버를 포함한다. A system according to an embodiment of the present invention for solving the above problems is disposed in a security monitoring area and photographing the security monitoring area, or by sensing a detection signal generated in or around the security monitoring area, image information and one or more camera devices and sensor devices for acquiring sensor information; It is connected to the camera and sensor devices through a local monitoring network, collects, stores and manages image information and sensor information received from the camera device and sensor device, and based on the image information and sensor information, one or more generated in a security monitoring area. The security monitoring event is detected, but the deep learning distributed processing request data is generated for the first security monitoring event detected by basic information analysis and the image requiring complex deep learning analysis and delivered to the deep learning distributed processing device, an intelligent security monitoring device that receives and reflects the deep learning processing result information from the learning distributed processing device, detects a second security monitoring event, and performs monitoring service processing corresponding to the detected event; One or more of the one or more intelligent security monitoring devices are arranged and connected to enable distributed processing of information, and deep learning distributed processing requests that require more accurate analysis through accurate detection and classification of objects from the intelligent security monitoring devices A deep learning distributed processing device that receives data, performs deep learning-based object detection and object classification analysis, and transmits the deep learning analysis result to the corresponding intelligent security monitoring device to detect a security monitoring event that reflects the deep learning analysis information result information Wow; It collects, stores, and manages video monitoring analysis data from intelligent security monitoring devices installed in various places, and relays the deep learning video analysis results received from the deep learning distributed processing device and the video monitoring analysis data to user terminals and control service servers. server to; And based on the event detection data of each intelligent security monitoring device received through the relay server and the deep learning image analysis information received from each deep learning distributed processing device, accident occurrence report, fire occurrence report, user notification, monitoring device control, real-time It includes a control service server that performs various control service processing such as monitoring and transmits service performance information to a user terminal.

상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은, 지능형 보안 감시 장치의 동작 방법에 있어서, 보안 감시를 위한 영상 정보를 수집하는 단계; 상기 영상 정보에 대한 초기 분석 처리에 따라, 상기 영상 정보의 객체를 추적하기 위한 추적 데이터를 획득하는 단계; 상기 추적 데이터 및 상기 영상 정보에 기초하여, 딥러닝 분산 처리 요청 데이터를 생성하는 단계; 및 상기 딥러닝 분산 처리 요청 데이터를 딥러닝 분산 처리 장치로 전송하는 단계를 포함한다.According to an embodiment of the present invention, there is provided a method for operating an intelligent security monitoring apparatus, the method comprising: collecting image information for security monitoring; acquiring tracking data for tracking an object of the image information according to an initial analysis process for the image information; generating deep learning distributed processing request data based on the tracking data and the image information; and transmitting the deep learning distributed processing request data to a deep learning distributed processing device.

또한, 지능형 보안 감시 장치는, 보안 감시를 위한 영상 정보를 수집하는 영상 정보 수집부; 상기 영상 정보에 대한 초기 분석 처리에 따라, 상기 영상 정보의 객체를 추적하기 위한 추적 데이터를 획득하는 객체 추적부; 및 상기 추적 데이터 및 상기 영상 정보에 기초하여, 딥러닝 분산 처리 요청 데이터를 생성하고, 상기 딥러닝 분산 처리 요청 데이터를 딥러닝 분산 처리 장치로 전송하는 분산 데이터 처리부를 포함한다.In addition, the intelligent security monitoring apparatus includes: an image information collecting unit for collecting image information for security monitoring; an object tracking unit configured to acquire tracking data for tracking an object of the image information according to an initial analysis process for the image information; and a distributed data processing unit for generating deep learning distributed processing request data based on the tracking data and the image information, and transmitting the deep learning distributed processing request data to a deep learning distributed processing apparatus.

또한, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 장치는, 지능형 카메라 장치에 있어서, 실시간 영상을 촬영하여 획득하는 카메라부; 상기 카메라부로부터 수신되는 실시간 영상을 보안 감시를 위한 영상 정보로 안정화 처리하는 영상 정보 안정화부; 상기 영상 정보에 대한 초기 분석 처리에 따라, 상기 영상 정보의 객체를 추적하기 위한 추적 데이터를 획득하는 객체 추적부; 및 상기 추적 데이터 및 상기 영상 정보에 기초하여, 딥러닝 분산 처리 요청 데이터를 생성하고, 상기 딥러닝 분산 처리 요청 데이터를 하나 이상의 딥러닝 분산 처리 장치로 전송하는 분산 데이터 처리부를 포함한다.In addition, an apparatus according to an embodiment of the present invention for solving the above-described problems, an intelligent camera device, comprising: a camera unit for capturing a real-time image to obtain; an image information stabilization unit for stabilizing the real-time image received from the camera unit into image information for security monitoring; an object tracking unit configured to acquire tracking data for tracking an object of the image information according to an initial analysis process for the image information; and a distributed data processing unit for generating deep learning distributed processing request data based on the tracking data and the image information, and transmitting the deep learning distributed processing request data to one or more deep learning distributed processing devices.

한편, 상기한 바와 같은 과제를 해결하기 위한 본 발명의 실시 예에 따른 방법은 상기 방법을 컴퓨터에서 실행시키기 위한 프로그램 및 상기 프로그램이 기록된 기록 매체로 구현될 수 있다.On the other hand, the method according to an embodiment of the present invention for solving the above problems may be implemented as a program for executing the method in a computer and a recording medium in which the program is recorded.

본 발명의 실시 예에 따르면, 현장에 설치되는 보안 감시 장치를 지능형 보안 감시 장치로 구성하여 1차적인 인공지능 기반의 영상감시 시스템을 구축하되, 딥러닝 분석이 필요한 감시 데이터만 분산 데이터로 가공하여 엣지 컴퓨팅 기반의 딥러닝 분산 처리 장치로 분석 요청 및 처리하게 함으로써, 시스템 지연의 최소화 및 정확한 이벤트 검출에 따른 오보율을 최소화할 수 있는 엣지 컴퓨팅 기반 보안 감시 서비스 제공 장치, 시스템 및 그 동작 방법을 제공할 수 있다.According to an embodiment of the present invention, a security monitoring device installed in the field is configured as an intelligent security monitoring device to construct a primary AI-based video monitoring system, but only monitoring data requiring deep learning analysis is processed into distributed data. Provides an edge computing-based security monitoring service providing device, system, and operating method that can minimize system delay and error rate due to accurate event detection by requesting and processing analysis with an edge computing-based deep learning distributed processing device can do.

도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.
도 2는 본 발명의 실시 예에 따른 지능형 감시 장치 및 딥러닝 분산 서버의 구성 및 연결관계를 보다 구체적으로 도시한 블록도이다.
도 3은 본 발명의 실시 예에 따른 이벤트 검출부의 검출 모듈을 설명하기 위한 블록도이다.
도 4는 본 발명의 실시 예에 따른 전체 시스템 동작을 설명하기 위한 래더 다이어그램이다.
도 5는 본 발명의 다른 일 실시 예에 따른 지능형 카메라 장치 기반 시스템을 설명하기 위한 개념도이다.
도 6은 본 발명의 실시 예에 따른 지능형 카메라 장치로 구현된 딥러닝 분석 시스템의 구성 및 연결관계를 보다 구체적으로 도시한 블록도이다.
1 is a conceptual diagram schematically illustrating an entire system according to an embodiment of the present invention.
2 is a block diagram illustrating in more detail the configuration and connection relationship of an intelligent monitoring device and a deep learning distributed server according to an embodiment of the present invention.
3 is a block diagram illustrating a detection module of an event detection unit according to an embodiment of the present invention.
4 is a ladder diagram for explaining the overall system operation according to an embodiment of the present invention.
5 is a conceptual diagram illustrating an intelligent camera device-based system according to another embodiment of the present invention.
6 is a block diagram illustrating in more detail the configuration and connection relationship of a deep learning analysis system implemented with an intelligent camera device according to an embodiment of the present invention.

이하의 내용은 단지 본 발명의 원리를 예시한다. 그러므로 당업자는 비록 본 명세서에 명확히 설명되거나 도시되지 않았지만 본 발명의 원리를 구현하고 본 발명의 개념과 범위에 포함된 다양한 장치를 발명할 수 있는 것이다. 또한, 본 명세서에 열거된 모든 조건부 용어 및 실시예들은 원칙적으로, 본 발명의 개념이 이해되도록 하기 위한 목적으로만 명백히 의도되고, 이와 같이 특별히 열거된 실시예들 및 상태들에 제한적이지 않는 것으로 이해되어야 한다.The following is merely illustrative of the principles of the invention. Therefore, those skilled in the art will be able to devise various devices that, although not explicitly described or shown herein, embody the principles of the present invention and are included within the spirit and scope of the present invention. Further, it is to be understood that all conditional terms and examples listed herein are, in principle, expressly intended solely for the purpose of enabling the concept of the present invention to be understood, and not limited to the specifically enumerated embodiments and states as such. should be

또한, 본 발명의 원리, 관점 및 실시예들 뿐만 아니라 특정 실시예를 열거하는 모든 상세한 설명은 이러한 사항의 구조적 및 기능적 균등물을 포함하도록 의도되는 것으로 이해되어야 한다. 또한 이러한 균등물들은 현재 공지된 균등물뿐만 아니라 장래에 개발될 균등물 즉 구조와 무관하게 동일한 기능을 수행하도록 발명된 모든 소자를 포함하는 것으로 이해되어야 한다.Moreover, it is to be understood that all detailed description reciting the principles, aspects, and embodiments of the invention, as well as specific embodiments, are intended to cover structural and functional equivalents of such matters. It should also be understood that such equivalents include not only currently known equivalents, but also equivalents developed in the future, i.e., all devices invented to perform the same function, regardless of structure.

따라서, 예를 들어, 본 명세서의 블록도는 본 발명의 원리를 구체화하는 예시적인 회로의 개념적인 관점을 나타내는 것으로 이해되어야 한다. 이와 유사하게, 모든 흐름도, 상태 변환도, 의사 코드 등은 컴퓨터가 판독 가능한 매체에 실질적으로 나타낼 수 있고 컴퓨터 또는 프로세서가 명백히 도시되었는지 여부를 불문하고 컴퓨터 또는 프로세서에 의해 수행되는 다양한 프로세스를 나타내는 것으로 이해되어야 한다.Thus, for example, the block diagrams herein are to be understood as representing conceptual views of illustrative circuitry embodying the principles of the invention. Similarly, all flowcharts, state transition diagrams, pseudo code, etc. may be tangibly embodied on computer-readable media and be understood to represent various processes performed by a computer or processor, whether or not a computer or processor is explicitly shown. should be

또한 프로세서, 제어 또는 이와 유사한 개념으로 제시되는 용어의 명확한 사용은 소프트웨어를 실행할 능력을 가진 하드웨어를 배타적으로 인용하여 해석되어서는 아니되고, 제한 없이 디지털 신호 프로세서(DSP) 하드웨어, 소프트웨어를 저장하기 위한 롬(ROM), 램(RAM) 및 비 휘발성 메모리를 암시적으로 포함하는 것으로 이해되어야 한다. 주지관용의 다른 하드웨어도 포함될 수 있다.In addition, the clear use of terms presented as processor, control, or similar concepts should not be construed as exclusively referring to hardware having the ability to execute software, and without limitation, digital signal processor (DSP) hardware, ROM for storing software. It should be understood to implicitly include (ROM), RAM (RAM) and non-volatile memory. Other common hardware may also be included.

상술한 목적, 특징 및 장점은 첨부된 도면과 관련한 다음의 상세한 설명을 통하여 보다 분명해질 것이며, 그에 따라 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명의 기술적 사상을 용이하게 실시할 수 있을 것이다. 또한, 본 발명을 설명함에 있어서 본 발명과 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에 그 상세한 설명을 생략하기로 한다. The above objects, features and advantages will become more apparent through the following detailed description in relation to the accompanying drawings, and accordingly, those of ordinary skill in the art to which the present invention pertains can easily implement the technical idea of the present invention. There will be. In addition, in the description of the present invention, if it is determined that a detailed description of a known technology related to the present invention may unnecessarily obscure the gist of the present invention, the detailed description thereof will be omitted.

이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 일실시예를 상세히 설명하기로 한다.Hereinafter, a preferred embodiment according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시 예에 따른 전체 시스템을 개략적으로 도시한 개념도이다.1 is a conceptual diagram schematically illustrating an entire system according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 실시 예에 따른 전체 시스템은, 지능형 보안 감시 장치(100), 사용자 단말(200), 딥러닝 분산 처리 장치(300), 중계 서버(400), 관제 서비스 서버(500), 하나 이상의 카메라 장치(600) 및 하나 이상의 센서 장치(700)를 포함한다.1 , the entire system according to an embodiment of the present invention includes an intelligent security monitoring device 100, a user terminal 200, a deep learning distributed processing device 300, a relay server 400, a control service server ( 500 ), one or more camera devices 600 , and one or more sensor devices 700 .

카메라 장치(600) 및 센서 장치(700)는, 보안 감시 지역에 배치될 수 있으며, 지능형 보안 감시 장치(100)와 로컬 감시 네트워크로 연결될 수 있다. 카메라 장치(600) 및 센서 장치(700)는 각각 보안 감시 지역을 촬영하거나, 보안 감시 지역 또는 그 주변에서 발생되는 감지 신호를 센싱하여, 영상 정보 및 센서 정보를 획득하고, 획득된 영상 정보 및 센서 정보를 지능형 보안 감시 장치(100)로 전송한다.The camera device 600 and the sensor device 700 may be disposed in a security monitoring area, and may be connected to the intelligent security monitoring device 100 through a local monitoring network. The camera device 600 and the sensor device 700 each photograph a security monitoring area or sense a detection signal generated in or around the security monitoring area to obtain image information and sensor information, and obtain image information and a sensor The information is transmitted to the intelligent security monitoring device 100 .

지능형 보안 감시 장치(100)는, 카메라 장치(600) 및 센서 장치(700)로부터 수신되는 영상 정보 및 센서 정보를 수집 및 저장 관리할 수 있으며, 영상 정보 및 센서 정보에 기초하여 보안 감시 지역에서 발생되는 하나 이상의 보안 감시 이벤트를 검출하고, 검출된 이벤트에 대응하는 감시 서비스 처리를 수행할 수 있다.The intelligent security monitoring device 100 may collect, store, and manage image information and sensor information received from the camera device 600 and the sensor device 700, and is generated in a security monitoring area based on the image information and sensor information It is possible to detect one or more security monitoring events, and perform monitoring service processing corresponding to the detected event.

여기서, 감시 서비스 처리는 발생된 이벤트에 대응하는 사용자 단말(200)로의 알람 메시지 전송 서비스, 경보 알림 기능 동작 또는 해제 서비스, 관제 서비스 서버(500)로의 상태정보 전송 서비스 등이 예시될 수 있다.Here, the monitoring service processing may be exemplified by an alarm message transmission service to the user terminal 200 corresponding to the generated event, an alarm notification function operation or cancellation service, a status information transmission service to the control service server 500 , and the like.

이러한 감시 서비스 처리를 위해, 지능형 보안 감시 장치(100)는 중계 서버(400), 관제 서비스 서버(500) 또는 사용자 단말(200)과 유무선 네트워크로 연결될 수 있고, 상기 지능형 보안 감시 장치(100)는 상기 유무선 네트워크를 통해 통신을 수행하기 위한 하나 이상의 유무선 통신 모듈을 구비할 수 있다. 상기 유무선 통신 네트워크는 널리 알려진 다양한 통신 방식이 적용될 수 있다.For this monitoring service processing, the intelligent security monitoring device 100 may be connected to the relay server 400, the control service server 500, or the user terminal 200 through a wired/wireless network, and the intelligent security monitoring device 100 is One or more wired/wireless communication modules for performing communication through the wired/wireless network may be provided. Various well-known communication methods may be applied to the wired/wireless communication network.

그리고, 지능형 보안 감시 장치(100)는 영상 정보 및 센서 정보를 분석하여 이벤트를 검출하기 위한 하나 이상의 정보 처리 모듈 및 정보 분석 모듈을 포함할 수 있다.In addition, the intelligent security monitoring apparatus 100 may include one or more information processing modules and information analysis modules for detecting an event by analyzing image information and sensor information.

또한, 지능형 보안 감시 장치(100)는 정보 처리 및 분석에 따른 초기 분석 정보를 기반으로 소정의 제1 감시 이벤트들을 검출할 수 있으나, 객체의 정확한 검출 및 분류를 통해 보다 정확한 분석이 요구되는 제2 감시 이벤트에 대하여는 별도의 딥러닝 분석 처리를 하나 이상의 딥러닝 분산 처리 장치(300)와 연동하여 처리할 수 있다.In addition, the intelligent security monitoring apparatus 100 may detect predetermined first monitoring events based on the initial analysis information according to information processing and analysis, but the second detection and classification of objects that require more accurate analysis For the monitoring event, separate deep learning analysis processing may be processed in conjunction with one or more deep learning distributed processing devices 300 .

여기서, 상기 제1 감시 이벤트 및 제2 감시 이벤트는 딥러닝 분석 처리 여부에 따라 그룹핑될 수 있으며, 제1 감시 이벤트는 센서 정보 및 영상 정보의 초기 분석에 따라 신속히 검출되는 침입 이벤트, 카메라 무단 변경 이벤트, 화재 발생 이벤트 등이 예시될 수 있고, 제2 감시 이벤트는 딥러닝 분석에 따른 정확한 객체 검출 및 분류 정보가 수반되는 동적 객체 추적 이벤트, 트립 와이어 이벤트, 배회객체 감지 이벤트, 통행방향 위반 감지 이벤트, 무단 방치물 감지 이벤트, 무단 이동물체 감지 이벤트, 출입 카운팅 및 통계 이벤트, 군중 밀집상태 감지 이벤트, 특이행동 감지 이벤트 등이 예시될 수 있다.Here, the first monitoring event and the second monitoring event may be grouped according to whether or not deep learning analysis is processed, and the first monitoring event is an intrusion event that is quickly detected according to the initial analysis of sensor information and image information, and an unauthorized camera change event. , fire occurrence event, etc. may be exemplified, and the second monitoring event is a dynamic object tracking event accompanied by accurate object detection and classification information according to deep learning analysis, a trip wire event, a wandering object detection event, a traffic direction violation detection event, Unauthorized object detection event, unauthorized moving object detection event, access counting and statistical event, crowd density detection event, unusual behavior detection event, etc. may be exemplified.

다만, 이는 예시이므로, 감시 기준 및 객체 분류 설정에 따른 더욱 더 다양한 이벤트 감지가 가능할 수 있으며, 제1 감시 이벤트와 제2 감시 이벤트가 복합적으로 검출되어 신속한 복합 감시 서비스 제공에 이용될 수도 있다. 예를 들어, 지능형 보안 감시 장치(100)는, 제1 감시 이벤트 발생에 따른 초기 분석 정보를 중계 서버(400)를 통해 관제 서비스 서버(500) 또는 사용자 단말(200)로 우선 전송하고, 상기 제1 감시 이벤트와 연관된 일정 시간 범위 이내의 영상 정보의 딥러닝 분석 결과에 따라, 상기 제1 감시 이벤트에 대한 상세 분석 정보로서 제2 감시 이벤트를 검출하여 상기 중계 서버(400)를 통해 관제 서비스 서버(500) 또는 사용자 단말(200)로 제2 감시 이벤트 정보를 제공할 수 있다.However, since this is an example, it may be possible to detect more various events according to monitoring criteria and object classification settings, and the first monitoring event and the second monitoring event may be complexly detected and used to provide a rapid composite monitoring service. For example, the intelligent security monitoring apparatus 100 transmits the initial analysis information according to the occurrence of the first monitoring event to the control service server 500 or the user terminal 200 through the relay server 400 first, and 1 According to the result of deep learning analysis of video information within a certain time range related to the monitoring event, a second monitoring event is detected as detailed analysis information for the first monitoring event, and a control service server ( 500) or the user terminal 200 may provide the second monitoring event information.

이에 따라, 지능형 보안 감시 장치(100)는 제1 감시 이벤트에 따른 기본적 감시 서비스 처리를 신속하게 처리할 수 있을 뿐만 아니라, 지능형 보안 감시 장치(100)에서 초기 분석 처리된 데이터에 대한 분산 데이터의 딥러닝 분석 처리만을 별도의 전문화된 딥러닝 분산 처리 장치(300)로 요청하여 처리하므로, 보다 정확한 객체 분류가 가능하여야만 제공되는 제2 감시 이벤트의 발생여부 또한 데이터의 분산 처리에 따라 신속하게 검출할 수 있게 된다.Accordingly, the intelligent security monitoring device 100 can not only quickly process the basic monitoring service processing according to the first monitoring event, but also deep dive of distributed data for the data initially analyzed and processed in the intelligent security monitoring device 100 . Since only the learning analysis processing is requested and processed by a separate specialized deep learning distributed processing device 300, the occurrence of the second monitoring event, which is provided only when more accurate object classification is possible, can also be quickly detected according to the distributed processing of data. there will be

이를 위해, 지능형 보안 감시 장치(100)는 제2 이벤트 검출 처리를 위해 딥러닝 분석이 필요한 영상 정보에 대응하는 분산 데이터를 구성하고, 딥러닝 분산 처리 장치(300)로 딥러닝 분석 처리 요청을 전송할 수 있다. To this end, the intelligent security monitoring device 100 configures distributed data corresponding to image information requiring deep learning analysis for the second event detection processing, and transmits a deep learning analysis processing request to the deep learning distributed processing device 300 . can

보다 구체적으로, 지능형 보안 감시 장치(100)는, 수집된 영상 정보 상에서 제1 이벤트를 검출 가능한 초기 분석 정보를 처리하고, 상기 초기 분석 정보로부터 상기 영상 정보에 대응하는 객체를 추적하기 위한 추적 데이터를 획득할 수 있다.More specifically, the intelligent security monitoring device 100 processes the initial analysis information capable of detecting a first event on the collected image information, and tracking data for tracking an object corresponding to the image information from the initial analysis information. can be obtained

예를 들어, 상기 초기 분석 처리는, 영상 안정화 처리, 배경 모델링 처리, 형태 연산 처리, 요소 연결 처리 및 객체 추적 처리 중 적어도 하나를 포함할 수 있으며, 상기 추적 데이터는 예를 들어 영상 정보로부터 전경화소가 분리 필터링되고, 연결 성분이 라벨링되어 시각 변환 처리된 객체 추적 데이터를 포함할 수 있다.For example, the initial analysis processing may include at least one of image stabilization processing, background modeling processing, shape calculation processing, element connection processing, and object tracking processing, and the tracking data is, for example, from image information to a foreground pixel. may include object tracking data that is separated and filtered, and the connected component is labeled and processed into visual transformation.

지능형 보안 감시 장치(100)는 상기 추적 데이터 및 상기 영상 정보에 기초하여, 딥러닝 분산 처리 요청 데이터를 생성하고, 상기 딥러닝 분산 처리 요청 데이터를 딥러닝 분산 처리 장치로 전송할 수 있다.The intelligent security monitoring device 100 may generate deep learning distributed processing request data based on the tracking data and the image information, and transmit the deep learning distributed processing request data to the deep learning distributed processing device.

딥러닝 분산 처리 장치(300)는, 네트워크를 통해 연결되어 엣지 컴퓨팅을 수행하는 하나 또는 그 이상의 장치들로 구성될 수 있으며, 상기 딥러닝 분산 처리 요청 데이터에 따라, 상기 추적 데이터 및 상기 영상 정보의 딥러닝 분석을 처리할 수 있으며, 딥러닝 분석 결과 정보를 지능형 보안 감시 장치(100)로 전달할 수 있다. 보다 구체적으로, 딥러닝 분석 결과 정보에는 상기 추적된 객체에 대응하는 객체 검출 정보 및 객체 분류 정보를 포함할 수 있다.The deep learning distributed processing device 300 may be composed of one or more devices connected through a network to perform edge computing, and according to the deep learning distributed processing request data, the tracking data and the image information Deep learning analysis can be processed, and deep learning analysis result information can be delivered to the intelligent security monitoring device 100 . More specifically, the deep learning analysis result information may include object detection information and object classification information corresponding to the tracked object.

이러한 객체 검출 정보 및 객체 분류 정보는, 예를 들어 사전 누적 학습된 영상 정보로부터 특정 방향으로 움직이거나 동작하는 등의 패턴에 따라 식별되는 동적 객체 정보가 예시될 수 있으며, 지능형 보안 감시 장치(100)는 상기 객체 검출 정보 및 상기 객체 분류 정보와, 상기 추적 데이터에 기초하여, 상기 영상 정보에 대응하는 제2 감시 이벤트를 검출할 수 있다.Such object detection information and object classification information may be, for example, dynamic object information identified according to a pattern such as moving or operating in a specific direction from pre-accumulated image information, and the intelligent security monitoring device 100 . may detect a second monitoring event corresponding to the image information based on the object detection information, the object classification information, and the tracking data.

한편, 딥러닝 분산 처리 장치(300)는, 지능형 보안 감시 장치(100)로부터 수신되는 딥러닝 분산 처리 요청 데이터에 따른 딥러닝 영상 분석을 처리하고, 그 결과 정보를 지능형 보안 감시 장치(100)로 전달할 수 있으며, 나아가 딥러닝 영상 분석 정보는 중계 서버(400)로도 전송될 수 있다.On the other hand, the deep learning distributed processing device 300 processes the deep learning image analysis according to the deep learning distributed processing request data received from the intelligent security monitoring device 100, and transmits the result information to the intelligent security monitoring device 100 It can be delivered, and further, the deep learning image analysis information can also be transmitted to the relay server 400 .

딥러닝 분산 처리 장치(300)는, 딥러닝 분산 처리 요청 데이터에 기초하여, 일반적으로 기존의 보안 시스템이 저조도의 환경에서 동작하여 센서의 센싱 신호를 통해 감시 대상의 감지시 생성된 동영상에 대한 영상 분석 과정에서 객체가 검출된 경우에도 객체의 식별이 어려워 감시 대상 객체가 아닌 객체에 대한 이벤트를 생성하여 보고하거나 센서를 통해 감시 대상이 감지된 경우에도 영상에서 낮은 조도로 인해 객체가 식별되지 않아 감시 대상의 감지에 따른 보고가 누락되는 경우와 같은 오보율이 증가하는 문제점을 개선하기 위한 딥러닝 분석을 처리할 수 있다.The deep learning distributed processing device 300, based on the deep learning distributed processing request data, generally operates in a low-illumination environment, and an image for a video generated when a monitoring target is detected through a sensing signal of a sensor Even when an object is detected during the analysis process, it is difficult to identify the object, so it generates and reports an event for an object other than the object to be monitored. Deep learning analysis can be processed to improve problems with an increase in false positives, such as when a report is omitted according to the detection of a target.

딥러닝 분산 처리 장치(300)는, 딥 러닝을 통해 감시 대상 지역의 환경 특성(환경 조건)에서 나타나는 감시 대상 객체의 특징을 지속적으로 학습하여 감시 대상 객체에 대한 식별 정확도를 높이는 동시에 감시 대상 객체가 식별된 이미지의 영상 특징을 지속적으로 학습하여 객체 식별이 용이한 최적의 이미지를 판단하고 이를 통해 감시 대상 객체가 정확하게 식별되는 이미지를 선별하여 제공함으로써 감시 대상 객체를 다른 객체와 정확히 구분하여 식별되도록 지원하여 오보율을 낮추는 동시에 감시 대상의 감지시 보고가 누락되는 경우를 방지하도록 하는 딥러닝 분석 결과 정보를 획득하고, 지능형 보안 감시 장치(100) 또는 중계 서버(400)로 분석 결과 정보를 제공할 수 있다.The deep learning distributed processing device 300 continuously learns the characteristics of the monitoring target object appearing in the environmental characteristics (environmental conditions) of the monitoring target area through deep learning to increase the identification accuracy of the monitoring target object, and at the same time, the monitoring target object By continuously learning the image characteristics of the identified image to determine the optimal image for easy object identification, and by selecting and providing an image in which the object to be monitored is accurately identified, the object to be monitored is accurately distinguished from other objects and supported to obtain deep learning analysis result information that lowers the false alarm rate and prevents the case of missing a report when a monitoring target is detected, and provides the analysis result information to the intelligent security monitoring device 100 or the relay server 400 have.

여기서, 상기 중계 서버(400)는 각지에 설치되는 지능형 보안 감시 장치(100)들로부터 영상 감시 분석 데이터를 수집하여 저장 및 관리하고, 딥러닝 분산 처리 장치(300)로부터 수신되는 딥러닝 영상 분석 결과와 상기 영상 감시 분석 데이터를 사용자 단말(200) 및 관제 서비스 서버(500)로 중계하는 서버일 수 있다.Here, the relay server 400 collects, stores and manages video surveillance analysis data from the intelligent security monitoring devices 100 installed in various places, and the deep learning image analysis result received from the deep learning distributed processing device 300 . and a server that relays the video monitoring analysis data to the user terminal 200 and the control service server 500 .

이러한 중계 서버(400)는 상기 지능형 보안 감시 장치(100)의 이벤트 검출 데이터가 수신된 경우, 상기 이벤트 검출 데이터에 대응하는 딥러닝 영상 분석 정보를 색인하여 상기 지능형 보안 감시 장치(100)에 대응하여 사전 등록된 사용자 단말(200)로 상기 이벤트 검출 데이터에 대응하는 딥러닝 영상 분석 정보를 전송하는 서버일 수 있다.When the event detection data of the intelligent security monitoring device 100 is received, the relay server 400 indexes the deep learning image analysis information corresponding to the event detection data in response to the intelligent security monitoring device 100. It may be a server that transmits deep learning image analysis information corresponding to the event detection data to the pre-registered user terminal 200 .

또한, 상기 이벤트 검출 데이터 및 딥러닝 영상 분석 정보는 관제 서비스 서버(500)로도 전달될 수 있으며, 관제 서비스 서버(500)는 상기 이벤트 검출 데이터 및 딥러닝 영상 분석 정보에 기초한 사고 발생 신고, 화재 발생 신고, 사용자 알림, 감시 장치 제어, 실시간 모니터링 등의 다양한 관제 서비스 처리를 수행하고, 서비스 수행 정보를 사용자 단말(200)로 전송할 수 있다.In addition, the event detection data and deep learning image analysis information may be transmitted to the control service server 500 , and the control service server 500 reports an accident occurrence based on the event detection data and deep learning image analysis information, fire occurrence Various control service processing such as reporting, user notification, monitoring device control, and real-time monitoring may be performed, and service performance information may be transmitted to the user terminal 200 .

도 2는 본 발명의 실시 예에 따른 지능형 감시 장치 및 딥러닝 분산 서버의 구성 및 연결관계를 보다 구체적으로 도시한 블록도이다.2 is a block diagram illustrating in more detail the configuration and connection relationship of an intelligent monitoring device and a deep learning distributed server according to an embodiment of the present invention.

도 2를 참조하면, 본 발명의 실시 예에 따른 지능형 보안 감시 장치(100)는, 영상 정보 수집부(110), 배경 모델링부(120), 형태 연산 처리부(130), 요소 연결 처리부(140), 객체 추적부(150), 3차원 시점 변환부(160), 객체 분류 처리부(170), 이벤트 검출부(180), 분산 데이터 처리부(190) 및 감시 서비스 처리부(185)를 포함할 수 있으며, 분산 데이터 처리부(190)는 딥러닝 분산 처리 장치(300)와 연결될 수 있다.Referring to FIG. 2 , the intelligent security monitoring apparatus 100 according to an embodiment of the present invention includes an image information collection unit 110 , a background modeling unit 120 , a shape calculation processing unit 130 , and an element connection processing unit 140 . , may include an object tracking unit 150, a 3D viewpoint transformation unit 160, an object classification processing unit 170, an event detection unit 180, a distributed data processing unit 190 and a monitoring service processing unit 185, and distributed The data processing unit 190 may be connected to the deep learning distributed processing apparatus 300 .

그리고, 딥러닝 분산 처리 장치(300)는 딥러닝 기반 영상 정보 분석부(310), 객체 검출부(320), 객체 분류 처리부(330)를 포함할 수 있다.In addition, the deep learning distributed processing apparatus 300 may include a deep learning-based image information analysis unit 310 , an object detection unit 320 , and an object classification processing unit 330 .

먼저, 영상 정보 수집부(110)는, 센서 장치(700)로부터 수신되는 보안 감시 영역 센싱 정보와 카메라 장치(600)로부터 수신되는 보안 감시 영역 촬영 영상 데이터를 수집하고, 영상 데이터에 카메라의 촬영영상 내 프레임의 흔들림이 존재하는 경우, 흔들림 보정에 따른 영상 정보의 안정화를 처리할 수 있다. 여기서, 안정화 처리는 카메라로부터 촬영된 영상을 블록으로 분할하여 특징점을 추출하고, 특징점의 움직임벡터 산출을 통해 영상의 흔들림을 보정하여 안정된 영상을 획득하는 처리가 예시될 수 있다.First, the image information collecting unit 110 collects the security monitoring area sensing information received from the sensor device 700 and the security monitoring area captured image data received from the camera device 600, and includes the image data captured by the camera. When there is shake in the frame, image information stabilization according to shake correction can be processed. Here, the stabilization process may be exemplified by dividing an image captured by the camera into blocks, extracting feature points, and obtaining a stable image by correcting image shake by calculating a motion vector of the feature points.

그리고, 배경 모델링부(120)는 안정화 처리된 영상 정보에 대응하는 배경 영역을 모델링 처리할 수 있다. 카메라 장치(600)는 복수 개 구비될 수 있으며, 배경 모델링부(120)는 각 카메라 장치(600)에서 촬영된 영상 영역별로 영상의 배경을 모델링할 수 있다. 배경 모델링부(120)는 배경 모델링에 따라, 전경에 대응하는 객체를 식별하고, 추적될 수 있도록 하는 배경 영역 데이터를 연산할 수 있다.In addition, the background modeling unit 120 may model the background region corresponding to the image information that has been stabilized. A plurality of camera devices 600 may be provided, and the background modeling unit 120 may model a background of an image for each image area captured by each camera device 600 . The background modeling unit 120 may identify an object corresponding to the foreground according to the background modeling and calculate background area data to be tracked.

이러한 배경 모델링부(120)는 복잡한 환경에서 객체를 정확히 검출할 수 있도록, 잘 알려진 가우시안 혼합 모델(Gaussian Mixutre Model)을 기반으로 하는 배경 확률 모델을 영상 데이터로부터 생성할 수 있다. 이는 조명의 변화, 배경에 첨가되거나 제거되는 객체, 흔들리는 나뭇가지나 분수 등의 움직임을 가지는 배경, 통행량이 많은 영역 등의 많은 변수를 반영하여 배경 영역 데이터로 생성할 수 있도록 한다.The background modeling unit 120 may generate a background probabilistic model based on a well-known Gaussian Mixutre Model from image data so as to accurately detect an object in a complex environment. This makes it possible to create background area data by reflecting many variables such as changes in lighting, objects added or removed to the background, backgrounds with motion such as swaying branches or fountains, and areas with high traffic.

보다 구체적으로 배경 모델링부(120)는 카메라 장치(600)의 영상 정보로부터 연속적 영상 프레임이 입력되면, 배경 감산 처리를 통해 시간 t에 대한 통계학적 확률에 따른 픽셀당 배경 모델을 구성할 수 있다. 배경 모델링부(120)는 현재 프레임의 영상 정보에서 가우시안 혼합 모델에 따라 구성된 배경 정보를 차감하고, 상기 배경 정보를 픽셀당 배경 모델에 누적 업데이트 하는 방식으로 이루어지는 MOG(Mixtrue of Guassians) 방식에 따라 배경 감산 처리를 수행할 수 있다.More specifically, when successive image frames are input from image information of the camera device 600 , the background modeling unit 120 may construct a background model per pixel according to a statistical probability for time t through background subtraction processing. The background modeling unit 120 subtracts the background information constructed according to the Gaussian mixture model from the image information of the current frame, and accumulates and updates the background information to the background model per pixel according to the MOG (Mixtrue of Guassians) method. Subtraction processing may be performed.

배경 모델링부(120)의 배경 감산 처리에 따라, 배경이 차감된 영상 정보에는 전경 픽셀 정보가 남게 되는 바, 이를 블롭(blob) 이미지라고 할 수 있으며, 블롭 이미지는 전경 픽셀에 대응하는 이진 맵 데이터라고도 할 수 있다.According to the background subtraction process of the background modeling unit 120, foreground pixel information remains in the image information from which the background is subtracted. This may be referred to as a blob image, and the blob image is binary map data corresponding to the foreground pixel. It can also be said that

형태 연산 처리부(130)는, 배경 모델링부(120)에서의 배경 모델링에 따라 차감 출력되는 전경 픽셀 정보의 이진 맵 데이터로부터, 형태 영역 정보를 결정하는 형태 연산 처리를 수행할 수 있다. 형태 영역 정보는 복수의 픽셀들을 하나 이상의 형태 구조 요소로 그룹핑하는 그룹핑 정보일 수 있다.The shape calculation processing unit 130 may perform shape calculation processing to determine shape region information from binary map data of foreground pixel information that is subtracted and output according to the background modeling by the background modeling unit 120 . The shape region information may be grouping information for grouping a plurality of pixels into one or more shape structure elements.

예를 들어, 형태 연산 처리부(130)는 하나 이상의 형태론적 연산 필터들을 상기 전경 픽셀 정보의 이진 맵 데이터에 적용함에 따라 상기 형태 영역 정보를 결정할 수 있다. 여기서 하나 이상의 형태론적 연산 필터는 이진 침식(erosion) 연산 필터 및 이진 팽창(dilation) 연산 필터를 포함할 수 있는 바, 각 필터들은 이진 맵 데이터 내 밝은 영역의 크기를 사전 결정된 형태 구조 요소의 크기 정보에 비례하여 확장하거나 축소시키는 연산 처리를 수행할 수 있다. 팽창 연산 필터 적용시 형태 구조 요소보다 작은 어두운 영역이 제거되고, 반대로 침식 연산 필터 적용시 형태 구조 요소보다 작은 밝은 영역들이 제거될 수 있으며, 동시에, 제거되지 않는 큰 영역들의 크기도 줄거나 커지게 형성될 수 있다.For example, the shape calculation processing unit 130 may determine the shape region information by applying one or more morphological calculation filters to the binary map data of the foreground pixel information. Here, the one or more morphological operation filters may include a binary erosion operation filter and a binary dilation operation filter, where each filter determines the size of a bright region in the binary map data and information on the size of a predetermined morphological structure element. It is possible to perform arithmetic processing of expanding or reducing in proportion to . When the expansion operation filter is applied, dark areas smaller than the shape structure element are removed, and when the erosion operation filter is applied, the bright areas smaller than the shape structure element can be removed, and at the same time, the size of large areas that are not removed is also reduced or increased. can be

그리고, 사전 특정된 크기의 객체 검출을 위해, 형태 연산 처리부(130)는 이진 개방 필터 및 폐쇄 필터를 이용하여, 상기 형태 구조 요소보다 큰 영역의 크기는 그대로 유지한 채, 작은 영역들만 제거시키는 처리를 수행할 수도 있다.And, in order to detect an object of a pre-specified size, the shape operation processing unit 130 uses a binary open filter and a closed filter to remove only small areas while maintaining the size of a larger area than the shape structure element. can also be performed.

그리고, 요소 연결 처리부(140)는, 형태 연산 처리부(130)에서 특정된 형태 구조 요소에 대응하는 영상 정보를 획득하고, 각 형태 구조 요소들을 연결 처리하여 독립적인 객체 연결 영역들로 분류하며, 분류된 객체 연결 영역에 대응하는 고유의 라벨 값들을 할당하는 연결 성분 라벨링 처리를 수행할 수 있다. 이러한 연결 성분 라벨링 처리는 특히 이진 맵 데이터에서 효과적으로 이용될 수 있다.Then, the element connection processing unit 140 acquires image information corresponding to the shape structure element specified by the shape operation processing unit 130 , and classifies the shape structure elements into independent object connection regions by linking and classifying them. Connection component labeling processing of allocating unique label values corresponding to the connected object connection region may be performed. This connection component labeling process can be effectively used especially for binary map data.

요소 연결 처리부(140)는 분류된 객체 연결 영역들을 고유의 라벨 값으로 구분하고, 각 객체 영역의 크기, 위치, 방향, 둘레와 같은 영역의 특징값들을 결정하여 출력할 수 있다. 요소 연결 처리부(140)는 순환적 알고리즘 또는 순차적 알고리즘을 적용하여, 연결 성분 라벨링 처리를 수행하고, 객체 연결 영역들을 분류할 수 있다.The element connection processing unit 140 may classify the classified object connection regions by unique label values, determine and output characteristic values of the regions, such as the size, position, direction, and circumference of each object region. The element connection processing unit 140 may apply a cyclic algorithm or a sequential algorithm to perform connection component labeling processing and classify object connection regions.

예를 들어, 순차적 알고리즘은 각 전경 화소의 픽셀 데이터에 대해 그 화소의 상단 화소와 왼쪽 화소의 라벨을 검색하여 현재 화소의 라벨을 결정하는 알고리즘일 수 있다. 상기 상단 화소와 상기 왼쪽 화소를 포함하는 이웃 화소들은 라벨링 과정에서 이미 처리된 화소일 수 있다.For example, the sequential algorithm may be an algorithm for determining the label of the current pixel by searching the labels of the upper pixel and the left pixel of the pixel data of each foreground pixel. The neighboring pixels including the upper pixel and the left pixel may be pixels that have already been processed in the labeling process.

여기서, 요소 연결 처리부(140)는 이웃 화소들이 모두 전경 화소가 아닌 경우에는 현재 화소에 새로운 라벨값을 할당할 수 있다. 그리고, 요소 연결 처리부(140)는 두 이웃 화소 중 하나의 화소만 전경 화소인 경우에는 그 화소의 라벨값을 현재 화소에 할당할 수 있다. 그리고, 요소 연결 처리부(140)는, 두 이웃 화소가 모두 전경 화소이면서 같은 라벨값을 갖는 경우에는 동일한 라벨값을 현재 화소에 할당할 수 있다.Here, when the neighboring pixels are not all foreground pixels, the element connection processing unit 140 may allocate a new label value to the current pixel. In addition, when only one of the two neighboring pixels is a foreground pixel, the element connection processing unit 140 may assign the label value of the pixel to the current pixel. Also, when both neighboring pixels are foreground pixels and have the same label value, the element connection processing unit 140 may assign the same label value to the current pixel.

그러나, 두 화소가 전경 화소지만 서로 다른 라벨값을 갖는 경우에는 이 두 영역은 현재 화소에 의해 서로 연결되는 영역이므로 동일한 라벨값으로 병합되어야 한다. 따라서 요소 연결 처리부(140)는 두 화소의 라벨값 중 더 작은 값을 현재화소의 라벨값으로 할당하고, 두 라벨은 동치 테이블에 동치 라벨로 등록할 수 있다. 이러한 첫 번째 라벨링 과정의 수행이 종료되면 동치 테이블에는 동일한 영역으로 병합되어야 하는 라밸들에 대한 정보가 저장될 수 있다. 요소 연결 처리부(140)는, 이 동치 테이블을 이용하여 두 번째 라벨링 과정에서 각 객체 연결 영역의 모든 화소에 동일한 라벨을 할당할 수 있다.However, when two pixels are foreground pixels but have different label values, these two regions are connected to each other by the current pixel, so they must be merged with the same label value. Accordingly, the element connection processing unit 140 may allocate the smaller of the label values of the two pixels as the label value of the current pixel, and register the two labels as equivalent labels in the equality table. When the first labeling process is completed, information on labels to be merged into the same area may be stored in the equivalence table. The element connection processing unit 140 may assign the same label to all pixels of each object connection area in the second labeling process using the equivalence table.

이에 따라, 요소 연결 처리부(140)는 전경 픽셀 데이터를 포함하는 블롭(blob) 이미지 데이터와 함께 연결 성분 라벨링 처리에 따른 객체 연결 영역 정보를 출력할 수 있는 바, 객체 연결 영역 정보는 각 객체 연결 영역에 대응하는 특성 정보(위치 정보, 크기 정보, 방향 정보, 둘레 정보 등)를 포함할 수 있다.Accordingly, the element connection processing unit 140 may output object connection region information according to the connection component labeling process together with blob image data including the foreground pixel data, and the object connection region information is for each object connection region. may include characteristic information (position information, size information, direction information, circumference information, etc.) corresponding to the .

그리고, 객체 추적부(150)는 블롭(blob) 이미지 데이터 및 객체 연결 영역 정보에 기초하여, 영상 정보 내 객체 정보를 추적하기 위한 추적 데이터를 획득할 수 있다. 추적 데이터는 영상 내에서 발견 및 추적된 객체의 리스트 정보를 포함할 수 있다. 보다 구체적으로, 객체 추적부(150)는 시간 t에서의 블롭 이미지와 t-1에서의 블롭 이미지를 누적 매칭시켜, 객체 연결 영역에 대응하는 객체를 식별 처리하고, 리스트에 산입할 수 있는 바, 칼만 필터 방식으로 추적 처리하는 것이 예시될 수 있다. 칼만 필터는 시간에 따라 진행한 측정을 기반으로 입력 데이터를 재귀적으로 누적시켜 선형 역학계의 상태를 검출하는 필터이다.In addition, the object tracking unit 150 may acquire tracking data for tracking object information in the image information, based on the blob image data and the object connection region information. The tracking data may include list information of objects found and tracked in the image. More specifically, the object tracking unit 150 may cumulatively match the blob image at time t and the blob image at t-1 to identify and process the object corresponding to the object connection area, and may be included in the list, Tracing processing using a Kalman filter method may be exemplified. The Kalman filter is a filter that detects the state of a linear dynamic system by recursively accumulating input data based on measurements performed over time.

이에 따라, 객체 추적부(150)는 영상 정보 내 식별되는 객체 추적 데이터를 출력할 수 있다. 객체 추적 데이터는 객체의 리스트 정보와 함께, 식별된 각 객체의 크기 정보 및 이동 속도 정보를 포함할 수 있다.Accordingly, the object tracking unit 150 may output object tracking data identified in the image information. The object tracking data may include size information and movement speed information of each identified object along with list information of the object.

그리고, 시점 변환부(160)는 전술한 객체 추적 데이터 내 각 객체의 크기 정보 및 이동 속도 정보를 카메라 장치별 3차원 시점 조건에 따른 실제적 수치로 변환 처리한다. 즉 객체 추적부(150)의 추적 데이터는 객체의 크기와 속도 정보를 갖고 있으나 픽셀간의 상대적 값이므로, 시점 변환부(160)는 이미지의 픽셀 좌표를 실제 현실 공간상의 좌표로 변환처리할 수 있는 바, 캘리브레이션을 통해 미리 지정된 화각, 높이 등의 카메라 특성 정보를 이용한 변환 처리가 수행될 수 있다.Then, the viewpoint converting unit 160 converts the size information and movement speed information of each object in the above-described object tracking data into actual values according to the 3D viewpoint conditions for each camera device. That is, the tracking data of the object tracking unit 150 has information on the size and speed of the object, but since it is a relative value between pixels, the viewpoint converting unit 160 can convert the pixel coordinates of the image into coordinates in real space. , conversion processing using camera characteristic information such as angle of view and height specified in advance through calibration may be performed.

이에 따라, 시점 변환부(160)는 객체 추적 데이터 내 리스트된 객체들의 크기 정보 및 속도 정보를 변환하여 실제 현실 공간상의 크기 정보 및 속도 정보로 변환 처리할 수 있다.Accordingly, the viewpoint converting unit 160 may convert size information and speed information of objects listed in the object tracking data into size information and speed information in real space.

한편, 객체 분류 처리부(170)는, 사전 설정된 분류 기준에 기초하여, 상기 객체 추적 데이터에서 식별된 객체에 분류 정보를 할당하는 처리를 수행할 수 있다. 다만, 분류 기준 자체를 설정하거나, 분류 기준에 대응하는지 여부를 정확히 판단하는 프로세스는, 로컬 감시 네트워크에 설치되는 지능형 보안 감시 장치(100)보다는 별도의 딥러닝 분산 처리 장치(300)에서 처리되는 것이 보다 효율적일 수 있다.Meanwhile, the object classification processing unit 170 may perform a process of allocating classification information to the object identified in the object tracking data based on a preset classification criterion. However, the process of setting the classification criterion itself or accurately determining whether it corresponds to the classification criterion is processed in a separate deep learning distributed processing device 300 rather than the intelligent security monitoring device 100 installed in the local monitoring network. It could be more efficient.

즉, 외부의 다양한 영상 정보의 누적 학습을 통해 저조도의 환경 등에서도 객체를 정확히 분류 검출할 수 있도록 하기 위하여 객체 분류 처리부(170)는 분산 데이터 처리부(190)를 통해 객체 분류 처리를 위한 상기 추적 데이터 및 영상 정보를 포함하는 딥러닝 분석 처리 요청을 딥러닝 분산 처리 장치(300)로 전달하고, 딥러닝 분산 처리 장치(300)로부터 분석 결과 정보를 수신하며, 수신된 분석 결과 정보를 이용한 객체 분류 처리를 수행할 수 있다.That is, in order to accurately classify and detect an object even in a low-illumination environment through the cumulative learning of various external image information, the object classification processing unit 170 uses the distributed data processing unit 190 to process the tracking data for object classification processing. and transmits a deep learning analysis processing request including image information to the deep learning distributed processing apparatus 300 , receives analysis result information from the deep learning distributed processing apparatus 300 , and object classification processing using the received analysis result information can be performed.

분산 데이터 처리부(190)는, 시점 변환부(160)를 통해 획득되는 초기 분석에 따른 상기 추적 데이터 및 상기 영상 정보에 기초하여, 딥러닝 분산 처리 요청 데이터를 생성하고, 상기 딥러닝 분산 처리 요청 데이터를 딥러닝 분산 처리 장치로 전송 처리할 수 있으며, 상기 딥러닝 분산 처리 장치(300)로부터 수신되는 딥러닝 기반 영상 정보 분석 결과를 수신하여, 객체 분류 처리부(170)로 전달할 수 있다.The distributed data processing unit 190 generates deep learning distributed processing request data based on the tracking data and the image information according to the initial analysis obtained through the viewpoint converting unit 160, and the deep learning distributed processing request data may be transmitted to the deep learning distributed processing device, and the deep learning-based image information analysis result received from the deep learning distributed processing device 300 may be received and transmitted to the object classification processing unit 170 .

딥러닝 분산 처리 장치(300)는, 딥 러닝 방식에 따라 사전 학습된 영상 정보로부터 신경망 데이터를 구축하는 딥러닝 기반 영상 정보 분석부(310), 상기 신경망 데이터를 이용하여 상기 분산 처리 요청 데이터에 대응하는 객체 정보를 검출하는 객체 검출부(320) 및 검출된 객체 정보의 분류 정보를 결정하는 객체 분류 처리부(330)를 포함할 수 있다.The deep learning distributed processing apparatus 300 responds to the distributed processing request data using the deep learning-based image information analysis unit 310 that builds neural network data from pre-trained image information according to the deep learning method, and the neural network data It may include an object detection unit 320 that detects object information to be used, and an object classification processing unit 330 that determines classification information of the detected object information.

딥러닝 기반 영상 정보 분석부(310)는 예를 들어, DNN(Deep Neural Network) 기반의 딥 러닝 알고리즘에 따른 신경 회로망이 설정되고, 해당 신경 회로망은 입력층(Input Layer), 하나 이상의 은닉층(Hidden Layers) 및 출력층(Output Layer)으로 구성될 수 있다. 여기서, 상기 딥 러닝 알고리즘은 DNN 이외의 다른 신경망이 적용될 수도 있으며, 일례로, CNN(Convolution Neural Network)이나 RNN(Recurrent Neural Network)과 같은 신경망이 적용될 수 있다.In the deep learning-based image information analysis unit 310, for example, a neural network according to a deep learning algorithm based on DNN (Deep Neural Network) is set, and the neural network is an input layer and one or more hidden layers (Hidden). Layers) and an output layer (Output Layer) may be configured. Here, as the deep learning algorithm, a neural network other than DNN may be applied, for example, a neural network such as a Convolution Neural Network (CNN) or a Recurrent Neural Network (RNN) may be applied.

여기서, 상기 딥러닝 분산 처리 장치(300)의 딥러닝 기반 영상 정보 분석부(310)는, 딥 러닝 기반의 신경 회로망을 통해 상기 영상 정보로부터 획득되는 하나 이상의 정상 이미지를 분석하여 감시 대상 객체를 식별하고, 감시 대상 객체가 식별된 정상 이미지를 저장할 수 있다.Here, the deep learning-based image information analysis unit 310 of the deep learning distributed processing device 300 analyzes one or more normal images obtained from the image information through a deep learning-based neural network to identify a monitoring target object and a normal image in which the monitoring target object is identified may be stored.

보다 구체적으로, 예를 들어, 딥러닝 기반 영상 정보 분석부(310)는, 학습 영상 정보로부터 획득되는 하나 이상의 특정 이미지에서 감시 대상 객체를 식별할 수 있으며, 상기 감시 대상 객체가 아닌 특정 객체가 식별된 경우 상기 특정 이미지와 하나 이상의 상기 정상 이미지 사이의 유사도를 산출하며, 상기 유사도가 미리 설정된 기준치 이상인 경우, 상기 특정 이미지에 대하여 상기 신경 회로망을 기반으로 영상 처리된 출력값 과 객체 정보 사이의 오차에 대한 오차 정보를 생성하고, 미리 설정된 역전파 알고리즘(back propagation algorithm)을 통해 상기 오차 정보를 기반으로 상기 신경 회로망을 구성하는 파라미터를 조정할 수 있다.More specifically, for example, the deep learning-based image information analysis unit 310 may identify a monitoring target object from one or more specific images obtained from the learning image information, and a specific object other than the monitoring target object is identified. If the similarity between the specific image and the one or more normal images is calculated, if the similarity is greater than or equal to a preset reference value, the error between the output value and object information processed based on the neural network for the specific image Error information may be generated, and parameters configuring the neural network may be adjusted based on the error information through a preset back propagation algorithm.

여기서 이미지 사이의 유사도 비교 방식으로는 히스토그램 매칭(HistogramHere, the similarity comparison method between images is histogram matching.

matching)이나, 상기 이미지에서 식별된 객체에 지정된 템플릿 매칭(Template matching) 또는 상기 이미지에서 상기 신경 회로망을 통해 추출된 특징점 비교 등을 이용하여 유사도를 비교하는 것이 예시될 수 있다.matching), template matching assigned to an object identified in the image, or comparing the similarity using a feature point comparison extracted from the image through the neural network may be exemplified.

그리고, 상기 딥러닝 기반 영상 정보 분석부(310)는 상기 오차 정보를 기초로 상기 역전파 알고리즘을 통해 상기 신경 회로망을 구성하는 입력층, 하나 이상의 은닉층 및 출력층 사이의 연결 강도에 대한 가중치(weight) 또는 상기 입력층, 은닉층 및 출력층에 구성된 유닛의 바이어스(bias)를 가변하여 상기 감시 대상 객체에 대한 식별 오류가 최소화되도록 학습처리할 수 있다.And, the deep learning-based image information analysis unit 310 based on the error information through the back-propagation algorithm to the weight of the connection strength between the input layer, one or more hidden layers, and the output layer constituting the neural network through the weight (weight) Alternatively, by varying the bias of the units configured in the input layer, the hidden layer, and the output layer, the learning process may be performed so that the identification error of the monitoring target object is minimized.

또한, 딥러닝 기반 영상 정보 분석부(310)는 상기 신경회로망을 통해 지능형 보안 감시 장치(100) 또는 다른 다양한 영상 장치로부터 지속적으로 수신된 이미지를 반복 학습하여 상기 객체정보를 갱신할 수 있으며, 이를 통해 상기 감시 대상 지역의 환경 변화(환경 조건 변화(일례로, 조도, 장애물))에 따라 상기 이미지에 나타나는 객체 특징 변화에 적응하여 상기 이미지에서 상기 객체 정보에 포함된 객체 특징별 파라미터에 대응되는 객체를 정확하게 식별할 수 있다.In addition, the deep learning-based image information analysis unit 310 can update the object information by repeatedly learning the image continuously received from the intelligent security monitoring device 100 or other various imaging devices through the neural network, and The object corresponding to the parameter for each object characteristic included in the object information in the image by adapting to the change in the object characteristic appearing in the image according to the environmental change (environmental condition change (eg, illuminance, obstacle)) of the monitoring target area through the can be accurately identified.

그리고, 객체 검출부(320)는, 상기 학습된 신경망(또는 신경회로망) 데이터에 기초하여 딥러닝 분산 처리 요청 데이터로부터 획득되는 추적 데이터 및 영상 정보로부터 식별된 하나 이상의 객체를 검출할 수 있고, 객체 분류 처리부(330)는, 객체별로 이미지상 위치별 크기, 색상 분포, 외곽선 등에 대한 다양한 객체 특징별 파라미터를 포함하는 객체 분류 정보를 생성할 수 있으며, 생성된 객체 분류 정보를 지능형 보안 감시 장치(100)의 분산 데이터 처리부(190)로 전송할 수 있다.In addition, the object detection unit 320 may detect one or more objects identified from tracking data and image information obtained from deep learning distributed processing request data based on the learned neural network (or neural network) data, and classify the object The processing unit 330 may generate object classification information including parameters for various object characteristics, such as size, color distribution, outline, etc. for each location on an image for each object, and use the generated object classification information to intelligent security monitoring device 100 can be transmitted to the distributed data processing unit 190 of

딥러닝 분산 처리 장치(300)는 별도의 사용자 입력부 또는 통신부를 포함할 수 있으며, 딥러닝 분산 처리 장치(300)는 상기 사용자 입력부를 통한 사용자 입력 관련 제어정보나, 상기 통신부를 통해 외부로부터 수신된 제어정보를 기초로 상기 객체 분류 처리부(330)에 의해 분류된 하나 이상의 객체 중 어느 하나를 감시 대상 객체로 설정할 수 있으며, 이에 대한 설정정보를 저장할 수 있다.The deep learning distributed processing apparatus 300 may include a separate user input unit or a communication unit, and the deep learning distributed processing apparatus 300 includes control information related to user input through the user input unit or received from the outside through the communication unit. Any one of the one or more objects classified by the object classification processing unit 330 based on the control information may be set as a monitoring target object, and setting information thereof may be stored.

이러한 처리를 통해, 지능형 보안 감시 장치(100)는, 딥러닝 분산 처리 장치(300)에서 제공되는 분산 데이터의 분석 처리를 통해, 고성능 딥러닝 연산의 처리결과만을 수신하여 신속하게 이벤트 검출부(180)로 전달할 수 있는 바, 지능형 보안 감시 장치(100) 자체의 신속한 데이터 처리와 함께 복잡한 딥러닝 분석이 필요한 데이터만 별도의 데이터 가공을 통해 분산 처리함으로써, 지능형 보안 감시 장치(100)에 고성능 분석장비를 탑재하지 않고도 딥러닝 영상 분석의 장점과 데이터 처리의 신속성을 확보할 수 있다.Through this processing, the intelligent security monitoring device 100 receives only the processing result of the high-performance deep learning operation through the analysis processing of the distributed data provided from the deep learning distributed processing device 300 and quickly the event detection unit 180 high-performance analysis equipment to the intelligent security monitoring device 100 by distributing only the data that requires complex deep learning analysis along with the rapid data processing of the intelligent security monitoring device 100 itself through separate data processing. It is possible to secure the advantages of deep learning image analysis and the speed of data processing without mounting it.

이러한 분산 데이터 처리는 지능형 보안 감시 장치(100)와 딥러닝 분산 처리 장치(300)를 연동한 엣지(edge) 컴퓨팅 방식으로 처리될 수 있는 바, 딥러닝 분산 처리 장치(300)는 분산 데이터 처리부(190)와의 데이터 처리 지연 시간을 최소화하기 위한 최소한의 데이터만을 수집 및 분석 처리함으로써, 빠른 서비스 처리를 제공할 수 있는 엣지 장치일 수 있으며, 이를 제공할 수 있는 분산된 개방형 아키텍쳐로 구축될 수 있다.This distributed data processing can be processed by an edge computing method in which the intelligent security monitoring device 100 and the deep learning distributed processing device 300 are interlocked, and the deep learning distributed processing device 300 is a distributed data processing unit ( 190) can be an edge device that can provide fast service processing by collecting and analyzing only the minimum data to minimize the data processing delay time, and can be built with a distributed open architecture that can provide it.

또한, 딥러닝 기반 영상 분석은 감시 대상 객체에 대한 반복 학습을 통한 감시 대상 객체의 식별에 대한 정확도를 높일 수 있을 뿐만 아니라 감시 대상 지역의 환경 특성이 반영된 동영상 또는 이미지에서 나타나는 감시 대상 객체의 특징 변화를 학습하고, 이를 기초로 보안 시스템의 운용 특성상 일반적으로 저조도 환경에서 운용되는 카메라를 통해 촬영된 감시 대상을 정확하게 식별할 수 있도록 감시 대상지역에서 나타나는 감시 대상 객체의 특징에 맞추어 딥 러닝 알고리즘을 최적화하여 객체 식별 정확도를 높일수 있으며, 이를 통해 감시 대상 객체 이외의 객체를 정확하게 구분하여 감시 대상이 아닌 객체를 감시 대상으로 오판하여 오보가 발생하지 않도록 지원할 수 있다.In addition, deep learning-based image analysis can increase the accuracy of the identification of the monitored object through repeated learning of the monitored object, as well as the change in the characteristics of the monitored object appearing in the video or image reflecting the environmental characteristics of the monitored area. Based on this, the deep learning algorithm is optimized according to the characteristics of the monitored object appearing in the surveillance target area to accurately identify the surveillance target photographed through the camera generally operated in low-light environments due to the operational characteristics of the security system. Object identification accuracy can be improved, and through this, it is possible to accurately classify objects other than the monitoring target object, thereby supporting the prevention of misinformation by erroneously judging the non-monitoring object as the monitoring target.

그리고, 이벤트 검출부(180)는 수집된 센서 정보와, 상기 영상 정보의 추적 데이터 및 분산 데이터 처리부(190)로부터 객체 분류 처리부(170)를 통해 전달된 상기 객체 분류 정보 중 적어도 하나에 따라 획득되는 하나 이상의 이벤트를 검출하고, 검출된 이벤트 정보는 감시 서비스 처리부(185)로 전달될 수 있다. 감시 서비스 처리부(185)는, 각 이벤트 정보에 따라 사전 결정된 감시 서비스 프로세스를 수행할 수 있는 바, 이에 대하여는 도 3을 참조하여 보다 구체적으로 설명하도록 한다.And, the event detection unit 180 is one obtained according to at least one of the collected sensor information, the tracking data of the image information, and the object classification information transmitted from the distributed data processing unit 190 through the object classification processing unit 170 . An abnormal event is detected, and the detected event information may be transmitted to the monitoring service processing unit 185 . The monitoring service processing unit 185 may perform a predetermined monitoring service process according to each event information, which will be described in more detail with reference to FIG. 3 .

도 3은 본 발명의 실시 예에 따른 이벤트 검출부의 검출 모듈을 설명하기 위한 블록도이다.3 is a block diagram illustrating a detection module of an event detection unit according to an embodiment of the present invention.

도 3을 참조하면, 본 발명의 실시 예에 따른 이벤트 검출부(180)는 딥러닝 분산 처리 장치(300)에 의해, 영상 내 움직이는 객체들을 특정 행동을 하는 사람, 특정 형태의 차량 등으로 보다 정확하게 분류할 수 있게 됨에 따라, 보다 다양한 형태의 이벤트 검출을 수행할 수 있고, 감시 서비스 처리부(185)는 각 이벤트 검출에 적합한 사용자 단말(200)로의 알림 서비스 또는 중계 서버(400)로의 전송 서비스 처리, 관제요청 서비스 처리 등을 수행할 수 있다.Referring to FIG. 3 , the event detection unit 180 according to an embodiment of the present invention more accurately classifies moving objects in an image into a person performing a specific action, a vehicle of a specific type, etc. by the deep learning distributed processing device 300 . As it becomes possible, more various types of event detection can be performed, and the monitoring service processing unit 185 processes and controls a notification service to the user terminal 200 suitable for each event detection or a transmission service to the relay server 400 . Request service processing, etc. may be performed.

이에 따라, 이벤트 검출부(180)는 추적 데이터 및 객체 분류 정보로부터 영상 정보 내 동적 객체 추적(Dynamic Object Tracking)을 수행하고, 동적 객체 추적 정보에 따라 하나 이상의 이벤트를 검출 또는 감지하는 검출부 또는 감지부를 포함할 수 있다.Accordingly, the event detection unit 180 performs dynamic object tracking in the image information from the tracking data and object classification information, and detects or detects one or more events according to the dynamic object tracking information. can do.

즉 이벤트 검출부(180)는, 객체 추적부(150)의 추적 데이터와 분산 데이터 처리부(190)로부터 수신된 딥러닝 기반 객체 분류 정보를 매핑하고, 이를 이용하여 카메라 가시영역(Filed of View) 내에서 움직이는 모든 객체를 개별적으로 추적함으로써 트립 와이어 또는 관심영역(Area of Interest) 통과순간을 파악할 수 있으며, 나아가 객체별 이동 궤도(Trajectory)를 분석해 매장에서의 고객 흐름 분석 등에 이용되는 감지 또는 통계 정보를 출력할 수도 있다.That is, the event detection unit 180 maps the tracking data of the object tracking unit 150 and the deep learning-based object classification information received from the distributed data processing unit 190, and uses it within the camera viewable area (Filed of View). By tracking all moving objects individually, it is possible to identify the moment of passage of a trip wire or an area of interest, and further, by analyzing the movement trajectory for each object, detection or statistical information used for analysis of customer flow in the store is output. You may.

보다 구체적으로, 이벤트 검출부(180)는 트립 와이어 검출부를 포함할 수 있다. 트립 와이어 검출부는 가상의 경계선을 설정하고, 상기 동적 객체 추적을 통해 외곽경계(Perimeter Detection)를 위한 침입감지(Intrusion Detection)나 특정 영역내 침입감지를 처리할 수 있다.More specifically, the event detection unit 180 may include a trip wire detection unit. The trip wire detection unit may set a virtual boundary line and process intrusion detection for perimeter detection or intrusion detection within a specific area through the dynamic object tracking.

트립 와이어 검출부는 상기 경계선을 통과(침입)하는 객체 카운팅(Object Counting)도 처리할 수 있는 바, 트립 와이어를 기준으로 지면상에서 통과하는 객체(사람, 차량 또는 기타 물체)가 있을 때 감지하되, 그 움직임의 방향(양방향 또는 단방향) 추적을 통해 제1 방향에서 제2 방향으로 이동하다가 트립 와이어를 통과(침입)했는지를 확인하여, 이벤트 발생여부를 결정할 수 있다.The trip wire detection unit can also process object counting that passes (intrudes) the boundary line, and detects when there is an object (person, vehicle, or other object) passing on the ground based on the trip wire, but the It is possible to determine whether an event has occurred by checking whether the trip wire has passed (intruded) while moving from the first direction to the second direction through tracking the direction of movement (bidirectional or unidirectional).

그리고, 이벤트 검출부(180)는 침입 감지부를 포함할 수 있다. 침입 감지부는, 상기 트립 와이어 검출부를 이용하여 경계선 기반의 침입을 감지하거나, 사전 설정된 관심 영역에 대응하는 객체 움직임이 검출된 경우, 침입을 감지하는 등의 관심영역 기반 침입 감지 처리를 수행할 수 있다. 경계 울타리(Perimeter), 바다 또는 해안, 공중(하늘), 출입구 등은 트립 와이어 방식이 바람직하며, 건물 내에서는 관심영역을 사용해 침입 감지를 하는 것이 바람직할 수 있다. 또한, 칩임 감지부는 트립 와이어와 관심영역 기반 침입 감지 처리를 동시에 수행할 수도 있다.In addition, the event detection unit 180 may include an intrusion detection unit. The intrusion detection unit may perform a region-of-interest-based intrusion detection process such as detecting a boundary-based intrusion using the trip wire detector or detecting an intrusion when an object movement corresponding to a preset region of interest is detected. . The trip wire method is preferable for a perimeter, sea or coast, air (sky), and entrance, and it may be desirable to detect intrusion using an area of interest in a building. In addition, the chip detection unit may simultaneously perform intrusion detection processing based on the trip wire and the region of interest.

또한, 이벤트 검출부(180)는, 배회객체 감지부를 포함할 수 있다. 배회객체 감지부는, 사람 또는 차량과 같은 배회객체를 감지(Loitering)하여 배회객체 이벤트 정보를 획득하고, 배회객체 이벤트 정보를 감시 서비스 처리부(185)로 전달할 수 있다.Also, the event detection unit 180 may include a wandering object detection unit. The wandering object detection unit may detect a wandering object, such as a person or a vehicle, to obtain information on the wandering object event, and transmit the wandering object event information to the monitoring service processing unit 185 .

예를 들어, 배회객체 감지부는 주요 보안시설, 보안 경계지역, 고가품 보관시설 등을 관찰할 때 이용될 수 있다. 이벤트 검출부(180)는 배회객체 감지부를 통해, 외부인 또는 외부차량 등의 객체가 출입제한지역 주변을 일정 시간 이상 배회하고 있지 여부를 감지하고, 일정 시간 이상 배회하는 객체를 배회객체로 감지할 수 있다. 배회하는 사람이나 차량은 사고를 발생시킬 수 있는 가능성이 있으므로 집중 감시대상이 되며, 이를 통해 사고를 미연에 방지할 수 있다.For example, the wandering object detection unit may be used to observe major security facilities, security boundary areas, high-value storage facilities, and the like. The event detection unit 180 detects whether an object such as an outsider or an external vehicle has wandered around the restricted access area for more than a certain period of time through the wandering object detection unit, and the object wandering for more than a certain amount of time can be detected as a wandering object. . A wandering person or vehicle has the potential to cause an accident, so it becomes a subject of intensive monitoring, and through this, an accident can be prevented in advance.

한편, 이벤트 검출부(180)는 통행방향 위반 감지부를 포함할 수 있다. 통행방향 위반(Wrong Directions) 감지부는 공항과 같은 통행 방향 준수 지역에서의 통행 위반 객체를 감지할 수 있다. 이벤트 검출부(180)는 통행 방향 위반 객체를 검출할 수 있으며, 이러한 통행 방향 위반 객체 검출부는 들어오는 방향과 나가는 방향이 서로 다르게 지정되어 있는 극장, 공연장에 대하여도 동작할 수 있다. 차량에 대해 적용할 경우 통행 방향 위반 객체 검출부는 역주행 감지 등을 처리하여 역주행 차량 객체를 통행 방향 위반 객체로서 검출할 수 있다.Meanwhile, the event detection unit 180 may include a traffic direction violation detection unit. The Wrong Directions detection unit may detect a traffic violation object in a traffic direction observance area, such as an airport. The event detection unit 180 may detect a passage direction violation object, and such a passage direction violation object detection unit may operate even with respect to a theater or a performance hall in which incoming and outgoing directions are designated differently. When applied to a vehicle, the traveling direction violation object detection unit may process reverse traveling detection and the like to detect the reverse traveling vehicle object as a traveling direction violation object.

그리고, 이벤트 검출부(180)는 무단 방치물 감지부를 포함할 수 있다. 무단 방치물(Unattended Object)부는 사전 설정된 관심영역 내에 누군가에 의해 방치된 객체(짐꾸러미, 가방, 카트 등)가 등장한 후 지정 시간이 초과한 이후에도 계속 정지된 상태로 존재하는 무단 방치물을 감지하고, 감지된 무단 방치물 객체 정보를 감시 서비스 처리부(185)로 전달할 수 있다. 이는 특히 공항, 터미널, 역사 플랫폼, 주요 행사장 등에 테러를 위해 폭발물을 임의 방치하는 것을 사전에 감지해 예방할 수 있게 한다.In addition, the event detection unit 180 may include an unauthorized object detection unit. The Unattended Object unit detects unattended objects that remain stationary even after the specified time has elapsed after an object (package, bag, cart, etc.) left unattended by someone within a preset area of interest appears and , the detected unauthorized object object information may be transmitted to the monitoring service processing unit 185 . This makes it possible to detect and prevent the arbitrariness of leaving explosives for terrorism, particularly in airports, terminals, station platforms, and major event venues.

또한, 이벤트 검출부(180)는, 무단 이동물체 감지부를 포함할 수 있다. 무단 이동물체 감지부는 박물관, 전시회, 고가품 디스플레이, 공항, 매장, 창고 등 도난이 자주 발생하는 곳에서 사전 지정해 놓은 물체들이 영상 객체에서 사라져 버린 경우, 이를 감지하여 획득된 이벤트 정보를 감시 서비스 처리부(185)로 전달할 수 있다.In addition, the event detection unit 180 may include an unauthorized moving object detection unit. The unauthorized moving object detection unit detects the event information obtained by detecting the disappearance of the pre-designated objects from the video object in places where theft frequently occurs, such as museums, exhibitions, high-end displays, airports, stores, and warehouses, etc. The monitoring service processing unit 185 ) can be passed as

그리고, 이벤트 검출부(180)는 출입 카운팅 및 통계부를 포함할 수 있다. 출입 카운팅(Object Counting) 및 통계부는 백화점, 쇼핑센터 등 매장, 박물관, 전시회, 극장 등 공공시설물의 입장객수와 퇴장객수 통계정보를 획득하여 감시 서비스 처리부(185)로 전달할 수 있다. 감시 서비스 처리부(185)는, 실시간 카운팅과 함께 시간대별 출입자 통계 정보를 사용자 단말(200) 또는 중계 서버(400)를 통해 관제 서비스 장치(500)로 제공할 수 있는 바, 사용자는 통계 정보를 경영상 고객관리, 매장배치관리에 필요한 기본적인 정보로 활용할 수 있다. 또한, 사용자 단말(200)에서는 상기 출입자 통계 정보에 기초하여 획득된 입장 고객수 대비 매출액을 비교하는 통계 정보를 출력할 수도 있다. 나아가, 출입 카운팅 및 통계부는 특정 도로 상에서 차선별 통행 차량수를 자동산출하는 처리를 수행할 수도 있으며, 감시 서비스 처리부(185)는 시간대별 통행 차량수 통계자료등을 사용자 단말(200) 또는 중계 서버(400)나 관제 서비스 서버(500) 로 제공할 수도 있다.In addition, the event detection unit 180 may include an access counting and statistics unit. Access counting (Object Counting) and the statistical unit may acquire statistical information on the number of visitors and exits of public facilities such as department stores and shopping centers, museums, exhibitions, and theaters, and transmit it to the monitoring service processing unit 185 . The monitoring service processing unit 185 may provide real-time counting and occupant statistical information for each time period to the control service device 500 through the user terminal 200 or the relay server 400, and the user manages the statistical information It can be used as basic information necessary for store customer management and store layout management. In addition, the user terminal 200 may output statistical information for comparing the sales compared to the number of visitors obtained based on the visitor statistics information. Furthermore, the access counting and statistics unit may perform a process of automatically calculating the number of vehicles passing by lane on a specific road, and the monitoring service processing unit 185 may transmit statistical data of the number of vehicles passing by time to the user terminal 200 or a relay server. It may be provided to 400 or the control service server 500 .

한편, 이벤트 검출부(180)는 군중 밀집상태 감지부를 포함할 수 있다. 군중 밀집상태(Crowd Density) 감지부는, 사전 설정된 관심영역 내에서 지정한 군중 밀집규모보다 초과되는 군중(Overcrowd) 규모로 발전하는 이벤트를 감지할 수 있다.Meanwhile, the event detection unit 180 may include a crowd density detection unit. The crowd density detection unit may detect an event that develops to an overcrowd scale exceeding a designated crowd density within a preset region of interest.

이를 위해, 이벤트 검출부(180)는 객체 추적 데이터 및 분류 정보로부터 실시간으로 현재의 밀집상태를 확인할 수 있으며, 밀집상태에 대응하는 이벤트 정보를 감시 서비스 처리부(185)로 전달할 수 있다. 감시 서비스 처리부(185)는 이벤트 정보에 기초한 밀집상태 정보를 사용자 단말(200) 또는 중계 서버(400)나 관제 서비스 서버(500)로 전송할 수 있다. 예를 들어, 관리자는 밀집상태 정보를 확인하고, 매장, 공항, 극장 등에서는 군중이 초과 밀집상태로 커질 경우 출입문 또는 계산대를 추가로 개방할 것인지를 결정할 수 있고, 시위, 집회가 잦은 장소에서는 방어요원을 추가로 배치할 것인지 결정할 수 있다. 군중 밀집상태 카운팅은 일정 시간에 관심영역 내에서 분류된 모든 사람을 카운팅하는 방식이 이용될 수 있다.To this end, the event detection unit 180 may check the current density state in real time from the object tracking data and classification information, and may transmit event information corresponding to the density state to the monitoring service processing unit 185 . The monitoring service processing unit 185 may transmit the density information based on the event information to the user terminal 200 or the relay server 400 or the control service server 500 . For example, the manager can check the crowding information and decide whether to open additional doors or checkout counters when the crowd becomes overcrowded at stores, airports, and theaters, and defend in places where protests and assemblies are frequent. You may decide to deploy additional agents. Crowd density counting may use a method of counting all people classified within the region of interest at a certain time.

그리고, 이벤트 검출부(180)는 특이 행동 감지부를 포함할 수 있다. 특이 행동(Suspicious Behavior) 감지부는 예를 들어, 미끄러지거나 걸려서 넘어진 사람, 싸우고 있는 사람, 달리는 사람 등 특이 행동을 하는 사람을 감지할 수 있다.In addition, the event detection unit 180 may include a specific behavior detection unit. The Suspicious Behavior detection unit may detect a person performing an unusual behavior, such as a person who slipped or tripped, a person who is fighting, a person who is running.

이러한 특이 행동 감지를 위해, 이벤트 검출부(180)는 딥러닝 분산 처리 장치(300)의 딥러닝 분석 정보와 객체 분류 정보를 활용할 수 있는 바, 딥러닝 분산 처리 장치(300)는 영상 정보의 신경망 학습을 통해, 미끄러지거나 쓰러짐 감지(Slip & Fall), 싸우는 사람 감지(Fighting), 달리는 사람 감지(Running) 등의 특정 행동에 대한 분류 처리가 가능할 수 있다.In order to detect such a specific behavior, the event detection unit 180 may utilize the deep learning analysis information and object classification information of the deep learning distributed processing device 300, and the deep learning distributed processing device 300 is a neural network learning of image information. Through this, classification processing for specific actions such as slip and fall detection, fighting person detection, and running person detection (Running) may be possible.

특히, 이벤트 검출부(180)는 미끄러지거나 걸려 넘어진 사람 감지를 통해 이벤트 발생을 처리하고, 감시 서비스 처리부(185)로 전달할 수 있는 바 이는 실버타운이나 요양원에서 고령자 모니터링에 효과적으로 이용될 수 있다. 또한, 감시 서비스 처리부(185)는 도움을 줄 수 있는 사람이 즉시 오지 않는다면 고령자는 넘어진 후 생명이 위험할 수 있으므로 이에 대응하는 사용자 단말(200) 또는 관제 서비스 서버(500)로의 알림 요청 정보 또는 관제 요청 정보를 전송할 수 있다.In particular, the event detection unit 180 can process the occurrence of an event through detection of a slipping or tripping person, and transmit it to the monitoring service processing unit 185, which can be effectively used for monitoring the elderly in a silver town or a nursing home. In addition, the monitoring service processing unit 185 may be in danger of life after an elderly person falls if a person who can help does not come immediately. Therefore, notification request information or control to the user terminal 200 or the control service server 500 corresponding thereto Request information can be transmitted.

한편, 이벤트 검출부(180)는 카메라 무단 변경 감지부를 포함할 수 있다. 카메라 무단 변경(Camera Tampering) 감지부는, 제3자에 의한 카메라 케이블 단락, 렌즈 무단 조작에 의한 초점 흐려짐, 손이나 타물체로 카메라 렌즈를 가리는 경우, 또는 렌즈를 다른 방향으로 임의로 돌려 버리는 경우 등의 카메라 무단 변경을 감지할 수 있으며, 딥러닝 분산 처리 장치(300)는 카메라 무단 변경 감지를 위한 특정 상황별 영상 학습을 사전 처리하여 신경망 데이터로 구축할 수 있다.Meanwhile, the event detection unit 180 may include a camera unauthorized change detection unit. The camera tampering detection unit detects short circuiting of the camera cable by a third party, defocusing due to unauthorized lens manipulation, when the camera lens is covered with a hand or other object, or when the lens is arbitrarily rotated in a different direction. It is possible to detect tampering with the camera, and the deep learning distributed processing device 300 may pre-process image learning for each situation for detecting tampering with the camera and build it as neural network data.

도 4는 본 발명의 실시 예에 따른 전체 시스템 동작을 설명하기 위한 래더 다이어그램이다.4 is a ladder diagram for explaining the overall system operation according to an embodiment of the present invention.

도 4를 참조하면, 본 발명의 실시 예에 따른 사용자 단말(200)는 지능형 보안 감시 장치(100) 및 관제 서비스 서버(500)에 사전 사용자 등록 처리를 수행한다(S101).Referring to FIG. 4 , the user terminal 200 according to an embodiment of the present invention performs pre-user registration processing in the intelligent security monitoring apparatus 100 and the control service server 500 ( S101 ).

사용자 등록 처리는, 예를 들어 지능형 보안 감시 장치(100)를 사용하는 관리자로서의 사용자 정보 및 휴대폰 정보 등록 처리 등이 예시될 수 있으며, 사용자 단말(200)은 지능형 보안 감시 장치(100)의 처리 정보 및 관제 서비스 서버(500)의 관제 서비스 처리 정보를 수신하여 출력하거나, 사용자 단말(200)의 입력 정보를 지능형 보안 감시 장치(100) 또는 관제 서비스 서버(500)로 전달하기 위한 입출력 장치로서, 컴퓨터, 스마트폰, 태블릿 PC, 네비게이션 등의 다양한 전자장치가 예시될 수 있다.User registration processing, for example, user information as an administrator using the intelligent security monitoring device 100 and mobile phone information registration processing may be exemplified, and the user terminal 200 is the processing information of the intelligent security monitoring device 100 And as an input/output device for receiving and outputting the control service processing information of the control service server 500, or transmitting input information of the user terminal 200 to the intelligent security monitoring device 100 or the control service server 500, a computer , various electronic devices such as smartphones, tablet PCs, and navigation devices may be exemplified.

그리고, 지능형 보안 감시 장치(100)는 하나 이상의 카메라 장치로부터 수집되는 영상 정보를 수집 및 안정화 처리한다(S103).Then, the intelligent security monitoring device 100 collects and stabilizes image information collected from one or more camera devices (S103).

이후, 지능형 보안 감시 장치(100)는 안정화 처리된 영상 정보의 배경 모델링 처리를 수행하며(S105), 배경 모델링 처리에 따라 배경 이미지가 차감된 전경 이진 데이터의 형태 요소 영역을 검출하는 형태 연산 처리를 수행하고(S107), 형태 요소 영역들을 객체 연결 영역으로 연결하여 라벨링하는 요소 연결 처리를 수행하며(S109), 객체 연결 영역들에 대응하는 객체 리스트를 구성하는 객체 추적 처리를 수행한다(S111). Thereafter, the intelligent security monitoring device 100 performs a background modeling process of the image information that has been stabilized (S105), and performs a shape calculation process for detecting a shape element region of the foreground binary data from which the background image is subtracted according to the background modeling process. (S107), element connection processing for labeling by connecting shape element regions to object connection regions is performed (S109), and object tracking processing for composing an object list corresponding to object connection regions is performed (S111).

그리고, 지능형 보안 감시 장치(100)는, 상기와 같은 S103 내지 S111 단계의 초기 분석에 따라 획득된 영상 정보 내 객체 리스트를 포함하는 객체 추적 정보와, 상기 영상 정보를 딥러닝 분산 처리 요청 데이터로 가공하여, 딥러닝 분산 처리 장치(300)로 전달한다.And, the intelligent security monitoring device 100, the object tracking information including the object list in the image information obtained according to the initial analysis of steps S103 to S111 as described above, and processing the image information into deep learning distributed processing request data Thus, it is transmitted to the deep learning distributed processing device 300 .

이후, 딥러닝 분산 처리 장치(300)에서는 딥러닝 분산 처리 요청 데이터의 객체 추적 정보 및 영상 정보를 사전 구축된 신경망 데이터에 적용하여, 딥러닝 분석 기반의 객체 검출 처리를 수행하고(S115), 검출된 객체의 패턴 등을 식별하여 분류 처리를 수행한다(S117).Thereafter, the deep learning distributed processing device 300 applies the object tracking information and image information of the deep learning distributed processing request data to the pre-built neural network data, performs deep learning analysis-based object detection processing (S115), and detection A classification process is performed by identifying the pattern of the object that has been changed (S117).

그리고, 딥러닝 분산 처리 장치(300)는 딥러닝 기반 분석에 따른 객체 검출 정보 및 분류 정보를 지능형 보안 감시 장치(100)로 응답 처리한다(S119).Then, the deep learning distributed processing apparatus 300 responds to the object detection information and classification information according to the deep learning-based analysis to the intelligent security monitoring apparatus 100 (S119).

여기서, 상기 객체 검출 정보 및 분류 정보는 전술한 이벤트 검출부(180)에서의 이벤트 검출에 이용되는 정보를 포함할 수 있으며, 예를 들어 트립 와이어를 통과하는 객체의 종류 및 패턴, 침입 감지한 객체의 종류 및 패턴, 배회객체의 종류 및 패턴, 통행방향위반 객체의 종류 및 패턴, 무단 방치물의 종류 및 패턴, 무단 이동물체의 종류 및 패턴, 출입 카운팅 및 통계 산출에 이용된 객체의 종류 및 패턴, 군중 밀집상태 감지의 근거가 되는 객체의 종류 및 패턴, 특이행동에 대응하는 객체의 종류 및 행동 패턴, 카메라 무단 변경 감지를 나타내는 객체의 종류 및 패턴 등의 다양한 검출 정보 및 분류 패턴 정보를 포함할 수 있다.Here, the object detection information and classification information may include information used for event detection by the above-described event detection unit 180, for example, the type and pattern of the object passing through the trip wire, and the intrusion detection of the object. Types and patterns, types and patterns of wandering objects, types and patterns of objects that violate the direction of passage, types and patterns of unauthorized objects, types and patterns of unauthorized moving objects, types and patterns of objects used for counting access and statistical calculation, crowds It may include various detection information and classification pattern information, such as the type and pattern of objects that are the basis of the detection of the dense state, the types and behavior patterns of objects corresponding to the specific behavior, and the types and patterns of objects indicating unauthorized camera change detection. .

객체 검출 정보 및 분류 정보와, 객체 추적 정보에 기초하여 지능형 보안 감시 장치(100)는 이벤트 검출을 판단한다(S123). 이벤트 검출 판단에는 전술한 센서 장치(700)의 센서 정보도 함께 이용될 수 있다.Based on the object detection information and classification information, and the object tracking information, the intelligent security monitoring apparatus 100 determines event detection (S123). The sensor information of the above-described sensor device 700 may also be used for event detection determination.

이벤트가 검출된 경우, 지능형 보안 감시 장치(100)는 사용자 단말(200)로 이벤트 알림 메시지를 전송하거나(S125), 또는 중계 서버(400)로 이벤트 검출 데이터를 전달할 수 있다(S127).When an event is detected, the intelligent security monitoring apparatus 100 may transmit an event notification message to the user terminal 200 (S125) or may transmit event detection data to the relay server 400 (S127).

한편, 딥러닝 분산 처리 장치(300)는 영상 분석 정보를 중계 서버(400)로 전달하여 사전 저장 및 관리 처리할 수 있는 바(S121), 이는 사용자 단말(200)로 이벤트 검출 데이터에 대응하는 딥러닝 영상 분석 정보를 제공하는 데 이용될 수 있다(S129).On the other hand, the deep learning distributed processing device 300 transfers the image analysis information to the relay server 400 to be stored and managed in advance (S121), which is a deep learning corresponding to the event detection data to the user terminal 200 (S121). It may be used to provide running image analysis information (S129).

이에 따라, 사용자 단말(200)에서는 이벤트 알림 메시지와 함께, 딥러닝 기반의 해당 이벤트 분석 정보를 포함하는 알림 인터페이스가 출력될 수 있다(S131). 사용자는 이벤트의 종류에 따른 경계, 해제, 경보 등의 적절한 지능형 보안 감시 장치(100)의 처리 정보를 입력할 수 있으며(133), 입력된 처리 정보는 지능형 보안 감시 장치(100) 또는 관제 서비스 서버(500)로 전달될 수 있다.Accordingly, the user terminal 200 may output a notification interface including the event analysis information based on deep learning together with the event notification message (S131). The user may input processing information of the intelligent security monitoring device 100 appropriate for alert, release, alarm, etc. according to the type of event (133), and the input processing information is the intelligent security monitoring device 100 or the control service server. (500).

그리고, 지능형 보안 감시 장치(100)는 사용자 입력 정보에 따른 처리를 수행하고, 처리 결과 정보를 사용자 단말(200)로 전달한다(S135).Then, the intelligent security monitoring apparatus 100 performs processing according to the user input information, and transmits the processing result information to the user terminal 200 (S135).

한편, 중계 서버(400)는 지능형 보안 감시 장치(100) 또는 사용자 단말(200)의 사용자 입력에 따른 관제 서비스 요청 정보를 수신하고(S137), 수신된 요청 정보 및 이벤트 검출 데이터에 기반한 관제 서비스 요청을 사전 지정된 관제 서비스 서버(500)로 전송할 수 있다(S139).On the other hand, the relay server 400 receives the control service request information according to the user input of the intelligent security monitoring device 100 or the user terminal 200 (S137), and the control service request based on the received request information and event detection data may be transmitted to a pre-specified control service server 500 (S139).

그리고, 관제 서비스 서버(500)에서는 관제 서비스 요청에 따른 지능형 보안 감시 장치(100) 위치로의 긴급출동 서비스, 화재 또는 침입 신고 서비스, 실시간 영상 모니터링 서비스, 주변 알림 서비스, 지능형 보안 감시 장치(100)의 제어 서비스 등의 관제 서비스를 처리하며(S141), 처리 결과 정보를 포함하는 관제 처리 데이터를 지능형 보안 감시 장치(100) 또는 사용자 단말(200)로 전송한다(S143, S145).And, in the control service server 500, emergency dispatch service to the location of the intelligent security monitoring device 100 according to the control service request, fire or intrusion report service, real-time video monitoring service, surrounding notification service, intelligent security monitoring device 100 Processes a control service, such as a control service of the (S141), and transmits the control processing data including the processing result information to the intelligent security monitoring device 100 or the user terminal 200 (S143, S145).

도 5는 본 발명의 다른 일 실시 예에 따른 지능형 카메라 장치 기반 시스템을 설명하기 위한 개념도이며, 도 6은 본 발명의 실시 예에 따른 지능형 카메라 장치로 구현된 딥러닝 분석 시스템의 구성 및 연결관계를 보다 구체적으로 도시한 블록도이다.5 is a conceptual diagram for explaining an intelligent camera device-based system according to another embodiment of the present invention, and FIG. 6 is a configuration and connection relationship of a deep learning analysis system implemented with an intelligent camera device according to an embodiment of the present invention. It is a block diagram showing in more detail.

도 5 및 도 6을 참조하면, 본 발명의 다른 일 실시 예에 따른 지능형 보안 감시 장치(100)는, 보안 네트워크로 연결된 지능형 카메라 장치일 수 있으며, 카메라부(105)가 직접 내장된 형태의 보안 카메라로서 기능할 수 있다. 따라서 본 발명의 실시 예에 따른 지능형 보안 감시 장치(100)는 엣지 컴퓨팅을 수행하는 지능형 IP 카메라일 수 있는 바, 전술한 지능형 보안 감시 장치(100)의 영상 정보 안정화, 배경 모델링, 형태 연산 처리, 요소 연결 처리, 객체 추적, 시점 변환, 객체 분류 처리 및 이벤트 검출 처리 중 하나 이상을 수행하기 위한 분석 모듈을 구비하는 제1 지능형 카메라 장치(100) 일 수 있으며, 나머지 분석 모듈은 또 다른 제2 지능형 카메라 장치(300)로 분산되어 구비되어 있을 수 있다.5 and 6 , the intelligent security monitoring device 100 according to another embodiment of the present invention may be an intelligent camera device connected to a security network, and the camera unit 105 is directly built-in security. It can function as a camera. Therefore, the intelligent security monitoring device 100 according to an embodiment of the present invention may be an intelligent IP camera that performs edge computing, and image information stabilization, background modeling, shape calculation processing, and background modeling of the intelligent security monitoring device 100 described above. It may be a first intelligent camera device 100 having an analysis module for performing one or more of element connection processing, object tracking, viewpoint transformation, object classification processing, and event detection processing, and the remaining analysis module is another second intelligent The camera device 300 may be distributed and provided.

특히, 제2 지능형 카메라 장치(300)는 별도의 카메라부(305)가 직접 내장된 형태의 또 다른 보안 카메라일 수도 있으며, 전술한 딥러닝 기반 영상 정보 분석부(310), 객체 검출부(320) 및 객체 분류 처리부(330)를 포함하는 딥러닝 분산 처리 장치(300)의 구성 중 적어도 하나를 포함할 수 있다.In particular, the second intelligent camera device 300 may be another security camera in which a separate camera unit 305 is directly embedded, and the above-described deep learning-based image information analysis unit 310 and object detection unit 320 . And it may include at least one of the configuration of the deep learning distributed processing apparatus 300 including the object classification processing unit (330).

따라서, 본 발명의 실시 예에 따른 보안 감시 시스템은, 엣지 컴퓨팅을 수행하는 지능형 IP 카메라로서 제1 지능형 카메라 장치(100) 및 제2 지능형 카메라 장치(300)를 포함하는 엣지 컴퓨팅 네트워크로 구축될 수 있는 바, 기존의 지능형 영상 감시 장치보다 정확도는 뛰어나면서도 컴퓨팅 네트워크의 구축 및 장비 비용은 최소화할 수 있는 보안 감시 네트워크를 구축할 수 있다.Therefore, the security monitoring system according to an embodiment of the present invention can be built as an edge computing network including the first intelligent camera device 100 and the second intelligent camera device 300 as an intelligent IP camera that performs edge computing. As a result, it is possible to build a security monitoring network that is superior to the existing intelligent video monitoring device and minimizes the cost of building a computing network and equipment while being superior to that of the existing intelligent video monitoring device.

상술한 본 발명에 따른 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있으며, 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있다.The method according to the present invention described above may be produced as a program to be executed by a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape. , floppy disks, and optical data storage devices.

컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The computer-readable recording medium is distributed in a network-connected computer system, so that the computer-readable code can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention pertains.

또한, 이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형 실시가 가능한 것은 물론이고, 이러한 변형 실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In addition, although preferred embodiments of the present invention have been illustrated and described above, the present invention is not limited to the specific embodiments described above, and the technical field to which the present invention belongs without departing from the gist of the present invention as claimed in the claims Various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.

Claims (12)

보안 감시 지역에 배치되고 보안 감시 지역을 촬영하거나, 보안 감시 지역 또는 그 주변에서 발생되는 감지 신호를 센싱하여, 영상 정보 및 센서 정보를 획득하는 하나 이상의 카메라 장치 및 센서 장치와;
상기 카메라 및 센서장치들과 로컬 감시 네트워크로 연결되고, 카메라 장치 및 센서 장치로부터 수신되는 영상 정보 및 센서 정보를 수집 및 저장 관리하고, 영상 정보 및 센서 정보에 기초하여 보안 감시 지역에서 발생되는 하나 이상의 보안 감시 이벤트를 검출하되, 기초 정보 분석에 의해 검출되는 제1 보안 감시 이벤트와, 복잡한 딥러닝 분석이 필요한 영상에 대해 딥러닝 분산처리 요청데이터를 생성하여 딥러닝 분산 처리장치로 전달하고, 해당 딥러닝 분산 처리 장치로부터 딥러닝 처리 결과정보를 수신받아 반영한 제2 보안 감시 이벤트를 검출하고, 검출된 이벤트에 대응하는 감시 서비스 처리를 수행하는 지능형 보안 감시 장치;
하나 이상의 상기 지능형 보안 감시장치에 대해 하나 이상이 배치되어 정보의 분산처리가 가능하게 통신 연결되고, 상기 지능형 보안 감시 장치로부터 객체의 정확한 검출 및 분류를 통해 보다 정확한 분석이 요구되는 딥러닝 분산처리 요청 데이타를 수신받아 딥러닝 기반 객체 검출 및 객체 분류 분석을 수행하고, 해당 딥러닝 분석정보 결과 정보를 반영한 보안 감시 이벤트를 검출하도록 딥러닝 분석 결과를 해당 지능형 보안 감시 장치로 전송하는 딥러닝 분산 처리장치;
각지에 설치되는 지능형 보안 감시 장치들로부터 영상 감시 분석 데이터를 수집하여 저장 및 관리하고, 딥러닝 분산 처리 장치로부터 수신되는 딥러닝 영상 분석 결과와 상기 영상 감시 분석 데이터를 사용자 단말 및 관제 서비스 서버로 중계하는 서버; 및
상기 중계서버를 통해 수신되는 각 지능형 보안 감시 장치의 이벤트 검출 데이터 및 각 딥러닝 분산 처리장치로부터 수신되는 딥러닝 영상 분석 정보에 기초한 사고 발생 신고, 화재 발생 신고, 사용자 알림, 감시 장치 제어, 실시간 모니터링 등의 다양한 관제 서비스 처리를 수행하고, 서비스 수행 정보를 사용자 단말로 전송하는 관제 서비스 서버를 포함하는
지능형 보안 감시 서비스 제공 시스템.
one or more camera devices and sensor devices disposed in the security monitoring area to photograph the security monitoring area or sensing a detection signal generated in or around the security monitoring area to obtain image information and sensor information;
It is connected to the camera and sensor devices through a local monitoring network, collects, stores and manages image information and sensor information received from the camera device and sensor device, and based on the image information and sensor information, one or more generated in a security monitoring area. The security monitoring event is detected, but the deep learning distributed processing request data is generated for the first security monitoring event detected by basic information analysis and the image requiring complex deep learning analysis and delivered to the deep learning distributed processing device, An intelligent security monitoring device that receives and reflects the deep learning processing result information from the learning distributed processing device, detects a second security monitoring event, and performs monitoring service processing corresponding to the detected event;
One or more of the one or more intelligent security monitoring devices are arranged and connected to enable distributed processing of information, and deep learning distributed processing requests that require more accurate analysis through accurate detection and classification of objects from the intelligent security monitoring devices A deep learning distributed processing device that receives data, performs deep learning-based object detection and object classification analysis, and transmits the deep learning analysis result to the corresponding intelligent security monitoring device to detect a security monitoring event that reflects the deep learning analysis information result information ;
It collects, stores, and manages video monitoring analysis data from intelligent security monitoring devices installed in various places, and relays the deep learning video analysis results received from the deep learning distributed processing device and the video monitoring analysis data to user terminals and control service servers. server to; and
Event detection data of each intelligent security monitoring device received through the relay server and accident occurrence report, fire occurrence report, user notification, monitoring device control, real-time monitoring based on deep learning image analysis information received from each deep learning distributed processing device A control service server that performs various control service processing such as, and transmits service performance information to a user terminal,
Intelligent security monitoring service provision system.
제1항에 있어서,
상기 지능형 보안 감시 장치는,
센서 장치로부터 수신되는 보안 감시 영역 센싱 정보와 카메라 장치로부터 수신되는 보안 감시 영역 촬영 영상 데이터를 수집하고, 영상 데이터에 카메라의 촬영영상 내 프레임의 흔들림이 존재하는 경우, 흔들림 보정에 따른 영상 정보의 안정화를 처리하는 영상 정보 수집부와;
안정화 처리된 영상 정보에 대응하는 배경 영역을 모델링 처리하는 배경 모델링부와;
배경 모델링에 따라 차감 출력되는 전경 픽셀 정보의 이진 맵 데이터로부터, 형태 영역 정보를 결정하는 형태 연산 처리를 수행하는 형태 연산 처리부와;
상기 형태 연산 처리부에서 특정된 형태 구조 요소에 대응하는 영상 정보를 획득하고, 각 형태 구조 요소들을 연결 처리하여 독립적인 객체 연결 영역들로 분류하며, 분류된 객체 연결 영역에 대응하는 고유의 라벨 값들을 할당하는 연결 성분 라벨링 처리를 수행하는 요소 연결 처리부와;
블롭(blob) 이미지 데이터 및 객체 연결 영역 정보에 기초하여, 영상 정보 내 객체 정보를 추적하기 위한 추적 데이터를 획득하는 객체 추적부와;
객체 추적 데이터 내 각 객체의 크기 정보 및 이동 속도 정보를 카메라 장치별 3차원 시점 조건에 따른 실제적 수치로 변환 처리하는 3차원 시점 변환부와;
사전 설정된 분류 기준에 기초하고, 딥러닝 분산처리 장치의 딥러닝 분산 처리 결과를 반영하여 상기 객체 추적 데이터에서 식별된 객체에 분류 정보를 할당하는 처리를 수행 객체 분류 처리부와;
상기 시점 변환부를 통해 획득되는 초기 분석에 따른 상기 추적 데이터 및 상기 영상 정보에 기초하여, 딥러닝 분산 처리 요청 데이터를 생성하여 상기 딥러닝 분산 처리 장치로 전송 처리하고, 상기 딥러닝 분산 처리 장치로부터 수신되는 딥러닝 기반 영상 정보 분석 결과를 수신하여, 상기 객체 분류 처리부로 전달하는 분산 데이터 처리부와;
수집된 센서 정보와, 상기 영상 정보의 추적 데이터 및 분산 데이터 처리부로부터 객체 분류 처리부를 통해 전달된 상기 객체 분류 정보 중 적어도 하나에 따라 획득되는 하나 이상의 이벤트를 검출하는 이벤트 검출부와;
각 이벤트 정보에 따라 대응되는 사용자 단말로의 알림 서비스 또는 중계 서버로의 전송 서비스 처리, 관제요청 서비스 처리중 적어도 하나를 포함하는 사전 결정된 감시 서비스 프로세스를 수행하는 감시 서비스 처리부;를 포함하는
지능형 보안 감시 서비스 제공 시스템.
According to claim 1,
The intelligent security monitoring device,
The security monitoring area sensing information received from the sensor device and the security monitoring area captured image data received from the camera device are collected, and when there is frame shake in the captured image of the camera in the image data, stabilization of image information according to shake correction an image information collection unit for processing;
a background modeling unit for modeling a background area corresponding to the image information subjected to stabilization;
a shape calculation processing unit that performs shape calculation processing to determine shape area information from binary map data of foreground pixel information that is subtracted and output according to background modeling;
The shape operation processing unit acquires image information corresponding to the specified shape structure element, connects and processes each shape structure element to classify them into independent object connection areas, and generates unique label values corresponding to the classified object connection area. an element concatenation processing unit that performs assignment concatenated component labeling processing;
an object tracking unit configured to acquire tracking data for tracking object information in image information based on blob image data and object connection region information;
a 3D viewpoint converting unit converting size information and movement speed information of each object in the object tracking data into actual values according to 3D viewpoint conditions for each camera device;
an object classification processing unit that performs a process of allocating classification information to the object identified in the object tracking data based on a preset classification criterion and reflecting the deep learning distributed processing result of the deep learning distributed processing device;
Based on the tracking data and the image information according to the initial analysis obtained through the viewpoint conversion unit, deep learning distributed processing request data is generated, transmitted to the deep learning distributed processing device, and received from the deep learning distributed processing device a distributed data processing unit that receives the deep learning-based image information analysis result and transmits it to the object classification processing unit;
an event detection unit configured to detect one or more events obtained according to at least one of the collected sensor information, the tracking data of the image information, and the object classification information transmitted from the distributed data processing unit through the object classification processing unit;
A monitoring service processing unit that performs a predetermined monitoring service process including at least one of a notification service to a corresponding user terminal, a transmission service processing to a relay server, and a control request service processing according to each event information; including;
Intelligent security monitoring service provision system.
제2항에 있어서,
상기 이벤트 검출부는 추적 데이터 및 객체 분류 정보로부터 영상 정보 내 동적 객체 추적(Dynamic Object Tracking)을 수행하고, 동적 객체 추적 정보에 따라 하나 이상의 이벤트를 검출 또는 감지하는 검출부 또는 감지부를 포함하는
지능형 보안 감시 서비스 제공 시스템.
3. The method of claim 2,
The event detection unit performs dynamic object tracking in image information from tracking data and object classification information, and detects or detects one or more events according to the dynamic object tracking information.
Intelligent security monitoring service provision system.
제2항에 있어서,
상기 이벤트 검출부는,
영상내에서 가상의 경계선을 설정하고, 동적 객체 추적을 통해 외곽경계(Perimeter Detection)를 위한 침입감지(Intrusion Detection)나 특정 영역내 침입감지를 처리하는 트립 와이어 검출부를 포함하고,
트립 와이어를 기준으로 지면상에서 통과하는 객체(사람, 차량 또는 기타 물체)가 있을 때 감지하되, 그 움직임의 방향(양방향 또는 단방향) 추적을 통해 제1 방향에서 제2 방향으로 이동하다가 트립 와이어를 통과(침입)했는지를 확인하여, 이벤트 발생여부를 결정하는
지능형 보안 감시 서비스 제공 시스템.
3. The method of claim 2,
The event detection unit,
It includes a trip wire detector that sets a virtual boundary in the image and processes intrusion detection for perimeter detection or intrusion detection within a specific area through dynamic object tracking,
Detects when there is an object (person, vehicle, or other object) passing on the ground based on the trip wire, and moves from the first direction to the second direction through tracking the direction (bidirectional or unidirectional) of the movement and passes the trip wire (intrusion) to determine whether an event has occurred
Intelligent security monitoring service provision system.
제3항에 있어서,
상기 이벤트 검출부는,
트립 와이어 검출부를 이용하여 경계선 기반의 침입을 감지하거나, 사전 설정된 관심 영역에 대응하는 객체 움직임이 검출된 경우, 침입을 감지하는 관심영역 기반 침입 감지 처리를 수행하는 칩입 감지부와;
사람 또는 차량과 같은 배회객체를 감지(Loitering)하여 배회객체 이벤트 정보를 획득하고, 배회객체 이벤트 정보를 감시 서비스 처리부로 전달하는 배회객체 감지부와;
통행 방향 준수 지역에서의 통행 위반 객체를 감지하는 통행방향 위반 감지부와;
사전 설정된 관심영역 내에 누군가에 의해 방치된 객체(짐꾸러미, 가방, 카트 등)가 등장한 후 지정 시간이 초과한 이후에도 계속 정지된 상태로 존재하는 무단 방치물을 감지하고, 감지된 무단 방치물 객체 정보를 감시 서비스 처리부로 전달하는 무단 방치물 감지부와;
사전 지정해 놓은 물체들이 영상 객체에서 사라져 버린 경우, 이를 감지하여 획득된 이벤트 정보를 감시 서비스 처리부로 전달하는 무단 이동물체 감지부와;
입장객수와 퇴장객수 통계정보를 획득하여 감시 서비스 처리부로 전달하여 실시간 카운팅과 함께 시간대별 출입자 통계 정보를 서비스 할수 있도록 하는 출입 카운팅 및 통계부와; 또는
사전 설정된 관심영역 내에서 지정한 군중 밀집규모보다 초과되는 군중(Overcrowd) 규모로 발전하는 이벤트를 감지하는 군중 밀집상태 감지부와;
미끄러지거나 걸려서 넘어진 사람, 싸우고 있는 사람, 달리는 사람중 어느하나를 포함하는 특이 행동을 하는 사람을 감지하는 특이행동 감지부; 중 어느 하나 이상을 포함하는
지능형 보안 감시 서비스 제공 시스템.
4. The method of claim 3,
The event detection unit,
an intrusion detection unit that detects a boundary-based intrusion using the trip wire detector or performs an ROI-based intrusion detection process for detecting an intrusion when an object movement corresponding to a preset ROI is detected;
a loitering object detection unit that detects a loitering object such as a person or a vehicle, obtains loitering object event information, and transmits the loitering object event information to a monitoring service processing unit;
a traffic direction violation detection unit for detecting a traffic violation object in a traffic direction observance area;
After an object (package, bag, cart, etc.) left unattended by someone appears within a preset area of interest, it detects an unattended object that continues to remain stationary even after a specified time has elapsed, and detects unattended object information an unauthorized object detection unit that transmits to the monitoring service processing unit;
an unauthorized moving object detection unit that detects and transmits the acquired event information to the monitoring service processing unit when the pre-designated objects disappear from the video object;
an access counting and statistics unit for acquiring statistical information on the number of entering and leaving visitors and transferring it to the monitoring service processing unit to provide real-time counting and time-based visitor statistics information; or
a crowd density detection unit configured to detect an event that develops to a crowd size exceeding a specified crowd density within a preset area of interest;
A specific behavior detection unit for detecting a person performing a specific action including any one of a slipping or tripping person, a fighting person, and a running person; including any one or more of
Intelligent security monitoring service provision system.
제3항에 있어서,
상기 이벤트 검출부는,
제3자에 의한 카메라 케이블 단락, 렌즈 무단 조작에 의한 초점 흐려짐, 손이나 타물체로 카메라 렌즈를 가리는 경우, 또는 렌즈를 다른 방향으로 임의로 돌려 버리는 경우 등의 카메라 무단 변경을 감지하는 카메라 무단 변경 감지부를 더 포함하고,
상기 딥러닝 분산 처리 장치는 카메라 무단 변경 감지를 위한 특정 상황별 영상 학습을 사전 처리하여 신경망 데이터로 구축하는
지능형 보안 감시 서비스 제공 시스템.
4. The method of claim 3,
The event detection unit,
Camera tamper detection, which detects tampering with the camera, such as shorting of the camera cable by a third party, defocusing due to tampering with the lens, covering the camera lens with a hand or other object, or arbitrarily rotating the lens in a different direction more wealth,
The deep learning distributed processing device pre-processes image learning for each specific situation for camera unauthorized change detection and builds it as neural network data.
Intelligent security monitoring service provision system.
제1항에 있어서,
상기 딥러닝 분산 처리 장치는,
딥 러닝 방식에 따라 사전 학습된 영상 정보로부터 신경망 데이터를 구축하는 딥러닝 기반 영상 정보 분석부와;
상기 신경망 데이터를 이용하여 상기 분산 처리 요청 데이터에 대응하는 객체 정보를 검출하는 객체 검출부와;
검출된 객체 정보의 분류 정보를 결정하는 객체 분류 처리부;를 포함하는
지능형 보안 감시 서비스 제공 시스템.
According to claim 1,
The deep learning distributed processing device,
a deep learning-based image information analysis unit for constructing neural network data from image information learned in advance according to a deep learning method;
an object detection unit detecting object information corresponding to the distributed processing request data using the neural network data;
Including; an object classification processing unit that determines classification information of the detected object information
Intelligent security monitoring service provision system.
제7항에 있어서,
상기 딥러닝 기반 영상 정보 분석부는,
DNN(Deep Neural Network), CNN(Convolution Neural Network) 또는 RNN(Recurrent Neural Network)중 어느하나의 딥 러닝 알고리즘에 따른 신경 회로망이 적용되는
지능형 보안 감시 서비스 제공 시스템.
8. The method of claim 7,
The deep learning-based image information analysis unit,
A neural network according to any one of Deep Neural Network (DNN), Convolution Neural Network (CNN), or Recurrent Neural Network (RNN) is applied.
Intelligent security monitoring service provision system.
제7항에 있어서,
상기 딥러닝 분산 처리 장치는,
별도의 사용자 입력부 또는 통신부를 포함하고, 딥러닝 분산 처리 장치는 상기 사용자 입력부를 통한 사용자 입력 관련 제어정보나, 상기 통신부를 통해 외부로부터 수신된 제어정보를 기초로 상기 객체 분류 처리부에 의해 분류된 하나 이상의 객체 중 어느 하나를 감시 대상 객체로 설정하며, 이에 대한 설정정보를 저장하는
지능형 보안 감시 서비스 제공 시스템.
8. The method of claim 7,
The deep learning distributed processing device,
It includes a separate user input unit or communication unit, and the deep learning distributed processing device is one classified by the object classification processing unit based on user input related control information through the user input unit or control information received from the outside through the communication unit. Set any one of the above objects as the object to be monitored and store the setting information
Intelligent security monitoring service provision system.
제1항에 있어서,
상기 지능형 보안 감시장치는,
상기 정보 처리 모듈 및 정보 분석 모듈을 통하여 수행되는 기초 분석처리에 의해 검출되는 제1 감시 이벤트와, 딥러닝 분석처리 결과를 반영하여 검출되는 제2 감시 이벤트를 검출하되,
상기 제1 감시 이벤트 및 제2 감시 이벤트는 딥러닝 분석 처리 여부에 따라 그룹핑될 수 있으며,
제1 감시 이벤트는, 센서 정보 및 영상 정보의 초기 분석에 따라 신속히 검출되는 침입 이벤트, 카메라 무단 변경 이벤트, 화재 발생 이벤트 중 적어도 하나를 포함하고,
상기 제2 감시 이벤트는, 딥러닝 분석에 따른 정확한 객체 검출 및 분류 정보가 수반되는 동적 객체 추적 이벤트, 트립 와이어 이벤트, 배회객체 감지 이벤트, 통행방향 위반 감지 이벤트, 무단 방치물 감지 이벤트, 무단 이동물체 감지 이벤트, 출입 카운팅 및 통계 이벤트, 군중 밀집상태 감지 이벤트, 특이행동 감지 이벤트 중 적어도 하나를 포함하는
지능형 보안 감시 서비스 제공 시스템.
According to claim 1,
The intelligent security monitoring device,
A first monitoring event detected by the basic analysis processing performed through the information processing module and the information analysis module and a second monitoring event detected by reflecting the result of the deep learning analysis processing are detected,
The first monitoring event and the second monitoring event may be grouped according to whether deep learning analysis is processed,
The first monitoring event includes at least one of an intrusion event quickly detected according to an initial analysis of sensor information and image information, an unauthorized camera change event, and a fire occurrence event,
The second monitoring event is a dynamic object tracking event accompanied by accurate object detection and classification information according to deep learning analysis, a trip wire event, a wandering object detection event, a traffic direction violation detection event, an unauthorized object detection event, an unauthorized moving object At least one of a detection event, an access counting and statistical event, a crowd detection event, and an unusual behavior detection event
Intelligent security monitoring service provision system.
제1항에 있어서,
상기 지능형 보안 감시장치는,
상기 제1 감시 이벤트 발생에 따른 초기 분석 정보를 중계 서버를 통해 관제 서비스 서버 또는 사용자 단말로 우선 전송하고,
상기 제1 감시 이벤트와 연관된 일정 시간 범위 이내의 영상 정보에 대한 상기 딥러닝 분산 처리장치의 딥러닝 분석 결과에 따라 상기 제1 감시 이벤트의 상세정보로서 제2 감시 이벤트를 검출하여, 상기 중계 서버를 통해 관제 서비스 서버 또는 사용자 단말로 제2 감시 이벤트 정보를 제공하는
지능형 보안 감시 서비스 제공장치.
According to claim 1,
The intelligent security monitoring device,
First, the initial analysis information according to the occurrence of the first monitoring event is transmitted to the control service server or the user terminal through the relay server,
By detecting a second monitoring event as detailed information of the first monitoring event according to the deep learning analysis result of the deep learning distributed processing device for image information within a predetermined time range related to the first monitoring event, the relay server to provide the second monitoring event information to the control service server or user terminal through
An intelligent security monitoring service provider.
제1항에 있어서,
상기 딥러닝 분산 처리 장치는,
딥 러닝 기반의 신경 회로망을 이용하여 상기 딥러닝 분산 처리 요청 데이터에 대응하는 객체 분류 정보를 획득하며, 상기 객체 분류 정보를 상기 지능형 보안 감시 장치로 전송하는 장치로서,
딥 러닝 기반의 신경 회로망 구축을 위해 학습 영상 정보로부터 획득되는 하나 이상의 정상 이미지를 분석하여 감시 대상 객체를 식별하고, 감시 대상 객체가 식별된 정상 이미지를 저장하며, 상기 학습 영상 정보로부터 획득되는 하나 이상의 특정 이미지에서 감시 대상 객체를 식별하는 과정에서 상기 감시 대상 객체가 아닌 특정 객체가 식별된 경우 상기 특정 이미지와 하나 이상의 상기 정상 이미지 사이의 유사도를 산출하며, 상기 유사도가 미리 설정된 기준치 이상인 경우, 상기 특정 이미지에 대하여 상기 신경 회로망을 기반으로 영상 처리된 출력값과 객체 정보 사이의 오차에 대한 오차 정보를 생성하고, 미리 설정된 역전파 알고리즘(back propagation algorithm)을 통해 상기 오차 정보를 기반으로 상기 신경 회로망을 구성하는 파라미터를 조정하는 장치인
지능형 보안 감시 서비스 제공 시스템.
According to claim 1,
The deep learning distributed processing device,
An apparatus for obtaining object classification information corresponding to the deep learning distributed processing request data using a deep learning-based neural network, and transmitting the object classification information to the intelligent security monitoring device,
In order to construct a deep learning-based neural network, one or more normal images obtained from learning image information are analyzed to identify a monitoring target object, a normal image in which the monitoring target object is identified is stored, and one or more obtained from the training image information When a specific object other than the monitoring target object is identified in the process of identifying the monitoring target object from the specific image, a similarity between the specific image and one or more of the normal images is calculated, and when the similarity is greater than or equal to a preset reference value, the specific Generates error information about an error between an image-processed output value and object information based on the neural network for an image, and configures the neural network based on the error information through a preset back propagation algorithm A device that adjusts parameters
Intelligent security monitoring service provision system.
KR1020200077916A 2020-06-25 2020-06-25 A system for providing a security surveillance service based on edge computing KR20220000226A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200077916A KR20220000226A (en) 2020-06-25 2020-06-25 A system for providing a security surveillance service based on edge computing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200077916A KR20220000226A (en) 2020-06-25 2020-06-25 A system for providing a security surveillance service based on edge computing

Publications (1)

Publication Number Publication Date
KR20220000226A true KR20220000226A (en) 2022-01-03

Family

ID=79348471

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200077916A KR20220000226A (en) 2020-06-25 2020-06-25 A system for providing a security surveillance service based on edge computing

Country Status (1)

Country Link
KR (1) KR20220000226A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116260844A (en) * 2023-03-07 2023-06-13 中浙信科技咨询有限公司 Community cloud edge architecture system based on Internet of things mode
KR102588080B1 (en) * 2023-04-07 2023-10-12 주식회사 와치캠 Cctv image analysis method and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116260844A (en) * 2023-03-07 2023-06-13 中浙信科技咨询有限公司 Community cloud edge architecture system based on Internet of things mode
KR102588080B1 (en) * 2023-04-07 2023-10-12 주식회사 와치캠 Cctv image analysis method and system

Similar Documents

Publication Publication Date Title
CN108027874B (en) Computer vision based security system using depth camera
KR102397837B1 (en) An apparatus and a system for providing a security surveillance service based on edge computing and a method for operating them
KR101877294B1 (en) Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events
US20070122000A1 (en) Detection of stationary objects in video
KR20220000226A (en) A system for providing a security surveillance service based on edge computing
KR20220000216A (en) An apparatus for providing a security surveillance service based on deep learning distributed processing
KR20220000424A (en) A camera system for providing a intelligent security surveillance service based on edge computing
KR20220000175A (en) A method for operating of intelligent security surveillance service providing apparatus based on edge computing
EP1261951B1 (en) Surveillance method, system and module
EP4071728A1 (en) Artificial intelligence model integration and deployment for providing a service
KR20220064213A (en) Program for operation of security monitoring device
KR20220000221A (en) A camera apparatus for providing a intelligent security surveillance service based on edge computing
KR20220000189A (en) An apparatus for providing a security surveillance service based on edge computing
KR20220000202A (en) A method for operating of intelligent security surveillance device based on deep learning distributed processing
KR20220000204A (en) A program for operating method of intelligent security surveillance device based on deep learning distributed processing
KR20220000209A (en) Recording medium that records the operation program of the intelligent security monitoring device based on deep learning distributed processing
KR20220000184A (en) A record media for operating method program of intelligent security surveillance service providing apparatus based on edge computing
KR20220000181A (en) A program for operating method of intelligent security surveillance service providing apparatus based on edge computing
KR102397839B1 (en) A captioning sensor apparatus based on image analysis and a method for operating it
KR20220031316A (en) A recording medium in which an active security control service provision program is recorded
KR20220031258A (en) A method for providing active security control service based on learning data corresponding to counseling event
Prabhakar et al. An efficient approach for real time tracking of intruder and abandoned object in video surveillance system
KR20220031318A (en) Program to build active security control counseling response learning data
KR20220031310A (en) A Program to provide active security control service
KR20220031276A (en) A system for providing active security control consulting services

Legal Events

Date Code Title Description
A201 Request for examination