KR101520446B1 - Monitoring system for prevention beating and cruel act - Google Patents

Monitoring system for prevention beating and cruel act Download PDF

Info

Publication number
KR101520446B1
KR101520446B1 KR1020140167184A KR20140167184A KR101520446B1 KR 101520446 B1 KR101520446 B1 KR 101520446B1 KR 1020140167184 A KR1020140167184 A KR 1020140167184A KR 20140167184 A KR20140167184 A KR 20140167184A KR 101520446 B1 KR101520446 B1 KR 101520446B1
Authority
KR
South Korea
Prior art keywords
sound source
behavior
signal
unit
image
Prior art date
Application number
KR1020140167184A
Other languages
Korean (ko)
Inventor
이운학
Original Assignee
주식회사 네오티스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 네오티스 filed Critical 주식회사 네오티스
Priority to KR1020140167184A priority Critical patent/KR101520446B1/en
Application granted granted Critical
Publication of KR101520446B1 publication Critical patent/KR101520446B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

An embodiment of the present invention relates to a monitoring system for preventing a beating and a cruel act, and aims to prevent the beating and the cruel act, taking place in a monitoring blind spot such as a school, an institute, an army, etc., by using an intelligent voice and image system. The embodiment of the present invention comprises: a sound source processing apparatus for detecting a sound source signal in a monitoring area, and judging whether an abnormal event occurs in the monitoring area based on the detected sound source signal; an image processing apparatus for filming and storing an image of the monitoring area if determined that the abnormal event occurs in the sound source signal, and outputting a first warning signal set in advance and a second warning signal received from the outside; a central monitoring apparatus for receiving the sound source signal detected in the sound source processing apparatus and an image signal filmed in the image processing apparatus if determined the abnormal event occurs in the sound source signal, recognizing an action of an object included in the image signal, and transferring the second warning signal set in advance to the image processing apparatus; and a manager terminal having a real-time detection application, connected to a central monitoring apparatus through a wire and wireless communication net by the real-time detection application, receiving information of the sound source signal, an execution signal, and the second warning signal from the central monitoring apparatus, and transferring a control command signal to the central monitoring apparatus.

Description

구타 및 가혹행위 방지를 위한 감시 시스템{MONITORING SYSTEM FOR PREVENTION BEATING AND CRUEL ACT}[0001] MONITORING SYSTEM FOR PREVENTION BEATING AND CRUEL ACT [0002]

본 발명의 일 실시예는 감시 사각 지대에서의 구타 및 가혹 행위 발생 여부를 모니터링하기 위한 구타 및 가혹행위 방지를 위한 감시 시스템에 관한 것이다.
An embodiment of the present invention relates to a surveillance system for beating and harshness prevention for monitoring whether a beating or harsh behavior occurs in a monitored blind spot.

현대 사회에서 사람의 수가 지속적으로 증가함에 따라 그와 관련된 각종 사건 사고도 증가하고 있다. 이에 따라 영상 기반 감시 시스템(Video Surveillance Systems)이 도입되어 실내외 공간 보안 감시, 교통 보안 감시 등 다양한 분야에서 적용되고 있다. 영상 기반 감시 시스템은 의심스러운 객체를 검출/인식/추적하고 그들의 행동을 파악하는 것을 목적으로 한다. 그러나, 종래의 영상 기반 감시 시스템은 감시 운용자가 여러 대의 모니터를 동시에 감시해야 하고 장시간 모니터를 들여다 봐야 하는 불편이 있다.As the number of people continues to increase in modern society, various incidents related to them are increasing. As a result, video surveillance systems have been introduced in indoor and outdoor space security surveillance and traffic security surveillance. Video-based surveillance systems aim to detect / recognize / track suspicious objects and identify their behavior. However, in the conventional image-based surveillance system, the surveillance operator must monitor several monitors at the same time, and there is an inconvenience to observe the monitor for a long time.

이러한 어려움을 해결하고자 지능형 음성 및 영상 기반 감시 시스템(Intelligent Audio-Video Surveillance Systems) 개발의 필요성이 요구되고 있다. 지능형 음성 및 영상 기반 감시 보안 시스템은 감시 영역에서 비정상 이벤트가 발생할 경우 자동적으로 인지하여 감시 운용자에게 알려주기 때문에 시스템 운영이 보다 효과적이다.
In order to solve such difficulties, there is a need to develop an intelligent audio-video surveillance system. The intelligent voice and image based surveillance security system automatically detects when an abnormal event occurs in the surveillance area and informs surveillance operator that the system operation is more effective.

등록특허공보 제10-1377029호 '지능형 하이브리드 감시제어모듈을 통한 단계별 자율 경보형 스마트 CCTV 감시장치 및 감시방법'Patent Registration No. 10-1377029 'Step-by-step self-alarming type smart CCTV monitoring device and monitoring method using intelligent hybrid monitoring control module' 공개특허공보 제10-2014-0033262호 '실내 감시 시스템 및 실내 감시 방법'Open Patent Publication No. 10-2014-0033262 'Indoor Monitoring System and Indoor Monitoring Method'

본 발명의 일 실시예는 학교, 학원, 군대 등의 감시 사각지대에서 발생되는 구타 및 가혹 행위를 지능형 음성 및 영상 시스템을 이용하여 방지할 수 있는 구타 및 가혹행위 방지를 위한 감시 시스템을 제공한다.
An embodiment of the present invention provides a surveillance system for preventing beatings and harsh behavior that can prevent beatings and harsh behaviors occurring in a blind spot in schools, academies, military, etc. by using an intelligent voice and image system.

본 발명의 일 실시예에 의한 구타 및 가혹행위 방지를 위한 감시 시스템은 감시 영역에서의 음원 신호를 감지하고, 상기 감지된 음원 신호를 기초로 감시 영역에서의 비정상 이벤트가 발생되는 지 여부를 판단하는 음원 처리 장치; 상기 음원 신호에서 비정상 이벤트가 발생된 것으로 판단되는 경우, 상기 감시 영역의 영상을 촬영 및 저장하고, 미리 설정된 제1 경보 신호와 외부로부터 수신된 제2 경보 신호를 출력하는 영상 처리 장치; 상기 음원 신호에서 비정상 이벤트가 발생된 것으로 판단되는 경우, 상기 음원 처리 장치에서 감지된 음원 신호와, 상기 영상 처리 장치에서 촬영된 영상 신호를 전송받되, 상기 영상 신호에 포함된 객체의 행동을 인식한 후, 미리 설정된 제2 경보 신호를 상기 영상 처리 장치에 전송하는 중앙 모니터링 장치; 및 실시간 감지 어플리케이션을 구비하고, 상기 실시간 감지 어플리케이션의 실행에 의하여 상기 중앙 모니터링 장치와 유무선 통신망으로 연결되고, 상기 중앙 모니터링 장치로부터 음원 신호, 영상 신호 및 제2 경보 신호 정보를 수신하며, 상기 중앙 모니터링 장치로 제어 명령 신호를 전송하는 관리자 단말을 포함할 수 있다.The surveillance system for preventing beating and harshness according to an embodiment of the present invention detects a sound source signal in a surveillance area and determines whether an abnormal event in the surveillance area is generated based on the sensed sound source signal Sound source processing device; An image processing device for photographing and storing an image of the surveillance area and outputting a predetermined first alarm signal and a second alarm signal received from the outside when it is determined that an abnormal event has occurred in the sound source signal; Receiving a sound source signal sensed by the sound source processing apparatus and a video signal photographed by the image processing apparatus when an abnormal event is determined to have occurred in the sound source signal and recognizing an action of the object included in the video signal, A central monitoring device for transmitting a predetermined second alarm signal to the image processing apparatus; And a real-time detection application, and is connected to the central monitoring apparatus and the wired / wireless communication network by execution of the real-time detection application, receives the sound source signal, the video signal, and the second alarm signal information from the central monitoring apparatus, And an administrative terminal for transmitting a control command signal to the device.

상기 음원 처리 장치는 상기 중앙 모니터링 장치와의 데이터 송수신을 위한 제1 통신부; 상기 음원 신호를 감지하기 위한 제1 모드 또는 제2 모드에 대한 선택 정보를 입력하는 모드 선택부; 상기 음원 신호를 감지하는 음원 감지부; 상기 제1 모드가 선택되는 경우, 상기 감지된 음원 신호의 음원 레벨을 측정하는 레벨 측정부; 상기 제2 모드가 선택되는 경우, 상기 감지된 음원 신호에서 음원 프레임을 생성하고, 상기 음원 프레임의 등급 레벨을 분류하는 등급 레벨 분류부; 상기 음원 레벨 또는 상기 등급 레벨을 소정의 이벤트 발생 알고리즘에 적용하여 상기 감시 영역에서 비정상 이벤트가 발생하는 지 여부를 판단하는 이벤트 판단부; 상기 음원 신호, 음원 레벨, 등급 레벨 및 이벤트 발생 알고리즘을 저장하는 제1 메모리부; 및 상기 음원 처리 장치를 구성하는 각 구성요소의 동작을 제어하는 제1 제어부를 포함할 수 있다.Wherein the sound source processing device comprises: a first communication unit for transmitting and receiving data with the central monitoring device; A mode selector for inputting selection information for a first mode or a second mode for sensing the sound source signal; A sound source sensing unit for sensing the sound source signal; A level measurement unit for measuring a sound source level of the sensed sound source signal when the first mode is selected; A class level classifier for classifying a class level of the sound source frame to generate a sound source frame from the sensed sound source signal when the second mode is selected; An event determination unit for determining whether an abnormal event occurs in the monitoring area by applying the sound source level or the rating level to a predetermined event generation algorithm; A first memory unit for storing the sound source signal, the sound source level, the level level, and an event generation algorithm; And a first control unit for controlling operations of the components constituting the sound source processing apparatus.

상기 등급 레벨 분류부는 상기 음원 신호에서 음원 프레임을 생성하고, 상기 음원 프레임에서 음원 특징으로 추출하는 특징 추출부; 상기 추출된 음원 특징과 각 음원 모델과의 우도를 계산하고, 최대 우도값을 갖는 음원 모델을 선택하는 모델 선택부; 및 계층적 접근 방식에 의하여 상기 음원 프레임의 등급 레벨을 분류하는 레벨 분류부;를 포함할 수 있다.The class level classifier may include a feature extraction unit for generating a sound source frame from the sound source signal and extracting the sound source frame from the sound source frame; A model selection unit for calculating a likelihood of each of the sound source models and the sound source models and selecting a sound source model having a maximum likelihood value; And a level classifier for classifying the class level of the sound source frame by a hierarchical approach.

상기 이벤트 판단부는 상기 측정된 음원 레벨이 미리 설정된 기준 레벨을 초과하는 경우 상기 감시 영역에서 비정상 이벤트로 발생한 것으로 판단하는 제1 이벤트 판단부; 및 소정 시간 동안의 등급 레벨의 분류 횟수중 비정상 이벤트로 분류된 횟수의 비가 임계값 이상이면 상기 감시 영역에서 비정상 이벤트로 발생한 것으로 판단하는 제2 이벤트 판단부를 포함할 수 있다.Wherein the event determination unit determines that an abnormal event has occurred in the monitoring area when the measured sound source level exceeds a preset reference level; And a second event determiner for determining that an abnormality has occurred in the surveillance region if the ratio of the number of classification events classified as abnormal events to the number of classification levels for a predetermined time period is equal to or greater than a threshold value.

상기 영상 처리 장치는 상기 중앙 모니터링 장치와의 데이터 송수신을 위한 제2 통신부; 상기 감시 영역의 영상을 촬영하는 촬영부; 상기 촬영된 영상과, 상기 제1 경보 신호를 저장하는 제2 메모리부; 및 상기 영상 처리 장치를 구성하는 각 구성요소의 동작을 제어하는 제2 제어부를 포함할 수 있다.The image processing apparatus includes a second communication unit for transmitting and receiving data with the central monitoring apparatus; A photographing unit photographing an image of the surveillance area; A second memory unit for storing the photographed image and the first alarm signal; And a second controller for controlling an operation of each component constituting the image processing apparatus.

상기 중앙 모니터링 장치는 상기 음원 처리 장치, 상기 영상 처리 장치 또는 관리자 단말과의 데이터 송수신을 위한 통신 모듈; 상기 영상 신호에 포함된 객체의 행동을 인식하는 행동 인식 모듈; 상기 통신 모듈을 통하여 송수신되는 데이터와, 상기 행동 인식 모듈에 의한 인식 결과 데이터를 출력하는 데이터 출력 모듈; 상기 통신 모듈을 통하여 송수신되는 데이터를 저장하되, 상기 인식된 객체의 행동 정보에 포함되는 객체의 행동에 따른 복수의 행동 템플릿을 저장하는 저장 모듈; 및 상기 중앙 모니터링 장치를 구성하는 구성요소들의 동작을 제어하되, 상기 인식된 객체의 행동에 따라 제2 경보 신호를 상기 영상 처리 장치 또는 관리자 단말에 전송하는 제어모듈을 포함하고, 상기 행동 인식 모듈은 상기 영상 신호에 포함된 객체의 관절 정보와 깊이 정보를 취득하는 데이터 취득부; 상기 취득된 객체의 관절 정보와 깊이 정보로부터 입력 행동 템플릿을 생성하는 행동 템플릿 생성부; 및 상기 입력 행동 템플릿을 상기 복수의 행동 템플릿과 매칭시키고, 상기 입력 행동 템플릿과 상대적으로 가장 유사한 행동을 출력하여 객체의 행동을 추정하는 추정부를 포함하며, 상기 행동 템플릿은 객체의 몸의 기준점을 중심으로 각각의 관절의 위치를 직선으로 연결하여 이미지로 형성할 수 있다.The central monitoring apparatus includes a communication module for transmitting and receiving data to and from the sound source processing apparatus, the image processing apparatus, or the administrator terminal; A behavior recognition module that recognizes a behavior of an object included in the image signal; A data output module for outputting data transmitted and received through the communication module and recognition result data by the behavior recognition module; A storage module that stores data transmitted and received through the communication module and stores a plurality of behavior templates corresponding to an action of an object included in behavior information of the recognized object; And a control module for controlling operations of the components constituting the central monitoring apparatus and transmitting a second alarm signal to the image processing apparatus or the administrator terminal according to the behavior of the recognized object, A data acquisition unit for acquiring joint information and depth information of an object included in the video signal; A behavior template generating unit for generating an input action template from the joint information and the depth information of the acquired object; And an estimator for matching the input action template with the plurality of behavior templates and outputting a behavior most similar to the input action template to estimate a behavior of the object, The positions of the respective joints can be connected by a straight line to form an image.

상기 추정부는 상기 입력 행동 템플릿을 상기 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 상기 복수의 행동 템플릿 중에서 최대 스코어를 가지는 행동 템플릿을 추출하며, 상기 복수의 행동 템플릿의 유사성을 비교하여 최소 허용 스코어를 계산하여, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어보다 큰지를 비교하고, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어보다 크면, 상기 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 객체의 행동을 추정할 수 있다.
Wherein the estimating unit calculates the similar scores by matching the input behavior template with the plurality of behavior templates, extracts a behavior template having a maximum score among the plurality of behavior templates, and compares the similarities of the plurality of behavior templates Calculating a minimum acceptable score to compare whether the score of the behavior template with the maximum score is greater than the minimum acceptable score and if the score of the behavior template with the maximum score is greater than the minimum acceptable score, The behavior of the object can be estimated by outputting the meaningful behavior.

본 발명의 일 실시예에 따른 구타 및 가혹행위 방지를 위한 감시 시스템은 감시 영역에서의 감지되는 음원 신호를 이용하여 비정상 이벤트 발생여부를 판단함과 동시에 해당 영역에서의 영상을 촬영 및 저장하고, 감지된 음성 신호와 촬영된 영상 신호를 중앙 모니터링 장치 및/또는 관리자 단말에 전송하여 실시간으로 사고 대응조치를 하도록 함으로써, 감시 사각지대에서의 구타 및 가혹행위 발생을 효과적으로 방지할 수 있다.
The surveillance system for preventing beating and harshness according to an embodiment of the present invention determines whether or not an abnormal event is generated by using a sound source signal detected in a surveillance region, and simultaneously captures and stores an image in the corresponding region, It is possible to effectively prevent the occurrence of beating and harsh actions in the blind spot by transmitting the voice signal and the photographed video signal to the central monitoring device and / or the administrator terminal and realizing an accident response measure in real time.

도 1은 본 발명의 일 실시예에 따른 구타 및 가혹행위 방지를 위한 감시 시스템을 개략적으로 나타내는 도면이다.
도 2는 도 1의 음원 처리 장치를 개략적으로 나타내는 블럭도이다.
도 3은 도 1의 영상 처리 장치를 개략적으로 나타내는 블럭도이다.
도 4는 도 2의 중앙 모니터링 장치를 개략적으로 나타내는 블럭도이다.
도 5는 본 발명의 일 실시예에 따른 구타 및 가혹행위 방지를 위한 감시 시스템을 국방 시스템에 적용한 경우의 동작을 나타내는 도면이다.
도 6은 도 4의 행동 템플릿 생성부에 의하여 생성된 행동 템플릿을 나타내는 도면이다.
1 is a schematic view of a surveillance system for preventing beatings and harshness according to an embodiment of the present invention.
2 is a block diagram schematically showing the sound source processing apparatus of FIG.
3 is a block diagram schematically showing the video processing apparatus of FIG.
4 is a block diagram schematically illustrating the central monitoring apparatus of FIG.
FIG. 5 is a diagram illustrating an operation when a surveillance system for preventing beatings and harshness is applied to a defense system according to an embodiment of the present invention.
6 is a diagram showing a behavior template generated by the behavior template generating unit of FIG.

본 명세서에서 사용되는 용어에 대해 간략히 설명하고, 본 발명에 대해 구체적으로 설명하기로 한다.The terms used in this specification will be briefly described and the present invention will be described in detail.

본 발명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 발명의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 발명에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 발명의 전반에 걸친 내용을 토대로 정의되어야 한다.While the present invention has been described in connection with what is presently considered to be the most practical and preferred embodiment, it is to be understood that the invention is not limited to the disclosed embodiments. Also, in certain cases, there may be a term selected arbitrarily by the applicant, in which case the meaning thereof will be described in detail in the description of the corresponding invention. Therefore, the term used in the present invention should be defined based on the meaning of the term, not on the name of a simple term, but on the entire contents of the present invention.

명세서 전체에서 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있음을 의미한다. 또한, 명세서에 기재된 "...부", "모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다.When an element is referred to as "including" an element throughout the specification, it is to be understood that the element may include other elements as well, without departing from the spirit or scope of the present invention. Also, the terms "part," " module, "and the like described in the specification mean units for processing at least one function or operation, which may be implemented in hardware or software or a combination of hardware and software .

아래에서는 첨부한 도면을 참고하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. The present invention may, however, be embodied in many different forms and should not be construed as limited to the embodiments set forth herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

도 1은 본 발명의 일 실시예에 따른 구타 및 가혹행위 방지를 위한 감시 시스템을 개략적으로 나타내는 도면이고, 도 2는 도 1의 음원 처리 장치를 개략적으로 나타내는 블록도이며, 도 3은 도 1의 영상 처리 장치를 개략적으로 나타내는 블록도이고, 도 4는 도 2의 중앙 모니터링 장치를 개략적으로 나타내는 블록도이며, 도 5는 본 발명의 일 실시예에 따른 구타 및 가혹행위 방지를 위한 감시 시스템을 국방 시스템에 적용한 경우의 동작을 나타내는 도면이고, 도 6은 도 4의 행동 템플릿 생성부에 의하여 생성된 행동 템플릿을 나타내는 도면이다.1 is a block diagram schematically showing a monitoring system for preventing beating and harsh behavior according to an embodiment of the present invention, FIG. 2 is a block diagram schematically showing the sound source processing apparatus of FIG. 1, FIG. 4 is a block diagram schematically showing the central monitoring apparatus of FIG. 2, and FIG. 5 is a block diagram schematically showing a monitoring apparatus for preventing beatings and harshness according to an embodiment of the present invention. FIG. 6 is a diagram showing a behavior template generated by the behavior template generation unit of FIG. 4. FIG.

도 1을 참조하면, 본 발명의 일 실시예에 따른 구타 및 가혹행위 방지를 위한 감시 시스템은, 학교, 학원, 군대 등의 감시 사각지대, 또는 공동주택이나 빌딩에서의 엘리베이터 내부, 계단, 지하 주차장, 노인정, 유치원, 놀이터, 산책로 등과 같은 밀폐되고 인적이 드문 장소에서 발생되는 구타 및 가혹 행위를 방지하기 위한 시스템으로서, 음원 처리 장치(11), 영상 처리 장치(15), 중앙 모니터링 장치(20) 및 관리자 단말(30)을 포함한다.
Referring to FIG. 1, a surveillance system for preventing beatings and harshness according to an embodiment of the present invention includes a monitoring blind spot of a school, a school, an army or the like, an elevator inside a building or a building, A sound processing unit 11, an image processing unit 15, a central monitoring unit 20, and a central monitoring unit 20. The system includes a sound source processing unit 11, an image processing unit 15, a central monitoring unit 20, And an administrator terminal 30.

또한, 본 구타 및 가혹행위 방지를 위한 감시 시스템은 음원 및 영상을 모두 사용하여 감시 및 사후 대처 기능을 상호 보완함으로써, 구타 및 가혹 행위 발생을 효과적으로 방지할 수 있다. In addition, the surveillance system for preventing beatings and harshness can effectively prevent beatings and harsh behaviors by complementing the surveillance and post-war coping functions by using both sound sources and images.

한편, 본 발명(즉, 도 1 및 도 5)에서는 감시 사각지대로서 군대 및 군대 내무반 등을 일 예로 들어 도시하고 있으나, 이러한 시스템은 다른 감시 사각지대에도 적용될 수 있음은 당연하다 할 것이다. 또한, 도 1에서는 음원 처리 장치(11)와 영상 처리 장치(15)가 하나의 장치로 일체화된 것을 도면 부호 10(즉, 데이터 처리 장치)으로 도시하였다. In the meantime, the present invention (i.e., FIGS. 1 and 5) shows military and military quarters as a blind spot, but it is natural that such a system can be applied to other blind spots. 1, the sound source processing device 11 and the image processing device 15 are integrated into a single device, which is denoted by reference numeral 10 (i.e., a data processing device).

상기 음원 처리 장치(11)는 감시 영역에서의 음원 신호를 감지하고, 상기 감지된 음원 신호를 기초로 감시 영역에서의 비정상 이벤트가 발생되는 지 여부를 판단하는 장치이다.The sound source processing device 11 detects a sound source signal in the surveillance area and determines whether or not an abnormal event in the surveillance area is generated based on the sensed sound source signal.

이러한 동작을 구현하기 위하여, 상기 음원 처리 장치(11)는 도 2에 도시된 바와 같이, 제1 통신부(111), 모드 선택부(112), 음원 감지부(113), 레벨 측정부(114), 등급 레벨 분류부(115), 이벤트 판단부(116), 제1 메모리부(117) 및 제1 제어부(118)를 포함한다.2, the sound source processing apparatus 11 includes a first communication unit 111, a mode selection unit 112, a sound source detection unit 113, a level measurement unit 114, A classification unit 115, an event determination unit 116, a first memory unit 117, and a first control unit 118.

상기 제1 통신부(111)는 중앙 모니터링 장치(20)와의 데이터 송수신을 위한 장치로서, 유무선 통신망으로 이루어진다. 상기 유무선 통신망은 통신망에 정의된 프로토콜 스택(예를 들면, TCP/IP 프로토콜, CDMA 프로토콜)을 기반으로 중앙 모니터링 장치(20)와 소정의 통신채널을 연결하고, 중앙 모니터링 장치(20)에 구비된 통신 프로그램에 정의된 통신 프로토콜(예를 들면, HTTP(Hyper-Text Transfer Protocol), WAP(Wireless Application Protocol)/ME(Mobile Explorer))을 이용하여 본 감시 시스템을 실행하기 위한 정보를 송수신하게 된다. 그러나, 본 발명에서는 네트워크의 종류를 한정하는 것은 아니고, 와이파이(wifi) 방식, 지그비(zigbee) 방식, 블루투스(bluetooth) 방식, 3G, 4G, LTE, LTE-A 방식 및 그 등가 방식 등의 다양한 유무선 통신 방식을 적용할 수도 있다.The first communication unit 111 is a device for transmitting / receiving data to / from the central monitoring device 20, and is formed of a wired / wireless communication network. The wired / wireless communication network connects a predetermined communication channel with the central monitoring device 20 based on a protocol stack (for example, a TCP / IP protocol or a CDMA protocol) defined in the communication network, Information for executing the present monitoring system is transmitted and received by using a communication protocol defined in the communication program (for example, Hyper-Text Transfer Protocol (HTTP), Wireless Application Protocol (WAP) / Mobile Explorer) However, the present invention does not limit the type of network, but may be applied to various wired / wireless networks such as Wi-Fi, zigbee, bluetooth, 3G, 4G, LTE and LTE- A communication method may be applied.

상기 모드 선택부(112)는 음원 신호를 감지하기 위한 제1 모드 또는 제2 모드에 대한 선택 정보를 사용자로부터 입력되는 장치이다. 상기 제1 모드 및 제2 모드는 음원 신호를 감지하는 방식에 따라 분류된 모드로서, 각 모드에 대한 보다 상세한 설명은 후술하기로 한다. 이러한 모드 선택부(112)는 음원 처리 장치(11)의 조작을 위한 복수의 키를 제공하며, 사용자의 키선택에 따른 선택 신호를 발생하여 제1 제어부(118)로 전송한다. 이때, 상기 모드 선택부(112)는 키패드, 터치 패드와 같은 포인팅 장치, 터치스크린(touch screen) 등의 입력장치가 사용될 수도 있다.The mode selector 112 is a device for inputting selection information for a first mode or a second mode for detecting a sound source signal from a user. The first mode and the second mode are classified according to a method of detecting a sound source signal, and a detailed description of each mode will be described later. The mode selector 112 provides a plurality of keys for operating the tone generator 11, and generates a selection signal corresponding to a user's selection of keys and transmits the generated selection signal to the first controller 118. At this time, the mode selection unit 112 may be an input device such as a keypad, a pointing device such as a touch pad, or a touch screen.

상기 음원 감지부(113)는 음원 신호를 감지하는 음원 감지 센서일 수 있다. 여기서, 상기 음원 감지 센서는 마이크 구조에 따라 다이나믹 마이크, 콘덴서 마이크, 리본 마이크 등이 사용될 수 있고, 지향성에 따라 지향성 마이크, 무지향성 마이크, 초지향성 마이크 등이 사용될 수 있다. 이러한 음원 감지 센서는 감시 영역에 따라 하나 이상의 개수로 분산 배치될 수 있다. 또한, 상기 음원 감지부(113)는 음원 감지 센서로부터 음원 신호를 수신하여 소정 간격으로 샘플링하여 제1 메모리부(117)에 저장한다.The sound source detecting unit 113 may be a sound source detecting sensor for detecting a sound source signal. Here, the sound source sensor may be a dynamic microphone, a condenser microphone, a ribbon microphone or the like depending on the microphone structure, and a directional microphone, a non-directional microphone, a supergain microphone, or the like may be used depending on the directivity. These sound source sensors may be distributed in one or more numbers according to the surveillance area. The sound source sensing unit 113 receives a sound source signal from the sound source sensor, samples the sound source signal at a predetermined interval, and stores the sampled sound signal in the first memory unit 117.

상기 레벨 측정부(114)는 제1 모드가 선택되는 경우, 음원 감지부(113)에 의하여 감지된 음원 신호를 미리 설정된 음원 레벨의 크기로 변환하는 장치이다. 이러한 레벨 측정부(114)는 변환된 음원 레벨의 크기를 제1 제어부(118)의 제어에 의하여 비정상 이벤트가 발생되었는지 여부를 판단하도록 제1 이벤트 판단부(116a)로 제공한다.The level measuring unit 114 converts the sound source signal detected by the sound source detecting unit 113 into a predetermined sound source level when the first mode is selected. The level measuring unit 114 provides the first event determiner 116a with the level of the converted sound source level to determine whether an abnormal event has occurred by the control of the first controller 118. [

상기 등급 레벨 분류부(115)는 제2 모드가 선택되는 경우, 음원 감지부(113)에 의하여 감지된 음원 신호에서 음원 프레임을 생성하고, 음원 프레임의 등급 레벨을 분류하는 장치이다. 이러한 등급 레벨 분류부(115)는 음원 신호의 특징 추출 및 음원 클래스 인식을 수행하고, 수행 결과를 제1 제어부(118)의 제어에 의하여 비정상 이벤트가 발생되었는지 여부를 판단하도록 제2 이벤트 판단부(116b)로 제공한다. When the second mode is selected, the rating level classifier 115 generates a sound source frame from the sound source signal sensed by the sound source sensing unit 113, and classifies the level level of the sound source frame. The class level classifying unit 115 performs a feature extraction of the sound source signal and a sound source class recognition, and a second event determiner (not shown) to determine whether an abnormal event has occurred by the control of the first controller 118 116b.

보다 구체적으로, 상기 등급 레벨 분류부(115)는 특징 추출부(115a), 모델 선택부(115b) 및 레벨 분류부(115c)를 포함한다.More specifically, the rating level classifier 115 includes a feature extractor 115a, a model selector 115b, and a level classifier 115c.

상기 특징 추출부(115a)는 음원 신호에서 음원 프레임을 생성하고, 음원 프레임에서 음원 특징으로 추출한다. 즉, 상기 특징 추출부(115a)는 음원 신호로부터 소정 시간 단위의 음원 프레임을 생성하고, 생성된 음원 프레임에서 음원 특징을 추출한다. 이때, 상기 음원 특징은 MFCC(Mel-frequency cepstral coefficient) 특징 추출 기법에 의해 추출된 수십차 MFCC 및 델타가 특징 벡터로 사용될 수 있다. 일반적으로, 사람의 청각은 저주파 영역에서의 주파수 변화는 민감하게 느끼지만 상대적으로 고주파 영역에서의 주파수 변화에는 둔감한 특성을 갖는다. 본 발명은 고주파 영역에 비해 저주파 영역에서 더 자세히 추출되며, 다양한 파라미터(parameter)를 통해 재설계(Customizing)가 가능한 특징 벡터인 MFCC 특징을 이용한다. 이를 위하여, 상기 특징 추출부(115a)는 시간 영역의 음원 신호를 전처리(pre-processing)하여 고주파 에너지를 부스팅하고, 푸리에 변환(FFT)을 취하여 주파수 영역의 스펙트럼을 구한 후, 구한 스펙트럼에 대해 멜 스케일(Mel scale)에 맞춘 삼각 필터 뱅크를 대응시켜 각 밴드에서의 크기의 합을 구하고, 필터 뱅크 출력값에 로그를 취한 후, 이산 코사인 변환을 하여 MFCC 특징 벡터를 획득한다. 이때, MFCC 특징 벡터를 추출하기 위해 음원 신호에 윈도우(window)를 적용하여 음원 프레임을 생성하게 되는데, 본 발명에서는 이벤트 검출 정확도를 높이기 위하여 인접하는 음원 프레임이 상호 일부 중첩되도록 윈도우를 사용하여 음원 프레임을 생성하게 된다. 한편, MFCC 특징 추출 방법은 음원 인식 기술 분야에서 통상적으로 사용되는 것이므로 보다 구체적인 설명은 생략한다. MFCC 특징은 MFCC 특징 및 MFCC의 시간에 따른 변화량인 Delta 특징을 결합하여 사용할 수 있다. 본 발명의 일 실시예에서, MFCC 20차 및 Delta 특징 20차를 결합한 특징 벡터를 사용할 수 있다.The feature extraction unit 115a generates a sound source frame from the sound source signal, and extracts the sound source frame from the sound source frame. That is, the feature extraction unit 115a generates a sound source frame in units of a predetermined time from a sound source signal, and extracts a sound source feature from the generated sound source frame. In this case, the sound source feature can be used as a feature vector of several tens of MFCCs and delta extracted by the Mel-frequency cepstral coefficient (MFCC) feature extraction technique. Generally, the human auditory sense is sensitive to frequency changes in the low frequency range, but insensitive to frequency changes in the high frequency range. The present invention utilizes the MFCC feature, which is a feature vector that can be further extracted in a low frequency region and can be customized through various parameters as compared with a high frequency region. For this purpose, the feature extraction unit 115a pre-processes the time-domain sound source signal to boost high-frequency energy, performs a Fourier transform (FFT) to obtain a spectrum in the frequency domain, The sum of the magnitudes in each band is obtained by mapping the triangular filter bank corresponding to the scale (Mel scale), and the MFCC feature vector is obtained by performing discrete cosine transform on the filter bank output value. In this case, in order to extract the MFCC feature vector, a sound source frame is generated by applying a window to the sound source signal. In the present invention, in order to increase the accuracy of event detection, . Meanwhile, since the MFCC feature extraction method is commonly used in the field of sound source recognition technology, a detailed description thereof will be omitted. MFCC features can be used in combination with MFCC features and Delta features that are time-dependent changes in MFCC. In one embodiment of the invention, a feature vector combining MFCC 20th order and Delta feature 20th order can be used.

상기 모델 선택부(115b)는 특징 추출부(115a)에 의하여 추출된 음원 특징과 각 음원 모델과의 우도(likelihood)를 계산하고, 최대 우도값을 갖는 음원 모델을 선택하는 장치이다. 이러한 모델 선택부(115b)는 음원 프레임으로부터 MFCC 특징 벡터를 추출하고, 추출된 MFCC 특징 벡터와 각 음원 모델과의 우도를 계산한다. 그리고, ML(Maximum Likelihood) 기준(Criteria)에 의해 우도 값이 가장 높은 음원 모델을 선택한다. 이를 위하여, 제1 메모리부(117)에는 가우시안 혼합 모델(Gaussian Mixture Model, GMM)을 이용하여 음원 특징을 훈련함으로써 생성된 다양한 음원 이벤트에 대한 모델이 저장되어 있다.The model selection unit 115b calculates a likelihood between a sound source feature extracted by the feature extraction unit 115a and each sound source model and selects a sound source model having a maximum likelihood value. The model selection unit 115b extracts the MFCC feature vector from the sound source frame, and calculates the likelihood of the extracted MFCC feature vector and each sound source model. Then, the sound source model having the highest likelihood value is selected by ML (Maximum Likelihood) criterion. To this end, the first memory unit 117 stores a model of various sound source events generated by training a sound source feature using a Gaussian Mixture Model (GMM).

상기 레벨 분류부(115c)는 계층적 접근 방식에 의하여 상기 음원 프레임의 등급 레벨을 분류하는 장치이다. 이러한 레벨 분류부(115c)는 계층적 접근(hierarchical approch) 방식에 의해 음원 프레임의 등급을 분류한다. 여기서, 상기 음원 등급은 크게 2개의 카테고리로 나눌 수 있다. 즉, 비명, 울음, 정상 대화, 안내 멘트와 같은 음원 등급은 사람의 목에서 나는 소리이기 때문에 음성(Vocal) 카테고리로 분류할 수 있고, 충돌, 문소리, 발걸음, 빈 엘리베이터, 알림벨의 경우에는 비음성(Non-Vocal) 카테고리로 분류할 수 있다. 그러나, 본 발명에서는 음성 및 비음성 이벤트는 전술된 종류에 한정되지 않고, 감시 영역 및 시스템 설계에 따라 다양하게 설정될 수 있음은 물론이다. 본 발명에서는 계층적 접근(hierarchical approch) 방식에 의해 등급을 분류함으로써, 음성/비음성 각각의 카테고리에 있는 음원 등급들 간의 오인식을 개선할 수 있다. 또한, 상기 레벨 분류부(115c)는 최적화된 음원 특징을 이용하며, 시스템 설치 환경에 따라 재구성이 가능하고, 레벨 분류부(115c)의 구성에 따라 여러 장소에 적용가능하고 비음성에서도 다양한 이벤트들로 세분화할 수 있다. 나아가, 상기 레벨 분류부(115c)는 설치 환경에 따라 개별적으로 이벤트 학습을 통해 세분화하여 구성 가능하다.The level classifying unit 115c classifies the class levels of the sound source frames by a hierarchical approach. The level classification unit 115c classifies the gradation of the sound source frame by a hierarchical approach. Here, the sound source class can be roughly divided into two categories. That is, the sound source class such as screaming, crying, normal conversation, and announcement can be classified into the vocal category because it sounds from a person's neck. In the case of collision, door, step, empty elevator, (Non-Vocal) category. However, in the present invention, it is needless to say that the voice and non-voice events are not limited to the above-described types and can be variously set according to the surveillance region and the system design. According to the present invention, by classifying the classes by a hierarchical approach method, it is possible to improve the misrecognition between the sound source classes in each category of speech / non-speech. In addition, the level classification unit 115c uses optimized sound source characteristics, can be reconfigured according to the system installation environment, can be applied to various places according to the configuration of the level classification unit 115c, . Further, the level classifying unit 115c can be configured by subdividing each of them by event learning according to the installation environment.

상기 이벤트 판단부(116)는 음원 레벨 또는 등급 레벨을 소정의 이벤트 발생 알고리즘에 적용하여 감시 영역에서 비정상 이벤트가 발생하는 지 여부를 판단하는 장치이다. The event determination unit 116 determines whether an abnormal event occurs in the surveillance region by applying a sound source level or a rating level to a predetermined event generation algorithm.

이를 위하여, 상기 이벤트 판단부(116)는 제1 이벤트 판단부(116a) 및 제2 이벤트 판단부(116b)를 포함한다.For this, the event determination unit 116 includes a first event determination unit 116a and a second event determination unit 116b.

상기 제1 이벤트 판단부(116a)는 레벨 측정부(114)에 의하여 측정된 음원 레벨이 미리 설정된 기준 레벨을 초과하는 경우 감시 영역에서 비정상 이벤트로 발생한 것으로 판단한다. 즉, 상기 제1 이벤트 판단부(116a)는 모드 선택부(112)에 의하여 제1 모드로 선택되는 경우, 음원 레벨의 크기가 기준 레벨을 초과하면 감시 영역에서 비정상 이벤트가 발생된 것으로 판단한다.The first event determiner 116a determines that the abnormal event occurs in the surveillance area when the sound source level measured by the level measurer 114 exceeds a preset reference level. That is, when the first mode is selected by the mode selection unit 112, the first event determination unit 116a determines that an abnormal event has occurred in the surveillance region when the size of the sound source level exceeds the reference level.

상기 제2 이벤트 판단부(116b)는 등급 레벨 분류부(115)에 의한 소정 시간 동안의 등급 레벨의 분류 횟수중 비정상 이벤트로 분류된 횟수의 비가 임계값 이상이면 감시 영역에서 비정상 이벤트로 발생한 것으로 판단한다. 즉, 상기 제2 이벤트 판단부(116b)는 모드 선택부(112)에 의하여 제2 모드로 선택되는 경우, 분류된 음원 프레임을 정상 또는 비정상 이벤트로 분류한 다음, 일정 시간 동안 누적된 비정상 이벤트 발생 횟수를 기초로, 비정상 이벤트 발생 여부를 판단한다. 이때, 상기 제2 이벤트 판단부(116b)는 일정 개수의 음원 프레임에 대한 등급 레벨 분류 결과를 누적하고, 누적된 분류 결과를 기초로 감시 영역에서 비정상 이벤트가 발생했는지 여부를 판단한다. 한편, 비정상 이벤트는 충돌, 비명, 울음 등으로 정의될 수 있고, 정상 이벤트는 대화, 발소리, 문 개폐, 침묵 등으로 정의될 수 있으나, 본 발명에서는 비정상 이벤트와 정상 이벤트의 종류를 한정하는 것은 아니다. The second event determination unit 116b determines that the abnormality event has occurred in the surveillance region if the ratio of the number of classification times of the class level for a predetermined time by the class level classifying unit 115 to the number of classified abnormal events is not less than a threshold value do. That is, when the second mode is selected by the mode selection unit 112, the second event determination unit 116b classifies the classified sound source frame into a normal or abnormal event, and then generates an abnormal event Based on the number of times, it is determined whether an abnormal event has occurred or not. At this time, the second event determiner 116b accumulates class level classification results for a certain number of sound source frames, and determines whether an abnormal event has occurred in the surveillance area based on the accumulated classification results. Meanwhile, the abnormal event may be defined as a collision, a scream, a crying, and a normal event may be defined as a dialogue, a footstep, a door open / close, a silence, etc. However, the present invention does not limit the types of abnormal events and normal events .

상기 제1 메모리부(117)는 음원 감지부(113)에 의하여 감지된 음원 신호, 레벨 측정부(114)에 의하여 측정된 음원 레벨, 등급 레벨 분류부(115)에 의하여 분류된 등급 레벨, 제1 이벤트 판단부 또는 제2 판단부에 의하여 판단된 결과 정보 등을 저장하는 장치로서, RAM, ROM, EEPROM(Electrically Erasable and Programmable Read Only Memory), SDRAM(Synchronous Dynamic Random Access Memory) 또는 HDD로 구성될 수 있으나, 이는 본 발명은 저장 장치의 종류를 한정하는 것은 아니다. 여기서, 상기 제1 메모리부(117)에 저장되는 정보는 업데이트가 가능하다. 또한, 상기 제1 메모리부(117)는 이정상 이벤트 발생 여부를 판단하는 이벤트 발생 알고리즘은 물론, 본 음원 처리 장치(11)에 전원공급을 제어하는 제어프로그램이 탑재될 수 있다.The first memory unit 117 stores the sound source signal detected by the sound source detection unit 113, the sound source level measured by the level measurement unit 114, the level level classified by the level level classification unit 115, (EEPROM), an SDRAM (Synchronous Dynamic Random Access Memory), or an HDD, and stores the result information determined by the first determination unit or the second determination unit. However, the present invention is not limited to the kind of storage device. Here, the information stored in the first memory unit 117 can be updated. In addition, the first memory unit 117 may be equipped with a control program for controlling power supply to the tone generator 11, as well as an event generation algorithm for determining whether a normal event has occurred.

상기 제1 제어부(118)는 음원 처리 장치(11)를 구성하는 각 구성요소의 동작을 제어하는 장치이다. 즉, 상기 제1 제어부(118)는 감시 영역에서의 음원 신호를 감지하고, 상기 감지된 음원 신호를 기초로 제1 이벤트 판단부 또는 제2 이벤트 판단부에 의하여 감시 영역에서의 비정상 이벤트가 발생되는 지 여부를 판단하며, 판단 결과를 중앙 모니터링 장치(20)에 전송하도록, 제1 통신부(111), 모드 선택부(112), 음원 감지부(113), 레벨 측정부(114), 등급 레벨 분류부(115), 이벤트 판단부(116) 및 제1 메모리부(117)의 동작을 제어할 수 있다.
The first control unit 118 is an apparatus for controlling the operation of each component constituting the tone generator 11. That is, the first control unit 118 detects the sound source signal in the surveillance region, and generates an abnormal event in the surveillance region by the first event determination unit or the second event determination unit based on the sensed sound source signal A mode selection unit 112, a sound source detection unit 113, a level measurement unit 114, a level level classification unit 114, The operation unit 115, the event determination unit 116, and the first memory unit 117. [

상기 영상 처리 장치(15)는 음원 신호에서 비정상 이벤트가 발생된 것으로 판단되는 경우, 감시 영역의 영상을 촬영 및 저장하고, 미리 설정된 제1 경보 신호와 외부로부터 수신된 제2 경보 신호를 출력한다.When it is determined that an abnormal event has occurred in the sound source signal, the image processing apparatus 15 captures and stores an image of the surveillance region, and outputs a first alarm signal set in advance and a second alarm signal received from the outside.

이러한 동작을 구현하기 위하여, 상기 영상 처리 장치(15)는 도 3에 도시된 바와 같이, 제2 통신부(151), 촬영부(152), 제2 메모리부(153) 및 제2 제어부(154)를 포함한다.3, the image processing apparatus 15 includes a second communication unit 151, a photographing unit 152, a second memory unit 153, and a second control unit 154, .

상기 제2 통신부(151)는 중앙 모니터링 장치(20)와의 데이터 송수신을 위한 장치로서, 유무선 통신망으로 이루어진다. 상기 유무선 통신망은 통신망에 정의된 프로토콜 스택을 기반으로 중앙 모니터링 장치(20)와 소정의 통신채널을 연결하고, 중앙 모니터링 장치(20)에 구비된 통신 프로그램에 정의된 통신 프로토콜을 이용하여 본 감시 시스템을 실행하기 위한 정보를 송수신하게 된다. 그러나, 본 발명에서는 네트워크의 종류를 한정하는 것은 아니고, 와이파이 방식, 지그비 방식, 블루투스 방식, 3G, 4G, LTE, LTE-A 방식 및 그 등가 방식 등의 다양한 유무선 통신 방식을 적용할 수도 있다.The second communication unit 151 is a device for transmitting and receiving data to and from the central monitoring device 20, and is formed of a wired / wireless communication network. The wired / wireless communication network connects a predetermined communication channel with the central monitoring apparatus 20 based on a protocol stack defined in the communication network, and connects the monitoring monitoring system 20 to the monitoring system 20 using a communication protocol defined in the communication program And transmits and receives information for executing the service. However, the present invention does not limit the type of network, but can be applied to various wired / wireless communication methods such as Wi-Fi, ZigBee, Bluetooth, 3G, 4G, LTE, LTE-A and its equivalent.

상기 촬영부(152)는 음원 신호에서 비정상 이벤트가 발생된 것으로 판단되는 경우, 중앙 모니터링 장치(20)의 제어 명령에 의하여 감시 영역의 영상을 촬영하는 디지털 및 아날로그 방식의 카메라로, 비정상 이벤트가 발생된 감시 영역의 영상을 촬영한다. 이러한 카메라는 평상시에는 구동이 정지된 상태이고, 음원 신호에서 비정상 이벤트가 발생된 것으로 판단되는 경우에만 감시 영역을 촬영하도록 설정되어 있다. 상기 촬영부(152)는 음원 감지 센서와 각각 개별적으로, 또는 음원 감지 센서를 내장하여 일체로 설치될 수 있다. 상기 촬영부(152)는 감시 영역에 따라 하나 이상의 개수로 분산 배치될 수 있다. 상기 촬영부(152)는 감시 영역의 영상을 촬영하는 CCD 카메라 또는 객체의 관절 정보와 깊이 정보를 촬영할 수 있는 깊이 카메라가 모두 또는 선택적으로 구비될 수 있다.The photographing unit 152 is a digital and analog camera for photographing an image of a surveillance region according to a control command of the central monitoring apparatus 20 when it is determined that an abnormal event has occurred in a sound source signal. The surveillance area is photographed. Such a camera is set to photograph the surveillance area only when it is determined that the driving is normally stopped and an abnormal event is generated in the sound source signal. The photographing unit 152 may be integrally installed with the sound source detecting sensors individually or with the sound source detecting sensors incorporated therein. The photographing unit 152 may be distributed in at least one number according to the surveillance area. The photographing unit 152 may include a CCD camera for photographing an image of a surveillance region, or a depth camera for photographing joint information and depth information of the object.

도시되어 있지는 않지만, 본 영상 처리 장치(15)는 경보 출력부를 더 포함할 수 있다. 상기 경보 출력부는 디스플레이 및 스피커를 포함하고, 비정상 이벤트로 발생시 미리 설정된 경보음 또는 경보 화면(즉, 제1 경보 신호)을 발생할 수 있다. 또한, 상기 경보 출력부는 중앙 모니터링 장치(20)로부터 최종적으로 비정상 이벤트가 발생된 것으로 판단되는 경우, 중앙 모니터링 장치(20)의 제어 명령에 의하여 제2 경보 신호를 발생할 수 있다. 예를 들면, 상기 제2 경보 신호는 제1 경보 신호에 비하여 보다 크고 구체적인 음성 신호일 수 있다. 다시 말해, 상기 경보 출력부는 다수 채널로부터 입력되는 영상 신호 또는 음성 신호를 출력할 수 있다. 이때, 상기 제1 경보 신호는 디스플레이 화면의 영상에 검출된 비정상 이벤트 발생 영역이 박스로 표시될 수 있고, 비정상 상황으로 판단된 채널의 영상의 테두리 또는 영상의 화면 전체를 하이라이트 처리함으로써 사용자에게 알람을 발생시킬 수 있다. 또한, 상기 제2 경보 신호는 스피커를 통하여 다수 채널로부터 입력되는 음원 신호인 경보음으로서 출력된다. Although not shown, the present image processing apparatus 15 may further include an alarm output unit. The alarm output unit may include a display and a speaker, and may generate an alarm sound or an alarm screen (i.e., a first alarm signal) preset when an abnormal event occurs. The alarm output unit may generate a second alarm signal according to a control command of the central monitoring device 20 when it is determined that an abnormal event is finally generated from the central monitoring device 20. [ For example, the second alarm signal may be a larger and more specific voice signal than the first alarm signal. In other words, the alarm output unit can output a video signal or a voice signal input from a plurality of channels. At this time, the first alarm signal can be displayed as a box in the abnormal event occurrence area detected in the image of the display screen, and the user can be notified of an alarm by highlighting the border of the image of the channel determined to be abnormal or the whole screen of the image . In addition, the second alarm signal is output as an alarm sound, which is a sound source signal input from a plurality of channels through a speaker.

상기 제2 메모리부(153)는 제1 경보 신호, 촬영된 감시 영역의 영상을 저장하는 장치로서, RAM, ROM, EEPROM, SDRAM 또는 HDD로 구성될 수 있으나, 이는 본 발명은 저장 장치의 종류를 한정하는 것은 아니다.The second memory unit 153 may be a RAM, a ROM, an EEPROM, an SDRAM, or an HDD. The second memory unit 153 may store a first alarm signal and an image of the monitored surveillance area. But is not limited to.

상기 제2 제어부(154)는 영상 처리 장치(15)를 구성하는 각 구성요소의 동작을 제어하는 장치이다. 즉, 상기 제2 제어부(154)는 음원 신호에서 비정상 이벤트가 발생된 것으로 판단되는 경우, 감시 영역의 영상을 촬영 및 저장하고, 미리 설정된 제1 경보 신호와 외부로부터 수신된 제2 경보 신호를 출력하도록, 제2 통신부(151), 촬영부(152), 경보 출력부 및 제2 메모리부(153)의 동작을 제어할 수 있다.
The second control unit 154 is an apparatus for controlling the operation of each component constituting the image processing apparatus 15. That is, when it is determined that an abnormal event is generated in the sound source signal, the second control unit 154 photographs and stores the image of the surveillance region, and outputs a first alarm signal, which is set in advance, and a second alarm signal, The photographing unit 152, the alarm output unit, and the second memory unit 153 to control the operations of the second communication unit 151, the photographing unit 152, the alarm output unit,

상기 중앙 모니터링 장치(20)는 음원 처리 장치(11) 및 영상 처리 장치(15)의 동작을 전반적으로 제어함과 동시에 음원 처리 장치(11) 및 영상 처리 장치(15)에 의한 음성 신호 및 영상 신호를 모니터링하는 장치로서, 군대의 경우에는 중대 상황실 운영 모니터 장치일 수 있다. 즉, 상기 중앙 모니터링 장치(20)는 음원 신호에서 비정상 이벤트가 발생된 것으로 판단되는 경우, 음원 처리 장치(11)에서 감지된 음원 신호와, 영상 처리 장치(15)에서 촬영된 영상 신호를 전송받되, 영상 신호에 포함된 객체의 행동을 인식한 후, 미리 설정된 제2 경보 신호를 영상 처리 장치(15)에 전송한다.The central monitoring apparatus 20 controls the operation of the sound source processing apparatus 11 and the image processing apparatus 15 as well as controls the operation of the sound source processing apparatus 11 and the image processing apparatus 15, In the case of the military, it may be a device for monitoring the operational status of the critical situation room. That is, when the central monitoring apparatus 20 determines that an abnormal event has occurred in the sound source signal, the central monitoring apparatus 20 receives the sound source signal detected by the sound source processing apparatus 11 and the image signal captured by the image processing apparatus 15 , And recognizes the behavior of the object included in the video signal, and then transmits a preset second alarm signal to the image processing apparatus 15.

이러한 동작을 구현하기 위하여, 상기 중앙 모니터링 장치(20)는 도 4에 도시된 바와 같이, 통신 모듈(210), 행동 인식 모듈(220), 데이터 출력 모듈(230), 저장 모듈(240) 및 제어 모듈(250)을 포함한다.4, the central monitoring apparatus 20 includes a communication module 210, a behavior recognition module 220, a data output module 230, a storage module 240, Module 250. < / RTI >

상기 통신 모듈(210)은 음원 처리 장치(11), 영상 처리 장치(15) 또는 관리자 단말(30)과의 데이터 송수신을 위한 장치로서, 유무선 통신망으로 이루어진다. 상기 유무선 통신망은 통신망에 정의된 프로토콜 스택을 기반으로 음원 처리 장치(11), 영상 처리 장치(15) 또는 관리자 단말(30)과 소정의 통신채널을 연결하고, 음원 처리 장치(11), 영상 처리 장치(15) 또는 관리자 단말(30)에 구비된 통신 프로그램에 정의된 통신 프로토콜을 이용하여 본 감시 시스템을 실행하기 위한 정보(즉, 음원 신호, 영상 신호, 비정상 이벤트 발생여부의 판단 결과, 음원 처리 장치(11) 또는 영상 처리 장치(15)에 대한 제어 명령 등)를 송수신하게 된다. 그러나, 본 발명에서는 네트워크의 종류를 한정하는 것은 아니고, 와이파이 방식, 지그비 방식, 블루투스 방식, 3G, 4G, LTE, LTE-A 방식 및 그 등가 방식 등의 다양한 유무선 통신 방식을 적용할 수도 있다.The communication module 210 is a device for transmitting and receiving data to and from the sound source processing device 11, the video processing device 15 or the administrator terminal 30, and is formed of a wired / wireless communication network. The wired / wireless communication network connects a predetermined communication channel with the sound source processing apparatus 11, the image processing apparatus 15 or the administrator terminal 30 on the basis of a protocol stack defined in the communication network. The sound source processing apparatus 11, Information for executing the monitoring system using the communication protocol defined in the communication program included in the device 15 or the administrator terminal 30 (that is, information on the sound source signal, the video signal, A control command to the apparatus 11 or the image processing apparatus 15). However, the present invention does not limit the type of network, but can be applied to various wired / wireless communication methods such as Wi-Fi, ZigBee, Bluetooth, 3G, 4G, LTE, LTE-A and its equivalent.

상기 행동 인식 모듈(220)은 영상 처리 장치(15)로부터 수신된 영상 신호에 포함된 객체의 행동을 인식하는 장치로서, 데이터 취득부(221), 행동 템플릿 생성부(222) 및 추정부(223)를 포함한다.The behavior recognition module 220 is a device for recognizing the behavior of an object included in the image signal received from the image processing apparatus 15 and includes a data acquisition unit 221, a behavior template generation unit 222, and an estimation unit 223 ).

상기 데이터 취득부(221)는 객체의 관절 정보와 깊이 정보를 취득한다. 상기 데이터 취득부(221)는 깊이 카메라에서 제공되는 관절 추적 정보를 이용하여 객체의 관절 정보와 깊이 정보를 취득할 수 있다. 이러한 깊이 카메라는 실시간으로 RCB 컬러 영상, 깊이 영상 및 관절 추적 정보를 획득할 수 있다. 이와 같이, 본 행동 인식 모듈(220)은 사람의 몸 중에서 상대적으로 움직임이 많은 팔과 다리의 관절 정보에 가중치를 둠으로써, 행동 인식률을 높일 수 있다.The data acquiring unit 221 acquires joint information and depth information of an object. The data acquisition unit 221 may acquire the joint information and the depth information of the object using the joint tracking information provided by the depth camera. This depth camera can acquire RCB color image, depth image and joint tracking information in real time. In this way, the behavior recognition module 220 can increase the recognition rate of the motion by weighting the joint information of the arms and legs, which are relatively moved in the human body.

상기 행동 템플릿 생성부(222)는 객체의 관절 정보와 깊이 정보를 입력받아, 이를 행동 템플릿으로 생성한다. 또한, 상기 행동 템플릿 생성부(222)는 저장 모듈(240)에 저장할 행동 템플릿을 생성하거나, 현재 입력되는 객체의 정보를 입력받아 입력 행동 템플릿을 생성할 수 있다. 여기서, 상기 행동 템플릿은 일정한 시간(t)마다 객체의 관절 정보를 일정한 크기를 가진 이미지로 만든 것이다.The behavior template generating unit 222 receives the joint information and the depth information of the object, and generates the behavior template. In addition, the behavior template generating unit 222 may generate an action template to be stored in the storage module 240, or may input the information of the currently input object to generate an input action template. Here, the behavior template is an image having a certain size of joint information of an object at a predetermined time (t).

구체적으로, 상기 행동 템플릿은 객체의 중심점(moment point)을 기준으로 각 관절의 위치를 특정 스칼라(scalar) 값을 가지는 직선으로 연결하여 이를 이미지로 만든 것이다. 하지만, 사람의 관절 정보는 깊이 카메라의 위치와 관점에 따라서 2D 이미지로 투영되는 좌표 값이 달라지게 된다. 따라서, 상기 행동 템플릿 생성부(222)는 깊이 정보를 이용하여 변환(translation)과 회전(rotation)에 강인한 행동 템플릿을 생성한다. 즉, 상기 행동 템플릿 생성부(222)는 변환에 강인한 행동 템플릿을 생성하기 위해 변환 연산과, 회전에 강인한 행동 템플릿을 생성하기 위해 회전 연산을 수행한다. 먼저, 상기 행동 템플릿 생성부(222)는 입력된 객체의 관절 정보와 깊이 정보를 가지고 거리에 따른 인체 비율의 스케일(scale)을 구하는 변환 연산을 수행한다. 또한, 상기 행동 템플릿 생성부(222)는 회전 연산을 수행하기 위해 먼저, 객체의 관절 정보 중에서 중심점과 양 어깨 점의 깊이 정보를 이용하여 노멀 벡터를 계산한다. 여기서, 노멀 벡터를 계산할 때에는 깊이 정보의 스케일이 관절의 위치 값보다 매우 크기 때문에 앞서 설명한 변환 연산을 통해 표준화(normalization) 작업을 수행한 뒤 외적으로 계산한다. 그리고 나서, 상기 행동 템플릿 생성부(222)는 행동으로 등록되는 템플릿의 노멀 벡터와 입력된 정보에 따라 계산된 노멀 벡터의 회전 차이를 계산하여 보정한다. 여기서, 관절 위치의 회전 연산은 변환 연산 후에 수행하게 되는데, 관절의 위치가 중심점을 기준으로 표현되기 때문에 XY평면에서의 위치는 고정이 된다. 따라서, 상기 행동 템플릿 생성부(222)는 ZY평면에서의 회전만 계산하여 보정한다. 이러한 회전 연산의 수식은 다음 수학식 1과 같다.Specifically, the behavior template connects the position of each joint with a straight line having a specific scalar value based on the moment point of the object, and forms an image thereof. However, according to the position and the viewpoint of the depth camera of the human joint information, the coordinate values projected to the 2D image are different. Accordingly, the behavior template generating unit 222 generates a behavior template robust against translation and rotation using depth information. That is, the behavior template generation unit 222 performs a transformation operation to generate a behavior template that is robust to transformation and a rotation operation to generate a rotation-resistant behavior template. First, the behavior template generation unit 222 performs a transformation operation to obtain a scale of a human body ratio according to a distance with joint information and depth information of the input object. In order to perform the rotation operation, the behavior template generating unit 222 calculates the normal vector using the center point and the depth information of both shoulder points in the joint information of the object. Here, when the normal vector is calculated, the scale of the depth information is much larger than the position value of the joint. Therefore, the normalization operation is performed through the conversion operation described above and then externally calculated. Then, the behavior template generating unit 222 calculates and corrects the rotation difference between the normal vector of the template registered as an action and the normal vector calculated according to the input information. Here, the rotation calculation of the joint position is performed after the conversion operation. Since the position of the joint is expressed based on the center point, the position in the XY plane is fixed. Therefore, the behavior template generation unit 222 calculates and corrects only the rotation in the ZY plane. The formula of such a rotation operation is expressed by the following equation (1).

[수학식 1] [Equation 1]

Figure 112014115055174-pat00001
Figure 112014115055174-pat00001

여기서, θ는 행동으로 등록되는 템플릿의 노멀 벡터(Nref)와 입력된 정보에 따라 계산된 노멀 벡터(Nin)로 구할 수 있다. 따라서, 상기 행동 템플릿 생성부(222)는 2D 이미지에 투영되는 x축의 좌표(x)만 회전 연산을 하여 관절의 위치(x')를 보정할 수 있다. 즉, 상기와 같은 연산에 의해 생성된 행동 템플릿은 도 6에 도시된 바와 같이 표현된다.Here,? Can be obtained by a normal vector (Nref) of a template registered as an action and a normal vector (Nin) calculated according to the input information. Accordingly, the behavior template generating unit 222 may correct the position (x ') of the joint by rotating only the x-axis coordinate (x) projected on the 2D image. That is, the action template generated by the above operation is expressed as shown in FIG.

상기 추정부(223)는 입력 행동 템플릿을 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 복수의 행동 템플릿 중에서 최대 스코어를 가지는 행동 템플릿을 추출하며, 복수의 행동 템플릿의 유사성을 비교하여 최소 허용 스코어를 계산하여, 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어보다 큰지를 비교하고, 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어보다 크면, 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 객체의 행동을 추정할 수 있다.The estimating unit 223 calculates the similar scores by matching the input behavior template with a plurality of behavior templates, extracts a behavior template having a maximum score from the plurality of behavior templates, compares the similarities of the plurality of behavior templates Calculating a minimum acceptable score to compare whether the score of the behavior template with the highest score is greater than the minimum acceptable score and if the score of the behavior template with the highest score is greater than the minimum acceptable score, To estimate the behavior of the object.

상기 추정부(223)는 행동 템플릿 생성부(222)에서 생성된 입력 행동 템플릿을 저장 모듈(240)에 저장된 행동 템플릿과 비교하여, 객체의 행동을 추정한다. 즉, 상기 추정부(223)는 현재 입력된 입력 행동 템플릿이 저장 모듈(240)에 저장된 행동 템플릿과 유사한지의 여부를 확인하여 객체의 행동이 구타 및 가혹 행위에 해당되는 행동인 지를 추정하는 것이다. 예를 들면, 상기 추정부(223)는 현재 입력된 입력 행동 템플릿의 이미지가 저장 모듈(240)에 저장된 행동 템플릿인 구타 및 가혹 행위에 해당되는 이미지에 해당되는 경우 영상 신호의 객체가 구타 및 가혹 행위에 해당되는 행동을 하고 있음을 추정할 수 있다.The estimator 223 compares the input action template generated by the behavior template generator 222 with the behavior template stored in the storage module 240 to estimate the behavior of the object. That is, the estimator 223 determines whether the currently input action template is similar to the action template stored in the storage module 240, and estimates whether the action of the object corresponds to beating or harsh action. For example, if the image of the currently input input action template corresponds to an image corresponding to a beating action and a harsh action, which is a behavior template stored in the storage module 240, the estimating unit 223 determines whether the object of the image signal is beaten It can be assumed that the person is doing something that corresponds to the action.

구체적으로, 상기 추정부(223)는 템플릿 매칭 알고리즘을 이용하여, 입력된 행동 템플릿과 저장 모듈(240)에 저장된 행동 템플릿을 매칭시켜 유사 스코어(similarity score)를 계산한다. 또한, 상기 추정부(223)는 행동간의 유사성이 높게 되면 잘못된 추정을 하게 될 확률이 높아지므로, 네거티브 템플릿 리젝션(negative template rejection) 알고리즘을 추가로 사용하여 오추정의 확률을 줄일 수 있다. 여기서, 네거티브 템플릿 리젝션 알고리즘은 행동 템플릿 세트 내에 존재하는 정의된 행동들의 유사성을 비교하여 각 행동들에 최소 허용 스코어(minimum acceptance score)를 계산하여, 유사 스코어를 계산할 때 기준값으로 사용한다. 즉, 상기 추정부(223)는 입력 행동 템플릿을 저장된 행동 템플릿과 비교하여 유사도가 가장 큰 행동을 추정하였을 때, 최소 허용 스코어를 넘지 못하면 추정 값을 반환하지 않는다. Specifically, the estimator 223 calculates a similarity score by matching the input behavior template with the behavior template stored in the storage module 240 using a template matching algorithm. In addition, since the estimation unit 223 increases the likelihood of false estimation if the similarity between behaviors is high, the probability of false estimation can be further reduced by using a negative template rejection algorithm. Here, the negative template rejection algorithm compares the similarities of the defined behaviors existing in the behavior template set, calculates a minimum acceptance score for each action, and uses the minimum acceptance score as a reference value when calculating similar scores. That is, when the input behavior template is compared with the stored behavior template and the behavior with the greatest similarity is estimated, the estimation unit 223 does not return the estimated value if the minimum acceptable score is not exceeded.

상기 데이터 출력 모듈(230)은 통신 모듈(210)을 통하여 송수신되는 데이터와, 행동 인식 모듈(220)에 의한 인식 결과 데이터를 출력하는 장치로서, 장치로서, 이와 관련하여 관리자의 터치 입력이 가능하도록 LCD(Liquid Crystal Display), LED(Liquid Emitting Diode), OLED(Organic LED), AMOLED(Active Matrix OLED) 중 어느 하나의 방식을 사용한다. 예를 들어, 상기 데이터 출력 모듈(230)은 검출된 감시 영역을 박스로 표시할 수 있고, 비정상 상황으로 판단된 이미지의 테두리 또는 화면 전체를 하이라이트 처리함으로써 외부로 표시할 수 있다. The data output module 230 is a device for outputting data transmitted and received through the communication module 210 and recognition result data by the behavior recognition module 220. As an apparatus, A liquid crystal display (LCD), an LED (Liquid Emitting Diode), an OLED (Organic LED), and an AMOLED (Active Matrix OLED). For example, the data output module 230 can display the detected surveillance area as a box, and can highlight the border of the image determined as abnormal or the entire screen, thereby externally displaying the surveillance area.

상기 저장 모듈(240)은 통신 모듈(210)을 통하여 송수신되는 데이터를 저장하되, 행동 인식 모듈(220)에 의하여 인식된 객체의 행동 정보에 포함되는 객체의 행동에 따른 복수의 행동 템플릿을 저장하는 장치로서, RAM, ROM, EEPROM, SDRAM 또는 HDD로 구성될 수 있으나, 이는 본 발명은 저장 장치의 종류를 한정하는 것은 아니다. 또한, 상기 저장 모듈(240)은 데이터 취득부(221)에서 취득한 정보를 저장한다. 구체적으로, 상기 저장 모듈(240)은 데이터 취득부(221)에서 취득된 사용자의 관절 정보와 깊이 정보를 저장한다. 또한, 상기 저장 모듈(240)에는 행동 템플릿(gesture template)이 저장되어 있다. 이러한 행동 템플릿은 객체의 행동을 인식하기 위한 기본적인 정보이며, 객체의 다양한 행동을 인식하기 위해 저장 모듈(240)에는 다양한 행동 템플릿이 저장되어 있다. 또한, 상기 저장 모듈(240)에는 일정한 주기에 따라 생성된 여러 장의 행동 템플릿을 하나의 세트로 묶어서, 이를 행동 템플릿 세트로 정의하여 저장할 수 있다.The storage module 240 stores data transmitted and received through the communication module 210 and stores a plurality of behavior templates corresponding to the behavior of the objects included in the behavior information of the object recognized by the behavior recognition module 220 As an apparatus, it may be composed of RAM, ROM, EEPROM, SDRAM or HDD, but the present invention does not limit the kind of storage device. In addition, the storage module 240 stores the information acquired by the data acquisition unit 221. Specifically, the storage module 240 stores the joint information and the depth information of the user acquired by the data acquisition unit 221. In addition, the storage module 240 stores a gesture template. The action template is basic information for recognizing the behavior of the object. Various action templates are stored in the storage module 240 to recognize various actions of the object. In addition, the storage module 240 may group a plurality of behavior templates generated according to a predetermined period into one set, define the behavior templates as a set of behavior templates, and store the set of behavior templates.

상기 제어 모듈(250)은 중앙 모니터링 장치(20)를 구성하는 구성요소들의 동작을 제어하되, 행동 인식 모듈(220)에 의하여 인식된 객체의 행동에 따라 제2 경보 신호를 영상 처리 장치(15) 또는 관리자 단말(30)에 전송하는 장치이다. 즉, 상기 제어 모듈(250)은 음원 신호에서 비정상 이벤트가 발생된 것으로 판단되는 경우, 음원 처리 장치(11)에서 감지된 음원 신호와, 영상 처리 장치(15)에서 촬영된 영상 신호를 전송받되, 영상 신호에 포함된 객체의 행동을 인식한 후, 객체의 행동이 구타 및 가혹 행위에 해당되는 경우 미리 설정된 제2 경보 신호를 영상 처리 장치(15)에 전송하도록, 통신 모듈(210), 행동 인식 모듈(220), 데이터 출력 모듈(230) 및 저장 모듈(240)의 동작을 제어할 수 있다. 또한, 상기 제어 모듈(250)은 비정상 이벤트가 발생된 것으로 판단되는 경우 및/또는 이에 더하여 객체의 행동이 구타 및 가혹 행위에 해당되는 것으로 판단되는 경우, 해당 판단 결과를 관리자 단말(30)로 전송할 수 있다.
The control module 250 controls the operation of the components constituting the central monitoring apparatus 20 and controls the operation of the image processing apparatus 15 according to the behavior of the object recognized by the behavior recognition module 220. [ Or to the administrator terminal 30. [ That is, when it is determined that an abnormal event has occurred in the sound source signal, the control module 250 receives the sound source signal sensed by the sound source processing device 11 and the image signal captured by the image processing device 15, A communication module 210, a behavior recognition module 210, and a communication module 210. The communication module 210 is configured to recognize a behavior of an object included in a video signal and transmit a predetermined second alarm signal to the image processing device 15 when the behavior of the object corresponds to beating and harsh behavior. The module 220, the data output module 230, and the storage module 240. [ In addition, when it is determined that an abnormal event has occurred and / or when it is determined that the behavior of the object corresponds to beating and harsh behavior, the control module 250 transmits the determination result to the administrator terminal 30 .

상기 관리자 단말(30)은 중앙 모니터링 장치(20)에 유무선 통신망으로 연결되어 본 구타 및 가혹행위 방지 시스템을 전반적으로 모니터링하는 관리자의 단말 장치이다. 이러한 관리자 단말(30)은 실시간 감지 어플리케이션을 구비하고, 실시간 감지 어플리케이션의 실행에 의하여 중앙 모니터링 장치(20)와 유무선 통신망으로 연결되고, 중앙 모니터링 장치(20)로부터 음원 신호, 영상 신호 및 제2 경보 신호 정보를 수신하며, 중앙 모니터링 장치(20)로 제어 명령 신호를 전송한다. 또한, 상기 관리자 단말(30)은 감시 영역에서 비정상 이벤트가 발생되는 경우, 경찰서, 119 소방서 또는 군부대 등의 기관에 해당 정보를 전송하여 감시 영역의 현장에 출동하도록 지시할 수 있다. 이를 통하여, 감시 영역에서의 구타 및 가혹 행위가 지속되지 않도록 유도할 수 있게 된다.The administrator terminal 30 is connected to the central monitoring device 20 through a wired / wireless communication network, and is a terminal device of a manager that monitors the overall beating and harshness prevention system as a whole. The manager terminal 30 is provided with a real-time detection application. The manager terminal 30 is connected to the central monitoring apparatus 20 through a wired / wireless communication network by execution of a real-time detection application. The manager terminal 30 receives a sound source signal, And transmits a control command signal to the central monitoring apparatus 20. [ In addition, when an abnormal event is generated in the surveillance area, the administrator terminal 30 can transmit the corresponding information to a police station, a 119 fire station, or a military unit, and instruct the surveillance area to go to the surveillance area. Through this, the beating and harshness in the surveillance area can be prevented from continuing.

여기서, 상기 관리자 단말(30)은 영상과 음성 출력이 가능한 출력 장치로서, 예컨대 스마트폰이나 스마트티브이뿐만 아니라, PDC(Personal Digital Cellular)폰, PCS(Personal Communication Service)폰, PHS(Personal Handyphone System)폰, CDMA-2000(1X, 3X)폰, WCDMA(Wideband CDMA)폰, 듀얼 밴드/듀얼 모드(Dual Band/Dual Mode)폰, GSM(Global Standard for Mobile)폰, MBS(Mobile Broadband System)폰, DMB(Digital Multimedia Broadcasting)폰, 스마트(Smart) 폰, 핸드폰 등과 같은 통신 기능이 포함될 수 있는 휴대용 기기, PDA(Personal Digital Assistant), 핸드 헬드 PC(Hand-Held PC), 노트북 컴퓨터, 랩탑 컴퓨터, 와이브로(WiBro) 단말기, MP3 플레이어, MD 플레이어 등과 같은 휴대 단말기, 그리고 국제 로밍(Roaming) 서비스와 확장된 이동 통신 서비스를 제공하는 IMT-2000(International Mobile Telecommunication-2000) 단말기 등을 포함하는 모든 종류의 핸드 헬드 기반의 무선 통신 장치를 의미하는 휴대용 전기 전자 장치와, 멀티미디어 재생 기능을 수행할 수 있는 마이크로프로세서를 탑재한 단말기를 통칭하는 개념으로 해석된다.
The PDA (Personal Digital Cellular) phone, the PCS (Personal Communication Service) phone, the PHS (Personal Handyphone System) phone, and the PDA (Wideband CDMA) phone, a dual band / dual mode phone, a GSM (Global Standard for Mobile) phone, a MBS (Mobile Broadband System) phone, a CDMA- A PDA (Personal Digital Assistant), a hand-held PC (a hand-held PC), a notebook computer, a laptop computer, a WiBro, etc., which may include a communication function such as a DMB (Digital Multimedia Broadcasting) phone, a smart phone, (WiBro) terminal, an MP3 player, an MD player, and an IMT-2000 (International Mobile Telecommunication-2000) terminal that provides an international roaming service and an extended mobile communication service. Held Based wireless communication device, and a terminal equipped with a microprocessor capable of performing a multimedia playback function.

상기와 같이 구성된 본 발명의 일 실시예에 따른 구타 및 가혹행위 방지를 위한 감시 시스템의 동작을 군부대 환경에 적용하여 구체적으로 설명하기로 한다.The operation of the surveillance system for preventing beatings and harshness according to an embodiment of the present invention will be described in detail with reference to a military environment.

즉, 도 5에 도시된 바와 같이, 본 발명의 일 실시예에 따른 구타 및 가혹행위 방지를 위한 감시 시스템은, 우선 감시 구역 상에는 평상시 휴먼 상태인 CCTV 영상 처리 장치(15)와 음원 감지 장치가 구비되어 있다. 이 상태에서, 음원 감지 장치를 통하여 내무반에 구타 및 가혹행위 소리가 발생되면 이를 감지하며, 감지된 음원을 기존 음원 DB와의 비교를 통하여 분석하여 비정상 이벤트가 발생되었는 지를 판단한다. 이때, 비정상 이벤트가 발생된 것으로 판단되는 경우 영상 처리 장치(15)를 통하여 녹화 및 저장된 감시 영역의 영상을 중앙 모니터링 장치(20)에 전송하여 사고 상황 관제센터 화면에 표출하게 된다. 또한, 중앙 모니터링 장치(20)는 해당 사고 상황 정보를 무선 암호화하여 해당 지휘관의 관리자 단말(30)에 실시간으로 전파하고, 관리자 단말(30)을 통하여 사고 상황을 판단하게 하여 해당 부대의 중앙 모니터링 장치(20)에 대응 조치를 전송하며, 이와 별도로 현장에 출동하거나 다양한 사고 예방 및 대응 조치를 지시하도록 유도할 수 있게 된다.5, the surveillance system for preventing beatings and harshness according to an embodiment of the present invention includes a CCTV image processing device 15 and a sound source detecting device, which are normally in a human condition, . In this state, when a beating and harsh action sound is generated through the sound source sensing device, it is sensed and the detected sound source is analyzed through comparison with the existing sound source DB to determine whether an abnormal event has occurred. At this time, if it is determined that an abnormal event has occurred, the image of the surveillance area recorded and stored through the image processing device 15 is transmitted to the central monitoring device 20 and is displayed on the accident situation control center screen. The central monitoring device 20 wirelessly encrypts the incident situation information and transmits the information to the administrator terminal 30 of the commander in real time and allows the administrator terminal 30 to determine the incident situation, It is possible to send a countermeasure to the control unit 20, and separately to dispatch it to the field or to instruct various accident prevention and countermeasures.

따라서, 상기와 같이 구성된 본 발명의 일 실시예에 따른 구타 및 가혹행위 방지를 위한 감시 시스템에 따르면, 감시 영역에서의 감지되는 음원 신호를 이용하여 비정상 이벤트 발생여부를 판단함과 동시에 해당 영역에서의 영상을 촬영 및 저장하고, 감지된 음성 신호와 촬영된 영상 신호를 중앙 모니터링 장치(20) 및/또는 관리자 단말(30)에 전송하여 실시간으로 사고 대응조치를 하도록 함으로써, 감시 사각지대에서의 구타 및 가혹행위 발생을 효과적으로 방지할 수 있다.
Therefore, according to the surveillance system for preventing beatings and harshness according to an embodiment of the present invention, it is determined whether an abnormal event is generated using the detected sound source signal in the surveillance region, Capturing and storing the video image, and transmitting the sensed voice signal and the photographed video signal to the central monitoring apparatus 20 and / or the administrator terminal 30 to perform an accident response measure in real time, It is possible to effectively prevent occurrence of harsh behavior.

이상에서 설명한 것은 본 발명에 의한 구타 및 가혹행위 방지를 위한 감시 시스템을 실시하기 위한 하나의 실시예에 불과한 것으로서, 본 발명은 상기 실시예에 한정되지 않고, 이하의 특허청구범위에서 청구하는 바와 같이 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 분야에서 통상의 지식을 가진 자라면 누구든지 다양한 변경 실시가 가능한 범위까지 본 발명의 기술적 정신이 있다고 할 것이다.
It is to be understood that the present invention is not limited to the above-described embodiment, and that various modifications and changes may be made by those skilled in the art without departing from the spirit and scope of the present invention as defined by the appended claims. It will be understood by those of ordinary skill in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention.

10: 데이터 처리 장치 11: 음원 처리 장치
15: 영상 처리 장치 20: 중앙 모니터링 장치
30: 관리자 단말 111: 제1 통신부
112: 모드 선택부 113: 음원 감지부
114: 레벨 측정부 115: 등급 레벨 분류부
116: 이벤트 판단부 117: 제1 메모리부
118: 제1 제어부 151: 제2 통신부
152: 촬영부 153: 제2 메모리부
154: 제2 제어부 210: 통신 모듈
220: 행동 인식 모듈 230: 데이터 출력 모듈
240: 저장 모듈 250: 제어 모듈
10: data processing device 11: sound source processing device
15: image processing apparatus 20: central monitoring apparatus
30: Manager terminal 111:
112: Mode selection unit 113: Sound source sensing unit
114: Level measurement unit 115: Level level classification unit
116: Event determination unit 117: First memory unit
118: first control unit 151: second communication unit
152: photographing section 153: second memory section
154: second control section 210: communication module
220: behavior recognition module 230: data output module
240: storage module 250: control module

Claims (7)

감시 영역에서의 음원 신호를 감지하고, 상기 감지된 음원 신호를 기초로 감시 영역에서의 비정상 이벤트가 발생되는 지 여부를 판단하는 음원 처리 장치;
상기 음원 신호에서 비정상 이벤트가 발생된 것으로 판단되는 경우, 상기 감시 영역의 영상을 촬영 및 저장하고, 미리 설정된 제1 경보 신호와 외부로부터 수신된 제2 경보 신호를 출력하는 영상 처리 장치;
상기 음원 신호에서 비정상 이벤트가 발생된 것으로 판단되는 경우, 상기 음원 처리 장치에서 감지된 음원 신호와, 상기 영상 처리 장치에서 촬영된 영상 신호를 전송받되, 상기 영상 신호에 포함된 객체의 행동을 인식한 후, 미리 설정된 제2 경보 신호를 상기 영상 처리 장치에 전송하는 중앙 모니터링 장치; 및
실시간 감지 어플리케이션을 구비하고, 상기 실시간 감지 어플리케이션의 실행에 의하여 상기 중앙 모니터링 장치와 유무선 통신망으로 연결되고, 상기 중앙 모니터링 장치로부터 음원 신호, 영상 신호 및 제2 경보 신호 정보를 수신하며, 상기 중앙 모니터링 장치로 제어 명령 신호를 전송하는 관리자 단말을 포함하고,
상기 중앙 모니터링 장치는
상기 음원 처리 장치, 상기 영상 처리 장치 또는 관리자 단말과의 데이터 송수신을 위한 통신 모듈;
상기 영상 신호에 포함된 객체의 행동을 인식하는 행동 인식 모듈;
상기 통신 모듈을 통하여 송수신되는 데이터와, 상기 행동 인식 모듈에 의한 인식 결과 데이터를 출력하는 데이터 출력 모듈;
상기 통신 모듈을 통하여 송수신되는 데이터를 저장하되, 상기 인식된 객체의 행동 정보에 포함되는 객체의 행동에 따른 복수의 행동 템플릿을 저장하는 저장 모듈; 및
상기 중앙 모니터링 장치를 구성하는 구성요소들의 동작을 제어하되, 상기 인식된 객체의 행동에 따라 제2 경보 신호를 상기 영상 처리 장치 또는 관리자 단말에 전송하는 제어모듈을 포함하고,
상기 행동 인식 모듈은
깊이 카메라에서 제공되는 객체의 깊이 영상 및 관절 추적 정보를 이용하여 상기 객체의 관절 정보와 깊이 정보를 취득하는 데이터 취득부;
상기 취득된 객체의 관절 정보와 깊이 정보로부터 입력 행동 템플릿을 생성하는 행동 템플릿 생성부; 및
상기 입력 행동 템플릿을 상기 복수의 행동 템플릿과 매칭시키고, 상기 입력 행동 템플릿과 상대적으로 가장 유사한 행동을 출력하여 객체의 행동을 추정하는 추정부를 포함하며,
상기 행동 템플릿은 객체의 몸의 기준점을 중심으로 각각의 관절의 위치를 직선으로 연결하여 이미지로 형성하는 것인 것을 특징으로 하는 구타 및 가혹행위 방지를 위한 감시 시스템.
A sound source processing unit for detecting a sound source signal in the surveillance area and determining whether an abnormal event in the surveillance area is generated based on the sensed sound source signal;
An image processing device for photographing and storing an image of the surveillance area and outputting a predetermined first alarm signal and a second alarm signal received from the outside when it is determined that an abnormal event has occurred in the sound source signal;
Receiving a sound source signal sensed by the sound source processing apparatus and a video signal photographed by the image processing apparatus when an abnormal event is determined to have occurred in the sound source signal and recognizing an action of the object included in the video signal, A central monitoring device for transmitting a predetermined second alarm signal to the image processing apparatus; And
A central monitoring device connected to the central monitoring device through a wired / wireless communication network and receiving a sound source signal, a video signal, and second alarm signal information from the central monitoring device by execution of the real time sensing application, And transmitting the control command signal to the manager terminal,
The central monitoring device
A communication module for transmitting and receiving data to and from the sound source processing device, the image processing device, or the administrator terminal;
A behavior recognition module that recognizes a behavior of an object included in the image signal;
A data output module for outputting data transmitted and received through the communication module and recognition result data by the behavior recognition module;
A storage module that stores data transmitted and received through the communication module and stores a plurality of behavior templates corresponding to an action of an object included in behavior information of the recognized object; And
And a control module for controlling operations of the components constituting the central monitoring apparatus and transmitting a second alarm signal to the image processing apparatus or the administrator terminal according to the behavior of the recognized object,
The behavior recognition module
A data acquisition unit for acquiring joint information and depth information of the object using a depth image of the object and joint tracking information provided by the depth camera;
A behavior template generating unit for generating an input action template from the joint information and the depth information of the acquired object; And
And an estimator for matching the input behavior template with the plurality of behavior templates and outputting a behavior most similar to the input behavior template to estimate the behavior of the object,
Wherein the action template forms an image by connecting the positions of the respective joints with straight lines around the reference point of the body of the object.
청구항 1에 있어서,
상기 음원 처리 장치는
상기 중앙 모니터링 장치와의 데이터 송수신을 위한 제1 통신부;
상기 음원 신호를 감지하기 위한 제1 모드 또는 제2 모드에 대한 선택 정보를 입력하는 모드 선택부;
상기 음원 신호를 감지하는 음원 감지부;
상기 제1 모드가 선택되는 경우, 상기 감지된 음원 신호의 음원 레벨을 측정하는 레벨 측정부;
상기 제2 모드가 선택되는 경우, 상기 감지된 음원 신호에서 음원 프레임을 생성하고, 상기 음원 프레임의 등급 레벨을 분류하는 등급 레벨 분류부;
상기 음원 레벨 또는 상기 등급 레벨을 소정의 이벤트 발생 알고리즘에 적용하여 상기 감시 영역에서 비정상 이벤트가 발생하는 지 여부를 판단하는 이벤트 판단부;
상기 음원 신호, 음원 레벨, 등급 레벨 및 이벤트 발생 알고리즘을 저장하는 제1 메모리부; 및
상기 음원 처리 장치를 구성하는 각 구성요소의 동작을 제어하는 제1 제어부를 포함하는 것을 특징으로 하는 구타 및 가혹행위 방지를 위한 감시 시스템.
The method according to claim 1,
The sound source processing apparatus
A first communication unit for transmitting and receiving data with the central monitoring device;
A mode selector for inputting selection information for a first mode or a second mode for sensing the sound source signal;
A sound source sensing unit for sensing the sound source signal;
A level measurement unit for measuring a sound source level of the sensed sound source signal when the first mode is selected;
A class level classifier for classifying a class level of the sound source frame to generate a sound source frame from the sensed sound source signal when the second mode is selected;
An event determination unit for determining whether an abnormal event occurs in the monitoring area by applying the sound source level or the rating level to a predetermined event generation algorithm;
A first memory unit for storing the sound source signal, the sound source level, the level level, and an event generation algorithm; And
And a first control unit for controlling the operation of each component constituting the sound source processing apparatus.
삭제delete 청구항 2에 있어서,
상기 이벤트 판단부는
상기 측정된 음원 레벨이 미리 설정된 기준 레벨을 초과하는 경우 상기 감시 영역에서 비정상 이벤트로 발생한 것으로 판단하는 제1 이벤트 판단부; 및
소정 시간 동안의 등급 레벨의 분류 횟수중 비정상 이벤트로 분류된 횟수의 비가 임계값 이상이면 상기 감시 영역에서 비정상 이벤트로 발생한 것으로 판단하는 제2 이벤트 판단부를 포함하는 것을 특징으로 하는 구타 및 가혹행위 방지를 위한 감시 시스템.
The method of claim 2,
The event determination unit
A first event determination unit determining that an abnormal event has occurred in the monitoring area when the measured sound source level exceeds a predetermined reference level; And
And a second event determiner for determining that an abnormality has occurred in the surveillance region when the ratio of the number of classification events classified as abnormal events to the number of classification levels for the predetermined time period is greater than or equal to a threshold value. Monitoring system for.
청구항 1에 있어서,
상기 영상 처리 장치는
상기 중앙 모니터링 장치와의 데이터 송수신을 위한 제2 통신부;
상기 감시 영역의 영상을 촬영하는 촬영부;
상기 촬영된 영상과, 상기 제1 경보 신호를 저장하는 제2 메모리부; 및
상기 영상 처리 장치를 구성하는 각 구성요소의 동작을 제어하는 제2 제어부를 포함하는 것을 특징으로 하는 구타 및 가혹행위 방지를 위한 감시 시스템.
The method according to claim 1,
The image processing apparatus
A second communication unit for transmitting / receiving data to / from the central monitoring device;
A photographing unit photographing an image of the surveillance area;
A second memory unit for storing the photographed image and the first alarm signal; And
And a second control unit for controlling the operation of each component constituting the image processing apparatus.
삭제delete 청구항 1에 있어서,
상기 추정부는
상기 입력 행동 템플릿을 상기 복수의 행동 템플릿과 매칭시켜 각각의 유사 스코어를 계산하고, 상기 복수의 행동 템플릿 중에서 최대 스코어를 가지는 행동 템플릿을 추출하며,
상기 복수의 행동 템플릿의 유사성을 비교하여 최소 허용 스코어를 계산하여, 상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어보다 큰지를 비교하고,
상기 최대 스코어를 갖는 행동 템플릿의 스코어가 최소 허용 스코어보자 크면, 상기 최대 스코어를 갖는 행동 템플릿이 의미하는 행동을 출력하여 객체의 행동을 추정하는 것을 특징으로 하는 구타 및 가혹행위 방지를 위한 감시 시스템.
The method according to claim 1,
The estimation unit
Calculating a similarity score by matching the input action template with the plurality of behavior templates, extracting a behavior template having a maximum score from the plurality of behavior templates,
Comparing the similarities of the plurality of behavioral templates to calculate a minimum acceptable score to compare whether the score of the behavioral template with the highest score is greater than a minimum acceptable score,
Wherein the behavior of the object is estimated by outputting a behavior of the behavior template having the maximum score if the score of the behavior template having the maximum score is larger than the minimum allowable score.
KR1020140167184A 2014-11-27 2014-11-27 Monitoring system for prevention beating and cruel act KR101520446B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140167184A KR101520446B1 (en) 2014-11-27 2014-11-27 Monitoring system for prevention beating and cruel act

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140167184A KR101520446B1 (en) 2014-11-27 2014-11-27 Monitoring system for prevention beating and cruel act

Publications (1)

Publication Number Publication Date
KR101520446B1 true KR101520446B1 (en) 2015-05-20

Family

ID=53394764

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140167184A KR101520446B1 (en) 2014-11-27 2014-11-27 Monitoring system for prevention beating and cruel act

Country Status (1)

Country Link
KR (1) KR101520446B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102641828B1 (en) * 2023-01-12 2024-02-28 퀀텀테크엔시큐 주식회사 Providing method, apparatus and computer-readable medium of recognition of military dangerous behaviors in videos and tracking of dangerous behaviors

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090074387A (en) * 2008-01-02 2009-07-07 (주)노매딕텍스 System and method for monitoring and managing birth and breeding of agricultural products based network clustering device
KR20100067540A (en) * 2008-12-11 2010-06-21 한국철도기술연구원 Monitoring system for crime-ridden district in station building

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090074387A (en) * 2008-01-02 2009-07-07 (주)노매딕텍스 System and method for monitoring and managing birth and breeding of agricultural products based network clustering device
KR20100067540A (en) * 2008-12-11 2010-06-21 한국철도기술연구원 Monitoring system for crime-ridden district in station building

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102641828B1 (en) * 2023-01-12 2024-02-28 퀀텀테크엔시큐 주식회사 Providing method, apparatus and computer-readable medium of recognition of military dangerous behaviors in videos and tracking of dangerous behaviors

Similar Documents

Publication Publication Date Title
CN110291489B (en) Computationally efficient human identification intelligent assistant computer
CN110895861B (en) Abnormal behavior early warning method and device, monitoring equipment and storage medium
US20200007357A1 (en) Apparatus and method for smart home monitoring
US20220351598A1 (en) Enhanced audiovisual analytics
JPWO2019044157A1 (en) Sound collecting device, sound collecting method, and program
CN109672853A (en) Method for early warning, device, equipment and computer storage medium based on video monitoring
Andersson et al. Fusion of acoustic and optical sensor data for automatic fight detection in urban environments
KR101899436B1 (en) Safety Sensor Based on Scream Detection
CN111862524B (en) Monitoring alarm method and device based on intelligent home system
KR20190024254A (en) Doorbell
CN109839614B (en) Positioning system and method of fixed acquisition equipment
CN110830771A (en) Intelligent monitoring method, device, equipment and computer readable storage medium
US11875571B2 (en) Smart hearing assistance in monitored property
JP5970232B2 (en) Evacuation information provision device
CN110634506A (en) Voice data processing method and device
WO2018210192A1 (en) Unmanned aerial vehicle monitoring method and audio/video linkage apparatus
KR20220055378A (en) On-device AI apparatus for detecting abnormal behavior automatically based on deep learning and operating method thereof
US11335359B2 (en) Methods and devices for obtaining an event designation based on audio data
KR20130097490A (en) Apparatus and method for context recognition based on acoustic information
KR101520446B1 (en) Monitoring system for prevention beating and cruel act
US20150086074A1 (en) Information processing device, information processing method, and program
KR102465105B1 (en) Apparatus and method for detecting disaster based on artificial intelligence model using thermal image complex data
Saha et al. Visual, navigation and communication aid for visually impaired person
US11445120B2 (en) Information processing method for adjustting an image capture region based on spoken utterance and apparatus therefor
JP2005199373A (en) Communication device and communication method

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180531

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190423

Year of fee payment: 5