KR101075550B1 - Image sensing agent and security system of USN complex type - Google Patents

Image sensing agent and security system of USN complex type Download PDF

Info

Publication number
KR101075550B1
KR101075550B1 KR1020100000040A KR20100000040A KR101075550B1 KR 101075550 B1 KR101075550 B1 KR 101075550B1 KR 1020100000040 A KR1020100000040 A KR 1020100000040A KR 20100000040 A KR20100000040 A KR 20100000040A KR 101075550 B1 KR101075550 B1 KR 101075550B1
Authority
KR
South Korea
Prior art keywords
image
data
sensor
event
transmission means
Prior art date
Application number
KR1020100000040A
Other languages
Korean (ko)
Other versions
KR20110079939A (en
Inventor
구자효
양승복
Original Assignee
구자효
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구자효 filed Critical 구자효
Priority to KR1020100000040A priority Critical patent/KR101075550B1/en
Publication of KR20110079939A publication Critical patent/KR20110079939A/en
Application granted granted Critical
Publication of KR101075550B1 publication Critical patent/KR101075550B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B3/00Audible signalling systems; Audible personal calling systems
    • G08B3/10Audible signalling systems; Audible personal calling systems using electric transmission; using electromagnetic transmission
    • GPHYSICS
    • G08SIGNALLING
    • G08CTRANSMISSION SYSTEMS FOR MEASURED VALUES, CONTROL OR SIMILAR SIGNALS
    • G08C17/00Arrangements for transmitting signals characterised by the use of a wireless electrical link
    • G08C17/02Arrangements for transmitting signals characterised by the use of a wireless electrical link using a radio link
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 이벤트 발생 감시 지역에 감시 카메라와 센서노드를 설치하여 이벤트 발생 여부 판단함에 있어 영상 객체 인식 알고리즘을 통한 영상 객체의 분석시, USN 센서기술을 결합하여 이벤트 발생에 따른 신뢰성 및 정확성이 향상된 결과를 획득할 수 있도록 한 이미지 센싱 에이전트 및 USN 복합형 보안 시스템에 관한 것이다.
본 발명은 이벤트 발생 지역에 설치되어 촬영한 영상신호를 데이터 전송수단으로 출력하는 감시 카메라; 이벤트 발생 지역에 설치되는 다수의 센서들로 이루어져 상호간의 통신을 위한 네트워크를 적용하여 컴퓨팅 작용을 수행해 이벤트 발생 지역에서 발생 가능한 일정한 형태의 온도값, 습도값, 압력값 등을 감지한 감지신호를 데이터 전송수단으로 출력하는 센서 노드; 상기 감시 카메라로부터 전송된 아날로그 영상신호 및 상기 센서 노드로부터 전송된 아날로그 감지신호를 인코딩하여 디지털 신호로 변환하여 영상 인식 서버시스템부로 전송하는 데이터 전송수단; 상기 데이터 전송수단으로부터 전송된 영상 데이터 및 센서 데이터를 수신한 후, 상기 영상 데이터는 관제 센터로 스트리밍하여 실시간 모니터링할 수 있도록 제공하고, 영상 인식 처리부를 구동하여 이벤트 검출 알고리즘을 통한 객체에 대한 영상 분석 데이터를 추출하고, 센서 데이터 처리부를 구동하여 센서의 기설정된 임계값을 통한 센서 분석 데이터를 추출해 상기 영상 분석 데이터와 센서 분석 데이터를 조합하여 이벤트 발생 여부를 판단하는 영상 인식 서버시스템부;의 구성으로 이루어지는 이미지 센싱 에이전트 및 USN 복합형 보안 시스템에 관한 것이다.
According to the present invention, when analyzing a video object through an image object recognition algorithm in determining whether an event occurs by installing a surveillance camera and a sensor node in an event occurrence monitoring area, the reliability and accuracy according to the event are improved by combining USN sensor technology. It relates to an image sensing agent and a USN hybrid security system capable of obtaining the.
The present invention provides a surveillance camera which is installed in an event occurrence area and outputs a captured video signal to a data transmission means; It consists of a number of sensors installed in the event generating area and applies a network for communication between each other to perform a computing function to detect the sensing signal that detects a certain type of temperature, humidity, and pressure value that can occur in the event generating area. A sensor node outputting to the transmission means; Data transmission means for encoding the analog video signal transmitted from the surveillance camera and the analog detection signal transmitted from the sensor node, converting the analog video signal into a digital signal and transmitting the digital signal to a video recognition server system unit; After receiving the image data and the sensor data transmitted from the data transmission means, the image data is streamed to the control center for real-time monitoring, driving the image recognition processor to analyze the image of the object through the event detection algorithm An image recognition server system unit configured to extract data, drive sensor data processing unit to extract sensor analysis data through a predetermined threshold of a sensor, and determine whether an event occurs by combining the image analysis data and sensor analysis data; Image sensing agent and USN complex security system.

Description

이미지 센싱 에이전트 및 USN 복합형 보안 시스템{Image sensing agent and security system of USN complex type}Image sensing agent and security system of USN complex type}

본 발명은 이미지 센싱 에이전트 및 USN 복합형 보안 시스템에 관한 것으로, 보다 상세하게는 이벤트 발생 감시 지역에 감시 카메라와 센서노드를 설치하여 이벤트 발생 여부 판단함에 있어 영상 객체 인식 알고리즘을 통한 영상 객체의 분석시, USN 센서기술을 결합하여 이벤트 발생에 따른 신뢰성 및 정확성이 향상된 결과를 획득할 수 있도록 한 이미지 센싱 에이전트 및 USN 복합형 보안 시스템에 관한 것이다.The present invention relates to an image sensing agent and a USN complex security system. More particularly, the present invention relates to an image sensing agent and a USN complex security system. The present invention relates to an image sensing agent and a USN complex security system that combine USN sensor technology to obtain a result of improved reliability and accuracy according to an event occurrence.

일반적으로 사물을 인식하고 위치를 파악하기 위해 전통적인 방법으로 CCTV(Close Circuit Television)를 이용한 영상 인식기술을 사용해 왔는데, 상기 영상 인식기술은 각 사물에 대하여 미리 영상 데이터베이스를 구축하여 저장한 후, 새로 들어온 입력 영상과 비교하여 영상 객체를 인식할 수 있도록 하는 방식을 사용해 오고 있다.In general, image recognition technology using CCTV (Close Circuit Television) has been used as a traditional method for recognizing and locating objects. The image recognition technology has been newly constructed after storing and storing image database for each object. In comparison with the input image, a method of recognizing the image object has been used.

상기 CCTV는 특정 건축물 또는 특정 시설등에서 유선 텔레비전을 이용해 영상을 전달하는 장치로, 산업용, 교육용, 의료용, 방재용 및 사내의 화상정보 전달용 등으로 그 용도가 다양하게 사용되고 있으며, 상기 CCTV는 인간의 시각 확장수단으로 사용되어 원거리에 있는 장소를 관찰하고, 인체의 근접이 불가능한 장소를 관찰하고, 다수인의 동시 관찰 또는 집중적인 감시 등을 목적으로 여러가지 분야에서 폭넓게 사용되고 있다.The CCTV is a device that transmits video using a cable television in a specific building or a specific facility, and its use is widely used for industrial, educational, medical, disaster prevention, and in-house image information transmission. Used as a means of visual expansion, it is widely used in various fields for the purpose of observing remote places, observing places where the human body is impossible to approach, observing multiple people simultaneously or intensively monitoring.

상기 CCTV를 이용한 영상 인식시스템은 CCTV를 이용하여 감시 구역내의 이상여부를 감시하는데, CCTV를 감시할 장소에 설치하고, CCTV에 의해 촬영되는 비디오 신호는 중앙의 관리실에 설치된 모니터로 전송하여 디스플레이되고, 상기 모니터장치에 디스플레이된 화면을 사용자가 계속 주시하여 도난이나 화재 등과 같은 이상상태가 발생하는 것을 모니터링할 수 있게 된다.The image recognition system using the CCTV to monitor the abnormality in the surveillance area using the CCTV, it is installed in the CCTV monitoring place, the video signal taken by the CCTV is displayed by transmitting to the monitor installed in the central management room, The user can keep an eye on the screen displayed on the monitor device to monitor the occurrence of abnormal conditions such as theft or fire.

종래의 CCTV를 이용한 영상 인식시스템은 중앙의 관리실에 관리자가 배치되어 모니터링할 수 있도록 하고, 상기 CCTV에서 촬영한 영상을 모니터를 통해 단순히 디스플레이 하는 기능만 있기 때문에 출입문의 통제 여부, 동적 움직임의 감지 여부, 화재 경보 등의 이상상황(이하 '이벤트'라 한다)가 발생하게 되더라도 관리자가 실시간으로 파악하지 못하는 경우에는 이벤트 상황에 대한 적절한 대처를 할 수 없게 되는 문제점이 있다.In the conventional CCTV image recognition system, the administrator can be placed and monitored in the central management room and simply display the image captured by the CCTV through a monitor. Even if an abnormal situation such as a fire alarm (hereinafter referred to as an event) occurs, if the administrator does not grasp in real time, there is a problem in that it is not possible to appropriately deal with the event situation.

최근 들어 유비쿼터스 기술의 등장으로 인해 CCTV 카메라 및 DVR(Digital Video Recorder) 기술에도 많은 변화를 가져오고 있는데, 종래의 DVR 제품은 점차적으로 네트워크를 강화한 NVR(Network Video Recorder) 제품으로 전환되고 있는 추세이며, 종래의 CCTV 영상시스템은 급속한 CCTV 카메라의 보급에 따른 사람에 의한 직접 감시 및 분석의 한계, 사후처리가 아닌 실시간 감시 시스템에 대한 요구 증대, IT 기술의 급속한 발전 등에 따른 이들 기술들이 통합된 지능형 영상 시스템의 새로운 진화를 요구하고 있다.Recently, with the advent of ubiquitous technology, many changes have been made to CCTV camera and DVR (Digital Video Recorder) technology, and conventional DVR products are gradually being converted into NVR (Network Video Recorder) products with enhanced network. Conventional CCTV video system is an intelligent video system that integrates these technologies due to the limitations of direct monitoring and analysis by humans due to the rapid spread of CCTV cameras, increasing demand for real-time monitoring system rather than post processing, and rapid development of IT technology. Call for new evolution.

이러한 지능형 영상 보안 시스템은 자동 영상분석 및 해석 기술을 기반으로 이동물체 검출, 분류, 추적 및 행위인식 등의 기능을 포함하며, 상기 지능형 영상 보안의 주요한 분야로는 영상기반 이동물체 검출 및 추적, 영상기반 개인 인식 및 식별, 대규모 영상 보안 시스템 구축 기술 등으로 분류할 수 있다.The intelligent video security system includes functions such as moving object detection, classification, tracking, and behavior recognition based on automatic image analysis and analysis technology. The main fields of the intelligent video security include image-based moving object detection, tracking, and video. Based on personal identification and identification, large-scale video security system construction technology.

상기 지능형 영상 보안 시스템은 특정 응용영역에 관계없이 공통적으로 필요한 움직임 검출(change detection), 영역 검출(region localization), 영역 추적(region tracking) 모듈들과 응용에 따라 기능의 변화가 필요한 객체 분류(object classification), 객체 인식 및 추적(object identification and tracking) 등 가변적 모듈들로 구분된다.The intelligent video security system is a change detection, region localization, region tracking modules that are commonly required regardless of a specific application area, and an object classification requiring a function change according to an application. It is divided into variable modules such as classification, object identification and tracking.

상기 움직임 검출은 입력되는 영상에서 이전 영상과 다른 영역을 찾아내는 과정이며, 그에 따른 특징을 이용하여 영역 검출 및 추적을 가능하게 할 수 있으며, 객체 분류는 사전에 분류 및 정의된 객체 모델들을 이용하여 객체를 분류하고 인식 및 추적 과정을 통하여 움직임을 분류해 낼 수 있으며, 이러한 움직임의 분류 또한 사전에 정의해 놓은 행위 모델 등을 이용할 수 있다.The motion detection is a process of finding a region different from the previous image in the input image, and the feature can be used to detect and track the region by using a feature, and the object classification is performed by using an object model previously classified and defined. This classifier can classify motions by classifying them, recognize them, and track them, and use these predefined behavioral models.

한편, 최근의 급속한 정보통신환경의 발달로 인해 시간과 장소에 구애받지 않고 네트워크에 접속할 수 있는 통신환경인 유비쿼터스가 각광을 받고 있으며, 정보통신 분야에서는 시간과 장소를 초월한 통신환경을 목표로 서비스 경쟁을 하고, 각종 이동통신 기기는 휴대성과 편의성을 강조한 제품들이 출시되어 전화 또는 인터넷으로 가정에 있는 보일러를 켜고 끌 수 있으며, 해외 공장에 있는 기계를 자기 자리에서 컨트롤 할 수 있도록 하는데, 유비쿼터스는 이러한 여러 가지 기기나 사물에 컴퓨터를 집어넣어 사용자와의 커뮤니케이션을 쉽게 용이하게 하는 정보기술 환경을 뜻하는 것이다.On the other hand, due to the recent rapid development of the information and communication environment, ubiquitous, a communication environment that can be connected to the network regardless of time and place, is in the spotlight.In the information and communication field, service competition aims at a communication environment that transcends time and place. In addition, various mobile communication devices are released with products that emphasize portability and convenience, and can turn on and off the boilers in the home by telephone or the Internet, and control the machines in overseas plants from their seats. It refers to an information technology environment that makes it easy to communicate with users by inserting computers into various devices or objects.

또한, 각종 센서에서 감지한 정보를 무선으로 수집할 수 있도록 구성한 네트워크인 유비쿼터스 센서 네트워크(USN;Ubiquitous Sensor Network)도 유비쿼터스를 이루기 위한 인프라로 각광을 받고 있는데, 상기 USN은 사람의 접근이 불가능한 취약지구에 수 백개의 센서 네트워크 노드를 설치하여 사람이 감시하는 것과 같은 역할을 할 수 있도록 한 것으로, WPAN(Wireless Personal Area Network) 기술 및 초소형 네트워크 디바이스 기술 등이 발전함에 따라 센서 네트워크 기술이 매우 활성화되고 있으며, 상기 USN에서 가장 중요한 기술은 정확한 정보를 빠르게 전달하는 신뢰성이며, 전력 소모도 매우 중요한데, 현재 건전지 하나로 몇 년 동안 사용할 수 있는 USN 기술이 국내에서 개발된 바 있다.In addition, Ubiquitous Sensor Network (USN), which is a network configured to collect information detected by various sensors wirelessly, is also spotlighted as an infrastructure for achieving ubiquitous, and the USN is a vulnerable district inaccessible to humans. Hundreds of sensor network nodes are installed in the network to enable human monitoring. Sensor network technology is very active with the development of wireless personal area network (WPAN) technology and micro network device technology. In the USN, the most important technology is reliability to quickly transmit accurate information, and power consumption is also very important. Currently, USN technology, which can be used for one year with a single battery, has been developed in Korea.

이에 다양한 장소와 시설물에 설치된 영상 감시장치로부터 전송된 영상을 통해 객체에 대한 영상 분석을 하여 탐지하는 영상 객체 인식기술과 USN 센서 노드들을 이용하여 객체를 탐지하는 센서기술을 결합하여 각각의 영상 분석데이터와 센서 데이터를 조합해 보다 정확하고 신뢰성이 향상된 보안 시스템에 대한 요구가 대두되고 있다.Therefore, each image analysis data is combined with image object recognition technology that detects and analyzes the object through image transmitted from the video surveillance apparatus installed in various places and facilities, and sensor technology that detects the object using USN sensor nodes. The need for a more accurate and reliable security system by combining data with sensor data is emerging.

본 발명은 상기의 종래 문제점을 해결하기 위해 안출한 것으로, 이벤트 발생 장소에 설치된 감시 카메라를 통해 촬영된 영상과 센서 노드를 통해 감지된 감지신호를 분석하여 영상 분석 데이터를 통한 이벤트 발생에 따른 객체 인식을 함에 있어서 센서 분석 데이터를 이용하여 이벤트 발생에 따른 객체 인식의 신뢰성과 정확성을 높여 사고를 미연에 방지할 수 있도록 하는데 목적이 있다.The present invention has been made to solve the above-mentioned conventional problems, the object recognition according to the occurrence of the event through the image analysis data by analyzing the image captured by the surveillance camera installed in the event location and the detection signal detected through the sensor node In order to prevent accidents by increasing the reliability and accuracy of object recognition according to event occurrence using sensor analysis data.

상기의 목적을 달성하기 위하여 이벤트 발생 지역에 설치되어 촬영한 영상신호를 데이터 전송수단으로 출력하는 감시 카메라; 이벤트 발생 지역에 설치되는 다수의 센서들로 이루어져 상호간의 통신을 위한 네트워크를 적용하여 컴퓨팅 작용을 수행해 이벤트 발생 지역에서 발생 가능한 일정한 형태의 온도값, 습도값, 압력값 등을 감지한 감지신호를 데이터 전송수단으로 출력하는 센서 노드; 상기 감시 카메라로부터 전송된 아날로그 영상신호 및 상기 센서 노드로부터 전송된 아날로그 감지신호를 인코딩하여 디지털 신호로 변환하여 영상 인식 서버시스템부로 전송하는 데이터 전송수단; 상기 데이터 전송수단으로부터 전송된 영상 데이터 및 센서 데이터를 수신한 후, 상기 영상 데이터는 관제 센터로 스트리밍하여 실시간 모니터링할 수 있도록 제공하고, 영상 인식 처리부를 구동하여 이벤트 검출 알고리즘을 통한 객체에 대한 영상 분석 데이터를 추출하고, 센서 데이터 처리부를 구동하여 센서의 기설정된 임계값을 통한 센서 분석 데이터를 추출해 상기 영상 분석 데이터와 센서 분석 데이터를 조합하여 이벤트 발생 여부를 판단하는 영상 인식 서버시스템부;의 구성으로 이루어지는 이미지 센싱 에이전트 및 USN 복합형 보안 시스템을 구현하고자 한 것이다.Surveillance camera installed in the event generation area to achieve the above object and outputs the video signal to the data transmission means; It consists of a number of sensors installed in the event generating area and applies a network for communication between each other to perform a computing function to detect the sensing signal that detects a certain type of temperature, humidity, and pressure value that can occur in the event generating area. A sensor node outputting to the transmission means; Data transmission means for encoding the analog video signal transmitted from the surveillance camera and the analog detection signal transmitted from the sensor node, converting the analog video signal into a digital signal and transmitting the digital signal to a video recognition server system unit; After receiving the image data and the sensor data transmitted from the data transmission means, the image data is streamed to the control center for real-time monitoring, driving the image recognition processor to analyze the image of the object through the event detection algorithm An image recognition server system unit configured to extract data, drive sensor data processing unit to extract sensor analysis data through a predetermined threshold of a sensor, and determine whether an event occurs by combining the image analysis data and sensor analysis data; It is intended to implement an image sensing agent and a USN complex security system.

상기 영상 인식 서버시스템부는 데이터 전송수단으로부터 영상 데이터와 센서 데이터 및 명령어 신호를 송·수신할 수 있도록 하고, 상기 영상 데이터는 관제센터로 전송하여 실시간 모니터링이 이루어질 수 있도록 하는 접속부; 상기 데이터 전송수단에서 전송된 영상정보를 관제센터로 스트리밍하여 실시간 모니터링이 이루어지게 제어하고, 센서 데이터 처리부 및 영상 인식 처리부를 구동하여 처리된 영상 분석 데이터와 센서 분석 데이터를 조합하여 이벤트 상황 탐지부를 통해 이벤트 발생 여부에 대한 결과값을 획득할 수 있도록 제어 프로그램과 데이터를 지원하는 시스템 운영부; 상기 시스템 운영부의 제어신호를 인가받아 실행되어 데이터 전송수단을 통해 전송된 영상 데이터를 관제센터로 스트리밍하여 실시간 모니터링이 이루어질 수 있도록 하는 모니터링 제공부; 이벤트 발생 지역에 설치된 센서 노드로부터 전송된 센서 데이터와 데이터베이스부에 저장된 해당 센서에 대한 임계값 정보를 비교하여 이벤트 발생 여부를 판단하여 결과값을 이벤트 상황 탐지부로 전송하는 센서 데이터 처리부; 이벤트 발생 지역에 설치된 감시 카메라로부터 전송된 영상 데이터와 데이터베이스부에 저장된 해당 장소의 원본 영상을 비교하여 이벤트 발생 여부를 판단하여 결과값을 이벤트 상황 탐지부로 전송하는 영상 인식 처리부; 상기 센서 데이터 처리부와 영상 인식 처리부를 통해 이벤트 발생에 대한 경고값인 트루(True)값이 각각 출력되면, 앤드(AND) 논리연산을 통해 발생된 트루(True)값을 이벤트 상황이 발생한 것으로 판단하여 소정의 경보음을 출력하는 이벤트 상황 탐지부; 데이터베이스 저장부에 저장된 데이터를 추출하거나 저장하도록 실행되는 데이터베이스 관리부; 이벤트 발생 지역인 감시 카메라가 설치된 장소에 대한 원본 영상정보를 소정의 분류체계에 따른 카테고리별로 분류하여 저장한 영상정보 데이터베이스부와 이벤트 발생 지역인 센서 노드가 설치된 장소에 대한 각 센서에 대한 임계값을 기설정하여 소정의 분류체계에 따른 카테고리별로 분류하여 저장한 센서정보 데이터베이스부로 형성된 데이터베이스 저장부;의 구성으로 이루어진다.The image recognition server system unit may be configured to transmit and receive image data, sensor data, and command signals from a data transmission means, and to transmit the image data to a control center so that real-time monitoring may be performed; Streaming the image information transmitted from the data transmission means to the control center to control the real-time monitoring, driving the sensor data processing unit and the image recognition processing unit by combining the processed image analysis data and sensor analysis data through the event situation detection unit A system operating unit supporting a control program and data to obtain a result value of whether an event occurs; A monitoring provider configured to receive and execute a control signal of the system operating unit to stream image data transmitted through a data transmission unit to a control center so that real-time monitoring can be performed; A sensor data processor that compares sensor data transmitted from a sensor node installed in an event occurrence region with threshold information of a corresponding sensor stored in a database unit, determines whether an event occurs, and transmits a result value to an event situation detector; An image recognition processor for comparing an image data transmitted from a surveillance camera installed in an event occurrence area with an original image of a corresponding place stored in a database unit to determine whether an event has occurred, and to transmit a result value to an event situation detection unit; When a true value, which is a warning value for an event occurrence, is output through the sensor data processing unit and the image recognition processing unit, it is determined that an event situation has occurred due to a true value generated through an AND logic operation. An event situation detector for outputting a predetermined alarm sound; A database manager executed to extract or store data stored in the database storage; The video information database unit classifies and stores the original video information on the place where the surveillance camera is installed as an event area according to the classification system and the threshold value for each sensor for the place where the sensor node is installed. And a database storage unit formed of a sensor information database unit which is classified and stored according to a category according to a predetermined classification system.

상기 센서 데이터 처리부는 센서 노드로부터 전송된 감지신호가 수신되면, 센서정보 데이터베이스부에 저장된 해당 센서에 대한 임계값 정보를 추출하여 상기 수신된 센서 정보값이 기설정된 해당 센서의 임계값을 경과하는 지를 판단한 후, 임계값을 경과하는 경우 이벤트 발생에 대한 경고값인 트루(True)값을 출력하는 구성으로 이루어진다.When the detection signal transmitted from the sensor node is received, the sensor data processor extracts threshold information of the corresponding sensor stored in the sensor information database to determine whether the received sensor information value passes the preset threshold of the corresponding sensor. After the determination, the threshold value elapses, and a true value, which is a warning value for an event occurrence, is output.

상기 영상 인식 처리부는 감시 카메라로부터 촬영된 영상 데이터가 수신되면, 영상정보 데이터베이스부에 저장된 해당 장소의 원본 영상을 추출하여 상기 수신된 영상 데이터와의 RGB 색상정보를 이용한 연산과정을 통해 기설정된 임계값을 경과하는 지 판단한 후, 임계값을 경과하는 경우 필터링 과정을 거쳐 이벤트 발생에 대한 경고값인 트루(True)값을 출력하는 구성으로 이루어진다.When the image data captured by the surveillance camera receives the image data, the image recognition processor extracts an original image of a corresponding place stored in the image information database unit and calculates a predetermined threshold value by using RGB color information with the received image data. After determining whether the elapsed time is passed, and if the threshold value passes, it is configured to output a true value, which is a warning value for an event occurrence, through a filtering process.

본 발명은 영상 객체 인식기술과 센서 네트워크 기술을 결합하여 침입자 감시 또는 화재 발생 등과 같은 이벤트 상황에 대해 지능적인 영상 객체를 인식할 수 있도록 하되, 센서 데이터를 이용하여 이벤트 발생의 결과에 대한 신뢰성 및 정확성을 높여 신속하게 외부에 이벤트 발생에 따른 경고를 할 수 있어 보안성이 향상되도록 하는 효과가 있다.The present invention combines video object recognition technology and sensor network technology to recognize intelligent video objects for event situations such as intruder monitoring or fire occurrence, but uses the sensor data to provide reliable and accurate results of event occurrence. By raising the value, the user can be alerted by the occurrence of an event to the outside, thereby improving security.

도1은 본 발명에 적용되는 이미지 센싱 에이전트 및 USN 복합형 보안 시스템의 전체 구성도
도2는 본 발명에 적용되는 이미지 센싱 에이전트 및 USN 복합형 보안 시스템의 영상 인식과정을 도시한 흐름도
1 is an overall configuration diagram of an image sensing agent and a USN hybrid security system applied to the present invention.
2 is a flowchart illustrating an image recognition process of an image sensing agent and a USN hybrid security system applied to the present invention.

이하, 도면을 참조하여 본 발명에 적용되는 이미지 센싱 에이전트 및 USN 복합형 보안 시스템에 대하여 상세히 설명한다.Hereinafter, an image sensing agent and a USN hybrid security system applied to the present invention will be described in detail with reference to the accompanying drawings.

도1은 본 발명에 적용되는 이미지 센싱 에이전트 및 USN 복합형 보안 시스템의 전체 구성도이고, 도2는 본 발명에 적용되는 이미지 센싱 에이전트 및 USN 복합형 보안 시스템 영상 인식과정을 도시한 흐름도이다.1 is an overall configuration diagram of an image sensing agent and a USN hybrid security system applied to the present invention, and FIG. 2 is a flowchart illustrating an image recognition process of the image sensing agent and the USN hybrid security system applied to the present invention.

도시된 바와 같이 이벤트 발생 지역에 설치된 감시 카메라(10)를 통해 촬영된 영상신호 및 센서 노드(20)를 통해 감지된 감지신호는 데이터 전송수단(30)을 통해 영상 인식서버시스템부(40)로 전송되고, 상기 영상 인식 서버시스템부(40)는 화재 또는 연기 검출 등의 이벤트 상황을 판단하는 객체 인식 알고리즘을 구동하여 각각의 영상 분석데이터와 센서 데이터를 조합하여 이벤트 상황에 대해 실시간으로 신뢰성 있는 결과 값을 출력할 수 있도록 구성한다.As shown, the image signal captured by the surveillance camera 10 installed in the event generation area and the detection signal detected through the sensor node 20 is transferred to the image recognition server system unit 40 through the data transmission means 30. The image recognition server system unit 40 transmits an object recognition algorithm that determines an event situation such as a fire or smoke detection, and combines each image analysis data and sensor data to provide a reliable result in real time for the event situation. Configure to output the value.

상기 감시 카메라(10)는 CCTV(Closed Circuit Television) 카메라를 이용해 각각 정해진 이벤트 발생 지역에 설치하여 촬영한 영상신호를 데이터 전송수단(30)으로 전송하고, 제어신호에 따라 팬(Pan), 틸트(Tilt), 줌(Zoom) 기능이 구현되는 PTZ 프로그램을 사용하여 설치된 지역의 영상을 촬영할 수 있도록 한다.The surveillance camera 10 transmits a video signal photographed by installing in a predetermined event occurrence area to a data transmission means 30 using a closed circuit television (CCTV) camera, and pans and tilts according to a control signal. Tilt) and Zoom function can be used to capture the image of the installed area using a PTZ program.

상기 센서 노드(20)는 USN 센서를 이용해 각각 정해진 이벤트 발생 지역에 설치하여 감지된 감지신호를 데이터 전송수단(30)으로 전송하는데, 상호간의 무선통신을 위한 네트워크를 적용하여 각 센서 노드(20)를 감지하고 서로 효율적으로 컴퓨팅 작용을 할 수 있도록 한 것으로, 각 이벤트 발생 지역에서 발생 가능한 다양한 형태의 온도값, 습도값, 압력값 등을 감지할 수 있도록 한다.The sensor node 20 is installed in each event generating area using a USN sensor, and transmits the sensed signals to the data transmission means 30. Each sensor node 20 applies a network for wireless communication with each other. It is designed to detect and efficiently compute with each other, and to detect various types of temperature, humidity, and pressure values that can occur in each event area.

상기 데이터 전송수단(30)은 감시 카메라(10)로부터 전송된 아날로그 영상신호를 인코딩하여 디지털 영상으로 변환하여 영상 인식 서버시스템부(40)로 전송하고, 센서 노드(20)로부터 전송된 아날로그 감지신호를 인코딩하여 디지털 신호로 변환하여 영상 인식 서버시스템부로(40) 전송한다.The data transmission means 30 encodes an analog video signal transmitted from the surveillance camera 10, converts the analog video signal into a digital video, and transmits the converted video signal to the image recognition server system 40, and the analog detection signal transmitted from the sensor node 20. Converts the signal into a digital signal and transmits the converted data to the image recognition server system 40.

상기 영상 인식 서버시스템부(40)는 접속부(41), 시스템 운영부(42), 모니터링 제공부(43), 센서 데이터 처리부(44), 영상 인식 처리부(45), 이벤트 상황 탐지부(46), 데이터베이스 관리부(47) 및 데이터베이스 저장부(48)로 이루어지고, 많은 용량을 필요로 하는 경우 별도의 애플리케이션서버를 이용할 수 있도록 한다.The image recognition server system unit 40 may include a connection unit 41, a system operating unit 42, a monitoring provider 43, a sensor data processor 44, an image recognition processor 45, an event situation detector 46, It consists of a database management unit 47 and a database storage unit 48, so that when a large capacity is required to use a separate application server.

상기 접속부(41)는 인터넷으로 세션이 형성된 데이터 전송수단(30)으로부터 촬영된 영상 데이터와 감지된 센서 데이터 및 명령어 신호를 송·수신할 수 있도록 하고, 상기 전송된 영상 데이터를 관제센터(50)로 전송하여 실시간 모니터링이 이루어질 수 있도록 한다.The connection unit 41 may transmit and receive the image data, the sensed sensor data, and the command signal photographed from the data transmission means 30 in which a session is formed over the Internet, and transmit the transmitted image data to the control center 50. To be monitored in real time.

상기 시스템 운영부(42)는 데이터 전송수단(30)에서 전송된 영상정보를 관제 센터(50)에서 실시간으로 모니터링 할 수 있도록 하고, 상기 데이터 전송수단(30)을 통해 전송된 영상 데이터 및 센서 데이터를 수신하면, 센서 데이터 처리부(44) 및 영상 인식 처리부(45)를 구동하여 해당 이벤트 검출 알고리즘을 통한 영상 분석 데이터와 센서의 기설정된 임계값을 이용한 센서 분석 데이터를 조합하여 이벤트 상황 탐지부(46)를 통해 이벤트 발생 여부를 판단할 수 있도록 제어 프로그램과 데이터를 지원한다.The system operator 42 may monitor the image information transmitted from the data transmission means 30 in real time in the control center 50, and the image data and sensor data transmitted through the data transmission means 30. Upon reception, the sensor data processor 44 and the image recognition processor 45 are driven to combine the image analysis data through the corresponding event detection algorithm with the sensor analysis data using a predetermined threshold value of the sensor to detect the event situation 46. Supports the control program and data to determine whether an event has occurred.

상기 모니터링 제공부(43)는 시스템 운영부(42)의 제어신호를 인가받아 실행되어 데이터 전송수단(30)을 통해 전송된 영상 데이터를 관제센터(50)로 스트리밍(streaming)하여 실시간 모니터링이 이루어질 수 있도록 지원한다.The monitoring provider 43 may be executed by receiving a control signal from the system operator 42 to stream the image data transmitted through the data transmission means 30 to the control center 50 to perform real time monitoring. To help.

상기 센서 데이터 처리부(44)는 이벤트 발생 지역에 설치된 센서 노드(20)로부터 전송된 센서 데이터를 통해 이벤트 발생 여부를 판단할 수 있도록 소프트웨어적으로 구현한 것으로, 상기 센서 노드(20)를 통해 감지된 센서 데이터가 수신되면, 센서정보 데이터베이스부(48b)에 저장된 해당 센서에 대한 임계값 정보를 추출하고, 상기 수신된 센서 정보값이 기설정된 해당 센서의 임계값을 경과하는 지를 판단한 후, 경과하는 경우 이벤트 발생 여부에 대한 결과값, 즉 이벤트 발생에 대한 경고값인 Treu값을 이벤트 상황 탐지부(47)로 전송한다.The sensor data processor 44 is implemented in software to determine whether an event occurs through sensor data transmitted from the sensor node 20 installed in the event generating region, and is detected through the sensor node 20. When the sensor data is received, the threshold information of the corresponding sensor stored in the sensor information database unit 48b is extracted, and after determining whether the received sensor information value passes the preset threshold of the corresponding sensor, the elapsed time passes. The result value of whether or not an event is generated, that is, a Treu value, which is a warning value of event occurrence, is transmitted to the event situation detection unit 47.

상기 영상 인식 처리부(45)는 이벤트 발생 지역에 설치된 감시 카메라(10)로부터 전송된 영상 데이터를 통해 이벤트 발생 여부를 판단할 수 있도록 하는 이벤트 검출 알고리즘을 소프트웨어적으로 구현한 것으로, 상기 감시 카메라(10)로부터 촬영된 영상 데이터가 수신되면, 영상정보 데이터베이스부(48a)에 저장된 해당 장소의 원본 영상을 추출하여 상기 수신된 영상 데이터와의 RGB 색상정보를 연산과정을 통해 기설정된 임계값을 경과하는 지를 판단한 후, 경과하는 경우 이벤트 발생 여부에 대한 결과값, 즉 이벤트 발생에 대한 경고값인 True값을 이벤트 상황 탐지부(47)로 전송한다.The image recognition processor 45 implements an event detection algorithm in software to determine whether an event occurs through the image data transmitted from the surveillance camera 10 installed in the event generation region. When the captured image data is received, the original image of the corresponding place stored in the image information database unit 48a is extracted, and whether RGB color information with the received image data passes a predetermined threshold through a calculation process. After the determination, the elapsed value of the event, that is, a True value, which is a warning value for the occurrence of the event, is transmitted to the event situation detector 47.

이 때, 연산 모듈에서는 이벤트 상황에 대한 데이터베이스 정보를 이용하여 감시 카메라(10)에서 촬영된 영상을 통해 이벤트 발생 여부에 대한 객체 인식을 수행할 수 있도록 하는데, 상기 감시 카메라(10)를 통해 촬영된 영상에서 시점, 크기, 조명 등에 강인한 특징 벡터들을 추출하여 데이터베이스에 저장된 원본 영상들의 특징 벡터들과 비교하는 방법을 사용하여 객체 인식이 이루어질 수 있도록 한다.In this case, the operation module may perform object recognition on whether an event occurs through the image photographed by the surveillance camera 10 by using the database information on the event situation, which is captured by the surveillance camera 10. Object recognition can be achieved by extracting feature vectors that are robust to view, size, and lighting from images and comparing them with feature vectors of original images stored in a database.

상기 이벤트 상황 탐지부(46)는 센서 데이터 처리부(44)와 영상 인식 처리부(45)를 통해 이벤트 발생에 대한 경고값(True 값)이 각각 출력되는 경우, 즉 AND 논리 연산을 통한 True 값을 발생하게 되면, 이벤트 상황이 발생한 것으로 판단하여 사이렌 등과 같은 소정의 경보음을 출력할 수 있도록 한다.The event situation detector 46 generates a warning value (True value) for event occurrence through the sensor data processor 44 and the image recognition processor 45, that is, generates a True value through an AND logic operation. In this case, it is determined that an event situation occurs so that a predetermined alarm sound such as a siren can be output.

상기 데이터베이스 관리부(47)는 시스템 운영부(42)에서 전송되는 제어신호를 수신하여 데이터베이스 저장수부(48)에 저장되어 있는 데이터를 추출 및 저장할 수 있도록 제어하되, CGI(Common Gateway Interface), ASP(Active Server Pages), PHP(Hypertext Preprocessor) 등의 스크립트를 통해 데이터베이스 저장부(48)에 접근하여 해당 데이터를 추출 및 입력된 데이터를 저장하거나 데이터를 삭제, 처리하는 기능을 제어한다.The database manager 47 controls to extract and store data stored in the database storage unit 48 by receiving a control signal transmitted from the system operating unit 42, but includes a Common Gateway Interface (CGI) and an ASP (Active). Server Pages), PHP (Hypertext Preprocessor) scripts such as access to the database storage unit 48 to control the function to extract the data and to save the input data, or to delete and process the data.

상기 데이터베이스 저장부(48)는 영상정보 데이터베이스부(48a)와 센서정보 데이터베이스부(48b)로 이루어지는데, 상기 영상정보 데이터베이스부(48a)는 이벤트 발생 지역인 감시 카메라(10)가 설치된 장소에 대한 원본 영상정보가 저장되는데, 상기 원본 영상정보에는 영상처리를 통해 객체를 인식하기 위해 필요한 데이터들이 저장되며, 구체적으로는 객체에 대해 미리 등록된 영상 데이터, 영상 특징량 또는 크기, 형태 등의 기타 부가적인 정보들이 소정의 분류체계에 따른 카테고리별로 분류하여 저장되고, 상기 센서정보 데이터베이스부(48b)는 이벤트 발생 지역인 센서 노드(20)가 설치된 장소에 대한 온도값, 습도값, 압력값 등에 대한 임계값을 기설정하여 소정의 분류체계에 따른 카테고리별로 분류하여 저장한다.The database storage unit 48 is composed of an image information database unit 48a and a sensor information database unit 48b. The image information database unit 48a is used for a place where the surveillance camera 10 is installed. Original image information is stored, and data necessary for recognizing an object through image processing is stored in the original image information, and specifically, other data such as image data, image feature amount or size, shape, etc. registered in advance for the object are stored. The information is classified and stored according to a category according to a predetermined classification system, and the sensor information database unit 48b is a threshold for a temperature value, a humidity value, a pressure value, etc. for a place where the sensor node 20 which is an event occurrence area is installed. The value is preset and classified and stored according to a category according to a predetermined classification system.

이상과 같이 본 발명의 일실시예에 의해 구성된 USN 기반의 센서정보를 이용한 영상 인식 보안시스템의 작용에 대하여 설명한다.The operation of the image recognition security system using the USN-based sensor information configured according to an embodiment of the present invention as described above will be described.

이벤트 발생 지역에 설치된 감시 카메라(10)를 통해 촬영된 영상신호 및 센서 노드(20)를 통해 감지된 감지신호는 데이터 전송수단(30)으로 전송되고(S100), 상기 데이터 전송수단(30)은 감시 카메라(10)로부터 전송된 아날로드 영상신호를 디지털 영상신호로 인코딩하고, 센서 노드(20)로부터 전송된 아날로드 감지신호를 인코딩하여 디지털 신호로 변환한 후, 영상 인식 서버시스템부(40)로 전송하는데(S110), 이 때 보안성을 향상시키기 위해 코덱 H.264를 사용하여 압축한 영상 데이터 형태로 전송할 수도 있다.The image signal captured by the surveillance camera 10 installed in the event generation area and the detection signal detected through the sensor node 20 are transmitted to the data transmission means 30 (S100), and the data transmission means 30 After encoding the analog video signal transmitted from the surveillance camera 10 to a digital video signal, and the analog detection signal transmitted from the sensor node 20 is encoded and converted into a digital signal, the image recognition server system unit 40 In this case, it may be transmitted in the form of video data compressed using the codec H.264 to improve security.

이 때, 감시 카메라(10)를 통해 촬영된 영상정보 중 특정한 이벤트 상황, 즉 연기나 불의 발생으로 인한 화재 경보, 출입문의 출입 통제여부, 동적 움직임의 감지여부 등의 이상상태가 발생하는 경우, 영상 인식 서버시스템부(40)로부터 전송된 제어신호에 따라 감시 카메라(10)에 내장된 PTZ 프로그램을 통해 팬(Pan), 틸트(Tilt), 줌(Zoom) 기능이 작동될 수 있도록 구성된다.In this case, when an abnormal condition such as a specific event situation, that is, a fire alarm due to the occurrence of smoke or fire, access control of a door, detection of dynamic movement, or the like occurs among video information captured by the surveillance camera 10, According to the control signal transmitted from the recognition server system unit 40, the Pan, Tilt, and Zoom functions may be operated through a PTZ program embedded in the surveillance camera 10.

상기 영상 인식 서버시스템부(40)는 접속부(41)를 통해 데이터 전송수단(30)으로부터 전송된 영상 데이터 및 센서 데이터를 수신하되, 시스템 운영부(42)는 영상 데이터를 관제센터(50)로 실시간으로 스트리밍 전송하여 실시간 모니터링이 이루어질 수 있도록 하고(S120), 센서 데이터 처리부(44) 및 영상 인식 처리부(45)를 구동하여 센서 데이터 및 영상 데이터에 대한 분석 처리를 통해 이벤트 발생에 대한 판단이 이루어질 수 있도록 제어한다.The image recognition server system unit 40 receives image data and sensor data transmitted from the data transmission means 30 through the connection unit 41, but the system operation unit 42 transmits the image data to the control center 50 in real time. In order to perform real-time monitoring by streaming streaming (S120), the sensor data processor 44 and the image recognition processor 45 are driven to analyze the sensor data and the image data to determine the occurrence of the event can be made. To control.

상기와 같이 이벤트 발생 장소에 설치된 센서 노드(20)로부터 센서 데이터가 수신되면, 센서 데이터 처리부(44)가 구동되어(S130) 센서정보 데이터베이스부(48b)에 저장된 센서의 임계값 정보를 추출하는데(S131), 상기 센서 노드(20)로부터 전송되는 이벤트 발생 장소에서 감지된 감지신호, 즉 상기 센서 노드(20)가 설치된 장소에 대한 온도값, 습도값, 압력값, 농도값 등의 센서 정보와 센서정보 데이터베이스부(48b)로부터 추출된 각 센서 노드(20)에 대한 임계값에 대한 데이터와 비교하여 임계값을 경과하는 센서 데이터값이 존재하는 지를 판단하고(S132), 임계값을 경과하는 센서 데이터값이 존재하는 경우 이벤트의 발생을 알리는 경고값인 트루(True)값을 출력한 후(S133), 이벤트 상황 탐지부(46)로 전송한다.When the sensor data is received from the sensor node 20 installed at the event occurrence location as described above, the sensor data processing unit 44 is driven (S130) to extract the threshold information of the sensor stored in the sensor information database unit 48b ( S131), a sensor signal and a sensor signal such as a temperature value, a humidity value, a pressure value, and a concentration value of a detection signal detected at an event occurrence place transmitted from the sensor node 20, that is, the place where the sensor node 20 is installed. It is determined whether there is a sensor data value that passes the threshold value by comparing with the data about the threshold value for each sensor node 20 extracted from the information database unit 48b (S132), and the sensor data that passes the threshold value. If a value exists, a true value, which is a warning value for notifying occurrence of an event, is output (S133), and then transmitted to the event situation detection unit 46.

또한, 이벤트 발생 장소에 설치된 감시 카메라(10)로부터 영상 데이터가 수신되면, 영상 인식 처리부(45)가 구동되어(S140) 영상정보 데이터베이스부(48a)에 저장된 원본 영상정보를 추출하는데(S141), 상기 감시 카메라(10)로부터 전송되는 이벤트 발생 장소에서 촬영된 영상정보와 영상정보 데이터베이스부(48a)로부터 추출된 원본 영상정보와 비교하여 임계값을 경과하는 지를 판단하고(S142), 임계값을 경과하는 경우 필터링 과정을 거쳐(S143) 이벤트 발생을 알리는 경고값인 트루(True)값을 출력한 후(S144), 이벤트 상황 탐지부(46)로 전송한다.In addition, when image data is received from the surveillance camera 10 installed at the event occurrence place, the image recognition processing unit 45 is driven (S140) to extract the original image information stored in the image information database unit 48a (S141), It is determined whether the threshold value has elapsed by comparing the image information photographed at the event occurrence place transmitted from the surveillance camera 10 with the original image information extracted from the image information database unit 48a (S142), and the threshold value has elapsed. In the case of performing a filtering process (S143), a true value, which is a warning value indicating an event occurrence, is output (S144), and then transmitted to the event situation detection unit 46.

즉, 이벤트 발생 장소에서 화재 발생 등과 같은 이벤트를 감시하는 경우 상기 감시 카메라(10)를 통해 전송된 영상 데이터와 영상정보 데이터베이스부(48a)에 저장된 해당 장소의 원본 영상의 경우 RGB 색상정보를 이용하여 2번의 필터링 과정을 통해 화재 발생에 따른 연기를 인식할 수 있도록 하는데, 상기 첫 번째 필터링 방식으로는 차영상 기법을 이용하여 상기 수신된 연기의 영상 데이터 움직임을 판단한 후, 연기에 대한 임계값을 이용하여 1차적으로 연기를 판단하게 되고, 연기라고 판단이 되면, 두 번째 필터링을 통해 연기의 움직임을 수학적 계산으로 방향을 판단하여 여러 방향으로 움직일 경우에 연기라고 판단한 후, 이벤트 발생을 알리는 경고값을 이벤트 상황 탐지부(46)로 출력한다.That is, in case of monitoring an event such as a fire occurrence at the event occurrence place, the RGB image information is transmitted in the case of the image data transmitted through the surveillance camera 10 and the original image of the corresponding place stored in the image information database unit 48a. Smoke can be recognized through two filtering processes. The first filtering method uses the difference image technique to determine the image data movement of the received smoke, and then uses the threshold value for the smoke. First, the smoke is judged, and when it is determined that the smoke is smoked, the motion of the smoke is determined by mathematical calculation through the second filtering, and when it is moved in various directions, it is determined that the smoke is smoked. The event situation detection unit 46 outputs the result.

상기 이벤트 상황 탐지부(46)는 센서 데이터 처리부(44)와 영상 인식 처리부(45)를 통해 출력된 이벤트 발생에 대한 경고값인 트루(True)값을 각각 수신한 후, AND 논리 연산을 통해 트루(True) 값이 발생하게 되면, 화재 발생 등과 같은 이벤트 상황이 발생한 것으로 판단하여(S150) 사이렌 등과 같은 경보음을 출력하여 이벤트 발생에 따른 경고를 할 수 있도록 한다(S160).The event situation detection unit 46 receives a true value, which is a warning value for the occurrence of an event output through the sensor data processing unit 44 and the image recognition processing unit 45, and then performs a true operation through an AND logic operation. When a value of True occurs, it is determined that an event situation such as a fire has occurred (S150), and an alarm sound such as a siren can be output to alert the user according to the event occurrence (S160).

이상과 같이 본 발명은 감시 카메라(10)를 통해 촬영된 영상을 통해 객체에 대한 영상 분석을 하는 영상 객체 인식기술과 센서 노드(20)들을 이용하여 객체를 탐지하는 센서기술을 결합하여 이벤트 발생에 대한 신뢰성과 정확성이 향상된 결과값을 출력할 수 있도록 한 것으로, 이상에서 설명한 본 발명은, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 있어 본 발명의 기술적 사상을 벗어나지 않는 범위내에서 여러 가지 치환, 변형 및 변경이 가능하므로 전술한 실시례 및 첨부된 도면에 한정되는 것이 아니다.As described above, the present invention combines an image object recognition technique for analyzing an object through an image captured by the surveillance camera 10 and a sensor technique for detecting an object using the sensor nodes 20 to generate an event. In order to output a result of improved reliability and accuracy with respect to the present invention, the present invention described above is not limited to those skilled in the art without departing from the spirit of the present invention. Since it is possible to substitute, modify, and change the branch, it is not limited to the above-described embodiment and the accompanying drawings.

10. 감시 카메라 20. 센서 노드
30. 데이터 전송수단 40. 영상 인식 서버시스템부
41. 접속부 42. 시스템 운영부
43. 모니터링 제공부 44. 센서 데이터 처리부
45. 영상 인식 처리부 46. 이벤트 상황 탐지부
47. 데이터베이스 관리부 48. 데이터베이스 저장부
48a. 영상정보 데이터베이스부 48b. 센서정보 데이터베이스부
50. 관제센터
10. Surveillance Camera 20. Sensor Node
30. Data transmission means 40. Image recognition server system unit
41. Connection 42. System Operation
43. Monitoring provider 44. Sensor data processor
45. Image recognition processor 46. Event situation detector
47. Database Manager 48. Database Store
48a. Image Information Database 48b. Sensor Information Database
50. Control Center

Claims (4)

이벤트 발생 지역에 설치되어 촬영한 영상신호를 데이터 전송수단(30)으로 출력하는 감시 카메라(10);
이벤트 발생 지역에 설치되어 감지한 감지신호를 데이터 전송수단(30)으로 출력하는 센서 노드(20);
상기 감시 카메라(10)로부터 전송된 영상신호와 상기 센서 노드(20)로부터 전송된 감지신호를 디지털 신호로 변환하여 영상 인식 서버시스템부(40)로 전송하는 데이터 전송수단(30);
상기 데이터 전송수단(30)으로부터 전송된 영상 데이터 및 센서 데이터를 분석하여 이벤트 발생 여부를 판단하는 영상 인식 서버시스템부(40);로 구성되는 이미지 센싱 에이전트 및 USN 복합형 보안 시스템에 있어서,
상기 영상 인식 서버시스템부(40)는 전송된 영상 데이터 및 센서 데이터를 수신하는 접속부(41);
상기 영상 데이터를 관제센터(50)로 스트리밍하여 실시간 모니터링이 이루어질 수 있도록 제어하는 시스템 운영부(42);
상기 시스템 운영부(42)의 제어에 의해 영상 데이터를 관제센터(50)에서 실시간으로 모니터링할 수 있는 모니터링 제공부(43);
이벤트 상황이 발생한 것으로 판단될 경우 소정의 경보음을 출력하는 이벤트 상황 탐지부(46);
이벤트 발생 지역의 원본 영상데이터 및 센서 데이터를 저장하는 데이터베이스 저장부(48);
상기 데이터베이스 저장부(48)에 저장된 데이터를 추출하거나 저장하기 위한 데이터베이스 관리부(47);로 구성하되,
상기 센서 노드(20)로부터 전송된 센서 데이터와 데이터베이스 저장부(48)에 저장된 해당 센서에 대한 임계값 정보를 비교하여 이벤트 발생 여부를 판단하여 결과값을 이벤트 상황 탐지부(46)로 전송하는 센서 데이터 처리부(44);
상기 감시 카메라(10)로부터 촬영된 영상 데이터와 데이터베이스 저장부(48)에 저장된 해당 장소의 원본 영상을 비교하여 이벤트 발생 여부를 판단하여 결과값을 이벤트 상황 탐지부(46)로 전송하는 영상 인식 처리부(45);로 구성되는 것을 특징으로 하는 이미지 센싱 에이전트 및 USN 복합형 보안 시스템.
A surveillance camera 10 installed at an event occurrence area and outputting the captured image signal to the data transmission means 30;
A sensor node 20 installed at an event occurrence area and outputting a detected signal to the data transmission means 30;
Data transmission means (30) for converting an image signal transmitted from the surveillance camera (10) and a detection signal transmitted from the sensor node (20) into a digital signal and transmitting the digital signal to an image recognition server system unit (40);
In the image sensing agent and USN complex security system consisting of; image recognition server system unit 40 for analyzing the image data and sensor data transmitted from the data transmission means 30 to determine whether an event occurs,
The image recognition server system unit 40 includes a connection unit 41 for receiving the transmitted image data and sensor data;
A system operator 42 controlling the video data to be streamed to the control center 50 so that real-time monitoring can be performed;
A monitoring provider 43 capable of monitoring image data in real time in the control center 50 under the control of the system operator 42;
An event situation detector 46 outputting a predetermined alarm sound when it is determined that an event situation occurs;
A database storage unit 48 for storing original image data and sensor data of an event occurrence area;
Database management unit 47 for extracting or storing the data stored in the database storage unit 48;
A sensor for comparing the sensor data transmitted from the sensor node 20 with the threshold information of the corresponding sensor stored in the database storage unit 48 to determine whether an event has occurred and transmitting the result value to the event situation detection unit 46. A data processor 44;
Image recognition processing unit for comparing the image data taken from the surveillance camera 10 with the original image of the place stored in the database storage unit 48 to determine whether the event occurs, and transmits the result value to the event situation detector 46 (45); Image sensing agent and USN complex security system, characterized in that consisting of.
삭제delete 삭제delete 삭제delete
KR1020100000040A 2010-01-04 2010-01-04 Image sensing agent and security system of USN complex type KR101075550B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100000040A KR101075550B1 (en) 2010-01-04 2010-01-04 Image sensing agent and security system of USN complex type

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100000040A KR101075550B1 (en) 2010-01-04 2010-01-04 Image sensing agent and security system of USN complex type

Publications (2)

Publication Number Publication Date
KR20110079939A KR20110079939A (en) 2011-07-12
KR101075550B1 true KR101075550B1 (en) 2011-10-20

Family

ID=44918968

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100000040A KR101075550B1 (en) 2010-01-04 2010-01-04 Image sensing agent and security system of USN complex type

Country Status (1)

Country Link
KR (1) KR101075550B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102058452B1 (en) * 2019-06-28 2019-12-23 가온플랫폼 주식회사 IoT Convergence Intelligent Video Analysis Platform System

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2782339A3 (en) 2013-03-22 2015-04-15 Center for Integrated Smart Sensors Foundation Video encoding system for dynamically managing energy, rate and distortion and surveillance system using the same
KR101536863B1 (en) * 2014-03-13 2015-07-15 재단법인 다차원 스마트 아이티 융합시스템 연구단 A video encoding system for dynamically managing energy, rate and distortion and monitoring system using the same
CN110348380B (en) * 2019-07-10 2024-01-23 无锡地铁集团有限公司 Visual grounding disconnecting link state video identification system and method
CN112794022B (en) * 2021-01-26 2024-03-12 红云红河烟草(集团)有限责任公司 Cigarette flow monitoring system
KR102620665B1 (en) * 2023-07-31 2024-01-03 주식회사 신아솔루션 CCTV control system
KR102620653B1 (en) * 2023-07-31 2024-01-03 주식회사 신아솔루션 Mobile CCTV

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102058452B1 (en) * 2019-06-28 2019-12-23 가온플랫폼 주식회사 IoT Convergence Intelligent Video Analysis Platform System

Also Published As

Publication number Publication date
KR20110079939A (en) 2011-07-12

Similar Documents

Publication Publication Date Title
KR101075550B1 (en) Image sensing agent and security system of USN complex type
TWI749113B (en) Methods, systems and computer program products for generating alerts in a video surveillance system
EP3002741B1 (en) Method and system for security system tampering detection
CN109040709B (en) Video monitoring method and device, monitoring server and video monitoring system
US9396400B1 (en) Computer-vision based security system using a depth camera
KR101980551B1 (en) System For Detecting An Action Through Real-Time Intelligent CCTV Image Analysis Using Machine Learning Object Detection And Method For Detecting An Action Through Real-Time Intelligent CCTV Image Analysis Using Machine Learning Object Detection
JP2011523106A (en) Image sensor, alarm system and method for classifying objects and events
US20080136934A1 (en) Flame Detecting Method And Device
KR102195706B1 (en) Method and Apparatus for Detecting Intruder
KR101953342B1 (en) Multi-sensor fire detection method and system
KR101467352B1 (en) location based integrated control system
KR101849365B1 (en) Appratus and method for processing image
KR101111493B1 (en) Automatic Fire Recognition and Alarm Systems using Intelligent IP Camera and Method Thereof
KR101521236B1 (en) Monitoring System using thermal imagery
KR101321447B1 (en) Site monitoring method in network, and managing server used therein
US9202283B2 (en) Method and device for detecting falls by image analysis
KR102233679B1 (en) Apparatus and method for detecting invader and fire for energy storage system
KR102299704B1 (en) System for smart deep learning video surveillance by linking disaster environment metadata
KR102580434B1 (en) Dangerous situation detection device and dangerous situation detection method
KR101138212B1 (en) Fire detecting system and method using image recognition and motion sensor
KR20100077662A (en) Inteligent video surveillance system and method thereof
JP4954459B2 (en) Suspicious person detection device
Pudaruth et al. A unified intrusion alert system using motion detection and face recognition
JP2021087031A (en) Information processing device, information processing method, monitoring system, and program
CN117542155A (en) Security monitoring system with recognition function

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee