KR20110073902A - Context cognition surveillance method for multi-sensor and/or node collaboration - Google Patents

Context cognition surveillance method for multi-sensor and/or node collaboration Download PDF

Info

Publication number
KR20110073902A
KR20110073902A KR1020090130706A KR20090130706A KR20110073902A KR 20110073902 A KR20110073902 A KR 20110073902A KR 1020090130706 A KR1020090130706 A KR 1020090130706A KR 20090130706 A KR20090130706 A KR 20090130706A KR 20110073902 A KR20110073902 A KR 20110073902A
Authority
KR
South Korea
Prior art keywords
sensor
monitoring
node
information
situation
Prior art date
Application number
KR1020090130706A
Other languages
Korean (ko)
Other versions
KR101100419B1 (en
Inventor
김주성
김태완
김희철
Original Assignee
대구대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 대구대학교 산학협력단 filed Critical 대구대학교 산학협력단
Priority to KR1020090130706A priority Critical patent/KR101100419B1/en
Publication of KR20110073902A publication Critical patent/KR20110073902A/en
Application granted granted Critical
Publication of KR101100419B1 publication Critical patent/KR101100419B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B23/00Alarms responsive to unspecified undesired or abnormal conditions

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Abstract

PURPOSE: A sensor node state recognizing unmanned monitoring method for a multi sensor is provided to transmit minimum sensor node state information by improving an unmanned monitoring system. CONSTITUTION: An object type by sensor data collection of a multi sensor is determined(S1). State recognition information is formed for tracing a mobile object by collaboration of a neighbor monitoring node(S2). An abnormal behavior pattern of an object is extracted about an interest region. State recognizing information of the monitoring node is spread to the neighbor monitoring node(S4).

Description

다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법{Context cognition surveillance method for multi-sensor and/or node collaboration}Context cognition surveillance method for multi-sensor and / or node collaboration}

본 발명은 센서노드 무인감시방법에 관한 것으로서 더욱 상세하게는 센서노드가 가져야 할 저전력 특성과 자율학습 기능화 영상 및 음향을 비롯한 다중센서(진동, 적외선, 레이더, 자기장, 온도, 습도, 조도 등)들로부터 수집된 정보를 융합하고 이벤트 발생을 스스로 인지하는 상황인지 엔진을 탑재하여 다중센서 융합을 통해 수집한 환경정보를 이용을 통해 무인감시 객체들의 정적 인지와 함께 센서노드간의 협업 및 융합에 의한 이동 객체의 공간적 및 시간적 변화를 인지하여 현재 상황을 추론하고 미래 상황을 예측함으로써 현시점 기반의 상황대처 능력을 통해 보다 능동적인 상황인지 무인감시 서비스를 제공하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법에 관한 것이다.The present invention relates to a sensor node unattended monitoring method, and more specifically, to multiple sensors (vibration, infrared, radar, magnetic field, temperature, humidity, illuminance, etc.) including low power characteristics and self-learning functionalized images and sounds that a sensor node should have. It is a situational engine that fuses the information collected from the system and recognizes the occurrence of events by itself, and uses the environmental information collected through the multi-sensor fusion, and by using the environmental information collected through the multi-sensor fusion, the moving object by the collaboration and fusion between sensor nodes with the static recognition of the unmanned monitoring objects. Sensor node situation or unmanned monitoring for multi-sensor and node collaboration that provides more active situation or unmanned surveillance service through current-based situation response capability by inferring current situation and predicting future situation by recognizing spatial and temporal change It is about a method.

종래의 무인감시 센서노드로는 특허 제874499호의 "영상 획득 가능 센서 네트워크 노드 및 이를 이용한 영상획득 및 전송 방법"이 특허등록공보에 게시되어 있다.A conventional unmanned monitoring sensor node is disclosed in Patent Registration No. 874499, "Image acquisition capable sensor network node and image acquisition and transmission method using the same".

상기 특허 제874499호의 "영상 획득 가능 센서 네트워크 노드 및 이를 이용 한 영상획득 및 전송 방법"은 적외선 센서 등으로 객체 감지 후 센서 감지 변화에 따라 카메라 모듈에 촬영명령을 전달하고 무선송수신 모듈을 통하여 원격의 중앙수집 장치로 감지 데이터를 전송방식으로 센서와 카메라에 사각지대 발생시 객체 탐지가 불가능한 경우가 발생할 수 있으며, 광대역 적용시에 천문학적인 설치 및 유지관리비가 소요되는 결점이 있다.Patent No. 844499, "Image Acquisition Sensor Network Node and Image Acquisition and Transmission Method Using Them", uses an infrared sensor and the like to transmit a photographing command to a camera module according to a sensor detection change, and remotely via a wireless transmission / reception module. It is possible to detect objects when blind spots occur in the sensor and camera by transmitting sensing data to the central collection device, and there is a defect that requires astronomical installation and maintenance costs when applying broadband.

또한 상기 종래의 무인감시 시스템에서는 감시데이터를 서버가 센서노드들로부터 수집하여 상태를 분석하고, 분석된 결과로부터 적정한 상황 수준을 판단하여 경보 조치를 경보노드로 재송신하는 양방향 이중화된 감시 체계이다.In the conventional unmanned surveillance system, the monitoring data is collected from the sensor nodes by the server to analyze the status, and the appropriate situation level is determined from the analyzed result to re-send the alarm action to the alarm node.

이러한 서버 중심의 양방향 감시 체계는 USN 기반 무인감시 네트워크에서 과도한 통신량과 통신병목 현상을 발생할 수 있으며, 많은 센서노드로부터 상황 데이터를 전송될 때 네트워크 장애가 발생될 가능성도 존재할 뿐만 아니라 주기/비주기 센서데이터 전송을 위한 과도한 전력소모, 과도한 통신량에 의한 처리량( throughput)이 저하될 수 있으므로 이를 개선하기 위한 대역폭 증대 구축 비용의 증대를 초래하게 되어 고비용 및 고난도 설계가 요구되는 실정이다.This server-oriented bidirectional monitoring system can cause excessive traffic and communication bottlenecks in the USN-based unmanned surveillance network, and there is a possibility of network failure when transmitting situation data from many sensor nodes, as well as periodic / aperiodic sensor data. Since excessive power consumption for transmission and throughput may be reduced due to excessive communication, an increase in bandwidth and construction cost is required to improve this situation, requiring high cost and high difficulty design.

한편, 무선센서네트워크는 수많은 센서노드가 협동하여 동작하는 네트워크이며, 특정 센서노드가 전체 네트워크에 미치는 영향은 최소화해야 하는 특성이 있다. 하지만, 서버 중심의 무인감시 네트워크는 서버의 불안정이 전체 네트워크에 막대한 영향을 초래할 수 있으며, 무선센서네트워크의 특성을 반영하기 어려우며 응용서비스 구현에도 용이하지 못한 문제점이 있다.On the other hand, the wireless sensor network is a network in which a large number of sensor nodes operate in cooperation, and the effect of a specific sensor node on the entire network has to be minimized. However, in the server-centric unmanned surveillance network, server instability can cause a huge impact on the entire network, it is difficult to reflect the characteristics of the wireless sensor network and there is a problem that is not easy to implement the application service.

따라서 본 발명의 발명자들은 협업 무인감시 네트워크 구성을 위해 센서 노 드는 객체의 이동을 감지하기 위해서 임의의 임계치를 설정하고 임계치 이상이 되면 객체를 감지하게 되고 감지 정보를 이웃노드에게 전파하며, 이웃노드들은 수신된 정보와 패턴테이블을 이용하여 객체의 경로를 예측하고 자신쪽으로 객체의 이동이 예측되어지게 되면 임계값을 조정하여 물체의 감지 확률을 높여 물체를 감지하지 못하는 비율(missing-rate)을 최소화하는 무선 네트워크 기반 협력적으로 객체를 추적할 수 있는 점에 착안하여 연구를 거듭한 결과 분 발명을 완성하였다.Therefore, the inventors of the present invention set an arbitrary threshold value for detecting the movement of an object for configuring a collaborative unmanned surveillance network, and detects the object when the threshold value is over the threshold and propagates the sensing information to the neighbor node. Using the received information and the pattern table, the path of the object is predicted, and if the movement of the object is predicted toward itself, the threshold is adjusted to increase the detection probability of the object, thereby minimizing the missing-rate. Based on the fact that the wireless network-based collaborative object tracking can be done, the research has been completed.

본 발명은 상기한 실정을 감안하여 종래 무인감시 시스템에서 야기되는 여러 가지 결점 및 문제점들을 해결하고자 발명한 것으로서, 그 목적은 기존의 이종 센서 정보의 단순 융합 객체 상황정보를 센서노드 중심의 다중센서 및 협업 기반의 객체 상황정보로 개선하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법을 제공함에 있다.The present invention has been made in view of the above-mentioned situation to solve various defects and problems caused in the conventional unmanned surveillance system, the object of which is to provide a simple sensor object-oriented multi-sensor and fusion object situation information of the existing heterogeneous sensor information; It provides a sensor node context awareness unattended monitoring method for multi-sensor and node collaboration that improves with collaboration-based object context information.

본 발명의 다른 목적은 무인감시 센서노드의 상황인지 정보를 최소화하기 위해 다중센서를 기반으로 단계별 센서 데이터 수집으로 객체의 유형과 상황을 판단 할 수 있도록 자가 진단 및 적응적 센서 파라미터를 튜닝하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법을 제공하는 데 있다.Another object of the present invention is a multi-sensor to tune the self-diagnostic and adaptive sensor parameters to determine the type and situation of the object by the step-by-step sensor data collection based on the multi-sensor to minimize the situational awareness information of the unmanned sensor node And it provides a sensor node situation awareness unattended monitoring method for node collaboration.

본 발명의 또 다른 목적은 종래의 서버 중심의 이중화된 무인감시 체계를 센서노드 중심의 단일화된 무인감시 체계로 개선하여 최소의 센서노드 상황정보만 서버로 전송하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법을 제공하는 데 있다.Another object of the present invention is to improve the conventional server-centered redundant unmanned surveillance system to a sensor node-based unmanned unmanned surveillance system to transmit the minimum sensor node status information to the server sensor node for multi-sensor and node collaboration It is to provide an unattended monitoring method for situations.

본 발명의 또 다른 목적은 무인감시 센서노드의 다중센서에 의한 객체 유형과 상황 판단, 센서노드 협업에 의한 공간적 및 시간적 상황인지, 최소한의 상황정보의 이웃노드 전파 및 서버 전송을 통해 단일화된 무인감시 체계를 구축할 수 있는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법을 제공하는 데 있다.It is still another object of the present invention to unify the unmanned surveillance by unifying the object type and situation by multiple sensors of the sensor node, spatial and temporal situation by the sensor node collaboration, neighbor node propagation and server transmission of minimal situation information It is to provide a sensor node context-aware unmanned monitoring method for multi-sensor and node collaboration to build a system.

상기한 목적을 달성하기 위한 본 발명 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법은 다중센서의 단계별 센서 데이터 수집에 의한 객체 유형 및 상황을 판단하는 객체 유형 및 상황 판단단계(S1)와; 이웃 감시노드와의 협업에 의해 이동 객체의 연속 추적을 위한 상황인지 정보를 형성하는 상황인지 정보 형성단계(S2)와; 영상센서 탑재 감시노드의 영상정보 처리시 관심영역에 대한 집중적 동작과 객체의 이상 행동 패턴을 추출하는 패턴 추출단계(S3)와; 감시노드의 상황인지 정보를 이웃 감시노드로 전파하는 상황인지 정보 전파단계(S4) 및; 감시서버에 무선 센서네트워크 라우팅 경로에 따라 상황인지 정보를 전송하는 정보 전송단계(S5)로 이루어지는 것을 특징으로 한다.In order to achieve the above object, the present invention provides a sensor node context-aware unattended monitoring method for multi-sensor and node collaboration. ; A situation information forming step (S2) of forming situation or information for continuous tracking of a moving object by cooperation with a neighbor monitoring node; A pattern extraction step (S3) of extracting an intensive action on an ROI and an abnormal behavior pattern of an object when processing image information of a monitoring node equipped with an image sensor; A situation propagation information propagation step (S4) of propagating information on the status of the monitoring node to the neighboring monitoring node; Characterized in that it comprises the information transmission step (S5) for transmitting the situation awareness information according to the wireless sensor network routing path to the monitoring server.

본 발명은 기존의 이종 센서 정보의 단순 융합 객체 상황정보를 센서노드 중심의 다중센서 및 협업 기반의 객체 상황정보로 개선할 수 있고, 무인감시 센서노드의 상황인지 정보를 최소화하기 위해 다중센서를 기반으로 단계별 센서 데이터 수집으로 객체의 유형과 상황을 판단 할 수 있도록 자가 진단 및 적응적 센서 파라미터를 튜닝할 수 있을 뿐만 아니라 종래의 서버 중심의 이중화된 무인감시 체계를 센서노드 중심의 단일화된 무인감시 체계로 개선하여 최소의 센서노드 상황정보만 서버로 전송할 수 있는 각별한 장점이 있다.The present invention can improve the simple fusion object context information of heterogeneous sensor information into multi-sensor and sensor-based object context information centered on sensor nodes, and based on multi-sensors to minimize context awareness information of unmanned sensor nodes. In addition to tuning the self-diagnostic and adaptive sensor parameters to determine the type and situation of the object by the step-by-step sensor data collection, the sensor-centered unmanned unmanned surveillance system can be applied to the conventional server-oriented redundant unmanned surveillance system. As a result, it is possible to transmit only the minimum sensor node status information to the server.

이하, 첨부 도면을 참조하여 본 발명 다중센서 및 노드 협업을 위한 센서노 드 상황인지 무인감시방법을 바람직한 실시예로 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the sensor node situation awareness unmanned monitoring method for multi-sensor and node collaboration.

도 1은 본 발명 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법의 실행 순서도, 도 2는 본 발명에 따른 1차 센서 데이터 수집단계의 실행 순서도, 도 3은 본 발명에 따른 2차 센서 데이터 수집단계의 실행 순서도, 도 4는 본 발명에 따른 상황인지 정보 형성단계의 실행 순서도, 도 5는 영상센서 탐재 감시노드의 관심지역 자동 포커싱 동작의 순서도, 도 6은 본 발명에 따른 다중센서 및 협업을 위한 상황인지 무인감시 시스템의 구성도로서, 본 발명 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법은 다중센서의 단계별 센서 데이터 수집에 의한 객체 유형 및 상황을 판단하는 객체 유형 및 상황 판단단계(S1)와; 이웃 감시노드와의 협업에 의해 이동 객체의 연속 추적을 위한 상황인지 정보를 형성하는 상황인지 정보 형성단계(S2)와; 영상센서 탑재 감시노드의 영상정보 처리시 관심영역에 대한 집중적 동작과 객체의 이상 행동 패턴을 추출하는 패턴 추출단계(S3)와; 감시노드의 상황인지 정보를 이웃 감시노드로 전파하는 상황인지 정보 전파단계(S4) 및; 감시서버에 무선 센서네트워크 라우팅 경로에 따라 상황인지 정보를 전송하는 정보 전송단계(S5)로 이루어진다.1 is a flowchart illustrating an unmanned monitoring method of a sensor node situation for the multi-sensor and node collaboration according to the present invention, FIG. 2 is a flowchart illustrating the execution of a primary sensor data collection step according to the present invention, and FIG. 3 is a secondary sensor according to the present invention. 4 is a flow chart of the data acquisition step, Figure 4 is a flow chart of the situation information forming step according to the present invention, Figure 5 is a flow chart of the automatic focusing operation of the region of interest of the image sensor detection monitoring node, Figure 6 is a multi-sensor and As a schematic diagram of a situation or unmanned surveillance system for collaboration, the present invention provides a sensor node situation awareness unattended monitoring method for multi-sensor and node collaboration. Determination step S1; A situation information forming step (S2) of forming situation or information for continuous tracking of a moving object by cooperation with a neighbor monitoring node; A pattern extraction step (S3) of extracting an intensive action on an ROI and an abnormal behavior pattern of an object when processing image information of a monitoring node equipped with an image sensor; A situation propagation information propagation step (S4) of propagating information on the status of the monitoring node to the neighboring monitoring node; An information transmission step (S5) is performed to transmit the situation awareness information according to the wireless sensor network routing path to the monitoring server.

상기 객체 유형 및 상황 판단단계(S1)는 1차와 2차의 2단계의 센서 데이터 수집단계로 센서 데이터를 수집하는 것이다.The object type and situation determination step (S1) is to collect sensor data in the sensor data collection step of the first and second stages.

상기 1차 센서 데이터 수집단계는 센서가 데이터를 수집하는 단계(S11, S11'단계)와; 주파수 변환단계(S12단계)와; 표준음향 주파수 패턴과 일치여부 판단단계(S13단계)와; 특정값 부여단계(S14, S14'단계) 및; 감시레벨 판단로직으로 객체 의 유형과 상황을 판단하는 상황판단단계(S15)로 이루어져 있다.The primary sensor data collection step includes a step of collecting data by a sensor (steps S11 and S11 '); A frequency conversion step (step S12); Determining whether or not the standard acoustic frequency pattern is matched (step S13); Giving a specific value (steps S14, S14 '); The monitoring level judgment logic consists of a situation determination step (S15) of determining the type and situation of the object.

또한 상기 2차 센서 데이터 수집단계는 센서가 데이터를 수집하는 단계(S21-1 ∼ S21-7단계)와; 수집된 데이터에 특정값을 부여하는 특정값 부여단계(S22-1 ∼ S22-7단계)와; 감시레벨 판단로직을 적용하는 감시레벨 판단로직 채용단계(S23단계)와; 감시수준을 판단하는 감시수준 판단단계(S24단계) 및; 데이터 송신단계(S25, S25', S25"단계)로 이루어져 있다.In addition, the secondary sensor data collection step includes the step of collecting data by the sensor (steps S21-1 to S21-7); A specific value assigning step (S22-1 to S22-7) for giving a specific value to the collected data; A monitoring level decision logic hiring step (S23 step) of applying the monitoring level decision logic; A monitoring level determining step of determining a monitoring level (step S24); Data transmission steps (S25, S25 ', S25 "steps).

상기 상황인지 정보 형성단계(S2)는 음향센서, 진동센서, 영상센서, 온도/습도/조도 센서노드의 동작으로 수집되는 감시수준을 이웃하는 감시노드에서 수집되는 감시수준과 비교하는 감시수준 판단단계(31)와; 감시수준 판단단계(S31단계)의 판단 결과에 따라 특정값을 부여하는 특정값 부여단계(S32, S32')와; 상기 감시수준 판단단계(S31)에서 감시수준 X = 4 가 얻어지면, 감시수준을 이웃 감시노드로 송신하는 송신단계(S33단계) 및; 카메라를 작동시키는 카메라 작동단계(S34단계) 및; 온도/습도/조도를 측정하는 온도, 습도, 조도 측정단계(S35단계)로 이루어져 있다.The situation-aware information forming step (S2) is a monitoring level determination step of comparing the monitoring level collected by the operation of the acoustic sensor, vibration sensor, image sensor, temperature / humidity / illumination sensor node with the monitoring level collected from the neighboring monitoring node. (31); A specific value assigning step (S32, S32 ') for assigning a specific value according to the determination result of the monitoring level determining step (S31 step); A transmission step (step S33) of transmitting the monitoring level to a neighboring monitoring node when the monitoring level X = 4 is obtained in the monitoring level determining step (S31); A camera operating step of operating the camera (step S34); Consists of temperature, humidity, roughness measuring step (S35 step) for measuring the temperature / humidity / roughness.

그리고 상기 패턴 추출단계(S3)는 감시노드 동작단계(S41단계)와; 좌표정보 수신단계(S42단계)와; 영상센서 작동단계(S43단계)와; 이상행동 패턴단계(S44단계)와; 감시서버, 집중감시노드 위치좌표 수신단계(S45단계)와; 영상센서 포커싱단계(S46단계)로 이루어져 있다.And the pattern extraction step (S3) comprises a monitoring node operation step (step S41); Coordinate information receiving step (step S42); Image sensor operation step (step S43); Abnormal behavior pattern step (step S44); Monitoring server, centralized monitoring node position coordinate receiving step (step S45); Image sensor focusing step (step S46).

다음에 상기한 바와 같이 이루어지는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법의 작용을 상세하게 설명한다.Next, the operation of the sensor node context awareness unattended monitoring method for multi-sensor and node collaboration made as described above will be described in detail.

다중센서의 단계별 센서 데이터 수집에 의한 객체 유형 및 상황을 판단하기 위하여 감시노드는 도 2와 도 3과 같이 1단계와 2단계로 센서 데이터를 수집하고, 표 1에 나타낸 바와 같이 감시모드 설정에 따라 센서 바이트(Byte)를 구성한다. 특히 무인감시 모드의 경우 표 2와 같이 감시수준 레벨에 따라 객체의 유형과 상황을 판단한다.In order to determine the object type and the situation by the sensor data collection step by step of the multi-sensor, the monitoring node collects the sensor data in steps 1 and 2 as shown in Figs. 2 and 3, and according to the monitoring mode setting as shown in Table 1 Configure the sensor byte. Especially in unattended monitoring mode, type and situation of object is determined according to monitoring level as shown in Table 2.

이웃 감시노드와의 협업에 의해 이동 객체의 연속 추적을 위한 상황인지 정보를 형성하기 위하여 표 2와 같이 현재의 감시노드의 감시 수준을 이웃 감시노드의 감시 수준이 X = 4 가 될 때까지 감시노드는 동작을 반복하게 된다. 현재의 감시노드가 감시수준 X = 5 는 영상센서(카메라)를 탑재된 경우로 카메라를 작동하고, X = 6 은 온도/습도/조도 센서를 탑재한 경우로 온도, 습도, 조도를 측정하게 된다.In order to form situational awareness information for continuous tracking of moving objects by collaboration with neighboring monitoring nodes, the monitoring level of the current monitoring node is monitored until the monitoring level of neighboring monitoring node becomes X = 4 as shown in Table 2. Will repeat the operation. The current monitoring node is operated when the monitoring level X = 5 is equipped with an image sensor (camera), and X = 6 is equipped with a temperature / humidity / illuminance sensor to measure temperature, humidity, and illuminance. .

감시모드  Monitoring mode 감시레벨 Monitoring level 센서 Byte                        Sensor Byte 감시내용
Monitoring contents
bit                           bit 8 8 7 7 6 6 5  5 4  4 3  3 2 2 1 One 0 0 00 00 00 00 X X X X X X 영상감시Video surveillance 음향
감지
Acoustic
Detect
진동
감지
vibration
Detect
적외선감지Infrared detection 레이다감지Radar detection 자기장감지Magnetic field sensing 온도 측정Temperature measurement 습도측정Humidity measurement 조도측정Roughness measurement 무인감시Unmanned Surveillance
00 00 00 1One X X X X X X - - 음향
정보
Acoustic
Information
음향
정보
Acoustic
Information
음향
정보
Acoustic
Information
음향
정보
Acoustic
Information
음향
정보
Acoustic
Information
음향
정보
Acoustic
Information
음향정보Sound information 음향정보Sound information 음향Acoustic
00 00 1One 00 X X X X X X - - 진동
정보
vibration
Information
진동
정보
vibration
Information
진동
정보
vibration
Information
진동
정보
vibration
Information
진동
정보
vibration
Information
진동
정보
vibration
Information
진동정보Vibration Information 진동정보Vibration Information 진동vibration
00 00 1One 1One X X X X X X - - 적외선정보Infrared Information 적외선정보Infrared Information 적외선정보Infrared Information 적외선정보Infrared Information 적외선정보Infrared Information 적외선정보Infrared Information 적외선정보Infrared Information 적외선정보Infrared Information 적외선infrared ray 00 1One 00 00 X X X X X X - - 레이다정보Radar Information 레이다정보Radar Information 레이다정보Radar Information 레이다정보Radar Information 레이다정보Radar Information 레이다정보Radar Information 레이다정보Radar Information 레이다정보Radar Information 레이다Radar 00 1One 00 1One X X X X X X - - 자기장정보Magnetic Field Information 자기장정보Magnetic Field Information 자기장정보Magnetic Field Information 자기장정보Magnetic Field Information 자기장정보Magnetic Field Information 자기장정보Magnetic Field Information 자기장정보Magnetic Field Information 자기장정보Magnetic Field Information 자기장magnetic field 00 1One 1One 00 X X X X X X - - 온도정보Temperature Information 온도정보Temperature Information 온도
정보
Temperature
Information
온도
정보
Temperature
Information
온도
정보
Temperature
Information
온도정보Temperature Information 온도정보Temperature Information 온도정보Temperature Information 온도Temperature
00 1One 1One 1One X X X X X X - - 습도정보Humidity Information 습도정보Humidity Information 습도
정보
Humidity
Information
습도
정보
Humidity
Information
습도
정보
Humidity
Information
습도정보Humidity Information 습도정보Humidity Information 습도정보Humidity Information 습도Humidity
1One 00 00 00 X X X X X X - - 조도정보Illuminance Information 조도정보Illuminance Information 조도
정보
Roughness
Information
조도
정보
Roughness
Information
조도
정보
Roughness
Information
조도정보Illuminance Information 조도정보Illuminance Information 조도정보Illuminance Information 조도Roughness
XX XX XX XX X X X X X X - - - - - - - - - - - - - - - - - - - -

영상센서 탑재 감시노드의 영상정보 처리시 관심영역에 대한 집중적 동작과 객체의 이상 행동 패턴 추출하기 위한 방법으로 도 4와 같이 관심 지역 자동 포커싱을 위한 동작으로 영상정보를 수집하고, 표준 객체 행동 패턴 DB와 비교하여 이상행동 패턴이 발생시 영상좌표에 대한 집중감시노드 위치 좌표에 포커싱 동작을 취하고 객체에 대한 이상행동 패턴을 추출하여 연속적으로 객체를 추적하게 된다.As a method for extracting an intensive action on a region of interest and an abnormal behavior pattern of an object when processing image information of a monitoring node equipped with an image sensor, as shown in FIG. 4, the image information is collected and the standard object behavior pattern DB When the abnormal behavior pattern is generated, the focusing operation is performed on the location coordinate of the intensive monitoring node for the image coordinate, and the object is continuously tracked by extracting the abnormal behavior pattern for the object.

감시모드 Monitoring mode 감시레벨 Monitoring level 센서 Byte     Sensor Byte 감시
수준
watch
level
상황판단
Situation judgment
조치
measure
CC AA SS PP RR MM TT HH LL 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 00 이상무   no problem -  - 00 00 00 00 00 00 1One 00 1One 00 00 00 00 00 00 00 1One 감시객체 발생Surveillance Object P.R.M센서 작동P.R.M sensor operation 00 00 00 00 00 00 1One 00 00 1One 00 00 00 00 00 00 1One 감시객체 발생Surveillance Object P.R.M센서 작동P.R.M sensor operation 00 00 00 00 00 1One 00 00 1One 1One 00 00 00 00 00 00 22 감시객체 발생Surveillance Object P.R.M센서 작동P.R.M sensor operation 00 00 00 00 00 1One 1One 00 1One 1One 1One 00 00 00 00 00 33 침입자 감지 Intruder Detection 침입자 확인Intruder Identification 00 00 00 00 00 1One 1One 00 1One 1One 00 1One 00 00 00 00 33 이동체 감지 Moving object detection 이동체 확인Mobile body check 00 00 00 00 00 1One 1One 00 1One 1One 00 00 1One 00 00 00 33 금속체 감지 Metal body detection 금속체확인Metal body check 00 00 00 00 1One 00 00 00 1One 1One 1One 1One 00 00 00 00 44 침입자 이동 발생Intruder Movement Occurs 이웃 감시노드에 전파Propagation to neighbor watchdog 00 00 00 00 1One 00 00 00 00 00 00 1One 1One 00 00 00 44 금속체 이동발생Metal body movement 이웃 감시노드에 전파Propagation to neighbor watchdog 00 00 00 00 1One 00 00 00 00 00 1One 00 1One 00 00 00 33 금속소지자 감시Metal holder surveillance 금속소지자 확인Check for metal holders 00 00 00 00 1One 00 00 00 00 00 1One 1One 1One 00 00 00 44 금속소지 침입자 이동 발생Metallic Intruder Movement 이웃노드에 전파Propagation to neighbor nodes 00 00 00 00 1One 00 1One 1One 00 00 00 00 00 00 00 00 55 영상센서 탑재시 영상 감시Video surveillance with video sensor 카메라 작동Camera operation 00 00 00 00 1One 1One 00 00 00 00 00 00 00 1One 1One 1One 66 온도/습도/조도 센서 탑재시 측정Measured when equipped with temperature / humidity / illuminance sensor 온도/습도/조도 측정Temperature / humidity / illumination measurement

감시노드의 상황인지 정보를 이웃 감시노드로 전파하기 위한 방법은 도 3의 감시노드의 2단계에서 현재 감시노드(100)의 상황인지 정보를 이웃 감지노드로 전파하는 경우와 도 4와 같이 카메라 탑재감시노드(110) 및 온도/습도/조도 센서 탐재(120) 감시노드와 같이 센서동작 후 상황에 따라 이웃 감시노드로 전파하는 경우가 있다.The method for propagating the situation detection information of the monitoring node to the neighbor monitoring node includes the case in which the situation detection information of the current monitoring node 100 is propagated to the neighbor sensing node in step 2 of the monitoring node of FIG. The monitoring node 110 and the temperature / humidity / illumination sensor probe 120 may propagate to neighboring monitoring nodes depending on the situation after the sensor operation.

도 6은 다중센서 및 협업을 위한 상황인지 무인감시 시스템 구성도로서, 도 6에 도시한 바와 같이 감시서버(200)에는 무선 센서네트워크 라우팅 경로에 따라 상황인지 최소 정보만 전송한다. 도 6과 같이 감시노드는 탐재된 센서의 특성에 따라 상황정보를 형성하고, 주변 이웃 감시노드를 통하여 점차 전파하여 최종 감시서버(200)로 단방향 감시체계를 구축할 수 있다.FIG. 6 is a configuration diagram of an unmanned surveillance system for multi-sensor and collaboration. As shown in FIG. 6, only the minimum information on status is transmitted to the monitoring server 200 according to a wireless sensor network routing path. As shown in FIG. 6, the monitoring node forms situation information according to the characteristics of the detected sensor, and gradually propagates through neighboring neighboring monitoring nodes to establish a one-way monitoring system as the final monitoring server 200.

따라서 종래의 서버중심의 무인감시 네트워크에서 서버의 불안정이 전체 네트워크에 막대한 영향을 초래할 수 있는 문제점이 개선되는 노드 중심의 무선네트워크로 구성이 가능하여 응용서비스 구현이 용이 해진다.Therefore, in the conventional server-based unmanned surveillance network, it is possible to configure a node-centric wireless network that can improve the problem that the server instability can cause a huge effect on the entire network, it is easy to implement the application service.

지금까지 본 발명을 바람직한 실시예로서 설명하였으나, 본 발명은 이에 한정되지 않고 발명의 요지를 이탈하지 않는 범위 내에서 다양하게 변형하여 실시할 수 있음은 물론이다.While the present invention has been described as a preferred embodiment, the present invention is not limited thereto, and various modifications can be made without departing from the gist of the invention.

도 1은 본 발명 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법의 실행 순서도,1 is an execution flowchart of a sensor node situation awareness unattended monitoring method for multi-sensor and node cooperation according to the present invention;

도 2는 본 발명에 따른 1차 센서 데이터 수집단계의 실행 순서도,2 is an execution flowchart of the primary sensor data collection step according to the present invention;

도 3은 본 발명에 따른 2차 센서 데이터 수집단계의 실행 순서도,3 is a flow chart of execution of the secondary sensor data collection step according to the present invention,

도 4는 본 발명에 따른 상황인지 정보 형성단계의 실행 순서도,4 is an execution flowchart of the situation information forming step according to the present invention;

도 5는 영상센서 탐재 감시노드의 관심지역 자동 포커싱 동작의 순서도,5 is a flowchart of a region of interest automatic focusing operation of an image sensor detection monitoring node;

도 6은 본 발명에 따른 다중센서 및 협업을 위한 상황인지 무인감시 시스템의 구성도이다.6 is a block diagram of a situation-aware unattended monitoring system for multi-sensor and collaboration according to the present invention.

〈도면의 주요 부분에 대한 부호의 설명〉Description of the Related Art

100 : 감시노드 110 : 카메라 탑재 감시노드100: monitoring node 110: camera-mounted monitoring node

120 : 온도/습도/조도 센서 탑재 감시노드 200 : 감시서버120: monitoring node with temperature / humidity / light sensor 200: monitoring server

300 : 송신기300: transmitter

Claims (6)

다중센서의 단계별 센서 데이터 수집에 의한 객체 유형 및 상황을 판단하는 객체 유형 및 상황 판단단계(S1)와; 이웃 감시노드와의 협업에 의해 이동 객체의 연속 추적을 위한 상황인지 정보를 형성하는 상황인지 정보 형성단계(S2)와; 영상센서 탑재 감시노드의 영상정보 처리시 관심영역에 대한 집중적 동작과 객체의 이상 행동 패턴을 추출하는 패턴 추출단계(S3)와; 감시노드의 상황인지 정보를 이웃 감시노드로 전파하는 상황인지 정보 전파단계(S4) 및; 감시서버에 무선 센서네트워크 라우팅 경로에 따라 상황인지 정보를 전송하는 정보 전송단계(S5)로 이루어진 것을 특징으로 하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법.An object type and situation determination step (S1) of determining an object type and a situation by sensor data collection by stages of multiple sensors; A situation information forming step (S2) of forming situation or information for continuous tracking of a moving object by cooperation with a neighbor monitoring node; A pattern extraction step (S3) of extracting an intensive action on an ROI and an abnormal behavior pattern of an object when processing image information of a monitoring node equipped with an image sensor; A situation propagation information propagation step (S4) of propagating information on the status of the monitoring node to the neighboring monitoring node; Sensor node situation awareness unattended monitoring method for multi-sensor and node collaboration, characterized in that the information transmission step (S5) for transmitting information whether the situation according to the wireless sensor network routing path to the monitoring server. 제 1항에 있어서, 상기 객체 유형 및 상황 판단단계(S1)는 1차와 2차 2단계의 센서 데이터 수집단계로 센서 데이터를 수집하는 것을 특징으로 하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법.The method according to claim 1, wherein the object type and situation determination step (S1) is a sensor node situation for multi-sensor and node collaboration, wherein sensor data is collected by a sensor data collection step of first and second steps. Unmanned Surveillance Method. 제 2항에 있어서, 상기 1차 센서 데이터 수집단계는 센서가 데이터를 수집하는 단계(S11, S11'단계)와; 주파수 변환단계(S12단계)와; 표준음향 주파수 패턴과 일치여부 판단단계(S13단계)와; 특정값 부여단계(S14, S14'단계) 및; 감시레벨 판단로직으로 객체의 유형과 상황을 판단하는 상황판단단계(S15)로 이루어지는 것을 특징으로 하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법.The method of claim 2, wherein the primary sensor data collecting step comprises: collecting data by the sensor (S11, S11 '); A frequency conversion step (step S12); Determining whether or not the standard acoustic frequency pattern is matched (step S13); Giving a specific value (steps S14, S14 '); Sensor level status unattended monitoring method for the multi-sensor and node collaboration, characterized in that it comprises a situation determination step (S15) of judging the type and situation of the object by the monitoring level decision logic. 제 2항에 있어서, 상기 2차 센서 데이터 수집단계는 센서가 데이터를 수집하는 단계(S21-1 ∼ S21-7단계)와; 수집된 데이터에 특정값을 부여하는 특정값 부여단계(S22-1 ∼ S22-7단계)와; 감시레벨 판단로직을 적용하는 감시레벨 판단로직 채용단계(S23단계)와; 감시수준을 판단하는 감시수준 판단단계(S24단계) 및; 데이터 송신단계(S25, S25', S25"단계)로 이루어지는 것을 특징으로 하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법.The method of claim 2, wherein the second sensor data collecting step comprises: collecting data by the sensor (steps S21-1 to S21-7); A specific value assigning step (S22-1 to S22-7) for giving a specific value to the collected data; A monitoring level decision logic hiring step (S23 step) of applying the monitoring level decision logic; A monitoring level determining step of determining a monitoring level (step S24); Sensor node status unattended monitoring method for multi-sensor and node collaboration, characterized in that the data transmission step (S25, S25 ', S25 "step). 제 1항에 있어서, 상기 상황인지 정보 형성단계(S2)는 음향센서, 진동센서, 영상센서, 온도/습도/조도 센서노드의 동작으로 수집되는 감시수준을 이웃하는 감시노드에서 수집되는 감시수준과 비교하는 감시수준 판단단계(31)와; 감시수준 판단단계(S31단계)의 판단 결과에 따라 특정값을 부여하는 특정값 부여단계(S32, S32')와; 상기 감시수준 판단단계(S31)에서 감시수준 X = 4 가 얻어지면, 감시수준을 이웃 감시노드로 송신하는 송신단계(S33단계) 및; 카메라를 작동시키는 카메라 작동단계(S34단계) 및; 온도/습도/조도를 측정하는 온도, 습도, 조도 측정단계(S35단계)로 이루어지는 것을 특징으로 하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법.The method of claim 1, wherein the contextual information forming step (S2) includes a monitoring level collected by a neighboring monitoring node and a monitoring level collected by an operation of an acoustic sensor, a vibration sensor, an image sensor, and a temperature / humidity / illumination sensor node. Monitoring level determining step 31 for comparing; A specific value assigning step (S32, S32 ') for assigning a specific value according to the determination result of the monitoring level determining step (S31 step); A transmission step (step S33) of transmitting the monitoring level to a neighboring monitoring node when the monitoring level X = 4 is obtained in the monitoring level determining step (S31); A camera operating step of operating the camera (step S34); Unattended monitoring method of sensor node status for multi-sensor and node collaboration, characterized in that the temperature, humidity, roughness measuring step, temperature, humidity, roughness measuring step (step S35). 제 1항에 있어서, 상기 패턴 추출단계(S3)는 감시노드 동작단계(S41단계)와; 좌표정보 수신단계(S42단계)와; 영상센서 작동단계(S43단계)와; 이상행동 패턴단계(S44단계)와; 감시서버, 집중감시노드 위치좌표 수신단계(S45단계)와; 영상센서 포커싱단계(S46단계)로 이루어지는 것을 특징으로 하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법.The method of claim 1, wherein the pattern extraction step (S3) comprises: a monitoring node operation step (step S41); Coordinate information receiving step (step S42); Image sensor operation step (step S43); Abnormal behavior pattern step (step S44); Monitoring server, centralized monitoring node position coordinate receiving step (step S45); Sensor sensor situation recognition unmanned monitoring method for multi-sensor and node collaboration, characterized in that the image sensor focusing step (step S46).
KR1020090130706A 2009-12-24 2009-12-24 Context cognition surveillance method for multi-sensor and/or node collaboration KR101100419B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090130706A KR101100419B1 (en) 2009-12-24 2009-12-24 Context cognition surveillance method for multi-sensor and/or node collaboration

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090130706A KR101100419B1 (en) 2009-12-24 2009-12-24 Context cognition surveillance method for multi-sensor and/or node collaboration

Publications (2)

Publication Number Publication Date
KR20110073902A true KR20110073902A (en) 2011-06-30
KR101100419B1 KR101100419B1 (en) 2011-12-30

Family

ID=44404363

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090130706A KR101100419B1 (en) 2009-12-24 2009-12-24 Context cognition surveillance method for multi-sensor and/or node collaboration

Country Status (1)

Country Link
KR (1) KR101100419B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101396888B1 (en) * 2013-03-06 2014-05-20 국방과학연구소 Sensor network and target detection decision method thereof
KR20140074129A (en) * 2012-12-07 2014-06-17 삼성전자주식회사 Place recognizing device and method for providing context awareness service
KR101598863B1 (en) * 2014-09-05 2016-03-02 (주)에스티씨 Added weight value applying system and method combined with association of continuous event
US9798697B2 (en) 2012-05-08 2017-10-24 Electronics And Telecommunications Research Institute Sensor node with periodic information generation and controlled information transmission
KR101975967B1 (en) * 2018-04-10 2019-05-07 주식회사 이엠따블유 System and method for detecting crime risk using heat sensor

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9798697B2 (en) 2012-05-08 2017-10-24 Electronics And Telecommunications Research Institute Sensor node with periodic information generation and controlled information transmission
KR20140074129A (en) * 2012-12-07 2014-06-17 삼성전자주식회사 Place recognizing device and method for providing context awareness service
KR101396888B1 (en) * 2013-03-06 2014-05-20 국방과학연구소 Sensor network and target detection decision method thereof
KR101598863B1 (en) * 2014-09-05 2016-03-02 (주)에스티씨 Added weight value applying system and method combined with association of continuous event
KR101975967B1 (en) * 2018-04-10 2019-05-07 주식회사 이엠따블유 System and method for detecting crime risk using heat sensor

Also Published As

Publication number Publication date
KR101100419B1 (en) 2011-12-30

Similar Documents

Publication Publication Date Title
KR101100419B1 (en) Context cognition surveillance method for multi-sensor and/or node collaboration
US20170332049A1 (en) Intelligent sensor network
US20100033575A1 (en) Event surveillance system and method using network camera
KR20200117564A (en) Device for managing fault and system for managing fault using the same
KR20200134609A (en) MONITORING SYSTEM OF FACILITY VIBRATION ANALYSIS BASED ON IoT SENSOR AND METHOD THEREOF
US10462847B2 (en) Wireless communication system, control circuit, and control method
JP2019195136A (en) Management device, data extraction method, and program
JP2018164123A (en) Terminal management apparatus and terminal management system
US11077826B2 (en) Method of processing ambient radio frequency data for activity recognition
Panja et al. Wirelessly sensing open parking spaces: Accounting and management of parking facility
WO2007105295A1 (en) Mobile terminal monitoring device and mobile terminal monitoring method
KR102199321B1 (en) smart sensing and monitoring system of risk detection for small business to switch to smart factories, and method thereof
CN114701932B (en) Elevator operation monitoring system and method based on radio signals
KR101471060B1 (en) Intergrated Wireless Video Camera and Video Monitoring System Using the Same
US11941960B2 (en) Radio frequency presence alert system
JP2005286474A (en) Communication terminal
US12047454B2 (en) Adaptive tower monitoring and authentication control
CN110351892B (en) Notification method and related equipment
KR20120118339A (en) Method for unmanned surveillance services
US11900789B1 (en) Premises security system using ultra-wideband (UWB) functionality to initiate at least one action
US11743691B2 (en) Method, node for processing messages within an IOT network and network packet thereof
CN117880775B (en) Emergency wireless private network communication system for transformer substation
KR20150107497A (en) Wireless network camera and communication method thereof
US12052496B2 (en) Video surveillance system with distributed intelligence
KR101165058B1 (en) Hybrid instruction detecting method and apparatus thereof

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141222

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20151222

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20161205

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20171212

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20190625

Year of fee payment: 8

R401 Registration of restoration
FPAY Annual fee payment

Payment date: 20200122

Year of fee payment: 9