KR20110073902A - Context cognition surveillance method for multi-sensor and/or node collaboration - Google Patents
Context cognition surveillance method for multi-sensor and/or node collaboration Download PDFInfo
- Publication number
- KR20110073902A KR20110073902A KR1020090130706A KR20090130706A KR20110073902A KR 20110073902 A KR20110073902 A KR 20110073902A KR 1020090130706 A KR1020090130706 A KR 1020090130706A KR 20090130706 A KR20090130706 A KR 20090130706A KR 20110073902 A KR20110073902 A KR 20110073902A
- Authority
- KR
- South Korea
- Prior art keywords
- sensor
- monitoring
- node
- information
- situation
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B23/00—Alarms responsive to unspecified undesired or abnormal conditions
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Alarm Systems (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Abstract
Description
본 발명은 센서노드 무인감시방법에 관한 것으로서 더욱 상세하게는 센서노드가 가져야 할 저전력 특성과 자율학습 기능화 영상 및 음향을 비롯한 다중센서(진동, 적외선, 레이더, 자기장, 온도, 습도, 조도 등)들로부터 수집된 정보를 융합하고 이벤트 발생을 스스로 인지하는 상황인지 엔진을 탑재하여 다중센서 융합을 통해 수집한 환경정보를 이용을 통해 무인감시 객체들의 정적 인지와 함께 센서노드간의 협업 및 융합에 의한 이동 객체의 공간적 및 시간적 변화를 인지하여 현재 상황을 추론하고 미래 상황을 예측함으로써 현시점 기반의 상황대처 능력을 통해 보다 능동적인 상황인지 무인감시 서비스를 제공하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법에 관한 것이다.The present invention relates to a sensor node unattended monitoring method, and more specifically, to multiple sensors (vibration, infrared, radar, magnetic field, temperature, humidity, illuminance, etc.) including low power characteristics and self-learning functionalized images and sounds that a sensor node should have. It is a situational engine that fuses the information collected from the system and recognizes the occurrence of events by itself, and uses the environmental information collected through the multi-sensor fusion, and by using the environmental information collected through the multi-sensor fusion, the moving object by the collaboration and fusion between sensor nodes with the static recognition of the unmanned monitoring objects. Sensor node situation or unmanned monitoring for multi-sensor and node collaboration that provides more active situation or unmanned surveillance service through current-based situation response capability by inferring current situation and predicting future situation by recognizing spatial and temporal change It is about a method.
종래의 무인감시 센서노드로는 특허 제874499호의 "영상 획득 가능 센서 네트워크 노드 및 이를 이용한 영상획득 및 전송 방법"이 특허등록공보에 게시되어 있다.A conventional unmanned monitoring sensor node is disclosed in Patent Registration No. 874499, "Image acquisition capable sensor network node and image acquisition and transmission method using the same".
상기 특허 제874499호의 "영상 획득 가능 센서 네트워크 노드 및 이를 이용 한 영상획득 및 전송 방법"은 적외선 센서 등으로 객체 감지 후 센서 감지 변화에 따라 카메라 모듈에 촬영명령을 전달하고 무선송수신 모듈을 통하여 원격의 중앙수집 장치로 감지 데이터를 전송방식으로 센서와 카메라에 사각지대 발생시 객체 탐지가 불가능한 경우가 발생할 수 있으며, 광대역 적용시에 천문학적인 설치 및 유지관리비가 소요되는 결점이 있다.Patent No. 844499, "Image Acquisition Sensor Network Node and Image Acquisition and Transmission Method Using Them", uses an infrared sensor and the like to transmit a photographing command to a camera module according to a sensor detection change, and remotely via a wireless transmission / reception module. It is possible to detect objects when blind spots occur in the sensor and camera by transmitting sensing data to the central collection device, and there is a defect that requires astronomical installation and maintenance costs when applying broadband.
또한 상기 종래의 무인감시 시스템에서는 감시데이터를 서버가 센서노드들로부터 수집하여 상태를 분석하고, 분석된 결과로부터 적정한 상황 수준을 판단하여 경보 조치를 경보노드로 재송신하는 양방향 이중화된 감시 체계이다.In the conventional unmanned surveillance system, the monitoring data is collected from the sensor nodes by the server to analyze the status, and the appropriate situation level is determined from the analyzed result to re-send the alarm action to the alarm node.
이러한 서버 중심의 양방향 감시 체계는 USN 기반 무인감시 네트워크에서 과도한 통신량과 통신병목 현상을 발생할 수 있으며, 많은 센서노드로부터 상황 데이터를 전송될 때 네트워크 장애가 발생될 가능성도 존재할 뿐만 아니라 주기/비주기 센서데이터 전송을 위한 과도한 전력소모, 과도한 통신량에 의한 처리량( throughput)이 저하될 수 있으므로 이를 개선하기 위한 대역폭 증대 구축 비용의 증대를 초래하게 되어 고비용 및 고난도 설계가 요구되는 실정이다.This server-oriented bidirectional monitoring system can cause excessive traffic and communication bottlenecks in the USN-based unmanned surveillance network, and there is a possibility of network failure when transmitting situation data from many sensor nodes, as well as periodic / aperiodic sensor data. Since excessive power consumption for transmission and throughput may be reduced due to excessive communication, an increase in bandwidth and construction cost is required to improve this situation, requiring high cost and high difficulty design.
한편, 무선센서네트워크는 수많은 센서노드가 협동하여 동작하는 네트워크이며, 특정 센서노드가 전체 네트워크에 미치는 영향은 최소화해야 하는 특성이 있다. 하지만, 서버 중심의 무인감시 네트워크는 서버의 불안정이 전체 네트워크에 막대한 영향을 초래할 수 있으며, 무선센서네트워크의 특성을 반영하기 어려우며 응용서비스 구현에도 용이하지 못한 문제점이 있다.On the other hand, the wireless sensor network is a network in which a large number of sensor nodes operate in cooperation, and the effect of a specific sensor node on the entire network has to be minimized. However, in the server-centric unmanned surveillance network, server instability can cause a huge impact on the entire network, it is difficult to reflect the characteristics of the wireless sensor network and there is a problem that is not easy to implement the application service.
따라서 본 발명의 발명자들은 협업 무인감시 네트워크 구성을 위해 센서 노 드는 객체의 이동을 감지하기 위해서 임의의 임계치를 설정하고 임계치 이상이 되면 객체를 감지하게 되고 감지 정보를 이웃노드에게 전파하며, 이웃노드들은 수신된 정보와 패턴테이블을 이용하여 객체의 경로를 예측하고 자신쪽으로 객체의 이동이 예측되어지게 되면 임계값을 조정하여 물체의 감지 확률을 높여 물체를 감지하지 못하는 비율(missing-rate)을 최소화하는 무선 네트워크 기반 협력적으로 객체를 추적할 수 있는 점에 착안하여 연구를 거듭한 결과 분 발명을 완성하였다.Therefore, the inventors of the present invention set an arbitrary threshold value for detecting the movement of an object for configuring a collaborative unmanned surveillance network, and detects the object when the threshold value is over the threshold and propagates the sensing information to the neighbor node. Using the received information and the pattern table, the path of the object is predicted, and if the movement of the object is predicted toward itself, the threshold is adjusted to increase the detection probability of the object, thereby minimizing the missing-rate. Based on the fact that the wireless network-based collaborative object tracking can be done, the research has been completed.
본 발명은 상기한 실정을 감안하여 종래 무인감시 시스템에서 야기되는 여러 가지 결점 및 문제점들을 해결하고자 발명한 것으로서, 그 목적은 기존의 이종 센서 정보의 단순 융합 객체 상황정보를 센서노드 중심의 다중센서 및 협업 기반의 객체 상황정보로 개선하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법을 제공함에 있다.The present invention has been made in view of the above-mentioned situation to solve various defects and problems caused in the conventional unmanned surveillance system, the object of which is to provide a simple sensor object-oriented multi-sensor and fusion object situation information of the existing heterogeneous sensor information; It provides a sensor node context awareness unattended monitoring method for multi-sensor and node collaboration that improves with collaboration-based object context information.
본 발명의 다른 목적은 무인감시 센서노드의 상황인지 정보를 최소화하기 위해 다중센서를 기반으로 단계별 센서 데이터 수집으로 객체의 유형과 상황을 판단 할 수 있도록 자가 진단 및 적응적 센서 파라미터를 튜닝하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법을 제공하는 데 있다.Another object of the present invention is a multi-sensor to tune the self-diagnostic and adaptive sensor parameters to determine the type and situation of the object by the step-by-step sensor data collection based on the multi-sensor to minimize the situational awareness information of the unmanned sensor node And it provides a sensor node situation awareness unattended monitoring method for node collaboration.
본 발명의 또 다른 목적은 종래의 서버 중심의 이중화된 무인감시 체계를 센서노드 중심의 단일화된 무인감시 체계로 개선하여 최소의 센서노드 상황정보만 서버로 전송하는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법을 제공하는 데 있다.Another object of the present invention is to improve the conventional server-centered redundant unmanned surveillance system to a sensor node-based unmanned unmanned surveillance system to transmit the minimum sensor node status information to the server sensor node for multi-sensor and node collaboration It is to provide an unattended monitoring method for situations.
본 발명의 또 다른 목적은 무인감시 센서노드의 다중센서에 의한 객체 유형과 상황 판단, 센서노드 협업에 의한 공간적 및 시간적 상황인지, 최소한의 상황정보의 이웃노드 전파 및 서버 전송을 통해 단일화된 무인감시 체계를 구축할 수 있는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법을 제공하는 데 있다.It is still another object of the present invention to unify the unmanned surveillance by unifying the object type and situation by multiple sensors of the sensor node, spatial and temporal situation by the sensor node collaboration, neighbor node propagation and server transmission of minimal situation information It is to provide a sensor node context-aware unmanned monitoring method for multi-sensor and node collaboration to build a system.
상기한 목적을 달성하기 위한 본 발명 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법은 다중센서의 단계별 센서 데이터 수집에 의한 객체 유형 및 상황을 판단하는 객체 유형 및 상황 판단단계(S1)와; 이웃 감시노드와의 협업에 의해 이동 객체의 연속 추적을 위한 상황인지 정보를 형성하는 상황인지 정보 형성단계(S2)와; 영상센서 탑재 감시노드의 영상정보 처리시 관심영역에 대한 집중적 동작과 객체의 이상 행동 패턴을 추출하는 패턴 추출단계(S3)와; 감시노드의 상황인지 정보를 이웃 감시노드로 전파하는 상황인지 정보 전파단계(S4) 및; 감시서버에 무선 센서네트워크 라우팅 경로에 따라 상황인지 정보를 전송하는 정보 전송단계(S5)로 이루어지는 것을 특징으로 한다.In order to achieve the above object, the present invention provides a sensor node context-aware unattended monitoring method for multi-sensor and node collaboration. ; A situation information forming step (S2) of forming situation or information for continuous tracking of a moving object by cooperation with a neighbor monitoring node; A pattern extraction step (S3) of extracting an intensive action on an ROI and an abnormal behavior pattern of an object when processing image information of a monitoring node equipped with an image sensor; A situation propagation information propagation step (S4) of propagating information on the status of the monitoring node to the neighboring monitoring node; Characterized in that it comprises the information transmission step (S5) for transmitting the situation awareness information according to the wireless sensor network routing path to the monitoring server.
본 발명은 기존의 이종 센서 정보의 단순 융합 객체 상황정보를 센서노드 중심의 다중센서 및 협업 기반의 객체 상황정보로 개선할 수 있고, 무인감시 센서노드의 상황인지 정보를 최소화하기 위해 다중센서를 기반으로 단계별 센서 데이터 수집으로 객체의 유형과 상황을 판단 할 수 있도록 자가 진단 및 적응적 센서 파라미터를 튜닝할 수 있을 뿐만 아니라 종래의 서버 중심의 이중화된 무인감시 체계를 센서노드 중심의 단일화된 무인감시 체계로 개선하여 최소의 센서노드 상황정보만 서버로 전송할 수 있는 각별한 장점이 있다.The present invention can improve the simple fusion object context information of heterogeneous sensor information into multi-sensor and sensor-based object context information centered on sensor nodes, and based on multi-sensors to minimize context awareness information of unmanned sensor nodes. In addition to tuning the self-diagnostic and adaptive sensor parameters to determine the type and situation of the object by the step-by-step sensor data collection, the sensor-centered unmanned unmanned surveillance system can be applied to the conventional server-oriented redundant unmanned surveillance system. As a result, it is possible to transmit only the minimum sensor node status information to the server.
이하, 첨부 도면을 참조하여 본 발명 다중센서 및 노드 협업을 위한 센서노 드 상황인지 무인감시방법을 바람직한 실시예로 상세하게 설명한다.Hereinafter, with reference to the accompanying drawings will be described in detail a preferred embodiment of the sensor node situation awareness unmanned monitoring method for multi-sensor and node collaboration.
도 1은 본 발명 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법의 실행 순서도, 도 2는 본 발명에 따른 1차 센서 데이터 수집단계의 실행 순서도, 도 3은 본 발명에 따른 2차 센서 데이터 수집단계의 실행 순서도, 도 4는 본 발명에 따른 상황인지 정보 형성단계의 실행 순서도, 도 5는 영상센서 탐재 감시노드의 관심지역 자동 포커싱 동작의 순서도, 도 6은 본 발명에 따른 다중센서 및 협업을 위한 상황인지 무인감시 시스템의 구성도로서, 본 발명 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법은 다중센서의 단계별 센서 데이터 수집에 의한 객체 유형 및 상황을 판단하는 객체 유형 및 상황 판단단계(S1)와; 이웃 감시노드와의 협업에 의해 이동 객체의 연속 추적을 위한 상황인지 정보를 형성하는 상황인지 정보 형성단계(S2)와; 영상센서 탑재 감시노드의 영상정보 처리시 관심영역에 대한 집중적 동작과 객체의 이상 행동 패턴을 추출하는 패턴 추출단계(S3)와; 감시노드의 상황인지 정보를 이웃 감시노드로 전파하는 상황인지 정보 전파단계(S4) 및; 감시서버에 무선 센서네트워크 라우팅 경로에 따라 상황인지 정보를 전송하는 정보 전송단계(S5)로 이루어진다.1 is a flowchart illustrating an unmanned monitoring method of a sensor node situation for the multi-sensor and node collaboration according to the present invention, FIG. 2 is a flowchart illustrating the execution of a primary sensor data collection step according to the present invention, and FIG. 3 is a secondary sensor according to the present invention. 4 is a flow chart of the data acquisition step, Figure 4 is a flow chart of the situation information forming step according to the present invention, Figure 5 is a flow chart of the automatic focusing operation of the region of interest of the image sensor detection monitoring node, Figure 6 is a multi-sensor and As a schematic diagram of a situation or unmanned surveillance system for collaboration, the present invention provides a sensor node situation awareness unattended monitoring method for multi-sensor and node collaboration. Determination step S1; A situation information forming step (S2) of forming situation or information for continuous tracking of a moving object by cooperation with a neighbor monitoring node; A pattern extraction step (S3) of extracting an intensive action on an ROI and an abnormal behavior pattern of an object when processing image information of a monitoring node equipped with an image sensor; A situation propagation information propagation step (S4) of propagating information on the status of the monitoring node to the neighboring monitoring node; An information transmission step (S5) is performed to transmit the situation awareness information according to the wireless sensor network routing path to the monitoring server.
상기 객체 유형 및 상황 판단단계(S1)는 1차와 2차의 2단계의 센서 데이터 수집단계로 센서 데이터를 수집하는 것이다.The object type and situation determination step (S1) is to collect sensor data in the sensor data collection step of the first and second stages.
상기 1차 센서 데이터 수집단계는 센서가 데이터를 수집하는 단계(S11, S11'단계)와; 주파수 변환단계(S12단계)와; 표준음향 주파수 패턴과 일치여부 판단단계(S13단계)와; 특정값 부여단계(S14, S14'단계) 및; 감시레벨 판단로직으로 객체 의 유형과 상황을 판단하는 상황판단단계(S15)로 이루어져 있다.The primary sensor data collection step includes a step of collecting data by a sensor (steps S11 and S11 '); A frequency conversion step (step S12); Determining whether or not the standard acoustic frequency pattern is matched (step S13); Giving a specific value (steps S14, S14 '); The monitoring level judgment logic consists of a situation determination step (S15) of determining the type and situation of the object.
또한 상기 2차 센서 데이터 수집단계는 센서가 데이터를 수집하는 단계(S21-1 ∼ S21-7단계)와; 수집된 데이터에 특정값을 부여하는 특정값 부여단계(S22-1 ∼ S22-7단계)와; 감시레벨 판단로직을 적용하는 감시레벨 판단로직 채용단계(S23단계)와; 감시수준을 판단하는 감시수준 판단단계(S24단계) 및; 데이터 송신단계(S25, S25', S25"단계)로 이루어져 있다.In addition, the secondary sensor data collection step includes the step of collecting data by the sensor (steps S21-1 to S21-7); A specific value assigning step (S22-1 to S22-7) for giving a specific value to the collected data; A monitoring level decision logic hiring step (S23 step) of applying the monitoring level decision logic; A monitoring level determining step of determining a monitoring level (step S24); Data transmission steps (S25, S25 ', S25 "steps).
상기 상황인지 정보 형성단계(S2)는 음향센서, 진동센서, 영상센서, 온도/습도/조도 센서노드의 동작으로 수집되는 감시수준을 이웃하는 감시노드에서 수집되는 감시수준과 비교하는 감시수준 판단단계(31)와; 감시수준 판단단계(S31단계)의 판단 결과에 따라 특정값을 부여하는 특정값 부여단계(S32, S32')와; 상기 감시수준 판단단계(S31)에서 감시수준 X = 4 가 얻어지면, 감시수준을 이웃 감시노드로 송신하는 송신단계(S33단계) 및; 카메라를 작동시키는 카메라 작동단계(S34단계) 및; 온도/습도/조도를 측정하는 온도, 습도, 조도 측정단계(S35단계)로 이루어져 있다.The situation-aware information forming step (S2) is a monitoring level determination step of comparing the monitoring level collected by the operation of the acoustic sensor, vibration sensor, image sensor, temperature / humidity / illumination sensor node with the monitoring level collected from the neighboring monitoring node. (31); A specific value assigning step (S32, S32 ') for assigning a specific value according to the determination result of the monitoring level determining step (S31 step); A transmission step (step S33) of transmitting the monitoring level to a neighboring monitoring node when the monitoring level X = 4 is obtained in the monitoring level determining step (S31); A camera operating step of operating the camera (step S34); Consists of temperature, humidity, roughness measuring step (S35 step) for measuring the temperature / humidity / roughness.
그리고 상기 패턴 추출단계(S3)는 감시노드 동작단계(S41단계)와; 좌표정보 수신단계(S42단계)와; 영상센서 작동단계(S43단계)와; 이상행동 패턴단계(S44단계)와; 감시서버, 집중감시노드 위치좌표 수신단계(S45단계)와; 영상센서 포커싱단계(S46단계)로 이루어져 있다.And the pattern extraction step (S3) comprises a monitoring node operation step (step S41); Coordinate information receiving step (step S42); Image sensor operation step (step S43); Abnormal behavior pattern step (step S44); Monitoring server, centralized monitoring node position coordinate receiving step (step S45); Image sensor focusing step (step S46).
다음에 상기한 바와 같이 이루어지는 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법의 작용을 상세하게 설명한다.Next, the operation of the sensor node context awareness unattended monitoring method for multi-sensor and node collaboration made as described above will be described in detail.
다중센서의 단계별 센서 데이터 수집에 의한 객체 유형 및 상황을 판단하기 위하여 감시노드는 도 2와 도 3과 같이 1단계와 2단계로 센서 데이터를 수집하고, 표 1에 나타낸 바와 같이 감시모드 설정에 따라 센서 바이트(Byte)를 구성한다. 특히 무인감시 모드의 경우 표 2와 같이 감시수준 레벨에 따라 객체의 유형과 상황을 판단한다.In order to determine the object type and the situation by the sensor data collection step by step of the multi-sensor, the monitoring node collects the sensor data in
이웃 감시노드와의 협업에 의해 이동 객체의 연속 추적을 위한 상황인지 정보를 형성하기 위하여 표 2와 같이 현재의 감시노드의 감시 수준을 이웃 감시노드의 감시 수준이 X = 4 가 될 때까지 감시노드는 동작을 반복하게 된다. 현재의 감시노드가 감시수준 X = 5 는 영상센서(카메라)를 탑재된 경우로 카메라를 작동하고, X = 6 은 온도/습도/조도 센서를 탑재한 경우로 온도, 습도, 조도를 측정하게 된다.In order to form situational awareness information for continuous tracking of moving objects by collaboration with neighboring monitoring nodes, the monitoring level of the current monitoring node is monitored until the monitoring level of neighboring monitoring node becomes X = 4 as shown in Table 2. Will repeat the operation. The current monitoring node is operated when the monitoring level X = 5 is equipped with an image sensor (camera), and X = 6 is equipped with a temperature / humidity / illuminance sensor to measure temperature, humidity, and illuminance. .
Monitoring contents
감지Acoustic
Detect
감지vibration
Detect
정보Acoustic
Information
정보Acoustic
Information
정보Acoustic
Information
정보Acoustic
Information
정보Acoustic
Information
정보Acoustic
Information
정보vibration
Information
정보vibration
Information
정보vibration
Information
정보vibration
Information
정보vibration
Information
정보vibration
Information
정보Temperature
Information
정보Temperature
Information
정보Temperature
Information
정보Humidity
Information
정보Humidity
Information
정보Humidity
Information
정보Roughness
Information
정보Roughness
Information
정보Roughness
Information
영상센서 탑재 감시노드의 영상정보 처리시 관심영역에 대한 집중적 동작과 객체의 이상 행동 패턴 추출하기 위한 방법으로 도 4와 같이 관심 지역 자동 포커싱을 위한 동작으로 영상정보를 수집하고, 표준 객체 행동 패턴 DB와 비교하여 이상행동 패턴이 발생시 영상좌표에 대한 집중감시노드 위치 좌표에 포커싱 동작을 취하고 객체에 대한 이상행동 패턴을 추출하여 연속적으로 객체를 추적하게 된다.As a method for extracting an intensive action on a region of interest and an abnormal behavior pattern of an object when processing image information of a monitoring node equipped with an image sensor, as shown in FIG. 4, the image information is collected and the standard object behavior pattern DB When the abnormal behavior pattern is generated, the focusing operation is performed on the location coordinate of the intensive monitoring node for the image coordinate, and the object is continuously tracked by extracting the abnormal behavior pattern for the object.
수준watch
level
Situation judgment
measure
감시노드의 상황인지 정보를 이웃 감시노드로 전파하기 위한 방법은 도 3의 감시노드의 2단계에서 현재 감시노드(100)의 상황인지 정보를 이웃 감지노드로 전파하는 경우와 도 4와 같이 카메라 탑재감시노드(110) 및 온도/습도/조도 센서 탐재(120) 감시노드와 같이 센서동작 후 상황에 따라 이웃 감시노드로 전파하는 경우가 있다.The method for propagating the situation detection information of the monitoring node to the neighbor monitoring node includes the case in which the situation detection information of the
도 6은 다중센서 및 협업을 위한 상황인지 무인감시 시스템 구성도로서, 도 6에 도시한 바와 같이 감시서버(200)에는 무선 센서네트워크 라우팅 경로에 따라 상황인지 최소 정보만 전송한다. 도 6과 같이 감시노드는 탐재된 센서의 특성에 따라 상황정보를 형성하고, 주변 이웃 감시노드를 통하여 점차 전파하여 최종 감시서버(200)로 단방향 감시체계를 구축할 수 있다.FIG. 6 is a configuration diagram of an unmanned surveillance system for multi-sensor and collaboration. As shown in FIG. 6, only the minimum information on status is transmitted to the
따라서 종래의 서버중심의 무인감시 네트워크에서 서버의 불안정이 전체 네트워크에 막대한 영향을 초래할 수 있는 문제점이 개선되는 노드 중심의 무선네트워크로 구성이 가능하여 응용서비스 구현이 용이 해진다.Therefore, in the conventional server-based unmanned surveillance network, it is possible to configure a node-centric wireless network that can improve the problem that the server instability can cause a huge effect on the entire network, it is easy to implement the application service.
지금까지 본 발명을 바람직한 실시예로서 설명하였으나, 본 발명은 이에 한정되지 않고 발명의 요지를 이탈하지 않는 범위 내에서 다양하게 변형하여 실시할 수 있음은 물론이다.While the present invention has been described as a preferred embodiment, the present invention is not limited thereto, and various modifications can be made without departing from the gist of the invention.
도 1은 본 발명 다중센서 및 노드 협업을 위한 센서노드 상황인지 무인감시방법의 실행 순서도,1 is an execution flowchart of a sensor node situation awareness unattended monitoring method for multi-sensor and node cooperation according to the present invention;
도 2는 본 발명에 따른 1차 센서 데이터 수집단계의 실행 순서도,2 is an execution flowchart of the primary sensor data collection step according to the present invention;
도 3은 본 발명에 따른 2차 센서 데이터 수집단계의 실행 순서도,3 is a flow chart of execution of the secondary sensor data collection step according to the present invention,
도 4는 본 발명에 따른 상황인지 정보 형성단계의 실행 순서도,4 is an execution flowchart of the situation information forming step according to the present invention;
도 5는 영상센서 탐재 감시노드의 관심지역 자동 포커싱 동작의 순서도,5 is a flowchart of a region of interest automatic focusing operation of an image sensor detection monitoring node;
도 6은 본 발명에 따른 다중센서 및 협업을 위한 상황인지 무인감시 시스템의 구성도이다.6 is a block diagram of a situation-aware unattended monitoring system for multi-sensor and collaboration according to the present invention.
〈도면의 주요 부분에 대한 부호의 설명〉Description of the Related Art
100 : 감시노드 110 : 카메라 탑재 감시노드100: monitoring node 110: camera-mounted monitoring node
120 : 온도/습도/조도 센서 탑재 감시노드 200 : 감시서버120: monitoring node with temperature / humidity / light sensor 200: monitoring server
300 : 송신기300: transmitter
Claims (6)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090130706A KR101100419B1 (en) | 2009-12-24 | 2009-12-24 | Context cognition surveillance method for multi-sensor and/or node collaboration |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090130706A KR101100419B1 (en) | 2009-12-24 | 2009-12-24 | Context cognition surveillance method for multi-sensor and/or node collaboration |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20110073902A true KR20110073902A (en) | 2011-06-30 |
KR101100419B1 KR101100419B1 (en) | 2011-12-30 |
Family
ID=44404363
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020090130706A KR101100419B1 (en) | 2009-12-24 | 2009-12-24 | Context cognition surveillance method for multi-sensor and/or node collaboration |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101100419B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101396888B1 (en) * | 2013-03-06 | 2014-05-20 | 국방과학연구소 | Sensor network and target detection decision method thereof |
KR20140074129A (en) * | 2012-12-07 | 2014-06-17 | 삼성전자주식회사 | Place recognizing device and method for providing context awareness service |
KR101598863B1 (en) * | 2014-09-05 | 2016-03-02 | (주)에스티씨 | Added weight value applying system and method combined with association of continuous event |
US9798697B2 (en) | 2012-05-08 | 2017-10-24 | Electronics And Telecommunications Research Institute | Sensor node with periodic information generation and controlled information transmission |
KR101975967B1 (en) * | 2018-04-10 | 2019-05-07 | 주식회사 이엠따블유 | System and method for detecting crime risk using heat sensor |
-
2009
- 2009-12-24 KR KR1020090130706A patent/KR101100419B1/en active IP Right Grant
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9798697B2 (en) | 2012-05-08 | 2017-10-24 | Electronics And Telecommunications Research Institute | Sensor node with periodic information generation and controlled information transmission |
KR20140074129A (en) * | 2012-12-07 | 2014-06-17 | 삼성전자주식회사 | Place recognizing device and method for providing context awareness service |
KR101396888B1 (en) * | 2013-03-06 | 2014-05-20 | 국방과학연구소 | Sensor network and target detection decision method thereof |
KR101598863B1 (en) * | 2014-09-05 | 2016-03-02 | (주)에스티씨 | Added weight value applying system and method combined with association of continuous event |
KR101975967B1 (en) * | 2018-04-10 | 2019-05-07 | 주식회사 이엠따블유 | System and method for detecting crime risk using heat sensor |
Also Published As
Publication number | Publication date |
---|---|
KR101100419B1 (en) | 2011-12-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101100419B1 (en) | Context cognition surveillance method for multi-sensor and/or node collaboration | |
US20170332049A1 (en) | Intelligent sensor network | |
US20100033575A1 (en) | Event surveillance system and method using network camera | |
KR20200117564A (en) | Device for managing fault and system for managing fault using the same | |
KR20200134609A (en) | MONITORING SYSTEM OF FACILITY VIBRATION ANALYSIS BASED ON IoT SENSOR AND METHOD THEREOF | |
US10462847B2 (en) | Wireless communication system, control circuit, and control method | |
JP2019195136A (en) | Management device, data extraction method, and program | |
JP2018164123A (en) | Terminal management apparatus and terminal management system | |
US11077826B2 (en) | Method of processing ambient radio frequency data for activity recognition | |
Panja et al. | Wirelessly sensing open parking spaces: Accounting and management of parking facility | |
WO2007105295A1 (en) | Mobile terminal monitoring device and mobile terminal monitoring method | |
KR102199321B1 (en) | smart sensing and monitoring system of risk detection for small business to switch to smart factories, and method thereof | |
CN114701932B (en) | Elevator operation monitoring system and method based on radio signals | |
KR101471060B1 (en) | Intergrated Wireless Video Camera and Video Monitoring System Using the Same | |
US11941960B2 (en) | Radio frequency presence alert system | |
JP2005286474A (en) | Communication terminal | |
US12047454B2 (en) | Adaptive tower monitoring and authentication control | |
CN110351892B (en) | Notification method and related equipment | |
KR20120118339A (en) | Method for unmanned surveillance services | |
US11900789B1 (en) | Premises security system using ultra-wideband (UWB) functionality to initiate at least one action | |
US11743691B2 (en) | Method, node for processing messages within an IOT network and network packet thereof | |
CN117880775B (en) | Emergency wireless private network communication system for transformer substation | |
KR20150107497A (en) | Wireless network camera and communication method thereof | |
US12052496B2 (en) | Video surveillance system with distributed intelligence | |
KR101165058B1 (en) | Hybrid instruction detecting method and apparatus thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20141222 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20151222 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20161205 Year of fee payment: 6 |
|
FPAY | Annual fee payment |
Payment date: 20171212 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20190625 Year of fee payment: 8 |
|
R401 | Registration of restoration | ||
FPAY | Annual fee payment |
Payment date: 20200122 Year of fee payment: 9 |