KR20120103328A - Surveillance apparatus for event tracking and event tracking method using the same - Google Patents

Surveillance apparatus for event tracking and event tracking method using the same Download PDF

Info

Publication number
KR20120103328A
KR20120103328A KR1020110021524A KR20110021524A KR20120103328A KR 20120103328 A KR20120103328 A KR 20120103328A KR 1020110021524 A KR1020110021524 A KR 1020110021524A KR 20110021524 A KR20110021524 A KR 20110021524A KR 20120103328 A KR20120103328 A KR 20120103328A
Authority
KR
South Korea
Prior art keywords
event
sensor
sensor node
engine
field
Prior art date
Application number
KR1020110021524A
Other languages
Korean (ko)
Inventor
박현
박동환
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020110021524A priority Critical patent/KR20120103328A/en
Publication of KR20120103328A publication Critical patent/KR20120103328A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/10Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Alarm Systems (AREA)

Abstract

PURPOSE: An unmanned monitoring device for tracing an event and an event tracing method are provided to reduce the misinformation ratio of an event by using an unmanned monitoring device. CONSTITUTION: A user interface unit(210) receives condition information about an event generated in a sensor field. The user interface unit receives a response method about the event from a user. A control engine(220) receives the condition information from sensor nodes. The control engine selects specific sensor nodes which receive the condition information. A cooperation engine(250) transfers the condition information to the control engine. The cooperation engine transfers the condition information to the selected specific sensor node. [Reference numerals] (210) User interface unit; (220) Control engine; (221) Control DB; (230) GIS engine; (240) Middleware engine; (250) Cooperation engine; (260) Image engine; (261) Image DB

Description

사건 추적을 하는 무인감시장치 및 그를 이용한 사건 추적 방법{SURVEILLANCE APPARATUS FOR EVENT TRACKING AND EVENT TRACKING METHOD USING THE SAME}SURVILLANCE APPARATUS FOR EVENT TRACKING AND EVENT TRACKING METHOD USING THE SAME}

본 발명은 사건 추적을 하는 무인감시장치 및 그를 이용한 사건 추적 방법에 관한 것으로, 더욱 상세히 설명하면, 센서들의 상호작용에 의해 사건 추적을 하는 무인감시장치 및 그를 이용한 사건 추적 방법에 관한 것이다. The present invention relates to an unmanned surveillance apparatus for event tracking and an event tracking method using the same, and more particularly, to an unattended surveillance apparatus for event tracking by interaction of sensors and an event tracking method using the same.

무인 감시장치는 CCTV(Closed-circuit Television) 또는 아이피(Internet Protocol) 카메라와 같은 감시장치를 사용하여 영상을 제공받아 감시하고 기록할 수 있도록 한다. 무인감시장치는 범죄예방, 정보 수집 등을 위해 널리 쓰이고 있으며, CCTV의 수 또는 아이피 카메라의 수를 증가시켜 사각이 줄어들도록 한다. 하지만, 무인감시장치에서 CCTV의 수 또는 아이피 카메라의 수가 늘어나게 되면 CCTV 또는 아이피 카메라를 통해 입력되는 정보의 양이 방대해져 실시간으로 감시를 하기 위해서는 감시 인력을 증가시켜야 한다. Unmanned surveillance devices use surveillance devices such as CCTV (Closed-Circuit Television) or IP (Internet Protocol) cameras to receive and monitor video. The unmanned market is widely used for crime prevention and information collection, and reduces blind spots by increasing the number of CCTVs or IP cameras. However, when the number of CCTVs or IP cameras increases in the unmanned surveillance device, the amount of information input through the CCTV or IP cameras is enormous, so that the number of surveillance personnel must be increased to monitor in real time.

또한, 무인 감시장치에 사용되는 CCTV 또는 아이피 카메라는 각각 독립된 개별적인 감시장치로써 서로 연계되어 있지 않기 때문에 주변의 영상을 보여주는 정도의 기능만을 수행할 수 밖에 없다. 따라서, 종래의 무인감시장치는 사건 발생을 주도적으로 파악하지 못하고 수동적인 대응만이 가능하여 실시간으로 사건을 추적하는 것이 불가능하고 사건에 대응이 지연되는 문제점이 있다. In addition, the CCTV or IP cameras used in the unmanned surveillance device are not independent of each other as independent monitoring devices, and thus only have a function of displaying a surrounding image. Therefore, the conventional unmanned market value does not dominantly grasp the occurrence of the event, only passive response is possible, it is impossible to track the event in real time and there is a problem that the response to the event is delayed.

본 발명은, 대규모 센서망을 기반으로 한 무인 감시장치에서 센서 필드에서 발생된 사건에 대해 센서 노드간의 상황정보를 이용하고 센서 노드와 관제 센터의 상호 작용에 의해 실시간 사건을 추적할 수 있는 무인감시장치 및 그를 이용한 사건 추적 방법을 제공하는 것이다. In the present invention, an unmanned monitoring system using a situation information between sensor nodes for an event generated in a sensor field in an unmanned monitoring apparatus based on a large sensor network and tracking a real-time event by the interaction of a sensor node and a control center It is to provide a device and a method for tracking events using the same.

본 발명의 제1측면은, 복수의 센서노드들을 포함하는 센서필드에서 발생된 사건에 대한 상황정보를 제공받아 사용자로부터 사건에 대한 응답방식을 입력받는 사용자 인터페이스부, 복수의 센서노드들로부터 상황정보를 전달받아 저장하고 사용자 인터페이스부로 제공하며, 응답방식에 대응하여 복수의 센서노드들 중 상황정보를 전달받을 특정 센서노드들을 선택하는 관제엔진 및 상황정보를 관제엔진에 전달하고 관제엔진에 의해 선택된 특정 센서노드에 상황정보를 전달하는 협업엔진을 포함하는 사건 추적을 하는 무인감시장치를 제공하는 것이다. A first aspect of the present invention is a user interface that receives situation information on an event generated in a sensor field including a plurality of sensor nodes and receives a response method for an event from a user, and context information from a plurality of sensor nodes. Receives and stores the received and provided to the user interface unit, and transmits the control engine and the situation information to the control engine to select the specific sensor node to receive the context information among the plurality of sensor nodes in response to the response method and the specific selected by the control engine It provides an unmanned market value for event tracking that includes a collaboration engine that delivers contextual information to sensor nodes.

부가적으로, 센서필드로부터 전달받은 정보를 이용하여 감시영상을 생성하고 사용자 인터페이스부에 생성된 감시영상을 전달하는 영상엔진을 더 포함하는 사건 추적을 하는 무인감시장치를 제공하는 것이다. In addition, to provide an unmanned market value for the event tracking further comprises a video engine for generating a surveillance image using the information received from the sensor field and delivers the surveillance image generated in the user interface.

부가적으로, 관제엔진에 지도정보를 포함하는 GIS 엔진이 더 연결되어 사용자 인터페이스부에서 지도정보를 통해 센서 필드의 위치를 파악할 수 있도록 하는 사건 추적을 하는 무인감시장치를 제공하는 것이다. In addition, the GIS engine including map information is further connected to the control engine to provide an unmanned market value for event tracking that enables the user interface unit to locate the sensor field through the map information.

부가적으로, 관제엔진과 복수의 센서노드들 사이에 복수의 센서노드들의 플랫폼과 관제엔진의 플랫폼 간의 연결을 유지시키는 미들웨어엔진을 더 포함하는 사건 추적을 하는 무인감시장치를 더 제공하는 것이다. Additionally, it further provides an unmanned market value for event tracking further comprising a middleware engine maintaining a connection between the platform of the plurality of sensor nodes and the platform of the control engine between the control engine and the plurality of sensor nodes.

부가적으로, 관제엔진은 상황정보데이터베이스를 구비하여, 센서필드로부터 전달된 상황정보를 저장하고 사용자 인터페이스에 의해 저장된 상황정보를 선택된 특정 센서노드들에 전달하는 사건 추적을 하는 무인감시장치를 제공하는 것이다. In addition, the control engine has a context information database, which provides an unmanned market value for storing event information transmitted from the sensor field and tracking the event delivered by the user interface to selected specific sensor nodes. will be.

부가적으로, 상황정보는 복수의 필드를 포함하며, 사건 아이디필드, 센서노드 아이디필드, 사건 확률필드, 사건 발생시점필드, 객체 정보필드 중 적어도 하나를 포함하는 사건 추적을 하는 무인감시장치를 제공하는 것이다.Additionally, the situation information includes a plurality of fields, and provides an unmanned market value for event tracking that includes at least one of an event ID field, a sensor node ID field, an event probability field, an event occurrence field, and an object information field. It is.

부가적으로, 상황정보 중 사건 확률필드, 사건 발생시점필드, 객체 정보필드는 사건이 관제엔진에서 확인되기 전과 관제엔진에서 확인된 후로 구분되어 저장되는 사건 추적을 하는 무인감시장치를 제공하는 것이다. In addition, the event probability field, the event occurrence field, and the object information field in the context information provide an unmanned market value for event tracking that is stored separately before and after the event is confirmed by the control engine.

부가적으로, 센서필드는 주센서노드와 주센서노드에 연결된 종센서노드를 포함하며, 주센서노드는 관제센서로부터 전달된 상황정보를 종센서노드로 전달하는 사건 추적을 하는 무인감시장치를 제공하는 것이다.In addition, the sensor field includes a main sensor node and a slave sensor node connected to the main sensor node, and the main sensor node provides an unmanned market value for event tracking that transmits the status information transmitted from the control sensor to the slave sensor node. It is.

부가적으로, 주센서노드와 종센서노드는 각각 아이디를 구비하며, 종센서노드는 네트워크의 형태로 주센서노드에 연결되는 사건을 추적하는 무인감시장치.Additionally, the main sensor node and the slave sensor node each has an ID, and the slave sensor node tracks an event connected to the main sensor node in the form of a network.

본 발명의 제2측면은, 복수의 센서노드들을 포함하는 센서필드의 센서노드 아이디필드노드에서 사건발생을 인지하고 사건에 대한 상황정보를 관제엔진에 전달하는 단계, 관제엔진에 전달된 상기 상황정보는 사용자 인터페이스부로 전달되어 사용자 인터페이스부에서 상황정보에 대응하여 사건을 발생시킨 객체를 추적 하도록 추적명령을 상기 관제엔진에 전달하는 단계 및 관제엔진은 추적명령에 대응하여 객체의 정보를 센서필드 중 선택된 특정 센서노드들로 전달하는 단계를 포함하는 사건추적방법을 제공하는 것이다. The second aspect of the present invention, the step of recognizing the occurrence of the event in the sensor node ID field node of the sensor field including a plurality of sensor nodes and transmitting the situation information on the event to the control engine, the situation information transmitted to the control engine Is transmitted to the user interface unit to transmit a tracking command to the control engine to track the object that caused the event in response to the situation information in the user interface unit, and the control engine selects the object information from the sensor field in response to the tracking command. It is to provide an event tracking method comprising the step of delivering to specific sensor nodes.

부가적으로, 특정 센서노드들로 전달하는 단계에서, 관제엔진에서 센서필드에서 특정 센서노드를 선택하고, 사용자 인터페이스를 통해 사용자의 응답방식을 센서 필드로 전달하는 협업엔진에서 특정 센서노드로 추적명령을 전달하는 사건추적방법을 제공하는 것이다. In addition, in the step of delivering to specific sensor nodes, the control engine selects a specific sensor node in the sensor field and tracks the command to the specific sensor node in the cooperative engine that delivers the user's response to the sensor field through the user interface. It is to provide an event tracking method that delivers

부가적으로, 사건 발생을 인지하는 단계에서, 지도 정보를 이용하여 사건이 발생된 위치가 사용자 인터페이스부에 표시되도록 하는 단계를 더 포함하는 사건추적방법을 제공하는 것이다. In addition, in the step of recognizing the occurrence of the event, to provide an event tracking method further comprising the step of displaying the location where the event occurred using the map information to the user interface.

부가적으로, 관제엔진은 상황정보데이터베이스를 구비하여, 센서필드로부터 전달된 상황정보를 저장하고 사용자 인터페이스에 의해 저장된 상황정보를 선택된 특정 센서노드들에 전달하는 사건추적방법을 제공하는 것이다. In addition, the control engine is provided with a situation information database, to provide the event tracking method for storing the situation information transmitted from the sensor field and delivering the situation information stored by the user interface to the selected specific sensor nodes.

부가적으로, 센서필드는 주센서노드와 주센서노드에 연결된 종센서노드를 포함하며, 주센서노드에서 상황정보를 생성하는 사건추적방법을 제공하는 것이다. In addition, the sensor field includes a main sensor node and a slave sensor node connected to the main sensor node, and provides an event tracking method for generating situation information in the main sensor node.

부가적으로, 주센서노드는 사건이 발생하면 사건 아이디, 주센서노드 아이디, 종센서노드 아이디, 사건 타입, 사건확률, 사건 발생시점, 사건과 연관된 객체들의 정보를 상황정보에 기록하여 관제엔진에 전달하고, 관제엔진에서 사건을 확인하면 주센서노드에서 사건 타입, 사건 확률, 사건 발생시점, 사건과 연관된 객체들의 정보를 상기 상황정보에 기록하는 사건추적방법을 제공하는 것이다. In addition, the main sensor node records the event ID, main sensor node ID, slave sensor node ID, event type, event probability, when the event occurred, and objects related to the event in the context information when the event occurs. When the event is confirmed by the control engine, the main sensor node provides an event tracking method for recording the event type, event probability, event occurrence time, and object related information in the situation information.

부가적으로, 공통인터페이스부를 통해 무인감시장치에 주센서노드가 연결되어 미들웨어 엔진에 상기 주센서노드가 접속하는 단계, 미들웨어엔진은 접속된 주센서노드들의 아이디를 저장하는 단계, 주센서노드에 종센서노드들이 연결되고 주센서노드는 종센서노드들의 아이디를 저장하는 단계, 주센서노드는 저장하고 있는 종센서노드들의 아이디를 공통인터페이스부를 통해 미들웨어엔진에 제공하는 단계 및 미들웨어 엔진은 주센서노드 아이디와 주센서노드에 연결되어 있는 종센서노드의 아이디를 무인감시장치에 제공하여 센서필드를 구성하는 방법을 제공하는 것이다. In addition, the main sensor node is connected to the unmanned monitoring device through a common interface unit to connect the main sensor node to the middleware engine, the middleware engine stores the IDs of the connected main sensor nodes, the slave to the main sensor node The sensor nodes are connected and the main sensor node stores the IDs of the slave sensor nodes, the main sensor node provides the IDs of the slave sensor nodes stored to the middleware engine through the common interface unit, and the middleware engine is the main sensor node ID. It provides a method of constructing a sensor field by providing the unmanned monitoring device with the ID of the slave sensor node connected to the main sensor node.

본 발명에 따른 사건 추적을 하는 무인감시장치 및 그를 이용한 사건 추적 방법에 의하면, 대규모 센서망을 기반으로 하는 센서필드에서 실시간으로 사건을 검출하고 상황정보를 생성함으로써, 대규모 센서 망에 포함되는 센서노드들이 상황정보를 전송 또는 수신을 통한 협업을 통해 사건 추적 및 상황 인지와 대응을 자동화할 수 있다. According to the unmanned monitoring device and the event tracking method using the event tracking according to the present invention, by detecting the event in real time in the sensor field based on the large sensor network and generating situation information, the sensor node included in the large sensor network They can collaborate by sending or receiving context information to automate incident tracking and context awareness and response.

따라서, 무인감시장치가 사건을 추적할 수 있어 무인감시장치를 이용하여 사건 해결을 용이하게 할 수 있고 소수의 인력으로도 사건 판단의 오보율을 낮출 수 있다. Therefore, the unmanned surveillance apparatus can track the incident, thereby facilitating the resolution of the incident by using the unmanned surveillance market, and can lower the error rate of the judgment of the incident even with a small number of personnel.

도 1은 본 발명에 따른 사건 추적을 하는 무인감시장치의 일실시예를 나타내는 구조도이다.
도 2는 도 1에 도시된 관제장치의 일실시예를 나타내는 구조도이다.
도 3은 본 발명에 따른 사건 추적을 하는 무인감시장치에서 사건을 추적하는 과정을 나타내는 도면이다.
도 4는 도 1에 도시된 주센서노드에서 생성하는 상황정보의 일실시예를 나타내는 구조도이다.
도 5는 도 2에 도시된 관제엔진에서 센서필드로 추적요청을 하는 과정의 일실시예를 나타내는 순서도이다.
1 is a structural diagram showing an embodiment of an unmanned surveillance apparatus for tracking an event according to the present invention.
2 is a structural diagram showing an embodiment of the control device shown in FIG.
3 is a diagram illustrating a process of tracing an event in an unmanned monitoring apparatus for event tracing according to the present invention.
4 is a structural diagram illustrating an embodiment of context information generated by the main sensor node shown in FIG. 1.
FIG. 5 is a flowchart illustrating an embodiment of a process of performing a tracking request to a sensor field in the control engine shown in FIG. 2.

이하에서는 본 발명을 이러한 실시예들을 통해 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다. Hereinafter, the present invention will be described in detail so that those skilled in the art can easily understand and reproduce the present invention through these embodiments.

도 1은 본 발명에 따른 사건 추적을 하는 무인감시장치의 일실시예를 나타내는 구조도이다. 1 is a structural diagram showing an embodiment of an unmanned surveillance apparatus for tracking an event according to the present invention.

도 1을 참조하면, 무인감시장치(100)는 관제장치(110), 복수의 센서필드들(120a,120b,120c) 및 공통인터페이스부(130)를 포함한다. Referring to FIG. 1, the unmanned monitoring device 100 includes a control device 110, a plurality of sensor fields 120a, 120b and 120c, and a common interface unit 130.

관제장치(110)는 센서필드들(120a,120b,120c)에서 수집된 정보를 전달받아 일시적인 사건인지 추가적인 상황이 발생하는 사건인지의 여부를 판단한다. 관제장치(110)는, 예를 들어, 사건을 발생시킨 객체의 도주와 같이 추가적인 상황이 발생하는 사건으로 판단을 하면 센서필드들(120a,120b,120c)이 사건을 발생시킨 객체를 추적하도록 한다. The control device 110 receives the information collected in the sensor fields 120a, 120b, and 120c to determine whether the event is a temporary event or an additional situation. When the control device 110 determines that an additional situation occurs, for example, the escape of the object that caused the event, the sensor fields 120a, 120b, and 120c track the object that caused the event. .

센서필드들(120a,120b,120c)은 복수의 센서노드들을 포함하며, 센서노드들이 설치된 영역에 발생한 사건에 대한 정보를 수집하며 감시 대상인 사건을 발생시킨 객체에 관한 정보를 관제장치(110)로 전송한다. 센서필드들(120a,120b,120c)은 정보 수집을 위해 주센서노드들(121a,121b,121c)과 각각의 주센서노드들(121a,121b,121c)과 네트워크로 연결된 복수의 종센서노드들(122a,…,127a, 122b,…127b, 122c,..,127c)을 포함한다. 복수의 주센서노드들(121a,121b,121c)과 복수의 종센서노드들(122a,…,127a, 122b,…127b, 122c,..,127c)은 각각 아이디를 구비하며, 아이디를 이용하여 통신을 할 수 있다. 주센서노드(121a,121b,121c)와 종센서노드(122a,…,127a, 122b,…127b, 122c,..,127c)는 음향센서, 온도센서, 습도센서, 조도센서, 중력센서, 카메라 중 적어도 하나를 포함하며 센서들 또는 카메라의 동작을 제어하고 센서들 또는 카메라에서 소집된 정보를 관제장치 또는 따른 센서노드로 전송할 수 있다. The sensor fields 120a, 120b, and 120c include a plurality of sensor nodes. The sensor fields 120a, 120b, and 120c collect information about an event occurring in an area in which the sensor nodes are installed, and transmit information on the object that generated the event to be monitored to the control device 110. send. The sensor fields 120a, 120b, and 120c include a plurality of slave sensor nodes connected to the main sensor nodes 121a, 121b, 121c and the respective main sensor nodes 121a, 121b, 121c in order to collect information. (122a, ..., 127a, 122b, ... 127b, 122c, .., 127c). The plurality of main sensor nodes 121a, 121b, 121c and the plurality of longitudinal sensor nodes 122a, ..., 127a, 122b, ... 127b, 122c, .., 127c each have an ID. You can communicate. The main sensor nodes 121a, 121b, 121c and the seed sensor nodes 122a, ..., 127a, 122b, ... 127b, 122c, .., 127c are acoustic sensors, temperature sensors, humidity sensors, illuminance sensors, gravity sensors, and cameras. It may include at least one of the control of the operation of the sensor or the camera and transmit the information collected from the sensor or camera to the control device or the sensor node according.

또한, 하나의 센서필드에는 센서필드가 감시하는 영역의 크기에 대응하여 하나의 주센서노드가 설치될 수 있고 복수의 주센서노드가 설치될 수 있다. In addition, one main sensor node may be installed in one sensor field corresponding to the size of the area monitored by the sensor field, and a plurality of main sensor nodes may be installed.

공통인터페이스부(130)는 관제장치(110)와 복수의 센서필드들(120a,120b,120c)이 연결을 유지할 수 있도록 하며, 복수의 센서필드들(120a,120b,120c)로부터 발생한 사건에 관한 정보를 관제장치(110)로 제공하고 관제장치(110)로부터 사건 추적 요구를 받아 사건을 추적한다. 공통인터페이스부(130)는 ONVIF(Open Network Video Interface Forum) 프로토콜을 사용할 수 있다. The common interface unit 130 maintains the connection between the control device 110 and the plurality of sensor fields 120a, 120b, and 120c, and relates to an event generated from the plurality of sensor fields 120a, 120b, and 120c. Provides information to the control device 110 and receives the event tracking request from the control device 110 to track the event. The common interface unit 130 may use an Open Network Video Interface Forum (ONVIF) protocol.

도 2는 도 1에 도시된 관제장치의 일실시예를 나타내는 구조도이다. 2 is a structural diagram showing an embodiment of the control device shown in FIG.

도 2를 참조하면, 관제장치(110)는 사용자 인터페이스부(210), 관제엔진(220), GIS 엔진(230), 미들웨어엔진(240), 협업엔진(250) 및 영상엔진(260)을 포함한다. 2, the control device 110 includes a user interface 210, a control engine 220, a GIS engine 230, a middleware engine 240, a collaboration engine 250, and an image engine 260. do.

사용자 인터페이스부(210)는 복수의 센서노드들을 포함하는 센서필드에서 수집된 사건에 대한 상황정보를 전달받아 사용자에게 제공한다. 또한, 사용자 인터페이스부(210)는 사용자가 제공받은 상황정보를 이용하여 상기 사건에 대한 응답방식을 결정하면, 결정된 응답방식을 입력받는다. 즉, 사용자 인터페이스부(210)는 무인감시장치(100)를 이용하는 사용자에게 복수의 센서필드들(120a,120b,120c)의 각각의 주센서노드(121a,121b,121c)와 종센서노드(122a,…,127a, 122b,…127b, 122c,..,127c)에서 수집한 영상과 지도정보를 제공하여 사용자가 상황을 인식할 수 있도록 하여 사건을 발생시킨 객체를 확인하고 객체를 추적할 지의 여부 등을 결정하도록 하고 사용자의 결정에 대응하여 객체를 확인하도록 하는 명령과 객체를 추적할 지의 여부를 지시하는 명령을 생성한다. The user interface unit 210 receives the situation information on the event collected in the sensor field including the plurality of sensor nodes and provides the same to the user. In addition, when the user interface unit 210 determines the response method to the event using the situation information provided by the user, the user interface unit 210 receives the determined response method. That is, the user interface unit 210 may provide the user using the unmanned monitoring apparatus 100 with each of the main sensor nodes 121a, 121b, 121c and the longitudinal sensor node 122a of the plurality of sensor fields 120a, 120b, and 120c. ,…, 127a, 122b,… 127b, 122c, 122c, .., 127c) to provide the image and map information collected so that the user can recognize the situation to identify the object that caused the event and to track the object. Create commands to indicate whether or not to track the object and to determine the object in response to the user's decision.

관제엔진(220)은 사건 정보규칙에 대응하여 지능형 상황인지 기반 실시간으로 복수의 센서필드들(120a,120b,120c)에서 감지된 복수의 사건들을 사용자 인터페이스부(210)로 전달한다. 또한, 관제엔진(220)은 관제데이터베이스(221)를 포함하며, 관제데이터베이스(221)에 복수의 센서필드들(120a,120b,120c)에서 전송된 상황정보를 데이터베이스화하여 저장하고 사용자 인터페이스부(210)에 의해 저장된 상황정보를 갱신한다. The control engine 220 transmits the plurality of events detected in the plurality of sensor fields 120a, 120b, and 120c to the user interface 210 in real time based on intelligent situation recognition in response to the event information rule. In addition, the control engine 220 includes a control database 221, and stores and stores the contextual information transmitted from the plurality of sensor fields 120a, 120b, and 120c in the control database 221. Update the situation information stored by 210.

GIS(Geographic Information System) 엔진(230)은, 지도정보를 이용하여 건물, 도로 등에 대응하는 위치정보와 속성정보를 데이터베이스화하고 사용자 인터페이스부(210)에 전달하여 지도정보가 시각적으로 표시될 수 있도록 한다. The Geographic Information System (GIS) engine 230 uses the map information to database the location information and the attribute information corresponding to the building, the road, and the like to the user interface unit 210 so that the map information can be visually displayed. do.

미들웨어엔진(240)은 복수의 센서필드들(120a,120b,120c)에 포함되어 있는 주센서노드(121a,121b,121c) 및 종센서노드들(122a,…,127a, 122b,…127b, 122c,..,127c)과 관제엔진(220)이 공통인터페이스부(130)를 통해 통신을 할 수 있도록 하는 것으로, 특히, XML(eXtensible Markup Language)을 이용하여 정보를 수집하는 주센서노드(121a,121b,121c)의 플랫폼과 관제엔진(220)의 플랫폼 간의 인터페이스 기술을 수행한다. The middleware engine 240 includes the main sensor nodes 121a, 121b, 121c and the seed sensor nodes 122a, ..., 127a, 122b, ... 127b, 122c included in the plurality of sensor fields 120a, 120b, and 120c. ....., 127c) and the control engine 220 to communicate through the common interface unit 130, in particular, the main sensor node 121a for collecting information using XML (eXtensible Markup Language) Interface technology between the platforms of the control engine 220 and the platform of the 121b, 121c.

협업엔진(250)은 사용자 인터페이스부(210)를 통해 사용자의 요구사항을 센서필드들(120a,120b,120c)로 전달한다. 또한, 협업엔진(250)은 GIS 엔진(230)에 저장되어 있는 지도 정보를 기반으로 복수의 센서필드들(120a,120b,120c) 및 관제엔진(220)으로부터 전달받은 정보를 지도상에 표시할 수 있도록 한다. 또한, 협업엔진(250)은 파노라마 기술을 이용하여 감시 정보를 가시화하는 GIS 엔진(230)과 주센서노드(121a,121b,121c) 간에 정보가 교환되도록 한다. 협업엔진(250)은 사용자 인터페이스부(210)로부터 사건 추적 명령이 입력되면 관제엔진(220)과 주센서노드(121a,121b,121c)에서 추적정보가 유지되도록 한다. 또한, 협업엔진(250)은 공통인터페이스부(130)를 통해 복수의 센서필드들(120a,120b,120c)과 통신을 할 수 있다. The collaboration engine 250 transmits the user's requirements to the sensor fields 120a, 120b, and 120c through the user interface 210. In addition, the collaboration engine 250 may display information received from the plurality of sensor fields 120a, 120b, 120c and the control engine 220 on the map based on the map information stored in the GIS engine 230. To help. In addition, the collaboration engine 250 allows information to be exchanged between the GIS engine 230 and the main sensor nodes 121a, 121b, and 121c that visualize the surveillance information using the panorama technology. When the incident tracking command is input from the user interface unit 210, the collaboration engine 250 may maintain tracking information in the control engine 220 and the main sensor nodes 121a, 121b, and 121c. In addition, the collaboration engine 250 may communicate with the plurality of sensor fields 120a, 120b, and 120c through the common interface unit 130.

영상엔진(260)은 센서필드들(120a,120b,120c)에 포함된 주센서노드와 종센서노드들의 네트워크를 통해 감시된 영역에 대한 시간별, 지역별, 그룹별 감시 영상을 생성한다. 또한, 영상엔진(260)은 영상 데이터베이스(261)를 포함하며, 센서필드들(120a,120b,120c)에서 촬영된 영상을 시간별, 지역별, 그룹별로 구분하여 저장한다. 또한, 영상엔진(260)은 영상 데이터베이스(261)에 저장된 영상을 사용자 인터페이스부(210)에 제공함으로써 사용자 인터페이스부(210)를 통해 시청할 수 있도록 한다. 그리고, 영상엔진(260)은 공통인터페이스부(130)를 통해 센서필드들(120a,120b,120c)과 통신을 할 수 있다. The image engine 260 generates a surveillance image by time, region, and group for the monitored region through the network of the main sensor node and the slave sensor nodes included in the sensor fields 120a, 120b, and 120c. In addition, the image engine 260 includes an image database 261, and stores images captured by the sensor fields 120a, 120b, and 120c by time, region, and group. In addition, the image engine 260 may provide the image stored in the image database 261 to the user interface 210 so that the image may be viewed through the user interface 210. The image engine 260 may communicate with the sensor fields 120a, 120b, and 120c through the common interface unit 130.

도 3은 본 발명에 따른 사건 추적을 하는 무인감시장치에서 사건을 추적하는 과정을 나타내는 도면이다. 3 is a diagram illustrating a process of tracing an event in an unmanned monitoring apparatus for event tracing according to the present invention.

도 3을 참조하면, 무인감시장치는 제1센서필드(120a), 제2센서필드(120b) 및 제3센서필드(120c)를 통해 감시하며, 사건은 제1종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)와 제2종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)에 의해 감시되는 교차로인 제1영역(A)에서 추돌사고(차와 사람 또는 차와 차 등)가 발생한 것으로 가정한다. Referring to FIG. 3, the unattended market value is monitored through the first sensor field 120a, the second sensor field 120b, and the third sensor field 120c, and the event is detected by the first type sensor nodes 122a,. 127a, 122b, ..., 127b, 122c, ..., 127c and the first area, which is an intersection monitored by the second type sensor nodes 122a, ..., 127a, 122b, ..., 127b, 122c, ..., 127c In (A), it is assumed that a collision accident (car and person or car and car, etc.) has occurred.

제1종센서노드(123a)와 제2종센서노드(126a)가 제1영역(A)에서 최초 사건 발생을 감지하면, 제1주센서노드(121a)는 제1종센서노드(123a)와 제2종센서노드(126a)로부터 영상 등의 정보를 전송받아 관제장치(110)로 전송을 한다. 이때, 제1종센서노드(123a)와 제2종센서노드(126a)는 제1영역(A)에서 발생된 사건에 대한 사건 확률을 계산한다. 이때, 제1종센서노드(123a)와 제2종센서노드(126a)는 촬영 위치 등의 차이로 인해 발생된 사건에 대한 사건 확률이 다르게 설정될 수 있다. 그리고, 제1주센서노드(121a)는 제1종센서노드(123a)와 제2종센서노드(126a)에서 수집한 정보를 이용하여 상황정보를 생성하고 생성된 상황정보에 대응하여 제1종센서노드(123a)와 제2종센서노드(126a)에서 수집한 영상에 기록된 사건이 동일한 사건임을 판단한다. 그리고, 제1주센서노드(121a)는 생성된 상황정보를 관제엔진(220)에 전달한다. 관제엔진(220)은 상황정보와 영상엔진(260)에 의해 생성된 영상을 사용자 인터페이스부(210)로 제공한다. 또한, 관제엔진(220)은 GIS 엔진(230)에 의해 생성된 지도 정보를 사용자 인터페이스부(210)로 제공한다. 사용자 인터페이스부(210)에 의해 발생된 사건이 확인되면, 관제엔진(220)은 사건이 발생되었음을 확인하고 사건을 발생시킨 객체를 특정한다. 이때, 제1주센서노드(121a)에서 생성한 상황정보에 사건을 일으킨 객체가 기록되어 있지만, 사용자 인터페이스부(210)를 통해 제공된 영상을 통해 사건을 일으킨 객체를 다시 판단하여 수정할 수 있도록 한다. 그리고, 관제엔진(220)은 지도정보를 이용하여 사건을 발생시킨 객체의 도주로를 예상한다. 협업엔진(250)은 도주로를 감시하는 센서필드들을 파악하고 상황정보를 예상된 도주로를 감시하는 센서필드로 전달된다. 그리고, 사건을 일으킨 객체인 차량이 최초 사건 발생영역인 제1영역(A)에서 제2영역(B)을 지나 제3영역(C)으로 도주하면, 제2영역(B)에서는 협업엔진(250)을 통해 상황정보를 수신한 제3종센서노드(126b)에서 도주차량을 감시하고 제3영역(C)에서는 협업엔진(250)을 통해 상황정보를 수신한 제4종센서노드(126c)에서 도주차량을 감시한다. 이때, 제2영역(B)과 제3영역(C)에서 각각 제3종센서노드(126b)와 제4종센서노드(126c) 외에 다른 종센서노드들에서도 동시에 도주차량을 감시할 수 있다. 또한, 주센서노드와 종센서노드들은 관제엔진(220)에서 생성된 상황정보와 도주차량의 정보를 이용하여 도주차량을 발견하거나 추적요청이 철회될 때까지 지속적으로 감시를 한다.When the first type sensor node 123a and the second type sensor node 126a detect the occurrence of the first event in the first area A, the first main sensor node 121a is connected to the first type sensor node 123a. The second type sensor node 126a receives information such as an image and transmits the information to the control device 110. In this case, the first type sensor node 123a and the second type sensor node 126a calculate an event probability for an event occurring in the first area A. FIG. In this case, the first type sensor node 123a and the second type sensor node 126a may have different event probabilities for events generated due to differences in photographing positions. In addition, the first main sensor node 121a generates situation information using information collected by the first type sensor node 123a and the second type sensor node 126a and responds to the generated situation information. It is determined that the event recorded in the image collected by the sensor node 123a and the second type sensor node 126a is the same event. The first main sensor node 121a transfers the generated situation information to the control engine 220. The control engine 220 provides the user interface unit 210 with the situation information and the image generated by the image engine 260. In addition, the control engine 220 provides the user interface unit 210 with map information generated by the GIS engine 230. When the event generated by the user interface 210 is confirmed, the control engine 220 confirms that the event has occurred and specifies the object that caused the event. In this case, although the object causing the event is recorded in the situation information generated by the first main sensor node 121a, the object causing the event can be determined and corrected again through the image provided through the user interface 210. And, the control engine 220 predicts the escape route of the object that caused the event using the map information. The collaboration engine 250 grasps sensor fields for monitoring the escape route and transfers the situation information to the sensor field for monitoring the expected escape route. Then, when the vehicle, which is the object that caused the event, escapes from the first area A, which is the first event occurrence area, to the third area C after the second area B, in the second area B, the cooperative engine 250 is used. Monitors the escape vehicle in the third type sensor node 126b that has received the situation information through the third type sensor node 126c in the third area C and receives the situation information through the cooperative engine 250. Monitor your escape vehicle. In this case, in addition to the third type sensor node 126b and the fourth type sensor node 126c in the second area B and the third area C, other type sensor nodes may monitor the escape vehicle at the same time. In addition, the main sensor node and the slave sensor node continuously monitors the escape vehicle or the tracking request is withdrawn using the situation information and the information of the escape vehicle generated by the control engine 220.

도 4는 도 1에 도시된 주센서노드에서 생성하는 상황정보의 일실시예를 나타내는 구조도이다. 4 is a structural diagram illustrating an embodiment of context information generated by the main sensor node shown in FIG. 1.

도 4를 참조하면, 상황정보는 복수의 필드를 포함하며, 사건 아이디 필드(401), 주센서노드아이디 필드(402), 종센서노드 아이디 필드(403), 사건 타입 필드(404a,404b), 사건 결정 필드(405a,405b), 사건확률 필드(406a,406b), 사건 발생시점 필드(407a,407b), 사건을 발생시킨 객체정보 필드(408a,408b,409a,409b,410a,410b)를 포함한다.Referring to FIG. 4, the situation information includes a plurality of fields, an event ID field 401, a main sensor node ID field 402, a slave sensor node ID field 403, an event type field 404a, 404b, The event decision fields 405a and 405b, the event probability fields 406a and 406b, the event occurrence fields 407a and 407b, and the object information fields 408a, 408b, 409a, 409b, 410a, and 410b that caused the event. do.

사건 아이디 필드(401)는 발생된 사건을 구분할 수 있도록 하는 것으로, 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c) 또는 주센서노드(121a,121b,121c)가 사건 발생을 감지하면, 주센서노드(121a,121b,121c)는 자신이 감지한 사건 또는 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)로부터 사건의 정보를 전달받고 해당 사건에 대한 아이디를 할당하여 사건 아이디 필드(401)에 기록한다. The event ID field 401 is used to distinguish the generated events. The seed sensor nodes 122a, ..., 127a, 122b, ..., 127b, 122c, ..., 127c or the main sensor nodes 121a, 121b, 121c. ) Detects the occurrence of an event, the main sensor nodes (121a, 121b, 121c) is an event detected by itself or events from the slave sensor nodes (122a, ..., 127a, 122b, ..., 127b, 122c, ..., 127c) Receives the information of the event and assigns an ID for the event is recorded in the event ID field (401).

주센서노드 아이디 필드(402)는 사건에 대한 정보를 수집한 주센서노드(121a,121b,121c)의 아이디 또는 사건에 대한 정보를 수집한 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)과 연결되어 있는 주센서노드(121a,121b,121c)의 아이디가 기록된다. The primary sensor node ID field 402 includes the IDs of the primary sensor nodes 121a, 121b and 121c which collected the information on the event, or the slave sensor nodes 122a, ..., 127a, 122b,... The IDs of the main sensor nodes 121a, 121b, 121c connected to, 127b, 122c, ..., 127c are recorded.

종센서노드 아이디 필드(403)는 사건에 대한 정보를 수집한 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)의 아이디가 기록된다. The seed sensor node ID field 403 records IDs of the seed sensor nodes 122a, ..., 127a, 122b, ..., 127b, 122c, ..., 127c which have collected information on the event.

사건 타입 필드(404a,404b)는 두 가지 필드로 구분되며, 사건 타입 필드(404a,404b)에 의해 사건 결정 필드(405a,405b), 사건확률 필드(406a,406b), 사건 발생시점 필드(407a,407b), 객체정보필드(408a,408b,409a,409b,410a,410b)가 각각 두 가지 필드로 구분된다. The event type fields 404a and 404b are divided into two fields, which are determined by the event type fields 404a and 404b, the event decision fields 405a and 405b, the event probability fields 406a and 406b, and the event occurrence field 407a. 407b) and object information fields 408a, 408b, 409a, 409b, 410a, and 410b are divided into two fields, respectively.

사건 결정 필드(405a,405b)는 첫번째 필드(405a)에 주센서노드(121a,121b,121c)에서 수집된 사건 정보를 이용하여 사건정황을 작성할 때 사용되고 두 번째 필드(405b)는 주센서노드(121a,121b,121c)에서 작성된 상황정보가 관제장치(110)로 전달된 후 관제장치(110)의 관제엔진(220)에서 수정된 정보가 저장되는 것이 가능하다. The event decision fields 405a and 405b are used to compose the event situation using the event information collected from the main sensor nodes 121a, 121b and 121c in the first field 405a and the second field 405b is used as the main sensor node (405b). After the situation information created in 121a, 121b, 121c is transferred to the control device 110, the modified information in the control engine 220 of the control device 110 can be stored.

사건확률 필드(406a,406b)는 센서필드들(120a,120b,120c)에서 감지된 사건이 감시 대상 사건일 확률을 나타내는 것으로 퍼센트로 표시될 수 있다. 이때, 사건확률 필드(406a,406b)는 첫번째 필드(406a)에는 센서필드들(120a,120b,120c)에서 계산된 확률이 기록되고 두번째 필드(406b)에는 관제엔진(220)에서 수정된 확률이 기록될 수 있다. The event probability fields 406a and 406b may be expressed in percentage as indicating the probability that an event detected in the sensor fields 120a, 120b and 120c is an event to be monitored. In this case, the probability calculated in the sensor fields 120a, 120b, and 120c is recorded in the first field 406a, and the probability modified in the control engine 220 is recorded in the second field 406b. Can be recorded.

발생시점 필드(407a,407b)는 사건이 발생된 시점을 기록하는 필드로, 첫번째 필드(407a)는 센서필드들(120a,120b,120c)에서 감지된 시점이 기록되고 두번째 필드(407b)에서는 관제엔진(220)에서 수정된 발생시점이 기록된다. Occurrence time field 407a, 407b is a field for recording the time when the event occurred, the first field 407a is the time detected by the sensor fields (120a, 120b, 120c) is recorded and the second field (407b) control The occurrence time modified in the engine 220 is recorded.

객체정보 필드(408a,408b,409a,409b,410a,410b)는 각 센서필드들(120a,120b,120c)에서 사건을 발생시킨 객체에 대한 정보를 저장하는 필드로, 첫번째 필드(408a, 409a, 410a)는 센서필드들(120a,120b,120c)에서 판단된 객체에 대한 정보가 기록되고 두번째 필드(408b, 409b, 410b)에서는 관제엔진(220)에서 수정된 객체에 대한 정보가 기록된다. The object information fields 408a, 408b, 409a, 409b, 410a, and 410b store information on the object that caused the event in each of the sensor fields 120a, 120b, and 120c. The first field 408a, 409a, 410a records information about the object determined in the sensor fields 120a, 120b, and 120c, and records information about the object modified in the control engine 220 in the second fields 408b, 409b, and 410b.

도 5는 도 2에 도시된 관제엔진에서 센서필드로 추적요청을 하는 과정의 일실시예를 나타내는 순서도이다. FIG. 5 is a flowchart illustrating an embodiment of a process of performing a tracking request to a sensor field in the control engine shown in FIG. 2.

도 5를 참조하면, 복수의 주센서노드(121a,121b,121c)가 공통인터페이스부(130)를 통해 관제장치(110)에 연결된다.(500) 주센서노드(121a,121b,121c)가 무인감시장치(100)에 연결되면, 주센서노드(121a,121b,121c)들은 공통인터페이스 프로토콜을 통해 미들웨어엔진(240)에 접속한다. 복수의 주센서노드(121a,121b,121c)가 관제장치(110)와 연결되면 미들웨어엔진(240)은 접속된 복수의 주센서노드(121a,121b,121c)들의 아이디를 저장한다.(510) 그리고, 복수의 주센서노드(121a,121b,121c)에 각각의 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)이 연결되고 각각의 주센서노드들(121a,121b,121c)은 복수의 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)의 아이디를 저장한다.(520) 그리고, 복수의 주센서노드들(121a,121b,121c)은 자신이 저장하고 있는 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)의 아이디를 공통인터페이스부(130)를 통해 미들웨어엔진(240)에 제공한다.(530) 미들웨어엔진(240)은 주센서노드(121a,121b,121c)의 아이디와 주센서노드(121a,121b,121c)에 대응되는 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)의 아이디를 관제엔진(220)에 제공한다.(540) Referring to FIG. 5, a plurality of main sensor nodes 121a, 121b and 121c are connected to the control device 110 through a common interface 130. (500) The main sensor nodes 121a, 121b and 121c are connected to each other. When connected to the unmanned monitoring device 100, the main sensor nodes (121a, 121b, 121c) are connected to the middleware engine 240 through a common interface protocol. When the plurality of main sensor nodes 121a, 121b and 121c are connected to the control device 110, the middleware engine 240 stores IDs of the connected main sensor nodes 121a, 121b and 121c. Then, each of the longitudinal sensor nodes 122a, ..., 127a, 122b, ..., 127b, 122c, ..., 127c is connected to the plurality of main sensor nodes 121a, 121b, 121c, and each of the main sensor nodes 121a, 121b, 121c. 121a, 121b, and 121c store IDs of the plurality of seed sensor nodes 122a, ..., 127a, 122b, ..., 127b, 122c, ..., 127c. (520) And, the plurality of main sensor nodes ( 121a, 121b, and 121c may use IDs of the seed sensor nodes 122a, ..., 127a, 122b, ..., 127b, 122c, ..., 127c stored in the middleware engine 240 through the common interface unit 130. The middleware engine 240 has IDs of the main sensor nodes 121a, 121b, and 121c, and slave sensor nodes 122a, ..., and 127a corresponding to the main sensor nodes 121a, 121b, and 121c. IDs of, 122b, ..., 127b, 122c, ..., 127c are provided to the control engine 220. (540)

본 발명의 기술 사상은 상기 바람직한 실시예에 따라 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며, 그 제한을 위한 것이 아님을 주지하여야 한다. 또한, 본 발명의 기술 분야에서 통상의 전문가라면 본 발명의 기술 사상의 범위 내에서 다양한 실시예가 가능함을 이해할 수 있을 것이다.It is to be understood that the technical spirit of the present invention has been specifically described in accordance with the preferred embodiments thereof, but it is to be understood that the above-described embodiments are intended to be illustrative and not restrictive. In addition, it will be understood by those of ordinary skill in the art that various embodiments are possible within the scope of the technical idea of the present invention.

210: 사용자인터페이스부 220: 관제엔진
221: 관제 데이터베이스 230: GIS 엔진
240: 미들웨어엔진 250: 협업엔진
260: 영상엔진 261: 영상 데이터베이스
210: user interface unit 220: control engine
221: control database 230: GIS engine
240: middleware engine 250: collaboration engine
260: image engine 261: image database

Claims (16)

복수의 센서노드들을 포함하는 센서필드에서 발생된 사건에 대한 상황정보를 제공받아 사용자로부터 상기 사건에 대한 응답방식을 입력받는 사용자 인터페이스부;
복수의 센서노드들로부터 상기 상황정보를 전달받아 저장하고 상기 사용자 인터페이스부로 제공하며, 상기 응답방식에 대응하여 상기 복수의 센서노드들 중 상기 상황정보를 전달받을 특정 센서노드들을 선택하는 관제엔진; 및
상기 상황정보를 상기 관제엔진에 전달하고 상기 관제엔진에 의해 선택된 상기 특정 센서노드에 상기 상황정보를 전달하는 협업엔진을 포함하는 사건 추적을 하는 무인감시장치.
A user interface unit receiving situation information on an event generated in a sensor field including a plurality of sensor nodes and receiving a response method for the event from a user;
A control engine configured to receive and store the context information from a plurality of sensor nodes, provide the context information to the user interface unit, and select specific sensor nodes to receive the context information from among the plurality of sensor nodes in response to the response method; And
And a cooperative engine for delivering the situation information to the control engine and delivering the situation information to the specific sensor node selected by the control engine.
제1항에 있어서,
상기 센서필드로부터 전달받은 정보를 이용하여 감시영상을 생성하고 상기 사용자 인터페이스부에 생성된 상기 감시영상을 전달하는 영상엔진을 더 포함하는 사건 추적을 하는 무인감시장치.
The method of claim 1,
And an image engine for generating a surveillance image by using the information received from the sensor field and further comprising an image engine for transmitting the surveillance image generated in the user interface unit.
제1항에 있어서,
상기 관제엔진에 지도정보를 포함하는 GIS 엔진이 더 연결되어 상기 사용자 인터페이스부에서 상기 지도정보를 통해 상기 센서 필드의 위치를 파악할 수 있도록 하는 사건 추적을 하는 무인감시장치.
The method of claim 1,
And a GIS engine including map information connected to the control engine so that the user interface unit can track the event to determine the location of the sensor field through the map information.
제1항에 있어서,
상기 관제엔진과 상기 복수의 센서노드들 사이에 상기 복수의 센서노드들의 플랫폼과 상기 관제엔진의 플랫폼 간의 연결을 유지시키는 미들웨어엔진을 더 포함하는 사건 추적을 하는 무인감시장치.
The method of claim 1,
And a middleware engine for maintaining a connection between the platform of the plurality of sensor nodes and the platform of the control engine between the control engine and the plurality of sensor nodes.
제1항에 있어서,
상기 관제엔진은 상황정보데이터베이스를 구비하여, 상기 센서필드로부터 전달된 상황정보를 저장하고 상기 사용자 인터페이스에 의해 상기 저장된 상황정보를 상기 선택된 특정 센서노드들에 전달하는 사건 추적을 하는 무인감시장치.
The method of claim 1,
The control engine includes a situation information database, and stores the situation information transmitted from the sensor field and the event tracking to deliver the stored situation information to the selected specific sensor nodes by the user interface.
제1항에 있어서,
상기 상황정보는 복수의 필드를 포함하며, 사건 아이디필드, 센서노드 아이디필드, 사건 확률필드, 사건 발생시점필드, 객체 정보필드 중 적어도 하나를 포함하는 사건 추적을 하는 무인감시장치.
The method of claim 1,
The situation information includes a plurality of fields, the unattended monitoring device for event tracking including at least one of the event ID field, sensor node ID field, event probability field, event occurrence time field, object information field.
제6항에 있어서,
상기 상황정보 중 사건 확률필드, 사건 발생시점필드, 객체 정보필드는 상기 사건이 상기 관제엔진에서 확인되기 전과 상기 관제엔진에서 확인된 후로 구분되어 저장되는 사건 추적을 하는 무인감시장치.
The method of claim 6,
And an event probability field, an event occurrence time field, and an object information field of the situation information are classified and stored before and after the event is confirmed by the control engine and after being confirmed by the control engine.
제1항에 있어서,
상기 센서필드는 주센서노드와 상기 주센서노드에 연결된 종센서노드를 포함하며, 상기 주센서노드는 상기 관제센서로부터 전달된 상황정보를 상기 종센서노드로 전달하는 사건 추적을 하는 무인감시장치.
The method of claim 1,
The sensor field includes a main sensor node and a slave sensor node connected to the main sensor node, wherein the main sensor node tracks an event for transferring the situation information transmitted from the control sensor to the slave sensor node.
제8항에 있어서,
상기 주센서노드와 상기 종센서노드는 각각 아이디를 구비하며, 상기 종센서노드는 네트워크의 형태로 상기 주센서노드에 연결되는 사건을 추적하는 무인감시장치.
The method of claim 8,
And the primary sensor node and the slave sensor node each have an ID, and the slave sensor node tracks an event connected to the primary sensor node in the form of a network.
복수의 센서노드들을 포함하는 센서필드의 센서노드 아이디필드노드에서 사건발생을 인지하고 상기 사건에 대한 상황정보를 관제엔진에 전달하는 단계;
상기 관제엔진에 전달된 상기 상황정보는 사용자 인터페이스부로 전달되어 상기 사용자 인터페이스부에서 상기 상황정보에 대응하여 사건을 발생시킨 객체를 추적 하도록 추적명령을 상기 관제엔진에 전달하는 단계; 및
상기 관제엔진은 상기 추적명령에 대응하여 상기 객체의 정보를 상기 센서필드 중 선택된 특정 센서노드들로 전달하는 단계를 포함하는 사건추적방법.
Recognizing the occurrence of an event in the sensor node ID field node of the sensor field including a plurality of sensor nodes and delivering the situation information on the event to the control engine;
The situation information transmitted to the control engine is delivered to the user interface unit for transmitting a tracking command to the control engine to track the object that caused the event corresponding to the situation information in the user interface unit; And
The control engine comprises the step of delivering the information of the object to the specific sensor node selected from the sensor field in response to the tracking command.
제10항에 있어서,
상기 특정 센서노드들로 전달하는 단계에서, 상기 관제엔진에서 상기 센서필드에서 특정 센서노드를 선택하고, 상기 사용자 인터페이스를 통해 사용자의 응답방식을 센서 필드로 전달하는 협업엔진에서 상기 특정 센서노드로 상기 추적명령을 전달하는 사건추적방법.
The method of claim 10,
In the step of delivering to the specific sensor nodes, the control engine selects a specific sensor node in the sensor field, and transmits the response method of the user to the sensor field through the user interface to the specific sensor node from the collaboration engine Event tracking method for delivering tracking orders.
제10항에 있어서,
상기 사건 발생을 인지하는 단계에서, 지도 정보를 이용하여 사건이 발생된 위치가 상기 사용자 인터페이스부에 표시되도록 하는 단계를 더 포함하는 사건추적방법.
The method of claim 10,
Recognizing the occurrence of the event, the event tracking method further comprising the step of displaying the location where the event occurred using the map information on the user interface.
제10항에 있어서,
상기 관제엔진은 상황정보데이터베이스를 구비하여, 상기 센서필드로부터 전달된 상황정보를 저장하고 상기 사용자 인터페이스에 의해 상기 저장된 상황정보를 상기 선택된 특정 센서노드들에 전달하는 사건추적방법.
The method of claim 10,
The control engine includes a situation information database, which stores situation information transmitted from the sensor field and delivers the stored situation information to the selected specific sensor nodes by the user interface.
제10항에 있어서,
상기 센서필드는 주센서노드와 상기 주센서노드에 연결된 종센서노드를 포함하며, 상기 주센서노드에서 상기 상황정보를 생성하는 사건추적방법.
The method of claim 10,
The sensor field includes a main sensor node and a slave sensor node connected to the main sensor node, wherein the main sensor node generates the situation information.
제14항에 있어서,
상기 주센서노드는 상기 사건이 발생하면 상기 사건 아이디, 주센서노드 아이디, 종센서노드 아이디, 사건 타입, 사건확률, 사건 발생시점, 사건과 연관된 객체들의 정보를 상기 상황정보에 기록하여 상기 관제엔진에 전달하고, 상기 관제엔진에서 상기 사건을 확인하면 상기 주센서노드에서 사건 타입, 사건 확률, 사건 발생시점, 사건과 연관된 객체들의 정보를 상기 상황정보에 기록하는 사건추적방법.
15. The method of claim 14,
When the event occurs, the main sensor node records the event ID, the main sensor node ID, the slave sensor node ID, the event type, the event probability, the occurrence point of the event, and information about objects associated with the event in the situation information. If the control engine confirms the event, the main sensor node records the event type, event probability, event occurrence time, objects associated with the event in the situation information.
공통인터페이스부를 통해 무인감시장치에 주센서노드가 연결되어 미들웨어 엔진에 상기 주센서노드가 접속하는 단계;
상기 미들웨어엔진은 접속된 주센서노드들의 아이디를 저장하는 단계;
상기 주센서노드에 종센서노드들이 연결되고 상기 주센서노드는 상기 종센서노드들의 아이디를 저장하는 단계;
상기 주센서노드는 저장하고 있는 상기 종센서노드들의 아이디를 상기 공통인터페이스부를 통해 상기 미들웨어엔진에 제공하는 단계; 및
상기 미들웨어 엔진은 상기 주센서노드 아이디와 상기 주센서노드에 연결되어 있는 상기 종센서노드의 아이디를 상기 무인감시장치에 제공하여 센서필드를 구성하는 방법.
Connecting the main sensor node to an unmanned monitoring device through a common interface unit to connect the main sensor node to a middleware engine;
The middleware engine storing IDs of connected main sensor nodes;
Slave sensor nodes are connected to the main sensor node, and the main sensor node stores IDs of the slave sensor nodes;
Providing the IDs of the slave sensor nodes stored in the main sensor node to the middleware engine through the common interface unit; And
The middleware engine configures the sensor field by providing the main sensor node ID and the ID of the slave sensor node connected to the main sensor node to the unmanned monitoring device.
KR1020110021524A 2011-03-10 2011-03-10 Surveillance apparatus for event tracking and event tracking method using the same KR20120103328A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020110021524A KR20120103328A (en) 2011-03-10 2011-03-10 Surveillance apparatus for event tracking and event tracking method using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020110021524A KR20120103328A (en) 2011-03-10 2011-03-10 Surveillance apparatus for event tracking and event tracking method using the same

Publications (1)

Publication Number Publication Date
KR20120103328A true KR20120103328A (en) 2012-09-19

Family

ID=47111456

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020110021524A KR20120103328A (en) 2011-03-10 2011-03-10 Surveillance apparatus for event tracking and event tracking method using the same

Country Status (1)

Country Link
KR (1) KR20120103328A (en)

Similar Documents

Publication Publication Date Title
AU2004250976B2 (en) Method and apparatus for providing a scalable multi-camera distributed video processing and visualization surveillance system
KR100920266B1 (en) Visual surveillance camera and visual surveillance method using collaboration of cameras
JP5306660B2 (en) Monitoring system and security management system
CN101375599A (en) Method and system for performing video flashlight
CN104320616A (en) Video monitoring system based on three-dimensional scene modeling
US20120127318A1 (en) Surveillance system using wireless network, master sensor node, and server apparatus
KR20140036398A (en) Cctv integrated management system
KR100833615B1 (en) Remote monitoring system and method thereof
WO2012137367A1 (en) Image accumulation system
KR20090076485A (en) System and method for monitoring accident in a tunnel
CN106097220A (en) A kind of prediction scheme sends method and device
KR101005568B1 (en) Intelligent security system
KR101543561B1 (en) Hybrid fire monitoring apparatus and method
CN106303457A (en) Continuous remote mobile video monitoring method based on wireless location technology and system
CN104967814A (en) Monitoring equipment interconnection control method and system
JP2012099013A (en) Passing vehicle monitoring system and vehicle monitoring camera
CN110853287A (en) Flame real-time monitoring system and method based on Internet of things distributed architecture
KR102107957B1 (en) Cctv monitoring system for detecting the invasion in the exterior wall of building and method thereof
KR101420006B1 (en) System and Method for Camera Image Service based on Distributed Processing
CN115880631A (en) Power distribution station fault identification system, method and medium
JP5502700B2 (en) Traffic vehicle monitoring system and traffic vehicle monitoring device
JP5404453B2 (en) Vehicle monitoring device
CN112804499A (en) Holographic construction safety monitoring system
JP5605178B2 (en) Traffic vehicle monitoring system and vehicle monitoring camera
CN110267087B (en) Dynamic label adding method, device and system

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination