KR20120103328A - Surveillance apparatus for event tracking and event tracking method using the same - Google Patents
Surveillance apparatus for event tracking and event tracking method using the same Download PDFInfo
- Publication number
- KR20120103328A KR20120103328A KR1020110021524A KR20110021524A KR20120103328A KR 20120103328 A KR20120103328 A KR 20120103328A KR 1020110021524 A KR1020110021524 A KR 1020110021524A KR 20110021524 A KR20110021524 A KR 20110021524A KR 20120103328 A KR20120103328 A KR 20120103328A
- Authority
- KR
- South Korea
- Prior art keywords
- event
- sensor
- sensor node
- engine
- field
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B25/00—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
- G08B25/01—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
- G08B25/10—Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using wireless transmission systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/12—Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Signal Processing (AREA)
- Business, Economics & Management (AREA)
- Emergency Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Alarm Systems (AREA)
Abstract
Description
본 발명은 사건 추적을 하는 무인감시장치 및 그를 이용한 사건 추적 방법에 관한 것으로, 더욱 상세히 설명하면, 센서들의 상호작용에 의해 사건 추적을 하는 무인감시장치 및 그를 이용한 사건 추적 방법에 관한 것이다. The present invention relates to an unmanned surveillance apparatus for event tracking and an event tracking method using the same, and more particularly, to an unattended surveillance apparatus for event tracking by interaction of sensors and an event tracking method using the same.
무인 감시장치는 CCTV(Closed-circuit Television) 또는 아이피(Internet Protocol) 카메라와 같은 감시장치를 사용하여 영상을 제공받아 감시하고 기록할 수 있도록 한다. 무인감시장치는 범죄예방, 정보 수집 등을 위해 널리 쓰이고 있으며, CCTV의 수 또는 아이피 카메라의 수를 증가시켜 사각이 줄어들도록 한다. 하지만, 무인감시장치에서 CCTV의 수 또는 아이피 카메라의 수가 늘어나게 되면 CCTV 또는 아이피 카메라를 통해 입력되는 정보의 양이 방대해져 실시간으로 감시를 하기 위해서는 감시 인력을 증가시켜야 한다. Unmanned surveillance devices use surveillance devices such as CCTV (Closed-Circuit Television) or IP (Internet Protocol) cameras to receive and monitor video. The unmanned market is widely used for crime prevention and information collection, and reduces blind spots by increasing the number of CCTVs or IP cameras. However, when the number of CCTVs or IP cameras increases in the unmanned surveillance device, the amount of information input through the CCTV or IP cameras is enormous, so that the number of surveillance personnel must be increased to monitor in real time.
또한, 무인 감시장치에 사용되는 CCTV 또는 아이피 카메라는 각각 독립된 개별적인 감시장치로써 서로 연계되어 있지 않기 때문에 주변의 영상을 보여주는 정도의 기능만을 수행할 수 밖에 없다. 따라서, 종래의 무인감시장치는 사건 발생을 주도적으로 파악하지 못하고 수동적인 대응만이 가능하여 실시간으로 사건을 추적하는 것이 불가능하고 사건에 대응이 지연되는 문제점이 있다. In addition, the CCTV or IP cameras used in the unmanned surveillance device are not independent of each other as independent monitoring devices, and thus only have a function of displaying a surrounding image. Therefore, the conventional unmanned market value does not dominantly grasp the occurrence of the event, only passive response is possible, it is impossible to track the event in real time and there is a problem that the response to the event is delayed.
본 발명은, 대규모 센서망을 기반으로 한 무인 감시장치에서 센서 필드에서 발생된 사건에 대해 센서 노드간의 상황정보를 이용하고 센서 노드와 관제 센터의 상호 작용에 의해 실시간 사건을 추적할 수 있는 무인감시장치 및 그를 이용한 사건 추적 방법을 제공하는 것이다. In the present invention, an unmanned monitoring system using a situation information between sensor nodes for an event generated in a sensor field in an unmanned monitoring apparatus based on a large sensor network and tracking a real-time event by the interaction of a sensor node and a control center It is to provide a device and a method for tracking events using the same.
본 발명의 제1측면은, 복수의 센서노드들을 포함하는 센서필드에서 발생된 사건에 대한 상황정보를 제공받아 사용자로부터 사건에 대한 응답방식을 입력받는 사용자 인터페이스부, 복수의 센서노드들로부터 상황정보를 전달받아 저장하고 사용자 인터페이스부로 제공하며, 응답방식에 대응하여 복수의 센서노드들 중 상황정보를 전달받을 특정 센서노드들을 선택하는 관제엔진 및 상황정보를 관제엔진에 전달하고 관제엔진에 의해 선택된 특정 센서노드에 상황정보를 전달하는 협업엔진을 포함하는 사건 추적을 하는 무인감시장치를 제공하는 것이다. A first aspect of the present invention is a user interface that receives situation information on an event generated in a sensor field including a plurality of sensor nodes and receives a response method for an event from a user, and context information from a plurality of sensor nodes. Receives and stores the received and provided to the user interface unit, and transmits the control engine and the situation information to the control engine to select the specific sensor node to receive the context information among the plurality of sensor nodes in response to the response method and the specific selected by the control engine It provides an unmanned market value for event tracking that includes a collaboration engine that delivers contextual information to sensor nodes.
부가적으로, 센서필드로부터 전달받은 정보를 이용하여 감시영상을 생성하고 사용자 인터페이스부에 생성된 감시영상을 전달하는 영상엔진을 더 포함하는 사건 추적을 하는 무인감시장치를 제공하는 것이다. In addition, to provide an unmanned market value for the event tracking further comprises a video engine for generating a surveillance image using the information received from the sensor field and delivers the surveillance image generated in the user interface.
부가적으로, 관제엔진에 지도정보를 포함하는 GIS 엔진이 더 연결되어 사용자 인터페이스부에서 지도정보를 통해 센서 필드의 위치를 파악할 수 있도록 하는 사건 추적을 하는 무인감시장치를 제공하는 것이다. In addition, the GIS engine including map information is further connected to the control engine to provide an unmanned market value for event tracking that enables the user interface unit to locate the sensor field through the map information.
부가적으로, 관제엔진과 복수의 센서노드들 사이에 복수의 센서노드들의 플랫폼과 관제엔진의 플랫폼 간의 연결을 유지시키는 미들웨어엔진을 더 포함하는 사건 추적을 하는 무인감시장치를 더 제공하는 것이다. Additionally, it further provides an unmanned market value for event tracking further comprising a middleware engine maintaining a connection between the platform of the plurality of sensor nodes and the platform of the control engine between the control engine and the plurality of sensor nodes.
부가적으로, 관제엔진은 상황정보데이터베이스를 구비하여, 센서필드로부터 전달된 상황정보를 저장하고 사용자 인터페이스에 의해 저장된 상황정보를 선택된 특정 센서노드들에 전달하는 사건 추적을 하는 무인감시장치를 제공하는 것이다. In addition, the control engine has a context information database, which provides an unmanned market value for storing event information transmitted from the sensor field and tracking the event delivered by the user interface to selected specific sensor nodes. will be.
부가적으로, 상황정보는 복수의 필드를 포함하며, 사건 아이디필드, 센서노드 아이디필드, 사건 확률필드, 사건 발생시점필드, 객체 정보필드 중 적어도 하나를 포함하는 사건 추적을 하는 무인감시장치를 제공하는 것이다.Additionally, the situation information includes a plurality of fields, and provides an unmanned market value for event tracking that includes at least one of an event ID field, a sensor node ID field, an event probability field, an event occurrence field, and an object information field. It is.
부가적으로, 상황정보 중 사건 확률필드, 사건 발생시점필드, 객체 정보필드는 사건이 관제엔진에서 확인되기 전과 관제엔진에서 확인된 후로 구분되어 저장되는 사건 추적을 하는 무인감시장치를 제공하는 것이다. In addition, the event probability field, the event occurrence field, and the object information field in the context information provide an unmanned market value for event tracking that is stored separately before and after the event is confirmed by the control engine.
부가적으로, 센서필드는 주센서노드와 주센서노드에 연결된 종센서노드를 포함하며, 주센서노드는 관제센서로부터 전달된 상황정보를 종센서노드로 전달하는 사건 추적을 하는 무인감시장치를 제공하는 것이다.In addition, the sensor field includes a main sensor node and a slave sensor node connected to the main sensor node, and the main sensor node provides an unmanned market value for event tracking that transmits the status information transmitted from the control sensor to the slave sensor node. It is.
부가적으로, 주센서노드와 종센서노드는 각각 아이디를 구비하며, 종센서노드는 네트워크의 형태로 주센서노드에 연결되는 사건을 추적하는 무인감시장치.Additionally, the main sensor node and the slave sensor node each has an ID, and the slave sensor node tracks an event connected to the main sensor node in the form of a network.
본 발명의 제2측면은, 복수의 센서노드들을 포함하는 센서필드의 센서노드 아이디필드노드에서 사건발생을 인지하고 사건에 대한 상황정보를 관제엔진에 전달하는 단계, 관제엔진에 전달된 상기 상황정보는 사용자 인터페이스부로 전달되어 사용자 인터페이스부에서 상황정보에 대응하여 사건을 발생시킨 객체를 추적 하도록 추적명령을 상기 관제엔진에 전달하는 단계 및 관제엔진은 추적명령에 대응하여 객체의 정보를 센서필드 중 선택된 특정 센서노드들로 전달하는 단계를 포함하는 사건추적방법을 제공하는 것이다. The second aspect of the present invention, the step of recognizing the occurrence of the event in the sensor node ID field node of the sensor field including a plurality of sensor nodes and transmitting the situation information on the event to the control engine, the situation information transmitted to the control engine Is transmitted to the user interface unit to transmit a tracking command to the control engine to track the object that caused the event in response to the situation information in the user interface unit, and the control engine selects the object information from the sensor field in response to the tracking command. It is to provide an event tracking method comprising the step of delivering to specific sensor nodes.
부가적으로, 특정 센서노드들로 전달하는 단계에서, 관제엔진에서 센서필드에서 특정 센서노드를 선택하고, 사용자 인터페이스를 통해 사용자의 응답방식을 센서 필드로 전달하는 협업엔진에서 특정 센서노드로 추적명령을 전달하는 사건추적방법을 제공하는 것이다. In addition, in the step of delivering to specific sensor nodes, the control engine selects a specific sensor node in the sensor field and tracks the command to the specific sensor node in the cooperative engine that delivers the user's response to the sensor field through the user interface. It is to provide an event tracking method that delivers
부가적으로, 사건 발생을 인지하는 단계에서, 지도 정보를 이용하여 사건이 발생된 위치가 사용자 인터페이스부에 표시되도록 하는 단계를 더 포함하는 사건추적방법을 제공하는 것이다. In addition, in the step of recognizing the occurrence of the event, to provide an event tracking method further comprising the step of displaying the location where the event occurred using the map information to the user interface.
부가적으로, 관제엔진은 상황정보데이터베이스를 구비하여, 센서필드로부터 전달된 상황정보를 저장하고 사용자 인터페이스에 의해 저장된 상황정보를 선택된 특정 센서노드들에 전달하는 사건추적방법을 제공하는 것이다. In addition, the control engine is provided with a situation information database, to provide the event tracking method for storing the situation information transmitted from the sensor field and delivering the situation information stored by the user interface to the selected specific sensor nodes.
부가적으로, 센서필드는 주센서노드와 주센서노드에 연결된 종센서노드를 포함하며, 주센서노드에서 상황정보를 생성하는 사건추적방법을 제공하는 것이다. In addition, the sensor field includes a main sensor node and a slave sensor node connected to the main sensor node, and provides an event tracking method for generating situation information in the main sensor node.
부가적으로, 주센서노드는 사건이 발생하면 사건 아이디, 주센서노드 아이디, 종센서노드 아이디, 사건 타입, 사건확률, 사건 발생시점, 사건과 연관된 객체들의 정보를 상황정보에 기록하여 관제엔진에 전달하고, 관제엔진에서 사건을 확인하면 주센서노드에서 사건 타입, 사건 확률, 사건 발생시점, 사건과 연관된 객체들의 정보를 상기 상황정보에 기록하는 사건추적방법을 제공하는 것이다. In addition, the main sensor node records the event ID, main sensor node ID, slave sensor node ID, event type, event probability, when the event occurred, and objects related to the event in the context information when the event occurs. When the event is confirmed by the control engine, the main sensor node provides an event tracking method for recording the event type, event probability, event occurrence time, and object related information in the situation information.
부가적으로, 공통인터페이스부를 통해 무인감시장치에 주센서노드가 연결되어 미들웨어 엔진에 상기 주센서노드가 접속하는 단계, 미들웨어엔진은 접속된 주센서노드들의 아이디를 저장하는 단계, 주센서노드에 종센서노드들이 연결되고 주센서노드는 종센서노드들의 아이디를 저장하는 단계, 주센서노드는 저장하고 있는 종센서노드들의 아이디를 공통인터페이스부를 통해 미들웨어엔진에 제공하는 단계 및 미들웨어 엔진은 주센서노드 아이디와 주센서노드에 연결되어 있는 종센서노드의 아이디를 무인감시장치에 제공하여 센서필드를 구성하는 방법을 제공하는 것이다. In addition, the main sensor node is connected to the unmanned monitoring device through a common interface unit to connect the main sensor node to the middleware engine, the middleware engine stores the IDs of the connected main sensor nodes, the slave to the main sensor node The sensor nodes are connected and the main sensor node stores the IDs of the slave sensor nodes, the main sensor node provides the IDs of the slave sensor nodes stored to the middleware engine through the common interface unit, and the middleware engine is the main sensor node ID. It provides a method of constructing a sensor field by providing the unmanned monitoring device with the ID of the slave sensor node connected to the main sensor node.
본 발명에 따른 사건 추적을 하는 무인감시장치 및 그를 이용한 사건 추적 방법에 의하면, 대규모 센서망을 기반으로 하는 센서필드에서 실시간으로 사건을 검출하고 상황정보를 생성함으로써, 대규모 센서 망에 포함되는 센서노드들이 상황정보를 전송 또는 수신을 통한 협업을 통해 사건 추적 및 상황 인지와 대응을 자동화할 수 있다. According to the unmanned monitoring device and the event tracking method using the event tracking according to the present invention, by detecting the event in real time in the sensor field based on the large sensor network and generating situation information, the sensor node included in the large sensor network They can collaborate by sending or receiving context information to automate incident tracking and context awareness and response.
따라서, 무인감시장치가 사건을 추적할 수 있어 무인감시장치를 이용하여 사건 해결을 용이하게 할 수 있고 소수의 인력으로도 사건 판단의 오보율을 낮출 수 있다. Therefore, the unmanned surveillance apparatus can track the incident, thereby facilitating the resolution of the incident by using the unmanned surveillance market, and can lower the error rate of the judgment of the incident even with a small number of personnel.
도 1은 본 발명에 따른 사건 추적을 하는 무인감시장치의 일실시예를 나타내는 구조도이다.
도 2는 도 1에 도시된 관제장치의 일실시예를 나타내는 구조도이다.
도 3은 본 발명에 따른 사건 추적을 하는 무인감시장치에서 사건을 추적하는 과정을 나타내는 도면이다.
도 4는 도 1에 도시된 주센서노드에서 생성하는 상황정보의 일실시예를 나타내는 구조도이다.
도 5는 도 2에 도시된 관제엔진에서 센서필드로 추적요청을 하는 과정의 일실시예를 나타내는 순서도이다.1 is a structural diagram showing an embodiment of an unmanned surveillance apparatus for tracking an event according to the present invention.
2 is a structural diagram showing an embodiment of the control device shown in FIG.
3 is a diagram illustrating a process of tracing an event in an unmanned monitoring apparatus for event tracing according to the present invention.
4 is a structural diagram illustrating an embodiment of context information generated by the main sensor node shown in FIG. 1.
FIG. 5 is a flowchart illustrating an embodiment of a process of performing a tracking request to a sensor field in the control engine shown in FIG. 2.
이하에서는 본 발명을 이러한 실시예들을 통해 당업자가 용이하게 이해하고 재현할 수 있도록 상세히 설명하기로 한다. Hereinafter, the present invention will be described in detail so that those skilled in the art can easily understand and reproduce the present invention through these embodiments.
도 1은 본 발명에 따른 사건 추적을 하는 무인감시장치의 일실시예를 나타내는 구조도이다. 1 is a structural diagram showing an embodiment of an unmanned surveillance apparatus for tracking an event according to the present invention.
도 1을 참조하면, 무인감시장치(100)는 관제장치(110), 복수의 센서필드들(120a,120b,120c) 및 공통인터페이스부(130)를 포함한다. Referring to FIG. 1, the unmanned monitoring device 100 includes a
관제장치(110)는 센서필드들(120a,120b,120c)에서 수집된 정보를 전달받아 일시적인 사건인지 추가적인 상황이 발생하는 사건인지의 여부를 판단한다. 관제장치(110)는, 예를 들어, 사건을 발생시킨 객체의 도주와 같이 추가적인 상황이 발생하는 사건으로 판단을 하면 센서필드들(120a,120b,120c)이 사건을 발생시킨 객체를 추적하도록 한다. The
센서필드들(120a,120b,120c)은 복수의 센서노드들을 포함하며, 센서노드들이 설치된 영역에 발생한 사건에 대한 정보를 수집하며 감시 대상인 사건을 발생시킨 객체에 관한 정보를 관제장치(110)로 전송한다. 센서필드들(120a,120b,120c)은 정보 수집을 위해 주센서노드들(121a,121b,121c)과 각각의 주센서노드들(121a,121b,121c)과 네트워크로 연결된 복수의 종센서노드들(122a,…,127a, 122b,…127b, 122c,..,127c)을 포함한다. 복수의 주센서노드들(121a,121b,121c)과 복수의 종센서노드들(122a,…,127a, 122b,…127b, 122c,..,127c)은 각각 아이디를 구비하며, 아이디를 이용하여 통신을 할 수 있다. 주센서노드(121a,121b,121c)와 종센서노드(122a,…,127a, 122b,…127b, 122c,..,127c)는 음향센서, 온도센서, 습도센서, 조도센서, 중력센서, 카메라 중 적어도 하나를 포함하며 센서들 또는 카메라의 동작을 제어하고 센서들 또는 카메라에서 소집된 정보를 관제장치 또는 따른 센서노드로 전송할 수 있다. The
또한, 하나의 센서필드에는 센서필드가 감시하는 영역의 크기에 대응하여 하나의 주센서노드가 설치될 수 있고 복수의 주센서노드가 설치될 수 있다. In addition, one main sensor node may be installed in one sensor field corresponding to the size of the area monitored by the sensor field, and a plurality of main sensor nodes may be installed.
공통인터페이스부(130)는 관제장치(110)와 복수의 센서필드들(120a,120b,120c)이 연결을 유지할 수 있도록 하며, 복수의 센서필드들(120a,120b,120c)로부터 발생한 사건에 관한 정보를 관제장치(110)로 제공하고 관제장치(110)로부터 사건 추적 요구를 받아 사건을 추적한다. 공통인터페이스부(130)는 ONVIF(Open Network Video Interface Forum) 프로토콜을 사용할 수 있다. The common interface unit 130 maintains the connection between the
도 2는 도 1에 도시된 관제장치의 일실시예를 나타내는 구조도이다. 2 is a structural diagram showing an embodiment of the control device shown in FIG.
도 2를 참조하면, 관제장치(110)는 사용자 인터페이스부(210), 관제엔진(220), GIS 엔진(230), 미들웨어엔진(240), 협업엔진(250) 및 영상엔진(260)을 포함한다. 2, the
사용자 인터페이스부(210)는 복수의 센서노드들을 포함하는 센서필드에서 수집된 사건에 대한 상황정보를 전달받아 사용자에게 제공한다. 또한, 사용자 인터페이스부(210)는 사용자가 제공받은 상황정보를 이용하여 상기 사건에 대한 응답방식을 결정하면, 결정된 응답방식을 입력받는다. 즉, 사용자 인터페이스부(210)는 무인감시장치(100)를 이용하는 사용자에게 복수의 센서필드들(120a,120b,120c)의 각각의 주센서노드(121a,121b,121c)와 종센서노드(122a,…,127a, 122b,…127b, 122c,..,127c)에서 수집한 영상과 지도정보를 제공하여 사용자가 상황을 인식할 수 있도록 하여 사건을 발생시킨 객체를 확인하고 객체를 추적할 지의 여부 등을 결정하도록 하고 사용자의 결정에 대응하여 객체를 확인하도록 하는 명령과 객체를 추적할 지의 여부를 지시하는 명령을 생성한다. The
관제엔진(220)은 사건 정보규칙에 대응하여 지능형 상황인지 기반 실시간으로 복수의 센서필드들(120a,120b,120c)에서 감지된 복수의 사건들을 사용자 인터페이스부(210)로 전달한다. 또한, 관제엔진(220)은 관제데이터베이스(221)를 포함하며, 관제데이터베이스(221)에 복수의 센서필드들(120a,120b,120c)에서 전송된 상황정보를 데이터베이스화하여 저장하고 사용자 인터페이스부(210)에 의해 저장된 상황정보를 갱신한다. The
GIS(Geographic Information System) 엔진(230)은, 지도정보를 이용하여 건물, 도로 등에 대응하는 위치정보와 속성정보를 데이터베이스화하고 사용자 인터페이스부(210)에 전달하여 지도정보가 시각적으로 표시될 수 있도록 한다. The Geographic Information System (GIS)
미들웨어엔진(240)은 복수의 센서필드들(120a,120b,120c)에 포함되어 있는 주센서노드(121a,121b,121c) 및 종센서노드들(122a,…,127a, 122b,…127b, 122c,..,127c)과 관제엔진(220)이 공통인터페이스부(130)를 통해 통신을 할 수 있도록 하는 것으로, 특히, XML(eXtensible Markup Language)을 이용하여 정보를 수집하는 주센서노드(121a,121b,121c)의 플랫폼과 관제엔진(220)의 플랫폼 간의 인터페이스 기술을 수행한다. The
협업엔진(250)은 사용자 인터페이스부(210)를 통해 사용자의 요구사항을 센서필드들(120a,120b,120c)로 전달한다. 또한, 협업엔진(250)은 GIS 엔진(230)에 저장되어 있는 지도 정보를 기반으로 복수의 센서필드들(120a,120b,120c) 및 관제엔진(220)으로부터 전달받은 정보를 지도상에 표시할 수 있도록 한다. 또한, 협업엔진(250)은 파노라마 기술을 이용하여 감시 정보를 가시화하는 GIS 엔진(230)과 주센서노드(121a,121b,121c) 간에 정보가 교환되도록 한다. 협업엔진(250)은 사용자 인터페이스부(210)로부터 사건 추적 명령이 입력되면 관제엔진(220)과 주센서노드(121a,121b,121c)에서 추적정보가 유지되도록 한다. 또한, 협업엔진(250)은 공통인터페이스부(130)를 통해 복수의 센서필드들(120a,120b,120c)과 통신을 할 수 있다. The
영상엔진(260)은 센서필드들(120a,120b,120c)에 포함된 주센서노드와 종센서노드들의 네트워크를 통해 감시된 영역에 대한 시간별, 지역별, 그룹별 감시 영상을 생성한다. 또한, 영상엔진(260)은 영상 데이터베이스(261)를 포함하며, 센서필드들(120a,120b,120c)에서 촬영된 영상을 시간별, 지역별, 그룹별로 구분하여 저장한다. 또한, 영상엔진(260)은 영상 데이터베이스(261)에 저장된 영상을 사용자 인터페이스부(210)에 제공함으로써 사용자 인터페이스부(210)를 통해 시청할 수 있도록 한다. 그리고, 영상엔진(260)은 공통인터페이스부(130)를 통해 센서필드들(120a,120b,120c)과 통신을 할 수 있다. The
도 3은 본 발명에 따른 사건 추적을 하는 무인감시장치에서 사건을 추적하는 과정을 나타내는 도면이다. 3 is a diagram illustrating a process of tracing an event in an unmanned monitoring apparatus for event tracing according to the present invention.
도 3을 참조하면, 무인감시장치는 제1센서필드(120a), 제2센서필드(120b) 및 제3센서필드(120c)를 통해 감시하며, 사건은 제1종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)와 제2종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)에 의해 감시되는 교차로인 제1영역(A)에서 추돌사고(차와 사람 또는 차와 차 등)가 발생한 것으로 가정한다. Referring to FIG. 3, the unattended market value is monitored through the
제1종센서노드(123a)와 제2종센서노드(126a)가 제1영역(A)에서 최초 사건 발생을 감지하면, 제1주센서노드(121a)는 제1종센서노드(123a)와 제2종센서노드(126a)로부터 영상 등의 정보를 전송받아 관제장치(110)로 전송을 한다. 이때, 제1종센서노드(123a)와 제2종센서노드(126a)는 제1영역(A)에서 발생된 사건에 대한 사건 확률을 계산한다. 이때, 제1종센서노드(123a)와 제2종센서노드(126a)는 촬영 위치 등의 차이로 인해 발생된 사건에 대한 사건 확률이 다르게 설정될 수 있다. 그리고, 제1주센서노드(121a)는 제1종센서노드(123a)와 제2종센서노드(126a)에서 수집한 정보를 이용하여 상황정보를 생성하고 생성된 상황정보에 대응하여 제1종센서노드(123a)와 제2종센서노드(126a)에서 수집한 영상에 기록된 사건이 동일한 사건임을 판단한다. 그리고, 제1주센서노드(121a)는 생성된 상황정보를 관제엔진(220)에 전달한다. 관제엔진(220)은 상황정보와 영상엔진(260)에 의해 생성된 영상을 사용자 인터페이스부(210)로 제공한다. 또한, 관제엔진(220)은 GIS 엔진(230)에 의해 생성된 지도 정보를 사용자 인터페이스부(210)로 제공한다. 사용자 인터페이스부(210)에 의해 발생된 사건이 확인되면, 관제엔진(220)은 사건이 발생되었음을 확인하고 사건을 발생시킨 객체를 특정한다. 이때, 제1주센서노드(121a)에서 생성한 상황정보에 사건을 일으킨 객체가 기록되어 있지만, 사용자 인터페이스부(210)를 통해 제공된 영상을 통해 사건을 일으킨 객체를 다시 판단하여 수정할 수 있도록 한다. 그리고, 관제엔진(220)은 지도정보를 이용하여 사건을 발생시킨 객체의 도주로를 예상한다. 협업엔진(250)은 도주로를 감시하는 센서필드들을 파악하고 상황정보를 예상된 도주로를 감시하는 센서필드로 전달된다. 그리고, 사건을 일으킨 객체인 차량이 최초 사건 발생영역인 제1영역(A)에서 제2영역(B)을 지나 제3영역(C)으로 도주하면, 제2영역(B)에서는 협업엔진(250)을 통해 상황정보를 수신한 제3종센서노드(126b)에서 도주차량을 감시하고 제3영역(C)에서는 협업엔진(250)을 통해 상황정보를 수신한 제4종센서노드(126c)에서 도주차량을 감시한다. 이때, 제2영역(B)과 제3영역(C)에서 각각 제3종센서노드(126b)와 제4종센서노드(126c) 외에 다른 종센서노드들에서도 동시에 도주차량을 감시할 수 있다. 또한, 주센서노드와 종센서노드들은 관제엔진(220)에서 생성된 상황정보와 도주차량의 정보를 이용하여 도주차량을 발견하거나 추적요청이 철회될 때까지 지속적으로 감시를 한다.When the first
도 4는 도 1에 도시된 주센서노드에서 생성하는 상황정보의 일실시예를 나타내는 구조도이다. 4 is a structural diagram illustrating an embodiment of context information generated by the main sensor node shown in FIG. 1.
도 4를 참조하면, 상황정보는 복수의 필드를 포함하며, 사건 아이디 필드(401), 주센서노드아이디 필드(402), 종센서노드 아이디 필드(403), 사건 타입 필드(404a,404b), 사건 결정 필드(405a,405b), 사건확률 필드(406a,406b), 사건 발생시점 필드(407a,407b), 사건을 발생시킨 객체정보 필드(408a,408b,409a,409b,410a,410b)를 포함한다.Referring to FIG. 4, the situation information includes a plurality of fields, an
사건 아이디 필드(401)는 발생된 사건을 구분할 수 있도록 하는 것으로, 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c) 또는 주센서노드(121a,121b,121c)가 사건 발생을 감지하면, 주센서노드(121a,121b,121c)는 자신이 감지한 사건 또는 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)로부터 사건의 정보를 전달받고 해당 사건에 대한 아이디를 할당하여 사건 아이디 필드(401)에 기록한다. The
주센서노드 아이디 필드(402)는 사건에 대한 정보를 수집한 주센서노드(121a,121b,121c)의 아이디 또는 사건에 대한 정보를 수집한 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)과 연결되어 있는 주센서노드(121a,121b,121c)의 아이디가 기록된다. The primary sensor
종센서노드 아이디 필드(403)는 사건에 대한 정보를 수집한 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)의 아이디가 기록된다. The seed sensor
사건 타입 필드(404a,404b)는 두 가지 필드로 구분되며, 사건 타입 필드(404a,404b)에 의해 사건 결정 필드(405a,405b), 사건확률 필드(406a,406b), 사건 발생시점 필드(407a,407b), 객체정보필드(408a,408b,409a,409b,410a,410b)가 각각 두 가지 필드로 구분된다. The event type fields 404a and 404b are divided into two fields, which are determined by the event type fields 404a and 404b, the event decision fields 405a and 405b, the
사건 결정 필드(405a,405b)는 첫번째 필드(405a)에 주센서노드(121a,121b,121c)에서 수집된 사건 정보를 이용하여 사건정황을 작성할 때 사용되고 두 번째 필드(405b)는 주센서노드(121a,121b,121c)에서 작성된 상황정보가 관제장치(110)로 전달된 후 관제장치(110)의 관제엔진(220)에서 수정된 정보가 저장되는 것이 가능하다. The event decision fields 405a and 405b are used to compose the event situation using the event information collected from the
사건확률 필드(406a,406b)는 센서필드들(120a,120b,120c)에서 감지된 사건이 감시 대상 사건일 확률을 나타내는 것으로 퍼센트로 표시될 수 있다. 이때, 사건확률 필드(406a,406b)는 첫번째 필드(406a)에는 센서필드들(120a,120b,120c)에서 계산된 확률이 기록되고 두번째 필드(406b)에는 관제엔진(220)에서 수정된 확률이 기록될 수 있다. The
발생시점 필드(407a,407b)는 사건이 발생된 시점을 기록하는 필드로, 첫번째 필드(407a)는 센서필드들(120a,120b,120c)에서 감지된 시점이 기록되고 두번째 필드(407b)에서는 관제엔진(220)에서 수정된 발생시점이 기록된다.
객체정보 필드(408a,408b,409a,409b,410a,410b)는 각 센서필드들(120a,120b,120c)에서 사건을 발생시킨 객체에 대한 정보를 저장하는 필드로, 첫번째 필드(408a, 409a, 410a)는 센서필드들(120a,120b,120c)에서 판단된 객체에 대한 정보가 기록되고 두번째 필드(408b, 409b, 410b)에서는 관제엔진(220)에서 수정된 객체에 대한 정보가 기록된다. The
도 5는 도 2에 도시된 관제엔진에서 센서필드로 추적요청을 하는 과정의 일실시예를 나타내는 순서도이다. FIG. 5 is a flowchart illustrating an embodiment of a process of performing a tracking request to a sensor field in the control engine shown in FIG. 2.
도 5를 참조하면, 복수의 주센서노드(121a,121b,121c)가 공통인터페이스부(130)를 통해 관제장치(110)에 연결된다.(500) 주센서노드(121a,121b,121c)가 무인감시장치(100)에 연결되면, 주센서노드(121a,121b,121c)들은 공통인터페이스 프로토콜을 통해 미들웨어엔진(240)에 접속한다. 복수의 주센서노드(121a,121b,121c)가 관제장치(110)와 연결되면 미들웨어엔진(240)은 접속된 복수의 주센서노드(121a,121b,121c)들의 아이디를 저장한다.(510) 그리고, 복수의 주센서노드(121a,121b,121c)에 각각의 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)이 연결되고 각각의 주센서노드들(121a,121b,121c)은 복수의 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)의 아이디를 저장한다.(520) 그리고, 복수의 주센서노드들(121a,121b,121c)은 자신이 저장하고 있는 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)의 아이디를 공통인터페이스부(130)를 통해 미들웨어엔진(240)에 제공한다.(530) 미들웨어엔진(240)은 주센서노드(121a,121b,121c)의 아이디와 주센서노드(121a,121b,121c)에 대응되는 종센서노드들(122a,…,127a, 122b,…,127b, 122c,…,127c)의 아이디를 관제엔진(220)에 제공한다.(540) Referring to FIG. 5, a plurality of
본 발명의 기술 사상은 상기 바람직한 실시예에 따라 구체적으로 기술되었으나, 상기한 실시예는 그 설명을 위한 것이며, 그 제한을 위한 것이 아님을 주지하여야 한다. 또한, 본 발명의 기술 분야에서 통상의 전문가라면 본 발명의 기술 사상의 범위 내에서 다양한 실시예가 가능함을 이해할 수 있을 것이다.It is to be understood that the technical spirit of the present invention has been specifically described in accordance with the preferred embodiments thereof, but it is to be understood that the above-described embodiments are intended to be illustrative and not restrictive. In addition, it will be understood by those of ordinary skill in the art that various embodiments are possible within the scope of the technical idea of the present invention.
210: 사용자인터페이스부 220: 관제엔진
221: 관제 데이터베이스 230: GIS 엔진
240: 미들웨어엔진 250: 협업엔진
260: 영상엔진 261: 영상 데이터베이스210: user interface unit 220: control engine
221: control database 230: GIS engine
240: middleware engine 250: collaboration engine
260: image engine 261: image database
Claims (16)
복수의 센서노드들로부터 상기 상황정보를 전달받아 저장하고 상기 사용자 인터페이스부로 제공하며, 상기 응답방식에 대응하여 상기 복수의 센서노드들 중 상기 상황정보를 전달받을 특정 센서노드들을 선택하는 관제엔진; 및
상기 상황정보를 상기 관제엔진에 전달하고 상기 관제엔진에 의해 선택된 상기 특정 센서노드에 상기 상황정보를 전달하는 협업엔진을 포함하는 사건 추적을 하는 무인감시장치. A user interface unit receiving situation information on an event generated in a sensor field including a plurality of sensor nodes and receiving a response method for the event from a user;
A control engine configured to receive and store the context information from a plurality of sensor nodes, provide the context information to the user interface unit, and select specific sensor nodes to receive the context information from among the plurality of sensor nodes in response to the response method; And
And a cooperative engine for delivering the situation information to the control engine and delivering the situation information to the specific sensor node selected by the control engine.
상기 센서필드로부터 전달받은 정보를 이용하여 감시영상을 생성하고 상기 사용자 인터페이스부에 생성된 상기 감시영상을 전달하는 영상엔진을 더 포함하는 사건 추적을 하는 무인감시장치.The method of claim 1,
And an image engine for generating a surveillance image by using the information received from the sensor field and further comprising an image engine for transmitting the surveillance image generated in the user interface unit.
상기 관제엔진에 지도정보를 포함하는 GIS 엔진이 더 연결되어 상기 사용자 인터페이스부에서 상기 지도정보를 통해 상기 센서 필드의 위치를 파악할 수 있도록 하는 사건 추적을 하는 무인감시장치.The method of claim 1,
And a GIS engine including map information connected to the control engine so that the user interface unit can track the event to determine the location of the sensor field through the map information.
상기 관제엔진과 상기 복수의 센서노드들 사이에 상기 복수의 센서노드들의 플랫폼과 상기 관제엔진의 플랫폼 간의 연결을 유지시키는 미들웨어엔진을 더 포함하는 사건 추적을 하는 무인감시장치. The method of claim 1,
And a middleware engine for maintaining a connection between the platform of the plurality of sensor nodes and the platform of the control engine between the control engine and the plurality of sensor nodes.
상기 관제엔진은 상황정보데이터베이스를 구비하여, 상기 센서필드로부터 전달된 상황정보를 저장하고 상기 사용자 인터페이스에 의해 상기 저장된 상황정보를 상기 선택된 특정 센서노드들에 전달하는 사건 추적을 하는 무인감시장치.The method of claim 1,
The control engine includes a situation information database, and stores the situation information transmitted from the sensor field and the event tracking to deliver the stored situation information to the selected specific sensor nodes by the user interface.
상기 상황정보는 복수의 필드를 포함하며, 사건 아이디필드, 센서노드 아이디필드, 사건 확률필드, 사건 발생시점필드, 객체 정보필드 중 적어도 하나를 포함하는 사건 추적을 하는 무인감시장치.The method of claim 1,
The situation information includes a plurality of fields, the unattended monitoring device for event tracking including at least one of the event ID field, sensor node ID field, event probability field, event occurrence time field, object information field.
상기 상황정보 중 사건 확률필드, 사건 발생시점필드, 객체 정보필드는 상기 사건이 상기 관제엔진에서 확인되기 전과 상기 관제엔진에서 확인된 후로 구분되어 저장되는 사건 추적을 하는 무인감시장치.The method of claim 6,
And an event probability field, an event occurrence time field, and an object information field of the situation information are classified and stored before and after the event is confirmed by the control engine and after being confirmed by the control engine.
상기 센서필드는 주센서노드와 상기 주센서노드에 연결된 종센서노드를 포함하며, 상기 주센서노드는 상기 관제센서로부터 전달된 상황정보를 상기 종센서노드로 전달하는 사건 추적을 하는 무인감시장치.The method of claim 1,
The sensor field includes a main sensor node and a slave sensor node connected to the main sensor node, wherein the main sensor node tracks an event for transferring the situation information transmitted from the control sensor to the slave sensor node.
상기 주센서노드와 상기 종센서노드는 각각 아이디를 구비하며, 상기 종센서노드는 네트워크의 형태로 상기 주센서노드에 연결되는 사건을 추적하는 무인감시장치.The method of claim 8,
And the primary sensor node and the slave sensor node each have an ID, and the slave sensor node tracks an event connected to the primary sensor node in the form of a network.
상기 관제엔진에 전달된 상기 상황정보는 사용자 인터페이스부로 전달되어 상기 사용자 인터페이스부에서 상기 상황정보에 대응하여 사건을 발생시킨 객체를 추적 하도록 추적명령을 상기 관제엔진에 전달하는 단계; 및
상기 관제엔진은 상기 추적명령에 대응하여 상기 객체의 정보를 상기 센서필드 중 선택된 특정 센서노드들로 전달하는 단계를 포함하는 사건추적방법. Recognizing the occurrence of an event in the sensor node ID field node of the sensor field including a plurality of sensor nodes and delivering the situation information on the event to the control engine;
The situation information transmitted to the control engine is delivered to the user interface unit for transmitting a tracking command to the control engine to track the object that caused the event corresponding to the situation information in the user interface unit; And
The control engine comprises the step of delivering the information of the object to the specific sensor node selected from the sensor field in response to the tracking command.
상기 특정 센서노드들로 전달하는 단계에서, 상기 관제엔진에서 상기 센서필드에서 특정 센서노드를 선택하고, 상기 사용자 인터페이스를 통해 사용자의 응답방식을 센서 필드로 전달하는 협업엔진에서 상기 특정 센서노드로 상기 추적명령을 전달하는 사건추적방법.The method of claim 10,
In the step of delivering to the specific sensor nodes, the control engine selects a specific sensor node in the sensor field, and transmits the response method of the user to the sensor field through the user interface to the specific sensor node from the collaboration engine Event tracking method for delivering tracking orders.
상기 사건 발생을 인지하는 단계에서, 지도 정보를 이용하여 사건이 발생된 위치가 상기 사용자 인터페이스부에 표시되도록 하는 단계를 더 포함하는 사건추적방법. The method of claim 10,
Recognizing the occurrence of the event, the event tracking method further comprising the step of displaying the location where the event occurred using the map information on the user interface.
상기 관제엔진은 상황정보데이터베이스를 구비하여, 상기 센서필드로부터 전달된 상황정보를 저장하고 상기 사용자 인터페이스에 의해 상기 저장된 상황정보를 상기 선택된 특정 센서노드들에 전달하는 사건추적방법.The method of claim 10,
The control engine includes a situation information database, which stores situation information transmitted from the sensor field and delivers the stored situation information to the selected specific sensor nodes by the user interface.
상기 센서필드는 주센서노드와 상기 주센서노드에 연결된 종센서노드를 포함하며, 상기 주센서노드에서 상기 상황정보를 생성하는 사건추적방법.The method of claim 10,
The sensor field includes a main sensor node and a slave sensor node connected to the main sensor node, wherein the main sensor node generates the situation information.
상기 주센서노드는 상기 사건이 발생하면 상기 사건 아이디, 주센서노드 아이디, 종센서노드 아이디, 사건 타입, 사건확률, 사건 발생시점, 사건과 연관된 객체들의 정보를 상기 상황정보에 기록하여 상기 관제엔진에 전달하고, 상기 관제엔진에서 상기 사건을 확인하면 상기 주센서노드에서 사건 타입, 사건 확률, 사건 발생시점, 사건과 연관된 객체들의 정보를 상기 상황정보에 기록하는 사건추적방법. 15. The method of claim 14,
When the event occurs, the main sensor node records the event ID, the main sensor node ID, the slave sensor node ID, the event type, the event probability, the occurrence point of the event, and information about objects associated with the event in the situation information. If the control engine confirms the event, the main sensor node records the event type, event probability, event occurrence time, objects associated with the event in the situation information.
상기 미들웨어엔진은 접속된 주센서노드들의 아이디를 저장하는 단계;
상기 주센서노드에 종센서노드들이 연결되고 상기 주센서노드는 상기 종센서노드들의 아이디를 저장하는 단계;
상기 주센서노드는 저장하고 있는 상기 종센서노드들의 아이디를 상기 공통인터페이스부를 통해 상기 미들웨어엔진에 제공하는 단계; 및
상기 미들웨어 엔진은 상기 주센서노드 아이디와 상기 주센서노드에 연결되어 있는 상기 종센서노드의 아이디를 상기 무인감시장치에 제공하여 센서필드를 구성하는 방법.
Connecting the main sensor node to an unmanned monitoring device through a common interface unit to connect the main sensor node to a middleware engine;
The middleware engine storing IDs of connected main sensor nodes;
Slave sensor nodes are connected to the main sensor node, and the main sensor node stores IDs of the slave sensor nodes;
Providing the IDs of the slave sensor nodes stored in the main sensor node to the middleware engine through the common interface unit; And
The middleware engine configures the sensor field by providing the main sensor node ID and the ID of the slave sensor node connected to the main sensor node to the unmanned monitoring device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110021524A KR20120103328A (en) | 2011-03-10 | 2011-03-10 | Surveillance apparatus for event tracking and event tracking method using the same |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020110021524A KR20120103328A (en) | 2011-03-10 | 2011-03-10 | Surveillance apparatus for event tracking and event tracking method using the same |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20120103328A true KR20120103328A (en) | 2012-09-19 |
Family
ID=47111456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020110021524A KR20120103328A (en) | 2011-03-10 | 2011-03-10 | Surveillance apparatus for event tracking and event tracking method using the same |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20120103328A (en) |
-
2011
- 2011-03-10 KR KR1020110021524A patent/KR20120103328A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2004250976B2 (en) | Method and apparatus for providing a scalable multi-camera distributed video processing and visualization surveillance system | |
KR100920266B1 (en) | Visual surveillance camera and visual surveillance method using collaboration of cameras | |
JP5306660B2 (en) | Monitoring system and security management system | |
CN101375599A (en) | Method and system for performing video flashlight | |
CN104320616A (en) | Video monitoring system based on three-dimensional scene modeling | |
US20120127318A1 (en) | Surveillance system using wireless network, master sensor node, and server apparatus | |
KR20140036398A (en) | Cctv integrated management system | |
KR100833615B1 (en) | Remote monitoring system and method thereof | |
WO2012137367A1 (en) | Image accumulation system | |
KR20090076485A (en) | System and method for monitoring accident in a tunnel | |
CN106097220A (en) | A kind of prediction scheme sends method and device | |
KR101005568B1 (en) | Intelligent security system | |
KR101543561B1 (en) | Hybrid fire monitoring apparatus and method | |
CN106303457A (en) | Continuous remote mobile video monitoring method based on wireless location technology and system | |
CN104967814A (en) | Monitoring equipment interconnection control method and system | |
JP2012099013A (en) | Passing vehicle monitoring system and vehicle monitoring camera | |
CN110853287A (en) | Flame real-time monitoring system and method based on Internet of things distributed architecture | |
KR102107957B1 (en) | Cctv monitoring system for detecting the invasion in the exterior wall of building and method thereof | |
KR101420006B1 (en) | System and Method for Camera Image Service based on Distributed Processing | |
CN115880631A (en) | Power distribution station fault identification system, method and medium | |
JP5502700B2 (en) | Traffic vehicle monitoring system and traffic vehicle monitoring device | |
JP5404453B2 (en) | Vehicle monitoring device | |
CN112804499A (en) | Holographic construction safety monitoring system | |
JP5605178B2 (en) | Traffic vehicle monitoring system and vehicle monitoring camera | |
CN110267087B (en) | Dynamic label adding method, device and system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
WITN | Withdrawal due to no request for examination |