KR20130086495A - Apparatus and method for synchronizing video information and event information of unmanned supervision system - Google Patents

Apparatus and method for synchronizing video information and event information of unmanned supervision system Download PDF

Info

Publication number
KR20130086495A
KR20130086495A KR1020120007390A KR20120007390A KR20130086495A KR 20130086495 A KR20130086495 A KR 20130086495A KR 1020120007390 A KR1020120007390 A KR 1020120007390A KR 20120007390 A KR20120007390 A KR 20120007390A KR 20130086495 A KR20130086495 A KR 20130086495A
Authority
KR
South Korea
Prior art keywords
event
information
image information
image
unit
Prior art date
Application number
KR1020120007390A
Other languages
Korean (ko)
Inventor
박현
박동환
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020120007390A priority Critical patent/KR20130086495A/en
Publication of KR20130086495A publication Critical patent/KR20130086495A/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/14Central alarm receiver or annunciator arrangements
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PURPOSE: A device for synchronizing the time information and image information of an unmanned monitoring system and a method thereof are provided to display a synchronized image in various forms. CONSTITUTION: A control device (110) of an unmanned monitoring system comprises an accident determining part (220), an image information requesting part (230), and an image information requesting part (250). The accident determining part determines whether an event is an accident using event information received from a sensor network. The image information requesting part requests image information corresponding to the event happening time of the sensor network when the event is determined to be the accident. The information display part matches the image information transmitted by the request with the event information and displays the result. [Reference numerals] (110) Control device; (210) Middleware part; (220) Accident determining part; (230) Image information requesting part; (240) Image part; (250) Information display part; (260) GIS part

Description

무인 감시 시스템의 사건 정보와 영상 정보를 동기화하는 장치 및 방법{APPARATUS AND METHOD FOR SYNCHRONIZING VIDEO INFORMATION AND EVENT INFORMATION OF UNMANNED SUPERVISION SYSTEM}Apparatus and method for synchronizing event information and video information of unmanned surveillance system {APPARATUS AND METHOD FOR SYNCHRONIZING VIDEO INFORMATION AND EVENT INFORMATION OF UNMANNED SUPERVISION SYSTEM}

본 발명은 무인 감시 시스템에서 사건과 관련된 정보와 영상 정보를 동기화하는 장치 및 방법에 관한 것으로, 보다 상세하게는 센서 노드가 수집한 이벤트 정보를 사용하여 이벤트가 모니터링 대상이 되는 사건인지 여부를 판단하고, 사건인 경우, 이벤트가 발생한 시간에 대응하는 영상 정보와 이벤트 정보를 매칭함으로써, 다양한 형태의 영상 정보와 이벤트 정보를 동기화하는 무인 감시 시스템의 관제 장치 및 방법에 관한 것이다. The present invention relates to an apparatus and method for synchronizing information related to an event with image information in an unmanned surveillance system. More particularly, the present invention relates to determining whether an event is an event to be monitored by using event information collected by a sensor node. In the event of an event, the present invention relates to a control apparatus and a method of an unmanned surveillance system for synchronizing various types of image information and event information by matching image information and event information corresponding to an event occurrence time.

무인 감시 시스템은 CCTV(closed-circuit television)를 사용한 모니터링으로 제공 되고 있다. 따라서, 무인 감시 시스템은 CCTV가 촬영한 영상을 판독하기 위한 관리자를 필요로 하므로 감시 할 수 있는 영역의 넓이가 제한되며, 영상만으로는 사건의 발생 여부를 판단하기 어렵다는 한계가 있었다.Unmanned surveillance systems are being provided for monitoring using closed-circuit television (CCTV). Therefore, the unmanned surveillance system requires an administrator to read the images taken by the CCTV, so the area of the surveillance area is limited, and it is difficult to determine whether an event has occurred by using only the image.

따라서, 영상 이외의 정보를 사용하여 사건을 판단함으로써, 관리자가 없이도 자동으로 사건 발생을 모니터링 할 수 있으며, 관리자에게는 사건과 관련된 정보와 영상을 동기화하여 제공함으로써, 관리자가 사건을 인지하고 사건 정보를 용이하게 파악할 수 있도록 하는 방법이 요청되고 있다.Therefore, by judging an event using information other than the video, it is possible to automatically monitor the occurrence of the event without an administrator, and by providing the manager with information related to the event by synchronizing the video, the administrator recognizes the event and provides the event information. There is a need for a method for easy identification.

본 발명은 무인 감시 시스템에서 사건과 관련된 정보와 영상 정보를 동기화하는 장치 및 방법을 제공한다. The present invention provides an apparatus and method for synchronizing information related to an event with image information in an unmanned surveillance system.

또한, 본 발명은 사용자가 사건이 발생하기까지의 과정과 사건의 영상을 시인하기 용이하도록 하는 장치 및 방법을 제공한다. In addition, the present invention provides an apparatus and a method for allowing a user to easily visualize the process and the image of the event until the event occurs.

본 발명의 일실시예에 따른 무인 감시 시스템은 이벤트의 발생을 감지하고, 이벤트와 관련된 이벤트 정보와 이벤트의 영상 정보를 전송하는 센서 네트워크; 및 센서 네트워크로부터 수신한 이벤트 정보를 사용하여 이벤트가 사건인지 여부를 결정하고, 이벤트 정보와 사건으로 결정된 이벤트가 발생한 시간에 대응하는 영상 정보를 매칭하여 표시하는 관제 장치를 포함할 수 있다.Unattended monitoring system according to an embodiment of the present invention detects the occurrence of the event, the sensor network for transmitting the event information and the image information of the event associated with the event; And a control device for determining whether the event is an event using event information received from the sensor network, and matching and displaying the event information and image information corresponding to the time at which the event determined as the event occurred.

본 발명의 일실시예에 따른 무인 감시 시스템의 관제 장치는 센서 네트워크로부터 수신한 이벤트 정보를 사용하여 이벤트가 사건인지 여부를 결정하는 사건 결정부; 이벤트를 사건으로 결정한 경우, 센서 네트워크에 이벤트가 발생한 시간에 대응하는 영상 정보를 요청하는 영상 정보 요청부; 및 이벤트 정보와 요청에 따라 전송된 영상 정보를 매칭하여 표시하는 정보 표시부를 포함할 수 있다.An apparatus for controlling an unmanned surveillance system according to an embodiment of the present invention includes an event determination unit that determines whether an event is an event using event information received from a sensor network; An image information request unit for requesting image information corresponding to a time at which an event occurs, when the event is determined as an event; And an information display unit matching and displaying the event information and the image information transmitted according to the request.

본 발명의 일실시예에 따른 무인 감시 시스템의 관제 장치는 센서 네트워크로부터 수신한 이벤트 정보에 XML(eXtensible Markup Language)기반 처리 기술과 지능형 협업을 위한 적응적 센서 노드 플랫폼 및 서버간 인터페이스 기술 중 적어도 하나를 수행하여 사건 결정부에 전송하는 미들웨어부를 더 포함할 수 있다.The control device of the unmanned surveillance system according to an embodiment of the present invention includes at least one of an eXtensible Markup Language (XML) -based processing technology for event information received from a sensor network, an adaptive sensor node platform for intelligent collaboration, and an interface technology between servers. The method may further include a middleware unit transmitting the incident determination unit.

본 발명의 일실시예에 따른 무인 감시 시스템의 관제 장치는 요청에 따라 전송된 영상 정보를 사용하여 사건을 시각화한 영상 정보, 이벤트가 발생한 일반 센서 노드들의 영상 정보를 사용한 파노라마 영상 정보 중 적어도 하나를 생성하여 정보 표시부에 전송하는 영상부를 더 포함할 수 있다.The control apparatus of the unmanned surveillance system according to an embodiment of the present invention uses at least one of image information visualizing an event using image information transmitted on request, and panoramic image information using image information of general sensor nodes in which an event occurs. The display unit may further include an image unit which is generated and transmitted to the information display unit.

본 발명의 일실시예에 따른 무인 감시 시스템의 관제 장치는 위치 정보와 속성 정보와 이벤트 정보 및 영상부로부터 수신한 영상 정보 중 적어도 하나를 사용하여 사건을 지도 상에 시각화하는 GIS(Geographic Information System)부를 더 포함할 수 있다.A control device of an unmanned surveillance system according to an embodiment of the present invention visualizes an event on a map using at least one of location information, property information, event information, and image information received from a video unit. It may further include wealth.

본 발명의 일실시예에 따른 무인 감시 시스템의 마스터 센서 노드는 설치된 장소에서 일정 범위의 영상을 촬영하는 일반 센서 노드로부터 수신한 센서 정보를 사용하여 이벤트 발생 여부를 판단하는 이벤트 발생 판단부; 및 이벤트가 발생한 것으로 판단한 경우, 이벤트가 발생한 위치, 이벤트가 발생한 시간, 이벤트의 종류, 및 이벤트의 영상을 촬영한 센서 노드의 식별 정보 중 적어도 하나를 포함하는 이벤트 정보를 관제 장치에 전송하는 정보 전송부를 포함할 수 있다.The master sensor node of the unmanned surveillance system according to an embodiment of the present invention includes an event occurrence determination unit that determines whether an event occurs using sensor information received from a general sensor node that captures a predetermined range of images at an installed location; And when the event is determined to occur, transmitting event information including at least one of a location at which the event occurred, a time at which the event occurred, a type of event, and identification information of a sensor node which captured the image of the event to the control device. It may include wealth.

본 발명의 일실시예에 따른 무인 감시 시스템의 마스터 센서 노드의 정보 전송부는 이벤트가 발생한 일반 센서 노드로부터 수신한 영상의 해상도를 증가시킨 이벤트 영상 정보를 관제 장치로 전송할 수 있다.The information transmitter of the master sensor node of the unmanned surveillance system according to an exemplary embodiment of the present invention may transmit event image information that increases the resolution of an image received from a general sensor node where an event occurs to a control device.

본 발명의 일실시예에 따른 무인 감시 시스템의 마스터 센서 노드의 정보 전송부는 이벤트가 발생한 시점부터 일정시간 전까지의 영상 정보를 재구성한 이벤트 영상 정보를 관제 장치로 전송할 수 있다.The information transmitter of the master sensor node of the unmanned surveillance system according to an exemplary embodiment of the present invention may transmit event image information reconstructed image information up to a predetermined time from an event occurrence time to a control device.

본 발명의 일실시예에 따른 무인 감시 시스템의 관제 방법은 센서 네트워크로부터 수신한 이벤트 정보를 사용하여 이벤트가 사건인지 여부를 결정하는 단계; 이벤트를 사건으로 결정한 경우, 센서 네트워크에 이벤트가 발생한 시간에 대응하는 영상 정보를 요청하는 단계; 및 이벤트 정보와 요청에 따라 전송된 영상 정보를 매칭하여 표시하는 단계를 포함할 수 있다.Control method of the unmanned monitoring system according to an embodiment of the present invention comprises the steps of determining whether the event is an event using the event information received from the sensor network; If the event is determined to be an event, requesting image information corresponding to the time at which the event occurred from the sensor network; And matching and displaying the event information and the image information transmitted according to the request.

본 발명의 일실시예에 따른 무인 감시 시스템의 마스터 센서 노드 동작 방법은 설치된 장소에서 일정 범위의 영상을 촬영하는 일반 센서 노드로부터 수신한 센서 정보를 사용하여 이벤트 발생 여부를 판단하는 단계; 및 이벤트가 발생한 것으로 판단한 경우, 이벤트가 발생한 위치, 이벤트가 발생한 시간, 이벤트의 종류, 및 이벤트의 영상을 촬영한 센서 노드의 식별 정보 중 적어도 하나를 포함하는 이벤트 정보를 관제 장치에 전송하는 단계를 포함할 수 있다. Method for operating a master sensor node of the unmanned surveillance system according to an embodiment of the present invention comprises the steps of determining whether an event occurs using the sensor information received from the general sensor node for taking a certain range of images in the installed place; And when it is determined that the event has occurred, transmitting event information including at least one of a location of the event, a time at which the event occurred, a type of event, and identification information of a sensor node that captured the image of the event to the control device. It may include.

본 발명의 일실시예에 의하면, 센서 노드가 수집한 이벤트 정보를 사용하여 이벤트가 모니터링 대상이 되는 사건인지 여부를 판단하고, 사건인 경우, 이벤트가 발생한 시간에 대응하는 영상 정보와 이벤트 정보를 매칭함으로써, 다양한 형태의 동기화된 영상을 표시할 수 있다. According to an embodiment of the present invention, the event information collected by the sensor node is used to determine whether an event is an event to be monitored, and in case of an event, image information corresponding to a time at which an event occurs and event information are matched. By doing so, various types of synchronized images can be displayed.

또한, 본 발명의 일실시예에 의하면, 사건으로 결정한 이벤트로부터 일정 시간 전부터 이벤트 발생 시점까지의 영상의 해상도를 증가 시킨 영상 정보에 이벤트 정보를 매칭함으로써, 사용자가 사건이 발생하기까지의 과정과 사건의 영상을 시인하기 용이하도록 할 수 있다.In addition, according to an embodiment of the present invention, by matching the event information to the video information that increased the resolution of the image from a predetermined time before the event occurs from the event determined as the event, the process and event until the user occurs the event The video can be made easy to see.

도 1은 본 발명의 일실시예에 따른 무인 감시 시스템을 나타내는 도면이다.
도 2는 본 발명의 일실시예에 따른 무인 감시 시스템의 관제 장치를 도시한 블록 다이어그램이다.
도 3은 본 발명의 일실시예에 따른 무인 감시 시스템의 마스터 센서 노드를 도시한 블록 다이어그램이다.
도 4는 본 발명의 일실시예에 따른 센서 네트워크가 이벤트를 판단하는 과정의 일례이다.
도 5는 본 발명의 일실시예에 따른 관제 장치의 구성 간의 정보 흐름을 도시한 도면이다.
도 6은 본 발명의 일실시예에 따른 무인 감시 시스템의 관제 방법을 도시한 플로우차트이다.
도 7은 본 발명의 일실시예에 따른 센서 네트워크의 동작 방법을 도시한 플로우차트이다.
1 is a view showing an unmanned surveillance system according to an embodiment of the present invention.
2 is a block diagram showing a control device of the unmanned monitoring system according to an embodiment of the present invention.
3 is a block diagram illustrating a master sensor node of an unmanned surveillance system according to an embodiment of the present invention.
4 is an example of a process of determining an event by a sensor network according to an embodiment of the present invention.
5 is a diagram illustrating an information flow between components of a control apparatus according to an embodiment of the present invention.
6 is a flowchart illustrating a control method of the unmanned monitoring system according to an embodiment of the present invention.
7 is a flowchart illustrating a method of operating a sensor network according to an embodiment of the present invention.

이하, 본 발명의 실시예를 첨부된 도면을 참조하여 상세하게 설명한다. 본 발명의 일실시예에 따른 무인 감시 시스템의 관제 방법은 무인 감시 시스템의 관제 장치에 의해 수행될 수 있다. DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. The control method of the unmanned monitoring system according to an embodiment of the present invention may be performed by a control device of the unmanned monitoring system.

도 1은 본 발명의 일실시예에 따른 무인 감시 시스템을 나타내는 도면이다. 1 is a view showing an unmanned surveillance system according to an embodiment of the present invention.

본 발명의 일실시예에 따른 무인 감시 시스템은 도 1에 도시된 바와 같이 관제 장치(110)와 복수의 센서 노드로 구성된 센서 네트워크(120)를 포함할 수 있다.Unmanned monitoring system according to an embodiment of the present invention may include a control network 110 and a sensor network 120 composed of a plurality of sensor nodes as shown in FIG.

관제 장치(110)는 센서 네트워크(120)로부터 이벤트와 관련된 영상 정보와 이벤트 정보를 수신하고, 영상 정보와 이벤트 정보를 매칭하여 표시할 수 있다. 이때, 관제 장치(110)는 이벤트의 위치 정보와 속성 정보 및 영상부로부터 수신한 영상 정보를 사용하여 사건을 지도 상에 시각화할 수도 있다. 이때, 이벤트 정보는 이벤트가 발생한 위치, 이벤트가 발생한 시간 정보(time stamp), 이벤트의 종류, 및 이벤트의 영상을 촬영한 센서 노드의 식별 정보를 포함할 수 있다.The control device 110 may receive image information and event information related to an event from the sensor network 120, and display the image information by matching the event information. At this time, the control device 110 may visualize the event on the map using the location information and attribute information of the event and the image information received from the image unit. In this case, the event information may include a location where an event occurs, a time stamp in which the event occurs, a type of event, and identification information of a sensor node that captures an image of the event.

구체적으로 관제 장치(110)는 이벤트 정보를 사용하여 이벤트가 모니터링 대상이 되는 사건인지 여부를 판단하고, 사건인 경우, 영상 정보와 이벤트 정보를 매칭하여 표시할 수 있다. 이때, 이벤트가 사건인지 여부를 판단하는 과정에 따른 시간 지연이 발생하는 경우, 영상 정보와 이벤트 정보의 동기가 맞지 않을 수 있다. 따라서, 관제 장치(110)는 이벤트 정보와 해당 이벤트가 발생한 시간에 대응하는 영상 정보를 매칭하여 동기화할 수 있다. 이때, 관제 장치(110)는 이벤트가 발생한 주변 센서 노드의 영상 정보를 사용한 파노라마 정상이나 GIS(Geographic Information System)를 사용한 지도 영상을 생성하고, 생성한 영상에 이벤트 정보를 매칭할 수도 있다.In more detail, the control device 110 may determine whether the event is an event to be monitored using the event information, and if the event is an event, may match and display the image information and the event information. In this case, when a time delay occurs according to a process of determining whether an event is an event, the synchronization of the image information and the event information may be inconsistent. Accordingly, the control device 110 may match and synchronize the event information with the image information corresponding to the time at which the event occurred. In this case, the control device 110 may generate a panoramic image using image information of the neighboring sensor node where an event occurs or a map image using a geographic information system (GIS), and match the event information to the generated image.

관제 장치(110)의 상세 구성과 동작은 이하 도 2를 사용하여 상세히 설명한다.Detailed configuration and operation of the control device 110 will be described in detail with reference to FIG.

센서 네트워크(120)는 도 1에 도시된 바와 같이 마스터 센서 노드(121)와 마스터 센서 노드(121)에 연결된 복수의 일반 센서 노드(122)로 구성될 수 있다. 센서 네트워크(120)에 복수의 센서 필드가 존재하는 경우, 마스터 센서 노드(121)는 각 센서 필드에 하나씩 존재하여 각 센서 필드에 포함된 일반 센서 노드(122)를 제어할 수 있다.As illustrated in FIG. 1, the sensor network 120 may include a master sensor node 121 and a plurality of general sensor nodes 122 connected to the master sensor node 121. When a plurality of sensor fields exist in the sensor network 120, the master sensor node 121 may exist in each sensor field to control the general sensor node 122 included in each sensor field.

일반 센서 노드(122)는 적어도 하나의 센서로 일정 영역을 측정하여 영상 정보가 포함된 센서 정보를 생성하고, 생성한 센서 정보를 전송할 수 있다. 이때, 일반 센서 노드(122)는 사건 인식을 위한 음향, 온도, 습도, 카메라 센서를 포함할 수 있다. 이때, 센서 정보는 음향 정보, 온도 정보, 습도 정보, 영상 정보를 포함할 수 있다.The general sensor node 122 may generate sensor information including image information by measuring a predetermined area with at least one sensor, and transmit the generated sensor information. In this case, the general sensor node 122 may include a sound, temperature, humidity, camera sensor for event recognition. In this case, the sensor information may include sound information, temperature information, humidity information, and image information.

마스터 센서 노드(121)는 일반 센서 노드(122)를 제어하고, 관제 장치(110)와 접속하는 인터페이스와 카메라 센서를 포함할 수 있다.The master sensor node 121 may include a camera sensor and an interface for controlling the general sensor node 122 and connecting to the control device 110.

이때, 마스터 센서 노드(121)는 일반 센서 노드(122)로부터 수신한 센서 정보를 사용하여 이벤트 발생 여부를 판단하고, 이벤트가 발생한 것으로 판단한 경우, 센서 정보에서 이벤트와 관련된 이벤트 정보를 추출하여 관제 장치에 전송할 수 있다.At this time, the master sensor node 121 determines whether an event occurs using the sensor information received from the general sensor node 122, and if it is determined that the event has occurred, by extracting the event information related to the event from the sensor information control device Can be sent to.

마스터 센서 노드(121)의 상세 구성과 센서 네트워크(120)의 동작은 이하 도 3과 도 4를 사용하여 상세히 설명한다.The detailed configuration of the master sensor node 121 and the operation of the sensor network 120 will be described in detail with reference to FIGS. 3 and 4.

본 발명에 따른 무인 감시 시스템은 이벤트가 발생한 시간에 대응하는 영상 정보를 이벤트 정보와 매칭함으로써 동기화된 영상을 사용자에게 제공할 수 있다. The unmanned surveillance system according to the present invention may provide a synchronized image to a user by matching image information corresponding to a time at which an event occurs with event information.

또한, 본 발명에 따른 무인 감시 시스템은 이벤트가 발생한 주변 센서 노드의 영상 정보를 사용한 파노라마 정상이나 GIS(Geographic Information System)를 사용한 지도 영상을 생성하고, 이벤트가 발생한 시간을 기준으로 생성한 영상에 이벤트 정보를 매칭함으로써 다양한 형태의 영상을 동기화하여 사용자에게 제공할 수 있다.In addition, the unmanned surveillance system according to the present invention generates a panoramic image using the image information of the peripheral sensor node where the event occurred, or a map image using the Geographic Information System (GIS), and the event is generated based on the time when the event occurs. By matching the information, various types of images may be synchronized and provided to the user.

도 2는 본 발명의 일실시예에 따른 무인 감시 시스템의 관제 장치(110)를 도시한 블록 다이어그램이다. 2 is a block diagram showing the control device 110 of the unmanned monitoring system according to an embodiment of the present invention.

도 2을 참고하면, 본 발명의 일실시예에 따른 무인 감시 시스템의 관제 장치(110)는 미들웨어부(210), 사건 결정부(220), 영상 정보 요청부(230), 영상부(240), 정보 표시부(250), 및 GIS부(260)를 포함할 수 있다. 2, the control device 110 of the unmanned surveillance system according to an embodiment of the present invention is the middleware unit 210, the event determination unit 220, the image information requesting unit 230, the image unit 240 , An information display unit 250, and a GIS unit 260.

미들웨어부(210)는 센서 네트워크(120)로부터 이벤트 정보를 수신하고, 수신한 이벤트 정보에 XML(eXtensible Markup Language)기반 처리 기술과 지능형 협업을 위한 적응적 센서 노드 플랫폼 및 서버간 인터페이스 기술 중 적어도 하나를 수행하여 사건 결정부(220)에 전송할 수 있다. 이때, 미들웨어부(210)는 미들웨어 엔진 중 하나일 수 있다.The middleware unit 210 receives event information from the sensor network 120 and at least one of an eXtensible Markup Language (XML) -based processing technology and an adaptive sensor node platform and server-to-server interface technology for intelligent collaboration. It may be transmitted to the event determination unit 220 by performing. In this case, the middleware unit 210 may be one of middleware engines.

사건 결정부(220)는 미들웨어부(210)를 통하여 센서 네트워크(120)로부터 수신한 이벤트 정보를 사용하여 이벤트가 모니터링 대상이 되는 사건인지 여부를 결정할 수 있다. 구체적으로 사건 결정부(220)는 모니터링 대상이 되는 사건에 관련된 정보인 지식 정보를 저장하고, 이벤트 정보와 지식 정보를 비교하여 이벤트 정보와 임계 값 이상으로 유사한 지식 정보가 있는 경우, 이벤트를 해당 지식 정보에 대응하는 사건으로 결정할 수 있다.The event determiner 220 may determine whether the event is an event to be monitored by using the event information received from the sensor network 120 through the middleware unit 210. In detail, the event determination unit 220 stores the knowledge information, which is information related to the event to be monitored, and compares the event information with the knowledge information, and when there is similar knowledge information above the threshold and the event information, the event is determined as the corresponding knowledge. It can be decided by the event corresponding to the information.

이때, 사건 결정부(220)는 사건으로 결정한 이벤트의 이벤트 정보를 영상 정보 요청부(230)에 전송할 수 있다. 이때, 사건 결정부(220)는 대규모 다중 센서 기반 지형 정보, 환경 정보, 운용 정보, 망 연계 정보 등을 통한 지식화된 융합된 정보를 이용하여 상황 발생시 실시간으로 상황을 결정, 관제 클라이언트에 전달하는 관제 엔진일 수 있다.In this case, the event determiner 220 may transmit the event information of the event determined as the event to the image information requester 230. At this time, the event determination unit 220 determines the situation in real time when the situation occurs by using a knowledgeable converged information through the large-scale multi-sensor-based terrain information, environmental information, operation information, network linkage information, etc. to deliver to the control client It can be a control engine.

영상 정보 요청부(230)는 사건 결정부(220)가 이벤트를 사건으로 결정한 경우, 이벤트가 발생한 시간에 대응하는 영상 정보를 센서 네트워크(120)에 요청할 수 있다. 또한, 영상 정보 요청부(230)는 영상부(230)에 사건을 시각화한 영상 정보, 이벤트가 발생한 일반 센서 노드들의 영상 정보를 사용한 파노라마 영상 정보를 요청할 수도 있다.When the event determiner 220 determines the event as an event, the image information requester 230 may request the sensor network 120 for image information corresponding to the time at which the event occurred. In addition, the image information requesting unit 230 may request the image unit 230 for image information visualizing an event and panorama image information using image information of general sensor nodes in which an event occurs.

이때, 센서 네트워크(120)의 마스터 센서 노드(121)는 영상 정보 요청부(230)의 요청에 따라 사건으로 결정한 이벤트가 발생한 시간에 대응하는 영상 정보를 영상부(240)에 전송할 수 있다.In this case, the master sensor node 121 of the sensor network 120 may transmit image information corresponding to the time at which the event determined as the event occurs according to the request of the image information requester 230 to the image unit 240.

영상부(240)는 센서 네트워크(120)로부터 수신한 영상 정보를 사용하여 사건을 시각화한 영상 정보, 이벤트가 발생한 일반 센서 노드들의 영상 정보를 사용한 파노라마 영상 정보 중 적어도 하나를 생성하고, 영상 정보 요청부(230)의 요청에 따라 생성한 영상 정보를 정보 표시부(250)에 전송할 수 있다. 이때, 영상부(240)는 영상 정보의 노이즈를 제거하고, 색상이나 명암 밝기에 변형을 가하는 영상 엔진 중 하나일 수 있다. The image unit 240 generates at least one of image information visualized by using the image information received from the sensor network 120 and panorama image information using image information of general sensor nodes where an event occurs, and requests image information. Image information generated at the request of the unit 230 may be transmitted to the information display unit 250. At this time, the image unit 240 may be one of the image engines to remove noise of the image information and to modify the color or the brightness of the contrast.

정보 표시부(250)는 영상부(240)로부터 수신한 영상 정보와 영상 정보 요청부(230)가 사건 결정부(220)로부터 수신한 이벤트 정보를 매칭하여 관제 모니터에 표시할 수 있다.The information display unit 250 may match the image information received from the image unit 240 and the event information received from the event determination unit 220 by the image information request unit 230 and display the same on the control monitor.

이때, 영상 정보 요청부(230)와 정보 표시부(250)는 사용자와의 인터페이스를 통해 요구사항을 센서필드에 전달하며, 관제 모니터를 사용하여 센서필드 및 각 엔진들로부터 수신한 정보를 받아 GIS 기반 대규모 다중 센서 가시화 및 파노라마, 영상정보를 통해 가시화하는 관제 센터(User Interface)에 포함될 수 있다. 즉, 정보 표시부(250)는 별도의 정보 전송 없이도 영상 정보 요청부(230)가 사건 결정부(220)로부터 수신한 이벤트 정보를 사용할 수 있다.At this time, the image information requesting unit 230 and the information display unit 250 transmits the requirements to the sensor field through an interface with the user, and receives the information received from the sensor field and the respective engines using a control monitor, based on the GIS. It can be included in a control center (User Interface) that visualizes through large-scale multi-sensor visualization, panorama, and image information. That is, the information display unit 250 may use the event information received from the event determiner 220 by the image information requester 230 without additional information transmission.

GIS(Geographic Information System)부(260)는 위치 정보와 속성 정보와 이벤트 정보 및 영상부(240)로부터 수신한 영상 정보를 사용하여 사건을 지도상에 시각화할 수 있다. 이때, GIS부(260)는 GIS 엔진일 수 있다.The Geographic Information System (GIS) unit 260 may visualize an event on a map using location information, attribute information, event information, and image information received from the image unit 240. In this case, the GIS unit 260 may be a GIS engine.

본 발명에 따른 관제 장치(110)는 이벤트 정보를 사용하여 이벤트가 모니터링 대상이 되는 사건인지 여부를 판단하고, 사건인 경우, 이벤트가 발생한 시간에 대응하는 영상 정보와 이벤트 정보를 매칭하여 표시함으로써, 동기화된 이벤트 정보와 영상 정보를 사용자에게 제공할 수 있다. The control apparatus 110 according to the present invention determines whether the event is an event to be monitored using the event information, and in the case of an event, by matching the image information and the event information corresponding to the time at which the event occurred, Synchronized event information and video information may be provided to the user.

도 3은 본 발명의 일실시예에 따른 무인 감시 시스템의 마스터 센서 노드(121)를 도시한 블록 다이어그램이다. 3 is a block diagram illustrating a master sensor node 121 of an unmanned surveillance system according to an embodiment of the present invention.

도 3을 참고하면, 본 발명의 일실시예에 따른 무인 감시 시스템의 마스터 센서 노드(121)는 이벤트 발생 판단부(310)와 정보 전송부(320)를 포함할 수 있다. Referring to FIG. 3, the master sensor node 121 of the unmanned monitoring system according to an embodiment of the present invention may include an event occurrence determining unit 310 and an information transmitting unit 320.

이벤트 발생 판단부(310)는 일반 센서 노드(121)로부터 수신한 센서 정보를 사용하여 이벤트 발생 여부를 판단할 수 있다. The event occurrence determining unit 310 may determine whether an event occurs using the sensor information received from the general sensor node 121.

구체적으로 이벤트 발생 판단부(310)는 센서 정보에 포함된 음향 정보, 온도 정보, 습도 정보, 및 영상 정보 각각에 대하여 이벤트 발생 여부를 판단하기 위한 임계 값을 설정하고, 상기 정보 중 적어도 하나가 임계 값을 초과하는 경우 이벤트가 발생한 것으로 판단할 수 있다. 예를 들어, 일정 크기 음향을 음향 정보의 임계 값으로 설정한 경우, 이벤트 발생 판단부(310)는 일정 크기보다 큰 음향이 발생한 경우, 이벤트가 발생한 것으로 판단하고, 일정 크기보다 작은 음향이 발생한 경우, 이벤트가 발생하지 않은 것으로 판단할 수 있다.In detail, the event occurrence determining unit 310 sets a threshold value for determining whether an event occurs for each of acoustic information, temperature information, humidity information, and image information included in the sensor information, and at least one of the information is a threshold. If the value is exceeded, it may be determined that an event has occurred. For example, when the predetermined size sound is set as a threshold value of the sound information, the event occurrence determining unit 310 determines that an event occurs when a sound larger than a predetermined size occurs, and when a sound smaller than a predetermined size occurs. In this case, it can be determined that no event has occurred.

정보 전송부(320)는 이벤트 발생 판단부(310)에서 이벤트가 발생한 것으로 판단한 경우, 이벤트가 발생한 위치, 이벤트가 발생한 시간, 이벤트의 종류, 및 이벤트의 영상을 촬영한 센서 노드의 식별 정보 중 적어도 하나를 포함하는 이벤트 정보를 공통 인터페이스를 사용하여 관제 장치(110)의 미들웨어부(210)에 전송할 수 있다. 이때, 공통 인터페이스는 ONVIF (Open Network Video Interface Forum) 프로토콜일 수 있다.When the event occurrence determiner 310 determines that the event has occurred, the information transmitter 320 may include at least one of a location of the event, a time at which the event occurred, a type of event, and identification information of a sensor node which captured the image of the event. Event information including one may be transmitted to the middleware unit 210 of the control device 110 using a common interface. In this case, the common interface may be an Open Network Video Interface Forum (ONVIF) protocol.

이때, 정보 전송부(320)는 영상 정보 보고 메커니즘에 따라 영상 정보 요청부(230)로부터 사건으로 결정한 이벤트와 관련된 영상 정보를 요청 받은 경우에만 영상 정보를 관제 장치(110)의 영상부(240)로 전송할 수도 있고, 이벤트 발생 판단부(310)에서 이벤트가 발생한 것으로 판단한 경우, 센서 정보에 포함된 영상 정보를 관제 장치(110)의 영상부(240)로 전송할 수도 있다.In this case, the information transmitter 320 may transmit the image information to the image unit 240 of the control device 110 only when image information related to an event determined as an event is requested from the image information request unit 230 according to the image information reporting mechanism. When the event occurrence determination unit 310 determines that an event has occurred, the image information included in the sensor information may be transmitted to the image unit 240 of the control device 110.

또한, 정보 전송부(320)는 이벤트가 발생한 일반 센서 노드로부터 수신한 영상의 해상도를 증가시켜 이벤트 영상 정보를 생성하고, 영상 정보 요청부(230)로부터 사건으로 결정한 이벤트와 관련된 영상 정보를 요청 받은 경우, 이벤트 영상 정보를 관제 장치(110)의 영상부(240)로 전송할 수 있다.In addition, the information transmitter 320 generates event image information by increasing the resolution of an image received from a general sensor node where an event occurs, and receives image information related to an event determined as an event from the image information requester 230. In this case, the event image information may be transmitted to the image unit 240 of the control device 110.

즉, 정보 전송부(320)는 사건으로 결정한 이벤트와 관련된 영상 정보의 해상도를 증가 시킴으로써 사용자가 사건을 시인하기 용이하도록 할 수 있다.That is, the information transmitting unit 320 may increase the resolution of the image information related to the event determined as the event, so that the user can easily recognize the event.

그리고, 정보 전송부(320)는 이벤트가 발생한 일반 센서 노드로부터 이벤트가 발생한 시점에서 일정시간 전까지의 영상 정보를 수신할 수 있다. 이때, 정보 전송부(320)는 영상 정보 요청부(230)로부터 사건으로 결정한 이벤트와 관련된 영상 정보를 요청 받은 경우, 이벤트가 발생하기 일정시간 전부터 이벤트가 발생한 시점까지의 영상 정보를 재구성하여 이벤트 영상 정보를 생성하고, 재구성한 이벤트 영상 정보를 관제 장치(110)의 영상부(240)로 전송할 수 있다.The information transmitter 320 may receive image information up to a predetermined time from the time when the event occurs from the general sensor node where the event occurs. In this case, when the information transmitting unit 320 receives the image information related to the event determined as the event from the image information requesting unit 230, the information transmitting unit 320 reconstructs the image information from a certain time before the event occurs to the time when the event occurred The information may be generated and the reconstructed event image information may be transmitted to the image unit 240 of the control device 110.

즉, 정보 전송부(320)는 사건으로 결정한 이벤트로부터 일정 시간 전부터 이벤트 발생 시점까지의 영상을 제공함으로써, 사용자가 사건이 발생하기까지의 과정을 인식하도록 할 수 있다.That is, the information transmitting unit 320 may provide an image from a predetermined time to an event occurrence time from the event determined as the event, so that the user may recognize the process until the event occurs.

또한, 정보 전송부(320)는 이벤트가 발생하기 일정시간 전부터 이벤트가 발생한 시점까지의 영상 정보를 재구성하고, 재구성한 영상 정보의 해상도를 증가시켜 이벤트 영상 정보를 생성할 수도 있다.In addition, the information transmitter 320 may reconstruct the image information from a certain time before the event occurs to the time when the event occurs, and may generate the event image information by increasing the resolution of the reconstructed image information.

이때, 관제 장치(110)의 영상부(240)는 이벤트 영상 정보를 사용하여 사건을 시각화한 영상 정보, 이벤트가 발생한 일반 센서 노드들의 영상 정보를 사용한 파노라마 영상 정보 중 적어도 하나를 생성할 수 있다.In this case, the imaging unit 240 of the control device 110 may generate at least one of image information visualizing an event using event image information and panorama image information using image information of general sensor nodes where an event occurs.

도 4는 본 발명의 일실시예에 따른 센서 네트워크가 이벤트를 판단하는 과정의 일례이다.4 is an example of a process of determining an event by a sensor network according to an embodiment of the present invention.

일반 센서 노드(410, 420)는 영역(411, 421)을 측정하여 영상 정보가 포함된 센서 정보를 생성하고, 생성한 센서 정보(412, 421)를 다른 일반 센서 노드를 통하여 마스터 센서 노드(121)로 전송할 수 있다.The general sensor nodes 410 and 420 measure the areas 411 and 421 to generate sensor information including image information, and the generated sensor information 412 and 421 are master sensor nodes 121 through other general sensor nodes. ) Can be sent.

영역(411, 421)에서 이벤트(400)가 발생하는 경우, 이벤트(400)를 측정한 일반 센서 노드(410, 420)는 연결된 이벤트(400)와 관련된 센서 정보(412, 421)를 전송할 수 있다.When the event 400 occurs in the areas 411 and 421, the general sensor nodes 410 and 420 measuring the event 400 may transmit sensor information 412 and 421 related to the connected event 400. .

이때, 마스터 센서 노드(121)는 이벤트(400)와 관련된 센서 정보(412, 421)를 사용하여 이벤트(400)가 발생하였다고 판단하고, 이벤트(400)가 발생한 위치, 이벤트(400)가 발생한 시간, 이벤트(400)의 종류, 및 일반 센서 노드(410, 420)의 식별 정보 중 적어도 하나를 포함하는 이벤트 정보를 관제 장치(110)로 전송할 수 있다.At this time, the master sensor node 121 determines that the event 400 has occurred using the sensor information 412 and 421 related to the event 400, the location where the event 400 has occurred, and the time at which the event 400 has occurred. Event information including at least one of a type of the event 400 and identification information of the general sensor nodes 410 and 420 may be transmitted to the control device 110.

또한, 마스터 센서 노드(121)는 관제 장치(110)의 영상 정보 요청부(230)로부터 사건으로 결정한 이벤트와 관련된 영상 정보를 요청 받은 경우, 센서 정보에 포함된 영상 정보를 관제 장치(110)의 영상부(240)로 전송할 수도 있다.In addition, when the master sensor node 121 receives the image information related to the event determined as an event from the image information requesting unit 230 of the control device 110, the master sensor node 121 receives the image information included in the sensor information of the control device 110. It may be transmitted to the image unit 240.

이때, 마스터 센서 노드(121)는 일반 센서 노드(410, 420)에 이벤트가 발생한 시점에서 일정시간 전까지의 영상 정보를 요청하고, 요청에 따라 일반 센서 노드(410, 420)로부터 전송된 영상 정보(413, 423)를 관제 장치(110)의 영상부(240)로 전송할 수도 있다. 이때, 센서 정보(412, 421)와 영상 정보(413, 423)는 각각 다른 일반 센서 노드를 경유하여 마스터 센서 노드(121)로 전송될 수도 있고, 각 일반 센서 노드 간의 통신 상태에 따라 다른 일반 센서 노드를 경유하여 마스터 센서 노드(121)로 전송될 수도 있다.At this time, the master sensor node 121 requests the image information up to a certain time from the time when the event occurs to the general sensor node (410, 420), and the image information transmitted from the general sensor node (410, 420) according to the request ( 413 and 423 may be transmitted to the image unit 240 of the control device 110. In this case, the sensor information 412 and 421 and the image information 413 and 423 may be transmitted to the master sensor node 121 via different general sensor nodes, respectively, or different general sensors according to the communication state between each general sensor node. It may be transmitted to the master sensor node 121 via the node.

도 5는 본 발명의 일실시예에 따른 관제 장치의 구성 간의 정보 흐름을 도시한 도면이다. 5 is a diagram illustrating an information flow between components of a control apparatus according to an embodiment of the present invention.

먼저, 미들웨어부(210)는 센서 네트워크(120)로부터 이벤트 정보(510)를 수신하고, 수신한 이벤트 정보를 사건 결정부(220)에 전송할 수 있다.First, the middleware unit 210 may receive the event information 510 from the sensor network 120, and transmit the received event information to the event determination unit 220.

다음으로, 사건 결정부(220)는 이벤트 정보(515)를 사용하여 이벤트가 모니터링 대상이 되는 사건인지 여부를 결정할 수 있다. Next, the event determination unit 220 may determine whether the event is an event to be monitored using the event information 515.

이때, 사건 결정부(220)는 사건으로 결정한 이벤트의 이벤트 정보(520)를 영상 정보 요청부(230)에 전송할 수 있다. In this case, the event determiner 220 may transmit the event information 520 of the event determined as the event to the image information requester 230.

그 다음으로, 영상 정보 요청부(230)는 사건으로 결정한 이벤트의 이벤트 정보(520)에 따라 센서 네트워크(120)의 마스터 센서 노드(121)에 사건으로 결정한 이벤트와 관련된 영상 정보를 요청(530)할 수 있다. 또한, 영상 정보 요청부(230)는 영상부(230)에 사건을 시각화한 영상 정보, 이벤트가 발생한 일반 센서 노드들의 영상 정보를 사용한 파노라마 영상 정보를 요청(535)할 수도 있다.Next, the image information requesting unit 230 requests image information related to the event determined as an event to the master sensor node 121 of the sensor network 120 according to the event information 520 of the event determined as the event (530). can do. In addition, the image information requesting unit 230 may request 535 the image information visualizing the event and the panorama image information using the image information of the general sensor nodes where the event occurred.

이때, 센서 네트워크(120)의 마스터 센서 노드(121)는 영상 정보 요청부(230)의 요청에 따라 사건으로 결정한 이벤트가 발생한 시간에 대응하는 영상 정보(540)를 영상부(240)에 전송할 수 있다.In this case, the master sensor node 121 of the sensor network 120 may transmit the image information 540 corresponding to the time at which the event determined as the event occurs according to the request of the image information requesting unit 230 to the image unit 240. have.

다음으로, 영상부(240)는 영상 정보(540)를 사용하여 사건을 시각화한 영상 정보, 이벤트가 발생한 일반 센서 노드들의 영상 정보를 사용한 파노라마 영상 정보 중 적어도 하나를 생성하고, 영상 정보 요청부(230)의 요청(535)에 따라 생성한 영상 정보(550)를 정보 표시부(250)와 GIS부(260)에 전송할 수 있다. Next, the image unit 240 generates at least one of image information visualizing an event using the image information 540 and panorama image information using image information of general sensor nodes in which an event occurs, and the image information request unit ( The image information 550 generated according to the request 535 of the 230 may be transmitted to the information display unit 250 and the GIS unit 260.

정보 표시부(250)는 영상 정보(550)와 이벤트 정보(520)를 매칭하여 관제 모니터에 표시할 수 있다. 이때, 정보 표시부(250)는 GIS부(260)에 사건 시각화를 요청(560)할 수 있다.The information display unit 250 may match the image information 550 with the event information 520 and display the same on the control monitor. In this case, the information display unit 250 may request the event visualization 560 from the GIS unit 260.

이때, GIS부(260)는 사건 결정부(220)로부터 사건으로 결정한 이벤트의 이벤트 정보(525)를 수신하고, 사건 시각화 요청(560)에 따라 위치 정보와 속성 정보, 이벤트 정보(525) 및 영상 정보(540)를 사용하여 사건을 지도상에 시각화할 수 있다. At this time, the GIS unit 260 receives the event information 525 of the event determined as the event from the event determination unit 220, and according to the event visualization request 560, location information, attribute information, event information 525 and video Information 540 can be used to visualize the event on a map.

도 6은 본 발명의 일실시예에 따른 무인 감시 시스템의 관제 방법을 도시한 플로우차트이다.6 is a flowchart illustrating a control method of the unmanned monitoring system according to an embodiment of the present invention.

단계(S610)에서 미들웨어부(210)는 센서 네트워크(120)로부터 이벤트 정보를 수신하고, 수신한 이벤트 정보에 XML(eXtensible Markup Language)기반 처리 기술과 지능형 협업을 위한 적응적 센서 노드 플랫폼 및 서버간 인터페이스 기술 중 적어도 하나를 수행하여 사건 결정부(220)에 전송할 수 있다.In step S610, the middleware unit 210 receives event information from the sensor network 120, and between the sensor node platform and the server for adaptive collaboration with eXtensible Markup Language (XML) -based processing technology and intelligent collaboration on the received event information. At least one of the interface technologies may be performed and transmitted to the event determiner 220.

단계(S620)에서 사건 결정부(220)는 단계(S610)에서 수신한 이벤트 정보를 사용하여 이벤트가 모니터링 대상이 되는 사건인지 여부를 결정할 수 있다.In operation S620, the event determination unit 220 may determine whether the event is an event to be monitored using the event information received in operation S610.

단계(S630)에서 사건 결정부(220)는 단계(S620)에서 사건으로 결정한 이벤트의 이벤트 정보를 영상 정보 요청부(230)에 전송하고, 영상 정보 요청부(230)는 사건 결정부(220)가 사건으로 결정한 이벤트와 관련된 영상 정보를 센서 네트워크(120)에 요청할 수 있다. 또한, 영상 정보 요청부(230)는 영상부(230)에 사건을 시각화한 영상 정보, 이벤트가 발생한 일반 센서 노드들의 영상 정보를 사용한 파노라마 영상 정보를 요청할 수도 있다.In operation S630, the event determination unit 220 transmits event information of the event determined as the event in operation S620 to the image information requesting unit 230, and the image information requesting unit 230 may determine the event determination unit 220. May request the sensor network 120 for image information related to the event determined by the event. In addition, the image information requesting unit 230 may request the image unit 230 for image information visualizing an event and panorama image information using image information of general sensor nodes in which an event occurs.

이때, 센서 네트워크(120)의 마스터 센서 노드(121)는 영상 정보 요청부(230)의 요청에 따라 사건으로 결정한 이벤트가 발생한 시간에 대응하는 영상 정보를 영상부(240)에 전송할 수 있다.In this case, the master sensor node 121 of the sensor network 120 may transmit image information corresponding to the time at which the event determined as the event occurs according to the request of the image information requester 230 to the image unit 240.

단계(S640)에서 영상부(240)는 센서 네트워크(120)로부터 단계(S630)에서 전송한 요청에 따른 영상 정보를 수신할 수 있다.In operation S640, the imager 240 may receive image information according to the request transmitted in operation S630 from the sensor network 120.

이때, 영상부(240)는 수신한 영상 정보를 사용하여 사건을 시각화한 영상 정보, 이벤트가 발생한 일반 센서 노드들의 영상 정보를 사용한 파노라마 영상 정보 중 적어도 하나를 생성하고, 생성한 영상 정보를 정보 표시부(250)에 전송할 수 있다. In this case, the image unit 240 generates at least one of image information visualizing an event using the received image information and panorama image information using image information of general sensor nodes where an event occurs, and generates the generated image information as an information display unit. Send to 250.

단계(S650)에서 정보 표시부(250)는 단계(S640)에서 수신한 영상 정보와 이벤트 정보를 매칭하여 관제 모니터에 표시할 수 있다. 이때, 영상 정보와 매칭하는 이벤트 정보는 단계(S610)에서 수신한 이벤트 정보 중에서 사건으로 결정한 이벤트에 대응하는 이벤트 정보일 수 있다. 또한, 정보 표시부(250)는 GIS부(260)에 사건 시각화를 요청(560)할 수 있다.In operation S650, the information display unit 250 may match the image information received in operation S640 with the event information and display the same on the control monitor. In this case, the event information matching the image information may be event information corresponding to an event determined as an event among the event information received in operation S610. In addition, the information display unit 250 may request 560 the event visualization from the GIS unit 260.

단계(S660)에서 GIS부(260)는 단계(S650)의 요청에 따라 위치 정보와 속성 정보, 이벤트 정보(525) 및 영상 정보(540)를 사용하여 사건을 지도상에 시각화할 수 있다. In operation S660, the GIS unit 260 may visualize the event on the map using the location information, the attribute information, the event information 525, and the image information 540 according to the request of the operation S650.

도 7은 본 발명의 일실시예에 따른 센서 네트워크의 동작 방법을 도시한 플로우차트이다.7 is a flowchart illustrating a method of operating a sensor network according to an embodiment of the present invention.

단계(S710)에서 일반 센서 노드(122)는 일정 영역을 측정하여 영상 정보가 포함된 센서 정보를 생성하고, 생성한 센서 정보를 마스터 센서 노드(121)로 전송할 수 있다.In operation S710, the general sensor node 122 may measure a predetermined area to generate sensor information including image information, and transmit the generated sensor information to the master sensor node 121.

단계(S720)에서 마스터 센서 노드(121)의 이벤트 발생 판단부(310)는 단계(S710)에서 일반 센서 노드(121)가 전송한 센서 정보를 수신할 수 있다.In operation S720, the event occurrence determining unit 310 of the master sensor node 121 may receive sensor information transmitted by the general sensor node 121 in operation S710.

단계(S730)에서 마스터 센서 노드(121)의 이벤트 발생 판단부(310)는 단계(S720)에서 수신한 센서 정보를 사용하여 이벤트 발생 여부를 판단할 수 있다. In operation S730, the event occurrence determining unit 310 of the master sensor node 121 may determine whether an event occurs using the sensor information received in operation S720.

단계(S740)에서 정보 전송부(320)는 단계(S730)에서 이벤트가 발생한 것으로 판단한 경우, 이벤트가 발생한 위치, 이벤트가 발생한 시간, 이벤트의 종류, 및 이벤트의 영상을 촬영한 센서 노드의 식별 정보 중 적어도 하나를 포함하는 이벤트 정보를 관제 장치(110)로 전송할 수 있다.If it is determined in step S740 that the event has occurred in step S730, the information transmitting unit 320 identifies the location where the event occurred, the time the event occurred, the type of event, and the identification information of the sensor node that captured the image of the event. Event information including at least one of the information may be transmitted to the control device 110.

단계(S750)에서 정보 전송부(320)는 관제 장치(110)의 영상 정보 요청부(230)로부터 사건으로 결정한 이벤트와 관련된 영상 정보를 요청 받았는지 여부를 판단할 수 있다.In operation S750, the information transmitter 320 may determine whether video information related to an event determined as an event is requested from the video information requester 230 of the control device 110.

단계(S760)에서 정보 전송부(320)는 단계(S750)에서 이벤트와 관련된 영상 정보를 요청 받은 경우, 이벤트 영상 정보를 생성할 수 있다. 이때, 정보 전송부(320)는 이벤트가 발생하기 일정시간 전부터 이벤트가 발생한 시점까지의 영상 정보를 재구성하고, 재구성한 영상 정보의 해상도를 증가시켜 이벤트 영상 정보를 생성할 수 있다.In operation S760, when the information transmitter 320 receives image information related to the event in operation S750, the information transmitter 320 may generate event image information. In this case, the information transmitter 320 may reconstruct the image information from a predetermined time before the event occurs to the time when the event occurs, and generate the event image information by increasing the resolution of the reconstructed image information.

단계(S770)에서 정보 전송부(320)는 단계(S760)에서 생성한 이벤트 영상을 관제 장치(110)의 영상부(240)로 전송할 수 있다. 이때, 관제 장치(110)의 영상부(240)는 이벤트 영상 정보를 사용하여 사건을 시각화한 영상 정보, 이벤트가 발생한 일반 센서 노드들의 영상 정보를 사용한 파노라마 영상 정보 중 적어도 하나를 생성할 수 있다.In operation S770, the information transmitter 320 may transmit the event image generated in operation S760 to the imager 240 of the control device 110. In this case, the imaging unit 240 of the control device 110 may generate at least one of image information visualizing an event using event image information and panorama image information using image information of general sensor nodes where an event occurs.

본 발명은 센서 노드가 수집한 이벤트 정보를 사용하여 이벤트가 모니터링 대상이 되는 사건인지 여부를 판단하고, 사건인 경우, 이벤트가 발생한 시간에 대응하는 영상 정보와 이벤트 정보를 매칭함으로써, 다양한 형태의 동기화된 영상을 표시할 수 있다. The present invention determines whether an event is an event to be monitored by using event information collected by a sensor node, and, in the case of an event, matches image information and event information corresponding to a time when an event occurs, thereby synchronizing various forms. The displayed image can be displayed.

또한, 본 발명은 사건으로 결정한 이벤트로부터 일정 시간 전부터 이벤트 발생 시점까지의 영상의 해상도를 증가 시킨 영상 정보에 이벤트 정보를 매칭함으로써, 사용자가 사건이 발생하기까지의 과정과 사건의 영상을 시인하기 용이하도록 할 수 있다.In addition, the present invention by matching the event information to the image information that increased the resolution of the image from a predetermined time before the event occurs from the event determined as the event, the user can easily recognize the process and the image of the event until the event occurs You can do that.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described by way of limited embodiments and drawings, but the present invention is not limited to the above embodiments, and those skilled in the art to which the present invention pertains various modifications and variations from such descriptions. This is possible.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

110: 관제 장치
120: 센서 네트워크
121: 마스터 센서 노드
122: 일반 센서 노드
210: 미들웨어부
220: 사건 결정부
230: 영상 정보 요청부
240: 영상부
260: GIS부
110: control device
120: sensor network
121: master sensor node
122: generic sensor node
210: middleware part
220: case decision
230: video information request unit
240: video unit
260: GIS department

Claims (1)

센서 네트워크로부터 수신한 이벤트 정보를 사용하여 이벤트가 사건인지 여부를 결정하는 사건 결정부;
이벤트를 사건으로 결정한 경우, 센서 네트워크에 이벤트가 발생한 시간에 대응하는 영상 정보를 요청하는 영상 정보 요청부; 및
이벤트 정보와 요청에 따라 전송된 영상 정보를 매칭하여 표시하는 정보 표시부
를 포함하는 무인 감시 시스템의 관제 장치.
An event determination unit that determines whether an event is an event using event information received from a sensor network;
An image information request unit for requesting image information corresponding to a time at which an event occurs, when the event is determined as an event; And
Information display unit matching and displaying event information and image information transmitted according to a request
Control device of the unmanned surveillance system comprising a.
KR1020120007390A 2012-01-25 2012-01-25 Apparatus and method for synchronizing video information and event information of unmanned supervision system KR20130086495A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120007390A KR20130086495A (en) 2012-01-25 2012-01-25 Apparatus and method for synchronizing video information and event information of unmanned supervision system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120007390A KR20130086495A (en) 2012-01-25 2012-01-25 Apparatus and method for synchronizing video information and event information of unmanned supervision system

Publications (1)

Publication Number Publication Date
KR20130086495A true KR20130086495A (en) 2013-08-02

Family

ID=49213729

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120007390A KR20130086495A (en) 2012-01-25 2012-01-25 Apparatus and method for synchronizing video information and event information of unmanned supervision system

Country Status (1)

Country Link
KR (1) KR20130086495A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338293A (en) * 2014-08-04 2016-02-17 杭州海康威视数字技术股份有限公司 Output display method and device for alarm event

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105338293A (en) * 2014-08-04 2016-02-17 杭州海康威视数字技术股份有限公司 Output display method and device for alarm event

Similar Documents

Publication Publication Date Title
TWI435279B (en) Monitoring system, image capturing apparatus, analysis apparatus, and monitoring method
US9288451B2 (en) Image processing apparatus and image processing method
US9277165B2 (en) Video surveillance system and method using IP-based networks
KR101543712B1 (en) Method and apparatus for security monitoring using augmented reality
US20180137724A1 (en) Processing security-related messages
JP2022507708A (en) Systems and methods for secure access to camera systems
WO2012095867A4 (en) An integrated intelligent server based system and method/systems adapted to facilitate fail-safe integration and /or optimized utilization of various sensory inputs
WO2012142797A1 (en) Video monitoring system and method
CN108109207B (en) Visual three-dimensional modeling method and system
KR102247359B1 (en) Image analysis system and method for remote monitoring
US20110255590A1 (en) Data transmission apparatus and method, network data transmission system and method using the same
CN106791703B (en) The method and system of scene is monitored based on panoramic view
CN111405222A (en) Video alarm method, video alarm system and alarm picture acquisition method
KR101005568B1 (en) Intelligent security system
KR20130113680A (en) Image monitoring system and method thereof
KR101466132B1 (en) System for integrated management of cameras and method thereof
JP4828359B2 (en) Monitoring device and monitoring program
KR102125022B1 (en) Method for operating video analyzing server, and method for providing video surveillance service using the same
JP2000032437A (en) Image transmission system
KR20140071190A (en) System for calculating traffic information and operating method thereof
KR20140021097A (en) System and method for camera image service based on distributed processing
KR20130086495A (en) Apparatus and method for synchronizing video information and event information of unmanned supervision system
KR101060414B1 (en) Monitoring system and mathod for the same
JP2013026642A (en) Camera, control device and program
CN110213544B (en) Video monitoring system and method for power distribution automation

Legal Events

Date Code Title Description
WITN Withdrawal due to no request for examination