KR101348617B1 - 무선 네트워크를 이용한 감시 시스템, 마스터 센서 노드 및 서버 장치 - Google Patents

무선 네트워크를 이용한 감시 시스템, 마스터 센서 노드 및 서버 장치 Download PDF

Info

Publication number
KR101348617B1
KR101348617B1 KR1020100116259A KR20100116259A KR101348617B1 KR 101348617 B1 KR101348617 B1 KR 101348617B1 KR 1020100116259 A KR1020100116259 A KR 1020100116259A KR 20100116259 A KR20100116259 A KR 20100116259A KR 101348617 B1 KR101348617 B1 KR 101348617B1
Authority
KR
South Korea
Prior art keywords
sensor node
event
server
information
master
Prior art date
Application number
KR1020100116259A
Other languages
English (en)
Other versions
KR20120054891A (ko
Inventor
송유승
박상준
최영우
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR1020100116259A priority Critical patent/KR101348617B1/ko
Priority to US13/235,574 priority patent/US20120127318A1/en
Publication of KR20120054891A publication Critical patent/KR20120054891A/ko
Application granted granted Critical
Publication of KR101348617B1 publication Critical patent/KR101348617B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)

Abstract

감시 시스템은 복수의 센서와 연결되어, 자시 사건 정보와 상기 복수의 센서로부터 획득되는 부가 사건 정보를 기반으로 사건의 발생 여부를 1차적으로 판단하는 센서 노드, 상기 센서 노드와 무선 채널을 통해 연결되어, 상기 센서 노드로부터 상기 사건의 발생을 통지받아 상기 자기 사건 정보와 상기 부가 사건 정보를 기반으로 상기 사건의 발생 여부를 2차적으로 판단하는 마스터 센서 노드, 및 상기 마스터 센서 노드와 연결되어, 상기 사건의 발생 여부를 상기 마스터 센서 노드로부터 보고받는 서버를 포함한다. 센서 노드, 마스터 센서 노드와 서버 간에 자율적으로 사건 발생을 인지하고 판단할 수 있다.

Description

무선 네트워크를 이용한 감시 시스템, 마스터 센서 노드 및 서버 장치{SURVEILLANCE SYSTEMME USING WIRELESS NETWORK, MASTER SENSOR NODE AND SERVER APPARATUS}
본 발명은 감시 시스템에 관한 것으로, 보다 상세하게는 무선 네트워크를 이용한 감시 시스템, 마스터 센서 노드 및 서버 장치에 관한 것이다.
교통량 측정, 신호 위반 차량 단속, 불법 주정차 차량 단속 및 사회 방범문제 해결 등을 위하여 CCTV(Closed-circuit television)의 설치가 전국적으로 늘어나고 있으며 최근 강도나 유괴범들을 CCTV가 녹화한 정보를 활용하여 검거하는 사례가 늘어나면서 CCTV 설치는 크게 확산되고 있다.
하지만 CCTV 감시에는 사각 지역이 발생하기 때문에 여러 대의 CCTV들이 설치되어 있음에도 불구하고 사건을 놓치는 경우가 발생하고 있다.
예를 들어 영국의 경우에는 테러 차단, 범죄 예방 등의 명목으로 영국 전역에 설치된 CCTV의 수가 420만대를 넘어선다. 1만대 이상의 CCTV가 건물, 교차로, 버스 정류장, 기차역, 지하철역, 버스, 기차, 지하철 안에도 24시간 감시카메라가 돌아간다. 그러나 1만대 이상의 CCTV로부터 수집되는 대량의 정보를 사람이 일일이 모니터링하며 대응하기에 한계가 있다.
일반적으로 한 명의 인력이 감시할 수 있는 CCTV 화면의 수는 제한적이고 또한 감시 인력이 집중력을 잃지 않고 감시할 수 있는 지속 가능시간도 한계가 있기 때문이다.
CCTV의 수가 증가됨에 따라 발생되는 대량의 정보를 저장 및 처리할 수 있을 뿐만 아니라 사건을 자동으로 인지하고 판단하여 운영자에게 알려줄 수 있는 감시 시스템이 필요하다.
본 발명은 무선 네트워크를 이용한 감시 시스템, 마스터 센서 노드 및 서버 장치를 제공한다.
일 양태에서, 무선 네트워크를 이용한 감시 시스템은 복수의 센서와 연결되어, 자기 사건 정보와 상기 복수의 센서로부터 획득되는 부가 사건 정보를 기반으로 사건의 발생 여부를 1차적으로 판단하는 센서 노드, 상기 센서 노드와 무선 채널을 통해 연결되어, 상기 센서 노드로부터 상기 사건의 발생을 통지받아 상기 자기 사건 정보와 상기 부가 사건 정보를 기반으로 상기 사건의 발생 여부를 2차적으로 판단하는 마스터 센서 노드, 및 상기 마스터 센서 노드와 연결되어, 상기 사건의 발생 여부를 상기 마스터 센서 노드로부터 보고받는 서버를 포함한다.
상기 서버는 상기 센서 노드로부터 상기 사건의 발생 전 영상을 획득하고, 상기 사건 발생 전 영상을 기반으로 상기 사건의 발생 여부를 재심의할 수 있다.
상기 서버는 상기 마스터 센서 노드를 통해 상기 센서 노드로 상기 사건의 발생 전 영상의 전송을 요청할 수 있다.
다른 양태에서, 무선 네트워크를 이용한 마스터 센서 노드는 센서 노드에 무선 인터페이스를 제공하는 인터페이스부, 및 상기 인터페이스부와 연결되는 프로세서를 포함하되, 상기 프로세서는 상기 센서 노드와 제1 연결을 확립하고, 서버와 제2 연결을 확립하고, 상기 센서 노드로부터 획득되는 자기 사건 정보와 복수의 센서로부터 획득되는 부가 사건 정보를 기반으로 1차적으로 결정된 사건의 발생 여부를 상기 센서 노드로부터 통지받고, 상기 자기 사건 정보와 상기 부가 사건 정보를 기반으로 상기 사건의 발생 여부를 2차적으로 판단하고, 및 2차적으로 판단된 상기 사건의 발생 여부를 상기 서버로 보고한다.
또 다른 양태에서, 서버 장치는 센서 노드와 무선 채널로로 연결된 마스터 센서 노드에 인터페이스를 제공하는 인터페이스부, 및 상기 인터페이스부와 연결되는 프로세서를 포함하되, 상기 프로세서는 상기 마스터 센서 노드와 연결을 확립하고, 상기 마스터 센서 노드로부터 사건의 발생 여부를 수신하되, 상기 마스터 센서 노드는 상기 센서 노드로부터 획득되는 자기 사건 정보와 복수의 센서로부터 획득되는 부가 사건 정보를 기반으로 1차적으로 결정된 상기 사건의 발생 여부를 상기 센서 노드로부터 통지받은 후 상기 자기 사건 정보와 상기 부가 사건 정보를 기반으로 상기 사건의 발생 여부를 2차적으로 판단하여, 2차적으로 판단된 상기 사건의 발생 여부를 전송하고, 및 수신된 상기 사건의 발생 여부를 재심의한다.
센서 노드, 마스터 센서 노드와 서버 간에 자율적으로 사건 발생을 인지하고 판단할 수 있다. 대규모 수의 센서가 설치되더라도 최소의 인력으로 실시간 감시가 가능하다.
도 1은 본 발명의 실시예에 따른 감시 시스템의 구성도를 나타낸 블록도이다.
도 2는 하나의 MSN을 통하여 SN 간 협력 통신이 수행되는 예를 나타낸 블록도이다.
도 3은 서로 다른 MSN을 통하여 SN 간 협력 통신이 수행되는 예를 나타낸 블록도이다.
도 4는 본 발명의 실시예에 따른 감시 시스템의 운영 절차를 나타낸 흐름도이다.
도 5는 등록 과정을 나타낸 블록도이다.
도 6은 제안된 협력 감시 시스템의 운용을 나타낸 흐름도이다.
도 7은 본 발명의 실시예를 구현하는 감시 시스템을 나타낸 블록도이다.
도 1은 본 발명의 실시예에 따른 감시 시스템의 구성도를 나타낸 블록도이다.
센서(100)는 사건의 객체에 대한 사건(event) 정보를 센서 노드(200)(이하 SN(sensor node))에게 무선 채널을 통해 송신한다. 무선 채널은 지그비, 블루투스, IEEE 802.11 과 같은 근거리 무선 통신 표준을 기반으로 할 수 있다. SN(200)는 센서(100)와 유선 채널을 통해 연결될 수도 있다.
센서(100)는 이동 객체 탐지 및 이동 방향, 속도에 관한 정보를 센싱하고, 이를 사건 정보로 하여 SN(200)에게 보낼 수 있다.
센서(100)는 도로나 지하에 매립된 매립 센서(underground sensor)를 포함할 수 있다. 센서(100)는, 객체 탐지 센서, 온도 센서, 습도 센서, 조도 센서를 포함할 수 있다.
SN(200)은 사건 발생원의 방향을 나타내는 방위각 및/또는 사건 발생원의 영상 정보(이를 자기(self) 사건 정보라 함)를 획득하고, 각 센서(100)로부터 전달된 정보(이를 부가 사건 정보라 함)를 추가적으로 활용하여 1차적인(primary) 사건(event)의 발생 여부를 인지한다. SN(200)는 예를 들어, CCTV(Closed-circuit television) 일 수 있다.
마스터 센서 노드(300)(이하 MSN(Master Sensor Node))는 SN(200)들과 무선 채널을 통해 연결되어, SN(200)로부터 전달되는 사건 정보를 기반으로 2차적 사건의 발생 여부를 인지한다.
MSN(300)은 SN(200)들과 메쉬 네트워크(mesh network)로써 구성될 수 있다. 예를 들어, MSN(300)은 어떤 SN과는 직접 연결되지 않고, 메쉬 SN을 통해 연결되는 것이다.
MSN(300)은 무선 네트워크 또는 유선 네트워크(예, 인터넷 네트워크)를 통해 서버(400) 혹은 관제 센터와 연결된다. MSN(300)은 2차적으로 판단 결과 사건이 의심되는 경우 서버(400)로 보고한다.
서버(400)는 MSN(300)으로부터 전달된 사건 정보와 영상 데이터 및/또는 기타 사건 발생에 대한 통계 자료 등을 활용하여 사건의 발생 여부를 최종적으로 판단한다.
SN(200)이 사건이 발생하였다고 1차적으로 판단이 되는 경우, 1차적 사건 발생을 MSN(300)에게 보고한다. MSN(300)은 SN(200)으로 전송받은 데이터로부터 2차적으로 사건의 발생 여부를 판단하고, 이를 서버(400)에게 보고한다. 예를 들어, 신호 위반 단속의 경우, 센서(100)로부터의 객체의 이동 방향, 속도 등의 부가 사건 정보와 SN(200)의 자기 사건 정보(예, 영상정보)를 활용하여 차량의 신호 위반 여부를 1차적으로 판단한다. MSN(300)은 다시 사건 정보(부가 사건 정보 및/또는 자기 사건 정보)를 기반으로 상기 차량의 신호 위반 여부를 2차적으로 판단한다. MSN(300)에는 복수의 SN(200)이 연결되어 있으므로 보다 넓은 관점에서 사건의 발생 여부를 판단할 수 있다. MSN(300)은 차량의 신호 위반이 2차적으로 판단되면, 이를 서버(400)에게 보고한다.
도 2는 하나의 MSN을 통하여 SN 간 협력(cooperative) 통신이 수행되는 예를 나타낸 블록도이다.
SN-A(201)가 연결된 센서들로부터의 부가 사건 정보와 자기 사건 정보(센서 노드의 음향 및 영상 정보)를 활용하여 사건(10)을 인지한다. SN-A(201)은 사건(10)을 MSN(300)에게 통보한다.
사건(10)이 발생한 지역이 SN-B(202)의 관할 지역과 겹쳐지는 지역이라고 할 때, SN-B(202)도 사건(10)을 인지하고 MSN(300)에게 보고한다.
MSN(300)은 SN-A(201)와 SN-B(202) 모두로부터 정보의 전송을 요청하고 필요한 데이터를 전송받아 다시 2차적으로 사건을 판단한다.
사건(10)의 인지가 발생한 지역이 SN의 관할 지역들이 중첩된 지역이고, 복수의 SN들로부터 사건(10)이 MSN(300)에 보고된다. MSN(300)은 SN들간의 협력 통신을 통해 사건(10)을 재구성하고 발생 여부를 판단한다.
따라서, 동일한 사건에 대해 다수의 SN들로부터 다수의 사건 보고가 통지되더라도, MSN(300)이 이를 관리하도록 함으로써 서버(400)로의 중복된 보고를 줄일 수 있다. 서버(400)의 부담을 줄이고 많은 수의 SN들을 보다 효율적으로 관리할 수 있다.
도 3은 서로 다른 MSN을 통하여 SN 간 협력 통신이 수행되는 예를 나타낸 블록도이다.
SN-B(202)가 연결된 센서들로부터의 정보를 처리하여 사건(10)을 인지한다. SN-B(202)은 사건(10)을 자신과 연결된 상위노드인 MSN-A(301)에게 통보한다.
사건(10)이 발생한 지역이 SN-C(203)의 관할 지역과 겹쳐지는 지역이라고 할 때, SN-C(203)도 사건(10)을 인지하고 상위노드인 MSN-B(302)에게 보고한다.
MSN-A(301)은 SN-B(202)로부터 정보의 전송을 요청하고 필요한 데이터를 전송받아 다시 2차적으로 사건을 판단하고, 서버(400)에게 보고한다. MSN-B(302)은 SN-C(203)로부터 정보의 전송을 요청하고 필요한 데이터를 전송받아 다시 2차적으로 사건을 판단하고, 서버(400)에게 보고한다.
서버(400)는 MSN-A(301)를 통해 SN-B(202)에게 해당 영상 및 기타 센싱 데이터를 요청하고, MSN-B(302)를 통해 SN-C(203)에게 해당 영상 및 기타 센싱 데이터를 요청한다. 서버(400)는 SN간 협력 통신을 기반으로 종합적인 분석을 수행한다.
사건(10)의 인지가 발생한 지역이 SN의 관할 지역들이 중첩된 지역이고, 복수의 SN들로부터 동일한 사건(10)이 서로 다른 MSN들(301, 302)에 보고된다. 서버(400)는 SN들간의 협력 통신을 통해 사건(10)을 재구성하고 발생 여부를 판단한다.
도 4는 본 발명의 실시예에 따른 감시 시스템의 운영 절차를 나타낸 흐름도이다.
각 SN과 각 MSN은 내부적인 기능 및 동작에 이상이 없는지 초기화를 수행한다(단계 510). 만약 SN과 MSN이 1-홉(hop)으로 구성되지 않으면, SN과 MSN은 메쉬 네트워크를 구성할 수도 있다.
서버로부터 SN들의 위치 파악 명령이 내려지면 다중 홉 무선 메쉬 네트워크를 구성하고 있는 SN들의 위치 값이 서버로 전달된다(단계 520). 이때 SN들의 위치정보는 SN에 탑재된 GPS(GPS, Global Positioning System)를 기반으로 획득될 수 있다.
SN들과 MSN들은 서버에 등록된다(단계 530). 서버는 등록된 SN과 MSN에 연결되는 여러 센서들과 기타 장치를 설정하고, 필요한 서비스를 만족하는 시스템 특성을 구성한다(단계 540). 모든 설정이 끝나면 협력 감시 시스템이 정상적으로 운용된다(단계 550).
상기 단계 530 부터 상기 단계 550의 통신은 지능형 센서들의 제어 및 동작을 위해 널리 사용되고 있는 ONVIF(Open Network Video Interface Forum) 프로토콜에 기반하여 수행될 수 있다.
ONVIF는 IP(Internet Protocol) 기반의 보안 제품의 인터페이스를 위한 표준을 개발하기 위한 포럼(forum)으로, 'http://www.onvif.org/'을 참조할 수 있다.
ONVIF 프로토콜은 2010년 6월에 개시된 "Open Network Video Interface Forum Core Specification Version 1.02"(이하 ONVIF V1.02)을 참조할 수 있다.
다만, 제안되는 협력 감시 시스템을 운용하기 위해 추가적인 ONVIF 프로토콜이 필요한데, 이에 관하여는 이하에서 보다 상세히 기술한다.
도 5는 등록 과정을 나타낸 블록도이다.
제안된 협력 감시 시스템에서는 MSN이 DP(discovery proxy) 기능을 수행한다. DP는 포트 포워드(port forward) 또는 IP 맵핑 등의 기능을 통해 SN과 서버 간의 통신을 중계한다.
먼저 MSN은 장비 발견(device discovery)을 수행하여 종속된 SN들을 파악한다. 장비 발견에 사용되는 메시지들은 헬로우(Hello) 메시지와 그 응답인 헬로우 응답(Hello response) 메시지, 프로브 요청(Probe Request) 메시지와 그 응답인 프로브 매치(Probe Match) 메시지이다. 이들 메시지는 ONVIF V1.02의 7.4.2절과 7.4.3절을 참조할 수 있다.
MSN은 SN1과 연결을 확립한다. SN1은 MSN으로 헬로우 메시지를 보낸다(710). MSN은 SN1로 헬로우 응답 메시지를 보낸다(715). 그리고, MSN은 SN1로 프로브 요청 메시지를 보낸다(720). SN1은 MSN로 프로브 매치 메시지를 보낸다(725).
마찬가지로, MSN은 SN2와 연결을 확립한다. SN2은 MSN으로 헬로우 메시지를 보낸다(730). MSN은 SN2로 헬로우 응답 메시지를 보낸다(735). 그리고, MSN은 SN2로 프로브 요청 메시지를 보낸다(740). MSN은 SN2로 프로브 메치 메시지를 보낸다(745).
이런 방식으로, MSN과 SN간의 장비 발견이 수행되는 것이다.
그 이후에, 서버와 MSN 간의 장비 발견이 수행되고, 서버와 MSN 간에 연결이 확립된다. MSN은 서버로 헬로우 메시지를 보낸다(760). 서버는 MSN으로 헬로우 응답 메시지를 보낸다(765). 그리고, 서버는 MSN으로 프로브 요청 메시지를 보낸다(770). MSN은 서버로 프로브 매치 메시지를 보낸다(775).
서버와 MSN 간의 장비 발견 과정 중에 MSN은 MSN이 관리하는 SN들의 정보도 서버에 전달될 수 있다.
장비 발견 과정에 사용되는 메시지들은 ONVIF V1.02 규격서에 명시되어 있지만, 제안된 발명은 MSN의 기능, SN과 서버 간의 장비 발견 과정을 수행하기 전 SN과 MSN 간의 장비 발견 과정을 수행하는 방식에 관련된다. 이를 위해, 추가적인 프로토콜의 정의가 필요하다.
도 6은 제안된 협력 감시 시스템의 운용을 나타낸 흐름도이다.
서버는 MSN을 통해 SN에게 사건 발생 등을 수신할 준비가 되었음을 알리는 가입 요청(subscription request) 메시지를 보낸다(810). SN은 가입 요청에 대한 응답으로 가입 응답(subscription response) 메시지를 MSN을 통해 서버로 보낸다(815).
SN은 의심되는 사건이 발생하면, 1차적으로 사건의 발생 여부를 판단하고 사건의 발생을 MSN에게 통보한다(820).
MSN은 통보된 사건에 대한 2차적 판단에 필요한 사건 정보를 SN에게 요청한다(825). 사건 정보는 영상, 센서 정보, 상황 인지 파라미터(environmental cognition parameter) 및 사건 프로파일(event profile) 중 적어도 어느 하나를 포함할 수 있다. 사건 정보 요청은 하나의 메시지를 통해 전송될 수도 있고, 복수의 메시지를 통해 필요한 정보 마다 개별적으로 전송될 수도 있다.
MSN은 시간 정보를 SN으로부터 수신한다(830).
MSN은 사건 정보를 기반으로 2차적으로 사건의 발생 여부를 판단한다(835).
2차적 판단 결과 사건의 발생이 의심되면, MSN은 서버로 사건의 발생을 통보한다(840).
서버는 통보된 사건에 대한 사건 정보를 MSN에게 요청한다(845). 그리고, MSN은 요청된 사건 정보를 서버로 보낸다(850).
서버는 사건 발생 전 영상을 MSN을 통해 SN에게 요청할 수 있다(855). SN은 사건 발생전 영상을 MSN을 통해 서버로 전송한다(860).
사건 발생 전 영상이 사건이 발생하기 전 얼마 전부터의 영상인지 여부에 대해서는 제한이 없다.
서버는 사건 정보 및/또는 사건 발생 전 영상을 기반으로 사건의 발생 여부를 재심의한다(870). 최종 판단은 서버가 하며, 사건 발생에 따른 적절한 조치가 행해지도록 한다.
서버는 사건 종료 메시지를 MSN을 통해 SN에게 보낸다(S875). SN은 사건 종료 응답 메시지를 서버로 보내고, 다시 사건 발생 전 모드로 복귀한다.
제안된 감시 시스템의 운용을 위해 기존 ONVIF 규격서에서 프로토콜이 추가적으로 정의될 필요가 있다.
장비 발견 과정에서 각 장비의 위치 정보와 센서 정보의 제공이 필요하므로, ONVIF 규격서의 장비 역량(device capability)에 다음 표와 같은 카테고리의 추가가 필요하다.
카테고리 역량 내 용
Position XAddr 위치 서비스에 대한 어드레스(address)
Sensor XAddr 센서 서비스에 대한 어드레스
SN에 음향 센서 정보를 요청하기 위해, GetSoundSensorInformationRequest 메시지가 사용될 수 있다. 이에 따라, 음향 센서 정보 요청의 응답인 GetSoundSensorInformationResponse 메시지에 다음과 같은 필드의 추가가 필요하다.
필 드 내 용
xs:integer Azimuth 음향 센서의 방위
xs:integer Elevation 음향 센서의 높이
xs:string Threshold 음향 센서의 임계치
xs:string EventSoundValue 사건 발생시 음향값
SN에 지상 센서 정보를 요청하기 위해, GetUppergroundSensorInformationRequest 메시지가 사용될 수 있다. 이에 따라, 지상 센서 정보 요청의 응답인 GetUpperSensorInformationResponse 메시지에 다음과 같은 필드의 추가가 필요하다.
필 드 내 용
xs:string Temperature 온도
xs:string Illumination 조명도
xs:string GravityValue 중력값
xs:string CompassValue 나침반 값
SN에 매립 센서 정보를 요청하기 위해, GetUndergroundSensorInformationRequest 메시지가 사용될 수 있다. 이에 따라, 매립 센서 정보 요청의 응답인 GetUndergroundSensorInformationResponse 메시지에 다음과 같은 필드의 추가가 필요하다.
필 드 내 용
xs:string ObjectIDInfo 객체 ID(identifier)
xs:string ObjectVelocityInfo 객체의 속도
xs:string ObjectMovingDirection 객체의 이동 방향
SN에 상황 인지 정보를 요청하기 위해, GetEnvironmentalCognitionParameterRequest 메시지가 사용될 수 있다. 이에 따라, 상황 인지 정보 요청의 응답인 GetEnvironmentalCognitionParameterResponse 메시지에 다음과 같은 필드의 추가가 필요하다.
필드 내 용
xs:string Day 시각
xs:string DayorNight 낮 또는 밤
xs:string RoadType 도로 유형
xs:string RoadShape 도로 형태
xs:string RodeClass 도로 클래스
xs:string RoadWidth 도로 넓이
xs:string LocalInformation 지역 정보
xs:string EventFrequency 사건 주기
xs:string EventType 사건 유형
xs:string TrafficStats 교통 상태
xs:string SpeedLimit 속도 제한
xs:string VehicleCount 차량 수
xs:string CameraHeight 카메라 높이
xs:string CameraAngle 카메라 각도
xs:string ObjectVelocity 객체 속도
SN에 상황 인지 정보를 설정하기 위해 사용되는 SetEnvironmentalCognitionParameterRequest 메시지에도 다음과 같은 필드의 추가가 필요하다.
필드 내 용
xs:string Day 시각
xs:string DayorNight 낮 또는 밤
xs:string RoadType 도로 유형
xs:string RoadShape 도로 형태
xs:string RodeClass 도로 클래스
xs:string RoadWidth 도로 넓이
xs:string LocalInformation 지역 정보
xs:string EventFrequency 사건 주기
xs:string EventType 사건 유형
xs:string TrafficStats 교통 상태
xs:string SpeedLimit 속도 제한
xs:string VehicleCount 차량 수
xs:string CameraHeight 카메라 높이
xs:string CameraAngle 카메라 각도
xs:string ObjectVelocity 객체 속도
SN에 사건 프로파일을 요청하기 위해, GetEventProfileRequest 메시지가 사용될 수 있다. 이에 따라, 사건 프로파일 요청의 응답인 GetEventProfileResponse 메시지에 다음과 같은 필드의 추가가 필요하다.
필 드 내 용
xs:Boolean EventOccurence 사건 발생 여부
xs:string NumOfObject 객체의 수
xs:string ROIcenterX 객체의 위치
xs:string ROIcenterY
xs:string ROIlefttopX
xs:string ROIlefttopY
xs:string ROIrightbottomX
xs:string ROIrightbottomY
xs:string EventProbability 사건 확률
xs:string EventID 사건 ID
서버 또는 MSN은 각 SN에게 사건 종료를 요청할 수 있다. 사건 종료의 요청에 사용되는 GetEventTerminationRequest 메시지에 다음과 같은 필드의 추가가 필요하다.
필 드 내 용
xs:string eventID 사건 ID
이와 더불어, 사건 종료 요청의 응답인 GetEventTerminationResponse 메시지에 다음과 같은 필드의 추가가 필요하다.
필 드 내 용
xs:Boolean Terminate 사건 종료 여부
SN에 사건 발생 전 영상을 요청하기 위해, GetXXsecPreviousEventInformationRequest 메시지가 사용될 수 있다. 이에 따라, 영상 요청의 응답인 GetXXsecPreviousEventInformationResponse 메시지에 다음과 같은 필드의 추가가 필요하다.
필 드 내 용
images 사건 발생 전 영상 정보
도 7은 본 발명의 실시예를 구현하는 감시 시스템을 나타낸 블록도이다.
SN(200)은 인터페이스부(210) 및 프로세서(220)를 포함한다.
인터페이스부(210)은 복수의 센서(미도시)와 MSN(300)에 무선 인터페이스를 제공한다.
프로세서(220)는 전술한 실시예에서 SN(200)의 동작을 구현한다. 프로세서(220)는 복수의 센서로부터 획득되는 부가 사건 정보와 센서 노드의 자기 사건 정보를 기반으로 사건의 발생 여부를 1차적으로 판단하고, MSN(300)에 보고할 수 있다.
MSN(300)은 인터페이스부(310) 및 프로세서(320)를 포함한다.
인터페이스부(210)은 SN(200)에 무선 인터페이스를 제공하고, 서버 장치(400)에 유선 인터페이스(또는 무선 인터페이스)를 제공한다.
프로세서(320)는 전술한 실시예에서 MSN(300)의 동작을 구현한다. 프로세서(320)는 SN(200)로부터 사건의 발생을 통지받아 상기 사건 정보를 기반으로 상기 사건의 발생 여부를 2차적으로 판단하고, 서버 장치(400)로 보고할 수 있다.
서버 장치(400)는 인터페이스부(410) 및 프로세서(420)를 포함한다.
인터페이스부(40)은 MSN(300)에 인터페이스를 제공한다.
프로세서(420)는 전술한 실시예에서 서버(400)의 동작을 구현한다. 프로세서(420)는 상기 사건의 발생 여부를 MSN(300)으로부터 보고받고, 재심의할 수 있다.
프로세서는 ASIC(application-specific integrated circuit), 다른 칩셋, 논리 회로 및/또는 데이터 처리 장치를 포함할 수 있다. 메모리는 ROM(read-only memory), RAM(random access memory), 플래쉬 메모리, 메모리 카드, 저장 매체 및/또는 다른 저장 장치를 포함할 수 있다. RF부는 무선 신호를 처리하기 위한 베이스밴드 회로를 포함할 수 있다. 실시예가 소프트웨어로 구현될 때, 상술한 기법은 상술한 기능을 수행하는 모듈(과정, 기능 등)로 구현될 수 있다. 모듈은 메모리에 저장되고, 프로세서에 의해 실행될 수 있다. 메모리는 프로세서 내부 또는 외부에 있을 수 있고, 잘 알려진 다양한 수단으로 프로세서와 연결될 수 있다.
상술한 예시적인 시스템에서, 방법들은 일련의 단계 또는 블록으로써 순서도를 기초로 설명되고 있지만, 본 발명은 단계들의 순서에 한정되는 것은 아니며, 어떤 단계는 상술한 바와 다른 단계와 다른 순서로 또는 동시에 발생할 수 있다. 또한, 당업자라면 순서도에 나타낸 단계들이 배타적이지 않고, 다른 단계가 포함되거나 순서도의 하나 또는 그 이상의 단계가 본 발명의 범위에 영향을 미치지 않고 삭제될 수 있음을 이해할 수 있을 것이다.

Claims (15)

  1. 무선 네트워크를 이용한 감시 시스템에 있어서,
    복수의 센서와 연결되어, 자기 사건 정보와 상기 복수의 센서로부터 획득되는 부가 사건 정보를 기반으로 사건의 발생 여부를 1차적으로 판단하는 센서 노드;
    상기 센서 노드와 무선 채널을 통해 연결되어, 상기 센서 노드로부터 상기 사건의 발생을 통지받아 상기 자기 사건 정보와 상기 부가 사건 정보를 기반으로 상기 사건의 발생 여부를 2차적으로 판단하는 마스터 센서 노드; 및
    상기 마스터 센서 노드와 연결되어, 상기 사건의 발생 여부를 상기 마스터 센서 노드로부터 보고받는 서버를 포함하는 것을 특징으로 하는 감시 시스템.
  2. 제 1 항에 있어서, 상기 서버는 상기 센서 노드로부터 상기 사건의 발생 전 영상을 획득하고, 상기 사건 발생 전 영상을 기반으로 상기 사건의 발생 여부를 재심의하는 것을 특징으로 하는 감시 시스템.
  3. 제 2 항에 있어서, 상기 서버는 상기 마스터 센서 노드를 통해 상기 센서 노드로 상기 사건의 발생 전 영상의 전송을 요청하는 것을 특징으로 하는 감시 시스템.
  4. 제 1 항에 있어서, 상기 부가 사건 정보는 상기 복수의 센서로부터 획득되는 센서 정보, 상황 인지 파라미터 및 사건 프로파일 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 감시 시스템.
  5. 제 4 항에 있어서, 상기 센서 정보는 지상 센서 정보 및 매립 센서 정보 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 감시 시스템.
  6. 제 1 항에 있어서, 상기 센서 노드와 상기 마스터 센서 노드는 상기 센서 노드가 연결을 요청하고, 상기 마스터 센서 노드가 상기 연결 요청에 응답함으로써 연결이 확립되는 것을 특징으로 하는 감시 시스템.
  7. 제 1 항에 있어서, 상기 센서 노드와 상기 마스터 센서 노드 사이 및 상기 마스터 센서 노드와 상기 서버 사이에는 ONVIF(Open Network Video Interface Forum) 프로토콜을 기반으로 통신하는 것을 특징으로 하는 감시 시스템.
  8. 제 1 항에 있어서, 상기 센서 노드는 적어도 하나의 다른 센서 노드와 연결되고, 상기 적어도 하나의 다른 센서 노드로부터 자기 사건 정보를 획득하는 것을 특징으로 하는 감시 시스템.
  9. 무선 네트워크를 이용한 마스터 센서 노드에 있어서,
    센서 노드에 무선 인터페이스를 제공하는 인터페이스부; 및
    상기 인터페이스부와 연결되는 프로세서를 포함하되, 상기 프로세서는
    상기 센서 노드와 제1 연결을 확립하고,
    서버와 제2 연결을 확립하고,
    상기 센서 노드로부터 획득되는 자기 사건 정보와 복수의 센서로부터 획득되는 부가 사건 정보를 기반으로 1차적으로 결정된 사건의 발생 여부를 상기 센서 노드로부터 통지받고,
    상기 자기 사건 정보와 상기 부가 사건 정보를 기반으로 상기 사건의 발생 여부를 2차적으로 판단하고, 및
    2차적으로 판단된 상기 사건의 발생 여부를 상기 서버로 보고하는 것을 특징으로 하는 마스터 센서 노드.
  10. 제 9 항에 있어서, 상기 사건 정보는 상기 복수의 센서로부터 획득되는 센서 정보, 상황 인지 파라미터 및 사건 프로파일 중 적어도 어느 하나를 포함하는 것을 특징으로 하는 마스터 센서 노드.
  11. 제 9 항에 있어서, 상기 프로세서는 상기 센서 노드로부터 연결 요청을 수신하고, 상기 연결 요청에 응답함으로써 상기 제1 연결을 확립하는 것을 특징으로 하는 마스터 센서 노드.
  12. 제 9 항에 있어서, 상기 프로세서는 상기 서버로 연결 요청을 전송하고, 상기 서버로부터 상기 연결 요청에 대한 응답을 수신함으로써 상기 제2 연결을 확립하는 것을 특징으로 하는 마스터 센서 노드.
  13. 센서 노드와 무선 채널로 연결된 마스터 센서 노드에 인터페이스를 제공하는 인터페이스부; 및
    상기 인터페이스부와 연결되는 프로세서를 포함하되, 상기 프로세서는
    상기 마스터 센서 노드와 연결을 확립하고,
    상기 마스터 센서 노드로부터 사건의 발생 여부를 수신하되,
    상기 마스터 센서 노드는 상기 센서 노드로부터 획득되는 자기 사건 정보와 복수의 센서로부터 획득되는 부가 사건 정보를 기반으로 1차적으로 결정된 상기 사건의 발생 여부를 상기 센서 노드로부터 통지받은 후 상기 자기 사건 정보와 상기 부가 사건 정보를 기반으로 상기 사건의 발생 여부를 2차적으로 판단하여, 2차적으로 판단된 상기 사건의 발생 여부를 전송하고, 및
    수신된 상기 사건의 발생 여부를 재심의하는 것을 특징으로 하는 서버 장치.
  14. 제 13 항에 있어서, 상기 프로세서는 상기 센서 노드로부터 상기 사건의 발생 전 영상을 획득하고, 상기 사건 발생 전 영상을 기반으로 상기 사건의 발생 여부를 재심의하는 것을 특징으로 하는 서버 장치.
  15. 제 14 항에 있어서, 상기 프로세서는 상기 마스터 센서 노드를 통해 상기 센서 노드로 상기 사건의 발생 전 영상의 전송을 요청하는 것을 특징으로 하는 서버 장치.
KR1020100116259A 2010-11-22 2010-11-22 무선 네트워크를 이용한 감시 시스템, 마스터 센서 노드 및 서버 장치 KR101348617B1 (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020100116259A KR101348617B1 (ko) 2010-11-22 2010-11-22 무선 네트워크를 이용한 감시 시스템, 마스터 센서 노드 및 서버 장치
US13/235,574 US20120127318A1 (en) 2010-11-22 2011-09-19 Surveillance system using wireless network, master sensor node, and server apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100116259A KR101348617B1 (ko) 2010-11-22 2010-11-22 무선 네트워크를 이용한 감시 시스템, 마스터 센서 노드 및 서버 장치

Publications (2)

Publication Number Publication Date
KR20120054891A KR20120054891A (ko) 2012-05-31
KR101348617B1 true KR101348617B1 (ko) 2014-01-08

Family

ID=46064029

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100116259A KR101348617B1 (ko) 2010-11-22 2010-11-22 무선 네트워크를 이용한 감시 시스템, 마스터 센서 노드 및 서버 장치

Country Status (2)

Country Link
US (1) US20120127318A1 (ko)
KR (1) KR101348617B1 (ko)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI573448B (zh) * 2012-11-21 2017-03-01 財團法人工業技術研究院 串流連線管理方法及串流資料連線系統
CN103247171A (zh) * 2013-05-27 2013-08-14 苏州洁祥电子有限公司 交通违章监控系统
CN103607557A (zh) * 2013-10-28 2014-02-26 深圳市安巨科技有限公司 在电视画中画上显示监控视频的系统及其方法
US10078811B2 (en) 2013-11-29 2018-09-18 Fedex Corporate Services, Inc. Determining node location based on context data in a wireless node network
CN103780900B (zh) * 2014-01-16 2016-02-17 国家电网公司 一种onvif模拟测试装置及方法
CN105809922A (zh) * 2014-12-31 2016-07-27 青岛中科软件股份有限公司 无线光照度传感器
US10305744B2 (en) * 2015-07-08 2019-05-28 Fedex Corporate Services, Inc. System, apparatus, and methods of event monitoring for an event candidate related to an ID node within a wireless node network
CN108234931B (zh) * 2016-12-21 2019-12-03 杭州海康威视数字技术股份有限公司 数据传输方法、装置及系统
CN108737769A (zh) * 2017-04-14 2018-11-02 杭州登虹科技有限公司 将直播视频流接入视频监控的方法
TWI663861B (zh) * 2017-06-21 2019-06-21 友訊科技股份有限公司 利用onvif標準傳輸訊息以辨識出網路攝影機並提昇傳輸品質之方法
CN107623898A (zh) * 2017-08-29 2018-01-23 广州中国科学院计算机网络信息中心 入侵监控方法、装置和设备
CN109450927B (zh) * 2018-12-07 2021-01-15 杭州盈高科技有限公司 一种快速识别接入摄像头的系统及方法
CN110446012A (zh) * 2019-08-19 2019-11-12 段亚斌 一种智慧城市的实现方法及系统

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080102517A (ko) * 2007-05-21 2008-11-26 주식회사 케이티 Usn을 이용한 교통정보 수집 및 처리 시스템 및 그 방법
KR20090006686U (ko) * 2007-12-28 2009-07-02 한국전력공사 무선센서를 이용한 감시 장치
KR20110009345A (ko) * 2009-07-22 2011-01-28 주식회사코어벨 스마트센서 네트워크에서 상황인지를 위한 정보수집 및 통신방법
KR20110038208A (ko) * 2009-10-08 2011-04-14 주식회사코어벨 스마트센서시스템에서 상황인지 기반 정보처리 방법

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7797367B1 (en) * 1999-10-06 2010-09-14 Gelvin David C Apparatus for compact internetworked wireless integrated network sensors (WINS)
US8134942B2 (en) * 2005-08-24 2012-03-13 Avaak, Inc. Communication protocol for low-power network applications and a network of sensors using the same
US20070276600A1 (en) * 2006-03-06 2007-11-29 King Timothy I Intersection collision warning system
WO2008115193A2 (en) * 2006-06-08 2008-09-25 Vista Research, Inc. Sensor suite and signal processing for border surveillance
KR101403223B1 (ko) * 2007-09-28 2014-06-03 삼성전자주식회사 무선 센서 네트워크를 통한 카메라 제어 방법 및 이를 위한시스템
AU2007237206B2 (en) * 2007-11-27 2009-12-10 Canon Kabushiki Kaisha Method, apparatus and system for displaying video data
US8390684B2 (en) * 2008-03-28 2013-03-05 On-Net Surveillance Systems, Inc. Method and system for video collection and analysis thereof
US9786164B2 (en) * 2008-05-23 2017-10-10 Leverage Information Systems, Inc. Automated camera response in a surveillance architecture
US20110072479A1 (en) * 2009-09-23 2011-03-24 Industrial Technology Research Institute System and method for reporting a position of a video device and network video transmitter thereof
KR101294118B1 (ko) * 2009-12-02 2013-08-08 한국전자통신연구원 센서 액츄에이터 노드와 이를 이용한 상황 대처 방법
US8922658B2 (en) * 2010-11-05 2014-12-30 Tom Galvin Network video recorder system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20080102517A (ko) * 2007-05-21 2008-11-26 주식회사 케이티 Usn을 이용한 교통정보 수집 및 처리 시스템 및 그 방법
KR20090006686U (ko) * 2007-12-28 2009-07-02 한국전력공사 무선센서를 이용한 감시 장치
KR20110009345A (ko) * 2009-07-22 2011-01-28 주식회사코어벨 스마트센서 네트워크에서 상황인지를 위한 정보수집 및 통신방법
KR20110038208A (ko) * 2009-10-08 2011-04-14 주식회사코어벨 스마트센서시스템에서 상황인지 기반 정보처리 방법

Also Published As

Publication number Publication date
US20120127318A1 (en) 2012-05-24
KR20120054891A (ko) 2012-05-31

Similar Documents

Publication Publication Date Title
KR101348617B1 (ko) 무선 네트워크를 이용한 감시 시스템, 마스터 센서 노드 및 서버 장치
US10122790B2 (en) Systems and methods for vehicle traffic management in a network of moving things
US9117371B2 (en) Mobile autonomous surveillance
JP6906270B2 (ja) 街灯と街灯柱に基づいてスマートシティIoTを構築するためのシステムおよび方法
US20170176192A1 (en) Systems and methods to extrapolate high-value data from a network of moving things, for example including a network of autonomous vehicles
US20180137724A1 (en) Processing security-related messages
CN104079874A (zh) 一种基于物联网技术的安防一体化系统及方法
KR101519235B1 (ko) 무선 센서 네트워크 기반 스마트 보안 cctv 시스템 및 그 제어방법
MX2013000970A (es) Metodos y sistemas para enviar mensajes respecto a una emergencia que ocurrio en una instalacion.
CN105321320B (zh) 一种基于vpn构架的4g lte网络在线预警系统及方法
KR20160035274A (ko) Cctv와 차량내 블랙박스를 활용한 빅데이터 기반의 불법 주정차 단속 시스템
CN116362445B (zh) 一种面向多终端的智慧城市数字孪生地图管理系统
CN106408814A (zh) 窨井盖防盗报警方法及系统
US9336661B2 (en) Safety communication system and method thereof
KR20150061102A (ko) 관제 시스템 및 이를 이용한 관제 방법
KR101373175B1 (ko) 푸쉬 방식 통신 기반의 실시간 도로 모니터링 시스템 및 방법
CN104574564A (zh) 利用有无线网关的黑匣子功能提供系统及其方法
CN107306212A (zh) 智能家居告警方法、装置、智能防控终端及家庭智能网关
KR102530210B1 (ko) 하이브리드 소방용 시설물 관리시스템
CN103971528B (zh) 与被监控车辆互联的智能交通监控系统的实现方法
KR102585736B1 (ko) 스마트 시티를 위한 IoT 다기능 통합 모듈시스템 및 방법
KR101533738B1 (ko) 네트워크 멀티미디어 공유 시스템
KR101471060B1 (ko) 통합형 무선영상촬영장치 및 이를 이용한 영상감시시스템
CN104412634A (zh) 使用云传感器网络的智能无线入侵阻挡系统和传感器
KR102067547B1 (ko) 이동통신단말 및 건물 cctv카메라 간의 통신연결 및 영상분석 기반의 주변차량 위험상황 감지 및 방법

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20171206

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20181217

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20191220

Year of fee payment: 7