KR101125275B1 - Unmanned Monitoring Mathod and System - Google Patents

Unmanned Monitoring Mathod and System Download PDF

Info

Publication number
KR101125275B1
KR101125275B1 KR1020100031191A KR20100031191A KR101125275B1 KR 101125275 B1 KR101125275 B1 KR 101125275B1 KR 1020100031191 A KR1020100031191 A KR 1020100031191A KR 20100031191 A KR20100031191 A KR 20100031191A KR 101125275 B1 KR101125275 B1 KR 101125275B1
Authority
KR
South Korea
Prior art keywords
sensor
target
monitoring
monitoring target
information
Prior art date
Application number
KR1020100031191A
Other languages
Korean (ko)
Other versions
KR20110111883A (en
Inventor
이호원
함명원
이강욱
조동호
김재정
이동원
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020100031191A priority Critical patent/KR101125275B1/en
Publication of KR20110111883A publication Critical patent/KR20110111883A/en
Application granted granted Critical
Publication of KR101125275B1 publication Critical patent/KR101125275B1/en

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B23/00Alarms responsive to unspecified undesired or abnormal conditions
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Traffic Control Systems (AREA)
  • Alarm Systems (AREA)

Abstract

본 발명은 다수개의 센서를 이용하여 이동성이 있는 감시 대상에 대해 지속적인 실시간 감시가 가능하도록 한 카메라 핸드오버 실행 방법, 무인 감시 방법 및 시스템, 이를 구현하기 위한 프로그램이 기록된 컴류터로 읽을 수 있는 기록매체에 관한 것으로, 상기 카메라 핸드오버 실행 방법은 감시 대상의 이동 경로에 해당하는 센서간 감지 범위가 중첩되는 것에 의해, 이웃한 센서들이 동시에 상기 감시 대상을 감시하도록 함으로써 상기 감시 대상에 대한 지속적인 감시가 가능하다.According to the present invention, a method for executing a camera handover, an unmanned monitoring method and system for enabling continuous real-time monitoring of a mobile monitoring target using a plurality of sensors, and a computer-readable recording program for realizing the same The method for performing the camera handover includes a method in which a sensing range between sensors corresponding to a moving path of a monitoring target is overlapped, thereby allowing neighboring sensors to simultaneously monitor the monitoring target. It is possible.

Description

감시 대상의 실시간 감시가 가능한 무인 감시 방법 및 시스템 {Unmanned Monitoring Mathod and System}Unmanned Monitoring Method and System for Real-Time Monitoring of Monitoring Targets {Unmanned Monitoring Mathod and System}

본 발명은 무인 감시 방법 및 시스템에 관한 것으로, 더욱 상세하게는 다수개의 센서를 이용하여 이동하는 감시 대상에 대한 지속적인 감시가 가능하도록 한 카메라 핸드오버 실행 방법, 무인 감시 방법 및 시스템, 이를 구현하기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체에 관한 것이다.
The present invention relates to an unmanned surveillance method and system, and more particularly, a camera handover execution method, an unmanned surveillance method and system for enabling continuous monitoring of a moving surveillance target using a plurality of sensors, and for implementing the same. A computer readable recording medium having recorded a program.

최근에 차량 수의 증가와 더불어 각종 차량 사고의 발생 횟수가 날로 증가하고 있는 추세에 있으며, 차량 대 차량 및 차량 대 사람의 사고시에는 이후 과실 여부의 추정이 중요한 쟁점으로 부각되고 있다.Recently, as the number of vehicles increases, the number of occurrences of various vehicle accidents is increasing day by day, and in the case of vehicle-to-vehicle and vehicle-to-person accidents, estimating whether there is an error later has been an important issue.

또한, 교통 사고의 조기 발견은 신속한 구조 활동에 의해 인명 구조의 성공율을 높일 뿐만 아니라, 경찰의 현장 검증 등을 신속하게 함으로써 사고 정체를 완화할 수도 있기 때문에 이러한 교통 사고 등의 인식 자동화 기술이 기대되고 있다. 그리고, 교통사고의 인식율을 높이기 위해서는 카메라로 촬상된 화상을 처리하여 이동 물체를 정확하게 추적할 필요가 있다. In addition, early detection of traffic accidents not only increases the success rate of lifesavings due to rapid rescue activities, but also reduces accident congestion by speeding up the on-site verification of the police. have. In order to increase the recognition rate of traffic accidents, it is necessary to process images captured by a camera to accurately track moving objects.

특히, 차량은 이동성이 있기 때문에 하나의 센서(예를 들어, CCD 카메라, CCTV 등과 같은 이미지센서)를 통해 지속적으로 촬영하는 것이 불가능하다. 또한, 교통 사고 등이 발생하는 경우, 사건 차량에 대한 지속적인 실시간 감시가 필요하다. 이를 위해서는 여러 개의 센서가 협력하여 사건 차량을 촬영할 필요가 있다.
In particular, since the vehicle is mobile, it is impossible to continuously photograph through one sensor (for example, an image sensor such as a CCD camera or CCTV). In addition, when a traffic accident or the like occurs, continuous real-time monitoring of the incident vehicle is required. This requires several sensors to work together to photograph the incident vehicle.

상술한 문제점을 해결하기 위하여, 본 발명은 서로 이웃하는 센서의 감지 범위가 중첩되도록 다수개의 센서를 배치함으로써, 감시 대상에 대한 연속적인 실시간 감시가 가능한 카메라 핸드오버 실행 방법을 제공하는데 그 목적이 있다.In order to solve the above problems, an object of the present invention is to provide a camera handover execution method capable of continuous real-time monitoring of the monitoring target by arranging a plurality of sensors so that the detection range of the neighboring sensors overlap. .

또한, 본 발명은 상기 카메라 핸드오버 실행 방법을 이용한 무인 감시 방법 및 시스템을 제공하는데 또 다른 목적이 있다.Another object of the present invention is to provide an unattended monitoring method and system using the camera handover execution method.

또한, 본 발명은 상기 카메라 핸드오버 실행 방법 및 이를 이용한 무인 감시 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공하는데 또 다른 목적이 있다.
Another object of the present invention is to provide a computer-readable recording medium recording a program for executing the camera handover method and an unattended monitoring method using the same.

상기의 목적을 달성하기 위한 본 발명의 일실시 형태는 다수개의 센서와 마스터센서를 포함하는 무인 감시 시스템에서 감시 대상을 실시간 감시하는 방법에 있어서, 상기 다수개의 센서 중 제1센서에서 이벤트의 발생을 감지하는 단계; 상기 제1센서에서 이벤트 발생 메시지 및 상기 이벤트와 관련한 감시 대상에 대한 정보를 상기 마스터센서로 송신하는 단계; 상기 마스터센서에서 상기 감시 대상에 대한 정보를 이용해 타켓센서를 선택하는 단계; 상기 마스터센서에서 상기 타켓센서로 카메라 핸드오버 지시 메시지를 송신하는 단계; 및 상기 타켓센서에서 상기 제1센서와 동시에 상기 감시 대상을 감시하는 카메라 핸드오버를 실행하는 단계;를 포함하는 감시 대상의 실시간 감시가 가능한 카메라 핸드오버 실행 방법을 제공한다.
An embodiment of the present invention for achieving the above object is a method for real-time monitoring of a monitoring target in an unmanned monitoring system including a plurality of sensors and a master sensor, the occurrence of an event in the first sensor of the plurality of sensors Sensing; Transmitting, by the first sensor, an event occurrence message and information on a monitoring target related to the event to the master sensor; Selecting a target sensor using the information on the monitoring target in the master sensor; Transmitting a camera handover instruction message from the master sensor to the target sensor; And executing a camera handover in which the target sensor simultaneously monitors the monitoring target with the first sensor.

이때, 상기 감시 대상에 대한 정보는 적어도 진행 속도 및 진행 방향 정보를 포함하는 것이며, 상기 타켓센서를 선택하는 단계는, 상기 제1센서와 인접한 다수개의 센서들을 후보 타켓 센서로 검색하는 단계; 상기 감시 대상에 대한 정보로부터 진행 속도 및 진행 방향에 대한 정보를 추출하여 감시 대상의 이동 경로를 파악하는 단계; 및 상기 감시 대상의 이동 경로에 해당하는 센서를 타켓센서로 선택하는 단계;를 포함하는 것일 수 있다.
In this case, the information on the monitoring target includes at least a traveling speed and a traveling direction information, and the selecting of the target sensor may include: searching a plurality of sensors adjacent to the first sensor as candidate target sensors; Determining a moving path of the monitoring target by extracting information on a traveling speed and a moving direction from the information on the monitoring target; And selecting a sensor corresponding to the movement path of the monitoring target as a target sensor.

또한, 상기 타켓센서의 카메라 핸드오버 실행 단계는, 상기 카메라 핸드오버 지시 메시지에서 상기 감시 대상의 진행 속도 및 진행 방향 정보를 추출하는 단계; 상기 진행 속도 및 진행 방향을 이용해 상기 감시 대상의 진입 방향을 파악하는 단계; 상기 감시 대상의 진입 방향을 일정 시간 전부터 감시하는 단계; 및 상기 제1센서와 동시에 상기 감시 대상을 감시하는 단계;를 포함하는 것일 수 있다.
In addition, the camera handover execution step of the target sensor, the step of extracting the moving speed and the progress direction information of the monitoring target from the camera handover instruction message; Determining an entry direction of the monitoring target by using the moving speed and the moving direction; Monitoring the direction of entry of the monitoring target from a certain time ago; And monitoring the monitoring target simultaneously with the first sensor.

또한, 상기 다수개의 센서는 카메라, 음향 센서, 열감지 센서 및 진동 센서 중 적어도 하나일 수 있으며, 상기 이벤트는 차량 대 차량, 차량 대 인간 및 인간 대 인간의 충돌 사고일 수 있다.
In addition, the plurality of sensors may be at least one of a camera, an acoustic sensor, a heat sensor, and a vibration sensor, and the event may be a collision accident between a vehicle, a vehicle, a vehicle, a human, and a human.

한편, 본 발명의 다른 실시형태는, 다수개의 센서와 마스터센서를 포함하는 무인 감시 시스템에서 상기 센서가 카메라 핸드오버를 실행하는 방법에 있어서, 이벤트의 발생을 감지하는 단계; 상기 이벤트 발생 메시지 및 상기 이벤트와 관련한 감시 대상에 대한 정보를 상기 마스터센서로 송신하는 단계; 및 상기 감시 대상에 대한 실시간 감시를 수행하고, 상기 감시 대상에 대한 정보를 상기 마스터센서로 실시간 송신하는 단계;를 포함하는 센서의 카메라 핸드오버 실행 방법을 제공한다.
On the other hand, another embodiment of the present invention, in the unattended monitoring system including a plurality of sensors and a master sensor, the sensor performs a camera handover, comprising the steps of: detecting the occurrence of an event; Transmitting the event occurrence message and information on a monitoring target related to the event to the master sensor; And performing real time monitoring on the monitoring target and transmitting information on the monitoring target to the master sensor in real time.

이때, 상기 감시 대상에 대한 정보는 적어도 진행 속도 및 진행 방향 정보를 포함하는 것이며, 상기 다수개의 센서는 카메라, 음향 센서, 열감지 센서 및 진동 센서 중 적어도 하나일 수 있으며, 상기 이벤트는 차량 대 차량, 차량 대 인간 및 인간 대 인간의 충돌 사고일 수 있다.
In this case, the information on the monitoring target includes at least a traveling speed and a traveling direction information, and the plurality of sensors may be at least one of a camera, an acoustic sensor, a thermal sensor, and a vibration sensor, and the event may be a vehicle-to-vehicle. It can be a collision accident between vehicle versus human and human versus human.

한편, 본 발명의 또 다른 실시형태는, 다수개의 센서와 마스터센서를 포함하는 무인 감시 시스템에서 상기 마스터센서가 카메라 핸드오버를 실행하는 방법에 있어서, 상기 다수개의 센서 중 제1센서로부터 이벤트 발생 메시지 및 감시 대상 정보를 수신하는 단계; 상기 제1센서와 인접하고 있는 다수개의 센서들을 후보 타켓센서로 검색하는 단계; 상기 제1센서로부터 감시 대상 정보를 실시간으로 수신하는 단계; 상기 감시 대상 정보를 이용해 타켓센서를 결정하는 단계; 및 상기 타켓센서가 상기 제1센서와 동시에 상기 감시 대상을 감시하는 카메라 핸드오버를 수행하도록, 상기 타켓센서로 카메라 핸드오버 지시 메시지를 송신하는 단계;를 포함하는 마스터센서의 카메라 핸드오버 실행 방법을 제공한다.
On the other hand, another embodiment of the present invention, in the unattended monitoring system including a plurality of sensors and a master sensor in the method for performing the camera handover by the master sensor, an event occurrence message from the first sensor of the plurality of sensors And receiving monitoring target information; Searching for a plurality of sensors adjacent to the first sensor as candidate target sensors; Receiving monitoring target information from the first sensor in real time; Determining a target sensor using the monitoring target information; And transmitting a camera handover instruction message to the target sensor so that the target sensor performs a camera handover for monitoring the monitoring target simultaneously with the first sensor. to provide.

이때, 상기 감시 대상 정보는 적어도 진행 속도 및 진행 방향 정보를 포함하는 것이며, 상기 타켓센서를 결정하는 단계는, 상기 감시 대상 정보로부터 진행 속도 및 진행 방향 정보를 추출하고, 상기 진행 속도 및 진행 방샹 정보를 이용해 상기 감시 대상의 이동 경로를 파악하는 단계; 및 상기 감시 대상의 이동 경로에 해당하는 후보 타켓센서를 최종 타켓센서로 결정하는 단계;를 포함할 수 있으며, 상기 다수개의 센서는 카메라, 음향 센서, 열감지 센서 및 진동 센서 중 적어도 하나일 수 있으며, 상기 이벤트는 차량 대 차량, 차량 대 인간 및 인간 대 인간의 충돌 사고일 수 있다.
In this case, the monitoring target information includes at least a traveling speed and a traveling direction information. The determining of the target sensor includes extracting the traveling speed and the traveling direction information from the monitoring target information, and performing the traveling speed and traveling strategy information. Determining a moving path of the monitoring target by using; And determining a candidate target sensor corresponding to the movement target of the monitoring target as a final target sensor, wherein the plurality of sensors may be at least one of a camera, an acoustic sensor, a thermal sensor, and a vibration sensor. The event may be a collision accident between vehicle to vehicle, vehicle to human and human to human.

한편, 본 발명의 또 다른 실시형태는, 다수개의 센서와 마스터센서를 포함하는 무인 감시 시스템에서 감시 대상을 실시간 감시하는 방법에 있어서, 상기 다수개의 센서 중 제1센서에서 실시간 감시를 수행하는 단계; 상기 제1센서에서 이벤트 발생을 감지하는 단계; 상기 제1센서에서 이벤트 발생 메시지 및 상기 이벤트와 관련한 감시 대상에 대한 정보를 상기 마스터센서로 송신하는 단계; 상기 마스터센서에서 상기 감시 대상에 대한 정보를 이용해 타켓센서를 선택하는 단계; 상기 마스터센서에서 상기 타켓센서로 카메라 핸드오버 지시 메시지를 송신하는 단계; 상기 타켓센서에서 상기 제1센서와 동시에 상기 감시 대상을 감시하는 카메라 핸드오버를 실행하는 단계; 및 상기 제1센서에서 상기 감시 대상의 감시를 종료하는 단계;를 포함하는 감시 대상의 실시간 감시가 가능한 무인 감시 방법을 제공한다.
Meanwhile, another embodiment of the present invention provides a method for real-time monitoring of a monitoring target in an unattended monitoring system including a plurality of sensors and a master sensor, the method comprising: real-time monitoring at a first sensor of the plurality of sensors; Detecting an occurrence of an event in the first sensor; Transmitting, by the first sensor, an event occurrence message and information on a monitoring target related to the event to the master sensor; Selecting a target sensor using the information on the monitoring target in the master sensor; Transmitting a camera handover instruction message from the master sensor to the target sensor; Executing a camera handover in which the target sensor simultaneously monitors the monitoring target with the first sensor; And terminating the monitoring of the monitoring target by the first sensor.

이때, 상기 감시 대상에 대한 정보는 적어도 진행 속도 및 진행 방향 정보를 포함하는 것이며, 상기 타켓센서를 선택하는 단계는, 상기 제1센서와 인접한 다수개의 센서들을 후보 타켓 센서로 검색하는 단계; 상기 감시 대상에 대한 정보로부터 진행 속도 및 진행 방향에 대한 정보를 추출하고, 상기 진행 속도 및 진행 방향 정보를 이용해 감시 대상의 이동 경로를 파악하는 단계; 및 상기 감시 대상의 이동 경로에 해당하는 센서를 타켓센서로 선택하는 단계;를 포함할 수 있으며, 상기 타켓센서의 카메라 핸드오버 실행 단계는, 상기 카메라 핸드오버 지시 메시지에서 상기 감시 대상의 진행 속도 및 진행 방향 정보를 추출하는 단계; 상기 진행 속도 및 진행 방향 정보를 이용해 상기 감시 대상의 진입 방향을 파악하는 단계; 상기 감시 대상의 진입 방향을 일정 시간 전부터 감시하는 단계; 및 상기 제1센서와 동시에 상기 감시 대상을 감시하는 단계;를 포함할 수 있다.
In this case, the information on the monitoring target includes at least a traveling speed and a traveling direction information, and the selecting of the target sensor may include: searching a plurality of sensors adjacent to the first sensor as candidate target sensors; Extracting information on a traveling speed and a traveling direction from the information on the monitoring target, and identifying a moving path of the monitoring target using the traveling speed and the traveling direction information; And selecting a sensor corresponding to the movement path of the monitoring target as a target sensor, wherein the camera handover execution of the target sensor includes: a progress speed of the monitoring target in the camera handover instruction message; Extracting heading direction information; Determining an entry direction of the monitoring target by using the progress speed and the progress direction information; Monitoring the direction of entry of the monitoring target from a certain time ago; And monitoring the monitoring target simultaneously with the first sensor.

또한, 상기 다수개의 센서는 카메라, 음향 센서, 열감지 센서 및 진동 센서 중 적어도 하나일 수 있으며, 상기 이벤트는 차량 대 차량, 차량 대 인간 및 인간 대 인간의 충돌 사고일 수 있으며, 상기 제1센서에서 상기 감시 대상의 감시를 종료하는 단계는 상기 감시 대상이 자신의 감지 범위를 벗어날 경우, 상기 감시 대상의 감시를 종료하고, 기설정된 초기지점의 감시를 수행하는 단계일 수 있다.
In addition, the plurality of sensors may be at least one of a camera, an acoustic sensor, a thermal sensor, and a vibration sensor, and the event may be a collision accident between a vehicle, a vehicle, a vehicle, a human, and a human, and the first sensor. The step of terminating the monitoring of the monitoring target may include ending the monitoring of the monitoring target and performing a preset initial point when the monitoring target is out of its detection range.

한편, 본 발명의 또 다른 실시형태는, 상기 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체를 제공한다.
On the other hand, another embodiment of the present invention provides a computer readable recording medium having recorded thereon a program for executing the method.

한편, 본 발명의 또 다른 실시형태는, 각각은 일정 영역을 감지 범위로 가지며, 상기 감지 범위에서 발생하는 이벤트를 감지하여 이벤트 발생 메시지 및 이벤트와 관련된 감시 대상 정보를 송신하고, 서로 인접한 센서간 감지 범위가 중첩되도록 배치된 다수개의 센서; 및 상기 다수개의 센서 중 하나의 센서로부터 이벤트 발생 메시지 및 이벤트와 관련된 감시 대상 정보를 수신하고, 상기 다수개의 센서 중 타켓센서를 결정하며 상기 하나의 센서와 동시에 상기 감시 대상을 감시하는 카메라 핸드오버를 상기 타켓센서에 지시하는 마스터센서;를 포함하는 감시 대상의 실시간 감시가 가능한 무인 감시 시스템을 제공한다.
On the other hand, another embodiment of the present invention, each has a certain area as a detection range, and detects the event occurring in the detection range to transmit the event occurrence message and the monitoring target information related to the event, the detection between adjacent sensors A plurality of sensors arranged to overlap ranges; And a camera handover for receiving an event occurrence message and monitoring target information related to an event from one of the plurality of sensors, determining a target sensor among the plurality of sensors, and simultaneously monitoring the monitoring target with the one sensor. It provides an unmanned monitoring system capable of real-time monitoring of the monitoring target including a; master sensor instructing the target sensor.

이때, 상기 감시 대상 정보는 적어도 진행 속도 및 진행 방향 정보를 포함하는 것이며, 상기 마스터센서는, 상기 하나의 센서와 인접한 다수개의 센서들을 후보 타켓 센서로 검색하고, 상기 감시 대상 정보로부터 진행 속도 및 진행 방향 정보를 추출하고, 상기 진행 속도 및 진행 방향 정보를 이용해 감시 대상의 이동 경로를 파악한 후, 상기 감시 대상의 이동 경로에 해당하는 후보 타켓센서 중에서 타켓센서를 결정하는 것일 수 있으며, 상기 마스터 센서는 상기 타켓센서로 카메라 핸드오버 지시 메시지를 송신하는 것이다. 상기 타켓센서는 상기 카메라 핸드오버 지시 메시지에서 상기 감시 대상의 진행 속도 및 진행 방향 정보를 추출하고, 상기 진행 속도 및 진행 방향 정보를 이용해 상기 감시 대상의 진입 방향을 파악한 후, 상기 감시 대상의 진입 방향을 일정 시간 전부터 감시하는 것이다. 상기 다수개의 센서는 카메라, 음향 센서, 열감지 센서 및 진동 센서 중 적어도 하나일 수 있으며, 상기 이벤트는 차량 대 차량, 차량 대 인간 및 인간 대 인간의 충돌 사고일 수 있다.
In this case, the monitoring target information includes at least a traveling speed and a traveling direction information, and the master sensor searches for a plurality of sensors adjacent to the one sensor as a candidate target sensor, and proceeds from the monitoring target information. After extracting the direction information, grasping the moving path of the monitoring target using the moving speed and the moving direction information, the target sensor may be determined from among candidate target sensors corresponding to the moving path of the monitoring target. The camera handover instruction message is transmitted to the target sensor. The target sensor extracts the moving speed and the moving direction information of the monitoring target from the camera handover instruction message, determines the entering direction of the monitoring target using the moving speed and the moving direction information, and then enters the entering direction of the monitoring target. Will be monitored from a certain time before. The plurality of sensors may be at least one of a camera, an acoustic sensor, a thermal sensor, and a vibration sensor, and the event may be a collision accident between a vehicle-to-vehicle, a vehicle-to-human, and a human-to-human collision.

본 발명에 따르면, 사고발생 즉시 조기 발견이 가능하며, 이러한 조기 발견으로 신속한 구조 활동에 의한 인명 구조의 성공율을 높일 수 있다. 또한, 사건 차량에 대한 지속적인 실시간 감시가 가능하여 사고 전후의 상황을 알 수 있으므로, 사건 처리 및 경찰의 현장 검증 등을 신속하게 함으로써 사고 정체를 완화할 수 있다.
According to the present invention, early detection is possible immediately after an accident occurs, and the early detection can increase the success rate of lifesaving by rapid rescue activities. In addition, the real-time monitoring of the incident vehicle is possible to know the situation before and after the accident, it is possible to mitigate the congestion by promptly handling the incident and the on-site verification of the police.

도 1은 본 발명의 일실시 형태에 따른 무인 감시 시스템의 전체 구성을 개략적으로 나타내는 사시도이다.
도 2는 도 1에 도시된 본 발명의 무인 감시 시스템을 설명하기 위한 구성도이다.
도 3은 도 1에 도시된 본 발명의 무인 감시 시스템의 상세 구성을 나타낸 구성도이다.
도 4는 본 발명의 일실시 형태에 따른 무인 감시 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 일실시 형태에 따른 무인 감시 시스템에 있어서, 서빙 센서의 동작을 설명하기 위한 순서도이다.
도 6은는 본 발명의 일실시 형태에 따른 무인 감시 시스템에 있어서, 마스터 센서의 동작을 설명하기 위한 순서도이다.
1 is a perspective view schematically showing the overall configuration of an unmanned surveillance system according to an embodiment of the present invention.
FIG. 2 is a configuration diagram illustrating an unmanned surveillance system of the present invention shown in FIG. 1.
3 is a configuration diagram showing a detailed configuration of the unmanned monitoring system of the present invention shown in FIG.
4 is a flowchart illustrating an unattended monitoring method according to an embodiment of the present invention.
5 is a flow chart for explaining the operation of the serving sensor in the unmanned monitoring system according to an embodiment of the present invention.
6 is a flow chart for explaining the operation of the master sensor in the unmanned monitoring system according to an embodiment of the present invention.

이하에서는 도면을 참조하여 본 발명의 바람직한 실시예들을 상세히 설명한다. 이하 설명 및 첨부된 도면들에서 실질적으로 동일한 구성요소들은 각각 동일한 부호들로 나타냄으로써 중복 설명을 생략하기로 한다. 또한 본 발명을 설명함에 있어 관련된 공지기능 혹은 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그에 대한 상세한 설명은 생략하기로 한다.
Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings. In the following description and the accompanying drawings, the substantially identical components are represented by the same reference numerals, and thus redundant description will be omitted. In addition, in the following description of the present invention, if it is determined that a detailed description of a related known function or configuration may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명의 일실시 형태에 따른 무인 감시 시스템의 전체 구성을 개략적으로 나타내는 사시도이다. 도 1을 참조하면, 본 발명에 따른 무인 감시 시스템은 마스터 센서와 다수개의 센서들로 이루어진다.
1 is a perspective view schematically showing the overall configuration of an unmanned surveillance system according to an embodiment of the present invention. Referring to FIG. 1, the unmanned surveillance system according to the present invention includes a master sensor and a plurality of sensors.

여기서, 센서는 영상 획득을 위한 카메라일 수 있으며, 감시하고자 하는 지역에 일정한 간격으로 다수 개 설치되며, 각 센서는 일정 범위의 감시 영역에 대한 영상을 획득할 수 있다. 이러한 센서는 감시 영역에서 발생하는 이벤트를 감지하고, 이벤트 및 감시 대상에 대한 정보를 마스터 센서로 전송한다. 이때, 각 센서에서 감지하는 이벤트는 차량 대 차량, 차량 대 사람, 사람 대 사람 간의 충돌 및 접촉에 의한 교통 사고 등을 의미하며, 상기 이벤트를 최초로 감지한 센서를 서빙센서(serving sensor)라고 한다.
Here, the sensor may be a camera for image acquisition, and a plurality of sensors are installed in a region to be monitored at regular intervals, and each sensor may acquire an image of a surveillance region of a predetermined range. The sensor detects an event occurring in the surveillance area, and transmits information about the event and the monitored object to the master sensor. At this time, the event detected by each sensor means a vehicle accident, such as a vehicle-to-vehicle, a vehicle-to-person, a person-to-person collision and a traffic accident, and the first sensor that detects the event is called a serving sensor.

그리고, 마스터 센서는 관제 센터일 수 있으며, 서빙 센서로부터 자신의 감시 영역에서 발생되는 이벤트 및 감시 대상에 대한 정보를 수신하고, 감시 대상의 실시간 추적을 위해 서빙 센서와 인접하며, 감시 대상의 이동 경로에 해당하는 후보 타켓 센서를 검색하고, 서빙 센서와 카메라 핸드오버(Camera handover)를 수행할 최종 타켓 센서를 결정한 후, 타켓 센서로 카메라 핸드오버 지시 메시지를 전송한다.
In addition, the master sensor may be a control center, and receives information about events and monitoring targets generated in its own monitoring area from the serving sensor, and is adjacent to the serving sensor for real-time tracking of the monitoring target, and the movement path of the monitoring target. After searching for a candidate target sensor corresponding to the target sensor, and determining a final target sensor to perform a serving sensor and a camera handover, the camera handover instruction message is transmitted to the target sensor.

여기서, 카메라 핸드오버에 대해 정의하도록 한다. 핸드오버(Handover)는 일반적으로 통화 중 상태인 이동 단말(mobile station)이 해당 기지국 서비스 지역(cell boundary)을 벗어나 인접 기지국 서비스 지역으로 이동할 때 단말기가 인접 기지국의 새로운 통화 채널에 자동 동조되어 지속적으로 통화 상태가 유지되는 기능을 말하며, 본 발명은 핸드오버 기술을 무인 감시 시스템에 적용하여 센서간 감시 범위가 연속되도록 함으로써 이동성이 있는 감시 대상에 대한 지속적인 영상 획득이 가능하도록 한다. 이를 본 발명에서 카메라 핸드오버라고 한다.
Here, the camera handover will be defined. Handover is generally performed by a mobile station automatically tuning to a new call channel of a neighboring base station when a mobile station in a busy state moves out of its cell boundary to a neighboring base station service area. The present invention refers to a function of maintaining a call state, and the present invention applies a handover technology to an unmanned surveillance system to allow continuous monitoring range between sensors to enable continuous image acquisition of a mobile surveillance target. This is referred to as camera handover in the present invention.

따라서, 본 발명에서는 카메라 핸드오버 기술을 적용한 무인 감시 시스템을 이용함으로써 교통사고 등의 이벤트가 발생한 경우, 사건 차량에 대한 지속적인 실시간 감시가 가능하다.
Therefore, in the present invention, when an event such as a traffic accident occurs by using an unmanned surveillance system to which the camera handover technology is applied, continuous real-time monitoring of the incident vehicle is possible.

도 2는 본 발명의 일실시 형태에 따른 무인 감시 시스템에 있어서, 카메라 핸드오버 동작을 설명하기 위한 구성도이다. 여기서, 본 발명의 무인 감시 시스템은 설치되는 센서들의 개수에 제한을 두지 않으며, 설명의 용이성을 위해 3개의 센서를 포함하는 것으로 도시한다.
2 is a block diagram for explaining a camera handover operation in the unmanned monitoring system according to an embodiment of the present invention. Here, the unmanned surveillance system of the present invention is not limited to the number of sensors installed, it is shown as including three sensors for ease of description.

도 2를 참조하면, 본 발명에 따른 무인 감시 시스템은 일정한 범위의 감시 영역에 대한 실시간 감시를 위해 마스터 센서(110)와 센서들(120-1~120-3)을 포함하여 이루어진다. 이러한 센서들(120-1~120-3)은 일정 영역을 감지 범위로 가지며, 이웃한 센서들 간 감지 범위가 중첩(예들 들어, B 지점에 해당)되도록 배치된다.
Referring to FIG. 2, the unmanned surveillance system according to the present invention includes a master sensor 110 and sensors 120-1 to 120-3 for real-time monitoring of a surveillance range of a certain range. These sensors 120-1 to 120-3 have a certain area as a detection range, and are disposed such that detection ranges between neighboring sensors overlap (for example, point B).

우선, A 지점에서 두 차량이 충돌하여 교통 사고(이벤트)가 발생하면, 이를 센서1(120-1)에서 감지하고, 이벤트 발생 메시지와 함께 이벤트 발생 차량(감시 대상)에 대한 정보를 마스터 센서(110)에 전송한다. 이때, 감시 대상에 대한 정보에는 차량의 진행 속도, 진행 방향, 차종, 번호판 등의 정보일 수 있다.
First, when two vehicles collide at point A and an accident occurs, the sensor 1 (120-1) detects this, and together with the event occurrence message, information about the event generating vehicle (monitoring object) is detected by the master sensor ( 110). In this case, the information on the monitoring target may be information such as a traveling speed of the vehicle, a traveling direction, a vehicle model, a license plate, and the like.

그러면, 마스터 센서(110)는 서빙 센서인 센서1(120-1)와 인접한 후보 타켓 센서들을 검색한 후, 감시 대상에 대한 정보를 이용해 센서1(120-1)와 카메라 핸드오버를 수행할 타켓 센서를 결정한다. 즉, 감시 대상에 대한 정보는 적어도 진행 속도 및 진행 방향 정보를 포함하는 것이며, 감시 대상의 진행 방향이 화살표 방향이므로, 타켓 센서는 센서2(120-2)가 된다. 타켓 센서가 결정되면, 마스터 센서(110)는 센서2(120-2)로 카메라 핸드오버 지시 메시지를 전송한다.
Then, the master sensor 110 searches for candidate target sensors adjacent to sensor 1 (120-1) serving as a serving sensor, and then performs a target of camera handover with sensor 1 (120-1) using information on the monitoring target. Determine the sensor. That is, the information on the monitoring target includes at least the traveling speed and the traveling direction information, and since the traveling direction of the monitoring target is the arrow direction, the target sensor becomes the sensor 2 (120-2). When the target sensor is determined, the master sensor 110 transmits a camera handover instruction message to the sensor 2 (120-2).

그러면, 카메라 핸드오버 지시 메시지를 수신한 센서2(120-2)는 감시 대상이 진입하는 방향으로 감시하게 되고, B 지점에서 센서1(120-1)과 센서2(120-2)과 동시에 감시 대상을 감시하게 된다. 그런 다음, C 지점에서는 센서2(120-2)에 의해서만 감시 대상을 감시하게 된다. 따라서, 본 발명에 따르면, A 지점에서 C 지점까지 감시 대상에 대한 실시간 추적 감시가 가능하게 된다.
Then, the sensor 2 (120-2) receiving the camera handover instruction message is monitored in the direction in which the monitoring target enters, and simultaneously monitors the sensor 1 (120-1) and the sensor 2 (120-2) at point B. The target is monitored. Then, at point C, the monitoring target is monitored only by the sensor 2 (120-2). Therefore, according to the present invention, real-time tracking and monitoring of the monitoring target from point A to point C becomes possible.

도 3은 도 1에 도시된 본 발명의 무인 감시 시스템의 상세 구성을 나타낸 블록도이다.
3 is a block diagram showing the detailed configuration of the unmanned surveillance system of the present invention shown in FIG.

도 3을 참조하면, 본 발명의 무인 감시 시스템은 다수개의 센서들과 마스터센서(300)를 포함하여 이루어진다. 다수개의 센서들의 구성은 모두 동일하므로, 하나의 센서에 대해서 설명하도록 한다. 이러한 센서1(200)은 이미지센싱부(210), 보조센싱부(220), 이벤트판단부(230), 감시대상정보 추출부(240), 메시지 송수신부(250) 및 카메라 핸드오버 실행부(260)를 포함하여 이루어진다.
Referring to FIG. 3, the unmanned surveillance system of the present invention includes a plurality of sensors and a master sensor 300. Since the configuration of the plurality of sensors are all the same, one sensor will be described. The sensor 1 200 includes an image sensing unit 210, an auxiliary sensing unit 220, an event determining unit 230, a monitoring target information extracting unit 240, a message transmitting and receiving unit 250, and a camera handover execution unit ( 260).

이미지센싱부(210)는 CCD 카메라, 일반 카메라 등의 이미지 획득이 가능한 센서들을 포함할 수 있으며, 감지 범위에 대한 실시간 영상을 획득한다. 그리고, 보조센싱부(220)는 이미지센싱부(210)와 더불어 상황인지를 위한 각종 센서들을 포함할 수 있으며, 예를 들어, 마이크로 폰 등의 음향 센서, 열감지 센서 및 진동 센서일 수 있다.
The image sensing unit 210 may include sensors capable of acquiring images, such as a CCD camera and a general camera, and acquires a real-time image of a detection range. In addition to the image sensing unit 210, the auxiliary sensing unit 220 may include various sensors for situational awareness. For example, the auxiliary sensing unit 220 may be an acoustic sensor such as a microphone, a thermal sensor, and a vibration sensor.

그리고, 이벤트판단부(230)는 이미지센싱부(210)에서 획득한 이미지정보를 분석하여 이벤트 발생 여부를 판단하고, 이를 감지한다. 예를 들어, 차량 대 차량, 차량 대 인간 또는 인간 대 인간의 접촉여부를 파악하고, 접촉상태이면 이벤트 발생으로 판단할 수 있다. 또한, 이벤트판단부(230)는 이미지정보와 함께 보조센싱부(220)의 센싱 정보를 이벤트 판단에 이용할 수 있다. 예를 들어, 보조센싱부(220)가 음향 센서일 경우, 충돌시 발생하는 소리유무로 이벤트 발생을 판단할 수 있으며, 보조센싱부(220)가 열감지 센서일 경우, 열감지 유무로 이벤트 발생을 판단할 수 있으며, 혹은 보조센싱부(220)가 진동 센서일 경우, 진동 감지 및 진동 크기로 이벤트 발생을 판단할 수 있다.
The event determination unit 230 analyzes the image information acquired by the image sensing unit 210 to determine whether an event occurs and detects it. For example, it is possible to determine whether a vehicle-to-vehicle, a vehicle-to-human or a human-to-human contact is detected, and determine that an event occurs when the contact state is in contact. In addition, the event determining unit 230 may use the sensing information of the auxiliary sensing unit 220 together with the image information for event determination. For example, when the auxiliary sensing unit 220 is an acoustic sensor, it is possible to determine the occurrence of an event with or without a sound generated when a collision occurs, and when the auxiliary sensing unit 220 is a heat sensing sensor, an event is generated with or without heat detection. Or, if the auxiliary sensing unit 220 is a vibration sensor, it may determine the occurrence of the event by the vibration detection and the magnitude of the vibration.

그리고, 감시대상정보 추출부(240)는 이미지센싱부(210)에서 획득한 이미지정보로부터 차종, 번호판, 진행 속도 및 진행 방향에 대한 정보를 추출할 수 있다. 이를 위해, 감시대상정보 추출부(240)는 문자 인식, 진행 속도 및 진행 방향 추출이 가능하도록 구성된다. 또한, 감시대상정보 추출부(240)는 마스터센서(300)로부터 수신된 카메라 핸드오버 지시 메시지에서 감시 대상의 진행 속도 및 진행 방향에 대한 정보를 추출한다.
In addition, the monitoring target information extractor 240 may extract information on a vehicle model, a license plate, a traveling speed, and a traveling direction from the image information acquired by the image sensing unit 210. To this end, the monitoring object information extracting unit 240 is configured to be able to extract the character recognition, speed and progress direction. In addition, the monitoring target information extraction unit 240 extracts information on the moving speed and the moving direction of the monitoring target from the camera handover instruction message received from the master sensor 300.

그리고, 메시지송수신부(250)는 이벤트판단부(230)의 판단 결과, 이벤트 발생이 감지되면, 이벤트 발생 메시지를 생성하여 이를 마스터센서(300)로 전송한다. 또한, 메시지송수신부(250)는 감시대상정보 추출부(240)에서 추출한 감시대상 정보를 마스터센서(300)로 전송한다. 한편, 메시지송수신부(250)는 마스터센서(300)로부터 카메라 핸드오버 지시 메시지를 수신한다.
When the event determination unit 230 detects an event occurrence, the message transmission / reception unit 250 generates an event occurrence message and transmits it to the master sensor 300. In addition, the message transmission and reception unit 250 transmits the monitoring target information extracted by the monitoring target information extraction unit 240 to the master sensor 300. Meanwhile, the message transmitter / receiver 250 receives a camera handover instruction message from the master sensor 300.

그리고, 카메라 핸드오버 실행부(260)는 마스터센서(300)로부터 카메라 핸드오버 지시 메시지가 메시지 송수신부(250)에 수신될 경우, 감시대상 정보 추출부(240)에서 추출한 감시 대상의 진행 속도 및 진행 방향 정보를 이용해 감시 대상의 진입할 방향을 계산하고, 이미지센싱부(210)를 상기 감시 대상의 진입 방향을 감시하도록 제어하여 카메라 핸드오버를 실행한다. 즉, 카메라 핸드오버 실행부(260)는 이미지센싱부(210)의 카메라 등의 감시 방향을 조절하여 감시 대상이 진입하는 방향을 미리 감시하도록 조정하는 것에 의해 핸드오버를 실행할 수 있다.
When the camera handover instruction message is received from the master sensor 300 by the message transmission / reception unit 250, the camera handover execution unit 260 performs a progress rate of the monitoring target extracted by the monitoring target information extraction unit 240 and The direction of entry of the monitoring target is calculated using the heading direction information, and the image sensing unit 210 is controlled to monitor the entry direction of the monitoring target to execute a camera handover. That is, the camera handover execution unit 260 may execute the handover by adjusting the monitoring direction of the image sensing unit 210 such as the camera to monitor in advance the direction in which the monitoring target enters.

한편, 마스터센서(300)는 메시지송수신부(310), 감시대상정보 추출부(320) 및 타켓센서 결정부(330)를 포함하여 이루어진다. 메시지송수신부(310)는 서빙센서로부터 이벤트 발생 메시지 및 감시 대상 정보를 수신하거나, 타켓센서로 카메라 핸드오버 지시 메시지를 송신한다. 그리고, 감시대상정보 추출부(320)는 수신한 감시 대상 정보로부터 감시 대상의 차종, 번호판, 진행 속도 및 진행 방향 정보를 추출한다. 그리고, 타켓센서 결정부(330)는 감시대상정보 추출부(320)에서 추출한 진행 속도 및 진행 방향 정보를 이용해 감시 대상의 이동 경로를 파악하고, 이를 통해 서빙센서와 카메라 핸드오버를 실행할 타켓센서를 결정한다.
On the other hand, the master sensor 300 includes a message transmission and reception unit 310, the monitoring target information extraction unit 320 and the target sensor determination unit 330. The message transmission / reception unit 310 receives an event occurrence message and monitoring target information from the serving sensor, or transmits a camera handover instruction message to the target sensor. Then, the monitoring target information extracting unit 320 extracts the vehicle model, license plate, traveling speed and traveling direction information of the monitoring target from the received monitoring target information. In addition, the target sensor determiner 330 determines the moving path of the monitoring target by using the moving speed and the moving direction information extracted by the monitoring target information extracting unit 320, and thus, the target sensor to execute the serving sensor and the camera handover. Decide

도 4는 본 발명의 일실시 형태에 따른 무인 감시 방법을 설명하기 위한 순서도이다. 여기서, 본 발명의 무인 감시 시스템은 마스터센서와 다수개의 센서를 포함하여 이루어진다.
4 is a flowchart illustrating an unattended monitoring method according to an embodiment of the present invention. Here, the unmanned surveillance system of the present invention comprises a master sensor and a plurality of sensors.

도 4를 참조하면, 본 발명에 따른 무인 감시 시스템에 있어서 무인 감시를 실행하는 방법은, 우선, 교통사고 등의 이벤트가 발생하면, 이를 해당 영역의 센서에서 이를 감지한다(S410). 이벤트를 최초 감지한 센서를 서빙센서라 한다. 서빙센서에서는 감시 대상을 계속 감시하며, 획득한 감시 대상의 진행 속도 및 진행 방향 정보를 마스터센서로 실시간 전송한다.
Referring to FIG. 4, in the unmanned surveillance system according to the present invention, first, when an event such as a traffic accident occurs, a sensor of a corresponding area detects it (S410). The first sensor that detects an event is called a serving sensor. The serving sensor continuously monitors the monitoring target and transmits the moving speed and direction information of the acquired monitoring target to the master sensor in real time.

그런 다음, 서빙센서에서 마스터센서로 이벤트 발생 메시지 및 이벤트 발생과 관련한 차량(감시 대상) 정보를 전송한다(S420). 이때, 감시 대상 정보는 차종, 번호판 정보, 진행 속도 및 진행 방향 등일 수 있다.
Then, the event sensor and the vehicle (monitoring target) information related to the event is transmitted from the serving sensor to the master sensor (S420). In this case, the monitoring target information may be a vehicle model, license plate information, traveling speed, traveling direction, and the like.

이어서, 이벤트 발생 메시지 및 감시 대상 정보를 수신한 마스터센서에서, 다수개의 센서들 중 서빙센서와 인접하고 있는 다수개의 후보 타켓센서를 검색한다. 그리고, 후보 타켓센서 중 감시 대상의 이동 경로에 위치하는 센서를 타켓센서로 결정한다(S430). 즉, 마스터센서는 서빙센서로부터 실시간 수신되는 감시 대상의 진행 속도 및 진행 방향 정보를 이용해 타켓센서를 결정하게 된다.
Subsequently, the master sensor receiving the event occurrence message and the monitoring target information searches for a plurality of candidate target sensors adjacent to the serving sensor among the plurality of sensors. Then, among the candidate target sensors, the sensor located in the movement path of the monitoring target is determined as the target sensor (S430). That is, the master sensor determines the target sensor using the moving speed and the moving direction information of the monitoring target received in real time from the serving sensor.

그런 다음, 마스터센서에서 결정된 타켓센서로 카메라 핸드오버 지시 메시지를 전송한다(S440). 이때, 마스터센서는 감시 대상이 서빙센서의 감시 범위를 벗어나기 이전에 타켓센서로 카메라 핸드오버 지시 메시지를 전송한다. 한편, 서빙센서에서 이벤트를 감지한 직후, 감시 대상이 바로 자신의 감시 범위를 벗어날 경우, 서빙센서는 감시 대상의 이동 경로 상에 위치하는 인접한 센서를 타켓센서로 결정하고, 카메라 핸드오버 지시 메시지를 직접 전송할 수 있다. 상기 카메라 핸드오버 지시 메시지에는 감시 대상의 진행 속도 및 진행 방향에 대한 정보가 적어도 포함될 수 있다.
Then, the camera handover instruction message is transmitted to the target sensor determined by the master sensor (S440). At this time, the master sensor transmits a camera handover instruction message to the target sensor before the monitoring target leaves the monitoring range of the serving sensor. On the other hand, immediately after the event is detected by the serving sensor, if the monitoring target is immediately out of its own monitoring range, the serving sensor determines the adjacent sensor located on the moving path of the monitoring target as the target sensor and sends a camera handover indication message. You can send it directly. The camera handover instruction message may include at least information about a progress speed and a progress direction of the monitoring target.

이어서, 타켓센서에서 카메라 핸드오버 지시 메시지를 수신하면, 카메라 핸드오버를 실행한다(S450). 즉, 타켓센서는 감시 대상의 진행 속도와 진행 방향에 대한 정보를 이용해 일정 시간 차량의 진입할 방향을 계산한다. 이에 의해 타켓센서는 미리 감시 대상이 진입할 경로를 예측할 수 있으며, 일정 시간 전부터 미리 감시 대상이 진입할 방향을 감시한다. 따라서, 감시 대상은 일정 시간 동안 서빙센서와 타켓센서에 의해 동시에 감시되는 카메라 핸드오버가 수행된다. 이후, 서빙센서는 감시 대상이 자신의 감시 범위를 벗어나게 되면, 다른 장소에 대한 감시를 수행한다.
Subsequently, when the target sensor receives the camera handover instruction message, the camera handover is executed (S450). That is, the target sensor calculates the direction of entry of the vehicle for a predetermined time by using the information about the speed and direction of the monitoring target. As a result, the target sensor can predict the path to be monitored in advance, and monitor the direction in which the monitoring object is to enter in advance. Accordingly, the camera object is monitored by the serving sensor and the target sensor simultaneously for a predetermined time. Afterwards, the serving sensor monitors another place when the monitoring target is out of its monitoring range.

도 5는 본 발명의 일실시 형태에 따른 무인 감시 시스템에 있어서 서빙 센서의 동작을 설명하기 위한 순서도이다.
5 is a flow chart for explaining the operation of the serving sensor in the unmanned monitoring system according to an embodiment of the present invention.

도 5를 참조하면, 서빙센서는 감지 범위에 대한 실시간 감시를 수행한다. 이때, 서빙센서는 감지 범위 내에서 교통사고 등의 이벤트가 발생하는지를 판단한다. 그리고, 이벤트가 발생할 경우, 이를 감지한다(S510).
Referring to FIG. 5, the serving sensor performs real time monitoring on a detection range. At this time, the serving sensor determines whether an event such as a traffic accident occurs within the detection range. Then, when an event occurs, it detects it (S510).

그런 다음, 이벤트 발생 메시지를 마스터센서로 전송하여 이벤트 발생을 알리고, 동시에 감시 대상 정보를 마스터센서로 전송한다(S520). 상기 감시 대상 정보는 차종, 번호판, 진행 속도 및 진행 방향 등에 대한 정보일 수 있다.
Then, an event occurrence message is transmitted to the master sensor to notify the event occurrence, and at the same time transmits the monitoring target information to the master sensor (S520). The monitoring target information may be information about a vehicle model, a license plate, a traveling speed, and a moving direction.

그런 다음, 감시 대상에 대한 실시간 감시를 수행하고(S530), 이로부터 감시 대상의 진행 속도 및 진행 방향에 대한 정보를 획득하여 마스터센서로 전송한다(S540). 그리고, 감시 대상이 자신의 감지 범위를 벗어날 경우, 감시 대상에 대한 감시를 중단하고 기설정된 초기지점의 감시를 수행한다(S550).
Then, real-time monitoring is performed on the monitoring target (S530), and information about the moving speed and the moving direction of the monitoring target is obtained therefrom and transmitted to the master sensor (S540). When the monitoring target is out of the detection range of the monitoring target, the monitoring of the monitoring target is stopped and the preset initial point is monitored (S550).

도 6은 본 발명의 일실시 형태에 따른 무인 감시 시스템에 있어서, 마스터 센서의 동작을 설명하기 위한 순서도이다.
6 is a flow chart for explaining the operation of the master sensor in the unmanned monitoring system according to an embodiment of the present invention.

도 6을 참조하면, 마스터센서는 서빙센서로부터 이벤트 발생 메시지 및 적어도 진행 속도 및 진행 방향 정보를 포함하는 감시 대상 정보를 수신하면(S610), 다수개의 센서들 중 서빙센서와 인접하여 위치하는 센서들로 다수개의 후보 타켓센서를 검색한다(S620).
Referring to FIG. 6, when the master sensor receives an event occurrence message and at least one monitoring target information including at least a moving speed and a moving direction information from a serving sensor (S610), sensors located adjacent to the serving sensor among a plurality of sensors are provided. A plurality of candidate target sensors are searched for (S620).

그런 다음, 마스터센서는 서빙센서로부터 실시간 전송되는 감시 대상 정보를 수신하고(S630), 상기 감시 대상 정보로부터 차량의 진행 속도 및 진행 방향 정보를 추출하여 감시 대상의 이동 경로를 파악한다(S640). 이어서, 검색된 다수개의 후보 타켓센서 중 감시 대상의 이동 경로 상에 위치하는 센서를 최종 타켓센서로 결정한다(S650). 즉, 마스터센서는 다수개의 후보 타켓센서를 검색하고, 서빙센서로부터 감시 대상 정보를 지속적으로 수신하여 이동 경로를 파악함으로써 점차 후보 타켓센서의 개수를 줄일 수 있고, 최종적으로 하나의 타켓센서를 결정할 수 있다.
Then, the master sensor receives the monitoring target information transmitted in real time from the serving sensor (S630), and extracts the traveling speed and the traveling direction information of the vehicle from the monitoring target information to determine the movement path of the monitoring target (S640). Subsequently, the sensor located on the movement path of the monitoring target among the plurality of searched candidate target sensors is determined as the final target sensor (S650). That is, the master sensor searches a plurality of candidate target sensors, continuously receives monitoring target information from the serving sensor, and grasps a moving path, thereby gradually reducing the number of candidate target sensors, and finally determining one target sensor. have.

그런 다음, 결정된 타켓센서로 카메라 핸드오버 지시 메시지를 전송한다(S660). 이때, 마스터센서는 감시 대상의 진행 속도 및 진행 방향 정보를 타켓센서로 함께 전송한다.
Then, the camera handover instruction message is transmitted to the determined target sensor (S660). At this time, the master sensor transmits the moving speed and the moving direction information of the monitoring target together with the target sensor.

그러면, 타켓센서는 감시 대상의 진행 속도와 진행 방향에 대한 정보를 이용해 감시 대상이 진입할 방향을 계산하여 미리 예측하고, 일정 시간 전부터 미리 감시 대상이 진입할 방향을 감시한다. 따라서, 감시 대상은 일정 시간 동안 서빙센서와 타켓센서에 의해 동시에 감시되는 카메라 핸드오버가 수행되며, 감시 대상에 대한 지속적인 실시간 감시가 이루어질 수 있다.
Then, the target sensor calculates the direction in which the monitoring target will enter using the information about the speed and the direction of the monitoring target in advance, and monitors the direction in which the monitoring target will enter in advance. Therefore, the camera object is monitored by the serving sensor and the target sensor simultaneously for a certain time is performed, the continuous real-time monitoring of the monitoring object can be made.

이제까지 본 발명에 대하여 그 바람직한 실시예들을 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예들을 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 한다.
So far I looked at the center of the preferred embodiment for the present invention. It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown not in the above description but in the claims, and all differences within the scope should be construed as being included in the present invention.

110, 300: 마스터센서 120-1~120-3, 200: 센서
210: 이미지센싱부 220: 보조센싱부
230: 이벤트판단부 240, 320: 감시대상정보 추출부
250, 310: 메시지 송수신부 260: 카메라 핸드오버 실행부
330: 타켓센서 결정부
110, 300: master sensor 120-1 ~ 120-3, 200: sensor
210: image sensing unit 220: auxiliary sensing unit
230: event determination unit 240, 320: monitoring target information extraction unit
250, 310: message transceiver 260: camera handover execution unit
330: target sensor determination unit

Claims (30)

다수개의 센서와 마스터센서를 포함하는 무인 감시 시스템에서 감시 대상을 실시간 감시하는 방법에 있어서,
상기 다수개의 센서 중 제1센서에서 이벤트의 발생을 감지하는 단계;
상기 제1센서에서 이벤트 발생 메시지 및 상기 이벤트와 관련한 감시 대상에 대한 정보를 상기 마스터센서로 송신하는 단계;
상기 마스터센서에서 상기 감시 대상에 대한 정보를 이용해 타켓센서를 선택하는 단계;
상기 마스터센서에서 상기 타켓센서로 카메라 핸드오버 지시 메시지를 송신하는 단계; 및
상기 타켓센서에서 상기 제1센서와 동시에 상기 감시 대상을 감시하는 카메라 핸드오버를 실행하는 단계;를 포함하는 감시 대상의 실시간 감시가 가능한 카메라 핸드오버 실행 방법.
In an unmanned surveillance system including a plurality of sensors and a master sensor in a real-time monitoring method of the monitoring target,
Detecting the occurrence of an event in a first sensor of the plurality of sensors;
Transmitting, by the first sensor, an event occurrence message and information on a monitoring target related to the event to the master sensor;
Selecting a target sensor using the information on the monitoring target in the master sensor;
Transmitting a camera handover instruction message from the master sensor to the target sensor; And
And executing a camera handover in which the target sensor simultaneously monitors the monitoring target at the same time as the first sensor.
제1항에 있어서,
상기 감시 대상에 대한 정보는 적어도 진행 속도 및 진행 방향 정보를 포함하는 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 카메라 핸드오버 실행 방법.
The method of claim 1,
And the information on the monitoring target includes at least a moving speed and a moving direction information.
제2항에 있어서, 상기 타켓센서를 선택하는 단계는,
상기 제1센서와 인접한 다수개의 센서들을 후보 타켓 센서로 검색하는 단계;
상기 감시 대상에 대한 정보로부터 진행 속도 및 진행 방향에 대한 정보를 추출하여 감시 대상의 이동 경로를 파악하는 단계; 및
상기 감시 대상의 이동 경로에 해당하는 센서를 타켓센서로 선택하는 단계;를 포함하는 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 카메라 핸드오버 실행 방법.
The method of claim 2, wherein the selecting of the target sensor comprises:
Searching for a plurality of sensors adjacent to the first sensor as candidate target sensors;
Determining a moving path of the monitoring target by extracting information on a traveling speed and a moving direction from the information on the monitoring target; And
And selecting a sensor corresponding to the movement path of the monitoring target as a target sensor.
제1항에 있어서, 상기 타켓센서의 카메라 핸드오버 실행 단계는,
상기 카메라 핸드오버 지시 메시지에서 상기 감시 대상의 진행 속도 및 진행 방향 정보를 추출하는 단계;
상기 진행 속도 및 진행 방향 정보를 이용해 상기 감시 대상의 진입 방향을 계산하는 단계;
상기 감시 대상의 진입 방향을 일정 시간 전부터 감시하는 단계; 및
상기 제1센서와 동시에 상기 감시 대상을 감시하는 단계;를 포함하는 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 카메라 핸드오버 실행 방법.
The method of claim 1, wherein the performing of the camera handover of the target sensor comprises:
Extracting progress speed and progress direction information of the monitoring target from the camera handover instruction message;
Calculating an entrance direction of the monitoring target by using the progress speed and the progress direction information;
Monitoring the direction of entry of the monitoring target from a certain time ago; And
And monitoring the monitoring target at the same time as the first sensor.
제1항에 있어서,
상기 다수개의 센서는 카메라, 음향 센서, 열감지 센서 및 진동 센서 중 적어도 하나인 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 카메라 핸드오버 실행 방법.
The method of claim 1,
And a plurality of sensors are at least one of a camera, an acoustic sensor, a thermal sensor, and a vibration sensor.
제1항에 있어서,
상기 이벤트는 차량 대 차량, 차량 대 인간 및 인간 대 인간의 충돌 사고인 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 카메라 핸드오버 실행 방법.
The method of claim 1,
And the event is a vehicle-to-vehicle, vehicle-to-human, and human-to-human collision accident.
삭제delete 삭제delete 삭제delete 삭제delete 다수개의 센서와 마스터센서를 포함하는 무인 감시 시스템에서 상기 마스터센서가 카메라 핸드오버를 실행하는 방법에 있어서,
상기 다수개의 센서 중 제1센서로부터 이벤트 발생 메시지 및 감시 대상 정보를 수신하는 단계;
상기 제1센서와 인접하고 있는 다수개의 센서들을 후보 타켓센서로 검색하는 단계;
상기 제1센서로부터 감시 대상 정보를 실시간으로 수신하는 단계;
상기 감시 대상 정보를 이용해 타켓센서를 결정하는 단계; 및
상기 타켓센서가 상기 제1센서와 동시에 상기 감시 대상을 감시하는 카메라 핸드오버를 수행하도록, 상기 타켓센서로 카메라 핸드오버 지시 메시지를 송신하는 단계;를 포함하는 마스터센서의 카메라 핸드오버 실행 방법.
In an unmanned surveillance system including a plurality of sensors and a master sensor in the master sensor performs a camera handover,
Receiving an event occurrence message and monitoring target information from a first sensor of the plurality of sensors;
Searching for a plurality of sensors adjacent to the first sensor as candidate target sensors;
Receiving monitoring target information from the first sensor in real time;
Determining a target sensor using the monitoring target information; And
And sending a camera handover instruction message to the target sensor such that the target sensor performs a camera handover monitoring the target to be monitored at the same time as the first sensor.
제11항에 있어서,
상기 감시 대상 정보는 적어도 진행 속도 및 진행 방향 정보를 포함하는 것을 특징으로 하는 마스터센서의 카메라 핸드오버 실행 방법.
The method of claim 11,
And the monitoring target information includes at least a moving speed and a moving direction information.
제12항에 있어서, 상기 타켓센서를 결정하는 단계는,
상기 감시 대상 정보로부터 진행 속도 및 진행 방향 정보를 추출하여 상기 감시 대상의 이동 경로를 파악하는 단계; 및
상기 감시 대상의 이동 경로에 해당하는 후보 타켓센서를 최종 타켓센서로 결정하는 단계;를 포함하는 것을 특징으로 하는 마스터센서의 카메라 핸드오버 실행 방법.
The method of claim 12, wherein the determining of the target sensor comprises:
Extracting the moving speed and the moving direction information from the monitoring target information to identify a moving path of the monitoring target; And
And determining a candidate target sensor corresponding to the movement target of the monitoring target as a final target sensor.
제11항에 있어서,
상기 다수개의 센서는 카메라, 음향 센서, 열감지 센서 및 진동 센서 중 적어도 하나인 것을 특징으로 하는 마스터센서의 카메라 핸드오버 실행 방법.
The method of claim 11,
And the plurality of sensors are at least one of a camera, an acoustic sensor, a thermal sensor and a vibration sensor.
제11항에 있어서,
상기 이벤트는 차량 대 차량, 차량 대 인간 및 인간 대 인간의 충돌 사고인 것을 특징으로 하는 마스터센서의 카메라 핸드오버 실행 방법.
The method of claim 11,
The event is a camera-to-vehicle, vehicle-to-human and human-to-human collision accidents camera handover execution method.
다수개의 센서와 마스터센서를 포함하는 무인 감시 시스템에서 감시 대상을 실시간 감시하는 방법에 있어서,
상기 다수개의 센서 중 제1센서에서 실시간 감시를 수행하는 단계;
상기 제1센서에서 이벤트 발생을 감지하는 단계;
상기 제1센서에서 이벤트 발생 메시지 및 상기 이벤트와 관련한 감시 대상에 대한 정보를 상기 마스터센서로 송신하는 단계;
상기 마스터센서에서 상기 감시 대상에 대한 정보를 이용해 타켓센서를 선택하는 단계;
상기 마스터센서에서 상기 타켓센서로 카메라 핸드오버 지시 메시지를 송신하는 단계;
상기 타켓센서에서 상기 제1센서와 동시에 상기 감시 대상을 감시하는 카메라 핸드오버를 실행하는 단계; 및
상기 제1센서에서 상기 감시 대상의 감시를 종료하는 단계;를 포함하는 감시 대상의 실시간 감시가 가능한 무인 감시 방법.
In an unmanned surveillance system including a plurality of sensors and a master sensor in a real-time monitoring method of the monitoring target,
Performing real-time monitoring on a first sensor of the plurality of sensors;
Detecting an occurrence of an event in the first sensor;
Transmitting, by the first sensor, an event occurrence message and information on a monitoring target related to the event to the master sensor;
Selecting a target sensor using the information on the monitoring target in the master sensor;
Transmitting a camera handover instruction message from the master sensor to the target sensor;
Executing a camera handover in which the target sensor simultaneously monitors the monitoring target with the first sensor; And
And ending the monitoring of the monitoring target by the first sensor. 8.
제16항에 있어서,
상기 감시 대상에 대한 정보는 적어도 진행 속도 및 진행 방향 정보를 포함하는 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 방법.
The method of claim 16,
And the information on the monitoring target includes at least a traveling speed and a traveling direction information.
제17항에 있어서, 상기 타켓센서를 선택하는 단계는,
상기 제1센서와 인접한 다수개의 센서들을 후보 타켓 센서로 검색하는 단계;
상기 감시 대상에 대한 정보로부터 진행 속도 및 진행 방향에 대한 정보를 추출하여 감시 대상의 이동 경로를 파악하는 단계; 및
상기 감시 대상의 이동 경로에 해당하는 센서를 타켓센서로 선택하는 단계;를 포함하는 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 방법.
The method of claim 17, wherein the selecting of the target sensor comprises:
Searching for a plurality of sensors adjacent to the first sensor as candidate target sensors;
Determining a moving path of the monitoring target by extracting information on a traveling speed and a moving direction from the information on the monitoring target; And
And selecting a sensor corresponding to the movement path of the monitoring target as a target sensor.
제16항에 있어서, 상기 타켓센서의 카메라 핸드오버 실행 단계는,
상기 카메라 핸드오버 지시 메시지에서 상기 감시 대상의 진행 속도 및 진행 방향 정보를 추출하는 단계;
상기 진행 속도 및 진행 방향 정보를 이용해 상기 감시 대상의 진입 방향을 계산하는 단계;
상기 감시 대상의 진입 방향을 일정 시간 전부터 감시하는 단계; 및
상기 제1센서와 동시에 상기 감시 대상을 감시하는 단계;를 포함하는 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 방법.
The method of claim 16, wherein the camera handover execution step of the target sensor,
Extracting progress speed and progress direction information of the monitoring target from the camera handover instruction message;
Calculating an entrance direction of the monitoring target by using the progress speed and the progress direction information;
Monitoring the direction of entry of the monitoring target from a certain time ago; And
And monitoring the monitoring target at the same time as the first sensor.
제16항에 있어서,
상기 다수개의 센서는 카메라, 음향 센서, 열감지 센서 및 진동 센서 중 적어도 하나인 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 방법.
The method of claim 16,
And the plurality of sensors are at least one of a camera, an acoustic sensor, a heat sensor, and a vibration sensor.
제16항에 있어서,
상기 이벤트는 차량 대 차량, 차량 대 인간 및 인간 대 인간의 충돌 사고인 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 방법.
The method of claim 16,
And said event is a vehicle-to-vehicle, vehicle-to-human, and human-to-human collision accident.
제16항에 있어서,
상기 제1센서에서 상기 감시 대상의 감시를 종료하는 단계는 상기 감시 대상이 자신의 감지 범위를 벗어날 경우, 상기 감시 대상의 감시를 종료하고, 기설정된 초기지점의 감시를 수행하는 단계인 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 방법.
The method of claim 16,
The step of ending the monitoring of the monitoring target in the first sensor is the step of terminating the monitoring of the monitoring target, if the monitoring target is out of its detection range, and performing the monitoring of a predetermined initial point Unattended monitoring method capable of real-time monitoring of the monitoring target.
제1항 내지 제6항, 제11항 내지 제22항 중 어느 한 항에 기재된 방법을 실행시키기 위한 프로그램을 기록한 컴퓨터로 읽을 수 있는 기록매체.A computer-readable recording medium having recorded thereon a program for executing the method according to any one of claims 1 to 6 and 11 to 22. 각각은 일정 영역을 감지 범위로 가지며, 상기 감지 범위에서 발생하는 이벤트를 감지하여 이벤트 발생 메시지 및 이벤트와 관련된 감시 대상 정보를 송신하고, 서로 인접한 센서간 감지 범위가 중첩되도록 배치된 다수개의 센서; 및
상기 다수개의 센서 중 하나의 센서로부터 이벤트 발생 메시지 및 이벤트와 관련된 감시 대상 정보를 수신하고, 상기 다수개의 센서 중 타켓센서를 결정하며 상기 하나의 센서와 동시에 상기 감시 대상을 감시하는 카메라 핸드오버를 상기 타켓센서에 지시하는 마스터센서;를 포함하는 감시 대상의 실시간 감시가 가능한 무인 감시 시스템.
A plurality of sensors each having a predetermined area as a detection range, detecting an event occurring in the detection range to transmit an event occurrence message and monitoring target information related to the event, and overlapping detection ranges between adjacent sensors; And
Receiving an event occurrence message and monitoring target information related to the event from one of the plurality of sensors, determine a target sensor of the plurality of sensors and the camera handover to monitor the monitoring target simultaneously with the one sensor And a master sensor instructing the target sensor.
제24항에 있어서,
상기 감시 대상 정보는 적어도 진행 속도 및 진행 방향 정보를 포함하는 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 시스템.
25. The method of claim 24,
And said monitoring target information includes at least a traveling speed and a traveling direction information.
제25항에 있어서,
상기 마스터센서는, 상기 하나의 센서와 인접한 다수개의 센서들을 후보 타켓 센서로 검색하고, 상기 감시 대상 정보로부터 진행 속도 및 진행 방향 정보를 추출하여 감시 대상의 이동 경로를 파악한 후, 상기 감시 대상의 이동 경로에 해당하는 후보 타켓센서 중에서 타켓센서를 결정하는 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 시스템.
The method of claim 25,
The master sensor searches a plurality of sensors adjacent to the one sensor with candidate target sensors, extracts the moving speed and the moving direction information from the monitoring target information to determine a moving path of the monitoring target, and then moves the monitoring target. An unmanned surveillance system capable of real-time monitoring of a monitoring target, wherein the target sensor is determined among candidate target sensors corresponding to a path.
제24항에 있어서,
상기 마스터센서는 상기 타켓센서로 카메라 핸드오버 지시 메시지를 송신하는 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 시스템.
25. The method of claim 24,
And the master sensor transmits a camera handover instruction message to the target sensor.
제24항에 있어서,
상기 타켓센서는, 상기 카메라 핸드오버 지시 메시지에서 상기 감시 대상의 진행 속도 및 진행 방향 정보를 추출하고, 상기 진행 속도 및 진행 방향 정보를 이용해 상기 감시 대상의 진입 방향을 계산한 후, 상기 감시 대상의 진입 방향을 일정 시간 전부터 감시하는 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 시스템.
25. The method of claim 24,
The target sensor extracts the moving speed and the moving direction information of the monitoring target from the camera handover instruction message, calculates the entrance direction of the monitoring target using the moving speed and the moving direction information, and then Unattended monitoring system capable of real-time monitoring of the monitoring target, characterized in that monitoring the direction of entry from a certain time ago.
제24항에 있어서,
상기 다수개의 센서는 카메라, 음향 센서, 열감지 센서 및 진동 센서 중 적어도 하나인 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 시스템.
25. The method of claim 24,
And the plurality of sensors are at least one of a camera, an acoustic sensor, a thermal sensor, and a vibration sensor.
제24항에 있어서,
상기 이벤트는 차량 대 차량, 차량 대 인간 및 인간 대 인간의 충돌 사고인 것을 특징으로 하는 감시 대상의 실시간 감시가 가능한 무인 감시 시스템.
25. The method of claim 24,
And the event is a vehicle-to-vehicle, vehicle-to-human, and human-to-human collision accident.
KR1020100031191A 2010-04-06 2010-04-06 Unmanned Monitoring Mathod and System KR101125275B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020100031191A KR101125275B1 (en) 2010-04-06 2010-04-06 Unmanned Monitoring Mathod and System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020100031191A KR101125275B1 (en) 2010-04-06 2010-04-06 Unmanned Monitoring Mathod and System

Publications (2)

Publication Number Publication Date
KR20110111883A KR20110111883A (en) 2011-10-12
KR101125275B1 true KR101125275B1 (en) 2012-03-21

Family

ID=45027816

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020100031191A KR101125275B1 (en) 2010-04-06 2010-04-06 Unmanned Monitoring Mathod and System

Country Status (1)

Country Link
KR (1) KR101125275B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102586962B1 (en) 2016-04-07 2023-10-10 한화비전 주식회사 Surveillance system and controlling method thereof
KR102671093B1 (en) * 2018-12-14 2024-05-30 한화비전 주식회사 Surveillance camera system and the control method thereof
CN109799750A (en) * 2019-01-10 2019-05-24 深圳英飞拓智能技术有限公司 A kind of environment sensing monitoring device, method and terminal device
KR102581513B1 (en) * 2020-11-30 2023-09-25 라이트비전 주식회사 Handover system for tracking moving object and method of operating the same

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285374A (en) * 1999-03-31 2000-10-13 Toshiba Corp Abnormal state grasping device for traveling object

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285374A (en) * 1999-03-31 2000-10-13 Toshiba Corp Abnormal state grasping device for traveling object

Also Published As

Publication number Publication date
KR20110111883A (en) 2011-10-12

Similar Documents

Publication Publication Date Title
US11657718B2 (en) Method for controlling vehicle platoon, device, and internet of vehicles system
KR101676940B1 (en) Providing traffic safety Information system Based On Cloud Platform and Method for Providing traffic safety Information Using the same
CN109878516A (en) The monitoring and adjustment in the gap between vehicle
JP6385851B2 (en) Road monitoring device, road monitoring system, method and program
KR101125275B1 (en) Unmanned Monitoring Mathod and System
KR101735684B1 (en) Vehicle video recording and servicing apparatus and method, apparatus and method acquiring local area information using the same
KR20140011245A (en) Method of managing track information using unique identification for vessel traffic system and apparatus for the same
JP2017117005A (en) Accident notification system, notification system, on-vehicle notification device and accident notification method
JP7128723B2 (en) Image management device, road surface information management system, vehicle, program, and image management method
US7460949B2 (en) Method and system for detecting the presence of a disruptive object and activation module for this system
KR101012851B1 (en) Positon detecting system using UWB radar sensor
WO2019244425A1 (en) Obstacle detection system and obstacle detection method
US20210409650A1 (en) Communication apparatus, communication control method, and non-transitory computer readable medium
KR101342613B1 (en) Enforcement system for illegal car of safe distance
KR20150069461A (en) system for managing traffic based on zone classified architecture
KR20110096221A (en) System and method for controlling traffic signal
KR20110108861A (en) Bus control method and bus terminal device
KR101266015B1 (en) Monitoring System for Safety Line and railroad track of platform
KR101238788B1 (en) Elevator crime prvent system and method of controlling the same
KR20140056674A (en) Commnication service system, method and apparatus for supporting process of accident in the system
EP3936408B1 (en) Train monitoring system
KR20170133592A (en) Fall protection system on Platform
JP5652390B2 (en) Collision prediction system, collision prediction apparatus, collision detection method and program
TWI426470B (en) Corner collision warning device
KR20200052730A (en) Apparatus and method for illegal parking control

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20150226

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20160225

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200302

Year of fee payment: 9