KR20150031985A - 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법 - Google Patents

모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법 Download PDF

Info

Publication number
KR20150031985A
KR20150031985A KR20130111919A KR20130111919A KR20150031985A KR 20150031985 A KR20150031985 A KR 20150031985A KR 20130111919 A KR20130111919 A KR 20130111919A KR 20130111919 A KR20130111919 A KR 20130111919A KR 20150031985 A KR20150031985 A KR 20150031985A
Authority
KR
South Korea
Prior art keywords
image data
data
monitoring means
feature data
surveillance
Prior art date
Application number
KR20130111919A
Other languages
English (en)
Inventor
김무섭
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR20130111919A priority Critical patent/KR20150031985A/ko
Priority to US14/273,752 priority patent/US20150078618A1/en
Publication of KR20150031985A publication Critical patent/KR20150031985A/ko

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19665Details related to the storage of video surveillance data
    • G08B13/19671Addition of non-video data, i.e. metadata, to video stream
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

본 발명에 의한 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법이 개시된다. 본 발명에 따른 위험 상황을 추적하기 위한 시스템은 기 설정된 감시 영역에 구비되어, 상기 감시 영역 내에서 위험 상황을 유발하는 대상에 관련된 영상 데이터를 획득하여 획득된 상기 영상 데이터를 제공하는 제1 감시 수단; 및 상기 제1 감시 수단으로부터 획득한 영상 데이터를 제공 받아 제공 받은 상기 영상 데이터를 기반으로 위험 상황이 발생되었다고 판단되면, 상기 영상 데이터로부터 특징 데이터를 추출하여 추출된 상기 특징 데이터를 포함하는 메타 데이터를 주변의 감시 영역에 위치하는 적어도 하나의 제2 감시 수단에 전송하는 관제 센터를 포함한다.

Description

모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법{SYSTEM FOR TRACKING DANGEROUS SITUATION IN COOPERATION WITH MOBILE DEVICE AND METHOD THEREOF}
본 발명은 위험 상황 추적 방안에 관한 것으로, 특히, 감시 카메라 또는 모바일 기기에서 전송된 영상 데이터를 기반으로 유해 또는 위험 상황을 판단하여 그 판단한 결과로 유해 또는 위험 상황을 해당 영역의 주변에 위치하는 감시 카메라와 모바일 기기에 통지하여 통지 받은 감시 카메라와 모바일 기기 간 협력을 통해 유해 또는 위험 상황을 탐지하도록 하는 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법에 관한 것이다.
최근의 유해/위험 탐지 기술은 네트워크 기술의 발전으로 다수의 감시 카메라가 획득한 영상 데이터를 통합 관제센터로 전송을 하고, 관제센터의 관제사들은 다수의 감시카메라에서 실시간으로 전송되는 영상 데이터를 육안으로 확인하여 유해/위험 상황을 판단하고 그에 상응하는 대응 조치를 취하는 방법을 사용하고 있다.
그러나 관제사들이 다수의 영상 데이터를 육안으로 주시하면서 유해/위험 상황을 판단하기에는 네트워크의 발전으로 판독해야 하는 영상 데이터가 급속하게 증가하고 있으며, 일정 시간이 경과하는 경우 관제사의 피로도가 증가하기 때문에 다수의 영상 데이터에서 실시간으로 유해/위험 상황을 판단하기에는 어려움이 있다.
이러한 문제를 해결하기 위해 지능형 영상분석 기술을 도입하여, 다수의 감시 카메라에서 전송되는 영상 데이터를 자동으로 분석하여 유해/위험 상황이 발생하면 자동으로 관제사에게 통지하여 주고, 관제사들은 알람이 발생하는 감시 카메라의 영상 데이터들을 집중적으로 분석하여 보다 효율적으로 유해/위험 상황에 대응하도록 기술로 변화하고 있다.
그러나 영상 데이터를 수집하는 장치인 감시 카메라의 경우 고가의 장비로 모든 영역에 걸쳐 설치를 할 수 없으며, 관제센터 또는 감시 카메라에 적용되는 지능형 영상분석 기술의 경우에도 유해/위험 상황에 대한 오탐지 및 과탐지율이 높으므로 실제로 관제사들이 상황을 판단하는데 효율적으로 활용되기에도 어려움이 있다.
따라서 이러한 종래 기술의 문제점을 해결하기 위한 것으로, 본 발명의 목적은 감시 카메라 또는 모바일 기기에서 전송된 영상 데이터를 기반으로 유해 또는 위험 상황을 판단하여 그 판단한 결과로 유해 또는 위험 상황을 해당 영역의 주변에 위치하는 감시 카메라와 모바일 기기에 통지하여 통지 받은 감시 카메라와 모바일 기기 간 협력을 통해 유해 또는 위험 상황을 탐지하도록 하는 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법을 제공하는데 있다.
그러나 본 발명의 목적은 상기에 언급된 사항으로 제한되지 않으며, 언급되지 않은 또 다른 목적들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.
상기 목적들을 달성하기 위하여, 본 발명의 한 관점에 따른 위험 상황을 추적하기 위한 시스템은 기 설정된 감시 영역에 구비되어, 상기 감시 영역 내에서 위험 상황을 유발하는 대상에 관련된 영상 데이터를 획득하여 획득된 상기 영상 데이터를 제공하는 제1 감시 수단; 및 상기 제1 감시 수단으로부터 획득한 영상 데이터를 제공 받아 제공 받은 상기 영상 데이터를 기반으로 위험 상황이 발생되었다고 판단되면, 상기 영상 데이터로부터 특징 데이터를 추출하여 추출된 상기 특징 데이터를 포함하는 메타 데이터를 주변의 감시 영역에 위치하는 적어도 하나의 제2 감시 수단에 전송하는 관제 센터를 포함할 수 있다.
바람직하게, 상기 제1 감시 수단과 상기 제2 감시 수단은 영상 데이터를 획득할 수 있는 감시 카메라, 모바일 기기를 포함하는 것을 특징으로 한다.
바람직하게, 상기 제1 감시 수단은 상기 감시 영역 내에서 영상 데이터를 획득하면, 획득한 상기 영상 데이터와 위치 정보를 상기 관제 센터에 제공하는 것을 특징으로 한다.
바람직하게, 상기 위치 정보는 GPS(Global Positioning System) 위치 정보, 감시 영역을 식별하기 위한 식별자를 포함하는 것을 특징으로 한다.
바람직하게, 상기 관제 센터는 상기 위험 상황이 발생되었다고 판단되면, 상기 제1 감시 수단의 위치 정보를 기반으로 감시하고자 하는 대상이 이동 가능한 주변의 감시 영역을 계산하고, 추출된 상기 영상 데이터로부터 특징 데이터를 추출하며, 추출된 상기 특징 데이터를 포함하는 메타 데이터를 주변의 감시 영역에 위치하는 제2 감시 수단에 전송하는 것을 특징으로 한다.
바람직하게, 상기 제2 감시 수단은 상기 관제 센터로부터 메타 데이터를 수신하면 수신된 상기 메타 데이터로부터 특징 데이터를 추출하고, 현재 시점에서 입력 받은 영상 데이터 내에 상기 추출된 특징 데이터가 존재하는 추적 대상인지를 판단하는 것을 특징으로 한다.
바람직하게, 상기 제2 감시 수단은 그 판단한 결과로 상기 영상 데이터 내에 특징 데이터가 존재하면 현재의 위치 정보와 상기 특징 데이터가 존재하는 영상 데이터를 포함하는 탐지결과 데이터를 생성하고, 생성된 상기 탐지결과 데이터를 상기 관제 센터에 전송하여 해당 감시 영역으로 대상이 이동하였음을 통지하는 것을 특징으로 한다.
바람직하게, 상기 탐지결과 데이터는 상기 특징 데이터의 존재 여부를 확인하기 위한 특징 데이터와의 일치여부 또는 유사도를 나타내는 수치를 포함하는 것을 특징으로 한다.
본 발명의 다른 한 관점에 따른 위험 상황을 추적하기 위한 방법은 제1 감시 수단이 기 설정된 감시 영역에 구비되어, 상기 감시 영역 내에서 위험 상황을 유발하는 대상에 관련된 영상 데이터를 획득하여 획득된 상기 영상 데이터를 제공하는 단계; 및 관제 센터가 상기 제1 감시 수단으로부터 획득한 영상 데이터를 제공 받아 제공 받은 상기 영상 데이터를 기반으로 위험 상황이 발생되었다고 판단되면, 상기 영상 데이터로부터 특징 데이터를 추출하여 추출된 상기 특징 데이터를 포함하는 메타 데이터를 주변의 감시 영역에 위치하는 적어도 하나의 제2 감시 수단에 전송하는 단계를 포함할 수 있다.
바람직하게, 상기 제1 감시 수단과 상기 제2 감시 수단은 영상 데이터를 획득할 수 있는 감시 카메라, 모바일 기기를 포함하는 것을 특징으로 한다.
바람직하게, 상기 제공하는 단계는 상기 감시 영역 내에서 영상 데이터를 획득하면, 획득한 상기 영상 데이터와 위치 정보를 상기 관제 센터에 제공하는 것을 특징으로 한다.
바람직하게, 상기 위치 정보는 GPS(Global Positioning System) 위치 정보, 감시 영역을 식별하기 위한 식별자를 포함하는 것을 특징으로 한다.
바람직하게, 상기 전송하는 단계는 상기 위험 상황이 발생되었다고 판단되면, 상기 제1 감시 수단의 위치 정보를 기반으로 감시하고자 하는 대상이 이동 가능한 주변의 감시 영역을 계산하고 추출된 상기 영상 데이터로부터 특징 데이터를 추출하며, 추출된 상기 특징 데이터를 포함하는 메타 데이터를 주변의 감시 영역에 위치하는 제2 감시 수단에 전송하는 것을 특징으로 한다.
바람직하게, 상기 제2 감시 수단이 상기 관제 센터로부터 메타 데이터를 수신하면 수신된 상기 메타 데이터로부터 특징 데이터를 추출하고, 현재 시점에서 입력 받은 영상 데이터 내에 상기 추출된 특징 데이터가 존재하는 추적 대상인지를 판단하는 것을 특징으로 한다.
바람직하게, 상기 제2 감시 수단이 그 판단한 결과로 상기 영상 데이터 내에 특징 데이터가 존재하면 현재의 위치 정보와 상기 특징 데이터가 존재하는 영상 데이터를 포함하는 탐지결과 데이터를 생성하고, 생성된 상기 탐지결과 데이터를 상기 관제 센터에 전송하여 해당 감시 영역으로 대상이 이동하였음을 통지하는 것을 특징으로 한다.
바람직하게, 상기 탐지결과 데이터는 상기 특징 데이터의 존재 여부를 확인하기 위한 특징 데이터와의 일치여부 또는 유사도를 나타내는 수치를 포함하는 것을 특징으로 한다.
이를 통해, 본 발명은 감시 카메라 또는 모바일 기기에서 전송된 영상 데이터를 기반으로 유해 또는 위험 상황을 판단하여 그 판단한 결과로 유해 또는 위험 상황을 해당 영역의 주변에 위치하는 감시 카메라와 모바일 기기에 통지하여 통지 받은 감시 카메라와 모바일 기기 간 협력을 통해 유해 또는 위험 상황을 탐지하도록 함으로써, 유해 또는 위험 상황에 대한 탐지 에러를 줄이면서 효율적으로 탐지할 수 있는 효과가 있다.
또한, 본 발명은 감시 카메라와 모바일 기기 간의 협력을 통해 유해 또는 위헙 상황을 탐지하기 때문에 실시간으로 객체를 추적 또는 대응할 수 있는 효과가 있다.
도 1은 본 발명의 일 실시예에 따른 위험 상황을 추적하기 위한 시스템을 나타내는 도면이다.
도 2a 내지 도 2c는 본 발명의 일 실시에에 따른 위험 상황을 탐지하는 원리를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시예에 따른 관제 센터의 상세한 구성을 나타내는 도면이다.
도 4는 본 발명의 일 실시예에 따른 모바일 기기와 감시 카메라의 상세한 구성을 나타내는 도면이다.
도 5는 본 발명의 일 실시예에 따른 위험 상황을 추적하기 위한 방법을 나타내는 도면이다.
이하에서는, 본 발명의 실시예에 따른 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법을 첨부한 도면을 참조하여 설명한다. 본 발명에 따른 동작 및 작용을 이해하는데 필요한 부분을 중심으로 상세히 설명한다.
또한, 본 발명의 구성 요소를 설명하는 데 있어서, 동일한 명칭의 구성 요소에 대하여 도면에 따라 다른 참조부호를 부여할 수도 있으며, 서로 다른 도면임에도 불구하고 동일한 참조부호를 부여할 수도 있다. 그러나, 이와 같은 경우라 하더라도 해당 구성 요소가 실시예에 따라 서로 다른 기능을 갖는다는 것을 의미하거나, 서로 다른 실시예에서 동일한 기능을 갖는다는 것을 의미하는 것은 아니며, 각각의 구성 요소의 기능은 해당 실시예에서의 각각의 구성요소에 대한 설명에 기초하여 판단하여야 할 것이다.
특히, 본 발명에서는 감시 카메라에서 획득한 영상 데이터 또는 모바일 기기에서 전송된 영상 데이터를 기반으로 유해 또는 위험 상황을 판단하여 그 판단한 결과로 유해 또는 위험 상황을 해당 영역의 주변에 위치하는 감시 카메라와 모바일 기기에 통지하여 통지 받은 감시 카메라와 모바일 기기 간 협력을 통해 유해 또는 위험 상황을 탐지하도록 하는 새로운 유해 또는 위험 상황 탐지 방안을 제공한다.
일반적으로 유해 또는 위함 상황을 감시하기 위하여 감시 카메라가 설치되어 사용되지만 한정된 수량의 감시 카메라로 모든 영역을 감시하기에는 어려움이 있고 감시 카메라의 특성상 카메라의 바로 아래 또는 골목길 등가 같이 감시하기 어려운 사각 지역이 존재하게 된다. 이러한 사각 지역에서 발생할 수 있는 유해 또는 위험 상황을 사용자가 이동하면서 사용 가능한 모바일 기기와의 협력을 통해 감시하고자 한다.
예컨대, 사각 지역에서 발생하는 유해 또는 위험 상황을 모바일 기기의 사용자가 목격하는 경우 관련 사진이나 영상을 촬영하여 바로 관제 센터에 전송한다.
도 1은 본 발명의 일 실시예에 따른 위험 상황을 추적하기 위한 시스템을 나타내는 도면이다.
도 1에 도시한 바와 같이, 본 발명에 따른 위험 상황을 탐지하기 위한 시스템은 모바일 기기(110a)와 감시 카메라(110b) 등의 감시 수단(100) 및 관제 센터(200) 등을 포함하여 구성될 수 있다.
모바일 기기(110a)는 영상 데이터를 획득하여 획득한 영상 데이터와 위치 정보를 유선 통신망 또는 무선 통신망을 통해 관제 센터(200)에 전송할 수 있다. 여기서, 모바일 기기(110a)는 사용자가 이동하면서 사용할 수 있는 전자 기기로서 예컨대, 스마트폰, 태블릿 PC, PDA(Personal Digital Assistants), 노트북 등을 포괄하는 개념일 수 있다.
이때, 위치 정보는 GPS(Global Positioning System) 위치 정보를 의미할 수 있다.
모바일 기기(110a)는 관제 센터(200)로부터 유해 또는 위함 상황을 판단하기 위한 메타 데이터를 수신하고, 수신된 메타 데이터로부터 특징 데이터를 추출하여 추출된 특징 데이터를 기반으로 카메라를 통해 획득하는 영상 데이터 내 특징 데이터가 존재하는 추적 대상인지를 판단하여 그 판단한 결과를 관제 센터(200)에 통지할 수 있다.
감시 카메라(110b)는 영상 데이터를 획득하여 획득한 영상 데이터와 위치 정보를 유선 통신망 또는 무선 통신망을 통해 관제 센터(200)에 전송할 수 있다.
이때, 위치 정보는 감시하는 영역을 식별하기 위한 식별자 등을 의미할 수 있다.
감시 카메라(110b)는 관제 센터(200)로부터 유해 또는 위함 상황을 판단하기 위한 메타 데이터를 수신하고, 수신된 메타 데이터로부터 특징 데이터를 추출하여 추출된 특징 데이터를 기반으로 카메라를 통해 획득하는 영상 데이터 내 특징 데이터가 존재하는 추적 대상인지를 판단하여 그 판단한 결과를 관제 센터(200)에 통지할 수 있다.
관제 센터(200)는 모바일 기기(110a)와 감시 카메라(110b)로부터 영상 데이터와 위치 정보를 포함하는 이벤트 데이터를 입력 받고 입력 받은 이벤트 데이터에 포함된 영상 데이터를 분석하여 유해 또는 위험 상황인지를 판단할 수 있다. 이때, 관제 센터(200)는 각종 지능형 영상인식 기술을 사용하는 프로그램 또는 관제사의 육안 등을 통해 유해 또는 위험 상황 여부를 판단하게 된다.
관제 센터(200)는 그 판단한 결과로 유해 또는 위험 상황이라고 판단되면, 입력 받은 이벤트 데이터 내 영상 데이터로부터 적어도 하나의 특징 데이터를 추출하여 추출된 적어도 하나의 특징 데이터를 포함하는 메타 데이터를 생성할 수 있다.
예컨대, 관제 센터(200)는 해당 이벤트 발생 즉, 유해 또는 위함 상황 발생에 대하여 위치 정보, 사진, 영상에서 추적에 필요한 메타 데이터를 생성할 수 있다.
이때, 메타 데이터는 특정 사람이나 사물 등의 추적 대상에 대한 색상 정보나 얼굴을 포함한 신체 특징, 또는 소지한 물건의 특징 등을 포괄하는 개념일 수 있다.
관제 센터(200)는 생성된 메타 데이터를 유해 또는 위험 상황이 발생되었다고 판단되는 영역의 주변 영역에 위치하는 모바일 기기(110a) 또는 감시 카메라(110b)에 전송할 수 있다. 이때, 관제 센터(200)는 이벤트 데이터 내에 포함된 위치 정보를 기반으로 유해 또는 위험 상황이 발생된 영역을 판단할 수 있다.
관제 센터(200)는 전송된 메타 데이터를 기반으로 유해 또는 위험 상황이 발생되었음을 주변의 모바일 기기(110a) 또는 감시 카메라(110b)로부터 통지 받을 수 있다.
이렇게 본 발명은 기존에 영상을 수집하여 분석하던 관제 센서에서 수행하던 유해 또는 위험 상황의 인지와 판단을 관제 센터뿐 아니라 감시 카메라와 다양한 형태의 모바일 기기가 가능하도록 하여 유해 또는 위험 상황의 인지 및 판단을 쉽게 할 수 있다. 즉, 유해 또는 위험 상황에 대응하기 위하여 관제 센터와 감시 카메라 뿐 아니라 모바일 플랫폼 기반의 모바일 기기까지 활용한 협업을 수행하도록 함으로써 기존의 감시 카메라에서 감시할 수 없는 영역까지도 대응이 가능할 뿐 아니라, 유해 또는 위험 상황에 대하여 실시간으로 추적과 대응이 가능하다.
도 2a 내지 도 2c는 본 발명의 일 실시에에 따른 위험 상황을 탐지하는 원리를 설명하기 위한 도면이다.
도 2a를 참조하면, 기 설정된 가상 영역 1 내에 위치하는 모바일 기기(110a)가 유해 또는 위험 상황이라고 판단되는 영상 데이터를 획득하면, 획득한 영상 데이터와 위치 정보를 포함하는 이벤트 데이터를 생성하고 생성된 이벤트 데이터를 관제 센터(200)에 전송하게 된다.
도 2b를 참조하면, 관제 센터(200)는 모바일 기기(110a)로부터 이벤트 데이터를 수신하면 수신된 이벤트 데이터로부터 영상 데이터와 위치 데이터를 추출하고 추출된 영상 데이터를 분석하여 유해 또는 위험 상황인지를 판단하게 된다.
관제 센터(200)는 그 판단한 결과로 유해 또는 위험 상황이라고 판단되면, 입력 받은 이벤트 데이터 내 영상 데이터로부터 적어도 하나의 특징 데이터를 추출하여 추출된 적어도 하나의 특징 데이터를 포함하는 메타 데이터를 생성하고 생성된 메타 데이터를 기 추출된 위치 정보 즉, 감시 영역 1을 기반으로 그 주변의 감시 영역 0, 감시 영역 2에 위치하는 모바일 기기 또는 감시 카메라에 전송하게 된다.
이러한 감시 영역은 감시 카메라가 설치되는 위치를 기반으로 기 설정될 수 있다.
도 2c를 참조하면, 가상 영역 0, 가상 영역 2에 위치하는 모바일 기기(110a) 또는 감시 카메라(110b)는 메타 데이터를 수신하면 그 수신된 메타 데이터에 포함된 특징 데이터를 기반으로 해당하는 영역에서 획득하는 영상 데이터 내 특징 데이터가 존재하는지의 여부를 판단하여 그 판단한 결과를 관제 센터(200)에 통지하게 된다.
예컨대, 추적 대상이 감시 영역 1에서 감시 영역 2, 3으로 이동하기 때문에 감시 영역 0에서는 탐지 결과가 거의 나타나지 않으며 감시 영역 2의 감시 카메라 또는 모바일 기기에서는 확률적으로 높은 유사성을 갖는 탐지 결과가 나타나게 된다.
추적 대상이 감시 영역 2로 이동을 하였기 때문에 감시 영역 2의 탐지 결과들이 가장 큰 유사도를 나타낸다. 따라서 관제 센터는 감시 영역 2에서 전송 받은 탐지 결과들을 이용하여 위치 정보와 메타 데이터를 다시 업데이트하여 새로운 위치 정보와 메타 데이터를 생성하고 이를 다시 감시 영역 2와 주변의 영역 즉, 감시 영역 3, 감시 영역 1로 전송하게 된다.
그리고 나서, 추적 대상이 감시 영역 2를 거쳐 감시 영역 3으로 이동하기 때문에 새로운 위치 정보와 메타 데이터를 받은 감시 영역 3의 감시 카메라 또는 모바일 기기에서 메타 데이터와 가장 유사한 탐지 결과를 관제 센터로 전송하게 된다.
도 3은 본 발명의 일 실시예에 따른 관제 센터의 상세한 구성을 나타내는 도면이다.
도 3에 도시한 바와 같이, 본 발명에 따른 관제 센터(200)는 데이터 추출부(211), 영상 분석부(212), 위치 계산부(213), 특징 추출부(214), 데이터 생성부(215), 데이터 전송부(216) 등을 포함하여 구성될 수 있다.
데이터 추출부(211)는 모바일 기기(100a) 또는 감시 카메라(100b)로부터 이벤트 데이터를 수신하면 수신된 이벤트 데이터로부터 영상 데이터와 위치 정보를 추출할 수 있다.
영상 분석부(212)는 추출된 영상 데이터를 분석하여 유해 또는 위험 상황인지를 판단할 수 있다.
위치 계산부(213)는 추출된 위치 정보 즉, 모바일 기기 또는 감시 카메라고 존재하는 감시 영역을 기반으로 감시하고자 하는 대상이 이동 가능한 주변의 감시 영역을 계산할 수 있다.
특징 추출부(214)는 추출된 영상 데이터로부터 특징 데이터를 추출할 수 있다.
데이터 생성부(215)는 추출된 특징 데이터를 포함하는 메타 데이터를 생성할 수 있다.
데이터 전송부(216)는 생성된 메타 데이터를 주변의 감시 영역에 위치하는 모바일 기기(110a) 또는 감시 카메라(110b)에 유선 통신 또는 무선 통신을 이용하여 전송할 수 있다.
도 4는 본 발명의 일 실시예에 따른 모바일 기기와 감시 카메라의 상세한 구성을 나타내는 도면이다.
도 4에 도시한 바와 같이, 본 발명에 따른 모바일 기기(110a) 또는 감시 카메라(110b) 등의 감시 수단(100)은 데이터 추출부(111), 영상 입력부(112), 영상 분석부(113), 데이터 생성부(114), 데이터 전송부(115) 등을 포함하여 구성될 수 있다.
데이터 추출부(111)는 관제 센터(200)로부터 메타 데이터를 수신하면 수신된 메타 데이터로부터 특징 데이터를 추출할 수 있다.
영상 입력부(1112)는 카메라를 통해 획득한 영상 데이터를 입력 받을 수 있다.
영상 분석부(113)는 추출된 특징 데이터를 기반으로 입력 받은 영상 데이터 내에 특징 데이터가 존재하는 추적 대상인지를 판단할 수 있다. 이러한 영상 분석부(113)는 지능형 영상 처리 프로그램이나 이와 유사한 각종 기술을 활용할 수 있다.
또한 영상 분석부(113)는 모바일 플랫폼 기반인 경우에 필용한 분석 프로그램을 설치하여 사용하거나 사용자의 육안으로 판단한 결과를 입력 받을 수도 있다.
데이터 생성부(114)는 그 판단한 결과로 영상 데이터 내에 특징 데이터가 존재하면 현재의 위치 정보와 입력 받은 영상 데이터를 포함하는 탐지결과 데이터를 생성할 수 있다. 여기서, 탐지결과 데이터는 특징 데이터의 존재 여부를 확인할 수 있도록 특징 데이터와의 일치 여부 또는 유사도 등의 수치가 포함될 수 있다.
데이터 전송부(115)는 생성된 탐지결과 데이터를 관제 센터(200)에 전송할 수 있다.
도 5는 본 발명의 일 실시예에 따른 위험 상황을 추적하기 위한 방법을 나타내는 도면이다.
도 5에 도시한 바와 같이, 본 발명에 따른 모바일 기기(110a) 또는 감시 카메라(110b) 등의 제1 감시 수단(100a)은 유해 또는 위험 상황을 유발하는 대상 또는 객체를 포함하는 영상 데이터를 획득할 수 있다.
다음으로, 감시 수단(100a)은 획득한 영상 데이터와 자신의 위치 정보를 포함하는 이벤트 정보를 생성하고 생성된 이벤트 정보를 관제 센터(200)에 전송할 수 있다.
다음으로, 관제 센터(200)는 이벤트 정보를 수신하면, 수신된 이벤트 데이터로부터 영상 데이터와 위치 정보를 추출하고, 추출된 영상 데이터를 분석하여 유해 또는 위험 상황인지를 판단할 수 있다.
다음으로, 관제 센터(200)는 그 판단한 결과로 유해 또는 위험 상황이라고 판단되면, 추출된 위치 정보를 기반으로 감시하고자 하는 대상이 이동 가능한 주변의 감시 영역을 계산하고, 추출된 영상 데이터로부터 특징 데이터를 추출할 수 있다.
다음으로, 관제 센터(200)는 추출된 특징 데이터를 포함하는 메타 데이터를 생성하여 생성된 메타 데이터를 주변의 감시 영역에 위치하는 모바일 기기(110a) 또는 감시 카메라(110b) 등의 제2 감시 수단(100b)에 유선 통신 또는 무선 통신을 이용하여 전송할 수 있다.
다음으로, 제2 감시 수단(100b)은 관제 센터(200)로부터 메타 데이터를 수신하면 수신된 메타 데이터로부터 특징 데이터를 추출할 수 있다.
다음으로, 제2 감시 수단(100b)은 추출된 특징 데이터를 기반으로 현재 시점에서 입력 받은 영상 데이터 내에 특징 데이터가 존재하는 추적 대상인지를 판단할 수 있다.
예컨대, 감시 카메라는 관제 센터에서 메타 데이터를 전송 받아 전송 받은 메타 데이터에 포함된 위치 정보를 기반으로 입력되는 영상 데이터를 관제 센터로 전송하거나 입력되는 영상 데이터에서 바로 추적 대상의 여부를 판단하게 된다.
또한 모바일 기기는 전송 받은 메타 데이터를 기반으로 주변을 검색하여 메타 데이터에 근접한 대상이나 객체의 유무를 판단할 수 있다. 모바일 기기는 사용자의 판단 외에 특징을 분석하기 위한 영상 분석 프로그램이나 도구를 활용할 수 있다.
다음으로, 제2 감시 수단(100b)은 그 판단한 결과로 영상 데이터 내에 특징 데이터가 존재하면 현재의 위치 정보와 관련된 영상 데이터 즉, 특징 데이터가 존재하는 영상 데이터를 포함하는 탐지결과 데이터를 생성할 수 있다.
다음으로, 제2 감시 수단(100b)은 생성된 탐지결과 데이터를 관제 센터(200)에 전송할 수 있다. 이러한 방식으로 유해 또는 위험 상황을 추적하여 탐지할 수 있다.
이렇게 관제 센터에서는 감시 영역들에서 전송되어 온 탐지 결과들을 수집하고 통계적으로 분석하여 확률적으로 가장 큰 유사도를 가진 감시 영역의 탐지 결과를 이용하여 오류를 줄여가면서 유해 또는 위험 상황을 추적하여 대응하게 된다.
한편, 이상에서 설명한 본 발명의 실시예를 구성하는 모든 구성 요소들이 하나로 결합하거나 결합하여 동작하는 것으로 기재되어 있다고 해서, 본 발명이 반드시 이러한 실시예에 한정되는 것은 아니다. 즉, 본 발명의 목적 범위 안에서라면, 그 모든 구성 요소들이 하나 이상으로 선택적으로 결합하여 동작할 수도 있다. 또한, 그 모든 구성 요소들이 각각 하나의 독립적인 하드웨어로 구현될 수 있지만, 각 구성 요소들의 그 일부 또는 전부가 선택적으로 조합되어 하나 또는 복수 개의 하드웨어에서 조합된 일부 또는 전부의 기능을 수행하는 프로그램 모듈을 갖는 컴퓨터 프로그램으로서 구현될 수도 있다. 또한, 이와 같은 컴퓨터 프로그램은 USB 메모리, CD 디스크, 플래쉬 메모리 등과 같은 컴퓨터가 읽을 수 있는 저장매체(Computer Readable Media)에 저장되어 컴퓨터에 의하여 읽혀지고 실행됨으로써, 본 발명의 실시예를 구현할 수 있다. 컴퓨터 프로그램의 저장매체로서는 자기 기록매체, 광 기록매체, 캐리어 웨이브 매체 등이 포함될 수 있다.
이상에서 설명한 실시예들은 그 일 예로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
100: 감시 수단
110a: 모바일 기기
110b: 감시 카메라
111: 데이터 추출부
112: 영상 입력부
113: 영상 분석부
114: 데이터 생성부
115: 데이터 전송부
200: 관제 센터
211: 데이터 추출부
212: 영상 분석부
213: 위치 계산부
214: 특징 추출부
215: 데이터 생성부
216: 데이터 전송부

Claims (16)

  1. 기 설정된 감시 영역에 구비되어, 상기 감시 영역 내에서 위험 상황을 유발하는 대상에 관련된 영상 데이터를 획득하여 획득된 상기 영상 데이터를 제공하는 제1 감시 수단; 및
    상기 제1 감시 수단으로부터 획득한 영상 데이터를 제공 받아 제공 받은 상기 영상 데이터를 기반으로 위험 상황이 발생되었다고 판단되면, 상기 영상 데이터로부터 특징 데이터를 추출하여 추출된 상기 특징 데이터를 포함하는 메타 데이터를 주변의 감시 영역에 위치하는 적어도 하나의 제2 감시 수단에 전송하는 관제 센터;
    를 포함하는 위험 상황을 추적하기 위한 시스템.
  2. 제1 항에 있어서,
    상기 제1 감시 수단과 상기 제2 감시 수단은 영상 데이터를 획득할 수 있는 감시 카메라, 모바일 기기를 포함하는 것을 특징으로 하는 위험 상황을 추적하기 위한 시스템.
  3. 제1 항에 있어서,
    상기 제1 감시 수단은,
    상기 감시 영역 내에서 영상 데이터를 획득하면, 획득한 상기 영상 데이터와 위치 정보를 상기 관제 센터에 제공하는 것을 특징으로 하는 위험 상황을 추적하기 위한 시스템.
  4. 제3 항에 있어서,
    상기 위치 정보는 GPS(Global Positioning System) 위치 정보, 감시 영역을 식별하기 위한 식별자를 포함하는 것을 특징으로 하는 위험 상황을 추적하기 위한 시스템.
  5. 제4 항에 있어서,
    상기 관제 센터는,
    상기 위험 상황이 발생되었다고 판단되면, 상기 제1 감시 수단의 위치 정보를 기반으로 감시하고자 하는 대상이 이동 가능한 주변의 감시 영역을 계산하고
    추출된 상기 영상 데이터로부터 특징 데이터를 추출하며,
    추출된 상기 특징 데이터를 포함하는 메타 데이터를 주변의 감시 영역에 위치하는 제2 감시 수단에 전송하는 것을 특징으로 하는 위험 상황을 추적하기 위한 시스템.
  6. 제5 항에 있어서,
    상기 제2 감시 수단은,
    상기 관제 센터로부터 메타 데이터를 수신하면 수신된 상기 메타 데이터로부터 특징 데이터를 추출하고,
    현재 시점에서 입력 받은 영상 데이터 내에 상기 추출된 특징 데이터가 존재하는 추적 대상인지를 판단하는 것을 특징으로 하는 위험 상황을 추적하기 위한 시스템.
  7. 제6 항에 있어서,
    상기 제2 감시 수단은,
    그 판단한 결과로 상기 영상 데이터 내에 특징 데이터가 존재하면 현재의 위치 정보와 상기 특징 데이터가 존재하는 영상 데이터를 포함하는 탐지결과 데이터를 생성하고,
    생성된 상기 탐지결과 데이터를 상기 관제 센터에 전송하여 해당 감시 영역으로 대상이 이동하였음을 통지하는 것을 특징으로 하는 위험 상황을 추적하기 위한 시스템.
  8. 제7 항에 있어서,
    상기 탐지결과 데이터는,
    상기 특징 데이터의 존재 여부를 확인하기 위한 특징 데이터와의 일치여부 또는 유사도를 나타내는 수치를 포함하는 것을 특징으로 하는 위험 상황을 추적하기 위한 시스템.
  9. 제1 감시 수단이 기 설정된 감시 영역에 구비되어, 상기 감시 영역 내에서 위험 상황을 유발하는 대상에 관련된 영상 데이터를 획득하여 획득된 상기 영상 데이터를 제공하는 단계; 및
    관제 센터가 상기 제1 감시 수단으로부터 획득한 영상 데이터를 제공 받아 제공 받은 상기 영상 데이터를 기반으로 위험 상황이 발생되었다고 판단되면, 상기 영상 데이터로부터 특징 데이터를 추출하여 추출된 상기 특징 데이터를 포함하는 메타 데이터를 주변의 감시 영역에 위치하는 적어도 하나의 제2 감시 수단에 전송하는 단계;
    를 포함하는 위험 상황을 추적하기 위한 방법.
  10. 제9 항에 있어서,
    상기 제1 감시 수단과 상기 제2 감시 수단은 영상 데이터를 획득할 수 있는 감시 카메라, 모바일 기기를 포함하는 것을 특징으로 하는 위험 상황을 추적하기 위한 방법.
  11. 제9 항에 있어서,
    상기 제공하는 단계는,
    상기 감시 영역 내에서 영상 데이터를 획득하면, 획득한 상기 영상 데이터와 위치 정보를 상기 관제 센터에 제공하는 것을 특징으로 하는 위험 상황을 추적하기 위한 방법.
  12. 제11 항에 있어서,
    상기 위치 정보는 GPS(Global Positioning System) 위치 정보, 감시 영역을 식별하기 위한 식별자를 포함하는 것을 특징으로 하는 위험 상황을 추적하기 위한 방법.
  13. 제12 항에 있어서,
    상기 전송하는 단계는,
    상기 위험 상황이 발생되었다고 판단되면, 상기 제1 감시 수단의 위치 정보를 기반으로 감시하고자 하는 대상이 이동 가능한 주변의 감시 영역을 계산하고
    추출된 상기 영상 데이터로부터 특징 데이터를 추출하며,
    추출된 상기 특징 데이터를 포함하는 메타 데이터를 주변의 감시 영역에 위치하는 제2 감시 수단에 전송하는 것을 특징으로 하는 위험 상황을 추적하기 위한 방법.
  14. 제13 항에 있어서,
    상기 제2 감시 수단이 상기 관제 센터로부터 메타 데이터를 수신하면 수신된 상기 메타 데이터로부터 특징 데이터를 추출하고,
    현재 시점에서 입력 받은 영상 데이터 내에 상기 추출된 특징 데이터가 존재하는 추적 대상인지를 판단하는 것을 특징으로 하는 위험 상황을 추적하기 위한 방법.
  15. 제14 항에 있어서,
    상기 제2 감시 수단이 그 판단한 결과로 상기 영상 데이터 내에 특징 데이터가 존재하면 현재의 위치 정보와 상기 특징 데이터가 존재하는 영상 데이터를 포함하는 탐지결과 데이터를 생성하고,
    생성된 상기 탐지결과 데이터를 상기 관제 센터에 전송하여 해당 감시 영역으로 대상이 이동하였음을 통지하는 것을 특징으로 하는 위험 상황을 추적하기 위한 방법.
  16. 제15 항에 있어서,
    상기 탐지결과 데이터는,
    상기 특징 데이터의 존재 여부를 확인하기 위한 특징 데이터와의 일치여부 또는 유사도를 나타내는 수치를 포함하는 것을 특징으로 하는 위험 상황을 추적하기 위한 방법.
KR20130111919A 2013-09-17 2013-09-17 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법 KR20150031985A (ko)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR20130111919A KR20150031985A (ko) 2013-09-17 2013-09-17 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법
US14/273,752 US20150078618A1 (en) 2013-09-17 2014-05-09 System for tracking dangerous situation in cooperation with mobile device and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR20130111919A KR20150031985A (ko) 2013-09-17 2013-09-17 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법

Publications (1)

Publication Number Publication Date
KR20150031985A true KR20150031985A (ko) 2015-03-25

Family

ID=52668011

Family Applications (1)

Application Number Title Priority Date Filing Date
KR20130111919A KR20150031985A (ko) 2013-09-17 2013-09-17 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법

Country Status (2)

Country Link
US (1) US20150078618A1 (ko)
KR (1) KR20150031985A (ko)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190051175A (ko) * 2017-11-06 2019-05-15 전자부품연구원 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법
KR20200021004A (ko) * 2018-07-17 2020-02-27 동명대학교산학협력단 모바일 기기를 이용한 공조 시스템 제어방법

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180077355A1 (en) * 2015-03-17 2018-03-15 Nec Corporation Monitoring device, monitoring method, monitoring program, and monitoring system
WO2017038450A1 (ja) 2015-09-02 2017-03-09 日本電気株式会社 監視システム、監視ネットワーク構築方法、およびプログラム
US10977916B2 (en) * 2015-09-02 2021-04-13 Nec Corporation Surveillance system, surveillance network construction method, and program
US10931923B2 (en) 2015-09-02 2021-02-23 Nec Corporation Surveillance system, surveillance network construction method, and program
JP6763390B2 (ja) 2015-09-02 2020-09-30 日本電気株式会社 監視システム、監視方法、およびプログラム
US10075834B1 (en) * 2017-04-12 2018-09-11 At&T Intellectual Property I, L.P. Emergency services delivery
SG10201705480UA (en) * 2017-07-03 2019-02-27 Nec Asia Pacific Pte Ltd System and method for determining event
WO2020006569A1 (en) 2018-06-29 2020-01-02 Madden Donald Object tracking using disparate monitoring systems

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2368482B (en) * 2000-10-26 2004-08-25 Hewlett Packard Co Optimal image capture
US6778705B2 (en) * 2001-02-27 2004-08-17 Koninklijke Philips Electronics N.V. Classification of objects through model ensembles
US20040100563A1 (en) * 2002-11-27 2004-05-27 Sezai Sablak Video tracking system and method
US9210312B2 (en) * 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
KR20120058770A (ko) * 2010-11-30 2012-06-08 한국전자통신연구원 지능형 감시 시스템에서의 이벤트 정보 생성 장치 및 그 방법과 이벤트 정보 검색 장치 및 그 방법

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190051175A (ko) * 2017-11-06 2019-05-15 전자부품연구원 지능형 협업 서버, 시스템 및 이의 협업 기반 분석 방법
KR20200021004A (ko) * 2018-07-17 2020-02-27 동명대학교산학협력단 모바일 기기를 이용한 공조 시스템 제어방법

Also Published As

Publication number Publication date
US20150078618A1 (en) 2015-03-19

Similar Documents

Publication Publication Date Title
KR20150031985A (ko) 모바일 기기와 협력하여 위험 상황을 추적하기 위한 시스템 및 그 방법
US11200427B2 (en) Methods and systems for image based anomaly detection
CN108182396B (zh) 一种自动识别拍照行为的方法及装置
EP3884201A1 (en) Proximity-based personnel safety system and method
KR20130085315A (ko) 사람 식별을 기반으로 한 위험 인지 방법
JP6233624B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP2017512991A (ja) 目標物体の検出方法、検出装置及びロボット
JP6729793B2 (ja) 情報処理装置、制御方法、及びプログラム
US20240098223A1 (en) Monitoring system, monitoring method, and monitoring program
JP6588413B2 (ja) 監視装置および監視方法
CN111178246B (zh) 基于电力施工操作的远程监测方法、装置和计算机设备
KR20120068611A (ko) 공간 연동을 통한 보안 상황 인지와 상황 정보 생성 장치 및 방법
KR20140090795A (ko) 다중 카메라 환경에서 객체 추적 방법 및 장치
Mei et al. Human intrusion detection in static hazardous areas at construction sites: Deep learning–based method
KR20210086829A (ko) 스마트 cctv 관제 및 경보 시스템
CN110751809A (zh) 施工安全监控方法及相关产品
CN110865415A (zh) 一种安检方法及装置
JP2016103690A (ja) 監視システム、監視装置、および監視方法
KR101964230B1 (ko) 데이터 처리 시스템
KR20220105851A (ko) 무인변전소 감시 시스템 및 그 동작 방법
JP6595207B2 (ja) 異常予兆検知システムおよび異常予兆検知方法
Tran et al. A fully automated vision-based system for real-time personal protective detection and monitoring
KR101566966B1 (ko) 보행자 인식 가능한 어라운드 뷰 모니터링 방법, 이를 수행하는 어라운드 뷰 모니터링 장치 및 이를 저장하는 기록매체
CN112949606B (zh) 工服穿戴状态检测方法、装置、存储介质及电子装置
CN112906651B (zh) 目标检测方法及装置

Legal Events

Date Code Title Description
WITN Application deemed withdrawn, e.g. because no request for examination was filed or no examination fee was paid