KR102441436B1 - System and method for security - Google Patents

System and method for security Download PDF

Info

Publication number
KR102441436B1
KR102441436B1 KR1020170082621A KR20170082621A KR102441436B1 KR 102441436 B1 KR102441436 B1 KR 102441436B1 KR 1020170082621 A KR1020170082621 A KR 1020170082621A KR 20170082621 A KR20170082621 A KR 20170082621A KR 102441436 B1 KR102441436 B1 KR 102441436B1
Authority
KR
South Korea
Prior art keywords
image
information
sensor
event
security monitoring
Prior art date
Application number
KR1020170082621A
Other languages
Korean (ko)
Other versions
KR20190002142A (en
Inventor
박학선
김대영
김봉기
이미숙
최성군
Original Assignee
주식회사 케이티
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 케이티 filed Critical 주식회사 케이티
Priority to KR1020170082621A priority Critical patent/KR102441436B1/en
Publication of KR20190002142A publication Critical patent/KR20190002142A/en
Application granted granted Critical
Publication of KR102441436B1 publication Critical patent/KR102441436B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/886Radar or analogous systems specially adapted for specific applications for alarm systems
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19606Discriminating between target movement or movement in an area of interest and other non-signicative movements, e.g. target movements induced by camera shake or movements of pets, falling leaves, rotating fan
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/1963Arrangements allowing camera rotation to change view, e.g. pivoting camera, pan-tilt and zoom [PTZ]

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Alarm Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

레이더 센서와 전방향 카메라와 연동한 보안 감시 시스템이 감시하기 위하여, 레이더 센서가 특정 오브젝트를 센싱하여 수집한 위상 별 거리 정보와 전방향 카메라가 특정 오브젝트를 촬영한 영상을 토대로, 레이더 센서와 전방향 카메라를 동기화한다. 임의의 오브젝트에 의한 이벤트를 감지하기 위하여 적어도 하나의 관심 영역을 설정하고, 레이더 센서 및 전방향 카메라가 관심 영역을 지나는 임의의 오브젝트를 센싱하거나 영상을 수집하면, 임의의 오브젝트에 대한 센싱 정보와 영상을 토대로 이벤트 발생을 알린다.In order to be monitored by the security monitoring system interlocked with the radar sensor and the omni-directional camera, the radar sensor and the omnidirectional Synchronize the camera. At least one region of interest is set to detect an event by an arbitrary object, and when a radar sensor and an omnidirectional camera sense an object passing through the region of interest or collect an image, sensing information and image of the arbitrary object Notifies the occurrence of an event based on

Description

보안 감시 시스템 및 이를 이용한 보안 감시 방법{System and method for security}Security monitoring system and security monitoring method using the same

본 발명은 보안 감시 시스템 및 이를 이용한 보안 감시 방법에 관한 것이다.The present invention relates to a security monitoring system and a security monitoring method using the same.

최근 범죄의 잦은 발생으로 불안감이 증가됨에 따라, 개인이나 공공 안전에 대한 관심이 증가하고 있다. 이러한 이유로 범죄를 사전에 예방하고 발생된 범죄에 대해 사후 분석 및 해결을 위하여 다양한 형태의 감시 시스템들이 개발, 활용되고 있다.Recently, as anxiety increases due to the frequent occurrence of crime, interest in personal or public safety is increasing. For this reason, various types of monitoring systems have been developed and utilized to prevent crimes in advance and to analyze and solve crimes after they have occurred.

대표적으로 CCTV(Closed Circuit Television)은 광역 카메라를 이용하여 공공 장소나 우범 지역, 출입 통제 구역 등 보안이 요구되는 장소에 설치된다. 그리고 CCTV를 통해 수집한 화면 영상을 관제 센터의 감시 인력이 모니터링 하거나 저장 장치에 녹화한 후 사후 영상을 분석하는 방식 등을 통해 감시를 수행하고 있다.Typically, CCTV (Closed Circuit Television) is installed in places requiring security, such as public places, crime areas, and access control areas using wide-area cameras. In addition, surveillance personnel at the control center monitor the screen images collected through CCTV, or record them in a storage device and then analyze the images afterward.

이 경우, CCTV는 고정된 반경의 지역만을 감시하기 때문에, 설치된 CCTV로 실내를 감시할 경우 많은 카메라들을 실내에 설치하여 감시를 수행해야 한다. 따라서, 카메라 설치에 대한 부담과 비용 절감을 이유로 CCTV가 설치되기 때문에, 사각 지역이 발생하게 된다.In this case, since CCTV monitors only an area with a fixed radius, when monitoring indoors with installed CCTVs, many cameras must be installed indoors to perform monitoring. Therefore, since the CCTV is installed for the reason of the burden and cost reduction of the camera installation, a blind area is generated.

또한, CCTV와 함께 감시 영역에 설치된 센서들을 통해서도 보안 감시를 수행하는 경우가 늘어나고 있다. 이 경우, CCTV가 수집한 영상과 센서들이 수집한 감시 정보가 각각 감시자에게 제공되기 때문에 감시 영상과 센서 정보가 어떠한 관계를 갖는지 파악하기 어려운 문제점이 있다.In addition, the number of cases where security monitoring is performed through sensors installed in the monitoring area together with CCTV is increasing. In this case, there is a problem in that it is difficult to understand the relationship between the surveillance image and the sensor information because the video collected by the CCTV and the monitoring information collected by the sensors are respectively provided to the monitor.

그리고, 영상만을 분석하여 관제를 수행하는 경우, 관심 영역으로 지정한 구역에 설치된 실내등과 같은 구조물에 변화가 발생할 경우, 이를 이벤트가 발생한 것으로 잘못 탐지하는 경우가 빈번하다. 이는 영상 자체는 평면 정보만을 가지기 때문에 영역의 거리와 상관 없이 관심 영역의 변화만을 감지하기 때문이다.In addition, when performing control by analyzing only an image, when a change occurs in a structure such as an indoor light installed in an area designated as an area of interest, it is frequently mistakenly detected as an event. This is because the image itself has only plane information, so only the change of the ROI is detected regardless of the distance of the region.

따라서, 본 발명은 레이더 센서와 전방위 카메라가 동기화된 보안 감시 시스템 및 이를 이용한 보안 감시 방법을 제공한다.Accordingly, the present invention provides a security monitoring system in which a radar sensor and an omnidirectional camera are synchronized and a security monitoring method using the same.

상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 하나의 특징인 레이더 센서와 전방향 카메라와 연동한 보안 감시 시스템이 감시하는 방법으로서,As a method of monitoring by a security monitoring system interlocked with a radar sensor and an omnidirectional camera, which is one feature of the present invention for achieving the technical problem of the present invention,

상기 레이더 센서가 특정 오브젝트를 센싱하여 수집한 위상 별 거리 정보와 상기 전방향 카메라가 상기 특정 오브젝트를 촬영한 영상을 토대로, 상기 레이더 센서와 전방향 카메라를 동기화하는 단계, 오브젝트에 의한 이벤트를 감지하기 위하여 적어도 하나의 관심 영역을 설정하는 단계, 그리고Synchronizing the radar sensor and the omnidirectional camera based on distance information for each phase collected by the radar sensor sensing a specific object and an image captured by the omni-directional camera of the specific object; detecting an event caused by an object establishing at least one region of interest for

상기 레이더 센서 및 전방향 카메라가 상기 관심 영역을 지나는 임의의 오브젝트를 센싱하고 영상을 수집하면, 상기 임의의 오브젝트에 대한 센싱 정보와 영상을 수신한 시간 차를 토대로 이벤트 발생을 알리는 단계를 포함한다.and when the radar sensor and the omnidirectional camera sense an arbitrary object passing the ROI and collect an image, notifying the occurrence of an event based on a time difference between the sensing information of the arbitrary object and the reception of the image.

상기 동기화하는 단계는,The synchronizing step is

외부로부터 동기화 요청 신호를 수신하는 단계, 상기 전방향 카메라로부터 전송되는 임의의 위치에서 특정 이벤트를 실행하는 상기 특정 오브젝트에 대한 영상을 분석하고, 상기 특정 오브젝트의 위치를 기준 위치로 설정하는 단계, 상기 특정 오브젝트에 대한 센싱 정보를 상기 레이더 센서로부터 수신하고, 센싱 정보에 포함된 상기 특정 오브젝트의 위상을 기준 위상으로 조정하는 단계, 그리고Receiving a synchronization request signal from the outside, analyzing an image of the specific object executing a specific event at an arbitrary position transmitted from the omni-directional camera, and setting the position of the specific object as a reference position, the receiving sensing information for a specific object from the radar sensor, and adjusting a phase of the specific object included in the sensing information as a reference phase; and

상기 기준 위치에 상기 기준 위상을 매핑하여 상기 전방향 카메라와 레이더 센서를 동기화하는 단계를 포함할 수 있다.It may include synchronizing the omnidirectional camera and the radar sensor by mapping the reference phase to the reference position.

상기 기준 위치로 설정하는 단계는, 상기 기준 위치는 0도로 설정하는 단계, 그리고 상기 전방향 카메라로부터 전송된 영상으로부터 수집한 해상도를 미리 설정한 수로 분할하여, 90도 180도 및 270도를 설정하는 단계를 포함할 수 있다.The step of setting the reference position includes the steps of setting the reference position to 0 degrees, and dividing the resolution collected from the image transmitted from the omni-directional camera into a preset number to set 90 degrees 180 degrees and 270 degrees may include steps.

상기 기준 위치로 설정하는 단계 이전에, 상기 레이더 센서로부터 위상 별 거리 정보를 포함하는 배경 데이터를 수집하여 저장하는 단계를 더 포함하고, 상기 배경 데이터는 상기 레이더 센서가 설치된 영역에 움직임이 감지되지 않을 때, 상기 레이더 센서가 설치된 위치로부터 설치 영역 내 벽까지의 위상 별 거리 정보에 해당할 수 있다.The method further comprises collecting and storing background data including distance information for each phase from the radar sensor before the step of setting the reference position, wherein the background data is not detected in the area where the radar sensor is installed. In this case, it may correspond to distance information for each phase from the location where the radar sensor is installed to the wall within the installation area.

상기 이벤트 발생을 알리는 단계는, 상기 전방향 카메라로부터 상기 관심 영역을 지나는 임의의 오브젝트에 대한 영상을 수신하는 단계, 상기 레이더 센서로부터 상기 임의의 오브젝트에 대한 센싱 정보를 수신하는 단계, 상기 영상을 수신한 시점과 상기 센싱 정보를 수신한 시점이, 미리 설정한 시간 내에 발생하는지 확인하는 단계, 그리고 상기 미리 설정한 시간 내에 상기 센싱 정보와 영상을 수신하면, 이벤트가 발생한 것으로 확인하는 단계를 포함할 수 있다.The step of notifying the occurrence of the event may include: receiving an image of an arbitrary object passing the region of interest from the omnidirectional camera; receiving sensing information on the arbitrary object from the radar sensor; receiving the image Checking whether a point in time and a point in time at which the sensing information is received occur within a preset time, and when the sensing information and the image are received within the preset time, confirming that an event has occurred have.

상기 센싱 정보를 수신하는 단계는, 센싱 정보에 포함된 위상별 거리 정보를 확인하는 단계, 상기 확인한 위상별 거리 정보와 상기 배경 데이터로 저장한 위상별 거리 정보를 비교하는 단계, 그리고 임의의 위상에 대하여 저장된 배경 데이터상 거리와 센싱 정보에 포함된 거리가 차이가 있으면, 상기 임의의 오브젝트를 탐지한 것으로 확인하는 단계를 포함할 수 있다.The step of receiving the sensing information includes the steps of checking the distance information for each phase included in the sensing information, comparing the checked distance information for each phase with the distance information for each phase stored as the background data, and in any phase If there is a difference between the distance on the stored background data and the distance included in the sensing information, the method may include confirming that the arbitrary object is detected.

상기 이벤트 발생을 알리는 단계 이후에, 상기 이벤트가 발생한 순서에 따라 상기 오브젝트의 이동 경로를 포함하는 감시 정보를 생성하는 단계를 포함하고, 상기 이동 경로상의 오브젝트는, 상기 레이더 센서가 상기 임의의 오브젝트를 탐지한 센싱 정보의 위상별 거리를 토대로 상기 전방향 카메라가 상기 임의의 오브젝트를 촬영한 영상을 확대 또는 축소하여 제공할 수 있다.After the step of notifying the occurrence of the event, generating monitoring information including a movement path of the object according to the order in which the event occurs, wherein the object on the movement path is determined by the radar sensor to detect the arbitrary object. The omni-directional camera may enlarge or reduce the image captured by the arbitrary object based on the detected distance for each phase of the sensing information.

상기 본 발명의 기술적 과제를 달성하기 위한 본 발명의 또 다른 특징인 레이더 센서와 전방향 카메라와 연동한 보안 감시 시스템으로서,As another feature of the present invention for achieving the technical problem of the present invention, a security monitoring system interlocked with a radar sensor and an omnidirectional camera,

상기 레이더 센서와 통신하여 배경 데이터, 특정 오브젝트로부터 수집한 동기화를 위한 센싱 정보, 그리고 설정된 관심 영역을 지나는 임의의 오브젝트를 센싱한 센싱 정보를 수신하고, 상기 전방향 카메라와 통신하여 상기 특정 오브젝트와 상기 임의의 오브젝트에 대한 영상을 수신하는 통신부, 상기 특정 오브젝트로부터 수집한 동기화를 위한 센싱 정보와 영상을 토대로 상기 레이더 센서와 전방향 카메라를 동기화하고, 상기 배경 데이터, 임의의 오브젝트에 대한 센싱 정보와 영상을 토대로 이벤트 발생을 탐지하여 감시 정보를 생성하는 프로세서, 그리고 상기 레이더 센서로부터 수신한 기준 데이터, 상기 설정한 관심 영역, 그리고 레이더 센서와 전방향 카메라의 동기화 정보를 저장하는 메모리를 포함한다.It communicates with the radar sensor to receive background data, sensing information for synchronization collected from a specific object, and sensing information for sensing an arbitrary object passing a set ROI, and communicates with the omnidirectional camera to communicate with the specific object and the A communication unit that receives an image of an arbitrary object, synchronizes the radar sensor and the omni-directional camera based on sensing information and image for synchronization collected from the specific object, and the background data, sensing information and image of an arbitrary object and a processor for generating monitoring information by detecting the occurrence of an event based on , and a memory for storing reference data received from the radar sensor, the set region of interest, and synchronization information between the radar sensor and the omnidirectional camera.

상기 프로세서는, 상기 레이더 센서와 전방향 카메라에 대한 동기화 요청 신호를 수신하면, 상기 전방향 카메라로부터 전송된 영상을 분석하여, 상기 특정 오브젝트의 위치를 기준 위치로 설정하고, 상기 레이더 센서로부터 수신한 동기화를 위한 센싱 정보를 분석하여, 상기 특정 오브젝트에 대한 위상을 기준 위상으로 설정하며, 상기 기준 위치와 기준 위상을 매핑하여 상기 레이더 센서와 전방향 카메라를 동기화할 수 있다.When the processor receives a synchronization request signal for the radar sensor and the omni-directional camera, the processor analyzes the image transmitted from the omni-directional camera, sets the position of the specific object as a reference position, and receives from the radar sensor. By analyzing sensing information for synchronization, the phase of the specific object is set as a reference phase, and the reference position and the reference phase are mapped to synchronize the radar sensor and the omnidirectional camera.

상기 프로세서는, 상기 임의의 오브젝트가 상기 관심 영역에 위치하여 상기 임의의 오브젝트에 대한 이벤트 발생 시점과 상기 임의의 오브젝트에 대한 영상을 수신한 시점을 비교하여 미리 설정한 시간 내에 발생한 것으로 확인하면, 상기 임의의 오브젝트에 의해 이벤트가 발생한 것으로 알릴 수 있다. If the processor determines that the arbitrary object is located in the region of interest and has occurred within a preset time by comparing an event occurrence time for the arbitrary object and a time at which an image for the arbitrary object is received, the It can be notified that an event has occurred by an arbitrary object.

본 발명에 따르면 전방위 카메라를 통해 수집된 여러 영상들을 분석하기 때문에 사각이 없는 시야각을 확보할 수 있을 뿐만 아니라 저렴한 비용으로 여러 대의 카메라가 감시하는 효과를 얻을 수 있다.According to the present invention, since several images collected through an omnidirectional camera are analyzed, a viewing angle without blind spots can be secured, and the effect of multiple cameras monitoring can be obtained at a low cost.

또한, 레이더 센서와 전방위 카메라의 동기화를 통해, 보다 정확한 보안 감시에 대한 분석이 가능하며, 이벤트 전체의 흐름을 끊김 없이 제공할 수 있다.In addition, through the synchronization of the radar sensor and the omnidirectional camera, more accurate analysis of security monitoring is possible, and the flow of the entire event can be provided without interruption.

도 1은 일반적인 카메라를 이용한 영상 감시 방법에 대한 예시도이다.
도 2는 본 발명의 실시예에 따른 보안 감시 시스템이 적용된 환경의 예시도이다.
도 3은 본 발명의 실시예에 따른 보안 감시 시스템의 구조도이다.
도 4는 본 발명의 실시예에 따른 보안 감시 시스템의 초기 설정 방법에 대한 흐름도이다.
도 5는 본 발명의 실시예에 따른 보안 감시 시스템이 이벤트를 감지하는 방법에 대한 흐름도이다.
도 6은 본 발명의 실시예에 따른 전방향 카메라와 센서가 동기화된 예시도이다.
도 7은 본 발명의 실시예에 따른 관심 영역이 설정된 예시도이다.
도 8은 본 발명의 실시예에 따른 알림 화면에 대한 예시도이다.
도 9는 본 발명의 실시예에 따른 레이더 센서와 전방향 카메라의 연동에 따라 제공되는 감시 정보에 대한 예시도이다.
1 is an exemplary diagram of an image monitoring method using a general camera.
2 is an exemplary diagram of an environment to which a security monitoring system according to an embodiment of the present invention is applied.
3 is a structural diagram of a security monitoring system according to an embodiment of the present invention.
4 is a flowchart of an initial setting method of a security monitoring system according to an embodiment of the present invention.
5 is a flowchart of a method for detecting an event by a security monitoring system according to an embodiment of the present invention.
6 is an exemplary diagram in which an omnidirectional camera and a sensor are synchronized according to an embodiment of the present invention.
7 is an exemplary diagram in which a region of interest is set according to an embodiment of the present invention.
8 is an exemplary diagram of a notification screen according to an embodiment of the present invention.
9 is an exemplary diagram of monitoring information provided according to interworking of a radar sensor and an omnidirectional camera according to an embodiment of the present invention.

아래에서는 첨부한 도면을 참고로 하여 본 발명의 실시예에 대하여 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 발명은 여러 가지 상이한 형태로 구현될 수 있으며 여기에서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those of ordinary skill in the art to which the present invention pertains can easily implement them. However, the present invention may be embodied in several different forms and is not limited to the embodiments described herein. And in order to clearly explain the present invention in the drawings, parts irrelevant to the description are omitted, and similar reference numerals are attached to similar parts throughout the specification.

명세서 전체에서, 어떤 부분이 어떤 구성요소를 "포함"한다고 할 때, 이는 특별히 반대되는 기재가 없는 한 다른 구성요소를 제외하는 것이 아니라 다른 구성요소를 더 포함할 수 있는 것을 의미한다. Throughout the specification, when a part "includes" a certain component, it means that other components may be further included, rather than excluding other components, unless otherwise stated.

이하, 도면을 참조로 하여 본 발명의 실시예에 따른 보안 감시 시스템 및 이를 이용한 보안 감시 방법에 대해 설명한다.Hereinafter, a security monitoring system and a security monitoring method using the same according to an embodiment of the present invention will be described with reference to the drawings.

본 발명의 실시예에 대해 설명하기 앞서, 일반적인 영상 감시를 위한 Before describing the embodiment of the present invention, for general video surveillance

도 1은 일반적인 카메라를 이용한 영상 감시 방법에 대한 예시도이다.1 is an exemplary diagram of an image monitoring method using a general camera.

도 1의 (a)는 세 대의 카메라(10-1∼10-3)를 관제가 필요한 임의의 공간에 설치하고, 영상 감시를 위해 설정된 관심 영역(ROI: Region Of Interest)을 나타난 예시도이다. 도 1의 (a)에 나타낸 바와 같이, 종래에는 임의의 공간에 대한 영상 감시를 위해서 이벤트(예를 들어, 침입, 도난 등)가 발생하기 쉬운 영역(예를 들어, 창문, 출입구 등)을 감시하도록 카메라를 설치한다. FIG. 1(a) is an exemplary diagram illustrating a region of interest (ROI) set for video surveillance by installing three cameras 10-1 to 10-3 in an arbitrary space that requires control. As shown in Fig. 1 (a), in the related art, for video monitoring of an arbitrary space, an area (eg, a window, a doorway, etc.) where an event (eg, intrusion, theft, etc.) is likely to occur is monitored. Install the camera to

그리고, 이벤트가 발생하기 쉬운 영역 이외의 공간에서의 이벤트 발생 가능성을 염두하여, 카메라를 설치한 후 관심 영역을 설정한다. 이때, 카메라에 의해 영상 정보가 수집되지 않는 사각 지대가 발생할 수 있다.In addition, the ROI is set after the camera is installed in consideration of the possibility of occurrence of an event in a space other than an area where an event is likely to occur. In this case, a blind spot in which image information is not collected by the camera may occur.

이를 위해, 사각 지대에 대한 감시 또는 이벤트가 발생하기 쉬운 영역의 정확한 감시를 위하여 카메라 이외에 센서를 추가하여 감시한다. 이 경우 감시 시스템은 각 카메라에서 수집한 영상 정보와 센서가 수집한 센싱 정보를 조합하여 알림 영상을 도 1의 (b)에 나타낸 바와 같이 제공한다.To this end, in order to monitor a blind spot or to accurately monitor an area where an event is likely to occur, a sensor is added in addition to the camera for monitoring. In this case, the monitoring system provides a notification image by combining the image information collected by each camera and the sensing information collected by the sensor as shown in FIG. 1(b).

도 1의 (b)에 도시한 바와 같이, 각 카메라(10-1∼10-3)에서 수집한 영상을 수신한 관제 센터에 설치된 관제 서버는 영상 정보와 센싱 정보를 분석하여 분석 정보로 제공한다. 이를 위해, 관심 영역(10-4)을 라인 크로스 형태로 지정하고, 라인 크로스를 넘어가거나 영역 내에 침범할 경우, 관제 서버는 라인 크로스와 센서가 센싱한 정보를 조합하여 알림 영상을 제공한다.As shown in (b) of FIG. 1 , the control server installed in the control center that receives the images collected by each camera 10-1 to 10-3 analyzes the image information and the sensing information and provides it as analysis information. . To this end, the region of interest 10 - 4 is designated in the form of a line cross, and when the line cross is crossed or invaded within the region, the control server provides a notification image by combining the line cross and information sensed by the sensor.

이때, 복수의 카메라(10-1∼10-3)로 영상 정보를 수집하고 별도로 설치된 센서 역시 센싱 정보를 수집하기 때문에, 이벤트가 발생한 순서대로 복수의 영상 정보와 센싱 정보가 각각 제공된다. 따라서, 이벤트에 대해 복수의 정보를 시청하거나 확인해야 하기 때문에 번거로움이 있다.At this time, since image information is collected by a plurality of cameras 10-1 to 10-3 and sensing information is also collected by a separately installed sensor, a plurality of image information and sensing information are provided in the order in which an event occurs. Therefore, it is cumbersome because it is necessary to view or check a plurality of pieces of information about the event.

또한, 복수의 카메라가 설치되기 때문에 설치 비용에 대한 부담이 생기며, 복수의 카메라가 설치된다 하더라도 사각 지대가 발생하여 정확한 감시가 어려운 문제점이 있다. In addition, since a plurality of cameras are installed, an installation cost is burdened, and even if a plurality of cameras are installed, there is a problem in that a blind spot occurs and accurate monitoring is difficult.

따라서, 본 발명의 실시예에서는 360도 전방향 카메라 한 대를 통해 영역을 사각 지대 없이 감시할 수 있다. 뿐만 아니라, 전방향 카메라와 함께 정확한 분석을 위하여 레이더 센서를 이용하여 센싱한 센싱 정보를 함께 제공하므로, 감시 정보를 제공 받는 사용자는 복수의 분석 정보가 아닌 하나의 정보만으로도 감시 정보를 확인할 수 있다.Therefore, in the embodiment of the present invention, the area can be monitored without blind spots through a single 360-degree omnidirectional camera. In addition, since sensing information sensed using a radar sensor is provided for accurate analysis together with an omni-directional camera, a user receiving monitoring information can check monitoring information only with one piece of information instead of a plurality of analysis information.

이와 같이 전방향 카메라와 레이더 센서를 이용하여 감시 영역을 감시하는 보안 감시 시스템(100)이 적용된 환경과 보안 감시 시스템(100)의 구조에 대해 도 2 및 도 3을 참조로 설명한다.As described above, an environment to which the security monitoring system 100 for monitoring a monitoring area using an omnidirectional camera and a radar sensor is applied and a structure of the security monitoring system 100 will be described with reference to FIGS. 2 and 3 .

도 2는 본 발명의 실시예에 따른 보안 감시 시스템이 적용된 환경의 예시도이다.2 is an exemplary diagram of an environment to which a security monitoring system according to an embodiment of the present invention is applied.

도 2에 도시된 바와 같이, 보안 감시 시스템(100)은 하나의 전방향 카메라(200)와 하나의 레이더 센서(300)와 연동한다. 본 발명의 실시예에서는 360도 전방향 카메라(200)와 레이더 센서(300)를 사용하는 것을 예로 하여 설명하나, 카메라와 센서가 반드시 이와 같이 한정되는 것은 아니다. 그리고, 본 발명의 실시예에서는 레이더 센서(300)와 전방향 카메라(200)가 실내의 정 중앙에 설치되는 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다.As shown in FIG. 2 , the security monitoring system 100 interworks with one omnidirectional camera 200 and one radar sensor 300 . In the embodiment of the present invention, the use of the 360-degree omnidirectional camera 200 and the radar sensor 300 is described as an example, but the camera and the sensor are not necessarily limited as such. In addition, in the embodiment of the present invention, the radar sensor 300 and the omnidirectional camera 200 are installed in the center of the room as an example, but the present invention is not necessarily limited thereto.

보안 감시 시스템(100)은 전방향 카메라(200)와 레이더 센서(300)의 동기화를 수행한다. 보안 감시 시스템(100)이 전방향 카메라(200)와 레이더 센서(300)의 동기화를 수행하는 방법에 대해서는 이후 상세히 설명한다.The security monitoring system 100 synchronizes the omnidirectional camera 200 and the radar sensor 300 . A method in which the security monitoring system 100 synchronizes the omni-directional camera 200 and the radar sensor 300 will be described later in detail.

그리고, 보안 감시 시스템(100)은 하나의 전방향 카메라(200)가 수집한 영상 정보와 하나의 레이더 센서(300)가 센싱한 센싱 정보를 각각 분석하고, 분석한 영상 분석 정보와 센서 분석 정보를 토대로 클라이언트(400)로 감시 정보를 제공한다. And, the security monitoring system 100 analyzes the image information collected by one omnidirectional camera 200 and the sensing information sensed by one radar sensor 300, respectively, and analyzes the analyzed image analysis information and the sensor analysis information. Based on the monitoring information is provided to the client (400).

이상에서 설명한 환경에서, 전방향 카메라(200)와 레이더 센서(300)를 동기화하고, 클라이언트(400)로 영상 정보와 센싱 정보가 융합된 감시 정보를 제공하는 보안 감시 시스템(100)의 구조에 대해 도 3을 참조로 설명한다.About the structure of the security monitoring system 100 that synchronizes the omnidirectional camera 200 and the radar sensor 300 in the environment described above, and provides monitoring information in which image information and sensing information are fused to the client 400 It will be described with reference to FIG. 3 .

도 3은 본 발명의 실시예에 따른 보안 감시 시스템의 구조도이다.3 is a structural diagram of a security monitoring system according to an embodiment of the present invention.

도 3에 도시된 바와 같이, 보안 감시 시스템(100)은 통신부(110), 프로세서(120) 그리고 메모리(130)를 포함한다.As shown in FIG. 3 , the security monitoring system 100 includes a communication unit 110 , a processor 120 , and a memory 130 .

통신부(110)는 전방향 카메라(200)와 통신하며, 전방향 카메라(200)가 수집한 영상을 수신한다. 그리고 통신부(110)는 레이더 센서(300)와 통신하며, 레이더 센서(300)가 수집한 배경 데이터와 센싱 데이터를 수신한다. The communication unit 110 communicates with the omni-directional camera 200 and receives an image collected by the omni-directional camera 200 . In addition, the communication unit 110 communicates with the radar sensor 300 , and receives background data and sensing data collected by the radar sensor 300 .

여기서, 레이더 센서(300)로부터 전송되는 배경 데이터는, 레이더 센서(300)가 설치된 장소에 아무런 움직임이 없을 때 수집한 센싱 정보를 의미한다. 배경 데이터는 위상별 거리 정보와, 품질 정보를 포함한다. 위상별 거리 정보는 실내에 설치된 레이더 센서(300)를 기준으로 각각의 위상별로 레이더 센서(300)에서 벽까지의 거리 정보를 의미한다. 품질 정보는 레이더 센서(300)의 센싱 정보에 대한 신뢰도로, 본 발명의 실시예에서는 신뢰도를 측정하는 방법에 대한 상세한 설명을 생략한다.Here, the background data transmitted from the radar sensor 300 means sensing information collected when there is no movement in the place where the radar sensor 300 is installed. The background data includes distance information for each phase and quality information. The distance information for each phase means distance information from the radar sensor 300 to the wall for each phase based on the radar sensor 300 installed indoors. The quality information is the reliability of the sensing information of the radar sensor 300 , and a detailed description of a method of measuring the reliability is omitted in the embodiment of the present invention.

또한, 통신부(110)는 레이더 센서(300)로부터 전송되는 동기화 요청 신호도 수신한다. 통신부(110)가 전방향 카메라(200) 및 레이더 센서(300)와 통신하는 방법과 통신 형태는 어느 하나로 한정하지 않는다.Also, the communication unit 110 receives a synchronization request signal transmitted from the radar sensor 300 . The communication unit 110 communicates with the omnidirectional camera 200 and the radar sensor 300 and the communication form is not limited to any one.

그리고 통신부(110)는 프로세서(120)가 생성한 이벤트 발생 알림과 감시 정보를 클라이언트(400)에 제공한다. 감시 정보는 이벤트가 발생한 순서와 이벤트가 발생한 위치를 기준으로 레이더 센서(300)와의 거리 정보에 따라 오브젝트가 확대(zoom-in)/축소(zoom-out)되어 제공되는 것을 예로 하여 설명한다. 감시 정보의 형태에 대해서는 이후 설명한다.In addition, the communication unit 110 provides the event occurrence notification and monitoring information generated by the processor 120 to the client 400 . Monitoring information will be described as an example in which an object is zoomed-in/zoom-out and provided according to distance information with the radar sensor 300 based on the order in which the events occur and the location where the events occur. The form of monitoring information will be described later.

프로세서(120)는 외부로부터 동기화 요청 신호가 입력되면, 동기화 요청 신호가 입력된 직후 전방향 카메라(200)가 수집한 영상을 수신하여 분석한다. 전방향 카메라(200)가 수집한 영상은 미리 설정된 위치 또는 임의의 위치라도 동일한 위치에서 특정 오브젝트가 반복적으로 수행하는 이벤트를 포함하고 있다. When a synchronization request signal is input from the outside, the processor 120 receives and analyzes the image collected by the omnidirectional camera 200 immediately after the synchronization request signal is input. The image collected by the omni-directional camera 200 includes an event repeatedly performed by a specific object at a preset position or an arbitrary position at the same position.

프로세서(120)는 분석한 영상에서 이벤트를 수행하는 오브젝트의 위치를 기준 위치로 설정한다. 그리고 프로세서(120)는 영상에서 수집한 해상도를 4개로 분할하여, 90도, 180도, 270도로 설정한다. The processor 120 sets the position of the object performing the event in the analyzed image as the reference position. Then, the processor 120 divides the resolution collected from the image into four and sets 90 degrees, 180 degrees, and 270 degrees.

프로세서(120)는 기준 위치를 설정하면, 레이더 센서(300)가 센싱한 센싱 정보를 수신하여 분석한다. 분석한 센싱 정보를 통해 보안 감시 시스템(100)은 특정 오브젝트가 이벤트를 반복적으로 수행한 위치의 위상을 0도인 기준 위상으로 조정한다. When the reference position is set, the processor 120 receives and analyzes the sensing information sensed by the radar sensor 300 . Through the analyzed sensing information, the security monitoring system 100 adjusts the phase of a position where a specific object repeatedly performs an event to a reference phase of 0 degrees.

프로세서(120)는 분석한 영상에서 설정한 기준 위치에 기준 위상이 대응되도록 하여, 전방향 카메라(200)와 레이더 센서(300)를 동기화한다. 본 발명의 실시예에서는 설명의 편의를 위하여 특정 오브젝트(예를 들어, 사람)가 동일한 장소에서 동일한 움직임(예를 들어, 점프 등)을 반복하면, 이를 전방향 카메라(200)가 수집하는 것을 예로 하여 설명한다.The processor 120 synchronizes the omnidirectional camera 200 and the radar sensor 300 so that the reference phase corresponds to the reference position set in the analyzed image. In the embodiment of the present invention, for convenience of explanation, when a specific object (eg, a person) repeats the same movement (eg, jump, etc.) in the same place, the omnidirectional camera 200 collects it as an example to explain

그리고, 본 발명의 실시예에서는 설명의 편의를 위하여, 동기화 요청 신호가 입력된 직후 전방향 카메라(200)와 레이더 센서(300)가 각각 수집한 영상과 센싱 정보를 '동기화 데이터'라 지칭한다. 또한, 본 발명의 실시예에서는 임의의 오브젝트가 레이더 센서(300)에 구비된 동기화 버튼을 미리 설정한 시간 동안 누르면 동기화 요청 신호가 발생하는 것을 예로 하여 설명한다. In addition, in the embodiment of the present invention, for convenience of explanation, images and sensing information collected by the omnidirectional camera 200 and the radar sensor 300 immediately after the synchronization request signal is input are referred to as 'synchronization data'. In addition, in the embodiment of the present invention, when an arbitrary object presses the synchronization button provided in the radar sensor 300 for a preset time, a synchronization request signal is generated as an example.

프로세서(120)는 전방향 카메라(200)와 레이더 센서(300)를 동기화한 후, 전방향 카메라(200)가 수집한 영상과 레이더 센서(300)가 수집한 센싱 데이터를 분석한다. 그리고 전방향 카메라(200)가 촬영한 영상에서 움직임이 감시된 시점과 레이더 센서(300)가 움직임을 감지한 시점이 미리 설정한 시간 내에 발생하였는지 확인한다. 만약 미리 설정한 시간 내에 두 이벤트가 발생하면, 프로세서(120)는 전방향 카메라(200)가 수집한 영상과 레이더 센서(300)가 수집한 센싱 데이터를 각각 알림 화면으로 생성하여 클라이언트로 제공한다. After synchronizing the omnidirectional camera 200 and the radar sensor 300 , the processor 120 analyzes the image collected by the omnidirectional camera 200 and the sensing data collected by the radar sensor 300 . Then, it is checked whether the time point at which the motion is monitored in the image captured by the omnidirectional camera 200 and the time point at which the motion is detected by the radar sensor 300 occurs within a preset time. If two events occur within a preset time, the processor 120 generates the image collected by the omnidirectional camera 200 and the sensing data collected by the radar sensor 300 as a notification screen, respectively, and provides it to the client.

이를 위해, 프로세서(120)는 메모리(130)에 저장되어 있는 레이더 센서(300)에 대한 배경 데이터와 레이더 센서(300)가 수집한 센싱 정보를 비교하여, 이벤트가 발생하였는지 확인한다. 그리고 프로세서(120)는 전방향 카메라(200)가 수집한 영상과 메모리(130)에 저장되어 있는 관심 영역을 토대로, 오브젝트에 의해 이벤트가 발생하였는지 확인한다. 이벤트 발생 여부에 대해 판단하는 방법에 대해서는 이후 상세히 설명한다.To this end, the processor 120 compares the background data for the radar sensor 300 stored in the memory 130 with the sensing information collected by the radar sensor 300 to confirm whether an event has occurred. In addition, the processor 120 checks whether an event is generated by the object based on the image collected by the omnidirectional camera 200 and the region of interest stored in the memory 130 . A method of determining whether an event has occurred will be described in detail later.

프로세서(120)는 클라이언트로 각각 제공된 알림 화면을 이용하여 감시 정보를 생성한다. 프로세서(120)는 감시 정보를 생성할 때, 먼저 영상으로부터 이벤트가 발생한 발생 순서대로 x좌표, y좌표, 그리고 z좌표 각각에 대한 좌표 값을 추출한다. 그리고, 프로세서(120)는 레이더 센서(300)가 감지한 센싱 데이터에서 이벤트가 발생한 순서대로 위상별 거리 정보를 수집한다. 프로세서(120)는 좌표 값과 위상별 거리 정보를 토대로 오브젝트의 영상을 확대하거나 축소하여 감시 정보로 생성한다.The processor 120 generates monitoring information by using each notification screen provided to the client. When generating monitoring information, the processor 120 first extracts coordinate values for each of the x-coordinate, y-coordinate, and z-coordinate from the image in the order of occurrence of the event. Then, the processor 120 collects distance information for each phase in the order in which events occur in the sensing data sensed by the radar sensor 300 . The processor 120 enlarges or reduces an image of an object based on coordinate values and distance information for each phase to generate monitoring information.

메모리(130)는 레이더 센서(300)가 수집한 배경 데이터, 전방향 카메라(200)에 의해 촬영되는 영상 중 관심 영역에 대한 설정 정보, 그리고 레이더 센서(300)와 전방향 카메라(200)에 대한 동기화 데이터를 저장, 관리한다. 또한, 메모리(130)는 보안 감시 시스템(100)을 실행하기 위한 소프트웨어를 저장한다.The memory 130 includes background data collected by the radar sensor 300 , setting information on a region of interest among images captured by the omni-directional camera 200 , and the radar sensor 300 and the omni-directional camera 200 . Storing and managing synchronization data. In addition, the memory 130 stores software for executing the security monitoring system 100 .

이상에서 설명한 보안 감시 시스템(100)이 보안 감시를 위해 전방향 카메라(200)와 레이더 센서(300)를 초기 설정하는 방법에 대해 도 4를 설명한다. 또한, 초기 설정된 전방향 카메라(200)와 레이더 센서(300)가 수집한 영상과 센싱 정보를 통해 이벤트를 감지하는 방법에 대해 도 5를 참조로 설명한다. A method for the security monitoring system 100 described above to initially set the omnidirectional camera 200 and the radar sensor 300 for security monitoring will be described with reference to FIG. 4 . In addition, a method of detecting an event through the images and sensing information collected by the initially set omnidirectional camera 200 and the radar sensor 300 will be described with reference to FIG. 5 .

도 4는 본 발명의 실시예에 따른 보안 감시 시스템의 초기 설정 방법에 대한 흐름도이다.4 is a flowchart of an initial setting method of a security monitoring system according to an embodiment of the present invention.

도 4에 도시되 바와 같이, 보안 감시 시스템(100)은 레이더 센서(300)가 대한 배경 데이터를 수집한다(S100). 배경 데이터는 레이더 센서(300)가 설치된 장소 내에 오브젝트에 대한 어떠한 움직임이 없을 때 수집한 센싱 정보를 의미한다. 배경 데이터는 위상별 거리 정보와, 품질 정보를 포함하며, 다음 표 1과 같이 수집된다.As shown in FIG. 4 , the security monitoring system 100 collects background data for the radar sensor 300 ( S100 ). The background data refers to sensing information collected when there is no movement of an object in a place where the radar sensor 300 is installed. The background data includes distance information for each phase and quality information, and is collected as shown in Table 1 below.

위상Phase 거리distance 품질quality 39.984439.9844 43814381 4747 41.109441.1094 44214421 4747 53.553.5 28752875 4747 54.734454.7344 29272927 4747

표 1의 각 필드에 대해 설명하면, 레이더 센서(300)가 설치된 위치를 기준으로, 위상 39.9844도에서 벽까지의 거리는 4381mm가 됨을 알 수 있다. 본 발명의 실시예에서는 실내에 레이더 센서(300)가 설치된 것을 예로 하여 설명하므로, 0도부터 360도까지의 위상을 토대로 수집된 거리 정보를 토대로 선을 연결하면 실내 구조가 나타난다. When each field in Table 1 is described, it can be seen that the distance from the wall to the wall at 39.9844 degrees in phase is 4381 mm based on the position where the radar sensor 300 is installed. In the embodiment of the present invention, since the radar sensor 300 is installed indoors as an example, the indoor structure is shown when lines are connected based on the distance information collected based on the phase from 0 degrees to 360 degrees.

표 1에서 품질 정보는 레이더 센서(300)가 센싱한 센싱 정보에 대한 신뢰도로, 전체 오브젝트 탐지 횟수 중 오탐 횟수에 대한 비율을 토대로 계산된 수치이다. 본 발명의 실시예에서는 레이더 센서(300)에 대한 배경 데이터 중 품질 정보가 레이더 센서(300)의 제조업체에서 계산한 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다.In Table 1, the quality information is the reliability of the sensed information sensed by the radar sensor 300, and is a value calculated based on the ratio of the number of false positives among the total number of object detections. In the embodiment of the present invention, although the quality information among the background data for the radar sensor 300 is calculated by the manufacturer of the radar sensor 300 as an example, the description is not necessarily limited thereto.

보안 감시 시스템(100)은 레이더 센서(300)로부터 동기화 요청 신호를 수신한다(S101). 본 발명의 실시예에서는 동기화 요청 신호가 레이더 센서(300)로부터 전송되는 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다.The security monitoring system 100 receives a synchronization request signal from the radar sensor 300 (S101). In the embodiment of the present invention, the synchronization request signal is transmitted from the radar sensor 300 as an example, but is not necessarily limited thereto.

보안 감시 시스템(100)이 동기화 요청 신호를 수신하는 시점에, 임의의 오브젝트는 특정 이벤트를 반복 수행한다. 본 발명의 실시예에서는 사용자가 특정 위치에서 점프를 반복적으로 수행하는 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다.When the security monitoring system 100 receives the synchronization request signal, an arbitrary object repeatedly performs a specific event. In the exemplary embodiment of the present invention, the user repeatedly performs a jump at a specific position as an example, but the present invention is not limited thereto.

보안 감시 시스템(100)은 전방향 카메라(200)가 특정 이벤트를 반복적으로 실행하고 있는 오브젝트를 촬영한 영상을 수신하여 분석한다. 보안 감시 시스템(100)은 이벤트를 실행하고 있는 오브젝트의 위치를 기준 위치로 설정한다(S102). 기준 위치의 좌표는 (0, 0, 0)이 된다. The security monitoring system 100 receives and analyzes an image of an object in which the omnidirectional camera 200 repeatedly executes a specific event. The security monitoring system 100 sets the position of the object executing the event as the reference position (S102). The coordinates of the reference position are (0, 0, 0).

그리고, 보안 감시 시스템(100)은 영상에서 수집한 해상도를 4개로 분할하여, 90도, 180도, 270도로 설정한다. 보안 감시 시스템(100)이 해상도를 분할하는 방법이나, 분할한 화면의 수, 그리고 각도를 설정하는 방법은 여러 방법으로 실행할 수 있으므로, 본 발명의 실시예에서는 상세한 설명을 생략한다.Then, the security monitoring system 100 divides the resolution collected from the image into four, and sets 90 degrees, 180 degrees, and 270 degrees. Since the method of dividing the resolution, the number of divided screens, and the method of setting the angle of the security monitoring system 100 by the security monitoring system 100 can be executed in various ways, a detailed description will be omitted in the embodiment of the present invention.

보안 감시 시스템(100)은 레이더 센서(300)가 센싱한 동기화 데이터를 수신하여 분석한다(S103). 분석한 동기화 데이터를 통해 보안 감시 시스템(100)은 오브젝트가 이벤트를 수행한 위치에 대한 위상을 기준 위상으로 조정한다. 그리고 보안 감시 시스템(100)은 S102 단계에서 분석한 영상에서 기준 위치에 S103 단계에서 분석하여 조정한 기준 위상이 대응되도록 동기화한다(S104).The security monitoring system 100 receives and analyzes the synchronization data sensed by the radar sensor 300 (S103). Through the analyzed synchronization data, the security monitoring system 100 adjusts the phase of the position where the object performed the event as the reference phase. And the security monitoring system 100 synchronizes the reference phase analyzed and adjusted in step S103 to the reference position in the image analyzed in step S102 (S104).

레이더 센서(300)는 S104 단계를 통해 전방향 카메라(200)와 동기화되면, 오브젝트가 이벤트를 수행한 거리 정보를 확인한다. 레이더 센서(300)가 확인한 거리 정보를 수신한 보안 감시 시스템(100)은 오브젝트가 기준 위상 0도를 기준으로 레이더 센서(300)에서 거리(이하, 설명의 편의를 위하여 '기준 거리'라 지칭함)만큼 떨어진 위치에서 이벤트를 수행하고 있음을 감지할 수 있다. When the radar sensor 300 is synchronized with the omnidirectional camera 200 through step S104, information on the distance at which the object has performed the event is checked. The security monitoring system 100 that has received the distance information confirmed by the radar sensor 300 determines the distance of the object from the radar sensor 300 based on the reference phase 0 degrees (hereinafter, referred to as 'reference distance' for convenience of description). It can detect that an event is being performed from a location as far away as possible.

S104 단계까지를 통해 전방향 카메라(200)와 레이더 센서(300)가 동기화된 예에 대하여 도 6을 참조로 먼저 설명한다.An example in which the omnidirectional camera 200 and the radar sensor 300 are synchronized through step S104 will first be described with reference to FIG. 6 .

도 6은 본 발명의 실시예에 따른 전방향 카메라와 센서가 동기화된 예시도이다.6 is an exemplary diagram in which an omnidirectional camera and a sensor are synchronized according to an embodiment of the present invention.

도 6의 (a)에 도시된 바와 같이, 임의의 오브젝트(500)가 특정 위치에서 점프 이벤트를 수행하면, 전방향 카메라(200)가 오브젝트를 촬영한 영상을 수신한 보안 감시 시스템(100)은 오브젝트(500)의 위치를 기준 위치(600-1)로 세팅한다. 그리고 보안 감시 시스템(100)은 영상에서 수집한 해상도(700)를 4개로 분할하여, 기준 위치(600-1)를 0도로 하여 오른쪽부터 90도(600-2), 180도(600-3), 270도(600-4)로 설정한다. As shown in (a) of FIG. 6, when an arbitrary object 500 performs a jump event at a specific location, the security monitoring system 100 that receives the image of the object by the omnidirectional camera 200 is The position of the object 500 is set as the reference position 600-1. And the security monitoring system 100 divides the resolution 700 collected from the image into four, and sets the reference position 600-1 to 0 degrees from the right to 90 degrees (600-2), 180 degrees (600-3) , set to 270 degrees (600-4).

보안 감시 시스템(100)은 레이더 센서(300)가 센싱한 동기화 데이터를 수신, 분석하여, 도 6의 (b)에 나타낸 바와 같이 오브젝트가 이벤트를 수행한 위치에 대한 위상을 0도인 기준 위상(600-5)으로 조정한다. 그리고 도 6의 (a)에 나타낸 기준 위치가 도 6의 (b)에 나타낸 기준 위상에 대응되도록 동기화한다. 이를 통해, 보안 감시 시스템(100)은 기준 위상 0도, 레이더 센서(300)로부터 기준 거리 3m 지점에서 오브젝트에 의해 이벤트가 발생하였음을 확인할 수 있다. The security monitoring system 100 receives and analyzes the synchronization data sensed by the radar sensor 300, and as shown in FIG. -5). And the reference position shown in Fig. 6 (a) is synchronized to correspond to the reference phase shown in Fig. 6 (b). Through this, the security monitoring system 100 may confirm that an event has occurred by the object at a reference phase of 0 degrees and a reference distance of 3 m from the radar sensor 300 .

한편, 도 4를 이어 설명하면, S104 단계를 통해 전방향 카메라(200)와 레이더 센서(300)가 동기화되면, 보안 감시 시스템(100)은 외부로부터 입력되는 영역 설정 정보를 토대로, 관심 영역을 설정한다(S105). 그리고, 관심 영역이 설정되면 전방향 카메라(200)와 레이더 센서(300)의 동기화와 함께 초기 설정을 완료한다(S106). 여기서, S105 단계에서 설정된 관심 영역의 예에 대해 도 7을 참조로 먼저 설명한다.Meanwhile, referring to FIG. 4 , when the omnidirectional camera 200 and the radar sensor 300 are synchronized through step S104 , the security monitoring system 100 sets the region of interest based on the region setting information input from the outside. do (S105). Then, when the region of interest is set, the initial setting is completed together with synchronization of the omnidirectional camera 200 and the radar sensor 300 ( S106 ). Here, an example of the region of interest set in step S105 will first be described with reference to FIG. 7 .

도 7은 본 발명의 실시예에 따른 관심 영역이 설정된 예시도이다.7 is an exemplary diagram in which a region of interest is set according to an embodiment of the present invention.

도 7에 도시된 바와 같이, 외부로부터 영역 설정 정보가 입력되면, 보안 감시 시스템(100)은 관제 화면 상에 설정된 관심 영역을 표시하여 주거나, 영역 내에서 이벤트가 발생하면 이를 보안 감시 시스템(100)을 통해 감시 정보를 수신하는 사용자가 인지할 수 있도록 알려준다. As shown in FIG. 7 , when area setting information is input from the outside, the security monitoring system 100 displays the area of interest set on the control screen, or when an event occurs within the area, the security monitoring system 100 It notifies the user who receives monitoring information so that it can be recognized.

도 7에는 위상 0도에서 레이더 센서(300)로부터 3m 떨어진 지점에 이벤트가 발생하면 이를 감지하도록 설정한 것과, 위상 150도 레이더 센서(300)로부터 4m 떨어진 지점에 이벤트가 발생하면 이를 감지하도록 설정한 것을 나타낸 것이다. 그러나, 위상과 거리를 반드시 이와 같이 한정하지 않는다. 그리고, 본 발명의 실시예에서는 외부로부터 영역 설정 정보를 수신하면 보안 감시 시스템(100)이 관심 영역을 설정하는 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다.7 shows that when an event occurs at a point 3m away from the radar sensor 300 in phase 0 degrees, it is set to detect it, and when an event occurs at a point 4m away from the radar sensor 300 at 150 degrees of phase, it is set to detect it. that has shown However, the phase and distance are not necessarily limited in this way. In addition, in the embodiment of the present invention, the security monitoring system 100 sets a region of interest when receiving region setting information from the outside is described as an example, but the present invention is not limited thereto.

본 발명의 실시예에서는 두 곳이 관심 영역(800-1, 800-2)으로 설정되는 것을 예로 하여 설명하나, 반드시 이와 같이 한정되는 것은 아니다. In the embodiment of the present invention, two locations are set as the ROIs 800 - 1 and 800 - 2 as an example, but the present invention is not limited thereto.

이상의 절차를 통해 전방향 카메라(200)와 레이더 센서(300)가 동기화되고, 초기 설정이 완료된 후, 보안 감시 시스템(100)이 이벤트를 감지하는 방법에 대하여 도 5를 참조로 설명한다.After the omnidirectional camera 200 and the radar sensor 300 are synchronized through the above procedure and the initial setting is completed, a method for the security monitoring system 100 to detect an event will be described with reference to FIG. 5 .

도 5는 본 발명의 실시예에 따른 보안 감시 시스템이 이벤트를 감지하는 방법에 대한 흐름도이다.5 is a flowchart of a method for detecting an event by a security monitoring system according to an embodiment of the present invention.

도 5에 도시된 바와 같이, 보안 감시 시스템(100)은 전방향 카메라(200)와 레이더 센서(300)가 각각 수집한 센싱 정보와 영상을 수신하여 분석한다(S200, S202). 보안 감시 시스템(100)은 레이더 센서(300)로부터 센싱된 센싱 정보를 분석하여 센서에 의해 센싱된 임의의 오브젝트에 의해 위상에 따른 거리에 변화가 있는지 확인한다(S201). 즉, 레이더 센서(300)가 센싱한 센싱 정보를 분석하고, 임의의 위상에 대한 거리 정보가 미리 저장되어 있는 배경 데이터 상의 위상 별 거리 정보와 일치하는지 확인한다.As shown in FIG. 5 , the security monitoring system 100 receives and analyzes sensing information and images collected by the omnidirectional camera 200 and the radar sensor 300 respectively ( S200 and S202 ). The security monitoring system 100 analyzes the sensing information sensed by the radar sensor 300 and confirms whether there is a change in the distance according to the phase by any object sensed by the sensor (S201). That is, the sensing information sensed by the radar sensor 300 is analyzed, and it is checked whether distance information for an arbitrary phase matches the distance information for each phase on previously stored background data.

만약 위상에 따른 거리에 변화가 없다면, 이벤트가 발생하지 않은 것으로 확인하여 S200 단계의 센싱 정보를 수신하는 단계 이후의 절차를 반복한다. 그러나, 위상에 따른 거리에 변화가 있다면, 해당 위치에 임의의 오브젝트에 의해 이벤트가 발생한 것으로 확인한다. If there is no change in the distance according to the phase, it is confirmed that the event has not occurred, and the procedure after the step of receiving the sensing information of step S200 is repeated. However, if there is a change in the distance according to the phase, it is confirmed that the event is caused by an arbitrary object at the corresponding position.

예를 들어, 배경 데이터에 따르면 위상 30도에 대한 거리가 4m라고 가정한다. 그리고 센싱 정보를 분석한 결과 위상 30도에 대한 거리가 2m로 분석되었다고 가정한다. 그러면, 보안 감시 시스템(100)은 동일한 위상에 따른 거리 값에 변화가 발생한 것으로 확인하고, 위상 30도의 2m 지점에 오브젝트가 있어 센싱 이벤트가 발생한 것으로 확인한다.For example, suppose the distance for phase 30 degrees is 4 m according to the background data. And, as a result of analyzing the sensing information, it is assumed that the distance with respect to a phase of 30 degrees is analyzed as 2m. Then, the security monitoring system 100 confirms that a change has occurred in the distance value according to the same phase, and confirms that the sensing event has occurred because there is an object at a point 2m in a phase of 30 degrees.

보안 감시 시스템(100)은 S202 단계에서 분석한 영상에 이벤트가 발생하였는지 확인한다(S203). 만약 이벤트가 존재한다면, S201 단계에서 확인한 센싱 이벤트와 S203 단계에서 확인한 영상 이벤트가 미리 설정한 시간 내에 발생하였는지 판단한다(S204). 본 발명의 실시예에서는 영상 이벤트와 센싱 이벤트 사이의 발생 시간 간격을 어느 하나의 시간으로 한정하지 않는다.The security monitoring system 100 checks whether an event has occurred in the image analyzed in step S202 (S203). If the event exists, it is determined whether the sensing event confirmed in step S201 and the image event confirmed in step S203 have occurred within a preset time (S204). In an embodiment of the present invention, the time interval between the image event and the sensing event is not limited to any one time period.

미리 설정한 시간 내에 영상 이벤트와 센싱 이벤트가 발생하지 않았다면, 이는 최종적으로 이벤트가 발생하지 않은 것이라 판단하고 S200과 S202 단계부터 절차를 반복 실행한다. 그러나, 영상 이벤트와 센싱 이벤트가 미리 설정한 시간 내에 발생하면, 보안 감시 시스템(100)은 클라이언트로 이벤트 알림 화면을 송출하여 이벤트가 발생하였음을 알리고(S205), 이와 동시에 감시 정보를 생성하여 제공한다(S206).If the image event and the sensing event do not occur within the preset time, it is finally determined that the event has not occurred and the procedure is repeated from steps S200 and S202. However, when the video event and the sensing event occur within a preset time, the security monitoring system 100 sends an event notification screen to the client to notify that the event has occurred (S205), and at the same time generates and provides monitoring information (S206).

여기서, S205 단계에서 보안 감시 시스템(100)이 알린 이벤트 알림 화면과 S206 단계에서 생성한 감시 정보는 다음 도 8 및 도 9에 나타낸 바와 같다. 먼저 이벤트 알림 화면에 대해 도 8을 참조로 설명한다.Here, the event notification screen notified by the security monitoring system 100 in step S205 and the monitoring information generated in step S206 are as shown in FIGS. 8 and 9 below. First, an event notification screen will be described with reference to FIG. 8 .

도 8은 본 발명의 실시예에 따른 알림 화면에 대한 예시도이다.8 is an exemplary diagram of a notification screen according to an embodiment of the present invention.

도 8의 (a)는 전방향 카메라(200)가 확인한 오브젝트에 의한 이벤트 발생 시, 이벤트가 발생한 순서대로 화면으로 영상 움직임을 제공하는 것을 나타낸 것이다. 그리고 도 8의 (b)는 레이더 센서(300)가 확인한 오브젝트에 의한 이벤트 발생 시, 오브젝트의 이동 정보를 수집하여 제공한 것을 나타낸 예시도이다.FIG. 8A illustrates that, when an event is generated by an object checked by the omni-directional camera 200, image motion is provided to the screen in the order in which the event occurred. And FIG. 8(b) is an exemplary diagram illustrating that when an event occurs by an object confirmed by the radar sensor 300, movement information of the object is collected and provided.

도 8의 (a)에 도시된 바와 같이, 오브젝트(500)가 제1 관심 영역(800-1)에서 제2 관심 영역(800-2)으로 이동하면, 보안 감시 시스템(100)은 오브젝트가 이벤트를 발생한 발생 순서대로 제1 관심 영역(800-1)에서 제2 관심 영역(800-2)으로 이동하였음을 영상 이벤트로 제공한다. 이때, 보안 감시 시스템(100)은 오브젝트(500)의 움직임에 따라, 전방향 카메라(200)가 추출한 x, y, z 좌표를 확인한다. As shown in (a) of FIG. 8 , when the object 500 moves from the first region of interest 800-1 to the second region of interest 800-2, the security monitoring system 100 determines that the object is an event. The moving from the first region of interest 800-1 to the second region of interest 800-2 is provided as an image event in the order of occurrence. In this case, the security monitoring system 100 checks the x, y, and z coordinates extracted by the omnidirectional camera 200 according to the movement of the object 500 .

즉, 전방향 카메라(200)는 제1 관심 영역(800-1)에 나타났을 때의 좌표와 제2 관심 영역(800-2)으로 이동하였을 때의 좌표를 각각 산출하고, 보안 감시 시스템(100)은 전방향 카메라(200)가 산출한 좌표를 확인한다. 전방향 카메라(200)가 좌표를 산출하는 방법이나, 보안 감시 시스템(100)이 산출한 좌표를 확인하는 방법은 다양한 방법으로 실행될 수 있으므로, 본 발명의 실시예에서는 어느 하나의 방법으로 한정하지 않는다.That is, the omnidirectional camera 200 calculates the coordinates when it appears in the first region of interest 800-1 and the coordinates when it moves to the second region of interest 800-2, respectively, and the security monitoring system 100 ) confirms the coordinates calculated by the omnidirectional camera 200 . The method for calculating the coordinates by the omnidirectional camera 200 or the method for checking the coordinates calculated by the security monitoring system 100 may be performed in various ways, so the embodiment of the present invention is not limited to any one method. .

그리고 도 8의 (b)에 도시된 바와 같이, 보안 감시 시스템(100)은 레이더 센서(300)로부터 전송되는 센싱 정보를 토대로, 오브젝트(500)가 위상 0도와 3m 거리에서 위상 150도 4m 거리로 이동하였음을 확인할 수 있다. 여기서, 레이더 센서(300)가 오브젝트(500)의 이동 정보는 다음 표 2와 같다.And as shown in (b) of Figure 8, the security monitoring system 100, based on the sensing information transmitted from the radar sensor 300, the object 500 from the phase 0 degree and 3m distance from the phase 150 degree 4m distance You can see that it has moved. Here, information on the movement of the object 500 by the radar sensor 300 is shown in Table 2 below.

배경 데이터background data 센싱 정보sensing information 위상Phase 거리distance 품질quality 위상Phase 거리distance 품질quality -- 0.54690.5469 599599 4747 -- 1.92191.9219 593593 4747 -- 2.90632.9063 586586 4747 -- 3.90633.9063 584584 4747 38.984438.9844 43814381 4747 28.703128.7031 53465346 4747 41.109441.1094 44214421 4747 40.984440.9844 43934393 4747 -- 42.093842.0938 44194419 4747 53.553.5 28752875 4747 45.687545.6875 27612761 4747 54.734454.7344 29272927 4747 54.609454.6094 28842884 4747

표 2의 좌측에 "배경 데이터" 필드에 해당하는 위상, 거리, 품질 정보는 상기 표 1에서 언급한 배경 데이터에 대한 사항이다. 그리고 우측 "센싱 정보" 필드에 해당하는 위상, 거리, 품질 정보는 레이더 센서(300)가 오브젝트(500)의 이동 정보를 확인한 사항이다.The phase, distance, and quality information corresponding to the "background data" field on the left side of Table 2 is for the background data mentioned in Table 1 above. In addition, the phase, distance, and quality information corresponding to the right "sensing information" field is a matter in which the radar sensor 300 confirms the movement information of the object 500 .

표 2에 나타낸 바와 같이, 최초 배경 데이터를 수집할 때와 비교하여 측정된 센싱 정보에 따르면, 오브젝트(500)가 위상 0.5469도, 599mm 거리에 위치하여 센싱 이벤트가 발생한 것으로 확인한다.As shown in Table 2, according to the sensed information measured compared with the time of collecting the initial background data, it is confirmed that the object 500 is positioned at a phase of 0.5469 degrees and a distance of 599 mm and a sensing event has occurred.

보안 감시 시스템(100)은 도 8에 나타낸 알림 화면으로부터 확인한 오브젝트(500)의 움직임에 따라 추출한 좌표와 클라이언트로 제공할 감시 정보를 생성하여 제공한다. 본 발명의 실시예에서는 클라이언트로 제공할 감시 정보를 이벤트를 발생시킨 오브젝트(500)의 이동 방향으로 제공하거나, 전방향 카메라(200)로부터 멀리 떨어져 잘 보이지 않는 오브젝트(500)에 대해서는 레이더 센서(300)의 거리 정보를 토대로 배율을 설정하여 확대된 영상을 제공할 수 있다.The security monitoring system 100 generates and provides the coordinates extracted according to the movement of the object 500 checked from the notification screen shown in FIG. 8 and monitoring information to be provided to the client. In the embodiment of the present invention, monitoring information to be provided to the client is provided in the moving direction of the object 500 that generated the event, or the radar sensor 300 ), an enlarged image can be provided by setting a magnification based on the distance information.

도 9는 본 발명의 실시예에 따른 레이더 센서와 전방향 카메라의 연동에 따라 제공되는 감시 정보에 대한 예시도이다.9 is an exemplary diagram of monitoring information provided according to interworking of a radar sensor and an omnidirectional camera according to an embodiment of the present invention.

도 9의 (a)에 도시된 바와 같이, 보안 감시 시스템(100)은 레이더 센서(300)가 센싱한 오브젝트와의 거리 정보, 그리고 전방향 카메라(200)가 확인한 좌표 정보를 활용하여, 오브젝트에 대한 이미지를 확대(zoom-in)하거나 축소(zoom-out)하여 감시 정보로 제공한다.As shown in (a) of Figure 9, the security monitoring system 100 utilizes the distance information to the object sensed by the radar sensor 300, and the coordinate information confirmed by the omnidirectional camera 200, to the object It provides monitoring information by enlarging (zoom-in) or zoom-out (zoom-out) the image for

즉, 오브젝트가 레이더 센서(300)를 기준으로 제1 관심 영역(800-1)으로 설정된 위상 0도/3m 떨어진 거리에 진입하면 보안 감시 시스템(100)은 오브젝트의 추적을 시작한다. 그리고, 오브젝트(500)가 제2 관심 영역(800-2)으로 설정된 위상 150도에서 2m 떨어진 위치를 통해 다른 곳으로 이동하면, 제2 관심 영역(800-2)으로 설정한 지점까지 오브젝트를 추적한다.That is, when the object enters a distance of 0 degrees/3 m in phase set as the first region of interest 800 - 1 based on the radar sensor 300 , the security monitoring system 100 starts tracking the object. Then, when the object 500 moves to another place through a position 2 m away from the phase 150 degrees set as the second region of interest 800 - 2 , the object is tracked up to the point set as the second region of interest 800 - 2 . do.

이때, 전방향 카메라(200)가 촬영한 3m 떨어진 오브젝트와 2m 떨어진 오브젝트는 클라이언트(400)가 오브젝트의 정확한 형태를 파악하기 어렵다. 따라서, 도 9의 (b)에 나타낸 바와 같이 오브젝트 추적 구간에서 멀리 떨어져 있는 오브젝트는 영상을 확대하여 제공하고, 전방향 카메라(200)에 가까이 이동하여 클라이언트(400)가 파악하기 쉬운 오브젝트에 대해서는 영상을 확대하지 않고 제공한다.In this case, it is difficult for the client 400 to grasp the exact shape of an object 3 m away and an object 2 m away captured by the omnidirectional camera 200 . Therefore, as shown in (b) of FIG. 9, an object far away from the object tracking section provides an enlarged image, and for an object that is easy to grasp by the client 400 by moving closer to the omnidirectional camera 200, the image is provided without magnification.

이를 위해, 보안 감시 시스템(100)은 다음 표 3과 같이 레이더 센서의 거리 정보를 토대로 영상 재생 시 줌 배율을 설정하여 확대/축소하여 제공한다.To this end, the security monitoring system 100 enlarges/reduces and provides a zoom factor when reproducing an image based on the distance information of the radar sensor as shown in Table 3 below.

이벤트 발생event occurs 이동 1move 1 이동 2move 2 이동 3move 3 레이더 센서radar sensor 위상Phase 0도0 degrees 45도45 degrees 09도09 degrees 150도 150 degrees 거리distance 3m3m 0.5m0.5m 1m1m 2m2m 전방향
카메라
omnidirectional
camera
좌표 X
(0~2160픽셀)
coordinate X
(0-2160 pixels)
900900 10801080 12001200 15001500
좌표 Y
(0~1440픽셀)
Coordinate Y
(0-1440 pixels)
800800 12001200 11001100 900900
좌표 Z
(0~8배 확대)
Coordinate Z
(0 to 8 times magnification)
4배 확대4x magnification 1배 확대1x magnification 2배 확대2x magnification 3배 확대3x magnification

표 3과 도 9의 (a)를 함께 살펴보면, 추적이 시작된 0도 위상의 3m 떨어진 위치의 오브젝트는, 거리 정보에 비례하여 4배 줌으로 영상을 확대하여 클라이언트에게 제공한다. 그리고, 45도 위상의 0.5m 떨어진 클라이언트는 영상을 확대하지 않더라도 클라이언트(400)가 오브젝트를 판별할 수 있으므로 영상 확대 없이 제공한다.Referring to Table 3 and FIG. 9(a) together, an object at a location 3 m away with a phase of 0 degrees from which tracking is started is provided to the client by magnifying an image by 4 times in proportion to the distance information. And, since the client 400 can determine the object even if the client 400 is not enlarged, the image is provided without magnification of the client 0.5m away from the 45 degree phase.

이와 같이, 레이더 센서(300)가 센싱한 오브젝트의 거리 정보에 따라 전방향 카메라(200)의 x, y, z 좌표를 활용하여 전방향 카메라(200)의 앵글을 자동으로 오브젝트에 향하도록 이동시킨다. 이와 동시에 전방향 카메라(200)의 z 좌표에 해당하는 PTZ를 조절하여 영상을 확대/축소하여 수집할 수도 있다.In this way, the angle of the omnidirectional camera 200 is automatically moved toward the object by using the x, y, z coordinates of the omnidirectional camera 200 according to the distance information of the object sensed by the radar sensor 300 . At the same time, by adjusting the PTZ corresponding to the z coordinate of the omni-directional camera 200, the image may be enlarged/reduced and collected.

이상에서 본 발명의 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다.Although the embodiments of the present invention have been described in detail above, the scope of the present invention is not limited thereto. is within the scope of the right.

Claims (14)

센서와 전방향 카메라와 연동한 보안 감시 시스템이 감시하는 방법으로서,
상기 센서가 특정 오브젝트를 센싱하여 수집한 위상 별 거리 정보와 상기 전방향 카메라가 상기 특정 오브젝트를 촬영한 영상을 토대로, 상기 센서와 전방향 카메라를 동기화하는 단계,
오브젝트에 의한 이벤트를 감지하기 위하여 적어도 하나의 관심 영역을 설정하는 단계, 그리고
상기 센서 및 전방향 카메라가 상기 관심 영역을 지나는 임의의 오브젝트를 센싱하고 영상을 수집하면, 상기 임의의 오브젝트에 대한 센싱 정보와 영상을 수신한 시간 차를 토대로 이벤트 발생을 알리는 단계
를 포함하는 보안 감시 방법.
A method for monitoring by a security monitoring system interlocked with a sensor and an omnidirectional camera, the method comprising:
Synchronizing the sensor and the omni-directional camera based on the distance information for each phase collected by the sensor sensing the specific object and the image captured by the omni-directional camera of the specific object;
setting at least one region of interest to detect an event by the object; and
When the sensor and the omni-directional camera sense an arbitrary object passing the ROI and collect an image, notifying the occurrence of an event based on the time difference between the sensing information on the arbitrary object and the reception of the image
A security monitoring method comprising a.
제1항에 있어서,
상기 동기화하는 단계는,
외부로부터 동기화 요청 신호를 수신하는 단계,
상기 전방향 카메라로부터 전송되는 임의의 위치에서 특정 이벤트를 실행하는 상기 특정 오브젝트에 대한 영상을 분석하고, 상기 특정 오브젝트의 위치를 기준 위치로 설정하는 단계,
상기 특정 오브젝트에 대한 센싱 정보를 상기 센서로부터 수신하고, 센싱 정보에 포함된 상기 특정 오브젝트의 위상을 기준 위상으로 조정하는 단계, 그리고
상기 기준 위치에 상기 기준 위상을 매핑하여 상기 전방향 카메라와 센서를 동기화하는 단계
를 포함하는 보안 감시 방법.
According to claim 1,
The synchronizing step is
Receiving a synchronization request signal from the outside;
analyzing an image of the specific object executing a specific event at an arbitrary position transmitted from the omni-directional camera, and setting the position of the specific object as a reference position;
receiving the sensing information for the specific object from the sensor, and adjusting the phase of the specific object included in the sensing information as a reference phase; and
Synchronizing the omni-directional camera and the sensor by mapping the reference phase to the reference position
A security monitoring method comprising a.
제2항에 있어서,
상기 기준 위치로 설정하는 단계는,
상기 기준 위치는 0도로 설정하는 단계, 그리고
상기 전방향 카메라로부터 전송된 영상으로부터 수집한 해상도를 미리 설정한 수로 분할하여, 90도 180도 및 270도를 설정하는 단계
를 포함하는 보안 감시 방법.
3. The method of claim 2,
The step of setting the reference position is,
setting the reference position to 0 degrees, and
dividing the resolution collected from the image transmitted from the omni-directional camera into a preset number, and setting 90 degrees 180 degrees and 270 degrees
A security monitoring method comprising a.
삭제delete 제2항에 있어서,
상기 이벤트 발생을 알리는 단계는,
상기 전방향 카메라로부터 상기 관심 영역을 지나는 임의의 오브젝트에 대한 영상을 수신하는 단계,
상기 센서로부터 상기 임의의 오브젝트에 대한 센싱 정보를 수신하는 단계,
상기 영상을 수신한 시점과 상기 센싱 정보를 수신한 시점이, 미리 설정한 시간 내에 발생하는지 확인하는 단계, 그리고
상기 미리 설정한 시간 내에 상기 센싱 정보와 영상을 수신하면, 이벤트가 발생한 것으로 확인하는 단계
를 포함하는 보안 감시 방법.
3. The method of claim 2,
The step of notifying the occurrence of the event is
Receiving an image of an arbitrary object passing through the ROI from the omni-directional camera;
Receiving sensing information on the arbitrary object from the sensor;
checking whether the time at which the image is received and the time at which the sensing information is received occur within a preset time, and
When the sensing information and the image are received within the preset time, confirming that an event has occurred
A security monitoring method comprising a.
제5항에 있어서,
상기 센싱 정보를 수신하는 단계는,
센싱 정보에 포함된 위상별 거리 정보를 확인하는 단계,
상기 확인한 위상별 거리 정보와 배경 데이터에 포함된 위상별 거리 정보를 비교하는 단계, 그리고
임의의 위상에 대하여 저장된 배경 데이터상 거리와 센싱 정보에 포함된 거리가 차이가 있으면, 상기 임의의 오브젝트를 탐지한 것으로 확인하는 단계
를 포함하고
상기 위상별 거리 정보는 상기 센서에서부터 상기 센서가 설치된 설치 영역 내 벽까지의 거리 정보인 보안 감시 방법.
6. The method of claim 5,
Receiving the sensing information comprises:
checking the distance information for each phase included in the sensing information;
comparing the identified distance information for each phase with the distance information for each phase included in the background data, and
If there is a difference between the distance on the background data stored for the arbitrary phase and the distance included in the sensing information, confirming that the arbitrary object is detected
includes
The distance information for each phase is distance information from the sensor to a wall in an installation area where the sensor is installed.
제1항에 있어서,
상기 이벤트 발생을 알리는 단계 이후에,
상기 이벤트가 발생한 순서에 따라 상기 오브젝트의 이동 경로를 포함하는 감시 정보를 생성하는 단계
를 포함하고,
상기 이동 경로상의 오브젝트는, 상기 센서가 상기 임의의 오브젝트를 탐지한 센싱 정보의 위상별 거리를 토대로 상기 전방향 카메라가 상기 임의의 오브젝트를 촬영한 영상을 확대 또는 축소하여 제공하는 보안 감시 방법.
According to claim 1,
After the step of notifying the occurrence of the event,
Generating monitoring information including the movement path of the object according to the order in which the event occurred
including,
The object on the moving path is a security monitoring method in which the omni-directional camera enlarges or reduces an image captured by the arbitrary object based on the distance for each phase of sensing information that the sensor detects the arbitrary object.
센서와 전방향 카메라와 연동한 보안 감시 시스템으로서,
상기 센서와 통신하여 배경 데이터, 특정 오브젝트로부터 수집한 동기화를 위한 센싱 정보, 그리고 설정된 관심 영역을 지나는 임의의 오브젝트를 센싱한 센싱 정보를 수신하고, 상기 전방향 카메라와 통신하여 상기 특정 오브젝트와 상기 임의의 오브젝트에 대한 영상을 수신하는 통신부,
상기 특정 오브젝트로부터 수집한 동기화를 위한 센싱 정보와 영상을 토대로 상기 센서와 전방향 카메라를 동기화하고, 상기 배경 데이터, 임의의 오브젝트에 대한 센싱 정보와 영상을 토대로 이벤트 발생을 탐지하여 감시 정보를 생성하는 프로세서, 그리고
상기 센서로부터 수신한 기준 데이터, 상기 설정한 관심 영역, 그리고 센서와 전방향 카메라의 동기화 정보를 저장하는 메모리
를 포함하는 보안 감시 시스템.
As a security monitoring system interlocked with a sensor and an omni-directional camera,
It communicates with the sensor to receive background data, sensing information for synchronization collected from a specific object, and sensing information for sensing an arbitrary object passing through a set ROI, and communicates with the omnidirectional camera to communicate with the specific object and the arbitrary A communication unit that receives an image of an object of
The sensor and the omni-directional camera are synchronized based on the sensing information and the image for synchronization collected from the specific object, and the occurrence of an event is detected based on the background data and the sensing information and the image for an arbitrary object to generate monitoring information. processor, and
A memory for storing reference data received from the sensor, the set region of interest, and synchronization information between the sensor and the omnidirectional camera
A security monitoring system comprising a.
제8항에 있어서,
상기 프로세서는,
상기 센서와 전방향 카메라에 대한 동기화 요청 신호를 수신하면, 상기 전방향 카메라로부터 전송된 영상을 분석하여, 상기 특정 오브젝트의 위치를 기준 위치로 설정하고,
상기 센서로부터 수신한 동기화를 위한 센싱 정보를 분석하여, 상기 특정 오브젝트에 대한 위상을 기준 위상으로 설정하며,
상기 기준 위치와 기준 위상을 매핑하여 상기 센서와 전방향 카메라를 동기화하는 보안 감시 시스템.
9. The method of claim 8,
The processor is
When a synchronization request signal for the sensor and the omni-directional camera is received, the image transmitted from the omni-directional camera is analyzed and the position of the specific object is set as a reference position,
By analyzing the sensing information for synchronization received from the sensor, the phase for the specific object is set as a reference phase,
A security monitoring system for synchronizing the sensor and the omni-directional camera by mapping the reference position and the reference phase.
제9항에 있어서,
상기 프로세서는,
상기 특정 오브젝트에 대한 영상으로부터 수집한 해상도를 미리 설정한 수로 분할하여, 상기 기준 위치를 기준으로 90도, 180도 및 270도를 설정하는 보안 감시 시스템.
10. The method of claim 9,
The processor is
A security monitoring system for setting 90 degrees, 180 degrees and 270 degrees based on the reference position by dividing the resolution collected from the image for the specific object into a preset number.
제10항에 있어서,
상기 프로세서는,
외부로부터 입력되는 영역 설정 정보를 토대로, 관심 영역을 설정하는 보안 감시 시스템.
11. The method of claim 10,
The processor is
A security monitoring system that sets an area of interest based on area setting information input from the outside.
삭제delete 제11항에 있어서,
상기 프로세서는,
상기 임의의 오브젝트가 상기 관심 영역에 위치하여 상기 임의의 오브젝트에 대한 이벤트 발생 시점과 상기 임의의 오브젝트에 대한 영상을 수신한 시점을 비교하여 미리 설정한 시간 내에 발생한 것으로 확인하면, 상기 임의의 오브젝트에 의해 이벤트가 발생한 것으로 알리는 보안 감시 시스템.
12. The method of claim 11,
The processor is
When the arbitrary object is located in the ROI and it is confirmed that the event occurred within a preset time by comparing the time of occurrence of the event for the arbitrary object and the time of receiving the image of the arbitrary object, the object is A security monitoring system that notifies that an event has occurred by
제13항에 있어서,
상기 프로세서는,
상기 임의의 오브젝트의 센싱 정보로부터 확인한 거리 정보를 토대로, 상기 영상 속 오브젝트의 영상을 확대하거나 축소하여 감시 정보로 생성하는 보안 감시 시스템.
14. The method of claim 13,
The processor is
A security monitoring system for generating monitoring information by enlarging or reducing an image of an object in the image based on distance information confirmed from the sensing information of the arbitrary object.
KR1020170082621A 2017-06-29 2017-06-29 System and method for security KR102441436B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170082621A KR102441436B1 (en) 2017-06-29 2017-06-29 System and method for security

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170082621A KR102441436B1 (en) 2017-06-29 2017-06-29 System and method for security

Publications (2)

Publication Number Publication Date
KR20190002142A KR20190002142A (en) 2019-01-08
KR102441436B1 true KR102441436B1 (en) 2022-09-07

Family

ID=65021124

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170082621A KR102441436B1 (en) 2017-06-29 2017-06-29 System and method for security

Country Status (1)

Country Link
KR (1) KR102441436B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112346052A (en) * 2020-11-04 2021-02-09 西安宝瑞达电子科技有限责任公司 Multi-sensor-based horizontal omnidirectional life information non-contact detection system and method
KR102383966B1 (en) * 2021-03-02 2022-04-08 주식회사 에이스티앤비 Video surveillance system and method for composing, presenting, retrieving and controlling multi-channel video data and sensor data

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200413332Y1 (en) 2006-01-24 2006-04-07 (주) 하나계전 Security Monitoring System Using Sensor And Camera
KR101207462B1 (en) 2011-05-31 2012-12-03 전자부품연구원 System for sensor revision used image information and distant-angle information

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101121153B1 (en) * 2009-12-08 2012-03-19 (주) 알디텍 Method and system for synchronizing video signal and sensor signal
KR101179131B1 (en) * 2010-07-20 2012-09-07 허병도 Monitoring system using synthetic simultaneous monitoring camera with pan/tilt/zoom function
KR20150137778A (en) * 2014-05-30 2015-12-09 양범석 Omnidirectional camera system using detecting sensor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR200413332Y1 (en) 2006-01-24 2006-04-07 (주) 하나계전 Security Monitoring System Using Sensor And Camera
KR101207462B1 (en) 2011-05-31 2012-12-03 전자부품연구원 System for sensor revision used image information and distant-angle information

Also Published As

Publication number Publication date
KR20190002142A (en) 2019-01-08

Similar Documents

Publication Publication Date Title
TWI580273B (en) Surveillance system
US7385626B2 (en) Method and system for performing surveillance
US7106333B1 (en) Surveillance system
EP2274654B1 (en) Method for controlling an alarm management system
KR101248054B1 (en) Object tracking system for tracing path of object and method thereof
US20100141767A1 (en) Semi-Automatic Relative Calibration Method for Master Slave Camera Control
KR20100103109A (en) Apparatus and method for unmanned surveillance using omni-directional camera and pan/tilt/zoom camera
KR20140108035A (en) System and method for managing car parking
KR102441436B1 (en) System and method for security
KR102333803B1 (en) System and method for setting of video surveillance area
JP4250172B2 (en) Object detection method and object detection apparatus
JP7176868B2 (en) monitoring device
KR102630275B1 (en) Multi-camera fire detector
JP2007243270A (en) Video image surveillance system and method therefor
US20190197850A1 (en) Video surveillance apparatus and method
KR102270858B1 (en) CCTV Camera System for Tracking Object
WO2005120070A2 (en) Method and system for performing surveillance
KR20110079953A (en) Method and apparatus for processing an object surveilance by setting a surveillance area
JP4038878B2 (en) Fire detection device using image processing
JP2011197884A (en) Apparatus and method for detecting fire
US20230064953A1 (en) Surveillance device, surveillance system, and surveillance method
KR20240002340A (en) System and method for surveilling video using collaboration of PTZ cameras, and a recording medium recording a computer readable program for executing the method
JP2005236724A (en) Imaging device and motion detection method
KR101824806B1 (en) Method for setting and restoring position of object sensor
JPS62276985A (en) Picture supervisory system

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant