KR101852058B1 - unexpected accident detecting method using dual camera - Google Patents

unexpected accident detecting method using dual camera Download PDF

Info

Publication number
KR101852058B1
KR101852058B1 KR1020170157271A KR20170157271A KR101852058B1 KR 101852058 B1 KR101852058 B1 KR 101852058B1 KR 1020170157271 A KR1020170157271 A KR 1020170157271A KR 20170157271 A KR20170157271 A KR 20170157271A KR 101852058 B1 KR101852058 B1 KR 101852058B1
Authority
KR
South Korea
Prior art keywords
image
unexpected
detected
ping
final
Prior art date
Application number
KR1020170157271A
Other languages
Korean (ko)
Inventor
정준호
안정환
김지태
Original Assignee
주식회사 아이티아이비전
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 아이티아이비전 filed Critical 주식회사 아이티아이비전
Priority to KR1020170157271A priority Critical patent/KR101852058B1/en
Application granted granted Critical
Publication of KR101852058B1 publication Critical patent/KR101852058B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • H04N5/2258
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to an unexpected situation detection method using a dual camera, using a camera and a thermal image camera to detect and track an object, thus detecting an obstacle, which is not detected when a single camera is operated, and remarkably increasing the levels of accuracy and reliability of determination with respect to occurrence of an unexpected situation due to a huge amount of collected data; configured to determine a reference image according to a visibility condition and displaying an object which is different from the reference image and generating an integrated image, thus efficiently providing information through an image; and allowing an unexpected situation management unit to track the locus of a final object to determine fog, a vehicle accident, icing, reverse running, a fallen object, illegal parking and stopping, a slow vehicle, a passenger, etc., to generate unexpected situation occurrence data informing of the occurrence of the unexpected situation, thus using the huge amount of collected data to quickly and correctly determine the unexpected situation. According to the present invention, the method comprises a photographing step, a calibration step, an image analysis step, and a thermal image analysis step.

Description

듀얼 카메라를 이용한 돌발 상황 감지방법{unexpected accident detecting method using dual camera}[0001] The present invention relates to an unexpected accident detecting method using a dual camera,

본 발명은 듀얼 카메라를 이용한 돌발 상황 감지방법에 관한 것으로서, 상세하게로는 가시광 카메라 및 열화상 카메라를 이용하여 오브젝트 트랙킹(Object tracking)을 수행함으로써 열약한 시계환경에서도 오브젝트를 정확하게 검출함과 동시에 수집되는 데이터가 방대하여 감지율을 높일 수 있고, 돌발 상황 발생여부에 대한 판단의 정확성 및 신뢰도를 높일 수 있는 돌발 상황 감지방법에 관한 것이다.The present invention relates to a method of detecting an unexpected situation using a dual camera, and more particularly, to an object tracking method using a visible light camera and a thermal imager to accurately detect an object even in a frustrating clock environment, The present invention relates to an unexpected situation detection method capable of increasing the detection rate and improving the accuracy and reliability of the judgment as to whether or not an unexpected event has occurred.

영상기술 및 장비가 발달함에 따라 촬영된 영상을 분석하여 객체(Object)를 검출 및 트랙킹(Tracking) 하여 이벤트 발생 여부를 감지하는 지능형 영상 감시 기술의 수요도가 기하급수적으로 증가하고 있다.The demand for intelligent video surveillance technology that detects the occurrence of an event by detecting and tracking an object by analyzing the captured image as the video technology and equipment are developed is increasing exponentially.

현재 지능형 영상 감시 기술에 적용되는 카메라는 일반적으로 가시광 카메라가 널리 사용되고 있으나, 이러한 가시광 카메라는 직사광선의 유입, 빛의 산란, 부족한 광량 및 조도 등의 다양한 원인으로 인해 객체(Object)를 검출하지 못하여 신뢰도가 떨어지는 구조적 한계를 갖는다.Currently, cameras used in intelligent video surveillance technology are widely used in visible light cameras, but such visible light cameras can not detect objects due to various causes such as direct sunlight, scattering of light, insufficient amount of light and illumination, Which has a structural limit of falling.

이에 따라 열약한 시계환경에서 소망의 목적을 수행하지 못하는 가시광 카메라의 문제점을 해결하기 위하여 적외선 카메라, 열화상 카메라 등과 같은 특수카메라에 대한 연구가 다양하게 진행되고 있다.Accordingly, in order to solve the problem of the visible light camera which can not perform the desired purpose in the weak clock environment, researches on special cameras such as an infrared camera, a thermal camera, and the like are being carried out variously.

다른 한편, 최근 정보통신 기술이 발달하고 텔레매틱스 기기의 보급 및 유비쿼터스 환경이 구축됨에 따라 지능형 교통시스템(ITS, Intelligent Transportation System)이 연구되어 널리 사용되고 있다.On the other hand, intelligent transportation system (ITS, Intelligent Transportation System) has been researched and widely used due to recent development of information communication technology, provision of telematics devices and establishment of ubiquitous environment.

이러한 지능형 교통시스템(ITS)은 1차적으로 차량에 관한 다양한 데이터들을 수집한 후 수집된 방대한 데이터들을 분석 및 가공하여 돌발 상황 발생여부를 판단함과 동시에 교통정보를 생성하도록 구성되기 때문에 차량에 관한 데이터들을 얼마나 정확하게 수집할 수 있는지에 따라 지능형 교통시스템(ITS)의 성능, 신뢰도 및 정확성이 결정되고, 이에 따라 차량 감지의 정확성 및 효율성을 높이기 위한 다양한 연구가 진행되고 있다.Since the intelligent traffic system (ITS) collects various data related to the vehicle and analyzes and processes vast amount of collected data to determine whether an unexpected situation occurs, and to generate traffic information, Reliability and accuracy of Intelligent Transportation System (ITS) are determined according to how accurate the vehicles can be collected, and accordingly various studies are being conducted to improve the accuracy and efficiency of vehicle detection.

이에 따라 지능형 교통시스템(ITS)에 지능형 영상 감시 기술을 접목시켜 현장을 모니터링 할 수 있을 뿐만 아니라 돌발 상황을 효율적으로 감지하기 위한 시스템에 대한 연구가 다양하게 이루어지고 있다.As a result, intelligent video surveillance (ITS) technology is integrated with ITS to monitor the site, and various researches have been conducted on systems for efficiently detecting unexpected situations.

도 1은 국내등록특허 제10-1370627호(발명의 명칭 : 열화상 카메라를 이용한 차량 정보 인식 방법 및 장치)에 개시된 열화상 카메라를 이용한 차량 정보 인식 방법을 나타내는 순서도이다.1 is a flowchart showing a vehicle information recognition method using a thermal imaging camera disclosed in Korean Patent No. 10-1370627 (entitled "Method and Apparatus for Recognizing Vehicle Information Using a Thermal Camera").

도 1의 열화상 카메라를 이용한 차량 정보 인식 방법(이하 종래기술이라고 함)(S900)은 열화상 카메라가 상기 열화상 카메라를 장착한 차량의 온도를 감지하는 차량 온도 감지단계(S910)와, 차량 온도 감지단계(S910)에 의해 감지된 온도에 따른 열화상 이미지를 생성하는 열화상 이미지 생성단계(S920)와, 열화상 이미지 생성단계(S920)에 의해 생성된 열화상 이미지를 기 설정된 패턴과 비교하는 패턴 비교단계(S930)와, 패턴 비교단계(S930)를 통해 차량의 주행 정보를 인식하되 열화상 이미지가 기 설정된 주행패턴의 임계값 이상이면 가속, 급발진 및 급정지 중 적어도 하나를 차량의 주행정보로 판단하여 주행정보에 대응하는 주행방법을 제공하는 주행방법 제공단계(S940)로 이루어진다.The vehicle information recognition method (hereinafter referred to as " prior art ") S900 using the thermal imaging camera of Fig. 1 includes a vehicle temperature sensing step S910 of sensing the temperature of the vehicle on which the thermal imaging camera is mounted, (S920) for generating an infrared image according to the temperature sensed by the temperature sensing step (S910), comparing the thermal image generated by the infrared image generating step (S920) with a preset pattern (S930) and a pattern comparison step (S930). If the thermal image is equal to or greater than a threshold value of the predetermined driving pattern, at least one of acceleration, sudden driving, And providing a driving method corresponding to the driving information (S940).

이와 같이 구성되는 종래기술(S900)은 열화상 카메라를 이용하여 차량의 온도를 감지하고, 감지한 온도를 기반으로 차량의 주행정보를 생성함으로써 추가적인 장치 또는 시스템을 설치하지 않아도 가능하여 비용을 절감시킬 수 있으며, 안개 등과 같이 시계가 확보되지 않은(불안정한) 환경에서도 차량 주행정보를 생성할 수 있는 장점을 갖는다.According to the conventional technology (S900) configured as described above, it is possible to detect the temperature of the vehicle using a thermal imaging camera and generate driving information of the vehicle based on the sensed temperature without installing additional devices or systems, thereby reducing the cost And it is possible to generate vehicle driving information even in an environment in which a clock is not secured (unstable) such as fog.

그러나 종래기술(S900)은 단일 열화상 카메라만을 이용하여 차량 온도를 측정하여 객체(Object)를 시각적으로 보여주도록 구성되었기 때문에 일반카메라를 통해 획득될 수 있는 다양한 정보를 수집하지 못하는 구조적 한계를 갖는다.However, since the conventional technology (S900) is configured to visually show an object by measuring the temperature of the vehicle using only a single thermal camera, it has a structural limitation that various information that can be acquired through a general camera can not be collected.

또한 종래기술(S900)은 열화상 카메라가 차량 온도를 이용하여 차량객체만을 검출하도록 구성되었기 때문에 노면상태 등의 주변 환경에 대한 정보는 획득할 수 없어 한정된 데이터만을 수집하여 정보의 정확성 및 신뢰도가 떨어지는 단점을 갖는다.In addition, since the conventional technology (S900) is configured to detect only the vehicle object using the vehicle temperature, information about the surrounding environment such as the road surface state can not be acquired, and only the limited data is collected, .

본 발명은 이러한 문제를 해결하기 위한 것으로, 본 발명의 해결과제는 카메라 및 열화상 카메라를 이용하여 객체 검출 및 트랙킹을 수행함으로써 단일 카메라로 구동될 때 감지가 불가능한 객체들의 감지가 가능해져 감지율을 현저히 높일 수 있을 뿐만 아니라 수집되는 데이터의 양이 방대하여 돌발 상황 발생여부에 대한 판단의 정확성 및 신뢰도를 높일 수 있는 듀얼 카메라를 이용한 돌발 상황 감지방법을 제공하기 위한 것이다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems and it is an object of the present invention to provide a camera and an infrared camera capable of detecting objects that can not be detected when the camera is driven by a single camera, The present invention is intended to provide a method for detecting an unexpected situation using a dual camera capable of increasing the accuracy and reliability of judgment as to whether or not an unexpected event occurs, because the amount of collected data is enormous.

또한 본 발명의 다른 해결과제는 시계 상태에 따라 기준영상이 결정되도록 구성되고, 기준영상이 아닌 다른 영상의 객체를 기준영상에 표시하여 통합영상을 생성하도록 구성됨으로써 영상을 통해 정보를 효율적으로 제공할 수 있는 듀얼 카메라를 이용한 돌발 상황 감지방법을 제공하기 위한 것이다.In addition, another object of the present invention is to provide a method and apparatus for determining a reference image according to a clock state and displaying an object of an image other than a reference image on a reference image to generate an integrated image, The present invention provides a method for detecting an unexpected situation using a dual camera.

또한 본 발명의 또 다른 해결과제는 돌발 상황 관리부가 최종객체의 궤적을 추적하여 안개여부, 차량사고, 결빙, 역주행, 낙하물, 불법주정차, 서행차량, 보행자 등을 판단하여 이들 중 어느 하나에 이벤트가 발생되는 경우 돌발 상황이 발생되었다는 돌발 상황 발생데이터를 생성하도록 구성됨으로써 방대한 수집데이터를 활용하여 돌발 상황을 신속하고 정확하게 판별할 수 있는 듀얼 카메라를 이용한 돌발 상황 감지방법을 제공하기 위한 것이다.Further, another problem of the present invention is that the unexpected situation management unit tracks the trajectory of the final object to judge whether there is a mist, a vehicle accident, freezing, inversion, falling objects, illegal parking vehicles, slow vehicles, pedestrians, The present invention is to provide a method of detecting an unexpected situation using a dual camera that is capable of quickly and accurately discriminating an unexpected situation by using vast collection data by being configured to generate unexpected occurrence data that an unexpected situation has occurred.

또한 본 발명의 또 다른 해결과제는 통합영상 생성 시 촬영영상 분석부 및 열화상 분석부에 의해 검출된 모든 객체들을 전시하되, 각 객체의 온도가 표시되도록 통합영상을 생성함으로써 통합영상을 통한 정보를 더욱 상세하게 제공할 수 있는 듀얼 카메라를 이용한 돌발 상황 감지방법을 제공하기 위한 것이다.In addition, another object of the present invention is to provide a method and apparatus for displaying all objects detected by a captured image analysis unit and a thermal image analysis unit when an integrated image is generated, And more particularly, to a method for detecting an unexpected situation using a dual camera.

상기 과제를 해결하기 위한 본 발명의 해결수단은 가시광 카메라를 이용하여 기 설정된 감지영역에 대한 촬영영상과, 열화상 카메라를 이용하여 상기 감지영역에 대한 열화상을 획득하는 촬영단계; 상기 촬영단계에 의해 획득된 촬영영상 및 열화상의 2차원 이미지와 감지영역을 대응시키기 위한 관계정보인 캘리브레이션 정보를 획득하는 캘리브레이션 단계; 상기 캘리브레이션 단계에 의한 상기 캘리브레이션 정보를 참조하여 상기 촬영영상을 분석하여 제1 객체를 검출하는 촬영영상 분석단계; 상기 캘리브레이션 단계에 의한 상기 캘리브레이션 정보를 참조하여 상기 열화상을 분석하여 제2 객체를 검출하는 열화상 분석단계; 통합영상 생성단계를 포함하고, 상기 통합영상 생성단계는 기 설정된 결정방식을 이용하여 상기 촬영영상 및 상기 열화상 중 어느 하나를 통합영상의 기초로 활용될 기준영상으로 결정하는 기준영상 결정단계; 상기 캘리브레이션 정보를 참조하여 상기 촬영영상 및 상기 열화상의 공간 관계들 사이의 연관성을 나타내는 정보인 영상매칭정보를 생성하는 영상매칭단계; 상기 촬영영상 분석단계에 의해 검출된 제1 객체들과, 상기 열화상 분석단계에 의해 검출된 제2 객체들의 위치정보를 비교하며, 만약 기 설정된 임계범위 이내의 위치정보를 갖는 제1 객체 및 제2 객체를 동일한 객체로 판단하여 해당 객체를 최종객체로 판별하고, 만약 기 설정된 임계범위를 벗어난 제1 객체 또는 제2 객체를 최종객체로 판별하는 객체 비교단계; 상기 기준영상 결정단계에 의해 결정된 기준영상에, 상기 객체 비교단계에 의해 최종객체로 판별된 객체들을 표시하며, 표시되는 각 객체에 상기 열화상 분석단계에 의해 측정된 온도를 표시하여 통합영상을 생성하는 통합영상 처리단계를 더 포함하는 것이다.According to an aspect of the present invention, there is provided an image processing method comprising: capturing an image of a predetermined sensing area using a visible light camera and a thermal image of the sensing area using a thermal camera; A calibration step of acquiring calibration information which is relationship information for associating the sensed image with the two-dimensional image of the sensed image and the deteriorated image obtained by the sensing step; Analyzing the photographed image by referring to the calibration information by the calibration step and detecting a first object; A thermal image analysis step of analyzing the thermal image by referring to the calibration information by the calibration step to detect a second object; Wherein the step of generating the integrated image comprises the steps of: determining a reference image to be used as a basis of the integrated image by using any one of the photographed image and the thermal image using a predetermined determination method; An image matching step of generating image matching information by referring to the calibration information, the image matching information being information indicating a relationship between the photographed image and the spatial relations of the degradation images; Comparing the first objects detected by the captured image analyzing step and the second objects detected by the thermal image analyzing step with the first object having position information within a predetermined threshold range, An object comparison step of determining two objects as the same object and discriminating the object as a final object and determining a first object or a second object that is out of a predetermined threshold range as a final object; The objects determined as the final object by the object comparison step are displayed on the reference image determined by the reference image determination step and the temperature measured by the thermal image analysis step is displayed on each displayed object to generate an integrated image And an integrated image processing step.

또한 본 발명에서 상기 기준영상 결정단계에 의해 적용되는 상기 결정방식은 광량이 임계치 이상이면 기준영상을 촬영영상으로 결정하되, 광량이 임계치 미만이면 기준영상을 열화상을 결정하는 제1 방식과, 촬영영상의 선명도를 검출한 후 검출된 선명도가 제2 임계치 이상이면 기준영상을 촬영영상으로 결정하되, 검출된 선명도가 제2 임계치 미만이면 기준영상을 열화상으로 결정하는 제2 방식 중 어느 하나인 것이 바람직하다.According to another aspect of the present invention, there is provided a method of determining a reference image, the method comprising: determining a reference image as a captured image when a light amount is equal to or greater than a threshold value; And a second method of determining a reference image as a photographed image when the detected sharpness is greater than or equal to a second threshold value and determining the reference image as a thermal image if the detected sharpness is less than a second threshold value desirable.

또한 본 발명에서 상기 돌발 상황 감지방법은 상기 통합영상 생성단계 이후에 진행되는 돌발 상황 관리단계와, 상기 돌발 상황 관리단계 이후에 진행되는 전송단계를 더 포함하고, 기 돌발 상황 관리단계는 상기 통합영상 생성단계에 의해 생성된 통합영상에 표시된 최종객체들 각각의 위치를 검출하는 최종객체 검출단계; 상기 최종객체 검출단계에 의해 검출된 최종객체들 각각의 위치정보를 활용하여 각 최종객체의 궤적을 추적하는 궤적추적단계; 상기 궤적추적단계에 의해 검출된 궤적정보를 이용하여 돌발 상황 발생여부를 판단하는 판단단계; 상기 판단단계에 의해 돌발 상황이 발생되었다고 판단될 때 구동되어 돌발 상황에 관련된 내용, 위치정보를 포함하는 돌발상황 발생데이터를 생성하는 돌발상황 발생데이터 생성단계를 더 포함하고, 상기 전송단계는 상기 돌발상황 발생데이터 생성단계에 의해 생성된 돌발상황 발생데이터를 로컬서버로 전송하는 제1 전송단계와, 상기 로컬서버가 상기 제1 전송단계를 통해 전송받은 돌발상황 발생데이터를 외부 관제센터서버로 전송하는 제2 전송단계를 더 포함하는 것이 바람직하다.Further, in the present invention, the unexpected situation detection method may further include an unexpected situation management step performed after the integrated image generation step and a transmission step performed after the unexpected situation management step, A final object detecting step of detecting a position of each of the final objects displayed in the integrated image generated by the generating step; A trajectory tracking step of tracking a trajectory of each final object using positional information of each of the final objects detected by the final object detecting step; A determining step of determining whether or not an unexpected event occurs using the trajectory information detected by the trajectory tracking step; Further comprising the step of generating an unexpected situation occurrence data which is driven when the unexpected situation is determined by said determining step and generates the unexpected occurrence data including the contents and the position information related to the unexpected situation, A first transmission step of transmitting the unexpected situation occurrence data generated by the situation occurrence data generation step to the local server; and a second transmission step of transmitting the unexpected situation occurrence data transmitted through the first transmission step to the external control center server And a second transmission step.

또한 본 발명에서 상기 판단단계는 상기 촬영영상 분석단계에 의해 검출되는 제1 객체들의 수량(N1) 및 상기 열화상 분석단계에 의해 검출되는 제2 객체들의 수량(N2)을 산출한 후 산출된 수량들의 차이절대값이 기 설정된 임계값 미만일 때 감지영역에 안개가 많아 시야가 확보되지 않은 것으로 판단하는 안개여부 판단단계; 상기 궤적추적단계에 의해 검출되는 최종객체들의 속도가 줄어들며, 최종객체들 중 어느 하나의 속도가 ‘0’이 될 때 차량사고가 발생하였다고 판단하는 차량사고 판단단계; 상기 최종객체들 중 상기 열화상 분석단계에서만 검출되는 제2 객체이면서 온도가 기 설정된 임계치 미만이며, 움직임이 없는 최종객체를 결빙으로 판단하는 결빙 판단단계; 동일한 차로에서 이동방향이 반대인 최종객체가 검출되는 경우 해당 최종객체를 역주행 차량으로 판단하는 역주행 판단단계; 이전 프레임에는 존재하지 않았던 최종객체가 검출됨과 동시에 속도가 임계치 미만인 경우 해당 최종객체를 낙하물로 판단하는 낙하물 판단단계; 감지영역 중 기 설정된 갓길에 주정차된 최종객체가 검출되면, 해당 최종객체를 불법주정차 차량으로 판단하는 불법주정차 판단단계; 최종객체들 중 속도가 임계치 미만이면서 도로를 이동 중인 최종객체를 보행자라고 판단하는 보행자 판단단계; 최종객체들 중 다른 최종객체들에 비교하여 속도가 작은 최종객체를 서행차량으로 판단하는 서행차량 판단단계를 더 포함하고, 상기 돌발상황 발생데이터 생성단계는 상기 안개여부 판단단계, 상기 차량사고 판단단계, 상기 결빙 판단단계, 상기 역주행 판단단계, 상기 낙하물 판단단계, 상기 불법주정차 판단단계, 상기 보행자 판단단계 및 상기 서행차량 판단단계 중 적어도 하나 이상에 이벤트가 발생하는 경우 상기 돌발상황 발생데이터를 생성하는 것이 바람직하다.Further, in the present invention, the determining step may include calculating a quantity of the first objects (N1) detected by the captured image analyzing step and a quantity (N2) of the second objects detected by the thermal image analyzing step, Determining whether a fog exists in the detection area when the absolute value of the difference is less than a predetermined threshold value, thereby determining that the field of view is not secured; A vehicle accident determination step of determining that a vehicle accident occurs when the speed of the final objects detected by the trajectory tracking step is reduced and the speed of any one of the final objects becomes '0'; An icing determining step of determining a final object, which is a second object among the final objects detected only in the thermal image analyzing step, and whose temperature is less than a predetermined threshold and has no motion, as icing; Determining a final object as an inverse car if the final object is detected in the same lane as the opposite direction; Determining a final object that is not present in a previous frame as a falling object when the speed is less than a threshold; An illegal parking discrimination step of judging the final object as an illegal parking space vehicle when a final object displaced on a predetermined shoulder of the sensing area is detected; A pedestrian judging step of judging that the final object of which the speed is less than the threshold and the moving object on the road is a pedestrian; Further comprising a slow-moving-vehicle determining step of determining a slow-moving final object as a slow-moving vehicle in comparison with other final objects among the final objects, wherein the generating of the unexpected-state generating data comprises: , When the event occurs in at least one of the freezing determination step, the backward movement determination step, the falling object determination step, the illegal state parking determination step, the pedestrian determination step, and the slow vehicle determination step .

또한 본 발명에서 상기 돌발 상황 감지 방법은 상기 전송단계 이후에 진행되는 통신장애 판별단계를 더 포함하고, 상기 통신장애 판별단계는 제1 핑-테스트 단계와, 제2 핑-테스트 단계, 외부 핑-테스트 단계, 장애확인 데이터 송출단계, 리셋대상 결정단계, 로컬서버 리셋단계, 장애확인 데이터 전송단계, 컨트롤러 리셋단계를 더 포함하고, 상기 제1 핑-테스트 단계는 상기 로컬서버가 상기 촬영단계 내지 상기 전송단계를 진행하는 돌발 상황 감지기의 컨트롤러와의 네트워크 상태를 점검하기 위한 제1 핑-테스트를 수행하며, 검출된 제1 핑-데이터를 기 설정된 임계범위와 비교하여 검출된 제1 핑-데이터가 임계범위를 벗어나는 경우 해당 컨트롤러와의 통신 장애가 발생하였다고 판단하고, 상기 제2 핑-테스트 단계는 상기 로컬서버가 상기 관제센터서버와의 네트워크 상태를 점검하기 위한 제2 핑-테스트를 수행하며, 검출된 제2 핑-데이터를 임계범위와 비교하여 검출된 제2 핑-데이터가 임계범위를 벗어나는 경우 해당 관제센터서버와의 통신 장애가 발생하였다고 판단하고, 상기 외부 핑-테스트 단계는 상기 관제센터서버가 상기 로컬서버와의 네트워크 상태를 점검하기 위한 제3 핑-테스트를 수행하며, 검출된 제3 핑-데이터를 임계범위와 비교하여 검출된 제3 핑-데이터가 임계범위를 벗어나는 경우 해당 로컬서버와의 통신 장애가 발생하였다고 판단하고, 상기 장애확인데이터 송출단계는 상기 외부 핑-테스트 단계에 의해 상기 로컬서버와의 통신장애가 발생되었다고 판단될 때 진행되며, 상기 관제센터서버가 통신장애가 발생되었다는 장애확인데이터를 상기 로컬서버로 전송하고, 상기 리셋대상 결정단계는 )상기 로컬서버가 상기 제1-핑 테스트 단계에 의해 장애가 발생되었다고 판단되면 돌발 상황 감지기를 리셋대상으로 결정하며, 이후 상기 장애확인 데이터 전송단계를 진행하고, 2)상기 제2 핑-테스트 단계에 의해 장애가 발생되었다고 판단되면 자기 자신을 리셋대상으로 결정하며, 이후 상기 로컬서버 리셋단계를 진행하고, 3)상기 장애확인데이터 송출단계를 통해 상기 관제센터서버로부터 장애확인데이터를 전송받으면, 전송받은 시점부터 기 설정된 임계시간 이전 사이인 탐색주기(T) 동안에 상기 제2 핑-테스트 단계에 의해 통신장애가 발생된 적이 있었는지를 탐색하며, 만약 탐색주기(T) 동안 상기 제2 핑-테스트 단계에 의해 통신장애가 발생된 적이 없으면, 리셋대상을 자기 자신으로 결정하여 이후 상기 로컬서버 리셋단계를 진행하고, 상기 로컬서버 리셋단계는 상기 리셋대상 결정단계에 의해 리셋대상이 상기 로컬서버로 결정될 때 진행되어 자기 자신인 로컬서버를 리셋시키고, 상기 장애확인데이터 전송단계는 사익 리셋대상 결정단계에 의해 리셋대상이 상기 돌발 상황 감지기의 컨트롤러로 결정될 때 진행되며, 상기 로컬서버가 상기 돌발 상황 감지기의 컨트롤러로 장애확인 데이터를 전송하고, 상기 컨트롤러 리셋단계는 상기 돌발 상황 감지기의 컨트롤러가 상기 장애확인데이터 전송단계를 통해 상기 로컬서버로부터 장애확인데이터를 전송받으면, 자기 자신인 컨트롤러를 리셋 시키는 것이 바람직하다.In the present invention, the method further includes a communication failure determination step performed after the transmission step. The communication failure determination step may include a first ping-test step, a second ping-test step, an external ping- The method according to claim 1, further comprising: a test step, a failure confirmation data transmission step, a reset target determination step, a local server reset step, a failure confirmation data transmission step, and a controller reset step, Performing a first ping-test to check the network status with the controller of the unexpected condition detector that is in the transmitting step, comparing the detected first ping-data with a preset threshold range, and detecting the detected first ping- The second ping-test step determines that the communication failure with the controller has occurred, and the second ping- Test is performed to check the network status of the control center server, and when the detected second ping-data is compared with the threshold range and the detected second ping-data is out of the threshold range, Test, the control center server performs a third ping-test to check the network status with the local server, and compares the detected third ping-data with a threshold range Determining that a communication failure has occurred with the local server when the detected third ping-data is out of the threshold range, and transmitting the failure confirmation data to the local server when the detected third ping- The control center server transmits failure confirmation data indicating that a communication failure has occurred to the local server, Determining if the local server has failed by the first-ping test step, determining that the unexpected state detector is to be reset, and then proceeding with the failure confirmation data transfer step; and 2) If it is determined that a failure has occurred in the test step, it is determined to be a reset target, and then the local server resetting step is performed; and 3) if the failure confirmation data is received from the control center server through the failure confirmation data transmitting step, (T) during a search period (T) during a search period (T) during a search period (T) during a search period (T) If the communication failure has not occurred in the step, the reset target is determined to be the self, and then the local server resetting step is performed, Wherein the resetting of the local server is performed when the reset target is determined to be the local server by the reset target decision step and resets the local server which is the own server itself, Wherein the controller of the unexpected condition detector proceeds when the controller of the unexpected condition detector determines that the local server transmits the fault confirmation data to the controller of the unexpected condition detector, Upon receipt of the failure confirmation data from the local server, it is preferable to reset the controller which is itself.

삭제delete

삭제delete

삭제delete

삭제delete

삭제delete

상기 과제와 해결수단을 갖는 본 발명에 따르면 카메라 및 열화상 카메라를 이용하여 객체 검출 및 트랙킹을 수행함으로써 단일 카메라로 구동될 때 감지가 불가능한 객체들의 감지가 가능해져 감지율을 현저히 높일 수 있을 뿐만 아니라 수집되는 데이터의 양이 방대하여 돌발 상황 발생여부에 대한 판단의 정확성 및 신뢰도를 높일 수 있다.According to the present invention having the above-described problems and solutions, objects are detected and tracked using a camera and a thermal camera, whereby detection of objects that can not be detected when the camera is driven by a single camera is enabled, The amount of collected data is enormous and it is possible to improve the accuracy and reliability of the judgment as to whether or not an unexpected event occurs.

또한 본 발명에 의하면 시계 상태에 따라 기준영상이 결정되도록 구성되고, 기준영상이 아닌 다른 영상의 객체를 기준영상에 표시하여 통합영상을 생성하도록 구성됨으로써 영상을 통해 정보를 효율적으로 제공할 수 있게 된다.According to the present invention, a reference image is determined according to a clock state, and an object of an image other than a reference image is displayed on a reference image to generate an integrated image, thereby efficiently providing information through an image .

또한 본 발명에 의하면 돌발 상황 관리부가 최종객체의 궤적을 추적하여 안개여부, 차량사고, 결빙, 역주행, 낙하물, 불법주정차, 서행차량, 보행자 등을 판단하여 이들 중 어느 하나에 이벤트가 발생되는 경우 돌발 상황이 발생되었다는 돌발 상황 발생데이터를 생성하도록 구성됨으로써 방대한 수집데이터를 활용하여 돌발 상황을 신속하고 정확하게 판별할 수 있게 된다.According to the present invention, the unexpected situation management unit tracks the trajectory of the final object to judge whether there is a mist, a vehicle accident, freezing, reverse run, falling objects, illegal driving, slow moving vehicles, pedestrians, It is possible to quickly and accurately discriminate an unexpected situation by using vast collection data.

또한 본 발명에 의하면 통합영상 생성 시 촬영영상 분석부 및 열화상 분석부에 의해 검출된 모든 객체들을 전시하되, 각 객체의 온도가 표시되도록 통합영상을 생성함으로써 통합영상을 통한 정보를 더욱 상세하게 제공할 수 있다.In addition, according to the present invention, all the objects detected by the captured image analyzing unit and the thermal image analyzing unit during the integrated image generation are displayed, and the integrated image is generated so that the temperature of each object is displayed, can do.

도 1은 국내등록특허 제10-1370627호(발명의 명칭 : 열화상 카메라를 이용한 차량 정보 인식 방법 및 장치)에 개시된 열화상 카메라를 이용한 차량 정보 인식 방법을 나타내는 순서도이다.
도 2는 본 발명의 일실시예인 돌발 상황 감지시스템을 나타내는 구성도이다.
도 3은 도 2의 카메라부를 나타내는 사시도이다.
도 4는 도 2의 컨트롤러를 나타내는 블록도이다.
도 5는 도 4의 촬영영상 분석부에 검출되는 제1 객체들을 나타내는 예시도이다.
도 6은 도 4의 열화상 분석부에 의해 검출되는 제2 객체들을 나타내는 예시도이다.
도 7은 도 4의 통합영상 생성부를 나타내는 블록도이다.
도 8은 도 7의 객체보정모듈을 나타내는 블록도이다.
도 9는 안개가 많은 경우 본 발명의 카메라에 의해 획득된 촬영영상을 나타내는 예시도이다.
도 10은 안개가 많은 경우 본 발명의 열화상 카메라에 의해 획득된 열화상을 나타내는 예시도이다.
도 11은 도 4의 돌발 상황 관리부를 나타내는 블록도이다.
도 12는 도 2의 로컬서버를 나타내는 블록도이다.
도 13은 본 발명의 돌발 상황 감지방법을 설명하기 위한 플로차트이다.
도 14는 도 13의 통합영상 생성단계를 나타내는 플로차트이다.
도 15는 도 13의 돌발 상황 관리단계를 설명하기 위한 플로차트이다.
도 16은 도 13의 통신장애 판별단계를 설명하기 위한 플로차트이다.
1 is a flowchart showing a vehicle information recognition method using a thermal imaging camera disclosed in Korean Patent No. 10-1370627 (entitled "Method and Apparatus for Recognizing Vehicle Information Using a Thermal Camera").
2 is a configuration diagram illustrating an unexpected situation detection system according to an embodiment of the present invention.
3 is a perspective view showing the camera unit of Fig.
4 is a block diagram showing the controller of Fig.
FIG. 5 is a diagram illustrating an example of first objects detected by the captured image analysis unit of FIG. 4. FIG.
FIG. 6 is an exemplary view showing second objects detected by the thermal image analysis unit of FIG. 4;
7 is a block diagram showing the integrated image generating unit of FIG.
8 is a block diagram illustrating the object correction module of FIG.
FIG. 9 is an exemplary view showing an image captured by the camera of the present invention when there is a large amount of fog.
10 is an exemplary view showing a thermal image obtained by the thermal imaging camera of the present invention when there is a large amount of fog.
11 is a block diagram showing the unexpected situation management unit of Fig.
12 is a block diagram illustrating the local server of FIG.
13 is a flowchart for explaining an unexpected situation detection method of the present invention.
FIG. 14 is a flowchart showing the integrated image generating step of FIG.
FIG. 15 is a flowchart for explaining the unexpected situation management step in FIG.
FIG. 16 is a flowchart for explaining the communication failure determination step of FIG. 13;

이하, 첨부된 도면을 참조하여 본 발명의 일실시예를 설명한다.Hereinafter, an embodiment of the present invention will be described with reference to the accompanying drawings.

도 2는 본 발명의 일실시예인 돌발 상황 감지시스템을 나타내는 구성도이다.2 is a configuration diagram illustrating an unexpected situation detection system according to an embodiment of the present invention.

본 발명의 일실시예인 돌발 상황 감지시스템(1)은 카메라 및 열화상 카메라를 이용하여 방대한 데이터를 수집하여 교통정보 생성의 다양성 및 돌발 상황 감지율을 획기적으로 높이기 위한 시스템이다.An unexpected situation detection system (1) according to an embodiment of the present invention collects vast amount of data using a camera and a thermal camera to dramatically increase the diversity of traffic information generation and the unexpected situation detection rate.

또한 돌발 상황 감지시스템(1)은 도 2에 도시된 바와 같이, 돌발 상황 감지기(3-1), ..., (3-N)들과, 로컬서버(2-1), ..., (2-N)들, 관제센터서버(5), 통신망(10)으로 이루어진다.Also, as shown in FIG. 2, the unexpected state detection system 1 includes the unexpected state detectors 3-1, ..., and 3-N and the local servers 2-1, (2-N), a control center server (5), and a communication network (10).

이때 돌발 상황 감지기(3)는 컨트롤러(310) 및 카메라부(330)로 이루어지고, 카메라부(330)는 카메라(331), 열화상 카메라(333) 및 추적카메라(335)로 이루어진다.The camera 3 includes a controller 310 and a camera 330. The camera 330 includes a camera 331, a thermal camera 333, and a tracking camera 335. [

또한 도 2에서는 설명의 편의를 위해 도시되지 않았지만, 로컬서버와 해당 로컬서버에게 할당된 돌발 상황 감지기(3)들 사이에는 유무선 통신망(미도시)이 연결되어 데이터통신이 이루어지는 것으로 구성될 수 있다.Although not shown in FIG. 2 for convenience of explanation, a wired / wireless communication network (not shown) may be connected between the local server and the unexpected state detectors 3 assigned to the local server to perform data communication.

또한 로컬서버(2)는 자신에게 할당된 돌발 상황 감지기(3)들과의 통신 장애여부를 판별한 후 만약 통신 장애가 발생되었다고 판단될 때, 해당 돌발 상황 감지기(3)의 서브 통신 인터페이스부로 장애확인 데이터를 전송한다.Also, the local server 2 determines whether or not a communication failure has occurred with the unexpected state detectors 3 assigned to the local server 2. Then, when it is determined that a communication failure has occurred, And transmits the data.

이때 돌발 상황 감지기(3)는 두 개의 통신모듈을 구비하되, 주 통신모듈은 데이터송수신에 사용하고, 보조 통신모듈은 로컬서버(2)로부터 장애확인 데이터를 수신 받을 때 사용한다. 그 이유는 돌발 상황 감지기(3)의 주 통신모듈에서 통신 장애가 발생되어 로컬서버(2)가 이를 인지하는 경우, 로컬서버(2)가 통신장애가 발생된 주 통신모듈로 장애확인 데이터를 전송하더라도, 주 통신모듈이 이를 수신 받지 못하는 경우가 발생하기 때문에 본 발명에서는 로컬서버(2)가 장애확인 데이터를 전송할 때, 해당 컨트롤러의 보조 통신모듈로 이를 전송함으로써 로컬서버(2)는 자기 자신에게 통신 장애가 발생되었음을 인지할 수 있게 된다.At this time, the unexpected state detector 3 has two communication modules, and the main communication module is used for data transmission / reception and the auxiliary communication module is used for receiving the failure confirmation data from the local server 2. The reason is that even if the local server 2 recognizes the occurrence of a communication failure in the main communication module of the unexpected state detector 3 and the local server 2 transmits the failure confirmation data to the main communication module in which the communication failure has occurred, In the present invention, when the local server 2 transmits the failure confirmation data to the auxiliary communication module of the corresponding controller, the local server 2 transmits a failure notification It is possible to recognize that it has occurred.

통신망(10)은 돌발 상황 감지기(3) 및 관제센터서버(5) 사이의 데이터 이동경로를 제공하며, 광역통신망(WAN), 이동통신망, 유선통신망, LTE 등으로 구성될 수 있다.The communication network 10 provides a data movement path between the unexpected state detector 3 and the control center server 5 and may be configured as a wide area network (WAN), a mobile communication network, a wired communication network, LTE or the like.

관제센터서버(5)는 로컬서버(2-1), ..., (2-N)들로부터 전송받은 촬영영상, 열화상 및 통합영상(촬영영상 및 열화상이 중첩 및 보정된 영상)을 저장함과 동시에 이를 활용하여 모니터링을 수행한다.The control center server 5 transmits the photographed image, the thermal image, and the integrated image (the image in which the photographed image and the thermal image are superimposed and corrected) received from the local servers 2-1, ..., and (2-N) And performs monitoring by utilizing it at the same time.

또한 관제센터서버(5)는 로컬서버(2-1), ..., (2-N)들로부터 전송받은 교통관련정보를 가공 및 활용하여 교통정보를 생성하며, 생성된 교통정보를 접속된 클라이언트들로 제공한다. 이때 교통관련정보는 돌발 상황 감지기(3)에 의해 검출되는 차량 및 교통상태에 관련된 정보로 정의되고, 교통정보는 접속된 클라이언트에게 제공될 수 있도록 교통관련정보를 가공한 정보로 정의되고, 관제센터서버(5)가 교통정보를 생성하여 요청된 클라이언트로 제공하는 기술 및 과정은 지능형 교통시스템(ITS)에서 통상적으로 사용되는 기술이기 때문에 상세한 설명은 생략하기로 한다.The control center server 5 also generates traffic information by processing and utilizing traffic related information received from the local servers 2-1, ..., and 2-N, and transmits the generated traffic information to the connected To clients. At this time, the traffic-related information is defined as information related to the vehicle and the traffic condition detected by the unexpected state detector 3, the traffic information is defined as information obtained by processing the traffic-related information so as to be provided to the connected client, The technology and the process of generating the traffic information by the server 5 and providing the generated traffic information to the requested client are commonly used in the intelligent traffic system (ITS), and thus the detailed description thereof will be omitted.

또한 관제센터서버(5)는 로컬서버(2-1), ..., (2-N)들로부터 특정 돌발 상황 감지기에 의해 돌발 상황이 발생되었다는 돌발 상황 발생데이터를 전송받으면, 해당 장소를 모니터링 함과 동시에 후속 대응이 이루어질 수 있도록 한다.In addition, the control center server 5 receives the unexpected occurrence data indicating that an unexpected situation has occurred by the specific unexpected condition sensor from the local servers 2-1, ..., and 2-N, So that a subsequent response can be made.

로컬서버(2-1), ..., (2-N)들은 자신에게 할당된 돌발 상황 감지기(3)들 및 관제센터서버(5) 사이의 데이터통신을 중개한다.The local servers 2-1, ..., 2-N mediate data communication between the unexpected situation detectors 3 and the control center server 5 assigned to them.

또한 로컬서버(2-1), ..., (2-N)들은 자신에게 할당된 돌발 상황 감지기(3)들 및 자기 자신의 통신장애를 판별하여 통신장애가 발생되었다고 판단되는 경우 해당 장비를 리셋(재부팅) 시킴으로써 통신장애에 대한 신속한 대처가 이루어지도록 한다. 이때 로컬서버의 통신장애판별 과정 및 기술은 후술되는 도 ?에서 상세하게 설명하기로 한다.Also, the local servers 2-1, ..., and 2-N determine the communication failure of the unintentional situation detectors 3 and their own, (Reboot), so that a quick response to a communication failure can be achieved. At this time, the communication failure determination process and technique of the local server will be described in detail below.

돌발 상황 감지기(3)는 도로를 촬영하여 영상(이하 촬영영상이라고 함)을 획득하기 위한 카메라(331) 및 카메라(331)와 동일한 영역을 측정하여 열화상을 획득하는 열화상 카메라(333)를 포함하는 카메라부(330)와, 카메라부(330)로부터 입력받은 촬영영상 및 열화상을 분석하여 객체(Object)를 검출 및 트랙킹(Tracking) 하여 돌발 상황 발생여부를 판별함과 동시에 교통관련정보를 생성하는 컨트롤러(310)로 이루어진다.The unexpected state detector 3 includes a camera 331 for photographing a road and acquiring an image (hereinafter referred to as a photographed image), and a thermal imager 333 for measuring the same area as the camera 331 and acquiring a thermal image And detects the occurrence of an unexpected situation by detecting and tracking an object by analyzing the captured image and the thermal image received from the camera unit 330 and determines traffic related information And a controller 310 for generating a control signal.

이때 교통관련정보는 차량속도, 차간거리, 점유율, 결빙정보, 사고정보 등을 포함한다.At this time, the traffic related information includes the vehicle speed, the inter-vehicle distance, the occupancy rate, the freezing information, and the accident information.

도 3은 도 2의 카메라부의 카메라 및 열화상카메라를 나타내는 사시도이다.3 is a perspective view showing a camera and a thermal imaging camera of the camera unit of Fig. 2;

도 3의 카메라부(330)는 본 발명을 설명하기 위해 예를 들어 설명한 것으로서, 카메라부(330)의 구성 및 형상은 도 3에 한정되지 않는다.The camera unit 330 of FIG. 3 has been described to illustrate the present invention, and the configuration and the shape of the camera unit 330 are not limited to FIG.

카메라부(330)는 도 3에 도시된 바와 같이, 내부에 카메라(331) 및 열화상 카메라(333)를 구동시키기 위한 전기회로 및 소자들이 설치되는 하우징(3300)을 포함한다.The camera unit 330 includes a housing 3300 in which electric circuits and elements for driving the camera 331 and the thermal imaging camera 333 are installed.

또한 하우징(3300)의 내부에는 카메라(331) 및 열화상 카메라(333)가 설치되되, 카메라(331) 및 열화상 카메라(333)의 렌즈(3303), (3304)들은 하우징(3300)의 전면(3301)에 노출되게 설치된다. 이때 카메라(331)는 통상의 가시광 카메라를 의미하고, 열화상 카메라(333)는 통상의 열화상 카메라를 의미한다.The camera 331 and the thermal imaging camera 333 are installed inside the housing 3300 and the lenses 3303 and 3304 of the camera 331 and the thermal imaging camera 333 are mounted on the front surface of the housing 3300 (3301). At this time, the camera 331 means a normal visible light camera, and the thermal camera 333 means a normal thermal imaging camera.

또한 카메라(331) 및 열화상 카메라(333)는 하우징(3300)의 전면에 수평 방향으로 이격되게 설치됨으로써 동일한 팬-틸트(Pan-Tilt) 각도로 동일한 영역을 촬영할 수 있게 된다.The camera 331 and the thermal imaging camera 333 are horizontally spaced from each other on the front surface of the housing 3300 so that the same area can be photographed at the same pan-tilt angle.

또한 돌발 상황 감지기(3)는 컨트롤러(310)와 유선 통신망(미도시)으로 연결되어 카메라(331) 및 열화상 카메라(333)에 의해 획득된 촬영영상 및 열화상을 로컬서버(2)로 송출한다.The unexpected situation detector 3 is connected to the controller 310 via a wired communication network (not shown) to transmit the captured image and the thermal image acquired by the camera 331 and the thermal imaging camera 333 to the local server 2 do.

또한 도 3에는 도시되지 않았지만, 카메라부(330)는 추적카메라(335)를 더 포함하고, 추적카메라(335)는 PTZ(Pan-Tilt-Zoom) 카메라로 이루어져 후술되는 도 4의 컨트롤러(310)의 제어에 따라 구동되어 정밀한 영상판독이 필요한 영역의 확대영상을 획득한다.3, the camera unit 330 further includes a tracking camera 335. The tracking camera 335 includes a PTZ (Pan-Tilt-Zoom) camera and is connected to the controller 310 of FIG. 4, So as to acquire an enlarged image of an area where accurate image reading is required.

또한 추적카메라(335)에 의해 획득된 확대영상은 로컬서버(2)로 입력된다.Also, the enlarged image acquired by the tracking camera 335 is input to the local server 2.

이때 본 발명에서는 설명의 편의를 위해 컨트롤러(310)가 카메라부(330)와 분리되어 독립적으로 설치되는 것으로 예를 들어 설명하였으나, 컨트롤러(310)는 카메라부(330)의 하우징(3300)의 내부에 일체형으로 제작될 수 있음은 당연하다.Although the controller 310 is separately provided from the camera unit 330 for the convenience of explanation in the present invention, the controller 310 may be installed inside the housing 3300 of the camera unit 330 It is natural that it can be manufactured in one piece.

도 4는 도 2의 컨트롤러를 나타내는 블록도이다.4 is a block diagram showing the controller of Fig.

컨트롤러(310)는 도 4에 도시된 바와 같이, 제어부(30)와, 메모리(31), 통신 인터페이스부(32), 캘리브레이션 처리부(33), 촬영영상 분석부(34), 열화상 분석부(35), 통합영상 생성부(36), 돌발 상황 관리부(37), 추적카메라 제어부(38), 교통관련정보 생성부(39), 보조 통신 인터페이스부(40), 리셋처리부(41)로 이루어진다.4, the controller 310 includes a control unit 30, a memory 31, a communication interface unit 32, a calibration processing unit 33, a shot image analysis unit 34, a thermal image analysis unit An integrated image generating unit 36, an unexpected situation managing unit 37, a tracking camera controlling unit 38, a traffic related information generating unit 39, an auxiliary communication interface unit 40 and a reset processing unit 41.

제어부(30)는 컨트롤러(310)의 O.S(Operating System)이며, 제어대상(31), (32), (33), (34), (35), (36), (37), (38), (39)들을 관리 및 제어한다.The control unit 30 is an OS (Operating System) of the controller 310. The control unit 30 controls the control objects 31, 32, 33, 34, 35, 36, 37, , And (39).

또한 제어부(30)는 돌발 상황 감지기(3)의 컨트롤러(310)로부터 촬영영상 및 열화상을 입력받으면, 1)입력된 촬영영상 및 열화상을 메모리(31)에 저장함과 동시에 통신 인터페이스부(32)를 통해 로컬서버(2)로 전송하며, 2)입력된 촬영영상을 캘리브레이션 처리부(33)로 입력한다.When the control unit 30 receives the photographed image and the thermal image from the controller 310 of the unexpected state detector 3, the control unit 30 stores 1) the input photographed image and the thermal image in the memory 31, To the local server 2, and 2) inputs the input photographed image to the calibration processing unit 33. [0041]

또한 제어부(30)는 캘리브레이션 처리부(33)에 의해 생성된 캘리브레이션 정보를 촬영영상 분석부(34) 및 열화상 분석부(35)로 입력한다.The control unit 30 also inputs the calibration information generated by the calibration processing unit 33 to the captured image analysis unit 34 and the thermal image analysis unit 35. [

또한 제어부(30)는 촬영영상 분석부(34) 및 열화상 분석부(35)에 의해 검출된 분석데이터를 통합영상 생성부(36)로 입력한다.The control unit 30 also inputs the analysis data detected by the photographed image analysis unit 34 and the thermal image analysis unit 35 to the integrated image generation unit 36. [

또한 제어부(30)는 통합영상 생성부(36)에 의해 생성된 통합영상을 메모리(31)에 저장함과 동시에 통합영상 생성부(36)로 입력한다.The control unit 30 also stores the integrated image generated by the integrated image generating unit 36 in the memory 31 and inputs the integrated image to the integrated image generating unit 36. [

또한 제어부(30)는 통합영상 생성부(36)에 의해 생성된 통합영상을 돌발 상황 관리부(37) 및 교통관련정보 생성부(39)로 입력한다.The control unit 30 also inputs the integrated image generated by the integrated image generating unit 36 to the unexpected situation management unit 37 and the traffic related information generating unit 39.

또한 제어부(30)는 교통관련정보 생성부(39)에 의해 생성되는 교통관련정보와, 돌발 상황 관리부(37)에 의해 생성되는 돌발상황 발생데이터를 메모리(31)에 저장함과 동시에 통신 인터페이스부(32)를 통해 로컬서버(2)로 전송한다.The control unit 30 also stores the traffic related information generated by the traffic related information generating unit 39 and the unexpected situation occurrence data generated by the unexpected situation managing unit 37 in the memory 31, 32 to the local server 2.

또한 제어부(30)는 서브 통신 인터페이스부(40)를 크롤링(Crawling) 하여 로컬서버(2)로부터 장애확인 데이터를 전송받으면, 리셋처리부(40)를 구동시킨다.The control unit 30 crawls the sub communication interface unit 40 and receives the failure confirmation data from the local server 2 to drive the reset processing unit 40.

로컬서버(2)로부터 장애확인 데이터를 전송받으면, 리셋처리부(40)를 구동시킨다. 이때 리셋처리부(4)를 제어부(30)를 통해 장애확인 데이터를 전송받으면, 해당 컨트롤러(310)를 리셋(재부팅) 시킴으로써 통신장애에 대한 신속한 대처가 이루어지도록 한다.Upon receipt of the failure confirmation data from the local server 2, the reset processing unit 40 is driven. At this time, upon receipt of the failure confirmation data through the control unit 30, the reset processing unit 4 resets (reboots) the corresponding controller 310, thereby promptly coping with the communication failure.

메모리(31)에는 기 설정된 영상분석 알고리즘과, 기 설정된 열화상 분석 알고리즘이 저장된다. 이때 영상분석 알고리즘은 촬영영상으로부터 차량 및 보행자 등의 객체(Object)를 검출하기 위한 알고리즘이고, 열화상 분석 알고리즘은 열화상으로부터 객체를 검출하기 위한 알고리즘이다.The memory 31 stores a predetermined image analysis algorithm and a predetermined thermal image analysis algorithm. At this time, the image analysis algorithm is an algorithm for detecting an object such as a vehicle and a pedestrian from a shot image, and a thermal image analysis algorithm is an algorithm for detecting an object from a thermal image.

또한 메모리(31)에는 카메라(331)에 의해 촬영된 촬영영상과, 열화상 카메라(333)에 의해 획득된 열화상이 임시 저장된다.In the memory 31, a photographed image photographed by the camera 331 and a photographed image obtained by the thermal imaging camera 333 are temporarily stored.

또한 메모리(31)에는 추적카메라(335)에 의해 획득된 확대영상이 임시 저장된다.The enlarged image obtained by the tracking camera 335 is temporarily stored in the memory 31. [

또한 메모리(31)에는 교통관련정보 생성부(39)에 의해 생성되는 교통관련정보와, 돌발 상황 관리부(37)에 의해 생성되는 돌발상황 발생데이터가 저장된다.The memory 31 also stores traffic related information generated by the traffic related information generating unit 39 and unexpected situation occurrence data generated by the unexpected situation managing unit 37. [

또한 메모리(31)에는 해당 컨트롤러(310)의 통신식별ID 및 위치정보가 저장된다.The memory 31 also stores the communication ID and location information of the corresponding controller 310. [

통신 인터페이스부(32)는 유무선통신망(미도시)에 접속하여 로컬서버(2)와 데이터를 송수신한다.The communication interface unit 32 connects to a wired / wireless communication network (not shown) and transmits / receives data to / from the local server 2.

캘리브레이션 처리부(33)는 입력된 촬영영상 및 열화상에 대한 캘리브레이션의 수행결과에 따른 파라미터 등의 정보를 통해 영상의 2차원 이미지와 감시 공간을 대응시키기 위한 관계정보로 정의되는 캘리브레이션 정보를 획득한다.The calibration processing unit 33 acquires calibration information defined as relationship information for associating the two-dimensional image of the image with the monitoring space through the input image and the information such as the parameter according to the result of the calibration for the thermal image.

다시 말하면, 캘리브레이션 처리부(33)는 각 카메라(331), (333)들을 통해 획득된 촬영영상 및 열화상의 이미지를 기준으로 3차원 개체 및 3차원 공간의 조절을 통해 실제 영상 이미지의 지면과 영상에 오버레이 방식으로 지면에 해당하는 그리드를 일치시킬 수 있으며, 3차원 개체 조절을 통해 영상 이미지의 상이한 위치에 존재하는 대상들과 일치시킴으로써 실제 공간과 유사한 공간에 대한 모델링이 가능해지며, 이는 곧 영상에 표시되는 오브젝트의 크기와 위치, 속도 등을 실제와 유사한 값으로 확인할 수 있게 됨을 의미한다.In other words, the calibration processing unit 33 adjusts the three-dimensional object and the three-dimensional space on the basis of the photographed image and the deteriorated image obtained through the cameras 331 and 333, It is possible to model the space similar to the actual space by matching the grid corresponding to the ground by the overlay method and matching the objects existing at different positions of the image image through the adjustment of the three dimensional object, It is possible to check the size, position, and speed of the object, which is similar to the actual value.

또한 캘리브레이션 처리부(33)에 의해 획득된 캘리브레이션 정보는 촬영영상 분석부(34) 및 열화상 분석부(35)로 입력된다.The calibration information obtained by the calibration processing section 33 is input to the photographed image analysis section 34 and the thermal image analysis section 35.

도 5는 도 4의 촬영영상 분석부에 검출되는 제1 객체들을 나타내는 예시도이고, 도 6은 도 4의 열화상 분석부에 의해 검출되는 제2 객체들을 나타내는 예시도이다.FIG. 5 is an exemplary view showing first objects detected by the captured image analyzing unit of FIG. 4, and FIG. 6 is an exemplary view showing second objects detected by the thermal image analyzing unit of FIG.

촬영영상 분석부(34)는 제어부(30)의 제어에 따라 카메라(331)에 의해 촬영된 촬영영상을 입력받으며, 캘리브레이션 처리부(33)로부터 캘리브레이션 정보를 입력받는다.The photographed image analysis unit 34 receives the photographed image photographed by the camera 331 under the control of the control unit 30 and receives the calibration information from the calibration processing unit 33. [

또한 촬영영상 분석부(34)는 기 설정된 영상분석 알고리즘을 이용함과 동시에 입력된 캘리브레이션 정보를 참조하여 촬영영상으로부터 차량, 보행자 및 낙하물(물체) 등의 제1 객체(Object)를 검출한다.The photographed image analysis unit 34 also detects a first object such as a vehicle, a pedestrian, and a falling object (object) from the photographed image by referring to the input calibration information while using a predetermined image analysis algorithm.

즉 촬영영상 분석부(34)는 도 5에 도시된 바와 같이, 입력된 촬영영상을 분석하여 영상 프레임(100) 내 차량, 보행자, 낙하물 등의 제1 객체(101)들을 검출한다.That is, as shown in FIG. 5, the captured image analyzing unit 34 analyzes the input captured image and detects first objects 101 such as a vehicle, a pedestrian, and a falling object in the image frame 100.

열화상 분석부(35)는 제어부(30)의 제어에 따라 열화상 카메라(333)에 의해 획득된 열화상을 입력받으며, 캘리브레이션 처리부(33)로부터 캘리브레이션 정보를 입력받는다.The thermal image analysis unit 35 receives the thermal image acquired by the thermal imaging camera 333 under the control of the control unit 30 and receives the calibration information from the calibration processing unit 33. [

또한 열화상 분석부(35)는 기 설정된 열화상 분석 알고리즘을 이용함과 동시에 입력된 캘리브레이션 정보를 참조하여 열화상으로부터 차량, 보행자 및 결빙구간 등의 제2 객체를 검출한다.In addition, the thermal image analysis unit 35 detects a second object such as a vehicle, a pedestrian, and a freezing section from a thermal image by referring to the input calibration information while using a predetermined thermal image analysis algorithm.

이때 만약 노면에 결빙구간이 형성되는 경우, 본 발명의 열화상 분석부(35)는 온도측정을 이용하여 객체를 검출하기 때문에 촬영영상 분석부(34)에서는 검출할 수 없는 결빙 구간의 검출이 가능하게 된다.At this time, if the freezing zone is formed on the road surface, since the thermal image analyzing unit 35 of the present invention detects the object using the temperature measurement, it is possible to detect the freezing zone that can not be detected by the captured image analyzing unit 34 .

즉 열화상 분석부(35)는 도 6에 도시된 바와 같이, 입력된 열화상을 분석하여 열화상 프레임(200) 내 차량, 보행자 및 결빙 등을 나타내는 제2 객체(201)를 검출할 수 있다.6, the thermal image analyzing unit 35 can analyze the input thermal image to detect the second object 201 representing the vehicle, the pedestrian, and the ice in the thermal image frame 200 .

이와 같이 본 발명의 촬영영상 분석부(34) 및 열화상 분석부(35)는 1)차량 및 보행자 등의 객체를 중복하여 검출할 수 있기 때문에 감지율 및 정확성을 개선시킬 수 있으며, 2)촬영영상 분석부(34)에 의해 검출될 수 없는 결빙 등의 객체가 열화상 분석부(35)에 의해 검출 가능함과 동시에 열화상 분석부(35)에 의해 검출될 수 없는 낙하물 등의 객체가 촬영영상 분석부(34)에 의해 검출 가능하기 때문에 상호 단점을 보완하여 감지율을 현저히 높일 수 있다.As described above, the photographed image analyzing unit 34 and the thermal image analyzing unit 35 of the present invention can improve detection rate and accuracy because (1) objects such as a vehicle and a pedestrian can be detected in duplicate, and 2) An object such as a frost which can not be detected by the image analysis unit 34 can be detected by the thermal image analysis unit 35 and an object such as a falling object that can not be detected by the thermal image analysis unit 35 is captured Since it can be detected by the analyzing unit 34, it is possible to complement each other's disadvantages and significantly increase the detection rate.

도 7은 도 4의 통합영상 생성부를 나타내는 블록도이다.7 is a block diagram showing the integrated image generating unit of FIG.

통합영상 생성부(36)는 도 7에 도시된 바와 같이, 기준영상 결정모듈(361)과, 영상매칭정보 생성모듈(362), 객체 비교모듈(363), 통합영상 생성모듈(364), 객체보정모듈(365)로 이루어진다.7, the integrated image generation unit 36 includes a reference image determination module 361, an image matching information generation module 362, an object comparison module 363, an integrated image generation module 364, And a correction module 365.

기준영상 결정모듈(361)은 기 설정된 결정방식을 이용하여 통합영상 생성모듈(364)에 의해 생성되는 통합영상의 기초로 활용될 기준영상을 촬영영상으로 할 것인지 또는 열화상으로 할 것인지를 결정한다.The reference image determination module 361 determines whether to use the reference image to be used as the basis of the integrated image generated by the integrated image generation module 364 as a photographed image or a thermal image by using a predetermined determination method .

예를 들어, 기 설정된 결정방식은 광량이 임계치 이상이면 기준영상을 촬영영상으로 결정하되, 광량이 임계치 미만이면 기준영상을 열화상으로 결정하는 제1 방식으로 구성될 수 있고, 다른 예로 기 설정된 결정방식은 촬영영상의 선명도를 검출한 후 검출된 선명도가 임계치 이상이면 기준영상을 촬영영상으로 결정하되, 선명도가 임계치 미만이면 기준영상을 열화상으로 결정하는 제2 방식으로 구성될 수 있다.For example, the predetermined determination method can be configured as a first method of determining a reference image as a photographed image when the light amount is equal to or greater than a threshold value, and a reference image as a thermal image if the light amount is less than a threshold value. The system may be configured to detect the sharpness of the photographed image, determine the reference image as the photographed image if the detected sharpness is equal to or greater than the threshold value, and determine the reference image as the thermal image if the sharpness is less than the threshold value.

또한 기준영상 결정모듈(361)은 결정된 기준영상 정보를 통합영상 생성모듈(364)로 입력한다.Also, the reference image determination module 361 inputs the determined reference image information to the integrated image generation module 364.

영상매칭정보 생성모듈(362)은 입력된 캘리브레이션 정보를 참조하여 기준영상으로 결정된 영상과 기준영상이 아닌 영상의 감시공간을 매개로 상호 매칭시킬 수 있는 영상매칭정보를 생성한다.The image matching information generation module 362 generates image matching information capable of mutually matching the image determined as the reference image and the image not the reference image through the monitoring space by referring to the input calibration information.

이때 영상매칭정보는 촬영영상 및 열화상의 공간 관계들 사이의 연관성을 나타내는 정보로 정의된다.At this time, the image matching information is defined as information indicating a relation between the photographed image and the spatial relations of the degradation image.

객체비교모듈(363)은 전술하였던 도 5의 촬영영상 분석부(34)에 의해 검출된 제1 객체(101)들과, 도 6의 열화상 분석부(35)에 의해 검출된 제2 객체(201)들의 위치정보를 비교하며, 상세하게로는 제1 객체(101)들의 위치정보 및 제2 객체(201)들의 위치정보들을 비교하여 임계범위 이내의 위치정보를 갖는 객체들을 동일한 객체로 판별한다.The object comparison module 363 compares the first objects 101 detected by the captured image analysis unit 34 of FIG. 5 and the second object 101 detected by the thermal image analysis unit 35 of FIG. 6 201). Specifically, the location information of the first objects (101) and the location information of the second objects (201) are compared with each other to determine objects having location information within a threshold range as the same object .

또한 객체 비교모듈(363)은 만약 열화상 분석부(35)에서는 검출되지 않되, 촬영영상 분석부(34)에서만 검출되는 객체가 존재하는 경우, 해당 제1 객체(101)를 최종 객체로 결정한다.The object comparison module 363 determines the first object 101 as a final object if the object is not detected by the thermal image analysis unit 35 but is detected only by the captured image analysis unit 34 .

또한 객체 비교모듈(363)은 만약 촬영영상 분석부(34)에서는 검출되지 않되, 열화상 분석부(35)에서만 검출되는 객체가 존재하는 경우 해당 제2 객체(201)를 최종 객체로 결정한다.Also, the object comparison module 363 determines the second object 201 as a final object if an object that is not detected by the captured image analysis unit 34 but is detected only by the thermal image analysis unit 35 exists.

통합영상 생성모듈(364)은 기준영상 결정모듈(361)에 의해 결정된 기준영상에, 객체 비교모듈(363)에 의해 최종객체로 판별된 객체들을 표시하며, 표시되는 각 객체에 열화상 분석부에 의해 측정된 온도값을 표시, 상세하게로는 해당 객체의 열화상 이미지를 기준영상에 선형적으로 매칭시킨다.The integrated image generation module 364 displays the objects determined as the final object by the object comparison module 363 on the reference image determined by the reference image determination module 361, And more specifically, the thermal image of the object is linearly matched to the reference image.

즉 통합영상 생성모듈(364)에 의해 생성되는 통합영상은 기준영상에, 촬영영상 분석부(34) 및 열화상 분석부(35)에 의해 검출된 모든 객체들을 전시함과 동시에 각 객체의 온도가 함께 디스플레이 되게 된다.That is, the integrated image generated by the integrated image generation module 364 displays all the objects detected by the captured image analysis unit 34 and the thermal image analysis unit 35 in the reference image, Are displayed together.

도 8은 도 7의 객체보정모듈을 나타내는 블록도이다.8 is a block diagram illustrating the object correction module of FIG.

객체보정모듈(364)은 통합영상 생성모듈(364)에 의해 생성되는 통합영상의 최종객체를 보정하는 기능을 수행한다.The object correction module 364 performs a function of correcting the final object of the integrated image generated by the integrated image generation module 364.

또한 객체보정모듈(364)은 도 8에 도시된 바와 같이, 평활화모듈(3641)과, 해상도보정모듈(3642), 매핑모듈(3643)로 이루어진다.The object correction module 364 includes a smoothing module 3641, a resolution correction module 3642, and a mapping module 3643 as shown in FIG.

평활화모듈(3641)은 통합영상 생성모듈(364)에 의해 생성되는 통합영상에서, 최종객체의 열화상이미지와 촬영영상의 해상도 차이에 의해 생성되는 블록화현상을 제거하도록 평활화를 수행한다.The smoothing module 3641 performs smoothing on the combined image generated by the integrated image generation module 364 so as to remove the blocking phenomenon generated by the resolution difference between the thermal image of the final object and the photographed image.

해상도보정모듈(3642)은 평활화모듈(3641)에 의해 블록화 현상이 제거된 열화상 이미지의 해상도를, 촬영영상의 해상도로 변환시킴으로써 해상도 차이로 인해 열화상 이미지의 가시성이 떨어지는 문제점을 획기적으로 해결하였다.The resolution correction module 3642 resolves the problem that the visibility of the thermal image is deteriorated due to the resolution difference by converting the resolution of the thermal image obtained by removing the blocking phenomenon by the smoothing module 3641 into the resolution of the captured image .

매핑모듈(3643)은 해상도보정모듈(3642)에 의해 고해상도로 변환된 최종객체를 기준영상에 매핑시킨다.The mapping module 3643 maps the final object converted to high resolution by the resolution correction module 3642 to the reference image.

도 9는 안개가 많은 경우 본 발명의 카메라에 의해 획득된 촬영영상을 나타내는 예시도이고, 도 10은 안개가 많은 경우 본 발명의 열화상 카메라에 의해 획득된 열화상을 나타내는 예시도이다.FIG. 9 is an exemplary view showing a captured image obtained by the camera of the present invention when there is a large amount of fog, and FIG. 10 is an exemplary view showing a thermal image acquired by the thermal imaging camera of the present invention when there is a large amount of fog.

도 9에 도시된 바와 같이, 안개가 많은 경우, 카메라(331)에 의해 획득되는 촬영영상(100)에서는 시야가 확보되지 않아 촬영영상 분석부(34)가 해당 촬영영상을 분석하더라도 아무런 객체를 검출하지 못하거나 또는 일부 객체만을 검출하게 되는 장애가 발생하게 된다.As shown in FIG. 9, when there is a large amount of fog, no image is captured in the captured image 100 obtained by the camera 331, and even if the captured image analyzing unit 34 analyzes the captured image, Or a failure occurs in detecting only some objects.

그러나 열화상 카메라는 도 10에 도시된 바와 같이, 동일한 환경에서 열화상 분석부(35)가 해당 열화상(200)을 분석하여 제2 객체(201)들을 검출할 수 있게 된다.However, as shown in FIG. 10, in the thermal camera, the thermal image analysis unit 35 can analyze the thermal image 200 and detect the second objects 201 in the same environment.

이에 따라 객체 비교모듈(363)은 안개가 많은 경우라도, 열화상 분석부(35)에 의해 검출된 제2 객체를 최종객체로 결정하고, 통합영상 생성모듈(365)이 최종객체들 각각이 표시되는 통합영상을 생성할 수 있게 된다.Accordingly, the object comparison module 363 determines the second object detected by the thermal image analysis unit 35 as the final object even when there are many fogs, and when the integrated image generation module 365 determines that each of the final objects is displayed It is possible to generate an integrated image.

도 11은 도 4의 돌발상황 관리부를 나타내는 블록도이다.11 is a block diagram showing the unexpected situation management unit of Fig.

돌발 상황 관리부(37)는 통합영상 생성부(36)에 의해 생성된 통합영상을 분석하여 돌발 상황이 발생되었는지를 판별한 후 돌발 상황이 발생되었다고 판단될 때 돌발상황 발생데이터를 생성한다. 이때 돌발 상황 관리부(37)에 의해 생성된 돌발상황 발생데이터는 제어부(30)의 제어에 따라 통신 인터페이스부(32)를 통해 관리서버(5)로 전송됨과 동시에 메모리(31)에 저장된다.The unexpected situation management unit 37 analyzes the integrated image generated by the unified image generating unit 36 to determine whether an unexpected situation has occurred, and generates an unexpected condition occurrence data when it is determined that an unexpected situation has occurred. At this time, the unexpected situation occurrence data generated by the unexpected situation management unit 37 is transferred to the management server 5 through the communication interface unit 32 under the control of the control unit 30 and is stored in the memory 31 at the same time.

또한 돌발 상황 관리부(37)는 도 11에 도시된 바와 같이, 최종객체 검출모듈(371)과, 궤적추적모듈(372), 안개여부 판단모듈(373), 차량사고 판단모듈(374), 결빙 판단모듈(375), 역주행 판단모듈(376), 낙하물 판단모듈(377), 불법주정차 판단모듈(378), 보행자 판단모듈(379), 서행차량 판단모듈(380), 돌발 상황 발생데이터 생성모듈(381)로 이루어진다.11, the unexpected situation management unit 37 includes a final object detection module 371, a trajectory tracking module 372, a fog determination module 373, a vehicle accident determination module 374, Module 375, an inverse-movement judging module 376, a falling-object judging module 377, an illegal parking judging module 378, a pedestrian judging module 379, a slow-moving vehicle judging module 380, ).

최종객체 검출모듈(371)은 통합영상 생성부(36)에 의해 생성된 최종객체들 각각의 위치정보를 검출한다.The final object detection module 371 detects the position information of each of the final objects generated by the integrated image generation unit 36. [

궤적추적모듈(372)은 최종객체 검출모듈(371)에 의해 검출된 최종객체들 각각의 위치정보를 활용하여 각 최종객체의 궤적을 추적한다.The trajectory tracking module 372 tracks the trajectory of each final object using the position information of each of the final objects detected by the final object detection module 371. [

안개여부 판단모듈(373)은 촬영영상 분석부(34)에 의해 검출되는 제1 객체들의 수량(N1) 및 열화상 분석부(35)에 의해 검출되는 제2 객체들의 수량(N2)을 산출한 후 산출된 수량들의 차이절대값이 기 설정된 임계치 미만일 때 해당 영역에 안개가 많아 시야가 확보되지 않은 것으로 판단한다.The fog determination module 373 calculates the quantity N1 of the first objects detected by the photographed image analyzer 34 and the quantity N2 of the second objects detected by the thermal image analyzer 35 When the absolute value of the difference of the calculated quantities is less than the predetermined threshold value, it is determined that the visual field is not secured because there are many fog in the corresponding area.

또한 만약 안개여부 판단모듈(373)에 의해 해당 영역에 안개가 발생하였다고 판단되면, 제어부(30)의 제어에 따라 돌발상황 발생데이터 생성모듈(381)이 구동된다.If it is determined by the mist determination module 373 that fog has occurred in the corresponding area, the unexpected occurrence data generation module 381 is driven under the control of the control unit 30.

차량사고 판단모듈(374)은 궤적추적모듈(372)에 의해 검출된 각 최종객체의 궤적정보를 분석하여 차량사고가 발생되었는지를 판단한다.The vehicle accident determination module 374 analyzes the trajectory information of each final object detected by the trajectory tracking module 372 to determine whether a vehicle accident has occurred.

이때 차량사고 판단모듈(374)은 검출된 최종객체들의 속도가 점차 낮아지다가 ‘0’이 됨과 동시에 후속 최종객체들의 속도가 정차하는 경우 차량사고가 발생하였다고 판단할 수 있다.At this time, the vehicle accident determination module 374 can determine that a vehicle accident has occurred when the speed of the detected final objects gradually decreases to '0' and the speed of subsequent final objects is stopped.

또한 만약 차량사고 판단모듈(374)에 의해 차량 사고가 발생하였다고 판단되면, 제어부(30)의 제어에 따라 돌발상황 발생데이터 생성모듈(381)이 구동된다.If the vehicle accident determination module 374 determines that a vehicle accident has occurred, the unexpected condition occurrence data generation module 381 is driven under the control of the control unit 30.

결빙 판단모듈(375)은 촬영영상 분석부(34)에서는 검출되지 못하고 열화상 분석부(35)에 의해서만 검출되는 제2 객체들 중 온도가 임계치 미만이면서 움직임이 없는 경우, 해당 제2 객체를 결빙으로 판단한다.The freezing determination module 375 determines that the temperature of the second objects that can not be detected by the photographed image analysis unit 34 and is detected only by the thermal image analysis unit 35 is below the threshold value and does not move, .

또한 결빙 판단모듈(375)에 의해 노면에 결빙이 형성되었다고 판단되면, 제어부(30)의 제어에 따라 돌발상황 발생데이터 생성모듈(381)이 구동된다.When it is determined that the freezing is formed on the road surface by the freezing determination module 375, the unexpected condition generation data generation module 381 is driven under the control of the control unit 30.

역주행 판단모듈(376)은 궤적추적모듈(372)에 의해 검출된 궤적정보를 분석하여 동일한 차선 상에서 이동방향이 반대인 최종객체가 검출되는 경우 해당 최종객체를 역주행 차량이라고 판단한다.The inverse-travel determining module 376 analyzes the trajectory information detected by the trajectory tracking module 372 and determines that the final object is an inverse vehicle when a final object whose direction of movement is opposite on the same lane is detected.

또한 만약 역주행 판단모듈(376)에 의해 역주행 차량이 검출되면, 제어부(30)의 제어에 따라 돌발상황 발생데이터 생성모듈(381)이 구동된다.If an inverse vehicle is detected by the inverse-travel-determination module 376, the unexpected-state occurrence data generation module 381 is driven under the control of the controller 30. [

낙하물 판단모듈(377)은 궤적추적모듈(372)에 의해 검출된 궤적정보를 분석하여 이전 프레임 상에는 존재하지 않았던 최종객체가 검출된 이후 해당 최종 객체의 속도가 임계치 미만인 경우 도로에 낙하물이 떨어졌다고 판단한다.The falling object judging module 377 analyzes the trajectory information detected by the trajectory tracking module 372 and judges that the falling object falls on the road when the speed of the final object is less than the threshold after the last object which is not present on the previous frame is detected do.

불법주정차 판단모듈(378)은 궤적추적모듈(372)에 의해 검출된 궤적정보를 분석하여 불법주정차 차량을 검출한다.The illegal parking distance determination module 378 analyzes the trajectory information detected by the trajectory tracking module 372 to detect illegal parking vehicles.

또한 불법주정차 판단모듈(378)에 의해 불법주정차 차량이 검출되면, 제어부(30)의 제어에 따라 돌발상황 발생데이터 생성모듈(381)이 구동된다.In addition, when the illegally parked vehicle is detected by the illegal parking differential determination module 378, the unexpected condition generation data generation module 381 is driven under the control of the control unit 30.

보행자 판단모듈(379)은 궤적추적모듈(372)에 의해 검출된 궤적정보를 분석하여 도로 상에 보행자가 존재하는지를 판단한다.The pedestrian judgment module 379 analyzes the trajectory information detected by the trajectory tracing module 372 to judge whether a pedestrian exists on the road.

이때 보행자 판단모듈(379)은 검출된 최종객체들 중 속도가 임계치 미만이면서 도로 상에 위치한 최종객체를 보행자라고 판단한다.At this time, the pedestrian judging module 379 judges that the pedestrian is the final object located on the road whose speed is less than the threshold among the detected final objects.

또한 만약 보행자 판단모듈(379)에 의해 보행자가 검출되면, 제어부(30)의 제어에 따라 돌발상황 발생데이터 생성모듈(381)이 구동된다.If a pedestrian is detected by the pedestrian judgment module 379, the unexpected condition occurrence data generation module 381 is driven under the control of the control unit 30.

서행차량 판단모듈(380)은 궤적추적모듈(372)에 의해 검출된 궤적정보를 분석하여 서행차량을 검출한다.The slow-moving-vehicle determining module 380 analyzes the sign information detected by the sign tracing module 372 to detect the slow-moving vehicle.

이때 서행차량 판단모듈(380)은 검출된 최종객체들 중 다른 차량객체들에 비교하여 속도가 작은 차량을 서행차량이라고 판단한다.At this time, the slowing-down vehicle judging module 380 judges that the slowest vehicle is a slowing-down vehicle compared with other vehicle objects among the detected final objects.

또한 만약 서행차량 판단모듈(380)에 의해 서행차량이 검출되면, 제어부(30)의 제어에 따라 돌발상황 발생데이터 생성모듈(381)이 구동된다.If the slow vehicle detection module 380 detects the slow vehicle, the unexpected situation occurrence data generation module 381 is driven under the control of the control unit 30.

돌발상황 발생데이터 생성모듈(381)은 안개여부 판단모듈(373), 차량사고 판단모듈(374), 결빙 판단모듈(375), 역주행 판단모듈(376), 낙하물 판단모듈(377), 불법주정차 판단모듈(378), 보행자 판단모듈(379) 및 서행차량 판단모듈(380) 중 적어도 하나 이상에 감지대상이 검출되는 경우 구동된다.The unexpected state occurrence data generation module 381 includes a mist determination module 373, a vehicle accident determination module 374, an icing determination module 375, an inverse skid determination module 376, a fall determination module 377, Module 378, the pedestrian judgment module 379, and the slow-moving-vehicle judgment module 380. [0060]

또한 돌발상황 발생데이터 생성모듈(381)은 구동 시 돌발 상황에 관련된 내용정보, 통합영상 프레임, 위치정보를 포함하는 돌발상황 발생데이터를 생성한다.In addition, the incoincidence occurrence data generation module 381 generates incoincidence occurrence data including content information, an integrated image frame, and position information related to an unexpected situation at the time of driving.

또한 돌발상황 발생데이터 생성모듈(381)에 의해 생성되는 돌발상황 발생데이터는 제어부(30)의 제어에 따라 관제센터서버(5)로 전송된다.In addition, the unexpected condition occurrence data generated by the unexpected condition occurrence data generation module 381 is transmitted to the control center server 5 under the control of the control section 30. [

추적카메라 제어부(38)는 돌발 상황 관리부(37)에 의해 돌발상황 발생데이터가 생성될 때 구동되며, 돌발 상황이 발생되는 위치로 추적카메라(335)의 PTZ(Pan-Tilt-Zoom)를 제어하여 돌발 상황이 발생된 영역에 대한 확대영상을 획득하도록 한다.The tracking camera control unit 38 is driven when the unexpected situation occurrence data is generated by the unexpected situation management unit 37 and controls the PTZ (Pan-Tilt-Zoom) of the tracking camera 335 to a position where an unexpected situation occurs And obtain an enlarged image of an area where an unexpected situation has occurred.

또한 추적카메라 제어부(38)의 제어에 따라 추적카메라(335)에 의해 획득된 영상은 메모리(31)에 저장됨과 동시에 관제센터서버(5)로 전송된다.The image obtained by the tracking camera 335 under the control of the tracking camera control unit 38 is stored in the memory 31 and transmitted to the control center server 5 at the same time.

교통관련정보 생성부(39)는 통합영상 생성부(36)의 최종객체들의 위치정보를 분석하여 차량속도, 차종, 차간거리, 사고정보, 점유율, 정체율 등의 교통관련정보를 생성한다.The traffic related information generating unit 39 analyzes the position information of the final objects of the integrated image generating unit 36 to generate traffic related information such as the vehicle speed, the vehicle type, the inter-vehicle distance, the accident information, the occupancy rate, and the congestion rate.

또한 교통관련정보 생성부(39)에 의해 생성되는 교통관련정보는 제어부(30)의 제어에 따라 관제센터서버(5)로 전송된다.The traffic related information generated by the traffic related information generating unit 39 is transmitted to the control center server 5 under the control of the control unit 30. [

서브 통신 인터페이스부(40)는 로컬서버(2)로부터 장애확인 데이터를 수신 받는다.The sub communication interface unit 40 receives the failure confirmation data from the local server 2.

즉 본 발명의 돌발 상황 감지기(3)는 로컬 서버(2)로 영상을 포함하는 데이터를 전송할 때, 통신 인터페이스부(32)를 사용하되, 로컬 서버(2)로부터 전송되는 장애확인 데이터는 서브 통신 인터페이스부(40)를 통해 수신 받음으로써 리셋을 통해 통신 인터페이스부(32)의 통신 장애를 신속하게 대처할 수 있게 된다.That is, the unexpected state detector 3 of the present invention uses the communication interface unit 32 to transmit data including an image to the local server 2, The communication interface unit 32 can receive a communication failure via the interface unit 40 quickly.

리셋처리부(41)는 서브 통신 인터페이스부(40)를 통해 로컬서버(2)로부터 장애확인 데이터를 전송받을 때 구동되며, 해당 컨트롤러(310)의 전원을 제어하여 컨트롤러(310)를 리셋(재부팅) 시킨다.The reset processing unit 41 is driven when the failure confirmation data is received from the local server 2 through the sub communication interface unit 40 and controls the power supply of the corresponding controller 310 to reset the controller 310, .

즉 리셋제어부(40)는 서브 통신 인터페이스부(40)를 통해 로컬서버(2)로부터 장애확인 데이터를 전송받은 경우, 해당 컨트롤러(310)를 리셋 시킴으로써 컨트롤러(310)의 통신 장애 발생 시 신속한 대처가 이루어지도록 한다.That is, when the failure control data is received from the local server 2 through the sub communication interface 40, the reset controller 40 resets the corresponding controller 310, thereby promptly responding to a communication failure of the controller 310 .

도 12는 도 2의 로컬서버를 나타내는 블록도이다.12 is a block diagram illustrating the local server of FIG.

로컬서버(2)는 도 12에 도시된 바와 같이, 제어모듈(20)과, 메모리(21), 통신 인터페이스모듈(22), 제1 핑-테스트모듈(23), 제2 핑-테스트모듈(24), 리셋대상 결정모듈(25), 리셋구동모듈(26), 점검모듈(27)로 이루어진다.The local server 2 includes a control module 20 and a memory 21, a communication interface module 22, a first ping-test module 23, a second ping-test module 24, a reset target determination module 25, a reset drive module 26, and an inspection module 27.

제어모듈(20)은 통신 인터페이스모듈(22)을 통해 할당된 돌발 상황 감지기(3)들의 컨트롤러(310)로부터 데이터를 전송받으면, 통신 인터페이스모듈(22)을 제어하여 전송받은 데이터가 관제센터서버(5)로 전송되도록 한다.When the control module 20 receives data from the controller 310 of the unexpected condition detectors 3 allocated through the communication interface module 22, the control module 20 controls the communication interface module 22 to transmit the received data to the control center server 5).

또한 제어모듈(20)은 제1 핑-테스트 모듈(23)에 의해 장애가 발생되었다고 판단되면, 리셋대상 결정모듈(25)을 구동시킨다.The control module 20 also drives the reset target determination module 25 when it is determined that the failure has occurred by the first ping-test module 23.

또한 제어모듈(20)은 제2 핑-테스트 모듈(24)에 의해 장애가 발생되었다고 판단되면, 리셋대상 결정모듈(25)을 구동시킨다.The control module 20 also drives the reset target determination module 25 when it is determined that a failure has occurred by the second ping-test module 24.

또한 제어모듈(20)은 리셋대상 결정모듈(25)에 의해 리셋대상이 할당된 돌발 상황 감지기(3)들 중 어느 하나로 결정되면, 해당 돌발 상황 감지기(3)의 서브 통신 인터페이스부(40)로 장애확인 데이터가 전송되도록 통신 인터페이스모듈(22)을 제어한다. 이때 돌발 상황 감지기(3)의 컨트롤러(310)는 서브 통신 인터페이스부(40)를 통해 로컬서버(2)로부터 장애확인 데이터를 전송받으면, 리셋처리부(41)를 구동시킴으로써 해당 컨트롤러(310)의 통신 장애를 신속하게 정상 상태로 복구하도록 한다.When the control module 20 is determined to be one of the unexpected events detectors 3 to which the reset target is assigned by the reset target decision module 25, And controls the communication interface module 22 so that the failure confirmation data is transmitted. When the controller 310 of the unexpected state detector 3 receives the failure confirmation data from the local server 2 through the sub communication interface 40 and drives the reset processing unit 41, Ensure that the fault is quickly restored to a normal state.

또한 제어모듈(20)은 리셋대상 결정모듈(25)에 의해 리셋대상이 자기 자신으로 결정되면, 리셋구동모듈(26)을 제어하여 로컬서버(2)가 리셋 되도록 한다.The control module 20 also controls the reset drive module 26 to reset the local server 2 when the reset target determination module 25 determines that the reset target is itself.

또한 제어모듈(20)은 통신 인터페이스모듈(22)을 통해 관제센터서버(5)로부터 장애확인 데이터를 전송받으면, 전송받은 장애확인 데이터를 리셋대상 결정모듈(25)로 입력한다.When the control module 20 receives the failure confirmation data from the control center server 5 through the communication interface module 22, the control module 20 inputs the received failure confirmation data to the reset target determination module 25.

메모리(21)에는 제1 핑-테스트 모듈(23) 및 제2 핑-테스트 모듈(24)에서 이루어지는 핑-테스트(Ping-test)를 수행하기 위한 핑-테스트 알고리즘이 저장된다.The memory 21 stores a ping-test algorithm for performing a ping-test in the first ping-test module 23 and the second ping-test module 24.

제1 핑-테스트 모듈(23)은 기 설정된 핑-테스트 알고리즘을 활용하여 돌발 상황 감지기(3)들의 컨트롤러(310)들과의 네트워크 상태를 확인하기 위한 핑-테스트를 수행한다. 이때 핑(Ping)은 특정 컴퓨터에게 일정한 테스트 데이터를 보내어 상대방 컴퓨터의 정상 동작 여부를 테스트할 수 있는 유닉스(Unix) 명령어이고, 이러한 핑-테스트는 네트워크 시스템에서 네트워크 상태를 점검하기 위한 방식으로 통상적으로 사용되는 기술이기 때문에 상세한 설명은 생략하기로 한다.The first ping-test module 23 performs a ping-test to check the network status of the unexpected situation detectors 3 with the controllers 310 using a predetermined ping-test algorithm. At this time, a ping is a Unix command that can test whether or not the other computer is operating normally by sending certain test data to a specific computer. Such a ping-test is a method for checking the network status in a network system, The detailed description will be omitted.

또한 제1 핑-테스트 모듈(23)은 검출된 제1 핑-데이터를 기 설정된 임계범위에 비교하며, 만약 검출된 제1 핑-데이터가 임계범위에 포함되는 경우 해당 돌발 상황 감지기(3)에서 통신장애가 발생하지 않았다고 판단하되, 만약 검출된 제1 핑-데이터가 임계범위를 벗어나는 경우 통신장애가 발생하였다고 판단한다.The first ping-test module 23 also compares the detected first ping-data to a predetermined threshold range, and if the detected first ping-data is included in the threshold range, It is determined that a communication failure has not occurred, and if the detected first ping-data is out of the threshold range, it is determined that a communication failure has occurred.

또한 제1 핑-테스트 모듈(23)은 통신장애가 발생하였다고 판단될 때, 판단된 결과값을 리셋대상 결정모듈(25)로 입력한다.When the first ping-test module 23 determines that a communication failure has occurred, the first ping-test module 23 inputs the determined result value to the reset target determination module 25.

제2 핑-테스트 모듈(24)은 기 설정된 핑-테스트 알고리즘을 활용하여 관제센터서버(5)와의 네트워크 상태를 확인하기 위한 핑-테스트를 수행한다.The second ping-test module 24 performs a ping-test to check the network status with the control center server 5 utilizing a predetermined ping-test algorithm.

또한 제2 핑-테스트 모듈(24)은 검출된 제2 핑-데이터를 기 설정된 임계범위에 비교하며, 만약 검출된 제2 핑-데이터가 임계범위에 포함되는 경우 자기 자신의 통신상태가 정상적으로 이루어지고 있다고 판단하되, 만약 검출된 제2 핑-데이터가 임계범위를 벗어나는 경우 자기 자신에게 통신장애가 발생하였다고 판단한다.The second ping-test module 24 also compares the detected second ping-data to a predetermined threshold range, and if the detected second ping-data is included in the threshold range, If the detected second ping-data is out of the threshold range, it is determined that a communication failure has occurred to itself.

또한 제2 핑-테스트 모듈(24)은 통신장애가 발생하였다고 판단될 때, 판단된 결과값을 리셋대상 결정모듈(25)로 입력한다.When the second ping-test module 24 determines that a communication failure has occurred, the second ping-test module 24 inputs the determined result value to the reset target determination module 25.

리셋대상 결정모듈(25)은 제1 핑-테스트 모듈(23)로부터 장애가 발생되었다고 판단되면, 해당 돌발 상황 감지기(3)의 컨트롤러(310)를 리셋대상으로 결정한다.The reset target determination module 25 determines that the controller 310 of the corresponding unexpected condition detector 3 is to be reset if it is determined that a failure has occurred from the first ping-test module 23.

이때 제어모듈(20)은 리셋대상 결정모듈(25)에 의해 리셋대상으로 결정된 컨트롤러(310)의 서브 통신 인터페이스부(40)로 장애확인 데이터를 전송하고, 해당 컨트롤러(310)는 서브 통신 인터페이스부(40)를 통해 로컬서버(2)로부터 장애확인 데이터를 전송받으면, 리셋을 수행함으로써 통신 장애에 대한 신속한 대처가 이루어질 수 있게 된다.At this time, the control module 20 transmits the failure confirmation data to the sub communication interface 40 of the controller 310 determined as the reset target by the reset target determination module 25, When receiving the failure confirmation data from the local server 2 via the network 40, resetting is performed so that a quick response to the communication failure can be made.

또한 리셋대상 결정모듈(25)은 제2 핑-테스트 모듈(24)로부터 장애가 발생되었다고 판단되면, 자기 자신인 로컬서버(2)를 리셋대상으로 결정하며, 리셋구동모듈(26)을 구동시킨다.Also, when it is determined that a failure has occurred from the second ping-test module 24, the reset target determination module 25 determines the local server 2 as its own to be reset, and drives the reset drive module 26.

즉 리셋대상 결정모듈(25)은 만약 제1 핑-테스트 모듈(23)에 의해 통신장애가 발생되었다고 판단되는 경우, 리셋대상을 해당 돌발 상황 감지기93)로 결정하고, 만약 제2 핑-테스트 모듈(24)에 의해 통신장애가 발생되었다고 판단되는 경우, 리셋대상을 자기 자신(로컬서버(2))으로 결정한다.That is, if it is determined that the communication failure has occurred by the first ping-test module 23, the reset target determination module 25 determines the reset target to the corresponding pending status detector 93, and if the second ping- 24 determines that a communication failure has occurred, it determines itself as the reset target itself (local server 2).

또한 리셋대상 결정모듈(25)은 통신 인터페이스모듈(21)을 통해 관제센터서버(5)로부터 장애확인 데이터를 입력받으면, 입력된 시점부터 기 설정된 임계시간 이전 사이인 탐색주기(T) 동안 제2 핑-테스트 모듈(24)에 의해 자기 자신에게 장애가 발생되었다고 판단된 적이 있는지를 비교한다.When receiving the failure confirmation data from the control center server 5 via the communication interface module 21, the reset target determination module 25 determines whether or not the second The ping-test module 24 compares whether or not the failure has been judged to have occurred in itself.

또한 리셋대상 결정모듈(25)은 만약 탐색주기(T) 동안 제2 핑-테스트 모듈(24)에 의해 장애가 발생되었다고 판단된 적이 있으면, 별도의 동작을 수행하지 않고, 만약 탐색주기(T) 동안 제2 핑-테스트 모듈(24)에 의해 장애가 발생되었다고 판단된 적이 없으면, 리셋대상을 자기 자신(로컬서버(2))으로 결정한다.Also, the reset target determination module 25 does not perform any other operation if it is determined that the failure has occurred by the second ping-test module 24 during the search period T, If the second ping-test module 24 has not determined that the failure has occurred, it determines the reset target itself (local server 2).

즉 본 발명의 돌발 상황 감지시스템은 통신 장애를 판별하기 위한 핑-테스트가 로컬서버(2) 및 관제센터서버(5)에서 2중으로 통신장애 여부 판단의 정확성 및 신뢰도를 높임과 동시에 만약 동일한 통신상태에 대하여 로컬서버(2)에서는 통신 장애를 검출하지 못하되, 관제센터서버(5)에서만 통신 장애가 검출되는 경우 장애여부 판단의 정확성 및 신뢰도를 높임과 동시에 만약 동일한 통신상태에 대하여 로컬서버(2)에서는 통신장애를 검출하지 못하되, 관제센터서버(5)에서만 장애가 검출되는 경우 로컬서버(2)에 일시적인 부하가 발생하였다고 판단하여 로컬서버(2)를 리셋(재부팅) 시킴으로써 부하로 인한 장애를 해결할 수 있게 된다.That is, in the unexpected situation detection system according to the present invention, the ping-test for discriminating the communication failure is performed twice in the local server 2 and the control center server 5 to increase the accuracy and reliability of the communication failure judgment, The local server 2 can not detect the communication failure. However, if the communication failure is detected only in the control center server 5, the accuracy and reliability of the determination of the failure can be increased and, at the same time, It is determined that a temporary load has occurred in the local server 2 when a failure is detected only in the control center server 5 and the local server 2 is reset (rebooted) .

리셋구동모듈(26)은 리셋대상 결정모듈(25)에 의해 결정된 리셋대상이 자기 자신(로컬서버(2))이면 자기 자신을 리셋(재부팅) 시킴으로써 통신 장애에 대한 신속한 대응이 가능하게 된다.The reset drive module 26 can quickly respond to a communication failure by resetting (rebooting) itself if the reset target determined by the reset target determination module 25 is itself (the local server 2).

점검모듈(27)은 리셋구동모듈(26)에 의해 리셋이 이루어진 이후에도 장애가 지속적으로 발생되는지를 검출한다.The checking module 27 detects whether a fault is continuously generated even after the reset is performed by the reset driving module 26. [

또한 점검모듈(27)은 만약 리셋 이후 장애가 반복되는 경우, 리셋으로 장애를 해결할 수 없다고 판단하여 장애지속 데이터를 생성한다.If the failure is repeated after the reset, the check module 27 determines that the failure can not be resolved by the reset and generates the failure persistence data.

이때 점검모듈(27)에 의해 생성된 장애지속 데이터는 제어모듈(20)의 제어에 따라 관제센터서버(5)로 전송되고, 관제센터서버(5)는 로컬서버(2)로부터 장애지속 데이터를 전송받으면, 유지보수업체의 관리자 단말기(미도시)로 이러한 정보를 포함하는 알림정보를 전송함으로써 리셋(재부팅) 만으로 장애가 해결되지 않는 경우 신속한 현장 대응이 가능하도록 한다.At this time, the failure persistence data generated by the check module 27 is transmitted to the control center server 5 under the control of the control module 20, and the control center server 5 receives the failure persistence data from the local server 2 Upon receipt of the transmission, notification information including this information is transmitted to an administrator terminal (not shown) of the maintenance company, thereby enabling quick on-site response when the failure can not be solved only by resetting (rebooting).

관제센터서버(5)는 돌발 상황 감지기(3)를 관리 및 제어하는 서버이며, 로컬서버(2-1), ..., (2-N)들을 통해 돌발 상황 감지기(3)로부터 전송받은 통합영상을 저장함과 동시에 모니터링을 수행한다.The control center server 5 is a server that manages and controls the unexpected state detector 3 and receives the unified state transmitted from the unexpected state detector 3 through the local servers 2-1, Monitoring is performed at the same time as the image is saved.

또한 관제센터서버(5)는 로컬서버(2-1), ..., (2-N)들로부터 전송받은 교통관련정보를 가공 및 활용하여 교통정보를 생성하며, 접속된 클라이언트로 생성된 교통정보를 제공한다.The control center server 5 also generates traffic information by processing and utilizing traffic related information received from the local servers 2-1, ..., and 2-N, Provide information.

또한 관제센터서버(5)는 돌발 상황 감지기(3)로부터 돌발상황 발생데이터를 전송받으면, 해당 통합영상을 모니터링 함과 동시에 외부 협력기관(경찰청, 소방서)에 이를 통보하여 해당 현장으로 신속한 대응이 가능하도록 한다.In addition, the control center server 5 monitors the integrated image when it receives an unexpected condition occurrence data from the unexpected condition detector 3, and notifies it to an external cooperative agency (police agency, fire department) .

또한 관제센터서버(5)는 주기적으로 로컬서버(2-1), ..., (2-N)들 각각의 네트워크 상태를 점검하기 위한 핑-테스트를 수행하며, 만약 특정 로컬서버와의 통신 상태가 장애라고 판별되면, 해당 로컬서버로 장애확인 데이터를 전송한다.Also, the control center server 5 periodically performs a ping-test to check the network status of each of the local servers 2-1, ..., and (2-N), and if communication with a specific local server If it is determined that the state is a failure, the failure confirmation data is transmitted to the local server.

도 13은 본 발명의 돌발 상황 감지방법을 설명하기 위한 플로차트이다.13 is a flowchart for explaining an unexpected situation detection method of the present invention.

돌발 상황 감지방법(S1)은 도 13에 도시된 바와 같이, 촬영단계(S10)와, 캘리브레이션 단계(S20), 촬영영상 분석단계(S30), 열화상 분석단계(S40), 통합영상 생성단계(S50), 돌발 상황 관리단계(S60), 교통관련정보 생성단계(S70), 전송단계(S80), 통신장애 판별단계(S90)로 이루어진다.13, the unexpected state detection method S1 includes a photographing step S10, a calibration step S20, a photographed image analysis step S30, a thermal image analysis step S40, an integrated image generation step S50, an unexpected situation management step S60, a traffic related information generating step S70, a transmission step S80, and a communication failure determination step S90.

촬영단계(S10)는 가시광 카메라(331)의 촬영을 통해 촬영영상을 획득함과 동시에 열화상 카메라(333)를 이용하여 열화상을 획득하는 단계이다.The photographing step S10 is a step of acquiring a photographed image through photographing by the visible light camera 331 and acquiring a thermal image using the thermal camera 333.

캘리브레이션 단계(S20)는 촬영단계(S10)에 의해 획득된 촬영영상 및 열화상에 대한 캘리브레이션의 수행결과에 따른 파라미터 등의 정보를 통해 영상의 2차원 이미지와 감시 공간을 대응시키기 위한 관계정보로 정의되는 캘리브레이션 정보를 생성하는 단계이다.The calibration step S20 is defined as relation information for associating the two-dimensional image of the image with the surveillance space through the information of the image obtained by the imaging step S10 and the parameter according to the result of the calibration for the thermal image The calibration information is generated.

촬영영상 분석단계(S30)는 캘리브레이션 단계(S20)에 의해 생성된 캘리브레이션 정보를 참조함과 동시에 기 설정된 영상분석 알고리즘을 이용하여 촬영영상으로부터 차량, 보행자 및 낙하물(물체) 등의 제1 객체를 검출하는 단계이다.The captured image analysis step S30 refers to the calibration information generated by the calibration step S20 and simultaneously detects a first object such as a vehicle, a pedestrian, and a falling object (object) from the captured image using a predetermined image analysis algorithm .

열화상 분석단계(S40)는 캘리브레이션 단계(S20)에 의해 생성된 캘리브레이션 정보를 참조함과 동시에 기 설정된 열화상분석 알고리즘을 이용하여 열화상으로부터 차량, 보행자 및 결빙구간 등의 제2 객체를 검출하는 단계이다.The thermal image analysis step S40 refers to the calibration information generated by the calibration step S20 and simultaneously detects a second object such as a vehicle, a pedestrian, and an icemaker from the thermal image using a predetermined thermal image analysis algorithm .

통합영상 생성단계(S50)는 촬영영상 및 열화상을 기반으로 하여 통합영상을 생성하는 단계이다.The integrated image generation step S50 is a step of generating an integrated image based on the photographed image and the thermal image.

도 14는 도 13의 통합영상 생성단계를 나타내는 플로차트이다.FIG. 14 is a flowchart showing the integrated image generating step of FIG.

통합영상 생성단계(S50)는 도 14에 도시된 바와 같이, 기준영상 결정단계(S51)와, 영상매칭단계(S52), 객체 비교단계(S53), 통합영상 처리단계(S54)로 이루어진다.The integrated image generation step S50 includes a reference image determination step S51, an image matching step S52, an object comparison step S53, and an integrated image processing step S54, as shown in FIG.

기준영상 결정단계(S51)는 기 설정된 결정방식을 이용하여 통합영상 생성모듈(364)에 의해 생성되는 통합영상의 기초로 활용될 기준영상을 촬영영상으로 할 것인지 또는 열화상으로 할 것인지를 결정하는 단계이다.The reference image determination step S51 determines whether to use the reference image to be used as the basis of the integrated image generated by the integrated image generation module 364 as a photographed image or a thermal image by using a predetermined determination method .

예를 들어, 기 설정된 결정방식은 광량이 임계치 이상이면 기준영상을 촬영영상으로 결정하되, 광량이 임계치 미만이면 기준영상을 열화상으로 결정하는 제1 방식으로 구성될 수 있고, 다른 예로 기 설정된 결정방식은 촬영영상의 선명도를 검출한 후 검출된 선명도가 임계치 이상이면 기준영상을 촬영영상으로 결정하되, 선명도가 임계치 미만이면 기준영상을 열화상으로 결정하는 제2 방식으로 구성될 수 있다.For example, the predetermined determination method can be configured as a first method of determining a reference image as a photographed image when the light amount is equal to or greater than a threshold value, and a reference image as a thermal image if the light amount is less than a threshold value. The system may be configured to detect the sharpness of the photographed image, determine the reference image as the photographed image if the detected sharpness is equal to or greater than the threshold value, and determine the reference image as the thermal image if the sharpness is less than the threshold value.

영상매칭단계(S52)는 전술하였던 도 11의 캘리브레이션 단계(S20)에 의해 생성된 캘리브레이션 정보를 참조하여 기준영상 결정단계(S51)에 의해 결정된 기준영상에, 기준영상이 아닌 영상의 감시공간을 매개로 하여 상호 매칭시킬 수 있는 영상매칭정보를 생성하는 단계이다.The image matching step S52 refers to the calibration information generated by the calibration step S20 of FIG. 11 described above, and transmits the reference image, which is determined by the reference image determination step S51, And generates image matching information that can be matched with each other.

이때 영상매칭정보는 촬영영상 및 열화상의 공간 관계들 사이의 연관성을 나타내는 정보로 정의된다.At this time, the image matching information is defined as information indicating a relation between the photographed image and the spatial relations of the degradation image.

객체 비교단계(S53)는 전술하였던 도 13의 촬영영상 분석단계(S30)에 의해 검출된 제1 객체들과, 열화상 분석단계(S40)에 의해 검출된 제2 객체들의 위치정보를 비교하는 단계이며, 상세하게로는 제1 객체들의 위치정보 및 제2 객체들의 위치정보들을 비교하여 임계범위 이내의 위치정보를 갖는 객체들을 동일한 객체인 최종객체로 판별한다.The object comparison step S53 is a step of comparing the positional information of the first objects detected by the captured image analysis step S30 of FIG. 13 and the second objects detected by the thermal image analysis step S40 Specifically, the position information of the first objects and the position information of the second objects are compared with each other, and the objects having the position information within the critical range are identified as the final object, which is the same object.

또한 객체 비교단계(S53)는 만약 열화상 분석단계(S40)에서는 검출되지 않되, 촬영영상 분석단계(S30)에서만 검출되는 객체가 존재하는 경우, 해당 제1 객체를 최종 객체로 결정한다.Also, the object comparison step S53 is not detected in the thermal image analysis step S40, but if there is an object detected only in the shot image analysis step S30, the object comparison step S53 determines the first object as a final object.

또한 객체 비교단계(S53)는 만약 촬영영상 분석단계(S30)에서는 검출되지 않되, 열화상 분석단계(S40)에서만 검출되는 객체가 존재하는 경우 해당 제2 객체를 최종 객체로 결정한다.In addition, the object comparison step S53 determines the second object as the final object if the object detected in the thermal image analysis step S40 is not detected in the captured image analysis step S30.

통합영상 처리단계(S54)는 기준영상 결정단계(S51)에 의해 결정된 기준영상에, 객체 비교단계(S53)에 의해 최종객체로 판별된 객체들을 표시하며, 표시되는 각 객체에 열화상 분석부에 의해 측정된 온도값을 표시함으로써 통합영상을 생성하는 단계이다. The integrated image processing step S54 displays the objects determined as the final object by the object comparison step S53 on the reference image determined by the reference image determination step S51, And displaying the temperature value measured by the temperature sensor.

즉 통합영상 처리단계(S54)에 의해 생성되는 통합영상은, 기준영상에 촬영영상 분석단계(S30) 및 열화상 분석단계(S40)에 의해 검출되는 모든 객체들을 전시함과 동시에 각 객체의 온도가 함께 디스플레이 되게 된다.That is, the integrated image generated by the integrated image processing step S54 displays all the objects detected by the captured image analysis step S30 and the thermal image analysis step S40 in the reference image, Are displayed together.

도 15는 도 13의 돌발 상황 관리단계를 설명하기 위한 플로차트이다.FIG. 15 is a flowchart for explaining the unexpected situation management step in FIG.

돌발 상황 관리단계(S60)는 도 13에 도시된 바와 같이, 최종객체 검출단계(S610)와, 궤적추적단계(S620), 안개여부 판단단계(S630), 차량사고 판단단계(S640), 결빙 판단단계(S650), 역주행 판단단계(S660), 낙하물 판단단계(S670), 불법주정차 판단단계(S680), 보행자 판단단계(S690), 서행차량 판단단계(S700), 돌발 상황 발생데이터 생성단계(S710)로 이루어진다.13, the unexpected situation management step S60 includes a final object detection step S610, a trajectory tracking step S620, a fog determination step S630, a vehicle accident determination step S640, The pedestrian judgment step S690, the slow-moving vehicle judgment step S700, the unexpected state occurrence data generation step S710, the step S650, the step S660, the fall determination step S670, ).

최종객체 검출단계(S610)는 통합영상 생성단계(S50)에 의해 결정된 최종객체들 각각의 위치정보를 검출하는 단계이다.The final object detection step S610 is a step of detecting position information of each of the final objects determined by the integrated image generation step S50.

궤적추적단계(S620)는 최종객체 검출단계(S610)에 의해 검출된 최종객체들 각각의 위치정보를 활용하여 각 최종객체의 궤적을 추적하는 단계이다.The trajectory tracking step S620 is a step of tracking the trajectory of each final object using the positional information of each of the final objects detected by the final object detecting step S610.

안개여부 판단단계(S630)는 촬영영상 분석단계(S30)에 의해 검출되는 제1 객체들의 수량(N1) 및 열화상 분석부(35)에 의해 검출되는 제2 객체들의 수량(N2)을 산출한 후 산출된 수량들의 차이절대값이 기 설정된 임계치 미만일 때 해당 영역에 안개가 많아 시야가 확보되지 않은 것으로 판단하는 단계이다.The fog determination step S630 is a step of calculating the number N1 of the first objects detected by the captured image analysis step S30 and the number N2 of the second objects detected by the thermal image analysis unit 35 When the absolute value of difference in the calculated quantities is less than a preset threshold value, it is determined that there is a lot of mist in the corresponding area and that the field of view is not ensured.

또한 만약 안개여부 판단단계(S630)에 의해 해당 영역에 안개가 발생하였다고 판단되면, 돌발상황 발생데이터 생성단계(S710)를 진행한다.If it is determined in step S630 that a fog has occurred in the corresponding area, the process proceeds to step S710.

차량사고 판단단계(S640)는 궤적추적단계(S620)에 의해 검출된 각 최종객체의 궤적정보를 분석하여 차량사고가 발생되었는지를 판단하는 단계이다.The vehicle accident determination step S640 is a step of determining whether a vehicle accident has occurred by analyzing the trajectory information of each final object detected by the trajectory tracking step S620.

이때 차량사고 판단단계(S640)는 검출된 최종객체들의 속도가 점차 낮아지다가 ‘0’이 됨과 동시에 후속 최종객체들의 속도가 정차하는 경우 차량사고가 발생하였다고 판단할 수 있다.At this time, the vehicle accident determination step S640 may determine that a vehicle accident has occurred when the speed of the detected final objects gradually decreases to '0' and the speed of the subsequent final objects is stopped.

또한 만약 차량사고 판단단계(S640)에 의해 차량 사고가 발생하였다고 판단되면, 돌발상황 발생데이터 생성단계(S710)를 진행한다.If it is determined in step S640 that a vehicle accident has occurred, the process proceeds to step S710.

결빙 판단단계(S650)는 촬영영상 분석단계(S30)에서는 검출되지 못하고 열화상 분석단계(S40)에 의해서만 검출되는 제2 객체들 중 온도가 임계치 미만이면서 움직임이 없는 경우, 해당 제2 객체를 결빙으로 판단하는 단계이다.In the freezing determination step S650, if the temperature of the second objects that can not be detected in the captured image analysis step S30 and detected only by the thermal image analysis step S40 is less than the threshold value and there is no movement, .

또한 결빙 판단단계(S650)에 의해 노면에 결빙이 형성되었다고 판단되면, 돌발상황 발생데이터 생성단계(S710)를 진행한다.If it is determined in step S650 that freezing is formed on the road surface, step S710 is performed.

역주행 판단단계(S660)는 궤적추적단계(S620)에 의해 검출된 궤적정보를 분석하여 동일한 차선 상에서 이동방향이 반대인 최종객체가 검출되는 경우 해당 최종객체를 역주행 차량이라고 판단하는 단계이다.Step S660 is a step of analyzing the sign information detected by the trajectory tracking step S620 and determining that the final object is an inverse vehicle when a final object whose direction of movement is opposite on the same lane is detected.

또한 만약 역주행 판단단계(S660)에 의해 역주행 차량이 검출되면, 돌발상황 발생데이터 생성단계(S710)를 진행한다.If an inverse vehicle is detected by the inverse travel determination step S660, the process proceeds to an unexpected condition occurrence data generation step S710.

낙하물 판단단계(S670)는 궤적추적단계(S620)에 의해 검출된 궤적정보를 분석하여 이전 프레임 상에는 존재하지 않았던 최종객체가 검출된 이후 해당 최종 객체의 속도가 임계치 미만인 경우 도로에 낙하물이 떨어졌다고 판단하는 단계이다.The falling object determining step S670 analyzes the trajectory information detected in the trajectory tracking step S620 and determines that the falling object falls on the road when the speed of the final object is less than the threshold after the final object that is not present on the previous frame is detected .

또한 만약 낙하물 판단단계(S670)에 의해 낙하물이 검출되면, 돌발상황 발생데이터 생성단계(S710)를 진행한다.If a falling object is detected by the falling object determining step S670, the unexpected event generating data generating step S710 is performed.

불법주정차 판단단계(S680)는 궤적추적단계(S620)에 의해 검출된 궤적정보를 분석하여 불법주정차 차량을 검출하는 단계이다.The illegal parking discrimination step S680 is a step of detecting the illegally parked vehicle by analyzing the sign information detected by the trajectory tracking step S620.

또한 불법주정차 판단단계(S680)에 의해 불법주정차 차량이 검출되면, 돌발상황 발생데이터 생성단계(S710)를 진행한다.If an illegal parking distance is detected by the illegal parking distance determination step (S680), the unexpected parking distance data generation step (S710) is performed.

보행자 판단단계(S690)는 궤적추적단계(S620)에 의해 검출된 궤적정보를 분석하여 도로 상에 보행자가 존재하는지를 판단하는 단계이다.The pedestrian judgment step S690 is a step of judging whether a pedestrian exists on the road by analyzing the sign information detected by the sign tracing step S620.

이때 보행자 판단단계(S690)는 검출된 최종객체들 중 속도가 임계치 미만이면서 도로 상에 위치한 최종객체를 보행자라고 판단한다.At this time, the pedestrian judgment step S690 judges that the final object among the detected final objects, whose velocity is less than the threshold value and is located on the road, is a pedestrian.

또한 만약 보행자 판단단계(S690)에 의해 보행자가 검출되면, 돌발상황 발생데이터 생성단계(710)를 진행한다.If a pedestrian is detected by the pedestrian determination step S690, the process proceeds to an inconsistency occurrence data generation step 710. [

서행차량 판단단계(S700)는 궤적추적단계(S620)에 의해 검출된 궤적정보를 분석하여 서행차량을 검출하는 단계이다.The slow vehicle determining step S700 is a step of detecting the slow vehicle by analyzing the log information detected by the log tracing step S620.

이때 서행차량 판단단계(S700)는 검출된 최종객체들 중 다른 차량객체들에 비교하여 속도가 작은 차량을 서행차량이라고 판단한다.At this time, the slowing-down vehicle judging step S700 judges that the slowest vehicle is the slowing-down vehicle compared with the other vehicle objects among the detected final objects.

또한 만약 서행차량 판단단계(S700)에 의해 서행차량이 검출되면, 돌발상황 발생데이터 생성단계(710)를 진행한다.If the slowing vehicle is detected by the slowing vehicle determination step S700, the process proceeds to an unexpected condition generation data generation step 710. [

돌발상황 발생데이터 생성단계(S710)는 안개여부 판단단계(S630), 차량사고 판단단계(S640), 결빙 판단단계(S650), 역주행 판단단계(S660), 낙하물 판단단계(S670), 불법주정차 판단단계(S680), 보행자 판단단계(S690) 및 서행차량 판단단계(S700) 중 적어도 하나 이상에 감지대상이 검출될 때 진행되는 단계이다.The step S710 of generating the sudden situation occurrence data may include a step S630 for determining whether a mist is present, a step S640 for determining a vehicle accident, a step S650 for determining a freezing state, a step S650 for determining a freezing state, Step S680, a step of judging a pedestrian (S690), and a step S700 of determining a slow-moving vehicle (S700).

또한 돌발상황 발생데이터 생성단계(S710)는 진행 시 돌발 상황에 관련된 내용정보, 통합영상 프레임, 위치정보를 포함하는 돌발상황 발생데이터를 생성하는 단계이다.In addition, the step of generating an incoincidence occurrence data (S710) is a step of generating unexpected occurrence data including content information, an integrated image frame, and position information related to an unexpected situation at the time of the process.

다시 도 13으로 돌아가서 교통관련정보 생성단계(S70)를 살펴보면, 교통관련정보 생성단계(S70)는 통합영상 생성단계(S50)에 의한 최종객체들의 위치를 이용하여 차량속도, 차종, 차간거리, 사고정보, 점유율, 정체율 등의 교통관련정보를 생성하는 단계이다.Referring back to FIG. 13, the traffic-related information generation step S70 may include generating a traffic-related information using the position of the final objects in the integrated image generation step S50, Related information such as information, occupancy rate, congestion rate, and the like.

전송단계(S80)는 돌발 상황 관리단계(S60) 또는 교통관련정보 생성단계(S70)에서 생성되는 돌발상황 발생데이터 또는 교통관련정보를 로컬서버로 전송하는 제1 전송단계와, 로컬서버가 제1 전송단계를 통해 전송받은 돌발상황 발생데이터 또는 교통관련정보를 외부 관제센터서버로 제2 전송단계를 포함한다.The transmission step S80 includes a first transmission step of transmitting the unexpected situation occurrence data or traffic related information generated in the unexpected situation management step S60 or the traffic related information creation step S70 to the local server, And a second transmission step to the external control center server for the unexpected occurrence data or traffic related information transmitted through the transmission step.

도 16은 도 13의 통신장애 판별단계를 설명하기 위한 플로차트이다.FIG. 16 is a flowchart for explaining the communication failure determination step of FIG. 13;

통신장애 판별단계(S90)는 도 16에 도시된 바와 같이, 제1 핑-테스트 단계(S910)와, 제2 핑-테스트 단계(S920), 외부 핑-테스트 단계(S930), 장애확인 데이터 송출단계(S940), 리셋대상 결정단계(S950), 로컬서버 리셋단계(S960), 장애확인 데이터 전송단계(S970), 컨트롤러 리셋단계(S980)로 이루어진다.The communication failure judgment step S90 may include a first ping-test step S910, a second ping-test step S920, an external ping-test step S930, Step S940, a reset target determination step S950, a local server reset step S960, a failure confirmation data transmission step S970, and a controller reset step S980.

제1 핑-테스트 단계(S910)는 로컬서버가 단계 10(S10) 내지 단계 80(S80)을 수행한 돌발 상황 감지기의 컨트롤러와의 네트워트 상태를 점검하기 위한 제1 핑-테스트를 수행하며, 검출된 제1 핑-데이터를 기 설정된 임계범위와 비교하여 검출된 제1 핑-데이터가 임계범위를 벗어나는 경우 해당 컨트롤러와의 통신 장애가 발생하였다고 판단하는 단계이다.The first ping-test step S910 performs a first ping-test for checking the network status with the controller of the unexpected state sensor that performed the steps 10 (S10) to 80 (S80) Data is compared with a predetermined threshold range and the detected first ping-data is out of the threshold range, it is determined that a communication failure has occurred with the controller.

제2 핑-테스트 단계(S910)는 로컬서버가 외부 관제센터서버와의 네트워크 상태를 점검하기 위한 제2 핑-테스트를 수행하며, 검출된 제2 핑-데이터를 임계범위와 비교하여 검출된 제2 핑-데이터가 임계범위를 벗어나는 경우 해당 관제센터서버와의 통신 장애가 발생하였다고 판단하는 단계이다.The second ping-test step (S910) performs a second ping-test for checking the network status with the external control center server by the local server, compares the detected second ping-data with the threshold range, When the 2 ping-data is out of the critical range, it is determined that a communication failure with the corresponding control center server has occurred.

외부 핑-테스트 단계(S930)는 관제센터서버가 로컬서버와의 네트워크 상태를 점검하기 위한 제3 핑-테스트를 수행하며, 검출된 제3 핑-데이터를 임계범위와 비교하여 검출된 제3 핑-데이터가 임계범위를 벗어나는 경우 로컬서버와의 통신 장애가 발생하였다고 판단하는 단계이다.The external ping-test step S930 is a step in which the control center server performs a third ping-test to check the network status with the local server, compares the detected third ping-data with a threshold range, - If the data is outside the critical range, it is determined that a communication failure with the local server has occurred.

장애확인데이터 송출단계(S940)는 외부 핑-테스트 단계(S930)에 의해 로컬서버와의 통신장애가 발생되었다고 판단될 때 진행되며, 통신장애가 발생되었다는 장애확인데이터를 로컬서버로 전송하는 단계이다.The fault acknowledgment data sending step S940 is a step in which, when it is determined that a communication fault with the local server has occurred due to the external ping-test step S930, the fault acknowledging data indicating that a communication fault has occurred is transmitted to the local server.

리셋대상 결정단계(S950)는 로컬서버가 제1-핑 테스트 단계(S910)에 의해 장애가 발생되었다고 판단되면 돌발 상황 감지기를 리셋대상으로 결정하며, 이후 장애확인 데이터 전송단계(S970)를 진행한다.In the reset target determination step S950, if the local server determines that a failure has occurred in the first-ping test step S910, the unexpected condition detector is determined as a reset target, and then the failure confirmation data transmission step S970 is performed.

또한 리셋대상 결정단계(S950)는 로컬서버가 제2 핑-테스트 단계(S920)에 의해 장애가 발생되었다고 판단되면 자기 자신을 리셋대상으로 결정하며, 이후 로컬서버 리셋단계(S960)를 진행한다.Also, if the local server determines that a failure has occurred in the second ping-test step (S920), the reset target determination step (S950) determines itself as a reset target, and then proceeds to a local server reset step (S960).

또한 리셋대상 결정단계(S950)는 장애확인데이터 송출단계(S950)를 통해 관제센터서버로부터 장애확인데이터를 전송받으면, 전송받은 시점부터 기 설정된 임계시간 이전 사이인 탐색주기(T) 동안에 제2 핑-테스트 단계(S920)에 의해 통신장애가 발생된 적이 있었는지를 탐색하며, 만약 탐색주기(T) 동안 제2 핑-테스트 단계(S920)에 의해 통신장애가 발생된 적이 없으면, 리셋대상을 자기 자신으로 결정하여 이후 로컬서버 리셋단계(S960)를 진행한다.In addition, when the failure confirmation data is received from the control center server through the failure confirmation data transmission step S950, the reset target determination step S950 is performed during the search period T between the transmission time point and the predetermined threshold time, If the communication failure has not been generated by the second ping-test step (S920) during the search period (T), it is checked whether the communication failure has occurred by the test step (S920) And proceeds to a local server reset step S960.

로컬서버 리셋단계(S960)는 리셋대상 결정단계(S950)에 의해 리셋대상이 로컬서버로 결정될 때 진행되며, 자기 자신인 로컬서버를 리셋시킨다.The local server reset step S960 is performed when the reset target is determined as the local server by the reset target determination step S950, and resets the local server itself.

장애확인데이터 전송단계(S970)는 리셋대상 결정단계(S950)에 의해 리셋대상이 돌발 상황 감지기의 컨트롤러로 결정될 때 진행되며, 로컬서버가 돌발 상황 감지기의 컨트롤러로 장애확인 데이터를 전송한다.The failure confirmation data transmission step S970 is performed when the reset target is determined to be the controller of the unexpected state detector by the reset object determination step S950, and the local server transmits the failure confirmation data to the controller of the unexpected state detector.

컨트롤러 리셋단계(S980)는 돌발 상황 감지기의 컨트롤러가 장애확인데이터 전송단계(S970)를 통해 로컬서버로부터 장애확인데이터를 전송받으면, 자기 자신인 컨트롤러를 리셋 시키는 단계이다.The controller reset step S980 is a step of resetting the controller, which is itself, when the controller of the unexpected condition sensor receives the failure confirmation data from the local server through the failure confirmation data transmission step S970.

이와 같이 본 발명의 일실시예인 돌발 상황 감지방법(S1)은 카메라(331) 및 열화상 카메라(333)를 이용하여 객체 검출 및 트랙킹을 수행함으로써 단일 카메라로 구동될 때 감지가 불가능한 객체들의 감지가 가능해져 감지율을 현저히 높일 수 있을 뿐만 아니라 수집되는 데이터의 양이 방대하여 돌발 상황 발생여부에 대한 판단의 정확성 및 신뢰도를 높일 수 있다.As described above, the unexpected state detection method (S1) of the present invention performs object detection and tracking using the camera (331) and the thermal imaging camera (333), so that detection of objects It is possible to remarkably increase the detection rate and also to increase the accuracy and reliability of the judgment as to whether or not the occurrence of an unexpected situation occurs because the amount of collected data is enormous.

또한 본 발명의 돌발 상황 감지방법(S1)은 시계 상태에 따라 기준영상이 결정되도록 구성되고, 기준영상이 아닌 다른 영상의 객체를 기준영상에 표시하여 통합영상을 생성하도록 구성됨으로써 영상을 통해 정보를 효율적으로 제공할 수 있게 된다.According to another aspect of the present invention, there is provided a method for detecting an unexpected state (S1), wherein a reference image is determined according to a clock state and an object of an image other than a reference image is displayed on a reference image to generate an integrated image, So that it can be efficiently provided.

또한 본 발명의 돌발 상황 감지방법(S1)은 돌발 상황 관리부(37)가 최종객체의 궤적을 추적하여 안개여부, 차량사고, 결빙, 역주행, 낙하물, 불법주정차, 서행차량, 보행자 등을 판단하여 이들 중 어느 하나에 이벤트가 발생되는 경우 돌발 상황이 발생되었다는 돌발 상황 발생데이터를 생성하도록 구성됨으로써 방대한 수집데이터를 활용하여 돌발 상황을 신속하고 정확하게 판별할 수 있게 된다.In the unexpected state detection method (S1) of the present invention, the unexpected situation management unit (37) tracks the trajectory of the final object to determine whether there is a mist, a vehicle accident, freezing, inversion, falling objects, illegally parked vehicles, It is possible to quickly and accurately discriminate an unexpected situation by utilizing a large amount of collected data by constructing an inconstant situation occurrence data that an unexpected situation has occurred.

또한 본 발명의 돌발 상황 감지방법(S1)은 통합영상 생성 시 촬영영상 분석부(34) 및 열화상 분석부(35)에 의해 검출된 모든 객체들을 전시하되, 각 객체의 온도가 표시되도록 통합영상을 생성함으로써 통합영상을 통한 정보를 더욱 상세하게 제공할 수 있다.In addition, the unexpected state detection method (S1) of the present invention displays all the objects detected by the photographed image analysis unit (34) and the thermal image analysis unit (35) when the integrated image is generated, So that the information through the integrated image can be provided in more detail.

S1:돌발 상황 감지방법 S10:촬영단계 S20:캘리브레이션 단계
S40:촬영영상 분석단계 S50:열화상 분석단계 S60:통합영상 생성단계
S70:교통관련정보 생성단계 S80:전송단계
S51:기준영상 결정단계 S52:영상매칭단계 S53:객체 비교단계
S54:통합영상 처리단계 S610:최종객체 검출단계
S620:궤적추적단계 S630:안개여부 판단단계
S640:차량사고 판단단계 S650:결빙 판단단계 S660:역주행 판단단계
S670:낙하물 판단단계 S680:불법주정차 판단단계
S690:보행자 판단단계 S700:서행차량 판단단계
S710:돌발상황 발생데이터 생성단계
1:돌발 상황 감지시스템 3:돌발상황 감지기
5:관제센터서버 10:통신망 30:제어부
31:메모리 32:통신 인터페이스부 33:캘리브레이션 처리부
34:촬영영상 분석부 35:열화상 분석부 36:통합영상 생성부
37:돌발 상황 관리부 38:교통관련정보 생성부
S1: Method of detecting an unexpected situation S10: Shooting step S20: Calibration step
S40: Photographed image analysis step S50: Thermal image analysis step S60: Integrated image generation step
S70: Traffic-related information generation step S80:
S51: Reference image determination step S52: Image matching step S53: Object comparison step
S54: Integrated image processing step S610: Final object detection step
S620: trajectory tracking step S630: determination of whether or not fog occurs
S640: Vehicle accident determination step S650: Freezing judgment step S660: Inverse travel judgment step
S670: SUSPECT SUSPECT SIZE S680: INVALID PURPOSE SURFACE DETERMINATION STEP
S690: Pedestrian judgment step S700: Slow vehicle judging step
S710: Step of generating incoincidence occurrence data
1: Emergency situation detection system 3: Emergency situation detector
5: control center server 10: communication network 30:
31: memory 32: communication interface unit 33: calibration processing unit
34: photographed image analysis section 35: thermal image analysis section 36: integrated image generation section
37: an unexpected situation management unit 38: a traffic related information generating unit

Claims (10)

가시광 카메라를 이용하여 기 설정된 감지영역에 대한 촬영영상과, 열화상 카메라를 이용하여 상기 감지영역에 대한 열화상을 획득하는 촬영단계;
상기 촬영단계에 의해 획득된 촬영영상 및 열화상의 2차원 이미지와 감지영역을 대응시키기 위한 관계정보인 캘리브레이션 정보를 획득하는 캘리브레이션 단계;
상기 캘리브레이션 단계에 의한 상기 캘리브레이션 정보를 참조하여 상기 촬영영상을 분석하여 제1 객체를 검출하는 촬영영상 분석단계;
상기 캘리브레이션 단계에 의한 상기 캘리브레이션 정보를 참조하여 상기 열화상을 분석하여 제2 객체를 검출하는 열화상 분석단계;
통합영상 생성단계를 포함하고,
상기 통합영상 생성단계는
기 설정된 결정방식을 이용하여 상기 촬영영상 및 상기 열화상 중 어느 하나를 통합영상의 기초로 활용될 기준영상으로 결정하는 기준영상 결정단계;
상기 캘리브레이션 정보를 참조하여 상기 촬영영상 및 상기 열화상의 공간 관계들 사이의 연관성을 나타내는 정보인 영상매칭정보를 생성하는 영상매칭단계;
상기 촬영영상 분석단계에 의해 검출된 제1 객체들과, 상기 열화상 분석단계에 의해 검출된 제2 객체들의 위치정보를 비교하며, 만약 기 설정된 임계범위 이내의 위치정보를 갖는 제1 객체 및 제2 객체를 동일한 객체로 판단하여 해당 객체를 최종객체로 판별하고, 만약 기 설정된 임계범위를 벗어난 제1 객체 또는 제2 객체를 최종객체로 판별하는 객체 비교단계;
상기 기준영상 결정단계에 의해 결정된 기준영상에, 상기 객체 비교단계에 의해 최종객체로 판별된 객체들을 표시하며, 표시되는 각 객체에 상기 열화상 분석단계에 의해 측정된 온도를 표시하여 통합영상을 생성하는 통합영상 처리단계를 더 포함하는 것을 특징으로 하는 돌발 상황 감지방법.
An imaging step of acquiring a photographed image for a predetermined sensing area using a visible light camera and a thermal image for the sensing area using a thermal imaging camera;
A calibration step of acquiring calibration information which is relationship information for associating the sensed image with the two-dimensional image of the sensed image and the deteriorated image obtained by the sensing step;
Analyzing the photographed image by referring to the calibration information by the calibration step and detecting a first object;
A thermal image analysis step of analyzing the thermal image by referring to the calibration information by the calibration step to detect a second object;
And an integrated image generation step,
The integrated image generation step
A reference image determining step of determining any one of the photographed image and the thermal image as a reference image to be used as a basis of an integrated image by using a predetermined determination method;
An image matching step of generating image matching information by referring to the calibration information, the image matching information being information indicating a relationship between the photographed image and the spatial relations of the degradation images;
Comparing the first objects detected by the captured image analyzing step and the second objects detected by the thermal image analyzing step with the first object having position information within a predetermined threshold range, An object comparison step of determining two objects as the same object and discriminating the object as a final object and determining a first object or a second object that is out of a predetermined threshold range as a final object;
The objects determined as the final object by the object comparison step are displayed on the reference image determined by the reference image determination step and the temperature measured by the thermal image analysis step is displayed on each displayed object to generate an integrated image And an integrated image processing step of detecting an unexpected event.
청구항 제1항에 있어서, 상기 기준영상 결정단계에 의해 적용되는 상기 결정방식은 광량이 임계치 이상이면 기준영상을 촬영영상으로 결정하되, 광량이 임계치 미만이면 기준영상을 열화상을 결정하는 제1 방식과, 촬영영상의 선명도를 검출한 후 검출된 선명도가 제2 임계치 이상이면 기준영상을 촬영영상으로 결정하되, 검출된 선명도가 제2 임계치 미만이면 기준영상을 열화상으로 결정하는 제2 방식 중 어느 하나인 것을 특징으로 하는 돌발 상황 감지방법.The method according to claim 1, wherein the determination method applied by the reference image determination step determines a reference image as an image to be captured if the light amount is equal to or greater than a threshold value, And a second method of determining a reference image as a photographed image when the detected sharpness is greater than or equal to a second threshold value after detecting the sharpness of the photographed image and determining the reference image as a thermal image if the detected sharpness is less than a second threshold value And detecting the unexpected state. 청구항 제2항에 있어서, 상기 돌발 상황 감지방법은 상기 통합영상 생성단계 이후에 진행되는 돌발 상황 관리단계와, 상기 돌발 상황 관리단계 이후에 진행되는 전송단계를 더 포함하고,
상기 돌발 상황 관리단계는
상기 통합영상 생성단계에 의해 생성된 통합영상에 표시된 최종객체들 각각의 위치를 검출하는 최종객체 검출단계;
상기 최종객체 검출단계에 의해 검출된 최종객체들 각각의 위치정보를 활용하여 각 최종객체의 궤적을 추적하는 궤적추적단계;
상기 궤적추적단계에 의해 검출된 궤적정보를 이용하여 돌발 상황 발생여부를 판단하는 판단단계;
상기 판단단계에 의해 돌발 상황이 발생되었다고 판단될 때 구동되어 돌발 상황에 관련된 내용, 위치정보를 포함하는 돌발상황 발생데이터를 생성하는 돌발상황 발생데이터 생성단계를 더 포함하고,
상기 전송단계는 상기 돌발상황 발생데이터 생성단계에 의해 생성된 돌발상황 발생데이터를 로컬서버로 전송하는 제1 전송단계와, 상기 로컬서버가 상기 제1 전송단계를 통해 전송받은 돌발상황 발생데이터를 외부 관제센터서버로 전송하는 제2 전송단계를 더 포함하는 것을 특징으로 하는 돌발 상황 감지방법.
The method according to claim 2, further comprising: an unexpected situation management step performed after the unified image generation step; and a transmission step performed after the unexpected situation management step,
The unexpected situation management step
A final object detection step of detecting a position of each of the final objects displayed in the integrated image generated by the integrated image generation step;
A trajectory tracking step of tracking a trajectory of each final object using positional information of each of the final objects detected by the final object detecting step;
A determining step of determining whether or not an unexpected event occurs using the trajectory information detected by the trajectory tracking step;
Further comprising an unexpected situation occurrence data generation step of generating an unexpected occurrence data including content and location information related to an unexpected situation which is driven when the unexpected situation is determined by the determination step,
The transmitting step may include: a first transmitting step of transmitting the unexpected-state occurrence data generated by the unexpected-state generating data generating step to a local server; and a second transmitting step of transmitting the unexpected- And a second transmission step of transmitting the unexpected information to the control center server.
청구항 제3항에 있어서, 상기 판단단계는
`상기 촬영영상 분석단계에 의해 검출되는 제1 객체들의 수량(N1) 및 상기 열화상 분석단계에 의해 검출되는 제2 객체들의 수량(N2)을 산출한 후 산출된 수량들의 차이절대값이 기 설정된 임계값 미만일 때 감지영역에 안개가 많아 시야가 확보되지 않은 것으로 판단하는 안개여부 판단단계;
상기 궤적추적단계에 의해 검출되는 최종객체들의 속도가 줄어들며, 최종객체들 중 어느 하나의 속도가 ‘0’이 될 때 차량사고가 발생하였다고 판단하는 차량사고 판단단계;
상기 최종객체들 중 상기 열화상 분석단계에서만 검출되는 제2 객체이면서 온도가 기 설정된 임계치 미만이며, 움직임이 없는 최종객체를 결빙으로 판단하는 결빙 판단단계;
동일한 차로에서 이동방향이 반대인 최종객체가 검출되는 경우 해당 최종객체를 역주행 차량으로 판단하는 역주행 판단단계;
이전 프레임에는 존재하지 않았던 최종객체가 검출됨과 동시에 속도가 임계치 미만인 경우 해당 최종객체를 낙하물로 판단하는 낙하물 판단단계;
감지영역 중 기 설정된 갓길에 주정차된 최종객체가 검출되면, 해당 최종객체를 불법주정차 차량으로 판단하는 불법주정차 판단단계;
최종객체들 중 속도가 임계치 미만이면서 도로를 이동 중인 최종객체를 보행자라고 판단하는 보행자 판단단계;
최종객체들 중 다른 최종객체들에 비교하여 속도가 작은 최종객체를 서행차량으로 판단하는 서행차량 판단단계를 더 포함하고,
상기 돌발상황 발생데이터 생성단계는
상기 안개여부 판단단계, 상기 차량사고 판단단계, 상기 결빙 판단단계, 상기 역주행 판단단계, 상기 낙하물 판단단계, 상기 불법주정차 판단단계, 상기 보행자 판단단계 및 상기 서행차량 판단단계 중 적어도 하나 이상에 이벤트가 발생하는 경우 상기 돌발상황 발생데이터를 생성하는 것을 특징으로 하는 돌발 상황 감지방법.
The method of claim 3, wherein the determining step
(N1) of the first objects detected by the captured image analyzing step and the quantity (N2) of the second objects detected by the thermal image analyzing step are calculated and then the absolute value of the difference of the calculated quantities is set Determining whether a fog exists in the detection area when the amount of fog is less than a threshold value;
A vehicle accident determination step of determining that a vehicle accident occurs when the speed of the final objects detected by the trajectory tracking step is reduced and the speed of any one of the final objects becomes '0';
An icing determining step of determining a final object, which is a second object among the final objects detected only in the thermal image analyzing step, and whose temperature is less than a predetermined threshold and has no motion, as icing;
Determining a final object as an inverse car if the final object is detected in the same lane as the opposite direction;
Determining a final object that is not present in a previous frame as a falling object when the speed is less than a threshold;
An illegal parking discrimination step of judging the final object as an illegal parking space vehicle when a final object displaced on a predetermined shoulder of the sensing area is detected;
A pedestrian judging step of judging that the final object of which the speed is less than the threshold and the moving object on the road is a pedestrian;
Further comprising a slow-moving-vehicle determining step of determining a slow-moving final object as a slow-moving vehicle in comparison with other final objects among the final objects,
The unexpected situation occurrence data generation step
Wherein at least one of the fog determination step, the vehicle accident determination step, the freezing determination step, the inverse movement determination step, the falling object determination step, the illegal state parking determination step, the pedestrian determination step, And generates the unexpected condition occurrence data when the unexpected condition occurrence occurs.
청구항 제4항에 있어서, 상기 돌발 상황 감지 방법은 상기 전송단계 이후에 진행되는 통신장애 판별단계를 더 포함하고,
상기 통신장애 판별단계는 제1 핑-테스트 단계와, 제2 핑-테스트 단계, 외부 핑-테스트 단계, 장애확인 데이터 송출단계, 리셋대상 결정단계, 로컬서버 리셋단계, 장애확인 데이터 전송단계, 컨트롤러 리셋단계를 더 포함하고,
상기 제1 핑-테스트 단계는 상기 로컬서버가 상기 촬영단계 내지 상기 전송단계를 진행하는 돌발 상황 감지기의 컨트롤러와의 네트워크 상태를 점검하기 위한 제1 핑-테스트를 수행하며, 검출된 제1 핑-데이터를 기 설정된 임계범위와 비교하여 검출된 제1 핑-데이터가 임계범위를 벗어나는 경우 해당 컨트롤러와의 통신 장애가 발생하였다고 판단하고,
상기 제2 핑-테스트 단계는 상기 로컬서버가 상기 관제센터서버와의 네트워크 상태를 점검하기 위한 제2 핑-테스트를 수행하며, 검출된 제2 핑-데이터를 임계범위와 비교하여 검출된 제2 핑-데이터가 임계범위를 벗어나는 경우 해당 관제센터서버와의 통신 장애가 발생하였다고 판단하고,
상기 외부 핑-테스트 단계는 상기 관제센터서버가 상기 로컬서버와의 네트워크 상태를 점검하기 위한 제3 핑-테스트를 수행하며, 검출된 제3 핑-데이터를 임계범위와 비교하여 검출된 제3 핑-데이터가 임계범위를 벗어나는 경우 해당 로컬서버와의 통신 장애가 발생하였다고 판단하고,
상기 장애확인데이터 송출단계는 상기 외부 핑-테스트 단계에 의해 상기 로컬서버와의 통신장애가 발생되었다고 판단될 때 진행되며, 상기 관제센터서버가 통신장애가 발생되었다는 장애확인데이터를 상기 로컬서버로 전송하고,
상기 리셋대상 결정단계는
1)상기 로컬서버가 상기 제1-핑 테스트 단계에 의해 장애가 발생되었다고 판단되면 돌발 상황 감지기를 리셋대상으로 결정하며, 이후 상기 장애확인 데이터 전송단계를 진행하고, 2)상기 제2 핑-테스트 단계에 의해 장애가 발생되었다고 판단되면 자기 자신을 리셋대상으로 결정하며, 이후 상기 로컬서버 리셋단계를 진행하고, 3)상기 장애확인데이터 송출단계를 통해 상기 관제센터서버로부터 장애확인데이터를 전송받으면, 전송받은 시점부터 기 설정된 임계시간 이전 사이인 탐색주기(T) 동안에 상기 제2 핑-테스트 단계에 의해 통신장애가 발생된 적이 있었는지를 탐색하며, 만약 탐색주기(T) 동안 상기 제2 핑-테스트 단계에 의해 통신장애가 발생된 적이 없으면, 리셋대상을 자기 자신으로 결정하여 이후 상기 로컬서버 리셋단계를 진행하고,
상기 로컬서버 리셋단계는 상기 리셋대상 결정단계에 의해 리셋대상이 상기 로컬서버로 결정될 때 진행되어 자기 자신인 로컬서버를 리셋시키고,
상기 장애확인데이터 전송단계는 사익 리셋대상 결정단계에 의해 리셋대상이 상기 돌발 상황 감지기의 컨트롤러로 결정될 때 진행되며, 상기 로컬서버가 상기 돌발 상황 감지기의 컨트롤러로 장애확인 데이터를 전송하고,
상기 컨트롤러 리셋단계는 상기 돌발 상황 감지기의 컨트롤러가 상기 장애확인데이터 전송단계를 통해 상기 로컬서버로부터 장애확인데이터를 전송받으면, 자기 자신인 컨트롤러를 리셋 시키는 것을 특징으로 하는 돌발 상황 감지방법.
5. The method according to claim 4, wherein the method further comprises a communication failure determination step after the transmission step,
The communication failure determination step may include a first ping-test step, a second ping-test step, an external ping-test step, a failure confirmation data transmission step, a reset target determination step, a local server reset step, Further comprising a reset step,
Wherein the first ping-test step performs a first ping-test to check the network status of the controller of the unexpected state sensor that the local server proceeds from the photographing step to the transmitting step, Data is compared with a predetermined threshold range, and if the detected first ping-data is out of the threshold range, it is determined that a communication failure has occurred with the controller,
The second ping-test step performs a second ping-test for checking the network status with the control center server by the local server, compares the detected second ping-data with a threshold range, If the ping-data is out of the critical range, it is determined that a communication failure with the corresponding control center server has occurred,
The external ping-test step may include performing a third ping-test to check the network status with the local server by the control center server, comparing the detected third ping-data with a threshold range, - If the data is out of the critical range, it is determined that a communication failure has occurred with the local server,
The failure confirmation data transmission step proceeds when it is determined that a communication failure with the local server has occurred due to the external ping-test step, the control center server transmits failure confirmation data indicating that a communication failure has occurred to the local server,
The reset target determination step
1) if the local server determines that a fault has occurred in the first-ping test step, it determines the unexpected state detector as a reset target, and then proceeds to the failure confirmation data transmission step; 2) If it is determined that the failure has occurred by the control center server, it is determined that the failure has occurred, and then, the local server resetting step is performed, and 3) if the failure confirmation data is received from the control center server through the failure confirmation data transmitting step, (T) during a search period (T) during a search period (T) during a search period (T) during a search period (T) If the communication failure has not occurred, the reset target is determined to be the self, and then the local server reset step is performed,
Wherein the resetting of the local server is performed when the reset target is determined to be the local server by the reset target determination step,
Wherein the failure confirmation data transmission step is performed when a reset target is determined as a controller of the unexpected state detector by a publicity reset object determination step and the local server transmits failure confirmation data to the controller of the unexpected state detector,
Wherein the controller reset step resets the self controller when the controller of the unexpected condition sensor receives the failure confirmation data from the local server through the failure confirmation data transmission step.
삭제delete 삭제delete 삭제delete 삭제delete 삭제delete
KR1020170157271A 2017-11-23 2017-11-23 unexpected accident detecting method using dual camera KR101852058B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170157271A KR101852058B1 (en) 2017-11-23 2017-11-23 unexpected accident detecting method using dual camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170157271A KR101852058B1 (en) 2017-11-23 2017-11-23 unexpected accident detecting method using dual camera

Publications (1)

Publication Number Publication Date
KR101852058B1 true KR101852058B1 (en) 2018-04-25

Family

ID=62088724

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170157271A KR101852058B1 (en) 2017-11-23 2017-11-23 unexpected accident detecting method using dual camera

Country Status (1)

Country Link
KR (1) KR101852058B1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102137654B1 (en) * 2020-04-01 2020-07-24 김창수 Method and apparatus for extracting objects using closed-circuit television
KR102196086B1 (en) * 2020-09-18 2020-12-29 주식회사 아이티아이비전 Method for autonomous balancing PTZ of camera and system for providing traffic information therewith
KR20210090317A (en) * 2020-01-09 2021-07-20 (주)에이치엠씨 Security and safety surveillance with dual cameras
KR102296135B1 (en) * 2020-09-18 2021-08-31 주식회사 아이티아이비전 System for providing traffic information using PTZ optimizing method
KR102317311B1 (en) * 2021-04-12 2021-10-27 렉스젠(주) System for analyzing information using video, and method thereof
WO2022071894A1 (en) * 2020-10-01 2022-04-07 Chew Rong Jie David A system for detecting a foreign object on a runway and a method thereof

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101066068B1 (en) * 2011-03-22 2011-09-20 (주)유디피 Video surveillance apparatus using dual camera and method thereof
KR20130138392A (en) * 2012-06-11 2013-12-19 휴앤에스(주) System for detecting unexpected accident
KR101635000B1 (en) * 2015-06-26 2016-07-08 (주) 비엑스 솔루션 Fire detector and system using plural cameras
KR20160120648A (en) * 2015-04-08 2016-10-18 주식회사 에스카 Camera for operating filter and operating infra red light according to environment
KR20160141226A (en) * 2015-05-29 2016-12-08 주식회사 로보멕 System for inspecting vehicle in violation by intervention and the method thereof
KR101721919B1 (en) * 2016-08-01 2017-03-31 (주)한국아이티에스 security system and method for security using camera
KR101747603B1 (en) * 2016-05-11 2017-06-16 재단법인 다차원 스마트 아이티 융합시스템 연구단 Color night vision system and operation method thereof
KR101757416B1 (en) * 2017-01-25 2017-07-12 주식회사 다움테크 IP CCTV apparatus for beforehand preventing action, and IP CCTV system coupled with multiple of the same

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101066068B1 (en) * 2011-03-22 2011-09-20 (주)유디피 Video surveillance apparatus using dual camera and method thereof
KR20130138392A (en) * 2012-06-11 2013-12-19 휴앤에스(주) System for detecting unexpected accident
KR20160120648A (en) * 2015-04-08 2016-10-18 주식회사 에스카 Camera for operating filter and operating infra red light according to environment
KR20160141226A (en) * 2015-05-29 2016-12-08 주식회사 로보멕 System for inspecting vehicle in violation by intervention and the method thereof
KR101635000B1 (en) * 2015-06-26 2016-07-08 (주) 비엑스 솔루션 Fire detector and system using plural cameras
KR101747603B1 (en) * 2016-05-11 2017-06-16 재단법인 다차원 스마트 아이티 융합시스템 연구단 Color night vision system and operation method thereof
KR101721919B1 (en) * 2016-08-01 2017-03-31 (주)한국아이티에스 security system and method for security using camera
KR101757416B1 (en) * 2017-01-25 2017-07-12 주식회사 다움테크 IP CCTV apparatus for beforehand preventing action, and IP CCTV system coupled with multiple of the same

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210090317A (en) * 2020-01-09 2021-07-20 (주)에이치엠씨 Security and safety surveillance with dual cameras
KR102321716B1 (en) 2020-01-09 2021-11-05 (주)에이치엠씨 Security and safety surveillance with dual cameras
KR102137654B1 (en) * 2020-04-01 2020-07-24 김창수 Method and apparatus for extracting objects using closed-circuit television
KR102196086B1 (en) * 2020-09-18 2020-12-29 주식회사 아이티아이비전 Method for autonomous balancing PTZ of camera and system for providing traffic information therewith
KR102296135B1 (en) * 2020-09-18 2021-08-31 주식회사 아이티아이비전 System for providing traffic information using PTZ optimizing method
WO2022071894A1 (en) * 2020-10-01 2022-04-07 Chew Rong Jie David A system for detecting a foreign object on a runway and a method thereof
WO2022071891A1 (en) * 2020-10-01 2022-04-07 Chew Rong Jie David A system, a detection system for detecting a foreign object on a runway and a method of the system
KR102317311B1 (en) * 2021-04-12 2021-10-27 렉스젠(주) System for analyzing information using video, and method thereof

Similar Documents

Publication Publication Date Title
KR101852058B1 (en) unexpected accident detecting method using dual camera
KR101852057B1 (en) unexpected accident detecting system using images and thermo-graphic image
JP6450852B2 (en) Falling object detection tracking system
KR101343975B1 (en) System for detecting unexpected accident
US9154741B2 (en) Apparatus and method for processing data of heterogeneous sensors in integrated manner to classify objects on road and detect locations of objects
KR101758576B1 (en) Method and apparatus for detecting object with radar and camera
KR101731050B1 (en) Automatic incident detection apparatus using composite sensor of acoustic sensor, radar sensor and image sensor, and method for the same
KR101496390B1 (en) System for Vehicle Number Detection
CN109842787B (en) Method and system for monitoring high-altitude parabolic object
KR101967610B1 (en) Multi lane monitoring system that can recognize vehicle velocity and license plate number of multi lane
CN104902246A (en) Video monitoring method and device
KR101275297B1 (en) Camera Apparatus of tracking moving object
RU2696464C2 (en) Dual stereoscopic sensor
JP2007310574A (en) Collision risk decision system and warning system
US20170019639A1 (en) Integrated monitoring cctv, abnormality detection apparatus, and method for operating the apparatus
JP2001216519A (en) Traffic monitor device
CN111477011A (en) Detection device and detection method for road intersection early warning
KR101719799B1 (en) CCTV monitoring system
KR20190097337A (en) Unexpected incident detecting system using vehicle position information based on C-ITS
KR102136676B1 (en) System and method for monitoring and warning railway platform
KR20190136515A (en) Vehicle recognition device
JP2005338941A (en) Method and device for detecting visibility
KR20230020184A (en) Video analysis device using fixed camera and moving camera
KR100844640B1 (en) Method for object recognizing and distance measuring
JP2018192844A (en) Monitoring device, monitoring system, monitoring program, and storage medium

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
N231 Notification of change of applicant
GRNT Written decision to grant