KR101793636B1 - Image processing system - Google Patents
Image processing system Download PDFInfo
- Publication number
- KR101793636B1 KR101793636B1 KR1020170067788A KR20170067788A KR101793636B1 KR 101793636 B1 KR101793636 B1 KR 101793636B1 KR 1020170067788 A KR1020170067788 A KR 1020170067788A KR 20170067788 A KR20170067788 A KR 20170067788A KR 101793636 B1 KR101793636 B1 KR 101793636B1
- Authority
- KR
- South Korea
- Prior art keywords
- camera
- image
- image data
- fire
- candidate region
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 24
- 230000033001 locomotion Effects 0.000 claims abstract description 32
- 238000000034 method Methods 0.000 claims abstract description 12
- 238000004891 communication Methods 0.000 claims abstract description 5
- 238000001514 detection method Methods 0.000 claims description 53
- 239000013598 vector Substances 0.000 claims description 20
- 238000010191 image analysis Methods 0.000 claims description 19
- 230000006870 function Effects 0.000 claims description 6
- 230000001186 cumulative effect Effects 0.000 claims description 5
- 230000035807 sensation Effects 0.000 claims description 3
- 238000012544 monitoring process Methods 0.000 abstract description 7
- 230000008569 process Effects 0.000 abstract description 4
- 230000005856 abnormality Effects 0.000 abstract description 2
- 206010000117 Abnormal behaviour Diseases 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 7
- 238000004458 analytical method Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 238000005516 engineering process Methods 0.000 description 6
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 4
- 230000008034 disappearance Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 230000008520 organization Effects 0.000 description 2
- CLSIFQGHPQDTHQ-DTWKUNHWSA-N (2s,3r)-2-[(4-carboxyphenyl)methyl]-3-hydroxybutanedioic acid Chemical compound OC(=O)[C@H](O)[C@@H](C(O)=O)CC1=CC=C(C(O)=O)C=C1 CLSIFQGHPQDTHQ-DTWKUNHWSA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000004397 blinking Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 230000009545 invasion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000737 periodic effect Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B13/00—Burglar, theft or intruder alarms
- G08B13/18—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
- G08B13/189—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
- G08B13/194—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
- G08B13/196—Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
-
- G—PHYSICS
- G08—SIGNALLING
- G08B—SIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
- G08B17/00—Fire alarms; Alarms responsive to explosion
- G08B17/12—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
- G08B17/125—Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
Abstract
Description
본 발명은 영상 객체 검출 기능을 이용하여 촬영된 영상의 로우 데이터로부터 화재, 침입, 물체감지, 차량번호 인식, 배회 및 이상행위를 감지할 수 있는 통합 지능형 CCTV 영상 처리 시스템에 관한 것이다.The present invention relates to an integrated intelligent CCTV image processing system capable of detecting fire, intrusion, object detection, car number recognition, wandering and abnormal behavior from raw data of a photographed image using a video object detection function.
최근, 정보통신 기술과 접목하여 사고 감지 모니터링의 융합 시스템이 각광을 받고 있으며, 산업전반으로 확산되고 있다. 이와 관련하여 CCTV(Closed Circuit Television)의 설치가 증가하면서 효율적인 모니터링을 위한 지능형 영상분석 기술에 대한 관심이 높아지고 있다. In recent years, convergence system of accident detection monitoring has been spotlighted by combining with information and communication technology, and it is spreading throughout the industry. As the installation of CCTV (Closed Circuit Television) increases, interest in intelligent image analysis technology for efficient monitoring is increasing.
지능형 영상분석 기술은 영상의 정보를 분석하여 자동으로 이상 행위를 탐지하고 관리자에게 경보를 전송하는 기술로써, 사고를 사전에 예방하고 사고가 발생한 경우에는 신속하게 대응하여 피해를 줄일 수 있게 해준다. 그러나, 종래의 지능형 영상분석 기술은 하나의 이벤트에 초점이 되어 객체추적, 차량번호판 인식에 국한되어 통합 관리를 하는 데 어려움이 있어왔다. 또한 지능형 영상 분석 시 촬영된 영상 데이터가 관제장치에 입력될 경우 이를 효율적으로 관리하지 못하였고, 최근 사건 모니터링에 대한 복수의 이벤트 영상이 발생하는 경우 이를 통합처리 관리하는 데 어려움이 있어 왔다. Intelligent image analysis technology analyzes the information of images and automatically detects abnormal behavior and sends alarms to the administrator. It helps prevent accidents in advance and promptly responds to accidents to reduce damages. However, the conventional intelligent image analysis technology has focused on one event, and it has been difficult to perform integrated management only for object tracking and license plate recognition. In addition, when the image data captured in the intelligent image analysis is input to the control device, it can not be managed efficiently, and when a plurality of event images for recent event monitoring occur, it has been difficult to perform integrated processing management.
종래 CCTV의 경우, 촬영 영상으로부터 객체 추적에 대한 일대일 대응에 맞는 움직임 검출 및 추적만을 수행하였고, 촬영된 영상 데이터인 로우 데이터로부터 화재, 침입, 물체감지, 차량번호 인식, 배회 및 이상행위감지의 종합적인 지능형 분석이 이루어지지 않았다. 또한 복합적으로 인입되는 영상 데이터를 처리하기가 곤란하여 하나의 지능형 분석서버로 이용될 뿐 다양한 파라미터의 촬영된 로우 영상 데이터를 기초하여 지능형 영상 분석이 효과적으로 신속하게 이루어지지 않았다.In the conventional CCTV, only the motion detection and tracking corresponding to the one-to-one correspondence to the object tracking are performed from the photographed image, and from the raw data which is the captured image data, the fire, intrusion, object detection, car number recognition, Intelligent analysis was not done. Also, since it is difficult to process the combined image data, it is used as one intelligent analysis server, but the intelligent image analysis can not be performed quickly and efficiently based on the captured low image data of various parameters.
본 발명은 상기 종래기술의 문제점을 해결하기 위한 것으로서, 지능형 영상분석 기술이 탐지할 수 있는 이상 행위, 즉 이벤트를 그 목적에 따라서 화재감지, 불꽃감지, 침입감지, 물체 감지, 차량번호 검출 인식 및 배회 감지을 구분하여 처리 가능한 통합 지능형 CCTV 영상 처리 시스템을 제공하려는 데 그 목적이 있다.SUMMARY OF THE INVENTION The present invention has been made to solve the above problems of the prior art, and it is an object of the present invention to provide an intelligent image analysis technology capable of detecting an abnormal behavior that an intelligent image analysis technology can detect, An object of the present invention is to provide an integrated intelligent CCTV image processing system capable of discriminating and detecting roaming detection.
또한 지능형 영상분석에서 이벤트 탐지와 관련하여 사람의 행동인식, 행위 기반 이상 현상 탐지, 이벤트 환경에서 이벤트 탐지, 확장형 옵션 가능한 지능형 영상분석 구조의 변화에 따른 카테고리별 자동 분류되는 통합 지능형 영상 분석 시스템과 복수의 이벤트 로우 영상 데이터가 입력되는 경우 통합 중앙 관제 센터에서 관리자가 우선순위 처리부의 구성에 의해 선택적으로 분석 처리하여 실행할 수 있는 효과적이고 신뢰성 있는 통합 지능형 CCTV 영상 처리 시스템을 제공하려는 데 그 목적이 있다.In addition, the intelligent image analysis system is integrated with the intelligent image analysis system, which is classified automatically according to the change of the intelligent image analysis structure, which can detect the human behavior, the behavior based abnormality detection, the event detection in the event environment, An object of the present invention is to provide an integrated and intelligent integrated CCTV image processing system capable of selectively performing analysis processing by an administrator in the integrated central control center according to the configuration of the priority processing unit.
또한 통합 중앙 관제 센터 내의 구성들 중 객체 분류기의 구성을 채택하여 사전에 이를 지능적으로 분류 관리할 수 있고, 추후 분석부를 통해 해당 관련 영상 데이터를 신속히 분석하는 데 효과적으로 활용할 수 있는 통합 지능형 CCTV 영상 처리 시스템을 제공하려는 데 그 목적이 있다.In addition, it adopts the configuration of object classifier among the configurations in the integrated central control center, and can intelligently classify and manage it in advance, and can use the integrated intelligent CCTV image processing system The goal is to provide.
또한 탐지할 수 있는 이상 행위, 즉 이벤트를 그 목적에 따라서 화재감지, 불꽃감지, 침입감지, 물체 감지, 차량번호 검출 인식 및 배회 감지로 구분하여 제공할 수 있는 통합 지능형 CCTV 영상 처리 시스템을 제공하려는 데 그 목적이 있다.To provide an integrated intelligent CCTV image processing system capable of distinguishing an abnormal event that can be detected, that is, an event, such as fire detection, flame detection, intrusion detection, object detection, car number detection, It has its purpose.
또한 이벤트 탐지와 관련하여 사람의 행동인식, 행위 기반 이상 현상 탐지, 이벤트 환경에서 이벤트 탐지, 확장형 옵션 가능한 지능형 영상분석 구조의 변화에 따른 객체별 자동 분류되는 통합 지능형 영상 분석 시스템과 복수의 이벤트 로우 영상 데이터가 입력되는 경우 통합 중앙 관제 센터에서 관리자가 우선순위 처리부의 구성에 의해 선택적으로 분석 처리하여 실행할 수 있는 효과적이고 신뢰성 있는 통합 지능형 CCTV 영상 처리 시스템을 제공하려는 데 그 목적이 있다.In addition, in relation to event detection, an integrated intelligent image analysis system that automatically classifies objects according to changes in human behavior recognition, behavior-based abnormal phenomenon detection, event detection in an event environment, And an object of the present invention is to provide an integrated and intelligent integrated CCTV image processing system capable of selectively performing analysis processing by an administrator in the integrated central control center according to the configuration of the priority processing unit when data is input.
본 발명의 해결하고자 하는 과제는 언급한 과제로 제한되지 않는다. 언급하지 않은 다른 기술적 과제들은 이하의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The problems to be solved by the present invention are not limited to the above-mentioned problems. Other technical subjects not mentioned will be apparent to those skilled in the art from the following description.
본 발명에 따른 통합 지능형 CCTV 영상 처리 시스템은 감시 영역을 촬상하여 로우 영상 데이터를 획득하는 하나 이상의 CCTV 카메라와, 상기 CCTV 카메라들로부터 촬상된 로우 영상 데이터를 수집 및 저장하는 통합 수집서버와, 네트워크를 경유하여 로우 영상 데이터를 전송받고, 로우 영상 데이터에 기록된 객체별로 분류된 영상 데이터를 분석처리하여 이벤트를 획득하는 중앙 관제센터를 포함하고, 상기 CCTV 카메라는 감시영역 내의 이동 객체 검출 기능을 가지는 모션 디텍터 카메라, 열 감지를 가지는 적외선 카메라, 번호판 영상을 촬상하는 고화질 RGB 카메라, 보다 신뢰성이 있는 레이더가 부착된 카메라, 및 자동추적을 수행하기 위한 팬틸트 카메라, IP 통신을 수행할 수 있는 네트워크 카메라 중 적어도 어느 하나로 구성되고, 상기 객체는 화재, 사람, 차량일 수 있으며, 상기 이벤트는 화재감지, 침입감지, 물체감지, 차량번호 인식, 배회 및 이상행위 감지일 수 있다.The integrated intelligent CCTV image processing system according to the present invention includes at least one CCTV camera that captures a surveillance region to acquire raw image data, an integrated collection server that collects and stores raw image data captured from the CCTV cameras, And a central control center for receiving the low image data via the central processing unit and analyzing the image data classified by the object recorded in the low image data to acquire an event, A detector camera, an infrared camera with thermal sensation, a high-definition RGB camera for picking up license plate images, a camera with more reliable radar, and a pan tilt camera for performing automatic tracking, and a network camera capable of IP communication Wherein the object is at least one of fire, Vehicle, and the event may be fire detection, intrusion detection, object detection, car number recognition, roaming, and anomaly detection.
본 발명에 따른 중앙 관제센터는 감시영역으로부터 촬상된 로우 영상 데이터를 전송받는 송수신부와, 로우 영상 데이터를 객체별로 분류하는 객체 분류기와, 객체별로 분류된 영상 분석을 수행하여 이벤트를 획득하는 영상 분석부와, 획득된 이벤트를 근거로 미리 설정된 우선순위를 부여하는 우선순위 처리부와, 상기 우선순위에 따라 푸시 알림신호를 출력하는 푸시 알림부를 포함한다.The central control center according to the present invention includes a transceiver for receiving low image data picked up from a surveillance area, an object sorter for sorting low image data by objects, an image analyzer And a push notification unit for outputting a push notification signal in accordance with the priority order.
실시예로서 화재 감지는 입력 영상을 HSI 색공간으로 변환한 후, 화재시 나타날 수 있는 색상 범위, 채도 범위, 밝기 범위에 기초한 화재 설정값을 이용하여 1차 화재 후보영역을 검출하고, 1차 화재 후보 영역에 대한 모션 벡터를 구하고 방향성을 분석하여 2차 화재 후보 영역을 검출한 후, 2차 화재 후보 영역과 복수의 인접한 프레임의 2차 화재 후보 영역의 차영상을 생성하고, 상기 차영상을 누적하여 누적 영상을 생성한 다음, 상기 누적 영상에서 픽셀 값이 기준치 이상인 픽셀을 화재 영역으로 검출할 수 있다.As an embodiment, fire detection is performed by converting an input image into an HSI color space, detecting a primary fire candidate area using a fire setting value based on a color range, a saturation range, and a brightness range that can appear in a fire, A motion vector for a candidate region is obtained and the directionality is analyzed to detect a secondary fire candidate region, a difference image of a secondary fire candidate region and a secondary fire candidate region of a plurality of adjacent frames is generated, A pixel having a pixel value equal to or higher than a reference value in the cumulative image may be detected as a fire region.
본 발명에 따르면 복수의 영역을 구분하고 해당 영역 내에 움직이는 객체의 수와 이동궤적을 쉽게 파악할 수 있다.According to the present invention, it is possible to distinguish a plurality of regions, and to easily grasp the number of moving objects and movement trajectories in the corresponding region.
도 1은 본 발명에 따른 통합 지능형 CCTV 영상 처리 시스템의 전체 개략도이다.
도 2는 본 발명에 따른 통합 지능형 CCTV 영상 처리 시스템의 중앙 관제센터의 세부 구성도이다.
도 3은 본 발명의 중앙 관제센터의 영상 분석부의 세부 구성도이다.1 is an overall schematic diagram of an integrated intelligent CCTV image processing system in accordance with the present invention.
2 is a detailed configuration diagram of a central control center of the integrated intelligent CCTV image processing system according to the present invention.
3 is a detailed configuration diagram of the image analysis unit of the central control center of the present invention.
이하, 본 발명의 실시예의 구성 및 작용에 대하여 첨부한 도면을 참조하면서 상세히 설명한다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, the configuration and operation of an embodiment of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명에 따른 통합 지능형 CCTV 영상 처리 시스템의 전체 개략도이다.1 is an overall schematic diagram of an integrated intelligent CCTV image processing system in accordance with the present invention.
본 발명에 따른 통합 지능형 CCTV 영상 처리 시스템은 CCTV 카메라(100), 통합 수집서버(200), 네트워크(300), 중앙 관제센터(400) 및 유관기관(500)을 포함한다.The integrated intelligent CCTV image processing system according to the present invention includes a
도면을 참조하면, CCTV 카메라(100)는 감시영역을 촬상하여 로우 영상 데이터를 획득한다. 이 때 CCTV 카메라는 감시영역 내의 이동 객체 검출 기능을 가지는 모션 디텍터 카메라, 열 감지를 가지는 적외선 카메라, 번호판 영상을 촬상하는 고화질 RGB 카메라, 보다 신뢰성이 있는 레이더가 부착된 카메라, 및 자동추적을 수행하기 위한 팬틸트 카메라, IP 통신을 수행할 수 있는 네트워크 카메라 중 적어도 어느 하나로 이루어질 수 있다.Referring to the drawings, a
상기 CCTV 카메라(100)로부터 촬상된 로우 영상 데이터는 통합 수집서버(200)로 전송된다. 상기 통합 수집서버는 로우 영상 데이터를 기록 저장한다. 추가적으로 상기 통합 수집서버는 기 저장된 영상들과 현재 촬상된 로우 영상 데이터를 비교하여 특징 영상을 별도로 관리 저장할 수 있다. 상기 통합 수집서버는 CCTV 카메라와 함께 설치될 수 있으며, 별도의 관리장소에 설치될 수 있다. 예컨대 아파트인 경우 경비실, 주차시설이 있는 경우 주차관리실에 설치할 수 있다. The raw image data picked up from the
상기 통합 수집서버에 기록 저장된 로우 영상 데이터는 네트워크(300)를 경유하여 중앙 관제센터(400)로 전송된다. 한편 네트워크(300)는 인터넷 IP, 이더넷, 무선 와이파이 등일 수 있으며, 유선 케이블(HDMI 포함)을 사용하여 구축할 수 있다. The raw image data recorded in the integrated collection server is transmitted to the
다른 실시예로서 영상 데이터의 전송은 장거리 전송 시스템을 이용하여 구현할 수 있다. 장거리 전송 시스템은 기존 유선의 UTP 케이블을 이용하면서 무선 전송을 병용하여 전송된 고화질 영상 데이터를 상호 손실 보상의 영상 보간과 시간 지연 보정하여 장거리 전송에도 저 손실 고화질 영상 데이터를 수신단으로 전송하여 사용자에게 선명한 영상을 제공한다.As another embodiment, the transmission of the image data can be realized by using a long distance transmission system. The long-distance transmission system transmits the low-loss, high-quality video data to the receiving end even in long-distance transmission by performing image interpolation and time delay correction of mutually loss compensated high-quality video data transmitted using wireless transmission in combination with the existing wired UTP cable, Provide images.
시간 및 영상 보간을 통한 CCTV용 다채널 고화질(HD급) 영상 데이터의 장거리 전송 시스템은 복수의 HD 카메라에서 촬영한 복수의 디지털 고화질 영상 신호를 전달 받아 복수의 아날로그 영상 신호로 변환하여 병렬 UTP 케이블을 통하여 출력하도록 하는 HD TX와, 복수의 아날로그 영상 신호를 변조하여 생성된 영상 신호를 1 라인 동축 케이블(UTP 케이블) 접속을 통해 시간 변화에 따른 상기 복수의 아날로그 영상 신호를 직렬 전송하는 HD junction box와, 상기 영상 신호를 복조하여 복수의 아날로그 영상신호를 추출하는 영상신호 수신기와, 상기 추출된 아날로그 신호를 디지털 고화질 영상 신호로 변환하는 HD RX와, 제1 영상전송과 제2 영상전송으로 전송된 두 개의 고화질 영상 신호를 검출하여 비교 판단 후 영상 보간 및 지연 시간을 보간 처리하는 제어부와, 상기 변환된 디지털 고화질 영상 신호를 저장하는 DVR과, 디지털 고화질 영상 신호를 재생하는 출력부를 포함하여 이루어진다.A long-distance transmission system of multi-channel high definition (HD) image data for time and image interpolation for CCTV receives a plurality of digital high definition video signals captured by a plurality of HD cameras, converts the received digital high definition video signals into a plurality of analog video signals, An HD junction box for serially transmitting the plurality of analog video signals according to a time change via a one-line coaxial cable (UTP cable) connection, An image signal receiver for demodulating the image signal to extract a plurality of analog image signals, an HD RX for converting the extracted analog signal into a digital high definition image signal, Quality video signal and interpolating the interpolation and delay time after the comparison and determination; It comprise DVR for storing the digital high definition video signal transducer and an output section for reproducing the digital high definition video signal.
추가적으로 상기 HD junction box에는 제2 영상 송신부를 더욱 구비하며, 상기 HD RX에는 제2 영상 수신부를 구비하고, 상기 제2 영상 송신부는 상기 영상 신호를 장거리 전송 시 손실을 줄이기 위해 상기 변환된 영상신호의 영상 게인을 증폭하는 제1 게인 차동 증폭기를 포함하고, 상기 제2 영상 송신부로부터 출력된 영상 신호는 중계부(HUB)를 거쳐 제2 영상 수신부로 전송될 수 있다.In addition, the HD junction box may further include a second image transmitting unit, and the HD RX may include a second image receiving unit. The second image transmitting unit may receive the converted image signal to reduce the loss of the image signal, And a first gain differential amplifier for amplifying the image gain, and the image signal output from the second image transmitter can be transmitted to the second image receiver via the relay HUB.
상기 중앙 관제센터(400)는 로우 영상 데이터를 기초로 하여 지능형 영상 분석을 통해 카테고리별로 분류한다. The
도 2는 본 발명의 통합 지능형 CCTV 영상 처리 시스템의 중앙 관제센터의 세부 구성도이다. 2 is a detailed block diagram of the central control center of the integrated intelligent CCTV image processing system of the present invention.
중앙 관제센터는 송수신부(410)와, 객체 분류기(420)와, 영상 분석부(430)와, 우선순위 처리부(440)와, 실행부(450)와, 푸시 알림부(460)와, 표시부(470)를 포함한다.The central control center includes a transmission /
송수신부(410)는 감시영역에서 촬상된 로우 영상 데이터를 전송받고, CCTV 카메라 구동을 제어신호를 CCTV 카메라로 전송한다.The transceiving
객체 분류기(420)는 로우 영상 데이터를 객체별로 분류한다. 실시예로서 화재, 사람, 차량 등에 대한 촬영 영상 스트림이나 로우 영상 데이터를 객체별로 구분하여 분류 저장하고, 이와 같이 분류 저장된 영상 데이터를 추후 사고 영상과 빠르게 비교시키기 위해 객체별로 분류를 수행한다. 실시예로서 객체 분류기는 종래에 단순 저장하여 관리자가 분류를 하던 방식을 탈피하여 촬영 획득한 영상 데이터로부터 객체별로 자동 분류 후 기록 저장할 수 있다.The
상기 영상 분석부(430)는 객체별로 분류된 영상 분석을 수행한다. 상기 분석부는 객체별로 이벤트 발생여부를 분석 및 검출한다. 상기 이벤트는 화재감지, 침입감지, 물체감지, 차량번호 인식, 배회 및 이상행위 감지 등일 수 있다.The
도 3은 본 발명의 중앙 관제센터의 영상 분석부의 세부 구성도이다.3 is a detailed configuration diagram of the image analysis unit of the central control center of the present invention.
본 발명에 따른 영상 분석부는 화재 및 불꽃감지 분석기(431), 객체감지 분석기(432), 차량번호 인식 분석기(433), 배회 및 이상행위감지 분석기(434)를 포함한다.The image analysis unit according to the present invention includes a fire and flame detection analyzer 431, an object detection analyzer 432, a car number recognition analyzer 433, and a roaming and anomaly detection analyzer 434.
영상 분석부의 화재 및 불꽃감지 분석기(431)는 감시영역 안에 있던 로우 영상 데이터 내에 지속적인 불꽃이 발생했을 경우 적외선 카메라의 열 영상을 분석한다. 또한 화재 및 불꽃감지 분석기는 불꽃 자체의 색상영역과 불규칙한 모션벡터를 동시에 감지 분석할 수 있다.The fire and flame detection analyzer 431 of the image analysis unit analyzes the thermal image of the infrared camera when continuous flame is generated in the low image data in the surveillance area. The fire and flame detection analyzer can simultaneously detect and analyze the color gamut of the flame itself and irregular motion vectors.
화재 및 불꽃 감지의 경우에는 색상 정보를 기초로 1차 화재 후보 영역을 설정한 후 모션 벡터를 이용하여 2차 화재 후보 영역을 설정한 다음, 차영상을 누적한 누적 영상을 생성하여 화재 영역을 검출할 수 있다.In the case of fire and flame detection, the first fire candidate region is set based on the color information, the second fire candidate region is set using the motion vector, and the cumulative image in which the difference images are accumulated is generated to detect the fire region can do.
실시예로서, 입력 영상을 HSI 색공간으로 변환한 후, 화재시 나타날 수 있는 색상 범위, 채도 범위, 밝기 범위에 기초한 화재 설정값을 이용하여 1차 화재 후보영역을 검출하는 단계와, 1차 화재 후보 영역에 대한 모션 벡터를 구하고 방향성을 분석하여 2차 화재 후보 영역을 검출하는 단계와, 2차 화재 후보 영역과 복수의 인접한 프레임의 2차 화재 후보 영역의 차영상을 생성하고, 상기 차영상을 누적하여 누적 영상을 생성하는 단계와, 상기 누적 영상에서 픽셀 값이 기준치 이상인 픽셀을 화재 영역으로 검출하는 단계를 포함할 수 있다.As an embodiment, there is provided an image processing method comprising the steps of: converting an input image into an HSI color space, detecting a primary fire candidate area using a fire setting value based on a color range, a saturation range, A step of detecting a second fire candidate region by obtaining a motion vector for a candidate region and analyzing a directionality; generating a difference image of a second fire candidate region and a second fire candidate region of a plurality of adjacent frames; Accumulating a cumulative image; and detecting a pixel having a pixel value equal to or higher than a reference value in the cumulative image as a fire region.
여기서 상기 화재 설정값은 각각 색상, 채도, 밝기에 대한 범위일 수 있다. 상기 화재 설정값은 아래 〈수식 1〉으로 계산될 수 있다.Here, the fire setting values may be ranges for hue, saturation, and brightness, respectively. The fire setting value can be calculated by Equation (1) below.
〈수식 1〉≪ Formula 1 >
한편 상기 2차 화재 후보 영역을 검출하는 단계는 1차 화재 후보 영역에 대한 모션 벡터를 구하는 단계와, 1차 화재 후보 영역에 대해 구해진 모션 벡터를 n(자연수) 방향으로 양자화하는 단계와, 1차 화재 후보 영역에 대해 양자화된 모션 벡터 결과를 이용하여 모션 벡터방향이 기준치 이상의 방향을 포함하는 1차 화재 후보 영역을 2차 화재 후보 영역으로 검출하는 단계를 포함할 수 있다.The step of detecting the secondary fire candidate region may include a step of obtaining a motion vector for the primary fire candidate region, a step of quantizing the motion vector obtained for the primary fire candidate region in the direction of n (natural number) And detecting a primary fire candidate region including a direction whose motion vector direction is not less than a reference value as a secondary fire candidate region using the quantized motion vectors for the fire candidate region.
2차 화재 후보 영역을 검출하는 단계는 색상 정보만을 이용하여 화재 후보 영역을 검출하는 경우에 있을 수 있는 오검출을 극복하기 위한 방법으로서, CLG-TV(Combined Local-Global approach with Total Variation) 방법을 이용한 모션 벡터를 이용한다.The method of detecting a second fire candidate region is a method for overcoming the possibility of false detection in the case of detecting a fire candidate region using only color information. The CLG-TV (Combined Local-Global approach with Total Variation) The motion vector used is used.
모션 벡터는 아래 〈수식 2〉으로 계산될 수 있다.The motion vector can be calculated by Equation (2) below.
〈수식 2〉&Quot; (2) "
여기서, μ와 ν는 각각 x축 및 y축 방향으로 움직임 정보를 나타내며, p는 영상 패치를 나타내고, Ω는 이미지 도메인을 나타낸다. 또한 λ는 계수값을 나타내고, w는 루카스 카나데 방법으로 구해진 모션 벡터의 초기값을 나타낸다. Here, μ and v denote motion information in the x-axis and y-axis directions, p denotes an image patch, and Ω denotes an image domain. Also,? Represents the coefficient value, and w represents the initial value of the motion vector obtained by the Lucas Kanade method.
상기 r(μ, ν)는 이전 입력 영상과 현재 입력 영상의 잔차(residual)을 나타낸다. 상기 잔차는 r(μ, ν) = (F(t) - F(t-1) + F(t,x)μ + F(t-1,y)ν)로 정의될 수 있으며, F(t,x)와 F(t-1,y)는 각각 x축 방향과 y축 방향으로 미분한 영상을 나타낸다.The r (μ, ν) represents the residual of the previous input image and the current input image. The residual can be defined as r (μ, ν) = (F (t) - F (t-1) + F , x) and F (t-1, y) represent differentiated images in the x-axis direction and the y-axis direction, respectively.
상기 차영상을 누적하여 누적 영상을 생성하는 단계는 복수의 인접한 프레임 각각의 2차 화재 후보 영역과 상기 2차 화재 후보 영역 간의 차영상을 각각 생성하고, 상기 복수의 인접한 프레임과의 차영상을 누적하여 누적 영상을 생성하도록 구성된다.The step of accumulating the difference images to generate an accumulated image may include generating difference images between a second-order fire candidate region and a second-order fire candidate region of each of a plurality of adjacent frames, respectively, Thereby generating an accumulated image.
상기 객체감지 분석기(432)는 감시영역 내의 침임, 객체의 이동, 객체의 사라짐 등을 검출한다. 실시예로서 감지영역 내부에 움직이는 사람의 이동 궤적을 분석하여 객체를 감지한다. 또한 객체감지 분석기는 로우 영상 데이터를 패턴화(pattern)하여 관심영역을 기준으로 하여 침입금지영역을 설정한 후 해당 영역에 객체(사람)가 감지되었을 때 침입여부를 감지한다.The object detection analyzer 432 detects invasion in the surveillance area, movement of the object, disappearance of the object, and the like. As an embodiment, an object is detected by analyzing a movement trajectory of a moving person in a sensing area. In addition, the object detection analyzer patterns the row image data to set an intrusion prevention zone on the basis of the ROI, and detects an intrusion when an object (person) is detected in the area.
상기 객체의 감지는 형태정보와 특징 정보를 기초로 수행된다. 객체의 추적은 객체 교합의 발생여부에 따라 상기 추출된 형상 제어점들을 기초로 블록 기반 정합 알고리즘을 수행하여 객체를 추적하거나, 무게 중심에 기반한 블록 정합 알고리즘 또는 주기적 갱신 기반 블록 정합 알고리즘에 의해 객체를 추적할 수 있다.The detection of the object is performed based on the type information and the feature information. The tracking of an object can be accomplished by tracking an object by performing a block-based matching algorithm on the basis of the extracted shape control points according to the occurrence of object occlusion, or by tracking a object by a weight-based block matching algorithm or a cyclic update- can do.
구체적으로는 연속적으로 입력되는 영상 프레임을 기초로 배경 영상을 생성하고, 영상 프레임들로부터 검출된 객체의 움직임 여부에 따라 배경 영상을 갱신하는 단계와, 상기 배경 영상과 입력 영상 프레임 사이에 차이가 존재하는 블록들을 모두 포함하는 사각형을 움직임 영역으로 검출하는 단계와, 상기 검출된 움직임 영역으로부터 형상 제어점(Shape Control Point : SCP)을 추출하는 단계와, 객체 교합이 발생하지 않으면 상기 추출된 형상 제어점들을 기초로 블록 기반 정합 알고리즘(Block Matching Algorithm : BMA)을 수행하여 객체를 추적하고, 객체 교합이 발생하면 무게 중심에 기반한 블록 정합 알고리즘(Center-of-gravity-based Block Matching Algorithm : CBMA)과 주기적 갱신 기반 블록 정합 알고리즘(Periodic-update-based Block Matching Algorithm : PBMA) 중에서 하나의 알고리즘에 의해 객체를 추적하는 단계를 포함할 수 있다.Specifically, the method includes generating a background image based on continuously input image frames, updating the background image according to whether the detected object is moving from the image frames, and determining whether there is a difference between the background image and the input image frame A step of extracting a shape control point (SCP) from the detected motion area, and a step of extracting a shape control point based on the extracted shape control points if no object occlusion occurs Based Block Matching Algorithm (CBMA) and periodic update based on block centering algorithm (BMA) based on block centering algorithm And a periodic-update-based Block Matching Algorithm (PBMA). It may include the step of tracking the sun object.
상기 배경 영상을 갱신하는 단계에서, 아래 〈수식 3〉을 이용하여 얻어진 값이 사전에 설정된 임계치보다 작으면, 아래 〈수식 4〉를 이용하여 배경 영상을 갱신한다.In the step of updating the background image, if the value obtained using Equation (3) below is smaller than a preset threshold value, the background image is updated using Equation (4) below.
〈수식 3〉&Quot; (3) "
여기서 (u, v)는 수평 및 수직 좌표를 나타내고, (mx, my)는 움직임 벡터를 나타내며, (p,q)는 영상 블록의 수평 및 수직 크기를 나타낸다.(U, v) denotes horizontal and vertical coordinates, (mx, my) denotes a motion vector, and (p, q) denotes a horizontal and vertical size of an image block.
〈수식 4〉≪ Equation 4 &
여기서 B(t)는 시간 t에서 배경을 나타내고, I(t)는 시간 t에서 입력 영상을 나타내며, σ는 0에서 1까지의 범위에서 실험적으로 설정되는 혼합비를 나타낸다.Where B (t) represents the background at time t, I (t) represents the input image at time t, and σ represents the mixing ratio experimentally set in the range of 0 to 1.
이에 따라 검증된 형상 제어점들만으로 객체의 추적을 지속할 수 있어 객체와 배경 사이의 일시적 공간 유사성, 객체 변형, 교합 등과 같은 잠재적인 실패 요인으로부터 자유로울 수 있다. 본 발명에 따르면, 감시영역 내의 침입, 객체의 이동, 객체의 사라짐 등을 검출할 수 있다.This allows tracking of objects with only validated shape control points to be free from potential failure factors such as temporal spatial similarity between object and background, object deformation, occlusion, and so on. According to the present invention, intrusion in a surveillance area, movement of an object, disappearance of an object, and the like can be detected.
상기 차량번호 인식 분석기(433)는 차량번호를 RGB 카메라로 인식하여 그레이 스케일로 변환한 후 그래디언트 연산 처리를 통해 차량번호를 인식한다.The car number recognition analyzer 433 recognizes the car number as an RGB camera, converts it to gray scale, and recognizes the car number through a gradient calculation process.
차량 번호판은 번호판을 검출로부터 문자를 인식할 수 있다. 차량 번호판 검출방법은 RGB 카메라로부터 차량이 포함된 영상 이미지를 입력받는 단계와, 상기 영상 이미지를 Gray Scale로 변환하는 단계와, 상기 Gray Scale로 변환된 영상 이미지를 Gradient 연산처리하는 단계와, Active Contour Model을 적용하는 단계를 포함한다.The license plate can recognize the characters from the license plate detection. The vehicle license plate detection method includes the steps of receiving a video image including a vehicle from an RGB camera, converting the video image into a gray scale, performing a gradient process on the video image converted into the gray scale, And applying the model.
상기 Active Contour Model은 Energy Minimization 기법을 이용하며, 상기 Active Contour Model의 에너지 함수는 아래 〈수식 5〉에 따라 산출될 수 있다.The active contour model uses an energy minimization technique, and the energy function of the active contour model can be calculated according to Equation (5) below.
〈수식 5〉≪ Eq. 5 &
여기서, Si는 번호판의 네 꼭지점을 의미하고, 각 꼭지점의 좌표는 v(Si)=(x(Si),y(Si))로 정의되며, Eint는 내부 에너지 텀이고, Eimage는 영상 이미지 에너지 텀이며, Eprior는 사전 구속 에너지 텀이다.The coordinates of each vertex are defined as v (Si) = (x (Si), y (Si)), where Eint is the internal energy term and Eimage is the image image energy term And Eprior is the pre-constrained energy term.
차량 번호판의 정밀한 검출을 위해 입력 영상 이미지에서 에너지 함수를 이용하여 에너지 함수의 극값을 구함으로써 정밀한 번호판 검출이 가능하다.In order to precisely detect the license plate, it is possible to detect the license plate by obtaining the extremum of the energy function using the energy function in the input image.
상기 배회 및 이상행위 감지 분석기(434)는 감지영역 내에 특정 객체가 일정시간 동안 지속적인 불특정한 이동궤적으로 움직일 경우 불규칙한 배회를 감지하여 패턴 분석을 수행한다. The wandering and anomaly detection analyzer 434 senses irregular wandering and performs pattern analysis when a specific object moves in an unspecified unspecified movement locus for a predetermined period of time within the sensing area.
배회 및 이상행위 검출의 경우, 영상프레임과 배경영상의 차분에 의해 검출되는 이동객체의 위치 변화를 기초로 감시대상 영역 내에서 발생할 수 있는 월담 행위 또는 배회 행위 등의 이상 상황을 검출함으로써 구체적인 이상 상황의 발생 여부에 대하여 효과적으로 무인감시를 수행한다.In the case of detection of a roaming and an abnormal behavior, it is possible to detect an abnormal situation such as a wartime behavior or a roaming behavior that may occur in the monitored area based on the positional change of the moving object detected by the difference between the image frame and the background image, The unmanned surveillance system effectively performs the unmanned surveillance.
실시예로서, 이상행위 검출은 입력받은 복수의 영상프레임 중에서 현재 영상프레임 및 상기 현재 영상프레임에 시간적으로 앞서는 이전 영상프레임 사이에서 검출된 광류 흐름을 기초로 상기 현재 영상프레임에 대응하는 배경영상을 생성하는 배경영상 생성단계와, 상기 배경영상과 상기 현재 영상프레임의 차분에 의해 상기 현재 영상프레임으로부터 이동객체를 검출하는 이동객체 검출단계와, 상기 현재 영상프레임까지 시간적으로 연속하는 영상프레임들로부터 동일하게 검출된 상기 이동객체의 위치변화인 이동궤적을 기초로 상기 이동객체가 상기 현재 영상프레임에 대응하는 감시대상 영역 내에서 이동함에 따라 발생하는 이상 상황을 검출하되, 상기 현재 영상프레임을 사전에 설정된 크기의 복수의 블록으로 분할하고, 상기 이동객체의 이동궤적이 통과하는 횟수가 사전에 설정된 기준횟수 이상인 블록이 사전에 설정된 기준 개수 이상이면 상기 이동객체가 상기 감시대상 영역 내에서 배회하는 객체인 것으로 결정하는 이상행위 검출단계를 포함할 수 있다.As an embodiment, the abnormal behavior detection may include generating a background image corresponding to the current image frame based on an optical flow detected between a current image frame and a previous image frame that temporally precedes the current image frame among a plurality of input image frames, A moving object detecting step of detecting a moving object from the current image frame by a difference between the background image and the current image frame; Detecting an abnormal situation that occurs as the moving object moves within a monitored area corresponding to the current image frame based on a moving trajectory, which is a change in position of the detected moving object, And the movement of the moving object And an abnormal behavior detection step of determining that the moving object is an object roaming in the monitored area if the number of times the trajectory passes exceeds a preset reference number, which is equal to or greater than a preset reference number.
추가적으로 상기 배경영상과 상기 현재 영상프레임의 차분 및 상기 현재 영상프레임에 사전에 설정된 기준시간만큼 앞서는 영상프레임에 대응하여 생성된 배경영상인 과거 배경영상과 상기 현재 영상프레임의 차분을 기초로 정지객체를 검출할 수 있으며, 상기 정지객체의 위치가 상기 현재 영상프레임까지 시간적으로 연속하는 사전에 설정된 기준개수의 영상프레임들 상에서 동일하면 이를 정지객체를 방치객체로 추정할 수 있다. 이와 같은 방치객체는 정지객체의 불변 모멘트 값을 기초로 정지객체가 버려진 물체 또는 실신한 사람에 해당하는 것으로 추정한다.A still object is generated based on a difference between the background image and the current image frame and a difference between the past background image, which is a background image generated in correspondence with the image frame preceding by the reference time preset in the current image frame, And if the position of the stop object is the same as a preset reference number of image frames that are temporally continuous up to the current image frame, the stop object can be estimated as a stop object. Such a neglected object estimates that the stationary object corresponds to an abandoned object or a fainted person based on the invariant moment value of the stationary object.
한편 로우 영상 데이터에는 적어도 하나 이상의 서로 다른 또는 복수의 객체가 있을 수 있다. 본 발명에 따른 우선순위 처리부는 분류된 로우 영상 데이터에서 화재감지, 침입감지, 물체감지, 차량번호 인식, 배회 및 이상행위 감지 등과 같은 이벤트가 동시에 검출될 경우 우선순위를 선정하여 영상 및 신호처리를 수행한다. 상기 우선순위는 미리 설정된 우선순위일 수 있다. 예컨대 상기 우선순위는 화재, 침입, 배외 및 이상행위, 차량번호의 순서로 부여될 수 있다. 상기 우선순위는 유관기관에 푸시 알림신호를 출력하는 기준이 된다. On the other hand, the row image data may include at least one or more different objects. The priority processing unit according to the present invention selects priorities when events such as fire detection, intrusion detection, object detection, car number recognition, wandering, and abnormal behavior detection are simultaneously detected from the classified raw image data, . The priority may be a preset priority. For example, the priority may be given in order of fire, intrusion, out-of-sight and abnormal behavior, and vehicle number. The priority is a reference for outputting a push notification signal to the relevant authority.
중앙 관제센터의 실행부(450)는 침입, 객체 감지될 경우 관리자의 제어에 따라 카메라의 찰상방향을 제어한다. 실시예로서 관심 영역에 객체가 감지될 경우 모니터링을 수행하여 카메라의 촬상방향 및 침입 객체 자동 추적을 실시간으로 실행하도록 제어신호를 출력할 수 있다.The
한편 본 발명에 따른 중앙 관제센터는 푸시 알림부(460)를 더욱 포함한다. 상기 푸시 알림부는 로우 영상 데이터의 패턴분석, 인덱스 검색, 실시간 경고 및 이벤트 발생에 대한 내용을 부가하여 지자체 관련부서 및 경찰, 소방서 등과 같은 유관기관(500)에 푸시 알림신호를 출력한다. 추가적으로 푸시알림 신호는 시스템 관리자에게 문자메시지, 오디오 알림 및 전등의 색점멸을 통해 선택적으로 알림기능을 수행할 수 있다. Meanwhile, the central control center according to the present invention further includes a
본 발명에 따른 중앙 관제센터의 표시부(470)는 CCTV 카메라로 촬영된 영상을 디스플레이한다.The
이상, 본 발명을 구체적인 실시예를 통하여 상세하게 설명하였으나, 본 발명은 상기 실시예에 한정되지 않고, 본 발명의 기술적 사상의 범위내에서 통상의 지식을 가진 자에 의하여 여러 가지 변형이 가능하다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the present invention is not limited to the disclosed exemplary embodiments, but various changes and modifications may be made by those skilled in the art without departing from the scope of the present invention.
100 : CCTV 카메라 200 : 통합 수집서버
300 : 네트워크 400 : 중앙 관제센터
410 : 송수신부 420 : 객체 분류기
430 : 분석부 440 : 우선순위 처리부
450 : 실행부 460 : 푸시 알림부
470 : 표시부 500 : 유관기관 100: CCTV camera 200: Integrated collection server
300: Network 400: Central Control Center
410: Transmitting / receiving unit 420: Object classifier
430: Analyzer 440: Priority processor
450: Executing unit 460: Push notification unit
470: Display unit 500:
Claims (3)
상기 CCTV 카메라들로부터 촬상된 로우 영상 데이터를 수집 및 저장하는 통합 수집서버와,
네트워크를 경유하여 로우 영상 데이터를 전송받고, 로우 영상 데이터에 기록된 객체별로 분류된 영상 데이터를 분석처리하여 이벤트를 획득하는 중앙 관제센터를 포함하고,
상기 CCTV 카메라는 감시영역 내의 이동 객체 검출 기능을 가지는 모션 디텍터 카메라, 열 감지를 가지는 적외선 카메라, 번호판 영상을 촬상하는 고화질 RGB 카메라, 보다 신뢰성이 있는 레이더가 부착된 카메라, 및 자동추적을 수행하기 위한 팬틸트 카메라, IP 통신을 수행할 수 있는 네트워크 카메라 중 적어도 어느 하나로 구성되고,
상기 객체는 화재, 사람, 차량일 수 있으며, 상기 이벤트는 화재감지, 침입감지, 물체감지, 차량번호 인식, 배회 및 이상행위 감지이고,
상기 화재 감지는 입력 영상을 HSI 색공간으로 변환한 후, 화재시 나타날 수 있는 색상 범위, 채도 범위, 밝기 범위에 기초한 화재 설정값을 이용하여 1차 화재 후보영역을 검출하고, 1차 화재 후보 영역에 대한 모션 벡터를 구하고 방향성을 분석하여 2차 화재 후보 영역을 검출한 후, 2차 화재 후보 영역과 복수의 인접한 프레임의 2차 화재 후보 영역의 차영상을 생성하고, 상기 차영상을 누적하여 누적 영상을 생성한 다음, 상기 누적 영상에서 픽셀 값이 기준치 이상인 픽셀을 화재 영역으로 검출하도록 구성되고,
상기 2차 화재 후보 영역이 검출은, 1차 화재 후보 영역에 대한 모션 벡터를 구한 후, 1차 화재 후보 영역에 대해 구해진 모션 벡터를 n(자연수) 방향으로 양자화한 다음, 1차 화재 후보 영역에 대해 양자화된 모션 벡터 결과를 이용하여 모션 벡터방향이 기준치 이상의 방향을 포함하는 1차 화재 후보 영역을 2차 화재 후보 영역으로 검출하는 것을 특징으로 하는 통합 지능형 CCTV 영상 처리 시스템.
At least one CCTV camera for capturing the surveillance region and acquiring low image data,
An integrated collection server for collecting and storing raw image data captured from the CCTV cameras,
And a central control center for receiving the low image data via the network and analyzing the image data classified by the objects recorded in the low image data to acquire an event,
The CCTV camera includes a motion detector camera having a moving object detection function in a surveillance area, an infrared camera having a thermal sensation, a high-definition RGB camera for sensing license plate images, a camera with more reliable radar, A tilt camera, a network camera capable of performing IP communication,
The object may be a fire, a person, or a vehicle, and the event may include fire detection, intrusion detection, object detection, car number recognition,
In the fire detection, an input image is converted into an HSI color space, and a primary fire candidate region is detected using a fire setting value based on a color range, a saturation range, and a brightness range that can appear in a fire, A second fire candidate region and a second fire candidate region of a plurality of adjacent frames are generated by analyzing a direction vector and a motion vector for the second fire candidate region, And detecting a pixel having a pixel value equal to or higher than a reference value in the cumulative image as a fire area,
In the detection of the secondary fire candidate region, the motion vector for the primary fire candidate region is obtained, and the motion vector obtained for the primary fire candidate region is quantized in the direction of n (natural number) And a primary fire candidate region including a direction in which a motion vector direction is greater than or equal to a reference value is detected as a secondary fire candidate region using the quantized motion vector results.
상기 중앙 관제센터는 감시영역으로부터 촬상된 로우 영상 데이터를 전송받는 송수신부와, 로우 영상 데이터를 객체별로 분류하는 객체 분류기와, 객체별로 분류된 영상 분석을 수행하여 이벤트를 획득하는 영상 분석부와, 획득된 이벤트를 근거로 미리 설정된 우선순위를 부여하는 우선순위 처리부와, 상기 우선순위에 따라 푸시 알림신호를 출력하는 푸시 알림부를 포함하는 것을 특징으로 하는 통합 지능형 CCTV 영상 처리 시스템.
The method according to claim 1,
The central control center comprises a transceiver for receiving the low image data picked up from the surveillance area, an object classifier for classifying the low image data by objects, an image analyzer for performing an image analysis by classifying the objects, A priority processing unit for assigning a predetermined priority based on the acquired event, and a push notification unit for outputting a push notification signal according to the priority.
상기 모션 벡터는 하기 〈수식〉에 의해 계산되는 것을 특징으로 하는 통합 지능형 CCTV 영상 처리 시스템.
〈수식〉
여기서, μ와 ν는 각각 x축 및 y축 방향으로 움직임 정보를 나타내며, p는 영상 패치를 나타내고, Ω는 이미지 도메인을 나타낸다. 또한 λ는 계수값을 나타내고, w는 루카스 카나데 방법으로 구해진 모션 벡터의 초기값을 나타낸다. 그리고 상기 r(μ, ν)는 이전 입력 영상과 현재 입력 영상의 잔차(residual)을 나타낸다. 상기 잔차는 r(μ, ν) = (F(t) - F(t-1) + F(t,x)μ + F(t-1,y)ν)로 정의되며, F(t,x)와 F(t-1,y)는 각각 x축 방향과 y축 방향으로 미분한 영상을 나타낸다.The method according to claim 1,
Wherein the motion vector is calculated by the following equation.
<Equation>
Here, μ and v denote motion information in the x-axis and y-axis directions, p denotes an image patch, and Ω denotes an image domain. Also,? Represents the coefficient value, and w represents the initial value of the motion vector obtained by the Lucas Kanade method. And r (mu, v) represents the residual of the previous input image and the current input image. The residual is defined as r (μ, ν) = (F (t) - F (t-1) + F (t, x) ) And F (t-1, y) represent images differentiated in the x-axis direction and the y-axis direction, respectively.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170067788A KR101793636B1 (en) | 2017-05-31 | 2017-05-31 | Image processing system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020170067788A KR101793636B1 (en) | 2017-05-31 | 2017-05-31 | Image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101793636B1 true KR101793636B1 (en) | 2017-11-03 |
Family
ID=60383747
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020170067788A KR101793636B1 (en) | 2017-05-31 | 2017-05-31 | Image processing system |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101793636B1 (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101938114B1 (en) * | 2018-08-08 | 2019-01-11 | 안도균 | Camera and method for providing imaging analysis information |
KR101942808B1 (en) * | 2018-11-13 | 2019-01-29 | 주식회사 인텔리빅스 | Apparatus for CCTV Video Analytics Based on Object-Image Recognition DCNN |
WO2019124632A1 (en) * | 2017-12-20 | 2019-06-27 | 이노뎁 주식회사 | Syntax-based method for sensing loitering object in compressed video |
KR102115322B1 (en) * | 2018-11-28 | 2020-05-26 | 주식회사 휴먼아이씨티 | System for smart video analysis |
CN112235538A (en) * | 2020-09-30 | 2021-01-15 | 合肥市嘉辉电子科技有限公司 | Special camera for preventing high-altitude object throwing monitoring |
KR20210059476A (en) * | 2019-11-15 | 2021-05-25 | 에스케이브로드밴드주식회사 | Supporting apparatus for object tracing, and control method thereof |
WO2021137687A1 (en) * | 2019-12-31 | 2021-07-08 | Mimos Berhad | A system and method for monitoring behaviour |
KR20210112495A (en) | 2020-03-05 | 2021-09-15 | (주)퀀텀솔루션 | Intelligent imaging device and image processing method using the same |
KR102346204B1 (en) | 2021-09-10 | 2022-01-03 | (주)디에이치정보기술 | Method, device and system for processing cctv image installed in public place based on artificial intelligence |
CN115019462A (en) * | 2022-05-27 | 2022-09-06 | 北京声智科技有限公司 | Video processing method, device, storage medium and equipment |
KR20220150614A (en) | 2021-05-04 | 2022-11-11 | 주식회사 케이티 | Server, method and computer program for detecting fire |
KR20220163577A (en) * | 2021-06-03 | 2022-12-12 | 주식회사 지미션 | Analysis video relay method and analysis relay system of analysis relay server |
KR102620239B1 (en) * | 2023-03-21 | 2024-01-03 | 이희용 | Non-contact type short-term rental monitoring system |
KR102662372B1 (en) * | 2021-02-18 | 2024-04-29 | 경운대학교 산학협력단 | Development for Diagnosing Electric Power System and fire alarm using thermal image sensor |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100862409B1 (en) * | 2007-05-31 | 2008-10-08 | 대구대학교 산학협력단 | The fire detection method using video image |
KR101200268B1 (en) * | 2012-01-18 | 2012-11-12 | 주식회사 프리진 | Composite fire sensor device based on image for active evacuation and rescue and system using the same |
-
2017
- 2017-05-31 KR KR1020170067788A patent/KR101793636B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100862409B1 (en) * | 2007-05-31 | 2008-10-08 | 대구대학교 산학협력단 | The fire detection method using video image |
KR101200268B1 (en) * | 2012-01-18 | 2012-11-12 | 주식회사 프리진 | Composite fire sensor device based on image for active evacuation and rescue and system using the same |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019124632A1 (en) * | 2017-12-20 | 2019-06-27 | 이노뎁 주식회사 | Syntax-based method for sensing loitering object in compressed video |
KR20190074898A (en) * | 2017-12-20 | 2019-06-28 | 이노뎁 주식회사 | syntax-based method of detecting loitering objects in compressed video |
KR102015078B1 (en) * | 2017-12-20 | 2019-08-27 | 이노뎁 주식회사 | syntax-based method of detecting loitering objects in compressed video |
KR101938114B1 (en) * | 2018-08-08 | 2019-01-11 | 안도균 | Camera and method for providing imaging analysis information |
KR101942808B1 (en) * | 2018-11-13 | 2019-01-29 | 주식회사 인텔리빅스 | Apparatus for CCTV Video Analytics Based on Object-Image Recognition DCNN |
KR102115322B1 (en) * | 2018-11-28 | 2020-05-26 | 주식회사 휴먼아이씨티 | System for smart video analysis |
KR102286958B1 (en) * | 2019-11-15 | 2021-08-05 | 에스케이브로드밴드주식회사 | Supporting apparatus for object tracing, and control method thereof |
KR20210059476A (en) * | 2019-11-15 | 2021-05-25 | 에스케이브로드밴드주식회사 | Supporting apparatus for object tracing, and control method thereof |
WO2021137687A1 (en) * | 2019-12-31 | 2021-07-08 | Mimos Berhad | A system and method for monitoring behaviour |
KR20210112495A (en) | 2020-03-05 | 2021-09-15 | (주)퀀텀솔루션 | Intelligent imaging device and image processing method using the same |
CN112235538A (en) * | 2020-09-30 | 2021-01-15 | 合肥市嘉辉电子科技有限公司 | Special camera for preventing high-altitude object throwing monitoring |
KR102662372B1 (en) * | 2021-02-18 | 2024-04-29 | 경운대학교 산학협력단 | Development for Diagnosing Electric Power System and fire alarm using thermal image sensor |
KR20220150614A (en) | 2021-05-04 | 2022-11-11 | 주식회사 케이티 | Server, method and computer program for detecting fire |
KR20220163577A (en) * | 2021-06-03 | 2022-12-12 | 주식회사 지미션 | Analysis video relay method and analysis relay system of analysis relay server |
KR102549073B1 (en) * | 2021-06-03 | 2023-06-29 | 주식회사 지미션 | Analysis video relay method and analysis relay system of analysis relay server |
KR102346204B1 (en) | 2021-09-10 | 2022-01-03 | (주)디에이치정보기술 | Method, device and system for processing cctv image installed in public place based on artificial intelligence |
CN115019462A (en) * | 2022-05-27 | 2022-09-06 | 北京声智科技有限公司 | Video processing method, device, storage medium and equipment |
KR102620239B1 (en) * | 2023-03-21 | 2024-01-03 | 이희용 | Non-contact type short-term rental monitoring system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101793636B1 (en) | Image processing system | |
KR101942808B1 (en) | Apparatus for CCTV Video Analytics Based on Object-Image Recognition DCNN | |
EP4105101A1 (en) | Monitoring system, monitoring method, and monitoring device for railway train | |
US10204275B2 (en) | Image monitoring system and surveillance camera | |
EP2903261B1 (en) | Apparatus and method for detecting event from plurality of photographed images | |
KR101570339B1 (en) | The predicting system for anti-crime through analyzing server of images | |
US20130265423A1 (en) | Video-based detector and notifier for short-term parking violation enforcement | |
EP2549759B1 (en) | Method and system for facilitating color balance synchronization between a plurality of video cameras as well as method and system for obtaining object tracking between two or more video cameras | |
KR100922784B1 (en) | Image base fire sensing method and system of crime prevention and disaster prevention applying method thereof | |
KR102478335B1 (en) | Image Analysis Method and Server Apparatus for Per-channel Optimization of Object Detection | |
US20090310822A1 (en) | Feedback object detection method and system | |
KR101513215B1 (en) | The analyzing server of CCTV images among behavior patterns of objects | |
KR101964683B1 (en) | Apparatus for Processing Image Smartly and Driving Method Thereof | |
KR101492473B1 (en) | Context-aware cctv intergrated managment system with user-based | |
KR101298684B1 (en) | Non sensor based vehicle number recognition system and operating method thereof | |
CN102117484B (en) | Processing system, processing method and image classification method using image color information | |
KR20150074893A (en) | Method and apparatus for detecting fire using fire detection sensor and camera | |
KR101372860B1 (en) | System for searching video and server for analysing video | |
US10210392B2 (en) | System and method for detecting potential drive-up drug deal activity via trajectory-based analysis | |
JP3486229B2 (en) | Image change detection device | |
KR102107957B1 (en) | Cctv monitoring system for detecting the invasion in the exterior wall of building and method thereof | |
CN201726494U (en) | Device and system which utilize image color information to conduct image comparison | |
KR101547255B1 (en) | Object-based Searching Method for Intelligent Surveillance System | |
KR101485512B1 (en) | The sequence processing method of images through hippocampal neual network learning of behavior patterns in case of future crimes | |
KR102111162B1 (en) | Multichannel camera home monitoring system and method to be cmmunicated with blackbox for a car |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
R401 | Registration of restoration |