KR20210158037A - Method for tracking multi target in traffic image-monitoring-system - Google Patents

Method for tracking multi target in traffic image-monitoring-system Download PDF

Info

Publication number
KR20210158037A
KR20210158037A KR1020200076298A KR20200076298A KR20210158037A KR 20210158037 A KR20210158037 A KR 20210158037A KR 1020200076298 A KR1020200076298 A KR 1020200076298A KR 20200076298 A KR20200076298 A KR 20200076298A KR 20210158037 A KR20210158037 A KR 20210158037A
Authority
KR
South Korea
Prior art keywords
moving object
image
information
motion
surveillance
Prior art date
Application number
KR1020200076298A
Other languages
Korean (ko)
Other versions
KR102434154B1 (en
Inventor
정기호
김덕술
Original Assignee
동명대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 동명대학교산학협력단 filed Critical 동명대학교산학협력단
Priority to KR1020200076298A priority Critical patent/KR102434154B1/en
Publication of KR20210158037A publication Critical patent/KR20210158037A/en
Application granted granted Critical
Publication of KR102434154B1 publication Critical patent/KR102434154B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/001Image restoration
    • G06T5/002Denoising; Smoothing
    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

An embodiment relates to a method for capturing a location and a motion of a high-speed moving object in an image monitoring system. Specifically, the method collects monitoring images for each camera device installed in each of a plurality of different monitoring areas during image monitoring. Then, feature metadata of the moving object is extracted from the monitoring image collected in this way, and a feature of the moving object is extracted from a preset AI format which extracts a feature value of the image patch according to the feature metadata of the moving object. Therefore, by recognizing the moving object by the preset AI format for estimating the size and location of the entire moving object from the extracted features of the moving object, the moving object is tracked for each moving object. Therefore, through this, the image monitoring system is systematically effective and quickly captures the moving object at high speed.

Description

영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법{Method for tracking multi target in traffic image-monitoring-system}Position and motion capture method of a high-speed moving object in a video surveillance system {Method for tracking multi target in traffic image-monitoring-system}

본 명세서에 개시된 내용은 데이터 처리 기술 분야에 관한 것으로, 예를 들어 도로 상의 차량 또는 우범지역에서의 사람 등에 대한 영상감시시스템에 있어서, 이동물체를 실시간으로 캡쳐하고 추적하는 기술에 관한 것이다.The content disclosed in this specification relates to the field of data processing technology, and for example, in an image monitoring system for a vehicle on a road or a person in an offender area, relates to a technology for capturing and tracking a moving object in real time.

본 명세서에서 달리 표시되지 않는 한, 이 섹션에 설명되는 내용들은 이 출원의 청구항들에 대한 종래 기술이 아니며, 이 섹션에 포함된다고 하여 종래 기술이라고 인정되는 것은 아니다.Unless otherwise indicated herein, the material described in this section is not prior art to the claims of this application, and inclusion in this section is not an admission that it is prior art.

일반적으로, 예를 들어 교통 신호 제어 시스템은 교차로에서 상충되는 교통류의 이동 우선권을 통제함으로 안전과 소통효율을 증가시키는 중요한 시스템이다. 하지만 잘못된 현황파악 및 신호운영은 오히려 소통효율을 악화시켜 정체를 가중시키고 운전자의 무리한 운전패턴을 유도하여 위험을 초래하는 계기가 된다. In general, for example, a traffic signal control system is an important system for increasing safety and communication efficiency by controlling the movement priority of conflicting traffic flows at an intersection. However, incorrect identification of the status quo and signal operation rather worsens communication efficiency, aggravates congestion, and induces drivers' unreasonable driving patterns, which leads to danger.

현재 서울시를 포함한 광역시 및 중소도시 21개 지자체에서 교통 신호 제어 시스템이 구축되어 있으나, 교통정보 수집체계인 루프검지기의 관리 및 운영상의 한계로 감응식으로 운영하지 못하고 대부분의 교차로를 TOD 방식으로 운영되고 있다.Currently, traffic signal control systems have been established in 21 metropolitan cities and small and medium-sized cities, including Seoul, but they cannot be operated in a responsive manner due to limitations in the management and operation of the loop detector, a traffic information collection system, and most intersections are operated in the TOD method. have.

그리고, 고정식은 해당교차로의 대략적인 교통량을 근거로 신호시간을 계획하고, TOD방식은 교통량이 크게 급변하는 출퇴근 시간, 교통량이 일정한 낮 시간대와 새벽시간대의 교통량을 전수조사하여 파악된 교통량을 근거로 신호시간을 계산하게 된다. In addition, the fixed type plans the signal time based on the approximate traffic volume of the corresponding intersection, and the TOD method is based on the traffic volume determined by conducting a full investigation of the traffic volume during commuting time and during the daytime and early morning hours with constant traffic volume. The signal time is calculated.

또한, 유지보수 측면에서 통행패턴이 일정하게 유지되는 교차로는 고정식 또는 TOD 신호방식이 유리하겠지만, 도시내 도로의 운영방식의 변화 등 환경적인 요인으로 교통패턴이 변화하기 때문에 기 계획된 신호시간이 변화된 패턴에 반응하지 못하여 비효율적으로 운영되기도 하고, 이를 위해 교차로의 교통량을 모니터링하거나 매번 조사할 수 없는 실정이다.Also, in terms of maintenance, a fixed or TOD signaling method is advantageous for an intersection where the traffic pattern is kept constant. In some cases, it is operated inefficiently because it fails to respond to the

한편, 최근 무렵에는 불법 주정차 단속장치, 차량속도 감시장치, 건물의 차량출입 시스템, CCTV 보안시스템 등에 차량번호인식 시스템이 활용되고 있다. 차량번호인식 시스템은 촬영장치인 카메라 및 카메라를 통해 촬영된 이미지를 분석하여 차량번호를 인식하는 정보처리부를 포함한다. 카메라는 고정식 또는 이동식으로 설치될 수 있다.Meanwhile, in recent years, the vehicle number recognition system has been used in illegal parking enforcement devices, vehicle speed monitoring devices, vehicle access systems in buildings, and CCTV security systems. The vehicle number recognition system includes a camera, which is a photographing device, and an information processing unit for recognizing a vehicle number by analyzing an image photographed through the camera. The camera can be installed fixedly or mobile.

이러한 차량 번호판은 식별을 목적으로 자동차에 부착하는 금속 또는 플라스틱으로 된 판이다. 차량 번호판에는 문자, 숫자, 또는 이들의 조합이 기재되어 있고, 차량 번호판의 형상은 국가 또는 행정 구역마다 정책적으로 결정된다.These license plates are metal or plastic plates that are attached to vehicles for identification purposes. The license plate contains letters, numbers, or a combination thereof, and the shape of the license plate is determined by policy for each country or administrative region.

기존의 차량의 번호판을 검출하는 방식에는 문자 기반의 검출 방식, 에지 기반의 검출 방식, 색깔 기반의 검출방식, 텍스처 기반의 검출 방식 등이 있다. 문자 기반의 검출 방식은 처리 속도가 느리며 문자 영역을 설정해야하고, 에지 기반의 검출 방식은 경험적 변수(예컨대, 종횡비 등)에 의존적이고, 색깔 기반의 검출 방식은 조명 또는 그림자의 변화에 민감하고, 텍스처 기반의 검출 방식는 처리 속도가 느린 문제가 있다.Conventional methods for detecting license plates of vehicles include a character-based detection method, an edge-based detection method, a color-based detection method, a texture-based detection method, and the like. The character-based detection method is slow in processing speed and requires setting the character area, the edge-based detection method is dependent on empirical variables (eg, aspect ratio, etc.), and the color-based detection method is sensitive to changes in lighting or shadows, The texture-based detection method has a problem of slow processing speed.

그리고, 더 나아가서 차량 번호판 인식 기술은 교통 단속 시스템 및 주차 관제 시스템, 운전보조장치(ADAS) 시스템 등에 사용되는 지능형교통체계(ITS) 분야의 핵심 기술이다. 최근에는 딥러닝 (Deep Learning) 기술을 통해 차량 번호판 인식 기능이 증대되어 임베디드 환경에서도 효과적으로 동작하고 있으므로 차량 번호판 인식 기술의 다각화를 모색할 수 있다.And, furthermore, the license plate recognition technology is a core technology in the field of intelligent traffic systems (ITS) used in traffic enforcement systems, parking control systems, and ADAS systems. Recently, the license plate recognition function has been increased through deep learning technology and it is effectively operating in an embedded environment, so it is possible to seek diversification of the license plate recognition technology.

한편, 최근의 뉴스에서 보도된 바와 같이, 화재가 발생될 시 화재현장 주변의 주차된 차량으로 인해 2차 피해와, 소방차 진입도로 주변 주차 차량으로 인해 화재 진압시간 지연 등의 문제가 발생된다. On the other hand, as reported in recent news, when a fire occurs, there are problems such as secondary damage due to vehicles parked near the fire site, and delay in fire suppression time due to vehicles parked near the fire engine access road.

예를 들어, 제천 스포츠센터 화재(2017년 12월)에서와 같이 건물 주변 진입로에 불법 주정차 차량으로 소방차 진입이 지연되는 경우이다. 여기서는 화재 당시 소방차가 7분만에 현장에 도착했으나, 불법 주정차 차량으로 인해 사다리차가 진입하지 못하여 30분 동안 구조작업 불가 및 인명피해가 증가하였다. 그리고, 화재 사건 이후에도 인근 도로 불법 주정차 차량이 다량 존재하고, 시민들의 안전의식 부재로 인해 관련된 문제가 발생되었다.For example, as in the case of the Jecheon Sports Center fire (December 2017), the entry of a fire engine is delayed due to an illegally parked vehicle on the driveway around the building. Here, a fire engine arrived at the scene in 7 minutes at the time of the fire, but a ladder truck could not enter due to an illegally parked vehicle. In addition, even after the fire incident, there were a lot of illegally parked vehicles on nearby roads, and related problems occurred due to the lack of safety awareness of citizens.

이와 관련하여, 한편 태풍, 집중호우로 인한 피해가 발생될 시 관리가 난해한 하천 고수부지 주차장 차량 침수 피해가 지속적으로 발생된다.In this regard, on the other hand, when damage is caused by typhoons or torrential rain, flooding of vehicles in parking lots in high rivers, which is difficult to manage, continues to occur.

그리고, 또한 다른 한편으로는 재난 발생시 주변 차량 소유주의 즉각적인 대응을 위한 알림 서비스가 부재하다. 부가적으로, 현행 행정안전부의 긴급재난문자방송(CBS:Cell Broadcasting Service)은 해당지역의 기지국 반경 내에 속해있는 모든 휴대폰으로 메시지를 일괄 전송하는 방식으로, 불특정 다수에게 재난문자가 전송되는 실정이다.And, on the other hand, there is no notification service for immediate response of nearby vehicle owners in the event of a disaster. In addition, the current emergency disaster text broadcasting (CBS: Cell Broadcasting Service) of the Ministry of Public Administration and Security is a method of collectively transmitting messages to all mobile phones within the radius of a base station in the area, and disaster texts are transmitted to an unspecified number of people.

그래서, 자동차량번호인식 기술(License Plate Recognition)을 활용한 휴대용 인식 및 정보 전송 단말과 행정정보 공동이용시스템 등이 결합된 경보 알림 시스템 개발이 필요하다. 그리고, 이에 맞는 차량번호인식 기술도 아울러 필요하다.Therefore, it is necessary to develop an alarm notification system that combines a portable recognition and information transmission terminal using a license plate recognition technology and an administrative information joint use system. In addition, a vehicle number recognition technology suitable for this is also required.

이러한 배경의 선행기술문헌은 관련 선행기술을 살펴볼 경우, 특허문헌으로부터 선행기술을 조사해서 관련 선행기술로서 직접적으로 관련된 국내선행기술이 검색되지 않고 참고할만한 아래의 특허문헌이 나올 정도일 뿐이다.In case of examining the related prior art in this background, the domestic prior art directly related as the related prior art by examining the prior art from the patent document is not searched, but the following patent documents are only available for reference.

(특허문헌 1) KR1020190143548 A(Patent Document 1) KR1020190143548 A

참고적으로, 이러한 특허문헌 1의 기술은 차량번호, 종류, 및 색상 학습을 통한 번호판 인식률이 향상되고, 실시간 학습이 가능한 차량 인식 시스템에 관한 기술 정도이다.For reference, the technology of Patent Document 1 is improved license plate recognition rate through vehicle number, type, and color learning, and is a technology degree related to a vehicle recognition system capable of real-time learning.

이와 관련하여, 특히나 교통 영상감시시스템에 있어서 멀티 표적을 추적하는 기능을 요구하고 있으며, 이 기능이 효과적으로 작동하기 위해서는 복수의 객체에 대한 정확한 위치의 확보 및 실시간 추적이 따라야 된다.In this regard, in particular, a function of tracking a multi-target is required in a traffic video surveillance system, and in order for this function to operate effectively, it is necessary to secure an accurate location for a plurality of objects and follow it in real time.

한편, 최근 카메라를 이용한 다양한 형태의 감시 시스템이 산업분야에 널리 활용되고 있으며, 이러한 카메라 감시 시스템은 보안용 및 단속용으로도 적극 활용되고 있다.On the other hand, recently, various types of surveillance systems using cameras are widely used in industrial fields, and these camera surveillance systems are actively used for security and enforcement purposes.

도로상에 설치된 일부 차량 단속용 카메라(예컨대, 주정차 단속이나 끼어들기 단속용 카메라)의 경우 카메라의 자세 제어(촬영방향 조정)를 통해 필요한 영역을 촬영하도록 설치되고 있으나, 현재 특정 장소를 촬영하여 방문자나 침입자를 감시하는 대부분의 보안용 감시 카메라는 특정 거리와 화각 범위 내의 감시영역 전체를 촬영하는 전역감시카메라이다.In the case of some vehicle enforcement cameras installed on the road (e.g., parking enforcement or cut-in enforcement cameras), they are installed to shoot the required area through the camera's posture control (adjustment of shooting direction), but currently, visitors Most security surveillance cameras that monitor intruders are global surveillance cameras that capture the entire surveillance area within a specific distance and angle of view.

이러한 전역감시카메라는 고정형 카메라로 정해진 넓은 영역을 감시하므로 해상도의 한계를 가지며, 이로 인해 전역감시카메라에 의해 촬영된 영상으로는 감시영역 내에 있는 사람의 얼굴을 정확히 식별하지 못하는 경우가 대부분이다.The global surveillance camera has a limitation in resolution because it monitors a large area determined by a fixed camera, and for this reason, in most cases, the face of a person in the surveillance area cannot be accurately identified with the image captured by the global surveillance camera.

따라서, 근래에 들어 카메라가 동적으로 사람을 추적하는 시스템을 개발하고 있다.Accordingly, in recent years, a system in which a camera dynamically tracks a person has been developed.

하지만, 아직까지 추적 기술의 완성도가 낮아 실제 현장에 적용하기에는 무리가 있으며, 현재까지 개발된 CCD영상에만 의존한 추적 알고리즘으로는 화면에서 움직이는 대상물이 너무나 다양하고 많기 때문에 인간만을 효과적으로 추적할 수 없는 것이 현실이다.However, it is difficult to apply the tracking technology to the actual field due to the low level of completion of the tracking technology. Reality.

이에 카메라가 인간만을 정확히 추적하여 촬영하도록 하는 기술이 필요한 실정이며, 또한 감시 대상이 여러 명일 경우 다중 타깃에 대한 감시의 기술 개발이 절실한 실정이다.Accordingly, there is a need for a technology that allows the camera to accurately track and photograph only humans, and when there are several monitoring targets, there is an urgent need to develop a technology for monitoring multiple targets.

종래에 알려진 추적과 관련된 대표적인 방법과 이들의 기술적 취약점을 살펴보면 다음과 같다.Representative methods related to tracking known in the prior art and their technical weaknesses are as follows.

1) 배경과 대상물체 분할의 대표적인 방법(차 영상 알고리즘/배경 차이 기법)1) Representative method of background and object segmentation (difference image algorithm/background difference technique)

- 차 영상 알고리즘(Difference Picture Algorithm)- Difference Picture Algorithm

일정 시간 지연된 두 개의 영상을 비교하여 물체를 배경으로부터 분리하는 방법으로, 고정된 배경에서 움직이는 물체를 효과적으로 검출 가능하다.It is a method of separating an object from a background by comparing two images delayed by a predetermined time, and it is possible to effectively detect a moving object in a fixed background.

- 배경 차이 기법(Background Model)- Background Model

현재 영상 이전의 매 프레임을 검사하여 기준이 되는 배경 영상에 현재 프레임의 영향을 추가시키는 방법이며, 배경 영상 생성시 주로 사용하는 기법이다.This is a method of adding the influence of the current frame to a background image as a reference by examining every frame before the current image, and is a technique mainly used when generating a background image.

ㆍ시간적 평활법 : 이전 프레임들의 화소값 평균치를 사용ㆍTemporal smoothing method: use the average of pixel values of previous frames

ㆍ시간적 중간치법 : 임의의 화소에서 이전 프레임에 나타난 값을 사용ㆍTemporal median method: use the value displayed in the previous frame in any pixel

- 기술적 취약점- Technical vulnerabilities

움직임이 미세하거나 없는 경우 물체 검출이 불가하고(배경으로 인식), 물체의 경계가 배경과 비슷한 경우 인식오차가 발생하며, 카메라와 배경이 동시에 움직이는 경우 또는 배경만 움직이는 경우 배경과 물체 분할이 불가하다.If there is little or no movement, it is impossible to detect an object (recognized as a background), and if the boundary of the object is similar to the background, a recognition error occurs. .

2) 이동물체의 검출 및 추적(특징기반 방법/영역기반 방법)2) Detection and tracking of moving objects (feature-based method/area-based method)

- 특징기반 방법- Feature-based method

ㆍ광류(Optical Flow)를 이용한 방법 : 짧은 시간 내에 얻어진 연속 두 프레임에 대해 공간적 변화만 존재하며 화소 자체의 빛 에너지는 보존되는 특징을 이용한 방법ㆍMethod using optical flow: A method using the feature that only spatial changes exist for two consecutive frames obtained within a short time and the light energy of the pixel itself is preserved

ㆍ직선을 이용한 방법 : 하나의 영상에서 직선의 수가 적고 선 자체가 뚜렷한 특징을 가지고 있으므로 잠재적인 정합의 경우의 수를 줄일 수 있음.ㆍMethod using straight lines: Since the number of straight lines in one image is small and the lines themselves have distinct characteristics, the number of potential registration cases can be reduced.

ㆍ구석 점(Corner Point)을 이용한 방법 : 특징 플로우 기반 정보로 이동물체의 형태를 특징지어 물체 추적ㆍMethod using Corner Point: Object tracking by characterizing the shape of a moving object with feature flow-based information

- 영역기반 방법 : 한 영상에서 특징점을 포함한 일정 영역의 영상 조각을 가지고 다음 영상과 상관관계(Correlation)를 이용하여 찾는 방법- Region-based method: A method of finding an image fragment of a certain region including feature points in one image using correlation with the next image

- 블록 정합법(Block Matching Method): 상관관계는 화소 기준의 평균 제곱의 차이값, 절대값 차이의 합을 가지고 비교하는 방법- Block Matching Method: A method of comparing correlation with the sum of the pixel-based mean square difference and absolute value difference

- 기술적 취약점- Technical vulnerabilities

특징 또는 블록의 정합을 위한 연산 과정이 복잡하고(실시간 처리 지연), 물체 검출을 위하여 시스템상에서 물체 특징에 관한 데이터베이스화가 요구된다.The calculation process for matching features or blocks is complicated (real-time processing delay), and for object detection, databaseization of object features is required in the system.

3) 스테레오 기반 물체 추적(광 JTC 추적/BPEJTC 추적)3) Stereo based object tracking (optical JTC tracking/BPEJTC tracking)

좌/우측 스테레오 입력 영상에서 추적 물체까지의 거리 정보를 획득하고 좌표로 양측 카메라를 제어하여 물체를 추적하는 기술이다.It is a technology that acquires distance information from the left/right stereo input image to the tracking object and tracks the object by controlling both cameras with coordinates.

- 광 JTC(Joint Transform Correlator) 추적 시스템 : 두 표적 영상신호를 광 JTC 입력 평면에 위치시켜 프레임간의 위치변화 측정을 기초로 영상의 이동 궤적 추적- Optical JTC (Joint Transform Correlator) Tracking System: By locating two target video signals on the optical JTC input plane, tracking the movement trajectory of the image based on the measurement of the position change between frames

- BPEJTC(Binary Phase Extraction JTC) 추적 시스템 : 비슷한 영상들에 대해 우수한 판별력을 지닌 이진 위상 형태의 광 JTC 이용- BPEJTC (Binary Phase Extraction JTC) tracking system: Uses binary phase type optical JTC with excellent discrimination power for similar images

- 기술적 취약점- Technical vulnerabilities

배경 잡음이 많거나 좌우측 영상의 배경이 서로 다른 경우, 그리고 카메라의 이동에 따른 배경 변화가 발생할 경우 추적이 불가하다.If there is a lot of background noise, if the backgrounds of the left and right images are different, or if the background changes due to the movement of the camera, tracking is not possible.

위에서 살펴본 바와 같이 종래의 추적 방법의 취약점을 정리하면, 첫 번째로 종래의 추적 방법은 움직임을 감지하여 추적하는 방법을 사용한다는 것이고, 두 번째로 프레임간의 차를 이용하여 움직임을 추적하는 방법을 사용한다는 것이다.As mentioned above, to summarize the weaknesses of the conventional tracking method, first, the conventional tracking method uses a method to detect and track motion, and secondly, a method for tracking motion using the difference between frames is used. is to do

이들 방법은 결론적으로 수학적 접근을 사용하거나 알고리즘이 지나치게 복잡하여 실시간 구현에 용이하지 않고, 움직임이 없는 경우 사람 인식 및 추적이 불가능하다.In conclusion, these methods are not easy to implement in real time because they use a mathematical approach or the algorithm is too complex, and when there is no movement, human recognition and tracking are impossible.

이에 간단한 추적 계산식을 사용하여 실시간으로 정확히 대상물체를 식별할 수 있도록 하는 기술 개발이 필요하다.Therefore, it is necessary to develop a technology that can accurately identify a target object in real time using a simple tracking calculation formula.

개시된 내용은, 영상감시시스템에 있어서, 고속의 이동물체를 시스템적으로 효과적이면서 신속히 캡쳐할 수 있도록 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법을 제공하고자 한다.The disclosed subject matter is to provide a method for capturing the position and motion of a high-speed moving object in an image monitoring system that enables the high-speed moving object to be captured systematically and quickly in an image monitoring system.

실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법은,A method of capturing the position and motion of a high-speed moving object in an image monitoring system according to an embodiment,

영상감시시에 다수의 상이한 감시영역마다 각기 설치된 카메라장치별로 감시영상을 수집한다.During video surveillance, surveillance images are collected for each camera device installed in each of a plurality of different surveillance areas.

그리고 나서, 이렇게 수집된 감시영상에서 이동물체의 피처 메타데이터를 추출하고, 이러한 이동물체의 피처 메타데이터에 따라 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 이동물체의 피처를 추출한다.Then, the feature metadata of the moving object is extracted from the surveillance image collected in this way, and the feature of the moving object is extracted from the preset AI format that extracts the feature value of the image patch according to the feature metadata of the moving object.

그래서, 상기 추출된 이동물체의 피처로부터 이동물체 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 이동물체를 인식함으로써, 각각의 이동물체별로 추적하는 것을 특징으로 한다.Therefore, by recognizing a moving object by a preset AI format for estimating the size and position of the entire moving object from the extracted features of the moving object, tracking is performed for each moving object.

실시예들에 의하면, 영상감시시스템에 있어서 시스템적으로 효과적이면서 신속히 고속의 이동물체를 캡쳐한다.According to the embodiments, a high-speed moving object is captured systematically and effectively in an image surveillance system.

부가적으로, 인공 지능 영상 분석 기술을 적용함으로써, 영상 분석이 체계적이고 신뢰성이 있으며, 환경의 변화에 따라 적합한 영상 분석과 운영 등이 이루어진다.Additionally, by applying artificial intelligence image analysis technology, image analysis is systematic and reliable, and appropriate image analysis and operation are performed according to changes in the environment.

또한, 이동물체 이미지의 특징을 추출하여 객체화를 통해 이동물체의 특정률을 향상시킬 수 있다.In addition, it is possible to improve the specific rate of the moving object through objectification by extracting the features of the moving object image.

도 1은 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법이 적용된 개념도
도 2는 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법이 적용된 시스템을 전체적으로 도시한 도면
도 3은 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법이 적용된 카메라 장치의 구성을 도시한 블록도
도 4는 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법을 순서대로 도시한 플로우 차트
도 5는 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법에 적용된 일실시예에 따른 객체 메타데이터 추출 동작을 예를 들어 보다 상세하게 설명하기 위한 도면
도 6은 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법에 적용된 일실시예에 따른 CNN 기반 객체 분류 동작을 설명하기 위한 도면
도 7과 도 8은 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법에 적용된 이상 감지 동작을 보다 상세하게 설명하기 위한 도면
1 is a conceptual diagram to which a method of capturing a position and a motion of a high-speed moving object in an image monitoring system according to an embodiment is applied; FIG.
2 is a view showing the overall system to which the position and motion capture method of a high-speed moving object in the video surveillance system according to an embodiment is applied;
3 is a block diagram illustrating the configuration of a camera device to which a method of capturing a position and a motion of a high-speed object in an image monitoring system according to an embodiment is applied; FIG.
4 is a flowchart sequentially illustrating a method of capturing a position and a motion of a high-speed moving object in an image monitoring system according to an embodiment;
5 is a diagram for explaining in more detail an example of an object metadata extraction operation according to an embodiment applied to a method for capturing the position and motion of a high-speed moving object in an image monitoring system according to an embodiment;
6 is a diagram for explaining a CNN-based object classification operation according to an embodiment applied to a method for capturing the position and motion of a high-speed moving object in a video surveillance system according to an embodiment
7 and 8 are diagrams for explaining in more detail an abnormality detection operation applied to a method for capturing a position and motion of a high-speed moving object in an image monitoring system according to an embodiment;

도 1a는 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법이 적용된 개념도이다.1A is a conceptual diagram to which a method of capturing a position and a motion of a high-speed moving object in an image monitoring system according to an embodiment is applied.

도 1에 도시된 바와 같이, 일실시예에 따른 방법은 예를 들어, 기본적으로 도로 등에서 차량이 주행할 경우 또는 우범지역 등에서 사람이 통행할 경우에, 각 섹터 상에 설치된 카메라 장치(100)에서 주변의 감시영상을 수집하여 중앙관제센터로 전달함으로써, 영상감시를 위한 기초정보를 획득한다.As shown in FIG. 1 , the method according to an exemplary embodiment basically uses the camera device 100 installed on each sector when a vehicle travels on a road or when a person passes through a crime zone. Basic information for video surveillance is acquired by collecting surrounding surveillance images and transmitting them to the central control center.

그러면, 일실시예에 따른 방법은 중앙관제센터에서 이러한 감시영상을 통해 영상분석을 한다.Then, in the method according to an embodiment, the central control center analyzes the image through the surveillance image.

그래서, 이 영상분석 결과를 바탕으로 해당되는 지역의 신호정책 등에 관한 교통정책을 도출하거나 교통이상징후 또는, 범죄발생여부 등을 예측하기도 한다.Therefore, based on the results of image analysis, traffic policies related to signal policies in the relevant area are derived, or abnormal traffic signs or crimes are predicted.

상기 카메라 장치(100)는 다수의 상이한 감시영역마다 예를 들어, 주요 교차로, 진입로, 우범지역 등에 각기 설치된 것으로, 자신의 감시영역의 감시영상을 수집하여 영상감시를 위한 기초정보로서 상기 중앙관제센터에 제공하는 것이다.The camera device 100 is installed in each of a plurality of different monitoring areas, for example, at major intersections, access roads, and crime areas, and collects monitoring images of its own monitoring area as basic information for video monitoring. will be provided to

도 2는 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법이 적용된 시스템을 전체적으로 도시한 도면이다.FIG. 2 is a view showing the overall system to which a method of capturing a position and a motion of a high-speed moving object in an image monitoring system according to an embodiment is applied.

도 2에 도시된 바와 같이, 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법이 적용된 시스템은 카메라 장치(100-1, 100-2, ... 100-m, 100-n, ... )와, 중앙관제센터(200)를 포함한다.As shown in FIG. 2, the system to which the method of capturing the position and motion of a high-speed moving object in the image monitoring system according to an embodiment is applied is a camera device 100-1, 100-2, ... 100-m, 100 -n, ... ) and the central control center (200).

상기 카메라 장치(100-1, 100-2, ... 100-m, 100-n, ... )는 다수의 상이한 감시영역별로 예를 들어, 주요 교차로, 진입로, 나들목, 우범교통지역, 우범지역 등에 각기 설치된 것으로, 자신의 감시영역에 대한 감시영상을 수집하여 영상감시를 위한 기초정보로서 자가망을 통해 상기 중앙관제센터(200)에 제공한다.The camera devices 100-1, 100-2, ... 100-m, 100-n, ... are, for example, a major intersection, an access road, an intersection, an off-the-cuff traffic area, and an offender for each of a number of different surveillance areas. It is installed in each region, and collects surveillance images for its own surveillance area and provides it to the central control center 200 through its own network as basic information for video surveillance.

상기 중앙관제센터(200)는 기본적으로 상기 카메라 장치(100-1, 100-2, ... 100-m, 100-n, ... )로부터 이러한 감시영상 등을 수집하고 영상분석해서, 관련된 분석결과 등을 방재관리실 혹은 외부연계기관에 제공한다. 이때, 상기 영상분석은 예를 들어, 감시영상 내에 사람의 위치와 모션을 캡쳐하여 미리 설정된 위험모션인 경우 즉, 범죄가 발생될 것으로 추정된 경우, 미리 등록된 경찰서 정보처리장치 등의 외부연계기관에 알림하는 동작으로 이루어진다. 이러한 경우, 상기 외부연계기관은 경찰서 정보처리장치와, 교통기관 정보처리장치 또는, 긴급구조 정보처리장치, 소방서 정보처리장치 등이다. The central control center 200 basically collects and analyzes such surveillance images from the camera devices 100-1, 100-2, ... 100-m, 100-n, ... The analysis results, etc. are provided to the disaster prevention management office or an external affiliated organization. At this time, the image analysis is, for example, in the case of a preset dangerous motion by capturing the position and motion of a person in the surveillance image, that is, when a crime is estimated to occur, an external linkage such as a pre-registered police station information processing device This is done by notifying the In this case, the external linkage is a police station information processing device, a transportation information processing device, an emergency rescue information processing device, a fire station information processing device, or the like.

도 3은 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법이 적용된 카메라 장치의 구성을 도시한 블록도이다.3 is a block diagram illustrating a configuration of a camera device to which a method of capturing a position and a motion of a high-speed object in an image monitoring system according to an exemplary embodiment is applied.

도 3에 도시된 바와 같이, 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법이 적용된 카메라 장치(100)는 카메라 모듈(110)과, DSP부(120), 센서부(130) 및 PLC 컨트롤러(140)를 포함한다.As shown in FIG. 3 , the camera device 100 to which the method of capturing the position and motion of a high-speed moving object in an image monitoring system according to an embodiment is applied includes a camera module 110 , a DSP unit 120 , and a sensor unit. 130 and a PLC controller 140 .

이러한 경우, 일실시예에 따른 카메라 장치(100)는 상기 PLC 컨트롤러(140)가 기본적으로 센서부로부터 신호를 입력받는 입력모듈과, 중앙제어부인 CPU모듈, 제어대상으로 제어신호를 출력하는 출력모듈을 포함한다.In this case, the camera device 100 according to an embodiment includes an input module for which the PLC controller 140 basically receives a signal from a sensor unit, a CPU module as a central control unit, and an output module for outputting a control signal to a control target. includes

그리고, 상기 PLC 컨트롤러(140)는 이때 PLC 자체에서 IOT 기능을 수행하는 IOT모듈을 구비해서, 상기 CPU모듈이 이러한 IOT모듈에 의해 상기 입/출력 모듈과 연동하여 해당되는 제어로직으로부터 IOT 기능을 수행하도록 한다.And, the PLC controller 140 is provided with an IOT module that performs an IOT function in the PLC itself at this time, and the CPU module interworks with the input/output module by such an IOT module to perform an IOT function from the corresponding control logic. to do it

상기 카메라 모듈(110)은 미리 설정된 감시영역의 영상을 촬영하여 상기 DSP부(120)로 전달한다.The camera module 110 captures an image of a preset monitoring area and transmits it to the DSP unit 120 .

상기 DSP부(120)는 상기 촬영된 영상을 디지털 신호 처리하여 상기 PLC 컨트롤러(140)로 제공한다.The DSP unit 120 processes the captured image as a digital signal and provides it to the PLC controller 140 .

상기 센서부(130)는 상기 감시영역의 주변 환경 정보를 감지한다. 이러한 센서부(130)는 예를 들어, 감시영역의 미세 먼지를 감지하는 아날로그 센서와, 행인의 조작에 의한 횡단보도 신호등 상태변경여부 등을 감지하는 디지털 스위치 또는, 각종 디지털 센서 등으로 구성된다.The sensor unit 130 detects information about the surrounding environment of the monitoring area. The sensor unit 130 includes, for example, an analog sensor that detects fine dust in the monitoring area, a digital switch that detects whether the state of a crosswalk traffic light is changed by the manipulation of a passerby, or various digital sensors.

상기 PLC 컨트롤러(140)는 상기 DSP부(120)에 의해 처리된 결과를 미리 등록된 중앙관제센서(200)로 제공하도록 하고, 상기 센서부(130)에 의해 감지된 감시영역의 주변 환경 정보를 통합적으로 I/O처리하여 상기 중앙관제센터(200)로 제공하도록 하고, 미리 등록된 제어대상에 전달한다. 또한, 이러한 경우 상기 PLC 컨트롤러(140)는 자체 IOT모듈을 구비하여 상기 IOT모듈에 의해서 상기 제공된 DSP부의 처리된 결과와 감시영역의 주변 환경 정보를 상기 중앙관제센터로 제공한다.The PLC controller 140 provides the result processed by the DSP unit 120 to the central control sensor 200 registered in advance, and provides information on the surrounding environment of the monitoring area detected by the sensor unit 130 . Integrated I/O processing is provided to the central control center 200, and it is transmitted to a pre-registered control target. In addition, in this case, the PLC controller 140 has its own IOT module and provides the processing result of the DSP unit provided by the IOT module and the surrounding environment information of the monitoring area to the central control center.

부가적으로, 이와 관련하여 부연설명을 하면 다양한 환경에서 사용되는 기존의 PLC 시스템에 대해서는 여러 기능을 가진 모듈이 필요하며, 이에 따라서 PLC 제조 업체는 사용자의 요구사항을 만족하는 다양한 모듈을 제공한다. 예를 들어, 디지털 입출력 모듈, 아날로그 입출력모듈, 통신 모듈 등 여러 기능을 가진 모듈이 PLC 시스템에 사용되고, 이러한 다양한 모듈을 통해서 사용자가 원하는 시스템이 구축된다.In addition, if we explain further in this regard, modules with various functions are required for the existing PLC system used in various environments, and accordingly, PLC manufacturers provide various modules that satisfy the requirements of users. For example, a module having various functions, such as a digital input/output module, an analog input/output module, and a communication module, is used in a PLC system, and a system desired by a user is built through these various modules.

예를 들어, 특허문헌 KR101778333 Y1의 기술은 이러한 기술로서 등록받은 발명이며, 구체적으로는 PLC의 출력모듈의 동작상 결함 여부를 진단하기 위한 진단모듈을 구비하는 PLC 시스템에 관한 것이다.For example, the technology of patent document KR101778333 Y1 is an invention registered as such a technology, and specifically relates to a PLC system having a diagnostic module for diagnosing whether an output module of the PLC is defective in operation.

일실시예에 따른 전술한 IOT 모듈은 이러한 점들을 이용해서, 그 IOT모듈로부터 IOT 기능을 제공하는 PLC 컨트롤러를 제공하고, 이를 통해 더 나아가 사용자에 의해 쉽게 감시와 제어 등이 이루어지도록 한 것이다.The above-described IOT module according to an embodiment uses these points to provide a PLC controller that provides an IOT function from the IOT module, and furthermore, through this, monitoring and control can be easily performed by a user.

이에 따라, 일실시예에 의해 상기 PLC 컨트롤러(140)는 센서부로부터 신호를 입력받는 입력모듈과, 중앙제어부인 CPU모듈, 제어대상으로 제어신호를 출력하는 출력모듈을 포함한다.Accordingly, according to an embodiment, the PLC controller 140 includes an input module that receives a signal from a sensor unit, a CPU module that is a central control unit, and an output module that outputs a control signal to a control target.

그리고, 상기 PLC 컨트롤러(140)는 이때 추가적으로 PLC 컨트롤러 자체에서 IOT 기능을 수행하는 IOT모듈을 구비해서, 상기 CPU모듈이 이러한 IOT모듈에 의해 상기 입/출력 모듈과 연동하여 해당되는 제어로직으로부터 IOT 기능을 수행하도록 한다.In addition, the PLC controller 140 includes an IOT module that additionally performs an IOT function in the PLC controller itself, so that the CPU module interworks with the input/output module by such an IOT module and provides an IOT function from the corresponding control logic. to perform

참고적으로, 여기에서 상기 입력모듈은 예컨대 교통환경정보와 관련된 아날로그 교통환경정보와 디지털 교통환경정보를 입력받는다. 예를 들어, 상기 입력모듈은 상기 센서부 예를 들어, 미세 먼지 센서로부터 카메라 장치가 설치된 주변의 미세 먼지 정보를 아날로그 교통환경정보로서 입력받는다. 또는 D/I 모듈을 통해 상기 센서부 예를 들어, 횡단보도 신호등 변경 스위치로부터 카메라 장치가 설치된 주변의 횡단보도 신호등 변경에 관한 행인조작정보를 디지털 교통환경정보로서 입력받는다. 이러한 경우, 상기 입력모듈은 PLC의 입력모듈로서 I/O카드를 포함하는 것으로 정의한다.For reference, here, the input module receives, for example, analog traffic environment information and digital traffic environment information related to traffic environment information. For example, the input module receives, as analog traffic environment information, the fine dust information around the camera device from the sensor unit, for example, a fine dust sensor. Alternatively, through the D/I module, the sensor unit, for example, the crosswalk traffic light change switch, receives the pedestrian operation information regarding the change of the crosswalk traffic light around the camera device is installed as digital traffic environment information. In this case, the input module is defined as including an I/O card as an input module of the PLC.

그리고, 상기 출력모듈은 상기 입력모듈을 통해 신호가 입력되어 CPU 모듈에 의해 제어신호가 발생될 시, 제어대상으로 예를 들어, 카메라 장치의 주변에 설치된 미세 먼지 저감 장치 또는 신호등 등으로 상기 제어신호를 전달한다.In addition, when a signal is input through the input module and a control signal is generated by the CPU module, the output module sends the control signal to, for example, a fine dust reduction device installed around a camera device or a traffic light. to convey

이에 더하여, 상기 IOT모듈은 일실시예에 따라 이러한 경우, PLC 컨트롤러 자체에서 IOT 기능을 수행하는 것이다, 구체적으로 상기 IOT 기능은 먼저 전술한 바와 같이 교통환경정보가 수집될 경우, 자체 유/무선 통신모듈을 예를 들어, LoRa 모듈을 구비하여 외부의 중앙관제센터로 교통환경정보를 제공한다.In addition, the IOT module performs an IOT function in the PLC controller itself in this case according to an embodiment. Specifically, the IOT function first performs its own wired/wireless communication when traffic environment information is collected as described above. For example, a LoRa module is provided to provide traffic environment information to an external central control center.

또한, 상기 CPU 모듈은 입력모듈에 의해 신호가 입력될 시, 미리 설정된 제어 로직에 따라 입력된 신호를 프로세싱하여 상이한 제어신호를 발생한다. 그리고, 또한 일실시예에 따라 상기 CPU모듈은 전술한 IOT모듈에 의해 데이터가 수집될 시, 미리 설정된 제어 로직에 따라 수집된 데이터를 프로세싱하여 상이한 제어신호를 발생함으로써 IOT 데이터에 따라 상이하게 제어한다.In addition, when a signal is input by the input module, the CPU module processes the input signal according to preset control logic to generate different control signals. And, according to an embodiment, when data is collected by the above-described IOT module, the CPU module processes the collected data according to a preset control logic to generate different control signals, thereby controlling differently according to the IOT data. .

추가적으로, 이러한 PLC 컨트롤러(140)는 전술한 바에 더해, 상기한 PLC 컨트롤러의 I/O 카드로부터 수집된 데이터에 대해 지정된 음성으로 알람 등을 한다.Additionally, in addition to the above, the PLC controller 140 issues an alarm or the like with a voice designated for data collected from the I/O card of the PLC controller.

이를 위해, 상기 IOT모듈은 자체 TTS엔진을 구비하여 PLC의 입력모듈로부터 수집된 데이터에 대해 미리 설정된 데이터별 음성정보에 따라 예를 들어, 음성멘트에 따라 상이하게 음성으로 알람한다.To this end, the IOT module is equipped with its own TTS engine, and according to the voice information for each data preset for the data collected from the input module of the PLC, for example, the IOT module makes a different voice alarm according to the voice message.

구체적으로는, 상기 IOT모듈은 자체 TTS엔진을 구비하여 상기 감시영역의 주변 환경 정보별로 대응하는 음성정보에 따라 음성 알람을 한다.Specifically, the IOT module has its own TTS engine to generate a voice alarm according to voice information corresponding to the surrounding environment information of the monitoring area.

이러한 경우, 상기 음성멘트는 예를 들어, IOT 모듈 자체에 구비된 플래시 음성메모리에 등록함으로써 된다.In this case, the voice message is registered in, for example, a flash voice memory provided in the IOT module itself.

그래서, 이를 통해 PLC의 I/O 카드로부터 수집된 데이터 등에 대해 지정된 음성으로 알람을 한다.So, through this, the data collected from the PLC's I/O card and the like are alarmed with a designated voice.

또한, 추가적으로 이러한 PLC 컨트롤러(140)는 외부 음성에 대해 노이즈 캔슬링 기능을 수행한다.In addition, the PLC controller 140 additionally performs a noise canceling function for an external voice.

구체적으로, 상기 IOT모듈은 외부 음성을 입력받아 노이즈 캔슬링을 수행하고 오디오 출력을 함으로써 오디오 IOT기능을 수행한다.Specifically, the IOT module performs an audio IOT function by receiving an external voice input, performing noise cancellation, and outputting audio.

예를 들어, 이러한 경우 외부 오디오 입력을 받아 노이즈 캔슬링을 수행하고 IOT 모듈 자체에 구비된 오디오 앰프를 통해 오디오 출력을 함으로써 오디오 IOT기능을 수행한다.For example, in this case, an audio IOT function is performed by receiving an external audio input, performing noise cancellation, and outputting audio through an audio amplifier provided in the IOT module itself.

도 4는 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법을 순서대로 도시한 플로우 차트이다.4 is a flowchart sequentially illustrating a method of capturing a position and a motion of a high-speed moving object in an image monitoring system according to an embodiment.

도 4에 도시된 바와 같이, 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법은 먼저 중앙관제센터에 의한 교통 영상감시시스템의 멀티 표적 추적 방법을 전제로 한다.As shown in FIG. 4 , the method for capturing the position and motion of a high-speed moving object in the video surveillance system according to an embodiment is based on the multi-target tracking method of the traffic video surveillance system by the central control center.

우선적으로, 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법은 영상감시시에 다수의 상이한 감시영역마다 각기 설치된 카메라장치별로 감시영상을 수집한다(S401).First, in the method of capturing the position and motion of a high-speed moving object in an image monitoring system according to an embodiment, a monitoring image is collected for each camera device installed in each of a plurality of different monitoring areas during video monitoring (S401).

다음, 이렇게 수집된 감시영상에서 미리 설정된 이동물체의 피처 메타데이터를 추출한다(S402).Next, the feature metadata of the preset moving object is extracted from the surveillance image collected in this way (S402).

이러한 경우, 상기 이동물체의 피처 메타데이터는 예를 들어, 이동물체가 차량인 경우에 차량의 속성 또는 특징을 나타내는 메타데이터를 의미한다.In this case, the feature metadata of the moving object means metadata indicating attributes or characteristics of the vehicle, for example, when the moving object is a vehicle.

그리고 나서, 이렇게 추출된 이동물체의 피처 메타데이터에 따라 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 이동물체의 피처를 추출한다(S403).Then, the feature of the moving object is extracted from the preset AI format for extracting the feature value of the image patch according to the extracted feature metadata of the moving object (S403).

이러한 경우, 상기 AI 포맷은 예를 들어, GLCM(Grey Level Co-occurence Matrix)의 융합머신러닝 AI 포맷으로 된다.In this case, the AI format is, for example, a convergence machine learning AI format of GLCM (Grey Level Co-occurence Matrix).

이때, 상기 GLCM은 기본적으로 텍스쳐 영상에 대한 정의는 여러 가지가 있지만 대상이 되는 감시영상 내에 포함되어 있는 공간적 특성을 부각하는 영상을 나타낸다.In this case, the GLCM basically has various definitions for a texture image, but represents an image highlighting spatial characteristics included in a target surveillance image.

이러한 경우, 상기 GLCM은 현재의 화소와 그 이웃하는 화소의 밝기 값의 평균, 대비, 상관관계 등과 같은 기본적인 통계량을 계산한다. 그래서, 다시 그 계산 값을 커널내의 중심 화소에 새로운 밝기 값으로 할당하여 표현하고 입력 감시영상에 대해서 부분적인 텍스쳐 특징으로 표현하는 것이다.In this case, the GLCM calculates basic statistics such as the average, contrast, and correlation of the brightness values of the current pixel and its neighboring pixels. So, the calculated value is again assigned as a new brightness value to the central pixel in the kernel and expressed as a partial texture feature for the input monitoring image.

이때, GLCM은 Homogenity와, Contrast, Dissimiliarity를 포함한다.In this case, GLCM includes Homogenity, Contrast, and Dissimiliarity.

상기 Homogenity는 행렬 내 각 화소들의 균일한 정도를 나타낸다. 그리고, Contrast와 Dissimiliarity는 화소간 명암차이를 구분하여 표현하기 위한 개념으로 대각선으로부터 멀리 떨어져 있는 화소의 경우 높은 가중치가 적용된다. ASM과 에너지는 명암의 균일함을 측정한다. 화소간의 밝기 변화가 없으며 각 화소의 값이 비슷한 값이 된다.The homogenity represents the uniformity of each pixel in the matrix. And, Contrast and Dissimiliarity are concepts for expressing the difference in contrast between pixels, and a high weight is applied to pixels far away from the diagonal. ASM and energy measure the uniformity of light and dark. There is no change in brightness between pixels, and the values of each pixel become similar.

또 다른 한편으로, 이동물체의 피처를 추출할 시, 딥러닝 클러스터를 적용한다.On the other hand, when extracting the features of a moving object, a deep learning cluster is applied.

상기 딥러닝 클러스터는 이동물체로부터 인식을 위한 이동물체인식용 특징정보를 추출한다. 추출된 이동물체인식용 특징정보는 학습된 모델 빅 데이터 저장부에 저장된다. 이러한 딥 러닝 클러스터에 의해 추출된 이동물체인식용 특징정보에는, 예를 들면, 영상 이름(예를 들면, 오브젝트 이름, 영상 프레임 정보 및 시간), 딥 차량 번호가 포함된 이미지, 객체의 종류 예를 들어, 차량 등과, 객체의 색깔 등이 포함되어 있을 수 있다.The deep learning cluster extracts feature information for moving object recognition for recognition from the moving object. The extracted feature information for moving object recognition is stored in the learned model big data storage unit. In the characteristic information for moving object recognition extracted by such a deep learning cluster, for example, an image name (eg, object name, image frame information and time), an image including a deep vehicle number, an example of the type of object For example, a vehicle, etc., and the color of an object may be included.

다음, 이렇게 추출된 이동물체의 피처로부터 이동물체 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 이동물체를 인식한다(S404).Next, the moving object is recognized by a preset AI format for estimating the size and position of the entire moving object from the features of the moving object extracted in this way (S404).

이러한 경우, 상기 AI 포맷은 예를 들어, YOLO 포맷으로 된다.In this case, the AI format is, for example, a YOLO format.

보다 구체적으로, 상기 YOLO 포맷은 다수의 상이한 이동물체 피처별로 각 이동물체의 전체 크기와 위치를 추정하여 조합함으로써 이동물체 전체의 크기와 위치를 추정하여 된다.More specifically, the YOLO format estimates the size and position of the entire moving object by estimating and combining the total size and position of each moving object for a plurality of different moving object features.

이때, 사람 등 목표물의 3창원 공간상의 위치를 정확하게 측정하여 이동물체의 영상을 확인할 수 있도록 한다.At this time, it is possible to check the image of the moving object by accurately measuring the position of the target, such as a person, in the space of three windows.

이를 위해, 일실시예는 미리 다수의 상이한 RGB영상만으로부터의 2D객체 영역분할을 위한 딥러닝 학습을 통해 객체 영역에 관한 딥러닝 파라미터를 산출하여 된 객체2D영역분할 딥러닝 모델에 의해서 상기 인식된 이동물체를 객체2D영역분할하여, 깊이정보와의 논리적 AND를 수행하고, 이동물체의 깊이정보에 원근변환을 적용하여 이동물체의 3D객체영역분할을 수행한다.To this end, in one embodiment, the deep learning parameters for the object region are calculated in advance through deep learning for 2D object region division from only a plurality of different RGB images, and the recognized by the object 2D region division deep learning model. A moving object is divided into an object 2D area, logical AND with depth information is performed, and a perspective transformation is applied to the depth information of the moving object to perform 3D object area division of the moving object.

그래서, 상기 인식된 이동물체별로 추적하여 멀티 표적을 추적한다(S405).So, the multi-target is tracked by tracking each recognized moving object (S405).

따라서, 이를 통해 영상감시시스템에 있어서, 시스템적으로 효과적이면서 신속히 고속의 이동물체 위치와 모션을 캡쳐한다.Therefore, through this, in the video surveillance system, it is systematically effective and quickly captures the position and motion of a moving object at high speed.

이상과 같이, 일실시예는 영상감시시에 다수의 상이한 감시영역마다 각기 설치된 카메라장치별로 감시영상을 수집한다.As described above, an embodiment collects monitoring images for each camera device installed in each of a plurality of different monitoring areas during video monitoring.

그리고 나서, 이렇게 수집된 감시영상에서 미리 설정된 이동물체의 피처 메타데이터를 추출하고, 이러한 이동물체의 피처 메타데이터에 따라 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 이동물체의 피처를 추출한다.Then, the feature metadata of the moving object is extracted from the surveillance image collected in this way, and the feature of the moving object is extracted from the preset AI format that extracts the feature value of the image patch according to the feature metadata of the moving object. .

그래서, 상기 추출된 이동물체의 피처로부터 이동물체 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 이동물체를 인식함으로써, 각각의 이동물체별로 추적한다.Therefore, by recognizing a moving object according to a preset AI format for estimating the size and position of the entire moving object from the extracted features of the moving object, each moving object is tracked.

따라서, 이를 통해 영상감시시스템에 있어서, 시스템적으로 효과적이면서 신속히 고속의 이동물체 위치와 모션을 캡쳐한다.Therefore, through this, in the video surveillance system, it is systematically effective and quickly captures the position and motion of a moving object at high speed.

부가적으로, 이때 이러한 캡쳐 방법은 예를 들어, 아래의 교통분석 동작과 병행하여 이루어진다.Additionally, at this time, such a capture method is performed in parallel with the traffic analysis operation below, for example.

구체적인 동작은 아래와 같다.The specific operation is as follows.

먼저, 각각의 감시영역별로 설치된 카메라 장치에서 감시영상을 수집함으로써 영상분석한다.First, image analysis is performed by collecting surveillance images from a camera device installed for each surveillance area.

이를 위해, 우선적으로 영상감시시에 다수의 상이한 감시영역마다 각기 설치된 카메라장치별로 감시영상을 수집한다(S401).To this end, firstly, during video surveillance, surveillance images are collected for each camera device installed in each of a plurality of different surveillance areas (S401).

그리고 나서, 상기 수집된 감시영상을 기반으로 예컨대 교통환경정보를 각 카메라장치별로 빅데이터화하고(S406), 미리 설정된 딥 러닝 기반으로 학습한다(S407).Then, based on the collected surveillance images, for example, traffic environment information is converted into big data for each camera device (S406), and it learns based on preset deep learning (S407).

이때, 기존의 CCTV 표출 및 알람에서 사용하는 지능형과 달리 여기에서는 영상 내에서 특정 조건을 만족하기 위한 가상 영역, 선 등의 설정을 하지 않고, 규칙과 빅데이터 패턴과 움직임 패턴을 중심으로 분석을 진행한다.At this time, unlike the intelligence used in the existing CCTV display and alarm, here, we do not set up virtual areas and lines to satisfy specific conditions within the video, but analyze rules, big data patterns, and movement patterns. do.

이러한 규칙분석은 이동물체 정보(사람, 차량 등), 목적별 정보(어린이보호, 방범, 교통 등), 개소별 정보(특정 감시지역), 시간대별 정보(일정)에 따라서 복합적으로 이루어진다.Such rule analysis is complexly performed according to moving object information (person, vehicle, etc.), purpose-specific information (child protection, crime prevention, traffic, etc.), location-specific information (specific monitoring area), and time-specific information (schedule).

그리고, 상기 빅데이터 패턴 분석은 이동물체에 대한 수많은 정보를 가지며, 이동물체의 속성값 중 이동물체분류(사람, 차 등), 영역, 날짜, 시간 등의 데이터를 이용하여 데이터 분포를 작성한다. 그리고 화면 내에서 이동물체의 활동영역을 특정화하여 이동물체가 출몰하는 지역과 출몰하지 않는 지역을 구분, 사용자는 특정화된 데이터 그룹에 대하여 감시 여부(정상, 비정상)를 설정함으로써 이루어지는 것을 특징으로 한다.And, the big data pattern analysis has a lot of information about the moving object, and creates a data distribution using data such as moving object classification (person, car, etc.), area, date, time, etc. among the attribute values of the moving object. And by specifying the activity area of the moving object within the screen, the area where the moving object appears and the area where the moving object does not appear is distinguished, and the user sets whether to monitor the specified data group (normal or abnormal).

또한, 상기 움직임 패턴 분석은 이동물체를 추적하여 고유 이동물체의 움직임 패턴, 속도 패턴을 이용하여 평소 이동물체의 움직임, 속도를 분석하거나 또는, 그에 대한 감지 여부(정상, 비정상)를 설정함으로써 이루어진다.In addition, the movement pattern analysis is performed by tracking the moving object and using the movement pattern and speed pattern of the moving object to analyze the usual movement and speed of the moving object, or to set whether to detect it (normal or abnormal).

그래서, 상기 학습된 딥 러닝 기반의 학습 결과를 적용해서 다수의 상이한 주변 환경 조건별로 예를 들어, 시간대별 또는, 날씨별, 온도별 등으로 영상분석을 한다(S408).Therefore, by applying the learned deep learning-based learning result, the image is analyzed according to a number of different environmental conditions, for example, by time period, by weather, by temperature, etc. (S408).

따라서, 이를 통해 인공 지능 영상 분석 기술을 적용함으로써, 영상 분석이 체계적이고 신뢰성이 있으며, 환경의 변화에 따라 적합한 영상 분석과 운영 등이 이루어진다.Therefore, by applying artificial intelligence image analysis technology through this, image analysis is systematic and reliable, and appropriate image analysis and operation are performed according to changes in the environment.

도 5는 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법에 적용된 일실시예에 따른 이동물체 메타데이터 추출 동작을 예를 들어 보다 상세하게 설명하기 위한 도면이다.5 is a diagram for explaining in more detail an operation of extracting moving object metadata according to an embodiment applied to a method of capturing a position and motion of a high-speed moving object in an image monitoring system according to an embodiment.

도 5에 도시된 바와 같이, 일실시예에 따른 이동물체 메타데이터 추출 동작은 먼저, 이동물체 추출을 수행한다.As shown in FIG. 5 , in the moving object metadata extraction operation according to an embodiment, first, moving object extraction is performed.

이를 위해 우선적으로 전경 배경을 분리한다. 보다 상세하게는, 먼저 연속하여 입력되는 영상을 누적하여 배경 영상을 생성한다. 그리고, 입력된 영상과 배경 영상을 비교하여 차이가 나는 화소를 계산한다. 그리고 나서, 차이 값이 임계치 이상인 영역을 전경 영상으로 출력한다.For this purpose, the foreground background is first separated. In more detail, first, a background image is generated by accumulating continuously input images. Then, a pixel with a difference is calculated by comparing the input image with the background image. Then, a region having a difference value equal to or greater than a threshold is output as a foreground image.

다음, 노이즈 제거 및 이동물체 추출, 이동물체 결합을 수행한다. 구체적으로는, 모폴로지 필터를 통해서 전경 영상의 노이즈를 제거한다. 그리고, 노이즈가 제거된 전경 영상에서 이동물체 피처의 윤곽을 추출한다. 그리고 나서, 최소 크기 이하의 윤곽을 인접한 윤곽과 결합하여 단일 이동물체로 처리함으로써, 이동물체의 피처를 추출한다.Next, noise removal, moving object extraction, and moving object combination are performed. Specifically, noise in the foreground image is removed through a morphology filter. Then, the contour of the moving object feature is extracted from the noise-removed foreground image. Then, the feature of the moving object is extracted by combining the contour of the minimum size or smaller with the adjacent contour and processing it as a single moving object.

한편으로, 이에 더하여 다중 이동물체 추출 및 보정을 수행한다.On the other hand, in addition to this, multi-moving object extraction and correction are performed.

구체적으로는, KCF(Kernelized Correlation Filters)는 처리속도를 향상시키기 위해 순환 행렬의 특성을 이용하는 새로운 추적 프레임워크를 구성한다. 그리고, 이러한 경우 KCF Tracker는 색상 특징을 이용하여 명도 변화에 강인한 이동물체의 특징을 추출하는 방법으로 이동물체를 추적한다.Specifically, KCF (Kernelized Correlation Filters) constitutes a new tracking framework that uses the characteristics of a circular matrix to improve processing speed. And, in this case, the KCF Tracker tracks the moving object by using the color feature to extract the characteristic of the moving object that is strong against changes in brightness.

다음, 이동물체 추출 결과와 KCF Tracker의 예측 결과를 비교하여 이동물체의 영역과 위치를 보정한다.Next, the area and position of the moving object are corrected by comparing the moving object extraction result and the KCF Tracker's prediction result.

그리고 나서, 보정 가중치를 이동물체 추출 결과와 KCF Tracker 예측 결과를 예를 들어, 4대 1로 하여 이동물체를 보정한다. 참고적으로, 그리고 나서 아래의 도 6에 따른 동작을 수행한다.Then, the moving object is corrected by setting the correction weight to the moving object extraction result and the KCF Tracker prediction result, for example, 4 to 1. For reference, then, the operation according to FIG. 6 below is performed.

도 6은 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법에 적용된 일실시예에 따른 CNN 기반 객체 분류 동작을 설명하기 위한 도면이다.6 is a diagram for explaining a CNN-based object classification operation according to an embodiment applied to a method for capturing the position and motion of a high-speed moving object in an image monitoring system according to an embodiment.

도 6에 도시된 바와 같이, 일실시예에 따른 CNN 기반 객체 분류 동작은 이동물체 메타데이터가 추출될 시, 특징 추출 네트워크(Feature Extraction Network)와 분류 네트워크(Classification Network)의 기본 구조로 된 CNN 기반의 이동물체분류를 수행함으로써, 딥 러닝 기반의 이동물체 분류를 수행한다.As shown in FIG. 6 , the CNN-based object classification operation according to an embodiment is CNN-based with a basic structure of a feature extraction network and a classification network when moving object metadata is extracted. By performing moving object classification of , deep learning-based moving object classification is performed.

구체적으로는, 일실시예에 따른 CNN 기반 이동물체 분류 동작은 상기한 바와 같이 감시영상이 입력될 경우, 입력된 감시영상에서 이동물체 메타데이터를 추출함으로써, 딥 러닝 기반의 영상분석 기초데이터를 획득한다.Specifically, in the CNN-based moving object classification operation according to an embodiment, when a surveillance image is input as described above, by extracting the moving object metadata from the input surveillance image, deep learning-based image analysis basic data is obtained do.

그리고, 상기 이동물체 메타데이터가 추출될 시, 추출된 이동물체 메타데이터로부터 CNN 기반의 이동물체를 다수의 상이한 이동물체별로 분류함으로써, 딥 러닝 기반을 통해 이동물체별로 분류한다.And, when the moving object metadata is extracted, the CNN-based moving object is classified by a plurality of different moving objects from the extracted moving object metadata, and thus, the moving object is classified according to the moving object based on deep learning.

추가적으로, 일실시예에 따른 CNN 기반 이동물체 분류 동작은 이동물체가 등장한 영상을 분류하고 메타데이터 생성을 수행한다.Additionally, the CNN-based moving object classification operation according to an embodiment classifies an image in which a moving object appears and generates metadata.

그리고, CNN을 활용하여 딥 러닝 프레임워크인 Caffe로 구성 및 학습하여 이동물체 예를 들어, 차량 등을 분류한다. 그리고 나서, 차량의 각 이동물체의 색상, 시간 등의 일반정보를 포함한 각 이동물체의 메타데이터를 생성한다.And, it uses CNN to classify moving objects, such as vehicles, by constructing and learning with Caffe, a deep learning framework. Then, metadata of each moving object including general information such as color and time of each moving object of the vehicle is generated.

도 7과 도 8은 일실시예에 따른 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법에 적용된 이상 감지 동작을 보다 상세하게 설명하기 위한 도면이다.7 and 8 are diagrams for explaining in more detail an anomaly detection operation applied to a method of capturing a position and motion of a high-speed moving object in an image monitoring system according to an embodiment.

구체적으로, 도 7은 이러한 이상 감지 동작에 따른 규칙분석 동작을 보여주는 도면이고, 도 8은 이러한 이상 감지 동작에 따른 빅데이터 패턴 분석 동작을 보여주는 도면이다.Specifically, FIG. 7 is a diagram illustrating a rule analysis operation according to such an abnormality detection operation, and FIG. 8 is a diagram illustrating a big data pattern analysis operation according to such an abnormality detection operation.

도 7과 도 8에 도시된 바와 같이, 일실시예에 따른 이상 감지 동작은 먼저 멀티 표적을 추적한 후, 규칙기반과, 빅데이터 패턴, 움직임 패턴에 의해 영상 분석을 진행한다.7 and 8 , in the anomaly detection operation according to an exemplary embodiment, multi-targets are first tracked, and then image analysis is performed based on a rule, a big data pattern, and a motion pattern.

즉, 기존의 CCTV 표출 및 알람에서 기 지능형과 달리 영상 내에서 특정 조건을 만족하기 위한 가상 영역, 선 등의 설정을 하지 않고. 실시예에서는 규칙과 빅데이터 패턴, 움직임 패턴을 중심으로 분석 진행을 한다.In other words, unlike the existing intelligent CCTV display and alarm, there is no setting of virtual area, line, etc. to satisfy specific conditions within the video. In the embodiment, the analysis proceeds centering on rules, big data patterns, and movement patterns.

예를 들어, 상기 멀티 표적에 해당하는 이동물체에 대한 이상여부를 이동물체별 영상분포도에 의해 이상패턴을 감지하는 미리 설정된 객체이상패턴포맷에 의해 감지한다.For example, whether the moving object corresponding to the multi-target is abnormal is detected by a preset object abnormal pattern format that detects an abnormal pattern based on an image distribution map for each moving object.

구체적인 예로는, 이동물체가 등장한 영상의 영역을 예컨대 25*25등분으로 진행(625 block)한다. 그리고, 이동물체가 매칭되는 영역에 일부라도 해당되면 등장 영역을 누적한다. 그리고 나서, 누적된 데이터를 활용하여 빈번히 등장하는 영역(heat map)을 중심으로 오버레이(Overlay) 표시를 한다. 그래서, 누적된 영역 외 다른 영역에 유사속성의 이동물체가 등장하면 알림한다. 그리고, 이동물체의 움직임이 일반적이지 않을 때 알림한다. 예를 들어, 사람만 움직였던 부분에 갑자기 차가 들어오는 부분, 사람, 차가 움직이던 패턴이 갑자기 변화하는 부분인 경우 알림한다.As a specific example, the area of the image in which the moving object appears is divided into 25*25 equal parts (625 block). And, if the moving object corresponds to at least a part of the matching area, the appearance area is accumulated. Then, using the accumulated data, an overlay is displayed centered on a frequently appearing area (heat map). So, when a moving object with similar properties appears in an area other than the accumulated area, it is notified. And, it notifies when the movement of the moving object is not normal. For example, if a car suddenly enters a part where only people have moved, or a part where the pattern in which a person or a car moves is suddenly changed, it will notify you.

이러한 규칙분석은 이동물체 정보(사람, 차량 등), 목적별 정보(어린이보호, 방범, 교통 등), 개소별 정보(특정 감시지역), 시간대별 정보(일정)에 따라서 복합적으로 우선순위를 정하는 방법이다.This rule analysis is a complex prioritization of moving object information (person, vehicle, etc.), information by purpose (child protection, crime prevention, traffic, etc.), information by location (specific monitoring area), and information by time (schedule). way.

그리고, 빅데이터 패턴 분석은 분석된 영상의 메타데이터는 이동물체에 대한 수많은 정보를 가지며 이동물체의 속성값 중 이동물체 분류(사람, 차 등), 영역, 날짜, 시간 등의 데이터를 이용하여 데이터 분포를 작성한다. 그리고 화면 내에서 이동물체의 활동영역을 특정화하여 이동물체가 출몰하는 지역과 출몰하지 않는 지역을 구분, 사용자는 특정화된 데이터 그룹에 대하여 감시 여부(정상, 비정상)를 설정함으로써 이루어진다.And, in big data pattern analysis, the metadata of the analyzed image has a lot of information about the moving object, and among the attribute values of the moving object, data such as classification (person, car, etc.), area, date, time, etc. Write the distribution. And, by specifying the activity area of the moving object in the screen, the area where the moving object appears and the area where the moving object does not appear is divided, and the user sets whether to monitor the specified data group (normal or abnormal).

또한, 움직임 패턴 분석은 영상에서 이동물체를 추적하여 고유 이동물체의 움직임 패턴, 속도 패턴을 이용하여 평소 이동물체의 움직임, 속도를 분석하여 감지 여부(정상, 비정상)를 설정함으로써 이루어진다.In addition, the movement pattern analysis is performed by tracking the moving object in the image and setting whether to detect it (normal or abnormal) by analyzing the movement and speed of the moving object using the unique movement pattern and speed pattern of the moving object.

100 : 카메라 장치 200 : 중앙관제센터
110 : 카메라 모듈 120 : DSP부
130 : 센서부 140 : PLC 컨트롤러
100: camera device 200: central control center
110: camera module 120: DSP unit
130: sensor unit 140: PLC controller

Claims (10)

중앙관제센터에 의한 이동물체의 위치 및 모션 캡쳐 방법에 있어서,
영상감시시에 다수의 상이한 감시영역별로 각기 설치된 카메라장치별로 감시영상을 수집하는 제 1 단계;
상기 수집된 감시영상에서 미리 설정된 이동물체의 피처 메타데이터를 추출하는 제 2 단계;
상기 추출된 이동물체의 피처 메타데이터에 따라 영상 패치의 피처값을 추출하는 미리 설정된 AI 포맷으로부터 이동물체의 피처를 추출하는 제 3 단계;
상기 추출된 이동물체의 피처로부터 이동물체 전체의 크기와 위치를 추정하는 미리 설정된 AI 포맷에 의해서 이동물체를 인식하는 제 4 단계; 및
상기 인식된 이동물체별로 위치와 모션을 추적하는 제 5 단계; 를 포함하는 것을 특징으로 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법.
In the method of capturing the position and motion of a moving object by a central control center,
A first step of collecting surveillance images for each camera device installed in each of a plurality of different surveillance areas during video surveillance;
a second step of extracting preset feature metadata of a moving object from the collected surveillance image;
a third step of extracting features of a moving object from a preset AI format for extracting feature values of an image patch according to the extracted feature metadata of the moving object;
a fourth step of recognizing a moving object according to a preset AI format for estimating the size and position of the entire moving object from the extracted features of the moving object; and
a fifth step of tracking the position and motion of each recognized moving object; A method for capturing the position and motion of a high-speed moving object in an image surveillance system, comprising:
청구항 1에 있어서,
상기 제 4 단계와 상기 제 5 단계의 사이에,
미리 다수의 상이한 RGB영상만으로부터의 2D객체 영역분할을 위한 딥러닝 학습을 통해 객체 영역에 관한 딥러닝 파라미터를 산출하여 된 객체2D영역분할 딥러닝 모델에 의해서 상기 인식된 이동물체를 객체2D영역분할하여, 깊이정보와의 논리적 AND를 수행하고, 이동물체의 깊이정보에 원근변환을 적용하여 이동물체의 3D객체영역분할을 수행하는 단계; 를 더 포함하는 것을 특징으로 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법.
The method according to claim 1,
Between the fourth step and the fifth step,
Object 2D region division of the recognized moving object by the object 2D region division deep learning model obtained by calculating deep learning parameters for the object region through deep learning for 2D object region division from only a plurality of different RGB images in advance performing a logical AND with the depth information, and performing a 3D object region division of the moving object by applying a perspective transformation to the depth information of the moving object; Position and motion capture method of a high-speed moving object in the video surveillance system, characterized in that it further comprises a.
청구항 1에 있어서,
상기 제 2 단계는
상기 수집된 감시영상에서 연속하여 입력되는 영상을 누적해서 배경 영상을 생성하는 제 2-1 단계;
상기 입력된 영상과 배경 영상을 비교하여 미리 설정된 값만큼의 차이가 나는 화소를 산출하는 제 2-2 단계;
상기 차이 값이 임계치 이상인 영역을 전경 영상으로 출력하여 획득하는 제 2-3 단계;
상기 전경 영상의 노이즈를 모폴로지 필터를 통해 삭제함으로써 제거하는 제 2-4 단계;
상기 노이즈가 제거된 전경 영상에서 이동물체 피처의 윤곽을 추출하는 제 2-5 단계;
미리 설정된 최소 크기 이하의 윤곽을 인접한 윤곽과 결합하여 단일 객체로 처리하는 제 2-6 단계;
상기 단일 객체를 순환 행렬의 특성을 이용하는 추적 프레임워크로 구성된 KCF 트래커로부터 색상 특징을 이용하여 명도 변화에 강인한 이동물체의 특징으로서 추적하는 제 2-7 단계;
상기 이동물체 추출 결과와 KCF 트래커의 예측 결과를 비교하여 이동물체의 영역과 위치를 보정하는 제 2-8 단계;
상기 보정 가중치를 객체 추출 결과와 KCF 트래커 예측 결과를 미리 설정된 N대 1로 하여 이동물체를 보정하는 제 2-9 단계;
CNN을 활용하여 딥 러닝 프레임워크로 구성 및 학습하여 이동물체를 분류하는 제 2-10 단계; 및
상기 분류된 이동물체에서의 피처 메타데이터를 생성함으로써 추출하는 제 2-11 단계; 를 포함하는 것을 특징으로 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법.
The method according to claim 1,
The second step is
a 2-1 step of accumulating images continuously input from the collected surveillance images to generate a background image;
a step 2-2 of comparing the input image with the background image to calculate a pixel having a difference by a preset value;
step 2-3 of outputting a region having the difference value equal to or greater than a threshold value as a foreground image;
a step 2-4 of removing noise from the foreground image by removing it through a morphology filter;
Steps 2-5 of extracting the outline of the moving object feature from the noise-removed foreground image;
Steps 2-6 of combining an outline of a preset minimum size or less with an adjacent outline and processing it as a single object;
a second to seventh step of tracking the single object as a feature of a moving object that is strong against a change in brightness by using a color feature from a KCF tracker composed of a tracking framework using a feature of a circular matrix;
a 2-8 step of compensating the area and position of the moving object by comparing the moving object extraction result with the prediction result of the KCF tracker;
a 2-9 step of correcting the moving object by setting the correction weight to a preset N to 1 result of object extraction and KCF tracker prediction;
Steps 2-10 of classifying a moving object by constructing and learning a deep learning framework using CNN; and
a step 2-11 of extracting by generating and extracting feature metadata in the classified moving object; A method for capturing the position and motion of a high-speed moving object in an image surveillance system, comprising:
청구항 3에 있어서,
상기 제 2-10 단계는
관제할 이동물체 분류, 영역, 일시의 데이터를 포함한 이동물체의 메타데이터에 의해 데이터 분포를 작성하고 화면 내에서 이동물체의 활동영역을 특정화하여 감시 여부를 설정함으로써, 빅데이터 패턴을 분석하는 제 2-10-1 단계; 및
상기 빅데이터 패턴의 분석 후, 감시영상에서 이동물체를 추적하여 고유 이동물체의 움직임 패턴, 속도 패턴에 의해 상시 이동물체의 움직임, 속도를 분석해서 감지 여부를 설정함으로써, 움직임 패턴을 분석하는 제 2-10-2 단계; 를 포함하는 것을 특징으로 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법.
4. The method according to claim 3,
Steps 2-10 are
A second method to analyze big data patterns by creating data distribution by metadata of moving objects including classification, area, and time data of the moving object to be controlled, and specifying the activity area of the moving object in the screen and setting whether to monitor it -10-1 step; and
After analyzing the big data pattern, a second to analyze the movement pattern by tracking the moving object in the surveillance image and analyzing the movement and speed of the always moving object according to the movement pattern and speed pattern of the moving object and setting whether to detect it -10-2 steps; A method for capturing the position and motion of a high-speed moving object in an image surveillance system, comprising:
청구항 1에 있어서,
상기 제 4 단계는
상기 AI 포맷이 다수의 상이한 이동물체 피처별로 각 이동물체의 전체 크기와 위치를 추정하여 조합함으로써 이동물체 전체의 크기와 위치를 추정하여 된 것; 을 특징으로 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법.
The method according to claim 1,
The fourth step is
the AI format is obtained by estimating and combining the overall size and position of each moving object for a plurality of different moving object features, thereby estimating the size and position of the entire moving object; A method of capturing the position and motion of a high-speed moving object in an image surveillance system, characterized in that
청구항 1에 있어서,
상기 제 5 단계 후에,
상기 이동물체에 대한 이상여부를 이동물체별 영상분포도에 의해 이상패턴을 감지하는 미리 설정된 이동물체 이상패턴포맷에 의해 감지하는 제 6 단계; 를 더 포함하는 것을 특징으로 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법.
The method according to claim 1,
After the fifth step,
a sixth step of detecting whether the moving object is abnormal according to a preset moving object abnormal pattern format for detecting an abnormal pattern based on an image distribution diagram for each moving object; Position and motion capture method of a high-speed moving object in the video surveillance system, characterized in that it further comprises a.
청구항 6에 있어서,
상기 제 6 단계 후에,
상기 이상패턴이 감지된 후, 이동물체 정보, 목적별 정보, 개소별 정보, 시간대별 정보를 통합적으로 고려하여 객체마다 상이한 우선순위를 부여해서 이벤트 알림하는 제 7 단계; 를 더 포함하는 것을 특징으로 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법.
7. The method of claim 6,
After the sixth step,
a seventh step of notifying an event by assigning different priorities to each object after the abnormal pattern is detected, taking into account moving object information, information by purpose, information by location, and information by time period; Position and motion capture method of a high-speed moving object in the video surveillance system, characterized in that it further comprises a.
청구항 7에 있어서,
상기 이동물체 정보는 사람, 자전거, 이륜, 차량을 포함하고, 상기 목적별 정보는 어린이보호, 방범, 교통을 포함하고, 상기 개소별 정보는 특정 감시지역이며, 상기 시간대별 정보는 일정인 것; 을 특징으로 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법.
8. The method of claim 7,
the moving object information includes a person, a bicycle, a two-wheeled vehicle, and a vehicle, the information by purpose includes child protection, crime prevention, and traffic, the information for each location is a specific monitoring area, and the information for each time period is a schedule; A method of capturing the position and motion of a high-speed moving object in an image surveillance system, characterized in that
청구항 1에 있어서,
상기 카메라 장치는
미리 설정된 감시영역의 감시영상을 촬영하는 카메라 모듈;
상기 촬영된 영상을 디지털 신호 처리하는 DSP부;
상기 감시영역의 주변 환경 정보를 감지하는 센서부;
상기 DSP부에 의해 처리된 결과를 미리 등록된 중앙관제센서로 제공하도록 하고, 상기 센서부에 의해 감지된 감시영역의 주변 환경 정보를 통합적으로 I/O처리하여 상기 중앙관제센터로 제공하도록 하고, 미리 등록된 제어대상에 전달하는 PLC 컨트롤러; 를 포함하고 있으며,
상기 PLC 컨트롤러는
자체 IOT모듈을 구비하여 상기 IOT모듈에 의해서 상기 제공된 DSP부의 처리된 결과와 감시영역의 주변 환경 정보를 상기 중앙관제센터로 제공하는 것; 을 특징으로 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법.
The method according to claim 1,
the camera device
a camera module for capturing a surveillance image of a preset surveillance area;
DSP unit for digital signal processing of the captured image;
a sensor unit for sensing surrounding environment information of the monitoring area;
The result processed by the DSP unit is provided to the central control sensor registered in advance, and information about the surrounding environment of the monitoring area sensed by the sensor unit is integrated I/O processing and provided to the central control center, PLC controller that transmits to a pre-registered control target; contains,
The PLC controller is
providing an IOT module of its own to provide the processing result of the DSP provided by the IOT module and information about the surrounding environment of the monitoring area to the central control center; A method of capturing the position and motion of a high-speed moving object in an image surveillance system, characterized in that
청구항 9에 있어서,
상기 IOT모듈은
자체 TTS엔진을 구비하여 상기 감시영역의 주변 환경 정보별로 대응하는 음성정보에 따라 음성 알람을 하는 것; 을 특징으로 하는 영상감시시스템에서의 고속 이동물체의 위치 및 모션 캡쳐 방법.
10. The method of claim 9,
The IOT module is
having its own TTS engine to provide a voice alarm according to voice information corresponding to each surrounding environment information of the monitoring area; A method of capturing the position and motion of a high-speed moving object in an image surveillance system, characterized in that
KR1020200076298A 2020-06-23 2020-06-23 Method for tracking multi target in traffic image-monitoring-system KR102434154B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200076298A KR102434154B1 (en) 2020-06-23 2020-06-23 Method for tracking multi target in traffic image-monitoring-system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200076298A KR102434154B1 (en) 2020-06-23 2020-06-23 Method for tracking multi target in traffic image-monitoring-system

Publications (2)

Publication Number Publication Date
KR20210158037A true KR20210158037A (en) 2021-12-30
KR102434154B1 KR102434154B1 (en) 2022-08-18

Family

ID=79178488

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200076298A KR102434154B1 (en) 2020-06-23 2020-06-23 Method for tracking multi target in traffic image-monitoring-system

Country Status (1)

Country Link
KR (1) KR102434154B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102602319B1 (en) * 2023-07-18 2023-11-16 메타빌드 주식회사 Traffic information collection system and method based on multi-object tracking using artificial intelligence image deep learning model
CN117854014A (en) * 2024-03-08 2024-04-09 国网福建省电力有限公司 Automatic capturing and analyzing method for comprehensive abnormal phenomenon

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050114916A (en) * 2004-06-02 2005-12-07 (주)에이직뱅크 Network camera apparatus having a traffic information collection and addition function and the traffic information process method
JP2018190082A (en) * 2017-04-28 2018-11-29 株式会社東芝 Vehicle model discrimination device, vehicle model discrimination method, and vehicle model discrimination system
KR102122850B1 (en) * 2020-03-03 2020-06-15 (주)사라다 Solution for analysis road and recognition vehicle license plate employing deep-learning
KR102122859B1 (en) * 2020-03-03 2020-06-15 (주)사라다 Method for tracking multi target in traffic image-monitoring-system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20050114916A (en) * 2004-06-02 2005-12-07 (주)에이직뱅크 Network camera apparatus having a traffic information collection and addition function and the traffic information process method
JP2018190082A (en) * 2017-04-28 2018-11-29 株式会社東芝 Vehicle model discrimination device, vehicle model discrimination method, and vehicle model discrimination system
KR102122850B1 (en) * 2020-03-03 2020-06-15 (주)사라다 Solution for analysis road and recognition vehicle license plate employing deep-learning
KR102122859B1 (en) * 2020-03-03 2020-06-15 (주)사라다 Method for tracking multi target in traffic image-monitoring-system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102602319B1 (en) * 2023-07-18 2023-11-16 메타빌드 주식회사 Traffic information collection system and method based on multi-object tracking using artificial intelligence image deep learning model
CN117854014A (en) * 2024-03-08 2024-04-09 国网福建省电力有限公司 Automatic capturing and analyzing method for comprehensive abnormal phenomenon

Also Published As

Publication number Publication date
KR102434154B1 (en) 2022-08-18

Similar Documents

Publication Publication Date Title
KR102122859B1 (en) Method for tracking multi target in traffic image-monitoring-system
KR101808587B1 (en) Intelligent integration visual surveillance control system by object detection and tracking and detecting abnormal behaviors
US6985172B1 (en) Model-based incident detection system with motion classification
US20030053659A1 (en) Moving object assessment system and method
US20030123703A1 (en) Method for monitoring a moving object and system regarding same
US20030053658A1 (en) Surveillance system and methods regarding same
KR102122850B1 (en) Solution for analysis road and recognition vehicle license plate employing deep-learning
KR101877294B1 (en) Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events
KR102272295B1 (en) Method for improving recognition ratio of vehicle license plate employing depth information of image
KR102282800B1 (en) Method for trackig multi target employing ridar and camera
KR102272279B1 (en) Method for recognizing vehicle license plate
CN108376246A (en) A kind of identification of plurality of human faces and tracking system and method
KR102174556B1 (en) Apparatus for monitoring image to control traffic information employing Artificial Intelligence and vehicle number
CN103456024A (en) Moving object line crossing judgment method
KR102434154B1 (en) Method for tracking multi target in traffic image-monitoring-system
KR20220000172A (en) An apparatus and a system for providing a security surveillance service based on edge computing and a method for operating them
CN112733598A (en) Vehicle law violation determination method and device, computer equipment and storage medium
KR101672780B1 (en) Intelligent video surveillance system for school zone
KR101213255B1 (en) System and method for context-aware using image processing and wireless sensor network
KR20190136515A (en) Vehicle recognition device
KR20220000216A (en) An apparatus for providing a security surveillance service based on deep learning distributed processing
Tang Development of a multiple-camera tracking system for accurate traffic performance measurements at intersections
KR20230020184A (en) Video analysis device using fixed camera and moving camera
KR101936004B1 (en) Intelligent pedestrian detecting method
KR20210094365A (en) Apparatus, method and computer program for determining abnormal situation based on motion data of object

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant