KR101839827B1 - Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object - Google Patents

Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object Download PDF

Info

Publication number
KR101839827B1
KR101839827B1 KR1020170113603A KR20170113603A KR101839827B1 KR 101839827 B1 KR101839827 B1 KR 101839827B1 KR 1020170113603 A KR1020170113603 A KR 1020170113603A KR 20170113603 A KR20170113603 A KR 20170113603A KR 101839827 B1 KR101839827 B1 KR 101839827B1
Authority
KR
South Korea
Prior art keywords
information
unit
generating
region
image
Prior art date
Application number
KR1020170113603A
Other languages
Korean (ko)
Inventor
전영민
양선옥
민정기
Original Assignee
한국비전기술주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국비전기술주식회사 filed Critical 한국비전기술주식회사
Priority to KR1020170113603A priority Critical patent/KR101839827B1/en
Application granted granted Critical
Publication of KR101839827B1 publication Critical patent/KR101839827B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • G06K9/00268
    • G06K9/4642
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/19608Tracking movement of a target, e.g. by detecting an object predefined as a target, using target direction and or velocity to predict its new position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N5/23206

Abstract

According to the present invention, an intelligent monitoring system comprises: an object information generating unit configured to generate moving line data of a detected objet by using a detection camera and remote image data and generate behavior pattern information of the object by using a location relation of the generated moving line data and a situation recognition area; an image control unit configured to control a tracking camera capable of PTZ driving to photograph a near image of the object when movement of the object is stopped; a receiving unit configured to receive near image data from the tracking camera; a face information detecting unit configured to detect face area information in the near image data; and a feature information generating unit configured to generate feature information including a gender, an age, and a worn article of the object by using the face area information.

Description

원거리 동적 객체에 대한 얼굴 특징정보(연령, 성별, 착용된 도구, 얼굴안면식별)의 인식 기법이 적용된 지능형 감시시스템{SMART MONITORING SYSTEM APPLIED WITH RECOGNITION TECHNIC OF CHARACTERISTIC INFORMATION INCLUDING FACE ON LONG DISTANCE-MOVING OBJECT}TECHNICAL FIELD [0001] The present invention relates to an intelligent surveillance system for recognizing facial feature information (age, gender, worn tool, face facial identification) for a remote dynamic object,

본 발명은 지능형 감시시스템에 관한 것으로서, 더욱 구체적으로는 둘 이상의 검지 추적 알고리즘을 유기적으로 융합시켜 원거리에서 이동하는 객체를 더욱 정확하게 검지 및 추적하고 이를 기반으로 동적 객체의 움직임 등을 미리 정의된 기준행동패턴과 연계시킴으로써 동적 객체의 행동패턴을 시스템적으로 정확하게 인식하고 인식된 동적 객체의 행동패턴이 멈춤에 해당하는 경우 해당 객체의 고해상도 영상데이터를 이용하여 동적 객체의 얼굴 인식을 더욱 정밀하게 수행하여 객체의 연령, 성별, 착용된 도구, 안면식별 등을 정확하게 인식할 수 있도록 구현된 지능형 감시시스템에 관한 것이다. More particularly, the present invention relates to an intelligent monitoring system, and more particularly, to an intelligent monitoring system that more accurately detects and tracks an object moving at a long distance by organically fusing two or more detection tracking algorithms, If the motion pattern of the recognized dynamic object corresponds to a stop, it recognizes the behavior pattern of the dynamic object accurately by linking with the pattern, and performs the face recognition of the dynamic object more precisely using the high resolution image data of the object, And an intelligent surveillance system implemented so as to accurately recognize the age, sex, worn tool, facial identification, and the like.

범죄 예방, 안전사고 방지, 재난 감시, 건물 내지 시설물 감시, 대중교통 이용 승객 현황 파악, 주차, 교통 상황 모니터링 등의 다양한 목적을 구현하기 위하여 실내외를 불문하고 광범위한 영역에서 CCTV 및 관련 시스템 내지 장치가 구축되어 있으며, 이러한 장치나 시스템은 다양한 사회적 필요성 등에 의하여 점진적으로 증가되는 추세라고 할 수 있다.In order to realize various purposes such as crime prevention, prevention of accidents, disaster monitoring, monitoring of buildings and facilities, identification of passengers using public transportation, parking, traffic monitoring, etc., CCTV and related systems or devices are installed , And these devices and systems are gradually increasing due to various social needs.

이러한 CCTV 및 관련 시스템은 다양한 방법으로 이용되고 있는데, 통상적으로 특정 영역의 다수 위치에 CCTV를 설치하고, 이들 복수 개의 CCTV로부터 촬영되는 영상 데이터 관제를 위한 화면표시수단에 출력하고 관리자(관제자, 이용자 등)가 이를 시청하면서 특정 사건 등을 모니터링하거나 또는 다양한 장소 내지 위치의 영상을 DB화하고 사후적 증거 활용 등으로 이용하는 방법이 주로 이용된다.Such CCTV and related systems are used in various ways. Generally, a CCTV is installed in a plurality of locations in a specific area, and the CCTV is output to a screen display unit for controlling video data photographed from the plurality of CCTVs. Etc.) to monitor specific events while watching them, or to use images of various places or locations as a database and to use post-test evidence.

또한, 종래 CCTV 내지 관제 시스템에는 영상 분석(VS, Video Analysis) 기법 등을 이용하여 촬영된 영상에서 관심 대상이 되는 객체를 추적하고 추적된 객체의 이동을 모니터링하는 방법도 적용되고 있으며, 최근에는 추적된 객체의 이상 행위, 행동 등이 감지되는 경우 관리자 등에게 알라밍(alarming) 정보를 전송하는 방법도 조금씩 이용되고 있다. Conventionally, a CCTV or a control system has been applied to a method of tracking an object of interest in a photographed image and monitoring the movement of the tracked object using a video analysis (VS) technique, etc. Recently, When an abnormal behavior or an action of an object is detected, a method of transmitting alarming information to the manager is also used little by little.

이러한 객체 검지 내지 추적 등의 방법에는 영상 차분 기법, 옵티컬 플로우(Optical Flow) 기법 등을 이용하여 영상 데이터 내에 포함된 객체를 검지하는 방법이 이용되며, 나아가 민쉬프트 기법(Mean-Shift), 칼만 필터 기법(Kalman Filter) 등을 이용하여 객체를 추적하는 방법들이 이용된다. Methods for detecting and tracking such objects include a method of detecting an object included in image data using an image difference technique, an optical flow technique, and the like, and further, a method of detecting an object included in the image data, (Kalman Filter) are used to track objects.

그러나 이러한 객체 검지 및 추적과 관련된 기법들은 해당 기법에 의하여 검지 및 추적할 수 있는 제한된 특정 환경이나 특징(Feature) 파라미터들에 의하여 프로세싱되도록 설계되어 있으므로 각 기법마다의 특화된 제한된 환경에서는 어느 정도 성능이 발현될 수 있으나 이들 기법에 적합하지 않은 상황이나 환경에서는 객체 검지 및 추적의 효율성이 상당히 저하되는 문제점이 발생하게 된다. However, since the techniques related to object detection and tracking are designed to be processed by limited specific environment or feature parameters that can be detected and tracked by the corresponding technique, However, in situations or environments that are not suitable for these techniques, the efficiency of object detection and tracking is significantly degraded.

이러한 이유로 종래의 기법이나 방법들은 외부 환경의 노이즈 변화에 민감하게 반응하여 검지/추적의 신뢰성이 저하됨은 물론, 지속적으로 정확하게 객체를 검지하고 추적하는 것이 어려우므로 다양한 환경에 범용적으로 적용될 수 없는 본질적인 한계가 있다고 할 수 있다. For this reason, the conventional techniques and methods are sensitive to the noise change of the external environment, so that the reliability of detection / tracking is degraded. Moreover, since it is difficult to continuously detect and track the object accurately, There is a limit.

또한, 동적 객체의 검지 또는 추적이 이루어진다고 하더라도 종래 방법은 관리자 등에게 단순히 그 결과를 표출하는 정도의 수준이므로 그 결과를 적용하여 후속적으로 활용함에 있어서는 여전히 인적(人的) 의존적인 방법에 머물러 있어 시스템과 사람(관리자) 사이의 효과적인 인터페이싱을 구현하는 것은 거의 불가능한 상태라고 할 수 있다. Even if the dynamic object is detected or tracked, the conventional method is at a level of simply expressing the result to the manager or the like, so that the result is still applied in a human-dependent manner It is almost impossible to implement effective interfacing between system and person (administrator).

한편, 영상 데이터에 포함되어 있는 객체에서 얼굴을 검출/인식하는 방법에는 스킨 색상을 기반으로 한 알고리즘, 실시간 영상에서 발생되는 움직임을 이용하는 알고리즘, 통계적 클러스터 정보를 이용하는 알고리즘 등이 이용되고 있다.On the other hand, a method of detecting / recognizing a face in an object included in image data includes an algorithm based on skin color, an algorithm using motion generated in real-time image, and an algorithm using statistical cluster information.

그러나 이러한 방법은 특정 조건하에 특화되도록 설계된 알고리즘이므로 다양한 환경에서 범용성을 가지기 어렵고, 특히 영상데이터에서 객체가 회전하는 등 객체에 대한 얼굴 정면에 영상이 확보되지 않는 경우 그 인식률이 현저히 저하되는 등의 다양한 문제점이 있다. However, since this method is an algorithm designed to be specialized under specific conditions, it is difficult to have versatility in various environments. Especially, when the image is not secured on the front face of the object such as the rotation of the object in the image data, There is a problem.

또한, 종래 객체의 얼굴 인식 알고리즘은 사람들이 진출입하는 특정 장소(예를 들어, 공항 출입국 심사국, 건물 보안대, 경찰서 등)에서 미리 정해진 앵글(angle)과 뷰(view)가 정확히 확보되는 실내 환경에서만 구현되도록 설계되어 있어 그 활용이 상당히 제한되는 문제점이 있다. In addition, the face recognition algorithm of the conventional object is implemented only in an indoor environment in which a predetermined angle and a view are precisely secured in a specific place (for example, an airport entry and exit examination office, a building security desk, a police station, etc.) So that the utilization thereof is significantly restricted.

나아가 종래 얼굴 인식 알고리즘은 원거리 등의 특정 객체를 검지하고 모니터링하는 시스템과 유기적으로 결합하지 못하고 그 자체의 독립된 구동방법이나 장치로만 구현되고 있어 통합적인 객체 모니터링 및 관리 시스템을 구현하지 못하는 문제점도 있다고 할 수 있다.In addition, the conventional face recognition algorithm can not be integrated with a system for detecting and monitoring a specific object such as a distant object, and is implemented only as an independent driving method or apparatus of its own, thereby failing to implement an integrated object monitoring and management system .

본 발명은 상기와 같은 배경에서 상술된 문제점을 해결하기 위하여 창안된 것으로서, 객체 검지 및 추적의 알고리즘을 유기적으로 결합시키고 계층적으로 적용하여 객체 검지 및 추적의 오류 발생 가능성을 현저히 낮춤으로써 동적(動的) 객체의 정확하고 지속 가능한 검지 및 추적이 가능하도록 함은 물론, 추적된 객체의 동선, 거동 특성 내지 움직임 패턴을 기 정의된 행동패턴의 시계열적 조합에 의하여 정확하게 규정하여 사용자에게 인터페이싱함으로써, 동적 객체의 행동 패턴에 따른 후속적인 활용을 더욱 효과적으로 구현할 수 있는 시스템 인프라를 제공하는데 그 목적이 있다.The object of the present invention is to solve the above-mentioned problems, and it is an object of the present invention to provide a method and apparatus for detecting and tracking an object, It is possible to precisely and sustainably detect and track the object, as well as precisely define the motion, behavior, or movement pattern of the tracked object by a time series combination of predefined behavior patterns, The object of the present invention is to provide a system infrastructure that can more effectively implement subsequent utilization according to an action pattern of an object.

또한, 본 발명은 객체가 특정 행동패턴을 나타내는 경우 근거리 고해상도 객체 영상데이터가 자동적으로 확보되도록 구성하고 이를 대상으로 더욱 범용성을 가지는 얼굴 인식 방법을 유기적으로 적용함으로써, 객체의 얼굴 인식의 효율성을 높이고 객체의 성별, 연령, 착용도구, 안면식별 등을 더욱 정확히 추정할 수 있는 시스템을 제공하는데 그 목적이 있다.In addition, according to the present invention, it is possible to automatically acquire local high-resolution object image data when an object exhibits a specific behavior pattern and organically apply a more generalized face recognition method to the object, thereby improving the efficiency of face recognition of the object, The sex, age, wearing tool, facial identification, etc. of the patient.

본 발명의 다른 목적 및 장점들은 아래의 설명에 의하여 이해될 수 있으며, 본 발명의 실시예에 의하여 보다 분명하게 알게 될 것이다. 또한, 본 발명의 목적 및 장점들은 특허청구범위에 나타난 구성과 그 구성의 조합에 의하여 실현될 수 있다.Other objects and advantages of the present invention will become apparent from the following description, and it will be apparent from the description of the embodiments of the present invention. Further, the objects and advantages of the present invention can be realized by a combination of the constitution shown in the claims and the constitution thereof.

상기 목적을 달성하기 위한 본 발명의 원거리 동적 객체에 대한 얼굴 특징정보의 인식 기법이 적용된 지능형 감시시스템은 검지카메라의 영상데이터를 이용하여 검지된 객체의 동선데이터를 생성하며 생성된 동선 데이터와 상황인지영역과의 위치 관계를 이용하여 상기 객체의 행동패턴정보를 생성하는 객체정보생성부; 상기 객체의 이동이 정지되는 경우 상기 객체의 근거리영상이 촬영되도록 PTZF구동이 가능한 추적카메라를 제어하는 영상제어부; 상기 추적카메라로부터 근거리 영상데이터를 입력받는 입력부; 및 상기 근거리 영상데이터에서 얼굴영역정보를 검출하는 얼굴정보검출부; 상기 얼굴영역정보를 이용하여 상기 객체의 연령, 착용 사물 또는 안면식별정보를 포함하는 특징정보를 생성하는 특징정보생성부를 포함하여 구성될 수 있다.According to an aspect of the present invention, there is provided an intelligent surveillance system using facial feature information recognition for a remote dynamic object. The intelligent surveillance system generates motion data of a detected object using image data of a sensing camera, An object information generating unit for generating behavior pattern information of the object using a positional relationship with the object; An image controller for controlling a tracking camera capable of PTZF driving such that a near image of the object is captured when the movement of the object is stopped; An input unit for receiving the near vision image data from the tracking camera; And a face information detector for detecting face area information in the near vision image data; And a feature information generation unit for generating feature information including the age, wearing object, or facial identification information of the object using the face area information.

여기에서 본 발명의 상기 얼굴정보검출부는 상기 근거리 영상데이터를 대상으로 하르(haar)특징 기반 알고리즘을 적용하여 제1얼굴영역정보를 검출하는 제1검출부; 상기 근거리 영상데이터를 대상으로 스킨 컬러 기반 알고리즘을 적용하여 제2얼굴영역정보를 검출하는 제2검출부; 및 상기 제1 및 제2얼굴영역정보를 이용한 하이브리드 영역을 대상으로 얼굴영역정보를 생성하는 검출연산부를 포함하도록 구성되는 것이 바람직하다.Here, the face information detection unit of the present invention may include a first detection unit for detecting first face region information by applying a haar feature-based algorithm to the near vision image data; A second detection unit for detecting second face area information by applying a skin color-based algorithm to the near vision image data; And a detection arithmetic unit for generating face area information on a hybrid area using the first and second face area information.

또한, 본 발명의 상기 영상제어부는 상기 검지카메라의 위치정보, 상기 추적카메라의 위치정보, 상기 추적카메라의 특성정보 및 각 지점의 3차원 위치정보를 포함하는 공간모델정보가 저장된 공간정보저장부; 이동이 중지된 객체의 MER 중심점 좌표와 대응되는 3차원 좌표를 상기 공간모델정보를 이용하여 생성하는 위치정보변환부; 및 상기 생성된 3차원 좌표의 영상이 촬영되도록 상기 추적 카메라의 PTZ제어값을 연산하고 상기 PTZ제어값을 상기 추적카메라로 전송하는 전송부를 포함하도록 구성될 수 있다.Also, the image control unit of the present invention may include a spatial information storage unit storing spatial model information including position information of the detection camera, position information of the tracking camera, characteristic information of the tracking camera, and three-dimensional position information of each point; A position information conversion unit for generating three-dimensional coordinates corresponding to MER center coordinates of an object whose movement is stopped using the spatial model information; And a transmitting unit for calculating a PTZ control value of the tracking camera so that the generated three-dimensional coordinate image is captured and transmitting the PTZ control value to the tracking camera.

바람직하게, 본 발명은 상기 얼굴영역정보에서 코, 입 및 양눈 영역을 포함하는 얼굴이 특징영역을 추출하는 특징정보추출부; 및 상기 코와 양눈 사이 각각의 길이정보 및 상기 코와 입 사이의 길이정보를 생성하고 상기 길이정보를 이용하여 얼굴의 회전방향 및 회전각도 정보를 생성하는 회전정보생성부를 더 포함할 수 있으며 이 경우 상기 특징정보생성부는 상기 얼굴의 회전방향 및 회전각도정보를 더 포함하여 상기 특징정보를 생성하도록 구성될 수 있다.Preferably, the present invention includes a feature information extracting unit for extracting a feature region of a face including nose, mouth, and two-eye region from the face region information; And a rotation information generator for generating length information of each of the nose and eye and length information between the nose and mouth and generating rotation direction and rotation angle information of the face using the length information, The feature information generating unit may further include rotation direction and rotation angle information of the face to generate the feature information.

더욱 바람직하게, 본 발명은 상기 얼굴의 회전방향 및 회전각도 정보에 대응되는 만큼 반대편 영상 영역을 대칭적으로 적용하여 상기 얼굴영역정보를 정면을 기준으로 한 복원얼굴영역정보로 생성하는 영상복원부를 더 포함할 수 있으며 이 경우 본 발명의 상기 특징정보생성부는 상기 복원얼굴영역정보를 이용하여 특징정보를 생성하도록 구성된다.More preferably, the present invention further includes an image restoration unit for symmetrically applying the opposite image region corresponding to the rotation direction and rotation angle information of the face to generate the restored face region information based on the front face as the face region information In this case, the feature information generating unit of the present invention is configured to generate feature information using the restored face region information.

또한, 본 발명의 상기 특징정보생성부는 상기 얼굴영역정보에서 눈, 코 또는 입 영역에 대한 각각의 존재여부와 눈 주변 영역의 픽셀 특성을 조합적으로 적용하여 얼굴에 착용된 착용도구 정보를 생성할 수 있으며, 실시형태에 따라 상기 얼굴영역정보 중 눈, 코, 입 영역 이외 영역에 대한 피부 주름살 히스토그램 데이터를 생성하고 이를 이용하여 피부 주름라인의 크기 또는 깊이에 대한 질감 데이터를 생성하고 상기 생성된 질감 데이터를 연령대별 기준 질감 데이터와 대비하여 상기 객체의 연령 정보를 생성하도록 구성될 수 있다.In addition, the feature information generation unit of the present invention combines the presence or absence of each of the eye, nose, or mouth regions with the pixel characteristics of the eye region in the face region information to generate wear tool information worn on the face And generates skin crease histogram data for areas other than the eyes, nose, and mouth areas of the face area information according to the embodiment, generates texture data on the size or depth of the skin crease line using the generated skin crease line histogram data, And to generate age information of the object by comparing the data with the age-based reference texture data.

실시형태에 따라 본 발명은 상기 검지카메라 또는 추적카메라의 영상데이터가 입력되면, 입력된 영상데이터에서 휴먼 객체를 추출하고, 추출된 휴먼 객체의 MER 영역이 머리, 가슴, 하체 및 다리 영역으로 구분된 영역인 관심영역을 대상으로 거리변환 알고리즘을 적용한 결과 데이터에서 최대 밝기값을 가지는 좌표를 스켈레톤 좌표로 설정하는 좌표설정부; 스켈레톤 좌표를 이용하여 손의 위치를 추정하고 추정된 손의 위치와 매핑되는 스켈레톤 좌표를 중심으로 하는 손주변 영역을 지정하며, 지정된 손주변 영역의 외곽선을 검출하고, 상기 검출된 외곽선 중 손 영역이 제외된 영역인 물체영역을 생성하는 물체영역생성부; 및 상기 물체영역의 특징 정보와 물체 판단을 위한 기준 정보를 대비하여 상기 물체영역에 포함된 물체 정보를 생성하는 물체정보생성부를 더 포함할 수 있다.According to an embodiment of the present invention, when image data of the detection camera or the tracking camera is input, a human object is extracted from the input image data, and the MER region of the extracted human object is classified into a head, a chest, A coordinate setting unit for setting a coordinate having a maximum brightness value in the resultant data as a skeleton coordinate by applying a distance transformation algorithm to an ROI area; Estimating the position of the hand using the skeleton coordinates, designating the area around the hand centered on the skeleton coordinate mapped with the position of the estimated hand, detecting the outline of the area around the designated hand, An object zone generating unit for generating an object zone which is an excluded zone; And an object information generating unit for generating object information included in the object area by comparing feature information of the object area with reference information for object determination.

바람직하게, 본 발명의 상기 특징정보생성부는 상기 얼굴영역정보에서 얼굴 영역과 머리카락 영역을 구분하고, 구분된 얼굴 영역과 머리카락 영역의 세로비를 이용하여 상기 객체의 성별에 대한 특징정보를 생성하도록 구성될 수 있다.Preferably, the feature information generating unit of the present invention divides the face area and the hair area in the face area information, and generates the feature information on the sex of the object using the vertical ratio of the divided face area and the hair area .

또한, 본 발명의 상기 객체정보생성부는 n(n은 1이상의 자연수)개의 검지카메라로부터 영상데이터를 수신하는 수신부; 상기 영상데이터를 대상으로 차분 영상 검지 알고리즘을 적용하여 객체를 검지하고 검지된 객체의 제1후보MER정보를 생성하는 제1검지부; 상기 영상데이터를 대상으로 옵티컬 플로우 알고리즘을 적용하여 객체를 검지하고 검지된 객체의 제2후보MER정보를 생성하는 제2검지부; 상기 제1 및 제2후보MER정보를 대상으로 호그 알고리즘을 적용하여 객체의 최종MER정보를 생성하는 검지판단부; 상기 객체의 최종MER정보의 이동을 추적하여 상기 객체의 동선데이터를 생성하는 트래킹부; 및 행동패턴 분석의 기준이 되는 상황인지영역과 상기 객체의 동선데이터와의 위치 관계를 이용하여 상기 객체의 행동패턴을 결정하는 행동패턴결정부를 포함하도록 구성될 수 있다.The object information generating unit of the present invention may further include: a receiving unit that receives image data from n (n is a natural number equal to or greater than 1) detecting cameras; A first detection unit for detecting an object by applying a difference image detection algorithm to the image data and generating first candidate MER information of the detected object; A second detecting unit detecting an object by applying an optical flow algorithm to the image data and generating second candidate MER information of the detected object; A detection determination unit for generating final MER information of the object by applying a hog algorithm to the first and second candidate MER information; A tracking unit for tracking movement of final MER information of the object to generate copper line data of the object; And a behavior pattern determiner for determining a behavior pattern of the object by using a positional relationship between the context aware area as a basis of the behavior pattern analysis and the copper line data of the object.

여기에서 본 발명의 상기 제1검지부는 일정 시간 동안 누적된 통계적 영상을 이용하여 매 프레임마다 배경영상을 생성하고 상기 생성된 배경영상과 현재 영상을 차분하여 상기 제1후보MER정보를 생성하도록 구성될 수 있다. Here, the first detection unit of the present invention is configured to generate a background image every frame using statistical images accumulated for a predetermined time and to generate the first candidate MER information by a difference between the generated background image and a current image .

또한, 본 발명의 상기 행동패턴결정부는 상기 동선데이터의 각 시간별 객체의 최종MER 중심점 위치좌표와 상기 상황인지영역의 경계라인의 위치 좌표 사이의 관계를 이용하여 객체의 이벤트 정보를 생성하는 이벤트 생성부; 및 상기 객체의 이벤트 정보의 시계열적 특성을 이용하여 상기 객체에 대한 행동패턴정보를 생성하는 패턴정보생성부를 포함하도록 구성될 수 있다. The behavior pattern determination unit of the present invention may further include an event generation unit for generating event information of an object using the relationship between the coordinates of the final MER center point position of the object of each time of the copper line data and the position coordinates of the boundary line of the context- ; And a pattern information generating unit for generating behavior pattern information for the object using the time-series characteristic of the event information of the object.

본 발명에 의한 지능형 감시시스템은 객체의 검지, 추적 및 행동패턴을 생성하는 프로세싱과 유기적으로 결합되도록 구성하여 이를 기초로 객체가 특정 행동패턴에 해당할 때, 근거리 고해상도 영상 데이터가 자동적으로 생성되도록 하고 이를 이용하여 객체의 얼굴을 인식하도록 구성되어 더욱 통합된 객체 모니터링 시스템을 구현할 수 있다.The intelligent surveillance system according to the present invention is configured to be organically combined with processing for detecting, tracking, and generating behavior patterns of an object, so that when the object corresponds to a specific behavior pattern, the local high resolution image data is automatically generated It is possible to realize a more integrated object monitoring system.

본 발명에 의한 지능형 감시시스템은 복수 개의 얼굴 인식 알고리즘을 이원화시키고 그 각각의 결과에 대하여 생성된 인식 영역을 통합적으로 이용함으로써 얼굴 인식의 범용성을 향상시킬 수 있음은 물론, 더욱 정확한 얼굴 인식을 구현할 수 있다. The intelligent monitoring system according to the present invention can enhance the versatility of face recognition by using a plurality of face recognition algorithms in a binary manner and using the generated recognition areas integrally for each result, have.

또한, 본 발명의 다른 실시예에 의할 때, 객체의 얼굴 영역에 대한 회전각도 정보를 정확히 생성하고 이를 이용하여 영상으로 확보되지 않은 얼굴 영역을 추정 복원시킬 수 있어 객체의 얼굴 인식을 더욱 정밀하게 구현할 수 있다.According to another embodiment of the present invention, the rotation angle information about the face region of the object is accurately generated, and the face region that is not secured by the image can be estimated and restored using the rotation angle information, Can be implemented.

본 발명에 의한 지능형 감시시스템은 객체 검지 알고리즘을 이원화시켜 프로세싱하고 그 각각의 결과에 대하여 생성된 하이브리드 영역을 대상으로, 영역 내 검출에 최적화되는 제3의 알고리즘을 사용하여 객체 검지 알고리즘을 유기적으로 그리고 계층적으로 적용시킴으로써, 외부 환경의 노이즈에 적응하고 객체 검지의 확률을 더욱 향상시킴은 물론, 연산 효율성도 높일 수 있게 된다. The intelligent monitoring system according to the present invention processes object detection algorithms in a binary manner and processes the object detection algorithms organically by using a third algorithm that is optimized for intra- By hierarchically applying it, it is possible to adapt to the noise of the external environment, to further improve the probability of object detection, and to increase the computation efficiency.

나아가 본 발명의 다른 실시예에 의할 때, 객체 추적 알고리즘으로 칼만 필터 알고리즘과 캠쉬트프 알고리즘을 유기적으로 결합시켜 적용하되, 캠쉬트프 알고리즘의 결과값을 칼만 필터 알고리즘의 파라미터로 이용하는 과정을 순환적으로 적용시킴으로써, 객체 추적의 정확성과 신뢰성을 높일 수 있어 동적 객체의 추적을 더욱 최적화시킬 수 있는 효과를 제공할 수 있다.Further, according to another embodiment of the present invention, a Kalman filter algorithm and a camshit algorithm are organically combined using an object tracking algorithm, and the process of using the result of the camshit algorithm as a parameter of the Kalman filter algorithm is repeated It is possible to improve the accuracy and reliability of the object tracking and to further optimize the tracking of the dynamic object.

또한, 본 발명의 또 다른 실시예에 의할 때, 동적 객체의 동선 데이터 즉, 동적 객체가 생성하는 거동 특성 내지 행동 특성을 기 정의된 객체의 이벤트와 이들의 시계열적 조합에 의하여 정의되는 행동패턴정보를 이용하여 정확하게 규정하고 데이터화할 수 있어 동적 객체의 행동패턴은 물론, 이에 따른 후속 프로세싱을 사용자에게 정확하게 인터페이싱할 수 있는 효과를 창출 할 수 있다. According to still another embodiment of the present invention, dynamic data of a dynamic object, that is, dynamic characteristics or behavioral characteristics generated by a dynamic object, may be classified into an event of the predefined object and a behavior pattern Information can be precisely defined and data can be generated. Therefore, it is possible to create an effect of precisely interfacing the subsequent processing to the user as well as the behavior pattern of the dynamic object.

본 명세서에 첨부되는 다음의 도면들은 본 발명의 바람직한 실시예를 예시하는 것이며, 후술되는 발명의 상세한 설명과 함께 본 발명의 기술 사상을 더욱 효과적으로 이해시키는 역할을 하는 것이므로, 본 발명은 이러한 도면에 기재된 사항에만 한정되어 해석되어서는 아니 된다.
도 1은 본 발명의 바람직한 일 실시예에 의한 지능형 감시시스템의 상세 구성을 도시한 블록도,
도 2는 도 1에 도시된 본 발명의 얼굴정보검출부의 상세 구성을 도시한 블록도,
도 3은 본 발명의 전체적인 프로세싱 방법에 대한 과정을 도시한 흐름도,
도 4는 본 발명의 바람직한 일 실시예에 의한 얼굴인식 프로세싱 과정을 도시한 흐름도,
도 5는 객체의 연령을 추정 인식하는 프로세싱에 대한 본 발명의 일 실예에 대한 과정을 도시한 흐름도,
도 6은 도 1에 도시된 본 발명의 객체정보 생성부에 대한 상세 구성을 도시한 블록도,
도 7은 도 6의 행동패턴결정부에 대한 상세 구성을 도시한 블록도,
도 8 및 도 9는 본 발명의 바람직한 실시예에 의한 객체 검지에 대한 상세 프로세싱 과정을 도시한 흐름도,
도 10은 본 발명의 바람직한 일 실시예에 의한 객체 추적에 대한 상세 프로세싱 과정을 도시한 흐름도,
도 11은 본 발명에 의한 영상인식영역과 상황인지영역의 일 실시예를 도시한 도면,
도 12는 객체 검지에 이용되는 HOG 알고리즘의 특징을 설명하는 도면,
도 13은 본 발명의 바람직한 일 실시예에 의한 객체의 6가지 이벤트 정보를 정의하는 도면,
도 14는 본 발명의 바람직한 일 실시예에 의한 8가지 행동패턴정보를 설명하는 도면,
도 15는 사람 객체의 손 영역에 존재하는 물건에 대한 정보를 생성하는 본 발명의 바람직한 일 실시예에 의한 프로세싱 과정을 도시한 흐름도,
도 16은 도 15의 프로세싱 각 과정을 설명하는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS The accompanying drawings, which are incorporated in and constitute a part of the specification, illustrate preferred embodiments of the invention and, together with the detailed description of the invention given below, serve to better understand the technical idea of the invention, And shall not be construed as limited to such matters.
1 is a block diagram showing a detailed configuration of an intelligent monitoring system according to a preferred embodiment of the present invention;
FIG. 2 is a block diagram showing the detailed configuration of the face information detecting unit of the present invention shown in FIG. 1;
3 is a flow chart illustrating a process for an overall processing method of the present invention,
FIG. 4 is a flowchart illustrating a face recognition processing according to an exemplary embodiment of the present invention. FIG.
FIG. 5 is a flowchart illustrating a process for an example of the present invention for processing for estimating and recognizing the age of an object;
FIG. 6 is a block diagram showing a detailed configuration of the object information generating unit of the present invention shown in FIG. 1;
FIG. 7 is a block diagram showing the detailed configuration of the behavior pattern determining unit of FIG. 6;
FIG. 8 and FIG. 9 are flowcharts illustrating a detailed processing procedure of object detection according to a preferred embodiment of the present invention;
FIG. 10 is a flowchart illustrating a detailed process of object tracking according to an exemplary embodiment of the present invention.
FIG. 11 illustrates an embodiment of an image recognition area and a context recognition area according to the present invention.
12 is a view for explaining a characteristic of the HOG algorithm used for object detection,
13 is a view for defining six event information of an object according to an exemplary embodiment of the present invention;
14 is a view for explaining eight behavior pattern information according to a preferred embodiment of the present invention,
FIG. 15 is a flowchart illustrating a processing procedure according to an exemplary embodiment of the present invention for generating information on objects existing in a hand region of a human object; FIG.
FIG. 16 is a diagram for explaining the processing of FIG. 15; FIG.

이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예를 상세히 설명하기로 한다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 통상적이거나 사전적인 의미로 한정해서 해석되어서는 아니 되며, 발명자는 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야만 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. Prior to this, terms and words used in the present specification and claims should not be construed as limited to ordinary or dictionary terms, and the inventor should appropriately interpret the concepts of the terms appropriately It should be interpreted in accordance with the meaning and concept consistent with the technical idea of the present invention based on the principle that it can be defined.

따라서 본 명세서에 기재된 실시예와 도면에 도시된 구성은 본 발명의 가장 바람직한 일 실시예에 불과할 뿐이고 본 발명의 기술적 사상을 모두 대변하는 것은 아니므로, 본 출원시점에 있어서 이들을 대체할 수 있는 다양한 균등물과 변형예들이 있을 수 있음을 이해하여야 한다.Therefore, the embodiments described in the present specification and the configurations shown in the drawings are merely the most preferred embodiments of the present invention and are not intended to represent all of the technical ideas of the present invention. Therefore, various equivalents It should be understood that water and variations may be present.

도 1은 본 발명의 바람직한 일 실시예에 의한 원거리 동적 객체에 대한 얼굴 특징정보의 인식 기법이 적용된 지능형 감시시스템(이하 감시시스템이라 지칭한다)(1000)의 상세 구성을 도시한 블록도이다. FIG. 1 is a block diagram illustrating a detailed configuration of an intelligent monitoring system (hereinafter referred to as a monitoring system) 1000 to which a face feature information recognition method for a remote dynamic object according to an exemplary embodiment of the present invention is applied.

도 1에 도시된 바와 같이 본 발명의 감시시스템(1000)은 객체정보생성부(100), 영상제어부(200), 입력부(300), 얼굴정보검출부(400), 특징정보생성부(500), 특징정보추출부(600), 회전정보생성부(700) 및 영상복원부(800)를 포함하여 구성될 수 있다.1, the monitoring system 1000 includes an object information generating unit 100, an image controlling unit 200, an input unit 300, a face information detecting unit 400, a feature information generating unit 500, A feature information extracting unit 600, a rotation information generating unit 700, and an image restoring unit 800.

본 발명의 상세한 설명에 앞서, 도 1에 도시된 본 발명의 감시시스템(100) 및 도 2, 6, 7에 도시된 본 발명의 각 구성요소는 물리적으로 구분되는 구성요소라기보다는 논리적으로 구분되는 구성요소로 이해되어야 한다.Prior to the description of the present invention, the monitoring system 100 of the present invention shown in Fig. 1 and each component of the present invention shown in Figs. 2, 6 and 7 are logically divided rather than physically separated components It should be understood as a component.

즉, 각각의 구성은 본 발명의 기술 사상을 실현하기 위한 논리적인 구성요소에 해당하므로 각각의 구성요소가 통합 또는 분리되어 구성되더라도 본 발명의 논리 구성이 수행하는 기능이 실현될 수 있다면 본 발명의 범위 내에 있다고 해석되어야 하며, 동일 또는 유사한 기능을 수행하는 구성요소라면 그 명칭 상의 일치성 여부와는 무관히 본 발명의 범위 내에 있다고 해석되어야 함은 물론이다.That is, since each constitution corresponds to a logical constituent element for realizing the technical idea of the present invention, even if each constituent element is constituted integrally or separately, if the function performed by the logical constitution of the present invention can be realized, It is to be understood that any component that performs the same or similar function should be interpreted as falling within the scope of the present invention regardless of the consistency of the name.

본 발명의 감시시스템(100)은 하나 또는 그 이상의 검지카메라(50)가 촬영한 영상 데이터를 로-데이터로(raw-data)하여 영상 데이터 내 관심의 대상이 되는 객체를 정확히 검지(detection)하고 검지된 객체의 이동, 거동 특성 등을 추적(tracking)하여 객체의 동선 데이터 내지 행동패턴정보를 생성하고 이를 이용하여 객체의 얼굴인식 등을 수행하도록 구현되는 시스템에 해당한다.The monitoring system 100 of the present invention accurately detects the object of interest in the image data by raw-data of the image data photographed by one or more detection cameras 50 And tracking the movement and behavior characteristics of the detected object to generate motion data or behavior pattern information of the object and perform face recognition of the object using the generated motion data or behavior pattern information.

도 1에 도시된 바와 같이 본 발명의 감시시스템(100)은 시스템 장치, 서버 등의 하드웨어적 구성으로도 구현될 수 있음은 물론, 검지카메라(50), 줌카메라(추적카메라/고해상도 근접영상 카메라)(70) 등과 통신 가능하게 연결되는 장치 내지 시스템 등에 탑재되어 후술되는 본 발명의 프로세싱을 수행하는 소프트웨어의 형태로도 구현될 수 있음은 물론이다. As shown in FIG. 1, the monitoring system 100 of the present invention can be implemented in a hardware configuration such as a system device, a server, or the like, as well as a detection camera 50, a zoom camera (a tracking camera / ) 70 and the like, and may be embodied in the form of software for carrying out the processing of the present invention which will be described later.

본 발명의 구성 내지 프로세싱에 대한 상세한 설명에 앞서 도 3을 참조하여 본 발명의 프로세싱을 포함하여 본 발명의 구현하고자 하는 전체적인 과정을 먼저 간략히 설명한다. 3 is a block diagram illustrating the structure of a semiconductor memory device according to an embodiment of the present invention. Referring to FIG.

본 발명은 도 3에 도시된 바와 같이 검지카메라(50)로부터 영상 데이터가 수신되면 영상 데이터를 파싱(parsing) 내지 분석하여 영상 데이터 내 관심의 대상이 되는 객체(object)를 검지한다(S300).As shown in FIG. 3, when image data is received from the detection camera 50, the image data is parsed or analyzed to detect an object of interest in the image data (S300).

관심의 대상이 되는 객체(object)는 관심의 목표 내지 그 대상을 의미하는 것으로서 사람, 동물, 차량 등이 그 예가 될 수 있다. 영상 데이터에서 객체를 추출하는 방법은 이진화, 라벨링 프로세싱, 에지 검출 등의 방법을 포함하여 후술되는 바와 같이 영상 차분 알고리즘, 옵티컬 프로우(Optical flow) 알고리즘, 모델 정합 알고리즘 등 다양한 방법이 적용될 수 있다. An object of interest is an object of interest or an object of interest, such as a person, an animal, or a vehicle. Various methods such as an image difference algorithm, an optical flow algorithm, and a model matching algorithm may be applied as methods for extracting objects from image data, including binarization, labeling processing, and edge detection.

객체의 검지 결과의 표현 방법에는 최소인접 사각형 내지 최소포함사각형으로 지칭되는 엠이알(MER, Minimum Enclosing Rectangle)을 이용하게 되는데 구체적으로 사람, 차량, 동물 등과 같은 객체의 특성에 따라 MER의 너비, 높이, 중심점 좌표, 밀도정보, 너비/높이간 비율 정보 등을 정의하고 정의된 MER과 영상 데이터 내 포함된 객체의 너비, 높이 등의 특성을 상호 대비하여 특정 관심 대상인 객체를 검지/구분하는 방법이 이용된다. The method of representing the detection result of the object uses a minimum enclosing rectangle (MER), which is referred to as a minimum adjacent rectangle or a minimum containing rectangle. Specifically, the width of the MER, Height, center point coordinates, density information, and width / height ratio information, and a method of detecting / distinguishing a specific object of interest by comparing the characteristics of the MER and the width and height of the object included in the image data .

이와 같이 객체의 검지(detection)이 완료되면, 검지된 객체를 추적하는 프로세싱이 진행된다(S310). 검지된 객체의 추적(tracking)은 검지된 객체가 어떠한 방향성으로 어떤 경로로 이동하는지에 대한 객체의 경로 데이터, 거동 특성 정보 내지 행동패턴정보를 생성하는 과정에 해당한다.When the detection of the object is completed, processing for tracking the detected object proceeds (S310). Tracking of the detected object corresponds to the process of generating path data, behavioral characteristic information, and behavioral pattern information of the object as to which direction the detected object moves to.

객체의 추적이 완료되면 생성된 객체의 동선데이터와 기 설정된 상황인지영역의 상호 위치 관계를 이용하여 객체의 행동패턴정보를 생성한다(S320). When the tracking of the object is completed, the behavior pattern information of the object is generated using the mutual positional relationship between the movement data of the created object and the predetermined context-aware area (S320).

이 과정과 관련하여 도 11의 (a)와 같이 카메라(50)가 생성하는 영역인 영상생성영역에서 휴먼(human) 객체 등을 감시할 필요가 없는 영역(사람, 차량 등이 다닐 수 없는 영역 등)을 제외함으로써 연산량을 축소할 필요가 있는데, 이와 같이 영상생성영역에서 객체의 감지가 요구되지 않는 영역을 배제한 영역이 영상처리영역(도 11 (a))이 된다.As shown in FIG. 11 (a), in the image generation area, which is an area generated by the camera 50, an area that does not need to monitor a human object or the like It is necessary to reduce the amount of computation by excluding the region in which the detection of the object is not required in the image generation region, as shown in Fig. 11 (a).

나아가 이 영상처리영역에 포함되는 영역으로서 사용자의 개입 없이 시스템(장치)가 자동으로 상황을 인지하는 것을 목적으로 설정되는 영역이 상황인지영역(도 11의 (b))이 된다. Furthermore, the area set for the purpose of automatically recognizing the situation of the system (apparatus) as the area included in the image processing area becomes the situation recognition area (FIG. 11 (b)) without user intervention.

상황인지영역이 설정되면 상황인지영역(영상생성영역)의 경계(아웃라인), 중심점 좌표 등의 위치좌표가 생성되며, 이 상황인지영역의 위치좌표를 기준으로 객체의 동선 데이터 내지 각 시간별 객체의 중심점 좌표 정보를 이 상황인지영역의 위치좌표와 대비하여 객체의 거동 특성 내지 행동패턴에 대한 정보가 생성된다.When the situation recognition area is set, position coordinates such as the boundary (outline) and center point coordinates of the situation recognition area (image generation area) are generated. Based on the position coordinates of the situation recognition area, The center point coordinate information is compared with the position coordinates of the situation aware area to generate information on the behavior characteristics or behavior patterns of the object.

동적 객체의 행동패턴정보가 생성되면, 생성된 행동패턴에 따른 후속 프로세싱이 진행된다(S330). 객체의 행동패턴이 침입으로 정의되는 경우 관리자 또는 관련 기관(경찰서 등)에 정보를 전송하거나, 특정 위치에 설치된 경광등, 사이렌 등이 자동으로 작동되도록 하는 프로세싱 등이 이러한 후속 프로세싱의 일부에 해당한다.When the behavior pattern information of the dynamic object is generated, the subsequent processing according to the generated behavior pattern proceeds (S330). When the behavior pattern of an object is defined as an intrusion, processing such as sending information to an administrator or a related organization (such as a police station), or automatically activating a warning light, a siren, or the like installed at a specific location is a part of such subsequent processing.

여러 가지 행동패턴 중 동적 객체의 행동패턴이 “멈춤”으로 판단되는 경우(S340) 즉, 특정 시간 동안 상황인지영역 내에서 객체의 속도가 0(또는 0에 가까운 경우)으로 판단되는 경우 소정의 위치에 설치된 추적카메라(70)의 PTZF(Pan, Tilt, Zoom, Focal length) 등을 제어하여 객체가 멈춘 위치의 고해상도 줌 영상이 촬영되도록 하고 촬영된 줌 영상을 이용하여 휴먼 객체의 상세 인식(안면식별, 성별, 장신구 착용 여부, 연령대 등)에 대한 프로세싱을 수행한다(S350). 프로세싱 과정에서 생성된 객체에 관련된 다양한 정보, 이력 정보 등이 시간 정보와 함께 저장(S360)될 수 있음은 물론이다. If it is determined that the behavior pattern of the dynamic object is " paused " (S340), that is, if it is determined that the velocity of the object is 0 (or close to 0) (Pan, Tilt, Zoom, and Focal length) of the tracking camera 70 installed in the tracking camera 70 to capture a high-resolution zoom image at a position where the object is stopped, Sex, wearing ornaments, age range, etc.) (S350). Various information related to the object generated in the processing, history information, and the like may be stored together with the time information (S360).

이하에서는 상술된 바와 같이 객체의 행동패턴이 멈춤 즉, 이동 객체가 정지하는 경우 이루어지는 얼굴 인식 과정에 대한 본 발명의 구성과 프로세싱을 도 4 및 도 5를 참조하여 먼저 기술하며, 상술된 본 발명의 프로세싱 중 객체 검지 프로세싱, 검지된 객체의 추적 프로세싱, 객체의 행동패턴 생성 프로세싱 등에 대한 상세한 설명은 후술하도록 한다.Hereinafter, the configuration and processing of the present invention for a face recognition process in which a behavior pattern of an object is stopped, that is, when a moving object stops, will be described first with reference to FIGS. 4 and 5, Details of the object detection processing during processing, the tracking processing of the detected object, the behavior pattern generation processing of the object, etc. will be described later.

본 발명의 객체정보생성부(100)는 검지카메라(50)가 원거리 영상 데이터를 생성하면 이 원거리 영상 데이터를 이용하여 객체를 검지하고, 검지된 객체를 트래킹하여 객체의 동선 데이터를 생성하고 생성된 동선 데이터와 상황인지영역과의 위치 관계를 유기적으로 적용하여 도 13 및 도 14에 도시된 바와 같이 객체의 이벤트정보와 행동패턴정보를 생성한다. 본 발명의 객체정보생성부(100)가 수행하는 상세한 프로세싱과 구체적인 구성은 후술하도록 한다.The object information generating unit 100 of the present invention detects the object using the remote image data when the sensing camera 50 generates the remote image data, generates the moving object data of the object by tracking the detected object, And generates event information and behavior pattern information of the object as shown in FIGS. 13 and 14 by organically applying the positional relationship between the copper line data and the context-aware area. Detailed processing and specific configuration performed by the object information generation unit 100 of the present invention will be described later.

이와 같이 생성된 객체의 행동패턴이 멈춤 행동패턴인 경우, 즉, 객체의 이동이 중지되는 경우 본 발명의 영상제어부(200)는 PTZF(Pan, Tilt, Zoom, Focal length) 구동이 가능한 줌카메라(추적카메라)(70)를 제어하여 이동이 중지된 객체의 근거리 영상(줌영상/고해상도 영상)이 촬영되도록 한다.In the case where the motion pattern of the generated object is the stop motion pattern, that is, when the movement of the object is stopped, the image control unit 200 of the present invention is a zoom camera capable of driving PTZF (Pan, Tilt, Zoom, Focal length) Tracking camera) 70 so that a close-up image (zoomed image / high-resolution image) of the object whose movement is stopped is photographed.

구체적으로 본 발명의 영상제어부(200)는 공간정보저장부(210), 위치정보변환부(220) 및 전송부(230)를 포함하여 구성될 수 있다.Specifically, the image control unit 200 of the present invention may include a spatial information storage unit 210, a location information conversion unit 220, and a transmission unit 230.

공간정보저장부(210)에는 상기 검지카메라(50)의 위치정보, 상기 추적카메라(70)의 위치정보는 물론, 각 카메라의 특성정보(PTZF)가 저장되어 있으며, POI(Point Of interest)를 포함하는 각 지점의 3차원 위치정보를 포함하는 공간모델정보가 저장된다.The spatial information storage unit 210 stores the position information of the detection camera 50 and the tracking camera 70 as well as the characteristic information PTZF of each camera. And spatial model information including three-dimensional position information of each of the points included therein is stored.

본 발명의 위치정보변환부(220)는 객체의 이동이 중지되는 경우 즉, 객체의 행동패턴이 “멈춤”에 해당하는 경우(S600) 이동이 중지된 객체의 MER 중심점 좌표를 추출하고, 이 추출된 MER중심점 좌표를 3차원 공간으로 사상(투영, mapping)하며 상기 공간정보저장부(210)에 저장된 정보를 이용하여 이동이 중지된 객체의 MER 중심점 좌표에 대응되는 3차원 좌표를 생성한다(S610).When the movement of the object is stopped, that is, when the behavior pattern of the object corresponds to " stop " (S600), the position information conversion unit 220 of the present invention extracts the coordinates of the center point of the MER of the object, Dimensional coordinates corresponding to the MER center point of the object whose movement has been stopped using the information stored in the spatial information storage unit 210 (S610 ).

이와 같이 3차원 좌표가 생성되면 해당 좌표의 고해상도 영상이 촬영될 수 있도록 본 발명의 전송부((230)는 생성된 3차원 좌표에 대응되는 추적카메라(70)의 P, T, Z, F 정보를 연산 내지 생성하고(S620) 생성된 PTZF 제어정보를 추적카메라(70)로 전송한다(S630).When the three-dimensional coordinate is generated, the transmitting unit 230 of the present invention transmits P, T, Z, and F information of the tracking camera 70 corresponding to the generated three-dimensional coordinates so that a high- (S620) and transmits the generated PTZF control information to the tracking camera 70 (S630).

상기 PTZF값은 객체의 MER의 너비 또는 높이 등을 연산하여 MER의 전체 높이 기준 1/3이 되는 객체의 상반신이 촬영되도록 결정되는 것이 바람직하다. Preferably, the PTZF value is determined such that the upper half of the object, which is 1/3 of the total height of the MER, is photographed by calculating the width or height of the MER of the object.

이와 같이 PTZF값이 추적카메라(70)로 전송되면 추적카메라(70)는 전송된 PTZF값에 따라 구동되어 객체의 근거리 영상(고해상도 줌 영상)을 촬영하고(S640) 촬영된 근거리 영상 데이터를 전송한다(S650).When the PTZF value is transmitted to the tracking camera 70, the tracking camera 70 is driven according to the transmitted PTZF value to capture a near-field image (high-resolution zoom image) of the object (S640) and transmits the photographed near-field image data (S650).

추적카메라(70)가 생성한 근거리 영상 데이터에서 객체의 얼굴 영역을 포함한 상반신 영역이 나타나지 않는 경우 순환적 프로세싱을 수행하여 추적카메라(70)의 PTZF값이 수정 갱신되도록 하고 이에 따라 추적카메라(70)의 재촬영이 이루어지도록 구성하는 것이 바람직하다.When the upper half region including the face region of the object does not appear in the local image data generated by the tracking camera 70, the PTZF value of the tracking camera 70 is corrected and updated by performing cyclic processing, It is preferable that the re-photographing of the image is performed.

이와 같이 이 발명은 단순히 객체가 포함된 영상 데이터를 이용하는 것이 아니라, 카메라 장치를 이원화시켜 객체의 검출, 추적 등은 상대적으로 화각이 넓은 사양(spec.)의 카메라를 이용하여 전방위적 객체의 검출이 용이하도록 구성하고, 객체가 이동을 멈추는 경우, 상대적으로 고해상도를 가지며 PTZF가 가변될 수 있는 사양의 카메라를 이용하여 해당 객체에 대한 고해상도의 선명한 영상이 확보될 수 있도록 구성된다. Thus, the present invention does not use the image data that includes the object, but rather uses a camera having a relatively wide angle of view for detecting and tracking the object by binarizing the camera device, thereby detecting the omni-directional object When the object stops moving, a high resolution clear image can be obtained for the object by using a camera having a relatively high resolution and a variable PTZF.

상술된 바와 같은 프로세싱을 통하여 객체의 근거리 영상 데이터가 본 발명의 입력부(300)를 통하여 입력되면 본 발명의 얼굴정보검출부(400)는 전송된 근거리 영상 데이터에서 얼굴영역정보를 검출한다(S660).When the local image data of the object is input through the input unit 300 through the processing as described above, the face information detection unit 400 of the present invention detects the face region information in the transmitted local image data at step S660.

얼굴영역정보를 검출하는 방법은 알려진 다양한 방법이 적용될 수 있다. 그러나 단순히 하나의 검출 알고리즘을 선택적으로 사용하는 경우 특정 환경에 제한되는 등의 문제점에 의하여 얼굴영역정보를 검출하는 신뢰성이 저하될 수 있다.Various known methods can be applied to the method of detecting face area information. However, when a single detection algorithm is selectively used, the reliability of detecting face area information may be degraded due to problems such as being limited to a specific environment.

본 발명은 이러한 문제점을 해소하고 실외 환경에 더욱 높은 적응성 내지 범용성을 가지도록 구현된다. 이를 위하여 본 발명의 얼굴정보검출부(400)는 도 2에 도시된 바와 같이 얼굴정보검출부(400)는 제1검출부(410), 제2검출부(420) 및 검출연산부(430)를 포함하여 구성될 수 있다.The present invention overcomes such a problem and is implemented to have higher adaptability and versatility in an outdoor environment. 2, the face information detection unit 400 includes a first detection unit 410, a second detection unit 420, and a detection calculation unit 430 .

구체적으로 입력부(300)를 통하여 근거리 영상 데이터가 수신되면 본 발명의 제1검출부(410)는 근거리 영상 데이터를 대상으로 하르(haar) 특징 기반의 얼굴영역 검출 알고리즘을 적용하여 제1얼굴영역정보를 검출한다(S661).Specifically, when the near vision image data is received through the input unit 300, the first detection unit 410 of the present invention applies the face area detection algorithm based on the haar feature to the near vision image data, (S661).

또한, 이와는 병행적으로 본 발명의 제2검출부(420)는 근거리 영상 데이터를 대상으로 스킬 컬러 기반의 얼굴영역 검출 알고리즘을 적용하여 제2얼굴영역정보를 검출한다(S662).In parallel with this, the second detection unit 420 of the present invention detects the second face area information by applying the skill color based face area detection algorithm to the near vision image data (S662).

제1얼굴영역정보 및 제2얼굴영영정보 각각이 검출되면, 본 발명의 검출연산부(430)는 이들 제1 및 2얼굴영역정보를 이용하여 하이브리드 영역을 생성하고 이 하이브리드 영역을 대상으로 얼굴영역정보를 생성한다(S663).When the first face area information and the second face area information are detected, the detection operation unit 430 of the present invention generates a hybrid area using the first and second face area information, and the face area information (S663).

이와 같이 얼굴영역정보가 검출 내지 추출되면, 본 발명의 특징정보생성부(500)는 검출된 얼굴영역정보를 파싱(parsing)하여 객체의 성별, 나이 또는 얼굴에 착용된 사물(착용사물), 안면식별정보를 포함하는 특징정보를 생성한다(S670).When the face area information is detected or extracted, the feature information generating unit 500 of the present invention parses the detected face area information to determine the sex, age or face of the object (wearing object) And generates characteristic information including identification information (S670).

객체의 성별에 대한 판단 프로세싱은 얼굴영역정보에서 얼굴 영역과 머리카락 영역을 다시 세분화하여 구분하고 세분화된 머리카락 영역과 얼굴 영역의 세로비를 비교하여 성별을 인식하는 방법으로 구현될 수 있으며 이러한 방법을 통하여 상기 객체의 성별에 대한 특징정보를 생성한다.Gender discrimination processing of the object can be realized by dividing the facial region and the hair region again in the face region information, and comparing the height ratio of the divided hair region and the face region, thereby recognizing the sex. And generates characteristic information on the sex of the object.

또한, 본 발명의 특징정보생성부(500)는 아래 표 1과 같이 얼굴영역정보에서 얼굴 신체 기관인 눈(eye), 코(nose), 또는 입(mouth) 영역을 순차적 내지 병행적으로 탐지하고, 얼굴 신체 기관 중 탐지된 기관과 탐지되지 않는 기관을 조합적으로 적용하여 해당 객체가 착용한 착용도구 정보를 생성(S670)할 수 있다. The characteristic information generating unit 500 of the present invention sequentially or concurrently detects an eye, a nose, or an mouth area, which is a facial body organ, from facial area information as shown in Table 1 below, The organ of the facial organs detected and the undetected organs can be applied in combination to generate the wearing tool information worn by the object (S670).

나아가, 눈의 검출(탐색/탐지) 여부 및 눈 주변 영역의 픽셀 특성을 조합적으로 이용하여 눈 주위에 신체 기관(눈) 이외의 다른 오브젝트(object)가 검출되는지 여부를 판단하는 방법을 통하여 객체가 착용한 도구가 선글라스인지 안경인지도 구분할 수 있도록 구성할 수 있다.Further, by determining whether or not an object other than the body organs (eye) is detected around the eye by using combination of the detection (search / detection) of the eye and the pixel characteristic of the area around the eye, Can be configured to distinguish between sunglasses and glasses.

Figure 112017086344928-pat00001
Figure 112017086344928-pat00001

또한, 본 발명의 특징정보생성부(500)는 해당 객체의 연령대(나이) 정보를 생성할 수 있다. In addition, the feature information generating unit 500 of the present invention can generate age information of the object.

구체적으로 본 발명의 특징정보생성부(500)는 도 5에 도시된 바와 같이 얼굴영역정보가 입력되면(S500) 입력된 얼굴영역정보를 대상으로 영상 크기/밝기 정규화 프로세싱, 영상 중심을 일치시키는 프로세싱, LBP(Local Binary Pattern) 변환 프로세싱 등과 같은 전처리 프로세싱을 수행한다(S510).5, when the face area information is input (S500), the feature information generating unit 500 performs image size / brightness normalization processing on the inputted face area information, processing for matching the center of the image , LBP (Local Binary Pattern) conversion processing, and the like (S510).

이와 같은 프로세싱을 통하여 얼굴영역정보 중 눈, 코, 입 영역 이외의 영역(양볼, 이마 또는 목 부위 등)에 대한 각 픽셀 값들의 히스토그램 데이터를 이용하여 이 영역에 존재하는 홈부라인 즉, 피부 주름 라인의 크기 또는 깊이에 대한 질감 데이터를 생성한다(S520)Through such processing, histogram data of the pixel values of the area other than the eye, nose, and mouth areas (such as the forehead, the forehead, or the neck) Texture data on the size or depth of the line is generated (S520)

이 질감 데이터는 양볼, 이마 또는 목 부위의 주름살을 표상하는 홈부라인의 깊이, 크기 등에 대한 분포 데이터를 의미하는 것으로서 이 질감 데이터를 각 연령대별로 기 DB화된 기준 질감 데이터와 매칭하는 프로세싱을 수행함으로써(S530), 해당 객체의 연령대(나이) 정보를 추정하여 생성할 수 있다(S540, S670).This texture data means distribution data on the depth, size, and the like of the groove line representing the wrinkles on the forehead, forehead or neck, and performs processing for matching the texture data with reference texture data DB S530), and may generate the age (age) information of the corresponding object (S540, S670).

더욱 바람직하게 본 발명의 감시시스템(1000)은 특징정보추출부(600)와 회전정보생성부(700)를 더 포함할 수 있으며, 이들 구성의 프로세싱을 통하여 얼굴영역정보의 얼굴(face)의 회전 방향 또는/ 및 회전각도정보를 추가적으로 생성하여 활용할 수 있다.More preferably, the monitoring system 1000 of the present invention may further include a feature information extracting unit 600 and a rotation information generating unit 700. The rotation of the face of the face region information through the processing of these configurations Direction and / or rotation angle information may be additionally generated and utilized.

구체적으로 본 발명의 특징정보추출부(600)는 입력된 얼굴영역정보에서 코, 입 및 눈(양 눈)의 영역을 추출하고 회전정보생성부(700)는 추출된 각 영역의 무게 중심점 좌표를 설정한다. 코의 무게중심점을 기준으로 좌측 눈, 우측 눈 및 입을 연결하는 선분을 가정하면 이들 선분은 Y 형상을 취하게 된다. Specifically, the feature information extracting unit 600 of the present invention extracts regions of the nose, mouth, and eyes (both eyes) from the inputted face region information, and the rotation information generating unit 700 extracts coordinates of the center of gravity of the extracted regions Setting. Assuming the line connecting the left eye, the right eye, and the mouth with respect to the center of gravity of the nose, these segments will assume a Y shape.

그 후 코의 무게중심점 좌표를 기준으로 입, 좌측 눈, 우측 눈 각각의 이격 거리를 연산한다. 이와 같이 코와 좌측 눈 사이의 거리(D1), 코와 우측 눈 사이의 거리(D2), 코와 입 사이의 거리(D3)가 연산되면 아래와 같이 이들 각 거리의 상관관계에 의하여 얼굴의 회전 방향과 그 회전각의 크기 정보를 추정할 수 있게 된다.Then, the separation distance between the mouth, the left eye, and the right eye is calculated based on the coordinates of the center of gravity of the nose. As described above, when the distance D1 between the nose and the left eye, the distance D2 between the nose and the right eye, and the distance D3 between the nose and mouth are calculated, And the size information of the rotation angle can be estimated.

Figure 112017086344928-pat00002
Figure 112017086344928-pat00002

이와 같이 회전 방향 또는 회전 각도 정보가 생성되면 본 발명의 특징정보생성부(500)는 상기 얼굴의 회전 방향 및 회전 각도에 대한 정보를 더 포함하여 객체에 대한 특징정보를 생성할 수 있게 된다.When the rotation direction or rotation angle information is generated as described above, the feature information generation unit 500 of the present invention can generate the feature information on the object by further including information about the rotation direction and the rotation angle of the face.

또한, 이와 같이 본 발명의 회전정보생성부(700)에 의하여 객체에 대한 얼굴의 회전 방향 및 회전각도 정보가 생성되면 본 발명의 영상복원부(800)는 이 회전 방향 및 회전각도에 대응되는 만큼 반대편 영상 영역을 대칭적으로 적용하여 입력된 얼굴영역정보를, 정면을 기준으로 한 복원얼굴영역정보를 생성한다.When the rotation direction information and the rotation angle information of the face are generated by the rotation information generation unit 700 of the present invention, the image restoration unit 800 of the present invention generates the rotation direction and rotation angle information corresponding to the rotation direction and the rotation angle The opposite face image region is symmetrically applied to generate the input face region information and the restored face region information based on the front face.

이와 같이 본 발명의 영상복원부(800)가 복원얼굴영역정보를 생성하면 본 발명의 특징정보생성부(500)는 이 복원얼굴영역정보를 이용하여 객체의 특징정보를 생성할 수 있다.When the image reconstruction unit 800 of the present invention generates restored face region information, the feature information generation unit 500 of the present invention can generate feature information of the object using the restored face region information.

본 발명의 감시시스템(1000)은 도 1에 도시된 바와 같이 좌표설정부(810), 물체영역생성부(820) 및 물체정보생성부(830)를 더 포함하여 구성될 수 있다. The monitoring system 1000 of the present invention may further include a coordinate setting unit 810, an object zone generating unit 820 and an object information generating unit 830 as shown in FIG.

본 발명의 상기 좌표설정부(801)는 검지카메라(50) 또는 추적카메라(70)으로부터 영상데이터(도 16의 (a))가 입력되면(S800) 입력된 영상데이터에서 배경 영상을 생성한 후 생성된 배경 영상을 활용하여 입력된 영상데이터에서 배경 영상과 전경 영상을 분리한다(S805). The coordinate setting unit 801 of the present invention generates a background image from the input image data when the image data (FIG. 16A) is inputted from the detection camera 50 or the tracking camera 70 (S800) The generated background image is used to separate the background image and the foreground image from the input image data (S805).

전경 영상이 분리되면 분리된 전경 영상에 객체가 포함되어 있는지 검지한 후, 전경 영상에 객체가 검지되면(도 16의 (b)) 검지된 객체의 MER를 추출하고 추출된 MER의 너비(width), 높이(height), 중심점 좌표(a, b), 밀도정보(전체 너비 대비 객체의 구성화소수 함의(含意) 비율), 너비/높이 비율정보 등을 포함하는 특징정보를 연산한다(S810).When the foreground image is separated, it is detected whether or not the object is included in the separated foreground image. When the object is detected in the foreground image (FIG. 16B), the MER of the detected object is extracted, The feature information including height, center point coordinates (a, b), density information (implication ratio of the number of constituent pixels of the object with respect to the entire width), width / height ratio information, and the like are calculated (S810).

이러한 특징정보를 이용하여 추출된 MER에 해당하는 객체를 사람, 차량 또는 기타 등으로 구분한다.An object corresponding to the extracted MER is classified into a person, a vehicle, or the like by using the feature information.

추출된 MER에 해당하는 객체가 사람(휴먼 객체)인 경우 본 발명의 좌표설정부(810)는 추출된 휴먼 객체의 MER영역을 머리, 가슴, 하체 및 다리 영역으로 구분한다(S815)(도 16의 (c)). When the object corresponding to the extracted MER is human (human object), the coordinate setting unit 810 of the present invention divides the MER area of the extracted human object into head, chest, lower body and leg area (S815) (C) of FIG.

직립해 있는 사람을 기준으로 할 때, 머리, 가슴, 하체 및 다리는 특정 범위의 비율을 가지게 되므로 이러한 특정 범위의 비율을 이용하여 휴먼 객체의 MER 영역을 4가지 영역으로 구분할 수 있게 된다. 예를 들어 사람의 상체와 하체의 신체 비율은 1:1.618의 비율로 나타낼 수 있으며, 대응되는 관점에서 머리, 가슴, 하체 및 다리는 각각 25/13, 40/13, 64/13, 40/13로 나타낼 수 있다. Since the head, the chest, the lower body, and the leg have a certain range of ratios based on the upright person, the MER area of the human object can be divided into four areas using the ratio of this specific range. For example, the ratio of the upper body to the lower body of a human being can be represented by a ratio of 1: 1.618, and in the corresponding view, the head, the chest, the lower body and the leg are 25/13, 40/13, 64/13, 40/13 .

이와 같이 4가지 영역으로 구분된 영역인 관심영역(ROI, Region of Interest)이 생성되면 각 관심영역을 대상으로 거리변환 알고리즘을 적용한다(S820). When the ROI (Region of Interest) is generated, the ROI is applied to each ROI (S820).

거리변환 알고리즘은 현재의 픽셀로부터 값이 0인 픽셀까지의 가장 가까운 거리를 갖는 행렬을 의미하며, 도 16의 (d)에 도시된 바와 같이 예를 들어 손 영역을 대상으로 거리변환 알고리즘을 적용하면, 각 픽셀별 크기값(밝기값)이 차등적인 영상이 생성되고 이 중 최대 크기값(밝기값)을 가지는 좌표가 손 영역의 중심 좌표로 설정될 수 있다.The distance conversion algorithm is a matrix having a closest distance from a current pixel to a pixel having a value of 0. As shown in FIG. 16 (d), for example, when a distance conversion algorithm is applied to a hand area , An image in which the size value (brightness value) of each pixel is different is generated, and the coordinate having the maximum size value (brightness value) may be set as the center coordinate of the hand region.

본 발명의 좌표설정부(810)는 이와 같이 각 관심영역을 대상으로 거리 변환 알고리즘을 적용한 결과 데이터에서 최대 밝기값을 가지는 좌표를 각 신체 부위의 중심으로 표상할 수 있는 스켈레톤(skeleton) 좌표를 설정한다(S825). 도 16의 (e)에서 각 신체부위의 중심점을 표상하는 포인트들(points)이 바로 스켈레톤 좌표에 해당한다.The coordinate setting unit 810 of the present invention sets a skeleton coordinate which can represent the coordinates having the maximum brightness value as the center of each body part in the resultant data obtained by applying the distance transformation algorithm to each ROI (S825). In FIG. 16 (e), points representing the center point of each body part correspond directly to the skeleton coordinates.

이와 같이 스켈레톤 좌표가 생성되면 본 발명의 물체영역생성부(820)는 스켈레톤 좌표와 일반적인 사람의 뼈 구조를 바탕으로 손의 위치를 추정하고(S830) 추정된 손의 위치와 매핑되는 스켈레톤 좌표를 중심으로 하는ROI영역(손주변 영역)을 지정한다(S835)(도 16의 (e)에서 붉은 색상으로 표기된 영역).When the skeleton coordinates are generated as described above, the object region generating unit 820 of the present invention estimates the position of the hand based on the skeleton coordinates and the general bone structure of a person (S830), and sets the skeleton coordinates mapped with the estimated hand position (Area around the hand) (S835) (area indicated by a red color in (e) of Fig. 16).

그 후 본 발명의 물체영역생성부(820)는 상기 지정된 손 주변 영역을 대상으로 Canny 연산, Sobel 연산 등을 적용하여 해당 영역의 외곽선(에지. edge)을 검출한다(S840)(도 16의 (f)).Then, the object region generating unit 820 of the present invention detects an outline (edge) of the corresponding region by applying a Canny operation, a Sobel operation, or the like to the designated hand peripheral region (S840) f)).

스켈레톤 좌표의 중심 색상은 통상적으로 사람의 피부 색상을 포함할 수 있으므로 이 정보를 이용하여 상기 손주변 영역에서 손 자체의 영역을 제외할 수 있고 이렇게 손 주변 영역에서 손 자체의 영역이 제외되면 손 주변 영역의 외곽선(에지) 정보를 바탕으로 손에 든 물체영역이 생성될 수 있게 된다(S845)(도 16의 (g)의 상부그림).Since the center color of the skeleton coordinates may typically include the skin color of a person, this information can be used to exclude the area of the hand itself from the area around the hand, The object region in the hand can be generated based on the information of the outline (edge) of the area (S845) (the upper portion of Fig. 16 (g)).

이와 같이 물체 영역이 생성되면 본 발명의 물체정보생성부(830)는 물체 영역의 에지정보, 색상, 지역 패턴 등의 특징정보와 물체를 판단하는 기준 특징정보를 대비하는 프로세싱을 수행하여(S850)(도 16의 (g)참조) 상기 물체 영역에 포함된 물체 정보를 생성한다(S855).When the object region is generated as described above, the object information generating unit 830 of the present invention performs processing for comparing feature information such as edge information, color, and local pattern of the object region with reference feature information for determining the object (S850) (See FIG. 16 (g)), object information included in the object zone is generated (S855).

이하에서는 첨부된 도 6 내지 도 8 등을 참조하여 객체 검지, 객체 추적 및 객체의 행동패턴정보 생성 등을 수행하는 본 발명의 객체정보생성부(100)에 대한 구성과 프로세싱을 상세히 설명하도록 한다. 도 6은 도 1에 도시된 본 발명(1000)의 객체정보 생성부(100)에 대한 상세 구성을 도시한 블록도이며, 도 8 및 도 9는 본 발명의 바람직한 실시예에 의한 객체 검지에 대한 상세 프로세싱 과정을 도시한 흐름도이다. Hereinafter, the configuration and processing of the object information generation unit 100 of the present invention for performing object detection, object tracking, and behavior pattern information generation of objects, etc. will be described in detail with reference to FIGS. 6 to 8 attached hereto. FIG. 6 is a block diagram showing a detailed configuration of the object information generating unit 100 of the present invention 1000 shown in FIG. 1. FIG. 8 and FIG. 9 are diagrams for explaining the object detecting method according to a preferred embodiment of the present invention. Fig. 3 is a flowchart showing a detailed processing procedure. Fig.

도 6에 도시된 바와 같이 본 발명의 감시시스템(1000)의 일 구성을 이루는 객체정보생성부(100)는 수신부(110), 제1검지부(130), 제2검지부(140), 검지판단부(150), 트래킹부(170) 및 행동패턴결정부(190)를 포함하여 구성될 수 있다.6, the object information generating unit 100 includes a receiving unit 110, a first detecting unit 130, a second detecting unit 140, a detection determining unit 140, (150), a tracking unit (170), and a behavior pattern determination unit (190).

우선 본 발명의 수신부(110)는 도 6에 도시된 바와 같이 n개의 검지카메라(50-1, 50-2, ...... , 50-n)로부터 각 검지카메라(50)가 촬영한 영상 데이터를 유선 또는 무선 통신 네트워크를 통하여 수신한다(S400). First, as shown in FIG. 6, the receiving unit 110 of the present invention is a receiving unit 110 that receives signals from n detection cameras 50-1, 50-2, ..., 50- The video data is received through a wired or wireless communication network (S400).

객체정보생성부(100)는 객체 자체의 검지 및 추적에 포커싱되어 있으므로 상기 검지카메라(50)는 국지영역의 영상이 촬영되는 일종의 줌 카메라보다는 원거리의 영역이 촬영될 수 있도록 화각(view angle)이 넓은 카메라가 적합할 수 있으며 또한, 전방위 영역의 영상이 촬영될 수 있도록 검지카메라(50)는 각 방향별 영상을 생성하는 복수 개로 구현되는 것이 바람직하다.Since the object information generating unit 100 is focused on the detection and tracking of the object itself, the detection camera 50 can detect a view angle such that a remote area can be photographed rather than a kind of zoom camera, It is preferable that a wide camera is suitable and that the detection camera 50 is implemented as a plurality of images for each direction so that the image of the omnidirectional region can be captured.

실시형태에 따라서 전방위 영역이 아닌 단일 또는 특정 방향을 커버하는 복수 개 카메라가 생성하는 특정 영역의 영상데이터가 이용될 수 있음은 물론이다.It is needless to say that image data of a specific area generated by a plurality of cameras covering a single or specific direction other than the omnidirectional area may be used according to the embodiment.

이와 같이 검지카메라(50)가 영상데이터를 전송하면 본 발명의 제1검지부(130)는 상기 전송된 영상데이터를 대상으로 외부 환경 노이즈에 강인한 차분 영상 검지 알고리즘을 적용하여 영상 데이터 내 객체(object)를 검하고 검지된 객체의 제1후보MER정보를 생성한다(S420).If the sensing camera 50 transmits the image data in this way, the first sensing unit 130 of the present invention applies the differential image sensing algorithm robust to the external environmental noise to the transmitted image data, And generates first candidate MER information of the detected object (S420).

본 발명의 제2검지부(140)는 제1검지부(130)의 프로세싱과는 독립적으로 상기 전송된 영상 데이터를 대상으로 옵티컬 플로우(Optical flow) 알고리즘을 적용하여 객체를 검지하고 검지된 객체에 대한 제2후보MER정보를 생성한다(S430).The second detection unit 140 detects an object by applying an optical flow algorithm to the transmitted image data independently of the processing of the first detection unit 130, 2 candidate MER information (S430).

앞서 언급된 바와 같이 MER정보는 객체가 포함되는 최소 사각 영역에 대한 정보로서, 너비(width), 높이(height), 중심점 좌표(a, b), 밀도정보(전체 너비 대비 객체의 구성화소수 함의(含意) 비율), 너비/높이 비율정보 등으로 이루어진 데이터 셋(set)을 의미한다.As mentioned above, the MER information is information on the minimum rectangular area in which the object is included, and includes width, height, center point coordinates (a, b), density information (Implication) ratio), width / height ratio information, and the like.

하나의 영상 데이터에 객체가 복수 개로 존재할 수 있음은 물론이며, 각 알고리즘마다 영상 데이터에서 객체로 추정되는 대상이 복수 개 존재할 수 있으므로 상기 제1후보MER정보 또는 제2후보MER정보 각각은 복수 개의 MER에 대한 정보들에 관한 데이터 셋들의 집합체일 수 있다.Since there may be a plurality of objects in one image data and a plurality of objects estimated as objects in the image data may exist for each algorithm, the first candidate MER information or the second candidate MER information may include a plurality of MERs Lt; / RTI > may be a collection of datasets related to information about < RTI ID = 0.0 >

이 때, 더욱 확대된 영역에서 객체를 더욱 효과적으로 검출하기 위하여 복수 개의 검지카메라(50)로부터 복수 개의 영상데이터가 입력되는 경우 본 발명의 전경영상부(120)는 입력된 복수 개의 영상 데이터를 머징(merging)하여 파노라마(panorama) 영상 데이터를 생성(S405)하도록 구성될 수 있다.In this case, when a plurality of image data are input from the plurality of detection cameras 50 in order to more effectively detect an object in a further enlarged area, the foreground image unit 120 of the present invention merges merged to generate panorama image data (S405).

나아가 앞서 기술된 바와 같이 영상처리의 효율성을 높이기 위하여 카메라(50)가 생성한 영상데이터 중 객체가 이동할 수 있는 영역 즉 객체 검지가 가능한 영역을 고려하여 영상데이터를 축소시키는 프로세싱(S410)이 추가적으로 수행될 수 있다.In order to improve the efficiency of the image processing as described above, the image data generated by the camera 50 may be moved (S410) to reduce the image data in consideration of the area where the object can move .

이와 같이 파노라마 영상 데이터가 생성되면 본 발명의 제1검지부(130) 및 제2검지부(140)는 상기 파노라마 영상 데이터를 대상으로 각각 제1 및 제2후보MER정보를 생성한다.When the panoramic image data is generated as described above, the first detection unit 130 and the second detection unit 140 of the present invention generate first and second candidate MER information for the panorama image data, respectively.

객체를 검지하는 알고리즘은 그 방법의 차이에 따라 크게 (1) 영상들 사이의 관계를 이용하는 영상 차분 알고리즘 (2) 이전영상과 현재영상 사이의 optical flow 속도 벡터를 연산하여 이용하는 옵티컬 플로우 알고리즘 (3) 특징점 정보를 이용하거나 또는 설정된 탐색 영역 내 화소 간의 방향 패턴을 비교하는 방법 등과 같이 검지를 위한 모델을 생성하고 활용하는 모델정합방법으로 구분할 수 있다.(2) an optical flow algorithm that computes an optical flow velocity vector between a previous image and a current image, and (3) And a method of using a minutiae point information or a method of comparing a direction pattern between pixels in a set search area, and a model matching method of generating and utilizing a model for detection.

영상 차분 알고리즘은 배경 영상 차분 알고리즘, 이전 영상 차분 알고리즘 또는 외부환경의 노이즈 변화에 적응적 배경 영상 차분 알고리즘으로 세분화될 수 있으며, 옵티컬 플로우 알고리즘은 혼 앤 청크(horn & Schunk) 알고리즘, 블록 매칭(Block Matching) 알고리즘, 루카스 앤 카나드(Lucas & Kanade) 알고리즘 또는 피라미드 루카스 앤 카나드(Pyramid Lucas & Kanade) 알고리즘으로 세분화될 수 있다.The image difference algorithm can be subdivided into a background image difference algorithm, a previous image difference algorithm, or an adaptive background image difference algorithm to the noise change of the external environment. The optical flow algorithm includes a horn & Schunk algorithm, a block matching Matching algorithm, the Lucas & Kanade algorithm, or the Pyramid Lucas & Kanade algorithm.

모델정합방법은 쉬프트(Shift) 알고리즘, 서프(Surf) 알고리즘 또는 호그(HOG, Histogram of Oriented Gradient) 알고리즘으로 세분화될 수 있다.The model matching method can be subdivided into a shift algorithm, a Surf algorithm, or a Histogram (Hogg of Oriented Gradient) algorithm.

이들 방법들은 각각 특화된 환경과 파라미터에 최적화되도록 설계되어 있어 하드웨어 리소스 사용량, 연산 속도, 논리구현 용이성, 노이즈 제거 성능, 급격한 환경 변화 적응성, 정지객체/동적객체 검지 가능성, 카메라 자체가 이동하는 경우, 구름에 의한 갑작스런 해가림 현상, 조명환경의 급격한 변화, 그림자 영향 등에 따라 각 방법들은 검지 성능의 편차가 상당히 크게 작용되고 있다.These methods are designed to be optimized for each specific environment and parameters, and thus can be used for various purposes such as hardware resource usage, computation speed, ease of logic implementation, noise removal performance, rapid environmental change adaptability, , There is a considerable variation in the detection performance of each method depending on the sudden change of the illumination environment, the sudden change of the illumination environment, and the shadow effect.

본 발명은 이러한 종래 검지 기법의 단점과 장점이 최적화될 수 있도록 검지 알고리즘을 하이브리드화하여 구성하고 상호 유기적으로 결합되도록 구성함으로써 검지 효율성을 극대화할 수 있도록 구성된다.The present invention is configured to maximize detection efficiency by configuring the detection algorithms to be hybridized so as to optimize the disadvantages and advantages of such conventional detection techniques and to organically combine them.

이를 위하여 본 발명의 상기 제1검지부(130)와 제2검지부(140)는 서로 다른 범주에 해당하는 검지 알고리즘을 각각 적용하도록 구성되는데, 우선 객체 검출의 가능성을 높이기 위하여 일차적으로 차분 영상 검지 알고리즘 즉, 외부 환경 노이즈에 강인한 차분 영상 검지 알고리즘을 이용한 제1후보MER정보와 옵티컬 플로우 알고리즘을 이용한 제2후보MER정보를 각각 생성하도록 구성된다.For this purpose, the first and second detection units 130 and 140 of the present invention are adapted to apply detection algorithms corresponding to different categories, respectively. First, in order to increase the probability of object detection, a difference image detection algorithm And generate first candidate MER information using a difference image detection algorithm robust against external environment noise and second candidate MER information using an optical flow algorithm, respectively.

구체적으로 본 발명의 제1검지부(130)는 일정시간 동안 누적된 통계적 영상을 이용하여 매 프레임마다 배경 영상을 갱신/생성하는 프로세싱(S421)을 수행한 후, 갱신/생성되는 배경 영상과 현재 영상을 차분하는 프로세싱(S423)을 통하여 하나 이상의 제1후보MER정보를 생성한다(S425).Specifically, the first detection unit 130 of the present invention performs processing S421 of updating / generating a background image every frame using statistical images accumulated for a predetermined time, And generates at least one first candidate MER information through processing (S423).

본 발명의 제2검지부(140)는 카메라와 객체의 상대적인 움직임에 의하여 발생되는 차이에 기반하여 두 영상(이전 영상과 현재 영상) 사이의 옵티컬 플로우(Optical flow) 속도 벡터를 계산한다. The second detection unit 140 calculates an optical flow velocity vector between the two images (the previous image and the current image) based on the difference caused by the relative movement of the camera and the object.

구체적으로 본 발명의 제2검지부(140)는 영상 차분 알고리즘과 구분되는 옵티컬 플로우 알고리즘을 프로세싱하여 객체를 검지하되, 객체 검지의 확률과 효율성을 향상시키기 위하여 옵티컬 플로우 알고리즘 중 스케일에 따른 영상 피라미드를 구성하고 윈도우 정합 방법으로 이전 영상과 현재 영상 사이의 Optical flow 속도 벡터를 연산하는 알고리즘인 피라미드 루카스 앤 카나드 알고리즘을 프로세싱하고(S431) 이를 이용하여 하나 이상의 제2후보MER정보를 생성하도록(S433) 구성될 수 있다.Specifically, the second detection unit 140 detects an object by processing an optical flow algorithm distinguished from the image difference algorithm. In order to improve the probability and efficiency of object detection, the second detection unit 140 constructs an image pyramid according to the scale of the optical flow algorithm A pyramid Lucas and Canard algorithm, which is an algorithm for calculating an optical flow velocity vector between a previous image and a current image, is processed (S431) and one or more second candidate MER information is generated using the window matching method (S433) .

이와 같이 서로 다른 즉, 이원화된 알고리즘을 적용하여 일차적으로 제1후보MER정보 및 제2후보MER정보가 생성되면, 본 발명의 검지판단부(150)는 상기 제1 및 제2후보MER정보를 대상으로 객체 추적에 대한 제3의 알고리즘인 호그 알고리즘을 적용하여 객체의 최종MER정보를 생성한다(S440).When the first candidate MER information and the second candidate MER information are generated by applying the different or biased algorithm in this way, the detection determination unit 150 of the present invention determines the first candidate MER information and the second candidate MER information The final MER information of the object is generated by applying a hog algorithm, which is a third algorithm for object tracking (S440).

구체적으로 본 발명의 검지판단부(150)는 상기 제1후보MER정보에 속하는 하나 이상의 MER정보들과 제2후보MER정보에 속하는 하나 이상의 MER정보들 중 상호 위치적으로 대응되는 즉, 상호 위치적 편차가 기준 편차가 보다 낮은 MER정보를 선별하고 이 선별된 MER정보로만 이루어진 하이브리드 영역을 산출한다(S441).Specifically, the detection determination unit 150 of the present invention determines whether or not one or more MER information items belonging to the first candidate MER information item and one or more MER information items belonging to the second candidate MER information item are mutually positioned The MER information having a lower deviation of the reference deviation is selected and a hybrid area composed of only the selected MER information is calculated (S441).

이와 같이 하이브리드 영역이 산출되면 본 발명의 검지판단부(150)는 이 하이브리드 영역을 대상으로 호그(HOG) 알고리즘 프로세싱을 수행하여(S443) 객체의 최종MER정보를 생성한다(S445).When the hybrid region is calculated as described above, the detection determination unit 150 of the present invention performs HOG algorithm processing on the hybrid region (S443) and generates final MER information of the object (S445).

호그 연산은 도 12에 도시된 바와 같이 영상을 블록(Block)으로 분할하고 다시 블록을 셀(Cell)로 분할한 후, 각 셀의 특징 벡터에 대한 히스토그램을 사용하는 방법으로서 탐색영역을 이동시키며 탐색영역 안의 화소 간의 방향 패턴을 계산하여 객체를 검지하는 방법이므로 이와 같이 탐색 영역이 하이브리드 영역으로 한정됨으로써 연산 효율성을 더욱 향상시킬 수 있게 된다.12, a hog operation is performed by dividing an image into blocks, dividing a block into cells, and then using a histogram of feature vectors of each cell, Since the method of detecting an object by calculating a direction pattern between pixels in the area, the search area is limited to the hybrid area, and the calculation efficiency can be further improved.

이와 같이 최종MER정보가 생성되면 해당 최종 MER의 특성(너비, 높이, 중심점 좌표, 밀도, 너비/높이 비율 등)을 미리 정해진 특성 정보와 대비하여 객체에 대한 최종MER정보가 휴먼(human)객체인지 판단하고(S450), 그 결과에 따라 최종MER에 해당하는 객체를 사람(S460) 또는 다른 특정물(차량, 동물, 가방 등)로 분류한다(S470).When the final MER information is generated, the final MER information about the object is compared with the predetermined characteristic information (width, height, center point coordinate, density, width / height ratio, etc.) (S450). The object corresponding to the final MER is classified into a person (S460) or another specific object (vehicle, animal, bag, etc.) according to the result (S470).

외부 환경에 의한 노이즈를 더욱 효과적으로 필터링하여 객체 검지의 신뢰성을 더욱 향상시키기 위하여 실시형태에 따라서, 도 9에 도시된 바와 같이 본 발명의 제2검지부(140)는 외부 환경 노이즈 요인을 판단하고(S431) 발생된 외부 환경 노이즈가 검지 카메라의 흔들림에 의하여 발생된 것인지 여부를 판단한다(S432).In order to further improve the reliability of object detection by more effectively filtering the noise due to the external environment, the second detection unit 140 of the present invention determines an external environmental noise factor as shown in FIG. 9 according to the embodiment (S431 It is determined whether the generated external environmental noise is caused by the shaking of the detection camera (S432).

검지 카메라 자체의 흔들림 등이 발생되는 경우 차분 영상 검지 알고리즘은 정확한 MER정보를 생성하기가 상대적으로 어려우므로 이 경우에는 객체의 제1후보MER정보와 객체의 제2후보MER정보 중 검지 카메라의 흔들림에 의한 영향이 상대적으로 적은 옵티컬 플로우 알고리즘에 의하여 생성된 제2후보MER정보만을 대상으로 후보 영영이 산출(S434)되도록 구성하는 것이 바람직하다. In this case, the first candidate MER information of the object and the second candidate MER information of the object are used as the difference between the detection camera shake and the second candidate MER information because the difference image detection algorithm is relatively difficult to generate accurate MER information. It is preferable that candidate candidates are calculated (S434) only for the second candidate MER information generated by the optical flow algorithm having a relatively small influence due to the influence of the second candidate MER information.

반면, 검지 카메라의 흔들림 등에 의한 외부 환경 노이즈가 아닌 경우에는 전술된 바와 같이 제1후보MER정보 및 제2후보MER정보를 대상으로 후보 영역을 산출한다(S433).On the other hand, if it is not the external environment noise due to the shaking of the detection camera or the like, the candidate region is calculated on the basis of the first candidate MER information and the second candidate MER information as described above (S433).

상술된 바와 같이 본 발명은 객체 검지를 위하여 단일의(single) 알고리즘을 사용하거나 또는 단순히 복수 개의 알고리즘을 병렬적으로 사용하는 것이 아니라 서로 다른 방법으로 구현되는 객체 검지 알고리즘을 유기적으로 그리고 계층적으로 사용함으로써, 객체 검지의 확률을 더욱 향상시킴은 물론, 연산 효율성도 높일 수 있게 된다. As described above, the present invention utilizes a single algorithm for object detection or an object detection algorithm that is implemented in a different manner, rather than simply using a plurality of algorithms in parallel, in an organic and hierarchical manner The probability of object detection can be further improved, and the computational efficiency can be increased.

이하에서는 본 발명의 객체 추적에 대한 상세 프로세싱 과정을 도시한 흐름도인 도 10을 참조하여 본 발명의 구성을 통하여 구현되는 객체 검지 프로세싱(S310)을 상세히 설명하도록 한다. Hereinafter, object detection processing (S310) implemented through the configuration of the present invention will be described in detail with reference to FIG. 10, which is a flowchart illustrating a detailed processing process of object tracking according to the present invention.

앞서 상술된 바와 같은 객체의 최종MER정보를 생성하여 객체를 검지하는 프로세싱이 완료되면, 본 발명의 트래킹부(170)는 상기 객체의 최종MER정보의 이동을 추적하여 객체의 이동에 대한 동선데이터(이동경로데이터)를 생성한다(S310).When the processing for detecting the object is completed by generating the final MER information of the object as described above, the tracking unit 170 of the present invention tracks the movement of the final MER information of the object, Movement path data) (S310).

객체를 추적하는 알고리즘은, 추적 객체의 대상 영역을 지정하고 기 지정된 영역의 색상 분포 특징에 해당하는 히스토그램을 구한 후, 연속적인 입력 영상에서 대상 영역 크기에 해당하는 영역의 히스토그램을 정합시키는 민쉬프트(Mean-Shift) 알고리즘, 고정된 크기의 탐색 윈도우를 사용함에 따라 발생되는 문제점을 해소하기 위하여 탐색 윈도우의 크기를 능동적으로 조정하여 객체를 추적하는 캠쉬프트(Cam-Shift) 알고리즘, 오차(P)가 포함된 현재 시스템 측정값(x)과 관측값(z)을 기반으로 미래 정보(x` & P`)을 예측하여 객체를 추적하는 칼만필터(Kalman-filter) 알고리즘 등이 있다. The algorithm for tracking an object is to specify a target area of the tracked object, obtain a histogram corresponding to the color distribution characteristic of the designated area, and then calculate the histogram of the area corresponding to the target area size in the continuous input image A Cam-Shift algorithm for tracking an object by actively adjusting the size of a search window to solve problems caused by using a fixed-size search window, an error (P) And a Kalman-filter algorithm for tracking the object by predicting future information (x '& P`) based on the current system measurement value (x) and observation value (z).

이들 객체 추적 알고리즘은 하드웨어 리소스, 논리 구현 용이성, 연산량 등에 따라 서로 다른 특장점을 가지고 있다고 할 수 있으나 민쉬트프 알고리즘의 경우 객체 추적 중 탐색윈도우의 크기를 조절하지 않으므로 객체의 이동 중 객체의 크기가 변화하는 경우 객체를 잃어버리게 되므로 객체 추적이 더 이상 유효하지 않게 되는 문제점이 있다.These object tracking algorithms have different characteristics according to hardware resource, easiness of logic implementation, and computation amount. However, since MinShitP algorithm does not control the size of search window during object tracking, There is a problem that object tracking is no longer valid since the object is lost.

또한, 캠쉬프트 알고리즘의 경우 탐색윈도우의 크기가 능동적으로 조절되도록 설계되어 있어 객체의 크기가 변화되는 환경에 효과적으로 적응할 수 있으나 객체의 이동 방향 또는 속도를 정확히 반영할 수 없어 객체가 기준 속도 이상 빠르게 이동하는 경우 객체를 추적할 수 없다는 문제점이 내포되어 있다.In the case of the camshift algorithm, the size of the search window is designed to be actively adjusted so that it can adapt to the environment where the size of the object changes. However, since the object can not accurately reflect the moving direction or speed of the object, The object can not be traced.

칼만 필터 알고리즘은 객체(물체)의 측정값에 확률적이 오차가 포함되고 또한, 물체의 특정 시점에서의 상태는 이전 시점의 상태와 선형적인 관계를 가지고 있는 경우 적용 가능하며, 이산 시간 선형 동적 시스템을 기반으로 동작하며 각 상태 벡터는 이전 시간의 벡터들에 대해서만 관계된다는 마르로프 연쇄를 가정하고 있는 알고리즘이다. The Kalman filter algorithm can be applied when there is a stochastic error in the measured value of an object (object), and when the state of the object at a certain point in time has a linear relationship with the state at the previous point of time. And each state vector is related only to the vectors of the previous time.

칼말 필터 알고리즘의 경우 측정값과 관측값을 바탕으로 미래정보를 예측하여 객체를 추적하는 방법으로서 추적 중 객체의 이동 방향 또는 속도를 반영할 수 있어 이동하는 객체의 추적이 최적화될 수 있는 특장점을 가지고 있으나, 다음 상태의 예측을 위하여 관측값이 필요하므로 이 관측값을 항상 연산하여야 하는 적용상의 곤란성이 있다고 할 수 있다.In the case of the Kalmar filter algorithm, it is a method to track the object by predicting the future information based on the measured value and the observed value, and it has the characteristic feature that tracking of the moving object can be optimized because it can reflect the moving direction or speed of the object during tracking However, since the observation value is required for the prediction of the next state, it can be said that there is a difficulty in applying the observation value always.

본 발명은 이러한 객체 추적의 알고리즘 중 상기 최종MER정보에 대한 현재 측정 데이터와 관측 데이터를 이용하여 미래 정보를 예측하는 칼만 필터 알고리즘을 기본적인 객체 추적의 알고리즘으로 사용하여 움직이는 객체를 추적하여 객체의 동선 데이터를 생성하되, 칼만 필터 알고리즘에서 다음 상태 예측을 위하여 요구되는 관측 데이터는 최종 MER정보를 대상으로 캠쉬프트 알고리즘을 적용하여 연산되도록 하고 이 과정이 순환적인 적용되도록 함으로써, 움직이는 동적 객체의 추적을 더욱 정확하고 효과적으로 수행하도록 구성된다.The present invention uses a Kalman filter algorithm for predicting future information using current measurement data and observation data for the final MER information among the object tracking algorithms as a basic object tracking algorithm to track a moving object, In the Kalman filter algorithm, the observation data required for the next state prediction is calculated by applying the cam shift algorithm to the final MER information, and the process is applied cyclically, And to perform effectively.

즉, 본 발명의 트래킹부(170)는 도 10에 도시된 바와 같이 사전 프로세싱(S500), 칼만 필터 알고리즘에 의한 프로세싱(S510)과 캠쉬트프 알고리즘에 의한 프로세싱(S550)이 상호 유기적으로 결합되며 순환되는 프로세싱을 수행하여 상기 객체의 최종 MER정보의 이동을 추적하여 상기 객체의 동선데이터를 생성한다(S310).That is, as shown in FIG. 10, the tracking unit 170 of the present invention is configured such that the pre-processing (S500), the processing by the Kalman filter algorithm (S510) and the processing by the camshit algorithm (S550) (Step S310). The movement data of the object is generated by tracking the movement of the final MER information of the object by performing the circulating processing.

구체적으로 본 발명의 트래킹부(170)는 우선, 칼만 필터 알고리즘을 수행하기 위한 칼만 필터 변수를 초기화시키고(S501), 객체의 최종MER정보에 해당하는 영역으로 설정된 기초윈도우 영역의 색상공간을 HSV 색상공간으로 변경한다(S502).Specifically, the tracking unit 170 of the present invention first initializes a Kalman filter parameter for performing a Kalman filter algorithm (S501), and sets a color space of a basic window area set as an area corresponding to the final MER information of the object as an HSV color (S502).

HSV 색상공간은 RGB색상공간, CMY 색상공간과 같이 색상을 표현하는 방법 중의 하나로서 색상(Hue), 채도(Saturation) 및 명도(value)를 기준으로 색을 표현하는 색공간 내지 색상 모델에 해당한다.The HSV color space corresponds to a color space or color model representing a color based on hue, saturation, and brightness as one of the methods of expressing colors such as an RGB color space and a CMY color space .

색상 공간의 변경 내지 변환이 완료되면 HSV의 데이터를 이용하여 기초윈도우 영역의 히스토그램을 연산한다(S503).After changing or changing the color space, the histogram of the base window area is calculated using the HSV data (S503).

이와 같이 사전 프로세싱(S500)이 완료되면 본 발명의 트래킹부(170)는 초기화된 칼만 필터의 변수들(상태벡터, 측정값, 상태 행렬, 시스템 잡음(칼말 에러), 측정 잡음(측정 에러) 등)을 이용하여 객체의 중심에 대한 상태 벡터를 예측하는 프로세싱을 수행한다(S511).When the pre-processing (S500) is completed, the tracking unit 170 of the present invention calculates the parameters (state vector, measured value, state matrix, system noise (Kalmar error), measurement noise (Step S511). In step S511, the state vector of the center of the object is predicted.

그 후 탐색윈도우를 설정하는데 이 탐색윈도우는 예측된 상태 벡터의 위치에 해당하는 중심과 기초윈도우와 동일한 너비(width)와 높이(height)를 가지도록 설정된다(S512).Thereafter, the search window is set to have the same width and height as the center and base window corresponding to the position of the predicted state vector (S512).

탐색윈도우가 설정되면 캠쉬트프 알고리즘(S550)에 의하여 탐색윈도우에서 객체의 중심을 탐색하고(S551) 객체의 중심이 탐색되면 탐색된 객체의 중심에 탐색윈도우를 위치시키고 영역을 탐색한다(S552). If the center of the object is searched, the search window is located at the center of the searched object and the region is searched (S552) .

탐색된 영역에서 연산된 히스토그램과 사전 프로세싱(S503)에서 연산된 히스토그램의 대응관계를 이용하여 탐색 대상 객체인지 여부를 판단하고(S553) 탐색대상으로 판단되는 경우(S554) 연산된 히스토그램의 결과값을 이용하여 객체의 회전각도 및 중심좌표를 연산한다(S555). If it is determined that the object to be searched is the object to be searched using the correspondence between the histogram calculated in the searched region and the histogram calculated in the pre-processing (S503) (S553), the result of the calculated histogram The rotation angle and the center coordinates of the object are calculated (S555).

이와 같이 연산된 객체의 회전각도 및 중심좌표 정보는 칼만 필터에서 미래 정보의 예측을 위하여 사용되는 관측값으로 활용된다.The rotation angle and center coordinate information of the calculated object are used as observation values used for prediction of future information in the Kalman filter.

본 발명의 트래킹부(170)는 이와 같이 객체의 회전각도 및 중심좌표 정보(관측값 정보)가 연산되면 연산된 회전각도 및 중심좌표 정보를 이용하여 상태벡터를 갱신한다(S513).When the rotation angle of the object and the center coordinate information (observation value information) are calculated as described above, the tracking unit 170 of the present invention updates the state vector using the calculated rotation angle and center coordinate information (S513).

상태벡터가 갱신되면 칼만 필터 알고리즘의 컨트롤 벡터(객체 속도)가 연산되며(S514) 다시 칼만 필터 알고리즘의 초기 단계로 회귀하여 전술된 상태 백터 예측 단계(S511)가 순환적으로 적용된다. When the state vector is updated, the control vector (object rate) of the Kalman filter algorithm is calculated (S514) and returns to the initial stage of the Kalman filter algorithm to apply the above described state vector prediction step (S511) cyclically.

이와 같이 본 발명은 객체의 추적을 위한 알고리즘으로 단일의 알고리즘을 사용하는 것이 아니라 칼만 필터 알고리즘과 캠쉬트트 알고리즘이 상호 유기적으로 결합되도록 구성하여 객체 추적 알고리즘의 단점을 보완함으로써 객체 추적의 신뢰성을 더욱 향상시킬 수 있게 된다. As described above, according to the present invention, not only a single algorithm is used as an algorithm for tracking an object but a Kalman filter algorithm and a camshit algorithm are combined so as to be organically combined, thereby improving the reliability of object tracking .

한편, 실시형태에 따라서 본 발명은 사람, 차량, 동물 등과 같이 객체의 특성 즉, 해당 객체의 MER 특성 정보(너비, 높이, 너비높이의 비율, 밀도, 중심점 좌표, 전체 크기 정보 등)에 따라 분류된 기준정보와 상기 최종 MER정보를 대비하여 상기 최종 MER정보에 해당하는 객체를 분류하는 객체분류부(160)를 더 포함할 수 있다.According to embodiments of the present invention, the present invention can classify objects according to characteristics of objects such as a person, a vehicle, and an animal, that is, MER characteristic information (ratio of width, height, width height, density, center point coordinates, And an object classifier 160 for classifying the object corresponding to the final MER information by comparing the final MER information with the reference information.

이 경우 본 발명의 트래킹부(170)는 이와 같이 객체분류부(160)가 최종MER에 해당하는 객체를 사람으로 분류한 경우에 한해 상술된 프로세싱을 통하여 객체의 동선 데이터를 생성하도록 구성할 수도 있다. 트래킹부(170)가 생성한 경로데이터 등은 시간 정보와 함께 본 발명의 DB부(180)에 저장될 수 있다. In this case, the tracking unit 170 of the present invention may be configured to generate the moving-line data of the object through the above-described processing only when the object classifying unit 160 classifies the object corresponding to the final MER as a person . The path data generated by the tracking unit 170 and the like can be stored in the DB unit 180 of the present invention together with time information.

이하에서는 최종 생성된 객체의 동선데이터를 이용하여 객체의 행동패턴을 생성하는 본 발명의 상세한 구성과 프로세싱을 설명하도록 한다. Hereinafter, the detailed configuration and processing of the present invention for generating a behavior pattern of an object using the copper line data of the finally generated object will be described.

본 발명의 트래킹부(170)가 상술된 바와 같이 객체의 동선 데이터를 생성하면, 본 발명의 행동패턴결정부(190)는 행동패턴 분석의 기준이 되는 상황인지영역과 상기 생성된 객체의 동선 데이터 또는 동선 데이터에 포함된 각 시점별 최종MER정보와의 위치 관계를 이용하여 상기 객체의 행동패턴을 결정하고 해당하는 행동패턴정보를 생성한다(S320).When the tracking unit 170 of the present invention generates the copper line data of the object as described above, the behavior pattern determining unit 190 of the present invention determines the behavior pattern of the object based on the context- Or the final MER information for each view included in the copper line data to determine the behavior pattern of the object and generate corresponding behavior pattern information at step S320.

구체적으로 본 발명의 행동패턴결정부(190)는 도 7에 도시된 바와 같이 이벤트생성부(191), 이벤트DB부(192), 패턴정보저장부(193) 및 패턴정보생성부(194)를 포함하여 구성될 수 있다.Specifically, the behavior pattern determination unit 190 of the present invention includes an event generation unit 191, an event DB unit 192, a pattern information storage unit 193, and a pattern information generation unit 194, as shown in FIG. 7 And the like.

본 발명은 객체의 행동패턴정보를 더욱 효과적으로 정확하게 규정하고 시스템과 사용자 사이의 정확한 인터페이싱을 구현하기 위하여 도 13에 예시된 바와 같이 객체가 유발할 수 있는 6가지 기본 이벤트를 미리 정의하고 정의된 객체의 6가지 이벤트들을 하나 이상 조합적으로 결합시킴으로써 발생되는 시계열적 특성을 이용하여 객체의 행동패턴을 결정하는 방법을 포함한다.In order to more accurately define the behavior pattern information of the object more accurately and to implement accurate interfacing between the system and the user, the present invention predefines six basic events that can be caused by the object as illustrated in FIG. 13, And a method of determining a behavior pattern of an object using time-series characteristics generated by combining one or more kinds of events in combination.

도 13에 예시된 객체의 6가지 이벤트 정보와 상황인지영역 또는 영상처리영역의 경계 등에 대한 위치정보는 본 발명의 이벤트DB부(192)에 저장되어 활용될 수 있다.The six event information of the object illustrated in FIG. 13 and the position information on the boundary of the situation recognition area or the image processing area can be stored and utilized in the event DB unit 192 of the present invention.

본 발명의 이벤트 생성부(191)는 트래킹부(170)로부터 객체의 동선 데이터가 입력되면 입력된 동선 데이터의 각 시간별 객체의 최종MER정보의 중심점 위치좌표를 추출하고, 추출된 중심점 위치좌표와 상기 이벤트DB부(192)에 저장되어 있는 상황인지영역의 경계라인의 위치 좌표 사이의 관계를 이용하여 객체에 대한 이벤트 정보를 생성한다. The event generation unit 191 of the present invention extracts the coordinates of the center point position of the final MER information of the object of each time of the input copper line data when the copper line data of the object is input from the tracking unit 170, The event information for the object is generated using the relationship between the position coordinates of the boundary line of the situation recognition area stored in the event DB unit 192. [

이와 관련하여, 도 13에서 진입 이벤트는 객체가 상황인지영역 외부에서 내부로 들어오는 이벤트를 의미하며, 객체(최종MER정보)의 중심좌표와 상황인지영역의 경계좌표를 이용하여 결정한다.In this regard, in FIG. 13, an entry event refers to an event that an object comes in from outside the context area, and is determined using the coordinates of the center of the object (final MER information) and the boundary of the context area.

진출 이벤트는 실시형태에 따라 객체가 상황인지영역 내부에서 외부로 나간 이벤트, 객체가 상황인지영역 내부에서 상황인지영역외부의 영상처리영역으로 이동한 경우, 객체가 상황인지영역 내부에서 다른 상황인지영역으로 이동한 경우, 영상의 끝과 상황인지영역의 경계가 맞닿아 있는 경우 객체가 상황인지영역 내부에서 영상 밖으로 이동한 경우 중 하나 이상이 이에 해당한다. An entry event may be an event that the object has moved out of the context aware area according to the embodiment, the object has moved from the context aware area to the image processing area outside the context aware area, , The case where the boundary of the image and the boundary of the context-aware area are in contact, or the case where the object is moved out of the image in the context-aware area.

이동 이벤트는 객체가 영상처리영역(상황인지영역보다 넓은 영역일 수 있음)에 위치하고 MER의 중심좌표의 변화가 있거나 또는 상황인지영역 내부에서 기준 시간 동안 객체의 중심좌표의 이동이 발생하거나 이동거리(픽셀)/기준 시간(s)의 속도를 연산하여 연산된 속도가 0(px/s) 이 아닌 경우에 해당한다. The movement event is a motion event in which the object is located in the image processing region (which may be larger than the context-aware region) and there is a change in the center coordinates of the MER or a movement of the center coordinates of the object during the reference time within the context- Pixel) / reference time (s) and the calculated speed is not 0 (px / s).

정지 이벤트는 특정 기준 시간동안 중심좌표의 변화량(이동 거리)이 0이거나 실질적으로 0에 해당하는 경우 또는 중심좌표의 속도가 실질적으로 0인 경우에 해당한다.The stop event corresponds to a case in which the amount of change (moving distance) of the central coordinate during a specific reference time is zero or substantially equal to zero, or when the velocity of the central coordinate is substantially zero.

분리 이벤트는 객체가 상황인지영역 내부에 있는 경우 객체와 인접된 영역에서 다른 객체(사람, 사물 등)가 최초 검지되고 이 최초 검지된 객체가 일정 시간 이상 존재하는 경우에 해당하는 이벤트이며, 결합 이벤트는 서로 다른 객체(사람 vs. 사람 또는 사람 vs. 사물 등)가 상황인지영역 내부에 있는 경우 서로 다른 객체의 MER의 중심좌표가 가까워지고 MER의 영역이 겹친 후, 동일한 변위로 이동할 때를 의미하는 이벤트이다.The separation event is an event corresponding to the case where the first detected object is detected for the first time when another object (person, object, etc.) is detected in the object and the adjacent area when the object is inside the context area, Refers to when the center coordinates of the MERs of the different objects approach each other and when the regions of the MER overlap and then move to the same displacement when the different objects (person vs. person or person vs. object, etc.) are within the context area Event.

이와 같이 하나 이상의 이벤트 정보가 생성되면 본 발명의 패턴정보생성부(194)는 생성된 하나 이상의 이벤트 정보의 시계열적 특성을 이용하여 상기 객체에 대한 행동패턴정보를 생성한다.When one or more event information is generated as described above, the pattern information generator 194 of the present invention generates behavior pattern information for the object using the time series characteristic of the generated one or more event information.

실시형태에 따라서 본 발명의 행동패턴결정부(190)는 패턴정보저장부(193)를 더 포함할 수 있는데, 이 패턴정보저장부(193)에는 도 14에 도시된 바와 같이 상기 객체의 6가지 이벤트 즉, 진입, 진출, 이동, 정지, 분리, 결합 이벤트 중 복수 개 이벤트 정보의 시계열적 조합에 의하여 정의되는 복수 개 기준행동패턴정보가 저장될 수 있다.The behavior pattern determination unit 190 of the present invention may further include a pattern information storage unit 193 which stores six patterns of the objects A plurality of reference behavior pattern information defined by a time series combination of a plurality of event information among events, i.e., entry, advance, movement, stop, separation, and association events can be stored.

이와 관련하여 도 14에 도시된 기준행동패턴정보 중 “경로통과” 패턴은 설정된 방향과 설정된 경계선(외곽 경계선 또는 내부의 또 다른 경계선 등)을 넘어서 객체가 이동하는 상황을 의미하며, “금지된 방향 이동” 패턴은 이전 프레임의 객체의 위치에서 현재 프레임의 객체의 위치를 비교하였을 때, 객체의 위치 변화량이 발생되고 기 설정된 방향과 반대방향으로 이동하는 패턴을 의미한다. In this regard, among the reference behavior pattern information shown in Fig. 14, the " path passing " pattern means a situation in which an object moves beyond a set direction and a set boundary line (an outer boundary line or another inner boundary line) Quot; movement " pattern means a pattern in which a positional variation of an object is generated and moved in a direction opposite to a predetermined direction when a position of an object of a current frame is compared with a position of an object of a previous frame.

이와 같이 패턴정보저장부(193)에 복수 개의 기준행동패턴정보가 저장되면 본 발명의 패턴정보생성부(194)는 상기 복수 개 기준행동패턴정보 중 상기 동선데이터 즉, 각 시점별 객체의 최종MER정보의 특징 정보(중심점 좌표, 너비, 높이, 너비/높이 비율, 밀도 등)의 이벤트 정보들에 대응되는 기준행동패턴정보를 선별하는 등의 방법으로 기준행동패턴정보를 이용하여 상기 객체의 행동패턴정보를 생성하도록 구성될 수 있다.When a plurality of reference behavior pattern information is stored in the pattern information storage unit 193 as described above, the pattern information generation unit 194 of the present invention generates the pattern information of the reference MER The reference behavior pattern information corresponding to event information of feature information (center point coordinates, width, height, width / height ratio, density, etc.) of information is selected, Information. ≪ / RTI >

이와 같이 6개의 기본이 되는 이벤트 정보를 시계열적으로 조합시킴으로써 조각(piece)을 이용하여 전체 블록을 구성하는 방법과 같이 객체의 다양한 행동 패턴을 정확하게 규정할 수 있음은 물론, 이들 행동 패턴을 시간의 순서에 따라 연계시키면 객체의 복합 행동 또한, 정확하게 규정할 수 있게 된다.By combining the six basic event information in a time series manner, it is possible to precisely define various behavior patterns of an object as well as to form an entire block using a piece, By associating in order, the complex behavior of the object can also be precisely defined.

그러므로 본 발명은 객체의 행동패턴정보를 정확하고 자동화된 방법으로 지속적으로 생성하여 객체에 대한 상황을 정확히 자동적으로 인식할 수 있으므로 생성된 행동패턴정보를 사용자에게 정확히 인터페이싱할 수 있으며 또한, 이를 통하여 인식된 상황(행동패턴)에 최적화된 후속 조치 내지 대응 프로세싱이 유도될 수 있는 시스템 인프라를 제공할 수 있다.Therefore, according to the present invention, the behavior pattern information of an object is continuously and accurately generated by an accurate and automated method, so that the situation of the object can be accurately and automatically recognized. Therefore, the generated behavior pattern information can be accurately interfaced to the user, It is possible to provide a system infrastructure in which follow-up or counter-processing optimized for a given situation (behavior pattern) can be induced.

이상에서 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 이것에 의해 한정되지 않으며 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 본 발명의 기술사상과 아래에 기재될 특허청구범위의 균등범위 내에서 다양한 수정 및 변형이 가능함은 물론이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not to be limited to the details thereof and that various changes and modifications will be apparent to those skilled in the art. And various modifications and variations are possible within the scope of the appended claims.

상술된 본 발명의 설명에 있어 제1 및 제2 등과 같은 수식어는 상호 간의 구성요소를 상대적으로 구분하기 위하여 사용되는 도구적 개념의 용어일 뿐이므로, 특정의 순서, 우선순위 등을 나타내기 위하여 사용되는 용어가 아니라고 해석되어야 한다.In the above description of the present invention, the first and second modifiers are merely terms of a tool concept used for relatively separating the components of each other, so that they are used to indicate a specific order, priority, etc. It should be interpreted that it is not a terminology.

본 발명의 설명과 그에 대한 실시예의 도시를 위하여 첨부된 도면 등은 본 발명에 의한 기술 내용을 강조 내지 부각하기 위하여 다소 과장된 형태로 도시될 수 있으나, 앞서 기술된 내용과 도면에 도시된 사항 등을 고려하여 본 기술 분야의 통상의 기술자 수준에서 다양한 형태의 변형 적용 예가 가능할 수 있음은 자명하다고 해석되어야 한다.It is to be understood that both the foregoing general description and the following detailed description are exemplary and explanatory and are intended to provide further explanation of the invention as claimed. It should be understood that various modifications may be made in the ordinary skill in the art.

1000 : 본 발명의 지능형 감시시스템
50 : 검지카메라 70 : 추적카메라(줌카메라)
100 : 객체정보생성부 200 : 영상제어부
210 : 공간정보 저장부 220 : 위치정보변환부
230 : 전송부
300 : 입력부 400 : 얼굴정보검출부
410 : 제1검출부 420 : 제2검출부
430 : 검출연산부
500 : 특징정보생성부 600 : 특징정보추출부
700 : 회전정보생성부 800 : 영상복원부
810 : 좌표설정부 820 : 물체영역생성부
830 : 물체정보생성부
1000: Intelligent monitoring system of the present invention
50: index camera 70: tracking camera (zoom camera)
100: object information generating unit 200:
210: Spatial information storage unit 220: Position information conversion unit
230:
300: input unit 400: face information detection unit
410: first detection unit 420: second detection unit
430:
500: feature information generating unit 600: feature information extracting unit
700: rotation information generating unit 800:
810: Coordinate setting unit 820: Object zone creation unit
830: Object information generating unit

Claims (11)

검지카메라의 영상데이터를 이용하여 검지된 객체의 동선데이터를 생성하며 생성된 동선 데이터와 상황인지영역과의 위치 관계를 이용하여 상기 객체의 행동패턴정보를 생성하는 객체정보생성부;
상기 객체의 이동이 정지되는 경우 상기 객체의 근거리영상이 촬영되도록 PTZF구동이 가능한 추적카메라를 제어하는 영상제어부;
상기 추적카메라로부터 근거리 영상데이터를 입력받는 입력부;
상기 근거리 영상데이터를 대상으로 하르(haar)특징 기반 알고리즘을 적용하여 제1얼굴영역정보를 검출하는 제1검출부, 상기 근거리 영상데이터를 대상으로 스킨 컬러 기반 알고리즘을 적용하여 제2얼굴영역정보를 검출하는 제2검출부와, 상기 제1 및 제2얼굴영역정보를 이용한 하이브리드 영역을 대상으로 얼굴영역정보를 생성하는 검출연산부를 포함하여 상기 근거리 영상데이터에서 얼굴영역정보를 검출하는 얼굴정보검출부;
상기 얼굴영역정보에서 코, 입 및 양눈 영역을 포함하는 얼굴의 특징 영역을 추출하는 특징정보추출부;
상기 코와 양눈 사이 각각의 길이정보 및 상기 코와 입 사이의 길이정보를 생성하고 상기 길이정보를 이용하여 얼굴의 회전방향 및 회전각도 정보를 생성하는 회전정보생성부;
상기 얼굴영역정보를 이용한 상기 객체의 연령, 착용 사물 또는 안면식별정보 및 상기 얼굴의 회전방향 및 회전각도 정보를 포함하는 특징정보를 생성하고, 상기 얼굴영역정보에서 눈, 코 또는 입 영역에 대한 각각의 존재여부와 눈 주변 영역의 픽셀 특성을 조합적으로 적용하여 얼굴에 착용된 착용도구 정보를 생성하는 특징정보생성부;
상기 검지카메라 또는 추적카메라의 영상데이터가 입력되면, 입력된 영상데이터에서 휴먼 객체를 추출하고, 추출된 휴먼 객체의 MER 영역이 머리, 가슴, 하체 및 다리 영역으로 구분된 영역인 관심영역을 대상으로 거리변환 알고리즘을 적용한 결과 데이터에서 최대 밝기값을 가지는 좌표를 스켈레톤 좌표로 설정하는 좌표설정부;
스켈레톤 좌표를 이용하여 손의 위치를 추정하고 추정된 손의 위치와 매핑되는 스켈레톤 좌표를 중심으로 하는 손주변 영역을 지정하며, 지정된 손주변 영역의 외곽선을 검출하고, 상기 검출된 외곽선 중 손 영역이 제외된 영역인 물체영역을 생성하는 물체영역생성부; 및
상기 물체영역의 특징 정보와 물체 판단을 위한 기준 정보를 대비하여 상기 물체영역에 포함된 물체 정보를 생성하는 물체정보생성부를 포함하는 것을 특징으로 하는 원거리 동적 객체에 대한 얼굴 특징정보의 인식 기법이 적용된 지능형 감시시스템.
An object information generation unit for generating motion data of the detected object using the image data of the detection camera and generating motion pattern information of the object using the positional relationship between the generated motion data and the context aware area;
An image controller for controlling a tracking camera capable of PTZF driving such that a near image of the object is captured when the movement of the object is stopped;
An input unit for receiving the near vision image data from the tracking camera;
A first detection unit for detecting first face area information by applying a haar feature based algorithm to the near vision image data, a second detection unit for detecting second face area information by applying a skin color based algorithm to the near vision image data, A facial information detector for detecting facial region information in the near vision image data, the detection information being generated by generating a facial region information on a hybrid region using the first and second facial region information;
A feature information extracting unit for extracting a feature region of a face including nose, mouth, and two-eye region from the face region information;
A rotation information generation unit for generating length information of each of the nose and eye and length information between the nose and mouth and generating rotation direction and rotation angle information of the face using the length information;
The method comprising the steps of: generating feature information including the age, wearable object, or facial identification information of the object using the face area information, rotation direction and rotation angle information of the face, A feature information generation unit for generating wear tool information worn on the face by applying a combination of the presence or absence of the face and the pixel characteristics of the area around the eyes;
When the image data of the detection camera or the tracking camera is input, a human object is extracted from the input image data, and the MER region of the extracted human object is divided into a head region, a chest region, a lower body region, A coordinate setting unit for setting a coordinate having a maximum brightness value in the data as a skeleton coordinate by applying the distance conversion algorithm;
Estimating a position of a hand using skeleton coordinates, designating an area around the hand centered on a skeleton coordinate mapped with the estimated position of the hand, detecting an outline of the area around the designated hand, An object zone generating unit for generating an object zone which is an excluded zone; And
And an object information generating unit for generating object information included in the object region by comparing feature information of the object region with reference information for object determination. Intelligent surveillance system.
삭제delete 제 1항에 있어서, 상기 영상제어부는,
상기 검지카메라의 위치정보, 상기 추적카메라의 위치정보, 상기 추적카메라의 특성정보 및 각 지점의 3차원 위치정보를 포함하는 공간모델정보가 저장된 공간정보저장부;
이동이 중지된 객체의 MER 중심점 좌표와 대응되는 3차원 좌표를 상기 공간모델정보를 이용하여 생성하는 위치정보변환부; 및
상기 생성된 3차원 좌표의 영상이 촬영되도록 상기 추적 카메라의 PTZ제어값을 연산하고 상기 PTZ제어값을 상기 추적카메라로 전송하는 전송부를 포함하는 것을 특징으로 하는 원거리 동적 객체에 대한 얼굴 특징정보의 인식 기법이 적용된 지능형 감시시스템.
The image processing apparatus according to claim 1,
A spatial information storage unit for storing spatial model information including position information of the detection camera, position information of the tracking camera, characteristic information of the tracking camera, and three-dimensional position information of each point;
A position information conversion unit for generating three-dimensional coordinates corresponding to MER center coordinates of an object whose movement is stopped using the spatial model information; And
And a transmitter for calculating a PTZ control value of the tracking camera and transmitting the PTZ control value to the tracking camera so that the generated three-dimensional coordinate image is captured. Intelligent surveillance system with adaptive technique.
삭제delete 삭제delete 삭제delete 삭제delete 제 1항에 있어서, 상기 특징정보생성부는,
상기 얼굴영역정보에서 얼굴 영역과 머리카락 영역을 구분하고, 구분된 얼굴 영역과 머리카락 영역의 세로비를 이용하여 상기 객체의 성별에 대한 특징정보를 생성하는 것을 특징으로 하는 원거리 동적 객체에 대한 얼굴 특징정보의 인식 기법이 적용된 지능형 감시시스템.
2. The apparatus according to claim 1,
Wherein the feature information for the gender of the object is generated by distinguishing the face region and the hair region from the face region information and using the vertical ratio of the divided face region and the hair region, Intelligent Monitoring System with Recognition Technique.
제 1항에 있어서, 상기 객체정보생성부는,
n(n은 1이상의 자연수)개의 검지카메라로부터 영상데이터를 수신하는 수신부;
상기 영상데이터를 대상으로 차분 영상 검지 알고리즘을 적용하여 객체를 검지하고 검지된 객체의 제1후보MER정보를 생성하는 제1검지부;
상기 영상데이터를 대상으로 옵티컬 플로우 알고리즘을 적용하여 객체를 검지하고 검지된 객체의 제2후보MER정보를 생성하는 제2검지부;
상기 제1 및 제2후보MER정보를 대상으로 호그 알고리즘을 적용하여 객체의 최종MER정보를 생성하는 검지판단부;
상기 객체의 최종MER정보의 이동을 추적하여 상기 객체의 동선데이터를 생성하는 트래킹부; 및
행동패턴 분석의 기준이 되는 상황인지영역과 상기 객체의 동선데이터와의 위치 관계를 이용하여 상기 객체의 행동패턴을 결정하는 행동패턴결정부를 포함하는 것을 특징으로 하는 원거리 동적 객체에 대한 얼굴 특징정보의 인식 기법이 적용된 지능형 감시시스템.
The apparatus of claim 1,
a receiving unit for receiving image data from n detection cameras (n is a natural number of 1 or more);
A first detection unit for detecting an object by applying a difference image detection algorithm to the image data and generating first candidate MER information of the detected object;
A second detecting unit detecting an object by applying an optical flow algorithm to the image data and generating second candidate MER information of the detected object;
A detection determination unit for generating final MER information of the object by applying a hog algorithm to the first and second candidate MER information;
A tracking unit for tracking movement of final MER information of the object to generate copper line data of the object; And
And a behavior pattern determiner for determining a behavior pattern of the object by using a positional relationship between a situation recognition area serving as a basis of the behavior pattern analysis and the motion data of the object, Intelligent Monitoring System with Recognition Technique.
제 9항에 있어서, 상기 제1검지부는,
일정 시간 동안 누적된 통계적 영상을 이용하여 매 프레임마다 배경영상을 생성하고 상기 생성된 배경영상과 현재 영상을 차분하여 상기 제1후보MER정보를 생성하는 것을 특징으로 하는 원거리 동적 객체에 대한 얼굴 특징정보의 인식 기법이 적용된 지능형 감시시스템.
10. The image pickup apparatus according to claim 9,
Wherein the first candidate MER information is generated by generating a background image for each frame using a statistical image accumulated for a predetermined period of time and generating a difference between the generated background image and the current image, Intelligent Monitoring System with Recognition Technique.
제 9항에 있어서, 상기 행동패턴결정부는,
상기 동선데이터의 각 시간별 객체의 최종MER 중심점 위치좌표와 상기 상황인지영역의 경계라인의 위치 좌표 사이의 관계를 이용하여 객체의 이벤트 정보를 생성하는 이벤트 생성부; 및
상기 객체의 이벤트 정보의 시계열적 특성을 이용하여 상기 객체에 대한 행동패턴정보를 생성하는 패턴정보생성부를 포함하는 것을 특징으로 하는 원거리 동적 객체에 대한 얼굴 특징정보의 인식 기법이 적용된 지능형 감시시스템.
10. The apparatus according to claim 9,
An event generation unit for generating event information of an object by using a relation between coordinates of a final MER center point position of an object of each time of the copper line data and a position coordinate of a boundary line of the situation recognition area; And
And a pattern information generation unit for generating behavior pattern information for the object using the time series characteristic of the event information of the object. The intelligent monitoring system according to claim 1, further comprising:
KR1020170113603A 2017-09-06 2017-09-06 Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object KR101839827B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170113603A KR101839827B1 (en) 2017-09-06 2017-09-06 Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170113603A KR101839827B1 (en) 2017-09-06 2017-09-06 Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object

Publications (1)

Publication Number Publication Date
KR101839827B1 true KR101839827B1 (en) 2018-03-19

Family

ID=61911163

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170113603A KR101839827B1 (en) 2017-09-06 2017-09-06 Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object

Country Status (1)

Country Link
KR (1) KR101839827B1 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101938270B1 (en) * 2018-05-28 2019-01-14 알바이오텍 주식회사 Image processing apparatus for monitoring moving objects
CN111158323A (en) * 2019-12-31 2020-05-15 西安古鲸电子技术有限公司 Intelligent safety production monitoring system
CN111966099A (en) * 2020-08-17 2020-11-20 深圳电目科技有限公司 Indoor target tracking method based on radar, energy-saving method and system
KR102220074B1 (en) 2020-10-06 2021-02-25 주식회사 이노피아테크 Method and Apparatus for Generating of Data for Providing Real-View Immersion Determination Service based on Image Recognition
KR20220096436A (en) * 2020-12-31 2022-07-07 주식회사 메이아이 Method, device and non-transitory computer-readable recording medium for analyzing visitors based on images in edge computing environment
US11403878B2 (en) 2018-12-31 2022-08-02 Samsung Electronics Co., Ltd. Apparatus and method with user verification
WO2023120743A1 (en) * 2021-12-20 2023-06-29 한국전자기술연구원 Context-specific training method for point cloud-based three-dimensional object recognition model
KR102604710B1 (en) * 2023-05-04 2023-11-22 김병준 Methods and electronic devices for providing edge AI-based building fire safety solutions
KR102604716B1 (en) * 2023-05-04 2023-11-23 김병준 Edge AI-based industrial safety management system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296740A (en) * 2002-04-08 2003-10-17 Victor Co Of Japan Ltd Object monitoring method and object monitoring camera device
KR101468117B1 (en) * 2014-01-22 2014-12-05 렉스젠(주) Intelligent image monitoring method and apparatus thereof
JP2015176227A (en) * 2014-03-13 2015-10-05 富士通株式会社 Monitoring method, monitoring device, and monitoring program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003296740A (en) * 2002-04-08 2003-10-17 Victor Co Of Japan Ltd Object monitoring method and object monitoring camera device
KR101468117B1 (en) * 2014-01-22 2014-12-05 렉스젠(주) Intelligent image monitoring method and apparatus thereof
JP2015176227A (en) * 2014-03-13 2015-10-05 富士通株式会社 Monitoring method, monitoring device, and monitoring program

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101938270B1 (en) * 2018-05-28 2019-01-14 알바이오텍 주식회사 Image processing apparatus for monitoring moving objects
US11403878B2 (en) 2018-12-31 2022-08-02 Samsung Electronics Co., Ltd. Apparatus and method with user verification
CN111158323A (en) * 2019-12-31 2020-05-15 西安古鲸电子技术有限公司 Intelligent safety production monitoring system
CN111966099A (en) * 2020-08-17 2020-11-20 深圳电目科技有限公司 Indoor target tracking method based on radar, energy-saving method and system
KR102220074B1 (en) 2020-10-06 2021-02-25 주식회사 이노피아테크 Method and Apparatus for Generating of Data for Providing Real-View Immersion Determination Service based on Image Recognition
US11321961B2 (en) 2020-10-06 2022-05-03 Innopia Technologies, Inc. Data generation method and apparatus for providing real-viewing immersion determination service based on image recognition
KR20220096436A (en) * 2020-12-31 2022-07-07 주식회사 메이아이 Method, device and non-transitory computer-readable recording medium for analyzing visitors based on images in edge computing environment
WO2023120743A1 (en) * 2021-12-20 2023-06-29 한국전자기술연구원 Context-specific training method for point cloud-based three-dimensional object recognition model
KR102604710B1 (en) * 2023-05-04 2023-11-22 김병준 Methods and electronic devices for providing edge AI-based building fire safety solutions
KR102604716B1 (en) * 2023-05-04 2023-11-23 김병준 Edge AI-based industrial safety management system

Similar Documents

Publication Publication Date Title
KR101839827B1 (en) Smart monitoring system applied with recognition technic of characteristic information including face on long distance-moving object
JP7375101B2 (en) Information processing device, information processing method and program
US9646212B2 (en) Methods, devices and systems for detecting objects in a video
Benedek et al. Lidar-based gait analysis and activity recognition in a 4d surveillance system
KR101877294B1 (en) Smart cctv system for crime prevention capable of setting multi situation and recognizing automatic situation by defining several basic behaviors based on organic relation between object, area and object's events
JP5102410B2 (en) Moving body detection apparatus and moving body detection method
US8116534B2 (en) Face recognition apparatus and face recognition method
Khalifa et al. Pedestrian detection using a moving camera: A novel framework for foreground detection
Kumar et al. Study of robust and intelligent surveillance in visible and multi-modal framework
EP2131328A2 (en) Method for automatic detection and tracking of multiple objects
Shahzad et al. A smart surveillance system for pedestrian tracking and counting using template matching
WO2004011314A1 (en) Security monitor device at station platform
D'Orazio et al. A survey of automatic event detection in multi-camera third generation surveillance systems
Gupta et al. Corridor segmentation for automatic robot navigation in indoor environment using edge devices
Ullah et al. Rotation invariant person tracker using top view
KR101842488B1 (en) Smart monitoring system applied with patten recognition technic based on detection and tracking of long distance-moving object
Kornprobst et al. Tracking segmented objects using tensor voting
Kroneman et al. Accurate pedestrian localization in overhead depth images via Height-Augmented HOG
JP2009289210A (en) Device and method for recognizing important object and program thereof
Thangaraj et al. A competent frame work for efficient object detection, tracking and classification
Arsić et al. Real time person tracking and behavior interpretation in multi camera scenarios applying homography and coupled HMMs
Creusen et al. ViCoMo: visual context modeling for scene understanding in video surveillance
Thakur et al. Object detection in deep surveillance
Malik et al. A Simplified Skeleton Joints Based Approach For Human Action Recognition
Walke et al. Human detection and monitoring system using multi sensor data fusion

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant