KR101433472B1 - Apparatus, method and computer readable recording medium for detecting, recognizing and tracking an object based on a situation recognition - Google Patents

Apparatus, method and computer readable recording medium for detecting, recognizing and tracking an object based on a situation recognition Download PDF

Info

Publication number
KR101433472B1
KR101433472B1 KR1020120135082A KR20120135082A KR101433472B1 KR 101433472 B1 KR101433472 B1 KR 101433472B1 KR 1020120135082 A KR1020120135082 A KR 1020120135082A KR 20120135082 A KR20120135082 A KR 20120135082A KR 101433472 B1 KR101433472 B1 KR 101433472B1
Authority
KR
South Korea
Prior art keywords
image
tracking
feature
feature point
region
Prior art date
Application number
KR1020120135082A
Other languages
Korean (ko)
Other versions
KR20140067604A (en
Inventor
정경용
강성관
최경호
김귀남
Original Assignee
경기대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경기대학교 산학협력단 filed Critical 경기대학교 산학협력단
Priority to KR1020120135082A priority Critical patent/KR101433472B1/en
Publication of KR20140067604A publication Critical patent/KR20140067604A/en
Application granted granted Critical
Publication of KR101433472B1 publication Critical patent/KR101433472B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/10Image enhancement or restoration by non-spatial domain filtering
    • G06T5/92
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/251Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]

Abstract

본 발명은 서베일런스 침입탐지를 위해 상황 인식 기반으로 객체를 검출하고, 인식하여 추적하기 위한 상황 인식 기반의 객체 검출, 인식 및 추적 장치에 관한 것으로, 특히 입력된 객체 영상에서 추출된 객체의 특징적인 요소 정보로부터 수치화된 특징 벡터값을 추출하는 객체 특징점 추출 모듈; 및 상기 객체 특징점 추출 모듈로부터 추출된 각 객체의 특징점에 대해 객체의 동작 패턴의 형태에 따라 이미지를 분류함으로써 객체를 검출하여 추적하는 객체 검출 및 추적 모듈을 포함하며, 상기 객체 검출 및 추적 모듈은 상기 객체 검출시 전체 대상 이미지에 대해 각 클러스터별로 상이한 임계값을 적용한다.The present invention relates to an object detection, recognition and tracking apparatus based on context recognition for detecting, recognizing and tracking objects based on context recognition for surveillance intrusion detection, and more particularly, An object feature point extraction module for extracting numerical feature vector values from element information; And an object detection and tracking module for detecting and tracking an object by classifying an image according to the type of an operation pattern of the object with respect to the minutiae point of each object extracted from the object minutiae point extraction module, When the object is detected, a different threshold is applied to each cluster for the entire target image.

Description

상황 인식 기반의 객체 검출, 인식 및 추적 장치, 방법 및 컴퓨터 판독 가능한 기록 매체{APPARATUS, METHOD AND COMPUTER READABLE RECORDING MEDIUM FOR DETECTING, RECOGNIZING AND TRACKING AN OBJECT BASED ON A SITUATION RECOGNITION}[0001] APPARATUS, METHOD AND COMPUTER READABLE RECORDING MEDIUM FOR DETECTING, RECOGNIZING AND TRACKING AN OBJECT BASED ON A SITUATION RECOGNITION [0002] BACKGROUND OF THE INVENTION [0003]

본 발명은 특정 공간 내에 침투한 객체를 검출하고, 인식하여 추적하기 위한 장치에 관한 것으로, 보다 상세하게는 서베일런스 침입탐지를 위해 상황 인식 기반으로 객체를 검출하고, 인식하여 추적하기 위한 상황 인식 기반의 객체 검출, 인식 및 추적 장치, 방법 및 컴퓨터 판독 가능한 기록 매체에 관한 것이다.
The present invention relates to an apparatus for detecting, recognizing and tracking an object infiltrating a specific space, and more particularly, to an apparatus for detecting an object based on context recognition for detecting surveillance intrusion, Based object detection, recognition and tracking apparatus, method and computer-readable recording medium.

서베일런스(surveillance) 침입탐지는 개인보안 및 사회적인 보안 상황을 위해 공항, 사무실, 아파트에서의 보조적이거나 주기능의 보안 관제 시스템으로 발전하고 있다. 한정된 공간을 기반으로 하는 서베일런스 침입탐지에서 사람의 인식, 행동 패턴의 분석은 보안에 있어서 중요한 요인이므로 상황 인식과 데이터 마이닝의 패턴 분석은 필수 요소이다. 최근 삶의 질을 향상하기 위한 고도의 지식정보 사회의 도래와 함께 다양한 실시간 보안 서비스의 요구는, 지능형 센서와 상황 인식의 융합을 통한 융합보안 기술의 도래가 요구되고 있다.Surveillance intrusion detection is evolving into an auxiliary or main function security control system in airports, offices and apartments for personal security and social security situations. Analysis of human perception and behavior pattern in surveillance intrusion detection based on limited space is an important factor in security, so pattern analysis of situation recognition and data mining is essential. Recently, the demand of various real - time security services along with the arrival of a high - level knowledge and information society to improve the quality of life has demanded the advent of convergence security technology through the fusion of intelligent sensor and situational awareness.

한편, 최근 들어 보안의 필요성이 매우 강조되고 있으며, 그 중 물리적 접근보안을 위한 통제기술의 중요성이 특히 부각되고 있다. 현재 가장 보편적으로 사용되는 물리적 접근 통제를 위한 기술로서 키 패드(Key pad), RFID 카드 등의 방식은 카드 분실에 대한 근본적인 대책이 없다는 문제점이 있다.On the other hand, the need for security has been strongly emphasized recently, and the importance of control technology for physical access security is particularly emphasized. As a technology for physical access control most commonly used at present, there is a problem that there is no fundamental countermeasure against loss of a card in the method of a key pad and an RFID card.

이러한 문제점을 해결하기 위해 동적인 영상에서의 객체 인식 기술에 대한 관심이 매우 높아지고 있고, 생체 인식 기술 중 지문 인식 기술이 비교적 많이 보급되어 있다. 그러나 물리적 접촉에 의한 인식률이 점차적인 감소에 있고, 어린이나 노인에 대한 취약점, 지문 복제에 대한 대책 등이 미약한 현실이다. 또한, 홍체 인식 기술은 비교적 높은 인식률을 가지나 고해상도 영상을 위한 고가의 입력장치를 필요로 하며, 사용에 있어서 사용자의 숙달이 요구되는 단점이 있다.In order to solve these problems, there is a great interest in object recognition technology in dynamic images, and fingerprint recognition technology is widely popular among biometrics technologies. However, there is a gradual decrease in recognition rate due to physical contact, vulnerability to children and the elderly, and countermeasures against fingerprint duplication. In addition, although the reed recognition technology has a relatively high recognition rate, it requires an expensive input device for a high-resolution image and requires a user's mastery in use.

한편, 현재의 대부분 침입 탐지 시스템은 조명의 변화 및 외부 요인에 의한 잡음 영상에 취약점을 가지며, 이에 따른 물리적 접근 시장 분야에서 매우 난항을 격고 있다.On the other hand, most current intrusion detection systems have weaknesses in noise images due to changes in illumination and external factors, and thus they are very difficult in the field of physical access market.

따라서, 객체 검출 기술의 장점인 비접촉식, 사용자 친화적인 인터페이스를 최대한 살리고, 조명 및 객체의 동적인 변화에 따른 취약점을 극복하기 위한 동적 영상 기반 및 상황 적응적 프로그램 기법을 이용하여 환경변화에 강인한 침입 탐지 기술의 개발이 절실히 요구되고 있는 실정이다.
Therefore, by using the dynamic image-based and context-adaptive programming techniques to maximize the non-contact and user-friendly interface, which is an advantage of object detection technology, and to overcome the vulnerability due to dynamic changes of illumination and objects, Technology development is urgently required.

본 발명의 목적은 기존의 객체 검출 및 추적 기술의 치명적인 문제점인 조명환경(조명의 방향, 밝기 대조, 명암 등) 변화의 영향을 최소화함으로써, 고신뢰도가 요구되는 침입 탐지 시스템을 제공할 수 있는 상황 인식 기반의 객체 검출, 인식 및 추적 장치, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다.It is an object of the present invention to provide an intrusion detection system capable of providing an intrusion detection system that requires high reliability by minimizing the influence of a change in a lighting environment (illumination direction, brightness contrast, contrast, and the like) A recognition-based object detection, recognition and tracking device, a method, and a computer-readable recording medium.

또한, 본 발명의 목적은 외부 조명의 변화 및 잡음의 영향을 최소화하는 알고리즘 및 시스템을 개발하여 일정한 성능을 갖는 객체의 특징점 추출 기술 및 추적 프로그램의 개발을 통한 액티브 비젼 기반의 고 신뢰도 객체 추적 시스템을 제공할 수 있는 상황 인식 기반의 객체 검출, 인식 및 추적 장치, 방법 및 컴퓨터 판독 가능한 기록 매체를 제공함에 있다.
Also, an object of the present invention is to provide an algorithm and system for minimizing the influence of external illumination and noise, and to develop an active vision based high reliability object tracking system through development of feature point extraction technology and tracking program for an object having a certain performance A method and a computer readable recording medium capable of providing an object detection, recognition,

상기한 바와 같은 본 발명의 목적을 달성하고, 후술하는 본 발명의 특유의 효과를 달성하기 위한, 본 발명의 특징적인 구성은 하기와 같다.In order to achieve the above-described object of the present invention and to achieve the specific effects of the present invention described below, the characteristic structure of the present invention is as follows.

본 발명의 일 측면에 따르면, 입력된 객체 영상에서 추출된 객체의 특징적인 요소 정보로부터 수치화된 특징 벡터값을 추출하는 객체 특징점 추출 모듈; 및 상기 객체 특징점 추출 모듈로부터 추출된 각 객체의 특징점에 대해 객체의 동작 패턴의 형태에 따라 이미지를 분류함으로써 객체를 검출하여 추적하는 객체 검출 및 추적 모듈을 포함하며, 상기 객체 검출 및 추적 모듈은 상기 객체 검출시 전체 대상 이미지에 대해 각 클러스터별로 상이한 임계값을 적용한다.According to an aspect of the present invention, an object feature point extraction module extracts a feature vector value digitized from characteristic element information of an object extracted from an input object image; And an object detection and tracking module for detecting and tracking an object by classifying an image according to the type of an operation pattern of the object with respect to the minutiae point of each object extracted from the object minutiae point extraction module, When the object is detected, a different threshold is applied to each cluster for the entire target image.

바람직하게는, 상기 객체 검출 및 추적 모듈은, 'Harr' 특징을 기반으로 하는 베이지안 분류기를 이용하여 객체를 검출하고 추적한다.Advantageously, said object detection and tracking module detects and tracks objects using Bayesian classifiers based on the 'Harr' feature.

바람직하게는, 상기 객체 특징점 추출 모듈은, 객체의 각 특징점의 탐색 영역을 설정하기 위한 관심 영역 모델을 생성하는 관심 영역 모델 생성부; 및 상기 탐색 영역에서의 특징점을 검출하기 위한 각 특징점별 검출기를 생성하는 검출기 생성부;를 포함한다.Preferably, the object feature point extraction module includes: a region of interest model generation unit that generates a region of interest model for setting a search region of each feature point of the object; And a detector generator for generating a detector for each feature point for detecting a feature point in the search area.

바람직하게는, 상기 관심 영역 모델 생성부는, 설정된 개수의 특징점들의 좌표를 벡터로 설정하고, 객체의 가장 독특한 특징점을 찾아 두 개의 특징점의 거리가 1이 되도록 좌표의 중심점을 정규화하며, 각 객체의 특징점의 정규화된 평균 좌표벡터와 특징점의 평균 위치에서 변화 가능한 거리를 계산한 영역 벡터를 관심 영역 모델로 설정한다.Preferably, the ROI generation unit sets the coordinates of the set number of feature points as a vector, normalizes the center points of the coordinates so that the distance between the two feature points is 1, finds the most unique feature point of the object, The normalized mean vector of coordinates and the area vector that calculates the distance changeable from the average position of the feature points is set as the region of interest model.

바람직하게는, 상기 객체 특징점 추출 모듈은, 상기 탐색 영역에 대하여 고속 푸리에 변환을 수행하는 고속 푸리에 연산부;를 더 포함한다.Preferably, the object feature point extracting module further includes a fast Fourier calculator for performing a fast Fourier transform on the search area.

바람직하게는, 상기 객체 특징점 추출 모듈은, 상기 고속 푸리에 연산부를 통해 처리된 스펙트럼 영상에서 미리 설정된 임계값 이하인 부분을 객체의 특징 후보 영역에서 제외시키는 후처리부;를 더 포함한다.Preferably, the object feature point extraction module further includes a post-processing unit that excludes a portion of the spectral image processed through the fast Fourier calculator that is less than a predetermined threshold value from the feature candidate region of the object.

바람직하게는, 상기 객체 특징점 추출 모듈은, 입력 영상에 대해 히스토그램 평활화 방법에 의해 명암 값의 분포가 균일화되도록 처리하는 영상 전처리부;를 더 포함한다.Preferably, the object feature point extracting module further includes an image preprocessing unit that processes the input image so that the distribution of the lightness value is uniformized by the histogram smoothing method.

본 발명의 다른 측면에 따르면, 입력된 객체 영상에서 추출된 객체의 특징적인 요소 정보로부터 수치화된 특징 벡터값을 추출하는 객체 특징점 추출 단계; 및 상기 추출된 각 객체의 특징점에 대해 객체의 동작 패턴의 형태에 따라 이미지를 분류함으로써 객체를 검출하여 추적하는 단계를 포함하며, 상기 객체를 검출하여 추적하는 단계는, 상기 객체 검출시 전체 대상 이미지에 대해 각 클러스터별로 상이한 임계값을 적용한다.According to another aspect of the present invention, there is provided an object feature extraction method for extracting a feature vector value digitized from feature information of an object extracted from an input object image; And detecting and tracking the object by classifying the image according to the shape of the operation pattern of the object with respect to the extracted feature points of the object, wherein the step of detecting and tracking the object comprises: A different threshold value is applied to each cluster.

바람직하게는, 상기 객체를 검출하여 추적하는 단계는, 'Harr' 특징을 기반으로 하는 베이지안 분류기를 이용하여 객체를 검출하고 추적한다.Preferably, detecting and tracking the object detects and tracks the object using a Bayesian classifier based on the 'Harr' feature.

바람직하게는, 상기 객체 특징점 추출 단계는, 객체의 각 특징점의 탐색 영역을 설정하기 위한 관심 영역 모델을 생성하는 관심 영역 모델 생성 단계; 및 상기 탐색 영역에서의 특징점을 검출하기 위한 각 특징점별 검출기를 생성하는 검출기 생성 단계;를 포함한다.Preferably, the object feature point extracting step includes: a ROI model generating step of creating a ROI model for setting a search area of each feature point of the object; And a detector generating step of generating a detector for each feature point for detecting a feature point in the search area.

바람직하게는, 상기 관심 영역 모델 생성 단계는, 설정된 개수의 특징점들의 좌표를 벡터로 설정하는 단계; 객체의 가장 독특한 특징점을 찾아 두 개의 특징점의 거리가 1이 되도록 좌표의 중심점을 정규화하는 단계; 및 각 객체의 특징점의 정규화된 평균 좌표벡터와 특징점의 평균 위치에서 변화 가능한 거리를 계산한 영역 벡터를 관심 영역 모델로 설정하는 단계;를 포함한다.Preferably, the generating of the ROI model includes: setting coordinates of a set number of feature points as a vector; Normalizing the center point of the coordinates so as to find the most unique characteristic point of the object so that the distance between the two characteristic points is 1; And setting a normalized average coordinate vector of the minutiae of each object and a region vector in which a changeable distance at an average position of the minutiae points is calculated as a region of interest model.

바람직하게는, 상기 객체 특징점 추출 단계는, 상기 탐색 영역에 대하여 고속 푸리에 변환을 수행하는 고속 푸리에 연산 단계;를 더 포함한다.Advantageously, the object feature point extracting step further includes a fast Fourier transforming step of performing a fast Fourier transform on the search area.

바람직하게는, 상기 객체 특징점 추출 단계는, 상기 고속 푸리에 변환을 통해 처리된 스펙트럼 영상에서 미리 설정된 임계값 이하인 부분을 객체의 특징 후보 영역에서 제외시키는 후처리 단계;를 더 포함한다.Preferably, the object feature point extracting step further includes a post-processing step of excluding, from the feature candidate region of the object, a portion of the spectral image processed through the fast Fourier transform that is less than a predetermined threshold value.

바람직하게는, 상기 객체 특징점 추출 단계는, 입력 영상에 대해 히스토그램 평활화 방법에 의해 명암 값의 분포가 균일화되도록 처리하는 영상 전처리 단계;를 더 포함한다.Preferably, the object feature point extracting step further includes an image preprocessing step of processing the input image so that the distribution of lightness values is uniformized by a histogram smoothing method.

한편, 상기 상황 인식 기반의 객체 검출, 인식 및 추적 방법을 제공받기 위한 정보는 서버 컴퓨터로 읽을 수 있는 기록 매체에 저장될 수 있다. 이러한 기록 매체는 컴퓨터 시스템에 의하여 읽혀질 수 있도록 프로그램 및 데이터가 저장되는 모든 종류의 기록매체를 포함한다. 그 예로는, 롬(Read Only Memory), 램(Random Access Memory), CD(Compact Disk), DVD(Digital Video Disk)-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있으며, 또한 케리어 웨이브(예를 들면, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함된다. 또한, 이러한 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산 방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다.
Meanwhile, the information for providing the object detection, recognition, and tracking method based on the situation recognition may be stored in a recording medium readable by a server computer. Such a recording medium includes all kinds of recording media in which programs and data are stored so that they can be read by a computer system. Examples include ROMs (Read Only Memory), Random Access Memory, CD (Compact Disk), DVD (Digital Video Disk) -ROM, magnetic tape, floppy disk, optical data storage device, (For example, transmission over the Internet). Such a recording medium may also be distributed over a networked computer system so that computer readable code in a distributed manner can be stored and executed.

상술한 바와 같이, 본 발명에 따르면 기존의 객체 검출 및 추적 기술의 치명적인 문제점인 조명환경(조명의 방향, 밝기 대조, 명암 등) 변화의 영향을 최소화함으로써, 고신뢰도가 요구되는 침입 탐지 시스템을 제공할 수 있는 장점이 있다.As described above, according to the present invention, an intrusion detection system that requires high reliability is provided by minimizing the influence of a change in a lighting environment (illumination direction, brightness contrast, contrast, etc.), which is a fatal problem of existing object detection and tracking technology There is an advantage to be able to do.

또한, 본 발명에 따르면 외부 조명의 변화 및 잡음의 영향을 최소화하는 알고리즘 및 시스템을 제공함으로써 일정한 성능을 갖는 객체의 특징점 추출 기술 및 추적 프로그램의 개발을 통한 액티브 비젼 기반의 고 신뢰도 객체 추적 시스템을 제공할 수 있는 장점이 있다.According to the present invention, there is provided an algorithm and system for minimizing influence of external illumination and noise, thereby providing an active vision-based high reliability object tracking system through development of feature point extraction technology and tracking program for an object having a constant performance There is an advantage to be able to do.

또한, 본 발명에 따르면 비강압식 영상정보측정을 위하여 객체의 영상정보를 이용하여 객체 검출 및 추적을 통하여 접근 보안을 수행한다. 따라서, 본 발명에 따른 입력 영상 내에서의 객체 검출 및 추적 기술은 인간 중심의 사용자 인터페이스, 공장 검사 자동화, 동작 인식을 통한 가전제품 구동, 장애인 보조 기술로서 산업계로의 이전 등의 효과를 창출할 수 있다.In addition, according to the present invention, access security is performed through object detection and tracking using image information of an object for non-depressed image information measurement. Therefore, the object detection and tracking technology in the input image according to the present invention can create effects such as human-centered user interface, automation of factory inspection, operation of household appliances through motion recognition, have.

또한, 본 발명에 따르면 모니터링 기능을 이용한 사람의 출입관리에 효과적이며, 적은 비용으로 고효율 발생이 가능하고 침입 탐지 기능을 가지므로 신뢰성 있는 시스템 관리가 가능한 장점이 있다.In addition, according to the present invention, there is an advantage that it is effective for managing access to a person using a monitoring function, can generate high efficiency with a low cost, has an intrusion detection function, and can perform reliable system management.

한편, 최근 건물이나 인가된 일정 영역에서의 보안 시설 및 시스템에 대한 시장의 요구사항이 증가하고 있으며 본 발명에 따라 그에 따른 시스템을 개발함으로써 병원, 복지시설, 보호시설, 개인 보안 시설 등과 같은 많은 분야에 활용 가능한 장점이 있다.Meanwhile, market requirements for security facilities and systems in recent building or authorized areas are increasing, and by developing a system according to the present invention, many fields such as hospitals, welfare facilities, protection facilities, personal security facilities, There are advantages that can be applied to.

아울러, 본 발명에 따라 대형 할인 마트나 유통업체 등에서 고객의 흐름 및 구매 행위 분석을 통한 고객 관리 등을 통하여 목적 및 환경에 부합하는 기능의 추가 및 구성이 가능한 장점이 있다.
In addition, according to the present invention, it is possible to add and configure functions in accordance with the purpose and environment through a customer at a large discount mart or a distributor through customer flow through flow analysis and purchasing behavior analysis.

본 발명의 상세한 설명에서 인용되는 도면을 보다 충분히 이해하기 위하여 각 도면의 간단한 설명이 제공된다.
도 1은 본 발명의 실시예에 따른 시스템의 객체 특징점 추출 모듈의 세부 구조를 나타내는 블록도이다.
도 2는 본 발명의 실시예에 따른 시스템의 객체 검출 및 추적 모듈의 세부 구조를 나타내는 블록도이다.
도 3은 본 발명의 실시예에 따른 물체의 특징점 검출 흐름도이다.
도 4 및 도 5는 본 발명의 실시예에 따른 서베일런스 침입 탐지에서 객체 검출 및 추적 과정의 흐름도이다.
도 6은 본 발명의 실시예에 따른 특징점과 비특징점 데이터 수집을 나타내는 도면이다.
도 7은 본 발명의 실시예에 따른 특징벡터가 저장된 텍스트 파일을 나타내는 도면이다.
도 8은 본 발명의 실시예에 따른 실험에 사용된 영상을 나타내는 도면이다.
도 9는 본 발명의 실시예에 따른 특징 영역에 대한 푸리에 변환을 나타내는 도면이다.
도 10은 본 발명의 실시예에 따른 특징 영역으로부터 오른쪽으로 약 4 픽셀 떨어진 곳에 대한 푸리에 변환을 나타내는 도면이다.
도 11은 본 발명의 실시예에 따른 비교 블록 개수와 푸리에 변환 시간 관계 측정 결과를 나타내는 도면이다.
도 12는 본 발명의 실시예에 따른 추출된 객체의 특징점을 나타내는 도면이다.
도 13은 본 발명의 실시예에 따른 학습 시스템의 구조를 나타내는 도면이다.
도 14는 본 발명의 실시예에 따른 서베일런스에서 객체의 검출과 추적 과정을 나타내는 도면이다.
도 15는 본 발명의 실시예에 따른 샘플별 객체 검출율 실험 결과를 나타내는 도면이다.
도 16은 본 발명의 실시예에 따른 제1 방향에 대한 클러스터링 수행 방법을 나타내는 도면이다.
도 17은 본 발명의 실시예에 따른 제2 방향에 대한 클러스터링 수행 방법을 나타내는 도면이다.
도 18은 본 발명의 실시예에 따른 객체 영상 인식과정을 나타내는 도면이다.
도 19는 본 발명의 실시예에 따른 합병과 조정에 의한 후처리 과정을 나타내는 도면이다.
도 20은 본 발명의 실시예에 따른 건물 내 스테레오/줌 카메라 설치를 나타내는 도면이다.
도 21은 본 발명의 실시예에 따른 이동경로 추적 흐름을 나타내는 도면이다.
도 22는 본 발명의 실시예에 따른 스테레오 매칭 모델링을 나타내는 도면이다.
도 23은 본 발명의 실시예에 따른 움직이는 객체의 추적 과정을 나타내는 도면이다.
도 24는 본 발명의 실시예에 따른 히스토그램 평활화를 이용하여 전처리된 영상을 나타내는 도면이다.
도 25는 본 발명의 실시예에 따른 검출된 객체의 특징점을 나타내는 도면이다.
도 26은 본 발명의 실시예에 따른 전처리 및 고속 푸리에 연산을 통한 스펙트럼 영상 획득 과정을 나타내는 도면이다.
BRIEF DESCRIPTION OF THE DRAWINGS A brief description of each drawing is provided to more fully understand the drawings recited in the description of the invention.
1 is a block diagram illustrating a detailed structure of an object feature point extraction module of a system according to an embodiment of the present invention.
2 is a block diagram illustrating a detailed structure of an object detection and tracking module of a system according to an embodiment of the present invention.
3 is a flowchart of a feature point detection of an object according to an embodiment of the present invention.
FIGS. 4 and 5 are flowcharts of object detection and tracking in the surveillance intrusion detection according to an exemplary embodiment of the present invention.
6 is a diagram illustrating minutiae and non-minutiae data collection according to an embodiment of the present invention.
7 is a diagram illustrating a text file storing feature vectors according to an embodiment of the present invention.
8 is a view showing an image used in an experiment according to an embodiment of the present invention.
9 is a diagram illustrating a Fourier transform for a feature region according to an embodiment of the present invention.
10 is a diagram illustrating a Fourier transform for a location approximately 4 pixels to the right from a feature region according to an embodiment of the present invention.
FIG. 11 is a diagram showing the result of measurement of the number of comparison blocks and the Fourier transform time relationship according to the embodiment of the present invention.
12 is a diagram showing minutiae points of an extracted object according to an embodiment of the present invention.
13 is a diagram showing a structure of a learning system according to an embodiment of the present invention.
14 is a diagram illustrating an object detection and tracking process in a surveillance according to an embodiment of the present invention.
FIG. 15 is a view showing an experiment result of object detection rate per sample according to an embodiment of the present invention. FIG.
16 is a diagram illustrating a clustering method in a first direction according to an embodiment of the present invention.
17 is a diagram illustrating a clustering method in a second direction according to an embodiment of the present invention.
18 is a diagram illustrating an object image recognition process according to an embodiment of the present invention.
FIG. 19 is a diagram showing a post-processing process by merger and adjustment according to the embodiment of the present invention. FIG.
20 is a diagram illustrating the installation of a stereo / zoom camera in a building according to an embodiment of the present invention.
FIG. 21 is a diagram illustrating a movement path trace flow according to an embodiment of the present invention.
22 is a diagram illustrating stereo matching modeling according to an embodiment of the present invention.
23 is a diagram illustrating a tracking process of a moving object according to an embodiment of the present invention.
24 is a view showing an image preprocessed using histogram smoothing according to an embodiment of the present invention.
25 is a diagram showing minutiae points of a detected object according to an embodiment of the present invention.
26 is a diagram illustrating a spectral image acquisition process through preprocessing and fast Fourier operations according to an embodiment of the present invention.

후술하는 본 발명에 대한 상세한 설명은, 본 발명이 실시될 수 있는 특정 실시예를 예시로서 도시하는 첨부 도면을 참조한다. 이들 실시예는 당업자가 본 발명을 실시할 수 있기에 충분하도록 상세히 설명된다. 본 발명의 다양한 실시예는 서로 다르지만 상호 배타적일 필요는 없음이 이해되어야 한다. 예를 들어, 여기에 기재되어 있는 특정 형상, 구조 및 특성은 일 실시예에 관련하여 본 발명의 정신 및 범위를 벗어나지 않으면서 다른 실시예로 구현될 수 있다. 또한, 각각의 개시된 실시예 내의 개별 구성요소의 위치 또는 배치는 본 발명의 정신 및 범위를 벗어나지 않으면서 변경될 수 있음이 이해되어야 한다. 따라서, 후술하는 상세한 설명은 한정적인 의미로서 취하려는 것이 아니며, 본 발명의 범위는 적절하게 설명된다면 그 청구항들이 주장하는 것과 균등한 모든 범위와 더불어 첨부된 청구항에 의해서만 한정된다. 도면에서 유사한 참조부호는 여러 측면에 걸쳐서 동일하거나 유사한 기능을 지칭한다.The following detailed description of the invention refers to the accompanying drawings, which illustrate, by way of illustration, specific embodiments in which the invention may be practiced. These embodiments are described in sufficient detail to enable those skilled in the art to practice the invention. It should be understood that the various embodiments of the present invention are different, but need not be mutually exclusive. For example, certain features, structures, and characteristics described herein may be implemented in other embodiments without departing from the spirit and scope of the invention in connection with an embodiment. It is also to be understood that the position or arrangement of the individual components within each disclosed embodiment may be varied without departing from the spirit and scope of the invention. The following detailed description is, therefore, not to be taken in a limiting sense, and the scope of the present invention is to be limited only by the appended claims, along with the full scope of equivalents to which the claims are entitled, if properly explained. In the drawings, like reference numerals refer to the same or similar functions throughout the several views.

본 발명의 구현을 위해 실시간으로 객체의 특징점이나 특징 영역을 추적하기 위해서는 주변 영역과의 구별성이 뚜렷해야한다. 이는 특징점 추적 기법에서 항상 중요한 속성으로 간주되는 것이다. 본 발명에서는 입력된 객체 영상에서 잡음과 조명 변화에 민감하지 않도록 입력 영상에서의 전처리를 수행하며, 이로부터 추출된 객체의 특징적인 요소 정보로부터 수치화된 특징 벡터값을 추출해 낸다. 전처리의 최적화는 객체의 특징점 검출 속도를 향상시킨다.In order to implement the present invention, in order to track a feature point or a feature region of an object in real time, the discrimination from the surrounding region must be distinct. This is always regarded as an important attribute in feature point tracking. In the present invention, preprocessing is performed on the input image so as not to be sensitive to noise and illumination changes in the input object image, and the feature vector values are extracted from the characteristic element information of the extracted object. Optimization of preprocessing improves the speed of object feature detection.

한편, 본 발명의 실시예에 따라 제안하는 시스템에서는 이러한 특징점 검출 단계를 크게 학습 단계와 검출 단계로 구성한다. 학습 단계에서는 객체의 각 특징점의 탐색 영역을 설정하기 위한 관심 영역 모델과 탐색 영역에서 특징점을 검출하기 위한 각 특징점별 검출기를 생성한다. 검출 단계에서는 학습 단계에서 생성했던 관심 영역 모델을 이용해서 입력 영상에서 각각의 특징점의 탐색 영역을 설정하고, 이 탐색 영역에 대하여 고속 푸리에 변환(Fast Fourier Transform)을 이용하여 특징점을 검출한다.Meanwhile, in the proposed system according to the embodiment of the present invention, such a minutiae point detection step is largely composed of a learning step and a detection step. In the learning phase, the ROI model is set up to set the search area of each feature point of the object and the detector of each feature point to detect the feature point in the search area. In the detection step, the search region of each feature point is set in the input image using the ROI model generated in the learning step, and the feature point is detected using Fast Fourier Transform (FFT) for the search region.

객체의 특징 영역에 대하여 고속 푸리에 변환을 적용하였을 때 객체의 주변 영역과는 다른 스펙트럼 형태가 나오게 된다. 이러한 성질을 이용하여 객체의 각 특징점을 검출하게 되고 이 방법은 기존의 방법보다 특징점을 검출하는 속도가 더 빠르다.When a fast Fourier transform is applied to the feature region of an object, a spectrum form different from the surrounding region of the object is obtained. By using this property, each feature point of the object is detected, and this method is faster in detecting the feature point than the existing method.

이러한 객체의 특징점 검출 방법을 기반으로, 똑같은 여러 객체, 즉 사람 객체가 하나의 입력 영상에 여러 명 들어있을 경우에 베이지안(Bayesian) 분류기를 이용하여 사람 객체만을 검출 및 추적할 수 있다. 입력 영상의 다양한 상황은 조명 상태, 객체의 동작 패턴, 배경 영상 및 전경 영상의 잡음에 의하여 영향을 받는다.Based on the feature point detection method of these objects, it is possible to detect and track only human objects by using Bayesian classifier when several same objects, ie, human objects, are contained in one input image. The various conditions of the input image are affected by the lighting condition, the motion pattern of the object, the background image, and the noise of the foreground image.

이러한 다양한 상황을 가진 영상에 대하여 영상에서 객체들을 n개의 그룹으로 분류한다. 분류된 객체의 영상에 대하여 가장 최적의 베이지안 분류기를 이용하여 특징점을 검출한다. 가장 최적의 베이지안 분류기로써 특징점을 검출한다는 의미는 분류된 영상에 맞게 임의로 설정한 임계값(threshold)을 이용하여 특징점을 검출한다는 것이다. 그 후에 합병과 조정 방법과 같은 후처리 과정을 통하여 객체의 중심이 결정됨으로써 객체를 검출하게 된다. 이 과정에서 2D Haar 웨이블릿 변형이라는 방법이 사용되고 이 방법은 본 발명에 따른 시스템이 조명의 영향을 덜 받도록 한다.For images with various situations, we classify the objects into n groups in the image. The feature points are detected using the most optimal Bayesian classifier for the images of the classified object. Detecting the feature point as the most optimal Bayesian classifier means detecting the feature point using a threshold set arbitrarily according to the classified image. After that, the object is detected by determining the center of the object through post-processing such as merger and adjustment method. In this process, a method called 2D Haar wavelet transformation is used, which makes the system according to the invention less susceptible to illumination.

따라서, 본 발명에 따른 영상의 상황분석에 기반을 둔 방법은 다양하게 변화하는 환경에 대하여 객체 검출 및 추적의 정확성 측면에서 기존의 방법보다 우수한 성능을 보인다. 또한, 후처리 과정에서 사용된 합병과 조정 전략은 최근에 제기되어 왔던 다양한 동작 패턴의 객체의 검출과 추적 알고리즘을 어렵게 만드는 검출 대상 영역별 밝기 차이에 대한 보정 문제와 객체 검출시스템의 처리 속도 문제를 해결할 수 있다.Therefore, the method based on the context analysis of the image according to the present invention shows better performance than the conventional method in terms of accuracy of object detection and tracking for various changing environments. In addition, the merging and reconciliation strategies used in the post-processing process are based on the problem of correction of the difference in brightness per detection area and the processing speed of the object detection system, which makes the detection and tracking algorithm of various motion patterns difficult, Can be solved.

이하, 본 발명의 바람직한 실시예에 따른 상세한 설명을 첨부된 도면들을 참조하여 설명한다. 하기에는 본 발명을 설명함에 있어 관련된 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENT Hereinafter, a detailed description according to a preferred embodiment of the present invention will be described with reference to the accompanying drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention rather unclear.

본 발명의 실시예에 따른 서베일런스 시스템은 객체 특징점 추출 모듈(100)과 객체 검출 및 추적 모듈(200)로 구성될 수 있다.The surveillance system according to the embodiment of the present invention may include an object feature point extraction module 100 and an object detection and tracking module 200.

도 1은 본 발명의 실시예에 따른 시스템의 객체 특징점 추출 모듈(100)의 세부 구조를 나타내는 블록도이며, 도 2는 본 발명의 실시예에 따른 시스템의 객체 검출 및 추적 모듈(200)의 세부 구조를 나타내는 블록도이다.FIG. 1 is a block diagram illustrating a detailed structure of an object feature point extraction module 100 of a system according to an embodiment of the present invention. FIG. 2 is a detailed view of an object detection and tracking module 200 of a system according to an embodiment of the present invention. Fig.

도 3은 본 발명의 실시예에 따른 객체 특징점 추출 모듈을 이용한 물체의 특징점 검출 흐름도이며, 도 4 (또는 도 4-1)는 서베일런스에서 객체 검출 및 추적 모듈을 이용한 객체의 검출 및 추적의 흐름도이다.FIG. 3 is a flowchart of a feature point detection of an object using an object feature point extraction module according to an embodiment of the present invention. FIG. 4 (or FIG. 4-1) FIG.

도 1을 참조하면, 객체 특징점 추출 모듈(100)은 객체 구성요소 검출부(110), 객체 구성요소 정규화부(120), 학습 데이터베이스 저장부(130), 고속 푸리에 연산부(140), 후처리부(150), 특징점 추출부(160) 등을 포함하여 구성될 수 있다.1, the object feature point extraction module 100 includes an object component detection unit 110, an object component normalization unit 120, a learning database storage unit 130, a fast Fourier calculation unit 140, a post-processing unit 150 A feature point extraction unit 160, and the like.

도 3의 객체 특징점 추출 모듈을 이용한 물체의 특징점 검출 흐름도를 참조하여, 도 1의 객체 특징점 추출 모듈(100)의 각 구성 블록의 수행 기능과 물체의 객체 특징점 추출 모듈(100)에 의한 특징점 추출 과정을 설명한다.Referring to the characteristic point detection flowchart of the object using the object characteristic point extraction module of FIG. 3, the function of each building block of the object characteristic point extraction module 100 of FIG. 1 and the characteristic point extraction process of the object object characteristic point extraction module 100 .

객체 구성요소 검출부(110)는, 다른 객체 이미지와 비교했을 때 구별되는 형상과 색상정보를 가지는 검출하고자 하는 객체만이 갖는 독특한 특징 부위의 유효한 위치를 선정하는 기능을 수행한다.The object component detection unit 110 performs a function of selecting a valid position of a unique feature region having only the object to be detected having shape and color information that are distinguished from each other when compared with other object images.

객체 구성요소 정규화부(120)는, 영상 전처리부(121), 관심영역 모델 생성부(122), 특징 벡터 추출부(123), 검출기 생성부(124)로 구성되며 객체의 독특한 특징 부위를 공식화된 수식이나 계산에 의하여 벡터값 등으로 수치화하고 베이지안 판별식을 이용하여 검출기를 생성하는 기능을 수행한다.The object component normalization unit 120 includes an image preprocessing unit 121, a ROI generating unit 122, a feature vector extracting unit 123 and a detector generating unit 124, And a detector is generated by using a Bayesian discriminant.

세부적으로 영상 전처리부(121)는, 입력 영상이 너무 어둡거나 또는 너무 밝을 경우 등과 같이 픽셀 밝기값이 특정 값에 치우쳐져 있는 것을 보다 넓게 영상 모든 부분으로 분산시켜 주는 이미지 처리 방법을 수행한다. 본 발명에서는 히스토그램 평활화(Histogram Equalization) 방법을 이용하여 입력 영상에 명암에 의한 잡음 영상이 있을 시에 이들 명암 값의 분포가 균일화되어 영상이 향상될 수 있도록 한다.In detail, the image preprocessing unit 121 performs an image processing method that distributes the pixel brightness values that are biased to specific values, such as when the input image is too dark or too bright, to a wider range of the image. In the present invention, when there is a noise image due to light and darkness in the input image using the histogram equalization method, the distribution of the light and dark values is uniformized so that the image can be improved.

관심영역 모델 생성부(122)에서는 객체의 특징점을 검출하기 위해 해당 객체를 다른 배경 영상과 구별해주는 독특한 관심영역을 찾는다. 본 발명에서는 특징점의 관심영역을 찾기 위해 관심영역모델을 구성하여 보다 정확한 특징점 검출에 활용한다. 이때, 검출하고자 하는 객체의 독특한 특징은 항상 일정한 거리에 존재한다는 분석학적 지식을 활용하여 관심영역모델을 생성한다.In order to detect the feature point of the object, the ROI generation unit 122 searches for a unique ROI that differentiates the object from other background images. In the present invention, a region of interest is constructed to find a region of interest of a minutiae, and utilized for more accurate minutiae detection. At this time, the ROI model is generated by using the analytical knowledge that the unique characteristic of the object to be detected always exists at a certain distance.

한편, 관심영역모델은 다음과 같은 3단계를 통해 생성된다.On the other hand, the ROI model is generated through the following three steps.

단계 1. 하기 <표 1>과 같이 16개 특징점의 좌표를 벡터로 만든다.Step 1. Make the vectors of the 16 feature points as shown in <Table 1> below.

1번 특징점 좌표 xCoordinate x of feature point 1 1번 특징점 좌표 yCoordinate y of minutiae 1 2번 특징점 좌표 xCoordinate x of minutiae 2 ............ 16번 특징점 좌표 xCoordinates x of 16 minutiae 16번 특징점 좌표 yCoordinates of 16 feature points y

단계 2. 특징점의 좌표 벡터를 정규화한다. 이때, 좌표의 중심점은 객체의 가장 독특한 특징점을 찾아 두 개의 특징점의 거리가 1이 되도록 정규화한다.Step 2. Normalize the coordinate vector of the feature point. At this time, the center point of the coordinates is normalized so that the distance between the two feature points is 1, and the most unique feature point of the object is found.

단계 3. 관심영역모델은 각 객체 특징점의 정규화된 평균좌표벡터와 특징점의 평균위치에서 변화 가능한 거리를 계산한 영역 벡터가 관심영역 모델로 설정된다. 영역벡터는 평균좌표벡터에서 각 특징점 좌표벡터의 각 특징점 위치가 얼마만큼 떨어져 있는지 측정하는 것이다. 이때, 평균에서 가장 멀리 떨어져 있는 거리를 영역벡터에 저장한다.Step 3. In the ROI model, a normalized average coordinate vector of each object feature point and a region vector that calculates a changeable distance from the average position of the feature points are set as ROI models. The area vector is a measure of how far each minutiae point of each minutiae coordinate vector is located in the average coordinate vector. At this time, the distance farthest from the average is stored in the area vector.

특징 벡터 추출부(123)에서는 베이지안을 이용해 특징점을 분류하기 위해서는 두 가지 클래스 모델을 이용한다. 상기 두 가지 클래스 모델은 특징점 모델과 비 특징점 모델이다. 본 발명에서는 특징점 모델을 위한 벡터로서 도 6에 도시된 바와 같이 특징점과 주변 픽셀을 포함한 3×3 개의 픽셀에 대해 8개의 주파수와 5개의 방향을 가진 2D Haar 웨이블릿을 통해 40차원의 벡터를 추출한다. 비 특징점 모델을 위한 벡터는 특징점 관심영역 안에서 검출하는 것이기 때문에 특징점에서 6픽셀 떨어진 8개의 픽셀을 이용하여 벡터화한다.The feature vector extracting unit 123 uses two class models to classify the feature points using Bayesian. The two class models are feature point models and non-feature point models. In the present invention, as a vector for a minutia model, a 40-dimensional vector is extracted through 2D Haar wavelets having 8 frequencies and 5 directions for 3 × 3 pixels including feature points and surrounding pixels as shown in FIG. 6 . Since the vector for the non-feature point model is to be detected within the feature point interest region, vectorization is performed using 8 pixels 6 pixels away from the feature point.

검출기 생성부(124)에서는 특징점 검출기로서 2D Haar 웨이블릿을 이용하여 특징점과 비 특징점을 벡터화한다. 이때, 추출된 특징벡터에 대하여 베이지안 판별식을 통해 생성한다. 특징점과 비 특징점 패턴은 다 변량 정규 분포로 나타나므로 판별식으로서 패턴의 판별에 관련 있는 마할라노비스(Mahalanobis) 거리공식을 이용한다. 상기 마할라노비스 거리공식은 학습 패턴들의 공분산과 평균벡터를 이용하여 측정할 수 있기 때문에 학습단계에서는 특징점 패턴과 비 특징점 패턴의 데이터를 이용해 각각의 공분산과 평균벡터를 생성한다.The detector generating unit 124 vectors the minutiae and non-minutiae using the 2D Haar wavelet as the minutiae detector. At this time, the extracted feature vector is generated by a Bayesian discriminant. Since the feature points and non-feature point patterns are represented by a multivariate normal distribution, the Mahalanobis distance formula related to pattern discrimination is used as a discriminant. Since the Mahalanobis distance formula can be measured using the covariance of the training patterns and the mean vector, each covariance and average vector are generated using the data of the minutiae pattern and the non-minutiae pattern in the learning phase.

학습 데이터베이스 저장부(130)는 위 단계에서 생성된 특징 벡터값들을 파일 형태로 저장하는 것이다. 이 파일은 텍스트 파일(*.txt) 형태 또는 엑셀 파일(*.xls) 형태로 저장될 수 있다. 어떤 형식의 파일로 저장하든 이후 단계에서 입력 값으로 사용될 수 있도록 일정한 형식과 구분자들을 이용하여 저장한다. 도 7은 결과로 생성된 특징 벡터값을 저장한 텍스트 파일의 예이다.The learning database storage unit 130 stores the feature vector values generated in the above step in a file format. This file can be saved as a text file (* .txt) or as an Excel file (* .xls). Regardless of the format of the file, it is stored in a certain format and delimiters so that it can be used as an input value at a later stage. 7 is an example of a text file storing the resultant feature vector value.

고속푸리에 연산부(140)는 찾고자 하는 객체의 특징점 검출을 위해 학습 데이터베이스에 저장되어 있는 특징 벡터값들을 고속 푸리에 연산의 입력값으로 사용한다. 고속 푸리에 변환은 임의의 신호에 포함되어 있는 주파수 성분을 분석하는 도구이며 영상 처리뿐만 아니라 신호 분석이나 음성 처리에서도 적용되는 기법이다.The fast Fourier calculator 140 uses the feature vector values stored in the learning database as the input values of the fast Fourier calculations for the feature point detection of the object to be searched. Fast Fourier transform (FFT) is a tool for analyzing frequency components included in arbitrary signals and is applied not only to image processing but also to signal analysis and speech processing.

도 8은 고속 푸리에 연산의 실험에 사용된 영상이다. 상기 도 8의 영상에 대해 도 9에 도시된 바와 같이 특징 영역에 대하여 고속 푸리에 변환을 수행한다. 도 10은 선택된 특징 영역의 주변 영역에 대한 고속 푸리에 변환을 수행한 스펙트럼 영상을 보여준다. 상기 도 9 및 도 10에 도시된 바와 같이 변환 결과 스펙트럼의 형태가 다르게 나타남을 알 수 있다.8 is an image used in an experiment of a fast Fourier operation. 8, fast Fourier transform is performed on the feature region as shown in FIG. FIG. 10 shows a spectral image obtained by performing a fast Fourier transform on a peripheral region of a selected feature region. As shown in FIG. 9 and FIG. 10, it can be seen that the transformed spectrum has a different shape.

서베일런스 침입탐지 플랫폼에서 객체를 검출하고 추적하고자 할 때 고속 푸리에 연산을 이용하면 특징 영역의 분석은 효율적이다. 본 발명의 실시예에 따라 검출하고자 하는 특징점 검출 방법은 고속 푸리에 변환을 이용하기 때문에 특징점 검출 속도가 빠르며 이후 단계에서 객체의 추적 시 실패하는 확률이 낮아진다. 예컨대, 서베일런스 침입탐지 시스템에서 5개 이내의 객체의 독특한 특징점을 실시간으로 추적할 때 객체 추적의 정확도를 높일 수 있다.When the object is detected and tracked in the surveillance intrusion detection platform, the analysis of the feature region is efficient by using the fast Fourier operation. Since the feature point detection method to be detected according to the embodiment of the present invention uses fast Fourier transform, the feature point detection speed is fast and the probability of failing in tracking the object at a later stage is lowered. For example, in the surveillance intrusion detection system, it is possible to improve the accuracy of object tracking when tracking unique feature points of less than 5 objects in real time.

후처리부(150)는 잡음 제거를 하기 위해서 상기 스펙트럼 영상에 임의의 임계값(threshold)을 적용한다. 즉, 미리 설정된 특정 임계값 이상인 경우에만 객체의 특징 영역으로 사용하고 상기 임계값 이하인 부분은 객체의 특징후보 영역에서 제외시킨다. 분류된 데이터가 모두 객체의 특징점이라면 후처리가 필요하지 않을 수 있다. 그러나, 이 과정은 입력 영상에 고속 푸리에 연산을 적용하였을 때 발생하는 거짓의 객체 특징점 추출이라는 오류를 제거하기 위한 것이다.The post-processor 150 applies a certain threshold to the spectral image to remove noise. That is, the region is used as the feature region of the object only when it is greater than or equal to a preset specific threshold value, and the portion below the threshold is excluded from the feature region of the object. If all the classified data are the minutiae of the object, post-processing may not be necessary. However, this process is intended to eliminate the error of object feature point extraction, which occurs when a fast Fourier operation is applied to an input image.

특징점 추출부(160)는 합병과 조정 전략에 의하여 후처리 과정을 통하여 찾아진 객체 후보 영역 안에서 객체의 특징점들의 위치를 확정짓는 기능을 수행한다. 본 발명에서는 추출된 객체의 특징점들에 대하여 베이지안 판별식 방법이 모든 특징점에서 높은 성능을 보이고 있으며, 사람 객체의 경우에 특히 다리와 팔과 같은 관절 부분 영역과 머리 영역에서 높은 데이터의 비율을 보인다. 도 12는 추출된 객체의 특징점을 나타낸다.The feature point extraction unit 160 performs a function of determining the location of the feature points of the object in the object candidate region found through post-processing according to the merger and adjustment strategy. In the present invention, the Bayesian discriminant method for the extracted feature points of the object shows high performance in all the feature points. In the case of the human object, the ratio of high data in the joint region and the head region, especially the legs and arms, is shown. 12 shows the minutiae points of the extracted object.

이와 같이, 객체 특징점 추출 모듈(100)을 통하여 추출된 물체의 특징점은 객체 검출 및 추적 단계에서 동작 패턴의 형태에 따라 이미지가 분류된다. 이때, 클러스터에서 최적화된 다른 임계값을 베이지안 방법에 적용한다.As described above, the feature points of the object extracted through the object feature point extraction module 100 are classified according to the type of operation pattern in the object detection and tracking step. At this time, another threshold value optimized in the cluster is applied to the Bayesian method.

이러한 본 발명에 따른 방법을 이미지의 상황 기반 객체 검출 방법이라고 칭한다. 일반적인 베이지안 방법은 전체 테스트 이미지에 대하여 같은 임계값을 적용하지만, 본 발명에 따른 상황 기반 방법은 클러스터의 개수에 따라 적응적인 임계값을 적용한다.Such a method according to the present invention is called a situation-based object detection method of an image. The general Bayesian method applies the same threshold for the entire test image, but the context-based method according to the present invention applies an adaptive threshold according to the number of clusters.

도 13은 두 가지 구분된 단계의 네트워크를 이용하여 학습하는 과정을 보여준다. 첫 번째 단계에서는 비감독 학습을 진행한다. 두 번째 단계에서는 다양한 임계값을 활용하여 규칙적인 감독 방법을 이용하여 학습한다. 이때, 입력 패턴은 64x64 픽셀의 회색 스케일의 이미지 크기로 벡터 처리된다. 한편, 입력 공간으로부터 숨겨진 단위 공간으로의 변형은 비선형이며, 숨겨진 단위 공간으로부터 출력 공간으로의 변형은 선형이다. RBF 분류기는 고차원 공간으로 입력 벡터를 확장하고 K-means를 이용하여 학습한다. 네트워크 입력은 1차원 벡터와 같이 네트워크로 들어간 n개의 값이 정규화되고 1/2 크기로 재조정된 이미지로 구성된다.FIG. 13 shows a process of learning using two different levels of network. In the first step, non-supervised learning is conducted. In the second step, we use regular supervisory methods using various thresholds. At this time, the input pattern is vector-processed to a gray scale image size of 64x64 pixels. On the other hand, the deformation from the input space to the hidden unit space is nonlinear, and the deformation from the hidden unit space to the output space is linear. The RBF classifier extends the input vector to a higher dimensional space and learns it using K-means. The network input is composed of images that are normalized by the n values entered into the network as a one-dimensional vector and readjusted to 1/2 size.

도 14는 서베일런스에서 객체의 검출과 추적 과정을 나타낸다. 예컨대, 본 발명의 실시예에 따라 Haar 특징을 기반으로 하는 베이지안 분류기를 이용하여 객체를 검출하고 추적하는 과정을 보여준다. 본 발명에서는 객체 검출을 위하여 2D Haar 웨이블릿을 통한 특징 벡터를 구성하고 베이지안 분류기를 학습시키기 위해 사용된다.Figure 14 shows the detection and tracking process of an object in surveillance. For example, it shows a process of detecting and tracking an object using a Bayesian classifier based on the Haar feature according to an embodiment of the present invention. In the present invention, a feature vector is constructed through a 2D Haar wavelet for object detection and is used to learn a Bayesian classifier.

이와 같이 본 발명에서 만든 영상의 상황 기반 분석을 기초로 한 방식이 서베일런스에서 객체 검출 및 추적에 활용됨으로써 동적인 환경에서도 효율성 및 정확성을 높일 수 있게 된다. 이 방법은 입력 영상에서 배경의 명암으로 인한 요인이나 다른 객체의 잡음 영상이 혼재된 경우에도 일정한 성능을 나타낸다.In this way, the method based on the context-based analysis of the image created in the present invention is utilized for object detection and tracking in surveillance, thereby improving the efficiency and accuracy even in a dynamic environment. This method shows a certain performance even when the background brightness or background noise is mixed in the input image.

도 2를 참조하면, 객체 검출 및 추적 모듈(200)은 영상의 상황 기반 분석부(210), 객체 이미지 분류부(220), 상황 적응적 베이지안 분류부(230), 객체 후보 영역 검출부(240) 및 객체 추출부(250) 등을 포함하여 구성될 수 있다.2, the object detection and tracking module 200 includes an image condition based analysis unit 210, an object image classification unit 220, a situation adaptive Bayesian classification unit 230, an object candidate region detection unit 240, An object extraction unit 250, and the like.

도 4의 서베일런스에서 객체 검출 및 추적 모듈을 이용한 객체의 검출 및 추적의 흐름도를 참조하여, 도 2의 객체 검출 및 추적 모듈(200)의 각 구성 블록의 수행 기능 및 객체 검출 및 추적 모듈(200)에 의한 서베일런스에서 객체 검출 및 추적 과정을 설명한다.Referring to the flow chart of the object detection and tracking using the object detection and tracking module in the surveillance of FIG. 4, the object detection and tracking module of the object detection and tracking module 200 and the object detection and tracking module 200) will be described in order to detect and track objects in surveillance.

객체를 검출 및 추적하기 위해 도 4와 같은 단계로 입력 영상을 처리한다. 객체 검출기는 전처리 처리가 된 영상에서 ±20도까지 회전되고, 64x64 픽셀의 최소 크기의 객체를 검출하기 위해 설계하였다. 검출기는 이미지 상황 기반 방법의 경로와 베이지안 상황 인식 방법을 사용한다.In order to detect and track the object, the input image is processed as shown in FIG. The object detector is designed to detect objects with the minimum size of 64 × 64 pixels rotated to ± 20 degrees in the preprocessed image. The detector uses the path of the image context-based method and the Bayesian context recognition method.

한편, 영상의 다양한 상황은 조명 상태, 동작 패턴, 배경 영상 및 전경 영상의 잡음에 의하여 영향을 받는다. 이때, 영상의 상황은 K-means와 RBF의 하이브리드 네트워크에 의하여 모델화되어지고 분석된다. 영상의 상황 분석은 베이지안 분류기가 변화하는 배경 영상과 동작 패턴에 따라 조정될 수 있도록 하기 위해 몇 가지 영상의 상황 중에 하나로 검출된 객체 영상을 배정한다. 따라서 영상의 상황분석에 기반을 둔 방법은 다양하게 변화하는 환경에 대하여 객체 검출 및 추적의 정확성 측면에서 기존의 방법보다 우수한 성능을 보인다.On the other hand, the various situations of the image are affected by the illumination state, the motion pattern, the background image, and the noise of the foreground image. At this time, the image condition is modeled and analyzed by the hybrid network of K-means and RBF. In order to allow the Bayesian classifier to be adjusted according to the changing background image and motion pattern, the situation analysis of the image is performed by assigning the detected object image to one of several image situations. Therefore, the method based on the context analysis of the image shows better performance than the existing method in terms of the accuracy of object detection and tracking for various changing environments.

본 발명에서는 다양한 환경의 영향을 감소시키기 위해 베이지안 프레임 워크를 기반으로 하는 Haar 웨이블릿뿐만 아니라 후처리 과정을 사용한다. 후처리 과정은 합병과 조정 절차를 통해서 배경 영상의 잡음 문제를 해결한다.In the present invention, a post-processing process is used as well as a Haar wavelet based on a Bayesian framework to reduce the influence of various environments. The post-processing process solves the noise problem of the background image through merger and adjustment procedures.

검출 알고리즘은 세 가지 단계의 모듈로 구성한다. 첫 번째 단계는 영상의 상황 기반 분석이고, 두 번째 단계는 상황 적응적 임계값을 가진 베이지안 판별식의 적용이다. 세 번째 단계는 후보 영역에 대한 합병과 조정 전략의 적용이다. 이때, K-means와 RBF 알고리즘을 이용하여 클래스에 의하여 객체를 분류한다. 영상의 상황 분석에 의하여 분류된 영상은 베이지안 검출기를 통과한다. 베이지안 검출기는 여섯 레벨 다중 해상도 방법, 2D Haar 변형기를 이용한 특징 벡터 생성기와 베이지안 판별식 방법을 기초로 한 Haar 특징을 가진 후보 윈도우 영역 분류기로서 이루어진다.The detection algorithm consists of three stages of modules. The first step is the context-based analysis of the image, and the second step is the application of the Bayesian discriminant with the context adaptive threshold. The third step is the application of merger and adjustment strategies to the candidate areas. In this case, objects are classified by class using K-means and RBF algorithm. The image classified by the situation analysis of the image passes through the Bayesian detector. The Bayesian detector is implemented as a candidate window region classifier with a Haar feature based on a six-level multiresolution method, a feature vector generator using a 2D Haar transformer, and a Bayesian discriminant method.

객체 검출 방법을 이용하여 객체가 발견된 후 히스토그램 평활화가 검출된 영역으로 처리되어 진다. 이때, 검출된 객체 영상은 정면에서 바라본 형태이다. 그러나 이러한 객체 정면의 동작 패턴은 쉽게 다른 옆면이나 뒷면의 동작 패턴으로 확장될 수 있다. 그 후에, 영역은 64x64 윈도우에 의하여 스캔된다.After object is detected using object detection method, histogram smoothing is processed into detected area. At this time, the detected object image is viewed from the front. However, the behavior patterns of these object fronts can easily be extended to other side or back-side motion patterns. After that, the area is scanned by a 64x64 window.

2D Haar 웨이블릿 변형은 각각의 윈도우에 대하여 진행된다. 각각의 윈도우는 베이지안 분류기를 기반으로 하는 Harr 특징에 의하여 테스트 되고 윈도우가 후보인지 아닌지가 결정된다. 2D Haar 웨이블릿 변형은 시스템이 조명의 영향을 덜 받도록 한다. 베이지안 분류기를 기반으로 하는 Haar 특징을 이용한 방법은 서로 다른 스케일을 가진 후보 영역이 나타난다. 마지막으로, 합병과 조정 전략이 적용되고 객체의 중심이 결정된다.The 2D Haar wavelet transform is performed for each window. Each window is tested by the Harr feature based on the Bayesian classifier to determine whether the window is a candidate or not. 2D Haar wavelet transforms make the system less susceptible to illumination. Bayesian classifiers based on the Haar feature have candidate regions with different scales. Finally, merger and adjustment strategies are applied and the center of the object is determined.

영상의 상황 기반 분석부(210)는 영상의 범주들 중에서 하나로 검출된 영상을 배정한다. 영상의 상황은 K-means와 RBF의 하이브리드 네트워크에 의하여 모델화되어지고 분석된다. RBF 분류기는 고차원 공간으로 입력 벡터를 확장한다. RBF 네트워크는 전통적인 3계층 back-propagation 구조를 가지고 있다. 이 단계에서 숨겨진 단위들은 k-means를 이용하여 훈련된다. 네트워크 입력은 1차원 벡터와 같이 네트워크로 들어간 n개의 정규화되고 1/2크기로 재조정된 객체 영상들로 이루어진다. 이때, 입력 단위는 실수 값을 가지며, 벡터값은 정규화된다.The context-based analysis unit 210 assigns the detected image to one of the categories of the image. The situation of the image is modeled and analyzed by the hybrid network of K-means and RBF. The RBF classifier expands the input vector into a high dimensional space. The RBF network has a traditional 3-tier back-propagation structure. The hidden units at this stage are trained using k-means. The network input consists of n normalized and resized object images into a network, such as a one-dimensional vector. At this time, the input unit has a real value, and the vector value is normalized.

객체 이미지 분류부(220)는 클러스터링 알고리즘을 적용하여 객체 여부를 판정하도록 한다. 즉, 객체의 구성 요소 분할 수행 방법을 개선하여 추출된 객체의 구성 요소간의 특징을 바탕으로 추출하고자 하는 객체의 영상인지를 검증한다. 이때, 특징점을 이용하여 효율적으로 객체의 영역 정보를 축소하여 분석된 특징 요소를 이용하여 유사도 측정, PCA, k-NN, 상관관계 방법과 같은 클러스터링 방법을 이용하여 객체의 영상을 분류한다. 즉, 객체 각각의 센터 점을 찾은 후 클러스터링(clustering)을 수행하여 각각의 부분을 분리한다.The object image classifying unit 220 determines whether the object is an object by applying a clustering algorithm. In other words, by improving the method of performing element partitioning of an object, it is verified that the image of the object to be extracted is extracted based on the characteristics of the extracted object components. At this time, the region information of the object is efficiently reduced by using the feature points, and the image of the object is classified using the analyzed feature elements by using the clustering method such as the similarity measurement, PCA, k-NN and correlation method. That is, the center point of each object is found and clustering is performed to separate each part.

클러스터링은 프로젝션 벡터의 2가지 방향성으로 수행되어 진다. "1st K-means"는 도 16에 도시된 바와 같이 폭(width)을 이용하여 수행되어지고, "2nd 클러스터링"은 도 17에 도시된 바와 같이 상기 "1st K-means"에서 수행되어진 열(row)값에 대한 평균을 갖기 때문에, 2nd 클러스터링이 이루어진 후 노이즈 제거 효과를 볼 수 있다.Clustering is performed with two directions of the projection vector. 16, the " 1st K-means "is performed using a width as shown in FIG. 16, and the" 2nd clustering " ) Values, we can see the effect of noise reduction after 2nd clustering.

상황 적응적 베이지안 분류부(230)는 상기 단계에서 분류된 객체의 영상에 대하여 클러스터에서 최적화된 다른 임계값을 베이지안 방법에 적용한다. 이를 영상의 상황 기반 객체 검출 방법이라고 부른다. 일반적인 베이지안 방법은 전체 테스트 이미지에 대하여 같은 임계값을 적용하지만, 본 발명에 따른 상황 기반 방법은 클러스터의 개수에 따라 적응적인 임계값을 적용한다.The context adaptive Bayesian classifier 230 applies another threshold value optimized in the cluster to the Bayesian method for the image of the object classified in the above step. This is called the context-based object detection method of the image. The general Bayesian method applies the same threshold for the entire test image, but the context-based method according to the present invention applies an adaptive threshold according to the number of clusters.

객체 후보 영역 검출부(240)는 다양한 환경의 영향을 감소시키기 위해 베이지안 프레임 워크를 기반으로 하는 Haar 웨이블릿뿐만 아니라 후처리 과정을 사용한다. 후처리 과정은 합병과 조정 절차를 통해서 배경 영상의 잡음 문제를 해결한다. 이미지 상황 분석에 의하여 분류된 이미지는 베이지안 검출기를 통과한다. 베이지안 검출기는 여섯 레벨 다중 해상도 방법, 2D Haar 변형기를 이용한 특징 벡터 생성기와 베이지안 판별식 방법을 기초로 한 Haar 특징을 가진 후보 윈도우 영역 분류기로서 이루어진다.The object candidate region detection unit 240 uses a post-processing process as well as a Haar wavelet based on the Bayesian framework to reduce the influence of various environments. The post-processing process solves the noise problem of the background image through merger and adjustment procedures. Image classified by image situation analysis passes through a Bayesian detector. The Bayesian detector is implemented as a candidate window region classifier with a Haar feature based on a six-level multiresolution method, a feature vector generator using a 2D Haar transformer, and a Bayesian discriminant method.

2D Haar 웨이블릿 변형은 각각의 윈도우에 대하여 진행된다. 각각의 윈도우는 베이지안 분류기를 기반으로 하는 Harr 특징에 의하여 테스트 되고 윈도우가 후보인지 아닌지가 결정된다. 2D Haar 웨이블릿 변형은 시스템이 조명의 영향을 덜 받도록 한다. 베이지안 분류기를 기반으로 하는 Haar 특징을 이용한 방법은 서로 다른 스케일을 가진 후보 영역이 나타난다. 이때, 도 19에서와 같이 합병과 조정 전략이 적용되어지고 객체의 중심이 결정된다.The 2D Haar wavelet transform is performed for each window. Each window is tested by the Harr feature based on the Bayesian classifier to determine whether the window is a candidate or not. 2D Haar wavelet transforms make the system less susceptible to illumination. Bayesian classifiers based on the Haar feature have candidate regions with different scales. At this time, as shown in FIG. 19, the merger and adjustment strategy are applied and the center of the object is determined.

합병과 조정 전략은 최근에 제기되어 왔던 다양한 동작 패턴의 객체 검출과 추적 알고리즘을 어렵게 만드는 검출 대상 영역별 밝기 차이에 대한 보정 문제와 객체 검출시스템의 처리 속도 문제를 해결할 수 있다.The merging and reconciliation strategy can solve the problem of the correction of the difference of brightness per detection area and the processing speed of the object detection system which makes the object detection and tracking algorithm of various motion patterns which have been raised recently difficult.

객체 추적부(250)는 특정지역/영역에서 움직이는 객체에 대한 보안 및 모니터링을 수행하는 단계이다. 즉, 도 20에 도시된 바와 같이 건물 내에 필요로 하는 지역에 스테레오 카메라와 줌 카메라등을 설치하여 획득된 영상 정보를 이용하여 요주인물/VIP의 현재 위치 파악 및 특정 지역의 접근제어에 사용된다.The object tracking unit 250 performs security and monitoring of moving objects in a specific area / area. That is, as shown in FIG. 20, a stereoscopic camera and a zoom camera are installed in an area required in a building, and the acquired image information is used to grasp the current position of the person / VIP and control access to the specific area.

이때, 도 21에 도시된 바와 같이 각 지역에서 유입되는 움직임의 2차원 적인 정보를 이용하여 객체를 추적한다. 객체의 움직임 정보와 함께, 줌카메라는 출입의 보안이 극도로 필요한 경우 접근하는 사람의 얼굴 영상정보를 서버로 전송하고, 서버에서는 접근하려고 하는 사람의 신상명세를 파악하여 물리적인 접근제어를 수행할 수 있다. 이와 같이 검출된 객체를 추적하기 위하여 설치된 스테레오/줌 카메라들로부터 입력되는 영상정보를 이용하여 객체를 추적한다.At this time, as shown in FIG. 21, the object is tracked by using two-dimensional information of the motion inputted from each region. In addition to the motion information of the object, the zoom camera transmits the facial image information of the approaching person to the server when the access security is extremely needed, and the server grasps the personal details of the person who is about to approach and performs physical access control . In order to track the detected object, the object is tracked using the image information input from the installed stereo / zoom cameras.

스테레오 매칭 처리 방법은 도 22에 도시된 바와 같이 입력된 영상에서 겹쳐지는 객체가 발생하면, 겹침 회피를 이용하여 겹쳐지는 객체들에 대한 구분을 수행한다. 공간적으로 떨어진 위치에 있는 다수개의 렌즈를 통해 동일한 장면으로부터 영상의 쌍을 구성하여 두 영상에서 볼 수 있는 부분들을 복원한다. 기존의 객체들을 추적하는 시스템에서 사용하는 방법은 모델 기반 방법으로써 참조 영상 방법을 이용하여 영상 내에서 객체를 획득한 후 이를 기반으로 모델을 정합하는 방법이다. 따라서, 복잡한 배경 하에서 움직이는 객체를 획득한 후 최소 하우스도르프 거리(minimum hausdorff distance)를 이용하여 모델과 정합 시킨 후, 정합 시킨 결과값이 최소가 되는 위치를 찾음으로써 물체를 추적하는 방법이었다. 그러나, 본 발명에서는 추적할 물체의 3차원 모델을 정의하고 이를 각 영상에서 정합 시키는 방법으로 마할라노비스 거리(mahalanobis distance)를 이용한다.As shown in FIG. 22, in the stereo matching processing method, when overlapping objects occur in the input image, the overlapping avoidance is used to distinguish overlapping objects. A pair of images from the same scene is reconstructed through a plurality of lenses spaced apart from each other to restore portions visible in the two images. A method used in a system for tracking existing objects is a model-based method in which an object is acquired in an image using a reference image method and the model is matched based on the obtained object. Therefore, it is a method to track an object by obtaining a moving object under a complicated background, then matching the model with a minimum hausdorff distance, and then finding a position where the result of the matching is the minimum. However, in the present invention, a mahalanobis distance is used as a method of defining a three-dimensional model of an object to be tracked and matching the three-dimensional model to each image.

본 발명에서 개시하는 스테레오 매칭 처리 방법과 저해상도 영상차(Image Difference)를 기반으로 하는 방법은 일정한 배경으로부터 물체를 추출하기 위해 연속적인 영상 프레임들의 차를 이용한다. 상기 방법을 이용하여 객체의 영역을 추출한 후 잡영(noise pixel) 제거를 위해 2차원 메디안 필터(2D median filter)가 사용된다. 저해상도 영상차를 기반으로 하는 방법은 영상의 저해상도 표현과 필터링을 이용한 잡음 제거 후, 영상차를 이용하여 이동 물체를 추적하기 때문에 잡음 영상이 많거나 객체가 겹쳐 있는 경우에도 일정하게 객체를 추적할 수 있다. 도 23은 본 발명에서 제시하는 방법을 이용한 객체 추적의 흐름도를 나타낸다.The stereo matching processing method disclosed in the present invention and the method based on a low-resolution image difference use a difference between successive image frames to extract an object from a certain background. A 2D median filter is used to extract the area of the object using the above method and then to remove noise pixels. The method based on the low-resolution image difference traces the moving object using the image difference after eliminating the noise using low-resolution representation and filtering of the image. Therefore, even if there are many noise images or overlapping objects, have. 23 shows a flow chart of object tracking using the method presented in the present invention.

이하, 도 3 내지 도 5를 참조하여 본 발명의 실시예에 따른 상황 인식 기반의 객체 검출, 인식 및 추적 방법을 설명하며, 상술한 상황 인식 기반의 객체 검출, 인식 및 추적 시스템의 실시예에서의 설명과 중복되는 부분은 그 상세한 설명을 생략하기로 한다.Hereinafter, a method of detecting, recognizing, and tracking an object based on the context recognition according to an embodiment of the present invention will be described with reference to FIG. 3 to FIG. 5. In the embodiment of the object detection, Detailed description thereof will be omitted.

도 3은 본 발명의 실시예에 따른 객체 특징점 추출 모듈을 이용한 물체의 특징점 검출 흐름도이며, 도 4 및 도 5는 서베일런스에서 객체 검출 및 추적 모듈을 이용한 객체의 검출 및 추적의 흐름도이다.FIG. 3 is a flowchart of a feature point detection of an object using an object feature point extraction module according to an embodiment of the present invention, and FIGS. 4 and 5 are flowcharts of object detection and tracking using an object detection and tracking module in a surveillance.

도 3 및 도 4를 참조하면, 본 발명의 실시예에 따른 상황 인식 기반의 객체 검출, 인식 및 추적 방법은, 상술한 객체 특징점 추출 모듈과 객체 검출 및 추적 모듈을 이용하여 수행될 수 있으며, 도 3의 물체의 특징점 검출 과정과 도 4 및 도 5의 객체의 검출 및 추적 과정이 결합되어 서베일런스에서 객체 검출 및 추적이 이루어진다.3 and 4, a method for detecting, recognizing, and tracking an object based on context recognition according to an exemplary embodiment of the present invention may be performed using the object feature point extraction module and the object detection and tracking module, 3 and the object detection and tracking process of FIGS. 4 and 5 are combined to detect and track objects in surveillance.

도 3의 물체의 특징점 검출 과정은 상술한 바와 같이 학습단계와 특징점 검출단계로 이루어지지며, 학습단계는 객체의 각 특징점의 탐색영역을 설정하기 위한 관심영역모델을 생성하고 탐색영역에서 특징점을 검출하기 위한 각 특징점별 검출기를 생성한다.3, the learning step and the feature point detection step are performed as described above. In the learning step, a ROI model for setting a search region of each feature point of the object is generated, and a feature point is detected in the search region Thereby generating a detector for each feature point.

학습 단계는 객체의 각 특징점을 추출하여 이를 수식화된 공식에 의하여 특징 벡터값이라는 숫자를 얻어내고 이 숫자값들을 학습 파일 형태로 하여 저장하는 과정이다. 본 발명에서 제안하는 학습 단계에서 객체의 인식을 위해서는 객체의 특징을 잘 표현하는 특징점을 선정해야한다. 특징점은 다른 객체 영상과 비교했을 때 구별되는 형상과 색상정보를 가지는 그 객체의 독특한 특징 등으로써 객체의 특정 부위 등을 유효한 위치로써 선정하였다. 이러한 특징들은 값의 변화가 급격이 이루어지는 고주파 성분으로 이루어져 있기 때문에 , 객체에서 움직임이 일정한 부분 또는 두드러지게 돌출된 부분 등과 같이 완만한 저주파수 성분을 이루는 다른 부분 보다 변별력이 높은 특징이라 할 수 있다.The learning step extracts each feature point of an object, obtains a number called a feature vector value according to the formula, and stores the numerical values as a learning file. In order to recognize an object in the learning step proposed in the present invention, feature points that express the characteristics of the object should be selected. A feature point is a unique feature of the object with distinct shape and color information when compared with other object images. These features are characterized by high discriminative power compared to other parts that make gentle low-frequency components such as moving parts in the object or protruding parts that are remarkably protruded because the value changes consist of high-frequency components that are abruptly changed.

한편, 객체의 특징점을 검출하기 위해서는 객체의 관심영역을 찾아야 한다. 본 발명에서는 관심영역을 수평적 수직적인 이미지 히스토그램 분석에 기반한 휴리스틱 방법으로 수행하여 각각의 중요한 객체의 영역을 찾은 후 다시 객체의 독특한 특징 부위등을 찾게 된다. 기존의 침입탐지 시스템에서 사용하는 방법에서는 객체의 각 특징들을 모두 검출한 후 특징점을 추출하게 되는데 본 발명에 따른 방법은 좀 더 정확하게 각각의 특징점을 찾을 수 있도록 도와주지만 반대로 특징점을 탐색하는 시간이 많아진다는 단점이 있다.On the other hand, in order to detect the minutiae of the object, it is necessary to find the region of interest of the object. In the present invention, the region of interest is performed by a heuristic method based on the horizontal and vertical image histogram analysis, and the region of each important object is found, and then the unique characteristic region of the object is found again. In the method used in the existing intrusion detection system, all the features of the object are detected and then the feature points are extracted. However, the method according to the present invention helps to find each feature point more accurately, but in contrast, There is a drawback.

본 발명에서는 이러한 문제를 해결하기 위해, 객체의 독특한 특징은 항상 일정한 거리에 존재한다는 사실을 이용하여 관심영역모델 방법을 이용한다.In order to solve this problem, the present invention uses the ROI method using the fact that the unique characteristic of the object always exists at a constant distance.

상기 관심영역모델은 아래와 같이 3단계를 통해 생성된다.The ROI model is generated through the following three steps.

단계 1. 16개 특징점의 좌표를 벡터로 만든다.Step 1. Make the coordinates of the 16 feature points a vector.

1번 특징점 좌표 xCoordinate x of feature point 1 1번 특징점 좌표 yCoordinate y of minutiae 1 2번 특징점 좌표 xCoordinate x of minutiae 2 ............ 16번 특징점 좌표 xCoordinates x of 16 minutiae 16번 특징점 좌표 yCoordinates of 16 feature points y

단계 2. 특징점의 좌표 벡터를 정규화한다. 즉, 이웃한 두 특징점 간의 거리가 1이 되도록 정규화한다.Step 2. Normalize the coordinate vector of the feature point. That is, normalize the distance between two neighboring feature points to be 1.

단계 3. 관심영역모델에 대해 각 객체의 특징점의 정규화된 평균좌표벡터와 특징점의 평균위치에서 변화 가능한 거리를 계산한 영역 벡터가 관심영역 모델로 설정된다. 영역벡터는 평균좌표벡터에서 각 특징점 좌표벡터의 각 특징점 위치 얼마만큼 떨어져 있는지 측정하는 것이다. 이때, 평균에서 가장 멀리 떨어져 있는 거리를 영역벡터에 저장한다.Step 3. Regarding the ROI model, the ROIs of the normalized average coordinate vectors of the minutiae of each object and the range of changeable distance from the average position of the minutiae are set as the ROI model. The region vector is a measure of the distance between each feature point of each feature point coordinate vector in the mean coordinate vector. At this time, the distance farthest from the average is stored in the area vector.

이미지 전처리 단계에서는 검출된 객체를 128×128의 크기로 추출한 후 정확한 가보 웨이브렛 벡터를 추출하기 위하여 히스토그램 균일화를 수행한다. 히스토그램 균일화는 영상의 히스토그램이 평탄하게 되도록 명암값의 재분배를 통해 농도를 조절하는 것이다. 어떤 영상의 히스토그램이 한 부분으로 편중되면 이미지의 특징이 뚜렷하게 나타나지 않아서 영상의 변별력이 떨어진다. 따라서 영상처리에 적당하도록 히스토그램의 분포를 균일하게 조정하여야 하며 이것을 히스토그램 균일화라고 한다. 본 발명에서는 이러한 전처리를 통해 좀 더 정확한 벡터를 추출할 수 있다.In the image preprocessing step, the detected object is extracted to a size of 128 × 128, and histogram equalization is performed to extract an accurate Gabor wavelet vector. The histogram equalization is to adjust the density by redistributing the contrast values so that the histogram of the image is flat. If the histogram of an image is biased to a single part, the characteristics of the image do not appear clearly, and the image discrimination power drops. Therefore, the distribution of the histogram should be uniformly adjusted so that it is suitable for image processing. This is called histogram equalization. In the present invention, more precise vectors can be extracted through the preprocessing.

특징벡터 추출단계는 가보 웨이브렛(Gabor Wavelet) 방법을 이용하여 수행한다. 상기 방법은 생물학적인 연관성 및 물리적인 특성 때문에 객체의 특징벡터로 적합해서 객체인식 또는 검출에 사용한다.The feature vector extraction step is performed using a Gabor Wavelet method. The method is suitable for object recognition or detection because it is suitable as a feature vector of an object because of its biological relevance and physical characteristics.

본 발명에서는 가보 웨이브렛을 이용하여 특징 벡터 추출단계에서 기본적인 객체 표현으로서 거리 정보를 나타내는 에지와 제트(Jets)로 묶어진 노드들로 구성된 그래프를 이용하여 객체 특징점의 위치를 표현하였다. 또한, 본 발명에서는 번치 그래프라는 새로운 데이터 구조를 이용하며, 객체의 그래프와 각각의 제트들로 구성된 번치들을 이용하여 일반적인 객체의 특성을 표현한다. 따라서, 각각의 객체 데이터를 이용하여 구성된 번치 그래프를 특징점 검출에 사용한다.In the present invention, the position of an object feature point is expressed using a graph composed of nodes and jets, which represent distance information as a basic object representation in the feature vector extraction step using a Gabor wavelet. In the present invention, a new data structure called a bunch graph is used, and a characteristic of a general object is expressed using a graph of an object and bunches composed of jets. Therefore, a banned graph constructed using each object data is used for the feature point detection.

한편, 기존의 객체의 특징 벡터를 추출하기 위하여 사용했던 방법에서는 객체의 특징점 검출을 위한 매칭 과정을 수행하는 데 있어 계산량이 많기 때문에, 빠른 속도로 매칭 요건을 최적화하는 데는 한계가 있었다. 따라서, 본 발명에서는 객체 그래프의 확대, 변형, 회전을 위한 GA를 부호화하여 매칭 과정에 사용함으로써 객체 특징점 검출속도를 높인다.On the other hand, in the method used for extracting the feature vector of the existing object, there is a limitation in optimizing the matching requirement at a high speed because a large amount of computation is required to perform the matching process for detecting the feature point of the object. Accordingly, in the present invention, a GA for enlarging, transforming, and rotating the object graph is encoded and used in the matching process to increase the object feature point detection rate.

번치를 이용한 특징점 검출은 다음과 같이 구성되어진다. 한편, 본 발명에서는 번치 구성에서 한 특징점에 대해 검출을 위해 추출된 학습데이터, 즉 가보 벡터의 집합을 번치라고 한다. 다음은 번치를 구성하는 방법이다.Feature point detection using bunch is composed as follows. On the other hand, in the present invention, the learning data extracted for detection of a feature point in the tangible structure, that is, a set of hearing vectors, is referred to as a bunch. The following is how to construct bunch.

단계 1. n개의 학습이미지의 특징점 가보 벡터를 추출 후 데이터베이스에 저장한다.Step 1. Extract the feature point Gabor vectors of n learning images and store them in the database.

단계 2. 데이터베이스에 저장된 가보 벡터를 K-means 클러스터 방법에 의해 m개의 클러스터로 나눈다.Step 2. Divide the Gabor vectors stored in the database into m clusters by the K-means cluster method.

단계 3. 각 클러스터의 평균 벡터를 추출한다.Step 3. Extract the mean vector of each cluster.

첫 번째
클러스터의 평균벡터
first
Average vector of clusters
두 번째
클러스터의 평균벡터
second
Average vector of clusters
세 번째
클러스터의 평균벡터
third
Average vector of clusters
............ ............ m 번째
클러스터의 평균벡터
mth
Average vector of clusters

상기 <표 3>은 구성된 가보번치를 나타낸다.Table 3 shows the configured helium bunch.

검출기 생성 단계에서는 특징점 검출기를 생성하기 위하여 베이지안 방법을 이용한다. 이때, 특징점과 비 특징점 패턴은 다 변량 정규분포로 나타나므로 판별식은 다 변량 정규분포 수식에 포함되어 있는 마할라노비스 거리공식을 이용한다. 마할라노비스 거리공식은 학습 패턴들의 공분산과 평균벡터를 이용하여 측정할 수 있기 때문에 학습단계에서는 특징점 패턴과 비 특징점 패턴의 데이터를 이용해 각각의 공분산과 평균벡터를 생성한다.In the detector generation step, a Bayesian method is used to generate a feature point detector. At this time, since the minutiae point and non-minutiae point pattern are represented by multivariate normal distribution, the discrimination formula uses the Mahalanobis distance formula included in the multivariate normal distribution formula. Since the Mahalanobis distance formula can be measured using the covariance and mean vector of learning patterns, each covariance and average vector are generated using the data of the minutiae pattern and the nonminute minutiae pattern in the learning phase.

이러한 일련의 과정을 통하여 검출기 및 관심영역 모델을 생성하여 학습 데이터베이스에 저장한다. 그런 다음, 다음 단계로서 관심영역모델을 이용한 특징점의 각 영역을 설정한다.Through such a series of processes, the detector and the ROI model are generated and stored in the learning database. Next, each area of the feature point using the ROI model is set as the next step.

특징점을 검출하기 위해서는 학습단계에서 생성했던 관심영역모델인 평균 좌표벡터와 영역벡터를 이용해서 각 특징점의 탐색영역을 설정한다. 이때, 입력 영상의 객체의 두 특징점의 중심 위치 간의 거리를 이용하여 평균좌표벡터와 영역벡터를 객체에 맞게 조절하고, 평균좌표벡터는 좌표축을 두 특징점의 중심에서 영상의 좌표축으로 이동함으로써 입력 영상에 적합하도록 변경한다.In order to detect feature points, a search area of each feature point is set using an average coordinate vector and a region vector, which are the ROI models generated in the learning step. In this case, the average coordinate vector and the area vector are adjusted according to the object using the distance between the center positions of two feature points of the input image object, and the average coordinate vector is obtained by moving the coordinate axes from the center of two minutiae points to the coordinate axes of the image, To be suitable.

Figure 112012097986185-pat00001
Figure 112012097986185-pat00001

Figure 112012097986185-pat00002
Figure 112012097986185-pat00002

상기 <수학식 1> 및 <수학식 2>에서 X는 평균좌표벡터이고, D는 영역 벡터이다.In Equations (1) and (2), X is an average coordinate vector and D is a region vector.

Figure 112012097986185-pat00003
Figure 112012097986185-pat00003

Figure 112012097986185-pat00004
Figure 112012097986185-pat00004

본 발명에서 제안하는 특징점 검출 방법은 에너지 함수를 이용한 베이지안 판별식을 통해 특징점 후보 영역을 분류한다. 에너지 함수는 최소 에너지의 위치를 찾기 위하여 사용하는 방법이다. 객체의 윤곽이 최소의 에너지를 갖고 있다고 가정한다.The feature point detection method proposed in the present invention classifies the feature point candidate region through a Bayesian discriminant using an energy function. The energy function is a method used to find the position of the minimum energy. It is assumed that the outline of the object has the minimum energy.

본 발명에서 제안하는 특징점 검출 방법에서 검출하고자 하는 특징점은 객체의 독특한 특징 주위와 같이 에지에 해당하는 위치이다. 이때, 에너지 함수의 에너지 크기가 작을수록 에지에 가깝고 에너지의 크기가 클수록 에지에서 멀어지는 사실을 이용해서 외부 에너지 함수의 명암 값과 기울기 부분을 특징점 분류를 위한 판별식에 좀 더 유동적인 임계값으로 활용할 수 있다. 특징점의 이러한 특성을 이용하여 판별식을 하기 <수학식 5>와 같이 구성한다.In the feature point detection method proposed in the present invention, a feature point to be detected is a position corresponding to an edge as a characteristic feature of an object. In this case, using the fact that the energy function is closer to the edge as the energy size of the energy function is smaller and the distance from the edge is larger as the energy is larger, the intensity value and slope of the external energy function are used as a more flexible threshold value . Using this characteristic of the minutiae, the discriminant is constructed as shown in Equation (5) below.

Figure 112012097986185-pat00005
Figure 112012097986185-pat00005

수식(20)의 gp(x)와 gn(x)은 특징점 영역, 비 특징점 영역에 대한 판별함수이고 각 클래스와의 마할라노비스 거리이다. 위 판별함수를 이용해서 특징점 후보를 추출할 수 있다. 위 수식의 값의 순위(rank) 10까지의 후보를 구한 후 후처리를 통해 특징점이 검출된다.G p (x) and g n (x) in Eq. (20) are the discriminant functions for the minutiae and non-minutiae regions and Mahalanobis distances for each class. Feature point candidates can be extracted using the above discriminant function. The candidates up to rank 10 of the above equation are obtained and feature points are detected through post-processing.

Figure 112012097986185-pat00006
Figure 112012097986185-pat00006

학습 데이터 베이스로부터 검출기 및 관심영역 모델 데이터를 호출하여, 각 특징점/관심영역을 설정하는 단계로서, 학습 단계 과정을 수행함으로써 각 특징점 관심 영역을 설정하는 과정을 수행한다. 이는 가보 웨이블릿 방법에 의하여 수행될 수 있으며, 이 경우 종래 기술과는 달리 특징점 계산을 위한 시간을 최소화하는 특징을 갖는다.The detector and the ROI model data are called from the learning database to set the ROIs, and the ROI process is performed to set the ROIs. This can be performed by the Gabor wavelet method. In this case, unlike the prior art, it has a feature of minimizing the time for minutia calculation.

특징점 후보 검출 단계는 특징점 검출 단계 과정을 수행함으로써 검출기에 푸리에 변환을 이용하여 특징점 후보를 검출하는 과정을 수행한다. 이는 고속 푸리에 연산(Fast Fourier Transform) 방법에 의하여 수행될 수 있으며, 이 경우 종래 기술과는 달리 특징점 후보를 찾는 계산 시간을 최소화 하는 특징을 갖는다.The feature point candidate detection step performs a feature point detection step to detect a feature point candidate using a Fourier transform. This can be performed by a Fast Fourier Transform (FFT) method. In this case, unlike the prior art, it has a feature of minimizing calculation time for finding a minutia candidate.

후처리 단계에서는 검출된 특징점 후보(군)에 대하여 합병과 조정 전략을 통한 후 처리 과정을 수행함으로써 물체의 특징점을 검출하게 된다. 이는 베이지안 분류기를 기반으로 하는 Harr 특징 방법에 의하여 수행될 수 있으며, 이 경우 종래 기술과는 달리 모든 특징점에서 높은 검출 성능을 보이고 있으며, 사람 객체의 경우에 특히 다리와 팔과 같은 관절 부분 영역과 머리 영역에서 높은 데이터의 비율을 보이는 특징을 갖는다.In the post-processing step, the minutiae points of the object are detected by performing a post-processing process on the detected minutiae candidate (group) through merger and adjustment strategies. This can be performed by the Harris method based on the Bayesian classifier. In this case, unlike the prior art, high detection performance is shown at all the feature points. In the case of the human object, in particular, joint regions such as legs and arms, And the ratio of high data in the area.

이와 같이 검출된 각 객체의 특징점 및 객체 후보 영역은 도 4 및 도 5의 객체의 검출 및 추적 과정에서 잡음 영상이 혼재된 입력 영상에서 각 상황에 적응적인 방식으로 사용된다.The feature points and object candidate regions of each object thus detected are used in an adaptive manner in each situation in an input image in which noise images are mixed in the detection and tracking process of the objects shown in FIGS.

도 4 및 도 5의 객체의 검출 및 추적 과정은 피라미드식 기반 사람 탐지 단계(410), 전처리 단계(420), 영상의 상황 기반 분석 단계(430), 베이지안 분류기 적용 단계(450), 및 (합병과 조정전략 적용의) 후처리 단계(460)로 이루어지며, 피라미드식 기반 사람 탐지 단계(410)는 입력 영상을 일정한 크기의 윈도우로 분할하여 객체를 검출하는 과정으로서 과정을 수행함으로써 서베일런스에서 객체인 사람을 검출하게 된다. 이는 16 x 16 객체 윈도우에 의하여 스캔되어지는 방법인 다중 해상도(multi-resolution)라고 불려지는 "bspline" 방법에 의하여 수행될 수 있으며, 이 경우 종래 기술과는 달리 추출하고자하는 객체를 입력 영상 안에서 놓치지 않는 특징을 갖는다.The detection and tracking process of the objects of FIGS. 4 and 5 may include a pyramid-based person detection step 410, a preprocessing step 420, an image context based analysis step 430, a Bayesian classifier application step 450, And a post-processing step 460 of applying an adjustment strategy. The pyramid-based person detection step 410 is a process of detecting an object by dividing an input image into windows of a predetermined size, The person who is the object is detected. This can be accomplished by a " bspline "method called multi-resolution, which is a method that is scanned by a 16 x 16 object window. In this case, unlike the prior art, .

전처리 단계(420)는 입력 영상안의 객체가 존재하는 영역에서 특징벡터 추출을 위해서 잡음 영상을 제거하는 과정으로서 히스토그램 평활화 과정 및 스테레오 매칭 모델링을 수행함으로써 이루어지며, 이 경우 종래 기술과는 달리 더욱 정확한 객체의 특징 벡터 추출을 돕는 특징을 갖는다.In the preprocessing step 420, a noise image is removed in order to extract a feature vector in an area in which an object exists in the input image, and the histogram smoothing process and the stereo matching modeling are performed. In this case, And a feature vector extraction function.

영상의 상황 기반 분석 단계(430)는 영상의 범주들 중에서 하나로 검출된 영상을 배정하는 과정으로서 K-means와 RBF의 하이브리드 네트워크에 의하여 모델화되어지고 분석되어지는 과정을 수행함으로써 벡터값들을 정규화한다. 이때, K-means와 RBF 알고리즘을 이용하여 클래스에 의하여 객체를 분류한다. 영상의 상황은 K-means와 RBF의 하이브리드 네트워크에 의하여 모델화되어지고 분석된다. 또한, 영상의 상황 분석은 베이지안 분류기와 후처리 과정이 변화하는 배경 영상과 동작 패턴에 따라 조정될 수 있도록 하기 위해 몇 가지 영상의 상황 중에 하나로 검출된 객체 영상을 배정한다. 이 경우 종래 기술과는 달리 본 발명에 따른 영상의 상황분석에 기반을 둔 방법은 다양하게 변화하는 환경에 대하여 객체 검출 및 추적의 정확성 측면에서 기존의 방법보다 우수한 성능을 보이는 특징을 갖는다.The situation-based analysis step 430 of the image normalizes the vector values by performing a process of modeling and analyzing by the hybrid network of K-means and RBF, as a process of assigning the detected image to one of the categories of images. In this case, objects are classified by class using K-means and RBF algorithm. The situation of the image is modeled and analyzed by the hybrid network of K-means and RBF. In addition, to analyze the situation of the image, the object image is detected as one of several image situations so that it can be adjusted according to the background image and the operation pattern in which the Bayesian classifier and post processing are changed. In this case, unlike the prior art, the method based on the context analysis of the image according to the present invention is characterized in that it performs better than the existing methods in terms of the accuracy of object detection and tracking for various changing environments.

베이지안 분류기 적용 단계(450)는 상기 단계에서 분류된 객체의 영상에 대하여 클러스터에서 최적화된 다른 임계값을 베이지안 방법을 영상에 적용하는 과정으로서 베이지안 알고리즘을 이용해서 특징점을 분류하는 과정을 수행함으로써 수행된다. 이는 객체의 각 상황에 맞는 임계값(threshold)을 부여함으로써 객체를 분류하는 방법에 의하여 수행될 수 있다. 이 경우 종래 기술과는 달리 상황에 적응적인 임계값을 갖는 베이지안 분류기를 사용하여 단순히 객체 검출에만 국한되지 않고 융합보안 분야에서 다른 객체의 검출 및 추적에도 활용되어 질 수 있다는 특징을 갖는다.The application of the Bayesian classifier 450 is performed by classifying feature points using a Bayesian algorithm as a process of applying a Bayesian method to an image of an object classified in the above step, . This can be performed by a method of classifying an object by assigning a threshold suitable for each situation of the object. In this case, unlike the prior art, a Bayesian classifier having an adaptive threshold value is used to detect and track other objects in the fusion security field not only in object detection.

즉, 일반적인 베이지안 분류기는 고정된 임계값(threshold)을 사용함으로써 입력 영상에서 객체를 검출할 때 획일적인 기준을 사용함으로써 객체 검출에 실패할 확률이 높아진다. 그러나, 본 발명에서 제안하는 최적화된 다른 임계값을 베이지안 방법을 이용하여 객체를 검출할 시에는 입력 영상에서 객체 주위에 잡음 영상이 있거나 다른 객체와의 영상이 겹칠 때에도 효과적으로 객체를 검출해 낼 수 있는 특징이 있다.In other words, a general Bayesian classifier uses a fixed threshold value, so that the probability of object detection failure increases by using a uniform reference when detecting an object in the input image. However, when an object is detected using the Bayesian method, which is another optimized threshold value proposed in the present invention, it is possible to effectively detect an object even when there is a noise image around the object or overlapping images with other objects Feature.

합병과 조정전략 적용단계(460)는 검출된 객체 후보 영역들을 몇 개의 확실한 객체들로 특징짓는 과정으로서 2D Haar 웨이블릿 변형과정을 수행함으로써 수행된다. 이는 객체의 각 후보 윈도우가 2D Haar 웨이블릿 특징 방법에 의하여 수행될 수 있으며, 이 경우 종래 기술과는 달리 최근에 제기되어 왔던 다양한 동작 패턴의 객체 검출과 추적 알고리즘을 어렵게 만드는 검출 대상 영역별 밝기 차이에 대한 보정 문제와 객체 검출시스템의 처리 속도 문제를 해결할 수 있다는 특징을 갖는다.The merging and tuning strategy application step 460 is performed by performing the 2D Haar wavelet transform process as a process of characterizing the detected object candidate regions into several definite objects. In this case, unlike the conventional technique, it is difficult to detect the object of the various operation patterns and to make the tracking algorithm difficult. In this case, And the problem of the processing speed of the object detection system can be solved.

도 5는 본 발명의 실시예에 따른 합병과 조정에 의한 후처리 과정을 설명하는 도면이다. 도 5를 참조하여, 합병과 조정전략 적용 단계를 보다 상세히 설명하면, 도 5에서 합병과 조정 전략이 적용되어지고 객체의 중심이 결정되어진다. 이 과정에서 합병 전략은 객체로 검출된 후보 영역들에 대하여 거짓으로 검출된 객체를 제거함에 의하여 객체 검출의 신뢰성을 향상시키기 위하여 고안되어진다. 도 5에서처럼 객체의 후보 윈도우가 여러 개 겹쳐진 영역은 높은 주파수를 가진 진짜 객체들 근처에서 발견되어지고 반면에 거짓으로 검출된 객체는 보통 낮은 주파수를 가진 곳에서 생긴다는 것을 알 수 있다.FIG. 5 is a view for explaining a post-processing process by merger and adjustment according to an embodiment of the present invention. Referring to FIG. 5, the merging and reconciliation strategy application steps will be described in more detail. In FIG. 5, the merger and reconciliation strategies are applied and the center of the object is determined. In this process, the merging strategy is devised to improve the reliability of object detection by removing false detected objects for candidate regions detected as objects. As shown in FIG. 5, it can be seen that a region in which multiple candidate windows of an object are overlapped is found near real objects having a high frequency, whereas a false detected object usually occurs in a place having a low frequency.

이러한 방법은 객체의 거짓 검출을 제거할 수 있는 합리적인 결정 규칙을 주고 하나의 합병된 검출로 진짜 객체 검출을 가능케 한다. 이때, 각각의 객체의 중심에 대하여 그 위치에서 검출된 후보 윈도우의 수가 계산되어진다. 따라서, 그 수가 일정 임계값보다 더 크다면 그 위치는 객체의 영역으로 분류되어진다. 이렇게 찾아진 객체의 위치는 바로 옆에서 찾아진 이웃한 검출들의 중심에 의하여 나타냄으로써 중복된 객체 검출은 제거될 수 있다. 특정 위치가 정확히 객체로서 분류되면 겹쳐진 모든 다른 검출된 위치는 에러로써 간주되고 이것들은 객체 후보에서 제거되어 질 수 있다. 객체 후보로서 많은 수가 검출된 위치는 보존되고, 더 적게 검출된 위치는 제거된다. 합병과 조정 전략은 최근에 제기되어 왔던 다양한 동작 패턴의 객체 검출과 추적 알고리즘을 어렵게 만드는 검출 대상 영역별 밝기 차이에 대한 보정 문제와 객체 검출시스템의 처리 속도 문제를 해결할 수 있다.This method gives reasonable decision rules that can eliminate false detection of objects and allows real object detection with a single merged detection. At this time, the number of candidate windows detected at that position with respect to the center of each object is calculated. Therefore, if the number is greater than a certain threshold value, the position is classified as the area of the object. The location of the object searched for by the center of the neighboring detections found next to it can be eliminated by duplicate object detection. If a particular location is correctly classified as an object, all other detected locations that are overlapped are considered as errors and these can be removed from the object candidate. A large number of detected object candidates are preserved and less detected locations are removed. The merging and reconciliation strategy can solve the problem of the correction of the difference of brightness per detection area and the processing speed of the object detection system which makes the object detection and tracking algorithm of various motion patterns which have been raised recently difficult.

본 발명에서 제안하는 기술의 특징은 현재 영상보안 시스템에 있어서 가장 문제시 되는 모듈의 조명변화에 따르는 객체 영상 인식성능 저하의 문제를 자체 적응특성을 부여하는 객체의 상황 분석 방법에 의하여 개선하고 임베디드, 모바일 시스템에 실시간으로 적용시키기에 충분한 방법이다. 또한, 환경에 적응적인 조명 및 잡음 상쇄를 통한 신뢰성 있는 객체의 영상 정보를 이용함으로써 서베일런스 시스템을 이용하는 환경의 내외적 변화에 대하여 좀 더 안정적인 검출 성능을 발휘할 수 있다.The feature of the technology proposed in the present invention is to improve the problem of degradation of the object image recognition performance due to the illumination change of the module which is the most problematic in the current image security system by the situation analysis method of the object which gives the self- It is a sufficient way to apply to mobile systems in real time. In addition, by using image information of a reliable object through environment-adaptive illumination and noise cancellation, a more stable detection performance can be exhibited against changes in internal and external environments using a surveillance system.

상기와 같은 본 발명은 기존의 객체 검출 및 추적 기술의 치명적인 문제점인 조명환경 (조명의 방향, 밝기 대조, 명암 등) 변화의 영향을 최소화함으로써, 고신뢰도가 요구되는 침입 탐지 시스템에 적용될 수 있으며. 외부 조명의 변화 및 잡음의 영향을 최소화하는 알고리즘 및 시스템을 개발하여 일정한 성능을 갖는 객체의 특징점 추출 기술 및 추적 프로그램의 개발을 통한 액티브 비젼 기반의 고 신뢰도 객체 추적 시스템을 제공할 수 있게 된다.The present invention can be applied to an intrusion detection system requiring high reliability by minimizing the influence of a change in illumination environment (illumination direction, brightness contrast, contrast, etc.), which is a fatal problem of existing object detection and tracking technology. It is possible to provide an active vision-based high-reliability object tracking system by developing a feature point extraction technique of an object having a certain performance and a tracking program by developing an algorithm and system that minimizes the influence of external illumination and noise.

도 8 내지 도 10은 본 발명의 실시예의 푸리에 변환의 적용을 통한 특징 영역 설정의 구현 및 이의 효과를 설명하기 위한 도면으로, 상술한 바와 같이 도 8은 실험에 사용된 영상이며, 도 9는 특징 영역에 대한 푸리에 변환된 경우 스펙트럼이며, 도 10은 특징 영역으로부터 오른쪽으로 약 4픽셀 떨어진 곳에 대한 푸리에 변환된 경우 스펙트럼이며, 도 11은 비교 블록 개수와 푸리에 변환 시간 관계 측정결과이다.8 to 10 are views for explaining the implementation of the feature region setting and the effect thereof by applying the Fourier transform in the embodiment of the present invention. As described above, FIG. 8 is an image used in the experiment, FIG. 10 is a Fourier transformed spectrum for a region located about 4 pixels to the right from the characteristic region, and FIG. 11 is a Fourier transform time relationship measurement result of the number of comparison blocks.

실시간 영상을 이용하는 방법에는 크게 3가지가 존재하는데 "frame differencing, environment map"과 "optical flow" 방법론이 있다. 이때, 각각의 장단점이 존재한다. "frame differencing"은 각각의 프레임을 개별적으로 구하기 때문에 이전의 영상의 노이즈 효과를 반영하지 않는다는 것이 있고 단점으로는 노이즈의 효과에 영향을 많이 받는다는 것이다. 이에 반하여 고속 푸리에 연산을 통한 스펙트럼을 이용하는 방법론은 다른 세 방법들에 비해 안정적인 효과가 있다. 고속 푸리에 연산은 스펙트럼을 지속적으로 업데이트를 하여 그 생성된 스펙트럼과 차이가 있는 부분을 검출하는 시스템이다. 상기 방법은 노이즈에 안정적인 효과를 나타내며 조명의 변화가 많은 영상에서도 영향을 거의 받지 않는 장점이 있다. 따라서, 입력 영상 중 고속 푸리에 연산을 이용하여 노이즈 효과를 줄이는 방법이 바람직하다.There are three methods to use real-time image. There are "frame differencing, environment map" and "optical flow" methodologies. At this time, there are pros and cons. "Frame differencing" means that each frame is individually obtained, so it does not reflect the noise effect of the previous image. The disadvantage is that it is affected by the noise effect. On the other hand, the spectral methodology using fast Fourier calculations is more stable than the other three methods. A fast Fourier operation is a system that continuously updates a spectrum and detects a portion that is different from the generated spectrum. This method has a merit that it exhibits a stable effect on noise and is hardly affected by an image with a large change in illumination. Therefore, it is preferable to use a fast Fourier transform in the input image to reduce the noise effect.

또한, 본 발명에서는 일반적인 푸리에 연산과 병행하여 고속 푸리에 연산을 통한 스펙트럼 영상을 이용한다. 즉, 본 발명에서는 우선적으로 일반 푸리에 연산의 스펙트럼 영상을 이용하여 픽셀(pixel)의 차를 구한 다음 그 픽셀 수를 다 합한 후에 그 값이 임계값(threshold)을 넘지 않는다면 차이가 적은 것으로 간주하고 고속 푸리에 연산에서 나온 스펙트럼 영상을 적용 시킨다. 그렇게 되면 일반 푸리에 연산의 스펙트럼 영상보다 더 많은 차이가 있는 픽셀 수를 구할 수 있다. 이렇게 적용한 후에 상기 값보다도 변화된 모든 픽셀 수가 적다면 이 영상은 변화량이 없다고 볼 수 있고 이를 이용하여 이전의 위치와 동일하다고 본다. 만약 그렇지 않다면 움직임이 감지된 영상이므로 전처리를 거쳐서 기본적인 노이즈를 제거한다. 이때, 노이즈를 제거하는 부분에서 손실된 객체의 특징을 복원시키는 알고리즘을 적용하여 객체의 특징을 복원한다.In addition, in the present invention, a spectral image through a fast Fourier operation is used in parallel with a general Fourier operation. That is, in the present invention, first, the difference of pixels is obtained by using a spectral image of a general Fourier operation, then the sum of the number of pixels is summed, and if the value does not exceed a threshold value, Apply the spectral image from the Fourier calculations. The number of pixels with more differences than the spectral image of a normal Fourier operation can then be obtained. If the number of pixels changed from the above value is small after the application, the image is considered to have no change, and it is considered to be the same as the previous position. If it is not, motion is detected, so it removes basic noise through preprocessing. In this case, the characteristic of the object is restored by applying an algorithm for restoring the characteristics of the lost object in the portion for removing the noise.

이와 같이 저해상도 스펙트럼 영상차에 의한 이동 객체의 검출 방법은 영상의 저해상도 표현과 필터링을 이용한 잡음 제거 후, 영상차를 이용하여 이동 객체를 검출함으로써 움직임 검출 단계에서 실시간 처리를 위해서 빠른 검출 성능을 나타내며, 정확성 측면에서 종래의 방법들보다 더 효과적이다. 도 20은 전처리 및 고속 푸리에 연산을 통한 스펙트럼 영상 획득 과정을 나타낸다.The detection method of the moving object by the low resolution spectral image difference shows fast detection performance for the real time processing in the motion detection step by detecting the moving object using the image difference after noise reduction using the low resolution representation and filtering of the image, It is more effective than conventional methods in terms of accuracy. 20 shows a spectral image acquisition process through preprocessing and fast Fourier operations.

도 13 내지 도 15는 본 발명의 실시예의 객체 검출 및 추적 과정의 구현 및 이의 효과를 설명하기 위한 도면으로, 도 13은 구현된 학습 시스템의 구조를 나타내며, 도 14는 베일런스에서 객체의 검출과 추적 과정 캡처 화면을 나타내며, 도 15는 샘플별 객체 검출율 실험 결과를 나타낸다.13 to 15 are views for explaining an object detection and tracking process and an effect thereof according to an embodiment of the present invention. FIG. 13 shows a structure of an implemented learning system. FIG. FIG. 15 shows the result of object detection rate experiment per sample. FIG.

클러스터(결합) 기반 객체 검출 방법은 객체의 픽셀 단위의 값을 이용하는 것이 아니라, 객체 영역인지 아닌지를 판별하기 위한 클러스터(결합) 기반의 객체 검출 방법을 의미한다. 클러스터기반 객체 검출 시스템의 일반적인 방법은 도 13과 같다.The clustering-based object detection method refers to a cluster-based object detection method for determining whether or not an object region is not a pixel-based value of an object. A general method of the cluster-based object detection system is shown in FIG.

클러스터기반 객체 검출 방식에서는 기초가 되는 객체 검색 창의 입력 패턴을 정의할 필요가 있으며, 정의된 입력 패턴은 k-means 방법을 이용하여 몇 개의 클러스터로 결합된다. 따라서 도 13에서와 같이 찾고자 하는 객체를 확정 지어가며, 추적하기 위한 추적창을 씌운다. 이때, 추적창 내의 영역에 객체가 포함될 수도 있고, 포함되지 않을 수도 있으며, 이 영역이 객체인지, 비객체인지를 판별하는 알고리즘을 베이지안 방법을 이용하여 수행함으로써 객체를 검출한다. 이러한 방법을 본 발명에서는 영상의 상황 분석을 기초로 한 베이지안 분류 방법이라고 한다.In the cluster-based object detection method, it is necessary to define the input pattern of the underlying object search window, and the defined input patterns are combined into several clusters using the k-means method. Accordingly, as shown in FIG. 13, the object to be searched is determined and a tracking window for tracking is set. At this time, the object is detected by performing Bayesian algorithm to determine whether the object is included or not in the area within the tracking window and whether the area is an object or a non-object. This method is referred to as a Bayesian classification method based on the situation analysis of an image in the present invention.

객체와 유사한 비객체(object-like nonobject) 검출기 모델링 방법에서는 앞 단계에서 추출된 특징 벡터들을 베이지안 분류기를 통해서 객체와 비객체로 분류한다. 이는 입력된 영상의 학습 패턴들의 통계적인 특성을 분석하여 입력 패턴을 객체와 비객체로 분류한다. 비객체가 객체와 달리 모델링하기 어려운 것은 특징을 나타낼 수 없다는 것이다. 객체라는 대상을 제외한 모든 것이 비객체이기 때문에, 이 모든 것들의 특징을 뽑아서 비객체의 모델을 만들기는 어려운 일이다. 따라서 본 발명에서는 객체 표본에 대한 "Mahalanobis" 거리를 기준으로 객체와 유사한 비객체를 모델링 한다. 이런 비객체를 선택하는 방법은 다음의 과정으로 이루어진다.In an object-like nonobject detector modeling method similar to an object, feature vectors extracted in the previous step are classified into objects and non-objects through a Bayesian classifier. It classifies the input pattern into objects and non-objects by analyzing the statistical characteristics of the learning patterns of the input image. Unlike objects, objects that are difficult to model unlike objects can not be characterized. Since everything except objects is non - objects, it is difficult to model non - objects by extracting all of these features. Therefore, in the present invention, a non-object similar to an object is modeled based on the "Mahalanobis" distance of the object sample. The method of selecting these non-objects consists of the following steps.

1. 몇 개의 객체 표본 집합을 Tf라 하고, Tf의 공분산 행렬인 f를 생성한다.1. Create a set of several object samples called Tf and f, the covariance matrix of Tf.

2. 모든 fiTf에 대해서 f에 대한 "Mahalanobis" 거리인 df, i를 계산한다.2. Calculate "Mahalanobis" distance df, i for f for all fiTfs.

3. 출력값을 max{df,i|1imf}로 설정한다.3. Set the output value to max {df, i | 1imf}.

4. 몇 개의 비객체 표본 집합을 Tn라 하고, 각 표본, njTn에 대해서 df,j를 계산한다.4. Compute several non-object sample sets as Tn and calculate df, j for each sample, njTn.

5. 인수 nj를 객체와 유사한 비객체 표본 집합인 Tl로 저장한다.5. Store the argument nj as a non-object sample set Tl similar to an object.

6. 비객체의 공분산 행렬을 l라 하고, 이를 Tl로부터 생성한다.6. Let the covariance matrix of the non-object be l and generate it from Tl.

도 13에서와 같이 학습 단계에서 영상의 상황 특성에 따라서 객체 영상들을 분류하고 경험 단계에서 각 클러스터에서 최적화된 다른 임계값(thresholds)으로서 "Bayesian" 이론을 적용한다. 이러한 방법을 상황 기반 방법이라고 부른다. 일반적인 "Bayesian" 방법은 전체 테스트 영상에 대하여 동일한 임계값을 적용하지만 본 발명에 따른 상황 기반 방법은 클러스터의 개수에 따라서 몇 가지 임계값들을 적용한다.As shown in FIG. 13, the object images are classified according to the state of the image in the learning step, and the "Bayesian" theory is applied as thresholds optimized in each cluster in the experience stage. This method is called a context-based method. Although the general "Bayesian" method applies the same threshold value for the entire test image, the context-based method according to the present invention applies several threshold values depending on the number of clusters.

이러한 방법은 도 13에 도시된 바와 같이 두 가지 구분된 단계로 네트워크를 학습하는 방법이다. 첫 번째 단계에서는 비감독 학습(k-means)을 수행한다. 다음으로, 두 번째 단계에서 다양한 임계값은 규칙적인 감독 방법을 이용하여 학습된다.This method is a method of learning a network in two distinct stages as shown in FIG. In the first step, we perform k-means. Next, in the second step, various thresholds are learned using a regular supervision method.

이때, 입력 패턴은 예컨대 16 x 16 픽셀의 회색 스케일의 이미지 크기로 벡터화 된다. 입력 공간으로부터 숨겨진 단위 공간으로의 변형은 비선형이다. 반면에, 숨겨진 단위 공간으로부터 출력 공간으로의 변형은 선형이다. RBF 분류기는 고차원 공간으로 입력 벡터를 확장한다. RBF 네트워크는 전통적인 3계층 back-propagation 구조를 가지고 있다. 이 과정에서 숨겨진 단위들은 k-means를 이용하여 학습 된다.At this time, the input pattern is vectorized to a gray scale image size of 16 x 16 pixels, for example. Deformation from input space to hidden unit space is nonlinear. On the other hand, the transformation from the hidden unit space to the output space is linear. The RBF classifier expands the input vector into a high dimensional space. The RBF network has a traditional 3-tier back-propagation structure. In this process, hidden units are learned using k-means.

네트워크 입력은 1차원 벡터와 같이 네트워크로 들어간 n개의 정규화되고 1/2크기로 재조정된 객체 영상들로 이루어진다. 이때, 입력 단위는 실수 값을 가진다. 그 후 벡터값들은 정규화 된다.The network input consists of n normalized and resized object images into a network, such as a one-dimensional vector. At this time, the input unit has a real value. The vector values are then normalized.

현재 객체 영상 정보를 이용한 보안에 많은 필요성이 증가되고, 국내외적으로 수요가 급증하고 있는 추세이다. 지문, 장문 등의 생체정보는 강압식, 접촉식에 의한 정보입력이며, 홍체 정보는 근접촬영을 하여야만 생체정보를 측정할 수 있으며, 고가의 카메라 시스템을 사용하여야만 하는 단점을 가지고 있다.Currently, there is an increasing need for security using object image information, and there is an increasing trend in domestic and overseas demand. The biometric information such as fingerprints and long texts is information input by a pressure type or a contact type. The iris information requires a close-up photograph to measure biometric information and has a disadvantage of using an expensive camera system.

본 발명에서 제안하는 방법은 비강압식 영상정보측정을 위하여 객체의 영상정보를 이용하여 객체 검출 및 추적을 통하여 접근 보안을 수행한다. 또한, 본 발명에 따른 입력 영상 내에서 객체 검출 및 추적 기술은 인간 중심의 사용자 인터페이스, 공장 검사 자동화, 제스쳐 인식을 통한 가전제품 구동, 장애인 보조 기술로서 산업계로의 이전 등의 효과를 창출할 수 있다. 또한, 제안하는 방법은 모니터링 기능을 이용한 사람의 출입관리에 효과적이며, 적은 비용으로 고효율 발생이 가능하고 침입 탐지 기능을 가지므로 신뢰성 있는 시스템 관리가 가능한 장점이 있다.The method proposed in the present invention performs access security through object detection and tracking using image information of an object in order to measure the non-depressed image information. In addition, the object detection and tracking technology in the input image according to the present invention can create effects such as human-centered user interface, automation of factory inspection, operation of household appliances through gesture recognition, . In addition, the proposed method is effective for human access control using monitoring function, it can generate high efficiency with low cost, and has an intrusion detection function, which makes it possible to perform reliable system management.

최근에는 건물이나 인가된 일정 영역에서의 보안 시설 및 시스템에 대한 시장의 요구사항이 증가하고 있으며 그에 따른 시스템을 개발함으로써 병원, 복지 시설, 보호시설, 개인 보안 시설 등과 많은 분야에 활용될 수 있도록 할 수 있다. 대형 할인마트나 유통업체 등에서 고객의 흐름 및 구매 행위 분석을 통한 고객 관리 등을 통하여 목적 및 환경에 부합하는 기능의 추가 및 구성이 가능하다.In recent years, the market requirements for security facilities and systems in buildings and certain authorized areas have been increasing, and by developing the system, it will be possible to use them in many fields such as hospitals, welfare facilities, . It is possible to add and configure functions in accordance with the purpose and environment through large discount marts or distribution companies through customer flow through customer flow analysis and purchasing behavior analysis.

한편, 본 발명의 실시예에 따른 스마트 홈에서 상황 인식 기반의 객체 검출, 인식 및 추적 방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록 장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 하드 디스크, 플로피 디스크, 광 데이터 저장장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. Meanwhile, the object detection, recognition and tracking method based on context recognition in a smart home according to an embodiment of the present invention can be implemented as a computer-readable code on a computer-readable recording medium. A computer-readable recording medium includes all kinds of recording apparatuses in which data that can be read by a computer system is stored. Examples of the computer-readable recording medium include a ROM, a RAM, a CD-ROM, a magnetic tape, a hard disk, a floppy disk, an optical data storage device, and the like in the form of a carrier wave (for example, .

여기에서 다양한 방법들에 관해 설명된 바와 같은 다양한 동작들 및 기능들은 특정 프로세싱 기능부 및/또는 그 안에 구현된 프로세싱 기능부, 및/또는 그 안의 다른 구성요소들과 같은 많은 유형의 기능부들 중 어느 것 내에서 수행될 수 있다. 예를 들면, 그러한 기능부들은 여기에 설명된 바와 같은 다양한 동작들 및 처리들, 또는 여기에 설명된 바와 같은 어느 다른 동작들 및 기능들 등 또는 그 각 등가물들을 수행하는 것뿐만 아니라 여기에 설명된 바와 같은 그러한 정보들을 생성하고 그러한 동작들, 처리들 등을 수행할 수 있다.The various operations and functions as described herein with respect to the various methods may be performed by any of a number of types of functions, such as a particular processing function and / or a processing function implemented therein, and / &Lt; / RTI &gt; For example, such functions may be performed by various operations and processes as described herein, or by performing any other operations and functions as described herein, or the like, as well as performing each of the equivalents thereof, And may perform such operations, processes, and the like.

본 발명은 특정 기능들 및 그의 관계들의 성능을 나타내는 방법 단계들의 목적을 가지고 위에서 설명되었다. 이러한 기능적 구성 요소들 및 방법 단계들의 경계들 및 순서는 설명의 편의를 위해 여기에서 임의로 정의되었다. 상기 특정 기능들 및 관계들이 적절히 수행되는 한 대안적인 경계들 및 순서들이 정의될 수 있다. 임의의 그러한 대안적인 경계들 및 순서들은 그러므로 상기 청구된 발명의 범위 및 사상 내에 있다. The invention has been described above with the aim of method steps illustrating the performance of certain functions and their relationships. The boundaries and order of these functional components and method steps have been arbitrarily defined herein for convenience of description. Alternative boundaries and sequences may be defined as long as the specific functions and relationships are properly performed. Any such alternative boundaries and sequences are therefore within the scope and spirit of the claimed invention.

이상과 같이 본 발명에서는 구체적인 구성 요소 등과 같은 특정 사항들과 한정된 실시예 및 도면에 의해 설명되었으나 이는 본 발명의 보다 전반적인 이해를 돕기 위해서 제공된 것일 뿐, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 본 발명이 속하는 분야에서 통상적인 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다.As described above, the present invention has been described with reference to particular embodiments, such as specific elements, and specific embodiments and drawings. However, it should be understood that the present invention is not limited to the above- And various modifications and changes may be made thereto by those skilled in the art to which the present invention pertains.

따라서, 본 발명의 사상은 설명된 실시예에 국한되어 정해져서는 아니되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등하거나 등가적 변형이 있는 모든 것들은 본 발명 사상의 범주에 속한다고 할 것이다.
Accordingly, the spirit of the present invention should not be construed as being limited to the embodiments described, and all of the equivalents or equivalents of the claims, as well as the following claims, belong to the scope of the present invention .

100 : 객체 특징점 추출 모듈 110 : 객체 구성요소 검출부
120 : 객체 구성요소 정규화부 121 : 영상 전처리부
122 : 관심영역 모델 생성부 123 : 특징벡터 추출부
124 : 검출기 생성부 130 : 학습 D/B 저장부
140 : 고속 푸리에 연산부 150 : 후처리부
160 : 특징점 추출부 200 : 객체 검출 및 추적 모듈
210 : 영상의 상황기반 분석부 220 : 객체 이미지 분류부
230 : 상황 적응적 베이지안 분류부
240 : 객체 후보 영역 검출부 250 : 객체 추적부
100: object feature point extraction module 110: object component detection unit
120: object component normalization unit 121: image preprocessing unit
122: ROI model generating unit 123:
124: detector generating unit 130: learning D / B storage unit
140: Fast Fourier operation unit 150: Post-
160: feature point extracting unit 200: object detecting and tracking module
210: Situation-based analysis unit of image 220: Object image classification unit
230: Situation Adaptive Bayesian Classification
240: Object candidate region detection unit 250: Object tracking unit

Claims (15)

입력된 객체 영상에서 추출된 객체의 특징적인 요소 정보로부터 수치화된 특징 벡터값을 추출하는 객체 특징점 추출 모듈; 및
상기 객체 특징점 추출 모듈로부터 추출된 각 객체의 특징점에 대해 객체의 동작 패턴의 형태에 따라 입력된 객체 영상을 분류함으로써 객체를 검출하여 추적하는 객체 검출 및 추적 모듈을 포함하여,
상기 객체 검출 및 추적 모듈은 상기 객체 검출시 입력된 개체 영상에 대해 각 클러스터별로 상이한 임계값을 적용하며,
상기 객체 특징점 추출 모듈은,
객체의 각 특징점의 탐색 영역을 설정하기 위한 관심 영역 모델을 생성하는 관심 영역 모델 생성부; 상기 탐색 영역에 대하여 고속 푸리에 변환을 수행하는 고속 푸리에 연산부; 및 상기 고속 푸리에 연산부를 통해 처리된 스펙트럼 영상에서 영상의 주파수 성분의 계수값이 미리 설정된 임계값 이하인 부분을 객체의 특징 후보 영역에서 제외시키는 후처리부를 포함하며,
상기 관심 영역 모델 생성부는, 설정된 개수의 특징점들의 좌표를 벡터로 설정하고, 서로 인접한 두 개의 특징점의 거리가 1이 되도록 좌표의 중심점을 정규화하며, 각 객체의 특징점의 정규화된 평균 좌표벡터와 특징점의 평균 위치에서 변화 가능한 거리를 계산한 영역 벡터를 관심 영역 모델로 설정하는 것을 특징으로 하는 상황 인식 기반의 객체 검출, 인식 및 추적 장치.
An object feature point extraction module for extracting numerical feature vector values from characteristic element information of an object extracted from an input object image; And
And an object detection and tracking module for detecting and tracking an object by classifying the input object image according to the type of the operation pattern of the object with respect to the minutiae point of each object extracted from the object minutiae point extraction module,
Wherein the object detection and tracking module applies a different threshold value to each of the clusters for the input object image when the object is detected,
Wherein the object feature point extraction module comprises:
A region of interest model generation unit for generating a region of interest model for setting a search region of each feature point of the object; A fast Fourier calculator for performing a fast Fourier transform on the search area; And a post-processing unit for excluding, from the feature candidate region of the object, a portion of the spectral image processed through the fast Fourier arithmetic unit, the coefficient value of the frequency component of the image being lower than a predetermined threshold value,
The ROI generator sets the coordinates of the set number of feature points as a vector and normalizes the center points of the coordinates so that the distance between two adjacent feature points is 1. The normalized average coordinate vector of the feature points of each object and the feature point And sets a region vector that calculates a changeable distance at an average position as a region of interest model.
청구항 1에 있어서, 상기 객체 검출 및 추적 모듈은,
'Haar' 특징을 기반으로 하는 베이지안 분류기를 이용하여 객체를 검출하고 추적하는, 상황 인식 기반의 객체 검출, 인식 및 추적 장치.
The system of claim 1, wherein the object detection and tracking module comprises:
A context - aware object detection, recognition, and tracking system that detects and tracks objects using Bayesian classifiers based on 'Haar' features.
청구항 1에 있어서, 상기 객체 특징점 추출 모듈은,
상기 탐색 영역에서의 특징점을 검출하기 위한 각 특징점별 검출기를 생성하는 검출기 생성부;를 포함하는, 상황 인식 기반의 객체 검출, 인식 및 추적 장치.
The method of claim 1, wherein the object feature point extraction module comprises:
And a detector generating unit for generating a detector for each feature point for detecting a feature point in the search region.
삭제delete 삭제delete 삭제delete 청구항 1에 있어서, 상기 객체 특징점 추출 모듈은,
입력 영상에 대해 히스토그램 평활화 방법에 의해 명암 값의 분포가 균일화되도록 처리하는 영상 전처리부;를 더 포함하는, 상황 인식 기반의 객체 검출, 인식 및 추적 장치.
The method of claim 1, wherein the object feature point extraction module comprises:
And an image preprocessing unit for processing the input image so that the distribution of the lightness value is made uniform by the histogram smoothing method.
입력된 객체 영상에서 추출된 객체의 특징적인 요소 정보로부터 수치화된 특징 벡터값을 추출하는 객체 특징점 추출 단계; 및
상기 추출된 각 객체의 특징점에 대해 객체의 동작 패턴의 형태에 따라 입력된 객체 영상을 분류함으로써 객체를 검출하여 추적하는 단계를 포함하며,
상기 객체를 검출하여 추적하는 단계는, 상기 객체 검출시 전체 대상 객체 영상에 대해 각 클러스터별로 상이한 임계값을 적용하며,
상기 객체 특징점 추출 단계는,
객체의 각 특징점의 탐색 영역을 설정하기 위한 관심 영역 모델을 생성하는 관심 영역 모델 생성 단계를 포함하여,
상기 관심 영역 모델 생성 단계는, 설정된 개수의 특징점들의 좌표를 벡터로 설정하는 단계; 서로 인접한 두 개의 특징점의 거리가 1이 되도록 좌표의 중심점을 정규화하는 단계; 및 각 객체의 특징점의 정규화된 평균 좌표벡터와 특징점의 평균 위치에서 변화 가능한 거리를 계산한 영역 벡터를 관심 영역 모델로 설정하는 단계를 포함하고,
상기 객체 특징점 추출 단계는,
상기 탐색 영역에 대하여 고속 푸리에 변환을 수행하는 고속 푸리에 연산 단계; 및 상기 고속 푸리에 변환을 통해 처리된 스펙트럼 영상에서 영상의 주파수 성분의 계수값이 미리 설정된 임계값 이하인 부분을 객체의 특징 후보 영역에서 제외시키는 후처리 단계를 더 포함하여 수행되는 것을 특징으로 하는 상황 인식 기반의 객체 검출, 인식 및 추적 방법.
An object feature point extraction step of extracting a digitized feature vector value from characteristic element information of an object extracted from an input object image; And
Detecting and tracking the object by classifying the object image input according to the shape of the operation pattern of the object with respect to the extracted feature points of the object,
The detecting and tracking of the object may include applying a different threshold value to each cluster of the entire object image when the object is detected,
The object feature point extraction step may include:
And a region of interest model generation step of generating a region of interest model for setting a search region of each feature point of the object,
The ROI model generating step may include: setting coordinates of a set number of feature points as a vector; Normalizing the center point of the coordinates so that the distance between two adjacent feature points is 1; And setting a region vector, which is calculated by a normalized average coordinate vector of feature points of each object and a changeable distance at an average position of the feature points, as a ROI model,
The object feature point extraction step may include:
Performing a fast Fourier transform on the search area; And a post-processing step of excluding, in the feature candidate region of the object, a portion of the spectral image processed through the Fast Fourier Transform having a coefficient value of a frequency component of an image less than or equal to a preset threshold value. Based object detection, recognition, and tracking methods.
청구항 8에 있어서, 상기 객체를 검출하여 추적하는 단계는,
'Haar' 특징을 기반으로 하는 베이지안 분류기를 이용하여 객체를 검출하고 추적하는, 상황 인식 기반의 객체 검출, 인식 및 추적 방법.
9. The method of claim 8, wherein detecting and tracking the object further comprises:
An object detection, recognition, and tracking method based on context recognition, which detects and tracks objects using Bayesian classifiers based on 'Haar' features.
청구항 8에 있어서, 상기 객체 특징점 추출 단계는,
상기 탐색 영역에서의 특징점을 검출하기 위한 각 특징점별 검출기를 생성하는 검출기 생성 단계;를 포함하는, 상황 인식 기반의 객체 검출, 인식 및 추적 방법.
9. The method of claim 8,
And generating a detector for each feature point for detecting a feature point in the search region.
삭제delete 삭제delete 삭제delete 청구항 8에 있어서, 상기 객체 특징점 추출 단계는,
입력 영상에 대해 히스토그램 평활화 방법에 의해 명암 값의 분포가 균일화되도록 처리하는 영상 전처리 단계;를 더 포함하는, 상황 인식 기반의 객체 검출, 인식 및 추적 방법.
9. The method of claim 8,
And an image preprocessing step of processing the input image so as to make the distribution of the lightness value uniform by the histogram smoothing method.
청구항 8, 청구항 9, 청구항 10, 또는 청구항 14항 중 어느 한 항의 방법을 실행하기 위한 프로그램이 기록되어 있는 것을 특징으로 하는 컴퓨터 판독 가능한 기록 매체.A program for executing the method according to any one of claims 8, 9, 10, and 14 is recorded.
KR1020120135082A 2012-11-27 2012-11-27 Apparatus, method and computer readable recording medium for detecting, recognizing and tracking an object based on a situation recognition KR101433472B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020120135082A KR101433472B1 (en) 2012-11-27 2012-11-27 Apparatus, method and computer readable recording medium for detecting, recognizing and tracking an object based on a situation recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020120135082A KR101433472B1 (en) 2012-11-27 2012-11-27 Apparatus, method and computer readable recording medium for detecting, recognizing and tracking an object based on a situation recognition

Publications (2)

Publication Number Publication Date
KR20140067604A KR20140067604A (en) 2014-06-05
KR101433472B1 true KR101433472B1 (en) 2014-08-22

Family

ID=51123796

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020120135082A KR101433472B1 (en) 2012-11-27 2012-11-27 Apparatus, method and computer readable recording medium for detecting, recognizing and tracking an object based on a situation recognition

Country Status (1)

Country Link
KR (1) KR101433472B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101963514B1 (en) * 2017-10-31 2019-03-28 동아대학교 산학협력단 Apparatus and method for classifying object based on hierarchical structure of image data features
US10659693B2 (en) 2018-01-16 2020-05-19 Hanwha Techwin Co., Ltd. Image processing device and method of correcting images
US11341365B2 (en) 2019-12-03 2022-05-24 Samsung Electronics Co., Ltd. Method and apparatus with authentication and neural network training
WO2024043752A1 (en) * 2022-08-26 2024-02-29 Samsung Electronics Co., Ltd. Method and electronic device for motion-based image enhancement

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105447886A (en) * 2014-08-26 2016-03-30 上海云罡同汇视觉艺术设计有限公司 Dynamic cinema playback control method
KR101643089B1 (en) * 2015-03-16 2016-07-28 인하대학교 산학협력단 Driving event classification using multiple sensors
KR102450374B1 (en) 2016-11-17 2022-10-04 삼성전자주식회사 Method and device to train and recognize data
KR101986804B1 (en) * 2016-12-29 2019-07-10 주식회사 얍컴퍼니 Method and apparatus for database of searching visual contents
KR102434574B1 (en) 2017-08-14 2022-08-22 삼성전자주식회사 Method and apparatus for recognizing a subject existed in an image based on temporal movement or spatial movement of a feature point of the image
KR102085699B1 (en) * 2018-07-09 2020-03-06 에스케이텔레콤 주식회사 Server and system for tracking object and program stored in computer-readable medium for performing method for tracking object
KR102111894B1 (en) * 2019-12-04 2020-05-15 주식회사 블루비즈 A behavior pattern abnormality discrimination system and method for providing the same
KR102439441B1 (en) * 2020-12-14 2022-09-02 가톨릭대학교 산학협력단 Apparatus and method for cell selection

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
강성관, 박양재, 정경용, 임기욱, 이정현, "서베일런스에서 고속 푸리에 변환을 이용한 실시간 특징점 검출", 디지털정책연구, vol.10, no.7, pp.123-128, 2012년 8월. *
강성관, 박양재, 정경용, 임기욱, 이정현, "서베일런스에서 고속 푸리에 변환을 이용한 실시간 특징점 검출", 디지털정책연구, vol.10, no.7, pp.123-128, 2012년 8월.*
강성관, 최경호, 정경용, 이정현, "서베일런스에서 베이지안 분류기를 이용한 객체 검출 및 추적", 디지털정책연구, vol.10, no.6, pp.297-302, 2012년 7월. *
강성관, 최경호, 정경용, 이정현, "서베일런스에서 베이지안 분류기를 이용한 객체 검출 및 추적", 디지털정책연구, vol.10, no.6, pp.297-302, 2012년 7월.*

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101963514B1 (en) * 2017-10-31 2019-03-28 동아대학교 산학협력단 Apparatus and method for classifying object based on hierarchical structure of image data features
US10659693B2 (en) 2018-01-16 2020-05-19 Hanwha Techwin Co., Ltd. Image processing device and method of correcting images
US11341365B2 (en) 2019-12-03 2022-05-24 Samsung Electronics Co., Ltd. Method and apparatus with authentication and neural network training
WO2024043752A1 (en) * 2022-08-26 2024-02-29 Samsung Electronics Co., Ltd. Method and electronic device for motion-based image enhancement

Also Published As

Publication number Publication date
KR20140067604A (en) 2014-06-05

Similar Documents

Publication Publication Date Title
KR101433472B1 (en) Apparatus, method and computer readable recording medium for detecting, recognizing and tracking an object based on a situation recognition
Kusakunniran et al. Recognizing gaits across views through correlated motion co-clustering
Matteoli et al. A tutorial overview of anomaly detection in hyperspectral images
Abate et al. 2D and 3D face recognition: A survey
CN106934359B (en) Multi-view gait recognition method and system based on high-order tensor subspace learning
CN109190544B (en) Human identity recognition method based on sequence depth image
Lu et al. Face detection and recognition algorithm in digital image based on computer vision sensor
WO2009109127A1 (en) Real-time body segmentation system
Kobayashi et al. Three-way auto-correlation approach to motion recognition
Qian et al. Intelligent surveillance systems
Subudhi et al. Change detection for moving object segmentation with robust background construction under Wronskian framework
Parashar et al. Deep learning pipelines for recognition of gait biometrics with covariates: a comprehensive review
CN113449660A (en) Abnormal event detection method of space-time variation self-coding network based on self-attention enhancement
Liu et al. Privacy-preserving video fall detection using visual shielding information
Nigam et al. Iris recognition using consistent corner optical flow
Kumar Artificial neural network based face detection using gabor feature extraction
Arantes et al. Human gait recognition using extraction and fusion of global motion features
Doghmane et al. A novel discriminant multiscale representation for ear recognition
Mohamed et al. Automated face recogntion system: Multi-input databases
Jin et al. Iris image segmentation based on K-means cluster
Elbaşi Fuzzy logic-based scenario recognition from video sequences
Vinay et al. Surveillance robots based on pose invariant face recognition using SSIM and spectral clustering
Nigam et al. Robust ear recognition using gradient ordinal relationship pattern
Ajitha et al. Face recognition system using Combined Gabor Wavelet and DCT approach
Anila et al. Global and local classifiers for face recognition

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170727

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180710

Year of fee payment: 5