KR101441333B1 - Detecting Apparatus of Human Component AND Method of the same - Google Patents

Detecting Apparatus of Human Component AND Method of the same Download PDF

Info

Publication number
KR101441333B1
KR101441333B1 KR1020080011390A KR20080011390A KR101441333B1 KR 101441333 B1 KR101441333 B1 KR 101441333B1 KR 1020080011390 A KR1020080011390 A KR 1020080011390A KR 20080011390 A KR20080011390 A KR 20080011390A KR 101441333 B1 KR101441333 B1 KR 101441333B1
Authority
KR
South Korea
Prior art keywords
head
image
human body
difference image
human
Prior art date
Application number
KR1020080011390A
Other languages
Korean (ko)
Other versions
KR20090037275A (en
Inventor
마오린 천
정문식
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US12/285,694 priority Critical patent/US8447100B2/en
Publication of KR20090037275A publication Critical patent/KR20090037275A/en
Priority to US13/867,464 priority patent/US9400935B2/en
Application granted granted Critical
Publication of KR101441333B1 publication Critical patent/KR101441333B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Abstract

입력 이미지의 인체 부분 검출 장치 및 그 방법을 제공한다. 본 발명은 인체 부분의 포지티브 샘플과 네거티브 샘플을 저장하는 연습 데이터베이스, 입력 이미지에 대해 차이 이미지를 계산하는 이미지 프로세서, 연습 데이터베이스에 저장된 소정 인체 부분의 포지티브 샘플과 네거티브 샘플에 대해 상기 이미지 프로세서가 계산한 차이 이미지로부터 특징 집합을 추출하는 서브윈도우 프로세서 및, 특징 집합에 대해 학습을 진행하여 얻은 인체 부분 모델을 사용하여, 상기 인체 부분 모델에 대응하는 인체 부분을 검출하는 인체 부분 분류기를 구비한다.An apparatus and method for detecting a human body of an input image are provided. The present invention relates to a method and system for analyzing a difference between an image of an exercise database storing a positive sample and a negative sample of a human part, an image processor calculating a difference image for the input image, A sub window processor for extracting a feature set from the difference image and a human partial classifier for detecting a human body part corresponding to the human body partial model using a human body partial model obtained by learning about a feature set.

인체 부분, 검출, 윈도우 Body part, detection, window

Description

인체 부분 검출 장치 및 그 방법{Detecting Apparatus of Human Component AND Method of the same}TECHNICAL FIELD [0001] The present invention relates to a human body part detecting method and a human body part detecting method.

본 발명은 대상 검출 장치 및 그 방법에 관한 것으로서, 더욱 상세하게는 차이 이미지를 특징 이미지로 하여 인체 부분 검출 장치 및 그 방법과 대상 검출 장치 및 그 방법에 관한 것이다.The present invention relates to an object detecting apparatus and method, and more particularly, to a human body detecting apparatus and method, an object detecting apparatus, and a method thereof using a difference image as a feature image.

대상 검출은 비디오 주파수 분석 기술, 예를 들어 내용에 근거한 비디오 또는 이미지 대상 복구 기술, 비디오 감시, 물체 인식, 주파수 제어, 비디오 영상 압축 및 자동 운전자 보조에 있어 매우 중요하다. 현실 세계에서 사람 검출 기술은 경쟁이 치열한 검출 분야 중의 하나이다. 사람을 검출하는 상황은 크게 세 가지 상황이 있을 수 있다.Object detection is crucial for video frequency analysis techniques, such as content-based video or image object recovery techniques, video surveillance, object recognition, frequency control, video image compression, and automated operator assistance. In the real world, human detection technology is one of the areas of intense competition. There are three situations in which a person is detected.

첫 번째 상황은 현장에 사람이 존재하는지 여부를 확정하는 검출 기술이다. 예를 들어, 대상 검출 시스템이 운전자를 보조할 때, 길의 행인이 차량에 근접하면 운전자에게 사람 검출 신호 경고를 한다. 이러한 대상 검출 시스템은 이미지 형성 장치에 집적화된 임베드된 스마트 장치로 실현될 수 있다. The first is a detection technique that determines whether a person is present in the field. For example, when the object detection system assists the driver, the driver is alerted to the person detection signal when the driver of the road approaches the vehicle. Such an object detection system can be realized with an embedded smart device integrated in an image forming apparatus.

두 번째 상황은 정지 카메라 또는 PTZ 카메라에 사용되는 동일인에 대한 연 속적 트래킹이다. 상기 정지 카메라는 사람의 이동 궤적을 얻어 스마트 행동 분석에 적용한다. 상기 PTZ 카메라는 카메라 상태를 이동하는 사람에 대해 조정하며 그것을 이미지의 중심으로 하여 세부 사항과 행동을 기록한다. The second situation is the sequential tracking of the same person used in a still or PTZ camera. The still camera obtains a moving trajectory of a person and applies it to smart behavior analysis. The PTZ camera adjusts the camera state to the person moving and records details and actions with it as the center of the image.

세 번째 상황은 로보트가 사람을 트래킹하거나 사람을 주시하거나 교류하고자할 때이다. 로보트는 카메라의 이미지 중 사람의 위치를 검출하고자 하고 대응하는 행동, 예를 들어 이동, 트래킹, 주시 또는 상태 조정을 실행한다. 이것은 로보트의 기능 장치에 집적되는 전체 스마트 장치로 실현될 수 있다.The third situation is when robots want to track people, watch people, or interact. The robot wants to detect the position of a person in the image of the camera and performs a corresponding action, for example, movement, tracking, viewing or status adjustment. This can be realized with the entire smart device integrated in the robot's functional unit.

패션의 다양한 형태와 스타일로 인해 사람의 부분적인 외양 뿐만 아니라 전체적인 형상의 변화가 다양하게 일어나므로, 특정 카테고리에 포함되는 특징을 발견하기비교적 어렵다. 따라서, 특징 추출이 어려운 조명 아래 복잡한 배경에서도 안정성 및 식별성을 가지는 특징 집합이 필요하다. 이밖에도 전체 형태는 정확성의 문제와 많은 장애 부속물로 인해 변형이 발생하거나, 동일한 이미지 구역에 다수의 사람이 출현함으로 인해 사람의 실루엣을 변형시킬 수 있다. 따라서, 전체 기록 이미지 중 작은 간섭을 극복하고 정확한 결과를 추론할 수 있는 알고리즘이 필요하다.Due to the various forms and styles of fashion, it is relatively difficult to find features that fall within a particular category, as there are various variations in the overall shape as well as the partial appearance of the person. Therefore, a feature set with stability and discrimination is required even in complicated backgrounds under difficult lighting illumination. In addition, the overall shape can deform a person's silhouette due to the problem of accuracy, deformation due to many obstacles, or the appearance of a large number of people in the same image area. Therefore, there is a need for an algorithm that can overcome small interferences among the entire recorded images and deduce accurate results.

종래 사람 검출 방법은 전체 모델, 예를 들어 전체 인체 형태 또는 윤곽을 검출하거나, 부분 특징 집합 또는 부분 검출기를 사용하는 방법을 사용한다. 전체 모델을 사용하는 검출 방법은 전체 인체의 특징을 추출하여 외양 또는 실루엣에 따른 전체 모델을 형성한다. 부분 검출기를 사용하는 검출 방법은 인체를 여러 구성 부분, 예르르 들어 머리부, 몸체, 다리부, 팔부로 구분한다. 이러한 사람에 대한 검출 기술은 부분 검출 기술이라 불릴 수 있고, 각 부분에 대한 연구는 해당 인체 부분 모델을 단순화하는데 집중된다. 부분 모델을 단순화시키는 패턴 학습 방법에는 SVM, adaboosting 및 기타 방법이 있다. Conventional human detection methods use a method that detects an entire model, e.g., an entire human shape or contour, or uses a partial feature set or a partial detector. The detection method using the entire model extracts the characteristics of the entire human body to form an overall model according to the appearance or silhouette. Detection methods using partial detectors divide the human body into several components, such as head, body, leg, and arm. The detection technique for such a person can be referred to as a partial detection technique, and the research on each part is focused on simplifying the human part model. Pattern learning methods that simplify partial models include SVM, adaboosting, and other methods.

이 중 특히 사람의 얼굴 검출 기술은 최근 몇 년간 많은 발전이 있었으며 실시간 검출 기술 실행시 높은 검출율과 낮은 오류를 나타내는 것을 알 수 있다. 하지만 실제 응용시 사람의 검출은 여전히 많은 작업이 필요하다. 먼저 의상 디자인 및 상이한 조명 조건의 변화에 따른 사람의 외모의 변화에 따라 사람 검출기를 적용하여야 한다. 둘째, 상기 사람 검출기는 사람의 외모의 각종 변형에도 불구하고 특징 형상을 보완하는 안정적 특징의 기초에서 만들어져야 한다. 마지막으로 상기 사람 검출기는 비교적 적은 계산양과 실시간 처리가 필요하다.Especially, face detection technology of man has been developed in recent years, and it can be seen that high detection rate and low error are realized when real-time detection technology is executed. However, in practical applications, human detection still requires a lot of work. First, a human detector should be applied in accordance with changes in a person's appearance as a result of costume design and changes in different lighting conditions. Second, the human detector should be made on the basis of a stable feature that compensates for the feature despite various variations of human appearance. Finally, the human detector requires a relatively small amount of computation and real-time processing.

본 발명은 상기와 같은 종래 기술을 개선하기 위해 안출된 것으로서, 안정적인 식별 특징과 실시간 처리 능력을 가지는 인체 부분 검출 장치 및 그 방법을 제공하는 것을 목적으로 한다. SUMMARY OF THE INVENTION The present invention has been made in order to solve the above problems, and it is an object of the present invention to provide an apparatus and method for detecting a human body having a stable identification characteristic and a real-time processing capability.

본 발명의 또 다른 목적은 안정적인 식별 특징과 실시간 처리 능력을 가지는 대상 검출 장치 및 그 방법을 제공하는 것을 목적으로 한다.It is still another object of the present invention to provide an object detecting apparatus and a method therefor which have a stable identification characteristic and a real-time processing capability.

본 발명의 또 다른 목적은 안정적인 식별 특징과 실시간 처리 능력을 가지는 이미지 형성 시스템을 제공하는 것을 목적으로 한다.It is another object of the present invention to provide an image forming system having stable identification characteristics and real-time processing capability.

상술한 과제를 해결하기 위하여 본 발명은, In order to solve the above-described problems,

인체 부분의 포지티브 샘플과 네거티브 샘플을 저장하는 연습 데이터베이스와, 입력 이미지에 대해 차이 이미지를 계산하는 이미지 프로세서와, 상기 연습 데이터베이스에 저장된 소정 인체 부분의 포지티브 샘플과 네거티브 샘플에 대해 상기 이미지 프로세서가 계산한 차이 이미지로부터 특징 집합을 추출하는 서브 윈도우 프로세서 및, 상기 특징 집합에 대해 학습을 진행하여 얻은 인체 부분 모델을 사용하여, 상기 인체 부분 모델에 대응하는 인체 부분을 검출하는 인체 부분 분류기를 구비하는 이미지의 인체 부분 검출 장치를 제공한다.A training database for storing positive and negative samples of the human body; an image processor for calculating a difference image for the input image; and an image processor for calculating positive and negative samples of a predetermined human body portion stored in the practice database A sub-window processor for extracting a feature set from the difference image, and a human partial classifier for detecting a human body portion corresponding to the human body sub-model using the human sub- A human body part detecting device is provided.

상술한 과제를 해결하기 위하여 본 발명은 또한, In order to solve the above-mentioned problems,

인체 부분의 포지티브 샘플과 네거티브 샘플을 저장하고 상기 포지티브 샘플 과 네거티브 샘플의 차이 이미지로부터 특징 집합을 추출하는 단계와, 상기 추출된 특징 집합에 대해 학습을 진행하여 인체 부분 모델을 얻는 단계 및, 입력 이미지의 차이 이미지를 계산하고, 상기 인체 부분 모델을 사용하여 상기 차이 이미지 중 대응하는 인체 부분을 검출하는 단계를 포함하는 이미지의 인체 부분 검출 방법을 제공한다.The method comprising the steps of: storing a positive sample and a negative sample of a human body part and extracting a feature set from the difference image of the positive sample and the negative sample; learning the extracted feature set to obtain a human body partial model; And detecting the corresponding human part of the difference image using the human body partial model.

상술한 과제를 해결하기 위하여 본 발명은 또한, In order to solve the above-mentioned problems,

대상의 포지티브 샘플과 네거티브 샘플을 저장하는 연습 데이터베이스와, 입력 이미지에 대해 차이 이미지를 계산하는 이미지 프로세서와, 상기 연습 데이터베이스에 저장된 대상의 포지티브 샘플과 네거티브 샘플에 대해 상기 이미지 프로세서가 계산한 차이 이미지로부터 특징 집합을 추출하는 서브 윈도우 프로세서와, 상기 특징 집합에 대해 학습을 진행하여 얻은 대상 모델을 사용하여, 상기 대상 모델에 대응하는 대상을 검출하는 대상 분류기를 구비하는 이미지의 대상 검출 장치를 제공한다.A training database for storing positive and negative samples of an object; an image processor for calculating a difference image for the input image; and a difference image computed by the image processor for positive and negative samples of the object stored in the practice database A sub-window processor for extracting a feature set and an object classifier for detecting an object corresponding to the object model using an object model obtained by learning about the feature set.

상술한 과제를 해결하기 위하여 본 발명은 또한, In order to solve the above-mentioned problems,

대상의 포지티브 샘플과 네거티브 샘플을 저장하고 상기 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 특징 집합을 추출하는 단계와, 상기 추출된 특징 집합에 대해 학습을 진행하여 대상 모델을 얻는 단계 및, 입력 이미지의 차이 이미지를 계산하고, 상기 대상 모델을 사용하여 상기 차이 이미지 중 대응하는 대상을 검출하는 단계를 포함하는 이미지의 대상 검출 방법을 제공한다.The method comprising the steps of: storing a positive sample and a negative sample of an object and extracting a feature set from the difference image of the positive sample and the negative sample; learning the extracted feature set to obtain a target model; Calculating an image, and detecting a corresponding one of the difference images using the object model.

상술한 과제를 해결하기 위하여 본 발명은 또한, In order to solve the above-mentioned problems,

대상의 이미지를 촬영하는 촬영 장치와, 상기 대상의 차이 이미지에 대해, 상기 대상의 상기 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 추출한 특징 집합에 대해 학습을 진행하여 얻는 대상 모델을 사용하여 상기 대상 모델에 대응하는 대상 영역을 검출하는 검출 장치와, 상기 검출 장치가 검출한 촬영 대상이 이미지 중 촬영한 대상 영역에 근거하여 상태 변수를 계산함으로써, 상기 대상을 상기 이미지의 중심 영역에 위치시키는 상태 변수 계산 장치와, 상기 상태 변수 계산 장치로부터 상기 상태 변수를 수신하여 상태를 조정하는 제어 장치와, 상기 대상의 이미지를 저장하는 저장 장치 및, 상기 대상의 이미지를 표시하는 디스플레이 장치를 구비하는 이미지 형성 시스템을 제공한다.And an object model obtained by performing learning on a feature set extracted from a difference image of the positive sample and the negative sample of the object with respect to the difference image of the object, A state variable calculation device for calculating a state variable based on an object area photographed by the imaging object detected by the detection device and positioning the object in a central area of the image, A control device for receiving the state variable from the state variable calculation device and adjusting the state, a storage device for storing the image of the object, and a display device for displaying the image of the object do.

이하에서는 첨부된 도면을 참조하여 본 발명의 실시예를 상세히 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 인체 부분 검출 장치 중 머리부 검출 장치의 구조를 보인 도면이다.FIG. 1 is a view showing a structure of a head part detecting device of a human body part detecting device according to an embodiment of the present invention.

도 1을 참조하면, 머리부 검출장치(100)는 이미지 프로세서(110), 연습 데이터베이스(이하 'DB'라 함)(120), 서브윈도우 프로세서(130) 및 머리부 분류기(140)를 포함한다.1, the head detecting apparatus 100 includes an image processor 110, an exercise database 120, a sub window processor 130, and a head classifier 140 .

이미지 프로세서(110)는 모든 입력 이미지의 차이 이미지를 계산한다. 카메라에 의해 실시간으로 입력되는 이미지 뿐만 아니라 연습 DB에 저장되는 샘플 이미지에 대해서도 차이 이미지를 계산한다. The image processor 110 calculates the difference image of all input images. The difference image is calculated not only for the images input by the camera in real time but also for the sample images stored in the practice DB.

연습 DB(120)는 인체 부분의 포지티브 샘플(positive sample)과 네거티브 샘 플(negative sample)을 저장하는데, 여기서 인체 부분은 사람의 머리부가 되므로 포지티브 샘플과 네거티브 샘플은 사람의 머리부에 대해서 캡쳐하여 저장한다. The practice DB 120 stores a positive sample and a negative sample of the human body portion, wherein the human body portion is a human head portion, so that the positive sample and the negative sample are captured with respect to the human head .

서브 윈도우 프로세서(130)는 연습 DB(120)에 저장된 사람의 머리부의 포지티브 샘플와 네거티브 샘플에 대해서 이미지 프로세서(110)가 계산한 상기 차이 이미지를 이용하여 상기 차이 이미지에 대한 특징 집합을 추출한다. The sub window processor 130 extracts a feature set for the difference image using the difference image calculated by the image processor 110 for the positive sample and the negative sample of the head of the person stored in the practice DB 120. [

머리부 분류기(140)는 추출된 상기 특징 집합에 대해 학습을 진행하여 머리부 모델을 얻은 다음, 이미지 프로세서(110)에 입력 이미지에 대해 이미지 프로세서(110)가 계산한 새 차이 이미지에 대해 사람의 머리부분의 영역을 검출한다.The head classifier 140 proceeds to learn about the extracted feature set to obtain the head model and then sends the image processor 110 a new difference image calculated by the image processor 110 for the input image, And detects the head area.

당업자가 쉽게 이해할 수 있는 바와 같이, 도 1에 도시된 머리 부분 검출 장치(100)는 단지 예시를 위한 것으로 머리 부분의 검출 장치(100)의 머리부 분류기(140)는 기타 인체의 분류기로 대치될 수 있는데, 예를 들어, 몸체 분류기, 다리 분류기, 팔 분류기 및 전체 분류기 등이 있으며, 이로써 기타 인체 부분의 검출 장치를 형성하여, 이미지 중 기타 인체 부분을 검출할 수 있다. 또한, 도 1의 머리부 분류기(140)는 도 8에 도시된 다양한 촬영 각도에서 나타날 수 있는 머리부에 대한 도 9에 도시된 피라미드 분류기(800)의 형태로 구성될 수 있다.As can be readily appreciated by those skilled in the art, the head-portion detecting device 100 shown in Fig. 1 is merely for illustrative purposes, and the head classifying device 140 of the head-portion detecting device 100 is replaced by a sorter of another human body For example, a body sorter, a leg sorter, an arm sorter, and an entire sorter, thereby forming a detection device for other human body parts, thereby detecting other human body parts in the image. In addition, the head classifier 140 of FIG. 1 may be configured in the form of a pyramid classifier 800 shown in FIG. 9 for a head that may appear at various imaging angles shown in FIG.

이런 방식으로 임의의 인체 부분 검출 장치는 이미지 프로세서, 연습 DB, 서브윈도우 프로세서 및 인체 부분 분류기를 포함하여 구성될 수 있다. 이 경우 각 인체 부분 검출 장치는 상기 네 구성 요소를 모두 포함하여 구성되거나, 이미지 프로세서, 연습 DB, 서브 윈도우 프로세서를 공동으로 구비하고, 인체 부분 분류기만을 각 인체 부분에 따라 별도로 구비할 수 있다.In this way, any human body part detecting device can be configured including an image processor, a practice DB, a subwindow processor, and a human partial classifier. In this case, each of the human body detecting apparatuses may include all of the four elements, or may include an image processor, a practice DB, and a subwindow processor. The human body partial classifier may be separately provided for each human body.

도 2는 본 발명의 실시예에 따른 이미지 프로세서가 차이 이미지를 계산하는 방법을 보이는 도면이다. FIG. 2 is a diagram illustrating a method of calculating an image difference by an image processor according to an embodiment of the present invention. FIG.

도 2를 참조하면, 이미지 프로세서(110)는 제1 내지 제4 차이 이미지(dx, dy, du 및 dv)의 네 개의 차이 이미지를 계산한다. 제1차이 이미지(dx)의 각 화소값은 원 이미지의 N*N 인접 구역 중의 수평 방향으로의 이미지 차이이다. 도2의 제1 차이이미지(dx)를 참조하면, 만약 N이 3일 때 회색 사각형의 화소값의 합에 대해 회색 원형의 화소값의 합을 빼서 제1차이 이미지(dx)의 중심 화소값으로 한다. Referring to Fig. 2, the image processor 110 calculates four difference images of the first through fourth difference images dx, dy, du and dv. Each pixel value of the first difference image (dx) is the image difference in the horizontal direction among the N * N adjacent regions of the original image. Referring to the first difference image (dx) of FIG. 2, if N is 3, the sum of pixel values of gray circles is subtracted from the sum of pixel values of gray rectangles to obtain the center pixel value of the first difference image (dx) do.

제2차이 이미지(dy)의 각 화소값은 원 이미지의 N*N 인접 구역 중의 수직 방향의 화소 차이값이다. 도 2의 제2 차이 이미지(dy)를 참조하면, N이 3 일 때 회색 사각형의 화소값의 합에 회색 원형의 화소값의 합을 빼서 제2 차이 이미지(dy)의 중심의 화소값으로 한다. Each pixel value of the second difference image (dy) is the pixel difference value in the vertical direction in the N * N adjacent region of the original image. Referring to the second difference image dy in FIG. 2, when N is 3, the sum of the pixel values of the gray rectangle is subtracted from the sum of the pixel values of the gray rectangle to obtain the pixel value of the center of the second difference image (dy) .

제3 차이 이미지(du)의 각 화소값은 원 이미지 N*N 인접 구역 중 좌-우 대각선 방향으로의 화소 차이값이다. 도 1의 제3차이 이미지(du)를 참조하면, N이 3일 때 회색 사각형의 화소값의 합에 회색 원형의 화소값의 합을 빼서 제3 차이 이미지(du)의 중심의 화소값으로 한다. Each pixel value of the third difference image du is a pixel difference value in the left-right diagonal direction among the adjacent regions of the original image N * N. Referring to the third difference image du in FIG. 1, when N is 3, the sum of the pixel values of the gray rectangle is subtracted from the sum of the pixel values of the gray rectangle to obtain the pixel value of the center of the third difference image du .

제4 차이 이미지(dv)의 각 화소값은 원 이미지의 N*N 인접 구역 중 좌-우 대각선 방향의 화소 차이값이다. 도 2의 제4 차이 이미지(dv)를 참조하면, N이 3일 때 회색 사각형의 화소값의 합에 회색 원형의 화소값의 합을 빼서 제4 차이 이미지(dv)의 중심 화소값으로 한다. 이런 방식으로 제1 내지 제4 차이 이미지(dx, dy, du, dv)의 각 화소값은 목표 방향에서 인접 구역의 화소의 평균 회색도의 변화 를 표시한다.Each pixel value of the fourth difference image (dv) is a pixel difference value in the left-right diagonal direction among N * N adjacent regions of the original image. Referring to the fourth difference image dv in FIG. 2, when N is 3, the sum of the pixel values of the gray rectangles is subtracted from the sum of the pixel values of the gray circles to obtain the center pixel value of the fourth difference image dv. In this way, each pixel value of the first to fourth difference images (dx, dy, du, dv) represents the change in the average gray level of the pixels in the adjacent region in the target direction.

또한, 상이한 스케일로 차이 이미지를 계산할 수 있다. 예를 들어, 도 1의 제1 내지 제4 차이 이미지(dx, dy, du, dv) 중 검은 색 사각형의 화소값의 합에 검은 색 원형의 화소값의 합을 빼면 5*5 인접 구역의 중심 화소값이 된다. 공식을 사용하면 (2*n+1)*(2*n+1), n=1,2,,,,,, 인접 구역의 중심 화소값으로 표시할 수 있다. In addition, difference images can be calculated at different scales. For example, if the sum of the pixel values of the black square among the first to fourth difference images dx, dy, du, and dv of FIG. 1 is subtracted from the sum of the pixel values of the black circle, Pixel value. (2 * n + 1) * (2 * n + 1), n = 1,2 ,,,,,, can be expressed as the center pixel value of the adjacent region.

다른 다양한 스케일에 대해 이미지를 서브-샘플링하는데, 예를 들어 n이 2이면 각 화소에 한 번 차이 이미지 계산을 진행한다. 낮은 해상도의 이미지를 얻기 위해 비교적 큰 스케일, 즉 비교적 큰 인접 구역을 설정하여 차이 이미지를 계산하여 특징 집합 추출 시 배경의 노이즈의 영향을 감소시킬 수 있다. 또한, 높은 해상도의 이미지를 얻기 위해서는 비교적 작은 스케일, 즉 비교적 작은 인접 구역을 설정하여 차이 이미지를 계산함으로써 세부적으로 더욱 정밀한 화소값을 표시할 수 있다.The image is sub-sampled for different scales, for example, if n is 2, the difference image calculation is performed once for each pixel. In order to obtain a low resolution image, a relatively large scale, that is, a relatively large adjacent region may be set to calculate the difference image, thereby reducing the influence of background noise in extracting the feature set. Further, in order to obtain a high resolution image, a pixel value can be displayed in a finer manner by calculating a difference image by setting a relatively small scale, that is, a relatively small adjacent region.

예를 들어, 이미지의 폭이 w이고 h높이가 인 화소에 대해 1 내지 w-2의 폭 내지 1 내지 h-2의 높이로 차이 이미지를 계산하고, 계산 시 이미지 경계를 벗어나는 화소값을 0으로 한다. 큰 스케일로 차이 이미지를 계산하기 전에 원 회색도의 이미지에 서브-샘플링을 한다. 그런 다음, 상술한 내용에 따라 특징 차이 이미지를 계산한다.For example, a difference image is calculated with a width of 1 to w-2 and a height of 1 to h-2 for a pixel whose image width is w and h height, and a pixel value outside the image boundary in calculation is set to 0 do. Sub-sampling is performed on the original gray-scale image before calculating the difference image on a large scale. Then, the feature difference image is calculated according to the above description.

도 3은 머리부의 포지티브 샘플의 윤곽과 유사한 윤곽 형상을 가지는 전형적인 네거티브 샘플을 보인다. Figure 3 shows a typical negative sample having an outline shape similar to the outline of the positive sample of the head.

도 3을 참조하면, 비록 네거티브 샘플은 직사각형의 선 구조에 유사하며 사람의 머리부의 포지티브 샘플의 변형 형태로 보인다. 이로부터 분류기의 식별 능력을 테스트할 수 있는데, 일반적으로 검출 결과 중 나타나는 오류가 주로 사람의 머리 형상과 비슷한 형상의 대상을 포함하기 때문이다. 다른 한 편으로는 이는 특징 변형과 추출의 중요성을 보인다. 본 발명은 이런 특징 추출의 어려움을 감소시킨 방법이다. Referring to FIG. 3, a negative sample is similar to a rectangular line structure and appears as a modified form of a positive sample at the head of a person. From this, it is possible to test the discriminating ability of the classifier, since the error in the detection result generally includes the object having a shape similar to that of the human head. On the other hand, this shows the importance of feature transformation and extraction. The present invention reduces the difficulty of such feature extraction.

도 4는 굵은 직선을 가지는 대상물의 차이 이미지를 보인다.FIG. 4 shows a difference image of an object having a thick straight line.

도 4를 참조하면, 이미지 중 직선 구조를 가지는 대상물은 상이한 차이 이미지로 구분될 수 있다. 이러한 구분은 특징 추출에 비교적 좋은 소스를 제공한다. 제1 차이 이미지(dx)는 이미지의 수평 방향의 변화를 유지하고, 제2 차이 이미지(dy)는 이미지의 수직 방향의 변화를 유지한다. 제3 및 제4 차이 이미지(du, dv)는 이미지의 대각선 방향의 변화를 보유한다.Referring to FIG. 4, an object having a linear structure among images may be classified into different difference images. This distinction provides a relatively good source for feature extraction. The first difference image dx maintains the horizontal variation of the image and the second difference image dy maintains the vertical variation of the image. The third and fourth difference images du and dv retain the diagonal variation of the image.

도 5는 도 2에 도시된 방법에 따라 계산된 머리 부분의 차이 이미지의 네 가지 예들(dx, dy, du, dv)을 보인다. 도 4의 차이 이미지와 비교하면, 비록 도 3의 차이 이미지에서 직선은 분해되지만, 머리 부분의 윤곽은 비교적 좋게 보존된다는 것이다.Fig. 5 shows four examples (dx, dy, du, dv) of the difference image of the head calculated according to the method shown in Fig. Compared with the difference image of FIG. 4, the straight line is decomposed in the difference image of FIG. 3, but the contour of the head portion is relatively well preserved.

도 6은 본 발명의 일 실시예에 따른 특징 추출 방법 중 서브 윈도우 프로세서에서 사용하는 서브 윈도우를 보인다. FIG. 6 shows a sub-window used in a sub-window processor among feature extraction methods according to an embodiment of the present invention.

먼저 연습 이미지 상에 폭과 높이를 이미지 비율에 따라 조절이 가능한 비율로 변화시키면서 단일 윈도우를 슬라이딩시킴으로써 상기 단일 윈도우의 특징을 생 성한다. 그런 다음, 상기 연습 이미지 상에, 폭과 높이를 이미지의 스케일 조절에 따른 스케일로 변화시키면서 동시에 동일한 줌 변수로 두 개 윈도우의 폭과 높이를 변화시켜 스케일에 따라 넓은 범위를 가지는 숨은 패턴을 캡쳐할 수 있도록 두 개의 윈도우를 슬라이딩시킴으로써 두 개의 윈도우 특징을 형성한다. 두 윈도우는 수평 및 수직 방향으로 서로 상대적으로 이동하여 넓은 범위의 숨은 패턴을 캡쳐한다. First, a single window is created by changing the width and height of the training image at a rate that can be adjusted according to the image ratio, thereby generating the characteristic of the single window. Then, on the practice image, the width and the height are changed to the scale according to the scale adjustment of the image, and at the same time, the width and the height of the two windows are changed with the same zoom variable to capture a hidden pattern having a wide range according to the scale To form two window features by sliding two windows. The two windows move relative to each other in the horizontal and vertical directions to capture a wide range of hidden patterns.

연습 샘플 상에 세 개의 연결된 윈도우를 슬라이딩시켜 세 개의 윈도우 특징을 형성한다. 상기 세 개의 윈도우는 스케일에 따라 넓은 범위의 모델을 캡쳐하기 위해 스케일 변화 시 동일한 스케일과 높이를 가진다. 제2윈도우는 제1윈도우와 제3윈도우의 이동에 대해 볼록 및 오목의 윤곽을 캡쳐한다. 세 개의 윈도우 특징에는 두 가지 종류가 존재하는데, 한 종류는 세 개의 윈도우의 수평 배치이고, 다른 종류는 세 개의 윈도우의 수직 배치이다. 수평 배치로서, 제2윈도우는 제1윈도우와 제3윈도우에 대해 수평 이동한다; 수직 배치로서, 제2윈도우는 제1윈도우와 제3윈도우에 대해 수직 이동한다.Slide three connected windows on the exercise sample to form three window features. The three windows have the same scale and height in the scale change to capture a wide range of models according to the scale. The second window captures the contours of the convex and concave for the movement of the first window and the third window. There are two types of window features: one is the horizontal arrangement of three windows, and the other is the vertical arrangement of the three windows. With horizontal placement, the second window horizontally moves relative to the first window and the third window; As a vertical arrangement, the second window moves vertically relative to the first window and the third window.

f를 추출된 특징, G를 차이 이미지, w를 특징 윈도우, OP1을 특징 추출에 사용되는 제1연산자로 가정한다. OP1 는 '+'와 '-'의 간단한 두 개의 연산자를 포함하는 제1연산자, 즉 OP1={+. -}이다. OP2는 본 발명 중에 사용되는 제2연산자로서 '+'와 '-' 및 주 연산자(domin)을 포함하며, OP2={+. -, domin}로 나타낼 수 있다.Let f be the extracted feature, G be the difference image, w be the feature window, and let OP 1 be the first operator used for feature extraction. OP 1 Is a first operator containing two simple operators '+' and '-', ie, OP 1 = {+. -}to be. OP 2 is a second operator used in the present invention, including '+', '-' and a main operator (domin), and OP 2 = {+. -, domin}.

한 개의 차이 이미지에 대한 특징을 추출하기 위해, 단일 특징 윈도우, 두 개의 특징 윈도우 및 세 개의 특징 윈도우에 각각 대응하는 수학식 1, 2, 3으로 특징을 계산할 수 있다. a는 네 개의 차이 이미지 중의 하나가 될 수 있다.In order to extract the feature of one difference image, the feature can be calculated by Equations 1, 2, and 3 corresponding to a single feature window, two feature windows, and three feature windows, respectively. a can be one of the four difference images.

Figure 112008009220139-pat00001
Figure 112008009220139-pat00001

Figure 112008009220139-pat00002
Figure 112008009220139-pat00002

Figure 112008009220139-pat00003
Figure 112008009220139-pat00003

두 개의 차이 이미지의 특징 추출을 위해, 다시 차이 이미지의 단일 특징 윈도우, 두 개의 특징 윈도우 및 세 개의 특징 윈도우에 대응하는 수학식 4, 5, 6으로 특징을 계산할 수 있다. a 및 b 는 네 개의 차이 이미지 중 임의의 두 개의 이미지이다.For the feature extraction of the two difference images, the feature can again be calculated by equations (4), (5) and (6) corresponding to the single feature window, the two feature windows and the three feature windows of the difference image. a and b are any two images of the four difference images.

Figure 112008009220139-pat00004
Figure 112008009220139-pat00004

Figure 112008009220139-pat00005
Figure 112008009220139-pat00005

Figure 112008009220139-pat00006
Figure 112008009220139-pat00006

세 개의 차이 이미지의 특징 추출을 위해, 각각 단일 특징 윈도우, 두 개의 특징 윈도우 및 세 개의 특징 윈도우에 대응하는 수학식 7, 8, 9를 통해 특징을 계산할 수 있다. a, b 및 c는 네 개의 차이 이미지 중 임의의 세 개의 이미지이다. For the feature extraction of the three difference images, the feature can be calculated through equations (7), (8) and (9) corresponding to a single feature window, two feature windows and three feature windows, respectively. a, b, and c are any three of the four difference images.

Figure 112008009220139-pat00007
Figure 112008009220139-pat00007

Figure 112008009220139-pat00008
Figure 112008009220139-pat00008

Figure 112008009220139-pat00009
Figure 112008009220139-pat00009

네 개의 차이 이미지의 특징 추출에 대해, 각각 단일 특징 윈도우, 두 개의 특징 윈도우 및 세 개의 특징 윈도우에 대응하는 수학식 10, 11, 12를 통해 특징을 계산한다. a, b, c 및 d는 네 개의 차이 이미지이다.For the feature extraction of the four difference images, the feature is calculated through equations 10, 11, 12 corresponding to a single feature window, two feature windows and three feature windows, respectively. a, b, c, and d are four difference images.

Figure 112008009220139-pat00010
Figure 112008009220139-pat00010

Figure 112008009220139-pat00011
Figure 112008009220139-pat00011

Figure 112008009220139-pat00012
Figure 112008009220139-pat00012

수학식 13 내지 17에서 보이는 바와 같이, 제1연산자(OP1) 은 더하기 및 빼기의 연산자이며, 제2연산자(OP2)는 더하기 및 빼기 연산자 뿐만 아니라 주 연산자를 포함한다.As shown in Equations (13) to (17), the first operator (OP 1 ) is an operator of addition and subtraction, and the second operator (OP 2 ) includes a main operator as well as addition and subtraction operators.

Figure 112008009220139-pat00013
Figure 112008009220139-pat00013

Figure 112008009220139-pat00014
Figure 112008009220139-pat00014

Figure 112008009220139-pat00015
Figure 112008009220139-pat00015

Figure 112008009220139-pat00016
Figure 112008009220139-pat00016

Figure 112008009220139-pat00017
Figure 112008009220139-pat00017

도 6에서 특징 추출법에서 사용하는 서브윈도우를 예시로 보이고 있으나 이는 발명의 목적을 제한하기 위한 것은 아니다. 본 발명은 다양한 개수와 유형의 서브윈도우로 실현가능하다.Although FIG. 6 illustrates the sub-window used in the feature extraction method, it is not intended to limit the object of the invention. The present invention is feasible with sub-windows of various numbers and types.

서브윈도우 프로세서(130)은 한 개의 차이 이미지, 두 개의 차이 이미지, 세 개의 차이 이미지 또는 네 개의 차이 이미지를 스캔함으로써 특징을 추출한다. 특징 집합은 한 개의 차이 이미지, 두 개의 차이 이미지, 세 개의 차이 이미지 또는 네 개의 차이 이미지로부터 추출되는 특징 중 하나의 특징 또는 한 개의 차이 이미지, 두 개의 차이 이미지, 세 개의 차이 이미지 또는 네 개의 차이 이미지로부터 추출되는 여러 특징의 임의의 조합이 될 수 있다. 또한, 더 많은 특징을 획득하기 위해 상이한 스케일을 사용하여 차이 이미지를 계산할 수 있고 상이한 스케일로 계산된 차이 이미지로부터 특징 집합을 추출할 수 있다.Sub-window processor 130 extracts features by scanning one difference image, two difference images, three difference images, or four difference images. A feature set may include one difference image, two difference images, three difference images, or one feature of a feature extracted from four difference images, or one difference image, two difference images, three difference images, Lt; RTI ID = 0.0 > a < / RTI > In addition, different images can be computed using different scales to obtain more features, and feature sets can be extracted from difference images computed on different scales.

상기 추출된 특징 집합에 대해 통계학습 방법, 예를 들어 Adaboost, SVM 등을 사용하여 식별 능력이 있는 특징을 선택하여 최종적인 분류 모델을 생성할 수 있다. 여러 모델 식별 기술 중에서 상기 모델 분류 기술은 모델 분류기에 적용하여 실현 가능하다.A final classification model can be generated by selecting a feature having discrimination capability using a statistical learning method, for example, Adaboost, SVM, or the like for the extracted feature set. Among the various model identification technologies, the model classification technique can be applied to a model classifier.

도 7은 본 발명의 실시예에 따른 인체 부분 검출 방법을 간략히 보이는 플로우 차트이다.7 is a flowchart briefly showing a method of detecting a human body part according to an embodiment of the present invention.

도 7을 참조하면, 본 발명의 실시예에 따른 인체 부분 검출 방법은 먼저 인체 부분의 포지티브 샘플과 네거티브 샘플을 준비하고 상기 포지티브 샘플과 네거티브 샘플의 차이 이미지를 계산한 다음, 계산된 상기 차이 이미지에 기해 상기 특징 추출 방법을 사용하여 특징 집합을 형성한다(S1) Referring to FIG. 7, in the human body part detecting method according to the embodiment of the present invention, first, a positive sample and a negative sample of a human body part are prepared, a difference image between the positive sample and a negative sample is calculated, A feature set is formed using the feature extraction method (S1)

통계법을 사용한 학습 방법을 사용하여 상기 인체 부분의 부분 모델을 형성한다(S2). 이러한 부분 모델을 얻음으로써, 상기 모델을 사용하는 인체 부분 분류기를 얻을 수 있다. 예를 들어, 몸체에 대해 몸체의 포지티브 샘플과 네거티브 샘플을 준비하면, 상기 몸체의 포지티브 샘플과 네거티브 샘플의 차이 이미지에 대해 상술한 특징 추출방법을 사용하여 특징 집합을 추출한다. 그런 다음, 통계학습법을 사용하여 식별 능력이 있는 특징을 선택하고 최종적으로 몸체 모델 및 이를 인코딩한 몸체 분류기를 형성한다.A partial model of the human body part is formed using the learning method using the statistical method (S2). By obtaining such a partial model, a human partial classifier using the model can be obtained. For example, when a positive sample and a negative sample of the body are prepared for the body, a feature set is extracted using the feature extraction method described above for the difference image between the positive sample and the negative sample of the body. Then, statistical learning methods are used to select the identifiable features and eventually form a body model and a body classifier that encodes it.

이렇게 검출된 인체 부분 모델을 사용하여 입력되는 이미지의 차이 이미지 중 대응하는 인체 부분을 검출한다(S3). The corresponding human body part of the difference image of the input image is detected using the detected human body model (S3).

도 8은 사람의 머리부에 대한 다양한 시야각에서의 구분을 보이는 도면이 다.Fig. 8 is a view showing the division of the human head in various viewing angles.

도 8을 참조하면, 윤곽 형상은 카메라가 머리 부분을 조명하는 각도가 변화할 때, 머리 부분의 이미지가 8개 방향, 즉 전면, 좌반측, 좌측, 좌후반측, 우측, 우후반측, 우측 및 우후반측으로 분류된다. 8개의 분리된 이미지는 머리부를 둘러싸고 360도의 각도에서의 모든 이미지를 표시한다. 각 이미지는 일정 범위의 각도를 포함하고 특정 각도 만에 한정되지 않는다. 예를 들어, 만약 전면 이미지는 0도, 좌측은 90도이지만 전면 이미지는 실제 [-22.5, +22.5]도, 좌반측 이미지는 실제 [22.5, 67.5]도, 좌측 이미지는 실제[67.5, 112.5]도를 포괄한다.8, when the angle at which the camera illuminates the head changes, the image of the head portion is displayed in eight directions, that is, front, left half, left, left rear half, right half, It is classified as the posterior side of the posterior margin. Eight separate images surround the head and display all images at an angle of 360 degrees. Each image includes a range of angles and is not limited to a specific angle. For example, if the front image is 0 degrees and the left side is 90 degrees, the front image is actually [-22.5, +22.5], the left half image is actually [22.5, 67.5] .

도 9는 사람 머리부를 검출하는 피라미드 분류기를 보이는 도면이다.9 is a view showing a pyramid classifier for detecting a human head.

도 9에 도시된 피라미드 분류기(800)에는 도 8에 도시된 상기 머리부의 8 부분에 대해 포지티브 샘플과 네거티브 샘플에 대한 차이 이미지의 특징 집합을 입력받아 각 특징 집합에 대응하는 머리 부분 모델을 인코딩함으로써 입력 이미지에 대한 부분 검출을 실행하는 제1내지 제4분류기(A, F, P, HP)를 구비한다. The pyramid classifier 800 shown in FIG. 9 receives the feature set of the difference image for the positive sample and the negative sample with respect to the eight parts of the head shown in FIG. 8, and encodes the head part model corresponding to each feature set And first to fourth classifiers A, F, P and HP for performing partial detection on the input image.

즉, 피라미드 분류기(800)는, 상기 머리부의 전면, 좌반측, 좌측, 좌후반측, 후면, 우후반측, 우측 및 우반측의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 추출된 특징 집합을 이용하여 학습 획득되는 제1머리부 모델 및 상기 제1머리부 모델을 사용한 제1머리부 분류기(A)와, 상기 머리부의 전면 및 후면의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 추출된 특징 집합을 이용하여 학습 획득되는 제2머리부 모델 및 상기 제2머리부 모델을 사용한 제2머리부 분류기(F)와, 상기 머리부의 좌측 및 우측의 포지티브 샘플과 네거티브 샘플의 차이 이미지 로부터 추출된 특징 집합을 이용하여 학습 획득되는 제3머리부 모델 및 상기 제3머리부 모델을 사용한 제3머리부 분류기(P) 및, 상기 머리부의 좌반측, 좌후반측, 우후반측 및 우반측의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 추출된 특징 집합을 이용하여 학습 획득되는 제4머리부 모델 및 상기 제4머리부 모델을 사용한 제4머리부 분류기(HP)를 구비한다.In other words, the pyramid classifier 800 can learn the feature using the feature set extracted from the difference images of the positive and negative samples on the front, left half, left half, left half, rear half, right half, A first head classifier (A) using the first head model and the first head model obtained, and a second head classifier A second head classifier (F) that uses the second head model and the second head class model obtained by the second head classifier; and a second head classifier A third head classifier (P) using the third head model and a third head classifier (P) using the third head model and the second head classifier Using the feature set extracted from the difference image of the sample and a negative sample and a fourth head classifier (HP) with a fourth head and the fourth head model model learning is obtained.

검출 시 이미지 프로세서(미도시)는 먼저 입력 이미지의 네 개의 차이 이미지, 즉, 수평, 수직, 좌-우대각선, 우-좌대각선 방향의 차이 이미지를 계산한 다음, 제1분류기(A)로 차이 이미지를 출력하고, 제1내지 제4 분류기는 차례대로 차이 이미지 중 각 가능한 스케일과 위치를 검색 및 측정한다. 피라미드 검출기(800)의 평가를 거친 것은 사람의 머리 부분의 후보로 접수된다. 그렇지 않으면 오류로 버려진다.The image processor (not shown) at the time of detection first calculates the difference images of the four input images in the horizontal, vertical, left-right diagonal, and right-left diagonal directions, And the first to fourth classifiers sequentially search for and measure each possible scale and position of the difference image. The evaluation of the pyramid detector 800 is accepted as a candidate for the human head. Otherwise it is discarded as an error.

상세히 설명하면 제1분류기(A)는 먼저 이미지 중 각 가능한 스케일과 위치를 검색 및 측정한다. 즉, 제1분류기(A)는 머리부 영역을 검출하고, 제1분류기(A)가 검출한 머리부 영역은 제2 내지 제4분류기(F, P, HP)에 의해 평가가 진행된다. 만약 샘플이 제2 내지 제4분류기(F, P, HP)에 의해 접수되면, 상기 머리부 샘플은 제2 내지 제4분류기(F, P, HP)에 각각 대응하는 머리 부분 이미지의 후보로 확정된다. 제2 내지 제4분류기(F, P, HP)는 각각 제1분류기(A)가 접수한 샘플에 대해 점진적으로 평가를 진행하여 제1분류기(A)가 접수한 모든 샘플에 대해 평가를 완성한다. In detail, the first classifier A first searches for and measures each possible scale and position in the image. That is, the first classifier A detects the head area, and the head area detected by the first classifier A is evaluated by the second to fourth classifiers F, P, and HP. If the sample is received by the second to fourth classifiers F, P and HP, the head sample is determined as a candidate for the head part image corresponding to each of the second to fourth classifiers F, P and HP do. Each of the second to fourth classifiers F, P, and HP progressively evaluates the samples received by the first classifier A to complete the evaluation of all the samples received by the first classifier A .

도 10은 본 발명의 실시예에 따른 인체 부분 검출 방법을 설명하기 위해 도 9에 도시된 피라미드 분류가(800)의 검출을 예시로 보이는 플로우 차트이다.FIG. 10 is a flowchart illustrating the detection of the pyramid classification 800 shown in FIG. 9 for explaining a human body part detection method according to an embodiment of the present invention.

도 10을 참조하면, 먼저 사람의 머리부의 전면, 좌반측, 좌측, 좌후반측, 후면, 우후반측, 우측 및 우반측의 포지티브 샘플과 네거티브 샘플을 준비한다. 그런 다음, 사람의 머리부의 전면, 좌반측, 좌측, 좌후반측, 후면, 우후반측, 우측 및 우반측의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 특징을 추출한다. Referring to FIG. 10, first, positive and negative samples of the front, left half, left, rear half, rear, right half, right half and right half of the human head are prepared. The features are then extracted from the difference images of the positive and negative samples on the front, left half, left, left half, rear, right half, right half, and right half of the human head.

머리부의 전각도의 특징 집합에 대하여 학습을 진행하여 제1머리부 모델을 획득하고, 상기 머리부의 전면 및 후면의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 추출된 특징 집합에 대해 학습하여 제2머리부 모델을 얻는다. 또한, 상기 머리부의 좌측 및 우측의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 추출된 특징 집합에 대해 학습을 진행하여 제3머리부 모델을 획득하고, 상기 머리부의 좌반측, 좌후반측, 우후반측 및 우반측의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 추출된 특징 집합에 대해 학습을 진행하여 제4머리부 모델을 얻는다. Learning is performed on the feature set of the full angle of the head to acquire the first head model and a feature set extracted from the difference image between the positive sample and the negative sample on the front and rear sides of the head is learned, Get a model. Further, learning is performed on the feature set extracted from the difference image between the positive and negative samples on the left and right sides of the head to acquire the third head model, and the left half side, the left half side, the right half side, Learning is performed on the feature set extracted from the difference image between the positive sample and the negative sample on the right half side to obtain the fourth head model.

피라미드 분류기(800)의 제1 내지 제4분류기(A, F, P 및 HP)는 각각 상기 제1, 제2, 제3및 제4 머리부의 모델을 사용한다. 검출 과정 중, 먼저 입력 이미지의 네 개의 차이 이미지, 즉 수평, 수직, 좌우대각선, 우-좌대각선 방향의 차이 이미지를 계산한다. 피라미드 분류기(800)는 입력 이미지를 검출하고 검출된 사람의 머리 부분을 검출 결과로 전송한다. The first to fourth classifiers A, F, P and HP of the pyramid classifier 800 use the models of the first, second, third and fourth heads, respectively. During the detection process, first, the difference image of the input image is calculated in four difference images: horizontal, vertical, left-right diagonal, and right-left diagonal. The pyramid classifier 800 detects an input image and transmits the detected human head portion as a detection result.

본 발명의 다른 일 실시예에 따른 인체 부분 검출 장치는, 적어도 하나의 사람의 머리를 제외한 기타 인체 부분, 예를 들어, 사람의 몸체, 다리부 및 팔부의 분류기 를 사용하고 인체 기하학에 근거하여, 도 9에 도시된 피라미드 분류기(800)로부터 확정된 사람의 머리부에 대해 그 오류를 제거함으로써 사람의 머리부의 검출 정밀도를 높일 수 있다. 또한, 본 발명의 실시예에 따른 사람의 머리부 검출 장치는 사람에 대한 검출 장치로 사용되는데, 이는 사람의 머리부가 검출될 때 사람의 존재를 확정할 수 있기 때문이다.According to another aspect of the present invention, there is provided an apparatus for detecting a human body, comprising: at least one human body part other than a human head, for example, a classifier of a human body, a leg part and an arm part, It is possible to improve the detection precision of the human head by eliminating the error of the human head determined from the pyramid classifier 800 shown in Fig. Further, the human head detecting apparatus according to the embodiment of the present invention is used as a detecting apparatus for a human being, because it can determine the existence of a person when a human head is detected.

도 11은 본 발명의 실시예에 따라 다수의 인체 부분 검출 장치가 일렬로 배열된 사람 검출 장치(1000)의 구성도를 보인다.FIG. 11 shows a configuration of a person detecting apparatus 1000 in which a plurality of human body detecting apparatuses are arranged in a line according to an embodiment of the present invention.

도 11을 참조하면, 사람 검출 장치(1000)는 일렬 배열된 N 개의 부분 검출 장치를 포함하고, 이 중 한 부분 검출 장치는 메인 검출 장치가 된다. 사람 검출 장치(1000)는 입력 이미지 중 메인 검출 장치에 대응하는 인체 부분의 검출에 사용된다. 본 발명의 실시예 중 제1부분 검출 장치(I)가 메인 검출 장치로 사용된다. Referring to Fig. 11, the human detection device 1000 includes N partial detection devices arranged in a row, and one of them is a main detection device. The human detection device 1000 is used for detection of a human body portion corresponding to the main detection device among input images. In the embodiment of the present invention, the first part detecting device I is used as the main detecting device.

아래 사람 검출 장치(1000)의 조작에 대해 설명한다. 먼저, 검출된 입력 이미지는 제1부분 검출 장치(I)로 입력된다. 제1부분 검출 장치(I)는 입력 이미지 중 제1 인체 부분(I)과 대응하는 영역을 검출한다. The operation of the person detecting apparatus 1000 will be described. First, the detected input image is input to the first partial detection device I. The first part detecting device I detects an area corresponding to the first human part I of the input image.

그런 다음, 제2부분 검출 장치(II)는 입력 이미지 중 제2인체 부분(II)과 대응하는 영역을 검출한다. 이 때, 인체의 기하학 관계에 따라, 제2부분 검출 장치(II)가 검출한 제2인체 부분(II)의 영역에 근거하여 제1부분 검출 장치(I)로부터 출력되는 제1인체 부분(I) 후보의 일부를 오류로 버리는 동시에, 제2인체 부분(II)의 후보의 일부를 오류로 버리는 과정을 진행하여 제2인체 부분(II)을 남긴다. Then, the second partial detecting device II detects an area corresponding to the second human body part II of the input image. At this time, based on the geometric relationship of the human body, based on the area of the second human body part II detected by the second part detecting device II, the first human body part I Quot; candidate " candidates is rejected as an error, and a part of the candidates of the second human part (II) is erroneously processed to leave the second human part (II).

이런 방식으로 다른 부분 검출기(미도시)들은 각각 입력 이미지 중 대응되 는 인체 부분에 해당하지 않는 후보의 일부를 오류로 제거하고 남는 인체 부분(미도시)을 다음 부분 검출기로 전송한다.In this way, the other partial detectors (not shown) remove part of the candidate that does not correspond to the corresponding human body portion of the input image as an error and transmit the remaining human body portion (not shown) to the next partial detector.

제N부분 검출기(N)은 입력 이미지 중 제N인체 부분(N)에 대응하는 영역을 검출한다. 이 때 인체 기하학에 관계에 따라, 제N부분 검출기(N)이 검출한 제N인체 부분(N)의 영역에 근거하여, 제2부분 검출기(II)가 평가한 제1인체 부분(I)의 부분 후보 중 일부분을 오류로 제거하며, 제2 내지 제N-1부분(II 내지 N-1)의 후보 및 제N부분(N)의 후보 일부를 오류로 제거한다. 남은 제1인체 부분(I)의 부분 후보와 이에 대응하는 제2인체 부분(II), 제3 내지 제N-1인체 부분(III 내지 N-1) 및 제N인체 부분(N)을 얻을 수 있다. The Nth partial detector N detects an area corresponding to the Nth human part N among the input images. At this time, on the basis of the area of the Nth human body part N detected by the Nth partial detector N, the position of the first human body part I evaluated by the second partial detector II Removes a part of the partial candidates as an error, and removes a candidate part of the second to N-1th parts (II to N-1) and the candidate part of the Nth part (N) as an error. The second human body part II, the third to the N-1th human body parts III to N-1 and the Nth human body part N corresponding to the remaining part of the first human body part I are obtained have.

이렇게 제1인체 부분(I)의 검출기를 사용한 검출과 비교하여, 다수 부분의 검출기를 복합적으로 사용하여 제1인체 부분(I)에 대한 검출을 진행하여 정확한 결과를 얻을 수 있다. 또한, 이런 방식으로 다수의 부분 검출 장치를 사용하여 인체 기하학 및 기타 인체 부분에 따라 입력 이미지 중 검출해낼 수 있다.In comparison with the detection using the detector of the first human body I in this way, detection with respect to the first human body I can be progressed using multiple detectors in combination to obtain accurate results. Further, in this manner, a plurality of partial detecting apparatuses can be used to detect among the input images according to human body geometry and other human body parts.

제2부분 검출 장치(II)는 제1부분검출기(I)의 부분 후보로부터의 검증기로 작동한다. 상술한 상황에서 제2부분 검출 장치(II)는 제1부분 검출 장치(I)의 부분 후보로부터의 근접 영역을 스캔함으로써 제2인체 부분(II)을 검출한다. 상기 인접 구역은 인체 기하학 관계에 따라 확정된다. 예를 들어, 만약 제1부분 검출기(I)가 머리부 검출기이면, 제2부분 검출기(II)는 몸체 검출기이지만, 제1부분 검출기(I)의 머리부 후보 중 정확한 머리 후보는 몸체의 상대적 위치 관계 및 스케일 관계에 따라 대략적으로 스캔 공간, 즉 검출되는 입력 이미지 중 몸체의 위치 및 스케일을 확정하여, 통계 분석을 진행함으로써 획득한다.The second part detecting device II operates as a verifier from the partial candidate of the first partial detector I. In the above-described situation, the second partial detection device II detects the second human part II by scanning the proximity area from the partial candidate of the first partial detection device I. The adjacent area is determined according to the human geometry relationship. For example, if the first partial detector I is a head detector, then the second partial detector II is a body detector, but the correct head candidate of the head part candidates of the first partial detector I is the relative position of the body The position and scale of the body of the input image to be detected are determined roughly according to the relationship and scale relationship, and statistical analysis is performed.

본 발명 중, 사람 검출 장치(1000)가 가지는 부분 검출 장치는 특정 개수에 한정되지 않고 필요한 부분에 따라 부분 검출 장치를 구성하여 사람 검출 장치(1000)를 구현할 수 있다. 부분 검출 장치는 머리부 검출 장치, 몸체 검출 장치, 다리 검출 장치, 팔 검출 장치 및 전체 인체 검출 장치 등이 될 수 있다.In the present invention, the partial detecting apparatus of the person detecting apparatus 1000 is not limited to a specific number, and a partial detecting apparatus may be constituted according to a necessary portion to implement the person detecting apparatus 1000. [ The partial detecting device may be a head detecting device, a body detecting device, a leg detecting device, an arm detecting device, and a whole human body detecting device.

도 12는 본 발명의 실시예에 따라 도 11의 다수의 인체 부분 검출기를 가지는 사람 검출 장치(1100)의 예시적인 상세한 구조도이다.12 is an exemplary detailed structural view of a person detecting apparatus 1100 having a plurality of human body part detectors of FIG. 11 according to an embodiment of the present invention.

도 12를 참조하면, 사람 검출 장치(1100)는 확정기(1110), 머리부 검출 장치(1120), 다리부 검출 장치(1130) 및 몸체 검출 장치(1140)를 포함한다. 실시예 중, 머리부 검출 장치(1120)는 메인 검출 장치로서, 도 1에 도시된 머리부 검출 장치(100)가 될 수 있다. 다리부 검출 장치(1130)와 몸체 검출 장치(1140)는 도 1의 머리 검출 장치와 동일한 구조를 가진다. 12, the human detection apparatus 1100 includes a determiner 1110, a head detecting apparatus 1120, a leg detecting apparatus 1130, and a body detecting apparatus 1140. [ In the embodiment, the head detecting device 1120 may be the main detecting device and the head detecting device 100 shown in FIG. The leg detecting device 1130 and the body detecting device 1140 have the same structure as the head detecting device of FIG.

머리부 검출 장치(1120), 다리부 검출 장치(1130) 및 몸체 검출 장치(1140)은 각각 이미지 프로세서(미도시), 연습 DB(미도시), 서브윈도우 프로세서(미도시)를 포함할 수 있고, 상기 각 장치들은 도 1의 이미지 프로세서(110), 연습 DB(120), 서브윈도우 프로세서(130)와 동일한 기능을 가지므로 그에 대해서 상세한 설명은 생략한다. The head detecting apparatus 1120, the leg detecting apparatus 1130 and the body detecting apparatus 1140 may include an image processor (not shown), a practice DB (not shown), and a sub window processor (not shown) The respective devices have the same functions as the image processor 110, the practice DB 120, and the sub-window processor 130 of FIG. 1, and therefore, detailed description thereof will be omitted.

또한, 머리부 검출 장치(1120)는 특징 집합으로부터 학습 획득한 머리부 모델로부터 얻은 머리 분류기를 포함하고, 여기에는 머리부 검출 장치(1120)의 서브 윈도우 프로세서가 머리부 검출기(1120)의 연습DB에 저장된 머리부의 포지티브 샘 플과 네거티브 샘플의 차이 이미지로부터 추출한 특징 집합을 포함하고, 머리 검출 장치(1120)의 이미지 프로세서에서 계산된 머리 포지티브 샘플과 네거티브 샘플의 차이 이미지를 포함한다. In addition, the head detecting apparatus 1120 includes a head classifier obtained from a learned head model from a feature set, and the sub window processor of the head detecting apparatus 1120 includes a training DB of the head detector 1120 And a difference image between the positive head sample and the negative sample calculated in the image processor of the head detecting apparatus 1120. The difference image between the head sample and the negative sample,

다리부 검출 장치(1130)는 특징 집합으로부터 학습 획득한 다리부 모델로부터 얻은 다리부 분류기를 포함하고, 여기에는 다리부 검출 장치(1130)의 서브 윈도우 프로세서가 다리부 검출 장치(1130)의 연습DB에 저장된 다리부의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 추출한 특징 집합을 포함하고, 다리부 검출 장치(1130)의 이미지 프로세서에서 계산된 머리 포지티브 샘플과 네거티브 샘플의 차이 이미지를 포함한다. The leg detecting apparatus 1130 includes a leg classifier obtained from a leg model obtained by learning from a feature set, and the sub window processor of the leg detecting apparatus 1130 includes a practice DB of the leg detecting apparatus 1130 Includes a feature set extracted from a difference image of a positive sample and a negative sample of a leg portion stored in the leg portion detecting unit 1130 and includes a difference image of a head positive sample and a negative sample calculated in the image processor of the leg detecting apparatus 1130.

몸체 검출 장치(1140)는 또한 특징 집합으로부터 학습 획득한 몸체 모델로부터 얻은 몸체 분류기를 포함하고, 여기에는 몸체 검출 장치(1140)의 서브 윈도우 프로세서가 몸체 검출기(1140)의 연습DB에 저장된 머리부의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 추출한 특징 집합을 포함하고, 몸체 검출 장치(1140)의 이미지 프로세서에서 계산된 몸체 포지티브 샘플과 네거티브 샘플의 차이 이미지를 포함한다.The body detection apparatus 1140 also includes a body classifier obtained from the body model learned from the feature set, wherein the sub-window processor of the body detection apparatus 1140 detects the positive And a difference image between the positive body sample and the negative sample calculated by the image processor of the body detection apparatus 1140. [

먼저, 머리부 검출 장치(1120), 다리부 검출 장치(1130) 및 몸체 검출 장치(1140)은 각각 이미지를 검출하여 머리 후보, 다리 후보 및 몸체 후보를 전송한다. First, the head detecting apparatus 1120, the leg detecting apparatus 1130, and the body detecting apparatus 1140 detect an image, respectively, and transmit head candidates, leg candidates, and body candidates.

확정기(1110)는 머리 검출 장치(1120)의 머리 후보 및 몸체 검출 장치(1140)의 몸체 후보로부터 인체 기하학 관계, 예를 들어, 사람의 머리부와 몸체 의 상대적인 제약 및 스케일 제약에 따라 검출된 머리 후보에서 오류를 제거한다. 그런 다음, 확정기(1110)은 결합된 몸체 후보에 따라 오류 경고된 머리 후보와 다리 후보를 제거하며, 인체 기하학에 따라 머리 부분 후보의 오류를 더욱 제거함으로써, 사람의 머리부, 몸체, 다리부 및 인체를 검출해 낸다.The determiner 1110 detects a human body geometry from the head candidate of the head detecting apparatus 1120 and the body candidate of the body detecting apparatus 1140 according to a relative constraint and a scale constraint of the human head and body Eliminate errors from the head candidate. Then, the determiner 1110 removes the error-warped head candidate and the bridge candidate according to the combined body candidate, further removes the error of the head candidate according to the human body geometry, And the human body.

도 12에 도시된 머리 검출 장치(1120)도 도 9에서 제시된 피라미드 분류기(800)를 포함하는 형태가 될 수 있다. 즉, 머리부 검출 장치(1120), 다리부 검출 장치(1130) 및 몸체 검출 장치(1140)는 각각 이미지 프로세서, 연습DB, 서브윈도우 프로세서, 몸체 검출기(120), 다리부 검출기(130) 및 몸체 검출기(1140)를 포함하지 않고 공동의 이미지 프로세서, 연습 DB, 서브윈도우 프로세서를 사용할 수 있다. The head detecting apparatus 1120 shown in Fig. 12 may also be a form including the pyramid classifier 800 shown in Fig. That is, the head detecting apparatus 1120, the leg detecting apparatus 1130 and the body detecting apparatus 1140 are respectively connected to the image processor, the practice DB, the sub window processor, the body detector 120, the leg detector 130, A practice image DB, a subwindow processor without using the detector 1140. In the example of FIG.

도 13은 본 발명의 다른 실시예에 따른 다수의 부분 검출 장치가 병렬로 연결된 대상 검출 장치(1200)의 구조도이다. 13 is a structural diagram of an object detecting apparatus 1200 to which a plurality of partial detecting apparatuses according to another embodiment of the present invention are connected in parallel.

도 13을 참조하면, 대상검출 장치(1200)는 병렬 배열된 n개의 부분 검출기(I-n)을 포함한다. 또한, 대상검출 장치(1200)는 이미지 프로세서(미도시), 연습 DB(미도시) 및 서브윈도우 프로세서(미도시)를 포함할 수 있고, 이는 도 1의 이미지 프로세서(110), 연습 DB(120), 서브윈도우 프로세서(130)과 동일한 기능을 가지므로 이에 대한 상세한 설명은 생략한다. 상기 다수의 제1 내지 제N부분 검출기(I-N)의 각각은 도 12의 대상 검출 장치(1100)와 같이 이미지 프로세서, 연습 DB 및 서브윈도우 프로세서를 가지거나, 도 9의 피라미드 분류기(800) 형태를 포함하여 공동의 이미지 프로세서, 연습 DB 및 서브윈도우 프로세서를 가질 수 있다. Referring to Fig. 13, the object detection apparatus 1200 includes n partial detectors I-n arranged in parallel. The object detection apparatus 1200 may also include an image processor (not shown), a practice DB (not shown) and a subwindow processor (not shown) ) And the sub window processor 130, detailed description thereof will be omitted. Each of the plurality of first to Nth partial detectors IN may have an image processor, an exercise DB, and a sub-window processor, such as the object detection apparatus 1100 of FIG. 12, or may be a pyramid classifier 800 of FIG. , A common image processor, a practice DB, and a subwindow processor.

또한, 대상 검출 장치(1200)는 또한 확정기(미도시)를 더 구비할 수 있고, 검출하고자 하는 대상이 사람인 경우 인체 기하학에 따라 제1 내지 제n부분 검출기(I-n)가 검출한 인체 부분에 근거하여 인체 부분 중의 오류를 제거하여 검출된 이미지 중의 인체 부분과 사람을 확정한다. In addition, the object detecting apparatus 1200 may further include a determinator (not shown). When the object to be detected is a human, the object detecting apparatus 1200 may detect a human body part detected by the first to n- The human body part and the person in the detected image are determined based on the error in the human body part.

제1검출 장치(I)는 m1개의 제1부분에 대한 분류기(S11, S12, S13,...S1 m1)를 포함하고, 제2검출 장치(II)는 m2개 제2부분의 분류기(S21, S22, S23,... S1 m2)를 포함하며, 제n검출 장치(n)(n=1,2,3,...n은 mn개의 제n부분의 분류기(S21, S22, S23,...S1mn)을 포함한다(이중, m1, m2,...mn은 자연수)를 포함한다. A first detection unit (I) is m 1 of the first portion of the classifier (S11, S12, S13, ... S1 m 1) and including a second detecting device (II) is the 2 m out of the second portion classifier (S21, S22, S23, ... S1 m 2) comprises a n-th detection apparatus (n) (n = 1,2,3, ... n is m n of the n-classifier (S21 of the portion , S22, S23, ..., S1m n (where m1, m2, ... mn are natural numbers).

상기 분류기의 실행 방법과 도 12에서 도시한 인체 부분 검출 장치의 방법은 서로 유사하므로 분류기의 실행에 대한 설명은 생략한다. 도 13에서 설명하는 바와 같이, 대상검출 장치(1200)의 n개 부분 검출 장치(I, II, sn)의 분류기는 필요한 계산을 오름차순으로 실행한다. 일반적으로 분류기의 계산량은 특징수를 처리하는 계산량에 해당하므로 분류기는 특징 집합의 특징수의 오름차순 배열을 한다. Since the method of executing the classifier and the method of the human body detecting apparatus shown in FIG. 12 are similar to each other, the description of the execution of the classifier will be omitted. As described in FIG. 13, the classifiers of the n-part detecting apparatuses (I, II, sn) of the object detecting apparatus 1200 execute necessary calculations in ascending order. In general, since the amount of computation of a classifier corresponds to the amount of computation for processing a number of features, the classifier arranges the ascending order of the number of features of the feature set.

아래에서, 도 13을 참고하여 대상검출 장치(1200)의 구동에 대해 설명한다.Hereinafter, the operation of the object detection apparatus 1200 will be described with reference to FIG.

이미지가 대상검출 장치(1200)에 입력된 후, 먼저 제1검출 장치(I)에서 두 개의 전단 분류기(즉, S11 및 S12)를 통해 이미지를 검출하여 즉, A점까지의 구동하여 제1검출 장치(I)의 제1부분의 후보를 얻는다. 그런 다음, 제1부분의 후보를 제2검출 장치(II)로 전달하고, 즉 B점까지 구동한 후, 두 전단 분류기(즉, S21 및 S22)를 통해 이미지를 검출하여 즉, C점까지 조작하여 제2검출 장치(II)의 제2부분의 후보를 얻는다. 그런 다음 확정기(미도시)는 얻은 제1부분의 후보와 제2부분의 후보에 근거하여 대상의 구조 기하학에 따라 제1부분의 후보 중 오류를 제거한다(D점까지 진행). After the image is input to the object detection apparatus 1200, an image is detected first through two front classifiers (i.e., S11 and S12) in the first detection apparatus I, that is, To obtain a candidate for the first part of the device (I). Then, the candidate of the first part is transmitted to the second detecting device II, that is, it is driven to the point B, and then the image is detected through the two front end classifiers (i.e., S21 and S22) To obtain a candidate of the second part of the second detecting device II. Then, the determiner (not shown) removes the error among the candidates of the first part according to the structural geometry of the object based on the candidate of the first part and the candidate of the second part obtained (proceeds to point D).

이런 방식으로, 순서에 따라 남은 제3 내지 제n-1검출기(III 내지 n-1)의 전단 분류기를 사용하고, 전단계에 확정된 부분에 대해(E점까지 진행) 제n검출 장치(n)의 다수의 전단 분류기(Sn1, Sn2, Sn3...)가 작동하여 제n부분의 후보를 얻고(F점까지 진행), 확정기를 통해 오류를 제거한다(G점까지 진행). 그런 다음, 남은 부분 후보에 대해(H까지 구동) 제n검출 장치(n)는 제1검출 장치로 전송하고(K까지 조작), 다시 제1검출 장치(I)의 분류기를 사용하여 검출을 진행하면서 확정기를 통해 오류를 제거한다. 계속 순서에 따라 제3검출 장치(II) 내지 제n검출 장치(n)까지 사용하고 반복하여 제1 내지 제n검출 장치(I-n)를 사용하여 제1 내지 제n검출기(I-n)의 모든 분류기를 사용한다. In this manner, the n < th > detector (n) is used for the determined portion in the previous stage (going to point E) (S 1, Sn 2, Sn 3,...) Of the first and second sheaves of the first and second sheaves are operated to obtain a candidate for the nth portion (proceeds to point F) Then, the n-th detection device n transmits to the first detection device (operates up to K) with respect to the remaining partial candidates (up to H), and again uses the classifier of the first detection device I And eliminates the error through the determiner. The third to nth detection devices (n) to n (n) are repeatedly used in accordance with the following sequence, and all of the classifiers of the first to nth detectors In are repeatedly used use.

이런 검출 방법의 원리는 먼저 각 검출 장치의 전단분류기, 즉 특징 집합의 특징수가 비교적 적은 분류기를 혼합 사용함으로써 비교적 적은 계산량으로 대부분의 오류 경고를 제거한 다음, 다시 특징수가 비교적 많은 분류기를 점진적으로 사용하여, 검출 속도를 빠르게 향상시키는 원리에 기초한다. 동일한 오류에 대해 만약 제1검출 장치(I)만을 사용하면 단지 세 개의 전단분류기(S11, S12, S13)만이 필요하며 모두 50개의 특징이 제거되지만, 만약 제1검출 장치(I)의 두 전단 분류기(S11, S12) 및 제2검출 장치(II)의 한 분류기(S21)만을 사용하면 단지 다섯 개의 특징만이 오류로 제거될 수 있다. The principle of this detection method is as follows. First, most error warnings are removed with a relatively small amount of computation by using a classifier of a front end classifier of each detection apparatus, that is, a classifier having a relatively small number of features of a feature set. Then, , And is based on the principle of rapidly improving the detection speed. If only the first detection device I is used for the same error, only three front classifiers S11, S12, S13 are required and all 50 features are removed, Only one of the five features can be erroneously removed by using only one classifier S21 of the second detection device II and S11 and S12 of the second detection device II.

분류기가 보유하는 특징 집합의 숫자의 예상 문턱값에 따라 한 검출 장치로부터 다른 검출 장치로 자동적으로 전환된다. 비록 상이한 방식으로 문턱값을 선택할 수 있으나 그 원리는 유사하며, 전단 분류기에 있어 비교적 특징 집합의 특징수가 적으면 상이한 검출 장치 사이의 전환에 의해 오류를 제거할 수 있다. Is automatically switched from one detection device to another according to the expected threshold value of the number of feature sets possessed by the classifier. Although the threshold values can be selected in different ways, the principle is similar, and if the characteristics of the feature set are relatively small in the classifier, the error can be removed by switching between different detection devices.

본 발명의 실시예 중 대상검출 장치(1200)의 모든 분류기는 특징 집합에 존재하는 특징수의 오름차순으로 각 분류기를 사용함으로써 검출을 진행한다. 또한, 대상검출 장치(1200)를 사용하여 검출을 진행할 때 분류기가 속하는 부분 검출 장치를 고려하지 않고 분류기가 가지는 특징 집합의 특징수의 오름차순을 생각하여 먼저 특징 집합의 특징수가 비교적 적은 분류기로 대상검출 장치(1200) 중의 각 분류기를 사용한다.All the classifiers of the object detection apparatus 1200 of the embodiment of the present invention proceed by using each classifier in ascending order of the number of features existing in the feature set. When the detection is performed using the object detection apparatus 1200, considering the ascending order of the number of features of the feature set possessed by the classifier without considering the partial detection apparatus to which the classifier belongs, Each classifier in the apparatus 1200 is used.

본 발명은 인체 부분 및 사람의 검출에 한하지 않고 일정 형상을 가지는 대상의 검출(예를 들어, 동물, 식물, 건축물, 자연경관물 및 일상 생활 용품 등)에 응용될 수 있다.The present invention can be applied not only to detection of a human body part and a person but also to detection of objects having a certain shape (for example, animals, plants, buildings, natural scenery and daily living goods).

도 14는 본 발명의 실시예에 따라 대상 검출 기능을 가지는 이미지 형성 시스템(1300)의 구조를 보인 도면이다.FIG. 14 is a diagram showing the structure of an image forming system 1300 having an object detection function according to an embodiment of the present invention.

도 14를 참조하면, 이미지 형성 장치(1300)는 촬영 장치(1301), 검출 장치(1302), 변수 계산 장치(1303), 제어 장치(1304), 저장 장치(1305), 디스플레이 장치(1306) 및 표기 장치(1307)를 포함한다. 상기 이미지 형성 시스템은 PTZ(PAN, TILT, ZOOM) 카메라, 정지감시카메라, DC(디지털 카메라), 카메라핸드폰, DV(디지 털 비디오) 및 PVR(개인 비디오 레코더) 중 어느 하나가 될 수 있다.14, the image forming apparatus 1300 includes a photographing apparatus 1301, a detecting apparatus 1302, a variable calculating apparatus 1303, a control apparatus 1304, a storage apparatus 1305, a display apparatus 1306, And a notation device 1307. The image forming system may be one of a PTZ (PAN, TILT, ZOOM) camera, a stationary surveillance camera, a DC (digital camera), a camera mobile phone, a DV (digital video) and a PVR (personal video recorder).

촬영 장치(1301)는 하드웨어 장치, 예를 들어 CCD 또는 COMS 장치로서 자연계의 이미지의 감지와 생성에 사용된다.The photographing apparatus 1301 is a hardware apparatus, for example, a CCD or a COMS apparatus, and is used for sensing and generating images of natural systems.

운동대상을 추적하기 위해, 두 종류의 방법으로 대상의 운동 영역과 위치 및 스케일을 제공한다. 첫 번째 방법은 자동 방법으로서, 대상 검출 기능에 임베드된 관심 대상의 영역 스케일 및 위치를 추출한다. 두 번째 방법은 수동 방법으로서, 사용자 또는 조작자가 디스플레이되는 이미지(예를 들어, 터치 스크린)에 관심 대상 영역을 표기할 수 있다. 자동 방법의 경우 본 발명에 따른 대상 방법을 사용하여, 대상을 자동적으로 검출할 수 있다. 표기 장치(1307)는 표기 기능을 사용자 또는 조작자에게 제공하여 사용자 또는 조작자가 펜 또는 손가락으로 이미지에 수동으로 관심 대상을 표기하게 한다.In order to track the subject, two types of methods are used to provide the subject's range of motion, position, and scale. The first method is an automatic method that extracts the area scales and locations of interest embedded in the object detection function. The second method is a manual method in which the user or operator can mark the area of interest on the displayed image (e.g., a touch screen). In the case of the automatic method, the object can be automatically detected using the object method according to the present invention. The notation device 1307 provides notational functions to a user or an operator so that a user or an operator can manually mark an image of interest with a pen or a finger.

검출 장치(1302)는 촬영 장치(1301)로부터 이미지 데이터를 접수하고 사용자가, 예를 들어 대략적으로 표기한 형식의 표기된 관심 대상 영역의 스케일 및 위치 정보를 접수할 수 있다. 검출 장치(1302)는 대상이 존재하는 정확한 영역을 검출하고, 변수 계산 장치(1303)은 변수 계산 장치(1303)가 제공하는 대상의 존재 영역에 따라 이미지 형성 장치의 상태를 조정하는 변수를 계산 생성한다. 주의할 것은 제공되는 대상 위치 및 스케일의 제1방법, 즉 자동 방법을 사용할 때 표기 장치(1307)도 선택될 수 있다. 다수의 트랙킹 대상이 선택될 때, 예를 들어 다수의 대상에 대한 추적을 진행할 때, 사용자는 본 발명의 이미지 형성 장치가 자동 선택하는 추적 대상을 수정할 수 있다. The detecting device 1302 can receive image data from the photographing device 1301 and can receive the scale and positional information of a marked interested area in the form of, for example, a roughly indicated mark. The variable calculation device 1303 calculates a variable for adjusting the state of the image forming apparatus in accordance with the existence area of the object provided by the variable calculation device 1303, do. Note that marking device 1307 may also be selected when using the first method of providing the object location and scale, i.e., the automatic method. When a plurality of tracking objects are selected, for example, when tracking is performed for a plurality of objects, the user can modify the object to be tracked which is automatically selected by the image forming apparatus of the present invention.

아래 도 15는 본 발명의 실시예에 따른 도 14의 검출 장치(1302)의 구조를 보인 도면이다.15 is a diagram showing the structure of the detecting apparatus 1302 of FIG. 14 according to the embodiment of the present invention.

도 15를 참조하면, 대상 검출 장치(1302)는 이미지 프로세서(1410), 연습 DB(1420), 서브윈도우 프로세서(1430), 대상 프로세서(1440)를 구비한다. 15, the object detection apparatus 1302 includes an image processor 1410, a practice DB 1420, a subwindow processor 1430, and a target processor 1440.

이미지 프로세서(1410)은 도 2에 서술된 방법을 사용하여 도 14의 촬영 장치(1301)가 출력하는 이미지의 차이 이미지를 계산한다. 연습 DB(1420)은 각종 대상(예를 들어, 각종 생물, 식물, 건축물, 자연경관물 및 일상생활 생활용품 등)의 포지티브 샘플과 네거티브 샘플을 저장한다. 서브윈도우 프로세서(1430)은 도 6에서 서술하는 특징 추출 방법을 사용하여 이미지 프로세서(1410)으로부터 계산된, 연습 DB(1420)에 저장된 대상의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 특징을 추출한다. The image processor 1410 calculates the difference image of the image output by the photographing apparatus 1301 of Fig. 14 using the method described in Fig. The practice DB 1420 stores positive samples and negative samples of various objects (e.g., various kinds of creatures, plants, buildings, natural scenery, and daily living goods). The sub window processor 1430 extracts features from the difference image of the positive and negative samples of the object stored in the practice DB 1420, calculated from the image processor 1410 using the feature extraction method described in FIG.

대상 분류기(1440)은 이미지 프로세서(1410)가 계산한 검출이 필요한 입력 이미지의 차이 이미지에 근거하여 추출된 특징 집합으로부터 학습 획득한 대상 모델을 사용하여 대상물의 대상 영역을 검출한다. 상기 머리 모델의 학습 방법과 동일한 방법으로 상술한 대상 모델을 얻는다. The target classifier 1440 detects the target region of the object using the learned target model from the extracted feature set based on the difference image of the input image that is calculated by the image processor 1410. The above-described target model is obtained in the same manner as the learning method of the head model.

대상 검출 장치(1302)는 전송 장치(미도시)을 더 포함할 수 있다. 전송 장치는 대상 분류기(1440)가 검출한 결과 이미지 또는 표기 장치(1307)에서 사용자가 직접 선택한 대상 이미지를 전송한다. The object detection apparatus 1302 may further include a transmission apparatus (not shown). The transmission device transmits the target image detected by the target classifier 1440 or the target image directly selected by the user in the notation device 1307.

검출 장치(1302)도 연습 DB(1420) 및 서브윈도우 프로세서(1430)을 포함하지 않을 수 있고, 각종 예정된 대상의 분류 모델, 즉 대상 모델을 대상 분류 기(1440)에 미리 위치시킬 수 있다. 대상 분류기(1440)은 사용자가 희망하는 대상 유형에 따라 대상 분류 모델을 조정 사용한다.The detection device 1302 may not include the practice DB 1420 and the sub window processor 1430 and may pre-position the classification models of the various targets, that is, the target models in the target classifier 1440. The target classifier 1440 adjusts the target classification model according to the target type desired by the user.

제어 장치(1304)는 이미지 형성 장치의 상태를 조정할 수 있고, 이미지 형성 장치의 상태는 PTZ 카메라의 회전, 틸트, 줌 및 선택 초점 구역의 조작으로 제어되거나 정지감시카메라, DC, DV 또는 PVR의 줌 및 초점 조작으로 제어할 수 있다. 제어 장치(1304)은 변수 계산 장치(1303)에서 이미지 형성 장치의 상태 조정 변수를 접수한다. The control device 1304 can adjust the state of the image forming apparatus and the state of the image forming apparatus can be controlled by the operation of the rotation, tilt, zoom and selective focus zone of the PTZ camera or the zoom of the stop monitoring camera, DC, DV or PVR And focus operation. The control device 1304 receives the state adjustment parameter of the image forming apparatus in the variable calculation device 1303. [

검출 장치(1302)는 새로운 시간점 또는 새로운 프레임 데이터 중 대상의 위치 및 스케일 정보를 제공할 수 있다. 제어 장치(1304)는 상기 변수에 따라 이미지 형성 장치의 상태를 제어함으로써, 회전, 틸트 조작으로 대상을 이미지의 중앙에 위치시키고, 선택 초점 영역의 조작을 통해 관심 대상 영역을 선택하고, 줌 조작을 통해 관심 대상 영역에 포커싱하여, 높은 이미지 품질을 가지는 운동 대상에 세부 부분을 얻을 수 있다. Detection device 1302 may provide position and scale information of the object in a new time point or new frame data. The control device 1304 controls the state of the image forming apparatus according to the variable to position the object at the center of the image by the rotation and tilting operation, to select the region of interest through manipulation of the selected focus region, To focus on the area of interest, so that the details can be obtained on the exercise object having high image quality.

선택 초점 영역의 조작 중 제어 장치(1304)는 이미지 형성 장치를 제어하여 대상이 존재하는 새로운 영역을 초점의 근거로 선택할 수 있고, 이로써 상기 영역에 대해 포커싱을 할 수 있다. 또한, 제어 장치(1304)는 촬영 장치(1301)가 초점 영역을 선택할 때, 이미지 중심 영역을 묵인된 이미지 초점 영역으로 설정하는 것 뿐만 아니라 대상이 소재하는 새로운 이미지 구역을 이미지 초점 영역으로 선택하도록 제어할 수 있으며, 초점 영역의 이미지 데이터 정보에 근거하여 동적으로 줌 배수, 초점 거리, 회전 또는 틸트 변수를 조정함으로써 더 좋은 이미지 효과를 얻 을 수 있다.During the operation of the selective focus area, the control device 1304 controls the image forming device to select a new area on which the object exists, on the basis of the focus, thereby focusing on the area. In addition, when the photographing apparatus 1301 selects the focus area, the control device 1304 controls not only to set the image center area to the acquired image focus area, but also to select a new image area in which the object is located as the image focus area And a better image effect can be obtained by dynamically adjusting the zoom factor, the focal length, the rotation or the tilt variable based on the image data information of the focus area.

사용자가 휴대하는 전자 제품, 예를 들어 DC, DV 또는 PVR에 대해, 사용자는 수동으로 그 상태를 조정함으로써 관심 대상을 이미지의 중심에 둘 수 있다. 본 발명의 일실시예의 제어 장치는 검출 결과 및 검출 결과 및 변수 계산 장치가 제공하는 변수에 근거하여 동적으로 촬영 장치의 줌 배수 및 초점 변수를 조절할 수 있다.For electronic products, such as DC, DV or PVR, that the user carries, the user can manually center the state of interest by adjusting its state. The control device of one embodiment of the present invention can dynamically adjust the zoom factor and focus variable of the photographing device based on the detection result and the detection result and the variable provided by the variable calculation device.

저장 장치(1305)는 이미지 또는 주파수를 저장하고, 디스플레이 장치(1306)는 현장의 이미지 또는 주파수를 사용자에게 표시한다.The storage device 1305 stores images or frequencies, and the display device 1306 displays images or frequencies of the scene to the user.

본 발명의 실시예에 따른 검출 장치(1302)는 소프트웨어로 실현될 수 있으며, 이 소프트웨어는 이미지 형성 장치 및 제어 장치에 임베드 시스템으로 응용되어 이미지 형성 장치의 상태를 조정하는 변수가 된다. 임베드형 이미지 형성 시스템에서, 주파수를 입력으로 접수하고, 명령을 이미지 형성장치의 제어 장치로 전송함으로써 촬영 장치의 상태, 미러 초점 영역 등을 조정할 수 있다.The detection device 1302 according to the embodiment of the present invention can be realized by software, which is applied as an embedded system to an image forming apparatus and a control apparatus, and becomes a variable for adjusting the state of the image forming apparatus. In the embedded image forming system, the state of the photographing apparatus, the mirror focus region, and the like can be adjusted by receiving the frequency as an input and transmitting the command to the control apparatus of the image forming apparatus.

이상과 같이 본 발명은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 발명은 상기의 실시예에 한정되는 것은 아니며, 이는 본 발명이 속하는 분야에서 통상의 지식을 가진 자라면 이러한 기재로부터 다양한 수정 및 변형이 가능하다. 따라서, 본 발명 사상은 아래에 기재된 특허청구범위에 의해서만 파악되어야 하고, 이의 균등 또는 등가적 변형 모두는 본 발명 사상의 범주에 속한다고 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, but, on the contrary, Modification is possible. Accordingly, the spirit of the present invention should be understood only in accordance with the following claims, and all equivalents or equivalent variations thereof are included in the scope of the present invention.

도 1은 본 발명의 실시예에 따른 인체 부분 검출 장치 중 머리부 검출 장치의 구조를 보인 도면,BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a view showing a structure of a head part detecting device of a human body part detecting device according to an embodiment of the present invention;

도 2는 본 발명의 실시예에 따른 이미지 프로세서가 차이 이미지를 계산하는 방법을 보이는 도면,Figure 2 is a diagram illustrating a method for an image processor to calculate a difference image according to an embodiment of the present invention;

도 3은 머리부의 포지티브 샘플의 윤곽과 유사한 윤곽 형상을 가지는 전형적인 네거티브 샘플을 보이는 도면,Figure 3 shows a typical negative sample having an outline shape similar to the contour of the positive sample of the head,

도 4는 굵은 직선을 가지는 대상물의 차이 이미지를 보이는 도면,4 is a view showing a difference image of an object having a thick straight line,

도 5는 도 2에 도시된 방법에 따라 계산된 머리 부분의 차이 이미지의 네 가지 예들(dx, dy, du, dv)을 보이는 도면,FIG. 5 is a view showing four examples (dx, dy, du, dv) of the head difference image calculated according to the method shown in FIG. 2;

도 6은 본 발명의 일 실시예에 따른 특징 추출 방법 중 서브 윈도우 프로세서에서 사용하는 서브 윈도우를 보이는 도면,FIG. 6 is a diagram illustrating a sub-window used in a sub-window processor among feature extraction methods according to an exemplary embodiment of the present invention;

도 7은 본 발명의 실시예에 따른 인체 부분 검출 방법을 간략히 보이는 플로우 차트,FIG. 7 is a flowchart schematically illustrating a human body part detection method according to an embodiment of the present invention,

도 8은 사람의 머리부에 대한 다양한 시야각에서의 구분을 보이는 도면,FIG. 8 is a view showing the division of the human head in various viewing angles, FIG.

도 9는 사람 머리부를 검출하는 피라미드 분류기를 보이는 도면,Figure 9 shows a pyramid sorter for detecting a human head;

도 10은 본 발명의 실시예에 따른 인체 부분 검출 방법을 설명하기 위해 도 9에 도시된 피라미드 분류가(800)의 검출을 예시로 보이는 플로우 차트,10 is a flowchart showing an example of the detection of the pyramid classification 800 shown in FIG. 9 for explaining the human body part detection method according to the embodiment of the present invention,

도 11은 본 발명의 실시예에 따라 다수의 인체 부분 검출 장치가 일렬로 배열된 사람 검출 장치의 구성도,11 is a configuration diagram of a human detection apparatus in which a plurality of human body part detection devices are arranged in a line according to an embodiment of the present invention;

도 12는 본 발명의 실시예에 따라 도 11의 다수의 인체 부분 검출기를 가지는 사람 검출 장치의 예시적인 상세한 구조도,FIG. 12 is an exemplary detailed structural view of a human detection device having a plurality of human body part detectors of FIG. 11 according to an embodiment of the present invention;

도 13은 본 발명의 다른 실시예에 따른 다수의 부분 검출 장치가 병렬로 연결된 대상 검출 장치의 구조도,13 is a structural view of an object detecting apparatus to which a plurality of partial detecting apparatuses according to another embodiment of the present invention are connected in parallel,

도 14는 본 발명의 실시예에 따라 대상 검출 기능을 가지는 이미지 형성 시스템(1300)의 구조를 보인 도면,14 is a diagram illustrating the structure of an image forming system 1300 having an object detection function according to an embodiment of the present invention.

도 15는 본 발명의 실시예에 따른 도 14의 검출 장치의 구조를 보인 도면.15 is a diagram showing the structure of the detection apparatus of FIG. 14 according to the embodiment of the present invention.

Claims (30)

인체 부분의 포지티브 샘플과 네거티브 샘플을 저장하는 연습 데이터베이스;An exercise database storing positive and negative samples of the human body; 입력 이미지에 대해 차이 이미지를 계산하는 이미지 프로세서;An image processor for calculating a difference image for an input image; 상기 연습 데이터베이스에 저장된 소정 인체 부분의 포지티브 샘플과 네거티브 샘플에 대해 상기 이미지 프로세서가 계산한 차이 이미지로부터 특징 집합을 추출하는 서브 윈도우 프로세서; 및A sub-window processor for extracting a feature set from a difference image calculated by the image processor for positive and negative samples of a predetermined human body portion stored in the practice database; And 상기 특징 집합에 대해 인체 부분 모델을 사용하여, 상기 인체 부분 모델에 대응하는 인체 부분을 검출하는 인체 부분 분류기; A human partial classifier for detecting a human body portion corresponding to the human body partial model using the human body partial model for the feature set; 를 포함하고,Lt; / RTI > 상기 인체 부분 분류기는,Wherein the human partial classifier comprises: 상기 인체 부분의 복수개의 측면들 중에서 적어도 한 쌍 이상의 측면에 대한 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 얻은 상기 인체 부분 모델을 사용하여 상기 인체 부분을 검출하는 이미지의 인체 부분 검출 장치.Wherein the human body model is obtained by learning the feature set of the difference image between the positive sample and the negative sample with respect to at least one pair of side faces of the plurality of side faces of the human body part, A partial detection device. 제1항에 있어서, The method according to claim 1, 상기 인체 부분 분류기가 검출하는 상기 인체 부분에 대해 인체 기하학에 근거하여 오류를 제거함으로써 상기 입력 이미지의 인체 부분을 확정하는 확정기를 더 구비하는 것을 특징으로 하는 이미지의 인체 부분 검출 장치. Further comprising a determiner for determining a human body portion of the input image by removing an error based on a human body geometry with respect to the human body portion detected by the human body partial classifier. 제1항에 있어서, The method according to claim 1, 상기 이미지 프로세서는 적어도 하나의 스케일로 상기 입력 이미지를 수평 방향, 수직 방향, 좌-우대각선 방향 및 우-좌 대각선 방향의 차이 이미지로 계산하 는 것을 특징으로 하는 이미지의 인체 부분 검출 장치. Wherein the image processor calculates the input image as a difference image in a horizontal direction, a vertical direction, a left-right diagonal direction, and a right-left diagonal direction with at least one scale. 제3항에 있어서, The method of claim 3, 상기 서브 윈도우 프로세서는 단일 윈도우 또는 다수 윈도우를 사용하여 상기수평 방향, 수직 방향, 좌-우대각선 방향 및 우-좌 대각선 방향의 차이 이미지의 적어도 하나에서 상기 특징 집합을 추출하는 것을 특징으로 하는 이미지의 인체 부분 검출 장치. Wherein the subwindow processor extracts the feature set from at least one of the difference images in the horizontal direction, the vertical direction, the left-right diagonal direction and the right-left diagonal direction using a single window or a plurality of windows. Human body part detection device. 제1항에 있어서, The method according to claim 1, 상기 인체 부분은 머리부, 몸체부, 다리부, 팔부 또는 인체의 어느 일부인 것을 특징으로 하는 이미지의 인체 부분 검출 장치. Wherein the human body part is a head part, a body part, a leg part, an arm part, or any part of a human body. 제1항에 있어서, The method according to claim 1, 상기 연습 데이터베이스는 상기 인체 부분이 머리부이면 상기 머리부의 포지티브 샘플과 네거티브 샘플로서 상기 머리부의 전면, 좌반측, 좌측, 좌후반측, 후면, 우후반측, 우측 및 우반측의 포지티브 샘플과 네거티브 샘플을 저장하는 것을 특징으로 하는 이미지의 인체 부분 검출 장치. Wherein the practice database includes a positive sample and a negative sample on the front side, left side, left side, left rear side, rear side, rear side, right side and right side of the head as positive and negative samples of the head when the human body is the head And stores the image of the human body in the image. 제6항에 있어서, The method according to claim 6, 상기 인체 부분 분류기는,Wherein the human partial classifier comprises: 상기 머리부의 차이 이미지에 근거하여 상기 머리부의 전면, 좌반측, 좌측, 좌후반측, 후면, 우후반측, 우측 및 우반측의 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 얻은 제1머리부 모델을 사용하여 상기 머리부를 검출하는 제1머리부 분류기;Based on the difference image of the head portion, learning is performed on the feature set of the difference image between the positive sample and the negative sample on the front, left half, left, rear half, rear, right half, right half, A first head classifier for detecting the head using a first head model; 상기 머리부의 차이 이미지에 근거하여 상기 머리부의 전면과 후면의 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 에 대해 학습을 진행하여 얻은 제2머리부 모델을 사용하여 상기 머리부의 전면과 후면을 검출하는 제2머리부 분류기;A second head model obtained by learning about a feature set of a difference image between a positive sample and a negative sample on the front and back sides of the head based on the difference image of the head, A second head classifier for detecting the head; 상기 머리부의 차이 이미지에 근거하여 상기 머리부의 좌측 및 우측의 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 얻은 제3머리부 모델을 사용하여 상기 머리부의 좌측 및 우측을 검출하는 제3머리부 분류기; 및The left and right sides of the head are detected using the third head model obtained by learning the feature set of the difference image between the left and right positive and negative samples of the head based on the difference image of the head A third head classifier; And 상기 머리부의 차이 이미지에 근거하여 상기 머리부의 좌후반측, 좌반측, 우후반측 및 우반측의 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 얻은 제4머리부 모델을 사용하여 상기 머리부의 좌반측, 좌후반측, 우후반측 및 우반측을 검출하는 제4머리부 분류기;Using the fourth head model obtained by learning the feature set of the difference image between the positive sample and the negative sample on the left rear half side, the left half side, the right half side and the right half side of the head part based on the difference image of the head part A fourth head classifier for detecting the left half side, the left half side, the right half side and the right half side of the head part; 를 구비하는 것을 특징으로 하는 이미지의 인체 부분 검출 장치.And a display unit for displaying an image of the human body. 제7항에 있어서, 8. The method of claim 7, 상기 제2 내지 제4머리부 분류기는 상기 제1머리부 분류기를 통해 검출된 머 리부에 평가를 진행하여 상기 머리부의 전면과 후면의 오류, 상기 머리부의 좌측과 우측의 오류 및, 상기 머리부의 좌반측, 좌후반측, 우후반측 및, 우반측의 오류를 제거하는 것을 특징으로 하는 이미지의 인체 부분 검출 장치.And the second to fourth head classifiers perform evaluation on the head portion detected through the first head classifier to detect an error on the front and rear surfaces of the head portion, an error on the left and right sides of the head portion, The left half, the right half, and the right half of the image of the human body. 제1항에 있어서, The method according to claim 1, 상기 인체 부분 분류기는 다수의 상이한 인체 부분에 따른 복수의 인체 부분 분류기를 포함하고, 상기 인체 부분에 대응하도록 학습하여 획득한 인체 부분 모델이 가지는 상기 특징 집합의 특징수의 오름차순으로 대응 인체 부분에 대해 검출을 진행하는 것을 특징으로 하는 이미지의 인체 부분 검출 장치.Wherein the human partial classifier comprises a plurality of human partial classifiers according to a plurality of different human parts, and wherein the human partial model classifies the corresponding human parts in ascending order of the number of features of the human body partial model obtained by learning to correspond to the human part And the detection of the human body part of the image is progressed. 제2항에 있어서, 3. The method of claim 2, 상기 인체 부분 분류기는 상기 인체 부분 모델이 가지는 상기 특징 집합의 특징수의 오름차순으로 대응 인체 부분에 대해 검출을 진행하는 것을 특징으로 하는 이미지의 인체 부분 검출 장치.Wherein the human partial classifier performs detection for a corresponding human body part in ascending order of the number of features of the feature set of the human body partial model. 인체 부분의 포지티브 샘플과 네거티브 샘플을 저장하고 상기 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 특징 집합을 추출하는 단계;Storing a positive sample and a negative sample of a human body portion and extracting a feature set from the difference image of the positive sample and the negative sample; 상기 추출된 특징 집합에 대해 학습을 진행하여 인체 부분 모델을 얻는 단계; 및 Acquiring a human partial model by learning about the extracted feature set; And 입력 이미지의 차이 이미지를 계산하고, 상기 인체 부분 모델을 사용하여 상기 차이 이미지 중 대응하는 인체 부분을 검출하는 단계;Calculating a difference image of the input image and using the human body model to detect a corresponding human portion of the difference image; 를 포함하고,Lt; / RTI > 상기 인체 부분 모델을 얻는 단계는,The step of obtaining the human- 상기 인체 부분의 복수개의 측면들 중에서 적어도 한 쌍 이상의 측면에 대한 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 상기 인체 부분 모델을 얻는 단계Learning the feature set of the difference image of the positive sample and the negative sample with respect to at least one pair of side faces of the plurality of side faces of the human body part to obtain the human body partial model 를 포함하는 것을 특징으로 하는 이미지의 인체 부분 검출 방법.And detecting the human body portion of the image. 제11항에 있어서, 12. The method of claim 11, 상기 인체 부분을 검출하는 단계 다음에 상기 인체 부분에 대해 인체 기하학에 근거하여 오류를 제거함으로써 상기 입력 이미지의 인체 부분을 확정하는 단계를 더 포함하는 것을 특징으로 하는 이미지의 인체 부분 검출 방법. Further comprising the step of determining the human part of the input image by removing errors based on the human geometry with respect to the human part after the step of detecting the human part. 제11항에 있어서,12. The method of claim 11, 상기 차이 이미지는 상기 입력 이미지의 수평방향, 수직방향, 좌-우대각선방향 및 우-좌대각선방향에서 적어도 하나의 스케일로 계산된 차이 이미지인 것을 특징으로 하는 이미지의 인체 부분 검출 방법. Wherein the difference image is a difference image calculated on at least one scale in a horizontal direction, a vertical direction, a left-right diagonal direction and a right-left diagonal direction of the input image. 제13항에 있어서,14. The method of claim 13, 상기 특징 집합을 추출하는 단계는 단일 윈도우 또는 다수 윈도우를 사용하여 상기 수평방향, 수직방향, 좌-우대각선방향 및 우-좌대각선방향 중 적어도 하나에서 특징 집합을 추출하는 것을 특징으로 하는 이미지의 인체 부분 검출 방법. Wherein the extracting of the feature set extracts a feature set in at least one of the horizontal direction, the vertical direction, the left-right diagonal direction and the right-left diagonal direction using a single window or a plurality of windows. A partial detection method. 제11항에 있어서, 12. The method of claim 11, 상기 인체 부분은 머리부, 몸체부, 다리부, 팔부 또는 인체의 어느 일부인 것을 특징으로 하는 이미지의 인체 부분 검출 방법. Wherein the human body part is a head part, a body part, a leg part, an arm part, or a part of a human body. 제11항에 있어서, 12. The method of claim 11, 상기 인체 부분이 머리부이면, 상기 머리부의 포지티브 샘플과 네거티브 샘플은 사람의 머리부의 전면, 좌반측, 좌측, 좌후반측, 후면, 우후반측, 우측 및 우반측의 포지티브 샘플과 네거티브 샘플을 포함하는 것을 특징으로 하는 이미지의 인체 부분 검출 방법. If the human body portion is a head, the positive sample and the negative sample of the head include positive and negative samples on the front, left half, left side, left rear half, rear half, right half and right half of the human head And detecting the human body part of the image. 제16항에 있어서, 17. The method of claim 16, 상기 인체 부분 모델은,The human body partial model includes: 상기 인체 부분인 상기 머리부의 차이 이미지에 근거하여 상기 머리의 전면, 좌반측, 좌측, 좌후반측, 후면, 우후반측, 우측 및 우반측의 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 얻은 제1머리부 모델;Learning about the feature set of the difference images of the positive and negative samples on the front, left half, left, rear half, rear, right half, right half and right half of the head based on the difference image of the head part as the human part A first head model obtained by advancing the first head model; 상기 머리부의 차이 이미지에 근거하여 상기 머리부의 전면과 후면의 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 얻은 제2머리부 모델;A second head model obtained by learning a feature set of a difference image between a positive sample and a negative sample on the front and back sides of the head based on the difference image of the head; 상기 머리부의 차이 이미지에 근거하여 상기 머리부의 좌측 및 우측의 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 얻은 제3머리부 모델; 및A third head model obtained by learning a feature set of a difference image between a positive sample and a negative sample on the left and right sides of the head based on the difference image of the head; And 상기 머리부의 차이 이미지에 근거하여 상기 머리부의 좌후반측, 좌반측, 우후반측 및 우반측의 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 얻은 제4머리부 모델;A fourth head model obtained by learning a feature set of a difference image between a positive sample and a negative sample on the left rear half side, the left half side, the right half side, and the right half side of the head part based on the difference image of the head part; 을 포함하는 것을 특징으로 하는 이미지의 인체 부분 검출 방법.And detecting a human body portion of the image. 제17항에 있어서, 18. The method of claim 17, 상기 제1머리부 모델에 대응하는 검출된 머리부에 평가를 진행하여 상기 제2내지 제4머리부 모델에 대응하는 상기 머리부의 전면과 후면의 오류, 상기 머리부의 좌측과 우측의 오류 및, 상기 머리부의 좌후반측, 좌반측, 우후반측 및, 우반측의 오류를 제거하는 단계를 더 포함하는 것을 특징으로 하는 이미지의 인체 부분 검출 방법.Evaluating the detected head corresponding to the first head model to determine an error on the front and back sides of the head corresponding to the second to fourth head models, an error on the left and right sides of the head, Further comprising the step of removing errors in the left rear half, the left half, the right half, and the right half of the head. 제11항에 있어서, 12. The method of claim 11, 상기 인체 부분을 검출하는 단계에서, 다수의 상이한 상기 인체 부분 모델이 가지는 상기 특징 집합의 특징수의 오름차순으로 대응 인체 부분에 대해 검출을 진행하는 것을 특징으로 하는 이미지의 인체 부분 검출 방법.Wherein in the step of detecting the human body part, detection is performed on the corresponding human body part in ascending order of the number of features of the feature set of a plurality of different human partial models. 대상의 포지티브 샘플과 네거티브 샘플을 저장하는 연습 데이터베이스;An exercise database storing positive and negative samples of the subject; 입력 이미지에 대해 차이 이미지를 계산하는 이미지 프로세서;An image processor for calculating a difference image for an input image; 상기 연습 데이터베이스에 저장된 대상의 포지티브 샘플과 네거티브 샘플에 대해 상기 이미지 프로세서가 계산한 차이 이미지로부터 특징 집합을 추출하는 서브 윈도우 프로세서;A sub-window processor for extracting a feature set from a difference image calculated by the image processor for positive samples and negative samples of an object stored in the practice database; 상기 특징 집합에 대해 대상 모델을 사용하여, 상기 대상 모델에 대응하는 대상을 검출하는 대상 분류기; An object classifier for detecting an object corresponding to the object model using the object model for the feature set; 를 포함하고,Lt; / RTI > 상기 대상 분류기는,Wherein the target classifier comprises: 상기 대상의 복수개의 측면들 중에서 적어도 한 쌍 이상의 측면에 대한 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 얻은 상기 대상 모델을 사용하여 상기 대상을 검출하는 것을 특징으로 하는 이미지의 대상 검출 장치.Characterized in that the object is detected using the object model obtained by learning the feature set of the difference image of the positive sample and the negative sample with respect to at least one of the plurality of side faces of the object, Object detection device. 제20항에 있어서, 21. The method of claim 20, 상기 이미지 프로세서는 적어도 하나의 스케일로 상기 입력 이미지를 수평 방향, 수직 방향, 좌-우대각선 방향 및 우-좌 대각선 방향의 차이 이미지로 계산하는 것을 특징으로 하는 이미지의 대상 검출 장치.Wherein the image processor calculates the input image as a difference image in a horizontal direction, a vertical direction, a left-right diagonal direction, and a right-left diagonal direction on at least one scale. 제20항에 있어서, 21. The method of claim 20, 상기 서브 윈도우 프로세서는 단일 윈도우 또는 다수 윈도우를 사용하여 수평 방향, 수직 방향, 좌-우대각선 방향 및 우-좌 대각선 방향의 차이 이미지의 적어도 하나에서 상기 특징 집합을 추출하는 것을 특징으로 하는 이미지의 대상 검출 장치.Wherein the sub window processor extracts the feature set from at least one of a difference image in a horizontal direction, a vertical direction, a left-right diagonal direction and a right-left diagonal direction using a single window or a plurality of windows Detection device. 대상의 포지티브 샘플과 네거티브 샘플을 저장하고 상기 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 특징 집합을 추출하는 단계;Storing a positive sample and a negative sample of the object and extracting a feature set from the difference image of the positive sample and the negative sample; 상기 추출된 특징 집합에 대해 학습을 진행하여 대상 모델을 얻는 단계; 및 Learning the extracted feature set to obtain a target model; And 입력 이미지의 차이 이미지를 계산하고, 상기 대상 모델을 사용하여 상기 차이 이미지 중 대응하는 대상을 검출하는 단계;Calculating a difference image of the input image and using the target model to detect a corresponding one of the difference images; 를 포함하고,Lt; / RTI > 상기 대상 모델을 얻는 단계는,The step of obtaining the target model comprises: 상기 대상의 복수개의 측면들 중에서 적어도 한 쌍 이상의 측면에 대한 포지티브 샘플과 네거티브 샘플의 차이 이미지의 특징 집합에 대해 학습을 진행하여 상기 대상 모델을 얻는 단계Wherein learning is performed on a feature set of a difference image of a positive sample and a negative sample with respect to at least one or more sides of a plurality of sides of the object to obtain the object model 를 포함하는 것을 특징으로 하는 이미지의 대상 검출 방법.And detecting a target of the image. 제23항에 있어서,24. The method of claim 23, 상기 차이 이미지는 이미지의 수평방향, 수직방향, 좌-우대각선방향 및 우-좌대각선방향에서 적어도 하나의 스케일로 계산된 차이 이미지를 포함하는 것을 특징으로 하는 이미지의 대상 검출 방법. Wherein the difference image comprises a difference image calculated on at least one scale in the horizontal, vertical, left-right diagonal, and right-left diagonal directions of the image. 제23항에 있어서,24. The method of claim 23, 상기 특징 집합을 추출하는 단계에서 단일 윈도우 또는 다수 윈도우를 사용하여 수평방향, 수직방향, 좌-우대각선방향 및 우-좌대각선방향의 차이 이미지의 적어도 하나에서 특징 집합을 추출하는 것을 특징으로 하는 이미지의 대상 검출 방법. Extracting a set of features from at least one of a difference image in a horizontal direction, a vertical direction, a left-right diagonal direction and a right-left diagonal direction using a single window or a plurality of windows in extracting the feature set, . 대상의 이미지를 촬영하는 촬영 장치;A photographing device for photographing an image of an object; 상기 대상의 포지티브 샘플과 네거티브 샘플의 차이 이미지로부터 추출한 특징 집합에 대해 학습을 진행하여 얻는 대상 모델을 사용하여 상기 대상 모델에 대응하는 대상 영역을 상기 대상의 차이 이미지로부터 검출하는 검출 장치;A detecting device for detecting an object area corresponding to the object model from a difference image of the object using a target model obtained by learning on a feature set extracted from a difference image between the positive sample and the negative sample of the object; 상기 검출 장치가 검출한 상기 대상의 이미지 중 상기 대상이 존재하는 상기대상 영역에 근거하여 상태 변수를 계산함으로써, 상기 대상을 상기 이미지의 중심 영역에 위치시키는 상태 변수 계산 장치;A state variable calculation device for calculating the state variable based on the object area in which the object exists among the images of the object detected by the detection device, thereby locating the object in the center area of the image; 상기 상태 변수 계산 장치로부터 상기 상태 변수를 수신하여 상태를 조정하는 제어 장치;A control device for receiving the state variable from the state variable calculation device and adjusting the state; 상기 대상의 이미지를 저장하는 저장 장치; 및A storage device for storing an image of the object; And 상기 대상의 이미지를 표시하는 디스플레이 장치;A display device for displaying an image of the object; 를 구비하는 것을 특징으로 하는 이미지 형성 시스템.The image forming system comprising: 제26항에 있어서,27. The method of claim 26, 사용자가 상기 대상의 이미지에 손으로 표기한 대상 구역을 상기 검출 장치에 제공하는 표기 장치를 더 구비하는 것을 특징으로 하는 이미지 형성 시스템.Further comprising a marking device for providing a detection area of a target area manually marked by the user to the image of the object to the detection device. 제26항에 있어서,27. The method of claim 26, 상기 제어 장치는 상기 상태 변수에 따라 회전, 틸트, 줌 및 초점 영역 선택이라는 조작 중 어느 하나를 제어하는 것을 특징으로 하는 이미지 형성 시스템.Wherein the control device controls one of an operation of rotating, tilting, zooming and selecting a focus area according to the state variable. 제26항에 있어서,27. The method of claim 26, 상기 제어 장치는 상기 대상이 있는 새 영역을 초점 영역으로 선택하는 것을 특징으로 하는 이미지 형성 시스템.Wherein the control device selects the new area having the object as a focus area. 제26항에 있어서,27. The method of claim 26, 상기 제어 장치는 상기 이미지의 중심 영역을 디폴트 초점 구역으로 설정하거나, 상기 대상이 있는 새 영역을 상기 초점 구역으로 동적으로 선택하고, 상기 초점 구역의 이미지 정보에 근거하여, 줌, 초점거리, 회전 또는 틸트의 상태 변수를 제어하는 것을 특징으로 하는 이미지 형성 시스템.Wherein the controller is configured to set a central area of the image as a default focus area, dynamically select a new area with the object as the focus area, and adjust the zoom, focal length, And controls the state variable of the tilt.
KR1020080011390A 2007-10-10 2008-02-04 Detecting Apparatus of Human Component AND Method of the same KR101441333B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/285,694 US8447100B2 (en) 2007-10-10 2008-10-10 Detecting apparatus of human component and method thereof
US13/867,464 US9400935B2 (en) 2007-10-10 2013-04-22 Detecting apparatus of human component and method thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN2007101639084A CN101406390B (en) 2007-10-10 2007-10-10 Method and apparatus for detecting part of human body and human, and method and apparatus for detecting objects
CN200710163908.4 2007-10-10

Publications (2)

Publication Number Publication Date
KR20090037275A KR20090037275A (en) 2009-04-15
KR101441333B1 true KR101441333B1 (en) 2014-09-18

Family

ID=40569763

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020080011390A KR101441333B1 (en) 2007-10-10 2008-02-04 Detecting Apparatus of Human Component AND Method of the same

Country Status (2)

Country Link
KR (1) KR101441333B1 (en)
CN (1) CN101406390B (en)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101607569B1 (en) * 2009-07-14 2016-03-30 엘지이노텍 주식회사 Apparatus for detecting person and method thereof
CN102147917A (en) * 2010-02-08 2011-08-10 三星电子株式会社 Method for detecting rod-shaped target part
CN102592143B (en) * 2012-01-09 2013-10-23 清华大学 Method for detecting phone holding violation of driver in driving
JP2013164834A (en) * 2012-01-13 2013-08-22 Sony Corp Image processing device, method thereof, and program
US9443136B2 (en) 2013-04-12 2016-09-13 Samsung Electronics Co., Ltd. Apparatus and method for detecting body parts from user image
CN104573612B (en) * 2013-10-16 2019-10-22 北京三星通信技术研究有限公司 The device and method of the posture for the multiple human objects being overlapped in estimating depth image
JP6372388B2 (en) * 2014-06-23 2018-08-15 株式会社デンソー Driver inoperability detection device
CN104268598B (en) * 2014-09-26 2017-05-03 东南大学 Human leg detection method based on two-dimensional scanning lasers
CN105303523A (en) * 2014-12-01 2016-02-03 维沃移动通信有限公司 Image processing method and mobile terminal
CN104573669B (en) * 2015-01-27 2018-09-04 中国科学院自动化研究所 Image object detection method
CN105893926A (en) * 2015-12-15 2016-08-24 乐视致新电子科技(天津)有限公司 Hand identification method, system and device
EP3478172A4 (en) * 2016-06-29 2020-02-26 Vision Quest Industries Incorporated Dba VQ Orthocare Measurement and ordering system for orthotic devices
CN108229418B (en) * 2018-01-19 2021-04-02 北京市商汤科技开发有限公司 Human body key point detection method and apparatus, electronic device, storage medium, and program
CN110414541B (en) * 2018-04-26 2022-09-09 京东方科技集团股份有限公司 Method, apparatus, and computer-readable storage medium for identifying an object
WO2020087383A1 (en) * 2018-10-31 2020-05-07 深圳市大疆创新科技有限公司 Image-recognition-based control method and apparatus, and control device
CN109948432A (en) * 2019-01-29 2019-06-28 江苏裕兰信息科技有限公司 A kind of pedestrian detection method
US11361589B2 (en) 2020-04-01 2022-06-14 Sensetime International Pte. Ltd. Image recognition method, apparatus, and storage medium
SG10202003027QA (en) * 2020-04-01 2020-10-29 Sensetime Int Pte Ltd Image recognition method, apparatus, and storage medium
CN114677633B (en) * 2022-05-26 2022-12-02 之江实验室 Multi-component feature fusion-based pedestrian detection multi-target tracking system and method

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060080284A (en) * 2005-01-04 2006-07-10 삼성전자주식회사 Face detection method and apparatus in image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100507947C (en) * 2003-11-19 2009-07-01 美国西门子医疗解决公司 System and method for detecting and matching anatomical structures using appearance and shape
CN100336071C (en) * 2005-08-19 2007-09-05 清华大学 Method of robust accurate eye positioning in complicated background image
CN100336070C (en) * 2005-08-19 2007-09-05 清华大学 Method of robust human face detection in complicated background image

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20060080284A (en) * 2005-01-04 2006-07-10 삼성전자주식회사 Face detection method and apparatus in image

Also Published As

Publication number Publication date
CN101406390A (en) 2009-04-15
CN101406390B (en) 2012-07-18
KR20090037275A (en) 2009-04-15

Similar Documents

Publication Publication Date Title
KR101441333B1 (en) Detecting Apparatus of Human Component AND Method of the same
US9400935B2 (en) Detecting apparatus of human component and method thereof
US11789545B2 (en) Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data
JP4915655B2 (en) Automatic tracking device
KR101533686B1 (en) Apparatus and method for tracking gaze, recording medium for performing the method
CN104378582B (en) A kind of intelligent video analysis system and method cruised based on Pan/Tilt/Zoom camera
US5063603A (en) Dynamic method for recognizing objects and image processing system therefor
CN105930822A (en) Human face snapshot method and system
CN108961312A (en) High-performance visual object tracking and system for embedded vision system
EP2192549A1 (en) Target tracking device and target tracking method
CN106886216A (en) Robot automatic tracking method and system based on RGBD Face datections
US20040141633A1 (en) Intruding object detection device using background difference method
JP4373840B2 (en) Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus
CN114842397B (en) Real-time old man falling detection method based on anomaly detection
JP4682820B2 (en) Object tracking device, object tracking method, and program
JP2014093023A (en) Object detection device, object detection method and program
KR101329138B1 (en) Imaging system, apparatus and method of discriminative color features extraction thereof
CN115346197A (en) Driver distraction behavior identification method based on bidirectional video stream
KR101290517B1 (en) Photographing apparatus for tracking object and method thereof
CN109493370A (en) A kind of method for tracking target based on spatial offset study
JPH06111018A (en) Image processing system
CN113362390B (en) Rapid circular target positioning video processing method based on ellipse detection
CN114613006A (en) Remote gesture recognition method and device
JP2022019339A (en) Information processing apparatus, information processing method, and program
JP4942197B2 (en) Template creation apparatus, facial expression recognition apparatus and method, program, and recording medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170818

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190820

Year of fee payment: 6