KR20030073879A - Realtime face detection and moving tracing method - Google Patents

Realtime face detection and moving tracing method Download PDF

Info

Publication number
KR20030073879A
KR20030073879A KR1020020013634A KR20020013634A KR20030073879A KR 20030073879 A KR20030073879 A KR 20030073879A KR 1020020013634 A KR1020020013634 A KR 1020020013634A KR 20020013634 A KR20020013634 A KR 20020013634A KR 20030073879 A KR20030073879 A KR 20030073879A
Authority
KR
South Korea
Prior art keywords
face
image
color
region
input image
Prior art date
Application number
KR1020020013634A
Other languages
Korean (ko)
Inventor
왕희일
나재호
Original Assignee
주식회사 엘지이아이
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 엘지이아이 filed Critical 주식회사 엘지이아이
Priority to KR1020020013634A priority Critical patent/KR20030073879A/en
Publication of KR20030073879A publication Critical patent/KR20030073879A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • G06V40/173Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching

Abstract

PURPOSE:A method for detecting a face and tracking motion in real time is provided to detect and track a face reliable and strong against a change in the surrounding environment. CONSTITUTION:An image captured through a camera is inputted(S1). It is judged whether the inputted image is an image inputted for the first time or a transformed image of the previously inputted image(S2). In the case of the image inputted for the first time, face candidate areas are selected by a color deciding method using a color model of a face and by oval fitting of the face using a direction image(S3-S4). A final candidate area is selected(S5). Parameters related to position, size, shape, and color of the face are extracted(S7). Motion of the face is tracked from images inputted afterward by the color deciding method using the color model of the face(S6).

Description

실시간 얼굴 검출 및 움직임 추적 방법{REALTIME FACE DETECTION AND MOVING TRACING METHOD}REALTIME FACE DETECTION AND MOVING TRACING METHOD}

본 발명은 실시간 얼굴 검출 및 움직임 추적 방법에 관한 것으로, 특히 로봇과 같이 제한된 컴퓨팅 파워와 임베디드 시스템 환경에서, 실시간으로 얼굴을 검출하여 그 움직임을 추적할 수 있도록 하는, 실시간 얼굴 검출 및 움직임 추적 방법에 관한 것이다.The present invention relates to a real-time face detection and motion tracking method, and more particularly to a real-time face detection and motion tracking method for detecting a face in real time and tracking its movement in a limited computing power and embedded system environment, such as a robot. It is about.

최근, 카메라(CMOS, CCD, ...)로 입력되는 이미지로부터 얼굴을 검출, 추적, 인식하는 화상처리(vision processing)의 응용 분야가 점차 가정용 로봇, 게임기, 휴대폰, PDA로 확대되고 있으며, 이러한 휴대용 또는 이동형 장치에서 효과적으로 얼굴을 검출하고, 추적 및 인식하는 방법의 필요성이 증대되고 있다.Recently, application fields of vision processing for detecting, tracking, and recognizing faces from images inputted by cameras (CMOS, CCD, ...) are gradually expanding to home robots, game machines, mobile phones, and PDAs. There is an increasing need for a method of effectively detecting, tracking and recognizing faces in portable or mobile devices.

즉, 상기와 같은 휴대용 또는 이동형 장치는, 그 특성상 크기와 컴퓨팅 파워 등의 제한을 받으면서도 실시간 처리를 요하기 때문에, 컴퓨팅 파워를 적게 소모하면서 동작의 신뢰성이 저하되지 않도록 하는 방법이 요구되고 있는 것이다.That is, such portable or mobile devices require real-time processing while being limited in size and computing power, and thus require a method of reducing the reliability of the operation while consuming less computing power.

가령, 로봇과 사용자가 대화를 하고 있다고 가정할 경우, 로봇은 대화자의 움직임에 따라(특히, 대화 상태에서는 상대의 얼굴을 응시하고 있게 되므로, 대화 상대의 얼굴 움직임에 따라) 그 움직이는 방향에 맞추어 얼굴을 정확히 응시할 수 있도록 움직여줄 필요가 있는 것이다.For example, assuming that the robot and the user are talking, the robot faces the face according to the direction of the movement according to the movement of the talker (especially, as the face of the talker moves, since the user is staring at the other's face in the chat state). You need to move so that you can stare accurately.

상기와 같은 얼굴의 검출 및 추적에 대한 화상처리 방법은, 얼굴 인식(face identification), 표정 인식(face expression recognition) 등의 분야의 전단계로서도 매우 중요한데, 이러한 얼굴의 검출 및 추적, 인식을 위한 화상처리 방법이 실제 환경에 적용되기 위해서는 다음의 몇 가지 조건을 만족해야 한다.The image processing method for face detection and tracking as described above is very important as a previous step in the field of face identification, face expression recognition, and the like. Image processing for face detection, tracking, and recognition In order for the method to be applied in a real environment, several conditions must be met.

첫째, 실시간 처리가 가능해야 하고, 둘째, 특별한 조명 조건이 없어야 하며, 셋째, 사용자가 특별한 장비를 착용하거나 칠할 필요가 없어야 하고, 넷째, 저렴한 비용이 들어야 한다.First, real-time processing must be possible, second, there must be no special lighting conditions, third, the user need not wear or paint special equipment, and fourth, low cost.

특히, 가정용 로봇, 게임기, 휴대폰, PDA 등의 휴대용 장치에 적용하기 위해서는 실시간 처리 능력과 비용이 가장 중요한 조건이 된다.In particular, real-time processing power and cost are the most important conditions for application to portable devices such as home robots, game machines, mobile phones, and PDAs.

종래의 기술에서 얼굴을 검출, 추적할 수 있는 방법으로는, 연속적인 영상에 대해 계속 차영상(differential image)을 구하여 얼굴을 추적하는 방법, 얼굴의 주요 부위에 마크를 붙이고 이를 추적하는 방법, 광흐름(optical flow)을 이용하는 방법, 얼굴 윤곽선을 추출하는 방법, 컬러 모델을 이용하여 얼굴 영역을 얻는 방법 등이 있다.In the conventional technology, a method of detecting and tracking a face includes a method of tracking a face by continuously obtaining a differential image of a continuous image, a method of marking a mark on a main part of the face, and tracking the light. There is a method using optical flow, a method of extracting facial contours, a method of obtaining a facial region using a color model, and the like.

그러나, 차영상을 이용하는 경우에는 배경의 복잡성 또는 동적 배경에 대하여 적용하기 어려우며, 얼굴의 주요 부위에 마크를 붙이는 경우에는 실제 환경에서 적용하기 어려우며, 광흐름을 이용한 방법과 얼굴 윤곽선 추출 방법은 많은 계산 시간을 요하기 때문에 실시간 처리에 부적합한 문제점이 있다.However, it is difficult to apply the background complexity or dynamic background when the difference image is used, and it is difficult to apply the mark on the main part of the face in the real environment. There is a problem that is not suitable for real time processing because it requires time.

또한, 컬러 모델을 이용하여 얼굴 영역을 분할하는 방법은 색상에만 의존하므로 외부 환경에 민감한 문제가 있으며, 상기 방법들 모두 얼굴의 검출과 추적 동작을 구분하지 않고 적용함으로써, 상황에 따라 얼굴 검출과 추적 동작에서 상이한 특성 및 효과가 나타날 수 있는 문제점이 있다.In addition, the method of segmenting the face region using the color model is sensitive to the external environment because it depends only on the color, and all of the above methods are applied without discriminating the detection and the tracking operation of the face, thereby detecting and tracking the face according to the situation. There is a problem that different characteristics and effects may appear in operation.

따라서, 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 창출한 것으로, 로봇과 같이 제한된 컴퓨팅 파워와 임베디드 시스템 환경에서, 실시간으로 얼굴을 검출하여 그 움직임을 추적할 수 있도록 하는, 실시간 얼굴 검출 및 움직임 추적 방법을 제공함에 그 목적이 있다.Therefore, the present invention has been created to solve the above-mentioned conventional problems, real-time face detection and tracking to detect the face in real time in a limited computing power and embedded system environment, such as a robot The purpose is to provide a motion tracking method.

이와 같은 목적을 달성하기 위한 본 발명은, 카메라를 통해 캡쳐된 영상을 입력받는 제1단계와; 상기 입력된 영상이 처음 입력된 영상인지, 이전에 입력된 영상의 변형된 영상인지를 판단하는 제2단계와; 상기 입력된 영상이 처음 입력된 영상일 경우, 그 영상으로부터 얼굴 영역을 검출하여 그 얼굴 영역의 관련 파라메터를 검출 저장하는 제3단계와; 상기 입력된 영상이 이전에 입력된 영상의 변형된 영상일 경우, 이미 검출 저장된 얼굴 영역의 파라메터 정보를 참조하여 얼굴의 움직임을 추적하는 제4단계로 이루어진 것을 특징으로 한다.The present invention for achieving the above object, the first step of receiving an image captured by the camera; Determining whether the input image is a first input image or a modified image of a previously input image; A third step of detecting a face region from the image and detecting and storing a related parameter of the face region when the input image is the first input image; When the input image is a modified image of a previously input image, a fourth step of tracking a face movement by referring to parameter information of a face region already detected and stored is performed.

도 1은 본 발명에 따른 실시간 얼굴 검출 및 움직임 추적 방법을 보인 흐름도.1 is a flow chart showing a real time face detection and motion tracking method according to the present invention.

도 2는 본 발명에 따른 색깔 확정적인 방법에 의한 얼굴 후보 영역의 선택 방법을 설명하기 위한 예시도.2 is an exemplary view for explaining a method of selecting a face candidate region by a color determining method according to the present invention.

도 3은 본 발명에 따른 타원 핏팅에 의한 얼굴 후보 영역의 선택 방법을 설명하기 위한 예시도.3 is an exemplary view for explaining a method of selecting a face candidate region by elliptic fitting according to the present invention.

도 4는 상기 도2 및 도3에 의해 검출된 얼굴 후보 영역에서 두 영역이 겹치는 정도에 의해 최종 검출된 얼굴 영역의 예시도.4 is an exemplary view of a face region finally detected by the degree of overlap of two regions in the face candidate region detected by FIGS. 2 and 3;

도 5는 본 발명에 따른 색깔 확률적인 방법에 의한 얼굴 추적 방법을 설명하기 위한 예시도.5 is an exemplary view for explaining a face tracking method by the color probabilistic method according to the present invention.

본 발명은 가정용 로봇, 게임기, 휴대폰, PDA 등의 휴대용 장치에서 적용 가능하도록 하기 위하여, 얼굴의 색깔 정보와 얼굴의 모양 정보를 동시에 이용하여 얼굴을 검출하고, 색깔 확률적인 방법을 이용하여 검출된 얼굴을 추적함으로써, 검출 동작과 추적 동작의 신뢰성이 증가하고 외부 환경 변화에 강인하며, 각 동작의 알고리즘에 대한 코드화시 정수로 근사화하여 계산량을 감소시킴으로써, 실시간 연산이 가능하도록 하는 특징이 있다.The present invention detects a face by simultaneously using the color information of the face and the shape of the face in order to be applicable to portable devices such as home robots, game machines, mobile phones, PDAs, etc. By tracking, the reliability of the detection operation and the tracking operation is increased, and it is robust to external environment changes, and the calculation amount is reduced by approximating to an integer when coding the algorithm of each operation, thereby real-time operation is possible.

즉, 본 발명은 얼굴의 검출 과정 및 한번 검출된 얼굴에 대한 추적 과정을구분하여, 각 과정에서 가장 효과적인 특성을 갖는 방법을 적용한 것으로, 특히 얼굴 추적 과정은 환경변화에 강인하고 계산량이 적은 색깔 확률적인 방법을 이용함으로써, 얼굴 검출 및 추적의 신뢰성과 효율성을 높일 수 있도록 하는 특징이 있다.That is, the present invention distinguishes the face detection process from the face detection process and applies the method having the most effective characteristics in each process. In particular, the face tracking process is robust to environmental changes and has a low probability of color calculation. By using the conventional method, the reliability and efficiency of face detection and tracking can be improved.

이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명하기로 한다. 하기의 설명에서 구체적인 처리흐름과 같은 많은 특정 상세들은 본 발명의 보다 전반적인 이해를 제공하기 위한 것으로, 이들 특정 상세들 없이 본 발명이 실시될 수 있다는 것은 이 기술분야에서 통상의 지식을 가진 자에게는 자명할 것이다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. Many specific details, such as specific process flows, are provided in the following description to provide a more general understanding of the invention, and it is obvious to those skilled in the art that the present invention may be practiced without these specific details. something to do.

그리고, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.In addition, detailed description of well-known functions and structures which are determined to unnecessarily obscure the subject matter of the present invention will be omitted.

도1은 본 발명에 따른 실시간 얼굴 검출 및 움직임 추적 방법을 보인 흐름도로서, 카메라(CCD, CMOS, ...)를 통해 캡쳐된 영상을 입력받아(S1), 이전 단계로부터 얼굴이 검출되었는지 여부를 판단한다(S2).1 is a flow chart illustrating a real-time face detection and motion tracking method according to the present invention, receiving a captured image through a camera (CCD, CMOS, ...) (S1), whether or not a face is detected from the previous step Determine (S2).

즉, 상기 과정은 카메라를 통해 입력된 영상이 처음 입력된 영상이 아닐 경우, 이미 이전 영상으로부터 얼굴위치와 각종 파라메터(크기, 모양, 색깔 등)가 검출 저장되어 있을 것이므로, 그 파라메터를 참조하여 얼굴의 움직임을 추적하도록 하고, 처음 입력된 영상일 경우 얼굴위치와 상기 파라메터 들을 검출하도록 선택하는 것이다.In other words, if the image input through the camera is not the first image, the face position and various parameters (size, shape, color, etc.) have already been detected and stored from the previous image. In order to track the movement of the first input image, the face position and the parameters are selected to be detected.

상기 판단 결과, 만약 처음으로 입력된 영상일 경우, 얼굴의 컬러 모델을 이용한 색깔 확정적인 방법으로부터 얼굴 후보 영역을 선정하고(S3), 방향 이미지를이용한 얼굴의 타원 핏팅(fitting)에 의해 얼굴 후보 영역을 선정한다(S4).As a result of the determination, if the image is input for the first time, the face candidate region is selected from a color-deterministic method using the color model of the face (S3), and the face candidate region by elliptic fitting of the face using a direction image. To select (S4).

다음, 상기 두 가지 방법에 의해 검출된 얼굴 후보 영역을 동시에 고려하여, 일정 수준 이상의 최고 점수를 얻은 후보 영역을 최종 선택하고(S5), 그 선택된 최종 얼굴 영역으로부터 얼굴의 위치 및 크기, 모양, 색깔 등에 관한 파라메터를 추출한다(S7).Next, considering the face candidate areas detected by the above two methods simultaneously, the candidate areas having the highest scores of a predetermined level or more are finally selected (S5), and the position, size, shape, and color of the face from the selected final face areas. Extract the parameters related to the (S7).

상기 추출된 얼굴 영역의 파라메터는 이후 입력되는 영상에서 얼굴의 움직임을 추적하는 참조 자료로 활용되는 것으로, 상기와 같이 얼굴 영역이 검출되었으면, 이후 입력되는 영상은 얼굴의 컬러 모델을 이용한 색깔 확률적인 방법에 의해 얼굴을 추적하고(S6), 그때마다 얼굴 위치 및 검출 관련 파라메터를 추출하여 업데이트하는 과정을 반복하게 된다(S7).The extracted face region parameter is used as a reference material for tracking the movement of a face in an input image afterwards. When the face region is detected as described above, the input image is a color probabilistic method using a color model of the face. By tracking the face (S6), the process of extracting and updating the face position and detection-related parameters every time is repeated (S7).

이하, 상기와 같이 이루어진 본 발명의 구체적인 동작 및 작용에 대하여 설명하기로 한다.Hereinafter, the specific operation and action of the present invention made as described above will be described.

먼저, 상기 얼굴의 검출 및 추적에서 사용하는 색깔 확정적 방법과 확률적 방법의 기준이 되는 얼굴의 컬러 모델에 대해서 설명한다.First, a color model of a face serving as a reference for the color-deterministic method and the stochastic method used in the face detection and tracking will be described.

카메라로부터 입력된 RGB 영상은 밝기 변화에 민감하므로, 정규화된 r, g 값(r=R/(R+G+B), g=G/(R+G+B))을 사용하고, 얼굴로 추정되는 여러 개의 얼굴 이미지로부터 정규화된 r,g 의 평균 및 공분산을 계산하여 얼굴의 컬러 모델의 속성을 구한다.The RGB image input from the camera is sensitive to changes in brightness, so use the normalized r, g values (r = R / (R + G + B), g = G / (R + G + B)) The average and covariance of the normalized r, g are calculated from the estimated face images to obtain the attributes of the color model of the face.

이후, 색상은 모두 정규화된 값을 사용하는 것으로 할 때, r,g에 대한 평균(m)과 공분산(K)을 표현하면 다음 수학식 1과 같다.Thereafter, when the colors are all normalized values, the mean (m) and the covariance (K) for r and g are expressed by Equation 1 below.

, ,

얼굴의 컬러 모델에 대한 색(c)에 대한 거리 값(d)은 다음 수학식 2로 표현한다.The distance value d for the color c for the color model of the face is expressed by the following equation.

, d=[c-m]^T K^-1 [c-m] , d = [cm] ^ TK ^ -1 [cm]

다음, 상기 컬러 모델을 이용한 색깔 확정적 방법에 의한 얼굴 후보 선정과정에 대해 구체적으로 설명한다.Next, a process of selecting a face candidate by a color determination method using the color model will be described in detail.

일단, 주어진 영상에 대하여 얼굴 색 영역과 얼굴 색 영역이 아닌 부분은, 얼굴 컬러 모델의 평균값(m)과 공분산(K)을 이용하여 구할 수 있다.First, a portion of the face color region and the non-face color region with respect to a given image may be obtained using the mean value m and the covariance K of the face color model.

즉, 입력된 영상의 각 픽셀(x,y)에 대한 색(c(x,y))과, 얼굴의 컬러 모델에 대한 거리값(d(x,y))이 일정 범위(k)안에 들어오면 얼굴 색으로 판정한다.That is, the color (c (x, y)) for each pixel (x, y) of the input image and the distance value (d (x, y)) for the color model of the face fall within a predetermined range (k). If it comes, it is determined by the color of the face.

상기 수학식 3에서 얼굴인 영역은 1의 값을(즉, 거리값(d(x,y))이 일정 범위(k)이내 이면 1의 값을), 얼굴 이외의 영역은 0의 값을(즉, 거리값(d(x,y))이 일정 범위(k)를 벗어나면 0의 값을) 가지게 된다.In Equation 3, an area that is a face has a value of 1 (that is, a value of 1 when the distance value d (x, y) is within a predetermined range k), and an area other than a face has a value of 0 ( That is, when the distance value d (x, y) is out of a predetermined range k, the distance value d (x, y) has a value of zero.

상기 과정을 거쳐 얼굴 후보 영역을 선정하기 위해서는, 도2에 도시된 바와 같이 각 영역을 레이블링 한 후에 영역을 포함하는 최소 사각형을 구하여 얼굴 후보를 선정한다.In order to select a face candidate region through the above process, as shown in FIG. 2, after labeling each region, a face rectangle is selected by obtaining a minimum rectangle including the region.

다음, 방향 이미지를 이용한 얼굴의 타원 핏팅과 그에 의한 얼굴 후보 선정과정을 설명한다.Next, an elliptic fitting of a face using a direction image and a process of selecting a face candidate are described.

일단, 카메라로부터 입력된 RGB 영상은 도3에 도시된 바와 같이 흑백 이미지로 변환한다.First, the RGB image input from the camera is converted into a black and white image as shown in FIG.

상기 변환된 흑백 이미지의 밝기 정보는 평면에 대한 높이 정보로 볼 수 있고, 각 픽셀에 대하여 그 표면에 가장 적합한 평면과 그 평면에 수직한 벡터와, 구한 수직 벡터에 대하여 수직하고 평면 위에 있는 접선 벡터를 구할 수 있고, 그 결과는 도3의 방향 이미지의 형태로 나타난다.The brightness information of the converted black and white image can be viewed as height information about a plane, and for each pixel, a plane best suited for the surface and a vector perpendicular to the plane, and a tangent vector perpendicular to and on the plane of the obtained vertical vector. Can be obtained, and the result is shown in the form of the directional image of FIG.

얼굴을 타원으로 모델링하면 얼굴을 장축, 단축 길이로 표현이 가능하고, 접선벡터의 기울기(m), 장축(b), 단축값(a)이 주어지면, 얼굴의 중심 위치(x_c,y_c)를 다음 수학식 4로부터 구할 수 있다.Modeling the face as an ellipse enables the face to be represented by its long axis and short axis length, and given the inclination (m), long axis (b), and short axis value (a) of the tangential vector, the center position of the face (x_c, y_c) It can be obtained from the following equation (4).

, ,

즉, 주어진 방향 이미지의 한 픽셀에 대하여 타원 중심(x_c,y_c)을 구하고, 그 때의 접선벡터의 크기를 가중치로 곱하여 누적하는 과정을 전체 이미지에 대하여 수행하고, 누적한 값들 중 가장 집중되고 일정 값 이상인 곳을 도3에 도시된 바와 같이 해당 타원에 적합한 얼굴 후보로 선정한다.That is, the elliptic center (x_c, y_c) is obtained for one pixel of a given direction image, and the process of accumulating the tangent vector by multiplying the magnitude of the tangent vector by weight is performed on the entire image, and the most concentrated and constant of the accumulated values. The place above the value is selected as a face candidate suitable for the corresponding ellipse as shown in FIG.

이에 따라, 그 결과는 도3의 타원 템플릿에 대한 얼굴 후보 영역처럼 표현된다.Accordingly, the result is expressed as a face candidate region for the elliptic template of FIG.

다음 상기 각 방법에 의해 선정된 얼굴 후보 영역으로부터, 신뢰성이 가장 높은 영역을 최종 얼굴로 검출하기 위해서는, 상기 색깔 확정적 방법에 의한 얼굴 후보의 선정 영역과, 방향 이미지 및 얼굴의 타원 핏팅에 의한 얼굴 후보의 선정 영역이 겹치는 정도를 점수화 하여, 일정 수준 이상의 가장 높은 점수를 얻은 후보 영역을 도4에 도시된 바와 같이 최종 얼굴 검출 영역으로 확정한다.Next, in order to detect the most reliable area as the final face from the face candidate areas selected by the above methods, the face candidates by selecting the area of the face candidate by the color-deterministic method, the directional image and the elliptic fitting of the face The degree of overlapping of the selected regions of S is scored, and the candidate region having the highest score over a predetermined level is determined as the final face detection region as shown in FIG.

색깔 확정적 방법에 의한 얼굴 후보 영역을 C, 타원 핏팅에 의한 얼굴 후보 영역을 E 라 할 때, 두 영역이 겹치는 정도는 다음 수학식 5로 표현할 수 있다.When the face candidate area by the color deterministic method is C and the face candidate area by the elliptic fitting is E, the degree of overlap between the two areas can be expressed by the following equation (5).

또는, or,

다음, 상기와 같이 두 가지 방법에 의해 검출된 후보 영역에서 최종 얼굴 영역이 검출되면, 이후 입력되는 영상에 대해서는 색깔 확률적인 방법에 의해 얼굴을 추적하게 된다.Next, when the final face area is detected in the candidate area detected by the two methods as described above, the face is tracked by the color probabilistic method for the image to be input later.

색깔 확률적인 방법에 의한 얼굴 추적은, 도5에 도시된 바와 같이 입력받은 이미지에 대하여 n개의 부모 픽셀(parent pixels)로부터, n개의 자식 픽셀(offspring pixels)을 선택하여 얼굴을 추적하는 방법이다.Face tracking by the color probabilistic method is a method of tracking a face by selecting n child pixels from n parent pixels with respect to an input image as shown in FIG. 5.

자식 샘플을 선택하기 위해서는 부모 픽셀들의 컬러 모델 속성과의 색상 거리를 인자로 하는 확률(P1)과, 주어진 얼굴의 컬러 모델과 색상 거리를 인자로 하는 확률(P2)을 구하여, 두 확률의 곱(P=P1*P2)에 의해 확률값(P)을 구하고, 그 확률값(P)에 비례하게 자식 픽셀을 확률적으로 선택한다.To select a child sample, the probability P1 of the color model attribute of the parent pixels as the factor and the probability P2 of the color model and the color distance of the given face are calculated. Probability value P is calculated by P = P1 * P2), and child pixels are selected probabilistically in proportion to the probability value P.

다음, 선택된 픽셀의 평균 위치를 계산하여 얼굴의 위치를 구하고, 자식 픽셀의 확률의 총합이 일정 수준 이상의 값을 가지면 얼굴 추적이 유효한 것으로 판단한다.Next, the position of the face is calculated by calculating the average position of the selected pixel, and when the sum of the probabilities of the child pixels has a predetermined value or more, it is determined that the face tracking is effective.

다음의 수학식 6은 확률값을 구하는 식을 표현한 것이고, 도5는 색깔 확률적인 방법에 의한 얼굴 추적의 예를 보인 것이다.Equation 6 below is a formula for obtaining a probability value, and FIG. 5 shows an example of face tracking by a color probabilistic method.

여기서, here,

상기 수학식 6에서 d1, d2는 수학식 2로 구할 수 있는 색상 거리로서, d1은 해당 픽셀 색상과 얼굴의 컬러 모델과의 색상에 대한 거리이며, d2는 해당 픽셀 색상과 부호 픽셀의 컬러 모델과의 색상 거리이다.In Equation 6, d1 and d2 are color distances obtained by Equation 2, d1 is a distance between the pixel color and the color model of the face, and d2 is a color model of the pixel color and the sign pixel. Color distance.

다음, 상기와 같이 검출되거나 새로 추적되면 얼굴의 위치 및 각종 파라메터 정보는 새로운 값으로 업데이트되고 다음 이미지로부터 얼굴의 움직임을 추적하기 위한 정보로 사용된다.Next, when detected or newly tracked as described above, the position and various parameter information of the face are updated to a new value and used as information for tracking the movement of the face from the next image.

이상에서 설명한 바와 같이 본 발명 실시간 얼굴 검출 및 움직임 추적 방법은, 로봇과 같이 제한된 컴퓨팅 파워와 임베디드 시스템 환경에서, 실시간으로 얼굴을 검출하여 그 움직임을 추적할 수 있도록 하는 효과가 있다.As described above, the real-time face detection and motion tracking method of the present invention has an effect of detecting a face in real time in a limited computing power and embedded system environment such as a robot to track its movement.

또한, 본 발명은 얼굴의 색깔정보와 모양정보를 동시에 이용하여 얼굴을 검출하고, 검출된 얼굴을 색깔 확률적인 방법에 의해 추적함으로써, 주위 환경의 변화에 강인하고 신뢰성 있는 얼굴 영역을 실시간으로 검출 추적할 수 있도록 하는 효과가 있다.In addition, the present invention detects the face by using the color information and shape information of the face at the same time, by tracking the detected face by the color probabilistic method, to detect and track the face area that is robust to the change of the surrounding environment in real time It has the effect of making it possible.

또한, 본 발명은 적은 컴퓨팅 파워에 의해 동작이 가능하기 때문에, 로봇이나, 게임기, 휴대폰, PDA 등의 휴대용 장치에 적용이 가능하여, 새로운 부가가치를 창출할 수 있도록 하는 효과가 있다.In addition, since the present invention can operate with a small amount of computing power, the present invention can be applied to a portable device such as a robot, a game machine, a mobile phone, a PDA, and the like, thereby creating a new added value.

Claims (8)

카메라를 통해 캡쳐된 영상을 입력받는 제1단계와;A first step of receiving an image captured by the camera; 상기 입력된 영상이 처음 입력된 영상인지, 이전에 입력된 영상의 변형된 영상인지를 판단하는 제2단계와;Determining whether the input image is a first input image or a modified image of a previously input image; 상기 입력된 영상이 처음 입력된 영상일 경우, 그 영상으로부터 얼굴 영역을 검출하여 그 얼굴 영역의 관련 파라메터를 검출 저장하는 제3단계와;A third step of detecting a face region from the image and detecting and storing a related parameter of the face region when the input image is the first input image; 상기 입력된 영상이 이전에 입력된 영상의 변형된 영상일 경우, 이미 검출 저장된 얼굴 영역의 파라메터 정보를 참조하여 얼굴의 움직임을 추적하는 제4단계로 이루어진 것을 특징으로 하는 실시간 얼굴 검출 및 움직임 추적 방법.If the input image is a modified image of a previously input image, a real-time face detection and motion tracking method comprising a fourth step of tracking a face movement by referring to parameter information of a face region already detected and stored . 제1항에 있어서, 상기 처음 입력된 영상으로부터의 얼굴 영역 검출 과정은,The method of claim 1, wherein the detecting of the face region from the first input image comprises: 얼굴의 컬러 모델을 이용한 색깔 확정적인 방법으로부터, 상기 영상의 얼굴 후보 영역을 선정하는 제1과정과;A first step of selecting a face candidate region of the image from a color determination method using a face color model; 방향 이미지를 이용한 얼굴의 타원 핏팅(fitting)에 의해, 상기 영상의 얼굴 후보 영역을 선정하는 제2과정과;A second process of selecting a face candidate region of the image by elliptic fitting of a face using a direction image; 상기 색깔 확정적인 방법과 타원 핏팅에 의한 두 가지 방법에 의해, 두 후보 영역이 겹치는 정도로 최종 얼굴 영역을 선택하는 제3과정으로 이루어진 것을 특징으로 하는 실시간 얼굴 검출 및 움직임 추적 방법.And a third process of selecting the final face region to the extent that the two candidate regions overlap by the two methods of the color-deterministic method and the elliptic fitting. 제1항에 있어서, 상기 입력된 영상으로부터의 얼굴 움직임 추적은, 얼굴의 컬러 모델을 이용한 색깔 확률적인 방법에 의해 추적하도록 이루어진 것을 특징으로 하는 실시간 얼굴 검출 및 움직임 추적 방법.The method of claim 1, wherein the face motion tracking from the input image is tracked by a color probabilistic method using a color model of a face. 제1항에 있어서, 상기 얼굴 영역으로부터 검출되는 파라메터 정보는, 얼굴의 위치와 크기, 모양, 색깔 등의 정보가 포함되는 것을 특징으로 하는 실시간 얼굴 검출 및 움직임 추적 방법.The real-time face detection and motion tracking method of claim 1, wherein the parameter information detected from the face region includes information such as the position, size, shape, and color of the face. 제2항에 있어서, 얼굴의 컬러 모델은 얼굴로 추정되는 여러 개의 얼굴 이미지로부터 RGB 영상을 정규화한 값(r,g) 의 평균(m) 및 공분산(K)을 계산하여 속성을 구하고, 얼굴의 컬러 모델에 대한 색(c)에 대한 거리 값(d)은 다음 수학식에 의해 구하는 것을 특징으로 하는 실시간 얼굴 검출 및 움직임 추적 방법.The color model of claim 2, wherein the color model of the face is obtained by calculating an average (m) and a covariance (K) of values (r, g) of normalizing an RGB image from a plurality of face images estimated as faces, and obtaining attributes. The distance value (d) for the color (c) for the color model is obtained by the following equation. (수학식)(Mathematical formula) , d=[c-m]^T K^-1 [c-m] , d = [cm] ^ TK ^ -1 [cm] 제2항에 있어서, 상기 얼굴 컬러 모델을 이용한 색깔 확정적 방법은, 입력된 영상의 각 픽셀(x,y)에 대한 색(c(x,y))과, 얼굴의 컬러 모델에 대한 거리값(d(x,y))이 일정 범위(k)안에 들어오면 얼굴 색으로 판정하고, 각 영역을 레이블링 한 후에 영역을 포함하는 최소 사각형을 구하여 얼굴 후보 영역을 선정하는것임을 특징으로 하는 실시간 얼굴 검출 및 움직임 추적 방법.The method of claim 2, wherein the color determination method using the face color model includes a color c (x, y) for each pixel (x, y) of an input image and a distance value (r) for the color model of the face. real-time face detection, characterized in that if the d (x, y)) falls within a predetermined range (k), the face color is determined, and after labeling each area, the face candidate area is selected by obtaining a minimum rectangle including the area. Motion tracking method. 제2항에 있어서, 상기 방향 이미지를 이용한 얼굴의 타원 핏팅 방법은, 얼굴을 타원으로 모델링하여, 그 모델링된 타원의 접선벡터의 기울기(m), 장축값(b), 단축값(a)에 의해 주어진 방향 이미지의 한 픽셀에 대한 얼굴의 중심 위치(x_c,y_c)를 다음 수학식에 의해 구하고, 그 때의 접선벡터의 크기를 가중치로 곱하여 누적하는 과정을 전체 이미지에 대하여 수행하고, 누적한 값들 중 가장 집중되고 일정 값 이상인 곳을 해당 타원에 적합한 얼굴 후보로 선정하는 것을 특징으로 하는 실시간 얼굴 검출 및 움직임 추적 방법.The method of claim 2, wherein the elliptic fitting method of the face using the directional image is performed by modeling the face as an ellipse, and applying a gradient (m), a long axis value (b), and a short axis value (a) of the tangent vector of the modeled ellipse. The central position (x_c, y_c) of the face with respect to one pixel of the given direction image is obtained by the following equation, and the process of multiplying the magnitude of the tangent vector by the weight by weight is accumulated for the entire image, Real-time face detection and motion tracking method characterized in that the most concentrated of the values and a predetermined value or more as a face candidate suitable for the ellipse. (수학식)(Mathematical formula) , , 제2항에 있어서, 상기 색깔 확정적 방법과 타원 핏팅에 의해 선정된 얼굴 후보 영역으로부터, 신뢰성이 가장 높은 영역을 최종 얼굴로 검출하기 위한 방법은, 상기 색깔 확정적 방법에 의한 얼굴 후보의 선정 영역과, 방향 이미지 및 얼굴의 타원 핏팅에 의한 얼굴 후보의 선정 영역이 겹치는 정도를 점수화 하여, 일정 수준 이상의 가장 높은 점수를 얻은 후보 영역을 최종 얼굴 검출 영역으로 확정하도록 이루어진 것을 특징으로 하는 실시간 얼굴 검출 및 움직임 추적 방법.The method according to claim 2, wherein the method for detecting the most reliable region as the final face from the face candidate region selected by the color determining method and the elliptic fitting comprises: a selection region of the face candidate by the color determining method; Real-time face detection and motion tracking, characterized by scoring the overlapping degree of the selection region of the face candidate by the direction image and the elliptic fitting of the face to determine the candidate region having the highest score over a predetermined level as the final face detection region. Way.
KR1020020013634A 2002-03-13 2002-03-13 Realtime face detection and moving tracing method KR20030073879A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020020013634A KR20030073879A (en) 2002-03-13 2002-03-13 Realtime face detection and moving tracing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020020013634A KR20030073879A (en) 2002-03-13 2002-03-13 Realtime face detection and moving tracing method

Publications (1)

Publication Number Publication Date
KR20030073879A true KR20030073879A (en) 2003-09-19

Family

ID=32224669

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020020013634A KR20030073879A (en) 2002-03-13 2002-03-13 Realtime face detection and moving tracing method

Country Status (1)

Country Link
KR (1) KR20030073879A (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100474848B1 (en) * 2002-07-19 2005-03-10 삼성전자주식회사 System and method for detecting and tracking a plurality of faces in real-time by integrating the visual ques
EP1688746A2 (en) 2005-02-08 2006-08-09 S.I.T. S.r.l. Apparatus for monitoring human body's movements in sport or medical domain, and its use
KR100729265B1 (en) * 2006-01-20 2007-06-15 학교법인 대전기독학원 한남대학교 A face detection method using difference image and color information
KR100817298B1 (en) * 2005-12-08 2008-03-27 한국전자통신연구원 Method for detecting and tracking both hands
GB2448221A (en) * 2007-04-02 2008-10-08 Samsung Techwin Co Ltd Digital camera with automatic alignment for self portraits
KR100870235B1 (en) * 2007-08-27 2008-11-24 성균관대학교산학협력단 Image processing device capable of measuring characteristic of subject for photography
CN104484038A (en) * 2014-12-16 2015-04-01 广东欧珀移动通信有限公司 Method and device for controlling intelligent equipment
WO2020159241A1 (en) * 2019-01-30 2020-08-06 삼성전자 주식회사 Method for processing image, and apparatus therefor
CN113658223A (en) * 2021-08-11 2021-11-16 山东建筑大学 Multi-pedestrian detection and tracking method and system based on deep learning
CN117519488A (en) * 2024-01-05 2024-02-06 四川中电启明星信息技术有限公司 Dialogue method and dialogue system of dialogue robot

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000060745A (en) * 1999-03-19 2000-10-16 윤덕용 A Real time face tracking technique using face's color model and ellipsoid approximation model
KR20010057239A (en) * 1999-12-20 2001-07-04 오길록 Face detection system and method using the eye blinking information in video sequences
KR20010102881A (en) * 2001-10-09 2001-11-17 하영균 Method and System for sensing Three-Dimensional body motion using color marker
KR20020032765A (en) * 2000-10-27 2002-05-04 박호군 Visual Tracking Method by Color Information

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000060745A (en) * 1999-03-19 2000-10-16 윤덕용 A Real time face tracking technique using face's color model and ellipsoid approximation model
KR20010057239A (en) * 1999-12-20 2001-07-04 오길록 Face detection system and method using the eye blinking information in video sequences
KR20020032765A (en) * 2000-10-27 2002-05-04 박호군 Visual Tracking Method by Color Information
KR20010102881A (en) * 2001-10-09 2001-11-17 하영균 Method and System for sensing Three-Dimensional body motion using color marker

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100474848B1 (en) * 2002-07-19 2005-03-10 삼성전자주식회사 System and method for detecting and tracking a plurality of faces in real-time by integrating the visual ques
EP1688746A2 (en) 2005-02-08 2006-08-09 S.I.T. S.r.l. Apparatus for monitoring human body's movements in sport or medical domain, and its use
KR100817298B1 (en) * 2005-12-08 2008-03-27 한국전자통신연구원 Method for detecting and tracking both hands
KR100729265B1 (en) * 2006-01-20 2007-06-15 학교법인 대전기독학원 한남대학교 A face detection method using difference image and color information
US7973848B2 (en) 2007-04-02 2011-07-05 Samsung Electronics Co., Ltd. Method and apparatus for providing composition information in digital image processing device
GB2448221A (en) * 2007-04-02 2008-10-08 Samsung Techwin Co Ltd Digital camera with automatic alignment for self portraits
KR100870235B1 (en) * 2007-08-27 2008-11-24 성균관대학교산학협력단 Image processing device capable of measuring characteristic of subject for photography
CN104484038A (en) * 2014-12-16 2015-04-01 广东欧珀移动通信有限公司 Method and device for controlling intelligent equipment
WO2020159241A1 (en) * 2019-01-30 2020-08-06 삼성전자 주식회사 Method for processing image, and apparatus therefor
US20220114836A1 (en) * 2019-01-30 2022-04-14 Samsung Electronics Co., Ltd. Method for processing image, and apparatus therefor
CN113658223A (en) * 2021-08-11 2021-11-16 山东建筑大学 Multi-pedestrian detection and tracking method and system based on deep learning
CN113658223B (en) * 2021-08-11 2023-08-04 山东建筑大学 Multi-row person detection and tracking method and system based on deep learning
CN117519488A (en) * 2024-01-05 2024-02-06 四川中电启明星信息技术有限公司 Dialogue method and dialogue system of dialogue robot
CN117519488B (en) * 2024-01-05 2024-03-29 四川中电启明星信息技术有限公司 Dialogue method and dialogue system of dialogue robot

Similar Documents

Publication Publication Date Title
US10762376B2 (en) Method and apparatus for detecting text
Tian et al. Toward a computer vision-based wayfinding aid for blind persons to access unfamiliar indoor environments
US7227893B1 (en) Application-specific object-based segmentation and recognition system
US7957560B2 (en) Unusual action detector and abnormal action detecting method
Ivanchenko et al. Detecting and locating crosswalks using a camera phone
CN109341692B (en) Line navigation method and robot
Tsai et al. Road sign detection using eigen colour
CN101577005A (en) Target tracking method and device
US7110023B2 (en) Method and apparatus for target object extraction from an image
Gruenwedel et al. An edge-based approach for robust foreground detection
KR20030073879A (en) Realtime face detection and moving tracing method
CN111767854B (en) SLAM loop detection method combined with scene text semantic information
KR20110021500A (en) Method for real-time moving object tracking and distance measurement and apparatus thereof
CN107045630B (en) RGBD-based pedestrian detection and identity recognition method and system
Ückermann et al. Realtime 3D segmentation for human-robot interaction
CN113780040A (en) Lip key point positioning method and device, storage medium and electronic equipment
KR100543706B1 (en) Vision-based humanbeing detection method and apparatus
Khaliluzzaman et al. Stairways detection based on approach evaluation and vertical vanishing point
US10140509B2 (en) Information processing for detection and distance calculation of a specific object in captured images
Zheng et al. Shadow removal for pedestrian detection and tracking in indoor environments
Nakashima et al. Object detection by using interframe difference algorithm
CN116432160A (en) Slider verification code identification method and system based on RPA and LBP characteristics
KR100703528B1 (en) Apparatus and method for recognizing an image
Choudri et al. Robust background model for pixel based people counting using a single uncalibrated camera
Elleuch et al. New ground plane segmentation method for electronic cane

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E601 Decision to refuse application