KR20030073879A - Realtime face detection and moving tracing method - Google Patents
Realtime face detection and moving tracing method Download PDFInfo
- Publication number
- KR20030073879A KR20030073879A KR1020020013634A KR20020013634A KR20030073879A KR 20030073879 A KR20030073879 A KR 20030073879A KR 1020020013634 A KR1020020013634 A KR 1020020013634A KR 20020013634 A KR20020013634 A KR 20020013634A KR 20030073879 A KR20030073879 A KR 20030073879A
- Authority
- KR
- South Korea
- Prior art keywords
- face
- image
- color
- region
- input image
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/162—Detection; Localisation; Normalisation using pixel segmentation or colour matching
Abstract
Description
본 발명은 실시간 얼굴 검출 및 움직임 추적 방법에 관한 것으로, 특히 로봇과 같이 제한된 컴퓨팅 파워와 임베디드 시스템 환경에서, 실시간으로 얼굴을 검출하여 그 움직임을 추적할 수 있도록 하는, 실시간 얼굴 검출 및 움직임 추적 방법에 관한 것이다.The present invention relates to a real-time face detection and motion tracking method, and more particularly to a real-time face detection and motion tracking method for detecting a face in real time and tracking its movement in a limited computing power and embedded system environment, such as a robot. It is about.
최근, 카메라(CMOS, CCD, ...)로 입력되는 이미지로부터 얼굴을 검출, 추적, 인식하는 화상처리(vision processing)의 응용 분야가 점차 가정용 로봇, 게임기, 휴대폰, PDA로 확대되고 있으며, 이러한 휴대용 또는 이동형 장치에서 효과적으로 얼굴을 검출하고, 추적 및 인식하는 방법의 필요성이 증대되고 있다.Recently, application fields of vision processing for detecting, tracking, and recognizing faces from images inputted by cameras (CMOS, CCD, ...) are gradually expanding to home robots, game machines, mobile phones, and PDAs. There is an increasing need for a method of effectively detecting, tracking and recognizing faces in portable or mobile devices.
즉, 상기와 같은 휴대용 또는 이동형 장치는, 그 특성상 크기와 컴퓨팅 파워 등의 제한을 받으면서도 실시간 처리를 요하기 때문에, 컴퓨팅 파워를 적게 소모하면서 동작의 신뢰성이 저하되지 않도록 하는 방법이 요구되고 있는 것이다.That is, such portable or mobile devices require real-time processing while being limited in size and computing power, and thus require a method of reducing the reliability of the operation while consuming less computing power.
가령, 로봇과 사용자가 대화를 하고 있다고 가정할 경우, 로봇은 대화자의 움직임에 따라(특히, 대화 상태에서는 상대의 얼굴을 응시하고 있게 되므로, 대화 상대의 얼굴 움직임에 따라) 그 움직이는 방향에 맞추어 얼굴을 정확히 응시할 수 있도록 움직여줄 필요가 있는 것이다.For example, assuming that the robot and the user are talking, the robot faces the face according to the direction of the movement according to the movement of the talker (especially, as the face of the talker moves, since the user is staring at the other's face in the chat state). You need to move so that you can stare accurately.
상기와 같은 얼굴의 검출 및 추적에 대한 화상처리 방법은, 얼굴 인식(face identification), 표정 인식(face expression recognition) 등의 분야의 전단계로서도 매우 중요한데, 이러한 얼굴의 검출 및 추적, 인식을 위한 화상처리 방법이 실제 환경에 적용되기 위해서는 다음의 몇 가지 조건을 만족해야 한다.The image processing method for face detection and tracking as described above is very important as a previous step in the field of face identification, face expression recognition, and the like. Image processing for face detection, tracking, and recognition In order for the method to be applied in a real environment, several conditions must be met.
첫째, 실시간 처리가 가능해야 하고, 둘째, 특별한 조명 조건이 없어야 하며, 셋째, 사용자가 특별한 장비를 착용하거나 칠할 필요가 없어야 하고, 넷째, 저렴한 비용이 들어야 한다.First, real-time processing must be possible, second, there must be no special lighting conditions, third, the user need not wear or paint special equipment, and fourth, low cost.
특히, 가정용 로봇, 게임기, 휴대폰, PDA 등의 휴대용 장치에 적용하기 위해서는 실시간 처리 능력과 비용이 가장 중요한 조건이 된다.In particular, real-time processing power and cost are the most important conditions for application to portable devices such as home robots, game machines, mobile phones, and PDAs.
종래의 기술에서 얼굴을 검출, 추적할 수 있는 방법으로는, 연속적인 영상에 대해 계속 차영상(differential image)을 구하여 얼굴을 추적하는 방법, 얼굴의 주요 부위에 마크를 붙이고 이를 추적하는 방법, 광흐름(optical flow)을 이용하는 방법, 얼굴 윤곽선을 추출하는 방법, 컬러 모델을 이용하여 얼굴 영역을 얻는 방법 등이 있다.In the conventional technology, a method of detecting and tracking a face includes a method of tracking a face by continuously obtaining a differential image of a continuous image, a method of marking a mark on a main part of the face, and tracking the light. There is a method using optical flow, a method of extracting facial contours, a method of obtaining a facial region using a color model, and the like.
그러나, 차영상을 이용하는 경우에는 배경의 복잡성 또는 동적 배경에 대하여 적용하기 어려우며, 얼굴의 주요 부위에 마크를 붙이는 경우에는 실제 환경에서 적용하기 어려우며, 광흐름을 이용한 방법과 얼굴 윤곽선 추출 방법은 많은 계산 시간을 요하기 때문에 실시간 처리에 부적합한 문제점이 있다.However, it is difficult to apply the background complexity or dynamic background when the difference image is used, and it is difficult to apply the mark on the main part of the face in the real environment. There is a problem that is not suitable for real time processing because it requires time.
또한, 컬러 모델을 이용하여 얼굴 영역을 분할하는 방법은 색상에만 의존하므로 외부 환경에 민감한 문제가 있으며, 상기 방법들 모두 얼굴의 검출과 추적 동작을 구분하지 않고 적용함으로써, 상황에 따라 얼굴 검출과 추적 동작에서 상이한 특성 및 효과가 나타날 수 있는 문제점이 있다.In addition, the method of segmenting the face region using the color model is sensitive to the external environment because it depends only on the color, and all of the above methods are applied without discriminating the detection and the tracking operation of the face, thereby detecting and tracking the face according to the situation. There is a problem that different characteristics and effects may appear in operation.
따라서, 본 발명은 상기와 같은 종래의 문제점을 해결하기 위하여 창출한 것으로, 로봇과 같이 제한된 컴퓨팅 파워와 임베디드 시스템 환경에서, 실시간으로 얼굴을 검출하여 그 움직임을 추적할 수 있도록 하는, 실시간 얼굴 검출 및 움직임 추적 방법을 제공함에 그 목적이 있다.Therefore, the present invention has been created to solve the above-mentioned conventional problems, real-time face detection and tracking to detect the face in real time in a limited computing power and embedded system environment, such as a robot The purpose is to provide a motion tracking method.
이와 같은 목적을 달성하기 위한 본 발명은, 카메라를 통해 캡쳐된 영상을 입력받는 제1단계와; 상기 입력된 영상이 처음 입력된 영상인지, 이전에 입력된 영상의 변형된 영상인지를 판단하는 제2단계와; 상기 입력된 영상이 처음 입력된 영상일 경우, 그 영상으로부터 얼굴 영역을 검출하여 그 얼굴 영역의 관련 파라메터를 검출 저장하는 제3단계와; 상기 입력된 영상이 이전에 입력된 영상의 변형된 영상일 경우, 이미 검출 저장된 얼굴 영역의 파라메터 정보를 참조하여 얼굴의 움직임을 추적하는 제4단계로 이루어진 것을 특징으로 한다.The present invention for achieving the above object, the first step of receiving an image captured by the camera; Determining whether the input image is a first input image or a modified image of a previously input image; A third step of detecting a face region from the image and detecting and storing a related parameter of the face region when the input image is the first input image; When the input image is a modified image of a previously input image, a fourth step of tracking a face movement by referring to parameter information of a face region already detected and stored is performed.
도 1은 본 발명에 따른 실시간 얼굴 검출 및 움직임 추적 방법을 보인 흐름도.1 is a flow chart showing a real time face detection and motion tracking method according to the present invention.
도 2는 본 발명에 따른 색깔 확정적인 방법에 의한 얼굴 후보 영역의 선택 방법을 설명하기 위한 예시도.2 is an exemplary view for explaining a method of selecting a face candidate region by a color determining method according to the present invention.
도 3은 본 발명에 따른 타원 핏팅에 의한 얼굴 후보 영역의 선택 방법을 설명하기 위한 예시도.3 is an exemplary view for explaining a method of selecting a face candidate region by elliptic fitting according to the present invention.
도 4는 상기 도2 및 도3에 의해 검출된 얼굴 후보 영역에서 두 영역이 겹치는 정도에 의해 최종 검출된 얼굴 영역의 예시도.4 is an exemplary view of a face region finally detected by the degree of overlap of two regions in the face candidate region detected by FIGS. 2 and 3;
도 5는 본 발명에 따른 색깔 확률적인 방법에 의한 얼굴 추적 방법을 설명하기 위한 예시도.5 is an exemplary view for explaining a face tracking method by the color probabilistic method according to the present invention.
본 발명은 가정용 로봇, 게임기, 휴대폰, PDA 등의 휴대용 장치에서 적용 가능하도록 하기 위하여, 얼굴의 색깔 정보와 얼굴의 모양 정보를 동시에 이용하여 얼굴을 검출하고, 색깔 확률적인 방법을 이용하여 검출된 얼굴을 추적함으로써, 검출 동작과 추적 동작의 신뢰성이 증가하고 외부 환경 변화에 강인하며, 각 동작의 알고리즘에 대한 코드화시 정수로 근사화하여 계산량을 감소시킴으로써, 실시간 연산이 가능하도록 하는 특징이 있다.The present invention detects a face by simultaneously using the color information of the face and the shape of the face in order to be applicable to portable devices such as home robots, game machines, mobile phones, PDAs, etc. By tracking, the reliability of the detection operation and the tracking operation is increased, and it is robust to external environment changes, and the calculation amount is reduced by approximating to an integer when coding the algorithm of each operation, thereby real-time operation is possible.
즉, 본 발명은 얼굴의 검출 과정 및 한번 검출된 얼굴에 대한 추적 과정을구분하여, 각 과정에서 가장 효과적인 특성을 갖는 방법을 적용한 것으로, 특히 얼굴 추적 과정은 환경변화에 강인하고 계산량이 적은 색깔 확률적인 방법을 이용함으로써, 얼굴 검출 및 추적의 신뢰성과 효율성을 높일 수 있도록 하는 특징이 있다.That is, the present invention distinguishes the face detection process from the face detection process and applies the method having the most effective characteristics in each process. In particular, the face tracking process is robust to environmental changes and has a low probability of color calculation. By using the conventional method, the reliability and efficiency of face detection and tracking can be improved.
이하, 본 발명의 바람직한 실시예를 첨부한 도면을 참조하여 설명하기로 한다. 하기의 설명에서 구체적인 처리흐름과 같은 많은 특정 상세들은 본 발명의 보다 전반적인 이해를 제공하기 위한 것으로, 이들 특정 상세들 없이 본 발명이 실시될 수 있다는 것은 이 기술분야에서 통상의 지식을 가진 자에게는 자명할 것이다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. Many specific details, such as specific process flows, are provided in the following description to provide a more general understanding of the invention, and it is obvious to those skilled in the art that the present invention may be practiced without these specific details. something to do.
그리고, 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 공지 기능 및 구성에 대한 상세한 설명은 생략한다.In addition, detailed description of well-known functions and structures which are determined to unnecessarily obscure the subject matter of the present invention will be omitted.
도1은 본 발명에 따른 실시간 얼굴 검출 및 움직임 추적 방법을 보인 흐름도로서, 카메라(CCD, CMOS, ...)를 통해 캡쳐된 영상을 입력받아(S1), 이전 단계로부터 얼굴이 검출되었는지 여부를 판단한다(S2).1 is a flow chart illustrating a real-time face detection and motion tracking method according to the present invention, receiving a captured image through a camera (CCD, CMOS, ...) (S1), whether or not a face is detected from the previous step Determine (S2).
즉, 상기 과정은 카메라를 통해 입력된 영상이 처음 입력된 영상이 아닐 경우, 이미 이전 영상으로부터 얼굴위치와 각종 파라메터(크기, 모양, 색깔 등)가 검출 저장되어 있을 것이므로, 그 파라메터를 참조하여 얼굴의 움직임을 추적하도록 하고, 처음 입력된 영상일 경우 얼굴위치와 상기 파라메터 들을 검출하도록 선택하는 것이다.In other words, if the image input through the camera is not the first image, the face position and various parameters (size, shape, color, etc.) have already been detected and stored from the previous image. In order to track the movement of the first input image, the face position and the parameters are selected to be detected.
상기 판단 결과, 만약 처음으로 입력된 영상일 경우, 얼굴의 컬러 모델을 이용한 색깔 확정적인 방법으로부터 얼굴 후보 영역을 선정하고(S3), 방향 이미지를이용한 얼굴의 타원 핏팅(fitting)에 의해 얼굴 후보 영역을 선정한다(S4).As a result of the determination, if the image is input for the first time, the face candidate region is selected from a color-deterministic method using the color model of the face (S3), and the face candidate region by elliptic fitting of the face using a direction image. To select (S4).
다음, 상기 두 가지 방법에 의해 검출된 얼굴 후보 영역을 동시에 고려하여, 일정 수준 이상의 최고 점수를 얻은 후보 영역을 최종 선택하고(S5), 그 선택된 최종 얼굴 영역으로부터 얼굴의 위치 및 크기, 모양, 색깔 등에 관한 파라메터를 추출한다(S7).Next, considering the face candidate areas detected by the above two methods simultaneously, the candidate areas having the highest scores of a predetermined level or more are finally selected (S5), and the position, size, shape, and color of the face from the selected final face areas. Extract the parameters related to the (S7).
상기 추출된 얼굴 영역의 파라메터는 이후 입력되는 영상에서 얼굴의 움직임을 추적하는 참조 자료로 활용되는 것으로, 상기와 같이 얼굴 영역이 검출되었으면, 이후 입력되는 영상은 얼굴의 컬러 모델을 이용한 색깔 확률적인 방법에 의해 얼굴을 추적하고(S6), 그때마다 얼굴 위치 및 검출 관련 파라메터를 추출하여 업데이트하는 과정을 반복하게 된다(S7).The extracted face region parameter is used as a reference material for tracking the movement of a face in an input image afterwards. When the face region is detected as described above, the input image is a color probabilistic method using a color model of the face. By tracking the face (S6), the process of extracting and updating the face position and detection-related parameters every time is repeated (S7).
이하, 상기와 같이 이루어진 본 발명의 구체적인 동작 및 작용에 대하여 설명하기로 한다.Hereinafter, the specific operation and action of the present invention made as described above will be described.
먼저, 상기 얼굴의 검출 및 추적에서 사용하는 색깔 확정적 방법과 확률적 방법의 기준이 되는 얼굴의 컬러 모델에 대해서 설명한다.First, a color model of a face serving as a reference for the color-deterministic method and the stochastic method used in the face detection and tracking will be described.
카메라로부터 입력된 RGB 영상은 밝기 변화에 민감하므로, 정규화된 r, g 값(r=R/(R+G+B), g=G/(R+G+B))을 사용하고, 얼굴로 추정되는 여러 개의 얼굴 이미지로부터 정규화된 r,g 의 평균 및 공분산을 계산하여 얼굴의 컬러 모델의 속성을 구한다.The RGB image input from the camera is sensitive to changes in brightness, so use the normalized r, g values (r = R / (R + G + B), g = G / (R + G + B)) The average and covariance of the normalized r, g are calculated from the estimated face images to obtain the attributes of the color model of the face.
이후, 색상은 모두 정규화된 값을 사용하는 것으로 할 때, r,g에 대한 평균(m)과 공분산(K)을 표현하면 다음 수학식 1과 같다.Thereafter, when the colors are all normalized values, the mean (m) and the covariance (K) for r and g are expressed by Equation 1 below.
얼굴의 컬러 모델에 대한 색(c)에 대한 거리 값(d)은 다음 수학식 2로 표현한다.The distance value d for the color c for the color model of the face is expressed by the following equation.
다음, 상기 컬러 모델을 이용한 색깔 확정적 방법에 의한 얼굴 후보 선정과정에 대해 구체적으로 설명한다.Next, a process of selecting a face candidate by a color determination method using the color model will be described in detail.
일단, 주어진 영상에 대하여 얼굴 색 영역과 얼굴 색 영역이 아닌 부분은, 얼굴 컬러 모델의 평균값(m)과 공분산(K)을 이용하여 구할 수 있다.First, a portion of the face color region and the non-face color region with respect to a given image may be obtained using the mean value m and the covariance K of the face color model.
즉, 입력된 영상의 각 픽셀(x,y)에 대한 색(c(x,y))과, 얼굴의 컬러 모델에 대한 거리값(d(x,y))이 일정 범위(k)안에 들어오면 얼굴 색으로 판정한다.That is, the color (c (x, y)) for each pixel (x, y) of the input image and the distance value (d (x, y)) for the color model of the face fall within a predetermined range (k). If it comes, it is determined by the color of the face.
상기 수학식 3에서 얼굴인 영역은 1의 값을(즉, 거리값(d(x,y))이 일정 범위(k)이내 이면 1의 값을), 얼굴 이외의 영역은 0의 값을(즉, 거리값(d(x,y))이 일정 범위(k)를 벗어나면 0의 값을) 가지게 된다.In Equation 3, an area that is a face has a value of 1 (that is, a value of 1 when the distance value d (x, y) is within a predetermined range k), and an area other than a face has a value of 0 ( That is, when the distance value d (x, y) is out of a predetermined range k, the distance value d (x, y) has a value of zero.
상기 과정을 거쳐 얼굴 후보 영역을 선정하기 위해서는, 도2에 도시된 바와 같이 각 영역을 레이블링 한 후에 영역을 포함하는 최소 사각형을 구하여 얼굴 후보를 선정한다.In order to select a face candidate region through the above process, as shown in FIG. 2, after labeling each region, a face rectangle is selected by obtaining a minimum rectangle including the region.
다음, 방향 이미지를 이용한 얼굴의 타원 핏팅과 그에 의한 얼굴 후보 선정과정을 설명한다.Next, an elliptic fitting of a face using a direction image and a process of selecting a face candidate are described.
일단, 카메라로부터 입력된 RGB 영상은 도3에 도시된 바와 같이 흑백 이미지로 변환한다.First, the RGB image input from the camera is converted into a black and white image as shown in FIG.
상기 변환된 흑백 이미지의 밝기 정보는 평면에 대한 높이 정보로 볼 수 있고, 각 픽셀에 대하여 그 표면에 가장 적합한 평면과 그 평면에 수직한 벡터와, 구한 수직 벡터에 대하여 수직하고 평면 위에 있는 접선 벡터를 구할 수 있고, 그 결과는 도3의 방향 이미지의 형태로 나타난다.The brightness information of the converted black and white image can be viewed as height information about a plane, and for each pixel, a plane best suited for the surface and a vector perpendicular to the plane, and a tangent vector perpendicular to and on the plane of the obtained vertical vector. Can be obtained, and the result is shown in the form of the directional image of FIG.
얼굴을 타원으로 모델링하면 얼굴을 장축, 단축 길이로 표현이 가능하고, 접선벡터의 기울기(m), 장축(b), 단축값(a)이 주어지면, 얼굴의 중심 위치(x_c,y_c)를 다음 수학식 4로부터 구할 수 있다.Modeling the face as an ellipse enables the face to be represented by its long axis and short axis length, and given the inclination (m), long axis (b), and short axis value (a) of the tangential vector, the center position of the face (x_c, y_c) It can be obtained from the following equation (4).
즉, 주어진 방향 이미지의 한 픽셀에 대하여 타원 중심(x_c,y_c)을 구하고, 그 때의 접선벡터의 크기를 가중치로 곱하여 누적하는 과정을 전체 이미지에 대하여 수행하고, 누적한 값들 중 가장 집중되고 일정 값 이상인 곳을 도3에 도시된 바와 같이 해당 타원에 적합한 얼굴 후보로 선정한다.That is, the elliptic center (x_c, y_c) is obtained for one pixel of a given direction image, and the process of accumulating the tangent vector by multiplying the magnitude of the tangent vector by weight is performed on the entire image, and the most concentrated and constant of the accumulated values. The place above the value is selected as a face candidate suitable for the corresponding ellipse as shown in FIG.
이에 따라, 그 결과는 도3의 타원 템플릿에 대한 얼굴 후보 영역처럼 표현된다.Accordingly, the result is expressed as a face candidate region for the elliptic template of FIG.
다음 상기 각 방법에 의해 선정된 얼굴 후보 영역으로부터, 신뢰성이 가장 높은 영역을 최종 얼굴로 검출하기 위해서는, 상기 색깔 확정적 방법에 의한 얼굴 후보의 선정 영역과, 방향 이미지 및 얼굴의 타원 핏팅에 의한 얼굴 후보의 선정 영역이 겹치는 정도를 점수화 하여, 일정 수준 이상의 가장 높은 점수를 얻은 후보 영역을 도4에 도시된 바와 같이 최종 얼굴 검출 영역으로 확정한다.Next, in order to detect the most reliable area as the final face from the face candidate areas selected by the above methods, the face candidates by selecting the area of the face candidate by the color-deterministic method, the directional image and the elliptic fitting of the face The degree of overlapping of the selected regions of S is scored, and the candidate region having the highest score over a predetermined level is determined as the final face detection region as shown in FIG.
색깔 확정적 방법에 의한 얼굴 후보 영역을 C, 타원 핏팅에 의한 얼굴 후보 영역을 E 라 할 때, 두 영역이 겹치는 정도는 다음 수학식 5로 표현할 수 있다.When the face candidate area by the color deterministic method is C and the face candidate area by the elliptic fitting is E, the degree of overlap between the two areas can be expressed by the following equation (5).
또는, or,
다음, 상기와 같이 두 가지 방법에 의해 검출된 후보 영역에서 최종 얼굴 영역이 검출되면, 이후 입력되는 영상에 대해서는 색깔 확률적인 방법에 의해 얼굴을 추적하게 된다.Next, when the final face area is detected in the candidate area detected by the two methods as described above, the face is tracked by the color probabilistic method for the image to be input later.
색깔 확률적인 방법에 의한 얼굴 추적은, 도5에 도시된 바와 같이 입력받은 이미지에 대하여 n개의 부모 픽셀(parent pixels)로부터, n개의 자식 픽셀(offspring pixels)을 선택하여 얼굴을 추적하는 방법이다.Face tracking by the color probabilistic method is a method of tracking a face by selecting n child pixels from n parent pixels with respect to an input image as shown in FIG. 5.
자식 샘플을 선택하기 위해서는 부모 픽셀들의 컬러 모델 속성과의 색상 거리를 인자로 하는 확률(P1)과, 주어진 얼굴의 컬러 모델과 색상 거리를 인자로 하는 확률(P2)을 구하여, 두 확률의 곱(P=P1*P2)에 의해 확률값(P)을 구하고, 그 확률값(P)에 비례하게 자식 픽셀을 확률적으로 선택한다.To select a child sample, the probability P1 of the color model attribute of the parent pixels as the factor and the probability P2 of the color model and the color distance of the given face are calculated. Probability value P is calculated by P = P1 * P2), and child pixels are selected probabilistically in proportion to the probability value P.
다음, 선택된 픽셀의 평균 위치를 계산하여 얼굴의 위치를 구하고, 자식 픽셀의 확률의 총합이 일정 수준 이상의 값을 가지면 얼굴 추적이 유효한 것으로 판단한다.Next, the position of the face is calculated by calculating the average position of the selected pixel, and when the sum of the probabilities of the child pixels has a predetermined value or more, it is determined that the face tracking is effective.
다음의 수학식 6은 확률값을 구하는 식을 표현한 것이고, 도5는 색깔 확률적인 방법에 의한 얼굴 추적의 예를 보인 것이다.Equation 6 below is a formula for obtaining a probability value, and FIG. 5 shows an example of face tracking by a color probabilistic method.
여기서, here,
상기 수학식 6에서 d1, d2는 수학식 2로 구할 수 있는 색상 거리로서, d1은 해당 픽셀 색상과 얼굴의 컬러 모델과의 색상에 대한 거리이며, d2는 해당 픽셀 색상과 부호 픽셀의 컬러 모델과의 색상 거리이다.In Equation 6, d1 and d2 are color distances obtained by Equation 2, d1 is a distance between the pixel color and the color model of the face, and d2 is a color model of the pixel color and the sign pixel. Color distance.
다음, 상기와 같이 검출되거나 새로 추적되면 얼굴의 위치 및 각종 파라메터 정보는 새로운 값으로 업데이트되고 다음 이미지로부터 얼굴의 움직임을 추적하기 위한 정보로 사용된다.Next, when detected or newly tracked as described above, the position and various parameter information of the face are updated to a new value and used as information for tracking the movement of the face from the next image.
이상에서 설명한 바와 같이 본 발명 실시간 얼굴 검출 및 움직임 추적 방법은, 로봇과 같이 제한된 컴퓨팅 파워와 임베디드 시스템 환경에서, 실시간으로 얼굴을 검출하여 그 움직임을 추적할 수 있도록 하는 효과가 있다.As described above, the real-time face detection and motion tracking method of the present invention has an effect of detecting a face in real time in a limited computing power and embedded system environment such as a robot to track its movement.
또한, 본 발명은 얼굴의 색깔정보와 모양정보를 동시에 이용하여 얼굴을 검출하고, 검출된 얼굴을 색깔 확률적인 방법에 의해 추적함으로써, 주위 환경의 변화에 강인하고 신뢰성 있는 얼굴 영역을 실시간으로 검출 추적할 수 있도록 하는 효과가 있다.In addition, the present invention detects the face by using the color information and shape information of the face at the same time, by tracking the detected face by the color probabilistic method, to detect and track the face area that is robust to the change of the surrounding environment in real time It has the effect of making it possible.
또한, 본 발명은 적은 컴퓨팅 파워에 의해 동작이 가능하기 때문에, 로봇이나, 게임기, 휴대폰, PDA 등의 휴대용 장치에 적용이 가능하여, 새로운 부가가치를 창출할 수 있도록 하는 효과가 있다.In addition, since the present invention can operate with a small amount of computing power, the present invention can be applied to a portable device such as a robot, a game machine, a mobile phone, a PDA, and the like, thereby creating a new added value.
Claims (8)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020020013634A KR20030073879A (en) | 2002-03-13 | 2002-03-13 | Realtime face detection and moving tracing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020020013634A KR20030073879A (en) | 2002-03-13 | 2002-03-13 | Realtime face detection and moving tracing method |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20030073879A true KR20030073879A (en) | 2003-09-19 |
Family
ID=32224669
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020020013634A KR20030073879A (en) | 2002-03-13 | 2002-03-13 | Realtime face detection and moving tracing method |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20030073879A (en) |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100474848B1 (en) * | 2002-07-19 | 2005-03-10 | 삼성전자주식회사 | System and method for detecting and tracking a plurality of faces in real-time by integrating the visual ques |
EP1688746A2 (en) | 2005-02-08 | 2006-08-09 | S.I.T. S.r.l. | Apparatus for monitoring human body's movements in sport or medical domain, and its use |
KR100729265B1 (en) * | 2006-01-20 | 2007-06-15 | 학교법인 대전기독학원 한남대학교 | A face detection method using difference image and color information |
KR100817298B1 (en) * | 2005-12-08 | 2008-03-27 | 한국전자통신연구원 | Method for detecting and tracking both hands |
GB2448221A (en) * | 2007-04-02 | 2008-10-08 | Samsung Techwin Co Ltd | Digital camera with automatic alignment for self portraits |
KR100870235B1 (en) * | 2007-08-27 | 2008-11-24 | 성균관대학교산학협력단 | Image processing device capable of measuring characteristic of subject for photography |
CN104484038A (en) * | 2014-12-16 | 2015-04-01 | 广东欧珀移动通信有限公司 | Method and device for controlling intelligent equipment |
WO2020159241A1 (en) * | 2019-01-30 | 2020-08-06 | 삼성전자 주식회사 | Method for processing image, and apparatus therefor |
CN113658223A (en) * | 2021-08-11 | 2021-11-16 | 山东建筑大学 | Multi-pedestrian detection and tracking method and system based on deep learning |
CN117519488A (en) * | 2024-01-05 | 2024-02-06 | 四川中电启明星信息技术有限公司 | Dialogue method and dialogue system of dialogue robot |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000060745A (en) * | 1999-03-19 | 2000-10-16 | 윤덕용 | A Real time face tracking technique using face's color model and ellipsoid approximation model |
KR20010057239A (en) * | 1999-12-20 | 2001-07-04 | 오길록 | Face detection system and method using the eye blinking information in video sequences |
KR20010102881A (en) * | 2001-10-09 | 2001-11-17 | 하영균 | Method and System for sensing Three-Dimensional body motion using color marker |
KR20020032765A (en) * | 2000-10-27 | 2002-05-04 | 박호군 | Visual Tracking Method by Color Information |
-
2002
- 2002-03-13 KR KR1020020013634A patent/KR20030073879A/en not_active Application Discontinuation
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000060745A (en) * | 1999-03-19 | 2000-10-16 | 윤덕용 | A Real time face tracking technique using face's color model and ellipsoid approximation model |
KR20010057239A (en) * | 1999-12-20 | 2001-07-04 | 오길록 | Face detection system and method using the eye blinking information in video sequences |
KR20020032765A (en) * | 2000-10-27 | 2002-05-04 | 박호군 | Visual Tracking Method by Color Information |
KR20010102881A (en) * | 2001-10-09 | 2001-11-17 | 하영균 | Method and System for sensing Three-Dimensional body motion using color marker |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100474848B1 (en) * | 2002-07-19 | 2005-03-10 | 삼성전자주식회사 | System and method for detecting and tracking a plurality of faces in real-time by integrating the visual ques |
EP1688746A2 (en) | 2005-02-08 | 2006-08-09 | S.I.T. S.r.l. | Apparatus for monitoring human body's movements in sport or medical domain, and its use |
KR100817298B1 (en) * | 2005-12-08 | 2008-03-27 | 한국전자통신연구원 | Method for detecting and tracking both hands |
KR100729265B1 (en) * | 2006-01-20 | 2007-06-15 | 학교법인 대전기독학원 한남대학교 | A face detection method using difference image and color information |
US7973848B2 (en) | 2007-04-02 | 2011-07-05 | Samsung Electronics Co., Ltd. | Method and apparatus for providing composition information in digital image processing device |
GB2448221A (en) * | 2007-04-02 | 2008-10-08 | Samsung Techwin Co Ltd | Digital camera with automatic alignment for self portraits |
KR100870235B1 (en) * | 2007-08-27 | 2008-11-24 | 성균관대학교산학협력단 | Image processing device capable of measuring characteristic of subject for photography |
CN104484038A (en) * | 2014-12-16 | 2015-04-01 | 广东欧珀移动通信有限公司 | Method and device for controlling intelligent equipment |
WO2020159241A1 (en) * | 2019-01-30 | 2020-08-06 | 삼성전자 주식회사 | Method for processing image, and apparatus therefor |
US20220114836A1 (en) * | 2019-01-30 | 2022-04-14 | Samsung Electronics Co., Ltd. | Method for processing image, and apparatus therefor |
CN113658223A (en) * | 2021-08-11 | 2021-11-16 | 山东建筑大学 | Multi-pedestrian detection and tracking method and system based on deep learning |
CN113658223B (en) * | 2021-08-11 | 2023-08-04 | 山东建筑大学 | Multi-row person detection and tracking method and system based on deep learning |
CN117519488A (en) * | 2024-01-05 | 2024-02-06 | 四川中电启明星信息技术有限公司 | Dialogue method and dialogue system of dialogue robot |
CN117519488B (en) * | 2024-01-05 | 2024-03-29 | 四川中电启明星信息技术有限公司 | Dialogue method and dialogue system of dialogue robot |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10762376B2 (en) | Method and apparatus for detecting text | |
Tian et al. | Toward a computer vision-based wayfinding aid for blind persons to access unfamiliar indoor environments | |
US7227893B1 (en) | Application-specific object-based segmentation and recognition system | |
US7957560B2 (en) | Unusual action detector and abnormal action detecting method | |
Ivanchenko et al. | Detecting and locating crosswalks using a camera phone | |
CN109341692B (en) | Line navigation method and robot | |
Tsai et al. | Road sign detection using eigen colour | |
CN101577005A (en) | Target tracking method and device | |
US7110023B2 (en) | Method and apparatus for target object extraction from an image | |
Gruenwedel et al. | An edge-based approach for robust foreground detection | |
KR20030073879A (en) | Realtime face detection and moving tracing method | |
CN111767854B (en) | SLAM loop detection method combined with scene text semantic information | |
KR20110021500A (en) | Method for real-time moving object tracking and distance measurement and apparatus thereof | |
CN107045630B (en) | RGBD-based pedestrian detection and identity recognition method and system | |
Ückermann et al. | Realtime 3D segmentation for human-robot interaction | |
CN113780040A (en) | Lip key point positioning method and device, storage medium and electronic equipment | |
KR100543706B1 (en) | Vision-based humanbeing detection method and apparatus | |
Khaliluzzaman et al. | Stairways detection based on approach evaluation and vertical vanishing point | |
US10140509B2 (en) | Information processing for detection and distance calculation of a specific object in captured images | |
Zheng et al. | Shadow removal for pedestrian detection and tracking in indoor environments | |
Nakashima et al. | Object detection by using interframe difference algorithm | |
CN116432160A (en) | Slider verification code identification method and system based on RPA and LBP characteristics | |
KR100703528B1 (en) | Apparatus and method for recognizing an image | |
Choudri et al. | Robust background model for pixel based people counting using a single uncalibrated camera | |
Elleuch et al. | New ground plane segmentation method for electronic cane |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E902 | Notification of reason for refusal | ||
E601 | Decision to refuse application |