KR20000050501A - Method of face territory extraction using the templates matching with scope condition - Google Patents

Method of face territory extraction using the templates matching with scope condition Download PDF

Info

Publication number
KR20000050501A
KR20000050501A KR1019990000425A KR19990000425A KR20000050501A KR 20000050501 A KR20000050501 A KR 20000050501A KR 1019990000425 A KR1019990000425 A KR 1019990000425A KR 19990000425 A KR19990000425 A KR 19990000425A KR 20000050501 A KR20000050501 A KR 20000050501A
Authority
KR
South Korea
Prior art keywords
template matching
face
matching
frame
effective range
Prior art date
Application number
KR1019990000425A
Other languages
Korean (ko)
Other versions
KR100311952B1 (en
Inventor
김현준
이진수
Original Assignee
구자홍
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 구자홍, 엘지전자 주식회사 filed Critical 구자홍
Priority to KR1019990000425A priority Critical patent/KR100311952B1/en
Priority to US09/480,111 priority patent/US6639998B1/en
Publication of KR20000050501A publication Critical patent/KR20000050501A/en
Application granted granted Critical
Publication of KR100311952B1 publication Critical patent/KR100311952B1/en
Priority to US10/655,311 priority patent/US7085402B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE: A method for extracting face area using effective range condition template matching is provided to use an initial face area extraction module and an effective range condition face area extraction module, thereby reducing matching times in the section using the template matching and rapidly and accurately extracting the face area of mobile images with rapid processing. CONSTITUTION: A method for extracting face area using effective range condition template matching comprises: an initial face area extraction step extracting face areas appeared in one frame using any algorithm; and an effective range condition face area extraction step performing the template matching within limited effective range on the basis of the face area extracted in the initial face area extraction step.

Description

유효범위 조건 탬플리트 매칭을 이용한 얼굴 영역 추출방법{METHOD OF FACE TERRITORY EXTRACTION USING THE TEMPLATES MATCHING WITH SCOPE CONDITION}FIELD OF FACE TERRITORY EXTRACTION USING THE TEMPLATES MATCHING WITH SCOPE CONDITION}

본 발명은 동영상에 있어 임의의 알고리즘을 적용하여 한 프레임에 등장하는 얼굴 영역들을 추출하는 초기 얼굴영역 추출모듈과 한번 추출된 얼굴영역을 바탕으로 제한된 유효범위내에서 탬플리트 매칭을 행하는 유효범위 조건 얼굴영역 추출모듈를 사용하여 동영상에서 빠르고 정확하게 얼굴영역을 추출할수 있도록 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴 영역 추출방법에 관한 것이다.The present invention provides an effective face condition face region that performs template matching within a limited effective range based on an initial face region extraction module for extracting face regions appearing in one frame by applying an arbitrary algorithm to a video. The present invention relates to a face region extraction method using an effective range condition template matching to extract a face region from a video quickly and accurately using an extraction module.

특히, 한번 찾아낸 얼굴은 시간이 지나더라도 추적할수 있도록 하고, 더불어 얼굴영역을 추출하는 과정에서 새로운 인물이 등장하더라도 새로운 인물의 얼굴영역을 함께 추출할수 있도록 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법에 관한 것이다.In particular, the face region extraction method can be used to track the face once found and to extract the face region of a new person even when a new person appears in the process of extracting the face region. It is about.

일반적으로, 얼굴인식 문제가 크게 제기되면서 영상에서 얼굴영역을 추출하는 문제가 매우 중요하게 부각되고 있다.In general, the problem of extracting the facial region from the image has been very important as the face recognition problem is greatly raised.

동영상에서 오브젝트 영역을 추출하는 방법에는 크게 하나의 프레임 안에서 정지영상 정보만을 이용한 영역추출방법과 프레임들 사이의 시간적인 정보를 함께 이용하는 영역추출방법으로 나눌수 있는 바, 이의 대표적인 사례는 다음과 같다.The method of extracting an object region from a video can be divided into a region extraction method using only still image information and a region extraction method using temporal information between frames in a single frame.

[1]. "Pedestrian Detection Using Wavelet Templates" CVPR97, JuneJun 17-19, Michael Oren, MIT[One]. "Pedestrian Detection Using Wavelet Templates" CVPR97, JuneJun 17-19, Michael Oren, MIT

이는 일반적인 얼굴영역 추출 알고리즘으로 하나 이상의 사람 얼굴 탬플리트를 사전에 구성하여 이미지 전 영역을 탬플리트 최소 사이즈에서 출발하여 최대 사이즈까지 크기 조절을 해가며 스캔 및 매칭해 나가는 방법이다.This is a general face region extraction algorithm that pre-configures one or more human face templates to scan and match the entire image area starting from the minimum size of the template to the maximum size.

그러나, 상기와 같은 영역추출방법[1]은 탬플리트 매칭횟수가 매우 많아지고 더불어 탬플리트 크기가 작아도 프로세싱 시간이 매우 크게 소요되는 단점이 있다.However, the region extraction method [1] as described above has a disadvantage in that the number of template matching is very large and the processing time is very large even though the template size is small.

[2]. "Automatic Extraction of Face from Color Reversal Film Using Statistical Multistep Filtering Technique" ACCV'95 Second Asian Conf.On Computer Vision. December 5-8[2]. "Automatic Extraction of Face from Color Reversal Film Using Statistical Multistep Filtering Technique" ACCV'95 Second Asian Conf.On Computer Vision. December 5-8

-Extraction of skin color pixels : RGB color 시스템을 HSV color도메인으로 변환한 후 skin-color pixel을 추출한다.-Extraction of skin color pixels: After converting RGB color system to HSV color domain, skin-color pixels are extracted.

-Segmentation of skin-color region : 추출된 skin-color 영역을 edge detection, hole filling, gap filling operation을 사용하여 Sementation 한다.Segmentation of skin-color region: Sementation of the extracted skin-color region using edge detection, hole filling, and gap filling operations.

-Classification of region : 미리 평가용으로 준비된 패턴을 이용하여 사람 얼굴영역임을 확인한다.-Classification of region: Identify the face area using the pattern prepared for evaluation in advance.

그러나, 상기와 같은 추출영역 방법 [2]는 살색 정보가 인종에 따라 다르고 사람에 따라 상당히 다를수 있을뿐만 아니라 같은 사람이라도 조명등 주위 환경에 따라 매우 달라질수 있고 더불어 정지영상만을 이용하므로, 동영상에 비해 적은 정보만을 사용하여 그만큼 정확성이 떨어질뿐만 아니라 color space를 RGB에서 HVS로 변환하므로 그만큼 많은 프로세스 시간이 요구되는 문제점이 있다.However, the extraction area method [2] is not only different from the video because the color information is different depending on the race and the person. Not only the accuracy is reduced by using the information but also the color space is converted from RGB to HVS, which requires a lot of process time.

[3]. Facelt(Visionics Corporation)[3]. Facelt (Visionics Corporation)

카메라 화면에서 사람이 움직이면 자동적으로 사람 얼굴영역을 추출하고 이미 등록된 사람이면 그가 누구인지 확인하는 기능을 갖는 툴킷이다.It is a toolkit that has the function of automatically extracting the human face area when a person moves on the camera screen and checking who is already registered.

그러나, 상기와 같은 영역추출 방법 [3]은 정지영상에서 사람 얼굴을 찾는 방법으로 차영상을 이용한 물체의 전체적인 움직임과 신경망을 이용한 얼굴 확인방법을 사용하는 바,However, the area extraction method [3] is a method of finding a human face in a still image, and using an overall motion of an object using a difference image and a face identification method using a neural network.

차영상에 잡힌 움직임은 사람 얼굴 이외의 몸의 움직임과 그 밖의 노이즈가 포함되면서 움직임이 존재하는 영역내에서 다시 얼굴영역을 추출하는 작업을 하여야 어려운 문제점이 있다.The motion caught in the difference image has a problem that it is difficult to extract the face region again in the region where the movement exists while the movement of the body other than the human face is included.

본 발명은 상기와 같은 종래의 문제점을 해결하기 위해 임의의 알고리즘(예; 종래 영역 추출방법 [1][2][3] 중 어느 하나)을 적용하여 한 프레임에 등장하는 얼굴 영역들을 추출하는 초기 얼굴영역 추출모듈과 한번 추출된 얼굴영역을 바탕으로 제한된 유효범위내에서 탬플리트 매칭을 행하는 유효범위 조건 얼굴영역 추출모듈를 사용하므로서, 탬플리트 매칭을 사용하는 구간에서 매칭횟수를 줄이면서 빠른 프로세싱으로 동영상의 얼굴영역을 빠르고 정확하게 추출하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법을 제공함에 있다.In order to solve the above problems, the present invention applies an algorithm (eg, any one of the conventional region extraction methods [1] [2] [3]) to extract facial regions appearing in one frame. By using the face region extraction module and the effective range condition face region extraction module that performs template matching within the limited effective range based on the face region extracted once, the face of the video with fast processing while reducing the number of matching in the section using template matching The present invention provides a face region extraction method using effective range condition template matching to extract a region quickly and accurately.

다른 한편으로, 이전단계에서 추출되었던 얼굴영역을 기준으로 탬플리트 매칭을 수행한 후 가장 점수가 높은 탬플리트 영역을 얼굴영역으로 정하거나, 이전단계에서 적용했던 탬플리트 매칭 종류를 기준으로 매칭순서를 정하여 그 순서대로 검색하고, 또는 캡쳐된 매 프레임마다 탬플리트 매칭을 행하지 않고 각 얼굴마다 최근의 움직임 속도를 이용하여 탬플리트 매칭할 프레임을 선택하므로서, 한번 찾아낸 얼굴은 시간이 지나더라도 추적할수 있도록 하고, 더불어 얼굴영역을 추출하는 과정에서 새로운 인물이 등장하더라도 새로운 인물의 얼굴영역을 함께 추출할수 있도록 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법을 제공하는 것이다.On the other hand, after template matching is performed based on the face region extracted in the previous step, the template area having the highest score is designated as the face area, or the matching order is determined based on the template matching type applied in the previous step. By searching for each frame as it is, or by using the latest movement speed for each face instead of performing template matching every captured frame, the face once found can be tracked over time, and the face area can be tracked. The present invention provides a method for extracting a face region using an effective range condition template matching to extract a face region of a new person even when a new person appears in the extraction process.

도 1은 본 발명 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법의 일실시예를 보인 플로우챠트.1 is a flowchart showing an embodiment of a face region extraction method using the present invention validity condition template matching;

도 2는 본 발명의 일실시예에 있어 제한된 유효범위와 얼굴영역을 추출하기 위한 프레임간의 간격을 통해 오브젝트의 이동속도에 적응적으로 축적하여 탬플리트 매칭을 수행하는 다른 실시예를 보인 플로우챠트.FIG. 2 is a flowchart illustrating another example of performing template matching by adaptively accumulating at a moving speed of an object through a limited effective range and an interval between frames for extracting a face region according to an exemplary embodiment of the present invention. FIG.

도 3은 본 발명의 일실시예에 있어 유효범위 값의 결정을 위한 도면.3 is a diagram for determining an effective range value in one embodiment of the present invention.

도 4의 a∼i는 본 발명의 일실시예에 있어 단순 이동 매칭 종류를 보인 상태도.4 is a state diagram showing a simple movement matching type in one embodiment of the present invention.

도 5의 j∼s는 본 발명의 일실시예에 있어 스케일 이동 매칭 종류를 보인 상태도.5 is a state diagram showing the type of scale shift matching in one embodiment of the present invention.

도 6은 본 발명의 일실시예에 있어 각 매칭종류와의 유사도 거리를 표시한 도표.Figure 6 is a table showing the similarity distance with each matching type in an embodiment of the present invention.

이하, 첨부된 도면에 의거하여 본 발명 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법의 일실시예를 설명하면 다음과 같다.Hereinafter, an embodiment of a face region extraction method using the present invention effective range condition template matching will be described with reference to the accompanying drawings.

도 1은 본 발명 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법의 일실시예를 보인 플로우챠트로서 그 진행단계는,1 is a flowchart showing an embodiment of a method for extracting a face region using an effective range condition template matching according to an embodiment of the present invention.

하나의 프레임 안에서 정지영상 정보만을 이용하거나 프레임들 사이의 시간적인 정보를 함께 이용하여 동영상에서 오브젝트 영역을 추출하는 방법에 있어서,A method of extracting an object region from a video by using only still image information or using temporal information between frames in a frame,

임의의 알고리즘(예; 종래 영역 추출방법 [1][2][3] 중 어느 하나)을 적용하여 현재 입력되는 한 프레임에 등장하는 얼굴영역들을 추출하는 단계와;Extracting face regions appearing in a frame currently input by applying an arbitrary algorithm (eg, any one of the conventional region extraction methods [1] [2] [3]);

상기에 의해 하나 이상의 얼굴영역이 추출되면 추출된 얼굴영역들을 바탕으로 하여 유효범위 조건의 탬플리트 매칭을 수행하는 단계와;Performing template matching of an effective range condition based on the extracted face regions when one or more face regions are extracted by the above;

상기 유효범위 조건의 탬플리트 매칭결과 초기 얼굴영역 추출에서 추출된 얼굴영역들 중 하나라도 추출에 성공하지 못하면 지금까지 추출했던 사람의 얼굴이 화면에서 사라질때 발생하는 문제를 해결하도록 다시 초기 얼굴영역 추출을 수행하는 단계와;If even one of the face regions extracted in the initial face region extraction is not successful in the template matching result of the effective range condition, the initial face region extraction is performed again to solve the problem that occurs when the face of the person extracted so far disappears from the screen. Performing;

상기 유효범위 조건의 탬플리트 매칭결과 초기 얼굴영역 추출에서 추출된 얼굴영역들의 프레임 유효시간(주기)이 지나면 다시 초기 얼굴영역 추출을 수행하는 단계; 로 진행하며,Performing initial face region extraction again after a frame valid time (cycle) of the face regions extracted by the template matching result of the effective range condition extraction; Proceed to

상기 초기 얼굴영역 추출의 역할이 새로운 사람의 등장 또는 퇴장으로 인해 유효범위 조건 탬플리트 매칭으로 추출된 얼굴영역들을 변화시킬 필요가 있을 경우 이미 이전 프레임에서 유효범위 조건 탬플리트 매칭을 통하여 추출된 얼굴영역은 제외시키고 그 나머지 영역만을 대상으로 초기 얼굴영역 추출을 수행하도록 하였다.When the role of the initial face region extraction needs to change the face regions extracted by the coverage condition template matching due to the appearance or exit of a new person, the face regions already extracted through the coverage condition template matching in the previous frame are excluded. The initial face region extraction was performed on only the remaining regions.

그리고, 도 2는 본 발명의 일실시예에 있어 제한된 유효범위와 얼굴영역을 추출하기 위한 프레임간의 간격을 통해 오브젝트의 이동속도에 적응적으로 축적하여 탬플리트 매칭을 수행하는 다른 실시예를 보인 플로우챠트로서 그 진행단계는,FIG. 2 is a flowchart illustrating another example of performing template matching by adaptively accumulating at a moving speed of an object through a limited effective range and an interval between frames for extracting a face region in an embodiment of the present invention. As the progression step,

현재 입력되는 프레임의 시간(t)과 이전단계에서 얼굴영역을 추출했던 프레임의 시간(t')+{프레임간의 시간간격(Δt)× n (n은 이전단계에서 처음으로 변화되면서 탬플리트로 매핑된 프레임 간격으로 Δt×n을 지난 프레임에서 이동/스케일이 나타나는 것임)을 비교판단하는 단계와;Time (t) of the currently input frame and time (t ') of the frame from which the face area was extracted in the previous step (t') + {Time interval between frames (Δt) × n (n is the first time changed in the previous step and mapped to the template Comparing and determining a movement / scale in a frame past Δt × n at frame intervals;

상기 비교결과 t<t'+(Δt×n)이면 현재 입력되는 프레임의 시간(t)에 프레임간의 시간간격(Δt)을 증가시키고, t<t'+(Δt×n)가 아니면 유효범위 조건 탬플리트 매칭을 한 후 그 성공여부를 판단하는 단계와;As a result of the comparison, if t <t '+ (Δt × n), the time interval Δt between frames is increased to the time t of the currently input frame, and if not t <t' + (Δt × n), the effective range condition Determining whether or not the template matching is successful;

상기의 판단결과 유효범위 조건 탬플리트 매칭이 성공이면 이전단계에서 얼굴영역을 추출했던 프레임의 시간(t')을 현재 입력되는 프레임의 시간(t)으로 세팅하고, 현재 입력되는 프레임의 시간(t)에 프레임간의 시간간격(Δt)을 더하여 증가(t+Δt)시키는 단계와;If the validity condition template matching is successful, the time t 'of the frame from which the face region was extracted in the previous step is set to the time t of the currently input frame, and the time t of the currently input frame. Increasing (t + Δt) by adding a time interval [Delta] t between frames;

상기 판단결과 유효범위 조건 탬플리트 매칭이 성공하지 못하면 탬플리트 매칭을 행할 n번째 캡쳐된 프레임의 시간{t'+(Δt×n)}에서 n≥1을 비교하는 단계와;Comparing n≥1 at the time {t '+ (Δt × n) of the nth captured frame to perform template matching if the validity condition template matching is not successful as a result of the determination;

상기 비교결과 탬플리트 매칭을 행할 n번째 캡쳐된 프레임(n)과 프레임간의 캡쳐된 프레임이 n≥1이 아니면 실패한 유효범위 조건 탬플리트 매칭 결과를 검출하고, 탬플리트 매칭을 행할 n번째 캡쳐된 프레임(n)과 프레임간의 캡쳐된 프레임이 n≥1이면 탬플리트 매칭을 행할 n번째 캡쳐된 프레임(n)을 감소(n=n-1)시키는 단계와;If the comparison result of the nth captured frame n to perform template matching and the captured frame between the frames is not n≥1, the failed range condition template matching result is detected, and the nth captured frame n to perform template matching is detected. If the captured frame between the frame and the frame is n≥1, decreasing the nth captured frame n to perform template matching (n = n-1);

상기에 의해 탬플리트 매칭을 행할 n번째 캡쳐된 프레임(n)이 감소되면 현재 프레임의 시간(t)에서 프레임간의 시간간격(Δt)을 감소시켜 탬플리트 매칭을 수행한 후 그 성공여부를 판단하는 단계; 로 진행하는 것이다.If the nth captured frame (n) to be subjected to template matching is reduced by performing a template matching by reducing the time interval (Δt) between frames at the time t of the current frame, determining whether the template is successful; To proceed.

이와같이 진행되는 본 발명의 일실시예로서 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법의 작용을 도 1 내지 도 6를 참조하여 설명하면 다음과 같다.As described above, an operation of the face region extraction method using effective range condition template matching as an embodiment of the present invention will be described with reference to FIGS. 1 to 6.

먼저, 프레임이 입력되면, 상기 입력되는 현재의 한 프레임이 맨 처음으로 입력되었는지를 판단한다.First, when a frame is input, it is determined whether the current one frame is input for the first time.

이때, 상기 입력되는 현재의 한 프레임이 맨 처음 입력이면 임의의 알고리즘을 적용하여 현재 입력되는 한 프레임에서 등장하는 얼굴영역들을 추출한 후 하나 이상의 얼굴영역들을 바탕으로 유효범위 조건의 탬플리트 매칭을 수행한다.In this case, if the current one frame is the first input, a random algorithm is applied to extract face regions appearing in the currently input frame, and then template matching of the effective range condition is performed based on one or more face regions.

그리고, 상기 유효범위 조건의 탬플리트 매칭결과 초기 얼굴영역 추출에서 추출된 얼굴영역들 중 하나라도 추출에 성공하지 못하면 지금까지 추출했던 사람의 얼굴이 화면에서 사라질때 발생하는 문제를 해결하도록 다시 초기 얼굴영역 추출을 수행한다.In addition, if any one of the face regions extracted in the initial face region extraction is not successful in the template matching result of the effective range condition, the initial face region is again solved to solve the problem that occurs when the face of the person extracted so far disappears from the screen. Perform the extraction.

만약, 성공하면 COUNT를 증가(COUNT=COUNT+1)시키고 다음 프레임 입력단계로 간다.If successful, increase COUNT (COUNT = COUNT + 1) and go to the next frame input step.

또한, 상기 유효범위 조건의 탬플리트 매칭결과 초기 얼굴영역 추출에서 추출된 얼굴영역들의 프레임 유효시간(주기)이 지나면(COUNT<주기), 다시 초기 얼굴영역 추출을 수행하는 것이다.In addition, when the frame valid time (period) of the face regions extracted in the initial face region extraction as a result of template matching with the effective range condition is passed (COUNT <period), the initial face region extraction is performed again.

여기서, 초기 얼굴영역 추출과정을 행할때 마다 전체 이미지 영역을 대상으로 행할수도 있으나 이미 이전 프레임에서 유효범위 조건 탬플리트 매칭을 통하여 추출된 얼굴영역은 제외시키고 그 나머지 영역만을 대상으로 초기 얼굴영역 추출을 수행하도록 하였다.In this case, the initial face region extraction process may be performed on the entire image region, but the face region extracted by matching the effective range condition template in the previous frame is excluded, and the initial face region extraction is performed only on the remaining regions. It was made.

이는 초기 얼굴영역 추출의 역할이 새로운 사람의 등장 또는 퇴장으로 인해 유효범위 조건 탬플리트 매칭으로 추출된 얼굴영역들을 변화시키므로서, 지금까지 추출했던 사람 이외의 다른 사람 얼굴이 등장했을때 그 사람 얼굴도 추가로 함께 추출할수 있도록 하기 위한 것이다.This is because the role of initial face region extraction changes the face regions extracted by coverage condition template matching due to the appearance or exit of a new person, so that the face is added when a face other than the person extracted so far appears. It is intended to be extracted together.

한편, 상기 초기 얼굴영역 추출은 이전 얼굴영역 추출정보는 이용하지 않고 현재의 프레임만을 이용하고, 상기 초기 얼굴영역 추출 과정에 적용되는 알고리즘은 탬플리트 매칭방법과 차영상 및 살색정보를 이용하도록 하였다.Meanwhile, the initial face region extraction uses only the current frame without using previous face region extraction information, and an algorithm applied to the initial face region extraction process uses a template matching method, difference images, and skin color information.

즉, 상기 탬플리트 매칭방법은 사전에 정의된 탬플리트를 일정크기 범위내에서 크기 변환하면서 이미 전체 영역을 스캔하고 얼굴영역을 추출하는 바,That is, the template matching method scans the entire area and extracts the face area while converting a predefined template within a predetermined size range.

이는 하나의 프레임만을 가지고도 등장한 사람들의 얼굴영역을 모두 추출할수 있는 장점이 있는 반면 프로세싱 시간이 매우 많이 요구되는 단점이 있다.This has the advantage of extracting all the face areas of people who appear with only one frame, but has the disadvantage of requiring very much processing time.

또한, 상기 차영상과 살색정보를 이용하는 방법은 시간적으로 다른 연속된 두 프레임에서 차영상을 추출하고, 움직임이 있는 영역중에서 살색범위에 속하는 색을 갖는 영역을 얼굴영역 후보로 결정하는 바,In addition, the method using the difference image and the skin color information extracts the difference image in two consecutive frames that differ in time, and determines a region having a color belonging to the skin color range among the moving regions as a face region candidate.

이는 매우 빠른 프로세싱이 가능하나 두 프레임이 필요하고 얼굴의 움직임이 없을 경우에는 추출실패를 초래하는 단점이 있다.This allows very fast processing, but has the disadvantage of causing extraction failure when two frames are required and there is no face movement.

이에 본 발명은 상기의 알고리즘을 적용하여 현재 입력되는 한 프레임에서 등장하는 얼굴영역만을 추출한 후, 상기 추출된 얼굴영역들을 바탕으로 유효범위 조건의 탬플리트 매칭을 수행하면서 매우 빠른 속도의 프로세싱이 가능하도록 한 것이다.Accordingly, the present invention applies the above algorithm to extract only the face region appearing in the current input frame, and to perform a very fast processing while performing template matching of the effective range condition based on the extracted face regions. will be.

다시말해, 본 발명의 유효범위 조건 탬플리트 매칭은 사전에 유효범위를 정의하고 그 범위 안에서만 탬플리트 매칭을 수행하는 바,In other words, the scope condition template matching of the present invention defines the scope in advance and performs template matching only within the scope.

상기 유효범위는 프레임의 시간 간격내에 얼굴이 움직일수 있는 최대범위로 정의하는데 이는 한 이미지에 등장한 각 얼굴영역마다 정의하게 된다.The effective range is defined as the maximum range in which a face can be moved within a time interval of a frame, which is defined for each face region appearing in an image.

또한, 상기 유효범위값의 결정은 도 3에 도시된 바와같이 최대 유효범위는 원래의 얼굴영역에서 사방 이동가능거리(d)만큼 확장된 범위를 말한다.In addition, the determination of the effective range value refers to a range in which the maximum effective range is extended by an all possible movable distance d in the original face region.

즉, 원래의 얼굴영역을 d/2만큼 이동하여 탬플리트 매칭하여도 얼굴영역임을 확인하는데 영향을 주지 못하는 최대한의 이동가능거리(d)로 정의하게 되는 바,That is, even if the original face area is moved by d / 2 to match the template, it is defined as the maximum movable distance (d) which does not affect the identification of the face area.

상기 이동가능거리(d)가 결정되면 프레임간의 시간간격(Δt)은,When the movable distance d is determined, the time interval Δt between frames is

와 같이 된다.Becomes

여기서, v는 이동가능속도로 사전 데이타를 이용하여 얼굴영역의 움직임 속도를 조사하여 그 중 최대속도로 정하므로, 두 프레임간에 일어날수 있는 얼굴영역의 이동 가능한 최대 거리는 항상 d보다 작음을 보장하게 된다.In this case, v is the movable speed and the maximum speed is determined by checking the movement speed of the face area by using the prior data. Therefore, the maximum movable distance of the face area that can occur between two frames is always guaranteed to be smaller than d. .

또한, 상기 이동가능거리(d)는 탬플리트 크기와 관계가 없으며, 상기 이동가능거리(d)를 프레임간의 시간간격(Δt)을 현재의 프레임에 적용하고 있는 탬플리트 크기에 따라 다르게 설정할수도 있다.Further, the movable distance d is not related to the template size, and the movable distance d may be set differently according to the template size to which the time interval Δt between frames is applied to the current frame.

따라서, 도 4 및 도 5에 도시된 바와같이(가는 실선은 원영상, 굵은 실선은 탬플리트 매칭에 의해 이동한 영상), 실제 유효범위내에서 탬플리트 매칭을 하기 위한 매칭종류는 단순이동매칭과 스케일 이동매칭으로 나눈다.Therefore, as shown in FIGS. 4 and 5 (the thin solid line is the original image, the thick solid line is the image moved by template matching), the matching type for template matching within the actual effective range is simple shift matching and scale shift. Divide by matching.

즉, 상기 단순이동 매칭에 있어 8방향 매칭을 사용할 경우에는 도 3의 a∼i까지 9가지이고, 4방향을 사용할 경우에는 도 3의 b,d,f,h,i 등 5가지이며, 상기 스케일 이동매칭은 확대스케일과 축소스케일로 각각 구분되는 10가지로 구분한다.That is, in the simple mobile matching, nine types are used in the eight-way matching, and the four types are used in the four directions, and in the case of four directions, b, d, f, h, and i are five types. Scale shift matching is divided into 10 types, each of which is divided into an enlarged scale and a reduced scale.

이때, 하나의 얼굴영역을 찾기 위한 매칭종류로 8방향 매칭을 수행할 경우에는 모두 19가지이고, 4방향 매칭을 수행할 경우에는 모두 15가지로 구분되는 바,In this case, 19 types are used for 8-way matching as a matching type for finding one face area, and 15 types are used for 4-way matching.

상기 유효범위 탬플리트 매칭방법은 상기 단순이동매칭과 스케일 이동매칭을 근거로 하여 전체 매칭과, 모션예측 매칭, 모션-속도 예측 매칭으로 나눌수 있다.The effective range template matching method may be divided into total matching, motion prediction matching, and motion-speed predictive matching based on the simple moving matching and the scale moving matching.

상기 전체 매칭은 상기 설명된 19가지의 매칭종류를 순서대로 모두 매칭한 다음 가장 높은 점수를 얻는 매칭영역을 얼굴영역으로 정하므로서 그 정확성을 높일수 있다.The overall matching can increase the accuracy by matching all of the nineteen matching types described above in order and then setting the matching area to obtain the highest score as the face area.

그리고, 상기 모션예측 매칭은 이전 단계에서의 얼굴영역 움직임을 바탕으로 현재의 얼굴영역을 예측하는 바,The motion prediction matching predicts the current face region based on the movement of the face region in the previous step.

이는 가능성 높은 매칭종류를 예측하여 그 순서대로 매칭하다가 특정 임계치를 넘는 높은 매칭점수를 얻을때 그 매칭영역을 얼굴영역으로 보고 그 이후에는 더 이상 매칭을 하지 않는 것이다.It predicts the most likely matching types and matches them in order, and when the matching score is higher than a certain threshold, the matching area is regarded as the face area and no further matching is performed after that.

즉, 이는 매칭횟수가 적으므로 빠른 속도에 유리하며 매칭종류의 예측은 바로 이전단계에서 매칭된 매칭종류와 유사도 거리가 가까운 순서로 정할수 있게 되는 것이다.That is, the number of matching is small, which is advantageous for high speed, and the prediction of the matching type can be determined in the order in which the similarity distance is close to the matching type matched in the previous step.

이때, 각 매칭종류는 얼굴의 움직임을 대표하므로 이전단계에서 매칭된 매칭종류는 이전단계에서의 얼굴영역 움직임을 의미하는 바,At this time, since each matching type represents the movement of the face, the matching type matched in the previous step means the movement of the face region in the previous step.

얼굴의 움직임이 연속된다고 가정할때 이전단계에서 매칭된 매칭종류가 현 단계에서도 얼굴로 매칭될 확률이 높게 된다.Assuming that the movements of the faces are continuous, the matching type matched in the previous step is more likely to match the face in the present step.

다시말해, 각 매칭종류와의 유사도 거리는 실험을 통해 얻어진 도 5에 도시되어 있는 바, 같은 매칭종류는 그 거리가 0이므로 예측시 처음 행하는 매칭종류는 바로 이전단계에 행했던 매칭종류가 되며, 이는 바로 이전단계에서 일어났던 움직임이 그 다음 단계에서도 연속될 확률이 높을때 효과적으로 사용할수 있는 것이다.In other words, the similarity distance with each matching type is shown in FIG. 5 obtained through experiments. Since the same matching type has a distance of 0, the first matching type in prediction is the matching type performed in the previous step. It can be used effectively when the movement that occurred in the previous stage is likely to continue in the next stage.

또한, 상기 모션-속도 예측매칭은 정의된 두 프레임간의 시간간격(Δt)동안 프레임에 등장하는 얼굴 중 어떤 얼굴영역은 최대 이동가능거리(d)만큼 움직이기도 하지만, 어떤 얼굴영역은 그보다 느린 속도로 움직이기도 하는 바,In addition, the motion-velocity prediction matching shows that some face regions of the faces appearing in the frame during the time interval Δt between two defined frames may move by the maximum movable distance d, while some face regions are slower. Moving bar,

어떤 얼굴영역이 두 프레임간의 시간간격(Δt)동안 d/n만큼 움직이는 속도를 갖는다면 이 영역은 Δt×(n/2) 이후에 캡쳐된 프레임에서 움직임으로 인한 이동된 얼굴영역으로 추출될 것이며 그 이전에는 기존의 얼굴영역으로 추출된다.If a face area has a moving speed of d / n during the time interval (Δt) between two frames, this area will be extracted as a moved face area due to movement in the frame captured after Δt × (n / 2). Previously, it is extracted as an existing face area.

그러므로, 캡쳐된 매 프레임마다 얼굴영역을 추출할 필요없이 Δt×n시간이 지나서 캡쳐된 프레임에서 유효범위 탬플리트 매칭을 하면 되며, Δt×n 시간이 지나서 캡쳐된 프레임은 이후 n번째 캡쳐된 프레임이 되는 것이다.Therefore, the effective range template matching is performed on a frame captured after Δt × n time without having to extract a face region for every captured frame, and the frame captured after Δt × n time becomes the nth captured frame afterwards. will be.

이를 보다 구체적으로 설명하면 다음과 같다.This will be described in more detail as follows.

도 2에 도시된 바와같이, 제한된 유효범위와 얼굴영역을 추출하기 위한 프레임간의 간격은 가장 최근에 매칭된 프레임과 그 이전단계 중 가장 최근에 매칭된 프레임간의 캡쳐된 프레임수로 결정되는 바,As shown in FIG. 2, the interval between the frames for extracting the limited effective range and the face area is determined by the number of frames captured between the most recently matched frame and the most recently matched frame.

상기 제한된 유효범위와 얼굴영역을 추출하기 위한 프레임간의 간격을 통해 오브젝트의 이동속도에 적응적으로 축적하여 수행하는 탬플리트 매칭은,Template matching is performed by adaptively accumulating the moving speed of the object through the limited effective range and the interval between frames for extracting the face region.

먼저, 현재 입력되는 프레임의 시간(t)을 이전단계에서 얼굴영역을 추출했던 프레임의 시간(t')+{프레임간의 시간간격(Δt)× n}을 비교한다.First, the time t of the currently input frame is compared with the time t '+ {time interval Δt × n} of the frame from which the face region is extracted in the previous step.

이때, 상기 비교결과 t<t'+(Δt×n)이면 현재 입력되는 프레임의 시간(t)에 프레임간의 시간간격(Δt)을 증가시키고, 만약 t<t'+(Δt×n)가 아니면 유효범위 조건 탬플리트 매칭을 한 후 그 성공여부를 판단하게 된다.In this case, if the comparison result is t <t '+ (Δt × n), the time interval Δt between frames is increased to the time t of the currently input frame, and if t <t' + (Δt × n), After matching the validity condition template, it is determined whether it is successful.

이후, 상기 유효범위 조건 탬플리트 매칭이 성공이면 이전단계에서 얼굴영역을 추출했던 프레임의 시간(t')을 현재 입력되는 프레임의 시간(t)으로 세팅하고, 현재 입력되는 프레임의 시간(t)에 프레임간의 시간간격(Δt)을 증가시킨다.Subsequently, if the effective range condition template matching is successful, the time t 'of the frame from which the face region is extracted in the previous step is set to the time t of the currently input frame, and the time t of the currently input frame is set. Increase the time interval [Delta] t between frames.

또한, 상기 유효범위 조건 탬플리트 매칭이 성공하지 못하면 탬플리트 매칭을 행할 n번째 캡쳐된 프레임(n)이 있을때 (n≥1)을 비교하게 되는 바,In addition, if the scope condition template matching is not successful, (n≥1) is compared when there is an nth captured frame n to perform template matching.

상기 비교결과 탬플리트 매칭을 행할 n번째 캡쳐된 프레임(n)과 프레임간의 캡쳐된 프레임이 (n≥1)이 아니면 실패한 유효범위 조건 탬플리트 매칭 결과를 검출하게 되는 것이다.As a result of the comparison, if the nth captured frame n to be subjected to template matching and the captured frame between the frames is not (n≥1), the failed range condition template matching result is detected.

한편, 상기의 비교결과 탬플리트 매칭을 행할 n번째 캡쳐된 프레임(n)과 프레임간의 캡쳐된 프레임이 (n≥1)이면 탬플리트 매칭을 행할 n번째 캡쳐된 프레임(n)을 감소(n=n-1)시킨 후 현재 프레임의 시간(t)에서 프레임간의 시간간격(Δt)을 감소시켜 탬플리트 매칭을 수행하게 된다.On the other hand, if the n-th captured frame n for template matching and the captured frame between the frames is (n≥1), the n-th captured frame n for template matching is reduced (n = n−). 1), the template matching is performed by reducing the time interval Δt between frames in the time t of the current frame.

여기서, 상기 n은 이전단계에서 처음으로 변화되면서 탬플리트로 매핑된 프레임 간격으로 Δt×n을 지난 프레임에서 이동/스케일이 나타난다.Here, n is changed for the first time in the previous step, and the movement / scale appears in the frame past Δt × n at the frame interval mapped to the template.

즉, 얼굴의 모션이 연속적이지 않을 경우에는 Δt×n 시간이 지나서 캡쳐된 프레임에서 유효반경을 넘어 얼굴이 나타나는 경우가 생길수 있기 때문이다.That is, when the motion of the face is not continuous, the face may appear beyond the effective radius in the captured frame after Δt × n time.

다시말해, 도 4 및 도 5에서와 같이 19가지 매칭종류 모두가 임계치를 넘는 점수를 내지 못하므로 이 경우에는 다시 이미 지나친 Δt×(n-1) 프레임에서 Δt프레임까지 얼굴영역의 추출이 성공할때까지 유효반경 탬플리트 매칭을 수행하는 바,In other words, as shown in FIGS. 4 and 5, all 19 matching types do not score above the threshold, and in this case, when extraction of the face region from the excessive Δt × (n-1) frame to the Δt frame is successful, Performing effective radius template matching until

이는 미리 정의된 몇번의 매칭 종류만큼만 탬플리트 매칭을 하게 되므로서 얼굴영역의 추출과 매우 빠른 프로세싱이 가능하게 되는 것이다.This allows the template matching to be performed only a few predefined types of matching, so that the extraction of the face region and the very fast processing are possible.

이상에서 설명한 바와같이 본 발명은 이미지 전체 영역에서 얼굴영역을 추출하는 주기적인 초기 얼굴영역 추출과 유효범위 조건 탬플리트 매칭을 함께 사용하므로서, 탬플리트 매칭을 사용하는 구간에서 매칭횟수를 줄이면서 빠른 프로세싱으로 동영상의 얼굴영역을 빠르고 정확하게 추출할수 있도록 하는 한편, 이전단계에서 추출되었던 얼굴영역을 기준으로 탬플리트 매칭을 수행한 후 가장 점수가 높은 탬플리트 영역을 얼굴영역으로 정하거나, 이전단계에서 적용했던 탬플리트 매칭 종류를 기준으로 매칭순서를 정하여 그 순서대로 검색하고, 또는 캡쳐된 매 프레임마다 탬플리트 매칭을 행하지 않고 각 얼굴마다 최근의 움직임 속도를 이용하여 탬플리트 매칭할 프레임을 선택하므로서, 한번 찾아낸 얼굴은 시간이 지나더라도 추적할수 있도록 하고, 더불어 얼굴영역을 추출하는 과정에서 새로운 인물이 등장하더라도 새로운 인물의 얼굴영역을 함께 추출할수 있는 것이다.As described above, the present invention uses a combination of the periodic initial face region extraction and the effective range condition template matching to extract the face region from the entire image area, thereby reducing the number of matching in the section using the template matching and the video with fast processing. Fast and accurate extraction of the face area, while performing template matching based on the face area extracted in the previous step, select the template area with the highest score as the face area, or select the template matching type applied in the previous step. Based on the matching order, the search is performed in that order, or by selecting the frames to be template matched using the latest movement speed for each face without performing template matching every captured frame. So that And, although new figures emerge from the process of extracting the face area, which will be extracted along with the face area of the new figures.

Claims (13)

하나의 프레임 안에서 정지영상 정보만을 이용하거나 프레임들 사이의 시간적인 정보를 함께 이용하여 동영상에서 오브젝트 영역을 추출하는 방법에 있어서,A method of extracting an object region from a video by using only still image information or using temporal information between frames in a frame, 임의의 알고리즘을 적용하여 한 프레임에 등장하는 얼굴 영역들을 추출하는 초기 얼굴영역 추출단계와;An initial face region extraction step of extracting face regions appearing in one frame by applying an arbitrary algorithm; 상기 단계에 의해 한번 추출된 얼굴영역을 바탕으로 제한된 유효범위내에서 탬플리트 매칭을 행하는 유효범위 조건 얼굴영역 추출단계; 로 진행함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.An effective range condition face region extraction step of performing template matching within a limited effective range based on the face region extracted once by the above steps; A facial region extraction method using effective range condition template matching, characterized by proceeding to. 제 1 항에 있어서, 상기 초기 얼굴영역 추출은 이전 얼굴영역 추출정보는 이용하지 않고 현재의 프레임만을 이용함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.2. The method of claim 1, wherein the initial face region extraction uses only the current frame without using previous face region extraction information. 제 1 항에 있어서, 초기 얼굴영역 추출단계에 의해 하나 이상의 얼굴영역이 추출되면 추출된 얼굴영역들을 이용하여 유효범위 조건의 탬플리트 매칭을 수행하는 단계와;The method of claim 1, further comprising: performing template matching of an effective range condition using the extracted face regions when one or more face regions are extracted by the initial face region extraction step; 상기 유효범위 조건의 탬플리트 매칭 결과 초기 얼굴영역 추출단계에서 추출된 얼굴영역들 중 하나라도 추출에 성공하지 못하면 다시 초기 얼굴영역 추출을 수행하는 단계와;Performing initial face region extraction if any one of the face regions extracted in the initial face region extraction step is not successful in the template matching result of the effective range condition; 초기 얼굴영역 추출에서 캡쳐된 프레임의 유효시간이 지나면 다시 초기 얼굴영역 추출을 수행하는 단계; 를 더 포함하여 진행시킴을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.Performing initial face region extraction again after an effective time of the captured frame in initial face region extraction; Facial region extraction method using the effective range condition template matching, characterized in that further comprising. 제 1 항에 있어서, 상기 제한된 유효범위는 사전학습을 통하여 프레임의 시간 간격동안 얼굴이 움직일수 있는 최대범위를 구한 후 그 최대범위를 이용하여 다음 프레임에서 얼굴영역이 나타날 가능성이 있는 범위로 결정함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.The method of claim 1, wherein the limited effective range is determined as a range in which the face area may appear in the next frame using the maximum range after obtaining the maximum range in which the face can move during the time interval of the frame. A facial region extraction method using effective range condition template matching. 제 1 항 또는 제 4 항에 있어서, 상기 제한된 유효범위와 얼굴영역을 추출하기 위한 프레임간의 간격은, 가장 최근에 매칭된 프레임과 그 이전단계 중 가장 최근에 매칭된 프레임간의 캡쳐된 프레임수로 결정함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.The method according to claim 1 or 4, wherein the interval between the limited effective range and the frame for extracting the face region is determined by the number of captured frames between the most recently matched frame and the most recently matched frame of the previous step. Facial region extraction method using effective range condition template matching. 제 1 항 또는 제 3 항에 있어서, 상기 초기 얼굴영역 추출에 있어 새로운 사람의 등장이나 퇴장으로 인해 유효범위 조건 탬플리트 매칭으로 추출된 얼굴영역들을 변화시킬 경우 이미 이전 프레임에서 유효범위 조건 탬플리트 매칭을 통하여 추출된 얼굴영역은 제외하고 그 나머지 영역만을 대상으로 초기 얼굴영역 추출을 수행함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.The method according to claim 1 or 3, wherein in the initial face region extraction, if the face regions extracted by the coverage condition template matching are changed due to the appearance or exit of a new person, the coverage criteria template matching is already performed in the previous frame. A face region extraction method using effective range condition template matching, wherein the initial face region extraction is performed on only the remaining regions except for the extracted face regions. 동영상에서 제한된 유효범위와 얼굴영역을 추출하기 위한 프레임간의 간격을 통해 오브젝트의 이동속도에 적응적으로 축적하여 탬플리트 매칭을 수행하는 방법에 있어서,In a method for performing template matching by adaptively accumulating at the moving speed of an object through a limited effective range and a frame interval for extracting a face region in a video, 현재 입력되는 프레임의 시간과 이전단계에서 얼굴영역을 추출했던 프레임의 시간+프레임간의 시간간격×n을 비교한 후 유효범위 조건의 탬플리트 매칭을 수행하는 단계와;Comparing the time of the currently input frame with the time interval xn between the time + frame of the frame from which the face region was extracted in the previous step and performing template matching of the effective range condition; 상기 유효범위 조건 탬플리트 매칭이 성공이면 이전단계에서 얼굴영역을 추출했던 프레임의 시간을 현재 입력되는 프레임의 시간으로 세팅하고, 현재 입력되는 프레임 시간에 프레임간의 시간간격을 증가시키는 단계와;Setting the time of the frame from which the face region was extracted in the previous step to the time of the currently input frame and increasing the time interval between the frames at the currently input frame time if the effective range condition template matching is successful; 상기 판단결과 유효범위 조건 탬플리트 매칭이 성공하지 못하면 탬플리트 매칭을 행할 n번째 캡쳐된 프레임에서 (n≥1)을 비교하는 단계와;Comparing (n ≧ 1) in the nth captured frame to be subjected to template matching if validity condition template matching is not successful; 상기 비교결과에 따라 실패한 유효범위 조건 탬플리트 매칭결과를 검출하거나 탬플리트 매칭을 행할 n번째 캡쳐된 프레임과 현재 프레임의 시간에서 프레임간의 시간간격을 감소시켜 다시 유효범위 탬플리트 매칭을 수행하는 단계; 로 진행함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.Performing coverage template matching again by detecting a failed coverage condition template matching result according to the comparison result or by reducing a time interval between frames at the time of the current frame and the nth captured frame to perform template matching; A facial region extraction method using effective range condition template matching, characterized by proceeding to. 제 7 항에 있어서, 상기 유효범위 조건 내에서의 탬플리트 매칭은 이동방향과 크기조절을 고려하여 8방향 또는 4방향으로 구분되는 단순이동매칭과, 확대스케일/축소스케일로 각각 구분되는 스케일 이동매칭을 사용함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.8. The method of claim 7, wherein the template matching within the effective range condition comprises a simple moving matching divided into eight directions or four directions and a scale moving matching divided into an enlarged scale and a reduced scale, respectively, in consideration of the moving direction and the size control. Facial region extraction method using range matching template matching, characterized in that the use. 제 7 항 또는 제 8 항에 있어서, 상기 유효범위 조건에서의 탬플리트 매칭은 정해진 시간간격으로 캡쳐된 매 프레임마다 이전단계에서 추출된 얼굴영역을 기준으로 각 얼굴영역마다 단순이동매칭과 스케일 이동매칭을 모두 수행하되,10. The method of claim 7 or 8, wherein the template matching in the effective range condition comprises simple movement matching and scale shift matching for each face region based on the face region extracted in the previous step every frame captured at a predetermined time interval. Do everything, 그 중 가장 점수가 높은 탬플리트 영역을 얼굴영역으로 결정함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.A face region extraction method using effective range condition template matching, wherein the template region having the highest score is determined as the face region. 제 7 항 또는 제 8 항에 있어서, 상기 유효범위 조건에서의 탬플리트 매칭은 이전단계의 얼굴모션을 이용하여 현재의 얼굴영역을 예측하기 위해 이전단계에 적용되었던 매칭종류를 기준으로 매칭순서를 정하되,The method of claim 7 or 8, wherein the template matching in the effective range condition determines a matching order based on the matching type applied in the previous step to predict the current face area using the face motion of the previous step. 상기 정해진 순서로 검색하여 탬플리트 영역을 결정함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.A method for extracting a face region using range matching template matching, characterized in that determining a template region by searching in the predetermined order. 제 7 항 또는 제 8 항에 있어서, 상기 유효범위 조건에서의 탬플리트 매칭은 정해진 시간간격으로 캡쳐된 매 프레임마다 모든 얼굴영역을 탬플리트 매칭을 하지 않고, 각 얼굴마다 최근의 움직임 속도를 이용하여 탬플리트 매칭할 프레임을 선택하여 탬플리트 영역을 결정함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.The template matching according to claim 7 or 8, wherein the template matching in the effective range condition does not perform template matching on all face regions in every frame captured at a predetermined time interval, and template matching is performed using the latest movement speed for each face. A method for extracting a face region using range matching template matching, comprising selecting a frame to determine a template region. 제 7 항에 있어서, 얼굴이 화면에서 사라지거나 탬플리트 매칭 과정에서 얼굴을 놓쳤을 경우 탬플리트 매칭점수를 사용하여 얼굴영역을 재추출하고,The method of claim 7, wherein when the face disappears from the screen or the face is missed in the template matching process, the face region is re-extracted using the template matching score, 새로운 사람이 등장했을 경우에는 그 사람의 얼굴영역을 추가하여 함께 추출할수 있도록 초기 얼굴 영역추출을 다시 적용함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.When a new person appears, the face region extraction method using the effective range condition template matching is applied again to add the face region of the person and extract the same together. 제 9 항에 있어서, 상기 가장 높은 매칭점수인 탬플리트 영역을 얼굴영역으로 결정함에 있어, 매칭점수가 임계치 이상이면 얼굴영역이라 보고 매칭을 중단함을 특징으로 하는 유효범위 조건 탬플리트 매칭을 이용한 얼굴영역 추출방법.10. The method of claim 9, wherein in determining the template region, which is the highest matching score, as the face region, if the matching score is greater than or equal to the threshold value, the face region extraction using the effective range condition template matching is stopped. Way.
KR1019990000425A 1999-01-11 1999-01-11 Method of face territory extraction using the templates matching with scope condition KR100311952B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1019990000425A KR100311952B1 (en) 1999-01-11 1999-01-11 Method of face territory extraction using the templates matching with scope condition
US09/480,111 US6639998B1 (en) 1999-01-11 2000-01-10 Method of detecting a specific object in an image signal
US10/655,311 US7085402B2 (en) 1999-01-11 2003-09-05 Method of detecting a specific object in an image signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1019990000425A KR100311952B1 (en) 1999-01-11 1999-01-11 Method of face territory extraction using the templates matching with scope condition

Publications (2)

Publication Number Publication Date
KR20000050501A true KR20000050501A (en) 2000-08-05
KR100311952B1 KR100311952B1 (en) 2001-11-02

Family

ID=19570958

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1019990000425A KR100311952B1 (en) 1999-01-11 1999-01-11 Method of face territory extraction using the templates matching with scope condition

Country Status (1)

Country Link
KR (1) KR100311952B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020075960A (en) * 2002-05-20 2002-10-09 주식회사 코난테크놀로지 Method for detecting face region using neural network
KR20030012193A (en) * 2001-07-31 2003-02-12 주식회사 드림미르 Method of eye position detection for the image with various background
KR100522171B1 (en) * 2002-12-02 2005-10-18 한국전자통신연구원 Generator of the arbitrary shape frame and method for generating the arbitrary shape frame using the same
KR100698845B1 (en) * 2005-12-28 2007-03-22 삼성전자주식회사 Method and apparatus for editing image using algorithm of extracting personal shape

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4611347A (en) * 1984-09-24 1986-09-09 At&T Bell Laboratories Video recognition system
JP3557659B2 (en) * 1994-08-22 2004-08-25 コニカミノルタホールディングス株式会社 Face extraction method
JPH08287216A (en) * 1995-04-18 1996-11-01 Sanyo Electric Co Ltd In-face position recognizing method
JP3461626B2 (en) * 1995-07-28 2003-10-27 シャープ株式会社 Specific image region extraction method and specific image region extraction device
KR100421683B1 (en) * 1996-12-30 2004-05-31 엘지전자 주식회사 Person identifying method using image information

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030012193A (en) * 2001-07-31 2003-02-12 주식회사 드림미르 Method of eye position detection for the image with various background
KR20020075960A (en) * 2002-05-20 2002-10-09 주식회사 코난테크놀로지 Method for detecting face region using neural network
KR100522171B1 (en) * 2002-12-02 2005-10-18 한국전자통신연구원 Generator of the arbitrary shape frame and method for generating the arbitrary shape frame using the same
KR100698845B1 (en) * 2005-12-28 2007-03-22 삼성전자주식회사 Method and apparatus for editing image using algorithm of extracting personal shape

Also Published As

Publication number Publication date
KR100311952B1 (en) 2001-11-02

Similar Documents

Publication Publication Date Title
Singha et al. Dynamic hand gesture recognition using vision-based approach for human–computer interaction
US6542625B1 (en) Method of detecting a specific object in an image signal
US7085402B2 (en) Method of detecting a specific object in an image signal
Shan et al. Real time hand tracking by combining particle filtering and mean shift
EP1426898B1 (en) Human detection through face detection and motion detection
Denman et al. An adaptive optical flow technique for person tracking systems
KR101653278B1 (en) Face tracking system using colar-based face detection method
Kawato et al. Two-step approach for real-time eye tracking with a new filtering technique
EP2309454B1 (en) Apparatus and method for detecting motion
Chetverikov et al. Dynamic texture as foreground and background
Ribeiro et al. Hand Image Segmentation in Video Sequence by GMM: a comparative analysis
Jung et al. Eye detection under varying illumination using the retinex theory
KR101139930B1 (en) Apparatus and method for object recognition based on part-template matching
CN111783665A (en) Action recognition method and device, storage medium and electronic equipment
KR20210129043A (en) How to process information from event-based sensors
Wang et al. Spatiotemporal group context for pedestrian counting
Lim et al. Detecting and tracking of multiple pedestrians using motion, color information and the AdaBoost algorithm
KR100311952B1 (en) Method of face territory extraction using the templates matching with scope condition
Foresti et al. Detecting moving people in video streams
CN111444875B (en) Face tracking method, device, equipment and computer readable storage medium
Ahlvers et al. Model-free face detection and head tracking with morphological hole mapping
CN110310303B (en) Image analysis multi-target tracking method
Marqués et al. A morphological approach for segmentation and tracking of human faces
CN114821441A (en) Deep learning-based airport scene moving target identification method combined with ADS-B information
Mehta et al. Region graph based method for multi-object detection and tracking using depth cameras

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20090929

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee