KR20030050617A - The system and method of face skin area extraction using combined information with color and edge - Google Patents

The system and method of face skin area extraction using combined information with color and edge Download PDF

Info

Publication number
KR20030050617A
KR20030050617A KR1020010081102A KR20010081102A KR20030050617A KR 20030050617 A KR20030050617 A KR 20030050617A KR 1020010081102 A KR1020010081102 A KR 1020010081102A KR 20010081102 A KR20010081102 A KR 20010081102A KR 20030050617 A KR20030050617 A KR 20030050617A
Authority
KR
South Korea
Prior art keywords
color
region
area
information
image
Prior art date
Application number
KR1020010081102A
Other languages
Korean (ko)
Other versions
KR100427181B1 (en
Inventor
윤호섭
이재연
소정
배영래
Original Assignee
한국전자통신연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국전자통신연구원 filed Critical 한국전자통신연구원
Priority to KR10-2001-0081102A priority Critical patent/KR100427181B1/en
Publication of KR20030050617A publication Critical patent/KR20030050617A/en
Application granted granted Critical
Publication of KR100427181B1 publication Critical patent/KR100427181B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PURPOSE: A system for extracting a face color area using edge and color information, and a method thereof are provided to improve the accuracy of face authentication by preventing a face area from merging with a background area. CONSTITUTION: A color area dividing unit(10) detects edge information from an input color image and divides areas from an entire image by the edge information. An isolated area forming unit(11) makes a background area and a face area binary for forming each isolated area. A skin color area selecting unit(12) extracts the isolated area adjacent to a center position of an image in the isolated areas for selecting an area satisfying conditions of mean gray level, size information, and color distribution as a representative face candidate area. An image merging unit(13) extracts the areas satisfying the conditions of the color and position information from the adjacent isolated areas based on the mean color distribution and position information of the selected representative face candidate area for merging images, so that the image merging unit extracts a face color area.

Description

에지/컬러정보를 이용한 얼굴 피부색 영역 추출시스템 및 그 방법{The system and method of face skin area extraction using combined information with color and edge}The system and method of face skin area extraction using combined information with color and edge}

본 발명은 온라인 얼굴인식에서 전처리에 해당하는 얼굴 추출에 관한 것으로, 상세하게는 연속적인 입력영상으로부터 에지정보 및 컬러정보를 결합한 후, 후보영역의 검증, 병합 및 재 이진화를 거쳐 모델의 컬러정보 없이도 입력영상의 컬러에 적응하여 얼굴영역을 추출할 수 있도록 함으로써 사람의 얼굴영역이 비슷한 컬러를 가진 배경영역과 결합(merge)되는 것을 방지하는 것에 의해 인증의 정확도를 향상시킬 수 있는 에지/컬러정보를 이용한 얼굴 피부색 영역 검출시스템 및 그 방법에 관한 것이다.The present invention relates to face extraction corresponding to preprocessing in online face recognition, and more particularly, by combining edge information and color information from a continuous input image, and verifying, merging, and re-binarization of candidate regions without color information of a model. By extracting the face area by adapting the color of the input image, the edge / color information can be improved to prevent the human face area from being merged with the background area with similar color. The present invention relates to a facial skin color area detection system used and a method thereof.

초고속 인터넷이 대중화됨에 따라 컴퓨터의 보급이 급속히 진전되어 IT 산업이 점차 활성화되고 있다. 이에 따라 컴퓨터 사용자의 보안 및 인증에 대한 수요가 증대되어, 지문, 홍채, 서명, 얼굴, 음성 등의 생체 정보를 이용한 인증 소프트웨어가 점차적으로 상용화되어 보급되고 있다.As the high-speed Internet is popularized, the spread of computers is rapidly progressing and the IT industry is gradually being activated. Accordingly, the demand for security and authentication of computer users is increasing, and authentication software using biometric information such as fingerprints, irises, signatures, faces, and voices is gradually commercialized and spread.

이들 중 지문인증 소프트웨어는 가장 일반적으로 보편화되어 상용화가 시도되고 있으나, 지문 인증용 기기에 인식 결과가 종속되고, 사람의 직업에 따라 지문 인식 결과의 신뢰성이 낮아지는 등 한가지 생체 정보만을 사용한 인증 시스템의 개발에는 한계가 있다. 그러므로 현재 한가지 생체 정보만을 사용한 인증 시스템을 구축하기 보다는 다중 생체 정보를 이용한 인증 시스템의 구현이 시도되고 있다.Among them, fingerprint authentication software is most commonly used and commercialized, but recognition results depend on devices for fingerprint authentication, and the reliability of fingerprint recognition results decreases according to a person's occupation. There is a limit to development. Therefore, rather than constructing an authentication system using only one biometric information, an attempt has been made to implement an authentication system using multiple biometric information.

다중 생체 인증 시스템을 구현하는데 있어 얼굴인식 시스템은 사용자로 하여금 거부감 없이 인증을 수행할 수 있고, 또한 입력 카메라로 현재 컴퓨터에 기본으로 탑재되는 추세인 PC 카메라를 이용할 수 있다는 점에서 장점을 가진다.In realizing a multi-biometric authentication system, a face recognition system has an advantage in that a user can perform authentication without rejection, and can also use a PC camera, which is a trend that is currently installed in a computer as an input camera.

얼굴인식 분야의 연구 현황을 단계별로 분류해 보면 입력된 영상으로부터 얼굴 부위를 정확히 추출하기 위한 연구, 얼굴 영상의 해석 및 분석을 통해 데이터베이스의 얼굴정보와 입력된 얼굴정보가 동일한지 판별하는 연구(인증), 입력된 얼굴정보가 데이터베이스의 어떤 얼굴정보와 동일한지 판별하는 연구(인식), 그리고 얼굴의 특징 부위들을 분석하여 표정을 인식하는 연구 등으로 대별할 수 있다.If the classification of research in the face recognition field is classified step by step, it is a study to accurately extract the face region from the input image, and a study to determine whether the face information in the database is the same through the interpretation and analysis of the face image (certification) ), A study for determining whether the input face information is the same as the face information in the database, and a study for recognizing facial expressions by analyzing facial features.

위와 같이 얼굴을 인식하기 위해서 가장 먼저 수행해야 할 단계로 얼굴 추출방법에 대한 개발이 선행되어야 한다.As the first step to recognize the face as described above, the development of the face extraction method should be preceded.

초기에 얼굴추출방법들은 주로 연구실 환경에서 입력 영상에 얼굴영역 만을 포함한다고 가정하거나 또한 단일 색조의 배경만이 존재한다고 가정하고, 얼굴영역의 검출을 수행하여 매우 간단한 방법으로 신뢰성있는 결과를 얻었다. 그러나 실용화를 목표로 하는 얼굴인식 시스템을 개발 할 때는 배경, 조명상태, 얼굴과 카메라와 거리, 입력 얼굴의 상하좌우 각도, 얼굴 표정, 카메라의 입력 특성 등의 다양한 환경에서 강인한 얼굴 추출 결과를 얻을 수 있어야 한다.Initially, the face extraction methods assume that only the face region is included in the input image in the lab environment or that there is only a single color tone background. However, when developing a face recognition system aiming at practical use, it is possible to obtain robust face extraction results in various environments such as background, lighting condition, face and camera distance, input face up, down, left and right angles, facial expressions, camera input characteristics, etc. Should be

카메라를 이용해 얼굴을 추출하기 위해 사용되는 정보로선 크게 동영상일 경우는 움직임 정보, 정지영상일 경우 에지정보, 컬러정보, 명암정보 등을 들 수 있다.Information used to extract a face using a camera includes motion information in a moving image, edge information, color information, and contrast information in a still image.

에지정보를 이용한 얼굴 추출방법은 주로 얼굴영상에서 에지를 추출한 후, 고립영역을 생성하고, 고립영역에서 눈과 같은 특정한 모양의 영역을 사전 지식 및각종 검증작업을 통해 추출하고 이를 바탕으로 얼굴 구성요소를 추출하는 방법이다. 이 방법은 주로 안경을 끼지 않은 남자의 경우는 무리없이 수행되나, 다양한 헤어 스타일의 여자 및 안경을 낀 상태의 영상에서는 특정 고립영역을 추출하는데 실패 가능성이 매우 높다.The face extraction method using edge information mainly extracts the edges from the face image, creates an isolated region, extracts a specific shape such as eyes from the isolated region through prior knowledge and various verifications, and based on the face components How to extract. This method works well for men who do not wear glasses, but it is very likely to fail to extract specific isolated regions in women with various hairstyles and glasses.

컬러정보를 이용한 얼굴 추출방법은 주로 사람의 피부색을 등록하고, 등록된 피부색 정보를 이용하여 새로 입력된 영상에서 피부색을 찾는 방법이다. 이 방법은 입력장치(카메라)가 동일하고 동일한 조명상태에서 촬영된 데이터일 경우 만족할 만한 추출결과를 얻을 수 있으나 카메라의 성능과 촬영시 배경조건(조명, 배경색 등)이 달라질 경우 좋은 성능을 기대하긴 힘들다.The face extraction method using color information mainly registers the skin color of a person and uses the registered skin color information to find the skin color from a newly input image. This method produces satisfactory extraction results when the input device (camera) is the same and the data is taken under the same lighting conditions, but good performance is expected when the camera's performance and background conditions (lighting, background color, etc.) are different. Hard.

명암정보를 이용한 얼굴 추출방법은 주로 팸플릿을 이용하여 얼굴영역을 추출하거나, 가버(Gaber) 필터나 웨이브렛(Wavelet) 필터를 적용하여 얼굴영역을 추출한다. 이 방법은 계산시간은 타 방법에 비해 오래 걸리나 비교적 정확히 얼굴영역을 추출할 수 있다.The face extraction method using contrast information mainly extracts a face region using a pamphlet, or extracts a face region by applying a Gaber filter or a wavelet filter. This method takes longer than other methods, but it can extract the face area relatively accurately.

그러나 이 방법 역시 근본적으로 명암 특징을 이용하므로 입력영상의 명암 변화 및 다양한 배경 하에서 오류가 발생할 확률이 높다. 이와 같이 하나의 정보만을 사용하여 얼굴을 추출하는 방법은 모든 환경변화에 적응하여 좋은 결과를 낼 수 없는 문제가 있다.However, this method also fundamentally uses the contrast feature, which is highly likely to cause an error under varying contrast of the input image and various backgrounds. As such, a method of extracting a face using only one information has a problem in that it cannot adapt to all environmental changes and produce a good result.

본 발명의 목적은 연속적인 입력영상으로부터 에지정보 및 컬러정보를 결합한 후, 후보영역의 검증, 병합 및 재 이진화를 거쳐 모델의 컬러정보 없이도 입력영상의 컬러에 적응하여 얼굴영역을 추출할 수 있도록 함으로써 사람의 얼굴영역이 비슷한 컬러를 가진 배경영역과 결합(merge)되는 것을 방지하는 것에 의해 인증의 정확도를 향상시킬 수 있는 에지/컬러정보를 이용한 얼굴 피부색 영역 검출시스템 및 그 방법을 제공하는데 있다.An object of the present invention is to combine the edge information and color information from a continuous input image, and then to extract the face region by adapting to the color of the input image without color information of the model through verification, merging and re-binarization of candidate regions. The present invention provides a system for detecting a facial skin color region using edge / color information that can improve the accuracy of authentication by preventing a human face region from being merged with a background region having a similar color.

상기 목적을 달성하기 위한 본 발명의 얼굴 피부색 영역 추출시스템은 컬러 이미지로부터 얼굴의 피부색 영역을 검출하는 검출장치에 있어서, 입력된 컬러 이미지에서 에지정보를 검출하고, 그 에지정보에 의해 전체 이미지로부터 영역들을 분할하는 컬러영역 분할수단; 상기 에지정보에 의해 분할된 상기 컬러영역중 배경영역과 얼굴영역을 이진화하여 각각의 고립영역을 생성하는 고립영역 생성수단; 상기 고립영역 중에서 영상의 중심 위치에 근접한 고립영역을 추출하여 평균 명암도, 크기정보 및 컬러분포의 조건을 만족하는 영역을 피부색 고립영역으로 선정하는 피부색 영역선정수단; 및 상기 피부색 영역선정수단에 의해 선정된 피부색 고립영역의 평균 컬러분포 및 위치정보를 근거로 이웃하는 고립영역들에 대해 컬러 및 위치정보의 조건을 만족하는 영역을 추출하여 이미지를 병합하는 것에 의해 얼굴 피부색 영역을 검출하는 이미지 병합수단;을 포함하여 구성된 것을 특징으로 한다.The facial skin color region extraction system of the present invention for achieving the above object is a detection device for detecting the skin color region of the face from the color image, detecting the edge information in the input color image, the area from the entire image by the edge information Color region dividing means for dividing the image; Isolated region generating means for binarizing a background region and a face region of the color regions divided by the edge information to generate respective isolated regions; Skin color region selection means for extracting an isolated region close to the center of the image from the isolated regions and selecting a region satisfying the condition of average contrast, size information and color distribution as the skin color isolated region; And extracting an area that satisfies the condition of color and location information of neighboring isolated areas based on the average color distribution and position information of the skin color isolated area selected by the skin color area selection means, and merging the face by merging the images. And image merge means for detecting a skin color region.

또한 본 발명에 따른 얼굴 피부색 영역 추출방법은 얼굴 피부색 영역 추출시스템의 제어하에 입력된 영상이미지로부터 얼굴 피부색 영역을 추출하기 위한 방법에 있어서, 입력된 영상 이미지로부터 에지정보를 검출하는 단계; 검출된 상기 에지정보를 근거로 배경영역과 얼굴영역을 각각 고립영역으로 분할하는 단계; 에지정보 검출 후 나타난 고립영역들 중 얼굴 후보영역을 찾기 위해 일정 크기 이상의 고립영역 중 영상의 중심에 가장 가까운 영역을 대표얼굴 후보영역으로 결정하는 단계; 및 대표얼굴 후보영역의 평균 컬러분포 및 위치정보를 근거로 이웃하는 고립영역들에 대해 컬러 및 위치정보의 조건을 만족하는 영역을 추출하여 이미지를 병합하는 단계;의 루틴을 수행하여 얼굴 피부색 영역을 추출하는 것을 특징으로 한다.In addition, the method for extracting the facial skin color region according to the present invention includes a method for extracting a facial skin color region from an input image image under the control of the facial skin color region extraction system, the method comprising: detecting edge information from the input image image; Dividing a background area and a face area into isolated areas based on the detected edge information; Determining a representative face candidate region among the isolated regions of a predetermined size or more closest to the center of the image to find a face candidate region among the isolated regions displayed after edge information detection; And merging images by extracting regions satisfying the conditions of color and position information of neighboring isolated regions based on the average color distribution and position information of the representative face candidate regions. It is characterized in that the extraction.

상기한 구성 및 방법에 의하면, 본 발명은 입력영상에서 얼굴영역의 컬러분포를 에지를 이용한 고립영역으로부터 추출함으로써 각 입력영상의 컬러변화에 적응할 수 있는 얼굴영역의 컬러분포를 얻을 수 있고, 또한 고립영역간의 병합 조건에 의해 동일한 컬러를 갖으나 영상의 중심에 존재하지 않는 영역들을 분리하여 얼굴 피부색 영역을 검출함으로서 얼굴 인증에 대한 정확도를 향상시킬 수 있다.According to the above configuration and method, the present invention extracts the color distribution of the face region from the input region from the isolated region using the edge to obtain the color distribution of the face region which can be adapted to the color change of each input image, and is also isolated. The accuracy of face authentication can be improved by detecting areas of facial skin color by separating areas having the same color but not existing in the center of the image by the merge conditions between the areas.

도 1은 본 발명에 의한 얼굴 피부색 영역 추출기의 블록회로도,1 is a block circuit diagram of a facial skin color region extractor according to the present invention;

도 2는 본 발명에 의한 얼굴 피부색 영역을 추출하는 방법을 설명하기 위한 플로우챠트도,2 is a flowchart illustrating a method of extracting a facial skin color region according to the present invention;

도 3은 적응형 수평, 수직 에지를 구하기 위한 마스크,3 is a mask for obtaining adaptive horizontal and vertical edges,

도 4는 피부색 영역의 컬러 분포를 추출하기 위한 샘플링 영역 설정,4 is a sampling area setting for extracting the color distribution of the skin color area;

도 5는 실험 입력 영상 예시도,5 is a diagram illustrating an experiment input image;

도 6은 적응형 수평, 수직 에지 검출 결과를 보인 도면,6 is a diagram showing adaptive horizontal and vertical edge detection results;

도 7은 고립영역 추출 결과를 보인 도면,7 is a diagram illustrating a result of extracting an isolated region;

도 8은 고립영역 판정 결과를 보인 도면.8 is a diagram showing a result of an isolated region determination.

*도면의 주요부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *

10;컬러영역 분할부11;고립영역 생성부10; color region divider 11; isolated region generator

12;피부색 영역 선정부13;이미지 병합부12 skin color selection unit 13 image merge unit

14;컬러분포 추출부14; color distribution extracting section

이하, 본 발명의 바람직한 실시예를 첨부된 도면을 통해 설명한다. 도 1은 본 발명을 개시하기 위한 얼굴 피부색 영역 검출기의 구성도로서, 본 발명은 연속적인 입력영상으로부터 에지정보 및 컬러정보를 효율적으로 결합한 후, 후보 영역의 검증, 병합 및 재 이진화를 거쳐 모델의 컬러정보 없이도 입력영상의 컬러에 적응하여 얼굴영역을 검출할 수 있는 기술을 개시하고 있다.Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings. 1 is a block diagram of a facial skin color area detector for presenting the present invention. The present invention efficiently combines edge information and color information from a continuous input image, and then validates, merges, and rebinarizes a candidate area. Disclosed is a technique for detecting a face region by adapting the color of an input image without color information.

도면을 참조하면, 본 발명의 에지정보와 컬러정보를 결합한 얼굴 피부색 영역 추출시스템은 컬러영역 분할부(10), 고립영역 생성부(11), 피부색 영역판정부(12), 이미지 병합부(13) 및 컬러분포 추출부(14)를 포함하고 있다.Referring to the drawings, the facial skin color region extraction system combining the edge information and the color information of the present invention includes a color region division unit 10, an isolated region generation unit 11, a skin color region determination unit 12, and an image merging unit 13 ) And a color distribution extractor 14.

컬러영역 분할부(10)는 입력된 컬러 이미지로부터 에지정보를 검출하고, 그 에지정보에 의해 배경영역과 얼굴영역으로 분할하는 것으로, 본 발명에서는 적응형 에지 검출기를 통해 에지를 검출하여 전체 이미지에서 배경영역과 얼굴영역을 분할한다.The color region dividing unit 10 detects edge information from the input color image, and divides the edge information into a background region and a face region by the edge information. In the present invention, the edge is detected through an adaptive edge detector in the entire image. Divides the background area and the face area.

고립영역 생성부(11)는 상기 에지정보에 의해 분할된 배경영역과 얼굴영역을 이진화하여 각각의 고립영역을 생성한다.The isolated region generating unit 11 binarizes the background region and the face region divided by the edge information to generate respective isolated regions.

피부색 영역선정부(12)는 상기 고립영역 중에서 영상의 중심 위치에 근접한 고립영역을 추출하여 평균 명암도, 크기정보 및 컬러분포의 조건을 만족하는 영역을 대표얼굴 후보영역으로 선정한다.The skin color region selection unit 12 extracts an isolated region close to the center of the image from the isolated regions and selects a region satisfying the conditions of average contrast, size information, and color distribution as a representative face candidate region.

이미지 병합부(13)는 상기 피부색 영역선정부(12)에 의해 선정된 대표얼굴 후보영역의 평균 컬러분포 및 위치정보를 근거로 이웃하는 고립영역들에 대해 컬러 및 위치정보의 조건을 만족하는 영역을 추출하여 이미지를 병합하는 것에 의해 얼굴 피부색 영역을 추출한다.The image merging unit 13 satisfies the conditions of the color and position information of neighboring isolated regions based on the average color distribution and position information of the representative face candidate region selected by the skin color region selecting unit 12. Extracts the face skin color region by merging the images.

그리고, 컬러분포 추출부(14)는 상기 컬러영역 분할부(10)에서 배경영역과 얼굴영역을 분할할 수 없는 불분명한 이미지가 입력될 경우에 그 전체 이미지로부터 얼굴영역을 추출하기 위한 것으로, 이 컬러분포 추출부(14)는 입력된 전체 이미지로부터 중심위치를 샘플링하고, 그 샘플링된 중심위치에서 피부색 영역의 컬러정보를 추출하여 이진화한 후, 고립영역 추출 후 가장 큰 영역을 얼굴영역으로 추출하여 전체 컬러 이미지로부터 얼굴의 피부색 영역을 검출하게 된다.The color distribution extractor 14 extracts the face region from the entire image when an unclear image that cannot divide the background region and the face region is input by the color region divider 10. The color distribution extractor 14 samples the center position from the entire input image, extracts the color information of the skin color region from the sampled center position and binarizes it, and then extracts the largest region as the face region after extracting the isolated region. The skin color region of the face is detected from the full color image.

본 발명은 상기한 시스템의 제어하에 에지정보와 컬러정보를 결합한 얼굴 피부색 영역을 추출할 수 있고, 이와 관련한 추출방법을 도 2의 플로우챠트를 참조하여 설명한다.The present invention can extract the facial skin color region combining edge information and color information under the control of the above system, and the extraction method related to this will be described with reference to the flowchart of FIG. 2.

본 발명은 입력된 영상에 대해 컬러영역 분할부(10)의 제어하에 전체 이미지로부터 얼굴영역과 배경영역을 구분할 수 있는 에지정보를 검출한다.(S21)The present invention detects edge information for distinguishing a face region and a background region from an entire image under the control of the color region dividing unit 10 with respect to the input image.

이러한 에지정보는 입력된 영상에 대해 적응형 수평, 수직 에지 검출 알고리즘에 의해 수행하게 되는데, 이 에지 검출알고리즘은 적응형 에지 검출기를 통해 알고리즘을 실행할 수 있다. 즉, 본 발명에서 기본적으로 사용하는 사람의 얼굴과 배경영역은 에지로 분리 가능하다 라는 가정을 만족시키기 위해서이다.This edge information is performed by an adaptive horizontal and vertical edge detection algorithm on the input image. The edge detection algorithm can execute the algorithm through an adaptive edge detector. That is, in order to satisfy the assumption that the face and background region of a person basically used in the present invention can be separated by an edge.

본 발명은 일반적으로 카메라의 상태가 정상적이고 초점이 맞아 있다면 입력영상에서 얼굴영역과 배경영역 사이는 경계 즉, 에지가 확연히 구분할 수 있지만 사람의 옷 색상이나 조명 상태에 따라 에지정보가 끊어질 수 있는데 이를 방지하기 위해 일반적으로 사용하는 에지 검출 기법보다 수평 에지를 많이 추출할 수 있는 수평, 수직 에지 검출기를 사용한다.According to the present invention, if the camera is in a normal state and in focus, the boundary, that is, the edge, can be clearly distinguished between the face area and the background area in the input image, but the edge information may be broken according to the clothes color or lighting state of the person. To prevent this, use horizontal and vertical edge detectors that can extract more horizontal edges than commonly used edge detection techniques.

수평 에지를 많이 추출할 수 있는 적응형 수평, 수직 에지 검출기를 사용하는 이유는 사람의 얼굴영역과 배경영역을 분리할 때 주로 수직에지보다 수평에지의 강도가 약하게 검출되어 얼굴과 배경의 분명하게 구분되지 않기 때문이다.The reason for using the adaptive horizontal and vertical edge detectors that can extract a lot of horizontal edges is that when the face and background areas of a human are separated, the intensity of the horizontal edge is weaker than that of the vertical edge. Because it is not.

일반적으로 에지강도(edgeness)값을 측정한 후, 에지로 판별하고자 할 때, 고정된 임계치를 사용하여 판별하는 방법이 주로 사용되는데, 이 방법은 입력영상의 밝고 어두움에 따라 즉, 조명 변화에 따라 에지의 양을 조정할 수 없는 단점이 있다.In general, when the edge strength value is measured and then the edge is to be determined, it is mainly used to determine by using a fixed threshold value. This method is used according to the light and dark of the input image, that is, the light change. The disadvantage is that the amount of edges cannot be adjusted.

이러한 단점을 해결하기 위해 본 발명에서는 영상에 적용되는 마스크상의 국부적인 특징에 따라 임계치를 결정하는 적응형 에지 검출기를 사용하였다.In order to solve this disadvantage, the present invention uses an adaptive edge detector that determines a threshold value according to a local feature on a mask applied to an image.

temp = abs(h) + abs(v);temp = abs (h) + abs (v);

sum = sum/64;sum = sum / 64;

if (sum == 0.) sum = 1;if (sum == 0.) sum = 1;

if (temp/sum > 1.0) then edge;if (temp / sum> 1.0) then edge;

else non-edge;else non-edge;

상기 에지 검출 알고리즘을 분석해 보면 수직방향 에지는 도 3의 V로부터 얻어지고, 수평방향 에지는 H로, 수평.수직 에지 강도는 SUM으로 구해진다. 본 발명은 도 3에서와 같이 수직방향 에지의 강도에는 0.5를 곱하여 에지 강도를 낮추었고, 수평방향 에지의 강도에는 2.0을 곱하여 에지 강도를 높였다.Analyzing the edge detection algorithm, the vertical edge is obtained from V in FIG. 3, the horizontal edge is H, and the horizontal and vertical edge intensities are SUM. As shown in FIG. 3, the strength of the vertical edge is multiplied by 0.5 to lower the edge strength, and the strength of the horizontal edge is multiplied by 2.0 to increase the edge strength.

수직방향 에지와 수평방향 에지의 강도를 조절하는 이유는 통상적으로 수직방향 에지보다 수평방향 에지가 약하게 검출되므로, 수평방향 에지의 선명도를 보상해 줌으로써 전체적인 수직.수평 에지의 선명도를 균일하게 유지할 수 있도록 하기 위한 것이다.The reason for adjusting the strength of the vertical edge and the horizontal edge is that the horizontal edge is generally detected weaker than the vertical edge, so that the sharpness of the horizontal edge is compensated so that the overall vertical and horizontal edges can be kept uniform. It is to.

또한 SUM은 전체 마스크 상에 16을 곱한 결과와 같으므로 16으로 나누면 평균 에지 강도를 얻게 되나, 좀 더 많은 에지를 추출할 수 있도록 64로 나누어 주었다. 즉, 위의 에지 결정조건에서 sum 값이 작으면 작을수록 에지가 많이 추출되고, temp값이 크면 클수록 에지가 많이 추출된다.In addition, SUM is equal to the result of multiplying 16 over the entire mask, so dividing by 16 yields the average edge strength, but divided by 64 to extract more edges. That is, in the above edge determination condition, the smaller the sum value, the more edges are extracted, and the larger the temp value, the more edges are extracted.

위와 같이 적응형 수평, 수직 에지 검출기를 사용하면 영상의 밝기 변화에비교적 민감하지 않은 에지 검출 결과를 얻을 수 있다. 도 5의 입력영상에 대해 적응형 수평 에지 검출기를 적용한 결과 도 6과 같이 입력영상은 에지부분과 화소부분으로 이진화된다.Using the above-described adaptive horizontal and vertical edge detectors, edge detection results that are relatively insensitive to changes in the brightness of an image can be obtained. As a result of applying the adaptive horizontal edge detector to the input image of FIG. 5, the input image is binarized into an edge portion and a pixel portion as shown in FIG. 6.

스텝 21에서와 같이 이진화가 수행되면, 고립영역 생성부(11)의 제어하에 8방향 레이블링 알고리즘을 수행하여 고립영역을 생성한다.(S22-S23)When the binarization is performed as in step 21, an eight-way labeling algorithm is performed under the control of the isolated region generating unit 11 to generate an isolated region. (S22-S23)

본 발명은 상기한 방법에 의해 생성된 각각의 고립영역에 대해 피부색 영역선정부(12)에서는 평균 컬러분포, 위치정보 및 크기정보를 구한다. 도 7은 이진화된 도 6의 영상에 대해 8방향 레이블링 알고리즘을 수행한 결과를 보인 것이다.The present invention obtains the average color distribution, position information and size information in the skin color region selecting section 12 for each isolated region generated by the above-described method. FIG. 7 illustrates a result of performing an 8-way labeling algorithm on the binarized image of FIG. 6.

스텝 23에서 각각의 고립영역에 대해 본 발명에서 정의한 각종 정보가 구해지면 대표얼굴 후보영역을 추출하기 위해 상기한 고립영역 중 입력영상의 중심점에 가장 근접한 고립영역을 추출한다.In step 23, when various pieces of information defined in the present invention are obtained for each isolated region, the isolated region closest to the center point of the input image is extracted from the above-described isolated regions to extract the representative face candidate region.

이는 일반적인 사용자가 얼굴 인증을 시도할 때 카메라를 바라보며 자기의 얼굴이 카메라의 중심에 놓이도록 움직인다는 가정을 이용한 것이다.This is based on the assumption that a typical user looks at the camera and tries to move his or her face to the center of the camera when attempting to authenticate the face.

이와 같은 가정은 본 발명의 목적이 얼굴 인증을 통한 컴퓨터 사용 관리라 할 때 호의적인 사용자는 가급적 높은 얼굴 인증의 결과를 얻기 위해 카메라에 자신의 얼굴을 정확히 노출시킬 것이며, 악의적인 사용자는 가급적 자신의 얼굴을 감추려 할 것이다.This assumption is that when the purpose of the present invention is to manage computer use through facial authentication, a favorable user will expose his / her face to the camera as accurately as possible in order to obtain a high result of facial authentication. You will try to hide your face.

그러므로 얼굴 인증 시스템은 호의적인 사용자들만을 고려하여 시스템을 구성하여야 하며, 악의적인 사용자를 처리하기 위해 필요 없는 가정을 고려할 필요가 없다.Therefore, the face authentication system should configure the system considering only the favorable users, and it is not necessary to consider the assumption that is not necessary to deal with the malicious user.

이러한 가정 하에 얼굴이 입력영상의 중심에 놓여진다면, 앞서 구해진 고립영역 중 입력영상의 중심에 가까운 고립영역은 얼굴영역일 가능성이 매우 높고, 따라서 입력영상의 중심에 가장 가까운 고립영역의 피부 분포를 입력된 얼굴의 피부 분포로 결정할 수 있다.Under these assumptions, if the face is placed in the center of the input image, it is very likely that the isolated region close to the center of the input image among the previously isolated islands is a face region, so that the skin distribution of the isolated region closest to the center of the input image is input. It can be determined by the skin distribution of the injured face.

그러나 때때로 몇몇 오류로 인해 머리카락 영역이나 배경영역이 입력영상의 중심에 위치해 피부색 영역으로 판정되기도 하는데 이러한 오류를 제거하기 위해 피부색 영역선정부(12)에서는 현재 영상의 중심에 가장 근접한 고립영역들을 대상으로 차례대로 다음과 같은 조건을 검사한다.However, sometimes, due to some errors, the hair or background area is located in the center of the input image to determine the skin color area. To eliminate this error, the skin color area selection unit 12 targets the isolated areas closest to the center of the current image. In turn, the following conditions are checked:

본 발명에서는 대표얼굴 후보영역의 판정기준은 다음과 같은 조건을 만족할 때 가능하다.In the present invention, the criterion for determining the representative face candidate region is possible when the following conditions are satisfied.

조건 1) 피부색 고립영역의 평균 명암도가 다른 고립영역들의 평균 명암도에 비해 어둡지 않은가?Condition 1) Is the average contrast of skin color islands darker than the average contrast of other islands?

조건 2) 피부색 고립영역의 크기가 일정한 크기 이상 및 이하의 면적을 갖는가?Condition 2) Does the size of the skin color islands have an area above and below a certain size?

조건 3) 피부색 고립영역의 평균 R의 값이 평균 G, B에 대해R > G, R > B의 조건을 만족하는가?Condition 3) Does the mean R of skin color islands satisfy the condition of R> G, R> B for mean G, B?

위의 조건 1)은 정해진 고립영역이 머리카락 영역일 경우를 검사하기 위한 조건으로 일반적으로 한국인의 머리카락은 상대적으로 검기 때문에 머리카락 영역이 피부색 영역으로 판정되는 결과를 제거하기 위해 사용된다.The above condition 1) is a condition to check the case where the predetermined isolated area is the hair area. Generally, since Korean hair is relatively black, it is used to remove the result that the hair area is determined as the skin color area.

조건 2)는 앞에서 적응형 수평, 수직 에지 검출기가 입력영상에서 비교적 많은 에지 들을 검출하면서 작은 잡음 영역들이 피부색 고립영역으로 판정되는 것을 제거하기 위한 조건 및 에지가 미약하게 나와 고립영역의 크기가 너무 크게 나온 경우를 제거하기 위한 조건이다.Condition 2) is a condition for eliminating small noise areas that are determined as skin color islands while the adaptive horizontal and vertical edge detector detects relatively many edges in the input image. Condition to remove the case.

본 발명에서는 입력영상 크기의 수평, 수직 길이를 더 한 크기를 4로 나눈 값을 최소 면적으로 결정하고 (즉, 입력영상이 320*240의 해상도라면 (320+240)/4 = 140) 최대 면적은 수평 수직 길이를 더한 크기에 20을 곱한 값을 최대 면적으로 결정하였다.In the present invention, the horizontal and vertical length of the input image size is determined by dividing the size divided by 4 as the minimum area (that is, if the input image has a resolution of 320 * 240 (320 + 240) / 4 = 140), the maximum area is determined. Determined the maximum area by multiplying the horizontal vertical length by 20.

마지막으로 조건 3)은 한국인의 피부색 영역을 컬러 분포로 분석해 보면 각 화소당 R의 값이 G나 B에 비해 높은 값을 가지므로 피부색 고립영역의 평균 컬러 분포에서도 위와 같은 조건을 만족해야 피부색 영역으로 판정할 수 있다.Finally, condition 3) shows that the color value of R in each pixel is higher than that of G or B. Therefore, the average color distribution of skin color isolated area must satisfy the above condition. It can be determined.

이와 같이 여러 고립영역 중 영상의 중심에 가장 근접한 영역이 위에서 정의한 3가지의 조건을 만족하지 않으면 다음으로 입력영상에 근접한 고립영역들을 순차적으로 검사해서 위의 3가지 조건을 만족하는 영역을 추출하고, 그 추출된 영역을 대표얼굴 후보영역으로 판정한다.(S24)As described above, if the region closest to the center of the image does not satisfy the three conditions defined above, the regions satisfying the above three conditions are extracted by sequentially examining the isolated regions close to the input image. The extracted region is determined as the representative face candidate region (S24).

도 8은 위의 피부색 고립영역 판정 조건을 거쳐 대표얼굴 후보영역으로 결정된 예를 보이고 있다.8 shows an example in which the representative face candidate region is determined through the skin color isolated region determination condition.

이와 같이 조건들에 의해 대표얼굴 후보영역이 결정되면, 다음 단계는 이미지 병합부(13)의 제어하에 병합의 단계를 수행한다.(S25)When the representative face candidate region is determined according to the conditions as described above, the next step performs the merging step under the control of the image merging unit 13 (S25).

상기 이미지 병합부(13)에서는 그 병합의 조건을 고립영역(대표얼굴 후보영역)의 위치와 해당 고립영역의 컬러분포를 참조하여 이미지를 병합하게 된다.The image merging unit 13 merges the image by referring to the position of the isolated region (representative face candidate region) and the color distribution of the isolated region in terms of the merging.

즉, 입력영상에서 이진화된 고립영역 중에서 피부색 고립영역이 하나만 존재할 수도 있지만, 적응형 수평, 수직 에지 검출기가 에지를 강하게 추출하므로 피부색 영역이 여러 영역으로 분리되어 추출될 수 도 있다.That is, although only one skin color isolated region may exist among the binarized isolated regions in the input image, since the adaptive horizontal and vertical edge detectors extract edges strongly, the skin color region may be separated into several regions.

따라서 피부색 영역이 여러 영역으로 분리되었을 경우는 하나의 피부색 영역으로 결합하는 과정이 필요하다. 따라서 본 발명에서는 피부색 영역을 병합하기 위해 다음과 같은 조건을 정의하고, 그 정의된 조건에 따라 피부색 영역을 검사한다.Therefore, when the skin color region is separated into several regions, a process of combining into one skin color region is necessary. Therefore, in the present invention, the following conditions are defined in order to merge the skin color regions, and the skin color regions are examined according to the defined conditions.

본 발명에서는 피부색 고립영역 병합에 대해 다음과 같은 조건을 만족할 때 병합될 수 있도록 한다.In the present invention, the skin color can be merged when the following conditions are satisfied for merging the skin color regions.

조건 1) 찾아진 피부색 고립영역의 평균 R, G, B 값과 유사한 컬러 값을 갖는지 조사Condition 1) Investigate whether they have color values similar to the average R, G, and B values of the found skin color islands.

조건 2) 찾아진 피부색 고립영역과 인접한 위치를 갖는지 조사Condition 2) Investigation of the location adjacent to the found skin color islands

위의 조건 1)은 동일한 사람의 피부색 분포는 균일한 R, G, B값을 갖는다는 가정을 이용한 것이다. 일반적으로 배경영역에 사람의 피부색 영역과 비슷한 잡음 영역이 존재할 경우도 있으므로 후보 영역이 피부색 고립영역을 병합되기 위해서는 찾아진 피부색 고립영역과 매우 유사한 분포를 갖고 있어야 한다.Condition 1) uses the assumption that the skin color distribution of the same person has uniform R, G and B values. In general, there may be a noise region similar to the human skin color region in the background region, so the candidate region should have a distribution very similar to the skin color isolation region found in order to merge the skin color isolation regions.

본 발명에서는 R -Th < Rinput < R + Th, G Th < Ginput < G +Th, B Th < Binput < B + Th의 조건을 만족하는 지 검사하였다. 이때 R, G, B는 구해진 고립영역의 평균 R, G, B값이고, Rinput, Ginput, Binput 은 전체 병합되고자 하는 후보 고립영역의 평균 R, G, B 값이 된다. 이때 Th 는 임계치로써 10의 값을 할당하였다.In the present invention, it was examined whether the conditions of R-Th <Rinput <R + Th, G Th <Ginput <G + Th, B Th <Binput <B + Th are satisfied. In this case, R, G, and B are average R, G, and B values of the isolated islands, and Rinput, Ginput, and Binput are average R, G, and B values of candidate islands to be merged. At this time, Th assigned a value of 10 as a threshold.

병합조건 2)에서는 입력영상에서 인증 대상인 얼굴영역을 하나만 찾는다는 것을 의미한다. 즉, 본 발명에서는 여러 명의 얼굴이 입력영상에 존재하더라도 단지 영상의 중심에 위치한 하나의 얼굴만을 인증 대상으로 삼는다.Merging condition 2) means that only one face area to be authenticated is found in the input image. That is, in the present invention, even if several faces exist in the input image, only one face positioned at the center of the image is regarded as the authentication target.

그러므로 이미 찾아진 피부색 고립영역과 위치적으로 매우 근접한 영역만을 병합하도록 조건 2)에서 검사한다. 이때 매우 근접한 영역이란 병합하고자 하는 두 영역의 MBR(minimum bounding rectangle)이 단 한 화소라도 겹쳐지는 가를 검사하여 겹쳐지면 근접한 영역으로 안 겹쳐지면 근접하지 않은 영역으로 판정된다.Therefore, examine under condition 2) to merge only those regions that are very close in position to the skin color islands already found. In this case, the very close area is determined as whether the minimum bounding rectangle (MBR) of the two areas to be merged overlaps even one pixel.

피부색 고립영역의 병합 조건을 만족하는 영역들 간의 병합이 이루어지면 최종적으로 인증하고자 하는 얼굴의 피부색 영역이 검출된다.(S26)When merging is performed between areas satisfying the merge condition of the skin color islands, the skin color area of the face to be authenticated is finally detected (S26).

일반적인 경우, 본 발명에서 기술된 단계를 거치면 사람의 피부색 영역을 효율적으로 찾을 수 있지만, 본 발명에서 사전 가정한 사람의 얼굴과 배경 영상이 에지로 분리 가능하다 란 조건은 앞서 기술한 바와 같이 입력영상의 획득 시 카메라의 상태가 정상적이고 초점이 맞아 선명한 영상일 경우에 만족한 결과를 얻을 수 있는 것이다.In general, the human skin color region can be efficiently found through the steps described in the present invention, but the condition that the face and the background image of the pre-assumed person in the present invention can be separated by an edge is as described above. If the camera is in a normal state of focus and a clear image is obtained, a satisfactory result can be obtained.

만일 이러한 조건을 만족하지 않는 즉, 고립영역을 구분하기 어려울 정도로 이미지가 흐리거나 불분명한 영상이 입력되었을 경우에는 본 발명에서 앞서 기술한 방법을 사용하지 못한다.If the image does not satisfy this condition, that is, the image is blurred or the image is not clear enough to distinguish the isolated region, the method described above may not be used in the present invention.

따라서 본 발명은 이러한 이미지가 불분명하게 입력된 영상을 처리하기 위해서 도 4와 같이 컬러분포 추출부(14)의 제어하에 입력영상(9)의 중심부분(9a)을 일정 크기로 샘플링 한 후, 이 영역에 존재하는 컬러 분포를 사용하여 얼굴영역을 찾을 수 있도록 하고 있다.(S27)Therefore, the present invention samples the central portion 9a of the input image 9 to a predetermined size under the control of the color distribution extractor 14 as shown in FIG. The face area can be found using the color distribution existing in the area (S27).

상기 컬러분포 추출부(14)에서는 전체 이미지에 대해 수직과 수평으로 등분하여 샘플링하게 되며, 이와 같이 등분된 샘플링 영역은 그 수직 폭이 전체 입력영상의 수직 폭을 3등분한 중간 위치의 수직 폭으로 결정되며, 수평 길이는 사람의 얼굴이 일반적으로 수평 방향 보다는 수직 방향이 길다는 사실을 감안하여 수직 길이를 1로 했을 때 수평 길이를 0.75 의 비율로 그 크기를 결정한다.The color distribution extractor 14 equally and vertically and horizontally samples the entire image. The equally divided sampling area is a vertical width of an intermediate position where the vertical width is equal to three times the vertical width of the entire input image. The horizontal length is determined by a ratio of 0.75 when the vertical length is 1 in consideration of the fact that a human face is generally longer in the vertical direction than the horizontal direction.

본 발명에서는 이처럼 샘플링 영역에 대한 비율을 정의하고, 그 비율에 따라 샘플링 영역을 등분하게 되며, 이 후 샘플링 영역에서 다음과 같은 피부색 후보 컬러분포 검출조건을 조사하여 해당되는 화소의 컬러 분포를 누적시킨다.(S28)In the present invention, the ratio of the sampling area is defined as described above, and the sampling area is equally divided according to the ratio. After that, the color candidate color distribution of the corresponding pixel is accumulated by investigating the following skin color candidate color distribution detection conditions in the sampling area. (S28)

본 발명에서는 입력된 이미지를 정의된 방법에 의해 등분한 샘플링 영역 각각에 대해 피부색 컬러분포를 다음과 같은 조건을 만족하는지 검출하여 얼굴영역을 결정하게 된다.In the present invention, the facial region is determined by detecting whether the skin color color distribution satisfies the following conditions for each of the sampling regions obtained by dividing the input image by the defined method.

조건 1) 각 화소 당 R > G, R > B의 조건 만족 하는가 ?Condition 1) Does R> G, R> B satisfy each pixel?

조건 2) 각 화소의 평균 명암도 (R+G+B)/3이 임계치 이상의 밝기를 갖고 있는가 ?Condition 2) Does the average intensity (R + G + B) / 3 of each pixel have brightness above the threshold?

조건 2)에서 임계치는 샘플링된 영역의 평균 명암도를 히스토그램으로 누적 시킨 후, 밝기가 어두운 부분부터 화소수를 누적하여 전체 화소수의 20%에 이르는 곳의 명암도를 사용한다. 이 방법은 샘플링된 영역내에 얼굴이 존재한다면 눈 영역이나 코 영역, 기타 머리카락 영역등이 피부색 영역 중 전체 면적의 20% 이상 존재하지 않는다는 가정을 이용한 것이다.In condition 2), the threshold value accumulates the average intensity of the sampled area as a histogram, and then uses the intensity of 20% of the total number of pixels by accumulating the number of pixels from the dark part. This method uses the assumption that if there is a face in the sampled area, there are no more than 20% of the skin area of the eye, nose and other hair areas.

따라서, 샘플링된 영역에서 위의 조건 1)과 조건 2)를 만족하는 화소들의 평균 R, G, B 값을 누적하면, 이를 입력영상의 피부색 영역의 평균값으로 추정할 수 있다. 즉, 전체 영상에 대해 구해진 위의 평균 R, G, B값을 이용하여 R -Th < Rinput < R + Th, G Th < Ginput < G +Th, B Th < Binput < B + Th의 조건을 만족하는지 검사한다.Therefore, when the average R, G, and B values of pixels satisfying the above conditions 1) and 2) are accumulated in the sampled region, the average value of the skin color region of the input image may be estimated. That is, the conditions R-Th <Rinput <R + Th, G Th <Ginput <G + Th, and B Th <Binput <B + Th are satisfied using the above average R, G, and B values obtained for the entire image. Check if it is.

이때 R, G, B는 구해진 평균 R, G, B값이고, Rinput, Ginput, Binput 은 전체 입력영상의 각 화소가 된다. Th 는 임계치로써 10의 값을 할당하였다.In this case, R, G, and B are average R, G, and B values obtained, and Rinput, Ginput, and Binput become respective pixels of the entire input image. Th assigned a value of 10 as the threshold.

위의 조건에 대해 각각의 등분된 샘플링 영역들의 검사가 끝나면 입력영상은 피부색 영역과 비 피부색 영역으로 이진화 되며, 최종적으로 고립영역을 생성하는 레이블링 알고리즘을 수행한 후, 이전에 계산된 샘플링 평균 R, G, B와 가장 유사한 평균 R, G, B값을 갖고 샘플링 영역의 크기와 가장 유사한 일정 크기 이상인 고립영역을 피부색 영역으로 판정하여 최종 얼굴영역을 검출한다.(S29-S30)After the examination of each equalized sampling area for the above conditions, the input image is binarized into the skin color region and the non-skin color region. Finally, after performing the labeling algorithm for generating the isolated region, the previously calculated sampling average R, The final face area is detected by determining an isolated area having a mean R, G, B value most similar to G and B and having a predetermined size or more similar to the size of the sampling area as the skin color area (S29-S30).

위 방법은 본 발명의 기반인 입력영상에서 인증 받고자 하는 사람의 얼굴영역이 영상의 중심에 위치한다 라는 가정하에서 얼굴영역을 추출할 수 있는 추출방법을 제시하고 있지만, 얼굴영역이 중심 위치에서 벗어났을 경우 앞서 예시한 방법을 통해 조건을 정의하고, 그 정의된 방법에 의해 얼굴영역을 추출할 경우 동일한 결과를 얻을 수 있다.The above method provides an extraction method for extracting a face region under the assumption that the face region of the person to be authenticated is located at the center of the image based on the present invention. In this case, if the conditions are defined through the above-described method, and the face region is extracted by the defined method, the same result may be obtained.

따라서 본 발명은 영상의 중심 위치뿐만 아니라 중심 위치에서 벗어된 영역에 대해서도 영역을 정의하고, 그 정의된 방법에 의해 입력영상을 분석하여 얼굴영역을 추출할 경우 얼굴영역 추출에 대해 만족한 결과를 얻을 수 있음은 자명하다할 것이다.Therefore, in the present invention, a region is defined not only for the center position of the image but also for the region deviated from the center position, and when the face region is extracted by analyzing the input image by the defined method, a satisfactory result for face region extraction is obtained. It can be self-evident.

이상에서 설명한 바와 같이, 본 발명은 입력영상에서 얼굴영역의 컬러분포를 에지를 이용한 고립영역으로부터 추출함으로써 각 입력영상의 컬러 변화에 적응할 수 있는 얼굴영역의 컬러분포를 얻을 수 있고, 또한 고립영역간의 병합 조건에 의해 동일한 컬러를 갖으나 영상의 중심에 존재하지 않는 영역들을 분리함으로써 얼굴영역을 용이하게 추출할 수 있다.As described above, the present invention extracts a color distribution of a face region from an input image from an isolated region using an edge to obtain a color distribution of a face region that can be adapted to a color change of each input image. The face region may be easily extracted by separating regions having the same color but not existing in the center of the image by the merging condition.

또한 배경, 조명상태, 얼굴과 카메라와 거리, 카메라의 입력특성 등의 다양한 환경변화에서도 얼굴영역 추출에 대한 성공률을 높일 수 있고, 이 결과 인증 시스템의 구축이 가능하다.In addition, it is possible to increase the success rate for face region extraction even in various environmental changes such as background, lighting condition, face and camera distance, and input characteristics of the camera.

Claims (14)

컬러 이미지로부터 얼굴의 피부색 영역을 검출하는 검출장치에 있어서,A detection apparatus for detecting a skin color region of a face from a color image, 입력된 컬러 이미지에서 에지정보를 검출하고, 그 에지정보에 의해 전체 이미지로부터 영역들을 분할하는 컬러영역 분할수단;Color region dividing means for detecting edge information in the input color image and dividing regions from the entire image by the edge information; 상기 에지정보에 의해 분할된 상기 컬러영역중 배경영역과 얼굴영역을 이진화하여 각각의 고립영역을 생성하는 고립영역 생성수단;Isolated region generating means for binarizing a background region and a face region of the color regions divided by the edge information to generate respective isolated regions; 상기 고립영역 중에서 영상의 중심 위치에 근접한 고립영역을 추출하여 평균 명암도, 크기정보 및 컬러분포의 조건을 만족하는 영역을 대표얼굴 후보영역으로 선정하는 피부색 영역선정수단; 및Skin color region selection means for extracting an isolated region close to the center of the image from the isolated regions and selecting a region satisfying conditions of average contrast, size information, and color distribution as a candidate face region; And 상기 피부색 영역선정수단에 의해 선정된 대표얼굴 후보영역의 평균 컬러분포 및 위치정보를 근거로 이웃하는 고립영역들에 대해 컬러 및 위치정보의 조건을 만족하는 영역을 추출하여 이미지를 병합하는 것에 의해 얼굴 피부색 영역을 추출하는 이미지 병합수단;을 포함하여 구성된 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출시스템.Based on the average color distribution and position information of the representative face candidate region selected by the skin color region selection means, a region is extracted by merging the images satisfying the conditions of the color and the position information with respect to neighboring isolated regions and merging the images. Facial skin color region extraction system using the edge / color information, characterized in that it comprises a; image merging means for extracting the skin color region. 제 1항에 있어서, 이미지가 분명하지 않은 입력영상으로부터 얼굴영역을 추출하는데 실패할 경우 입력된 이미지의 중심위치를 샘플링하고, 그 샘플링된 영역으로부터 피부색 컬러분포 검출조건을 만족하는 화소들의 컬러정보를 추출한 후 추출된 상기 컬러정보를 바탕으로 이진화하여 얼굴 피부색 영역을 추출하는 컬러분포 추출수단을 더 포함하는 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출시스템.The method of claim 1, wherein when the image fails to extract a face region from an unclear input image, the center position of the input image is sampled, and color information of pixels satisfying skin color color detection conditions is sampled from the sampled region. And a color distribution extracting means for extracting a face skin color region by binarizing the extracted color information based on the extracted color information. 제 2항에 있어서, 상기 샘플링 영역은 전체 이미지를 적어도 수직길이가 수평길이보다 긴 비율로 등분한 다수의 영역으로부터 이미지의 중심에 위치한 영역을 샘플링하는 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출시스템.The facial skin color using edge / color information according to claim 2, wherein the sampling area samples an area located at the center of the image from a plurality of areas in which the entire image is divided at least at a vertical length greater than the horizontal length. Domain extraction system. 제 2항에 있어서, 상기 컬러분포 추출수단은 상기 피부색 컬러분포 검출조건으로, 각 화소당 R>G, R>B인 제1조건과, 각 화소의 평균 명암도 (R+G+B)/3이 임계치 이상의 밝기를 갖는 제2조건을 만족하는 영역을 컬러정보로 추출하는 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출시스템.3. The color distribution extracting means according to claim 2, wherein the color distribution extracting means is a skin color color distribution detecting condition, wherein the first condition is R> G, R> B per pixel, and the average intensity (R + G + B) / 3 of each pixel. A facial skin color region extraction system using edge / color information, characterized by extracting, as color information, a region satisfying a second condition having a brightness above the threshold. 제 1항에 있어서, 상기 에지정보는 수평방향 에지와 수직방향 에지 및 SUM 의 3가기 마스크를 이용한 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출시스템.The facial skin color region extraction system using edge / color information according to claim 1, wherein the edge information comprises three masks of a horizontal edge, a vertical edge, and a SUM. 제 1항에 있어서, 상기 피부색 영역선정수단은 대표얼굴 후보영역으로 선정하기 위한 조건으로, 평균 명암도가 다른 고립영역들의 평균 명암도보다 밝아야 하는 제1조건, 고립영역의 크기가 기준면적 범위내에 있는 제2조건 및 평균 R의 값이 평균 G값, B값에 대해 R>G, R>B인 제3조건을 만족하는 영역을 대표얼굴 후보영역으로 선정하는 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출시스템.The method of claim 1, wherein the skin color region selection means is a condition for selecting a representative face candidate region, wherein the first condition that the average contrast is brighter than the average contrast of the other isolated regions, and the size of the isolated region is within the reference area range. Using the edge / color information, the area that satisfies the third condition in which the value of the second condition and the average R is R> G and R> B with respect to the average G value and B value is selected as the representative face candidate area. Facial skin color extraction system. 제 6항에 있어서, 상기 기준면적은 입력영상 크기의 수평, 수직 길이를 더 한 크기를 4로 나눈 값을 최소 면적으로 결정하고, 최대 면적은 수평, 수직 길이를 더한 크기에 20을 곱한 값을 기준으로 하는 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출시스템.The method of claim 6, wherein the reference area is determined by a minimum area of a value obtained by dividing the horizontal and vertical lengths of the input image size by 4, and the maximum area is multiplied by 20 by the horizontal and vertical lengths. Facial skin color region extraction system using edge / color information, characterized in that the reference. 제 1항에 있어서, 상기 이미지 병합수단은 선정된 대표얼굴 후보영역에 대해 이웃하는 고립영역들과 병합하기 위한 고립영역의 조건으로, 선정된 대표얼굴 후보영역의 평균 R,G,B 값과 유사한 컬러값을 갖는 제1조건, 선정된 대표얼굴 후보영역과 인접한 영역이어야 하는 제2조건을 각각 만족하는 고립영역과 병합시키는 것을특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출시스템.The method of claim 1, wherein the image merging means is a condition of an isolated region for merging with neighboring islands with respect to the selected representative face candidate region, and is similar to an average R, G, B value of the selected representative face candidate region. A facial skin color region extraction system using edge / color information, characterized by merging a first condition having a color value and an isolated area satisfying a second condition which should be an area adjacent to the selected representative face candidate area. 얼굴 피부색 영역 추출시스템의 제어하에 입력된 영상이미지로부터 얼굴 피부색 영역을 추출하기 위한 방법에 있어서,In the method for extracting the facial skin color region from the image image input under the control of the facial skin color region extraction system, 입력된 영상 이미지로부터 에지정보를 검출하는 단계;Detecting edge information from an input video image; 검출된 상기 에지정보를 근거로 배경영역과 얼굴영역을 각각 고립영역으로 분할하는 단계;Dividing a background area and a face area into isolated areas based on the detected edge information; 에지정보 검출 후 나타난 고립영역들 중 얼굴 후보영역을 찾기 위해 일정 크기 이상의 고립영역 중 영상의 중심에 가장 가까운 영역을 대표얼굴 후보영역으로 결정하는 단계; 및Determining a representative face candidate region among the isolated regions of a predetermined size or more closest to the center of the image to find a face candidate region among the isolated regions displayed after edge information detection; And 대표얼굴 후보영역의 평균 컬러분포 및 위치정보를 근거로 이웃하는 고립영역들에 대해 컬러 및 위치정보의 조건을 만족하는 영역을 추출하여 이미지를 병합하는 단계;를 포함하여 얼굴 피부색 영역을 추출하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출방법.Comprising a step of merging the image by extracting a region that satisfies the conditions of the color and position information for neighboring isolated regions based on the average color distribution and position information of the representative face candidate region; Extraction of facial skin color area using color / color information. 제 9항에 있어서, 이미지가 분명하지 않은 입력영상으로부터 얼굴영역을 추출하는데 실패할 경우 입력된 이미지의 중심위치를 샘플링하고, 그 샘플링된 영역으로부터 피부색 컬러분포 검출조건을 만족하는 화소들의 컬러정보를 추출한 후 추출된 상기 컬러정보를 바탕으로 이진화하여 얼굴 피부색 영역을 추출하는 단계;를 더 포함하는 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출방법.10. The method of claim 9, wherein when the image fails to extract a face region from an unclear input image, the center position of the input image is sampled, and color information of pixels satisfying the skin color distribution detection condition is sampled from the sampled region. And extracting a face skin color region by binarization based on the extracted color information after extraction. 제 10항에 있어서, 상기 얼굴 피부색 영역을 추출하는 단계에서,The method of claim 10, wherein the extracting the facial skin color region comprises: 각 화소당 R>G, R>B인지를 판단하는 제1단계;A first step of determining whether R> G, R> B per pixel; 각 화소의 평균 명암도 (R+G+B)/3이 임계치 이상의 밝기를 갖는지를 판단하는 제2단계;의 루틴을 수행하고, 상기 제1단계와 제2단계의 조건을 만족할 경우 화소들의 컬러정보를 추출할 수 있도록 하는 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출방법.A second step of determining whether the average intensity (R + G + B) / 3 of each pixel has a brightness higher than a threshold; Facial skin color area extraction method using the edge / color information, characterized in that to extract the. 제 9항에 있어서, 상기 대표얼굴 후보영역을 결정하는 단계에서,The method of claim 9, wherein the determining of the representative face candidate region comprises: 평균 명암도가 다른 고립영역들의 평균 명암도보다 밝은지를 판단하는 제1단계;Determining whether the average contrast is brighter than the average contrast of the other isolated regions; 고립영역의 크기가 기준면적을 초과하지 않는지를 판단하는 제2단계; 및Determining whether the size of the island area does not exceed the reference area; And 평균 R의 값이 평균 G, B에 대해 R>G, R>B인지를 판단하는 제3단계;의 루틴을 수행하고, 상기 제1,2,3단계의 조건을 만족할 경우 대표얼굴 후보영역으로 선정하는 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출방법.A third step of determining whether the value of the average R is R> G, R> B with respect to the average G and B; and if the conditions of the first, second, and third steps are satisfied, the representative face candidate area is used. Facial skin color region extraction method using the edge / color information characterized in that the selection. 제 12항에 있어서, 상기 기준면적은 입력영상 크기의 수평, 수직 길이를 더 한 크기를 4로 나눈 값을 최소 면적으로 결정하고, 최대 면적은 수평, 수직 길이를 더한 크기에 20을 곱한 값을 기준으로 하는 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출방법.The method of claim 12, wherein the reference area is determined by a minimum area of a value obtained by dividing the horizontal and vertical lengths of the input image size by 4, and the maximum area is multiplied by 20 by the horizontal and vertical lengths. Facial skin color region extraction method using edge / color information characterized in that the reference. 제 9항에 있어서, 상기 이미지 병합단계에서,The method of claim 9, wherein in the image merging step, 선정된 대표얼굴 후보영역의 평균 R,G,B 값과 유사한 컬러값을 갖는지를 판단하는 제1단계;A first step of determining whether the color values are similar to the average R, G, and B values of the selected representative face candidate region; 선정된 대표얼굴 후보영역과 인접한 영역인지를 판단하는 제2단계;의 루틴을 수행하고, 상기 제1,2단계의 조건을 만족할 경우 상기 대표얼굴 후보영역과 고립영역을 병합시키는 것을 특징으로 하는 에지/컬러정보를 이용한 얼굴 피부색 영역 추출방법.Performing a routine of determining whether the region is adjacent to the selected representative face candidate region, and merging the representative face candidate region and the isolated region when the conditions of the first and second stages are satisfied. Extraction of facial skin color area using color / color information.
KR10-2001-0081102A 2001-12-19 2001-12-19 The system and method of face skin area extraction using combined information with color and edge KR100427181B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR10-2001-0081102A KR100427181B1 (en) 2001-12-19 2001-12-19 The system and method of face skin area extraction using combined information with color and edge

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR10-2001-0081102A KR100427181B1 (en) 2001-12-19 2001-12-19 The system and method of face skin area extraction using combined information with color and edge

Publications (2)

Publication Number Publication Date
KR20030050617A true KR20030050617A (en) 2003-06-25
KR100427181B1 KR100427181B1 (en) 2004-04-28

Family

ID=29576331

Family Applications (1)

Application Number Title Priority Date Filing Date
KR10-2001-0081102A KR100427181B1 (en) 2001-12-19 2001-12-19 The system and method of face skin area extraction using combined information with color and edge

Country Status (1)

Country Link
KR (1) KR100427181B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100847136B1 (en) * 2006-08-14 2008-07-18 한국전자통신연구원 Method and Apparatus for Shoulder-line detection and Gesture spotting detection
KR100912421B1 (en) * 2007-09-11 2009-08-14 한국전자통신연구원 Apparatus and method for abstracting feature to recognition of a face feature based on a color picture
KR20160021737A (en) * 2014-07-23 2016-02-26 시아오미 아이엔씨. Method, apparatus and device for image segmentation
KR20160148863A (en) * 2015-06-17 2016-12-27 한국전자통신연구원 Apparatus for user verification

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101344851B1 (en) * 2012-03-30 2014-01-16 경북대학교 산학협력단 Device and Method for Processing Image

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPP400998A0 (en) * 1998-06-10 1998-07-02 Canon Kabushiki Kaisha Face detection in digital images
JP2000076454A (en) * 1998-08-31 2000-03-14 Minolta Co Ltd Three-dimensional shape data processor
JP2000134638A (en) * 1998-10-22 2000-05-12 Matsushita Electric Ind Co Ltd Image processor
KR100343223B1 (en) * 1999-12-07 2002-07-10 윤종용 Apparatus for eye and face detection and method thereof

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100847136B1 (en) * 2006-08-14 2008-07-18 한국전자통신연구원 Method and Apparatus for Shoulder-line detection and Gesture spotting detection
US8204311B2 (en) 2006-08-14 2012-06-19 Electronics And Telecommunications Research Institute Method and apparatus for shoulder-line detection and gesture spotting detection
KR100912421B1 (en) * 2007-09-11 2009-08-14 한국전자통신연구원 Apparatus and method for abstracting feature to recognition of a face feature based on a color picture
KR20160021737A (en) * 2014-07-23 2016-02-26 시아오미 아이엔씨. Method, apparatus and device for image segmentation
US9665945B2 (en) 2014-07-23 2017-05-30 Xiaomi Inc. Techniques for image segmentation
KR20160148863A (en) * 2015-06-17 2016-12-27 한국전자통신연구원 Apparatus for user verification

Also Published As

Publication number Publication date
KR100427181B1 (en) 2004-04-28

Similar Documents

Publication Publication Date Title
JP5107045B2 (en) Method for identifying a pixel representing an iris in an image acquired for the eye
US6876757B2 (en) Fingerprint recognition system
US8582833B2 (en) Method and apparatus for detecting forged face using infrared image
Choi et al. Automatic segmentation of latent fingerprints
KR20180022019A (en) Method and apparatus for liveness test
JP2009523265A (en) Method for extracting iris features in an image
JP2000259814A (en) Image processor and method therefor
Sharma et al. Two-stage quality adaptive fingerprint image enhancement using Fuzzy C-means clustering based fingerprint quality analysis
Johnson et al. Fingerprint pore characteristics for liveness detection
JP2007188504A (en) Method for filtering pixel intensity in image
Tiwari et al. A touch-less fingerphoto recognition system for mobile hand-held devices
KR100664956B1 (en) Method and apparatus for eye detection
Gale et al. Evolution of performance analysis of iris recognition system by using hybrid methods of feature extraction and matching by hybrid classifier for iris recognition system
Li et al. Eye detection by using fuzzy template matching and feature-parameter-based judgement
Thamaraimanalan et al. Multi biometric authentication using SVM and ANN classifiers
Maddala et al. Implementation and evaluation of NIST Biometric Image Software for fingerprint recognition
KR100427181B1 (en) The system and method of face skin area extraction using combined information with color and edge
Gogoi et al. Facial mole detection: an approach towards face identification
Danlami et al. A framework for iris partial recognition based on Legendre wavelet filter
KR100359920B1 (en) Discrimination method for imitative iris in iris recognition system
Maddala et al. Implementation and evaluation of NIST Biometric Image Software for fingerprint recognition
CN112801034A (en) Finger vein recognition device
Singla et al. Challenges at different stages of an iris based biometric system.
KR20160017152A (en) Gender Classification Based on Binary Haar Cascade
JP7389392B2 (en) Facial recognition methods, facial recognition programs, and facial recognition devices

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120330

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20130325

Year of fee payment: 10

LAPS Lapse due to unpaid annual fee