KR101105435B1 - Face detection and recognition method - Google Patents

Face detection and recognition method Download PDF

Info

Publication number
KR101105435B1
KR101105435B1 KR1020090032032A KR20090032032A KR101105435B1 KR 101105435 B1 KR101105435 B1 KR 101105435B1 KR 1020090032032 A KR1020090032032 A KR 1020090032032A KR 20090032032 A KR20090032032 A KR 20090032032A KR 101105435 B1 KR101105435 B1 KR 101105435B1
Authority
KR
South Korea
Prior art keywords
face
information
image
extracting
protrusion map
Prior art date
Application number
KR1020090032032A
Other languages
Korean (ko)
Other versions
KR20100113651A (en
Inventor
이민호
Original Assignee
경북대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경북대학교 산학협력단 filed Critical 경북대학교 산학협력단
Priority to KR1020090032032A priority Critical patent/KR101105435B1/en
Publication of KR20100113651A publication Critical patent/KR20100113651A/en
Application granted granted Critical
Publication of KR101105435B1 publication Critical patent/KR101105435B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20228Disparity calculation for image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Informatics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 영상 처리 기술을 이용한 생물학 기반의 돌출맵(saliency map)을 이용한 점진적 시각 환경 인지(novelty detection)를 통한 얼굴 검출과 점진적 얼굴 인지 방법에 관한 것으로서, 인간의 시각 메커니즘을 모델링 하여 입력 영상에 대해 밝기, 색상, 윤곽선, 대칭축 정보 등의 초기 시각 정보를 이용하여 주변보다 두드러진 영역을 스스로 결정하는 돌출맵을 구한 후 시각 환경 인지를 통하여 얼굴을 검출하고, 또한 기존에 학습되지 않은 사람 얼굴에 대해서는 점진적 얼굴 인식 방법을 제공한다. 이를 위해 본 발명은 시각 환경 인지를 통한 입력 영상에서의 환경 변화를 인지하는 전처리 단계; 전처리 단계에서 구해진 환경 변화를 바탕으로 돌출맵을 추출하고 돌출맵 내에서 얼굴 검출 알고리즘을 이용하여 얼굴을 검출하는 검출 단계; 검출된 얼굴 영역을 얼굴 인식 알고리즘을 통한 얼굴 인식 및 학습되지 않은 얼굴과 학습된 얼굴을 판별하여 학습되지 않은 얼굴의 점진적 학습에 의한 점진적 얼굴 인식 단계를 포함하는 방법을 개시한다. 본 발명에 의하면, 검출된 얼굴 중 기존에 학습되지 않은 얼굴을 점진적으로 인식하여 정확하게 인식해 낼 수 있다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to face detection and progressive face recognition through progressive visual environment recognition using biological based salience maps using image processing technology. We use the initial visual information such as brightness, color, contour, and symmetry axis information to obtain the protrusion map that determines the prominent area more than the surrounding area. Then we detect the face through visual environment recognition. Provides a progressive face recognition method. To this end, the present invention is a pre-processing step of recognizing the environmental changes in the input image through the visual environment recognition; A detection step of extracting a protrusion map based on the environment change obtained in the preprocessing step and detecting a face using a face detection algorithm in the protrusion map; Disclosed is a method comprising a face recognition through a face recognition algorithm and a face recognition step of progressively recognizing an unlearned face by discriminating a face that has not been learned and a face that has been learned. According to the present invention, a face that has not been previously learned among the detected faces may be gradually recognized and accurately recognized.

돌출맵, IHMAX, IPCA, 점진적 얼굴 인지, 얼굴 검출, 환경 인지 Protrusion map, IHMAX, IPCA, progressive face recognition, face detection, environment recognition

Description

얼굴 검출과 얼굴 인지 방법{Face detection and recognition method}Face detection and recognition method

본 발명은 영상 처리 기술을 이용한 생물학 기반의 돌출맵을 이용한 점진적 시각 환경 인지(novelty detection)를 통한 얼굴 검출과 점진적 얼굴 인지 방법에 관한 것이다. 더욱 상세하게는, 인간의 시각 메커니즘을 모델링 하여 입력 영상에 대해 밝기, 색상, 윤곽선, 대칭축 정보 등의 초기 시각 정보를 이용하여 주변보다 두드러진 영역을 스스로 결정하는 돌출맵을 구한 후 시각 환경 인지를 통한 얼굴 검출 및 점진적 얼굴 인식 방법에 관한 것이다.The present invention relates to face detection and gradual face recognition using gradual visual environment recognition using a biological-based protrusion map using image processing technology. More specifically, by modeling the human visual mechanism, by using the initial visual information such as brightness, color, contour, and symmetry axis information for the input image, it obtains the protrusion map that determines the prominent area more than the surroundings. Face detection and progressive face recognition methods.

현재 얼굴 인식 방법은 로봇 장치, 보안 감시, 이동 통신 단말기 등 여러 분야에서 사용되고 있다. 사람의 얼굴을 포함하는 동영상 또는 정지영상이나 이미지 등의 비디오에서 얼굴 영역을 검출하고 인식하는 방법에는 여러 가지 방법이 있다.Currently, the face recognition method is used in various fields such as a robot device, security surveillance, and a mobile communication terminal. There are various methods of detecting and recognizing face regions in a video including a human face or a video such as a still image or an image.

입력 영상으로부터 얼굴색을 이용하여 얼굴 후보 영역을 검출하고, 그 검출된 얼굴 후보 영역에 대한 에이다부스트를 이용하여 얼굴을 검출하는 검출기 및 검출 방법(한국 특허 출원번호: 1020060055959), 얼굴이 가진 복잡한 패턴을 몇 개의 주성분 값으로 나타낼 수 있는 주성분 분석(PCA: Principle Component Analysis)과 선형 판별 분석(LDA: Linear Discriminant Analysis)을 이용하여 얼굴 영역을 검출하는 방법(한국 특허 출원번호: 1020020070810), 단순히 색상 성분만을 사용하지 않고 인식 성능이 우수한 SVM(Support Vector Machine)을 얼굴과 비 얼굴에 대해 미리 학습시키고 학습된 데이터 베이스를 이용하여 얼굴을 검증하게 하는 방법(한국 특허 출원번호: 1020050070751), 2차원 가버 필터를 사용하여 얼굴을 인식하는 방법(한국 특허 출원번호: 1019980027314) 등이 있다.A detector and a detection method (Korean Patent Application No .: 1020060055959) for detecting a face candidate region by using a face color from an input image and detecting a face by using an adaboost for the detected face candidate region, and a complex pattern of a face. Method of detecting face region using Principle Component Analysis (PCA) and Linear Discriminant Analysis (LDA) that can be represented by several principal component values (Korean Patent Application No. 1020020070810) A method of pre-learning a SVM (Support Vector Machine) with excellent recognition performance without using a face and a non-face and verifying a face using a learned database (Korean Patent Application No. 1020050070751), and a two-dimensional Gabor filter And a method of recognizing a face by using the same (Korean Patent Application No. 1019980027314).

그러나 이러한 종래 기술들은 인간의 시각 처리 메커니즘을 전혀 고려하지 않고 있으며 점진적 얼굴 인식 방법은 제공하지 못하고 있다. 즉, 국내외 얼굴 인식을 통한 본인 인증 및 보안 시스템에 대한 연구 및 개발은 점차 그 시장규모를 늘려가며 유망 산업으로서 자리매김하고 있지만, 현재 본인 인증 및 보안 시스템은 저장된 얼굴 데이터를 바탕으로 얼굴 인식을 행하기 때문에 새로운 얼굴 데이터를 학습시키기가 아주 까다롭다.However, these prior arts do not consider human visual processing mechanisms at all and do not provide a gradual face recognition method. In other words, research and development of self-identification and security system through face recognition at home and abroad is gradually increasing its market size and positioning itself as a promising industry, but currently, self-identification and security system performs face recognition based on stored face data. It is very difficult to learn new face data.

본 발명은 인간의 시각 메커니즘을 모델링 하여 입력 영상에 대해 밝기, 색상, 윤곽선, 대칭축 정보 등의 초기 시각 정보를 이용하여 주변보다 두드러진 영역을 스스로 결정하는 돌출맵을 구한 후 시각 환경 인지를 통한 얼굴 검출을 목적으로 한다. The present invention models a human visual mechanism and obtains a projection map that determines the prominent area more prominently than the surrounding area by using initial visual information such as brightness, color, contour, and symmetry axis information on the input image, and then detects the face through visual environment recognition. For the purpose.

또한, 기존에 학습되지 않은 사람에 대한 얼굴 인식이 되지 않는 종래 기술과는 다르게 점진적 얼굴 인식 방법을 제공한다.In addition, unlike the prior art in which face recognition for a person who has not been learned in the past provides a progressive face recognition method.

또한, 본 발명은 입력 영상 내의 점진적 시각 환경인지에 의해 얼굴 검출 단계를 거쳐 얼굴 검출에 있어서의 효율성을 높이고 돌출맵 내에서 얼굴 검출을 행함으로써 검출 속도를 높여 그 검출된 얼굴의 점진적 학습 및 인식을 함으로써 적응성이 높고 인식 성능이 높은 본인 인증 및 보안 시스템의 제공을 목적으로 한다.In addition, the present invention improves the efficiency in face detection through the face detection step according to the progressive visual environment in the input image and detects the face in the protrusion map, thereby increasing the detection speed and thereby gradually learning and recognizing the detected face. It aims to provide a self-identification and security system with high adaptability and high recognition performance.

상기의 목적을 달성하기 위해 본 발명은, 생물학 기반의 돌출맵을 이용한 점진적 시각 환경 인지를 통한 얼굴 검출과 점진적 얼굴 인지를 하기 위한 방법에 있어서, 기존 영상처리 기술로 해결하지 못한 제한된 조건과 환경에서 동작하는 한계점을, 인간의 시각 기능을 모방하여 만들어진 돌출맵을 이용하여 환경에 강건하며, 보다 일반적인 환경에 적용하기 위하여, 기존 영상처리 기술을 이용한 돌출맵을 생성하는 단계; 상기 돌출맵을 이용하여 입력 영상의 돌출점들의 각각 떨어진 거리 및 돌출영역의 에너지 값을 이용하여 시각 환경인지를 하는 단계; 이후 사람의 얼 굴 영역을 검출하기 위한 돌출맵의 생성으로 얼굴 후보 영역을 정하며, 정해진 얼굴 후보 영역이 얼굴인지 아닌지를 판별하는 얼굴 인식의 전처리 단계; 및 특징점/특징벡터를 추출 알고리즘을 이용하여 점진적 얼굴 인식에 필요한 정보를 추출하는 단계를 거처 인간의 시각 기능을 모방한 생물학 기반의 점진적 환경인지를 통한 얼굴 검출과 점진적 얼굴 인지 방법을 제공한다.In order to achieve the above object, the present invention provides a method for face detection and progressive face recognition using gradual visual environment recognition using a biological-based protrusion map, in a limited condition and environment not solved by conventional image processing technology. Generating a protrusion map using an existing image processing technology in order to be robust to an environment using a protrusion map created by imitating a human visual function, and to a more general environment; Recognizing a visual environment by using a distance of each protruding point of an input image and an energy value of the protruding region using the protruding map; Thereafter, a face candidate region is determined by generating a protrusion map for detecting a face region of a person, and preprocessing of face recognition for determining whether the determined face candidate region is a face; And extracting information required for progressive face recognition using a feature point / feature vector extraction algorithm to provide a face detection and a progressive face recognition method through a biological-based progressive environment recognition that mimics the human visual function.

또 다른 목적을 위해 본 발명은, 영상처리 기술을 이용한 돌출맵을 생성한 관심요소가 포함된 영역(이하, '관심 영역'이라 함)만을 분리/추출하는 관심 영역 분리 단계; 돌출맵을 이용한 점진적 환경 인지를 통한 기존 입력 영상의 변화를 판별하는 단계; 특징점/특징벡터 추출 알고리즘을 이용한 점진적 객체 인지에 필요한 정보 추출 단계를 포함하여, 생물학 기반의 점진적 환경 인지를 통한 얼굴 검출과 점진적 얼굴 인지 방법을 제공한다.For another object of the present invention, the region of interest separation step of separating / extracting only the region (hereinafter referred to as the region of interest) that contains the element of interest generating the protrusion map using the image processing technology; Determining a change of an existing input image through gradual environment recognition using a protrusion map; It provides a face detection and gradual face recognition method through gradual environment recognition based on biology, including information extraction step for progressive object recognition using feature point / feature vector extraction algorithm.

또한, 본 발명은 영상 처리 기술을 이용하여 영상으로부터의 환경 인지를 하는 방법에 있어서, 입력되는 영상으로부터 주위 환경에 영향받지 않는 정보를 획득하기 위해 전처리하는 전처리 단계; 상기 전처리 단계에서 구해진 영상으로부터 객체 지향 돌출맵을 구해서 객체 후보를 결정하는 객체 지향 돌출맵 형성 단계; 환경 인지를 통해 영상의 변화를 추이해서 영상에서 사람이 나타남을 검출하는 환경 인지 변화 체크 단계; 영상에서 사람의 얼굴 후보 영역을 찾기 위해 얼굴 지향 돌출맵을 형성하는 얼굴 지향 돌출맵 형성 단계; 상기 얼굴 후보 영역으로부터 완전한 얼굴 영역을 검출해 내는 특정 영역내 얼굴 검출 단계; 상기 검출된 얼굴로부터 특 징을 추출하고, 이를 바탕으로 얼굴을 인식하는 특징 기반 얼굴 인식 단계; 및, 학습이 안 된 얼굴의 경우 추가적인 학습을 위해서 점진적인 얼굴 특징 추출을 하는 점진적 얼굴 특징 추출 단계를 포함하여 이루어진 생물학 기반의 돌출맵을 이용한 점진적 시각 환경 인지를 통한 얼굴 검출과 점진적 얼굴 인지 방법을 개시한다.In addition, the present invention provides a method for recognizing an environment from an image using an image processing technique, the method comprising: a preprocessing step of obtaining an information that is not affected by the surrounding environment from an input image; An object-oriented protrusion map forming step of determining an object candidate by obtaining an object-oriented protrusion map from the image obtained in the preprocessing step; An environmental cognitive change checking step of detecting a person's appearance in the image by changing the image through the environmental cognition; A face oriented protrusion map forming step of forming a face oriented protrusion map to find a face candidate region of a person in an image; A face detection step within a specific area for detecting a complete face area from the face candidate area; A feature-based face recognition step of extracting a feature from the detected face and recognizing a face based on the feature; And, in the case of the face that has not been learned, face detection and gradual face recognition method using gradual visual environment recognition using gradual face feature extraction step including progressive face feature extraction step of extracting gradual face feature for further learning is disclosed. do.

상기 객체 지향 돌출맵 형성 단계는, (a) 영상에서의 색상 정보, 형태 정보를 추출하는 단계; (b) 각각의 정보로부터 색상 특징, 형태 특징을 추출하는 단계; (c) 각 특징들을 조합해서 객체 지향 돌출맵을 만드는 단계; 및, (d) 객체 지향 돌출맵에서 주변보다 두드러진 순으로 객체 후보 영역을 추출하는 단계를 포함할 수 있다.The object-oriented protrusion map forming step may include: (a) extracting color information and shape information from an image; (b) extracting color and shape features from each piece of information; (c) combining the features to create an object-oriented protrusion map; And (d) extracting the object candidate regions in the order of being more prominent than the surroundings in the object-oriented protrusion map.

상기 환경 인지 변화 체크 단계는, (e) 돌출점들 간의 거리 정보를 추출하는 단계; (f) 돌출점들 간의 거리 정보와 에너지정보를 조합하는 단계; 및, (g) 위 (f) 단계로부터 조합된 정보를 관찰하는 단계를 포함할 수 있다.The environmental cognitive change check step may include: (e) extracting distance information between protrusions; (f) combining the distance information and the energy information between the protruding points; And (g) observing the combined information from step (f) above.

상기 얼굴 지향 돌출맵 형성 단계는 (h) 영상에서의 색상 정보, 형태 정보를 추출하는 단계; (i) 색상 정보로부터 사람 피부색의 범위를 정하고 관심 영역의 영상만을 분리하는 단계; (j) 관심 영역의 정보로부터 색상 특징, 형태 특징을 추출하는 단계; (l) 각 특징들을 조합해서 얼굴 지향 돌출 맵을 만드는 단계; 및, (m) 얼굴 지향 돌출맵에서의 주변보다 두드러진 순으로 얼굴 후보 영역을 추출하는 단계를 포함할 수 있다.The forming of the face-oriented protrusion map may include: (h) extracting color information and shape information from an image; (i) determining a range of human skin color from color information and separating only an image of a region of interest; (j) extracting color features or shape features from information of the ROI; (l) combining the features to create a face oriented protrusion map; And (m) extracting the face candidate regions in a more prominent order than the surroundings in the face-oriented protrusion map.

상기 특정 영역내 얼굴 검출 단계는 얼굴 후보 영역을 바탕으로 에이다부스트(AdaBoost) 알고리즘을 적용하여 영상에서의 영상 차이를 분석함으로써 실제 얼 굴 영역을 검출하여 이루어질 수 있다.The face detection in the specific region may be performed by detecting an actual face region by analyzing an image difference in an image by applying an AdaBoost algorithm based on a face candidate region.

상기 검출된 실제 얼굴 영역으로부터 특징을 추출할 수 있다.A feature may be extracted from the detected real face area.

상기 추출된 특징들을 바탕으로 얼굴을 인식할 수 있다.The face may be recognized based on the extracted features.

상기 특징 기반 얼굴 인식 단계후 상기 얼굴 인식 결과가 학습된 얼굴일 경우엔 해당 정보를 반영하는 단계; 및, 상기 얼굴 인식 결과가 학습된 얼굴이 아닌 경우에 얼굴 학습 데이터에 해당 사람의 데이터를 추가할 수 있도록 점진적인 얼굴 특징 추출을 하는 단계를 포함할 수 있다.If the face recognition result is a learned face after the feature-based face recognition step, reflecting corresponding information; And gradually extracting facial features to add data of the person to the face learning data when the face recognition result is not the learned face.

상기 점진적인 얼굴 특징 정보를 가지고 얼굴 인식을 재학습 하는 단계를 포함할 수 있다.And re-learning face recognition with the progressive face feature information.

상기 영상에서의 색상 정보, 형태 정보를 추출하는 단계는, 색상 정보로 적색, 녹색, 청색 정보와 명암 정보가 추출되는 단계; 및, 형태 정보로 윤곽선 정보가 추출되는 단계를 포함하고, 상기 특징 정보를 추출하는 단계는, 각각의 정보 영상들의 피라미드 영상을 구해서 중앙-주변 영상 차를 통해 각 정보 영상들의 특징 획득 단계를 포함할 수 있다.Extracting color information and shape information from the image may include extracting red, green, and blue information and contrast information as color information; And extracting contour information from the shape information, and extracting the feature information includes obtaining a pyramid image of each of the information images and acquiring the feature of each of the information images through a center-peripheral image difference. Can be.

상기 영상에서 얻어진 각 돌출점들 간의 거리 정보로 각 점들간의 상대적인 거리를 추출하는 단계; 상기 영상에서 각 돌출점들의 돌출도 정보로 각 돌출 영역의 에너지 값을 추출하는 단계; 상기 돌출점들 간의 거리 정보와, 돌출 영역의 에너지 값을 조합하는 단계를 포함할 수 있다.Extracting a relative distance between the points with distance information between the protrusion points obtained from the image; Extracting an energy value of each protrusion area from the protrusion degree information of each protrusion point in the image; The method may include combining the distance information between the protrusion points and the energy value of the protrusion area.

상기 색상 정보로부터 사람 피부색의 범위를 정하고 해당 영역만 분리하는 방법은, 사람 피부색의 범위를 찾는 단계; 해당 범위에서의 적색, 녹색, 청색 영상 의 최대치, 최소치를 구하는 단계; 및, 얻어진 경계치들로 영상을 분리시키는 단계를 포함할 수 있다.The method of determining a range of human skin color from the color information and separating only the corresponding area comprises: finding a range of human skin color; Obtaining maximum and minimum values of the red, green, and blue images in the corresponding range; And separating the image into the obtained boundary values.

상기 얼굴 인식 결과가 학습된 얼굴이 아닌 경우, 실시간 학습을 위해 해당 사람의 정보를 데이터베이스에 포함시키되 점진적인 특징 추출이 가능하게 하는 단계를 포함할 수 있다.If the face recognition result is not a learned face, the method may include a step of including information of the corresponding person in a database for real-time learning while gradually extracting features.

이와 같이 하여 본 발명은 인간의 시각 메커니즘을 모델링 하여 입력 영상에 대해 밝기, 색상, 윤곽선, 대칭축 정보 등의 초기 시각 정보를 이용하여 주변보다 두드러진 영역을 스스로 결정하는 돌출맵을 구한 후 시각 환경 인지를 통한 얼굴 검출을 수행함으로써, 얼굴 검출 성능이 매우 우수하다.In this way, the present invention models the human visual mechanism and obtains a projection map that determines the prominent area more prominently than the surrounding area by using initial visual information such as brightness, color, contour, and symmetry axis information on the input image. By performing face detection through, face detection performance is very excellent.

또한 본 발명은 기존에 학습되지 않은 사람에 대한 얼굴 인식이 되지 않는 종래 기술과는 다르게 점진적으로 얼굴을 학습하여 인식할 수 있다.In addition, the present invention can gradually recognize and recognize the face, unlike the prior art that does not recognize the face for a person who has not been previously learned.

또한, 본 발명은 입력 영상 내의 점진적 시각 환경 인지에 의해 얼굴 검출 단계를 거쳐 얼굴 검출에 있어서의 효율성을 높이고 돌출맵 내에서 얼굴 검출을 행함으로써 검출 속도를 높여 그 검출된 얼굴의 점진적 학습 및 인식을 함으로써 적응성이 높고 인식 성능이 높은 본인 인증 및 보안 시스템을 제공한다.In addition, the present invention improves the efficiency in face detection through the face detection step by gradually recognizing the progressive visual environment in the input image and detects the face in the protrusion map, thereby increasing the detection speed and thereby gradually learning and recognizing the detected face. This provides a highly adaptive and highly aware identity authentication and security system.

더불어, 본 발명은 위와 같이 개발된 기술로 독자적인 상품을 개발하여 생활의 많은 신분 인증의 불편 요소의 해결책으로, 또는 보안 시스템의 성능 향상 및 자동화를 이끌어 낼 수 있을 것이다. 더욱이, 본 발명에 따른 점진적 시각 환경인지를 통한 점진적 얼굴 검출 및 얼굴 인지 기술은 얼굴뿐만 아니라 물체 인식에 활 용하여 본인 인증 및 보안 시스템, 산업 현장 및 군사적인 용도 등 다양한 분야로 응용 가능하다.In addition, the present invention will be able to develop a unique product with the technology developed as described above as a solution of the inconvenience factor of many identity authentication of life, or can lead to the performance improvement and automation of the security system. Furthermore, the progressive face detection and face recognition technology through progressive visual environment recognition according to the present invention can be applied to various fields such as identity authentication and security system, industrial field and military use by utilizing not only face but also object recognition.

이하, 본 발명의 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 여기서, 공지 구성 또는 기능에 대한 구체적인 설명이 당업자에게 자명하거나 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings. Here, in the case where it is obvious to those skilled in the art that the detailed description of the known configuration or function may obscure the subject matter of the present invention, the detailed description thereof will be omitted.

도 1은 본 발명에 따른 생물학 기반의 돌출맵을 이용한 점진적 시각 환경 인지를 통한 얼굴 검출과 점진적 얼굴 인지 방법의 개략적인 구성을 나타내는 도면이다.1 is a diagram illustrating a schematic configuration of a face detection and a gradual face recognition method through gradual visual environment recognition using a biological-based protrusion map according to the present invention.

도 1에 도시된 바와 같이, 본 발명의 실시예에 따른 생물학 기반의 돌출맵을 이용한 점진적 시각 환경 인지를 통한 얼굴 검출과 점진적 얼굴 인지 방법은 촬영 단계(S1), 전처리 단계(S2), 객체 지향 돌출맵 형성 단계(S3), 환경 인지 변화 체크 단계(S4), 얼굴 지향 돌출맵 형성 단계(S5), 특정 영역내 얼굴 검출 단계(S6), 검출된 얼굴 특징 추출 단계(S7), 특징 기반 얼굴 인식 단계(S8), 학습된 얼굴 여부 판단 단계(S9), 얼굴 인식 단계(S10) 및 점진적 얼굴 특징 추출 단계(S11)를 포함한다.As shown in FIG. 1, face detection and progressive face recognition using progressive biological environment recognition using a biological-based protrusion map according to an embodiment of the present invention include a photographing step (S1), a preprocessing step (S2), and an object orientation. Protrusion map forming step (S3), environmental cognitive change checking step (S4), face-oriented protrusion map forming step (S5), face detection in a specific area (S6), detected face feature extraction step (S7), feature-based face A recognition step S8, a learned face presence determination step S9, a face recognition step S10, and a gradual face feature extraction step S11 are included.

상기 촬영 단계(S1)에서는 카메라를 이용하여 현재의 환경에서 촬영된 촬영 영상을 일정 시간 간격으로 전처리부로 출력한다.In the photographing step S1, the photographed image photographed in the current environment using the camera is output to the preprocessor at predetermined time intervals.

상기 전처리 단계(S2)에서는 전처리부를 이용하여 카메라로부터 출력된 영상을 캘리브레이션 및 영상 보정이 되도록 하여 영상 처리를 수행한다.In the preprocessing step (S2), the image output from the camera is calibrated and corrected using the preprocessor to perform image processing.

상기 객체 지향 돌출맵 형성 단계(S3)에서는 객체 지향 돌출맵 형성부를 이용하여 전처리부에서 출력된 결과 및 기존의 영상 처리 기술을 이용하여 돌출맵을 구성한다.In the object-oriented protrusion map forming step (S3), the protrusion map is formed by using the result output from the preprocessor using the object-oriented protrusion map forming unit and the existing image processing technology.

좀더 구체적으로, 상기 객체 지향 돌출맵 형성 단계(S3)는 영상에서의 색상 정보, 형태 정보를 추출하는 단계와, 각각의 정보로부터 색상 특징, 형태 특징을 추출하는 단계와, 각 특징들을 조합해서 객체 지향 돌출맵을 만드는 단계와, 객체 지향 돌출맵에서 주변보다 두드러진 순으로 객체 후보 영역을 추출하는 단계로 이루어질 수 있다.More specifically, the object-oriented protrusion map forming step S3 may include extracting color information and shape information from an image, extracting a color feature and a shape feature from each piece of information, and combining the respective features. The method may include creating an oriented protrusion map and extracting object candidate regions in the order of being more prominent than the surroundings in the object oriented protrusion map.

여기서, 다시 상기 영상에서의 색상 정보, 형태 정보를 추출하는 단계는 색상 정보로 적색, 녹색, 청색 정보와 명암 정보가 추출되는 단계와, 형태 정보로 윤곽선 정보가 추출되는 단계를 포함한다.Here, the extracting of color information and shape information from the image may include extracting red, green, and blue information and contrast information from color information, and extracting contour information from shape information.

또한, 상기 색상 특징, 형태 특징을 추출하는 단계는 각각의 정보 영상들의 피라미드 영상을 구해서 중앙-주변 영상 차를 통해 각 정보 영상들의 특징을 획득하여 이루어진다.The extracting of the color feature and the shape feature is performed by obtaining a pyramid image of each information image and acquiring the feature of each information image through a center-peripheral image difference.

상기 환경 인지 변화 체크 단계(S4)에서는 환경 인지를 통해 영상의 변화를 추이해서 영상에서 사람이 나타났는지 여부를 체크한다. 즉, 상기와 같이 구성된 돌출맵을 기반으로 관심 영역을 추출한다. 이는 점진적 환경 인지를 위하여 현재 카메라로부터 들어오는 입력 영상으로부터 만들어지는 관심 영역이 이전 프레임에서 추출한 관심 영역과의 차이가 있는지를 판별하게 된다.In the environmental cognitive change check step (S4), a change in the image is performed through environmental cognition to check whether a person appears in the image. That is, the ROI is extracted based on the protrusion map configured as described above. This is to determine whether the region of interest created from the input image from the current camera is different from the region of interest extracted from the previous frame in order to recognize the progressive environment.

여기서, 인간의 시각 기능을 모방한 돌출맵은 관심 영역을 추출하는 데 있어 효과적이므로, 본 발명의 실시예에서는 기존 영상 처리 기술을 바탕으로 객체 지향 돌출맵 형성부에서 점진적 환경 인지를 구현한다.Here, since the protrusion map that mimics the human visual function is effective for extracting the region of interest, the embodiment of the present invention implements progressive environment recognition in the object-oriented protrusion map forming unit based on the existing image processing technology.

생물학적 배경에 따르면 뇌의 해마상 융기(hippocampus) 기관은 입력 영상 장면을 기억하는 것으로 알려져 있으며, 더 많은 정보를 제공하는 검색 경로의 토폴로지를 생성하는 역할을 하고 있다.Biological background The hippocampus organ of the brain is known to remember input video scenes and is responsible for generating topology of search paths that provide more information.

따라서, 본 발명에서는 구해진 돌출맵 정보로부터 얻어지는 돌출 영역들의 토폴로지를 기반으로 장면이 기억될 수 있다고 가정을 한다. 그리고 모든 돌출 영역은 엔트로피 최대화 방법을 이용해 그 크기를 구하고, 입력 영상의 돌출 영역을 토폴로지로 표현할 수 있게 한다. 더욱이 돌출맵으로부터 구한 에너지 정보는 장면의 변화의 유무를 판단하는 추가적인 요소가 된다. 획득한 돌출영역 토폴러지와 에너지 정보는 모델의 입력으로 사용이 되고, 이 두 개의 입력을 모델이 점진적으로 기억하게 된다Therefore, the present invention assumes that the scene can be stored based on the topology of the protruding regions obtained from the obtained protruding map information. In addition, all the protruding regions can be sized using entropy maximizing method, and the protruding regions of the input image can be represented in a topology. In addition, the energy information obtained from the protrusion map is an additional factor in determining the presence or absence of a change in the scene. The acquired protrusion topology and energy information are used as input to the model, and the model gradually stores these two inputs.

본 발명은 기억된 장면 정보로부터 시선 방향과 장소를 인식할 수 있고, 영상의 반복적으로 보이는 정도를 감지해 해비츄에이션(habituation) 알고리즘을 구현했다.The present invention can recognize the direction and the location of the gaze from the stored scene information, and implemented a habituation algorithm by detecting the degree of repetition of the image.

일례로서, 상기 환경 인지 변화 체크 단계(S4)는, 돌출점들 간의 거리 정보를 추출하는 단계(e)와, 돌출점들 간의 거리 정보와 에너지정보를 조합하는 단계(f)와, 상기 (f) 단계로부터 조합된 정보를 관찰하는 단계(g)로 이루어질 수 있다.As an example, the environmental cognitive change check step (S4), the step (e) of extracting the distance information between the protruding points, the step (f) of combining the distance information and energy information between the protruding points, and (f) Observing the combined information from step (g).

다르게 표현하면, 상기 환경 인지 변화 체크 단계(S4)는 상기 영상에서 얻어 진 각 돌출점들 간의 거리 정보로 각 점들간의 상대적인 거리를 추출하는 단계와, 상기 영상에서 각 돌출점들의 돌출도 정보로 각 돌출 영역의 에너지 값을 추출하는 단계와, 상기 돌출점들 간의 거리 정보와, 돌출 영역의 에너지 값을 조합하는 단계로 이루어질 수 있다.In other words, the environmental cognitive change check step (S4) is a step of extracting the relative distance between each point with the distance information between each protrusion point obtained from the image, and the protrusion degree information of each protrusion point in the image The method may include extracting an energy value of each protruding region, combining distance information between the protruding points, and an energy value of the protruding region.

상기 얼굴 지향 돌출맵 형성 단계(S5)에서는, 영상에서 사람의 얼굴 후보 영역을 찾기 위해 얼굴 지향 돌출맵을 형성한다.In the face-directed protrusion map forming step (S5), a face-oriented protrusion map is formed to find a face candidate region of a person in the image.

일례로, 상기 얼굴 지향 돌출맵 형성 단계(S5)는 영상에서의 색상 정보, 형태 정보를 추출하는 단계(h)와, 색상 정보로부터 사람 피부색의 범위를 정하고 관심 영역의 영상만을 분리하는 단계(i)와, 관심 영역의 정보로부터 색상 특징, 형태 특징을 추출하는 단계(j)와, 각 특징들을 조합해서 얼굴 지향 돌출 맵을 만드는 단계(l)와, 얼굴 지향 돌출맵에서의 주변보다 두드러진 순으로 얼굴 후보 영역을 추출하는 단계(m)로 이루어질 수 있다.For example, the step of forming the face-oriented protrusion map (S5) may include extracting color information and shape information from an image (h), determining a range of human skin color from the color information, and separating only an image of the ROI (i). ), Extracting color and shape features from the information of the region of interest (j), combining each of the features to create a face-oriented protrusion map (l), and more prominent than the surroundings in the face-oriented protrusion map. Extracting a face candidate region may be performed (m).

여기서, 색상 정보로부터 사람 피부색의 범위를 정하고 해당 영역만 분리하는 방법은, 사람 피부색의 범위를 찾는 단계와, 해당 범위에서의 적색, 녹색, 청색 영상의 최대치, 최소치를 구하는 단계와, 얻어진 경계치들로 영상을 분리시키는 단계로 이루어질 수 있다.Here, the method of determining the range of human skin color from the color information and separating only the corresponding area may include finding a range of human skin color, obtaining maximum and minimum values of red, green, and blue images in the corresponding range, and obtained boundary values. The image may be separated into a step.

상기 특정 영역내 얼굴 검출 단계(S6)에서는, 상기 얼굴 후보 영역으로부터 완전한 얼굴 영역을 검출해 낸다. 여기서, 상기 특정 영역내 얼굴 검출 단계(S6)는 얼굴 후보 영역을 바탕으로 에이다부스트(AdaBoost) 알고리즘을 적용하여 영상에서의 영상 차이를 분석함으로써 실제 얼굴 영역을 검출하여 이루어질 수 있다.In the specific area face detection step S6, a complete face area is detected from the face candidate area. The face detection step S6 in the specific region may be performed by detecting an actual face region by analyzing an image difference in an image by applying an AdaBoost algorithm based on a face candidate region.

상기 검출된 얼굴 특징 추출 단계(S7)에서는, 상기 검출된 실제 얼굴 영역으로부터 특징을 추출한다.In the detected face feature extraction step S7, a feature is extracted from the detected real face area.

상기 특징 기반 얼굴 인식 단계(S8)에서는, 상기 추출된 특징들을 바탕으로 얼굴을 인식한다.In the feature-based face recognition step S8, a face is recognized based on the extracted features.

상기 학습된 얼굴 여부 판단 단계(S9)에서는, 인식한 얼굴이 이미 학습된 얼굴인지 아닌지를 판단한다.In the learning face determination step (S9), it is determined whether the recognized face is already a learned face.

만약, 상기 단계(S9)에서 이미 학습된 얼굴이라면 상기 얼굴 인식 단계(S10)를 수행하고, 그렇지 않다면 상기 점진적 얼굴 특징 추출 단계(S11)를 수행한다.If the face has already been learned in step S9, the face recognition step S10 is performed. Otherwise, the progressive face feature extraction step S11 is performed.

먼저, 상기 얼굴 인식 단계(S10)에서는, 해당 정보를 반영함으로써, 얼굴을 인식한다.First, in the face recognizing step (S10), the face is recognized by reflecting the corresponding information.

다음으로, 상기 점진적 얼굴 특징 추출 단계(S11)에서는 얼굴 학습 데이터에 해당 사람이 데이터를 추가할 수 있도록 점진적인 얼굴 특징을 추출한다. 즉, 상기 점진적 얼굴 특징 추출 단계(S11)에서는 상기 점진적인 얼굴 특징 정보를 가지고 얼굴 인식을 재학습하여 이루어진다. 다르게 설명하면, 상기 점진적 얼굴 특징 추출 단계(S11)에서는 실시간 학습을 위해 해당 사람의 정보를 데이터베이스에 포함시키되 점진적인 특징 추출이 가능하게 하여 이루어진다.Next, in the progressive face feature extraction step (S11), a gradual face feature is extracted so that the person can add data to the face learning data. That is, in the progressive face feature extraction step S11, face recognition is relearned with the progressive face feature information. In other words, in the progressive facial feature extraction step (S11), the information of the person is included in the database for real-time learning, but the progressive feature extraction is performed.

도 2는 본 발명에 적용된 생물학 기반의 돌출맵을 이용한 점진적 시각 환경 인지 과정을 설명하기 위한 것이다.2 is for explaining a gradual visual environment cognitive process using a biological-based protrusion map applied to the present invention.

도 2에 도시된 바와 같이, 본 발명에서는 시각 주의 집중 모델에 장면 변화 검출 모델을 결합하여 점진적 시각 환경 인지를 수행한다. 즉, 상향식 주의 집중 모델과 하향식 주의 집중 모델이 결합되어 돌출맵을 만들어내게 되고, 그 후에 장면 변화 검출 모델이 돌출맵 정보로부터 입력 영상에서 장면의 변화가 있는지 나타내게 된다.As shown in FIG. 2, the present invention performs progressive visual environment recognition by combining a scene change detection model with a visual attention model. That is, the bottom-up attention model and the top-down attention model are combined to generate the protrusion map, and then the scene change detection model indicates whether there is a change of the scene in the input image from the protrusion map information.

도 3은 본 발명에 적용된 장면 변화 감지 모델을 설명하기 위한 것이다. 3 is for explaining a scene change detection model applied to the present invention.

도 3에서 보이듯이 장면 변화 검출을 시공간 차원에서의 분석을 해 먼저 장면 기억을 하게 된다. 먼저, 기억된 장면과 새로이 받아들이는 입력 영상과의 비교를 통해 장면 변화를 감지하게 되는데 이때 사용되는 정보는 기억된 장면 정보와 새로운 입력 영상의 유사도이다. 유사도를 측정한 후 유사도에 의해서 새로운 장면 변화에 대한 결절을 만들게 된다. 그리하여 기억되어 있는 결절과 새로 생성된 결절과의 비교를 통해서 가장 유사한 결절 정보를 통해 위치 정보를 획득할 수 있게 된다.As shown in FIG. 3, scene change detection is performed in the space-time dimension to perform scene memory. First, a scene change is detected by comparing a stored scene with a newly received input image. The information used at this time is the similarity between the stored scene information and the new input image. After measuring the similarity, the similarity creates a nodule for a new scene change. Thus, by comparing the stored nodules with the newly generated nodules, the positional information can be obtained through the most similar nodule information.

만약 입력 영상이 이미 보았던 영상이어서 장면의 변화를 감지하지 못할 경우 이미 보았던 영상이라고 표시해 주게 된다. 그리하여 이전에 보았던 입력 영상이라고 판단되는 경우 해비츄에이션(habituation)을 표현할 수 있게 된다. If the input video is already viewed and cannot detect a change in the scene, the input video is displayed. Thus, when it is determined that the input image has been viewed previously, it is possible to express habituation.

도 4는 본 발명에 적용된 생물학 기반의 돌출맵을 이용한 점진적 시각 환경 인지 실험 결과를 설명하기 위한 것이다.4 is for explaining the results of a gradual visual environment cognition experiment using a biological-based protrusion map applied to the present invention.

도 4에 도시된 바와 같이 윗줄의 세 영상은 모두 동일한 영상을 보는 경우이다. 그러나 세 영상 모두 시계(field of view)가 서로 조금씩 상이하다. 첫 번째 영상과 두 번째 영상은 시계가 조금 상이하지만, 영상에서의 변화는 없는 경우이지만, 돌출맵을 기반으로 한 시선 경로의 토폴러지가 유사함을 알 수 있다. 세 번째 영상은 변화가 있는 경우인데, 이 경우에는 앞의 두 영상에 대한 시선 경로 토폴러지와는 시선 경로 토폴러지가 완전히 다름을 알 수 있다. 즉, 입력 영상의 돌출맵으로부터 구해지는 시선 경로의 토폴로지를 이용하여 장면(scene)의 신규(novelty) 검출할 수 있음을 알 수 있다. 아래 줄의 세 영상은 위 줄의 각 영상에 대한 돌출맵 영상이다.As shown in FIG. 4, the three images in the upper row all view the same image. However, all three images have slightly different fields of view. Although the first image and the second image have slightly different clocks, but there is no change in the image, it can be seen that the topology of the gaze path based on the protrusion map is similar. The third image is a case where there is a change. In this case, the gaze path topology is completely different from the gaze path topology for the two previous images. That is, it can be seen that the novelty of the scene can be detected using the topology of the gaze path obtained from the protrusion map of the input image. The three images in the lower row are projection map images for each image in the upper row.

여기서, 다시 도 1을 참조하면, 객체 지향 돌출맵에서는 전처리부에서 처리된 영상을 가지고 생물학 기반의 돌출맵을 이용하여 입력 영상의 돌출점(saliency point)들의 각각 떨어진 거리 및 돌출 영역(saliency area)의 에너지 값을 이용하여 점진적 시각 환경 인지를 수행한다.Here, referring again to FIG. 1, in the object-oriented protrusion map, the distance and the salvage area of each of the salient points of the input image are separated using the biologically-based protrusion map with the image processed by the preprocessor. Progressive visual environment recognition is performed using the energy value of.

상기 점진적 시각 환경 인지를 통하여, 카메라로부터 들어오는 입력 영상의 변화가 발생하게 되면 생물학 기반의 얼굴 지향 돌출맵 형성부를 통한 특정 영역내의 얼굴 검출을 수행하게 된다.When the input image from the camera is changed through the gradual recognition of the visual environment, face detection in a specific area is performed through a biological-based face-oriented protrusion map forming unit.

도 5는 본 발명에 적용된 생물학 기반의 얼굴 지향 돌출맵을 이용한 특정 영역내 얼굴 검출 모델을 설명하기 위한 것이다.5 is for explaining a face detection model in a specific region using a biological-based face-oriented protrusion map applied to the present invention.

도 5에 도시된 바와 같이, 얼굴 영역 검출 알고리즘은 컴퓨터 비전 시스템의 한계점을 극복할 수 있는 방법으로 생물학적인 측면을 고려한다.As shown in FIG. 5, the face region detection algorithm considers biological aspects in a way that can overcome the limitations of a computer vision system.

실제 환경에서는 복잡한 배경이나 환경의 변화에 따라서 입력 영상이 복잡해지는 경우가 많이 있다. 에이다부스트(AdaBoost)는 형태적인 정보만을 고려하기 때문에 이러한 환경에서는 제대로 성능을 내지 못한다. 그래서 이러한 한계점을 극복하기 위해서 컬러 필터를 이용한 생물학적 기반의 돌출맵을 통해 사람이 관심을 가지는 영역(얼굴 영역)을 구하고, 이 영역에서 얼굴이 있는지 아니면 다른 물체인지를 판별하기 위해, 에이다부스트(AdaBoost)를 이용해 얼굴을 검출한다.In a real environment, an input image is often complicated by a complicated background or a change of environment. AdaBoost doesn't perform well in this environment because it only takes shape information into account. So, in order to overcome these limitations, the area of interest (face area) is obtained through a biological-based protrusion map using a color filter, and to determine whether there is a face or another object in this area, AdaBoost ) To detect the face.

또한, 관심 영역의 크기 정보 추출을 위하여 특징맵에 의해 구성된 돌출맵은 오쓰(Otsu)의 트레쉬홀드(threshold) 기법을 이용한 히스토그램에서 변화(variance) 값을 최대로 하는 밝기 값으로 트레쉬홀드 값을 정하여, 돌출 영역을 이진화하였으며, 라벨링(labeling) 연산을 통하여, 돌출된 영역의 크기 정보를 구한다.In addition, the protrusion map formed by the feature map for extracting the size information of the ROI is a brightness value that maximizes the variation value in the histogram using Otsu's threshold technique. The bin area is binarized, and the labeling operation is used to obtain the size information of the bin area.

이는 실시간 시스템의 연산 속도를 개선할 뿐 아니라, 객체와의 거리가 가까워 객체의 크기가 크게 잡히는 경우와, 그리고 거리가 멀어 객체의 크기가 작다 하더라도, 거리에 상관없이 객체의 돌출 정도에 따라 객체의 영역의 크기를 결정할 수 있다.This not only improves the computational speed of the real-time system, but also increases the size of the object depending on the degree of protrusion of the object, regardless of the distance. The size of the area can be determined.

또한, 위 연산 과정을 거쳐 돌출된 영역의 크기를 결정하고 난 후, 객체 간의 서로 겹쳐있는지의 유·무를 판단하기 위해 각 라벨링된 객체들의 이진 영상에서의 X축, Y축 방향의 히스토그램 분포를 확인하여, 객체 간에 서로 겹쳐 있을 경우 히스토그램의 굴곡 점 정보를 이용하여, 겹쳐진 객체를 분리한다.In addition, after determining the size of the protruding region through the above operation process, to determine whether the object overlaps each other, the histogram distribution in the X-axis and Y-axis directions in the binary image of each labeled object is checked. When the objects overlap with each other, the overlapping objects are separated by using the bending point information of the histogram.

도 6은 본 발명에 적용된 얼굴 지향 돌출맵에서의 히스토그램 정보를 이용한 얼굴 영역의 분리 과정을 설명하기 위한 것이다.FIG. 6 illustrates a process of separating a face region using histogram information in a face-oriented protrusion map applied to the present invention.

도 6에 도시된 바와 같이, 본 발명에서는 돌출맵에서의 히스토그램 정보를 이용하여 얼굴 영역을 분리한다.As shown in FIG. 6, in the present invention, the face area is separated by using histogram information in the protrusion map.

앞서 언급한 과정을 거친 후 에이다부스트(AdaBoost)를 이용한 최종 얼굴 영역 검출 및 검증을 거치게 된다. 에이다부스트(AdaBoost)는 현재까지 나온 얼굴 검출 알고리즘의 최신 기술(state-of-art)중 하나로써 하-라이크 웨이브렛(Haar-like wavelet)을 이용한 형태 정보를 이용해 얼굴을 검출하는 학습 알고리즘이다. 이 알고리즘의 내부는 분류 성능이 뛰어나지 않은 간단한 선형 분류기의 조합으로 이루어져 더욱 정확한 분류를 하도록 하게 되어 있다. 이 학습 알고리즘을 사용하려고 하면 양성(positive) 데이터와 음성(negative) 데이터가 필요하다. 그래서 얼굴 검출에 이것을 사용하려고 하면 양성(positive) 데이터인 얼굴 이미지 데이터와 음성(negative) 데이터인 얼굴이 아닌 데이터가 필요하다.After the aforementioned process, the final face area is detected and verified using AdaBoost. AdaBoost is a state-of-art technology of face detection algorithms, which is a learning algorithm that detects a face using shape information using a Haar-like wavelet. The algorithm's internals consist of a combination of simple linear classifiers that are not very good at classifying, allowing for more accurate classification. Trying to use this learning algorithm requires positive data and negative data. Thus, attempting to use it for face detection requires face image data that is positive data and data that is not face that is negative data.

도 7은 본 발명에 적용된 얼굴 영역 검출 및 검증을 위한 하-라이크 웨이브렛(Haar-like wavelet)을 이용한 형태 정보 추출을 설명하기 위한 것이다.FIG. 7 illustrates extraction of shape information using a haar-like wavelet for detecting and verifying a facial region applied to the present invention.

도 7에 도시된 바와 같이, 상기 양성(positive) 데이터와 상기 음성(negative) 데이터를 하-라이크 웨이브렛(Haar-like wavelet)을 통해 형태 정보의 특징을 뽑아내고, 이 특징 정보를 에이다부스트(AdaBoost)의 학습 데이터로 이 용을 한다. As shown in FIG. 7, the positive data and the negative data are extracted from the shape information through a haar-like wavelet, and the feature information is extracted from an adaboost ( AdaBoost) is used as learning data.

도 8은 본 발명에 적용된 생물학 기반의 얼굴 지향 돌출맵을 이용한 특정 영역내 얼굴 검출 실험 결과를 설명하기 위한 것이다.FIG. 8 illustrates results of a face detection experiment in a specific region using a biological-based face-oriented protrusion map applied to the present invention.

도 8에 도시된 바와 같이, 입력 영상이 들어오면 처음에 세기(intensity)와, 에지(Edge), RG 보색 컬러(opponent color) 정보를 가지고 와서 여러 차례 실험에 의해 만들어진 컬러 범위를 적용한 컬러 필터를 사용해 영상을 걸러낸다.As shown in FIG. 8, when an input image is input, a color filter is first applied to the intensity, edge, and RG complementary color information and applies a color range produced by experiments several times. To filter the video.

그리고 이것을 센터-서라운드 디퍼런스 및 노말리제이션(center-surround difference and normalization)을 통해 3개의 특징(feature) 정보를 추출하고, 이것으로 돌출맵(saliency map)을 만들어 낸다. 상기 돌출맵(saliency map)의 정보를 이용해 관심 있는 영역(ROI)을 구해 낸다. 이것이 이후에 얼굴 인식에 사용되는 얼굴 후보 영상들이 된다.Then, three feature information is extracted through center-surround difference and normalization, and a salient map is generated from this. The ROI is obtained by using the information of the saliency map. This becomes the face candidate images used later for face recognition.

마지막으로 상기 얼굴 후보 영상들을 에이다부스트(AdaBoost)를 이용해 얼굴인지 아닌지를 판별하게 된다.Finally, the face candidate images are determined whether or not the face is using AdaBoost.

또한 본 발명에 적용된, 얼굴 검출 알고리즘은 사람의 초기 시각 메커니즘을 모방한 것으로 실시간으로 얼굴 영역 후보를 검출하고 에이다부스트(AdaBoost)를 이용해 이것을 얼굴인지 판별할 수 있다. 복잡한 배경과 다양한 환경으로 되어 있는 자연 영상에서 이 알고리즘은 얼굴이 아닌 영역을 검출할 뿐만 아니라 얼굴인지 인식하는 것도 성공적으로 동작한다. 상기 알고리즘은 생물학적 기반의 주의 집중 시각 기능을 이용해 에이다부스트(AdaBoost)의 성능을 더욱더 개선할 수 있다. 이 런 접근 방식을 통해 비전 시스템 개발에 있어서 생물학적 기반의 접근이 기존의 제한 사항이나 한계점을 극복할 수 있음을 보였다.In addition, the face detection algorithm applied to the present invention mimics the initial visual mechanism of a person, and may detect a face region candidate in real time and determine whether it is a face using AdaBoost. In natural images with complex backgrounds and diverse environments, the algorithm not only detects non-face areas but also recognizes faces. The algorithm can further improve the performance of AdaBoost using a biologically based attention visual function. This approach has shown that biologically based approaches in vision system development can overcome existing limitations or limitations.

다시 도 1을 참조하면, 생물학 기반의 돌출맵을 이용한 점진적 시각 환경 인지를 통한 얼굴 검출 및 점진적 얼굴 인식을 위한 다음 과정으로, 점진적 얼굴 특징 정보 추출 과정으로써, 본 발명에 적용된, 점진적 얼굴 특징 정보 추출 모델로 ICPA(Incremental Principal Component Analysis)를 이용한 점진적 특징 추출 모델, 그리고 IHMAX(Incremental Hierarchical MAX)를 이용한 점진적 특징 추출 모델이 있다.Referring back to FIG. 1, as a next step for face detection and gradual face recognition using gradual visual environment recognition using a biological-based protrusion map, a gradual face feature information extraction process applied to the present invention is applied to the present invention. Models include progressive feature extraction model using incremental principal component analysis (ICPA) and progressive feature extraction model using incremental hierarchical MAX (IHMAX).

먼저, 상기 IPCA를 이용한 점진적 특징 추출 모델은 기존의 얼굴의 특징을 점진적으로 추출하기 위해 홀(Hall), 마틴(Martin)이 소개한 IPCA를 이용하였다. First, the progressive feature extraction model using the IPCA used an IPCA introduced by Hall and Martin to gradually extract the features of the existing face.

IPCA의 알고리즘은 다음과 같다. 처음 모여진 N개의 학습 데이터를 가지고 공분산으로부터 초기 고유벡터와 고유 값을 구하고 사영 연산을 통해 학습 데이터를 표현할 k개의 주성분(principal component)을 선택한다. 새로운 하나의 데이터(N+1)가 들어왔을 때 현재의 고유벡터 Um *k와 고유값으로부터 새로운 고유벡터와 고유값을 형성하기 위해 IPCA를 적용한다.(m은 전체 영상의 차원, k는 선택된 차원) 수학식 1은 새로운 입력 y에 대해 평균을 갱신하는 식이다.The algorithm of IPCA is as follows. The initial eigenvectors and eigenvalues are obtained from covariances with the first gathered N training data, and k principal components are selected to represent the training data through projective operation. When a new data (N + 1) is received, IPCA is applied to form a new eigenvector and eigenvalue from the current eigenvector U m * k and eigenvalues (m is the dimension of the entire image, k is Selected Dimension) Equation 1 is an equation for updating the mean for a new input y.

Figure 112009022289118-pat00001
Figure 112009022289118-pat00001

새로운 입력 데이터 y에 대해 새로운 벡터를 더하고 회전 벡터 R을 적용하여 새로운 고유벡터를 형성한다. 현재의 벡터에 수직인 방향으로 새로운 벡터가 더해진 벡터공간을 회전 벡터 R을 이용하여 추가된 벡터공간에서의 고유벡터들을 회전하여 새로운 고유벡터를 구하는 방식은 수학식 2와 같다.A new vector is added to the new input data y and the rotation vector R is applied to form a new eigenvector. Equation 2 is a method of obtaining a new eigenvector by rotating eigenvectors in an added vector space using a rotation vector R in a vector space where a new vector is added in a direction perpendicular to the current vector.

Figure 112009022289118-pat00002
Figure 112009022289118-pat00002

여기서

Figure 112009022289118-pat00003
이고,
Figure 112009022289118-pat00004
로 벡터
Figure 112009022289118-pat00005
는 새로 더해지는 벡터로서 다른 고유벡터에 직교한다. 새로운 고유벡터를 갱신하기 위해 (k+1)(k+1)차원의 수학식 3, 4로 생성되는 공분산행렬을 인터메디에이트 아이겐프러블럼(intermediate eigenproblem) 방법을 이용하여 풀어야 한다. here
Figure 112009022289118-pat00003
ego,
Figure 112009022289118-pat00004
Vector
Figure 112009022289118-pat00005
Is a newly added vector that is orthogonal to another eigenvector. In order to update a new eigenvector, the covariance matrix generated by the equations (3) and (4) in the (k + 1) (k + 1) dimension must be solved using the intermediate eigenproblem method.

Figure 112009022289118-pat00006
Figure 112009022289118-pat00006

Figure 112009022289118-pat00007
Figure 112009022289118-pat00007

여기서

Figure 112009022289118-pat00008
,
Figure 112009022289118-pat00009
이다. 적절한 특징들의 차원을 결정하기 위해 새로운 벡터가 추가될지를 결정하는 함수 A(k)는 수학식 5에 의해 결정된다.here
Figure 112009022289118-pat00008
,
Figure 112009022289118-pat00009
to be. The function A (k) that determines whether a new vector will be added to determine the dimensions of the appropriate features is determined by equation (5).

Figure 112009022289118-pat00010
Figure 112009022289118-pat00010

위에서 계산된 A(k)값이 특정 문턱치 값보다 작으면 새로운 고유벡터는 기존의 고유벡터에 더해지게 되고 A(k)값이 특정 문턱치 값보다 크면 기존의 고유벡터만 가지게 된다. 문턱치 값은 영상 데이터의 실험에 따라 얼마나 효율적인 데이터의 차원을 나타낼 수 있을지를 나타내는 것으로 수학식 6과 같이 나타난다.If the A (k) value calculated above is smaller than the specific threshold value, the new eigenvector is added to the existing eigenvector. If the A (k) value is greater than the specific threshold value, only the existing eigenvector is obtained. The threshold value indicates how efficiently the dimension of the data can be represented according to the experiment of the image data.

Figure 112009022289118-pat00011
Figure 112009022289118-pat00011

즉, 새로운 얼굴이 입력될 때 새로 입력된 얼굴이 기존 클래스에 속하면 고유벡터가 바뀌지 않고, 원래의 고유벡터로 입력된 데이터를 표현한다. 그러나 새로 입력된 데이터가 기존 클래스에 속하지 않는다면 고유벡터와 고유 값이 현재 벡터에 더해져 입력된 데이터는 점진적인 방법으로 구해진다. IPCA의 입력으로 사용되는 요소 중 색상에 관한 정보는 입력 영상으로부터 추출한 적색(red), 녹색(green), 청색(blue)의 RGB 색상을 HIS(hue, intensity, saturation) 색상으로 변환한 정보를 사용하고 있다. 그러나 항상 변하는 돌출 영역 크기로 인하여 각 입력 정보의 크기 변화를 보상해 같은 크기의 입력 정보로 변환하기 위해서는 샘플링이 필요하다. 따라서 인간의 시각 메커니즘과 유사하고 크기 및 회전 변환에 강건 한 로그-방사형 샘플링(log-polar sampling) 방법을 사용하여 다양한 크기 변화에 대해 강건한 IPCA의 특징 패턴을 입력할 수 있다.That is, when a new face is input, if the newly input face belongs to the existing class, the eigenvector is not changed and the data input as the original eigenvector is represented. However, if the newly input data does not belong to the existing class, the eigenvector and eigenvalue are added to the current vector, and the input data is obtained in a gradual way. Color information among the elements used as input of IPCA is used to convert red, green, and blue RGB colors extracted from the input image into HIS (hue, intensity, saturation) colors. Doing. However, due to the constantly changing projected area size, sampling is required to compensate for the change in the size of each input information and convert it into input information of the same size. Therefore, we can input robust feature patterns of IPCA for various size changes using a log-polar sampling method that is similar to human visual mechanisms and robust to size and rotation conversion.

도 9는 본 발명에 적용된 점진적 얼굴 특징 추출을 위한 고정된 크기를 가지는 IPCA 입력 데이터를 위한 로그-방사형 샘플링 과정을 설명하기 위한 것이다.9 illustrates a log-radial sampling process for IPCA input data having a fixed size for progressive facial feature extraction applied to the present invention.

도 9에 도시된 바와 같이, 로그-방사형 샘플링을 이용하여 다양한 크기를 가진 돌출 영역에 대한 특징맵의 입력 패턴을 고정된 IPCA의 입력 크기로 변환할 수 있다.As shown in FIG. 9, the input pattern of the feature map for the protruding region having various sizes may be converted into the input size of the fixed IPCA using log-radial sampling.

상기 선택된 얼굴 특징을 표현하기 위한 입력 색상의 특징 차원은 각각의 독립적인 특징인 색상, 채도, 명암에서 선택된 고유벡터의 개수에 의해 결정된다. 8방향의 가보(Gabor) 필터를 이용해 초기 형태 특징 정보를 추출하고 입력 얼굴의 형태 정보를 표현한다. 가보 필터의 입력으로 두드러진 영역에서의 우위적 특징 정보를 반영하기 위해 명암, R+G-, B+Y- 색상 특징 맵의 윤곽선 정보 중 승자독식(winner-take-all) 방법에 의해 결정된 정보를 사용한다. 그리고 8방향의 특징정보의 차원을 감소하고 중요한 특징 정보를 추출하기 위해 IPCA를 적용한다. 형태 특징 정보의 입력 차원은 8방향의 IPCA로부터 얻어진 고유벡터의 개수에 의해 결정된다. 최종적으로 객체는 색상, 형태 특징 정보의 고유벡터 개수에 의해 결정된 줄어든 차원으로 표현이 가능해 진다.The feature dimension of the input color for expressing the selected face feature is determined by the number of eigenvectors selected from each of the independent features of hue, saturation, and contrast. An initial shape feature information is extracted using an 8-direction Gabor filter to express shape information of an input face. The input determined by the winner-take-all method of the contour information of the contrast, R + G-, and B + Y- color feature maps in order to reflect the superior feature information in the prominent area as the input of the Gabor filter. use. The IPCA is applied to reduce the dimension of feature information in eight directions and to extract important feature information. The input dimension of the shape feature information is determined by the number of eigenvectors obtained from the IPCA in eight directions. Finally, the object can be represented in a reduced dimension determined by the number of eigenvectors of color and shape feature information.

도 10은 본 발명에 적용된 점진적 얼굴 특징 추출을 위한 IPCA를 이용한 얼 굴 특징 표현 모델을 설명하기 위한 것이다.FIG. 10 illustrates a facial feature expression model using IPCA for gradual facial feature extraction applied to the present invention.

도 10에 도시된 바와 같이, 본 발명에 따르면 점진적인 방법을 사용하여 점진적 얼굴 특징 추출이 가능함을 알 수 있다.As shown in FIG. 10, it can be seen that gradual face feature extraction is possible using a gradual method.

아래의 표 1은 IPCA를 이용하여 인식할 특징점이 점진적으로 증가하는 환경에서 인식 성능 결과이다. 실험은 총 23개의 클래스 중 3개의 클래스에 속하는 데이터를 가지고 PCA를 통해 고유벡터를 구해 데이터를 표현하였다. 그리고 75개의 새로운 데이터가 입력으로 사용되어 기존의 클래스에 속하는 경우에는 같은 클래스로 표현하고, 속하지 않는 경우에는 새로운 클래스로 표현했을 경우를 코렉트(correct)로 판단해 성능을 나타낸 것이다.Table 1 below shows recognition performance results in an environment in which feature points to be recognized using IPCA are gradually increased. The experiment represented data by obtaining eigenvectors through PCA with data belonging to three of 23 classes. When 75 new data is used as an input and belongs to an existing class, it is represented as the same class, and when it does not belong to a new class, it is judged as correct (correct) to show performance.

옳음
(correct)
Right
(correct)
틀림
(wrong)
error
(wrong)
인식률
(recognition rate)
(75)
Recognition rate
(recognition rate)
(75)
54
(72%)
54
(72%)
21
(28%)
21
(28%)

상기 실험 결과에서 보인 것처럼 기존에 학습 되지 않은 새로운 객체 데이터라도 학습에 사용된 클래스에 속하는 경우 IPCA에서 새로운 고유벡터가 추가되지 않고 기존의 PCA와 같은 고유벡터를 이용해 객체를 표현하고, 기존의 클래스에 속하지 않는 새로운 객체 데이터일 경우 IPCA에 의해 새로운 고유벡터가 추가되고 새로운 클래스를 생성하며 각 객체를 로컬리제이션(localization) 시켜준다. 즉 사람의 객체에 대한 점진적 지식 축적과 추가적인 학습 기능을 IPCA를 이용해 구현한 것이다.As shown in the experiment results, when new object data that has not been previously learned belongs to the class used for learning, new eigenvectors are not added in IPCA, and the object is expressed using the eigenvector like the existing PCA. For new object data that does not belong, a new eigenvector is added by IPCA, a new class is created, and each object is localized. In other words, IPCA implements incremental knowledge accumulation and additional learning functions about human objects.

다음으로, 본 발명에 적용된, IHMAX(Incremental Hierarchical MAX)를 이용한 점진적 특징 추출 모델은 인간의 뇌 메커니즘을 모방하여 만든 보다 효과적인 시스템으로 볼 수 있다.Next, the gradual feature extraction model using incremental hierarchical MAX (IHMAX) applied to the present invention can be seen as a more effective system made by mimicking the human brain mechanism.

종래의 계층적 최대특징 추출(HMAX) 모델도 이런 뇌 메커니즘을 모방한 모델이다.The conventional hierarchical maximum feature extraction (HMAX) model is also a model that mimics this brain mechanism.

그러나 이 모델은 이미 학습한 2000개의 기준을 이용하여 새로운 객체를 인지하기 때문에 이미 학습한 기준과 상이한 특징점이 들어왔을 경우는 제대로 성능을 내지 못한다. 그리고 항상 2000개의 기준을 사용함으로써 속도상의 불리한 점도 있다.However, this model recognizes new objects using the 2000 criteria already learned, and therefore does not perform well when features that differ from the previously learned criteria are introduced. And there are disadvantages in speed by always using 2000 criteria.

그래서 본 발명에 적용된, 모델에서는 이러한 제한적인 환경에서만 적용 가능한 2000개의 기준이 아니라 환경에 따라 점진적으로 늘어나는 기준을 사용하여 특징점을 인지함으로써 보다 효과적으로 객체를 인지할 수 있게 한다.Thus, in the model applied to the present invention, it is possible to recognize the object more effectively by recognizing the feature point using criteria gradually increasing according to the environment, not 2000 criteria applicable only in such limited environment.

본 발명에 적용된, 모델은 크게 특징 추출 방법과 가변적인 특징을 분류할 수 있는 분류기로 나누어진다. 특징 추출에서는 우선 HMAX 모델의 C1까지는 2개의 층을 이용해 공간적으로 보다 큰 값을 골라서 방향 성분을 표현한다. 그 특징을 더욱 강건하게 하기 위해 방향 성분의 히스토그램으로 표현을 하고 이것을 GCS에 넣어 잡음 성분과 피크 성분을 제거한 새로운 환경에 적절한 기준을 만들어 낸다. 이 기준은 들어 는 영상에 따라 늘어나거나 현상태를 유지하거나 한다. 이렇게 늘어나는 기준을 이용해 입력 영상과 비교를 하여 특징 정보를 추출한다. 이렇게 추출된 정보는 기준에 따라 차원이 늘어나므로 일반적인 분류기로는 구분할 수 없다.Applied to the present invention, the model is largely divided into a feature extraction method and a classifier capable of classifying variable features. In feature extraction, up to C1 of the HMAX model, two layers are used to express the spatial component by selecting a spatially larger value. To make the feature more robust, it is represented by a histogram of the directional components and put into the GCS to create a standard suitable for a new environment that eliminates noise and peak components. This criterion increases or stays current depending on the image being heard. Using this increasing standard, feature information is extracted by comparing with the input image. Since the extracted information increases in dimension according to the criteria, it cannot be distinguished by a general classifier.

본 발명에 적용된, 모델에서 사용하고 있는 모델은 제너레이티브 모델(generative model)의 변형으로 계층적 구조의 가우시안 혼합 모델이다.The model used in the model applied to the present invention is a Gaussian mixture model of a hierarchical structure with a variation of the generic model.

이 분류기 모델을 이용해 점진적으로 늘어나는 특징 정보를 처리함으로써 점진적인 특징점의 표현과 인식할 수 있도록 한다.This classifier model is used to process progressively increasing feature information, allowing for progressive representation and recognition of feature points.

도 11은 본 발명에 적용된 점진적 얼굴 특징 추출을 위한 IHMAX(Incremental Hierarchical MAX)를 이용한 점진적 특징 추출 모델을 설명하기 위한 것이다.FIG. 11 illustrates a gradual feature extraction model using incremental hierarchical MAX (IHMAX) for gradual facial feature extraction applied to the present invention.

도 11에 도시된 바와 같이, 점진적인 얼굴의 특징 추출 과정을 거친 후, 기존 학습한 얼굴 특징 인지 아니면 새로운 얼굴 특징인지 판별 후 학습된 얼굴이면 얼굴 인식을 하게 되며, 새로운 얼굴 특징이라면 학습을 먼저 실행 후, 얼굴 인식을 하게 된다.As shown in FIG. 11, after a feature extraction process of a gradual face is performed, a face is recognized if it is a learned face after discriminating whether it is a previously learned face feature or a new face feature. Face recognition.

본 발명에 적용된, 생물학 기반의 돌출맵을 이용한 점진적 환경 인지를 통한 얼굴 검출과 점진적 얼굴 인지 방법은 이상에서 설명한 실시예에서, 얼굴 검출과 점진적 얼굴 인지 방법에 대해서 예로 설명하였으나, 이에 한정되는 것은 아니다. 즉, 얼굴이 아닌 객체에서도 가능하며, 부동적이지 않으며, 여러 군데 사용할 수 있는 유동적인 원천기술로써 향후 발전된 응용 시스템에서 더 좋은 성능을 보일 수 있을 것이다.Face detection and gradual face recognition using gradual environment recognition using a biological-based protrusion map applied to the present invention has been described as an example for face detection and gradual face recognition in the above-described embodiments, but is not limited thereto. . In other words, it is possible to use non-face objects, not floating, and can be used in various places. It is possible to show better performance in future developed system.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The foregoing description is merely illustrative of the technical idea of the present invention, and various changes and modifications may be made by those skilled in the art without departing from the essential characteristics of the present invention. Therefore, the embodiments disclosed in the present invention are not intended to limit the scope of the present invention but to limit the scope of the technical idea of the present invention. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within the equivalent scope should be interpreted as being included in the scope of the present invention.

도 1은 본 발명에 따른 생물학 기반의 돌출맵을(Saliency Map)을 이용한 점 진적 시각 환경 인지를 통한 얼굴 검출과 점진적 얼굴 인지 방법의 개략적인 구성을 나타내는 도면,1 is a diagram illustrating a schematic configuration of a face detection and a gradual face recognition method through gradual visual environment recognition using a biology-based salient map according to the present invention;

도 2는 본 발명에 적용된 생물학 기반의 돌출맵을 이용한 점진적 시각 환경 인지 과정을 설명하기 위한 도면,2 is a view for explaining a gradual visual environment recognition process using a biological-based protrusion map applied to the present invention,

도 3은 본 발명에 적용된 장면 변화 감지 모델을 설명하기 위한 도면,3 is a view for explaining a scene change detection model applied to the present invention,

도 4는 본 발명에 적용된 생물학 기반의 돌출맵을 이용한 점진적 시각 환경 인지 실험 결과를 설명하기 위한 도면,4 is a view for explaining the results of a gradual visual environment cognition experiment using a biological-based protrusion map applied to the present invention,

도 5는 본 발명에 적용된 생물학 기반의 얼굴 지향 돌출맵을 이용한 특정 영역내 얼굴 검출 모델을 설명하기 위한 도면,5 is a view for explaining a face detection model in a specific region using a biological-based face-oriented protrusion map applied to the present invention;

도 6은 본 발명에 적용된 얼굴 지향 돌출맵에서의 히스토그램 정보를 이용한 얼굴 영역의 분리 과정을 설명하기 위한 도면,6 is a view for explaining a separation process of a face region using histogram information in a face-oriented protrusion map applied to the present invention;

도 7은 본 발명에 적용된 얼굴 영역 검출 및 검증을 위한 하-라이크 웨이브렛(Haar-like wavelet)을 이용한 형태 정보 추출을 설명하기 위한 도면,FIG. 7 is a view for explaining shape information extraction using a Haar-like wavelet for detecting and verifying a facial region applied to the present invention; FIG.

도 8은 본 발명에 적용된 생물학 기반의 얼굴 지향 돌출맵을 이용한 특정 영역내 얼굴 검출 실험 결과를 설명하기 위한 도면,8 is a view for explaining the results of the face detection experiment in a specific region using a biological-based face-oriented protrusion map applied to the present invention,

도 9는 본 발명에 적용된 점진적 얼굴 특징 추출을 위한 고정된 크기를 가지는 IPCA 입력 데이터를 위한 로그-방사형 샘플링 과정을 설명하기 위한 도면,9 is a view for explaining a log-radial sampling process for IPCA input data having a fixed size for progressive facial feature extraction applied to the present invention;

도 10은 본 발명에 적용된 점진적 얼굴 특징 추출을 위한 IPCA를 이용한 얼굴 특징 표현 모델을 설명하기 위한 도면,10 is a view for explaining a facial feature expression model using IPCA for gradual facial feature extraction applied to the present invention,

도 11은 본 발명에 적용된 점진적 얼굴 특징 추출을 위한 IHMAX(Incremental Hierarchical MAX)를 이용한 점진적 특징 추출 모델을 설명하기 위한 도면.11 is a view for explaining a gradual feature extraction model using incremental hierarchical MAX (IHMAX) for gradual facial feature extraction applied to the present invention.

Claims (13)

카메라에 의해 일정 시간 간격으로 입력되는 영상을 캘리브레이션 및 보정하는 전처리 단계;A preprocessing step of calibrating and correcting an image input by a camera at predetermined time intervals; 상기 전처리 단계에서 얻어진 영상으로부터 객체 지향 돌출맵을 구해서 객체 후보를 결정하는 객체 지향 돌출맵 형성 단계; An object-oriented protrusion map forming step of determining an object candidate by obtaining an object-oriented protrusion map from the image obtained in the preprocessing step; 상기 카메라로부터 입력된 영상이 이전에 입력된 영상과 차이가 있는지 판단하여, 사람이 나타남을 검출하는 환경 인지 변화 체크 단계;Determining whether an image input from the camera is different from a previously input image, and detecting an appearance of a person; 영상에서 사람의 얼굴 후보 영역을 찾기 위해 얼굴 지향 돌출맵을 형성하는 얼굴 지향 돌출맵 형성 단계;A face oriented protrusion map forming step of forming a face oriented protrusion map to find a face candidate region of a person in an image; 상기 얼굴 후보 영역으로부터 완전한 얼굴 영역을 검출해 내는 특정 영역내 얼굴 검출 단계; 및,A face detection step within a specific area for detecting a complete face area from the face candidate area; And, 상기 검출된 얼굴로부터 색상 특징 및 형태 특징을 추출하고, 이를 바탕으로 얼굴을 인식하는 특징 기반 얼굴 인식 단계를 포함하고,And a feature-based face recognition step of extracting color and shape features from the detected face and recognizing a face based thereon. 상기 객체 지향 돌출맵 형성 단계는,The object-oriented protrusion map forming step, (a) 영상에서의 색상 정보 및 형태 정보를 추출하는 단계;(a) extracting color information and shape information from an image; (b) 각각의 정보로부터 색상 특징 및 형태 특징을 추출하는 단계;(b) extracting color and shape features from each piece of information; (c) 각 특징들을 조합해서 객체 지향 돌출맵을 만드는 단계; 및,(c) combining the features to create an object-oriented protrusion map; And, (d) 객체 지향 돌출맵에서 주변보다 두드러진 순으로 객체 후보 영역을 추출하는 단계로 이루어지고,(d) extracting object candidate regions in the order of prominence from the surroundings in the object-oriented protrusion map; 상기 환경 인지 변화 체크 단계는,The environmental cognitive change check step, (e) 돌출점들 간의 거리 정보를 추출하는 단계;(e) extracting distance information between protrusions; (f) 돌출점들 간의 거리 정보와 돌출점들의 돌출도 정보로 각 돌출 영역의 에너지 값을 조합하는 단계; 및,(f) combining energy values of each protrusion area with distance information between protrusion points and protrusion degree information of the protrusion points; And, (g) 위 (f) 단계로부터 조합된 정보를 관찰하는 단계로 이루어지며,(g) observing the combined information from step (f) above; 상기 얼굴 지향 돌출맵 형성 단계는The face-oriented protrusion map forming step (h) 영상에서의 색상 정보 및 형태 정보를 추출하는 단계;(h) extracting color information and shape information from the image; (i) 색상 정보로부터 사람 피부색의 범위를 정하고 관심 영역의 영상만을 분리하는 단계;(i) determining a range of human skin color from color information and separating only an image of a region of interest; (j) 관심 영역의 정보로부터 색상 특징 및 형태 특징을 추출하는 단계;(j) extracting color and shape features from information of the region of interest; (l) 각 특징들을 조합해서 얼굴 지향 돌출 맵을 만드는 단계; 및,(l) combining the features to create a face oriented protrusion map; And, (m) 얼굴 지향 돌출맵에서의 주변보다 두드러진 순으로 얼굴 후보 영역을 추출하는 단계를 포함하며,(m) extracting face candidate regions in order of being more prominent than the periphery in the face-oriented protrusion map; 상기 특징 기반 얼굴 인식 단계후After the feature-based face recognition step 상기 얼굴 인식 결과가 미리 학습된 얼굴일 경우엔 해당 색상 특징 및 형태 특징을 반영하는 단계; 및,If the face recognition result is a pre-learned face, reflecting a corresponding color feature and a shape feature; And, 상기 얼굴 인식 결과가 미리 학습된 얼굴이 아닌 경우에 얼굴 학습 데이터에 해당 사람의 데이터를 추가할 수 있도록 얼굴 특징 추출을 하는 단계를 포함하고,And extracting a face feature to add data of the person to face learning data when the face recognition result is not a pre-learned face. 상기 얼굴 특징 정보를 가지고 얼굴 인식을 재학습하는 단계를 포함하여 이루어진 것을 특징으로 하는 얼굴 검출과 얼굴 인지 방법.And re-learning face recognition with the face feature information. 삭제delete 삭제delete 삭제delete 제1항에 있어서,The method of claim 1, 상기 특정 영역내 얼굴 검출 단계는The face detection step in the specific region 얼굴 후보 영역을 바탕으로 에이다부스트(AdaBoost) 알고리즘을 적용하여 영상에서의 영상 차이를 분석함으로써 실제 얼굴 영역을 검출하여 이루어진 것을 특징으로 하는 얼굴 검출과 얼굴 인지 방법.A face detection and face recognition method comprising detecting real face areas by analyzing image differences in an image by applying an AdaBoost algorithm based on face candidate areas. 제5항에 있어서,The method of claim 5, 상기 검출된 실제 얼굴 영역으로부터 색상 특징 및 형태 특징을 추출함을 특징으로 하는 얼굴 검출과 얼굴 인지 방법.Extracting color and shape features from the detected real face region. 삭제delete 삭제delete 삭제delete 제1항에 있어서,The method of claim 1, 상기 객체 지향 돌출맵 형성 단계중During the object-oriented protrusion map forming step 상기 영상에서의 색상 정보 및 형태 정보를 추출하는 단계는,Extracting color information and shape information from the image, 색상 정보로 적색, 녹색, 청색 정보와 명암 정보가 추출되는 단계; 및Extracting red, green and blue information and contrast information as color information; And 형태 정보로 윤곽선 정보가 추출되는 단계;Extracting contour information as shape information; 를 포함하고,Including, 상기 객체 지향 돌출맵 형성 단계중During the object-oriented protrusion map forming step 상기 특징 정보를 추출하는 단계는,Extracting the feature information, 각각의 정보 영상들의 피라미드 영상을 구해서 중앙-주변 영상 차를 통해 각 정보 영상들의 특징 획득 단계;Obtaining a pyramid image of each of the information images and acquiring features of the respective information images through a center-peripheral image difference; 를 포함하는 것을 특징으로 하는 얼굴 검출과 얼굴 인지 방법.Face detection and face recognition method comprising a. 삭제delete 제1항에 있어서,The method of claim 1, 상기 얼굴 지향 돌출맵 형성 단계중During the face-oriented protrusion map forming step 상기 색상 정보로부터 사람 피부색의 범위를 정하고 관심 영역의 영상만을 분리하는 단계는Determining the range of human skin color from the color information and separating only the image of the ROI 사람 피부색의 범위를 찾는 단계;Finding a range of human skin colors; 해당 범위에서의 적색, 녹색, 청색 영상의 최대치, 최소치를 구하는 단계; 및,Obtaining maximum and minimum values of the red, green, and blue images in the corresponding range; And, 상기 구해진 적색, 녹색, 청색 영상의 최대치, 최소치인 경계치들로 영상을 분리시키는 단계;Separating the image into boundary values which are maximum and minimum values of the obtained red, green, and blue images; 를 포함하는 것을 특징으로 하는 얼굴 검출과 얼굴 인지 방법.Face detection and face recognition method comprising a. 삭제delete
KR1020090032032A 2009-04-14 2009-04-14 Face detection and recognition method KR101105435B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020090032032A KR101105435B1 (en) 2009-04-14 2009-04-14 Face detection and recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020090032032A KR101105435B1 (en) 2009-04-14 2009-04-14 Face detection and recognition method

Publications (2)

Publication Number Publication Date
KR20100113651A KR20100113651A (en) 2010-10-22
KR101105435B1 true KR101105435B1 (en) 2012-01-17

Family

ID=43133062

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020090032032A KR101105435B1 (en) 2009-04-14 2009-04-14 Face detection and recognition method

Country Status (1)

Country Link
KR (1) KR101105435B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083343B2 (en) 2014-08-08 2018-09-25 Samsung Electronics Co., Ltd. Method and apparatus for facial recognition
US10331941B2 (en) 2015-06-24 2019-06-25 Samsung Electronics Co., Ltd. Face recognition method and apparatus
US10733422B2 (en) 2015-06-24 2020-08-04 Samsung Electronics Co., Ltd. Face recognition method and apparatus

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101441914B1 (en) * 2013-04-22 2014-10-30 경북대학교 산학협력단 Server apparatus, remote control apparatus and method for providing information thereof
KR101473991B1 (en) * 2013-05-30 2014-12-24 주식회사 에스원 Method and apparatus for detecting face
CN105095881B (en) 2015-08-21 2023-04-07 小米科技有限责任公司 Face recognition method, face recognition device and terminal
KR101870226B1 (en) * 2016-09-01 2018-06-25 상명대학교산학협력단 Apparatus and method for detecting fake biometrics
KR101886416B1 (en) * 2018-01-10 2018-09-10 문성웅 System for controlling door of vehicle and method thereof
EP3534296A1 (en) * 2018-02-28 2019-09-04 Chanel Parfums Beauté A method for building a computer-implemented tool for assessment of qualitative features from face images
KR20200110064A (en) 2019-03-15 2020-09-23 삼성전자주식회사 Authentication method and apparatus using transformation model
KR102211106B1 (en) * 2020-10-16 2021-02-02 한화시스템(주) High-speed object detection system and method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
논문1:KFIS*
논문2:한국자동차공학학회*
논문3:한국뇌학회지*

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10083343B2 (en) 2014-08-08 2018-09-25 Samsung Electronics Co., Ltd. Method and apparatus for facial recognition
US10331941B2 (en) 2015-06-24 2019-06-25 Samsung Electronics Co., Ltd. Face recognition method and apparatus
US10733422B2 (en) 2015-06-24 2020-08-04 Samsung Electronics Co., Ltd. Face recognition method and apparatus
US11386701B2 (en) 2015-06-24 2022-07-12 Samsung Electronics Co., Ltd. Face recognition method and apparatus

Also Published As

Publication number Publication date
KR20100113651A (en) 2010-10-22

Similar Documents

Publication Publication Date Title
KR101105435B1 (en) Face detection and recognition method
Fu et al. Look closer to see better: Recurrent attention convolutional neural network for fine-grained image recognition
Sung Learning and example selection for object and pattern detection
Bourdev et al. Describing people: A poselet-based approach to attribute classification
US7912253B2 (en) Object recognition method and apparatus therefor
Tuzel et al. Pedestrian detection via classification on riemannian manifolds
Sirohey et al. Eye detection in a face image using linear and nonlinear filters
Silva et al. A flexible approach for automatic license plate recognition in unconstrained scenarios
Schindler et al. Action snippets: How many frames does human action recognition require?
US8861805B2 (en) Face recognition apparatus and method for controlling the same
US20070172099A1 (en) Scalable face recognition method and apparatus based on complementary features of face image
Bao et al. Object co-detection
Zhang et al. A pedestrian detection method based on SVM classifier and optimized Histograms of Oriented Gradients feature
Wang et al. Head pose estimation with combined 2D SIFT and 3D HOG features
Pandey et al. Hand gesture recognition for sign language recognition: A review
CN112101208A (en) Feature series fusion gesture recognition method and device for elderly people
Kim Novel and efficient pedestrian detection using bidirectional PCA
Li et al. Deep representation of facial geometric and photometric attributes for automatic 3d facial expression recognition
Blondel et al. Human detection in uncluttered environments: From ground to UAV view
CN105760815A (en) Heterogeneous human face verification method based on portrait on second-generation identity card and video portrait
Sun et al. Fine-grained categorization via CNN-based automatic extraction and integration of object-level and part-level features
Campadelli et al. Fiducial point localization in color images of face foregrounds
Otiniano-Rodríguez et al. Finger spelling recognition using kernel descriptors and depth images
Li et al. Pedestrian detection based on clustered poselet models and hierarchical and–or grammar
Li et al. 3D face recognition by constructing deformation invariant image

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20141211

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20161220

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20171208

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20200102

Year of fee payment: 9