KR101612605B1 - Method for extracting face feature and apparatus for perforimg the method - Google Patents

Method for extracting face feature and apparatus for perforimg the method Download PDF

Info

Publication number
KR101612605B1
KR101612605B1 KR1020140054087A KR20140054087A KR101612605B1 KR 101612605 B1 KR101612605 B1 KR 101612605B1 KR 1020140054087 A KR1020140054087 A KR 1020140054087A KR 20140054087 A KR20140054087 A KR 20140054087A KR 101612605 B1 KR101612605 B1 KR 101612605B1
Authority
KR
South Korea
Prior art keywords
face
feature point
extracting
facial
feature
Prior art date
Application number
KR1020140054087A
Other languages
Korean (ko)
Other versions
KR20150127381A (en
Inventor
김대진
신종주
Original Assignee
포항공과대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 포항공과대학교 산학협력단 filed Critical 포항공과대학교 산학협력단
Priority to KR1020140054087A priority Critical patent/KR101612605B1/en
Publication of KR20150127381A publication Critical patent/KR20150127381A/en
Application granted granted Critical
Publication of KR101612605B1 publication Critical patent/KR101612605B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

얼굴 특징점 추출 방법 및 장치에 관한 기술이 개시된다. 얼굴 특징점 추출 방법은 디지털 신호 처리가 가능한 정보 처리 장치에서 수행되며, 입력 영상으로부터 얼굴을 검출하는 단계, 미리 생성된 얼굴 모델로부터 얼굴에 상응하는 얼굴 외형을 추출하고 얼굴 외형을 이용하여 얼굴에 대한 적어도 하나의 특징점 후보자를 추출하는 단계, 적어도 하나의 특징점 후보자가 얼굴 상에 매핑되는 위치에 기반하여 초기 파라미터를 설정하는 단계 및 초기 파라미터를 최적화함으로써 얼굴에 대한 얼굴 특징점을 추출하는 단계를 포함한다. 따라서, 얼굴 특징점 추출에 대한 성능을 향상시킴과 동시에 다양한 얼굴 인식 기술에 적용할 수 있다.A technique relating to a facial feature point extraction method and apparatus is disclosed. The facial feature point extraction method is performed in an information processing apparatus capable of digital signal processing. The facial feature point extraction method includes a step of detecting a face from an input image, a step of extracting a facial appearance corresponding to a face from a previously generated facial model, Extracting one feature point candidate, setting an initial parameter based on a location where at least one feature point candidate is mapped on the face, and extracting facial feature points for the face by optimizing the initial parameter. Accordingly, the present invention can be applied to various facial recognition techniques while improving the performance of facial feature point extraction.

Description

얼굴 특징점 추출 방법 및 이를 수행하는 장치{METHOD FOR EXTRACTING FACE FEATURE AND APPARATUS FOR PERFORIMG THE METHOD}TECHNICAL FIELD The present invention relates to a facial feature point extracting method and a facial feature point extracting method,

본 발명은 얼굴 인식 기술에 관한 것으로, 더욱 상세하게는, 입력 영상으로부터 얼굴의 특징점을 정확하게 추출하기 위한 얼굴 특징점 추출 방법 및 이를 수행하는 장치에 관한 것이다.The present invention relates to a face recognition technique, and more particularly, to a face feature point extraction method for accurately extracting a feature point of an image from an input image and an apparatus for performing the same.

컴퓨터 비전(computer vision)은 인간의 오감 중 시각적 인식 능력을 정보 처리 기기에 구현하는 인공 지능 분야이다.Computer vision is a field of artificial intelligence that realizes visual perception ability of human being in information processing device.

특히, 컴퓨터 비전 분야에서 얼굴 인식 기술은 정보 처리 장치를 통해 촬영된 영상에서 얼굴의 모양 또는 눈, 눈썹, 코, 입, 턱선 등의 위치를 찾아 사용자를 식별할 수 있다는 점에서 가상 현실 기술, 지능형 로봇 또는 보안 기술 등의 다양한 차세대 응용 기술에 적용할 수 있을 것으로 기대된다.Particularly, in the field of computer vision, face recognition technology can recognize a user by finding the position of a face, eye, eyebrow, nose, mouth, and jaw line in a video captured through an information processing device, It is expected to be applicable to various next generation application technologies such as robot or security technology.

종래에는 얼굴을 인식하기 위해 차별적 접근(discriminative approach) 방식 또는 생성적 접근(generative approach) 방식을 이용하여 얼굴에 대한 특징점을 추출하고자 하였다.Conventionally, we have tried to extract facial feature points by using discriminative approach or generative approach to recognize faces.

차별적 접근 방식은 특징점 추출기(feature detector)를 이용하여 얼굴에 나타나는 다수의 특징점 각각에 대한 특징점 후보자를 추출하고, 추출된 특징점 후보자 중에서 올바른 특징점을 추출하여 조합함으로써 얼굴의 전체적인 형태를 표현하고자 하였다.The discriminative approach is to extract the feature point candidates for each of the multiple feature points appearing on the face using a feature detector and extract the correct feature points from the extracted feature point candidates to represent the overall shape of the face.

그러나, 상술한 종래의 차별적 접근 방식은 얼굴의 방향이나 각도 또는 임의의 물체에 의해 얼굴의 일부가 가려지는 경우, 특징점 추출에 실패할 수 있다는 문제가 있다.However, the above-described conventional discriminative approach has a problem in that it can fail to extract feature points when a face is partially covered by a direction or an angle of a face or an arbitrary object.

생성적 접근 방식은 입력 영상에 포함된 얼굴 외양과 유사한 얼굴 외양을 미리 생성된 얼굴 외양 모델로부터 추출하여 이들의 차이를 최소화할 수 있도록 얼굴 특징점을 이동시킴으로써 얼굴의 형태를 표현하고자 한다.The generative approach is to extract the facial appearance similar to the facial appearance contained in the input image from the generated facial appearance model and to express the facial shape by moving the facial feature points so as to minimize the difference between them.

그러나, 생성적 접근 방식 또한 입력 영상의 조명이 미리 생성된 얼굴 외양 모델에서 학습된 영상의 조명과 상이하거나 입력 영상에 포함된 얼굴이 미리 생성된 얼굴 외양 모델을 통해 학습된 사람의 얼굴과 다른 경우, 특징점 추출에 대한 성능이 현저하게 떨어질 수 있다는 문제가 있다.However, the generative approach also differs from that of the learned image in the pre-generated face appearance model of the input image and the face of the input image is different from the face of the learned person through the pre-generated face appearance model , There is a problem that performance for minutiae point extraction may be remarkably deteriorated.

이와 같이 종래의 얼굴 특징점 기술은 입력 영상에 표현되는 얼굴의 크기, 방향 또는 표정, 가려짐(occlusion) 또는 조명 등의 조건에 따라 특징점 추출 성능이 크게 달라질 수 있다는 점에서 한계가 있다.As described above, the conventional facial feature point description has a limit in that the feature point extraction performance can be largely changed according to conditions such as face size, direction, facial expression, occlusion, illumination, or the like expressed in the input image.

상기와 같은 문제점을 해결하기 위한 본 발명의 목적은, 종래의 차별적 접근 방식과 생성적 접근 방식을 결합함으로써 얼굴 특징점 추출에 대한 성능을 향상시킬 수 있는 얼굴 특징점 추출 방법을 제공하는데 있다.SUMMARY OF THE INVENTION It is an object of the present invention to solve the above problems and provide a facial feature point extraction method capable of improving facial feature point extraction performance by combining a conventional discriminant approach and a generative approach.

또한, 본 발명의 다른 목적은, 입력 영상에 포함된 얼굴의 포즈, 표정, 가려짐 또는 조명에 상관없이 얼굴의 특징점을 정확하게 추출함으로써 얼굴 인식이 필요한 다양한 응용 기술에 적용할 수 있는 얼굴 특징점 추출 장치를 제공하는데 있다.It is another object of the present invention to provide a facial feature point extracting apparatus which can be applied to various application techniques requiring facial recognition by accurately extracting facial feature points irrespective of pose, facial expression, .

상기 목적을 달성하기 위한 본 발명의 일 측면에 따른 얼굴 특징점 추출 방법은, 디지털 신호 처리가 가능한 정보 처리 장치에서 수행되며, 입력 영상으로부터 얼굴을 검출하는 단계, 미리 생성된 얼굴 모델로부터 얼굴에 상응하는 얼굴 외형(appearance)을 추출하고, 얼굴 외형을 이용하여 얼굴에 대한 적어도 하나의 특징점 후보자를 추출하는 단계, 적어도 하나의 특징점 후보자가 얼굴 상에 매핑되는 위치에 기반하여 초기 파라미터(parameter)를 설정하는 단계 및 초기 파라미터를 최적화함으로써 얼굴에 대한 얼굴 특징점을 추출하는 단계를 포함한다.According to an aspect of the present invention, there is provided a method for extracting facial feature points, the method comprising: detecting a face from an input image; Extracting a facial appearance, extracting at least one feature point candidate for a face using the facial appearance, setting an initial parameter based on a location where at least one feature point candidate is mapped on a face And extracting facial feature points for the face by optimizing the step and initial parameters.

여기에서, 입력 영상으로부터 얼굴을 검출하는 단계는 입력 영상에서 얼굴이 위치하는 좌표를 추출하고, 좌표에 기반하여 얼굴의 크기, 방향 및 각도 중 적어도 하나를 포함하는 얼굴 포즈(pose) 정보를 분석함으로써 얼굴을 검출할 수 있다.Here, the step of detecting a face from the input image may include extracting coordinates where a face is located in the input image, and analyzing face pose information including at least one of the size, direction, and angle of the face based on the coordinates The face can be detected.

여기에서, 미리 생성된 얼굴 모델은 사전에 촬영된 적어도 하나의 영상으로부터 얼굴 포즈가 상이한 적어도 하나의 얼굴 외형을 검출하고, 적어도 하나의 얼굴 외형 각각에 대한 적어도 하나의 특징점을 추출하여, 적어도 하나의 얼굴 외형 각각에 적어도 하나의 특징점이 포함되도록 기계 학습함으로써 생성될 수 있다.Wherein the pre-generated face model includes at least one facial contour having a different facial pose from the at least one previously photographed image, extracting at least one feature point for each of the at least one facial contour, And can be generated by machine learning so that at least one feature point is included in each face appearance.

여기에서, 적어도 하나의 특징점 후보자를 추출하는 단계는 미리 생성된 얼굴 모델로부터 얼굴의 얼굴 포즈 정보에 상응하는 얼굴 외형을 추출하여 얼굴 상에 매핑하는 단계를 포함할 수 있다.Here, extracting at least one feature point candidate may include extracting a face contour corresponding to face pose information of a face from a previously generated face model, and mapping the face contour to a face.

여기에서, 적어도 하나의 특징점 후보자를 추출하는 단계는 얼굴 상에 매핑된 특징점을 얼굴의 부위 별로 구분하여 검색 영역으로 설정하는 단계 및 검색 영역에 위치하는 특징점이 얼굴에 대한 얼굴 특징점이 될 확률 값을 산출하는 단계를 포함할 수 있다.The step of extracting the at least one feature point candidates includes the steps of setting the feature points mapped on the face by the parts of the face and setting them as a search area and extracting a probability value that the feature point located in the search area becomes the face feature point of the face And a step of calculating the number of steps.

여기에서, 확률 값을 산출하는 단계는 서포트 벡터 머신(SVM, Support Vector Machine), k-최근접 이웃(K-nearest neighbor), 신경망(neural network), 회귀 분석(regression), 아다부스트(adaboost) 중 적어도 하나를 포함하는 기계 학습 알고리즘에 의해 구축된 특징점 추출기(feature detector)를 이용할 수 있다.Here, the step of calculating the probability value may be a support vector machine (SVM), a K-nearest neighbor, a neural network, a regression, an adaboost, A feature detector constructed by a machine learning algorithm that includes at least one of a feature detector and a feature detector.

여기에서, 적어도 하나의 특징점 후보자를 추출하는 단계는 산출된 확률 값에 따라 검색 영역에 포함된 특징점을 얼굴에 대한 적어도 하나의 특징점 후보자로써 추출할 수 있다.Here, the step of extracting at least one feature point candidates may extract the feature points included in the search region as at least one feature point candidates for the face according to the calculated probability value.

여기에서, 초기 파라미터를 설정하는 단계는 적어도 하나의 특징점 후보자를 얼굴의 특징과 매핑되도록 이동시키는 적어도 하나의 가설(hypothesis)을 설정하는 단계 및 적어도 하나의 가설을 렌삭(ransac) 알고리즘을 기반으로 평가함으로써 초기 파라미터를 설정하는 단계를 포함할 수 있다.Wherein setting an initial parameter comprises: setting at least one hypothesis that moves at least one feature point candidate to be mapped to a feature of a face; and determining at least one hypothesis based on a ransac algorithm Thereby setting an initial parameter.

여기에서, 얼굴에 대한 얼굴 특징점을 추출하는 단계는 초기 파라미터에 포함된 적어도 하나의 특징점 후보자 간의 거리 및 강도(intensity)를 얼굴에 맞게 조정함으로써 얼굴에 대한 얼굴 특징점을 추출할 수 있다.Here, the step of extracting the facial feature points with respect to the face may extract facial feature points with respect to the face by adjusting the distance and intensity between at least one feature point candidates included in the initial parameter to the face.

또한, 상기 목적을 달성하기 위한 본 발명의 다른 측면에 따른 얼굴 특징점 추출 장치는, 디지털 신호 처리가 가능한 정보 처리 장치에 의해 구현되며 입력 영상으로부터 얼굴을 검출하는 얼굴 검출부, 미리 생성된 얼굴 모델로부터 얼굴에 상응하는 얼굴 외형(appearance)을 추출하고, 얼굴 외형을 이용하여 얼굴에 대한 적어도 하나의 특징점 후보자를 추출하는 후보자 추출부, 적어도 하나의 특징점 후보자가 얼굴 상에 매핑되는 위치에 기반하여 초기 파라미터(parameter)를 설정하는 파라미터 설정부 및 초기 파라미터를 최적화함으로써 얼굴에 대한 얼굴 특징점을 추출하는 특징점 추출부를 포함한다.According to another aspect of the present invention, there is provided an apparatus for extracting facial feature points, the facial feature point extracting apparatus comprising: a face detecting unit that is implemented by an information processing apparatus capable of digital signal processing and detects a face from an input image; A candidate extracting unit for extracting at least one feature point candidate for a face by using the face appearance, an extraction unit for extracting at least one feature point candidate for a face based on a position where at least one feature point candidate is mapped on the face, parameter and a feature point extracting unit for extracting facial feature points for the face by optimizing the initial parameters.

상술한 바와 같은 본 발명의 실시예에 따른 얼굴 특징점 추출 방법 및 장치에 따르면, 종래의 차별적 접근 방식과 생성적 접근 방식을 결합함으로써 얼굴 특징점 추출에 대한 성능을 향상시킬 수 있다.According to the method and apparatus for extracting facial feature points according to the embodiment of the present invention as described above, the performance of facial feature point extraction can be improved by combining the conventional discriminant approach and the generative approach.

또한, 입력 영상에 포함된 얼굴의 포즈, 표정, 가려짐 또는 조명에 상관없이 얼굴의 특징점을 정확하게 추출함으로써 얼굴 인식이 필요한 다양한 응용 기술에 적용할 수 있다.In addition, the present invention can be applied to various application technologies requiring face recognition by accurately extracting feature points of a face irrespective of pose, facial expression, masking, or illumination of a face included in the input image.

도 1은 본 발명의 실시예에 따른 얼굴 특징점 추출 방법을 설명하는 흐름도이다.
도 2는 본 발명의 실시예에 따른 미리 생성된 얼굴 모델을 설명하는 예시도이다.
도 3은 본 발명의 실시예에 따른 특징점 후보자를 추출하는 것을 설명하는 흐름도이다.
도 4는 본 발명의 실시예에 따른 특징점 후보자를 추출하는 것을 설명하는 예시도이다.
도 5는 본 발명의 실시예에 따른 초기 파라미터를 설정하는 것을 설명하는 예시도이다.
도 6은 본 발명의 실시예에 따른 얼굴 특징점 추출 장치를 설명하는 블록도이다.
1 is a flowchart illustrating a facial feature point extracting method according to an embodiment of the present invention.
2 is an exemplary diagram illustrating a pre-generated face model according to an embodiment of the present invention.
FIG. 3 is a flow chart illustrating extracting a minutiae candidate according to an embodiment of the present invention.
FIG. 4 is an exemplary diagram illustrating extraction of a minutiae candidate according to an embodiment of the present invention.
5 is an exemplary diagram illustrating setting of initial parameters according to an embodiment of the present invention.
6 is a block diagram illustrating a facial feature point extracting apparatus according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 각 도면을 설명하면서 유사한 참조부호를 유사한 구성요소에 대해 사용하였다. While the invention is susceptible to various modifications and alternative forms, specific embodiments thereof are shown by way of example in the drawings and will herein be described in detail. It should be understood, however, that the invention is not intended to be limited to the particular embodiments, but includes all modifications, equivalents, and alternatives falling within the spirit and scope of the invention. Like reference numerals are used for like elements in describing each drawing.

제1, 제2, A, B 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 발명의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. The terms first, second, A, B, etc. may be used to describe various elements, but the elements should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present invention, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. It is to be understood that when an element is referred to as being "connected" or "connected" to another element, it may be directly connected or connected to the other element, . On the other hand, when an element is referred to as being "directly connected" or "directly connected" to another element, it should be understood that there are no other elements in between.

본 출원에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 출원에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used in this application is used only to describe a specific embodiment and is not intended to limit the invention. The singular expressions include plural expressions unless the context clearly dictates otherwise. In the present application, the terms "comprises" or "having" and the like are used to specify that there is a feature, a number, a step, an operation, an element, a component or a combination thereof described in the specification, But do not preclude the presence or addition of one or more other features, integers, steps, operations, elements, components, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
Unless defined otherwise, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this invention belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하, 본 발명에 따른 바람직한 실시예를 첨부된 도면을 참조하여 상세하게 설명한다.Hereinafter, preferred embodiments according to the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 얼굴 특징점 추출 방법을 설명하는 흐름도이고, 도 2는 본 발명의 실시예에 따른 미리 생성된 얼굴 모델을 설명하는 예시도이다.FIG. 1 is a flowchart illustrating a facial feature point extraction method according to an embodiment of the present invention, and FIG. 2 is an exemplary view illustrating a pre-generated face model according to an embodiment of the present invention.

또한, 도 3은 본 발명의 실시예에 따른 특징점 후보자를 추출하는 것을 설명하는 흐름도이고, 도 4는 본 발명의 실시예에 따른 특징점 후보자를 추출하는 것을 설명하는 예시도이며, 도 5는 본 발명의 실시예에 따른 초기 파라미터를 설정하는 것을 설명하는 예시도이다.FIG. 3 is a flowchart illustrating extraction of a minutiae candidate according to an embodiment of the present invention. FIG. 4 is a diagram illustrating extraction of a minutiae candidate according to an embodiment of the present invention. Fig. 8 is a diagram illustrating an example of setting initial parameters according to the embodiment of Fig.

도 1을 참조하면, 얼굴 특징점 추출 방법은 입력 영상으로부터 얼굴을 검출하는 단계(S100), 미리 생성된 얼굴 모델로부터 추출한 얼굴 외형을 이용하여 특징점 후보자를 추출하는 단계(S200), 초기 파라미터를 설정하는 단계(S300) 및 초기 파라미터를 최적화하여 얼굴 특징점을 추출하는 단계(S400)를 포함할 수 있다.Referring to FIG. 1, a facial feature point extraction method includes a step of detecting a face from an input image (S100), a step of extracting a feature point candidate using a face contour extracted from a previously generated face model (S200) (S300) and extracting facial feature points by optimizing the initial parameters (S400).

종래에는 입력 영상에서 얼굴 특징점을 추출하기 위해 차별적 접근(discriminative approach) 방식 또는 생성적 접근 방식(generative approach)을 이용하였다.Conventionally, a discriminative approach or a generative approach is used to extract facial feature points from an input image.

그러나, 종래의 차별적 접근 방식 또는 생성적 접근 방식을 이용하는 얼굴 특징점 추출 방법은 입력 영상에 표현되는 얼굴의 크기, 방향 또는 표정, 가려짐(occlusion) 또는 조명 등의 조건에 따라 특징점 추출 성능이 크게 달라질 수 있다는 점에서 한계가 있다.However, in the facial feature point extraction method using the conventional different approach or the generative approach, feature extraction performance largely varies depending on conditions such as face size, direction or facial expression, occlusion or illumination expressed in the input image There is a limit in that it can be.

이에 따라, 본 발명은 입력 영상에서 표현되는 얼굴의 조건 또는 입력 영상이 촬영되는 외부 환경에 상관없이 정확하게 얼굴에 대한 특징점을 추출하기 위해 종래의 차별적 접근 방식과 생성적 접근 방식을 결합하는 것을 제안한다.Accordingly, the present invention proposes to combine a conventional discriminant approach and a generative approach in order to accurately extract the feature points of a face irrespective of the condition of the face expressed in the input image or the external environment in which the input image is captured .

본 발명에 따른 얼굴 특징점 추출 방법은 디지털 신호 처리가 가능한 정보 처리 장치에서 수행될 수 있다.The facial feature point extraction method according to the present invention can be performed in an information processing apparatus capable of digital signal processing.

여기에서, 정보 처리 장치는 입력 영상을 촬영할 수 있도록 카메라와 같은 적어도 하나의 이미지 센서를 탑재하고, 촬영된 입력 영상에서 얼굴 특징점을 추출할 수 있도록 정보 처리 기능을 구비한 스마트폰(smart phone), 태블릿 PC, PDA(Personal Digital Assistant), 컴퓨터, 노트북 등의 사용자 단말 및 스마트 가전 기기를 포함할 수 있으나 이에 한정되는 것은 아니다.Here, the information processing apparatus may include a smart phone equipped with at least one image sensor such as a camera for capturing an input image and having an information processing function for extracting facial feature points from the captured input image, But is not limited to, a user terminal such as a tablet PC, a PDA (Personal Digital Assistant), a computer, a notebook computer, and a smart home appliance.

이와 같이 정보 처리 장치를 통해 촬영된 입력 영상으로부터 얼굴을 검출할 수 있다(S100).As described above, the face can be detected from the input image photographed through the information processing apparatus (S100).

여기에서, 입력 영상은 얼굴이 표현된 사진(picture) 및 동영상(moving picture)을 의미할 수 있다. 따라서, 입력 영상에 대한 해상도, 픽셀 수, 조명 등뿐만 아니라 입력 영상마다 얼굴이 표현되는 위치, 크기, 방향 및 각도가 각각 상이할 수 있다.Herein, the input image may mean a picture and a moving picture in which a face is expressed. Therefore, the position, size, direction, and angle of the face may be different for each input image as well as resolution, number of pixels, illumination, and the like of the input image.

이에 따라, 입력 영상에서 얼굴이 위치하는 좌표를 추출하여 입력 영상에서 얼굴이 표현되는 크기, 방향 및 각도 중 적어도 하나를 포함하는 얼굴 포즈(pose) 정보를 분석할 수 있다.Accordingly, it is possible to analyze face pose information including at least one of a size, a direction, and an angle at which a face is expressed in the input image by extracting coordinates in which the face is located in the input image.

특히, 입력 영상에서 얼굴은 3차원으로 표현될 수 있으므로, 2차원의 평면 상에 검출된 얼굴이 표시될 수 있도록 얼굴 포즈 정보에 기반하여 3차원 형태의 얼굴을 2차원으로 변환할 수 있다.In particular, since the face can be expressed in three dimensions in the input image, the face of the three-dimensional shape can be converted into two-dimensional based on the face pose information so that the detected face can be displayed on the two-dimensional plane.

입력 영상으로부터 얼굴이 검출되면, 미리 생성된 얼굴 모델로부터 얼굴에 상응하는 얼굴 외형(appearance)을 추출하고, 얼굴 외형을 이용하여 얼굴에 대한 적어도 하나의 특징점 후보자를 추출할 수 있다(S200).When a face is detected from the input image, a face appearance corresponding to the face is extracted from the face model generated in advance, and at least one feature point candidate for the face can be extracted using the face appearance (S200).

여기에서, 미리 생성된 얼굴 모델은 사전에 촬영된 적어도 하나의 영상으로부터 얼굴 포즈가 상이한 적어도 하나의 얼굴 외형을 검출하고, 적어도 하나의 얼굴 외형 각각에 대한 적어도 하나의 특징점을 추출하여, 적어도 하나의 얼굴 외형 각각에 적어도 하나의 특징점이 포함되도록 기계 학습함으로써 생성될 수 있다.
Wherein the pre-generated face model includes at least one facial contour having a different facial pose from the at least one previously photographed image, extracting at least one feature point for each of the at least one facial contour, And can be generated by machine learning so that at least one feature point is included in each face appearance.

보다 구체적으로, 사전에 촬영된 적어도 하나의 영상에서 검출된 얼굴 외형은 도 2 (a)와 같이 3차원으로 표현될 수 있다. 여기에서, 얼굴 외형에는 적어도 하나의 특징점이 기계 학습되어 포함될 수 있다.More specifically, the face contours detected from at least one image photographed in advance can be expressed in three dimensions as shown in FIG. 2 (a). Here, at least one feature point may be machine-learned in the face contour.

Figure 112014042786635-pat00001
Figure 112014042786635-pat00001

그리하여, 수학식 1을 참조하면, 적어도 하나의 특징점이 포함된 얼굴 외형을 3차원 좌표 S(p)로 표현할 수 있다.Thus, referring to Equation (1), a face contour including at least one feature point can be expressed by a three-dimensional coordinate S (p).

여기에서, S0 3은 사전에 촬영된 적어도 하나의 영상에서 얼굴 외형이 표현되는 좌표의 평균 값을 의미할 수 있으며, Si 3은 얼굴의 크기, 방향, 각도 또는 표정 등을 포함하는 얼굴 포즈의 변화에 따라 얼굴 외형에 포함된 특징점이 이동하는 좌표 값을 의미할 수 있다. 또한, Pi는 얼굴 포즈의 변화에 따른 파라미터 값을 의미할 수 있으며, M은 얼굴 포즈의 변화에 따라 얼굴 외형이 이동하는 방향을 나타내는 벡터(vector)를 의미할 수 있다.Here, S 0 3 may mean an average value of the coordinates at which face contours are represented in at least one image photographed in advance, and S i 3 is a face pose including face size, direction, angle, The feature point included in the face contour according to the change of the face coordinate. In addition, P i may mean a parameter value according to a change in facial pose, and M may denote a vector indicating a direction in which a facial contour moves according to a change in facial pose.

이와 같이 3차원으로 표현되는 얼굴 외형을 2차원 평면에 도시하기 위해서는 얼굴 외형의 3차원 좌표를 2차원으로 변환되어야 한다.In order to display the facial contour expressed in three dimensions in the two-dimensional plane, the three-dimensional coordinate of the facial contour must be converted into two-dimensional.

Figure 112014042786635-pat00002
Figure 112014042786635-pat00002

따라서, 수학식 2를 참조하여, 수학식 1을 통해 산출한 얼굴 외형의 3차원 좌표를 2차원인 s(q)로 변환할 수 있다.Therefore, with reference to Equation (2), it is possible to convert the three-dimensional coordinates of the face contour calculated through Equation (1) into two-dimensional s (q).

여기에서, ξ은 영상의 크기를 나타내는 파라미터를 의미할 수 있다. φ, θ, ψ는 얼굴 외형을 표현하는 3차원 좌표의 x, y, z 축 각각을 2차원으로 이동하기 위한 회전 파라미터로써, 이를 이용하여 3차원 회전 행렬인 R()을 계산할 수 있다.Here,? Can mean a parameter indicating the size of an image. φ, θ, and ψ are rotation parameters for moving the x, y, and z axes of the three-dimensional coordinates representing the facial contour into two dimensions, and can be used to calculate the three-dimensional rotation matrix R ().

또한, t()는 3차원의 좌표를 2차원의 평면에 도시하기 위한 함수로써, 2차원 평면의 x축에 대한 이동 파라미터인 tx와 y축에 대한 이동 파라미터인 ty로 구성될 수 있다.Also, t () is a function for plotting three-dimensional coordinates on a two-dimensional plane, and may be composed of t x , which is a movement parameter for the x-axis of the two-dimensional plane, and t y , which is a movement parameter for the y- .

예를 들어, 도 2 (a)와 같이 3차원 좌표로 표현되는 얼굴 외형을 2차원으로 변환하면, 얼굴이 정면을 주시할 때 θ 값이 0°인 것을 알 수 있다. 따라서, 3차원의 얼굴 외형을 좌우 방향으로 이동시키면, 이동 정도에 따라 2차원으로 변환되는 회전 각도 θ값 또한 -60°에서 60°까지 변화할 수 있다.For example, as shown in FIG. 2 (a), when the face contour represented by three-dimensional coordinates is converted into two-dimensional, it can be seen that the θ value is 0 ° when the face is looking at the front face. Accordingly, when the three-dimensional facial contour is moved in the left-right direction, the rotation angle? Converted into two-dimensional according to the degree of movement can also be changed from -60 ° to 60 °.

그리하여, 2차원으로 변환된 얼굴 외형을 2차원 평면에 도시함으로써 얼굴 모델을 표현할 수 있다.Thus, a face model can be expressed by showing the face outline converted into two dimensions on a two-dimensional plane.

Figure 112014042786635-pat00003
Figure 112014042786635-pat00003

수학식 3을 참조하면, 도 2 (b)와 같이 각각 상이한 얼굴 포즈를 갖는 적어도 하나의 얼굴 외형이 2차원 평면에 출력될 수 있다.Referring to Equation (3), at least one facial contour, each having a different facial pose, may be output in a two-dimensional plane as shown in Fig. 2 (b).

여기에서, m은 얼굴 외형에 대한 얼굴 포즈 인덱스를 의미할 수 있으며, A0 m은 얼굴 외형을 나타낼 수 있다. 또한, Ai m은 얼굴 포즈의 변화에 따른 얼굴 외형의 이동을 나타내며, λi m은 얼굴 포즈 변화에 따라 얼굴 외형에 대한 이동 파라미터를 나타낼 수 있다.Here, m may denote the face pose index for the face contour, and A 0 m may represent the face contour. Also, A i m represents the movement of the face contour according to the change of the face pose, and λ i m represents the movement parameter for the face contour according to the face pose change.

이와 같이 얼굴 포즈가 상이한 적어도 하나의 얼굴 외형에 적어도 하나의 특징점을 포함하여 생성된 얼굴 모델을 이용하면, 입력 영상에서 검출된 얼굴에 대한 적어도 하나의 특징점 후보자를 추출할 수 있다(S200).
At least one feature point candidate for a face detected in the input image may be extracted using the face model generated by including at least one feature point in at least one face contour having a different face pose (S200).

도 3 및 도 4를 참조하면, 입력 영상에서 검출된 얼굴에 대한 얼굴 특징점 후보자를 추출할 수 있다.Referring to FIGS. 3 and 4, a face feature point candidate for a face detected in the input image can be extracted.

먼저, 미리 생성된 얼굴 모델로부터 추출된 얼굴 외형에 포함되는 특징점을 얼굴 상에 매핑할 수 있다(S210). 즉, 얼굴의 얼굴 포즈 정보에 상응하는 얼굴 외형을 미리 생성된 얼굴 모델에서 추출하고, 얼굴 외형에 포함된 특징점을 도 4 (a)와 같이 얼굴 상에 매핑할 수 있다.First, minutiae points included in a face contour extracted from a pre-generated face model may be mapped on a face (S210). That is, the facial contour corresponding to the facial pose information can be extracted from the generated facial model, and the minutiae included in the facial contour can be mapped on the face as shown in Fig. 4 (a).

얼굴 상에 매핑된 특징점은 얼굴의 부위 별로 구분하여 검색 영역으로 설정할 수 있다(S220). 여기에서, 검색 영역은 눈, 눈썹, 코, 입, 턱선 등 얼굴을 구성하는 특정 부위에 대하여 설정할 수 있다.The minutiae mapped on the face can be set as a search area by dividing them into parts of the face (S220). Here, the search region can be set for a specific region constituting the face such as eyes, eyebrows, nose, mouth, and chin line.

예를 들어, 도 4 (b)와 같이 얼굴 상에서 왼쪽 눈썹에 매핑된 특징점들을 모아 검색 영역 A로 설정하고, 왼쪽 턱선에 매핑된 특징점들을 모아 검색 영역 B로 설정할 수 있다. 이와 마찬가지로, 오른쪽 눈에 매핑된 특징점들을 모아 검색 영역 C로 설정할 수 있다.For example, as shown in FIG. 4B, the minutiae mapped to the left eyebrow on the face can be collected and set as the search area A, and the minutiae mapped on the left cheek line can be collected and set as the search area B. Likewise, the minutiae mapped to the right eye can be collected and set in the search area C.

그리하여, 검색 영역에 위치하는 특징점이 얼굴에 대한 얼굴 특징점이 될 확률 값을 산출할 수 있다(S230). 이 때, 확률 값은 서포트 벡터 머신(SVM, Support Vector Machine), k-최근접 이웃(K-nearest neighbor), 신경망(neural network), 회귀 분석(regression), 아다부스트(adaboost) 중 적어도 하나를 포함하는 기계 학습 알고리즘에 의해 구축된 특징점 추출기(feature detector)를 이용할 수 있으나 이에 한정되는 것은 아니다.Thus, a probability value that a feature point located in the search region becomes a face feature point for a face can be calculated (S230). At this time, the probability value may be at least one of a support vector machine (SVM), a K-nearest neighbor, a neural network, a regression, and an adaboost But not limited to, a feature detector constructed by a machine learning algorithm.

산출된 확률 값에 따라 검색 영역에 포함된 특징점을 얼굴에 대한 적어도 하나의 특징점 후보자로써 추출할 수 있다(S240).According to the calculated probability value, the minutiae included in the search region can be extracted as at least one minutia point candidate for the face (S240).

구체적으로 예를 들어, 도 4 (b)에서 설정된 검색 영역 A에 위치하는 적어도 하나의 특징점을 가우시안 분포의 평균 좌표 또는 공분산 행렬을 이용하여 표현한 후, 이 중에서 얼굴 특징점이 될 확률 값이 높은 특징점을 도 4 (c)의 A´와 같이 얼굴에 대한 특징점 후보자로 추출할 수 있다. Specifically, for example, after at least one feature point located in the search area A set in FIG. 4 (b) is expressed using an average coordinate or a covariance matrix of a Gaussian distribution, a feature point having a high probability value It can be extracted as a minutia point candidate for a face as shown by A 'in Fig. 4 (c).

이와 같은 방식으로 도 4 (b)에서 설정된 검색 영역 B에 위치하는 적어도 하나의 특징점 중에서 얼굴 특징점이 될 확률 값이 특징점을 도 4 (c)의 B´와 같이 얼굴에 대한 특징점 후보자로 추출할 수 있다.4 (b), the probability value to be the facial feature point among at least one feature point located in the search region B can be extracted as the feature point candidates for the face as shown in B 'in FIG. 4 (c) have.

반면, 도 4 (b)에서 설정된 검색 영역 C는 얼굴 상에서 머리카락에 의해 얼굴의 부위가 가려져 있기 때문에, 검색 영역 C에 위치하는 적어도 하나의 특징점이 가우시안 분포의 평균 좌표 또는 공분산 행렬을 통해 표현되지 않는다. 이에 따라 도 4 (c)의 C´와 같이 얼굴에 대한 특징점 후보자가 추출되지 않을 수 있다.
On the other hand, since the face region of the search region C set in FIG. 4B is covered by the hair on the face, at least one feature point located in the search region C is not expressed through the average coordinate or covariance matrix of the Gaussian distribution . Accordingly, the minutiae candidate for the face may not be extracted as shown at C 'in Fig. 4 (c).

이와 같이 추출된 적어도 하나의 특징점 후보자가 얼굴 상에 매핑되는 위치에 기반하여 초기 파라미터(parameter)를 설정할 수 있다(S300).The initial parameter may be set based on the position of the at least one minutia candidate extracted in this manner on the face (S300).

즉, 추출된 적어도 하나의 특징점 후보자를 입력 영상으로부터 검출된 얼굴의 부위에 보다 가깝게 위치하도록 이동시켜 얼굴에 대한 특징점을 추출하기 위한 초기 파라미터를 설정할 수 있다.That is, the initial parameter for extracting the feature points for the face can be set by moving the extracted at least one feature point candidate closer to the detected face region from the input image.

이를 위해, 추출된 적어도 하나의 특징점 후보자를 얼굴의 특징과 매핑되도록 이동시켜 가설(hypothesis)을 설정하고, 가설을 렌삭(ransac) 알고리즘을 이용하여 평가할 수 있다.To this end, a hypothesis can be set by moving the extracted at least one minutiae candidate to be mapped to a facial feature, and the hypothesis can be evaluated using a ransac algorithm.

예를 들어, 도 5 (a)와 같이 적어도 하나의 특징점 후보자가 얼굴 상에 매핑되면, 눈썹, 눈, 코, 입, 턱선과 같은 얼굴의 부위 별로 임의의 서로 다른 두 개의 특징점 후보자를 선택하여 얼굴의 특징과 매핑되도록 이동시킬 수 있다. For example, as shown in FIG. 5 (a), when at least one feature point candidate is mapped on a face, arbitrary two different feature point candidates are selected for each face region such as eyebrows, eyes, nose, mouth, So as to be mapped to the features of FIG.

이를 가설이라 정의하고 렌삭 알고리즘을 이용하여 평가함으로써 두 특징점 후보자 중에서 얼굴의 특징에 보다 가까운 위치에 매핑되는 특징점 후보자를 추출할 수 있다.By defining it as a hypothesis and evaluating it using the Leanz algorithm, it is possible to extract a minutiae candidate mapped to a location closer to the face feature among the two minutiae candidates.

그리하여, 상술한 일련의 과정을 반복하면, 도 5 (a)와 같이 얼굴 상에 매핑된 적어도 하나의 특징점 후보자가 도 5 (b) 및 도 5 (c)와 같이 점점 입력 영상으로부터 검출된 얼굴에 가까이 위치하게 되며, 최종적으로 도 5 (d)와 같이 얼굴에 가장 가까운 곳에 위치하는 특징점 후보자들을 초기 파라미터로 설정할 수 있다.5 (b) and 5 (c), when at least one feature point candidate mapped on the face as shown in FIG. 5 (a) And finally, the feature point candidates located closest to the face as shown in FIG. 5 (d) can be set as initial parameters.

초기 파라미터를 최적화하여 얼굴에 대한 얼굴 특징점을 추출할 수 있다(S400).The facial feature points for the face can be extracted by optimizing the initial parameters (S400).

즉, 초기 파라미터에 포함된 적어도 하나의 특징점 후보자 간의 거리 및 강도(intensity)를 얼굴에 맞게 조정함으로써 얼굴에 대한 얼굴 특징점을 추출할 수 있다.That is, facial feature points for a face can be extracted by adjusting the distance and intensity between at least one feature point candidates included in the initial parameter to the face.

Figure 112014042786635-pat00004
Figure 112014042786635-pat00004

수학식 4를 참조하면, 초기 파라미터를 기초로 얼굴 특징점을 추출하기 위한 최적화를 수행할 수 있다.Referring to Equation (4), optimization for extracting facial feature points based on initial parameters can be performed.

상기 수학식 4에서

Figure 112014042786635-pat00005
은 초기 파라미터에 포함된 적어도 하나의 특징점 후보자 간의 거리를 줄이기 위한 식으로, 차별적 접근 방식에서 발생하는 에러를 표현할 수 있다. 이 때,
Figure 112014042786635-pat00006
은 얼굴에 대한 위치이고,
Figure 112014042786635-pat00007
은 초기 파라미터에 포함된 특징점 후보자의 위치를 의미할 수 있다.In Equation (4)
Figure 112014042786635-pat00005
Is an expression for reducing the distance between at least one minutiae candidate included in the initial parameter and can represent an error occurring in the differential approach. At this time,
Figure 112014042786635-pat00006
Is the position for the face,
Figure 112014042786635-pat00007
May refer to the position of the feature point candidate included in the initial parameter.

또한,

Figure 112014042786635-pat00008
은 미리 생성된 얼굴 모델에서 추출된 얼굴 외형과 입력 영상에서 검출된 얼굴 간의 강도를 줄이기 위한 식으로, 생성적 접근 방식에서 발생하는 에러를 표현할 수 있다. 여기에서,
Figure 112014042786635-pat00009
은 생성적 접근 방식의 에러에 대한 가중치를 의미하며 이는 주로 지수함수에 의해 정의될 수 있다. 또한,
Figure 112014042786635-pat00010
은 얼굴 외형을 와핑(warping)한 영상이며,
Figure 112014042786635-pat00011
은 얼굴 외형을 의미할 수 있다.Also,
Figure 112014042786635-pat00008
Is an expression for reducing the intensity between the face outline extracted from the pre-generated face model and the face detected from the input image, and can represent an error occurring in the generation approach. From here,
Figure 112014042786635-pat00009
Is a weight for errors in the generative approach, which can be defined primarily by an exponential function. Also,
Figure 112014042786635-pat00010
Is a warping image of the face contour,
Figure 112014042786635-pat00011
Can mean face contour.

특히, 수학식 4에서 α는 차별적 접근 방식과 생성적 접근 방식의 균형을 맞추는 값을 의미할 수 있다.In particular, in Equation (4),? May mean a value that balances the differential approach and the productive approach.

이 때, 얼굴에서 가려진 부분에 대한 얼굴 특징점을 추출하기 위해 하기 수학식 5를 이용할 수 있다At this time, the following expression (5) can be used to extract facial feature points for a part hidden from the face

Figure 112014042786635-pat00012
Figure 112014042786635-pat00012

수학식 5에서

Figure 112014042786635-pat00013
은 특징점에 대한 가중치 행렬을 의미하는 것으로, 얼굴에 가려진 부분이 있어 특징점 후보자가 초기 파라미터에 포함되지 않는 경우,
Figure 112014042786635-pat00014
를 제로 행렬로 설정하여 최적화되지 않도록 한다.In Equation (5)
Figure 112014042786635-pat00013
Denotes a weight matrix for feature points. If a feature candidate candidate is not included in the initial parameter because there is a part hidden in the face,
Figure 112014042786635-pat00014
Is set to a zero matrix so as not to be optimized.

반면, 가려지는 부분이 아닌 경우에는 가시성을 표시하는

Figure 112014042786635-pat00015
을 계산하여 가중치 행렬을 산출함으로써 얼굴 특징점을 추출할 수 있다.On the other hand, if it is not the part to be covered,
Figure 112014042786635-pat00015
The face feature points can be extracted by calculating the weighting matrix.

이와 같이 본 발명에 따른 얼굴 특징점 추출 방법은 차별적 접근 방식과 생성적 접근 방식을 결합하여 보다 정확하게 얼굴 특징점을 추출할 수 있다.
As described above, the facial feature point extraction method according to the present invention can extract facial feature points more accurately by combining the discriminant approach and the generative approach.

도 6은 본 발명의 실시예에 따른 얼굴 특징점 추출 장치를 설명하는 블록도이다.6 is a block diagram illustrating a facial feature point extracting apparatus according to an embodiment of the present invention.

도 6을 참조하면, 얼굴 특징점 추출 장치(100)는 얼굴 검출부(110), 후보자 추출부(120), 파라미터 설정부(130) 및 특징점 추출부(140)를 포함할 수 있다.Referring to FIG. 6, the facial feature point extraction apparatus 100 may include a face detection unit 110, a candidate extraction unit 120, a parameter setting unit 130, and a feature point extraction unit 140.

얼굴 특징점 추출 장치(100)는 디지털 신호 처리가 가능한 정보 처리 장치에 의해 구현될 수 있다.The facial feature point extraction apparatus 100 may be implemented by an information processing apparatus capable of digital signal processing.

여기에서, 정보 처리 장치는 입력 영상을 촬영할 수 있도록 카메라와 같은 적어도 하나의 이미지 센서를 탑재하고, 촬영된 입력 영상에서 얼굴 특징점을 추출할 수 있도록 정보 처리 기능을 구비한 스마트폰(smart phone), 태블릿 PC, PDA(Personal Digital Assistant), 컴퓨터, 노트북 등의 사용자 단말 및 스마트 가전 기기를 포함할 수 있으나 이에 한정되는 것은 아니다.Here, the information processing apparatus may include a smart phone equipped with at least one image sensor such as a camera for capturing an input image and having an information processing function for extracting facial feature points from the captured input image, But is not limited to, a user terminal such as a tablet PC, a PDA (Personal Digital Assistant), a computer, a notebook computer, and a smart home appliance.

얼굴 검출부(110)는 정보 처리 장치를 통해 촬영된 입력 영상으로부터 얼굴을 검출할 수 있다. The face detection unit 110 can detect a face from an input image photographed through the information processing apparatus.

여기에서, 입력 영상은 얼굴이 표현된 사진(picture) 및 동영상(moving picture)을 의미할 수 있다. 따라서, 입력 영상에 대한 해상도, 픽셀 수, 조명 등뿐만 아니라 입력 영상마다 얼굴이 표현되는 위치, 크기, 방향 및 각도가 각각 상이할 수 있다.Herein, the input image may mean a picture and a moving picture in which a face is expressed. Therefore, the position, size, direction, and angle of the face may be different for each input image as well as resolution, number of pixels, illumination, and the like of the input image.

이에 따라, 입력 영상에서 얼굴이 위치하는 좌표를 추출하여 입력 영상에서 얼굴이 표현되는 크기, 방향 및 각도 중 적어도 하나를 포함하는 얼굴 포즈(pose) 정보를 분석할 수 있다.Accordingly, it is possible to analyze face pose information including at least one of a size, a direction, and an angle at which a face is expressed in the input image by extracting coordinates in which the face is located in the input image.

특히, 입력 영상에서 얼굴은 3차원으로 표현될 수 있으므로, 2차원의 평면 상에 검출된 얼굴이 표시될 수 있도록 얼굴 포즈 정보에 기반하여 3차원 형태의 얼굴을 2차원으로 변환할 수 있다.In particular, since the face can be expressed in three dimensions in the input image, the face of the three-dimensional shape can be converted into two-dimensional based on the face pose information so that the detected face can be displayed on the two-dimensional plane.

후보자 추출부(120)는 미리 생성된 얼굴 모델(150)로부터 얼굴에 상응하는 얼굴 외형을 추출하고, 얼굴 외형을 이용하여 얼굴에 대한 적어도 하나의 특징점 후보자를 추출할 수 있다.The candidate extracting unit 120 extracts a facial appearance corresponding to a face from the facial model 150 generated in advance and extracts at least one feature point candidates for the face using the facial appearance.

후보자 추출부(120)는 특징점 매핑 모듈(121), 검색 영역 설정 모듈(123) 및 확률 산출 모듈(125)을 포함할 수 있다.The candidate extracting unit 120 may include a minutiae mapping module 121, a search area setting module 123, and a probability calculating module 125.

특징점 매핑 모듈(121)은 미리 생성된 얼굴 모델(150)로부터 추출된 얼굴 외형에 포함되는 특징점을 얼굴 상에 매핑할 수 있다. 즉, 얼굴의 얼굴 포즈 정보에 상응하는 얼굴 외형을 미리 생성된 얼굴 모델(150)에서 추출하고, 얼굴 외형에 포함된 특징점을 얼굴 상에 매핑할 수 있다.The feature point mapping module 121 can map feature points included in the face outline extracted from the face model 150 generated in advance on the face. That is, the facial contour corresponding to the facial pose information can be extracted from the generated facial model 150, and the minutiae included in the facial contour can be mapped on the face.

여기에서, 미리 생성된 얼굴 모델(150)은 사전에 촬영된 적어도 하나의 영상으로부터 얼굴 포즈가 상이한 적어도 하나의 얼굴 외형을 검출하고, 적어도 하나의 얼굴 외형 각각에 대한 적어도 하나의 특징점을 추출하여, 적어도 하나의 얼굴 외형 각각에 적어도 하나의 특징점이 포함되도록 기계 학습함으로써 생성될 수 있다.Here, the pre-generated face model 150 detects at least one facial contour having a different facial pose from at least one previously photographed image, extracts at least one feature point for each of the at least one facial contour, Learning can be generated by including at least one feature point in each of at least one facial appearance.

검색 영역 설정 모듈(123)은 얼굴 상에 매핑된 특징점을 얼굴의 부위 별로 구분하여 검색 영역으로 설정할 수 있다. 여기에서, 검색 영역은 눈, 눈썹, 코, 입, 턱선 등 얼굴을 구성하는 특정 부위에 대하여 설정할 수 있다.The search area setting module 123 can divide the minutiae mapped on the face by the parts of the face and set them as a search area. Here, the search region can be set for a specific region constituting the face such as eyes, eyebrows, nose, mouth, and chin line.

확률 산출 모듈(125)은 검색 영역에 위치하는 특징점이 얼굴에 대한 얼굴 특징점이 될 확률 값을 산출할 수 있다. 이 때, 확률 값은 서포트 벡터 머신(SVM, Support Vector Machine), k-최근접 이웃(K-nearest neighbor), 신경망(neural network), 회귀 분석(regression), 아다부스트(adaboost) 중 적어도 하나를 포함하는 기계 학습 알고리즘에 의해 구축된 특징점 추출기(feature detector)를 이용할 수 있으나 이에 한정되는 것은 아니다.The probability calculation module 125 may calculate a probability value that a feature point located in the search area is a face feature point for a face. At this time, the probability value may be at least one of a support vector machine (SVM), a K-nearest neighbor, a neural network, a regression, and an adaboost But not limited to, a feature detector constructed by a machine learning algorithm.

이를 통해 후보자 추출부(120)는 산출된 확률 값에 따라 검색 영역에 포함된 특징점을 얼굴에 대한 적어도 하나의 특징점 후보자로써 추출할 수 있다.Accordingly, the candidate extracting unit 120 can extract the feature points included in the search region as at least one feature point candidates for the face according to the calculated probability value.

파라미터 설정부(130)는 적어도 하나의 특징점 후보자가 얼굴 상에 매핑되는 위치에 기반하여 초기 파라미터(parameter)를 설정할 수 있다.The parameter setting unit 130 may set an initial parameter based on a position where at least one feature point candidate is mapped on the face.

즉, 추출된 적어도 하나의 특징점 후보자를 입력 영상으로부터 검출된 얼굴의 부위에 보다 가깝게 위치하도록 이동시켜 얼굴에 대한 특징점을 추출하기 위한 초기 파라미터를 설정할 수 있다.That is, the initial parameter for extracting the feature points for the face can be set by moving the extracted at least one feature point candidate closer to the detected face region from the input image.

이를 위해, 추출된 적어도 하나의 특징점 후보자를 얼굴의 특징과 매핑되도록 이동시켜 가설(hypothesis)을 설정하고, 가설을 렌삭(ransac) 알고리즘을 이용하여 평가할 수 있다.To this end, a hypothesis can be set by moving the extracted at least one minutiae candidate to be mapped to a facial feature, and the hypothesis can be evaluated using a ransac algorithm.

예를 들어, 적어도 하나의 특징점 후보자가 얼굴 상에 매핑되면, 눈썹, 눈, 코, 입, 턱선과 같은 얼굴의 부위 별로 임의의 서로 다른 두 개의 특징점 후보자를 선택하여 얼굴의 특징과 매핑되도록 이동시킬 수 있다. For example, when at least one feature point candidate is mapped on a face, two arbitrary different feature point candidates are selected for each facial region such as eyebrows, eyes, nose, mouth, and jaw line, .

이를 가설이라 정의하고 렌삭 알고리즘을 이용하여 평가함으로써 두 특징점 후보자 중에서 얼굴의 특징에 보다 가까운 위치에 매핑되는 특징점 후보자를 추출할 수 있다.By defining it as a hypothesis and evaluating it using the Leanz algorithm, it is possible to extract a minutiae candidate mapped to a location closer to the face feature among the two minutiae candidates.

이와 같은 과정을 반복하면, 얼굴에 가장 가까운 곳에 위치하는 특징점 후보자들이 초기 파라미터로 설정될 수 있다.By repeating this process, feature point candidates located closest to the face can be set as initial parameters.

특징점 추출부(140)는 초기 파라미터를 최적화하여 얼굴에 대한 얼굴 특징점을 추출할 수 있다. 즉, 초기 파라미터에 포함된 적어도 하나의 특징점 후보자 간의 거리 및 강도를 얼굴에 맞게 조정함으로써 얼굴에 대한 얼굴 특징점을 추출할 수 있다.
The feature point extracting unit 140 can extract facial feature points for the face by optimizing initial parameters. That is, facial feature points for a face can be extracted by adjusting the distance and intensity between at least one feature point candidates included in the initial parameter to the face.

상술한 바와 같은 본 발명의 실시예에 따른 얼굴 특징점 추출 방법 및 장치에 따르면, 종래의 차별적 접근 방식과 생성적 접근 방식을 결합함으로써 얼굴 특징점 추출에 대한 성능을 향상시킬 수 있다.According to the method and apparatus for extracting facial feature points according to the embodiment of the present invention as described above, the performance of facial feature point extraction can be improved by combining the conventional discriminant approach and the generative approach.

또한, 입력 영상에 포함된 얼굴의 포즈, 표정, 가려짐 또는 조명에 관계없이 얼굴의 특징점을 정확하게 추출함으로써 다양한 얼굴 인식 기술에 적용할 수 있다.
In addition, it can be applied to various face recognition technologies by accurately extracting feature points of a face irrespective of pose, facial expression, masking, or illumination of a face included in the input image.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당 기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.
It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention as defined by the following claims It can be understood that

100: 얼굴 특징점 추출 장치 110: 얼굴 검출부
120: 후보자 추출부 121: 특징점 매핑 모듈
123: 검색 영역 설정 모듈 125: 확률 산출 모듈
130: 파라미터 설정부 140: 특징점 추출부
150: 얼굴 모델
100: facial feature point extracting apparatus 110: face detecting unit
120: candidate extracting unit 121: minutiae mapping module
123: Search area setting module 125: Probability calculation module
130: Parameter setting unit 140:
150: Face model

Claims (18)

디지털 신호 처리가 가능한 정보 처리 장치에서 수행되는 얼굴 특징점 추출 방법에 있어서,
입력 영상으로부터 얼굴을 검출하는 단계;
미리 생성된 얼굴 모델로부터 상기 얼굴에 상응하는 얼굴 외형(appearance)을 추출하고, 상기 얼굴 외형을 이용하여 상기 얼굴에 대한 적어도 하나의 특징점 후보자를 추출하는 단계;
상기 적어도 하나의 특징점 후보자가 상기 얼굴 상에 매핑되는 위치에 기반하여 초기 파라미터(parameter)를 설정하는 단계; 및
상기 초기 파라미터를 최적화함으로써 상기 얼굴에 대한 얼굴 특징점을 추출하는 단계를 포함하되,
상기 적어도 하나의 특징점 후보자를 추출하는 단계는,
상기 얼굴 외형에 포함된 특징점을 상기 입력 영상으로부터 검출된 얼굴에 매핑하고,
상기 얼굴 상에 매핑된 특징점을 상기 얼굴의 부위 별로 구분하여 검색 영역으로 설정한 후, 특징점 추출기(feature detector)를 이용하여 상기 검색 영역에 위치하는 특징점이 상기 얼굴에 대한 얼굴 특징점이 될 확률 값을 산출하며,
상기 산출된 확률 값에 따라 상기 검색 영역에 포함된 특징점을 상기 얼굴에 대한 적어도 하나의 특징점 후보자로써 추출하는 것을 특징으로 하는 얼굴 특징점 추출 방법.
A facial feature point extraction method performed in an information processing apparatus capable of digital signal processing,
Detecting a face from an input image;
Extracting a facial appearance corresponding to the face from a pre-generated face model, and extracting at least one feature point candidate for the face using the facial appearance;
Setting an initial parameter based on a location where the at least one minutiae candidate is mapped onto the face; And
And extracting facial feature points for the face by optimizing the initial parameters,
Wherein the extracting of the at least one minutiae candidate comprises:
A feature point included in the face contour is mapped to a face detected from the input image,
The feature points mapped on the face are classified into the search regions by the face regions, and a probability value that a feature point located in the search region becomes a face feature point for the face using a feature detector However,
And extracting feature points included in the search region as at least one feature point candidates for the face according to the calculated probability value.
청구항 1에 있어서,
상기 입력 영상으로부터 얼굴을 검출하는 단계는,
상기 입력 영상에서 상기 얼굴이 위치하는 좌표를 추출하고,
상기 좌표에 기반하여 상기 얼굴의 크기, 방향 및 각도 중 적어도 하나를 포함하는 얼굴 포즈(pose) 정보를 분석함으로써 상기 얼굴을 검출하는 것을 특징으로 하는 얼굴 특징점 추출 방법.
The method according to claim 1,
Wherein the step of detecting a face from the input image comprises:
Extracting a coordinate at which the face is located in the input image,
Wherein the face is detected by analyzing face pose information including at least one of a size, a direction and an angle of the face based on the coordinates.
청구항 2에 있어서,
상기 미리 생성된 얼굴 모델은,
사전에 촬영된 적어도 하나의 영상으로부터 얼굴 포즈가 상이한 적어도 하나의 얼굴 외형을 검출하고,
상기 적어도 하나의 얼굴 외형 각각에 대한 적어도 하나의 특징점을 추출하여,
상기 적어도 하나의 얼굴 외형 각각에 상기 적어도 하나의 특징점이 포함되도록 기계 학습함으로써 생성되는 것을 특징으로 하는 얼굴 특징점 추출 방법.
The method of claim 2,
The pre-generated face model includes:
Detecting at least one face contour having a different face pose from at least one image photographed in advance,
Extracting at least one feature point for each of the at least one facial appearance,
Wherein the at least one facial appearance is generated by machine learning so that the at least one feature point is included in each of the at least one facial appearance.
삭제delete 삭제delete 청구항 1에 있어서,
상기 특징점 추출기는,
서포트 벡터 머신(SVM, Support Vector Machine), k-최근접 이웃(K-nearest neighbor), 신경망(neural network), 회귀 분석(regression), 아다부스트(adaboost) 중 적어도 하나를 포함하는 기계 학습 알고리즘에 의해 구축되는 것을 특징으로 하는 얼굴 특징점 추출 방법.
The method according to claim 1,
Wherein the feature point extractor comprises:
A machine learning algorithm including at least one of Support Vector Machine (SVM), K-nearest neighbor, neural network, regression, and adaboost Wherein the facial feature point extraction step comprises:
삭제delete 청구항 1에 있어서,
상기 초기 파라미터를 설정하는 단계는,
상기 적어도 하나의 특징점 후보자를 상기 얼굴의 특징과 매핑되도록 이동시키는 적어도 하나의 가설(hypothesis)을 설정하는 단계; 및
상기 적어도 하나의 가설을 렌삭(ransac) 알고리즘을 기반으로 평가함으로써 상기 초기 파라미터를 설정하는 단계를 포함하는 것을 특징으로 하는 얼굴 특징점 추출 방법.
The method according to claim 1,
Wherein the step of setting the initial parameters comprises:
Establishing at least one hypothesis that moves the at least one minutiae candidate to be mapped to a feature of the face; And
And setting the initial parameter by evaluating the at least one hypothesis based on a ransac algorithm.
청구항 8에 있어서,
상기 얼굴에 대한 얼굴 특징점을 추출하는 단계는,
상기 초기 파라미터에 포함된 상기 적어도 하나의 특징점 후보자 간의 거리 및 강도(intensity)를 상기 얼굴에 맞게 조정함으로써 상기 얼굴에 대한 얼굴 특징점을 추출하는 것을 특징으로 하는 얼굴 특징점 추출 방법.
The method of claim 8,
The step of extracting facial feature points for the face may include:
And extracting facial feature points for the face by adjusting the distance and intensity between the at least one feature point candidates included in the initial parameter to the face.
디지털 신호 처리가 가능한 정보 처리 장치에 의해 구현되는 얼굴 특징점 추출 장치에 있어서,
입력 영상으로부터 얼굴을 검출하는 얼굴 검출부;
미리 생성된 얼굴 모델로부터 상기 얼굴에 상응하는 얼굴 외형(appearance)을 추출하고, 상기 얼굴 외형을 이용하여 상기 얼굴에 대한 적어도 하나의 특징점 후보자를 추출하는 후보자 추출부;
상기 적어도 하나의 특징점 후보자가 상기 얼굴 상에 매핑되는 위치에 기반하여 초기 파라미터(parameter)를 설정하는 파라미터 설정부; 및
상기 초기 파라미터를 최적화함으로써 상기 얼굴에 대한 얼굴 특징점을 추출하는 특징점 추출부를 포함하되,
상기 후보자 추출부는,
상기 얼굴 외형에 포함된 특징점을 상기 입력 영상으로부터 검출된 얼굴에 매핑하고,
상기 얼굴 상에 매핑된 특징점을 상기 얼굴의 부위 별로 구분하여 검색 영역으로 설정한 후, 특징점 추출기(feature detector)를 이용하여 상기 검색 영역에 위치하는 특징점이 상기 얼굴에 대한 얼굴 특징점이 될 확률 값을 산출하며,
상기 산출된 확률 값에 따라 상기 검색 영역에 포함된 특징점을 상기 얼굴에 대한 적어도 하나의 특징점 후보자로써 추출하는 것을 특징으로 하는 얼굴 특징점 추출 장치.
A facial feature point extracting apparatus, which is implemented by an information processing apparatus capable of digital signal processing,
A face detector for detecting a face from an input image;
A candidate extractor for extracting a facial appearance corresponding to the face from a pre-generated face model and extracting at least one feature point candidate for the face using the face contour;
A parameter setting unit for setting an initial parameter based on a position where the at least one minutia point candidate is mapped on the face; And
And a feature point extracting unit for extracting facial feature points for the face by optimizing the initial parameters,
Wherein the candidate extracting unit comprises:
A feature point included in the face contour is mapped to a face detected from the input image,
The feature points mapped on the face are classified into the search regions by the face regions, and a probability value that a feature point located in the search region becomes a face feature point for the face using a feature detector However,
And extracting feature points included in the search region as at least one feature point candidates for the face according to the calculated probability value.
청구항 10에 있어서,
상기 얼굴 검출부는,
상기 입력 영상에서 상기 얼굴이 위치하는 좌표를 추출하고,
상기 좌표에 기반하여 상기 얼굴의 크기, 방향 및 각도 중 적어도 하나를 포함하는 얼굴 포즈(pose) 정보를 분석함으로써 상기 얼굴을 검출하는 것을 특징으로 하는 얼굴 특징점 추출 장치.
The method of claim 10,
Wherein the face detection unit comprises:
Extracting a coordinate at which the face is located in the input image,
Wherein the face detecting unit detects the face by analyzing face pose information including at least one of a size, a direction and an angle of the face based on the coordinates.
청구항 11에 있어서,
상기 미리 생성된 얼굴 모델은,
사전에 촬영된 적어도 하나의 영상으로부터 얼굴 포즈가 상이한 적어도 하나의 얼굴 외형을 검출하고,
상기 적어도 하나의 얼굴 외형 각각에 대한 적어도 하나의 특징점을 추출하여,
상기 적어도 하나의 얼굴 외형 각각에 상기 적어도 하나의 특징점이 포함되도록 기계 학습함으로써 생성되는 것을 특징으로 하는 얼굴 특징점 추출 장치.
The method of claim 11,
The pre-generated face model includes:
Detecting at least one face contour having a different face pose from at least one image photographed in advance,
Extracting at least one feature point for each of the at least one facial appearance,
Wherein the at least one facial appearance is generated by machine learning so that the at least one feature point is included in each of the at least one facial appearance.
삭제delete 삭제delete 청구항 10에 있어서,
상기 특징점 추출기는,
서포트 벡터 머신(SVM, Support Vector Machine), k-최근접 이웃(K-nearest neighbor), 신경망(neural network), 회귀 분석(regression), 아다부스트(adaboost) 중 적어도 하나를 포함하는 기계 학습 알고리즘에 의해 구축되는 것을 특징으로 하는 얼굴 특징점 추출 장치.
The method of claim 10,
Wherein the feature point extractor comprises:
A machine learning algorithm including at least one of Support Vector Machine (SVM), K-nearest neighbor, neural network, regression, and adaboost Wherein the facial feature point extracting unit is constructed by the facial feature point extracting unit.
삭제delete 청구항 10에 있어서,
상기 파라미터 설정부는,
상기 적어도 하나의 특징점 후보자를 상기 얼굴의 특징과 매핑되도록 이동시키는 적어도 하나의 가설(hypothesis)을 설정하고,
상기 적어도 하나의 가설을 렌삭(ransac) 알고리즘을 기반으로 평가함으로써 상기 초기 파라미터를 설정하는 것을 특징으로 하는 얼굴 특징점 추출 장치.
The method of claim 10,
Wherein the parameter setting unit comprises:
Setting at least one hypothesis that moves the at least one feature point candidate to be mapped to the feature of the face,
Wherein the initial parameter is set by evaluating the at least one hypothesis based on a ransac algorithm.
청구항 17에 있어서,
상기 특징점 추출부는,
상기 초기 파라미터에 포함된 상기 적어도 하나의 특징점 후보자 간의 거리 및 강도(intensity)를 상기 얼굴에 맞게 조정함으로써 상기 얼굴에 대한 얼굴 특징점을 추출하는 것을 특징으로 하는 얼굴 특징점 추출 장치.
18. The method of claim 17,
The feature point extracting unit may extract,
Wherein the facial feature point extraction unit extracts facial feature points for the face by adjusting the distance and intensity between the at least one feature point candidates included in the initial parameter to the face.
KR1020140054087A 2014-05-07 2014-05-07 Method for extracting face feature and apparatus for perforimg the method KR101612605B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020140054087A KR101612605B1 (en) 2014-05-07 2014-05-07 Method for extracting face feature and apparatus for perforimg the method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140054087A KR101612605B1 (en) 2014-05-07 2014-05-07 Method for extracting face feature and apparatus for perforimg the method

Publications (2)

Publication Number Publication Date
KR20150127381A KR20150127381A (en) 2015-11-17
KR101612605B1 true KR101612605B1 (en) 2016-04-14

Family

ID=54786016

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140054087A KR101612605B1 (en) 2014-05-07 2014-05-07 Method for extracting face feature and apparatus for perforimg the method

Country Status (1)

Country Link
KR (1) KR101612605B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190098858A (en) * 2018-02-01 2019-08-23 고려대학교 산학협력단 Method and apparatus for pose-invariant face recognition based on deep learning
KR20200032258A (en) * 2016-07-17 2020-03-25 쥐에스아이 테크놀로지 인코포레이티드 Finding k extreme values in constant processing time
US12027238B2 (en) 2021-09-30 2024-07-02 Gsi Technology Inc. Functional protein classification for pandemic research

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102610035B1 (en) * 2016-06-13 2023-12-06 한국전자통신연구원 System and method for recognizing pose invariant face
US10528799B2 (en) 2016-12-23 2020-01-07 Samsung Electronics Co., Ltd. Electronic apparatus and operation method thereof
CN107679446B (en) * 2017-08-17 2019-03-15 平安科技(深圳)有限公司 Human face posture detection method, device and storage medium
CN108229308A (en) 2017-11-23 2018-06-29 北京市商汤科技开发有限公司 Recongnition of objects method, apparatus, storage medium and electronic equipment
KR102063745B1 (en) * 2018-05-04 2020-02-11 한국과학기술연구원 Apparatus and method for user identifying based on face profiling
KR102244013B1 (en) * 2018-09-06 2021-04-22 포항공과대학교 산학협력단 Method and apparatus for face recognition
KR20200106111A (en) 2019-02-26 2020-09-11 연세대학교 산학협력단 Face landmark detection apparatus and method using gaussian landmark map with regression scheme
CN109961055A (en) * 2019-03-29 2019-07-02 广州市百果园信息技术有限公司 Face critical point detection method, apparatus, equipment and storage medium
CN110287774A (en) * 2019-05-14 2019-09-27 广东康云科技有限公司 Object method for detecting, system and storage medium based on WIFI

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200032258A (en) * 2016-07-17 2020-03-25 쥐에스아이 테크놀로지 인코포레이티드 Finding k extreme values in constant processing time
US10929751B2 (en) 2016-07-17 2021-02-23 Gsi Technology Inc. Finding K extreme values in constant processing time
KR102305568B1 (en) * 2016-07-17 2021-09-27 쥐에스아이 테크놀로지 인코포레이티드 Finding k extreme values in constant processing time
KR20190098858A (en) * 2018-02-01 2019-08-23 고려대학교 산학협력단 Method and apparatus for pose-invariant face recognition based on deep learning
KR102016082B1 (en) * 2018-02-01 2019-08-29 고려대학교 산학협력단 Method and apparatus for pose-invariant face recognition based on deep learning
US12027238B2 (en) 2021-09-30 2024-07-02 Gsi Technology Inc. Functional protein classification for pandemic research

Also Published As

Publication number Publication date
KR20150127381A (en) 2015-11-17

Similar Documents

Publication Publication Date Title
KR101612605B1 (en) Method for extracting face feature and apparatus for perforimg the method
Sagayam et al. Hand posture and gesture recognition techniques for virtual reality applications: a survey
EP3284011B1 (en) Two-dimensional infrared depth sensing
Hasan et al. RETRACTED ARTICLE: Static hand gesture recognition using neural networks
US10572072B2 (en) Depth-based touch detection
US8971572B1 (en) Hand pointing estimation for human computer interaction
JP4653606B2 (en) Image recognition apparatus, method and program
US20190392587A1 (en) System for predicting articulated object feature location
US20160162673A1 (en) Technologies for learning body part geometry for use in biometric authentication
Feng et al. Features extraction from hand images based on new detection operators
Bhuyan et al. Hand pose recognition using geometric features
EP2704056A2 (en) Image processing apparatus, image processing method
Shukla et al. A method for hand gesture recognition
CN111062328B (en) Image processing method and device and intelligent robot
JP6822482B2 (en) Line-of-sight estimation device, line-of-sight estimation method, and program recording medium
JP6071002B2 (en) Reliability acquisition device, reliability acquisition method, and reliability acquisition program
JP7151875B2 (en) Image processing device, image processing method, and program
KR101558547B1 (en) Age Cognition Method that is powerful to change of Face Pose and System thereof
US20150199592A1 (en) Contour-based classification of objects
CN102713975B (en) Image clearing system, image method for sorting and computer program
CN111062263A (en) Method, device, computer device and storage medium for hand pose estimation
KR20100011280A (en) Method and apparatus of recognizing detailed facial expression using facial expression information amplification
Wang et al. A new hand gesture recognition algorithm based on joint color-depth superpixel earth mover's distance
Enikeev et al. Recognition of sign language using leap motion controller data
CN106406507B (en) Image processing method and electronic device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
LAPS Lapse due to unpaid annual fee