KR20170089745A - Method and apparatus for positioning key points - Google Patents

Method and apparatus for positioning key points Download PDF

Info

Publication number
KR20170089745A
KR20170089745A KR1020160128386A KR20160128386A KR20170089745A KR 20170089745 A KR20170089745 A KR 20170089745A KR 1020160128386 A KR1020160128386 A KR 1020160128386A KR 20160128386 A KR20160128386 A KR 20160128386A KR 20170089745 A KR20170089745 A KR 20170089745A
Authority
KR
South Korea
Prior art keywords
nonlinear
feature
update
training
sample
Prior art date
Application number
KR1020160128386A
Other languages
Korean (ko)
Other versions
KR102667737B1 (en
Inventor
주 밍카이
허진구
홍 타오
리 웨이밍
왕 자이란
리우 지후아
남동경
왕 하이타오
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US15/416,271 priority Critical patent/US10096132B2/en
Publication of KR20170089745A publication Critical patent/KR20170089745A/en
Application granted granted Critical
Publication of KR102667737B1 publication Critical patent/KR102667737B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/169Holistic features and representations, i.e. based on the facial image taken as a whole
    • G06K9/00275
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06K9/00248
    • G06K9/00281
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/35Determination of transform parameters for the alignment of images, i.e. image registration using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

Provided is a feature point positioning apparatus which comprises: a feature extracting unit for extracting a nonlinear feature of an image; an updating unit for repeatedly updating a shape coefficient based on the nonlinear feature; and a position detecting unit for detecting a position of a feature point of the image based on a statistical shape model obtained by training with the shape coefficient after updating.

Description

특징점 포지셔닝 방법 및 장치{METHOD AND APPARATUS FOR POSITIONING KEY POINTS}METHOD AND APPARATUS FOR POSITIONING KEY POINTS [0002]

컴퓨터 시각 기술에 연관된다. 더욱 구체적으로는 특징점 포지셔닝 방법과 장치에 관한 것이다.It is related to computer vision technology. And more particularly to a method and apparatus for minutia positioning.

얼굴의 특징점 포지셔닝은 컴퓨터 시각 영역에 있어서의 전형적인 문제 중이고, 현재까지 이미 20여 년의 연구역사를 갖고 있다. 얼굴의 자세, 표정, 조명 등 각종 불확정 요소의 영향으로 얼굴 특징점 포지셔닝은 어려운 문제이다. 비교적 전형적인 사람얼굴 특징점 포지셔닝 알고리즘에는 여러 알고리즘들이 존재하며, 최근에 특징점 포지셔닝 기술은 큰 발전을 이루고 있다.Positioning of facial features is a typical problem in the visual field of computers, and has already had a research history of more than 20 years. Positioning of facial feature points is a difficult problem due to various indeterminate factors such as face posture, facial expression, and illumination. There are several algorithms in a relatively typical human facial feature point positioning algorithm, and recent feature point positioning techniques are making great strides.

다만, 이러한 기존의 알고리즘은 모바일 플랫폼 상에서 구현되기에는 적합하지 않은 측면이 존재할 수 있다. 모바일 플랫폼 상에서 자유롭게 이용될 수 있도록 하기 위해 모델 파일의 크기를 작게 하고, 동시에 정밀도와 속도를 향상시킬 수 있는 알고리즘에 대한 연구가 필요하다.However, such an existing algorithm may not be suitable to be implemented on a mobile platform. In order to be freely used on the mobile platform, it is necessary to study algorithms that can reduce the size of the model file and increase the precision and speed at the same time.

일실시예에 따른 특징점 포지셔닝 장치는, 검출된 영상의 비선형 특징을 추출하는 특징 추출부, 트레이닝 하여 획득한 회귀인자 행렬과 상기 비선형 특징에 기초하여 형태 계수에 대한 반복 업데이트를 진행하는 업데이트부, 업데이트 후의 형태 계수와 트레이닝 하여 획득한 통계 형태모델에 기초하여 상기 검출된 영상의 특징점 위치를 검출하는 위치 검출부를 포함할 수 있다.The feature point positioning apparatus according to one embodiment includes a feature extraction unit for extracting a nonlinear feature of a detected image, an update unit for performing a repetitive update on the feature coefficient based on the training-acquired regression factor matrix and the nonlinear feature, And a position detector for detecting a position of a feature point of the detected image based on a statistical shape model obtained by tracing a shape coefficient.

일실시예에 따른 업데이트부는, 업데이트를 통해 획득한 중간 형태와 평균 형태를 정렬시켜 유사성 변환행렬을 획득하고, 상기 유사성 변환행렬에 기초하여 상기 중간 형태와 상기 검출된 영상에 대한 유사성 변환을 진행할 수 있다.According to an embodiment, the update unit may obtain the similarity transformation matrix by aligning the intermediate shape and the average shape acquired through the update, and proceed the similarity transformation on the intermediate shape and the detected image based on the similarity transformation matrix have.

일실시예에 따른 업데이트부는, 다해상도 피라미드 프레임을 이용하여 업데이트를 통해 획득한 중간 형태와 평균 형태를 정렬하고, 제1해상도의 영상에서 특징점 포지셔닝을 임계치까지 수행하고, 상기 특징점을 포지셔닝한 결과를 제1 해상도보다 큰 제2해상도의 영상에 매핑하여 특징점을 포지셔닝하여 유사성 변환 행렬을 획득할 수 있다.According to an exemplary embodiment of the present invention, the update unit may perform a process of aligning an average shape and an intermediate shape obtained through an update using a multiresolution pyramid frame, performing a minutia positioning from a first resolution image to a threshold, A similarity transformation matrix can be obtained by mapping feature points to an image having a second resolution larger than the first resolution.

일실시예에 따른 업데이트부는, 반복 업데이트를 통해 획득한 유사성 변환 행렬에 기초하여 획득한 특징점을 상기 검출된 영상의 좌표계에 역변환할 수 있다.The update unit may invert the feature points acquired based on the similarity transformation matrix obtained through the iterative update to the coordinate system of the detected image.

일실시예에 따른 상기 업데이트부는, k번째의 형태 계수에 대한 반복 업데이트에 사용된 유사성 변환행렬

Figure pat00001
는 타겟 함수
Figure pat00002
를 통하여 획득하고,
Figure pat00003
는 k번째 반복 후의 제i번째 샘플 형태일 수 있다.The update unit may update the similarity transformation matrix < RTI ID = 0.0 >
Figure pat00001
Target function
Figure pat00002
Lt; / RTI >
Figure pat00003
May be in the form of the ith sample after the kth iteration.

일실시예에 따른 업데이트부는, 트레이닝 샘플의 최적 형태 계수 업데이트 량과 상기 비선형 특징에 기초하여 회귀인자 행렬을 확정할 수 있다.The updating unit according to an embodiment may determine a regression factor matrix based on the optimal shape coefficient update amount of the training sample and the nonlinear characteristic.

일실시예에 따른 상기 업데이트부는, 상기 트레이닝 샘플에서 평균적인 텍스처 특징을 학습하고, 상기 트레이닝 샘플에서 추출한 비선형 텍스처 특징과 상기 평균 텍스처 특징의 차이 값을 트레이닝 샘플의 비선형 특징으로 결정할 수 있다.The updating unit may learn an average texture feature in the training sample and determine a difference value between the nonlinear texture feature extracted from the training sample and the average texture feature as nonlinear characteristics of the training sample.

일실시예에 따른 상기 비선형 텍스처 특징은 한 종류의 비선형 텍스처 특징 또는 적어도 두 종류의 비선형 텍스처 특징의 조합을 포함하고, 서로 다른 반복 단계에서 같거나 다른 비선형 텍스처 특징 또는 적어도 두 종류의 비선형 텍스처 특징의 조합을 사용할 수 있다.The nonlinear texture feature according to one embodiment comprises a combination of one kind of nonlinear texture feature or at least two types of nonlinear texture features and is capable of generating a similar or different nonlinear texture feature or at least two non- Combinations can be used.

일실시예에 따른 상기 업데이트부는, 최적 형태 계수 업데이트 량과 상기 비선형 특징에 기초하여 계산한 형태 계수 업데이트 량 사이의 오차를 최소화하여 회귀인자 행렬을 확정할 수 있다.The updating unit according to an embodiment may determine a regression factor matrix by minimizing an error between an optimal shape factor update amount and a shape factor update amount calculated based on the nonlinear feature.

일실시예에 따른 특징점 포지셔닝 장치에 있어서, k번째 형태 계수에 대한 반복 업데이트에 사용된 회귀인자 행렬

Figure pat00004
는 타겟 함수
Figure pat00005
를 통하여 얻고, 여기서, N은 트레이닝 샘플의 총수를 의미하고,
Figure pat00006
는 k번째 반복 때, i번째 샘플의 최적 형태 계수 업데이트 량이고,
Figure pat00007
는 k번째 반복 때, i번째 샘플의 비선형 특징이며,
Figure pat00008
는 k번째 반복 때, i번째 샘플의 비선형 특징에 기초하여 계산하여 획득한 형태 계수 업데이트 량일 수 있다.In a feature point positioning apparatus according to an embodiment, a regression factor matrix
Figure pat00004
Target function
Figure pat00005
, Where N is the total number of training samples,
Figure pat00006
Is the optimal shape coefficient update amount of the i < th > sample at the k <
Figure pat00007
Is a non-linear characteristic of the i-th sample at the k-th iteration,
Figure pat00008
May be a form factor update amount calculated and obtained based on the nonlinear characteristic of the i-th sample at the k-th repetition.

일실시예에 따른 특징점 포지셔닝 방법은, 검출된 영상의 비선형 특징을 추출하는 단계, 트레이닝을 통해 획득한 회귀 인자 행렬 및 상기 비선형 특징에 기초하여 형태 계수를 반복적으로 업데이트하는 단계, 상기 업데이트된 형태 계수 및 트레이닝 하여 획득한 통계 형태 모델에 기초하여 상기 검출된 영상의 특징점을 검출하는 단계를 포함할 수 있다.A feature point positioning method according to an embodiment includes extracting a nonlinear feature of a detected image, repeatedly updating a feature coefficient based on a regression factor matrix obtained through training and the nonlinear feature, And detecting the feature point of the detected image based on the statistical shape model obtained by training.

일실시예에 따른 특징점 포지셔닝 방법에 있어서, 상기 형태 계수를 반복적으로 업데이트하는 단계는, 업데이트를 통해 획득한 중간 형태와 평균 형태를 정렬시켜 유사성 변환행렬을 획득하는 단계, 및 상기 유사성 변환행렬에 기초하여 상기 중간 형태와 상기 검출된 영상에 대한 유사성 변환을 수행하는 단계를 더 포함할 수 있다.In a minutia positioning method according to an embodiment, the step of repetitively updating the shape coefficient comprises: obtaining a similarity transformation matrix by aligning an average shape and an intermediate shape obtained through an update; and calculating a similarity transformation matrix based on the similarity transformation matrix And performing a similarity transformation on the intermediate image and the detected image.

일실시예에 따른 특징점 포지셔닝 방법에 있어서, 상기 유사성 변환 행렬을 획득하는 단계는, 다해상도 피라미드 프레임을 이용하여 업데이트를 통해 획득한 중간 형태와 평균 형태를 정렬하는 단계, 제1해상도의 영상에서 특징점 포지셔닝을 임계치까지 수행하고, 상기 특징점을 포지셔닝한 결과를 제1 해상도보다 큰 제2해상도의 영상에 매핑하여 특징점을 포지셔닝하는 단계를 포함할 수 있다.The method of claim 1, wherein obtaining the similarity transformation matrix comprises: aligning an average shape and an intermediate shape acquired through an update using a multiresolution pyramid frame; And positioning the feature point by mapping the result of the positioning of the feature point to the image of the second resolution larger than the first resolution.

일실시예에 따른 특징점 포지셔닝 방법에 있어서, 반복 업데이트를 통해 획득한 유사성 변환 행렬에 기초하여 획득한 특징점을 상기 검출된 영상의 좌표계에 역변환하는 단계, 를 더 포함할 수 있다.The method may further include the step of inversely transforming the feature points acquired on the basis of the similarity transformation matrix obtained through the iterative update to the coordinate system of the detected image, in the feature point positioning method according to an exemplary embodiment.

일실시예에 따른 특징점 포지셔닝 방법에 있어서, k번째의 형태 계수에 대한 반복 업데이트에 사용된 유사성 변환행렬

Figure pat00009
는 타겟 함수
Figure pat00010
를 통하여 획득되고, 는 k번째 반복 후의 제i번째 샘플 형태일 수 있다.In a minutiae positioning method according to an embodiment, the similarity transformation matrix used in the iterative updating of the k-
Figure pat00009
Target function
Figure pat00010
And may be in the form of the ith sample after the kth iteration.

일실시예에 따른 특징점 포지셔닝 방법에 있어서, 트레이닝 샘플의 비선형 특징을 확정하는 단계, 및 트레이닝 샘플의 최적 형태 계수 업데이트 량과 상기 비선형 특징에 기초하여 회귀인자 행렬을 획득하는 단계를 포함할 수 있다.In a feature point positioning method according to an embodiment, determining a nonlinear characteristic of a training sample and obtaining a regression factor matrix based on the optimal shape factor update amount of the training sample and the nonlinear characteristic may be included.

일실시예에 따른 특징점 포지셔닝 방법에 있어서, 상기 비선형 특징은 비선형 텍스처 특징을 포함하고, 트레이닝 샘플의 비선형 특징을 확정하는 단계는, 상기 트레이닝 샘플에서 평균적인 텍스처 특징을 학습하는 단계, 상기 트레이닝 샘플에서 추출한 비선형 텍스처 특징과 상기 평균적인 비선형 텍스처 특징의 차이 값을 트레이닝 샘플의 비선형 특징으로 결정하는 단계를 포함할 수 있다.The feature point positioning method according to one embodiment, wherein the nonlinear feature comprises a nonlinear texture feature, and wherein determining a nonlinear feature of the training sample comprises learning an average texture feature in the training sample, And determining the difference between the extracted nonlinear texture feature and the average nonlinear texture feature as nonlinear characteristics of the training sample.

일실시예에 따른 특징점 포지셔닝 방법에 있어서, 상기 비선형 텍스처 특징은 하나 또는 그 이상의 종류의 비선형 텍스처 특징의 조합을 포함하고, 상기 업데이트를 반복하는 경우 상기 하나 이상의 비선형 텍스처 특징의 조합을 사용할 수 있다.In a feature point positioning method according to an embodiment, the nonlinear texture feature may comprise a combination of one or more types of nonlinear texture features, and may use a combination of the one or more nonlinear texture features when repeating the update.

일실시예에 따른 특징점 포지셔닝 방법에 있어서, 트레이닝 샘플의 최적 형태 계수 업데이트 량과 상기 비선형 특징에 기초하여 회귀인자 행렬을 확정하는 단계는, 최적 형태 계수 업데이트 량과 상기 비선형 특징에 기초하여 계산한 형태 계수 업데이트 량 사이의 오차를 최소화하여 회귀인자 행렬을 확정하는 단계를 포함할 수 있다.Determining a regression factor matrix based on an optimal shape factor update amount of the training sample and the nonlinear feature comprises calculating an optimal shape factor update amount and a shape calculated based on the nonlinear feature And determining a regression factor matrix by minimizing the error between the coefficient update amount.

일실시예에 따른 특징점 포지셔닝 방법에 있어서, k번째로 형태 계수에 대한 반복 업데이트에 사용된 회귀인자 행렬

Figure pat00011
는 타겟 함수
Figure pat00012
를 통하여 획득되고, N은 트레이닝 샘플의 총수를 의미하고,
Figure pat00013
는 k번째 반복 때, i번째 샘플의 최적 형태 계수 업데이트 량이고,
Figure pat00014
는 k번째 반복 때, i번째 샘플의 비선형 특징이며,
Figure pat00015
는 k번째 반복 때, i번째 샘플의 비선형 특징에 기초하여 계산하여 획득한 형태 계수 업데이트 량일 수 있다.In a minutiae positioning method according to an embodiment, the regression factor matrix used for the k < th >
Figure pat00011
Target function
Figure pat00012
N is the total number of training samples,
Figure pat00013
Is the optimal shape coefficient update amount of the i < th > sample at the k <
Figure pat00014
Is a non-linear characteristic of the i-th sample at the k-th iteration,
Figure pat00015
May be a form factor update amount calculated and obtained based on the nonlinear characteristic of the i-th sample at the k-th repetition.

도 1은 일실시예에 따른 의 키 포인트 포지셔닝 장치의 조성도이다.
도 2a는 일실시예에 따른 특징점 포지셔닝 방법의 전체 흐름도이다.
도 2b는 일실시예에 따른 특징점 포지셔닝 방법을 설명하기 위한 도면이다.
도 3은 일실시예에 따른 통계형태 모델의 예시이다.
도 4a 및 도 4b는 일실시예에 따라 단해상도에서의 특징점의 초기 형태 및 1차 반복 후의 형태에 대한 예시이다.
도 5는 일실시예에 따른 반복 업데이트를 설명하기 위한 도면이다.
도 6은 일실시예에 따른 다해상도 통계 모델 계수 회귀(Statistical model coefficient regression, SMCR) 알고리즘이다.
도 7은 도 4 내지 도 6의 알고리즘을 병합한 다 해상도 통계 모델 계수 회귀 알고리즘의 흐름도이다.
1 is a schematic diagram of a key point positioning device according to one embodiment.
2A is an overall flow diagram of a feature point positioning method according to one embodiment.
FIG. 2B is a view for explaining a minutia point positioning method according to an embodiment.
3 is an illustration of a statistical model in accordance with one embodiment.
Figures 4A and 4B are an illustration of an initial shape of a feature point at a single resolution and a shape after a first iteration according to an embodiment.
5 is a diagram for explaining a repetitive update according to an embodiment.
FIG. 6 is a statistical model coefficient regression (SMCR) algorithm according to an embodiment.
FIG. 7 is a flowchart of a multi-resolution statistical model coefficient regression algorithm incorporating the algorithms of FIGS. 4-6.

실시예들에 대한 특정한 구조적 또는 기능적 설명들은 단지 예시를 위한 목적으로 개시된 것으로서, 다양한 형태로 변경되어 실시될 수 있다. 따라서, 실시예들은 특정한 개시형태로 한정되는 것이 아니며, 본 명세서의 범위는 기술적 사상에 포함되는 변경, 균등물, 또는 대체물을 포함한다.Specific structural or functional descriptions of embodiments are set forth for illustration purposes only and may be embodied with various changes and modifications. Accordingly, the embodiments are not intended to be limited to the particular forms disclosed, and the scope of the disclosure includes changes, equivalents, or alternatives included in the technical idea.

제1 또는 제2 등의 용어를 다양한 구성요소들을 설명하는데 사용될 수 있지만, 이런 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 해석되어야 한다. 예를 들어, 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소는 제1 구성요소로도 명명될 수 있다.The terms first or second, etc. may be used to describe various elements, but such terms should be interpreted solely for the purpose of distinguishing one element from another. For example, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다.It is to be understood that when an element is referred to as being "connected" to another element, it may be directly connected or connected to the other element, although other elements may be present in between.

단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 설명된 특징, 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것이 존재함으로 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부분품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The singular expressions include plural expressions unless the context clearly dictates otherwise. In this specification, the terms "comprises ", or" having ", and the like, are used to specify one or more of the described features, numbers, steps, operations, elements, But do not preclude the presence or addition of steps, operations, elements, parts, or combinations thereof.

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 해당 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가진다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 갖는 것으로 해석되어야 하며, 본 명세서에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다. 이하, 실시예들을 첨부된 도면을 참조하여 상세하게 설명한다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the meaning of the context in the relevant art and, unless explicitly defined herein, are to be interpreted as ideal or overly formal Do not. Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. Like reference symbols in the drawings denote like elements.

과학기술의 발전에 따라, 기존의 모바일 디바이스, 특히 핸드폰, 태블릿 PC등은 모두 전방 카메라가 장착되어 있다. 하드웨어적으로, 전방 카메라를 통하여 사람 얼굴의 특징점을 포지셔닝을 편리하게 할 수 있다. 동시에 기존의 핸드폰, 태블릿 PC는 높은 계산능력을 갖고 있고, 이는 복잡한 영상처리 알고리즘을 하드웨어적으로 가능하게 할 수 있다.As technology advances, existing mobile devices, especially mobile phones and tablet PCs, are equipped with front-facing cameras. In hardware, it is possible to conveniently position the feature points of the human face through the front camera. At the same time, existing mobile phones and tablet PCs have high computational power, which can make complex image processing algorithms hardware-enabled.

본원은 모바일 플랫폼에 대하여 모델 파일의 크기가 작고, 정밀도가 높으며 속도가 빠른 특징점 포지셔닝 알고리즘을 제안한다. 그 기본 아이디어는 먼저 오프라인으로 하나의 통계 형태 모델을 트레이닝 하고, 검출할 영상의 비선형특징을 추출하고 트레이닝 하여 획득한 회귀인자 행렬과 상기 비선형 특징에 근거하여 형태 계수에 대하여 반복적인 업데이트를 하고, 업데이트 후의 형태 계수와 트레이닝 하여 획득한 통계형태 모델에 근거하여 상기 검출할 영상의 특징점 위치를 검출한다. 본원은 미리 통계형태 모델을 서로 다른 형태의 모델으로 트레이닝 할 수 있고, 대응 형태의 특징점을 검출할 수 있으므로, 본원이 제공한 기술방안은 사람 얼굴의 특징점 검출에 한정되지 않고, 동물 얼굴, 동물 신체부위, 초음파 영상 등 의 특징점 포지셔닝 등을 포함한다. 본원에서는, 사람 얼굴의 특징점 포지셔닝만을 예로 들어 설명한다.This paper proposes a feature point positioning algorithm with small size, high accuracy, and high speed for the mobile platform. The basic idea is to first train one statistical form model offline, extract the nonlinear characteristics of the image to be detected, and perform a repetitive update on the form factor based on the regression factor matrix obtained by training and the nonlinear characteristic, And the feature point position of the image to be detected is detected based on the statistical shape model obtained by training and the shape coefficient after. The present invention can train the statistical morphological model in different types of models in advance and detect the minutiae of the corresponding morphology so that the technical solution provided by the present invention is not limited to the detection of the minutiae of the human face, Site, ultrasound image, and the like. In the present application, only the minutiae positioning of a human face will be described as an example.

사람 얼굴의 특징점을 예로 들면, 트레이닝 한 통계형태 모델은 열 개의 좌우의 형태 계수만으로 모든 정상적인 사람 얼굴의 형태를 표현할 수 있다. 복잡한 모델에 비해, 비교적 적은 계수를 통해 차원을 감소시켜 사람 얼굴의 형태에 대한 간단한 묘사가 가능하게 한다. 이로써, 사람 얼굴 특징점 포지셔닝은 최적의 형태 계수를 구하는 것으로 귀결된다. 비선형 특징을 선형 회귀로 추출하는 방식을 이용해 형태 계수에 대한 반복적 업데이트를 통하여 최적의 형태 계수를 획득하고, 오프라인으로 트레이닝 하여 획득한 통계형태 모델에 근거하여 각 특징점의 위치를 획득할 수 있다. 이 과정에서, 회귀인자 행렬의 행의 개수는 통계형태 모델의 계수 개수와 같고, 특징점의 수량과는 연관이 없다. 본원의 회귀인자 행렬의 행의 개수는 전통적인 SDM알고리즘의 9분의 1 이하이다. 이로써, 모델 파일의 크기는 크게 감소되고, 속도도 향상되며, 그러면서도 포지셔닝 정밀도가 감소되지 않도록 한다. For example, the statistical form model trained can represent all normal human face shapes with only ten left and right shape coefficients. Compared to a complex model, it allows a simple depiction of the shape of a human face by reducing dimensions through relatively small coefficients. As a result, human facial feature point positioning results in finding the optimal shape factor. It is possible to acquire the optimal shape factor through repetitive update of the shape factor using the method of extracting the nonlinear feature by linear regression, and obtain the position of each feature point based on the statistical shape model obtained by training offline. In this process, the number of rows in the regression factor matrix is equal to the number of coefficients in the statistical model and is not related to the number of minutiae. The number of rows in the regression factor matrix is less than one-ninth of the traditional SDM algorithm. As a result, the size of the model file is greatly reduced, the speed is improved, and the positioning accuracy is not reduced.

도 1은 일실시예에 따른 특징점 포지셔닝 장치의 조성도이다.BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a diagram of a feature point positioning apparatus according to one embodiment. FIG.

도 1과 같이, 상기 시스템은 특징 추출부(120), 업데이트부(130) 및 위치 검출부(140)를 포함하고, 트레이닝부(150), 저장부(160)와 영상수집부(110)를 추가적으로 더 포함할 수 있으며 이는 도면에서 점선으로 표시한다. 그 중에서, 상기 시스템은 검출할 영상의 비선형 특징을 추출하는 특징 추출부(120), 트레이닝 하여 획득한 회귀인자 행렬과 상기 비선형 특징에 기초하여 형태 계수에 대하여 반복 업데이트를 하는 업데이트부(130), 업데이트 후의 형태 계수와 트레이닝 하여 획득한 통계 형태 모델에 근거하여 상기 검출할 영상의 특징점 위치를 검출하는 위치 검출부(140)를 포함할 수 있다. 트레이닝부(150)는 표기한 특징점 위치의 영상을 트레이닝 샘플로 하여 통계형태 모듈을 학습하고, 트레이닝 샘플의 비션형 특징의 확정은 트레이닝 샘플의 최적화 형태 계수의 업데이트량과 상기 비선형 특징에 기초하여 회귀인자 행렬을 확정하며, 저장부(160)는 트레이닝 하여 획득한 통계형태 모듈 및 기타 필요 정보를 저장하고, 영상수집부(110)는 비디오 및/또는 영상의 포함을 수집할 수 있다.1, the system includes a feature extraction unit 120, an update unit 130, and a position detection unit 140, and further includes a training unit 150, a storage unit 160, and an image collection unit 110 Which is indicated by a dotted line in the drawing. The system includes a feature extraction unit 120 for extracting a nonlinear feature of an image to be detected, an update unit 130 for performing a repetitive update on a feature coefficient based on the trained and obtained nonlinear feature, And a position detector 140 for detecting the position of the feature point of the image to be detected based on the updated shape factor and the statistical model obtained by training. The training unit 150 learns the statistical form module by using the image of the marked minutia position as a training sample, and the determination of the non-linear characteristic of the training sample is performed based on the update amount of the optimization form coefficient of the training sample and the non- The storage unit 160 may store the statistical form module and other necessary information obtained by training, and the image collecting unit 110 may collect the video and / or image inclusions.

도 1의 장치와 대응하여 본원은 특징점 포지셔닝 방법을 제공하며, 검출할 영상의 비선형 특징을 추출하는 단계; 트레이닝 하여 획득한 회귀인자 행렬과 상기 비선형 특징에 기초하여 형태 계수에 대하여 반복 업데이트하는 단계; 업데이트 후의 형태 계수와 트레이닝 하여 획득한 통계형태 모델에 기초하여 상기 검출할 영상의 특징점 위치를 검출하는 단계를 포함한다.Corresponding to the apparatus of FIG. 1, the present invention provides a method of minutia positioning, comprising: extracting non-linear features of an image to be detected; Repeatedly updating the form factor based on the regression factor matrix obtained by training and the nonlinear characteristic; And detecting the feature point position of the image to be detected based on the updated shape factor and the statistical shape model obtained by training.

도 2a는 본 발명의 사람얼굴 특징점 포지셔닝 방법의 전체 흐름도이고, 오프라인 트레이닝 부분과 온라인 정렬 부분을 포함한다. 그 중에서, 오프라인 트레이닝 부분은 아래 단계를 포함한다. 2A is an overall flow diagram of a method for positioning a human face feature point of the present invention and includes an off-line training portion and an on-line alignment portion. Among them, the offline training part includes the following steps.

단계(211)에서는 표기한 특징점이 위치하는 사람 얼굴 영상을 입력한다. 단계(212)에서는 상기 표기한 특징점이 위치하는 사람얼굴 영상을 트레이닝 샘플로 하여 통계 형태 모델을 트레이닝 한다. 단계(213)에서는 상기 표기한 특징점이 위치하는 얼굴 영상을 트레이닝 샘플로 하여 통계 텍스처 모델을 트레이닝 하며 단계 211 내지 단계 213는 선택적으로 수행 가능하다. 단계(214)에서는 각 샘플에 대해 적어도 두 개의 초기 값을 생성하여 트레이닝 샘플을 증가시키며, 단계(215)에서는 업데이트의 제1차 반복 여부를 판단하고, 업데이트가 제1차 반복이면 직접 현재 특징점 주위에서 비선형 특징을 추출하여 단계(216)으로 전달하고, 그렇지 않으면, 이전에 업데이트한 중간형태와 평균형태를 정렬하고 아핀변환(affine transformation)을 수행하며, 아핀변환이 수행된 특징점 주위에서 비선형 특징을 추출(217)한다. 단계(218)에서는, 현재 형태 및 실제 형태에 대한 통계형태모듈 계수 업데이트 량을 계산한다. 단계(219)에서는, 형태모델 계수 업데이트 량과 비선형 특징에 근거하여 선형형태 계수 회귀인자 행렬을 계산하고 전 단계에서 획득한 선형형태 계수 회귀인자 행렬 및 비선형 특징에 근거하여 형태 계수 업데이트 량을 계산하고, 이 업데이트 량을 이용하여 현재의 형태 계수를 업데이트 하여 현재 형태를 업데이트 한다. 단계(215) 내지 단계(219)를 반복하여 지정차수를 수렴 또는 순환될 때까지 한 후 종료하고, 회귀인자 행렬, 형태모델, 평균텍스처 등을 출력하는 단계(220)를 수행한다. In step 211, a human face image in which the marked minutiae are located is input. In step 212, the statistical model is trained using the human face image in which the marked minutiae are located as training samples. In step 213, the statistical texture model is trained using the face image in which the marked minutiae are located as training samples, and steps 211 to 213 may be selectively performed. In step 214, at least two initial values are generated for each sample to increase the training samples. In step 215, it is determined whether the update is first-time iterated. If the update is the first iteration, The nonlinear feature is extracted and passed to step 216. Otherwise, the previously updated intermediate form is aligned with the average shape and an affine transformation is performed, and a nonlinear feature is performed around the feature point on which the affine transformation is performed (217). In step 218, the statistical form module coefficient update amount for the current form and the actual form is calculated. In step 219, the linear shape coefficient regression factor matrix is calculated based on the update amount of the shape model coefficient and the nonlinear characteristic, the shape factor update amount is calculated based on the linear shape coefficient regression factor matrix and the nonlinear characteristic acquired in the previous step , The current form is updated using the update amount to update the current form. Steps 215 to 219 are repeated until the designated order is converged or circulated, and then the step 220 is performed to output a regression factor matrix, a morphological model, an average texture, and the like.

도 2a중의 온라인 포지셔닝 부분은 아래 단계들을 수행한다. The on-line positioning portion in Fig. 2a performs the following steps.

단계(231)에서는, 한 폭의 사람얼굴을 포함하는 영상, 사람얼굴 포위 프레임 및 오프라인 모델을 입력하고, 단계(232)에서는, 영상으로부터 사람의 얼굴 영역을 도려내고 크기를 축소하며 사람 얼굴의 형태를 초기화 한다. 단계(233)에서는, 업데이트의 제1차 반복 여부를 판단하고, 제1차 반복이면 현재 특징점 주위에서 비선형 특징을 추출하여 단계(235)로 전달하고 그렇지 않으면, 업데이트 이전의 중간 형태와 평균형태를 정렬(234)하고 영상을 아핀 변환 하며, 다음 현재 특징점 주위에서 비선형 특징을 추출한다. 단계(235)에서는, 오프라인 트레이닝으로 획득한 선형 형태 계수 회귀인자 행렬 및 비선형 특징에 근거하여 형태 계수 업데이트 량을 계산(236)하고, 이 형태 계수 업데이트 량으로 형태 계수를 업데이트 하여 현재 형태를 업데이트(237)한다. 단계(233) 내지 단계(237)를 반복하여, 현재 형태가 원래의 입력 영상 좌표계로 변환되면 최종의 사람얼굴 특징점 위치를 획득할 수 있다.In step 231, a video including a human face of a width, a human facial envelope frame, and an offline model are input. In step 232, a human face area is cut out from the video, the size is reduced, Initialize. In step 233, it is determined whether or not the update is to be performed for the first time. If the first iteration is performed, the nonlinear feature is extracted around the current feature point and transmitted to the step 235. Otherwise, Align 234 to affine transform the image and extract nonlinear features around the next current feature point. In step 235, a form factor update quantity is calculated (236) based on the linear shape coefficient regression factor matrix and the nonlinear feature obtained with offline training, and the form factor is updated with this form factor update quantity to update the current form 237). Steps 233 to 237 are repeated to obtain the final human facial feature point position when the current form is converted into the original input image coordinate system.

도 2b는 본 발명의 사람얼굴 특징점 포지셔닝 방법의 핵심단계 설명도이고, 동일하게 오프라인 트레이닝 부분과 온라인 포지셔닝 부분을 포함한다. 그 중에서, 오프라인 트레이닝 부분은 아래 단계를 포함한다.FIG. 2B is a key step explanatory view of the human face feature point positioning method of the present invention, and includes the offline training part and the on-line positioning part in the same manner. Among them, the offline training part includes the following steps.

단계1: 아래 식에 따라 통계 형태 모델을 학습한다.Step 1: Learn the statistical model by the following formula.

Figure pat00016
Figure pat00016

여기서,

Figure pat00017
은 평균형태,
Figure pat00018
는 국부형태 계수,
Figure pat00019
는 기초벡터를 의미한다.here,
Figure pat00017
The average shape,
Figure pat00018
Is the local form factor,
Figure pat00019
Means a base vector.

단계2: 아래 식을 최소화 하는 것을 통하여 학습한다.Step 2: Learn through minimizing the equation below.

Figure pat00020
Figure pat00020

여기서,

Figure pat00021
는 최적형태 모델 계수의 업데이트 량이고;
Figure pat00022
는 표기한 진실형태가 대응하는 형태 계수며;
Figure pat00023
는 k차 반복 후의 형태 계수고,
Figure pat00024
는 영상I의 현재 형태
Figure pat00025
에서 추출한 비선형 특징이다.here,
Figure pat00021
Is the update amount of the optimal shape model coefficient;
Figure pat00022
Is the corresponding form factor for the truth form represented;
Figure pat00023
Is the shape coefficient after k-th iteration,
Figure pat00024
The current form of the video I
Figure pat00025
Is a nonlinear feature extracted from

단계3: 아래 식에 따라 형태 계수를 업데이트 한다.Step 3: Update the form factor according to the formula below.

Figure pat00026
Figure pat00026

단계4: 단계2~3을 반복하여 수렴 또는 반복 차수가 지정된 차수에 도달될 때까지 수행한 후 종료한다.Step 4: Repeat steps 2 and 3 until the convergence or iteration order reaches the specified order and then terminate.

도 2b가 도시한 온라인 정렬부분은 아래 단계를 포함한다.The online alignment portion shown in FIG. 2B includes the following steps.

단계 1: 원시 영상에서 사람 얼굴의 영역을 도려내어 얼굴 영역의 형태를 초기화한다. 예를 들면, 단계 1에서 도면(201)은 원시 영상이고, 우측에 위치한 도면(202)은 초기화 후의 사람 얼굴의 형태이다.Step 1: Initialize the shape of the face area by extracting the human face area from the original image. For example, in step 1, the drawing 201 is a raw image, and the drawing 202 located on the right is a human face after initialization.

단계2: 아래 식에 따라 도면(203) 내지 도면(206)고 같이 형태 계수를 수렴될 때까지 반복적으로 업데이트 한다.Step 2: The form coefficients are repeatedly updated until convergence, as shown in the diagrams (203) to (206), according to the following equation.

Figure pat00027
Figure pat00027

단계3: 아래 식에 따라 사람얼굴 형태를 합성하고 입력 영상 좌표계에 역변환하여 최종적으로 도2b의 도면(207)을 획득한다.Step 3: The human face form is synthesized according to the following equation and inverse transformed to the input image coordinate system to finally obtain the figure 207 of FIG. 2B.

Figure pat00028
Figure pat00028

Figure pat00029
Figure pat00029

이상 알고리즘의 전체 흐름을 소개하였고, 아래에 그 중의 일부에 대한 세부 내용에 대해 기술하기로 한다.The entire flow of the above algorithm is introduced, and details of some of them are described below.

1. 통계형태 모델의 트레이닝1. Training of statistical model

정상적인 사람얼굴 형태에 대하여 회전, 축소, 평행이동과 같은 전체적 유사성 변환요소를 제거하고 나면, 사람얼굴 형태의 변환은 실제적으로 유한하고, 주요한 변화 패턴은 많지 않게 된다. 본 발명은 더욱 정밀한 방식을 이용하여 사람 얼굴 형태를 표시하고, 다시 말해서, 더 적은 계수의 사용으로 각종 사람 얼굴의 형태를 표시할 수 있다. 본 발명이 통계 형태 모델의 트레이닝을 요구하는 원인이다.After removing the global similarity transformation elements such as rotation, contraction, and translation for normal human face forms, the conversion of human face forms is finite in practice and there are not many major change patterns. The present invention can display human face shapes using a more precise method, that is, display the shapes of various human faces with the use of fewer coefficients. The present invention is the reason for requiring the training of the statistical model.

정밀한 통계 형태 모델을 트레이닝 하기 위하여, 우선 입력한 사람얼굴 형태에 대한 표준화 처리가 필요하다. 즉 프로크루스테스 분석(Procrustes Analysis), 회전, 축소 등 전체적 유사성 변환의 영향을 제거하도록 하며, 그 구체적인 실시단계는 관련문헌: T.F. Cootes and C.J.Taylor, Statistical Models of Appearance for Computer Vision, 2004를 참고할 수 있다. In order to train a precise statistical model, it is first necessary to standardize the input face type. Procrustes Analysis, Rotation, Reduction, etc., and the specific implementation steps are described in the related article: T.F. Cootes and C. J. Taylor, Statistical Models of Appearance for Computer Vision, 2004.

표준화 처리 후, 다시 주성분 분석(PCA)를 통하여 평균형태

Figure pat00030
과 한 개 조의 기본 벡터
Figure pat00031
를 획득하고, 동시에 전체적 유사성 변환을 실현하기 위하여 추가적인 4개의 기본 벡터
Figure pat00032
의 부가가 필요할 수 있다. 평균 형태에서 서로 다른 가중치의 겹침을 통하여 하나의 특정된 사람얼굴 형태를 생성할 수 있고, 전체적 유사성 변환을 추가할 수 있으며, 이는 아래의 공식으로 표시할 수 있다.After the standardization process, the average shape (PCA)
Figure pat00030
And a set of basic vectors
Figure pat00031
And at the same time an additional four basic vectors < RTI ID = 0.0 >
Figure pat00032
May be required. Through the overlap of different weights in the mean form, one specific human face form can be created, and a global similarity transformation can be added, which can be expressed by the following formula.

Figure pat00033
Figure pat00033

여기서,

Figure pat00034
는 국부형태 계수고,
Figure pat00035
는 전체적 유사성 변환 계수며, N(,)은 한 개 점(x, y)에 대한 전체적 유사성 변환을 나타낸다. here,
Figure pat00034
Is the local form factor,
Figure pat00035
Is the global similarity transform coefficient, and N (,) represents the global similarity transform for a single point (x, y).

Figure pat00036
Figure pat00036

특히, 평균형태에 대한 전체적 유사성 변환은 아래 식과 같이 표현 가능하다.In particular, the overall similarity transformation for the mean form can be expressed as:

Figure pat00037
Figure pat00037

여기서, 4개의 기본벡터

Figure pat00038
는 각각
Figure pat00039
,
Figure pat00040
,
Figure pat00041
,
Figure pat00042
이다.Here, the four basic vectors
Figure pat00038
Respectively
Figure pat00039
,
Figure pat00040
,
Figure pat00041
,
Figure pat00042
to be.

도 3은 일실시예에 따른 하나의 통계형태 모델의 예시이다. 입력(301)은 표준화를 마친 후의 몇 개의 사람얼굴 형태를 함께 겹친 영상이고, 여기서 볼 수 있듯이, 포인트의 분포는 가우스 분포에 근접하다. 좌측에서부터 두 번째 도면, 즉

Figure pat00043
에 대응되는 도면(302)은 평균적인 형태이고 도면(303)은 앞 세 개의 기본 벡터를 각각 평균 형태에 겹쳐 표시한 영상(도에서 화살표를 가진 작은 선단은 기본 벡터를 표시함)이다. 첫 번째 기본 벡터(303)는 사람 얼굴이 좌우로 회전 할 때의 형태 변화를 묘사하였고, 두 번째 기본 벡터(304)는 사람 얼굴이 상하로 운동할 때의 형태 변화이며, 세 번째 기본 벡터(305)는 살찐 얼굴과 마른 얼굴 사이의 형태 차이를 묘사하였다. 도 3이 도시한 예시는 단지 기본 벡터가 묘사할 수 있는 정보를 예를 들어 설명하였고, 실제응용에서, 기본 벡터가 묘사할 수 있는 정보는 상기 예제에 한정되지 않는다.3 is an illustration of one statistical model in accordance with one embodiment. The input 301 is an image of several human face forms superimposed together after normalization, and as can be seen, the distribution of points is close to the Gaussian distribution. From the left to the second drawing,
Figure pat00043
(302) is an average shape, and the figure (303) is an image in which the three preceding basic vectors are superimposed on the average shape, respectively. The first basic vector 303 describes a morphological change when the human face rotates from side to side. The second basic vector 304 is a morphological change when the human face moves up and down. The third basic vector 305 ) Described the difference in shape between a fat face and a dry face. The example shown in FIG. 3 illustrates only information that the basic vector can describe, and in practical applications, the information that the basic vector can describe is not limited to the above example.

하나의 사람 얼굴 형태를 지정할 때, 아래의 공식을 통하여 국부적인 형태 계수와 전체적 유사성 변환 계수를 구할 수 있다. When specifying a human face shape, the local form factor and the global similarity transform coefficient can be obtained through the following formula.

Figure pat00044
Figure pat00044

Figure pat00045
Figure pat00045

여기서,

Figure pat00046
은 고정형태에 대하여 전체적 유사성 변환을 하는 역변환을 나타내고, 이는 형태 표준화의 조작과 유사하다. here,
Figure pat00046
Represents an inverse transformation that performs a global similarity transformation on a fixed form, which is similar to the manipulation of shape normalization.

2. 통계형태 모델 계수 회귀에 기초한 사람얼굴 정렬방법2. Statistical form model. Regression-based human face sorting method

통계형태 모델 계수 회귀에 기초한 사람 얼굴 정렬 방법의 기본 아이디어는 현재 각각의 특징점 주위에서 비선형 특징을 추출하고, 상기 비선형 특징을 하나의 벡터로 조합하며 이런 비선형 특징을 이용하여 통계형태 모델 계수의 업데이트 량을 회귀하는 것이다.Statistical morphology model The basic idea of the human face alignment method based on the regression is to extract nonlinear features around each current feature point, combine the nonlinear features into one vector, and use this nonlinear feature to update the statistical model coefficient .

Figure pat00047
Figure pat00047

여기서,

Figure pat00048
는 현재 형태(k번째 반복 후의 형태)가 대응하는 형태 계수고,
Figure pat00049
는 현재 형태에서 추출한 비선형 특징이며,
Figure pat00050
는 k번째 반복 업데이트 후에 사용한 회귀인자이다. 설명의 편의를 위하여 국부 형태 계수와 전체적 유사성 변환계수를 합친 것을
Figure pat00051
로 표기한다.here,
Figure pat00048
Is a form coefficient corresponding to the current form (the form after the k-th iteration)
Figure pat00049
Is a nonlinear feature extracted from the current form,
Figure pat00050
Is the regression factor used after the kth iteration update. For convenience of explanation, it is assumed that the sum of the local form factor and the global similarity transform coefficient
Figure pat00051
.

정확한 작업을 위하여, 데이터 학습을 통하여 매 반복에 사용되는 회귀인자

Figure pat00052
이 획득될 것이 요구된다. 본 발명에서,
Figure pat00053
는 아래 타겟 함수의 최소화를 통하여 획득할 수 있다.For accurate work, we use regression coefficients
Figure pat00052
Is required to be obtained. In the present invention,
Figure pat00053
Can be obtained by minimizing the target function below.

Figure pat00054
Figure pat00054

식에서 N은 트레이닝 샘플의 총수를 의미하고,

Figure pat00055
는 k번째 반복 때, i번째 샘플의 최적 형태 계수 업데이트 량(즉 실제의 형태 계수와 현재 형태 계수의 차)이고,
Figure pat00056
는 k번째 반복 때, i번째 샘플의 비선형 특징이다. 상기 식은 아래의 최소 제곱법이 있다.In the equation, N means the total number of training samples,
Figure pat00055
(I.e., the difference between the actual shape coefficient and the current shape coefficient) of the i-th sample at the k-th iteration,
Figure pat00056
Is a non-linear feature of the ith sample at the kth iteration. This equation has the following least squares method.

Figure pat00057
Figure pat00057

여기서 제기한 타겟 함수와 해법공식 외에, 기타 타겟 함수와 해법공식을 사용할 수 있고, 예시적으로, 리지 회귀(ridge regression)를 채용하여 선형 회귀를 대체하고, 비선형 특징을 텍스처 모델의 공간 등에 투영할 수 있다. 구체적인 방법은 표 1을 참고한다.In addition to the target function and solution formulas presented here, other target functions and solution formulas can be used. Illustratively, ridge regression is employed to replace linear regression, and nonlinear features are projected into the space of the texture model . See Table 1 for specific methods.

Figure pat00058
Figure pat00058

SMCR 알고리즘의 타겟 함수와 해법공식Target function and solution formula of SMCR algorithm

동일한 코드 프레임에 기초하여, 우리는 감독하강법 알고리즘과도 비교할 수 있으며 결과는 표2와 같다. 비교결과에서 보면, 통계 모델 계수 회귀 알고리즘이 갖는 LFPW와 iBUG 두 개의 데이터 베이스 상에서의 정밀도는 모두 감독하강법 알고리즘보다 높다.Based on the same code frame, we can also compare it with the supervisory descent algorithm and the results are shown in Table 2. In the comparison results, the accuracy of the statistical model coefficient regression algorithm on both LFPW and iBUG databases is higher than that of the supervisory descent algorithm.

통계 모델 계수 회귀 알고리즘과 감독하강법의 알고리즘 비교Comparison of statistical model coefficient regression algorithm and supervisory descent algorithm

통계 모델 계수 회귀 알고리즘Statistical model coefficient regression algorithm

Figure pat00059
Figure pat00059

감독 하강법 알고리즘: 통계 모델 계수 회귀 알고리즘과 매우 유사하나, p만 x로 치환함.Supervision descent algorithm: Statistical model It is very similar to the regression algorithm, but it replaces p only x.

Figure pat00060
Figure pat00060

3. 중간결과의 재정렬3. Rearrangement of intermediate results

실제 트레이닝과 테스트 중에서 발견한 것은, 최초 1~2번의 반복을 통하여 획득한 형태는 이미 실제 형태와 근사하다는 것이다. 도4a와 도4b를 살펴보면, 도4a는 초기형태이고 도4b는 제1차 반복 한 후의 형태이다. 영상의 사람 얼굴에 일정한 회전이 있으면, 현재 형태가 이미 상기 회전을 탐지하여도 후속 반복에서 비선형 특징을 추출할 때, 얼굴 영상을 바로 잡지 못하게 될 수 있다.What we found in the actual training and testing is that the form obtained through the first or second iteration is already close to the actual form. Referring to FIGS. 4A and 4B, FIG. 4A is an initial form and FIG. 4B is a form after a first repetition. If there is a constant rotation on the human face of the image, even if the current shape already detects the rotation, it may not be able to correct the face image when extracting nonlinear features in subsequent iterations.

중간 결과를 추가하여 재정렬한 사람 얼굴 정렬 알고리즘의 흐름도는 도 5와 같다.A flow chart of the person sorting algorithm that rearranges the intermediate results is shown in Fig.

상기 관찰에 기초하여 본 발명은 매번 반복 업데이트를 진행할 때, 현재의 얼굴 형태와 평균 얼굴 형태를 정렬하고, 하나의 전체적 유사성 변형행렬

Figure pat00061
를 찾아서, 하기 타겟 함수를 최소화하도록 한다.On the basis of the above observation, the present invention is characterized in that, when the iterative update is performed each time, the current face shape and the average face shape are aligned, and one global similarity transformation matrix
Figure pat00061
To minimize the following target function.

Figure pat00062
Figure pat00062

여기서,

Figure pat00063
는 제k차 반복 후 i번째 샘플의 형태이다. 전체적 유사성 변환행렬을 획득한 후, 현재 형태와 영상에 대하여 전체적 유사성 변환을 하고, 이에 기초하여 다음 번 반복을 수행한다(511~515). 이로써 회전과 축소로 생기는 불리한 영향을 제거할 수 있어, 추출된 비선형 특징이 특징점 위치 편이를 더 잘 반영할 수 있다.here,
Figure pat00063
Is the form of the i-th sample after the k-th iteration. After obtaining the global similarity transformation matrix, the global similarity transformation is performed on the current form and the image, and the next iteration is performed based on the similarity transformation (511-515). This can eliminate the adverse effects of rotation and contraction, and the extracted nonlinear features can better reflect feature location shifts.

4. 다 해상도 확장4. Multi-resolution extension

도 6은 일실시예에 따른 다해상도에 대한 확장에 대한 예시적인 도면이다.6 is an exemplary diagram of an extension to multiple resolutions according to one embodiment.

다 해상도 프레임은 정밀도와 속도의 평형을 위하여 다시각 알고리즘에서 통상적인 수단으로 사용된다. 본 발명이 연관된 사람얼굴 알고리즘에서, 동일하게 다 해상도 프레임을 채용할 수 있다. 우선 하나의 해상도가 비교적 낮은 영상에서 사람얼굴 특징점 포지셔닝을 하고(601), 그 결과를 고해상도 영상에 매핑하여 계속하여 반복 정밀 포지셔닝을 수행(602)할 수 있다.Multi-resolution frames are again used as a common means in each algorithm for equilibrium of precision and speed. In the human face algorithm to which the present invention is associated, the same multi-resolution frame can be employed. First, the human facial feature point is positioned (601) on a relatively low resolution image, and the result is mapped to a high resolution image to continuously perform repetitive precision positioning (602).

마지막으로, 도7은 중간결과의 재정렬을 포함한 다 해상도 SMCR알고리즘의 흐름도이다. 도 7의 711 내지 715의 도면은 앞서 자세히 설명한 단해상도에 있어서의 반복적인 업데이트 수행을 나타내며, 721 내지 722에서는 다해상도에 있어서의 반복적인 포지셔닝을 수행을 나타낸다.Finally, FIG. 7 is a flow diagram of a multi-resolution SMCR algorithm including reordering intermediate results. The diagrams 711 to 715 in FIG. 7 show repetitive update performances in the short resolution described above in detail, and 721 to 722 denote performing repetitive positioning in multiple resolutions.

이상에서 설명된 실시예들은 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치, 방법 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The embodiments described above may be implemented in hardware components, software components, and / or a combination of hardware components and software components. For example, the devices, methods, and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, such as an array, a programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions. The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software. For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded. The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다. 컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 저장부 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다. 상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software. Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Includes hardware devices that are specially configured to store and execute program instructions such as magneto-optical media and ROM, RAM, flash storage, and the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like. The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기를 기초로 다양한 기술적 수정 및 변형을 적용할 수 있다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.Although the embodiments have been described with reference to the drawings, various technical modifications and variations may be applied to those skilled in the art. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

Claims (20)

영상의 비선형 특징을 추출하는 특징 추출부;
트레이닝 하여 획득한 회귀인자 행렬과 상기 비선형 특징에 기초하여 형태 계수에 대한 반복 업데이트를 진행하는 업데이트부; 및
업데이트 후의 형태 계수와 트레이닝 하여 획득한 통계 형태모델에 기초하여 상기 영상의 특징점 위치를 검출하는 위치 검출부
을 포함하는 특징점 포지셔닝 장치.
A feature extraction unit for extracting a nonlinear feature of an image;
An update unit for performing a repetitive update on the form factor based on the regression factor matrix obtained by training and the nonlinear feature; And
A position detector for detecting the feature point position of the image based on the updated shape factor and the statistical shape model obtained by training;
And a feature point positioning device.
제1항에 있어서,
상기 업데이트부는,
업데이트를 통해 획득한 중간 형태와 평균 형태를 정렬시켜 유사성 변환행렬을 획득하고, 상기 유사성 변환행렬에 기초하여 상기 중간 형태와 상기 검출된 영상에 대한 유사성 변환을 수행하는
특징점 포지셔닝 장치.
The method according to claim 1,
Wherein,
Acquiring a similarity transformation matrix by aligning the intermediate shape and the average shape acquired through the update, and performing a similarity transformation on the intermediate shape and the detected image based on the similarity transformation matrix
Feature point positioning device.
제2항에 있어서,
상기 업데이트부는,
다해상도 피라미드 프레임을 이용하여 업데이트를 통해 획득한 중간 형태와 평균 형태를 정렬하고, 제1해상도의 영상에서 특징점 포지셔닝을 임계치까지 수행하고, 상기 특징점을 포지셔닝한 결과를 제1 해상도보다 큰 제2해상도의 영상에 매핑하여 특징점을 포지셔닝하여 유사성 변환 행렬을 획득하는
를 포함하는
특징점 포지셔닝 장치.
3. The method of claim 2,
Wherein,
Resolution polyramide frame, and performing a minutia positioning from the image of the first resolution to a threshold, and aligning the result of positioning the minutiae to a second resolution larger than the first resolution And the similarity transformation matrix is obtained by positioning the minutiae points
Containing
Feature point positioning device.
제3항에 있어서,
상기 업데이트부는,
반복 업데이트를 통해 획득한 유사성 변환 행렬에 기초하여 획득한 특징점을 상기 검출된 영상의 좌표계에 역변환하는
특징점 포지셔닝 장치.
The method of claim 3,
Wherein,
The feature points acquired on the basis of the similarity transformation matrix obtained through the iterative updating are inversely transformed into the coordinate system of the detected image
Feature point positioning device.
제2항에 있어서,
상기 업데이트부는,
k번째의 형태 계수에 대한 반복 업데이트에 사용된 유사성 변환행렬
Figure pat00064
는 타겟 함수
Figure pat00065
를 통하여 획득하고,
Figure pat00066
는 k번째 반복 후의 제i번째 샘플 형태인
특징점 포지셔닝 장치.
3. The method of claim 2,
Wherein,
The similarity transformation matrix used in the iterative update of the k-th type coefficient
Figure pat00064
Target function
Figure pat00065
Lt; / RTI >
Figure pat00066
Is the i-th sample form after the k-th iteration
Feature point positioning device.
제1항에 있어서,
상기 업데이트부는,
트레이닝 샘플의 최적 형태 계수 업데이트 량과 상기 비선형 특징에 기초하여 회귀인자 행렬을 확정하는
특징점 포지셔닝 장치.
The method according to claim 1,
Wherein,
Determining a regression factor matrix based on the optimal shape coefficient update amount of the training sample and the nonlinear feature
Feature point positioning device.
제6항에 있어서,
상기 비선형 특징은 비선형 텍스처 특징을 포함하고;
트레이닝 샘플의 비선형 특징을 확정하는 단계는,
상기 트레이닝 샘플에서 평균적인 텍스처 특징을 학습하는 단계;
상기 트레이닝 샘플에서 추출한 비선형 텍스처 특징과 상기 평균 텍스처 특징의 차이 값을 트레이닝 샘플의 비선형 특징으로 결정하는 단계
를 포함하는 특징점 포지셔닝 장치.
The method according to claim 6,
Wherein the nonlinear feature comprises a nonlinear texture feature;
Determining a nonlinear characteristic of the training sample comprises:
Learning an average texture feature in the training sample;
Determining a difference value between the nonlinear texture feature extracted from the training sample and the average texture feature as nonlinear characteristics of the training sample
Wherein the feature point positioning device comprises:
제6항에 있어서,
상기 비선형 텍스처 특징은 한 종류의 비선형 텍스처 특징 또는 적어도 두 종류의 비선형 텍스처 특징의 조합을 포함하고;
서로 다른 반복 단계에서 같거나 다른 비선형 텍스처 특징 또는 적어도 두 종류의 비선형 텍스처 특징의 조합을 사용하는
특징점 포지셔닝 장치.
The method according to claim 6,
Wherein the nonlinear texture feature comprises a type of nonlinear texture feature or a combination of at least two types of nonlinear texture features;
Using a combination of the same or different nonlinear texture features or at least two nonlinear texture features at different iteration stages
Feature point positioning device.
제6항에 있어서,
상기 업데이트부는,
최적 형태 계수 업데이트 량과 상기 비선형 특징에 기초하여 계산한 형태 계수 업데이트 량 사이의 오차를 최소화하여 회귀인자 행렬을 확정하는
특징점 포지셔닝 장치.
The method according to claim 6,
Wherein,
The error between the optimal shape coefficient update amount and the shape coefficient update amount calculated based on the nonlinear characteristic is minimized to determine the regression factor matrix
Feature point positioning device.
제9항에 있어서,
상기 업데이트부는
k번째로 형태 계수에 대한 반복 업데이트에 사용된 회귀인자 행렬
Figure pat00067
는 타겟 함수
Figure pat00068
를 통하여 얻고,
여기서, N은 트레이닝 샘플의 총수를 의미하고,
Figure pat00069
는 k번째 반복 때, i번째 샘플의 최적 형태 계수 업데이트 량이고,
Figure pat00070
는 k번째 반복 때, i번째 샘플의 비선형 특징이며,
Figure pat00071
는 k번째 반복 때, i번째 샘플의 비선형 특징에 기초하여 계산하여 획득한 형태 계수 업데이트 량인
특징점 포지셔닝 장치.
10. The method of claim 9,
The update unit
The regression factor matrix used for iterative update of the kth form factor
Figure pat00067
Target function
Figure pat00068
Lt; / RTI >
Here, N means the total number of training samples,
Figure pat00069
Is the optimal shape coefficient update amount of the i < th > sample at the k <
Figure pat00070
Is a non-linear characteristic of the i-th sample at the k-th iteration,
Figure pat00071
Is a form factor update amount obtained by calculating based on the nonlinear characteristic of the i < th > sample at the k <
Feature point positioning device.
영상의 비선형 특징을 추출하는 단계;
트레이닝을 통해 획득한 회귀 인자 행렬 및 상기 비선형 특징에 기초하여 형태 계수를 반복적으로 업데이트하는 단계;
상기 업데이트된 형태 계수 및 트레이닝 하여 획득한 통계 형태 모델에 기초하여 상기 영상의 특징점을 검출하는 단계
를 포함하는 특징점 포지셔닝 방법.
Extracting a nonlinear characteristic of the image;
Repeatedly updating the form factor based on the regression factor matrix obtained through training and the non-linear feature;
Detecting the feature point of the image based on the updated shape coefficient and the statistical shape model obtained by training
/ RTI >
제11항에 있어서,
상기 형태 계수를 반복적으로 업데이트하는 단계는,
업데이트를 통해 획득한 중간 형태와 평균 형태를 정렬시켜 유사성 변환행렬을 획득하는 단계;
상기 유사성 변환행렬에 기초하여 상기 중간 형태와 상기 검출된 영상에 대한 유사성 변환을 수행하는 단계
를 더 포함하는
특징점 포지셔닝 방법.
12. The method of claim 11,
The step of repeatedly updating the form factor comprises:
Obtaining an affinity transformation matrix by arranging an intermediate form and an average form obtained through an update;
Performing a similarity transformation on the intermediate form and the detected image based on the similarity transformation matrix
Further comprising
How to position the minutiae.
제12항에 있어서,
상기 유사성 변환 행렬을 획득하는 단계는,
다해상도 피라미드 프레임을 이용하여 업데이트를 통해 획득한 중간 형태와 평균 형태를 정렬하는 단계; 및
제1해상도의 영상에서 특징점 포지셔닝을 임계치까지 수행하고, 상기 특징점을 포지셔닝한 결과를 제1 해상도보다 큰 제2해상도의 영상에 매핑하여 특징점을 포지셔닝하는 단계
를 포함하는
특징점 포지셔닝 방법.
13. The method of claim 12,
Wherein the obtaining the similarity transformation matrix comprises:
Aligning an intermediate shape and an average shape acquired through an update using a multiresolution pyramid frame; And
Positioning the minutiae point in the image of the first resolution to a threshold value and mapping the result of the positioning of the minutiae to the image of the second resolution larger than the first resolution,
Containing
How to position the minutiae.
제13항에 있어서,
반복 업데이트를 통해 획득한 유사성 변환 행렬에 기초하여 획득한 특징점을 상기 검출된 영상의 좌표계에 역변환하는 단계
를 더 포함하는
특징점 포지셔닝 방법.
14. The method of claim 13,
Transforming the feature points acquired based on the similarity transformation matrix obtained through the iterative update to the coordinate system of the detected image
Further comprising
How to position the minutiae.
제12항에 있어서,
k번째의 형태 계수에 대한 반복 업데이트에 사용된 유사성 변환행렬
Figure pat00072
는 타겟 함수
Figure pat00073
를 통하여 획득되고,
Figure pat00074
는 k번째 반복 후의 제i번째 샘플 형태인
특징점 포지셔닝 방법.
13. The method of claim 12,
The similarity transformation matrix used in the iterative update of the k-th type coefficient
Figure pat00072
Target function
Figure pat00073
Lt; / RTI >
Figure pat00074
Is the i-th sample form after the k-th iteration
How to position the minutiae.
제11항에 있어서,
트레이닝 샘플의 비선형 특징을 확정하는 단계; 및
트레이닝 샘플의 최적 형태 계수 업데이트 량과 상기 비선형 특징에 기초하여 회귀인자 행렬을 획득하는 단계를 포함하는
특징점 포지셔닝 방법.
12. The method of claim 11,
Establishing a nonlinear characteristic of the training sample; And
Obtaining a regression factor matrix based on an optimal shape factor update amount of the training sample and the nonlinear feature;
How to position the minutiae.
제16항에 있어서,
상기 비선형 특징은 비선형 텍스처 특징을 포함하고;
트레이닝 샘플의 비선형 특징을 확정하는 단계는,
상기 트레이닝 샘플에서 평균적인 텍스처 특징을 학습하는 단계;
상기 트레이닝 샘플에서 추출한 비선형 텍스처 특징과 상기 평균적인 비선형 텍스처 특징의 차이 값을 트레이닝 샘플의 비선형 특징으로 결정하는 단계
를 포함하는 특징점 포지셔닝 방법.
17. The method of claim 16,
Wherein the nonlinear feature comprises a nonlinear texture feature;
Determining a nonlinear characteristic of the training sample comprises:
Learning an average texture feature in the training sample;
Determining a difference value between the nonlinear texture feature extracted from the training sample and the average nonlinear texture feature as nonlinear characteristics of the training sample
/ RTI >
제16항에 있어서,
상기 비선형 텍스처 특징은 하나 또는 그 이상의 종류의 비선형 텍스처 특징의 조합을 포함하고;
상기 업데이트를 반복하는 경우 상기 하나 이상의 비선형 텍스처 특징의 조합을 사용하는
특징점 포지셔닝 방법.
17. The method of claim 16,
Wherein the nonlinear texture feature comprises a combination of one or more types of nonlinear texture features;
Using the combination of the one or more non-linear texture features when repeating the update
How to position the minutiae.
제16항에 있어서,
트레이닝 샘플의 최적 형태 계수 업데이트 량과 상기 비선형 특징에 기초하여 회귀인자 행렬을 확정하는 단계는,
최적 형태 계수 업데이트 량과 상기 비선형 특징에 기초하여 계산한 형태 계수 업데이트 량 사이의 오차를 최소화하여 회귀인자 행렬을 확정하는 단계
를 포함하는
특징점 포지셔닝 방법.
17. The method of claim 16,
Determining a regression factor matrix based on an optimal shape coefficient update amount of the training sample and the non-
Determining a regression factor matrix by minimizing an error between an optimal shape factor update amount and a form factor update amount calculated based on the nonlinear feature;
Containing
How to position the minutiae.
제19항에 있어서,
k번째로 형태 계수에 대한 반복 업데이트에 사용된 회귀인자 행렬
Figure pat00075
는 타겟 함수
Figure pat00076
를 통하여 획득되고,
N은 트레이닝 샘플의 총수를 의미하고,
Figure pat00077
는 k번째 반복 때, i번째 샘플의 최적 형태 계수 업데이트 량이고,
Figure pat00078
는 k번째 반복 때, i번째 샘플의 비선형 특징이며,
Figure pat00079
는 k번째 반복 때, i번째 샘플의 비선형 특징에 기초하여 계산하여 획득한 형태 계수 업데이트 량인
특징점 포지셔닝 방법.
20. The method of claim 19,
The regression factor matrix used for iterative update of the kth form factor
Figure pat00075
Target function
Figure pat00076
Lt; / RTI >
N is the total number of training samples,
Figure pat00077
Is the optimal shape coefficient update amount of the i < th > sample at the k <
Figure pat00078
Is a non-linear characteristic of the i-th sample at the k-th iteration,
Figure pat00079
Is a form factor update amount obtained by calculating based on the nonlinear characteristic of the i < th > sample at the k <
How to position the minutiae.
KR1020160128386A 2016-01-27 2016-10-05 Method and apparatus for positioning key points KR102667737B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/416,271 US10096132B2 (en) 2016-01-27 2017-01-26 Method and apparatus for positioning feature point

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201610053455.9 2016-01-27
CN201610053455.9A CN107016319B (en) 2016-01-27 2016-01-27 Feature point positioning method and device

Publications (2)

Publication Number Publication Date
KR20170089745A true KR20170089745A (en) 2017-08-04
KR102667737B1 KR102667737B1 (en) 2024-05-22

Family

ID=59438919

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160128386A KR102667737B1 (en) 2016-01-27 2016-10-05 Method and apparatus for positioning key points

Country Status (2)

Country Link
KR (1) KR102667737B1 (en)
CN (1) CN107016319B (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784353A (en) * 2017-11-14 2019-05-21 北京三星通信技术研究有限公司 A kind of matched method of non-directed graph, equipment and storage medium
CN108460335B (en) * 2018-01-26 2022-05-27 百度在线网络技术(北京)有限公司 Video fine-granularity identification method and device, computer equipment and storage medium
CN108062545B (en) * 2018-01-30 2020-08-28 北京搜狐新媒体信息技术有限公司 Face alignment method and device
CN109063584B (en) * 2018-07-11 2022-02-22 深圳大学 Facial feature point positioning method, device, equipment and medium based on cascade regression
CN109241910B (en) * 2018-09-07 2021-01-01 高新兴科技集团股份有限公司 Face key point positioning method based on deep multi-feature fusion cascade regression
CN109800635A (en) * 2018-12-11 2019-05-24 天津大学 A kind of limited local facial critical point detection and tracking based on optical flow method
CN110458887B (en) * 2019-07-15 2022-12-06 天津大学 Weighted fusion indoor positioning method based on PCA
CN112528978B (en) * 2021-02-10 2021-05-14 腾讯科技(深圳)有限公司 Face key point detection method and device, electronic equipment and storage medium
CN113033524B (en) * 2021-05-26 2021-08-17 北京的卢深视科技有限公司 Occlusion prediction model training method and device, electronic equipment and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090018037A (en) * 2006-04-08 2009-02-19 더 유니버시티 오브 맨체스터 Method of locating features of an object
US20150169938A1 (en) * 2013-12-13 2015-06-18 Intel Corporation Efficient facial landmark tracking using online shape regression method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005339313A (en) * 2004-05-28 2005-12-08 Toshiba Corp Method and apparatus for presenting image
CN101499132B (en) * 2009-03-12 2013-05-01 广东药学院 Three-dimensional transformation search method for extracting characteristic points in human face image
CN101819628B (en) * 2010-04-02 2011-12-28 清华大学 Method for performing face recognition by combining rarefaction of shape characteristic
CN102999942B (en) * 2012-12-13 2015-07-15 清华大学 Three-dimensional face reconstruction method
CN103824050B (en) * 2014-02-17 2017-03-15 北京旷视科技有限公司 A kind of face key independent positioning method returned based on cascade
CN104598936B (en) * 2015-02-28 2018-07-27 北京畅景立达软件技术有限公司 The localization method of facial image face key point
CN105260703B (en) * 2015-09-15 2019-07-05 西安邦威电子科技有限公司 A kind of driver's smoking behavioral value method suitable under multi-pose

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090018037A (en) * 2006-04-08 2009-02-19 더 유니버시티 오브 맨체스터 Method of locating features of an object
US20150169938A1 (en) * 2013-12-13 2015-06-18 Intel Corporation Efficient facial landmark tracking using online shape regression method

Also Published As

Publication number Publication date
CN107016319B (en) 2021-03-05
KR102667737B1 (en) 2024-05-22
CN107016319A (en) 2017-08-04

Similar Documents

Publication Publication Date Title
KR20170089745A (en) Method and apparatus for positioning key points
US11908244B2 (en) Human posture detection utilizing posture reference maps
Ranftl et al. Deep fundamental matrix estimation
CN108764048B (en) Face key point detection method and device
CN108108764B (en) Visual SLAM loop detection method based on random forest
CN107229757B (en) Video retrieval method based on deep learning and Hash coding
CN113362382A (en) Three-dimensional reconstruction method and three-dimensional reconstruction device
CN109960742B (en) Local information searching method and device
Demisse et al. Deformation based curved shape representation
SE528068C2 (en) Three dimensional object recognizing method for e.g. aircraft, involves detecting image features in obtained two dimensional representation, and comparing recovered three dimensional shape with reference representation of object
CN109598220A (en) A kind of demographic method based on the polynary multiple dimensioned convolution of input
CN105426929A (en) Object shape alignment device, object processing device and methods thereof
Etezadifar et al. A new sample consensus based on sparse coding for improved matching of SIFT features on remote sensing images
Cheng et al. Parametric human body reconstruction based on sparse key points
CN112102294A (en) Training method and device for generating countermeasure network, and image registration method and device
CN115713786A (en) Pig weight identification method and system
CN111104911A (en) Pedestrian re-identification method and device based on big data training
Skočaj et al. Incremental and robust learning of subspace representations
Schmidt et al. Real-time rotated convolutional descriptor for surgical environments
CN111753736A (en) Human body posture recognition method, device, equipment and medium based on packet convolution
Sodhi et al. Robust plant phenotyping via model-based optimization
CN116310194A (en) Three-dimensional model reconstruction method, system, equipment and storage medium for power distribution station room
Zhang et al. 6D object pose estimation algorithm using preprocessing of segmentation and keypoint extraction
CN112396089B (en) Image matching method based on LFGC network and compression excitation module
Fan et al. Star skeleton for human behavior recognition

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right