KR101382172B1 - System for classifying hierarchical facial feature and method therefor - Google Patents

System for classifying hierarchical facial feature and method therefor Download PDF

Info

Publication number
KR101382172B1
KR101382172B1 KR1020130026293A KR20130026293A KR101382172B1 KR 101382172 B1 KR101382172 B1 KR 101382172B1 KR 1020130026293 A KR1020130026293 A KR 1020130026293A KR 20130026293 A KR20130026293 A KR 20130026293A KR 101382172 B1 KR101382172 B1 KR 101382172B1
Authority
KR
South Korea
Prior art keywords
face
feature
attribute
face image
image
Prior art date
Application number
KR1020130026293A
Other languages
Korean (ko)
Inventor
최창석
조유창
Original Assignee
건아정보기술 주식회사
명지대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 건아정보기술 주식회사, 명지대학교 산학협력단 filed Critical 건아정보기술 주식회사
Priority to KR1020130026293A priority Critical patent/KR101382172B1/en
Application granted granted Critical
Publication of KR101382172B1 publication Critical patent/KR101382172B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation

Abstract

The present invention relates to a system for classifying the hierarchical features of a facial image and a method therefor. The system includes: a feature classifying unit (100) for classifying each portion of a plurality of facial images to be presented to a witness and dividing the classified portions into separate properties to generate feature classification information; a property giving unit (200) for normalizing the facial image included in the feature classification information and a standard image pre-stored in a database, computing the similarity between the facial image and standard images for a plurality of southern-type faces or northern-type faces pre-stored in a standard DB (210), and giving a property value of a standard image having the closest value as a property value of the facial image to generate feature property giving information; and a classification statistics unit (300) for drawing statistics for property values of the facial image included in the feature property giving information to generate facial feature statistics information. According to the present invention as described above, a classification system for faces is defined based on the features of northern-type faces and southern-type faces, a classifying technique and tool are provided to classify the feature of faces, the hierarchical features of a facial image is classified, property values are respectively given to classified features, and statistical values for property values are drawn to present samples, which are classified based on portions and properties of faces, to a witness, thereby inducing a more specific statement and providing a face type closest to a face of the suspect. [Reference numerals] (AA) Generate feature classification information; (BB) Feature classification information; (CC) Feature property giving information; (DD) Generate feature property giving information; (EE) Witness; (FF) Facial feature statistics information; (GG) Generate facial feature statistics information

Description

얼굴 영상의 계층적 특징 분류 시스템 및 그 방법{SYSTEM FOR CLASSIFYING HIERARCHICAL FACIAL FEATURE AND METHOD THEREFOR}System for hierarchical feature classification of facial image and its method {SYSTEM FOR CLASSIFYING HIERARCHICAL FACIAL FEATURE AND METHOD THEREFOR}

본 발명은 얼굴 영상의 계층적 특징 분류 시스템 및 그 방법에 관한 것으로 더욱 상세하게는, 얼굴 영상의 계층적 특징을 분류하고, 분류된 특징 각각에 속성 값을 부여하며, 각 속성 값에 대한 통계 값을 도출하는 기술에 관한 것이다.The present invention relates to a hierarchical feature classification system and method for a face image. More particularly, the present invention relates to classifying hierarchical features of a face image, assigning attribute values to each of the classified features, and statistical values for each attribute value. It is about a technique for deriving.

본 연구는 지식경제부 산업융합원천기술개발사업의 연구비 지원으로 수행되었으며, 지식경제부 및 한국산업기술평가관리원 관계자분들께 깊은 감사드립니다[과제관리번호: 10040018, 과제명: 3D 몽타주 생성 및 연령별 얼굴 변환 예측 시스템 개발].This project was supported by the Ministry of Knowledge Economy and the Ministry of Knowledge Economy and Korea Industrial Technology Evaluation and Management (MOST). [Project Number: 10040018, Title: 3D Montage Generation and Age Conversion Prediction System Development].

범죄사건의 수사에서 피의자의 사진은 가장 정확한 자료라 할 수 있다. 그러나, 피의자의 사진을 입수할 수 없는 경우에는 몽타주가 그 역할을 대신하게 된다.In criminal investigations, the photograph of the suspect is the most accurate data. However, if no photos of the suspect are available, the montage takes over.

2006년도 한국정보과학회 가을 학술발표 논문집 Vol.33, No.2(B)에 게재된 논문(몽타주와 얼굴사진의 유사도 산출)에는 몽타주와 데이터베이스에 저장된 얼굴사진과의 유사도에 따라 순위를 정해 용의자를 압축하는 기술이 게시되어 있다.In the paper published in the 2006 Proceedings of the Korean Institute of Information Scientists and Engineers Vol.33, No.2 (B), the suspects were ranked according to the similarity between the montages and the face photos stored in the database. Compression technology is published.

이러한, 몽타주의 작성은 목격자의 기억에 의존하여 이루어지기 때문에 몽타주 작성 프로그램은 목격자의 진술을 충분히 이끌어내고 기억의 오류와 왜곡을 줄일 수 있어야 한다.Since the creation of such a montage is done by relying on the memory of the witness, the montage writing program should be able to draw out the witness' s statements sufficiently and to reduce errors and distortions of memory.

그러나, 선행문헌의 경우, 완성된 몽타주를 다수의 용의자들과 비교하여 유사도 순위에 따라 용의자 추정을 용이하게 하는데 그치고 있다.However, in the case of the prior literature, the completed montage is compared with a large number of suspects, and the suspect is easily estimated according to the order of similarity.

따라서, 데이터베이스에서 목격자가 진술하는 얼굴의 특징을 신속히 검색하여 몽타주에 반영할 수 있도록 하고, 목격자의 진술이 불완전한 경우에도 적절한 대응하기 위해 얼굴의 특징에 대한 체계적인 분류가 요구된다.Therefore, a systematic classification of facial features is required in order to promptly search and reflect the features of the facial expressions that the eyewitness states in the database, and to properly respond even when the eyewitness statement is incomplete.

본 발명은 상기와 같은 문제점을 해결하고자 안출된 것으로, 북방형과 남방형이 갖는 얼굴의 특징을 기준으로 얼굴에 대한 분류 체계를 정의하고, 얼굴의 특징을 분류하는 기법 및 도구를 제공하는데 그 목적이 있다.The present invention has been made to solve the above problems, to provide a technique and a tool for defining a classification system for the face based on the features of the face of the northern and southern shape, and classify the features of the face There is this.

그리고, 본 발명은 얼굴 영상의 계층적 특징을 분류하고, 분류된 특징 각각에 속성 값을 부여하며, 각 속성 값에 대한 통계 값을 도출함으로써, 얼굴의 부위 및 속성으로 분류된 표본을 목격자에게 제시하여 보다 구체적인 진술을 유도하고, 대상 얼굴에 가장 근접한 얼굴형을 제공하는데 그 목적이 있다.The present invention classifies hierarchical features of face images, assigns attribute values to each of the classified features, and derives statistical values for each attribute value, thereby presenting a sample classified into face parts and attributes to the eyewitness. The purpose is to derive a more specific statement and to provide a face shape closest to the target face.

이러한 기술적 과제를 달성하기 위한 본 발명에 따른 얼굴 영상의 계층적 특징 분류 시스템은, 목격자에게 제시할 복수개의 얼굴 이미지 각 부위를 분류하고, 분류된 부위 각각을 개별적인 속성으로 분할하여 '특징 분류정보'를 생성하는 특징 분류부(100); '특징 분류정보'에 포함된 얼굴 이미지와 데이터베이스에 기 저장된 표본 이미지를 정규화하고, 표본DB(210)에 기 저장된 복수개의 남방형 또는 북방형 얼굴에 대한 표본 이미지들 중 얼굴 이미지와 유사도 연산을 수행하여 가장 가까운 값을 갖는 표본 이미지의 속성 값을 얼굴 이미지의 속성 값으로 부여하여 '특징속성 부여정보'를 생성하는 속성 부여부(200); 및 '특징속성 부여정보'에 포함된 얼굴 이미지의 속성 값 각각에 대한 통계를 도출하여 '얼굴특징 통계정보'를 생성하는 분류 통계부(300);를 포함한다.
The hierarchical feature classification system of the face image according to the present invention for achieving the technical problem, classifies each of the plurality of face image parts to present to the eyewitness, and divides each of the classified parts into individual attributes to 'feature classification information' Feature classification unit 100 for generating a; Normalize the face image included in the 'feature classification information' and the sample image previously stored in the database, and perform a similarity calculation to the face image among sample images of a plurality of southern or northern faces previously stored in the sample DB 210. An attribute granting unit 200 generating 'feature attribute granting information' by assigning the attribute value of the sample image having the closest value as the attribute value of the face image; And a classification statistic unit 300 for generating `` face feature statistical information '' by deriving statistics for each attribute value of the face image included in the feature attribute granting information.

그리고, 전술한 바와 같은 시스템을 기반으로 하는 얼굴 영상의 계층적 특징 분류 방법은, 특징 분류부(100)가 얼굴 이미지 각 부위를 분류하고, 분류된 부위 각각을 개별적인 속성으로 분할하여 '특징 분류정보'를 생성하는 (a) 단계; 속성 부여부(200)가 '특징 분류정보'에 포함된 얼굴 이미지와 표본DB(210) 기 저장된 표본 이미지 각각을 비교하여 얼굴 이미지의 부위별로 속성 값을 부여한 '특징속성 부여정보'를 생성하는 (b) 단계; 및 분류 통계부(300)가 '특징속성 부여정보'에 포함된 얼굴 이미지의 속성 값 각각에 대한 통계를 도출하여 '얼굴특징 통계정보'를 (c) 생성한다.Further, in the hierarchical feature classification method of the face image based on the system as described above, the feature classifier 100 classifies each part of the face image, divides each of the classified parts into individual attributes, and then displays the 'feature classification information. (A) generating '; The attribute assigning unit 200 compares each of the face images included in the 'feature classification information' and the sample images stored in the sample DB 210 to generate 'feature attribute grant information' to which the attribute values are assigned for each part of the face image ( b) step; And the classification statistical unit 300 derives statistics for each of the attribute values of the face image included in the 'feature attribute granting information' to generate 'face characteristic statistical information' (c).

상기와 같은 본 발명에 따르면, 북방형과 남방형이 갖는 얼굴의 특징을 기준으로 얼굴에 대한 분류 체계를 정의하고, 얼굴의 특징을 분류하는 기법 및 도구를 제공하는 효과가 있다.According to the present invention as described above, there is an effect of providing a technique and a tool for defining a classification system for the face based on the features of the face of the northern and southern shapes, and classifying the features of the face.

그리고, 본 발명에 따르면, 얼굴 영상의 계층적 특징을 분류하고, 분류된 특징 각각에 속성 값을 부여하며, 각 속성 값에 대한 통계 값을 도출함으로써, 얼굴의 부위 및 속성으로 분류된 표본을 목격자에게 제시하여 보다 구체적인 진술을 유도하고, 대상 얼굴에 가장 근접한 얼굴형을 제공하는 효과가 있다.In addition, according to the present invention, by classifying hierarchical features of the face image, assigning attribute values to each classified features, and deriving statistical values for each attribute value, the eyewitnesses are classified into samples of the face region and attributes. Presenting to the user to induce a more specific statement, and has the effect of providing the face shape closest to the target face.

도 1은 본 발명에 따른 얼굴 영상의 계층적 특징 분류 시스템을 도시한 구성도.
도 2는 남방형과 북방형의 전형적인 얼굴을 도시한 예시도.
도 3은 본 발명의 얼굴 영상의 계층적 특징 분류 시스템에 따른 얼굴 이미지의 형상모델을 도시한 도면.
도 4는 본 발명에 따른 얼굴 영상의 계층적 특징 분류 시스템의 얼굴 영상과 표본 영상의 동공간 거리와 중점좌표를 일치시키고, 얼굴의 크기와 부위별 위치를 일치시킨 것을 도시한 도면.
도 5a 내지 도 5c는 본 발명에 따른 얼굴 영상의 계층적 특징 분류 시스템의 속성 값 계산방법을 도시한 예시도.
도 6은 본 발명에 따른 얼굴 영상의 계층적 특징 분류 시스템의 얼굴 영상과 표본 영상의 비교를 통해 부여되는 속성 값(얼굴-얼굴형)에 대한 예시도.
도 7은 본 발명에 따른 얼굴 영상의 계층적 특징 분류 시스템의 얼굴 영상과 표본 영상의 비교를 통해 부여되는 속성 값(얼굴-길이)에 대한 예시도.
도 8은 본 발명에 따른 얼굴 영상의 계층적 특징 분류 시스템의 얼굴 영상과 표본 영상의 비교를 통해 부여되는 속성 값(얼굴-너비)에 대한 예시도.
도 9는 본 발명의 얼굴 영상의 계층적 특징 분류 시스템에 따라 얼굴 영상과 표본 영상의 비교를 통해 속성 값 부여 과정을 도시한 예시도.
도 10은 본 발명의 얼굴 영상의 계층적 특징 분류 시스템에 따라 수동으로 속성 값을 부여하는 것을 도시한 예시도.
도 11 및 도 12는 본 발명에 따른 얼굴 영상의 계층적 특징 분류 시스템의 얼굴 부위별 속성 분포를 도시한 예시도.
도 13은 본 발명에 따른 얼굴 영상의 계층적 특징 분류 방법을 도시한 순서도.
도 14는 본 발명에 따른 얼굴 영상의 계층적 특징 분류 방법의 제S20단계의 세부과정을 도시한 순서도.
1 is a block diagram showing a hierarchical feature classification system of a face image according to the present invention.
Figure 2 is an exemplary view showing a typical face of the southern and northern shape.
3 is a diagram illustrating a shape model of a face image according to a hierarchical feature classification system of a face image of the present invention.
FIG. 4 is a diagram illustrating a coincidence of a pupil space distance and a center coordinate of a face image and a sample image of a hierarchical feature classification system of a face image according to the present invention, and a coincidence of a face size and a position for each region. FIG.
5A to 5C are exemplary views illustrating a method of calculating attribute values of a hierarchical feature classification system for face images according to the present invention.
FIG. 6 is an exemplary diagram of attribute values (face-face types) given through comparison between a face image and a sample image of the hierarchical feature classification system of the face image according to the present invention. FIG.
FIG. 7 is an exemplary diagram of attribute values (face-lengths) given through comparison between a face image and a sample image of the hierarchical feature classification system of the face image according to the present invention. FIG.
8 is an exemplary diagram of attribute values (face-widths) given through comparison between a face image and a sample image of the hierarchical feature classification system of the face image according to the present invention.
9 is an exemplary diagram illustrating an attribute value assignment process by comparing a face image and a sample image according to the hierarchical feature classification system of the face image of the present invention.
10 is an exemplary diagram illustrating manually assigning an attribute value according to a hierarchical feature classification system of a face image of the present invention.
11 and 12 are exemplary diagrams showing the distribution of attributes for each facial part of the hierarchical feature classification system of the facial image according to the present invention.
13 is a flowchart illustrating a hierarchical feature classification method of a face image according to the present invention.
14 is a flowchart illustrating a detailed process of step S20 of the hierarchical feature classification method of a face image according to the present invention;

본 발명의 구체적인 특징 및 이점들은 첨부도면에 의거한 다음의 상세한 설명으로 더욱 명백해질 것이다. 이에 앞서, 본 명세서 및 청구범위에 사용된 용어나 단어는 발명자가 그 자신의 발명을 가장 최선의 방법으로 설명하기 위해 용어의 개념을 적절하게 정의할 수 있다는 원칙에 입각하여 본 발명의 기술적 사상에 부합하는 의미와 개념으로 해석되어야 할 것이다. 또한, 본 발명에 관련된 공지 기능 및 그 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는, 그 구체적인 설명을 생략하였음에 유의해야 할 것이다.Specific features and advantages of the present invention will become more apparent from the following detailed description based on the accompanying drawings. Prior to this, terms and words used in the present specification and claims are to be interpreted in accordance with the technical idea of the present invention based on the principle that the inventor can properly define the concept of the term in order to explain his invention in the best way. It should be interpreted in terms of meaning and concept. It is to be noted that the detailed description of known functions and constructions related to the present invention is omitted when it is determined that the gist of the present invention may be unnecessarily blurred.

도 1에 도시된 바와 같이 본 발명에 따른 얼굴 영상의 계층적 특징 분류 시스템(S)은, 특징 분류부(100), 속성 부여부(200) 및 분류 통계부(300)를 포함하여 구성된다.As shown in FIG. 1, the hierarchical feature classification system S of the face image according to the present invention includes a feature classifier 100, an attribute assigning unit 200, and a classification statistics unit 300.

먼저, 특징 분류부(100)는 기 설정된 남방형 얼굴 및 북방형 얼굴을 기준으로 목격자에게 제시할 복수개의 얼굴 이미지 각 부위를 분류하고, 분류된 부위 각각을 개별적인 속성으로 분할하여 '특징 분류정보'를 생성한다.First, the feature classifier 100 classifies each of a plurality of face image parts to be presented to the eyewitness based on a preset south face and a north face, and divides each of the classified parts into individual attributes to 'feature classification information'. Create

이때, 도 2에 도시된 바와 같이, 남방형과 북방형의 상반된 얼굴형은 [표 1]과 같이 얼굴윤곽, 두상, 후두부, 두발, 이마, 눈썹, 눈, 광대뼈, 코, 입술, 턱, 및 귀로 기 분류된다.At this time, as shown in Figure 2, the southern and northern faces of the opposite face shape, as shown in Table 1, facial contour, head, back head, hair, forehead, eyebrows, eyes, cheekbones, nose, lips, chin, and Classified by ear.

또한, '특징 분류정보'는 [표 1]과 같이 분류된 기준에 따라 얼굴의 각 부위는 얼굴형, 이마, 눈썹, 눈, 광대뼈, 코, 인중, 입술, 턱, 귀 및 뺨을 포함하는 11개 부위와 49개의 개별적 속성으로 [표 2]와 같이 분류된다.In addition, the 'feature classification information' is characterized in that each part of the face, including the face, forehead, eyebrows, eyes, cheekbones, nose, patience, lips, chin, ears and cheeks according to the criteria classified as shown in [Table 1] Dog sites and 49 individual properties are classified as shown in Table 2.

Figure 112013021500028-pat00001
Figure 112013021500028-pat00001

Figure 112013021500028-pat00002
Figure 112013021500028-pat00002

또한, 속성 부여부(200)는 특징 분류부(100)로부터 인가받은 '특징 분류정보'에 포함된 얼굴 이미지와 데이터베이스에 기 저장된 표본 이미지를 정규화하고, 표본DB(210)에 기 저장된 복수개의 남방형 또는 북방형 얼굴에 대한 표본 이미지들 중 얼굴 이미지와 유사도 연산을 수행하여 가장 가까운 값을 갖는 표본 이미지의 속성 값을 얼굴 이미지의 속성 값으로 부여하여 '특징속성 부여정보'를 생성한다.In addition, the property assigning unit 200 normalizes the face image included in the 'feature classification information' received from the feature classifying unit 100 and the sample images previously stored in the database, and stores a plurality of southern parts previously stored in the sample DB 210. The similarity calculation is performed with the face image among the sample images of the face or the northern face to assign the attribute value of the sample image having the closest value as the attribute value of the face image to generate 'feature attribute grant information'.

이때, 유사도 연산이란, 얼굴 이미지의 특징이 표본이미지의 속성 값 중에 '1.4'에 해당하는 경우, 얼굴 이미지의 속성 값을 '1'로 부여하고, 얼굴 이미지의 특징이 표본 이미지의 속성 값 중에 '1.6'에 해당하는 경우, 얼굴 이미지의 속성 값을 '2'로 부여하는 반올림 연산으로 이해함이 바람직하다.In this case, the similarity calculation means that when the feature of the face image corresponds to '1.4' among the attribute values of the sample image, the attribute value of the face image is given as' 1 ', and the feature of the face image is' If it corresponds to 1.6 ', it is preferable to understand the rounding operation of assigning the attribute value of the face image to' 2 '.

또한, 속성 부여부(200)의 각 속성별 표본 비교는, 도 3에 도시된 바와 같이 얼굴 이미지의 형상모델과 데이터베이스에 기 저장된 표본 이미지를 비교하여 기 설정된 범위 내에서 가장 가까운 표본 이미지에 부여된 속성 값을 얼굴 이미지의 속성 값으로 부여하게 된다.In addition, the sample comparison for each attribute of the attribute assigning unit 200 compares the shape model of the face image with the sample images previously stored in the database, as shown in FIG. 3, and is applied to the sample images closest to each other within the preset range. The attribute value is assigned as the attribute value of the face image.

여기서, 형상모델은 얼굴 이미지 상의 얼굴 각 부분의 위치와 모양을 결정하는 점과, 점과 점을 연결한 선으로 이루어져 있고 얼굴 이미지 상의 얼굴에 대한 모델과 머리모양에 대한 모델로 구성되며, 각 점의 좌표를 이용하여 얼굴 부위의 길이, 너비, 각도 등을 측정하고 각 속성 단계의 표본 이미지와 비교하기 위한 모델이다.Here, the shape model is composed of a point that determines the position and shape of each part of the face image on the face image, a line connecting the dots and points, and consists of a model for the face and the shape of the head on the face image, each point This model measures the length, width, angle, etc. of the face area using the coordinates of and compares it with the sample image of each attribute step.

또한, 정규화란, 각 속성별 표본의 비교를 위해 도 4에 도시된 바와 같이, 얼굴 이미지와 표본 이미지의 동공간 거리와 중점좌표를 일치시키고, 얼굴의 크기와 부위별 위치를 일치시키는 작업이다.In addition, normalization is an operation of matching the pupillary distance between the face image and the sample image and the focal point coordinates, and matching the size of the face and the position of each part, as shown in FIG.

즉, 이렇게 정규화를 하면 각기 다른 거리와 위치에서 촬영된 얼굴 영상들을 거의 일정한 거리와 위치에서 촬영한 얼굴 영상들처럼 조정하는 효과가 있어, 얼굴 영상들을 표본영상들과 비교할 수 있게 된다. 이런 정규화에서 동공간 거리를 이용하는 이유는 이 거리가 개인별 편차가 가장 적기 때문이다.
In other words, the normalization is effective to adjust face images photographed at different distances and positions as face images photographed at almost constant distances and positions, so that face images can be compared with sample images. The reason for using the pupillary distance in this normalization is that this distance has the least individual deviation.

또한, 도 5a 내지 도 5c를 참조하여 얼굴 이미지의 속성 값 부여에 대해 살피면 먼저, 얼굴 이미지를 정규화한 후, 표본DB(210)에 기 저장된 표본 이미지들을 중첩시켜 비교해서 얼굴 이미지의 속성 값을 부여한다.In addition, referring to FIGS. 5A to 5C, when the attribute value of the face image is examined, first, the face image is normalized, and the sample images stored in the sample DB 210 are overlapped and compared to give the attribute value of the face image. do.

이를 위해, 도 5a에 도시된 바와 같이 얼굴형을 정의한다. 이러면 얼굴 이미지와 표본 이미지의 얼굴 형태를 비교하여, 오각형, 역삼각형 또는 계란형 등으로 부여된 표본 이미지의 속성 값들 중에서 얼굴 이미지의 얼굴형에 가장 가까운 속성 값을 부여한다. 얼굴의 길이와 너비, 두상, 이마너비, 미간너비, 눈썹의 두께, 너비, 각도 등은 도 5a에 도시된 바와 같이 각기 정의하여 각각의 표본 이미지들과 얼굴 이미지의 형태를 비교하여 속성 값을 부여하는 방법은 얼굴형과 마찬가지이다. For this purpose, a face shape is defined as shown in FIG. 5A. This compares the face shape of the face image with the sample image, and gives the attribute value closest to the face shape of the face image among the attribute values of the sample image assigned to the pentagon, inverted triangle, or egg shape. The length and width of the face, the head, the width of the width, the width of the width, the width of the eyebrows, the width, and the angle of the face are defined as shown in FIG. 5A, and the attribute values are given by comparing the shape of each sample image and the face image. How to do is the same as the face shape.

또한, 도 5b에 도시된 바와 같이 눈의 크기, 길이, 둥글기, 각도, 눈두덩 너비, 눈 사이 거리, 코의 크기, 길이, 폭, 인중길이 등도 정의한다. 이들의 속성 값을 부여하는 방법도 역시 얼굴형과 동일하다. In addition, as shown in FIG. 5B, eye size, length, roundness, angle, eyelid width, distance between eyes, nose size, length, width, weight length, and the like are also defined. The method of assigning these attribute values is also the same as the face type.

또한, 도 5c에 도시된 바와 같이 입과 턱을 정의하여, 얼굴 이미지와 표본 이미지의 입 크기, 입의 길이, 입의 두께, 입의 각도, 턱의 크기, 턱의 너비, 및 턱의 길이를 비교하여 기 설정된 범위 내에서 각각에 가장 가까운 속성 값을 부여한다.
In addition, the mouth and the jaw are defined as shown in FIG. 5C to determine the mouth size, mouth length, mouth thickness, mouth angle, jaw size, jaw width, and jaw length of the face image and the sample image. By comparison, the property value closest to each is given within the preset range.

구체적으로, 얼굴의 속성 중 "얼굴형"은 얼굴 윤곽의 모양을 나타내는 것으로 남방형의 특징인 오각형의 얼굴과 북방형의 특징인 계란형 얼굴을 각각 속성 값 '1'과 속성 값 '5'로 정의하고, 그 사이 형태의 정도에 따라 '2', '3', '4'로 속성 값으로 정의한다.Specifically, "face" of the face attribute indicates the shape of the contour of the face and defines the pentagonal face, which is a characteristic of the southern shape, and the egg face, which is a characteristic of the northern shape, as the property value '1' and the property value '5', respectively. In the meantime, '2', '3', and '4' are defined as attribute values depending on the degree of form.

즉, 얼굴형 속성 값의 결정 방법은 대상 얼굴 이미지와 각 단계의 표본 이미지에 대해, 얼굴 윤곽과 대응하는 32개점 각각에 대한 좌표 값의 유사도를 도출하고 가장 유사한 단계로 속성 값을 부여하게 된다.In other words, the method for determining the facial feature value derives a similarity between the target face image and the coordinate image for each of 32 points corresponding to the face outline and assigns the attribute value to the most similar step.

따라서, 얼굴 이미지의 얼굴형 속성과 도 6의 표본 이미지의 얼굴형 속성과 대응하는 얼굴윤곽 좌표의 유사도를 측정하여 속성 값 '1' 내지 속성 값 '5' 중 가장 유사한 '5'로 얼굴형의 속성 값이 결정된다.Therefore, by measuring the similarity between the face shape attribute of the face image and the face contour coordinates corresponding to the face shape attribute of the sample image of FIG. 6, the face shape is determined to be the most similar '5' among the attribute values '1' to '5'. The attribute value is determined.

마찬가지로, 얼굴 길이에 대한 속성 값의 결정은, 얼굴 이미지의 얼굴 길이 속성과 도 7에 도시된 표본 이미지의 얼굴 길이 속성과 대응하는 얼굴길이 좌표의 유사도를 측정하여 결정되고, 얼굴 너비에 대한 속성 값의 결정은, 얼굴 이미지의 얼굴 너비 속성과 도 8에 도시된 표본 이미지의 얼굴 너비 속성과 대응하는 얼굴너비 좌표의 유사도를 측정하여 결정된다.Similarly, the determination of the attribute value for the face length is determined by measuring the similarity between the face length attribute of the face image and the face length coordinate corresponding to the face length attribute of the sample image shown in FIG. 7, and the attribute value for the face width. The determination of is determined by measuring the similarity between the face width attribute of the face image and the face width coordinate corresponding to the face width attribute of the sample image shown in FIG.

그밖에 상기 [표 2]에 의해 정의된 속성들도 동일하게 그 값의 결정은, 원본 이미지의 속성과 표본 이미지의 속성 값과 대응하는 좌표의 유사도 측정에 의해 결정된다.In addition, the properties defined by Table 2 are equally determined by measuring the similarity of the coordinates corresponding to the properties of the original image and the properties of the sample image.

아울러, 이마의 돌출과 눈썹의 끊김 정도, 광대뼈의 크기 및 방향과 같이 전문가의 판단이 요구되는 속성의 경우, 전문가가 얼굴 이미지와 표본 이미지를 수동으로 비교하여 얼굴 이미지에 대한 속성 값을 부여할 수 있다.
In addition, for attributes that require expert judgment, such as forehead protrusion, eyebrow break, cheekbone size and orientation, the expert can manually compare the face image with the sample image and assign attribute values to the face image. have.

한편, 도 9는 얼굴 이미지와 표본 이미지를 비교하여 자동으로 얼굴 이미지에 속성 값을 부여한 계산의 예로 얼굴형과 얼굴 길이, 너비 등의 속성 값을 부여하는 화면을 도시한 도면이다.FIG. 9 is a diagram illustrating a screen in which attribute values, such as a face shape, a face length, and a width, are assigned as an example of a calculation in which an attribute value is automatically assigned to a face image by comparing a face image and a sample image.

먼저, 비교대상인 얼굴 이미지를 색인한 이후, 화면 왼쪽에는 속성을 부여하고자 하는 대상인 얼굴 이미지를 배치하고, 오른쪽은 각 속성 값 '1' 내지 '5'와 대응하는 표본 이미지를 배치한다.First, after indexing a face image to be compared, a face image to be assigned an attribute is disposed on the left side of the screen, and a sample image corresponding to each attribute value '1' to '5' is disposed on the right side.

이어서, 표본 이미지를 선택하면 비교대상인 얼굴 이미지의 얼굴 윤곽과 표본 이미지의 얼굴 윤곽이 표시되어 하나하나 비교하면서 대상의 속성 값을 부여할 수 있다.Subsequently, when the sample image is selected, the face contour of the face image to be compared with the face outline of the sample image are displayed, and the attribute value of the object can be given while comparing one by one.

비교 결과 도 9에 도시된 바와 같이, 화면의 맨 왼쪽의 비교대상 얼굴 이미지는, 얼굴형의 속성 값이 '4', 얼굴길이의 속성 값이 '3', 얼굴너비의 속성 값이 '3', 역삼각형 속성 값이 '5', 두상의 속성 값이 '2'로 분류되었음을 보이고 있다.
As a result of the comparison, as shown in FIG. 9, in the comparison image of the face on the far left of the screen, the attribute value of the face type is '4', the attribute value of the face length is '3', and the attribute width value is '3'. In addition, the inverted triangle attribute value is classified as '5', and the two phase attribute value is classified as '2'.

한편, 수동으로 속성 값을 부여하는 예는 도 10에 도시된 바와 같다.Meanwhile, an example of manually assigning an attribute value is as shown in FIG. 10.

도 10의 붉은 사각형은 이마의 속성 중 모양, 돌출의 속성 부여 화면으로 왼쪽의 비교대상 얼굴 이미지와 오른쪽의 표본 이미지를 비교하여 가장 유사한 속성을 선택하면 비교대상 얼굴 이미지의 속성 값으로 결정된다.
The red square in FIG. 10 is a property and projection property screen of the forehead. When the most similar property is selected by comparing the face image on the left side with the sample image on the right side, it is determined as the property value of the face image to be compared.

그리고, 분류 통계부(300)는 속성 부여부(200)로부터 인가받은 '특징속성 부여정보'에 포함된 얼굴 이미지의 속성 값 각각에 대한 통계를 도출하여 '얼굴특징 통계정보'를 생성한다.Then, the classification statistics unit 300 derives statistics for each attribute value of the face image included in the 'characteristic attribute granting information' received from the attribute granting unit 200 and generates 'face characteristic statistical information'.

도 11 및 도 12는 분류 통계부(300)에 의해 생성된 '얼굴특징 통계정보'에 포함된 속성 값들의 분포를 도시한 도면이다. 이때, '얼굴특징 통계정보'에 포함된 속성 값은, 얼굴형, 이마, 눈썹, 눈, 광대뼈, 코, 인중, 입술, 턱, 귀 및 뺨 이외에 추가/변경될 수 있다.11 and 12 illustrate distributions of attribute values included in 'face feature statistical information' generated by the classification statistics unit 300. In this case, the attribute value included in the 'face characteristic statistical information' may be added / modified in addition to the face shape, the forehead, the eyebrows, the eyes, the cheekbones, the nose, the weight, the lips, the chin, the ears, and the cheeks.

이때, 얼굴형의 경우, 속성 값 '4'와 '5'가 69%의 분포를 가지는 것으로 도출되고, 서양배형-역삼각형 얼굴의 경우 속성 값 '3'이 60%의 분포를 가지는 것으로 도출되고, 눈의 크기는 속성 값 '2'가 51%, 속성 값 '3'이 36%의 분포를 가지는 것으로 도출되며, 코와 입의 크기, 길이의 경우, 속성 값 '1' 내지 '3'이 90%의 분포를 가지는 것으로 도출됨을 알 수 있다.At this time, in case of face shape, attribute values '4' and '5' are deduced to have 69% distribution, and in case of Western-inverted triangle face, attribute value '3' is derived to have 60% distribution. The eye size is 51% of the attribute value '2' and 36% of the attribute value '3', and the size of the nose and mouth and the length of the eye are '1' to '3'. It can be seen that it is derived from having a distribution of 90%.

즉, 전술한 바와 같은, 얼굴의 부위 및 속성으로 분류된 '얼굴특징 통계정보'를 바탕으로 용의자 얼굴에 유사할 확률이 높은 얼굴을 목격자에게 제시하여 보다 구체적인 진술을 유도하고 이를 바탕으로 용의자 얼굴에 가장 근접한 얼굴형을 제시할 수 있다.That is, based on the 'face feature statistical information' classified into the face parts and attributes as described above, a face with a high probability of similarity to the suspect's face is presented to the eyewitness to derive a more specific statement and based on the suspect face. The closest face type can be presented.

예를 들면, 얼굴형의 경우, 속성 값 '4'와 '5'가 69%의 높은 분포를 가지기 때문에 용의자의 얼굴은 속성 값 '4'와 '5'일 확률이 69%라고 볼 수 있다. 그래서 속성 값 '4'와 '5'인 얼굴을 목격자에게 확률만큼 많이 제시하고 나머지 속성 값의 얼굴은 적게 제시한다.For example, in the face type, since the attribute values '4' and '5' have a high distribution of 69%, the suspect's face has a 69% probability that the attribute values are '4' and '5'. Therefore, present the faces with attribute values '4' and '5' as many times as possible to the witness and present the faces with the remaining attribute values less.

그런 얼굴 중에서도 서양배형-역삼각형 얼굴의 경우 속성 값 '3'이 60%의 분포를 가지기 때문에 속성 값 '3'인 얼굴을 목격자에게 역시 확률만큼 많이 제시한다. 이렇게 '얼굴특징 통계정보'를 활용하면, 목격자가 용의자의 얼굴 모습을 구체적으로 진술하지 못하더라도 용의자에 가까운 얼굴을 선택할 수 있는 빈도수가 높아진다.Among such faces, the western shape-inverted triangle face has a 60% distribution of the attribute value '3', so the face with the attribute value '3' is also presented to the witness as many times as possible. By using the 'face feature statistical information,' the frequency of selecting a face close to the suspect is increased even if the witness does not specifically state the face of the suspect.

이런 방법을 고안한 이유는 사람들이 상대의 얼굴을 보면 대체로 그 얼굴을 기억하고는 있지만 구체적인 언어로는 표현하지 못하는 약점을 보완할 수 있기 때문이다. 좀 더 구체적으로 말하면 우리는 친한 친구의 얼굴을 확실히 기억하고는 있지만 눈썹이 흐린지 진한지를 잘 모르는 경우가 많아 말로 표현하기를 어려워한다. 그러나 여러 매의 얼굴 사진 중에서 친구 얼굴에 가장 가까운 얼굴을 선택하라고 하면 쉽게 한다.The reason for devising this method is that when people look at their faces, they can usually compensate for the weaknesses that they remember but cannot express in a specific language. More specifically, although we certainly remember the face of a close friend, we often do not know whether the eyebrows are cloudy or dark, so it is difficult to express them in words. However, it's easy to tell the user to choose the face closest to your friend's face from multiple face photos.

이렇게 해서 여러 장의 사진 중에서 용의자에 가까운 얼굴이 선택되면, 그 얼굴의 속성 값에 유사한 여러 사람의 얼굴을 제시하여 용의자의 얼굴에 더욱 더 가까운 얼굴을 선택할 수 있게 된다. 즉, 용의자 얼굴에 가까운 얼굴로 범위를 점점 좁힐 수 있는 것이다. 얼굴 특징을 계층적으로 분류하면 목격자가 말로 진술을 못하더라도 이렇게 얼굴 사진으로 진술을 유도할 수 있고, '얼굴특징 통계정보'를 활용하면 용의자 얼굴에 빠르게 접근할 수 있는 효과가 있다.
In this way, when a face close to the suspect is selected from several pictures, the face of the person similar to the attribute value of the face is presented to select a face closer to the suspect's face. That is, the range closer to the suspect's face can be narrowed down. The hierarchical classification of facial features can lead to a statement with a face photograph even if the eyewitness can't make a statement, and the use of 'face feature statistical information' can provide quick access to the suspect's face.

이하, 도 13을 참조하여 본 발명에 따른 얼굴 영상의 계층적 특징 분류 방법에 대해 살피면 아래와 같다.Hereinafter, the hierarchical feature classification method of the face image according to the present invention will be described with reference to FIG. 13.

먼저, 특징 분류부(100)가 얼굴 이미지 각 부위를 분류하고, 분류된 부위 각각을 개별적인 속성으로 분할하여 '특징 분류정보'를 생성한다(S10).First, the feature classifier 100 classifies each part of the face image and divides the classified parts into individual attributes to generate 'feature classification information' (S10).

이어서, 속성 부여부(200)가 '특징 분류정보'에 포함된 얼굴 이미지와 표본DB(210) 기 저장된 표본 이미지 각각을 비교하여 얼굴 이미지의 부위별로 속성 값을 부여한 '특징속성 부여정보'를 생성한다(S20).Subsequently, the attribute assigning unit 200 compares each of the face images included in the 'feature classification information' and the sample images stored in the sample DB 210 to generate 'feature attribute granting information' for assigning attribute values for each part of the face image. (S20).

그리고, 분류 통계부(300)가 '특징속성 부여정보'에 포함된 얼굴 이미지의 속성 값 각각에 대한 통계를 도출하여 '얼굴특징 통계정보'를 생성한다(S30).
Then, the classification statistics unit 300 derives statistics for each attribute value of the face image included in the 'feature attribute granting information' to generate 'face characteristic statistical information' (S30).

한편, 도 14를 참조하여 본 발명에 따른 얼굴 영상의 계층적 특징 분류 방법의 제S20단계의 세부과정을 살피면 아래와 같다.Meanwhile, referring to FIG. 14, the detailed process of step S20 of the hierarchical feature classification method of the face image according to the present invention will be described as follows.

제S10단계 이후, 속성 부여부(200)가 '특징 분류정보'에 포함된 얼굴 이미지를 정규화한다(S21).After the step S10, the attribute providing unit 200 normalizes the face image included in the 'feature classification information' (S21).

이어서, 속성 부여부(200)가 표본DB(210)에 기 저장된 복수개의 표본 이미지를 색인한다(S22).Subsequently, the attribute provider 200 indexes a plurality of sample images previously stored in the sample DB 210 (S22).

그리고, 속성 부여부(200)가 얼굴 이미지와 유사도 연산을 수행하여 가장 가까운 값을 갖는 표본 이미지의 속성 값을 얼굴 이미지의 속성 값으로 부여한다(S23).Then, the attribute providing unit 200 performs a similarity calculation with the face image to give the attribute value of the sample image having the closest value as the attribute value of the face image (S23).

이상으로 본 발명의 기술적 사상을 예시하기 위한 바람직한 실시예와 관련하여 설명하고 도시하였지만, 본 발명은 이와 같이 도시되고 설명된 그대로의 구성 및 작용에만 국한되는 것이 아니며, 기술적 사상의 범주를 일탈함이 없이 본 발명에 대해 다수의 변경 및 수정이 가능함을 당업자들은 잘 이해할 수 있을 것이다. 따라서 그러한 모든 적절한 변경 및 수정과 균등 물들도 본 발명의 범위에 속하는 것으로 간주되어야 할 것이다.While the present invention has been particularly shown and described with reference to preferred embodiments thereof, it will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. It will be appreciated by those skilled in the art that numerous changes and modifications may be made without departing from the invention. And all such modifications and changes as fall within the scope of the present invention are therefore to be regarded as being within the scope of the present invention.

S: 얼굴 영상의 계층적 특징 분류 시스템
100: 특징 분류부 200: 속성 부여부
210: 표본DB 300: 분류 통계부
S: Hierarchical Feature Classification System for Face Images
100: feature classifier 200: attribute assigning unit
210: sample DB 300: classification statistics

Claims (7)

얼굴 영상의 계층적 특징 분류 시스템에 있어서,
목격자에게 제시할 복수개의 얼굴 이미지 각 부위를 분류하고, 분류된 부위 각각을 개별적인 속성으로 분할하여 '특징 분류정보'를 생성하는 특징 분류부(100);
상기 '특징 분류정보'에 포함된 얼굴 이미지와 데이터베이스에 기 저장된 표본 이미지를 정규화하고, 표본DB(210)에 기 저장된 복수개의 남방형 또는 북방형 얼굴에 대한 표본 이미지들 중 얼굴 이미지와 유사도 연산을 수행하여 가장 가까운 값을 갖는 표본 이미지의 속성 값을 얼굴 이미지의 속성 값으로 부여하여 '특징속성 부여정보'를 생성하는 속성 부여부(200); 및
상기 '특징속성 부여정보'에 포함된 얼굴 이미지의 속성 값 각각에 대한 통계를 도출하여 '얼굴특징 통계정보'를 생성하는 분류 통계부(300);를 포함하는 것을 특징으로 하는 얼굴 영상의 계층적 특징 분류 시스템.
In the hierarchical feature classification system of face images,
A feature classification unit 100 for classifying each part of the plurality of face images to be presented to the witness, and dividing each of the classified parts into individual attributes to generate 'feature classification information';
Normalize the face image included in the 'feature classification information' and the sample image previously stored in the database, and perform a similarity calculation with the face image among the sample images of the plurality of southern or northern faces previously stored in the sample DB 210. An attribute assigning unit 200 generating 'feature attribute granting information' by assigning an attribute value of a sample image having a closest value as an attribute value of a face image; And
Hierarchical statistics of the face image, comprising: a classification statistic unit 300 which derives statistics for each attribute value of the face image included in the 'feature attribute granting information' and generates 'face feature statistical information'. Feature classification system.
제 1 항에 있어서,
상기 특징 분류부(100)는,
기 설정된 남방형 얼굴 및 북방형 얼굴을 기준으로 상기 얼굴 이미지를 분류하되,
얼굴을 얼굴윤곽, 두상, 후두부, 두발, 이마, 눈썹, 눈, 광대뼈, 코, 입술, 턱, 및 귀를 포함하는 부위로 분류하는 것을 특징으로 하는 얼굴 영상의 계층적 특징 분류 시스템.
The method according to claim 1,
The feature classification unit 100,
The face image is classified based on a preset southern face and a northern face,
A hierarchical feature classification system for facial images, characterized by classifying faces into areas including facial contours, heads, larynxes, hair, foreheads, eyebrows, eyes, cheekbones, nose, lips, chin, and ears.
제 1 항에 있어서,
상기 속성 부여부(200)는,
각 속성별로 얼굴 영상과 표본 영상을 비교하되,
형상모델화한 얼굴 이미지와 표본DB(210)에 기 저장된 표본 이미지를 중첩시켜 기 설정된 범위 내에서 가장 가까운 표본 이미지에 부여된 속성 값을 얼굴 이미지의 속성 값으로 부여하는 것을 특징으로 하는 얼굴 영상의 계층적 특징 분류 시스템.
The method according to claim 1,
The attribute granting unit 200,
Compare facial images and sample images for each property,
A hierarchical layer of a face image, characterized by superimposing a sample image stored in the shape-modeled face image and a sample DB 210 and assigning the attribute value given to the closest sample image within a preset range as the attribute value of the face image. Feature classification system.
제 3 항에 있어서,
상기 형상모델화한 얼굴 영상은,
상기 얼굴 이미지에 포함된 얼굴 각 부분의 위치와 모양을 결정하는 점과, 점과 점을 연결한 선으로 구성되고, 상기 얼굴 이미지에 포함된 얼굴에 대한 모델과 머리모양에 대한 모델로 구성되며, 각 점의 좌표를 이용하여 얼굴 부위의 길이, 너비, 각도 등을 측정하고 각 속성 단계의 표본 영상과 비교하기 위한 모델인 것을 특징으로 하는 얼굴 영상의 계층적 특징 분류 시스템.
The method of claim 3, wherein
The shape image modeled facial image,
Comprising a point for determining the position and shape of each part of the face image included in the face image, and a line connecting the dots, the model is composed of a model for the face and the shape of the head included in the face image, A hierarchical feature classification system for facial images, characterized in that it is a model for measuring the length, width, angle, etc. of the face area using the coordinates of each point and comparing the sample image with each property level.
제 1 항에 있어서,
상기 정규화는,
각 속성별 표본의 비교를 위해 상기 얼굴 이미지와 표본 이미지의 동공간 거리와 중점좌표를 일치시키고, 얼굴의 크기와 부위별 위치를 일치시키는 것임을 특징으로 하는 얼굴 영상의 계층적 특징 분류 시스템.
The method according to claim 1,
The normalization may include:
Hierarchical feature classification system for facial images, characterized in that the pupil space distance and the focal point coordinates of the face image and the sample image are matched for comparison of the samples for each property, and the size and location of the face are matched.
얼굴 영상의 계층적 특징 분류 방법에 있어서,
(a) 특징 분류부(100)가 얼굴 이미지 각 부위를 분류하고, 분류된 부위 각각을 개별적인 속성으로 분할하여 '특징 분류정보'를 생성하는 단계;
(b) 속성 부여부(200)가 '특징 분류정보'에 포함된 얼굴 이미지와 표본DB(210) 기 저장된 표본 이미지 각각을 비교하여 얼굴 이미지의 부위별로 속성 값을 부여한 '특징속성 부여정보'를 생성하는 단계; 및
(c) 분류 통계부(300)가 '특징속성 부여정보'에 포함된 얼굴 이미지의 속성 값 각각에 대한 통계를 도출하여 '얼굴특징 통계정보'를 생성하는 단계;를 포함하는 것을 특징으로 하는 얼굴 영상의 계층적 특징 분류 방법.
In the hierarchical feature classification method of the face image,
(a) the feature classifying unit 100 classifying each part of the face image and dividing each of the classified parts into individual attributes to generate 'feature classification information';
(b) The attribute assigning unit 200 compares each of the face images included in the 'feature classification information' with the sample images stored in the sample DB 210 to provide 'feature attribute granting information' for assigning attribute values for each part of the face image. Generating; And
and (c) generating, by the classification statistics unit 300, 'face characteristic statistical information' by deriving statistics on each of attribute values of the face image included in the 'characteristic attribute granting information'. Hierarchical feature classification of images.
제 6 항에 있어서,
상기 (b) 단계는,
(b-1) 속성 부여부(200)가 '특징 분류정보'에 포함된 얼굴 이미지를 정규화하는 단계;
(b-2) 속성 부여부(200)가 표본DB(210)에 기 저장된 복수개의 표본 이미지를 색인하는 단계; 및
(b-3) 속성 부여부(200)가 얼굴 이미지와 유사도 연산을 수행하여 가장 가까운 값을 갖는 표본 이미지의 속성 값을 얼굴 이미지의 속성 값으로 부여하는 단계;를 포함하는 것을 특징으로 하는 얼굴 영상의 계층적 특징 분류 방법.
The method according to claim 6,
The step (b)
(b-1) the attribute assigning unit 200 normalizing the face image included in the 'feature classification information';
(b-2) indexing, by the attribute provider 200, a plurality of sample images previously stored in the sample DB 210; And
(b-3) performing the similarity calculation to the face image by the attribute providing unit 200 to assign the attribute value of the sample image having the closest value as the attribute value of the face image; Hierarchical Feature Classification Method.
KR1020130026293A 2013-03-12 2013-03-12 System for classifying hierarchical facial feature and method therefor KR101382172B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130026293A KR101382172B1 (en) 2013-03-12 2013-03-12 System for classifying hierarchical facial feature and method therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130026293A KR101382172B1 (en) 2013-03-12 2013-03-12 System for classifying hierarchical facial feature and method therefor

Publications (1)

Publication Number Publication Date
KR101382172B1 true KR101382172B1 (en) 2014-04-10

Family

ID=50656794

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130026293A KR101382172B1 (en) 2013-03-12 2013-03-12 System for classifying hierarchical facial feature and method therefor

Country Status (1)

Country Link
KR (1) KR101382172B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160059768A (en) * 2014-11-19 2016-05-27 삼성전자주식회사 Method and apparatus for extracting face feature, method and apparatus for recognizing face
WO2019090769A1 (en) * 2017-11-13 2019-05-16 深圳和而泰智能控制股份有限公司 Human face shape recognition method and apparatus, and intelligent terminal

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020007744A (en) * 2000-07-18 2002-01-29 최창석 Modeling method of future children and future facial shapes
JP2004258764A (en) 2003-02-24 2004-09-16 Nec Corp System and apparatus for personal information management
KR20060079060A (en) * 2004-12-30 2006-07-05 삼성전자주식회사 Method and apparatus for detecting classifier having texture information of face, method and apparatus for recognizing face using statistical character of the texture information
KR101198322B1 (en) 2011-09-23 2012-11-06 (주) 어펙트로닉스 Method and system for recognizing facial expressions

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020007744A (en) * 2000-07-18 2002-01-29 최창석 Modeling method of future children and future facial shapes
JP2004258764A (en) 2003-02-24 2004-09-16 Nec Corp System and apparatus for personal information management
KR20060079060A (en) * 2004-12-30 2006-07-05 삼성전자주식회사 Method and apparatus for detecting classifier having texture information of face, method and apparatus for recognizing face using statistical character of the texture information
KR101198322B1 (en) 2011-09-23 2012-11-06 (주) 어펙트로닉스 Method and system for recognizing facial expressions

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160059768A (en) * 2014-11-19 2016-05-27 삼성전자주식회사 Method and apparatus for extracting face feature, method and apparatus for recognizing face
KR102357326B1 (en) * 2014-11-19 2022-01-28 삼성전자주식회사 Method and apparatus for extracting face feature, method and apparatus for recognizing face
WO2019090769A1 (en) * 2017-11-13 2019-05-16 深圳和而泰智能控制股份有限公司 Human face shape recognition method and apparatus, and intelligent terminal

Similar Documents

Publication Publication Date Title
US11380119B2 (en) Pose-aligned networks for deep attribute modeling
US10049262B2 (en) Method and system for extracting characteristic of three-dimensional face image
US11403874B2 (en) Virtual avatar generation method and apparatus for generating virtual avatar including user selected face property, and storage medium
Asadifard et al. Automatic adaptive center of pupil detection using face detection and cdf analysis
WO2017107957A1 (en) Human face image retrieval method and apparatus
Jana et al. Age estimation from face image using wrinkle features
US8571332B2 (en) Methods, systems, and media for automatically classifying face images
US20170169501A1 (en) Method and system for evaluating fitness between wearer and eyeglasses
US9990538B2 (en) Face recognition apparatus and method using physiognomic feature information
US20220148333A1 (en) Method and system for estimating eye-related geometric parameters of a user
TW201137768A (en) Face recognition apparatus and methods
US11804071B2 (en) Method for selecting images in video of faces in the wild
CN109952594A (en) Image processing method, device, terminal and storage medium
JP6351243B2 (en) Image processing apparatus and image processing method
US20190325256A1 (en) Tracking a head of a subject
KR101089847B1 (en) Keypoint matching system and method using SIFT algorithm for the face recognition
US20220075983A1 (en) Image processing method, image processing device, and non-transitory computer readable storage medium
KR101382172B1 (en) System for classifying hierarchical facial feature and method therefor
CN104156689B (en) Method and device for positioning feature information of target object
CN112270747A (en) Face recognition method and device and electronic equipment
CN113436735A (en) Body weight index prediction method, device and storage medium based on face structure measurement
US20140111431A1 (en) Optimizing photos
CN111428553B (en) Face pigment spot recognition method and device, computer equipment and storage medium
Berueco et al. Age Estimation Using Support Vector Machine–Sequential Minimal Optimization
WO2020135286A1 (en) Shaping simulation method and system, readable storage medium and device

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20170328

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20180327

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20190326

Year of fee payment: 6