KR20040085503A - Apparatus and method for reconstructing facial image - Google Patents

Apparatus and method for reconstructing facial image Download PDF

Info

Publication number
KR20040085503A
KR20040085503A KR1020030020200A KR20030020200A KR20040085503A KR 20040085503 A KR20040085503 A KR 20040085503A KR 1020030020200 A KR1020030020200 A KR 1020030020200A KR 20030020200 A KR20030020200 A KR 20030020200A KR 20040085503 A KR20040085503 A KR 20040085503A
Authority
KR
South Korea
Prior art keywords
information
texture
shape
face image
eigenvector
Prior art date
Application number
KR1020030020200A
Other languages
Korean (ko)
Inventor
황본우
이성환
Original Assignee
이성환
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이성환 filed Critical 이성환
Priority to KR1020030020200A priority Critical patent/KR20040085503A/en
Publication of KR20040085503A publication Critical patent/KR20040085503A/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/20Processor architectures; Processor configuration, e.g. pipelining
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE: A face image recovery apparatus and a method therefor are provided to recover a damaged face image or a face image with low resolution as the entire face image with an original state or a face image with high resolution through a simplified calculation process. CONSTITUTION: A damage region detecting unit(120) detects damage region information from a certain face image. A shape/texture information extracting unit(130) recognizes a non-damage region in an input face image on the basis of damage region information received from the damage region detecting unit. The shape/texture information extracting unit extracts shape information of an input face image displayed as a deformation field with respect to a certain reference face image, and extracts texture information of an input face image mapped to the reference face image from an input face image with respect to the non-damage region. An entire face image recovering unit(140) extracts shape information and text information corresponding to shape information and texture information of the non-damage region on the basis of a plurality of shape eigen-vectors and texture eigen-vectors, and calculates a shape eigen-vector factor and a texture eigen-vector factor through linear projection operation with shape information and texture information of the non-damage region. The entire face image recovering unit linearly overlaps the shape eigen-vector factor and the texture eigen-vector factor with the shape eigen-vector and the texture eigen-vector, and recovers shape information and texture information with respect to the entire face image. A face image generating unit(160) synthesizes shape information and texture information with respect to the entire face image received through the entire face image recovering unit, and generates a face image.

Description

얼굴영상 복원장치 및 방법{Apparatus and method for reconstructing facial image}Apparatus and method for reconstructing facial image}

본 발명은 얼굴영상 복원장치 및 방법에 관한 것으로서, 보다 상세하게는 소정 수단(예컨대, 선글라스, 마스크, 안경 등)에 의해 얼굴의 일부가 가려진 상태에서 촬영된 얼굴영상(즉, 손상된 얼굴영상)을 원래 상태(즉, 소정 수단에 의해 얼굴이 가려지지 않은 상태)의 얼굴영상으로 복원하고, 또한, 저해상도로 촬영된 얼굴영상을 고해상도의 얼굴영상으로 복원하는 얼굴영상 복원장치 및 방법에 관한 것이다.The present invention relates to an apparatus and method for restoring a face image, and more particularly, to a face image (ie, a damaged face image) photographed in a state where a part of the face is covered by a predetermined means (eg, sunglasses, mask, glasses, etc.). The present invention relates to a face image restoring apparatus and method for restoring a face image in an original state (that is, a state in which a face is not covered by a predetermined means) and restoring a face image photographed at a low resolution to a high resolution face image.

최근 들어, 타인의 현금카드 또는 신용카드를 불법적인 방법으로 입수하거나 복제하여 은행의 현금자동지급기(ATM)를 통해 현금을 인출하는 범죄가 증가하고 있다. 또한, 복면을 한 강도들이 은행에 들어가 현금을 강탈하는 사건이 자주 발생하고 있다. 이러한 범죄행위를 줄이고자 각 은행들은 보안장치(예컨대, CCTV 등)를 설치하여 이를 통해 은행 또는 현금자동지급기를 찾는 사람들의 얼굴을 촬영하여 촬영된 얼굴영상을 별도의 데이터베이스를 통해 관리하고 있다. 그리고, 현금강탈사건 발생시 촬영된 얼굴영상을 활용함으로써 범인 검거율을 높이고 있다. 하지만, 원거리에서 촬영된 얼굴영상이나 또는 선글라스, 마스크, 모자 등과 같은 수단에 의해 얼굴의 일부가 가려져서 촬영된 얼굴영상(이하, 손상된 얼굴영상이라 함)들은 범인 검거에 효과적으로 활용할 수 없다는 단점이 있다.In recent years, the number of criminals who obtain or copy another person's cash card or credit card in an illegal manner and withdraw cash through ATMs of banks is increasing. In addition, masked robbers often enter the banks and rob their cash. In order to reduce such criminal activity, each bank installs a security device (for example, CCTV) and manages the face images taken by a separate database by photographing the faces of people who are looking for a bank or an ATM. In addition, the criminal arrest rate is being increased by utilizing facial images taken when a cash extortion incident occurs. However, face images photographed from a long distance or part of the face is blocked by means such as sunglasses, masks, hats, etc. (hereinafter referred to as damaged face images) have a disadvantage in that they cannot be effectively used for criminal arrest.

이와 같은 단점을 해결하기 위해, 선글라스, 마스크, 모자 등에 의해 얼굴의 일부가 가려진 손상된 얼굴영상으로부터 전체얼굴영상을 복원하거나 또는 원거리에서 촬영된 저해상도의 얼굴영상을 고해상도의 얼굴영상으로 복원하는 기술이 이용되고 있다.In order to solve the above disadvantages, a technique of restoring the entire face image from a damaged face image in which part of the face is covered by sunglasses, a mask, a hat, or the like, or restoring a low resolution face image captured at a distance to a high resolution face image is used. It is becoming.

종래의 손상된 얼굴영상으로부터 전체얼굴영상을 복원하는 기술로는 주로 단순 영상 처리용 소프트웨어를 이용하여 수작업 형태로 전체얼굴영상을 복원하는 기술, 또는 눈, 코, 입 등의 얼굴구성요소 라이브러리를 이용하여 손상된 얼굴영역을 복원하는 기술 등이 이용되고 있다. 이 경우, 작업자의 경험이나 숙련도에 의해 복원 영상의 품질이 좌우되므로, 복원 영상의 품질에 대한 정확도가 떨어지며, 또한, 영상 복원 작업의 분업화 등이 불가능하다는 단점이 있다.Conventionally, a technique for restoring an entire face image from a damaged face image is mainly used for restoring the entire face image by hand using simple image processing software, or by using a library of face components such as eyes, nose, and mouth. Techniques for restoring damaged face areas have been used. In this case, since the quality of the restored image is determined by the experience or skill of the operator, the accuracy of the restored image is inferior, and further, the division of the image restoration work is impossible.

또한, 통계적인 기울기 과정(Stochastic gradient procedure)의 반복을 이용하여 손상된 얼굴영상을 복원하는 기술도 있다. 이 경우, 반복과정에 의해 속도가 느리며, 복원을 위해 임의로 선택된 점들 중에서 원래의 얼굴영상과의 에러 값이 큰 일정 수의 점을 매 반복적인 복원과정에서 제외해야 하므로 정확한 복원이 어려운 단점이 있다.There is also a technique for reconstructing a damaged face image by repeating a statistical gradient procedure. In this case, the speed is slow by the iterative process, and since a certain number of points having an error value with the original face image among the randomly selected points for restoring must be excluded in every iterative restoration, accurate restoration is difficult.

또한, 본 출원인에 의해 선출원된 '적은 수의 특징점을 이용한 얼굴영상압축과 손상된 얼굴영상의 복원방법 및 장치'(국내특허출원 제2000-0029845호)에는 손상된 얼굴영상을 복원하는 방법이 개시되어 있다. 그러나, 전술한 손상된 얼굴영상 복원방법은 얼굴 영상 압축에 보다 적합한 기술로서, 주성분 분석에 사용된 고유벡터의 수보다 복원된 특징점의 수가 적어야 하기 때문에 복원의 정확도가 제한되고, SVD(Singular Value Decomposition)에 의한 유사역행렬을 구하는데 많은 계산량이 요구되는 단점이 있다.In addition, a method for restoring a damaged facial image is disclosed in 'Face Image Compression and Restoration of Damaged Facial Image Using a Small Number of Feature Points', filed by the applicant (Domestic Application No. 2000-0029845). . However, the above-described damaged face image restoration method is a more suitable technique for face image compression, and the accuracy of restoration is limited because the number of restored feature points must be smaller than the number of eigenvectors used for principal component analysis, and the SVD (Singular Value Decomposition) There is a disadvantage in that a large amount of computation is required to find the pseudo inverse matrix.

한편, 고해상도 얼굴영상을 복원하는 기술로는 여러 개의 저해상도 얼굴영상을 가지고 고해상도 얼굴영상을 복원하는 기술이 연구되고 있다. 이 경우에는 반드시 두 개 이상의 얼굴영상이 필요하고, 하나의 얼굴영상만으로는 고해상도의 얼굴영상 복원이 불가능하다는 단점이 있다. 또한, 일정 수준 이상의 고해상도 얼굴영상을 복원할 경우에는 많은 수의 다른 시점에서 촬영된 얼굴영상이 필요한 단점도 있다.Meanwhile, as a technique for restoring a high resolution face image, a technique for restoring a high resolution face image with a plurality of low resolution face images has been studied. In this case, two or more face images are required, and only one face image has a disadvantage in that it is impossible to restore a high resolution face image. In addition, when restoring a high resolution face image of a predetermined level or more, there is a disadvantage in that face images photographed at a large number of different viewpoints are required.

또한, 일반적인 영상 처리에 사용되는 고전적인 단순 보간 기법을 이용하여 하나의 얼굴영상만을 가지고 고해상도 얼굴영상을 얻는 방법도 있으나, 해당 단순 보간 기법을 통해 얻어진 얼굴영상은 품질이 매우 떨어지는 단점이 있다.In addition, there is a method of obtaining a high resolution face image using only one face image by using a classic simple interpolation technique used for general image processing, but the face image obtained through the simple interpolation technique has a disadvantage in that the quality is very poor.

본 발명은 상기한 바와 같은 종래의 제반 문제점을 해결하기 위해 안출된 것으로서, 소정 수단에 의해 얼굴의 일부가 가려진 상태에서 촬영된 얼굴영상 및 저해상도로 촬영된 얼굴영상을 보다 간소화된 계산과정을 통해 원래 상태의 전체얼굴영상 및 고해상도의 얼굴영상으로 복원할 수 있도록 한 얼굴영상 복원장치 및 방법을 제공하는데 그 목적이 있다.The present invention has been made to solve the conventional problems as described above, the face image taken in a state in which a part of the face is covered by a predetermined means and the face image taken in a low resolution through a simplified calculation process It is an object of the present invention to provide a face image restoration apparatus and method for restoring a full face image and a high resolution face image in a state.

도 1은 본 발명의 실시예에 따른 얼굴영상 복원장치에 대한 개략적인 구성도,1 is a schematic configuration diagram of a face image restoration apparatus according to an embodiment of the present invention;

도 2는 본 발명의 일 실시예에 따른 얼굴영상 복원방법에 대한 처리 흐름도,2 is a flowchart illustrating a method of restoring a face image according to an embodiment of the present invention;

도 3a는 본 발명의 일 실시예에 따른 전체얼굴영상에 대한 형태정보 및 질감정보 복원과정에 대한 처리 흐름도,3A is a flowchart illustrating a shape information and texture information restoration process for an entire face image according to an embodiment of the present invention;

도 3b는 본 발명의 일 실시예에 따른 고해상도 얼굴영상에 대한 형태정보 및 질감정보 복원과정에 대한 처리 흐름도,3B is a flowchart illustrating a process of restoring shape information and texture information for a high resolution face image according to an embodiment of the present invention;

도 4는 본 발명의 다른 실시예에 따른 얼굴영상 복원방법에 대한 처리 흐름도,4 is a flowchart illustrating a method of restoring a face image according to another embodiment of the present invention;

도 5는 본 발명의 다른 실시예에 따른 고해상도의 전체얼굴영상에 대한 형태정보 및 질감정보 복원과정에 대한 처리 흐름도,5 is a flowchart illustrating a process of restoring shape information and texture information for a high resolution full face image according to another embodiment of the present invention;

도 6은 본 발명의 실시예에 따른 얼굴영상 복원장치를 이용한 얼굴인식시스템에 대한 개략적인 구성을 나타낸 제1예시도,6 is a first exemplary view showing a schematic configuration of a face recognition system using a face image restoration apparatus according to an embodiment of the present invention;

도 7은 본 발명의 실시예에 따른 얼굴영상 복원장치를 이용한 얼굴인식시스템에 대한 개략적인 구성을 나타낸 제2예시도이다.7 is a second exemplary view showing a schematic configuration of a face recognition system using a face image restoration apparatus according to an embodiment of the present invention.

*도면의 주요부분에 대한 부호의 설명** Description of the symbols for the main parts of the drawings *

100 : 얼굴영상 복원장치 110 : 얼굴영상 입력부100: face image restoration device 110: face image input unit

120 : 손상영역 검출부 130 : 형태/질감정보 추출부120: damaged area detection unit 130: shape / texture information extraction unit

140 : 전체얼굴영상 복원부 150 : 고해상도 얼굴영상 복원부140: full face image restoration unit 150: high resolution face image restoration unit

160 : 얼굴영상 생성부 170 : 얼굴모형정보 DB160: face image generation unit 170: face model information DB

상기 목적을 달성하기 위한 본 발명에 따른 얼굴영상 복원장치는 소정의 얼굴영상에서 손상영역정보를 도출하는 손상영역 검출부; 손상영역 검출부로부터 전달받은 손상영역정보에 의거하여 입력얼굴영상에서 미손상 영역을 인식하고, 그 미손상 영역에 대한 입력얼굴영상에서 소정의 참조얼굴영상에 대한 변형장으로 표시되는 입력얼굴영상의 형태정보와 상기 참조얼굴영상에 매핑된 입력얼굴영상의 질감정보를 추출하는 형태/질감정보 추출부; 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 상기 미손상 영역의 형태정보 및 질감정보에 대응되는 형태정보 및 질감정보만을 추출하여, 미손상 영역의 형태정보 및 질감정보와 각각 선형 투사 연산을 통해 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출하고, 산출된 형태 고유벡터 계수 및 질감 고유벡터 계수를 형태 고유벡터 및 질감 고유벡터와 각각 선형 중첩함으로써 전체얼굴영상에 대한 형태정보 및 질감정보를 복원하는 전체얼굴영상 복원부; 및 상기 전체얼굴영상 복원부를 통해 전달받은 전체얼굴영상에 대한 형태정보와 질감정보를 합성하여 얼굴영상을 생성하는 얼굴영상 생성부를 포함하여 구성되는데 그 특징이 있다.According to an aspect of the present invention, there is provided an apparatus for recovering a face image, including: a damaged area detector for deriving damaged area information from a predetermined face image; A type of input face image that is recognized as an intact area in the input face image based on the damaged area information received from the damaged area detection unit, and is displayed as a deformation field for a predetermined reference face image in the input face image for the intact area. A shape / texture information extracting unit for extracting information and texture information of an input face image mapped to the reference face image; Based on a plurality of shape eigenvectors and texture eigenvectors provided, only shape information and texture information corresponding to the shape information and texture information of the intact area are extracted, and linear and projection of the shape information and texture information of the intact area, respectively. Calculation of shape eigenvector coefficients and texture eigenvector coefficients through calculation, and by linearly overlapping the calculated eigenvector coefficients and texture eigenvector coefficients with shape eigenvectors and texture eigenvectors, respectively, shape information and texture information of the entire face image A full face image restorer to restore the image; And a face image generator for generating a face image by synthesizing the shape information and the texture information of the entire face image received through the full face image restoration unit.

한편, 상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 얼굴영상 복원방법은 (a) 소정의 얼굴영상에서 손상영역정보를 도출하는 단계; (b) (a)단계에서 도출된 손상영역정보를 입력받아, 입력된 손상영역정보에 의거하여 입력얼굴영상에서 미손상 영역을 인식한 후, 그 미손상 영역에 대한 입력얼굴영상에서 소정의참조얼굴영상에 대한 변형장으로 표시되는 입력얼굴영상의 형태정보와 상기 참조얼굴영상에 매핑된 입력얼굴영상의 질감정보를 추출하는 단계; (c) 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 상기 미손상 영역의 형태정보 및 질감정보에 대응되는 형태정보 및 질감정보만을 추출한 후, 추출된 형태정보 및 질감정보를 미손상 영역의 형태정보 및 질감정보에 일치시키기 위한 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출하고, 산출된 형태 고유벡터 계수 및 질감 고유벡터 계수를 형태 고유벡터 및 질감 고유벡터와 각각 선형 중첩함으로써 전체얼굴영상에 대한 형태정보 및 질감정보를 복원하는 단계; (d) (b)단계에서 추출된 미손상 영역의 형태정보 및 질감정보를 입력받거나 또는 (c)단계에서 복원된 전체얼굴영상의 형태정보 및 질감정보를 입력받아, 입력된 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이상인지 여부를 판단하는 단계; (e) 상기 입력된 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이하인 것으로 판단되면, 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 상기 입력된 형태정보 및 질감정보에 대응되는 저해상도 형태정보 및 질감정보만을 추출한 후, 추출된 저해상도 형태정보 및 질감정보를 입력된 형태정보 및 질감정보에 일치시키기 위한 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출하는 단계; (f) 상기 산출된 형태 고유벡터 계수 및 질감 고유벡터 계수를 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 도출시킨 고해상도 형태정보 및 질감정보만으로 이루어진 고해상도 형태 고유벡터 및 질감 고유벡터와 각각 선형 중첩함으로써 고해상도 얼굴영상에 대한 형태정보 및 질감정보를 복원하는 단계; 및 (g) (f)단계에서 복원된 고해상도 얼굴영상에 대한 형태정보 및 질감정보를 입력받아, 입력된 형태정보와 질감정보를 합성함으로써 고해상도의 전체얼굴영상에 대응되는 얼굴영상을 생성하는 단계를 포함하여 이루어지는데 그 특징이 있다.On the other hand, face image restoration method according to an embodiment of the present invention for achieving the above object comprises the steps of (a) deriving the damage area information from a predetermined face image; (b) receiving the damaged area information derived in step (a), recognizing the intact area in the input face image based on the input damaged area information, and then referring to a predetermined reference in the input face image for the intact area. Extracting shape information of an input face image displayed as a deformation field for a face image and texture information of the input face image mapped to the reference face image; (c) After extracting only the shape information and texture information corresponding to the shape information and texture information of the undamaged region based on a plurality of shape unique vectors and texture eigenvectors, the extracted shape information and texture information are intact. Compute shape eigenvector coefficients and texture eigenvector coefficients to match the shape information and texture information of the area, and linearly overlap the calculated shape eigenvector and texture eigenvector coefficients with shape eigenvectors and texture eigenvectors respectively. Restoring shape information and texture information of the image; (d) the shape information and texture information of the undamaged region extracted in step (b) or the shape information and texture information of the entire face image restored in step (c) are received, Determining whether the resolution is equal to or greater than the preset reference resolution; (e) if it is determined that the resolution of the inputted shape information and texture information is less than or equal to a preset reference resolution, a low resolution corresponding to the inputted shape information and texture information based on a plurality of preformed shape intrinsic vectors and texture inherent vectors; Extracting only shape information and texture information, and calculating shape eigenvector coefficients and texture eigenvector coefficients for matching the extracted low resolution shape information and texture information with the input shape information and texture information; (f) a high resolution shape eigenvector and texture eigenvector consisting of only high resolution shape information and texture information derived based on the calculated shape eigenvector coefficients and texture eigenvector coefficients; Restoring shape information and texture information of the high-resolution face image by linearly overlapping each other; And (g) receiving shape information and texture information of the reconstructed high resolution face image in step (f), and synthesizing the input shape information and texture information to generate a face image corresponding to the high resolution full face image. It is composed of the features.

또한, 상기 목적을 달성하기 위한 본 발명의 다른 실시예에 따른 얼굴영상 복원방법은 (a) 소정 영역이 손상된 저해상도 얼굴영상에서 손상 영역을 검출하는 단계; (b) (a)단계에서 검출된 손상 영역에 의거하여 입력얼굴영상에서 미손상 영역을 인식하고, 그 미손상 영역에 대한 저해상도 입력얼굴영상에서 소정의 저해상도 참조얼굴영상에 대한 변형장으로 표시되는 입력얼굴영상의 형태정보와 상기 저해상도 참조얼굴영상에 매핑된 입력얼굴영상의 질감정보를 추출하는 단계; (c) (b)단계에서 추출된 미손상 영역에 대한 저해상도 입력얼굴영상의 형태정보 및 질감정보를 입력받아, 입력된 형태정보 및 질감정보에 대응되는 저해상도 형태정보 및 질감정보만으로 이루어진 저해상도 형태 고유벡터 및 질감 고유벡터를 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 도출하는 단계; (d) 상기 도출된 저해상도 형태 고유벡터 및 질감 고유벡터를 입력된 형태정보 및 질감정보에 일치시키기 위한 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출한 후, 상기 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 도출시킨 고해상도 형태정보 및 질감정보만으로 이루어진 고해상도 형태 고유벡터 및 고해상도 질감 고유벡터와 각각 선형 중첩함으로써 고해상도의 전체얼굴영상에 대한 형태정보 및 질감정보를 복원하는 단계; 및 (e) (d)단계에서 복원된 고해상도의 전체얼굴영상에 대한 형태정보와 질감정보를 합성함으로써 얼굴영상을 생성하는 단계를 포함하여 이루어지는데그 특징이 있다.In addition, the facial image restoration method according to another embodiment of the present invention for achieving the above object comprises the steps of: (a) detecting a damaged area in a low-resolution face image damaged a predetermined area; (b) Recognizing an undamaged region in the input face image based on the damaged region detected in step (a), and displaying a deformation length for a predetermined low resolution reference face image in the low resolution input face image for the intact region Extracting shape information of an input face image and texture information of an input face image mapped to the low resolution reference face image; (c) Receive the shape information and texture information of the low resolution input face image extracted in the step (b), the unique low resolution shape consisting of only the low resolution shape information and texture information corresponding to the input shape information and texture information Deriving a vector and a texture eigenvector based on a plurality of shape eigenvectors and a texture eigenvector; (d) calculating the shape eigenvector coefficients and texture eigenvector coefficients for matching the derived low resolution shape eigenvectors and texture eigenvectors with the inputted shape information and texture information, and then calculating the plurality of shape eigenvectors and texture eigenvectors. Restoring the shape information and the texture information of the high resolution full face image by linearly overlapping the high resolution shape eigenvector and the high resolution texture eigenvector composed of only the high resolution shape information and the texture information derived based on the above; And (e) generating a face image by synthesizing the shape information and texture information of the high resolution full face image restored in step (d).

이하, 본 발명에 따른 얼굴영상 복원장치 및 방법과, 얼굴영상 복원장치를 이용한 얼굴인식시스템에 대한 바람직한 실시예를 첨부된 도면을 참조하여 설명하기로 한다.Hereinafter, exemplary embodiments of a face image restoration apparatus and method and a face recognition system using a face image restoration apparatus will be described with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 얼굴영상 복원장치에 대한 개략적인 구성도로서, 도 1을 참조하면, 본 발명에 따른 얼굴영상 복원장치(100)는 얼굴영상 입력부(110), 손상영역 검출부(120), 형태/질감정보 추출부(130), 전체얼굴영상 복원부(140), 고해상도 얼굴영상 복원부(150), 얼굴영상 생성부(160) 및 얼굴모형정보 DB(170)를 포함하여 구성된다.1 is a schematic configuration diagram of a face image restoration apparatus according to an embodiment of the present invention. Referring to FIG. 1, the face image restoration apparatus 100 according to the present invention includes a face image input unit 110 and a damaged area detection unit. 120, the form / texture information extractor 130, the full face image restorer 140, the high resolution face image restorer 150, the face image generator 160, and the face model information DB 170. It is composed.

여기서, 얼굴모형정보 DB(170)에는 주성분 분석(Principal Component Analysis)과정을 통해 얻어진 m개의 얼굴영상에 대한 형태정보와 질감정보의 통계적 특성을 나타내는 정보인 얼굴모형정보가 저장된다. 얼굴모형정보로는 전체얼굴영상의 복원시 필요한 형태 고유벡터및 질감 고유벡터와, 고해상도 얼굴영상의 복원시 필요한 형태 고유벡터 및 질감 고유벡터 가 포함된다.Here, the face model information DB 170 stores face model information, which is information representing statistical characteristics of shape information and texture information of m face images obtained through a Principal Component Analysis process. The face model information includes the shape eigenvectors needed to restore the entire face image. And textures Eigenvectors required for reconstruction of high-resolution facial images And textures Included.

얼굴영상 입력부(110)는 얼굴영상을 입력받는 장치로서, 예를 들어, 스캐너 또는 카메라 등과 같은 장치로 구현될 수 있다.The face image input unit 110 may be a device that receives a face image and may be implemented by, for example, a device such as a scanner or a camera.

손상영역 검출부(120)는 얼굴영상 입력부(110)를 통해 얼굴영상이 전달되면, 전달된 얼굴영상에 손상 영역이 존재하는지 여부를 판단하여 손상 영역이 존재하면그 손상 영역이 국부 손상 영역으로 검출되는 것을 나타내는 손상영역정보를 도출한다. 한편, 전달된 얼굴영상에 손상 영역이 존재하지 않으면 손상 영역이 미 검출된 것을 나타내는 손상영역정보를 도출한다.When the damaged image is transmitted through the face image input unit 110, the damaged region detector 120 determines whether the damaged region exists in the delivered face image, and when the damaged region exists, the damaged region is detected as a local damaged region. Derivation of damaged area information indicating that On the other hand, if the damaged area does not exist in the transferred face image, the damaged area information indicating that the damaged area is not detected is derived.

여기서, 손상 영역은 선글라스, 마스크, 안경 등과 같은 물건에 의해 얼굴영상의 일부가 가려지거나, 또는 다른 객체와의 겹침, 그림자, 카메라 노이즈 등에 의해 얼굴영상의 일부가 가려진 경우, 그 가려진 영역을 나타낸다. 이러한 손상 영역은 그래픽 인터페이스를 이용한 수동방법(예컨대, Adobe사의 포토샵에서 사용되는 Marquee Tool 또는 Lasso Tool을 사용한 영역 설정 방법 등) 또는 반자동/자동 세그멘테이션 방법(예컨대, Adobe사의 포토샵에서 사용되는 Magic Wand Tool을 사용한 영역 설정 방법 등) 등을 이용하여 검출할 수 있다. 한편, 손상 영역을 검출하는 방법으로는 상술한 방법 이외에 다양한 방법들이 이용될 수 있음은 당연하다.Here, the damaged area indicates a hidden area when a part of the face image is covered by an object such as sunglasses, a mask, glasses, or the like, or when a part of the face image is covered by overlapping with another object, shadow, camera noise, or the like. Such damaged areas may be manually controlled using a graphical interface (e.g., Marquee Tool used in Adobe's Photoshop or Lasso Tool, etc.) or a semi-automatic or automatic segmentation method (e.g., Magic Wand Tool used in Adobe's Photoshop). Used area setting method, etc.), etc. can be detected. On the other hand, as a method of detecting a damaged area, it is obvious that various methods may be used in addition to the above-described method.

형태/질감정보 추출부(130)는 손상영역 검출부(120)를 통해 손상영역정보를 전달받아, 전달된 손상영역정보에 의거하여 입력얼굴영상에서 손상 영역을 제외한 나머지 영역을 미손상 영역으로 인식하고, 해당 미손상 영역에 대한 입력얼굴영상과 소정의 참조얼굴영상과의 대응 관계를 자동 또는 수작업으로 획득함으로써 참조얼굴영상에 대한 변형장 또는 위치 차이 정보로 표시되는 미손상 영역에 대한 입력얼굴영상의 형태정보와, 상기 참조얼굴영상에 매핑된 미손상 영역에 대한 입력얼굴영상의 색상 또는 명암정보로 표시되는 질감정보를 추출한다.The shape / texture information extraction unit 130 receives the damaged area information through the damaged area detection unit 120, and recognizes the remaining area except the damaged area in the input face image as an undamaged area based on the transmitted damaged area information. By automatically or manually acquiring a corresponding relationship between the input face image and the predetermined reference face image for the corresponding intact region, the input face image for the intact region represented by the deformation length or position difference information for the reference face image is obtained. Shape information and texture information represented by color or contrast information of an input face image of an undamaged region mapped to the reference face image are extracted.

여기서, 형태/질감정보 추출부(130)는 전달된 손상영역정보가 국부 손상 영역에 대한 정보이면, 입력얼굴영상에서 국부 손상 영역을 제외한 나머지 영역을 국부 미손상 영역으로 인식하고, 이미 상술한 과정을 통해 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 추출한 후 그 추출된 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 전체얼굴영상 복원부(140)로 전달한다.Here, if the transmitted damaged area information is information on the local damaged area, the shape / texture information extractor 130 recognizes the remaining area of the input face image except the local damaged area as a local undamaged area, and has already described the above process. After extracting the shape information and texture information of the input face image for the local undamaged region through the shape information and texture information of the input face image for the extracted local undamaged region is transmitted to the full face image restoration unit 140. .

한편, 형태/질감정보 추출부(130)는 전달된 손상영역정보가 손상 영역의 미 검출에 대한 정보이면, 입력얼굴영상의 전체 영역을 전체 미손상 영역(또는, 전체얼굴영역이라 함)으로 인식하고, 이미 상술한 과정을 통해 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 추출한 후 그 추출된 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 고해상도 얼굴영상 복원부(150)로 전달한다.On the other hand, the shape / texture information extractor 130 recognizes the entire area of the input face image as an entire undamaged area (or a whole face area) if the transmitted damaged area information is information about undetected damage area. After extracting the shape information and texture information of the input face image of the entire undamaged region through the above-described process, the shape information and texture information of the input face image of the extracted entire undamaged region are extracted. Forward to 150.

전체얼굴영상 복원부(140)는 형태/질감정보 추출부(130)로부터 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 전달받아, 그 국부 미손상 영역의 형태정보에 대응되는 형태정보만으로 이루어진 서브(sub) 형태 고유벡터를 얼굴모형정보 DB(170)에 저장된 전체얼굴영상 복원을 위한 다수개의 형태 고유벡터를 바탕으로 도출한다. 그리고, 도출된 서브 형태 고유벡터를 상기 국부 미손상 영역의 형태정보에 일치시키기 위한 최적의 형태 고유벡터 계수 를 산출한 후, 산출된 형태 고유벡터 계수와 얼굴모형정보 DB(170)에 저장된 형태 고유벡터를 선형 중첩함으로써 전체얼굴영상에 대한 형태정보를 복원한다.The full face image restoring unit 140 receives the shape information and texture information of the input face image of the local undamaged area from the shape / texture information extracting unit 130 and corresponds to the shape information of the local undamaged area. A sub shape eigenvector consisting only of information is derived based on a plurality of shape eigenvectors for restoring the entire face image stored in the face model information DB 170. And, the optimal shape eigenvector coefficient for matching the derived sub shape eigenvectors with the shape information of the local undamaged region After calculating, linearly overlap the calculated shape eigenvector coefficients and the shape eigenvectors stored in the face model information DB 170 to restore the shape information of the entire face image.

또한, 전체얼굴영상 복원부(140)는 전달받은 국부 미손상 영역의 질감정보에 대응되는 질감정보만으로 이루어진 서브 질감 고유벡터를 얼굴모형정보 DB(170)에저장된 전체얼굴영상 복원을 위한 다수개의 질감 고유벡터를 바탕으로 도출한다. 그리고, 도출된 서브 질감 고유벡터를 상기 국부 미손상 영역의 질감정보에 일치시키기 위한 최적의 질감 고유벡터 계수 를 산출하고, 산출된 질감 고유벡터 계수와 상기 얼굴모형정보 DB(170)에 저장된 질감 고유벡터를 선형 중첩함으로써 전체얼굴영상에 대한 질감정보를 복원한다. 여기서, 전체얼굴영상은 입력얼굴영상에 대하여 손상 영역을 복원함으로써 손상되지 않은 상태인 원래의 얼굴영상을 의미한다.In addition, the full face image restoration unit 140 stores a plurality of textures for restoring the entire face image stored in the face model information DB 170 using a sub texture eigenvector consisting of only texture information corresponding to the texture information of the local undamaged region. Derived based on eigenvectors. And, the optimal texture eigenvector coefficient for matching the derived sub texture eigenvector with the texture information of the local undamaged region And linearly superimpose the calculated texture eigenvector coefficients and the texture eigenvectors stored in the face model information DB 170 to restore texture information for the entire face image. Here, the entire face image refers to the original face image which is not damaged by restoring the damaged area with respect to the input face image.

고해상도 얼굴영상 복원부(150)는 전체얼굴영상 복원부(140)로부터 복원된 전체얼굴영상에 대한 형태정보 및 질감정보를 전달받거나 또는 형태/질감정보 추출부(130)로부터 추출된 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 전달받는다.The high resolution face image restoration unit 150 receives shape information and texture information of the entire face image restored from the full face image restoration unit 140 or the entire undamaged region extracted from the shape / texture information extraction unit 130. Receives shape information and texture information of input face image for.

그리고, 전달받은 형태정보 및 질감정보의 해상도를 분석하여 그 해상도가 기 설정된 기준 해상도 이하이면, 상기 전달받은 형태정보 및 질감정보의 해상도가 저해상도임을 인식하고, 해당 전달받은 형태정보에 대응되는 저해상도 형태정보만으로 이루어진 저해상도 형태 고유벡터를 얼굴모형정보 DB(170)에 저장된 고해상도의 얼굴영상 복원을 위한 다수개의 형태 고유벡터 를 바탕으로 도출한다.When the resolution of the received shape information and texture information is analyzed and the resolution is less than or equal to a preset reference resolution, the resolution of the received shape information and texture information is low resolution, and a low resolution shape corresponding to the received shape information is recognized. A plurality of shape eigenvectors for restoring a high resolution face image stored in the face model information DB 170 with a low resolution eigenvector consisting only of information Derived based on

이어서, 도출된 저해상도 형태 고유벡터를 상기 전달받은 형태정보에 일치시키기 위한 최적의 형태 고유벡터 계수 를 산출한다.Subsequently, an optimal shape eigenvector coefficient for matching the derived low resolution shape eigenvector with the received shape information To calculate.

그리고, 상기 얼굴모형정보 DB(170)에 저장된 다수개의 형태 고유벡터를 바탕으로 고해상도 형태정보만으로 이루어진 고해상도 형태 고유벡터를 도출한 후, 도출된 고해상도 형태 고유벡터와 상기 산출된 형태 고유벡터 계수를 선형 중첩함으로써 고해상도 얼굴영상을 위한 형태정보를 복원한다.Then, a high resolution shape eigenvector consisting of only high resolution shape information is derived based on a plurality of shape eigenvectors stored in the face model information DB 170, and then the resulting high resolution shape eigenvector and the calculated shape eigenvector coefficients are linear. By overlapping, shape information for a high resolution face image is restored.

또한, 전달받은 질감정보에 대응되는 저해상도 질감정보만으로 이루어진 저해상도 질감 고유벡터를 얼굴모형정보 DB(170)에 저장된 고해상도의 얼굴영상 복원을 위한 다수개의 질감 고유벡터 를 바탕으로 도출한 후, 도출된 저해상도 질감 고유벡터를 상기 전달받은 질감정보에 일치시키기 위한 최적의 질감 고유벡터 계수 를 산출한다.In addition, a plurality of texture eigenvectors for restoring a high resolution face image stored in the face model information DB 170 with a low resolution texture eigenvector consisting of only low resolution texture information corresponding to the received texture information. After deriving based on, the optimal texture eigenvector coefficient for matching the derived low resolution texture eigenvector with the received texture information To calculate.

그리고, 상기 얼굴모형정보 DB(170)에 저장된 다수개의 질감 고유벡터를 바탕으로 고해상도 질감정보만으로 이루어진 고해상도 질감 고유벡터를 도출한 후, 도출된 고해상도 질감 고유벡터와 상기 산출된 질감 고유벡터 계수를 선형 중첩함으로써 고해상도 얼굴영상을 위한 질감정보를 복원한다.After deriving a high resolution texture eigenvector consisting of only high resolution texture information based on a plurality of texture eigenvectors stored in the face model information DB 170, linearly deriving the derived high resolution texture eigenvector and the calculated texture eigenvector coefficient. By overlapping, the texture information for the high resolution face image is restored.

한편, 고해상도 얼굴영상 복원부(150)는 전달받은 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이상이면, 상기 형태정보 및 질감정보(즉, 전체얼굴형상 복원부(140)로부터 복원된 전체얼굴영상에 대한 형태정보 및 질감정보 또는 형태/질감정보 추출부(130)로부터 추출된 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보)의 해상도가 고해상도임을 인식하고, 해당 형태정보 및 질감정보의 해상도를 새로이 고해상도로 복원하지 않는다.Meanwhile, when the resolution of the received shape information and texture information is greater than or equal to a preset reference resolution, the high resolution face image restoration unit 150 reconstructs the entire face restored from the shape information and texture information (that is, the entire face shape restoration unit 140). Recognizing that the resolution of the shape information and texture information of the image or the shape information and texture information of the input face image for the entire undamaged region extracted from the shape / texture information extraction unit 130 is high resolution, the shape information and texture Do not restore the resolution of the information to a new high resolution.

여기서, 기준 해상도는 64 ×64화소의 얼굴영상에 대한 형태정보와 질감정보의 해상도로서, 일반적으로 사람 또는 얼굴인식시스템에서 인식할 수 있는 최소의 값이다. 한편, 사람 또는 얼굴인식시스템마다 인식할 수 있는 최소의 해상도가 다를 수 있으므로, 기준 해상도 값은 변동될 수 있음은 당연하다.Here, the reference resolution is the resolution of the shape information and the texture information of the face image of 64 x 64 pixels, which is generally the minimum value that can be recognized by a human or face recognition system. On the other hand, since the minimum resolution that can be recognized may differ for each person or face recognition system, it is natural that the reference resolution value may vary.

얼굴영상 생성부(160)는 고해상도 얼굴영상 복원부(150)로부터 그 고해상도 얼굴영상 복원부(150)를 통해 복원된 고해상도 얼굴영상에 대한 형태정보 및 질감정보를 전달받거나, 또는 고해상도 얼굴영상 복원부(150)로부터 전체얼굴영상 복원부(140)를 통해 복원된 기준 해상도 이상인 고해상도의 얼굴영상에 대한 형태정보 및 질감정보를 전달받아, 전달받은 형태정보와 질감정보를 합성함으로써 고해상도의 전체얼굴영상에 대응되는 얼굴영상을 생성한다. 여기서, 형태정보와 질감정보를 합성하여 얼굴영상을 생성하는 과정을 와핑(Wraping)이라 하고, 그 와핑(Wraping)과정은 본 기술분야에서 널리 공지된 사항이므로 상세한 설명은 생략한다.The face image generator 160 receives shape information and texture information of the high resolution face image restored through the high resolution face image restorer 150 from the high resolution face image restorer 150, or the high resolution face image restorer 150. Receives shape information and texture information of the high resolution face image that is higher than or equal to the reference resolution restored by the full face image restoration unit 140 from 150, and synthesizes the received shape information and texture information to the high resolution full face image. A corresponding face image is generated. Here, the process of generating the face image by synthesizing the shape information and the texture information is called warping, and the warping process is well known in the art, and thus a detailed description thereof will be omitted.

도 2는 본 발명의 일 실시예에 따른 얼굴영상 복원방법에 대한 처리 흐름도이다. 도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 얼굴영상 복원방법은 소정의 얼굴영상을 입력받고(s100), 입력된 얼굴영상에 손상 영역이 존재하는지 여부를 판단하여(s110), 그 결과 입력얼굴영상의 소정 위치에 손상 영역이 존재하면 그 손상 영역에 의거한 손상영역정보를 도출한다(s120).2 is a flowchart illustrating a method of restoring a face image according to an exemplary embodiment of the present invention. As shown in FIG. 2, the method for restoring a face image according to an embodiment of the present invention receives a predetermined face image (S100), determines whether a damaged area exists in the input face image (S110), As a result, if a damaged area exists at a predetermined position of the input face image, the damaged area information is derived based on the damaged area (S120).

그리고, s120단계에서 도출된 손상영역정보에 의거하여 입력얼굴영상에서 손상 영역을 확인하고, 그 손상 영역을 제외한 나머지 영역을 국부 미손상 영역으로 인식한 후, 해당 국부 미손상 영역에 대한 입력얼굴영상의 형태정보와 질감정보를추출한다(s130). 여기서, 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 추출하는 과정(s130)은 도 1에 도시된 형태/질감정보 추출부(130)의 동작 설명시 이미 언급되었으므로 중복된 설명은 생략한다.Then, based on the damaged area information derived in step s120, the damaged area is identified in the input face image, and the remaining area except the damaged area is recognized as a local intact area, and then the input face image for the corresponding local intact area is detected. Shape information and texture information of the extracted (S130). Here, the process of extracting the shape information and the texture information of the input face image for the local undamaged area (s130) has already been mentioned when the operation of the shape / texture information extraction unit 130 shown in FIG. 1 is duplicated. Omit.

이어서, 상기 s130단계에서 추출된 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 입력받아, 입력된 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보에 의거하여 전체얼굴영상에 대한 형태정보 및 질감정보를 복원한다(s140). 여기서, s140단계에 대한 설명은 도 3a를 참조하여 상세히 설명하기로 한다.Subsequently, the shape information and texture information of the input face image of the local undamaged region extracted in step S130 are received, and the entire face image is based on the shape information and the texture information of the input face image of the local undamaged region. The shape information and texture information for the data is restored (s140). Here, the description of step S140 will be described in detail with reference to FIG. 3A.

한편, s140단계에서 복원된 전체얼굴영상에 대한 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이상인지 여부를 판단한다(s150).On the other hand, it is determined whether the resolution of the shape information and texture information of the entire face image reconstructed in step S140 is equal to or greater than the preset reference resolution (S150).

상기 판단결과(s150), 복원된 전체얼굴영상에 대한 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이상이면, 상기 형태정보 및 질감정보의 해상도가 고해상도임을 인식하고 해당 형태정보와 질감정보를 합성함으로써 고해상도의 전체얼굴영상에 대응되는 얼굴영상을 생성한다(s160).If the resolution of the shape information and texture information of the restored full face image is greater than or equal to a preset reference resolution, the determination result (s150) recognizes that the resolution of the shape information and texture information is high resolution and synthesizes the shape information and texture information. Thus, a face image corresponding to the high resolution full face image is generated (S160).

한편, 상기 판단결과(s150), s140단계에서 복원된 전체얼굴영상에 대한 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이하이면, 상기 복원된 전체얼굴영상에 대한 형태정보 및 질감정보의 해상도가 저해상도임을 인식하고, 상기 형태정보 및 질감정보(즉, 저해상도인 전체얼굴영상에 대한 형태정보 및 질감정보)를 가지고 고해상도 얼굴영상을 위한 형태정보 및 질감정보를 복원하고(s170), 복원된 고해상도 얼굴영상에 대한 형태정보와 질감정보를 합성함으로써 얼굴영상을생성한다(s180). 여기서, s170단계에 대한 설명은 도 3b를 참조하여 상세히 설명하기로 한다.On the other hand, if the resolution of the shape information and texture information of the entire face image restored in step s140, the determination result (s150) or less than the preset reference resolution, the resolution of the shape information and texture information for the restored full face image Recognizing that it is a low resolution, and restores the shape information and texture information for a high-resolution face image with the shape information and texture information (that is, the shape information and texture information for the low-resolution full face image (s170), the restored high resolution face The face image is generated by synthesizing the shape information and the texture information of the image (S180). Here, the description of step S170 will be described in detail with reference to FIG. 3B.

또한, 입력얼굴영상을 바탕으로 손상 영역의 존재여부를 판단한 결과(s110), 입력얼굴영상에서 손상 영역이 미 존재하는 것으로 확인되면 해당 입력얼굴영상을 바탕으로 손상 영역의 미 검출을 나타내는 손상영역정보를 도출하고, 도출된 손상영역정보에 의거하여 입력얼굴영상의 전체 영역을 전체 미손상 영역으로 인식한 후, 그 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 추출한다(s190). 여기서, 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보의 추출과정(s190)은 도 1에 도시된 형태/질감정보 추출부(130)의 동작 설명시 이미 언급되었으므로 상세한 설명은 생략한다.Also, as a result of determining whether the damaged area exists based on the input face image (s110), when it is determined that the damaged area does not exist in the input face image, the damaged area information indicating the detection of the damaged area based on the corresponding input face image After recognizing the entire region of the input face image as the entire intact region based on the damaged region information, the shape information and the texture information of the input face image for the entire intact region are extracted (s190). . Here, the extraction process (s190) of the shape information and texture information of the input face image for the entire undamaged area is already mentioned when the operation of the shape / texture information extraction unit 130 shown in FIG. 1 is omitted. .

그리고, s190단계에서 추출된 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이상인지 여부를 판단한다(s200).In operation S200, it is determined whether the resolution of the shape information and the texture information of the input face image of the entire undamaged region extracted in step S190 is greater than or equal to the preset reference resolution.

상기 판단결과(s200), 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이하이면, 상기 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보의 해상도가 저해상도임을 인식하고, 상기 형태정보 및 질감정보(즉, 저해상도인 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보)를 가지고 고해상도 얼굴영상을 위한 형태정보 및 질감정보를 복원한다(s210). 이때, s210단계는 s170단계와 동일하게 동작하므로 중복된 설명은 생략하기로 한다.If the resolution of the shape information and texture information of the input face image of the entire undamaged region is less than or equal to a preset reference resolution, the resolution of the shape information and the texture information of the input face image of the entire undamaged region is determined. Recognizes that the image is low resolution, and restores the shape information and the texture information for the high resolution face image with the shape information and the texture information (that is, the shape information and the texture information of the input face image of the entire undamaged region of low resolution) (s210). ). At this time, since step s210 operates in the same manner as step s170, a redundant description will be omitted.

그리고, s210단계에서 복원된 고해상도 얼굴영상에 대한 형태정보와 질감정보를 합성하여 고해상도의 전체얼굴영상에 대응되는 얼굴영상을 생성한다(s220)Then, the shape information and the texture information of the high resolution face image restored in step S210 are synthesized to generate a face image corresponding to the high resolution full face image (S220).

한편, 상기 판단결과(s200), 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이상이면, 상기 입력얼굴영상에 손상된 영역이 존재하지 않고 그 입력얼굴영상의 해상도가 기 설정된 기준 해상도 이상이므로 더 이상의 작업을 수행하지 하지 않고 종료한다.On the other hand, if the resolution of the shape information and texture information of the input face image for the entire undamaged area is greater than a predetermined reference resolution, the damaged region does not exist in the input face image and the image of the input face image is not determined. Since the resolution is higher than the preset reference resolution, the operation is terminated without performing any further work.

도 3a는 본 발명의 일 실시예에 따른 전체얼굴영상에 대한 형태정보 및 질감정보 복원과정(s140)에 대한 처리 흐름도이다. 도 3a를 참조하면, 먼저, s130단계에서 추출된 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 입력받는다.3A is a flowchart illustrating a process of restoring shape information and texture information for a whole face image (S140) according to an embodiment of the present invention. Referring to FIG. 3A, first, shape information and texture information of an input face image of a local undamaged region extracted in step S130 are received.

그리고, 입력된 국부 미손상 영역에 대한 입력얼굴영상의 형태정보(이하, 국부 미손상 영역의 형태정보라 함)를 가지고 얼굴모형정보 DB(170)에 저장된 형태 고유벡터(;은 형태 고유벡터의 개수이고,는 참조얼굴영상에서 미리 정해진 점들의 개수)를 검색하여, 해당 형태 고유벡터를 바탕으로 상기 국부 미손상 영역의 형태정보에 대응되는 형태정보만을 추출하여 그 추출된 형태정보만으로 이루어진 서브 형태 고유벡터(;은 입력얼굴영상의 국부 미손상 영역 내의 점들의 개수)를 도출한다(s141).Then, the shape inherent vector stored in the face model information DB 170 with the shape information of the input face image (hereinafter, referred to as shape information of the local undamaged area) for the input local undamaged area. ( ; Is the number of shape eigenvectors, Search for a predetermined number of points in a reference face image), extracts only the shape information corresponding to the shape information of the local undamaged region based on the corresponding shape eigenvector, and consists of only the extracted shape information. ( ; Deduces the number of points in the local undamaged region of the input face image (S141).

이어서, 상기 단계(s141)에서 도출된 서브 형태 고유벡터와 상기 국부 미손상 영역의 형태정보를 비교하여 상기 서브 형태 고유벡터를 해당 국부 미손상 영역의 형태정보에 일치시키기 위한 최적의 형태 고유벡터 계수 를 산출한 후(s142), 산출된 형태 고유벡터 계수 와 형태 고유벡터()를 각각 선형 중첩함으로써 전체얼굴영상에 대한 형태정보를 복원한다(s143).Subsequently, an optimal shape eigenvector coefficient for matching the sub shape eigenvector with the shape information of the local undamaged area by comparing the sub shape eigenvector derived in step S141 with the shape information of the local undamaged area. After calculating (s142), the calculated shape eigenvector coefficients And eigenvectors ( ) Are linearly superimposed, respectively, to restore the shape information of the entire face image (s143).

또한, 입력된 국부 미손상 영역에 대한 입력얼굴영상의 질감정보에 대하여도 상술한 단계들(s141, s142, s143)과 동일하게 동작하는 단계들(s144, s145, s146)을 수행하여 전체얼굴영상에 대한 질감정보를 복원한다.In addition, the texture information of the input face image of the input local undamaged region may be performed by performing steps s144, s145, and s146 operating in the same manner as the above-described steps s141, s142, and s143. Restore texture information for.

여기서, 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 가지고, 전체얼굴영상에 대한 형태정보 및 질감정보를 복원하는 과정에 대하여 보다 구체적으로 설명하면 다음과 같다.Here, the process of restoring the shape information and the texture information of the entire face image with the shape information and the texture information of the input face image for the local undamaged region will be described in more detail as follows.

이 과정은 얼굴을 형태 및 질감 프로토타입(prototype)들의 선형 중첩으로 모형화한다는 전제 아래, 손상되지 않은 영역(국부 미손상 영역)에 대한 입력얼굴영상의 형태정보와 질감정보를 가지고 기존의 SVD(Singular Value Decomposition)보다 매우 단순한 선형 투사(Linear Projection)방법을 이용하여 입력된 얼굴영상(입력얼굴영상)의 원 형상에 근접한 변형의 최적화된 근사값(즉, 형태 고유벡터 계수 및 질감 고유벡터 계수)을 찾는 과정으로 요약될 수 있다.This process is based on the premise that the face is modeled as a linear superposition of shape and texture prototypes, and the existing SVD (Singular) with the shape information and texture information of the input face image for the intact area (local intact area). Find an optimized approximation (i.e., shape eigenvector coefficients and texture eigenvector coefficients) of the deformation close to the circular shape of the input face image (input face image) using a much simpler linear projection method than Value Decomposition. The process can be summarized.

먼저, 얼굴을 형태와 질감 프로토타입들의 선형 중첩으로 모형화하는 과정을 설명하면 다음과 같다.First, the process of modeling the face as a linear superposition of shape and texture prototypes is as follows.

모든 얼굴영상과 참조얼굴영상에 대한 대응관계는 이미 주어져 있다는 가정 하에서, 얼굴영상의 형태정보는 참조얼굴영상에 대한 변형장(deformation field)으로 부호화되며, 얼굴영상의 질감정보는 참조얼굴영상에 매핑된 얼굴영상의 색상 또는 명암정보로 부호화한다. 즉, 얼굴영상의 형태정보는 참조얼굴영상 위의 점와 입력얼굴영상의 대응점에 대한 위치 차이로, 얼굴영상의 질감정보는 참조얼굴영상 위의 점에 대한 입력얼굴영상의 대응점에 대한 색상 또는 명암 값으로 정의된다.Under the assumption that all the face images and the reference face images are already given, the shape information of the face image is encoded into a deformation field of the reference face image, and the texture information of the face image is mapped to the reference face image. Color or contrast information of the facial image is encoded. That is, the shape information of the face image Points on the reference face image The texture information of the face image by the positional difference between the corresponding points of the face and the input face image. Points on the reference face image It is defined as the color or contrast value for the corresponding point of the input face image.

그리고, 독립적으로 구해진 형태정보의 각 점별(; 여기서는 참조얼굴영상에서 미리 정해진 점들의 개수) 평균값으로 이루어진 형태 평균, 질감정보의 각 점별 평균값으로 이루어진 질감 평균을 구하고, 형태 차이의 공분산와 질감 차이의 공분산을 구한다.And, for each point of shape information obtained independently ( ; here Is the shape average consisting of the average number of predetermined points in the reference face image) , For each point of texture information Texture Averages of Means Finding the difference in form Covariance of And texture difference Covariance of Obtain

이와 같이 구한 값들을 주성분 분석(principal component analysis) 처리하여개의 얼굴영상에 대한 공분산의 형태 고유벡터와 질감 고유벡터를 구한다. 형태 고유벡터와 질감 고유벡터를 기저로 하는 얼굴모형은 아래의 수학식 1과 같이 표현될 수 있다.The values obtained in this way are processed by principal component analysis. Eigenvectors of the shape of covariance for face images Vector unique texture with Obtain Shape eigenvectors Vector unique texture with The face model based on may be expressed as Equation 1 below.

여기서이고,은 얼굴영상의 개수이다.here ego, Is the number of face images.

이와 같은 과정을 통해 형태 고유벡터, 질감 고유벡터는 얼굴모형정보 DB(170)에 저장되어, 전체얼굴영상에 대한 형태정보 및 질감정보의 복원시 이용된다.Through this process, the shape eigenvectors , Texture unique vector Is stored in the face model information DB 170 and used when restoring the shape information and texture information of the entire face image.

다음으로, 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보만을 가지고 단순 선형 투사 방법을 이용하여 입력된 얼굴영상의 원 형상에 근접한 변형의 최적화된 근사값을 찾는 과정을 설명하면 다음과 같다. 여기서는, 국부 미손상 영역에 대한 입력얼굴영상의 형태정보와 질감정보만이 주어지기 때문에 최적의 근사값만을 추정할 수 있다. 따라서, 이하에서는 이러한 조건하에서 최적의 해(값)를 찾는 과정을 설명하기로 한다.Next, a process of finding an optimized approximation of the deformation close to the circular shape of the input face image using the simple linear projection method using only the shape information and the texture information of the input face image for the local undamaged region will be described. . Since only the shape information and texture information of the input face image for the local undamaged region are given, only an optimal approximation value can be estimated. Therefore, the following describes the process of finding the optimal solution (value) under these conditions.

먼저, 입력얼굴영상의 국부 미손상 영역 내의 각 점에서의 형태정보 와 얼굴모형정보 DB(170)에 저장된 다수개의 형태 고유벡터를 바탕으로 추출된 상기 형태정보(즉, 국부 미손상 영역 내의 각 점에서의 형태정보)에 대응되는 형태정보만으로 이루어진 형태 고유벡터(즉, 서브 형태 고유벡터)를 선형 중첩한 값의 차에 대한 제곱의 합을 에러 함수로 정의한다. 이때, 에러 함수는 아래의 수학식 2와 같이 정의된다.First, each point in the local undamaged region of the input face image Shape information in And a plurality of shape eigenvectors stored in the face model information DB 170 The shape information extracted based on (i.e., each point in the local undamaged region) Shape eigenvectors consisting only of shape information corresponding to Error function is the sum of the squares of the difference of linear overlapping values It is defined as Error function Is defined as in Equation 2 below.

이때, 국부 미손상 영역에 대해 상기 에러 함수가 최소의 값을 가져야 한다는 조건을 설정함으로써 해당 조건을 만족하는 형태 고유벡터의 계수들 을 구한다. 이러한 최적의 해()를 구하기 위해 다음과 같이 수학식3을 정의한다.Where the error function is for a local intact region. Coefficients of the shape eigenvectors satisfying that condition by setting the condition that must have a minimum value Obtain This optimal solution In order to find), Equation 3 is defined as follows.

이때,은 입력얼굴영상의 국부 미손상 영역 내에서 미리 정해진 점들이고,은 입력얼굴영상의 국부 미손상 영역에 대한 점들()의 개수이며,은 얼굴모형정보 DB(170)에 저장된 형태 고유벡터의 개수이다. 일반적으로,보다 10배 이상 크다.At this time, Are predetermined points within the local undamaged region of the input face image, Are points for the local undamaged region of the input face image ( ), Is a shape unique vector stored in the face model information DB (170) Is the number of. Generally, silver 10 times larger than

여기서, 수학식 4는 수학식 3을 보다 간단하게 하기 위해 행렬 형태로 변환한 것으로서, 수학식 4와 같이 행렬 형태로 변환함으로써 최적의 해를 선형 투사 방법에 의해 보다 쉽게 구할 수 있다. 그리고, 수학식 4를 정리하면 아래의 수학식 5와 같이 표현될 수 있다.Here, Equation 4 is converted into a matrix form in order to simplify the equation 3, the optimal solution by converting into a matrix form as shown in Equation 4 Can be obtained more easily by the linear projection method. In addition, summarizing Equation 4 may be expressed as Equation 5 below.

여기서,here,

이때,의 열벡터는 선형적으로 독립이라고 가정한다. 결과적으로, 수학식 5에서 정의된 바와 같이, alpha는 입력얼굴영상의 국부 미손상 영역 내의 각 점에서의 형태정보와, 얼굴모형정보 DB(170)에 저장된 형태 고유벡터를 바탕으로 추출된 상기 국부 미손상 영역 내의 각 점의 형태정보에 대응되는 형태정보만으로 이루어진 형태 고유벡터[](즉, 서브 형태 고유벡터)의 선형 투사 연산과정을 통해 산출된다. 이와 같은 과정은 도 3a의 형태 고유벡터 계수 산출단계(s142)에서 이루어진다.At this time, It is assumed that the column vectors of are linearly independent. As a result, as defined in Equation 5, alpha is each point in the local intact region of the input face image. Shape information in And the shape eigenvector stored in the face model information DB 170. Shape inherent vector consisting only of shape information corresponding to shape information of each point in the local undamaged region extracted based on [ ] (Ie, subproject eigenvectors). This process is performed in the shape eigenvector coefficient calculating step s142 of FIG. 3a.

따라서, 수학식 5를 정리하면, 최적의 해는 수학식 6으로부터 구할 수 있다. 최종적으로, 전체얼굴영상에 대한 형태정보는 수학식 1과 수학식 6에 의거하여 정의된 수학식 7에 의해 복원된다.Therefore, the equation 5 is summarized, the optimal solution Can be obtained from equation (6). Finally, the shape information for the entire face image is restored by the equation (7) defined based on the equations (1) and (6).

이때,는 참조얼굴영상에 미리 정해진 점들이고,는 참조얼굴영상 위의 점들의 개수이며, 전체얼굴영상에 대한 형태정보는 도 3a의 s143단계에서 상술한 바와 같이, 최적의 형태 고유벡터 계수와 얼굴모형정보 DB(170)에 저장된 형태 고유벡터를 선형 중첩함으로써 복원된다.At this time, Are predetermined points in the reference face image, Is the number of points on the reference face image, and the shape information of the entire face image. Is the optimal shape eigenvector coefficient as described above in step s143 of FIG. And the shape eigenvectors stored in the face model information DB 170 Is restored by linear overlapping.

마찬가지로, 위의 수학식들(수학식 1 내지 수학식 7)을 질감정보에 적용함으로써 입력얼굴영상의 국부 미손상 영역에 대한 질감정보를 가지고 전체얼굴영상에 대한 질감정보를 복원할 수 있다.Similarly, by applying the above equations (Equations 1 to 7) to the texture information, it is possible to restore the texture information of the entire face image with the texture information of the local undamaged region of the input face image.

도 3b는 본 발명의 일 실시예에 따른 고해상도 얼굴영상에 대한 형태정보 및 질감정보 복원과정(s170)에 대한 처리 흐름도이다. 도 3b를 참조하면, 먼저, s150단계에서 s140단계를 통해 복원된 전체얼굴영상에 대한 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이하인 것으로 판단되면, 상기 복원된 전체얼굴영상에 대한 형태정보 및 질감정보의 해상도가 저해상도임을 인지하고, 해당 전체얼굴영상에 대한 형태정보 및 질감정보를 입력받는다.3B is a flowchart illustrating a process of restoring shape information and texture information for a high resolution face image (S170) according to an embodiment of the present invention. Referring to FIG. 3B, first, when it is determined that the resolution of the shape information and texture information of the entire face image reconstructed in step S150 is less than or equal to a preset reference resolution, the shape information of the restored full face image and Recognizing that the resolution of the texture information is low resolution, and receives the shape information and texture information for the entire face image.

그리고, 입력된 전체얼굴영상에 대한 형태정보(즉, 저해상도인 전체얼굴영상에 대한 형태정보)를 가지고 얼굴모형정보 DB(170)에 저장된 다수개의 형태 고유벡터(;은 형태 고유벡터 계수이고,은 저해상도 참조얼굴영상에서 미리 정해진 점들의 개수이며,는 고해상도 참조얼굴영상에서 미리 정해진 점들의 개수)를 검색하여, 해당 형태 고유벡터를 바탕으로 상기 저해상도인 전체얼굴영상에 대한 형태정보에 대응되는 저해상도 형태정보만을 추출하여 그 추출된 형태정보만으로 이루어진 저해상도 형태 고유벡터 를 도출한다(s171).Then, a plurality of shape inherent vectors stored in the face model information DB 170 with the shape information on the input full face image (that is, the shape information on the low resolution full face image). ( ; Is the shape eigenvector coefficient, Is the number of predetermined points in the low resolution reference face image, Search for a predetermined number of points in a high resolution reference face image), extracts only the low resolution shape information corresponding to the shape information of the low resolution full face image based on the shape eigenvector, and includes a low resolution composed only of the extracted shape information. Shape eigenvectors To derive (s171).

이어서, 상기 단계(s171)에서 도출된 저해상도 형태 고유벡터와 상기 저해상도인 전체얼굴영상에 대한 형태정보를 비교하여 상기 저해상도 형태 고유벡터를 해당 저해상도인 전체얼굴영상에 대한 형태정보에 일치시키기 위한 최적의 형태 고유벡터 계수 를 산출한다(s172).Subsequently, the low resolution shape eigenvector derived in step s171 is compared with the shape information of the low resolution full face image to match the low resolution shape eigenvector to the shape information of the corresponding low resolution full face image. Shape eigenvector coefficients To calculate (s172).

한편, 얼굴모형정보 DB(170)에 저장된 형태 고유벡터()를 바탕으로 고해상도 형태정보만을 추출하여 그 추출된 형태정보만으로 이루어진 고해상도 형태 고유벡터 를 도출한다(s173).Meanwhile, the shape inherent vector stored in the face model information DB 170. ( High resolution shape eigenvector consisting of extracted shape information only To derive (s173).

이후, s172단계에서 산출된 최적의 형태 고유벡터 계수 와 상기 s173단계에서 도출된 고해상도 형태 고유벡터 를 선형 중첩함으로써 고해상도 얼굴영상을 위한 형태정보를 복원한다(s174).Then, the optimal shape eigenvector coefficient calculated in step s172 And the high resolution shape eigenvectors derived in step s173. By linearly overlapping, the shape information for the high resolution face image is restored (s174).

또한, 입력된 전체얼굴영상에 대한 질감정보(즉, 저해상도인 전체얼굴영상에 대한 질감정보)에 대하여도 상술한 단계들(s171, s172, s173, s174)과 동일하게 동작하는 단계들(s175, s176, s177, s178)을 수행하여 고해상도 얼굴영상을 위한 질감정보를 복원한다.In addition, the steps of operating the same as the above-described steps (s171, s172, s173, s174) with respect to the texture information (ie, the texture information of the low-resolution full-face image) for the entire face image (s175, s176, s177, s178) to restore the texture information for the high resolution face image.

여기서, 고해상도 얼굴영상에 대한 형태정보 및 질감정보를 복원하는 과정에 대하여 보다 구체적으로 설명하면 다음과 같다.Here, the process of restoring the shape information and texture information of the high resolution face image will be described in more detail.

이 과정은 얼굴을 형태와 질감 프로토타입들의 선형 중첩으로 모형화한다는 전제 아래, 저해상도인 전체얼굴영상에 대한 형태정보 및 질감정보만을 가지고, 단순 선형 투사 방법을 이용하여 저해상도인 전체얼굴영상이 요구하는 변형의 최적화된 근사값(즉, 형태 고유벡터 계수 및 질감 고유벡터 계수)을 찾는 과정으로 요약될 수 있다.This process is based on the assumption that the face is modeled as a linear superposition of shape and texture prototypes, and has only the shape and texture information of the low resolution full face image, and the deformation required by the low resolution full face image using the simple linear projection method. It can be summarized as a process of finding an optimized approximation of (i.e., shape eigenvector coefficients and texture eigenvector coefficients).

먼저, 얼굴을 형태와 질감 프로토타입들의 선형 중첩으로 모형화하는 과정을 설명하기로 한다. 여기서, 기본적으로 얼굴을 형태와 질감 프로토타입들의 선형 중첩으로 모형화하는 과정은 상기에서 설명한 바와 동일하다. 다만, 여기에서는, 얼굴영상의 형태정보는 저해상도 참조얼굴영상과 고해상도 참조얼굴영상 각각에 대한 변형장의 연결(concatenation)로 부호화되며, 얼굴영상의 질감정보는 저해상도 참조얼굴영상과 고해상도 참조얼굴영상에 매핑된 입력얼굴영상의 색상 또는 명암정보의 연결로 부호화된다.First, the process of modeling the face as a linear superposition of shape and texture prototypes will be described. Here, basically, the process of modeling the face by linear superposition of shape and texture prototypes is the same as described above. However, here, the shape information of the face image is encoded by the concatenation of the transform field for each of the low resolution reference face image and the high resolution reference face image, and the texture information of the face image is mapped to the low resolution reference face image and the high resolution reference face image. It is encoded by linking color or contrast information of the input face image.

즉, 얼굴영상의 형태정보는 저해상도 참조얼굴영상 위의 점와 입력얼굴영상의 대응점에 대한 위치 차이와, 고해상도 참조얼굴영상 위의 점와 입력얼굴영상의 대응점에 대한 위치 차이의 연결로, 얼굴영상의 질감정보는 저해상도 참조얼굴영상 위의 점에 대한 입력얼굴영상의 대응점에 대한 색상 또는 명암 값과, 고해상도 참조얼굴영상 위의 점에 대한 입력얼굴영상의 대응점에 대한 색상 또는 명암 값의 연결로 정의된다.That is, the shape information of the face image Is the point on the low-resolution reference face image. And positional differences between the corresponding points on the input face image and the point on the high-resolution reference face image Texture information of the face image by linking the positional difference between the corresponding points of the image and the input face image Is the point on the low-resolution reference face image. Color or contrast values for the corresponding points in the input face image for, and points on the high-resolution reference face image. It is defined as the concatenation of color or contrast values for the corresponding points of the input face image for.

따라서, 얼굴영상의 형태정보로, 얼굴영상의 질감정보로 정의할 수 있다. 여기서,방향의 대응점에 대한 위치 차이를 의미하며,는 대응점에 대한 색상 또는 명암 값을 의미한다.Therefore, the shape information of the face image Is Texture information of face image Is Can be defined as here, Is Wow Means the position difference with respect to the corresponding point in the direction, Means the color or contrast value for the corresponding point.

또한, 이미 설명한 바와 같이, 형태 평균, 질감 평균, 형태 차이의 공분산, 질감 차이의 공분산을 구한다. 이와 같이 구한 값들을 주성분 분석 처리하여개의 얼굴영상에 대한 공분산의 형태 고유벡터 와 질감 고유벡터 를 구한다. 형태 고유벡터 와 질감 고유벡터 를 기저로 하는 얼굴모형은 아래의 수학식 8과 같이 표현될 수 있다.Also, as already explained, the shape average Texture average , Form difference Covariance of , Texture difference Covariance of Obtain Principal component analysis process Eigenvectors of the shape of covariance for face images Vector unique texture with Obtain Shape eigenvectors Vector unique texture with The face model based on may be expressed as Equation 8 below.

, ,

여기서,이다.here, to be.

다음으로, 저해상도인 전체얼굴영상에 대한 형태정보와 질감정보만을 가지고, 단순 선형 투사 방법을 이용하여 입력된 저해상도인 전체얼굴영상이 요구하는 변형의 최적화된 근사값을 찾는 과정을 설명하면 다음과 같다. 여기서, 저해상도인 전체얼굴영상에 대한 형태정보 및 질감정보만이 주어지기 때문에, 이 조건하에서는 최적의 근사값만을 추정할 수 있을 것이다. 따라서, 이하에서는 이러한 조건하에서 최적의 해(값)를 찾는 과정을 설명하기로 한다.Next, a process of finding an optimal approximation of the deformation required by the low resolution full face image input using a simple linear projection method using only the shape information and the texture information of the low face full face image will be described. Since only shape information and texture information of the low resolution full face image are given, only an optimal approximation value can be estimated under this condition. Therefore, the following describes the process of finding the optimal solution (value) under these conditions.

먼저, 입력된 저해상도인 전체얼굴영상 내의 각 점에서의 형태정보 와 얼굴모형정보 DB(170)에 저장된 다수개의 형태 고유벡터 를 바탕으로 추출된 상기 저해상도인 전체얼굴영상 내의 각 점의 형태정보에 대응되는 저해상도 형태정보만으로 이루어진 형태 고유벡터 (즉, 저해상도 형태 고유벡터)를 선형 중첩한 값의 차에 대한 제곱의 합을 에러 함수로 정의한다. 이때, 에러 함수는 아래의 수학식 9와 같이 정의된다.First, each point in the full face image of the input low resolution Shape information in And a plurality of shape eigenvectors stored in the face model information DB 170 Shape inherent vector consisting only of low resolution shape information corresponding to shape information of each point in the low resolution full face image extracted based on (Ie, sum of squares of differences between linearly overlapping low-resolution eigenvectors) It is defined as Error function Is defined as in Equation 9 below.

여기서,은 저해상도인 전체얼굴영상 위의 점들이고,은 저해상도인 전체얼굴영상 위의 점들의 개수이며,은 형태 고유벡터의 개수이다. 그리고, 일반적으로보다 10배 이상 크다.here, Are the dots on the low resolution full face image, Is the number of points on the low-resolution full-face image, Silver shape eigenvectors Is the number of. And, in general, silver 10 times larger than

이때, 저해상도인 전체얼굴영상에 대해 상기 에러 함수가 최소의 값을 가져야 한다는 조건을 설정함으로써 해당 조건을 만족하는 형태 고유벡터(즉, 저해상도 형태 고유벡터)의 계수들중 에러 함수를 최소화시키는 최적의 해를 구한다. 이러한 최적의 해를 구하기 위해 다음과 같이 수학식 10을 정의한다.In this case, the error function for the low resolution full face image Coefficients of shape eigenvectors (i.e., low resolution shape eigenvectors) that satisfy the condition by setting the condition that must have a minimum value Error function Optimal solution to minimize Obtain Such an optimal solution In order to calculate the equation (10) is defined as follows.

이때, 수학식 10을 보다 간단하게 하기 위해 행렬 형태로 변환하면, 아래의 수학식 11과 같이 표현된다.At this time, if the equation 10 is converted into a matrix form for simplicity, it is expressed as Equation 11 below.

수학식 11에서 정의한 바와 같이, 행렬 형태로 변환함으로써 최적의 해를 선형 투사 방법에 의해 보다 쉽게 구할 수 있다. 수학식 11을 정리하면 아래의 수학식 12와 같이 표현된다.As defined in Equation 11, the optimal solution by converting to matrix form Can be obtained more easily by the linear projection method. Equation 11 is summarized as in Equation 12 below.

여기서,here,

이때,의 열벡터는 선형적으로 독립이라고 가정한다. 결과적으로, 수학식 12에 정의된 바와 같이,는 저해상도인 전체얼굴영상 내의 각 점에서의 형태정보와, 얼굴모형정보 DB(170)에 저장된 형태 고유벡터 를 바탕으로 추출된 상기 저해상도인 전체얼굴영상 내의 각 점의 형태정보에 대응되는 형태정보만으로 이루어진 형태 고유벡터[ ](즉, 저해상도 형태 고유벡터)의 선형 투사 연산과정을 통해 산출되며, 이와 같은 과정은 도 3b의 형태 고유벡터 계수 산출단계(s172)에서 이루어진다.At this time, It is assumed that the column vectors of are linearly independent. As a result, as defined in Equation 12, Is the shape information at each point in the low resolution full face image. And the shape eigenvector stored in the face model information DB 170. Shape eigenvectors consisting only of shape information corresponding to shape information of each point in the low resolution full face image extracted based on [ (Ie, a low resolution shape eigenvector) is calculated through a linear projection calculation process, and this process is performed in the shape eigenvector coefficient calculating step s172 of FIG. 3B.

따라서, 수학식 12를 정리하면, 최적의 해는 수학식 13으로부터 구할 수 있다. 최종적으로, 고해상도 얼굴영상을 위한 형태정보는 수학식 8과 수학식 13에 의거하여 정의된 수학식 14에 의해 복원된다.Therefore, the equation (12) is the best solution Can be obtained from equation (13). Finally, the shape information for the high resolution face image is restored by Equation 14 defined based on Equations 8 and 13.

즉, 고해상도 얼굴영상을 위한 형태정보는 수학식 13에서 계산된 최적의 형태 고유벡터 계수와 얼굴모형정보 DB(170)에 저장된 형태 고유벡터 를 바탕으로 추출된 고해상도 형태정보만으로 이루어진 형태 고유벡터 (즉, 고해상도 형태 고유벡터)를 선형 중첩함으로써 복원된다. 이와 같은 과정은 도 3b의 s173단계 및 s174단계에서 이루어진다.That is, shape information for high resolution face image Is the optimal shape eigenvector coefficient calculated from Eq. And the shape eigenvectors stored in the face model information DB 170 Shape eigenvector consisting only of high resolution shape information extracted based on (I.e., high resolution shape eigenvectors) is reconstructed by linearly superimposing. This process is performed in steps s173 and s174 of FIG. 3b.

마찬가지로, 위의 수학식들(수학식 8 내지 수학식 14)을 질감정보에 적용함으로써 저해상도인 전체얼굴영상에 대한 질감정보를 가지고 고해상도 얼굴영상을 위한 질감정보를 복원할 수 있다.Similarly, by applying the above equations (Equation 8 to Equation 14) to the texture information, it is possible to restore the texture information for the high-resolution face image with the texture information for the low-resolution full face image.

도 4는 본 발명의 다른 실시예에 따른 얼굴영상 복원방법에 대한 처리 흐름도이다. 도 4는 항상 손상된 저해상도의 얼굴영상이 입력된다는 가정 하에서, 얼굴영상을 복원하는 방법에 대한 실시예이다. 한편, 항상 손상된 저해상도의 얼굴영상이 입력되므로, 도 1에 도시된 전체얼굴영상 복원부(140)와, 고해상도 얼굴영상 복원부(150)는 하나로 통합되는 것이 바람직하다.4 is a flowchart illustrating a method of restoring a face image according to another exemplary embodiment of the present invention. 4 is an embodiment of a method for restoring a face image under the assumption that a damaged low resolution face image is always input. On the other hand, since the damaged low-resolution face image is always input, the full face image restoration unit 140 and the high resolution face image restoration unit 150 shown in FIG. 1 are preferably integrated into one.

도 4를 참조하면, 먼저, 본 발명의 다른 실시예에 따른 얼굴영상 복원방법은 손상된 저해상도의 얼굴영상을 입력받아(s300), 입력된 손상된 저해상도의 얼굴영상에서 손상 영역을 확인한 후 손상 영역을 검출하고, 검출된 손상 영역을 바탕으로 손상영역정보를 도출한다(s310). 이때, 손상영역정보에는 항상 국부 손상 영역에 대한 정보가 포함된다.Referring to FIG. 4, first, a method for restoring a face image according to another embodiment of the present invention receives a damaged low resolution face image (s300), detects a damaged area after checking a damaged area in the input damaged low resolution face image. In operation S310, damage area information is derived based on the detected damage area. At this time, the damaged area information always includes information on the local damaged area.

그리고, s310단계에서 도출된 손상영역정보에 의거하여 저해상도의 입력얼굴영상에서 손상된 영역을 제외한 나머지 영역을 국부 미손상 영역으로 인식한 후, 해당 국부 미손상 영역에 대한 저해상도의 입력얼굴영상과 소정의 저해상도 참조얼굴영상과의 대응관계를 자동 또는 수작업으로 얻음으로써 저해상도 참조얼굴영상에 대한 변형장 또는 위치 차이 정보로 표시되는 국부 미손상 영역에 대한 저해상도 입력얼굴영상의 형태정보와, 상기 저해상도 참조얼굴영상에 매핑된 입력얼굴영상의 색상 또는 명암정보로 표시되는 질감정보를 추출한다(s320).Then, based on the damaged region information derived in step s310, the remaining region except for the damaged region is recognized as a local undamaged region in the low-resolution input face image, and then the low-resolution input face image and the predetermined resolution for the local undamaged region are determined. Shape information of the low resolution input face image of the local uninjured region represented by the deformation length or position difference information of the low resolution reference face image by automatically or manually obtaining a correspondence relationship with the low resolution reference face image, and the low resolution reference face image The texture information represented by the color or contrast information of the input face image mapped to the extracted is extracted (S320).

상기 s320단계에서 추출된 국부 미손상 영역에 대한 저해상도 입력얼굴영상의 형태정보 및 질감정보를 가지고, 고해상도의 전체얼굴영상에 대한 형태정보 및 질감정보를 복원한다(s330). 이때, s330단계에 대한 상세한 설명은 도 5를 참조하여 설명하기로 한다.The shape information and texture information of the low resolution input face image of the local undamaged region extracted in step S320 are restored, and the shape information and texture information of the high resolution full face image are restored (S330). In this case, a detailed description of the operation s330 will be described with reference to FIG. 5.

마지막으로, s330단계에서 복원된 고해상도의 전체얼굴영상에 대한 형태정보와 질감정보를 합성함으로써 얼굴영상을 생성한다(s340). 여기서, s340단계에 대한 상세한 설명은 도 1에 도시된 얼굴영상 생성부(160)의 동작 설명시 이미 언급되었으므로 생략한다.Finally, the face image is generated by synthesizing the shape information and the texture information of the high resolution full face image restored in step S330 (S340). Here, since the detailed description of the operation s340 has already been mentioned when the operation of the face image generator 160 shown in FIG. 1 is already described, it will be omitted.

도 5는 본 발명의 다른 실시예에 따른 고해상도의 전체얼굴영상에 대한 형태정보 및 질감정보 복원과정(s330)에 대한 처리 흐름도이다. 도 5를 참조하면, 먼저, s320단계에서 추출된 국부 미손상 영역에 대한 저해상도 입력얼굴영상의 형태정보 및 질감정보를 입력받는다.5 is a flowchart illustrating a shape information and texture information restoration process s330 of a high resolution full face image according to another exemplary embodiment of the present invention. Referring to FIG. 5, first, shape information and texture information of a low resolution input face image of a local undamaged region extracted in step S320 are received.

그리고, 입력된 국부 미손상 영역에 대한 저해상도 입력얼굴영상의 형태정보를 가지고 기 구비된 얼굴모형정보 DB(170)에 저장된 형태 고유벡터를 검색하여, 해당 형태 고유벡터를 바탕으로 상기 국부 미손상 영역에 대한 저해상도 입력얼굴영상의 형태정보에 대응되는 저해상도 형태정보만을 추출한 후 그 추출된 형태정보만으로 이루어진 저해상도 형태 고유벡터를 도출한다(s331).Then, the shape intrinsic vector stored in the face model information DB 170 is searched with the shape information of the low resolution input face image of the input local intact region, and the local intact region is based on the shape inherent vector. After extracting only the low resolution shape information corresponding to the shape information of the low resolution input face image with respect to the low resolution shape eigenvector consisting of only the extracted shape information (s331).

이어서, 상기 s331단계에서 도출된 저해상도 형태 고유벡터를 상기 국부 미손상 영역에 대한 저해상도 입력얼굴영상의 형태정보에 일치시키기 위한 최적의 형태 고유벡터 계수를 산출한다(s332).Subsequently, an optimal shape eigenvector coefficient is calculated for matching the low resolution shape eigenvector derived in step S331 with the shape information of the low resolution input face image for the local undamaged region (S332).

한편, 얼굴모형정보 DB(170)에 저장된 형태 고유벡터를 바탕으로 고해상도 형태정보만을 추출하여 그 형태정보만으로 이루어진 고해상도 형태 고유벡터를 도출한 후(s333), 도출된 고해상도 형태 고유벡터와 상기 산출된 형태 고유벡터 계수를 선형 중첩함으로써 고해상도의 전체얼굴영상에 대한 형태정보를 복원한다(s334).Meanwhile, after extracting only high resolution shape information based on the shape unique vector stored in the face model information DB 170, a high resolution shape unique vector including only the shape information is derived (s333), and the derived high resolution shape unique vector and the calculated By linearly superimposing the shape eigenvector coefficients, shape information of the high resolution full face image is restored (s334).

또한, 입력된 국부 미손상 영역에 대한 저해상도 입력얼굴영상의 질감정보에 대하여도 상술한 과정과 동일하게 동작하는 단계들(s335, s336, s337, s338)을 수행하여 고해상도의 전체얼굴영상에 대한 질감정보를 복원한다.Also, textures of the high resolution full face image are performed by performing steps s335, s336, s337, and s338, which are performed in the same manner as described above, with respect to the texture information of the low resolution input face image of the input local undamaged region. Restore the information.

여기서, 도 5에 도시된 국부 미손상 영역에 대한 저해상도 입력얼굴영상의 형태정보 및 질감정보를 가지고 고해상도의 전체얼굴영상에 대한 형태정보 및 질감정보를 복원하는 과정은 도 3a를 참조한 국부 미손상 영역에 대한 입력얼굴영상의형태정보 및 질감정보를 가지고 전체얼굴영상에 대한 형태정보 및 질감정보를 복원하는 과정과, 도 3b를 참조한 저해상도인 전체얼굴영상의 형태정보 및 질감정보를 가지고 고해상도의 얼굴영상을 위한 형태정보 및 질감정보를 복원하는 과정을 결합한 형태이므로, 도 5에 도시된 각 단계들(s331, s332, s333, s334, s335, s336, s337, s338)에 대한 상세한 설명은 생략하기로 한다.Here, the process of restoring the shape information and the texture information of the high resolution full face image with the shape information and the texture information of the low resolution input face image of the local undamaged region shown in FIG. A process of restoring the shape information and the texture information of the entire face image with the shape information and the texture information of the input face image, and the high resolution face image with the shape information and the texture information of the low resolution full face image with reference to FIG. Since it combines the process of restoring the shape information and texture information for, the detailed description of each step (s331, s332, s333, s334, s335, s336, s337, s338) shown in FIG. .

도 6은 본 발명의 실시예에 따른 얼굴영상 복원장치를 이용한 얼굴인식시스템에 대한 개략적인 구성을 나타낸 제1예시도이다. 도 6을 참조하면, 얼굴인식시스템(200)은 인식특징정보 추출부(210), 유사도 비교부(220), 결과 출력부(230) 및 얼굴특징정보 DB(240)를 포함하여 구성된다.6 is a first exemplary view showing a schematic configuration of a face recognition system using a face image restoration apparatus according to an embodiment of the present invention. Referring to FIG. 6, the face recognition system 200 includes a recognition feature information extractor 210, a similarity comparison unit 220, a result output unit 230, and a face feature information DB 240.

인식특징정보 추출부(210)는 얼굴영상 복원장치(100)의 얼굴영상 생성부(160)로부터 얼굴영상을 입력받아, 입력된 얼굴영상으로부터 얼굴인식에 필요한 특징정보(이하, 인식특징정보라 함)를 추출한다. 여기서, 인식특징정보로는 얼굴영상을 얼굴구성요소(예컨대, 눈, 코, 입 등)를 기준으로 정규화 한 영상, 얼굴영상을 주성분 분석 처리함으로써 획득한 계수, 얼굴구성요소간의 상관관계를 나타내는 비율정보, 얼굴영상의 웨이블렛 변환 계수 등이 이용될 수 있다.The recognition feature information extracting unit 210 receives a face image from the face image generating unit 160 of the face image restoring apparatus 100, and then uses feature information necessary for face recognition from the input face image (hereinafter, referred to as recognition feature information) ). Here, the recognition characteristic information includes a normalized image of a face image based on face components (for example, eyes, nose, mouth, etc.), a coefficient obtained by principal component analysis of a face image, and a ratio representing a correlation between face components. Information, wavelet transform coefficients of the face image, and the like may be used.

유사도 비교부(220)는 인식특징정보 추출부(210)로부터 인식특징정보를 입력받아, 입력된 인식특징정보와 기 구비된 얼굴특징정보 DB(240)에 저장된 다수의 각 인식특징정보간의 유사도를 산출한 후 산출된 각 유사도를 비교하여 가장 큰 유사도를 갖는 인식특징정보를 상기 얼굴특징정보 DB(240)로부터 추출한다. 이때, 두 인식특징정보간의 유사도는 인식특징정보간의 상관도(Correlation),유클리디안(Euclidean) 거리등을 이용하여 산출될 수 있다. 여기서, 유사도 산출방법에는 보다 다양한 수식들이 이용될 수 있으며, 또한, 유사도 산출방법은 본 기술분야의 당업자에게 널리 공지된 사항이므로 상세한 설명은 생략한다.The similarity comparison unit 220 receives the recognition feature information from the recognition feature information extractor 210, and compares the similarity between the input recognition feature information and each of the plurality of recognition feature information stored in the facial feature information DB 240 provided. After the calculation, the calculated similarity is extracted from the facial feature information DB 240 by comparing each calculated similarity. In this case, the similarity between the two recognition feature information may be calculated using the correlation between the recognition feature information, the Euclidean distance, and the like. Here, more various equations may be used for the similarity calculation method, and the similarity calculation method is well known to those skilled in the art, and thus a detailed description thereof will be omitted.

결과출력부(230)는 유사도 비교부(220)에서 추출한 인식특징정보에 대응되는 얼굴영상정보(예컨대, 사진) 및 인적정보(예컨대, 이름, 나이 등)를 상기 얼굴특징정보 DB(240)로부터 추출하여 출력한다.The result output unit 230 transmits the face image information (eg, photo) and human information (eg, name, age, etc.) corresponding to the recognition feature information extracted by the similarity comparison unit 220 from the face feature information DB 240. Extract it and print it out.

한편, 얼굴특징정보 DB(240)는 인식특징정보 추출부(210)에서 추출된 인식특징정보와의 유사도 비교를 위한 다수의 각 얼굴영상에 대한 인식특징정보를 저장하고, 또한, 각 인식특징정보에 대한 얼굴영상정보 및 인적정보를 저장하고 있다.Meanwhile, the facial feature information DB 240 stores recognition feature information for each of a plurality of face images for comparing the similarity with the recognition feature information extracted by the recognition feature information extractor 210, and also recognizes each feature feature. It stores face image information and personal information about.

도 7은 본 발명의 실시예에 따른 얼굴영상 복원장치를 이용한 얼굴인식시스템에 대한 개략적인 구성을 나타낸 제2예시도이다. 도 7을 참조하면, 얼굴인식시스템(300)은 유사도 비교부(310), 결과출력부(320) 및 얼굴특징정보 DB(330)를 포함하여 구성된다.7 is a second exemplary view showing a schematic configuration of a face recognition system using a face image restoration apparatus according to an embodiment of the present invention. Referring to FIG. 7, the face recognition system 300 includes a similarity comparison unit 310, a result output unit 320, and a facial feature information DB 330.

이때, 얼굴인식시스템(300)은 얼굴영상 복원장치(100)의 고해상도 얼굴영상 복원부(150)를 통해 복원된 고해상도 얼굴영상에 대한 형태정보 및 질감정보를 입력받아, 입력된 형태정보 및 질감정보를 인식특징정보로 설정한 후, 그 형태정보 및 질감정보를 가지고, 얼굴특징정보 DB(330)를 검색하여 상기 입력된 형태정보 및 질감정보와의 유사도가 가장 큰 형태정보 및 질감정보를 추출한 후, 추출된 형태정보 및 질감정보에 대응되는 얼굴영상정보 및 인정정보를 출력하는 것을 특징으로 한다.At this time, the face recognition system 300 receives the shape information and texture information of the high resolution face image restored through the high resolution face image restoration unit 150 of the face image restoration apparatus 100, and inputs the shape information and texture information. After the feature is set as the recognition feature information, the shape feature and texture information is retrieved, and the face feature information DB 330 is searched to extract the shape information and texture information having the greatest similarity with the input shape information and texture information. The facial image information and recognition information corresponding to the extracted shape information and texture information may be output.

여기서, 도 7에 도시된 얼굴인식시스템(300)은 도 6에 도시된 얼굴인식시스템(200)과 달리, 얼굴영상 복원장치(100)의 고해상도 얼굴영상 복원부(150)를 통해 복원된 고해상도 얼굴영상의 형태정보 및 질감정보를 인식특징정보로 활용함으로써 인식특징정보 추출을 위한 별도의 장치(즉, 인식특징정보 추출부)가 구비되지 않을 수도 있다.Here, unlike the face recognition system 200 illustrated in FIG. 6, the face recognition system 300 illustrated in FIG. 7 is a high resolution face restored through the high resolution face image restoration unit 150 of the face image restoration apparatus 100. By using the shape information and the texture information of the image as recognition feature information, a separate device (ie, recognition feature information extraction unit) for extracting recognition feature information may not be provided.

한편, 도 7에 도시된 유사도 비교부(310)는 도 6에 도시된 유사도 비교부(220)와 동일하게 동작한다. 다만, 유사도 비교시 이용되는 데이터가 다를 뿐이다. 또한, 도 7에 도시된 얼굴특징정보 DB(330)는 도 6에 도시된 얼굴특징정보 DB(240)와 달리, 다수의 각 얼굴영상에 대한 형태정보 및 질감정보를 저장하고, 각 형태정보 및 질감정보에 대응되는 얼굴영상정보 및 인적정보를 저장한다.Meanwhile, the similarity comparison unit 310 illustrated in FIG. 7 operates in the same manner as the similarity comparison unit 220 illustrated in FIG. 6. However, only the data used for comparing the similarity is different. In addition, unlike the facial feature information DB 240 shown in FIG. 6, the facial feature information DB 330 shown in FIG. 7 stores shape information and texture information of each of a plurality of face images, and each shape information and It stores face image information and human information corresponding to texture information.

마지막으로, 본 발명의 실시예에 따른 얼굴영상 복원장치(100)의 결과정보를 입력정보로 활용하는 얼굴인식시스템(200, 300)은 기존의 시스템으로서, 상술한 동작방법 이외의 다양한 방법에 의해 얼굴을 인식하는 시스템도 사용될 수 있음은 당연하다.Finally, the face recognition systems 200 and 300 utilizing the result information of the face image restoration apparatus 100 according to the embodiment of the present invention as input information are conventional systems, and may be implemented by various methods other than the above-described operation method. Naturally, a face recognition system can also be used.

이제까지 본 발명에 대하여 그 바람직한 실시예를 중심으로 살펴보았다. 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자는 본 발명이 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시된 실시예는 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로해석되어야 할 것이다.So far I looked at the center of the preferred embodiment for the present invention. Those skilled in the art will appreciate that the present invention can be implemented in a modified form without departing from the essential features of the present invention. Therefore, the disclosed embodiments should be considered in descriptive sense only and not for purposes of limitation. The scope of the present invention is shown not in the above description but in the claims, and all differences within the equivalent scope should be interpreted as being included in the present invention.

본 발명에 의하면, 손상된 얼굴영상 또는 저해상도의 얼굴영상을 보다 간소화된 계산과정을 통해 원래 상태의 전체얼굴영상 또는 고해상도의 얼굴영상으로 복원시킬 수 있다는 효과가 있다.According to the present invention, a damaged face image or a low resolution face image can be restored to a full face image or a high resolution face image in its original state through a more simplified calculation process.

한편, 본 발명은 기존의 얼굴인식시스템과 연동하여, 얼굴인식시스템에 입력정보로서 제공되는 손상된 얼굴영상 또는 저해상도의 얼굴영상을 원래 상태의 얼굴영상으로 복원시키거나 또는 고해상도의 얼굴영상으로 복원시켜 줌으로써 얼굴인식시스템의 결과를 보다 향상시켜 줄 수 있다는 장점이 있다.On the other hand, the present invention in conjunction with the existing face recognition system, by restoring a damaged face image or a low-resolution face image provided as input information to the face recognition system to the original state face image or by reconstructing the face image of a high resolution There is an advantage that can improve the result of the face recognition system.

Claims (10)

소정의 얼굴영상에서 손상영역정보를 도출하는 손상영역 검출부;A damaged area detector for deriving damaged area information from a predetermined face image; 손상영역 검출부로부터 전달받은 손상영역정보에 의거하여 입력얼굴영상에서 미손상 영역을 인식하고, 그 미손상 영역에 대한 입력얼굴영상에서 소정의 참조얼굴영상에 대한 변형장으로 표시되는 입력얼굴영상의 형태정보와 상기 참조얼굴영상에 매핑된 입력얼굴영상의 질감정보를 추출하는 형태/질감정보 추출부;A type of input face image that is recognized as an intact area in the input face image based on the damaged area information received from the damaged area detection unit, and is displayed as a deformation field for a predetermined reference face image in the input face image for the intact area. A shape / texture information extracting unit for extracting information and texture information of an input face image mapped to the reference face image; 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 상기 미손상 영역의 형태정보 및 질감정보에 대응되는 형태정보 및 질감정보만을 추출하여, 미손상 영역의 형태정보 및 질감정보와 각각 선형 투사 연산을 통해 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출하고, 산출된 형태 고유벡터 계수 및 질감 고유벡터 계수를 형태 고유벡터 및 질감 고유벡터와 각각 선형 중첩함으로써 전체얼굴영상에 대한 형태정보 및 질감정보를 복원하는 전체얼굴영상 복원부; 및Based on a plurality of shape eigenvectors and texture eigenvectors provided, only shape information and texture information corresponding to the shape information and texture information of the intact area are extracted, and linear and projection of the shape information and texture information of the intact area, respectively. Calculation of shape eigenvector coefficients and texture eigenvector coefficients through calculation, and by linearly overlapping the calculated eigenvector coefficients and texture eigenvector coefficients with shape eigenvectors and texture eigenvectors, respectively, shape information and texture information of the entire face image A full face image restorer to restore the image; And 상기 전체얼굴영상 복원부를 통해 전달받은 전체얼굴영상에 대한 형태정보와 질감정보를 합성하여 얼굴영상을 생성하는 얼굴영상 생성부를 포함하여 구성되는 것을 특징으로 하는 얼굴영상 복원장치.And a face image generation unit for generating a face image by synthesizing the shape information and the texture information of the whole face image received through the full face image restoring unit. 제1항에 있어서,The method of claim 1, 소정 얼굴영상에 대한 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이상인지 여부를 판단하고,It is determined whether the resolution of the shape information and the texture information of the predetermined face image is greater than or equal to the preset reference resolution. 상기 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이하이면, 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 상기 형태정보 및 질감정보에 각각 대응되는 저해상도 형태정보 및 질감정보를 추출하여, 상기 형태정보 및 질감정보와 각각 선형 투사 연산을 통해 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출하고, 산출된 형태 고유벡터 계수 및 질감 고유벡터 계수를 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 도출시킨 고해상도 형태 고유벡터 및 질감 고유벡터와 각각 선형 중첩함으로써 고해상도 얼굴영상을 위한 형태정보 및 질감정보를 복원하는 고해상도 얼굴영상 복원부를 더 포함하여 구성되는 것을 특징으로 하는 얼굴영상 복원장치.When the resolution of the shape information and texture information is less than or equal to a preset reference resolution, low resolution shape information and texture information corresponding to the shape information and texture information are extracted based on a plurality of shape unique vectors and texture unique vectors. The shape eigenvector coefficients and texture eigenvector coefficients are calculated through the linear projection operation with the shape information and texture information, respectively, and the calculated shape eigenvector coefficients and texture eigenvector coefficients are based on a plurality of shape eigenvectors and texture eigenvectors. And a high resolution face image restoring unit for restoring the shape information and the texture information for the high resolution face image by linearly overlapping the high resolution shape eigenvectors and the texture eigenvectors, respectively. 제1항 또는 제2항에 있어서, 상기 손상영역 검출부는The damage zone detection unit of claim 1 or 2, wherein the damage area detection unit 얼굴영상의 일부가 손상된 것으로 판단되면 그 손상된 영역이 국부 손상 영역으로 검출된 것을 나타내는 손상영역정보를 도출하고, 상기 얼굴영상의 전부가 손상되지 않은 것으로 판단되면 손상 영역이 검출되지 않은 것을 나타내는 손상영역정보를 도출하는 것을 특징으로 하는 얼굴영상 복원장치.If it is determined that a part of the face image is damaged, damage area information indicating that the damaged area is detected as a local damage area is derived, and if it is determined that all of the face image is not damaged, the damaged area indicating that the damaged area is not detected Facial image restoration device, characterized in that to derive the information. 제3항에 있어서, 상기 형태/질감정보 추출부는The method of claim 3, wherein the form / texture information extraction unit 전달받은 손상영역정보가 국부 손상 영역에 대한 정보이면, 입력얼굴영상에서 국부 손상 영역을 제외한 나머지 영역을 국부 미손상 영역으로 지정하고, 해당 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 추출한 후 전체얼굴영상 복원부로 전달하고,If the received damaged area information is information on the local damaged area, the remaining area except the local damaged area in the input face image is designated as a local undamaged area, and the shape information and texture information of the input face image for the local undamaged area. After extracting and passing to the full face image restoration unit, 상기 전달받은 손상영역정보가 손상 영역의 미 검출에 대한 정보이면, 입력얼굴영상의 전체 영역을 전체 미손상 영역으로 지정하고 해당 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 추출한 후 고해상도 얼굴영상 복원부로 전달하는 것을 특징으로 하는 얼굴영상 복원장치.If the received damaged region information is information on the undetected damage region, the entire region of the input face image is designated as all intact region, and after extracting the shape information and texture information of the input face image for the entire intact region, Face image restoration apparatus characterized in that the transfer to the high-resolution face image restoration unit. 제4항에 있어서, 상기 전체얼굴영상 복원부는The method of claim 4, wherein the full face image restoration unit 형태/질감정보 추출부로부터 국부 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보를 전달받고, 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 상기 전달받은 국부 미손상 영역의 형태정보 및 질감정보에 대응되는 형태정보 및 질감정보만으로 이루어진 서브 형태 고유벡터 및 질감 고유벡터를 도출하는 형태/질감 고유벡터 도출부와,The shape / texture information extracting unit receives shape information and texture information of the input face image of the local undamaged area, and based on the plurality of shape eigenvectors and texture eigenvectors provided, the shape of the received local undamaged area. A shape / texture eigenvector derivation unit for deriving a sub-form eigenvector and a texture eigenvector comprising only shape information and texture information corresponding to the information and texture information; 상기 도출된 서브 형태 고유벡터 및 서브 질감 고유벡터와 국부 미손상 영역의 형태정보 및 질감정보를 각각 선형 투사 연산하여, 상기 도출된 서브 형태 고유벡터 및 질감 고유벡터를 해당 국부 미손상 영역의 형태정보 및 질감정보에 각각 일치시키기 위한 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출하는 형태 /질감 고유벡터 계수 산출부와,The subform eigenvectors and subtexture eigenvectors and the shape information and texture information of the local undamaged region are linearly projected, respectively, and the derived subtype eigenvectors and texture eigenvectors are used to form information of the corresponding local undamaged regions. A shape / texture eigenvector coefficient calculator for calculating shape eigenvector coefficients and texture eigenvector coefficients for matching to texture and texture information, respectively; 상기 산출된 형태 고유벡터 계수와 형태 고유벡터를 선형 중첩하고, 산출된 질감 고유벡터 계수와 질감 고유벡터를 선형 중첩함으로써 전체얼굴영상에 대한 형태정보 및 질감정보를 복원하는 선형 중첩부로 구성되는 것을 특징으로 하는 얼굴영상 복원장치.And linearly overlapping the calculated shape eigenvector coefficients and the shape eigenvectors and linearly overlapping the calculated texture eigenvector coefficients and texture eigenvectors. Facial image restoration device. 제5항에 있어서, 상기 고해상도 얼굴영상 복원부는The method of claim 5, wherein the high-resolution face image restoration unit 전체얼굴영상 복원부를 통해 복원된 전체얼굴영상에 대한 형태정보 및 질감정보의 해상도가 기준 해상도 이상인지 여부를 판단하는 해상도 판단부와,A resolution determination unit that determines whether the resolution of the shape information and texture information of the entire face image restored by the full face image restoration unit is equal to or greater than the reference resolution; 상기 전체얼굴영상에 대한 형태정보 및 질감정보의 해상도가 기준 해상도 이하인 것으로 판단되면, 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 상기 전체얼굴영상의 형태정보 및 질감정보에 대응되는 저해상도 형태정보 및 질감정보만으로 이루어진 저해상도 형태 고유벡터 및 질감 고유벡터를 도출하는 저해상도 형태/질감 고유벡터 도출부와,If it is determined that the resolution of the shape information and the texture information of the entire face image is less than or equal to the reference resolution, the low resolution corresponding to the shape information and the texture information of the whole face image is based on a plurality of shape unique vectors and texture unique vectors. A low resolution shape / texture eigenvector derivation unit for deriving a low resolution eigenvector and a texture eigenvector comprising only the shape information and texture information; 상기 도출된 저해상도 형태 고유벡터 및 질감 고유벡터를 상기 전체얼굴영상의 형태정보 및 질감정보와 각각 선형 투사 연산하여, 상기 저해상도 형태 고유벡터 및 질감 고유벡터를 해당 전체얼굴영상의 형태정보 및 질감정보에 각각 일치시키기 위한 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출하는 형태/질감 고유벡터 계수 산출부와,The derived low resolution shape eigenvectors and texture eigenvectors are linearly projected with the shape information and texture information of the entire face image, respectively, and the low resolution shape eigenvectors and texture eigenvectors are applied to the shape information and texture information of the corresponding full face image. A shape / texture eigenvector coefficient calculating unit for calculating a shape eigenvector coefficient and a texture eigenvector coefficient for matching respectively; 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 고해상도의 형태정보 및 질감정보만으로 이루어진 고해상도 형태 고유벡터 및 질감 고유벡터를 도출하는 고해상도 형태/질감 고유벡터 도출부와,A high resolution shape / texture eigenvector derivation unit for deriving a high resolution shape eigenvector and texture eigenvector consisting of only high resolution shape information and texture information based on a plurality of preformed shape eigenvectors and texture eigenvectors; 상기 산출된 형태 고유벡터 계수와 도출된 고해상도 형태 고유벡터를 선형 중첩하여 고해상도 얼굴영상을 위한 형태정보를 복원하고, 산출된 질감 고유벡터계수와 도출된 고해상도 질감 고유벡터를 선형 중첩하여 고해상도 얼굴영상을 위한 질감정보를 복원하는 선형 중첩부로 구성되는 것을 특징으로 하는 얼굴영상 복원장치.Linearly superimpose the calculated shape eigenvector coefficients and the derived high resolution shape eigenvectors to restore shape information for a high resolution face image, and linearly overlap the calculated texture eigenvector coefficients and derived high resolution texture eigenvectors to obtain a high resolution face image. Facial image restoration apparatus comprising a linear overlapping portion for restoring texture information for. 제6항에 있어서, 상기 얼굴영상 생성부는The apparatus of claim 6, wherein the face image generation unit 상기 고해상도 얼굴영상 복원부를 통해 복원된 고해상도 얼굴영상에 대한 형태정보와 질감정보를 합성하여 얼굴영상을 생성하는 것을 특징으로 하는 얼굴영상 복원장치.And a face image by synthesizing the shape information and the texture information of the high resolution face image restored by the high resolution face image restoration unit. 제4항에 있어서, 상기 고해상도 얼굴영상 복원부는The method of claim 4, wherein the high-resolution face image restoration unit 형태/질감정보 추출부를 통해 추출된 전체 미손상 영역에 대한 입력얼굴영상의 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이상인지 여부를 판단하는 해상도 판단부와,A resolution determination unit for determining whether the resolution of the shape information and texture information of the input face image of the entire undamaged region extracted by the shape / texture information extraction unit is equal to or greater than a preset reference resolution; 상기 전체 미손상 영역의 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이하로 판단되면, 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 상기 전체 미손상 영역의 형태정보 및 질감정보에 대응되는 저해상도 형태정보 및 질감정보만으로 이루어진 저해상도 형태 고유벡터 및 질감 고유벡터를 도출하는 저해상도 형태/질감 고유벡터 도출부와,If it is determined that the resolution of the shape information and texture information of the entire undamaged region is less than or equal to a preset reference resolution, the shape information and texture information of the entire undamaged region are based on a plurality of shape inherent vectors and texture eigenvectors. A low resolution shape / texture eigenvector derivation unit for deriving a low resolution eigenvector and a texture eigenvector comprising only corresponding low resolution shape information and texture information; 상기 도출된 저해상도 형태 고유벡터 및 질감 고유벡터를 상기 전체 미손상 영역의 형태정보 및 질감정보와 각각 선형 투사 연산하여, 상기 저해상도 형태 고유벡터 및 질감 고유벡터를 해당 전체 미손상 영역의 형태정보 및 질감정보에 각각 일치시키기 위한 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출하는 형태/질감 고유벡터 계수 산출부와,The derived low resolution shape eigenvectors and texture eigenvectors are linearly projected with the shape information and texture information of the entire undamaged area, respectively, and the low resolution shape eigenvectors and texture eigenvectors are used for the shape information and texture of the entire undamaged area. A shape / texture eigenvector coefficient calculator for calculating a shape eigenvector coefficient and a texture eigenvector coefficient for matching each information; 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 고해상도의 형태정보 및 질감정보만으로 이루어진 고해상도 형태 고유벡터 및 질감 고유벡터를 도출하는 고해상도 형태/질감 고유벡터 도출부와,A high resolution shape / texture eigenvector derivation unit for deriving a high resolution shape eigenvector and texture eigenvector consisting of only high resolution shape information and texture information based on a plurality of preformed shape eigenvectors and texture eigenvectors; 상기 산출된 형태 고유벡터 계수와 도출된 고해상도 형태 고유벡터를 선형 중첩하여 고해상도의 전체얼굴영상에 대한 형태정보를 복원하고, 산출된 질감 고유벡터 계수와 고해상도 질감 고유벡터를 선형 중첩하여 고해상도의 전체얼굴영상에 대한 질감정보를 복원하는 선형 중첩부로 구성되는 것을 특징으로 하는 얼굴영상 복원장치.Linearly superimpose the calculated shape eigenvector coefficients and the derived high resolution shape eigenvectors to restore shape information for the high resolution full face image, and linearly overlap the calculated texture eigenvector coefficients and high resolution texture eigenvectors Facial image restoration apparatus comprising a linear overlapping portion for restoring texture information for the image. (a) 소정의 얼굴영상에서 손상영역정보를 도출하는 단계;(a) deriving damaged area information from a predetermined face image; (b) (a)단계에서 도출된 손상영역정보를 입력받아, 입력된 손상영역정보에 의거하여 입력얼굴영상에서 미손상 영역을 인식한 후, 그 미손상 영역에 대한 입력얼굴영상에서 소정의 참조얼굴영상에 대한 변형장으로 표시되는 입력얼굴영상의 형태정보와 상기 참조얼굴영상에 매핑된 입력얼굴영상의 질감정보를 추출하는 단계;(b) receiving the damaged area information derived in step (a), recognizing the intact area in the input face image based on the input damaged area information, and then referring to a predetermined reference in the input face image for the intact area. Extracting shape information of an input face image displayed as a deformation field for a face image and texture information of the input face image mapped to the reference face image; (c) 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 상기 미손상 영역의 형태정보 및 질감정보에 대응되는 형태정보 및 질감정보만을 추출한 후, 추출된 형태정보 및 질감정보를 미손상 영역의 형태정보 및 질감정보에 일치시키기 위한 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출하고, 산출된 형태 고유벡터 계수 및 질감 고유벡터 계수를 형태 고유벡터 및 질감 고유벡터와 각각 선형 중첩함으로써 전체얼굴영상에 대한 형태정보 및 질감정보를 복원하는 단계;(c) After extracting only the shape information and texture information corresponding to the shape information and texture information of the undamaged region based on a plurality of shape unique vectors and texture eigenvectors, the extracted shape information and texture information are intact. Compute shape eigenvector coefficients and texture eigenvector coefficients to match the shape information and texture information of the area, and linearly overlap the calculated shape eigenvector and texture eigenvector coefficients with shape eigenvectors and texture eigenvectors respectively. Restoring shape information and texture information of the image; (d) (b)단계에서 추출된 미손상 영역의 형태정보 및 질감정보를 입력받거나 또는 (c)단계에서 복원된 전체얼굴영상의 형태정보 및 질감정보를 입력받아, 입력된 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이상인지 여부를 판단하는 단계;(d) the shape information and texture information of the undamaged region extracted in step (b) or the shape information and texture information of the entire face image restored in step (c) are received, Determining whether the resolution is equal to or greater than the preset reference resolution; (e) 상기 입력된 형태정보 및 질감정보의 해상도가 기 설정된 기준 해상도 이하인 것으로 판단되면, 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 상기 입력된 형태정보 및 질감정보에 대응되는 저해상도 형태정보 및 질감정보만을 추출한 후, 추출된 저해상도 형태정보 및 질감정보를 입력된 형태정보 및 질감정보에 일치시키기 위한 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출하는 단계;(e) if it is determined that the resolution of the inputted shape information and texture information is less than or equal to a preset reference resolution, a low resolution corresponding to the inputted shape information and texture information based on a plurality of preformed shape intrinsic vectors and texture inherent vectors; Extracting only shape information and texture information, and calculating shape eigenvector coefficients and texture eigenvector coefficients for matching the extracted low resolution shape information and texture information with the input shape information and texture information; (f) 상기 산출된 형태 고유벡터 계수 및 질감 고유벡터 계수를 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 도출시킨 고해상도 형태정보 및 질감정보만으로 이루어진 고해상도 형태 고유벡터 및 질감 고유벡터와 각각 선형 중첩함으로써 고해상도 얼굴영상에 대한 형태정보 및 질감정보를 복원하는 단계; 및(f) a high resolution shape eigenvector and texture eigenvector consisting of only high resolution shape information and texture information derived based on the calculated shape eigenvector coefficients and texture eigenvector coefficients; Restoring shape information and texture information of the high-resolution face image by linearly overlapping each other; And (g) (f)단계에서 복원된 고해상도 얼굴영상에 대한 형태정보 및 질감정보를 입력받아, 입력된 형태정보와 질감정보를 합성함으로써 고해상도의 전체얼굴영상에대응되는 얼굴영상을 생성하는 단계를 포함하여 이루어지는 것을 특징으로 하는 얼굴영상 복원방법.(g) receiving shape information and texture information of the reconstructed high resolution face image in step (f), and synthesizing the input shape information and texture information to generate a face image corresponding to the high resolution full face image; Facial image restoration method characterized in that made. (a) 소정 영역이 손상된 저해상도 얼굴영상에서 손상 영역을 검출하는 단계;(a) detecting a damaged area in a low resolution face image in which a predetermined area is damaged; (b) (a)단계에서 검출된 손상 영역에 의거하여 입력얼굴영상에서 미손상 영역을 인식하고, 그 미손상 영역에 대한 저해상도 입력얼굴영상에서 소정의 저해상도 참조얼굴영상에 대한 변형장으로 표시되는 입력얼굴영상의 형태정보와 상기 저해상도 참조얼굴영상에 매핑된 입력얼굴영상의 질감정보를 추출하는 단계;(b) Recognizing an undamaged region in the input face image based on the damaged region detected in step (a), and displaying a deformation length for a predetermined low resolution reference face image in the low resolution input face image for the intact region Extracting shape information of an input face image and texture information of an input face image mapped to the low resolution reference face image; (c) (b)단계에서 추출된 미손상 영역에 대한 저해상도 입력얼굴영상의 형태정보 및 질감정보를 입력받아, 입력된 형태정보 및 질감정보에 대응되는 저해상도 형태정보 및 질감정보만으로 이루어진 저해상도 형태 고유벡터 및 질감 고유벡터를 기 구비된 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 도출하는 단계;(c) Receive the shape information and texture information of the low resolution input face image extracted in the step (b), the unique low resolution shape consisting of only the low resolution shape information and texture information corresponding to the input shape information and texture information Deriving a vector and a texture eigenvector based on a plurality of shape eigenvectors and a texture eigenvector; (d) 상기 도출된 저해상도 형태 고유벡터 및 질감 고유벡터를 입력된 형태정보 및 질감정보에 일치시키기 위한 형태 고유벡터 계수 및 질감 고유벡터 계수를 산출한 후, 상기 다수개의 형태 고유벡터 및 질감 고유벡터를 바탕으로 도출시킨 고해상도 형태정보 및 질감정보만으로 이루어진 고해상도 형태 고유벡터 및 고해상도 질감 고유벡터와 각각 선형 중첩함으로써 고해상도의 전체얼굴영상에 대한 형태정보 및 질감정보를 복원하는 단계; 및(d) calculating the shape eigenvector coefficients and texture eigenvector coefficients for matching the derived low resolution shape eigenvectors and texture eigenvectors with the inputted shape information and texture information, and then calculating the plurality of shape eigenvectors and texture eigenvectors. Restoring the shape information and the texture information of the high resolution full face image by linearly overlapping the high resolution shape eigenvector and the high resolution texture eigenvector composed of only the high resolution shape information and the texture information derived based on the above; And (e) (d)단계에서 복원된 고해상도의 전체얼굴영상에 대한 형태정보와 질감정보를 합성함으로써 얼굴영상을 생성하는 단계를 포함하여 이루어지는 것을 특징으로 하는 얼굴영상 복원방법.(e) generating a face image by synthesizing the shape information and texture information of the high resolution full face image restored in step (d).
KR1020030020200A 2003-03-31 2003-03-31 Apparatus and method for reconstructing facial image KR20040085503A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020030020200A KR20040085503A (en) 2003-03-31 2003-03-31 Apparatus and method for reconstructing facial image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020030020200A KR20040085503A (en) 2003-03-31 2003-03-31 Apparatus and method for reconstructing facial image

Publications (1)

Publication Number Publication Date
KR20040085503A true KR20040085503A (en) 2004-10-08

Family

ID=37368487

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020030020200A KR20040085503A (en) 2003-03-31 2003-03-31 Apparatus and method for reconstructing facial image

Country Status (1)

Country Link
KR (1) KR20040085503A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100954288B1 (en) * 2008-10-20 2010-04-23 한양대학교 산학협력단 Method and apparatus for completing image with structure estimation
KR20110069923A (en) * 2009-12-18 2011-06-24 한국전자통신연구원 Scalable object recognition by hallucinating contextually missing features
CN111353943A (en) * 2018-12-20 2020-06-30 杭州海康威视数字技术股份有限公司 Face image recovery method and device and readable storage medium

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100954288B1 (en) * 2008-10-20 2010-04-23 한양대학교 산학협력단 Method and apparatus for completing image with structure estimation
KR20110069923A (en) * 2009-12-18 2011-06-24 한국전자통신연구원 Scalable object recognition by hallucinating contextually missing features
CN111353943A (en) * 2018-12-20 2020-06-30 杭州海康威视数字技术股份有限公司 Face image recovery method and device and readable storage medium
CN111353943B (en) * 2018-12-20 2023-12-26 杭州海康威视数字技术股份有限公司 Face image recovery method and device and readable storage medium

Similar Documents

Publication Publication Date Title
Peng et al. FD-GAN: Face de-morphing generative adversarial network for restoring accomplice’s facial image
CN110991281B (en) Dynamic face recognition method
CN108846355A (en) Image processing method, face identification method, device and computer equipment
Colombo et al. 3D face detection using curvature analysis
US6181805B1 (en) Object image detecting method and system
CN110569731B (en) Face recognition method and device and electronic equipment
CN109598210B (en) Picture processing method and device
Javed Face recognition based on principal component analysis
KR102275803B1 (en) Apparatus and method for detecting forgery or alteration of the face
CN110705353A (en) Method and device for identifying face to be shielded based on attention mechanism
CN111339897B (en) Living body identification method, living body identification device, computer device, and storage medium
De Smet et al. A generalized EM approach for 3D model based face recognition under occlusions
Sharma et al. Image-level iris morph attack
KR20040085503A (en) Apparatus and method for reconstructing facial image
TWM592131U (en) Characteristic encoding system and internet bank service system applying the same
CN115424337A (en) Iris image restoration system based on priori guidance
CN115205943A (en) Image processing method, image processing device, electronic equipment and storage medium
US20230103555A1 (en) Information processing apparatus, information processing method, and program
Rodriguez 3D face modelling for 2D+ 3D face recognition
Rajeswari et al. Face occlusion removal for face recognition using the related face by structural similarity index measure and principal component analysis
Favorskaya et al. Fake face image detection using deep learning-based local and global matching
Karthigayani et al. A novel approach for face recognition and age estimation using local binary pattern, discriminative approach using two layered back propagation network
Khamele et al. An approach for restoring occluded images for face-recognition
Beumier et al. Automatic face recognition
Hwang et al. Facial image reconstruction from a corrupted image by support vector data description

Legal Events

Date Code Title Description
A201 Request for examination
N231 Notification of change of applicant
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
E701 Decision to grant or registration of patent right
E701 Decision to grant or registration of patent right
NORF Unpaid initial registration fee