KR100902995B1 - Method for making face image of golden ratio, and apparatus applied to the same - Google Patents

Method for making face image of golden ratio, and apparatus applied to the same Download PDF

Info

Publication number
KR100902995B1
KR100902995B1 KR1020070106528A KR20070106528A KR100902995B1 KR 100902995 B1 KR100902995 B1 KR 100902995B1 KR 1020070106528 A KR1020070106528 A KR 1020070106528A KR 20070106528 A KR20070106528 A KR 20070106528A KR 100902995 B1 KR100902995 B1 KR 100902995B1
Authority
KR
South Korea
Prior art keywords
image
face
ratio
feature points
feature
Prior art date
Application number
KR1020070106528A
Other languages
Korean (ko)
Other versions
KR20090041039A (en
Inventor
오현준
오석표
Original Assignee
에스케이 텔레콤주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이 텔레콤주식회사 filed Critical 에스케이 텔레콤주식회사
Priority to KR1020070106528A priority Critical patent/KR100902995B1/en
Publication of KR20090041039A publication Critical patent/KR20090041039A/en
Application granted granted Critical
Publication of KR100902995B1 publication Critical patent/KR100902995B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation

Abstract

본 발명은 최적화 비율의 얼굴영상 형성 방법 및 이에 적용되는 장치를 개시한다. 본 발명에 따른 장치는, 객체의 영상을 얼굴인식 실행을 위한 영상으로 변환 처리하는 영상전처리부, 전 처리된 영상을 기초로 얼굴검출인식 알고리즘을 실행하여 해당 얼굴영역을 추출하기 위한 얼굴영역 검출부, 얼굴영역의 얼굴 특징요소를 이루는 특징점들을 추출하기 위한 특징점 추출부, 최적화된 비율의 얼굴영상을 형성하기 위한 마스크 템플릿을 저장하는 데이터베이스부, 마스트 템플릿에 특징점들을 매칭하여 상호 대응하는 특징점 간의 맵핑 비율을 형성하기 위한 영상 매칭부 및 맵핑 비율에 기초한 렌더링 처리를 통해 얼굴영역을 최적화된 비율의 얼굴영상으로 변환하기 위한 영상 변환부를 포함한다. 따라서, 본 발명은 소정의 객체에 대한 영상을 제공받은 후, 이를 인간이 가장 아름답고 편안함을 느끼는 비율인 최적화 비율의 얼굴영상으로 변환함으로써, 미남 또는 미녀가 되고 싶은 사람의 욕구를 영상에 반영함에 따라 새로운 서비스의 창출을 이룰 수 있다.The present invention discloses a method for forming a face image with an optimized ratio and an apparatus applied thereto. The apparatus according to the present invention includes an image preprocessing unit for converting an image of an object into an image for face recognition execution, a face region detection unit for extracting a corresponding face region by executing a face detection recognition algorithm based on the preprocessed image, and a face Feature point extracting unit for extracting feature points constituting face feature of region, database unit for storing mask template for forming face image with optimized ratio, matching feature points to mast template to form mapping ratio between mutually corresponding feature points An image matching unit and an image converter for converting the face region into an optimized ratio of the face image through the rendering process based on the mapping ratio. Accordingly, the present invention converts the image of a predetermined object into a face image of an optimized ratio, which is the ratio at which humans feel the most beautiful and comfortable, thereby reflecting the desire of a person who wants to be handsome or beautiful in the image. Creation of new services can be achieved.

얼굴영상, 최적화 Facial image, optimization

Description

최적화 비율의 얼굴영상 형성 방법 및 이에 적용되는 장치{METHOD FOR MAKING FACE IMAGE OF GOLDEN RATIO, AND APPARATUS APPLIED TO THE SAME}Method for forming facial image with optimized ratio and apparatus applied thereto {METHOD FOR MAKING FACE IMAGE OF GOLDEN RATIO, AND APPARATUS APPLIED TO THE SAME}

본 발명은 얼굴영상을 형성하기 위한 기술에 관한 것으로, 더욱 상세하게는 소정의 객체에 대한 영상을 제공받은 후, 인간이 가장 아름답고 편안함을 느끼는 비율인 최적화 비율의 얼굴영상으로 변환하기 위한 최적화 비율의 얼굴영상 형성 방법 및 이에 적용되는 장치에 관한 것이다.The present invention relates to a technique for forming a face image, and more particularly, after receiving an image of a predetermined object, an optimization ratio for converting the face image into an optimization ratio, which is a ratio at which humans feel the most beautiful and comfortable. A facial image forming method and apparatus applied thereto.

무선 이동통신 기술은, 3GPP(3rd Generation Partnership Projects) 국제 표준화 회의에서 규격화한 GSM, GPRS, WCDMA망으로 발전해왔고, 3GPP2(3rd Generation Partnership Projects 2)국제 표준화 회의에서 규격화한 IS-95A, IS95-B, CDMA20001x, CDMA1x-EVDO으로 발전되어 왔다.Wireless mobile communication technology has evolved into GSM, GPRS, and WCDMA networks standardized at the 3rd Generation Partnership Projects (3GPP) International Standardization Conference. , CDMA20001x, CDMA1x-EVDO.

이러한 무선 이동통신 기술 중, IMT-2000망의 경우, 동기식 IMT-2000을 CDMA2000 1x-EVDO라고 하고, 비동기식 IMT-2000을 WCDMA라 한다.Among these wireless mobile communication technologies, in the case of the IMT-2000 network, the synchronous IMT-2000 is called CDMA2000 1x-EVDO, and the asynchronous IMT-2000 is called WCDMA.

한편, 화상전화 서비스를 위하여, WCDMA망에서는 유선 서킷 망을 기반으로 제공되며 ITU-T H.324프로토콜 규격을 3GPP 표준화기구에서 무선 서킷 망에 맞게 일부 변경하여 3G-324M 프로토콜 규격으로 표준화하여 사용하고 있는 반면, CDMA2000 1x-EVDO망에서는 유선 패킷 망에서 사용되는 ITU-T H.323프로토콜 규격을 무선 망에서 별도의 표준규격 없이 무선 패킷 망에 맞게 사용하고 있다.On the other hand, for video telephony service, WCDMA network is provided based on wired circuit network, and part of ITU-T H.324 protocol standard is changed to 3GPP standardization organization for wireless circuit network and standardized to 3G-324M protocol standard. On the other hand, in the CDMA2000 1x-EVDO network, the ITU-T H.323 protocol standard used in the wired packet network is used for the wireless packet network without a separate standard specification in the wireless network.

또한, 최근의 이동통신 단말은 화상촬영 및 전송, 실시간 화상통신 등을 구현하기 위한 부가장치로 카메라가 장착되고 있다. 이러한 카메라는 잭을 이용하여 착탈할 수 있는 방식에서부터 단말 본체에 내장되어 있는 형식 등에 이르기까지 매우 다양하게 개발되어 있다.In addition, the recent mobile communication terminal is equipped with a camera as an additional device for implementing the image capture and transmission, real-time video communication. Such a camera has been developed in a variety of ways, from a removable type using a jack to a type built in the terminal body.

이와 같이, 화상통화망 및 상기 화상통화망에 기반하는 이동통신 단말을 통해 구현되는 화상전화 서비스는 서비스 이용자 간의 화상통신을 실행하여 소정의 얼굴영상을 상대방에게 전달하여 의사 소통하는 것에 초점이 맞추어짐에 따라, 상호 의사 소통 이외의 별도의 부가 서비스를 서비스 이용자에게 제공하지 못하여 상기 화상전화 서비스를 활성화하지 못하는 문제점이 있다.As such, the video call service implemented through the video call network and the mobile communication terminal based on the video call network is focused on communicating by delivering a predetermined face image to the counterpart by performing video communication between service users. Accordingly, there is a problem in that it is not possible to provide additional service other than mutual communication to the service user, thereby activating the video telephone service.

이러한 문제점을 극복하기 위해 최근에는 화상전화 서비스에서의 얼굴영상을 인식함에 따라, 인식한 얼굴영상을 기초로 다양한 부가 서비스를 창출하고자 하는 연구가 활발히 진행되고 있다.In order to overcome such a problem, as the facial image is recognized in the videophone service, researches to create various additional services based on the recognized facial image have been actively conducted.

일반적으로, 얼굴의 특징 검출에 관한 최근의 연구는 에지 정보를 이용한 방법, 휘도(Luminance), 색차(Chrominance), 얼굴의 기하학적인 외형 및 대칭에 기반한 접근법, 주성분 분석법(PCA; Principal Component Analysis), 템플릿 매칭을 이 용한 방법, 얼굴의 곡률을 이용하는 접근법, 신경망을 이용하는 방법 등이 있다.In general, recent studies on facial feature detection include methods using edge information, luminance, chrominance, geometrical appearance and symmetry of the face, principal component analysis (PCA), There is a method using template matching, an approach using a curvature of a face, a method using a neural network, and the like.

에지 정보를 이용하는 방법은 대부분 이진화 과정을 거쳐야 하므로 조명이 불균일할 경우 에지 정보 손실로 인해 안정적인 결과를 산출해내기가 어렵다. Since edge information is mostly binarized, it is difficult to produce stable results due to loss of edge information when lighting is uneven.

또한, 주성분 분석법은 실시간 구현이 용이한 장점이 있으나 영역분리와 배경영상에 민감하며, 신경망에 의한 접근방식은 제한된 조건하에서는 안정적으로 작동할 수 있으나, 새로운 입력을 학습할 때 네트워크 변수의 조정이 어렵고 시간이 많이 걸린다는 단점이 있다.In addition, Principal Component Analysis has the advantage of easy real-time implementation, but it is sensitive to area separation and background image, and the neural network approach can operate stably under limited conditions, but it is difficult to adjust network variables when learning new inputs. The disadvantage is that it takes a lot of time.

더 나아가, 얼굴의 특징 검출에 관한 기술을 더욱 확장하여 평면상의 2차원 영상에 포함된 얼굴영역을 인식한 후, 이를 통해 3차원 영상으로의 변환을 포함하여 다양한 영상으로 변환하기 위한 연구가 활발하게 진행되고 있다. Furthermore, the technology for face feature detection is further expanded to recognize face regions included in planar two-dimensional images, and thereafter, researches for converting into various images, including conversion to three-dimensional images, are actively conducted. It's going on.

이러한 연구 중에서 3차원 영상으로의 변환에 대한 대부분은 4방향, 8방향, 또는 16방향 등에서의 여러 방향에 대한 2차원 영상을 합성하여 파노라마 형태의 얼굴영상을 텍스쳐 영상으로 사용함에 따라, 특정 사람의 3차원 얼굴모델 영상을 하는 것이 대부분이다.Among these studies, most of the conversion to 3D images is performed by synthesizing 2D images of various directions in 4 directions, 8 directions, or 16 directions, and using a panoramic face image as a texture image. Mostly, 3D face model images are used.

이와 같은 2차원 영상으로부터의 3차원 영상얼굴 모델링 방법은 특정 사람의 얼굴을 적어도 4방향에서 촬영한 여러 장의 2차원 텍스쳐 영상이 입력되면, 3차원 일반얼굴 모델을 텍스쳐 영상의 촬영 각도와 동일한 각도에서 2차원 영상평면 상에 프로젝션시키는 제 1 단계, 텍스쳐 영상에서 특징점들을 연결하는 특징선들을 구하는 제 2 단계, 프로젝션된 일반 얼굴 모델에서 특징점들을 연결하여 텍스쳐 영상의 특징선들과 대응되는 특징선들을 구하는 제 3 단계, 텍스쳐 영상의 특징선과 일치 하도록 상기 일반 얼굴 모델의 특징선들을 변형시키는 제 4 단계, 모든 텍스쳐 영상에 대하여 제 1 단계 내지 제 4 단계를 반복하여 특정 사람의 얼굴과 비슷한 얼굴 모델을 구하는 제 5 단계, 모든 텍스쳐 영상을 반지름이 R인 실린더에 투영하는 제 6 단계, 인접한 두 텍스쳐 영상을 이용하여 임의의 각도에 대한 시각 영상을 구하는 제 7 단계, 임의의 각도에 대한 두 개의 시각 영상을 보간하여 임의의 각도에서의 영상을 구하는 제 8 단계, 모든 각도(0도 내지 359도)에서 제 6 단계 내지 제 8 단계를 수행하여 파노라마 영상을 구하는 제 9 단계 및 특정사람의 얼굴과 비슷하게 변형된 얼굴 모델에 파노라마 영상을 텍스쳐 맵핑하는 제 10 단계를 수행하여 3차원 영상얼굴 모델링 영상을 구하게 된다.In the three-dimensional image modeling method from the two-dimensional image, when a plurality of two-dimensional texture images photographing a face of a specific person in at least four directions are input, the three-dimensional general face model is inputted at the same angle as the photographing angle of the texture image. A first step of projecting onto a two-dimensional image plane, a second step of obtaining feature lines connecting feature points in the texture image, and a second step of connecting feature points in the projected general face model to obtain feature lines corresponding to the feature lines of the texture image Step 3, a fourth step of modifying the feature lines of the general face model to match the feature line of the texture image, repeating the first to fourth steps for all the texture image to obtain a face model similar to the face of a specific person Step 5, step 6, projecting all texture images onto the cylinder with radius R, two adjacent A seventh step of obtaining a visual image of an arbitrary angle using a texture image; an eighth step of obtaining an image at an arbitrary angle by interpolating two visual images of an arbitrary angle; all angles (0 degrees to 359 degrees) ) Performs a ninth step to obtain a panoramic image by performing the sixth to eighth step and a tenth step of texture mapping the panoramic image to the face model deformed similarly to the face of a specific person. You will get it.

이상에서와 같이, 2차원 영상을 3차원 영상으로 변환하여 모델링하기 위한 방안은 다각적으로 연구되고 있지만, 영상변환 기술을 더욱 다양한 분야에 적용하기 위한 연구는 다소 미흡한 실정이다. 이에 대한 일환으로, 미인 또는 미남이 되고 싶은 사람들의 욕구를 영상화면을 통해 반영할 수 있는 방안이 요구된다.As described above, a method for converting and modeling a 2D image into a 3D image has been studied in various ways, but studies for applying the image conversion technology to various fields have been insufficient. As a part of this, a method that can reflect the desire of people who want to be beautiful or handsome through a video screen is required.

따라서, 본 발명은 상기의 문제점을 해결하기 위해 창출된 것으로, 본 발명의 목적은 소정의 객체에 대한 영상을 제공받은 후, 인간이 가장 아름답고 편안함을 느끼는 비율인 최적화 비율의 얼굴영상으로 변환하기 위한 최적화 비율의 얼굴영상 형성 방법 및 이에 적용되는 장치를 제공하는 데 있다.Accordingly, the present invention was created to solve the above problems, and an object of the present invention is to convert an image with an optimized ratio, which is a ratio at which a human feels the most beautiful and comfortable after being provided with an image of a predetermined object. A method of forming a face image with an optimized ratio and an apparatus applied thereto are provided.

또한, 본 발명의 다른 목적은 인간이 가장 아름답고 편안함을 느끼는 비율인 최적화 비율을 마스크 템플릿으로 기 설정하여 매번 입력되는 얼굴영상에 대한 영상 변환을 실행하기 위한 최적화 비율의 얼굴영상 형성 방법 및 이에 적용되는 장치를 제공하는 데 있다.In addition, another object of the present invention is to set the optimization ratio which is the rate at which the human beings feel the most beautiful and comfortable as a mask template in advance to perform the image conversion for the face image input every time, and the method applied to this To provide a device.

그리고, 본 발명의 또 다른 목적은 마스크 템플릿에 기반하여 소정의 얼굴영상을 최적화된 비율의 얼굴영상으로 변환할 뿐만 아니라, 최적화된 비율의 얼굴영상을 3차원의 얼굴영상으로 변환하여 대응하는 응용 프로그램을 통해 영상 출력하기 위한 최적화 비율의 얼굴영상 형성 방법 및 이에 적용되는 장치를 제공하는 데 있다.Another object of the present invention is to convert a predetermined face image to an optimized ratio of face images based on a mask template, and to convert a face image of an optimized ratio to a three-dimensional face image and to correspond to the application program. The present invention provides a method for forming a face image having an optimized ratio for outputting an image and a device applied thereto.

상기 목적을 달성하기 위한 본 발명의 제 1 관점에 따른 최적화 비율의 얼굴영상 형성 장치는, 객체의 영상을 얼굴인식 실행을 위한 영상으로 변환 처리하는 영상전처리부, 상기 전 처리된 영상을 기초로 얼굴검출인식 알고리즘을 실행하여 해당 얼굴영역을 추출하기 위한 얼굴영역 검출부, 상기 얼굴영역의 얼굴 특징요소를 이루는 특징점들을 추출하기 위한 특징점 추출부, 최적화된 비율의 얼굴영상을 형성하기 위한 마스크 템플릿을 저장하는 데이터베이스부, 상기 마스트 템플릿에 상기 특징점들을 매칭하여 상호 대응하는 특징점 간의 맵핑 비율을 형성하기 위한 영상 매칭부 및 상기 맵핑 비율에 기초한 렌더링 처리를 통해 상기 얼굴영역을 최적화된 비율의 얼굴영상으로 변환하기 위한 영상 변환부를 포함하는 것을 특징으로 한다.According to an aspect of the present invention, there is provided an apparatus for forming a face image having an optimization ratio, the image preprocessing unit converting an image of an object into an image for executing face recognition, and detecting a face based on the preprocessed image. A database for storing a face region detector for extracting a corresponding face region by executing a recognition algorithm, a feature point extractor for extracting feature points constituting face feature elements of the face region, and a mask template for forming a face image with an optimized ratio An image matching unit for matching the feature points to the mast template to form a mapping ratio between corresponding feature points, and an image for converting the face area into a face image having an optimized ratio through rendering processing based on the mapping ratio. It characterized in that it comprises a conversion unit.

바람직하게는, 상기 최적화 비율의 얼굴영상 형성 장치는 상기 최적화된 비율의 얼굴영상을 대응하는 응용 프로그램을 실행하여 출력하기 위한 영상 출력부를 더 포함하는 것을 특징으로 한다.The apparatus for forming a face image of the optimized ratio may further include an image output unit for outputting the face image of the optimized ratio by executing an application program corresponding thereto.

바람직하게는, 상기 특징점 추출부는 상기 데이터베이스부에 기 저장중인 통계학적 얼굴모델(AAM; Active Appearance Model)과 상기 얼굴영역 간의 매칭 비교를 실행하여 상기 특징점들을 추출하는 것을 특징으로 한다.Preferably, the feature point extracting unit extracts the feature points by performing a matching comparison between a statistical face model (AAM; Active Appearance Model) previously stored in the database unit and the face region.

바람직하게는, 상기 특징점 추출부는 상기 특징점들을 MPEG-4의 FAP(Face Animation Parameter) 표준에 기반하여 추출하는 것을 특징으로 한다.Preferably, the feature point extractor extracts the feature points based on the MPEG-4 Face Animation Parameter (FAP) standard.

또한, 상기 목적을 달성하기 위한 본 발명의 제 2 관점에 따른 최적화 비율의 얼굴영상 형성 방법은, (가) 객체의 영상을 제공받아 얼굴인식을 위한 영상 전처리를 실행하는 단계, (나) 상기 전 처리된 영상을 토대로 얼굴검출 인식 알고리즘을 실행하여 해당 얼굴영역을 추출하는 단계, (다) 상기 얼굴영역의 얼굴 특징요소를 이루는 특징점들을 추출하는 단계, (라) 최적화된 비율의 얼굴영상을 형성하기 위한 마스크 템플릿에 상기 특징점들을 매칭하여 상호 대응하는 특징점 간의 맵핑 비율을 형성하는 단계 및 (마) 상기 맵핑 비율에 기초한 렌더링 처리를 통해 상기 얼굴영역을 최적화된 비율의 얼굴영상으로 변환하는 단계를 포함하는 것을 특징으로 한다.In addition, in order to achieve the above object, the method for forming an image having an optimized ratio according to the second aspect of the present invention comprises the steps of: (a) receiving an image of an object and performing image preprocessing for face recognition; Extracting a corresponding face region by executing a face detection recognition algorithm based on the processed image, (c) extracting feature points forming a face feature element of the face region, and (d) forming a face image with an optimized ratio Matching the feature points to a mask template for forming a mapping ratio between corresponding feature points; and (e) converting the face region into an optimized ratio face image through a rendering process based on the mapping ratio. It is characterized by.

바람직하게는, 상기 최적화 비율의 얼굴영상 형성 방법은 (바) 상기 최적화된 비율의 얼굴영상을 대응하는 응용 프로그램을 실행하여 출력하는 단계를 더 포 함하는 것을 특징으로 한다.Preferably, the method for forming a face image of the optimized ratio further comprises (F) outputting by executing an application program corresponding to the face image of the optimized ratio.

따라서, 본 발명은 소정의 객체에 대한 영상을 제공받은 후, 인간이 가장 아름답고 편안함을 느끼는 비율인 최적화 비율의 얼굴영상으로 변환하고, 더 나아가 인간이 가장 아름답고 편안함을 느끼는 비율인 최적화 비율을 마스크 템플릿으로 기 설정하여 매번 입력되는 얼굴영상에 대한 영상 변환을 실행하기 위한 최적화 비율의 얼굴영상으로 변환할 뿐만 아니라, 최적화된 비율의 얼굴영상을 3차원의 얼굴영상으로 변환하여 대응하는 응용 프로그램을 통해 영상 출력할 수 있도록 구현됨으로써, 미남 또는 미녀가 되고 싶은 사람의 욕구를 영상에 반영하고 이를 통해 새로운 서비스를 창출할 수 있는 이점이 있다.Therefore, in the present invention, after receiving an image of a predetermined object, the image is converted into a face image of an optimized ratio, which is the ratio at which humans feel the most beautiful and comfortable, and furthermore, a mask template is converted into an optimization ratio, which is a ratio at which the human is most beautiful and relaxed. It not only converts the face image with the optimized ratio to execute the image conversion for the face image that is input every time by presetting it, but also converts the face image of the optimized ratio into the three-dimensional face image and uses the corresponding application program. By being implemented to output, there is an advantage that can reflect the desire of the person who wants to be handsome or beautiful in the video and create a new service through this.

이하, 첨부도면들을 참조하여 본 발명에 따른 얼굴영상 형성 장치의 바람직한 실시예를 보다 상세히 설명하면 다음과 같다.Hereinafter, a preferred embodiment of the face image forming apparatus according to the present invention with reference to the accompanying drawings in detail as follows.

먼저, 본 발명은 소정의 객체에 대한 영상을 제공받은 후 영상으로부터 얼굴에 해당하는 영상을 추출하고, 추출한 얼굴영상을 인간이 가장 아름답고 편안함을 느끼는 최적화 비율로 변환하기 위한 것으로, 이를 위해 인간이 가장 아름답고 편안함을 느끼는 최적화 비율로 이루어지는 마스크 템플릿을 기반으로 하여 해당하는 얼굴영상을 상기 마스크 템플릿에 기 설정된 맵핑 오차 범위로 맵핑되도록 변환함 에 따라, 이를 통해 관련한 다양한 서비스의 창출이 가능할 뿐만 아니라 서비스 이용자로 하여금 자신 또는 타인의 얼굴을 미남형 또는 미인형으로 변환할 수 있는 색다른 재미를 부가하여 창출되는 서비스의 활성화를 이룰 수 있는 효과가 있다.First, the present invention is to extract the image corresponding to the face from the image after receiving the image for a predetermined object, and to convert the extracted face image to the optimization ratio that the human feels the most beautiful and comfortable, for this purpose Based on the mask template consisting of beautiful and comfortable optimization ratio, the corresponding face image is converted to be mapped to the mapping error range set in the mask template, thereby creating various related services as well as creating a service user. There is an effect that can activate the service created by adding a different fun that can convert the face of oneself or others to handsome or beautiful.

도 1은 본 발명의 일실시 예에 따른 얼굴영상 형성 장치(100)의 구성도이다. 도 1에 단지 예로써 도시된 바와 같이, 최적화 비율의 얼굴영상 형성 장치(100)는 객체의 영상(예컨데, 특정 사람의 얼굴영상)을 제공받아 그레이 값으로 변환하고 상기 영상을 이루는 정수값을 차후 얼굴인식을 위한 플로팅 값으로 변환하는 과정을 포함하는 얼굴인식 실행을 위한 영상으로 변환 처리하는 영상전처리부(110), 상기 전 처리된 영상을 기초로 얼굴검출인식 알고리즘을 실행하여 해당 얼굴영역을 추출하기 위한 얼굴영역 검출부(120), 상기 얼굴영역에 포함되는 얼굴 특징요소(예컨데, 눈, 코, 입, 얼굴윤곽 등)을 이루는 특징점들을 추출하기 위한 특징점 추출부(130), 통계학적인 방식 등을 통해 인간이 가장 아름답고 편안함을 느끼는 비율인 최적화된 비율의 얼굴영상을 형성하기 위한 토대인 마스크 템플릿을 저장하는 데이터베이스부(140), 마스크 템플릿에 추출한 특징점들을 매칭하여 상호 대응하는 특징점 간의 맵핑 비율(즉, 얼굴영역의 가로와 세로의 비율, 얼굴윤곽의 변형, 눈, 코, 입의 위치 조절을 위한 비율, 눈 폭에 대해 코의 폭을 조절하기 위한 비율, 입 길이와 입술 두께를 조절하기 위한 비율 등을 포함함)을 형성하기 위한 영상 매칭부(150), 상기 맵핑 비율에 기초하는 렌더링 처리를 통해 상기 얼굴영역을 최적화된 비율의 얼굴영상으로 변환하기 위한 영상 변환부(160)를 포함한다.1 is a block diagram of a face image forming apparatus 100 according to an embodiment of the present invention. As shown by way of example only in FIG. 1, the face image forming apparatus 100 having an optimization ratio receives an image of an object (for example, a face image of a specific person), converts it to a gray value, and subsequently converts an integer value constituting the image. The image preprocessing unit 110 converts the image to the image for face recognition, which includes converting the data into a floating value for face recognition, and extracts a corresponding face region by executing a face detection recognition algorithm based on the preprocessed image. Through the feature region extracting unit 130, a statistical method, and the like, to extract the feature points forming the facial feature elements (for example, eyes, nose, mouth, and facial contour) included in the face region. Database unit 140 for storing the mask template, which is the basis for forming a face image of the optimized ratio, which is the ratio at which humans feel the most beautiful and comfortable, Matching the feature points extracted from the scrabble template, the mapping ratio between the corresponding feature points (i.e., the ratio of the width and length of the face area, the deformation of the facial contour, the ratio for adjusting the position of the eyes, nose and mouth, and the width of the nose An image matching unit 150 to form a ratio for adjusting the width, a ratio for adjusting the mouth length and the thickness of the lips, and the like, and an optimized ratio of the face region through rendering processing based on the mapping ratio. And an image converter 160 for converting the image to a face.

더 나아가, 얼굴영상 형성 장치(100)는 상기 최적화된 비율의 얼굴영상에 대응하는 응용 프로그램(예컨데, 단말화면에 영상을 디스플레이하기 위한 프로그램)을 실행하고, 이를 통해 상기 최적화된 비율의 얼굴영상을 출력하는 영상 출력부(170)를 더 포함한다.Furthermore, the face image forming apparatus 100 executes an application program (eg, a program for displaying an image on a terminal screen) corresponding to the face image of the optimized ratio, and thereby performs the face image of the optimized ratio. It further includes an image output unit 170 for outputting.

특징점 추출부(130)는 기 저장중인 통계학적 얼굴모델(AAM; Active Appearance Model)과 얼굴영역 간의 매칭 비교를 실행함으로써, 상기 통계학적 얼굴모델과 대응하는 상기 얼굴영역의 특징점들을 추출하게 된다.The feature point extractor 130 extracts feature points of the face region corresponding to the statistical face model by performing matching comparison between the previously stored statistical face model (AAM) and the face region.

아울러, 상기 통계학적 얼굴모델(AAM; Active Appearance Model)이라 함은 얼굴을 형태(Shape)와 텍스쳐(Texture)로 나누어 모델링하며, 기본적으로 얼굴 Test Set을 이용하여 평균 얼굴(Average Face)을 구성하고 외부에서 들어오는 영상내의 얼굴영역을 정해 주면 그 얼굴에 비슷하게 수렴할 때까지 평균얼굴의 형태와 텍스쳐의 파라미터를 변화시키도록(Fitting) 설계되는 모델 링 기법을 일컫는 것이다.In addition, the statistical face model (AAM; Active Appearance Model) is modeled by dividing the face into the shape (Shape) and texture (Texture), basically composed of the average face (Average Face) using a face test set Defining the face area in the image coming from the outside refers to a modeling technique designed to change the shape of the average face and texture parameters until they converge similarly to the face.

또한, 특징점 추출부(130)는 MPEG-4의 FAP(Face Animation Parameter) 표준에 기반하여 적어도 81개 이상의 특징점들을 추출하거나, 적어도 76개 이상의 특징점들을 추출하는 것이 바람직하다.In addition, the feature point extractor 130 extracts at least 81 feature points or extracts at least 76 feature points based on the MPEG-4 Face Animation Parameter (FAP) standard.

여기서, MPEG-4는 MPEG-1과 MPEG-2로 알려진 MPEG(Moving Picture Expert Group : 동영상 전문가 그룹)이 제정한 ISO/IEC 표준이다. 이 표준들(MPEG-1, MPEG-2 및 MPEG-4)은 CD-ROM, DVD, 및 디지털 TV 상에서 양방향 비디어 서비스를 가능케 하는 것이며, MPEG-4는 디지털 TV, 양방향 그래픽 응용 및 양방향 멀티미디 어(월드 와이드 웹, 컨텐츠의 분배와 컨텐츠로의 접근)에 대한 것을 큰 지향점으로 하고 있다.Here, MPEG-4 is an ISO / IEC standard established by the Moving Picture Expert Group (MPEG) known as MPEG-1 and MPEG-2. These standards (MPEG-1, MPEG-2, and MPEG-4) enable interactive video services on CD-ROMs, DVDs, and digital TVs, while MPEG-4 provides digital TV, interactive graphics applications, and interactive multimedia. The main focus is on the world wide web, content distribution and access to content.

또한, MPEG-4는 얼굴과 몸체 애니메이션 파라미터의 정의와 부호화, 특징점의 위치와 얼굴 및 몸체 정의 메쉬의 움직임 방향, 음성 음운에 상응하는 비짐(Viseme) 또는 시각적 입술 모양의 표현, 얼굴과 몸체 정의 파라미터의 정의 및 부호화, 3차원 특징점 위치, 3차원 얼굴 애니메니션을 위한 조정 메쉬, 개인 특징점 및 얼굴 질감 부호화 등에 대한 내용을 포함하고 있다.MPEG-4 also defines and encodes face and body animation parameters, the location of feature points and the direction of movement of the face and body definition mesh, the representation of a visme or visual lip corresponding to phonetic phonology, and the face and body definition parameters. It includes the definition and coding of the feature, the location of three-dimensional feature points, coordinate meshes for three-dimensional face animation, and individual feature points and face texture encoding.

이러한 표준화 내용에서의 MPEG-4의 FAP(Face Animation Parameter) 표준은 얼굴 및 몸체 애니메니션 중 얼굴 애니메이션을 규정하는 데이터이며, 아바타를 이용한 게임, 통신 등의 응용에서 얼굴 각 부위의 움직임 정보를 비트 스트림을 통해 전달하기 위한 것으로써, 이에 기반하여 소정의 얼굴 영상으로부터 얼굴특징 요소를 이루는 얼굴특징점을 추출하게 된다.MPEG-4's FAP (Face Animation Parameter) standard in this standardization is data defining facial animations among face and body animations, and uses bit streams to express motion information of each part of the face in applications such as games and communications using avatars. As a result of the present invention, the facial feature points constituting the facial feature element are extracted from a predetermined face image based on the information.

더 나아가, 마스크 템플릿에 기초하여 최적화된 비율의 얼굴영상을 형성한 이후로, AAM을 이용한 3차원 얼굴 모델링 시스템을 이용하여 상기 마스크 템플릿에 기초하여 최적화된 비율의 얼굴영상을 그레이 값을 재변환하고, 상기 최적화된 비율의 얼굴영상을 이루는 정수값을 이후의 얼굴인식을 위한 플로딩 값으로 변환하는 과정을 포함하는 영상 전처리 과정을 거쳐 해당 얼굴영역을 검출하며, 검출한 얼굴영역의 형태(Shape) 및 텍스쳐(Texture)로 구분하여 얼굴특징점, 밝기값 등을 포함하는 얼굴특징 요소를 추출한다.Furthermore, after forming an optimized proportion of the face image based on the mask template, using a three-dimensional face modeling system using AAM to reconvert the gray value of the optimized proportion of the face image based on the mask template And detecting the face region through an image preprocessing process including converting an integer value constituting the optimized ratio face image into a floating value for subsequent face recognition, and detecting the shape of the face region. And a facial feature element including a facial feature point, a brightness value, and the like, by dividing into a texture and a texture.

이후로, 상기 AAM을 이용한 3차원 얼굴 모델링 시스템은 추출한 얼굴특징 요소를 토대로 기 저장중인 통계학적 얼굴모델을 변환하여 상기 얼굴영역을 이루는 영상과 매칭하는 합성 얼굴영상을 모델링한 후, 이렇게 합성한 합성 얼굴영상에 맵핑 소스를 결합하는 랜더링 처리를 통해 상기 최적화된 비율의 얼굴영상을 3차원 얼굴영상으로 변환하는 것도 가능하다.Subsequently, the 3D face modeling system using the AAM converts a statistical face model that is stored in advance based on the extracted facial feature elements to model a synthesized face image that matches the image forming the face region, and then synthesizes the synthesized face image. It is also possible to convert the optimized proportion of the face image to a three-dimensional face image through a rendering process of combining the mapping source to the face image.

여기서, 일실시 예에 따라 최적화된 비율의 얼굴영상을 3차원 얼굴영상으로 변환하는 과정을 보다 상세히 설명하면, 2차원 영상인 최적화된 비율의 얼굴영상을 전처리한 영상을 기초로 얼굴영역을 추출하기 위한 분류자가 예전된 레벨 이하로 미비할 경우 대응하는 분류자의 형성을 위한 Adaboost 알고리즘 및 상기 전처리된 영상의 데이터를 최적의 특징 패턴으로 분류하기 위한 SVM(Support-Vector Machine) 알고리즘을 결합한 형태로 얼굴검출인식 알고리즘을 실행하여 해당하는 얼굴영역을 추출하게 된다.Here, according to an embodiment of the present invention, a process of converting a face image having an optimized ratio into a 3D face image in detail will be described. If the classifier is not below the previous level, face detection is combined with Adaboost algorithm for the formation of the corresponding classifier and SVM (Support-Vector Machine) algorithm for classifying the data of the preprocessed image into the optimal feature pattern. A recognition algorithm is executed to extract a corresponding face region.

상기 추출한 얼굴영역으로부터 형태 및 텍스쳐를 구분하여 얼굴특징 요소를 추출한 후, 추출한 얼굴특징 요소를 토대로 통계학적 얼굴모델을 변환하여 AAM 모델링을 통해 3차원 얼굴영상을 형성하기 위한 전단계의 합성 얼굴영상을 형성하고, 형성한 합성 얼굴영상에 형태, 위치, 조명 등의 외부 정보에 따라 다르게 나타나는 그림자, 색상, 농도 등을 고려하여 입체감을 나타내기 위한 맵핑 소소를 결합하는 렌터링 처리를 통해 최적화된 비율의 얼굴영상을 3차원 얼굴영상으로 변환할 수 있게 된다.After extracting facial feature elements by dividing the shape and texture from the extracted face region, converting the statistical face model based on the extracted facial feature elements to form a synthetic face image of the previous step to form a three-dimensional face image through AAM modeling The ratio of the face is optimized by the rendering process that combines the mapping elements to represent the three-dimensional effect in consideration of the shadow, color, and density appearing differently according to external information such as shape, position, and lighting in the formed synthetic face image. The image can be converted into a three-dimensional face image.

도 2는 도 1에 도시된 얼굴영상 형성 장치(100)를 통해 최적화 비율의 얼굴영상을 형성하는 과정을 나타내는 개념도이다. 도 2에 단지 예로써 도시된 바와 같이, 소정의 객체에 대한 영상(A)으로부터 얼굴영역을 추출한 후 추출한 얼굴영역에 대한 특징점들을 추출하는 과정을 거쳐, 기 저장중인 마스크 템플릿(B)에 상기 추출한 특징점들을 매칭하여 상기 마스크 템플릿의 특징점들과 상기 추출한 얼굴영역에 대한 특징점들 간의 맵핑 여부를 판별하게 된다. FIG. 2 is a conceptual diagram illustrating a process of forming a face image having an optimization ratio through the face image forming apparatus 100 shown in FIG. 1. As shown only as an example in FIG. 2, after extracting a face region from an image A of a predetermined object and extracting feature points of the extracted face region, the extracted mask template B is extracted. By matching the feature points, it is determined whether the feature points of the mask template are mapped with the feature points of the extracted face region.

맵핑 여부의 판별을 통해 형성되는 맵핑 비율에 기초하여 영상변환을 위한 렌더링 처리가 실행되고, 이를 통해 상기 얼굴영역을 최적화된 비율의 얼굴영상(C)으로 변환하게 된다.The rendering process for image conversion is performed based on the mapping ratio formed by determining whether the mapping is performed, and through this, the face region is converted into the face image C having an optimized ratio.

여기서, 상기 마스크 템플릿은 미남 또는 미녀에 대한 통계학적인 방식을 포함하는 다양한 방식을 통해 형성될 수 있으며, 이에 대한 최적화된 황금 비율로 인간이 가장 아름답고 편안함을 느끼는 비율은 1:1.618인 것으로 나타난다는 연구결과가 있다. 이와 같은 연구결과의 비율은 눈동자 한 가운데를 중심으로 얼굴 상하가 1:1, 눈과 미간이 1:1:1인 것이 포함되며, 대표적인 것으로 Dr Stephen의 RF Mask인 템플릿이 있다.Here, the mask template may be formed through various methods including statistical methods for handsome or beautiful women, and the ratio of the most beautiful and comfortable human beings is 1: 1.618 with the optimized golden ratio. There is a result. The ratio of the results of this study includes 1: 1 face up and down and 1: 1 1: 1 eyes and glaucoma centered on the center of the eye, and a representative template is Dr Stephen's RF Mask.

이하에서는, 첨부도면을 참조하여 본 발명에 따른 얼굴영상 형성 장치(100)의 동작과정에 대해 보다 상세히 설명하면 다음과 같다.Hereinafter, an operation process of the face image forming apparatus 100 according to the present invention will be described in detail with reference to the accompanying drawings.

도 3은 도 1에 도시된 얼굴영상 형성 장치(100)의 동작 과정을 나타내는 순서도이다. 도 3에 단지 예로써 도시된 바와 같이, 최적화 비율의 얼굴영상 형성 방 법은 객체의 영상을 제공받아 얼굴인식을 실행하기 위한 영상 전처리를 실행하는 것으로 진행된다(S100 및 S102).3 is a flowchart illustrating an operation process of the face image forming apparatus 100 illustrated in FIG. 1. As shown by way of example only in FIG. 3, the method of forming a face image with an optimization ratio proceeds to performing an image preprocessing for executing face recognition by receiving an image of an object (S100 and S102).

이렇게 실행된 결과로 제공되는 전 처리된 영상을 기초로 얼굴검출인식 알고리즘을 실행하여 특정 사람의 얼굴영역을 추출하게 된다(S102).The face detection recognition algorithm is executed based on the preprocessed image provided as a result of the execution, thereby extracting a face region of a specific person (S102).

이후로, 상기 얼굴영역에 대한 특징점들을 통계학적 얼굴모델을 근거로 하여 추출하기 위한 과정이 이루어지고(S106), 최적화된 얼굴영상을 형성하기 위한 기초 자료인 마스크 템플릿을 로딩한다(S108).Subsequently, a process for extracting feature points of the face region based on a statistical face model is performed (S106), and a mask template which is basic data for forming an optimized face image is loaded (S108).

상기 S108 단계에서 로딩한 마스트 템플릿의 특징점들과 상기 얼굴영역을 이루는 특징점들 간의 매칭을 실행함에 따라(S110), 형성되는 차이점을 토대로 맵핑 비율을 형성한다(S112). 형성한 맵핑 비율에 기초하는 렌더링 처리과정을 거쳐 상기 얼굴영역을 최적화된 비율의 얼굴영상으로 형성한 후(S114 및 S116), 대응하는 응용 프로그램을 기동하여 영상 출력하게 된다(S118).As the matching between the feature points of the mast template loaded in the step S108 and the feature points forming the face region is performed (S110), a mapping ratio is formed based on the difference formed (S112). After the face region is formed into an optimized ratio face image through a rendering process based on the formed mapping ratio (S114 and S116), a corresponding application program is started to output an image (S118).

이에 추가하여, 최적화 비율의 얼굴영상 형성 방법은 2차원 영상으로 형성되어 해당 응용 프로그램을 통해 영상 출력될 뿐만 아니라, 2차원 영상인 최적화 비율의 얼굴영상을 3차원 영상으로 변환하여 영상 출력되도록 구현되는 것도 가능하다.In addition, the method of forming the face image of the optimization ratio is formed as a two-dimensional image and outputs the image through a corresponding application program, and is implemented to convert the face image of the optimization ratio which is a two-dimensional image into a three-dimensional image and output the image. It is also possible.

상기에서는 본 발명의 바람직한 실시예를 참조하여 설명하였지만, 해당기술 분야의 숙련된 당업자는 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다. Although the above has been described with reference to a preferred embodiment of the present invention, those skilled in the art will be variously modified and changed within the scope of the invention without departing from the spirit and scope of the invention described in the claims below. I can understand that you can.

또한, 본 발명은 소정의 객체에 대한 영상을 제공받은 후, 인간이 가장 아름답고 편안함을 느끼는 비율인 최적화 비율의 얼굴영상으로 변환하기 위한 것임에 따라, 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.In addition, the present invention is intended to convert to a face image of the optimized ratio, which is the ratio at which humans feel the most beautiful and comfortable after being provided with an image of a predetermined object, not only the possibility of commercialization or sales, but also realistically implemented. It is an invention with industrial applicability since it can be done.

도 1은 본 발명의 일실시 예에 따른 얼굴영상 형성 장치의 구성도,1 is a block diagram of a face image forming apparatus according to an embodiment of the present invention,

도 2는 도 1에 도시된 얼굴영상 형성 장치를 통해 최적화 비율의 얼굴영상을 형성하는 과정을 나타내는 개념도, 및FIG. 2 is a conceptual diagram illustrating a process of forming a face image of an optimization ratio using the face image forming apparatus shown in FIG. 1;

도 3은 도 1에 도시된 얼굴영상 형성 장치의 동작 과정을 나타내는 순서도이다.FIG. 3 is a flowchart illustrating an operation process of the face image forming apparatus shown in FIG. 1.

< 도면의 주요 부분에 대한 부호의 설명 ><Description of Symbols for Main Parts of Drawings>

100 : 얼굴영상 형성 장치 110 : 영상전처리부100: face image forming apparatus 110: image preprocessing unit

120 : 얼굴영역 검출부 130 : 특징점 추출부120: face area detection unit 130: feature point extraction unit

140 : 데이터베이스부 150 : 영상 매칭부140: database unit 150: image matching unit

160 : 영상 변환부 170 : 영상 출력부160: image conversion unit 170: image output unit

Claims (6)

객체의 영상을 얼굴인식 실행을 위한 영상으로 변환 처리하는 영상전처리부;An image preprocessing unit converting an image of the object into an image for performing face recognition; 상기 전 처리된 영상을 기초로 얼굴검출인식 알고리즘을 실행하여 해당 얼굴영역을 추출하기 위한 얼굴영역 검출부;A face region detector for extracting a corresponding face region by executing a face detection recognition algorithm based on the preprocessed image; 상기 얼굴영역의 얼굴 특징요소를 이루는 특징점들을 추출하기 위한 특징점 추출부;A feature point extracting unit for extracting feature points forming a face feature of the face region; 최적화된 비율의 얼굴영상을 형성하기 위해 기 형성된 마스크 템플릿을 저장하는 데이터베이스부;A database unit which stores a mask template which is pre-formed to form a face image having an optimized ratio; 상기 마스크 템플릿에 상기 특징점들을 맵핑하여 상호 대응하는 특징점 간의 맵핑 비율을 형성하기 위한 영상 매칭부; 및An image matching unit configured to map the feature points to the mask template to form a mapping ratio between corresponding feature points; And 상기 맵핑 비율을 기초로 하여 상기 얼굴영역의 얼굴 특징요소를 상기 마스크 템플릿의 얼굴 특징요소와 예정된 레벨 이상으로 매칭하도록 변환함에 따라 상기 최적화된 비율의 얼굴영상을 형성하기 위한 영상 변환부를 포함하는 것을 특징으로 하는 최적화 비율의 얼굴영상 형성 장치.And converting the facial feature elements of the face region to match the facial feature elements of the mask template to a predetermined level or more based on the mapping ratio. A face image forming apparatus having an optimization ratio. 제 1 항에 있어서, 상기 최적화 비율의 얼굴영상 형성 장치는The apparatus of claim 1, wherein the face image forming apparatus having the optimized ratio is 상기 최적화된 비율의 얼굴영상을 대응하는 응용 프로그램의 실행을 통해 출력하기 위한 영상 출력부를 더 포함하는 것을 특징으로 하는 최적화 비율의 얼굴영상 형성 장치.And an image output unit for outputting the optimized ratio face image through execution of a corresponding application program. 제 1 항 또는 제 2 항에 있어서, 상기 특징점 추출부는The method of claim 1 or 2, wherein the feature point extraction unit 상기 데이터베이스부에 기 저장중인 통계학적 얼굴모델(AAM; Active Appearance Model)과 상기 얼굴영역 간의 매칭 비교를 실행하여 상기 특징점들을 추출하는 것을 특징으로 하는 최적화 비율의 얼굴영상 형성 장치.And extracting the feature points by performing a matching comparison between a statistical face model (AAM) previously stored in the database unit and the face area. 제 3 항에 있어서, 상기 특징점 추출부는The method of claim 3, wherein the feature point extraction unit 상기 특징점들을 MPEG-4의 FAP(Face Animation Parameter) 표준에 기반하여 추출하는 것을 특징으로 하는 최적화 비율의 얼굴영상 형성 장치.And extracting the feature points based on the FAP (Face Animation Parameter) standard of MPEG-4. (가) 객체의 영상을 제공받아 얼굴인식을 위한 영상 전처리를 실행하는 단계;(A) receiving an image of an object and performing image preprocessing for face recognition; (나) 상기 전 처리된 영상을 토대로 얼굴검출 인식 알고리즘을 실행하여 해당 얼굴영역을 추출하는 단계;(B) extracting a corresponding face region by executing a face detection recognition algorithm based on the preprocessed image; (다) 상기 얼굴영역의 얼굴 특징요소를 이루는 특징점들을 추출하는 단계;(C) extracting feature points forming a facial feature element of the face region; (라) 최적화된 비율의 얼굴영상을 형성하기 위해 기 저장중인 마스크 템플릿에 상기 특징점들을 매칭하여 상호 대응하는 특징점 간의 맵핑 비율을 형성하는 단계; 및(D) forming a mapping ratio between corresponding feature points by matching the feature points to a pre-stored mask template to form an optimized ratio face image; And (마) 상기 맵핑 비율을 기초로 하여 상기 얼굴영역의 얼굴 특징요소를 상기 마스크 템플릿의 얼굴 특징요소와 예정된 레벨 이상으로 매칭하도록 변환함에 따라 상기 최적화된 비율의 얼굴영상을 형성하는 단계를 포함하는 것을 특징으로 하는 최적화 비율의 얼굴영상 형성 방법.(E) forming a face image of the optimized ratio by converting the facial feature elements of the face region to match the facial feature elements of the mask template to a predetermined level or more based on the mapping ratio. A facial image forming method having an optimized ratio. 제 5 항에 있어서, 상기 최적화 비율의 얼굴영상 형성 방법은The method of claim 5, wherein the method for forming a face image with an optimization ratio (바) 상기 최적화된 비율의 얼굴영상을 대응하는 응용 프로그램을 실행하여 출력하는 단계를 더 포함하는 것을 특징으로 하는 최적화 비율의 얼굴영상 형성 방법.(F) The method for forming a face image of the optimized ratio, characterized in that it further comprises the step of outputting a face image of the optimized ratio by executing an application program.
KR1020070106528A 2007-10-23 2007-10-23 Method for making face image of golden ratio, and apparatus applied to the same KR100902995B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070106528A KR100902995B1 (en) 2007-10-23 2007-10-23 Method for making face image of golden ratio, and apparatus applied to the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070106528A KR100902995B1 (en) 2007-10-23 2007-10-23 Method for making face image of golden ratio, and apparatus applied to the same

Publications (2)

Publication Number Publication Date
KR20090041039A KR20090041039A (en) 2009-04-28
KR100902995B1 true KR100902995B1 (en) 2009-06-15

Family

ID=40764232

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070106528A KR100902995B1 (en) 2007-10-23 2007-10-23 Method for making face image of golden ratio, and apparatus applied to the same

Country Status (1)

Country Link
KR (1) KR100902995B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632149A (en) * 2013-12-17 2014-03-12 上海电机学院 Face recognition method based on image feature analysis

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105956997B (en) 2016-04-27 2019-07-05 腾讯科技(深圳)有限公司 The method and apparatus of image deformation processing
CN110555796B (en) * 2019-07-24 2021-07-06 广州视源电子科技股份有限公司 Image adjusting method, device, storage medium and equipment
KR102481538B1 (en) * 2021-02-24 2022-12-26 군산대학교산학협력단 Apparatus and method for generating montage

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000064110A (en) * 2000-08-22 2000-11-06 이성환 Device and method for automatic character generation based on a facial image
JP2002032743A (en) * 2000-07-13 2002-01-31 Sony Corp System and method for three-dimensional image generation and program providing medium
JP2004318204A (en) * 2003-04-10 2004-11-11 Sony Corp Image processing device, image processing method, and photographing device
KR100654396B1 (en) 2005-12-15 2006-12-06 제양수 3d conversion apparatus for 2d face image and simulation apparatus for hair style using computer

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002032743A (en) * 2000-07-13 2002-01-31 Sony Corp System and method for three-dimensional image generation and program providing medium
KR20000064110A (en) * 2000-08-22 2000-11-06 이성환 Device and method for automatic character generation based on a facial image
JP2004318204A (en) * 2003-04-10 2004-11-11 Sony Corp Image processing device, image processing method, and photographing device
KR100654396B1 (en) 2005-12-15 2006-12-06 제양수 3d conversion apparatus for 2d face image and simulation apparatus for hair style using computer

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632149A (en) * 2013-12-17 2014-03-12 上海电机学院 Face recognition method based on image feature analysis

Also Published As

Publication number Publication date
KR20090041039A (en) 2009-04-28

Similar Documents

Publication Publication Date Title
KR101190686B1 (en) Image processing apparatus, image processing method, and computer readable recording medium
US20230206531A1 (en) Avatar display device, avatar generating device, and program
JP4436126B2 (en) Video communication systems using model-based coding and prioritization techniques.
KR100896643B1 (en) Method and system for modeling face in three dimension by means of aam, and apparatus applied to the same
US11068699B2 (en) Image processing device, image processing method, and telecommunication system to generate an output image for telecommunication
KR100902995B1 (en) Method for making face image of golden ratio, and apparatus applied to the same
Yin et al. Generating realistic facial expressions with wrinkles for model-based coding
WO2002091749A1 (en) Model switching in a communication system
US7139439B2 (en) Method and apparatus for generating texture for 3D facial model
Sheu et al. Automatic generation of facial expression using triangular geometric deformation
Lee et al. FarfetchFusion: Towards Fully Mobile Live 3D Telepresence Platform
Rurainsky et al. Template-based eye and mouth detection for 3D video conferencing
KR100919104B1 (en) Apparatus and method for indicating three dimension-face of caller
Leung et al. Realistic video avatar
WO2022110752A1 (en) Image processing method, server, and virtual reality device
JPH0714208B2 (en) Video transmission system
JP2001231037A (en) Image processing system, image processing unit, and storage medium
KR100281965B1 (en) Face Texture Mapping Method of Model-based Coding System
KR100278065B1 (en) Apparatus for composing a lip shape in a 3 dimension model-based coding system
JP2003248824A (en) Device and method for image processing
JP3876922B2 (en) Face image processing method and face image processing apparatus
Chang et al. Virtual Talk: a model-based virtual phone using a layered audio-visual integration
Zhu et al. Virtual avatar enhanced nonverbal communication from mobile phones to PCs
Wu et al. An automatic approach to facial feature extraction for 3-D face modeling
KR100292238B1 (en) Method for matching of components in facial texture and model images

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130523

Year of fee payment: 5

FPAY Annual fee payment

Payment date: 20140522

Year of fee payment: 6

FPAY Annual fee payment

Payment date: 20150521

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20160531

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20170602

Year of fee payment: 9

LAPS Lapse due to unpaid annual fee