KR100608840B1 - Method for synthesis of 3d avata model of handset - Google Patents

Method for synthesis of 3d avata model of handset Download PDF

Info

Publication number
KR100608840B1
KR100608840B1 KR1020050020739A KR20050020739A KR100608840B1 KR 100608840 B1 KR100608840 B1 KR 100608840B1 KR 1020050020739 A KR1020050020739 A KR 1020050020739A KR 20050020739 A KR20050020739 A KR 20050020739A KR 100608840 B1 KR100608840 B1 KR 100608840B1
Authority
KR
South Korea
Prior art keywords
face
avatar
dimensional
mobile terminal
model
Prior art date
Application number
KR1020050020739A
Other languages
Korean (ko)
Inventor
안승권
배희정
알렉산더 페도로브
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020050020739A priority Critical patent/KR100608840B1/en
Application granted granted Critical
Publication of KR100608840B1 publication Critical patent/KR100608840B1/en

Links

Images

Classifications

    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F5/00Braking devices, e.g. checks; Stops; Buffers
    • E05F5/06Buffers or stops limiting opening of swinging wings, e.g. floor or wall stops
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F5/00Braking devices, e.g. checks; Stops; Buffers
    • E05F5/06Buffers or stops limiting opening of swinging wings, e.g. floor or wall stops
    • E05F5/08Buffers or stops limiting opening of swinging wings, e.g. floor or wall stops with springs
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05FDEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION; CHECKS FOR WINGS; WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05F5/00Braking devices, e.g. checks; Stops; Buffers
    • E05F5/06Buffers or stops limiting opening of swinging wings, e.g. floor or wall stops
    • E05F5/10Buffers or stops limiting opening of swinging wings, e.g. floor or wall stops with piston brakes
    • EFIXED CONSTRUCTIONS
    • E05LOCKS; KEYS; WINDOW OR DOOR FITTINGS; SAFES
    • E05YINDEXING SCHEME RELATING TO HINGES OR OTHER SUSPENSION DEVICES FOR DOORS, WINDOWS OR WINGS AND DEVICES FOR MOVING WINGS INTO OPEN OR CLOSED POSITION, CHECKS FOR WINGS AND WING FITTINGS NOT OTHERWISE PROVIDED FOR, CONCERNED WITH THE FUNCTIONING OF THE WING
    • E05Y2201/00Constructional elements; Accessories therefore
    • E05Y2201/40Motors; Magnets; Springs; Weights; Accessories therefore
    • E05Y2201/47Springs; Spring tensioners
    • E05Y2201/484Torsion springs

Abstract

본 발명은 인물사진에 기초하여 3차원 아바타를 합성하는 방법에 대해 제안한 것으로, 별도의 사진편집이나 이미지 처리 과정이 없고, 숙련된 작업을 필요로 하지 않으므로 일반 사용자가 쉽고 간편하게 아바타를 만들 수 있다. 또한, 본 발명은 사용자가 휴대단말기에 저장된 사진 혹은 휴대단말기의 카메라로 촬영하여 얻은 사진을 이용하여 즉석에서 3차원 아바타 모델을 생성할 수 있다는 장점을 가지고 있다. 본 발명은 대상 인물을 촬영하는 과정과, 상기 대상 인물과 유사한 3차원 얼굴 모델을 선택하는 과정, 상기 촬영된 인물의 얼굴에서 키포인트를 검출하는 과정, 상기 검출된 키포인트 좌표를 상기 3차원 얼굴 모델에 매핑하는 과정, 상기 3차원의 얼굴 모델을 아바타에 적용하여 3차원의 아바타 모델을 완성하는 과정으로 이루어진다.The present invention proposes a method of synthesizing a 3D avatar based on a portrait, and since there is no separate photo editing or image processing process and no skilled work is required, the general user can easily and easily create an avatar. In addition, the present invention has the advantage that the user can create a three-dimensional avatar model on the fly by using a picture stored in the mobile terminal or a picture taken by the camera of the mobile terminal. The present invention includes the steps of photographing a target person, selecting a three-dimensional face model similar to the target person, detecting a keypoint in the face of the captured person, and converting the detected keypoint coordinates into the three-dimensional face model. The mapping process includes applying the three-dimensional face model to the avatar to complete the three-dimensional avatar model.

3차원 아바타 3d avatar

Description

휴대단말기의 3차원 아바타 합성방법{METHOD FOR SYNTHESIS OF 3D AVATA MODEL OF HANDSET}3D avatar synthesis method of mobile terminal {METHOD FOR SYNTHESIS OF 3D AVATA MODEL OF HANDSET}

도1은 본 발명의 제1실시예에 따른 3차원 아바타 얼굴 생성절차를 나타낸 흐름도.1 is a flowchart illustrating a three-dimensional avatar face generation procedure according to a first embodiment of the present invention.

도2는 본 발명의 휴대단말기에 디스플레이되는 포커싱 기준을 보인 도면.2 is a diagram showing focusing criteria displayed on the portable terminal of the present invention;

도3은 본 발명의 휴대단말기에 디스플레이되는 키포인트들을 보인 도면.3 shows keypoints displayed on a portable terminal of the present invention;

도4는 본 발명에 따른 다차원적 모핑함수를 표현한 도면.4 is a diagram representing a multidimensional morphing function according to the present invention.

도5는 본 발명의 제2실시예에 따른 3차원 아바타 얼굴 생성절차를 나타낸 흐름도.5 is a flowchart illustrating a three-dimensional avatar face generation procedure according to a second embodiment of the present invention.

본 발명은 아바타 합성방법에 관한 것으로, 특히 사진 이미지(Photographic image)를 이용한 3차원 아바타 합성방법에 관한 것이다.The present invention relates to an avatar synthesis method, and more particularly, to a 3D avatar synthesis method using a photo image.

분신 혹은 화신을 의미하는 아바타는 사이버 공간에서 사용자의 역할을 대신하는 애니메이션 캐릭터로서, 3차원이나 가상현실 게임 또는 웹의 채팅 등에서 사용자를 나타내는 그래픽 아이콘을 가리킨다.An avatar representing an alter ego or avatar is an animated character that takes the role of a user in cyberspace, and refers to a graphic icon representing a user in a 3D or virtual reality game or a web chat.

아바타는 사이버 공간에서 사용자를 대표하는 가상육체라고 할 수 있으며, 현재 아바타가 이용되는 분야는 채팅이나 온라인 게임 외에도 사이버 쇼핑몰, 가상교육, 가상 오피스 등으로 확대되고 있다. Avatars can be referred to as virtual bodies representing users in cyberspace, and the fields in which avatars are used are being expanded to cyber shopping malls, virtual education, and virtual offices as well as chatting and online games.

기존의 아바타가 2차원의 그래픽으로 구현되어 현실감이 부족한 점을 개선하여 등장한 것이 3차원 아바타이다. 그러나 3차원 아바타가 입체감과 현실감을 지니고 있기는 하지만, 실제 사용자의 모습과는 다른 서비스 제공자에 의해 제공되는 그래픽 캐릭터를 이용한다는 점에서 사용자의 욕구를 완전히 충족시키지는 못하고 있다.  Three-dimensional avatars have appeared to improve the lack of realism by implementing the existing avatar in two-dimensional graphics. However, although the three-dimensional avatar has a three-dimensional and realistic feeling, it does not fully satisfy the user's needs in that it uses a graphic character provided by a service provider different from the actual user.

이를 해결하기 위해 사용자의 사진을 이용한 아바타 모델 합성방법도 등장하였으나 사용자의 사진을 이용하는 방법의 경우, 포토샵(Photoshop)과 같은 별도의 그래픽 프로그램을 이용하여, 사진 이미지를 편집하고, 편집을 통해 얻어진 얼굴 이미지를 3DS Max와 같은 3차원 모델 생성 프로그램에서 아바타 합성해야 하는 숙련된 작업이 필요하다.In order to solve this problem, a method of synthesizing an avatar model using a user's photo has appeared, but in the case of using a user's photo, a face obtained through editing a photo image by using a separate graphic program such as Photoshop The skilled work is required to synthesize an image in a three-dimensional model generator such as 3DS Max.

그러므로 이러한 사진을 이용한 아바타 모델 합성방법도 역시, 일반 사용자가 고가의 프로그램을 구입하여야 하고, 전문적인 그래픽 작업을 수행할 수 있어야 한다는 문제점을 가지고 있다.Therefore, the avatar model synthesizing method using such a photograph also has a problem that a general user must purchase an expensive program and be able to perform professional graphic work.

본 발명은 전술한 바와 같은 문제점을 해결하기 위한 것으로 그 목적은, The present invention is to solve the problems described above, the object is,

휴대단말기로 촬영한 인물사진을 이용하여 3차원 아바타를 자동으로 생성하는 휴대단말기의 3차원 아바타 합성방법을 제공하는데 있다. The present invention provides a method for synthesizing a three-dimensional avatar of a mobile terminal for automatically generating a three-dimensional avatar using a portrait photograph taken by the portable terminal.

상기와 같은 목적을 달성하기 위하여, 본 발명, 휴대단말기의 3차원 아바타 합성 방법은 In order to achieve the above object, the present invention, a three-dimensional avatar synthesis method of a mobile terminal

대상 인물을 촬영하는 과정과; 상기 대상 인물과 유사한 3차원 얼굴 모델을 선택하는 과정, 상기 촬영된 인물의 얼굴에서 키포인트를 검출하는 과정, 상기 검출된 키포인트 좌표를 상기 3차원 얼굴 모델에 매핑하는 과정, 상기 3차원의 얼굴 모델을 아바타에 적용하여 3차원의 아바타 모델을 완성하는 과정으로 이루어진다. Photographing the target person; Selecting a three-dimensional face model similar to the target person, detecting a keypoint in the face of the photographed person, mapping the detected keypoint coordinates to the three-dimensional face model, and selecting the three-dimensional face model. Applied to the avatar, a three-dimensional avatar model is completed.

바람직하게, 상기 촬영과정은 휴대단말기를 촬영모드로 전환하는 과정과, 화면에 소정의 포커싱 기준을 디스플레이하는 과정과, 상기 포커싱 기준에 대상 인물의 얼굴을 조준하는 과정과, 장착된 카메라를 구동시켜 상기 대상인물을 촬영하는 과정으로 이루어진 것을 특징으로 한다. Preferably, the photographing process includes the steps of switching the portable terminal to a photographing mode, displaying a predetermined focusing criterion on a screen, aiming a face of a target person at the focusing criterion, and driving a mounted camera. Characterized in that the process of photographing the target person.

바람직하게, 상기 소정의 포커싱 기준은 H모양의 형태를 갖는 것을 특징으로 한다. Preferably, the predetermined focusing criterion is characterized in that it has an H shape.

바람직하게, 상기 키포인트 검출과정은 다수의 키포인트를 화면에 디스플레이 하는 과정과, 상기 키포인트들을 촬영된 얼굴의 윤곽과 일치되도록 배치하는 과정과, 상기 키포인트들의 좌표를 구하는 과정을 통해 검출되는 것을 특징으로 한다. Preferably, the keypoint detection process is detected by displaying a plurality of keypoints on a screen, arranging the keypoints to match the outline of the photographed face, and obtaining coordinates of the keypoints. .

바람직하게 본 발명에 따른 3차원 아바타 합성 방법은 촬영된 인물의 얼굴과 상기 3차원 모델간의 유사도를 임계치와 비교하는 과정과, 상기 유사도가 임계치보다 작거나 같은 경우, 상기 3차원의 얼굴 모델을 아바타에 적용하여 3차원의 아바 타 모델을 완성하는 과정을 더 포함한다. Preferably, the method of synthesizing the 3D avatar according to the present invention comprises comparing the similarity between the face of the photographed person and the 3D model with a threshold, and when the similarity is less than or equal to the threshold, avatar the 3D face model. It further includes the process of completing the three-dimensional Avatar model by applying to.

상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 휴대단말기의 3차원 아바타 얼굴 합성방법은, In order to achieve the above object, the three-dimensional avatar face synthesis method of the mobile terminal according to the present invention,

대상 인물을 촬영하는 과정과, 촬영된 인물의 얼굴특징을 검출하는 과정과, 촬영된 얼굴과 유사한 3차원의 얼굴형을 구하는 과정과, 상기 촬영된 얼굴의 특징과 3차원 얼굴형의 특징을 참조하여, 상기 대상인물의 3차원 얼굴 모델을 생성하는 과정으로 이루어진다. Refer to the process of photographing the target person, the process of detecting the facial features of the person photographed, the process of obtaining a three-dimensional face shape similar to the photographed face, the features of the photographed face and the features of the three-dimensional face shape In this case, a three-dimensional face model of the target person is generated.

상기와 같은 목적을 달성하기 위하여, 본 발명에 따른 휴대단말기의 3차원 아바타 얼굴 합성 방법은, In order to achieve the above object, the 3D avatar face synthesis method of a mobile terminal according to the present invention,

메모리에 저장된 이미지를 불러오는 과정과, 상기 이미지에 나타난 대상인물과 유사한 3차원 얼굴 모델을 선택하는 과정, 상기 대상인물의 얼굴에서 키포인트를 검출하는 과정, 상기 검출된 얼굴의 키포인트를 상기 3차원 얼굴 모델에 매핑하는 과정, 상기 3차원의 얼굴 모델을 아바타에 적용하여 3차원의 아바타 모델을 완성하는 과정으로 이루어진다. Importing an image stored in a memory, selecting a 3D face model similar to the target person shown in the image, detecting a keypoint on the face of the target person, and converting the keypoint of the detected face into the 3D face model The process of mapping to the process consists of applying the three-dimensional face model to the avatar to complete the three-dimensional avatar model.

이하, 본 발명의 바람직한 실시 예를 도면을 참조하여 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described with reference to the drawings.

도1은 본 발명의 제1실시예에 따른 3차원의 아바타 얼굴 생성절차를 나타낸 흐름도이다. 도1을 참조하여, 본 발명에 따른 3차원의 아바타 합성과정을 상세히 설명하면 다음과 같다. 1 is a flowchart illustrating a three-dimensional avatar face generation procedure according to a first embodiment of the present invention. Referring to Figure 1, a three-dimensional avatar synthesis process according to the present invention will be described in detail.

아바타를 만들기 위해, 먼저 사용자는 휴대단말기의 아바타 합성 메뉴를 선 택한다.(S10) 아바타 합성 메뉴가 선택되면 휴대단말기는 촬영모드로 전환되고, 휴대단말기 화면의 중앙에 H형 포커싱 기준(H-style Fucusing Reference)이 나타난다.(S20) 그리고 사용자는 도2에 도시된 바와 같이, 상기 H형 포커싱 기준을 아바타의 대상이 될 인물의 얼굴에 조준(Focusing)한다. 이때, 대상인물의 눈과 대상인물의 얼굴폭을 각각 H의 가로막대(―)와 세로막대(| |)에 일치시킨다. In order to create an avatar, the user first selects the avatar synthesis menu of the mobile terminal. (S10) When the avatar synthesis menu is selected, the mobile terminal switches to the shooting mode, and the H-type focusing criteria (H- Style Fucusing Reference) is displayed (S20). As shown in FIG. 2, the user aims the H-type focusing criteria on the face of the person to be the avatar. At this time, the eyes of the subject and the face width of the subject are matched with the horizontal bar (-) and the vertical bar (|) of H, respectively.

H형 포커싱 기준에 대상인물의 조준이 완료되면, 휴대단말기에 장착된 카메라를 구동시켜 상기 대상인물을 촬영한다.(S30) 그리고 촬영된 인물의 사진은 도2에 도시된 바와 같이, N개의 키포인트(예: 8개)와 함께 단말기 화면에 디스플레이된다.(S40)When the aiming of the target person is completed based on the H-type focusing criteria, the camera mounted on the portable terminal is photographed to capture the target person. (S30) And as shown in FIG. (E.g., eight) is displayed on the terminal screen (S40).

N개의 키포인트는 상기 대상인물의 얼굴형의 특징을 검출하기 위한 것으로, 대상인물의 촬영이 완료된 때에 맞추어 화면의 지정된 위치(좌표)에 디스플레이된다.The N keypoints are for detecting features of the face shape of the target person, and are displayed at a designated position (coordinate) of the screen in accordance with the completion of shooting of the target person.

도3에 도시된 바와 같이, 상기 키포인트들이 화면에 디스플레이되면, 사용자는 단말기의 키패드를 이용하여, 상기 키포인트들을 촬영된 얼굴의 윤곽과 일치되도록 재배치시킨다. 즉, 키패트의 숫자키를 눌러서 조정하고자 하는 키포인트를 선택하고, 키패드의 방향키를 눌러서 선택된 키포인트를 원하는 지점으로 이동시킨다.As shown in FIG. 3, when the keypoints are displayed on the screen, the user rearranges the keypoints to match the outline of the photographed face using the keypad of the terminal. That is, the keypoint to be adjusted is selected by pressing the numeric keys of the keypad, and the selected keypoint is moved to the desired point by pressing the direction key of the keypad.

이렇게, 키포인트들의 재배치가 완료되면, 사용자는 소정의 명령키를 눌러 3차원의 아바타 얼굴을 생성하도록 지시한다. 그리고 휴대단말기는 촬영된 인물의 얼굴특징(키포인트들의 좌표값들)을 메모리에 저장하고(S40), 상기 사용자의 지시 에 따라, 상기 촬영된 인물의 얼굴특징에 기초하여 아바타에 적용할 3차원의 얼굴을 구성한다. 본 발명에 따른 아바타 합성 알고리즘은 고화질의 3차원 얼굴모델을 추구하기 보다는 휴대단말기의 자원을 효과적으로 활용할 수 있는 단순한 3차원 얼굴모델을 생성하는 것이 바람직하다.In this way, when relocation of the keypoints is completed, the user instructs to generate a three-dimensional avatar face by pressing a predetermined command key. The mobile terminal stores a facial feature (coordinates of keypoints) of the photographed person in a memory (S40), and according to the user's instruction, a 3D to be applied to the avatar based on the facial feature of the photographed person. Make up your face. The avatar synthesis algorithm according to the present invention preferably generates a simple three-dimensional face model that can effectively utilize the resources of the mobile terminal, rather than pursuing a high-quality three-dimensional face model.

본 발명에 따른 3차원 얼굴의 구성 방법은 다음과 같다.The construction method of the three-dimensional face according to the present invention is as follows.

사용자의 조작에 따라 키포인트들의 재배치가 완료되면, 사용자는 이미 만들어져 있는 소정 개수의 얼굴형(이하, 기본 얼굴형이라 한다)들을 조합하여 촬영된 인물의 얼굴형과 유사한 3차원의 얼굴형(이하, 오리지날 얼굴형이라 한다)을 구한다.(S50) 그리고 상기 오리지날 얼굴형을 구하는 과정에서 다차원적 모핑함수가 사용된다. When the relocation of the keypoints is completed according to the user's operation, the user combines a predetermined number of face shapes (hereinafter, referred to as basic face shapes) that are already made, and has a three-dimensional face shape similar to the face shape of a photographed person (hereinafter, (S50) and a multidimensional morphing function is used in the process of obtaining the original face shape.

도4는 다차원적 모핑함수(Multidimensional Morphing Function)를 표현한 것으로, 도4의 다차원적 모핑함수는 기본 얼굴형을 선형조합(Linear Combination) 하여, 촬영된 얼굴형과 유사한 오리지날 얼굴형(fK)을 구하는 함수이다. 도4의 W는 제어 파라미터 벡터(w1, w2, .. , wN)이고, N은 제어 파라미터의 수이며, 또한 상기 기본 얼굴형의 개수를 의미한다. 제어 파라미터 wj는 0과 1사이의 임의의 실수값( wj ∈ [0, 1], j = 1, 2, ... , N)으로 표현되며, 제어 파라미터들을 모두 더한 값은 1이다. (Σwj = 1)4 is that the image of the multi-dimensional morphing function (Multidimensional Morphing Function), multi-dimensional morphing function of Figure 4 by a linear combination (Linear Combination) the basic face shape, the original face type (f K) similar to the photographed face type It is a function to find. W in FIG. 4 is a control parameter vector w 1 , w 2 ,..., W N , N is the number of control parameters, and also means the number of the basic face shapes. The control parameter w j is represented by any real value between 0 and 1 (w j ∈ [0, 1], j = 1, 2, ..., N), and the sum of all control parameters is 1. (Σw j = 1)

상기 기본 얼굴형(aK, bK, ... , eK)은 사람의 일반적인 얼굴형을 동그란 얼 굴형, 네모난 얼굴형, 세모진 얼굴형, 역세모진 얼굴형 등과 같이 모양(형태)에 따라 분류한 것이다. 기본 얼굴형들은 3차원 modeler에 의해 수동으로 만들어지므로, 서로 독립적이다.The basic face shape (a K , b K , ..., e K ) is a human face in the shape (shape) such as round face, square face shape, triangular face shape, inverted triangular face shape, etc. It is classified according to. The basic face shapes are created by the 3D modeler manually, so they are independent of each other.

휴대단말기는 일반적으로 통화를 목적으로 개발된 것이므로, 그래픽을 처리하기에는 화면(screen)의 해상도(혹은 사이즈)나 중앙처리장치(CPU)의 연산속도가 낮고, 별도의 그래픽 처리장치(Graphics Processing Unit, GPU)를 구비하지 않는다. 이러한 휴대단말기의 한정된 자원을 감안했을 때, 기본 얼굴형의 종류는 5개(N=5)정도가 적절하고, 상기 키포인트의 개수(K)는 8개 정도가 적당하다. 물론 이와 같은 설정값(N=5, K=8)은 본 발명의 설명을 위해 예시된 것이다.Since mobile terminals are generally developed for the purpose of a call, a graphics processing unit (Graphics Processing Unit, GPU). Considering the limited resources of such a mobile terminal, the basic face type is appropriately about 5 (N = 5), and the number of key points K is about 8 appropriately. Of course, such set values (N = 5, K = 8) are illustrated for the purpose of explanation of the invention.

사용자는 필요한 경우, 다차원적 모핑함수의 제어 파라미터 벡터(W)값을 조정하여, 상기 생성된 오리지날 얼굴형을 보정한다. 그리고 오리지날 얼굴형에 기초하여, 상기 촬영된 얼굴의 3차원 얼굴 모델을 구한다.(S60)If necessary, the user adjusts the control parameter vector (W) value of the multidimensional morphing function to correct the generated original facial shape. The 3D face model of the photographed face is obtained based on the original face shape (S60).

하기 수학식1은 3차원 얼굴 모델(3차원 얼굴형의 키포인트들(q))을 구하는 절차를 나타낸 계산식으로, 수학식1의 t는 각 기본 얼굴형의 키포인트들 간의 차(Difference)로서, 이미 주어져 있는 고정된 상수이고, w는 제어 파라미터이고, o는 상기 오리지날 얼굴형의 키포인트이다. Equation 1 shows a procedure for obtaining a three-dimensional face model (key points q of a three-dimensional face shape), and t in Equation 1 is a difference between key points of each basic face shape. Is a fixed constant given, w is the control parameter and o is the keypoint of the original facial shape.

[수학식 1][Equation 1]

q = t × w + o, ( w = (p - o)/t )q = t × w + o, (w = (p-o) / t)

수학식1에서, t × w는 촬영된 얼굴의 키포인트와 상기 오리지날 얼굴형의 키포인트간의 거리차를 나타낸다. 제어 파라미터 w는 기본 얼굴형의 격차가 큰 부 분(예, 턱부분의 좌표값)에서는 커지고, 기본 얼굴형의 격차가 작은 부분(예, 이마 중앙부의 좌표값)에서는 작아진다.In Equation 1, t x w represents a distance difference between the key point of the photographed face and the key point of the original face shape. The control parameter w becomes large in the part where the difference of a basic face shape is large (for example, the coordinate value of a jaw part), and becomes small in the part where the difference of a basic face shape is small (for example, the coordinate value of the center of a forehead).

본 발명은 수학식1에 나타난 바와 같이, 촬영된 얼굴의 키포인트(p)와 상기 오리지날 얼굴형의 키포인트간의 거리차 만큼을 상기 오리지날 얼굴형의 키포인트(o)에 더하거나 빼서, 3차원 얼굴형의 키포인트(q)를 구한다. 이 과정에서, 2차원의 좌표값들이 3차원의 좌표값으로 매핑된다.According to the present invention, as shown in Equation 1, by adding or subtracting the distance difference between the key point p of the photographed face and the key point of the original face shape to or from the key point o of the original face shape, the key point of the three-dimensional face shape. Find (q). In this process, two-dimensional coordinate values are mapped to three-dimensional coordinate values.

상기 수학식1의 연산을 위해서는 o와 q의 Z축에 해당하는 좌표값을 0(zero)으로 설정해야 한다. 즉, 상기 o와 q는 X, Y, Z축의 3차원 좌표값으로 표현되고, p는 X, Y축의 2차원 좌표값으로 표현되므로, o와 q의 Z축에 해당하는 좌표값을 0(zero)으로 설정해야 o(X, Y좌표)와 q(X, Y좌표)와 p(X, Y좌표)를 서로 비교하거나 연산할 수 있다.For the calculation of Equation 1, a coordinate value corresponding to the Z axis of o and q should be set to 0 (zero). That is, since o and q are represented by three-dimensional coordinate values of the X, Y, and Z axes, and p is represented by two-dimensional coordinate values of the X and Y axes, a coordinate value corresponding to the Z axis of o and q is 0 (zero). ), O (X, Y coordinate), q (X, Y coordinate) and p (X, Y coordinate) can be compared or calculated.

이후, 촬영된 인물의 3차원 얼굴 모델이 생성되면, 촬영된 인물의 실제 얼굴과 상기 3차원 얼굴 모델간의 유사성을 측정한다. 본 발명은 유사도 측정함수(Estimation function)로서 유클리드 디스턴스(Euclidian distance)를 사용한다. 유사도 측정함수의 계산식은 하기 수학식2와 같다.Then, when the three-dimensional face model of the photographed person is generated, the similarity between the actual face of the photographed person and the three-dimensional face model is measured. The present invention uses Euclidian distance as the similarity measurement function. Calculation formula of the similarity measurement function is shown in Equation 2 below.

[수학식 2][Equation 2]

E = Σ||pi - qi|| (i =1, 2, ... , K) E = Σ || p i -q i || (i = 1, 2, ..., K)

여기서, K는 키포인트의 개수를 나타내고 pi는 상기 촬영된 얼굴의 키포인트들을 의미한다. 그리고 qi 는 상기 3차원 얼굴 모델의 키포인트들을 의미한다. Here, K denotes the number of keypoints and p i denotes keypoints of the photographed face. And q i denotes key points of the 3D face model.

본 발명은 상기 측정된 유사도를 소정의 임계치와 비교하여, 상기 유사도가 임계치보다 크면, 상기 모핑함수의 제어 파라미터(w)값을 조정하여, 상기 유사도와 임계치를 다시 비교한다. 이러한 유사도와 임계치의 비교는 유사도가 소정의 임계치보다 작거나 같아질 때까지 반복되며, 그때마다 제어 파라미터를 재조정함으로써, 촬영된 인물의 얼굴과 비슷한 모습의 3차원 얼굴 모델이 얻어지게 된다. The present invention compares the measured similarity with a predetermined threshold, and if the similarity is greater than the threshold, adjusts the control parameter w value of the morphing function to compare the similarity with the threshold again. This comparison between the similarity and the threshold is repeated until the similarity is less than or equal to the predetermined threshold, and by adjusting the control parameters each time, a three-dimensional face model similar to the face of the photographed person is obtained.

상기 3차원 얼굴 모델을 구한 후, 촬영된 얼굴과의 유사도를 측정하는 것은 사용자의 선택에 따른 것으로, 사용자가 불필요하다고 판단한 경우, 본 발명은 상기 유사도 측정 과정을 수행하지 않는다. After obtaining the three-dimensional face model, measuring the similarity with the photographed face is at the user's choice. If the user determines that it is unnecessary, the present invention does not perform the similarity measuring process.

이후, 본 발명은 상기 사진의 키포인트들의 연결라인에 맞추어 촬영된 얼굴의 중앙부분(눈, 코, 입을 포함하는 부분)을 잘라내고, planar mapping방식에 따라, 상기 잘라낸 부분을 상기 생성된 3차원 얼굴 모델과 합성시킨다.(S70) 그리고 구로우 셰이딩(Gouraud shading)방식을 이용하여 상기 합성된 3차원 얼굴의 곡면과 모서리 부분을 매끄럽게 다듬는다.Then, the present invention is to cut the center portion (part including eyes, nose, mouth) of the face taken in accordance with the connection line of the key points of the picture, and according to the planar mapping method, the cut out the three-dimensional face generated Synthesize with the model (S70) and smooth the curved surface and corners of the synthesized three-dimensional face using Gouraud shading method.

도5는 본 발명의 제2실시예에 따른 3차원의 아바타 얼굴 생성 절차를 나타낸 흐름도이다. 본 발명의 제1실시예가 촬영한 이미지를 이용한 것이라면, 이하 설명될 본 발명의 제2실시예는 저장된 이미지 즉, 기 생성된 이미지를 이용하는 3차원 아바타 생성절차에 관한 것이다.5 is a flowchart illustrating a three-dimensional avatar face generation procedure according to a second embodiment of the present invention. If the first embodiment of the present invention uses a photographed image, the second embodiment of the present invention to be described below relates to a three-dimensional avatar generation procedure using a stored image, that is, a previously generated image.

도5를 참조하여, 본 발명에 따른 3차원 아바타 합성 과정을 상세히 설명하면 다음과 같다.Referring to Figure 5, it will be described in detail the three-dimensional avatar synthesis process according to the present invention.

먼저, 사용자는 휴대단말기의 아바타 합성 메뉴를 선택한 후, 아바타 합성에 필요한 대상 인물의 이미지를 메모리에서 불러온다.(S110 & S120) 그리고 발명의 제1실시예와 동일한 방법으로 기본 얼굴형들을 조합하여 상기 대상 인물의 얼굴형과 유사한 오리지날 얼굴형을 구한다.(S130) First, the user selects the avatar synthesis menu of the mobile terminal, and loads an image of the person required for avatar synthesis from the memory (S110 & S120). By combining basic face shapes in the same manner as in the first embodiment of the present invention, An original face shape similar to that of the target person is obtained. (S130).

이후, 휴대단말기는 화면의 중앙에 H형 포커싱 기준(H-style Fucusing Reference)을 디스플레이하고, 사용자는 상기 대상 인물의 얼굴에 일치되도록 상기 "포커싱 기준"을 대상 인물의 얼굴에 조준한다.(S140) 즉, 대상인물의 눈과 대상인물의 얼굴폭에 H형 포커싱 기준의 가로막대(―)와 세로막대(| |)가 일치되도록, 단말기의 키패드를 이용하여 상기 "포커싱 기준"을 이동시킨다.Thereafter, the mobile terminal displays an H-style focusing reference in the center of the screen, and the user aims the "focusing criteria" on the face of the target person so as to match the face of the target person. That is, the "focusing criterion" is moved by using the keypad of the terminal so that the horizontal bar (-) of the H-type focusing standard and the vertical bar (| |) coincide with the eyes of the target person and the face width of the target person.

상기 포커싱 기준과 대상인물의 얼굴이 일치되면, 휴대단말기는 N개의 키포인트들(예: 8개)을 화면의 지정된 위치(좌표)에 디스플레이한다. 그리고 사용자는 상기 키포인트들을 대상인물의 얼굴의 윤곽과 일치되도록 재배치시키고 재배치된 키포인트(pi)들의 좌표값들(대상인물의 얼굴 특징)을 검출한다. (S150)When the focusing criterion and the face of the target person match, the mobile terminal displays N key points (for example, 8) at a designated position (coordinate) of the screen. The user rearranges the keypoints to match the outline of the face of the subject and detects coordinate values (face feature of the subject) of the relocated keypoints p i . (S150)

이후, 상기 대상인물의 얼굴특징(키포인트들의 좌표값들)과 상기 오리지날 얼굴형에 기초하여, 대상인물의 3차원 얼굴 모델을 생성한다. (S160) Thereafter, a three-dimensional face model of the target person is generated based on the face feature of the target person (coordinate values of keypoints) and the original face shape. (S160)

대상인물의 3차원 얼굴 모델을 구하는 절차는 본 발명의 제1실시예와 동일하다. 3차원 얼굴 모델이 생성되면, 본 발명은 상기 수학식2에 따라, 대상인물의 얼굴의 키포인트들(pi)과 상기 3차원 얼굴 모델의 키포인트들(qi)간의 유사도를 측정한다. The procedure for obtaining the three-dimensional face model of the subject is the same as that of the first embodiment of the present invention. When the three-dimensional face model is generated, the present invention measures the similarity between the key points p i of the face of the subject and the key points q i of the three-dimensional face model according to Equation 2 above.

그리고 상기 측정된 유사도를 소정의 임계치와 비교하여, 상기 유사도가 임 계치보다 크면, 상기 모핑함수의 제어 파라미터(w)값을 조정하여, 상기 유사도와 임계치를 다시 비교한다. 이러한 유사도와 임계치의 비교는 유사도가 소정의 임계치보다 작거나 같아질 때까지 반복되며, 그때마다 제어 파라미터를 재조정함으로써, 상기 대상인물의 얼굴과 비슷한 모습의 3차원 얼굴 모델이 얻어지게 된다. (S170)The measured similarity is compared with a predetermined threshold, and if the similarity is greater than the threshold, the control parameter w of the morphing function is adjusted to compare the similarity with the threshold again. The comparison between the similarity and the threshold is repeated until the similarity is less than or equal to the predetermined threshold, and by adjusting the control parameters each time, a three-dimensional face model similar to the face of the subject is obtained. (S170)

대상인물의 3차원 얼굴 모델을 구한 후, 대상인물의 얼굴의 키포인트(p)와 상기 3차원 얼굴 모델의 키포인트(q)간의 유사도를 측정하는 것은 사용자의 선택에 따른 것으로, 사용자가 불필요하다고 판단한 경우, 본 발명은 상기 유사도 측정 과정을 수행하지 않는다. After obtaining the three-dimensional face model of the target person, measuring the similarity between the key point (p) of the face of the target person and the key point (q) of the three-dimensional face model is at the user's choice and the user determines that it is unnecessary. In the present invention, the similarity measurement process is not performed.

이후, 본 발명은 상기 사진의 키포인트들의 연결라인에 맞추어 촬영된 얼굴의 중앙부분(눈, 코, 입을 포함하는 부분)을 잘라내고, planar mapping방식에 따라, 상기 잘라낸 부분을 상기 생성된 3차원 얼굴 모델과 합성시킨다.(S180) 그리고 구로우 셰이딩(Gouraud shading)방식을 이용하여 상기 합성된 3차원 얼굴의 곡면과 모서리 부분을 매끄럽게 다듬는다.Then, the present invention is to cut the center portion (part including eyes, nose, mouth) of the face taken in accordance with the connection line of the key points of the picture, and according to the planar mapping method, the cut out the three-dimensional face generated Synthesize with the model (S180) and smooth the curved surface and the edge portion of the synthesized three-dimensional face using the Gouraud shading (Gouraud shading) method.

이상, 본 발명의 제1실시예와 제2실시예에 따라, 아바타에 적용할 3차원 얼굴이 완성되면, 아바타의 머리 스타일, 머리 색상, 수염의 스타일(콧수염, 턱수염 등)의 종류가 휴대단말기의 화면에 디스플레이되고, 사용자는 취향에 따라 원하는 것을 선택한다. As described above, according to the first and second embodiments of the present invention, when the three-dimensional face to be applied to the avatar is completed, the head style, the hair color, and the style of the beard (mustache, beard, etc.) of the avatar are handheld. Is displayed on the screen, the user selects the desired one according to taste.

아바타의 머리모양과 수염에 관한 설정이 완료되면, 휴대단말기의 화면에, 아바타의 측면 모습이 나타나고, 코 길이, 턱의 무게감, 이마의 경사도를 조정하는 메뉴창이 디스플레이된다. 이번에도 사용자는 자신의 취향에 따라, 코, 턱, 이마의 형태를 결정한다. When the setting of the avatar's head and beard is completed, a side view of the avatar is displayed on the screen of the mobile terminal, and a menu window for adjusting the nose length, the chin weight, and the forehead inclination is displayed. Again, the user decides the shape of the nose, chin and forehead according to his or her taste.

이후, 아바타의 측면모습에 대한 스타일 설정이 완료되면, 아바타의 체형, 아바타의 주변배경, 그리고 아바타의 애니메이션 동작(댄스, 감정표현)을 설정하는 메뉴창이 화면에 디스플레이된다. 사용자는 자신의 취향에 따라, 원하는 것을 선택한다. 이상 아바타의 얼굴, 체형, 동작 등에 대한 설정이 모두 완료되면, 3D아바타의 합성과정은 종료된다.Subsequently, when the style setting for the side view of the avatar is completed, a menu window for setting the body shape of the avatar, the surrounding background of the avatar, and the animation motion (dance, emotion expression) of the avatar is displayed on the screen. The user selects the desired one according to his or her taste. When all the settings for the avatar's face, body shape, motion, and the like are completed, the synthesis process of the 3D avatar is completed.

이상 기술된 바와 같이, 본 발명은 인물사진에 기초하여 3차원 아바타를 합성하는 방법에 대해 제안한 것으로, 별도의 사진편집이나 이미지 처리 과정이 없고, 숙련된 작업을 필요로 하지 않으므로 일반 사용자가 쉽고 간편하게 아바타를 만들 수 있다. As described above, the present invention proposes a method for synthesizing a 3D avatar based on a portrait, and there is no separate photo editing or image processing process, and no skilled work is required so that a general user can easily and conveniently You can create an avatar.

또한, 본 발명은 사용자가 휴대단말기에 저장된 사진 혹은 휴대단말기의 카메라로 촬영하여 얻은 사진을 이용하여 즉석에서 3차원 아바타 모델을 생성할 수 있다는 장점을 가지고 있다. In addition, the present invention has the advantage that the user can create a three-dimensional avatar model on the fly by using a picture stored in the mobile terminal or a picture taken by the camera of the mobile terminal.

본 발명은 도면에 도시된 실시 예를 참고로 설명되었으나 이는 예시적인 것에 불과하며, 본 기술 분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시 예가 가능하다는 점을 이해할 것이다. 따라서, 본 발명의 진정한 기술적 보호 범위는 첨부된 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Although the present invention has been described with reference to the embodiments illustrated in the drawings, this is merely exemplary, and it will be understood by those skilled in the art that various modifications and equivalent other embodiments are possible. Therefore, the true technical protection scope of the present invention will be defined by the technical spirit of the appended claims.

Claims (18)

대상 인물을 촬영하는 과정과;Photographing the target person; 상기 대상 인물과 유사한 3차원 얼굴 모델을 선택하는 과정;Selecting a 3D face model similar to the target person; 상기 촬영된 인물의 얼굴에서 키포인트를 검출하는 과정;Detecting a keypoint from the face of the photographed person; 상기 검출된 키포인트 좌표를 상기 3차원 얼굴 모델에 매핑하는 과정;Mapping the detected keypoint coordinates to the three-dimensional face model; 상기 3차원의 얼굴 모델을 아바타에 적용하여 3차원의 아바타 모델을 완성하는 과정으로 이루어진 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성 방법.3. A method of synthesizing a 3D avatar of a mobile terminal, comprising: applying the 3D face model to an avatar to complete a 3D avatar model. 제1항에 있어서, 상기 촬영과정은The method of claim 1, wherein the photographing process 휴대단말기를 촬영모드로 전환하는 과정과;Switching the mobile terminal to a shooting mode; 단말기 화면에 소정의 포커싱 기준을 디스플레이하는 과정과; Displaying predetermined focusing criteria on the screen of the terminal; 상기 포커싱 기준에 대상 인물의 얼굴을 조준하는 과정과;Aiming the face of the target person against the focusing criterion; 단말기의 카메라를 구동시켜 상기 대상인물을 촬영하는 과정으로 이루어지는 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성 방법.3. A method of synthesizing a 3D avatar of a mobile terminal, comprising: driving a camera of a terminal to photograph the target person; 제2항에 있어서, 상기 소정의 포커싱 기준은3. The method of claim 2, wherein the predetermined focusing criteria is H모양의 형태를 갖는 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성 방법.3D avatar synthesis method of a mobile terminal, characterized in that the H-shape. 제1항에 있어서, 상기 키포인트 검출과정은The method of claim 1, wherein the keypoint detection process is performed. 다수의 키포인트를 화면에 디스플레이하는 과정과;Displaying a plurality of key points on the screen; 상기 키포인트들을 촬영된 얼굴의 윤곽과 일치되도록 배치하는 과정과;Arranging the keypoints to match the outline of the photographed face; 키포인트의 배치가 완료되면, 키포인트들의 좌표를 구하는 과정으로 이루어지는 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성 방법.When the arrangement of the key point is completed, a method of synthesizing the 3D avatar of a mobile terminal, characterized in that the process of obtaining the coordinates of the key points. 제4항에 있어서, 상기 키포인트 배치 과정은The method of claim 4, wherein the keypoint placement process is performed. 화면에 다수의 키포인트들이 디스플레이되면, 키패드의 소정 버튼을 이용하여, 원하는 키포인드를 선택하는 과정과;When a plurality of keypoints are displayed on the screen, using a predetermined button on the keypad, selecting a desired keypoint; 키패드의 방향키를 이용하여, 상기 선택된 키포인드를 촬영된 얼굴의 윤곽과 일치하도록 이동시키는 과정으로 이루어지는 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성 방법.And moving the selected keypoint to coincide with the outline of the photographed face by using a direction key of the keypad. 제1항에 있어서, 촬영된 인물의 얼굴과 상기 3차원 모델간의 유사도를 임계치와 비교하는 과정과;The method of claim 1, further comprising: comparing a similarity between the face of the person photographed with the three-dimensional model with a threshold; 상기 유사도가 임계치보다 작거나 같은 경우, 상기 3차원의 얼굴 모델을 아바타에 적용하여 3차원의 아바타 모델을 완성하는 과정을 더 포함하는 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성 방법.And if the similarity is less than or equal to a threshold value, applying the three-dimensional face model to the avatar to complete the three-dimensional avatar model. 대상 인물을 촬영하는 과정과;Photographing the target person; 촬영된 인물의 얼굴특징을 검출하는 과정과; Detecting facial features of the photographed person; 촬영된 얼굴과 유사한 3차원 얼굴형을 구하는 과정과;Obtaining a three-dimensional face shape similar to the photographed face; 상기 촬영된 얼굴의 특징과 3차원 얼굴형을 참조하여, 상기 대상인물의 3차원의 얼굴 모델을 생성하는 과정으로 이루어진 것을 특징으로 하는 휴대 단말기의 3차원 아바타 합성 방법.3. A method of synthesizing a 3D avatar of a mobile terminal, comprising: generating a 3D face model of the target person with reference to the feature of the photographed face and the 3D face type. 제7항에 있어서, 상기 촬영과정은The method of claim 7, wherein the photographing process 휴대단말기를 촬영모드로 전환하는 과정과;Switching the mobile terminal to a shooting mode; 화면에 소정의 포커싱 기준을 디스플레이하는 과정과; Displaying predetermined focusing criteria on the screen; 상기 포커싱 기준에 대상 인물의 얼굴을 조준하는 과정과;Aiming the face of the target person against the focusing criterion; 장착된 카메라를 구동시켜 상기 대상인물을 촬영하는 과정으로 이루어진 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성방법.3. A method of synthesizing a 3D avatar of a portable terminal, comprising: driving a mounted camera to photograph the target person. 제8항에 있어서, 상기 소정의 포커싱 기준은The method of claim 8, wherein the predetermined focusing criterion is H모양의 형태를 갖는 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성방법.3D avatar synthesis method of a mobile terminal, characterized in that the H-shape. 제7항에 있어서, 상기 얼굴 특징을 검출하는 과정은The method of claim 7, wherein the detecting of the facial feature comprises 다수의 키포인트를 화면에 디스플레이하는 과정과;Displaying a plurality of key points on the screen; 상기 키포인트들을 촬영된 얼굴의 윤곽과 일치되도록 배치하는 과정과;Arranging the keypoints to match the outline of the photographed face; 키포인트의 배치가 완료되면, 키포인트들의 좌표를 구하는 과정으로 이루어진 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성방법.When the arrangement of the key point is completed, a method of synthesizing the three-dimensional avatar of the mobile terminal, characterized in that the process of obtaining the coordinates of the key points. 제10항에 있어서, 상기 키포인트 배치 과정은The method of claim 10, wherein the keypoint placement process is performed. 화면에 다수의 키포인트들이 디스플레이되면, 키패드의 소정 버튼을 이용하여, 원하는 키포인드를 선택하는 과정과;When a plurality of keypoints are displayed on the screen, using a predetermined button on the keypad, selecting a desired keypoint; 키패드의 방향키를 이용하여, 상기 선택된 키포인드를 촬영된 얼굴의 윤곽과 일치하도록 이동시키는 과정으로 이루어지는 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성방법.And moving the selected keypoint to coincide with the outline of the photographed face by using a direction key of the keypad. 제7항에 있어서, 상기 3차원 얼굴형은 The method of claim 7, wherein the three-dimensional face shape 다수의 기본 얼굴형을 선형조합하여 얻어지는 것을 특징으로 하는 휴대단말기 의 3차원 아바타 합성방법.3D avatar synthesis method of a mobile terminal, characterized in that obtained by linear combination of a number of basic face types. 제7항에 있어서, 상기 생성된 3차원 얼굴 모델과 촬영된 얼굴의 이목구비를 합성하는 과정을 더 포함하는 것을 특징으로 하는 휴대 단말기의 3차원 아바타 합성 방법.The method of claim 7, further comprising: synthesizing the generated three-dimensional face model and the ear of the photographed face. 메모리에 저장된 이미지를 불러오는 과정과;Loading an image stored in the memory; 상기 이미지에 나타난 대상인물과 유사한 3차원 얼굴 모델을 선택하는 과정; Selecting a three-dimensional face model similar to the subject person shown in the image; 상기 대상인물의 얼굴에서 키포인트를 검출하는 과정;Detecting a keypoint on the face of the target person; 상기 검출된 얼굴의 키포인트를 상기 3차원 얼굴 모델에 매핑하는 과정;Mapping keypoints of the detected face to the three-dimensional face model; 상기 3차원의 얼굴 모델을 아바타에 적용하여 3차원의 아바타 모델을 완성하는 과정으로 이루어진 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성 방법.3. A method of synthesizing a 3D avatar of a mobile terminal, comprising: applying the 3D face model to an avatar to complete a 3D avatar model. 제14항에 있어서, 상기 키포인트 검출과정은 The method of claim 14, wherein the keypoint detection process is performed. 상기 이미지와 소정의 포커싱 기준을 화면에 디스플레이하는 과정과; Displaying the image and predetermined focusing criteria on a screen; 상기 포커싱 기준을 이동시켜, 대상 인물의 얼굴에 조준하는 과정과;Moving the focusing criterion to aim the face of the target person; 조준이 완료되면, 다수의 키포인트를 화면에 디스플레이하는 과정과;When the aiming is completed, displaying a plurality of key points on the screen; 상기 키포인트들을 상기 얼굴의 윤곽과 일치되도록 배치하는 과정과;Arranging the keypoints to match the outline of the face; 키포인트의 배치가 완료되면, 키포인트들의 좌표를 구하는 과정으로 이루어진 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성방법.When the arrangement of the key point is completed, a method of synthesizing the three-dimensional avatar of the mobile terminal, characterized in that the process of obtaining the coordinates of the key points. 제15항에 있어서, 상기 키포인트 배치 과정은16. The method of claim 15, wherein the keypoint placement process is 화면에 다수의 키포인트들이 디스플레이되면, 키패드의 소정 버튼을 이용하여, 원하는 키포인드를 선택하는 과정과;When a plurality of keypoints are displayed on the screen, using a predetermined button on the keypad, selecting a desired keypoint; 키패드의 방향키를 이용하여, 상기 선택된 키포인드를 촬영된 얼굴의 윤곽과 일치하도록 이동시키는 과정으로 이루어지는 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성 방법.And moving the selected keypoint to coincide with the outline of the photographed face by using a direction key of the keypad. 제15항에 있어서, 상기 소정의 포커싱 기준은16. The method of claim 15, wherein the predetermined focusing criteria is H모양의 형태를 갖는 것을 특징으로 하는 휴대단말기의 3차원 아바타 합성방법.3D avatar synthesis method of a mobile terminal, characterized in that the H-shape. 제14항에 있어서, 상기 생성된 3차원의 얼굴 모델과 상기 대상인물의 이목구비를 합성하는 과정을 더 포함하는 것을 특징으로 하는 휴대 단말기의 3차원 아바타 합성방법.15. The method of claim 14, further comprising: synthesizing the generated three-dimensional face model and the object of the target person.
KR1020050020739A 2005-03-11 2005-03-11 Method for synthesis of 3d avata model of handset KR100608840B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050020739A KR100608840B1 (en) 2005-03-11 2005-03-11 Method for synthesis of 3d avata model of handset

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050020739A KR100608840B1 (en) 2005-03-11 2005-03-11 Method for synthesis of 3d avata model of handset

Publications (1)

Publication Number Publication Date
KR100608840B1 true KR100608840B1 (en) 2006-08-08

Family

ID=37184977

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050020739A KR100608840B1 (en) 2005-03-11 2005-03-11 Method for synthesis of 3d avata model of handset

Country Status (1)

Country Link
KR (1) KR100608840B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100745290B1 (en) 2006-06-12 2007-08-01 엘지전자 주식회사 Avata generating method for mobile device
WO2013191329A1 (en) * 2012-06-19 2013-12-27 에스케이플래닛 주식회사 System, apparatus, terminal, and method for generating characters
KR101386773B1 (en) 2007-07-31 2014-04-21 삼성전자주식회사 Method and apparatus for generating three dimension image in portable terminal
JP2020177615A (en) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 Method of generating 3d facial model for avatar and related device
JP2020177620A (en) * 2019-04-21 2020-10-29 未來市股▲ふん▼有限公司 Method of generating 3d facial model for avatar and related device

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030068509A (en) * 2002-10-11 2003-08-21 (주)아이엠에이테크놀로지 Generating Method of Character Through Recognition of An Autual Picture And Service Method using same

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20030068509A (en) * 2002-10-11 2003-08-21 (주)아이엠에이테크놀로지 Generating Method of Character Through Recognition of An Autual Picture And Service Method using same

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100745290B1 (en) 2006-06-12 2007-08-01 엘지전자 주식회사 Avata generating method for mobile device
KR101386773B1 (en) 2007-07-31 2014-04-21 삼성전자주식회사 Method and apparatus for generating three dimension image in portable terminal
WO2013191329A1 (en) * 2012-06-19 2013-12-27 에스케이플래닛 주식회사 System, apparatus, terminal, and method for generating characters
JP2020177615A (en) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 Method of generating 3d facial model for avatar and related device
JP2020177620A (en) * 2019-04-21 2020-10-29 未來市股▲ふん▼有限公司 Method of generating 3d facial model for avatar and related device

Similar Documents

Publication Publication Date Title
US11423556B2 (en) Methods and systems to modify two dimensional facial images in a video to generate, in real-time, facial images that appear three dimensional
EP3370208B1 (en) Virtual reality-based apparatus and method to generate a three dimensional (3d) human face model using image and depth data
KR101514327B1 (en) Method and apparatus for generating face avatar
JP6785282B2 (en) Live broadcasting method and equipment by avatar
JP5603452B1 (en) Video game processing apparatus and video game processing program
US11887234B2 (en) Avatar display device, avatar generating device, and program
JP3725460B2 (en) Image processing apparatus, image processing method, recording medium, computer program, semiconductor device
JP5632469B2 (en) Character generation system, character generation method and program
JP6874772B2 (en) Image generator, image generator, and program
JP2014238731A (en) Image processor, image processing system, and image processing method
CN112669447A (en) Model head portrait creating method and device, electronic equipment and storage medium
KR100608840B1 (en) Method for synthesis of 3d avata model of handset
KR101165017B1 (en) 3d avatar creating system and method of controlling the same
JP2010029397A (en) Program, information storage medium and image generation system
JP2739447B2 (en) 3D image generator capable of expressing wrinkles
JP2019175322A (en) Simulation system and program
JP2021073619A (en) Image generation device, image generation method, and program
US6633291B1 (en) Method and apparatus for displaying an image
WO2019044333A1 (en) Simulation device, simulation method, and computer program
JP2001216531A (en) Method for displaying participant in three-dimensional virtual space and three-dimensional virtual space display device
JP2014210213A (en) Video game processor, and video game processing program
Chalas et al. Generation of variable human faces from 3D scan dataset
CN115861575A (en) Commodity virtual trial effect display method and electronic equipment
CN117896510A (en) Image processing method, device, electronic equipment and readable storage medium
CN112562066A (en) Image reconstruction method and device and electronic equipment

Legal Events

Date Code Title Description
A201 Request for examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130624

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20140624

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20150624

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20160628

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20170623

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20190624

Year of fee payment: 14