KR100700872B1 - Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof - Google Patents

Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof Download PDF

Info

Publication number
KR100700872B1
KR100700872B1 KR1020060011619A KR20060011619A KR100700872B1 KR 100700872 B1 KR100700872 B1 KR 100700872B1 KR 1020060011619 A KR1020060011619 A KR 1020060011619A KR 20060011619 A KR20060011619 A KR 20060011619A KR 100700872 B1 KR100700872 B1 KR 100700872B1
Authority
KR
South Korea
Prior art keywords
expression
face
dimensional
service menu
personal character
Prior art date
Application number
KR1020060011619A
Other languages
Korean (ko)
Inventor
배희정
강태익
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to KR1020060011619A priority Critical patent/KR100700872B1/en
Application granted granted Critical
Publication of KR100700872B1 publication Critical patent/KR100700872B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Abstract

A method and a mobile terminal for displaying the facial expression of a three-dimensional personal character are provided to acquire facial form information, select a three-dimensional facial model, map the acquired facial form information to the facial mode, and control an expression control point so that the facial expression of the character can be variously changed. A method for displaying a facial expression of a three-dimensional personal character comprises the following steps. A position matching image for selecting a reference point is overlaid on a two-dimensional facial image(S3). Facial form information is acquired and a three-dimensional facial model approaching the facial form information is selected(S6,S7). A three-dimensional personal character is generated by mapping the facial form information to the three-dimensional facial model(S8). The facial expression of the character is set and displayed by processing an expression control point(S11).

Description

이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법 및 이를 위한 이동 통신 단말기{METHOD FOR DISPLAYING 3 DIMENSION PRIVATE CHARACTER IMAGE OF MOBILE TERMINAL AND THE MOBILE TERMINAL THEREOF}TECHNICAL FOR DISPLAYING 3 DIMENSION PRIVATE CHARACTER IMAGE OF MOBILE TERMINAL AND THE MOBILE TERMINAL THEREOF}

도 1은 본 발명의 일실시예에 따른 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기의 구성 블록도.1 is a block diagram of a mobile communication terminal equipped with a three-dimensional personal character expression display function according to an embodiment of the present invention.

도 2는 도 1의 이동 통신 단말기에서 가이드 라인 기법을 이용하여 촬영을 수행하기 위한 가이드 라인 화면의 예시도. FIG. 2 is a diagram illustrating a guide line screen for performing photographing using a guideline technique in the mobile communication terminal of FIG. 1. FIG.

도 3은 도 2에서 촬영할 사람의 얼굴을 조준하기 위한 위치 정합용 화면의 예시도.FIG. 3 is an exemplary view of a screen for position registration for aiming a face of a person to be photographed in FIG. 2; FIG.

도 4는 도 1에서 표정 처리부의 상세 구성 블록도.4 is a detailed block diagram of the expression processing unit in FIG. 1;

도 5는 본 발명의 일실시예에 따른 2차원 얼굴 영상에서 표정 제어점을 선정하기 위해 설정된 얼굴의 기준 라인을 보여주는 도면.5 is a diagram illustrating a reference line of a face set to select an expression control point in a 2D face image according to an embodiment of the present invention.

도 6은 본 발명의 일실시예에 따른 2차원 얼굴 영상에서 선정된 표정 제어점에 따른 근육벡터를 보여주는 도면.6 is a view showing a muscle vector according to a selected facial expression control point in a two-dimensional face image according to an embodiment of the present invention.

도 7은 도 1에 도시된 본 발명의 일실시예에 따른 이동 통신 단말기에서 3차원 개인 캐릭터를 생성하고 표정을 생성하는 동작 흐름도.7 is a flowchart illustrating an operation of generating a 3D personal character and generating an expression in the mobile communication terminal according to an embodiment of the present invention shown in FIG. 1.

도 8은 도 1에 도시된 본 발명의 일실시예에 따른 이동 통신 단말기에서 3차원 개인 캐릭터에 표정을 생성하여 표시하는 동작 흐름도.8 is a flowchart illustrating an operation of generating and displaying an expression on a 3D personal character in a mobile communication terminal according to an embodiment of the present invention shown in FIG. 1.

<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>

100 : 이동 통신 단말기 110 : 메모리100: mobile communication terminal 110: memory

120 : 제어부 121 : 촬영 처리부120: control unit 121: recording processing unit

122 : 화면 표시 처리부 123 : 얼굴 정보 획득부122: screen display processing unit 123: face information acquisition unit

124 : 모델 선정부 125 : 캐릭터 생성부124: model selection unit 125: character generator

126 : 표정 처리부 126a : 표정 제어점 선정부126: facial expression processing unit 126a: facial expression control point selection unit

126b : 표정 선택 처리부 126c : 산출부126b: facial expression selection processor 126c: calculator

126d: 표정 생성부 127 : 다운 로드 처리부126d: facial expression generator 127: download processing unit

130 : RF부 140 : 음성 처리부130: RF unit 140: voice processing unit

150 : 스피커 160 : 마이크로폰150: speaker 160: microphone

170 : 키입력부 180 : 표시부170: key input unit 180: display unit

190 : 카메라190 camera

본 발명은 이동 통신 단말기의 3차원 개인 캐릭터 서비스에 관한 것으로, 보다 구체적으로는 이동 통신 단말기에서 개인의 얼굴 특성을 반영한 3차원 아바타와 같은 개인 캐릭터를 생성하고 그 생성된 개인 캐릭터의 얼굴 표정을 다양하게 변화시켜 표시하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법 및 이를 위한 이동 통신 단말기에 관한 것이다.The present invention relates to a three-dimensional personal character service of a mobile communication terminal, and more particularly, to generate a personal character such as a three-dimensional avatar reflecting an individual's face characteristics in a mobile communication terminal and varying facial expressions of the generated personal character. The present invention relates to a 3D personal character facial expression display method of a mobile communication terminal for changing and displaying the same, and a mobile communication terminal for the same.

아바타는 가상 공간인 인터넷이나 이동 통신 환경에 존재하는 또 다른 자아를 나타내는 것으로서, 사람의 형상 뿐만 아니라 동물이나 식물 등 표현할 수 있는 모든 형태로의 변형이 가능한 존재이다. The avatar represents another self existing in the Internet or a mobile communication environment, which is a virtual space, and is capable of being transformed into any form that can be expressed, such as an animal or a plant, as well as a human form.

이러한 아바타의 제작 및 이용은 사용자로 하여금 자신의 모습과 유사하며, 자신의 특징을 나타낼 수 있는 표현 도구로서, 사용자의 호기심이나 대리만족, 개인이 요구하는 이상적인 인물 등의 의미를 내포할 수 있다. 그에 따라, 사용자는 개인을 나타내는 아바타의 제작 및 이용에 많은 관심을 가지게 되었다.The production and use of such an avatar is similar to the user's own appearance, and may represent the user's characteristics, and may include meanings such as user's curiosity, surrogate satisfaction, and the ideal person required by the individual. Accordingly, the user has become very interested in the production and use of avatars representing individuals.

이동 통신 단말기에도 각종 부가 서비스와 사용자의 흥미를 유발하기 위하여 이러한 아바타의 기술들이 다양하게 도입되어 있다.In order to induce various additional services and interests of the mobile terminal, various techniques of such avatars have been introduced.

일예로 2차원 아바타 뿐만 아니라 입체감을 줄 수 있는 3차원 아바타가 이동 통신 단말기에 도입되어 사용자의 흥미를 유발하고 있다.For example, a three-dimensional avatar capable of giving a three-dimensional appearance as well as a two-dimensional avatar is introduced to a mobile communication terminal, causing user interest.

그러나, 종래의 이동 통신 단말기에서 사용되고 있는 3차원 아바타는 이동 통신 사업자나 컨텐츠 제공업체로부터 일률적으로 제공됨에 따라 수많은 사용자의 다양한 요구에 부응하는 아바타를 제공하는 것이 어렵다. However, since the 3D avatar used in the conventional mobile communication terminal is uniformly provided by the mobile communication provider or the content provider, it is difficult to provide an avatar that meets various needs of numerous users.

예를 들어, 사용자는 자신과 동일한 얼굴 형상을 가지고, 다양한 표정을 짓는 아바타를 원하지만 종래의 기술에서는 그러한 사용자의 요구를 충족시킬 수 없다.For example, a user wants an avatar that has the same face shape as the user and makes various expressions, but the conventional technology cannot satisfy the needs of such a user.

본 발명이 이루고자 하는 기술적 과제는 이동 통신 단말기에서 개인의 얼굴특성을 반영한 3차원의 아바타와 같은 개인 캐릭터를 생성하고 그 생성된 개인 캐릭터의 얼굴 표정을 다양하게 변화시켜 표시하는 데 있다.The technical problem to be achieved by the present invention is to generate a personal character such as a three-dimensional avatar reflecting the personal characteristics of the person in the mobile communication terminal, and to change the facial expression of the generated personal character in various ways.

본 발명이 이루고자 하는 다른 기술적 과제는 3차원 개인 캐릭터의 표정 변화를 적용하여 이동 통신 단말기의 사용자 인터페이스를 사용자에게 좀더 친근하도록 개선하는 데 있다.Another technical problem to be solved by the present invention is to improve the user interface of a mobile communication terminal to be more friendly to a user by applying a facial expression change of a 3D personal character.

이러한 기술적 과제를 달성하기 위한 본 발명의 일측면에 의하면, 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 그 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 제 1 단계와, 선정된 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하는 제 2 단계와, 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하고 선정된 표정 제어점의 변환처리를 통해 3차원 개인 캐릭터의 표정을 설정하여 화면에 표시하는 제 3 단계를 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법을 제공한다.According to an aspect of the present invention for achieving the technical problem, the first step of obtaining the face shape information from the two-dimensional face image and selecting the three-dimensional face model close to the acquired face shape information, and the selected three-dimensional The second step of generating the 3D personal character by mapping the acquired face shape information to the face model, and selecting an expression control point from the acquired face shape information and converting the selected expression control point to express the expression of the 3D personal character. It provides a three-dimensional personal character facial expression display method of a mobile communication terminal comprising a third step of setting and displaying on the screen.

바람직하게 본 발명에 의한 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법은 제 1 단계를 수행하기 전에 카메라를 통해 사람 얼굴을 촬영하여 2차원 얼굴 영상을 생성하는 촬영 단계를 더 포함할 수 있다.Preferably, the 3D personal character facial expression display method of the mobile terminal according to the present invention may further include a photographing step of generating a two-dimensional face image by photographing a human face through a camera before performing the first step.

바람직하게 촬영 단계는, 촬영할 대상을 조준할 수 있게 하기 위해 얼굴의 가이드 라인을 보여주는 가이드 라인 화면을 카메라를 통해 입력된 촬영 대상의 영상 위에 오버레이하여 표시하는 것을 특징으로 한다.Preferably, the photographing step may be characterized by overlaying and displaying a guide line screen showing a guide line of a face on an image of a photographing target input through a camera in order to be able to aim the object to be photographed.

바람직하게 제 1 단계는, 2 차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하기 위한 연산을 수행할 때 각 얼굴의 각 요소에 대한 정보를 획득하기 위한 기준점을 미리 선정하기 위한 위치 정합용 화면을 2 차원 얼굴 영상위에 오버레이하여 표시하는 것을 특징으로 한다.Preferably, in the first step, when performing a calculation for acquiring face shape information from a two-dimensional face image, a two-dimensional face for position registration screen for preselecting a reference point for acquiring information on each element of each face is obtained. And overlay the image on the image.

바람직하게 위치 정합용 화면은, 얼굴의 각 부분에 상응하는 조각 이미지들이 얼굴 형태를 갖추어 이루어지며, 각각의 조각 이미지들은 키입력부의 조작에 의해 선택되어 이동가능한 것을 특징으로 한다.Preferably, the position matching screen is made of sculpture images corresponding to each part of the face having a face shape, and each sculpture image is selected and moved by manipulation of a key input unit.

바람직하게 본 발명에 의한 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법은 제 1 단계를 수행하기 전에 네트워크를 통해 임의의 서버로부터 획득된 얼굴 형태 정보를 맵핑하는데 사용될 적어도 하나 이상의 3차원 얼굴 모델 정보를 다운로드받아 저장하는 단계를 더 포함할 수 있다.Preferably, the three-dimensional personal character expression display method of the mobile communication terminal according to the present invention comprises at least one or more three-dimensional face model information to be used to map the face shape information obtained from any server through the network before performing the first step. The method may further include downloading and storing.

바람직하게 제 3 단계는 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하는 단계와, 3차원 개인 캐릭터에 설정할 표정의 종류를 선택하는 단계와, 선택된 종류의 표정을 설정하기 위한 표정 제어점의 변환값을 산출하는 단계와, 3차원 개인 캐릭터에 산출된 표정 제어점의 변환값을 적용하여 화면에 표시하는 단계를 포함한다.Preferably, the third step includes selecting an expression control point from the acquired face shape information, selecting a type of expression to be set for the 3D personal character, and calculating a conversion value of the expression control point for setting the selected type of expression. And applying the converted value of the expression control point calculated to the three-dimensional personal character to display on the screen.

본 발명의 다른 측면에 의하면, 획득된 얼굴 형태 정보를 맵핑할 적어도 하 나 이상의 3차원 얼굴 모델 정보를 저장하는 메모리와, 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 그 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하고, 획득된 얼굴 형태 정보부터 선정된 표정 제어점의 변환처리를 통해 3차원 개인 캐릭터의 표정을 설정하여 화면에 표시하는 제어부를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기를 제공한다.According to another aspect of the present invention, a memory for storing at least one or more three-dimensional face model information to map the acquired face shape information, and obtains the face shape information from the two-dimensional face image and is close to the acquired face shape information Control unit for generating a 3D personal character by mapping the acquired face shape information to the 3D face model, and setting the expression of the 3D personal character through the process of converting the selected facial expression information from the acquired face shape information to the screen. It provides a mobile communication terminal having a three-dimensional personal character expression display function comprising a.

바람직하게 제어부는 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하는 얼굴 정보 획득부와, 얼굴 정보 획득부에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 모델 선정부와, 그 선정된 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하는 캐릭터 생성부와, 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하고 선정된 표정 제어점의 변환처리를 통해 3차원 개인 캐릭터에 표정을 설정하는 표정 처리부와, 표정 처리부에 의해 설정된 표정을 가지는 제 3 차원 개인 캐릭터를 화면에 표시하는 화면 표시 처리부를 포함한다.Preferably, the control unit includes a face information acquisition unit for acquiring face shape information from a two-dimensional face image, a model selection unit for selecting a three-dimensional face model in proximity to the face shape information acquired by the face information acquisition unit, and the selected three The character generator generates a 3D personal character by mapping the acquired face shape information to the 3D face model, and selects an expression control point from the acquired face shape information and expresses the expression on the 3D personal character through the conversion process of the selected expression control point. And a screen display processing unit configured to display a 3D personal character having a facial expression set by the facial expression processing unit on the screen.

바람직하게 표정 처리부는 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하는 표정 제어점 선정부와, 3차원 개인 캐릭터에 설정할 표정의 종류를 선택하는 표정 선택 처리부와, 선택된 종류의 표정을 설정하기 위한 표정 제어점의 변환값을 산출하는 산출부와, 3차원 개인 캐릭터에 산출된 표정 제어점의 변환값을 적용하여 표정을 생성하는 표정 생성부를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기를 제공한다.Preferably, the expression processing unit includes an expression control point selecting unit for selecting an expression control point from the acquired face shape information, an expression selection processing unit for selecting the type of expression to be set for the 3D personal character, and an expression control point for setting the selected type of expression. Provided is a mobile communication terminal equipped with a three-dimensional personal character facial expression display function comprising a calculation unit for calculating a transform value and an expression generator for generating a facial expression by applying the transform value of the facial expression control point calculated to the three-dimensional personal character.

바람직하게 제어부는 카메라를 통해 사람 얼굴을 촬영하여 2차원 얼굴 영상을 생성하는 촬영 처리부를 더 포함할 수 있다.Preferably, the control unit may further include a photographing processor that generates a two-dimensional face image by photographing a human face through a camera.

바람직하게 2차원 얼굴 영상은 메모리에 저장되어 있거나 네트워크를 통해 다운로드 받은 사람 얼굴 데이터인 것을 특징으로 한다.Preferably, the 2D face image is human face data stored in a memory or downloaded through a network.

바람직하게 제어부는 네트워크를 통해 임의의 서버로부터 획득된 얼굴 형태 정보를 맵핑하는데 사용될 적어도 하나 이상의 3차원 얼굴 모델 정보를 다운로드받아 메모리에 저장하는 다운로드 처리부를 더 포함한다.Preferably, the control unit further includes a download processing unit for downloading at least one or more three-dimensional face model information to be used to map the face shape information obtained from any server through the network and to store in the memory.

본 발명의 또 다른 측면에 의하면, 서비스 메뉴별로 3차원 개인 캐릭터에 지정할 표정의 종류를 설정하는 제 1 단계와, 임의의 서비스 메뉴에 대한 실행이 요청되면 해당 서비스 메뉴에 상응하여 3차원 캐릭터에 설정할 표정의 종류를 판단하는 제 2 단계와, 표정 제어점의 변환을 통해 3차원 개인 캐릭터에 판단된 종류의 표정을 설정하여 화면에 표시하는 제 3 단계를 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법을 제공한다.According to another aspect of the present invention, the first step of setting the type of expression to be assigned to the three-dimensional personal character for each service menu, and if the execution of any service menu is requested to set to the three-dimensional character corresponding to the service menu 3D personal character facial expression display of the mobile communication terminal comprising a second step of determining the type of facial expression, and a third step of setting the expression of the determined type to the three-dimensional personal character through the conversion of the expression control point and display on the screen Provide a method.

바람직하게 본 발명에 의한 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법은 제 1 단계를 수행하기 전에 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 단계와, 선정된 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 생성하는 단계를 더 포함할 수 있다.Preferably, the method for displaying a 3D personal character expression of a mobile communication terminal according to the present invention obtains face shape information from a 2D face image and selects a 3D face model close to the acquired face shape information before performing the first step. The method may further include mapping the acquired face shape information to the selected 3D face model to generate a 3D personal character to be displayed when the service menu is executed.

바람직하게 표정 제어점은 표정 제어점의 벡터 변환을 통해 임의의 표정을 생성하기 위해 2차원 얼굴 영상으로부터 선정되는 적어도 하나 이상의 벡터 좌표인 것을 특징으로 한다.Preferably, the facial expression control point is at least one vector coordinate selected from a two-dimensional face image to generate an arbitrary facial expression through vector transformation of the facial expression control point.

바람직하게 서비스 메뉴는 사진 합성 서비스 메뉴, 전화번호부 서비스 메뉴, 화상 통화 서비스 메뉴, 소리 설정 서비스 메뉴, 색상 설정 서비스 메뉴, 이모티콘 서비스 메뉴, 고객 관리 서비스 메뉴 중 적어도 하나의 서비스 메뉴를 포함할 수 있다.Preferably, the service menu may include at least one service menu of a photo collage service menu, a phone book service menu, a video call service menu, a sound setting service menu, a color setting service menu, an emoticon service menu, and a customer care service menu.

본 발명의 또 다른 측면에 의하면, 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 저장하는 메모리와, 임의의 서비스 메뉴에 대한 실행이 요청되면 표정 제어점의 변환을 통해 해당 서비스 메뉴에 상응하는 종류의 표정을 메모리에 저장되어 있는 3차원 캐릭터에 설정하여 화면에 표시하는 제어부를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기를 제공한다.According to another aspect of the present invention, a memory for storing a three-dimensional personal character to be displayed when the service menu is executed, and a type corresponding to the corresponding service menu through conversion of the expression control point when an execution of an arbitrary service menu is requested. It provides a mobile communication terminal having a three-dimensional personal character facial expression display function comprising a control unit for setting the expression of the expression to the three-dimensional character stored in the memory to display on the screen.

바람직하게 제어부는 서비스 메뉴별로 3차원 개인 캐릭터에 지정할 표정의 종류를 설정하는 설정부와, 임의의 서비스 메뉴에 대한 실행이 요청되면 해당 서비스 메뉴에 상응하여 3차원 캐릭터에 설정할 표정의 종류를 판단하는 판단부와, 표정 제어점의 변환을 통해 3차원 개인 캐릭터에 판단된 종류의 표정을 설정하는 표정 처리부와, 표정 처리부에 의해 설정된 표정을 가지는 제 3 차원 개인 캐릭터를 화면에 표시하는 화면 표시 처리부를 포함한다.Preferably, the control unit is a setting unit for setting the type of expression to be assigned to the three-dimensional personal character for each service menu, and if the execution of any service menu is requested to determine the type of expression to be set for the three-dimensional character corresponding to the service menu A determination unit, an expression processing unit for setting the type of expression judged on the three-dimensional personal character through transformation of the expression control point, and a screen display processing unit for displaying the 3D personal character having the expression set by the expression processing unit on the screen; do.

더 바람직하게 제어부는 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하는 얼굴 정보 획득부와, 얼굴 정보 획득부에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 모델 선정부와, 선정된 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 생 성하는 캐릭터 생성부를 더 포함할 수 있다.More preferably, the control unit includes a face information acquisition unit for acquiring face shape information from a two-dimensional face image, a model selection unit for selecting a three-dimensional face model in proximity to the face shape information acquired by the face information acquisition unit, and the selected three. The apparatus may further include a character generator configured to map the acquired face shape information to the dimensional face model to generate a 3D personal character to be displayed when the service menu is executed.

바람직하게 표정 제어점은 표정 제어점의 벡터 변환을 통해 임의의 표정을 생성하기 위해 2차원 얼굴 영상으로부터 선정되는 적어도 하나 이상의 벡터 좌표인 것을 특징으로 한다.Preferably, the facial expression control point is at least one vector coordinate selected from a two-dimensional face image to generate an arbitrary facial expression through vector transformation of the facial expression control point.

바람직하게 서비스 메뉴는 사진 합성 서비스 메뉴, 전화번호부 서비스 메뉴, 화상 통화 서비스 메뉴, 소리 설정 서비스 메뉴, 색상 설정 서비스 메뉴, 이모티콘 서비스 메뉴, 고객 관리 서비스 메뉴 중 적어도 하나의 서비스 메뉴를 포함할 수 있다.Preferably, the service menu may include at least one service menu of a photo collage service menu, a phone book service menu, a video call service menu, a sound setting service menu, a color setting service menu, an emoticon service menu, and a customer care service menu.

이하, 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 이동 통신 단말기의 개인 캐릭터 서비스 방법 및 그 이동 통신 단말기를 설명하도록 한다.Hereinafter, a personal character service method and a mobile communication terminal of a mobile communication terminal according to an embodiment of the present invention with reference to the accompanying drawings.

도 1은 본 발명의 일실시예에 따른 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기의 구성 블록도이다.1 is a block diagram illustrating a mobile communication terminal equipped with a 3D personal character expression display function according to an embodiment of the present invention.

도 1을 참조하면, 본 발명의 일실시예에 따른 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기는 3차원 개인 캐릭터 표정 표시 서비스를 수행하기 위한 절차가 프로그래밍된 프로그램을 저장하고 있는 메모리(110)와, 그 메모리(110)에 저장된 프로그램을 읽어들여 해당 프로그램에 프로그래밍된 절차를 수행하여 촬영된 얼굴 영상으로부터 3차원 개인 캐릭터를 생성하고, 생성된 개인 캐릭터의 얼굴 표정을 다양하게 변화시키는 제어부(120)와, RF부(130)와, 음성 처리부(140)와, 스피커(150)와, 마이크로폰(160)과, 키입력부(170)와, 표시부(180)와, 카메라(190)를 포함하여 구성된다.Referring to FIG. 1, a mobile communication terminal having a 3D personal character expression display function according to an embodiment of the present invention may include a memory configured to store a program in which a procedure for performing a 3D personal character expression display service is programmed ( 110 and a controller for reading a program stored in the memory 110 to perform a procedure programmed in the program to generate a 3D personal character from the photographed face image, and to vary the facial expression of the generated personal character. 120, an RF unit 130, a voice processing unit 140, a speaker 150, a microphone 160, a key input unit 170, a display unit 180, and a camera 190 It is configured by.

메모리(110)에는 제어부(120)의 동작 프로그램, 시스템 프로그램이 저장되며, 동작 프로그램이나 시스템 프로그램은 통상 포함된 롬(ROM) 영역에 저장되고 필요에 의해 소거가 가능하다. 전기적으로 소거 가능한 롬으로는 이이피롬(EEPROM), 플래시 메모리 등이 있다. 그리고, 메모리(110)는 또한 여러 동작 프로그램 수행 중에 발생하는 데이터를 일시 저장하는 램(RAM)을 포함한다.The memory 110 stores an operation program and a system program of the controller 120, and the operation program and the system program are stored in a ROM region which is normally included and can be erased as necessary. Electrically erasable ROMs include EEPROM and flash memory. The memory 110 also includes a RAM that temporarily stores data generated during execution of various operation programs.

아울러, 메모리(110)는 3차원 개인 캐릭터를 생성하는데 필요한 프로그램과, 획득된 얼굴 형태 정보를 맵핑할 적어도 하나 이상의 3차원 얼굴 모델 정보를 저장하고 있다.In addition, the memory 110 stores a program for generating a 3D personal character and at least one 3D face model information to map the acquired face shape information.

제어부(120)는 이동 통신 단말기의 전반적인 동작을 제어함과 동시에, 본 발명에 따른 이동 통신 단말기에서의 개인 캐릭터 서비스를 수행할 때 전체적인 절차에 대한 제어를 수행하게 된다. 그리고, 구비되는 각종 구성들의 제어를 이루게 된다.The control unit 120 controls the overall operation of the mobile communication terminal, and performs control of the overall procedure when performing a personal character service in the mobile communication terminal according to the present invention. Then, control of various components provided is achieved.

제어부(120)는 카메라(190)에 의해 촬영되거나 메모리(110)에 저장되어 있거나 네트워크를 통해 다운로드받은 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 그 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하고, 2차원 얼굴 영상에서 선정된 표정 제어점의 변환처리를 통해 3차원 개인 캐릭터의 표정을 설정하여 화면에 표시한다.The controller 120 acquires face shape information from a two-dimensional face image photographed by the camera 190, stored in the memory 110, or downloaded through a network, and is applied to a three-dimensional face model close to the acquired face shape information. The 3D personal character is generated by mapping the acquired face shape information, and the expression of the 3D personal character is set and displayed on the screen through the transformation process of the expression control point selected in the 2D face image.

이를 위해 제어부(120)는 촬영 처리부(121)와 화면 표시 처리부(122)와 얼굴 정보 획득부(123)와 모델 선정부(124)와 캐릭터 생성부(125)와 표정 처리부(126)와 다운 로드 처리부(127)를 포함하여 구성된다.To this end, the controller 120 downloads the photographing processor 121, the screen display processor 122, the face information acquirer 123, the model selector 124, the character generator 125, and the facial expression processor 126. It is configured to include a processing unit 127.

촬영 처리부(121)는 키입력부(170)를 통한 촬영 명령에 따라 카메라(190)를 통해 입력된 사람 얼굴을 촬영하여 3차원 개인 캐릭터를 생성하기 위한 2차원 얼굴 영상으로 메모리(110)에 저장한다.The photographing processor 121 stores the human face input through the camera 190 as a two-dimensional face image for generating a three-dimensional personal character according to a photographing command through the key input unit 170 and stores it in the memory 110. .

이때, 촬영 처리부(121)는 사용자에 의해 촬영 대상의 얼굴에 조준된 상태에서 촬영을 명령하는 키입력부(170)의 조작이 이루어지면 표시부(180)에 표시된 영상을 2차원 얼굴 영상으로 저장한다.At this time, the photographing processing unit 121 stores the image displayed on the display unit 180 as a two-dimensional face image when the manipulation of the key input unit 170 for commanding photographing in a state of being aimed at the face of the photographing subject by the user is performed.

화면 표시 처리부(121)는 3차원 개인 캐릭터의 표정 서비스를 수행하기 위한 일련의 절차에 필요한 각종 화면을 표시부(180)에 표시한다.The screen display processor 121 displays various screens necessary for a series of procedures for performing an expression service of a 3D personal character on the display unit 180.

예를 들어서, 촬영 처리부(121)에 의해 촬영 모드가 실행되는 경우, 가이드 라인 기법에 의한 촬영이 이루어질 수 있도록 도 2에 도시된 바와 같이 촬영할 대상을 조준할 수 있게 하기 위해 얼굴의 가이드 라인을 보여주는 가이드 라인 화면을 카메라(190)를 통해 입력되어 표시부(180)에 표시된 영상 위에 오버레이하여 표시한다.For example, when the photographing mode is executed by the photographing processing unit 121, as shown in FIG. 2, a guideline of the face is shown to aim the object to be photographed so that photographing by the guideline technique can be performed. The guide line screen is input through the camera 190 to be overlaid and displayed on the image displayed on the display unit 180.

화면 표시 처리부(123)에 의해 표시부(180)에 표시되는 가이드 라인에는 얼굴 윤곽이 보여진다. 즉, 표시부(180)에는 카메라(190)를 통해 입력되는 얼굴 영상이 표시된 상태에서 눈썹, 눈, 코, 입의 영역들을 나타내는 가이드 라인이 오버레이되어 표시된다.The outline of the face is shown in the guide line displayed on the display unit 180 by the screen display processor 123. That is, the display unit 180 is overlaid with guide lines indicating the areas of the eyebrows, eyes, nose, and mouth while the face image input through the camera 190 is displayed.

이에 따라, 사용자는 이동 통신 단말기의 위치를 조절하여 표시부(180)에 오버레이 되어 표시된 가이드 라인에 촬영 대상의 해당 부분이 매칭되도록 촬영 대상에 대한 조준(Focusing)을 수행할 수 있다.Accordingly, the user may adjust the position of the mobile communication terminal to perform focusing on the photographing target so that the corresponding portion of the photographing target is matched to the displayed guide line by being overlaid on the display unit 180.

또한, 화면 표시 처리부(122)는 얼굴 정보 획득부(123)에 의해 2차원 영상으로부터 얼굴 영상 정보를 획득할 때 좀더 정확하게 얼굴에 대한 형태 정보를 획득하기 위해 카메라(190)에 촬영되어 메모리(110)에 저장된 얼굴 영상을 표시부(180)에 표시한 상태에서 위치 정합용 화면을 오버레이하여 표시한다.In addition, the screen display processing unit 122 is photographed by the camera 190 to more accurately obtain the shape information about the face when the face information acquisition unit 123 acquires the face image information from the two-dimensional image memory 110 In the state in which the face image stored in the display on the display unit 180 is displayed by overlaying the screen for position matching.

여기에서 위치 정합용 화면은 도 3에 도시된 바와 같이 얼굴의 각 부분에 상응하는 조각 이미지들이 얼굴 형태를 갖추어 이루어진 화면이다.Here, the position matching screen is a screen in which sculpture images corresponding to each part of the face have a face shape as shown in FIG. 3.

도시된 바와 같이 표시부(180)에 얼굴 영상이 표시된 상태에서 좌측눈, 우측눈, 좌측귀, 우측취, 코, 입, 턱의 조각 이미지들이 오버레이되어 표시되어 있다.As shown, fragment images of the left eye, the right eye, the left ear, the right ear, the nose, the mouth, and the chin are displayed while the face image is displayed on the display unit 180.

각각의 조각 이미지들은 키입력부(170)의 조작에 의해 선택될 수 있고, 선택된 조각 이미지들은 키입력부(170)에 구비된 방향키 또는 번호키의 조작을 통해 상하좌우로 이동될 수 있다.Each of the fragment images may be selected by manipulation of the key input unit 170, and the selected fragment images may be moved up, down, left, and right through manipulation of a direction key or a number key provided in the key input unit 170.

즉, 사용자는 표시부(180)에 얼굴 영상이 표시되고, 그 위에 조각 이미지들이 오버레이되어 표시된 상태에서 키입력부(170)의 방향키 또는 번호키를 조작하여 왼쪽눈에 해당하는 조각 이미지를 얼굴 영상의 왼쪽눈에 거의 정확하게 오버레이되도록 이동시키고, 오른쪽눈에 해당하는 조각 이미지를 얼굴 영상의 오른쪽눈에 거의 정확하게 오버레이되도록 이동시킨다.That is, the user manipulates the direction key or the number key of the key input unit 170 while the face image is displayed on the display unit 180 and the fragment images are overlaid thereon. The image is moved to be almost exactly overlaid on the eye, and the fragment image corresponding to the right eye is overlaid on the right eye of the face image.

사용자는 동일한 방법으로 좌측귀, 우측취, 코, 입, 턱의 조각 이미지들을 이동시켜 얼굴 영상의 해당 부분에 오버레이되게 한 후 키입력부(170)에 구비된 확인키를 누르면 위치 정합 작업이 완료된다.The user moves the pieces of the left ear, right ear, nose, mouth and chin in the same manner so that the image is overlaid on the corresponding part of the face image and then presses the confirmation key provided in the key input unit 170 to complete the position matching operation. .

이러한 위치 정합 작업은 얼굴 정보 획득부(123)에서 얼굴 영상으로부터 얼 굴 정보를 획득하기 위한 연산을 수행할 때 각 얼굴의 각 요소에 대한 정보를 획득하기 위한 기준점을 미리 선정해주는 작업에 해당된다.The position matching operation corresponds to a task of preselecting a reference point for acquiring information on each element of each face when the face information acquisition unit 123 performs an operation for acquiring face information from the face image.

따라서, 위치 정합 작업이 제대로 수행될수록 좀더 실물에 가까운 3차원 개인 캐릭터가 생성될 가능성이 높아지게 된다.Therefore, as the position matching operation is performed properly, the possibility of generating a more realistic three-dimensional personal character is increased.

아울러, 화면 표시 처리부(122)는 표정 처리부(126)에 의해 설정된 표정을 가지는 제 3 차원 개인 캐릭터를 화면에 표시한다.In addition, the screen display processor 122 displays the 3D personal character having the facial expression set by the facial expression processor 126 on the screen.

얼굴 정보 획득부(123)는 촬영 처리부(121)에 의해 촬영되어 메모리(110)에 저장된 2차원 얼굴 영상으로부터 각종 얼굴 정보를 획득한다.The face information acquirer 123 acquires various face information from the two-dimensional face image photographed by the photographing processor 121 and stored in the memory 110.

얼굴 정보 획득부(123)는 촬영 처리부(121)에 의해 촬영되어 메모리(110)에 저장된 2차원 얼굴 영상에 대하여 화면 표시 처리부(122)에 의해 위치 정합 작업이 수행되면 위치 정합 작업에 의해 선정된 각 얼굴 요소의 조각 이미지들의 좌표 위치를 기반으로 얼굴 형태 정보를 획득한다.The face information obtaining unit 123 is selected by the position matching operation when the position matching operation is performed by the screen display processing unit 122 on the 2D face image photographed by the photographing processing unit 121 and stored in the memory 110. Face shape information is obtained based on the coordinate positions of the fragment images of each face element.

예를 들어 얼굴 정보 획득부(123)는 화면 표시 처리부(122)에 의한 위치 정합 작업에 의해 선정된 각 얼굴 요소의 조각 이미지들의 좌표 위치를 기반으로 얼굴의 형태 정보를 획득한다.For example, the face information acquirer 123 obtains face shape information based on coordinate positions of pieces of images of each face element selected by the position matching operation by the screen display processor 122.

예를 들면, 이마의 좌우 길이, 턱의 좌우길이, 이마에서 턱까지의 길이, 좌측 턱선, 우측 턱선, 눈을 지나는 얼굴 폭, 얼굴폭에서 좌측턱선까지의 길이, 얼굴폭에서 우측턱선까지의 길이를 측정하여 해당 2차원 얼굴에 대한 얼굴 정보로 출력한다.For example, the left and right length of the forehead, the left and right length of the chin, the length from the forehead to the chin, the left jaw line, the right jaw line, the width of the face passing through the eyes, the length from the face width to the left jaw line, the length from the face width to the right jaw line Is measured and output as face information on the corresponding two-dimensional face.

따라서, 얼굴 정보 획득부(123)는 각 얼굴 요소의 조각 이미지 좌표에 근거 하여 획득한 얼굴 형태 정보를 메모리(110)에 저장한다.Accordingly, the face information acquisition unit 123 stores face shape information acquired based on the fragment image coordinates of each face element in the memory 110.

여기에서 얼굴 형태 정보에는 각 얼굴 요소들에 대한 색상 이미지들도 포함된다.Here, the face shape information includes color images of each face element.

모델 선정부(124)는 메모리(110)에 저장되어 있는 3차원 얼굴 모델들 중에서 얼굴 정보 획득부(123)에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정한다.The model selector 124 selects the 3D face model close to the face shape information acquired by the face information acquirer 123 from among the 3D face models stored in the memory 110.

모델 선정부(124)는 얼굴 정보 획득부(123)에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하기 위해 얼굴 정보 획득부(123)에 의해 획득되어 메모리(110)에 얼굴 형태 정보를 분석하여 분석된 결과에 따라 가장 근접한 3차원 모델을 선정한다.The model selector 124 is acquired by the face information acquirer 123 and selects the face shape information in the memory 110 in order to select a 3D face model that is close to the face shape information acquired by the face information acquirer 123. Analyze and select the nearest 3D model according to the analyzed result.

즉, 모델 선정부(124)는 각 얼굴 요소의 조각 이미지들에 대한 좌표값들을 분석하여 해당 좌표값으로부터 예를 들어, 얼굴 정보 획득부(123)에 의해 측정된 이마의 좌우 길이, 턱의 좌우길이, 이마에서 턱까지의 길이, 좌측 턱선, 우측 턱선, 눈을 지나는 얼굴 폭, 얼굴폭에서 좌측턱선까지의 길이, 얼굴폭에서 우측턱선까지의 길이를 이용하여 메모리(110)에 저장된 3차원 모델 중에서 가장 근접한 형상을 가지고 있는 3차원 모델을 선정한다.That is, the model selecting unit 124 analyzes coordinate values of pieces of images of each face element and, for example, the left and right lengths of the forehead and left and right jaws measured by the face information obtaining unit 123 from the corresponding coordinate values. 3D model stored in the memory 110 using the length, the length from the forehead to the chin, the left jaw line, the right jaw line, the width of the face passing through the eyes, the length from the face width to the left jaw line, and the length from the face width to the right jaw line Select the 3D model with the closest shape among them.

캐릭터 생성부(125)는 모델 선정부(124)에 의해 선정된 3차원 얼굴 모델에 얼굴 정보 획득부(123)에 의해 획득된 각 얼굴 요소들에 대한 좌표 위치와 같은 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성한다. 이때, 각 얼굴 요소들에 대한 색상 이미지들도 맵핑된다.The character generator 125 maps face shape information, such as coordinate positions, for each face element obtained by the face information acquirer 123 to a three-dimensional face model selected by the model selector 124. Create a dimension personal character. At this time, color images for each face element are also mapped.

좀더 상세하게 설명하면, 캐릭터 생성부(125)는 촬영 처리부(121)를 통해 촬영되어 저장된 2차원 얼굴 영상에서 얼굴의 중앙부분(눈, 코, 입을 포함하는 부분)을 잘라내고, 플래너 맵핑(planar mapping)방식에 따라, 잘라낸 부분을 모델 선정부(124)에 의해 선정된 3차원 얼굴 모델과 맵핑시킨다. 그리고 구로우 셰이딩(Gouraud shading)방식을 이용하여 맵핑된 3차원 얼굴의 곡면과 모서리 부분을 매끄럽게 다듬는다.In more detail, the character generator 125 cuts out the central portion (including the eyes, nose, and mouth) of the face from the two-dimensional face image photographed and stored by the photographing processor 121, and plans planar mapping. According to the mapping), the cut portion is mapped with the three-dimensional face model selected by the model selecting unit 124. The Gouraud shading method is used to smooth the curved surfaces and edges of the mapped 3D face.

이때, 캐릭터 생성부(125)는 모델 선정부(124)에 의해 선정된 3차원 얼굴 모델의 맵핑 정보를 이용하여 2차원 얼굴 영상을 맵핑시킨다. 3차원 얼굴 모델의 맵핑 정보는 선택된 3차원 얼굴 모델의 얼굴을 임의의 개수를 가지는 영역으로 구분하여 (예를 들어 64개의 영역) 각 영역의 법선 벡터에 대한 정보를 포함한다.In this case, the character generator 125 maps the 2D face image by using mapping information of the 3D face model selected by the model selector 124. The mapping information of the 3D face model includes information on the normal vector of each area by dividing the face of the selected 3D face model into an arbitrary number of regions (for example, 64 regions).

캐릭터 생성부(125)는 3차원 얼굴 모델의 맵핑 정보에 포함된 각 법선 벡터에 대하여 선형 보간을 통해 2차원 얼굴 영상과의 맵핑을 수행한다.The character generator 125 performs mapping with the 2D face image through linear interpolation on each normal vector included in the mapping information of the 3D face model.

표정 처리부(126)는 화면 표시 처리부(122)에 의한 위치 정합 작업에 의해 획득되어진 각 얼굴 요소에 대한 조각 이미지의 위치 좌표를 근거로 하여 미리 정해진 개수의 표정 제어점을 선정하고 그 선정된 표정 제어점의 변환처리를 통해 3차원 개인 캐릭터에 표정을 설정한다.The facial expression processor 126 selects a predetermined number of facial expression control points based on the position coordinates of the pieces of images for each facial element obtained by the position matching operation by the screen display processor 122, and selects the facial expression control points. The conversion process sets the expression for the three-dimensional personal character.

다운로드 처리부(127)는 네트워크를 통해 임의의 서버로부터 획득된 얼굴 형태 정보를 맵핑하는데 사용될 적어도 하나 이상의 3차원 얼굴 모델 정보를 다운로드받아 메모리(110)에 저장한다.The download processor 127 downloads and stores at least one or more three-dimensional face model information to be used to map the face shape information obtained from an arbitrary server through a network and stores it in the memory 110.

RF부(130)는 제어부(120)에 의해 제어된다. RF부(130)는 주파수 대역의 무선 채널로 수신되는 주파수의 신호를 안테나(ANT)를 통해 수신되면, 이를 대역 하강 변환하고 데이터의 종류를 구별하여 제어부(120)로 출력하거나 또는 음성 처리부(140)로 출력한다.The RF unit 130 is controlled by the controller 120. When the RF unit 130 receives a signal of a frequency received through a radio channel of a frequency band through the antenna ANT, it converts the band down and distinguishes the type of data and outputs it to the control unit 120 or the voice processing unit 140. )

RF부(130)에서 제어부(120)로 출력되는 데이터는 문자 데이터 또는 페이징 채널을 통해 수신되는 페이징 신호 및 시그널링 신호들이 된다. 그리고 음성 처리부(140)로 출력되는 데이터는 음성 호가 설정된 경우에 수신되는 음성 데이터가 된다.Data output from the RF unit 130 to the control unit 120 becomes paging signals and signaling signals received through text data or a paging channel. The data output to the voice processor 140 becomes voice data received when a voice call is set.

또한 RF부(130)는 제어부(120)로부터 수신되는 데이터 또는 음성 처리부(140)로부터 수신되는 코드화된 음성 데이터를 송신하기 위해 대역 상승 변환하여 안테나(ANT)를 통해 주파수 대역의 무선 신호로 변환하여 출력한다.In addition, the RF unit 130 performs band-up conversion to transmit the data received from the control unit 120 or the coded voice data received from the voice processing unit 140, and converts the signal into a radio signal of a frequency band through the antenna ANT. Output

음성 처리부(140)는 일반적으로 보코더(VOCODER) 등으로 구성되며, 제어부(120)의 제어에 의해 구동된다. 음성 처리부(140)는 마이크로폰(MIC)(160)에 의해 입력된 전기 신호를 변조하여 음성 데이터로 변환하고, RF부(130)로 출력한다. 또한, 음성 처리부(140)는 RF부(130)로부터 입력된 부호화된 음성 데이터를 전기 신호로 복조하여 스피커(SPK)(150)로 출력하고, 스피커(SPK)(150)는 이를 가청음으로 변환하여 출력한다.The speech processing unit 140 is generally composed of a VOCODER, etc., and is driven by the control of the controller 120. The voice processor 140 modulates the electrical signal input by the microphone (MIC) 160 to convert the voice signal into voice data and outputs the voice signal to the RF unit 130. In addition, the speech processing unit 140 demodulates the encoded speech data input from the RF unit 130 into an electrical signal and outputs the result to the speaker (SPK) 150, and the speaker (SPK) 150 converts it into an audible sound. Output

키입력부(170)는 일반적으로 키 매트릭스 구조로 구성이 된다. 키입력부(170)는 다수의 숫자 키와 방향키와 각종 기능을 수행하기 위한 기능키로 이루어지며, 사용자의 키 입력에 의해 키 데이터의 전기적인 신호를 제어부(120)로 출력한다.The key input unit 170 generally has a key matrix structure. The key input unit 170 includes a plurality of numeric keys, direction keys, and function keys for performing various functions, and outputs an electrical signal of key data to the controller 120 by a user's key input.

표시부(180)는 단말기 현재의 상태를 표시하거나 프로그램의 진행 상황 변화를 표시한다. 또한 수신 단문 메시지 등을 표시한다. 이런 표시 장치는 액정 표시 장치(Liquid Crystal Display : LCD)등과 같은 표시 장치로 구성할 수 있다.The display unit 180 displays the current state of the terminal or changes in the progress of the program. It also displays incoming short messages. Such a display device may be configured as a display device such as a liquid crystal display (LCD).

카메라(190)는 고체 촬상 소자(CCD) 또는 CMOS 이미지 센서(CIS)와 같은 반도체 이미지 센서, 연성회로기판(FPCB), 카메라용 렌즈, 적어도 하나 이상의 플래시 등과 같은 디지털 카메라의 부품을 구비하여, 제어부(120)의 제어 신호에 따라 외부의 대상을 촬영하여 영상 데이터를 획득하는 동작을 수행한다.The camera 190 includes a semiconductor image sensor such as a solid state imaging device (CCD) or a CMOS image sensor (CIS), a component of a digital camera such as a flexible printed circuit board (FPCB), a lens for a camera, at least one flash, and the like, and includes a control unit. An external object is photographed according to the control signal of 120 to acquire image data.

도 4는 도 1에서 표정 처리부의 상세 구성 블록도이다.4 is a detailed block diagram of the facial expression processor of FIG. 1.

도 4를 참조하면 표정 처리부(126)는 표정 제어점 선정부(126a)와, 표정 선택 처리부(126b)와, 산출부(126c)와, 표정 생성부(126d)를 포함하여 구성된다.Referring to FIG. 4, the expression processing unit 126 includes an expression control point selecting unit 126a, an expression selection processing unit 126b, a calculating unit 126c, and an expression generating unit 126d.

표정 제어점 선정부(126a)는 얼굴 정보 획득부(123)에 의해 획득된 얼굴 형태 정보에 의거하여 촬영 처리부(121)에 의해 촬영되어 저장된 획득된 얼굴 형태 정보로부터 표정 제어점을 선정한다.The facial expression control point selecting unit 126a selects the facial expression control point from the acquired facial shape information photographed and stored by the photographing processor 121 based on the facial shape information acquired by the facial information obtaining unit 123.

여기서 표정 제어점은 표정 제어점의 벡터 변환을 통해 임의의 표정을 생성하기 위해 얼굴 영상에서 선정되는 적어도 하나 이상의 벡터 좌표이다. 표정 제어점은 얼굴의 표정을 변화를 위해 표정을 생성하기 위한 얼굴 각 요소에 해당하여 선정된 각 끝점의 변화점을 의미한다.Here, the expression control point is at least one vector coordinate selected from the face image to generate an arbitrary expression through vector transformation of the expression control point. The expression control point refers to a change point of each end point selected corresponding to each element of the face for generating an expression for changing the expression of the face.

따라서, 표정 제어점에 대응하여 표정 제어점의 변화를 줄 수 있는 근육 벡터가 지정된다. 근육 벡터는 표정 제어점을 변화시킬 수 있는 벡터를 의미한다.Therefore, a muscle vector that can change the facial expression control point is designated corresponding to the facial expression control point. The muscle vector refers to a vector capable of changing the facial expression control point.

각종 표정의 생성은 기능별로 지정된 종류의 근육벡터 위치를 변화시킴으로 써 가능해진다.The generation of various expressions is made possible by changing the position of the muscle vector of the specified type for each function.

예를 들어 행복한 표정, 슬픈 표정, 분노, 허무, 냉소, 놀람 등의 사람들이 가질 수 있는 표정의 대표되는 표정의 근육 벡터들이 지정되어 사용될 수 있다.For example, muscle vectors of representative facial expressions of facial expressions such as happy facial expressions, sad facial expressions, anger, vanity, cynicism, and surprise may be specified and used.

표정 제어점은 촬영 처리부(121)에 의해 촬영되어 메모리(110)에 저장된 영상에 대하여 화면 표시 처리부(122)에 의한 위치 정합용 화면을 통해 각 얼굴의 요소에 대한 조각 이미지들이 배치되어 정렬된 상태에서 얼굴 정보 획득부(123)에 의해서 측정된 각 얼굴 요소의 좌표 위치를 반영하여 개인의 얼굴 특성을 반영하여 선정되어 진다.The facial expression control point is photographed by the photographing processor 121 and the pieces of images of the elements of each face are arranged and aligned through the screen for the position matching by the screen display processor 122 with respect to the image stored in the memory 110. The face information acquisition unit 123 is selected to reflect the face characteristics of the individual by reflecting the coordinate position of each face element.

즉, 도 5에 도시된 바와 같이 눈썹(1), 눈(2), 코등(3), 코밑(4), 입(5), 턱(6)과 같은 각 얼굴 요소의 중앙위치를 기준으로 도 6에 도시된 바와 같이 설정된 근육 벡터를 사용할 수 있다. 이때, 근육 벡터는 6개의 제어 위치에서 중앙점을 기준으로 임의의 표정을 생성하기 위한 위치와 방향, 크기를 갖도록 지정된다.That is, as shown in FIG. 5, the eyebrow 1, the eye 2, the nose 3, the nose 4, the mouth 5, and the center of each face element, such as the jaw 6, may be referred to as a reference. Muscle vectors set as shown in 6 can be used. At this time, the muscle vector is designated to have a position, a direction, and a size for generating an arbitrary facial expression based on the center point at six control positions.

이에 따라, 눈썹(1) 부위에 대하여는 3개의 위치에 상방향을 가지는 근육 벡터(a)가 지정되어 있어서, 해당 근육 벡터의 크기를 조절하면 이마를 넓어지게 하거나 좁아지게 하는 표정 변화를 연출할 수 있다.Accordingly, the muscle vector (a) having an upward direction is designated to three positions of the eyebrow (1), and by adjusting the size of the muscle vector, it is possible to produce a facial expression change to widen or narrow the forehead. .

또한, 오른쪽 눈에 대하여는 상방향과, 얼굴 바깥쪽으로 비스듬한 방향을 가지는 근육벡터(b1)가 지정되어 있으며, 왼쪽 눈에 대하여는 상방향과, 얼굴 바깥쪽으로 비스듬한 방향을 가지는 근육벡터(b2)가 지정되어 있다.Further, a muscle vector b1 having an upward direction and an oblique direction toward the outside of the face is designated for the right eye, and a muscle vector b2 having an upward direction and an oblique direction toward the outside of the face is specified for the left eye. have.

또한, 좌우 볼부위에 대하여 상방향과 얼굴 바깥쪽으로 비스듬한 방향을 가지는 근육벡터(c1, c2)가 지정되어 있으며, 코 부위에 대하여는 얼굴 바깥쪽 방향 을 가지는 근육벡터(d1, d2)가 지정되어 있다.In addition, muscle vectors c1 and c2 having upward and oblique directions toward the outside of the face are designated for the left and right cheeks, and muscle vectors d1 and d2 having the outward direction of the face are specified for the nose. .

입술 부위에 대하여는 좌우가 대칭적으로 얼굴 바깥쪽 방향, 상향으로 치켜 올려진 방향, 하방향의 세 가지 방향을 가지는 근육 벡터(e1, e2)가 지정되어 있으며, 턱 부위에 대하여는 상방향을 가지는 근육벡터(f)가 지정되어 있다.For the lip region, muscle vectors (e1, e2) having three directions, symmetrically outward, upward, and downward, are designated. Vector f is specified.

표정 선택 처리부(126b)는 3차원 개인 캐릭터에 설정할 표정의 종류를 선택한다. 표정 선택 처리부(126b)에 의해 선택되는 표정의 종류는 각 표정 생성을 위해 기능별로 지정된 종류의 근육벡터 위치를 변화에 의해 생성이 가능한 표정의 모든 종류가 포함된다.The expression selection processing unit 126b selects the type of expression to be set for the three-dimensional personal character. The types of facial expressions selected by the facial expression selection processing unit 126b include all kinds of facial expressions that can be generated by changing the positions of the muscle vectors of the kinds designated for each function for generating each facial expression.

예를 들어 행복한 표정, 슬픈 표정, 분노, 허무, 냉소, 놀람 등의 사람들이 가질 수 있는 표정들이 포함될 수 있다. For example, it can include facial expressions that people can have, such as happy expressions, sad expressions, anger, vanity, cynicism, and surprise.

표정 선택 처리부(126b)에 의해 임의의 표정이 선택되면 해당 표정을 생성하기 위한 근육 벡터들에 의한 표정 변화를 수행하기 위해 지정된 모션 벡터가 읽여져서 표정이 생성되는 것이다.When a certain facial expression is selected by the facial expression selection processor 126b, a facial expression is generated by reading a designated motion vector to perform facial expression change by muscle vectors for generating the facial expression.

산출부(126c)는 표정 선택 처리부(125b)에 의해 선택된 종류의 표정을 설정하기 위한 표정 제어점의 변환값을 산출한다.The calculating part 126c calculates the conversion value of the facial expression control point for setting the facial expression of the kind selected by the facial expression selection processing part 125b.

벡터는 일반적으로 크기와 방향을 갖는다. 따라서 모션 벡터를 목표 모델에 맞게 바꿔주기 위해서는 크기와 방향을 달리해 주어야만 한다.Vectors generally have size and direction. Therefore, to change the motion vector to match the target model, the size and direction must be changed.

산출부(126c)는 모델 선정부(124)에 의해 선정된 3 차원 얼굴 모델의 법선 벡터와 기능별 근육 벡터들의 법선 벡터의 연산을 통해 각 표정에 해당하는 모션 벡터의 크기와 방향을 산출하여 3차원 개인 캐릭터에 표정을 설정할 수 있다.The calculating unit 126c calculates the size and direction of the motion vector corresponding to each expression by calculating the normal vector of the three-dimensional face model selected by the model selecting unit 124 and the normal vector of the muscle vectors for each function. You can set facial expressions for individual characters.

여기에서 모션 벡터는 표정 변화 전의 벡터에서 표정 변화 후의 최종 벡터까지의 표점 제어점의 변환을 나타내는 벡터이다.Here, the motion vector is a vector representing the transformation of the control point of the gauge from the vector before the facial expression change to the final vector after the facial expression change.

표정 생성부(126d)는 3차원 개인 캐릭터에 산출된 표정 제어점의 변환값을 적용하여 표정을 생성한다.The facial expression generator 126d generates the facial expression by applying the converted value of the facial expression control point calculated to the three-dimensional personal character.

표정 생성부(126d)는 3차원 개인 캐릭터에 설정될 표정의 종류는 다음과 같이 설정된 각 얼굴 요소에 대한 표정 벡터의 크기와 방향을 선택함으로써 여러 표정을 생성할 수 있다.The facial expression generator 126d may generate various facial expressions by selecting the size and direction of the facial expression vector for each facial element set as the type of facial expression to be set for the 3D personal character.

즉, a로 설정된 눈썹의 위치를 올리고 내리기, b로 설정된 b1과 b2의 왼쪽 오른쪽 눈의 올리기, c로 설정된 윗 볼의 왼쪽 오른쪽 올리고 내리기, 옆으로 벌리기 좁히기의 벡터크기와 방향으로 볼의 표정을 만들 수 있다. That is, the expression of the ball in the vector size and direction of raising and lowering the position of the eyebrow set to a, raising the left and right eyes of b1 and b2 set to b, raising and lowering the left and right right of the upper ball set to c, and narrowing the spread apart. I can make it.

또한, d로 설정된 코의 경우 코를 넓히기, 좁히기 등을 각기 오른쪽 왼쪽에 설정된 제어점으로 조정할 수 있다. In addition, in the case of the nose set to d, the nose widening and narrowing may be adjusted to the control points set at the right and left sides, respectively.

또한 e1, e2로 설정된 입의 경우 좌우로 넓히기, 상하로 벌리기를 설정된 벡터의 크기와 방향에 따라 선택될 수 있다.In addition, the mouth set to e1, e2 may be selected according to the size and direction of spreading the left and right, spreading up and down the set vector.

도 7은 도 1에 도시된 본 발명의 일실시예에 따른 이동 통신 단말기에서 3차원 개인 캐릭터를 생성하고 표정을 생성하는 동작 흐름도이다.FIG. 7 is a flowchart illustrating an operation of generating a 3D personal character and generating an expression in the mobile communication terminal according to an embodiment of the present invention shown in FIG. 1.

도 7을 참조하면, 다운로드 수행부(126)는 네트워크를 통해 임의의 서버에 접속하여 해당 서버로부터 3차원 얼굴 모델링을 수행하는데 사용되는 3차원 얼굴 모델 정보를 다운로드받아 메모리(110)에 저장한다(S1).Referring to FIG. 7, the download execution unit 126 downloads 3D face model information used to perform 3D face modeling from a corresponding server through a network, and stores the 3D face model information in the memory 110 ( S1).

메모리(110)에 3차원 얼굴 모델 정보가 저장된 상태에서 촬영 처리부(121)는 사용자에 의해 3차원 개인 캐릭터 생성 메뉴가 실행되면 카메라(190)를 구동하여 촬영모드를 실행한다(S2).In the state where the 3D face model information is stored in the memory 110, when the 3D personal character generation menu is executed by the user, the photographing processor 121 drives the camera 190 to execute the photographing mode (S2).

촬영 처리부(121)에 의해 촬영 모드가 실행되면 화면 표시 처리부(126)는 표시부(180)에 카메라(190)를 통해 입력되는 촬영 대상의 얼굴 영상과, 촬영할 사람 얼굴을 조준하기 위한 가이드 라인 화면을 얼굴 영상위에 오버레이하여 표시한다(S3). When the capturing mode is executed by the capturing processor 121, the screen display processor 126 may display the face image of the photographing target input through the camera 190 on the display 180 and a guide line screen for aiming the face of the person to be photographed. The image is overlaid on the face image (S3).

이에 따라 표시부(180)에는 눈썹, 눈, 코, 입의 영역들을 나타내는 가이드 라인이 표시된 상태에서 카메라(190)를 통해 입력되는 얼굴 영상이 표시되어 진다.Accordingly, the display unit 180 displays a face image input through the camera 190 in a state in which guide lines indicating the areas of the eyebrows, eyes, nose, and mouth are displayed.

이에 따라, 사용자는 이동 통신 단말기의 위치를 조절하여 표시부(180)에 표시된 얼굴의 각 부분에 대한 가이드 라인에 촬영 대상의 해당 부분이 매칭되도록 촬영 대상에 대한 조준(Focusing)을 수행한다.Accordingly, the user adjusts the position of the mobile communication terminal to perform focusing on the photographing target so that the corresponding portion of the photographing target matches the guide line for each part of the face displayed on the display unit 180.

촬영 대상의 얼굴이 조준된 상태에서 촬영을 명령하는 키입력부(170)의 조작이 이루어지면 촬영 처리부(121)는 표시부(180)에 표시된 영상을 2차원 얼굴 영상으로 메모리(110)에 저장한다(S4).When the manipulation of the key input unit 170 for commanding photographing while the face of the subject to be photographed is performed, the photographing processing unit 121 stores the image displayed on the display unit 180 as a 2D face image in the memory 110 ( S4).

화면 표시 처리부(122)는 촬영 처리부(121)에 의해 촬영된 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하는데 필요한 위치 정합을 위해 표시부(190)에 2차원 얼굴 영상과 함께 각 얼굴 요소의 조각 이미지로 이루어진 위치 정합용 화면을 표시부(180)에 표시한다(S5).The screen display processing unit 122 is a fragment image of each face element along with the 2D face image on the display unit 190 for the position registration necessary to obtain the face shape information from the 2D face image photographed by the photographing processing unit 121. The made position matching screen is displayed on the display unit 180 (S5).

화면 표시 처리부(122)에 의해 위치 정합용 화면이 표시부(180)에 표시되면 사용자는 키입력부(170)를 이용하여, 각 얼굴 요소의 조각 이미지들이 2차원 얼굴 영상의 얼굴 윤곽과 일치되도록 재배치시킨다. 예를 들면, 키입력부(170)의 숫자키나 방향키를 눌러서 조정하고자 하는 얼굴 요소의 조각 이미지를 선택하고, 키입력부(170)의 숫자키 또는 방향키를 눌러서 선택된 조각 이미지를 원하는 지점으로 이동시킨다.When the screen for processing the position registration is displayed on the display unit 180 by the screen display processing unit 122, the user uses the key input unit 170 to rearrange the fragment images of each face element to match the face contour of the 2D face image. . For example, a fragment image of a face element to be adjusted is selected by pressing a numeric key or a direction key of the key input unit 170, and the selected fragment image is moved to a desired point by pressing a numeric key or a direction key of the key input unit 170.

얼굴 정보 획득부(123)는 위치 정합 작업이 완료된 상태에서 키입력부(170)를 통해 사용자의 확인 신호가 입력되면 2차원 얼굴 영상의 얼굴 형태 정보를 메모리(110)에 저장한다(S6).When the user's confirmation signal is input through the key input unit 170 while the position matching operation is completed, the face information obtaining unit 123 stores face shape information of the 2D face image in the memory 110 (S6).

얼굴 정보 획득부(123)에 의해 얼굴 형태 정보가 획득되어 메모리(110)에 저장되면 모델 선정부(124)는 메모리(110)에 저장되어 있는 3차원 얼굴 모델들 중에서 얼굴 정보 획득부(123)에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정한다(S7).When face shape information is acquired by the face information acquirer 123 and stored in the memory 110, the model selector 124 may use the face information acquirer 123 among three-dimensional face models stored in the memory 110. A three-dimensional face model close to the face shape information obtained by the step S9 is selected.

모델 선정부(124)에 의해 3차원 얼굴 모델이 선정되면, 캐릭터 생성부(125)는 모델 선정부(124)에 의해 선정된 3차원 얼굴 모델에 얼굴 정보 획득부(123)에 의해 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성한다(S8).When the 3D face model is selected by the model selector 124, the character generator 125 acquires the face obtained by the face information acquirer 123 on the 3D face model selected by the model selector 124. The shape information is mapped to generate a three-dimensional personal character (S8).

캐릭터 생성부(125)에 의해 3차원 개인 캐릭터가 생성되면 표정 처리부(126)의 표정 제어점 선정부(126a)는 표정 제어점을 선정한다(S9).When the three-dimensional personal character is generated by the character generator 125, the facial expression control point selector 126a of the facial expression processor 126 selects the facial expression control point (S9).

표정 선택 처리부(126b)는 3차원 개인 캐릭터에 설정할 표정의 종류를 선택한다(S10).The expression selection processing unit 126b selects the type of expression to be set for the three-dimensional personal character (S10).

산출부(126c)는 모델 선정부(124)에 의해 선정된 3 차원 얼굴 모델의 법선 벡터와 표정 선택 처리부(125b)에 의해 선택된 종류의 표정을 설정하기 위해 지정 된 종류의 근육 벡터들의 법선 벡터의 연산을 통해 해당 표정에 해당하는 근육벡터에 대한 모션 벡터의 크기와 방향을 산출하여 표정 제어점의 변환값을 산출하여 메모리(110)에 저장한다(S11).The calculating unit 126c is configured to determine the normal vector of the three-dimensional face model selected by the model selecting unit 124 and the normal vector of the muscle vectors of the specified type to set the expression of the type selected by the facial expression selection processing unit 125b. By calculating the size and direction of the motion vector for the muscle vector corresponding to the facial expression through the calculation to calculate the transformed value of the facial expression control point (S11).

표정 선택 처리부(126b)는 설정할 표정이 더 있는지 판단하여(S12) 더 있는 경우 산출부(126c)는 각각의 표정에 대하여 표정 제어점의 변환값을 산출하여 메모리(110)에 저장하도록 한다.The facial expression selection processing unit 126b determines whether there are more facial expressions to be set (S12), and if there are more facial expressions, the calculation unit 126c calculates a converted value of the facial expression control point for each facial expression and stores them in the memory 110.

도 8은 도 1에 도시된 본 발명의 일실시예에 따른 이동 통신 단말기에서 3차원 개인 캐릭터에 표정을 생성하여 표시하는 동작 흐름도이다.FIG. 8 is a flowchart illustrating an operation of generating and displaying an expression on a 3D personal character in a mobile communication terminal according to an embodiment of the present invention shown in FIG. 1.

도 8을 참조하면 표정 선택 처리부(126b)는 이동 통신 단말기에서 제공하는 3차원 캐릭터 서비스를 수행함에 따라 화면에 표시할 3차원 개인 캐릭터에 대하여 설정할 표정의 종류를 선택한다(S21).Referring to FIG. 8, the facial expression selection processor 126b selects a type of facial expression to be set for the 3D personal character to be displayed on the screen as the 3D character service provided by the mobile communication terminal is performed (S21).

표정 선택 처리부(126b)에 의해 표정이 선택되면 표정 생성부(126d)는 선택된 종류의 표정에 해당하는 표정 제어점의 변환값을 메모리(110)에서 읽어들여(S22) 3차원 개인 캐릭터에 적용하여 지정된 종류의 근육벡터 위치를 변화시켜서 해당 표정을 생성한다(S23).When the facial expression is selected by the facial expression selection processor 126b, the facial expression generator 126d reads the converted value of the facial expression control point corresponding to the selected facial expression from the memory 110 (S22) and applies it to the three-dimensional personal character. The expression is generated by changing the position of the muscle vector of the type (S23).

화면 표시 처리부(122)는 표정 생성부(126d)에 의해 생성된 표정을 가지는 3차원 개인 캐릭터를 표시부(180)의 화면에 표시한다(S24).The screen display processing unit 122 displays the three-dimensional personal character having the facial expression generated by the facial expression generating unit 126d on the screen of the display unit 180 (S24).

본 발명은 바람직한 실시예를 참조하여 설명되었다. 그렇지만, 구체적으로 설명된 것과는 다른 많은 기타 실시예들이 또한 본 발명의 사상 및 범위 내에 들어간다는 것을 관련 분야의 당업자들은 이해할 것이다.The present invention has been described with reference to preferred embodiments. However, those skilled in the art will understand that many other embodiments other than those specifically described also fall within the spirit and scope of the invention.

예를 들어 도면에 도시되어 있지는 않지만 본 발명의 다른 실시예에 따른 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기는 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 저장하는 메모리와, 임의의 서비스 메뉴에 대한 실행이 요청되면 표정 제어점의 변환을 통해 해당 서비스 메뉴에 상응하는 종류의 표정을 메모리에 저장되어 있는 3차원 캐릭터에 설정하여 화면에 표시하는 제어부를 포함할 수 있다.For example, although not shown in the drawings, a mobile communication terminal equipped with a 3D personal character facial expression display function according to another embodiment of the present invention includes a memory for storing a 3D personal character to be displayed when the service menu is executed, and When the execution of the service menu is requested, the control unit may include a control unit for setting a three-dimensional character stored in the memory on the screen by setting the expression corresponding to the service menu through the transformation of the expression control point.

여기에서 제어부는 설정부와, 판단부와, 표정 처리부와, 화면 표시 처리부를 포함하도록 구성될 수 있다.The control unit may be configured to include a setting unit, a determination unit, an expression processing unit, and a screen display processing unit.

설정부는 서비스 메뉴별로 3차원 개인 캐릭터에 지정할 표정의 종류를 설정한다. The setting unit sets the type of expression to be assigned to the 3D personal character for each service menu.

여기에서 서비스 메뉴는, 이동 통신 단말기에서 제공되거나 제공될 수 있는 각종 서비스의 메뉴로서 예를 들면 사진 합성 서비스 메뉴, 전화번호부 서비스 메뉴, 화상 통화 서비스 메뉴, 소리 설정 서비스 메뉴, 색상 설정 서비스 메뉴, 이모티콘 서비스 메뉴, 고객 관리 서비스 메뉴들이 포함될 수 있다.Here, the service menu is a menu of various services that may be provided or provided in the mobile communication terminal, for example, a photo collage service menu, a phone book service menu, a video call service menu, a sound setting service menu, a color setting service menu, and an emoticon. Service menus, customer care service menus may be included.

판단부는 임의의 서비스 메뉴에 대한 실행이 요청되면 해당 서비스 메뉴에 상응하여 3차원 캐릭터에 설정할 표정의 종류를 판단한다. The determination unit determines the type of expression to be set for the 3D character according to the service menu when an execution of an arbitrary service menu is requested.

여기에서 표정의 종류는 본 발명의 일실시예에서 설명되었던 바와 같이 각 표정 생성을 위해 기능별로 지정된 종류의 근육벡터 위치를 변화에 의해 생성이 가능한 표정의 모든 종류가 포함된다.Here, the types of facial expressions include all kinds of facial expressions that can be generated by changing a position of a muscle vector of a type designated for each function for generating each facial expression as described in one embodiment of the present invention.

예를 들어 행복한 표정, 슬픈 표정, 분노, 허무, 냉소, 놀람 등의 사람들이 가질 수 있는 표정들이 포함될 수 있다.For example, it can include facial expressions that people can have, such as happy expressions, sad expressions, anger, vanity, cynicism, and surprise.

표정 처리부는 표정 제어점의 변환을 통해 3차원 개인 캐릭터에 판단된 종류의 표정을 설정한다. 표정 제어점의 변환을 통해 표정을 생성하는 것은 본 발명의 일실시예에서 충분히 설명되었다.The facial expression processor sets the facial expression of the type judged on the 3D personal character through the transformation of the facial expression control point. Generating the facial expression through the transformation of the facial expression control point has been described fully in one embodiment of the present invention.

화면 표시 처리부는 표정 처리부에 의해 설정된 표정을 가지는 제 3 차원 개인 캐릭터를 화면에 표시한다.The screen display processing unit displays the 3D personal character having the facial expression set by the expression processing unit on the screen.

제어부는 설정부와, 판단부와, 표정 처리부와, 화면 표시 처리부외에도 얼굴 정보 획득부와, 모델 선정부와, 캐릭터 생성부를 더 포함할 수 있다.The control unit may further include a face information acquisition unit, a model selection unit, and a character generation unit in addition to the setting unit, the determination unit, the expression processing unit, the screen display processing unit.

얼굴 정보 획득부는 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하며 본 발명의 일실시예에서 충분히 설명되었다.The face information acquisition unit acquires face shape information from a 2D face image and has been described fully in an embodiment of the present invention.

모델 선정부는 얼굴 정보 획득부에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하며 본 발명의 일실시예에서 충분히 설명되었다.The model selecting unit selects a 3D face model that is close to the face shape information obtained by the face information obtaining unit, and has been described in detail in one embodiment of the present invention.

캐릭터 생성부는 모델 설정부에 의해 선정된 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 생성하며 본 발명의 일실시예에서 충분히 설명되었다.The character generator generates a three-dimensional personal character to be displayed when the service menu is executed by mapping the face shape information acquired to the three-dimensional face model selected by the model setting unit, which has been fully described in an embodiment of the present invention.

이와 같이 구성된 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기는 3차원 개인 캐릭터 표정 표시 방법을 수행하기 위해 서비스 메뉴별로 3차원 개인 캐릭터에 지정할 표정의 종류를 설정하는 제 1 단계를 수행한다.The mobile communication terminal equipped with the 3D personal character expression display function configured as described above performs a first step of setting the type of expression to be assigned to the 3D personal character for each service menu in order to perform the 3D personal character expression display method.

제 1 단계가 실행된 상태에서 임의의 서비스 메뉴에 대한 실행이 요청되면 해당 서비스 메뉴에 상응하여 3차원 캐릭터에 설정할 표정의 종류를 판단하는 제 2 단계를 수행한다.When the execution of any service menu is requested while the first step is executed, the second step of determining the type of expression to be set for the 3D character according to the corresponding service menu is performed.

제 2 단계에 의해 설정할 표정의 종류가 판단되면 표정 제어점의 변환을 통해 3차원 개인 캐릭터에 판단된 종류의 표정을 설정하여 화면에 표시하는 제 3 단계를 수행한다.When the type of the facial expression to be set is determined by the second step, the third step of setting the facial expression of the determined type to the 3D personal character through the transformation of the facial expression control point is performed.

이때, 제 1 단계를 수행하기 전에 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 단계와, 선정된 3차원 얼굴 모델에 상기 획득된 얼굴 형태 정보를 맵핑하여 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 생성하는 단계를 더 포함하여 수행할 수 있다.In this case, before performing the first step, acquiring face shape information from the two-dimensional face image and selecting a three-dimensional face model close to the acquired face shape information, and obtaining the acquired face shape information on the selected three-dimensional face model. Mapping to generate a 3D personal character to be displayed when the service menu is executed.

여기에서, 표정 제어점은 상기 표정 제어점의 벡터 변환을 통해 임의의 표정을 생성하기 위해 상기 얼굴 형태 정보로부터 선정되는 적어도 하나 이상의 벡터 좌표로서, 본 발명의 일실시예에서 충분히 설명되었다.Here, the facial expression control point is at least one or more vector coordinates selected from the facial shape information to generate an arbitrary facial expression through the vector transformation of the facial expression control point, which has been fully described in an embodiment of the present invention.

상술한 바와 같이 본 발명의 다른 실시예에 따른 이동 통신 단말기에서는 이동 통신 단말기에서 제공되는 각종 사진 합성 서비스 메뉴, 전화번호부 서비스 메뉴, 화상 통화 서비스 메뉴, 소리 설정 서비스 메뉴, 색상 설정 서비스 메뉴, 이모티콘 서비스 메뉴, 고객 관리 서비스 메뉴를 실행할 때 사용자에게 친숙한 3차원 개인 캐릭터들이 연동되어 표시됨으로써 사용자는 좀더 흥미롭게 서비스를 수행할 수 있다.As described above, in the mobile communication terminal according to another embodiment of the present invention, various photo collage service menus, phone book service menus, video call service menus, sound setting service menus, color setting service menus, and emoticon services provided by the mobile communication terminals are provided. When the menu and the customer care service menu are executed, the user-friendly 3D personal characters are displayed in conjunction with each other, so that the user can perform the service more interestingly.

본 발명에 의하면, 이동 통신 단말기에서 개인 캐릭터를 생성함에 있어서 대상을 직접 촬영하여 촬영 영상으로부터 얼굴 형태 정보를 획득하고 그 획득된 얼굴 형태 정보로부터 획득된 얼굴 정보에 근접한 3차원 얼굴 모델을 선정하여 그 선정된 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하고, 획득된 얼굴 형태 정보에서 표정 제어점을 선정하여 그 선정된 표정 제어점을 제어하여 3차원 개인 캐릭터의 표정을 다양하게 변경할 수 있다.According to the present invention, in generating a personal character in a mobile communication terminal, directly photographing an object to obtain face shape information from a captured image, and selecting a three-dimensional face model close to the face information obtained from the acquired face shape information. The 3D personal character is generated by mapping the acquired face shape information to the selected face model, selecting an expression control point from the acquired face shape information, and controlling the selected expression control point to variously change the expression of the 3D personal character. Can be.

이에 따라 2차원 얼굴 영상으로부터 개인의 특징이 잘 반영된 3차원 개인 캐릭터를 효과적으로 생성할 수 있고, 생성된 하나의 3차원 개인 캐릭터에 다양한 표정을 손쉽게 설정할 수 있음으로써 이동 통신 단말기 사용자에게 다양한 재미를 제공할 수 있다.Accordingly, it is possible to effectively generate a three-dimensional personal character that reflects personal characteristics well from the two-dimensional face image, and various expressions can be easily set to one generated three-dimensional personal character, thereby providing a variety of fun to the mobile terminal user. can do.

아울러, 다양한 3차원 개인 캐릭터의 다양한 표정 변화를 이동 통신 단말기에서 표시되는 각종 서비스 메뉴에 적용함으로써 사용자에게 좀더 친근한 유저 인터페이스를 제공할 수 있다.In addition, by applying various expression changes of various three-dimensional personal characters to various service menus displayed on the mobile communication terminal, a user-friendly user interface can be provided.

Claims (22)

임의의 2차원 얼굴 영상으로부터 해당 얼굴의 각 요소에 대한 정보를 획득하기 위한 기준점을 미리 선정하기 위한 위치 정합용 화면을 상기 2차원 얼굴 영상위에 오버레이하여 표시하는 단계와,Overlaying and displaying a position matching screen on the two-dimensional face image to preselect a reference point for acquiring information on each element of the face from an arbitrary two-dimensional face image; 상기 위치 정합용 화면을 통해 상기 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 상기 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 단계와,Acquiring face shape information from the two-dimensional face image through the position matching screen and selecting a three-dimensional face model close to the acquired face shape information; 선정된 3차원 얼굴 모델에 상기 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하는 단계와,Generating a 3D personal character by mapping the acquired face shape information to a selected 3D face model; 상기 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하고 선정된 표정 제어점의 변환처리를 통해 상기 3차원 개인 캐릭터의 표정을 설정하여 화면에 표시하는 단계를 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법.Selecting a facial expression control point from the acquired face shape information and setting a facial expression of the three-dimensional personal character through a process of converting the selected facial expression point and displaying the expression on the screen; . 청구항 1에 있어서,The method according to claim 1, 상기 제 1 단계를 수행하기 전에 카메라를 통해 사람 얼굴을 촬영하여 상기 2차원 얼굴 영상을 생성하는 촬영 단계를 더 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법.And a photographing step of generating a two-dimensional face image by photographing a human face through a camera before performing the first step. 청구항 2에 있어서, 상기 촬영 단계는,The method of claim 2, wherein the photographing step, 촬영할 대상을 조준할 수 있게 하기 위해 얼굴의 가이드 라인을 보여주는 가이드 라인 화면을 카메라를 통해 입력된 촬영 대상의 영상 위에 오버레이하여 표시 하는 것을 특징으로 하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법.3. The method of displaying a 3D personal character expression of a mobile communication terminal, wherein a guide line screen showing a guide line of a face is overlaid on an image of a shooting target input through a camera so that the target to be photographed can be aimed at. 삭제delete 청구항 1에 있어서, 상기 위치 정합용 화면은,The method of claim 1, wherein the position registration screen, 얼굴의 각 부분에 상응하는 조각 이미지들이 얼굴 형태를 갖추어 이루어지며, 각각의 조각 이미지들은 키입력부의 조작에 의해 선택되어 이동가능한 것을 특징으로 하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법.Sculpture images corresponding to each part of the face has a face shape, each sculpture image is selected by the operation of the key input unit is movable, characterized in that the 3D personal character facial expression of the mobile terminal. 청구항 1에 있어서,The method according to claim 1, 상기 선정 단계를 수행하기 전에 네트워크를 통해 임의의 서버로부터 상기 획득된 얼굴 형태 정보를 맵핑하는데 사용될 적어도 하나 이상의 3차원 얼굴 모델 정보를 다운로드받아 저장하는 단계를 더 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법.Downloading and storing at least one or more three-dimensional face model information to be used to map the obtained face shape information from any server through the network before performing the selection step, the three-dimensional personal character of the mobile communication terminal How to show facial expressions. 청구항 1에 있어서, 상기 표정 설정 단계는,The method of claim 1, wherein the expression setting step, 상기 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하는 단계와,Selecting an expression control point from the obtained face shape information; 상기 3차원 개인 캐릭터에 설정할 표정의 종류를 선택하는 단계와,Selecting a kind of expression to be set to the 3D personal character; 상기 선택된 종류의 표정을 설정하기 위한 상기 표정 제어점의 변환값을 산출하는 단계와,Calculating a conversion value of the facial expression control point for setting the facial expression of the selected kind; 상기 3차원 개인 캐릭터에 상기 산출된 상기 표정 제어점의 변환값을 적용하여 화면에 표시하는 단계를 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법.3. The method of displaying a 3D personal character expression of a mobile communication terminal, comprising: applying the calculated value of the calculated control point to the 3D personal character and displaying the converted value on the screen. 획득된 얼굴 형태 정보를 맵핑할 적어도 하나 이상의 3차원 얼굴 모델 정보를 저장하는 메모리와,A memory for storing at least one piece of 3D face model information to map the acquired face shape information; 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하는 얼굴 정보 획득부와,A face information acquisition unit for acquiring face shape information from a two-dimensional face image; 상기 얼굴 정보 획득부에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 모델 선정부와,A model selecting unit which selects a three-dimensional face model proximate to the face shape information obtained by the face information obtaining unit; 선정된 3차원 얼굴 모델에 상기 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하는 캐릭터 생성부와,A character generator for generating a 3D personal character by mapping the acquired face shape information to a selected 3D face model; 상기 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하고 선정된 표정 제어점의 변환처리를 통해 상기 3차원 개인 캐릭터에 표정을 설정하는 표정 처리부와,An expression processing unit which selects an expression control point from the acquired face shape information and sets an expression on the 3D personal character through a conversion process of the selected expression control point; 표정 처리부에 의해 설정된 표정을 가지는 상기 제 3 차원 개인 캐릭터를 화면에 표시하는 화면 표시 처리부를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기.A mobile communication terminal provided with a three-dimensional personal character facial expression display function comprising a screen display processing unit for displaying on the screen the third-dimensional personal character having an expression set by the expression processing unit. 삭제delete 청구항 8에 있어서, 상기 표정 처리부는,The method according to claim 8, wherein the facial expression processing unit, 상기 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하는 표정 제어점 선정부와,An expression control point selecting unit which selects an expression control point from the obtained face shape information; 상기 3차원 개인 캐릭터에 설정할 표정의 종류를 선택하는 표정 선택 처리부와,An expression selection processing unit for selecting a type of expression to be set for the three-dimensional personal character; 상기 선택된 종류의 표정을 설정하기 위한 상기 표정 제어점의 변환값을 산출하는 산출부와,A calculation unit for calculating a conversion value of the facial expression control point for setting the facial expression of the selected kind; 상기 3차원 개인 캐릭터에 상기 산출된 상기 표정 제어점의 변환값을 적용하여 표정을 생성하는 표정 생성부를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기.And a facial expression generator for generating a facial expression by applying the calculated transform value of the facial expression control point to the three-dimensional personal character. 청구항 8에 있어서, The method according to claim 8, 카메라를 통해 사람 얼굴을 촬영하여 상기 2차원 얼굴 영상을 생성하는 촬영 처리부를 더 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기.3. The mobile communication terminal of claim 3, further comprising a photographing processor configured to photograph a human face through a camera to generate the two-dimensional face image. 청구항 8에 있어서, 상기 2차원 얼굴 영상은,The method of claim 8, wherein the two-dimensional face image, 상기 메모리에 저장되어 있거나 네트워크를 통해 다운로드 받은 사람 얼굴 데이터인 것을 특징으로 하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기.3. The mobile communication terminal having a 3D personal character expression display function, wherein the face data is stored in the memory or downloaded from a network. 청구항 8에 있어서,The method according to claim 8, 네트워크를 통해 임의의 서버로부터 상기 획득된 얼굴 형태 정보를 맵핑하는데 사용될 적어도 하나 이상의 3차원 얼굴 모델 정보를 다운로드받아 상기 메모리에 저장하는 다운로드 처리부를 더 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기.The mobile device includes a 3D personal character facial expression display function further comprising a download processor for downloading and storing at least one or more 3D face model information to be used for mapping the acquired face shape information from a server through a network in the memory. Communication terminal. 서비스 메뉴별로 3차원 개인 캐릭터에 지정할 표정의 종류를 설정하는 제 1 단계와,A first step of setting the type of expression to be assigned to the three-dimensional personal character for each service menu; 임의의 서비스 메뉴에 대한 실행이 요청되면 해당 서비스 메뉴에 상응하여 상기 3차원 캐릭터에 설정할 표정의 종류를 판단하는 제 2 단계와,A second step of determining a type of expression to be set for the 3D character according to the service menu when an execution of an arbitrary service menu is requested; 표정 제어점의 변환을 통해 상기 3차원 개인 캐릭터에 상기 판단된 종류의 표정을 설정하여 화면에 표시하는 제 3 단계를 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법.3. The method of displaying a 3D personal character facial expression of a mobile communication terminal, comprising the step of setting the determined type of expression on the 3D personal character through a transformation of an expression control point and displaying the expression on the screen. 청구항 14에 있어서, The method according to claim 14, 상기 제 1 단계를 수행하기 전에 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 상기 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 단계와,Acquiring face shape information from a two-dimensional face image and selecting a three-dimensional face model proximate to the acquired face shape information before performing the first step; 선정된 3차원 얼굴 모델에 상기 획득된 얼굴 형태 정보를 맵핑하여 상기 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 생성하는 단계를 더 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법.And mapping the acquired face shape information to a selected three-dimensional face model to generate a three-dimensional personal character to be displayed when the service menu is executed. 청구항 15에 있어서, 상기 표정 제어점은,The method of claim 15, wherein the facial expression control point, 상기 표정 제어점의 벡터 변환을 통해 임의의 표정을 생성하기 위해 상기 2차원 얼굴 영상으로부터 선정되는 적어도 하나 이상의 벡터 좌표인 것을 특징으로 하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법.And at least one or more vector coordinates selected from the two-dimensional face image to generate an arbitrary expression through vector transformation of the expression control point. 청구항 14에 있어서, 상기 서비스 메뉴는,The method of claim 14, wherein the service menu, 사진 합성 서비스 메뉴, 전화번호부 서비스 메뉴, 화상 통화 서비스 메뉴, 소리 설정 서비스 메뉴, 색상 설정 서비스 메뉴, 이모티콘 서비스 메뉴, 고객 관리 서비스 메뉴 중 적어도 하나의 서비스 메뉴를 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법.3D personal character of a mobile communication terminal including at least one service menu of a photo collage service menu, phone book service menu, video call service menu, sound setting service menu, color setting service menu, emoticon service menu, customer care service menu How to show facial expressions. 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 저장하는 메모리와,A memory for storing a three-dimensional personal character to be displayed when the service menu is executed; 임의의 서비스 메뉴에 대한 실행이 요청되면 표정 제어점의 변환을 통해 해 당 서비스 메뉴에 상응하는 종류의 표정을 상기 메모리에 저장되어 있는 상기 3차원 캐릭터에 설정하여 화면에 표시하는 제어부를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기.A three-dimensional control unit including a control unit for setting a three-dimensional character stored in the memory on the screen by setting a facial expression corresponding to the corresponding service menu when the execution of an arbitrary service menu is requested; A mobile communication terminal equipped with a personal character expression display function. 청구항 18에 있어서, 상기 제어부는,The method of claim 18, wherein the control unit, 서비스 메뉴별로 3차원 개인 캐릭터에 지정할 표정의 종류를 설정하는 설정부와,A setting unit for setting the type of expression to be assigned to the three-dimensional personal character for each service menu; 임의의 서비스 메뉴에 대한 실행이 요청되면 해당 서비스 메뉴에 상응하여 상기 3차원 캐릭터에 설정할 표정의 종류를 판단하는 판단부와,Determination unit for determining the type of expression to be set to the three-dimensional character corresponding to the service menu when the execution request for any service menu, 표정 제어점의 변환을 통해 상기 3차원 개인 캐릭터에 상기 판단된 종류의 표정을 설정하는 표정 처리부와,An expression processor configured to set the determined type of expression on the three-dimensional personal character by converting an expression control point; 표정 처리부에 의해 설정된 표정을 가지는 상기 제 3 차원 개인 캐릭터를 화면에 표시하는 화면 표시 처리부를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기.A mobile communication terminal provided with a three-dimensional personal character facial expression display function comprising a screen display processing unit for displaying on the screen the third-dimensional personal character having an expression set by the expression processing unit. 청구항 19에 있어서, 상기 제어부는,The method of claim 19, wherein the control unit, 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하는 얼굴 정보 획득부와,A face information acquisition unit for acquiring face shape information from a two-dimensional face image; 상기 얼굴 정보 획득부에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 모델 선정부와,A model selecting unit which selects a three-dimensional face model proximate to the face shape information obtained by the face information obtaining unit; 선정된 3차원 얼굴 모델에 상기 획득된 얼굴 형태 정보를 맵핑하여 상기 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 생성하는 캐릭터 생성부를 더 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기.Mobile communication with a three-dimensional personal character expression display function further comprises a character generator for generating a three-dimensional personal character to be displayed at the time of execution of the service menu by mapping the acquired face shape information to a selected three-dimensional face model terminal. 청구항 20에 있어서, 상기 표정 제어점은,The method of claim 20, wherein the facial expression control point, 상기 표정 제어점의 벡터 변환을 통해 임의의 표정을 생성하기 위해 상기 2차원 얼굴 영상으로부터 선정된 적어도 하나 이상의 벡터 좌표인 것을 특징으로 하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기.And at least one or more vector coordinates selected from the two-dimensional face image to generate an arbitrary expression through vector transformation of the facial expression control point. 청구항 18에 있어서, 상기 서비스 메뉴는,The method of claim 18, wherein the service menu, 사진 합성 서비스 메뉴, 전화번호부 서비스 메뉴, 화상 통화 서비스 메뉴, 소리 설정 서비스 메뉴, 색상 설정 서비스 메뉴, 이모티콘 서비스 메뉴, 고객 관리 서비스 메뉴 중 적어도 하나의 서비스 메뉴를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기.3D personal character expression display function including at least one service menu of photo collage service menu, phone book service menu, video call service menu, sound setting service menu, color setting service menu, emoticon service menu, customer care service menu. Mobile communication terminal provided.
KR1020060011619A 2006-02-07 2006-02-07 Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof KR100700872B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020060011619A KR100700872B1 (en) 2006-02-07 2006-02-07 Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060011619A KR100700872B1 (en) 2006-02-07 2006-02-07 Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof

Publications (1)

Publication Number Publication Date
KR100700872B1 true KR100700872B1 (en) 2007-03-29

Family

ID=41564986

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060011619A KR100700872B1 (en) 2006-02-07 2006-02-07 Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof

Country Status (1)

Country Link
KR (1) KR100700872B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110020131A (en) * 2009-08-21 2011-03-02 에스케이텔레콤 주식회사 System and method for delivering feeling during video call
WO2014178044A1 (en) 2013-04-29 2014-11-06 Ben Atar Shlomi Method and system for providing personal emoticons
WO2020036343A1 (en) * 2018-08-17 2020-02-20 Samsung Electronics Co., Ltd. Electronic device and control method thereof
KR102136311B1 (en) * 2020-01-03 2020-07-21 주식회사 젤리펀치 System for interactive information through smart mirror

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010003975A (en) * 1999-06-23 2001-01-15 강병무 Method for printing of character image which is converted from the facial image in sticker photo printing device
KR20030042403A (en) * 2001-11-22 2003-05-28 조윤석 Facial character manufacturing method by fitting facial edgeline

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20010003975A (en) * 1999-06-23 2001-01-15 강병무 Method for printing of character image which is converted from the facial image in sticker photo printing device
KR20030042403A (en) * 2001-11-22 2003-05-28 조윤석 Facial character manufacturing method by fitting facial edgeline

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110020131A (en) * 2009-08-21 2011-03-02 에스케이텔레콤 주식회사 System and method for delivering feeling during video call
WO2014178044A1 (en) 2013-04-29 2014-11-06 Ben Atar Shlomi Method and system for providing personal emoticons
JP2016528571A (en) * 2013-04-29 2016-09-15 アタール、シュロミ ベン Method and system for providing personal emotion icons
WO2020036343A1 (en) * 2018-08-17 2020-02-20 Samsung Electronics Co., Ltd. Electronic device and control method thereof
US10986265B2 (en) 2018-08-17 2021-04-20 Samsung Electronics Co., Ltd. Electronic device and control method thereof
KR102136311B1 (en) * 2020-01-03 2020-07-21 주식회사 젤리펀치 System for interactive information through smart mirror

Similar Documents

Publication Publication Date Title
JP6785282B2 (en) Live broadcasting method and equipment by avatar
CN109584151B (en) Face beautifying method, device, terminal and storage medium
KR100912877B1 (en) A mobile communication terminal having a function of the creating 3d avata model and the method thereof
US7864198B2 (en) Image processing method, image processing device and mobile communication terminal
EP2789373A1 (en) Video game processing apparatus and video game processing program
CN110263617B (en) Three-dimensional face model obtaining method and device
KR100700872B1 (en) Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof
CN112634416A (en) Method and device for generating virtual image model, electronic equipment and storage medium
CN111539882A (en) Interactive method for assisting makeup, terminal and computer storage medium
KR20070086774A (en) Image composition device
CN112581571A (en) Control method and device of virtual image model, electronic equipment and storage medium
US8290299B2 (en) Object outputting method and information processing apparatus
CN108933891B (en) Photographing method, terminal and system
KR20050082559A (en) Dance learning system, internet community service system and internet community service method using the same, dance learning method, and computer executable recording media on which programs implement said methods are recorded
JP2020064426A (en) Communication system and program
JP2005092284A (en) Pickup image synthesizer and pickup image synthesizing program
KR20070006337A (en) Method for editing image in wireless terminal
KR100608840B1 (en) Method for synthesis of 3d avata model of handset
KR100659901B1 (en) Method for controlling the motion of avatar on mobile terminal and the mobile thereof
KR100673608B1 (en) Apparatus for generating an avatar and mobile communication terminal capable of generating an avatar
WO2018179523A1 (en) Electronic device and program
JP2019133276A (en) Image processing system and terminal
KR100643415B1 (en) 3d avatar messenger system based on mobile device
KR101068941B1 (en) Method for private character service at a mobile terminal and the mobile terminal thereof
JP6582157B1 (en) Audio processing apparatus and program

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20130226

Year of fee payment: 7

FPAY Annual fee payment

Payment date: 20140224

Year of fee payment: 8

FPAY Annual fee payment

Payment date: 20150224

Year of fee payment: 9

FPAY Annual fee payment

Payment date: 20160224

Year of fee payment: 10

FPAY Annual fee payment

Payment date: 20170224

Year of fee payment: 11

FPAY Annual fee payment

Payment date: 20180223

Year of fee payment: 12

FPAY Annual fee payment

Payment date: 20200224

Year of fee payment: 14