KR100700872B1 - Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof - Google Patents
Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof Download PDFInfo
- Publication number
- KR100700872B1 KR100700872B1 KR1020060011619A KR20060011619A KR100700872B1 KR 100700872 B1 KR100700872 B1 KR 100700872B1 KR 1020060011619 A KR1020060011619 A KR 1020060011619A KR 20060011619 A KR20060011619 A KR 20060011619A KR 100700872 B1 KR100700872 B1 KR 100700872B1
- Authority
- KR
- South Korea
- Prior art keywords
- expression
- face
- dimensional
- service menu
- personal character
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72427—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2250/00—Details of telephonic subscriber devices
- H04M2250/52—Details of telephonic subscriber devices including functional features of a camera
Abstract
Description
도 1은 본 발명의 일실시예에 따른 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기의 구성 블록도.1 is a block diagram of a mobile communication terminal equipped with a three-dimensional personal character expression display function according to an embodiment of the present invention.
도 2는 도 1의 이동 통신 단말기에서 가이드 라인 기법을 이용하여 촬영을 수행하기 위한 가이드 라인 화면의 예시도. FIG. 2 is a diagram illustrating a guide line screen for performing photographing using a guideline technique in the mobile communication terminal of FIG. 1. FIG.
도 3은 도 2에서 촬영할 사람의 얼굴을 조준하기 위한 위치 정합용 화면의 예시도.FIG. 3 is an exemplary view of a screen for position registration for aiming a face of a person to be photographed in FIG. 2; FIG.
도 4는 도 1에서 표정 처리부의 상세 구성 블록도.4 is a detailed block diagram of the expression processing unit in FIG. 1;
도 5는 본 발명의 일실시예에 따른 2차원 얼굴 영상에서 표정 제어점을 선정하기 위해 설정된 얼굴의 기준 라인을 보여주는 도면.5 is a diagram illustrating a reference line of a face set to select an expression control point in a 2D face image according to an embodiment of the present invention.
도 6은 본 발명의 일실시예에 따른 2차원 얼굴 영상에서 선정된 표정 제어점에 따른 근육벡터를 보여주는 도면.6 is a view showing a muscle vector according to a selected facial expression control point in a two-dimensional face image according to an embodiment of the present invention.
도 7은 도 1에 도시된 본 발명의 일실시예에 따른 이동 통신 단말기에서 3차원 개인 캐릭터를 생성하고 표정을 생성하는 동작 흐름도.7 is a flowchart illustrating an operation of generating a 3D personal character and generating an expression in the mobile communication terminal according to an embodiment of the present invention shown in FIG. 1.
도 8은 도 1에 도시된 본 발명의 일실시예에 따른 이동 통신 단말기에서 3차원 개인 캐릭터에 표정을 생성하여 표시하는 동작 흐름도.8 is a flowchart illustrating an operation of generating and displaying an expression on a 3D personal character in a mobile communication terminal according to an embodiment of the present invention shown in FIG. 1.
<도면의 주요부분에 대한 부호의 설명><Description of the symbols for the main parts of the drawings>
100 : 이동 통신 단말기 110 : 메모리100: mobile communication terminal 110: memory
120 : 제어부 121 : 촬영 처리부120: control unit 121: recording processing unit
122 : 화면 표시 처리부 123 : 얼굴 정보 획득부122: screen display processing unit 123: face information acquisition unit
124 : 모델 선정부 125 : 캐릭터 생성부124: model selection unit 125: character generator
126 : 표정 처리부 126a : 표정 제어점 선정부126: facial
126b : 표정 선택 처리부 126c : 산출부126b: facial expression selection processor 126c: calculator
126d: 표정 생성부 127 : 다운 로드 처리부126d: facial expression generator 127: download processing unit
130 : RF부 140 : 음성 처리부130: RF unit 140: voice processing unit
150 : 스피커 160 : 마이크로폰150: speaker 160: microphone
170 : 키입력부 180 : 표시부170: key input unit 180: display unit
190 : 카메라190 camera
본 발명은 이동 통신 단말기의 3차원 개인 캐릭터 서비스에 관한 것으로, 보다 구체적으로는 이동 통신 단말기에서 개인의 얼굴 특성을 반영한 3차원 아바타와 같은 개인 캐릭터를 생성하고 그 생성된 개인 캐릭터의 얼굴 표정을 다양하게 변화시켜 표시하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법 및 이를 위한 이동 통신 단말기에 관한 것이다.The present invention relates to a three-dimensional personal character service of a mobile communication terminal, and more particularly, to generate a personal character such as a three-dimensional avatar reflecting an individual's face characteristics in a mobile communication terminal and varying facial expressions of the generated personal character. The present invention relates to a 3D personal character facial expression display method of a mobile communication terminal for changing and displaying the same, and a mobile communication terminal for the same.
아바타는 가상 공간인 인터넷이나 이동 통신 환경에 존재하는 또 다른 자아를 나타내는 것으로서, 사람의 형상 뿐만 아니라 동물이나 식물 등 표현할 수 있는 모든 형태로의 변형이 가능한 존재이다. The avatar represents another self existing in the Internet or a mobile communication environment, which is a virtual space, and is capable of being transformed into any form that can be expressed, such as an animal or a plant, as well as a human form.
이러한 아바타의 제작 및 이용은 사용자로 하여금 자신의 모습과 유사하며, 자신의 특징을 나타낼 수 있는 표현 도구로서, 사용자의 호기심이나 대리만족, 개인이 요구하는 이상적인 인물 등의 의미를 내포할 수 있다. 그에 따라, 사용자는 개인을 나타내는 아바타의 제작 및 이용에 많은 관심을 가지게 되었다.The production and use of such an avatar is similar to the user's own appearance, and may represent the user's characteristics, and may include meanings such as user's curiosity, surrogate satisfaction, and the ideal person required by the individual. Accordingly, the user has become very interested in the production and use of avatars representing individuals.
이동 통신 단말기에도 각종 부가 서비스와 사용자의 흥미를 유발하기 위하여 이러한 아바타의 기술들이 다양하게 도입되어 있다.In order to induce various additional services and interests of the mobile terminal, various techniques of such avatars have been introduced.
일예로 2차원 아바타 뿐만 아니라 입체감을 줄 수 있는 3차원 아바타가 이동 통신 단말기에 도입되어 사용자의 흥미를 유발하고 있다.For example, a three-dimensional avatar capable of giving a three-dimensional appearance as well as a two-dimensional avatar is introduced to a mobile communication terminal, causing user interest.
그러나, 종래의 이동 통신 단말기에서 사용되고 있는 3차원 아바타는 이동 통신 사업자나 컨텐츠 제공업체로부터 일률적으로 제공됨에 따라 수많은 사용자의 다양한 요구에 부응하는 아바타를 제공하는 것이 어렵다. However, since the 3D avatar used in the conventional mobile communication terminal is uniformly provided by the mobile communication provider or the content provider, it is difficult to provide an avatar that meets various needs of numerous users.
예를 들어, 사용자는 자신과 동일한 얼굴 형상을 가지고, 다양한 표정을 짓는 아바타를 원하지만 종래의 기술에서는 그러한 사용자의 요구를 충족시킬 수 없다.For example, a user wants an avatar that has the same face shape as the user and makes various expressions, but the conventional technology cannot satisfy the needs of such a user.
본 발명이 이루고자 하는 기술적 과제는 이동 통신 단말기에서 개인의 얼굴특성을 반영한 3차원의 아바타와 같은 개인 캐릭터를 생성하고 그 생성된 개인 캐릭터의 얼굴 표정을 다양하게 변화시켜 표시하는 데 있다.The technical problem to be achieved by the present invention is to generate a personal character such as a three-dimensional avatar reflecting the personal characteristics of the person in the mobile communication terminal, and to change the facial expression of the generated personal character in various ways.
본 발명이 이루고자 하는 다른 기술적 과제는 3차원 개인 캐릭터의 표정 변화를 적용하여 이동 통신 단말기의 사용자 인터페이스를 사용자에게 좀더 친근하도록 개선하는 데 있다.Another technical problem to be solved by the present invention is to improve the user interface of a mobile communication terminal to be more friendly to a user by applying a facial expression change of a 3D personal character.
이러한 기술적 과제를 달성하기 위한 본 발명의 일측면에 의하면, 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 그 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 제 1 단계와, 선정된 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하는 제 2 단계와, 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하고 선정된 표정 제어점의 변환처리를 통해 3차원 개인 캐릭터의 표정을 설정하여 화면에 표시하는 제 3 단계를 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법을 제공한다.According to an aspect of the present invention for achieving the technical problem, the first step of obtaining the face shape information from the two-dimensional face image and selecting the three-dimensional face model close to the acquired face shape information, and the selected three-dimensional The second step of generating the 3D personal character by mapping the acquired face shape information to the face model, and selecting an expression control point from the acquired face shape information and converting the selected expression control point to express the expression of the 3D personal character. It provides a three-dimensional personal character facial expression display method of a mobile communication terminal comprising a third step of setting and displaying on the screen.
바람직하게 본 발명에 의한 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법은 제 1 단계를 수행하기 전에 카메라를 통해 사람 얼굴을 촬영하여 2차원 얼굴 영상을 생성하는 촬영 단계를 더 포함할 수 있다.Preferably, the 3D personal character facial expression display method of the mobile terminal according to the present invention may further include a photographing step of generating a two-dimensional face image by photographing a human face through a camera before performing the first step.
바람직하게 촬영 단계는, 촬영할 대상을 조준할 수 있게 하기 위해 얼굴의 가이드 라인을 보여주는 가이드 라인 화면을 카메라를 통해 입력된 촬영 대상의 영상 위에 오버레이하여 표시하는 것을 특징으로 한다.Preferably, the photographing step may be characterized by overlaying and displaying a guide line screen showing a guide line of a face on an image of a photographing target input through a camera in order to be able to aim the object to be photographed.
바람직하게 제 1 단계는, 2 차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하기 위한 연산을 수행할 때 각 얼굴의 각 요소에 대한 정보를 획득하기 위한 기준점을 미리 선정하기 위한 위치 정합용 화면을 2 차원 얼굴 영상위에 오버레이하여 표시하는 것을 특징으로 한다.Preferably, in the first step, when performing a calculation for acquiring face shape information from a two-dimensional face image, a two-dimensional face for position registration screen for preselecting a reference point for acquiring information on each element of each face is obtained. And overlay the image on the image.
바람직하게 위치 정합용 화면은, 얼굴의 각 부분에 상응하는 조각 이미지들이 얼굴 형태를 갖추어 이루어지며, 각각의 조각 이미지들은 키입력부의 조작에 의해 선택되어 이동가능한 것을 특징으로 한다.Preferably, the position matching screen is made of sculpture images corresponding to each part of the face having a face shape, and each sculpture image is selected and moved by manipulation of a key input unit.
바람직하게 본 발명에 의한 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법은 제 1 단계를 수행하기 전에 네트워크를 통해 임의의 서버로부터 획득된 얼굴 형태 정보를 맵핑하는데 사용될 적어도 하나 이상의 3차원 얼굴 모델 정보를 다운로드받아 저장하는 단계를 더 포함할 수 있다.Preferably, the three-dimensional personal character expression display method of the mobile communication terminal according to the present invention comprises at least one or more three-dimensional face model information to be used to map the face shape information obtained from any server through the network before performing the first step. The method may further include downloading and storing.
바람직하게 제 3 단계는 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하는 단계와, 3차원 개인 캐릭터에 설정할 표정의 종류를 선택하는 단계와, 선택된 종류의 표정을 설정하기 위한 표정 제어점의 변환값을 산출하는 단계와, 3차원 개인 캐릭터에 산출된 표정 제어점의 변환값을 적용하여 화면에 표시하는 단계를 포함한다.Preferably, the third step includes selecting an expression control point from the acquired face shape information, selecting a type of expression to be set for the 3D personal character, and calculating a conversion value of the expression control point for setting the selected type of expression. And applying the converted value of the expression control point calculated to the three-dimensional personal character to display on the screen.
본 발명의 다른 측면에 의하면, 획득된 얼굴 형태 정보를 맵핑할 적어도 하 나 이상의 3차원 얼굴 모델 정보를 저장하는 메모리와, 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 그 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하고, 획득된 얼굴 형태 정보부터 선정된 표정 제어점의 변환처리를 통해 3차원 개인 캐릭터의 표정을 설정하여 화면에 표시하는 제어부를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기를 제공한다.According to another aspect of the present invention, a memory for storing at least one or more three-dimensional face model information to map the acquired face shape information, and obtains the face shape information from the two-dimensional face image and is close to the acquired face shape information Control unit for generating a 3D personal character by mapping the acquired face shape information to the 3D face model, and setting the expression of the 3D personal character through the process of converting the selected facial expression information from the acquired face shape information to the screen. It provides a mobile communication terminal having a three-dimensional personal character expression display function comprising a.
바람직하게 제어부는 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하는 얼굴 정보 획득부와, 얼굴 정보 획득부에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 모델 선정부와, 그 선정된 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하는 캐릭터 생성부와, 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하고 선정된 표정 제어점의 변환처리를 통해 3차원 개인 캐릭터에 표정을 설정하는 표정 처리부와, 표정 처리부에 의해 설정된 표정을 가지는 제 3 차원 개인 캐릭터를 화면에 표시하는 화면 표시 처리부를 포함한다.Preferably, the control unit includes a face information acquisition unit for acquiring face shape information from a two-dimensional face image, a model selection unit for selecting a three-dimensional face model in proximity to the face shape information acquired by the face information acquisition unit, and the selected three The character generator generates a 3D personal character by mapping the acquired face shape information to the 3D face model, and selects an expression control point from the acquired face shape information and expresses the expression on the 3D personal character through the conversion process of the selected expression control point. And a screen display processing unit configured to display a 3D personal character having a facial expression set by the facial expression processing unit on the screen.
바람직하게 표정 처리부는 획득된 얼굴 형태 정보로부터 표정 제어점을 선정하는 표정 제어점 선정부와, 3차원 개인 캐릭터에 설정할 표정의 종류를 선택하는 표정 선택 처리부와, 선택된 종류의 표정을 설정하기 위한 표정 제어점의 변환값을 산출하는 산출부와, 3차원 개인 캐릭터에 산출된 표정 제어점의 변환값을 적용하여 표정을 생성하는 표정 생성부를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기를 제공한다.Preferably, the expression processing unit includes an expression control point selecting unit for selecting an expression control point from the acquired face shape information, an expression selection processing unit for selecting the type of expression to be set for the 3D personal character, and an expression control point for setting the selected type of expression. Provided is a mobile communication terminal equipped with a three-dimensional personal character facial expression display function comprising a calculation unit for calculating a transform value and an expression generator for generating a facial expression by applying the transform value of the facial expression control point calculated to the three-dimensional personal character.
바람직하게 제어부는 카메라를 통해 사람 얼굴을 촬영하여 2차원 얼굴 영상을 생성하는 촬영 처리부를 더 포함할 수 있다.Preferably, the control unit may further include a photographing processor that generates a two-dimensional face image by photographing a human face through a camera.
바람직하게 2차원 얼굴 영상은 메모리에 저장되어 있거나 네트워크를 통해 다운로드 받은 사람 얼굴 데이터인 것을 특징으로 한다.Preferably, the 2D face image is human face data stored in a memory or downloaded through a network.
바람직하게 제어부는 네트워크를 통해 임의의 서버로부터 획득된 얼굴 형태 정보를 맵핑하는데 사용될 적어도 하나 이상의 3차원 얼굴 모델 정보를 다운로드받아 메모리에 저장하는 다운로드 처리부를 더 포함한다.Preferably, the control unit further includes a download processing unit for downloading at least one or more three-dimensional face model information to be used to map the face shape information obtained from any server through the network and to store in the memory.
본 발명의 또 다른 측면에 의하면, 서비스 메뉴별로 3차원 개인 캐릭터에 지정할 표정의 종류를 설정하는 제 1 단계와, 임의의 서비스 메뉴에 대한 실행이 요청되면 해당 서비스 메뉴에 상응하여 3차원 캐릭터에 설정할 표정의 종류를 판단하는 제 2 단계와, 표정 제어점의 변환을 통해 3차원 개인 캐릭터에 판단된 종류의 표정을 설정하여 화면에 표시하는 제 3 단계를 포함하는 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법을 제공한다.According to another aspect of the present invention, the first step of setting the type of expression to be assigned to the three-dimensional personal character for each service menu, and if the execution of any service menu is requested to set to the three-dimensional character corresponding to the service menu 3D personal character facial expression display of the mobile communication terminal comprising a second step of determining the type of facial expression, and a third step of setting the expression of the determined type to the three-dimensional personal character through the conversion of the expression control point and display on the screen Provide a method.
바람직하게 본 발명에 의한 이동 통신 단말기의 3차원 개인 캐릭터 표정 표시 방법은 제 1 단계를 수행하기 전에 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 단계와, 선정된 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 생성하는 단계를 더 포함할 수 있다.Preferably, the method for displaying a 3D personal character expression of a mobile communication terminal according to the present invention obtains face shape information from a 2D face image and selects a 3D face model close to the acquired face shape information before performing the first step. The method may further include mapping the acquired face shape information to the selected 3D face model to generate a 3D personal character to be displayed when the service menu is executed.
바람직하게 표정 제어점은 표정 제어점의 벡터 변환을 통해 임의의 표정을 생성하기 위해 2차원 얼굴 영상으로부터 선정되는 적어도 하나 이상의 벡터 좌표인 것을 특징으로 한다.Preferably, the facial expression control point is at least one vector coordinate selected from a two-dimensional face image to generate an arbitrary facial expression through vector transformation of the facial expression control point.
바람직하게 서비스 메뉴는 사진 합성 서비스 메뉴, 전화번호부 서비스 메뉴, 화상 통화 서비스 메뉴, 소리 설정 서비스 메뉴, 색상 설정 서비스 메뉴, 이모티콘 서비스 메뉴, 고객 관리 서비스 메뉴 중 적어도 하나의 서비스 메뉴를 포함할 수 있다.Preferably, the service menu may include at least one service menu of a photo collage service menu, a phone book service menu, a video call service menu, a sound setting service menu, a color setting service menu, an emoticon service menu, and a customer care service menu.
본 발명의 또 다른 측면에 의하면, 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 저장하는 메모리와, 임의의 서비스 메뉴에 대한 실행이 요청되면 표정 제어점의 변환을 통해 해당 서비스 메뉴에 상응하는 종류의 표정을 메모리에 저장되어 있는 3차원 캐릭터에 설정하여 화면에 표시하는 제어부를 포함하는 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기를 제공한다.According to another aspect of the present invention, a memory for storing a three-dimensional personal character to be displayed when the service menu is executed, and a type corresponding to the corresponding service menu through conversion of the expression control point when an execution of an arbitrary service menu is requested. It provides a mobile communication terminal having a three-dimensional personal character facial expression display function comprising a control unit for setting the expression of the expression to the three-dimensional character stored in the memory to display on the screen.
바람직하게 제어부는 서비스 메뉴별로 3차원 개인 캐릭터에 지정할 표정의 종류를 설정하는 설정부와, 임의의 서비스 메뉴에 대한 실행이 요청되면 해당 서비스 메뉴에 상응하여 3차원 캐릭터에 설정할 표정의 종류를 판단하는 판단부와, 표정 제어점의 변환을 통해 3차원 개인 캐릭터에 판단된 종류의 표정을 설정하는 표정 처리부와, 표정 처리부에 의해 설정된 표정을 가지는 제 3 차원 개인 캐릭터를 화면에 표시하는 화면 표시 처리부를 포함한다.Preferably, the control unit is a setting unit for setting the type of expression to be assigned to the three-dimensional personal character for each service menu, and if the execution of any service menu is requested to determine the type of expression to be set for the three-dimensional character corresponding to the service menu A determination unit, an expression processing unit for setting the type of expression judged on the three-dimensional personal character through transformation of the expression control point, and a screen display processing unit for displaying the 3D personal character having the expression set by the expression processing unit on the screen; do.
더 바람직하게 제어부는 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하는 얼굴 정보 획득부와, 얼굴 정보 획득부에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 모델 선정부와, 선정된 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 생 성하는 캐릭터 생성부를 더 포함할 수 있다.More preferably, the control unit includes a face information acquisition unit for acquiring face shape information from a two-dimensional face image, a model selection unit for selecting a three-dimensional face model in proximity to the face shape information acquired by the face information acquisition unit, and the selected three. The apparatus may further include a character generator configured to map the acquired face shape information to the dimensional face model to generate a 3D personal character to be displayed when the service menu is executed.
바람직하게 표정 제어점은 표정 제어점의 벡터 변환을 통해 임의의 표정을 생성하기 위해 2차원 얼굴 영상으로부터 선정되는 적어도 하나 이상의 벡터 좌표인 것을 특징으로 한다.Preferably, the facial expression control point is at least one vector coordinate selected from a two-dimensional face image to generate an arbitrary facial expression through vector transformation of the facial expression control point.
바람직하게 서비스 메뉴는 사진 합성 서비스 메뉴, 전화번호부 서비스 메뉴, 화상 통화 서비스 메뉴, 소리 설정 서비스 메뉴, 색상 설정 서비스 메뉴, 이모티콘 서비스 메뉴, 고객 관리 서비스 메뉴 중 적어도 하나의 서비스 메뉴를 포함할 수 있다.Preferably, the service menu may include at least one service menu of a photo collage service menu, a phone book service menu, a video call service menu, a sound setting service menu, a color setting service menu, an emoticon service menu, and a customer care service menu.
이하, 첨부된 도면을 참조하여 본 발명의 일실시예에 따른 이동 통신 단말기의 개인 캐릭터 서비스 방법 및 그 이동 통신 단말기를 설명하도록 한다.Hereinafter, a personal character service method and a mobile communication terminal of a mobile communication terminal according to an embodiment of the present invention with reference to the accompanying drawings.
도 1은 본 발명의 일실시예에 따른 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기의 구성 블록도이다.1 is a block diagram illustrating a mobile communication terminal equipped with a 3D personal character expression display function according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일실시예에 따른 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기는 3차원 개인 캐릭터 표정 표시 서비스를 수행하기 위한 절차가 프로그래밍된 프로그램을 저장하고 있는 메모리(110)와, 그 메모리(110)에 저장된 프로그램을 읽어들여 해당 프로그램에 프로그래밍된 절차를 수행하여 촬영된 얼굴 영상으로부터 3차원 개인 캐릭터를 생성하고, 생성된 개인 캐릭터의 얼굴 표정을 다양하게 변화시키는 제어부(120)와, RF부(130)와, 음성 처리부(140)와, 스피커(150)와, 마이크로폰(160)과, 키입력부(170)와, 표시부(180)와, 카메라(190)를 포함하여 구성된다.Referring to FIG. 1, a mobile communication terminal having a 3D personal character expression display function according to an embodiment of the present invention may include a memory configured to store a program in which a procedure for performing a 3D personal character expression display service is programmed ( 110 and a controller for reading a program stored in the
메모리(110)에는 제어부(120)의 동작 프로그램, 시스템 프로그램이 저장되며, 동작 프로그램이나 시스템 프로그램은 통상 포함된 롬(ROM) 영역에 저장되고 필요에 의해 소거가 가능하다. 전기적으로 소거 가능한 롬으로는 이이피롬(EEPROM), 플래시 메모리 등이 있다. 그리고, 메모리(110)는 또한 여러 동작 프로그램 수행 중에 발생하는 데이터를 일시 저장하는 램(RAM)을 포함한다.The
아울러, 메모리(110)는 3차원 개인 캐릭터를 생성하는데 필요한 프로그램과, 획득된 얼굴 형태 정보를 맵핑할 적어도 하나 이상의 3차원 얼굴 모델 정보를 저장하고 있다.In addition, the
제어부(120)는 이동 통신 단말기의 전반적인 동작을 제어함과 동시에, 본 발명에 따른 이동 통신 단말기에서의 개인 캐릭터 서비스를 수행할 때 전체적인 절차에 대한 제어를 수행하게 된다. 그리고, 구비되는 각종 구성들의 제어를 이루게 된다.The
제어부(120)는 카메라(190)에 의해 촬영되거나 메모리(110)에 저장되어 있거나 네트워크를 통해 다운로드받은 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 그 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하고, 2차원 얼굴 영상에서 선정된 표정 제어점의 변환처리를 통해 3차원 개인 캐릭터의 표정을 설정하여 화면에 표시한다.The
이를 위해 제어부(120)는 촬영 처리부(121)와 화면 표시 처리부(122)와 얼굴 정보 획득부(123)와 모델 선정부(124)와 캐릭터 생성부(125)와 표정 처리부(126)와 다운 로드 처리부(127)를 포함하여 구성된다.To this end, the
촬영 처리부(121)는 키입력부(170)를 통한 촬영 명령에 따라 카메라(190)를 통해 입력된 사람 얼굴을 촬영하여 3차원 개인 캐릭터를 생성하기 위한 2차원 얼굴 영상으로 메모리(110)에 저장한다.The photographing
이때, 촬영 처리부(121)는 사용자에 의해 촬영 대상의 얼굴에 조준된 상태에서 촬영을 명령하는 키입력부(170)의 조작이 이루어지면 표시부(180)에 표시된 영상을 2차원 얼굴 영상으로 저장한다.At this time, the photographing
화면 표시 처리부(121)는 3차원 개인 캐릭터의 표정 서비스를 수행하기 위한 일련의 절차에 필요한 각종 화면을 표시부(180)에 표시한다.The
예를 들어서, 촬영 처리부(121)에 의해 촬영 모드가 실행되는 경우, 가이드 라인 기법에 의한 촬영이 이루어질 수 있도록 도 2에 도시된 바와 같이 촬영할 대상을 조준할 수 있게 하기 위해 얼굴의 가이드 라인을 보여주는 가이드 라인 화면을 카메라(190)를 통해 입력되어 표시부(180)에 표시된 영상 위에 오버레이하여 표시한다.For example, when the photographing mode is executed by the photographing
화면 표시 처리부(123)에 의해 표시부(180)에 표시되는 가이드 라인에는 얼굴 윤곽이 보여진다. 즉, 표시부(180)에는 카메라(190)를 통해 입력되는 얼굴 영상이 표시된 상태에서 눈썹, 눈, 코, 입의 영역들을 나타내는 가이드 라인이 오버레이되어 표시된다.The outline of the face is shown in the guide line displayed on the
이에 따라, 사용자는 이동 통신 단말기의 위치를 조절하여 표시부(180)에 오버레이 되어 표시된 가이드 라인에 촬영 대상의 해당 부분이 매칭되도록 촬영 대상에 대한 조준(Focusing)을 수행할 수 있다.Accordingly, the user may adjust the position of the mobile communication terminal to perform focusing on the photographing target so that the corresponding portion of the photographing target is matched to the displayed guide line by being overlaid on the
또한, 화면 표시 처리부(122)는 얼굴 정보 획득부(123)에 의해 2차원 영상으로부터 얼굴 영상 정보를 획득할 때 좀더 정확하게 얼굴에 대한 형태 정보를 획득하기 위해 카메라(190)에 촬영되어 메모리(110)에 저장된 얼굴 영상을 표시부(180)에 표시한 상태에서 위치 정합용 화면을 오버레이하여 표시한다.In addition, the screen display processing unit 122 is photographed by the
여기에서 위치 정합용 화면은 도 3에 도시된 바와 같이 얼굴의 각 부분에 상응하는 조각 이미지들이 얼굴 형태를 갖추어 이루어진 화면이다.Here, the position matching screen is a screen in which sculpture images corresponding to each part of the face have a face shape as shown in FIG. 3.
도시된 바와 같이 표시부(180)에 얼굴 영상이 표시된 상태에서 좌측눈, 우측눈, 좌측귀, 우측취, 코, 입, 턱의 조각 이미지들이 오버레이되어 표시되어 있다.As shown, fragment images of the left eye, the right eye, the left ear, the right ear, the nose, the mouth, and the chin are displayed while the face image is displayed on the
각각의 조각 이미지들은 키입력부(170)의 조작에 의해 선택될 수 있고, 선택된 조각 이미지들은 키입력부(170)에 구비된 방향키 또는 번호키의 조작을 통해 상하좌우로 이동될 수 있다.Each of the fragment images may be selected by manipulation of the
즉, 사용자는 표시부(180)에 얼굴 영상이 표시되고, 그 위에 조각 이미지들이 오버레이되어 표시된 상태에서 키입력부(170)의 방향키 또는 번호키를 조작하여 왼쪽눈에 해당하는 조각 이미지를 얼굴 영상의 왼쪽눈에 거의 정확하게 오버레이되도록 이동시키고, 오른쪽눈에 해당하는 조각 이미지를 얼굴 영상의 오른쪽눈에 거의 정확하게 오버레이되도록 이동시킨다.That is, the user manipulates the direction key or the number key of the
사용자는 동일한 방법으로 좌측귀, 우측취, 코, 입, 턱의 조각 이미지들을 이동시켜 얼굴 영상의 해당 부분에 오버레이되게 한 후 키입력부(170)에 구비된 확인키를 누르면 위치 정합 작업이 완료된다.The user moves the pieces of the left ear, right ear, nose, mouth and chin in the same manner so that the image is overlaid on the corresponding part of the face image and then presses the confirmation key provided in the
이러한 위치 정합 작업은 얼굴 정보 획득부(123)에서 얼굴 영상으로부터 얼 굴 정보를 획득하기 위한 연산을 수행할 때 각 얼굴의 각 요소에 대한 정보를 획득하기 위한 기준점을 미리 선정해주는 작업에 해당된다.The position matching operation corresponds to a task of preselecting a reference point for acquiring information on each element of each face when the face information acquisition unit 123 performs an operation for acquiring face information from the face image.
따라서, 위치 정합 작업이 제대로 수행될수록 좀더 실물에 가까운 3차원 개인 캐릭터가 생성될 가능성이 높아지게 된다.Therefore, as the position matching operation is performed properly, the possibility of generating a more realistic three-dimensional personal character is increased.
아울러, 화면 표시 처리부(122)는 표정 처리부(126)에 의해 설정된 표정을 가지는 제 3 차원 개인 캐릭터를 화면에 표시한다.In addition, the screen display processor 122 displays the 3D personal character having the facial expression set by the
얼굴 정보 획득부(123)는 촬영 처리부(121)에 의해 촬영되어 메모리(110)에 저장된 2차원 얼굴 영상으로부터 각종 얼굴 정보를 획득한다.The face information acquirer 123 acquires various face information from the two-dimensional face image photographed by the photographing
얼굴 정보 획득부(123)는 촬영 처리부(121)에 의해 촬영되어 메모리(110)에 저장된 2차원 얼굴 영상에 대하여 화면 표시 처리부(122)에 의해 위치 정합 작업이 수행되면 위치 정합 작업에 의해 선정된 각 얼굴 요소의 조각 이미지들의 좌표 위치를 기반으로 얼굴 형태 정보를 획득한다.The face information obtaining unit 123 is selected by the position matching operation when the position matching operation is performed by the screen display processing unit 122 on the 2D face image photographed by the photographing
예를 들어 얼굴 정보 획득부(123)는 화면 표시 처리부(122)에 의한 위치 정합 작업에 의해 선정된 각 얼굴 요소의 조각 이미지들의 좌표 위치를 기반으로 얼굴의 형태 정보를 획득한다.For example, the face information acquirer 123 obtains face shape information based on coordinate positions of pieces of images of each face element selected by the position matching operation by the screen display processor 122.
예를 들면, 이마의 좌우 길이, 턱의 좌우길이, 이마에서 턱까지의 길이, 좌측 턱선, 우측 턱선, 눈을 지나는 얼굴 폭, 얼굴폭에서 좌측턱선까지의 길이, 얼굴폭에서 우측턱선까지의 길이를 측정하여 해당 2차원 얼굴에 대한 얼굴 정보로 출력한다.For example, the left and right length of the forehead, the left and right length of the chin, the length from the forehead to the chin, the left jaw line, the right jaw line, the width of the face passing through the eyes, the length from the face width to the left jaw line, the length from the face width to the right jaw line Is measured and output as face information on the corresponding two-dimensional face.
따라서, 얼굴 정보 획득부(123)는 각 얼굴 요소의 조각 이미지 좌표에 근거 하여 획득한 얼굴 형태 정보를 메모리(110)에 저장한다.Accordingly, the face information acquisition unit 123 stores face shape information acquired based on the fragment image coordinates of each face element in the
여기에서 얼굴 형태 정보에는 각 얼굴 요소들에 대한 색상 이미지들도 포함된다.Here, the face shape information includes color images of each face element.
모델 선정부(124)는 메모리(110)에 저장되어 있는 3차원 얼굴 모델들 중에서 얼굴 정보 획득부(123)에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정한다.The
모델 선정부(124)는 얼굴 정보 획득부(123)에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하기 위해 얼굴 정보 획득부(123)에 의해 획득되어 메모리(110)에 얼굴 형태 정보를 분석하여 분석된 결과에 따라 가장 근접한 3차원 모델을 선정한다.The
즉, 모델 선정부(124)는 각 얼굴 요소의 조각 이미지들에 대한 좌표값들을 분석하여 해당 좌표값으로부터 예를 들어, 얼굴 정보 획득부(123)에 의해 측정된 이마의 좌우 길이, 턱의 좌우길이, 이마에서 턱까지의 길이, 좌측 턱선, 우측 턱선, 눈을 지나는 얼굴 폭, 얼굴폭에서 좌측턱선까지의 길이, 얼굴폭에서 우측턱선까지의 길이를 이용하여 메모리(110)에 저장된 3차원 모델 중에서 가장 근접한 형상을 가지고 있는 3차원 모델을 선정한다.That is, the
캐릭터 생성부(125)는 모델 선정부(124)에 의해 선정된 3차원 얼굴 모델에 얼굴 정보 획득부(123)에 의해 획득된 각 얼굴 요소들에 대한 좌표 위치와 같은 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성한다. 이때, 각 얼굴 요소들에 대한 색상 이미지들도 맵핑된다.The
좀더 상세하게 설명하면, 캐릭터 생성부(125)는 촬영 처리부(121)를 통해 촬영되어 저장된 2차원 얼굴 영상에서 얼굴의 중앙부분(눈, 코, 입을 포함하는 부분)을 잘라내고, 플래너 맵핑(planar mapping)방식에 따라, 잘라낸 부분을 모델 선정부(124)에 의해 선정된 3차원 얼굴 모델과 맵핑시킨다. 그리고 구로우 셰이딩(Gouraud shading)방식을 이용하여 맵핑된 3차원 얼굴의 곡면과 모서리 부분을 매끄럽게 다듬는다.In more detail, the
이때, 캐릭터 생성부(125)는 모델 선정부(124)에 의해 선정된 3차원 얼굴 모델의 맵핑 정보를 이용하여 2차원 얼굴 영상을 맵핑시킨다. 3차원 얼굴 모델의 맵핑 정보는 선택된 3차원 얼굴 모델의 얼굴을 임의의 개수를 가지는 영역으로 구분하여 (예를 들어 64개의 영역) 각 영역의 법선 벡터에 대한 정보를 포함한다.In this case, the
캐릭터 생성부(125)는 3차원 얼굴 모델의 맵핑 정보에 포함된 각 법선 벡터에 대하여 선형 보간을 통해 2차원 얼굴 영상과의 맵핑을 수행한다.The
표정 처리부(126)는 화면 표시 처리부(122)에 의한 위치 정합 작업에 의해 획득되어진 각 얼굴 요소에 대한 조각 이미지의 위치 좌표를 근거로 하여 미리 정해진 개수의 표정 제어점을 선정하고 그 선정된 표정 제어점의 변환처리를 통해 3차원 개인 캐릭터에 표정을 설정한다.The
다운로드 처리부(127)는 네트워크를 통해 임의의 서버로부터 획득된 얼굴 형태 정보를 맵핑하는데 사용될 적어도 하나 이상의 3차원 얼굴 모델 정보를 다운로드받아 메모리(110)에 저장한다.The
RF부(130)는 제어부(120)에 의해 제어된다. RF부(130)는 주파수 대역의 무선 채널로 수신되는 주파수의 신호를 안테나(ANT)를 통해 수신되면, 이를 대역 하강 변환하고 데이터의 종류를 구별하여 제어부(120)로 출력하거나 또는 음성 처리부(140)로 출력한다.The
RF부(130)에서 제어부(120)로 출력되는 데이터는 문자 데이터 또는 페이징 채널을 통해 수신되는 페이징 신호 및 시그널링 신호들이 된다. 그리고 음성 처리부(140)로 출력되는 데이터는 음성 호가 설정된 경우에 수신되는 음성 데이터가 된다.Data output from the
또한 RF부(130)는 제어부(120)로부터 수신되는 데이터 또는 음성 처리부(140)로부터 수신되는 코드화된 음성 데이터를 송신하기 위해 대역 상승 변환하여 안테나(ANT)를 통해 주파수 대역의 무선 신호로 변환하여 출력한다.In addition, the
음성 처리부(140)는 일반적으로 보코더(VOCODER) 등으로 구성되며, 제어부(120)의 제어에 의해 구동된다. 음성 처리부(140)는 마이크로폰(MIC)(160)에 의해 입력된 전기 신호를 변조하여 음성 데이터로 변환하고, RF부(130)로 출력한다. 또한, 음성 처리부(140)는 RF부(130)로부터 입력된 부호화된 음성 데이터를 전기 신호로 복조하여 스피커(SPK)(150)로 출력하고, 스피커(SPK)(150)는 이를 가청음으로 변환하여 출력한다.The
키입력부(170)는 일반적으로 키 매트릭스 구조로 구성이 된다. 키입력부(170)는 다수의 숫자 키와 방향키와 각종 기능을 수행하기 위한 기능키로 이루어지며, 사용자의 키 입력에 의해 키 데이터의 전기적인 신호를 제어부(120)로 출력한다.The
표시부(180)는 단말기 현재의 상태를 표시하거나 프로그램의 진행 상황 변화를 표시한다. 또한 수신 단문 메시지 등을 표시한다. 이런 표시 장치는 액정 표시 장치(Liquid Crystal Display : LCD)등과 같은 표시 장치로 구성할 수 있다.The
카메라(190)는 고체 촬상 소자(CCD) 또는 CMOS 이미지 센서(CIS)와 같은 반도체 이미지 센서, 연성회로기판(FPCB), 카메라용 렌즈, 적어도 하나 이상의 플래시 등과 같은 디지털 카메라의 부품을 구비하여, 제어부(120)의 제어 신호에 따라 외부의 대상을 촬영하여 영상 데이터를 획득하는 동작을 수행한다.The
도 4는 도 1에서 표정 처리부의 상세 구성 블록도이다.4 is a detailed block diagram of the facial expression processor of FIG. 1.
도 4를 참조하면 표정 처리부(126)는 표정 제어점 선정부(126a)와, 표정 선택 처리부(126b)와, 산출부(126c)와, 표정 생성부(126d)를 포함하여 구성된다.Referring to FIG. 4, the
표정 제어점 선정부(126a)는 얼굴 정보 획득부(123)에 의해 획득된 얼굴 형태 정보에 의거하여 촬영 처리부(121)에 의해 촬영되어 저장된 획득된 얼굴 형태 정보로부터 표정 제어점을 선정한다.The facial expression control
여기서 표정 제어점은 표정 제어점의 벡터 변환을 통해 임의의 표정을 생성하기 위해 얼굴 영상에서 선정되는 적어도 하나 이상의 벡터 좌표이다. 표정 제어점은 얼굴의 표정을 변화를 위해 표정을 생성하기 위한 얼굴 각 요소에 해당하여 선정된 각 끝점의 변화점을 의미한다.Here, the expression control point is at least one vector coordinate selected from the face image to generate an arbitrary expression through vector transformation of the expression control point. The expression control point refers to a change point of each end point selected corresponding to each element of the face for generating an expression for changing the expression of the face.
따라서, 표정 제어점에 대응하여 표정 제어점의 변화를 줄 수 있는 근육 벡터가 지정된다. 근육 벡터는 표정 제어점을 변화시킬 수 있는 벡터를 의미한다.Therefore, a muscle vector that can change the facial expression control point is designated corresponding to the facial expression control point. The muscle vector refers to a vector capable of changing the facial expression control point.
각종 표정의 생성은 기능별로 지정된 종류의 근육벡터 위치를 변화시킴으로 써 가능해진다.The generation of various expressions is made possible by changing the position of the muscle vector of the specified type for each function.
예를 들어 행복한 표정, 슬픈 표정, 분노, 허무, 냉소, 놀람 등의 사람들이 가질 수 있는 표정의 대표되는 표정의 근육 벡터들이 지정되어 사용될 수 있다.For example, muscle vectors of representative facial expressions of facial expressions such as happy facial expressions, sad facial expressions, anger, vanity, cynicism, and surprise may be specified and used.
표정 제어점은 촬영 처리부(121)에 의해 촬영되어 메모리(110)에 저장된 영상에 대하여 화면 표시 처리부(122)에 의한 위치 정합용 화면을 통해 각 얼굴의 요소에 대한 조각 이미지들이 배치되어 정렬된 상태에서 얼굴 정보 획득부(123)에 의해서 측정된 각 얼굴 요소의 좌표 위치를 반영하여 개인의 얼굴 특성을 반영하여 선정되어 진다.The facial expression control point is photographed by the photographing
즉, 도 5에 도시된 바와 같이 눈썹(1), 눈(2), 코등(3), 코밑(4), 입(5), 턱(6)과 같은 각 얼굴 요소의 중앙위치를 기준으로 도 6에 도시된 바와 같이 설정된 근육 벡터를 사용할 수 있다. 이때, 근육 벡터는 6개의 제어 위치에서 중앙점을 기준으로 임의의 표정을 생성하기 위한 위치와 방향, 크기를 갖도록 지정된다.That is, as shown in FIG. 5, the eyebrow 1, the eye 2, the nose 3, the
이에 따라, 눈썹(1) 부위에 대하여는 3개의 위치에 상방향을 가지는 근육 벡터(a)가 지정되어 있어서, 해당 근육 벡터의 크기를 조절하면 이마를 넓어지게 하거나 좁아지게 하는 표정 변화를 연출할 수 있다.Accordingly, the muscle vector (a) having an upward direction is designated to three positions of the eyebrow (1), and by adjusting the size of the muscle vector, it is possible to produce a facial expression change to widen or narrow the forehead. .
또한, 오른쪽 눈에 대하여는 상방향과, 얼굴 바깥쪽으로 비스듬한 방향을 가지는 근육벡터(b1)가 지정되어 있으며, 왼쪽 눈에 대하여는 상방향과, 얼굴 바깥쪽으로 비스듬한 방향을 가지는 근육벡터(b2)가 지정되어 있다.Further, a muscle vector b1 having an upward direction and an oblique direction toward the outside of the face is designated for the right eye, and a muscle vector b2 having an upward direction and an oblique direction toward the outside of the face is specified for the left eye. have.
또한, 좌우 볼부위에 대하여 상방향과 얼굴 바깥쪽으로 비스듬한 방향을 가지는 근육벡터(c1, c2)가 지정되어 있으며, 코 부위에 대하여는 얼굴 바깥쪽 방향 을 가지는 근육벡터(d1, d2)가 지정되어 있다.In addition, muscle vectors c1 and c2 having upward and oblique directions toward the outside of the face are designated for the left and right cheeks, and muscle vectors d1 and d2 having the outward direction of the face are specified for the nose. .
입술 부위에 대하여는 좌우가 대칭적으로 얼굴 바깥쪽 방향, 상향으로 치켜 올려진 방향, 하방향의 세 가지 방향을 가지는 근육 벡터(e1, e2)가 지정되어 있으며, 턱 부위에 대하여는 상방향을 가지는 근육벡터(f)가 지정되어 있다.For the lip region, muscle vectors (e1, e2) having three directions, symmetrically outward, upward, and downward, are designated. Vector f is specified.
표정 선택 처리부(126b)는 3차원 개인 캐릭터에 설정할 표정의 종류를 선택한다. 표정 선택 처리부(126b)에 의해 선택되는 표정의 종류는 각 표정 생성을 위해 기능별로 지정된 종류의 근육벡터 위치를 변화에 의해 생성이 가능한 표정의 모든 종류가 포함된다.The expression
예를 들어 행복한 표정, 슬픈 표정, 분노, 허무, 냉소, 놀람 등의 사람들이 가질 수 있는 표정들이 포함될 수 있다. For example, it can include facial expressions that people can have, such as happy expressions, sad expressions, anger, vanity, cynicism, and surprise.
표정 선택 처리부(126b)에 의해 임의의 표정이 선택되면 해당 표정을 생성하기 위한 근육 벡터들에 의한 표정 변화를 수행하기 위해 지정된 모션 벡터가 읽여져서 표정이 생성되는 것이다.When a certain facial expression is selected by the facial
산출부(126c)는 표정 선택 처리부(125b)에 의해 선택된 종류의 표정을 설정하기 위한 표정 제어점의 변환값을 산출한다.The calculating part 126c calculates the conversion value of the facial expression control point for setting the facial expression of the kind selected by the facial expression selection processing part 125b.
벡터는 일반적으로 크기와 방향을 갖는다. 따라서 모션 벡터를 목표 모델에 맞게 바꿔주기 위해서는 크기와 방향을 달리해 주어야만 한다.Vectors generally have size and direction. Therefore, to change the motion vector to match the target model, the size and direction must be changed.
산출부(126c)는 모델 선정부(124)에 의해 선정된 3 차원 얼굴 모델의 법선 벡터와 기능별 근육 벡터들의 법선 벡터의 연산을 통해 각 표정에 해당하는 모션 벡터의 크기와 방향을 산출하여 3차원 개인 캐릭터에 표정을 설정할 수 있다.The calculating unit 126c calculates the size and direction of the motion vector corresponding to each expression by calculating the normal vector of the three-dimensional face model selected by the
여기에서 모션 벡터는 표정 변화 전의 벡터에서 표정 변화 후의 최종 벡터까지의 표점 제어점의 변환을 나타내는 벡터이다.Here, the motion vector is a vector representing the transformation of the control point of the gauge from the vector before the facial expression change to the final vector after the facial expression change.
표정 생성부(126d)는 3차원 개인 캐릭터에 산출된 표정 제어점의 변환값을 적용하여 표정을 생성한다.The
표정 생성부(126d)는 3차원 개인 캐릭터에 설정될 표정의 종류는 다음과 같이 설정된 각 얼굴 요소에 대한 표정 벡터의 크기와 방향을 선택함으로써 여러 표정을 생성할 수 있다.The
즉, a로 설정된 눈썹의 위치를 올리고 내리기, b로 설정된 b1과 b2의 왼쪽 오른쪽 눈의 올리기, c로 설정된 윗 볼의 왼쪽 오른쪽 올리고 내리기, 옆으로 벌리기 좁히기의 벡터크기와 방향으로 볼의 표정을 만들 수 있다. That is, the expression of the ball in the vector size and direction of raising and lowering the position of the eyebrow set to a, raising the left and right eyes of b1 and b2 set to b, raising and lowering the left and right right of the upper ball set to c, and narrowing the spread apart. I can make it.
또한, d로 설정된 코의 경우 코를 넓히기, 좁히기 등을 각기 오른쪽 왼쪽에 설정된 제어점으로 조정할 수 있다. In addition, in the case of the nose set to d, the nose widening and narrowing may be adjusted to the control points set at the right and left sides, respectively.
또한 e1, e2로 설정된 입의 경우 좌우로 넓히기, 상하로 벌리기를 설정된 벡터의 크기와 방향에 따라 선택될 수 있다.In addition, the mouth set to e1, e2 may be selected according to the size and direction of spreading the left and right, spreading up and down the set vector.
도 7은 도 1에 도시된 본 발명의 일실시예에 따른 이동 통신 단말기에서 3차원 개인 캐릭터를 생성하고 표정을 생성하는 동작 흐름도이다.FIG. 7 is a flowchart illustrating an operation of generating a 3D personal character and generating an expression in the mobile communication terminal according to an embodiment of the present invention shown in FIG. 1.
도 7을 참조하면, 다운로드 수행부(126)는 네트워크를 통해 임의의 서버에 접속하여 해당 서버로부터 3차원 얼굴 모델링을 수행하는데 사용되는 3차원 얼굴 모델 정보를 다운로드받아 메모리(110)에 저장한다(S1).Referring to FIG. 7, the
메모리(110)에 3차원 얼굴 모델 정보가 저장된 상태에서 촬영 처리부(121)는 사용자에 의해 3차원 개인 캐릭터 생성 메뉴가 실행되면 카메라(190)를 구동하여 촬영모드를 실행한다(S2).In the state where the 3D face model information is stored in the
촬영 처리부(121)에 의해 촬영 모드가 실행되면 화면 표시 처리부(126)는 표시부(180)에 카메라(190)를 통해 입력되는 촬영 대상의 얼굴 영상과, 촬영할 사람 얼굴을 조준하기 위한 가이드 라인 화면을 얼굴 영상위에 오버레이하여 표시한다(S3). When the capturing mode is executed by the capturing
이에 따라 표시부(180)에는 눈썹, 눈, 코, 입의 영역들을 나타내는 가이드 라인이 표시된 상태에서 카메라(190)를 통해 입력되는 얼굴 영상이 표시되어 진다.Accordingly, the
이에 따라, 사용자는 이동 통신 단말기의 위치를 조절하여 표시부(180)에 표시된 얼굴의 각 부분에 대한 가이드 라인에 촬영 대상의 해당 부분이 매칭되도록 촬영 대상에 대한 조준(Focusing)을 수행한다.Accordingly, the user adjusts the position of the mobile communication terminal to perform focusing on the photographing target so that the corresponding portion of the photographing target matches the guide line for each part of the face displayed on the
촬영 대상의 얼굴이 조준된 상태에서 촬영을 명령하는 키입력부(170)의 조작이 이루어지면 촬영 처리부(121)는 표시부(180)에 표시된 영상을 2차원 얼굴 영상으로 메모리(110)에 저장한다(S4).When the manipulation of the
화면 표시 처리부(122)는 촬영 처리부(121)에 의해 촬영된 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하는데 필요한 위치 정합을 위해 표시부(190)에 2차원 얼굴 영상과 함께 각 얼굴 요소의 조각 이미지로 이루어진 위치 정합용 화면을 표시부(180)에 표시한다(S5).The screen display processing unit 122 is a fragment image of each face element along with the 2D face image on the
화면 표시 처리부(122)에 의해 위치 정합용 화면이 표시부(180)에 표시되면 사용자는 키입력부(170)를 이용하여, 각 얼굴 요소의 조각 이미지들이 2차원 얼굴 영상의 얼굴 윤곽과 일치되도록 재배치시킨다. 예를 들면, 키입력부(170)의 숫자키나 방향키를 눌러서 조정하고자 하는 얼굴 요소의 조각 이미지를 선택하고, 키입력부(170)의 숫자키 또는 방향키를 눌러서 선택된 조각 이미지를 원하는 지점으로 이동시킨다.When the screen for processing the position registration is displayed on the
얼굴 정보 획득부(123)는 위치 정합 작업이 완료된 상태에서 키입력부(170)를 통해 사용자의 확인 신호가 입력되면 2차원 얼굴 영상의 얼굴 형태 정보를 메모리(110)에 저장한다(S6).When the user's confirmation signal is input through the
얼굴 정보 획득부(123)에 의해 얼굴 형태 정보가 획득되어 메모리(110)에 저장되면 모델 선정부(124)는 메모리(110)에 저장되어 있는 3차원 얼굴 모델들 중에서 얼굴 정보 획득부(123)에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정한다(S7).When face shape information is acquired by the face information acquirer 123 and stored in the
모델 선정부(124)에 의해 3차원 얼굴 모델이 선정되면, 캐릭터 생성부(125)는 모델 선정부(124)에 의해 선정된 3차원 얼굴 모델에 얼굴 정보 획득부(123)에 의해 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성한다(S8).When the 3D face model is selected by the
캐릭터 생성부(125)에 의해 3차원 개인 캐릭터가 생성되면 표정 처리부(126)의 표정 제어점 선정부(126a)는 표정 제어점을 선정한다(S9).When the three-dimensional personal character is generated by the
표정 선택 처리부(126b)는 3차원 개인 캐릭터에 설정할 표정의 종류를 선택한다(S10).The expression
산출부(126c)는 모델 선정부(124)에 의해 선정된 3 차원 얼굴 모델의 법선 벡터와 표정 선택 처리부(125b)에 의해 선택된 종류의 표정을 설정하기 위해 지정 된 종류의 근육 벡터들의 법선 벡터의 연산을 통해 해당 표정에 해당하는 근육벡터에 대한 모션 벡터의 크기와 방향을 산출하여 표정 제어점의 변환값을 산출하여 메모리(110)에 저장한다(S11).The calculating unit 126c is configured to determine the normal vector of the three-dimensional face model selected by the
표정 선택 처리부(126b)는 설정할 표정이 더 있는지 판단하여(S12) 더 있는 경우 산출부(126c)는 각각의 표정에 대하여 표정 제어점의 변환값을 산출하여 메모리(110)에 저장하도록 한다.The facial expression
도 8은 도 1에 도시된 본 발명의 일실시예에 따른 이동 통신 단말기에서 3차원 개인 캐릭터에 표정을 생성하여 표시하는 동작 흐름도이다.FIG. 8 is a flowchart illustrating an operation of generating and displaying an expression on a 3D personal character in a mobile communication terminal according to an embodiment of the present invention shown in FIG. 1.
도 8을 참조하면 표정 선택 처리부(126b)는 이동 통신 단말기에서 제공하는 3차원 캐릭터 서비스를 수행함에 따라 화면에 표시할 3차원 개인 캐릭터에 대하여 설정할 표정의 종류를 선택한다(S21).Referring to FIG. 8, the facial
표정 선택 처리부(126b)에 의해 표정이 선택되면 표정 생성부(126d)는 선택된 종류의 표정에 해당하는 표정 제어점의 변환값을 메모리(110)에서 읽어들여(S22) 3차원 개인 캐릭터에 적용하여 지정된 종류의 근육벡터 위치를 변화시켜서 해당 표정을 생성한다(S23).When the facial expression is selected by the facial
화면 표시 처리부(122)는 표정 생성부(126d)에 의해 생성된 표정을 가지는 3차원 개인 캐릭터를 표시부(180)의 화면에 표시한다(S24).The screen display processing unit 122 displays the three-dimensional personal character having the facial expression generated by the facial
본 발명은 바람직한 실시예를 참조하여 설명되었다. 그렇지만, 구체적으로 설명된 것과는 다른 많은 기타 실시예들이 또한 본 발명의 사상 및 범위 내에 들어간다는 것을 관련 분야의 당업자들은 이해할 것이다.The present invention has been described with reference to preferred embodiments. However, those skilled in the art will understand that many other embodiments other than those specifically described also fall within the spirit and scope of the invention.
예를 들어 도면에 도시되어 있지는 않지만 본 발명의 다른 실시예에 따른 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기는 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 저장하는 메모리와, 임의의 서비스 메뉴에 대한 실행이 요청되면 표정 제어점의 변환을 통해 해당 서비스 메뉴에 상응하는 종류의 표정을 메모리에 저장되어 있는 3차원 캐릭터에 설정하여 화면에 표시하는 제어부를 포함할 수 있다.For example, although not shown in the drawings, a mobile communication terminal equipped with a 3D personal character facial expression display function according to another embodiment of the present invention includes a memory for storing a 3D personal character to be displayed when the service menu is executed, and When the execution of the service menu is requested, the control unit may include a control unit for setting a three-dimensional character stored in the memory on the screen by setting the expression corresponding to the service menu through the transformation of the expression control point.
여기에서 제어부는 설정부와, 판단부와, 표정 처리부와, 화면 표시 처리부를 포함하도록 구성될 수 있다.The control unit may be configured to include a setting unit, a determination unit, an expression processing unit, and a screen display processing unit.
설정부는 서비스 메뉴별로 3차원 개인 캐릭터에 지정할 표정의 종류를 설정한다. The setting unit sets the type of expression to be assigned to the 3D personal character for each service menu.
여기에서 서비스 메뉴는, 이동 통신 단말기에서 제공되거나 제공될 수 있는 각종 서비스의 메뉴로서 예를 들면 사진 합성 서비스 메뉴, 전화번호부 서비스 메뉴, 화상 통화 서비스 메뉴, 소리 설정 서비스 메뉴, 색상 설정 서비스 메뉴, 이모티콘 서비스 메뉴, 고객 관리 서비스 메뉴들이 포함될 수 있다.Here, the service menu is a menu of various services that may be provided or provided in the mobile communication terminal, for example, a photo collage service menu, a phone book service menu, a video call service menu, a sound setting service menu, a color setting service menu, and an emoticon. Service menus, customer care service menus may be included.
판단부는 임의의 서비스 메뉴에 대한 실행이 요청되면 해당 서비스 메뉴에 상응하여 3차원 캐릭터에 설정할 표정의 종류를 판단한다. The determination unit determines the type of expression to be set for the 3D character according to the service menu when an execution of an arbitrary service menu is requested.
여기에서 표정의 종류는 본 발명의 일실시예에서 설명되었던 바와 같이 각 표정 생성을 위해 기능별로 지정된 종류의 근육벡터 위치를 변화에 의해 생성이 가능한 표정의 모든 종류가 포함된다.Here, the types of facial expressions include all kinds of facial expressions that can be generated by changing a position of a muscle vector of a type designated for each function for generating each facial expression as described in one embodiment of the present invention.
예를 들어 행복한 표정, 슬픈 표정, 분노, 허무, 냉소, 놀람 등의 사람들이 가질 수 있는 표정들이 포함될 수 있다.For example, it can include facial expressions that people can have, such as happy expressions, sad expressions, anger, vanity, cynicism, and surprise.
표정 처리부는 표정 제어점의 변환을 통해 3차원 개인 캐릭터에 판단된 종류의 표정을 설정한다. 표정 제어점의 변환을 통해 표정을 생성하는 것은 본 발명의 일실시예에서 충분히 설명되었다.The facial expression processor sets the facial expression of the type judged on the 3D personal character through the transformation of the facial expression control point. Generating the facial expression through the transformation of the facial expression control point has been described fully in one embodiment of the present invention.
화면 표시 처리부는 표정 처리부에 의해 설정된 표정을 가지는 제 3 차원 개인 캐릭터를 화면에 표시한다.The screen display processing unit displays the 3D personal character having the facial expression set by the expression processing unit on the screen.
제어부는 설정부와, 판단부와, 표정 처리부와, 화면 표시 처리부외에도 얼굴 정보 획득부와, 모델 선정부와, 캐릭터 생성부를 더 포함할 수 있다.The control unit may further include a face information acquisition unit, a model selection unit, and a character generation unit in addition to the setting unit, the determination unit, the expression processing unit, the screen display processing unit.
얼굴 정보 획득부는 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하며 본 발명의 일실시예에서 충분히 설명되었다.The face information acquisition unit acquires face shape information from a 2D face image and has been described fully in an embodiment of the present invention.
모델 선정부는 얼굴 정보 획득부에 의해 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하며 본 발명의 일실시예에서 충분히 설명되었다.The model selecting unit selects a 3D face model that is close to the face shape information obtained by the face information obtaining unit, and has been described in detail in one embodiment of the present invention.
캐릭터 생성부는 모델 설정부에 의해 선정된 3차원 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 생성하며 본 발명의 일실시예에서 충분히 설명되었다.The character generator generates a three-dimensional personal character to be displayed when the service menu is executed by mapping the face shape information acquired to the three-dimensional face model selected by the model setting unit, which has been fully described in an embodiment of the present invention.
이와 같이 구성된 3차원 개인 캐릭터 표정 표시 기능이 구비된 이동 통신 단말기는 3차원 개인 캐릭터 표정 표시 방법을 수행하기 위해 서비스 메뉴별로 3차원 개인 캐릭터에 지정할 표정의 종류를 설정하는 제 1 단계를 수행한다.The mobile communication terminal equipped with the 3D personal character expression display function configured as described above performs a first step of setting the type of expression to be assigned to the 3D personal character for each service menu in order to perform the 3D personal character expression display method.
제 1 단계가 실행된 상태에서 임의의 서비스 메뉴에 대한 실행이 요청되면 해당 서비스 메뉴에 상응하여 3차원 캐릭터에 설정할 표정의 종류를 판단하는 제 2 단계를 수행한다.When the execution of any service menu is requested while the first step is executed, the second step of determining the type of expression to be set for the 3D character according to the corresponding service menu is performed.
제 2 단계에 의해 설정할 표정의 종류가 판단되면 표정 제어점의 변환을 통해 3차원 개인 캐릭터에 판단된 종류의 표정을 설정하여 화면에 표시하는 제 3 단계를 수행한다.When the type of the facial expression to be set is determined by the second step, the third step of setting the facial expression of the determined type to the 3D personal character through the transformation of the facial expression control point is performed.
이때, 제 1 단계를 수행하기 전에 2차원 얼굴 영상으로부터 얼굴 형태 정보를 획득하고 획득된 얼굴 형태 정보에 근접한 3차원 얼굴 모델을 선정하는 단계와, 선정된 3차원 얼굴 모델에 상기 획득된 얼굴 형태 정보를 맵핑하여 서비스 메뉴의 실행시에 표시할 3차원 개인 캐릭터를 생성하는 단계를 더 포함하여 수행할 수 있다.In this case, before performing the first step, acquiring face shape information from the two-dimensional face image and selecting a three-dimensional face model close to the acquired face shape information, and obtaining the acquired face shape information on the selected three-dimensional face model. Mapping to generate a 3D personal character to be displayed when the service menu is executed.
여기에서, 표정 제어점은 상기 표정 제어점의 벡터 변환을 통해 임의의 표정을 생성하기 위해 상기 얼굴 형태 정보로부터 선정되는 적어도 하나 이상의 벡터 좌표로서, 본 발명의 일실시예에서 충분히 설명되었다.Here, the facial expression control point is at least one or more vector coordinates selected from the facial shape information to generate an arbitrary facial expression through the vector transformation of the facial expression control point, which has been fully described in an embodiment of the present invention.
상술한 바와 같이 본 발명의 다른 실시예에 따른 이동 통신 단말기에서는 이동 통신 단말기에서 제공되는 각종 사진 합성 서비스 메뉴, 전화번호부 서비스 메뉴, 화상 통화 서비스 메뉴, 소리 설정 서비스 메뉴, 색상 설정 서비스 메뉴, 이모티콘 서비스 메뉴, 고객 관리 서비스 메뉴를 실행할 때 사용자에게 친숙한 3차원 개인 캐릭터들이 연동되어 표시됨으로써 사용자는 좀더 흥미롭게 서비스를 수행할 수 있다.As described above, in the mobile communication terminal according to another embodiment of the present invention, various photo collage service menus, phone book service menus, video call service menus, sound setting service menus, color setting service menus, and emoticon services provided by the mobile communication terminals are provided. When the menu and the customer care service menu are executed, the user-friendly 3D personal characters are displayed in conjunction with each other, so that the user can perform the service more interestingly.
본 발명에 의하면, 이동 통신 단말기에서 개인 캐릭터를 생성함에 있어서 대상을 직접 촬영하여 촬영 영상으로부터 얼굴 형태 정보를 획득하고 그 획득된 얼굴 형태 정보로부터 획득된 얼굴 정보에 근접한 3차원 얼굴 모델을 선정하여 그 선정된 얼굴 모델에 획득된 얼굴 형태 정보를 맵핑하여 3차원 개인 캐릭터를 생성하고, 획득된 얼굴 형태 정보에서 표정 제어점을 선정하여 그 선정된 표정 제어점을 제어하여 3차원 개인 캐릭터의 표정을 다양하게 변경할 수 있다.According to the present invention, in generating a personal character in a mobile communication terminal, directly photographing an object to obtain face shape information from a captured image, and selecting a three-dimensional face model close to the face information obtained from the acquired face shape information. The 3D personal character is generated by mapping the acquired face shape information to the selected face model, selecting an expression control point from the acquired face shape information, and controlling the selected expression control point to variously change the expression of the 3D personal character. Can be.
이에 따라 2차원 얼굴 영상으로부터 개인의 특징이 잘 반영된 3차원 개인 캐릭터를 효과적으로 생성할 수 있고, 생성된 하나의 3차원 개인 캐릭터에 다양한 표정을 손쉽게 설정할 수 있음으로써 이동 통신 단말기 사용자에게 다양한 재미를 제공할 수 있다.Accordingly, it is possible to effectively generate a three-dimensional personal character that reflects personal characteristics well from the two-dimensional face image, and various expressions can be easily set to one generated three-dimensional personal character, thereby providing a variety of fun to the mobile terminal user. can do.
아울러, 다양한 3차원 개인 캐릭터의 다양한 표정 변화를 이동 통신 단말기에서 표시되는 각종 서비스 메뉴에 적용함으로써 사용자에게 좀더 친근한 유저 인터페이스를 제공할 수 있다.In addition, by applying various expression changes of various three-dimensional personal characters to various service menus displayed on the mobile communication terminal, a user-friendly user interface can be provided.
Claims (22)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060011619A KR100700872B1 (en) | 2006-02-07 | 2006-02-07 | Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060011619A KR100700872B1 (en) | 2006-02-07 | 2006-02-07 | Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR100700872B1 true KR100700872B1 (en) | 2007-03-29 |
Family
ID=41564986
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060011619A KR100700872B1 (en) | 2006-02-07 | 2006-02-07 | Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR100700872B1 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110020131A (en) * | 2009-08-21 | 2011-03-02 | 에스케이텔레콤 주식회사 | System and method for delivering feeling during video call |
WO2014178044A1 (en) | 2013-04-29 | 2014-11-06 | Ben Atar Shlomi | Method and system for providing personal emoticons |
WO2020036343A1 (en) * | 2018-08-17 | 2020-02-20 | Samsung Electronics Co., Ltd. | Electronic device and control method thereof |
KR102136311B1 (en) * | 2020-01-03 | 2020-07-21 | 주식회사 젤리펀치 | System for interactive information through smart mirror |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010003975A (en) * | 1999-06-23 | 2001-01-15 | 강병무 | Method for printing of character image which is converted from the facial image in sticker photo printing device |
KR20030042403A (en) * | 2001-11-22 | 2003-05-28 | 조윤석 | Facial character manufacturing method by fitting facial edgeline |
-
2006
- 2006-02-07 KR KR1020060011619A patent/KR100700872B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20010003975A (en) * | 1999-06-23 | 2001-01-15 | 강병무 | Method for printing of character image which is converted from the facial image in sticker photo printing device |
KR20030042403A (en) * | 2001-11-22 | 2003-05-28 | 조윤석 | Facial character manufacturing method by fitting facial edgeline |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20110020131A (en) * | 2009-08-21 | 2011-03-02 | 에스케이텔레콤 주식회사 | System and method for delivering feeling during video call |
WO2014178044A1 (en) | 2013-04-29 | 2014-11-06 | Ben Atar Shlomi | Method and system for providing personal emoticons |
JP2016528571A (en) * | 2013-04-29 | 2016-09-15 | アタール、シュロミ ベン | Method and system for providing personal emotion icons |
WO2020036343A1 (en) * | 2018-08-17 | 2020-02-20 | Samsung Electronics Co., Ltd. | Electronic device and control method thereof |
US10986265B2 (en) | 2018-08-17 | 2021-04-20 | Samsung Electronics Co., Ltd. | Electronic device and control method thereof |
KR102136311B1 (en) * | 2020-01-03 | 2020-07-21 | 주식회사 젤리펀치 | System for interactive information through smart mirror |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6785282B2 (en) | Live broadcasting method and equipment by avatar | |
CN109584151B (en) | Face beautifying method, device, terminal and storage medium | |
KR100912877B1 (en) | A mobile communication terminal having a function of the creating 3d avata model and the method thereof | |
US7864198B2 (en) | Image processing method, image processing device and mobile communication terminal | |
EP2789373A1 (en) | Video game processing apparatus and video game processing program | |
CN110263617B (en) | Three-dimensional face model obtaining method and device | |
KR100700872B1 (en) | Method for displaying 3 dimension private character image of mobile terminal and the mobile terminal thereof | |
CN112634416A (en) | Method and device for generating virtual image model, electronic equipment and storage medium | |
CN111539882A (en) | Interactive method for assisting makeup, terminal and computer storage medium | |
KR20070086774A (en) | Image composition device | |
CN112581571A (en) | Control method and device of virtual image model, electronic equipment and storage medium | |
US8290299B2 (en) | Object outputting method and information processing apparatus | |
CN108933891B (en) | Photographing method, terminal and system | |
KR20050082559A (en) | Dance learning system, internet community service system and internet community service method using the same, dance learning method, and computer executable recording media on which programs implement said methods are recorded | |
JP2020064426A (en) | Communication system and program | |
JP2005092284A (en) | Pickup image synthesizer and pickup image synthesizing program | |
KR20070006337A (en) | Method for editing image in wireless terminal | |
KR100608840B1 (en) | Method for synthesis of 3d avata model of handset | |
KR100659901B1 (en) | Method for controlling the motion of avatar on mobile terminal and the mobile thereof | |
KR100673608B1 (en) | Apparatus for generating an avatar and mobile communication terminal capable of generating an avatar | |
WO2018179523A1 (en) | Electronic device and program | |
JP2019133276A (en) | Image processing system and terminal | |
KR100643415B1 (en) | 3d avatar messenger system based on mobile device | |
KR101068941B1 (en) | Method for private character service at a mobile terminal and the mobile terminal thereof | |
JP6582157B1 (en) | Audio processing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20130226 Year of fee payment: 7 |
|
FPAY | Annual fee payment |
Payment date: 20140224 Year of fee payment: 8 |
|
FPAY | Annual fee payment |
Payment date: 20150224 Year of fee payment: 9 |
|
FPAY | Annual fee payment |
Payment date: 20160224 Year of fee payment: 10 |
|
FPAY | Annual fee payment |
Payment date: 20170224 Year of fee payment: 11 |
|
FPAY | Annual fee payment |
Payment date: 20180223 Year of fee payment: 12 |
|
FPAY | Annual fee payment |
Payment date: 20200224 Year of fee payment: 14 |