KR20090051851A - Mobile communication terminal for outputting voice received text message to voice using avatar and method thereof - Google Patents

Mobile communication terminal for outputting voice received text message to voice using avatar and method thereof Download PDF

Info

Publication number
KR20090051851A
KR20090051851A KR1020070118274A KR20070118274A KR20090051851A KR 20090051851 A KR20090051851 A KR 20090051851A KR 1020070118274 A KR1020070118274 A KR 1020070118274A KR 20070118274 A KR20070118274 A KR 20070118274A KR 20090051851 A KR20090051851 A KR 20090051851A
Authority
KR
South Korea
Prior art keywords
avatar
voice
text message
communication terminal
mobile communication
Prior art date
Application number
KR1020070118274A
Other languages
Korean (ko)
Other versions
KR100902861B1 (en
Inventor
양영규
최재영
Original Assignee
경원대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 경원대학교 산학협력단 filed Critical 경원대학교 산학협력단
Priority to KR1020070118274A priority Critical patent/KR100902861B1/en
Publication of KR20090051851A publication Critical patent/KR20090051851A/en
Application granted granted Critical
Publication of KR100902861B1 publication Critical patent/KR100902861B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. short messaging services [SMS] or e-mails
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/40Electronic components, circuits, software, systems or apparatus used in telephone systems using speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Processing Or Creating Images (AREA)
  • Telephone Function (AREA)

Abstract

본 발명은 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기 및 그 제어방법에 관한 것으로서, 더욱 상세하게는 이동통신단말기에 수신된 문자메시지의 문자를 음성으로 변환하고 변환된 음성에 적합하게 아바타의 입모양을 변화시키는 특징점의 이동을 통하여 립싱크하고 상기 립싱크에 적합한 음성이 출력되도록 한 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기 및 그 제어방법에 관한 것이다.The present invention relates to a mobile communication terminal and a control method for outputting a received text message as a voice by an avatar. The present invention relates to a mobile communication terminal for lip-syncing by moving a feature point that changes the mouth shape of an avatar and outputting a received text message as a voice by the avatar, so that a voice suitable for the lip-sync is output.

따라서, 본 발명은 아바타의 입모양을 변화시키는 특징점을 이용하기 때문에 아바타의 립싱크가 매우 자연스럽게 표시되고 상기 립싱크에 적합한 음성이 출력됨에 따라 이동통신단말기 상에서 문자기록이 힘든 사람도 쉽게 문자메시지의 정보를 습득할 수 있는 효과가 있다.Therefore, the present invention uses a feature point that changes the shape of the avatar's mouth, so that the avatar's lip sync is displayed very naturally and a voice suitable for the lip sync is output, so that a person who has difficulty in recording text on the mobile communication terminal can easily receive information on the text message. There is an effect that can be learned.

문자메시지, 아바타, 음성, 이동통신단말기, 입모양, 립싱크 Text message, Avatar, Voice, Mobile terminal, Mouth shape, Lip sync

Description

수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기 및 그 제어방법 { Mobile communication terminal for outputting voice received text message to voice using avatar and Method thereof }Mobile communication terminal for outputting received text message by avatar and its control method {Mobile communication terminal for outputting voice received text message to voice using avatar and Method

본 발명은 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기 및 그 제어방법에 관한 것으로서, 더욱 상세하게는 이동통신단말기에 수신된 문자메시지의 문자를 음성으로 변환하고 변환된 음성에 적합하게 아바타의 입모양을 변화시키는 특징점의 이동을 통하여 립싱크하고 상기 립싱크에 적합한 음성이 출력되도록 한 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기 및 그 제어방법에 관한 것이다.The present invention relates to a mobile communication terminal and a control method for outputting a received text message as a voice by an avatar. The present invention relates to a mobile communication terminal for lip-syncing by moving a feature point that changes the mouth shape of an avatar and outputting a received text message as a voice by the avatar, so that a voice suitable for the lip-sync is output.

종래의 기술로서, 대한민국 공개특허공보 제 10-2003-0039019 호인 “문장 텍스트를 스피치로 실시간 변환하면서 3차원적으로 스캔한 실제 얼굴 이미지에 음성 샘플링된 목소리를 적용하여 립싱크 및 감정표현을 구현하는 컴퓨터 프로그램이 저장기록매체와, 이를 이용한 온라인 게임, 이메일, 채팅, 방송 및 외국어 학습방 법”은 모든 문자에 대하여 문자별로 일대일로 대응하여 해당 음성 데이터를 T2S 데이터베이스로 저장하는 제 1 단계와, 미리 정해진 감정표현을 나타내는 기능문자에 일대일로 대응하여 해당 감정표현시 영상 데이터의 주요 요소인 위치, 크기, 각도를 변형할 공식을 감정표현 데이터베이스로 저장하는 제 2 단계와, 미리 정해진 모음에 대하여 립싱크시 입 모양의 위치, 크기, 각도를 변형할 공식을 립싱크 데이터베이스로 저장하는 제 3 단계와, 회원의 입체적 영상을 획득하여 저장하고, 회원의 음성을 샘플링하여 획득하여 기본 데이터베이스로 저장하는 제 4 단계와, 상기 영상 데이터에 있어서 감정표현의 특성을 결정하는 위치, 크기, 각도 등의 주요 요소를 추출하여 저장하고, 상기 음성데이터에 있어서 음성의 특성을 결정하는 주파수, 거칠기, 음색 등의 주요 요소를 미리 정해진 기준치와 비교하여 증감분을 결정하여 기본 데이터베이스로 저장하는 제 5 단계와, 음성출력 및 감정표현을 위한 텍스트를 저장하는 제 6 단계와, 상기 텍스트를 메모리에 로드하여 첫 문자를 획득하여 기능문자 인지 여부를 판단하고 상기 문자가 기능문자이면 얼굴 이미지에 감정을 표현하기 위한 감정표현 프로그램으로 분기하고 기능문자가 아니면 텍스트를 스피치로 변환하기 위한 T2S 프로그램 및 얼굴 이미지에 현재 발음되는 모음과 동일한 입모양을 표현하기 위한 립싱크 프로그램을 구동하는 제 7 단계와, 텍스트의 끝까지 상기 제 7 단계를 반복하도록 구성된 기술이 있었다.As a conventional technology, Korean Patent Application Publication No. 10-2003-0039019 discloses a computer that implements lip sync and emotion expression by applying a voice sampled voice to a three-dimensionally scanned real face image while converting sentence text into speech in real time. The program stores the recording media, and online games, e-mails, chats, broadcasts, and foreign language learning methods using the first step of corresponding one-to-one correspondence for every character and storing the voice data in the T2S database, and predetermined emotions. A second step of storing a formula for transforming the position, size, and angle, which are the main elements of the image data when expressing the emotion, in a emotion expression database in a one-to-one correspondence with function characters representing the expression; A third to store the formula to transform the position, size, and angle of the lip-sync database And a fourth step of acquiring and storing the stereoscopic image of the member, sampling and acquiring the member's voice, and storing the same in a basic database; A fifth step of extracting and storing a main element, and comparing the main elements, such as frequency, roughness, and tone, which determine the characteristics of the voice in the voice data with a predetermined reference value, to determine an increment or decrement, and to store it as a basic database; A sixth step of storing text for output and expression of emotion; and loading the text into a memory to obtain the first character to determine whether it is a functional character, and if the character is a functional character, expressing emotion in a face image. T2S programs for branching to programs and converting text to speech if they are not function characters; and There was a seventh step of driving a lip sync program for expressing the same mouth shape as the vowel currently pronounced on the face image, and a technique configured to repeat the seventh step until the end of the text.

상기 종래의 기술은, 얼굴 이미지에 현재 발음되는 모음과 동일한 입모양을 표현하기 위한 립싱크 프로그램이 얼굴 이미지에 적합한 입모양 데이터를 지속적으로 추출하여 표시하기 때문에 입모양 변화시 끊김현상이 부자연스럽게 표시되는 문 제점이 있었다.In the conventional technology, since the lip-sync program for expressing the same mouth shape as the vowel currently pronounced on the face image continuously extracts and displays the mouth shape data suitable for the face image, the disconnection phenomenon is unnaturally displayed when the mouth shape is changed. There was a problem.

본 발명은 상술한 문제점을 해결하기 위하여 안출된 것으로서, 본 발명은 이동통신단말기에 수신된 문자메시지를 음성으로 변환하고 변환된 음성에 적합하게 아바타의 입모양을 변화시키는 특징점의 이동을 통하여 자연스럽게 립싱크하는데 그 목적이 있다.The present invention has been made to solve the above-described problem, the present invention converts the text message received in the mobile communication terminal to the voice and naturally the lip sync through the movement of the feature point to change the shape of the avatar to suit the converted voice Its purpose is to.

다른 목적은 입모양을 변화시키는 특징점을 이용하여 아바타의 입모양 변화를 자연스럽게 변화시키는데 그 목적이 있다.Another purpose is to naturally change the shape of the avatar's mouth by using feature points that change the shape of the mouth.

또 다른 목적은 이모티콘의 의미와 적합한 아바타의 얼굴 표정이 이동통신단말기에 표시되도록 하는데 그 목적이 있다.Another purpose is to display the meaning of emoticons and facial expressions of a suitable avatar on a mobile communication terminal.

상기 목적을 달성하기 위한 본 발명의 일실시예에 따르면, 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기는 문자메시지가 음성으로 출력되는 이동통신단말기에 있어서, 상기 문자메시지를 수신하는 문자메시지 수신부와, 상기 수신된 문자메시지를 음성으로 변환하는 음성 변환부와, 상기 변환된 음성을 각 음운의 형태에 맞게 각각의 독립음소별로 분석하는 음운 분석부와, 상기 독립음소별로 특징점을 갖는 립싱크 데이터를 음운별로 저장된 제 1 저장부와, 상기 독립음소별로 음성 데이터가 저장된 제 2 저장부와, 상기 각각의 독립음소별에 따라 상기 립싱크 데이터를 수신하여 상기 수신된 립싱크 데이터의 특징점 위치를 이동시켜서 아바타의 입모양을 변화시킴과 동시에 상기 독립음소별 음성이 출력되도록 하는 제어부, 및 상기 아바타의 입모양의 변화가 표시되는 표시부로 이루어진 것을 특징으로 한다. According to an embodiment of the present invention for achieving the above object, a mobile communication terminal for outputting a received text message to the voice by the avatar is a mobile communication terminal that outputs the text message as a voice, to receive the text message A text message receiver, a voice converter for converting the received text message into a voice, a phonological analyzer for analyzing each converted phoneme according to the shape of each phoneme, and a feature point for each independent phoneme A first storage unit storing lip sync data for each phoneme, a second storage unit for storing voice data for each independent phoneme, and receiving the lip sync data according to each independent phoneme to move a feature point position of the received lip sync data To change the shape of the avatar's mouth and to output the voices of the independent phonemes And a display unit for displaying a change in mouth shape of the avatar.

본 발명의 다른 일실시예에 따르면, 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기의 제어방법은 이동통신단말기가 문자메시지를 수신하는 단계와, 상기 수신된 문자메시지를 음성으로 변환하는 단계와, 상기 변환된 음성을 각 음운의 형태에 맞게 각각의 독립음소별로 분석하는 단계와, 상기 독립음소 각각에 적합한 아바타의 입모양을 변화시키는 특징점이 포함된 립싱크 데이터가 이동통신단말기에 저장되어 상기 립싱크 데이터의 특징점의 위치를 변화시켜서 아바타의 입모양이 변화되는 단계, 및 상기 추출된 립싱크 데이터의 특징점의 위치 이동에 따라 변화되는 아바타의 입모양을 표시하고 상기 립싱크 데이터에 적합한 음성으로 출력하는 단계로 이루어진 것을 특징으로 한다.According to another embodiment of the present invention, a control method of a mobile communication terminal for outputting a received text message by voice by an avatar includes the steps of the mobile communication terminal receiving a text message and converting the received text message into a voice. Analyzing the converted voice for each independent phoneme according to the shape of each phoneme, and storing lip-sync data including a feature point for changing the mouth shape of the avatar suitable for each independent phoneme. Changing the position of the feature points of the lip sync data to change the shape of the avatar's mouth, and displaying the mouth shape of the avatar changed according to the positional movement of the feature points of the extracted lip sync data, and outputting a voice suitable for the lip sync data. Characterized in that consisting of steps.

본 발명은 아바타의 입모양을 변화시키는 특징점을 이용하기 때문에 아바타의 립싱크가 매우 자연스럽게 표시되고 상기 립싱크에 적합한 음성이 출력됨에 따라 이동통신 단말기 상에서 문자 가독이 힘든 사람도 쉽게 문자메시지의 정보를 습득할 수 있는 효과가 있다.According to the present invention, since the lip sync of the avatar is displayed very naturally and a voice suitable for the lip sync is output, the person who has difficulty in reading text can easily acquire the information of the text message. It can be effective.

이하 본 발명의 최적 실시예에 대하여 첨부된 도면을 참고로 그 구성 및 작용을 설명한다.Best Mode for Carrying Out the Invention Hereinafter, configurations and operations will be described with reference to the accompanying drawings.

도 1은 본 발명에 따른 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기의 개념도로서, 상기 이동통신단말기(10)는 기지국(20)을 통하여 문자메시지를 전송할 수 있는 단말기(30)에 의하여 전송된 문자메시지를 TTS(Text-To-Speech) 기술을 이용하여 음성으로 변환하고 변화된 음성을 음운 분석을 통하여 음소들을 각 음운의 형태에 맞는 독립음소로 구분하여 각 독립음소별로 정해진 특징점을 갖는 립싱크 데이터를 추출하여 상기 특징점의 위치를 변화시켜 아바타가 립싱크하도록 한다.1 is a conceptual diagram of a mobile communication terminal for outputting a received text message as a voice by an avatar according to the present invention, wherein the mobile communication terminal 10 can transmit a text message through a base station 20. The text message transmitted by using the TTS (Text-To-Speech) technology is converted into speech and the changed speech is divided into independent phonemes suitable for each phoneme type through phonological analysis. The lip sync data is extracted to change the position of the feature point so that the avatar lip syncs.

도 2는 본 발명에 따른 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기 구성도로서, 상기 이동통신단말기는 문자메시지 수신부(100)와 음성 변환부(200)와 음운 분석부(300)와 제 1 저장부(400)와 제 2 저장부(500)와 제어부(600) 및 표시부(700)로 이루어진다.2 is a configuration diagram of a mobile communication terminal for outputting a received text message by voice according to the present invention. ), The first storage unit 400, the second storage unit 500, the control unit 600, and the display unit 700.

더욱이, 상기 문자메시지 수신부(100)와 음성 변환부(200)와 음운 분석부(300)와 제 1 저장부(400)와 제 2 저장부(500)와 제어부(600) 및 표시부(700)에 이모티콘에 적합한 얼굴 표정이 상기 제어부(600)에 의하여 표시부(700)에 표시되도록 하는 아바타의 표정데이터가 저장된 제 3 저장부(800)가 더 포함되어 구성된다.Furthermore, the text message receiver 100, the voice converter 200, the phonological analyzer 300, the first storage unit 400, the second storage unit 500, the control unit 600, and the display unit 700. The third storage unit 800 is further configured to store the facial expression data of the avatar so that the facial expression suitable for the emoticon is displayed on the display unit 700 by the controller 600.

보다 상세하게, 상기 문자메시지 수신부(100)는 문자메시지를 전송할 수 있는 다양한 단말기로부터 상기 문자메시지를 수신한다.In more detail, the text message receiving unit 100 receives the text message from various terminals capable of transmitting the text message.

상기 음성 변환부(200)는 문자메시지 수신부(100)에 수신된 문자메시지를 음성으로 변환하는 것으로서, TTS(Text To Speech)와 같은 공지된 기술이 대표적이다.The voice converter 200 converts a text message received by the text message receiver 100 into voice, and a known technology such as TTS (Text To Speech) is representative.

특히, TTS 기술에 의해서 음성으로 변환하지 못하는 문자메시지에 포함된 이모티콘이 기록된 경우에는 상기 이모티콘을 제어부(600)로 전송한다.In particular, when an emoticon included in a text message that cannot be converted into a voice by TTS technology is recorded, the emoticon is transmitted to the controller 600.

상기 음운 분석부(300)는 상기 음성 변환부(200)에 의해서 변환된 음성을 음운 분석을 통하여 분해한 후에 각 음운의 형태에 맞는 다수의 독립음소로 분석하고 상기 분석된 다수의 독립음소는 제어부(600)로 전송된다.The phonological analyzer 300 decomposes the voice converted by the voice converter 200 through phonological analysis and analyzes the plural independent phonemes for each phonological form. 600 is sent.

상기 제 1 저장부(400)는 얼굴의 움직임을 더 이상 분석할 수 없는 가장 작은 단위인 46개의 표정 데이터가 얼굴 근육의 움직임과 이를 통하여 얼굴의 표정이 표현되는 데이터인 바, 상기와 같은 46개의 표정 데이터는 각각의 특징점을 구비하고 있고 상기 특징점은 도 3에 도시된 바와 같이 MPEG-4 SNHC(Synthetic/Natural Hybrid Coding) 규약에서 정의한 얼굴 정의 특징점(FDP : Facial Definition Parameter)와 얼굴 애니메이션 특징점(FAP : Facial Animation Parameter)를 사용함으로써, 일반적이고 체계적인 특징점을 구할 수 있으며, 도 3에 도시된 흰점은 얼굴 정의 특징점이고, 검은 점은 얼굴 애니메이션 특징점이며, 상기 얼굴 정의 특징점은 애니메이션 특징점을 포함한다.The first storage unit 400 is 46 expression data, the smallest unit that can no longer analyze the movement of the face is the data of the facial muscle movement and the expression of the facial bar through the 46 bar as described above The facial expression data has respective feature points, and the feature points include a facial definition parameter (FDP) and a facial animation feature point (FAP) defined by the MPEG-4 Synthetic / Natural Hybrid Coding (SNHC) protocol as shown in FIG. 3. By using the Facial Animation Parameter, a general and systematic feature point can be obtained, wherein a white point shown in FIG. 3 is a face definition feature point, a black point is a face animation feature point, and the face definition feature point includes an animation feature point.

따라서, 상기와 같은 특징점을 갖는 립싱크 데이터를 음운별로 구축하여 저장하고 제어부(600)에 의하여 음운 분석부(300)에서 분석된 독립음소가 요청되면 요청된 독립음소에 적합한 립싱크 데이터를 추출하여 제어부(500)에 전송한다.Therefore, when the independent phoneme analyzed by the phoneme analyzer 300 is requested by the controller 600, the lip synch data having the feature points as described above is constructed and stored for each phoneme. 500).

상기 제 2 저장부(500)는 상기 독립음소별로 음성데이터가 저장되고 저장된 음성 데이터는 제어부(600)에 의해서 립싱크 데이터와 함께 출력된다.The second storage unit 500 stores voice data for each of the independent phonemes, and the stored voice data are output together with the lip sync data by the controller 600.

상기 제어부(600)는 독립음소에 적합한 특징점을 갖는 아바타의 립싱크 데이터를 제 1 저장부(400)에 요청하여 수신하면 최초 기준치로 설정된 립싱크 데이터가 수신된 립싱크 데이터로 변환함에 있어서, 상기 립싱크 데이터에 포함된 특징점의 위치를 이동시켜서 아바타의 입모양을 변화시킨다.The control unit 600 converts the lip sync data set as an initial reference value into the received lip sync data when the lip sync data of an avatar having a feature point suitable for independent phone calls is received from the first storage unit 400. The avatar's mouth is changed by moving the position of the included feature point.

이와 같이 각각의 독립음소에 대하여 제어부(600)에서 제 1 저장부(400)에 요청 수신을 반복함에 따라 아바타가 문자메시지에 적합한 립싱크를 수행하고 상기 립싱크에 적합한 음성 데이터를 추출하여 표시부(700)에 표시되도록 한다.As described above, as the controller 600 repeatedly receives the request from the first storage unit 400 for each independent phoneme, the avatar performs a lip sync suitable for a text message, extracts voice data suitable for the lip sync, and displays the display 700. To be displayed.

예컨대, 제어부(600)는 기준치로 설정된 립싱크 데이터 즉, 도 4에 도시된 (a)와 같이 특징점의 위치 A, B가 ‘이’라는 음운을 립싱크하기 위한 립싱크 데이터를 제 1 저장부(400)로부터 수신하면 (b)와 같이 특징점 위치 A1, B1으로 이동하여 ‘이’라는 음운을 립싱크하게 된다. 따라서, 본 발명은 상기와 같은 특징점들의 위치를 이동시켜서 아바타의 입모양을 변화시킨다.For example, the control unit 600 stores the lip synch data set as a reference value, that is, the lip synch data for lip-syncing the phonogram that the positions A and B of the feature point are 'y', as shown in (a) of FIG. 4. When received from (b), it moves to the feature point positions A1 and B1 as shown in (b) and lip-syncs the phoneme of 'yi'. Therefore, the present invention changes the shape of the avatar by moving the positions of the feature points as described above.

상기한 과정을 반복 수행하게 되면 표시부(600)에 표시되는 아바타의 입모양이 매우 부자연스럽게 립싱크되기 때문에 모핑(morphing)기법이 동작되도록 하는 모핑 프로그램이 구비된다.If the above-described process is repeated, the morphing program is provided so that the morphing technique is operated since the mouth shape of the avatar displayed on the display unit 600 is lip-synced very unnaturally.

즉, 상기 모핑 프로그램은 특징점 A가 A1로의 위치로 한번에 이동하지 않고 2개의 이미지를 적절히 연결시켜서 변환하는 것으로 도 5에 도시된 바와 같이 A1-1, A1-2, A1-3의 이동과정을 거쳐서 최종적으로 A1에 위치하도록 하는 것이다.In other words, the morphing program converts two images by properly connecting two images without moving to the position of A1 at a time. As shown in FIG. 5, the morphing program moves through A1-1, A1-2, and A1-3. Finally, it is located at A1.

또한, 상기 제어부(500)는 상기 음성변환부(200)에서 음성으로 변환되지 않는 문자메시지의 이모티콘을 분석하여 해당 이모티콘에 적합한 얼굴표정으로 립싱크가 되도록 제 3 저장부(800)로부터 해당 얼굴표정을 요청하고, 상기 요청된 얼굴표정이 표시부(700)에 표시되도록 한다.In addition, the control unit 500 analyzes the emoticons of the text messages that are not converted into voices by the voice conversion unit 200 and applies the corresponding facial expressions from the third storage unit 800 to lip sync with the facial expressions suitable for the emoticons. And the requested facial expression is displayed on the display unit 700.

예컨대, 도 6에 도시된 이모티콘 이외에 다양한 이모티콘인 즐거운 의미를 갖는 기호(예로써 : ^, *, 0, ∇, ☞, ☜, ♡ 등의 기호)에 대하여 빈도수가 많은 경우에는 아바타의 얼굴을 웃는 모습이 되도록 제어하고, 또한 우는 의미를 갖는 기호(예로써 : >, <, T, ㅠ 등의 기호)에 대하여 빈도수가 많은 경우에는 아바타의 얼굴을 우는 모습이 되도록 제어하며, 아울러 슬픈 의미를 갖는 기호(예로써 : -, _, M, X 등의 기호)에 대하여 빈도수가 많은 경우에는 아바타의 얼굴을 슬픈 모습이 되도록 제어한다.For example, in the case where the frequency of the symbols having fun meanings (e.g., ^, *, 0, ∇, ☞, ☜, ♡, etc.) which are various emoticons other than the emoticons shown in FIG. If the frequency is high for the symbol having a crying meaning (for example, a symbol such as>, <, T, ㅠ, etc.), the avatar's face is crying. If the frequency of the symbols (for example,-, _, M, X, etc.) is high, the avatar's face is controlled to be sad.

상기 제 3 저장부(800)는 얼굴의 움직임을 더 이상 분석할 수 없는 가장 작은 단위인 46개의 표정 데이터가 저장되고 상기 표정 데이터 중에서 웃는 모습의 표정 데이터, 우는 모습의 표정 데이터, 슬픈 모습의 표정 데이터만을 이용하여 제어부(600)로부터 이모티콘에 적합한 상기 웃는 모습의 표정 데이터, 우는 모습의 표정 데이터, 슬픈 모습의 표정 데이터 중 어느 하나를 표시부(700)에 표시되도록 한다.The third storage unit 800 stores 46 facial expression data, which is the smallest unit that can no longer analyze facial movements, and among the facial expression data, smiley expression data, crying expression data, sad expression Using only the data, the control unit 600 displays any one of the smiley facial expression data, the crying facial expression data, and the sad facial expression data suitable for the emoticon on the display unit 700.

상기 표시부(700)는 제어부(600)에 의하여 전송된 아바타의 립싱크 데이터가 표시되고 상기 웃는 모습의 표정 데이터, 우는 모습의 표정 데이터, 슬픈 모습의 표정데이터 중 어느 하나가 표시되며, 상기 표시부(700)에 음성출력부(710)를 더 구비하여 립싱크 데이터에 적합한 음성이 출력된다.The display unit 700 displays the lip sync data of the avatar transmitted by the controller 600, and displays any one of the smiling facial expression data, the crying facial expression data, and the sad facial expression data. ) Is further provided with a voice output unit 710 to output a voice suitable for lip synch data.

도 7은 본 발명에 따른 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기의 제어방법 흐름도로서, 상기 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기의 제어방법은 다음과 같은 단계로 이루어진다.7 is a flowchart illustrating a method for controlling a mobile communication terminal for outputting a received text message by voice according to an embodiment of the present invention. The same steps take place.

이동통신단말기가 문자메시지를 수신하는 단계(S10)와, 상기 수신된 문자메시지를 음성으로 변환하는 단계(S20)와, 상기 변환된 음성을 각 음운의 형태에 맞게 각각의 독립음소별로 분석하는 단계(S30)와, 상기 독립음소 각각에 적합한 아바타의 입모양을 변화시키는 특징점이 포함된 립싱크 데이터가 이동통신단말기에 저장되어 상기 립싱크 데이터의 특징점의 위치를 이동시켜서 아바타의 입모양이 변화되는 단계(S40)와, 상기 추출된 립싱크 데이터의 특징점의 위치 이동에 따라 변화되는 아바타의 입모양을 표시하고 상기 립싱크 데이터에 적합한 음성을 출력하는 단계(S50)로 이루어진다.Receiving, by the mobile communication terminal, a text message (S10), converting the received text message into a voice (S20), and analyzing the converted voice for each phoneme according to each phoneme type. (S30) and the lip sync data including a feature point for changing the mouth shape of the avatar suitable for each of the independent phoneme is stored in the mobile communication terminal to change the position of the feature point of the lip sync data to change the mouth shape of the avatar ( S40), and displaying the mouth shape of the avatar changed according to the positional movement of the feature point of the extracted lip sync data and outputting a voice suitable for the lip sync data (S50).

더욱 상세하게, 상기 이동통신단말기가 문자메시지를 수신하는 단계(S10)는, 문자메시지를 전송할 수 있는 다양한 단말기로부터 상기 문자메시지를 수신한다.In more detail, in the step S10 of receiving a text message, the mobile communication terminal receives the text message from various terminals capable of transmitting the text message.

상기 수신된 문자메시지를 음성으로 변환하는 단계(S20)는, S10단계에서 수신된 문자메시지를 TTS와 같은 공지된 기술에 의하여 음성으로 변환한다.In the step S20 of converting the received text message into speech, the text message received in step S10 is converted into speech by a known technique such as TTS.

상기 변환된 음성을 각 음운의 형태에 맞게 각각의 독립음소별로 분석하는 단계(S30)는, S20단계에서 변환된 음성을 이동통신단말기에 표시되는 아바타가 상기 음성에 적합하게 립싱크 되도록 상기 음성을 독립음소별로 분석한다.In step S30, the converted voice is analyzed according to each phoneme according to the form of each phoneme. In operation S20, the voice is independent so that the avatar displayed on the mobile communication terminal lip-syncs to the voice. Analyze by phoneme.

상기 독립음소 각각에 적합한 아바타의 입모양을 변화시키는 특징점이 포함된 립싱크 데이터가 이동통신단말기에 저장되어 상기 립싱크 데이터의 특징점의 위치를 이동시켜서 아바타의 입모양이 변화되는 단계(S40)는, S30단계에서 분석된 독립음소 각각에 대하여 특징점을 갖는 아바타의 립싱크 데이터를 제 1 저장부(400)에 요청하여 수신하면, 최초 기준치로 설정된 립싱크 데이터가 수신된 립싱크 데이터로 변환함에 있어서, 상기 립싱크 데이터에 포함된 특징점의 위치를 이동시켜서 아바타의 입모양을 변화시킨다.Lip sync data including a feature point for changing the mouth shape of the avatar suitable for each of the independent phonemes is stored in the mobile communication terminal to change the position of the feature point of the lip sync data to change the mouth shape of the avatar (S40). Upon requesting and receiving lip sync data of an avatar having a feature point for each of the independent phonemes analyzed in step, the lip sync data set as an initial reference value is converted into the received lip sync data. The avatar's mouth is changed by moving the position of the included feature point.

문자메시지 전체에 대하여 상기와 같은 과정을 반복 수행하게 되면, 표시부(600)에 표시되는 아바타의 입모양이 매우 부자연스럽게 립싱크되기 때문에 모핑 프로그램에 의해서 자연스럽게 특징점이 이동한다.When the above process is repeated for the entire text message, the feature points are naturally moved by the morphing program since the mouth shape of the avatar displayed on the display unit 600 is very unnaturally lip-synced.

상기 추출된 립싱크 데이터의 특징점의 위치 변화에 따라 변화되는 아바타의 입모양을 표시하고 상기 립싱크 데이터에 적합한 음성을 출력하는 단계(S50)는, 제어부(600)에 의하여 전송된 아바타의 립싱크 데이터가 표시되고 상기 웃는 모습의 표정 데이터, 우는 모습의 표정 데이터, 슬픈 모습의 표정데이터 중 어느 하나가 표시되며, 상기 표시부(700)에 음성출력부(710)를 더 구비하여 립싱크 데이터에 적합한 음성이 출력된다.In step S50 of displaying the mouth shape of the avatar changed according to the positional change of the feature point of the extracted lip sync data and outputting a voice suitable for the lip sync data, the lip sync data of the avatar transmitted by the controller 600 is displayed. The facial expression data of the smiley face, crying facial expression data, sad expression data is displayed, and the display unit 700 further includes a voice output unit 710 to output a voice suitable for lip synch data. .

또한, 수신된 문자메시지에 이모티콘이 있는 경우에는 상기 이모티콘에 적합한 아바타의 얼굴 표정이 저장된 제 3 저장부(800)로부터 제어부(600)의 요청에 의하여 출력된 얼굴 표정이 표시부(700)에 나타난다.In addition, when the received text message has an emoticon, the facial expression output by the request of the controller 600 is displayed on the display unit 700 from the third storage unit 800 in which the facial expression of the avatar suitable for the emoticon is stored.

이상 설명한 본 발명의 아바타는 3차원 영상으로 프로그램된 아바타가 바람직하다.The avatar of the present invention described above is preferably an avatar programmed as a 3D image.

이상 도면과 상세한 설명에서 최적 실시예들이 개시되고, 이상에서 사용된 특정한 용어는 단지 본 발명을 설명하기 위한 목적에서 사용된 것일 뿐 의미 한정이나 특허청구범위에 기재된 본 발명의 범위를 제한하기 위하여 사용된 것이 아니다.Embodiments of the present invention are disclosed in the drawings and the detailed description, and the specific terms used above are used only for the purpose of describing the present invention, and are used to limit the scope of the present invention as defined in the meaning or claims. It is not.

그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하고, 본 발명의 진정한 기술적 보호 범위는 특허청구범위의 기술적 사상에 의해 정해져야 할 것이다.Therefore, those skilled in the art can be various modifications and other equivalent embodiments from this, and the true technical protection scope of the present invention should be determined by the technical spirit of the claims.

도 1은 본 발명에 따른 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기의 개념도1 is a conceptual diagram of a mobile communication terminal for outputting a received text message as a voice by an avatar according to the present invention;

도 2는 본 발명에 따른 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기 구성도2 is a block diagram of a mobile communication terminal for outputting a received text message by voice according to the present invention;

도 3은 본 발명에 따른 아바타 얼굴의 특징점 예시도3 is a diagram illustrating feature points of an avatar face according to the present invention.

도 4는 본 발명에 따른 립싱크 예시도Figure 4 is an exemplary lip sync in accordance with the present invention

도 5는 본 발명에 따른 모핑 프로그램에 의한 립싱크 예시도5 is an exemplary lip sync by morphing program according to the present invention

도 6은 본 발명에 따른 이모티콘 예시도6 is an exemplary emoticon according to the present invention

도 7은 본 발명에 따른 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기의 제어방법 흐름도7 is a flowchart illustrating a control method of a mobile communication terminal for outputting a received text message as a voice by an avatar according to the present invention.

< 도면의 주요부분에 대한 부호의 설명 ><Description of Symbols for Major Parts of Drawings>

10 : 이동통신단말기 20 : 기지국10: mobile communication terminal 20: base station

30 : 단말기 100 : 문자메시지 수신부30: terminal 100: text message receiving unit

200 : 음성 변환부 300 : 음운 분석부200: voice conversion unit 300: phonological analysis unit

400 : 제 1 저장부 500 : 제 2 저장부400: first storage unit 500: second storage unit

600 : 제어부 700 : 표시부600: control unit 700: display unit

710 : 음성출력부 800 : 제 3 저장부710: voice output unit 800: third storage unit

Claims (8)

문자메시지가 음성으로 출력되는 이동통신단말기에 있어서,In a mobile communication terminal that text messages are output as voice, 상기 문자메시지를 수신하는 문자메시지 수신부와;A text message receiving unit for receiving the text message; 상기 수신된 문자메시지를 음성으로 변환하는 음성 변환부와;A voice converter for converting the received text message into voice; 상기 변환된 음성을 각 음운의 형태에 맞게 각각의 독립음소별로 분석하는 음운 분석부와;A phonological analysis unit for analyzing the converted speech for each independent phoneme according to the form of each phonology; 상기 독립음소별로 특징점을 갖는 립싱크 데이터를 음운별로 저장된 제 1 저장부와;A first storage unit storing lip sync data having feature points for each independent phoneme for each phoneme; 상기 독립음소별로 음성 데이터가 저장된 제 2 저장부와;A second storage unit storing voice data for each independent phoneme; 상기 각각의 독립음소별에 따라 상기 립싱크 데이터를 수신하여 상기 수신된 립싱크 데이터의 특징점 위치를 이동시켜서 아바타의 입모양을 변화시킴과 동시에 상기 독립음소별 음성이 출력되도록 하는 제어부; 및A control unit for receiving the lip sync data according to each independent phoneme, changing a shape of an avatar by moving the position of a feature point of the received lip sync data, and simultaneously outputting the voice for each independent phoneme; And 상기 아바타의 입모양의 변화가 표시되는 표시부로 이루어진 것을 특징으로 하는 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기.And a display unit configured to display a change in the mouth shape of the avatar. 청구항 1에 있어서, The method according to claim 1, 상기 수신된 문자메시지에 이모티콘이 있는 경우에 상기 이모티콘에 적합한 아바타의 얼굴 표정이 제어부에 의하여 표시부에 나타나도록 아바타의 표정이 저장 된 제 3 저장부가 더 포함된 것을 특징으로 하는 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기.When the received text message has an emoticon, a third storage unit storing the facial expression of the avatar so that the facial expression of the avatar suitable for the emoticon is displayed on the display unit by the control unit. Mobile communication terminal to output voice by. 청구항 2에 있어서, 상기 제어부는,The method according to claim 2, The control unit, 상기 이모티콘의 총 개수 중에서 즐거운 의미를 갖는 기호에 대하여 빈도수가 많은 경우에는 아바타의 얼굴을 웃는 모습이 되도록 제어하고, 또한 우는 의미를 갖는 기호에 대하여 빈도수가 많은 경우에는 아바타의 얼굴을 우는 모습이 되도록 제어하며, 아울러 슬픈 의미를 갖는 기호에 대하여 빈도수가 많은 경우에는 아바타의 얼굴을 슬픈 모습이 되도록 제어하는 것을 특징으로 하는 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기.Among the total number of emoticons, if the number of symbols having a pleasant meaning is frequent, the avatar's face is controlled to be in a smiling state. Also, if the number of symbols has a high frequency, the avatar's face is crying. And controlling the mobile device to output the received text message as a voice by the avatar, when the frequency of the symbol having a sad meaning is high so that the face of the avatar is sad. 청구항 1 내지 청구항 3에 있어서, 상기 제어부는,The method according to claim 1 to 3, wherein the control unit, 상기 독립음소의 변화에 따라 아바타의 입모양이 변화되는 특징점의 위치를 부드럽게 이동시키는 모핑 프로그램이 구비된 것을 특징으로 하는 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기.And a morphing program for smoothly moving the position of the feature point where the mouth shape of the avatar changes according to the change of the independent phoneme. 청구항 4에 있어서, 상기 아바타는,The method according to claim 4, wherein the avatar, 3차원 영상으로 프로그램된 것을 특징으로 하는 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기.A mobile communication terminal for outputting a text message received by the avatar, characterized in that the three-dimensional image programmed. 청구항 2에 있어서, 상기 표시부는,The method of claim 2, wherein the display unit, 상기 립싱크 데이터에 적합한 독립음소의 음성이 출력되는 음성출력부가 구비된 것을 특징으로 하는 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기.And a voice output unit for outputting a voice of an independent phoneme suitable for the lip sync data. The mobile communication terminal outputs a received text message as a voice by an avatar. 이동통신단말기가 문자메시지를 수신하는 단계와;Receiving, by the mobile communication terminal, a text message; 상기 수신된 문자메시지를 음성으로 변환하는 단계와;Converting the received text message into voice; 상기 변환된 음성을 각 음운의 형태에 맞게 각각의 독립음소별로 분석하는 단계와;Analyzing the converted speech for each independent phoneme according to the form of each phoneme; 상기 독립음소 각각에 적합한 아바타의 입모양을 변화시키는 특징점이 포함된 립싱크 데이터가 이동통신단말기에 저장되어 상기 립싱크 데이터의 특징점의 위치를 변화시켜서 아바타의 입모양이 변화되는 단계; 및Lip-sync data including a feature point for changing the mouth shape of the avatar suitable for each of the independent phonemes is stored in the mobile communication terminal to change the position of the feature point of the lip-sync data to change the mouth shape of the avatar; And 상기 추출된 립싱크 데이터의 특징점의 위치 이동에 따라 변화되는 아바타의 입모양을 표시하고 상기 립싱크 데이터에 적합한 음성을 출력하는 단계로 이루어진 것을 특징으로 하는 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동 통신단말기의 제어방법.And displaying the mouth shape of the avatar that changes according to the positional movement of the feature point of the extracted lip sync data, and outputting a voice suitable for the lip sync data. Control method of communication terminal. 청구항 7에 있어서, 상기 추출된 립싱크 데이터의 특징점 이동에 따라 변화되는 아바타의 입모양을 표시하고 상기 립싱크 데이터에 적합한 음성이 출력하는 단계는,The method of claim 7, wherein displaying the mouth shape of the avatar changed according to the movement of the feature point of the extracted lip sync data and outputting a voice suitable for the lip sync data is performed. 상기 수신된 문자메시지에 이모티콘이 있는 경우에 상기 이모티콘에 적합한 아바타의 얼굴 표정이 출력되는 것을 특징으로 하는 수신된 문자메시지를 아바타에 의하여 음성으로 출력하는 이동통신단말기의 제어방법.And when the received text message has an emoticon, a facial expression of an avatar suitable for the emoticon is output by the avatar.
KR1020070118274A 2007-11-20 2007-11-20 Mobile communication terminal for outputting voice received text message to voice using avatar and Method thereof KR100902861B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070118274A KR100902861B1 (en) 2007-11-20 2007-11-20 Mobile communication terminal for outputting voice received text message to voice using avatar and Method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070118274A KR100902861B1 (en) 2007-11-20 2007-11-20 Mobile communication terminal for outputting voice received text message to voice using avatar and Method thereof

Publications (2)

Publication Number Publication Date
KR20090051851A true KR20090051851A (en) 2009-05-25
KR100902861B1 KR100902861B1 (en) 2009-06-16

Family

ID=40859776

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070118274A KR100902861B1 (en) 2007-11-20 2007-11-20 Mobile communication terminal for outputting voice received text message to voice using avatar and Method thereof

Country Status (1)

Country Link
KR (1) KR100902861B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101496515B1 (en) * 2012-07-03 2015-02-26 김인수 Emotional message service editor method
KR20180025121A (en) * 2016-08-30 2018-03-08 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for inputting information
KR102078209B1 (en) * 2019-07-05 2020-02-17 주식회사 데커드에이아이피 Avatar visual conversion apparatus expressing text message into V-moji and message conversion method
CN113539240A (en) * 2021-07-19 2021-10-22 北京沃东天骏信息技术有限公司 Animation generation method and device, electronic equipment and storage medium

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19990061920A (en) * 1997-12-31 1999-07-26 서평원 Voice output method and apparatus for text message
KR20020022504A (en) * 2000-09-20 2002-03-27 박종만 System and method for 3D animation authoring with motion control, facial animation, lip synchronizing and lip synchronized voice
KR100733772B1 (en) 2005-08-12 2007-07-02 주식회사 인프라밸리 Method and system for providing lip-sync service for mobile communication subscriber

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101496515B1 (en) * 2012-07-03 2015-02-26 김인수 Emotional message service editor method
KR20180025121A (en) * 2016-08-30 2018-03-08 베이징 바이두 넷컴 사이언스 앤 테크놀로지 코., 엘티디. Method and apparatus for inputting information
US10210865B2 (en) 2016-08-30 2019-02-19 Beijing Baidu Netcom Science And Technology Co., Ltd. Method and apparatus for inputting information
KR102078209B1 (en) * 2019-07-05 2020-02-17 주식회사 데커드에이아이피 Avatar visual conversion apparatus expressing text message into V-moji and message conversion method
WO2021006538A1 (en) * 2019-07-05 2021-01-14 주식회사 데커드에이아이피 Avatar visual transformation device expressing text message as v-moji and message transformation method
CN113539240A (en) * 2021-07-19 2021-10-22 北京沃东天骏信息技术有限公司 Animation generation method and device, electronic equipment and storage medium

Also Published As

Publication number Publication date
KR100902861B1 (en) 2009-06-16

Similar Documents

Publication Publication Date Title
CN110688911B (en) Video processing method, device, system, terminal equipment and storage medium
CN106653052B (en) Virtual human face animation generation method and device
Cosatto et al. Lifelike talking faces for interactive services
US7353177B2 (en) System and method of providing conversational visual prosody for talking heads
US7136818B1 (en) System and method of providing conversational visual prosody for talking heads
CN110400251A (en) Method for processing video frequency, device, terminal device and storage medium
CN103650002B (en) Text based video generates
EP2127341B1 (en) A communication network and devices for text to speech and text to facial animation conversion
US8224652B2 (en) Speech and text driven HMM-based body animation synthesis
US20120130717A1 (en) Real-time Animation for an Expressive Avatar
CN110286756A (en) Method for processing video frequency, device, system, terminal device and storage medium
US20020007276A1 (en) Virtual representatives for use as communications tools
US20030149569A1 (en) Character animation
WO2001046947A1 (en) Voice-controlled animation system
JP2014519082A5 (en)
KR20220097121A (en) Mouth shape synthesis device and method using random nulling artificial neural network
CN112668407A (en) Face key point generation method and device, storage medium and electronic equipment
KR101089184B1 (en) Method and system for providing a speech and expression of emotion in 3D charactor
KR100902861B1 (en) Mobile communication terminal for outputting voice received text message to voice using avatar and Method thereof
CN115617162A (en) Data processing method and device and electronic equipment
CN114898019A (en) Animation fusion method and device
KR100453500B1 (en) Method and apparatus for mail service using three-dimensional avatar
CN115171673A (en) Role portrait based communication auxiliary method and device and storage medium
CN114419174A (en) On-line handwritten text synthesis method, device and storage medium
JP2002215180A (en) Communication device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120413

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20130322

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee