KR20050118054A - Method for processing message using avatar in wireless phone - Google Patents

Method for processing message using avatar in wireless phone Download PDF

Info

Publication number
KR20050118054A
KR20050118054A KR1020040065365A KR20040065365A KR20050118054A KR 20050118054 A KR20050118054 A KR 20050118054A KR 1020040065365 A KR1020040065365 A KR 1020040065365A KR 20040065365 A KR20040065365 A KR 20040065365A KR 20050118054 A KR20050118054 A KR 20050118054A
Authority
KR
South Korea
Prior art keywords
text message
display
avatar
character
displaying
Prior art date
Application number
KR1020040065365A
Other languages
Korean (ko)
Inventor
서정욱
임채환
박외진
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to KR1020040110722A priority Critical patent/KR100720133B1/en
Priority to US11/019,230 priority patent/US9037982B2/en
Priority to JP2004378127A priority patent/JP4382654B2/en
Priority to CNA2004101049505A priority patent/CN1638514A/en
Priority to EP04030814.0A priority patent/EP1549031B1/en
Priority to CN2011100596340A priority patent/CN102123206A/en
Publication of KR20050118054A publication Critical patent/KR20050118054A/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72436User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for text messaging, e.g. SMS or e-mail
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/7243User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages
    • H04M1/72439User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality with interactive means for internal management of messages for image or video messaging

Abstract

휴대단말기가 각각 고유의 감정표현을 가지는 캐릭터들을 저장하는 캐릭터 메모리와 상기 캐릭터들의 표시를 위한 표시명령어들을 저장하는 표시명령어 메모리를 구비한다. 그리고 휴대단말기가 문자메시지를 표시하는 방법이, 문자메시지 수신시 문자메시지의 문자열들을 표시명령어 메모리의 표시명령어들과 비교 분석하는 과정과, 분석과정에서 문자메시지에 포함된 표시명령어를 선택하는 과정과, 선택된 표시명령어에 해당하는 캐릭터이미지를 캐릭터메모리에서 억세스하여 문자메시지와 함께 표시하는 과정으로 이루어진다. The mobile terminal includes a character memory for storing characters each having a unique emotion expression, and a display instruction memory for storing display instructions for displaying the characters. The method for displaying a text message by the mobile terminal includes the steps of comparing and analyzing character strings of the text message with the display commands of the display command memory when receiving the text message, and selecting the display command included in the text message during the analysis. In this case, the character image corresponding to the selected display command is accessed from the character memory and displayed together with the text message.

Description

휴대단말기의 문자 메시지 처리 방법{METHOD FOR PROCESSING MESSAGE USING AVATAR IN WIRELESS PHONE} How to handle text messages on your mobile device {METHOD FOR PROCESSING MESSAGE USING AVATAR IN WIRELESS PHONE}

본 발명은 휴대단말기의 문자메시지 처리방법에 관한 것으로, 특히 문자메시지의 내용을 분석하여 시각적으로 처리할 수 있는 방법에 관한 것이다.The present invention relates to a text message processing method of a mobile terminal, and more particularly, to a method for visually processing by analyzing the content of a text message.

현재 휴대단말기는 전화 기능 이외에 다양한 기능들이 추가되는 추세이다. 현재 휴대단말기에 부가되는 기능들 중의 하나는 카메라를 휴대단말기에 부착하여 영상데이터를 촬영하고, 이들 영상데이터를 저장하여 편집하거나 또는 전송하는 기능이다. 즉, 현재의 휴대단말기는 단말기 고유의 통신 기능 이외에 시각적인 표현이 가능한 복합 단말기 형태로 발전하고 있다. 상기와 같은 기능들 중에 하나가 캐릭터 이미지를 이용하여 휴대단말기의 동작 상태 또는 기능을 표현하는 방법이다. Currently, portable terminals have been added with various functions in addition to telephone functions. One of the functions added to the current portable terminal is a function of attaching a camera to the portable terminal to capture image data, and store and edit or transmit the image data. That is, the current portable terminal has developed into a complex terminal type capable of visual expression in addition to the communication function unique to the terminal. One of the above functions is a method of expressing an operation state or a function of a mobile terminal using a character image.

상기와 같이 캐릭터 이미지를 기능을 가지는 휴대단말기인 경우에는 상기 캐릭터 이미지를 이용하여 문자메시지를 시각적으로 표현할 수 있다. 현재 휴대단말기에서 문자메시지를 표현하는 방법은 수신되는 문자메시지를 표시부에 단순하게 표시하는 기능 이외에 다른 표현방법이 없다. 즉, 현재의 문자메시지 서비스 방법은 송신측에서 문자메시지를 생성하여 전송하면, 수신측의 휴대단말기는 문자 메시지의 착신을 경보하고, 이후 수신되는 문자메시지를 단순하게 표시만 한다. As described above, in the case of a mobile terminal having a function of a character image, a text message may be visually expressed using the character image. Currently, there is no method of expressing a text message in a mobile terminal other than a function of simply displaying a received text message on a display unit. That is, in the current text message service method, when the sender generates and transmits a text message, the portable terminal of the receiver alerts the incoming of the text message and simply displays the received text message.

그러나 상기 아바타 단말기를 사용하는 경우에는 문자메시지의 내용을 시각적으로 표현할 수 있다. 즉, 수신측의 휴대단말기가 수신되는 문자메시지의 내용을 분석한 후, 문자메시지에 따른 캐릭터 이미지를 표시하기 위한 내용이 포함된 경우에 문자메시지를 캐릭터 이미지의 동작과 함께 표시하는 방법이다. 상기와 같이 문자메시지를 통신하면 휴대단말기의 문자메시지를 시각적으로 표현할 수 있다.However, when using the avatar terminal, the content of the text message may be visually represented. That is, after analyzing the contents of the text message received by the mobile terminal of the receiving side, the text message is displayed together with the operation of the character image when the content for displaying the character image according to the text message is included. When the text message is communicated as described above, the text message of the mobile terminal can be visually represented.

따라서 본 발명의 목적은 휴대단말기에서 착신되는 문자메시지를 캐릭터 이미지와 함께 시각적으로 표시할 수 있는 방법을 제공함에 있다.Accordingly, an object of the present invention is to provide a method for visually displaying a text message received in a mobile terminal together with a character image.

본 발명의 다른 목적은 휴대단말기가 적어도 2개의 감정표현을 가지는 캐릭터 이미지들을 구비하고, 착신되는 문자메시지의 내용을 분석한 후, 상기 착신된 문자메시지의 감정에 따른 캐릭터 이미지를 착신된 문자메시지와 함께 표시할 수 있는 방법을 제공함에 있다.Another object of the present invention is to provide a character image having a character image having at least two emotion expressions, and to analyze the contents of the incoming text message, and then to receive the character message according to the emotion of the incoming text message. It is to provide a method that can be displayed together.

본 발명의 또 다른 목적은 휴대단말기에서 수신된 문자메시지에 포함된 특정 문자 또는 문자열을 검색하여 이들이 상징하는 감성을 표현하는 캐릭터이미지를 문자메시지와 함께 표시할 수 있는 방법을 제공함에 있다.It is still another object of the present invention to provide a method of displaying a character image expressing emotions represented by a character with a text message by searching for a specific character or character string included in the text message received from the mobile terminal.

본 발명의 또 다른 목적은 캐릭터 이미지들 및 이들 캐릭터 이미지들을 표시하기 위한 특정 문자데이터들을 구비하고, 문자메시지 착신시 문자메시지의 내용을 분석하여 상기 특정 문자데이터가 있으면 해당하는 캐릭터이미지들을 문자메시지와 함께 표시할 수 있는 방법을 제공함에 있다.It is still another object of the present invention to include character images and specific character data for displaying these character images, and analyze the contents of the text message when the text message is received and, if there is the specific character data, the corresponding character images and the text message. It is to provide a method that can be displayed together.

본 발명의 또 다른 목적은 휴대단말기에서 적어도 2개의 감정모델을 표시할 수 있는 캐릭터 이미지들과 상기 캐릭터 이미지들을 표시하기 위한 특정 문자 또는 문자열들을 미리 설정하여 등록하고, 문자메시지 착신시 착신된 문자메시지에서 상기 특정 문자 또는 문자열 감지시 해당하는 감정모델의 캐릭터 이미지와 함께 상기 문자메시지를 표시할 수 있는 방법을 제공함에 있다. It is still another object of the present invention to set and register character images capable of displaying at least two emotion models in a mobile terminal and specific characters or character strings for displaying the character images in advance, and receive a text message when a text message is received. The present invention provides a method for displaying the text message together with the character image of the corresponding emotion model when detecting the specific character or string.

이하 본 발명의 바람직한 실시예들의 상세한 설명이 첨부된 도면들을 참조하여 설명될 것이다. 도면들 중 동일한 구성들은 가능한 한 어느 곳에서든지 동일한 부호들을 나타내고 있음을 유의하여야 한다.DETAILED DESCRIPTION A detailed description of preferred embodiments of the present invention will now be described with reference to the accompanying drawings. It should be noted that the same components in the figures represent the same numerals wherever possible.

하기에서 설명되는 본 발명의 실시예에서는 문자메시지는 단문메시지(short message service: 이하 SMS라 칭한다) 및 전자우편 메시지(e-mail message service: 이하 EMS라 칭한다)들을 포함한다. 또한 상기 문자메시지는 휴대단말기에서 문자를 사용하여 표현할 수 있는 모든 메시지들을 포함하는 것으로 설명될 것이다.In the embodiment of the present invention described below, the text message includes a short message service (hereinafter referred to as SMS) and an e-mail message service (hereinafter referred to as EMS). In addition, the text message will be described as including all the messages that can be expressed using the text in the mobile terminal.

또한 캐릭터라는 용어는 문자메시지를 표시할 때 함께 표시되는 이미지 데이터로써, 아바타 및 아바타와 함께 화면을 꾸밀 수 있는 꽃, 가구, 동물 등과 아이템 이미지들이 될 수 있다. 하기의 설명에서 상기 캐릭터는 아바타로 가정하여 설명하기로 한다. In addition, the term "character" is image data that is displayed together when displaying a text message. The term "character" may be an image of items such as flowers, furniture, animals, etc., which can decorate a screen together with an avatar. In the following description, it is assumed that the character is an avatar.

그리고 상기 문자메시지에 포함된 특정 문자데이터는 상기 문자메시지 표시시 상기 캐릭터를 함께 표시할 수 있는 문자데이터를 의미하는 것으로, 이모티콘 또는 감정 표현을 가지는 문자데이터들이 될 수 있다. 하기의 설명에서 아바타 이미지를 표시하기 위한 상기 특정문자데이터는 캐릭터 표시명령어(또는 아바타 표시명령어)라 칭하기로 한다.The specific text data included in the text message refers to text data capable of displaying the character together when the text message is displayed, and may be text data having an emoticon or an emotional expression. In the following description, the specific character data for displaying an avatar image is referred to as a character display command (or an avatar display command).

또한 문자메시지에 적어도 두 개의 아바타표시 데이터가 포함될 수 있다. 이런 경우 상기 문자메시지에 포함된 모든 아바타 표시명령어들에 대하여 아바타들을 반응시킬 수 있으며, 또한 문자메시지를 분석하여 대표적인 하나의 아바타 표시명령어에 대하여 아바타를 반응시킬 수 있다. 본 발명의 제1실시예에서는 전자의 방법에 대하여 살펴보고, 제2실시예에서는 후자의 방법에 대하여 살펴본다.In addition, the text message may include at least two avatar display data. In this case, avatars may be reacted to all avatar display commands included in the text message, and the avatar may be reacted to a representative avatar display command by analyzing the text message. In the first embodiment of the present invention, the former method will be described, and in the second embodiment, the latter method will be described.

하기의 설명에서 아바타를 반응시킨다는 용어는 아바타표시 데이터를 포함하는 문자메시지에서 문자메시지 표시시 해당하는 아바타 이미지를 함께 표시하는 용어로 사용될 것이다.In the following description, the term reacting an avatar will be used as a term for displaying a corresponding avatar image when displaying a text message in a text message including avatar display data.

도 1은 본 발명의 실시예에 따른 휴대단말기의 구성을 도시하는 도면으로써, 휴대전화기의 구성이 될 수 있다.1 is a diagram showing the configuration of a mobile terminal according to an embodiment of the present invention, which may be a configuration of a mobile telephone.

상기 도 1을 참조하면, RF통신부125는 휴대단말기의 무선 통신 기능을 수행한다. 상기 RF통신부125는 송신되는 신호의 주파수를 상승변환 및 증폭하는 RF송신기와, 수신되는 신호를 저잡음 증폭하고 주파수를 하강변환하는 RF수신기 등을 포함한다. 데이터처리부120은 상기 송신되는 신호를 부호화 및 변조하는 송신기 및 상기 수신되는 신호를 복조 및 복호화하는 수신기 등을 구비한다. 즉, 상기 데이터 처리부120은 모뎀(MODEM) 및 코덱(CODEC)으로 구성될 수 있다. 음성변환부135는 상기 제어부110에서 출력되는 문자데이터를 음성신호로 변환하는 기능을 수행한다.Referring to FIG. 1, the RF communication unit 125 performs a wireless communication function of the portable terminal. The RF communication unit 125 includes an RF transmitter for upconverting and amplifying a frequency of a transmitted signal, and an RF receiver for low noise amplifying and downconverting a received signal. The data processor 120 includes a transmitter for encoding and modulating the transmitted signal and a receiver for demodulating and decoding the received signal. That is, the data processor 120 may include a modem and a codec. The voice converter 135 converts the text data output from the controller 110 into a voice signal.

키입력부145는 숫자 및 문자 데이터를 입력하기 위한 키들 및 각종 기능들을 설정하기 위한 기능키 들을 구비한다. 또한 상기 키입력부145는 아바타를 표시하기 위한 상기 아바타 표시명령어들을 발생할 수 있다. 여기서 상기 아바타 표시명령어는 상기한 바와 같이 이모티콘 및 감정표현을 가지는 문자데이터들이 될 수 있다. The key input unit 145 includes keys for inputting numeric and text data and function keys for setting various functions. In addition, the key input unit 145 may generate the avatar display commands for displaying an avatar. The avatar display command may be text data having emoticons and emotion expressions as described above.

메모리130은 프로그램 메모리 및 데이터 메모리들로 구성될 수 있다. 상기 프로그램 메모리는 휴대용 전화기의 호 처리 등을 처리하기 위한 프로그램들 및 본 발명의 실시예에 따라 상기 아바타표시 데이터에 의해 아바타를 표시하기 위한 프로그램들을 저장하고 있다. 상기 데이터 메모리는 상기 프로그램들을 수행하는 중에 발생되는 데이터들을 일시 저장하는 기능을 수행한다. 또한 상기 데이터 메모리는 문자메시지에 포함된 상기 아바타표시 데이터들에 따라 감정표현을 할 수 있는 캐릭터(여기서는 아바타) 이미지들을 저장하는 캐릭터 메모리와, 상기 캐릭터 이미지들을 표시하기 위한 상기 아바타 표시명령어들을 저장하는 캐릭터 표시명령어 메모리를 구비한다.The memory 130 may be composed of a program memory and a data memory. The program memory stores programs for processing call processing and the like of the portable telephone and programs for displaying an avatar by the avatar display data according to an embodiment of the present invention. The data memory temporarily stores data generated while executing the programs. The data memory may include a character memory for storing character (in this case, avatar) images capable of expressing emotion according to the avatar display data included in a text message, and storing the avatar display instructions for displaying the character images. And a character display instruction memory.

제어부110은 휴대용 전화기의 전반적인 동작을 제어하는 기능을 수행한다. 또한 상기 제어부110은 상기 데이터처리부120을 포함할 수도 있다. 즉, 휴대전화기의 경우, 상기 제어부110, 데이터처리부120 및 음성변환부135가 하나의 칩으로 집적된 MSM 칩이 될 수 있다. 상기 제어부110은 본 발명의 실시예에 따라 수신되는 문자메시지를 분석하며, 상기 분석결과 아바타 표시명령어가 포함된 문자메시지이면 상기 아바타 표시명령어에 대응되는 아바타의 동작, 표정 및 사물표현을 표시하면서 문자메시지를 표시한다. 여기서 상기 아바타 표시명령어는 상기한 바와 같이 이모티콘 또는 아바타 표시문자들이 될 수 있다. The controller 110 controls the overall operation of the portable telephone. In addition, the controller 110 may include the data processor 120. That is, in the case of a mobile phone, the controller 110, the data processor 120, and the voice converter 135 may be an MSM chip integrated into one chip. The controller 110 analyzes the received text message according to an embodiment of the present invention. If the text message includes the avatar display command as a result of the analysis, the controller 110 displays a text of the avatar corresponding to the avatar display command and displays an action, an expression, and an object expression. Display a message. Here, the avatar display command may be emoticons or avatar display characters as described above.

표시부143은 상기 제어부110의 제어하에 휴대단말기의 상태를 표시한다. 여기서 상기 표시부160은 LCD를 사용할 수 있으며, 이런 경우 상기 표시부143은 LCD제어부(LCD controller), 표시데이터를 저장할 수 있는 메모리 및 LCD표시소자 등을 구비할 수 있다. 여기서 상기 LCD를 터치스크린(touch screen) 방식으로 구현하는 경우, 입력부로 동작할 수도 있다. The display unit 143 displays the state of the mobile terminal under the control of the controller 110. The display unit 160 may use an LCD. In this case, the display unit 143 may include an LCD controller, a memory capable of storing display data, an LCD display device, and the like. In this case, when the LCD is implemented using a touch screen method, the LCD may operate as an input unit.

먼저 본 발명의 제1실시예에 따른 아바타 표시 절차를 살펴본다. 상기한 바와 같이 본 발명의 제1실시예에서는 수신된 문자메시지에 포함된 표시명령어들을 확인하고, 상기 확인된 표시명령어들에 따른 아바타들의 표시 시간을 각각 설정한 후, 문자메시지와 함께 해당하는 아바타들을 표시하는 절차를 도시하는 흐름도이다. First, the avatar display procedure according to the first embodiment of the present invention will be described. As described above, in the first embodiment of the present invention, the display commands included in the received text message are checked, the display times of the avatars according to the identified display commands are set, and the avatar corresponding to the text message is displayed. Is a flow chart showing the procedure for displaying them.

먼저 상기 본 발명의 제1실시예에 따른 문자메시지의 표시 절차를 살펴보면, 상기 메모리130의 데이터 메모리는 상기한 바와 같이 캐릭터 메모리(이하 아바타 메모리라 칭한다) 및 캐릭터 표시명령어 메모리(이하 표시명령어 메모리라 칭한다)를 구비한다. 상기 아바타 메모리는 파일시스템(file system)으로 동작할 수 있으며, 각 아바타 별로 메모리(또는 파일시스템)의 인덱스를 가지고 있을 수 있다. 또한 상기 아바타 메모리는 각 아바타 세부 구성요소인 동작, 표정 및 사물표현 등을 할 수 있는 다양한 형태별로 구성될 수 있다. 즉, 상기 아바타 메모리에 저장된 아바타 정보는 아바타의 반응을 수행할 수 있는 각각의 형태별로 저장될 수 있다. 또한 상기 표시명령어 메모리는 상기 아바타들을 표시하기 위한 데이터들을 저장하고, 상기 아바타 표시명령어는 상기한 바와 같이 특수기호 문자인 이모티콘들과 감정을 표현할 수 있는 문자데이터들이 될 수 있다.First, referring to the display procedure of the text message according to the first embodiment of the present invention, the data memory of the memory 130 is referred to as the character memory (hereinafter referred to as avatar memory) and the character display command memory (hereinafter referred to as display command memory). It is called). The avatar memory may operate as a file system, and may have an index of a memory (or file system) for each avatar. In addition, the avatar memory may be configured in various forms to perform operations, facial expressions, and object expressions, which are detailed components of the avatar. That is, avatar information stored in the avatar memory may be stored for each type capable of performing an avatar reaction. In addition, the display command memory may store data for displaying the avatars, and the avatar display command may be emoticons, which are special symbol characters, and character data that can express emotions as described above.

본 발명의 제1실시예에서는 상기 아바타의 표시를 아바타의 동작, 아바타의 표정변화 및 사물표현 등으로 나누는 것으로 가정하며, 이외의 다른 아바타 표시 동작도 구현할 수 있다. In the first embodiment of the present invention, it is assumed that the display of the avatar is divided into the operation of the avatar, the facial expression change and the object expression of the avatar, and other avatar display operations may be implemented.

하기의 <표 1>에서 <표 5>는 아바타 표시를 아바타의 동작, 아바타의 표정 및 아바타가 사물을 이용하여 표현하는 방법 등의 3가지로 나누어 제어할 수 있는 아바타 표시명령어들을 예시하고 있다. 여기서 <표 1> 및 <표 2>는 아바타의 동작을 제어하는 표시명령어(이모티콘 및 문자)의 예를 나타내고 있으며, <표 3> 및 <표 4>는 아바타의 표정을 제어하는 표시명령어(이모티콘 및 문자)의 예를 나타내고 있고, <표 5>는 아바타의 사물표현을 제어하는 표시명령어(이모티콘)의 예를 도시하고 있다. 또한 상기 <표 5>에서 아바타의 사물표현으로 구분된 명칭(꽃, 가위, 담배, 텔레비전, 칼, 사탕등)은 사물표현을 나타내는 표시명령어(문자)로 사용될 수 있다. 따라서 상기 <표 1>, <표 3> 및 <표 5>는 이모티콘을 이용하여 아바타의 동작, 표정 및 사물표현을 할 수 있는 예를 나타내고 있으며, 상기 <표 2>, <표 4> 및 <표 5>는 문자데이터를 이용하여 아바타의 동작, 표정 및 사물표현을 할 수 있는 예를 나타내고 있다.Tables 1 to 5 illustrate avatar display commands that can be controlled by dividing the avatar display into three types, such as the operation of the avatar, the facial expression of the avatar, and the method of expressing the avatar using objects. Here, <Table 1> and <Table 2> show examples of display commands (emoticons and characters) for controlling the operation of the avatar, and <Table 3> and <Table 4> show display commands (emoticons for controlling the facial expression of the avatar. And letters), and Table 5 shows examples of display commands (emoticons) for controlling the expression of the objects of the avatar. In addition, in Table 5, names (flowers, scissors, cigarettes, television, knives, candy, etc.) classified as the object expressions of the avatar may be used as display commands (characters) representing the object expressions. Accordingly, Tables 1, 3, and 5 show examples of using avatars to express gestures, facial expressions, and objects, and include Tables 2, 4, and 4, respectively. Table 5 shows an example in which an avatar's motion, facial expression, and object expression can be expressed using text data.

도 2는 본 발명이 제1실시예에 따른 문자 메시지의 처리 절차를 도시하는 흐름도이다. 여기서는 상기 휴대단말기가 아바타 휴대단말기이며, 문자메시지를 표시하는 방법이 아바타 문자메시지를 표시하는 경우로 가정하여 설명한다. 이런 경우 상기 제어부110은 수신되는 문자메시지를 분석하여 아바타를 반응시키기 위한 표시명령어, 즉, 이모티콘이나 아바타 표시문자를 포함하고 있는가 분석하며, 상기 분석과정에서 표시명령어를 포함하는 문자메시지이면 분석된 결과에 따라 아바타를 반응시키면서, 즉 수신된 문자메시지를 상기 표시명령어에 해당하는 아바타와 함께 표시한다. 2 is a flowchart showing a procedure of processing a text message according to the first embodiment of the present invention. Herein, it is assumed that the mobile terminal is an avatar portable terminal, and a method of displaying a text message is an example of displaying an avatar text message. In this case, the controller 110 analyzes the received text message and analyzes whether it includes a display command for reacting the avatar, that is, an emoticon or an avatar display character, and if the text message includes the display command in the analysis process, the analyzed result is analyzed. According to the avatar, that is, the received text message is displayed together with the avatar corresponding to the display command.

상기 도 2를 참조하면, RF부123 및 데이터 처리부120을 통해 문자메시지가 수신되면, 상기 제어부110은 211단계에서 문자메시지의 수신을 감지하고, 213단계에서 문자 메시지 표시 방법이 아바타 문자메시지 표시방법으로 설정되었는가 검사한다. 이때 일반 문자메시지 표시방법으로 설정된 경우, 상기 제어부110은 213단계에서 이를 감지하고 215단계에서 기존의 방법으로 수신된 문자메시지를 처리한다. 즉, 215단계에서 상기 제어부110은 수신되는 문자메시지를 표시부143에 표시하는 문자메시지 서비스 절차를 수행한다.Referring to FIG. 2, when a text message is received through the RF unit 123 and the data processing unit 120, the controller 110 detects the reception of the text message in step 211, and displays the text message in step 213 in the avatar text message display method. Check if it is set to. In this case, when it is set as the general text message display method, the control unit 110 detects this in step 213 and processes the text message received in the existing method in step 215. That is, in step 215, the controller 110 performs a text message service procedure for displaying the received text message on the display unit 143.

그러나 상기 213단계에서 아바타 문자메시지 표시 방법으로 설정되었음을 감지하면, 상기 제어부110은 217단계에서 수신된 아바타 문자메시지를 분석하여 상기 문자메시지에 포함된 표시명령어들에 대응되는 아바타의 반응을 결정하고, 219단계에서 상기 결정된 아바타 반응과 함께 수신된 문자메시지를 표시한다. 여기서 상기 217단계에의 메시지 분석절차는 도 3과 같은 절차로 수행될 수 있으며, 상기 219단계의 메시지 표시 절차는 도 4와 절차로 수행될 수 있다.However, when it is detected in step 213 that the avatar text message is displayed, the controller 110 analyzes the avatar text message received in step 217 to determine the response of the avatar corresponding to the display commands included in the text message. In step 219, the received text message is displayed together with the determined avatar response. In this case, the message analyzing procedure in step 217 may be performed by the procedure of FIG. 3, and the message displaying procedure of step 219 may be performed by the procedure of FIG. 4.

도 3은 본 발명의 실시예에 따른 메시지 분석과정의 절차를 도시하는 흐름도이다.3 is a flowchart illustrating a procedure of a message analyzing process according to an embodiment of the present invention.

상기 도 3을 참조하면, 상기 제어부110은 311단계에서 상기 수신된 문자메시지의 문자열을 스캔한 후, 315단계에서 스캔된 표시명령어의 형식을 검사한다. 이때 상기 표시명령어의 형식은 크게 일반문자, 아바타 표시문자 및 이모티콘 등으로 분류할 수 있다. 그리고 상기 아바타표시문자 및 이모티콘은 상기 메모리 130에 저장된 상기 <표 1> - <표 5>와 같은 아바타 반응을 위한 명령어들이 될 수 있다. 따라서 상기 제어부110은 상기 수신된 문자메시지의 문자열을 스캔하며, 315단계에서 상기 스캔된 문자들을 상기 <표 1> - <표 5>의 아바타 표시명령어들과 비교하면서 스캔되는 문자들이 아바타 표시명령어인지 아닌지를 판정한다. 이때 상기 315단계에서 일반문자데이터로 판정된 경우, 상기 제어부110은 317단계에서 상기 일반 문자로 판정된 문자데이터를 상기 표시부143에 문자로 표시할 수 있도록 처리하고, 상기 311단계로 되돌아간다.Referring to FIG. 3, the control unit 110 scans the received text message string in step 311 and then checks the format of the display command word scanned in step 315. At this time, the format of the display command may be classified into general characters, avatar display characters, and emoticons. The avatar display text and the emoticon may be commands for avatar reactions as shown in Tables 1 to 5 stored in the memory 130. Accordingly, the control unit 110 scans the character string of the received text message, and in step 315 compares the scanned characters with the avatar display commands of Tables 1 to 5 to determine whether the scanned characters are avatar display commands. Determine whether or not. In this case, if it is determined in the step 315 as the general character data, the controller 110 processes the character data determined as the general character to be displayed on the display unit 143 as a character in step 317, and returns to step 311.

그러나 상기 315단계에서 아바타 표시명령어로 판정되면, 상기 제어부110은 319단계에서 상기 아바타 표시명령어에 따른 아바타의 반응종류를 판단하고, 321단계에서 상기 아바타 표시명령어를 상기 표시부143에 문자로 표시할 수 있도록 처리한다. 이때 상기 319단계에서의 아바타의 반응종류 분석은 상기 아바타 표시문자가 의미하는 아바타의 반응(즉, 동작, 표정, 사물표현 등)을 결정하는 것이다. 이후 323단계에서 상기 제어부110은 상기 319단계에서 결정된 아바타의 반응을 아바타 리스트에 추가하고, 상기 아바타의 반응 표시 시간 등의 세부적인 반응 요소들을 설정한다. 이때 상기 319, 321 및 323단계에서 상기 제어부110은 문자데이터가 표시명령어로 분석되면, 상기 메모리130의 아바타메모리에서 상기 표시명령어에 해당하는 아바타 이미지를 선택하고, 또한 상기 선택된 아바타 이미지를 표시 순서 및 표시 시간을 설정한 후, 이를 아바타 동작리스트에 등록하는 절차를 수행하게 된다. However, if it is determined in step 315 as the avatar display command, the control unit 110 determines the response type of the avatar according to the avatar display command in step 319, and displays the avatar display command in text on the display unit 143 in step 321. Process it. In this case, in response to analyzing the response type of the avatar in step 319, the avatar's response character (ie, motion, facial expression, object expression, etc.) is determined. In step 323, the controller 110 adds the response of the avatar determined in step 319 to the avatar list, and sets detailed response factors such as the response display time of the avatar. In this case, in step 319, 321, and 323, when text data is analyzed as a display command, the controller 110 selects an avatar image corresponding to the display command from the avatar memory of the memory 130, and displays the selected avatar image in the display order and After setting the display time, a procedure of registering the display time in the avatar action list is performed.

또한 상기 315단계에서 아바타 반응을 위한 표시명령어가 이모티콘으로 판정되면, 상기 제어부110은 325단계에서 상기 표시명령어 메모리에 저장된 이모티콘들과 상기 문자메시지에 포함된 이모티콘을 분석하여 아바타의 반응종류를 판단하고, 327단계에서 상기 분석된 이모티콘을 상기 표시부143에 문자로 표시할 수 있도록 처리한다. 이때 상기 327단계에서의 이모티콘의 분석은 아바타의 반응(즉, 동작, 표정, 사물표현 등)을 결정하는 것이다. 이후 상기 323단계에서 상기 제어부110은 상기 325단계에서 결정된 아바타의 반응을 아바타 리스트에 추가하고, 상기 아바타의 반응 표시시간 등의 세부적인 반응 요소들을 설정한다. 이때 상기 325, 327 및 323단계에서 상기 제어부110은 이모티콘이 표시명령어로 분석되면, 상기 메모리130의 아바타메모리에서 상기 표시명령어에 해당하는 아바타 이미지를 선택하고, 또한 상기 선택된 아바타 이미지를 표시 순서 및 표시 시간을 설정한 후, 이를 아바타 동작리스트에 등록하는 절차를 수행하게 된다. In addition, when the display command for the avatar reaction is determined as an emoticon in step 315, the controller 110 analyzes the emoticons stored in the display command memory and the emoticon included in the text message to determine the response type of the avatar. In operation 327, the analyzed emoticon may be displayed on the display unit 143 as a character. In this case, the analysis of the emoticon in step 327 is to determine the avatar's response (ie, motion, facial expression, object expression, etc.). Thereafter, in step 323, the controller 110 adds the response of the avatar determined in step 325 to the avatar list, and sets detailed response factors such as the response display time of the avatar. In this case, in step 325, 327, and 323, when the emoticon is analyzed as a display command, the controller 110 selects an avatar image corresponding to the display command from the avatar memory of the memory 130, and displays the selected avatar image in the display order and display. After setting the time, a procedure of registering it in the avatar action list is performed.

상기와 같은 절차를 반복 수행하면서 문자메시지의 문자열들을 스캔하며, 스캔한 문자데이터를 일반문자, 아바타 표시문자 및 이모티콘으로 분류한 후, 상기 아바타 표시문자 및 이모티콘인 경우로 판단되면 대응되는 아바타반응을 아바타 표시 리스트에 등록하고 아바타의 반응 표시순서 및 시간을 설정한다. 상기와 같은 과정을 반복 수행하여 수신된 문자메시지의 모든 문자열들에 대한 스캔을 종료하면, 상기 제어부110은 313단계에서 문자메시지의 끝임을 감지하고, 상기 도 2의 219단계로 리턴한다.After repeating the above steps, the character strings of the text message are scanned, the scanned text data is classified into general characters, avatar display characters and emoticons, and if it is determined that the avatar display characters and emoticons are used, a corresponding avatar response is performed. Register in the avatar display list and set the response display order and time of the avatar. When the scan of all the text strings of the received text message is repeated by repeating the above process, the controller 110 detects the end of the text message in step 313 and returns to step 219 of FIG. 2.

그러면 상기 제어부110은 상기 219단계에서 도 4와 같은 절차를 수행하면서 상기 분석된 아바타 문자메시지를 표시한다. Then, the controller 110 displays the analyzed avatar text message while performing the procedure of FIG. 4 in step 219.

상기 도 4를 참조하면, 먼저 상기 제어부110은 411단계에서 상기 수신된 문자메시지를 상기 표시부143에 출력하여 표시한다. 이때 상기 문자메시지의 표시는 상기 표시부143의 특정 영역에 표시하거나 또는 풍선으로 표시하면서 아바타의 동작과 연동하여 표시할 수 있으며, 또한 오버레이(overlay) 방식으로 아바타의 반응과 문자메시지를 표시할 수도 있다. 또한 상기 문자메시지가 많은 경우에는 상기 문자메시지를 스크롤시키면서 표시할 수도 있다.Referring to FIG. 4, first, the controller 110 outputs and displays the received text message on the display unit 143 in step 411. At this time, the display of the text message may be displayed in a specific area of the display unit 143 or in a balloon, in conjunction with the operation of the avatar, or may display the response and text message of the avatar in an overlay manner. . In addition, when the text message is large, the text message may be displayed while scrolling.

상기와 같이 문자메시지를 표시하는 상태에서 상기 제어부110은 상기 아바타의 반응들을 저장하고 있는 아바타 표시리스트를 스캔하며, 417단계에서 상기 리스트에 등록된 표시명령어들을 억세스한 후, 419단계에서 상기 억세스된 표시명령어에 따라 아바타를 반응시킨다. 여기서 상기 표시명령어는 상기한 바와 같이 이모티콘 또는 아바타표시문자가 될 수 있으며, 아바타의 반응은 상기한 바와 같이 아바타의 동작, 표정 및 사물표현 등이 될 수 있다. 상기 아바타의 반응은 상기 323단계에서 설정된 표시순서 및 시간 동안 유지된다. 그리고 상기 설정시간이 경과되면 다시 상기 413단계로 진행하여 표시리스트에 등록된 다음 표시명령어를 억세스하여 상기와 같은 절차를 반복 수행한다. 따라서 상기와 같은 동작을 반복 수행하면, 상기 수신된 문자메시지에 포함된 표시명령어들에 대응되는 아바타의 반응들을 순차적으로 표시하게 되며, 이때 상기 문자메시지도 표시부143에 함께 표시된다. 그리고 상기 리스트에 등록된 마지막 명령어의 아바타 반응을 종료하면, 상기 제어부110은 415단계에서 이를 감지하고, 상기 아바타 메시지의 표시를 종료한다. In the state of displaying a text message as described above, the controller 110 scans an avatar display list storing reactions of the avatar, accesses the display commands registered in the list in step 417, and then accesses the access command in step 419. Respond to the avatar according to the display instructions. The display command may be an emoticon or an avatar display character as described above, and the avatar's response may be an avatar's motion, facial expression, and object expression as described above. The avatar's response is maintained for the display order and time set in step 323. When the set time has elapsed, the process proceeds to step 413 again to access the display command registered in the display list and repeat the above procedure. Accordingly, when the above operation is repeated, reactions of avatars corresponding to the display commands included in the received text message are sequentially displayed, and the text message is also displayed on the display unit 143. When the avatar response of the last command registered in the list ends, the controller 110 detects this in step 415 and ends the display of the avatar message.

예를들어 도 5와 같은 문자메시지가 수신된 경우, 상기 제어부110은 문자메시지에 포함된 표시명령어들을 분석한 후, 상기 표시명령어의 표시순서 및 시간들을 표시리스트에 등록하며, 이후 문자메시지 표시 과정에서 상기 표시리스트를 참조하여 문자메시지와 함께 상기 표시명령어에 따른 아바타 이미지를 함께 표시한다. 이때 상기 도 5와 같은 문자메시지의 경우 표시명령어는 하기 <표 6>과 같다.For example, when a text message as shown in FIG. 5 is received, the controller 110 analyzes display commands included in the text message, registers the display order and times of the display commands in the display list, and then displays the text message. In the above, the avatar image according to the display command is displayed together with the text message with reference to the display list. At this time, in the case of the text message as shown in FIG.

따라서 상기 <표 6>과 같은 표시 명령어들은 상기 도 2의 217과정에서 분석되어 리스트에 등록된다. 이때 상기 아바타 반응을 표시할 순서 및 시간도 함께 설정되어 저장되며, 아바타 반응 순서는 상기 <표 6>과 같은 순서로 수행된다. 이후 도 3의 219과정에서는 상기 도 5a와 같은 문자메시지와 함께 상기 <표 6>과 같은 표시명령어들이 위치된 순서로 아바타의 반응이 표시된다. 이때 표시 방법은 상기 문자메시지가 풍선모양으로 상기 표시부143의 특정 영역에 표시될 수 있으며, 상기 아바타 반응이 순차적으로 설정된 시간동안 표시될 수 있다. 또한 상기 문자메시지가 표시되는 상태에서 상기 아바타 반응이 순차적으로 오버레이되면서 표시될 수도 있다.Therefore, the display commands as shown in Table 6 are analyzed in step 217 of FIG. 2 and registered in the list. At this time, the order and time to display the avatar response are also set and stored, and the avatar response order is performed in the order as shown in Table 6. Thereafter, in step 219 of FIG. 3, the avatar's responses are displayed in the order in which the display commands as shown in Table 6 are placed together with the text message as shown in FIG. 5A. In this case, the text message may be displayed in a specific area of the display unit 143 in a balloon shape, and the avatar response may be displayed for a predetermined time. In addition, the avatar response may be sequentially displayed while the text message is displayed.

상기한 바와 같이 본 발명의 제1실시예에서는 문자메시지에 포함된 모든 표시명령어들에 대하여 대응되는 아바타 이미지들을 표시한다. 본 발명의 제2실시예에서는 수신된 문자메시지를 분석한 후, 문자 메시지에 포함된 표시명령어들 중에서 하나의 표시명령어를 선택하고, 선택된 표시명령어에 대응되는 하나 이상의 아바타 이미지와 함께 문자메시지를 표시하는 방법을 제공한다.As described above, in the first embodiment of the present invention, avatar images corresponding to all display commands included in the text message are displayed. In the second embodiment of the present invention, after analyzing the received text message, one display command word is selected from the display command words included in the text message, and the text message is displayed together with one or more avatar images corresponding to the selected display command word. Provide a way to.

본 발명의 제2실시예에서는 상기 착신 문자메시지가 발생되면, 상기 제어부110은 수신되는 문자메시지를 처리하는 동시에 상기 문자 메시지에 포함된 표시명령어(즉, 감정을 표현하는 단어 또는 특수문자)들을 분석하며, 분석결과에 따라 대응되는 아바타 이미지를 문자메시지와 함께 표시한다. 본 발명의 실시예에서 상기 문자메시지는 상기한 바와 같이 SMS(short message sevice) 및 EMS(e-mail message service)들을 포함한다. 또한 상기 문자메시지는 휴대단말기에서 문자를 사용하여 표현할 수 있는 모든 메시지들을 포함하는 것으로 설명될 것이다.In the second embodiment of the present invention, when the incoming text message is generated, the controller 110 processes the received text message and analyzes display command words (ie words or special characters expressing emotions) included in the text message. The corresponding avatar image is displayed along with the text message according to the analysis result. In an embodiment of the present invention, the text message includes a short message service (SMS) and an e-mail message service (EMS) as described above. In addition, the text message will be described as including all the messages that can be expressed using the text in the mobile terminal.

또한 본 발명의 실시예에 따라 문자메시지에서 표시명령어(즉, 감정수치를 변경하는 문자 데이터)는 약속된 특수 기호문자인 이모티콘들과 아바타의 반응을 수행할 수 있는 단어들이 될 수 있다. 그리고 상기 아바타 반응을 제어하기 위한 아바타 이미지들은 상기 메모리130의 아바타메모리에 미리 저장되어 있어야 하며, 또한 상기 표시명령어(이모티콘 및 단어)들도 상기한 바와 같이 상기 메모리130의 표시명령어 메모리에 미리 등록되어 있어야 한다. 즉, 상기 메모리130의 상기 아바타 메모리 및 표시명령어 메모리는 파일시스템(file system)으로 동작할 수 있으며, 각 아바타 별로 메모리(또는 파일시스템)의 인덱스를 가지고 있을 수 있다. 또한 상기 아바타 메모리는 각 이벤트에 따라 아바타 세부 구성요소인 동작, 표정 및 사물표현 등을 할 수 있는 다양한 형태별로 구성될 수 있다. 즉, 상기 아바타 메모리에 저장된 아바타 정보는 아바타의 반응을 수행할 수 있는 각각의 형태별로 저장될 수 있다. 그리고 상기 아바타메모리는 문자메시지를 구성하는 문자데이터들을 분석하여 아바타 감정 표현을 할 수 있는 이모티콘 및 감정 단어들을 등록하고 있어야 한다. 상기 문자메시지에서 아바타를 이용하여 감정을 표현할 수 있는 문자데이터들은 하기 <표 7>과 같이 구성할 수 있다.In addition, according to an embodiment of the present invention, the display command in the text message (that is, the text data to change the emotion value) may be words that can perform the reaction of the avatars and emoticons that are the special symbol characters promised. The avatar images for controlling the avatar response are stored in advance in the avatar memory of the memory 130, and the display command words (emoticons and words) are also registered in the display command memory of the memory 130 as described above. Should be That is, the avatar memory and the display command memory of the memory 130 may operate as a file system, and may have an index of a memory (or file system) for each avatar. In addition, the avatar memory may be configured in various forms that can perform actions, facial expressions, and object expressions, which are avatar detailed components, according to each event. That is, avatar information stored in the avatar memory may be stored for each type capable of performing an avatar reaction. The avatar memory should register emoticons and emotion words that can express the avatar emotion by analyzing the character data constituting the text message. Character data that can express emotions using the avatar in the text message may be configured as shown in Table 7 below.

본 발명의 제2실시예에서는 상기 <표 7>에 도시된 바와 같이, 문자메시지에 대한 감정을 표현하기 위한 감정의 종류를 다수개로 정의하여 사용한다. 일반적으로 감정 표현은 희,노,애,락으로 표현할 수 있다. 본 발명의 제2실시예에서 상기 문자메시지를 통해 표현할 수 있는 감정의 종류는 크게 상기 <표 7>에 도시된 바와 같이, 즐거움, 부끄러움, 화남, 당황 및 슬픔이라고 가정한다. 그리고 도 7a - 도 7b는 상기 <표 7>과 같은 감정표현의 표시명령어들에 대응되는 아바타 이미지들의 예로써 상기 메모리130의 아바타 메모리에 저장된다. 그리고 상기 도 7a - 도 7e와 같은 아바타 이미지들은 하나의 이미지 영상 또는 여러장의 아바타 이미지들이 애니메이션 형태로 표시될 수 있다. 또한 상기 <표 7>과 같은 표시명령어들은 상기한 바와 같이 메모리130의 표시명령어 메모리에 저장되며, 상기 도 7a - 도 7e와 같은 아바타 이미지들의 선택을 결정하는 명령어로 동작된다.In the second embodiment of the present invention, as shown in Table 7, a plurality of types of emotions for expressing emotions for text messages are defined and used. In general, the expression of emotion can be expressed as hee, no, love and rock. In the second embodiment of the present invention, the type of emotion that can be expressed through the text message is largely assumed to be pleasure, shyness, anger, embarrassment, and sadness, as shown in Table 7. 7A to 7B are examples of avatar images corresponding to display instructions of emotion expressions as shown in Table 7 and are stored in the avatar memory of the memory 130. The avatar images as shown in FIGS. 7A through 7E may be displayed as an image or a plurality of avatar images. In addition, the display commands as shown in Table 7 are stored in the display command memory of the memory 130 as described above, and operate as a command for determining selection of avatar images as shown in FIGS. 7A to 7E.

따라서 본 발명의 실시예에서는 문자메시지의 감정표현을 상기와 같이 5가지라고 가정하고, 상기 5가지 감정표현들을 표시하기 위한 표시명령어들을 상기 <표 7>과 같이 미리 설정하면 휴대단말기는 문자메시지의 감정표현을 효율적으로 표시할 수 있게 된다. 즉, 감정표현을 할 수 있는 아바타이미지들 및 표시명령어들을 간략화할 수 있어, 휴대단말기에서 문자메시지의 감정표현을 효율적으로 수행할 수 있게 된다. 또한 상기 <표 7>과 같은 감정표현 및 표시명령어들을 필요에 따라 추가하거나 삭제할 수 있다.Therefore, in the exemplary embodiment of the present invention, it is assumed that the five emotional expressions of the text message are as described above, and when the display instructions for displaying the five emotional expressions are set in advance as shown in Table 7, the mobile terminal may display the text message. Emotional expression can be displayed efficiently. That is, it is possible to simplify the avatar images and display commands that can express the emotion, it is possible to efficiently express the emotion of the text message in the mobile terminal. In addition, emotion expression and display commands as shown in Table 7 may be added or deleted as necessary.

상기와 같은 구성을 가지는 휴대단말기에서 수신된 문자메시지에 포함된 표시명령어에 따라 아바타 이미지를 문자메시지와 함께 표시하는 구체적인 동작을 살펴본다. 도 6은 본 발명의 제2실시예에 따라 휴대단말기에서 문자메시지를 수신한 경우에 문자메시지에 포함된 표시명령어를 분석하여 문자메시지와 함께 표시명령어에 대항하는 아바타 이미지를 표시하는 절차를 설명하는 도면이다. A detailed operation of displaying an avatar image along with a text message according to a display command included in a text message received by the portable terminal having the above configuration will be described. FIG. 6 is a flowchart illustrating a procedure of analyzing a display command included in a text message and displaying an avatar image against the display command along with the text message when the mobile terminal receives the text message according to the second embodiment of the present invention. Drawing.

상기 도 6을 참조하면, 문자메시지가 수신되면, 상기 제어부110은 611단계에서 이를 감지하고, 613단계에서 상기 수신된 문자메시지를 상기 표시부143에 표시한다. 이후 615단계에서 상기 문자메시지에 포함된 데이터를 분석하여 표시명령어가 있는가 검사한다.Referring to FIG. 6, when a text message is received, the controller 110 detects it in step 611 and displays the received text message on the display unit 143 in step 613. In step 615, the data included in the text message is analyzed to determine whether there is a display command.

여기서 상기 문자메시지 분석 방법은 상기 도 3과 같은 방법으로 수행할 수 있다.Here, the text message analyzing method may be performed by the same method as in FIG. 3.

먼저 상기 제어부110은 상기 수신된 문자메시지의 문자열을 파싱한 후, 상기 파싱된 문자 열에서 문자데이터의 형식을 검사한다. 이때 상기 문자데이터의 형식은 크게 일반문자, 아바타 표시문자 및 이모티콘 등으로 분류할 수 있다. 그리고 상기 아바타표시문자 및 이모티콘은 상기 메모리 130의 아바타메모리에 저장된 상기 <표 7>과 같이 감정 표현을 나타내는 표시명령어들이 될 수 있다. 따라서 상기 제어부110은 상기 수신된 문자메시지의 문자열을 파싱하며, 상기 파싱된 문자들을 상기 <표 7>의 이모티콘 또는 감정 표현을 나타내는 단어(문자데이터)들과 비교 분석하면서, 감정을 표현하는 표시명령어인지 아닌지를 판정한다. 이때 감정 표현을 하지 않는 문자데이터로 판정된 경우(즉, 상기 문자데이터가 상기 <표 7>에 등록되지 않은 문자데이터인 경우), 상기 제어부110은 상기 일반 문자로 판정된 문자데이터를 상기 표시부143에 문자로 표시할 수 있도록 처리한다.First, the controller 110 parses a string of the received text message and then checks the format of the text data in the parsed text string. At this time, the format of the text data may be classified into general characters, avatar display characters, and emoticons. The avatar display character and the emoticon may be display commands indicating an emotional expression as shown in Table 7 stored in the avatar memory of the memory 130. Accordingly, the control unit 110 parses the received text message string, and compares the parsed characters with words (character data) representing the emoticons or emotional expressions of the <Table 7>, and displays an expression to express emotions. Determine whether or not. In this case, when it is determined that the character data does not express an emotion (that is, the character data is character data not registered in the <Table 7>), the control unit 110 displays the character data determined as the general character in the display unit 143. Process to be displayed as a character in.

그러나 감정 표현을 나타내는 표시명령어로 판정되면, 상기 제어부110은 상기 표시명령어의 감정표현을 판단한다. 여기서 상기 문자데이터에 따른 아바타의 감정표현으로써, 본 발명의 제2실시예에서는 상기 <표 7>에 나타낸 바와 같이, 즐거움(happy), 부끄러움(shy), 화남(angry), 당황(embarrassed), 슬픔(sad) 등이 될 수 있으며, 상기와 같은 아바타의 반응, 즉 감정 표현은 필요에 따라 확장이 가능하다.However, if it is determined that the display command indicating the emotional expression, the control unit 110 determines the emotional expression of the display command. Here, as the emotional expression of the avatar according to the character data, in the second embodiment of the present invention, as shown in Table 7, happy, shy, angry, embarrassed, It may be sad, etc., and the avatar's reaction, that is, the expression of emotion, may be extended as necessary.

또한 상기 문자메시지에 포함된 감정 표현 문자데이터들에 따라 문자메시지의 내용을 판단하는 경우, 여러 가지 방법으로 표현이 가능하다. 그 첫 번째의 방법은 문자메시지에 존재하는 첫 번째 감정표현 단어 또는 이모티콘에 의해 결정된 표시명령어로부터 문자메시지의 내용을 판단하는 방법이다. 두 번째의 방법은 문자메시지에 존재하는 마지막 위치의 감정표현 단어 또는 이모티콘에 의해 결정된 표시명령어로부터 문자메시지의 내용을 판단하는 방법이다. 세 번째로 상기 문자메시지에 포함된 감정 표현의 단어 및 이모티콘들 중에서 가장 많이 포함된 감정 표현의 표시명령어로써 문자메메시지의 내용을 판단하는 방법이다. 네 번째로 문자 메시지에 포함된 이모티콘에 의해 결정되는 감정 표현으로부터 문자메시지의 내용을 판단하는 방법이다. 위의 네 번째 방법은 문자메시지에 하나의 이모티콘만 사용하는 경우에 사용될 수 있다. 다섯 번째로 상기 문자메시지에 포함된 감정표현의 단어 및 이모티콘들 모두를 이용하여 문자메시지의 내용을 판단하는 방법이다. 여섯 번째로 감정 표현의 우선순위를 결정하고, 상기 문자메시지에 포함된 문자데이터들을 분석한 후, 우선순위가 높은 감정 표현을 문자메시지의 내용으로 판단하는 방법이다.In addition, when determining the content of the text message according to the emotional expression text data included in the text message, it can be expressed in various ways. The first method is to determine the content of the text message from the display instruction word determined by the first emotional expression word or emoticon present in the text message. The second method is to determine the content of the text message from the display instruction word determined by the emotion expression word or the emoticon of the last position present in the text message. The third method is to determine the content of the text message as a display command of the emotional expression that includes the most of the emotional expression words and emoticons included in the text message. The fourth method is to determine the content of the text message from the emotional expression determined by the emoticon included in the text message. The fourth method above can be used when only one emoticon is used for the text message. Fifth, it is a method of determining the content of a text message using all of the words and emoticons of the emotion expression included in the text message. Sixth, a method of determining priority of emotional expressions, analyzing text data included in the text message, and then determining emotional expressions having high priority as contents of the text message.

상기와 같은 방법에서 상기 첫 번째 및 두 번째 방법은 미리 약속된 경우에 효과적으로 사용할 수 있다. 즉, 발신측 휴대단말기의 사용자가 문자메시지를 발신하는 경우, 자신이 보내고자 하는 메시지의 감정표현을 미리 결정한 후 문자메시지를 맨 앞단에 표시명령어를 입력하거나 또는 문자메시지의 마지막에 표시명령어를 입력하면, 착신 측의 휴대단말기 사용자는 문자메시지 수신시 표시되는 아바타 이미지를 보고 발신측 사용자의 감정 상태를 미리 확인할 수 있다. 그리고 세 번째 방법은 착신측 휴대단말기의 제어부110이 문자메시지에 포함된 표시명령어들을 모두 확인한 후, 문자메시지에 포함된 가장 많은 수의 표시명령어를 확인하고, 이렇게 확인된 표시명령어에 대응되는 아바타 이미지를 아바타 메모리에서 억세스하여 상기 문자메시지에 표시할 수 있다.In the above method, the first and second methods can be effectively used in the case of a promise. That is, when a user of the calling mobile terminal sends a text message, the user expresses a message message to be sent and inputs a display command at the front or a display command at the end of the text message. Then, the mobile terminal user of the called party can check the emotional state of the calling user by looking at the avatar image displayed when the text message is received. In the third method, the controller 110 of the called-party mobile terminal checks all the display commands included in the text message, and then checks the largest number of display commands included in the text message, and the avatar image corresponding to the identified display commands. Can be accessed from the avatar memory and displayed in the text message.

상기와 같은 아바타 감정 표시 방법들 중에 한가지 방법을 사용하여 문자메시지에 포함된 감정표현의 단어 및 이모티콘에 따라 문자메시지의 내용을 판단할 수 있다. 따라서 상기 제어부100은 615단계에서 상기와 같은 방법으로 문자메시지의 내용을 판정한 후, 617단계에서 감정표현을 하는 표시명령어가 있는가 검사하며, 상기 표시명령어가 있으면 619단계에서 상기와 같은 여섯가지 판단 방법 중에 한 가지의 판단방법으로 문자메시지의 내용을 결정한 후, 상기 결정된 표시명령어에 대응되는 아바타 이미지를 상기 메모리130의 아바타메모리에서 억세스하여 문자메시지와 함께 표시한다. 이때 상기 표시명령어에 대응되는 아바타 이미지의 감정표현은 상기 도 7a - 도 7e와 같으며, 상기 제어부110은 상기 문자메시지에서 포함된 표시명령어에 아바타 이미지로 감정을 표현할 상기 표시명령어에 대응되는 아바타 이미지를 선택하여 상기 표시부143에 표시한다. The content of the text message may be determined according to the words and emoticons of the emotion expression included in the text message using one of the avatar emotion display methods. Therefore, the control unit 100 determines the content of the text message in the same manner as described above in step 615, and checks whether there is a display command for expressing emotion in step 617. After the content of the text message is determined by one of the methods, the avatar image corresponding to the determined display command is accessed from the avatar memory of the memory 130 and displayed together with the text message. In this case, the emotion expression of the avatar image corresponding to the display command is as shown in FIGS. 7A to 7E, and the controller 110 corresponds to the avatar command corresponding to the display command to express the emotion as the avatar image in the display command included in the text message. Is displayed on the display unit 143.

상기한 바와 같이 휴대단말기에서 수신되는 문자메시지를 표시할 때, 문자메시지의 내용에 따른 감정표현을 캐릭터를 이용하여 시각적으로 표시할 수 있다. 즉, 문자메시지 수신시 휴대단말기가 문자메시지에 포함된 감정표현을 가지는 표시명령어들을 분석한 후, 표시명령어에 해당하는 캐릭터 이미지를 문자메시지와 함께 표현할 수 있다. 여기서 상기 캐릭터는 아바타 등이 될 수 있으며, 이에 따라 휴대단말기의 사용자 기능을 향상시킬 수 있는 이점이 있다.As described above, when displaying the text message received by the mobile terminal, an emotional expression according to the content of the text message may be visually displayed using the character. That is, when receiving a text message, the mobile terminal analyzes display commands having an emotional expression included in the text message, and then expresses a character image corresponding to the display command together with the text message. Here, the character may be an avatar or the like, thereby improving the user function of the mobile terminal.

도 1은 본 발명의 실시예에 따른 휴대단말기의 구성을 도시하는 도면1 is a diagram showing the configuration of a portable terminal according to an embodiment of the present invention.

도 2는 본 발명의 제1실시예에 따른 휴대단말기에서 아바타 문자메시지를 수신하여 표시하는 절차를 도시하는 흐름도2 is a flowchart illustrating a procedure for receiving and displaying an avatar text message in a mobile terminal according to a first embodiment of the present invention.

도 3은 도 2에서 수신되는 문자메시지의 문자들을 분석하는 절차를 도시하는 흐름도FIG. 3 is a flowchart illustrating a procedure of analyzing characters of a text message received in FIG. 2. FIG.

도 4는 도 3에서 수신된 문자메시지를 표시하는 절차를 도시하는 흐름도4 is a flowchart illustrating a procedure of displaying a text message received in FIG.

도 5는 휴대단말기의 문자메시지 예를 도시하는 도면5 illustrates an example of a text message of a mobile terminal.

도 6은 본 발명의 제2실시예에 따른 휴대단말기에서 문자메시지를 표시하는 절차를 도시하는 흠도6 is a block diagram illustrating a procedure for displaying a text message in a mobile terminal according to a second embodiment of the present invention.

도 7a - 도 7e는 도 6과 같은 절차로 처리되는 문자메시지 표시시 선택된 감정표현의 캐릭터의 표시 예를 도시하는 도면 7A to 7E are diagrams showing examples of displaying a character of a selected emotional expression when displaying a text message processed by the same procedure as in FIG.

Claims (22)

각각 고유의 감정표현을 가지는 캐릭터들을 저장하는 캐릭터 메모리와 상기 캐릭터들의 표시를 위한 표시명령어들을 저장하는 표시명령어 메모리를 구비하는 휴대단말기의 문자메시지 표시 방법에 있어서,In the character message display method of a mobile terminal having a character memory for storing characters each having a unique emotion expression and a display instruction memory for storing display instructions for displaying the characters, 상기 문자메시지 수신시 상기 문자메시지의 문자열들을 상기 표시명령어 메모리의 표시명령어들과 비교 분석하는 과정과,Comparing and analyzing the character strings of the text message with the display commands of the display command memory when the text message is received; 상기 분석과정에서 표시명령어가 있으면 상기 표시명령어에 해당하는 캐릭터들 및 캐릭터의 표시시간을 표시리스트에 등록하는 과정과,If there is a display command in the analysis process, registering the characters corresponding to the display command and the display time of the characters in the display list; 상기 분석 종료 후 상기 수신된 문자메시지를 표시하며, 상기 표시리스트에 등록된 캐릭터이미지를 상기 캐릭터메모리에서 읽어 설정시간 동안 표시하는 과정으로 이루어짐을 특징으로 하는 상기 방법.And displaying the received text message after completion of the analysis, and reading a character image registered in the display list from the character memory and displaying the text image for a set time. 제1항에 있어서, 상기 캐릭터가 아바타임을 특징으로 상기 방법.The method of claim 1, wherein the character is an avatar. 제2항에 있어서, 문자메시지를 분석하는 과정이,The method of claim 2, wherein the process of analyzing the text message comprises: 문자메시지의 문자열을 스캔하는 과정과,Scanning the text of the text message, 상기 스캔과정에서 상기 문자열이 상기 표시명령어 메모리에 저장된 이모티콘이면 상기 이모티콘에 해당하는 아바타 이미지 및 아바타 표시시간을 설정하여 상기 표시리스트에 저장하는 과정과,If the character string is an emoticon stored in the display command memory in the scanning process, setting an avatar image and an avatar display time corresponding to the emoticon and storing the emoticon in the display list; 상기 스캔과정에서 상기 문자열이 상기 표시명령어 메모리에 저장된 문자데이터이면 상기 문자데이터에 해당하는 아바타 이미지 및 아바타 표시시간을 설정하여 상기 표시리스트에 저장하는 과정과,Setting the avatar image and the avatar display time corresponding to the character data and storing them in the display list if the character string is character data stored in the display command memory in the scanning process; 상기 과정을 반복하면서 문자메시지에 포함된 표시명령어들에 해당하는 아바타 이미지 및 표시시간들을 순서대로 상기 표시리스트에 저장하는 과정으로 이루어짐을 특징으로 하는 상기 방법.And repeating the above steps and storing the avatar images and the display times corresponding to the display commands included in the text message in the display list in order. 제3항에 있어서, 상기 메시지를 표시하는 과정이,The method of claim 3, wherein displaying the message comprises: 상기 수신된 문자메시지를 표시하는 과정과,Displaying the received text message; 상기 표시리스트를 스캔하며, 상기 리스트에 등록된 아바타 이미지들을 상기 아바타메모리에서 순차적으로 억세스하며, 상기 억세스되는 아바타이미지들을 설정시간 동안 문자메시지와 함께 표시하는 과정으로 이루어짐을 특징으로 하는 방법.Scanning the display list, sequentially accessing avatar images registered in the list in the avatar memory, and displaying the accessed avatar images with a text message for a set time. 제4항에 있어서, 상기 문자메시지를 표시하는 과정이,The method of claim 4, wherein displaying the text message comprises: 상기 표시되는 문자메시지에 상기 아바타 이미지를 오버레이시켜 표시함을 특징으로 하는 상기 방법.And displaying the avatar image overlaid on the displayed text message. 제4항에 있어서, 상기 문자메시지를 표시하는 과정이,The method of claim 4, wherein displaying the text message comprises: 상기 표시되는 아바타 이미지에 상기 문자메시지를 풍선으로 표시함을 특징으로 하는 상기 방법.The text message is displayed on the displayed avatar image as a balloon. 각각 고유의 감정표현을 가지는 캐릭터들을 저장하는 캐릭터 메모리와 상기 캐릭터들의 표시를 위한 표시명령어들을 저장하는 표시명령어 메모리를 구비하는 휴대단말기의 문자메시지 표시 방법에 있어서,In the character message display method of a mobile terminal having a character memory for storing characters each having a unique emotion expression and a display instruction memory for storing display instructions for displaying the characters, 상기 문자메시지 수신시 상기 문자메시지의 문자열들을 상기 표시명령어 메모리의 표시명령어들과 비교 분석하는 과정과,Comparing and analyzing the character strings of the text message with the display commands of the display command memory when the text message is received; 상기 분석과정에서 상기 문자메시지에 포함된 표시명령어를 선택하는 과정과,Selecting a display command included in the text message in the analyzing process; 상기 선택된 표시명령어에 해당하는 캐릭터이미지를 상기 캐릭터메모리에서 억세스하여 상기 문자메시지와 함께 표시하는 과정으로 이루어짐을 특징으로 하는 상기 방법.And accessing the character image corresponding to the selected display command from the character memory and displaying the same with the text message. 제7항에 있어서, 상기 캐릭터가 아바타임을 특징으로 하는 상기 방법.8. The method as claimed in claim 7, wherein the character is an avatar. 제8항에 있어서, 상기 표시명령어를 선택하는 과정이, The method of claim 8, wherein the selecting of the display instruction word comprises: 상기 문자메시지에 포함된 첫 번째 표시명령어를 선택함을 특징으로 하는 상기 방법.Selecting the first display command included in the text message. 제8항에 있어서, 상기 표시명령어를 선택하는 과정이, The method of claim 8, wherein the selecting of the display instruction word comprises: 상기 문자메시지에 포함된 마지막 위치의 표시명령어를 선택함을 특징으로 하는 상기 방법.Selecting the display command of the last position included in the text message. 제8항에 있어서, 상기 표시명령어를 선택하는 과정이, The method of claim 8, wherein the selecting of the display instruction word comprises: 상기 문자메시지에 포함된 표시명령어들 중에서 가장 많은 수의 표시명령어를 선택함을 특징으로 하는 상기 방법.And selecting the largest number of display commands from the display commands included in the text message. 제9항 내지 제11항들 중의 어느 한 항에 있어서,The method according to any one of claims 9 to 11, 상기 표시명령어가 이모티콘인 것을 특징으로 하는 상기 방법.And said display command is an emoticon. 제9항 내지 제11항들 중의 어느 한 항에 있어서,The method according to any one of claims 9 to 11, 상기 표시명령어가 행복, 슬픔, 화남, 당황 및 부끄러움 등을 표시하기 위한 명령어이며, 상기 아바타 이미지들이 상기 각 감정표현에 대응되는 표현을 하는 이미지들임을 특징으로 하는 상기 방법.The display command is a command for displaying happiness, sadness, anger, embarrassment, and shame, and the avatar images are images representing expressions corresponding to the emotion expressions. 제9항 내지 제11항들 중의 어느 한 항에 있어서, 상기 아바타 이미지가 애니메이션으로 표시되며, 상기 문자메시지가 아바타 이미지의 풍선으로 표시됨을 특징으로 하는 상기 방법.The method as claimed in any one of claims 9 to 11, wherein the avatar image is displayed as an animation and the text message is displayed as a balloon of the avatar image. 제9항 내지 제11항들 중의 어느 한 항에 있어서, 상기 문자메시지를 표시하는 과정이,The method of claim 9, wherein displaying the text message comprises: 상기 아바타 이미지와 함께 상기 문자메시지가 풍선으로 표시됨을 특징으로 하는 상기 방법.The text message is displayed as a balloon together with the avatar image. 휴대단말기의 문자메시지 표시장치에 있어서,In the text message display device of the mobile terminal, 문자메시지를 수신하는 RF통신부와,RF communication unit for receiving a text message, 상기 문자메시지를 복조 및 복호하는 데이터 처리부와,A data processor for demodulating and decoding the text message; 각각 고유의 감정표현을 가지는 캐릭터들을 저장하는 캐릭터 메모리와, A character memory for storing characters each having a unique emotional expression, 상기 캐릭터들의 표시를 위한 표시명령어들을 저장하는 표시명령어 메모리와,A display instruction memory for storing display instructions for displaying the characters; 상기 복호된 문자메시지의 문자열을 상기 표시명령어 메모리의 표시명령어들과 비교 분석하여 상기 문자메시에 포함된 상기 표시명령어를 선택하며, 상기 선택된 표시명령에 해당하는 캐릭터이미지를 상기 캐릭터메모리에서 억세스하는 제어부와,A control unit for comparing the character string of the decoded text message with the display commands of the display command memory to select the display command included in the text message, and accessing a character image corresponding to the selected display command from the character memory; Wow, 상기 제어부에서 출력되는 문자메시지와 함께 상기 아바타 이미지를 표시하는 표시부로 구성된 것을 특징으로 하는 상기 장치.And a display unit for displaying the avatar image together with the text message output from the controller. 제16항에 있어서, 상기 캐릭터가 아바타임을 특징으로 하는 상기 방법.The method of claim 16, wherein the character is an avatar. 제17항에 있어서, 상기 제어부가 상기 문자메시지에 포함된 첫 번째 표시명령어를 선택함을 특징으로 하는 상기 장치.The apparatus of claim 17, wherein the controller selects a first display command included in the text message. 제17항에 있어서, 상기 제어부가, 상기 문자메시지에 포함된 마지막 위치의 표시명령어를 선택함을 특징으로 하는 상기 장치.The apparatus of claim 17, wherein the controller selects a display command of a last position included in the text message. 제17항에 있어서, 상기 제어부가, 상기 문자메시지에 포함된 표시명령어들 중에서 가장 많은 수의 표시명령어를 선택함을 특징으로 하는 상기 장치.18. The apparatus as claimed in claim 17, wherein the controller selects the largest number of display commands from among display commands included in the text message. 제18항 내지 제20항들 중의 어느 한 항에 있어서, 상기 표시명령어가 이모티콘임을 특징으로하는 상기 장치.21. The apparatus as claimed in any one of claims 18 to 20, wherein the display command is an emoticon. 제9항 내지 제11항들 중의 어느 한 항에 있어서,The method according to any one of claims 9 to 11, 상기 표시명령어가 행복, 슬픔, 화남, 당황 및 부끄러움 등을 표시하기 위한 명령어이며, 상기 아바타 이미지들이 상기 각 감정표현에 대응되는 표현을 하는 이미지들임을 특징으로 하는 상기 장치.The display command is a command for displaying happiness, sadness, anger, embarrassment and embarrassment, etc., wherein the avatar images are images representing expressions corresponding to each emotion expression.
KR1020040065365A 2003-12-27 2004-08-19 Method for processing message using avatar in wireless phone KR20050118054A (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020040110722A KR100720133B1 (en) 2003-12-27 2004-12-22 Method for processing message using avatar in wireless phone
US11/019,230 US9037982B2 (en) 2003-12-27 2004-12-23 Apparatus and method for processing a message using avatars in a wireless telephone
JP2004378127A JP4382654B2 (en) 2003-12-27 2004-12-27 Message processing apparatus and method using avatar in portable terminal
CNA2004101049505A CN1638514A (en) 2003-12-27 2004-12-27 Apparatus and method for processing a message using avatars in a wireless telephone
EP04030814.0A EP1549031B1 (en) 2003-12-27 2004-12-27 Apparatus and method for processing the content of a message by setting of avatars in a wireless telephone
CN2011100596340A CN102123206A (en) 2003-12-27 2004-12-27 Apparatus and method for processing message using anime image in portable terminal

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020040004245 2004-01-20
KR20040004245 2004-01-20

Publications (1)

Publication Number Publication Date
KR20050118054A true KR20050118054A (en) 2005-12-15

Family

ID=37291276

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020040065365A KR20050118054A (en) 2003-12-27 2004-08-19 Method for processing message using avatar in wireless phone

Country Status (1)

Country Link
KR (1) KR20050118054A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100747461B1 (en) * 2005-12-16 2007-08-09 엘지전자 주식회사 Mobile communications terminal for transmitting message and method thereof
KR100754432B1 (en) * 2006-06-01 2007-08-31 삼성전자주식회사 Method and apparatus for treatment of received message in mobile phone
KR100862728B1 (en) * 2007-03-06 2008-10-10 주식회사 케이티프리텔 Mobile Terminal for Providing Vibration Imoticon in Mobile Messenger and Method Thereof
KR101055513B1 (en) * 2009-02-20 2011-08-08 성균관대학교산학협력단 Method for visualizing and displaying text message and device using same
KR101230246B1 (en) * 2012-05-29 2013-02-06 주식회사 엔오비즈 Method and system for auto-calling of mobile phone

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100747461B1 (en) * 2005-12-16 2007-08-09 엘지전자 주식회사 Mobile communications terminal for transmitting message and method thereof
KR100754432B1 (en) * 2006-06-01 2007-08-31 삼성전자주식회사 Method and apparatus for treatment of received message in mobile phone
KR100862728B1 (en) * 2007-03-06 2008-10-10 주식회사 케이티프리텔 Mobile Terminal for Providing Vibration Imoticon in Mobile Messenger and Method Thereof
KR101055513B1 (en) * 2009-02-20 2011-08-08 성균관대학교산학협력단 Method for visualizing and displaying text message and device using same
KR101230246B1 (en) * 2012-05-29 2013-02-06 주식회사 엔오비즈 Method and system for auto-calling of mobile phone

Similar Documents

Publication Publication Date Title
KR100720133B1 (en) Method for processing message using avatar in wireless phone
KR100594049B1 (en) Method for data information displaying of mobile station
KR101397757B1 (en) Method of managing a language information for a text input and method of inputting a text and a mobile terminal
JP4280478B2 (en) Short message transmission method
JP2004533688A (en) Improved message display
JP2005135169A (en) Portable terminal and data processing method
KR20060045040A (en) Chat system, communication device, control method thereof and computer-readable information storage medium
KR101592178B1 (en) Portable terminal and method for determining user emotion status thereof
JP2005065252A (en) Cell phone
KR100800458B1 (en) Mobile communication terminal for transmitting handwritten message and the method of transmitting handwritten message using the same
CN111324262B (en) Application interface control method, device, terminal and medium
US9928084B2 (en) Electronic device and method for activating application
KR20050118054A (en) Method for processing message using avatar in wireless phone
JP6636604B2 (en) Emotion text display program, method and system
JP6454106B2 (en) Emotional text display program, method and system
KR100726255B1 (en) Portable Terminal and Method capable of inputting writing rapidly
JP2007219940A (en) Menu control device, mobile phone, and program for menu control device
JP2006215654A (en) Character information display system and character information display method
US11474691B2 (en) Method for displaying a virtual keyboard on a mobile terminal screen
KR20070045900A (en) Method for information analysing and operating in wireless terminal
EP1868064B1 (en) Handheld electronic device with assisted text entry using existing message thread, and associated method
KR102108656B1 (en) A character transmission method of a mobile communication terminal capable of transmitting a character in its own handwritin
KR20190072177A (en) User terminal device and method for providing chat rooms list
KR100793069B1 (en) Method of making message in mobile communication terminal
JP2012044562A (en) Portable terminal apparatus