KR20080004196A - System and method for managing character objects in mobile terminals - Google Patents

System and method for managing character objects in mobile terminals Download PDF

Info

Publication number
KR20080004196A
KR20080004196A KR1020060062915A KR20060062915A KR20080004196A KR 20080004196 A KR20080004196 A KR 20080004196A KR 1020060062915 A KR1020060062915 A KR 1020060062915A KR 20060062915 A KR20060062915 A KR 20060062915A KR 20080004196 A KR20080004196 A KR 20080004196A
Authority
KR
South Korea
Prior art keywords
user
character
mobile terminal
characteristic data
communication device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
KR1020060062915A
Other languages
Korean (ko)
Inventor
이민화
Original Assignee
이민화
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 이민화 filed Critical 이민화
Priority to KR1020060062915A priority Critical patent/KR20080004196A/en
Priority to PCT/KR2007/003252 priority patent/WO2008004813A1/en
Publication of KR20080004196A publication Critical patent/KR20080004196A/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/01Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/024Measuring pulse rate or heart rate
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/40Detecting, measuring or recording for evaluating the nervous system
    • A61B5/4005Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
    • A61B5/4017Evaluating sense of taste
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/0205Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/11Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/12Audiometering
    • A61B5/121Audiometering evaluating hearing capacity
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/34Microprocessors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/36Memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2201/00Electronic components, circuits, software, systems or apparatus used in telephone systems
    • H04M2201/38Displays

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Cardiology (AREA)
  • Psychiatry (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Psychology (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Educational Technology (AREA)
  • Hospice & Palliative Care (AREA)
  • Physiology (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Neurology (AREA)
  • Neurosurgery (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

이동 단말기 사용자의 감정적 특징 및 신체적 특징을 나타내는 캐릭터 개체(character entity)를 생성하고 갱신하는 시스템 및 방법을 개시한다. 캐릭터 개체는 사용자로부터 얻어진 생물학적 데이터 및/또는 사용자의 개인 정보(예를 들어, 일정, 전화통화의 패턴, 다른 사용자와 교환된 메시지)에 기초하여 사용자의 감정적 상태 및 신체적 상태의 특징을 결정한다. 캐릭터 개체는 예를 들어 휴대가능한 메모리 카드에 저장되고, 하나의 이동 단말기로부터 다른 이동 단말기로 전송될 수 있다. 캐릭터 개체는 이동 단말기 상에 디스플레이되는 아바타(avatar) 또는 컬러(color)를 통해서 그 이동 단말기에서 시각화될 수 있다.Disclosed are a system and method for creating and updating character entities that represent emotional and physical characteristics of a mobile terminal user. The character entity determines the characteristics of the emotional and physical state of the user based on biological data obtained from the user and / or the user's personal information (eg, a schedule, a pattern of telephone calls, a message exchanged with another user). The character entity may for example be stored in a portable memory card and may be transferred from one mobile terminal to another. The character entity may be visualized at the mobile terminal through an avatar or color displayed on the mobile terminal.

Description

이동 단말기에서 캐릭터 개체를 관리하는 시스템 및 방법{SYSTEM AND METHOD FOR MANAGING A CHARACTER ENTITY IN A MOBILE TERMINAL}SYSTEM AND METHOD FOR MANAGING A CHARACTER ENTITY IN A MOBILE TERMINAL}

도 1은 일 실시예에 따른 이동 단말기를 도시한다.1 illustrates a mobile terminal according to an embodiment.

도 2는 일 실시예에 따른 메모리에 저장되며 캐릭터 개체를 생성하는데 사용되는 정보의 구체적인 구성을 나타내는 블록도이다.2 is a block diagram illustrating a detailed configuration of information stored in a memory and used to generate a character entity, according to an exemplary embodiment.

도 3은 다른 실시예에 따른 사용자 특성에 기초하여 컬러를 디스플레이할 수 있는 이동 단말기를 도시한다.3 illustrates a mobile terminal capable of displaying color based on user characteristics according to another embodiment.

도 4는 또 다른 실시예에 따른 사용자 특성에 기초하여 컬러를 디스플레이할 수 있는 이동 단말기를 도시한다.4 illustrates a mobile terminal capable of displaying colors based on user characteristics according to another embodiment.

도 5는 일 실시예에 따른 이동 단말기에서 캐릭터 개체를 생성하는 방법을 도시한다.5 illustrates a method of generating a character entity in a mobile terminal according to an embodiment.

도 6은 일 실시예에 따른 이동 단말기에서 캐릭터 개체를 갱신하는 방법을 도시한다.6 illustrates a method of updating a character entity in a mobile terminal according to an embodiment.

도 7은 일 실시예에 따른 캐릭터 개체를 합성하는 시스템을 도시한다.7 illustrates a system for synthesizing a character entity according to one embodiment.

도 8은 일 실시예에 따른 캐릭터 개체를 합성하는 방법을 도시한다.8 illustrates a method of synthesizing a character entity according to an embodiment.

이동 단말기(예를 들어, 이동 전화기, PDA 등)의 처리 능력 및 무선 통신의 발달로 인해 사용자는 음성, 음악, 그림, 동영상 등과 같은 다양한 정보를 통신할 수 있게 되었다. 이동 단말기는 다른 사용자들에 관한 연락 정보를 저장하는데 널리 사용되고 있으며, 그 정보를 이용하여 상대방을 쉽게 인지할 수 있게 한다. 예를 들어, 이동 전화기에서 연락 정보가 저장되어 있는 개인으로부터 전화가 걸려오면, 그 개인의 정보(예를 들어, 전화번호, 이름 등)가 이동 전화기의 디스플레이 장치에 표시된다. 이동 단말기는 또한 이름, 전화 등과 같은 사용자의 개인 정보를 저장하는데도 사용된다.The development of the processing capabilities and wireless communications of mobile terminals (eg, mobile phones, PDAs, etc.) allows users to communicate various information such as voice, music, pictures, video, and the like. Mobile terminals are widely used to store contact information about other users, and use the information to easily recognize the other party. For example, when a call is received from an individual whose contact information is stored in the mobile phone, the information (for example, telephone number, name, etc.) of the individual is displayed on the display device of the mobile phone. Mobile terminals are also used to store user's personal information such as names, telephones, and the like.

일부 이동 단말기는 사용자로 하여금 아바타(avatar)를 이용하여 그들 자신을 표현할 수 있도록 한다. 예를 들어, 사용자는 이동 단말기를 이용하여 그 사용자를 표현할 수 있는 아바타를 선택한다. 아바타는 이동 단말기의 가상 환경에서 사용자를 디지털 정보로 표현하며, 일반적으로는 이동 단말기 상에 디스플레이된 사용자의 가상 캐릭터 표현(virtual character representation)으로 사용된다. 다른 이동 단말기와 통신 할 때, 이동 단말기의 아바타는 전송자의 표현으로써 다른 단말기로 전송될 수 있다.Some mobile terminals allow users to express themselves using avatars. For example, the user selects an avatar that can represent the user using the mobile terminal. The avatar represents the user as digital information in the virtual environment of the mobile terminal, and is generally used as a virtual character representation of the user displayed on the mobile terminal. When communicating with another mobile terminal, the avatar of the mobile terminal can be transmitted to the other terminal as a representation of the sender.

그러나, 이동 단말기에 사용되는 종래의 아바타는 일반적으로 사용자에 의해 수동적으로 선택되는 비교적 단순한 캐릭터이다. 예를 들어, 이동 단말기에 사용되는 종래의 아바타는 일반적으로 사용자의 선호에 따라 선택되는 캐릭터 모양 (예 를 들어, 동물, 만화 캐릭터, 사용자의 3차원 화상)이다. 사용자는 자신의 현재 상태 또는 개성을 반영하기 위해서 필요한 표정을 갖는 캐릭터 모양(예를 들어, 웃는 얼굴, 슬픈 얼굴, 화난 얼굴 등)과 같은 아바타를 선택할 수 있다. 선택된 아바타는 이동 단말기에 디스플레이되고 다른 사용자에게 전송된다.However, conventional avatars used in mobile terminals are generally relatively simple characters that are manually selected by the user. For example, a conventional avatar used for a mobile terminal is a character shape (eg, an animal, a cartoon character, or a three-dimensional image of a user) that is generally selected according to a user's preference. The user may select an avatar, such as a character shape (eg, a smiling face, a sad face, an angry face, etc.) having an expression necessary to reflect his or her current state or personality. The selected avatar is displayed on the mobile terminal and sent to another user.

종래의 이동 단말기는 또한 사용자로 하여금 컬러(color)를 이용하여 그들 자신을 표현할 수 있게 한다. 예를 들어, 일부 이동 단말기는 다양한 컬러의 삽입물(또는 외장 케이스)를 제공한다. 사용자는 자신의 선호에 따라 삽입물을 변경함으로써 단말기의 컬러를 변경한다.Conventional mobile terminals also allow users to express themselves using color. For example, some mobile terminals provide inserts (or exterior cases) of various colors. The user changes the color of the terminal by changing the insert according to his preference.

그러나, 이들 종래의 기술은 일반적으로 사용자가 그들 자신을 표현하거나 나타내기 위한 아바타 또는 컬러를 수동적으로 선택할 것을 요구한다. 아바타 및 컬러는 사용자의 선호에 따라 사용자에 의해 수동적으로 선택되기 때문에, 그 아바타 및 컬러는 특정 시간에서의 사용자의 상태 또는 개성을 정확하고 사실적으로 나타내지 못할 수 있다. 또한, 사용자의 상태나 선호가 바뀔 때마다, 이동 단말기의 아바타 및 컬러를 수동적으로 재구성해야 한다.However, these conventional techniques generally require the user to manually select an avatar or color to represent or represent themselves. Because avatars and colors are manually selected by the user according to the user's preferences, the avatars and colors may not accurately and realistically represent the user's state or personality at a particular time. In addition, whenever the user's state or preference changes, the avatar and color of the mobile terminal must be manually reconfigured.

따라서, 특정 시간에 사용자의 상태나 특성의 표현을 사실적으로 제공할 수 있는 이동 단말기가 요구된다. 또한, 사용자의 상태 또는 개성적인 특징들이 변경함에 따라 이동 단말기가 그 표현을 자동 생성하고 갱신하는 것이 바람직하다.Accordingly, there is a need for a mobile terminal that can realistically provide a representation of a user's state or characteristics at a particular time. It is also desirable for the mobile terminal to automatically generate and update its representation as the user's status or personal characteristics change.

본 명세서는 사용자의 생물학적 신호(biological signal) 및 개인 정보 (personal information)와 같은 사용자 특징 데이터(user characteristic data)에 기초하여 사용자의 상태를 나타내는 캐릭터 개체(character entity)를 자동 생성하고 갱신할 수 있는 개인 통신 장치 또는 이동 단말기에 관한 것이다. 이동 단말기는 아바타, 컬러, 소리 등과 같은 복수의 형태로 캐릭터 개체의 신체적 또는 외면적 표현(physical representation)을 제공할 수 있다. 이동 단말기의 캐릭터 개체는 생물학적 신호 또는 개인 정보와 같은 사용자 특징의 변화에 따라 변경될 수 있다.The present specification is capable of automatically generating and updating a character entity representing a user's status based on user characteristic data, such as a user's biological signal and personal information. A personal communication device or a mobile terminal. The mobile terminal may provide a physical or external representation of the character entity in a plurality of forms such as an avatar, color, sound, and the like. The character entity of the mobile terminal may change according to changes in user characteristics such as biological signals or personal information.

일 실시예에서, 이동 단말기는 입력 인터페이스 및 메모리를 포함한다. 입력 인터페이스는 사용자의 사용자 특징 데이터를 수신하고, 메모리는 수신된 사용자 특징 데이터를 저장한다. 이동 단말기는 수신된 사용자 특징 데이터에 기초하여 사용자의 상태를 나타내는 캐릭터 개체를 생성하도록 구성된다.In one embodiment, the mobile terminal includes an input interface and a memory. The input interface receives user characteristic data of the user, and the memory stores the received user characteristic data. The mobile terminal is configured to generate a character entity representing the state of the user based on the received user characteristic data.

다른 실시예에서, 캐릭터 개체를 합성하는 시스템은 입력 장치 및 서버를 포함한다. 입력 장치는 적어도 두 개의 이동 단말기로부터 캐릭터 개체를 수신하도록 구성된다. 서버는 수신된 캐릭터 개체에 기초하여 새로운 캐릭터 개체를 합성하도록 구성된다. 서버는 그 이동 단말기 또는 다른 이동 단말기에 합성된 캐릭터 개체를 전송하여, 합성된 캐릭터 개체를 수신한 이동 단말기는 그 캐릭터 개체를 저장하거나 추가의 처리를 수행한다.In another embodiment, a system for synthesizing a character entity includes an input device and a server. The input device is configured to receive the character entity from at least two mobile terminals. The server is configured to synthesize a new character entity based on the received character entity. The server transmits the synthesized character object to the mobile terminal or another mobile terminal, and the mobile terminal which receives the synthesized character object stores the character object or performs further processing.

또 다른 실시예에서, 캐릭터 개체를 합성하는 시스템은 메모리, 입력 장치, 및 처리 장치를 포함한다. 메모리는 캐릭터 개체를 저장하고, 입력 장치는 이동 단말기로부터 다른 캐릭터 개체를 수신하도록 구성된다. 처리 장치는 저장된 캐릭 터 개체 및 수신된 캐릭터 개체에 기초하여 새로운 캐릭터 개체를 합성하도록 구성된다.In yet another embodiment, a system for synthesizing a character entity includes a memory, an input device, and a processing device. The memory stores the character entity, and the input device is configured to receive another character entity from the mobile terminal. The processing device is configured to synthesize a new character object based on the stored character object and the received character object.

또 다른 실시예에서, 이동 단말기에서 캐릭터 개체를 생성하는 방법은 사용자의 사용자 특징 데이터의 제1 집합을 수신하는 단계와, 수신된 사용자 특징 데이터의 제1 집합에 기초하여 사용자의 상태를 나타내는 캐릭터 개체를 생성하는 단계를 포함한다. 캐릭터 개체는 이동 단말기의 메모리에 저장된다. In yet another embodiment, a method of generating a character entity in a mobile terminal includes receiving a first set of user feature data of a user and a character entity representing a state of the user based on the first set of received user feature data. Generating a step. The character object is stored in the memory of the mobile terminal.

다른 실시예에서, 캐릭터 개체를 합성하는 방법은 적어도 두 개의 이동 단말기로부터 적어도 두 개의 캐릭터 개체를 그 이동 단말기에 연결된 서버로 업로딩(uploading)하는 단계를 포함한다. 서버에 업로딩된 캐릭터 개체에 기초하여 새로운 캐릭터 개체가 합성된다.In another embodiment, a method of synthesizing a character entity includes uploading at least two character entities from at least two mobile terminals to a server coupled to the mobile terminal. New character objects are synthesized based on the character objects uploaded to the server.

또 다른 실시예에서, 복수의 컬러를 디스플레이할 수 있는 이동 단말기는 메모리 및 처리 모듈을 포함한다. 메모리는 사용자의 사용자 특징 데이터를 수신하여 저장한다. 처리 모듈은 메모리로부터 사용자 특징 데이터를 수신하여 분석하며, 수신된 사용자 특징 데이터에 응답하여 이동 단말기의 적어도 일부분에 컬러를 할당한다.In another embodiment, a mobile terminal capable of displaying a plurality of colors includes a memory and a processing module. The memory receives and stores user characteristic data of the user. The processing module receives and analyzes user feature data from the memory and assigns colors to at least a portion of the mobile terminal in response to the received user feature data.

또 다른 실시예에서, 복수의 컬러를 디스플레이할 수 있는 이동 단말기에서 컬러를 변경하는 방법은, 사용자의 사용자 특징 데이터를 수신하는 단계와, 수신된 사용자 특징 데이터에 응답하여 이동 단말기의 적어도 일부분에 컬러를 할당하는 단계를 포함한다. 할당된 컬러는 이동 단말기의 적어도 일부분에 디스플레이된다.In another embodiment, a method of changing colors in a mobile terminal capable of displaying a plurality of colors includes receiving user feature data of a user and colorting at least a portion of the mobile terminal in response to the received user feature data. The step of assigning. The assigned color is displayed on at least a portion of the mobile terminal.

이하에서, 다양한 실시예의 상세한 설명이 기술된다. 그러나, 이들 실시예는 이하에서 상세하게 설명된 것들의 일부 또는 전부를 포함하지 않고 실시될 수 있음이 명백할 것이다. 다른 예들에서, 본 명세서의 내용을 불필요하게 불명료하게 하지 않기 위해서, 널리 알려진 방법의 단계들 또는 구성요소들은 상세히 설명하지 않았다.In the following, detailed descriptions of various embodiments are described. However, it will be apparent that these embodiments may be practiced without some or all of those described in detail below. In other instances, steps or components of well-known methods have not been described in detail in order not to unnecessarily obscure the contents of this specification.

본 명세서는 이동 단말기 상에서 사용자의 상태를 나타내는 캐릭터 개체를 생성 및 수정하는 시스템 및 방법을 제공한다. 캐릭터 개체는 사용자로부터 얻어진 생물학적 데이터 및/또는 다른 사용자 특징들 (예를 들어, 일정, 전화통화의 패턴, 다른 사용자와 교환한 메시지 등)에 기초하여 사용자의 상태를 특징화한다. 캐릭터 개체가 생성되면, 이동 단말기는 아바타, 컬러, 소리 등과 같은 캐릭터 개체의 신체적 또는 외면적 표현을 제공한다. 이동 단말기는 다른 이동 단말기 또는 서버 컴퓨터로부터 아바타를 수신하거나 그 이동 단말기 또는 서버 컴퓨터에게 아바타를 전송한다. 일 실시예에서, 이동 단말기(예를 들어, 이동 전화기)는 생물학적 데이터 또는 다른 사용자 특징들에 따라 컬러를 변경할 수 있는 전기발광(electro-luminescent) 재료와 같은 재료로 만들어진다. 따라서, 본 명세서에 기재된 실시예들은 이동 단말기 상에서 사용자의 상태를 사실적으로 특징화하는 기술을 제공한다. 아바타는 일반적으로 개인의 웃는 얼굴 또는 모습과 같은 그래픽 또는 가상의 캐릭터 표현을 의미한다. 그러나, 본 명세서에서, "아바타(avatar)"는 이러한 예에 한정되지 않으며, 애니메이션, 소리, 컬러, 진동 또는 이들의 조합에 의한 표현을 포함할 수 있다.The present disclosure provides a system and method for creating and modifying a character entity representing a user's state on a mobile terminal. The character entity characterizes the user's state based on biological data obtained from the user and / or other user characteristics (eg, schedule, pattern of phone calls, messages exchanged with other users, etc.). Once a character entity is created, the mobile terminal provides a physical or external representation of the character entity, such as an avatar, color, sound, or the like. The mobile terminal receives an avatar from another mobile terminal or server computer or transmits an avatar to the mobile terminal or server computer. In one embodiment, a mobile terminal (eg, a mobile phone) is made of a material such as an electro-luminescent material that can change color in accordance with biological data or other user characteristics. Accordingly, embodiments described herein provide a technique for realistically characterizing the state of a user on a mobile terminal. An avatar generally means a graphical or virtual character representation, such as an individual's smiley face or appearance. However, herein, "avatar" is not limited to this example and may include representation by animation, sound, color, vibration, or a combination thereof.

도 1은 예시적인 이동 단말기(110)를 도시한다. 도시된 바와 같이, 이동 단말기(110)는 통신 링크(140)를 통하여 바이오 센서(bio-sensor)(130)로부터 사용자의 생물학적 신호, 즉 "바이오 신호(bio-signal)"를 수신하는 입력 인터페이스(113)를 포함한다. 바이오 센서(130)는 사용자의 바이오 신호를 감지하기 위한 하나 이상의 센서를 포함하며, 이에 관해서는 이하에서 상술할 것이다. 이동 단말기(110)는 또한 무선 또는 유선 통신 링크를 통하여 원격 바이오 센서, 서버 또는 다른 이동 단말기로부터 생물학적 데이터의 형태로 바이오 신호를 수신할 수 있다.1 illustrates an example mobile terminal 110. As shown, the mobile terminal 110 receives an input interface ("bio-signal") of the user from the bio-sensor 130 via the communication link 140 (bio-signal) ( 113). The biosensor 130 includes one or more sensors for sensing a bio signal of a user, which will be described in detail below. Mobile terminal 110 may also receive bio signals in the form of biological data from a remote biosensor, server or other mobile terminal via a wireless or wired communication link.

이동 단말기(110)에서, 메모리(116)는 입력 인터페이스(113)에 연결되어 바이오 신호를 수신하여 저장한다. 또한, 메모리(116)는 사용자의 일정, 전화통화의 패턴, 다른 사용자와 교환한 메시지 등과 같은 다른 사용자 특징을 저장할 수 있다. 예를 들어, 이동 단말기(110)는 사용자의 일정, 통화 패턴(예를 들어, 통화 착신지/발신지, 통화의 수, 응답하지 않은 착신의 수, 메시지 착신지/발신지, 메시지의 수 등)을 기록하고, 그 데이터를 메모리(116)에 저장한다.In the mobile terminal 110, the memory 116 is connected to the input interface 113 to receive and store bio signals. In addition, the memory 116 may store other user characteristics, such as a user's schedule, patterns of telephone calls, messages exchanged with other users, and the like. For example, the mobile terminal 110 may determine a user's schedule and call pattern (for example, call destination / call destination, number of calls, number of unanswered call destinations, message destination / call destination, number of messages, etc.). The data is stored in the memory 116.

사용자 특징 데이터(예를 들어, 사용자의 바이오 신호 및/또는 개인 정보)는 메모리(116)에 연결된 캐릭터 모듈(character module)(114)에서 처리된다. 캐릭터 모듈(114)은 프로세서(예를 들어, CPU), ASIC 또는 이동 전화기, PDA 등과 같은 이동 단말기에서 사용되는 어떠한 적절한 처리 장치를 이용해서 구현될 수 있다. 캐릭터 모듈(114)은 수신된 데이터에 기초하여, 이동 단말기의 LCD 디스플레이 장치(117) 또는 다른 구성요소 상에 디스플레이 또는 출력하기 위해, 사용자의 상태를 반영한 캐릭터 개체(예를 들어, 아바타, 컬러, 소리, 진동 등)를 생성한다. 예를 들어, 사용자의 생물학적 데이터가 높은 맥박율(pulse rate)을 나타낸다면, 캐릭터 개체는 맥박치는 심장을 시각화할 수 있다. 마찬가지로, 만약 사용자의 일정이 특정 날짜에 대해 일정이 꽉 차있음을 나타낸다면, 캐릭터 개체는 서류 가방을 들고 달리는 모습으로 보여질 수 있다. 또한, 사용자의 데이터가 건강하지 못한 상태를 나타낸다면, 캐릭터 개체는 누워 있는 상태로 디스플레이될 수 있다. 이에 더하여 또는 이를 대신하여, 캐릭터 개체에게 사용자의 상태를 나타내는 컬러가 할당 또는 지정될 수 있다. 건강하지 못한 사용자 상태의 경우, 예를 들어, 캐릭터 모듈(114)은 캐릭터 개체에게 빨간색을 할당하여 디스플레이되도록 할 수 있다. 본 명세서에서 사용되는 "컬러(color)"라는 용어는 색의 차이(chrominance, 예를 들어 빨간색, 파란색, 초록색) 뿐만아니라 휘도(luminance, 예를 들어 회색, 검은색, 하얀색)를 의미한다.User feature data (eg, a user's bio signal and / or personal information) is processed in a character module 114 coupled to the memory 116. The character module 114 may be implemented using a processor (eg, a CPU), an ASIC or any suitable processing device used in a mobile terminal such as a mobile phone, a PDA, or the like. Character module 114, based on the received data, to display or output on the LCD display device 117 or other components of the mobile terminal, character objects (eg, avatar, color, Sound, vibration, etc.). For example, if the user's biological data indicates a high pulse rate, the character entity can visualize the pulsed heart. Similarly, if the user's schedule indicates that the schedule is full for a particular date, the character entity may be shown running with a briefcase. Also, if the user's data indicates an unhealthy state, the character entity may be displayed in a lying state. In addition or in place of this, a color representing the user's state may be assigned or assigned to the character entity. In the case of an unhealthy user state, for example, the character module 114 may assign a red color to the character entity for display. As used herein, the term "color" means not only the chrominance (eg red, blue, green) but also the luminance (eg gray, black, white).

캐릭터 개체가 생성되면, 캐릭터 모듈(114)은 새로운 사용자 특징 데이터가 수신될 때 그 캐릭터 개체를 수정하거나 갱신한다. 만약 사용자의 새로운 생물학적 데이터가 사용자의 건강 상태가 향상되고 있음을 나타낸다면, 예를 들어, 캐릭터 모듈(114)은 그 상태를 반영하기 위하여 캐릭터 개체를 수정하기 위한 정보 처리를 수행한다. 누워 있는 캐릭터를 사용하는 경우에, 캐릭터 개체는 건강한 상태에서 침대가 없는 모습으로 보여질 수 있다.Once a character entity is created, character module 114 modifies or updates that character entity when new user feature data is received. If the user's new biological data indicates that the user's health status is improving, for example, the character module 114 performs information processing to modify the character entity to reflect that status. In the case of using a lying character, the character entity can be seen as a bedless state in a healthy state.

이동 단말기(110)는 데이터 통신 장치(112)를 통하여 다른 이동 단말기, 서버 또는 컴퓨터와 같은 외부 장치와 캐릭터 개체 및 사용자 특징 데이터를 통신할 수 있다. 데이터 통신 장치(112)는 안테나(11)를 통하여 외부 장치와 통신할 수 있도록 캐릭터 개체 및 사용자 특징 데이터를 변환한다. 이러한 데이터 전송은 예를 들어 셀룰러(cellular) 통신망, 종래의 무선 인터넷 또는 두 개의 단말기 사이의 직접 통신 (예를 들어, 불루투스(Bluetooth))을 통해서 실행될 수 있다. 이동 단말기(110)는 또한 휴대가능한 메모리 카드(portable memory card)(120)와 인터페이싱(interfacing)하여 캐릭터 개체 및/또는 사용자 특징 데이터를 저장 또는 검색하기 위한 입출력 인터페이스(115)를 포함할 수 있다. The mobile terminal 110 may communicate character entity and user characteristic data with an external device such as another mobile terminal, a server, or a computer through the data communication device 112. The data communication device 112 converts the character entity and the user characteristic data to communicate with the external device through the antenna 11. Such data transmission can be carried out, for example, via a cellular network, conventional wireless internet or direct communication between two terminals (eg Bluetooth). The mobile terminal 110 may also include an input / output interface 115 for interfacing with a portable memory card 120 to store or retrieve character objects and / or user feature data.

이동 단말기(110)는 이동 전화기, PDA(personal digital assistant) 및 노트북 컴퓨터와 같은 이동 통신 기능을 갖는 어떠한 종류의 개인 통신 장치(personal communication device)일 수 있다. 일 실시예에서, 이동 단말기를 위한 외부 케이스는 사용자 특징 데이터에 응답하여 컬러 또는 광 세기(light intensity)를 변경할 수 있는 유기 EL(electro-luminescence) 또는 무기 EL 재료로 만들어진다.The mobile terminal 110 may be any kind of personal communication device having a mobile communication function such as a mobile phone, a personal digital assistant (PDA) and a notebook computer. In one embodiment, the outer case for the mobile terminal is made of organic electro-luminescence (EL) or inorganic EL material that can change color or light intensity in response to user characteristic data.

도 2는 캐릭터 개체(200)를 생성하는데 사용되는 다양한 정보 및 모듈을 포함하는 메모리(116)의 일 실시예를 도시한다. 캐릭터 개체(200)는 개인 정보(210), 생물학적 정보(220), 감정 모델(emotion model)(230), 신체 모델(physical model)(240) 및 행동 엔진(behavior engine)(250)을 포함한다. 감정 모델(230)은 사용자의 현재 감정 상태를 나타내고, 신체 모델(240)은 사용자의 신체 상태를 나타낸다. 행동 엔진(250)은 감정 모델(230) 및 신체 모델(240)로부터의 속성들에 기초하여 캐릭터 개체의 행동을 모델링한다. 도 2에 도시된 바와 같이, 캐릭터 개체(200)는 이동 단말기(110)의 메모리(116)에 임시 저장되며, 캐릭터 모듈(114)은 메모리(116)를 엑세스하여 캐릭터 개체(200)를 실시간으로 처리한다.2 illustrates one embodiment of a memory 116 that includes various information and modules used to create a character entity 200. The character entity 200 includes personal information 210, biological information 220, an emotion model 230, a physical model 240, and a behavior engine 250. . The emotion model 230 represents the user's current emotional state, and the body model 240 represents the user's body state. The behavior engine 250 models the behavior of the character entity based on the attributes from the emotional model 230 and the body model 240. As shown in FIG. 2, the character entity 200 is temporarily stored in the memory 116 of the mobile terminal 110, and the character module 114 accesses the memory 116 to access the character entity 200 in real time. Process.

개인 정보(210)는 캐릭터 모듈(114)에 의해 관리되고 갱신된다. 개인 정보(210)는 주소록(예를 들어, 이름 또는 이름의 그룹, 대응되는 전화번호, 이메일 주소 및 홈페이지 주소), 일정(예를 들어, 모임의 이름, 모임 장소, 시작 및 종료 시간, 참석자, 관련 메모) 및 전화통화의 패턴(예를 들어, 상대방의 이름 및 전화번호, 전화통화의 시작 시간 및 길이, 다른 사용자와 교환된 단문 메시지, 다른 사용자와의 전화통화 또는 메시지의 수, 응답하지 못한 착신 또는 메시지의 수 등)와 같은 사용자 정보를 포함한다. 캐릭터 모듈(114)에 의해 수집된 개인 정보(210)는 감정 모델(230) 및 행동 엔진(250)으로 제공되고, 감정 모델(230) 및 행동 엔진(250)은 그 정보에 기초하여 감정 및 행동을 예측한다. 본 명세서에 기술되지 않았지만, 감정 모델(230) 및 행동 엔진(250)을 구현하기 위해서는 정신 또는 행동 심리학 분야에서 개발된 어떠한 방법 또는 이론이 적용될 수 있다.Personal information 210 is managed and updated by character module 114. Personal information 210 may include an address book (e.g., a name or group of names, a corresponding phone number, an email address, and a homepage address), an event (e.g., the name of a meeting, meeting place, start and end times, attendees, Related notes) and patterns of phone calls (for example, the name and phone number of the other party, the start time and length of the phone call, short messages exchanged with other users, the number of phone calls or messages with other users, failed to answer) User information, such as the number of incoming or outgoing messages). The personal information 210 collected by the character module 114 is provided to the emotion model 230 and the behavior engine 250, and the emotion model 230 and the behavior engine 250 are based on the information. To predict. Although not described herein, any method or theory developed in the field of mental or behavioral psychology may be applied to implement the emotional model 230 and the behavior engine 250.

감정 모델(230) 및 신체 모델(240)은 바이오 센서(130)를 통해서 얻어진 생물학적 정보(220)를 이용하여 생성되고 갱신된다. 특히, 신체 모델(240)은 생물학적 정보(220)(예를 들어, 생물학적 신호, 데이터 등)에 기초하여 사용자의 다양한 기관(organ)들을 모델링함으로써 사용자의 가상의 생리적 모델(physiological model)을 표현한다. 신체 모델(240)에 저장된 속성들은 아바타를 기하학적으로 모델링하기 위해 사용되며, 아바타는 가상 세계에서의 캐릭터 개체(200)를 나타낸다. 상기 예에서 개인 정보가 감정 모델 및 행동 엔진을 모델링하기 위해 사용되고, 생물학적 정보가 감정 모델 및 신체 모델을 모델링하기 위해 사용되었지만, 각 모델 은 또한 다른 종류의 데이터를 이용하여 생성 또는 갱신될 수 있다 (예를 들어, 다수의 수신되는 착신과 같은 개인 정보에 응답하여, 신체 모델이 사용자의 피곤한 상태를 모델링할 수 있다).Emotion model 230 and body model 240 are generated and updated using biological information 220 obtained through biosensor 130. In particular, body model 240 represents a user's virtual physiological model by modeling various organs of the user based on biological information 220 (eg, biological signals, data, etc.). . Attributes stored in body model 240 are used to geometrically model the avatar, which represents the character entity 200 in the virtual world. In the above example, personal information was used to model the emotion model and the behavior engine, and biological information was used to model the emotion model and the body model, but each model can also be generated or updated using different kinds of data ( For example, in response to personal information, such as a number of incoming calls, the body model may model the user's tired state).

다시 도 1을 참조하면, 이동 단말기(110)는 바이오 센서(130)를 통하여 사용자의 생물학적 정보(220)를 수신한다. 바이오 센서(130)는 이동 단말기(110)에 내장되거나 통신 링크(140)를 통하여 이동 단말기(110)와 통신할 수 있다. 대부분의 경우에 통신 링크(140)는 무선 연결로 구현되는 것이 바람직하지만, 다른 구성에서, 바이오 센서(130)는 유선 연결을 통해 무선 단말기(110)에 연결될 수 있다.Referring back to FIG. 1, the mobile terminal 110 receives the biological information 220 of the user through the biosensor 130. The biosensor 130 may be embedded in the mobile terminal 110 or communicate with the mobile terminal 110 via the communication link 140. In most cases, communication link 140 is preferably implemented in a wireless connection, but in other configurations, biosensor 130 may be connected to wireless terminal 110 via a wired connection.

바이오 센서(130)는 마이크로폰(microphone)과 같은 청각 센서(131), 카메라와 같은 시각 센서(132), 예를 들어 나노(nano) 기술을 이용하여 제조된 미각 센서(133) 및 후각 센서(134), 또는 MEMS(micro-electro mechanical systems) 가속도계와 같은 동작 센서(135)를 포함한다. 또한, 사용자의 생물학적 정보(220)는 온도계(136), 맥박 센서(137) 또는 ECG(electrocardiogram) 센서(138)를 통하여 바이오 신호를 측정하여 얻어질 수 있다. 도 1은 이동 단말기(110)에서 사용될 수 있는 다수의 서로 다른 바이오 센서를 도시하고 있지만, 센서(130)는 사용자의 신체 상태를 감지할 수 있는 임의의 개수의 임의의 종류의 센서를 이용할 수 있다.The biosensor 130 is an acoustic sensor 131 such as a microphone, a visual sensor 132 such as a camera, for example, a taste sensor 133 and an olfactory sensor 134 manufactured using nano technology. Or motion sensors 135, such as micro-electro mechanical systems (MEMS) accelerometers. In addition, the biological information 220 of the user may be obtained by measuring the bio signal through the thermometer 136, the pulse sensor 137, or the electrocardiogram (ECG) sensor 138. Although FIG. 1 illustrates a number of different biosensors that may be used in the mobile terminal 110, the sensor 130 may use any number of sensors of any kind capable of sensing the user's physical condition. .

바이오 센서(130)에 의해 얻어진 생물학적 정보는 입력 인터페이스(113)를 통해서 메모리(116)에 전송된다. 캐릭터 모듈(114)은 메모리(116)에 저장된 생물학적 정보 및 개인 정보를 엑세스하고 그 정보를 처리함으로써, 상기한 바와 같은 캐릭터 개체(200)의 감정 모델(230) 및 신체 모델(240)을 생성 및 갱신한다.Biological information obtained by the biosensor 130 is transmitted to the memory 116 via the input interface 113. The character module 114 generates and generates an emotional model 230 and a body model 240 of the character entity 200 as described above by accessing and processing the biological and personal information stored in the memory 116. Update

예를 들어, 캐릭터 모듈(114)은 청각 센서(131)를 통해서 얻어진 사용자의 음성 데이터를 분석하여 사용자의 건강 상태에 관한 정보를 생성한다. 이 경우에, 캐릭터 모듈(114)은 공지의 알고리즘을 이용하여 음성을 분석하여 사용자의 건강 상태를 모델링할 수 있다. 동양 의학 또는 음성학(phonetics)의 공지된 이론에 따르면, 개인의 건강 상태는 개인의 음성을 분석하여 알 수 있다.For example, the character module 114 analyzes voice data of the user obtained through the auditory sensor 131 and generates information about the health state of the user. In this case, the character module 114 may model the health state of the user by analyzing the voice using a known algorithm. According to known theories of Oriental medicine or phonetics, an individual's state of health can be known by analyzing the individual's voice.

또한, 미각 센서(133) 및 후각 센서(134)는 적층 금속 산화물(laminate metal oxide) 센서, 나노 바이오 센서 등을 이용하여 구현될 수 있으며, 와인, 음식, 부폐된 음식, 위조된 주류, 위험 물질 등의 맛 또는 냄새를 감지하는데 사용된다. 캐릭터 모듈(114)은 센서(133, 134)에 의해 얻어진 미각 및 후각 정보를 사전 결정된 값들과 비교하여 신체 모델(240)의 대응되는 속성들을 갱신하며, 이는 그 정보의 출처에 대한 캐릭터 개체(200)의 행동을 결정한다.In addition, the taste sensor 133 and the olfactory sensor 134 may be implemented using a laminated metal oxide sensor, a nano biosensor, and the like, and may include wine, food, depleted food, forged liquor, and dangerous substances. It is used to detect the taste or smell of the lamp. The character module 114 compares the taste and olfactory information obtained by the sensors 133 and 134 with predetermined values to update the corresponding attributes of the body model 240, which is the character entity 200 for the source of that information. Determines the behavior of

메모리(116)에 저장된 감정 모델(230), 신체 모델(240) 및 행동 엔진(250)을 포함하는 캐릭터 개체(200)는 휴대가능한 메모리 카드(120)로 전송된다. 휴대가능한 메모리 카드(120)는 이동 단말기(110)로부터 분리되어 다른 이동 단말기에 부착될 수 있다. 이와 같이, 사용자는 캐릭터 개체를 다시 생성할 필요 없이 새로운 이동 단말기로 캐릭터 개체(200)를 전송하여 관리할 수 있다.The character entity 200 including the emotion model 230, the body model 240, and the behavior engine 250 stored in the memory 116 is transmitted to the portable memory card 120. The portable memory card 120 may be detached from the mobile terminal 110 and attached to another mobile terminal. As such, the user may transmit and manage the character object 200 to a new mobile terminal without having to recreate the character object.

캐릭터 개체(200)는 그래픽 또는 애니메이션 데이터를 더 포함할 수 있으며, 그 데이터를 이용하여 감정 모델(230) 및 신체 모델(240)은 아바타의 형태로 시각화될 수 있다. 아바타는 시간의 흐름에 따라 변하는 감정 모델(230) 및 신체 모델(240)뿐만 아니라 행동 엔진(250)의 출력에 응답하여 갱신 또는 수정될 수 있다. 캐릭터 모듈(114)은 캐릭터 개체(200)에 포함된 그래픽 또는 애니메이션 데이터를 이용하여 아바타를 LCD 디스플레이 장치(117) 상에서 시각화한다.The character entity 200 may further include graphic or animation data, and the emotion model 230 and the body model 240 may be visualized in the form of an avatar using the data. The avatar may be updated or modified in response to the output of the behavioral engine 250 as well as the emotional model 230 and the body model 240 that change over time. The character module 114 visualizes the avatar on the LCD display device 117 using graphic or animation data included in the character object 200.

도 3은 이동 단말기(110)가 사용자 특징에 기초하여 컬러를 디스플레이할 수 있는 실시예를 도시한다. 이 실시예에서, 이동 단말기(110)는 유기 EL 또는 무기 EL 재료와 같은 전기발광(electro-luminescent, EL) 재료로 만들어진 케이스(118)를 포함한다. 본 발명의 기술분야에서 널리 알려진 바와 같이, 그러한 물질로 만들어진 케이스(118)는 입력 신호 (예를 들어, 전압 또는 전류 신호)에 응답하여 발광하는 광의 세기 또는 컬러를 변경한다. 케이스(118)는 EL 재료로 제조되지만, 이동 단말기의 케이스의 특정 부분 또는 어떤 부분만을 EL 재료로 구성하여 사용자의 상태를 나타내는 컬러를 디스플레이할 수 있다.3 illustrates an embodiment in which mobile terminal 110 may display colors based on user characteristics. In this embodiment, the mobile terminal 110 includes a case 118 made of electro-luminescent (EL) material, such as an organic EL or inorganic EL material. As is well known in the art, cases 118 made of such materials change the intensity or color of light that emits in response to an input signal (eg, a voltage or current signal). The case 118 is made of an EL material, but only a specific portion or any portion of the case of the mobile terminal can be made of the EL material to display a color representing the state of the user.

캐릭터 모듈(114)은 감정 모델(230), 신체 모델(240) 및 행동 엔진(250)의 속성들에 기초하여 케이스(118)에 대한 컬러 입력 신호를 생성한다. 캐릭터 개체(200)는 케이스 상에 디스플레이될 컬러 정보를 포함할 수 있다. 일 실시예에서, 캐릭터 모듈(114)은 사용자 특징을 분석하고, 케이스(118)에 입력될 컬러 신호를 생성한다. 만약 사용자 특징 데이터가 건강하지 못한 상태를 나타낸다면, 빨간색에 대응하는 컬러 신호가 생성되어 케이스(118)에 제공될 수 있다. 예를 들어, 만약 사용자의 (바이오 센서(130) 또는 이동 단말기(110)의 내부 마이크로폰을 통해서 입력될 수 있는) 음성이 건강하지 못한 상태를 나타낸다면, 캐릭터 모듈(114)은 빨간색을 나타내는 컬러 신호를 출력한다. 컬러 신호에 응답하여, 케이스(118)는 이동 단말기(110) 상에 빨간색을 디스플레이한다. 다음으로, 만약 사용자의 음성 이 건강한 상태를 나타낸다면, 파란색을 나타내는 컬러 신호가 케이스(118)의 디스플레이를 위해 제공될 수 있다. 사용자 특징 데이터에 따라 컬러를 디스플레이하고 변경함으로써, 사용자의 상태는 이동 단말기 상에 용이하게 자동적으로 표현된다.The character module 114 generates a color input signal for the case 118 based on the attributes of the emotional model 230, the body model 240, and the behavior engine 250. The character entity 200 may include color information to be displayed on the case. In one embodiment, character module 114 analyzes user characteristics and generates color signals to be input to case 118. If the user characteristic data indicates an unhealthy state, a color signal corresponding to red may be generated and provided to the case 118. For example, if the user's voice (which may be input through the biosensor 130 or the internal microphone of the mobile terminal 110) represents an unhealthy state, the character module 114 may display a color signal indicating red color. Outputs In response to the color signal, case 118 displays red on mobile terminal 110. Next, if the user's voice indicates a healthy state, a color signal indicative of blue may be provided for display of case 118. By displaying and changing the color according to the user characteristic data, the user's status is easily and automatically represented on the mobile terminal.

도 4는 이동 단말기(400)가 사용자 특징에 기초하여 컬러를 디스플레이할 수 있는 실시예를 도시한다. 이 실시예에서, 이동 단말기(400)는 EL 재료로 제조된 케이스(410)를 포함한다. 상기한 바와 같이, 케이스(410)는 입력 신호에 따라 발광되는 광의 세기 또는 컬러를 변경할 수 있는 재료로 만들어진다. 케이스(410)는 EL 재료로 제조되지만, 케이스 또는 이동 단말기 또는 케이스의 특정 부분 또는 어떤 부분만을 EL 재료로 구성하여 사용자의 상태를 나타내는 컬러를 디스플레이할 수 있다.4 illustrates an embodiment in which the mobile terminal 400 can display colors based on user characteristics. In this embodiment, the mobile terminal 400 includes a case 410 made of EL material. As described above, the case 410 is made of a material capable of changing the intensity or color of light emitted according to the input signal. Although the case 410 is made of an EL material, only a specific part or any part of the case or the mobile terminal or the case may be made of the EL material to display a color representing the state of the user.

처리 모듈(420)은 바이오 센서(430) 또는 내부 마이크로폰(440)과 같은 센서를 통해서 입력되는 다양한 바이오 신호를 분석하여, 예를 들어 사용자의 현재 감정 또는 건강 상태를 나타내는 출력 신호를 생성한다. 처리 모듈(420)의 그러한 출력 신호는 케이스(410)에 입력되는 컬러 신호로 사용되고, 이 신호는 사용자의 감정 또는 건강 상태에 따라 서로 다른 컬러를 나타낸다. 컬러 신호에 응답하여, 케이스(410)는 이동 단말기(110) 상에 컬러 신호에 대응하는 특정 컬러를 디스플레이한다.The processing module 420 analyzes various bio signals input through a sensor, such as the biosensor 430 or the internal microphone 440, and generates, for example, an output signal indicative of the user's current emotion or health condition. Such an output signal of the processing module 420 is used as a color signal input to the case 410, which represents different colors according to the user's emotion or health condition. In response to the color signal, case 410 displays a specific color corresponding to the color signal on mobile terminal 110.

도 5는 이동 단말기(110)에서 캐릭터 개체를 생성하는 방법의 일 실시예를 나타내는 흐름도이다. 동작(510)에서, 이동 단말기(110)는 개인 정보(210) 및/또 는 바이오 센서(130)로부터의 생물학적 정보(220)와 같은 사용자 특징 데이터를 수집하고 저장한다. 위에서 도 2를 참조하여 설명한 바와 같이, 개인 정보(210)는 주소록, 일정 및 전화통화의 패턴과 같은 사용자 정보를 포함하며, 이 정보는 메모리(116)에 저장된다. 또한, 생물학적 정보(220)는 사용자의 현재 감정 및 신체 상태를 나타내는 바이오 신호 및 데이터를 포함하며, 여기에는 상술한 바와 같은 청각 센서(131)를 통해 입력된 사용자의 음성, 시각 센서(132)에 의해 얻어진 영상, 미각 센서(133) 및 후각 센서(134)에 의해 얻어진 미각 및 후각 데이터 등이 포함된다.5 is a flowchart illustrating an embodiment of a method of generating a character entity in the mobile terminal 110. In operation 510, mobile terminal 110 collects and stores user characteristic data, such as personal information 210 and / or biological information 220 from biosensor 130. As described above with reference to FIG. 2, personal information 210 includes user information, such as an address book, a schedule, and a pattern of a telephone call, which information is stored in memory 116. In addition, the biological information 220 may include bio signals and data representing the current emotion and physical state of the user, and may include the user's voice and visual sensor 132 input through the auditory sensor 131 as described above. And the taste and smell data obtained by the taste sensor 133 and the smell sensor 134.

사용자 특징 데이터에 기초하여, 이동 단말기(110)는 캐릭터 개체(200)를 생성한다 (동작 520). 특히, 캐릭터 모듈(114)은 메모리(116)로부터의 개인 정보(210) 및/또는 생물학적 정보(220)를 처리하여 사용자의 상태를 나타내는 감정 및 신체 모델(230, 240) 및 행동 엔진을 포함하는 캐릭터 개체(200)를 생성한다.Based on the user characteristic data, the mobile terminal 110 generates a character entity 200 (operation 520). In particular, the character module 114 processes the personal information 210 and / or biological information 220 from the memory 116 to include emotion and body models 230 and 240 and an action engine to indicate the user's condition. Create a character object 200.

캐릭터 개체(200)를 생성한 후, 이동 단말기(110)는 휴대가능한 메모리 카드(120)에 생성된 캐릭터 개체(200)를 저장한다 (동작 530). 캐릭터 개체(200)는 무선/유선 연결을 통해 이동 단말기(110)에 연결된 다른 이동 단말기, 컴퓨터, 또는 서버로 전송될 수 있다. 이와 같이, 이동 단말기(110)의 사용자는 다른 장치 상에 자신의 상태를 나타내는 캐릭터 개체(200)를 용이하게 전송하여 재생성할 수 있다.After generating the character entity 200, the mobile terminal 110 stores the generated character entity 200 in the portable memory card 120 (operation 530). The character entity 200 may be transmitted to another mobile terminal, a computer, or a server connected to the mobile terminal 110 through a wireless / wired connection. As such, the user of the mobile terminal 110 may easily transmit and regenerate the character entity 200 representing its state on another device.

도 6은 이동 단말기(110)에서 캐릭터 개체를 갱신 또는 수정하는 방법의 일 실시예를 나타내는 흐름도를 도시한다. 이동 단말기(110) 상에서 캐릭터 개체가 생성되어 저장된 후, 이동 단말기(110)는 캐릭터 개체(200)를 갱신하기 위한 명령 어가 수신되었는지를 결정한다 (동작 610). 캐릭터 개체(200)는 사용자에 의해 설정된 바에 따라 주기적으로 또는 비주기적으로 갱신되거나, 새로운 사용자 특징 데이터가 수신될 때마다 자동적으로 갱신될 수 있다.6 is a flowchart illustrating an embodiment of a method of updating or modifying a character entity in the mobile terminal 110. After the character entity is generated and stored on the mobile terminal 110, the mobile terminal 110 determines whether a command for updating the character entity 200 has been received (operation 610). The character entity 200 may be updated periodically or aperiodically as set by the user, or automatically updated whenever new user feature data is received.

만약 캐릭터 개체(200)가 갱신될 필요가 있을 때에는, 이동 단말기(110)는 휴대가능한 메모리 카드(120)로부터 메모리(116)로 캐릭터 개체를 로딩한다 (동작 620). 캐릭터 개체(200)는 메모리(116)로 로딩되고 휴대가능한 메모리 카드(120)에서 엑세스되지만, 캐릭터 개체(200)는 휴대가능한 메모리 카드(120)로부터 로딩되거나 그것에 저장되지 않고 메모리(116)에서 갱신될 수 있다.If the character entity 200 needs to be updated, the mobile terminal 110 loads the character entity from the portable memory card 120 into the memory 116 (operation 620). The character entity 200 is loaded into the memory 116 and accessed from the portable memory card 120, but the character entity 200 is updated from the memory 116 without being loaded from or stored in the portable memory card 120. Can be.

동작(630)에서, 이동 단말기(110)는 새로운 사용자 특징 데이터(예를 들어, 개인 정보(210) 및/또는 바이오 센서(130)로부터의 생물학적 정보(220))를 분석한다. 동작(640)에서, 이동 단말기(110)는 새로운 정보에 기초하여 캐릭터 개체(200)를 갱신 또는 수정한다. 특히, 캐릭터 모듈(114)은 개인 정보(210) 및/또는 생물학적 정보(220)를 처리하여 캐릭터 개체(200)에 포함된 감정 및 신체 모델(230, 240) 및 행동 엔진(250)을 갱신한다. 이 동작에서, 캐릭터 개체(200)는 바람직하게는 케이스(118) 또는 케이스의 일부분 상의 컬러를 갱신 또는 수신하기 위한 컬러 정보를 포함한다. 이동 단말기(110)는 메모리(116)에서 갱신된 캐릭터 개체(200)를 휴대가능한 메모리 카드(120)에 저장한다 (동작 650).In operation 630, the mobile terminal 110 analyzes new user characteristic data (eg, personal information 210 and / or biological information 220 from the biosensor 130). In operation 640, the mobile terminal 110 updates or modifies the character entity 200 based on the new information. In particular, the character module 114 processes the personal information 210 and / or biological information 220 to update the emotion and body models 230 and 240 and the behavior engine 250 included in the character entity 200. . In this operation, character entity 200 preferably includes color information for updating or receiving color on case 118 or a portion of the case. The mobile terminal 110 stores the character entity 200 updated in the memory 116 in the portable memory card 120 (operation 650).

도 7 및 도 8을 참조하여, 복수의 이동 단말기로부터 얻어진 복수의 캐릭터 개체를 합성하는 시스템 및 방법의 일 실시예를 상세히 설명한다.7 and 8, an embodiment of a system and method for synthesizing a plurality of character entities obtained from a plurality of mobile terminals will be described in detail.

생성된 캐릭터 개체들이 합성되어 새로운 캐릭터 개체를 생성할 수 있다. 도 7은 복수의 이동 단말기(712 내지 716)로부터의 복수의 캐릭터 개체를 합성하는 시스템의 일 실시예를 도시한다. 도 7에 도시된 바와 같이, 서버(730)는 무선/유선 네트워크(720)를 통해서 이동 단말기(712 내지 716)로부터 캐릭터 개체를 수신한다. 네트워크(720)는 인터넷, 캠퍼스/기업 인트라넷, 광역 네트워크(WAN), 지역 네트워크(LAN) 또는 어떠한 종류의 네트워크 또는 인터네트워크(inter-network)일 수 있다. 또한, 본 실시예는 데이터그램(datagram) 기반 네트워크(예를 들어, 인터넷), 연결 기반 (예를 들어, X.25) 네트워크, 가상 회로 기반 (예를 들어, 비동기 전송 모드(ATM)) 네트워크 등을 포함하는 다양한 통신 기술들 중의 어느 것을 이용하는 네트워크에 적용될 수 있다.The created character objects can be synthesized to create a new character object. 7 illustrates one embodiment of a system for synthesizing a plurality of character entities from a plurality of mobile terminals 712-716. As shown in FIG. 7, server 730 receives a character entity from mobile terminals 712-716 via wireless / wired network 720. The network 720 may be the Internet, a campus / corporate intranet, a wide area network (WAN), a local area network (LAN), or some kind of network or inter-network. In addition, the present embodiment also provides a datagram based network (e.g., the Internet), a connection based (e.g., X.25) network, a virtual circuit based (e.g., asynchronous transmission mode (ATM)) network. It can be applied to a network using any of a variety of communication technologies, including the like.

서버(730)는 캐릭터 개체를 수신하고, 수신된 캐릭터 개체를 합성하여 새로운 캐릭터 개체를 생성한다. 서버(730)는 네트워크(720)를 통하여 이동 단말기(716)와 같은 수신자(recipient)에게 새로운 캐릭터 개체를 전송한다. 네트워크 주소와 같은 수신 단말기(716)에 관한 정보는 이동 단말기(712, 714) 중의 적어도 하나에 의해 서버(730)로 제공된다.The server 730 receives the character object and synthesizes the received character object to generate a new character object. The server 730 sends a new character entity to a recipient, such as the mobile terminal 716, over the network 720. Information about the receiving terminal 716, such as a network address, is provided to the server 730 by at least one of the mobile terminals 712, 714.

서버(730)가 이동 단말기(712, 714)로부터 전송된 캐릭터 개체를 합성하는 에이전트(agent)로써의 역할을 수행하는 것으로 기술되었지만, 캐릭터 개체를 합성하는 처리과정은 이동 단말기(712 내지 716) 중의 어느 하나에서 수행될 수 있다. 이 경우에, 예를 들어 이동 단말기(712)는 적외선 또는 블루투스(Bluetooth)와 같은 무선 연결을 통해 이동 단말기(714)로부터 캐릭터 개체를 수신하고, 이동 단말기(714)의 캐릭터 개체를 메모리에 저장된 캐릭터 개체와 합성하여 새로운 캐릭터 개체를 생성한다. 새로운 캐릭터 개체를 합성한 후, 이동 단말기(712)는 새로이 생성된 캐릭터 개체를 메모리에 저장하거나 다른 이동 단말기에 전송한다.Although the server 730 has been described as acting as an agent for synthesizing the character entity transmitted from the mobile terminals 712 and 714, the process of synthesizing the character entity is performed in the mobile terminals 712 to 716. It can be performed in either. In this case, for example, the mobile terminal 712 receives the character object from the mobile terminal 714 through a wireless connection such as infrared or Bluetooth, and stores the character object of the mobile terminal 714 in the memory. Create a new character object by compositing with the object. After synthesizing the new character entity, the mobile terminal 712 stores the newly created character entity in memory or transmits it to another mobile terminal.

도 8은 캐릭터 개체를 합성하는 방법의 일 실시예를 나타내는 흐름도를 도시한다. 동작(810)에서, 적어도 두 개의 이동 단말기(712, 714)는 캐릭터 개체를 서버(730)에 업로딩한다. 캐릭터 개체를 수신한 서버(730)는 캐릭터 개체를 합성하여 새로운 캐릭터 개체를 생성한다 (동작 820).8 shows a flow diagram illustrating one embodiment of a method of synthesizing a character entity. In operation 810, at least two mobile terminals 712, 714 upload the character entity to the server 730. The server 730 receiving the character object synthesizes the character object to generate a new character object (operation 820).

캐릭터 개체를 합성하는데 있어서, 서버(730)는 바람직하게는 유전 결합 방법(genetic combination method)을 사용한다. 이 방법을 사용하는 경우, 캐릭터 개체(200)의 감정 및 신체 모델(230, 240)의 속성들은 유전자와 같이 취급되며, 각 유전자는 예를 들어 최소값으로부터 최대값까지의 범위를 갖는 캐릭터 개체의 하나의 특징을 나타내는 값을 갖는다. 유전 결합 방법은 적어도 두 개의 캐릭터 개체로부터 얻어진 유전자의 가중합(weighted sum)을 계산하여 새로운 캐릭터 개체의 유전자를 생성한다. 이 경우, 가중합의 값은 캐릭터 개체의 맞춤설계를 위해 구현된 그래픽 사용자 인터페이스를 이용하여 사용자에 의해 조절될 수 있다. 다른 방법에 따라, 가중합의 값은 의사난수(pseudorandom number) 생성기를 이용하여 결정될 수 있다. 이러한 유전 결합 방법을 이용하여, 이전에 생성되었던 캐릭터 개체의 변형이 생성될 수 있다.In synthesizing a character entity, server 730 preferably uses a genetic combination method. When using this method, the emotions of the character entity 200 and the attributes of the body models 230, 240 are treated like genes, each gene being one of the character entities having a range from minimum to maximum, for example. Has a value indicating the characteristics of Genetic binding methods calculate the weighted sum of the genes obtained from at least two character entities to generate the genes of a new character entity. In this case, the value of the weighted sum can be adjusted by the user using a graphical user interface implemented for custom design of the character object. According to another method, the value of the weighted sum can be determined using a pseudorandom number generator. Using this genetic binding method, deformations of character entities previously created can be created.

새로운 캐릭터 개체를 생성하면, 서버(730)는 생성된 캐릭터 개체를 수신 이동 단말기로 전송한다 (동작 830). 도 7을 참고하여 설명한 바와 같이, 캐릭터 개체를 합성하는 처리과정은 원래의 캐릭터 개체를 갖고 있는 이동 단말기(712, 714) 중의 어느 하나 또는 다른 단말기(716)에서 수행될 수 있으며, 그 이동 단말기는 새로 새성된 캐릭터 개체를 메모리에 저장하거나 다른 이동 단말기로 전송할 수 있다.When creating a new character object, the server 730 transmits the generated character object to the receiving mobile terminal (operation 830). As described with reference to FIG. 7, a process of synthesizing a character entity may be performed by any one of the mobile terminals 712 and 714 or the other terminal 716 having the original character entity. Newly created character objects can be stored in memory or transmitted to other mobile terminals.

이상에서 살펴본 바와 같이, 본 명세서에서 기술된 실시예에 따른 시스템 및 방법은 사용자의 감성 및 신체 상태와 같은 사용자의 특성의 변화에 따라 이동 단말기가 그 사용자의 특성의 표현을 자동 생성하고 갱신함으로써, 특정 시간에 사용자의 상태나 특성의 표현을 사실적으로 제공할 수 있다.As described above, the system and method according to the embodiment described in the present disclosure by automatically generating and updating the representation of the characteristics of the user according to the change of the characteristics of the user, such as the user's emotion and physical condition, You can realistically present a representation of a user's status or characteristics at a particular time.

Claims (43)

사용자의 사용자 특징 데이터를 수신하는 입력 인터페이스,An input interface for receiving user characteristic data of a user, 상기 수신된 사용자 특징 데이터를 저장하는 메모리를 포함하며,A memory for storing the received user characteristic data, 상기 수신된 사용자 특징 데이터에 적어도 부분적으로 기초하여 상기 사용자의 상태에 대응하는 캐릭터 개체를 생성하는 Generating a character entity corresponding to the state of the user based at least in part on the received user characteristic data 개인 통신 장치.Personal communication device. 제1항에 있어서,The method of claim 1, 상기 캐릭터 개체의 표현을 디스플레이하는 디스플레이 장치를 더 포함하는Further comprising a display device for displaying a representation of the character object 개인 통신 장치.Personal communication device. 제1항에 있어서,The method of claim 1, 상기 사용자 특징 데이터는 상기 사용자의 바이오 신호를 포함하는 The user characteristic data includes bio signals of the user. 개인 통신 장치.Personal communication device. 제3항에 있어서,The method of claim 3, 바이오 센서를 더 포함하며,Further comprises a biosensor, 상기 입력 인터페이스는 상기 바이오 센서로부터 상기 바이오 신호를 수신하는The input interface receives the bio signal from the bio sensor 개인 통신 장치.Personal communication device. 제3항에 있어서,The method of claim 3, 상기 입력 인터페이스는 상기 개인 통신 장치에 외부적으로 연결된 바이오 센서로부터 바이오 신호를 수신하는The input interface receives a bio signal from a biosensor externally connected to the personal communication device. 개인 통신 장치.Personal communication device. 제3항에 있어서,The method of claim 3, 상기 바이오 신호는 음성 신호, 비디오 신호, 화상 신호, 미각 신호, 후각 신호, 동작 신호, 온도 신호, 맥박 신호 및 ECG 신호를 포함하는 그룹에서 선택된 것인The bio signal is one selected from the group consisting of a voice signal, a video signal, an image signal, a taste signal, an olfactory signal, an operation signal, a temperature signal, a pulse signal and an ECG signal. 개인 통신 장치.Personal communication device. 제1항에 있어서,The method of claim 1, 상기 메모리는 휴대가능한 메모리 카드인The memory is a portable memory card 개인 통신 장치.Personal communication device. 제1항에 있어서,The method of claim 1, 상기 캐릭터 개체는 아바타에 대응하는 The character entity corresponds to an avatar 개인 통신 장치.Personal communication device. 제8항에 있어서,The method of claim 8, 상기 개인 통신 장치는 상기 사용자 특징 데이터의 변화에 기초하여 상기 캐릭터 개체를 수정하여 상기 아바타를 수정하는The personal communication device modifies the avatar by modifying the character entity based on the change of the user characteristic data. 개인 통신 장치.Personal communication device. 제1항에 있어서,The method of claim 1, 상기 캐릭터 개체는 하나 이상의 컬러에 대응하는 정보를 포함하는 The character entity includes information corresponding to one or more colors. 개인 통신 장치.Personal communication device. 제1항에 있어서,The method of claim 1, 상기 개인 통신 장치의 적어도 일부분은 상기 사용자 특징 데이터의 변화에 기초하여 컬러를 변경하는At least a portion of the personal communication device may change color based on the change in the user characteristic data. 개인 통신 장치.Personal communication device. 제1항에 있어서,The method of claim 1, 상기 사용자 특징 데이터의 변화에 응답하여 컬러를 변경하는 케이스를 더 포함하는And a case for changing the color in response to the change of the user characteristic data. 개인 통신 장치.Personal communication device. 제12항에 있어서,The method of claim 12, 상기 케이스의 적어도 일부분은 컬러를 변경할 수 있는 전기발광(electro-luminescent) 재료로 만들어진At least a portion of the case is made of an electroluminescent material that can change color. 개인 통신 장치.Personal communication device. 제1항에 있어서,The method of claim 1, 상기 사용자 특징 데이터는 개인 정보를 포함하며, 상기 캐릭터 개체는 상기 개인 정보에 적어도 부분적으로 기초하는The user characteristic data includes personal information, wherein the character entity is based at least in part on the personal information. 개인 통신 장치.Personal communication device. 제14항에 있어서,The method of claim 14, 상기 개인 정보는 주소록, 일정 및 전화통화의 패턴 중의 적어도 하나를 포함하는The personal information includes at least one of an address book, a schedule, and a pattern of a telephone call. 개인 통신 장치.Personal communication device. 제1항에 있어서,The method of claim 1, 상기 개인 통신 장치는 이동 전화기인The personal communication device is a mobile phone 개인 통신 장치.Personal communication device. 제1항에 있어서,The method of claim 1, 상기 개인 통신 장치는 PDA(personal digital assistant)인The personal communication device is a personal digital assistant (PDA) 개인 통신 장치.Personal communication device. 캐릭터 개체를 합성하는 시스템에 있어서,In the system of composing character objects, 적어도 두 개의 이동 단말기로부터 캐릭터 개체를 수신하는 입력 장치,An input device for receiving a character object from at least two mobile terminals, 상기 수신된 캐릭터 개체에 기초하여 새로운 캐릭터 개체를 합성하는 서버를 포함하는 A server for synthesizing a new character entity based on the received character entity; 시스템.system. 캐릭터 개체를 합성하는 시스템에 있어서,In the system of composing character objects, 캐릭터 개체를 저장하는 메모리,Memory for storing character objects, 이동 단말기로부터 다른 캐릭터 개체를 수신하는 입력 장치,An input device for receiving another character object from the mobile terminal, 상기 저장된 캐릭터 개체 및 상기 수신된 캐릭터 개체에 기초하여 새로운 캐릭터 개체를 합성하는 처리 장치를 포함하는A processing device for synthesizing a new character entity based on the stored character entity and the received character entity; 시스템.system. 제18항 또는 제19항에 있어서,The method of claim 18 or 19, 상기 서버는 상기 합성된 캐릭터 개체를 수신자에게 전송하는The server transmits the synthesized character entity to a receiver. 시스템.system. 제18항 또는 제19항에 있어서,The method of claim 18 or 19, 상기 캐릭터 개체 각각은 대응되는 사용자의 상태를 나타내는 정보를 포함하는Each of the character entities includes information representing a state of a corresponding user. 시스템.system. 제21항에 있어서,The method of claim 21, 상기 캐릭터 개체 각각은 상기 대응되는 사용자의 상태를 나타내는 정보에 기초하여 모델링되는 Each of the character entities is modeled based on information representing the state of the corresponding user. 시스템.system. 개인 통신 장치에서 캐릭터 개체를 생성하는 방법에 있어서,In the method of creating a character object in a personal communication device, 사용자의 사용자 특징 데이터의 제1 집합을 수신하는 단계,Receiving a first set of user characteristic data of a user, 상기 수신된 사용자 특징 데이터의 제1 집합에 적어도 부분적으로 기초하여 상기 사용자의 상태에 대응하는 캐릭터 개체를 생성하는 단계,Generating a character entity corresponding to the state of the user based at least in part on the received first set of user characteristic data; 상기 개인 통신 장치의 메모리에 상기 캐릭터 개체를 저장하는 단계를 포함하는Storing the character entity in a memory of the personal communication device; 방법.Way. 제23항에 있어서,The method of claim 23, wherein 사용자의 사용자 특징 데이터의 제2 집합을 수신하는 단계,Receiving a second set of user characteristic data of a user, 상기 수신된 사용자 특징 데이터의 제2 집합에 적어도 부분적으로 기초하여 상기 캐릭터 개체를 갱신하는 단계를 더 포함하는Further updating the character entity based at least in part on the second set of received user characteristic data. 방법.Way. 제23항에 있어서,The method of claim 23, wherein 상기 캐릭터 개체를 생성하는 단계는 상기 수신된 사용자 특징 데이터에 기초하여 상기 사용자의 현재 상태에 대응하는 정보를 포함하는 데이터베이스를 포함하는 The generating of the character entity may include a database including information corresponding to the current state of the user based on the received user characteristic data. 방법.Way. 제25항에 있어서,The method of claim 25, 상기 캐릭터 개체를 생성하는 단계는 상기 데이터베이스에 기초하여 상기 캐릭터 개체를 모델링하는 단계를 더 포함하는 Generating the character entity further includes modeling the character entity based on the database. 방법.Way. 제23항에 있어서,The method of claim 23, wherein 상기 캐릭터 개체는 아바타에 대응하는 The character entity corresponds to an avatar 방법.Way. 제24항에 있어서,The method of claim 24, 상기 캐릭터 개체는 상기 사용자 특징 데이터의 변화에 기초하여 수정될 수 있는 아바타에 대응하는 The character entity corresponds to an avatar that can be modified based on a change in the user characteristic data. 방법.Way. 제23항에 있어서,The method of claim 23, wherein 상기 캐릭터 개체의 일부분으로써 컬러 정보를 포함하는 단계를 더 포함하는 Including color information as part of the character entity; 방법.Way. 제29항에 있어서,The method of claim 29, 상기 사용자 특징 데이터의 변화에 기초하여 상기 컬러 정보를 변경하는 단계를 더 포함하는 Changing the color information based on the change of the user characteristic data; 방법.Way. 제23항에 있어서,The method of claim 23, wherein 상기 사용자 특징 데이터는 상기 사용자의 개인 정보 및 바이오 신호 중의 적어도 하나를 포함하는 The user characteristic data includes at least one of personal information and bio signals of the user. 방법.Way. 캐릭터 개체를 합성하는 방법에 있어서,In the method of composing character objects, 적어도 두 개의 이동 단말기로부터 적어도 두 개의 캐릭터 개체를 상기 이동 단말기에 연결된 서버로 업로딩하는 단계,Uploading at least two character objects from at least two mobile terminals to a server connected to the mobile terminal, 상기 업로딩된 캐릭터 개체에 기초하여 새로운 캐릭터 개체를 합성하는 단계를 포함하는 Synthesizing a new character entity based on the uploaded character entity; 방법.Way. 제32항에 있어서,33. The method of claim 32, 상기 이동 단말기 중의 적어도 하나에 의해 지정된 수신자에게 상기 합성된 캐릭터 개체를 전송하는 단계를 더 포함하는 Transmitting the synthesized character entity to a recipient designated by at least one of the mobile terminals; 방법.Way. 복수의 컬러를 디스플레이할 수 있는 이동 단말기에 있어서,In a mobile terminal capable of displaying a plurality of colors, 사용자의 사용자 특징 데이터를 수신하여 저장하는 메모리,A memory for receiving and storing user characteristic data of a user, 상기 메모리로부터 상기 사용자 특징 데이터를 수신하여 분석하며, 상기 수신된 사용자 특징 데이터에 응답하여 상기 이동 단말기의 적어도 일 부분에 컬러를 지정하는 처리 모듈를 포함하는 And a processing module for receiving and analyzing the user characteristic data from the memory and assigning a color to at least a portion of the mobile terminal in response to the received user characteristic data. 이동 단말기.Mobile terminal. 제34항에 있어서,The method of claim 34, wherein 복수의 컬러를 디스플레이하는 케이스를 더 포함하며, 상기 케이스의 적어도 일부분은 상기 지정된 컬러를 디스플레이하는 Further comprising a case displaying a plurality of colors, wherein at least a portion of the case displays the specified color. 이동 단말기.Mobile terminal. 제35항에 있어서,36. The method of claim 35 wherein 상기 케이스는 전기발광(electro-luminescent) 재료로 만들어지는 The case is made of electro-luminescent material 이동 단말기.Mobile terminal. 제34항에 있어서,The method of claim 34, wherein 상기 처리 모듈은 상기 사용자 특징 데이터의 변화에 기초하여 상기 지정된 컬러를 변경하는 The processing module is further configured to change the designated color based on a change in the user characteristic data. 이동 단말기.Mobile terminal. 제34항에 있어서,The method of claim 34, wherein 상기 사용자 특징 데이터는 상기 사용자의 개인 정보 및 바이오 신호 중의 적어도 하나를 포함하는 The user characteristic data includes at least one of personal information and bio signals of the user. 이동 단말기.Mobile terminal. 복수의 컬러를 디스플레이할 수 있는 이동 단말기에서 컬러를 변경하는 방법에 있어서,In the method for changing the color in the mobile terminal capable of displaying a plurality of colors, 사용자의 사용자 특징 데이터를 수신하는 단계,Receiving user characteristic data of a user, 상기 수신된 사용자 특징 데이터에 응답하여 컬러를 지정하는 단계,Specifying a color in response to the received user characteristic data; 상기 이동 단말기의 적어도 일부분 상에 상기 지정된 컬러를 디스플레이하는 단계를 포함하는 Displaying the designated color on at least a portion of the mobile terminal; 방법.Way. 제39항에 있어서,The method of claim 39, 상기 이동 단말기는 복수의 컬러를 디스플레이하는 케이스를 포함하며, 상기 케이스의 적어도 일부분은 상기 지정된 컬러를 디스플레이하는 The mobile terminal includes a case displaying a plurality of colors, wherein at least a portion of the case displays the specified color. 방법.Way. 제40항에 있어서,The method of claim 40, 상기 케이스는 전기발광(electro-luminescent) 재료로 만들어지는 The case is made of electro-luminescent material 방법.Way. 제39항에 있어서,The method of claim 39, 상기 사용자로부터의 상기 사용자 특징 데이터의 변화에 기초하여 상기 지정된 컬러를 변경하는 단계를 더 포함하는 Changing the designated color based on a change in the user characteristic data from the user; 방법.Way. 제39항에 있어서,The method of claim 39, 상기 사용자 특징 데이터는 상기 사용자의 개인 정보 및 바이오 신호 중의 적어도 하나를 포함하는 The user characteristic data includes at least one of personal information and bio signals of the user. 방법.Way.
KR1020060062915A 2006-07-05 2006-07-05 System and method for managing character objects in mobile terminals Ceased KR20080004196A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
KR1020060062915A KR20080004196A (en) 2006-07-05 2006-07-05 System and method for managing character objects in mobile terminals
PCT/KR2007/003252 WO2008004813A1 (en) 2006-07-05 2007-07-04 System and method for managing a character entity in a mobile terminal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020060062915A KR20080004196A (en) 2006-07-05 2006-07-05 System and method for managing character objects in mobile terminals

Publications (1)

Publication Number Publication Date
KR20080004196A true KR20080004196A (en) 2008-01-09

Family

ID=38894741

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020060062915A Ceased KR20080004196A (en) 2006-07-05 2006-07-05 System and method for managing character objects in mobile terminals

Country Status (2)

Country Link
KR (1) KR20080004196A (en)
WO (1) WO2008004813A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9545567B2 (en) 2010-07-20 2017-01-17 Samsung Electronics Co., Ltd. Apparatus and method for manipulating a virtual world by utilizing biometric information
US9665563B2 (en) 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9640218B2 (en) 2012-12-07 2017-05-02 Intel Corporation Physiological cue processing
CN105615901B (en) * 2014-11-06 2018-08-14 中国移动通信集团公司 A kind of method and system of monitoring mood
DE102019211742A1 (en) * 2019-08-06 2021-02-11 Volkswagen Aktiengesellschaft Method for measuring health data of a vehicle occupant in a motor vehicle

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20000055455A (en) * 1999-02-06 2000-09-05 전희국 Method of storing user data in cellular phones using short message service
KR100629144B1 (en) * 1999-06-26 2006-09-27 에스케이 텔레콤주식회사 SMS based personal information management method
KR100372663B1 (en) * 2001-02-13 2003-02-15 주식회사 어필텔레콤 A letter transmitting and saves method of the mobile computing device
KR100469409B1 (en) * 2001-07-13 2005-02-02 엘지전자 주식회사 Personal information management method for mobile communication device
US7197640B2 (en) * 2001-08-10 2007-03-27 Meisel William S Use of identification codes in the handling and management of communications

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9665563B2 (en) 2009-05-28 2017-05-30 Samsung Electronics Co., Ltd. Animation system and methods for generating animation based on text-based data and user information
US9545567B2 (en) 2010-07-20 2017-01-17 Samsung Electronics Co., Ltd. Apparatus and method for manipulating a virtual world by utilizing biometric information

Also Published As

Publication number Publication date
WO2008004813A1 (en) 2008-01-10

Similar Documents

Publication Publication Date Title
CN1326400C (en) Virtual television telephone device
JP5497015B2 (en) Method and system for automatically updating avatar status to indicate user status
JP6462386B2 (en) Program, communication terminal and display method
US11960792B2 (en) Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program
JP6461630B2 (en) COMMUNICATION SYSTEM, COMMUNICATION DEVICE, PROGRAM, AND DISPLAY METHOD
US20060206833A1 (en) Sensory output devices
JP2018503894A (en) Classification of emotion types for interactive dialog systems
JP2005115896A (en) Communication apparatus and method
JP2005085256A (en) Proactive user interface
KR20050025288A (en) Proactive user interface with empathized agent
KR20080004196A (en) System and method for managing character objects in mobile terminals
CN111512617B (en) Device and method for recommending contact information
CN108697935A (en) Incarnation in virtual environment
US7970716B2 (en) Method for expressing emotion and intention in remote interaction and real emotion system thereof
TW201003512A (en) User interface, device and method for displaying a stable screen view
CN107635070A (en) A kind of method of prompting message, terminal and storage medium
KR100594005B1 (en) Training simulation method and device for mobile communication terminal
CN107818787A (en) A kind of processing method of voice messaging, terminal and computer-readable recording medium
CN112870697B (en) Interaction method, device, equipment and medium based on virtual relation maintenance program
JP6990472B1 (en) A system for communicating with people and a program for that purpose
KR101199443B1 (en) Terminal device for emotion recognition and terminal device for emotion display
KR20010082779A (en) Method for producing avatar using image data and agent system with the avatar
KR20050028171A (en) Emotion management and synthesis device and method for personal robot
KR102650224B1 (en) System for emotion delivery and method thereof
KR100736541B1 (en) Online integrated system of personal characters

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20060705

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20080731

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20060705

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20100426

Patent event code: PE09021S01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20100726

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20100426

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I