KR20080004196A - System and method for managing character objects in mobile terminals - Google Patents
System and method for managing character objects in mobile terminals Download PDFInfo
- Publication number
- KR20080004196A KR20080004196A KR1020060062915A KR20060062915A KR20080004196A KR 20080004196 A KR20080004196 A KR 20080004196A KR 1020060062915 A KR1020060062915 A KR 1020060062915A KR 20060062915 A KR20060062915 A KR 20060062915A KR 20080004196 A KR20080004196 A KR 20080004196A
- Authority
- KR
- South Korea
- Prior art keywords
- user
- character
- mobile terminal
- characteristic data
- communication device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Ceased
Links
- 238000000034 method Methods 0.000 title claims abstract description 66
- 238000004891 communication Methods 0.000 claims description 35
- 230000008859 change Effects 0.000 claims description 17
- 239000003086 colorant Substances 0.000 claims description 16
- 230000002194 synthesizing effect Effects 0.000 claims description 16
- 239000000463 material Substances 0.000 claims description 15
- 238000012545 processing Methods 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 11
- 230000002996 emotional effect Effects 0.000 abstract description 8
- 230000008451 emotion Effects 0.000 description 16
- 230000006399 behavior Effects 0.000 description 11
- 238000005401 electroluminescence Methods 0.000 description 11
- 230000036541 health Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 108090000623 proteins and genes Proteins 0.000 description 4
- 230000002068 genetic effect Effects 0.000 description 3
- 230000003542 behavioural effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000003795 chemical substances by application Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003862 health status Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000000056 organ Anatomy 0.000 description 1
- 229940124595 oriental medicine Drugs 0.000 description 1
- 229920001690 polydopamine Polymers 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0002—Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72427—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/024—Measuring pulse rate or heart rate
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/16—Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
- A61B5/165—Evaluating the state of mind, e.g. depression, anxiety
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/24—Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
- A61B5/316—Modalities, i.e. specific diagnostic methods
- A61B5/318—Heart-related electrical modalities, e.g. electrocardiography [ECG]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/40—Detecting, measuring or recording for evaluating the nervous system
- A61B5/4005—Detecting, measuring or recording for evaluating the nervous system for evaluating the sensory system
- A61B5/4017—Evaluating sense of taste
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/02—Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
- A61B5/0205—Simultaneously evaluating both cardiovascular conditions and different types of body conditions, e.g. heart and respiratory condition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/103—Measuring devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
- A61B5/11—Measuring movement of the entire body or parts thereof, e.g. head or hand tremor or mobility of a limb
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/12—Audiometering
- A61B5/121—Audiometering evaluating hearing capacity
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/34—Microprocessors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/36—Memories
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M2201/00—Electronic components, circuits, software, systems or apparatus used in telephone systems
- H04M2201/38—Displays
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Public Health (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Biophysics (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Cardiology (AREA)
- Psychiatry (AREA)
- Computer Networks & Wireless Communication (AREA)
- Psychology (AREA)
- Child & Adolescent Psychology (AREA)
- Developmental Disabilities (AREA)
- Educational Technology (AREA)
- Hospice & Palliative Care (AREA)
- Physiology (AREA)
- Social Psychology (AREA)
- Signal Processing (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
이동 단말기 사용자의 감정적 특징 및 신체적 특징을 나타내는 캐릭터 개체(character entity)를 생성하고 갱신하는 시스템 및 방법을 개시한다. 캐릭터 개체는 사용자로부터 얻어진 생물학적 데이터 및/또는 사용자의 개인 정보(예를 들어, 일정, 전화통화의 패턴, 다른 사용자와 교환된 메시지)에 기초하여 사용자의 감정적 상태 및 신체적 상태의 특징을 결정한다. 캐릭터 개체는 예를 들어 휴대가능한 메모리 카드에 저장되고, 하나의 이동 단말기로부터 다른 이동 단말기로 전송될 수 있다. 캐릭터 개체는 이동 단말기 상에 디스플레이되는 아바타(avatar) 또는 컬러(color)를 통해서 그 이동 단말기에서 시각화될 수 있다.Disclosed are a system and method for creating and updating character entities that represent emotional and physical characteristics of a mobile terminal user. The character entity determines the characteristics of the emotional and physical state of the user based on biological data obtained from the user and / or the user's personal information (eg, a schedule, a pattern of telephone calls, a message exchanged with another user). The character entity may for example be stored in a portable memory card and may be transferred from one mobile terminal to another. The character entity may be visualized at the mobile terminal through an avatar or color displayed on the mobile terminal.
Description
도 1은 일 실시예에 따른 이동 단말기를 도시한다.1 illustrates a mobile terminal according to an embodiment.
도 2는 일 실시예에 따른 메모리에 저장되며 캐릭터 개체를 생성하는데 사용되는 정보의 구체적인 구성을 나타내는 블록도이다.2 is a block diagram illustrating a detailed configuration of information stored in a memory and used to generate a character entity, according to an exemplary embodiment.
도 3은 다른 실시예에 따른 사용자 특성에 기초하여 컬러를 디스플레이할 수 있는 이동 단말기를 도시한다.3 illustrates a mobile terminal capable of displaying color based on user characteristics according to another embodiment.
도 4는 또 다른 실시예에 따른 사용자 특성에 기초하여 컬러를 디스플레이할 수 있는 이동 단말기를 도시한다.4 illustrates a mobile terminal capable of displaying colors based on user characteristics according to another embodiment.
도 5는 일 실시예에 따른 이동 단말기에서 캐릭터 개체를 생성하는 방법을 도시한다.5 illustrates a method of generating a character entity in a mobile terminal according to an embodiment.
도 6은 일 실시예에 따른 이동 단말기에서 캐릭터 개체를 갱신하는 방법을 도시한다.6 illustrates a method of updating a character entity in a mobile terminal according to an embodiment.
도 7은 일 실시예에 따른 캐릭터 개체를 합성하는 시스템을 도시한다.7 illustrates a system for synthesizing a character entity according to one embodiment.
도 8은 일 실시예에 따른 캐릭터 개체를 합성하는 방법을 도시한다.8 illustrates a method of synthesizing a character entity according to an embodiment.
이동 단말기(예를 들어, 이동 전화기, PDA 등)의 처리 능력 및 무선 통신의 발달로 인해 사용자는 음성, 음악, 그림, 동영상 등과 같은 다양한 정보를 통신할 수 있게 되었다. 이동 단말기는 다른 사용자들에 관한 연락 정보를 저장하는데 널리 사용되고 있으며, 그 정보를 이용하여 상대방을 쉽게 인지할 수 있게 한다. 예를 들어, 이동 전화기에서 연락 정보가 저장되어 있는 개인으로부터 전화가 걸려오면, 그 개인의 정보(예를 들어, 전화번호, 이름 등)가 이동 전화기의 디스플레이 장치에 표시된다. 이동 단말기는 또한 이름, 전화 등과 같은 사용자의 개인 정보를 저장하는데도 사용된다.The development of the processing capabilities and wireless communications of mobile terminals (eg, mobile phones, PDAs, etc.) allows users to communicate various information such as voice, music, pictures, video, and the like. Mobile terminals are widely used to store contact information about other users, and use the information to easily recognize the other party. For example, when a call is received from an individual whose contact information is stored in the mobile phone, the information (for example, telephone number, name, etc.) of the individual is displayed on the display device of the mobile phone. Mobile terminals are also used to store user's personal information such as names, telephones, and the like.
일부 이동 단말기는 사용자로 하여금 아바타(avatar)를 이용하여 그들 자신을 표현할 수 있도록 한다. 예를 들어, 사용자는 이동 단말기를 이용하여 그 사용자를 표현할 수 있는 아바타를 선택한다. 아바타는 이동 단말기의 가상 환경에서 사용자를 디지털 정보로 표현하며, 일반적으로는 이동 단말기 상에 디스플레이된 사용자의 가상 캐릭터 표현(virtual character representation)으로 사용된다. 다른 이동 단말기와 통신 할 때, 이동 단말기의 아바타는 전송자의 표현으로써 다른 단말기로 전송될 수 있다.Some mobile terminals allow users to express themselves using avatars. For example, the user selects an avatar that can represent the user using the mobile terminal. The avatar represents the user as digital information in the virtual environment of the mobile terminal, and is generally used as a virtual character representation of the user displayed on the mobile terminal. When communicating with another mobile terminal, the avatar of the mobile terminal can be transmitted to the other terminal as a representation of the sender.
그러나, 이동 단말기에 사용되는 종래의 아바타는 일반적으로 사용자에 의해 수동적으로 선택되는 비교적 단순한 캐릭터이다. 예를 들어, 이동 단말기에 사용되는 종래의 아바타는 일반적으로 사용자의 선호에 따라 선택되는 캐릭터 모양 (예 를 들어, 동물, 만화 캐릭터, 사용자의 3차원 화상)이다. 사용자는 자신의 현재 상태 또는 개성을 반영하기 위해서 필요한 표정을 갖는 캐릭터 모양(예를 들어, 웃는 얼굴, 슬픈 얼굴, 화난 얼굴 등)과 같은 아바타를 선택할 수 있다. 선택된 아바타는 이동 단말기에 디스플레이되고 다른 사용자에게 전송된다.However, conventional avatars used in mobile terminals are generally relatively simple characters that are manually selected by the user. For example, a conventional avatar used for a mobile terminal is a character shape (eg, an animal, a cartoon character, or a three-dimensional image of a user) that is generally selected according to a user's preference. The user may select an avatar, such as a character shape (eg, a smiling face, a sad face, an angry face, etc.) having an expression necessary to reflect his or her current state or personality. The selected avatar is displayed on the mobile terminal and sent to another user.
종래의 이동 단말기는 또한 사용자로 하여금 컬러(color)를 이용하여 그들 자신을 표현할 수 있게 한다. 예를 들어, 일부 이동 단말기는 다양한 컬러의 삽입물(또는 외장 케이스)를 제공한다. 사용자는 자신의 선호에 따라 삽입물을 변경함으로써 단말기의 컬러를 변경한다.Conventional mobile terminals also allow users to express themselves using color. For example, some mobile terminals provide inserts (or exterior cases) of various colors. The user changes the color of the terminal by changing the insert according to his preference.
그러나, 이들 종래의 기술은 일반적으로 사용자가 그들 자신을 표현하거나 나타내기 위한 아바타 또는 컬러를 수동적으로 선택할 것을 요구한다. 아바타 및 컬러는 사용자의 선호에 따라 사용자에 의해 수동적으로 선택되기 때문에, 그 아바타 및 컬러는 특정 시간에서의 사용자의 상태 또는 개성을 정확하고 사실적으로 나타내지 못할 수 있다. 또한, 사용자의 상태나 선호가 바뀔 때마다, 이동 단말기의 아바타 및 컬러를 수동적으로 재구성해야 한다.However, these conventional techniques generally require the user to manually select an avatar or color to represent or represent themselves. Because avatars and colors are manually selected by the user according to the user's preferences, the avatars and colors may not accurately and realistically represent the user's state or personality at a particular time. In addition, whenever the user's state or preference changes, the avatar and color of the mobile terminal must be manually reconfigured.
따라서, 특정 시간에 사용자의 상태나 특성의 표현을 사실적으로 제공할 수 있는 이동 단말기가 요구된다. 또한, 사용자의 상태 또는 개성적인 특징들이 변경함에 따라 이동 단말기가 그 표현을 자동 생성하고 갱신하는 것이 바람직하다.Accordingly, there is a need for a mobile terminal that can realistically provide a representation of a user's state or characteristics at a particular time. It is also desirable for the mobile terminal to automatically generate and update its representation as the user's status or personal characteristics change.
본 명세서는 사용자의 생물학적 신호(biological signal) 및 개인 정보 (personal information)와 같은 사용자 특징 데이터(user characteristic data)에 기초하여 사용자의 상태를 나타내는 캐릭터 개체(character entity)를 자동 생성하고 갱신할 수 있는 개인 통신 장치 또는 이동 단말기에 관한 것이다. 이동 단말기는 아바타, 컬러, 소리 등과 같은 복수의 형태로 캐릭터 개체의 신체적 또는 외면적 표현(physical representation)을 제공할 수 있다. 이동 단말기의 캐릭터 개체는 생물학적 신호 또는 개인 정보와 같은 사용자 특징의 변화에 따라 변경될 수 있다.The present specification is capable of automatically generating and updating a character entity representing a user's status based on user characteristic data, such as a user's biological signal and personal information. A personal communication device or a mobile terminal. The mobile terminal may provide a physical or external representation of the character entity in a plurality of forms such as an avatar, color, sound, and the like. The character entity of the mobile terminal may change according to changes in user characteristics such as biological signals or personal information.
일 실시예에서, 이동 단말기는 입력 인터페이스 및 메모리를 포함한다. 입력 인터페이스는 사용자의 사용자 특징 데이터를 수신하고, 메모리는 수신된 사용자 특징 데이터를 저장한다. 이동 단말기는 수신된 사용자 특징 데이터에 기초하여 사용자의 상태를 나타내는 캐릭터 개체를 생성하도록 구성된다.In one embodiment, the mobile terminal includes an input interface and a memory. The input interface receives user characteristic data of the user, and the memory stores the received user characteristic data. The mobile terminal is configured to generate a character entity representing the state of the user based on the received user characteristic data.
다른 실시예에서, 캐릭터 개체를 합성하는 시스템은 입력 장치 및 서버를 포함한다. 입력 장치는 적어도 두 개의 이동 단말기로부터 캐릭터 개체를 수신하도록 구성된다. 서버는 수신된 캐릭터 개체에 기초하여 새로운 캐릭터 개체를 합성하도록 구성된다. 서버는 그 이동 단말기 또는 다른 이동 단말기에 합성된 캐릭터 개체를 전송하여, 합성된 캐릭터 개체를 수신한 이동 단말기는 그 캐릭터 개체를 저장하거나 추가의 처리를 수행한다.In another embodiment, a system for synthesizing a character entity includes an input device and a server. The input device is configured to receive the character entity from at least two mobile terminals. The server is configured to synthesize a new character entity based on the received character entity. The server transmits the synthesized character object to the mobile terminal or another mobile terminal, and the mobile terminal which receives the synthesized character object stores the character object or performs further processing.
또 다른 실시예에서, 캐릭터 개체를 합성하는 시스템은 메모리, 입력 장치, 및 처리 장치를 포함한다. 메모리는 캐릭터 개체를 저장하고, 입력 장치는 이동 단말기로부터 다른 캐릭터 개체를 수신하도록 구성된다. 처리 장치는 저장된 캐릭 터 개체 및 수신된 캐릭터 개체에 기초하여 새로운 캐릭터 개체를 합성하도록 구성된다.In yet another embodiment, a system for synthesizing a character entity includes a memory, an input device, and a processing device. The memory stores the character entity, and the input device is configured to receive another character entity from the mobile terminal. The processing device is configured to synthesize a new character object based on the stored character object and the received character object.
또 다른 실시예에서, 이동 단말기에서 캐릭터 개체를 생성하는 방법은 사용자의 사용자 특징 데이터의 제1 집합을 수신하는 단계와, 수신된 사용자 특징 데이터의 제1 집합에 기초하여 사용자의 상태를 나타내는 캐릭터 개체를 생성하는 단계를 포함한다. 캐릭터 개체는 이동 단말기의 메모리에 저장된다. In yet another embodiment, a method of generating a character entity in a mobile terminal includes receiving a first set of user feature data of a user and a character entity representing a state of the user based on the first set of received user feature data. Generating a step. The character object is stored in the memory of the mobile terminal.
다른 실시예에서, 캐릭터 개체를 합성하는 방법은 적어도 두 개의 이동 단말기로부터 적어도 두 개의 캐릭터 개체를 그 이동 단말기에 연결된 서버로 업로딩(uploading)하는 단계를 포함한다. 서버에 업로딩된 캐릭터 개체에 기초하여 새로운 캐릭터 개체가 합성된다.In another embodiment, a method of synthesizing a character entity includes uploading at least two character entities from at least two mobile terminals to a server coupled to the mobile terminal. New character objects are synthesized based on the character objects uploaded to the server.
또 다른 실시예에서, 복수의 컬러를 디스플레이할 수 있는 이동 단말기는 메모리 및 처리 모듈을 포함한다. 메모리는 사용자의 사용자 특징 데이터를 수신하여 저장한다. 처리 모듈은 메모리로부터 사용자 특징 데이터를 수신하여 분석하며, 수신된 사용자 특징 데이터에 응답하여 이동 단말기의 적어도 일부분에 컬러를 할당한다.In another embodiment, a mobile terminal capable of displaying a plurality of colors includes a memory and a processing module. The memory receives and stores user characteristic data of the user. The processing module receives and analyzes user feature data from the memory and assigns colors to at least a portion of the mobile terminal in response to the received user feature data.
또 다른 실시예에서, 복수의 컬러를 디스플레이할 수 있는 이동 단말기에서 컬러를 변경하는 방법은, 사용자의 사용자 특징 데이터를 수신하는 단계와, 수신된 사용자 특징 데이터에 응답하여 이동 단말기의 적어도 일부분에 컬러를 할당하는 단계를 포함한다. 할당된 컬러는 이동 단말기의 적어도 일부분에 디스플레이된다.In another embodiment, a method of changing colors in a mobile terminal capable of displaying a plurality of colors includes receiving user feature data of a user and colorting at least a portion of the mobile terminal in response to the received user feature data. The step of assigning. The assigned color is displayed on at least a portion of the mobile terminal.
이하에서, 다양한 실시예의 상세한 설명이 기술된다. 그러나, 이들 실시예는 이하에서 상세하게 설명된 것들의 일부 또는 전부를 포함하지 않고 실시될 수 있음이 명백할 것이다. 다른 예들에서, 본 명세서의 내용을 불필요하게 불명료하게 하지 않기 위해서, 널리 알려진 방법의 단계들 또는 구성요소들은 상세히 설명하지 않았다.In the following, detailed descriptions of various embodiments are described. However, it will be apparent that these embodiments may be practiced without some or all of those described in detail below. In other instances, steps or components of well-known methods have not been described in detail in order not to unnecessarily obscure the contents of this specification.
본 명세서는 이동 단말기 상에서 사용자의 상태를 나타내는 캐릭터 개체를 생성 및 수정하는 시스템 및 방법을 제공한다. 캐릭터 개체는 사용자로부터 얻어진 생물학적 데이터 및/또는 다른 사용자 특징들 (예를 들어, 일정, 전화통화의 패턴, 다른 사용자와 교환한 메시지 등)에 기초하여 사용자의 상태를 특징화한다. 캐릭터 개체가 생성되면, 이동 단말기는 아바타, 컬러, 소리 등과 같은 캐릭터 개체의 신체적 또는 외면적 표현을 제공한다. 이동 단말기는 다른 이동 단말기 또는 서버 컴퓨터로부터 아바타를 수신하거나 그 이동 단말기 또는 서버 컴퓨터에게 아바타를 전송한다. 일 실시예에서, 이동 단말기(예를 들어, 이동 전화기)는 생물학적 데이터 또는 다른 사용자 특징들에 따라 컬러를 변경할 수 있는 전기발광(electro-luminescent) 재료와 같은 재료로 만들어진다. 따라서, 본 명세서에 기재된 실시예들은 이동 단말기 상에서 사용자의 상태를 사실적으로 특징화하는 기술을 제공한다. 아바타는 일반적으로 개인의 웃는 얼굴 또는 모습과 같은 그래픽 또는 가상의 캐릭터 표현을 의미한다. 그러나, 본 명세서에서, "아바타(avatar)"는 이러한 예에 한정되지 않으며, 애니메이션, 소리, 컬러, 진동 또는 이들의 조합에 의한 표현을 포함할 수 있다.The present disclosure provides a system and method for creating and modifying a character entity representing a user's state on a mobile terminal. The character entity characterizes the user's state based on biological data obtained from the user and / or other user characteristics (eg, schedule, pattern of phone calls, messages exchanged with other users, etc.). Once a character entity is created, the mobile terminal provides a physical or external representation of the character entity, such as an avatar, color, sound, or the like. The mobile terminal receives an avatar from another mobile terminal or server computer or transmits an avatar to the mobile terminal or server computer. In one embodiment, a mobile terminal (eg, a mobile phone) is made of a material such as an electro-luminescent material that can change color in accordance with biological data or other user characteristics. Accordingly, embodiments described herein provide a technique for realistically characterizing the state of a user on a mobile terminal. An avatar generally means a graphical or virtual character representation, such as an individual's smiley face or appearance. However, herein, "avatar" is not limited to this example and may include representation by animation, sound, color, vibration, or a combination thereof.
도 1은 예시적인 이동 단말기(110)를 도시한다. 도시된 바와 같이, 이동 단말기(110)는 통신 링크(140)를 통하여 바이오 센서(bio-sensor)(130)로부터 사용자의 생물학적 신호, 즉 "바이오 신호(bio-signal)"를 수신하는 입력 인터페이스(113)를 포함한다. 바이오 센서(130)는 사용자의 바이오 신호를 감지하기 위한 하나 이상의 센서를 포함하며, 이에 관해서는 이하에서 상술할 것이다. 이동 단말기(110)는 또한 무선 또는 유선 통신 링크를 통하여 원격 바이오 센서, 서버 또는 다른 이동 단말기로부터 생물학적 데이터의 형태로 바이오 신호를 수신할 수 있다.1 illustrates an example
이동 단말기(110)에서, 메모리(116)는 입력 인터페이스(113)에 연결되어 바이오 신호를 수신하여 저장한다. 또한, 메모리(116)는 사용자의 일정, 전화통화의 패턴, 다른 사용자와 교환한 메시지 등과 같은 다른 사용자 특징을 저장할 수 있다. 예를 들어, 이동 단말기(110)는 사용자의 일정, 통화 패턴(예를 들어, 통화 착신지/발신지, 통화의 수, 응답하지 않은 착신의 수, 메시지 착신지/발신지, 메시지의 수 등)을 기록하고, 그 데이터를 메모리(116)에 저장한다.In the
사용자 특징 데이터(예를 들어, 사용자의 바이오 신호 및/또는 개인 정보)는 메모리(116)에 연결된 캐릭터 모듈(character module)(114)에서 처리된다. 캐릭터 모듈(114)은 프로세서(예를 들어, CPU), ASIC 또는 이동 전화기, PDA 등과 같은 이동 단말기에서 사용되는 어떠한 적절한 처리 장치를 이용해서 구현될 수 있다. 캐릭터 모듈(114)은 수신된 데이터에 기초하여, 이동 단말기의 LCD 디스플레이 장치(117) 또는 다른 구성요소 상에 디스플레이 또는 출력하기 위해, 사용자의 상태를 반영한 캐릭터 개체(예를 들어, 아바타, 컬러, 소리, 진동 등)를 생성한다. 예를 들어, 사용자의 생물학적 데이터가 높은 맥박율(pulse rate)을 나타낸다면, 캐릭터 개체는 맥박치는 심장을 시각화할 수 있다. 마찬가지로, 만약 사용자의 일정이 특정 날짜에 대해 일정이 꽉 차있음을 나타낸다면, 캐릭터 개체는 서류 가방을 들고 달리는 모습으로 보여질 수 있다. 또한, 사용자의 데이터가 건강하지 못한 상태를 나타낸다면, 캐릭터 개체는 누워 있는 상태로 디스플레이될 수 있다. 이에 더하여 또는 이를 대신하여, 캐릭터 개체에게 사용자의 상태를 나타내는 컬러가 할당 또는 지정될 수 있다. 건강하지 못한 사용자 상태의 경우, 예를 들어, 캐릭터 모듈(114)은 캐릭터 개체에게 빨간색을 할당하여 디스플레이되도록 할 수 있다. 본 명세서에서 사용되는 "컬러(color)"라는 용어는 색의 차이(chrominance, 예를 들어 빨간색, 파란색, 초록색) 뿐만아니라 휘도(luminance, 예를 들어 회색, 검은색, 하얀색)를 의미한다.User feature data (eg, a user's bio signal and / or personal information) is processed in a
캐릭터 개체가 생성되면, 캐릭터 모듈(114)은 새로운 사용자 특징 데이터가 수신될 때 그 캐릭터 개체를 수정하거나 갱신한다. 만약 사용자의 새로운 생물학적 데이터가 사용자의 건강 상태가 향상되고 있음을 나타낸다면, 예를 들어, 캐릭터 모듈(114)은 그 상태를 반영하기 위하여 캐릭터 개체를 수정하기 위한 정보 처리를 수행한다. 누워 있는 캐릭터를 사용하는 경우에, 캐릭터 개체는 건강한 상태에서 침대가 없는 모습으로 보여질 수 있다.Once a character entity is created,
이동 단말기(110)는 데이터 통신 장치(112)를 통하여 다른 이동 단말기, 서버 또는 컴퓨터와 같은 외부 장치와 캐릭터 개체 및 사용자 특징 데이터를 통신할 수 있다. 데이터 통신 장치(112)는 안테나(11)를 통하여 외부 장치와 통신할 수 있도록 캐릭터 개체 및 사용자 특징 데이터를 변환한다. 이러한 데이터 전송은 예를 들어 셀룰러(cellular) 통신망, 종래의 무선 인터넷 또는 두 개의 단말기 사이의 직접 통신 (예를 들어, 불루투스(Bluetooth))을 통해서 실행될 수 있다. 이동 단말기(110)는 또한 휴대가능한 메모리 카드(portable memory card)(120)와 인터페이싱(interfacing)하여 캐릭터 개체 및/또는 사용자 특징 데이터를 저장 또는 검색하기 위한 입출력 인터페이스(115)를 포함할 수 있다. The
이동 단말기(110)는 이동 전화기, PDA(personal digital assistant) 및 노트북 컴퓨터와 같은 이동 통신 기능을 갖는 어떠한 종류의 개인 통신 장치(personal communication device)일 수 있다. 일 실시예에서, 이동 단말기를 위한 외부 케이스는 사용자 특징 데이터에 응답하여 컬러 또는 광 세기(light intensity)를 변경할 수 있는 유기 EL(electro-luminescence) 또는 무기 EL 재료로 만들어진다.The
도 2는 캐릭터 개체(200)를 생성하는데 사용되는 다양한 정보 및 모듈을 포함하는 메모리(116)의 일 실시예를 도시한다. 캐릭터 개체(200)는 개인 정보(210), 생물학적 정보(220), 감정 모델(emotion model)(230), 신체 모델(physical model)(240) 및 행동 엔진(behavior engine)(250)을 포함한다. 감정 모델(230)은 사용자의 현재 감정 상태를 나타내고, 신체 모델(240)은 사용자의 신체 상태를 나타낸다. 행동 엔진(250)은 감정 모델(230) 및 신체 모델(240)로부터의 속성들에 기초하여 캐릭터 개체의 행동을 모델링한다. 도 2에 도시된 바와 같이, 캐릭터 개체(200)는 이동 단말기(110)의 메모리(116)에 임시 저장되며, 캐릭터 모듈(114)은 메모리(116)를 엑세스하여 캐릭터 개체(200)를 실시간으로 처리한다.2 illustrates one embodiment of a
개인 정보(210)는 캐릭터 모듈(114)에 의해 관리되고 갱신된다. 개인 정보(210)는 주소록(예를 들어, 이름 또는 이름의 그룹, 대응되는 전화번호, 이메일 주소 및 홈페이지 주소), 일정(예를 들어, 모임의 이름, 모임 장소, 시작 및 종료 시간, 참석자, 관련 메모) 및 전화통화의 패턴(예를 들어, 상대방의 이름 및 전화번호, 전화통화의 시작 시간 및 길이, 다른 사용자와 교환된 단문 메시지, 다른 사용자와의 전화통화 또는 메시지의 수, 응답하지 못한 착신 또는 메시지의 수 등)와 같은 사용자 정보를 포함한다. 캐릭터 모듈(114)에 의해 수집된 개인 정보(210)는 감정 모델(230) 및 행동 엔진(250)으로 제공되고, 감정 모델(230) 및 행동 엔진(250)은 그 정보에 기초하여 감정 및 행동을 예측한다. 본 명세서에 기술되지 않았지만, 감정 모델(230) 및 행동 엔진(250)을 구현하기 위해서는 정신 또는 행동 심리학 분야에서 개발된 어떠한 방법 또는 이론이 적용될 수 있다.
감정 모델(230) 및 신체 모델(240)은 바이오 센서(130)를 통해서 얻어진 생물학적 정보(220)를 이용하여 생성되고 갱신된다. 특히, 신체 모델(240)은 생물학적 정보(220)(예를 들어, 생물학적 신호, 데이터 등)에 기초하여 사용자의 다양한 기관(organ)들을 모델링함으로써 사용자의 가상의 생리적 모델(physiological model)을 표현한다. 신체 모델(240)에 저장된 속성들은 아바타를 기하학적으로 모델링하기 위해 사용되며, 아바타는 가상 세계에서의 캐릭터 개체(200)를 나타낸다. 상기 예에서 개인 정보가 감정 모델 및 행동 엔진을 모델링하기 위해 사용되고, 생물학적 정보가 감정 모델 및 신체 모델을 모델링하기 위해 사용되었지만, 각 모델 은 또한 다른 종류의 데이터를 이용하여 생성 또는 갱신될 수 있다 (예를 들어, 다수의 수신되는 착신과 같은 개인 정보에 응답하여, 신체 모델이 사용자의 피곤한 상태를 모델링할 수 있다).
다시 도 1을 참조하면, 이동 단말기(110)는 바이오 센서(130)를 통하여 사용자의 생물학적 정보(220)를 수신한다. 바이오 센서(130)는 이동 단말기(110)에 내장되거나 통신 링크(140)를 통하여 이동 단말기(110)와 통신할 수 있다. 대부분의 경우에 통신 링크(140)는 무선 연결로 구현되는 것이 바람직하지만, 다른 구성에서, 바이오 센서(130)는 유선 연결을 통해 무선 단말기(110)에 연결될 수 있다.Referring back to FIG. 1, the
바이오 센서(130)는 마이크로폰(microphone)과 같은 청각 센서(131), 카메라와 같은 시각 센서(132), 예를 들어 나노(nano) 기술을 이용하여 제조된 미각 센서(133) 및 후각 센서(134), 또는 MEMS(micro-electro mechanical systems) 가속도계와 같은 동작 센서(135)를 포함한다. 또한, 사용자의 생물학적 정보(220)는 온도계(136), 맥박 센서(137) 또는 ECG(electrocardiogram) 센서(138)를 통하여 바이오 신호를 측정하여 얻어질 수 있다. 도 1은 이동 단말기(110)에서 사용될 수 있는 다수의 서로 다른 바이오 센서를 도시하고 있지만, 센서(130)는 사용자의 신체 상태를 감지할 수 있는 임의의 개수의 임의의 종류의 센서를 이용할 수 있다.The
바이오 센서(130)에 의해 얻어진 생물학적 정보는 입력 인터페이스(113)를 통해서 메모리(116)에 전송된다. 캐릭터 모듈(114)은 메모리(116)에 저장된 생물학적 정보 및 개인 정보를 엑세스하고 그 정보를 처리함으로써, 상기한 바와 같은 캐릭터 개체(200)의 감정 모델(230) 및 신체 모델(240)을 생성 및 갱신한다.Biological information obtained by the
예를 들어, 캐릭터 모듈(114)은 청각 센서(131)를 통해서 얻어진 사용자의 음성 데이터를 분석하여 사용자의 건강 상태에 관한 정보를 생성한다. 이 경우에, 캐릭터 모듈(114)은 공지의 알고리즘을 이용하여 음성을 분석하여 사용자의 건강 상태를 모델링할 수 있다. 동양 의학 또는 음성학(phonetics)의 공지된 이론에 따르면, 개인의 건강 상태는 개인의 음성을 분석하여 알 수 있다.For example, the
또한, 미각 센서(133) 및 후각 센서(134)는 적층 금속 산화물(laminate metal oxide) 센서, 나노 바이오 센서 등을 이용하여 구현될 수 있으며, 와인, 음식, 부폐된 음식, 위조된 주류, 위험 물질 등의 맛 또는 냄새를 감지하는데 사용된다. 캐릭터 모듈(114)은 센서(133, 134)에 의해 얻어진 미각 및 후각 정보를 사전 결정된 값들과 비교하여 신체 모델(240)의 대응되는 속성들을 갱신하며, 이는 그 정보의 출처에 대한 캐릭터 개체(200)의 행동을 결정한다.In addition, the
메모리(116)에 저장된 감정 모델(230), 신체 모델(240) 및 행동 엔진(250)을 포함하는 캐릭터 개체(200)는 휴대가능한 메모리 카드(120)로 전송된다. 휴대가능한 메모리 카드(120)는 이동 단말기(110)로부터 분리되어 다른 이동 단말기에 부착될 수 있다. 이와 같이, 사용자는 캐릭터 개체를 다시 생성할 필요 없이 새로운 이동 단말기로 캐릭터 개체(200)를 전송하여 관리할 수 있다.The
캐릭터 개체(200)는 그래픽 또는 애니메이션 데이터를 더 포함할 수 있으며, 그 데이터를 이용하여 감정 모델(230) 및 신체 모델(240)은 아바타의 형태로 시각화될 수 있다. 아바타는 시간의 흐름에 따라 변하는 감정 모델(230) 및 신체 모델(240)뿐만 아니라 행동 엔진(250)의 출력에 응답하여 갱신 또는 수정될 수 있다. 캐릭터 모듈(114)은 캐릭터 개체(200)에 포함된 그래픽 또는 애니메이션 데이터를 이용하여 아바타를 LCD 디스플레이 장치(117) 상에서 시각화한다.The
도 3은 이동 단말기(110)가 사용자 특징에 기초하여 컬러를 디스플레이할 수 있는 실시예를 도시한다. 이 실시예에서, 이동 단말기(110)는 유기 EL 또는 무기 EL 재료와 같은 전기발광(electro-luminescent, EL) 재료로 만들어진 케이스(118)를 포함한다. 본 발명의 기술분야에서 널리 알려진 바와 같이, 그러한 물질로 만들어진 케이스(118)는 입력 신호 (예를 들어, 전압 또는 전류 신호)에 응답하여 발광하는 광의 세기 또는 컬러를 변경한다. 케이스(118)는 EL 재료로 제조되지만, 이동 단말기의 케이스의 특정 부분 또는 어떤 부분만을 EL 재료로 구성하여 사용자의 상태를 나타내는 컬러를 디스플레이할 수 있다.3 illustrates an embodiment in which
캐릭터 모듈(114)은 감정 모델(230), 신체 모델(240) 및 행동 엔진(250)의 속성들에 기초하여 케이스(118)에 대한 컬러 입력 신호를 생성한다. 캐릭터 개체(200)는 케이스 상에 디스플레이될 컬러 정보를 포함할 수 있다. 일 실시예에서, 캐릭터 모듈(114)은 사용자 특징을 분석하고, 케이스(118)에 입력될 컬러 신호를 생성한다. 만약 사용자 특징 데이터가 건강하지 못한 상태를 나타낸다면, 빨간색에 대응하는 컬러 신호가 생성되어 케이스(118)에 제공될 수 있다. 예를 들어, 만약 사용자의 (바이오 센서(130) 또는 이동 단말기(110)의 내부 마이크로폰을 통해서 입력될 수 있는) 음성이 건강하지 못한 상태를 나타낸다면, 캐릭터 모듈(114)은 빨간색을 나타내는 컬러 신호를 출력한다. 컬러 신호에 응답하여, 케이스(118)는 이동 단말기(110) 상에 빨간색을 디스플레이한다. 다음으로, 만약 사용자의 음성 이 건강한 상태를 나타낸다면, 파란색을 나타내는 컬러 신호가 케이스(118)의 디스플레이를 위해 제공될 수 있다. 사용자 특징 데이터에 따라 컬러를 디스플레이하고 변경함으로써, 사용자의 상태는 이동 단말기 상에 용이하게 자동적으로 표현된다.The
도 4는 이동 단말기(400)가 사용자 특징에 기초하여 컬러를 디스플레이할 수 있는 실시예를 도시한다. 이 실시예에서, 이동 단말기(400)는 EL 재료로 제조된 케이스(410)를 포함한다. 상기한 바와 같이, 케이스(410)는 입력 신호에 따라 발광되는 광의 세기 또는 컬러를 변경할 수 있는 재료로 만들어진다. 케이스(410)는 EL 재료로 제조되지만, 케이스 또는 이동 단말기 또는 케이스의 특정 부분 또는 어떤 부분만을 EL 재료로 구성하여 사용자의 상태를 나타내는 컬러를 디스플레이할 수 있다.4 illustrates an embodiment in which the
처리 모듈(420)은 바이오 센서(430) 또는 내부 마이크로폰(440)과 같은 센서를 통해서 입력되는 다양한 바이오 신호를 분석하여, 예를 들어 사용자의 현재 감정 또는 건강 상태를 나타내는 출력 신호를 생성한다. 처리 모듈(420)의 그러한 출력 신호는 케이스(410)에 입력되는 컬러 신호로 사용되고, 이 신호는 사용자의 감정 또는 건강 상태에 따라 서로 다른 컬러를 나타낸다. 컬러 신호에 응답하여, 케이스(410)는 이동 단말기(110) 상에 컬러 신호에 대응하는 특정 컬러를 디스플레이한다.The
도 5는 이동 단말기(110)에서 캐릭터 개체를 생성하는 방법의 일 실시예를 나타내는 흐름도이다. 동작(510)에서, 이동 단말기(110)는 개인 정보(210) 및/또 는 바이오 센서(130)로부터의 생물학적 정보(220)와 같은 사용자 특징 데이터를 수집하고 저장한다. 위에서 도 2를 참조하여 설명한 바와 같이, 개인 정보(210)는 주소록, 일정 및 전화통화의 패턴과 같은 사용자 정보를 포함하며, 이 정보는 메모리(116)에 저장된다. 또한, 생물학적 정보(220)는 사용자의 현재 감정 및 신체 상태를 나타내는 바이오 신호 및 데이터를 포함하며, 여기에는 상술한 바와 같은 청각 센서(131)를 통해 입력된 사용자의 음성, 시각 센서(132)에 의해 얻어진 영상, 미각 센서(133) 및 후각 센서(134)에 의해 얻어진 미각 및 후각 데이터 등이 포함된다.5 is a flowchart illustrating an embodiment of a method of generating a character entity in the
사용자 특징 데이터에 기초하여, 이동 단말기(110)는 캐릭터 개체(200)를 생성한다 (동작 520). 특히, 캐릭터 모듈(114)은 메모리(116)로부터의 개인 정보(210) 및/또는 생물학적 정보(220)를 처리하여 사용자의 상태를 나타내는 감정 및 신체 모델(230, 240) 및 행동 엔진을 포함하는 캐릭터 개체(200)를 생성한다.Based on the user characteristic data, the
캐릭터 개체(200)를 생성한 후, 이동 단말기(110)는 휴대가능한 메모리 카드(120)에 생성된 캐릭터 개체(200)를 저장한다 (동작 530). 캐릭터 개체(200)는 무선/유선 연결을 통해 이동 단말기(110)에 연결된 다른 이동 단말기, 컴퓨터, 또는 서버로 전송될 수 있다. 이와 같이, 이동 단말기(110)의 사용자는 다른 장치 상에 자신의 상태를 나타내는 캐릭터 개체(200)를 용이하게 전송하여 재생성할 수 있다.After generating the
도 6은 이동 단말기(110)에서 캐릭터 개체를 갱신 또는 수정하는 방법의 일 실시예를 나타내는 흐름도를 도시한다. 이동 단말기(110) 상에서 캐릭터 개체가 생성되어 저장된 후, 이동 단말기(110)는 캐릭터 개체(200)를 갱신하기 위한 명령 어가 수신되었는지를 결정한다 (동작 610). 캐릭터 개체(200)는 사용자에 의해 설정된 바에 따라 주기적으로 또는 비주기적으로 갱신되거나, 새로운 사용자 특징 데이터가 수신될 때마다 자동적으로 갱신될 수 있다.6 is a flowchart illustrating an embodiment of a method of updating or modifying a character entity in the
만약 캐릭터 개체(200)가 갱신될 필요가 있을 때에는, 이동 단말기(110)는 휴대가능한 메모리 카드(120)로부터 메모리(116)로 캐릭터 개체를 로딩한다 (동작 620). 캐릭터 개체(200)는 메모리(116)로 로딩되고 휴대가능한 메모리 카드(120)에서 엑세스되지만, 캐릭터 개체(200)는 휴대가능한 메모리 카드(120)로부터 로딩되거나 그것에 저장되지 않고 메모리(116)에서 갱신될 수 있다.If the
동작(630)에서, 이동 단말기(110)는 새로운 사용자 특징 데이터(예를 들어, 개인 정보(210) 및/또는 바이오 센서(130)로부터의 생물학적 정보(220))를 분석한다. 동작(640)에서, 이동 단말기(110)는 새로운 정보에 기초하여 캐릭터 개체(200)를 갱신 또는 수정한다. 특히, 캐릭터 모듈(114)은 개인 정보(210) 및/또는 생물학적 정보(220)를 처리하여 캐릭터 개체(200)에 포함된 감정 및 신체 모델(230, 240) 및 행동 엔진(250)을 갱신한다. 이 동작에서, 캐릭터 개체(200)는 바람직하게는 케이스(118) 또는 케이스의 일부분 상의 컬러를 갱신 또는 수신하기 위한 컬러 정보를 포함한다. 이동 단말기(110)는 메모리(116)에서 갱신된 캐릭터 개체(200)를 휴대가능한 메모리 카드(120)에 저장한다 (동작 650).In
도 7 및 도 8을 참조하여, 복수의 이동 단말기로부터 얻어진 복수의 캐릭터 개체를 합성하는 시스템 및 방법의 일 실시예를 상세히 설명한다.7 and 8, an embodiment of a system and method for synthesizing a plurality of character entities obtained from a plurality of mobile terminals will be described in detail.
생성된 캐릭터 개체들이 합성되어 새로운 캐릭터 개체를 생성할 수 있다. 도 7은 복수의 이동 단말기(712 내지 716)로부터의 복수의 캐릭터 개체를 합성하는 시스템의 일 실시예를 도시한다. 도 7에 도시된 바와 같이, 서버(730)는 무선/유선 네트워크(720)를 통해서 이동 단말기(712 내지 716)로부터 캐릭터 개체를 수신한다. 네트워크(720)는 인터넷, 캠퍼스/기업 인트라넷, 광역 네트워크(WAN), 지역 네트워크(LAN) 또는 어떠한 종류의 네트워크 또는 인터네트워크(inter-network)일 수 있다. 또한, 본 실시예는 데이터그램(datagram) 기반 네트워크(예를 들어, 인터넷), 연결 기반 (예를 들어, X.25) 네트워크, 가상 회로 기반 (예를 들어, 비동기 전송 모드(ATM)) 네트워크 등을 포함하는 다양한 통신 기술들 중의 어느 것을 이용하는 네트워크에 적용될 수 있다.The created character objects can be synthesized to create a new character object. 7 illustrates one embodiment of a system for synthesizing a plurality of character entities from a plurality of mobile terminals 712-716. As shown in FIG. 7,
서버(730)는 캐릭터 개체를 수신하고, 수신된 캐릭터 개체를 합성하여 새로운 캐릭터 개체를 생성한다. 서버(730)는 네트워크(720)를 통하여 이동 단말기(716)와 같은 수신자(recipient)에게 새로운 캐릭터 개체를 전송한다. 네트워크 주소와 같은 수신 단말기(716)에 관한 정보는 이동 단말기(712, 714) 중의 적어도 하나에 의해 서버(730)로 제공된다.The
서버(730)가 이동 단말기(712, 714)로부터 전송된 캐릭터 개체를 합성하는 에이전트(agent)로써의 역할을 수행하는 것으로 기술되었지만, 캐릭터 개체를 합성하는 처리과정은 이동 단말기(712 내지 716) 중의 어느 하나에서 수행될 수 있다. 이 경우에, 예를 들어 이동 단말기(712)는 적외선 또는 블루투스(Bluetooth)와 같은 무선 연결을 통해 이동 단말기(714)로부터 캐릭터 개체를 수신하고, 이동 단말기(714)의 캐릭터 개체를 메모리에 저장된 캐릭터 개체와 합성하여 새로운 캐릭터 개체를 생성한다. 새로운 캐릭터 개체를 합성한 후, 이동 단말기(712)는 새로이 생성된 캐릭터 개체를 메모리에 저장하거나 다른 이동 단말기에 전송한다.Although the
도 8은 캐릭터 개체를 합성하는 방법의 일 실시예를 나타내는 흐름도를 도시한다. 동작(810)에서, 적어도 두 개의 이동 단말기(712, 714)는 캐릭터 개체를 서버(730)에 업로딩한다. 캐릭터 개체를 수신한 서버(730)는 캐릭터 개체를 합성하여 새로운 캐릭터 개체를 생성한다 (동작 820).8 shows a flow diagram illustrating one embodiment of a method of synthesizing a character entity. In
캐릭터 개체를 합성하는데 있어서, 서버(730)는 바람직하게는 유전 결합 방법(genetic combination method)을 사용한다. 이 방법을 사용하는 경우, 캐릭터 개체(200)의 감정 및 신체 모델(230, 240)의 속성들은 유전자와 같이 취급되며, 각 유전자는 예를 들어 최소값으로부터 최대값까지의 범위를 갖는 캐릭터 개체의 하나의 특징을 나타내는 값을 갖는다. 유전 결합 방법은 적어도 두 개의 캐릭터 개체로부터 얻어진 유전자의 가중합(weighted sum)을 계산하여 새로운 캐릭터 개체의 유전자를 생성한다. 이 경우, 가중합의 값은 캐릭터 개체의 맞춤설계를 위해 구현된 그래픽 사용자 인터페이스를 이용하여 사용자에 의해 조절될 수 있다. 다른 방법에 따라, 가중합의 값은 의사난수(pseudorandom number) 생성기를 이용하여 결정될 수 있다. 이러한 유전 결합 방법을 이용하여, 이전에 생성되었던 캐릭터 개체의 변형이 생성될 수 있다.In synthesizing a character entity,
새로운 캐릭터 개체를 생성하면, 서버(730)는 생성된 캐릭터 개체를 수신 이동 단말기로 전송한다 (동작 830). 도 7을 참고하여 설명한 바와 같이, 캐릭터 개체를 합성하는 처리과정은 원래의 캐릭터 개체를 갖고 있는 이동 단말기(712, 714) 중의 어느 하나 또는 다른 단말기(716)에서 수행될 수 있으며, 그 이동 단말기는 새로 새성된 캐릭터 개체를 메모리에 저장하거나 다른 이동 단말기로 전송할 수 있다.When creating a new character object, the
이상에서 살펴본 바와 같이, 본 명세서에서 기술된 실시예에 따른 시스템 및 방법은 사용자의 감성 및 신체 상태와 같은 사용자의 특성의 변화에 따라 이동 단말기가 그 사용자의 특성의 표현을 자동 생성하고 갱신함으로써, 특정 시간에 사용자의 상태나 특성의 표현을 사실적으로 제공할 수 있다.As described above, the system and method according to the embodiment described in the present disclosure by automatically generating and updating the representation of the characteristics of the user according to the change of the characteristics of the user, such as the user's emotion and physical condition, You can realistically present a representation of a user's status or characteristics at a particular time.
Claims (43)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060062915A KR20080004196A (en) | 2006-07-05 | 2006-07-05 | System and method for managing character objects in mobile terminals |
PCT/KR2007/003252 WO2008004813A1 (en) | 2006-07-05 | 2007-07-04 | System and method for managing a character entity in a mobile terminal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020060062915A KR20080004196A (en) | 2006-07-05 | 2006-07-05 | System and method for managing character objects in mobile terminals |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20080004196A true KR20080004196A (en) | 2008-01-09 |
Family
ID=38894741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020060062915A Ceased KR20080004196A (en) | 2006-07-05 | 2006-07-05 | System and method for managing character objects in mobile terminals |
Country Status (2)
Country | Link |
---|---|
KR (1) | KR20080004196A (en) |
WO (1) | WO2008004813A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9545567B2 (en) | 2010-07-20 | 2017-01-17 | Samsung Electronics Co., Ltd. | Apparatus and method for manipulating a virtual world by utilizing biometric information |
US9665563B2 (en) | 2009-05-28 | 2017-05-30 | Samsung Electronics Co., Ltd. | Animation system and methods for generating animation based on text-based data and user information |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9640218B2 (en) | 2012-12-07 | 2017-05-02 | Intel Corporation | Physiological cue processing |
CN105615901B (en) * | 2014-11-06 | 2018-08-14 | 中国移动通信集团公司 | A kind of method and system of monitoring mood |
DE102019211742A1 (en) * | 2019-08-06 | 2021-02-11 | Volkswagen Aktiengesellschaft | Method for measuring health data of a vehicle occupant in a motor vehicle |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20000055455A (en) * | 1999-02-06 | 2000-09-05 | 전희국 | Method of storing user data in cellular phones using short message service |
KR100629144B1 (en) * | 1999-06-26 | 2006-09-27 | 에스케이 텔레콤주식회사 | SMS based personal information management method |
KR100372663B1 (en) * | 2001-02-13 | 2003-02-15 | 주식회사 어필텔레콤 | A letter transmitting and saves method of the mobile computing device |
KR100469409B1 (en) * | 2001-07-13 | 2005-02-02 | 엘지전자 주식회사 | Personal information management method for mobile communication device |
US7197640B2 (en) * | 2001-08-10 | 2007-03-27 | Meisel William S | Use of identification codes in the handling and management of communications |
-
2006
- 2006-07-05 KR KR1020060062915A patent/KR20080004196A/en not_active Ceased
-
2007
- 2007-07-04 WO PCT/KR2007/003252 patent/WO2008004813A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9665563B2 (en) | 2009-05-28 | 2017-05-30 | Samsung Electronics Co., Ltd. | Animation system and methods for generating animation based on text-based data and user information |
US9545567B2 (en) | 2010-07-20 | 2017-01-17 | Samsung Electronics Co., Ltd. | Apparatus and method for manipulating a virtual world by utilizing biometric information |
Also Published As
Publication number | Publication date |
---|---|
WO2008004813A1 (en) | 2008-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1326400C (en) | Virtual television telephone device | |
JP5497015B2 (en) | Method and system for automatically updating avatar status to indicate user status | |
JP6462386B2 (en) | Program, communication terminal and display method | |
US11960792B2 (en) | Communication assistance program, communication assistance method, communication assistance system, terminal device, and non-verbal expression program | |
JP6461630B2 (en) | COMMUNICATION SYSTEM, COMMUNICATION DEVICE, PROGRAM, AND DISPLAY METHOD | |
US20060206833A1 (en) | Sensory output devices | |
JP2018503894A (en) | Classification of emotion types for interactive dialog systems | |
JP2005115896A (en) | Communication apparatus and method | |
JP2005085256A (en) | Proactive user interface | |
KR20050025288A (en) | Proactive user interface with empathized agent | |
KR20080004196A (en) | System and method for managing character objects in mobile terminals | |
CN111512617B (en) | Device and method for recommending contact information | |
CN108697935A (en) | Incarnation in virtual environment | |
US7970716B2 (en) | Method for expressing emotion and intention in remote interaction and real emotion system thereof | |
TW201003512A (en) | User interface, device and method for displaying a stable screen view | |
CN107635070A (en) | A kind of method of prompting message, terminal and storage medium | |
KR100594005B1 (en) | Training simulation method and device for mobile communication terminal | |
CN107818787A (en) | A kind of processing method of voice messaging, terminal and computer-readable recording medium | |
CN112870697B (en) | Interaction method, device, equipment and medium based on virtual relation maintenance program | |
JP6990472B1 (en) | A system for communicating with people and a program for that purpose | |
KR101199443B1 (en) | Terminal device for emotion recognition and terminal device for emotion display | |
KR20010082779A (en) | Method for producing avatar using image data and agent system with the avatar | |
KR20050028171A (en) | Emotion management and synthesis device and method for personal robot | |
KR102650224B1 (en) | System for emotion delivery and method thereof | |
KR100736541B1 (en) | Online integrated system of personal characters |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PA0109 | Patent application |
Patent event code: PA01091R01D Comment text: Patent Application Patent event date: 20060705 |
|
PG1501 | Laying open of application | ||
A201 | Request for examination | ||
PA0201 | Request for examination |
Patent event code: PA02012R01D Patent event date: 20080731 Comment text: Request for Examination of Application Patent event code: PA02011R01I Patent event date: 20060705 Comment text: Patent Application |
|
E902 | Notification of reason for refusal | ||
PE0902 | Notice of grounds for rejection |
Comment text: Notification of reason for refusal Patent event date: 20100426 Patent event code: PE09021S01D |
|
E601 | Decision to refuse application | ||
PE0601 | Decision on rejection of patent |
Patent event date: 20100726 Comment text: Decision to Refuse Application Patent event code: PE06012S01D Patent event date: 20100426 Comment text: Notification of reason for refusal Patent event code: PE06011S01I |