JP2005354392A - State display method, mobile communication terminal and system - Google Patents

State display method, mobile communication terminal and system Download PDF

Info

Publication number
JP2005354392A
JP2005354392A JP2004172887A JP2004172887A JP2005354392A JP 2005354392 A JP2005354392 A JP 2005354392A JP 2004172887 A JP2004172887 A JP 2004172887A JP 2004172887 A JP2004172887 A JP 2004172887A JP 2005354392 A JP2005354392 A JP 2005354392A
Authority
JP
Japan
Prior art keywords
mobile communication
information
communication terminal
state
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004172887A
Other languages
Japanese (ja)
Other versions
JP4288317B2 (en
Inventor
Daisaku Shimazaki
大作 島▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004172887A priority Critical patent/JP4288317B2/en
Publication of JP2005354392A publication Critical patent/JP2005354392A/en
Application granted granted Critical
Publication of JP4288317B2 publication Critical patent/JP4288317B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a service for automatically grasping a state of a user and capable of reflecting the state onto an avatar. <P>SOLUTION: This mobile communication terminal estimates a present state of a possessor of the mobile communication terminal on the basis of detection information detected by a plurality of state detection means provided to the terminal itself and generates control information for controlling the shape or behavior of the avatar on the basis of the estimated state of the possessor. Further, the detection information is distributed to other mobile communication terminals registered in advance directly or via a server. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、携帯電話などの移動体通信端末を利用したコミュニケーションサービスに利用する。特に、アバターの制御技術に関する。   The present invention is used for a communication service using a mobile communication terminal such as a mobile phone. In particular, it relates to avatar control technology.

従来、ユーザが個人の専用Webページに自分のアバターを登録し、このWebページを自分自身および他人が閲覧できるWebサービスが提供されている。   2. Description of the Related Art Conventionally, there has been provided a web service in which a user registers his / her avatar on a personal dedicated web page and the web page can be browsed by himself and others.

また、ユーザは自らのアバターの服装や髪形などを変更することが可能である。また、この個人の専用ページは、PC端末からだけでなく、携帯電話端末からも閲覧または編集が可能であり、アバターを通じたコミュニケーションサービスが提供されている。   In addition, the user can change his / her avatar's clothes and hairstyle. In addition, this personal dedicated page can be viewed or edited not only from a PC terminal but also from a mobile phone terminal, and a communication service through an avatar is provided.

このようなサービスによって提供されるのは、ユーザの思い通りのアバターを作成することによる満足感や、これを他人に披露することによる優越感、あるいは、同様なアバターを有するユーザ同士のコミュニケーションなどである。   Such services provide satisfaction by creating the user's desired avatar, superiority by showing it to others, or communication between users with similar avatars, etc. .

また、別のアプローチとして、携帯TV電話でもアバターは利用されている。従来の携帯TV電話では、自らの顔や部屋の状態などが通信相手に見えてしまうため、これを望まないユーザが存在した。このため、相手の携帯TV端末に、自分の顔ではなく、自分が設定したアバターを投影するサービスが提案されている。   As another approach, avatars are also used in mobile TV phones. In a conventional mobile TV phone, there are users who do not want this because their face, the state of the room, etc. can be seen by the communication partner. For this reason, a service has been proposed in which an avatar set by the user is projected on the other party's mobile TV terminal instead of his / her face.

“カフェスタとは”、[online]、Powerdcom.inc、[2004年5月12日検索]、インターネット<URL:http://www.cafesta.com/main_off.jsp>“What is Cafesta”, [online], Powerdcom.inc, [Search May 12, 2004], Internet <URL: http: //www.cafesta.com/main_off.jsp> “Yahoo!アバター”、[online]、Yahoo JapanCorporation、[2004年5月12日検索]、インターネット<URL:http://avatar.yahoo.co.jp/>“Yahoo! Avatar”, [online], Yahoo Japan Corporation, [Search May 12, 2004], Internet <URL: http://avatar.yahoo.co.jp/> “キャラ電”、[online]、NTT DoCoMo.Inc、[2004年5月12日検索]、インターネット<URL:http://foma.nttdocomo.co.jp/tv/list/chara/tv_chara.html>“Chara-den”, [online], NTT DoCoMo.Inc, [Search May 12, 2004], Internet <URL: http: //foma.nttdocomo.co.jp/tv/list/chara/tv_chara.html> “TeamFactory”、[online]、KDDIau、[2004年5月12日検索]、インターネット<URL:http://www.au.kddi.com/ezweb/au_dakara/teamfactory/index.html“TeamFactory”, [online], KDDIau, [Search May 12, 2004], Internet <URL: http: //www.au.kddi.com/ezweb/au_dakara/teamfactory/index.html 渡辺 琢美、伊東 昌子、「温かいコミュニケーション「つながり感通信」の誕生」、共立出版、2003年7月Atsumi Watanabe, Masako Ito, “Birth of Warm Communication“ Connection Communication ””, Kyoritsu Shuppan, July 2003 特開2002−314963号公報JP 2002-314963 A 特開2002−314707号公報JP 2002-314707 A 特開2002−307338号公報JP 2002-307338 A

従来のアバターを用いたサービスでは、ユーザは自らのアバターを作成し、アバターの状態を変化させる必要がある。例えば、自分の状態をアバターに反映させるサービスでは、暇な状態、会議中、移動中などの自分の状態を、明示的に自分のアバターに反映させる必要があった。   In a service using a conventional avatar, the user needs to create his / her avatar and change the state of the avatar. For example, in a service for reflecting one's own state on an avatar, it is necessary to explicitly reflect one's own state such as a free state, a meeting, or moving on the one's avatar.

したがって、ユーザが自分の状態をアバターに反映させるための操作を怠った場合には、第三者には、実際のユーザの状態とは異なる状態が伝達されてしまう。一般的に、会議中、移動中などの状態は、ユーザにとって、忙しい状態であるので、自分の状態をアバターに反映させるための操作を怠る場合が多く、アバターの役割を充分に発揮させることができない。   Therefore, when the user neglects an operation for reflecting his / her state on the avatar, a state different from the actual state of the user is transmitted to the third party. In general, since the state such as a meeting or moving is a busy state for the user, there are many cases in which an operation for reflecting the user's state on the avatar is neglected, and the role of the avatar can be fully exhibited. Can not.

本発明は、このような背景に行われたものであって、自動的にユーザの状態を把握してアバターに反映させることができるサービスを提供することを目的とする。   The present invention is made in such a background, and an object of the present invention is to provide a service capable of automatically grasping a user's state and reflecting it on an avatar.

本発明は、携帯電話などの移動体通信端末から得られる情報を基に、その移動体通信端末の所有者であるユーザの状態を把握してアバターに反映させることを特徴とする。   The present invention is characterized in that, based on information obtained from a mobile communication terminal such as a mobile phone, the state of a user who is the owner of the mobile communication terminal is grasped and reflected in an avatar.

すなわち、本発明の第一の観点は、移動体通信端末に備わる複数の状態検出手段により検出した検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察するステップと、この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、この生成された制御情報に基づきアバターの形状または挙動を制御するステップとを実行する移動体通信システムにおける状態表示方法である(請求項1)。   That is, the first aspect of the present invention is inferred from the step of inferring the current state of the owner of the mobile communication terminal based on detection information detected by a plurality of state detection means provided in the mobile communication terminal. In a mobile communication system that executes a step of generating control information for controlling the shape or behavior of an avatar based on the state of the owner and a step of controlling the shape or behavior of an avatar based on the generated control information This is a state display method (claim 1).

これにより、自動的にユーザの状態を把握してアバターに反映させることができるので、ユーザの操作を待つこと無く、ユーザの状態をアバターに正しく反映させることができる。   Thereby, since a user's state can be grasped automatically and reflected in an avatar, a user's state can be correctly reflected in an avatar, without waiting for a user's operation.

さらに、前記検出情報を共有する他移動体通信端末の情報があらかじめ定められ、前記検出情報を直接あるいはサーバを介して当該他移動体通信端末に配信するステップを実行することができる(請求項2)。これにより、第三者に自己の状態をアバターによって伝達することができる。   Furthermore, information on other mobile communication terminals that share the detection information is predetermined, and the step of distributing the detection information to the other mobile communication terminals directly or via a server can be executed. ). Thereby, a self-state can be transmitted to a third party by an avatar.

本発明の第二の観点は、複数の状態検出手段と、この状態検出手段からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する手段と、この推察する手段により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する手段と、この生成する手段により生成された制御情報に基づきアバターの形状または挙動を制御する手段とを備えた移動体通信端末である(請求項3)。   The second aspect of the present invention is inferred by a plurality of state detection means, a means for inferring the current state of the owner of the mobile communication terminal based on detection information from the state detection means, and the inference means. Means for generating control information for controlling the shape or behavior of the avatar based on the state of the owner, and means for controlling the shape or behavior of the avatar based on the control information generated by the means for generating It is a mobile communication terminal (claim 3).

さらに、前記検出情報を共有する他移動体通信端末の情報を保持する手段を備え、この保持する手段に保持された前記他移動通信端末の情報を参照し、前記検出情報を直接あるいはサーバを介して当該他移動体通信端末に配信する手段を備えることができる(請求項4)。   The information processing apparatus further comprises means for holding information on the other mobile communication terminal sharing the detection information. The information on the other mobile communication terminal held in the holding means is referred to, and the detection information is directly or via a server. And a means for delivering to the other mobile communication terminal.

本発明の第三の観点は、本発明の移動体通信端末と、サーバとを備え、このサーバには、前記検出情報を共有する他移動体通信端末の情報を保持する手段を備え、前記移動体通信端末は、前記検出情報を前記サーバに転送する手段を備え、前記サーバは、前記保持する手段に保持された前記他移動通信端末の情報を参照し、前記検出情報を当該他移動体通信端末に配信する手段を備えることができる(請求項5)。   A third aspect of the present invention includes the mobile communication terminal of the present invention and a server, and the server includes means for holding information of another mobile communication terminal that shares the detection information, and the mobile The body communication terminal includes means for transferring the detection information to the server, and the server refers to the information of the other mobile communication terminal held in the means for holding and uses the detection information as the other mobile communication Means for distributing to a terminal can be provided (claim 5).

これによれば、移動体通信端末が自身で検出情報を他移動体通信端末に配信する必要がなく、移動体通信端末の処理負荷を軽減させることができる。   According to this, it is not necessary for the mobile communication terminal to distribute detection information to other mobile communication terminals by itself, and the processing load on the mobile communication terminal can be reduced.

本発明の第四の観点は、情報処理装置にインストールすることにより、その情報処理装置に、複数の状態検出機能と、この状態検出機能からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する機能と、この推察する機能により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する機能と、この生成する機能により生成された制御情報に基づきアバターの形状または挙動を制御する機能とを備えた移動体通信端末に相応する機能を実現させるプログラムである(請求項6)。   According to a fourth aspect of the present invention, when installed in an information processing apparatus, the information processing apparatus has a plurality of state detection functions and the owner of the mobile communication terminal based on detection information from the state detection function. A function for inferring the current state, a function for generating control information for controlling the shape or behavior of the avatar based on the state of the owner inferred by the inferred function, and control information generated by the function for generating Is a program that realizes a function corresponding to a mobile communication terminal having a function of controlling the shape or behavior of an avatar based on (Aspect 6).

さらに、前記検出情報を共有する他移動体通信端末の情報を保持する機能を実現させ、この保持する機能に保持された前記他移動通信端末の情報を参照し、前記検出情報を直接あるいはサーバを介して当該他移動体通信端末に配信する機能を実現させることができる(請求項7)。   Further, a function of holding information of other mobile communication terminals that share the detection information is realized, the information of the other mobile communication terminals held in the holding function is referred to, and the detection information is directly or And the function of delivering to the other mobile communication terminal can be realized.

本発明の第五の観点は、本発明のプログラムが記録された前記情報処理装置読取可能な記録媒体である(請求項8)。本発明のプログラムは本発明の記録媒体に記録されることにより、前記情報処理装置は、この記録媒体を用いて本発明のプログラムをインストールすることができる。あるいは、本発明のプログラムを保持するサーバからネットワークを介して直接前記情報処理装置に本発明のプログラムをインストールすることもできる。   A fifth aspect of the present invention is the information processing apparatus-readable recording medium on which the program of the present invention is recorded (Claim 8). By recording the program of the present invention on the recording medium of the present invention, the information processing apparatus can install the program of the present invention using this recording medium. Alternatively, the program of the present invention can be directly installed in the information processing apparatus via a network from a server holding the program of the present invention.

これにより、汎用の情報処理装置を用いて、自動的にユーザの状態を把握してアバターに反映させることができるサービスを実現することができる。   Thereby, the service which can grasp | ascertain a user's state automatically and can be reflected in an avatar using a general purpose information processing apparatus is realizable.

本発明によれば、自動的にユーザの状態を把握してアバターに反映させることができる。   According to the present invention, a user's state can be automatically grasped and reflected on an avatar.

本発明実施例の移動体通信システムを図1ないし図4を参照して説明する。図1は本実施例の移動体通信システムの全体構成図である。図2は移動体通信端末のブロック構成図である。図3はプログラム実行部のブロック構成図である。これらのブロック構成図は、本実施例の説明に必要な機能ブロック以外の図示は省略した。図4は検出情報配信手順を示すフローチャートである。   A mobile communication system according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is an overall configuration diagram of a mobile communication system according to the present embodiment. FIG. 2 is a block diagram of the mobile communication terminal. FIG. 3 is a block diagram of the program execution unit. In these block configuration diagrams, illustrations other than the functional blocks necessary for the description of the present embodiment are omitted. FIG. 4 is a flowchart showing a detection information distribution procedure.

本実施例の移動体通信システムにおける状態表示方法を図1〜図3を参照して説明する。移動体通信端末20−1は、自己に備わる複数の状態検出手段であるGPS部1、通話検出部2、パケット通信解析部3、音声認識部4、加速度センサ5、端末操作検出部6、充電中検出部7の検出情報に基づき当該移動体通信端末20−1の所有者の現在の状態を推察するステップと、この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、この生成された制御情報に基づきアバターの形状または挙動を制御するステップとを実行する移動体通信システムにおける状態表示方法である(請求項1)。   A state display method in the mobile communication system of the present embodiment will be described with reference to FIGS. The mobile communication terminal 20-1 includes a GPS unit 1, a call detection unit 2, a packet communication analysis unit 3, a voice recognition unit 4, an acceleration sensor 5, a terminal operation detection unit 6, a charge, which are a plurality of state detection units provided in the mobile communication terminal 20-1. The step of inferring the current state of the owner of the mobile communication terminal 20-1 based on the detection information of the middle detection unit 7, and the control for controlling the shape or behavior of the avatar based on the inferred state of the owner A state display method in a mobile communication system that executes a step of generating information and a step of controlling the shape or behavior of an avatar based on the generated control information.

前記検出情報を共有する他移動体通信端末20−2の情報があらかじめ定められ、前記検出情報を直接あるいはサーバ30を介して当該他移動体通信端末20−2に配信するステップを実行する(請求項2)。   Information on the other mobile communication terminal 20-2 sharing the detection information is determined in advance, and a step of delivering the detection information to the other mobile communication terminal 20-2 directly or via the server 30 is executed (invoice). Item 2).

これにより、移動体通信端末20−1の所有者の状態を移動体通信端末20−2の所有者にアバターを利用して伝達することができる。また、同様に、移動体通信端末20−2の所有者の状態を移動体通信端末20−1の所有者にアバターを利用して伝達することができる。本実施例では、2つの移動体通信端末20−1および20−2を例示したが、3つ以上の移動体通信端末相互間においても同様に、一つの移動体通信端末の所有者の状態をあらかじめ定められた他の移動体通信端末の所有者にアバターを利用して伝達することができる。   Thereby, the state of the owner of the mobile communication terminal 20-1 can be transmitted to the owner of the mobile communication terminal 20-2 using the avatar. Similarly, the state of the owner of the mobile communication terminal 20-2 can be transmitted to the owner of the mobile communication terminal 20-1 using an avatar. In the present embodiment, the two mobile communication terminals 20-1 and 20-2 are exemplified, but the state of the owner of one mobile communication terminal is similarly changed between three or more mobile communication terminals. An avatar can be used for transmission to the owner of another predetermined mobile communication terminal.

本発明の移動体通信システムは、図2および図3に示すように、複数の状態検出手段としてのGPS部1、通話検出部2、パケット通信解析部3、音声認識部4、加速度センサ5、端末操作検出部6、充電中検出部7を備えた移動体通信端末20−1を備え、ユーザリアルタイム情報データベース9には、複数の状態検出手段からの各種情報をユーザ情報収集部8がとりまとめた検出情報が格納される。また、通信機能部13は、この検出情報をサーバ30に送信する。   As shown in FIGS. 2 and 3, the mobile communication system of the present invention includes a GPS unit 1, a call detection unit 2, a packet communication analysis unit 3, a voice recognition unit 4, an acceleration sensor 5, The mobile communication terminal 20-1 including the terminal operation detection unit 6 and the charging detection unit 7 is provided. In the user real-time information database 9, the user information collection unit 8 collects various information from a plurality of state detection means. Detection information is stored. Further, the communication function unit 13 transmits this detection information to the server 30.

プログラム実行部11は、この検出情報に基づき当該移動体通信端末20−1の所有者の現在の状態を推察する状態推察部14と、この状態推察部14により推察された前記所有者の状態を表す状態情報を生成する状態情報生成部15と、この状態情報生成部15により生成された前記状態情報に基づきアバターの形状または挙動を制御する制御情報を生成する制御情報生成部16とを備える。   The program execution unit 11 infers the current state of the owner of the mobile communication terminal 20-1 based on the detection information, and the state of the owner inferred by the state inference unit 14. A state information generation unit 15 that generates state information to be expressed, and a control information generation unit 16 that generates control information for controlling the shape or behavior of the avatar based on the state information generated by the state information generation unit 15 are provided.

さらに、プログラム実行部11は、前記制御情報およびユーザ基本情報データベース10に格納されているユーザ基本情報に基づきアバターの形状または挙動を制御してディスプレイ12に表示する(請求項3)。ユーザ基本情報には、例えば、ユーザID、ユーザを認証する情報(パスワード、指紋情報など)、ユーザが用いるアバターの種類などが含まれる。   Furthermore, the program execution unit 11 controls the shape or behavior of the avatar based on the control information and the user basic information stored in the user basic information database 10 and displays it on the display 12 (Claim 3). The user basic information includes, for example, a user ID, information for authenticating the user (password, fingerprint information, etc.), the type of avatar used by the user, and the like.

前記検出情報を共有する他移動体通信端末20−2の情報を保持する手段を備え、この保持する手段に保持された他移動通信端末20−2の情報を参照し、前記検出情報を直接あるいはサーバを介して当該他移動体通信端末20−2に配信する手段を備える(請求項4)。   Means for holding the information of the other mobile communication terminal 20-2 sharing the detection information, referring to the information of the other mobile communication terminal 20-2 held by the means for holding, and Means for delivering to the other mobile communication terminal 20-2 via a server is provided (claim 4).

この保持する手段は、ユーザリアルタイム情報データベース9の一部に設けてもよいし、あるいは、さらにもう一つのデータベースとして設けてもよい。また、配信する手段は、プログラム実行部11の一つの機能として設けることができる。   This means for holding may be provided in a part of the user real-time information database 9 or may be provided as another database. Also, the means for distributing can be provided as one function of the program execution unit 11.

あるいは、サーバ30に、前記検出情報を共有する他移動体通信端末20−2の情報を保持する手段を備え、移動体通信端末20−1は、前記検出情報をサーバ30に通信機能部13により転送し、サーバ30は、前記保持する手段に保持された他移動通信端末20−2の情報を参照し、前記検出情報を当該他移動体通信端末20−2に配信する手段を備えることができる(請求項5)。   Alternatively, the server 30 includes means for holding information of the other mobile communication terminal 20-2 sharing the detection information, and the mobile communication terminal 20-1 transmits the detection information to the server 30 by the communication function unit 13. The server 30 can be provided with a means for referring to the information of the other mobile communication terminal 20-2 held in the holding means and distributing the detection information to the other mobile communication terminal 20-2. (Claim 5).

検出情報の配信手順を図4のフローチャートを参照して説明する。図4に示すように、ユーザ基本情報データベース10にユーザ基本情報を設定する(S1)。このユーザ基本情報はプログラム実行部11の制御により通信機能部13を介して他移動体通信端末20−2に配信される(S2)。このユーザ基本情報には、例えば、ユーザID、ユーザを認証する情報(パスワード、指紋情報など)、ユーザが用いるアバターの種類などが含まれる。ユーザ情報収集部8は、検出情報を収集する(S3)。この検出情報によりユーザリアルタイム情報データベース9が構築される(S4)。   The detection information distribution procedure will be described with reference to the flowchart of FIG. As shown in FIG. 4, user basic information is set in the user basic information database 10 (S1). This basic user information is distributed to the other mobile communication terminal 20-2 via the communication function unit 13 under the control of the program execution unit 11 (S2). This basic user information includes, for example, a user ID, information for authenticating the user (password, fingerprint information, etc.), the type of avatar used by the user, and the like. The user information collection unit 8 collects detection information (S3). The user real-time information database 9 is constructed from this detection information (S4).

ユーザリアルタイム情報データベース9に格納された検出情報に基づきプログラム実行部11の状態推察部14、状態情報生成部15、制御情報生成部16は、アバターの制御情報を生成してアバターを制御し、ディスプレイ12上のアバターに所有者の状態を反映させる(S5)。   Based on the detection information stored in the user real-time information database 9, the state inference unit 14, the state information generation unit 15, and the control information generation unit 16 of the program execution unit 11 generate avatar control information to control the avatar, and display The state of the owner is reflected on the avatar on 12 (S5).

一方、通信機能部13により検出情報はサーバ30に送信される(S6)。サーバ30では、事前に登録されているユーザの移動体通信端末20−2に、検出情報を送信する(S7)。移動体通信端末20−2は、サーバ30から移動体通信端末20−1の検出情報を受け取ると、アバターの制御情報を生成してアバターを制御し、ディスプレイ12上のアバターに移動体通信端末20−1の所有者の状態を反映させる(S8)。   On the other hand, the detection information is transmitted to the server 30 by the communication function unit 13 (S6). The server 30 transmits the detection information to the user's mobile communication terminal 20-2 registered in advance (S7). When the mobile communication terminal 20-2 receives the detection information of the mobile communication terminal 20-1 from the server 30, the mobile communication terminal 20-2 generates avatar control information to control the avatar, and sends the avatar on the display 12 to the mobile communication terminal 20. The state of the owner of -1 is reflected (S8).

なお、移動体通信端末20−1と20−2とが直接通信を行う機能を有している場合には、サーバ30を介した検出情報の授受以外に、移動体通信端末20−1と20−2との間で直接、検出情報の授受を行うことができる。   In addition, when the mobile communication terminals 20-1 and 20-2 have a function of performing direct communication, the mobile communication terminals 20-1 and 20-2 can be used in addition to the exchange of detection information via the server 30. -2 can be exchanged directly with -2.

本実施例は、汎用の情報処理装置にインストールすることにより、その情報処理装置に本実施例の移動通信端末に相応する機能を実現させるプログラムとして実現することができる(請求項6、7)。このプログラムは、記録媒体に記録されて情報処理装置にインストールされ(請求項8)、あるいは通信回線を介して情報処理装置にインストールされることにより当該情報処理装置に、ユーザ情報収集部8、ユーザリアルタイム情報データベース9、ユーザ基本情報データベース10、プログラム実行部11にそれぞれ相応する機能を実現させることができる。   The present embodiment can be implemented as a program that, when installed in a general-purpose information processing apparatus, causes the information processing apparatus to realize functions corresponding to the mobile communication terminal of the present embodiment (claims 6 and 7). This program is recorded on a recording medium and installed in the information processing apparatus (Claim 8), or installed in the information processing apparatus via a communication line, so that the user information collecting unit 8 and the user are installed in the information processing apparatus. Corresponding functions can be realized in the real-time information database 9, the user basic information database 10, and the program execution unit 11, respectively.

以下では、本実施例をさらに詳細に説明する。   Hereinafter, this embodiment will be described in more detail.

本実施例で提案するサービスは、移動体通信端末20−1の各種センサから得られる、その端末の所有者であるユーザの行動を、自動的にアバターに反映させ、さらに、事前に登録した他移動体通信端末20−2のアバターにも自動的に移動体通信端末20−1の所有者の行動を反映させるものである。   The service proposed in the present embodiment automatically reflects the behavior of the user who is the owner of the terminal obtained from the various sensors of the mobile communication terminal 20-1 in the avatar, and is registered in advance. The avatar of the mobile communication terminal 20-2 automatically reflects the behavior of the owner of the mobile communication terminal 20-1.

ユーザの移動体通信端末20−1の各種センサから取得される情報について述べる。ユーザの移動体通信端末20−1の各種センサから取得される情報は、ユーザの現在の行動がわかるような情報である。   Information acquired from various sensors of the user's mobile communication terminal 20-1 will be described. The information acquired from the various sensors of the user's mobile communication terminal 20-1 is information that allows the user's current behavior to be understood.

一例として、GPS部1で取得される情報としては、ユーザの現在位置や移動速度などが挙げられる。通話検出部2から取得される情報としては、現在の通話の有無または通話相手などが挙げられる。パケット通信解析部3から得られる情報は、現在のパケット通信の有無またはメール送受信中かブラウザによるWebブラウジング中かの識別または接続サイトの特定など、パケットを解析することで得られる情報である。音声認識部4から取得可能な情報は、ユーザの会話の速度や音圧などから想定されるユーザの感情などである。また、加速度センサ5から取得可能な情報は、ユーザの加速度である。すなわち、ユーザが物に衝突したり転倒した場合には、急激に加速度が変化するのでこのような状態を検出することができる。また、端末操作検出部6で取得可能な情報は、ユーザのキー操作である。これらの情報の他に、充電中検出部7は、移動体通信端末20−1の情報として、充電中か否か、などの情報を得ることができる。   As an example, examples of information acquired by the GPS unit 1 include a user's current position and moving speed. Information acquired from the call detection unit 2 includes the presence / absence of a current call or a call partner. The information obtained from the packet communication analysis unit 3 is information obtained by analyzing a packet such as the presence / absence of current packet communication, identification of whether mail transmission / reception or web browsing is being performed by a browser, or identification of a connection site. The information that can be acquired from the voice recognition unit 4 is the user's emotions assumed from the conversation speed, sound pressure, etc. of the user. The information that can be acquired from the acceleration sensor 5 is the user's acceleration. That is, when the user collides with an object or falls, the acceleration changes suddenly, so that such a state can be detected. Information that can be acquired by the terminal operation detection unit 6 is a user's key operation. In addition to these pieces of information, the charging detector 7 can obtain information such as whether charging is in progress as information of the mobile communication terminal 20-1.

(第一実施例)
第一実施例としてGPS部1からの検出情報に基づく制御情報生成の一例を図5のフローチャートを参照して説明する。制御情報生成部16は、GPS部1から送られてきた検出情報に基づき図5に示すような制御情報を生成する。プログラム実行部11は、この制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図6に示す。
(First Example)
As a first embodiment, an example of control information generation based on detection information from the GPS unit 1 will be described with reference to a flowchart of FIG. The control information generation unit 16 generates control information as shown in FIG. 5 based on the detection information sent from the GPS unit 1. The program execution unit 11 controls the shape or behavior of the avatar based on this control information. An example of the shape or behavior of this avatar is shown in FIG.

なお、プログラム実行部11は、他移動体通信端末20−2から送られた検出情報についても同様に処理し、当該他移動体通信端末20−2の所有者の状態を自己のディスプレイ12にアバターとして表示することができる。   In addition, the program execution part 11 processes similarly about the detection information sent from the other mobile communication terminal 20-2, and displays the state of the owner of the other mobile communication terminal 20-2 on its display 12 as an avatar. Can be displayed as

GPS部1からの検出情報は、状態推察部14に入力され、ユーザが移動中であるか否か、および、移動中であればその移動速度が推察される。その推察結果は、状態情報生成部15に入力され、制御情報生成部16が認識できる状態情報が生成される。   Detection information from the GPS unit 1 is input to the state inference unit 14 to infer whether or not the user is moving and the moving speed if the user is moving. The inference result is input to the state information generation unit 15, and state information that can be recognized by the control information generation unit 16 is generated.

なお、本実施例では、説明をわかりやすくするために、状態推察部14および状態情報生成部15および制御情報生成部16をそれぞれ別のブロックとして図示したが、状態推察部14および状態情報生成部15は、制御情報生成部16の内部機能であるとし、特にブロックを分けて設けなくてもよい。以降の実施例でも同様である。   In the present embodiment, the state inference unit 14, the state information generation unit 15, and the control information generation unit 16 are illustrated as separate blocks for ease of explanation, but the state inference unit 14 and the state information generation unit are illustrated. Reference numeral 15 denotes an internal function of the control information generation unit 16, and it is not necessary to separately provide blocks. The same applies to the following embodiments.

図5に示すように、制御情報生成部16は、GPS部1の検出情報に基づく状態情報を状態情報生成部15から取得し(S10)、ユーザの現在の状態を認識する。移動がない場合は(S11)、アバターに変化は無い(S18)。移動がある場合は(S11)、その移動速度情報を抽出し(S12)、移動速度が4km/h以下であれば図6(a)に示すように“アバター歩く”という制御情報を生成する(S13)。また、移動速度が10km/h以下であれば図6(b)に示すように“アバター走る”という制御情報を生成する(S14)。また、移動速度が10km/h以上であり、公共移動手段(電車)と同じ経路をたどっていれば(S15)、それは公共移動手段(電車)を利用していることになるので図6(c)に示すように“アバター電車に乗る”という制御情報を生成する(S16)。また、移動速度が10km/h以上であり、公共移動手段(電車)と同じ経路をたどっていなければ(S15)、それは公共移動手段(電車)以外の移動手段(自動車)を利用していることになるので図6(d)に示すように“アバター車に乗る”という制御情報を生成する(S17)。また、各アバター表示に移動方向を示す表示あるいは住所などの現在位置を示す表示も併せて表示させることができる。   As illustrated in FIG. 5, the control information generation unit 16 acquires state information based on the detection information of the GPS unit 1 from the state information generation unit 15 (S10), and recognizes the current state of the user. When there is no movement (S11), there is no change in the avatar (S18). If there is movement (S11), the movement speed information is extracted (S12), and if the movement speed is 4 km / h or less, control information “walking avatar” is generated as shown in FIG. S13). If the moving speed is 10 km / h or less, control information “run avatar” is generated as shown in FIG. 6B (S14). Further, if the moving speed is 10 km / h or more and the same route as that of the public transportation means (train) is followed (S15), it means that the public transportation means (train) is used. ), Control information “get on the avatar train” is generated (S16). Also, if the moving speed is 10 km / h or more and it does not follow the same route as public transportation means (train) (S15), it uses transportation means (car) other than public transportation means (train). Therefore, as shown in FIG. 6D, control information “get on the avatar car” is generated (S17). In addition, a display indicating the moving direction or a display indicating the current position such as an address can be displayed on each avatar display.

(第二実施例)
第二実施例として音声認識部4からの検出情報に基づく制御情報生成の一例を図7のフローチャートを参照して説明する。制御情報生成部16は、音声認識部4から送られてきた検出情報に基づき図7に示すような制御情報を生成する。プログラム実行部11は、この制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図8に示す。
(Second embodiment)
As a second embodiment, an example of control information generation based on detection information from the voice recognition unit 4 will be described with reference to a flowchart of FIG. The control information generation unit 16 generates control information as shown in FIG. 7 based on the detection information sent from the voice recognition unit 4. The program execution unit 11 controls the shape or behavior of the avatar based on this control information. An example of the shape or behavior of this avatar is shown in FIG.

なお、プログラム実行部11は、他移動体通信端末20−2から送られた検出情報についても同様に処理し、当該他移動体通信端末20−2の所有者の状態を自己のディスプレイ12にアバターとして表示することができる。   In addition, the program execution part 11 processes similarly about the detection information sent from the other mobile communication terminal 20-2, and displays the state of the owner of the other mobile communication terminal 20-2 on its display 12 as an avatar. Can be displayed as

音声認識部4からの検出情報は、状態推察部14に入力され、ユーザの通話中における音圧および会話速度が推察される。その推察結果は、状態情報生成部15に入力され、制御情報生成部16が認識できる状態情報が生成される。   Detection information from the voice recognition unit 4 is input to the state inference unit 14 to infer the sound pressure and conversation speed during the user's call. The inference result is input to the state information generation unit 15, and state information that can be recognized by the control information generation unit 16 is generated.

図7に示すように、制御情報生成部16は、音声認識部4の検出情報に基づく状態情報を状態情報生成部15から取得し(S20)、ユーザの現在の状態を認識する。   As shown in FIG. 7, the control information generation unit 16 acquires state information based on the detection information of the voice recognition unit 4 from the state information generation unit 15 (S20), and recognizes the current state of the user.

制御情報生成部16は、前回の音圧および会話速度の情報を保持しており、これと今回の音圧および会話速度の情報とを比較して変化を抽出する(S21)。その結果、変化が無ければ(S22)、アバターも変化無しとする(S23)。音圧および会話速度が前回と比較して高くなっていれば(S22)、それはユーザが前回と比較して興奮状態になっていることがわかる。さらに、音圧および会話速度の変化の度合いから興奮度合いを分類し(S25)、興奮度合いが小さい場合には図8(a)に示すように“アバター興奮(小)”という制御情報を生成する(S28)。また、興奮度合いが中くらいの場合には図8(b)に示すように“アバター興奮(中)”という制御情報を生成する(S27)。また、興奮度合いが大きい場合には図8(c)に示すように“アバター興奮(大)”という制御情報を生成する(S26)。また、音圧および会話速度が前回と比較して低くなっていれば(S22)、それはユーザが前回と比較して平静状態になっていることがわかるので図8(d)に示すように“アバター平静”という制御情報を生成する(S24)。   The control information generation unit 16 holds the previous sound pressure and conversation speed information, and compares this with the current sound pressure and conversation speed information to extract changes (S21). As a result, if there is no change (S22), the avatar is also changed (S23). If the sound pressure and the conversation speed are higher than the previous time (S22), it is understood that the user is in an excited state compared to the previous time. Furthermore, the degree of excitement is classified based on the degree of change in sound pressure and conversation speed (S25), and when the degree of excitement is small, control information “avatar excitement (small)” is generated as shown in FIG. (S28). If the degree of excitement is medium, control information “Avatar excitement (medium)” is generated as shown in FIG. 8B (S27). If the degree of excitement is high, control information “Avatar excitement (large)” is generated as shown in FIG. 8C (S26). If the sound pressure and the conversation speed are lower than the previous time (S22), it is understood that the user is in a calm state compared to the previous time, so as shown in FIG. Control information "Avatar calm" is generated (S24).

(第三実施例)
第三実施例として通信検出部2、パケット通信解析部3、端末操作検出部6からの検出情報に基づく制御情報生成の一例を図9のフローチャートを参照して説明する。制御情報生成部16は、通信検出部2、パケット通信解析部3、端末操作検出部6から送られてきた検出情報に基づき図9に示すような制御情報を生成する。プログラム実行部11は、通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図10に示す。
(Third embodiment)
As a third embodiment, an example of control information generation based on detection information from the communication detector 2, the packet communication analyzer 3, and the terminal operation detector 6 will be described with reference to the flowchart of FIG. The control information generator 16 generates control information as shown in FIG. 9 based on the detection information sent from the communication detector 2, the packet communication analyzer 3, and the terminal operation detector 6. The program execution unit 11 controls the shape or behavior of the avatar based on this control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

なお、プログラム実行部11は、他移動体通信端末20−2から送られた検出情報についても同様に処理し、当該他移動体通信端末20−2の所有者の状態を自己のディスプレイ12にアバターとして表示することができる。   In addition, the program execution part 11 processes similarly about the detection information sent from the other mobile communication terminal 20-2, and displays the state of the owner of the other mobile communication terminal 20-2 on its display 12 as an avatar. Can be displayed as

通信検出部2、パケット通信解析部3、端末操作検出部6からの検出情報は、それぞれ状態推察部14に入力され、ユーザの通話状態およびパケット通信状態および端末操作状態がそれぞれ推察される。その推察結果は、状態情報生成部15に入力され、制御情報生成部16が認識できる状態情報が生成される。   Detection information from the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 is input to the state inference unit 14 to infer the user's call state, packet communication state, and terminal operation state, respectively. The inference result is input to the state information generation unit 15, and state information that can be recognized by the control information generation unit 16 is generated.

図9に示すように、制御情報生成部16は、通信検出部2、パケット通信解析部3、端末操作検出部6の検出情報に基づく状態情報を状態情報生成部15から取得し(S30)、ユーザの現在の通話状態およびパケット通信状態および端末操作状態をそれぞれ認識する(S31)。   As shown in FIG. 9, the control information generation unit 16 acquires state information based on the detection information of the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 from the state information generation unit 15 (S30). The user's current call state, packet communication state, and terminal operation state are recognized (S31).

その結果、通話およびパケット通信および端末操作が全て頻繁でなければ(S32)、図10(a)に示すように“アバター居眠り”という制御情報を生成する(S36)。また、通話中が多ければ(S33)、図10(b)に示すように“アバター電話中”という制御情報を生成する(S37)。また、パケット通信中が多く(S34)、その通信先がゲームのサイトであれば(S35)、図10(d)に示すように“アバターゲーム中”という制御情報を生成する(S39)。また、その通知先がメールであれば(S35)、図10(e)に示すように“アバターメール中”という制御情報を生成する(S40)。また、その通信先がWebブラウジングであれば(S35)、図10(f)に示すようちに“アバターWebブラウジング中”という制御情報を生成する(S41)。   As a result, if all calls, packet communications, and terminal operations are not frequent (S32), control information "Avatar doze" is generated as shown in FIG. 10A (S36). If there are many calls (S33), control information “Avatar on call” is generated as shown in FIG. 10B (S37). If there are many packet communications (S34) and the communication destination is a game site (S35), control information “Avatar game in progress” is generated as shown in FIG. 10D (S39). If the notification destination is mail (S35), control information “Avatar mail is in progress” is generated as shown in FIG. 10E (S40). If the communication destination is Web browsing (S35), control information “Avatar Web browsing is in progress” is generated as shown in FIG. 10F (S41).

(第四実施例)
第四実施例としてGPS部1、加速度センサ5からの検出情報に基づく制御情報生成の一例を図11のフローチャートを参照して説明する。制御情報生成部16は、GPS部1、加速度センサ5から送られてきた検出情報に基づき図11に示すような制御情報を生成する。プログラム実行部11は、通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図12に示す。
(Fourth embodiment)
As a fourth embodiment, an example of control information generation based on detection information from the GPS unit 1 and the acceleration sensor 5 will be described with reference to a flowchart of FIG. The control information generation unit 16 generates control information as shown in FIG. 11 based on the detection information sent from the GPS unit 1 and the acceleration sensor 5. The program execution unit 11 controls the shape or behavior of the avatar based on this control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

なお、プログラム実行部11は、他移動体通信端末20−2から送られた検出情報についても同様に処理し、当該他移動体通信端末20−2の所有者の状態を自己のディスプレイ12にアバターとして表示することができる。   In addition, the program execution part 11 processes similarly about the detection information sent from the other mobile communication terminal 20-2, and displays the state of the owner of the other mobile communication terminal 20-2 on its display 12 as an avatar. Can be displayed as

GPS部1、加速度センサ5からの検出情報は、それぞれ状態推察部14に入力され、ユーザの移動速度および加速度の状態がそれぞれ推察される。その推察結果は、状態情報生成部15に入力され、制御情報生成部16が認識できる状態情報が生成される。   Detection information from the GPS unit 1 and the acceleration sensor 5 is respectively input to the state inference unit 14 to infer the user's moving speed and acceleration state. The inference result is input to the state information generation unit 15, and state information that can be recognized by the control information generation unit 16 is generated.

図11に示すように、制御情報生成部16は、GPS部1、加速度センサ5の検出情報に基づく状態情報を状態情報生成部15から取得し(S50)、ユーザの現在の移動速度および加速度をそれぞれ認識する(S51)。   As shown in FIG. 11, the control information generation unit 16 acquires state information based on detection information of the GPS unit 1 and the acceleration sensor 5 from the state information generation unit 15 (S50), and obtains the current moving speed and acceleration of the user. Recognize each (S51).

その結果、急激な加速度の変化がなければ(S52)、“アバター変化無し”という制御情報を生成する(S55)。あるいは、急激な加速度の変化があっても(S52)、移動速度に変化がなければ(S53)、“アバター変化無し”という制御情報を生成する(S55)。   As a result, if there is no sudden acceleration change (S52), control information “no avatar change” is generated (S55). Alternatively, even if there is a sudden change in acceleration (S52), if there is no change in the moving speed (S53), control information “no avatar change” is generated (S55).

急激な加速度変化があり(S52)、移動速度が停止を示す場合には(S53)、それは、ユーザが物に衝突あるいは転倒した確率が高いと判断できる。この際に、停止直前の移動速度が大きければ大きいほど、事故の規模は大きいと推察できるので、停止直前の移動速度の“大”、“中”、“小”に応じてそれぞれ図12(c)に示すように“アバター事故(大)”、図12(b)に示すように“アバター事故(中)”、図12(a)に示すように“アバター事故(小)”という制御情報をそれぞれ生成する(S56、S57、S58)。   If there is a sudden acceleration change (S52) and the moving speed indicates a stop (S53), it can be determined that the probability that the user has collided with or fell over the object is high. At this time, it can be inferred that the larger the moving speed just before the stop, the larger the accident, so FIG. 12 (c) according to the “high”, “medium”, and “small” moving speeds just before the stop. ) Control information “Avatar accident (large)”, “avatar accident (medium)” as shown in FIG. 12B, and “avatar accident (small)” as shown in FIG. Each is generated (S56, S57, S58).

(その他の実施例)
第一〜第四実施例の他にも、充電中検出部7が充電中を検出したときには、“アバター充電中”という制御情報を生成することができる。
(Other examples)
In addition to the first to fourth embodiments, when the charging detection unit 7 detects charging, control information “charging avatar” can be generated.

本実施例は、汎用の情報処理装置にインストールすることにより、その情報処理装置に、本実施例の移動体通信端末20−1、20−2またはサーバ30が行う図4、図5、図7、図9、図11に示した各手順をそれぞれ実行させるプログラムとして実現することができる。このプログラムは、記録媒体に記録されて情報処理装置にインストールされ、あるいは通信回線を介して情報処理装置にインストールされることにより当該情報処理装置に、移動体通信端末20−1、20−2またはサーバ30が行う図4、図5、図7、図9、図11の各手順をそれぞれ実行させる機能を実現させることができる。   In the present embodiment, when installed in a general-purpose information processing apparatus, the mobile communication terminals 20-1 and 20-2 or the server 30 according to the present embodiment are installed in the information processing apparatus shown in FIGS. 9 and FIG. 11 can be realized as a program for executing each procedure. This program is recorded on a recording medium and installed in the information processing apparatus, or installed in the information processing apparatus via a communication line, whereby the mobile communication terminals 20-1, 20-2 or The function of causing the server 30 to execute the procedures of FIGS. 4, 5, 7, 9, and 11 can be realized.

ここで、汎用の情報処理装置とは、例えば、移動体通信端末20−1、20−2に搭載するマイクロ・プロセッサである。または、サーバ30に搭載するプロセッサである。   Here, the general-purpose information processing apparatus is, for example, a microprocessor installed in the mobile communication terminals 20-1 and 20-2. Alternatively, it is a processor mounted on the server 30.

携帯電話などの移動体通信端末におけるアバターを利用したサービスの普及に寄与することができる。   This can contribute to the spread of services using avatars in mobile communication terminals such as mobile phones.

本実施例の移動体通信システムの全体構成図。1 is an overall configuration diagram of a mobile communication system according to an embodiment. 本実施例の移動体通信端末のブロック構成図。The block block diagram of the mobile communication terminal of a present Example. 本実施例のサーバのブロック構成図。The block block diagram of the server of a present Example. 本実施例の検出情報配信手順を示すフローチャート。The flowchart which shows the detection information delivery procedure of a present Example. 第一実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 1st Example. 第一実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of a 1st Example. 第二実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 2nd Example. 第二実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of a 2nd Example. 第三実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 3rd Example. 第三実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of a 3rd Example. 第四実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 4th Example. 第四実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of 4th Example.

符号の説明Explanation of symbols

1 GPS部
2 通話検出部
3 パケット通信解析部
4 音声認識部
5 加速度センサ
6 端末操作検出部
7 充電中検出部
8 ユーザ情報収集部
9 ユーザリアルタイム情報データベース
10 ユーザ基本情報データベース
11 プログラム実行部
12 ディスプレイ
13 通信機能部
14 状態推察部
15 状態情報生成部
16 制御情報生成部
20−1、20−2 移動体通信端末
30 サーバ
DESCRIPTION OF SYMBOLS 1 GPS part 2 Call detection part 3 Packet communication analysis part 4 Voice recognition part 5 Acceleration sensor 6 Terminal operation detection part 7 Charge detection part 8 User information collection part 9 User real-time information database 10 User basic information database 11 Program execution part 12 Display DESCRIPTION OF SYMBOLS 13 Communication function part 14 State inference part 15 State information generation part 16 Control information generation part 20-1, 20-2 Mobile communication terminal 30 Server

Claims (8)

移動体通信端末に備わる複数の状態検出手段により検出した検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察するステップと、
この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、
この生成された制御情報に基づきアバターの形状または挙動を制御するステップと
を実行する移動体通信システムにおける状態表示方法。
Inferring the current state of the owner of the mobile communication terminal based on detection information detected by a plurality of state detection means provided in the mobile communication terminal;
Generating control information for controlling the shape or behavior of the avatar based on the inferred state of the owner;
A state display method in a mobile communication system that executes a step of controlling the shape or behavior of an avatar based on the generated control information.
前記検出情報を共有する他移動体通信端末の情報があらかじめ定められ、
前記検出情報を直接あるいはサーバを介して当該他移動体通信端末に配信するステップを実行する
請求項1記載の状態表示方法。
Information of other mobile communication terminals that share the detection information is predetermined,
The state display method according to claim 1, wherein the step of delivering the detection information to the other mobile communication terminal directly or via a server is executed.
複数の状態検出手段と、
この状態検出手段からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する手段と、
この推察する手段により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する手段と、
この生成する手段により生成された制御情報に基づきアバターの形状または挙動を制御する手段と
を備えた移動体通信端末。
A plurality of state detection means;
Means for inferring the current state of the owner of the mobile communication terminal based on detection information from the state detection means;
Means for generating control information for controlling the shape or behavior of the avatar based on the state of the owner inferred by the means for inferring;
A mobile communication terminal comprising: means for controlling the shape or behavior of the avatar based on the control information generated by the generating means.
前記検出情報を共有する他移動体通信端末の情報を保持する手段を備え、
この保持する手段に保持された前記他移動通信端末の情報を参照し、前記検出情報を直接あるいはサーバを介して当該他移動体通信端末に配信する手段を備えた
請求項3記載の移動体通信端末。
Means for holding information of other mobile communication terminals sharing the detection information;
The mobile communication according to claim 3, further comprising means for referring to the information of the other mobile communication terminal held in the holding means and distributing the detection information to the other mobile communication terminal directly or via a server. Terminal.
請求項3または4記載の移動体通信端末と、サーバとを備え、
このサーバには、前記検出情報を共有する他移動体通信端末の情報を保持する手段を備え、
前記移動体通信端末は、前記検出情報を前記サーバに転送する手段を備え、
前記サーバは、前記保持する手段に保持された前記他移動通信端末の情報を参照し、前記検出情報を当該他移動体通信端末に配信する手段を備えた
移動体通信システム。
A mobile communication terminal according to claim 3 or 4, and a server,
The server includes means for holding information of other mobile communication terminals that share the detection information,
The mobile communication terminal comprises means for transferring the detection information to the server,
The server includes a means for referring to information of the other mobile communication terminal held in the holding means and distributing the detection information to the other mobile communication terminal.
情報処理装置にインストールすることにより、その情報処理装置に、
複数の状態検出機能と、
この状態検出機能からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する機能と、
この推察する機能により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する機能と、
この生成する機能により生成された制御情報に基づきアバターの形状または挙動を制御する機能と
を備えた移動体通信端末に相応する機能を実現させるプログラム。
By installing on an information processing device,
Multiple status detection functions,
A function of inferring the current state of the owner of the mobile communication terminal based on the detection information from the state detection function;
A function of generating control information for controlling the shape or behavior of the avatar based on the state of the owner inferred by the inferring function;
The program which implement | achieves the function corresponding to the mobile communication terminal provided with the function which controls the shape or behavior of an avatar based on the control information produced | generated by this produced | generated function.
前記検出情報を共有する他移動体通信端末の情報を保持する機能を実現させ、
この保持する機能に保持された前記他移動通信端末の情報を参照し、前記検出情報を直接あるいはサーバを介して当該他移動体通信端末に配信する機能を実現させる
請求項6記載のプログラム。
Realizing a function of holding information of other mobile communication terminals sharing the detection information,
The program according to claim 6, wherein the information of the other mobile communication terminal held in the held function is referred to and a function of distributing the detection information to the other mobile communication terminal directly or via a server is realized.
請求項6または7記載のプログラムが記録さたれ前記情報処理装置読み取り可能な記録媒体。   A recording medium in which the program according to claim 6 or 7 is recorded and is readable by the information processing apparatus.
JP2004172887A 2004-06-10 2004-06-10 Status display method, mobile communication terminal and system Expired - Fee Related JP4288317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004172887A JP4288317B2 (en) 2004-06-10 2004-06-10 Status display method, mobile communication terminal and system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004172887A JP4288317B2 (en) 2004-06-10 2004-06-10 Status display method, mobile communication terminal and system

Publications (2)

Publication Number Publication Date
JP2005354392A true JP2005354392A (en) 2005-12-22
JP4288317B2 JP4288317B2 (en) 2009-07-01

Family

ID=35588463

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004172887A Expired - Fee Related JP4288317B2 (en) 2004-06-10 2004-06-10 Status display method, mobile communication terminal and system

Country Status (1)

Country Link
JP (1) JP4288317B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010015216A (en) * 2008-07-01 2010-01-21 Yahoo Japan Corp Item selling device, item selling method, and program
WO2014080678A1 (en) * 2012-11-22 2014-05-30 ソニー株式会社 Information processing device, system, information processing method and program
JP6043893B2 (en) * 2014-12-24 2016-12-14 ザワン ユニコム プライベート リミテッド カンパニー Message transmitting apparatus, message transmitting method, and recording medium

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010015216A (en) * 2008-07-01 2010-01-21 Yahoo Japan Corp Item selling device, item selling method, and program
WO2014080678A1 (en) * 2012-11-22 2014-05-30 ソニー株式会社 Information processing device, system, information processing method and program
CN104737209A (en) * 2012-11-22 2015-06-24 索尼公司 Information processing device, system, information processing method and program
JPWO2014080678A1 (en) * 2012-11-22 2017-01-05 ソニー株式会社 Information processing apparatus, system, information processing method, and program
US10037342B2 (en) 2012-11-22 2018-07-31 Sony Corporation Information processing device, system, information processing method, and program
US11080310B2 (en) 2012-11-22 2021-08-03 Sony Corporation Information processing device, system, information processing method, and program
JP6043893B2 (en) * 2014-12-24 2016-12-14 ザワン ユニコム プライベート リミテッド カンパニー Message transmitting apparatus, message transmitting method, and recording medium
JPWO2016104267A1 (en) * 2014-12-24 2017-04-27 ザワン ユニコム プライベート リミテッド カンパニー Message transmitting apparatus, message transmitting method, and recording medium
US10601741B2 (en) 2014-12-24 2020-03-24 Theone Unicom Pte. Ltd. Message transmission device and message transmission method

Also Published As

Publication number Publication date
JP4288317B2 (en) 2009-07-01

Similar Documents

Publication Publication Date Title
CN106126178B (en) Monitor speech input automatically based on context
EP2698016B1 (en) Adaptive notifications
CN104065837B (en) The method and apparatus of status information are provided
US9060246B1 (en) Communication device
EP1388246B1 (en) Context sensitive web services
CN105556939B (en) Carry out the call forwarding between initiating equipment using physical gesture
US8213588B2 (en) Communication terminal, communication system, server apparatus, and communication connecting method
US20020188589A1 (en) Method and business process to maintain privacy in distributed recommendation systems
CN103295129B (en) The method that circumstantial evidence formula fingerprint pays is realized on mobile phone
CN104767860B (en) Income prompting method, device and terminal
WO2003054654A2 (en) Location-based novelty index value and recommendation system and method
WO2022247540A1 (en) Device control method and apparatus, and computer device and storage medium
CN106062760A (en) Incentive-based app execution
CN113115114A (en) Interaction method, device, equipment and storage medium
CN111343342A (en) Information notification method and device and computer equipment
US8285317B2 (en) Proactive application communications
CN109639444A (en) Message treatment method, device, electronic equipment and storage medium
CN105959320A (en) Interaction method and system based on robot
JP2014239407A (en) Call management system, call management method, and call management program
CN108494851B (en) Application program recommended method, device and server
CN106030603A (en) Personal daemon interaction through escalating disclosure
JP4288317B2 (en) Status display method, mobile communication terminal and system
CN109729582A (en) Information interacting method, device and computer readable storage medium
JP4131717B2 (en) Status display method, mobile communication system, and gateway
JP4198643B2 (en) Status display method, mobile communication system, and server

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081127

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090120

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090122

R150 Certificate of patent (=grant) or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120410

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130410

Year of fee payment: 4

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140410

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees