JP4198643B2 - Status display method, mobile communication system, and server - Google Patents

Status display method, mobile communication system, and server Download PDF

Info

Publication number
JP4198643B2
JP4198643B2 JP2004172875A JP2004172875A JP4198643B2 JP 4198643 B2 JP4198643 B2 JP 4198643B2 JP 2004172875 A JP2004172875 A JP 2004172875A JP 2004172875 A JP2004172875 A JP 2004172875A JP 4198643 B2 JP4198643 B2 JP 4198643B2
Authority
JP
Japan
Prior art keywords
information
mobile communication
control information
state
avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004172875A
Other languages
Japanese (ja)
Other versions
JP2005354389A (en
Inventor
大作 島▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004172875A priority Critical patent/JP4198643B2/en
Publication of JP2005354389A publication Critical patent/JP2005354389A/en
Application granted granted Critical
Publication of JP4198643B2 publication Critical patent/JP4198643B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Mobile Radio Communication Systems (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、携帯電話などの移動体通信端末を利用したコミュニケーションサービスに利用する。特に、アバターの制御技術に関する。   The present invention is used for a communication service using a mobile communication terminal such as a mobile phone. In particular, it relates to avatar control technology.

従来、ユーザが個人の専用Webページに自分のアバターを登録し、このWebページを自分自身および他人が閲覧できるWebサービスが提供されている。   2. Description of the Related Art Conventionally, there has been provided a web service in which a user registers his / her avatar on a personal dedicated web page and the web page can be browsed by himself and others.

また、ユーザは自らのアバターの服装や髪形などを変更することが可能である。また、この個人の専用ページは、PC端末からだけでなく、携帯電話端末からも閲覧または編集が可能であり、アバターを通じたコミュニケーションサービスが提供されている。   In addition, the user can change his / her avatar's clothes and hairstyle. In addition, this personal dedicated page can be viewed or edited not only from a PC terminal but also from a mobile phone terminal, and a communication service through an avatar is provided.

このようなサービスによって提供されるのは、ユーザの思い通りのアバターを作成することによる満足感や、これを他人に披露することによる優越感、あるいは、同様なアバターを有するユーザ同士のコミュニケーションなどである。   Such services provide satisfaction by creating the user's desired avatar, superiority by showing it to others, or communication between users with similar avatars, etc. .

また、別のアプローチとして、携帯TV電話でもアバターは利用されている。従来の携帯TV電話では、自らの顔や部屋の状態などが通信相手に見えてしまうため、これを望まないユーザが存在した。このため、相手の携帯TV端末に、自分の顔ではなく、自分が設定したアバターを投影するサービスが提案されている。   As another approach, avatars are also used in mobile TV phones. In a conventional mobile TV phone, there are users who do not want this because their face, the state of the room, etc. can be seen by the communication partner. For this reason, a service has been proposed in which an avatar set by the user is projected on the other party's mobile TV terminal instead of his / her face.

“カフェスタとは”、[online]、Powerdcom.inc、[2004年5月12日検索]、インターネット<URL:http://www.cafesta.com/main_off.jsp>“What is Cafesta”, [online], Powerdcom.inc, [Search May 12, 2004], Internet <URL: http: //www.cafesta.com/main_off.jsp> “Yahoo!アバター”、[online]、Yahoo JapanCorporation、[2004年5月12日検索]、インターネット<URL:http://avatar.yahoo.co.jp/>“Yahoo! Avatar”, [online], Yahoo Japan Corporation, [Search May 12, 2004], Internet <URL: http://avatar.yahoo.co.jp/> “キャラ電”、[online]、NTT DoCoMo.Inc、[2004年5月12日検索]、インターネット<URL:http://foma.nttdocomo.co.jp/tv/list/chara/tv_chara.html>“Chara-den”, [online], NTT DoCoMo.Inc, [Search May 12, 2004], Internet <URL: http: //foma.nttdocomo.co.jp/tv/list/chara/tv_chara.html> “TeamFactory”、[online]、KDDIau、[2004年5月12日検索]、インターネット<URL:http://www.au.kddi.com/ezweb/au_dakara/teamfactory/index.html“TeamFactory”, [online], KDDIau, [Search May 12, 2004], Internet <URL: http://www.au.kddi.com/ezweb/au_dakara/teamfactory/index.html 渡辺 琢美、伊東 昌子、「温かいコミュニケーション「つながり感通信」の誕生」、共立出版、2003年7月Atsumi Watanabe, Masako Ito, “Birth of Warm Communication“ Connection Communication ””, Kyoritsu Shuppan, July 2003 特開2002−314963号公報JP 2002-314963 A 特開2002−314707号公報JP 2002-314707 A 特開2002−307338号公報JP 2002-307338 A

従来のアバターを用いたサービスでは、ユーザは自らのアバターを作成し、アバターの状態を変化させる必要がある。例えば、自分の状態をアバターに反映させるサービスでは、暇な状態、会議中、移動中などの自分の状態を、明示的に自分のアバターに反映させる必要があった。   In a service using a conventional avatar, the user needs to create his / her avatar and change the state of the avatar. For example, in a service for reflecting one's own state on an avatar, it is necessary to explicitly reflect one's own state such as a free state, a meeting, or moving on the one's avatar.

したがって、ユーザが自分の状態をアバターに反映させるための操作を怠った場合には、第三者には、実際のユーザの状態とは異なる状態が伝達されてしまう。一般的に、会議中、移動中などの状態は、ユーザにとって、忙しい状態であるので、自分の状態をアバターに反映させるための操作を怠る場合が多く、アバターの役割を充分に発揮させることができない。   Therefore, when the user neglects an operation for reflecting his / her state on the avatar, a state different from the actual state of the user is transmitted to the third party. In general, since the state such as a meeting or moving is a busy state for the user, there are many cases in which an operation for reflecting the user's state on the avatar is neglected, and the role of the avatar can be fully exhibited. Can not.

本発明は、このような背景に行われたものであって、自動的にユーザの状態を把握してアバターに反映させることができるサービスを提供することを目的とする。また、この際に、ユーザにおける実際の状態とアバターに反映される状態とをユーザが調整することができるサービスを提供することを目的とする。   The present invention is made in such a background, and an object of the present invention is to provide a service capable of automatically grasping a user's state and reflecting it on an avatar. Moreover, it aims at providing the service in which a user can adjust the actual state in a user, and the state reflected in an avatar in this case.

本発明は、携帯電話などの移動体通信端末から得られる情報を基に、その移動体通信端末の所有者であるユーザの状態を把握してアバターに反映させることを特徴とする。この際に、ユーザの状態をそのまま詳細にアバターに反映させると、ユーザの詳細な状態が第三者に筒抜けになってしまう。このような筒抜け状態を歓迎するユーザは少なく、多くのユーザは、むしろ、自分の状態の一部は秘匿しておきたいと希望する。   The present invention is characterized in that, based on information obtained from a mobile communication terminal such as a mobile phone, the state of a user who is the owner of the mobile communication terminal is grasped and reflected in an avatar. At this time, if the state of the user is reflected in the avatar in detail as it is, the detailed state of the user will be unobtrusive to a third party. There are few users who welcome such an unplugged state, and many users rather want to keep a part of their state secret.

そこで、本発明では、ユーザの状態を表す情報をユーザが希望する範囲で曖昧な情報に変換してアバターに反映させることを特徴とする。   Therefore, the present invention is characterized in that information representing the user's state is converted into ambiguous information within a range desired by the user and reflected on the avatar.

すなわち、本発明の第一の観点は、移動体通信端末に備わる複数の状態検出手段により検出した検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察するステップと、この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、この生成された制御情報に基づきアバターの形状または挙動を制御するステップとを実行する移動体通信システムにおける状態表示方法である。   That is, the first aspect of the present invention is inferred from the step of inferring the current state of the owner of the mobile communication terminal based on detection information detected by a plurality of state detection means provided in the mobile communication terminal. In a mobile communication system that executes a step of generating control information for controlling the shape or behavior of an avatar based on the state of the owner and a step of controlling the shape or behavior of an avatar based on the generated control information It is a status display method.

ここで、本発明の特徴とするところは、同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、前記制御情報を生成するステップの実行に先立って、この制御パターンのいずれかを選択するステップと、この選択結果に基づき前記制御情報を生成するステップとを実行するところにある(請求項1)。   Here, a feature of the present invention is that a plurality of control patterns of the shape or behavior of the avatar corresponding to the same state are provided, and prior to execution of the step of generating the control information, The step of selecting one and the step of generating the control information based on the selection result are performed (claim 1).

このように、本発明では、同一の状態に対応するアバターの形状または挙動の制御パターンは単一ではなく、複数設けられている。例えば、前記所有者の位置を知らせる場合についてみると(1)詳細な住所を表示するパターン、(2)町名を表示するパターン、(3)都道府県名を表示するパターンなどのように、複数のパターンを用意しておき、前記所有者のポリシによって、これらのパターンを選択することができる。いったん設定が完了すれば、その後は、自動的にアバターの制御が行われるため、従来のように、状態が変化する度にアバターの設定を変更する必要はなく、利便性を向上させることができる。   Thus, in the present invention, the control pattern of the shape or behavior of the avatar corresponding to the same state is not a single pattern but a plurality of patterns are provided. For example, in the case of notifying the position of the owner, (1) a pattern displaying a detailed address, (2) a pattern displaying a town name, (3) a pattern displaying a prefecture name, etc. Patterns are prepared, and these patterns can be selected according to the policy of the owner. Once the setting is completed, the avatar is automatically controlled after that, so it is not necessary to change the avatar setting every time the state changes, and the convenience can be improved. .

前記制御情報を共有する他移動体通信端末の情報があらかじめ定められ、前記制御情報を当該他移動体通信端末に配信するステップを実行することができる(請求項2)。これにより、第三者に自己の状態をアバターによって伝達することができる。   Information on other mobile communication terminals sharing the control information is predetermined, and the step of distributing the control information to the other mobile communication terminals can be executed. Thereby, a self-state can be transmitted to a third party by an avatar.

本発明の第二の観点は、複数の状態検出手段を備えた移動体通信端末と、この状態検出手段からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する手段と、この推察する手段により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する手段とを備えたサーバとを備え、前記移動体通信端末は、前記制御情報に基づきアバターの形状または挙動を制御する手段を備えた移動体通信システムである。   The second aspect of the present invention is a mobile communication terminal comprising a plurality of state detection means, means for inferring the current state of the owner of the mobile communication terminal based on detection information from the state detection means, And a server having means for generating control information for controlling the shape or behavior of the avatar based on the state of the owner inferred by the means for inferring, and the mobile communication terminal includes the control information in the control information. It is a mobile communication system provided with a means for controlling the shape or behavior of an avatar based on it.

ここで、本発明の特徴とするところは、同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、前記制御情報を生成する手段は、前記制御情報の生成に先立って、この制御パターンのいずれかを選択する情報を前記移動体通信端末から受け取って保持する手段と、この選択する情報に基づき前記制御情報を生成する手段とを備え、前記移動体通信端末は、前記サーバに前記選択する情報を送信する手段を備えたところにある(請求項3)。   Here, a feature of the present invention is that a plurality of control patterns of the shape or behavior of the avatar corresponding to the same state are provided, and the means for generating the control information is prior to the generation of the control information. Receiving from the mobile communication terminal information for selecting any one of the control patterns, and means for generating the control information based on the selected information, the mobile communication terminal, Means for transmitting the information to be selected to a server is provided.

前記サーバは、前記制御情報を共有する他移動体通信端末の情報を保持する手段と、この保持する手段に保持された前記他移動通信端末の情報を参照し、前記制御情報を当該他移動体通信端末に配信する手段とを備えることができる(請求項4)。   The server refers to the information of the other mobile communication terminal that holds the information of the other mobile communication terminal that shares the control information, and the information of the other mobile communication terminal held by the means of holding, and uses the control information as the other mobile body And a means for delivering to the communication terminal.

本発明の第三の観点は、複数の状態検出手段を備えた移動体通信端末と、この状態検出手段からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する手段と、この推察する手段により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する手段とを備えたサーバとを備え、前記移動体通信端末は、前記制御情報に基づきアバターの形状または挙動を制御する手段を備えた移動体通信システムに適用される前記サーバである。   A third aspect of the present invention is a mobile communication terminal provided with a plurality of state detection means, means for inferring the current state of the owner of the mobile communication terminal based on detection information from the state detection means, And a server having means for generating control information for controlling the shape or behavior of the avatar based on the state of the owner inferred by the means for inferring, and the mobile communication terminal includes the control information in the control information. It is the said server applied to the mobile communication system provided with the means which controls the shape or behavior of an avatar based.

ここで、本発明の特徴とするところは、同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、前記制御情報を生成する手段は、前記制御情報の生成に先立って、この制御パターンのいずれかを選択する情報を前記移動体通信端末から受け取って保持する手段と、この選択する情報に基づき前記制御情報を生成する手段とを備えたところにある(請求項5)。   Here, a feature of the present invention is that a plurality of control patterns of the shape or behavior of the avatar corresponding to the same state are provided, and the means for generating the control information is prior to the generation of the control information. And means for receiving and holding information for selecting any one of the control patterns from the mobile communication terminal, and means for generating the control information based on the selected information (Claim 5). .

前記制御情報を共有する他移動体通信端末の情報を保持する手段と、この保持する手段に保持された前記他移動通信端末の情報を参照し、前記制御情報を当該他移動体通信端末に配信する手段とを備えることができる(請求項6)。   Means for holding information of another mobile communication terminal sharing the control information, and information of the other mobile communication terminal held by the means for holding, and distributing the control information to the other mobile communication terminal Means for carrying out the invention (claim 6).

本発明では、移動体通信端末の検出手段によって、当該移動体通信端末の所有者の状態を把握し、これを第三者の移動体通信端末上のアバターに反映させることにより、前記所有者は意識することなく、自らの状態を段三者に伝えることができ、新しいコミュニケーションの形を形成することができる。   In the present invention, the owner of the mobile communication terminal is grasped by the detecting means of the mobile communication terminal, and this is reflected in the avatar on the third party mobile communication terminal, so that the owner Without being conscious of it, you can communicate your status to the three parties and form a new form of communication.

この際に、前記所有者の詳細な状態を表す情報をそのままアバターに反映させることなく、前記所有者が希望する範囲で曖昧な情報に変換してアバターに反映させることができるため、ユーザの希望に沿ったアバターの運用を行うことができる。   At this time, since the information indicating the detailed state of the owner is not reflected in the avatar as it is, it can be converted into ambiguous information within the range desired by the owner and reflected in the avatar. Avatar can be operated along

本発明実施例の移動体通信システムを図1ないし図3を参照して説明する。図1は本実施例の移動体通信システムの全体構成図である。図2は移動体通信端末のブロック構成図である。図3はサーバのブロック構成図である。これらのブロック構成図は、本実施例の説明に必要な機能ブロック以外の図示は省略した。   A mobile communication system according to an embodiment of the present invention will be described with reference to FIGS. FIG. 1 is an overall configuration diagram of a mobile communication system according to the present embodiment. FIG. 2 is a block diagram of the mobile communication terminal. FIG. 3 is a block diagram of the server. In these block configuration diagrams, illustrations other than the functional blocks necessary for the description of the present embodiment are omitted.

本実施例の移動体通信システムにおける状態表示方法を図1〜図3を参照して説明する。移動体通信端末20−1は、自己に備わる複数の状態検出手段であるGPS部1、通話検出部2、パケット通信解析部3、音声認識部4、加速度センサ5、端末操作検出部6、充電中検出部7の検出情報に基づき当該移動体通信端末20−1の所有者の現在の状態を推察するステップと、この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、この生成された制御情報に基づきアバターの形状または挙動を制御するステップとを実行する移動体通信システムにおける状態表示方法である。   A state display method in the mobile communication system of the present embodiment will be described with reference to FIGS. The mobile communication terminal 20-1 includes a GPS unit 1, a call detection unit 2, a packet communication analysis unit 3, a voice recognition unit 4, an acceleration sensor 5, a terminal operation detection unit 6, a charge, which are a plurality of state detection units provided in the mobile communication terminal 20-1. The step of inferring the current state of the owner of the mobile communication terminal 20-1 based on the detection information of the middle detection unit 7, and the control for controlling the shape or behavior of the avatar based on the inferred state of the owner A state display method in a mobile communication system that executes a step of generating information and a step of controlling the shape or behavior of an avatar based on the generated control information.

ここで、本実施例の特徴とするところは、同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、前記制御情報を生成するステップの実行に先立って、この制御パターンのいずれかを選択するステップと、この選択結果に基づき前記制御情報を生成するステップとを実行するところにある(請求項1)。   Here, a feature of the present embodiment is that a plurality of control patterns of the shape or behavior of the avatar corresponding to the same state are provided, and the control pattern is generated prior to executing the step of generating the control information. And selecting the control information based on the selection result. (Claim 1)

前記制御情報を共有する他移動体通信端末20−2の情報があらかじめ定められ、前記制御情報を当該他移動体通信端末20−2に配信するステップを実行する(請求項2)。   Information on the other mobile communication terminal 20-2 sharing the control information is determined in advance, and the step of distributing the control information to the other mobile communication terminal 20-2 is executed (Claim 2).

本発明の移動体通信システムは、図2および図3に示すように、複数の状態検出手段としてのGPS部1、通話検出部2、パケット通信解析部3、音声認識部4、加速度センサ5、端末操作検出部6、充電中検出部7を備えた移動体通信端末20−1を備え、ユーザリアルタイム情報データベース9には、複数の状態検出手段からの各種情報をユーザ情報収集部8がとりまとめた検出情報が格納される。また、通信機能部13は、この検出情報をサーバ30に送信する。サーバ30は、この検出情報に基づき当該移動体通信端末20−1の所有者の現在の状態を推察する状態推察部31と、この状態推察部31により推察された前記所有者の状態を表す状態情報を生成する状態情報生成部32と、この状態情報生成部32により生成された前記状態情報に基づきアバターの形状または挙動を制御する制御情報を生成する制御情報生成部33とを備える。さらに、移動体通信端末20−1および20−2は、前記制御情報およびユーザ基本情報データベース10に格納されているユーザ基本情報に基づきアバターの形状または挙動を制御してディスプレイ12に表示するプログラム実行部11を備える。ユーザ基本情報には、例えば、ユーザID、ユーザを認証する情報(パスワード、指紋情報など)、ユーザが用いるアバターの種類などが含まれる。   As shown in FIGS. 2 and 3, the mobile communication system of the present invention includes a GPS unit 1, a call detection unit 2, a packet communication analysis unit 3, a voice recognition unit 4, an acceleration sensor 5, The mobile communication terminal 20-1 including the terminal operation detection unit 6 and the charging detection unit 7 is provided. In the user real-time information database 9, the user information collection unit 8 collects various information from a plurality of state detection means. Detection information is stored. Further, the communication function unit 13 transmits this detection information to the server 30. The server 30 is a state inference unit 31 that infers the current state of the owner of the mobile communication terminal 20-1 based on the detection information, and a state that represents the state of the owner inferred by the state inference unit 31. A state information generation unit 32 that generates information, and a control information generation unit 33 that generates control information for controlling the shape or behavior of the avatar based on the state information generated by the state information generation unit 32 are provided. Further, the mobile communication terminals 20-1 and 20-2 execute a program for controlling the shape or behavior of the avatar based on the control information and the user basic information stored in the user basic information database 10 and displaying it on the display 12. The unit 11 is provided. The user basic information includes, for example, a user ID, information for authenticating the user (password, fingerprint information, etc.), the type of avatar used by the user, and the like.

ここで、本実施例の特徴とするところは、同一の前記状態情報に基づく前記アバターの形状または挙動の制御パターンが複数設けられ、これらの制御パターンと前記状態情報との対応関係は、抽象化データベース35に格納され、制御情報生成部33は、前記制御情報の生成に先立って、この制御パターンのいずれかを選択する情報を移動体通信端末20−1から受け取って保持する選択情報保持部34と、この選択する情報に基づき前記制御情報を生成する手段とを備え、移動体通信端末20−1は、サーバ30に前記選択する情報を通信機能部13により送信する選択情報送信部14を備えたところにある(請求項3、5)。   Here, the feature of this embodiment is that a plurality of control patterns for the shape or behavior of the avatar based on the same state information are provided, and the correspondence between these control patterns and the state information is abstracted. The control information generator 33, which is stored in the database 35, receives information for selecting any one of the control patterns from the mobile communication terminal 20-1 and holds it prior to the generation of the control information. And a means for generating the control information based on the information to be selected, and the mobile communication terminal 20-1 includes a selection information transmission unit 14 for transmitting the information to be selected to the server 30 by the communication function unit 13. (Claims 3 and 5).

サーバ30は、前記制御情報を共有する他移動体通信端末20−2の情報を保持する手段と、この保持する手段に保持された他移動通信端末20−2の情報を参照し、前記制御情報を当該他移動体通信端末20−2に配信する手段とを備える(請求項4、6)。この保持する手段および配信する手段は、図3には図示しないが、例えば、ユーザ管理データベースといったものを備えて実現することができる。   The server 30 refers to the means for holding the information of the other mobile communication terminal 20-2 sharing the control information and the information of the other mobile communication terminal 20-2 held by the means for holding the control information. Is distributed to the other mobile communication terminal 20-2 (claims 4 and 6). Although not shown in FIG. 3, the means for holding and the means for distributing can be realized by providing a user management database, for example.

これにより、移動体通信端末20−1の所有者の状態を移動体通信端末20−2の所有者にアバターを利用して伝達することができる。また、同様に、移動体通信端末20−2の所有者の状態を移動体通信端末20−1の所有者にアバターを利用して伝達することができる。本実施例では、2つの移動体通信端末20−1および20−2を例示したが、3つ以上の移動体通信端末相互間においても同様に、一つの移動体通信端末の所有者の状態をあらかじめ定められた他の移動体通信端末の所有者にアバターを利用して伝達することができる。   Thereby, the state of the owner of the mobile communication terminal 20-1 can be transmitted to the owner of the mobile communication terminal 20-2 using the avatar. Similarly, the state of the owner of the mobile communication terminal 20-2 can be transmitted to the owner of the mobile communication terminal 20-1 using an avatar. In the present embodiment, the two mobile communication terminals 20-1 and 20-2 are exemplified, but the state of the owner of one mobile communication terminal is similarly changed between three or more mobile communication terminals. An avatar can be used for transmission to the owner of another predetermined mobile communication terminal.

以下では、本実施例をさらに詳細に説明する。   Hereinafter, this embodiment will be described in more detail.

本実施例で提案するサービスは、移動体通信端末20−1から得られる、その端末の所有者であるユーザの行動を、サーバ30へと送信し、サーバ30において、詳細な情報から抽象化された情報へと変換した後、この抽象化情報を任意の移動体通信端末20−2へと送信するものである。   The service proposed in the present embodiment is transmitted from the mobile communication terminal 20-1 to the server 30 and the action of the user who is the owner of the terminal is abstracted from detailed information in the server 30. This abstracted information is transmitted to an arbitrary mobile communication terminal 20-2 after being converted into information.

本実施例のサーバ30が有する機能の大きな特徴は、移動体通信端末20−1から送信された詳細なリアルタイムデータを、サーバ30において曖昧なデータへと変換する機能を制御情報生成部33に有する点である。   A major feature of the function of the server 30 of this embodiment is that the control information generating unit 33 has a function of converting detailed real-time data transmitted from the mobile communication terminal 20-1 into ambiguous data in the server 30. Is a point.

ユーザの移動体通信端末20−1から取得される情報について述べる。ユーザの移動体通信端末20−1から取得される情報は、ユーザの現在の行動がわかるような情報である。   Information acquired from the user's mobile communication terminal 20-1 will be described. The information acquired from the user's mobile communication terminal 20-1 is information that allows the user's current behavior to be understood.

一例として、GPS部1で取得される情報としては、ユーザの現在位置や移動速度などが挙げられる。通話検出部2から取得される情報としては、現在の通話の有無または通話相手などが挙げられる。パケット通信解析部3から得られる情報は、現在のパケット通信の有無またはメール送受信中かブラウザによるWebブラウジング中かの識別または接続サイトの特定など、パケットを解析することで得られる情報である。音声認識部4から取得可能な情報は、ユーザの会話の速度や音圧などから想定されるユーザの感情などである。また、加速度センサ5から取得可能な情報は、ユーザの加速度である。すなわち、ユーザが物に衝突したり転倒した場合には、急激に加速度が変化するのでこのような状態を検出することができる。また、端末操作検出部6で取得可能な情報は、ユーザのキー操作である。これらの情報の他に、充電中検出部7は、移動体通信端末20−1の情報として、充電中か否か、などの情報を得ることができる。   As an example, examples of information acquired by the GPS unit 1 include a user's current position and moving speed. Information acquired from the call detection unit 2 includes the presence / absence of a current call or a call partner. The information obtained from the packet communication analysis unit 3 is information obtained by analyzing a packet such as the presence / absence of current packet communication, identification of whether mail transmission / reception or web browsing is being performed by a browser, or identification of a connection site. The information that can be acquired from the voice recognition unit 4 is the user's emotions assumed from the conversation speed, sound pressure, etc. of the user. Information that can be acquired from the acceleration sensor 5 is the acceleration of the user. That is, when the user collides with an object or falls, the acceleration changes suddenly, so that such a state can be detected. Information that can be acquired by the terminal operation detection unit 6 is a user's key operation. In addition to these pieces of information, the charging detector 7 can obtain information such as whether charging is in progress as information of the mobile communication terminal 20-1.

以上のような詳細なデータをそのまま相手の移動体通信端末20−2に転送すると、ユーザの現在位置やキー操作など詳細なデータが相手に筒抜けになってしまう。本サービスは、相手の状態がわかることが特徴ではあるが、一般的に、ユーザは、詳細な自分の情報が第三者に筒抜けになる状態を嫌うと思われる。   If the above detailed data is transferred as it is to the other party's mobile communication terminal 20-2, detailed data such as the user's current position and key operations will be lost to the other party. Although this service is characterized by the fact that the other party's status is known, it is generally considered that the user dislikes a situation in which his / her detailed information is unclear to a third party.

以上の理由から、サーバ30は移動体通信端末20−1から転送されてきた詳細な情報の一部もしくは全部を取得した後、制御情報生成部33によって、抽象化する。このとき、詳細なユーザの情報とこれを抽象化した曖昧なユーザ情報との対応関係は抽象化データベース35に格納されている。制御情報生成部33は、選択情報保持部34に問い合わせることで、どのような曖昧情報を生成すればよいかわかる。   For the above reasons, the server 30 obtains part or all of the detailed information transferred from the mobile communication terminal 20-1, and then abstracts it by the control information generation unit 33. At this time, the correspondence between detailed user information and ambiguous user information obtained by abstracting this is stored in the abstract database 35. The control information generation unit 33 makes an inquiry to the selection information holding unit 34 to know what kind of ambiguous information should be generated.

なお、選択情報保持部34は、あらかじめ移動体通信端末20−1のユーザからの選択情報を保持している必要がある。ユーザは自分の状態をどの程度、曖昧に変換するかというポリシを選択情報として選択情報保持部34にあらかじめ登録する。   In addition, the selection information holding | maintenance part 34 needs to hold | maintain the selection information from the user of the mobile communication terminal 20-1 beforehand. The user registers in advance in the selection information holding unit 34 a policy regarding how much his state is to be ambiguously converted as selection information.

その登録方法は、位置情報、感情の情報、移動情報、忙しさの情報など、それぞれの曖昧程度のポリシを個別に登録することができるが、それ以外にも、全体的な曖昧程度を指定し、個別の曖昧程度の設定は制御情報生成部33が判断して自動的に行うようにすることもできる。例えば、曖昧程度を“高”、“中”、“低”に分類して設定する。すなわち、曖昧程度が“高”は、“低”と比較してより曖昧であることを意味する。   The registration method can individually register policies of each ambiguity such as location information, emotion information, movement information, busyness information, etc. In addition to that, specify the overall ambiguity level. The individual ambiguity setting can be automatically determined by the control information generator 33. For example, the ambiguity is classified and set as “high”, “medium”, and “low”. That is, the degree of ambiguity “high” means that it is more ambiguous than “low”.

(第一実施例)
第一実施例としてGPS部1からの検出情報に基づく制御情報生成の一例を図4のフローチャートを参照して説明する。制御情報生成部33は、GPS部1から送られてきた検出情報に基づき図4に示すような制御情報を生成する。プログラム実行部11は、通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図5に示す。
(First Example)
As a first embodiment, an example of control information generation based on detection information from the GPS unit 1 will be described with reference to a flowchart of FIG. The control information generation unit 33 generates control information as shown in FIG. 4 based on the detection information sent from the GPS unit 1. The program execution unit 11 controls the shape or behavior of the avatar based on this control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

GPS部1からの検出情報は、状態推察部31に入力され、ユーザが移動中であるか否か、および、移動中であればその移動速度が推察される。その推察結果は、状態情報生成部32に入力され、制御情報生成部33が認識できる状態情報が生成される。   Detection information from the GPS unit 1 is input to the state inference unit 31 to infer whether or not the user is moving and the moving speed if the user is moving. The inference result is input to the state information generation unit 32, and state information that can be recognized by the control information generation unit 33 is generated.

なお、本実施例では、説明をわかりやすくするために、状態推察部31および状態情報生成部32および制御情報生成部33をそれぞれ別のブロックとして図示したが、状態推察部31および状態情報生成部32は、制御情報生成部33の内部機能であるとし、特にブロックを分けて設けなくてもよい。以降の実施例でも同様である。   In the present embodiment, the state inference unit 31, the state information generation unit 32, and the control information generation unit 33 are illustrated as separate blocks in order to make the description easy to understand. However, the state inference unit 31 and the state information generation unit 32 is an internal function of the control information generation unit 33, and it is not necessary to provide separate blocks. The same applies to the following embodiments.

図4に示すように、制御情報生成部33は、GPS部1の検出情報に基づく状態情報を状態情報生成部32から取得し(S1)、ユーザの現在の状態を認識する。移動がない場合は(S2)、アバターに変化は無い(S9)。移動がある場合は(S2)、その移動速度情報を抽出し(S3)、移動速度が4km/h以下であれば図5(a)に示すように“アバター歩く”という制御情報を生成する(S4)。また、移動速度が10km/h以下であれば図5(b)に示すように“アバター走る”という制御情報を生成する(S5)。また、移動速度が10km/h以上であり、公共移動手段(電車)と同じ経路をたどっていれば(S6)、それは公共移動手段(電車)を利用していることになるので図5(c)に示すように“アバター電車に乗る”という制御情報を生成する(S7)。また、移動速度が10km/h以上であり、公共移動手段(電車)と同じ経路をたどっていなければ(S6)、それは公共移動手段(電車)以外の移動手段(自動車)を利用していることになるので図5(d)に示すように“アバター車に乗る”という制御情報を生成する(S8)。また、各アバター表示に移動方向を示す表示あるいは住所などの現在位置を示す表示も併せて表示させることができる。   As shown in FIG. 4, the control information generation unit 33 acquires state information based on the detection information of the GPS unit 1 from the state information generation unit 32 (S1), and recognizes the current state of the user. When there is no movement (S2), there is no change in the avatar (S9). If there is movement (S2), the movement speed information is extracted (S3), and if the movement speed is 4 km / h or less, control information “walking avatar” is generated as shown in FIG. S4). If the moving speed is 10 km / h or less, control information “run avatar” is generated as shown in FIG. 5B (S5). Further, if the moving speed is 10 km / h or more and the same route as that of the public transportation means (train) is followed (S6), it means that the public transportation means (train) is used. ), Control information “get on the avatar train” is generated (S7). Also, if the moving speed is 10 km / h or more and it does not follow the same route as the public transportation means (train) (S6), it uses a transportation means (automobile) other than the public transportation means (train). Therefore, as shown in FIG. 5D, control information “get on the avatar car” is generated (S8). In addition, a display indicating the moving direction or a display indicating the current position such as an address can be displayed on each avatar display.

ここで、本実施例の特徴として、選択情報保持部34に保持されているユーザからの選択情報に従い、図4に示すフローチャートの一部を無効とすることができる。例えば、ユーザが登録した曖昧程度のポリシが“中”である場合には、図4の破線で囲んだ部分のフロー(S6、S7、S8)を無効とする。また、ステップS3における“10km/h以下”という分岐条件は“4km/hを越える”に変更される。   Here, as a feature of the present embodiment, a part of the flowchart shown in FIG. 4 can be invalidated according to the selection information from the user held in the selection information holding unit 34. For example, when the ambiguous policy registered by the user is “medium”, the flow (S6, S7, S8) in the portion surrounded by the broken line in FIG. 4 is invalidated. Further, the branch condition “less than 10 km / h” in step S3 is changed to “over 4 km / h”.

これにより、アバターによる表示としては、ユーザの移動速度(閾値4km/h)に応じて“アバター歩く”または“アバター走る”の二つだけが表示され、“アバター電車に乗る”および“アバター車に乗る”の表示は行われない。   As a result, as the display by the avatar, only two of “Avatar walk” or “Avatar run” are displayed according to the moving speed of the user (threshold value 4 km / h), and “Avatar train ride” and “Avatar car” “Ride” is not displayed.

また、ユーザが登録した曖昧程度のポリシが“高”である場合には、図4の一点鎖線で囲んだ部分のフロー(S3、S5〜S8)を無効とする。また、ステップS2のYESの分岐とステップS4とは直結される。これにより、アバターによる表示としては、ユーザの移動に伴い、移動速度とは無関係に“アバター歩く”だけが表示される。   If the ambiguous policy registered by the user is “high”, the flow (S3, S5 to S8) in the portion surrounded by the one-dot chain line in FIG. 4 is invalidated. Further, the YES branch of step S2 and step S4 are directly connected. Thereby, as the display by the avatar, only “walking avatar” is displayed regardless of the moving speed as the user moves.

また、各アバター表示に、ユーザの現在位置の情報も併せて表示させる際には、ユーザが登録した曖昧程度のポリシに応じ、ポリシ“低”であれば、詳細な住所を表示、ポリシ“中”であれば、町名を表示、ポリシ“高”であれば、都道府県名を表示することができる。   In addition, when displaying information on the current position of the user together with each avatar display, if the policy is “low”, a detailed address is displayed according to the ambiguous policy registered by the user. If "", the name of the town can be displayed, and if the policy is "High", the name of the prefecture can be displayed.

(第二実施例)
第二実施例として音声認識部4からの検出情報に基づく制御情報生成の一例を図6のフローチャートを参照して説明する。制御情報生成部33は、音声認識部4から送られてきた検出情報に基づき図6に示すような制御情報を生成する。プログラム実行部11は通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図7に示す。
(Second embodiment)
As a second embodiment, an example of control information generation based on detection information from the voice recognition unit 4 will be described with reference to the flowchart of FIG. The control information generation unit 33 generates control information as shown in FIG. 6 based on the detection information sent from the voice recognition unit 4. The program execution unit 11 controls the shape or behavior of the avatar based on the control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

音声認識部4からの検出情報は、状態推察部31に入力され、ユーザの通話中における音圧および会話速度が推察される。その推察結果は、状態情報生成部32に入力され、制御情報生成部33が認識できる状態情報が生成される。   Detection information from the voice recognition unit 4 is input to the state inference unit 31 to infer the sound pressure and conversation speed during the user's call. The inference result is input to the state information generation unit 32, and state information that can be recognized by the control information generation unit 33 is generated.

図6に示すように、制御情報生成部33は、音声認識部4の検出情報に基づく状態情報を状態情報生成部32から取得し(S10)、ユーザの現在の状態を認識する。   As shown in FIG. 6, the control information generation unit 33 acquires state information based on the detection information of the voice recognition unit 4 from the state information generation unit 32 (S10), and recognizes the current state of the user.

制御情報生成部33は、前回の音圧および会話速度の情報を保持しており、これと今回の音圧および会話速度の情報とを比較して変化を抽出する(S11)。その結果、変化が無ければ(S12)、アバターも変化無しとする(S13)。音圧および会話速度が前回と比較して高くなっていれば(S12)、それはユーザが前回と比較して興奮状態になっていることがわかる。さらに、音圧および会話速度の変化の度合いから興奮度合いを分類し(S15)、興奮度合いが小さい場合には図7(a)に示すように“アバター興奮(小)”という制御情報を生成する(S18)。また、興奮度合いが中くらいの場合には図7(b)に示すように“アバター興奮(中)”という制御情報を生成する(S17)。また、興奮度合いが大きい場合には図7(c)に示すように“アバター興奮(大)”という制御情報を生成する(S16)。また、音圧および会話速度が前回と比較して低くなっていれば(S12)、それはユーザが前回と比較して平静状態になっていることがわかるので図7(d)に示すように“アバター平静”という制御情報を生成する(S14)。   The control information generating unit 33 holds the previous sound pressure and conversation speed information, and compares this with the current sound pressure and conversation speed information to extract changes (S11). As a result, if there is no change (S12), the avatar is also unchanged (S13). If the sound pressure and the conversation speed are higher than the previous time (S12), it is understood that the user is in an excited state compared to the previous time. Further, the degree of excitement is classified from the degree of change in sound pressure and conversation speed (S15), and when the degree of excitement is small, control information “avatar excitement (small)” is generated as shown in FIG. (S18). When the degree of excitement is medium, control information “avatar excitement (medium)” is generated as shown in FIG. 7B (S17). If the degree of excitement is large, control information “Avatar excitement (large)” is generated as shown in FIG. 7C (S16). If the sound pressure and the conversation speed are lower than the previous time (S12), it is understood that the user is in a calm state compared to the previous time, so as shown in FIG. Control information "Avatar calm" is generated (S14).

ここで、本実施例の特徴として、選択情報保持部34に保持されているユーザからの選択情報に従い、図6に示すフローチャートの一部を無効とすることができる。例えば、ユーザが登録した曖昧程度のポリシが“中”である場合には、図6の破線で囲んだ部分のフロー(S16)を無効とする。これにより、アバターによる表示としては図7(c)に示す“アバター興奮(大)”の状態の表示は行われない。   Here, as a feature of the present embodiment, a part of the flowchart shown in FIG. 6 can be invalidated according to the selection information from the user held in the selection information holding unit 34. For example, when the ambiguous policy registered by the user is “medium”, the flow (S16) in the portion surrounded by the broken line in FIG. 6 is invalidated. As a result, the display of “avatar excitement (large)” shown in FIG. 7C is not performed as the display by the avatar.

また、ユーザが登録した曖昧程度のポリシが“高”である場合には、図6の一点鎖線で囲んだ部分のフロー(S16、S17)を無効とする。これにより、アバターによる表示としては、図7(a)に示す“アバター興奮(小)”または図7(d)に示す“アバター平静”だけが表示される。   Further, when the ambiguous policy registered by the user is “high”, the flow (S16, S17) in the portion surrounded by the one-dot chain line in FIG. 6 is invalidated. Thereby, as the display by the avatar, only “avatar excitement (small)” shown in FIG. 7A or “avatar calm” shown in FIG. 7D is displayed.

(第三実施例)
第三実施例として通信検出部2、パケット通信解析部3、端末操作検出部6からの検出情報に基づく制御情報生成の一例を図8のフローチャートを参照して説明する。制御情報生成部33は、通信検出部2、パケット通信解析部3、端末操作検出部6から送られてきた検出情報に基づき図8に示すような制御情報を生成する。プログラム実行部11は、通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図9に示す。
(Third embodiment)
As a third embodiment, an example of control information generation based on detection information from the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 will be described with reference to the flowchart of FIG. The control information generator 33 generates control information as shown in FIG. 8 based on the detection information sent from the communication detector 2, the packet communication analyzer 3, and the terminal operation detector 6. The program execution unit 11 controls the shape or behavior of the avatar based on this control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

通信検出部2、パケット通信解析部3、端末操作検出部6からの検出情報は、それぞれ状態推察部31に入力され、ユーザの通話状態およびパケット通信状態および端末操作状態がそれぞれ推察される。その推察結果は、状態情報生成部32に入力され、制御情報生成部33が認識できる状態情報が生成される。   Detection information from the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 is input to the state inference unit 31, and the user's call state, packet communication state, and terminal operation state are inferred. The inference result is input to the state information generation unit 32, and state information that can be recognized by the control information generation unit 33 is generated.

図8に示すように、制御情報生成部33は、通信検出部2、パケット通信解析部3、端末操作検出部6の検出情報に基づく状態情報を状態情報生成部32から取得し(S20)、ユーザの現在の通話状態およびパケット通信状態および端末操作状態をそれぞれ認識する(S21)。   As shown in FIG. 8, the control information generation unit 33 acquires state information based on the detection information of the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 from the state information generation unit 32 (S20). The user's current call state, packet communication state, and terminal operation state are recognized (S21).

その結果、通話およびパケット通信および端末操作が全て頻繁でなければ(S22)、図9(a)に示すように“アバター居眠り”という制御情報を生成する(S26)。また、通話中が多ければ(S23)、図9(b)に示すように“アバター電話中”という制御情報を生成する(S27)。また、パケット通信中が多く(S24)、その通信先がゲームのサイトであれば(S25)、図9(d)に示すように“アバターゲーム中”という制御情報を生成する(S29)。また、その通知先がメールであれば(S25)、図9(e)に示すように“アバターメール中”という制御情報を生成する(S30)。また、その通信先がWebブラウジングであれば(S25)、図9(f)に示すように“アバターWebブラウジング中”という制御情報を生成する(S31)。   As a result, if all calls, packet communications, and terminal operations are not frequent (S22), control information “Avatar doze” is generated as shown in FIG. 9A (S26). If there are many calls (S23), control information “Avatar on call” is generated as shown in FIG. 9B (S27). If there are many packet communications (S24) and the communication destination is a game site (S25), control information “Avatar game in progress” is generated as shown in FIG. 9D (S29). If the notification destination is mail (S25), control information “Avatar mail is in progress” is generated as shown in FIG. 9E (S30). If the communication destination is Web browsing (S25), control information “Avatar Web browsing is in progress” is generated as shown in FIG. 9F (S31).

ここで、本実施例の特徴として、選択情報保持部34に保持されているユーザからの選択情報に従い、図8に示すフローチャートの一部を無効とすることができる。例えば、ユーザが登録した曖昧程度のポリシが“中”である場合には、図8の破線で囲んだ部分のフロー(S29)を無効とする。これにより、アバターによる表示としては図9(d)に示す“アバターゲーム中”の状態の表示は行われない。   Here, as a feature of the present embodiment, a part of the flowchart shown in FIG. 8 can be invalidated according to the selection information from the user held in the selection information holding unit 34. For example, when the ambiguous policy registered by the user is “medium”, the flow (S29) in the portion surrounded by the broken line in FIG. 8 is invalidated. As a result, the display of “in avatar game” shown in FIG. 9D is not performed as the display by the avatar.

また、ユーザが登録した曖昧程度のポリシが“高”である場合には、図8の一点鎖線で囲んだ部分のフロー(S29、S31)を無効とする。これにより、アバターによる表示としては、図9(d)に示す“アバターゲーム中”および図9(f)に示す“アバターWebブラウジング中”の状態の表示は行われない。   Further, when the ambiguous policy registered by the user is “high”, the flow (S29, S31) in the portion surrounded by the one-dot chain line in FIG. 8 is invalidated. As a result, as the display by the avatar, the display of “in avatar game” shown in FIG. 9D and the “in avatar web browsing” state shown in FIG. 9F is not performed.

(第四実施例)
第四実施例としてGPS部1、加速度センサ5からの検出情報に基づく制御情報生成の一例を図10のフローチャートを参照して説明する。制御情報生成部33は、GPS部1、加速度センサ5から送られてきた検出情報に基づき図10に示すような制御情報を生成する。プログラム実行部11は、通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図11に示す。
(Fourth embodiment)
As a fourth embodiment, an example of control information generation based on detection information from the GPS unit 1 and the acceleration sensor 5 will be described with reference to a flowchart of FIG. The control information generation unit 33 generates control information as shown in FIG. 10 based on the detection information sent from the GPS unit 1 and the acceleration sensor 5. The program execution unit 11 controls the shape or behavior of the avatar based on this control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

GPS部1、加速度センサ5からの検出情報は、それぞれ状態推察部31に入力され、ユーザの移動速度および加速度の状態がそれぞれ推察される。その推察結果は、状態情報生成部32に入力され、制御情報生成部33が認識できる状態情報が生成される。   Detection information from the GPS unit 1 and the acceleration sensor 5 is input to the state inference unit 31 to infer the user's moving speed and acceleration state, respectively. The inference result is input to the state information generation unit 32, and state information that can be recognized by the control information generation unit 33 is generated.

図10に示すように、制御情報生成部33は、GPS部1、加速度センサ5の検出情報に基づく状態情報を状態情報生成部32から取得し(S40)、ユーザの現在の移動速度および加速度をそれぞれ認識する(S41)。   As shown in FIG. 10, the control information generation unit 33 acquires state information based on the detection information of the GPS unit 1 and the acceleration sensor 5 from the state information generation unit 32 (S40), and obtains the current moving speed and acceleration of the user. Recognize each (S41).

その結果、急激な加速度の変化がなければ(S42)、“アバター変化無し”という制御情報を生成する(S45)。あるいは、急激な加速度の変化があっても(S42)、移動速度に変化がなければ(S43)、“アバター変化無し”という制御情報を生成する(S45)。   As a result, if there is no sudden acceleration change (S42), control information “no avatar change” is generated (S45). Alternatively, even if there is a sudden change in acceleration (S42), if there is no change in moving speed (S43), control information “no avatar change” is generated (S45).

急激な加速度変化があり(S42)、移動速度が停止を示す場合には(S43)、それは、ユーザが物に衝突あるいは転倒した確率が高いと判断できる。この際に、停止直前の移動速度が大きければ大きいほど、事故の規模は大きいと推察できるので、停止直前の移動速度の“大”、“中”、“小”に応じてそれぞれ図11(c)に示すように“アバター事故(大)”、図11(b)に示すように“アバター事故(中)”、図11(a)に示すように“アバター事故(小)”という制御情報をそれぞれ生成する(S46、S47、S48)。   If there is a sudden acceleration change (S42) and the moving speed indicates a stop (S43), it can be determined that there is a high probability that the user has collided with or fell over an object. At this time, it can be inferred that the larger the moving speed immediately before the stop, the larger the accident scale. Therefore, FIG. ) Control information “Avatar accident (large)”, “avatar accident (medium)” as shown in FIG. 11B, and “avatar accident (small)” as shown in FIG. Each is generated (S46, S47, S48).

ここで、本実施例の特徴として、選択情報保持部34に保持されているユーザからの選択情報に従い、図10に示すフローチャートの一部を無効とすることができる。例えば、ユーザが登録した曖昧程度のポリシが“中”である場合には、図10の破線で囲んだ部分のフロー(S46)を無効とする。これにより、アバターによる表示としては図11(c)に示す“アバター事故(大)”の状態の表示は行われない。   Here, as a feature of the present embodiment, a part of the flowchart shown in FIG. 10 can be invalidated according to the selection information from the user held in the selection information holding unit 34. For example, when the ambiguous policy registered by the user is “medium”, the flow (S46) in the portion surrounded by the broken line in FIG. 10 is invalidated. Thereby, the display of the state of “avatar accident (large)” shown in FIG. 11C is not performed as the display by the avatar.

また、ユーザが登録した曖昧程度のポリシが“高”である場合には、図10の一点鎖線で囲んだ部分のフロー(S46、S47)を無効とする。これにより、アバターによる表示としては、図11(b)に示す“アバター事故(中)”および図11(c)に示す“アバター事故(大)”の状態の表示は行われない。   Further, when the ambiguous policy registered by the user is “high”, the flow (S46, S47) in the portion surrounded by the one-dot chain line in FIG. 10 is invalidated. As a result, the display of “avatar accident (medium)” shown in FIG. 11B and “avatar accident (large)” shown in FIG.

(その他の実施例)
第一〜第四実施例の他にも、充電中検出部7が充電中を検出したときには、“アバター充電中”という制御情報を生成することができる。
(Other examples)
In addition to the first to fourth embodiments, when the charging detection unit 7 detects charging, control information “charging avatar” can be generated.

本実施例は、汎用の情報処理装置にインストールすることにより、その情報処理装置に、本実施例の移動体通信端末20−1、20−2またはサーバ30が行う図4、図6、図8、図10に示した各手順をそれぞれ実行させるプログラムとして実現することができる。このプログラムは、記録媒体に記録されて情報処理装置にインストールされ、あるいは通信回線を介して情報処理装置にインストールされることにより当該情報処理装置に、移動体通信端末20−1、20−2またはサーバ30が行う図4、図6、図8、図10の各手順をそれぞれ実行させる機能を実現させることができる。   In the present embodiment, when installed in a general-purpose information processing apparatus, the mobile communication terminals 20-1 and 20-2 or the server 30 according to the present embodiment are installed in the information processing apparatus. , And can be realized as a program for executing each procedure shown in FIG. This program is recorded on a recording medium and installed in the information processing apparatus, or installed in the information processing apparatus via a communication line, whereby the mobile communication terminals 20-1, 20-2 or The function of causing the server 30 to execute the procedures of FIGS. 4, 6, 8, and 10 can be realized.

ここで、汎用の情報処理装置とは、例えば、移動体通信端末20−1、20−2に搭載するマイクロ・プロセッサである。または、サーバ30に搭載するプロセッサである。   Here, the general-purpose information processing apparatus is, for example, a microprocessor installed in the mobile communication terminals 20-1 and 20-2. Alternatively, it is a processor mounted on the server 30.

また、本実施例では、状態推察部31、状態情報生成部32、制御情報生成部33、選択情報保持部34、抽象化データベース35をサーバ30が有する機能ブロックとして説明した。これは、複数の移動体通信端末が1つのサーバ30を共通に利用できるので、リソースの有効利用の観点からそのように説明したが、これら全ての機能ブロックを移動体通信端末が有する構成を排除するものではない。   In the present embodiment, the state inference unit 31, the state information generation unit 32, the control information generation unit 33, the selection information holding unit 34, and the abstract database 35 have been described as functional blocks included in the server 30. This is because a plurality of mobile communication terminals can use one server 30 in common, so it has been described as such from the viewpoint of effective use of resources, but the configuration in which the mobile communication terminal has all these functional blocks is excluded. Not what you want.

携帯電話などの移動体通信端末におけるアバターを利用したサービスの普及に寄与することができる。   This can contribute to the spread of services using avatars in mobile communication terminals such as mobile phones.

本実施例の移動体通信システムの全体構成図。1 is an overall configuration diagram of a mobile communication system according to an embodiment. 本実施例の移動体通信端末のブロック構成図。The block block diagram of the mobile communication terminal of a present Example. 本実施例のサーバのブロック構成図。The block block diagram of the server of a present Example. 第一実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 1st Example. 第一実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of a 1st Example. 第二実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 2nd Example. 第二実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of a 2nd Example. 第三実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 3rd Example. 第三実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of a 3rd Example. 第四実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 4th Example. 第四実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of 4th Example.

符号の説明Explanation of symbols

1 GPS部
2 通話検出部
3 パケット通信解析部
4 音声認識部
5 加速度センサ
6 端末操作検出部
7 充電中検出部
8 ユーザ情報収集部
9 ユーザリアルタイム情報データベース
10 ユーザ基本情報データベース
11 プログラム実行部
12 ディスプレイ
13 通信機能部
14 選択情報送信部
20−1、20−2 移動体通信端末
30 サーバ
31 状態推察部
32 状態情報生成部
33 制御情報生成部
34 選択情報保持部
35 抽象化データベース
DESCRIPTION OF SYMBOLS 1 GPS part 2 Call detection part 3 Packet communication analysis part 4 Voice recognition part 5 Acceleration sensor 6 Terminal operation detection part 7 Charge detection part 8 User information collection part 9 User real-time information database 10 User basic information database 11 Program execution part 12 Display 13 communication function unit 14 selection information transmission unit 20-1, 20-2 mobile communication terminal 30 server 31 state inference unit 32 state information generation unit 33 control information generation unit 34 selection information holding unit 35 abstract database

Claims (6)

移動体通信端末に備わる複数の状態検出手段により検出した検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察するステップと、
この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、
この生成された制御情報に基づきアバターの形状または挙動を制御するステップと
を実行する移動体通信システムにおける状態表示方法であって、
同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、
前記制御情報を生成するステップの実行に先立って、この制御パターンのいずれかを選択するステップと、
この選択結果に基づき前記制御情報を生成するステップと
を実行することを特徴とする状態表示方法。
Inferring the current state of the owner of the mobile communication terminal based on detection information detected by a plurality of state detection means provided in the mobile communication terminal;
Generating control information for controlling the shape or behavior of the avatar based on the inferred state of the owner;
A state display method in a mobile communication system that executes a step of controlling the shape or behavior of an avatar based on the generated control information,
A plurality of control patterns of the shape or behavior of the avatar corresponding to the same state are provided,
Prior to execution of the step of generating the control information, selecting any of the control patterns;
And a step of generating the control information based on the selection result.
前記制御情報を共有する他移動体通信端末の情報があらかじめ定められ、
前記制御情報を当該他移動体通信端末に配信するステップを実行する
請求項1記載の状態表示方法。
Information of other mobile communication terminals that share the control information is predetermined,
The status display method according to claim 1, wherein a step of delivering the control information to the other mobile communication terminal is executed.
複数の状態検出手段を備えた移動体通信端末と、
この状態検出手段からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する手段と、
この推察する手段により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する手段と
を備えたサーバと
を備え、
前記移動体通信端末は、前記制御情報に基づきアバターの形状または挙動を制御する手段を備えた
移動体通信システムであって、
同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、
前記制御情報を生成する手段は、
前記制御情報の生成に先立って、この制御パターンのいずれかを選択する情報を前記移動体通信端末から受け取って保持する手段と、
この選択する情報に基づき前記制御情報を生成する手段と
を備え、
前記移動体通信端末は、前記サーバに前記選択する情報を送信する手段を備えた
ことを特徴とする移動体通信システム。
A mobile communication terminal comprising a plurality of state detection means;
Means for inferring the current state of the owner of the mobile communication terminal based on detection information from the state detection means;
A server comprising: means for generating control information for controlling the shape or behavior of the avatar based on the state of the owner inferred by the means for inferring;
The mobile communication terminal is a mobile communication system comprising means for controlling the shape or behavior of an avatar based on the control information,
A plurality of control patterns of the shape or behavior of the avatar corresponding to the same state are provided,
The means for generating the control information includes:
Prior to generating the control information, means for receiving and holding information for selecting any one of the control patterns from the mobile communication terminal;
Means for generating the control information based on the information to be selected,
The mobile communication system comprises means for transmitting the information to be selected to the server.
前記サーバは、
前記制御情報を共有する他移動体通信端末の情報を保持する手段と、
この保持する手段に保持された前記他移動通信端末の情報を参照し、前記制御情報を当該他移動体通信端末に配信する手段と
を備えた請求項3記載の移動体通信システム。
The server
Means for holding information of other mobile communication terminals sharing the control information;
The mobile communication system according to claim 3, further comprising: means for referring to information of the other mobile communication terminal held in the holding means and distributing the control information to the other mobile communication terminal.
複数の状態検出手段を備えた移動体通信端末と、
この状態検出手段からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する手段と、
この推察する手段により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する手段と
を備えたサーバと
を備え、
前記移動体通信端末は、前記制御情報に基づきアバターの形状または挙動を制御する手段を備えた
移動体通信システムに適用される前記サーバであって、
同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、
前記制御情報を生成する手段は、
前記制御情報の生成に先立って、この制御パターンのいずれかを選択する情報を前記移動体通信端末から受け取って保持する手段と、
この選択する情報に基づき前記制御情報を生成する手段と
を備えた
ことを特徴とするサーバ。
A mobile communication terminal comprising a plurality of state detection means;
Means for inferring the current state of the owner of the mobile communication terminal based on detection information from the state detection means;
A server comprising: means for generating control information for controlling the shape or behavior of the avatar based on the state of the owner inferred by the means for inferring;
The mobile communication terminal is the server applied to a mobile communication system having means for controlling the shape or behavior of an avatar based on the control information,
A plurality of control patterns of the shape or behavior of the avatar corresponding to the same state are provided,
The means for generating the control information includes:
Prior to generating the control information, means for receiving and holding information for selecting any one of the control patterns from the mobile communication terminal;
And a means for generating the control information based on the information to be selected.
前記制御情報を共有する他移動体通信端末の情報を保持する手段と、
この保持する手段に保持された前記他移動通信端末の情報を参照し、前記制御情報を当該他移動体通信端末に配信する手段と
を備えた請求項5記載のサーバ。
Means for holding information of other mobile communication terminals sharing the control information;
6. The server according to claim 5, comprising means for referring to the information of the other mobile communication terminal held in the holding means and distributing the control information to the other mobile communication terminal.
JP2004172875A 2004-06-10 2004-06-10 Status display method, mobile communication system, and server Expired - Fee Related JP4198643B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004172875A JP4198643B2 (en) 2004-06-10 2004-06-10 Status display method, mobile communication system, and server

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004172875A JP4198643B2 (en) 2004-06-10 2004-06-10 Status display method, mobile communication system, and server

Publications (2)

Publication Number Publication Date
JP2005354389A JP2005354389A (en) 2005-12-22
JP4198643B2 true JP4198643B2 (en) 2008-12-17

Family

ID=35588460

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004172875A Expired - Fee Related JP4198643B2 (en) 2004-06-10 2004-06-10 Status display method, mobile communication system, and server

Country Status (1)

Country Link
JP (1) JP4198643B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007052530A1 (en) * 2005-11-01 2007-05-10 Brother Kogyo Kabushiki Kaisha Situation communication system, situation communication method, situation collection terminal, and recording medium with situation collection program stored therein
KR100775561B1 (en) 2006-05-26 2007-11-16 주식회사 케이티프리텔 Method for expressing a feeling and state of caller in mobile node of communication state
KR100831325B1 (en) 2006-11-28 2008-05-22 삼성전자주식회사 Video stream system and method of user presence in network
JP6145051B2 (en) * 2014-01-22 2017-06-07 株式会社Nttドコモ Information output control system and information output control method

Also Published As

Publication number Publication date
JP2005354389A (en) 2005-12-22

Similar Documents

Publication Publication Date Title
JP4745451B2 (en) System for profiling mobile station activity in a predictive command wireless game system
KR102100976B1 (en) Digital assistant processing with stack data structure background
JP3969944B2 (en) Wireless system for interacting with virtual space
CN104486479B (en) For the system of managing context-related information, movement station and method
EP1388246B1 (en) Context sensitive web services
US6968334B2 (en) Method and business process to maintain privacy in distributed recommendation systems
US20050228882A1 (en) Apparatus, system and program for issuing presence information
US7529639B2 (en) Location-based novelty index value and recommendation system and method
US9215286B1 (en) Creating a social network based on an activity
CN103295129B (en) The method that circumstantial evidence formula fingerprint pays is realized on mobile phone
US20220323854A1 (en) Information processing system and information processing method
US8103382B2 (en) Method and system for sharing information through a mobile multimedia platform
CN109120789A (en) Message prompt method, device, terminal and storage medium
KR102363974B1 (en) User context detection in messaging service environment and interaction with messaging service based on user context
JP5305493B2 (en) Server, communication terminal, and device linkage system including them
JP4198643B2 (en) Status display method, mobile communication system, and server
KR20090104231A (en) Stadium management system
JP4131717B2 (en) Status display method, mobile communication system, and gateway
CN113941140A (en) Game resource obtaining method and equipment
JP4288317B2 (en) Status display method, mobile communication terminal and system
US20140108317A1 (en) User data annotation method, terminal device, and server
JP2001249877A (en) Community formation support method, communication system and server device
KR101520066B1 (en) System and method for situation-aware multi-modal communication
KR102212363B1 (en) Backpack Device and Service System supporting the same
CN112233292B (en) Door control using method and door control device based on acquaintance visiting

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080811

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080930

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081001

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111010

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121010

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131010

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees