JP4131717B2 - Status display method, mobile communication system, and gateway - Google Patents

Status display method, mobile communication system, and gateway Download PDF

Info

Publication number
JP4131717B2
JP4131717B2 JP2004172882A JP2004172882A JP4131717B2 JP 4131717 B2 JP4131717 B2 JP 4131717B2 JP 2004172882 A JP2004172882 A JP 2004172882A JP 2004172882 A JP2004172882 A JP 2004172882A JP 4131717 B2 JP4131717 B2 JP 4131717B2
Authority
JP
Japan
Prior art keywords
mobile communication
communication terminal
information
control information
state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004172882A
Other languages
Japanese (ja)
Other versions
JP2005354391A (en
Inventor
大作 島▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004172882A priority Critical patent/JP4131717B2/en
Publication of JP2005354391A publication Critical patent/JP2005354391A/en
Application granted granted Critical
Publication of JP4131717B2 publication Critical patent/JP4131717B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、携帯電話などの移動体通信端末を利用したコミュニケーションサービスに利用する。特に、アバターの制御技術に関する。   The present invention is used for a communication service using a mobile communication terminal such as a mobile phone. In particular, it relates to avatar control technology.

従来、ユーザが個人の専用Webページに自分のアバターを登録し、このWebページを自分自身および他人が閲覧できるWebサービスが提供されている。   2. Description of the Related Art Conventionally, there has been provided a web service in which a user registers his / her avatar on a personal dedicated web page and the web page can be browsed by himself and others.

また、ユーザは自らのアバターの服装や髪形などを変更することが可能である。また、この個人の専用ページは、PC端末からだけでなく、携帯電話端末からも閲覧または編集が可能であり、アバターを通じたコミュニケーションサービスが提供されている。   In addition, the user can change his / her avatar's clothes and hairstyle. In addition, this personal dedicated page can be viewed or edited not only from a PC terminal but also from a mobile phone terminal, and a communication service through an avatar is provided.

このようなサービスによって提供されるのは、ユーザの思い通りのアバターを作成することによる満足感や、これを他人に披露することによる優越感、あるいは、同様なアバターを有するユーザ同士のコミュニケーションなどである。   Such services provide satisfaction by creating the user's desired avatar, superiority by showing it to others, or communication between users with similar avatars, etc. .

また、別のアプローチとして、携帯TV電話でもアバターは利用されている。従来の携帯TV電話では、自らの顔や部屋の状態などが通信相手に見えてしまうため、これを望まないユーザが存在した。このため、相手の携帯TV端末に、自分の顔ではなく、自分が設定したアバターを投影するサービスが提案されている。   As another approach, avatars are also used in mobile TV phones. In a conventional mobile TV phone, there are users who do not want this because their face, the state of the room, etc. can be seen by the communication partner. For this reason, a service has been proposed in which an avatar set by the user is projected on the other party's mobile TV terminal instead of his / her face.

“カフェスタとは”、[online]、Powerdcom.inc、[2004年5月12日検索]、インターネット<URL:http://www.cafesta.com/main_off.jsp>“What is Cafesta”, [online], Powerdcom.inc, [Search May 12, 2004], Internet <URL: http: //www.cafesta.com/main_off.jsp> “Yahoo!アバター”、[online]、Yahoo JapanCorporation、[2004年5月12日検索]、インターネット<URL:http://avatar.yahoo.co.jp/>“Yahoo! Avatar”, [online], Yahoo Japan Corporation, [Search May 12, 2004], Internet <URL: http://avatar.yahoo.co.jp/> “キャラ電”、[online]、NTT DoCoMo.Inc、[2004年5月12日検索]、インターネット<URL:http://foma.nttdocomo.co.jp/tv/list/chara/tv_chara.html>“Chara-den”, [online], NTT DoCoMo.Inc, [Search May 12, 2004], Internet <URL: http: //foma.nttdocomo.co.jp/tv/list/chara/tv_chara.html> “TeamFactory”、[online]、KDDIau、[2004年5月12日検索]、インターネット<URL:http://www.au.kddi.com/ezweb/au_dakara/teamfactory/index.html“TeamFactory”, [online], KDDIau, [Search May 12, 2004], Internet <URL: http://www.au.kddi.com/ezweb/au_dakara/teamfactory/index.html 渡辺 琢美、伊東 昌子、「温かいコミュニケーション「つながり感通信」の誕生」、共立出版、2003年7月Atsumi Watanabe, Masako Ito, “Birth of Warm Communication“ Connection Communication ””, Kyoritsu Shuppan, July 2003 特開2002−314963号公報JP 2002-314963 A 特開2002−314707号公報JP 2002-314707 A 特開2002−307338号公報JP 2002-307338 A

従来のアバターを用いたサービスでは、ユーザは自らのアバターを作成し、アバターの状態を変化させる必要がある。例えば、自分の状態をアバターに反映させるサービスでは、暇な状態、会議中、移動中などの自分の状態を、明示的に自分のアバターに反映させる必要があった。   In a service using a conventional avatar, the user needs to create his / her avatar and change the state of the avatar. For example, in a service for reflecting one's own state on an avatar, it is necessary to explicitly reflect one's own state such as a free state, a meeting, or moving on the one's avatar.

したがって、ユーザが自分の状態をアバターに反映させるための操作を怠った場合には、第三者には、実際のユーザの状態とは異なる状態が伝達されてしまう。一般的に、会議中、移動中などの状態は、ユーザにとって、忙しい状態であるので、自分の状態をアバターに反映させるための操作を怠る場合が多く、アバターの役割を充分に発揮させることができない。   Therefore, when the user neglects an operation for reflecting his / her state on the avatar, a state different from the actual state of the user is transmitted to the third party. In general, since the state such as a meeting or moving is a busy state for the user, there are many cases in which an operation for reflecting the user's state on the avatar is neglected, and the role of the avatar can be fully exhibited. Can not.

本発明は、このような背景に行われたものであって、自動的にユーザの状態を把握してアバターに反映させることができ、また、この際に、ユーザにおける実際の状態とアバターに反映される状態とをユーザが調整することができるサービスを、複数の移動体通信端末相互間に提供するのみならず、非移動体通信端末も含めて提供することを目的とする。   The present invention is made in such a background, and can automatically grasp the user's state and reflect it in the avatar. In this case, the actual state and the avatar in the user are reflected. It is an object of the present invention to provide not only a service that allows a user to adjust the state to be performed among a plurality of mobile communication terminals but also a non-mobile communication terminal.

本発明は、携帯電話などの移動体通信端末から得られる情報を基に、その移動体通信端末の所有者であるユーザの状態を把握してアバターに反映させることを特徴とする。この際に、ユーザの状態をそのまま詳細にアバターに反映させると、ユーザの詳細な状態が第三者に筒抜けになってしまう。このような筒抜け状態を歓迎するユーザは少なく、多くのユーザは、むしろ、自分の状態の一部は秘匿しておきたいと希望する。   The present invention is characterized in that, based on information obtained from a mobile communication terminal such as a mobile phone, the state of a user who is the owner of the mobile communication terminal is grasped and reflected in an avatar. At this time, if the state of the user is reflected in the avatar in detail as it is, the detailed state of the user will be unobtrusive to a third party. There are few users who welcome such an unplugged state, and many users rather want to keep a part of their state secret.

そこで、本発明では、ユーザの状態を表す情報をユーザが希望する範囲で曖昧な情報に変換してアバターに反映させることもできることを特徴とする。   Therefore, the present invention is characterized in that information representing the user's state can be converted into ambiguous information within a range desired by the user and reflected on the avatar.

さらに、本発明のサービスを、複数の移動体通信端末相互間に提供するのみならず、非移動体通信端末も含めて提供することができることを特徴とする。   Furthermore, the service of the present invention can be provided not only between a plurality of mobile communication terminals but also including non-mobile communication terminals.

すなわち、本発明の第一の観点は、移動体通信端末に備わる複数の状態検出手段により検出した検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察するステップと、この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、この生成された制御情報に基づきアバターの形状または挙動を制御するステップとを実行し、前記検出情報を共有する他移動体通信端末の情報があらかじめ定められ、前記検出情報を当該他移動体通信端末に配信するステップを実行する状態表示方法である。   That is, the first aspect of the present invention is inferred from the step of inferring the current state of the owner of the mobile communication terminal based on detection information detected by a plurality of state detection means provided in the mobile communication terminal. Generating control information for controlling the shape or behavior of the avatar based on the state of the owner, and controlling the shape or behavior of the avatar based on the generated control information. This is a state display method in which information of other mobile communication terminals to be shared is determined in advance and the detection information is distributed to the other mobile communication terminals.

ここで、本発明の特徴とするところは、前記他移動体通信端末の他に、前記検出情報を共有する非移動体通信端末の情報があらかじめ定められ、前記検出情報を当該非移動体通信端末に配信するステップを実行する際には、当該非移動体通信端末から機器IDおよびユーザIDを含む認証要求を受け付けてユーザ認証を実行するゲートウェイが当該非移動体通信端末のユーザ認証に成功した後に、前記検出情報を当該非移動体通信端末に配信するステップを実行するところにある(請求項1)。   Here, the feature of the present invention is that, in addition to the other mobile communication terminal, information of a non-mobile communication terminal that shares the detection information is determined in advance, and the detection information is used as the non-mobile communication terminal. When executing the step of distributing to the non-mobile communication terminal after the gateway that receives the authentication request including the device ID and the user ID from the non-mobile communication terminal and executes the user authentication succeeds in the user authentication of the non-mobile communication terminal. The step of delivering the detection information to the non-mobile communication terminal is performed (claim 1).

これにより、自動的にユーザの状態を把握してアバターに反映させることができるので、ユーザの操作を待つこと無く、ユーザの状態をアバターに正しくに反映させることができる。また、第三者に自己の状態をアバターによって伝達することができる。このときに、同じ移動体通信端末相互間以外の非移動体通信端末においても自己の状態をアバターによって伝達することができる。   Thereby, since a user's state can be automatically grasped and reflected in an avatar, a user's state can be correctly reflected in an avatar, without waiting for a user's operation. In addition, it is possible to transmit the state of oneself to a third party by an avatar. At this time, even in non-mobile communication terminals other than those between the same mobile communication terminals, its own state can be transmitted by the avatar.

本発明の第二の観点は、複数の状態検出手段と、この状態検出手段からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する手段と、この推察する手段により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する手段と、この生成する手段により生成された制御情報に基づきアバターの形状または挙動を制御する手段とを備えた移動体通信端末と、この移動体通信端末と通信回線により接続されるサーバを備え、このサーバは、前記検出情報を共有する他移動体通信端末の情報を保持する手段と、この保持する手段に保持された前記他移動通信端末の情報を参照し、前記検出情報を当該他移動体通信端末に配信する手段とを備え、前記移動体通信端末は、前記検出情報を前記サーバに転送する手段を備えた移動体通信システムである。   The second aspect of the present invention is inferred by a plurality of state detection means, a means for inferring the current state of the owner of the mobile communication terminal based on detection information from the state detection means, and the inference means. Means for generating control information for controlling the shape or behavior of the avatar based on the state of the owner, and means for controlling the shape or behavior of the avatar based on the control information generated by the means for generating A mobile communication terminal, and a server connected to the mobile communication terminal via a communication line, the server holding information of another mobile communication terminal that shares the detection information; Means for referring to the held information of the other mobile communication terminal and distributing the detection information to the other mobile communication terminal, wherein the mobile communication terminal transmits the detection information to the service information. Is a mobile communication system comprising means for transferring the.

ここで、本発明の特徴とするところは、前記サービスは、前記移動体通信端末の他に、前記検出情報を共有する非移動体通信端末の情報を保持する手段を備え、当該非移動体通信端末は、機器IDおよびユーザIDを含む認証要求を送出する手段を備え、この認証要求を受け付けてユーザ認証を実行するゲートウェイが設けられ、前記サーバは、このゲートウェイが当該非移動体通信端末のユーザ認証に成功した後に、前記検出情報を当該非移動体通信端末に配信する手段を備えたところにある(請求項2)。   Here, the present invention is characterized in that the service includes means for holding information of a non-mobile communication terminal sharing the detection information in addition to the mobile communication terminal, and the non-mobile communication The terminal includes means for sending an authentication request including a device ID and a user ID, and a gateway for receiving the authentication request and executing user authentication is provided, and the server is a user of the non-mobile communication terminal. After the authentication is successful, there is provided means for distributing the detection information to the non-mobile communication terminal (claim 2).

本発明の第三の観点は、本発明の移動体通信システムに設けられ、前記非移動体通信端末からの機器IDおよびユーザIDを含む認証要求を受け付けてユーザ認証を実行する手段を備えたゲートウェイである(請求項3)。   A third aspect of the present invention is a gateway provided in the mobile communication system of the present invention, comprising a means for receiving an authentication request including a device ID and a user ID from the non-mobile communication terminal and executing user authentication (Claim 3).

あるいは、本発明の状態表示方法は、移動体通信端末に備わる複数の状態検出手段により検出した検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察するステップと、この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、この生成された制御情報に基づきアバターの形状または挙動を制御するステップとを実行し、同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、前記制御情報を生成するステップの実行に先立って、この制御パターンのいずれかを選択するステップと、この選択結果に基づき前記制御情報を生成するステップとを実行し、前記制御情報を共有する他移動体通信端末の情報があらかじめ定められ、前記制御情報を当該他移動体通信端末に配信するステップを実行する状態表示方法である。   Alternatively, the state display method of the present invention is inferred from the step of inferring the current state of the owner of the mobile communication terminal based on detection information detected by a plurality of state detection means provided in the mobile communication terminal. Generating control information for controlling the shape or behavior of the avatar based on the state of the owner, and controlling the shape or behavior of the avatar based on the generated control information; A plurality of corresponding control patterns of the shape or behavior of the avatar are provided, and prior to execution of the step of generating the control information, a step of selecting any one of the control patterns, and the control information based on the selection result Information of other mobile communication terminals that share the control information is determined in advance, and the control information is Which is a state display method of performing the step of delivering to the other mobile communication terminal.

ここで、本発明の特徴とするところは、前記他移動体通信端末の他に、前記制御情報を共有する非移動体通信端末の情報があらかじめ定められ、前記制御情報を当該非移動体通信端末に配信するステップを実行する際には、当該非移動体通信端末から機器IDおよびユーザIDを含む認証要求を受け付けてユーザ認証を実行するゲートウェイが当該非移動体通信端末のユーザ認証に成功した後に、前記制御情報を当該非移動体通信端末に配信するステップを実行するところにある(請求項4)。   Here, a feature of the present invention is that, in addition to the other mobile communication terminal, information of a non-mobile communication terminal that shares the control information is determined in advance, and the control information is transferred to the non-mobile communication terminal. When executing the step of distributing to the non-mobile communication terminal after the gateway that receives the authentication request including the device ID and the user ID from the non-mobile communication terminal and executes the user authentication succeeds in the user authentication of the non-mobile communication terminal. The step of delivering the control information to the non-mobile communication terminal is performed (claim 4).

このように、本発明では、同一の状態に対応するアバターの形状または挙動の制御パターンは単一ではなく、複数設けられている。例えば、前記所有者の位置を知らせる場合についてみると(1)詳細な住所を表示するパターン、(2)町名を表示するパターン、(3)都道府県名を表示するパターンなどのように、複数のパターンを用意しておき、前記所有者のポリシによって、これらのパターンを選択することができる。いったん設定が完了すれば、その後は、自動的にアバターの制御が行われるため、従来のように、状態が変化する度にアバターの設定を変更する必要はなく、利便性を向上させることができる。また、第三者に自己の状態をアバターによって伝達することができる。このときに、同じ移動体通信端末相互間以外の非移動体通信端末においても自己の状態をアバターによって伝達することができる。   Thus, in the present invention, the control pattern of the shape or behavior of the avatar corresponding to the same state is not a single pattern but a plurality of patterns are provided. For example, in the case of notifying the position of the owner, (1) a pattern displaying a detailed address, (2) a pattern displaying a town name, (3) a pattern displaying a prefecture name, etc. Patterns are prepared, and these patterns can be selected according to the policy of the owner. Once the setting is completed, the avatar is automatically controlled after that, so it is not necessary to change the avatar setting every time the state changes, and the convenience can be improved. . In addition, it is possible to transmit the state of oneself to a third party by an avatar. At this time, even in non-mobile communication terminals other than those between the same mobile communication terminals, its own state can be transmitted by the avatar.

あるいは、本発明の移動体通信システムは、複数の状態検出手段を備えた移動体通信端末と、この状態検出手段からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する手段と、この推察する手段により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する手段とを備えたサーバとを備え、前記移動体通信端末は、前記制御情報に基づきアバターの形状または挙動を制御する手段を備え、同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、前記制御情報を生成する手段は、前記制御情報の生成に先立って、この制御パターンのいずれかを選択する情報を前記移動体通信端末から受け取って保持する手段と、この選択する情報に基づき前記制御情報を生成する手段とを備え、前記移動体通信端末は、前記サーバに前記選択する情報を送信する手段を備え、前記サーバは、前記制御情報を共有する他移動体通信端末の情報を保持する手段と、この保持する手段に保持された前記他移動通信端末の情報を参照し、前記制御情報を当該他移動体通信端末に配信する手段とを備えた移動体通信システムである。   Alternatively, the mobile communication system of the present invention infers the current state of a mobile communication terminal provided with a plurality of state detection means and the owner of the mobile communication terminal based on detection information from the state detection means. Means and a server comprising means for generating control information for controlling the shape or behavior of the avatar based on the state of the owner inferred by the inferring means, and the mobile communication terminal includes the control Means for controlling the shape or behavior of the avatar based on the information, a plurality of control patterns for the shape or behavior of the avatar corresponding to the same state are provided, and the means for generating the control information is the generation of the control information Prior to this, information for selecting one of the control patterns is received from the mobile communication terminal and held, and the control is performed based on the selected information. Means for generating information, wherein the mobile communication terminal comprises means for transmitting the information to be selected to the server, and the server holds information of other mobile communication terminals sharing the control information A mobile communication system comprising: means; and means for distributing the control information to the other mobile communication terminal by referring to the information of the other mobile communication terminal held in the holding means.

ここで、本発明の特徴とするところは、前記サーバは、前記他移動体通信端末の他に、前記制御情報を共有する非移動体通信端末の情報を保持する手段を備え、当該非移動体通信端末は、機器IDおよびユーザIDを含む認証要求を送出する手段を備え、この認証要求を受け付けてユーザ認証を実行するゲートウェイが設けられ、前記サーバは、このゲートウェイが当該非移動体通信端末のユーザ認証に成功した後に、前記制御情報を当該非移動体通信端末に配信する手段を備えたところにある(請求項5)。   Here, a feature of the present invention is that, in addition to the other mobile communication terminal, the server includes means for holding information of a non-mobile communication terminal that shares the control information, and the non-mobile body The communication terminal includes means for sending an authentication request including a device ID and a user ID, and a gateway for receiving the authentication request and executing user authentication is provided. The server is configured such that the gateway is the non-mobile communication terminal. A means for delivering the control information to the non-mobile communication terminal after successful user authentication is provided.

あるいは、本発明のゲートウェイは、この移動体通信システムに設けられ、前記非移動体通信端末からの機器IDおよびユーザIDを含む認証要求を受け付けてユーザ認証を実行する手段を備える(請求項6)。   Alternatively, the gateway of the present invention is provided in the mobile communication system, and includes means for receiving an authentication request including a device ID and a user ID from the non-mobile communication terminal and executing user authentication (Claim 6). .

本発明によれば、自動的にユーザの状態を把握してアバターに反映させることができ、また、この際に、ユーザにおける実際の状態とアバターに反映される状態とをユーザが調整することができるサービスを、複数の移動体通信端末相互間に提供するのみならず、非移動体通信端末も含めて提供することができる。   According to the present invention, the user's state can be automatically grasped and reflected in the avatar, and at this time, the user can adjust the actual state of the user and the state reflected in the avatar. Services that can be provided can be provided not only among a plurality of mobile communication terminals but also including non-mobile communication terminals.

(第一実施例)
第一実施例の移動体通信システムを図1ないし図6を参照して説明する。図1は第一実施例の移動体通信システムの全体構成図である。図2は第一実施例の非移動体通信端末の動作を示すフローチャートである。図3は第一実施例のゲートウェイの動作を示すフローチャートである。図4は第一実施例の移動体通信端末のブロック構成図である。図5は第一実施例のプログラム実行部のブロック構成図である。これらのブロック構成図は、本実施例の説明に必要な機能ブロック以外の図示は省略した。図6は第一実施例の検出情報配信手順を示すフローチャートである。
(First Example)
A mobile communication system according to the first embodiment will be described with reference to FIGS. FIG. 1 is an overall configuration diagram of a mobile communication system according to a first embodiment. FIG. 2 is a flowchart showing the operation of the non-mobile communication terminal of the first embodiment. FIG. 3 is a flowchart showing the operation of the gateway of the first embodiment. FIG. 4 is a block diagram of the mobile communication terminal of the first embodiment. FIG. 5 is a block diagram of the program execution unit of the first embodiment. In these block configuration diagrams, illustrations other than the functional blocks necessary for the description of the present embodiment are omitted. FIG. 6 is a flowchart showing the detection information distribution procedure of the first embodiment.

本実施例の移動体通信システムにおける状態表示方法を図1〜図3を参照して説明する。本実施例の状態表示方法は、移動体通信端末20−1に備わる複数の状態検出手段であるGPS部1、通話検出部2、パケット通信解析部3、音声認識部4、加速度センサ5、端末操作検出部6、充電検出部7により検出した検出情報に基づき当該移動体通信端末20−1の所有者の現在の状態を推察するステップと、この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、この生成された制御情報に基づきアバターの形状または挙動を制御するステップとを実行し、前記検出情報を共有する他移動体通信端末20−2の情報があらかじめ定められ、前記検出情報を当該他移動体通信端末20−2に配信するステップを実行する状態表示方法である。   A state display method in the mobile communication system of the present embodiment will be described with reference to FIGS. The status display method of the present embodiment includes a GPS unit 1, a call detection unit 2, a packet communication analysis unit 3, a voice recognition unit 4, an acceleration sensor 5, and a terminal, which are a plurality of status detection means provided in the mobile communication terminal 20-1 Based on the detection information detected by the operation detection unit 6 and the charge detection unit 7, the step of inferring the current state of the owner of the mobile communication terminal 20-1 and the avatar's state based on the inferred state of the owner The other mobile communication terminal 20-2 that executes the step of generating control information for controlling the shape or behavior and the step of controlling the shape or behavior of the avatar based on the generated control information and shares the detection information Is a state display method for executing the step of distributing the detection information to the other mobile communication terminal 20-2.

ここで、本実施例の特徴とするところは、他移動体通信端末20−2の他に、前記検出情報を共有する非移動体通信端末50の情報があらかじめ定められ、前記検出情報を当該非移動体通信端末50に配信するステップを実行する際には、当該非移動体通信端末50のユーザ認証装置51から機器IDおよびユーザIDを含む認証要求を受け付けてユーザ認証を実行するゲートウェイ40が当該非移動体通信端末50のユーザ認証に成功した後に、前記検出情報を当該非移動体通信端末50に配信するステップを実行するところにある(請求項1)。   Here, the feature of the present embodiment is that, in addition to the other mobile communication terminal 20-2, information of the non-mobile communication terminal 50 sharing the detection information is determined in advance, and the detection information is When executing the step of delivering to the mobile communication terminal 50, the gateway 40 that receives the authentication request including the device ID and the user ID from the user authentication device 51 of the non-mobile communication terminal 50 and executes user authentication After successful user authentication of the non-mobile communication terminal 50, the step of delivering the detection information to the non-mobile communication terminal 50 is performed (Claim 1).

サーバ30には、ユーザ管理データベース23が設けられ、移動体通信端末20−1と検出情報を共有する移動体通信端末20−2および非移動体通信端末50の情報が記録されている。   The server 30 is provided with a user management database 23 in which information of the mobile communication terminal 20-2 and the non-mobile communication terminal 50 that share detection information with the mobile communication terminal 20-1 is recorded.

また、サーバ30とゲートウェイ40とには、それぞれユーザ認証部21および41と検出情報配信部22および42とが設けられ、移動体通信端末20−1および20−2とサーバ30との間で行われるユーザ認証に相応するユーザ認証を非移動体通信端末50に設けられたユーザ認証装置51とゲートウェイ40に設けられたユーザ認証部41との間で行う。   Further, the server 30 and the gateway 40 are provided with user authentication units 21 and 41 and detection information distribution units 22 and 42, respectively, which are executed between the mobile communication terminals 20-1 and 20-2 and the server 30. The user authentication corresponding to the user authentication is performed between the user authentication device 51 provided in the non-mobile communication terminal 50 and the user authentication unit 41 provided in the gateway 40.

このユーザ認証に成功したときには、移動体通信端末20−1の検出情報が非移動体通信端末50に検出情報配信部22および42によって配信される。   When the user authentication is successful, the detection information of the mobile communication terminal 20-1 is distributed to the non-mobile communication terminal 50 by the detection information distribution units 22 and 42.

すなわち、図2に示すように、ユーザ認証装置51は、非移動体通信端末50からのアバター表示要求を受け付けると(S1)、ゲートウェイ40に対して機器IDおよびユーザIDを送出する(S2)。これによりユーザ認証に成功すればゲートウェイ40から検出情報が配信され、非移動体通信端末50はアバター制御情報を生成し(S4)、アバター表示を行う(S5)。しかし、検出情報が配信されないときには(S3)、所定回数リトライを行う(S6)。所定回数のリトライを行ってもなお検出情報が配信されない場合には、移動体通信端末20−1またはサーバ30において、何らかのトラブルが発生したことが予想されるので、非移動体通信端末50は、接続不可を表示する(S7)。   That is, as shown in FIG. 2, when receiving the avatar display request from the non-mobile communication terminal 50 (S1), the user authentication device 51 sends out the device ID and the user ID to the gateway 40 (S2). As a result, if the user authentication is successful, detection information is distributed from the gateway 40, and the non-mobile communication terminal 50 generates avatar control information (S4) and displays an avatar (S5). However, when the detection information is not distributed (S3), retry is performed a predetermined number of times (S6). If the detection information is still not distributed after a predetermined number of retries, it is expected that some trouble has occurred in the mobile communication terminal 20-1 or the server 30, so the non-mobile communication terminal 50 A connection impossible message is displayed (S7).

一方、図3に示すように、ゲートウェイ40のユーザ認証部41では、非移動体通信端末50からの認証要求として機器IDおよびユーザIDを受信すると(S10)、ユーザ管理データベース23を検索し(S11)、その結果、該当する機器IDおよびユーザIDが検索されて認証に成功すると(S12)、検出情報配信部42は、移動体通信端末20−1の検出情報を非移動体通信端末50に配信する(S13)。また、認証に失敗したときには(S12)、非移動体通信端末50に対して接続不可を通知する(S14)。   On the other hand, as shown in FIG. 3, the user authentication unit 41 of the gateway 40 receives the device ID and the user ID as an authentication request from the non-mobile communication terminal 50 (S10), and searches the user management database 23 (S11). As a result, when the corresponding device ID and user ID are searched and authentication is successful (S12), the detection information distribution unit 42 distributes the detection information of the mobile communication terminal 20-1 to the non-mobile communication terminal 50. (S13). When the authentication fails (S12), the non-mobile communication terminal 50 is notified that connection is not possible (S14).

これにより、移動体通信端末20−1の所有者の状態を移動体通信端末20−2および非移動体通信端末50の所有者にアバターを利用して伝達することができる。また、同様に、移動体通信端末20−2の所有者の状態を移動体通信端末20−1の所有者にアバターを利用して伝達することができる。   Thereby, the owner's state of the mobile communication terminal 20-1 can be transmitted to the owners of the mobile communication terminal 20-2 and the non-mobile communication terminal 50 using the avatar. Similarly, the state of the owner of the mobile communication terminal 20-2 can be transmitted to the owner of the mobile communication terminal 20-1 using an avatar.

本実施例では、2つの移動体通信端末20−1および20−2と1つの非移動体通信端末50を例示したが、3つ以上の移動体通信端末相互間あるいは複数の非移動体通信端末においても同様に、一つの移動体通信端末の所有者の状態をあらかじめ定められた他の移動体通信端末および非移動体通信端末の所有者にアバターを利用して伝達することができる。   In the present embodiment, two mobile communication terminals 20-1 and 20-2 and one non-mobile communication terminal 50 are illustrated, but between three or more mobile communication terminals or a plurality of non-mobile communication terminals Similarly, the owner status of one mobile communication terminal can be transmitted to other predetermined mobile communication terminals and non-mobile communication terminal owners using avatars.

本発明の移動体通信システムは、図4および図5に示すように、複数の状態検出手段としてのGPS部1、通話検出部2、パケット通信解析部3、音声認識部4、加速度センサ5、端末操作検出部6、充電中検出部7を備えた移動体通信端末20−1を備え、ユーザリアルタイム情報データベース9には、複数の状態検出手段からの各種情報をユーザ情報収集部8がとりまとめた検出情報が格納される。また、通信機能部13は、この検出情報をサーバ30に送信する。   As shown in FIGS. 4 and 5, the mobile communication system of the present invention includes a GPS unit 1, a call detection unit 2, a packet communication analysis unit 3, a voice recognition unit 4, an acceleration sensor 5, The mobile communication terminal 20-1 including the terminal operation detection unit 6 and the charging detection unit 7 is provided. In the user real-time information database 9, the user information collection unit 8 collects various information from a plurality of state detection means. Detection information is stored. Further, the communication function unit 13 transmits this detection information to the server 30.

プログラム実行部11は、この検出情報に基づき当該移動体通信端末20−1の所有者の現在の状態を推察する状態推察部14と、この状態推察部14により推察された前記所有者の状態を表す状態情報を生成する状態情報生成部15と、この状態情報生成部15により生成された前記状態情報に基づきアバターの形状または挙動を制御する制御情報を生成する制御情報生成部16とを備える。   The program execution unit 11 infers the current state of the owner of the mobile communication terminal 20-1 based on the detection information, and the state of the owner inferred by the state inference unit 14. A state information generation unit 15 that generates state information to be expressed, and a control information generation unit 16 that generates control information for controlling the shape or behavior of the avatar based on the state information generated by the state information generation unit 15 are provided.

さらに、プログラム実行部11は、前記制御情報およびユーザ基本情報データベース10に格納されているユーザ基本情報に基づきアバターの形状または挙動を制御してディスプレイ12に表示する。ユーザ基本情報には、例えば、ユーザID、ユーザを認証する情報(パスワード、指紋情報など)、ユーザが用いるアバターの種類などが含まれる。   Further, the program execution unit 11 controls the shape or behavior of the avatar based on the control information and the user basic information stored in the user basic information database 10 and displays it on the display 12. The user basic information includes, for example, a user ID, information for authenticating the user (password, fingerprint information, etc.), the type of avatar used by the user, and the like.

移動体通信端末20−1および20−2と通信回線により接続されるサーバ30を備え、このサーバ30は、ユーザ管理データベース23に、前記検出情報を共有する他移動体通信端末20−2の情報を保持する手段を備え、この保持する手段に保持された他移動通信端末20−2の情報を参照し、前記検出情報を当該他移動体通信端末20−2に配信する手段を備える。   A server 30 connected to the mobile communication terminals 20-1 and 20-2 via a communication line is provided, and this server 30 has information on the other mobile communication terminal 20-2 sharing the detection information in the user management database 23. And means for referring to the information of the other mobile communication terminal 20-2 held in the means for holding and distributing the detection information to the other mobile communication terminal 20-2.

ここで、本実施例の特徴とするところは、サーバ30は、移動体通信端末20−2の他に、前記検出情報を共有する非移動体通信端末50の情報を保持する手段をユーザ管理データベース23に備え、当該非移動体通信端末50は、機器IDおよびユーザIDを含む認証情報を送出するユーザ認証装置51を備え、この認証要求を受け付けてユーザ認証を実行するゲートウェイ40が設けられ、サーバ30は、このゲートウェイ40が当該非移動体通信端末50のユーザ認証に成功した後に、前記検出情報を当該非移動体通信端末50に配信する検出情報配信部42を備えたところにある(請求項2、3)。   Here, the feature of the present embodiment is that the server 30 includes a user management database that stores information on the non-mobile communication terminal 50 sharing the detection information in addition to the mobile communication terminal 20-2. 23, the non-mobile communication terminal 50 includes a user authentication device 51 that transmits authentication information including a device ID and a user ID, and is provided with a gateway 40 that receives the authentication request and executes user authentication. 30 includes a detection information distribution unit 42 that distributes the detection information to the non-mobile communication terminal 50 after the gateway 40 succeeds in user authentication of the non-mobile communication terminal 50. 2, 3).

なお、非移動体通信端末50は、例えば、PC(パーソナルコンピュータ)である。また、このPCには、アバターを表示するための機能として、移動体通信端末20−1および20−2が備えている機能に相応する機能を備えているものとする。   The non-mobile communication terminal 50 is, for example, a PC (personal computer). Moreover, this PC shall be equipped with the function corresponding to the function with which the mobile communication terminals 20-1 and 20-2 are provided as a function for displaying an avatar.

検出情報の配信手順を図6のフローチャートを参照して説明する。図6に示すように、ユーザ基本データベース10にユーザ基本情報を設定する(S20)。このユーザ基本情報はプログラム実行部11の制御により通信機能部13を介してサーバ30に転送された後に、他移動体通信端末20−2および非移動体通信端末50に配信される(S21)。このユーザ基本情報には、例えば、ユーザID、ユーザを認証する情報(パスワード、指紋情報など)、ユーザが用いるアバターの種類などが含まれる。   The detection information distribution procedure will be described with reference to the flowchart of FIG. As shown in FIG. 6, basic user information is set in the basic user database 10 (S20). The user basic information is transferred to the server 30 via the communication function unit 13 under the control of the program execution unit 11, and then distributed to the other mobile communication terminal 20-2 and the non-mobile communication terminal 50 (S21). This basic user information includes, for example, a user ID, information for authenticating the user (password, fingerprint information, etc.), the type of avatar used by the user, and the like.

ユーザ情報収集部8は、検出情報を収集する(S22)。この検出情報によりユーザリアルタイム情報データベース9が構築される(S23)。   The user information collection unit 8 collects detection information (S22). The user real-time information database 9 is constructed from this detection information (S23).

ユーザリアルタイム情報データベース9に格納された検出情報に基づきプログラム実行部11の状態推察部14、状態情報生成部15、制御情報生成部16は、アバターの制御情報を生成してアバターを制御し、ディスプレイ12上のアバターに所有者の状態を反映させる(S24)。   Based on the detection information stored in the user real-time information database 9, the state inference unit 14, the state information generation unit 15, and the control information generation unit 16 of the program execution unit 11 generate avatar control information to control the avatar, and display The state of the owner is reflected in the avatar on 12 (S24).

一方、通信機能部13により検出情報はサーバ30に送信される(S25)。サーバ30では、事前に登録されているユーザの移動体通信端末20−2および非移動体通信端末50に、検出情報を送信する(S26)。移動体通信端末20−2および非移動体通信端末50は、サーバ30から移動体通信端末20−1の検出情報を受け取ると、アバターの制御情報を生成してアバターを制御し、ディスプレイ12上のアバターに移動体通信端末20−1の所有者の状態を反映させる(S27)。   On the other hand, the detection information is transmitted to the server 30 by the communication function unit 13 (S25). The server 30 transmits the detection information to the user's previously registered mobile communication terminal 20-2 and non-mobile communication terminal 50 (S26). When the mobile communication terminal 20-2 and the non-mobile communication terminal 50 receive the detection information of the mobile communication terminal 20-1 from the server 30, the mobile communication terminal 20-2 generates control information of the avatar to control the avatar, and The state of the owner of the mobile communication terminal 20-1 is reflected on the avatar (S27).

なお、移動体通信端末20−1と20−2とが直接通信を行う機能を有している場合には、サーバ30を介した検出情報の授受以外に、移動体通信端末20−1と20−2との間で直接、検出情報の授受を行うことができる。   In addition, when the mobile communication terminals 20-1 and 20-2 have a function of performing direct communication, the mobile communication terminals 20-1 and 20-2 can be used in addition to the exchange of detection information via the server 30. -2 can be exchanged directly with -2.

本実施例は、汎用の情報処理装置にインストールすることにより、その情報処理装置に本実施例の移動通信端末に相応する機能を実現させるプログラムとして実現することができる。このプログラムは、記録媒体に記録されて情報処理装置にインストールされ、あるいは通信回線を介して情報処理装置にインストールされることにより当該情報処理装置に、ユーザ情報収集部8、ユーザリアルタイム情報データベース9、ユーザ基本情報データベース10、プログラム実行部11にそれぞれ相応する機能を実現させることができる。   The present embodiment can be implemented as a program that, when installed in a general-purpose information processing apparatus, causes the information processing apparatus to realize functions corresponding to the mobile communication terminal of the present embodiment. This program is recorded on a recording medium and installed in the information processing apparatus, or installed in the information processing apparatus via a communication line, so that the user information collecting unit 8, the user real-time information database 9, Functions corresponding to the user basic information database 10 and the program execution unit 11 can be realized.

以下では、本実施例をさらに詳細に説明する。   Hereinafter, this embodiment will be described in more detail.

本実施例で提案するサービスは、移動体通信端末20−1の各種センサから得られる、その端末の所有者であるユーザの行動を、自動的にアバターに反映させ、さらに、事前に登録した他移動体通信端末20−2および非移動体通信端末50のアバターにも自動的に移動体通信端末20−1の所有者の行動を反映させるものである。   The service proposed in the present embodiment automatically reflects the behavior of the user who is the owner of the terminal obtained from the various sensors of the mobile communication terminal 20-1 in the avatar, and is registered in advance. The behavior of the owner of the mobile communication terminal 20-1 is automatically reflected in the avatars of the mobile communication terminal 20-2 and the non-mobile communication terminal 50.

ユーザの移動体通信端末20−1の各種センサから取得される情報について述べる。ユーザの移動体通信端末20−1の各種センサから取得される情報は、ユーザの現在の行動がわかるような情報である。   Information acquired from various sensors of the user's mobile communication terminal 20-1 will be described. The information acquired from the various sensors of the user's mobile communication terminal 20-1 is information that allows the user's current behavior to be understood.

一例として、GPS部1で取得される情報としては、ユーザの現在位置や移動速度などが挙げられる。通話検出部2から取得される情報としては、現在の通話の有無または通話相手などが挙げられる。パケット通信解析部3から得られる情報は、現在のパケット通信の有無またはメール送受信中かブラウザによるWebブラウジング中かの識別または接続サイトの特定など、パケットを解析することで得られる情報である。音声認識部4から取得可能な情報は、ユーザの会話の速度や音圧などから想定されるユーザの感情などである。また、加速度センサ5から取得可能な情報は、ユーザの加速度である。すなわち、ユーザが物に衝突したり転倒した場合には、急激に加速度が変化するのでこのような状態を検出することができる。また、端末操作検出部6で取得可能な情報は、ユーザのキー操作である。これらの情報の他に、充電中検出部7は、移動体通信端末20−1の情報として、充電中か否か、などの情報を得ることができる。   As an example, examples of information acquired by the GPS unit 1 include a user's current position and moving speed. Information acquired from the call detection unit 2 includes the presence / absence of a current call or a call partner. The information obtained from the packet communication analysis unit 3 is information obtained by analyzing a packet such as the presence / absence of current packet communication, identification of whether mail transmission / reception or web browsing is being performed by a browser, or identification of a connection site. The information that can be acquired from the voice recognition unit 4 is the user's emotions assumed from the conversation speed, sound pressure, etc. of the user. The information that can be acquired from the acceleration sensor 5 is the user's acceleration. That is, when the user collides with an object or falls, the acceleration changes suddenly, so that such a state can be detected. Information that can be acquired by the terminal operation detection unit 6 is a user's key operation. In addition to these pieces of information, the charging detector 7 can obtain information such as whether charging is in progress as information of the mobile communication terminal 20-1.

(第二実施例)
第二実施例としてGPS部1からの検出情報に基づく制御情報生成の一例を図7のフローチャートを参照して説明する。制御情報生成部16は、GPS部1から送られてきた検出情報に基づき図7に示すような制御情報を生成する。プログラム実行部11は、この制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図8に示す。
(Second embodiment)
As a second embodiment, an example of control information generation based on detection information from the GPS unit 1 will be described with reference to a flowchart of FIG. The control information generation unit 16 generates control information as shown in FIG. 7 based on the detection information sent from the GPS unit 1. The program execution unit 11 controls the shape or behavior of the avatar based on this control information. An example of the shape or behavior of this avatar is shown in FIG.

なお、プログラム実行部11は、他移動体通信端末20−2から送られた検出情報についても同様に処理し、当該他移動体通信端末20−2の所有者の状態を自己のディスプレイ12にアバターとして表示することができる。   In addition, the program execution part 11 processes similarly about the detection information sent from the other mobile communication terminal 20-2, and displays the state of the owner of the other mobile communication terminal 20-2 on its display 12 as an avatar. Can be displayed as

GPS部1からの検出情報は、状態推察部14に入力され、ユーザが移動中であるか否か、および、移動中であればその移動速度が推察される。その推察結果は、状態情報生成部15に入力され、制御情報生成部16が認識できる状態情報が生成される。   Detection information from the GPS unit 1 is input to the state inference unit 14 to infer whether or not the user is moving and the moving speed if the user is moving. The inference result is input to the state information generation unit 15, and state information that can be recognized by the control information generation unit 16 is generated.

なお、本実施例では、説明をわかりやすくするために、状態推察部14および状態情報生成部15および制御情報生成部16をそれぞれ別のブロックとして図示したが、状態推察部14および状態情報生成部15は、制御情報生成部16の内部機能であるとし、特にブロックを分けて設けなくてもよい。以降の実施例でも同様である。   In the present embodiment, the state inference unit 14, the state information generation unit 15, and the control information generation unit 16 are illustrated as separate blocks for ease of explanation, but the state inference unit 14 and the state information generation unit are illustrated. Reference numeral 15 denotes an internal function of the control information generation unit 16, and it is not necessary to separately provide blocks. The same applies to the following embodiments.

図7に示すように、制御情報生成部16は、GPS部1の検出情報に基づく状態情報を状態情報生成部15から取得し(S30)、ユーザの現在の状態を認識する。移動がない場合は(S31)、アバターに変化は無い(S38)。移動がある場合は(S31)、その移動速度情報を抽出し(S32)、移動速度が4km/h以下であれば図8(a)に示すように“アバター歩く”という制御情報を生成する(S33)。また、移動速度が10km/h以下であれば図8(b)に示すように“アバター走る”という制御情報を生成する(S34)。また、移動速度が10km/h以上であり、公共移動手段(電車)と同じ経路をたどっていれば(S35)、それは公共移動手段(電車)を利用していることになるので図8(c)に示すように“アバター電車に乗る”という制御情報を生成する(S36)。また、移動速度が10km/h以上であり、公共移動手段(電車)と同じ経路をたどっていなければ(S35)、それは公共移動手段(電車)以外の移動手段(自動車)を利用していることになるので図8(d)に示すように“アバター車に乗る”という制御情報を生成する(S37)。また、各アバター表示に移動方向を示す表示あるいは住所などの現在位置を示す表示も併せて表示させることができる。   As illustrated in FIG. 7, the control information generation unit 16 acquires state information based on the detection information of the GPS unit 1 from the state information generation unit 15 (S30), and recognizes the current state of the user. When there is no movement (S31), there is no change in the avatar (S38). If there is movement (S31), the movement speed information is extracted (S32), and if the movement speed is 4 km / h or less, control information “walking avatar” is generated as shown in FIG. S33). If the moving speed is 10 km / h or less, control information “run avatar” is generated as shown in FIG. 8B (S34). If the moving speed is 10 km / h or more and the same route as that of the public transportation means (train) is followed (S35), it means that the public transportation means (train) is used, so that FIG. ), Control information “get on the avatar train” is generated (S36). Also, if the moving speed is 10 km / h or more and it does not follow the same route as the public transportation means (train) (S35), it uses a transportation means (automobile) other than the public transportation means (train). Therefore, as shown in FIG. 8D, control information “get on the avatar car” is generated (S37). In addition, a display indicating the moving direction or a display indicating the current position such as an address can be displayed on each avatar display.

(第三実施例)
第三実施例として音声認識部4からの検出情報に基づく制御情報生成の一例を図9のフローチャートを参照して説明する。制御情報生成部16は、音声認識部4から送られてきた検出情報に基づき図9に示すような制御情報を生成する。プログラム実行部11は、この制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図10に示す。
(Third embodiment)
As a third embodiment, an example of control information generation based on detection information from the speech recognition unit 4 will be described with reference to a flowchart of FIG. The control information generation unit 16 generates control information as shown in FIG. 9 based on the detection information sent from the voice recognition unit 4. The program execution unit 11 controls the shape or behavior of the avatar based on this control information. An example of the shape or behavior of this avatar is shown in FIG.

なお、プログラム実行部11は、他移動体通信端末20−2から送られた検出情報についても同様に処理し、当該他移動体通信端末20−2の所有者の状態を自己のディスプレイ12にアバターとして表示することができる。   In addition, the program execution part 11 processes similarly about the detection information sent from the other mobile communication terminal 20-2, and displays the state of the owner of the other mobile communication terminal 20-2 on its display 12 as an avatar. Can be displayed as

音声認識部4からの検出情報は、状態推察部14に入力され、ユーザの通話中における音圧および会話速度が推察される。その推察結果は、状態情報生成部15に入力され、制御情報生成部16が認識できる状態情報が生成される。   Detection information from the voice recognition unit 4 is input to the state inference unit 14 to infer the sound pressure and conversation speed during the user's call. The inference result is input to the state information generation unit 15, and state information that can be recognized by the control information generation unit 16 is generated.

図9に示すように、制御情報生成部16は、音声認識部4の検出情報に基づく状態情報を状態情報生成部15から取得し(S40)、ユーザの現在の状態を認識する。   As shown in FIG. 9, the control information generation unit 16 acquires state information based on the detection information of the voice recognition unit 4 from the state information generation unit 15 (S40), and recognizes the current state of the user.

制御情報生成部16は、前回の音圧および会話速度の情報を保持しており、これと今回の音圧および会話速度の情報とを比較して変化を抽出する(S41)。その結果、変化が無ければ(S42)、アバターも変化無しとする(S43)。音圧および会話速度が前回と比較して高くなっていれば(S42)、それはユーザが前回と比較して興奮状態になっていることがわかる。さらに、音圧および会話速度の変化の度合いから興奮度合いを分類し(S45)、興奮度合いが小さい場合には図10(a)に示すように“アバター興奮(小)”という制御情報を生成する(S48)。また、興奮度合いが中くらいの場合には図10(b)に示すように“アバター興奮(中)”という制御情報を生成する(S47)。また、興奮度合いが大きい場合には図10(c)に示すように“アバター興奮(大)”という制御情報を生成する(S46)。また、音圧および会話速度が前回と比較して低くなっていれば(S42)、それはユーザが前回と比較して平静状態になっていることがわかるので図10(d)に示すように“アバター平静”という制御情報を生成する(S44)。   The control information generation unit 16 holds the previous sound pressure and conversation speed information, and compares this with the current sound pressure and conversation speed information to extract changes (S41). As a result, if there is no change (S42), the avatar is also left unchanged (S43). If the sound pressure and the conversation speed are higher than the previous time (S42), it is understood that the user is in an excited state compared to the previous time. Further, the degree of excitement is classified based on the degree of change in sound pressure and conversation speed (S45), and when the degree of excitement is small, control information “avatar excitement (small)” is generated as shown in FIG. (S48). When the degree of excitement is medium, control information “avatar excitement (medium)” is generated as shown in FIG. 10B (S47). If the degree of excitement is large, control information “Avatar excitement (large)” is generated as shown in FIG. 10C (S46). Further, if the sound pressure and the conversation speed are lower than the previous time (S42), it is understood that the user is in a calm state compared to the previous time, so as shown in FIG. Control information "Avatar calm" is generated (S44).

(第四実施例)
第四実施例として通信検出部2、パケット通信解析部3、端末操作検出部6からの検出情報に基づく制御情報生成の一例を図11のフローチャートを参照して説明する。制御情報生成部16は、通信検出部2、パケット通信解析部3、端末操作検出部6から送られてきた検出情報に基づき図11に示すような制御情報を生成する。プログラム実行部11は、通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図12に示す。
(Fourth embodiment)
As a fourth embodiment, an example of control information generation based on detection information from the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 will be described with reference to the flowchart of FIG. The control information generation unit 16 generates control information as shown in FIG. 11 based on the detection information transmitted from the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6. The program execution unit 11 controls the shape or behavior of the avatar based on this control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

なお、プログラム実行部11は、他移動体通信端末20−2から送られた検出情報についても同様に処理し、当該他移動体通信端末20−2の所有者の状態を自己のディスプレイ12にアバターとして表示することができる。   In addition, the program execution part 11 processes similarly about the detection information sent from the other mobile communication terminal 20-2, and displays the state of the owner of the other mobile communication terminal 20-2 on its display 12 as an avatar. Can be displayed as

通信検出部2、パケット通信解析部3、端末操作検出部6からの検出情報は、それぞれ状態推察部14に入力され、ユーザの通話状態およびパケット通信状態および端末操作状態がそれぞれ推察される。その推察結果は、状態情報生成部15に入力され、制御情報生成部16が認識できる状態情報が生成される。   Detection information from the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 is input to the state inference unit 14 to infer the user's call state, packet communication state, and terminal operation state, respectively. The inference result is input to the state information generation unit 15, and state information that can be recognized by the control information generation unit 16 is generated.

図11に示すように、制御情報生成部16は、通信検出部2、パケット通信解析部3、端末操作検出部6の検出情報に基づく状態情報を状態情報生成部15から取得し(S50)、ユーザの現在の通話状態およびパケット通信状態および端末操作状態をそれぞれ認識する(S51)。   As shown in FIG. 11, the control information generation unit 16 acquires state information based on the detection information of the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 from the state information generation unit 15 (S50). The user's current call state, packet communication state, and terminal operation state are recognized (S51).

その結果、通話およびパケット通信および端末操作が全て頻繁でなければ(S52)、図12(a)に示すように“アバター居眠り”という制御情報を生成する(S56)。また、通話中が多ければ(S53)、図12(b)に示すように“アバター電話中”という制御情報を生成する(S57)。また、パケット通信中が多く(S54)、その通信先がゲームのサイトであれば(S55)、図12(d)に示すように“アバターゲーム中”という制御情報を生成する(S59)。また、その通知先がメールであれば(S55)、図12(e)に示すように“アバターメール中”という制御情報を生成する(S60)。また、その通信先がWebブラウジングであれば(S55)、図12(f)に示すようちに“アバターWebブラウジング中”という制御情報を生成する(S61)。   As a result, if all calls, packet communications, and terminal operations are not frequent (S52), control information “Avatar doze” is generated as shown in FIG. 12A (S56). If there are many calls (S53), control information “Avatar on call” is generated as shown in FIG. 12B (S57). If there are many packet communications (S54) and the communication destination is a game site (S55), control information “Avatar game in progress” is generated as shown in FIG. 12D (S59). If the notification destination is mail (S55), control information “Avatar mail is in progress” is generated as shown in FIG. 12E (S60). If the communication destination is Web browsing (S55), control information “Avatar Web browsing in progress” is generated as shown in FIG. 12F (S61).

(第五実施例)
第五実施例としてGPS部1、加速度センサ5からの検出情報に基づく制御情報生成の一例を図13のフローチャートを参照して説明する。制御情報生成部16は、GPS部1、加速度センサ5から送られてきた検出情報に基づき図13に示すような制御情報を生成する。プログラム実行部11は、通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図14に示す。
(Fifth embodiment)
As a fifth embodiment, an example of control information generation based on detection information from the GPS unit 1 and the acceleration sensor 5 will be described with reference to a flowchart of FIG. The control information generating unit 16 generates control information as shown in FIG. 13 based on the detection information sent from the GPS unit 1 and the acceleration sensor 5. The program execution unit 11 controls the shape or behavior of the avatar based on this control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

なお、プログラム実行部11は、他移動体通信端末20−2から送られた検出情報についても同様に処理し、当該他移動体通信端末20−2の所有者の状態を自己のディスプレイ12にアバターとして表示することができる。   In addition, the program execution part 11 processes similarly about the detection information sent from the other mobile communication terminal 20-2, and displays the state of the owner of the other mobile communication terminal 20-2 on its display 12 as an avatar. Can be displayed as

GPS部1、加速度センサ5からの検出情報は、それぞれ状態推察部14に入力され、ユーザの移動速度および加速度の状態がそれぞれ推察される。その推察結果は、状態情報生成部15に入力され、制御情報生成部16が認識できる状態情報が生成される。   Detection information from the GPS unit 1 and the acceleration sensor 5 is respectively input to the state inference unit 14 to infer the user's moving speed and acceleration state. The inference result is input to the state information generation unit 15, and state information that can be recognized by the control information generation unit 16 is generated.

図13に示すように、制御情報生成部16は、GPS部1、加速度センサ5の検出情報に基づく状態情報を状態情報生成部15から取得し(S70)、ユーザの現在の移動速度および加速度をそれぞれ認識する(S71)。   As illustrated in FIG. 13, the control information generation unit 16 acquires state information based on detection information of the GPS unit 1 and the acceleration sensor 5 from the state information generation unit 15 (S70), and obtains the current moving speed and acceleration of the user. Recognize each (S71).

その結果、急激な加速度の変化がなければ(S72)、“アバター変化無し”という制御情報を生成する(S75)。あるいは、急激な加速度の変化があっても(S72)、移動速度に変化がなければ(S73)、“アバター変化無し”という制御情報を生成する(S75)。   As a result, if there is no sudden acceleration change (S72), control information “no avatar change” is generated (S75). Alternatively, even if there is a sudden change in acceleration (S72), if there is no change in the moving speed (S73), control information “no avatar change” is generated (S75).

急激な加速度変化があり(S72)、移動速度が停止を示す場合には(S73)、それは、ユーザが物に衝突あるいは転倒した確率が高いと判断できる。この際に、停止直前の移動速度が大きければ大きいほど、事故の規模は大きいと推察できるので、停止直前の移動速度の“大”、“中”、“小”に応じてそれぞれ図14(c)に示すように“アバター事故(大)”、図14(b)に示すように“アバター事故(中)”、図14(a)に示すように“アバター事故(小)”という制御情報をそれぞれ生成する(S76、S77、S78)。   If there is a sudden acceleration change (S72) and the moving speed indicates a stop (S73), it can be determined that the probability that the user has collided with or fell over the object is high. At this time, it can be inferred that the larger the moving speed immediately before the stop, the larger the accident, and accordingly, according to the moving speeds “high”, “medium”, and “small” immediately before the stop, respectively, FIG. ) Control information “Avatar accident (large)”, “avatar accident (medium)” as shown in FIG. 14B, and “avatar accident (small)” as shown in FIG. 14 (a). Each is generated (S76, S77, S78).

(第六実施例)
第六実施例の移動体通信システムを図15ないし図17を参照して説明する。図15は第六実施例の移動体通信システムの全体構成図である。図16は第六実施例の移動体通信端末のブロック構成図である。図17は第六実施例のサーバのブロック構成図である。これらのブロック構成図は、本実施例の説明に必要な機能ブロック以外の図示は省略した。図17のサーバ30のブロック構成は、図15の制御情報配信部24のブロック構成に相当する。
(Sixth embodiment)
A mobile communication system according to the sixth embodiment will be described with reference to FIGS. FIG. 15 is an overall configuration diagram of the mobile communication system of the sixth embodiment. FIG. 16 is a block diagram of the mobile communication terminal of the sixth embodiment. FIG. 17 is a block diagram of the server of the sixth embodiment. In these block configuration diagrams, illustrations other than the functional blocks necessary for the description of the present embodiment are omitted. The block configuration of the server 30 in FIG. 17 corresponds to the block configuration of the control information distribution unit 24 in FIG.

本実施例の移動体通信システムにおける状態表示方法を図15〜図17を参照して説明する。移動体通信端末20−1は、自己に備わる複数の状態検出手段であるGPS部1、通話検出部2、パケット通信解析部3、音声認識部4、加速度センサ5、端末操作検出部6、充電中検出部7の検出情報に基づき当該移動体通信端末20−1の所有者の現在の状態を推察するステップと、この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、この生成された制御情報に基づきアバターの形状または挙動を制御するステップとを実行し、同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、前記制御情報を生成するステップの実行に先立って、この制御パターンのいずれかを選択するステップと、この選択結果に基づき前記制御情報を生成するステップとを実行し、前記制御情報を共有する他移動体通信端末20−2の情報があらかじめ定められ、前記制御情報を当該他移動体通信端末20−2に配信するステップを実行する状態表示方法である。   A state display method in the mobile communication system of the present embodiment will be described with reference to FIGS. The mobile communication terminal 20-1 includes a GPS unit 1, a call detection unit 2, a packet communication analysis unit 3, a voice recognition unit 4, an acceleration sensor 5, a terminal operation detection unit 6, a charge, which are a plurality of state detection units provided in the mobile communication terminal 20-1. The step of inferring the current state of the owner of the mobile communication terminal 20-1 based on the detection information of the middle detection unit 7, and the control for controlling the shape or behavior of the avatar based on the inferred state of the owner Performing a step of generating information and a step of controlling the shape or behavior of the avatar based on the generated control information, and a plurality of control patterns of the shape or behavior of the avatar corresponding to the same state are provided, Prior to execution of the step of generating the control information, a step of selecting one of the control patterns and a step of generating the control information based on the selection result. Status display for executing the step of distributing the control information to the other mobile communication terminal 20-2, the information of the other mobile communication terminal 20-2 sharing the control information being determined in advance Is the method.

ここで、本実施例の特徴とするところは、他移動体通信端末20−2の他に、前記制御情報を共有する非移動体通信端末50の情報があらかじめ定められ、前記制御情報を当該非移動体通信端末50に配信するステップを実行する際には、当該非移動体通信端末50から機器IDおよびユーザIDを含む認証要求を受け付けてユーザ認証を実行するゲートウェイ40が当該非移動体通信端末50のユーザ認証に成功した後に、前記制御情報を当該非移動体通信端末50に配信するステップを実行するところにある(請求項4)。   Here, the feature of this embodiment is that, in addition to the other mobile communication terminal 20-2, information of the non-mobile communication terminal 50 sharing the control information is determined in advance, and the control information is transferred to the non-mobile communication terminal 20-2. When executing the step of distributing to the mobile communication terminal 50, the gateway 40 that receives the authentication request including the device ID and the user ID from the non-mobile communication terminal 50 and executes the user authentication is the non-mobile communication terminal. After successful 50 user authentication, the control information is distributed to the non-mobile communication terminal 50 (Claim 4).

本実施例の移動体通信システムは、図16および図17に示すように、複数の状態検出手段としてのGPS部1、通話検出部2、パケット通信解析部3、音声認識部4、加速度センサ5、端末操作検出部6、充電検出部7を備えた移動体通信端末20−1を備え、ユーザリアルタイム情報データベース9には、複数の状態検出手段からの各種情報をユーザ情報収集部8がとりまとめた検出情報が格納される。   As shown in FIGS. 16 and 17, the mobile communication system of the present embodiment includes a GPS unit 1, a call detection unit 2, a packet communication analysis unit 3, a voice recognition unit 4, and an acceleration sensor 5 as a plurality of state detection means. The mobile communication terminal 20-1 including the terminal operation detection unit 6 and the charge detection unit 7 is provided. In the user real-time information database 9, the user information collection unit 8 collects various information from a plurality of state detection means. Detection information is stored.

また、通信機能部13は、この検出情報をサーバ30に送信する。サーバ30は、この検出情報に基づき当該移動体通信端末20−1の所有者の現在の状態を推察する状態推察部31と、この状態推察部31により推察された前記所有者の状態を表す状態情報を生成する状態情報生成部32と、この状態情報生成部32により生成された前記状態情報に基づきアバターの形状または挙動を制御する制御情報を生成する制御情報生成部33とを備える。   Further, the communication function unit 13 transmits this detection information to the server 30. The server 30 is a state inference unit 31 that infers the current state of the owner of the mobile communication terminal 20-1 based on the detection information, and a state that represents the state of the owner inferred by the state inference unit 31. A state information generation unit 32 that generates information, and a control information generation unit 33 that generates control information for controlling the shape or behavior of the avatar based on the state information generated by the state information generation unit 32 are provided.

さらに、移動体通信端末20−1および20−2は、前記制御情報およびユーザ基本情報データベース10に格納されているユーザ基本情報に基づきアバターの形状または挙動を制御してディスプレイ12に表示するプログラム実行部11を備える。ユーザ基本情報には、例えば、ユーザID、ユーザを認証する情報(パスワード、指紋情報など)、ユーザが用いるアバターの種類などが含まれる。   Further, the mobile communication terminals 20-1 and 20-2 execute a program for controlling the shape or behavior of the avatar based on the control information and the user basic information stored in the user basic information database 10 and displaying it on the display 12. The unit 11 is provided. The user basic information includes, for example, a user ID, information for authenticating the user (password, fingerprint information, etc.), the type of avatar used by the user, and the like.

さらに、同一の前記状態情報に基づく前記アバターの形状または挙動の制御パターンが複数設けられ、これらの制御パターンと前記状態情報との対応関係は、抽象化データベース35に格納され、制御情報生成部33は、前記制御情報の生成に先立って、この制御パターンのいずれかを選択する情報を移動体通信端末20−1から受け取って保持する選択情報保持部34と、この選択する情報に基づき前記制御情報を生成する手段とを備え、移動体通信端末20−1は、サーバ30に前記選択する情報を通信機能部31により送信する選択情報送信部25を備える。   Furthermore, a plurality of control patterns of the shape or behavior of the avatar based on the same state information are provided, and the correspondence relationship between these control patterns and the state information is stored in the abstraction database 35, and the control information generation unit 33 Prior to generation of the control information, a selection information holding unit 34 that receives and holds information for selecting any one of the control patterns from the mobile communication terminal 20-1, and the control information based on the selected information. The mobile communication terminal 20-1 includes a selection information transmission unit 25 that transmits information to be selected to the server 30 by the communication function unit 31.

さらに、サーバ30は、前記制御情報を共有する他移動体通信端末20−2の情報を保持するユーザ管理データベース23と、このユーザ管理データベース23に保持された他移動通信端末20−2の情報を参照し、前記制御情報を当該他移動体通信端末20−2に配信する手段とを備える移動体通信システムである。   Further, the server 30 stores the user management database 23 that holds the information of the other mobile communication terminal 20-2 that shares the control information, and the information of the other mobile communication terminal 20-2 that is held in the user management database 23. It is a mobile communication system provided with the means to refer and distribute the said control information to the said other mobile communication terminal 20-2.

ここで、本実施例の特徴とするところは、サーバ30のユーザ管理データベース23は、他移動体通信端末20−2の他に、前記制御情報を共有する非移動体通信端末50の情報を保持する手段を備え、当該非移動体通信端末50は、機器IDおよびユーザIDを含む認証要求を送出するユーザ認証装置51を備え、この認証要求を受け付けてユーザ認証を実行するゲートウェイ40が設けられ、サーバ30は、このゲートウェイ40のユーザ認証部41が当該非移動体通信端末50のユーザ認証に成功した後に、前記制御情報を当該非移動体通信端末50に配信する制御情報中継部43を備えたところにある(請求項5、6)。   Here, the feature of this embodiment is that the user management database 23 of the server 30 holds information on the non-mobile communication terminal 50 sharing the control information in addition to the other mobile communication terminal 20-2. The non-mobile communication terminal 50 includes a user authentication device 51 that transmits an authentication request including a device ID and a user ID, and is provided with a gateway 40 that receives the authentication request and executes user authentication. The server 30 includes a control information relay unit 43 that distributes the control information to the non-mobile communication terminal 50 after the user authentication unit 41 of the gateway 40 succeeds in user authentication of the non-mobile communication terminal 50. (Claims 5 and 6).

これにより、移動体通信端末20−1の所有者の状態を移動体通信端末20−2および非移動体通信端末50の所有者にアバターを利用して伝達することができる。また、同様に、移動体通信端末20−2の所有者の状態を移動体通信端末20−1および非移動体通信端末50の所有者にアバターを利用して伝達することができる。   Thereby, the owner's state of the mobile communication terminal 20-1 can be transmitted to the owners of the mobile communication terminal 20-2 and the non-mobile communication terminal 50 using the avatar. Similarly, the owner's state of the mobile communication terminal 20-2 can be transmitted to the owners of the mobile communication terminal 20-1 and the non-mobile communication terminal 50 using an avatar.

本実施例では、2つの移動体通信端末20−1および20−2と1つの非移動体通信端末50とを例示したが、3つ以上の移動体通信端末相互間と複数の非移動体通信端末においても同様に、一つの移動体通信端末の所有者の状態をあらかじめ定められた他の移動体通信端末および非移動体通信端末の所有者にアバターを利用して伝達することができる。   In the present embodiment, two mobile communication terminals 20-1 and 20-2 and one non-mobile communication terminal 50 are illustrated, but a plurality of non-mobile communication between three or more mobile communication terminals Similarly, the terminal can transmit the state of the owner of one mobile communication terminal to other predetermined mobile communication terminals and non-mobile communication terminal owners using an avatar.

以下では、本実施例をさらに詳細に説明する。   Hereinafter, this embodiment will be described in more detail.

本実施例で提案するサービスは、移動体通信端末20−1から得られる、その端末の所有者であるユーザの行動を、サーバ30へと送信し、サーバ30において、詳細な情報から抽象化された情報へと変換した後、この抽象化情報を任意の移動体通信端末20−2および非移動体通信端末50へと送信するものである。   The service proposed in the present embodiment is transmitted from the mobile communication terminal 20-1 to the server 30 and the action of the user who is the owner of the terminal is abstracted from detailed information in the server 30. This abstracted information is transmitted to an arbitrary mobile communication terminal 20-2 and non-mobile communication terminal 50 after being converted into information.

本実施例のサーバ30が有する機能の大きな特徴は、移動体通信端末20−1から送信された詳細なリアルタイムデータを、サーバ30において曖昧なデータへと変換する機能を制御情報生成部33に有する点である。   A major feature of the function of the server 30 of this embodiment is that the control information generating unit 33 has a function of converting detailed real-time data transmitted from the mobile communication terminal 20-1 into ambiguous data in the server 30. Is a point.

ユーザの移動体通信端末20−1から取得される情報について述べる。ユーザの移動体通信端末20−1から取得される情報は、ユーザの現在の行動がわかるような情報である。   Information acquired from the user's mobile communication terminal 20-1 will be described. The information acquired from the user's mobile communication terminal 20-1 is information that allows the user's current behavior to be understood.

一例として、GPS部1で取得される情報としては、ユーザの現在位置や移動速度などが挙げられる。通話検出部2から取得される情報としては、現在の通話の有無または通話相手などが挙げられる。パケット通信解析部3から得られる情報は、現在のパケット通信の有無またはメール送受信中かブラウザによるWebブラウジング中かの識別または接続サイトの特定など、パケットを解析することで得られる情報である。音声認識部4から取得可能な情報は、ユーザの会話の速度や音圧などから想定されるユーザの感情などである。また、加速度センサ5から取得可能な情報は、ユーザの加速度である。   As an example, examples of information acquired by the GPS unit 1 include a user's current position and moving speed. Information acquired from the call detection unit 2 includes the presence / absence of a current call or a call partner. The information obtained from the packet communication analysis unit 3 is information obtained by analyzing a packet such as the presence / absence of current packet communication, identification of whether mail transmission / reception or web browsing is being performed by a browser, or identification of a connection site. The information that can be acquired from the voice recognition unit 4 is the user's emotions assumed from the conversation speed, sound pressure, etc. of the user. Information that can be acquired from the acceleration sensor 5 is the acceleration of the user.

すなわち、ユーザが物に衝突したり転倒した場合には、急激に加速度が変化するのでこのような状態を検出することができる。また、端末操作検出部6で取得可能な情報は、ユーザのキー操作である。これらの情報の他に、充電中検出部7は、移動体通信端末20−1の情報として、充電中か否か、などの情報を得ることができる。   That is, when the user collides with an object or falls, the acceleration changes suddenly, so that such a state can be detected. Information that can be acquired by the terminal operation detection unit 6 is a user's key operation. In addition to these pieces of information, the charging detector 7 can obtain information such as whether charging is in progress as information of the mobile communication terminal 20-1.

以上のような詳細なデータをそのまま相手の移動体通信端末20−2および非移動体通信端末50に転送すると、ユーザの現在位置やキー操作など詳細なデータが相手に筒抜けになってしまう。本サービスは、相手の状態がわかることが特徴ではあるが、一般的に、ユーザは、詳細な自分の情報が第三者に筒抜けになる状態を嫌うと思われる。   If the detailed data as described above is transferred as it is to the other party's mobile communication terminal 20-2 and the non-mobile communication terminal 50, detailed data such as the user's current position and key operation will be lost to the other party. Although this service is characterized by the fact that the other party's status is known, it is generally considered that the user dislikes a situation in which his / her detailed information is unclear to a third party.

以上の理由から、サーバ30は移動体通信端末20−1から転送されてきた詳細な情報の一部もしくは全部を取得した後、制御情報生成部33によって、抽象化する。このとき、詳細なユーザの情報とこれを抽象化した曖昧なユーザ情報との対応関係は抽象化データベース35に格納されている。制御情報生成部33は、選択情報保持部34に問い合わせることで、どのような曖昧情報を生成すればよいかわかる。   For the above reasons, the server 30 obtains part or all of the detailed information transferred from the mobile communication terminal 20-1, and then abstracts it by the control information generation unit 33. At this time, the correspondence between detailed user information and ambiguous user information obtained by abstracting this is stored in the abstract database 35. The control information generation unit 33 makes an inquiry to the selection information holding unit 34 to know what kind of ambiguous information should be generated.

なお、選択情報保持部34は、あらかじめ移動体通信端末20−1のユーザからの選択情報を保持している必要がある。ユーザは自分の状態をどの程度、曖昧に変換するかというポリシを選択情報として選択情報保持部34にあらかじめ登録する。   In addition, the selection information holding | maintenance part 34 needs to hold | maintain the selection information from the user of the mobile communication terminal 20-1 beforehand. The user registers in advance in the selection information holding unit 34 a policy regarding how much his state is to be ambiguously converted as selection information.

その登録方法は、位置情報、感情の情報、移動情報、忙しさの情報など、それぞれの曖昧程度のポリシを個別に登録することができるが、それ以外にも、全体的な曖昧程度を指定し、個別の曖昧程度の設定は制御情報生成部33が判断して自動的に行うようにすることもできる。例えば、曖昧程度を“高”、“中”、“低”に分類して設定する。すなわち、曖昧程度が“高”は、“低”と比較してより曖昧であることを意味する。   The registration method can individually register policies of each ambiguity such as location information, emotion information, movement information, busyness information, etc. In addition to that, specify the overall ambiguity level. The individual ambiguity setting can be automatically determined by the control information generator 33. For example, the ambiguity is classified and set as “high”, “medium”, and “low”. That is, the degree of ambiguity “high” means that it is more ambiguous than “low”.

(第七実施例)
第七実施例としてGPS部1からの検出情報に基づく制御情報生成の一例を図7のフローチャートを参照して説明する。制御情報生成部33は、GPS部1から送られてきた検出情報に基づき図7に示すような制御情報を生成する。プログラム実行部11は、通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図8に示す。
(Seventh embodiment)
As a seventh embodiment, an example of control information generation based on detection information from the GPS unit 1 will be described with reference to a flowchart of FIG. The control information generation unit 33 generates control information as shown in FIG. 7 based on the detection information sent from the GPS unit 1. The program execution unit 11 controls the shape or behavior of the avatar based on this control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

GPS部1からの検出情報は、状態推察部31に入力され、ユーザが移動中であるか否か、および、移動中であればその移動速度が推察される。その推察結果は、状態情報生成部32に入力され、制御情報生成部33が認識できる状態情報が生成される。   Detection information from the GPS unit 1 is input to the state inference unit 31 to infer whether or not the user is moving and the moving speed if the user is moving. The inference result is input to the state information generation unit 32, and state information that can be recognized by the control information generation unit 33 is generated.

なお、本実施例では、説明をわかりやすくするために、状態推察部31および状態情報生成部32および制御情報生成部33をそれぞれ別のブロックとして図示したが、状態推察部31および状態情報生成部32は、制御情報生成部33の内部機能であるとし、特にブロックを分けて設けなくてもよい。以降の実施例でも同様である。   In the present embodiment, the state inference unit 31, the state information generation unit 32, and the control information generation unit 33 are illustrated as separate blocks in order to make the description easy to understand. However, the state inference unit 31 and the state information generation unit 32 is an internal function of the control information generation unit 33, and it is not necessary to provide separate blocks. The same applies to the following embodiments.

図7に示すように、制御情報生成部33は、GPS部1の検出情報に基づく状態情報を状態情報生成部32から取得し(S30)、ユーザの現在の状態を認識する。移動がない場合は(S31)、アバターに変化は無い(S38)。移動がある場合は(S31)、その移動速度情報を抽出し(S32)、移動速度が4km/h以下であれば図8(a)に示すように“アバター歩く”という制御情報を生成する(S33)。また、移動速度が10km/h以下であれば図8(b)に示すように“アバター走る”という制御情報を生成する(S34)。また、移動速度が10km/h以上であり、公共移動手段(電車)と同じ経路をたどっていれば(S35)、それは公共移動手段(電車)を利用していることになるので図8(c)に示すように“アバター電車に乗る”という制御情報を生成する(S36)。また、移動速度が10km/h以上であり、公共移動手段(電車)と同じ経路をたどっていなければ(S35)、それは公共移動手段(電車)以外の移動手段(自動車)を利用していることになるので図8(d)に示すように“アバター車に乗る”という制御情報を生成する(S37)。また、各アバター表示に移動方向を示す表示あるいは住所などの現在位置を示す表示も併せて表示させることができる。   As illustrated in FIG. 7, the control information generation unit 33 acquires state information based on the detection information of the GPS unit 1 from the state information generation unit 32 (S30), and recognizes the current state of the user. When there is no movement (S31), there is no change in the avatar (S38). If there is movement (S31), the movement speed information is extracted (S32), and if the movement speed is 4 km / h or less, control information “walking avatar” is generated as shown in FIG. S33). If the moving speed is 10 km / h or less, control information “run avatar” is generated as shown in FIG. 8B (S34). If the moving speed is 10 km / h or more and the same route as that of the public transportation means (train) is followed (S35), it means that the public transportation means (train) is used, so that FIG. ), Control information “get on the avatar train” is generated (S36). Also, if the moving speed is 10 km / h or more and it does not follow the same route as the public transportation means (train) (S35), it uses a transportation means (automobile) other than the public transportation means (train). Therefore, as shown in FIG. 8D, control information “get on the avatar car” is generated (S37). In addition, a display indicating the moving direction or a display indicating the current position such as an address can be displayed on each avatar display.

ここで、本実施例の特徴として、選択情報保持部34に保持されているユーザからの選択情報に従い、図7に示すフローチャートの一部を無効とすることができる。例えば、ユーザが登録した曖昧程度のポリシが“中”である場合には、図7の破線で囲んだ部分のフロー(S35、S36、S37)を無効とする。また、ステップS12における“10km/h以下”という分岐条件は“4km/hを越える”に変更される。   Here, as a feature of the present embodiment, a part of the flowchart shown in FIG. 7 can be invalidated according to the selection information from the user held in the selection information holding unit 34. For example, when the ambiguous policy registered by the user is “medium”, the flow (S35, S36, S37) in the portion surrounded by the broken line in FIG. 7 is invalidated. In addition, the branch condition “less than 10 km / h” in step S12 is changed to “over 4 km / h”.

これにより、アバターによる表示としては、ユーザの移動速度(閾値4km/h)に応じて“アバター歩く”または“アバター走る”の二つだけが表示され、“アバター電車に乗る”および“アバター車に乗る”の表示は行われない。   As a result, as the display by the avatar, only two of “Avatar walk” or “Avatar run” are displayed according to the moving speed of the user (threshold value 4 km / h), and “Avatar train ride” and “Avatar car” “Ride” is not displayed.

また、ユーザが登録した曖昧程度のポリシが“高”である場合には、図7の一点鎖線で囲んだ部分のフロー(S32、S34〜S37)を無効とする。また、ステップS31のYESの分岐とステップS33とは直結される。これにより、アバターによる表示としては、ユーザの移動に伴い、移動速度とは無関係に“アバター歩く”だけが表示される。   When the ambiguous policy registered by the user is “high”, the flow (S32, S34 to S37) in the portion surrounded by the one-dot chain line in FIG. 7 is invalidated. Further, the YES branch of step S31 is directly connected to step S33. Thereby, as the display by the avatar, only “walking avatar” is displayed regardless of the moving speed as the user moves.

また、各アバター表示に、ユーザの現在位置の情報も併せて表示させる際には、ユーザが登録した曖昧程度のポリシに応じ、ポリシ“低”であれば、詳細な住所を表示、ポリシ“中”であれば、町名を表示、ポリシ“高”であれば、都道府県名を表示することができる。   In addition, when displaying information on the current position of the user together with each avatar display, if the policy is “low”, a detailed address is displayed according to the ambiguous policy registered by the user. If "", the name of the town can be displayed, and if the policy is "High", the name of the prefecture can be displayed.

(第八実施例)
第八実施例として音声認識部4からの検出情報に基づく制御情報生成の一例を図9のフローチャートを参照して説明する。制御情報生成部33は、音声認識部4から送られてきた検出情報に基づき図9に示すような制御情報を生成する。プログラム実行部11は通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図10に示す。
(Eighth Example)
As an eighth embodiment, an example of control information generation based on detection information from the speech recognition unit 4 will be described with reference to the flowchart of FIG. The control information generation unit 33 generates control information as shown in FIG. 9 based on the detection information sent from the voice recognition unit 4. The program execution unit 11 controls the shape or behavior of the avatar based on the control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

音声認識部4からの検出情報は、状態推察部31に入力され、ユーザの通話中における音圧および会話速度が推察される。その推察結果は、状態情報生成部32に入力され、制御情報生成部33が認識できる状態情報が生成される。   Detection information from the voice recognition unit 4 is input to the state inference unit 31 to infer the sound pressure and conversation speed during the user's call. The inference result is input to the state information generation unit 32, and state information that can be recognized by the control information generation unit 33 is generated.

図9に示すように、制御情報生成部33は、音声認識部4の検出情報に基づく状態情報を状態情報生成部32から取得し(S40)、ユーザの現在の状態を認識する。   As shown in FIG. 9, the control information generation unit 33 acquires state information based on the detection information of the voice recognition unit 4 from the state information generation unit 32 (S40), and recognizes the current state of the user.

制御情報生成部33は、前回の音圧および会話速度の情報を保持しており、これと今回の音圧および会話速度の情報とを比較して変化を抽出する(S41)。その結果、変化が無ければ(S42)、アバターも変化無しとする(S43)。音圧および会話速度が前回と比較して高くなっていれば(S42)、それはユーザが前回と比較して興奮状態になっていることがわかる。さらに、音圧および会話速度の変化の度合いから興奮度合いを分類し(S45)、興奮度合いが小さい場合には図10(a)に示すように“アバター興奮(小)”という制御情報を生成する(S48)。また、興奮度合いが中くらいの場合には図10(b)に示すように“アバター興奮(中)”という制御情報を生成する(S47)。また、興奮度合いが大きい場合には図10(c)に示すように“アバター興奮(大)”という制御情報を生成する(S46)。また、音圧および会話速度が前回と比較して低くなっていれば(S42)、それはユーザが前回と比較して平静状態になっていることがわかるので図10(d)に示すように“アバター平静”という制御情報を生成する(S44)。   The control information generation unit 33 holds the previous sound pressure and conversation speed information, and compares this with the current sound pressure and conversation speed information to extract changes (S41). As a result, if there is no change (S42), the avatar is also unchanged (S43). If the sound pressure and the conversation speed are higher than the previous time (S42), it is understood that the user is in an excited state compared to the previous time. Further, the degree of excitement is classified based on the degree of change in sound pressure and conversation speed (S45), and when the degree of excitement is small, control information “avatar excitement (small)” is generated as shown in FIG. (S48). When the degree of excitement is medium, control information “avatar excitement (medium)” is generated as shown in FIG. 10B (S47). If the degree of excitement is large, control information “Avatar excitement (large)” is generated as shown in FIG. 10C (S46). Further, if the sound pressure and the conversation speed are lower than the previous time (S42), it is understood that the user is in a calm state compared to the previous time, so as shown in FIG. Control information "Avatar calm" is generated (S44).

ここで、本実施例の特徴として、選択情報保持部34に保持されているユーザからの選択情報に従い、図9に示すフローチャートの一部を無効とすることができる。例えば、ユーザが登録した曖昧程度のポリシが“中”である場合には、図9の破線で囲んだ部分のフロー(S46)を無効とする。これにより、アバターによる表示としては図10(c)に示す“アバター興奮(大)”の状態の表示は行われない。   Here, as a feature of the present embodiment, a part of the flowchart shown in FIG. 9 can be invalidated according to the selection information from the user held in the selection information holding unit 34. For example, when the ambiguous policy registered by the user is “medium”, the flow (S46) in the portion surrounded by the broken line in FIG. 9 is invalidated. As a result, the display of “avatar excitement (large)” shown in FIG.

また、ユーザが登録した曖昧程度のポリシが“高”である場合には、図9の一点鎖線で囲んだ部分のフロー(S46、S47)を無効とする。これにより、アバターによる表示としては、図10(a)に示す“アバター興奮(小)”または図10(d)に示す“アバター平静”だけが表示される。   Further, when the ambiguous policy registered by the user is “high”, the flow (S46, S47) in the portion surrounded by the one-dot chain line in FIG. 9 is invalidated. Thereby, as the display by the avatar, only “avatar excitement (small)” shown in FIG. 10A or “avatar calm” shown in FIG. 10D is displayed.

(第九実施例)
第九実施例として通信検出部2、パケット通信解析部3、端末操作検出部6からの検出情報に基づく制御情報生成の一例を図11のフローチャートを参照して説明する。制御情報生成部33は、通信検出部2、パケット通信解析部3、端末操作検出部6から送られてきた検出情報に基づき図11に示すような制御情報を生成する。プログラム実行部11は、通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図12に示す。
(Ninth Example)
As a ninth embodiment, an example of control information generation based on detection information from the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 will be described with reference to the flowchart of FIG. The control information generator 33 generates control information as shown in FIG. 11 based on the detection information sent from the communication detector 2, the packet communication analyzer 3, and the terminal operation detector 6. The program execution unit 11 controls the shape or behavior of the avatar based on this control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

通信検出部2、パケット通信解析部3、端末操作検出部6からの検出情報は、それぞれ状態推察部31に入力され、ユーザの通話状態およびパケット通信状態および端末操作状態がそれぞれ推察される。その推察結果は、状態情報生成部32に入力され、制御情報生成部33が認識できる状態情報が生成される。   Detection information from the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 is input to the state inference unit 31, and the user's call state, packet communication state, and terminal operation state are inferred. The inference result is input to the state information generation unit 32, and state information that can be recognized by the control information generation unit 33 is generated.

図11に示すように、制御情報生成部33は、通信検出部2、パケット通信解析部3、端末操作検出部6の検出情報に基づく状態情報を状態情報生成部15から取得し(S50)、ユーザの現在の通話状態およびパケット通信状態および端末操作状態をそれぞれ認識する(S51)。   As shown in FIG. 11, the control information generation unit 33 acquires state information based on the detection information of the communication detection unit 2, the packet communication analysis unit 3, and the terminal operation detection unit 6 from the state information generation unit 15 (S50). The user's current call state, packet communication state, and terminal operation state are recognized (S51).

その結果、通話およびパケット通信および端末操作が全て頻繁でなければ(S52)、図12(a)に示すように“アバター居眠り”という制御情報を生成する(S56)。また、通話中が多ければ(S53)、図12(b)に示すように“アバター電話中”という制御情報を生成する(S57)。また、パケット通信中が多く(S54)、その通信先がゲームのサイトであれば(S55)、図12(d)に示すように“アバターゲーム中”という制御情報を生成する(S59)。また、その通知先がメールであれば(S55)、図12(e)に示すように“アバターメール中”という制御情報を生成する(S60)。また、その通信先がWebブラウジングであれば(S55)、図12(f)に示すように“アバターWebブラウジング中”という制御情報を生成する(S61)。   As a result, if all calls, packet communications, and terminal operations are not frequent (S52), control information “Avatar doze” is generated as shown in FIG. 12A (S56). If there are many calls (S53), control information “Avatar on call” is generated as shown in FIG. 12B (S57). If there are many packet communications (S54) and the communication destination is a game site (S55), control information “Avatar game in progress” is generated as shown in FIG. 12D (S59). If the notification destination is mail (S55), control information “Avatar mail is in progress” is generated as shown in FIG. 12E (S60). If the communication destination is Web browsing (S55), control information “Avatar Web browsing in progress” is generated as shown in FIG. 12F (S61).

ここで、本実施例の特徴として、選択情報保持部34に保持されているユーザからの選択情報に従い、図11に示すフローチャートの一部を無効とすることができる。例えば、ユーザが登録した曖昧程度のポリシが“中”である場合には、図11の破線で囲んだ部分のフロー(S59)を無効とする。これにより、アバターによる表示としては図12(d)に示す“アバターゲーム中”の状態の表示は行われない。   Here, as a feature of the present embodiment, a part of the flowchart shown in FIG. 11 can be invalidated according to the selection information from the user held in the selection information holding unit 34. For example, when the ambiguous policy registered by the user is “medium”, the flow (S59) in the portion surrounded by the broken line in FIG. 11 is invalidated. As a result, the display of “in avatar game” shown in FIG. 12D is not performed as the display by the avatar.

また、ユーザが登録した曖昧程度のポリシが“高”である場合には、図11の一点鎖線で囲んだ部分のフロー(S59、S61)を無効とする。これにより、アバターによる表示としては、図12(d)に示す“アバターゲーム中”および図12(f)に示す“アバターWebブラウジング中”の状態の表示は行われない。   Further, when the ambiguous policy registered by the user is “high”, the flow (S59, S61) in the portion surrounded by the one-dot chain line in FIG. 11 is invalidated. Thereby, as the display by the avatar, the display of “in avatar game” shown in FIG. 12D and “in avatar web browsing” shown in FIG. 12F is not performed.

(第十実施例)
第十実施例としてGPS部1、加速度センサ5からの検出情報に基づく制御情報生成の一例を図13のフローチャートを参照して説明する。制御情報生成部33は、GPS部1、加速度センサ5から送られてきた検出情報に基づき図13に示すような制御情報を生成する。プログラム実行部11は、通信機能部13により受信されたこの制御情報に基づきアバターの形状または挙動を制御する。このアバターの形状または挙動の例を図14に示す。
(Tenth embodiment)
An example of control information generation based on detection information from the GPS unit 1 and the acceleration sensor 5 will be described as a tenth embodiment with reference to a flowchart of FIG. The control information generation unit 33 generates control information as shown in FIG. 13 based on the detection information sent from the GPS unit 1 and the acceleration sensor 5. The program execution unit 11 controls the shape or behavior of the avatar based on this control information received by the communication function unit 13. An example of the shape or behavior of this avatar is shown in FIG.

GPS部1、加速度センサ5からの検出情報は、それぞれ状態推察部31に入力され、ユーザの移動速度および加速度の状態がそれぞれ推察される。その推察結果は、状態情報生成部32に入力され、制御情報生成部33が認識できる状態情報が生成される。   Detection information from the GPS unit 1 and the acceleration sensor 5 is input to the state inference unit 31 to infer the user's moving speed and acceleration state, respectively. The inference result is input to the state information generation unit 32, and state information that can be recognized by the control information generation unit 33 is generated.

図13に示すように、制御情報生成部33は、GPS部1、加速度センサ5の検出情報に基づく状態情報を状態情報生成部32から取得し(S70)、ユーザの現在の移動速度および加速度をそれぞれ認識する(S71)。   As illustrated in FIG. 13, the control information generation unit 33 acquires state information based on detection information of the GPS unit 1 and the acceleration sensor 5 from the state information generation unit 32 (S70), and obtains the current moving speed and acceleration of the user. Recognize each (S71).

その結果、急激な加速度の変化がなければ(S72)、“アバター変化無し”という制御情報を生成する(S75)。あるいは、急激な加速度の変化があっても(S72)、移動速度に変化がなければ(S73)、“アバター変化無し”という制御情報を生成する(S75)。   As a result, if there is no sudden acceleration change (S72), control information “no avatar change” is generated (S75). Alternatively, even if there is a sudden change in acceleration (S72), if there is no change in the moving speed (S73), control information “no avatar change” is generated (S75).

急激な加速度変化があり(S72)、移動速度が停止を示す場合には(S73)、それは、ユーザが物に衝突あるいは転倒した確率が高いと判断できる。この際に、停止直前の移動速度が大きければ大きいほど、事故の規模は大きいと推察できるので、停止直前の移動速度の“大”、“中”、“小”に応じてそれぞれ図14(c)に示すように“アバター事故(大)”、図14(b)に示すように“アバター事故(中)”、図14(a)に示すように“アバター事故(小)”という制御情報をそれぞれ生成する(S76、S77、S78)。   If there is a sudden acceleration change (S72) and the moving speed indicates a stop (S73), it can be determined that the probability that the user has collided with or fell over the object is high. At this time, it can be inferred that the larger the moving speed just before the stop, the larger the accident, so FIG. 14 (c) respectively according to the “high”, “medium”, and “small” moving speeds just before the stop. ) Control information “Avatar accident (large)”, “avatar accident (medium)” as shown in FIG. 14B, and “avatar accident (small)” as shown in FIG. 14 (a). Each is generated (S76, S77, S78).

ここで、本実施例の特徴として、選択情報保持部34に保持されているユーザからの選択情報に従い、図13に示すフローチャートの一部を無効とすることができる。例えば、ユーザが登録した曖昧程度のポリシが“中”である場合には、図13の破線で囲んだ部分のフロー(S76)を無効とする。これにより、アバターによる表示としては図14(c)に示す“アバター事故(大)”の状態の表示は行われない。   Here, as a feature of the present embodiment, a part of the flowchart shown in FIG. 13 can be invalidated according to the selection information from the user held in the selection information holding unit 34. For example, when the ambiguous policy registered by the user is “medium”, the flow (S76) in the portion surrounded by the broken line in FIG. 13 is invalidated. Thereby, the display of the state of “avatar accident (large)” shown in FIG. 14C is not performed as the display by the avatar.

また、ユーザが登録した曖昧程度のポリシが“高”である場合には、図13の一点鎖線で囲んだ部分のフロー(S76、S77)を無効とする。これにより、アバターによる表示としては、図14(b)に示す“アバター事故(中)”および図14(c)に示す“アバター事故(大)”の状態の表示は行われない。   Further, when the ambiguous policy registered by the user is “high”, the flow (S76, S77) of the portion surrounded by the one-dot chain line in FIG. 13 is invalidated. As a result, the display of “avatar accident (middle)” shown in FIG. 14B and “avatar accident (large)” shown in FIG.

(その他の実施例)
第一〜第四実施例の他にも、充電中検出部7が充電中を検出したときには、“アバター充電中”という制御情報を生成することができる。
(Other examples)
In addition to the first to fourth embodiments, when the charging detection unit 7 detects charging, control information “charging avatar” can be generated.

本実施例は、汎用の情報処理装置にインストールすることにより、その情報処理装置に、本実施例の移動体通信端末20−1、20−2またはサーバ30またはゲートウェイ40または非移動体通信端末50またはユーザ認証装置51が行う図2、図3、図6、図7、図9、図11、図13に示した各手順をそれぞれ実行させるプログラムとして実現することができる。このプログラムは、記録媒体に記録されて情報処理装置にインストールされ、あるいは通信回線を介して情報処理装置にインストールされることにより当該情報処理装置に、移動体通信端末20−1、20−2またはサーバ30またはゲートウェイ40または非移動体通信端末50またはユーザ認証装置51が行う図2、図3、図6、図7、図9、図11、図13の各手順をそれぞれ実行させる機能を実現させることができる。   In the present embodiment, by installing in a general-purpose information processing apparatus, the mobile communication terminals 20-1, 20-2 or the server 30 or the gateway 40 or the non-mobile communication terminal 50 according to the present embodiment are installed in the information processing apparatus. Alternatively, it can be realized as a program for executing each procedure shown in FIGS. 2, 3, 6, 7, 9, 11, and 13 performed by the user authentication device 51. This program is recorded on a recording medium and installed in the information processing apparatus, or installed in the information processing apparatus via a communication line, whereby the mobile communication terminals 20-1, 20-2 or The server 30 or the gateway 40 or the non-mobile communication terminal 50 or the user authentication device 51 implements a function for executing each procedure of FIGS. 2, 3, 6, 7, 9, 11, and 13 respectively. be able to.

ここで、汎用の情報処理装置とは、例えば、移動体通信端末20−1、20−2に搭載するマイクロ・プロセッサである。または、非移動体通信端末50またはユーザ認証装置51として動作するパーソナル・コンピュータである。または、サーバ30、ゲートウェイ40に搭載するプロセッサである。   Here, the general-purpose information processing apparatus is, for example, a microprocessor installed in the mobile communication terminals 20-1 and 20-2. Alternatively, it is a personal computer that operates as the non-mobile communication terminal 50 or the user authentication device 51. Alternatively, it is a processor mounted on the server 30 and the gateway 40.

また、本実施例では、状態推察部31、状態情報生成部32、制御情報生成部33、選択情報保持部34、抽象化データベース35をサーバ30が有する機能ブロックとして説明した。これは、複数の移動体通信端末が1つのサーバ30を共通に利用できるので、リソースの有効利用の観点からそのように説明したが、これら全ての機能ブロックを移動体通信端末が有する構成を排除するものではない。   In the present embodiment, the state inference unit 31, the state information generation unit 32, the control information generation unit 33, the selection information holding unit 34, and the abstract database 35 have been described as functional blocks included in the server 30. This is because a plurality of mobile communication terminals can use one server 30 in common, so it has been described as such from the viewpoint of effective use of resources, but the configuration in which the mobile communication terminal has all these functional blocks is excluded. Not what you want.

携帯電話などの移動体通信端末におけるアバターを利用したサービスの普及に寄与することができる。   This can contribute to the spread of services using avatars in mobile communication terminals such as mobile phones.

第一実施例の移動体通信システムの全体構成図。1 is an overall configuration diagram of a mobile communication system according to a first embodiment. 第一実施例の非移動体通信端末の動作を示すフローチャート。The flowchart which shows operation | movement of the non-mobile communication terminal of a 1st Example. 第一実施例のゲートウェイの動作を示すフローチャート。The flowchart which shows operation | movement of the gateway of a 1st Example. 第一実施例の移動体通信端末のブロック構成図。The block block diagram of the mobile communication terminal of a 1st Example. 第一実施例のサーバのブロック構成図。The block block diagram of the server of a 1st Example. 第一実施例の検出情報配信手順を示すフローチャート。The flowchart which shows the detection information delivery procedure of a 1st Example. 第二および第七実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 2nd and 7th Example. 第二および第七実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of 2nd and 7th Example. 第三および第八実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 3rd and 8th Example. 第三および第八実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of the 3rd and 8th Example. 第四および第九実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 4th and 9th Example. 第四および第九実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of a 4th and 9th Example. 第五および第十実施例の制御情報生成手順の一例を示すフローチャート。The flowchart which shows an example of the control information production | generation procedure of 5th and 10th Example. 第五および第十実施例のアバターの形状または挙動の例を示す図。The figure which shows the example of the shape or behavior of the avatar of 5th and 10th Example. 第六実施例の移動体通信システムの全体構成図。The whole block diagram of the mobile communication system of 6th Example. 第六実施例の移動体通信端末のブロック構成図。The block block diagram of the mobile communication terminal of 6th Example. 第六実施例のサーバのブロック構成図。The block block diagram of the server of 6th Example.

符号の説明Explanation of symbols

1 GPS部
2 通話検出部
3 パケット通信解析部
4 音声認識部
5 加速度センサ
6 端末操作検出部
7 充電中検出部
8 ユーザ情報収集部
9 ユーザリアルタイム情報データベース
10 ユーザ基本情報データベース
11 プログラム実行部
12 ディスプレイ
13 通信機能部
14、31 状態推察部
15、32 状態情報生成部
16、33 制御情報生成部
20−1、20−2 移動体通信端末
21、41 ユーザ認証部
22、42 検出情報配信部
23 ユーザ管理データベース
24 制御情報配信部
25 選択情報送信部
30 サーバ
34 選択情報保持部
35 抽象化データベース
40 ゲートウェイ
43 制御情報中継部
50 非移動体通信端末
51 ユーザ認証装置
DESCRIPTION OF SYMBOLS 1 GPS part 2 Call detection part 3 Packet communication analysis part 4 Voice recognition part 5 Acceleration sensor 6 Terminal operation detection part 7 Charge detection part 8 User information collection part 9 User real-time information database 10 User basic information database 11 Program execution part 12 Display 13 Communication function unit 14, 31 State inference unit 15, 32 State information generation unit 16, 33 Control information generation unit 20-1, 20-2 Mobile communication terminal 21, 41 User authentication unit 22, 42 Detection information distribution unit 23 User Management database 24 Control information distribution unit 25 Selection information transmission unit 30 Server 34 Selection information holding unit 35 Abstraction database 40 Gateway 43 Control information relay unit 50 Non-mobile communication terminal 51 User authentication device

Claims (6)

移動体通信端末に備わる複数の状態検出手段により検出した検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察するステップと、
この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、
この生成された制御情報に基づきアバターの形状または挙動を制御するステップと
を実行し、
前記検出情報を共有する他移動体通信端末の情報があらかじめ定められ、
前記検出情報を当該他移動体通信端末に配信するステップを実行する
状態表示方法であって、
前記他移動体通信端末の他に、前記検出情報を共有する非移動体通信端末の情報があらかじめ定められ、
前記検出情報を当該非移動体通信端末に配信するステップを実行する際には、
当該非移動体通信端末から機器IDおよびユーザIDを含む認証要求を受け付けてユーザ認証を実行するゲートウェイが当該非移動体通信端末のユーザ認証に成功した後に、前記検出情報を当該非移動体通信端末に配信するステップを実行し、
前記制御情報を生成するステップは、所有者の状態を表す曖昧度に応じた複数のレベルのうち、前記所有者が予め指定するレベルの曖昧度のアバターの形状または挙動で表示させる制御情報を生成する
ことを特徴とする状態表示方法。
Inferring the current state of the owner of the mobile communication terminal based on detection information detected by a plurality of state detection means provided in the mobile communication terminal;
Generating control information for controlling the shape or behavior of the avatar based on the inferred state of the owner;
Controlling the shape or behavior of the avatar based on the generated control information,
Information of other mobile communication terminals that share the detection information is predetermined,
A state display method for executing the step of delivering the detection information to the other mobile communication terminal,
In addition to the other mobile communication terminal, information of a non-mobile communication terminal that shares the detection information is predetermined,
When executing the step of delivering the detection information to the non-mobile communication terminal,
After the gateway that receives the authentication request including the device ID and the user ID from the non-mobile communication terminal and performs user authentication succeeds in the user authentication of the non-mobile communication terminal, the detection information is transferred to the non-mobile communication terminal. run the step to be delivered to,
The step of generating the control information generates control information to be displayed with the shape or behavior of the avatar having a level of ambiguity specified in advance by the owner among a plurality of levels corresponding to the ambiguity representing the state of the owner. A state display method characterized by:
複数の状態検出手段と、
この状態検出手段からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する手段と、
この推察する手段により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する手段と、
この生成する手段により生成された制御情報に基づきアバターの形状または挙動を制御する手段と
を備えた移動体通信端末と、
この移動体通信端末と通信回線により接続されるサーバを備え、
このサーバは、
前記検出情報を共有する他移動体通信端末の情報を保持する手段と、
この保持する手段に保持された前記他移動通信端末の情報を参照し、前記検出情報を当該他移動体通信端末に配信する手段と
を備え、
前記移動体通信端末は、前記検出情報を前記サーバに転送する手段を備えた
移動体通信システムであって、
前記サーバは、前記他移動体通信端末の他に、前記検出情報を共有する非移動体通信端末の情報を保持する手段を備え、
当該非移動体通信端末は、機器IDおよびユーザIDを含む認証要求を送出する手段を備え、
この認証要求を受け付けてユーザ認証を実行するゲートウェイが設けられ、
前記サーバは、このゲートウェイが当該非移動体通信端末のユーザ認証に成功した後に、前記検出情報を当該非移動体通信端末に配信する手段を備え、
前記制御情報を生成する手段は、所有者の状態を表す曖昧度に応じた複数のレベルのうち、前記所有者が予め指定するレベルの曖昧度のアバターの形状または挙動で表示させる制御情報を生成する手段を含む
ことを特徴とする移動体通信システム。
A plurality of state detection means;
Means for inferring the current state of the owner of the mobile communication terminal based on detection information from the state detection means;
Means for generating control information for controlling the shape or behavior of the avatar based on the state of the owner inferred by the means for inferring;
A mobile communication terminal comprising: means for controlling the shape or behavior of the avatar based on the control information generated by the generating means;
A server connected to the mobile communication terminal via a communication line;
This server
Means for holding information of other mobile communication terminals sharing the detection information;
Means for referring to the information of the other mobile communication terminal held in the holding means, and delivering the detection information to the other mobile communication terminal;
The mobile communication terminal is a mobile communication system comprising means for transferring the detection information to the server,
In addition to the other mobile communication terminal, the server includes means for holding information of a non-mobile communication terminal that shares the detection information,
The non-mobile communication terminal includes means for sending an authentication request including a device ID and a user ID,
A gateway for accepting this authentication request and executing user authentication is provided,
The server comprises means for delivering the detection information to the non-mobile communication terminal after the gateway has succeeded in user authentication of the non-mobile communication terminal,
The means for generating the control information generates control information to be displayed with the shape or behavior of the avatar having a level of ambiguity specified in advance by the owner among a plurality of levels corresponding to the ambiguity representing the state of the owner. A mobile communication system comprising means for performing
請求項2記載の移動体通信システムに設けられ、
前記非移動体通信端末からの機器IDおよびユーザIDを含む認証要求を受け付けてユーザ認証を実行する手段を備えた
ゲートウェイ。
Provided in the mobile communication system according to claim 2,
A gateway comprising means for accepting an authentication request including a device ID and a user ID from the non-mobile communication terminal and executing user authentication.
移動体通信端末に備わる複数の状態検出手段により検出した検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察するステップと、
この推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成するステップと、
この生成された制御情報に基づきアバターの形状または挙動を制御するステップと
を実行し、
同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、
前記制御情報を生成するステップの実行に先立って、この制御パターンのいずれかを選択するステップと、
この選択結果に基づき前記制御情報を生成するステップと
を実行し、
前記制御情報を共有する他移動体通信端末の情報があらかじめ定められ、
前記制御情報を当該他移動体通信端末に配信するステップを実行する
状態表示方法であって、
前記他移動体通信端末の他に、前記制御情報を共有する非移動体通信端末の情報があらかじめ定められ、
前記制御情報を当該非移動体通信端末に配信するステップを実行する際には、
当該非移動体通信端末から機器IDおよびユーザIDを含む認証要求を受け付けてユーザ認証を実行するゲートウェイが当該非移動体通信端末のユーザ認証に成功した後に、前記制御情報を当該非移動体通信端末に配信するステップを実行し、
前記制御情報を生成するステップは、所有者の状態を表す曖昧度に応じた複数のレベルのうち、前記所有者が予め指定するレベルの曖昧度のアバターの形状または挙動で表示させる制御情報を生成する
ことを特徴とする状態表示方法。
Inferring the current state of the owner of the mobile communication terminal based on detection information detected by a plurality of state detection means provided in the mobile communication terminal;
Generating control information for controlling the shape or behavior of the avatar based on the inferred state of the owner;
Controlling the shape or behavior of the avatar based on the generated control information, and
A plurality of control patterns of the shape or behavior of the avatar corresponding to the same state are provided,
Prior to execution of the step of generating the control information, selecting any of the control patterns;
Generating the control information based on the selection result, and
Information of other mobile communication terminals that share the control information is predetermined,
A state display method for executing the step of delivering the control information to the other mobile communication terminal,
In addition to the other mobile communication terminal, information of a non-mobile communication terminal that shares the control information is predetermined,
When executing the step of delivering the control information to the non-mobile communication terminal,
After the gateway that receives the authentication request including the device ID and the user ID from the non-mobile communication terminal and performs user authentication succeeds in the user authentication of the non-mobile communication terminal, the control information is transferred to the non-mobile communication terminal. run the step to be delivered to,
The step of generating the control information generates control information to be displayed with the shape or behavior of the avatar having a level of ambiguity specified in advance by the owner among a plurality of levels corresponding to the ambiguity representing the state of the owner. A state display method characterized by:
複数の状態検出手段を備えた移動体通信端末と、
この状態検出手段からの検出情報に基づき当該移動体通信端末の所有者の現在の状態を推察する手段と、
この推察する手段により推察された前記所有者の状態に基づきアバターの形状または挙動を制御する制御情報を生成する手段と
を備えたサーバと
を備え、
前記移動体通信端末は、前記制御情報に基づきアバターの形状または挙動を制御する手段を備え、
同一の前記状態に対応する前記アバターの形状または挙動の制御パターンが複数設けられ、
前記制御情報を生成する手段は、
前記制御情報の生成に先立って、この制御パターンのいずれかを選択する情報を前記移動体通信端末から受け取って保持する手段と、
この選択する情報に基づき前記制御情報を生成する手段と
を備え、
前記移動体通信端末は、前記サーバに前記選択する情報を送信する手段を備え、
前記サーバは、
前記制御情報を共有する他移動体通信端末の情報を保持する手段と、
この保持する手段に保持された前記他移動通信端末の情報を参照し、前記制御情報を当該他移動体通信端末に配信する手段と
を備えた移動体通信システムであって、
前記サーバは、前記他移動体通信端末の他に、前記制御情報を共有する非移動体通信端末の情報を保持する手段を備え、
当該非移動体通信端末は、機器IDおよびユーザIDを含む認証要求を送出する手段を備え、
この認証要求を受け付けてユーザ認証を実行するゲートウェイが設けられ、
前記サーバは、このゲートウェイが当該非移動体通信端末のユーザ認証に成功した後に、前記制御情報を当該非移動体通信端末に配信する手段を備え
前記制御情報を生成する手段は、所有者の状態を表す曖昧度に応じた複数のレベルのうち、前記所有者が予め指定するレベルの曖昧度のアバターの形状または挙動で表示させる制御情報を生成する手段を含む
ことを特徴とする移動体通信システム。
A mobile communication terminal comprising a plurality of state detection means;
Means for inferring the current state of the owner of the mobile communication terminal based on detection information from the state detection means;
A server comprising: means for generating control information for controlling the shape or behavior of the avatar based on the state of the owner inferred by the means for inferring;
The mobile communication terminal comprises means for controlling the shape or behavior of an avatar based on the control information,
A plurality of control patterns of the shape or behavior of the avatar corresponding to the same state are provided,
The means for generating the control information includes:
Prior to generating the control information, means for receiving and holding information for selecting any one of the control patterns from the mobile communication terminal;
Means for generating the control information based on the information to be selected,
The mobile communication terminal comprises means for transmitting the information to be selected to the server,
The server
Means for holding information of other mobile communication terminals sharing the control information;
A mobile communication system comprising: means for referring to the information of the other mobile communication terminal held in the holding means and delivering the control information to the other mobile communication terminal;
In addition to the other mobile communication terminal, the server includes means for holding information of a non-mobile communication terminal that shares the control information,
The non-mobile communication terminal includes means for sending an authentication request including a device ID and a user ID,
A gateway for accepting this authentication request and executing user authentication is provided,
The server includes means for distributing the control information to the non-mobile communication terminal after the gateway has succeeded in user authentication of the non-mobile communication terminal .
The means for generating the control information generates control information to be displayed with the shape or behavior of the avatar having a level of ambiguity specified in advance by the owner among a plurality of levels corresponding to the ambiguity representing the state of the owner. A mobile communication system comprising means for performing
請求項5記載の移動体通信システムに設けられ、
前記非移動体通信端末からの機器IDおよびユーザIDを含む認証要求を受け付けてユーザ認証を実行する手段を備えた
ゲートウェイ。
Provided in the mobile communication system according to claim 5;
A gateway comprising means for accepting an authentication request including a device ID and a user ID from the non-mobile communication terminal and executing user authentication.
JP2004172882A 2004-06-10 2004-06-10 Status display method, mobile communication system, and gateway Expired - Fee Related JP4131717B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004172882A JP4131717B2 (en) 2004-06-10 2004-06-10 Status display method, mobile communication system, and gateway

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004172882A JP4131717B2 (en) 2004-06-10 2004-06-10 Status display method, mobile communication system, and gateway

Publications (2)

Publication Number Publication Date
JP2005354391A JP2005354391A (en) 2005-12-22
JP4131717B2 true JP4131717B2 (en) 2008-08-13

Family

ID=35588462

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004172882A Expired - Fee Related JP4131717B2 (en) 2004-06-10 2004-06-10 Status display method, mobile communication system, and gateway

Country Status (1)

Country Link
JP (1) JP4131717B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130173210A1 (en) * 2011-12-29 2013-07-04 Matthias Cwik Method for determining an average rotational speed of a rotating transmission shaft of an internal combustion engine

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5359190B2 (en) * 2008-10-27 2013-12-04 日本電気株式会社 Standby screen setting system, standby screen setting method, and standby screen setting program
EP2924659A4 (en) * 2012-11-22 2016-07-13 Sony Corp Information processing device, system, information processing method and program
JP6225469B2 (en) * 2013-04-26 2017-11-08 株式会社ニコン Apparatus, information processing apparatus, method, and program
JP7459303B2 (en) 2020-12-25 2024-04-01 三菱電機株式会社 Information processing device, presentation system, presentation support method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3660198B2 (en) * 1999-04-16 2005-06-15 日本電信電話株式会社 Three-dimensional shared virtual space display method, three-dimensional shared virtual space communication system and method, virtual conference system, and recording medium recording user terminal program therefor
JP2002305758A (en) * 2001-04-04 2002-10-18 Nippon Telegr & Teleph Corp <Ntt> Device and system for presence communication
JP2002314963A (en) * 2001-04-18 2002-10-25 Nippon Telegr & Teleph Corp <Ntt> Communication system
JP2002366495A (en) * 2001-06-11 2002-12-20 Yuji Harada Mutual situation notification system
JP2003242095A (en) * 2002-02-15 2003-08-29 Nippon Telegr & Teleph Corp <Ntt> Virtual space display method and device therefor, virtual space display program and recording medium with the program recorded thereon

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130173210A1 (en) * 2011-12-29 2013-07-04 Matthias Cwik Method for determining an average rotational speed of a rotating transmission shaft of an internal combustion engine

Also Published As

Publication number Publication date
JP2005354391A (en) 2005-12-22

Similar Documents

Publication Publication Date Title
EP1388246B1 (en) Context sensitive web services
CN103873342B (en) A kind of method for adding social group, terminal and system
CN1878599B (en) Game apparatus and game method
US20110295551A1 (en) Location-based novelty index value and recommendation system and method
KR100861591B1 (en) System and method for providing bidirectional message communication services with portable terminals
CN113018851B (en) Game processing method, device, computer equipment and storage medium
EP0920664A2 (en) Method and apparatus to achieve minimum cost on-line access
KR20050054539A (en) Apparatus and method for providing user mobility of sip-based
US20100151845A1 (en) Presence based communication control
EP2645285A1 (en) Gripping characteristics learning authentication system and gripping characteristics learning authentication method
CN101521677B (en) Information distribution system
CN109120789A (en) Message prompt method, device, terminal and storage medium
US20170279745A1 (en) Enhancing network messaging with a real-time, interactive representation of current messaging activity of a user&#39;s contacts and associated contacts
GB2344491A (en) Browsing the Internet using a mobile telephone
JP4131717B2 (en) Status display method, mobile communication system, and gateway
JP4198643B2 (en) Status display method, mobile communication system, and server
CN108494851B (en) Application program recommended method, device and server
JP4288317B2 (en) Status display method, mobile communication terminal and system
KR20030063791A (en) System for Processing Clients Certification and Event Information by Mixing the Wire·Wireless Network
CN107579902A (en) Method for seeking help and help-asking system
KR102212363B1 (en) Backpack Device and Service System supporting the same
KR100873421B1 (en) System for Processing Certificate Information
JP3879391B2 (en) Audio distribution method and apparatus
WO2014063536A1 (en) Method and apparatus for controlling internet access
KR102533673B1 (en) Method and apparatus for providing group activity service

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060718

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080527

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080527

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110606

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120606

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130606

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140606

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees