JP6989197B1 - Avatar output device, information system, avatar output method, and program - Google Patents

Avatar output device, information system, avatar output method, and program Download PDF

Info

Publication number
JP6989197B1
JP6989197B1 JP2021146821A JP2021146821A JP6989197B1 JP 6989197 B1 JP6989197 B1 JP 6989197B1 JP 2021146821 A JP2021146821 A JP 2021146821A JP 2021146821 A JP2021146821 A JP 2021146821A JP 6989197 B1 JP6989197 B1 JP 6989197B1
Authority
JP
Japan
Prior art keywords
item
information
avatar
output
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021146821A
Other languages
Japanese (ja)
Other versions
JP2023039611A (en
Inventor
大樹 半田
拓紀 栗本
Original Assignee
クラスター株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラスター株式会社 filed Critical クラスター株式会社
Priority to JP2021146821A priority Critical patent/JP6989197B1/en
Priority to JP2021188858A priority patent/JP2023039880A/en
Application granted granted Critical
Publication of JP6989197B1 publication Critical patent/JP6989197B1/en
Publication of JP2023039611A publication Critical patent/JP2023039611A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

【課題】従来、条件に応じた異なるアイテムモーション情報を用いて、柔軟にアイテムを動作させることができなかった。【解決手段】アバター情報が格納されるアバター格納部212と、アイテム表示情報を有するアイテム情報が格納されるアイテム格納部213と、ユーザからの操作を受け付ける操作受付部222と、操作に基づいて、アイテム表示情報に予め対応付いているアイテムモーション情報を取得し、アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第一出力態様、およびユーザの動作を含む操作に基づいて、アイテムモーション情報を構成し、アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第二出力態様を含む2以上の態様のうちの、少なくとも一の態様の出力を、予め決められたアイテム条件に基づいて行う出力部26とを具備するアバター出力装置2により、上記課題を解決できる。【選択図】図3PROBLEM TO BE SOLVED: To flexibly operate an item by using different item motion information according to a condition. SOLUTION: An avatar storage unit 212 for storing avatar information, an item storage unit 213 for storing item information having item display information, an operation reception unit 222 for receiving an operation from a user, and an operation reception unit 222, based on the operation. Item motion based on the first output mode that acquires the item motion information that corresponds to the item display information in advance and outputs the item and avatar that performs the action using the item motion information, and the operation including the user's action. Output of at least one of two or more modes including a second output mode that configures information and outputs an item and an avatar that performs an operation using item motion information is set to a predetermined item condition. The above-mentioned problem can be solved by the avatar output device 2 including the output unit 26 which is performed based on the above. [Selection diagram] Fig. 3

Description

本発明は、アバターとアイテムとを出力するアバター出力装置等に関するものである。 The present invention relates to an avatar output device or the like that outputs an avatar and an item.

従来、インターネット生放送などで、番組や演者へ賛同や称賛を示す目的で仮想アイテムの投げ込みを行う際に、過度の投げ込みの集中を防ぎ、投げ込みを行うユーザのモチベーションを向上させるための技術があった(特許文献1参照)。 Conventionally, there has been a technique for preventing excessive concentration of throwing and improving the motivation of the throwing user when throwing a virtual item for the purpose of showing approval or praise to a program or a performer in live Internet broadcasting or the like. (See Patent Document 1).

特開2020−161159号公報Japanese Unexamined Patent Publication No. 2020-161159

しかしながら、従来技術においては、条件に応じた異なるアイテムモーション情報を用いて、柔軟にアイテムを動作させることが容易ではなかった。 However, in the prior art, it has not been easy to flexibly operate an item by using different item motion information according to a condition.

例えば、様々なデバイスの種類(例えば、VRデバイス、二次元デバイス等)ごとのアイテムモーション情報を用いて、柔軟にアイテムを動作させることが容易ではなかった。さらに詳細には、アイテムの作成者が、様々なデバイスの種類(例えば、VRデバイス、二次元デバイス等)を考慮したアイテムモーション情報を作成しなければならないとすると、作成者の負荷が大きい、という課題があった。なお、VRデバイスとは、仮想現実(VR)の技術を用いた装置であり、例えば、VRゴーグル、VR用ヘッドセットである。二次元デバイスは、例えば、スマートフォン、タブレット端末である。 For example, it has not been easy to flexibly operate an item by using item motion information for each type of various devices (for example, VR device, two-dimensional device, etc.). More specifically, if the creator of an item has to create item motion information that takes into account various device types (eg, VR devices, 2D devices, etc.), the burden on the creator is heavy. There was a challenge. The VR device is a device using virtual reality (VR) technology, for example, VR goggles and a headset for VR. The two-dimensional device is, for example, a smartphone or a tablet terminal.

本第一の発明のアバター出力装置は、アバターを表示するためのモデル情報を有するアバター情報が格納されるアバター格納部と、アバターが装着するアイテムの情報であり、アイテムの表示のためのアイテム表示情報を有するアイテム情報が格納されるアイテム格納部と、ユーザからの操作を受け付ける操作受付部と、操作に基づいて、アイテム表示情報に予め対応付いているアイテムモーション情報を取得し、アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第一出力態様、およびユーザの動作を含む操作に基づいて、アイテムモーション情報を構成し、アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第二出力態様を含む2以上の態様のうちの、少なくとも一の態様の出力を、予め決められたアイテム条件に基づいて行う出力部とを具備するアバター出力装置である。 The avatar output device of the first invention is an avatar storage unit that stores avatar information having model information for displaying an avatar, and information on an item worn by the avatar, and is an item display for displaying the item. Based on the operation, the item storage unit that stores the item information that has the information, the operation reception unit that accepts the operation from the user, and the item motion information that corresponds to the item display information in advance are acquired, and the item motion information is stored. Item motion information is configured based on the first output mode that outputs the item and avatar that perform the used action, and the operation including the user's action, and the item and avatar that performs the action using the item motion information are output. This is an avatar output device including an output unit that outputs at least one of two or more modes including the second output mode based on predetermined item conditions.

かかる構成により、条件に応じた異なるアイテムモーション情報を用いて、柔軟にアイテムを動作させることができる。 With such a configuration, it is possible to flexibly operate an item by using different item motion information according to a condition.

また、本第二の発明のアバター出力装置は、第一の発明に対して、アイテム条件はデバイスの種類に基づく条件であり、アバター出力装置の種類である種類識別子を取得する種類取得部をさらに具備し、種類識別子が第一種であれば第一出力態様の出力を行い、種類識別子が第二種であれば第二出力態様の出力を行う、アバター出力装置である。 Further, in the avatar output device of the second invention, the item condition is a condition based on the type of the device, and the type acquisition unit for acquiring the type identifier which is the type of the avatar output device is further added to the first invention. It is an avatar output device that outputs the first output mode if the type identifier is the first type, and outputs the second output mode if the type identifier is the second type.

かかる構成により、デバイスの種類に応じた異なるアイテムモーション情報を用いて、柔軟にアイテムを動作させることができる。 With such a configuration, it is possible to flexibly operate an item by using different item motion information according to the type of device.

また、本第三の発明のアバター出力装置は、第一または第二の発明に対して、アイテムが装着されたアバターに関する属性値を取得する属性値取得部と、属性値に応じて、アイテム表示情報に予め対応付いているアイテムモーション情報を補正する補正部と、出力部は、第一出力態様による出力を行う場合に、補正部が補正したアイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する、アバター出力装置である。 Further, the avatar output device of the third invention has an attribute value acquisition unit for acquiring an attribute value related to the avatar to which the item is attached, and an item display according to the attribute value for the first or second invention. The correction unit that corrects the item motion information that corresponds to the information in advance, and the output unit are the item and avatar that perform the operation using the item motion information corrected by the correction unit when outputting in the first output mode. It is an avatar output device that outputs.

かかる構成により、アイテムが装着されたアバターに応じて、アイテムモーション情報を補正できる。 With such a configuration, the item motion information can be corrected according to the avatar to which the item is attached.

また、本第四の発明のアバター出力装置は、第三の発明に対して、属性値取得部は、アイテムがアバターに装着された位置を特定する属性値である装着位置情報を取得し、補正部は、装着位置情報に応じて、アイテム表示情報に予め対応付いているアイテムモーション情報を補正する、アバター出力装置である。 Further, in the avatar output device of the fourth invention, with respect to the third invention, the attribute value acquisition unit acquires and corrects the attachment position information which is the attribute value for specifying the position where the item is attached to the avatar. The unit is an avatar output device that corrects the item motion information associated with the item display information in advance according to the mounting position information.

かかる構成により、アイテムが装着されたアバターにおける装着位置情報に応じて、アイテムモーション情報を補正できる。 With such a configuration, the item motion information can be corrected according to the wearing position information in the avatar on which the item is mounted.

また、本第五の発明のアバター出力装置は、第三の発明に対して、属性値取得部は、アバターの形状に関する形状属性値を取得し、補正部は、形状属性値に応じて、アイテム表示情報に予め対応付いているアイテムモーション情報を補正する、アバター出力装置である。 Further, in the avatar output device of the fifth invention, with respect to the third invention, the attribute value acquisition unit acquires the shape attribute value related to the shape of the avatar, and the correction unit obtains the item according to the shape attribute value. It is an avatar output device that corrects the item motion information that corresponds to the display information in advance.

かかる構成により、アバターの形状に関する形状属性値に応じて、モーション情報を補正できる。 With such a configuration, motion information can be corrected according to the shape attribute value related to the shape of the avatar.

また、本第六の発明のアバター出力装置は、第一から第五いずれか1つの発明に対して、アバター情報は、アバターのモーションの情報である基本モーション情報を有し、アイテム表示情報に予め対応付いているアイテムモーション情報と基本モーション情報とを合成し、合成モーション情報を取得するモーション合成部をさらに具備し、出力部は、第一出力態様による出力を行う場合に、合成モーション情報を用いた動作を行うアイテムとアバターとを出力する、アバター出力装置である。 Further, the avatar output device of the sixth invention has basic motion information which is the motion information of the avatar for any one of the first to fifth inventions, and the item display information is in advance. It further includes a motion synthesizer that synthesizes the corresponding item motion information and basic motion information and acquires the composite motion information, and the output section uses the composite motion information when outputting according to the first output mode. It is an avatar output device that outputs items and avatars that perform the actions that were performed.

かかる構成により、アイテムモーション情報と基本モーション情報とを合成して、取得した合成モーション情報を用いて、アイテムを動作させることができる。 With such a configuration, the item motion information and the basic motion information can be combined, and the item can be operated by using the acquired combined motion information.

また、本第七の発明のアバター出力装置は、第一から第六いずれか1つの発明に対して、アイテム情報は、アイテム情報に対応するアイテムをアバターが装着するための装着条件に対応付いており、出力部は、装着条件を満たさないアバターを、装着条件に対応するアイテムと共には出力しない、アバター出力装置である。 Further, in the avatar output device of the seventh invention, for any one of the first to sixth inventions, the item information corresponds to the wearing condition for the avatar to wear the item corresponding to the item information. The output unit is an avatar output device that does not output an avatar that does not satisfy the wearing condition together with an item corresponding to the wearing condition.

かかる構成により、条件に応じた異なるアイテムモーション情報を用いて、柔軟にアイテムを動作させることができる。 With such a configuration, it is possible to flexibly operate an item by using different item motion information according to a condition.

また、本第八の発明のアバター出力装置は、第一から第七いずれか1つの発明に対して、アイテムを作成する作成者の端末である作成者端末から受信されたアイテム情報を送信するサーバからアイテム情報を受信するアイテム受信部をさらに具備し、アイテム格納部のアイテム情報は、アイテム受信部が受信したアイテム情報である、アバター出力装置である。 Further, the avatar output device of the eighth invention is a server that transmits item information received from a creator terminal, which is a creator terminal for creating an item, for any one of the first to seventh inventions. It further includes an item receiving unit that receives item information from, and the item information of the item storage unit is an avatar output device that is the item information received by the item receiving unit.

かかる構成により、作成者端末から受信されたアイテム情報を用いて、アイテムを出力できる。 With such a configuration, an item can be output using the item information received from the creator terminal.

また、本第九の発明のアバター出力装置は、第一から第八いずれか1つの発明に対して、アイテムモーション情報は、アイテムの動きに関する情報であり、出力部は、アイテムモーション情報を用いて、動作を行うアイテムを出力し、かつアイテムの動作に追従するように、アイテムが装着されたアバターの部位が動作するようにアバターを出力する、アバター出力装置である。 Further, in the avatar output device of the ninth invention, for any one of the first to eighth inventions, the item motion information is information about the movement of the item, and the output unit uses the item motion information. , An avatar output device that outputs an item that performs an action and outputs an avatar so that the part of the avatar to which the item is attached moves so as to follow the action of the item.

かかる構成により、アイテムの動きに関するアイテムモーション情報を用いて、柔軟にアイテムを動作させることができる。 With such a configuration, the item can be flexibly operated by using the item motion information regarding the movement of the item.

また、本第十の発明のアバター出力装置は、第一から第八いずれか1つの発明に対して、アイテムモーション情報は、アイテムが装着されたアバターの部位の動きに関する情報であり、出力部は、アイテムモーション情報を用いて、アイテムが装着されたアバターの部位を動作させる出力をし、かつアバターの部位の動作に追従するように、アイテムが動作するようにアイテムを出力する、アバター出力装置である。 Further, in the avatar output device of the tenth invention, with respect to any one of the first to eighth inventions, the item motion information is information regarding the movement of the part of the avatar to which the item is attached, and the output unit is , With the avatar output device that outputs the item to operate the part of the avatar to which the item is attached using the item motion information, and outputs the item so that the item operates so as to follow the movement of the part of the avatar. be.

かかる構成により、アバターの部位の動きに関するアイテムモーション情報を用いて、柔軟にアイテムを動作させることができる。 With such a configuration, it is possible to flexibly move the item by using the item motion information regarding the movement of the part of the avatar.

また、本第十一の発明のサーバは、第一から第十いずれか1つの発明に対して、アバターを表示するためのモデル情報を有するアバター情報が格納されるサーバ格納部と、アイテムを作成する作成者の端末である作成者端末からアイテム情報を受信するサーバ受信部と、アバター情報とアイテム情報とを、アバター出力装置に送信するサーバ送信部とを具備するサーバである。 Further, the server of the eleventh invention creates an item and a server storage unit for storing avatar information having model information for displaying an avatar for any one of the first to eleventh inventions. It is a server including a server receiving unit that receives item information from the creator terminal, which is a terminal of the creator, and a server transmitting unit that transmits avatar information and item information to an avatar output device.

かかる構成により、条件に応じた異なるアイテムモーション情報を用いて、柔軟にアイテムを動作させるためのサーバを提供できる。 With such a configuration, it is possible to provide a server for flexibly operating an item by using different item motion information according to a condition.

また、本第十二の発明のサーバは、第十一の発明に対して、サーバ格納部には、2以上のアイテムモーション情報が格納され、サーバ受信部は、作成者端末から少なくとも一つのアイテムモーション情報の選択指示を受信し、サーバ送信部は、選択指示に対応するアイテムモーション情報を含むアイテム情報と、アバター情報とを送信する、サーバである。 Further, in the server of the twelfth invention, for the eleventh invention, two or more item motion informations are stored in the server storage unit, and the server receiving unit is at least one item from the creator terminal. The server transmission unit is a server that receives the selection instruction of the motion information and transmits the item information including the item motion information corresponding to the selection instruction and the avatar information.

かかる構成により、容易にアイテム情報を構築できる環境を提供できる。 With such a configuration, it is possible to provide an environment in which item information can be easily constructed.

本発明によるアバター出力装置によれば、条件に応じた異なるアイテムモーション情報を用いて、柔軟にアイテムを動作させることができる。 According to the avatar output device according to the present invention, it is possible to flexibly operate an item by using different item motion information according to a condition.

実施の形態1における情報システムAの概念図Conceptual diagram of the information system A in the first embodiment 同情報システムAのブロック図Block diagram of the information system A 同アバター出力装置2のブロック図Block diagram of the avatar output device 2 同サーバ1の動作例について説明するフローチャートA flowchart illustrating an operation example of the server 1. 同アバター出力装置2の動作例について説明するフローチャートA flowchart illustrating an operation example of the avatar output device 2. 同モーション情報補正処理の例について説明するフローチャートA flowchart illustrating an example of the motion information correction process. 同変更画像構成処理の例について説明するフローチャートA flowchart illustrating an example of the modified image configuration process. 同作成者端末3の動作例について説明するフローチャートA flowchart illustrating an operation example of the creator terminal 3. 同作成者Aがアイテムをサーバ1に登録する際の画面を示す図The figure which shows the screen when the creator A registers an item in a server 1. 同アバター出力装置2の出力例を示す図The figure which shows the output example of the avatar output device 2. 同アバター出力装置2の出力例を示す図The figure which shows the output example of the avatar output device 2. 同コンピュータシステムの概観図Overview of the computer system 同コンピュータシステムのブロック図Block diagram of the computer system

以下、アバター出力装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。 Hereinafter, embodiments of the avatar output device and the like will be described with reference to the drawings. In addition, since the components with the same reference numerals perform the same operation in the embodiment, the description may be omitted again.

(実施の形態1)
本実施の形態において、アバター情報とアイテム情報とが格納されており、アイテム条件に基づいて、第一出力態様でアイテムとアバターとを出力する場合と、第二出力態様でアイテムとアバターとを出力する場合とがあるアバター出力装置を具備する情報システムについて説明する。なお、アイテム条件は、例えば、デバイスの種類に基づく条件である。また、第一出力態様は、ユーザからの操作に基づいて読み出したアイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する態様である。第二出力態様は、ユーザからの操作に基づいてアイテムモーション情報を構成し、当該アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する態様である。
(Embodiment 1)
In the present embodiment, the avatar information and the item information are stored, and the item and the avatar are output in the first output mode and the item and the avatar are output in the second output mode based on the item condition. An information system including an avatar output device that may be used will be described. The item condition is, for example, a condition based on the type of device. Further, the first output mode is a mode in which an item and an avatar that perform an operation using the item motion information read out based on an operation from the user are output. The second output mode is a mode in which item motion information is configured based on an operation from the user, and an item and an avatar that perform an operation using the item motion information are output.

また、本実施の形態において、アイテムが装着されたアバターに応じて、アイテムモーション情報を補正し、当該補正したモーション情報を用いて、上述した第一出力態様を実現するアバター出力装置を具備する情報システムについて説明する。なお、アバターに応じたアイテムモーション情報の補正は、例えば、アバターにおけるアイテムの装着位置を特定する装着位置情報に応じたアイテムモーション情報の補正、アバターの形状に関する形状属性値に応じたアイテムモーション情報の補正である。 Further, in the present embodiment, information provided with an avatar output device that corrects the item motion information according to the avatar to which the item is attached and realizes the above-mentioned first output mode by using the corrected motion information. Describe the system. The item motion information correction according to the avatar is, for example, the correction of the item motion information according to the mounting position information that specifies the mounting position of the item in the avatar, and the correction of the item motion information according to the shape attribute value related to the shape of the avatar. It is a correction.

また、本実施の形態において、アバターの基本モーション情報とアイテムのモーション情報とを合成し、当該合成したモーション情報を用いて、アイテムとアバターとを出力するアバター出力装置を具備する情報システムについて説明する。 Further, in the present embodiment, an information system including an avatar output device that synthesizes the basic motion information of the avatar and the motion information of the item and outputs the item and the avatar using the synthesized motion information will be described. ..

また、本実施の形態において、アイテムに対応付けて装着条件が格納されており、装着条件に合致しないアバターには当該アイテムは装着できない制御を行うアバター出力装置を具備する情報システムについて説明する。 Further, in the present embodiment, an information system including an avatar output device for controlling that an item is stored in association with an item and the item cannot be attached to an avatar that does not meet the attachment condition will be described.

また、本実施の形態において、作成者端末からサーバ経由で受信されたアイテム情報を受信して、使用するアバター出力装置を具備する情報システムについて説明する。 Further, in the present embodiment, an information system including an avatar output device for receiving and using item information received from the creator terminal via a server will be described.

さらに、本実施の形態において、作成者端末からアイテム情報を受信し、当該アイテム情報とアバター情報とをアバター出力装置に送信するサーバを具備する情報システムについて説明する。 Further, in the present embodiment, an information system including a server that receives item information from the creator terminal and transmits the item information and the avatar information to the avatar output device will be described.

図1は、本実施の形態における情報システムAの概念図である。情報システムAは、サーバ1、1または2以上のアバター出力装置2、および1または2以上の作成者端末3を備える。 FIG. 1 is a conceptual diagram of the information system A in the present embodiment. The information system A includes a server 1, 1 or 2 or more avatar output devices 2, and 1 or 2 or more creator terminals 3.

サーバ1は、作成者端末3からアイテム情報を受信し、当該アイテム情報とアバター情報とをアバター出力装置2に送信するサーバである。サーバ1は、例えば、クラウドサーバ、ASPサーバ等である。なお、サーバ1の種類は問わない。 The server 1 is a server that receives item information from the creator terminal 3 and transmits the item information and the avatar information to the avatar output device 2. The server 1 is, for example, a cloud server, an ASP server, or the like. The type of server 1 does not matter.

アバター出力装置2は、アバターとアイテムとを出力する装置である。アバター出力装置2は、ここでは、主に、端末として説明するが、サーバでも良い。アバター出力装置2は、例えば、いわゆるパーソナルコンピュータ、タブレット端末、スマートフォン等であるが、その種類は問わない。なお、アバター出力装置2がサーバである場合、アバター出力装置2は、アバター情報とアイテム情報とを図示しないユーザ端末に送信する。 The avatar output device 2 is a device that outputs an avatar and an item. The avatar output device 2 is mainly described here as a terminal, but may be a server. The avatar output device 2 is, for example, a so-called personal computer, a tablet terminal, a smartphone, or the like, but the type thereof does not matter. When the avatar output device 2 is a server, the avatar output device 2 transmits the avatar information and the item information to a user terminal (not shown).

作成者端末3は、アイテム情報の作成者が使用する端末である。作成者端末3は、作成者が作成したアイテム情報をサーバ1に送信する。作成者端末3は、例えば、いわゆるパーソナルコンピュータ、タブレット端末、スマートフォン等であるが、その種類は問わない。 The creator terminal 3 is a terminal used by the creator of the item information. The creator terminal 3 transmits the item information created by the creator to the server 1. The creator terminal 3 is, for example, a so-called personal computer, a tablet terminal, a smartphone, or the like, but the type thereof does not matter.

図2は、本実施の形態における情報システムAのブロック図である。図3は、アバター出力装置2のブロック図である。 FIG. 2 is a block diagram of the information system A according to the present embodiment. FIG. 3 is a block diagram of the avatar output device 2.

サーバ1は、サーバ格納部11、サーバ受信部12、サーバ処理部13、およびサーバ送信部14を備える。 The server 1 includes a server storage unit 11, a server reception unit 12, a server processing unit 13, and a server transmission unit 14.

アバター出力装置2は、格納部21、受付部22、送信部23、受信部24、処理部25、および出力部26を備える。格納部21は、ワールド格納部211、アバター格納部212、およびアイテム格納部213を備える。受付部22は、指示受付部221、および操作受付部222を備える。受信部24は、ワールド受信部241、アバター受信部242、およびアイテム受信部243を備える。処理部25は、種類取得部251、属性値取得部252、補正部253、モーション合成部254、および出力構成部255を備える。 The avatar output device 2 includes a storage unit 21, a reception unit 22, a transmission unit 23, a reception unit 24, a processing unit 25, and an output unit 26. The storage unit 21 includes a world storage unit 211, an avatar storage unit 212, and an item storage unit 213. The reception unit 22 includes an instruction reception unit 221 and an operation reception unit 222. The receiving unit 24 includes a world receiving unit 241, an avatar receiving unit 242, and an item receiving unit 243. The processing unit 25 includes a type acquisition unit 251, an attribute value acquisition unit 252, a correction unit 253, a motion synthesis unit 254, and an output configuration unit 255.

作成者端末3は、端末格納部31、端末受付部32、端末処理部33、端末送信部34、端末受信部35、および端末出力部36を備える。 The creator terminal 3 includes a terminal storage unit 31, a terminal reception unit 32, a terminal processing unit 33, a terminal transmission unit 34, a terminal reception unit 35, and a terminal output unit 36.

サーバ1を構成するサーバ格納部11には、各種の情報が格納される。各種の情報とは、例えば、1または2以上のワールド情報、1または2以上のアバター情報、1または2以上のアイテム情報、2以上のアイテムモーション情報である。サーバ格納部11の各種の情報は、例えば、サーバ1の運営者の端末から受信された情報、作成者端末3から受信された情報である。 Various types of information are stored in the server storage unit 11 that constitutes the server 1. The various types of information are, for example, 1 or 2 or more world information, 1 or 2 or more avatar information, 1 or 2 or more item information, and 2 or more item motion information. The various information of the server storage unit 11 is, for example, information received from the terminal of the operator of the server 1 and information received from the creator terminal 3.

ワールド情報は、ワールドを構成するための情報である。ワールド情報の構造は問わない。ワールドは、通常、仮想的な三次元空間である。なお、ワールドは、場と言っても良い。ワールド情報は、例えば、ワールド識別子に対応付いている。ワールド識別子は、ワールド情報を識別する情報である。 World information is information for forming a world. The structure of world information does not matter. The world is usually a virtual three-dimensional space. The world can be called a place. World information corresponds to, for example, a world identifier. The world identifier is information that identifies world information.

アバター情報は、出力されるアバターを構成するための情報を含む。アバター情報は、例えば、アバター識別子に対応付いている。アバター識別子に対応付いていることは、アバター識別子を有することでも良い。アバター識別子は、例えば、アバターのIDであるが、アバターに対応するユーザのID、アバターが表示されるアバター出力装置2のID等でも良い。 The avatar information includes information for configuring the output avatar. The avatar information corresponds to, for example, the avatar identifier. Having a correspondence with an avatar identifier may also have an avatar identifier. The avatar identifier is, for example, the ID of the avatar, but may be the ID of the user corresponding to the avatar, the ID of the avatar output device 2 on which the avatar is displayed, or the like.

アバター情報は、通常、モデル情報を有する。アバター情報は、アバターの基本的なモーションの情報である基本モーション情報を有することは好適である。アバター情報は、アバターモーション情報を有しても良い。 The avatar information usually has model information. It is preferable that the avatar information has the basic motion information which is the information of the basic motion of the avatar. The avatar information may include avatar motion information.

モデル情報は、アバターの表示を構成するための情報である。モデル情報は、例えば、メッシュ情報、ボーン情報、マテリアル情報を有する。モデル情報は、例えば、glTF ?(GL Transmission Format)?のデータ構造を有する。ただし、モデル情報のデータ構造は、VRM、OBJ、FBX、STL、GLB、COLLADA、等でも良く、種類を問わない。また、アバター情報は、モデル情報の他、音声情報や1以上の属性値を有しても良い。 The model information is information for configuring the display of the avatar. The model information includes, for example, mesh information, bone information, and material information. The model information has, for example, a data structure of glTF? (GL Transmission Format) ?. However, the data structure of the model information may be VRM, OBJ, FBX, STL, GLB, COLLADA, etc., regardless of the type. Further, the avatar information may have voice information and one or more attribute values in addition to model information.

基本モーション情報は、例えば、アバターが呼吸を行う際の動きを特定する情報である。なお、基本モーション情報は、アバターモーション情報の一例である、と考えても良い。アバターモーション情報は、アバターが有する固定的なモーションの情報である。基本モーション情報、アバターモーション情報は、アバターの動きを特定する情報である。 The basic motion information is, for example, information that identifies the movement of the avatar when breathing. The basic motion information may be considered as an example of the avatar motion information. The avatar motion information is fixed motion information possessed by the avatar. The basic motion information and the avatar motion information are information for specifying the movement of the avatar.

アイテム情報は、アイテムを構成するための情報である。アイテム情報は、アイテムの表示のためのアイテム表示情報を有する。アイテム表示情報のデータ構造は問わない。アイテムは、アバターが装着する物であり、例えば、武器、剣、刀、拳銃、ボールである。アバターが装着する物は、アバターが操作する物、身に付ける物等を含むと考えても良い。 Item information is information for constituting an item. The item information has the item display information for displaying the item. The data structure of the item display information does not matter. Items are items worn by avatars, such as weapons, swords, swords, pistols, and balls. The items worn by the avatar may be considered to include items operated by the avatar, items worn by the avatar, and the like.

アイテム情報は、アイテムモーション情報を有する。アイテムモーション情報は、例えば、アイテムの動きを特定する情報である。アイテムモーション情報は、例えば、アイテムが装着されたアバターの部位の動きを特定する情報である。アイテムモーション情報は、1以上のモーション属性値に対応付いていても良い。モーション属性値は、アイテムモーション情報が特定する動作の前提となるアイテムの属性値に関する条件である。 The item information has item motion information. Item motion information is, for example, information that identifies the movement of an item. The item motion information is, for example, information that identifies the movement of a portion of the avatar to which the item is attached. The item motion information may correspond to one or more motion attribute values. The motion attribute value is a condition related to the attribute value of the item that is the premise of the operation specified by the item motion information.

モーション属性値は、例えば、「右手」である。モーション属性値「右手」と対になるアイテムモーション情報は、アイテムの装着位置が「右手」である場合のアイテムの動作を特定する情報である。モーション属性値は、例えば、「身長が1m以下」である。モーション属性値「身長が1m以下」と対になるアイテムモーション情報は、身長が1m以下のアバターを想定した場合のアイテムの動作を特定する情報である。 The motion attribute value is, for example, "right hand". The item motion information paired with the motion attribute value "right hand" is information that specifies the operation of the item when the mounting position of the item is the "right hand". The motion attribute value is, for example, "height is 1 m or less". The item motion information paired with the motion attribute value "height is 1 m or less" is information that specifies the operation of the item when an avatar with a height of 1 m or less is assumed.

基本モーション情報、アバターモーション情報、アイテムモーション情報は、モーション情報の例である。モーション情報は、例えば、プログラム、スクリプト、プログラムまたはスクリプトに与える1または2以上のパラメータである。モーション情報、アバターまたはアイテムの動きを特定する情報であれば良く、その構造や記載手段は問わない。 Basic motion information, avatar motion information, and item motion information are examples of motion information. Motion information is, for example, one or more parameters given to a program, script, program or script. Any information may be used as long as it is motion information, information that identifies the movement of an avatar or an item, and its structure or description method does not matter.

アイテム情報は、アイテム情報に対応するアイテムをアバターが装着するための装着条件に対応付いていることは好適である。装着条件は、例えば、1または2以上のアバター属性値を用いた条件である。アバター属性値は、アバターの属性値であり、例えば、形状属性値、性別、年齢等である。形状属性値は、例えば、アバターの身長、体重、サイズ、骨格の形状を特定する情報である。装着条件は、例えば、「身長>=1m」「腕を有すること」である。例えば、剣のアイテム情報に装着条件「身長>=1m」が格納されている場合、属性値「身長=80cm」のアバターは、アイテム「剣」を装着しない。例えば、拳銃のアイテム情報に装着条件「腕を有すること」が格納されている場合、腕を有さないアバターは、アイテム「拳銃」を装着しない。 It is preferable that the item information corresponds to the wearing conditions for the avatar to wear the item corresponding to the item information. The wearing condition is, for example, a condition using one or two or more avatar attribute values. The avatar attribute value is an avatar attribute value, for example, a shape attribute value, a gender, an age, and the like. The shape attribute value is, for example, information for specifying the height, weight, size, and shape of the skeleton of the avatar. The wearing conditions are, for example, "height> = 1 m" and "having an arm". For example, if the wearing condition "height> = 1m" is stored in the item information of the sword, the avatar with the attribute value "height = 80cm" does not wear the item "sword". For example, if the item information of a pistol contains the wearing condition "having an arm", the avatar without an arm does not wear the item "handgun".

サーバ受信部12は、各種の情報や指示を受信する。各種の情報や指示は、例えば、ワールド情報、アバター情報、アイテム情報、選択指示、送信指示である。 The server receiving unit 12 receives various information and instructions. Various information and instructions are, for example, world information, avatar information, item information, selection instructions, and transmission instructions.

選択指示は、サーバ格納部11に格納されている2以上のアイテムモーション情報のうち、1以上のアイテムモーション情報を選択する指示である。サーバ受信部12は、作成者端末3から選択指示を受信する。アイテムモーション情報は、アイテム作成者が簡易にアイテムを作成するために事前に用意されたテンプレートのアイテムモーションを示す情報であってもよい。かかる場合、アイテム作成者は作成者端末3に表示されたテンプレートのモーションの中から任意のモーションを選択した結果が選択指示となる。 The selection instruction is an instruction to select one or more item motion information from the two or more item motion information stored in the server storage unit 11. The server receiving unit 12 receives a selection instruction from the creator terminal 3. The item motion information may be information indicating the item motion of the template prepared in advance so that the item creator can easily create the item. In such a case, the item creator selects an arbitrary motion from the motions of the template displayed on the creator terminal 3 as a selection instruction.

送信指示は、ワールド情報、アバター情報、アイテム情報のうちの1または2種類以上の情報を送信する指示である。サーバ受信部12は、例えば、ワールド情報、アバター情報、アイテム情報のうちの1または2種類以上の情報を作成者端末3から受信する。サーバ受信部12は、例えば、送信指示をアバター出力装置2から受信する。 The transmission instruction is an instruction to transmit one or more types of information among world information, avatar information, and item information. The server receiving unit 12 receives, for example, one or more types of information from the world information, the avatar information, and the item information from the creator terminal 3. The server receiving unit 12 receives, for example, a transmission instruction from the avatar output device 2.

サーバ受信部12は、例えば、サーバの運営者の端末(図示しない)から、ワールド情報、アバター情報、アイテムモーション情報を受信する。サーバ受信部12は、例えば、作成者端末3からアイテム情報を受信する。 The server receiving unit 12 receives world information, avatar information, and item motion information from, for example, a terminal (not shown) of the server operator. The server receiving unit 12 receives item information from, for example, the creator terminal 3.

サーバ処理部13は、各種の処理を行う。各種の処理は、例えば、送信するワールド情報、アバター情報、アイテム情報のうちの1種類以上の情報を、サーバ格納部11から取得する処理である。 The server processing unit 13 performs various processes. The various processes are, for example, a process of acquiring one or more types of information among the world information, the avatar information, and the item information to be transmitted from the server storage unit 11.

サーバ送信部14は、各種の情報を送信する。各種の情報は、例えば、ワールド情報、アバター情報、アイテム情報のうちの1または2種類以上の情報である。サーバ送信部14は、例えば、サーバ処理部13が取得した情報をアバター出力装置2に送信する。 The server transmission unit 14 transmits various types of information. The various types of information are, for example, one or more types of information among world information, avatar information, and item information. The server transmission unit 14 transmits, for example, the information acquired by the server processing unit 13 to the avatar output device 2.

サーバ送信部14は、受信された選択指示に対応するアイテムモーション情報を含むアイテム情報と、アバター情報とをアバター出力装置2に送信する。 The server transmission unit 14 transmits the item information including the item motion information corresponding to the received selection instruction and the avatar information to the avatar output device 2.

アバター出力装置2を構成する格納部21には、各種の情報が格納される。各種の情報とは、例えば、ワールド情報、アバター情報、アイテム情報、アイテム条件、装着条件、後述する種類識別子である。 Various types of information are stored in the storage unit 21 that constitutes the avatar output device 2. The various types of information are, for example, world information, avatar information, item information, item conditions, wearing conditions, and type identifiers described later.

アイテム条件は、第一出力態様、第二出力態様を含む2以上の態様のうちの、一の出力態様を選択するための条件である。 The item condition is a condition for selecting one output mode from two or more modes including the first output mode and the second output mode.

アイテム条件は、例えば、アイテムのデバイスのハードウェアに関する条件であり、自動的に取得できる条件であることは好適である。ただし、アイテム条件は、ユーザが設定した条件(後述する「モード」)でも良い。 The item condition is, for example, a condition related to the hardware of the device of the item, and it is preferable that the condition can be automatically acquired. However, the item condition may be a condition set by the user (“mode” described later).

アイテム条件は、例えば、デバイスの種類に基づく条件である。デバイスの種類は、アイテムの出力デバイスの種類である。デバイスの種類は、例えば、アバター出力装置2の種類である。デバイスの種類は、例えば、「第一種」「第二種」である。「第一種」は、例えば、二次元デバイスであることを示す情報である。「第二種」は、例えば、VRデバイスであることを示す情報である。 Item conditions are, for example, conditions based on the type of device. The device type is the output device type of the item. The type of device is, for example, the type of the avatar output device 2. The types of devices are, for example, "type 1" and "type 2". The "first type" is, for example, information indicating that the device is a two-dimensional device. The "second type" is, for example, information indicating that the device is a VR device.

アイテム条件は、例えば、アバター出力装置2の処理能力に基づく条件である。かかる場合、アイテム条件は、例えば、「処理能力<閾値」「処理能力>=閾値」である。処理能力は、例えば、プロセッサのクロック数である。アイテム条件「処理能力<閾値」は第一出力態様に対応し、「処理能力>=閾値」は第二出力態様に対応する。 The item condition is, for example, a condition based on the processing capacity of the avatar output device 2. In such a case, the item condition is, for example, "processing capacity <threshold value" and "processing capacity> = threshold value". The processing power is, for example, the number of clocks of the processor. The item condition "processing capacity <threshold value" corresponds to the first output mode, and "processing capacity> = threshold value" corresponds to the second output mode.

アイテム条件は、例えば、アバター出力装置2から受信される情報の種類に関する条件でも良い。アイテム条件は、例えば、スマートフォンであるアバター出力装置2から「ボタンに対する操作」を特定する操作情報であるか否かである。 The item condition may be, for example, a condition relating to the type of information received from the avatar output device 2. The item condition is, for example, whether or not the operation information specifies "operation for a button" from the avatar output device 2 which is a smartphone.

アイテム条件は、例えば、アバター出力装置2のユーザが選択したモードである。モードは、例えば、「第一モード」「第二モード」である。「第一モード」は第一出力態様を示し、「第二モード」は第二出力態様を示す。 The item condition is, for example, a mode selected by the user of the avatar output device 2. The modes are, for example, "first mode" and "second mode". The "first mode" indicates the first output mode, and the "second mode" indicates the second output mode.

ワールド格納部211には、1または2以上のワールド情報が格納される。ワールド格納部211のワールド情報は、例えば、サーバ1から受信された情報である。 One or two or more world information is stored in the world storage unit 211. The world information of the world storage unit 211 is, for example, information received from the server 1.

アバター格納部212は、1または2以上のアバター情報が格納される。アバター格納部212のアバター情報は、例えば、サーバ1から受信された情報である。 The avatar storage unit 212 stores one or more avatar information. The avatar information of the avatar storage unit 212 is, for example, information received from the server 1.

アイテム格納部213には、1または2以上のアイテム情報が格納される。アイテム格納部213のアイテム情報は、例えば、サーバ1から受信された情報である。アイテム情報には、装着条件が対応付いていることは好適である。 One or more item information is stored in the item storage unit 213. The item information of the item storage unit 213 is, for example, information received from the server 1. It is preferable that the item information corresponds to the mounting conditions.

受付部22は、各種の情報や指示や操作を受け付ける。なお、指示は操作を含むと考えても良い。 The reception unit 22 receives various information, instructions, and operations. The instruction may be considered to include an operation.

ここで受け付けとは、通常、入力手段から入力された情報の受け付けであるが、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念であっても良い。 Here, acceptance is usually acceptance of information input from an input means, but reception of information transmitted via a wired or wireless communication line, reading from a recording medium such as an optical disk, a magnetic disk, or a semiconductor memory. It may be a concept including acceptance of issued information.

指示受付部221は、各種の指示を受け付ける。各種の指示は、例えば、送信指示、開始指示、終了指示である。開始指示は、格納部21のアバター情報やアイテム情報等を用いたアバター等の出力の開始の指示である。終了指示は、処理を終了する指示であり、例えば、画像の出力を終了する指示、電源OFFの指示である。 The instruction receiving unit 221 receives various instructions. The various instructions are, for example, a transmission instruction, a start instruction, and an end instruction. The start instruction is an instruction to start the output of the avatar or the like using the avatar information, the item information, or the like of the storage unit 21. The end instruction is an instruction to end the process, for example, an instruction to end the output of the image and an instruction to turn off the power.

操作受付部222は、ユーザからの操作を受け付ける。操作を受け付けることは、操作情報を受け付けることでも良い。操作を入力する入力手段は問わない。入力手段は、例えば、VRやゲーム用の種々の入力手段、マウス、キーボード、十字キー等であり、問わない。VRやゲーム用の入力手段は、例えば、ハンドコントローラー、ファントムである。 The operation reception unit 222 receives an operation from the user. Accepting the operation may be to accept the operation information. The input means for inputting the operation does not matter. The input means may be, for example, VR, various input means for games, a mouse, a keyboard, a cross key, or the like. The input means for VR and games are, for example, a hand controller and a phantom.

なお、入力手段が二次元デバイスである場合、操作受付部222は、例えば、ボタン操作に関する操作情報やスライド操作等を受け付ける。入力手段がVRやゲーム用の入力手段である場合、操作受付部222は、例えば、ユーザ自身の動きに対応するモーションデータを操作情報として受け付ける。なお、ボタン操作は、仮想的なボタンの操作も含むことは言うまでもない。 When the input means is a two-dimensional device, the operation reception unit 222 receives, for example, operation information related to button operations, slide operations, and the like. When the input means is a VR or an input means for a game, the operation reception unit 222 receives, for example, motion data corresponding to the user's own movement as operation information. Needless to say, the button operation also includes a virtual button operation.

送信部23は、各種の指示や情報を送信する。各種の指示や情報は、例えば、送信指示である。 The transmission unit 23 transmits various instructions and information. Various instructions and information are, for example, transmission instructions.

受信部24は、各種の情報を受信する。各種の情報は、例えば、ワールド情報、アバター情報、アイテム情報である。受信部24は、サーバ1から各種の情報を受信する。 The receiving unit 24 receives various types of information. Various types of information are, for example, world information, avatar information, and item information. The receiving unit 24 receives various information from the server 1.

ワールド受信部241は、ワールド情報を受信する。アバター受信部242は、アバター情報を受信する。アイテム受信部243は、アイテム情報を受信する。なお、受信されたワールド情報、アバター情報、アイテム情報は、格納部21に、少なくとも一時的に蓄積されることは好適である。 The world receiving unit 241 receives the world information. The avatar receiving unit 242 receives the avatar information. The item receiving unit 243 receives the item information. It is preferable that the received world information, avatar information, and item information are stored in the storage unit 21 at least temporarily.

処理部25は、各種の処理を行う。各種の処理は、例えば、種類取得部251、属性値取得部252、補正部253、モーション合成部254、出力構成部255が行う処理である。 The processing unit 25 performs various processes. The various processes are, for example, processes performed by the type acquisition unit 251, the attribute value acquisition unit 252, the correction unit 253, the motion composition unit 254, and the output configuration unit 255.

種類取得部251は、アバターを出力する装置(例えば、アバター出力装置2)の種類である種類識別子を取得する。種類取得部251は、例えば、格納部21から種類識別子を取得する。種類識別子は、例えば、「第一種」「第二種」である。なお、アバターを出力する装置は、アバター出力装置2がアバター情報等を送信し、アバターを表示する装置でも良い。種類取得部251は、例えば、アバター出力装置2の特定のプロパティーである種類識別子を取得する。 The type acquisition unit 251 acquires a type identifier that is the type of the device that outputs the avatar (for example, the avatar output device 2). The type acquisition unit 251 acquires a type identifier from, for example, the storage unit 21. The type identifier is, for example, "type 1" and "type 2". The device that outputs the avatar may be a device in which the avatar output device 2 transmits avatar information or the like and displays the avatar. The type acquisition unit 251 acquires, for example, a type identifier which is a specific property of the avatar output device 2.

属性値取得部252は、アイテムが装着されたアバターに関する1または2以上の属性値を取得する。アバターに関する属性値は、アバター属性値または関係属性値である。関係属性値は、アバターとアイテムとの関係に関する情報である。関係属性値は、例えば、装着位置情報、装着数情報である。装着位置情報は、アイテムがアバターに装着された位置を特定する情報である。装着位置情報は、例えば、左腕、右腕、左脚、右脚、胴である。装着数情報は、アバターに装着されたアイテムの数を特定する情報である。 The attribute value acquisition unit 252 acquires one or more attribute values related to the avatar to which the item is attached. The attribute value related to the avatar is an avatar attribute value or a relational attribute value. The relationship attribute value is information about the relationship between the avatar and the item. The relation attribute value is, for example, mounting position information and mounting number information. The attachment position information is information that identifies the position where the item is attached to the avatar. The mounting position information is, for example, a left arm, a right arm, a left leg, a right leg, and a torso. The attached number information is information for specifying the number of items attached to the avatar.

属性値取得部252は、例えば、アバターの形状に関する1または2以上の形状属性値を取得する。 The attribute value acquisition unit 252 acquires, for example, one or two or more shape attribute values related to the shape of the avatar.

補正部253は、属性値取得部252が取得した1以上の属性値に応じて、アイテム表示情報に予め対応付いているアイテムモーション情報を補正する。アイテムモーション情報の補正とは、アイテム表示情報に予め対応付いているアイテムモーション情報を修正し、修正後のアイテムモーション情報を取得することである。アイテムモーション情報の補正は、アイテムの動作が変更されるためのアイテムモーション情報の修正であれば良い。 The correction unit 253 corrects the item motion information associated with the item display information in advance according to one or more attribute values acquired by the attribute value acquisition unit 252. The correction of the item motion information is to correct the item motion information corresponding to the item display information in advance and acquire the corrected item motion information. The correction of the item motion information may be any correction as long as the item motion information is corrected so that the behavior of the item is changed.

補正部253は、例えば、属性値取得部252が取得した1以上の属性値に応じて、アイテム表示情報に予め対応付いているアイテムモーション情報である1以上の各パラメータを修正し、修正後のアイテムモーション情報を取得する。 For example, the correction unit 253 corrects each parameter of 1 or more, which is the item motion information associated with the item display information in advance, according to the attribute value of 1 or more acquired by the attribute value acquisition unit 252, and after the correction. Get item motion information.

補正部253は、例えば、属性値取得部252が取得した1以上の属性値に応じて、プログラムまたはスクリプトであるアイテムモーション情報に与える1以上のパラメータを修正し、修正後の1以上のパラメータとプログラムまたはスクリプトであるアイテムモーション情報とを取得する。 For example, the correction unit 253 modifies one or more parameters given to the item motion information which is a program or a script according to one or more attribute values acquired by the attribute value acquisition unit 252, and sets the corrected one or more parameters. Get item motion information that is a program or script.

補正部253は、例えば、属性値取得部252が取得した1以上の属性値に応じて、プログラムまたはスクリプトであるアイテムモーション情報から、一部のプログラムまたはスクリプトを削除したり、一部のプログラムまたはスクリプトを付加したりし、修正後のプログラムまたはスクリプトを取得する。なお、プログラムとスクリプトとを同じもの(プログラム)と考えても良い。 For example, the correction unit 253 deletes a part of the program or the script from the item motion information which is a program or the script according to one or more attribute values acquired by the attribute value acquisition unit 252, or a part of the program or the script. Add a script and get the modified program or script. A program and a script may be considered to be the same (program).

補正部253は、属性値取得部252が取得した装着位置情報に応じて、アイテム表示情報に予め対応付いているアイテムモーション情報を補正する。例えば、アイテム表示情報に予め対応付いているアイテムモーション情報が、アバターがアイテムを右手で保持した場合のアイテムモーション情報であることが、アイテムモーション情報に対応付けて格納されている場合であり、属性値取得部252が取得した装着位置情報が「左手」である場合(アバターがアイテムを左手で保持している場合)には、補正部253は、アイテム表示情報に予め対応付いているアイテムモーション情報を、アイテムの動作が左右反転するように変更し、変更後のアイテムモーション情報を取得する。 The correction unit 253 corrects the item motion information associated with the item display information in advance according to the mounting position information acquired by the attribute value acquisition unit 252. For example, the item motion information associated with the item display information in advance is the item motion information when the avatar holds the item with the right hand, which is stored in association with the item motion information, and is an attribute. When the mounting position information acquired by the value acquisition unit 252 is "left hand" (when the avatar holds the item with the left hand), the correction unit 253 has item motion information corresponding to the item display information in advance. Is changed so that the operation of the item is flipped horizontally, and the item motion information after the change is acquired.

補正部253は、属性値取得部252が取得した形状属性値に応じて、アイテム表示情報に予め対応付いているアイテムモーション情報を補正する。例えば、アイテム表示情報に予め対応付いているアイテムモーション情報に対応付いているサイズ(標準的なアバターのサイズ)がXであり、属性値取得部252が取得したアバターのサイズが2Xである場合、補正部253は、アイテム表示情報に予め対応付いているアイテムモーション情報の動きの大きさ(動きの幅)が2倍となるように、当該アイテムモーション情報を変更し、変更後のアイテムモーション情報を取得する。 The correction unit 253 corrects the item motion information associated with the item display information in advance according to the shape attribute value acquired by the attribute value acquisition unit 252. For example, when the size (standard avatar size) corresponding to the item motion information corresponding to the item display information in advance is X, and the size of the avatar acquired by the attribute value acquisition unit 252 is 2X. The correction unit 253 changes the item motion information so that the movement size (movement width) of the item motion information corresponding to the item display information in advance is doubled, and the changed item motion information is used. get.

モーション合成部254は、アイテム表示情報に予め対応付いているアイテムモーション情報と基本モーション情報とを合成し、合成モーション情報を取得する。2以上のモーション情報を合成することは、2以上の各モーション情報を用いて行われる動作をすべて行う状態とすることである。 The motion synthesizing unit 254 synthesizes the item motion information and the basic motion information corresponding to the item display information in advance, and acquires the synthesized motion information. Combining two or more motion information is a state in which all the operations performed using each of the two or more motion information are performed.

例えば、アイテムモーション情報と基本モーション情報とがプログラムまたはスクリプトである場合、モーション合成部254は、アイテム表示情報に予め対応付いているアイテムモーション情報と基本モーション情報とを結合し、アイテムモーション情報が特定する動作と基本モーション情報が特定する動作の両方を行うモーション情報を構成する。 For example, when the item motion information and the basic motion information are programs or scripts, the motion synthesizing unit 254 combines the item motion information and the basic motion information that are associated with the item display information in advance, and the item motion information is specified. Configure motion information that performs both the action to be performed and the action specified by the basic motion information.

例えば、アイテムモーション情報と基本モーション情報とがプログラムまたはスクリプトに与える2以上のパラメータのベクトルである場合、モーション合成部254は、アイテム表示情報である2以上の各パラメータと基本モーション情報である2以上の各パラメータとを、パラメータごとに加算し、加算した各パラメータを要素とする合成後のベクトルを構成する。 For example, when the item motion information and the basic motion information are vectors of two or more parameters given to the program or script, the motion synthesizing unit 254 has two or more parameters which are item display information and two or more which are basic motion information. Each parameter of is added for each parameter, and a vector after synthesis is constructed with each added parameter as an element.

出力構成部255は、出力される画像を構成する。かかる画像は、通常、仮想的な三次元画像であり、アバターを有する。かかる画像は、アイテムを有することは好適である。かかる画像は、ワールドを有することは好適である。また、画像は、通常、操作受付部222が受け付けた操作に応じた動きを有する動画である。 The output configuration unit 255 constitutes an output image. Such an image is usually a virtual three-dimensional image and has an avatar. It is preferable that such an image has an item. It is preferable that such an image has a world. Further, the image is usually a moving image having a movement corresponding to the operation received by the operation receiving unit 222.

出力構成部255は、操作受付部222が受け付けた操作に基づいて、出力される画像を構成する。出力構成部255は、予め決められたアイテム条件に基づいて、第一出力態様の画像を構成したり、第二出力態様の画像を構成したりすることは好適である。 The output configuration unit 255 constitutes an output image based on the operation received by the operation reception unit 222. It is preferable that the output configuration unit 255 configures an image of the first output mode or an image of the second output mode based on predetermined item conditions.

出力構成部255は、例えば、種類取得部251が取得した種類識別子に対応する出力態様をアイテム条件に基づいて取得し、当該出力態様の画像を構成する。 The output configuration unit 255 acquires, for example, an output mode corresponding to the type identifier acquired by the type acquisition unit 251 based on the item conditions, and constitutes an image of the output mode.

出力構成部255は、例えば、種類取得部251が取得した種類識別子が「第一種」であれば第一出力態様の画像を構成し、種類識別子が「第二種」であれば第二出力態様の画像を構成する。 For example, if the type identifier acquired by the type acquisition unit 251 is "first type", the output configuration unit 255 constitutes an image of the first output mode, and if the type identifier is "second type", the second output. Construct an image of the embodiment.

第一出力態様の画像は、アイテム格納部213のアイテム情報とアバター格納部212のアバター情報とを用いて構成された画像であり、操作受付部222が受け付けた操作に基づいて、当該アイテム情報に含まれるアイテム表示情報に予め対応付いているアイテムモーション情報を用いた動作を行うアイテムとアバターとを含む画像である。第一出力態様の画像は、アバター情報が有するモデル情報を用いて構成されたアバターと、アイテム情報が有するアイテム表示情報を用いて構成されたアイテムであり、アイテムモーション情報を用いた動作を行うアイテムとが、ワールド格納部211のワールド情報を用いて構成されたワールドの中に配置された画像であることは好適である。 The image of the first output mode is an image configured by using the item information of the item storage unit 213 and the avatar information of the avatar storage unit 212, and the item information is based on the operation received by the operation reception unit 222. It is an image including an item and an avatar that perform an operation using the item motion information that is associated with the included item display information in advance. The image of the first output mode is an avatar configured by using the model information possessed by the avatar information and an item configured by using the item display information possessed by the item information, and is an item that performs an operation using the item motion information. It is preferable that the image is arranged in the world configured by using the world information of the world storage unit 211.

第二出力態様の画像は、アイテム格納部213のアイテム情報とアバター格納部212のアバター情報とを用いて構成された画像であり、操作受付部222が受け付けた操作に基づいて、出力構成部255が構成したアイテムモーション情報を用いた動作を行うアイテムとアバターとを含む画像である。なお、操作受付部222が受け付けた操作は、ユーザの動きに基づいて構成されるモーションデータである操作情報でも良い。 The image of the second output mode is an image configured by using the item information of the item storage unit 213 and the avatar information of the avatar storage unit 212, and the output configuration unit 255 is based on the operation received by the operation reception unit 222. It is an image including an item and an avatar that perform an operation using the item motion information configured by. The operation received by the operation reception unit 222 may be operation information which is motion data configured based on the movement of the user.

なお、第一出力態様におけるアイテムの動作を特定するアイテムモーション情報は、操作受付部222が受け付けた操作に基づいて読み出された情報であり、第二出力態様におけるアイテムの動作を特定するアイテムモーション情報は、操作受付部222が受け付けた操作に基づいて構成された情報である。 The item motion information that specifies the operation of the item in the first output mode is the information read based on the operation received by the operation reception unit 222, and the item motion that specifies the operation of the item in the second output mode. The information is information configured based on the operation received by the operation reception unit 222.

出力構成部255は、第一出力態様の画像を構成する場合、補正部253が補正したアイテムモーション情報を用いた動作を行うアイテムとアバターとを含む画像を構成することは好適である。 When the output configuration unit 255 configures the image of the first output mode, it is preferable to configure the image including the item and the avatar that perform the operation using the item motion information corrected by the correction unit 253.

出力構成部255は、第一出力態様の画像を構成する場合、モーション合成部254が取得した合成モーション情報を用いた動作を行うアイテムとアバターとを含む画像を構成することは好適である。 When the output configuration unit 255 configures the image of the first output mode, it is preferable to configure the image including the item and the avatar that perform the operation using the composite motion information acquired by the motion synthesis unit 254.

出力構成部255は、装着条件を満たさないアバターを、当該装着条件に対応するアイテムと共に含む画像は構成しないことは好適である。 It is preferable that the output configuration unit 255 does not form an image in which an avatar that does not satisfy the wearing condition is included together with an item corresponding to the wearing condition.

出力構成部255は、例えば、アイテムモーション情報を用いて、動作を行うアイテムを含む画像であり、かつ当該アイテムの動作に追従するように、アイテムが装着されたアバターの部位が動作するようなアバターを含む画像を構成する。かかる場合、アイテムモーション情報は、アイテムの動きを特定する情報である。 The output configuration unit 255 is, for example, an image including an item that performs an action using item motion information, and the avatar in which the part of the avatar to which the item is attached moves so as to follow the action of the item. Consists of an image containing. In such a case, the item motion information is information that identifies the movement of the item.

出力構成部255は、例えば、アイテムモーション情報を用いて、アイテムが装着されたアバターの部位が動作する画像であり、アバターの部位の動作に追従するように、アイテムが動作する画像を構成する。かかる場合、アイテムが装着されたアバターの部位の動きを特定する情報である。 The output configuration unit 255 is, for example, an image in which the part of the avatar to which the item is attached moves by using the item motion information, and constitutes an image in which the item moves so as to follow the movement of the part of the avatar. In such a case, it is information for specifying the movement of the part of the avatar to which the item is attached.

第二出力態様の画像は、アイテム格納部213のアイテム情報とアバター格納部212のアバター情報とを用いて構成された画像であり、操作受付部222が受け付けた操作に基づいて構成されたアイテムモーション情報が特定する動作をするアイテムとアバターとを含む画像である。なお、ここでの操作は、ユーザの動作を含む。ユーザの動作を含むことは、ユーザの動作により発生した情報(モーションデータと言っても良い)を含む、と考えても良い。第二出力態様の画像は、アバター情報が有するモデル情報を用いて構成されたアバターと、アイテム情報が有するアイテム表示情報を用いて構成されたアイテムであり、操作受付部222が受け付けた操作に基づいて、出力構成部255が構成したアイテムモーション情報を用いた動作を行うアイテムとが、ワールド格納部211のワールド情報を用いて構成されたワールドの中に配置された画像であることは好適である。なお、操作受付部222が受け付けた操作に基づいて、アイテムモーション情報を構成する処理は公知技術である。 The image of the second output mode is an image configured by using the item information of the item storage unit 213 and the avatar information of the avatar storage unit 212, and is an item motion configured based on the operation received by the operation reception unit 222. It is an image containing an item and an avatar that perform an action for which information is specified. The operation here includes the user's operation. It may be considered that the inclusion of the user's action includes the information generated by the user's action (which may be referred to as motion data). The image of the second output mode is an avatar configured by using the model information of the avatar information and an item configured by using the item display information of the item information, and is based on the operation received by the operation reception unit 222. Therefore, it is preferable that the item that performs an operation using the item motion information configured by the output configuration unit 255 is an image arranged in the world configured by using the world information of the world storage unit 211. .. It should be noted that the process of forming the item motion information based on the operation received by the operation reception unit 222 is a known technique.

出力部26は、予め決められたアイテム条件に基づいて、第一出力態様と第二出力態様とを含む2以上の態様のうちの、少なくとも一の態様の出力を行う。 The output unit 26 outputs at least one of two or more modes including the first output mode and the second output mode based on predetermined item conditions.

ここで出力とは、ディスプレイへの表示、プロジェクターを用いた投影等であるが、プリンタでの印字、外部の装置への送信、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念であっても良い。 Here, the output is a display on a display, a projection using a projector, etc., but is printed by a printer, transmitted to an external device, stored in a recording medium, stored in another processing device, another program, or the like. It may be a concept including delivery of processing results.

出力部26は、予め決められたアイテム条件に基づいて、第一出力態様に対応する画像を出力する。出力部26は、予め決められたアイテム条件に基づいて、第二出力態様に対応する画像を出力する。かかる画像は、通常、出力構成部255が構成した画像である。かかる画像は、アバターやアイテムの動作を含む画像である。 The output unit 26 outputs an image corresponding to the first output mode based on predetermined item conditions. The output unit 26 outputs an image corresponding to the second output mode based on a predetermined item condition. Such an image is usually an image configured by the output component unit 255. Such an image is an image including the movement of an avatar or an item.

出力部26は、操作に基づいて、アイテム表示情報に予め対応付いているアイテムモーション情報を取得し、アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第一出力態様、および操作に基づいて、アイテムモーション情報を構成し、アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第二出力態様を含む2以上の態様のうちの、少なくとも一の態様の出力を行う。ここで、出力態様の選択は、予め決められたアイテム条件に基づく。 Based on the operation, the output unit 26 acquires the item motion information corresponding to the item display information in advance, and outputs the item and the avatar that perform the operation using the item motion information, and the operation. Based on this, item motion information is configured, and at least one of two or more modes including a second output mode for outputting an item and an avatar that performs an operation using the item motion information is output. Here, the selection of the output mode is based on predetermined item conditions.

出力部26は、第一出力態様による出力を行う場合に、補正部253が補正したアイテムモーション情報を用いた動作を行うアイテムとアバターとを出力することは好適である。なお、補正したアイテムモーション情報を用いた動作を行うアイテムを出力することは、アイテム表示情報に予め対応付いているアイテムモーション情報を取得し、当該アイテムモーション情報を用いた動作を行うアイテムを出力することに含まれる。 When the output unit 26 outputs in the first output mode, it is preferable to output the item and the avatar that perform the operation using the item motion information corrected by the correction unit 253. To output an item that performs an action using the corrected item motion information, the item motion information corresponding to the item display information in advance is acquired, and the item that performs the action using the item motion information is output. Included in that.

出力部26は、第一出力態様による出力を行う場合に、合成モーション情報を用いた動作を行うアイテムとアバターとを出力することは好適である。 It is preferable that the output unit 26 outputs the item and the avatar that perform the operation using the synthetic motion information when the output is performed by the first output mode.

出力部26は、装着条件を満たさないアバターを、装着条件に対応するアイテムと共には出力しないことは好適である。 It is preferable that the output unit 26 does not output an avatar that does not satisfy the wearing condition together with the item corresponding to the wearing condition.

出力部26は、アイテムモーション情報を用いて、動作を行うアイテムを出力し、かつアイテムの動作に追従するように、アイテムが装着されたアバターの部位が動作するようにアバターを出力することは好適である。 It is preferable that the output unit 26 uses the item motion information to output the item to be moved and to output the avatar so that the part of the avatar to which the item is attached moves so as to follow the movement of the item. Is.

出力部26は、アイテムモーション情報を用いて、アイテムが装着されたアバターの部位を動作させる出力をし、かつアバターの部位の動作に追従するように、アイテムが動作するようにアイテムを出力することは好適である。 The output unit 26 outputs the item to operate the part of the avatar to which the item is attached by using the item motion information, and outputs the item so that the item operates so as to follow the movement of the part of the avatar. Is suitable.

作成者端末3を構成する端末格納部31には、各種の情報が格納される。各種の情報とは、例えば、1または2以上のアイテム情報である。各種の情報とは、例えば、1または2以上のワールド情報、1または2以上のアバター情報である。 Various types of information are stored in the terminal storage unit 31 that constitutes the creator terminal 3. The various types of information are, for example, one or more item information. The various types of information are, for example, one or more world information and one or more avatar information.

端末受付部32は、各種の情報や指示を受け付ける。各種の情報や指示は、例えば、1または2以上のワールド情報、1または2以上のアバター情報、1または2以上のアイテム情報、送信指示である。 The terminal reception unit 32 receives various information and instructions. The various information and instructions are, for example, 1 or 2 or more world information, 1 or 2 or more avatar information, 1 or 2 or more item information, and transmission instructions.

端末処理部33は、各種の処理を行う。各種の処理は、例えば、端末受付部32が受け付けた各種の情報や指示を、送信する形式の情報や指示にする処理である。各種の処理は、例えば、端末受信部35が受信した情報を、出力する形式の情報にする処理である。 The terminal processing unit 33 performs various processes. The various processes are, for example, a process of converting various information and instructions received by the terminal reception unit 32 into information and instructions in a format to be transmitted. The various processes are, for example, a process of converting the information received by the terminal receiving unit 35 into information in a format to be output.

端末送信部34は、各種の情報や指示をサーバ1に送信する。各種の情報は、例えば、例えば、1または2以上のアイテム情報である。各種の情報とは、例えば、1または2以上のワールド情報、1または2以上のアバター情報である。 The terminal transmission unit 34 transmits various information and instructions to the server 1. The various information is, for example, one or more item information. The various types of information are, for example, one or more world information and one or more avatar information.

端末受信部35は、各種の情報を受信する。 The terminal receiving unit 35 receives various types of information.

端末出力部36は、各種の情報を出力する。 The terminal output unit 36 outputs various information.

サーバ格納部11、格納部21、ワールド格納部211、アバター格納部212、アイテム格納部213、および端末格納部31は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。サーバ格納部11等に情報が記憶される過程は問わない。例えば、記録媒体を介して情報がサーバ格納部11等で記憶されるようになってもよく、通信回線等を介して送信された情報がサーバ格納部11等で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報がサーバ格納部11等で記憶されるようになってもよい。 The server storage unit 11, the storage unit 21, the world storage unit 211, the avatar storage unit 212, the item storage unit 213, and the terminal storage unit 31 are preferably non-volatile recording media, but can also be realized by a volatile recording medium. Is. The process of storing information in the server storage unit 11 or the like does not matter. For example, the information may be stored in the server storage unit 11 or the like via the recording medium, or the information transmitted via the communication line or the like may be stored in the server storage unit 11 or the like. Well, or the information input via the input device may be stored in the server storage unit 11 or the like.

サーバ受信部12、受信部24、ワールド受信部241、アバター受信部242、アイテム受信部243、および端末受信部35は、通常、無線または有線の通信手段で実現されるが、放送を受信する手段で実現されても良い。 The server receiving unit 12, the receiving unit 24, the world receiving unit 241, the avatar receiving unit 242, the item receiving unit 243, and the terminal receiving unit 35 are usually realized by wireless or wired communication means, but are means for receiving broadcasts. It may be realized by.

サーバ処理部13、処理部25、種類取得部251、属性値取得部252、補正部253、モーション合成部254、出力構成部255、および端末処理部33は、通常、プロセッサやメモリ等から実現され得る。サーバ処理部13等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。なお、プロセッサは、CPU、MPU、GPU等であり、その種類は問わない。 The server processing unit 13, the processing unit 25, the type acquisition unit 251, the attribute value acquisition unit 252, the correction unit 253, the motion synthesis unit 254, the output configuration unit 255, and the terminal processing unit 33 are usually realized from a processor, a memory, or the like. obtain. The processing procedure of the server processing unit 13 and the like is usually realized by software, and the software is recorded in a recording medium such as ROM. However, it may be realized by hardware (dedicated circuit). The processor is a CPU, MPU, GPU, or the like, and the type thereof does not matter.

サーバ送信部14、送信部23、および端末送信部34は、通常、無線または有線の通信手段で実現されるが、放送手段で実現されても良い。 The server transmission unit 14, the transmission unit 23, and the terminal transmission unit 34 are usually realized by wireless or wired communication means, but may be realized by broadcasting means.

受付部22、指示受付部221、操作受付部222、および端末受付部32は、タッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。 The reception unit 22, the instruction reception unit 221, the operation reception unit 222, and the terminal reception unit 32 can be realized by a device driver for input means such as a touch panel or a keyboard, control software for a menu screen, or the like.

出力部26、および端末出力部36は、ディスプレイ等の出力デバイスを含むと考えても含まないと考えても良い。出力部26等は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。 The output unit 26 and the terminal output unit 36 may or may not include an output device such as a display. The output unit 26 and the like can be realized by the driver software of the output device, the driver software of the output device, the output device, and the like.

次に、情報システムAの動作例について説明する。まず、図4のフローチャートを用いて、サーバ1の動作例について説明する。 Next, an operation example of the information system A will be described. First, an operation example of the server 1 will be described with reference to the flowchart of FIG.

(ステップS401)サーバ受信部12は、作成者端末3等から情報を受信したか否かを判断する。情報を受信した場合はステップS402に行き、情報を受信しなかった場合はステップS403に行く。なお、ここでの情報は、ワールド情報、アバター情報、アイテム情報のうちの1種類以上の情報である。 (Step S401) The server receiving unit 12 determines whether or not information has been received from the creator terminal 3 or the like. If the information is received, the process goes to step S402, and if the information is not received, the process goes to step S403. The information here is one or more types of information among world information, avatar information, and item information.

(ステップS402)サーバ処理部13は、ステップS401で受信された情報をサーバ格納部11に蓄積する。ステップS401に戻る。 (Step S402) The server processing unit 13 stores the information received in step S401 in the server storage unit 11. Return to step S401.

(ステップS403)サーバ受信部12は、アバター出力装置2等から送信指示を受信したか否かを判断する。送信指示を受信した場合はステップS404に行き、送信指示を受信しなかった場合はステップS406に行く。 (Step S403) The server receiving unit 12 determines whether or not a transmission instruction has been received from the avatar output device 2 or the like. If the transmission instruction is received, the process goes to step S404, and if the transmission instruction is not received, the process goes to step S406.

(ステップS404)サーバ処理部13は、送信指示に対応する情報を取得する。なお、かかる情報は、ワールド情報、アバター情報、アイテム情報のうちの1種類以上の情報である。 (Step S404) The server processing unit 13 acquires information corresponding to the transmission instruction. It should be noted that such information is one or more types of information among world information, avatar information, and item information.

(ステップS405)サーバ送信部14は、送信指示を送信してきた装置に、ステップS404で取得された情報を送信する。ステップS401に戻る。 (Step S405) The server transmission unit 14 transmits the information acquired in step S404 to the device that has transmitted the transmission instruction. Return to step S401.

(ステップS406)サーバ受信部12は、選択指示を受信したか否かを判断する。選択指示を受信した場合はステップS407に行き、選択指示を受信しなかった場合はステップS401に戻る。 (Step S406) The server receiving unit 12 determines whether or not the selection instruction has been received. If the selection instruction is received, the process goes to step S407, and if the selection instruction is not received, the process returns to step S401.

(ステップS407)サーバ処理部13は、ステップS406で受信された選択指示に対応するアイテムモーション情報を取得する。 (Step S407) The server processing unit 13 acquires the item motion information corresponding to the selection instruction received in step S406.

(ステップS408)サーバ処理部13は、ステップS407で取得したアイテムモーション情報を有するアイテム情報を構成する。 (Step S408) The server processing unit 13 configures item information having the item motion information acquired in step S407.

(ステップS409)サーバ送信部14は、選択指示を送信してきたアバター出力装置2に、ステップS408で構成されたアイテム情報を送信する。
ステップS401に戻る。
(Step S409) The server transmission unit 14 transmits the item information configured in step S408 to the avatar output device 2 that has transmitted the selection instruction.
Return to step S401.

なお、図4のフローチャートにおいて、選択指示は、アイテムモーション情報を特定する情報であったが、アイテム情報を特定する情報でも良い。 In the flowchart of FIG. 4, the selection instruction is the information for specifying the item motion information, but it may be the information for specifying the item information.

また、図4のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Further, in the flowchart of FIG. 4, the processing is terminated by the power off or the interrupt of the processing termination.

次に、アバター出力装置2の動作例について、図5のフローチャートを用いて説明する。 Next, an operation example of the avatar output device 2 will be described with reference to the flowchart of FIG.

(ステップS501)指示受付部221は、送信指示を受け付けたか否かを判断する。送信指示を受け付けた場合はステップS502に行き、送信指示を受け付けなかった場合はステップS513に行く。 (Step S501) The instruction receiving unit 221 determines whether or not the transmission instruction has been received. If the transmission instruction is accepted, the process goes to step S502, and if the transmission instruction is not accepted, the process goes to step S513.

(ステップS502)処理部25は、ステップS501で受け付けられた送信指示を用いて、送信する送信指示を構成する。送信部23は、当該送信指示をサーバ1に送信する。 (Step S502) The processing unit 25 configures a transmission instruction to be transmitted by using the transmission instruction received in step S501. The transmission unit 23 transmits the transmission instruction to the server 1.

(ステップS503)受信部24は、アバター情報等を受信したか否かを判断する。アバター情報等を受信した場合はステップS504に行き、アバター情報等を受信しなかった場合はステップS503に戻る。なお、アバター情報等は、ここでは、通常、アバター情報とワールド情報とを含む、とする。アバター情報等は、1または2以上のアイテム情報を含んでも良い。 (Step S503) The receiving unit 24 determines whether or not the avatar information or the like has been received. If the avatar information or the like is received, the process proceeds to step S504, and if the avatar information or the like is not received, the process returns to step S503. In addition, it is assumed that the avatar information and the like usually include the avatar information and the world information here. The avatar information and the like may include one or more item information.

(ステップS504)処理部25は、ステップS503で受信されたアバター情報をアバター格納部212に蓄積し、ステップS503で受信されたワールド情報をワールド格納部211に蓄積する。 (Step S504) The processing unit 25 stores the avatar information received in step S503 in the avatar storage unit 212, and stores the world information received in step S503 in the world storage unit 211.

(ステップS505)属性値取得部252は、アバターの1以上の属性値を取得する。なお、1以上の属性値は、例えば、アバター属性値または関係属性値である。 (Step S505) The attribute value acquisition unit 252 acquires one or more attribute values of the avatar. The attribute value of 1 or more is, for example, an avatar attribute value or a relational attribute value.

(ステップS506)処理部25は、カウンタiに1を代入する。 (Step S506) The processing unit 25 substitutes 1 for the counter i.

(ステップS507)処理部25は、ステップS503で受信された情報の中に、i番目のアイテム情報が存在するか否かを判断する。i番目のアイテム情報が存在する場合はステップS508に行き、存在しない場合はステップS501に戻る。 (Step S507) The processing unit 25 determines whether or not the i-th item information exists in the information received in step S503. If the i-th item information exists, the process goes to step S508, and if it does not exist, the process returns to step S501.

(ステップS508)処理部25は、i番目のアイテム情報に対応する装着条件を取得する。なお、ここで、i番目のアイテム情報に対応付いた装着条件が存在しない場合、装着条件を取得しない。 (Step S508) The processing unit 25 acquires the mounting condition corresponding to the i-th item information. Here, if the mounting condition corresponding to the i-th item information does not exist, the mounting condition is not acquired.

(ステップS509)処理部25は、ステップS505で取得した1以上の属性値のうちの装着条件に対応する1以上の属性値が、ステップS508で取得した装着条件を満たすか否かを判断する。装着条件を満たす場合はステップS510に行き、装着条件を満たさない場合はステップS512に行く。つまり、ここでは、対応するアバター情報に対して、装着条件を満たさないアイテム情報は、アイテム格納部213に蓄積されないので、出力されることはない。 (Step S509) The processing unit 25 determines whether or not one or more attribute values corresponding to the mounting conditions among the one or more attribute values acquired in step S505 satisfy the mounting conditions acquired in step S508. If the mounting condition is satisfied, the process goes to step S510, and if the mounting condition is not satisfied, the process goes to step S512. That is, here, with respect to the corresponding avatar information, the item information that does not satisfy the wearing condition is not stored in the item storage unit 213, so that it is not output.

(ステップS510)補正部253は、アイテムモーション情報の補正の処理を行う。かかるモーション情報補正処理の例について、図6のフローチャートを用いて説明する。 (Step S510) The correction unit 253 processes the correction of the item motion information. An example of such motion information correction processing will be described with reference to the flowchart of FIG.

(ステップS511) (Step S511)

(ステップS512)処理部25は、カウンタiを1、インクリメントする。ステップS507に戻る。 (Step S512) The processing unit 25 increments the counter i by 1. Return to step S507.

(ステップS513)指示受付部221は、開始指示を受け付けたか否かを判断する。開始指示を受け付けた場合はステップS514に行き、開始指示を受け付けなかった場合はステップS501に戻る。 (Step S513) The instruction receiving unit 221 determines whether or not the start instruction has been received. If the start instruction is accepted, the process proceeds to step S514, and if the start instruction is not accepted, the process returns to step S501.

(ステップS514)出力構成部255は、開始指示に対応するワールド情報をワールド格納部211から取得する。出力構成部255は、開始指示に対応するアバター情報をアバター格納部212から取得する。出力構成部255は、アバター情報に対応するアイテム情報を、アイテム格納部213から取得する。なお、ここで、アイテム情報を取得しない場合もあり得る。 (Step S514) The output configuration unit 255 acquires the world information corresponding to the start instruction from the world storage unit 211. The output configuration unit 255 acquires the avatar information corresponding to the start instruction from the avatar storage unit 212. The output configuration unit 255 acquires the item information corresponding to the avatar information from the item storage unit 213. In addition, there may be a case where the item information is not acquired here.

(ステップS515)出力構成部255は、ステップS514で取得した情報を用いて、仮想的な三次元空間の画像を構成する。なお、かかる画像は、ワールドの中に存在するアバターを含む。また、かかる画像は、アバターに装着されたアイテムを含むことは好適である。なお、ワールド情報、アバター情報、アイテム情報を用いて、画像を構成する処理は公知技術であるので、詳細な説明は省略する。 (Step S515) The output configuration unit 255 constructs an image in a virtual three-dimensional space by using the information acquired in step S514. In addition, such an image includes an avatar existing in the world. Further, it is preferable that the image includes an item attached to the avatar. Since the process of forming an image using world information, avatar information, and item information is a known technique, detailed description thereof will be omitted.

(ステップS516)出力部26は、ステップS515で構成された画像を出力する。 (Step S516) The output unit 26 outputs the image configured in step S515.

(ステップS517)種類取得部251は、出力デバイス(例えば、アバター出力装置2)の種類識別子を取得する。 (Step S517) The type acquisition unit 251 acquires the type identifier of the output device (for example, the avatar output device 2).

(ステップS518)操作受付部222は、ユーザの操作を受け付けたか否かを判断する。操作を受け付けた場合はステップS519に行き、操作を受け付けなかった場合はステップS521に行く。 (Step S518) The operation reception unit 222 determines whether or not the user's operation has been accepted. If the operation is accepted, the process goes to step S519, and if the operation is not accepted, the process goes to step S521.

(ステップS519)出力構成部255は、操作に基づいて変更される画像を構成する。かかる変更画像構成処理の例について、図7のフローチャートを用いて説明する。 (Step S519) The output configuration unit 255 constitutes an image that is changed based on the operation. An example of such a modified image configuration process will be described with reference to the flowchart of FIG.

(ステップS520)出力部26は、ステップS519で構成された画像であり、アバター、またはアバターとアイテムの動作を含む画像を出力する。 (Step S520) The output unit 26 is an image configured in step S519, and outputs an avatar or an image including the operation of the avatar and the item.

(ステップS521)指示受付部221は、終了指示を受け付けたか否かを判断する。終了指示を受け付けた場合はステップS522に行き、終了指示を受け付けなかった場合はステップS523に行く。 (Step S521) The instruction receiving unit 221 determines whether or not the end instruction has been received. If the end instruction is accepted, the process proceeds to step S522, and if the end instruction is not accepted, the process proceeds to step S523.

(ステップS522)処理部25は、出力の終了のための処理を行う。かかる処理は、例えば、画像の出力をOFFとすること、アバター出力装置2の電源をOFFとすること等である。 (Step S522) The processing unit 25 performs processing for ending the output. Such processing includes, for example, turning off the image output, turning off the power of the avatar output device 2, and the like.

(ステップS523)処理部25は、アバターの基本モーション情報をアバター情報から取得する。 (Step S523) The processing unit 25 acquires the basic motion information of the avatar from the avatar information.

(ステップS524)出力部26は、ステップS523で取得された基本モーション情報を用いて、アバターの動作を出力する。 (Step S524) The output unit 26 outputs the movement of the avatar using the basic motion information acquired in step S523.

なお、図5のフローチャートにおいて、受信されたアイテム情報を蓄積する際に、アイテムモーション情報に対して、必要な補正を行った。しかし、アイテムモーション情報を用いたアイテムの動作が出力される際に、アイテムモーション情報の必要な補正を行っても良い。つまり、アイテムモーション情報の補正のタイミングは問わない。 In the flowchart of FIG. 5, necessary corrections were made to the item motion information when accumulating the received item information. However, when the operation of the item using the item motion information is output, the necessary correction of the item motion information may be performed. That is, the timing of correction of the item motion information does not matter.

また、図5のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Further, in the flowchart of FIG. 5, the processing is terminated by the power off or the interrupt of the processing termination.

次に、ステップS510のモーション情報補正処理の例について、図6のフローチャートを用いて説明する。モーション情報補正処理は、アイテムモーション情報を補正する処理である。 Next, an example of the motion information correction process in step S510 will be described with reference to the flowchart of FIG. The motion information correction process is a process for correcting item motion information.

(ステップS601)補正部253は、アイテムモーション情報と対になる1以上のモーション属性値を取得する。 (Step S601) The correction unit 253 acquires one or more motion attribute values paired with the item motion information.

(ステップS602)補正部253は、装着位置情報を取得する。 (Step S602) The correction unit 253 acquires the mounting position information.

(ステップS603)補正部253は、ステップS601で取得した1以上のモーション属性値の中の装着位置に関連するモーション属性値を参照し、ステップS602で取得した装着位置情報が特定する装着位置に基づくモーション情報の補正が必要であるか否かを判断する。装着位置に基づく補正が必要である場合はステップS604に行き、補正が必要でない場合はステップS605に行く。 (Step S603) The correction unit 253 refers to the motion attribute value related to the mounting position among the one or more motion attribute values acquired in step S601, and is based on the mounting position specified by the mounting position information acquired in step S602. Determine if motion information needs to be corrected. If correction based on the mounting position is required, go to step S604, and if correction is not necessary, go to step S605.

例えば、ステップS602で取得した装着位置情報が、ステップS601で取得した1以上のモーション属性値の中に含まれない場合、またはステップS602で取得した装着位置情報が、ステップS601で取得したモーション属性値と異なる場合に、補正部253は、補正が必要である、と判断する。 For example, when the mounting position information acquired in step S602 is not included in one or more motion attribute values acquired in step S601, or the mounting position information acquired in step S602 is the motion attribute value acquired in step S601. If it is different from the above, the correction unit 253 determines that the correction is necessary.

(ステップS604)補正部253は、ステップS602で取得した装着位置情報に基づいて、アイテムモーション情報を補正し、補正後のアイテムモーション情報を取得する。補正部253は、例えば、ステップS601で取得した1以上のモーション属性値とステップS602で取得した装着位置情報とに基づいて、アイテムモーション情報を補正し、補正後のアイテムモーション情報を取得する。 (Step S604) The correction unit 253 corrects the item motion information based on the mounting position information acquired in step S602, and acquires the corrected item motion information. The correction unit 253 corrects the item motion information based on, for example, one or more motion attribute values acquired in step S601 and the mounting position information acquired in step S602, and acquires the corrected item motion information.

(ステップS605)補正部253は、アバターの1以上の形状属性値を取得する。 (Step S605) The correction unit 253 acquires one or more shape attribute values of the avatar.

(ステップS606)補正部253は、ステップS601で取得した1以上のモーション属性値とステップS605で取得した1以上の形状属性値とを用いて、アバターの形状に基づくモーション情報の補正が必要であるか否かを判断する。装着位置に基づく補正が必要である場合はステップS607に行き、補正が必要でない場合は上位処理にリターンする。 (Step S606) The correction unit 253 needs to correct the motion information based on the shape of the avatar by using the one or more motion attribute values acquired in step S601 and the one or more shape attribute values acquired in step S605. Judge whether or not. If correction based on the mounting position is required, the process proceeds to step S607, and if correction is not required, the process returns to higher processing.

(ステップS607)補正部253は、ステップS605で取得した1以上の形状属性値に基づいて、アイテムモーション情報を補正し、当該補正後のアイテムモーション情報をアイテム格納部213に蓄積する。上位処理にリターンする。 (Step S607) The correction unit 253 corrects the item motion information based on one or more shape attribute values acquired in step S605, and stores the corrected item motion information in the item storage unit 213. Return to higher-level processing.

次に、ステップS519の変更画像構成処理の例について、図7のフローチャートを用いて説明する。 Next, an example of the modified image configuration process in step S519 will be described with reference to the flowchart of FIG. 7.

(ステップS701)出力構成部255は、ステップS518で受け付けられた操作に対応する操作情報を取得する。 (Step S701) The output configuration unit 255 acquires the operation information corresponding to the operation received in step S518.

(ステップS702)出力構成部255は、ステップS518で受け付けられた操作がアバターに対する操作であるか否かを判断する。アバターに対する操作であればステップS703に行き、アバターに対する操作でなければステップS707に行く。 (Step S702) The output configuration unit 255 determines whether or not the operation received in step S518 is an operation for the avatar. If the operation is for an avatar, the operation goes to step S703, and if the operation is not for an avatar, the process goes to step S707.

(ステップS703)出力構成部255は、ステップS701で取得した操作情報に応じた、アバターのモーション情報を取得する。 (Step S703) The output configuration unit 255 acquires the motion information of the avatar according to the operation information acquired in step S701.

(ステップS704)出力構成部255は、アバターに対応付くアイテムが存在するか否かを判断する。アイテムが存在する場合はステップS705に行き、アイテムが存在しない場合はステップS706に行く。 (Step S704) The output configuration unit 255 determines whether or not there is an item corresponding to the avatar. If the item exists, the process goes to step S705, and if the item does not exist, the process goes to step S706.

(ステップS705)出力構成部255は、ステップS703で取得したアバターのモーション情報により特定されるアバターのモーションに応じたアイテムのモーション情報を取得する。 (Step S705) The output configuration unit 255 acquires the motion information of the item corresponding to the motion of the avatar specified by the motion information of the avatar acquired in step S703.

(ステップS706)出力構成部255は、アバターの動作を構成する。またはアバターとアイテムの動作を構成する。上位処理にリターンする。なお、動作を構成することは、最終的に、出力部26が、アバター等が動作を行う画像を出力できれば良く、例えば、アバター等が動作を行う画像を出力部26に渡すことである。 (Step S706) The output configuration unit 255 constitutes the operation of the avatar. Or configure the behavior of avatars and items. Return to higher-level processing. It should be noted that the operation is finally configured as long as the output unit 26 can output an image in which the avatar or the like performs the operation, and for example, the image in which the avatar or the like performs the operation is passed to the output unit 26.

(ステップS707)出力構成部255は、ステップS518で受け付けられた操作がアイテムに対する操作であるか否かを判断する。アイテムに対する操作であればステップS708に行き、アイテムに対する操作でなければステップS717に行く。 (Step S707) The output configuration unit 255 determines whether or not the operation received in step S518 is an operation for an item. If it is an operation on an item, it goes to step S708, and if it is not an operation on an item, it goes to step S717.

(ステップS708)出力構成部255は、ステップS517で取得された種類識識別子が「第一種」であるか否かを判断する。「第一種」であればステップS709に行き、「第二種」であればステップS713に行く。なお、ここでは、種類識識別子が「第一種」でなければ、種類識識別子は「第二種」である、とする。 (Step S708) The output configuration unit 255 determines whether or not the type identification identifier acquired in step S517 is the “first type”. If it is "first type", it goes to step S709, and if it is "second kind", it goes to step S713. Here, it is assumed that the type-knowledge identifier is "class 2" if the type-knowledge identifier is not "first-class".

(ステップS709)出力構成部255は、ステップS701で取得した操作情報に応じたアイテムモーション情報を読み出す。 (Step S709) The output configuration unit 255 reads out the item motion information corresponding to the operation information acquired in step S701.

(ステップS710)出力構成部255は、ステップS701で取得した操作情報に応じた(アイテムの動作に追従する)アバターのモーション情報を取得する。また、出力構成部255は、アバターの基本モーション情報を取得する。 (Step S710) The output configuration unit 255 acquires the motion information of the avatar (following the movement of the item) according to the operation information acquired in step S701. Further, the output configuration unit 255 acquires the basic motion information of the avatar.

(ステップS711)モーション合成部254は、ステップS709およびステップS710で取得したすべてのモーション情報を合成する。 (Step S711) The motion synthesizing unit 254 synthesizes all the motion information acquired in steps S709 and S710.

(ステップS712)出力構成部255は、ステップS711で取得したモーション情報を用いて、アバターとアイテムの動作を構成する。上位処理にリターンする。 (Step S712) The output configuration unit 255 configures the movement of the avatar and the item by using the motion information acquired in step S711. Return to higher-level processing.

(ステップS713)出力構成部255は、ステップS701で取得した操作情報に応じたアイテムモーション情報を構成する。 (Step S713) The output configuration unit 255 configures item motion information according to the operation information acquired in step S701.

(ステップS714)出力構成部255は、ステップS701で取得した操作情報に応じた(アイテムの動作に追従する)アバターのモーション情報を構成する。また、出力構成部255は、アバターの基本モーション情報を取得する。 (Step S714) The output configuration unit 255 configures the motion information of the avatar (following the movement of the item) according to the operation information acquired in step S701. Further, the output configuration unit 255 acquires the basic motion information of the avatar.

(ステップS715)出力構成部255は、ステップS713およびステップS714で取得したすべてのモーション情報を合成する。 (Step S715) The output configuration unit 255 synthesizes all the motion information acquired in steps S713 and S714.

(ステップS716)出力構成部255は、ステップS715で取得したモーション情報を用いて、アバターとアイテムの動作を構成する。上位処理にリターンする。 (Step S716) The output configuration unit 255 configures the movement of the avatar and the item by using the motion information acquired in step S715. Return to higher-level processing.

(ステップS717)出力構成部255は、ステップS701で取得した操作情報を用いて、現在、出力されている画像に対して、ステップS518で受け付けられた操作に応じた画像を構成する。上位処理にリターンする。 (Step S717) The output configuration unit 255 uses the operation information acquired in step S701 to configure an image corresponding to the operation accepted in step S518 with respect to the currently output image. Return to higher-level processing.

次に、作成者端末3の動作例について、図8のフローチャートを用いて説明する。 Next, an operation example of the creator terminal 3 will be described with reference to the flowchart of FIG.

(ステップS801)端末受付部32は、アイテム表示情報を受け付けたか否かを判断する。アイテム表示情報を受け付けた場合はステップS802に行き、アイテム表示情報を受け付けなかった場合はステップS810に行く。 (Step S801) The terminal reception unit 32 determines whether or not the item display information has been received. If the item display information is accepted, the process goes to step S802, and if the item display information is not accepted, the process goes to step S810.

(ステップS802)端末送信部34は、アイテムモーション情報の選択画面の送信指示を、サーバ1に送信する。 (Step S802) The terminal transmission unit 34 transmits a transmission instruction on the item motion information selection screen to the server 1.

(ステップS803)端末受信部35は、サーバ1から、アイテムモーション情報の選択画面を受信したか否かを判断する。選択画面を受信した場合はステップS804に行き、選択画面を受信しなかった場合はステップS803に戻る。 (Step S803) The terminal receiving unit 35 determines whether or not the item motion information selection screen has been received from the server 1. If the selection screen is received, the process goes to step S804, and if the selection screen is not received, the process returns to step S803.

(ステップS804)端末出力部36は、アイテムモーション情報の選択画面を出力する。 (Step S804) The terminal output unit 36 outputs an item motion information selection screen.

(ステップS805)端末受付部32は、出力された選択画面に対して、アイテムモーション情報の選択を受け付けたか否かを判断する。選択を受け付けた場合はステップS806に行き、選択を受け付けなかった場合はステップS805に戻る。 (Step S805) The terminal reception unit 32 determines whether or not the selection of the item motion information has been accepted for the output selection screen. If the selection is accepted, the process goes to step S806, and if the selection is not accepted, the process returns to step S805.

(ステップS806)端末処理部33は、選択に対応するアイテムモーション情報を取得する。次に、端末処理部33は、ステップS801で受け付けられたアイテム表示情報と、取得したアイテムモーション情報とを有するアイテム情報を構成する。 (Step S806) The terminal processing unit 33 acquires the item motion information corresponding to the selection. Next, the terminal processing unit 33 configures item information having the item display information received in step S801 and the acquired item motion information.

(ステップS807)端末受付部32は、装着条件を受け付けたか否かを判断する。装着条件を受け付けた場合はステップS808に行き、装着条件を受け付けなかった場合はステップS809に行く。なお、ここで、通常、装着条件を受け付けるまで、または装着条件は入力されないことが示されるまで、ウェイトする。 (Step S807) The terminal reception unit 32 determines whether or not the mounting condition has been accepted. If the mounting condition is accepted, the process goes to step S808, and if the mounting condition is not accepted, the process goes to step S809. Here, normally, the weight is waited until the mounting condition is accepted or until it is shown that the mounting condition is not input.

(ステップS808)端末送信部34は、ステップS806で構成されたアイテム情報と、ステップS807で受け付けられた装着条件とを対応付けて、サーバ1に送信する。ステップS801に戻る。 (Step S808) The terminal transmission unit 34 associates the item information configured in step S806 with the mounting conditions accepted in step S807 and transmits the item information to the server 1. Return to step S801.

(ステップS809)端末送信部34は、ステップS806で構成されたアイテム情報をサーバ1に送信する。ステップS801に戻る。 (Step S809) The terminal transmission unit 34 transmits the item information configured in step S806 to the server 1. Return to step S801.

(ステップS810)端末受付部32は、ワールド情報またはアバター情報を受け付けたか否かを判断する。情報を受け付けた場合はステップS811に行き、情報を受け付けなかった場合はステップS801に戻る。 (Step S810) The terminal reception unit 32 determines whether or not the world information or the avatar information has been received. If the information is received, the process goes to step S811, and if the information is not received, the process returns to step S801.

(ステップS811)端末送信部34は、ステップS810で受け付けられた情報をサーバ1に送信する。ステップS801に戻る。 (Step S811) The terminal transmission unit 34 transmits the information received in step S810 to the server 1. Return to step S801.

なお、図8のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 In the flowchart of FIG. 8, the process is terminated by turning off the power or interrupting the end of the process.

以下、本実施の形態における情報システムAの具体的な動作例について説明する。 Hereinafter, a specific operation example of the information system A in the present embodiment will be described.

今、サーバ1のサーバ格納部11には、ワールド情報、アバター情報、および2以上のアイテムモーション情報が格納されている、とする。かかる情報は、サーバ1の運営者が、サーバ1に蓄積した情報である、とする。 Now, it is assumed that the server storage unit 11 of the server 1 stores world information, avatar information, and two or more item motion information. It is assumed that such information is information accumulated in the server 1 by the operator of the server 1.

また、ここでの2以上のアイテムモーション情報は、ボールの動作を特定する情報(ボールが投げられた場合の動作を特定する情報)、剣の動作を特定する情報(剣が振られた場合の動作を特定する情報)、拳銃の動作を特定する情報(拳銃を発射した場合に、玉が飛ぶ動作特定する情報)を含む、とする。また、2以上の各アイテムモーション情報には、少なくとも一つのアイテム表示情報が対応付いている、とする。アイテム表示情報は、例えば、ボールを表示するための情報、剣を表示するための情報、拳銃を表示するための情報である。 Further, the two or more item motion information here is information for specifying the movement of the ball (information for specifying the movement when the ball is thrown) and information for specifying the movement of the sword (when the sword is swung). Information that identifies the movement of the pistol) and information that identifies the movement of the pistol (information that specifies the movement of the ball to fly when the pistol is fired) are included. Further, it is assumed that at least one item display information is associated with each of two or more item motion information. The item display information is, for example, information for displaying a ball, information for displaying a sword, and information for displaying a pistol.

また、本具体例において、アバター出力装置2の種類を識別する種類識別子は、「第一種」または「第二種」である、とする。また、本具体例において、「第一種」は二次元デバイスを示す情報であり、「第二種」はVRデバイスを示す情報である、とする。そして、サーバ格納部11のアイテムモーション情報は、「第一種」であるアバター出力装置2において、使用される、とする。 Further, in this specific example, it is assumed that the type identifier that identifies the type of the avatar output device 2 is "type 1" or "type 2". Further, in this specific example, it is assumed that "first type" is information indicating a two-dimensional device and "second type" is information indicating a VR device. Then, it is assumed that the item motion information of the server storage unit 11 is used in the avatar output device 2 which is the "first type".

かかる状況において、以下、装着条件の一例としての装着位置を含むアイテム情報を作成する例について説明する。まず、作成者端末3の作成者Aの操作により、作成者端末3は、図9の画面をサーバ1から受信し、出力した、とする。なお、図9は、作成者Aがアイテムをサーバ1に登録する際の画面である。また、図9の901は、サーバ1の運営者が予め準備したアイテムの種別(アイテムモーション情報を含む)を選択するためのフィールドである。また、902は、サーバ1の運営者が予め準備したアイテムのアイテムモーション情報を使用せずに、作成者Aが準備したアイテムモーション情報を含むアイテム情報を登録するためのフィールドである。903は、アイテムのアバターへの装着位置を特定する情報を登録するためのフィールドである。903において、ここでは、予め準備された装着位置「左手」「右手」「腰」等のうちから、一の装着位置を選択するためのフィールドである。 In such a situation, an example of creating item information including a mounting position as an example of mounting conditions will be described below. First, it is assumed that the creator terminal 3 receives the screen of FIG. 9 from the server 1 and outputs it by the operation of the creator A of the creator terminal 3. Note that FIG. 9 is a screen when the creator A registers the item in the server 1. Further, 901 in FIG. 9 is a field for selecting an item type (including item motion information) prepared in advance by the operator of the server 1. Further, 902 is a field for registering item information including the item motion information prepared by the creator A without using the item motion information of the item prepared in advance by the operator of the server 1. Reference numeral 903 is a field for registering information for specifying the attachment position of the item to the avatar. In 903, here, it is a field for selecting one mounting position from the mounting positions “left hand”, “right hand”, “waist” and the like prepared in advance.

かかる状況で、作成者Aは、図9のフィールド901に「拳銃」、フィールド902に「左手」を入力した、とする。なお、かかる入力は、複数の選択項目からの選択でも良く、入力方法は問わない。 In such a situation, it is assumed that the creator A inputs a "handgun" in the field 901 of FIG. 9 and a "left hand" in the field 902. The input may be selected from a plurality of selection items, and the input method does not matter.

次に、作成者端末3は、「拳銃」に対応するアイテムモーション情報とアイテム表示情報とを有するアイテム情報と、装着位置情報「左手」とを対応付けて、サーバ1に送信する。なお、ここでのアイテムモーション情報は、アバターの左手に装着された場合の拳銃の動作を特定する情報である。 Next, the creator terminal 3 associates the item information having the item motion information and the item display information corresponding to the "handgun" with the mounting position information "left hand" and transmits the item information to the server 1. The item motion information here is information for specifying the operation of the pistol when it is attached to the left hand of the avatar.

次に、サーバ1は、作成者端末3から送信されたアイテム情報と装着位置情報「左手」とを受信し、サーバ格納部11に蓄積する。なお、かかるアイテム情報は、サーバ1の運営者が予め準備した情報から、作成者が選択し、作成したアイテム情報である。 Next, the server 1 receives the item information and the mounting position information "left hand" transmitted from the creator terminal 3 and stores them in the server storage unit 11. The item information is item information selected and created by the creator from the information prepared in advance by the operator of the server 1.

次に、ユーザBは、アバター出力装置2にアイテム「拳銃」のアイテム情報、一のアバター情報、および一のワールド情報の送信指示を入力した、とする。なお、ここでのアバター出力装置2は、スマートフォンである、とする。スマートフォンは、デバイスの種類識別子「第一種」である、とする。 Next, it is assumed that the user B inputs the item information of the item "handgun", the one avatar information, and the one world information transmission instruction to the avatar output device 2. It is assumed that the avatar output device 2 here is a smartphone. It is assumed that the smartphone is the device type identifier "first type".

次に、アバター出力装置2かかる送信指示をサーバ1に送信する。その結果、アバター出力装置2は、一のワールド情報、一のアバター情報、および3つの「拳銃」のアイテム情報をサーバ1から受信し、格納部21に蓄積する。 Next, the avatar output device 2 transmits the transmission instruction to the server 1. As a result, the avatar output device 2 receives one world information, one avatar information, and item information of three "handguns" from the server 1 and stores them in the storage unit 21.

次に、ユーザBは、アバター出力装置2に開始指示を入力した、とする。すると、アバター出力装置2の指示受付部221は、開始指示を受け付ける。ここで、開始指示は、一のワールド情報、一のアバター情報、および3つの「拳銃」のアイテム情報を使用することを特定する指示である、とする。 Next, it is assumed that the user B inputs the start instruction to the avatar output device 2. Then, the instruction receiving unit 221 of the avatar output device 2 receives the start instruction. Here, it is assumed that the start instruction is an instruction specifying to use one world information, one avatar information, and three "handgun" item information.

次に、出力構成部255は、格納部21の一のワールド情報、一のアバター情報、および3つの「拳銃」のアイテム情報を読み出し、三次元の仮想空間におけるワールド、アバター、3つの拳銃を含む画像を構成する。次に、出力部26は、当該画像を出力する。かかる画像の例は、図10である。図10において、1001は、アバターやアイテムが配置されるワールドである。1002は、アバターである。1003、1004、1005は、アイテムである拳銃である。 Next, the output configuration unit 255 reads out one world information, one avatar information, and item information of three "handguns" of the storage unit 21, and includes a world, an avatar, and three pistols in a three-dimensional virtual space. Make up the image. Next, the output unit 26 outputs the image. An example of such an image is FIG. In FIG. 10, 1001 is a world in which avatars and items are arranged. 1002 is an avatar. 1003, 1004, 1005 are pistols that are items.

次に、種類取得部251は、アバター出力装置2の格納部21から、種類識別子「第一種」を読み出す。 Next, the type acquisition unit 251 reads out the type identifier "first type" from the storage unit 21 of the avatar output device 2.

次に、ユーザBは、表示されているアバターをアイテム「拳銃」を選択できる位置まで移動させる操作を行った、とする。すると、出力構成部255は、移動させる操作に対応する操作情報を取得する。次に、出力構成部255は、当該操作情報に応じた、アバターのモーション情報(移動するモーション情報)を取得する。次に、出力構成部255は、アバターの動作を構成する(動作を行うプログラムを実行する)。そして、出力部26は、アバターが「拳銃」を選択できる位置まで移動する出力を行う。 Next, it is assumed that the user B has performed an operation to move the displayed avatar to a position where the item "handgun" can be selected. Then, the output configuration unit 255 acquires the operation information corresponding to the operation to be moved. Next, the output configuration unit 255 acquires the motion information (moving motion information) of the avatar according to the operation information. Next, the output configuration unit 255 configures the operation of the avatar (executes a program that performs the operation). Then, the output unit 26 outputs to move the avatar to a position where the "handgun" can be selected.

次に、ユーザBは、拳銃1004をタップした、とする。また、ユーザBは、右手で拳銃を持つ操作を行った、とする。すると、操作受付部222は、ユーザのタップの操作を受け付ける。また、操作受付部222は、右手で拳銃を持つ操作を受け付ける。次に、出力構成部255は、当該操作に対応する操作情報を取得する。 Next, it is assumed that the user B taps the pistol 1004. Further, it is assumed that the user B has performed an operation of holding a pistol with his right hand. Then, the operation reception unit 222 accepts the user's tap operation. In addition, the operation reception unit 222 accepts an operation of holding a pistol with the right hand. Next, the output configuration unit 255 acquires the operation information corresponding to the operation.

次に、出力構成部255は、取得された種類識識別子が「第一種」である、と判断する。次に、出力構成部255は、拳銃1004に対応するアイテムモーション情報をアイテム格納部213から読み出す。なお、かかるアイテムモーション情報は、作成者Aにより、サーバ1に登録された情報である、とする。 Next, the output configuration unit 255 determines that the acquired type knowledge identifier is the "first type". Next, the output configuration unit 255 reads the item motion information corresponding to the pistol 1004 from the item storage unit 213. It is assumed that the item motion information is the information registered in the server 1 by the creator A.

次に、補正部253は、拳銃1004に対応するアイテムモーション情報と対になる装着条件「左手」を取得する。また、補正部253は、現在の拳銃1004の装着位置情報「右手」を取得する。次に、補正部253は、左手用のアイテムモーション情報を、右手用の動作となるように変更し、変更後のアイテムモーション情報を取得する。 Next, the correction unit 253 acquires the wearing condition "left hand" that is paired with the item motion information corresponding to the pistol 1004. Further, the correction unit 253 acquires the current mounting position information "right hand" of the pistol 1004. Next, the correction unit 253 changes the item motion information for the left hand so that the operation is for the right hand, and acquires the changed item motion information.

また、出力構成部255は、取得した操作情報に応じたアバターのモーション情報を取得する。ここでは、アバターの右手が拳銃1004に近づき、当該拳銃1004を右手に装着するアイテムモーション情報を取得する。また、出力構成部255は、アバターの基本モーション情報(ここでは、アバターが呼吸をするために胸部が前後に揺れる動作の情報)を取得する。 Further, the output configuration unit 255 acquires the motion information of the avatar according to the acquired operation information. Here, the right hand of the avatar approaches the pistol 1004, and the item motion information for mounting the pistol 1004 on the right hand is acquired. In addition, the output configuration unit 255 acquires basic motion information of the avatar (here, information on the movement of the chest swinging back and forth due to the avatar breathing).

次に、モーション合成部254は、取得したすべてのモーション情報を合成する。 Next, the motion synthesizing unit 254 synthesizes all the acquired motion information.

次に、出力構成部255は、受け付けられた操作情報に基づいて、かつ補正されたアイテムモーション情報を含む合成されたモーション情報を用いて、アバターの右手に拳銃1004が持たれるまで移動動作を構成する。 Next, the output configuration unit 255 configures a movement operation based on the received operation information and using the synthesized motion information including the corrected item motion information until the pistol 1004 is held in the right hand of the avatar. do.

次に、出力部26は、アバターとアイテムである拳銃1004の動作を含む画像を出力する。 Next, the output unit 26 outputs an image including the operation of the avatar and the pistol 1004 which is an item.

次に、ユーザBは、アバターを、ワールドの中の的1101に正体する位置に移動させるための操作を行う。そして、アバター出力装置2は、かかる操作を受け付けることにより、アバターを、図11の1102に示す位置に移動させる出力を行う。 Next, the user B performs an operation for moving the avatar to a position in the world that identifies the target 1101. Then, by accepting such an operation, the avatar output device 2 outputs to move the avatar to the position shown in 1102 of FIG.

次に、ユーザBは、ボタン1103を指示する。なお、ボタン1103は、アバターが保持している拳銃1004を使用するためのボタンである。拳銃1004の使用とは、拳銃1004から玉を発射させることである。 Next, the user B instructs the button 1103. The button 1103 is a button for using the pistol 1004 held by the avatar. The use of the pistol 1004 is to fire a ball from the pistol 1004.

次に、アバター出力装置2の操作受付部222は、ユーザの操作(ボタン1103の指示)を受け付ける。そして、出力構成部255は、受け付けられた操作に対応する操作情報を取得する。なお、操作情報は、例えば、ボタン1103の識別子を含む。 Next, the operation reception unit 222 of the avatar output device 2 receives the user's operation (instruction of the button 1103). Then, the output configuration unit 255 acquires the operation information corresponding to the accepted operation. The operation information includes, for example, the identifier of the button 1103.

次に、出力構成部255は、操作情報を用いて、受け付けられた操作がアイテムに対する操作である、と判断する。 Next, the output configuration unit 255 determines that the received operation is an operation for the item by using the operation information.

次に、出力構成部255は、取得された種類識識別子が「第一種」である、と判断する。 Next, the output configuration unit 255 determines that the acquired type knowledge identifier is the "first type".

次に、出力構成部255は、取得した操作情報に応じたアイテムモーション情報(拳銃1004から玉を発射させる動作の情報)であり、拳銃1004に対応付いているアイテムモーション情報を、アイテム格納部213から読み出す。 Next, the output configuration unit 255 is item motion information (information on the operation of firing a ball from the pistol 1004) according to the acquired operation information, and the item motion information corresponding to the pistol 1004 is stored in the item storage unit 213. Read from.

次に、出力構成部255は、アバターの基本モーション情報を取得する。次に、モーション合成部254は、取得したすべてのモーション情報を合成する。 Next, the output configuration unit 255 acquires the basic motion information of the avatar. Next, the motion synthesizing unit 254 synthesizes all the acquired motion information.

次に、出力構成部255は、合成されたモーション情報を用いて、アバターとアイテムの動作を構成する。かかる動作は、アバターの呼吸によるアバターの胸部の前後の揺れの動作、および拳銃1004から玉が発射される動作である。 Next, the output configuration unit 255 configures the movements of the avatar and the item using the synthesized motion information. Such movements are the movement of shaking the avatar's chest back and forth due to the breathing of the avatar, and the movement of firing a ball from the pistol 1004.

次に、出力部26は、構成された動作を含む画像であり、アバターとアイテムの動作を含む画像を出力する(図11参照)。 Next, the output unit 26 is an image including the configured motion, and outputs an image including the motion of the avatar and the item (see FIG. 11).

なお、上記の具体例において、アバター出力装置2が「第一種」である場合について説明した。また、アバター出力装置2が「第一種」である場合、歩いているときに、持っている拳銃と腕は一定の姿勢および一定の位置関係で変化しない、とする。一方、アバター出力装置2が「第二種」である場合、ユーザの腕に動きに連動して拳銃を持つ腕も動き、拳銃を打つ時もユーザが腕を構える動きに連動して拳銃を打つ姿勢になる、とする。 In the above specific example, the case where the avatar output device 2 is the "first type" has been described. Further, when the avatar output device 2 is the "first type", it is assumed that the pistol and the arm held do not change in a certain posture and a certain positional relationship when walking. On the other hand, when the avatar output device 2 is the "second type", the arm holding the pistol moves in conjunction with the movement of the user's arm, and when the user hits the pistol, the pistol is hit in conjunction with the movement of the user holding the arm. It will be a posture.

以上、本実施の形態によれば、条件に応じた異なるアイテムモーション情報を用いて、柔軟にアイテムを動作させることができる。 As described above, according to the present embodiment, the item can be flexibly operated by using different item motion information according to the conditions.

また、本実施の形態によれば、デバイスの種類に応じた異なるアイテムモーション情報を用いて、柔軟にアイテムを動作させることができる。 Further, according to the present embodiment, it is possible to flexibly operate the item by using different item motion information according to the type of the device.

また、本実施の形態によれば、アイテムが装着されたアバターに応じて、アイテムモーション情報を補正できる。 Further, according to the present embodiment, the item motion information can be corrected according to the avatar to which the item is attached.

また、本実施の形態によれば、アイテムが装着されたアバターにおける装着位置情報に応じて、アイテムモーション情報を補正できる。 Further, according to the present embodiment, the item motion information can be corrected according to the wearing position information in the avatar on which the item is mounted.

また、本実施の形態によれば、アバターの形状に関する形状属性値に応じて、モーション情報を補正できる。 Further, according to the present embodiment, the motion information can be corrected according to the shape attribute value related to the shape of the avatar.

また、本実施の形態によれば、アイテムモーション情報と基本モーション情報とを合成して、取得した合成モーション情報を用いて、アイテムを動作させることができる。 Further, according to the present embodiment, the item motion information and the basic motion information can be combined, and the item can be operated by using the acquired synthesized motion information.

また、本実施の形態によれば、作成者が作成したアイテム情報を用いて、ユーザは、アイテムを出力できる。 Further, according to the present embodiment, the user can output the item by using the item information created by the creator.

また、本実施の形態によれば、アバターの部位の動きに関するアイテムモーション情報を用いて、柔軟にアイテムを動作させることができる。 Further, according to the present embodiment, the item can be flexibly operated by using the item motion information regarding the movement of the part of the avatar.

さらに、本実施の形態によれば、容易にアイテム情報を構築できる環境を提供できる。 Further, according to the present embodiment, it is possible to provide an environment in which item information can be easily constructed.

なお、本実施の形態の具体例によれば、種類識別子が「第一種」の場合に、アバター出力装置2が第一出力態様の出力を行う場合の動作例を説明した。しかし、上述した通り、種類識別子が「第二種」の場合には、アバター出力装置2は第二出力態様の出力を行う。 According to the specific example of the present embodiment, an operation example in which the avatar output device 2 outputs the first output mode when the type identifier is “first type” has been described. However, as described above, when the type identifier is "type 2", the avatar output device 2 outputs the second output mode.

さらに、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD−ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態におけるサーバ1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、アバターを表示するためのモデル情報を有するアバター情報が格納されるサーバ格納部にアクセス可能なコンピュータを、アイテムを作成する作成者の端末である作成者端末からアイテム情報を受信するサーバ受信部と、前記アバター情報と前記アイテム情報とを、アバター出力装置2に送信するサーバ送信部として機能させるためのプログラムである。 Further, the processing in the present embodiment may be realized by software. Then, this software may be distributed by software download or the like. Further, this software may be recorded on a recording medium such as a CD-ROM and disseminated. It should be noted that this also applies to other embodiments herein. The software that realizes the server 1 in this embodiment is the following program. That is, this program receives the item information from the creator terminal, which is the creator's terminal that creates the item, on the computer that can access the server storage that stores the avatar information that has the model information for displaying the avatar. This is a program for making the server receiving unit, the avatar information, and the item information function as a server transmitting unit for transmitting to the avatar output device 2.

また、本実施の形態におけるアバター出力装置2を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、アバターを表示するためのモデル情報を有するアバター情報が格納されるアバター格納部と、当該アバターが装着するアイテムの情報であり、アイテムの表示のためのアイテム表示情報を有するアイテム情報が格納されるアイテム格納部とにアクセス可能なコンピュータを、ユーザからの操作を受け付ける操作受付部と、予め決められたアイテム条件に基づいて、前記操作に基づいて、前記アイテム表示情報に予め対応付いているアイテムモーション情報を取得し、当該アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第一出力態様、および前記操作に基づいて、アイテムモーション情報を構成し、当該アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第二出力態様を含む2以上の態様のうちの、少なくとも一の態様の出力を行う出力部として機能させるためのプログラムである。 Further, the software that realizes the avatar output device 2 in the present embodiment is the following program. That is, this program is an avatar storage unit that stores avatar information having model information for displaying an avatar, and information on an item to be worn by the avatar, and is an item having item display information for displaying the item. A computer that can access the item storage unit that stores information corresponds to the item display information in advance based on the operation based on the operation reception unit that accepts operations from the user and the predetermined item conditions. The item motion information is configured based on the first output mode that acquires the attached item motion information and outputs the item and the avatar that performs the operation using the item motion information, and the operation, and the item motion information. It is a program for functioning as an output unit that outputs at least one of two or more modes including a second output mode that outputs an item and an avatar that performs an operation using the above.

また、図12は、本明細書で述べたプログラムを実行して、上述した種々の実施の形態のアバター出力装置等を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図12は、このコンピュータシステム300の概観図であり、図13は、システム300のブロック図である。 Further, FIG. 12 shows the appearance of a computer that executes the program described in the present specification to realize the avatar output device and the like of the various embodiments described above. The above-described embodiment can be realized by computer hardware and a computer program executed on the computer hardware. FIG. 12 is an overview view of the computer system 300, and FIG. 13 is a block diagram of the system 300.

図12において、コンピュータシステム300は、CD−ROMドライブを含むコンピュータ301と、キーボード302と、マウス303と、モニタ304とを含む。 In FIG. 12, the computer system 300 includes a computer 301 including a CD-ROM drive, a keyboard 302, a mouse 303, and a monitor 304.

図13において、コンピュータ301は、CD−ROMドライブ3012に加えて、MPU3013と、CD−ROMドライブ3012等に接続されたバス3014と、ブートアッププログラム等のプログラムを記憶するためのROM3015と、MPU3013に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3016と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3017とを含む。ここでは、図示しないが、コンピュータ301は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。 In FIG. 13, in addition to the CD-ROM drive 3012, the computer 301 includes an MPU 3013, a bus 3014 connected to the CD-ROM drive 3012, the ROM 3015 for storing a program such as a boot-up program, and the MPU 3013. It includes a RAM 3016 that is connected and for temporarily storing instructions of an application program and providing a temporary storage space, and a hard disk 3017 for storing an application program, a system program, and data. Although not shown here, the computer 301 may further include a network card that provides a connection to the LAN.

コンピュータシステム300に、上述した実施の形態のアバター出力装置等の機能を実行させるプログラムは、CD−ROM3101に記憶されて、CD−ROMドライブ3012に挿入され、さらにハードディスク3017に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ301に送信され、ハードディスク3017に記憶されても良い。プログラムは実行の際にRAM3016にロードされる。プログラムは、CD−ROM3101またはネットワークから直接、ロードされても良い。 The program for causing the computer system 300 to execute the functions such as the avatar output device of the above-described embodiment may be stored in the CD-ROM 3101, inserted into the CD-ROM drive 3012, and further transferred to the hard disk 3017. Alternatively, the program may be transmitted to the computer 301 via a network (not shown) and stored in the hard disk 3017. The program is loaded into RAM 3016 at run time. The program may be loaded directly from the CD-ROM3101 or the network.

プログラムは、コンピュータ301に、上述した実施の形態のアバター出力装置等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム300がどのように動作するかは周知であり、詳細な説明は省略する。 The program does not necessarily have to include an operating system (OS), a third-party program, or the like that causes the computer 301 to execute a function such as the avatar output device of the above-described embodiment. The program only needs to include a part of instructions that call the appropriate function (module) in a controlled manner and obtain the desired result. It is well known how the computer system 300 works, and detailed description thereof will be omitted.

なお、上記プログラムにおいて、情報を送信するステップや、情報を受信するステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。 In the above program, in the step of transmitting information and the step of receiving information, the processing performed by the hardware, for example, the processing performed by the modem or the interface card in the transmission step (only performed by the hardware). Processing) is not included.

また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。 Further, the number of computers that execute the above program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

また、上記各実施の形態において、一の装置に存在する2以上の通信手段は、物理的に一の媒体で実現されても良いことは言うまでもない。 Further, it goes without saying that in each of the above embodiments, the two or more communication means existing in one device may be physically realized by one medium.

また、上記各実施の形態において、各処理は、単一の装置によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。 Further, in each of the above embodiments, each process may be realized by centralized processing by a single device, or may be realized by distributed processing by a plurality of devices.

本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 It goes without saying that the present invention is not limited to the above embodiments, and various modifications can be made, and these are also included in the scope of the present invention.

以上のように、本発明にかかるアバター出力装置は、条件に応じた異なるアイテムモーション情報を用いて、柔軟にアイテムを動作させることができるという効果を有し、アバター出力装置等として有用である。 As described above, the avatar output device according to the present invention has an effect that the item can be flexibly operated by using different item motion information according to the conditions, and is useful as an avatar output device or the like.

1 サーバ
2 アバター出力装置
3 作成者端末
11 サーバ格納部
12 サーバ受信部
13 サーバ処理部
14 サーバ送信部
21 格納部
22 受付部
23 送信部
24 受信部
25 処理部
26 出力部
31 端末格納部
32 端末受付部
33 端末処理部
34 端末送信部
35 端末受信部
36 端末出力部
211 ワールド格納部
212 アバター格納部
213 アイテム格納部
221 指示受付部
222 操作受付部
241 ワールド受信部
242 アバター受信部
243 アイテム受信部
251 種類取得部
252 属性値取得部
253 補正部
254 モーション合成部
255 出力構成部
1 Server 2 Avatar output device 3 Creator terminal 11 Server storage unit 12 Server reception unit 13 Server processing unit 14 Server transmission unit 21 Storage unit 22 Reception unit 23 Transmission unit 24 Reception unit 25 Processing unit 26 Output unit 31 Terminal storage unit 32 Terminal Reception unit 33 Terminal processing unit 34 Terminal transmission unit 35 Terminal reception unit 36 Terminal output unit 211 World storage unit 212 Avatar storage unit 213 Item storage unit 221 Instruction reception unit 222 Operation reception unit 241 World reception unit 242 Avatar reception unit 243 Item reception unit 251 Type acquisition unit 252 Attribute value acquisition unit 253 Correction unit 254 Motion composition unit 255 Output configuration unit

Claims (16)

アバターを表示するためのモデル情報を有するアバター情報が格納されるアバター格納部と、
当該アバターが装着するアイテムの情報であり、アイテムの表示のためのアイテム表示情報を有するアイテム情報が格納されるアイテム格納部と、
ユーザからの操作を受け付ける操作受付部と、
前記操作に基づいて、前記アイテム表示情報に予め対応付いているアイテムモーション情報を取得し、当該アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第一出力態様、および前記ユーザの動作を含む前記操作に基づいて、アイテムモーション情報を構成し、当該アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第二出力態様を含む2以上の態様のうちの、出力態様を選択するための条件であるアイテム条件に基づいて選択した一の出力態様の出力行う出力部とを具備するアバター出力装置。
An avatar storage unit that stores avatar information that has model information for displaying avatars,
An item storage unit that stores item information that is information on the item worn by the avatar and has item display information for displaying the item, and an item storage unit.
An operation reception unit that accepts operations from users,
Based on the operation, the first output mode of acquiring the item motion information corresponding to the item display information in advance and outputting the item and the avatar performing the operation using the item motion information, and the operation of the user. Select an output mode from two or more modes including a second output mode in which item motion information is configured and an item and an avatar that performs an operation using the item motion information are output based on the above operation including. avatar output device and an output unit for outputting one of the output mode selected on the basis of the item condition is a condition for.
前記アイテム条件は、The item condition is
前記アイテムとアバターとが表示されるデバイスのハードウェアに関する条件、またはユーザが設定した出力態様を特定するモードについての条件である、請求項1記載のアバター出力装置。The avatar output device according to claim 1, which is a condition relating to the hardware of the device in which the item and the avatar are displayed, or a condition relating to a mode for specifying an output mode set by the user.
前記アイテム条件はデバイスの種類に基づく条件であり、
アバター出力装置の種類である種類識別子を取得する種類取得部をさらに具備し、
前記種類識別子が第一種であれば第一出力態様の出力を行い、前記種類識別子が第二種であれば第二出力態様の出力を行う、請求項1または請求項2記載のアバター出力装置。
The item condition is a condition based on the type of device.
It also has a type acquisition unit that acquires the type identifier, which is the type of the avatar output device.
The avatar output device according to claim 1 or 2 , wherein if the type identifier is the first type, the output of the first output mode is performed, and if the type identifier is the second type, the output of the second output mode is performed. ..
前記アイテム条件は、アバター出力装置の処理能力に基づく条件である、請求項1または請求項2記載のアバター出力装置。 The avatar output device according to claim 1 or 2, wherein the item condition is a condition based on the processing capacity of the avatar output device. 前記アイテムが装着された前記アバターに関する属性値を取得する属性値取得部と、
前記属性値に応じて、前記アイテム表示情報に予め対応付いている前記アイテムモーション情報を補正する補正部と、
前記出力部は、
前記第一出力態様による出力を行う場合に、前記補正部が補正した前記アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する、請求項1から請求項4いずれか一項に記載のアバター出力装置。
An attribute value acquisition unit that acquires an attribute value related to the avatar to which the item is attached, and
A correction unit that corrects the item motion information that is associated with the item display information in advance according to the attribute value, and a correction unit.
The output unit is
The item according to any one of claims 1 to 4 , wherein when the output is performed according to the first output mode, the item and the avatar that perform the operation using the item motion information corrected by the correction unit are output. Avatar output device.
前記属性値取得部は、
前記アイテムが前記アバターに装着された位置を特定する属性値である装着位置情報を取得し、
前記補正部は、
前記装着位置情報に応じて、前記アイテム表示情報に予め対応付いている前記アイテムモーション情報を補正する、請求項記載のアバター出力装置。
The attribute value acquisition unit is
Acquires the mounting position information, which is an attribute value that specifies the position where the item is mounted on the avatar.
The correction unit
The avatar output device according to claim 5 , wherein the item motion information corresponding to the item display information in advance is corrected according to the mounting position information.
前記属性値取得部は、
前記アバターの形状に関する形状属性値を取得し、
前記補正部は、
前記形状属性値に応じて、前記アイテム表示情報に予め対応付いている前記アイテムモーション情報を補正する、請求項記載のアバター出力装置。
The attribute value acquisition unit is
Acquire the shape attribute value related to the shape of the avatar, and
The correction unit
The avatar output device according to claim 5 , wherein the item motion information associated with the item display information in advance is corrected according to the shape attribute value.
前記アバター情報は、アバターのモーションの情報である基本モーション情報を有し、
前記アイテム表示情報に予め対応付いている前記アイテムモーション情報と前記基本モーション情報とを合成し、合成モーション情報を取得するモーション合成部をさらに具備し、
前記出力部は、
前記第一出力態様による出力を行う場合に、前記合成モーション情報を用いた動作を行うアイテムとアバターとを出力する、請求項1から請求項いずれか一項に記載のアバター出力装置。
The avatar information has basic motion information which is information on the motion of the avatar.
Further provided with a motion synthesizing unit that synthesizes the item motion information and the basic motion information that are associated with the item display information in advance and acquires the synthesized motion information.
The output unit is
The avatar output device according to any one of claims 1 to 7 , wherein an item and an avatar that perform an operation using the synthetic motion information are output when the output is performed according to the first output mode.
前記アイテム情報は、当該アイテム情報に対応するアイテムをアバターが装着するための装着条件に対応付いており、
前記出力部は、
前記装着条件を満たさないアバターを、当該装着条件に対応するアイテムと共には出力しない、請求項1から請求項いずれか一項に記載のアバター出力装置。
The item information corresponds to the wearing conditions for the avatar to wear the item corresponding to the item information.
The output unit is
The avatar output device according to any one of claims 1 to 8 , wherein the avatar that does not satisfy the wearing condition is not output together with the item corresponding to the wearing condition.
アイテムを作成する作成者の端末である作成者端末から受信されたアイテム情報を送信するサーバからアイテム情報を受信するアイテム受信部をさらに具備し、
前記アイテム格納部のアイテム情報は、前記アイテム受信部が受信したアイテム情報である、請求項1から請求項いずれか一項に記載のアバター出力装置。
It also has an item receiver that receives item information from a server that sends item information received from the creator terminal, which is the creator's terminal that creates the item.
The avatar output device according to any one of claims 1 to 9 , wherein the item information of the item storage unit is item information received by the item reception unit.
前記アイテムモーション情報は、前記アイテムの動きに関する情報であり、
前記出力部は、
前記アイテムモーション情報を用いて、動作を行う前記アイテムを出力し、かつ当該アイテムの前記動作に追従するように、前記アイテムが装着された前記アバターの部位が動作するように前記アバターを出力する、請求項1から請求項10いずれか一項に記載のアバター出力装置。
The item motion information is information regarding the movement of the item, and is
The output unit is
Using the item motion information, the item to perform an action is output, and the avatar is output so that the portion of the avatar to which the item is attached moves so as to follow the action of the item. The avatar output device according to any one of claims 1 to 10.
前記アイテムモーション情報は、前記アイテムが装着された前記アバターの部位の動きに関する情報であり、
前記出力部は、
前記アイテムモーション情報を用いて、前記アイテムが装着された前記アバターの部位を動作させる出力をし、かつ当該アバターの部位の前記動作に追従するように、前記アイテムが動作するように前記アイテムを出力する、請求項1から請求項10いずれか一項に記載のアバター出力装置。
The item motion information is information regarding the movement of the portion of the avatar to which the item is attached.
The output unit is
Using the item motion information, output to operate the part of the avatar to which the item is attached, and output the item so that the item operates so as to follow the movement of the part of the avatar. The avatar output device according to any one of claims 1 to 10.
請求項1から請求項12いずれか一項に記載のアバター出力装置とサーバとを具備する情報システムであって、
前記サーバは、
アバターを表示するためのモデル情報を有するアバター情報が格納されるサーバ格納部と、
アイテムを作成する作成者の端末である作成者端末からアイテム情報を受信するサーバ受信部と、
前記アバター情報と前記アイテム情報とを、前記アバター出力装置に送信するサーバ送信部とを具備する、情報システム
An information system including the avatar output device according to any one of claims 1 to 12 and a server.
The server
A server storage unit that stores avatar information that has model information for displaying avatars,
A server receiver that receives item information from the creator's terminal, which is the creator's terminal that creates the item,
Wherein the avatar information and the item information, and a server transmission unit to be transmitted to the avatar output device, the information system.
前記サーバ格納部には、
2以上のアイテムモーション情報が格納され、
前記サーバ受信部は、
前記作成者端末から少なくとも一つのアイテムモーション情報の選択指示を受信し、
前記サーバ送信部は、
前記選択指示に対応するアイテムモーション情報を含む前記アイテム情報と、前記アバター情報とを送信する、請求項1記載の情報システム
In the server storage unit
Two or more item motion information is stored,
The server receiver is
Upon receiving at least one item motion information selection instruction from the creator terminal,
The server transmitter is
The item information and transmits the said avatar information, according to claim 1 3 information system further comprising an item motion information corresponding to the selection instruction.
アバターを表示するためのモデル情報を有するアバター情報が格納されるアバター格納部と、当該アバターが装着するアイテムの情報であり、アイテムの表示のためのアイテム表示情報を有するアイテム情報が格納されるアイテム格納部と、操作受付部と、出力構成部と、出力部とにより実現されるアバター出力方法であって、
前記操作受付部が、ユーザからの操作を受け付ける操作受付ステップと、
前記出力部が、前記操作に基づいて、前記アイテム表示情報に予め対応付いているアイテムモーション情報を取得し、当該アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第一出力態様、および前記ユーザの動作を含む前記操作に基づいて、アイテムモーション情報を構成し、当該アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第二出力態様を含む2以上の態様のうちの、出力態様を選択するための条件であるアイテム条件に基づいて選択した一の出力態様の出力行う出力ステップとを具備するアバター出力方法。
An avatar storage unit that stores avatar information that has model information for displaying an avatar, and an item that stores item information that is information on the item worn by the avatar and has item display information for displaying the item. It is an avatar output method realized by a storage unit, an operation reception unit, an output configuration unit, and an output unit.
The operation reception step in which the operation reception unit receives an operation from the user,
The first output mode, in which the output unit acquires item motion information corresponding to the item display information in advance based on the operation, and outputs an item and an avatar that perform an operation using the item motion information. Of two or more modes including a second output mode in which item motion information is configured based on the operation including the user's action and an item and an avatar performing the action using the item motion information are output. avatar output method and an output step of outputting one of an output mode selected based on the condition in which the item condition for selecting the output mode.
アバターを表示するためのモデル情報を有するアバター情報が格納されるアバター格納部と、当該アバターが装着するアイテムの情報であり、アイテムの表示のためのアイテム表示情報を有するアイテム情報が格納されるアイテム格納部とにアクセス可能なコンピュータを、
ユーザからの操作を受け付ける操作受付部と、
前記アイテム表示情報に予め対応付いているアイテムモーション情報を取得し、当該アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第一出力態様、および前記ユーザの動作を含む前記操作に基づいて、アイテムモーション情報を構成し、当該アイテムモーション情報を用いた動作を行うアイテムとアバターとを出力する第二出力態様を含む2以上の態様のうちの、出力態様を選択するための条件であるアイテム条件に基づいて選択した一の出力態様の出力行う出力部として機能させるためのプログラム。
An avatar storage unit that stores avatar information that has model information for displaying avatars, and an item that stores item information that has item display information for displaying items, which is information on items worn by the avatar. A computer that can access the storage
An operation reception unit that accepts operations from users,
Based on the first output mode that acquires the item motion information associated with the item display information in advance and outputs the item and the avatar that perform the action using the item motion information, and the operation including the user's action. This is a condition for selecting an output mode from two or more modes including a second output mode in which item motion information is configured and an item and an avatar that performs an operation using the item motion information are output. A program for functioning as an output unit that outputs one output mode selected based on item conditions.
JP2021146821A 2021-09-09 2021-09-09 Avatar output device, information system, avatar output method, and program Active JP6989197B1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021146821A JP6989197B1 (en) 2021-09-09 2021-09-09 Avatar output device, information system, avatar output method, and program
JP2021188858A JP2023039880A (en) 2021-09-09 2021-11-19 Avatar output apparatus, server, avatar output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021146821A JP6989197B1 (en) 2021-09-09 2021-09-09 Avatar output device, information system, avatar output method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021188858A Division JP2023039880A (en) 2021-09-09 2021-11-19 Avatar output apparatus, server, avatar output method, and program

Publications (2)

Publication Number Publication Date
JP6989197B1 true JP6989197B1 (en) 2022-01-05
JP2023039611A JP2023039611A (en) 2023-03-22

Family

ID=79239743

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021146821A Active JP6989197B1 (en) 2021-09-09 2021-09-09 Avatar output device, information system, avatar output method, and program
JP2021188858A Pending JP2023039880A (en) 2021-09-09 2021-11-19 Avatar output apparatus, server, avatar output method, and program

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2021188858A Pending JP2023039880A (en) 2021-09-09 2021-11-19 Avatar output apparatus, server, avatar output method, and program

Country Status (1)

Country Link
JP (2) JP6989197B1 (en)

Also Published As

Publication number Publication date
JP2023039880A (en) 2023-03-22
JP2023039611A (en) 2023-03-22

Similar Documents

Publication Publication Date Title
US11798176B2 (en) Universal body movement translation and character rendering system
JP4807517B2 (en) Information processing apparatus, data processing method, program, and recording medium
US10496158B2 (en) Image generation device, image generation method and non-transitory recording medium storing image generation program
CN112037311B (en) Animation generation method, animation playing method and related devices
CN109885367B (en) Interactive chat implementation method, device, terminal and storage medium
CN104025560B (en) Method and apparatus for providing data entry content to a remote environment
EP2777022A1 (en) Rendering system, rendering server, control method thereof, program, and recording medium
CN111527523A (en) Apparatus and method for sharing virtual reality environment
JP2016103279A (en) Cloud-type three-dimensional model construction system and method of constructing the same
US11305193B2 (en) Systems and methods for multi-user editing of virtual content
JP2021517836A (en) How to adjust virtual items and their devices, terminals and computer programs
US11783523B2 (en) Animation control method and apparatus, storage medium, and electronic device
CN111773686A (en) Animation generation method and device, storage medium and electronic device
KR100623173B1 (en) System for realizing animation of game-character and method for realizing and making the same
JP6989197B1 (en) Avatar output device, information system, avatar output method, and program
CN207676287U (en) A kind of virtual reality experience system
JP2017012559A (en) Video game processing program, video game processing system, and user terminal
JP2024012545A (en) Information processing system, information processing method, and program
JP2015212920A (en) Previous image generation program, virtual machine control program, and computer-readable storage medium
WO2019035456A1 (en) Game device, recording medium, and game system
US20060073898A1 (en) Game machine, game control method, program, its distributing device, and information storage medium
JP6525967B2 (en) PROGRAM, RECORDING MEDIUM, INFORMATION PROCESSING DEVICE, AND CONTROL METHOD
CN113713369B (en) Function key mapping method, simulation control method, device and equipment for multiplayer game
US20150058759A1 (en) Information processing apparatus, information processing system, storage medium and information processing method
WO2022168428A1 (en) Information processing method, information processing device, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210909

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210909

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211125

R150 Certificate of patent or registration of utility model

Ref document number: 6989197

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150