JP7015597B1 - Avatar output device, terminal device, avatar output method, and program - Google Patents

Avatar output device, terminal device, avatar output method, and program Download PDF

Info

Publication number
JP7015597B1
JP7015597B1 JP2021106037A JP2021106037A JP7015597B1 JP 7015597 B1 JP7015597 B1 JP 7015597B1 JP 2021106037 A JP2021106037 A JP 2021106037A JP 2021106037 A JP2021106037 A JP 2021106037A JP 7015597 B1 JP7015597 B1 JP 7015597B1
Authority
JP
Japan
Prior art keywords
avatar
information
score
terminal
avatars
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021106037A
Other languages
Japanese (ja)
Other versions
JP2023004403A (en
Inventor
大樹 半田
拓紀 栗本
Original Assignee
クラスター株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラスター株式会社 filed Critical クラスター株式会社
Priority to JP2021106037A priority Critical patent/JP7015597B1/en
Application granted granted Critical
Publication of JP7015597B1 publication Critical patent/JP7015597B1/en
Publication of JP2023004403A publication Critical patent/JP2023004403A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】従来のアバター出力装置においては、多数のアバターを出力する場合に、各アバターのスコアに応じた適切な処理ができなかった。【解決手段】2以上の各アバターごとに、アバターを表示するための第一モデル情報と1以上の属性値とを有するアバター情報が格納されるアバター格納部112と、2以上の各アバターに対応する1以上の属性値を用いて得られる、2以上の各アバターのスコアを取得するスコア取得部131と、2以上の各アバターのアバター情報を用いて、スコア取得部131が取得したスコアに応じた2以上の各アバターを出力するアバター処理部132とを具備するアバター出力装置1により、多数のアバターを出力する場合に、各アバターのスコアに応じた適切な処理ができる。【選択図】図2PROBLEM TO BE SOLVED: To output a large number of avatars in a conventional avatar output device, and it is not possible to perform appropriate processing according to the score of each avatar. SOLUTION: For each of two or more avatars, it corresponds to an avatar storage unit 112 that stores avatar information having a first model information for displaying an avatar and one or more attribute values, and each of two or more avatars. Score acquisition unit 131 that acquires the score of each of two or more avatars obtained by using one or more attribute values, and according to the score acquired by the score acquisition unit 131 using the avatar information of each of two or more avatars. The avatar output device 1 including the avatar processing unit 132 that outputs two or more avatars can perform appropriate processing according to the score of each avatar when outputting a large number of avatars. [Selection diagram] Fig. 2

Description

特許法第30条第2項適用 令和3年3月26日 https://www.youtube.com/watch?v=wRErhyoT70cを通じて発表Application of Article 30, Paragraph 2 of the Patent Act March 26, 3rd year of Reiwa https: // www. youtube. com / watch? Announced through v = wRErhyoT70c

特許法第30条第2項適用 令和3年3月28日 https://www.youtube.com/watch?v=WyC76fzzzCAを通じて発表Application of Article 30, Paragraph 2 of the Patent Act March 28, 3rd year of Reiwa https: // www. youtube. com / watch? Announced through v = WyC76fzzZCA

特許法第30条第2項適用 令和3年3月31日 https://www.youtube.com/watch?v=YhX7xJ0MkxI、https://speakerdeck.com/clusterinc/cluster-lodを通じて発表Application of Article 30, Paragraph 2 of the Patent Act March 31, 3rd year of Reiwa https: // www. youtube. com / watch? v = YhX7xJ0MkxI, https: // spakerdec. Announced through com / clusterinc / cluster-rod

本発明は、アバターの出力に関する処理を行うアバター出力装置等に関するものである。 The present invention relates to an avatar output device or the like that performs processing related to avatar output.

従来、多人数が参加している臨場感を担保しつつ、好適な鑑賞体験の提供を実現するコンテンツ配信システムがあった(特許文献1参照)。かかるシステムにおいて、主キャラクターのコンテンツと鑑賞ユーザを示す副キャラクターのコンテンツとを出力する際に、副キャラクターのうち所定の挙動を取らせる副キャラクターの割合を決定し、当該割合の副キャラクターのみに動作させることを行っていた。 Conventionally, there has been a content distribution system that realizes the provision of a suitable viewing experience while ensuring the presence of a large number of participants (see Patent Document 1). In such a system, when outputting the content of the main character and the content of the sub-character indicating the viewing user, the ratio of the sub-character that causes a predetermined behavior among the sub-characters is determined, and only the sub-character of the ratio operates. I was going to let you.

特許第6688378号公報Japanese Patent No. 6688378

しかしながら、従来技術置においては、多数のアバターを出力する場合に、各アバターのスコアに応じた適切な処理ができなかった。なお、アバターのスコアに応じた適切な処理は、例えば、アバターのスコアに応じた適切な処理な表示処理、音声出力処理である。また、アバターとは、ユーザの分身として表示されるキャラクターである。また、アバターは、単にキャラクターと考えても良い。 However, in the prior art setting, when outputting a large number of avatars, appropriate processing according to the score of each avatar could not be performed. The appropriate processing according to the avatar score is, for example, appropriate processing display processing and audio output processing according to the avatar score. An avatar is a character displayed as a user's alter ego. Also, the avatar may be simply considered as a character.

本第一の発明のアバター出力装置は、2以上の各アバターごとに、アバターを表示するための第一モデル情報と1以上の属性値とを有するアバター情報が格納されるアバター格納部と、2以上の各アバターに対応する1以上の属性値を用いて得られる、2以上の各アバターのスコアを取得するスコア取得部と、2以上の各アバターのアバター情報を用いて、スコア取得部が取得したスコアに応じた2以上の各アバターを出力するアバター処理部とを具備するアバター出力装置である。 The avatar output device of the first invention has an avatar storage unit that stores avatar information having a first model information for displaying an avatar and one or more attribute values for each of two or more avatars, and two. The score acquisition unit that acquires the score of each of the two or more avatars obtained by using one or more attribute values corresponding to each of the above avatars, and the score acquisition unit that acquires the avatar information of each of the two or more avatars. It is an avatar output device including an avatar processing unit that outputs two or more avatars according to the score.

かかる構成により、多数のアバターを出力する場合に、各アバターのスコアに応じた適切な処理ができる。 With such a configuration, when a large number of avatars are output, appropriate processing can be performed according to the score of each avatar.

また、本第二の発明のアバター出力装置は、第一の発明に対して、アバター処理部は、スコアがスコア条件を満たすアバターとスコアがスコア条件を満たさないアバターとで、アバターの出力方法が異なるように、アバターを出力する、アバター出力装置である。 Further, in the avatar output device of the second invention, in contrast to the first invention, the avatar processing unit uses an avatar whose score satisfies the score condition and an avatar whose score does not satisfy the score condition, and the avatar output method is different. It is an avatar output device that outputs avatars differently.

かかる構成により、多数のアバターを表示する場合に、各アバターのスコアに応じて、ユーザにとって適切に各アバターの表示制御ができる。 With such a configuration, when displaying a large number of avatars, the display control of each avatar can be appropriately controlled by the user according to the score of each avatar.

また、本第三の発明のアバター出力装置は、第二の発明に対して、アバター処理部は、スコアがスコア条件を満たすアバターに対して、第一モデル情報に対してデータサイズの縮減を行った第二モデル情報を用いて、アバターを出力し、スコアがスコア条件を満たさないアバターに対して、第一モデル情報を用いて、アバターを出力する、アバター出力装置である。 Further, in the avatar output device of the third invention, the avatar processing unit reduces the data size of the first model information for the avatar whose score satisfies the score condition for the second invention. It is an avatar output device that outputs an avatar using the second model information and outputs an avatar using the first model information for an avatar whose score does not satisfy the score condition.

かかる構成により、多数のアバターを表示する場合に、処理の負荷を抑制しつつ、ユーザにとって適切に各アバターを表示できる。 With such a configuration, when displaying a large number of avatars, it is possible to appropriately display each avatar for the user while suppressing the processing load.

また、本第四の発明のアバター出力装置は、第二の発明に対して、アバター処理部は、スコアがスコア条件を満たすアバターとスコアがスコア条件を満たさないアバターとで、アバターの動作の制御方法が異なるように、アバターを動作させる、アバター出力装置である。 Further, in the avatar output device of the fourth invention, with respect to the second invention, the avatar processing unit controls the operation of the avatar between the avatar whose score satisfies the score condition and the avatar whose score does not satisfy the score condition. It is an avatar output device that operates an avatar so that the method is different.

かかる構成により、多数のアバターを表示する場合に、各アバターのスコアに応じて、ユーザにとって適切な各アバターの挙動を得ることができる。 With such a configuration, when displaying a large number of avatars, it is possible to obtain the behavior of each avatar suitable for the user according to the score of each avatar.

また、本第五の発明のアバター出力装置は、第一の発明に対して、アバター情報は、音声情報を有し、アバター処理部は、スコアがスコア条件を満たすアバターとスコアがスコア条件を満たさないアバターとで、アバターの音声出力方法が異なるように、音声情報を用いて、アバターの音声を出力する、アバター出力装置である。 Further, in the avatar output device of the fifth invention, the avatar information has voice information with respect to the first invention, and in the avatar processing unit, the avatar whose score satisfies the score condition and the score satisfy the score condition. It is an avatar output device that outputs the avatar's voice using voice information so that the avatar's voice output method is different from that of the non-avatar.

かかる構成により、多数のアバターの音声出力を行う場合に、各アバターのスコアに応じて、ユーザにとって適切な各アバターの音声出力が得られる。 With such a configuration, when the voice output of a large number of avatars is performed, the voice output of each avatar suitable for the user can be obtained according to the score of each avatar.

また、本第六の発明のアバター出力装置は、第一から第五いずれか1つの発明に対して、アバター情報が有する1以上の属性値は、動的に変化するアバターの1以上の動的属性値を有し、スコア取得部は、2以上の各アバターに対応する1以上の動的属性値を用いて得られる、2以上の各アバターのスコアを取得する、アバター出力装置である。 Further, in the avatar output device of the sixth invention, for any one of the first to fifth inventions, one or more attribute values possessed by the avatar information are one or more dynamically changing avatars. The score acquisition unit has an attribute value and is an avatar output device that acquires the score of each of two or more avatars obtained by using one or more dynamic attribute values corresponding to each of two or more avatars.

かかる構成により、アバターの動的属性値に基づいた、アバターの適切なスコアを取得できる。 With such a configuration, an appropriate score of the avatar can be obtained based on the dynamic attribute value of the avatar.

また、本第七の発明のアバター出力装置は、第六の発明に対して、1以上の動的属性値は、アバターに対応するユーザの視野に関する属性値、カメラの視野に関する属性値、ユーザからの距離に関する属性値、ユーザに対する向きに関する属性値のいずれかを含む、アバター出力装置である。 Further, in the avatar output device of the seventh invention, with respect to the sixth invention, one or more dynamic attribute values are the attribute value related to the user's field of view corresponding to the avatar, the attribute value related to the field of view of the camera, and the user. An avatar output device that includes either an attribute value related to the distance of the avatar or an attribute value related to the orientation with respect to the user.

かかる構成により、アバターの適切な動的属性値に基づいた、アバターの適切なスコアを取得できる。 With such a configuration, it is possible to obtain an appropriate score of the avatar based on the appropriate dynamic attribute value of the avatar.

また、本第八の発明のアバター出力装置は、第一から第七いずれか1つの発明に対して、端末装置において、2以上のアバターを含む画像が出力されるまでの処理において、端末装置と処理を分担する、アバター出力装置である。 Further, the avatar output device of the eighth invention is the terminal device and the terminal device in the process until an image including two or more avatars is output in the terminal device for any one of the first to seventh inventions. It is an avatar output device that shares the processing.

かかる構成により、2以上の各端末装置とアバター出力装置とで処理を分担できる。 With such a configuration, processing can be shared between two or more terminal devices and an avatar output device.

また、本第九の発明のアバター出力装置は、第八の発明に対して、1以上の動的属性値を用いてスコアまたは判定結果を取得する処理は端末装置が行い、第一モデル情報を用いて、第二モデル情報を取得する処理はアバター出力装置が行う、アバター出力装置である。 Further, in the avatar output device of the ninth invention, the terminal device performs the process of acquiring the score or the determination result using one or more dynamic attribute values for the eighth invention, and obtains the first model information. The process of acquiring the second model information using the avatar output device is performed by the avatar output device.

かかる構成により、2以上の各端末装置とアバター出力装置とで適切に処理を分担できる。 With such a configuration, processing can be appropriately shared between two or more terminal devices and an avatar output device.

また、本第十の発明のアバター出力装置は、第一から第九いずれか1つの発明に対して、アバター格納部の2以上の各アバターのアバター情報は、動的に変化しない1以上の静的属性値を有し、スコア取得部は、2以上の各アバターに対応する1以上の静的属性値を用いて得られる、2以上の各アバターのスコアを取得する、アバター出力装置である。 Further, in the avatar output device of the tenth invention, for any one of the first to ninth inventions, the avatar information of two or more avatars in the avatar storage unit does not change dynamically. The score acquisition unit is an avatar output device that acquires the score of each of two or more avatars obtained by using one or more static attribute values corresponding to each of two or more avatars.

かかる構成により、アバターの静的属性値に基づいた、アバターの適切なスコアを取得できる。 With such a configuration, an appropriate score of the avatar can be obtained based on the static attribute value of the avatar.

また、本第十一の発明のアバター出力装置は、第十の発明に対して、1以上の静的属性値は、アバターの役割に関する属性値、アバターの由来に関する属性値のいずれかを含む、アバター出力装置である。 Further, in the avatar output device of the eleventh invention, with respect to the tenth invention, one or more static attribute values include either an attribute value related to the role of the avatar or an attribute value related to the origin of the avatar. It is an avatar output device.

かかる構成により、アバターの適切な静的属性値にも基づいた、アバターの適切なスコアを取得できる。 With such a configuration, it is possible to obtain an appropriate score of the avatar based on the appropriate static attribute value of the avatar.

また、本第十二の発明のアバター出力装置は、第十の発明に対して、1以上の静的属性値は、アバターに対応する端末装置の属性値を含む、アバター出力装置である。 Further, the avatar output device of the twelfth invention is an avatar output device in which one or more static attribute values include the attribute value of the terminal device corresponding to the avatar, with respect to the tenth invention.

かかる構成により、アバターの適切な静的属性値にも基づいて、アバターの適切なスコアを取得できる。 With such a configuration, an appropriate score of the avatar can be obtained based on the appropriate static attribute value of the avatar.

また、本第十三の発明のアバター出力装置は、第三の発明に対して、第二モデル情報は、第一モデル情報が有するN(Nは2以上の自然数)のメッシュ情報を用いて取得された、Nよりも少ないM(Mは1以上の自然数)のメッシュ情報を有するモデル情報である、アバター出力装置である。 Further, the avatar output device of the thirteenth invention obtains the second model information by using the mesh information of N (N is a natural number of 2 or more) possessed by the first model information with respect to the third invention. It is an avatar output device which is model information having mesh information of M (M is a natural number of 1 or more) less than N.

かかる構成により、2以上の各端末装置に対応するアバターのうちの少なくとも一部のアバターを、適切に圧縮されたデータのアバターとすることにより、多数のアバターを表示する場合に、2以上の端末装置ごとに異なる出力であり、処理の負荷を抑制しつつ、ユーザにとって適切に各アバターを表示できる。 With this configuration, when displaying a large number of avatars by using at least a part of the avatars corresponding to each of the two or more terminal devices as the avatars of appropriately compressed data, the two or more terminals The output is different for each device, and each avatar can be displayed appropriately for the user while suppressing the processing load.

また、本第十四の発明の端末装置は、アバター出力装置と通信を行い、アバターを表示する端末装置であって、端末装置に対応するアバターの位置情報を含む1以上の端末属性値が格納される端末格納部と、位置情報をアバター出力装置に送信する端末送信部と、アバター出力装置から1以上の他の端末装置に対応する他アバターの位置情報を受信する端末受信部と、1以上の他アバターの位置情報と位置情報とを用いて、1以上の他アバターのスコアを取得する端末処理部とを具備し、端末送信部は、端末装置の端末識別子に対応付けて、1以上の他アバターのスコアまたはスコアに基づく判定結果をアバター出力装置に送信し、端末受信部は、スコアまたは判定結果の送信に応じて、アバター出力装置から他アバターのモデル情報であり、スコアまたは判定結果に応じた異なるモデル情報または異なる音声情報を受信し、モデル情報または音声情報を用いて、1以上の他アバターを出力する端末出力部をさらに具備する端末装置である。 Further, the terminal device of the fourteenth invention is a terminal device that communicates with an avatar output device and displays an avatar, and stores one or more terminal attribute values including the position information of the avatar corresponding to the terminal device. Terminal storage unit, terminal transmitter unit that transmits position information to the avatar output device, terminal receiver unit that receives position information of one or more other avatars corresponding to one or more other terminal devices from the avatar output device, and one or more. It includes a terminal processing unit that acquires the score of one or more other avatars by using the position information and the position information of the other avatar, and the terminal transmission unit is associated with the terminal identifier of the terminal device and has one or more terminals. The score of another avatar or the judgment result based on the score is transmitted to the avatar output device, and the terminal receiver is the model information of the other avatar from the avatar output device according to the transmission of the score or the judgment result, and is used as the score or the judgment result. It is a terminal device further comprising a terminal output unit that receives different model information or different voice information according to the situation and outputs one or more other avatars by using the model information or voice information.

かかる構成により、2以上の各端末装置に対応するアバターのスコアを取得し、当該スコアに応じて異なるモデル情報または異なる音声情報のアバターを出力できる。 With this configuration, it is possible to acquire scores of avatars corresponding to each of two or more terminal devices and output avatars of different model information or different voice information according to the scores.

本発明によるアバター出力装置によれば、多数のアバターを出力する場合に、各アバターのスコアに応じた適切な処理ができる。 According to the avatar output device according to the present invention, when a large number of avatars are output, appropriate processing can be performed according to the score of each avatar.

実施の形態1における情報システムAの概念図Conceptual diagram of the information system A in the first embodiment 同情報システムAのブロック図Block diagram of the information system A 同アバター出力装置1の動作例について説明するフローチャートA flowchart illustrating an operation example of the avatar output device 1. 同アバター情報取得処理の例について説明するフローチャートFlow chart explaining an example of the avatar information acquisition process 同音声情報処理の例について説明するフローチャートA flowchart explaining an example of the voice information processing 同端末装置2の動作例について説明するフローチャートA flowchart illustrating an operation example of the terminal device 2. 同スコア取得処理の例について説明するフローチャートA flowchart illustrating an example of the score acquisition process. 同表示情報構成処理の例について説明するフローチャートA flowchart illustrating an example of the display information configuration process. 同音声出力処理の例について説明するフローチャートA flowchart illustrating an example of the audio output processing. 同情報システムAの具体的な動作例について説明する図The figure explaining the specific operation example of the information system A 同アバター管理表を示す図Diagram showing the same avatar management table 同判定結果のイメージを示す図The figure which shows the image of the judgment result 同出力例を示す図Figure showing the same output example 同コンピュータシステムの概観図Overview of the computer system 同コンピュータシステムのブロック図Block diagram of the computer system

以下、アバター出力装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。 Hereinafter, embodiments of the avatar output device and the like will be described with reference to the drawings. In addition, since the components with the same reference numerals perform the same operation in the embodiment, the description may be omitted again.

(実施の形態1)
本実施の形態において、仮想的な三次元空間(以下、適宜、単に「三次元空間」と言う。)の中に滞在する2以上の各アバターの属性値に応じて、スコアを取得し、当該スコアに基づいて、アバターに関する処理を異なる処理とする情報システムについて説明する。なお、三次元空間は、例えば、VRであるが、AR等でも良い。
(Embodiment 1)
In the present embodiment, scores are acquired according to the attribute values of two or more avatars staying in a virtual three-dimensional space (hereinafter, appropriately simply referred to as "three-dimensional space"), and the score is obtained. An information system in which the processing related to the avatar is different based on the score will be described. The three-dimensional space is, for example, VR, but may be AR or the like.

また、異なる処理とは、例えば、各アバターの表示に用いるデータの取得方法が異なること、各アバターの挙動を異なる挙動とすること、出力される音声の取得方法が異なること、出力される音声の属性値を異なる属性値とすること等である。 Further, the different processes are, for example, different acquisition methods of data used for displaying each avatar, different behaviors of each avatar, different acquisition methods of output voice, and output voice. For example, the attribute value may be a different attribute value.

本実施の形態における情報システムは、例えば、三次元空間の中において、各ユーザの分身である2以上のアバターが集まり、ユーザ間において、コミュニケーションをすることを支援するシステムである。本情報システムは、ゲーム等にも応用可能である。本情報システムは、アバターを出力する機能を有すれば良く、応用範囲は問わない。 The information system in the present embodiment is, for example, a system that supports communication between users by gathering two or more avatars, which are the alter ego of each user, in a three-dimensional space. This information system can also be applied to games and the like. This information system only needs to have a function to output an avatar, and the range of application is not limited.

なお、以下、2以上のユーザのうちの一人のユーザに対応するアバターを自アバターと表現し、それ以外のユーザを他アバターと表現する。 Hereinafter, the avatar corresponding to one of the two or more users is expressed as an own avatar, and the other users are expressed as other avatars.

さらに、本実施の形態において、三次元空間の中のアバター表示に関する処理を、アバター出力装置と端末装置とで、適切に分担する情報システムについて説明する。 Further, in the present embodiment, an information system in which the processing related to the avatar display in the three-dimensional space is appropriately shared between the avatar output device and the terminal device will be described.

図1は、本実施の形態における情報システムAの概念図である。情報システムAは、アバター出力装置1、および1または2以上の端末装置2を備える。 FIG. 1 is a conceptual diagram of the information system A in the present embodiment. The information system A includes an avatar output device 1 and one or more terminal devices 2.

アバター出力装置1は、アバターの出力のための処理を行う装置である。アバター出力装置1は、ここでは、通常、いわゆるサーバであるが、スタンドアロンで動作する装置でも良い。アバター出力装置1は、例えば、クラウドサーバ、ASPサーバ等である。なお、アバター出力装置1の種類は問わない。また、アバター出力装置1がスタンドアロンの装置である場合、端末装置2は不要であり、後述する端末装置2の機能の一部は、アバター出力装置1が実行する。 The avatar output device 1 is a device that performs processing for outputting an avatar. The avatar output device 1 is usually a so-called server here, but may be a device that operates standalone. The avatar output device 1 is, for example, a cloud server, an ASP server, or the like. The type of the avatar output device 1 does not matter. Further, when the avatar output device 1 is a stand-alone device, the terminal device 2 is unnecessary, and the avatar output device 1 executes some of the functions of the terminal device 2 described later.

端末装置2は、ユーザが使用する端末である。端末装置2は、自分に対応する自アバターと1以上の他アバターとを出力する端末である。一のアバターは、例えば、一の端末装置2に対応付く。また、一のアバターは、例えば、一のユーザに対応付く。他アバターは、他の端末装置2を使用する他のユーザに対応するアバターである。なお、一のユーザに対して2以上のアバターが対応付いていても良い。つまり、一のユーザが、2以上のアバターを切り替えて、2以上のアバターの中の一つのアバターを使用しても良い。端末装置2は、例えば、いわゆるパーソナルコンピュータ、タブレット端末、スマートフォン等であり、その種類は問わない。なお、出力とは、通常、表示であるが、表示デバイスへの送信でも良い。 The terminal device 2 is a terminal used by the user. The terminal device 2 is a terminal that outputs its own avatar corresponding to itself and one or more other avatars. One avatar corresponds to, for example, one terminal device 2. Also, one avatar corresponds to, for example, one user. The other avatar is an avatar corresponding to another user who uses the other terminal device 2. In addition, two or more avatars may be associated with one user. That is, one user may switch between two or more avatars and use one of the two or more avatars. The terminal device 2 is, for example, a so-called personal computer, a tablet terminal, a smartphone, or the like, and the type thereof does not matter. The output is usually a display, but may be transmitted to a display device.

図2は、本実施の形態における情報システムAのブロック図である。情報システムAを構成するアバター出力装置1は、格納部11、受付部12、処理部13、および出力部14を備える。格納部11は、ワールド格納部111、およびアバター格納部112を備える。受付部12は、アバター受信部121を備える。処理部13は、スコア取得部131、およびアバター処理部132を備える。出力部14は、位置情報送信部141、および音声出力部142を備える。 FIG. 2 is a block diagram of the information system A according to the present embodiment. The avatar output device 1 constituting the information system A includes a storage unit 11, a reception unit 12, a processing unit 13, and an output unit 14. The storage unit 11 includes a world storage unit 111 and an avatar storage unit 112. The reception unit 12 includes an avatar receiving unit 121. The processing unit 13 includes a score acquisition unit 131 and an avatar processing unit 132. The output unit 14 includes a position information transmission unit 141 and an audio output unit 142.

端末装置2は、端末格納部21、端末受付部22、端末処理部23、端末送信部24、端末受信部25、および端末出力部26を備える。 The terminal device 2 includes a terminal storage unit 21, a terminal reception unit 22, a terminal processing unit 23, a terminal transmission unit 24, a terminal reception unit 25, and a terminal output unit 26.

アバター出力装置1を構成する格納部11には、各種の情報が格納される。各種の情報とは、例えば、後述するワールド情報、後述するアバター情報である。 Various types of information are stored in the storage unit 11 that constitutes the avatar output device 1. The various types of information are, for example, world information described later and avatar information described later.

ワールド格納部111には、ワールド情報が格納される。ワールド情報は、ワールドを構成するための情報である。ワールド情報の構造は問わない。ワールドは、通常、仮想的な三次元空間である。なお、ワールドは、場と言っても良い。 World information is stored in the world storage unit 111. World information is information for forming a world. The structure of world information does not matter. The world is usually a virtual three-dimensional space. The world can be called a place.

アバター格納部112には、1または2以上のアバター情報が格納される。アバター情報は、出力されるアバターを構成するための情報を含む。アバター情報は、アバターごとの情報である。アバター情報は、アバター識別子に対応付いている。アバター識別子に対応付いていることは、アバター識別子を有することでも良い。アバター識別子は、例えば、アバターのIDであるが、アバターに対応するユーザのID、端末装置2のID等でも良い。 One or two or more avatar information is stored in the avatar storage unit 112. The avatar information includes information for configuring the output avatar. Avatar information is information for each avatar. The avatar information corresponds to the avatar identifier. Having a correspondence with an avatar identifier may also have an avatar identifier. The avatar identifier is, for example, the ID of the avatar, but may be the ID of the user corresponding to the avatar, the ID of the terminal device 2, or the like.

アバター情報は、モデル情報を有する。モデル情報は、アバターの表示を構成するための情報である。モデル情報は、例えば、メッシュ情報、ボーン情報、マテリアル情報を有する。モデル情報は、例えば、glTF ?(GL Transmission Format)?のデータ構造を有する。ただし、モデル情報のデータ構造は、VRM、OBJ、FBX、STL、GLB、COLLADA、等でも良く、種類を問わない。 The avatar information has model information. The model information is information for configuring the display of the avatar. The model information includes, for example, mesh information, bone information, and material information. The model information has, for example, a data structure of glTF? (GL Transmission Format) ?. However, the data structure of the model information may be VRM, OBJ, FBX, STL, GLB, COLLADA, etc., regardless of the type.

ここでの各アバター情報は、データサイズの異なる2種類以上のモデル情報を有することは好適である。アバター情報は、例えば、第一モデル情報と第二モデル情報とを有する。ここで、「第一モデル情報のデータサイズ>第二モデル情報のデータサイズ」である。第二モデル情報は、例えば、第一モデル情報のデータサイズを圧縮したモデル情報である。なお、圧縮のアルゴリズムは問わない。第二モデル情報は、例えば、第一モデル情報が有するメッシュ情報のうち、2以上のメッシュ情報から一のメッシュ情報を構成し(メッシュを統合し)、メッシュ情報を削減したモデル情報である。また、第二モデル情報は、例えば、第一モデル情報が有する色情報の階調を小さくすることにより、データサイズを削減したモデル情報である。第二モデル情報は、例えば、第一モデル情報が有するテクスチャのアトラス化により、データサイズを小さくしたモデル情報である。 It is preferable that each avatar information here has two or more types of model information having different data sizes. The avatar information has, for example, first model information and second model information. Here, "data size of the first model information> data size of the second model information". The second model information is, for example, model information obtained by compressing the data size of the first model information. The compression algorithm does not matter. The second model information is, for example, model information in which one mesh information is configured (integrated mesh) from two or more mesh information among the mesh information possessed by the first model information, and the mesh information is reduced. Further, the second model information is model information in which the data size is reduced by, for example, reducing the gradation of the color information possessed by the first model information. The second model information is, for example, model information in which the data size is reduced by making the texture of the first model information into an atlas.

なお、第一モデル情報は、例えば、アバター識別子に対応付けて、端末装置2から送信された情報である。なお、アバター識別子は、端末識別子でも良い。また、第一モデル情報は、例えば、端末装置2から送信された元情報を用いて取得された情報でも良い。元情報は、モデル情報でも良いし、モデル情報を特定する識別子でも良い。 The first model information is, for example, information transmitted from the terminal device 2 in association with the avatar identifier. The avatar identifier may be a terminal identifier. Further, the first model information may be, for example, information acquired by using the original information transmitted from the terminal device 2. The original information may be model information or an identifier that identifies the model information.

また、アバター情報は、モデル情報の他、音声情報や1以上の属性値を有することは好適である。 Further, it is preferable that the avatar information has voice information and one or more attribute values in addition to the model information.

音声情報は、アバターが発する音声の情報である。音声情報のデータ構造やデータ形式は問わない。アバター情報は、データサイズまたは属性値が異なる2種類以上の音声情報を有することは好適である。アバター情報は、例えば、第一音声情報と第二音声情報とを有する。例えば、「第一音声情報のデータサイズ>第二音声情報のデータサイズ」である。また、例えば、「第一音声情報の属性値であるボリューム>第二音声情報の属性値であるボリューム」である。また、例えば、「第一音声情報の属性値であるサンプリング周波数>第二音声情報の属性値であるサンプリング周波数」である。また、例えば、「第一音声情報の属性値である高さ(周波数)>第二音声情報の属性値である高さ(周波数)」である。 The voice information is voice information emitted by the avatar. The data structure and data format of audio information does not matter. It is preferable that the avatar information has two or more types of voice information having different data sizes or attribute values. The avatar information includes, for example, first voice information and second voice information. For example, "data size of the first voice information> data size of the second voice information". Further, for example, "volume which is the attribute value of the first voice information> volume which is the attribute value of the second voice information". Further, for example, "sampling frequency which is an attribute value of the first voice information> sampling frequency which is an attribute value of the second voice information". Further, for example, "height (frequency) which is an attribute value of the first voice information> height (frequency) which is an attribute value of the second voice information".

1以上の各属性値は、アバターの属性値である。属性値は、例えば、動的属性値、または静的属性値である。 Each attribute value of 1 or more is an attribute value of the avatar. The attribute value is, for example, a dynamic attribute value or a static attribute value.

動的属性値は、動的に変化し得る属性値である。動的属性値は、例えば、位置情報、向き情報である。 A dynamic attribute value is an attribute value that can change dynamically. The dynamic attribute value is, for example, position information and orientation information.

位置情報は、アバターの場における位置を特定する情報である。位置情報は、例えば、ユーザが入力した位置情報である。ユーザが入力した位置情報は、通常、アバターを動作させるユーザの操作により決定される情報である。位置情報は、場(ワールドと言っても良い)の中での絶対的な位置を特定する情報であり、例えば、三次元座標(x、y、z)または二次元座標(x、y)である。 The position information is information that identifies the position of the avatar in the field. The position information is, for example, the position information input by the user. The position information input by the user is usually information determined by the operation of the user who operates the avatar. The position information is information that specifies an absolute position in a field (which may be called a world), and is, for example, three-dimensional coordinates (x, y, z) or two-dimensional coordinates (x, y). be.

向き情報は、アバターの場における向きを特定する情報である。向き情報は、例えば、基準となる方向に対する角度である。基準となる方向は、場の中での絶対的な向きを特定する情報である。向き情報は、例えば、場の中の正面を向いているか否かを示す情報である。 The orientation information is information that identifies the orientation of the avatar in the field. The orientation information is, for example, an angle with respect to a reference direction. The reference direction is information that identifies the absolute direction in the field. The orientation information is, for example, information indicating whether or not the person is facing the front in the field.

静的属性値は、動的には変化しない属性値である。静的属性値は、例えば、役割属性値、由来属性値、端末属性値である。 A static attribute value is an attribute value that does not change dynamically. The static attribute value is, for example, a role attribute value, an origin attribute value, and a terminal attribute value.

役割属性値は、アバターの役割に関する情報である。役割属性値は、例えば、「主催者」「司会者」「観客」である。なお、「主催者」は、仮想的な三次元空間上で、アバターを用いたイベントを開催する場合の主催者である。「司会者」は、仮想的な三次元空間上で、アバターを用いたイベントを開催する場合の司会者である。「観客」は、仮想的な三次元空間上で、アバターを用いたイベントを開催する場合の観客である。 The role attribute value is information about the role of the avatar. The role attribute values are, for example, "organizer", "moderator", and "audience". The "organizer" is an organizer when an event using an avatar is held in a virtual three-dimensional space. The "moderator" is a moderator when holding an event using an avatar in a virtual three-dimensional space. The "audience" is an audience when an event using an avatar is held in a virtual three-dimensional space.

由来属性値は、アバターの由来に関する情報である。由来属性値は、例えば、ユーザが作成したアバター(UGC)か否かを示す情報である。 The origin attribute value is information regarding the origin of the avatar. The origin attribute value is, for example, information indicating whether or not the avatar (UGC) is created by the user.

端末属性値は、アバターに対応する端末装置2に関する情報である。端末属性値は、例えば、端末装置2の種類を特定する端末種類識別子(例えば、「PC」「スマートフォン」「タブレット」)、端末装置2のプロセッサの能力を特定する情報(例えば、能力のレベル、動作周波数(GHz))、端末装置2の画面サイズ、アスペクト比である。 The terminal attribute value is information about the terminal device 2 corresponding to the avatar. The terminal attribute value is, for example, a terminal type identifier that specifies the type of the terminal device 2 (for example, "PC", "smartphone", "tablet"), information that specifies the ability of the processor of the terminal device 2 (for example, the level of the ability, etc.). Operating frequency (GHz)), screen size of the terminal device 2, and aspect ratio.

受付部12は、各種の情報や指示を受け付ける。なお、ここでの受け付けは、通常、端末装置2からの受信であるが、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付け等でも良い。 The reception unit 12 receives various information and instructions. The reception here is usually reception from the terminal device 2, but reception of information input from an input device such as a keyboard, mouse, or touch panel, and reading from a recording medium such as an optical disk, a magnetic disk, or a semiconductor memory. It may be possible to accept the information provided.

また、各種の情報や指示は、例えば、アバター情報、音声情報、リクエストである。受け付けられるアバター情報は、アバター格納部112のアバター情報と同じ構造でなくても良い。受け付けられるアバター情報は、例えば、第一モデル情報と位置情報とを有する。 Further, various information and instructions are, for example, avatar information, voice information, and requests. The accepted avatar information does not have to have the same structure as the avatar information of the avatar storage unit 112. The accepted avatar information includes, for example, the first model information and the position information.

リクエストは、アバターの送信の要求である。リクエストは、例えば、他アバターの表示に関するリクエストであり、他アバターを示すアバター識別子とモデル情報の組を、1組以上、有する。リクエストは、例えば、ワールド情報の送信指示を有しても良い。 The request is a request to send an avatar. The request is, for example, a request for displaying another avatar, and has one or more sets of an avatar identifier indicating another avatar and model information. The request may have, for example, an instruction to send world information.

アバター受信部121は、ユーザが使用する2以上の各端末装置2から第一モデル情報または元情報を受信する。元情報は、第一モデル情報の元になる情報である。元情報は、例えば、モデル情報であるが、第一モデル情報の識別子でも良い。 The avatar receiving unit 121 receives the first model information or the original information from each of the two or more terminal devices 2 used by the user. The original information is the information that is the source of the first model information. The original information is, for example, model information, but may be an identifier of the first model information.

アバター受信部121は、2以上の各端末装置2から、各端末装置2に対応するアバターの位置を特定する位置情報をも受信することは好適である。なお、アバター受信部121は、2以上の各端末装置2から第一モデル情報または元情報、位置情報、およびアバター識別子を対応付けて受信することは好適である。ただし、第一モデル情報または元情報、および位置情報は対応付けば良く、別々に受信されても良い。なお、アバター識別子は、アバターを識別する情報であり、例えば、ID、ユーザ名である。また、アバター受信部121が端末装置2から第一モデル情報または元情報を受信したことに応じて、ユニークなアバター識別子が取得されても良い。 It is preferable that the avatar receiving unit 121 also receives position information for specifying the position of the avatar corresponding to each terminal device 2 from two or more terminal devices 2. It is preferable that the avatar receiving unit 121 receives the first model information or the original information, the position information, and the avatar identifier from each of the two or more terminal devices 2 in association with each other. However, the first model information, the original information, and the position information may be associated with each other and may be received separately. The avatar identifier is information that identifies the avatar, and is, for example, an ID or a user name. Further, a unique avatar identifier may be acquired in response to the avatar receiving unit 121 receiving the first model information or the original information from the terminal device 2.

アバター受信部121は、音声情報、位置情報をも受信することは好適である。アバター受信部121は、音声情報を、アバター識別子を対応付けて受信することは好適である。 It is preferable that the avatar receiving unit 121 also receives voice information and position information. It is preferable that the avatar receiving unit 121 receives the voice information in association with the avatar identifier.

アバター受信部121は、2以上の各端末装置2から、第一モデル情報と第二モデル情報とを有するアバター情報を受信しても良い。かかる場合、端末装置2が、第一モデル情報に基づいて、第二モデル情報を取得する処理を行っても良い。 The avatar receiving unit 121 may receive avatar information having first model information and second model information from each of two or more terminal devices 2. In such a case, the terminal device 2 may perform a process of acquiring the second model information based on the first model information.

アバター受信部121は、2以上の各端末装置2から、各端末装置2で取得された1以上の他アバターのスコアまたは判定結果を、アバター識別子に対応付けて受信することは好適である。アバター受信部121は、各端末装置2ごとに、自アバターのスコアまたは判定結果をも受信しても良い。なお、判定結果とは、アバターのモデル情報の種類を決定するための情報である。判定結果は、例えば、スコアに基づいて決定された情報である。判定結果は、例えば、モデル情報の種類を特定する種類識別子である。判定結果は、例えば、第一モデル情報に対応する「第一」、第二モデル情報に対応する「第二」である。 It is preferable that the avatar receiving unit 121 receives from two or more terminal devices 2 the scores or determination results of one or more other avatars acquired by each terminal device 2 in association with the avatar identifier. The avatar receiving unit 121 may also receive the score or determination result of its own avatar for each terminal device 2. The determination result is information for determining the type of model information of the avatar. The determination result is, for example, information determined based on the score. The determination result is, for example, a type identifier that specifies the type of model information. The determination result is, for example, "first" corresponding to the first model information and "second" corresponding to the second model information.

なお、他アバターは、自アバターでは無いアバターである。自アバターは、端末装置2に対応するアバターである。アバター受信部121が自アバターのスコアを受信しない場合、自アバターのスコアは、通常、デフォルト値(例えば、最高点)である。なお、端末装置2にとっての他アバターのスコアは、端末装置2にとっての他アバターの重要度を特定する情報である。スコアは、例えば、0~100、10段階評価等であるが、その範囲等は問わない。また、判定結果は、スコアに基づく情報であるので、スコアである、と考えても良い。 The other avatar is an avatar that is not the own avatar. The own avatar is an avatar corresponding to the terminal device 2. When the avatar receiving unit 121 does not receive the score of the own avatar, the score of the own avatar is usually a default value (for example, the highest score). The score of the other avatar for the terminal device 2 is information for specifying the importance of the other avatar for the terminal device 2. The score is, for example, 0 to 100, 10-grade evaluation, etc., but the range and the like are not limited. Further, since the determination result is information based on the score, it may be considered that it is a score.

処理部13は、各種の処理を行う。各種の処理は、例えば、スコア取得部131、アバター処理部132が行う処理である。 The processing unit 13 performs various processes. The various processes are, for example, processes performed by the score acquisition unit 131 and the avatar processing unit 132.

スコア取得部131は、2以上の各アバターのスコアを取得する。スコアは、アバターに対応する1以上の属性値を用いて得られる情報である。スコア取得部131は、通常、2以上の各端末装置2ごとに、2以上の各アバターのスコアを取得する。つまり、端末装置2によって、同じ他アバターに対するスコアが異なることは好適である。 The score acquisition unit 131 acquires the score of each of two or more avatars. The score is information obtained by using one or more attribute values corresponding to the avatar. The score acquisition unit 131 usually acquires the score of each avatar of 2 or more for each terminal device 2 of 2 or more. That is, it is preferable that the score for the same other avatar differs depending on the terminal device 2.

スコア取得部131は、例えば、2以上の各アバターに対応する1以上の属性値を用いて、2以上の各アバターのスコアを取得する。 The score acquisition unit 131 acquires the score of each of two or more avatars by using, for example, one or more attribute values corresponding to each of two or more avatars.

スコア取得部131は、例えば、演算式、対応表、または機械学習により、スコアを取得する。つまり、スコア取得部131は、例えば、1以上の各属性値を演算式に代入し、当該演算式を実行し、スコアを取得する。スコア取得部131は、例えば、1以上の各属性値を要素とするベクトルまたはスカラーと、最も近似するベクトルまたはスカラーを対応表から検出し、当該最も近似するベクトルまたはスカラーと対になるスコアを対応表から取得する。なお、対応表は、ベクトルまたはスカラーとスコアとの組である2以上の対応情報を有する表である。スコア取得部131は、例えば、学習器と、1以上の各属性値とを、機械学習の予測処理のモジュールに与え、当該モジュールを実行し、スコアを取得する。なお、学習器は、1以上の各属性値とスコアとを有する2以上の教師データを、機械学習の学習処理のモジュールに与え、当該モジュールを実行して、取得された情報である。なお、機械学習のアルゴリズムは、深層学習、ランダムフォレスト、SVR、SVM、決定木等、問わない。機械学習のモジュールとして、TensorFlowのライブラリ、TinySVM、R言語のランダムフォレストのライブラリ等が使用可能である。 The score acquisition unit 131 acquires a score by, for example, an arithmetic expression, a correspondence table, or machine learning. That is, the score acquisition unit 131, for example, substitutes each attribute value of 1 or more into the calculation formula, executes the calculation formula, and acquires the score. The score acquisition unit 131 detects, for example, a vector or scalar whose element is one or more attribute values and a vector or scalar that most closely resembles the vector or scalar from the correspondence table, and corresponds a score that is paired with the vector or scalar that most closely resembles the vector or scalar. Get from the table. The correspondence table is a table having two or more correspondence information which is a set of a vector or a scalar and a score. The score acquisition unit 131, for example, gives a learner and each attribute value of 1 or more to a module of prediction processing of machine learning, executes the module, and acquires a score. It should be noted that the learner is information acquired by giving two or more teacher data having one or more attribute values and scores to a module of learning processing of machine learning and executing the module. The machine learning algorithm may be deep learning, random forest, SVR, SVM, decision tree, or the like. As a machine learning module, TensorFlow library, TinySVM, R language random forest library, etc. can be used.

スコア取得部131が自らスコアを算出したり、読み出したりしない場合、スコア取得部131は、例えば、端末装置2が取得した2以上の各アバターのスコアを当該端末装置2から受信する。つまり、スコア取得部131は、自らスコアを取得しても良いし、端末装置2が取得したスコアを受信しても良い。アバターのスコアを取得する場合に使用される1以上の属性値は、1以上の動的属性値を含むことは好適である。アバターのスコアを取得する場合に使用される1以上の属性値は、1以上の静的属性値を含んでも良い。アバターのスコアを取得する場合に使用される1以上の属性値は、1以上の動的属性値と1以上の静的属性値とを含むことは好適である。 When the score acquisition unit 131 does not calculate or read the score by itself, the score acquisition unit 131 receives, for example, the score of each of the two or more avatars acquired by the terminal device 2 from the terminal device 2. That is, the score acquisition unit 131 may acquire the score by itself, or may receive the score acquired by the terminal device 2. It is preferable that the attribute value of 1 or more used when acquiring the score of the avatar includes the dynamic attribute value of 1 or more. The one or more attribute values used to obtain the avatar score may include one or more static attribute values. It is preferable that the attribute value of 1 or more used when acquiring the score of the avatar includes a dynamic attribute value of 1 or more and a static attribute value of 1 or more.

スコア取得部131は、例えば、以下のようなスコア取得処理を行う。つまり、スコア取得部131は、2以上の各端末装置2から受信された1以上の属性値と、各アバターの位置情報とを用いて、2以上の各端末装置2ごとに、1以上の他アバターのスコアを取得する。なお、各端末装置2から受信された1以上の属性値は、例えば、自アバターの位置情報、自アバターの向き情報を有する。 The score acquisition unit 131 performs the following score acquisition processing, for example. That is, the score acquisition unit 131 uses one or more attribute values received from each of the two or more terminal devices 2 and the position information of each avatar, and one or more for each of the two or more terminal devices 2. Get the avatar score. The one or more attribute values received from each terminal device 2 have, for example, the position information of the own avatar and the orientation information of the own avatar.

具体的には、スコア取得部131は、例えば、端末装置2から受信された自アバターの位置情報、端末装置2から受信された自アバターの向き情報、カメラ属性値、1以上の各他アバターの位置情報のうちの2以上の情報を用いて、1以上の他アバターの動的属性値を取得する。なお、カメラ属性値は、例えば、カメラの位置を特定するカメラ位置情報、カメラの向きを特定するカメラ向き情報、カメラの画角を特定する画角情報である。カメラ属性値は、例えば、格納部11に格納されている。また、画角情報は、通常、カメラの水平方向の角度の範囲、カメラの垂直方向の角度の範囲である。なお、ここでのカメラは、仮想的な三次元空間上に設置されたカメラである。 Specifically, the score acquisition unit 131 is, for example, the position information of the own avatar received from the terminal device 2, the orientation information of the own avatar received from the terminal device 2, the camera attribute value, and each of the other avatars having a value of 1 or more. Acquire the dynamic attribute value of one or more other avatars by using two or more of the position information. The camera attribute value is, for example, camera position information for specifying the position of the camera, camera orientation information for specifying the direction of the camera, and angle of view information for specifying the angle of view of the camera. The camera attribute value is stored in, for example, the storage unit 11. Further, the angle of view information is usually a range of the horizontal angle of the camera and a range of the vertical angle of the camera. The camera here is a camera installed in a virtual three-dimensional space.

スコア取得部131は、例えば、自アバターの位置情報と他アバターの位置情報とを用いて、自アバターと他アバターとの距離を取得する。また、スコア取得部131は、例えば、自アバターの位置情報と自アバターの向き情報と他アバターの位置情報とを用いて、他アバターが自アバターの視野の中に入っているか否かを示す動的属性値(視野内属性値と言っても良い。)を取得する。また、スコア取得部131は、例えば、カメラ位置情報とカメラ向き情報と画角情報と他アバターの位置情報とを用いて、他アバターがカメラによる撮影の範囲に入っているか否かを示す動的属性値(撮影範囲属性値と言っても良い。)を取得する。 The score acquisition unit 131 acquires the distance between the own avatar and the other avatar by using, for example, the position information of the own avatar and the position information of the other avatar. Further, the score acquisition unit 131 uses, for example, the position information of the own avatar, the orientation information of the own avatar, and the position information of the other avatar to indicate whether or not the other avatar is in the field of view of the own avatar. Acquires the target attribute value (which may be called the in-field attribute value). Further, the score acquisition unit 131 dynamically indicates whether or not the other avatar is within the range of shooting by the camera by using, for example, the camera position information, the camera orientation information, the angle of view information, and the position information of the other avatar. Acquires an attribute value (which may be called a shooting range attribute value).

そして、スコア取得部131は、例えば、他アバターに対して、距離が近いほど大きな値のスコアを取得する。また、スコア取得部131は、例えば、視野の中に入っている場合に、視野の中に入っていない場合と比較して、大きな値のスコアを取得する。また、スコア取得部131は、例えば、カメラによる撮影の範囲に入っている場合に、撮影の範囲に入っていない場合と比較して、大きな値のスコアを取得する。 Then, the score acquisition unit 131 acquires, for example, a score having a larger value as the distance from the other avatar is shorter. Further, the score acquisition unit 131 acquires a score having a larger value when it is in the visual field, for example, as compared with the case where it is not in the visual field. Further, the score acquisition unit 131 acquires a score having a larger value when it is within the range of shooting by the camera, for example, as compared with the case where it is not within the range of shooting.

さらに具体的には、スコア取得部131は、例えば、他アバターに対して、距離をパラメータとする減少関数により、スコアを取得する。スコア取得部131は、例えば、視野内属性値および撮影範囲属性値に対応する演算式を格納部11から取得し、当該演算式に距離を代入し、当該演算式を実行し、スコアを取得する。なお、演算式は、例えば、距離をパラメータとする減少関数である。 More specifically, the score acquisition unit 131 acquires a score for another avatar, for example, by a decreasing function with a distance as a parameter. The score acquisition unit 131 acquires, for example, an arithmetic expression corresponding to the in-field attribute value and the shooting range attribute value from the storage unit 11, substitutes the distance into the arithmetic expression, executes the arithmetic expression, and acquires the score. .. The arithmetic expression is, for example, a decreasing function with a distance as a parameter.

スコア取得部131は、例えば、距離、視野内属性値、および撮影範囲属性値に対応するスコアを対応表から取得する。かかる場合、対応表は、例えば、距離の範囲、視野内属性値、および撮影範囲属性値の組と、スコアとの対応を示す2以上の対応情報を有する表である。 The score acquisition unit 131 acquires, for example, the score corresponding to the distance, the in-field attribute value, and the shooting range attribute value from the correspondence table. In such a case, the correspondence table is, for example, a table having two or more correspondence information indicating the correspondence between the set of the distance range, the in-field attribute value, and the shooting range attribute value and the score.

また、スコア取得部131は、例えば、1以上の静的属性値を用いて、以下のようなスコア取得処理を行っても良い。なお、1以上の静的属性値は、例えば、アバターの役割に関する属性値、アバターの由来に関する属性値のいずれかを含む。 Further, the score acquisition unit 131 may perform the following score acquisition processing using, for example, one or more static attribute values. The static attribute value of 1 or more includes, for example, either an attribute value related to the role of the avatar or an attribute value related to the origin of the avatar.

スコア取得部131は、例えば、他アバターの役割が「主催者」または「司会者」である場合、他アバターの役割が「観客」である場合と比較して、高いスコアを取得する。スコア取得部131は、例えば、例えば、他アバターがUGCである場合、UGCでない場合と比較して、高いスコアを取得する。 For example, when the role of the other avatar is "organizer" or "moderator", the score acquisition unit 131 acquires a higher score as compared with the case where the role of the other avatar is "audience". For example, when the other avatar is UGC, the score acquisition unit 131 acquires a higher score as compared with the case where the other avatar is not UGC.

スコア取得部131は、例えば、視野内属性値または撮影範囲属性値のみに基づいて、スコアを取得しても良い。スコア取得部131がスコアを取得する場合、当該スコア取得のアルゴリズムも問わない。 The score acquisition unit 131 may acquire a score based only on, for example, the in-field attribute value or the shooting range attribute value. When the score acquisition unit 131 acquires a score, the algorithm for acquiring the score does not matter.

アバター処理部132は、2以上の各アバターのアバター情報を用いて、スコア取得部131が取得したスコアに応じた2以上の各アバターを出力する。ここで、出力とは、通常、端末装置2への送信であるが、ディスプレイへの表示、プロジェクターを用いた投影、音出力、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念であっても良い。また、アバターの出力とは、モデル情報の送信でも良いし、モデル識別子の送信でも良い。端末装置2でアバターが出力されれば良い。 The avatar processing unit 132 uses the avatar information of each of the two or more avatars to output each of the two or more avatars according to the score acquired by the score acquisition unit 131. Here, the output is usually transmission to the terminal device 2, but display on a display, projection using a projector, sound output, storage in a recording medium, other processing devices, other programs, and the like. It may be a concept including delivery of processing results. Further, the output of the avatar may be the transmission of model information or the transmission of a model identifier. It suffices if the avatar is output by the terminal device 2.

スコアに応じたアバターを出力することは、例えば、スコアに応じたアバターの表示制御をすること、スコアに応じたアバターの音声出力制御をすることである。 To output the avatar according to the score is, for example, to control the display of the avatar according to the score and to control the voice output of the avatar according to the score.

表示制御は、アバターの表示に関する処理である。スコアに応じた表示制御は、例えば、モデル選択処理を含む処理、アバターの変形処理を含む処理、挙動選択処理を含む処理である。 The display control is a process related to the display of the avatar. The display control according to the score is, for example, a process including a model selection process, a process including an avatar deformation process, and a process including a behavior selection process.

モデル選択処理は、一のアバターの表示に用いるモデル情報として、スコアに応じて異なる種類のモデル情報を選択する処理である。異なる種類のモデル情報は、例えば、2または3以上の種類のモデル情報である。異なる種類のモデル情報は、例えば、データサイズの異なるモデル情報である。異なる種類のモデル情報は、例えば、第一モデル情報、第二モデル情報、・・・、第N二モデル情報(Nは2または3以上の自然数)である。「第一モデル情報のデータサイズ>第二モデル情報のデータサイズ>・・・>第N二モデル情報のデータサイズ」である。第二モデル情報は、例えば、第一モデル情報に対して、データを削減されたモデル情報である。異なる種類のモデル情報は、例えば、データ構造が異なる(例えば、glTF、VRM、OBJ等)モデル情報である。異なる種類のモデル情報は、例えば、色が異なるモデル情報、使用する色数が異なるモデル情報である。 The model selection process is a process of selecting different types of model information according to the score as model information used for displaying one avatar. The different types of model information are, for example, two or more types of model information. The different types of model information are, for example, model information having different data sizes. The different types of model information are, for example, first model information, second model information, ..., Nth second model information (N is a natural number of 2 or 3 or more). "Data size of the first model information> Data size of the second model information> ...> Data size of the Nth model information". The second model information is, for example, model information in which data is reduced with respect to the first model information. The different types of model information are, for example, model information having different data structures (eg, glTF, VRM, OBJ, etc.). The different types of model information are, for example, model information having different colors and model information using different numbers of colors.

なお、第二モデル情報は、例えば、第一モデル情報が有するN(Nは2以上の自然数)のメッシュ情報を用いて取得された、Nよりも少ないM(Mは1以上の自然数)のメッシュ情報を有するモデル情報である。 The second model information is, for example, a mesh of M (M is a natural number of 1 or more) less than N, which is acquired by using the mesh information of N (N is a natural number of 2 or more) possessed by the first model information. It is model information having information.

アバターの変形処理は、例えば、アバターの形状を変形する処理(例えば、拡大する処理、縮小する処理、痩せさせる処理(横方向の縮小処理)、太らせる処理(横方向の拡大処理)等)である。スコアに応じたアバターの変形処理は、スコアに応じて、変形処理を行ったり、行わなかったりすることでも良い。スコアに応じたアバターの変形処理は、スコアに応じて、異なる変形処理を行うことでも良い。 The avatar transformation process is, for example, a process of transforming the shape of the avatar (for example, an enlargement process, a reduction process, a thinning process (horizontal reduction process), a fattening process (horizontal enlargement process), etc.). be. The transformation process of the avatar according to the score may or may not be performed depending on the score. The transformation processing of the avatar according to the score may be performed different transformation processing according to the score.

挙動選択処理は、一のアバターの挙動が、スコアに応じて異なる挙動とする処理である。異なる挙動は、例えば、「動きが有る」または「動きが無い」のいずれかである。異なる挙動は、例えば、アバターの書き換え頻度の差異である。なお、書き換え頻度が少ないアバターは、書き換え頻度が多いアバターと比較して、動きがスムーズではない。異なる挙動は、例えば、「ユーザの指示通り動作する」「ユーザの指示のうちの一部の指示のみに対する動作をする」である。異なる挙動は、例えば、「標準の動作をする」「標準の動作から一部の動作を除いた動作をする」である。 The behavior selection process is a process in which the behavior of one avatar is different depending on the score. The different behavior is, for example, either "with movement" or "without movement". The different behavior is, for example, the difference in the rewriting frequency of the avatar. It should be noted that the avatar with a low rewriting frequency does not move smoothly as compared with the avatar with a high rewriting frequency. The different behaviors are, for example, "operate according to the user's instruction" and "operate only for a part of the user's instruction". The different behaviors are, for example, "behave as a standard operation" and "behave as a standard operation excluding some operations".

スコアに応じた音声出力制御は、例えば、一のアバターの音声を出力する際に、スコアに応じて音声出力したり、音声出力しなかったりすることである。スコアに応じた音声出力制御は、例えば、スコアに応じて、一のアバターの音声の属性値を異なる属性値として、音声出力することである。異なる属性値とは、例えば、音量、サンプリング周波数、周波数である。 The voice output control according to the score is, for example, to output the voice according to the score or not to output the voice when the voice of one avatar is output. The voice output control according to the score is, for example, to output the voice of one avatar as different attribute values according to the score. The different attribute values are, for example, volume, sampling frequency, frequency.

アバター処理部132は、例えば、スコアがスコア条件を満たすアバターとスコアがスコア条件を満たさないアバターとで、アバターの出力方法が異なるように、アバターを出力する。ここでの出力は、通常、端末装置2への送信であるが、表示等でも良い。また、アバターの出力方法とは、通常、アバターの端末装置2での表示や音声出力に関する。 The avatar processing unit 132 outputs an avatar so that the avatar output method differs between an avatar whose score satisfies the score condition and an avatar whose score does not satisfy the score condition, for example. The output here is usually transmission to the terminal device 2, but may be display or the like. Further, the avatar output method usually relates to display and voice output of the avatar on the terminal device 2.

スコア条件は、スコアに関する条件である。スコア条件は、例えば、アバターのモデル情報のデータサイズを小さくする条件である。スコア条件は、例えば、「スコアが閾値以上」「スコアが閾値より大きい」「スコアが上位N(Nは自然数)以内」「スコアが上位N(Nは自然数)より高い」である。スコア条件は、例えば、「スコアが閾値以下」「スコアが閾値より小さい」「スコアが上位N(Nは自然数)以外」「スコアが上位N(Nは自然数)より低い」である。 The score condition is a condition related to the score. The score condition is, for example, a condition for reducing the data size of the model information of the avatar. The score conditions are, for example, "the score is equal to or higher than the threshold value", "the score is larger than the threshold value", "the score is within the upper N (N is a natural number)", and "the score is higher than the upper N (N is a natural number)". The score conditions are, for example, "score is below the threshold value", "score is smaller than the threshold value", "score is other than the top N (N is a natural number)", and "score is lower than the top N (N is a natural number)".

アバター処理部132は、スコアがスコア条件を満たすアバターに対して、第一モデル情報に対してデータサイズの縮減を行った第二モデル情報を用いて、アバターを出力し、スコアがスコア条件を満たさないアバターに対して、第一モデル情報を用いて、アバターを出力する。なお、アバター処理部132は、例えば、第一モデル情報または元情報を用いて、第二モデル情報を取得する。元情報は、第一モデル情報の元になる情報である。元情報は、例えば、モデル情報であるが、第一モデル情報の識別子でも良い。 The avatar processing unit 132 outputs an avatar using the second model information obtained by reducing the data size of the first model information for the avatar whose score satisfies the score condition, and the score satisfies the score condition. For non-avatars, the avatar is output using the first model information. The avatar processing unit 132 acquires the second model information by using, for example, the first model information or the original information. The original information is the information that is the source of the first model information. The original information is, for example, model information, but may be an identifier of the first model information.

アバター処理部132は、例えば、スコアがスコア条件を満たすアバターとスコアがスコア条件を満たさないアバターとで、アバターの動作の制御方法が異なるように、アバターを動作させる。動作の制御方法が異なることは、上述した異なる挙動である。 The avatar processing unit 132 operates the avatar so that the control method of the operation of the avatar differs between the avatar whose score satisfies the score condition and the avatar whose score does not satisfy the score condition, for example. The difference in the operation control method is the above-mentioned different behavior.

アバター処理部132は、スコアがスコア条件を満たすアバターとスコアがスコア条件を満たさないアバターとで、アバターの音声出力方法が異なるように、音声情報を用いて、アバターの音声を出力する。音声出力方法が異なることは、上述したスコアに応じた音声出力制御である。 The avatar processing unit 132 outputs the voice of the avatar by using the voice information so that the voice output method of the avatar differs between the avatar whose score satisfies the score condition and the avatar whose score does not satisfy the score condition. The difference in the audio output method is the audio output control according to the score described above.

アバター処理部132がアバターを出力する場合、例えば、2以上の各端末装置2ごとに、2以上のアバターを、2以上の各端末装置2に送信する。 When the avatar processing unit 132 outputs an avatar, for example, two or more avatars are transmitted to each of two or more terminal devices 2 for each of two or more terminal devices 2.

アバター処理部132がアバターは、端末装置2で表示されるアバターの情報と完全に同一でなくても良い。アバター処理部132が出力するアバターは、端末装置2で表示されるアバターを構成するための情報でも良い。アバターを出力することは、アバターを含む画像を出力することでも良い。 The avatar of the avatar processing unit 132 does not have to be completely the same as the avatar information displayed on the terminal device 2. The avatar output by the avatar processing unit 132 may be information for configuring the avatar displayed on the terminal device 2. To output the avatar, it may be possible to output an image including the avatar.

アバター処理部132は、例えば、第一モデル情報または元情報を用いて、第二モデル情報を取得する。かかる処理は圧縮処理という。アバター処理部132は、例えば、第一モデル情報または元情報が有する2以上のメッシュ情報から一のメッシュ情報を構成し、メッシュ情報の数を削減した第二モデル情報を取得する。 The avatar processing unit 132 acquires the second model information by using, for example, the first model information or the original information. Such processing is called compression processing. For example, the avatar processing unit 132 constitutes one mesh information from two or more mesh information possessed by the first model information or the original information, and acquires the second model information in which the number of mesh information is reduced.

また、アバター処理部132は、例えば、第一モデル情報または元情報が有する色情報の階調を小さくすることにより、データサイズを削減した第二モデル情報を取得する。アバター処理部132は、例えば、第一モデル情報または元情報が有するテクスチャのアトラス化により、データサイズを小さくした第二モデル情報を取得する。 Further, the avatar processing unit 132 acquires the second model information with the data size reduced, for example, by reducing the gradation of the color information of the first model information or the original information. The avatar processing unit 132 acquires the second model information with the data size reduced, for example, by atlasing the texture of the first model information or the original information.

アバター処理部132は、第一モデル情報が有するアバターの一部の箇所(例えば、ボディー部、顔部以外の箇所)の情報のみを圧縮し、第二モデル情報を取得することは好適である。 It is preferable that the avatar processing unit 132 compresses only the information of a part of the avatar (for example, the part other than the body part and the face part) of the first model information and acquires the second model information.

出力部14は、各種の情報を出力する。各種の情報は、例えば、位置情報、音声情報である。また、ここで、出力とは、通常、端末装置2への送信であるが、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念であっても良い。 The output unit 14 outputs various information. The various types of information are, for example, location information and voice information. Further, here, the output is usually transmission to the terminal device 2, but display on a display, projection using a projector, printing by a printer, sound output, storage on a recording medium, and other processing devices. It may be a concept including delivery of the processing result to or other programs.

出力部14は、例えば、ワールド格納部111のワールド情報を2以上の各端末装置2に送信する。 The output unit 14 transmits, for example, the world information of the world storage unit 111 to each of two or more terminal devices 2.

出力部14は、受信されたリクエストがワールド情報の送信指示を含む場合、ワールド情報を、リクエストを送信してきた端末装置2に送信する。 When the received request includes the transmission instruction of the world information, the output unit 14 transmits the world information to the terminal device 2 that has transmitted the request.

なお、出力部14が行う上記の処理は、アバター処理部132が行っても良い。 The avatar processing unit 132 may perform the above processing performed by the output unit 14.

位置情報送信部141は、2以上の各端末装置2に対応する2以上の各アバターの位置情報のうち、1以上の他アバターの位置情報を、アバターを識別するアバター識別子に対応付けて、2以上の各端末装置に送信する。1以上の他アバターの位置情報は、例えば、各他アバターに対応する端末装置2が送信した情報である。1以上の他アバターの位置情報は、各端末装置2における自アバターの位置情報を含まなくても良い。位置情報送信部141は、2以上の各端末装置2に、当該端末装置2に対応する自アバターの位置情報を送信しなくても良いし、自アバターの位置情報も送信しても良い。 The position information transmission unit 141 associates the position information of one or more other avatars with the position information of one or more other avatars among the position information of each of the two or more avatars corresponding to each of the two or more terminal devices 2, and associates the position information with the avatar identifier that identifies the avatar. It is transmitted to each of the above terminal devices. The position information of one or more other avatars is, for example, information transmitted by the terminal device 2 corresponding to each other avatar. The position information of one or more other avatars may not include the position information of the own avatar in each terminal device 2. The position information transmission unit 141 does not have to transmit the position information of the own avatar corresponding to the terminal device 2 to each of the two or more terminal devices 2, and may also transmit the position information of the own avatar.

音声出力部142は、一の端末装置2に対応するアバターのスコアに応じた異なる音声情報を、少なくとも一の端末装置2以外の1以上の端末装置2に送信する。 The voice output unit 142 transmits different voice information according to the score of the avatar corresponding to one terminal device 2 to one or more terminal devices 2 other than at least one terminal device 2.

音声出力部142は、例えば、第一音声情報、および第二音声情報を出力する。第一音声情報および第二音声情報の出力とは、第一音声情報を識別する識別子および第二音声情報を識別する識別子の出力でも良い。 The voice output unit 142 outputs, for example, the first voice information and the second voice information. The output of the first voice information and the second voice information may be the output of an identifier for identifying the first voice information and an identifier for identifying the second voice information.

音声出力部142は、アバターのスコアに応じた種類の音声情報を出力することは好適である。ここで、出力とは、通常、端末装置2への送信であるが、音出力、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念であっても良い。 It is preferable that the voice output unit 142 outputs the type of voice information according to the score of the avatar. Here, the output is usually a transmission to the terminal device 2, but is a concept including sound output, storage in a recording medium, delivery of processing results to other processing devices, other programs, and the like. Is also good.

音声出力部142が出力する第一音声情報、および第二音声情報は、端末装置2で出力される音声と同じ情報でなくても良い。 The first voice information and the second voice information output by the voice output unit 142 do not have to be the same information as the voice output by the terminal device 2.

端末装置2を構成する端末格納部21には、1以上の端末属性値が格納される。端末属性値は、端末装置2の属性値である。端末装置2の属性値は、例えば、端末装置2の端末種類識別子、端末装置2の画面サイズ、アスペクト比である。端末格納部21には、位置情報、第一モデル情報または元情報が格納されても良い。 One or more terminal attribute values are stored in the terminal storage unit 21 constituting the terminal device 2. The terminal attribute value is an attribute value of the terminal device 2. The attribute values of the terminal device 2 are, for example, the terminal type identifier of the terminal device 2, the screen size of the terminal device 2, and the aspect ratio. The terminal storage unit 21 may store position information, first model information, or original information.

端末格納部21には、通常、端末装置2に対応するアバターの位置情報を含む1以上の端末属性値が格納される。 Normally, one or more terminal attribute values including the position information of the avatar corresponding to the terminal device 2 are stored in the terminal storage unit 21.

端末受付部22は、各種の指示や情報を受け付ける。各種の指示や情報は、例えば、位置情報、第一モデル情報、第一モデル情報を識別する識別子、アバター識別子、1以上の属性値、初期入力である。1以上の属性値は、例えば、役割属性値、由来属性値、端末属性値である。 The terminal reception unit 22 receives various instructions and information. The various instructions and information are, for example, position information, first model information, an identifier for identifying the first model information, an avatar identifier, one or more attribute values, and initial input. The attribute value of 1 or more is, for example, a role attribute value, a derived attribute value, and a terminal attribute value.

なお、初期入力は、2以上のアバターを含む三次元空間を端末装置2に出力する前の入力であり、アバターの位置情報を含む。初期入力は、1または2以上のスコア取得元属性値を含む。初期入力は、アバターのモデル情報または元情報を含むことは好適である。初期入力は、アバター識別子を含んでも良い。初期入力に含まれるモデル情報は、第一モデル情報であることは好適である。スコア取得元属性値は、スコアを取得する元になる属性値であり、位置情報を含む。スコア取得元属性値は、通常、向き情報を含む。 The initial input is an input before outputting the three-dimensional space including two or more avatars to the terminal device 2, and includes the position information of the avatars. The initial input includes 1 or 2 or more score acquisition source attribute values. It is preferable that the initial input includes the model information or the original information of the avatar. The initial input may include an avatar identifier. It is preferable that the model information included in the initial input is the first model information. The score acquisition source attribute value is an attribute value that is the basis for acquiring the score, and includes position information. The score acquisition source attribute value usually includes orientation information.

ここで、受け付けとは、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。 Here, acceptance means acceptance of information input from an input device such as a keyboard, mouse, or touch panel, reception of information transmitted via a wired or wireless communication line, recording of an optical disk, magnetic disk, semiconductor memory, or the like. It is a concept including acceptance of information read from a medium.

端末処理部23は、各種の処理を行う。各種の処理は、例えば、後述するスコア取得処理、後述するアバター構成処理である。なお、スコアの取得をアバター出力装置1が行う場合、端末処理部23は、スコア取得処理を行わない。 The terminal processing unit 23 performs various processes. The various processes are, for example, a score acquisition process described later and an avatar composition process described later. When the avatar output device 1 acquires the score, the terminal processing unit 23 does not perform the score acquisition process.

端末処理部23は、例えば、1以上の他アバターの位置情報と1以上の端末属性値とを用いて、1以上の他アバターのスコアを取得する。 The terminal processing unit 23 acquires, for example, the score of one or more other avatars by using the position information of one or more other avatars and the terminal attribute value of one or more.

端末処理部23は、例えば、1以上の他の端末装置2における1以上の他アバターの位置情報と、自アバターの位置情報とを用いて、1以上の他アバターのスコアを取得する。端末処理部23が行うスコア取得処理は、上述したスコア取得部131が行うスコア取得処理と同じでも良い。 The terminal processing unit 23 acquires the score of one or more other avatars by using, for example, the position information of one or more other avatars in one or more other terminal devices 2 and the position information of the own avatar. The score acquisition process performed by the terminal processing unit 23 may be the same as the score acquisition process performed by the score acquisition unit 131 described above.

具体的には、端末処理部23は、例えば、自アバターの位置情報、自アバターの向き情報、カメラ位置情報、カメラ向き情報、カメラの画角情報、1以上の各他アバターの位置情報のうちの2以上の情報を用いて、1以上の他アバターの動的属性値を取得する。 Specifically, the terminal processing unit 23 has, for example, among the position information of the own avatar, the orientation information of the own avatar, the camera position information, the camera orientation information, the camera angle information, and the position information of one or more other avatars. Acquire the dynamic attribute value of 1 or more other avatars by using 2 or more information of.

端末処理部23は、例えば、自アバターの位置情報と他アバターの位置情報とを用いて、自アバターと他アバターとの距離を取得する。また、端末処理部23は、例えば、自アバターの位置情報と自アバターの向き情報と他アバターの位置情報とを用いて、他アバターが自アバターの視野の中に入っているか否かを示す動的属性値(視野内属性値と言っても良い。)を取得する。 The terminal processing unit 23 acquires the distance between the own avatar and the other avatar by using, for example, the position information of the own avatar and the position information of the other avatar. Further, the terminal processing unit 23 uses, for example, the position information of the own avatar, the orientation information of the own avatar, and the position information of the other avatar to indicate whether or not the other avatar is in the field of view of the own avatar. Acquires the target attribute value (which may be called the in-field attribute value).

端末処理部23は、属性値を取得する対象の他アバターの位置情報と属性値を取得する対象ではない他の他アバターの位置情報と自アバターの位置情報と自アバターの向き情報とを用いて、属性値を取得する対象の他アバターが自アバターの視野の中に入っているか否かを示す動的属性値を取得しても良い。つまり、例えば、自アバターの位置情報と自アバターの向き情報を用いて、属性値を取得する対象の他アバターの位置情報が、自アバターの視野の中に入る位置を示す情報であっても、属性値を取得する対象ではない他の他アバターの位置情報が、自アバターと属性値を取得する対象の他アバターとの間に入る位置を示す情報である場合(自アバターと属性値を取得する対象の他アバターとの間に属性値を取得する対象ではない他の他アバターが存在し、自アバターから属性値を取得する対象の他アバターが見えない場合)には、視野内属性値が「他アバターが自アバターの視野の中に入っていないことを示す情報」となる。 The terminal processing unit 23 uses the position information of the other avatar whose attribute value is to be acquired, the position information of the other avatar which is not the target to acquire the attribute value, the position information of the own avatar, and the orientation information of the own avatar. , You may acquire a dynamic attribute value indicating whether or not another avatar of the target for which the attribute value is acquired is in the field of view of the own avatar. That is, for example, even if the position information of the other avatar whose attribute value is to be acquired by using the position information of the own avatar and the orientation information of the own avatar is the information indicating the position within the field of view of the own avatar. When the position information of another avatar that is not the target for acquiring the attribute value is the information indicating the position between the own avatar and the other avatar for which the attribute value is acquired (the own avatar and the attribute value are acquired). If there is another avatar that is not the target for acquiring the attribute value with the other target avatar and the other avatar for which the attribute value is acquired from the own avatar cannot be seen), the attribute value in the field of view is ". Information indicating that another avatar is not in the field of the own avatar. "

なお、端末処理部23は、属性値を取得する対象の他アバターや属性値を取得する対象ではない他の他アバターのサイズ情報と、自アバターの視野角の情報をも用いて、属性値を取得する対象の他アバターが自アバターの視野の中に入っているか否かを示す動的属性値を取得しても良い。 In addition, the terminal processing unit 23 uses the size information of the other avatar for which the attribute value is acquired and the other avatar which is not the target for acquiring the attribute value, and the viewing angle information of the own avatar to obtain the attribute value. You may acquire a dynamic attribute value indicating whether or not another avatar to be acquired is in the field of view of your avatar.

端末処理部23は、属性値を取得する対象である他アバターの位置情報とワールドを構成するオブジェクトの位置情報と自アバターの位置情報と自アバターの向き情報とを用いて、属性値を取得する対象の他アバターが自アバターの視野の中に入っているか否かを示す動的属性値を取得しても良い。つまり、例えば、自アバターの位置情報と自アバターの向き情報を用いて、属性値を取得する対象である他アバターの位置情報が、自アバターの視野の中に入る位置を示す情報であっても、ワールドを構成するオブジェクトの位置情報が、自アバターと属性値を取得する対象の他アバターとの間に入る位置を示す情報である場合(自アバターと属性値を取得する対象の他アバターとの間にワールドを構成するオブジェクトが存在し、自アバターから属性値を取得する対象の他アバターが見えない場合)には、視野内属性値が「他アバターが自アバターの視野の中に入っていないことを示す情報」となる。 The terminal processing unit 23 acquires the attribute value by using the position information of the other avatar that is the target for acquiring the attribute value, the position information of the objects constituting the world, the position information of the own avatar, and the orientation information of the own avatar. You may acquire a dynamic attribute value indicating whether or not the other target avatar is in the field of the own avatar. That is, for example, even if the position information of another avatar whose attribute value is to be acquired by using the position information of the own avatar and the orientation information of the own avatar is the information indicating the position within the field of view of the own avatar. , When the position information of the objects constituting the world is the information indicating the position between the own avatar and the other avatar for which the attribute value is acquired (the own avatar and the other avatar for which the attribute value is acquired). If there are objects that make up the world between them and you cannot see the other avatar for which you want to get the attribute value from your avatar), the attribute value in the field is "The other avatar is not in the field of your avatar." Information indicating that. "

なお、端末処理部23は、属性値を取得する対象の他アバターやワールドを構成するオブジェクトのサイズ情報と、自アバターの視野角の情報をも用いて、属性値を取得する対象の他アバターが自アバターの視野の中に入っているか否かを示す動的属性値を取得しても良い。 In addition, the terminal processing unit 23 uses the size information of the other avatar of the target for acquiring the attribute value and the object constituting the world, and the information of the viewing angle of the own avatar, and the other avatar of the target for acquiring the attribute value is You may acquire a dynamic attribute value indicating whether or not you are in the field of view of your avatar.

また、端末処理部23は、属性値を取得する対象の他アバターやワールドを構成するオブジェクトのサイズ情報と、自アバターの視野角の情報をも用いて、属性値を取得する対象の他アバターが自アバターの視野の中に入っている割合に対応する視野内属性値、または全部が視野の中に入っているか一部のみ視野の中に入っているか全く視野の中に入っていないかを特定する視野内属性値を取得しても良い。つまり、視野内属性値は、視野の中に入っているか否かの2値のうちのいずれかでも良いし、3以上のうちの一の値でも良い。 In addition, the terminal processing unit 23 uses the size information of the other avatar of the target for acquiring the attribute value and the object constituting the world, and the information of the viewing angle of the own avatar to obtain the other avatar of the target for acquiring the attribute value. Specify the in-field attribute value corresponding to the percentage of your avatar in the field of view, or whether all are in the field, only part of it is in the field, or not at all. You may acquire the attribute value in the field of view. That is, the in-field attribute value may be one of two values of whether or not the user is in the field of view, or one of three or more.

また、端末処理部23は、例えば、カメラ位置情報とカメラ向き情報と画角情報他アバターの位置情報とを用いて、他アバターがカメラによる撮影の範囲に入っているか否かを示す動的属性値(撮影範囲属性値と言っても良い。)を取得する。 Further, the terminal processing unit 23 uses, for example, camera position information, camera orientation information, angle of view information, and position information of other avatars to indicate whether or not the other avatar is within the range of shooting by the camera. Acquires a value (which may be called a shooting range attribute value).

そして、端末処理部23は、例えば、他アバターに対して、三次元空間内における自アバターとの距離が近いほど大きな値のスコアを取得する。また、端末処理部23は、例えば、他アバターが自アバターの視野の中に入っている場合に、視野の中に入っていない場合と比較して、大きな値のスコアを取得する。また、端末処理部23は、例えば、カメラによる撮影の範囲に入っている場合に、撮影の範囲に入っていない場合と比較して、大きな値のスコアを取得する。 Then, the terminal processing unit 23 acquires, for example, a score with a larger value as the distance from the own avatar in the three-dimensional space is closer to the other avatar. Further, the terminal processing unit 23 obtains a large score when, for example, another avatar is in the field of view of the own avatar, as compared with the case where the other avatar is not in the field of view. Further, for example, when the terminal processing unit 23 is within the range of shooting by the camera, the terminal processing unit 23 obtains a score having a large value as compared with the case where it is not within the range of shooting.

端末処理部23は、例えば、他アバターに対して、カメラとの距離が近いほど、大きな値のスコアを取得する。 For example, the terminal processing unit 23 acquires a score of a larger value as the distance from the camera is closer to the other avatar.

さらに具体的には、端末処理部23は、例えば、他アバターに対して、距離をパラメータとする減少関数により、スコアを取得する。スコア取得部131は、例えば、視野内属性値および撮影範囲属性値に対応する演算式を格納部11から取得し、当該演算式に距離を代入し、当該演算式を実行し、スコアを取得する。なお、演算式は、例えば、距離をパラメータとする減少関数である。 More specifically, the terminal processing unit 23 acquires a score for another avatar, for example, by a decreasing function with a distance as a parameter. The score acquisition unit 131 acquires, for example, an arithmetic expression corresponding to the in-field attribute value and the shooting range attribute value from the storage unit 11, substitutes the distance into the arithmetic expression, executes the arithmetic expression, and acquires the score. .. The arithmetic expression is, for example, a decreasing function with a distance as a parameter.

端末処理部23は、例えば、距離、視野内属性値、および撮影範囲属性値に対応するスコアを対応表から取得する。かかる場合、対応表は、例えば、距離の範囲、視野内属性値、および撮影範囲属性値の組と、スコアとの対応を示す2以上の対応情報を有する表である。 The terminal processing unit 23 acquires, for example, a score corresponding to the distance, the in-field attribute value, and the shooting range attribute value from the correspondence table. In such a case, the correspondence table is, for example, a table having two or more correspondence information indicating the correspondence between the set of the distance range, the in-field attribute value, and the shooting range attribute value and the score.

なお、端末処理部23は、通常、視野内属性値が自アバターの視野の中に入っている他アバターのスコアは、視野の中に入っている他アバターのスコアより大きなスコアを取得する。また、端末処理部23は、通常、視野内属性値が示す視野の中に入っている割合が大きいほど、大きなスコアを取得する。 In addition, the terminal processing unit 23 usually obtains a score higher than the score of the other avatar in the visual field in which the attribute value in the visual field is in the visual field of the own avatar. Further, the terminal processing unit 23 usually obtains a larger score as the ratio in the visual field indicated by the attribute value in the visual field is larger.

また、端末処理部23は、例えば、他アバターの1以上の静的属性値を用いて、以下のような他アバターのスコア取得処理を行っても良い。 Further, the terminal processing unit 23 may perform the following score acquisition processing of the other avatar by using, for example, one or more static attribute values of the other avatar.

1以上の静的属性値は、例えば、他アバターの役割に関する属性値、他アバターの由来に関する属性値のいずれかを含む。端末処理部23は、例えば、他アバターの役割が「主催者」または「司会者」である場合、他アバターの役割が「観客」である場合と比較して、高いスコアを取得する。端末処理部23は、例えば、例えば、他アバターがUGCである場合、UGCでない場合と比較して、高いスコアを取得する。 The static attribute value of 1 or more includes, for example, one of an attribute value relating to the role of another avatar and an attribute value relating to the origin of the other avatar. For example, when the role of the other avatar is "organizer" or "moderator", the terminal processing unit 23 obtains a higher score than the case where the role of the other avatar is "audience". For example, when the other avatar is UGC, the terminal processing unit 23 obtains a higher score as compared with the case where the other avatar is not UGC.

また、端末処理部23は、例えば、1以上の各他アバターのスコアを用いて、各他アバターに対応する判定結果を取得しても良い。端末処理部23は、スコアの幅と判定結果との対応を示す2以上の対応情報を有する対応表を参照し、スコアと対になる判定結果を、他アバターごとに取得する。端末処理部23は、例えば、スコアをパラメータとする演算式にスコアを代入し、当該演算式を実行し、判定結果を取得する。なお、判定結果は、他アバターを出力する際に使用するアバターを、2以上のアバター(例えば、第一アバターと第二アバター)のうちのいずれのアバターとするかの判定の結果である。 Further, the terminal processing unit 23 may acquire the determination result corresponding to each other avatar by using, for example, the score of each other avatar of 1 or more. The terminal processing unit 23 refers to a correspondence table having two or more correspondence information indicating the correspondence between the score width and the determination result, and acquires the determination result paired with the score for each other avatar. The terminal processing unit 23, for example, substitutes a score into an arithmetic expression having a score as a parameter, executes the arithmetic expression, and acquires a determination result. The determination result is the result of determination as to which of the two or more avatars (for example, the first avatar and the second avatar) is used as the avatar used when outputting another avatar.

また、端末処理部23は、例えば、アバター出力装置1から、1以上の他アバターに対するモデル情報を取得し、当該モデル情報を用いて、表示されるアバターを構成するアバター構成処理を行う。なお、アバター構成処理は、公知技術である。 Further, the terminal processing unit 23 acquires model information for one or more other avatars from, for example, the avatar output device 1, and uses the model information to perform avatar configuration processing for forming the displayed avatar. The avatar composition process is a known technique.

また、端末処理部23は、受信されたワールド情報を用いて、ワールドを構成し、当該ワールドの中に2以上のアバターを配置し、アバターが配置された三次元空間を構成する。なお、端末処理部23は、2以上の各アバターを、対応する位置情報で特定される位置に配置する。 Further, the terminal processing unit 23 constitutes a world using the received world information, arranges two or more avatars in the world, and constitutes a three-dimensional space in which the avatars are arranged. The terminal processing unit 23 arranges each of the two or more avatars at a position specified by the corresponding position information.

端末送信部24は、各種の情報をアバター出力装置1に送信する。端末送信部24は、例えば、端末装置2に対応する自アバターの位置情報をアバター出力装置1に送信する。端末送信部24は、例えば、端末格納部21の1以上の属性値をアバター出力装置1に送信する。1以上の属性値は、例えば、自アバターの位置情報、自アバターの向き情報、端末属性値である。 The terminal transmission unit 24 transmits various information to the avatar output device 1. The terminal transmission unit 24 transmits, for example, the position information of the own avatar corresponding to the terminal device 2 to the avatar output device 1. The terminal transmission unit 24 transmits, for example, one or more attribute values of the terminal storage unit 21 to the avatar output device 1. The attribute value of 1 or more is, for example, the position information of the own avatar, the orientation information of the own avatar, and the terminal attribute value.

端末送信部24は、端末装置2の端末識別子に対応付けて、1以上の他アバターのスコアまたは判定結果をアバター出力装置1に送信する。なお、ここで送信されるスコアまたは判定結果は、端末処理部23が取得した情報である。また、スコアまたは判定結果は、他アバターのアバター識別子に対応付いている。なお、スコアまの取得をアバター出力装置1が行う場合、端末送信部24は、スコアをアバター出力装置1に送信しない。判定結果の取得をアバター出力装置1が行う場合、端末送信部24は、判定結果をアバター出力装置1に送信しない。 The terminal transmission unit 24 transmits the score or determination result of one or more other avatars to the avatar output device 1 in association with the terminal identifier of the terminal device 2. The score or determination result transmitted here is information acquired by the terminal processing unit 23. In addition, the score or the determination result corresponds to the avatar identifier of another avatar. When the avatar output device 1 acquires the score, the terminal transmission unit 24 does not transmit the score to the avatar output device 1. When the avatar output device 1 acquires the determination result, the terminal transmission unit 24 does not transmit the determination result to the avatar output device 1.

端末受信部25は、アバター出力装置1から1以上の他の端末装置2に対応する他アバターの位置情報を受信する。端末受信部25は、例えば、他アバターの1以上の属性値をアバター出力装置1から受信する。 The terminal receiving unit 25 receives the position information of another avatar corresponding to one or more other terminal devices 2 from the avatar output device 1. The terminal receiving unit 25 receives, for example, one or more attribute values of another avatar from the avatar output device 1.

端末受信部25は、アバター出力装置1から他アバターのモデル情報であり、スコアまたは判定結果に応じた異なるモデル情報を受信する。 The terminal receiving unit 25 receives model information of another avatar from the avatar output device 1 and different model information according to the score or the determination result.

端末受信部25は、各アバターに対して、2種類以上のモデル情報を受信しても良い。かかる場合、端末処理部23は、他アバターのスコアまたは判定結果に応じて、他アバターを表示する際に使用するモデル情報を決定する。 The terminal receiving unit 25 may receive two or more types of model information for each avatar. In such a case, the terminal processing unit 23 determines the model information to be used when displaying the other avatar according to the score or the determination result of the other avatar.

端末受信部25は、アバター出力装置1からワールド情報をも受信することは好適である。 It is preferable that the terminal receiving unit 25 also receives world information from the avatar output device 1.

端末出力部26は、1以上の各モデル情報を用いて構成された1以上の他アバターを表示する。なお、表示は、他の表示媒体への送信でも良い。また、モデル情報は、2種類以上のモデル情報のうちの一のモデル情報である。 The terminal output unit 26 displays one or more other avatars configured by using one or more model information. The display may be transmitted to another display medium. Further, the model information is model information of one of two or more types of model information.

端末出力部26は、自アバターをも表示することは好適である。 It is preferable that the terminal output unit 26 also displays its own avatar.

端末出力部26は、ワールド情報をも用いて、ワールドを表示することは好適である。 It is preferable that the terminal output unit 26 also uses world information to display the world.

端末出力部26は、アバターに対応する音声情報を出力することは好適である。出力される音声情報は、アバターのスコアまたは判定結果に応じた種類の音声情報(例えば、第一、または第二音声情報)であることは好適である。 It is preferable that the terminal output unit 26 outputs the voice information corresponding to the avatar. It is preferable that the voice information to be output is a kind of voice information (for example, first or second voice information) according to the score of the avatar or the determination result.

格納部11、ワールド格納部111、アバター格納部112、および端末格納部21は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。 The storage unit 11, the world storage unit 111, the avatar storage unit 112, and the terminal storage unit 21 are preferably non-volatile recording media, but can also be realized by a volatile recording medium.

格納部11等に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が格納部11等で記憶されるようになってもよく、通信回線等を介して送信された情報が格納部11等で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報が格納部11等で記憶されるようになってもよい。 The process of storing information in the storage unit 11 or the like does not matter. For example, the information may be stored in the storage unit 11 or the like via the recording medium, or the information transmitted via the communication line or the like may be stored in the storage unit 11 or the like. Alternatively, the information input via the input device may be stored in the storage unit 11 or the like.

受付部12、アバター受信部121、スコア取得部131、および端末受信部25は、通常、無線または有線の通信手段で実現され得る。 The reception unit 12, the avatar receiving unit 121, the score acquisition unit 131, and the terminal receiving unit 25 can be usually realized by wireless or wired communication means.

処理部13、スコア取得部131、アバター処理部132、および端末処理部23は、通常、プロセッサやメモリ等から実現され得る。処理部13等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。なお、プロセッサは、MPU、CPU、GPU等であり、その種類は問わない。 The processing unit 13, the score acquisition unit 131, the avatar processing unit 132, and the terminal processing unit 23 can usually be realized from a processor, a memory, or the like. The processing procedure of the processing unit 13 and the like is usually realized by software, and the software is recorded in a recording medium such as ROM. However, it may be realized by hardware (dedicated circuit). The processor is an MPU, a CPU, a GPU, or the like, and the type thereof does not matter.

出力部14、位置情報送信部141、アバター処理部132、および音声出力部142は、通常、無線または有線の通信手段で実現され得る。 The output unit 14, the position information transmission unit 141, the avatar processing unit 132, and the voice output unit 142 can be realized by a wireless or wired communication means.

端末受付部22は、タッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。 The terminal reception unit 22 can be realized by a device driver for input means such as a touch panel or a keyboard, control software for a menu screen, or the like.

端末出力部26は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。端末出力部26は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。 The terminal output unit 26 may or may not include an output device such as a display or a speaker. The terminal output unit 26 can be realized by the driver software of the output device, the driver software of the output device, the output device, or the like.

次に、情報システムAの動作例について説明する。まず、アバター出力装置1の動作例について、図3のフローチャートを用いて説明する。 Next, an operation example of the information system A will be described. First, an operation example of the avatar output device 1 will be described with reference to the flowchart of FIG.

(ステップS301)アバター受信部121は、端末装置2からモデル情報等を受信したか否かを判断する。モデル情報等を受信した場合はステップS302に行き、モデル情報等を受信しなかった場合はステップS303に行く。なお、モデル情報等は、端末装置2に対応するアバターの第一モデル情報または元情報を含む情報である。モデル情報等は、例えば、端末装置2に対応するアバターの位置情報を含むことは好適である。モデル情報等は、アバター識別子を含んでも良い。なお、アバター識別子は、モデル情報等の受信に応じて、処理部13がユニークなアバター識別子を取得しても良い。ユニークなアバター識別子を取得する方法は問わない。また、ステップS301では、2以上の各端末装置2から、モデル情報等が受信される。 (Step S301) The avatar receiving unit 121 determines whether or not model information or the like has been received from the terminal device 2. If the model information or the like is received, the process goes to step S302, and if the model information or the like is not received, the process goes to step S303. The model information and the like are information including the first model information or the original information of the avatar corresponding to the terminal device 2. It is preferable that the model information and the like include, for example, the position information of the avatar corresponding to the terminal device 2. The model information and the like may include an avatar identifier. As for the avatar identifier, the processing unit 13 may acquire a unique avatar identifier in response to the reception of model information or the like. It doesn't matter how you get a unique avatar identifier. Further, in step S301, model information and the like are received from each of the two or more terminal devices 2.

(ステップS302)処理部13は、受信されたモデル情報等をアバター識別子に対応付けて蓄積する。ステップS301に戻る。 (Step S302) The processing unit 13 stores the received model information and the like in association with the avatar identifier. Return to step S301.

(ステップS303)アバター処理部132は、圧縮処理等を開始するか否かを判断する。圧縮処理等を開始する場合はステップS304に行き、圧縮処理等を開始しない場合はステップS312に行く。なお、圧縮処理等は、ステップS304からS311の処理である。また、圧縮処理等を開始するための条件は問わない。かかる条件は、例えば、予め決められた時刻になったこと、処理部13が参加予定のすべての端末装置2からモデル情報等が受信された、と判断したことである。また、かかる条件は、例えば、受付部12が圧縮処理等のリクエストを、端末装置2から受信したことである。 (Step S303) The avatar processing unit 132 determines whether or not to start the compression process or the like. If the compression process or the like is started, the process goes to step S304, and if the compression process or the like is not started, the process goes to step S312. The compression process and the like are the processes of steps S304 to S311. Further, the conditions for starting the compression process or the like are not limited. Such a condition is, for example, that the time has reached a predetermined time and that the processing unit 13 has determined that the model information or the like has been received from all the terminal devices 2 scheduled to participate. Further, such a condition is that, for example, the reception unit 12 receives a request for compression processing or the like from the terminal device 2.

(ステップS304)アバター処理部132は、カウンタiに1を代入する。 (Step S304) The avatar processing unit 132 substitutes 1 for the counter i.

(ステップS305)アバター処理部132は、圧縮処理等の対象のi番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS306に行き、存在しない場合はステップS310に行く。 (Step S305) The avatar processing unit 132 determines whether or not the avatar identifier of the i-th avatar to be compressed or the like exists. If the i-th avatar identifier exists, the process goes to step S306, and if it does not exist, the process goes to step S310.

(ステップS306)アバター処理部132は、i番目のアバター識別子の第一モデル情報を取得する。 (Step S306) The avatar processing unit 132 acquires the first model information of the i-th avatar identifier.

アバター処理部132は、受信された第一モデル情報を取得しても良いし、受信された元情報に対応する第一モデル情報を取得しても良い。つまり、アバター処理部132は、例えば、i番目のアバター識別子と対になる第一モデル情報をアバター格納部112から取得する。アバター処理部132は、例えば、i番目のアバター識別子と対になる元情報をアバター格納部112から取得し、当該元情報を用いて、第一モデル情報を取得する。かかる場合、元情報は、例えば、第一モデル情報の識別子、または第一モデル情報を構成する元になるモデル情報である。 The avatar processing unit 132 may acquire the received first model information, or may acquire the first model information corresponding to the received original information. That is, the avatar processing unit 132 acquires, for example, the first model information paired with the i-th avatar identifier from the avatar storage unit 112. The avatar processing unit 132 acquires, for example, the original information paired with the i-th avatar identifier from the avatar storage unit 112, and acquires the first model information using the original information. In such a case, the original information is, for example, an identifier of the first model information or the original model information constituting the first model information.

(ステップS307)アバター処理部132は、ステップS306で取得した第一モデル情報より小さいデータサイズの1または2種類以上のモデル情報を取得する。1種類以上のモデル情報は、第二モデル情報を含む。 (Step S307) The avatar processing unit 132 acquires one or more types of model information having a data size smaller than the first model information acquired in step S306. The one or more types of model information includes the second model information.

(ステップS308)アバター処理部132は、i番目のアバター識別子に対応付けて、第一モデル情報と第二モデル情報とを含むアバター情報をアバター格納部112に蓄積する。なお、アバター情報を蓄積することは、アバター情報が蓄積された状態にすることであり、元々、アバター格納部112に格納されていた情報は、ここで、蓄積する必要はない。 (Step S308) The avatar processing unit 132 stores avatar information including the first model information and the second model information in the avatar storage unit 112 in association with the i-th avatar identifier. It should be noted that accumulating the avatar information means that the avatar information is accumulated, and the information originally stored in the avatar storage unit 112 does not need to be accumulated here.

(ステップS309)アバター処理部132は、カウンタiを1、インクリメントする。ステップS305に戻る。 (Step S309) The avatar processing unit 132 increments the counter i by 1. Return to step S305.

(ステップS310)アバター処理部132は、全アバターの1以上のスコア取得元属性値を、アバター識別子に対応付けて取得する。なお、スコア取得元属性値は、スコアを取得する元になる属性値であり、位置情報を含む。スコア取得元属性値は、通常、向き情報を含む。 (Step S310) The avatar processing unit 132 acquires one or more score acquisition source attribute values of all avatars in association with the avatar identifier. The score acquisition source attribute value is an attribute value that is the source for acquiring the score, and includes position information. The score acquisition source attribute value usually includes orientation information.

(ステップS311)位置情報送信部141は、ステップS310で取得された各アバターの1以上のスコア取得元属性値をアバター識別子に対応付けて、2以上の全端末装置2に送信する。ステップS301に戻る。 (Step S311) The position information transmission unit 141 associates one or more score acquisition source attribute values of each avatar acquired in step S310 with the avatar identifier and transmits the score acquisition source attribute value to two or more all terminal devices 2. Return to step S301.

(ステップS312)スコア取得部131は、端末装置2からリクエストを受信したか否かを判断する。リクエストを受信した場合はステップS313に行き、リクエストを受信しなかった場合はステップS315に行く。なお、ステップS312において、2以上の全端末装置2からリクエストを受信する。なお、リクエストは、アバター識別子に対応付けられた1以上の他アバターの判定結果またはスコアを含む。 (Step S312) The score acquisition unit 131 determines whether or not a request has been received from the terminal device 2. If the request is received, the process goes to step S313, and if the request is not received, the process goes to step S315. In step S312, requests are received from all two or more terminal devices 2. The request includes the determination result or score of one or more other avatars associated with the avatar identifier.

(ステップS313)アバター処理部132は、アバター情報取得処理を行う。アバター情報取得処理とは、アバターを表示するためのモデル情報等を取得する処理である。また、アバター情報取得処理は、ワールド情報を取得しても良い。アバター情報取得処理の例について、図4のフローチャートを用いて説明する。 (Step S313) The avatar processing unit 132 performs an avatar information acquisition process. The avatar information acquisition process is a process of acquiring model information or the like for displaying an avatar. Further, the avatar information acquisition process may acquire world information. An example of the avatar information acquisition process will be described with reference to the flowchart of FIG.

(ステップS314)アバター処理部132は、ステップS313で取得された情報を、リクエストを送信してきた端末装置2に送信する。ステップS301に戻る。なお、送信される情報は、通常、アバターのモデル情報を含む。 (Step S314) The avatar processing unit 132 transmits the information acquired in step S313 to the terminal device 2 that has transmitted the request. Return to step S301. The information to be transmitted usually includes the model information of the avatar.

(ステップS315)受付部12は、アバター識別子に対応付いた音声情報を受信したか否かを判断する。音声情報を受信した場合はステップS316に行き、音声情報を受信しなかった場合はステップS301に戻る。なお、アバター識別子に対応付いた音声情報は、通常、アバター識別子に対応付いた端末装置2のユーザが入力した音声の情報である。 (Step S315) The reception unit 12 determines whether or not the voice information corresponding to the avatar identifier has been received. If the voice information is received, the process goes to step S316, and if the voice information is not received, the process returns to step S301. The voice information corresponding to the avatar identifier is usually voice information input by the user of the terminal device 2 corresponding to the avatar identifier.

(ステップS316)アバター処理部132は、ステップS315で受信された音声情報に対する処理を行う。かかる音声情報処理の例について、図5のフローチャートを用いて説明する。 (Step S316) The avatar processing unit 132 processes the voice information received in step S315. An example of such voice information processing will be described with reference to the flowchart of FIG.

なお、図3のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 In the flowchart of FIG. 3, the process is terminated by turning off the power or interrupting the end of the process.

次に、ステップS313のアバター情報取得処理の例について、図4のフローチャートを用いて説明する。 Next, an example of the avatar information acquisition process in step S313 will be described with reference to the flowchart of FIG.

(ステップS401)アバター処理部132は、カウンタiに1を代入する。 (Step S401) The avatar processing unit 132 substitutes 1 for the counter i.

(ステップS402)アバター処理部132は、アバター情報取得処理に対応するi番目のアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS403に行き、i番目のアバター識別子が存在しない場合はステップS406に行く。なお、i番目のアバター識別子は、通常、受信されたリクエストに含まれるi番目のアバター識別子である。 (Step S402) The avatar processing unit 132 determines whether or not the i-th avatar identifier corresponding to the avatar information acquisition process exists. If the i-th avatar identifier exists, the process goes to step S403, and if the i-th avatar identifier does not exist, the process goes to step S406. The i-th avatar identifier is usually the i-th avatar identifier included in the received request.

(ステップS403)アバター処理部132は、i番目のアバター識別子に対応する判定結果またはスコアを取得する。また、アバター処理部132は、スコアが取得された場合、当該スコアに対応する判定結果を取得する。なお、判定結果は、通常、取得するモデル情報の種類を特定する種類識別子である。種類識別子は、例えば、第一モデル情報に対応する「第一」、第二モデル情報に対応する「第二」である。また、アバター処理部132は、i番目のアバター識別子に対応する判定結果またはスコアを、リクエストを送信してきた端末装置2に対応付けて、図示しないバッファに一時蓄積する。 (Step S403) The avatar processing unit 132 acquires the determination result or score corresponding to the i-th avatar identifier. Further, when the score is acquired, the avatar processing unit 132 acquires the determination result corresponding to the score. The determination result is usually a type identifier that specifies the type of model information to be acquired. The type identifier is, for example, "first" corresponding to the first model information and "second" corresponding to the second model information. Further, the avatar processing unit 132 temporarily stores the determination result or score corresponding to the i-th avatar identifier in a buffer (not shown) in association with the terminal device 2 that has transmitted the request.

(ステップS404)アバター処理部132は、i番目のアバター識別子と判定結果に対応するモデル情報を、i番目のアバター識別子に対応付けて取得する。なお、判定結果に対応するモデル情報は、スコアに対応するモデル情報である、と言える。 (Step S404) The avatar processing unit 132 acquires the i-th avatar identifier and the model information corresponding to the determination result in association with the i-th avatar identifier. It can be said that the model information corresponding to the determination result is the model information corresponding to the score.

アバター処理部132は、例えば、当該モデル情報をアバター格納部112から取得する。アバター処理部132は、例えば、当該モデル情報を第一モデル情報から生成する。 The avatar processing unit 132 acquires the model information from the avatar storage unit 112, for example. The avatar processing unit 132 generates, for example, the model information from the first model information.

(ステップS405)アバター処理部132は、カウンタiを1、インクリメントする。ステップS402に戻る。 (Step S405) The avatar processing unit 132 increments the counter i by 1. Return to step S402.

(ステップS406)アバター処理部132は、ワールド情報を送信するか否かを判断する。ワールド情報を送信する場合はステップS407に行き、送信しない場合はステップS408に行く。なお、ワールド情報を送信する場合は、通常、動作開始から、一度も当該端末装置2にワールド情報を送信していない場合である。 (Step S406) The avatar processing unit 132 determines whether or not to transmit the world information. If the world information is transmitted, the process goes to step S407, and if the world information is not transmitted, the process goes to step S408. In addition, when the world information is transmitted, it is usually the case that the world information is not transmitted to the terminal device 2 even once from the start of operation.

(ステップS407)アバター処理部132は、ワールド情報をワールド格納部111から取得する。 (Step S407) The avatar processing unit 132 acquires world information from the world storage unit 111.

(ステップS408)アバター処理部132は、1以上の各アバター識別子に対応付けられているモデル情報を含む情報を構成する。上位処理にリターンする。なお、かかる情報は、ワールド情報を含んでも良い。かかる情報は、端末装置2に送信される情報である。 (Step S408) The avatar processing unit 132 constitutes information including model information associated with each one or more avatar identifiers. Return to higher-level processing. The information may include world information. Such information is information transmitted to the terminal device 2.

次に、ステップS316の音声情報処理の例について、図5のフローチャートを用いて説明する。 Next, an example of voice information processing in step S316 will be described with reference to the flowchart of FIG.

(ステップS501)アバター処理部132は、受信された音声情報に対応するアバター識別子を取得する。 (Step S501) The avatar processing unit 132 acquires an avatar identifier corresponding to the received voice information.

(ステップS502)アバター処理部132は、受信された音声情報を取得する。 (Step S502) The avatar processing unit 132 acquires the received voice information.

(ステップS503)アバター処理部132は、カウンタiに1を代入する。 (Step S503) The avatar processing unit 132 substitutes 1 for the counter i.

(ステップS504)アバター処理部132は、i番目の他の端末装置2が存在するか否かを判断する。なお、他の端末装置2とは、音声情報を送信した端末装置2以外の端末装置2である。 (Step S504) The avatar processing unit 132 determines whether or not the i-th other terminal device 2 exists. The other terminal device 2 is a terminal device 2 other than the terminal device 2 that has transmitted voice information.

(ステップS505)アバター処理部132は、i番目の他の端末装置2に対応するスコアまたは判定結果であり、ステップS501で取得したアバター識別子で識別されるアバターのスコアまたは判定結果を図示しないバッファから取得する。 (Step S505) The avatar processing unit 132 is a score or determination result corresponding to the i-th other terminal device 2, and the avatar score or determination result identified by the avatar identifier acquired in step S501 is from a buffer (not shown). get.

(ステップS506)アバター処理部132は、ステップS505で取得したスコアまたは判定結果から、i番目の他の端末装置2に、ステップS501で取得したアバター識別子で識別されるアバターの音声情報を送信するか否かを判断する。音声情報を送信する場合はステップS507に行き、音声情報を送信しない場合はステップS509に行く。 (Step S506) Whether the avatar processing unit 132 transmits the voice information of the avatar identified by the avatar identifier acquired in step S501 to the i-th other terminal device 2 from the score or the determination result acquired in step S505. Judge whether or not. If the voice information is transmitted, the process goes to step S507, and if the voice information is not transmitted, the process goes to step S509.

なお、音声情報を送信すると判断した場合はi番目の他の端末装置2でステップS501で取得したアバター識別子で識別されるアバターの音声が出力される場合であり、音声情報を送信しないと判断した場合はi番目の他の端末装置2でステップS501で取得したアバター識別子で識別されるアバターの音声が出力されない場合である。 When it is determined that the voice information is transmitted, the voice of the avatar identified by the avatar identifier acquired in step S501 is output by the i-th other terminal device 2, and it is determined that the voice information is not transmitted. In this case, the voice of the avatar identified by the avatar identifier acquired in step S501 is not output by the i-th other terminal device 2.

(ステップS507)アバター処理部132は、ステップS505で取得したスコアまたは判定結果に従って、ステップS502で取得した音声情報を用いて、i番目の他の端末装置2に送信する音声情報を取得する。なお、取得された音声情報は、ステップS502で取得した音声情報でも良いし、ステップS502で取得した音声情報から取得された音声情報でも良い。 (Step S507) The avatar processing unit 132 acquires voice information to be transmitted to the i-th other terminal device 2 by using the voice information acquired in step S502 according to the score or the determination result acquired in step S505. The acquired voice information may be the voice information acquired in step S502 or the voice information acquired from the voice information acquired in step S502.

(ステップS508)アバター処理部132は、ステップS507で取得した音声情報をi番目の他の端末装置2に送信する。 (Step S508) The avatar processing unit 132 transmits the voice information acquired in step S507 to the i-th other terminal device 2.

(ステップS509)アバター処理部132は、カウンタiを1、インクリメントする。ステップS504に戻る。 (Step S509) The avatar processing unit 132 increments the counter i by 1. Return to step S504.

次に、端末装置2の動作例について、図6のフローチャートを用いて説明する。 Next, an operation example of the terminal device 2 will be described with reference to the flowchart of FIG.

(ステップS601)端末受付部22は、動作開始前の入力である初期入力を受け付けたか否かを判断する。初期入力を受け付けた場合はステップS602に行き、初期入力を受け付けなかった場合はステップS612に行く。なお、初期入力は、1以上のスコア取得元属性値を含む。 (Step S601) The terminal reception unit 22 determines whether or not the initial input, which is the input before the start of operation, has been accepted. If the initial input is accepted, the process goes to step S602, and if the initial input is not accepted, the process goes to step S612. The initial input includes one or more score acquisition source attribute values.

(ステップS602)端末処理部23は、ステップS601で受け付けられた初期入力を用いて、送信する情報を構成する。端末送信部24は、当該情報をアバター出力装置1に送信する。なお、当該情報は、例えば、モデル情報、位置情報、向き情報等を含む。 (Step S602) The terminal processing unit 23 configures the information to be transmitted by using the initial input received in step S601. The terminal transmission unit 24 transmits the information to the avatar output device 1. The information includes, for example, model information, position information, orientation information, and the like.

(ステップS603)端末受信部25は、ステップS602における送信に応じて、全アバターのスコア取得元属性値を受信したか否かを判断する。スコア取得元属性値を受信した場合はステップS604に行き、スコア取得元属性値を受信しなかった場合はステップS603に戻る。なお、端末受信部25は、各アバターのアバター識別子に対応付けて、アバターごとに、1以上のスコア取得元属性値を受信する。 (Step S603) The terminal receiving unit 25 determines whether or not the score acquisition source attribute values of all the avatars have been received in response to the transmission in step S602. If the score acquisition source attribute value is received, the process proceeds to step S604, and if the score acquisition source attribute value is not received, the process returns to step S603. The terminal receiving unit 25 receives one or more score acquisition source attribute values for each avatar in association with the avatar identifier of each avatar.

(ステップS604)端末処理部23は、各アバターの1以上のスコア取得元属性値を用いて、各アバターのスコアを取得する。かかるスコア取得処理の例について、図6のフローチャートを用いて説明する。なお、スコア取得処理において、端末処理部23は、スコアを取得し、かつ当該スコアを用いて、判定結果を取得しても良い。スコア取得処理において、端末処理部23は、スコアを取得し、判定結果を取得しなくても良い。かかる場合、アバター出力装置1が判定結果を取得する。 (Step S604) The terminal processing unit 23 acquires the score of each avatar by using one or more score acquisition source attribute values of each avatar. An example of such a score acquisition process will be described with reference to the flowchart of FIG. In the score acquisition process, the terminal processing unit 23 may acquire the score and acquire the determination result by using the score. In the score acquisition process, the terminal processing unit 23 does not have to acquire the score and acquire the determination result. In such a case, the avatar output device 1 acquires the determination result.

(ステップS605)端末処理部23は、ステップS604で取得したスコアまたは判定結果を用いて、リクエストを構成する。なお、リクエストは、各アバターのアバター識別子に対応付くスコアまたは判定結果を有する。 (Step S605) The terminal processing unit 23 configures a request by using the score or the determination result acquired in step S604. The request has a score or a determination result corresponding to the avatar identifier of each avatar.

(ステップS606)端末送信部24は、ステップS605で構成されたリクエストをアバター出力装置1に送信する。リクエストには、例えば、他アバターごとに取得したスコアと対応するアバター識別子を含めてもよいし、端末処理部23で判定結果を取得する場合は他アバターごとの判定結果と対応するアバター識別子を含めてもよい。 (Step S606) The terminal transmission unit 24 transmits the request configured in step S605 to the avatar output device 1. For example, the request may include an avatar identifier corresponding to the score acquired for each other avatar, and when the terminal processing unit 23 acquires the determination result, the request includes the determination result for each other avatar and the corresponding avatar identifier. You may.

(ステップS607)端末受信部25は、ステップS606におけるリクエストの送信に応じて、情報を受信したか否かを判断する。情報を受信した場合はステップS608に行き、情報を受信しなかった場合はステップS607に戻る。なお、情報は、通常、リクエストに応じてアバター出力装置1が出力した1以上の各アバターのモデル情報を含む。また、情報は、ワールド情報を含むことは好適である。また、情報は、1以上の各アバター識別子に対応付いた音声情報を含んでも良い。さらに、受信された情報は、端末格納部21に、少なくとも一時蓄積される。 (Step S607) The terminal receiving unit 25 determines whether or not the information has been received in response to the transmission of the request in step S606. If the information is received, the process goes to step S608, and if the information is not received, the process returns to step S607. The information usually includes model information of one or more avatars output by the avatar output device 1 in response to a request. Further, it is preferable that the information includes world information. Further, the information may include voice information corresponding to one or more avatar identifiers. Further, the received information is stored at least temporarily in the terminal storage unit 21.

(ステップS608)端末処理部23は、ステップS607で受信された情報を用いて、表示情報構成処理を行う。表示情報構成処理とは、端末装置2に表示する情報を構成する処理である。表示情報構成処理の例について、図7のフローチャートを用いて説明する。 (Step S608) The terminal processing unit 23 performs display information configuration processing using the information received in step S607. The display information configuration process is a process for configuring information to be displayed on the terminal device 2. An example of the display information configuration process will be described with reference to the flowchart of FIG. 7.

(ステップS609)端末出力部26は、ステップS608で構成された情報を出力する。なお、出力される情報は、通常、ワールドと1または2以上のアバターとを含む。 (Step S609) The terminal output unit 26 outputs the information configured in step S608. The output information usually includes a world and one or more avatars.

(ステップS610)端末処理部23は、ステップS607で受信された情報が音声情報を有するか否かを判断する。音声情報を有する場合はステップS611に行き、音声情報を有しない場合はステップS601に戻る。 (Step S610) The terminal processing unit 23 determines whether or not the information received in step S607 has voice information. If it has voice information, it goes to step S611, and if it does not have voice information, it returns to step S601.

(ステップS611)処理部13等は、音声出力処理を行う。ステップS601に戻る。音声出力処理の例について、図8のフローチャートを用いて説明する。 (Step S611) The processing unit 13 and the like perform audio output processing. Return to step S601. An example of audio output processing will be described with reference to the flowchart of FIG.

(ステップS612)端末受付部22は、ユーザからの入力を受け付けたか否かを判断する。入力を受け付けた場合はステップS613に行き、入力を受け付けなかった場合はステップS619に行く。ユーザからの入力は、例えば、自アバターの位置情報の変更の入力、自アバターの向き情報の変更の入力、自アバターの音声情報である。 (Step S612) The terminal reception unit 22 determines whether or not the input from the user has been accepted. If the input is accepted, the process goes to step S613, and if the input is not accepted, the process goes to step S619. The input from the user is, for example, an input for changing the position information of the own avatar, an input for changing the orientation information of the own avatar, and voice information of the own avatar.

(ステップS613)端末処理部23は、ステップS612における入力に基づいて、属性値(例えば、変化した自アバターの位置情報、変化した自アバターの向き情報など)を取得する。端末処理部23は、当該入力に基づいて、変更されるスコアを取得する。また、ステップS619で、情報が受信された場合、端末処理部23は、受信された情報に基づいて、変更されるスコアを取得する。かかるスコア取得処理について、図6のフローチャートを用いて説明する。 (Step S613) The terminal processing unit 23 acquires attribute values (for example, changed position information of the own avatar, changed orientation information of the own avatar, etc.) based on the input in step S612. The terminal processing unit 23 acquires the score to be changed based on the input. Further, when the information is received in step S619, the terminal processing unit 23 acquires the score to be changed based on the received information. The score acquisition process will be described with reference to the flowchart of FIG.

(ステップS614)端末処理部23は、ステップS604で取得したスコアまたは判定結果を用いて、リクエストを構成する。なお、リクエストは、各アバターのアバター識別子に対応付くスコアまたは判定結果を有する。 (Step S614) The terminal processing unit 23 configures a request by using the score or the determination result acquired in step S604. The request has a score or a determination result corresponding to the avatar identifier of each avatar.

また、2回目以降のリクエストの送付の場合、端末処理部23は、前回のスコアまたは判定結果と、異なったスコアまたは判定結果が得られたアバターに関するリクエストを構成することは好適である。かかるリクエストは、スコアまたは判定結果に変化のないアバターのスコアまたは判定結果を含まない。かかるリクエストは、異なったスコアまたは判定結果が得られたアバターのアバター識別子と、スコアまたは判定結果を含む。 Further, in the case of sending the request for the second time or later, it is preferable that the terminal processing unit 23 configures the request regarding the avatar for which the score or the determination result is different from the previous score or the determination result. Such a request does not include the score or judgment result of the avatar whose score or judgment result does not change. Such a request includes the avatar identifier of the avatar for which a different score or determination result was obtained, and the score or determination result.

また、各アバターのスコアまたは判定結果に変化がない等の場合には、ステップS614において、リクエストが構成されない場合もあり得る。 Further, if there is no change in the score or the determination result of each avatar, the request may not be configured in step S614.

(ステップS615)端末処理部23は、ステップS614において、リクエストが構成されたか否かを判断する。リクエストが構成された場合はステップS606に行き、リクエストが構成されなかった場合はステップS616に行く。 (Step S615) The terminal processing unit 23 determines in step S614 whether or not the request has been configured. If the request is configured, the process goes to step S606, and if the request is not configured, the process goes to step S616.

(ステップS616)端末処理部23は、ステップS612における入力に対応する情報を送信するか否かを判断する。情報を送信する場合はステップS617に行き、情報を送信しない場合はステップS608に行く。なお、入力に対応する情報は、例えば、ユーザが入力した音声情報、入力後の新しい自アバターの位置や向きに関する情報である。 (Step S616) The terminal processing unit 23 determines whether or not to transmit the information corresponding to the input in step S612. If the information is transmitted, the process goes to step S617, and if the information is not transmitted, the process goes to step S608. The information corresponding to the input is, for example, voice information input by the user and information regarding the position and orientation of the new own avatar after the input.

(ステップS617)端末処理部23は、ステップS612における入力に対応する送信情報を構成する。 (Step S617) The terminal processing unit 23 configures transmission information corresponding to the input in step S612.

(ステップS618)端末送信部24は、ステップS617で構成された送信情報を、自分のアバター識別子と対にして、アバター出力装置1に送信する。ステップS608に行く。 (Step S618) The terminal transmission unit 24 transmits the transmission information configured in step S617 to the avatar output device 1 by pairing it with its own avatar identifier. Go to step S608.

(ステップS619)端末受信部は、アバター出力装置1から情報を受信したか否かを判断する。情報を受信した場合はステップS613に行き、情報を受信しなかった場合はステップS601に戻る。なお、情報とは、例えば、音声情報、他アバターの変更された位置情報、他アバターの変更された向き情報である。また、音声情報が受信された場合、通常、端末出力部26は、当該音声情報を出力する。 (Step S619) The terminal receiving unit determines whether or not information has been received from the avatar output device 1. If the information is received, the process goes to step S613, and if the information is not received, the process returns to step S601. The information is, for example, voice information, changed position information of another avatar, and changed orientation information of another avatar. When the voice information is received, the terminal output unit 26 usually outputs the voice information.

なお、図5のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 In the flowchart of FIG. 5, the process ends when the power is turned off or an interrupt for the end of the process is interrupted.

次に、ステップS604のスコア取得処理の例について、図7のフローチャートを用いて説明する。 Next, an example of the score acquisition process in step S604 will be described with reference to the flowchart of FIG. 7.

(ステップS701)端末処理部23は、スコアを取得するための1以上の属性値を取得する。ここでの1以上の属性値は、自アバターの位置情報を含む。ここでの1以上の属性値は、例えば、自アバターの向き情報、カメラ位置情報、カメラ向き情報、カメラの画角情報を含む。 (Step S701) The terminal processing unit 23 acquires one or more attribute values for acquiring a score. The attribute value of 1 or more here includes the position information of the own avatar. The one or more attribute values here include, for example, the orientation information of the own avatar, the camera position information, the camera orientation information, and the angle of view information of the camera.

(ステップS702)端末処理部23は、カウンタiに1を代入する。 (Step S702) The terminal processing unit 23 substitutes 1 for the counter i.

(ステップS703)端末処理部23は、スコアを取得する対象のi番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS704に行き、存在しない場合は上位処理にリターンする。 (Step S703) The terminal processing unit 23 determines whether or not the avatar identifier of the i-th avatar whose score is to be acquired exists. If the i-th avatar identifier exists, the process proceeds to step S704, and if it does not exist, the process returns to higher processing.

(ステップS704)端末処理部23は、i番目のアバター識別子と対になる1以上のスコア取得元属性値を取得する。なお、1以上のスコア取得元属性値は、例えば、i番目のアバターの位置情報、向き情報、役割属性値、由来属性値である。 (Step S704) The terminal processing unit 23 acquires one or more score acquisition source attribute values paired with the i-th avatar identifier. The score acquisition source attribute value of 1 or more is, for example, the position information, orientation information, role attribute value, and origin attribute value of the i-th avatar.

(ステップS705)端末処理部23は、自アバターの位置情報と自アバターの向き情報とi番目のアバターの位置情報とを用いて、ユーザ視野属性値を取得する。なお、ユーザ視野属性値は、自アバターの視野の中にi番目のアバターが存在するか否かを示す情報である。 (Step S705) The terminal processing unit 23 acquires the user visual field attribute value by using the position information of the own avatar, the orientation information of the own avatar, and the position information of the i-th avatar. The user visual field attribute value is information indicating whether or not the i-th avatar exists in the visual field of the own avatar.

(ステップS706)端末処理部23は、カメラ位置情報とカメラ向き情報とカメラの画角情報とi番目のアバターの位置情報とを用いて、カメラ視野属性値を取得する。なお、カメラ視野属性値は、i番目のアバターがカメラの撮影範囲であるか否かを示す情報である。 (Step S706) The terminal processing unit 23 acquires the camera field of view attribute value by using the camera position information, the camera orientation information, the angle of view information of the camera, and the position information of the i-th avatar. The camera field of view attribute value is information indicating whether or not the i-th avatar is within the shooting range of the camera.

(ステップS707)端末処理部23は、自アバターの位置情報とi番目のアバターの位置情報とを用いて、ユーザ距離属性値を取得する。なお、ユーザ距離属性値は、自アバターとi番目のアバターとの距離を特定する情報である。 (Step S707) The terminal processing unit 23 acquires the user distance attribute value by using the position information of the own avatar and the position information of the i-th avatar. The user distance attribute value is information for specifying the distance between the own avatar and the i-th avatar.

(ステップS708)端末処理部23は、自アバターの向き情報とi番目のアバターの向き情報とを用いて、ユーザ向き属性値を取得する。なお、ユーザ向き属性値は、自アバターとi番目のアバターとの相対的な向きに関する情報であり、例えば、自アバターとi番目のアバターとの角度に関する情報、自アバターとi番目のアバターとが向き合っているか否かを示す情報である。 (Step S708) The terminal processing unit 23 acquires the user orientation attribute value by using the orientation information of the own avatar and the orientation information of the i-th avatar. The user orientation attribute value is information on the relative orientation between the own avatar and the i-th avatar, for example, information on the angle between the own avatar and the i-th avatar, and the own avatar and the i-th avatar. It is information indicating whether or not they are facing each other.

(ステップS709)端末処理部23は、カメラ位置情報とi番目のアバターの位置情報とを用いて、カメラ距離属性値を取得する。なお、カメラ距離属性値は、カメラとi番目のアバターとの距離を特定する情報である。 (Step S709) The terminal processing unit 23 acquires the camera distance attribute value by using the camera position information and the position information of the i-th avatar. The camera distance attribute value is information that specifies the distance between the camera and the i-th avatar.

(ステップS710)端末処理部23は、ステップS705からステップS709で取得した動的属性値のうち、1または2以上の動的属性値を用いて、i番目のアバターのスコアを取得する。 (Step S710) The terminal processing unit 23 acquires the score of the i-th avatar by using one or two or more dynamic attribute values among the dynamic attribute values acquired in steps S709 from step S705.

(ステップS711)端末処理部23は、i番目のアバターのスコアを用いて、i番目のアバターの判定結果を取得する。なお、判定結果は、ここでは、例えば、種類識別子である。なお、端末処理部23は、通常、スコアが高いほど、大きなデータサイズに対応する判定結果を取得する。 (Step S711) The terminal processing unit 23 acquires the determination result of the i-th avatar by using the score of the i-th avatar. The determination result is, for example, a type identifier here. The terminal processing unit 23 usually acquires a determination result corresponding to a larger data size as the score is higher.

(ステップS712)端末処理部23は、i番目のアバター識別子に対応付けて、判定結果を一時蓄積する。なお、端末処理部23は、i番目のアバター識別子に対応付けて、スコアを一時蓄積しても良い。 (Step S712) The terminal processing unit 23 temporarily stores the determination result in association with the i-th avatar identifier. The terminal processing unit 23 may temporarily accumulate the score in association with the i-th avatar identifier.

(ステップS713)端末処理部23は、カウンタiを1、インクリメントする。ステップS703に戻る。 (Step S713) The terminal processing unit 23 increments the counter i by 1. Return to step S703.

なお、図6のフローチャートにおいて、端末処理部23は、判定結果を取得しなくても良い。かかる場合、端末処理部23は、i番目のアバター識別子に対応付けて、スコアを一時蓄積する。 In the flowchart of FIG. 6, the terminal processing unit 23 does not have to acquire the determination result. In such a case, the terminal processing unit 23 temporarily accumulates the score in association with the i-th avatar identifier.

次に、ステップS608の表示情報構成処理の例について、図8のフローチャートを用いて説明する。 Next, an example of the display information configuration process in step S608 will be described with reference to the flowchart of FIG.

(ステップS801)端末処理部23は、ワールド情報を取得する。なお、ワールド情報は、アバター出力装置1から受信された情報、または端末格納部21に格納されている情報である。 (Step S801) The terminal processing unit 23 acquires world information. The world information is information received from the avatar output device 1 or information stored in the terminal storage unit 21.

(ステップS802)端末処理部23は、カウンタiに1を代入する。 (Step S802) The terminal processing unit 23 substitutes 1 for the counter i.

(ステップS803)端末処理部23は、構成する対象のi番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS804に行き、i番目のアバター識別子が存在しない場合は上位処理にリターンする。 (Step S803) The terminal processing unit 23 determines whether or not the avatar identifier of the i-th avatar to be configured exists. If the i-th avatar identifier exists, the process proceeds to step S804, and if the i-th avatar identifier does not exist, the process returns to higher processing.

(ステップS804)端末処理部23は、i番目のアバター識別子と対になる1以上の属性値等を端末格納部21から取得する。なお、1以上の属性値等をは、スコアまたは判定結果を含む、と考えても良い。 (Step S804) The terminal processing unit 23 acquires one or more attribute values or the like paired with the i-th avatar identifier from the terminal storage unit 21. It should be noted that one or more attribute values and the like may be considered to include a score or a determination result.

(ステップS805)端末処理部23は、ステップS804で取得した1以上の属性値等を用いて、i番目のアバターを出力するか否かを判断する。i番目のアバターを出力する場合はステップS806に行き、i番目のアバターを出力しない場合はステップS80に行く。端末処理部23は、例えば、カメラに視野に入っていない他アバター、またはユーザの自アバターの視野に入っていない他アバターは、出力しないと判断する。端末処理部23は、例えば、スコアが閾値以上または閾値より大きいアバターのみ、出力すると判断しても良い。 (Step S805) The terminal processing unit 23 determines whether or not to output the i-th avatar by using one or more attribute values acquired in step S804. To output the i-th avatar, go to step S806, and to not output the i-th avatar, go to step S80. The terminal processing unit 23 determines that, for example, another avatar that is not in the field of view of the camera or another avatar that is not in the field of view of the user's own avatar is not output. The terminal processing unit 23 may determine, for example, to output only an avatar whose score is equal to or higher than the threshold value or larger than the threshold value.

(ステップS806)端末処理部23は、i番目のアバター識別子と対になるモデル情報を取得する。なお、モデル情報は、例えば、各アバターの判定結果に基づいて決定された第一モデル情報または第二モデル情報である。 (Step S806) The terminal processing unit 23 acquires model information paired with the i-th avatar identifier. The model information is, for example, first model information or second model information determined based on the determination result of each avatar.

(ステップS807)端末処理部23は、ステップS806で取得したモデル情報を用いて表示するアバターを構成する。 (Step S807) The terminal processing unit 23 constitutes an avatar to be displayed using the model information acquired in step S806.

(ステップS808)端末処理部23は、i番目のアバター識別子と対になる位置情報を用いて、ステップS807で構成したアバターを、ステップS801で取得したワールド情報により構成されるワールドの中に配置する。 (Step S808) The terminal processing unit 23 arranges the avatar configured in step S807 in the world composed of the world information acquired in step S801 by using the position information paired with the i-th avatar identifier. ..

(ステップS809)端末処理部23は、カウンタiを1、インクリメントする。ステップS803に戻る。 (Step S809) The terminal processing unit 23 increments the counter i by 1. Return to step S803.

次に、ステップS611の音声出力処理の例について、図9のフローチャートを用いて説明する。 Next, an example of the audio output processing in step S611 will be described with reference to the flowchart of FIG.

(ステップS901)端末処理部23は、カウンタiに1を代入する。 (Step S901) The terminal processing unit 23 substitutes 1 for the counter i.

(ステップS902)端末処理部23は、i番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS903に行き、i番目のアバター識別子が存在しない場合は上位処理にリターンする。 (Step S902) The terminal processing unit 23 determines whether or not the avatar identifier of the i-th avatar exists. If the i-th avatar identifier exists, the process proceeds to step S903, and if the i-th avatar identifier does not exist, the process returns to higher processing.

(ステップS903)端末処理部23は、i番目のアバター識別子と対になる音声情報が存在するか否かを判断する。当該音声情報が存在する場合はステップS904に行き、存在しない場合はステップS907に行く。なお、i番目のアバター識別子と対になる音声情報は、例えば、アバター出力装置1から受信された情報である。 (Step S903) The terminal processing unit 23 determines whether or not there is voice information paired with the i-th avatar identifier. If the voice information exists, the process goes to step S904, and if the voice information does not exist, the process goes to step S907. The voice information paired with the i-th avatar identifier is, for example, information received from the avatar output device 1.

(ステップS904)端末処理部23は、i番目のアバター識別子と対になるスコアまたは判定結果を取得する。 (Step S904) The terminal processing unit 23 acquires a score or a determination result paired with the i-th avatar identifier.

(ステップS905)端末処理部23は、ステップS904におけるスコアまたは判定結果に応じた種類の音声情報を取得する。 (Step S905) The terminal processing unit 23 acquires the type of voice information according to the score or the determination result in step S904.

ここで、i番目のアバター識別子と対にして2以上の種類の音声情報が格納されている場合、例えば、端末処理部23は、i番目のアバター識別子と対になる音声情報(例えば、第一音声情報、第二音声情報)のうちの、スコアまたは判定結果に応じた種類の音声情報を取得する。i番目のアバター識別子と対にして一の音声情報が格納されている場合、例えば、端末処理部23は、スコアまたは判定結果に応じて、当該一の音声情報の属性値(例えば、音量、周波数)を変更し、出力する音声情報を取得する。 Here, when two or more types of voice information are stored as a pair with the i-th avatar identifier, for example, the terminal processing unit 23 has a voice information paired with the i-th avatar identifier (for example, the first voice information). Of the voice information (voice information, second voice information), the type of voice information according to the score or the determination result is acquired. When one voice information is stored as a pair with the i-th avatar identifier, for example, the terminal processing unit 23 has an attribute value (for example, volume, frequency) of the one voice information according to a score or a determination result. ) To get the audio information to be output.

(ステップS906)端末出力部26は、ステップS905で取得された音声情報を出力する。 (Step S906) The terminal output unit 26 outputs the voice information acquired in step S905.

(ステップS907)端末処理部23は、カウンタiを1、インクリメントする。ステップS902に戻る。 (Step S907) The terminal processing unit 23 increments the counter i by 1. Return to step S902.

なお、図9のフローチャートにおいて、端末出力部26は、1以上の各アバター識別子と対になる音声情報を出力するだけでも良い。かかる場合、アバター出力装置1が、通常、アバター識別子と対になるスコアに応じた音声情報を取得している。 In the flowchart of FIG. 9, the terminal output unit 26 may only output voice information paired with one or more avatar identifiers. In such a case, the avatar output device 1 usually acquires voice information according to the score paired with the avatar identifier.

以下、本実施の形態における情報システムAの具体的な動作例について、図10を用いて説明する。情報システムAは、アバター出力装置1と2以上の端末装置2を有する。ここで、2以上の端末装置2を、端末装置2(1)、・・・、端末装置2(N)とする。 Hereinafter, a specific operation example of the information system A in the present embodiment will be described with reference to FIG. The information system A has an avatar output device 1 and two or more terminal devices 2. Here, the two or more terminal devices 2 are referred to as terminal devices 2 (1), ..., Terminal device 2 (N).

端末装置2(1)の端末受付部22は、ユーザからモデル情報等を受け付けた、とする。そして、端末処理部23は、受け付けられたモデル情報等を用いて、送信するモデル情報等を構成する。端末送信部24は、当該モデル情報をアバター出力装置1に送信する(1001参照)。なお、モデル情報等は、ここで、第一モデル情報、1以上の属性値を有する。1以上の属性値は、ここでは、位置情報、役割属性値、由来属性値、端末属性値を含む、とする。 It is assumed that the terminal reception unit 22 of the terminal device 2 (1) has received model information or the like from the user. Then, the terminal processing unit 23 configures the model information or the like to be transmitted by using the received model information or the like. The terminal transmission unit 24 transmits the model information to the avatar output device 1 (see 1001). The model information and the like have the first model information and one or more attribute values here. Here, it is assumed that the attribute value of 1 or more includes the position information, the role attribute value, the origin attribute value, and the terminal attribute value.

また、同様に、端末装置2(N)も、ユーザから受け付けたモデル情報等をアバター出力装置1に送信する(1002参照)。 Similarly, the terminal device 2 (N) also transmits the model information and the like received from the user to the avatar output device 1 (see 1002).

次に、アバター出力装置1のアバター受信部121は、端末装置2(1)や端末装置2(N)等からモデル情報等を受信する(1001、1002参照)。そして、処理部13は、各モデル情報等に対して、ユニークなアバター識別子を生成する。次に、処理部13は、受信されたモデル情報等を、アバター識別子に対応付けて、アバター格納部112の図11の構造を有するアバター管理表に蓄積した、とする。 Next, the avatar receiving unit 121 of the avatar output device 1 receives model information and the like from the terminal device 2 (1), the terminal device 2 (N), and the like (see 1001 and 1002). Then, the processing unit 13 generates a unique avatar identifier for each model information and the like. Next, it is assumed that the processing unit 13 associates the received model information or the like with the avatar identifier and stores it in the avatar management table having the structure of FIG. 11 of the avatar storage unit 112.

アバター管理表は、「ID」「アバター識別子」「第一モデル情報」「第二モデル情報」「属性値」を有する。また、「属性値」は、「位置情報」「役割属性値」「由来属性値」「端末属性値」を有する。「端末属性値」は、ここでは「画面サイズ」「動作周波数」を有する。「ID」は、レコードを識別する情報である。「第一モデル情報」は、第一モデル情報のファイル名である。「第二モデル情報」は、第二モデル情報のファイル名である。なお、各ファイルも、アバター格納部112に格納されている。「位置情報」は、三次元空間におけるアバターの位置を特定する情報である。また、ここでは、「役割属性値」は、「主催者」「司会者」「観客」のいずれかを採り得る。「由来属性値」は、「UGC」「デフォルト」のいずれかを採り得る。「UGC」は、ユーザが作成したアバターであることを示す。「デフォルト」は、デフォルトのアバターであることを示す。デフォルトのアバターは、例えば、アバター出力装置1の管理者が予め用意しているアバターである。なお、現段階では、表の「第二モデル情報」には、情報が存在しない。 The avatar management table has "ID", "avatar identifier", "first model information", "second model information", and "attribute value". Further, the "attribute value" has "position information", "role attribute value", "origin attribute value", and "terminal attribute value". The "terminal attribute value" has a "screen size" and an "operating frequency" here. The "ID" is information for identifying a record. "First model information" is a file name of the first model information. "Second model information" is a file name of the second model information. Each file is also stored in the avatar storage unit 112. "Position information" is information that identifies the position of the avatar in the three-dimensional space. Further, here, the "role attribute value" may be any of "organizer", "moderator", and "audience". The "origin attribute value" can be either "UGC" or "default". "UGC" indicates that the avatar is created by the user. "Default" indicates that it is the default avatar. The default avatar is, for example, an avatar prepared in advance by the administrator of the avatar output device 1. At this stage, there is no information in the "second model information" in the table.

次に、アバター出力装置1のアバター処理部132は、予め決められた条件を満たした(例えば、予め決められた時刻になった)ことを検知し、端末装置2(1)や端末装置2(N)等の第一モデル情報に対して、上述した圧縮処理を行い、第二モデル情報を取得する(1003参照)。次に、アバター処理部132は、2以上の各第二モデル情報をアバター格納部112に蓄積し、2以上の各第二モデル情報のファイル名を、アバター識別子と対にして、アバター管理表に蓄積する。以上の処理により、図11のアバター管理表が構成された。なお、図11のアバター管理表において、「D.json」はデフォルトのアバターの第一モデル情報であり、「D.json」はデフォルトのアバターの第二モデル情報である。 Next, the avatar processing unit 132 of the avatar output device 1 detects that the predetermined conditions are satisfied (for example, the predetermined time has come), and the terminal device 2 (1) or the terminal device 2 (for example) The above-mentioned compression processing is performed on the first model information such as N), and the second model information is acquired (see 1003). Next, the avatar processing unit 132 stores two or more second model information in the avatar storage unit 112, pairs the file names of the two or more second model information with the avatar identifier, and puts them in the avatar management table. accumulate. By the above processing, the avatar management table of FIG. 11 was constructed. In the avatar management table of FIG. 11, "D1 .json" is the first model information of the default avatar, and "D2 .json" is the second model information of the default avatar.

次に、処理部13は、全アバターのスコア取得元属性値を、アバター識別子に対応付けて、図11のアバター管理表、または格納部11から取得する。スコア取得元属性値は、ここでは、図11の5つの属性値、およびカメラ属性値(カメラ位置情報、カメラ向き情報、画角情報)である、とする。なお、カメラ属性値は、格納部11に格納されている、とする。 Next, the processing unit 13 acquires the score acquisition source attribute values of all the avatars from the avatar management table of FIG. 11 or the storage unit 11 in association with the avatar identifier. Here, it is assumed that the score acquisition source attribute values are the five attribute values shown in FIG. 11 and the camera attribute values (camera position information, camera orientation information, and angle of view information). It is assumed that the camera attribute value is stored in the storage unit 11.

次に、位置情報送信部141は、全アバターのスコア取得元属性値を、アバター識別子に対応付けて、端末装置2(1)や端末装置2(N)を含む全ての端末装置2に送信する(1004、1005参照)。 Next, the position information transmission unit 141 associates the score acquisition source attribute values of all avatars with the avatar identifiers and transmits them to all the terminal devices 2 including the terminal device 2 (1) and the terminal device 2 (N). (See 1004, 1005).

次に、端末装置2(1)の端末受信部25は、全アバターのスコア取得元属性値を受信する(1004参照)。また、端末装置2(N)等の端末受信部25も、全アバターのスコア取得元属性値を受信する(1004参照)。 Next, the terminal receiving unit 25 of the terminal device 2 (1) receives the score acquisition source attribute values of all avatars (see 1004). Further, the terminal receiving unit 25 such as the terminal device 2 (N) also receives the score acquisition source attribute values of all avatars (see 1004).

次に、端末装置2(1)等の端末処理部23は、受信されたスコア取得元属性値が有する各他アバターの位置情報と、カメラ位置情報とカメラ向き情報と画角情報とを用いて、各他アバターの撮影範囲属性値、カメラからの距離を、他アバターごとに、取得する。また、端末装置2(1)等のすべての端末処理部23は、各々の自アバターの位置情報と各他アバターの位置情報とを用いて、自アバターと他アバターとの距離を、他アバターごとに取得する。 Next, the terminal processing unit 23 of the terminal device 2 (1) or the like uses the position information of each other avatar possessed by the received score acquisition source attribute value, the camera position information, the camera orientation information, and the angle of view information. , Acquires the shooting range attribute value of each other avatar and the distance from the camera for each other avatar. Further, all the terminal processing units 23 such as the terminal device 2 (1) use the position information of each own avatar and the position information of each other avatar to set the distance between the own avatar and the other avatar for each other avatar. To get to.

次に、端末装置2(1)等の端末処理部23は、各他アバターごとに、他アバターに対応する撮影範囲属性値、カメラからの距離、自アバターと他アバターとの距離、役割属性値、由来属性値等を用いて、スコアを取得する。次に、端末装置2(1)等の端末処理部23は、各他アバターごとに、判定結果「第一」または「第二」を取得する。なお、端末処理部23は、ここでは、スコアが閾値以上の他アバターに対しては、「第一」の判定結果を取得し、スコアが閾値未満の他アバターに対しては、「第二」の判定結果を取得する、とする(1006、1007参照)。 Next, the terminal processing unit 23 such as the terminal device 2 (1) has a shooting range attribute value corresponding to the other avatar, a distance from the camera, a distance between the own avatar and the other avatar, and a role attribute value for each other avatar. , Derived attribute value, etc. are used to obtain the score. Next, the terminal processing unit 23 such as the terminal device 2 (1) acquires the determination result "first" or "second" for each other avatar. Here, the terminal processing unit 23 acquires the determination result of "first" for other avatars whose score is equal to or higher than the threshold value, and "second" for other avatars whose score is less than the threshold value. (See 1006 and 1007).

また、ここでの判定結果の概念は、例えば、図12である。図12において、グレーで示された領域1201がカメラの撮影範囲である場合に、カメラの撮影範囲に含まれ、かつ、カメラから近い9つのアバターの判定結果は「第一」であり、他のアバターの判定結果は「第二」である。図11において、判定結果「第一」のアバターは黒く塗りつぶされており、判定結果「第二」のアバターは黒く塗りつぶされていない。また、端末装置2(1)、・・・、端末装置2(N)のうちの各端末装置2によって、判定結果は異なることは好適である。なお、判定結果「第一」に対応する9つのアバターは、図11のA01、A02、A03、A04、A05、A06、A07、A08、A09である。 Further, the concept of the determination result here is, for example, FIG. 12. In FIG. 12, when the area 1201 shown in gray is the shooting range of the camera, the determination result of the nine avatars included in the shooting range of the camera and close to the camera is "first", and the other The determination result of the avatar is "second". In FIG. 11, the avatar with the determination result “first” is painted black, and the avatar with the determination result “second” is not painted black. Further, it is preferable that the determination result differs depending on each terminal device 2 of the terminal devices 2 (1), ..., And the terminal device 2 (N). The nine avatars corresponding to the determination result "first" are A01, A02, A03, A04, A05, A06, A07, A08, and A09 in FIG.

同様に、図12において、グレーで示された領域1201が特定の端末装置(N)から見た視野とすれば、自アバターの視野を考慮した判定が可能となる。 Similarly, in FIG. 12, if the region 1201 shown in gray is the field of view seen from the specific terminal device (N), the determination can be made in consideration of the field of view of the own avatar.

次に、端末装置2(1)等のすべての端末処理部23は、他アバターのアバター識別子と判定結果との組を、他アバターの数だけ有するリクエストとを構成する。次に、端末装置2(1)、・・・、端末装置2(N)の各端末送信部24は、リクエストをアバター出力装置1に送信する(1008、1009参照)。 Next, all the terminal processing units 23 such as the terminal device 2 (1) constitute a request having a set of an avatar identifier of another avatar and a determination result as many as the number of other avatars. Next, each terminal transmission unit 24 of the terminal devices 2 (1), ..., And the terminal device 2 (N) transmits a request to the avatar output device 1 (see 1008 and 1009).

次に、アバター出力装置1のスコア取得部131は、2以上の各端末装置2からリクエストを受信する(1008、1009参照)。 Next, the score acquisition unit 131 of the avatar output device 1 receives a request from each of two or more terminal devices 2 (see 1008 and 1009).

次に、アバター出力装置1のスコア取得部131は、各端末装置2からのリクエストに含まれる各アバター識別子に対応する判定結果を取得する。なお、判定結果は、スコアの一例である、と考えても良い。次に、アバター処理部132は、アバター識別子ごとに、判定結果に応じて、属性値「第一モデル情報」または属性値「第二モデル情報」のファイル名をアバター管理表(図11)から取得し、当該ファイル名で識別される第一モデル情報または第二モデル情報を、アバター識別子に対応付けて、アバター格納部112から取得する。なお、判定結果「第一」に対応するアバター識別子に対して第一モデル情報が取得され、判定結果「第二」に対応するアバター識別子に対して第二モデル情報が取得される。 Next, the score acquisition unit 131 of the avatar output device 1 acquires the determination result corresponding to each avatar identifier included in the request from each terminal device 2. The determination result may be considered as an example of the score. Next, the avatar processing unit 132 acquires the file name of the attribute value "first model information" or the attribute value "second model information" from the avatar management table (FIG. 11) for each avatar identifier according to the determination result. Then, the first model information or the second model information identified by the file name is associated with the avatar identifier and acquired from the avatar storage unit 112. The first model information is acquired for the avatar identifier corresponding to the determination result "first", and the second model information is acquired for the avatar identifier corresponding to the determination result "second".

次に、アバター処理部132は、ワールド情報を送付したか否かを示すフラグワールド情報送付フラグがOFF(未送付)であることを検知し、ワールド情報を送信する、と判断する。そして、アバター処理部132は、ワールド情報をワールド格納部111から取得する。アバター処理部132は、端末装置2ごとに、上記の処理を行い、アバター識別子に対応付けられた第一モデル情報または第二モデル情報、およびワールド情報を取得する(1010、1011参照)。 Next, the avatar processing unit 132 detects that the flag world information sending flag indicating whether or not the world information has been sent is OFF (not sent), and determines that the world information is transmitted. Then, the avatar processing unit 132 acquires the world information from the world storage unit 111. The avatar processing unit 132 performs the above processing for each terminal device 2 and acquires the first model information or the second model information and the world information associated with the avatar identifier (see 1010 and 1011).

次に、アバター処理部132は、取得した情報を、リクエストを送信してきた2以上の各端末装置2に送信する(1012、1013参照)。なお、アバター処理部132は、ワールド情報の送付により、ワールド情報送付フラグをON(送付済み)とする。 Next, the avatar processing unit 132 transmits the acquired information to each of the two or more terminal devices 2 that have transmitted the request (see 1012 and 1013). The avatar processing unit 132 turns on (sent) the world information sending flag by sending the world information.

次に、2以上の各端末装置2の端末受信部25は、リクエストの送信に応じて、情報を受信する(1012、1013参照)。ここでの情報は、ワールド情報と、アバター識別子とモデル情報との2以上の組を含む。 Next, the terminal receiving unit 25 of each of the two or more terminal devices 2 receives information in response to the transmission of the request (see 1012 and 1013). The information here includes two or more sets of world information and avatar identifiers and model information.

次に、2以上の各端末装置2の端末処理部23は、受信された情報を用いて、上述した表示情報構成処理を行う(1014、1015参照)。端末出力部26は、表示情報構成処理により構成された情報を出力する(1016、1017参照)。出力される情報は、仮想的な三次元空間の中に多数のアバターを有する。なお、かかる出力例は、図13である。図13において、2以上の端末装置2の各ユーザに対応するアバターが、ワールドと共に表示されている。また、端末装置2によって、同じアバターでも、第一モデル情報が使用されたり、第二モデル情報が使用されたりすることは好適である。 Next, the terminal processing unit 23 of each of the two or more terminal devices 2 performs the above-mentioned display information configuration processing using the received information (see 1014 and 1015). The terminal output unit 26 outputs the information configured by the display information configuration process (see 1016, 1017). The output information has a large number of avatars in a virtual three-dimensional space. An example of such output is shown in FIG. In FIG. 13, avatars corresponding to each user of two or more terminal devices 2 are displayed together with the world. Further, it is preferable that the first model information or the second model information is used even with the same avatar by the terminal device 2.

また、図13の1301の仮想的なスクリーンにおいて、ワールド内のカメラで取得された映像が表示されることは好適である。かかる場合、例えば、アバター出力装置1は、ワールド内のカメラで取得される映像を構成し、各端末装置2に送信する。そして、各端末装置2の端末受信部25は、カメラで取得される映像を受信する。そして、端末処理部23は、受信された映像をワールド内の仮想的なスクリーンに貼り付ける、次に、端末出力部26は、かかる映像が貼り付けられたスクリーンを含むワールドを、各ユーザに対応するアバターと共に出力する。 Further, it is preferable that the image acquired by the camera in the world is displayed on the virtual screen of 1301 of FIG. In such a case, for example, the avatar output device 1 constitutes an image acquired by a camera in the world and transmits it to each terminal device 2. Then, the terminal receiving unit 25 of each terminal device 2 receives the image acquired by the camera. Then, the terminal processing unit 23 pastes the received video on a virtual screen in the world, and then the terminal output unit 26 corresponds to each user in the world including the screen on which the video is pasted. Output with the avatar to do.

さらに、時間が経過し、ユーザが端末装置2(1)に、自アバターの位置情報を変更する入力を行った、とする(1018参照)。 Further, it is assumed that the time has passed and the user has input to the terminal device 2 (1) to change the position information of the own avatar (see 1018).

次に、端末装置2(1)の端末処理部23は、自アバターの位置情報の変更に応じて、1以上の各他アバターのスコアを、再度、算出する。なお、端末処理部23は、自アバターの位置情報以外の情報(他アバターの情報、カメラ属性値等)は、既に受信し、蓄積されている情報を用いて、1以上の各他アバターのスコアを算出する、とする。 Next, the terminal processing unit 23 of the terminal device 2 (1) calculates the score of each of the other avatars of 1 or more again according to the change of the position information of the own avatar. The terminal processing unit 23 has already received information other than the position information of its own avatar (information of other avatars, camera attribute values, etc.), and uses the accumulated information to score one or more of each other avatar. Is calculated.

次に、端末装置2(1)の端末処理部23は、1以上の各他アバターのスコアに応じた判定結果を取得する(1019参照)。 Next, the terminal processing unit 23 of the terminal device 2 (1) acquires a determination result according to the score of each of the other avatars of 1 or more (see 1019).

次に、端末処理部23は、前回の判定結果と比較して、判定結果に変化があった他アバターのアバター識別子と判定結果との1組以上の組、および変更された自アバターの位置情報を有するリクエストを構成する。 Next, the terminal processing unit 23 has one or more sets of avatar identifiers and determination results of other avatars whose determination results have changed as compared with the previous determination result, and the changed position information of the own avatar. Configure a request with.

次に、端末装置2(1)の端末送信部24は、当該リクエストをアバター出力装置1に送信する(1020参照)。 Next, the terminal transmission unit 24 of the terminal device 2 (1) transmits the request to the avatar output device 1 (see 1020).

次に、アバター出力装置1のスコア取得部131は、端末装置2(1)からリクエストを受信する(1020参照)。 Next, the score acquisition unit 131 of the avatar output device 1 receives a request from the terminal device 2 (1) (see 1020).

次に、アバター出力装置1のアバター処理部132は、端末装置2(1)からのリクエストに含まれる1以上の各アバター識別子に対応する判定結果を取得する。次に、アバター処理部132は、アバター識別子ごとに、判定結果に応じて、属性値「第一モデル情報」または属性値「第二モデル情報」のファイル名をアバター管理表(図11)から取得し、当該ファイル名で識別される第一モデル情報または第二モデル情報を、アバター識別子に対応付けて、アバター格納部112から取得する。 Next, the avatar processing unit 132 of the avatar output device 1 acquires the determination result corresponding to each one or more avatar identifiers included in the request from the terminal device 2 (1). Next, the avatar processing unit 132 acquires the file name of the attribute value "first model information" or the attribute value "second model information" from the avatar management table (FIG. 11) for each avatar identifier according to the determination result. Then, the first model information or the second model information identified by the file name is associated with the avatar identifier and acquired from the avatar storage unit 112.

次に、端末装置2(1)に既にワールド情報を送信しているので、アバター処理部132は、ワールド情報を送信しない、と判断する。 Next, since the world information has already been transmitted to the terminal device 2 (1), the avatar processing unit 132 determines that the world information is not transmitted.

次に、アバター処理部132は、取得した情報を、リクエストを送信してきた端末装置2(1)に送信する(1021参照)。 Next, the avatar processing unit 132 transmits the acquired information to the terminal device 2 (1) that has transmitted the request (see 1021).

また、端末装置2(1)の端末処理部23は、自アバターの位置情報の更新に応じて、受信された他アバターのモデル情報をも用いて、変更される表示情報を構成する(1022参照)。次に、端末装置2(1)の端末出力部26は、新たに構成された表示情報を出力する(1023参照)。なお、端末処理部23は、自アバターの位置情報の更新に応じて、他アバターの位置情報(相対的な位置情報)も変更する。 Further, the terminal processing unit 23 of the terminal device 2 (1) configures the display information to be changed by using the model information of the other avatar received in response to the update of the position information of the own avatar (see 1022). ). Next, the terminal output unit 26 of the terminal device 2 (1) outputs the newly configured display information (see 1023). The terminal processing unit 23 also changes the position information (relative position information) of the other avatar according to the update of the position information of the own avatar.

また、アバター処理部132は、端末装置2(1)のアバターの変更された位置情報と端末装置2(1)のアバターのアバター識別子とを含む他アバターの情報を、端末装置2(N)を含む1以上の端末装置2に送信する(1024参照)。 Further, the avatar processing unit 132 transfers information on other avatars including the changed position information of the avatar of the terminal device 2 (1) and the avatar identifier of the avatar of the terminal device 2 (1) to the terminal device 2 (N). Transmit to one or more terminal devices 2 including (see 1024).

次に、端末装置2(N)等の端末受信部25は、端末装置2(1)の他アバターの情報を受信する。 Next, the terminal receiving unit 25 such as the terminal device 2 (N) receives the information of the other avatar of the terminal device 2 (1).

次に、端末装置2(N)等の端末処理部23は、端末装置2(1)のアバターの位置情報の変更による、端末装置2(1)のアバターに対する新たなスコアを取得する。次に、端末装置2(N)等の端末処理部23は、端末装置2(1)のアバターに対する判定結果を取得する(1025参照)。 Next, the terminal processing unit 23 of the terminal device 2 (N) or the like acquires a new score for the avatar of the terminal device 2 (1) by changing the position information of the avatar of the terminal device 2 (1). Next, the terminal processing unit 23 such as the terminal device 2 (N) acquires the determination result for the avatar of the terminal device 2 (1) (see 1025).

そして、端末装置2(N)における端末装置2(1)のアバターの判定結果が、前回の判定結果とは異なる判定結果になった、とする。 Then, it is assumed that the determination result of the avatar of the terminal device 2 (1) in the terminal device 2 (N) is different from the previous determination result.

次に、端末装置2(N)の端末送信部24は、端末装置2(1)の他アバターのアバター識別子と新たな判定結果とを含むリクエストをアバター出力装置1に送信する(1026参照)。なお、端末装置2(1)のアバターの判定結果が、前回の判定結果と同じ端末装置(2)は、リクエストをアバター出力装置1に送信しない、とする。 Next, the terminal transmission unit 24 of the terminal device 2 (N) transmits a request including the avatar identifier of the other avatar of the terminal device 2 (1) and the new determination result to the avatar output device 1 (see 1026). It is assumed that the terminal device (2) whose avatar determination result of the terminal device 2 (1) is the same as the previous determination result does not transmit the request to the avatar output device 1.

次に、アバター出力装置1のスコア取得部131は、端末装置2(N)からリクエストを受信する(1026参照)。 Next, the score acquisition unit 131 of the avatar output device 1 receives a request from the terminal device 2 (N) (see 1026).

次に、アバター出力装置1のアバター処理部132は、端末装置2(N)からのリクエストに含まれるアバター識別子に対応する判定結果を取得する。次に、アバター処理部132は、当該アバター識別子の判定結果に応じて、属性値「第一モデル情報」または属性値「第二モデル情報」のファイル名であり、当該アバター識別子と対になるファイル名を、アバター管理表(図11)から取得し、当該ファイル名で識別される第一モデル情報または第二モデル情報を、アバター識別子に対応付けて、アバター格納部112から取得する。 Next, the avatar processing unit 132 of the avatar output device 1 acquires the determination result corresponding to the avatar identifier included in the request from the terminal device 2 (N). Next, the avatar processing unit 132 is a file name of the attribute value "first model information" or the attribute value "second model information" according to the determination result of the avatar identifier, and is a file paired with the avatar identifier. The name is acquired from the avatar management table (FIG. 11), and the first model information or the second model information identified by the file name is associated with the avatar identifier and acquired from the avatar storage unit 112.

次に、アバター処理部132は、取得した情報を、リクエストを送信してきた端末装置2(N)に送信する(1027参照)。 Next, the avatar processing unit 132 transmits the acquired information to the terminal device 2 (N) that has transmitted the request (see 1027).

次に、端末装置2(N)の端末受信部25は、リクエストの送信に応じて、情報を受信する(1027参照)。 Next, the terminal receiving unit 25 of the terminal device 2 (N) receives information in response to the transmission of the request (see 1027).

次に、端末装置2(N)の端末処理部23は、受信された情報を用いて、表示情報構成処理を行う(1028参照)。端末装置2(N)の端末出力部26は、表示情報構成処理により構成された情報を出力する(1029参照)。なお、かかる表示情報構成処理により、端末装置2(N)において、例えば、端末装置2(1)のアバターの位置が移動し、かつ当該アバターの表示に利用されるモデル情報が、第二モデル情報から第一モデル情報に変更される。 Next, the terminal processing unit 23 of the terminal device 2 (N) performs display information configuration processing using the received information (see 1028). The terminal output unit 26 of the terminal device 2 (N) outputs the information configured by the display information configuration process (see 1029). In the terminal device 2 (N), for example, the position of the avatar of the terminal device 2 (1) is moved by the display information configuration process, and the model information used for displaying the avatar is the second model information. Is changed to the first model information.

なお、端末装置2(1)のアバターの位置情報の変更により、端末装置2(N)以外の端末装置2も、アバター出力装置1にリクエストを送信し、端末装置2(N)と同様に、変更された情報を出力しても良い。 By changing the position information of the avatar of the terminal device 2 (1), the terminal device 2 other than the terminal device 2 (N) also sends a request to the avatar output device 1 and similarly to the terminal device 2 (N). The changed information may be output.

以上、本実施の形態によれば、多数のアバターを出力する場合に、各アバターのスコアに応じた適切な処理ができる。 As described above, according to the present embodiment, when a large number of avatars are output, appropriate processing can be performed according to the score of each avatar.

また、本実施の形態によれば、多数のアバターを表示する場合に、各アバターのスコアに応じて、ユーザにとって適切に各アバターの表示制御ができる。 Further, according to the present embodiment, when displaying a large number of avatars, the display control of each avatar can be appropriately controlled by the user according to the score of each avatar.

また、本実施の形態によれば、多数のアバターを表示する場合に、処理の負荷を抑制しつつ、ユーザにとって適切に各アバターを表示できる。 Further, according to the present embodiment, when displaying a large number of avatars, each avatar can be appropriately displayed for the user while suppressing the processing load.

また、本実施の形態によれば、多数のアバターを表示する場合に、各アバターのスコアに応じて、ユーザにとって適切な各アバターの挙動を得ることができる。 Further, according to the present embodiment, when displaying a large number of avatars, it is possible to obtain the behavior of each avatar suitable for the user according to the score of each avatar.

また、本実施の形態によれば、多数のアバターの音声出力を行う場合に、各アバターのスコアに応じて、ユーザにとって適切な各アバターの音声出力が得られる。 Further, according to the present embodiment, when the voice output of a large number of avatars is performed, the voice output of each avatar suitable for the user can be obtained according to the score of each avatar.

また、本実施の形態によれば、アバターの動的属性値または静的属性値に基づいた、アバターの適切なスコアを取得できる。 Further, according to the present embodiment, an appropriate score of the avatar can be obtained based on the dynamic attribute value or the static attribute value of the avatar.

さらに、本実施の形態によれば、2以上の各端末装置2とアバター出力装置1とで処理を分担できる。 Further, according to the present embodiment, the processing can be shared between the two or more terminal devices 2 and the avatar output device 1.

なお、本実施の形態において、アバターが端末装置2に表示されるまでの処理において、2以上の各端末装置2とアバター出力装置1とで、如何様に処理を分担しても良い。上記の具体例において、例えば、各アバターのスコアの取得と判定は、端末装置2が行ったが、例えば、各アバターのスコアの取得は端末装置2が行い、スコアを用いた判定はアバター出力装置1が行っても良い。また、各アバターのスコアの取得と判定は、アバター出力装置1が行っても良い。 In the present embodiment, in the process until the avatar is displayed on the terminal device 2, the process may be shared between the two or more terminal devices 2 and the avatar output device 1. In the above specific example, for example, the terminal device 2 performs the acquisition and determination of the score of each avatar, but for example, the terminal device 2 acquires the score of each avatar, and the determination using the score is performed by the avatar output device. 1 may go. Further, the avatar output device 1 may perform acquisition and determination of the score of each avatar.

さらに、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態におけるアバター出力装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、2以上の各アバターごとに、アバターを表示するための第一モデル情報と1以上の属性値とを有するアバター情報が格納されるアバター格納部にアクセス可能なコンピュータを、前記2以上の各アバターに対応する前記1以上の属性値を用いた、前記2以上の各アバターのスコアを取得するスコア取得部と、前記2以上の各アバターの前記アバター情報を用いて、前記スコア取得部が取得したスコアに応じた前記2以上の各アバターを出力するアバター処理部として機能させるためのプログラムである。 Further, the processing in the present embodiment may be realized by software. Then, this software may be distributed by software download or the like. Further, this software may be recorded on a recording medium such as a CD-ROM and disseminated. It should be noted that this also applies to other embodiments herein. The software that realizes the avatar output device 1 in this embodiment is the following program. That is, this program uses a computer that can access an avatar storage unit that stores avatar information having a first model information for displaying an avatar and one or more attribute values for each of two or more avatars. The score is obtained by using the score acquisition unit for acquiring the score of each of the two or more avatars using the attribute value of one or more corresponding to each of the two or more avatars, and the avatar information of each of the two or more avatars. This is a program for functioning as an avatar processing unit that outputs each of the two or more avatars according to the score acquired by the acquisition unit.

また、本実施の形態における端末装置2を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、アバターの位置情報を含む1以上の端末属性値が格納される端末格納部にアクセス可能なコンピュータを、前記位置情報をアバター出力装置に送信する端末送信部と、前記アバター出力装置から1以上の他の端末装置に対応する他アバターの位置情報を受信する端末受信部と、前記1以上の他アバターの位置情報と前記位置情報とを用いて、前記1以上の他アバターのスコアを取得する端末処理部として機能させるためのプログラムであって、前記端末送信部は、当該端末装置の端末識別子に対応付けて、前記1以上の他アバターのスコアまたは当該スコアに基づく判定結果を前記アバター出力装置に送信し、前記端末受信部は、前記スコアまたは前記判定結果の送信に応じて、前記アバター出力装置から前記他アバターのモデル情報であり、前記スコアまたは前記判定結果に応じた異なるモデル情報または異なる音声情報を受信するものとして、前記コンピュータを機能させるためのプログラムであって、前記モデル情報または前記音声情報を用いて、前記1以上の他アバターを出力する端末出力部として、さらに前記コンピュータを機能させるためのプログラムである。 Further, the software that realizes the terminal device 2 in the present embodiment is the following program. That is, this program has a computer that can access a terminal storage unit that stores one or more terminal attribute values including the position information of the avatar, a terminal transmission unit that transmits the position information to the avatar output device, and the avatar output. Using the terminal receiving unit that receives the position information of the other avatar corresponding to one or more other terminal devices from the device, and the position information and the position information of the one or more other avatars, the one or more other avatars It is a program for functioning as a terminal processing unit for acquiring a score, and the terminal transmitting unit associates the terminal identifier of the terminal device with the score of one or more other avatars or a determination result based on the score. It is transmitted to the avatar output device, and the terminal receiving unit is model information of the other avatar from the avatar output device according to the transmission of the score or the determination result, and differs depending on the score or the determination result. A program for operating the computer to receive model information or different voice information, and further as a terminal output unit that outputs the one or more other avatars using the model information or the voice information. It is a program for making the computer function.

また、図14は、本明細書で述べたプログラムを実行して、上述した種々の実施の形態のアバター出力装置1等を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図14は、このコンピュータシステム300の概観図であり、図15は、システム300のブロック図である。 Further, FIG. 14 shows the appearance of a computer that executes the program described in the present specification to realize the avatar output device 1 and the like in various embodiments described above. The above-described embodiment can be realized by computer hardware and a computer program executed on the computer hardware. FIG. 14 is an overview view of the computer system 300, and FIG. 15 is a block diagram of the system 300.

図14において、コンピュータシステム300は、CD-ROMドライブを含むコンピュータ301と、キーボード302と、マウス303と、モニタ304とを含む。 In FIG. 14, the computer system 300 includes a computer 301 including a CD-ROM drive, a keyboard 302, a mouse 303, and a monitor 304.

図15において、コンピュータ301は、CD-ROMドライブ3012に加えて、MPU3013と、CD-ROMドライブ3012等に接続されたバス3014と、ブートアッププログラム等のプログラムを記憶するためのROM3015と、MPU3013に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3016と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3017とを含む。ここでは、図示しないが、コンピュータ301は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。 In FIG. 15, in addition to the CD-ROM drive 3012, the computer 301 includes an MPU 3013, a bus 3014 connected to the CD-ROM drive 3012, the ROM 3015 for storing a program such as a boot-up program, and the MPU 3013. It includes a RAM 3016 that is connected and for temporarily storing instructions of an application program and providing a temporary storage space, and a hard disk 3017 for storing an application program, a system program, and data. Although not shown here, the computer 301 may further include a network card that provides a connection to the LAN.

コンピュータシステム300に、上述した実施の形態のアバター出力装置1等の機能を実行させるプログラムは、CD-ROM3101に記憶されて、CD-ROMドライブ3012に挿入され、さらにハードディスク3017に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ301に送信され、ハードディスク3017に記憶されても良い。プログラムは実行の際にRAM3016にロードされる。プログラムは、CD-ROM3101またはネットワークから直接、ロードされても良い。 The program for causing the computer system 300 to execute the functions of the avatar output device 1 and the like according to the above-described embodiment may be stored in the CD-ROM 3101, inserted into the CD-ROM drive 3012, and further transferred to the hard disk 3017. .. Alternatively, the program may be transmitted to the computer 301 via a network (not shown) and stored in the hard disk 3017. The program is loaded into RAM 3016 at run time. The program may be loaded directly from the CD-ROM3101 or the network.

プログラムは、コンピュータ301に、上述した実施の形態のアバター出力装置1等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム300がどのように動作するかは周知であり、詳細な説明は省略する。 The program does not necessarily have to include an operating system (OS) or a third-party program that causes the computer 301 to execute the functions of the avatar output device 1 and the like according to the above-described embodiment. The program need only include a portion of the instruction that calls the appropriate function (module) in a controlled manner to obtain the desired result. It is well known how the computer system 300 works, and detailed description thereof will be omitted.

なお、上記プログラムにおいて、情報を送信するステップや、情報を受信するステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。 In the above program, in the step of transmitting information and the step of receiving information, the processing performed by the hardware, for example, the processing performed by the modem or the interface card in the transmission step (only performed by the hardware). Processing) is not included.

また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。 Further, the number of computers that execute the above program may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

また、上記各実施の形態において、一の装置に存在する2以上の通信手段は、物理的に一の媒体で実現されても良いことは言うまでもない。 Further, it goes without saying that in each of the above embodiments, the two or more communication means existing in one device may be physically realized by one medium.

また、上記各実施の形態において、各処理は、単一の装置によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。 Further, in each of the above embodiments, each process may be realized by centralized processing by a single device, or may be realized by distributed processing by a plurality of devices.

本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 It goes without saying that the present invention is not limited to the above embodiments, and various modifications can be made, and these are also included in the scope of the present invention.

以上のように、本発明にかかるアバター出力装置は、多数のアバターを出力する場合に、各アバターのスコアに応じた適切な処理ができるという効果を有し、アバター出力装置等として有用である。 As described above, the avatar output device according to the present invention has the effect of being able to perform appropriate processing according to the score of each avatar when outputting a large number of avatars, and is useful as an avatar output device or the like.

1 アバター出力装置
2 端末装置
11 格納部
12 受付部
13 処理部
14 出力部
21 端末格納部
22 端末受付部
23 端末処理部
24 端末送信部
24 各端末送信部
25 端末受信部
26 端末出力部
111 ワールド格納部
112 アバター格納部
121 アバター受信部
131 スコア取得部
132 アバター処理部
141 位置情報送信部
142 音声出力部
1 Avatar output device 2 Terminal device 11 Storage unit 12 Reception unit 13 Processing unit 14 Output unit 21 Terminal storage unit 22 Terminal reception unit 23 Terminal processing unit 24 Terminal transmission unit 24 Each terminal transmission unit 25 Terminal reception unit 26 Terminal output unit 111 World Storage unit 112 Avatar storage unit 121 Avatar reception unit 131 Score acquisition unit 132 Avatar processing unit 141 Location information transmission unit 142 Audio output unit

Claims (14)

2以上の各アバターごとに、アバターを表示するための第一モデル情報と1以上の属性値とを有するアバター情報が格納されるアバター格納部と、
前記2以上の各アバターに対応する前記1以上の属性値を用いて得られる、前記2以上の各アバターのスコアを取得するスコア取得部と、
前記2以上の各アバターの前記アバター情報を用いて、前記スコア取得部が取得したスコアに応じた前記2以上の各アバターを出力するアバター処理部とを具備し、
前記アバター情報が有する1以上の属性値は、前記アバターに対応するユーザの視野に関する属性値、カメラの視野に関する属性値、ユーザからの距離に関する属性値、ユーザに対する向きに関する属性値のいずれかを含む動的に変化し得るアバターの1以上の動的属性値であって、
前記スコア取得部は、
前記2以上の各アバターに対応する前記1以上の動的属性値を用いて得られる、前記2以上の各アバターの前記スコアを取得するアバター出力装置。
For each of the two or more avatars, an avatar storage unit that stores the first model information for displaying the avatar and the avatar information having one or more attribute values, and
A score acquisition unit for acquiring the score of each of the two or more avatars, which is obtained by using the attribute value of the one or more corresponding to each of the two or more avatars.
It is provided with an avatar processing unit that outputs each of the two or more avatars according to the score acquired by the score acquisition unit using the avatar information of each of the two or more avatars.
The one or more attribute values possessed by the avatar information include any one of an attribute value relating to the field of view of the user corresponding to the avatar, an attribute value relating to the field of view of the camera, an attribute value relating to the distance from the user, and an attribute value relating to the orientation with respect to the user. One or more dynamic attribute values of an avatar that can change dynamically,
The score acquisition unit
An avatar output device for acquiring the score of each of the two or more avatars, which is obtained by using the one or more dynamic attribute values corresponding to the two or more avatars.
記アバター格納部の前記2以上の各アバターの前記アバター情報は、動的に変化しない1以上の静的属性値を有し、
前記スコア取得部は、
前記2以上の各アバターに対応する前記1以上の静的属性値を用いて得られる、前記2以上の各アバターのスコアを取得する、請求項1記載のアバター出力装置。
The avatar information of each of the two or more avatars in the avatar storage unit also has one or more static attribute values that do not change dynamically.
The score acquisition unit
The avatar output device according to claim 1, wherein a score of each of the two or more avatars is acquired, which is obtained by using the static attribute value of the one or more corresponding to each of the two or more avatars.
前記アバター処理部は、
前記スコアがスコア条件を満たすアバターと前記スコアが前記スコア条件を満たさないアバターとで、前記アバターの出力方法が異なるように、前記アバターを出力する、請求項1または請求項2記載のアバター出力装置。
The avatar processing unit
The avatar output device according to claim 1 or 2, wherein the avatar is output so that the output method of the avatar differs between the avatar whose score satisfies the score condition and the avatar whose score does not satisfy the score condition. ..
前記アバター処理部は、
前記スコアが前記スコア条件を満たすアバターに対して、前記第一モデル情報に対してデータサイズの縮減を行った第二モデル情報を用いて、前記アバターを出力し、前記スコアが前記スコア条件を満たさないアバターに対して、前記第一モデル情報を用いて、前記アバターを出力する、請求項3記載のアバター出力装置。
The avatar processing unit
For an avatar whose score satisfies the score condition, the avatar is output using the second model information obtained by reducing the data size of the first model information, and the score satisfies the score condition. The avatar output device according to claim 3, wherein the avatar is output to a non-avatar using the first model information.
前記アバター処理部は、
前記スコアが前記スコア条件を満たすアバターと前記スコアが前記スコア条件を満たさないアバターとで、前記アバターの動作の制御方法が異なるように、前記アバターを動作させる、請求項3記載のアバター出力装置。
The avatar processing unit
The avatar output device according to claim 3, wherein the avatar is operated so that the control method of the operation of the avatar differs between the avatar whose score satisfies the score condition and the avatar whose score does not satisfy the score condition.
前記アバター情報は、音声情報を有し、
前記アバター処理部は、
前記スコアがスコア条件を満たすアバターと前記スコアが前記スコア条件を満たさないアバターとで、前記アバターの音声出力方法が異なるように、前記音声情報を用いて、前記アバターの音声を出力する、請求項1から請求項5いずれか一項に記載のアバター出力装置。
The avatar information has voice information and has voice information.
The avatar processing unit
Claimed to output the voice of the avatar using the voice information so that the voice output method of the avatar differs between the avatar whose score satisfies the score condition and the avatar whose score does not satisfy the score condition. The avatar output device according to any one of claims 1 to 5.
前記1以上の動的属性値を用いてスコアまたは判定結果を取得する処理は端末装置が行い、
前記第一モデル情報を用いて、第二モデル情報を取得する処理はアバター出力装置が行う、請求項1から請求項6いずれか一項に記載のアバター出力装置。
The terminal device performs the process of acquiring the score or the determination result using the above-mentioned one or more dynamic attribute values.
The avatar output device according to any one of claims 1 to 6 , wherein the avatar output device performs a process of acquiring the second model information using the first model information.
前記1以上の静的属性値は、アバターの役割に関する役割属性値、ユーザが作成したアバターであるか否かを示す由来属性値、アバターに対応する端末装置の属性値のいずれかを含む、請求項2記載のアバター出力装置。 The one or more static attribute values include any of a role attribute value related to the role of the avatar, a derived attribute value indicating whether or not the avatar is created by the user, and an attribute value of the terminal device corresponding to the avatar. Item 2 The avatar output device. 前記第二モデル情報は、前記第一モデル情報が有するN(Nは2以上の自然数)のメッシュ情報を用いて取得された、Nよりも少ないM(Mは1以上の自然数)のメッシュ情報を有するモデル情報である、請求項4記載のアバター出力装置。 The second model information is M (M is a natural number of 1 or more) mesh information less than N, which is acquired by using the mesh information of N (N is a natural number of 2 or more) possessed by the first model information. The avatar output device according to claim 4, which is model information to have. 端末装置に対応するアバターの位置情報を含む1以上の端末属性値が格納される端末格納部と、
前記端末装置に対応するアバターの位置情報をアバター出力装置に送信する端末送信部と、
前記アバター出力装置から1以上の他の端末装置に対応する他アバターの位置情報を受信する端末受信部と、
前記1以上の他アバターの位置情報と前記端末装置に対応するアバターの位置情報とを用いて、前記1以上の他アバターのスコアを取得する端末処理部とを具備し、
前記端末送信部は、
当該端末装置の端末識別子に対応付けて、前記1以上の他アバターのスコアまたは当該スコアに基づく判定結果を前記アバター出力装置に送信し、
前記端末受信部は、
前記スコアまたは前記判定結果の送信に応じて、前記アバター出力装置から前記他アバターのモデル情報または音声情報であり、前記スコアまたは前記判定結果に応じた異なるモデル情報または異なる音声情報を受信し、
前記モデル情報または前記音声情報を用いて、前記1以上の他アバターを出力する端末出力部をさらに具備する端末装置。
A terminal storage unit that stores one or more terminal attribute values including the position information of the avatar corresponding to the terminal device, and
A terminal transmitter that transmits the position information of the avatar corresponding to the terminal device to the avatar output device, and
A terminal receiving unit that receives position information of another avatar corresponding to one or more other terminal devices from the avatar output device.
A terminal processing unit for acquiring the score of the one or more other avatars by using the position information of the one or more other avatars and the position information of the avatar corresponding to the terminal device is provided.
The terminal transmitter is
The score of the other avatar of 1 or more or the determination result based on the score is transmitted to the avatar output device in association with the terminal identifier of the terminal device.
The terminal receiver is
In response to the transmission of the score or the determination result, the model information or voice information of the other avatar is received from the avatar output device, and different model information or different voice information according to the score or the determination result is received.
A terminal device further comprising a terminal output unit that outputs one or more other avatars using the model information or the voice information.
2以上の各アバターごとに、アバターを表示するための第一モデル情報と1以上の属性値とを有するアバター情報が格納されるアバター格納部と、スコア取得部と、アバター処理部とにより実現されるアバター出力方法であって、
前記スコア取得部が、前記2以上の各アバターに対応する前記1以上の属性値を用いて得られる、前記2以上の各アバターのスコアを取得するスコア取得ステップと、
前記アバター処理部が、前記2以上の各アバターの前記アバター情報を用いて、前記スコア取得部が取得したスコアに応じた前記2以上の各アバターを出力するアバター処理ステップとを具備し、
前記アバター情報が有する1以上の属性値は、前記アバターに対応するユーザの視野に関する属性値、カメラの視野に関する属性値、ユーザからの距離に関する属性値、ユーザに対する向きに関する属性値のいずれかを含む動的に変化し得るアバターの1以上の動的属性値であって、
前記スコア取得ステップにおいて、
前記2以上の各アバターに対応する前記1以上の動的属性値を用いて得られる、前記2以上の各アバターの前記スコアを取得するアバター出力方法。
For each of two or more avatars, it is realized by an avatar storage unit that stores the first model information for displaying the avatar and avatar information having one or more attribute values, a score acquisition unit, and an avatar processing unit. Avatar output method
A score acquisition step of acquiring a score of each of the two or more avatars, which is obtained by the score acquisition unit using the one or more attribute values corresponding to the two or more avatars.
The avatar processing unit includes an avatar processing step that outputs each of the two or more avatars according to the score acquired by the score acquisition unit by using the avatar information of each of the two or more avatars.
The one or more attribute values possessed by the avatar information include any one of an attribute value relating to the field of view of the user corresponding to the avatar, an attribute value relating to the field of view of the camera, an attribute value relating to the distance from the user, and an attribute value relating to the orientation with respect to the user. One or more dynamic attribute values of an avatar that can change dynamically,
In the score acquisition step
An avatar output method for acquiring the score of each of the two or more avatars, which is obtained by using the one or more dynamic attribute values corresponding to the two or more avatars.
端末装置に対応するアバターの位置情報を含む1以上の端末属性値が格納される端末格納部と、端末送信部と、端末受信部と、端末処理部と、端末出力部とにより実現されるアバター出力方法であって、
前記端末送信部が、前記端末装置に対応するアバターの位置情報をアバター出力装置に送信する端末送信ステップと、
前記端末受信部が、前記アバター出力装置から1以上の他の端末装置に対応する他アバターの位置情報を受信する端末受信ステップと、
前記端末処理部が、前記1以上の他アバターの位置情報と前記端末装置に対応するアバターの位置情報とを用いて、前記1以上の他アバターのスコアを取得する端末処理ステップとを具備し、
前記端末送信部は、
当該端末装置の端末識別子に対応付けて、前記1以上の他アバターのスコアまたは当該スコアに基づく判定結果を前記アバター出力装置に送信し、
前記端末受信部は、
前記スコアまたは前記判定結果の送信に応じて、前記アバター出力装置から前記他アバターのモデル情報または音声情報であり、前記スコアまたは前記判定結果に応じた異なるモデル情報または異なる音声情報を受信し、
前記端末出力部が、前記モデル情報または前記音声情報を用いて、前記1以上の他アバターを出力する端末出力ステップをさらに具備するアバター出力方法。
An avatar realized by a terminal storage unit, a terminal transmission unit, a terminal reception unit, a terminal processing unit, and a terminal output unit in which one or more terminal attribute values including the position information of the avatar corresponding to the terminal device are stored. It ’s an output method,
A terminal transmission step in which the terminal transmission unit transmits the position information of the avatar corresponding to the terminal device to the avatar output device.
A terminal receiving step in which the terminal receiving unit receives the position information of another avatar corresponding to one or more other terminal devices from the avatar output device.
The terminal processing unit includes a terminal processing step for acquiring a score of the one or more other avatars by using the position information of the one or more other avatars and the position information of the avatar corresponding to the terminal device.
The terminal transmitter is
The score of the other avatar of 1 or more or the determination result based on the score is transmitted to the avatar output device in association with the terminal identifier of the terminal device.
The terminal receiver is
In response to the transmission of the score or the determination result, the model information or voice information of the other avatar is received from the avatar output device, and different model information or different voice information according to the score or the determination result is received.
An avatar output method in which the terminal output unit further comprises a terminal output step of outputting one or more other avatars using the model information or the voice information.
2以上の各アバターごとに、アバターを表示するための第一モデル情報と1以上の属性値とを有するアバター情報が格納されるアバター格納部にアクセス可能なコンピュータを、
前記2以上の各アバターに対応する前記1以上の属性値を用いて得られる、前記2以上の各アバターのスコアを取得するスコア取得部と、
前記2以上の各アバターの前記アバター情報を用いて、前記スコア取得部が取得したスコアに応じた前記2以上の各アバターを出力するアバター処理部として機能させるためのプログラムであって、
前記アバター情報が有する1以上の属性値は、前記アバターに対応するユーザの視野に関する属性値、カメラの視野に関する属性値、ユーザからの距離に関する属性値、ユーザに対する向きに関する属性値のいずれかを含む動的に変化し得るアバターの1以上の動的属性値であって、
前記スコア取得部は、
前記2以上の各アバターに対応する前記1以上の動的属性値を用いて得られる、前記2以上の各アバターの前記スコアを取得するものとして、前記コンピュータを機能させるためのプログラム。
For each of the two or more avatars, a computer that can access the avatar storage unit that stores the first model information for displaying the avatar and the avatar information having one or more attribute values.
A score acquisition unit for acquiring the score of each of the two or more avatars, which is obtained by using the attribute value of the one or more corresponding to each of the two or more avatars.
It is a program for functioning as an avatar processing unit that outputs each of the two or more avatars according to the score acquired by the score acquisition unit by using the avatar information of each of the two or more avatars.
The one or more attribute values possessed by the avatar information include any one of an attribute value relating to the field of view of the user corresponding to the avatar, an attribute value relating to the field of view of the camera, an attribute value relating to the distance from the user, and an attribute value relating to the orientation with respect to the user. One or more dynamic attribute values of an avatar that can change dynamically,
The score acquisition unit
A program for operating the computer as a device for acquiring the score of each of the two or more avatars, which is obtained by using the one or more dynamic attribute values corresponding to the two or more avatars.
アバターの位置情報を含む1以上の端末属性値が格納される端末格納部にアクセス可能なコンピュータを、
前記アバターの前記位置情報をアバター出力装置に送信する端末送信部と、
前記アバター出力装置から1以上の他の端末装置に対応する他アバターの位置情報を受信する端末受信部と、
前記1以上の他アバターの位置情報と前記アバターの前記位置情報とを用いて、前記1以上の他アバターのスコアを取得する端末処理部として機能させるためのプログラムであって、
前記端末送信部は、
当該端末装置の端末識別子に対応付けて、前記1以上の他アバターのスコアまたは当該スコアに基づく判定結果を前記アバター出力装置に送信し、
前記端末受信部は、
前記スコアまたは前記判定結果の送信に応じて、前記アバター出力装置から前記他アバターのモデル情報または音声情報であり、前記スコアまたは前記判定結果に応じた異なるモデル情報または異なる音声情報を受信するものとして、前記コンピュータを機能させるためのプログラムであって、
前記モデル情報または前記音声情報を用いて、前記1以上の他アバターを出力する端末出力部として、さらに前記コンピュータを機能させるためのプログラム。
A computer that can access the terminal storage unit that stores one or more terminal attribute values including the location information of the avatar.
A terminal transmission unit that transmits the position information of the avatar to the avatar output device, and
A terminal receiving unit that receives position information of another avatar corresponding to one or more other terminal devices from the avatar output device.
It is a program for functioning as a terminal processing unit for acquiring the score of the other avatar of 1 or more by using the position information of the other avatar of 1 or more and the position information of the avatar.
The terminal transmitter is
The score of the other avatar of 1 or more or the determination result based on the score is transmitted to the avatar output device in association with the terminal identifier of the terminal device.
The terminal receiver is
Assuming that the model information or voice information of the other avatar is received from the avatar output device in response to the transmission of the score or the determination result, and different model information or different voice information according to the score or the determination result is received. , A program for operating the computer,
A program for further functioning the computer as a terminal output unit that outputs one or more other avatars using the model information or the voice information.
JP2021106037A 2021-06-25 2021-06-25 Avatar output device, terminal device, avatar output method, and program Active JP7015597B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021106037A JP7015597B1 (en) 2021-06-25 2021-06-25 Avatar output device, terminal device, avatar output method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021106037A JP7015597B1 (en) 2021-06-25 2021-06-25 Avatar output device, terminal device, avatar output method, and program

Publications (2)

Publication Number Publication Date
JP7015597B1 true JP7015597B1 (en) 2022-02-03
JP2023004403A JP2023004403A (en) 2023-01-17

Family

ID=80808968

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021106037A Active JP7015597B1 (en) 2021-06-25 2021-06-25 Avatar output device, terminal device, avatar output method, and program

Country Status (1)

Country Link
JP (1) JP7015597B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086163A (en) 2008-09-30 2010-04-15 Oki Electric Ind Co Ltd Information processor, program, and communication system
JP2018028789A (en) 2016-08-17 2018-02-22 クラスター株式会社 Server, information transmission method, and program thereof
JP2018116537A (en) 2017-01-19 2018-07-26 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2020090786A1 (en) 2018-10-31 2020-05-07 株式会社ドワンゴ Avatar display system in virtual space, avatar display method in virtual space, and computer program
JP2020102782A (en) 2018-12-21 2020-07-02 株式会社ActEvolve Content distribution system, distribution device, reception device, and program
JP2020107264A (en) 2018-12-28 2020-07-09 グリー株式会社 Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
WO2020194821A1 (en) 2019-03-27 2020-10-01 株式会社ドワンゴ Vr live broadcasting distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of vr live picture data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086163A (en) 2008-09-30 2010-04-15 Oki Electric Ind Co Ltd Information processor, program, and communication system
JP2018028789A (en) 2016-08-17 2018-02-22 クラスター株式会社 Server, information transmission method, and program thereof
JP2018116537A (en) 2017-01-19 2018-07-26 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2020090786A1 (en) 2018-10-31 2020-05-07 株式会社ドワンゴ Avatar display system in virtual space, avatar display method in virtual space, and computer program
JP2020102782A (en) 2018-12-21 2020-07-02 株式会社ActEvolve Content distribution system, distribution device, reception device, and program
JP2020107264A (en) 2018-12-28 2020-07-09 グリー株式会社 Video streaming system, video streaming method, and video streaming program for live streaming of video including animation of character object generated on basis of motion of streaming user
WO2020194821A1 (en) 2019-03-27 2020-10-01 株式会社ドワンゴ Vr live broadcasting distribution system, distribution server, control method for distribution server, program for distribution server, and data structure of vr live picture data

Also Published As

Publication number Publication date
JP2023004403A (en) 2023-01-17

Similar Documents

Publication Publication Date Title
US20240005591A1 (en) Method and system for rendering panoramic video
JP6181917B2 (en) Drawing system, drawing server, control method thereof, program, and recording medium
US8264488B2 (en) Information processing apparatus, information processing method, and program
JP4833674B2 (en) GAME DEVICE, GAME DEVICE CONTROL METHOD, AND PROGRAM
JP2004199496A (en) Information processor and method, and program
US11776197B2 (en) Method and apparatus for displaying personalized face of three-dimensional character, device, and storage medium
US11200739B2 (en) Virtual scene
KR100987624B1 (en) Game machine, game machine control method, and information storage medium
JP2022545598A (en) Virtual object adjustment method, device, electronic device, computer storage medium and program
JP2022036319A (en) Image rendering method, device, electronic device, computer readable storage medium, and computer program
US12067670B2 (en) Avatar output device, terminal device, avatar output method, and program
CN113516742A (en) Model special effect manufacturing method and device, storage medium and electronic equipment
JP7015597B1 (en) Avatar output device, terminal device, avatar output method, and program
JP2008077371A (en) Image processor, method for controlling image processor and program
US11763528B2 (en) Avatar mobility between virtual reality spaces
JP6406028B2 (en) Document display support device, terminal device, document display method, and computer program
JP7142392B1 (en) Avatar output device, terminal device, avatar output method, and program
JP2017123103A (en) Terminal device, information processing method, and program
JP2020077270A (en) Method for generating 3D object arranged in virtual reality space
CN115279469A (en) Image processing system, program, and image processing method
US11403831B1 (en) Efficient color theming of background images in web-based mixed reality environments
CN116271830B (en) Behavior control method, device, equipment and storage medium for virtual game object
KR102579463B1 (en) Media art system based on extended reality technology
JP6915028B2 (en) Information processing equipment, information processing methods, and programs
CN115063516A (en) Digital human processing method and device

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20210707

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210819

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210907

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211006

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211108

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20211108

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20211108

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20211201

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20211207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220104

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220117

R150 Certificate of patent or registration of utility model

Ref document number: 7015597

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150