JP2022188776A - Avatar output device, terminal device, avatar output method and program - Google Patents

Avatar output device, terminal device, avatar output method and program Download PDF

Info

Publication number
JP2022188776A
JP2022188776A JP2022141130A JP2022141130A JP2022188776A JP 2022188776 A JP2022188776 A JP 2022188776A JP 2022141130 A JP2022141130 A JP 2022141130A JP 2022141130 A JP2022141130 A JP 2022141130A JP 2022188776 A JP2022188776 A JP 2022188776A
Authority
JP
Japan
Prior art keywords
avatar
information
avatars
unit
model information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022141130A
Other languages
Japanese (ja)
Inventor
大樹 半田
Daiki Handa
拓紀 栗本
Hiroki Kurimoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cluster Inc
Original Assignee
Cluster Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2021096279A external-priority patent/JP6995416B1/en
Application filed by Cluster Inc filed Critical Cluster Inc
Priority to JP2022141130A priority Critical patent/JP2022188776A/en
Publication of JP2022188776A publication Critical patent/JP2022188776A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide avatars suitable for users, while suppressing a processing load, which is difficult for the conventional technique when outputting multiple avatars.
SOLUTION: An avatar output device 1 comprises: an avatar storage section 112 for storing avatar information having first model information for displaying an avatar for each of two or more avatars; a determination section 133 for determining, out of the two or more avatars, one or more first avatars to be displayed using the first model information, and one or more second avatars to be displayed using second model information having a data size smaller than that of the first model information; an avatar acquisition section 134 for acquiring an avatar using the second model information for each of the one or more second avatars determined by the determination section 133, and acquiring an avatar using the first model information for each of the one or more first avatars; and an avatar output section 142 for outputting the two or more avatars acquired by the avatar acquisition section 134.
SELECTED DRAWING: Figure 2
COPYRIGHT: (C)2023,JPO&INPIT

Description

特許法第30条第2項適用申請有り 令和3年3月26日 https://www.youtube.com/watch?v=wRErhyoT70cを通じて発表Patent Act Article 30, Paragraph 2 application filed March 26, 2021 https://www. youtube. com/watch? Announced through v=wRErhyoT70c

特許法第30条第2項適用申請有り 令和3年3月28日 https://www.youtube.com/watch?v=WyC76fzzzCAを通じて発表Patent Act Article 30, Paragraph 2 application filed March 28, 2021 https://www. youtube. com/watch? Announced through v=WyC76fzzzCA

特許法第30条第2項適用申請有り 令和3年3月31日 https://www.youtube.com/watch?v=YhX7xJ0MkxI、https://speakerdeck.com/clusterinc/cluster-lodを通じて発表Patent Act Article 30, Paragraph 2 application filed March 31, 2021 https://www. youtube. com/watch? v=YhX7xJ0MkxI, https://speakerdeck. Announced via com/clusterinc/cluster-lod

本発明は、アバターの出力に関する処理を行うアバター出力装置等に関するものである。 The present invention relates to an avatar output device and the like that perform processing related to avatar output.

従来、多人数が参加している臨場感を担保しつつ、好適な鑑賞体験の提供を実現するコンテンツ配信システムがあった(特許文献1参照)。かかるシステムにおいて、主キャラクターのコンテンツと鑑賞ユーザを示す副キャラクターのコンテンツとを出力する際に、副キャラクターのうち所定の挙動を取らせる副キャラクターの割合を決定し、当該割合の副キャラクターのみに動作させることを行っていた。 Conventionally, there has been a content distribution system that realizes the provision of a suitable viewing experience while ensuring the presence of a large number of people (see Patent Document 1). In such a system, when outputting the content of the main character and the content of the secondary character representing the viewing user, the proportion of the secondary characters that are to behave in a predetermined manner is determined, and only the secondary characters of this proportion are allowed to act. I was doing what I was doing.

特許第6688378号公報Japanese Patent No. 6688378

しかしながら、従来技術においては、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることが困難であった。なお、アバターとは、ユーザの分身として表示されるキャラクターである。 However, in the prior art, when outputting a large number of avatars, it was difficult to obtain avatars suitable for the user while suppressing the processing load. Note that an avatar is a character displayed as a user's alter ego.

本第一の発明のアバター出力装置は、2以上の各アバターごとに、アバターを表示するための第一モデル情報を有するアバター情報が格納されるアバター格納部と、2以上のアバターのうち、第一モデル情報を用いて表示される1以上の第一アバターと、第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する決定部と、決定部が決定した1以上の各第二アバターについては、第二モデル情報を用いたアバターを取得し、1以上の各第一アバターについては、第一モデル情報を用いたアバターを取得するアバター取得部と、アバター取得部が取得した2以上のアバターを出力するアバター出力部とを具備するアバター出力装置である。 An avatar output device according to a first aspect of the present invention comprises an avatar storage unit storing avatar information having first model information for displaying an avatar for each of two or more avatars; a determination unit that determines one or more first avatars to be displayed using one piece of model information and one or more second avatars to be displayed using second model information having a data size smaller than the first model information; Obtaining an avatar using the second model information for each of the one or more second avatars determined by the determining unit, and obtaining an avatar using the first model information for each of the one or more first avatars and an avatar output unit that outputs two or more avatars acquired by the avatar acquisition unit.

かかる構成により、2以上のアバターのうちの少なくとも一部のアバターを、よりデータサイズの小さなアバターとすることにより、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる。 With this configuration, at least some of the two or more avatars are avatars with a smaller data size, thereby suppressing the processing load when outputting a large number of avatars, and providing an appropriate image for the user. You can get an avatar.

また、本第二の発明のアバター出力装置は、第一の発明に対して、アバター情報は、アバターが音声を出力するための第一音声情報をも有し、決定部は、2以上のアバターのうち、第一音声情報に対応するアバターである1以上の第一アバターと、第一音声情報より小さいデータサイズの第二音声情報または第一音声情報とは異なる属性値を有する第二音声情報に対応するアバターである1以上の第二アバターを決定し、決定部が決定した1以上の各第二アバターについては、第二音声情報を取得し、1以上の各第一アバターについては、第一音声情報を取得する音声取得部と、音声取得部が取得した第一音声情報、および第二音声情報を出力する音声出力部とを具備するアバター出力装置である。 In addition, in the avatar output device of the second invention, in contrast to the first invention, the avatar information also has first audio information for the avatar to output audio, and the determination unit includes two or more avatars Among them, one or more first avatars that are avatars corresponding to the first audio information, second audio information having a data size smaller than the first audio information, or second audio information having an attribute value different from the first audio information determine one or more second avatars that are avatars corresponding to the second avatars, acquire second audio information for each of the one or more second avatars determined by the determination unit, and acquire second audio information for each of the one or more first avatars The avatar output device includes a voice acquisition unit that acquires first voice information, and a voice output unit that outputs the first voice information and the second voice information acquired by the voice acquisition unit.

かかる構成により、アバターに応じた音声情報を使用することにより、2以上のアバターの適切な音声が出力できる。 With such a configuration, appropriate voices of two or more avatars can be output by using voice information corresponding to the avatars.

また、本第三の発明のアバター出力装置は、第一または第二の発明に対して、ユーザが使用する2以上の各端末装置から第一モデル情報または第一モデル情報の元になる元情報を受信するアバター受信部と、アバター受信部が受信した第一モデル情報、またはアバター受信部が受信した元情報を用いて取得された第一モデル情報を有するアバター情報をアバター格納部に蓄積するアバター蓄積部とをさらに具備するアバター出力装置である。 In addition, in the avatar output device of the third invention, in contrast to the first or second invention, the first model information or the original information that is the basis of the first model information is output from each of two or more terminal devices used by the user. and the avatar information having the first model information acquired using the first model information received by the avatar receiving unit or the original information received by the avatar receiving unit is stored in the avatar storage unit The avatar output device further comprises a storage unit.

かかる構成により、2以上の各端末装置から、アバターのモデル情報または元情報を受信し、利用できる。つまり、ユーザは自分の好きなアバターを場に表示できる。なお、場とは、アバターが表示される背景、またはアバターが表示される周辺である、と言える。場は、通常、仮想的な三次元空間である。なお、場は、ワールドと言っても良い。 With this configuration, avatar model information or original information can be received and used from two or more terminal devices. In other words, users can display their favorite avatars on the field. It can be said that the place is the background where the avatar is displayed or the surroundings where the avatar is displayed. A field is usually a virtual three-dimensional space. It should be noted that the place can be called the world.

また、本第四の発明のアバター出力装置は、第三の発明に対して、アバター受信部は、2以上の各端末装置から、各端末装置に対応するアバターの位置を特定する位置情報をも受信し、2以上の各端末装置に対応する2以上の各アバターの位置情報のうち、少なくとも送信先の端末装置に対応する自アバターの位置情報を除く、1以上の他アバターの位置情報を、アバターを識別するアバター識別子に対応付けて、2以上の各端末装置に送信する位置情報送信部をさらに具備するアバター出力装置である。 Further, in the avatar output device of the fourth invention, in contrast to the third invention, the avatar receiving unit receives position information specifying the position of the avatar corresponding to each terminal device from two or more terminal devices. Among the received location information of two or more avatars corresponding to each of two or more terminal devices, at least the location information of one or more other avatars excluding the location information of the own avatar corresponding to the destination terminal device, The avatar output device further includes a location information transmission unit that transmits location information to two or more terminal devices in association with an avatar identifier that identifies the avatar.

かかる構成により、2以上の各端末装置に、他アバターの位置情報を送信できる。 With such a configuration, position information of other avatars can be transmitted to each of two or more terminal devices.

また、本第五の発明のアバター出力装置は、第四の発明に対して、アバター受信部は、2以上の各端末装置から、各端末装置で取得された1以上の他アバターのスコアまたはスコアに基づく判定結果を、アバター識別子に対応付けて受信し、決定部は、スコアまたは判定結果を用いて、2以上の各端末装置ごとに、2以上のアバターのうち、第一モデル情報を用いて表示される1以上の第一アバターと、第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する、アバター出力装置である。 In addition, in the avatar output device of the fifth invention, in contrast to the fourth invention, the avatar receiving unit comprises the score of one or more other avatars acquired by each terminal device from two or more terminal devices or the score Receives the determination result based on the avatar identifier in association with the determining unit, using the score or the determination result, for each of the two or more terminal devices, using the first model information among the two or more avatars An avatar output device that determines one or more first avatars to be displayed and one or more second avatars to be displayed using second model information having a data size smaller than the first model information.

かかる構成により、2以上の各端末装置で他アバターのスコアを取得することにより、アバター出力装置での負荷が軽減できる。 With such a configuration, the load on the avatar output device can be reduced by acquiring scores of other avatars with two or more terminal devices.

また、本第六の発明のアバター出力装置は、第三から第五いずれか1つの発明に対して、第一モデル情報または元情報を用いて、第一モデル情報より小さいデータサイズの第二モデル情報を取得するモデル圧縮部をさらに具備し、アバター蓄積部は、第一モデル情報と第二モデル情報とを有するアバター情報をアバター格納部に蓄積する、アバター出力装置である。 Further, the avatar output device of the sixth invention uses the first model information or the original information for any one of the third to fifth inventions to generate a second model having a data size smaller than the first model information. The avatar output device further includes a model compression unit for acquiring information, and the avatar storage unit stores avatar information having the first model information and the second model information in the avatar storage unit.

かかる構成により、2以上の各アバターの第一モデル情報を圧縮した第二モデル情報を得ることができる。 With such a configuration, it is possible to obtain second model information in which the first model information of each of two or more avatars is compressed.

また、本第七の発明のアバター出力装置は、第一から第六いずれか1つの発明に対して、決定部は、2以上の各アバターに対応する1以上の動的属性値を用いて取得されたスコアまたは判定結果に基づいて、1以上の第二アバターを決定するアバター出力装置である。 Further, in the avatar output device of the seventh invention, for any one of the first to sixth inventions, the determination unit acquires using one or more dynamic attribute values corresponding to each of the two or more avatars an avatar output device that determines one or more second avatars based on the scores or determination results obtained.

かかる構成により、アバターの動的属性値を用いて取得した適切なスコアに基づいて、より小さなデータサイズとするアバターを決定できる。 With this configuration, an avatar with a smaller data size can be determined based on an appropriate score obtained using the dynamic attribute value of the avatar.

また、本第八の発明のアバター出力装置は、第四または第七の発明に対して、1以上の動的属性値は、アバターに対応するユーザの視野に関する属性値、カメラの視野に関する属性値、ユーザからの距離に関する属性値、ユーザに対する向きに関する属性値のいずれかを含む、アバター出力装置である。 Further, in the avatar output device of the eighth invention, in contrast to the fourth or seventh invention, the one or more dynamic attribute values are an attribute value related to the field of view of the user corresponding to the avatar, an attribute value related to the field of view of the camera , an attribute value related to the distance from the user, or an attribute value related to the orientation with respect to the user.

かかる構成により、アバターの適切な動的属性値を用いて取得した適切なスコアに基づいて、より小さなデータサイズとするアバターを決定できる。 With such a configuration, an avatar with a smaller data size can be determined based on an appropriate score obtained using appropriate dynamic attribute values of the avatar.

また、本第九の発明のアバター出力装置は、第一から第八いずれか1つの発明に対して、第二モデル情報は、アバターの一部の箇所のみの情報をより少ないデータサイズとしたモデル情報である、アバター出力装置である。 In addition, in the avatar output device of the ninth invention, in contrast to any one of the first to eighth inventions, the second model information is a model in which the data size of only a part of the avatar is reduced. It is an avatar output device that is information.

かかる構成により、一部の箇所についてのみ小さいサイズとしたアバターを使用できる。 With such a configuration, it is possible to use an avatar with a small size only for some parts.

また、本第十の発明のアバター出力装置は、第一から第九いずれか1つの発明に対して、端末装置において、2以上のアバターを含む画像が出力されるまでの処理において、端末装置と処理を分担する、アバター出力装置である。 Further, in the avatar output device of the tenth invention, in contrast to any one of the first to ninth inventions, the terminal device and the It is an avatar output device that shares the processing.

かかる構成により、2以上の各端末装置とアバター出力装置とで処理を分担できる。 With this configuration, processing can be shared between two or more terminal devices and the avatar output device.

また、本第十一の発明のアバター出力装置は、第十の発明に対して、決定部は、2以上の各端末装置ごとに、2以上の各アバターに対応する1以上の動的属性値を用いて取得されたスコアまたは判定結果に基づいて、1以上の第二アバターを決定し、1以上の動的属性値を用いてスコアまたは判定結果を取得する処理は端末装置が行い、第一モデル情報を用いて、第二モデル情報を取得する処理はアバター出力装置が行う、アバター出力装置である。 Further, in the avatar output device of the eleventh aspect of the present invention, in contrast to the tenth aspect, the determination unit includes, for each of the two or more terminal devices, one or more dynamic attribute values corresponding to each of the two or more avatars The terminal device determines one or more second avatars based on the score or determination result obtained using the first The avatar output device performs the process of acquiring the second model information using the model information.

かかる構成により、2以上の各端末装置とアバター出力装置とで適切に処理を分担できる。 With this configuration, it is possible to appropriately share processing between two or more terminal devices and the avatar output device.

また、本第十二の発明のアバター出力装置は、第一から第十一いずれか1つの発明に対して、アバター格納部の2以上の各アバターのアバター情報は、第一モデル情報と第二モデル情報とを有し、アバター取得部は、決定部が決定した1以上の第二アバターについては、第二モデル情報を読み出し、第二モデル情報を用いてアバターを構成し、第一アバターについては、第一モデル情報を読み出し、第一モデル情報を用いてアバターを構成する、アバター出力装置である。 Further, in the avatar output device of the twelfth invention, in contrast to any one of the first to eleventh inventions, the avatar information of each of the two or more avatars in the avatar storage unit is the first model information and the second model information. model information, the avatar acquisition unit reads the second model information for one or more second avatars determined by the determination unit, configures the avatar using the second model information, and the first avatar , an avatar output device that reads first model information and configures an avatar using the first model information.

かかる構成により、2以上の各アバターのうちの少なくとも一部のアバターを、よりデータサイズの小さなアバターとすることにより、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる。 With this configuration, at least some of the two or more avatars are avatars with a smaller data size, so that when a large number of avatars are output, the processing load is suppressed and the output is suitable for the user. you can get a nice avatar.

また、本第十三の発明のアバター出力装置は、第一から第十二いずれか1つの発明に対して、アバター格納部の2以上の各アバターのアバター情報は、動的に変化しない1以上の静的属性値を有し、決定部は、2以上の各アバターに対応する1以上の静的属性値に基づく情報を用いて、1以上の第二アバターを決定する、アバター出力装置である。 Further, in the avatar output device of the thirteenth invention, in contrast to any one of the first to twelfth inventions, the avatar information of each of the two or more avatars in the avatar storage unit is one or more that do not dynamically change. and the determination unit determines one or more second avatars using information based on one or more static attribute values corresponding to each of the two or more avatars. .

かかる構成により、アバターの静的属性値に基づいて、より小さなデータサイズとするアバターを決定できる。 With such a configuration, it is possible to determine an avatar with a smaller data size based on the static attribute value of the avatar.

また、本第十四の発明のアバター出力装置は、第十三の発明に対して、1以上の静的属性値は、アバターの役割に関する属性値、アバターの由来に関する属性値のいずれかを含む、アバター出力装置である。 Further, in the avatar output device of the fourteenth invention, in contrast to the thirteenth invention, the one or more static attribute values include either an attribute value related to the role of the avatar or an attribute value related to the origin of the avatar. , is an avatar output device.

かかる構成により、アバターの適切な静的属性値に基づいて、より小さなデータサイズとするアバターを決定できる。 With such a configuration, an avatar with a smaller data size can be determined based on the appropriate static attribute value of the avatar.

また、本第十五の発明のアバター出力装置は、第十三の発明に対して、1以上の静的属性値は、アバターに対応する端末装置の属性値を含む、アバター出力装置である。 Further, the avatar output device of the fifteenth invention is an avatar output device, in contrast to the thirteenth invention, wherein the one or more static attribute values include attribute values of a terminal device corresponding to the avatar.

かかる構成により、アバターの適切な静的属性値に基づいて、より小さなデータサイズとするアバターを決定できる。 With such a configuration, an avatar with a smaller data size can be determined based on the appropriate static attribute value of the avatar.

また、本第十六の発明のアバター出力装置は、第一から第十五いずれか1つの発明に対して、第二モデル情報は、第一モデル情報が有するN(Nは2以上の自然数)のメッシュ情報を用いて取得された、Nよりも少ないM(Mは1以上の自然数)のメッシュ情報を有するモデル情報である、アバター出力装置である。 Further, in the avatar output device of the sixteenth invention, for any one of the first to fifteenth inventions, the second model information has N (N is a natural number of 2 or more) that the first model information has , which is model information having mesh information of M smaller than N (M is a natural number of 1 or more) obtained using mesh information of .

かかる構成により、2以上の各アバターのうちの少なくとも一部のアバターを、適切に圧縮されたデータのアバターとすることにより、多数のアバターを含む出力を、リアルタイムに得ることができる。 With such a configuration, by making at least some avatars of each of two or more avatars appropriately compressed data avatars, an output including a large number of avatars can be obtained in real time.

また、本第十七の発明の端末装置は、第一から第十六いずれか1つの発明に対して、アバター出力装置と通信を行い、アバターを表示する端末装置であって、端末装置に対応するアバターの位置情報を含む1以上の端末属性値が格納される端末格納部と、位置情報をアバター出力装置に送信する端末送信部と、アバター出力装置から1以上の他の端末装置に対応する他アバターの位置情報を受信する端末受信部と、1以上の他アバターの位置情報と位置情報とを用いて、1以上の他アバターのスコアを取得する端末処理部とを具備し、端末送信部は、端末装置の端末識別子に対応付けて、1以上の他アバターのスコアまたはスコアに基づく判定結果をアバター出力装置に送信し、端末受信部は、スコアまたは判定結果の送信に応じて、アバター出力装置から他アバターのモデル情報であり、スコアまたは判定結果に応じた異なるモデル情報を受信し、モデル情報を用いて、1以上の他アバターを表示する端末出力部をさらに具備する端末装置である。 In addition, the terminal device of the seventeenth invention is a terminal device that communicates with an avatar output device and displays an avatar for any one of the first to sixteenth inventions, and corresponds to the terminal device a terminal storage unit for storing one or more terminal attribute values including position information of the avatar to be sent, a terminal transmission unit for transmitting the position information to the avatar output device, and one or more other terminal devices from the avatar output device a terminal receiving unit for receiving position information of other avatars; and a terminal processing unit for acquiring scores of one or more other avatars using the position information of one or more other avatars and the position information, and a terminal transmitting unit. transmits the score of one or more other avatars or the determination result based on the score to the avatar output device in association with the terminal identifier of the terminal device, and the terminal receiving unit outputs the avatar in response to the transmission of the score or the determination result The terminal device further comprises a terminal output unit that receives model information of other avatars from the device and different model information according to scores or determination results, and displays one or more other avatars using the model information.

かかる構成により、2以上の各端末装置に対応するアバターのうちの少なくとも一部のアバターを、よりデータサイズの小さなアバターとすることにより、多数のアバターを出力する場合に、2以上の端末装置ごとに異なる出力であり、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる。 With this configuration, at least some of the avatars corresponding to each of the two or more terminal devices are avatars with a smaller data size, so that when outputting a large number of avatars, each of the two or more terminal devices Therefore, an appropriate avatar for the user can be obtained while suppressing the processing load.

本発明によるアバター出力装置によれば、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる。 ADVANTAGE OF THE INVENTION According to the avatar output device by this invention, when outputting many avatars, the avatar suitable for a user can be obtained, suppressing the load of a process.

実施の形態1における情報システムAの概念図Conceptual diagram of information system A in Embodiment 1 同情報システムAのブロック図Block diagram of the same information system A 同アバター出力装置1の動作例について説明するフローチャートFlowchart explaining an operation example of the same avatar output device 1 同アバター情報取得処理の例について説明するフローチャートFlowchart explaining an example of the same avatar information acquisition processing 同端末装置2の動作例について説明するフローチャートFlowchart explaining an operation example of the terminal device 2 同スコア取得処理の例について説明するフローチャートFlowchart explaining an example of the same score acquisition process 同表示情報構成処理の例について説明するフローチャートFlowchart for explaining an example of the same display information configuration processing 同音声出力処理の例について説明するフローチャートFlowchart for explaining an example of the same audio output processing 同情報システムAの具体的な動作例について説明する図Diagram for explaining a specific operation example of the information system A 同アバター管理表を示す図Diagram showing the same avatar management table 同判定結果のイメージを示す図Diagram showing the image of the judgment result 同出力例を示す図Diagram showing the same output example 同コンピュータシステムの概観図Overview of the computer system 同コンピュータシステムのブロック図Block diagram of the same computer system

以下、アバター出力装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。 Hereinafter, embodiments such as an avatar output device will be described with reference to the drawings. It should be noted that, since components denoted by the same reference numerals in the embodiments perform similar operations, repetitive description may be omitted.

(実施の形態1)
本実施の形態において、仮想的な三次元空間(以下、適宜、単に「三次元空間」と言う。)の中に滞在する2以上の各ユーザのアバターのうち、少なくとも一部のアバターについては小さいサイズの情報を用いて出力される情報システムについて説明する。なお、三次元空間は、例えば、VRであるが、AR等でも良い。
本実施の形態における情報システムは、例えば、三次元空間の中において、各ユーザの分身である2以上のアバターが集まり、ユーザ間において、コミュニケーションをすることを支援するシステムである。本情報システムは、ゲーム等にも応用可能である。本情報システムは、アバターを出力する機能を有すれば良く、応用範囲は問わない。
なお、以下、2以上のユーザのうちの一人のユーザに対応するアバターを自アバターと表現し、それ以外のユーザを他アバターと表現する。
(Embodiment 1)
In the present embodiment, among the avatars of two or more users staying in a virtual three-dimensional space (hereinafter simply referred to as "three-dimensional space" as appropriate), at least some of the avatars are small An information system outputting using size information will be described. The three-dimensional space is, for example, VR, but may be AR or the like.
The information system according to the present embodiment is, for example, a system in which two or more avatars, which are alter ego of each user, gather in a three-dimensional space and support communication between the users. This information system can also be applied to games and the like. This information system only needs to have a function of outputting avatars, and the range of application is not limited.
In addition, hereinafter, an avatar corresponding to one user out of two or more users is expressed as a self avatar, and other users are expressed as other avatars.

また、本実施の形態において、端末装置ごとに、2以上の各アバターのスコアを用いて、アバターに対して使用するモデル情報または音声情報を決定し、当該決定したモデル情報または音声情報を用いて、アバターを表現する情報システムについて説明する。なお、スコアは、動的属性値または静的属性値を用いて取得される。 Further, in the present embodiment, for each terminal device, using the scores of two or more avatars, model information or voice information to be used for the avatar is determined, and using the determined model information or voice information , describes an information system for representing avatars. Note that scores are obtained using dynamic attribute values or static attribute values.

さらに、本実施の形態において、三次元空間の中のアバター表示に関する処理を、アバター出力装置と端末装置とで、適切に分担する情報システムについて説明する。 Furthermore, in the present embodiment, an information system will be described in which the avatar output device and the terminal device appropriately share the processing related to the avatar display in the three-dimensional space.

図1は、本実施の形態における情報システムAの概念図である。情報システムAは、アバター出力装置1、および1または2以上の端末装置2を備える。 FIG. 1 is a conceptual diagram of an information system A according to this embodiment. An information system A includes an avatar output device 1 and one or more terminal devices 2 .

アバター出力装置1は、アバターの出力のための処理を行う装置である。アバター出力装置1は、ここでは、通常、いわゆるサーバであるが、スタンドアロンで動作する装置でも良い。アバター出力装置1は、例えば、クラウドサーバ、ASPサーバ等である。なお、アバター出力装置1の種類は問わない。また、アバター出力装置1がスタンドアロンの装置である場合、端末装置2は不要であり、後述する端末装置2の機能の一部は、アバター出力装置1が実行する。 The avatar output device 1 is a device that performs processing for outputting an avatar. The avatar output device 1 here is usually a so-called server, but it may be a stand-alone device. The avatar output device 1 is, for example, a cloud server, an ASP server, or the like. In addition, the kind of the avatar output device 1 is not asked. Moreover, when the avatar output device 1 is a stand-alone device, the terminal device 2 is unnecessary, and the avatar output device 1 executes some of the functions of the terminal device 2, which will be described later.

端末装置2は、ユーザが使用する端末である。端末装置2は、自分に対応する自アバターと1以上の他アバターとを出力する端末である。一のアバターは、例えば、一の端末装置2に対応付く。また、一のアバターは、例えば、一のユーザに対応付く。他アバターは、他の端末装置2を使用する他のユーザに対応するアバターである。なお、一のユーザに対して2以上のアバターが対応付いていても良い。つまり、一のユーザが、2以上のアバターを切り替えて、2以上のアバターの中の一つのアバターを使用しても良い。端末装置2は、例えば、いわゆるパーソナルコンピュータ、タブレット端末、スマートフォン等であり、その種類は問わない。なお、出力とは、通常、表示であるが、表示デバイスへの送信でも良い。 The terminal device 2 is a terminal used by a user. The terminal device 2 is a terminal that outputs a self avatar corresponding to itself and one or more other avatars. One avatar corresponds to one terminal device 2, for example. Also, one avatar, for example, corresponds to one user. Other avatars are avatars corresponding to other users who use other terminal devices 2 . Note that two or more avatars may be associated with one user. That is, one user may switch between two or more avatars and use one of the two or more avatars. The terminal device 2 is, for example, a so-called personal computer, a tablet terminal, a smart phone, etc., and the type thereof does not matter. Note that output usually means display, but may also be transmission to a display device.

なお、アバターは、通常、ユーザの分身として出力されるキャラクターである。アバターは、キャラクターと言っても良い。 Note that the avatar is usually a character that is output as a user's alter ego. An avatar can be called a character.

図2は、本実施の形態における情報システムAのブロック図である。情報システムAを構成するアバター出力装置1は、格納部11、受付部12、処理部13、および出力部14を備える。 FIG. 2 is a block diagram of the information system A according to this embodiment. The avatar output device 1 that constitutes the information system A includes a storage section 11 , a reception section 12 , a processing section 13 and an output section 14 .

格納部11は、ワールド格納部111、およびアバター格納部112を備える。受付部12は、例えば、アバター受信部121を備える。処理部13は、例えば、モデル圧縮部131、アバター蓄積部132、決定部133、アバター取得部134、および音声取得部135を備える。出力部14は、例えば、位置情報送信部141、アバター出力部142、および音声出力部143を備える。 The storage unit 11 includes a world storage unit 111 and an avatar storage unit 112 . The reception unit 12 includes, for example, an avatar reception unit 121 . The processing unit 13 includes, for example, a model compression unit 131, an avatar storage unit 132, a determination unit 133, an avatar acquisition unit 134, and a voice acquisition unit 135. The output unit 14 includes, for example, a position information transmission unit 141, an avatar output unit 142, and an audio output unit 143.

端末装置2は、端末格納部21、端末受付部22、端末処理部23、端末送信部24、端末受信部25、および端末出力部26を備える。 The terminal device 2 includes a terminal storage section 21 , a terminal reception section 22 , a terminal processing section 23 , a terminal transmission section 24 , a terminal reception section 25 and a terminal output section 26 .

アバター出力装置1を構成する格納部11には、各種の情報が格納される。各種の情報とは、例えば、後述するワールド情報、後述するアバター情報である。 Various types of information are stored in the storage unit 11 that constitutes the avatar output device 1 . The various types of information are, for example, world information, which will be described later, and avatar information, which will be described later.

ワールド格納部111には、ワールド情報が格納される。ワールド情報は、ワールドを構成するための情報である。ワールド情報の構造は問わない。 World information is stored in the world storage unit 111 . The world information is information for configuring the world. The structure of the world information does not matter.

アバター格納部112には、1または2以上のアバター情報が格納される。アバター情報は、出力されるアバターを構成するための情報を含む。アバター情報は、アバターごとの情報である。アバター情報は、アバター識別子に対応付いている。アバター識別子に対応付いていることは、アバター識別子を有することでも良い。アバター識別子は、例えば、アバターのIDであるが、アバターに対応するユーザのID、端末装置2のID等でも良い。 The avatar storage unit 112 stores one or more pieces of avatar information. Avatar information includes information for configuring an output avatar. Avatar information is information for each avatar. Avatar information is associated with an avatar identifier. Associated with an avatar identifier may be having an avatar identifier. The avatar identifier is, for example, the ID of the avatar, but may be the ID of the user corresponding to the avatar, the ID of the terminal device 2, or the like.

アバター情報は、モデル情報を有する。モデル情報は、アバターの表示を構成するための情報である。モデル情報は、例えば、メッシュ情報、ボーン情報、マテリアル情報を有する。モデル情報は、例えば、glTF ?(GL Transmission Format)?のデータ構造を有する。ただし、モデル情報のデータ構造は、VRM、OBJ、FBX、STL、GLB、COLLADA、等でも良く、種類を問わない。 Avatar information has model information. The model information is information for configuring the display of the avatar. Model information includes, for example, mesh information, bone information, and material information. The model information has, for example, a data structure of glTF? (GL Transmission Format)?. However, the data structure of the model information may be VRM, OBJ, FBX, STL, GLB, COLLADA, etc., and the type does not matter.

ここでの各アバター情報は、データサイズの異なる2種類以上のモデル情報を有することは好適である。アバター情報は、例えば、第一モデル情報と第二モデル情報とを有する。ここで、「第一モデル情報のデータサイズ>第二モデル情報のデータサイズ」である。第二モデル情報は、例えば、第一モデル情報のデータサイズを圧縮したモデル情報である。なお、圧縮のアルゴリズムは問わない。第二モデル情報は、例えば、第一モデル情報が有するメッシュ情報のうち、2以上のメッシュ情報から一のメッシュ情報を構成し(メッシュを統合し)、メッシュ情報を削減したモデル情報である。また、第二モデル情報は、例えば、第一モデル情報が有する色情報の階調を小さくすることにより、データサイズを削減したモデル情報である。第二モデル情報は、例えば、第一モデル情報が有するテクスチャのアトラス化により、データサイズを小さくしたモデル情報である。 Each avatar information here preferably has two or more types of model information with different data sizes. Avatar information has, for example, first model information and second model information. Here, "the data size of the first model information>the data size of the second model information". The second model information is, for example, model information obtained by compressing the data size of the first model information. Any compression algorithm may be used. The second model information is, for example, model information obtained by forming one piece of mesh information (integrating the meshes) from two or more pieces of mesh information included in the first model information and reducing the mesh information. The second model information is model information whose data size is reduced by, for example, reducing the gradation of the color information included in the first model information. The second model information is, for example, model information whose data size is reduced by converting the texture of the first model information into an atlas.

なお、第一モデル情報は、例えば、アバター識別子に対応付けて、端末装置2から送信された情報である。なお、アバター識別子は、端末識別子でも良い。また、第一モデル情報は、例えば、端末装置2から送信された元情報を用いて取得された情報でも良い。元情報は、モデル情報でも良いし、モデル情報を特定する識別子でも良い。 The first model information is, for example, information transmitted from the terminal device 2 in association with the avatar identifier. Note that the avatar identifier may be a terminal identifier. Also, the first model information may be information acquired using the original information transmitted from the terminal device 2, for example. The original information may be model information or an identifier that identifies the model information.

また、アバター情報は、モデル情報の他、音声情報や1以上の属性値を有することは好適である。 In addition to the model information, the avatar information preferably has voice information and one or more attribute values.

音声情報は、アバターが発する音声の情報である。音声情報のデータ構造やデータ形式は問わない。アバター情報は、データサイズまたは属性値が異なる2種類以上の音声情報を有することは好適である。アバター情報は、例えば、第一音声情報と第二音声情報とを有する。例えば、「第一音声情報のデータサイズ>第二音声情報のデータサイズ」である。また、例えば、「第一音声情報の属性値であるボリューム>第二音声情報の属性値であるボリューム」である。また、例えば、「第一音声情報の属性値であるサンプリング周波数>第二音声情報の属性値であるサンプリング周波数」である。また、例えば、「第一音声情報の属性値である高さ(周波数)>第二音声情報の属性値である高さ(周波数)」である。 The audio information is information on the audio uttered by the avatar. The data structure and data format of the audio information are irrelevant. The avatar information preferably has two or more types of audio information with different data sizes or attribute values. Avatar information has, for example, first audio information and second audio information. For example, "data size of first audio information>data size of second audio information". Also, for example, "the volume as the attribute value of the first audio information>the volume as the attribute value of the second audio information". Also, for example, "the sampling frequency that is the attribute value of the first audio information>the sampling frequency that is the attribute value of the second audio information". Further, for example, "height (frequency) as an attribute value of the first audio information>height (frequency) as an attribute value of the second audio information".

1以上の各属性値は、アバターの属性値である。属性値は、例えば、動的属性値、または静的属性値である。 Each attribute value of 1 or more is the attribute value of the avatar. Attribute values are, for example, dynamic attribute values or static attribute values.

動的属性値は、動的に変化し得る属性値である。動的属性値は、例えば、位置情報、向き情報である。 A dynamic attribute value is an attribute value that can change dynamically. Dynamic attribute values are, for example, location information and orientation information.

位置情報は、アバターの場における位置を特定する情報である。位置情報は、例えば、ユーザが入力した位置情報である。ユーザが入力した位置情報は、通常、アバターを動作させるユーザの操作により決定される情報である。位置情報は、場(ワールドと言っても良い)の中での絶対的な位置を特定する情報であり、例えば、三次元座標(x、y、z)または二次元座標(x、y)である。 The positional information is information specifying the position of the avatar in the field. The location information is, for example, location information input by the user. The location information input by the user is usually information determined by the user's operation to move the avatar. Positional information is information that specifies an absolute position in a field (which may be called the world). For example, three-dimensional coordinates (x, y, z) or two-dimensional coordinates be.

向き情報は、アバターの場における向きを特定する情報である。向き情報は、例えば、基準となる方向に対する角度である。基準となる方向は、場(ワールドと言っても良い)の中での絶対的な向きを特定する情報である。向き情報は、例えば、場の中の正面を向いているか否かを示す情報である。 Orientation information is information that specifies the orientation of the avatar in the field. Direction information is, for example, an angle with respect to a reference direction. A reference direction is information specifying an absolute direction in a field (which may be called a world). Direction information is, for example, information indicating whether or not the player is facing the front in the field.

静的属性値は、動的には変化しない属性値である。静的属性値は、例えば、役割属性値、由来属性値、端末属性値である。 A static attribute value is an attribute value that does not change dynamically. Static attribute values are, for example, role attribute values, source attribute values, and terminal attribute values.

役割属性値は、アバターの役割に関する情報である。役割属性値は、例えば、「主催者」「司会者」「観客」である。なお、「主催者」は、仮想的な三次元空間上で、アバターを用いたイベントを開催する場合の主催者である。「司会者」は、仮想的な三次元空間上で、アバターを用いたイベントを開催する場合の司会者である。「観客」は、仮想的な三次元空間上で、アバターを用いたイベントを開催する場合の観客である。 The role attribute value is information regarding the role of the avatar. Role attribute values are, for example, "host", "moderator", and "spectator". Note that the “sponsor” is the organizer when holding an event using avatars in a virtual three-dimensional space. A “moderator” is a moderator when holding an event using an avatar in a virtual three-dimensional space. The "audience" is a spectator when an event using avatars is held in a virtual three-dimensional space.

由来属性値は、アバターの由来に関する情報である。由来属性値は、例えば、ユーザが作成したアバター(UGC)か否かを示す情報である。 The origin attribute value is information regarding the origin of the avatar. The origin attribute value is, for example, information indicating whether or not it is an avatar (UGC) created by a user.

端末属性値は、アバターに対応する端末装置2に関する情報である。端末属性値は、例えば、端末装置2の種類を特定する端末種類識別子(例えば、「PC」「スマートフォン」「タブレット」)、端末装置2のプロセッサの能力を特定する情報(例えば、能力のレベル、動作周波数(GHz))、端末装置2の画面サイズ、アスペクト比である。 The terminal attribute value is information regarding the terminal device 2 corresponding to the avatar. The terminal attribute value is, for example, a terminal type identifier that specifies the type of the terminal device 2 (eg, "PC", "smartphone", "tablet"), information that specifies the capability of the processor of the terminal device 2 (eg, capability level, operating frequency (GHz)), the screen size of the terminal device 2, and the aspect ratio.

受付部12は、各種の情報や指示を受け付ける。なお、ここでの受け付けは、通常、端末装置2からの受信であるが、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付け等でも良い。 The reception unit 12 receives various information and instructions. The reception here is usually reception from the terminal device 2, but reception of information input from an input device such as a keyboard, mouse, or touch panel, or reading from a recording medium such as an optical disk, magnetic disk, or semiconductor memory. Receipt of issued information or the like is also acceptable.

また、各種の情報や指示は、例えば、アバター情報、音声情報、リクエストである。受け付けられるアバター情報は、アバター格納部112のアバター情報と同じ構造でなくても良い。受け付けられるアバター情報は、例えば、第一モデル情報と位置情報とを有する。 Various information and instructions are, for example, avatar information, voice information, and requests. The avatar information to be accepted does not have to have the same structure as the avatar information in the avatar storage unit 112 . Accepted avatar information includes, for example, first model information and location information.

リクエストは、アバターの送信の要求である。リクエストは、例えば、他アバターの表示に関するリクエストであり、他アバターを示すアバター識別子とモデル情報の組を、1組以上、有する。リクエストは、例えば、ワールド情報の送信指示を有しても良い。 A request is a request to send an avatar. The request is, for example, a request regarding display of other avatars, and has one or more pairs of avatar identifiers and model information indicating other avatars. A request may comprise, for example, an indication to send world information.

アバター受信部121は、ユーザが使用する2以上の各端末装置2から第一モデル情報または元情報を受信する。元情報は、第一モデル情報の元になる情報である。元情報は、例えば、モデル情報であるが、第一モデル情報の識別子でも良い。 The avatar receiving unit 121 receives first model information or original information from each of two or more terminal devices 2 used by the user. The source information is information that is the source of the first model information. The original information is, for example, model information, but may be an identifier of the first model information.

アバター受信部121は、2以上の各端末装置2から、各端末装置2に対応するアバターの位置を特定する位置情報をも受信することは好適である。なお、アバター受信部121は、2以上の各端末装置2から第一モデル情報または元情報、位置情報、およびアバター識別子を対応付けて受信することは好適である。ただし、第一モデル情報または元情報、および位置情報は対応付けば良く、別々に受信されても良い。なお、アバター識別子は、アバターを識別する情報であり、例えば、ID、ユーザ名である。また、アバター受信部121が端末装置2から第一モデル情報または元情報を受信したことに応じて、ユニークなアバター識別子が取得されても良い。 It is preferable that the avatar receiving unit 121 also receive position information specifying the position of the avatar corresponding to each terminal device 2 from each of two or more terminal devices 2 . Note that the avatar receiving unit 121 preferably receives the first model information or the original information, the position information, and the avatar identifier from each of two or more terminal devices 2 in association with each other. However, the first model information or original information and the position information may be associated with each other and may be received separately. Note that the avatar identifier is information for identifying an avatar, such as an ID and a user name. Also, a unique avatar identifier may be acquired in response to the avatar receiving unit 121 receiving the first model information or the original information from the terminal device 2 .

アバター受信部121は、音声情報、位置情報をも受信することは好適である。アバター受信部121は、音声情報を、アバター識別子を対応付けて受信することは好適である。 It is preferable that the avatar reception unit 121 also receive voice information and position information. Avatar receiving section 121 preferably receives the audio information in association with the avatar identifier.

アバター受信部121は、2以上の各端末装置2から、第一モデル情報と第二モデル情報とを有するアバター情報を受信しても良い。かかる場合、端末装置2が、第一モデル情報に基づいて、第二モデル情報を取得する処理を行っても良い。 The avatar receiving unit 121 may receive avatar information including first model information and second model information from each of two or more terminal devices 2 . In such a case, the terminal device 2 may perform processing for acquiring the second model information based on the first model information.

アバター受信部121は、2以上の各端末装置2から、各端末装置2で取得された1以上の他アバターのスコアまたは判定結果を、アバター識別子に対応付けて受信することは好適である。アバター受信部121は、各端末装置2ごとに、自アバターのスコアまたは判定結果をも受信しても良い。なお、判定結果とは、アバターのモデル情報の種類を決定するための情報である。判定結果は、例えば、スコアに基づいて決定された情報である。判定結果は、例えば、モデル情報の種類を特定する種類識別子である。判定結果は、例えば、第一モデル情報に対応する「第一」、第二モデル情報に対応する「第二」である。 It is preferable that the avatar receiving unit 121 receives the score or determination result of one or more other avatars acquired by each terminal device 2 from each of two or more terminal devices 2 in association with the avatar identifier. The avatar receiving section 121 may also receive the score or determination result of the own avatar for each terminal device 2 . Note that the determination result is information for determining the type of avatar model information. The determination result is, for example, information determined based on the score. The determination result is, for example, a type identifier specifying the type of model information. The determination result is, for example, "first" corresponding to the first model information and "second" corresponding to the second model information.

なお、他アバターは、自アバターでは無いアバターである。自アバターは、端末装置2に対応するアバターである。アバター受信部121が自アバターのスコアを受信しない場合、自アバターのスコアは、通常、デフォルト値(例えば、最高点)である。なお、端末装置2にとっての他アバターのスコアは、端末装置2にとっての他アバターの重要度を特定する情報である。スコアは、例えば、0~100、10段階評価等であるが、その範囲等は問わない。 Note that other avatars are avatars that are not the own avatar. The own avatar is an avatar corresponding to the terminal device 2 . When the avatar receiving section 121 does not receive the score of the own avatar, the score of the own avatar is normally the default value (for example, the highest score). Note that the score of the other avatar for the terminal device 2 is information specifying the importance of the other avatar for the terminal device 2 . The score is, for example, 0 to 100, 10-level evaluation, etc., but the range is not limited.

処理部13は、各種の処理を行う。各種の処理は、例えば、モデル圧縮部131、アバター蓄積部132、決定部133、アバター取得部134、音声取得部135が行う処理である。 The processing unit 13 performs various types of processing. Various processes are processes performed by the model compression unit 131, the avatar accumulation unit 132, the determination unit 133, the avatar acquisition unit 134, and the voice acquisition unit 135, for example.

処理部13は、例えば、ワールド格納部111のワールド情報を取得する。 The processing unit 13 acquires world information in the world storage unit 111, for example.

モデル圧縮部131は、第一モデル情報または元情報を用いて、第二モデル情報を取得する。第二モデル情報は、第一モデル情報より小さいデータサイズのモデル情報である。 The model compression unit 131 acquires second model information using the first model information or original information. The second model information is model information with a smaller data size than the first model information.

なお、モデル圧縮部131が行う処理は問わない。モデル圧縮部131は、例えば、第一モデル情報または元情報が有する2以上のメッシュ情報から一のメッシュ情報を構成し、メッシュ情報の数を削減した第二モデル情報を取得する。かかる場合、第二モデル情報は、例えば、第一モデル情報が有するN(Nは2以上の自然数)のメッシュ情報を用いて取得された、Nよりも少ないM(Mは1以上の自然数)のメッシュ情報を有するモデル情報である。 Note that the processing performed by the model compression unit 131 does not matter. The model compression unit 131, for example, configures one piece of mesh information from two or more pieces of mesh information included in the first model information or original information, and acquires second model information in which the number of pieces of mesh information is reduced. In such a case, the second model information is, for example, M less than N (M is a natural number of 1 or more) obtained using N (N is a natural number of 2 or more) mesh information possessed by the first model information. Model information with mesh information.

また、モデル圧縮部131は、例えば、第一モデル情報または元情報が有する色情報の階調を小さくすることにより、データサイズを削減した第二モデル情報を取得する。モデル圧縮部131は、例えば、第一モデル情報または元情報が有するテクスチャのアトラス化により、データサイズを小さくした第二モデル情報を取得する。 The model compression unit 131 also obtains second model information with a reduced data size, for example, by reducing the gradation of the color information included in the first model information or the original information. The model compression unit 131 acquires the second model information with a reduced data size, for example, by atlasing the texture of the first model information or the original information.

モデル圧縮部131は、第一モデル情報が有するアバターの一部の箇所(例えば、ボディー部、顔部以外の箇所)の情報のみを圧縮し、第二モデル情報を取得することは好適である。 It is preferable that the model compression unit 131 compresses only the information of a part of the avatar (for example, the parts other than the body part and the face part) included in the first model information, and acquires the second model information.

アバター蓄積部132は、アバター受信部121が受信した第一モデル情報、またはアバター受信部121が受信した元情報を用いて取得された第一モデル情報を有するアバター情報をアバター格納部112に蓄積する。 The avatar accumulation unit 132 accumulates in the avatar storage unit 112 the first model information received by the avatar reception unit 121 or the avatar information having the first model information acquired using the original information received by the avatar reception unit 121. .

アバター蓄積部132は、例えば、アバター受信部121が受信した位置情報、音声情報のうちの1以上の情報をも有するアバター情報をアバター格納部112に蓄積する。 The avatar accumulation unit 132 accumulates, in the avatar storage unit 112, avatar information including one or more of the position information and the voice information received by the avatar reception unit 121, for example.

アバター蓄積部132は、例えば、第一モデル情報と第二モデル情報とを有するアバター情報をアバター格納部112に蓄積する。 The avatar storage unit 132 stores, for example, avatar information having first model information and second model information in the avatar storage unit 112 .

アバター蓄積部132は、例えば、第一モデル情報とモデル圧縮部131が取得した第二モデル情報とを有するアバター情報をアバター格納部112に蓄積する。 The avatar accumulation unit 132 accumulates, in the avatar storage unit 112, avatar information including the first model information and the second model information acquired by the model compression unit 131, for example.

なお、アバター蓄積部132が行う蓄積処理は、一時的な蓄積でも良い。 Note that the accumulation processing performed by the avatar accumulation unit 132 may be temporary accumulation.

決定部133は、2以上のアバターのうち、1以上の第一アバターと1以上の第二アバターとを決定する。なお、第一アバターは、第一モデル情報を用いて表示されるアバターである。第二アバターは、第二モデル情報を用いて表示されるアバターである。なお、決定する処理は、例えば、アバター識別子と対になるスコアまたは判定結果に対応する種類識別子を取得すること、端末装置2から受信された種類識別子を取得すること等である。種類識別子は、例えば、「第一アバター」「第二アバター」である。 The determination unit 133 determines one or more first avatars and one or more second avatars among the two or more avatars. Note that the first avatar is an avatar displayed using the first model information. A second avatar is an avatar displayed using the second model information. Note that the processing for determination is, for example, acquiring a type identifier corresponding to a score paired with an avatar identifier or a determination result, acquiring a type identifier received from the terminal device 2, or the like. The type identifiers are, for example, "first avatar" and "second avatar".

決定部133は、例えば、受信されたリクエストに含まれるアバター識別子ごとに、当該アバター識別子と対になるスコアまたは判定結果に対応する種類識別子を取得する。 For example, for each avatar identifier included in the received request, the determining unit 133 acquires the type identifier corresponding to the score paired with the avatar identifier or the determination result.

モデル情報が3種類以上存在する場合、決定部133は、3以上のアバターのうち、1以上の第一アバターと1以上の第二アバターと1以上の第三アバターとを決定する。 When there are three or more types of model information, the determination unit 133 determines one or more first avatars, one or more second avatars, and one or more third avatars among the three or more avatars.

決定部133は、2以上の各アバターが、少なくとも2種類以上のアバターのうちのいずれであるかを決定する。決定部133は、2以上の各アバターが、3種類以上のアバターのうちのいずれであるかを決定しても良い。なお、アバターは、通常、ユーザまたは端末装置2に対応付いている。 The determining unit 133 determines which of at least two types of avatars each of the two or more avatars is. The determination unit 133 may determine which of the three or more types of avatars each of the two or more avatars. Note that avatars are usually associated with users or terminal devices 2 .

決定部133は、通常、端末装置2ごとに、1以上の第一アバターと1以上の第二アバターとを決定する。つまり、端末装置2によって、同じ他アバターでも、モデル情報の種類が異なることは好適である。 The determining unit 133 normally determines one or more first avatars and one or more second avatars for each terminal device 2 . That is, it is preferable that the type of model information differs depending on the terminal device 2 even for the same other avatar.

決定部133は、2以上の各端末装置ごとに、2以上の各アバターに対応する1以上の動的属性値を用いて取得されたスコアに基づいて、1以上の第二アバターを決定することは好適である。 The determination unit 133 determines one or more second avatars for each of the two or more terminal devices based on the scores obtained using the one or more dynamic attribute values corresponding to the two or more avatars. is preferred.

決定部133は、2以上の各アバターに対応する1以上の静的属性値に基づく情報を用いて、1以上の第二アバターを決定しても良い。 The determination unit 133 may determine one or more second avatars using information based on one or more static attribute values corresponding to each of the two or more avatars.

決定部133は、スコアまたは判定結果を用いて、2以上の各端末装置ごとに、2以上の各アバターに対して、1以上の第一アバターと1以上の第二アバターとを決定する。なお、スコアまたは判定結果は、端末装置2から受信された情報でも良いし、アバター出力装置1が取得した情報でも良い。 The determination unit 133 determines one or more first avatars and one or more second avatars for each of the two or more avatars for each of the two or more terminal devices using the score or the determination result. The score or determination result may be information received from the terminal device 2 or information acquired by the avatar output device 1 .

決定部133は、例えば、スコアまたは判定結果に基づいて、第一アバターと第二アバターとを決定する。 The determination unit 133 determines the first avatar and the second avatar, for example, based on the score or determination result.

決定部133は、例えば、スコア条件を満たすほど高いスコアと対になるアバター識別子で識別されるアバターを第一アバターに決定し、スコア条件を満たさないほど低いスコアと対になるアバター識別子で識別されるアバターを第二アバターに決定する。 For example, the determining unit 133 determines, as the first avatar, an avatar identified by an avatar identifier paired with a score high enough to satisfy the score condition, and an avatar identified by an avatar identifier paired with a score low enough not to satisfy the score condition to be the first avatar. determine the avatar to be the second avatar.

スコア条件は、例えば、「スコアが閾値以上」「スコアが閾値より大きい」「スコアが上位N(Nは自然数)以内」「スコアが上位N(Nは自然数)より高い」である。 The score conditions are, for example, "score is greater than threshold", "score is greater than threshold", "score is within top N (N is a natural number)", and "score is higher than top N (N is a natural number)".

決定部133は、例えば、判定結果「第一」と対になるアバター識別子で識別されるアバターを第一アバターに決定し、判定結果「第二」と対になるアバター識別子で識別されるアバターを第二アバターに決定する。 For example, the determination unit 133 determines the avatar identified by the avatar identifier paired with the determination result "first" as the first avatar, and selects the avatar identified by the avatar identifier paired with the determination result "second" as the first avatar. Decide on the second avatar.

決定部133は、例えば、端末装置2から受信された1以上の各他アバターのスコアまたは判定結果を用いて、各他アバターが2種類以上のアバターのうちのいずれかであるかを決定する。 The determination unit 133 determines whether each other avatar is one of two or more types of avatars, for example, using the scores or determination results of the one or more other avatars received from the terminal device 2 .

決定部133は、例えば、端末装置2から受信された1以上の属性値を用いて、1以上の各他アバターに対するスコア取得処理を行い、当該スコアに基づいて、各他アバターが2種類以上のアバターのうちのいずれかであるかを決定する。なお、スコア取得処理は、各端末装置2が行っても良い。 For example, the determination unit 133 performs score acquisition processing for each of the one or more other avatars using the one or more attribute values received from the terminal device 2, and based on the score, each other avatar has two or more types of avatars. Determine which one of the avatars. Note that each terminal device 2 may perform the score acquisition process.

決定部133は、例えば、以下のようなスコア取得処理を行う。つまり、決定部133は、2以上の各端末装置2から受信された1以上の属性値と、各アバターの位置情報とを用いて、2以上の各端末装置2ごとに、1以上の他アバターのスコアを取得する。なお、各端末装置2から受信された1以上の属性値は、例えば、自アバターの位置情報、自アバターの向き情報を有する。 The determination unit 133 performs, for example, the following score acquisition process. That is, the determining unit 133 uses the one or more attribute values received from each of the two or more terminal devices 2 and the position information of each avatar to determine one or more other avatars for each of the two or more terminal devices 2. get the score of The one or more attribute values received from each terminal device 2 include, for example, the position information of the own avatar and the direction information of the own avatar.

具体的には、決定部133は、例えば、端末装置2から受信された自アバターの位置情報、端末装置2から受信された自アバターの向き情報、カメラ属性値、1以上の各他アバターの位置情報のうちの2以上の情報を用いて、1以上の他アバターの動的属性値を取得する。なお、カメラ属性値は、例えば、カメラの位置を特定するカメラ位置情報、カメラの向きを特定するカメラ向き情報、カメラの画角を特定する画角情報である。カメラ属性値は、例えば、格納部11に格納されている。また、画角情報は、通常、カメラの水平方向の角度の範囲、カメラの垂直方向の角度の範囲である。なお、ここでのカメラは、仮想的な三次元空間上に設置されたカメラである。 Specifically, the determination unit 133, for example, determines the location information of the own avatar received from the terminal device 2, the orientation information of the own avatar received from the terminal device 2, the camera attribute value, the positions of one or more other avatars, and the like. Two or more of the information are used to obtain dynamic attribute values of one or more other avatars. Note that the camera attribute values are, for example, camera position information specifying the position of the camera, camera direction information specifying the direction of the camera, and angle of view information specifying the angle of view of the camera. Camera attribute values are stored in the storage unit 11, for example. Also, the angle-of-view information is usually the horizontal angle range of the camera and the vertical angle range of the camera. Note that the camera here is a camera installed in a virtual three-dimensional space.

決定部133は、例えば、自アバターの位置情報と他アバターの位置情報とを用いて、自アバターと他アバターとの距離を取得する。また、決定部133は、例えば、自アバターの位置情報と自アバターの向き情報と他アバターの位置情報とを用いて、他アバターが自アバターの視野の中に入っているか否かを示す動的属性値(視野内属性値と言っても良い。)を取得する。また、決定部133は、例えば、カメラ位置情報とカメラ向き情報と画角情報と他アバターの位置情報とを用いて、他アバターがカメラによる撮影の範囲に入っているか否かを示す動的属性値(撮影範囲属性値と言っても良い。)を取得する。 The determining unit 133 acquires the distance between the own avatar and the other avatars, for example, using the position information of the own avatar and the position information of the other avatars. Further, the determining unit 133, for example, uses the position information of the own avatar, the orientation information of the own avatar, and the position information of the other avatars to dynamically determine whether or not the other avatar is within the field of view of the own avatar. Acquire an attribute value (which may be called an in-field attribute value). In addition, the determination unit 133 uses, for example, the camera position information, the camera direction information, the angle of view information, and the position information of the other avatar to determine whether or not the other avatar is within the shooting range of the camera. Acquire a value (which may be called a shooting range attribute value).

そして、決定部133は、例えば、他アバターに対して、距離が近いほど大きな値のスコアを取得する。また、決定部133は、例えば、視野の中に入っている場合に、視野の中に入っていない場合と比較して、大きな値のスコアを取得する。また、決定部133は、例えば、カメラによる撮影の範囲に入っている場合に、撮影の範囲に入っていない場合と比較して、大きな値のスコアを取得する。 Then, the determination unit 133 acquires, for example, a larger score for the other avatar as the distance is closer. Also, the determination unit 133 acquires a higher score when the object is in the field of view than when the object is not in the field of view, for example. In addition, for example, the determining unit 133 obtains a higher score when the object is within the imaging range of the camera than when it is not within the imaging range.

さらに具体的には、決定部133は、例えば、他アバターに対して、距離をパラメータとする減少関数により、スコアを取得する。決定部133は、例えば、距離、視野内属性値、および撮影範囲属性値に対応するスコアを対応表から取得する。かかる場合、対応表は、例えば、距離の範囲、視野内属性値、および撮影範囲属性値の組と、スコアとの対応を示す2以上の対応情報を有する表である。 More specifically, the determining unit 133 acquires scores of other avatars, for example, using a decreasing function with distance as a parameter. For example, the determination unit 133 acquires scores corresponding to the distance, the in-field attribute value, and the shooting range attribute value from the correspondence table. In such a case, the correspondence table is, for example, a table having two or more pieces of correspondence information indicating correspondence between sets of distance ranges, in-field attribute values, and shooting range attribute values, and scores.

また、決定部133は、例えば、1以上の静的属性値を用いて、以下のようなスコア取得処理を行っても良い。なお、1以上の静的属性値は、例えば、アバターの役割に関する属性値、アバターの由来に関する属性値のいずれかを含む。 Also, the determination unit 133 may perform the following score acquisition processing using, for example, one or more static attribute values. The one or more static attribute values include, for example, attribute values related to the role of the avatar and attribute values related to the origin of the avatar.

決定部133は、例えば、他アバターの役割が「主催者」または「司会者」である場合、他アバターの役割が「観客」である場合と比較して、高いスコアを取得する。決定部133は、例えば、例えば、他アバターがUGCである場合、UGCでない場合と比較して、高いスコアを取得する。 For example, when the other avatar has the role of "organizer" or "moderator", the determination unit 133 obtains a higher score than when the other avatar has the role of "spectator". For example, when the other avatar is UGC, the determination unit 133 acquires a higher score than when the other avatar is not UGC.

決定部133は、例えば、視野内属性値または撮影範囲属性値のみに基づいて、決定しても良い。決定部133による決定処理のアルゴリズムは問わない。また、決定部133がスコアを取得する場合、当該スコア取得のアルゴリズムも問わない。 The determination unit 133 may determine, for example, based only on the in-field attribute value or the shooting range attribute value. The algorithm of the decision processing by the decision unit 133 does not matter. Moreover, when the determining unit 133 acquires the score, the algorithm for acquiring the score does not matter.

決定部133は、例えば、2以上のアバターのうち、第一音声情報に対応するアバターである1以上の第一アバターと、第二音声情報に対応するアバターである1以上の第二アバターを決定する。なお、第二音声情報は、第一音声情報より小さいデータサイズの音声情報または第一音声情報とは異なる属性値を有する音声情報である。なお、異なる属性値とは、例えば、音量、周波数である。 For example, the determining unit 133 determines one or more first avatars that are avatars corresponding to the first audio information and one or more second avatars that are avatars corresponding to the second audio information, among the two or more avatars. do. The second audio information is audio information having a data size smaller than that of the first audio information or audio information having an attribute value different from that of the first audio information. Note that the different attribute values are volume and frequency, for example.

決定部133は、例えば、他アバターのスコアまたは判定結果に基づいて、当該他アバターの音声情報の種類を決定する。決定部133は、例えば、他アバターのスコアまたは判定結果に基づいて、第一アバター、第二アバター等の種類を決定し、当該種類に対応する音声情報の種類を決定する。 The determination unit 133 determines the type of voice information of the other avatar, for example, based on the score or determination result of the other avatar. The determination unit 133 determines types such as a first avatar and a second avatar based on scores or determination results of other avatars, for example, and determines types of voice information corresponding to the types.

アバター取得部134は、決定部133が決定した1以上の各第二アバターについては、第二モデル情報を用いたアバターをアバター格納部112から取得し、1以上の各第一アバターについては、第一モデル情報を用いたアバターをアバター格納部112から取得する。 The avatar acquisition unit 134 acquires the avatar using the second model information from the avatar storage unit 112 for each of the one or more second avatars determined by the determination unit 133, An avatar using one model information is acquired from the avatar storage unit 112 .

アバターを取得することは、モデル情報を取得することでも良いし、モデル情報を含むアバター情報を取得することでも良いし、モデル情報と音声情報とを含むアバター情報を取得することでも良いし、モデル情報を識別するモデル識別子(例えば、第一アバターか第二アバターかを識別する情報、モデル情報の種類を識別する情報)を取得することでも良いし、音声情報を識別する音声識別子(例えば、第一アバターか第二アバターかを識別する情報、音声情報の種類を識別する情報)を取得することでも良い。 Acquiring an avatar may be acquiring model information, acquiring avatar information including model information, acquiring avatar information including model information and voice information, or acquiring model information. A model identifier that identifies the information (for example, information that identifies the first avatar or the second avatar, information that identifies the type of model information) may be acquired, or a voice identifier that identifies the voice information (for example, the second avatar) may be acquired. Information identifying the first avatar or the second avatar, information identifying the type of voice information) may be acquired.

アバター取得部134は、例えば、決定部133が決定した1以上の第二アバターについては、第二モデル情報を読み出し、第二モデル情報を用いてアバターを構成する。 For example, for one or more second avatars determined by the determination unit 133, the avatar acquisition unit 134 reads the second model information and configures the avatar using the second model information.

音声取得部135は、決定部133が決定した1以上の各第二アバターについては、第二音声情報を取得し、1以上の各第一アバターについては、第一音声情報を取得する。 The voice acquisition unit 135 acquires second voice information for each of the one or more second avatars determined by the determination unit 133, and acquires first voice information for each of the one or more first avatars.

出力部14は、各種の情報を出力する。ここで、出力とは、通常、端末装置2への送信であるが、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念であっても良い。 The output unit 14 outputs various information. Here, the output is usually transmission to the terminal device 2, but display on a display, projection using a projector, printing on a printer, sound output, storage on a recording medium, other processing devices or other The concept may include delivery of the processing result to a program or the like.

出力部14は、例えば、ワールド格納部111のワールド情報を2以上の各端末装置2に送信する。 The output unit 14 , for example, transmits the world information in the world storage unit 111 to each of two or more terminal devices 2 .

位置情報送信部141は、2以上の各端末装置2に対応する2以上の各アバターの位置情報のうち、1以上の他アバターの位置情報を、アバターを識別するアバター識別子に対応付けて、2以上の各端末装置に送信する。1以上の他アバターの位置情報は、例えば、各他アバターに対応する端末装置2が送信した情報である。1以上の他アバターの位置情報は、各端末装置2における自アバターの位置情報を含まなくても良い。位置情報送信部141は、2以上の各端末装置2に、当該端末装置2に対応する自アバターの位置情報を送信しなくても良いし、自アバターの位置情報も送信しても良い。 The position information transmitting unit 141 associates the position information of one or more other avatars among the position information of each of two or more avatars corresponding to each of two or more terminal devices 2 with an avatar identifier that identifies the avatar, Send to each of the above terminal devices. The position information of one or more other avatars is, for example, information transmitted by the terminal device 2 corresponding to each other avatar. The location information of one or more other avatars does not have to include the location information of the own avatar in each terminal device 2 . The position information transmission unit 141 may not transmit the position information of the own avatar corresponding to the terminal device 2 to each of the two or more terminal devices 2, and may also transmit the position information of the own avatar.

アバター出力部142は、アバター取得部134が取得した2以上のアバターを出力する。ここで、出力とは、通常、端末装置2への送信であるが、ディスプレイへの表示、プロジェクターを用いた投影、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念であっても良い。 Avatar output unit 142 outputs two or more avatars acquired by avatar acquisition unit 134 . Here, the output is usually transmission to the terminal device 2, but display on a display, projection using a projector, storage in a recording medium, processing results in other processing devices or other programs, etc. It may be a concept including handing over.

また、アバターの出力とは、モデル情報の送信でも良いし、モデル識別子の送信でも良い。端末装置2でアバターが出力されれば良い。 Also, the output of the avatar may be transmission of model information or transmission of a model identifier. It is sufficient if the terminal device 2 outputs an avatar.

アバター出力部142は、通常、2以上の各端末装置2ごとに、アバター取得部134が取得した2以上のアバターを、2以上の各端末装置2に送信する。 The avatar output unit 142 normally transmits the two or more avatars acquired by the avatar acquisition unit 134 to the two or more terminal devices 2 for each of the two or more terminal devices 2 .

アバター出力部142は、受信されたリクエストに含まれる1以上の各アバター識別子を用いて、当該各アバター識別子に対応するモデル情報とアバター識別子とを対にして有する情報を、リクエストを送信してきた端末装置2に送信する。 The avatar output unit 142 uses one or more avatar identifiers included in the received request to send information having a pair of model information and an avatar identifier corresponding to each avatar identifier to the terminal that has transmitted the request. Send to device 2.

アバター出力部142は、受信されたリクエストがワールド情報の送信指示を含む場合、ワールド情報を、リクエストを送信してきた端末装置2に送信する。 When the received request includes an instruction to transmit world information, the avatar output unit 142 transmits the world information to the terminal device 2 that has transmitted the request.

アバター出力部142が出力するアバターは、端末装置2で表示されるアバターの情報と完全に同一でなくても良い。アバター出力部142が出力するアバターは、端末装置2で表示されるアバターを構成するための情報でも良い。アバターを出力することは、アバターを含む画像を出力することでも良い。 The avatar output by the avatar output unit 142 may not be completely the same as the avatar information displayed on the terminal device 2 . The avatar output by the avatar output unit 142 may be information for configuring the avatar displayed on the terminal device 2 . Outputting the avatar may be outputting an image including the avatar.

音声出力部143は、音声取得部135が取得した第一音声情報、および第二音声情報を出力する。第一音声情報および第二音声情報の出力とは、第一音声情報を識別する識別子および第二音声情報を識別する識別子の出力でも良い。 The audio output unit 143 outputs the first audio information and the second audio information acquired by the audio acquisition unit 135 . The output of the first audio information and the second audio information may be output of an identifier for identifying the first audio information and an identifier for identifying the second audio information.

音声出力部143は、アバターのスコアまたは判定結果に応じた種類の音声情報を出力することは好適である。 It is preferable that the audio output unit 143 outputs the type of audio information according to the score of the avatar or the determination result.

ここで、出力とは、通常、端末装置2への送信であるが、音出力、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念であっても良い。 Here, the output is usually transmission to the terminal device 2, but the concept includes sound output, storage in a recording medium, delivery of processing results to other processing devices and other programs, and the like. Also good.

音声出力部143が出力する第一音声情報、および第二音声情報は、端末装置2で出力される音声と同じ情報でなくても良い。 The first audio information and the second audio information output by the audio output unit 143 may not be the same information as the audio output by the terminal device 2 .

端末装置2を構成する端末格納部21には、1以上の端末属性値が格納される。端末属性値は、端末装置2の属性値である。端末装置2の属性値は、例えば、端末装置2の端末種類識別子、端末装置2の画面サイズ、アスペクト比である。端末格納部21には、位置情報、第一モデル情報または元情報が格納されても良い。 One or more terminal attribute values are stored in the terminal storage unit 21 constituting the terminal device 2 . A terminal attribute value is an attribute value of the terminal device 2 . The attribute values of the terminal device 2 are, for example, the terminal type identifier of the terminal device 2, the screen size of the terminal device 2, and the aspect ratio. The terminal storage unit 21 may store position information, first model information, or original information.

端末受付部22は、各種の指示や情報を受け付ける。各種の指示や情報は、例えば、位置情報、第一モデル情報、第一モデル情報を識別する識別子、アバター識別子、1以上の属性値、初期入力である。1以上の属性値は、例えば、役割属性値、由来属性値、端末属性値である。 The terminal reception unit 22 receives various instructions and information. Various instructions and information are, for example, position information, first model information, an identifier for identifying the first model information, an avatar identifier, one or more attribute values, and an initial input. One or more attribute values are, for example, a role attribute value, an origin attribute value, and a terminal attribute value.

なお、初期入力は、2以上のアバターを含む三次元空間を端末装置2に出力する前の入力であり、アバターの位置情報を含む。初期入力は、1または2以上のスコア取得元属性値を含む。初期入力は、アバターのモデル情報または元情報を含むことは好適である。初期入力は、アバター識別子を含んでも良い。初期入力に含まれるモデル情報は、第一モデル情報であることは好適である。スコア取得元属性値は、スコアを取得する元になる属性値であり、位置情報を含む。スコア取得元属性値は、通常、向き情報を含む。 Note that the initial input is an input before a three-dimensional space including two or more avatars is output to the terminal device 2, and includes avatar position information. The initial input includes one or more score source attribute values. The initial input preferably includes avatar model information or source information. Initial input may include an avatar identifier. The model information included in the initial input is preferably first model information. A score acquisition source attribute value is an attribute value from which a score is acquired, and includes position information. The score source attribute value typically includes orientation information.

ここで、受け付けとは、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。 Here, reception means reception of information input from input devices such as keyboards, mice, and touch panels, reception of information transmitted via wired or wireless communication lines, and recording on optical discs, magnetic discs, semiconductor memories, etc. This is a concept that includes acceptance of information read from a medium.

端末処理部23は、各種の処理を行う。各種の処理は、例えば、後述するスコア取得処理、後述するアバター構成処理である。なお、スコアの取得をアバター出力装置1が行う場合、端末処理部23は、スコア取得処理を行わない。 The terminal processing unit 23 performs various types of processing. The various types of processing are, for example, score acquisition processing described later and avatar configuration processing described later. When the avatar output device 1 obtains the score, the terminal processing unit 23 does not perform the score obtaining process.

端末処理部23は、例えば、1以上の他アバターの位置情報と1以上の端末属性値とを用いて、1以上の他アバターのスコアを取得する。 The terminal processing unit 23 acquires scores of one or more other avatars, for example, using position information of one or more other avatars and one or more terminal attribute values.

端末処理部23は、例えば、1以上の他の端末装置2における1以上の他アバターの位置情報と、自アバターの位置情報とを用いて、1以上の他アバターのスコアを取得する。 The terminal processing unit 23 acquires scores of one or more other avatars, for example, using position information of one or more other avatars in one or more other terminal devices 2 and position information of the own avatar.

具体的には、端末処理部23は、例えば、自アバターの位置情報、自アバターの向き情報、カメラ位置情報、カメラ向き情報、カメラの画角情報、1以上の各他アバターの位置情報のうちの2以上の情報を用いて、1以上の他アバターの動的属性値を取得する。 Specifically, the terminal processing unit 23, for example, among position information of its own avatar, orientation information of its own avatar, camera position information, camera orientation information, angle of view information of the camera, position information of one or more other avatars, obtains dynamic attribute values of one or more other avatars using two or more pieces of information of

端末処理部23は、例えば、自アバターの位置情報と他アバターの位置情報とを用いて、自アバターと他アバターとの距離を取得する。また、端末処理部23は、例えば、自アバターの位置情報と自アバターの向き情報と他アバターの位置情報とを用いて、他アバターが自アバターの視野の中に入っているか否かを示す動的属性値(視野内属性値と言っても良い。)を取得する。また、端末処理部23は、例えば、カメラ位置情報とカメラ向き情報と画角情報他アバターの位置情報とを用いて、他アバターがカメラによる撮影の範囲に入っているか否かを示す動的属性値(撮影範囲属性値と言っても良い。)を取得する。 The terminal processing unit 23 acquires the distance between the own avatar and the other avatars, for example, using the position information of the own avatar and the position information of the other avatars. In addition, the terminal processing unit 23 uses, for example, the position information of the own avatar, the direction information of the own avatar, and the position information of the other avatars, to generate an animation indicating whether or not the other avatar is within the field of view of the own avatar. Acquire a target attribute value (which may be called an in-field attribute value). In addition, the terminal processing unit 23 uses, for example, the camera position information, the camera orientation information, the angle of view information, and other avatar position information to determine whether or not the other avatar is within the shooting range of the camera. Acquire a value (which may be called a shooting range attribute value).

そして、端末処理部23は、例えば、他アバターに対して、三次元空間内における自アバターとの距離が近いほど大きな値のスコアを取得する。また、端末処理部23は、例えば、他アバターが自アバターの視野の中に入っている場合に、視野の中に入っていない場合と比較して、大きな値のスコアを取得する。また、端末処理部23は、例えば、カメラによる撮影の範囲に入っている場合に、撮影の範囲に入っていない場合と比較して、大きな値のスコアを取得する。 Then, the terminal processing unit 23 acquires, for example, a larger score for other avatars as the distance to the own avatar in the three-dimensional space is shorter. Also, the terminal processing unit 23 acquires a higher score when, for example, another avatar is within the field of view of the own avatar, compared to when the other avatar is not within the field of view. In addition, the terminal processing unit 23 acquires a higher score when, for example, the terminal is within the shooting range of the camera than when it is not within the shooting range.

端末処理部23は、例えば、他アバターに対して、カメラとの距離が近いほど、大きな値のスコアを取得する。 For example, the terminal processing unit 23 acquires a score of a larger value as the distance to the camera is closer to other avatars.

さらに具体的には、端末処理部23は、例えば、他アバターに対して、距離をパラメータとする減少関数により、スコアを取得する。端末処理部23は、例えば、距離、視野内属性値、および撮影範囲属性値に対応するスコアを対応表から取得する。かかる場合、対応表は、例えば、距離の範囲、視野内属性値、および撮影範囲属性値の組と、スコアとの対応を示す2以上の対応情報を有する表である。 More specifically, the terminal processing unit 23 acquires the scores of the other avatars, for example, using a decreasing function with the distance as a parameter. For example, the terminal processing unit 23 acquires scores corresponding to the distance, the in-field attribute value, and the shooting range attribute value from the correspondence table. In such a case, the correspondence table is, for example, a table having two or more pieces of correspondence information indicating correspondence between sets of distance ranges, in-field attribute values, and shooting range attribute values, and scores.

また、端末処理部23は、例えば、他アバターの1以上の静的属性値を用いて、以下のような他アバターのスコア取得処理を行っても良い。 Also, the terminal processing unit 23 may perform the following other avatar score acquisition processing, for example, using one or more static attribute values of the other avatar.

1以上の静的属性値は、例えば、他アバターの役割に関する属性値、他アバターの由来に関する属性値のいずれかを含む。端末処理部23は、例えば、他アバターの役割が「主催者」または「司会者」である場合、他アバターの役割が「観客」である場合と比較して、高いスコアを取得する。端末処理部23は、例えば、例えば、他アバターがUGCである場合、UGCでない場合と比較して、高いスコアを取得する。 One or more static attribute values include, for example, attribute values related to roles of other avatars and attribute values related to origins of other avatars. For example, the terminal processing unit 23 obtains a higher score when the role of the other avatar is "host" or "moderator" than when the role of the other avatar is "spectator". For example, when the other avatar is UGC, the terminal processing unit 23 obtains a higher score than when the other avatar is not UGC.

また、端末処理部23は、例えば、1以上の各他アバターのスコアを用いて、各他アバターに対応する判定結果を取得しても良い。端末処理部23は、スコアの幅と判定結果との対応を示す2以上の対応情報を有する対応表を参照し、スコアと対になる判定結果を、他アバターごとに取得する。端末処理部23は、例えば、スコアをパラメータとする演算式にスコアを代入し、当該演算式を実行し、判定結果を取得する。なお、判定結果は、他アバターを出力する際に使用するアバターを、2以上のアバター(例えば、第一アバターと第二アバター)のうちのいずれのアバターとするかの判定の結果である。 Further, the terminal processing unit 23 may acquire the determination result corresponding to each other avatar, for example, using one or more scores of each other avatar. The terminal processing unit 23 refers to a correspondence table having two or more pieces of correspondence information indicating correspondences between score ranges and determination results, and acquires the determination results paired with the scores for each of the other avatars. The terminal processing unit 23, for example, substitutes the score into an arithmetic expression having the score as a parameter, executes the arithmetic expression, and acquires the determination result. Note that the determination result is the result of determining which of two or more avatars (for example, the first avatar and the second avatar) should be used when outputting the other avatar.

また、端末処理部23は、例えば、アバター出力装置1から、1以上の他アバターに対するモデル情報を取得し、当該モデル情報を用いて、表示されるアバターを構成するアバター構成処理を行う。なお、アバター構成処理は、公知技術である。 Also, the terminal processing unit 23 acquires model information for one or more other avatars from the avatar output device 1, for example, and performs avatar configuration processing for configuring a displayed avatar using the model information. Note that the avatar configuration processing is a known technique.

また、端末処理部23は、受信されたワールド情報を用いて、ワールドを構成し、当該ワールドの中に2以上のアバターを配置し、アバターが配置された三次元空間を構成する。なお、端末処理部23は、2以上の各アバターを、対応する位置情報で特定される位置に配置する。 Further, the terminal processing unit 23 uses the received world information to construct a world, arranges two or more avatars in the world, and constructs a three-dimensional space in which the avatars are arranged. Note that the terminal processing unit 23 arranges each of the two or more avatars at positions specified by the corresponding position information.

端末送信部24は、各種の情報をアバター出力装置1に送信する。端末送信部24は、例えば、端末装置2に対応する自アバターの位置情報をアバター出力装置1に送信する。端末送信部24は、例えば、端末格納部21の1以上の属性値をアバター出力装置1に送信する。1以上の属性値は、例えば、自アバターの位置情報、自アバターの向き情報、端末属性値である。 The terminal transmission section 24 transmits various kinds of information to the avatar output device 1 . The terminal transmission unit 24 transmits, for example, position information of the own avatar corresponding to the terminal device 2 to the avatar output device 1 . The terminal transmission unit 24 transmits, for example, one or more attribute values in the terminal storage unit 21 to the avatar output device 1 . The one or more attribute values are, for example, self-avatar position information, self-avatar orientation information, and terminal attribute values.

端末送信部24は、端末装置2の端末識別子に対応付けて、1以上の他アバターのスコアまたは判定結果をアバター出力装置1に送信する。なお、ここで送信されるスコアまたは判定結果は、端末処理部23が取得した情報である。また、スコアまたは判定結果は、他アバターのアバター識別子に対応付いている。なお、スコアまの取得をアバター出力装置1が行う場合、端末送信部24は、スコアをアバター出力装置1に送信しない。判定結果の取得をアバター出力装置1が行う場合、端末送信部24は、判定結果をアバター出力装置1に送信しない。 The terminal transmission unit 24 transmits scores or determination results of one or more other avatars to the avatar output device 1 in association with the terminal identifier of the terminal device 2 . Note that the score or determination result transmitted here is information acquired by the terminal processing unit 23 . Also, the score or determination result is associated with the avatar identifiers of other avatars. Note that when the avatar output device 1 obtains the score, the terminal transmission unit 24 does not transmit the score to the avatar output device 1 . When the avatar output device 1 acquires the determination result, the terminal transmission unit 24 does not transmit the determination result to the avatar output device 1 .

端末受信部25は、アバター出力装置1から1以上の他の端末装置2に対応する他アバターの位置情報を受信する。端末受信部25は、例えば、他アバターの1以上の属性値をアバター出力装置1から受信する。 The terminal receiving unit 25 receives position information of other avatars corresponding to one or more other terminal devices 2 from the avatar output device 1 . The terminal reception unit 25 receives, for example, one or more attribute values of other avatars from the avatar output device 1 .

端末受信部25は、アバター出力装置1から他アバターのモデル情報であり、スコアまたは判定結果に応じた異なるモデル情報を受信する。 The terminal receiving unit 25 receives model information of other avatars from the avatar output device 1, which is different model information according to the score or determination result.

端末受信部25は、各アバターに対して、2種類以上のモデル情報を受信しても良い。かかる場合、端末処理部23は、他アバターのスコアまたは判定結果に応じて、他アバターを表示する際に使用するモデル情報を決定する。 The terminal reception unit 25 may receive two or more types of model information for each avatar. In such a case, the terminal processing unit 23 determines model information to be used when displaying the other avatar according to the scores or determination results of the other avatars.

端末受信部25は、アバター出力装置1からワールド情報をも受信することは好適である。 It is preferable that the terminal reception unit 25 also receive world information from the avatar output device 1 .

端末出力部26は、1以上の各モデル情報を用いて構成された1以上の他アバターを表示する。なお、表示は、他の表示媒体への送信でも良い。また、モデル情報は、2種類以上のモデル情報のうちの一のモデル情報である。 The terminal output unit 26 displays one or more other avatars configured using one or more pieces of model information. Note that the display may be transmitted to another display medium. Also, the model information is one of two or more types of model information.

端末出力部26は、自アバターをも表示することは好適である。 It is preferable that the terminal output unit 26 also displays the own avatar.

端末出力部26は、ワールド情報をも用いて、ワールドを表示することは好適である。 It is preferable that the terminal output unit 26 also use the world information to display the world.

端末出力部26は、アバターに対応する音声情報を出力することは好適である。出力される音声情報は、アバターのスコアまたは判定結果に応じた種類の音声情報(例えば、第一、または第二音声情報)であることは好適である。 The terminal output unit 26 preferably outputs audio information corresponding to the avatar. The audio information to be output is preferably the type of audio information (eg, first or second audio information) according to the avatar's score or determination result.

格納部11、ワールド格納部111、アバター格納部112、および端末格納部21は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。 The storage unit 11, the world storage unit 111, the avatar storage unit 112, and the terminal storage unit 21 are preferably non-volatile recording media, but can also be realized with volatile recording media.

格納部11等に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が格納部11等で記憶されるようになってもよく、通信回線等を介して送信された情報が格納部11等で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報が格納部11等で記憶されるようになってもよい。 It does not matter how the information is stored in the storage unit 11 or the like. For example, information may be stored in the storage unit 11 or the like via a recording medium, or information transmitted via a communication line or the like may be stored in the storage unit 11 or the like. Alternatively, information input via an input device may be stored in the storage unit 11 or the like.

受付部12、アバター受信部121、および端末受信部25は、通常、無線または有線の通信手段で実現される。 The reception unit 12, the avatar reception unit 121, and the terminal reception unit 25 are usually realized by wireless or wired communication means.

処理部13、モデル圧縮部131、アバター蓄積部132、決定部133、アバター取得部134、音声取得部135、および端末処理部23は、通常、プロセッサやメモリ等から実現され得る。処理部13等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。なお、プロセッサは、MPU、CPU、GPU等であり、その種類は問わない。 The processing unit 13, the model compression unit 131, the avatar storage unit 132, the determination unit 133, the avatar acquisition unit 134, the voice acquisition unit 135, and the terminal processing unit 23 can usually be implemented by a processor, memory, or the like. The processing procedure of the processing unit 13 and the like is normally realized by software, and the software is recorded in a recording medium such as a ROM. However, it may be realized by hardware (dedicated circuit). Note that the processor may be MPU, CPU, GPU, or the like, and may be of any type.

出力部14、位置情報送信部141、アバター出力部142、および音声出力部143は、通常、無線または有線の通信手段で実現される。 The output unit 14, the position information transmission unit 141, the avatar output unit 142, and the voice output unit 143 are usually realized by wireless or wired communication means.

端末受付部22は、タッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。 The terminal reception unit 22 can be realized by a device driver for input means such as a touch panel or a keyboard, control software for a menu screen, or the like.

端末出力部26は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。端末出力部26は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。 The terminal output unit 26 may or may not include an output device such as a display or speaker. The terminal output unit 26 can be realized by output device driver software, or by output device driver software and an output device.

次に、情報システムAの動作例について説明する。まず、アバター出力装置1の動作例について、図3のフローチャートを用いて説明する。 Next, an operation example of the information system A will be described. First, an operation example of the avatar output device 1 will be described using the flowchart of FIG.

(ステップS301)アバター受信部121は、端末装置2からモデル情報等を受信したか否かを判断する。モデル情報等を受信した場合はステップS302に行き、モデル情報等を受信しなかった場合はステップS303に行く。なお、モデル情報等は、端末装置2に対応するアバターの第一モデル情報または元情報を含む情報である。モデル情報等は、例えば、端末装置2に対応するアバターの位置情報を含むことは好適である。モデル情報等は、アバター識別子を含んでも良い。なお、アバター識別子は、モデル情報等の受信に応じて、処理部13がユニークなアバター識別子を取得しても良い。ユニークなアバター識別子を取得する方法は問わない。また、ステップS301では、2以上の各端末装置2から、モデル情報等が受信される。 (Step S<b>301 ) The avatar reception unit 121 determines whether model information or the like has been received from the terminal device 2 . If the model information or the like has been received, the process goes to step S302, and if the model information or the like has not been received, the process goes to step S303. The model information or the like is information including first model information or original information of the avatar corresponding to the terminal device 2 . The model information and the like preferably include position information of the avatar corresponding to the terminal device 2, for example. Model information and the like may include avatar identifiers. As for the avatar identifier, the processing unit 13 may acquire a unique avatar identifier in response to receiving model information or the like. It doesn't matter how you get the unique avatar identifier. Also, in step S301, model information and the like are received from each of two or more terminal devices 2. FIG.

(ステップS302)アバター蓄積部132は、受信されたモデル情報等をアバター識別子に対応付けて蓄積する。ステップS301に戻る。 (Step S302) The avatar storage unit 132 stores the received model information and the like in association with the avatar identifier. Return to step S301.

(ステップS303)処理部13は、圧縮処理等を開始するか否かを判断する。圧縮処理等を開始する場合はステップS304に行き、圧縮処理等を開始しない場合はステップS312に行く。なお、圧縮処理等は、ステップS304からS311の処理である。また、圧縮処理等を開始するための条件は問わない。かかる条件は、例えば、予め決められた時刻になったこと、処理部13が参加予定のすべての端末装置2からモデル情報等が受信された、と判断したことである。また、かかる条件は、例えば、受付部12が圧縮処理等のリクエストを、端末装置2から受信したことである。 (Step S303) The processing unit 13 determines whether or not to start compression processing or the like. If the compression process or the like is to be started, the process goes to step S304, and if the compression process or the like is not to be started, the process goes to step S312. Note that the compression process and the like are the processes from steps S304 to S311. Moreover, the conditions for starting the compression processing and the like are not limited. Such conditions are, for example, that a predetermined time has come, and that the processing unit 13 has determined that the model information and the like have been received from all the terminal devices 2 scheduled to participate. Further, such a condition is, for example, that the reception unit 12 has received a request for compression processing or the like from the terminal device 2 .

(ステップS304)処理部13は、カウンタiに1を代入する。 (Step S304) The processing unit 13 substitutes 1 for the counter i.

(ステップS305)圧縮処理等の対象のi番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS306に行き、存在しない場合はステップS310に行く。 (Step S305) It is determined whether or not the avatar identifier of the i-th avatar to be subjected to compression processing or the like exists. If the i-th avatar identifier exists, go to step S306, otherwise go to step S310.

(ステップS306)モデル圧縮部131は、i番目のアバター識別子の第一モデル情報を取得する。 (Step S306) The model compression unit 131 acquires the first model information of the i-th avatar identifier.

モデル圧縮部131は、受信された第一モデル情報を取得しても良いし、受信された元情報に対応する第一モデル情報を取得しても良い。つまり、モデル圧縮部131は、例えば、i番目のアバター識別子と対になる第一モデル情報をアバター格納部112から取得する。モデル圧縮部131は、例えば、i番目のアバター識別子と対になる元情報をアバター格納部112から取得し、当該元情報を用いて、第一モデル情報を取得する。かかる場合、元情報は、例えば、第一モデル情報の識別子、または第一モデル情報を構成する元になるモデル情報である。 The model compression unit 131 may acquire the received first model information, or may acquire the first model information corresponding to the received original information. That is, the model compression unit 131 acquires, for example, the first model information paired with the i-th avatar identifier from the avatar storage unit 112 . For example, the model compression unit 131 acquires the original information paired with the i-th avatar identifier from the avatar storage unit 112, and acquires the first model information using the original information. In such a case, the original information is, for example, the identifier of the first model information, or the model information that constitutes the first model information.

(ステップS307)モデル圧縮部131は、ステップS306で取得した第一モデル情報より小さいデータサイズの1または2種類以上のモデル情報を取得する。1種類以上のモデル情報は、第二モデル情報を含む。 (Step S307) The model compression unit 131 acquires one or more types of model information having a data size smaller than that of the first model information acquired in step S306. The one or more types of model information includes second model information.

(ステップS308)アバター蓄積部132は、i番目のアバター識別子に対応付けて、第一モデル情報と第二モデル情報とを含むアバター情報をアバター格納部112に蓄積する。なお、アバター情報を蓄積することは、アバター情報が蓄積された状態にすることであり、元々、アバター格納部112に格納されていた情報は、ここで、蓄積する必要はない。 (Step S308) The avatar storage unit 132 stores avatar information including the first model information and the second model information in the avatar storage unit 112 in association with the i-th avatar identifier. Accumulating avatar information means accumulating avatar information, and the information originally stored in avatar storage unit 112 need not be accumulated here.

(ステップS309)処理部13は、カウンタiを1、インクリメントする。ステップS305に戻る。 (Step S309) The processing unit 13 increments the counter i by 1. Return to step S305.

(ステップS310)処理部13は、全アバターの1以上のスコア取得元属性値を、アバター識別子に対応付けて取得する。なお、スコア取得元属性値は、スコアを取得する元になる属性値であり、位置情報を含む。スコア取得元属性値は、通常、向き情報を含む。 (Step S310) The processing unit 13 acquires one or more score acquisition source attribute values of all avatars in association with avatar identifiers. Note that the score acquisition source attribute value is an attribute value from which a score is acquired, and includes position information. The score source attribute value typically includes orientation information.

(ステップS311)位置情報送信部141は、ステップS310で取得された各アバターの1以上のスコア取得元属性値をアバター識別子に対応付けて、2以上の全端末装置2に送信する。ステップS301に戻る。 (Step S311) The location information transmission unit 141 associates one or more score acquisition source attribute values of each avatar acquired in step S310 with the avatar identifier and transmits them to all two or more terminal devices 2. FIG. Return to step S301.

(ステップS312)受付部12は、端末装置2からリクエストを受信したか否かを判断する。リクエストを受信した場合はステップS313に行き、リクエストを受信しなかった場合はステップS301に戻る。なお、ステップS312において、2以上の全端末装置2からリクエストを受信する。なお、リクエストは、アバター識別子に対応付けられた1以上の他アバターの判定結果またはスコアを含む。 (Step S<b>312 ) The reception unit 12 determines whether or not a request has been received from the terminal device 2 . If the request has been received, the process goes to step S313, and if the request has not been received, the process returns to step S301. In step S312, requests are received from all two or more terminal devices 2. FIG. The request includes determination results or scores of one or more other avatars associated with the avatar identifier.

(ステップS313)処理部13は、アバター情報取得処理を行う。アバター情報取得処理とは、アバターを表示するためのモデル情報等を取得する処理である。また、アバター情報取得処理は、ワールド情報を取得しても良い。アバター情報取得処理の例について、図4のフローチャートを用いて説明する。 (Step S313) The processing unit 13 performs avatar information acquisition processing. The avatar information acquisition process is a process of acquiring model information and the like for displaying an avatar. Also, the avatar information acquisition process may acquire world information. An example of avatar information acquisition processing will be described with reference to the flowchart of FIG.

(ステップS314)アバター出力部142は、ステップS313で取得された情報を、リクエストを送信してきた端末装置2に送信する。ステップS301に戻る。なお、送信される情報は、通常、アバターのモデル情報を含む。 (Step S314) The avatar output unit 142 transmits the information acquired in step S313 to the terminal device 2 that transmitted the request. Return to step S301. The transmitted information usually includes avatar model information.

なお、図3のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Note that in the flowchart of FIG. 3, the process ends when the power is turned off or an interrupt for ending the process occurs.

次に、ステップS313のアバター情報取得処理の例について、図4のフローチャートを用いて説明する。 Next, an example of avatar information acquisition processing in step S313 will be described using the flowchart of FIG.

(ステップS401)決定部133は、カウンタiに1を代入する。 (Step S401) The determination unit 133 substitutes 1 for the counter i.

(ステップS402)決定部133は、アバター情報取得処理に対応するi番目のアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS403に行き、i番目のアバター識別子が存在しない場合はステップS406に行く。なお、i番目のアバター識別子は、通常、受信されたリクエストに含まれるi番目のアバター識別子である。 (Step S402) The determination unit 133 determines whether or not the i-th avatar identifier corresponding to the avatar information acquisition process exists. If the i-th avatar identifier exists, go to step S403, and if the i-th avatar identifier does not exist, go to step S406. Note that the i-th avatar identifier is usually the i-th avatar identifier included in the received request.

(ステップS403)決定部133は、i番目のアバター識別子に対応する判定結果またはスコアを取得する。また、決定部133は、スコアが取得された場合、当該スコアに対応する判定結果を取得する。なお、判定結果は、通常、取得するモデル情報の種類を特定する種類識別子である。種類識別子は、例えば、第一モデル情報に対応する「第一」、第二モデル情報に対応する「第二」である。 (Step S403) The determination unit 133 acquires the determination result or score corresponding to the i-th avatar identifier. Also, when a score is acquired, the determination unit 133 acquires a determination result corresponding to the score. Note that the determination result is usually a type identifier that specifies the type of model information to be acquired. The type identifier is, for example, "first" corresponding to the first model information and "second" corresponding to the second model information.

(ステップS404)アバター取得部134は、i番目のアバター識別子と判定結果に対応するモデル情報を、i番目のアバター識別子に対応付けて取得する。 (Step S404) The avatar acquisition unit 134 acquires model information corresponding to the i-th avatar identifier and the determination result in association with the i-th avatar identifier.

アバター取得部134は、例えば、当該モデル情報をアバター格納部112から取得する。アバター取得部134は、例えば、当該モデル情報を第一モデル情報から生成する。 The avatar acquisition unit 134 acquires the model information from the avatar storage unit 112, for example. The avatar acquisition unit 134, for example, generates the model information from the first model information.

(ステップS405)決定部133は、カウンタiを1、インクリメントする。ステップS402に戻る。 (Step S405) The determination unit 133 increments the counter i by 1. Return to step S402.

(ステップS406)アバター取得部134は、ワールド情報を送信するか否かを判断する。ワールド情報を送信する場合はステップS407に行き、送信しない場合はステップS408に行く。なお、ワールド情報を送信する場合は、通常、動作開始から、一度も当該端末装置2にワールド情報を送信していない場合である。 (Step S406) The avatar acquisition unit 134 determines whether or not to transmit world information. If the world information is to be transmitted, go to step S407; if not, go to step S408. It should be noted that when world information is transmitted, it is usually the case that world information has not been transmitted to the terminal device 2 even once since the start of the operation.

(ステップS407)アバター取得部134は、ワールド情報をワールド格納部111から取得する。 (Step S<b>407 ) The avatar acquisition unit 134 acquires world information from the world storage unit 111 .

(ステップS408)アバター取得部134は、1以上の各アバター識別子に対応付けられているモデル情報を含む情報を構成する。上位処理にリターンする。 (Step S408) The avatar acquisition unit 134 configures information including model information associated with one or more avatar identifiers. Return to upper process.

なお、かかる情報は、ワールド情報を含んでも良い。かかる情報は、端末装置2に送信される情報である。 Note that such information may include world information. Such information is information transmitted to the terminal device 2 .

次に、端末装置2の動作例について、図5のフローチャートを用いて説明する。 Next, an operation example of the terminal device 2 will be described using the flowchart of FIG.

(ステップS501)端末受付部22は、動作開始前の入力である初期入力を受け付けたか否かを判断する。初期入力を受け付けた場合はステップS502に行き、初期入力を受け付けなかった場合はステップS512に行く。なお、初期入力は、1以上のスコア取得元属性値を含む。 (Step S501) The terminal reception unit 22 determines whether or not an initial input, which is an input before the start of operation, has been received. If the initial input is accepted, the process goes to step S502, and if the initial input is not accepted, the process goes to step S512. Note that the initial input includes one or more score acquisition source attribute values.

(ステップS502)端末処理部23は、ステップS501で受け付けられた初期入力を用いて、送信する情報を構成する。端末送信部24は、当該情報をアバター出力装置1に送信する。なお、当該情報は、例えば、モデル情報、位置情報、向き情報等を含む。 (Step S502) The terminal processing unit 23 uses the initial input received in step S501 to construct information to be transmitted. The terminal transmission unit 24 transmits the information to the avatar output device 1 . Note that the information includes, for example, model information, position information, direction information, and the like.

(ステップS503)端末受信部25は、ステップS502における送信に応じて、全アバターのスコア取得元属性値を受信したか否かを判断する。スコア取得元属性値を受信した場合はステップS504に行き、スコア取得元属性値を受信しなかった場合はステップS503に戻る。なお、端末受信部25は、各アバターのアバター識別子に対応付けて、アバターごとに、1以上のスコア取得元属性値を受信する。 (Step S503) The terminal reception unit 25 determines whether or not the score acquisition source attribute values of all avatars have been received in response to the transmission in step S502. If the score acquisition source attribute value has been received, the process proceeds to step S504, and if the score acquisition source attribute value has not been received, the process returns to step S503. Note that the terminal receiving unit 25 receives one or more score acquisition source attribute values for each avatar in association with the avatar identifier of each avatar.

(ステップS504)端末処理部23は、各アバターの1以上のスコア取得元属性値を用いて、各アバターのスコアを取得する。かかるスコア取得処理の例について、図6のフローチャートを用いて説明する。なお、スコア取得処理において、端末処理部23は、スコアを取得し、かつ当該スコアを用いて、判定結果を取得しても良い。スコア取得処理において、端末処理部23は、スコアを取得し、判定結果を取得しなくても良い。かかる場合、アバター出力装置1が判定結果を取得する。 (Step S504) The terminal processing unit 23 acquires the score of each avatar using one or more score acquisition source attribute values of each avatar. An example of such score acquisition processing will be described with reference to the flowchart of FIG. In addition, in the score acquisition process, the terminal processing unit 23 may acquire the score and use the score to acquire the determination result. In the score acquisition process, the terminal processing unit 23 may acquire the score and not acquire the determination result. In such a case, the avatar output device 1 acquires the determination result.

(ステップS505)端末処理部23は、ステップS504で取得したスコアまたは判定結果を用いて、リクエストを構成する。なお、リクエストは、各アバターのアバター識別子に対応付くスコアまたは判定結果を有する。 (Step S505) The terminal processing unit 23 forms a request using the score or determination result acquired in step S504. Note that the request has a score or determination result associated with each avatar's avatar identifier.

(ステップS506)端末送信部24は、ステップS505で構成されたリクエストをアバター出力装置1に送信する。リクエストには、例えば、他アバターごとに取得したスコアと対応するアバター識別子を含めてもよいし、端末処理部23で判定結果を取得する場合は他アバターごとの判定結果と対応する識別子を含めてもよい。 (Step S<b>506 ) The terminal transmission unit 24 transmits the request configured in step S<b>505 to the avatar output device 1 . The request may include, for example, the score obtained for each of the other avatars and the corresponding avatar identifier. good too.

(ステップS507)端末受信部25は、ステップS506におけるリクエストの送信に応じて、情報を受信したか否かを判断する。情報を受信した場合はステップS508に行き、情報を受信しなかった場合はステップS507に戻る。なお、情報は、通常、リクエストに応じてアバター出力装置1が出力した1以上の各アバターのモデル情報を含む。また、情報は、ワールド情報を含むことは好適である。また、情報は、1以上の各アバター識別子に対応付いた音声情報を含んでも良い。さらに、受信された情報は、端末格納部21に、少なくとも一時蓄積される。 (Step S507) The terminal reception unit 25 determines whether information has been received in response to the transmission of the request in step S506. If the information has been received, the process goes to step S508, and if the information has not been received, the process returns to step S507. The information usually includes model information of one or more avatars output by the avatar output device 1 in response to a request. Also, the information preferably includes world information. The information may also include audio information associated with each of the one or more avatar identifiers. Further, the received information is temporarily accumulated in the terminal storage unit 21 at least.

(ステップS508)端末処理部23は、ステップS507で受信された情報を用いて、表示情報構成処理を行う。表示情報構成処理とは、端末装置2に表示する情報を構成する処理である。表示情報構成処理の例について、図7のフローチャートを用いて説明する。 (Step S508) The terminal processing unit 23 performs display information configuration processing using the information received in step S507. The display information configuration processing is processing for configuring information to be displayed on the terminal device 2 . An example of display information configuration processing will be described with reference to the flowchart of FIG.

(ステップS509)端末出力部26は、ステップS508で構成された情報を出力する。なお、出力される情報は、通常、ワールドと1または2以上のアバターとを含む。 (Step S509) The terminal output unit 26 outputs the information configured in step S508. Note that the output information usually includes the world and one or more avatars.

(ステップS510)端末処理部23は、ステップS507で受信された情報が音声情報を有するか否かを判断する。音声情報を有する場合はステップS511に行き、音声情報を有しない場合はステップS501に戻る。 (Step S510) The terminal processing unit 23 determines whether or not the information received in step S507 includes voice information. If the voice information is present, the process goes to step S511, and if the voice information is not present, the process returns to step S501.

(ステップS511)処理部13等は、音声出力処理を行う。ステップS501に戻る。音声出力処理の例について、図8のフローチャートを用いて説明する。 (Step S511) The processing unit 13 and the like perform voice output processing. Return to step S501. An example of audio output processing will be described with reference to the flowchart of FIG.

(ステップS512)端末受付部22は、ユーザからの入力を受け付けたか否かを判断する。入力を受け付けた場合はステップS513に行き、入力を受け付けなかった場合はステップS519に行く。ユーザからの入力は、例えば、自アバターの位置情報の変更の入力、自アバターの向き情報の変更の入力、自アバターの音声情報である。 (Step S512) The terminal reception unit 22 determines whether or not an input from the user has been received. If the input is accepted, the process goes to step S513, and if the input is not accepted, the process goes to step S519. The input from the user is, for example, an input to change the location information of the own avatar, an input to change the orientation information of the own avatar, and voice information of the own avatar.

(ステップS513)端末処理部23は、ステップS512における入力に基づいて、属性値(例えば、変化した自アバターの位置情報、変化した自アバターの向き情報など)を取得する。端末処理部23は、当該入力に基づいて、変更されるスコアを取得する。また、ステップS519で、情報が受信された場合、端末処理部23は、受信された情報に基づいて、変更されるスコアを取得する。かかるスコア取得処理について、図6のフローチャートを用いて説明する。 (Step S513) Based on the input in step S512, the terminal processing unit 23 acquires attribute values (for example, changed position information of the own avatar, changed direction information of the own avatar, etc.). The terminal processing unit 23 acquires the score to be changed based on the input. Also, in step S519, when information is received, the terminal processing unit 23 acquires a score to be changed based on the received information. Such score acquisition processing will be described with reference to the flowchart of FIG.

(ステップS514)端末処理部23は、ステップS504で取得したスコアまたは判定結果を用いて、リクエストを構成する。なお、リクエストは、各アバターのアバター識別子に対応付くスコアまたは判定結果を有する。 (Step S514) The terminal processing unit 23 forms a request using the score or determination result acquired in step S504. Note that the request has a score or determination result associated with each avatar's avatar identifier.

また、2回目以降のリクエストの送付の場合、端末処理部23は、前回のスコアまたは判定結果と、異なったスコアまたは判定結果が得られたアバターに関するリクエストを構成することは好適である。かかるリクエストは、スコアまたは判定結果に変化のないアバターのスコアまたは判定結果を含まない。かかるリクエストは、異なったスコアまたは判定結果が得られたアバターのアバター識別子と、スコアまたは判定結果を含む。 Also, in the case of sending a request for the second time or later, the terminal processing unit 23 preferably composes a request regarding an avatar for which a score or determination result different from the previous score or determination result is obtained. Such requests do not include scores or judgments for avatars whose scores or judgments do not change. Such requests include the avatar identifiers of avatars with different scores or verdicts and the scores or verdicts.

また、各アバターのスコアまたは判定結果に変化がない等の場合には、ステップS514において、リクエストが構成されない場合もあり得る。 Further, if there is no change in the score or determination result of each avatar, the request may not be configured in step S514.

(ステップS515)端末処理部23は、ステップS514において、リクエストが構成されたか否かを判断する。リクエストが構成された場合はステップS506に行き、リクエストが構成されなかった場合はステップS516に行く。 (Step S515) In step S514, the terminal processing unit 23 determines whether or not a request has been configured. If the request is configured, go to step S506; if the request is not configured, go to step S516.

(ステップS516)端末処理部23は、ステップS512における入力に対応する情報を送信するか否かを判断する。情報を送信する場合はステップS517に行き、情報を送信しない場合はステップS508に行く。なお、入力に対応する情報は、例えば、ユーザが入力した音声情報、入力後の新しい自アバターの位置や向きに関する情報である。 (Step S516) The terminal processing unit 23 determines whether or not to transmit the information corresponding to the input in step S512. If information is to be transmitted, go to step S517; if information is not to be transmitted, go to step S508. The information corresponding to the input is, for example, voice information input by the user, and information regarding the new position and orientation of the own avatar after the input.

(ステップS517)端末処理部23は、ステップS512における入力に対応する送信情報を構成する。 (Step S517) The terminal processing unit 23 configures transmission information corresponding to the input in step S512.

(ステップS518)端末送信部24は、ステップS517で構成された送信情報を、自分のアバター識別子と対にして、アバター出力装置1に送信する。ステップS508に行く。 (Step S518) The terminal transmission unit 24 pairs the transmission information configured in step S517 with its own avatar identifier and transmits it to the avatar output device 1 . Go to step S508.

(ステップS519)端末受信部は、アバター出力装置1から情報を受信したか否かを判断する。情報を受信した場合はステップS513に行き、情報を受信しなかった場合はステップS501に戻る。なお、情報とは、例えば、音声情報、他アバターの変更された位置情報、他アバターの変更された向き情報である。 (Step S<b>519 ) The terminal reception unit determines whether information has been received from the avatar output device 1 . If the information has been received, the process goes to step S513, and if the information has not been received, the process returns to step S501. The information is, for example, voice information, changed position information of other avatars, and changed direction information of other avatars.

なお、図5のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Note that in the flowchart of FIG. 5, the process ends when the power is turned off or an interrupt to end the process occurs.

次に、ステップS504のスコア取得処理の例について、図6のフローチャートを用いて説明する。 Next, an example of score acquisition processing in step S504 will be described using the flowchart of FIG.

(ステップS601)端末処理部23は、スコアを取得するための1以上の属性値を取得する。ここでの1以上の属性値は、自アバターの位置情報を含む。ここでの1以上の属性値は、例えば、自アバターの向き情報、カメラ位置情報、カメラ向き情報、カメラの画角情報を含む。 (Step S601) The terminal processing unit 23 acquires one or more attribute values for acquiring a score. One or more attribute values here include position information of the own avatar. The one or more attribute values here include, for example, orientation information of the own avatar, camera position information, camera orientation information, and camera angle of view information.

(ステップS602)端末処理部23は、カウンタiに1を代入する。 (Step S602) The terminal processing unit 23 substitutes 1 for the counter i.

(ステップS603)端末処理部23は、スコアを取得する対象のi番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS604に行き、存在しない場合は上位処理にリターンする。 (Step S603) The terminal processing unit 23 determines whether or not there is an avatar identifier of the i-th avatar whose score is to be acquired. If the i-th avatar identifier exists, go to step S604; otherwise, return to the upper process.

(ステップS604)端末処理部23は、i番目のアバター識別子と対になる1以上のスコア取得元属性値を取得する。なお、1以上のスコア取得元属性値は、例えば、i番目のアバターの位置情報、向き情報、役割属性値、由来属性値である。 (Step S604) The terminal processing unit 23 acquires one or more score acquisition source attribute values paired with the i-th avatar identifier. Note that one or more score acquisition source attribute values are, for example, position information, direction information, role attribute value, and origin attribute value of the i-th avatar.

(ステップS605)端末処理部23は、自アバターの位置情報と自アバターの向き情報とi番目のアバターの位置情報とを用いて、ユーザ視野属性値を取得する。なお、ユーザ視野属性値は、自アバターの視野の中にi番目のアバターが存在するか否かを示す情報である。 (Step S605) The terminal processing unit 23 acquires the user visual field attribute value using the position information of the own avatar, the orientation information of the own avatar, and the position information of the i-th avatar. Note that the user visual field attribute value is information indicating whether or not the i-th avatar exists within the visual field of the own avatar.

(ステップS606)端末処理部23は、カメラ位置情報とカメラ向き情報とカメラの画角情報とi番目のアバターの位置情報とを用いて、カメラ視野属性値を取得する。なお、カメラ視野属性値は、i番目のアバターがカメラの撮影範囲であるか否かを示す情報である。 (Step S606) The terminal processing unit 23 acquires the camera view attribute value using the camera position information, the camera direction information, the angle of view information of the camera, and the position information of the i-th avatar. Note that the camera field of view attribute value is information indicating whether or not the i-th avatar is within the imaging range of the camera.

(ステップS607)端末処理部23は、自アバターの位置情報とi番目のアバターの位置情報とを用いて、ユーザ距離属性値を取得する。なお、ユーザ距離属性値は、自アバターとi番目のアバターとの距離を特定する情報である。 (Step S607) The terminal processing unit 23 acquires the user distance attribute value using the position information of its own avatar and the position information of the i-th avatar. Note that the user distance attribute value is information specifying the distance between the own avatar and the i-th avatar.

(ステップS608)端末処理部23は、自アバターの向き情報とi番目のアバターの向き情報とを用いて、ユーザ向き属性値を取得する。なお、ユーザ向き属性値は、自アバターとi番目のアバターとの相対的な向きに関する情報であり、例えば、自アバターとi番目のアバターとの角度に関する情報、自アバターとi番目のアバターとが向き合っているか否かを示す情報である。 (Step S608) The terminal processing unit 23 acquires the user orientation attribute value using the orientation information of the own avatar and the orientation information of the i-th avatar. Note that the user orientation attribute value is information about the relative orientation between the self avatar and the i-th avatar. This is information indicating whether or not they are facing each other.

(ステップS609)端末処理部23は、カメラ位置情報とi番目のアバターの位置情報とを用いて、カメラ距離属性値を取得する。なお、カメラ距離属性値は、カメラとi番目のアバターとの距離を特定する情報である。 (Step S609) The terminal processing unit 23 acquires a camera distance attribute value using the camera position information and the i-th avatar position information. Note that the camera distance attribute value is information specifying the distance between the camera and the i-th avatar.

(ステップS610)端末処理部23は、ステップS605からステップS609で取得した動的属性値のうち、1または2以上の動的属性値を用いて、i番目のアバターのスコアを取得する。 (Step S610) The terminal processing unit 23 acquires the score of the i-th avatar using one or more of the dynamic attribute values acquired in steps S605 to S609.

(ステップS611)端末処理部23は、i番目のアバターのスコアを用いて、i番目のアバターの判定結果を取得する。なお、判定結果は、ここでは、例えば、種類識別子である。なお、端末処理部23は、通常、スコアが高いほど、大きなデータサイズに対応する判定結果を取得する。 (Step S611) The terminal processing unit 23 acquires the determination result of the i-th avatar using the score of the i-th avatar. Note that the determination result is, for example, a type identifier here. Note that the terminal processing unit 23 normally acquires a determination result corresponding to a larger data size as the score is higher.

(ステップS612)端末処理部23は、i番目のアバター識別子に対応付けて、判定結果を一時蓄積する。なお、端末処理部23は、i番目のアバター識別子に対応付けて、スコアを一時蓄積しても良い。 (Step S612) The terminal processing unit 23 temporarily accumulates the determination result in association with the i-th avatar identifier. Note that the terminal processing unit 23 may temporarily store the score in association with the i-th avatar identifier.

(ステップS613)端末処理部23は、カウンタiに1を1、インクリメントする。ステップS603に戻る。 (Step S613) The terminal processing unit 23 increments the counter i by 1. Return to step S603.

なお、図6のフローチャートにおいて、端末処理部23は、判定結果を取得しなくても良い。かかる場合、端末処理部23は、i番目のアバター識別子に対応付けて、スコアを一時蓄積する。 In addition, in the flowchart of FIG. 6, the terminal processing unit 23 does not need to acquire the determination result. In such a case, the terminal processing unit 23 temporarily accumulates the score in association with the i-th avatar identifier.

次に、ステップS508の表示情報構成処理の例について、図7のフローチャートを用いて説明する。 Next, an example of display information configuration processing in step S508 will be described using the flowchart of FIG.

(ステップS701)端末処理部23は、ワールド情報を取得する。なお、ワールド情報は、アバター出力装置1から受信された情報、または端末格納部21に格納されている情報である。 (Step S701) The terminal processing unit 23 acquires world information. The world information is information received from the avatar output device 1 or information stored in the terminal storage section 21 .

(ステップS702)端末処理部23は、カウンタiに1を代入する。 (Step S702) The terminal processing unit 23 substitutes 1 for the counter i.

(ステップS703)端末処理部23は、構成する対象のi番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS704に行き、i番目のアバター識別子が存在しない場合は上位処理にリターンする。 (Step S703) The terminal processing unit 23 determines whether or not the avatar identifier of the i-th avatar to be configured exists. If the i-th avatar identifier exists, go to step S704, and if the i-th avatar identifier does not exist, return to the upper process.

(ステップS704)端末処理部23は、i番目のアバター識別子と対になる1以上の属性値等を端末格納部21から取得する。 (Step S704) The terminal processing unit 23 acquires from the terminal storage unit 21 one or more attribute values paired with the i-th avatar identifier.

(ステップS705)端末処理部23は、ステップS704で取得した1以上の属性値等を用いて、i番目のアバターを出力するか否かを判断する。i番目のアバターを出力する場合はステップS706に行き、i番目のアバターを出力しない場合はステップS70に行く。端末処理部23は、例えば、カメラに視野に入っていない他アバター、またはユーザの自アバターの視野に入っていない他アバターは、出力しないと判断する。 (Step S705) The terminal processing unit 23 determines whether or not to output the i-th avatar using one or more attribute values acquired in step S704. If the i-th avatar is to be output, go to step S706. If the i-th avatar is not to be output, go to step S70. For example, the terminal processing unit 23 determines not to output other avatars that are not in the field of view of the camera or other avatars that are not in the field of view of the user's own avatar.

(ステップS706)端末処理部23は、i番目のアバター識別子と対になるモデル情報を取得する。なお、モデル情報は、例えば、各アバターの判定結果に基づいて決定された第一モデル情報または第二モデル情報である。 (Step S706) The terminal processing unit 23 acquires model information paired with the i-th avatar identifier. The model information is, for example, first model information or second model information determined based on the determination result of each avatar.

(ステップS707)端末処理部23は、ステップS706で取得したモデル情報を用いて表示するアバターを構成する。 (Step S707) The terminal processing unit 23 configures an avatar to be displayed using the model information acquired in step S706.

(ステップS708)端末処理部23は、i番目のアバター識別子と対になる位置情報を用いて、ステップS707で構成したアバターを、ステップS701で取得したワールド情報により構成されるワールドの中に配置する。 (Step S708) The terminal processing unit 23 places the avatar configured in step S707 in the world configured by the world information acquired in step S701 using the position information paired with the i-th avatar identifier. .

(ステップS709)端末処理部23は、カウンタiに1を1、インクリメントする。ステップS703に戻る。 (Step S709) The terminal processing unit 23 increments the counter i by 1. Return to step S703.

次に、ステップS511の音声出力処理の例について、図8のフローチャートを用いて説明する。 Next, an example of the audio output processing in step S511 will be described using the flowchart of FIG.

(ステップS801)端末処理部23は、カウンタiに1を代入する。 (Step S801) The terminal processing unit 23 substitutes 1 for the counter i.

(ステップS802)端末処理部23は、i番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS803に行き、i番目のアバター識別子が存在しない場合は上位処理にリターンする。 (Step S802) The terminal processing unit 23 determines whether or not the avatar identifier of the i-th avatar exists. If the i-th avatar identifier exists, go to step S803, and if the i-th avatar identifier does not exist, return to the upper process.

(ステップS803)端末処理部23は、i番目のアバター識別子と対になる音声情報が存在するか否かを判断する。当該音声情報が存在する場合はステップS804に行き、存在しない場合はステップS807に行く。なお、i番目のアバター識別子と対になる音声情報は、例えば、アバター出力装置1から受信された情報である。 (Step S803) The terminal processing unit 23 determines whether or not there is voice information paired with the i-th avatar identifier. If the audio information exists, go to step S804, otherwise go to step S807. Note that the audio information paired with the i-th avatar identifier is information received from the avatar output device 1, for example.

(ステップS804)端末処理部23は、i番目のアバター識別子と対になるスコアまたは判定結果を取得する。 (Step S804) The terminal processing unit 23 acquires a score or determination result paired with the i-th avatar identifier.

(ステップS805)端末処理部23は、ステップS804におけるスコアまたは判定結果に応じた種類の音声情報を取得する。 (Step S805) The terminal processing unit 23 acquires the type of voice information according to the score or determination result in step S804.

ここで、i番目のアバター識別子と対にして2以上の種類の音声情報が格納されている場合、例えば、端末処理部23は、i番目のアバター識別子と対になる音声情報(例えば、第一音声情報、第二音声情報)のうちの、スコアまたは判定結果に応じた種類の音声情報を取得する。i番目のアバター識別子と対にして一の音声情報が格納されている場合、例えば、端末処理部23は、スコアまたは判定結果に応じて、当該一の音声情報の属性値(例えば、音量、周波数)を変更し、出力する音声情報を取得する。 Here, when two or more types of voice information are stored in pairs with the i-th avatar identifier, for example, the terminal processing unit 23 stores voice information paired with the i-th avatar identifier (for example, first voice information, second voice information), the type of voice information corresponding to the score or determination result is acquired. When one voice information is stored in a pair with the i-th avatar identifier, for example, the terminal processing unit 23 determines the attribute value (for example, volume, frequency ) to get the audio information to output.

(ステップS806)端末出力部26は、ステップS805で取得された音声情報を出力する。 (Step S806) The terminal output unit 26 outputs the voice information acquired in step S805.

(ステップS807)端末処理部23は、カウンタiに1を1、インクリメントする。ステップS802に戻る。 (Step S807) The terminal processing unit 23 increments the counter i by 1. Return to step S802.

以下、本実施の形態における情報システムAの具体的な動作例について、図9を用いて説明する。情報システムAは、アバター出力装置1と2以上の端末装置2を有する。ここで、2以上の端末装置2を、端末装置2(1)、・・・、端末装置2(N)とする。 A specific operation example of the information system A according to this embodiment will be described below with reference to FIG. An information system A has an avatar output device 1 and two or more terminal devices 2 . Here, two or more terminal devices 2 are assumed to be terminal devices 2(1), . . . , terminal devices 2(N).

端末装置2(1)の端末受付部22は、ユーザからモデル情報等を受け付けた、とする。そして、端末処理部23は、受け付けられたモデル情報等を用いて、送信するモデル情報等を構成する。端末送信部24は、当該モデル情報をアバター出力装置1に送信する(901参照)。なお、モデル情報等は、ここで、第一モデル情報、1以上の属性値を有する。1以上の属性値は、ここでは、位置情報、役割属性値、由来属性値、端末属性値を含む、とする。 It is assumed that the terminal reception unit 22 of the terminal device 2(1) has received model information and the like from the user. Then, the terminal processing unit 23 configures model information and the like to be transmitted using the received model information and the like. The terminal transmission unit 24 transmits the model information to the avatar output device 1 (see 901). Note that the model information and the like here have the first model information and an attribute value of 1 or more. The one or more attribute values here include position information, role attribute values, origin attribute values, and terminal attribute values.

また、同様に、端末装置2(N)も、ユーザから受け付けたモデル情報等をアバター出力装置1に送信する(902参照)。 Similarly, the terminal device 2 (N) also transmits the model information and the like received from the user to the avatar output device 1 (see 902).

次に、アバター出力装置1のアバター受信部121は、端末装置2(1)や端末装置2(N)等からモデル情報等を受信する(901、902参照)。そして、アバター蓄積部132は、各モデル情報等に対して、ユニークなアバター識別子を生成する。次に、アバター蓄積部132は、受信されたモデル情報等を、アバター識別子に対応付けて、アバター格納部112の図10の構造を有するアバター管理表に蓄積した、とする。 Next, the avatar receiving unit 121 of the avatar output device 1 receives model information and the like from the terminal device 2(1), the terminal device 2(N), and the like (see 901 and 902). The avatar storage unit 132 then generates a unique avatar identifier for each piece of model information. Next, it is assumed that the avatar storage unit 132 associates the received model information and the like with the avatar identifier and stores them in the avatar management table having the structure shown in FIG.

アバター管理表は、「ID」「アバター識別子」「第一モデル情報」「第二モデル情報」「属性値」を有する。また、「属性値」は、「位置情報」「役割属性値」「由来属性値」「端末属性値」を有する。「端末属性値」は、ここでは「画面サイズ」「動作周波数」を有する。「ID」は、レコードを識別する情報である。「第一モデル情報」は、第一モデル情報のファイル名である。「第二モデル情報」は、第二モデル情報のファイル名である。なお、各ファイルも、アバター格納部112に格納されている。「位置情報」は、三次元空間におけるアバターの位置を特定する情報である。また、ここでは、「役割属性値」は、「主催者」「司会者」「観客」のいずれかを採り得る。「由来属性値」は、「UGC」「デフォルト」のいずれかを採り得る。「UGC」は、ユーザが作成したアバターであることを示す。「デフォルト」は、デフォルトのアバターであることを示す。デフォルトのアバターは、例えば、アバター出力装置1の管理者が予め用意しているアバターである。なお、現段階では、表の「第二モデル情報」には、情報が存在しない。 The avatar management table has "ID", "avatar identifier", "first model information", "second model information", and "attribute value". "Attribute value" has "location information", "role attribute value", "origin attribute value", and "terminal attribute value". "Terminal attribute value" has "screen size" and "operating frequency" here. “ID” is information for identifying a record. "First model information" is the file name of the first model information. "Second model information" is the file name of the second model information. Each file is also stored in the avatar storage unit 112 . "Positional information" is information specifying the position of the avatar in the three-dimensional space. Also, here, the 'role attribute value' can be any of 'organizer', 'moderator', and 'audience'. The "origin attribute value" can be either "UGC" or "default". "UGC" indicates an avatar created by the user. "Default" indicates the default avatar. The default avatar is, for example, an avatar prepared in advance by the administrator of the avatar output device 1 . At this stage, there is no information in the "second model information" in the table.

次に、アバター出力装置1のモデル圧縮部131は、予め決められた条件を満たした(例えば、予め決められた時刻になった)ことを検知し、端末装置2(1)や端末装置2(N)等の第一モデル情報に対して、上述した圧縮処理を行い、第二モデル情報を取得する(903参照)。次に、モデル圧縮部131は、2以上の各第二モデル情報をアバター格納部112に蓄積し、2以上の各第二モデル情報のファイル名を、アバター識別子と対にして、アバター管理表に蓄積する。以上の処理により、図10のアバター管理表が構成された。なお、図10のアバター管理表において、「D.json」はデフォルトのアバターの第一モデル情報であり、「D.json」はデフォルトのアバターの第二モデル情報である。 Next, the model compression unit 131 of the avatar output device 1 detects that a predetermined condition has been met (for example, a predetermined time has come), and the terminal device 2(1) or the terminal device 2( N), etc., is subjected to the above-described compression process to obtain second model information (see 903). Next, the model compression unit 131 accumulates each of the two or more pieces of second model information in the avatar storage unit 112, pairs each of the two or more pieces of second model information with an avatar identifier, and creates an avatar management table. accumulate. The avatar management table shown in FIG. 10 is configured by the above processing. In the avatar management table of FIG. 10, "D1.json" is the first model information of the default avatar, and "D2.json" is the second model information of the default avatar.

次に、処理部13は、全アバターのスコア取得元属性値を、アバター識別子に対応付けて、図10のアバター管理表、または格納部11から取得する。スコア取得元属性値は、ここでは、図10の5つの属性値、およびカメラ属性値(カメラ位置情報、カメラ向き情報、画角情報)である、とする。なお、カメラ属性値は、格納部11に格納されている、とする。 Next, the processing unit 13 acquires the score acquisition source attribute values of all avatars from the avatar management table of FIG. 10 or the storage unit 11 in association with the avatar identifiers. Assume here that the score acquisition source attribute values are the five attribute values in FIG. 10 and the camera attribute values (camera position information, camera orientation information, and angle of view information). It is assumed that camera attribute values are stored in the storage unit 11 .

次に、位置情報送信部141は、全アバターのスコア取得元属性値を、アバター識別子に対応付けて、端末装置2(1)や端末装置2(N)を含む全ての端末装置2に送信する(904、905参照)。 Next, the location information transmission unit 141 associates the score acquisition source attribute values of all avatars with the avatar identifiers and transmits them to all the terminal devices 2 including the terminal device 2(1) and the terminal device 2(N). (See 904, 905).

次に、端末装置2(1)の端末受信部25は、全アバターのスコア取得元属性値を受信する(904参照)。また、端末装置2(N)等の端末受信部25も、全アバターのスコア取得元属性値を受信する(904参照)。 Next, the terminal receiving unit 25 of the terminal device 2(1) receives the score acquisition source attribute values of all avatars (see 904). Also, the terminal receiving unit 25 such as the terminal device 2(N) receives the score acquisition source attribute values of all the avatars (see 904).

次に、端末装置2(1)等の端末処理部23は、受信されたスコア取得元属性値が有する各他アバターの位置情報と、カメラ位置情報とカメラ向き情報と画角情報とを用いて、各他アバターの撮影範囲属性値、カメラからの距離を、他アバターごとに、取得する。また、端末装置2(1)等のすべての端末処理部23は、各々の自アバターの位置情報と各他アバターの位置情報とを用いて、自アバターと他アバターとの距離を、他アバターごとに、取得する。 Next, the terminal processing unit 23 such as the terminal device 2 (1) uses the position information of each other avatar possessed by the received score acquisition source attribute value, the camera position information, the camera direction information, and the angle of view information to , the shooting range attribute value of each other avatar, and the distance from the camera are acquired for each other avatar. In addition, all terminal processing units 23 such as the terminal device 2 (1) use the position information of each own avatar and the position information of each other avatar to calculate the distance between the own avatar and other avatars for each other avatar. to get.

次に、端末装置2(1)等の端末処理部23は、各他アバターごとに、他アバターに対応する撮影範囲属性値、カメラからの距離、自アバターと他アバターとの距離、役割属性値、由来属性値等を用いて、スコアを取得する。次に、端末装置2(1)等の端末処理部23は、各他アバターごとに、判定結果「第一」または「第二」を取得する。なお、端末処理部23は、ここでは、スコアが閾値以上の他アバターに対しては、「第一」の判定結果を取得し、スコアが閾値未満の他アバターに対しては、「第二」の判定結果を取得する、とする(906、907参照)。 Next, the terminal processing unit 23 such as the terminal device 2 (1) determines, for each other avatar, the shooting range attribute value corresponding to the other avatar, the distance from the camera, the distance between the own avatar and the other avatar, the role attribute value , origin attribute value, etc., to obtain a score. Next, the terminal processing unit 23 such as the terminal device 2(1) acquires the determination result "first" or "second" for each other avatar. Here, the terminal processing unit 23 acquires the “first” determination result for other avatars whose score is equal to or greater than the threshold, and obtains the “second” determination result for other avatars whose score is less than the threshold. (see 906 and 907).

また、ここでの判定結果の概念は、例えば、図11である。図11において、グレーで示された領域1101がカメラの撮影範囲である場合に、カメラの撮影範囲に含まれ、かつ、カメラから近い9つのアバターの判定結果は「第一」であり、他のアバターの判定結果は「第二」である。図11において、判定結果「第一」のアバターは黒く塗りつぶされており、判定結果「第二」のアバターは黒く塗りつぶされていない。また、端末装置2(1)、・・・、端末装置2(N)のうちの各端末装置2によって、判定結果は異なることは好適である。なお、判定結果「第一」に対応する9つのアバターは、図11のA01、A02、A03、A04、A05、A06、A07、A08、A09である。
同様に、図11において、グレーで示された領域1101が特定の端末装置(N)から見た視野とすれば、自アバターの視野を考慮した判定が可能となる。
Also, the concept of the determination result here is, for example, FIG. In FIG. 11, when the area 1101 shown in gray is the imaging range of the camera, the nine avatars included in the imaging range of the camera and close to the camera are judged to be "first", and the other avatars are included in the imaging range of the camera. The judgment result of the avatar is "second". In FIG. 11 , the avatar with the “first” determination result is blacked out, and the avatar with the “second” determination result is not blacked out. Moreover, it is preferable that the determination result differs depending on each terminal device 2 out of the terminal devices 2(1), . . . , 2(N). The nine avatars corresponding to the determination result "first" are A01, A02, A03, A04, A05, A06, A07, A08, and A09 in FIG.
Similarly, in FIG. 11, if the area 1101 shown in gray is the field of view seen from a specific terminal device (N), it is possible to make a determination considering the field of view of the own avatar.

次に、端末装置2(1)等のすべての端末処理部23は、他アバターのアバター識別子と判定結果との組を、他アバターの数だけ有するリクエストとを構成する。次に、端末装置2(1)、・・・、端末装置2(N)の各端末送信部24は、リクエストをアバター出力装置1に送信する(908、909参照)。 Next, all the terminal processing units 23 such as the terminal device 2 ( 1 ) construct requests having sets of avatar identifiers of other avatars and determination results corresponding to the number of other avatars. Next, each of the terminal transmission units 24 of the terminal devices 2(1), .

次に、アバター出力装置1の受付部12は、2以上の各端末装置2からリクエストを受信する(908、909参照)。 Next, the reception unit 12 of the avatar output device 1 receives requests from two or more terminal devices 2 (see 908 and 909).

次に、アバター出力装置1の決定部133は、各端末装置2からのリクエストに含まれる各アバター識別子に対応する判定結果を取得する。次に、アバター取得部134は、アバター識別子ごとに、判定結果に応じて、属性値「第一モデル情報」または属性値「第二モデル情報」のファイル名をアバター管理表(図10)から取得し、当該ファイル名で識別される第一モデル情報または第二モデル情報を、アバター識別子に対応付けて、アバター格納部112から取得する。なお、判定結果「第一」に対応するアバター識別子に対して第一モデル情報が取得され、判定結果「第二」に対応するアバター識別子に対して第二モデル情報が取得される。 Next, the determination unit 133 of the avatar output device 1 acquires determination results corresponding to each avatar identifier included in the request from each terminal device 2 . Next, for each avatar identifier, the avatar acquisition unit 134 acquires the file name of the attribute value "first model information" or the attribute value "second model information" from the avatar management table (Fig. 10) according to the determination result. Then, the first model information or the second model information identified by the file name is acquired from the avatar storage unit 112 in association with the avatar identifier. The first model information is acquired for the avatar identifier corresponding to the determination result "first", and the second model information is acquired for the avatar identifier corresponding to the determination result "second".

次に、アバター取得部134は、ワールド情報を送付したか否かを示すフラグワールド情報送付フラグがOFF(未送付)であることを検知し、ワールド情報を送信する、と判断する。そして、アバター取得部134は、ワールド情報をワールド格納部111から取得する。決定部133およびアバター取得部134は、端末装置2ごとに、上記の処理を行い、アバター識別子に対応付けられた第一モデル情報または第二モデル情報、およびワールド情報を取得する(910、911参照)。 Next, the avatar acquiring unit 134 detects that the world information sending flag indicating whether or not the world information has been sent is OFF (not sent), and determines to send the world information. Then, the avatar acquisition unit 134 acquires world information from the world storage unit 111 . The determination unit 133 and the avatar acquisition unit 134 perform the above processing for each terminal device 2, and acquire the first model information or the second model information associated with the avatar identifier and the world information (see 910 and 911). ).

次に、アバター出力部142は、アバター取得部134により取得された情報を、リクエストを送信してきた2以上の各端末装置2に送信する(912、913参照)。なお、処理部13は、ワールド情報の送付により、ワールド情報送付フラグをON(送付済み)とする。 Next, the avatar output unit 142 transmits the information acquired by the avatar acquisition unit 134 to each of the two or more terminal devices 2 that have transmitted the request (see 912 and 913). By sending the world information, the processing unit 13 sets the world information sending flag to ON (already sent).

次に、2以上の各端末装置2の端末受信部25は、リクエストの送信に応じて、情報を受信する(912、913参照)。ここでの情報は、ワールド情報と、アバター識別子とモデル情報との2以上の組を含む。 Next, the terminal receiver 25 of each of the two or more terminal devices 2 receives information in response to the transmission of the request (see 912 and 913). The information here includes two or more sets of world information, avatar identifiers, and model information.

次に、2以上の各端末装置2の端末処理部23は、受信された情報を用いて、上述した表示情報構成処理を行う(914、915参照)。端末出力部26は、表示情報構成処理により構成された情報を出力する(916、917参照)。出力される情報は、仮想的な三次元空間の中に多数のアバターを有する。なお、かかる出力例は、図12である。図12において、2以上の端末装置2の各ユーザに対応するアバターが、ワールドと共に表示されている。また、端末装置2によって、同じアバターでも、第一モデル情報が使用されたり、第二モデル情報が使用されたりすることは好適である。
また、図12の1201の仮想的なスクリーンにおいて、ワールド内のカメラで取得された映像が表示されることは好適である。かかる場合、例えば、アバター出力装置1は、ワールド内のカメラで取得される映像を構成し、各端末装置2に送信する。そして、各端末装置2の端末受信部25は、カメラで取得される映像を受信する。そして、端末処理部23は、受信された映像をワールド内の仮想的なスクリーンに貼り付ける、次に、端末出力部26は、かかる映像が貼り付けられたスクリーンを含むワールドを、各ユーザに対応するアバターと共に出力する。
Next, the terminal processing unit 23 of each of the two or more terminal devices 2 performs the above-described display information configuration processing using the received information (see 914 and 915). The terminal output unit 26 outputs the information configured by the display information configuration processing (see 916 and 917). The output information has many avatars in a virtual three-dimensional space. An example of such an output is shown in FIG. In FIG. 12, avatars corresponding to each user of two or more terminal devices 2 are displayed together with the world. Moreover, it is preferable that the terminal device 2 uses the first model information and the second model information even for the same avatar.
Also, it is preferable that the virtual screen 1201 in FIG. 12 displays an image captured by a camera in the world. In such a case, for example, the avatar output device 1 composes an image acquired by a camera in the world and transmits it to each terminal device 2 . Then, the terminal reception unit 25 of each terminal device 2 receives the video captured by the camera. Then, the terminal processing unit 23 pastes the received video onto a virtual screen in the world. Next, the terminal output unit 26 outputs the world including the screen pasted with the video to each user. Output with an avatar to do.

さらに、時間が経過し、ユーザが端末装置2(1)に、自アバターの位置情報を変更する入力を行った、とする(918参照)。 Furthermore, it is assumed that time has passed and the user has made an input to the terminal device 2(1) to change the location information of his/her own avatar (see 918).

次に、端末装置2(1)の端末処理部23は、自アバターの位置情報の変更に応じて、1以上の各他アバターのスコアを、再度、算出する。なお、端末処理部23は、自アバターの位置情報以外の情報(他アバターの情報、カメラ属性値等)は、既に受信し、蓄積されている情報を用いて、1以上の各他アバターのスコアを算出する、とする。 Next, the terminal processing unit 23 of the terminal device 2(1) recalculates the score of each of the one or more other avatars according to the change of the position information of the own avatar. Note that the terminal processing unit 23 has already received information other than the location information of its own avatar (information of other avatars, camera attribute values, etc.), and uses the accumulated information to calculate the score of each other avatar of 1 or more. is calculated.

次に、端末装置2(1)の端末処理部23は、1以上の各他アバターのスコアに応じた判定結果を取得する(919参照)。 Next, the terminal processing unit 23 of the terminal device 2(1) acquires the determination result according to the scores of each of the one or more other avatars (see 919).

次に、端末処理部23は、前回の判定結果と比較して、判定結果に変化があった他アバターのアバター識別子と判定結果との1組以上の組、および変更された自アバターの位置情報を有するリクエストを構成する。 Next, the terminal processing unit 23 generates one or more pairs of the avatar identifier of another avatar whose determination result has changed from the previous determination result and the determination result, and the changed location information of the own avatar. Configure a request with

次に、端末装置2(1)の端末送信部24は、当該リクエストをアバター出力装置1に送信する(920参照)。 Next, the terminal transmission unit 24 of the terminal device 2(1) transmits the request to the avatar output device 1 (see 920).

次に、アバター出力装置1の受付部12は、端末装置2(1)からリクエストを受信する(920参照)。 Next, the reception unit 12 of the avatar output device 1 receives the request from the terminal device 2(1) (see 920).

次に、アバター出力装置1の決定部133は、端末装置2(1)からのリクエストに含まれる1以上の各アバター識別子に対応する判定結果を取得する。次に、アバター取得部134は、アバター識別子ごとに、判定結果に応じて、属性値「第一モデル情報」または属性値「第二モデル情報」のファイル名をアバター管理表(図10)から取得し、当該ファイル名で識別される第一モデル情報または第二モデル情報を、アバター識別子に対応付けて、アバター格納部112から取得する。 Next, the determination unit 133 of the avatar output device 1 acquires determination results corresponding to one or more avatar identifiers included in the request from the terminal device 2(1). Next, for each avatar identifier, the avatar acquisition unit 134 acquires the file name of the attribute value "first model information" or the attribute value "second model information" from the avatar management table (Fig. 10) according to the determination result. Then, the first model information or the second model information identified by the file name is acquired from the avatar storage unit 112 in association with the avatar identifier.

次に、端末装置2(1)に既にワールド情報を送信しているので、アバター取得部134は、ワールド情報を送信しない、と判断する。 Next, since the world information has already been transmitted to the terminal device 2(1), the avatar acquisition unit 134 determines not to transmit the world information.

次に、アバター出力部142は、アバター取得部134により取得された情報を、リクエストを送信してきた端末装置2(1)に送信する(921参照)。 Next, the avatar output unit 142 transmits the information acquired by the avatar acquisition unit 134 to the terminal device 2(1) that transmitted the request (see 921).

また、端末装置2(1)の端末処理部23は、自アバターの位置情報の更新に応じて、受信された他アバターのモデル情報をも用いて、変更される表示情報を構成する(922参照)。次に、端末装置2(1)の端末出力部26は、新たに構成された表示情報を出力する(923参照)。なお、端末処理部23は、自アバターの位置情報の更新に応じて、他アバターの位置情報(相対的な位置情報)も変更する。 In addition, the terminal processing unit 23 of the terminal device 2(1) composes the display information to be changed using the received model information of the other avatar in accordance with the update of the position information of the own avatar (see 922). ). Next, the terminal output unit 26 of the terminal device 2(1) outputs the newly constructed display information (see 923). Note that the terminal processing unit 23 also changes the position information (relative position information) of other avatars according to the update of the position information of the own avatar.

また、アバター出力部142は、端末装置2(1)のアバターの変更された位置情報と端末装置2(1)のアバターのアバター識別子とを含む他アバターの情報を、端末装置2(N)を含む1以上の端末装置2に送信する(924参照)。 In addition, the avatar output unit 142 outputs the information of the other avatar including the changed position information of the avatar of the terminal device 2(1) and the avatar identifier of the avatar of the terminal device 2(1) to the terminal device 2(N). (see 924).

次に、端末装置2(N)等の端末受信部25は、端末装置2(1)の他アバターの情報を受信する。 Next, the terminal receiving unit 25 of the terminal device 2(N) or the like receives the information of the other avatar of the terminal device 2(1).

次に、端末装置2(N)等の端末処理部23は、端末装置2(1)のアバターの位置情報の変更による、端末装置2(1)のアバターに対する新たなスコアを取得する。次に、端末装置2(N)等の端末処理部23は、端末装置2(1)のアバターに対する判定結果を取得する(925参照)。 Next, the terminal processing unit 23 of the terminal device 2(N) or the like acquires a new score for the avatar of the terminal device 2(1) due to the change in the position information of the avatar of the terminal device 2(1). Next, the terminal processing unit 23 of the terminal device 2(N) or the like acquires the determination result for the avatar of the terminal device 2(1) (see 925).

そして、端末装置2(N)における端末装置2(1)のアバターの判定結果が、前回の判定結果とは異なる判定結果になった、とする。 Then, it is assumed that the determination result of the avatar of the terminal device 2(1) in the terminal device 2(N) is different from the previous determination result.

次に、端末装置2(N)の端末送信部24は、端末装置2(1)の他アバターのアバター識別子と新たな判定結果とを含むリクエストをアバター出力装置1に送信する(926参照)。なお、端末装置2(1)のアバターの判定結果が、前回の判定結果と同じ端末装置(2)は、リクエストをアバター出力装置1に送信しない、とする。 Next, the terminal transmission unit 24 of the terminal device 2(N) transmits a request including the avatar identifier of the other avatar of the terminal device 2(1) and the new determination result to the avatar output device 1 (see 926). It is assumed that the terminal device (2) for which the determination result of the avatar of the terminal device 2 (1) is the same as the previous determination result does not transmit the request to the avatar output device 1. FIG.

次に、アバター出力装置1の受付部12は、端末装置2(N)からリクエストを受信する(926参照)。 Next, the reception unit 12 of the avatar output device 1 receives the request from the terminal device 2 (N) (see 926).

次に、アバター出力装置1の決定部133は、端末装置2(N)からのリクエストに含まれるアバター識別子に対応する判定結果を取得する。次に、アバター取得部134は、当該アバター識別子の判定結果に応じて、属性値「第一モデル情報」または属性値「第二モデル情報」のファイル名であり、当該アバター識別子と対になるファイル名を、アバター管理表(図10)から取得し、当該ファイル名で識別される第一モデル情報または第二モデル情報を、アバター識別子に対応付けて、アバター格納部112から取得する。 Next, the determination unit 133 of the avatar output device 1 acquires the determination result corresponding to the avatar identifier included in the request from the terminal device 2(N). Next, the avatar acquisition unit 134 selects a file having the file name of the attribute value "first model information" or the attribute value "second model information" and paired with the avatar identifier according to the determination result of the avatar identifier. The name is acquired from the avatar management table (FIG. 10), and the first model information or the second model information identified by the file name is acquired from the avatar storage unit 112 in association with the avatar identifier.

次に、アバター出力部142は、アバター取得部134により取得された情報を、リクエストを送信してきた端末装置2(N)に送信する(927参照)。 Next, the avatar output unit 142 transmits the information acquired by the avatar acquisition unit 134 to the terminal device 2(N) that transmitted the request (see 927).

次に、端末装置2(N)の端末受信部25は、リクエストの送信に応じて、情報を受信する(927参照)。 Next, the terminal reception unit 25 of the terminal device 2(N) receives information in response to the transmission of the request (see 927).

次に、端末装置2(N)の端末処理部23は、受信された情報を用いて、表示情報構成処理を行う(928参照)。端末装置2(N)の端末出力部26は、表示情報構成処理により構成された情報を出力する(929参照)。なお、かかる表示情報構成処理により、端末装置2(N)において、例えば、端末装置2(1)のアバターの位置が移動し、かつ当該アバターの表示に利用されるモデル情報が、第二モデル情報から第一モデル情報に変更される。 Next, the terminal processing unit 23 of the terminal device 2(N) performs display information configuration processing using the received information (see 928). The terminal output unit 26 of the terminal device 2(N) outputs the information configured by the display information configuration processing (see 929). By this display information configuration processing, in the terminal device 2 (N), for example, the position of the avatar of the terminal device 2 (1) is moved, and the model information used for displaying the avatar is changed to the second model information to the first model information.

なお、端末装置2(1)のアバターの位置情報の変更により、端末装置2(N)以外の端末装置2も、アバター出力装置1にリクエストを送信し、端末装置2(N)と同様に、変更された情報を出力しても良い。 In addition, due to the change in the position information of the avatar of the terminal device 2(1), the terminal devices 2 other than the terminal device 2(N) also transmit requests to the avatar output device 1, and similar to the terminal device 2(N), You may output the changed information.

以上、本実施の形態によれば、2以上のアバターのうちの少なくとも一部のアバターを、よりデータサイズの小さなアバターとすることにより、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる。 As described above, according to the present embodiment, at least some avatars out of two or more avatars are avatars with a smaller data size, thereby suppressing the processing load when outputting a large number of avatars. In addition, an avatar suitable for the user can be obtained.

また、本実施の形態によれば、アバターに応じた音声情報を使用することにより、2以上のアバターの適切な音声が出力できる。 Moreover, according to the present embodiment, by using the voice information corresponding to the avatars, appropriate voices of two or more avatars can be output.

また、本実施の形態によれば、2以上の各端末装置から、アバターのモデル情報または元情報を受信し、利用できる。つまり、ユーザは自分の好きなアバターを場に表示できる。 Further, according to the present embodiment, it is possible to receive and use avatar model information or original information from two or more terminal devices. In other words, users can display their favorite avatars on the field.

また、本実施の形態によれば、2以上の各端末装置2で他アバターのスコアを取得することにより、アバター出力装置1における負荷が軽減できる。 Further, according to the present embodiment, the load on the avatar output device 1 can be reduced by obtaining scores of other avatars with two or more terminal devices 2 .

また、本実施の形態によれば、アバターの適切な動的属性値を用いて取得した適切なスコアに基づいて、より小さなデータサイズとするアバターを決定できる。 Also, according to the present embodiment, it is possible to determine an avatar with a smaller data size based on an appropriate score obtained using an appropriate dynamic attribute value of the avatar.

また、本実施の形態によれば、一部の箇所についてのみ小さいサイズとしたアバターを使用できる。
さらに、本実施の形態によれば、2以上の各端末装置2とアバター出力装置1とで処理を適切に分担できる。
In addition, according to the present embodiment, avatars with small sizes can be used only at some locations.
Furthermore, according to the present embodiment, processing can be appropriately shared between two or more terminal devices 2 and the avatar output device 1 .

なお、本実施の形態において、アバターが端末装置2に表示されるまでの処理において、2以上の各端末装置2とアバター出力装置1とで、如何様に処理を分担しても良い。上記の具体例において、例えば、各アバターのスコアの取得と判定は、端末装置2が行ったが、例えば、各アバターのスコアの取得は端末装置2が行い、スコアを用いた判定はアバター出力装置1が行っても良い。また、各アバターのスコアの取得と判定は、アバター出力装置1が行っても良い。 In addition, in the present embodiment, in the processing until the avatar is displayed on the terminal device 2, the two or more terminal devices 2 and the avatar output device 1 may share the processing in any way. In the above specific example, for example, the acquisition and determination of the score of each avatar were performed by the terminal device 2. 1 may go. Also, the avatar output device 1 may acquire and determine the score of each avatar.

また、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態におけるアバター出力装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、2以上の各アバターごとに、アバターを表示するための第一モデル情報を有するアバター情報が格納されるアバター格納部にアクセス可能なコンピュータを、前記2以上のアバターのうち、前記第一モデル情報を用いて表示される1以上の第一アバターと、前記第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する決定部と、前記決定部が決定した前記1以上の各第二アバターについては、前記第二モデル情報を用いたアバターを取得し、前記1以上の各第一アバターについては、前記第一モデル情報を用いたアバターを取得するアバター取得部と、前記アバター取得部が取得した2以上のアバターを出力するアバター出力部として機能させるためのプログラムである。 Also, the processing in the present embodiment may be realized by software. Then, this software may be distributed by software download or the like. Also, this software may be recorded on a recording medium such as a CD-ROM and distributed. Note that this also applies to other embodiments in this specification. The software that realizes the avatar output device 1 in this embodiment is the following program. In other words, this program causes a computer capable of accessing an avatar storage section storing avatar information having first model information for displaying an avatar, for each of two or more avatars, among the two or more avatars, Determining one or more first avatars to be displayed using the first model information and one or more second avatars to be displayed using second model information having a data size smaller than the first model information. and for each of the one or more second avatars determined by the determination unit, an avatar using the second model information is obtained, and for each of the one or more first avatars, the first model information is obtained. It is a program for functioning as an avatar acquisition unit for acquiring used avatars and an avatar output unit for outputting two or more avatars acquired by the avatar acquisition unit.

また、図13は、本明細書で述べたプログラムを実行して、上述した種々の実施の形態のアバター出力装置1等を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図13は、このコンピュータシステム300の概観図であり、図14は、システム300のブロック図である。 Also, FIG. 13 shows the appearance of a computer that executes the program described in this specification and realizes the avatar output device 1 and the like of the various embodiments described above. The embodiments described above may be implemented in computer hardware and computer programs running thereon. FIG. 13 is an overview diagram of this computer system 300, and FIG. 14 is a block diagram of the system 300. As shown in FIG.

図13において、コンピュータシステム300は、CD-ROMドライブを含むコンピュータ301と、キーボード302と、マウス303と、モニタ304とを含む。 In FIG. 13, computer system 300 includes computer 301 including a CD-ROM drive, keyboard 302 , mouse 303 and monitor 304 .

図14において、コンピュータ301は、CD-ROMドライブ3012に加えて、MPU3013と、CD-ROMドライブ3012等に接続されたバス3014と、ブートアッププログラム等のプログラムを記憶するためのROM3015と、MPU3013に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3016と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3017とを含む。ここでは、図示しないが、コンピュータ301は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。なお、2以上の各端末装置2は、カメラ、スピーカー、マイクを含むことは好適である。 14, a computer 301 includes a CD-ROM drive 3012, an MPU 3013, a bus 3014 connected to the CD-ROM drive 3012, a ROM 3015 for storing programs such as a boot-up program, It includes a RAM 3016 connected and for temporarily storing application program instructions and providing temporary storage space, and a hard disk 3017 for storing application programs, system programs and data. Although not shown here, computer 301 may also include a network card that provides connection to a LAN. Note that each of the two or more terminal devices 2 preferably includes a camera, a speaker, and a microphone.

コンピュータシステム300に、上述した実施の形態のアバター出力装置1等の機能を実行させるプログラムは、CD-ROM3101に記憶されて、CD-ROMドライブ3012に挿入され、さらにハードディスク3017に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ301に送信され、ハードディスク3017に記憶されても良い。プログラムは実行の際にRAM3016にロードされる。プログラムは、CD-ROM3101またはネットワークから直接、ロードされても良い。 A program that causes the computer system 300 to execute the functions of the avatar output device 1 of the embodiment described above may be stored in the CD-ROM 3101, inserted into the CD-ROM drive 3012, and further transferred to the hard disk 3017. . Alternatively, the program may be transmitted to computer 301 via a network (not shown) and stored in hard disk 3017 . Programs are loaded into RAM 3016 during execution. The program may be loaded directly from CD-ROM 3101 or network.

プログラムは、コンピュータ301に、上述した実施の形態のアバター出力装置1等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム300がどのように動作するかは周知であり、詳細な説明は省略する。 The program does not necessarily include an operating system (OS), a third party program, or the like that causes the computer 301 to execute the functions of the avatar output device 1 of the embodiment described above. A program need only contain those parts of instructions that call the appropriate functions (modules) in a controlled manner to produce the desired result. How the computer system 300 operates is well known and will not be described in detail.

なお、上記プログラムにおいて、情報を送信するステップや、情報を受信するステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。 In the above program, the step of transmitting information, the step of receiving information, etc. are performed by hardware. processing) are not included.

また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。 Also, the number of computers that execute the above programs may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.

また、上記各実施の形態において、一の装置に存在する2以上の通信手段は、物理的に一の媒体で実現されても良いことは言うまでもない。 Further, in each of the above embodiments, it goes without saying that two or more communication means existing in one device may be physically realized by one medium.

また、上記各実施の形態において、各処理は、単一の装置によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。 Further, in each of the above embodiments, each process may be implemented by centralized processing by a single device, or may be implemented by distributed processing by a plurality of devices.

本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 It goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible and are also included within the scope of the present invention.

以上のように、本発明にかかるアバター出力装置は、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる、という効果を有し、アバター出力装置等として有用である。 INDUSTRIAL APPLICABILITY As described above, the avatar output device according to the present invention has the effect of being able to obtain avatars suitable for the user while suppressing the processing load when outputting a large number of avatars. It is useful as a device or the like.

1 アバター出力装置
2 端末装置
11 格納部
12 受付部
13 処理部
14 出力部
21 端末格納部
22 端末受付部
23 端末処理部
24 端末送信部
24 各端末送信部
25 端末受信部
26 端末出力部
111 ワールド格納部
112 アバター格納部
121 アバター受信部
131 モデル圧縮部
132 アバター蓄積部
133 決定部
134 アバター取得部
135 音声取得部
141 位置情報送信部
142 アバター出力部
143 音声出力部
1 avatar output device 2 terminal device 11 storage unit 12 reception unit 13 processing unit 14 output unit 21 terminal storage unit 22 terminal reception unit 23 terminal processing unit 24 terminal transmission unit 24 each terminal transmission unit 25 terminal reception unit 26 terminal output unit 111 world Storage unit 112 Avatar storage unit 121 Avatar reception unit 131 Model compression unit 132 Avatar accumulation unit 133 Determination unit 134 Avatar acquisition unit 135 Voice acquisition unit 141 Location information transmission unit 142 Avatar output unit 143 Voice output unit

Claims (19)

2以上の各アバターごとに、アバターを表示するための第一モデル情報を有するアバター情報が格納されるアバター格納部と、
前記2以上のアバターのうち、前記第一モデル情報を用いて表示される1以上の第一アバターと、前記第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する決定部と、
前記決定部が決定した前記1以上の各第二アバターについては、前記第二モデル情報を用いたアバターを取得し、前記1以上の各第一アバターについては、前記第一モデル情報を用いたアバターを取得するアバター取得部と、
前記アバター取得部が取得した2以上のアバターを出力するアバター出力部とを具備するアバター出力装置。
an avatar storage unit storing avatar information having first model information for displaying the avatar for each of the two or more avatars;
Among the two or more avatars, one or more first avatars displayed using the first model information and one or more displayed using the second model information having a data size smaller than the first model information a determination unit that determines the second avatar;
For each of the one or more second avatars determined by the determination unit, an avatar using the second model information is obtained, and for each of the one or more first avatars, an avatar using the first model information an avatar acquisition unit that acquires
and an avatar output unit that outputs two or more avatars acquired by the avatar acquisition unit.
前記アバター情報は、アバターが音声を出力するための第一音声情報をも有し、
前記決定部は、
前記2以上のアバターのうち、前記第一音声情報に対応するアバターである1以上の第一アバターと、前記第一音声情報より小さいデータサイズの第二音声情報または前記第一音声情報とは異なる属性値を有する第二音声情報に対応するアバターである1以上の第二アバターを決定し、
前記決定部が決定した前記1以上の各第二アバターについては、前記第二音声情報を取得し、前記1以上の各第一アバターについては、前記第一音声情報を取得する音声取得部と、
前記音声取得部が取得した前記第一音声情報、および前記第二音声情報を出力する音声出力部とを具備する請求項1記載のアバター出力装置。
The avatar information also includes first audio information for the avatar to output audio,
The decision unit
Among the two or more avatars, one or more first avatars corresponding to the first audio information are different from the second audio information or the first audio information having a data size smaller than the first audio information. determining one or more second avatars that are avatars corresponding to the second audio information having attribute values;
a voice acquisition unit that acquires the second voice information for each of the one or more second avatars determined by the determination unit, and acquires the first voice information for each of the one or more first avatars;
2. The avatar output device according to claim 1, further comprising a voice output unit for outputting the first voice information and the second voice information acquired by the voice acquisition unit.
ユーザが使用する2以上の各端末装置から第一モデル情報または第一モデル情報の元になる元情報を受信するアバター受信部と、
前記アバター受信部が受信した前記第一モデル情報、または前記アバター受信部が受信した前記元情報を用いて取得された第一モデル情報を有するアバター情報を前記アバター格納部に蓄積するアバター蓄積部とをさらに具備する請求項1または請求項2記載のアバター出力装置。
an avatar receiving unit that receives the first model information or original information that is the basis of the first model information from each of two or more terminal devices used by the user;
an avatar storage unit configured to store, in the avatar storage unit, the first model information received by the avatar reception unit or avatar information having the first model information acquired using the original information received by the avatar reception unit; 3. The avatar output device according to claim 1 or 2, further comprising:
前記アバター受信部は、
前記2以上の各端末装置から、各端末装置に対応するアバターの位置を特定する位置情報をも受信し、
前記2以上の各端末装置に対応する2以上の各アバターの位置情報のうち、少なくとも送信先の端末装置に対応する自アバターの位置情報を除く、1以上の他アバターの位置情報を、アバターを識別するアバター識別子に対応付けて、前記2以上の各端末装置に送信する位置情報送信部をさらに具備する請求項3記載のアバター出力装置。
The avatar receiving unit
Also receiving position information specifying the position of the avatar corresponding to each terminal device from each of the two or more terminal devices,
Among the position information of each of the two or more avatars corresponding to each of the two or more terminal devices, at least the position information of one or more other avatars excluding the position information of the own avatar corresponding to the terminal device of the transmission destination is used as the avatar. 4. The avatar output device according to claim 3, further comprising a location information transmitting unit that transmits the location information to each of the two or more terminal devices in association with the avatar identifier to be identified.
前記アバター受信部は、
前記2以上の各端末装置から、当該各端末装置で取得された1以上の他アバターのスコアまたはスコアに基づく判定結果を、アバター識別子に対応付けて受信し、
前記決定部は、
前記スコアまたは前記判定結果を用いて、前記2以上の各端末装置ごとに、前記2以上のアバターのうち、前記第一モデル情報を用いて表示される1以上の第一アバターと、前記第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する、請求項4記載のアバター出力装置。
The avatar receiving unit
receiving scores of one or more other avatars obtained by the terminal devices or determination results based on the scores from the two or more terminal devices in association with avatar identifiers;
The decision unit
One or more first avatars displayed using the first model information among the two or more avatars for each of the two or more terminal devices using the score or the determination result; 5. The avatar output device according to claim 4, wherein one or more second avatars to be displayed are determined using the second model information having a data size smaller than that of the model information.
前記第一モデル情報または前記元情報を用いて、当該第一モデル情報より小さいデータサイズの第二モデル情報を取得するモデル圧縮部をさらに具備し、
前記アバター蓄積部は、
前記第一モデル情報と前記第二モデル情報とを有するアバター情報を前記アバター格納部に蓄積する、請求項3から請求項5いずれか一項に記載のアバター出力装置。
further comprising a model compression unit that acquires second model information having a data size smaller than the first model information using the first model information or the original information;
The avatar storage unit
6. The avatar output device according to any one of claims 3 to 5, wherein avatar information having said first model information and said second model information is stored in said avatar storage unit.
前記決定部は、
前記2以上の各アバターに対応する1以上の動的属性値を用いて取得されたスコアまたは判定結果に基づいて、前記1以上の第二アバターを決定する請求項1から請求項6いずれか一項に記載のアバター出力装置。
The decision unit
7. The one or more second avatars are determined based on a score or determination result obtained using one or more dynamic attribute values corresponding to each of the two or more avatars. Avatar output device according to the paragraph.
前記1以上の動的属性値は、アバターに対応するユーザの視野に関する属性値、カメラの視野に関する属性値、ユーザからの距離に関する属性値、ユーザに対する向きに関する属性値のいずれかを含む、請求項4または請求項7記載のアバター出力装置。 The one or more dynamic attribute values include any one of an attribute value related to the field of view of the user corresponding to the avatar, an attribute value related to the field of view of the camera, an attribute value related to the distance from the user, and an attribute value related to the direction to the user. The avatar output device according to claim 4 or 7. 前記第二モデル情報は、アバターの一部の箇所のみの情報をより少ないデータサイズとしたモデル情報である、請求項1から請求項8いずれか一項に記載のアバター出力装置。 9. The avatar output device according to any one of claims 1 to 8, wherein the second model information is model information in which data size of information of only a part of the avatar is reduced. 端末装置において、2以上のアバターを含む画像が出力されるまでの処理において、当該端末装置と処理を分担する、請求項1から請求項9いずれか一項に記載のアバター出力装置。 10. The avatar output device according to any one of claims 1 to 9, which shares processing with the terminal device until an image including two or more avatars is output from the terminal device. 前記決定部は、
2以上の各端末装置ごとに、前記2以上の各アバターに対応する1以上の動的属性値を用いて取得されたスコアまたは判定結果に基づいて、前記1以上の第二アバターを決定し、
前記1以上の動的属性値を用いてスコアまたは判定結果を取得する処理は前記端末装置が行い、前記第一モデル情報を用いて、前記第二モデル情報を取得する処理はアバター出力装置が行う、請求項10記載のアバター出力装置。
The decision unit
determining the one or more second avatars for each of the two or more terminal devices based on the scores or determination results obtained using the one or more dynamic attribute values corresponding to the two or more avatars;
The terminal device performs the process of obtaining the score or determination result using the one or more dynamic attribute values, and the avatar output device performs the process of obtaining the second model information using the first model information. 11. The avatar output device according to claim 10.
前記アバター格納部の前記2以上の各アバターの前記アバター情報は、第一モデル情報と第二モデル情報とを有し、
前記アバター取得部は、
前記決定部が決定した前記1以上の第二アバターについては、前記第二モデル情報を読み出し、当該第二モデル情報を用いてアバターを構成し、
前記第一アバターについては、前記第一モデル情報を読み出し、当該第一モデル情報を用いてアバターを構成する、請求項1から請求項11いずれか一項に記載のアバター出力装置。
the avatar information of each of the two or more avatars in the avatar storage includes first model information and second model information;
The avatar acquisition unit
reading the second model information for the one or more second avatars determined by the determination unit, and configuring the avatar using the second model information;
12. The avatar output device according to any one of claims 1 to 11, wherein for the first avatar, the first model information is read and the avatar is configured using the first model information.
前記アバター格納部の前記2以上の各アバターの前記アバター情報は、動的に変化しない1以上の静的属性値を有し、
前記決定部は、
前記2以上の各アバターに対応する前記1以上の静的属性値に基づく情報を用いて、前記1以上の第二アバターを決定する、請求項1から請求項12いずれか一項に記載のアバター出力装置。
the avatar information for each of the two or more avatars in the avatar storage has one or more static attribute values that do not change dynamically;
The decision unit
An avatar according to any one of claims 1 to 12, wherein information based on said one or more static attribute values corresponding to each of said two or more avatars is used to determine said one or more second avatars. output device.
前記1以上の静的属性値は、アバターの役割に関する属性値、アバターの由来に関する属性値のいずれかを含む、請求項13記載のアバター出力装置。 14. The avatar output device according to claim 13, wherein said one or more static attribute values include either an attribute value relating to the role of the avatar or an attribute value relating to the origin of the avatar. 前記1以上の静的属性値は、アバターに対応する端末装置の属性値を含む、請求項13記載のアバター出力装置。 14. The avatar output device according to claim 13, wherein the one or more static attribute values include attribute values of a terminal device corresponding to the avatar. 前記第二モデル情報は、前記第一モデル情報が有するN(Nは2以上の自然数)のメッシュ情報を用いて取得された、Nよりも少ないM(Mは1以上の自然数)のメッシュ情報を有するモデル情報である、請求項1から請求項15いずれか一項に記載のアバター出力装置。 The second model information is M less than N (M is a natural number of 1 or more) mesh information acquired using N (N is a natural number of 2 or more) mesh information possessed by the first model information. 16. The avatar output device according to any one of claims 1 to 15, wherein the avatar output device has model information. 請求項1から請求項16いずれか一項に記載のアバター出力装置と通信を行い、アバターを表示する端末装置であって、
当該端末装置に対応するアバターの位置情報を含む1以上の端末属性値が格納される端末格納部と、
前記位置情報を前記アバター出力装置に送信する端末送信部と、
前記アバター出力装置から1以上の他の端末装置に対応する他アバターの位置情報を受信する端末受信部と、
前記1以上の他アバターの位置情報と前記位置情報とを用いて、前記1以上の他アバターのスコアを取得する端末処理部とを具備し、
前記端末送信部は、
当該端末装置の端末識別子に対応付けて、前記1以上の他アバターのスコアまたは当該スコアに基づく判定結果を前記アバター出力装置に送信し、
前記端末受信部は、
前記スコアまたは前記判定結果の送信に応じて、前記アバター出力装置から前記他アバターのモデル情報であり、前記スコアまたは前記判定結果に応じた異なるモデル情報を受信し、
前記モデル情報を用いて、前記1以上の他アバターを表示する端末出力部をさらに具備する端末装置。
A terminal device that communicates with the avatar output device according to any one of claims 1 to 16 and displays an avatar,
a terminal storage unit storing one or more terminal attribute values including position information of an avatar corresponding to the terminal device;
a terminal transmission unit that transmits the position information to the avatar output device;
a terminal receiving unit that receives position information of other avatars corresponding to one or more other terminal devices from the avatar output device;
a terminal processing unit that obtains a score of the one or more other avatars using the position information of the one or more other avatars and the position information;
The terminal transmission unit
transmitting the score of the one or more other avatars or a determination result based on the score to the avatar output device in association with the terminal identifier of the terminal device;
The terminal receiving unit
receiving model information of the other avatar from the avatar output device in response to transmission of the score or the determination result, and different model information corresponding to the score or the determination result;
A terminal device further comprising a terminal output unit that displays the one or more other avatars using the model information.
2以上の各アバターごとに、アバターを表示するための第一モデル情報を有するアバター情報が格納されるアバター格納部と、決定部と、アバター取得部と、アバター出力部とにより実現されるアバター出力方法であって、
前記決定部が、前記2以上のアバターのうち、前記第一モデル情報を用いて表示される1以上の第一アバターと、前記第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する決定ステップと、
前記アバター取得部が、前記決定ステップで決定された前記1以上の各第二アバターについては、前記第二モデル情報を用いたアバターを取得し、前記1以上の各第一アバターについては、前記第一モデル情報を用いたアバターを取得するアバター取得ステップと、
前記アバター出力部が、前記アバター取得ステップで取得された2以上のアバターを出力するアバター出力ステップとを具備するアバター出力方法。
Avatar output implemented by an avatar storage unit storing avatar information having first model information for displaying the avatar, a determination unit, an avatar acquisition unit, and an avatar output unit for each of two or more avatars a method,
The determining unit displays one or more first avatars displayed using the first model information among the two or more avatars, and second model information having a data size smaller than the first model information. a determining step of determining one or more second avatars to be
The avatar acquisition unit acquires an avatar using the second model information for each of the one or more second avatars determined in the determination step, and obtains an avatar using the second model information for each of the one or more first avatars. an avatar acquisition step of acquiring an avatar using one model information;
and an avatar output step in which the avatar output unit outputs two or more avatars obtained in the avatar obtaining step.
2以上の各アバターごとに、アバターを表示するための第一モデル情報を有するアバター情報が格納されるアバター格納部にアクセス可能なコンピュータを、
前記2以上のアバターのうち、前記第一モデル情報を用いて表示される1以上の第一アバターと、前記第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する決定部と、
前記決定部が決定した前記1以上の各第二アバターについては、前記第二モデル情報を用いたアバターを取得し、前記1以上の各第一アバターについては、前記第一モデル情報を用いたアバターを取得するアバター取得部と、
前記アバター取得部が取得した2以上のアバターを出力するアバター出力部として機能させるためのプログラム。
for each of the two or more avatars, a computer having access to an avatar store in which avatar information having first model information for displaying the avatar is stored;
Among the two or more avatars, one or more first avatars displayed using the first model information and one or more displayed using the second model information having a data size smaller than the first model information a determination unit that determines the second avatar;
For each of the one or more second avatars determined by the determination unit, an avatar using the second model information is obtained, and for each of the one or more first avatars, an avatar using the first model information an avatar acquisition unit that acquires
A program for functioning as an avatar output unit that outputs two or more avatars acquired by the avatar acquisition unit.
JP2022141130A 2021-06-09 2022-09-06 Avatar output device, terminal device, avatar output method and program Pending JP2022188776A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022141130A JP2022188776A (en) 2021-06-09 2022-09-06 Avatar output device, terminal device, avatar output method and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2021096279A JP6995416B1 (en) 2021-06-09 2021-06-09 Avatar output device, terminal device, avatar output method, and program
JP2021181573A JP7142392B1 (en) 2021-06-09 2021-11-08 Avatar output device, terminal device, avatar output method, and program
JP2022141130A JP2022188776A (en) 2021-06-09 2022-09-06 Avatar output device, terminal device, avatar output method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021181573A Division JP7142392B1 (en) 2021-06-09 2021-11-08 Avatar output device, terminal device, avatar output method, and program

Publications (1)

Publication Number Publication Date
JP2022188776A true JP2022188776A (en) 2022-12-21

Family

ID=87852977

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021181573A Active JP7142392B1 (en) 2021-06-09 2021-11-08 Avatar output device, terminal device, avatar output method, and program
JP2022141130A Pending JP2022188776A (en) 2021-06-09 2022-09-06 Avatar output device, terminal device, avatar output method and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021181573A Active JP7142392B1 (en) 2021-06-09 2021-11-08 Avatar output device, terminal device, avatar output method, and program

Country Status (1)

Country Link
JP (2) JP7142392B1 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000123195A (en) * 1998-10-14 2000-04-28 Nippon Telegr & Teleph Corp <Ntt> Method for generating object in three-dimensional virtual space and recording medium recording program therefor
JP3452348B2 (en) * 1999-02-08 2003-09-29 日本電信電話株式会社 Speaker identification method in virtual space and recording medium storing the program
JP2004178036A (en) * 2002-11-25 2004-06-24 Hitachi Ltd Device for presenting virtual space accompanied by remote person's picture
JP3949702B1 (en) * 2006-03-27 2007-07-25 株式会社コナミデジタルエンタテインメント GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM
JP4884918B2 (en) * 2006-10-23 2012-02-29 株式会社野村総合研究所 Virtual space providing server, virtual space providing system, and computer program
US8441486B2 (en) * 2009-04-27 2013-05-14 Jagex Ltd. Position tracking in a virtual world
JP2018028789A (en) * 2016-08-17 2018-02-22 クラスター株式会社 Server, information transmission method, and program thereof
JP2018116537A (en) * 2017-01-19 2018-07-26 ソニー株式会社 Information processing apparatus, information processing method, and program
JP7094216B2 (en) * 2018-12-28 2022-07-01 グリー株式会社 A video distribution system, video distribution method, and video distribution program that live-distributes videos containing animations of character objects generated based on the movements of distribution users.

Also Published As

Publication number Publication date
JP7142392B1 (en) 2022-09-27
JP2022188729A (en) 2022-12-21

Similar Documents

Publication Publication Date Title
US9814979B2 (en) Data provision system, provision apparatus, execution apparatus, control method, and recording medium
US20170195650A1 (en) Method and system for multi point same screen broadcast of video
EP3573026B1 (en) Information processing apparatus, information processing method, and program
US9589063B2 (en) Two-dimensional code processing method and terminal
JP2017056193A (en) Remote rendering server comprising broadcaster
US20220103873A1 (en) Computer program, method, and server apparatus
WO2022257699A1 (en) Image picture display method and apparatus, device, storage medium and program product
JP2022036319A (en) Image rendering method, device, electronic device, computer readable storage medium, and computer program
CN112511849A (en) Game display method, device, equipment, system and storage medium
JP2001160154A (en) Avatar display device in virtual space communication system, avatar displaying method and storage medium
WO2023143217A1 (en) Special effect prop display method, apparatus, device, and storage medium
US20230274495A1 (en) Avatar output device, terminal device, avatar output method, and program
JP2023169282A (en) Computer program, server device, terminal device, and method
JP7142392B1 (en) Avatar output device, terminal device, avatar output method, and program
CN112604279A (en) Special effect display method and device
WO2017119191A1 (en) Terminal device, information processing method, and recording medium
JP7015597B1 (en) Avatar output device, terminal device, avatar output method, and program
JP2020077270A (en) Method for generating 3D object arranged in virtual reality space
US10419671B2 (en) System, method, and program for displaying omnidirectional camera image
CN115279469A (en) Image processing system, program, and image processing method
CN115499673B (en) Live broadcast method and device
US11763528B2 (en) Avatar mobility between virtual reality spaces
JP2010039876A (en) Content distribution device, content distribution program, and content distribution method
KR102090009B1 (en) Method and program for providing 3d image content
KR100413162B1 (en) Method and system for displaying panoramic videos using server-client configuration