JP2022188776A - Avatar output device, terminal device, avatar output method and program - Google Patents
Avatar output device, terminal device, avatar output method and program Download PDFInfo
- Publication number
- JP2022188776A JP2022188776A JP2022141130A JP2022141130A JP2022188776A JP 2022188776 A JP2022188776 A JP 2022188776A JP 2022141130 A JP2022141130 A JP 2022141130A JP 2022141130 A JP2022141130 A JP 2022141130A JP 2022188776 A JP2022188776 A JP 2022188776A
- Authority
- JP
- Japan
- Prior art keywords
- avatar
- information
- avatars
- unit
- model information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 48
- 238000012545 processing Methods 0.000 claims abstract description 188
- 230000008569 process Effects 0.000 claims description 44
- 230000005540 biological transmission Effects 0.000 claims description 42
- 238000007906 compression Methods 0.000 claims description 29
- 230000006835 compression Effects 0.000 claims description 25
- 230000003068 static effect Effects 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 12
- 230000004044 response Effects 0.000 claims description 9
- 238000007796 conventional method Methods 0.000 abstract 1
- 238000010586 diagram Methods 0.000 description 11
- 238000007726 management method Methods 0.000 description 10
- 238000009825 accumulation Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 3
- 241000699666 Mus <mouse, genus> Species 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000015654 memory Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000699670 Mus sp. Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
特許法第30条第2項適用申請有り 令和3年3月26日 https://www.youtube.com/watch?v=wRErhyoT70cを通じて発表Patent Act Article 30,
特許法第30条第2項適用申請有り 令和3年3月28日 https://www.youtube.com/watch?v=WyC76fzzzCAを通じて発表Patent Act Article 30,
特許法第30条第2項適用申請有り 令和3年3月31日 https://www.youtube.com/watch?v=YhX7xJ0MkxI、https://speakerdeck.com/clusterinc/cluster-lodを通じて発表Patent Act Article 30,
本発明は、アバターの出力に関する処理を行うアバター出力装置等に関するものである。 The present invention relates to an avatar output device and the like that perform processing related to avatar output.
従来、多人数が参加している臨場感を担保しつつ、好適な鑑賞体験の提供を実現するコンテンツ配信システムがあった(特許文献1参照)。かかるシステムにおいて、主キャラクターのコンテンツと鑑賞ユーザを示す副キャラクターのコンテンツとを出力する際に、副キャラクターのうち所定の挙動を取らせる副キャラクターの割合を決定し、当該割合の副キャラクターのみに動作させることを行っていた。 Conventionally, there has been a content distribution system that realizes the provision of a suitable viewing experience while ensuring the presence of a large number of people (see Patent Document 1). In such a system, when outputting the content of the main character and the content of the secondary character representing the viewing user, the proportion of the secondary characters that are to behave in a predetermined manner is determined, and only the secondary characters of this proportion are allowed to act. I was doing what I was doing.
しかしながら、従来技術においては、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることが困難であった。なお、アバターとは、ユーザの分身として表示されるキャラクターである。 However, in the prior art, when outputting a large number of avatars, it was difficult to obtain avatars suitable for the user while suppressing the processing load. Note that an avatar is a character displayed as a user's alter ego.
本第一の発明のアバター出力装置は、2以上の各アバターごとに、アバターを表示するための第一モデル情報を有するアバター情報が格納されるアバター格納部と、2以上のアバターのうち、第一モデル情報を用いて表示される1以上の第一アバターと、第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する決定部と、決定部が決定した1以上の各第二アバターについては、第二モデル情報を用いたアバターを取得し、1以上の各第一アバターについては、第一モデル情報を用いたアバターを取得するアバター取得部と、アバター取得部が取得した2以上のアバターを出力するアバター出力部とを具備するアバター出力装置である。 An avatar output device according to a first aspect of the present invention comprises an avatar storage unit storing avatar information having first model information for displaying an avatar for each of two or more avatars; a determination unit that determines one or more first avatars to be displayed using one piece of model information and one or more second avatars to be displayed using second model information having a data size smaller than the first model information; Obtaining an avatar using the second model information for each of the one or more second avatars determined by the determining unit, and obtaining an avatar using the first model information for each of the one or more first avatars and an avatar output unit that outputs two or more avatars acquired by the avatar acquisition unit.
かかる構成により、2以上のアバターのうちの少なくとも一部のアバターを、よりデータサイズの小さなアバターとすることにより、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる。 With this configuration, at least some of the two or more avatars are avatars with a smaller data size, thereby suppressing the processing load when outputting a large number of avatars, and providing an appropriate image for the user. You can get an avatar.
また、本第二の発明のアバター出力装置は、第一の発明に対して、アバター情報は、アバターが音声を出力するための第一音声情報をも有し、決定部は、2以上のアバターのうち、第一音声情報に対応するアバターである1以上の第一アバターと、第一音声情報より小さいデータサイズの第二音声情報または第一音声情報とは異なる属性値を有する第二音声情報に対応するアバターである1以上の第二アバターを決定し、決定部が決定した1以上の各第二アバターについては、第二音声情報を取得し、1以上の各第一アバターについては、第一音声情報を取得する音声取得部と、音声取得部が取得した第一音声情報、および第二音声情報を出力する音声出力部とを具備するアバター出力装置である。 In addition, in the avatar output device of the second invention, in contrast to the first invention, the avatar information also has first audio information for the avatar to output audio, and the determination unit includes two or more avatars Among them, one or more first avatars that are avatars corresponding to the first audio information, second audio information having a data size smaller than the first audio information, or second audio information having an attribute value different from the first audio information determine one or more second avatars that are avatars corresponding to the second avatars, acquire second audio information for each of the one or more second avatars determined by the determination unit, and acquire second audio information for each of the one or more first avatars The avatar output device includes a voice acquisition unit that acquires first voice information, and a voice output unit that outputs the first voice information and the second voice information acquired by the voice acquisition unit.
かかる構成により、アバターに応じた音声情報を使用することにより、2以上のアバターの適切な音声が出力できる。 With such a configuration, appropriate voices of two or more avatars can be output by using voice information corresponding to the avatars.
また、本第三の発明のアバター出力装置は、第一または第二の発明に対して、ユーザが使用する2以上の各端末装置から第一モデル情報または第一モデル情報の元になる元情報を受信するアバター受信部と、アバター受信部が受信した第一モデル情報、またはアバター受信部が受信した元情報を用いて取得された第一モデル情報を有するアバター情報をアバター格納部に蓄積するアバター蓄積部とをさらに具備するアバター出力装置である。 In addition, in the avatar output device of the third invention, in contrast to the first or second invention, the first model information or the original information that is the basis of the first model information is output from each of two or more terminal devices used by the user. and the avatar information having the first model information acquired using the first model information received by the avatar receiving unit or the original information received by the avatar receiving unit is stored in the avatar storage unit The avatar output device further comprises a storage unit.
かかる構成により、2以上の各端末装置から、アバターのモデル情報または元情報を受信し、利用できる。つまり、ユーザは自分の好きなアバターを場に表示できる。なお、場とは、アバターが表示される背景、またはアバターが表示される周辺である、と言える。場は、通常、仮想的な三次元空間である。なお、場は、ワールドと言っても良い。 With this configuration, avatar model information or original information can be received and used from two or more terminal devices. In other words, users can display their favorite avatars on the field. It can be said that the place is the background where the avatar is displayed or the surroundings where the avatar is displayed. A field is usually a virtual three-dimensional space. It should be noted that the place can be called the world.
また、本第四の発明のアバター出力装置は、第三の発明に対して、アバター受信部は、2以上の各端末装置から、各端末装置に対応するアバターの位置を特定する位置情報をも受信し、2以上の各端末装置に対応する2以上の各アバターの位置情報のうち、少なくとも送信先の端末装置に対応する自アバターの位置情報を除く、1以上の他アバターの位置情報を、アバターを識別するアバター識別子に対応付けて、2以上の各端末装置に送信する位置情報送信部をさらに具備するアバター出力装置である。 Further, in the avatar output device of the fourth invention, in contrast to the third invention, the avatar receiving unit receives position information specifying the position of the avatar corresponding to each terminal device from two or more terminal devices. Among the received location information of two or more avatars corresponding to each of two or more terminal devices, at least the location information of one or more other avatars excluding the location information of the own avatar corresponding to the destination terminal device, The avatar output device further includes a location information transmission unit that transmits location information to two or more terminal devices in association with an avatar identifier that identifies the avatar.
かかる構成により、2以上の各端末装置に、他アバターの位置情報を送信できる。 With such a configuration, position information of other avatars can be transmitted to each of two or more terminal devices.
また、本第五の発明のアバター出力装置は、第四の発明に対して、アバター受信部は、2以上の各端末装置から、各端末装置で取得された1以上の他アバターのスコアまたはスコアに基づく判定結果を、アバター識別子に対応付けて受信し、決定部は、スコアまたは判定結果を用いて、2以上の各端末装置ごとに、2以上のアバターのうち、第一モデル情報を用いて表示される1以上の第一アバターと、第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する、アバター出力装置である。 In addition, in the avatar output device of the fifth invention, in contrast to the fourth invention, the avatar receiving unit comprises the score of one or more other avatars acquired by each terminal device from two or more terminal devices or the score Receives the determination result based on the avatar identifier in association with the determining unit, using the score or the determination result, for each of the two or more terminal devices, using the first model information among the two or more avatars An avatar output device that determines one or more first avatars to be displayed and one or more second avatars to be displayed using second model information having a data size smaller than the first model information.
かかる構成により、2以上の各端末装置で他アバターのスコアを取得することにより、アバター出力装置での負荷が軽減できる。 With such a configuration, the load on the avatar output device can be reduced by acquiring scores of other avatars with two or more terminal devices.
また、本第六の発明のアバター出力装置は、第三から第五いずれか1つの発明に対して、第一モデル情報または元情報を用いて、第一モデル情報より小さいデータサイズの第二モデル情報を取得するモデル圧縮部をさらに具備し、アバター蓄積部は、第一モデル情報と第二モデル情報とを有するアバター情報をアバター格納部に蓄積する、アバター出力装置である。 Further, the avatar output device of the sixth invention uses the first model information or the original information for any one of the third to fifth inventions to generate a second model having a data size smaller than the first model information. The avatar output device further includes a model compression unit for acquiring information, and the avatar storage unit stores avatar information having the first model information and the second model information in the avatar storage unit.
かかる構成により、2以上の各アバターの第一モデル情報を圧縮した第二モデル情報を得ることができる。 With such a configuration, it is possible to obtain second model information in which the first model information of each of two or more avatars is compressed.
また、本第七の発明のアバター出力装置は、第一から第六いずれか1つの発明に対して、決定部は、2以上の各アバターに対応する1以上の動的属性値を用いて取得されたスコアまたは判定結果に基づいて、1以上の第二アバターを決定するアバター出力装置である。 Further, in the avatar output device of the seventh invention, for any one of the first to sixth inventions, the determination unit acquires using one or more dynamic attribute values corresponding to each of the two or more avatars an avatar output device that determines one or more second avatars based on the scores or determination results obtained.
かかる構成により、アバターの動的属性値を用いて取得した適切なスコアに基づいて、より小さなデータサイズとするアバターを決定できる。 With this configuration, an avatar with a smaller data size can be determined based on an appropriate score obtained using the dynamic attribute value of the avatar.
また、本第八の発明のアバター出力装置は、第四または第七の発明に対して、1以上の動的属性値は、アバターに対応するユーザの視野に関する属性値、カメラの視野に関する属性値、ユーザからの距離に関する属性値、ユーザに対する向きに関する属性値のいずれかを含む、アバター出力装置である。 Further, in the avatar output device of the eighth invention, in contrast to the fourth or seventh invention, the one or more dynamic attribute values are an attribute value related to the field of view of the user corresponding to the avatar, an attribute value related to the field of view of the camera , an attribute value related to the distance from the user, or an attribute value related to the orientation with respect to the user.
かかる構成により、アバターの適切な動的属性値を用いて取得した適切なスコアに基づいて、より小さなデータサイズとするアバターを決定できる。 With such a configuration, an avatar with a smaller data size can be determined based on an appropriate score obtained using appropriate dynamic attribute values of the avatar.
また、本第九の発明のアバター出力装置は、第一から第八いずれか1つの発明に対して、第二モデル情報は、アバターの一部の箇所のみの情報をより少ないデータサイズとしたモデル情報である、アバター出力装置である。 In addition, in the avatar output device of the ninth invention, in contrast to any one of the first to eighth inventions, the second model information is a model in which the data size of only a part of the avatar is reduced. It is an avatar output device that is information.
かかる構成により、一部の箇所についてのみ小さいサイズとしたアバターを使用できる。 With such a configuration, it is possible to use an avatar with a small size only for some parts.
また、本第十の発明のアバター出力装置は、第一から第九いずれか1つの発明に対して、端末装置において、2以上のアバターを含む画像が出力されるまでの処理において、端末装置と処理を分担する、アバター出力装置である。 Further, in the avatar output device of the tenth invention, in contrast to any one of the first to ninth inventions, the terminal device and the It is an avatar output device that shares the processing.
かかる構成により、2以上の各端末装置とアバター出力装置とで処理を分担できる。 With this configuration, processing can be shared between two or more terminal devices and the avatar output device.
また、本第十一の発明のアバター出力装置は、第十の発明に対して、決定部は、2以上の各端末装置ごとに、2以上の各アバターに対応する1以上の動的属性値を用いて取得されたスコアまたは判定結果に基づいて、1以上の第二アバターを決定し、1以上の動的属性値を用いてスコアまたは判定結果を取得する処理は端末装置が行い、第一モデル情報を用いて、第二モデル情報を取得する処理はアバター出力装置が行う、アバター出力装置である。 Further, in the avatar output device of the eleventh aspect of the present invention, in contrast to the tenth aspect, the determination unit includes, for each of the two or more terminal devices, one or more dynamic attribute values corresponding to each of the two or more avatars The terminal device determines one or more second avatars based on the score or determination result obtained using the first The avatar output device performs the process of acquiring the second model information using the model information.
かかる構成により、2以上の各端末装置とアバター出力装置とで適切に処理を分担できる。 With this configuration, it is possible to appropriately share processing between two or more terminal devices and the avatar output device.
また、本第十二の発明のアバター出力装置は、第一から第十一いずれか1つの発明に対して、アバター格納部の2以上の各アバターのアバター情報は、第一モデル情報と第二モデル情報とを有し、アバター取得部は、決定部が決定した1以上の第二アバターについては、第二モデル情報を読み出し、第二モデル情報を用いてアバターを構成し、第一アバターについては、第一モデル情報を読み出し、第一モデル情報を用いてアバターを構成する、アバター出力装置である。 Further, in the avatar output device of the twelfth invention, in contrast to any one of the first to eleventh inventions, the avatar information of each of the two or more avatars in the avatar storage unit is the first model information and the second model information. model information, the avatar acquisition unit reads the second model information for one or more second avatars determined by the determination unit, configures the avatar using the second model information, and the first avatar , an avatar output device that reads first model information and configures an avatar using the first model information.
かかる構成により、2以上の各アバターのうちの少なくとも一部のアバターを、よりデータサイズの小さなアバターとすることにより、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる。 With this configuration, at least some of the two or more avatars are avatars with a smaller data size, so that when a large number of avatars are output, the processing load is suppressed and the output is suitable for the user. you can get a nice avatar.
また、本第十三の発明のアバター出力装置は、第一から第十二いずれか1つの発明に対して、アバター格納部の2以上の各アバターのアバター情報は、動的に変化しない1以上の静的属性値を有し、決定部は、2以上の各アバターに対応する1以上の静的属性値に基づく情報を用いて、1以上の第二アバターを決定する、アバター出力装置である。 Further, in the avatar output device of the thirteenth invention, in contrast to any one of the first to twelfth inventions, the avatar information of each of the two or more avatars in the avatar storage unit is one or more that do not dynamically change. and the determination unit determines one or more second avatars using information based on one or more static attribute values corresponding to each of the two or more avatars. .
かかる構成により、アバターの静的属性値に基づいて、より小さなデータサイズとするアバターを決定できる。 With such a configuration, it is possible to determine an avatar with a smaller data size based on the static attribute value of the avatar.
また、本第十四の発明のアバター出力装置は、第十三の発明に対して、1以上の静的属性値は、アバターの役割に関する属性値、アバターの由来に関する属性値のいずれかを含む、アバター出力装置である。 Further, in the avatar output device of the fourteenth invention, in contrast to the thirteenth invention, the one or more static attribute values include either an attribute value related to the role of the avatar or an attribute value related to the origin of the avatar. , is an avatar output device.
かかる構成により、アバターの適切な静的属性値に基づいて、より小さなデータサイズとするアバターを決定できる。 With such a configuration, an avatar with a smaller data size can be determined based on the appropriate static attribute value of the avatar.
また、本第十五の発明のアバター出力装置は、第十三の発明に対して、1以上の静的属性値は、アバターに対応する端末装置の属性値を含む、アバター出力装置である。 Further, the avatar output device of the fifteenth invention is an avatar output device, in contrast to the thirteenth invention, wherein the one or more static attribute values include attribute values of a terminal device corresponding to the avatar.
かかる構成により、アバターの適切な静的属性値に基づいて、より小さなデータサイズとするアバターを決定できる。 With such a configuration, an avatar with a smaller data size can be determined based on the appropriate static attribute value of the avatar.
また、本第十六の発明のアバター出力装置は、第一から第十五いずれか1つの発明に対して、第二モデル情報は、第一モデル情報が有するN(Nは2以上の自然数)のメッシュ情報を用いて取得された、Nよりも少ないM(Mは1以上の自然数)のメッシュ情報を有するモデル情報である、アバター出力装置である。 Further, in the avatar output device of the sixteenth invention, for any one of the first to fifteenth inventions, the second model information has N (N is a natural number of 2 or more) that the first model information has , which is model information having mesh information of M smaller than N (M is a natural number of 1 or more) obtained using mesh information of .
かかる構成により、2以上の各アバターのうちの少なくとも一部のアバターを、適切に圧縮されたデータのアバターとすることにより、多数のアバターを含む出力を、リアルタイムに得ることができる。 With such a configuration, by making at least some avatars of each of two or more avatars appropriately compressed data avatars, an output including a large number of avatars can be obtained in real time.
また、本第十七の発明の端末装置は、第一から第十六いずれか1つの発明に対して、アバター出力装置と通信を行い、アバターを表示する端末装置であって、端末装置に対応するアバターの位置情報を含む1以上の端末属性値が格納される端末格納部と、位置情報をアバター出力装置に送信する端末送信部と、アバター出力装置から1以上の他の端末装置に対応する他アバターの位置情報を受信する端末受信部と、1以上の他アバターの位置情報と位置情報とを用いて、1以上の他アバターのスコアを取得する端末処理部とを具備し、端末送信部は、端末装置の端末識別子に対応付けて、1以上の他アバターのスコアまたはスコアに基づく判定結果をアバター出力装置に送信し、端末受信部は、スコアまたは判定結果の送信に応じて、アバター出力装置から他アバターのモデル情報であり、スコアまたは判定結果に応じた異なるモデル情報を受信し、モデル情報を用いて、1以上の他アバターを表示する端末出力部をさらに具備する端末装置である。 In addition, the terminal device of the seventeenth invention is a terminal device that communicates with an avatar output device and displays an avatar for any one of the first to sixteenth inventions, and corresponds to the terminal device a terminal storage unit for storing one or more terminal attribute values including position information of the avatar to be sent, a terminal transmission unit for transmitting the position information to the avatar output device, and one or more other terminal devices from the avatar output device a terminal receiving unit for receiving position information of other avatars; and a terminal processing unit for acquiring scores of one or more other avatars using the position information of one or more other avatars and the position information, and a terminal transmitting unit. transmits the score of one or more other avatars or the determination result based on the score to the avatar output device in association with the terminal identifier of the terminal device, and the terminal receiving unit outputs the avatar in response to the transmission of the score or the determination result The terminal device further comprises a terminal output unit that receives model information of other avatars from the device and different model information according to scores or determination results, and displays one or more other avatars using the model information.
かかる構成により、2以上の各端末装置に対応するアバターのうちの少なくとも一部のアバターを、よりデータサイズの小さなアバターとすることにより、多数のアバターを出力する場合に、2以上の端末装置ごとに異なる出力であり、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる。 With this configuration, at least some of the avatars corresponding to each of the two or more terminal devices are avatars with a smaller data size, so that when outputting a large number of avatars, each of the two or more terminal devices Therefore, an appropriate avatar for the user can be obtained while suppressing the processing load.
本発明によるアバター出力装置によれば、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる。 ADVANTAGE OF THE INVENTION According to the avatar output device by this invention, when outputting many avatars, the avatar suitable for a user can be obtained, suppressing the load of a process.
以下、アバター出力装置等の実施形態について図面を参照して説明する。なお、実施の形態において同じ符号を付した構成要素は同様の動作を行うので、再度の説明を省略する場合がある。 Hereinafter, embodiments such as an avatar output device will be described with reference to the drawings. It should be noted that, since components denoted by the same reference numerals in the embodiments perform similar operations, repetitive description may be omitted.
(実施の形態1)
本実施の形態において、仮想的な三次元空間(以下、適宜、単に「三次元空間」と言う。)の中に滞在する2以上の各ユーザのアバターのうち、少なくとも一部のアバターについては小さいサイズの情報を用いて出力される情報システムについて説明する。なお、三次元空間は、例えば、VRであるが、AR等でも良い。
本実施の形態における情報システムは、例えば、三次元空間の中において、各ユーザの分身である2以上のアバターが集まり、ユーザ間において、コミュニケーションをすることを支援するシステムである。本情報システムは、ゲーム等にも応用可能である。本情報システムは、アバターを出力する機能を有すれば良く、応用範囲は問わない。
なお、以下、2以上のユーザのうちの一人のユーザに対応するアバターを自アバターと表現し、それ以外のユーザを他アバターと表現する。
(Embodiment 1)
In the present embodiment, among the avatars of two or more users staying in a virtual three-dimensional space (hereinafter simply referred to as "three-dimensional space" as appropriate), at least some of the avatars are small An information system outputting using size information will be described. The three-dimensional space is, for example, VR, but may be AR or the like.
The information system according to the present embodiment is, for example, a system in which two or more avatars, which are alter ego of each user, gather in a three-dimensional space and support communication between the users. This information system can also be applied to games and the like. This information system only needs to have a function of outputting avatars, and the range of application is not limited.
In addition, hereinafter, an avatar corresponding to one user out of two or more users is expressed as a self avatar, and other users are expressed as other avatars.
また、本実施の形態において、端末装置ごとに、2以上の各アバターのスコアを用いて、アバターに対して使用するモデル情報または音声情報を決定し、当該決定したモデル情報または音声情報を用いて、アバターを表現する情報システムについて説明する。なお、スコアは、動的属性値または静的属性値を用いて取得される。 Further, in the present embodiment, for each terminal device, using the scores of two or more avatars, model information or voice information to be used for the avatar is determined, and using the determined model information or voice information , describes an information system for representing avatars. Note that scores are obtained using dynamic attribute values or static attribute values.
さらに、本実施の形態において、三次元空間の中のアバター表示に関する処理を、アバター出力装置と端末装置とで、適切に分担する情報システムについて説明する。 Furthermore, in the present embodiment, an information system will be described in which the avatar output device and the terminal device appropriately share the processing related to the avatar display in the three-dimensional space.
図1は、本実施の形態における情報システムAの概念図である。情報システムAは、アバター出力装置1、および1または2以上の端末装置2を備える。
FIG. 1 is a conceptual diagram of an information system A according to this embodiment. An information system A includes an
アバター出力装置1は、アバターの出力のための処理を行う装置である。アバター出力装置1は、ここでは、通常、いわゆるサーバであるが、スタンドアロンで動作する装置でも良い。アバター出力装置1は、例えば、クラウドサーバ、ASPサーバ等である。なお、アバター出力装置1の種類は問わない。また、アバター出力装置1がスタンドアロンの装置である場合、端末装置2は不要であり、後述する端末装置2の機能の一部は、アバター出力装置1が実行する。
The
端末装置2は、ユーザが使用する端末である。端末装置2は、自分に対応する自アバターと1以上の他アバターとを出力する端末である。一のアバターは、例えば、一の端末装置2に対応付く。また、一のアバターは、例えば、一のユーザに対応付く。他アバターは、他の端末装置2を使用する他のユーザに対応するアバターである。なお、一のユーザに対して2以上のアバターが対応付いていても良い。つまり、一のユーザが、2以上のアバターを切り替えて、2以上のアバターの中の一つのアバターを使用しても良い。端末装置2は、例えば、いわゆるパーソナルコンピュータ、タブレット端末、スマートフォン等であり、その種類は問わない。なお、出力とは、通常、表示であるが、表示デバイスへの送信でも良い。
The
なお、アバターは、通常、ユーザの分身として出力されるキャラクターである。アバターは、キャラクターと言っても良い。 Note that the avatar is usually a character that is output as a user's alter ego. An avatar can be called a character.
図2は、本実施の形態における情報システムAのブロック図である。情報システムAを構成するアバター出力装置1は、格納部11、受付部12、処理部13、および出力部14を備える。
FIG. 2 is a block diagram of the information system A according to this embodiment. The
格納部11は、ワールド格納部111、およびアバター格納部112を備える。受付部12は、例えば、アバター受信部121を備える。処理部13は、例えば、モデル圧縮部131、アバター蓄積部132、決定部133、アバター取得部134、および音声取得部135を備える。出力部14は、例えば、位置情報送信部141、アバター出力部142、および音声出力部143を備える。
The storage unit 11 includes a
端末装置2は、端末格納部21、端末受付部22、端末処理部23、端末送信部24、端末受信部25、および端末出力部26を備える。
The
アバター出力装置1を構成する格納部11には、各種の情報が格納される。各種の情報とは、例えば、後述するワールド情報、後述するアバター情報である。
Various types of information are stored in the storage unit 11 that constitutes the
ワールド格納部111には、ワールド情報が格納される。ワールド情報は、ワールドを構成するための情報である。ワールド情報の構造は問わない。
World information is stored in the
アバター格納部112には、1または2以上のアバター情報が格納される。アバター情報は、出力されるアバターを構成するための情報を含む。アバター情報は、アバターごとの情報である。アバター情報は、アバター識別子に対応付いている。アバター識別子に対応付いていることは、アバター識別子を有することでも良い。アバター識別子は、例えば、アバターのIDであるが、アバターに対応するユーザのID、端末装置2のID等でも良い。
The
アバター情報は、モデル情報を有する。モデル情報は、アバターの表示を構成するための情報である。モデル情報は、例えば、メッシュ情報、ボーン情報、マテリアル情報を有する。モデル情報は、例えば、glTF ?(GL Transmission Format)?のデータ構造を有する。ただし、モデル情報のデータ構造は、VRM、OBJ、FBX、STL、GLB、COLLADA、等でも良く、種類を問わない。 Avatar information has model information. The model information is information for configuring the display of the avatar. Model information includes, for example, mesh information, bone information, and material information. The model information has, for example, a data structure of glTF? (GL Transmission Format)?. However, the data structure of the model information may be VRM, OBJ, FBX, STL, GLB, COLLADA, etc., and the type does not matter.
ここでの各アバター情報は、データサイズの異なる2種類以上のモデル情報を有することは好適である。アバター情報は、例えば、第一モデル情報と第二モデル情報とを有する。ここで、「第一モデル情報のデータサイズ>第二モデル情報のデータサイズ」である。第二モデル情報は、例えば、第一モデル情報のデータサイズを圧縮したモデル情報である。なお、圧縮のアルゴリズムは問わない。第二モデル情報は、例えば、第一モデル情報が有するメッシュ情報のうち、2以上のメッシュ情報から一のメッシュ情報を構成し(メッシュを統合し)、メッシュ情報を削減したモデル情報である。また、第二モデル情報は、例えば、第一モデル情報が有する色情報の階調を小さくすることにより、データサイズを削減したモデル情報である。第二モデル情報は、例えば、第一モデル情報が有するテクスチャのアトラス化により、データサイズを小さくしたモデル情報である。 Each avatar information here preferably has two or more types of model information with different data sizes. Avatar information has, for example, first model information and second model information. Here, "the data size of the first model information>the data size of the second model information". The second model information is, for example, model information obtained by compressing the data size of the first model information. Any compression algorithm may be used. The second model information is, for example, model information obtained by forming one piece of mesh information (integrating the meshes) from two or more pieces of mesh information included in the first model information and reducing the mesh information. The second model information is model information whose data size is reduced by, for example, reducing the gradation of the color information included in the first model information. The second model information is, for example, model information whose data size is reduced by converting the texture of the first model information into an atlas.
なお、第一モデル情報は、例えば、アバター識別子に対応付けて、端末装置2から送信された情報である。なお、アバター識別子は、端末識別子でも良い。また、第一モデル情報は、例えば、端末装置2から送信された元情報を用いて取得された情報でも良い。元情報は、モデル情報でも良いし、モデル情報を特定する識別子でも良い。
The first model information is, for example, information transmitted from the
また、アバター情報は、モデル情報の他、音声情報や1以上の属性値を有することは好適である。 In addition to the model information, the avatar information preferably has voice information and one or more attribute values.
音声情報は、アバターが発する音声の情報である。音声情報のデータ構造やデータ形式は問わない。アバター情報は、データサイズまたは属性値が異なる2種類以上の音声情報を有することは好適である。アバター情報は、例えば、第一音声情報と第二音声情報とを有する。例えば、「第一音声情報のデータサイズ>第二音声情報のデータサイズ」である。また、例えば、「第一音声情報の属性値であるボリューム>第二音声情報の属性値であるボリューム」である。また、例えば、「第一音声情報の属性値であるサンプリング周波数>第二音声情報の属性値であるサンプリング周波数」である。また、例えば、「第一音声情報の属性値である高さ(周波数)>第二音声情報の属性値である高さ(周波数)」である。 The audio information is information on the audio uttered by the avatar. The data structure and data format of the audio information are irrelevant. The avatar information preferably has two or more types of audio information with different data sizes or attribute values. Avatar information has, for example, first audio information and second audio information. For example, "data size of first audio information>data size of second audio information". Also, for example, "the volume as the attribute value of the first audio information>the volume as the attribute value of the second audio information". Also, for example, "the sampling frequency that is the attribute value of the first audio information>the sampling frequency that is the attribute value of the second audio information". Further, for example, "height (frequency) as an attribute value of the first audio information>height (frequency) as an attribute value of the second audio information".
1以上の各属性値は、アバターの属性値である。属性値は、例えば、動的属性値、または静的属性値である。 Each attribute value of 1 or more is the attribute value of the avatar. Attribute values are, for example, dynamic attribute values or static attribute values.
動的属性値は、動的に変化し得る属性値である。動的属性値は、例えば、位置情報、向き情報である。 A dynamic attribute value is an attribute value that can change dynamically. Dynamic attribute values are, for example, location information and orientation information.
位置情報は、アバターの場における位置を特定する情報である。位置情報は、例えば、ユーザが入力した位置情報である。ユーザが入力した位置情報は、通常、アバターを動作させるユーザの操作により決定される情報である。位置情報は、場(ワールドと言っても良い)の中での絶対的な位置を特定する情報であり、例えば、三次元座標(x、y、z)または二次元座標(x、y)である。 The positional information is information specifying the position of the avatar in the field. The location information is, for example, location information input by the user. The location information input by the user is usually information determined by the user's operation to move the avatar. Positional information is information that specifies an absolute position in a field (which may be called the world). For example, three-dimensional coordinates (x, y, z) or two-dimensional coordinates be.
向き情報は、アバターの場における向きを特定する情報である。向き情報は、例えば、基準となる方向に対する角度である。基準となる方向は、場(ワールドと言っても良い)の中での絶対的な向きを特定する情報である。向き情報は、例えば、場の中の正面を向いているか否かを示す情報である。 Orientation information is information that specifies the orientation of the avatar in the field. Direction information is, for example, an angle with respect to a reference direction. A reference direction is information specifying an absolute direction in a field (which may be called a world). Direction information is, for example, information indicating whether or not the player is facing the front in the field.
静的属性値は、動的には変化しない属性値である。静的属性値は、例えば、役割属性値、由来属性値、端末属性値である。 A static attribute value is an attribute value that does not change dynamically. Static attribute values are, for example, role attribute values, source attribute values, and terminal attribute values.
役割属性値は、アバターの役割に関する情報である。役割属性値は、例えば、「主催者」「司会者」「観客」である。なお、「主催者」は、仮想的な三次元空間上で、アバターを用いたイベントを開催する場合の主催者である。「司会者」は、仮想的な三次元空間上で、アバターを用いたイベントを開催する場合の司会者である。「観客」は、仮想的な三次元空間上で、アバターを用いたイベントを開催する場合の観客である。 The role attribute value is information regarding the role of the avatar. Role attribute values are, for example, "host", "moderator", and "spectator". Note that the “sponsor” is the organizer when holding an event using avatars in a virtual three-dimensional space. A “moderator” is a moderator when holding an event using an avatar in a virtual three-dimensional space. The "audience" is a spectator when an event using avatars is held in a virtual three-dimensional space.
由来属性値は、アバターの由来に関する情報である。由来属性値は、例えば、ユーザが作成したアバター(UGC)か否かを示す情報である。 The origin attribute value is information regarding the origin of the avatar. The origin attribute value is, for example, information indicating whether or not it is an avatar (UGC) created by a user.
端末属性値は、アバターに対応する端末装置2に関する情報である。端末属性値は、例えば、端末装置2の種類を特定する端末種類識別子(例えば、「PC」「スマートフォン」「タブレット」)、端末装置2のプロセッサの能力を特定する情報(例えば、能力のレベル、動作周波数(GHz))、端末装置2の画面サイズ、アスペクト比である。
The terminal attribute value is information regarding the
受付部12は、各種の情報や指示を受け付ける。なお、ここでの受け付けは、通常、端末装置2からの受信であるが、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付け等でも良い。
The
また、各種の情報や指示は、例えば、アバター情報、音声情報、リクエストである。受け付けられるアバター情報は、アバター格納部112のアバター情報と同じ構造でなくても良い。受け付けられるアバター情報は、例えば、第一モデル情報と位置情報とを有する。
Various information and instructions are, for example, avatar information, voice information, and requests. The avatar information to be accepted does not have to have the same structure as the avatar information in the
リクエストは、アバターの送信の要求である。リクエストは、例えば、他アバターの表示に関するリクエストであり、他アバターを示すアバター識別子とモデル情報の組を、1組以上、有する。リクエストは、例えば、ワールド情報の送信指示を有しても良い。 A request is a request to send an avatar. The request is, for example, a request regarding display of other avatars, and has one or more pairs of avatar identifiers and model information indicating other avatars. A request may comprise, for example, an indication to send world information.
アバター受信部121は、ユーザが使用する2以上の各端末装置2から第一モデル情報または元情報を受信する。元情報は、第一モデル情報の元になる情報である。元情報は、例えば、モデル情報であるが、第一モデル情報の識別子でも良い。
The
アバター受信部121は、2以上の各端末装置2から、各端末装置2に対応するアバターの位置を特定する位置情報をも受信することは好適である。なお、アバター受信部121は、2以上の各端末装置2から第一モデル情報または元情報、位置情報、およびアバター識別子を対応付けて受信することは好適である。ただし、第一モデル情報または元情報、および位置情報は対応付けば良く、別々に受信されても良い。なお、アバター識別子は、アバターを識別する情報であり、例えば、ID、ユーザ名である。また、アバター受信部121が端末装置2から第一モデル情報または元情報を受信したことに応じて、ユニークなアバター識別子が取得されても良い。
It is preferable that the
アバター受信部121は、音声情報、位置情報をも受信することは好適である。アバター受信部121は、音声情報を、アバター識別子を対応付けて受信することは好適である。
It is preferable that the
アバター受信部121は、2以上の各端末装置2から、第一モデル情報と第二モデル情報とを有するアバター情報を受信しても良い。かかる場合、端末装置2が、第一モデル情報に基づいて、第二モデル情報を取得する処理を行っても良い。
The
アバター受信部121は、2以上の各端末装置2から、各端末装置2で取得された1以上の他アバターのスコアまたは判定結果を、アバター識別子に対応付けて受信することは好適である。アバター受信部121は、各端末装置2ごとに、自アバターのスコアまたは判定結果をも受信しても良い。なお、判定結果とは、アバターのモデル情報の種類を決定するための情報である。判定結果は、例えば、スコアに基づいて決定された情報である。判定結果は、例えば、モデル情報の種類を特定する種類識別子である。判定結果は、例えば、第一モデル情報に対応する「第一」、第二モデル情報に対応する「第二」である。
It is preferable that the
なお、他アバターは、自アバターでは無いアバターである。自アバターは、端末装置2に対応するアバターである。アバター受信部121が自アバターのスコアを受信しない場合、自アバターのスコアは、通常、デフォルト値(例えば、最高点)である。なお、端末装置2にとっての他アバターのスコアは、端末装置2にとっての他アバターの重要度を特定する情報である。スコアは、例えば、0~100、10段階評価等であるが、その範囲等は問わない。
Note that other avatars are avatars that are not the own avatar. The own avatar is an avatar corresponding to the
処理部13は、各種の処理を行う。各種の処理は、例えば、モデル圧縮部131、アバター蓄積部132、決定部133、アバター取得部134、音声取得部135が行う処理である。
The
処理部13は、例えば、ワールド格納部111のワールド情報を取得する。
The
モデル圧縮部131は、第一モデル情報または元情報を用いて、第二モデル情報を取得する。第二モデル情報は、第一モデル情報より小さいデータサイズのモデル情報である。
The
なお、モデル圧縮部131が行う処理は問わない。モデル圧縮部131は、例えば、第一モデル情報または元情報が有する2以上のメッシュ情報から一のメッシュ情報を構成し、メッシュ情報の数を削減した第二モデル情報を取得する。かかる場合、第二モデル情報は、例えば、第一モデル情報が有するN(Nは2以上の自然数)のメッシュ情報を用いて取得された、Nよりも少ないM(Mは1以上の自然数)のメッシュ情報を有するモデル情報である。
Note that the processing performed by the
また、モデル圧縮部131は、例えば、第一モデル情報または元情報が有する色情報の階調を小さくすることにより、データサイズを削減した第二モデル情報を取得する。モデル圧縮部131は、例えば、第一モデル情報または元情報が有するテクスチャのアトラス化により、データサイズを小さくした第二モデル情報を取得する。
The
モデル圧縮部131は、第一モデル情報が有するアバターの一部の箇所(例えば、ボディー部、顔部以外の箇所)の情報のみを圧縮し、第二モデル情報を取得することは好適である。
It is preferable that the
アバター蓄積部132は、アバター受信部121が受信した第一モデル情報、またはアバター受信部121が受信した元情報を用いて取得された第一モデル情報を有するアバター情報をアバター格納部112に蓄積する。
The
アバター蓄積部132は、例えば、アバター受信部121が受信した位置情報、音声情報のうちの1以上の情報をも有するアバター情報をアバター格納部112に蓄積する。
The
アバター蓄積部132は、例えば、第一モデル情報と第二モデル情報とを有するアバター情報をアバター格納部112に蓄積する。
The
アバター蓄積部132は、例えば、第一モデル情報とモデル圧縮部131が取得した第二モデル情報とを有するアバター情報をアバター格納部112に蓄積する。
The
なお、アバター蓄積部132が行う蓄積処理は、一時的な蓄積でも良い。
Note that the accumulation processing performed by the
決定部133は、2以上のアバターのうち、1以上の第一アバターと1以上の第二アバターとを決定する。なお、第一アバターは、第一モデル情報を用いて表示されるアバターである。第二アバターは、第二モデル情報を用いて表示されるアバターである。なお、決定する処理は、例えば、アバター識別子と対になるスコアまたは判定結果に対応する種類識別子を取得すること、端末装置2から受信された種類識別子を取得すること等である。種類識別子は、例えば、「第一アバター」「第二アバター」である。
The
決定部133は、例えば、受信されたリクエストに含まれるアバター識別子ごとに、当該アバター識別子と対になるスコアまたは判定結果に対応する種類識別子を取得する。
For example, for each avatar identifier included in the received request, the determining
モデル情報が3種類以上存在する場合、決定部133は、3以上のアバターのうち、1以上の第一アバターと1以上の第二アバターと1以上の第三アバターとを決定する。
When there are three or more types of model information, the
決定部133は、2以上の各アバターが、少なくとも2種類以上のアバターのうちのいずれであるかを決定する。決定部133は、2以上の各アバターが、3種類以上のアバターのうちのいずれであるかを決定しても良い。なお、アバターは、通常、ユーザまたは端末装置2に対応付いている。
The determining
決定部133は、通常、端末装置2ごとに、1以上の第一アバターと1以上の第二アバターとを決定する。つまり、端末装置2によって、同じ他アバターでも、モデル情報の種類が異なることは好適である。
The determining
決定部133は、2以上の各端末装置ごとに、2以上の各アバターに対応する1以上の動的属性値を用いて取得されたスコアに基づいて、1以上の第二アバターを決定することは好適である。
The
決定部133は、2以上の各アバターに対応する1以上の静的属性値に基づく情報を用いて、1以上の第二アバターを決定しても良い。
The
決定部133は、スコアまたは判定結果を用いて、2以上の各端末装置ごとに、2以上の各アバターに対して、1以上の第一アバターと1以上の第二アバターとを決定する。なお、スコアまたは判定結果は、端末装置2から受信された情報でも良いし、アバター出力装置1が取得した情報でも良い。
The
決定部133は、例えば、スコアまたは判定結果に基づいて、第一アバターと第二アバターとを決定する。
The
決定部133は、例えば、スコア条件を満たすほど高いスコアと対になるアバター識別子で識別されるアバターを第一アバターに決定し、スコア条件を満たさないほど低いスコアと対になるアバター識別子で識別されるアバターを第二アバターに決定する。
For example, the determining
スコア条件は、例えば、「スコアが閾値以上」「スコアが閾値より大きい」「スコアが上位N(Nは自然数)以内」「スコアが上位N(Nは自然数)より高い」である。 The score conditions are, for example, "score is greater than threshold", "score is greater than threshold", "score is within top N (N is a natural number)", and "score is higher than top N (N is a natural number)".
決定部133は、例えば、判定結果「第一」と対になるアバター識別子で識別されるアバターを第一アバターに決定し、判定結果「第二」と対になるアバター識別子で識別されるアバターを第二アバターに決定する。
For example, the
決定部133は、例えば、端末装置2から受信された1以上の各他アバターのスコアまたは判定結果を用いて、各他アバターが2種類以上のアバターのうちのいずれかであるかを決定する。
The
決定部133は、例えば、端末装置2から受信された1以上の属性値を用いて、1以上の各他アバターに対するスコア取得処理を行い、当該スコアに基づいて、各他アバターが2種類以上のアバターのうちのいずれかであるかを決定する。なお、スコア取得処理は、各端末装置2が行っても良い。
For example, the
決定部133は、例えば、以下のようなスコア取得処理を行う。つまり、決定部133は、2以上の各端末装置2から受信された1以上の属性値と、各アバターの位置情報とを用いて、2以上の各端末装置2ごとに、1以上の他アバターのスコアを取得する。なお、各端末装置2から受信された1以上の属性値は、例えば、自アバターの位置情報、自アバターの向き情報を有する。
The
具体的には、決定部133は、例えば、端末装置2から受信された自アバターの位置情報、端末装置2から受信された自アバターの向き情報、カメラ属性値、1以上の各他アバターの位置情報のうちの2以上の情報を用いて、1以上の他アバターの動的属性値を取得する。なお、カメラ属性値は、例えば、カメラの位置を特定するカメラ位置情報、カメラの向きを特定するカメラ向き情報、カメラの画角を特定する画角情報である。カメラ属性値は、例えば、格納部11に格納されている。また、画角情報は、通常、カメラの水平方向の角度の範囲、カメラの垂直方向の角度の範囲である。なお、ここでのカメラは、仮想的な三次元空間上に設置されたカメラである。
Specifically, the
決定部133は、例えば、自アバターの位置情報と他アバターの位置情報とを用いて、自アバターと他アバターとの距離を取得する。また、決定部133は、例えば、自アバターの位置情報と自アバターの向き情報と他アバターの位置情報とを用いて、他アバターが自アバターの視野の中に入っているか否かを示す動的属性値(視野内属性値と言っても良い。)を取得する。また、決定部133は、例えば、カメラ位置情報とカメラ向き情報と画角情報と他アバターの位置情報とを用いて、他アバターがカメラによる撮影の範囲に入っているか否かを示す動的属性値(撮影範囲属性値と言っても良い。)を取得する。
The determining
そして、決定部133は、例えば、他アバターに対して、距離が近いほど大きな値のスコアを取得する。また、決定部133は、例えば、視野の中に入っている場合に、視野の中に入っていない場合と比較して、大きな値のスコアを取得する。また、決定部133は、例えば、カメラによる撮影の範囲に入っている場合に、撮影の範囲に入っていない場合と比較して、大きな値のスコアを取得する。
Then, the
さらに具体的には、決定部133は、例えば、他アバターに対して、距離をパラメータとする減少関数により、スコアを取得する。決定部133は、例えば、距離、視野内属性値、および撮影範囲属性値に対応するスコアを対応表から取得する。かかる場合、対応表は、例えば、距離の範囲、視野内属性値、および撮影範囲属性値の組と、スコアとの対応を示す2以上の対応情報を有する表である。
More specifically, the determining
また、決定部133は、例えば、1以上の静的属性値を用いて、以下のようなスコア取得処理を行っても良い。なお、1以上の静的属性値は、例えば、アバターの役割に関する属性値、アバターの由来に関する属性値のいずれかを含む。
Also, the
決定部133は、例えば、他アバターの役割が「主催者」または「司会者」である場合、他アバターの役割が「観客」である場合と比較して、高いスコアを取得する。決定部133は、例えば、例えば、他アバターがUGCである場合、UGCでない場合と比較して、高いスコアを取得する。
For example, when the other avatar has the role of "organizer" or "moderator", the
決定部133は、例えば、視野内属性値または撮影範囲属性値のみに基づいて、決定しても良い。決定部133による決定処理のアルゴリズムは問わない。また、決定部133がスコアを取得する場合、当該スコア取得のアルゴリズムも問わない。
The
決定部133は、例えば、2以上のアバターのうち、第一音声情報に対応するアバターである1以上の第一アバターと、第二音声情報に対応するアバターである1以上の第二アバターを決定する。なお、第二音声情報は、第一音声情報より小さいデータサイズの音声情報または第一音声情報とは異なる属性値を有する音声情報である。なお、異なる属性値とは、例えば、音量、周波数である。
For example, the determining
決定部133は、例えば、他アバターのスコアまたは判定結果に基づいて、当該他アバターの音声情報の種類を決定する。決定部133は、例えば、他アバターのスコアまたは判定結果に基づいて、第一アバター、第二アバター等の種類を決定し、当該種類に対応する音声情報の種類を決定する。
The
アバター取得部134は、決定部133が決定した1以上の各第二アバターについては、第二モデル情報を用いたアバターをアバター格納部112から取得し、1以上の各第一アバターについては、第一モデル情報を用いたアバターをアバター格納部112から取得する。
The
アバターを取得することは、モデル情報を取得することでも良いし、モデル情報を含むアバター情報を取得することでも良いし、モデル情報と音声情報とを含むアバター情報を取得することでも良いし、モデル情報を識別するモデル識別子(例えば、第一アバターか第二アバターかを識別する情報、モデル情報の種類を識別する情報)を取得することでも良いし、音声情報を識別する音声識別子(例えば、第一アバターか第二アバターかを識別する情報、音声情報の種類を識別する情報)を取得することでも良い。 Acquiring an avatar may be acquiring model information, acquiring avatar information including model information, acquiring avatar information including model information and voice information, or acquiring model information. A model identifier that identifies the information (for example, information that identifies the first avatar or the second avatar, information that identifies the type of model information) may be acquired, or a voice identifier that identifies the voice information (for example, the second avatar) may be acquired. Information identifying the first avatar or the second avatar, information identifying the type of voice information) may be acquired.
アバター取得部134は、例えば、決定部133が決定した1以上の第二アバターについては、第二モデル情報を読み出し、第二モデル情報を用いてアバターを構成する。
For example, for one or more second avatars determined by the
音声取得部135は、決定部133が決定した1以上の各第二アバターについては、第二音声情報を取得し、1以上の各第一アバターについては、第一音声情報を取得する。
The
出力部14は、各種の情報を出力する。ここで、出力とは、通常、端末装置2への送信であるが、ディスプレイへの表示、プロジェクターを用いた投影、プリンタでの印字、音出力、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念であっても良い。
The
出力部14は、例えば、ワールド格納部111のワールド情報を2以上の各端末装置2に送信する。
The
位置情報送信部141は、2以上の各端末装置2に対応する2以上の各アバターの位置情報のうち、1以上の他アバターの位置情報を、アバターを識別するアバター識別子に対応付けて、2以上の各端末装置に送信する。1以上の他アバターの位置情報は、例えば、各他アバターに対応する端末装置2が送信した情報である。1以上の他アバターの位置情報は、各端末装置2における自アバターの位置情報を含まなくても良い。位置情報送信部141は、2以上の各端末装置2に、当該端末装置2に対応する自アバターの位置情報を送信しなくても良いし、自アバターの位置情報も送信しても良い。
The position information transmitting unit 141 associates the position information of one or more other avatars among the position information of each of two or more avatars corresponding to each of two or more
アバター出力部142は、アバター取得部134が取得した2以上のアバターを出力する。ここで、出力とは、通常、端末装置2への送信であるが、ディスプレイへの表示、プロジェクターを用いた投影、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念であっても良い。
また、アバターの出力とは、モデル情報の送信でも良いし、モデル識別子の送信でも良い。端末装置2でアバターが出力されれば良い。
Also, the output of the avatar may be transmission of model information or transmission of a model identifier. It is sufficient if the
アバター出力部142は、通常、2以上の各端末装置2ごとに、アバター取得部134が取得した2以上のアバターを、2以上の各端末装置2に送信する。
The
アバター出力部142は、受信されたリクエストに含まれる1以上の各アバター識別子を用いて、当該各アバター識別子に対応するモデル情報とアバター識別子とを対にして有する情報を、リクエストを送信してきた端末装置2に送信する。
The
アバター出力部142は、受信されたリクエストがワールド情報の送信指示を含む場合、ワールド情報を、リクエストを送信してきた端末装置2に送信する。
When the received request includes an instruction to transmit world information, the
アバター出力部142が出力するアバターは、端末装置2で表示されるアバターの情報と完全に同一でなくても良い。アバター出力部142が出力するアバターは、端末装置2で表示されるアバターを構成するための情報でも良い。アバターを出力することは、アバターを含む画像を出力することでも良い。
The avatar output by the
音声出力部143は、音声取得部135が取得した第一音声情報、および第二音声情報を出力する。第一音声情報および第二音声情報の出力とは、第一音声情報を識別する識別子および第二音声情報を識別する識別子の出力でも良い。
The
音声出力部143は、アバターのスコアまたは判定結果に応じた種類の音声情報を出力することは好適である。
It is preferable that the
ここで、出力とは、通常、端末装置2への送信であるが、音出力、記録媒体への蓄積、他の処理装置や他のプログラムなどへの処理結果の引渡しなどを含む概念であっても良い。
Here, the output is usually transmission to the
音声出力部143が出力する第一音声情報、および第二音声情報は、端末装置2で出力される音声と同じ情報でなくても良い。
The first audio information and the second audio information output by the
端末装置2を構成する端末格納部21には、1以上の端末属性値が格納される。端末属性値は、端末装置2の属性値である。端末装置2の属性値は、例えば、端末装置2の端末種類識別子、端末装置2の画面サイズ、アスペクト比である。端末格納部21には、位置情報、第一モデル情報または元情報が格納されても良い。
One or more terminal attribute values are stored in the
端末受付部22は、各種の指示や情報を受け付ける。各種の指示や情報は、例えば、位置情報、第一モデル情報、第一モデル情報を識別する識別子、アバター識別子、1以上の属性値、初期入力である。1以上の属性値は、例えば、役割属性値、由来属性値、端末属性値である。
The
なお、初期入力は、2以上のアバターを含む三次元空間を端末装置2に出力する前の入力であり、アバターの位置情報を含む。初期入力は、1または2以上のスコア取得元属性値を含む。初期入力は、アバターのモデル情報または元情報を含むことは好適である。初期入力は、アバター識別子を含んでも良い。初期入力に含まれるモデル情報は、第一モデル情報であることは好適である。スコア取得元属性値は、スコアを取得する元になる属性値であり、位置情報を含む。スコア取得元属性値は、通常、向き情報を含む。
Note that the initial input is an input before a three-dimensional space including two or more avatars is output to the
ここで、受け付けとは、キーボードやマウス、タッチパネルなどの入力デバイスから入力された情報の受け付け、有線もしくは無線の通信回線を介して送信された情報の受信、光ディスクや磁気ディスク、半導体メモリなどの記録媒体から読み出された情報の受け付けなどを含む概念である。 Here, reception means reception of information input from input devices such as keyboards, mice, and touch panels, reception of information transmitted via wired or wireless communication lines, and recording on optical discs, magnetic discs, semiconductor memories, etc. This is a concept that includes acceptance of information read from a medium.
端末処理部23は、各種の処理を行う。各種の処理は、例えば、後述するスコア取得処理、後述するアバター構成処理である。なお、スコアの取得をアバター出力装置1が行う場合、端末処理部23は、スコア取得処理を行わない。
The
端末処理部23は、例えば、1以上の他アバターの位置情報と1以上の端末属性値とを用いて、1以上の他アバターのスコアを取得する。
The
端末処理部23は、例えば、1以上の他の端末装置2における1以上の他アバターの位置情報と、自アバターの位置情報とを用いて、1以上の他アバターのスコアを取得する。
The
具体的には、端末処理部23は、例えば、自アバターの位置情報、自アバターの向き情報、カメラ位置情報、カメラ向き情報、カメラの画角情報、1以上の各他アバターの位置情報のうちの2以上の情報を用いて、1以上の他アバターの動的属性値を取得する。
Specifically, the
端末処理部23は、例えば、自アバターの位置情報と他アバターの位置情報とを用いて、自アバターと他アバターとの距離を取得する。また、端末処理部23は、例えば、自アバターの位置情報と自アバターの向き情報と他アバターの位置情報とを用いて、他アバターが自アバターの視野の中に入っているか否かを示す動的属性値(視野内属性値と言っても良い。)を取得する。また、端末処理部23は、例えば、カメラ位置情報とカメラ向き情報と画角情報他アバターの位置情報とを用いて、他アバターがカメラによる撮影の範囲に入っているか否かを示す動的属性値(撮影範囲属性値と言っても良い。)を取得する。
The
そして、端末処理部23は、例えば、他アバターに対して、三次元空間内における自アバターとの距離が近いほど大きな値のスコアを取得する。また、端末処理部23は、例えば、他アバターが自アバターの視野の中に入っている場合に、視野の中に入っていない場合と比較して、大きな値のスコアを取得する。また、端末処理部23は、例えば、カメラによる撮影の範囲に入っている場合に、撮影の範囲に入っていない場合と比較して、大きな値のスコアを取得する。
Then, the
端末処理部23は、例えば、他アバターに対して、カメラとの距離が近いほど、大きな値のスコアを取得する。
For example, the
さらに具体的には、端末処理部23は、例えば、他アバターに対して、距離をパラメータとする減少関数により、スコアを取得する。端末処理部23は、例えば、距離、視野内属性値、および撮影範囲属性値に対応するスコアを対応表から取得する。かかる場合、対応表は、例えば、距離の範囲、視野内属性値、および撮影範囲属性値の組と、スコアとの対応を示す2以上の対応情報を有する表である。
More specifically, the
また、端末処理部23は、例えば、他アバターの1以上の静的属性値を用いて、以下のような他アバターのスコア取得処理を行っても良い。
Also, the
1以上の静的属性値は、例えば、他アバターの役割に関する属性値、他アバターの由来に関する属性値のいずれかを含む。端末処理部23は、例えば、他アバターの役割が「主催者」または「司会者」である場合、他アバターの役割が「観客」である場合と比較して、高いスコアを取得する。端末処理部23は、例えば、例えば、他アバターがUGCである場合、UGCでない場合と比較して、高いスコアを取得する。
One or more static attribute values include, for example, attribute values related to roles of other avatars and attribute values related to origins of other avatars. For example, the
また、端末処理部23は、例えば、1以上の各他アバターのスコアを用いて、各他アバターに対応する判定結果を取得しても良い。端末処理部23は、スコアの幅と判定結果との対応を示す2以上の対応情報を有する対応表を参照し、スコアと対になる判定結果を、他アバターごとに取得する。端末処理部23は、例えば、スコアをパラメータとする演算式にスコアを代入し、当該演算式を実行し、判定結果を取得する。なお、判定結果は、他アバターを出力する際に使用するアバターを、2以上のアバター(例えば、第一アバターと第二アバター)のうちのいずれのアバターとするかの判定の結果である。
Further, the
また、端末処理部23は、例えば、アバター出力装置1から、1以上の他アバターに対するモデル情報を取得し、当該モデル情報を用いて、表示されるアバターを構成するアバター構成処理を行う。なお、アバター構成処理は、公知技術である。
Also, the
また、端末処理部23は、受信されたワールド情報を用いて、ワールドを構成し、当該ワールドの中に2以上のアバターを配置し、アバターが配置された三次元空間を構成する。なお、端末処理部23は、2以上の各アバターを、対応する位置情報で特定される位置に配置する。
Further, the
端末送信部24は、各種の情報をアバター出力装置1に送信する。端末送信部24は、例えば、端末装置2に対応する自アバターの位置情報をアバター出力装置1に送信する。端末送信部24は、例えば、端末格納部21の1以上の属性値をアバター出力装置1に送信する。1以上の属性値は、例えば、自アバターの位置情報、自アバターの向き情報、端末属性値である。
The
端末送信部24は、端末装置2の端末識別子に対応付けて、1以上の他アバターのスコアまたは判定結果をアバター出力装置1に送信する。なお、ここで送信されるスコアまたは判定結果は、端末処理部23が取得した情報である。また、スコアまたは判定結果は、他アバターのアバター識別子に対応付いている。なお、スコアまの取得をアバター出力装置1が行う場合、端末送信部24は、スコアをアバター出力装置1に送信しない。判定結果の取得をアバター出力装置1が行う場合、端末送信部24は、判定結果をアバター出力装置1に送信しない。
The
端末受信部25は、アバター出力装置1から1以上の他の端末装置2に対応する他アバターの位置情報を受信する。端末受信部25は、例えば、他アバターの1以上の属性値をアバター出力装置1から受信する。
The
端末受信部25は、アバター出力装置1から他アバターのモデル情報であり、スコアまたは判定結果に応じた異なるモデル情報を受信する。
The
端末受信部25は、各アバターに対して、2種類以上のモデル情報を受信しても良い。かかる場合、端末処理部23は、他アバターのスコアまたは判定結果に応じて、他アバターを表示する際に使用するモデル情報を決定する。
The
端末受信部25は、アバター出力装置1からワールド情報をも受信することは好適である。
It is preferable that the
端末出力部26は、1以上の各モデル情報を用いて構成された1以上の他アバターを表示する。なお、表示は、他の表示媒体への送信でも良い。また、モデル情報は、2種類以上のモデル情報のうちの一のモデル情報である。
The
端末出力部26は、自アバターをも表示することは好適である。
It is preferable that the
端末出力部26は、ワールド情報をも用いて、ワールドを表示することは好適である。
It is preferable that the
端末出力部26は、アバターに対応する音声情報を出力することは好適である。出力される音声情報は、アバターのスコアまたは判定結果に応じた種類の音声情報(例えば、第一、または第二音声情報)であることは好適である。
The
格納部11、ワールド格納部111、アバター格納部112、および端末格納部21は、不揮発性の記録媒体が好適であるが、揮発性の記録媒体でも実現可能である。
The storage unit 11, the
格納部11等に情報が記憶される過程は問わない。例えば、記録媒体を介して情報が格納部11等で記憶されるようになってもよく、通信回線等を介して送信された情報が格納部11等で記憶されるようになってもよく、あるいは、入力デバイスを介して入力された情報が格納部11等で記憶されるようになってもよい。 It does not matter how the information is stored in the storage unit 11 or the like. For example, information may be stored in the storage unit 11 or the like via a recording medium, or information transmitted via a communication line or the like may be stored in the storage unit 11 or the like. Alternatively, information input via an input device may be stored in the storage unit 11 or the like.
受付部12、アバター受信部121、および端末受信部25は、通常、無線または有線の通信手段で実現される。
The
処理部13、モデル圧縮部131、アバター蓄積部132、決定部133、アバター取得部134、音声取得部135、および端末処理部23は、通常、プロセッサやメモリ等から実現され得る。処理部13等の処理手順は、通常、ソフトウェアで実現され、当該ソフトウェアはROM等の記録媒体に記録されている。但し、ハードウェア(専用回路)で実現しても良い。なお、プロセッサは、MPU、CPU、GPU等であり、その種類は問わない。
The
出力部14、位置情報送信部141、アバター出力部142、および音声出力部143は、通常、無線または有線の通信手段で実現される。
The
端末受付部22は、タッチパネルやキーボード等の入力手段のデバイスドライバーや、メニュー画面の制御ソフトウェア等で実現され得る。
The
端末出力部26は、ディスプレイやスピーカー等の出力デバイスを含むと考えても含まないと考えても良い。端末出力部26は、出力デバイスのドライバーソフトまたは、出力デバイスのドライバーソフトと出力デバイス等で実現され得る。
The
次に、情報システムAの動作例について説明する。まず、アバター出力装置1の動作例について、図3のフローチャートを用いて説明する。
Next, an operation example of the information system A will be described. First, an operation example of the
(ステップS301)アバター受信部121は、端末装置2からモデル情報等を受信したか否かを判断する。モデル情報等を受信した場合はステップS302に行き、モデル情報等を受信しなかった場合はステップS303に行く。なお、モデル情報等は、端末装置2に対応するアバターの第一モデル情報または元情報を含む情報である。モデル情報等は、例えば、端末装置2に対応するアバターの位置情報を含むことは好適である。モデル情報等は、アバター識別子を含んでも良い。なお、アバター識別子は、モデル情報等の受信に応じて、処理部13がユニークなアバター識別子を取得しても良い。ユニークなアバター識別子を取得する方法は問わない。また、ステップS301では、2以上の各端末装置2から、モデル情報等が受信される。
(Step S<b>301 ) The
(ステップS302)アバター蓄積部132は、受信されたモデル情報等をアバター識別子に対応付けて蓄積する。ステップS301に戻る。
(Step S302) The
(ステップS303)処理部13は、圧縮処理等を開始するか否かを判断する。圧縮処理等を開始する場合はステップS304に行き、圧縮処理等を開始しない場合はステップS312に行く。なお、圧縮処理等は、ステップS304からS311の処理である。また、圧縮処理等を開始するための条件は問わない。かかる条件は、例えば、予め決められた時刻になったこと、処理部13が参加予定のすべての端末装置2からモデル情報等が受信された、と判断したことである。また、かかる条件は、例えば、受付部12が圧縮処理等のリクエストを、端末装置2から受信したことである。
(Step S303) The
(ステップS304)処理部13は、カウンタiに1を代入する。
(Step S304) The
(ステップS305)圧縮処理等の対象のi番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS306に行き、存在しない場合はステップS310に行く。 (Step S305) It is determined whether or not the avatar identifier of the i-th avatar to be subjected to compression processing or the like exists. If the i-th avatar identifier exists, go to step S306, otherwise go to step S310.
(ステップS306)モデル圧縮部131は、i番目のアバター識別子の第一モデル情報を取得する。
(Step S306) The
モデル圧縮部131は、受信された第一モデル情報を取得しても良いし、受信された元情報に対応する第一モデル情報を取得しても良い。つまり、モデル圧縮部131は、例えば、i番目のアバター識別子と対になる第一モデル情報をアバター格納部112から取得する。モデル圧縮部131は、例えば、i番目のアバター識別子と対になる元情報をアバター格納部112から取得し、当該元情報を用いて、第一モデル情報を取得する。かかる場合、元情報は、例えば、第一モデル情報の識別子、または第一モデル情報を構成する元になるモデル情報である。
The
(ステップS307)モデル圧縮部131は、ステップS306で取得した第一モデル情報より小さいデータサイズの1または2種類以上のモデル情報を取得する。1種類以上のモデル情報は、第二モデル情報を含む。
(Step S307) The
(ステップS308)アバター蓄積部132は、i番目のアバター識別子に対応付けて、第一モデル情報と第二モデル情報とを含むアバター情報をアバター格納部112に蓄積する。なお、アバター情報を蓄積することは、アバター情報が蓄積された状態にすることであり、元々、アバター格納部112に格納されていた情報は、ここで、蓄積する必要はない。
(Step S308) The
(ステップS309)処理部13は、カウンタiを1、インクリメントする。ステップS305に戻る。
(Step S309) The
(ステップS310)処理部13は、全アバターの1以上のスコア取得元属性値を、アバター識別子に対応付けて取得する。なお、スコア取得元属性値は、スコアを取得する元になる属性値であり、位置情報を含む。スコア取得元属性値は、通常、向き情報を含む。
(Step S310) The
(ステップS311)位置情報送信部141は、ステップS310で取得された各アバターの1以上のスコア取得元属性値をアバター識別子に対応付けて、2以上の全端末装置2に送信する。ステップS301に戻る。
(Step S311) The location information transmission unit 141 associates one or more score acquisition source attribute values of each avatar acquired in step S310 with the avatar identifier and transmits them to all two or more
(ステップS312)受付部12は、端末装置2からリクエストを受信したか否かを判断する。リクエストを受信した場合はステップS313に行き、リクエストを受信しなかった場合はステップS301に戻る。なお、ステップS312において、2以上の全端末装置2からリクエストを受信する。なお、リクエストは、アバター識別子に対応付けられた1以上の他アバターの判定結果またはスコアを含む。
(Step S<b>312 ) The
(ステップS313)処理部13は、アバター情報取得処理を行う。アバター情報取得処理とは、アバターを表示するためのモデル情報等を取得する処理である。また、アバター情報取得処理は、ワールド情報を取得しても良い。アバター情報取得処理の例について、図4のフローチャートを用いて説明する。
(Step S313) The
(ステップS314)アバター出力部142は、ステップS313で取得された情報を、リクエストを送信してきた端末装置2に送信する。ステップS301に戻る。なお、送信される情報は、通常、アバターのモデル情報を含む。
(Step S314) The
なお、図3のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Note that in the flowchart of FIG. 3, the process ends when the power is turned off or an interrupt for ending the process occurs.
次に、ステップS313のアバター情報取得処理の例について、図4のフローチャートを用いて説明する。 Next, an example of avatar information acquisition processing in step S313 will be described using the flowchart of FIG.
(ステップS401)決定部133は、カウンタiに1を代入する。
(Step S401) The
(ステップS402)決定部133は、アバター情報取得処理に対応するi番目のアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS403に行き、i番目のアバター識別子が存在しない場合はステップS406に行く。なお、i番目のアバター識別子は、通常、受信されたリクエストに含まれるi番目のアバター識別子である。
(Step S402) The
(ステップS403)決定部133は、i番目のアバター識別子に対応する判定結果またはスコアを取得する。また、決定部133は、スコアが取得された場合、当該スコアに対応する判定結果を取得する。なお、判定結果は、通常、取得するモデル情報の種類を特定する種類識別子である。種類識別子は、例えば、第一モデル情報に対応する「第一」、第二モデル情報に対応する「第二」である。
(Step S403) The
(ステップS404)アバター取得部134は、i番目のアバター識別子と判定結果に対応するモデル情報を、i番目のアバター識別子に対応付けて取得する。
(Step S404) The
アバター取得部134は、例えば、当該モデル情報をアバター格納部112から取得する。アバター取得部134は、例えば、当該モデル情報を第一モデル情報から生成する。
The
(ステップS405)決定部133は、カウンタiを1、インクリメントする。ステップS402に戻る。
(Step S405) The
(ステップS406)アバター取得部134は、ワールド情報を送信するか否かを判断する。ワールド情報を送信する場合はステップS407に行き、送信しない場合はステップS408に行く。なお、ワールド情報を送信する場合は、通常、動作開始から、一度も当該端末装置2にワールド情報を送信していない場合である。
(Step S406) The
(ステップS407)アバター取得部134は、ワールド情報をワールド格納部111から取得する。
(Step S<b>407 ) The
(ステップS408)アバター取得部134は、1以上の各アバター識別子に対応付けられているモデル情報を含む情報を構成する。上位処理にリターンする。
(Step S408) The
なお、かかる情報は、ワールド情報を含んでも良い。かかる情報は、端末装置2に送信される情報である。
Note that such information may include world information. Such information is information transmitted to the
次に、端末装置2の動作例について、図5のフローチャートを用いて説明する。
Next, an operation example of the
(ステップS501)端末受付部22は、動作開始前の入力である初期入力を受け付けたか否かを判断する。初期入力を受け付けた場合はステップS502に行き、初期入力を受け付けなかった場合はステップS512に行く。なお、初期入力は、1以上のスコア取得元属性値を含む。
(Step S501) The
(ステップS502)端末処理部23は、ステップS501で受け付けられた初期入力を用いて、送信する情報を構成する。端末送信部24は、当該情報をアバター出力装置1に送信する。なお、当該情報は、例えば、モデル情報、位置情報、向き情報等を含む。
(Step S502) The
(ステップS503)端末受信部25は、ステップS502における送信に応じて、全アバターのスコア取得元属性値を受信したか否かを判断する。スコア取得元属性値を受信した場合はステップS504に行き、スコア取得元属性値を受信しなかった場合はステップS503に戻る。なお、端末受信部25は、各アバターのアバター識別子に対応付けて、アバターごとに、1以上のスコア取得元属性値を受信する。
(Step S503) The
(ステップS504)端末処理部23は、各アバターの1以上のスコア取得元属性値を用いて、各アバターのスコアを取得する。かかるスコア取得処理の例について、図6のフローチャートを用いて説明する。なお、スコア取得処理において、端末処理部23は、スコアを取得し、かつ当該スコアを用いて、判定結果を取得しても良い。スコア取得処理において、端末処理部23は、スコアを取得し、判定結果を取得しなくても良い。かかる場合、アバター出力装置1が判定結果を取得する。
(Step S504) The
(ステップS505)端末処理部23は、ステップS504で取得したスコアまたは判定結果を用いて、リクエストを構成する。なお、リクエストは、各アバターのアバター識別子に対応付くスコアまたは判定結果を有する。
(Step S505) The
(ステップS506)端末送信部24は、ステップS505で構成されたリクエストをアバター出力装置1に送信する。リクエストには、例えば、他アバターごとに取得したスコアと対応するアバター識別子を含めてもよいし、端末処理部23で判定結果を取得する場合は他アバターごとの判定結果と対応する識別子を含めてもよい。
(Step S<b>506 ) The
(ステップS507)端末受信部25は、ステップS506におけるリクエストの送信に応じて、情報を受信したか否かを判断する。情報を受信した場合はステップS508に行き、情報を受信しなかった場合はステップS507に戻る。なお、情報は、通常、リクエストに応じてアバター出力装置1が出力した1以上の各アバターのモデル情報を含む。また、情報は、ワールド情報を含むことは好適である。また、情報は、1以上の各アバター識別子に対応付いた音声情報を含んでも良い。さらに、受信された情報は、端末格納部21に、少なくとも一時蓄積される。
(Step S507) The
(ステップS508)端末処理部23は、ステップS507で受信された情報を用いて、表示情報構成処理を行う。表示情報構成処理とは、端末装置2に表示する情報を構成する処理である。表示情報構成処理の例について、図7のフローチャートを用いて説明する。
(Step S508) The
(ステップS509)端末出力部26は、ステップS508で構成された情報を出力する。なお、出力される情報は、通常、ワールドと1または2以上のアバターとを含む。
(Step S509) The
(ステップS510)端末処理部23は、ステップS507で受信された情報が音声情報を有するか否かを判断する。音声情報を有する場合はステップS511に行き、音声情報を有しない場合はステップS501に戻る。
(Step S510) The
(ステップS511)処理部13等は、音声出力処理を行う。ステップS501に戻る。音声出力処理の例について、図8のフローチャートを用いて説明する。
(Step S511) The
(ステップS512)端末受付部22は、ユーザからの入力を受け付けたか否かを判断する。入力を受け付けた場合はステップS513に行き、入力を受け付けなかった場合はステップS519に行く。ユーザからの入力は、例えば、自アバターの位置情報の変更の入力、自アバターの向き情報の変更の入力、自アバターの音声情報である。
(Step S512) The
(ステップS513)端末処理部23は、ステップS512における入力に基づいて、属性値(例えば、変化した自アバターの位置情報、変化した自アバターの向き情報など)を取得する。端末処理部23は、当該入力に基づいて、変更されるスコアを取得する。また、ステップS519で、情報が受信された場合、端末処理部23は、受信された情報に基づいて、変更されるスコアを取得する。かかるスコア取得処理について、図6のフローチャートを用いて説明する。
(Step S513) Based on the input in step S512, the
(ステップS514)端末処理部23は、ステップS504で取得したスコアまたは判定結果を用いて、リクエストを構成する。なお、リクエストは、各アバターのアバター識別子に対応付くスコアまたは判定結果を有する。
(Step S514) The
また、2回目以降のリクエストの送付の場合、端末処理部23は、前回のスコアまたは判定結果と、異なったスコアまたは判定結果が得られたアバターに関するリクエストを構成することは好適である。かかるリクエストは、スコアまたは判定結果に変化のないアバターのスコアまたは判定結果を含まない。かかるリクエストは、異なったスコアまたは判定結果が得られたアバターのアバター識別子と、スコアまたは判定結果を含む。
Also, in the case of sending a request for the second time or later, the
また、各アバターのスコアまたは判定結果に変化がない等の場合には、ステップS514において、リクエストが構成されない場合もあり得る。 Further, if there is no change in the score or determination result of each avatar, the request may not be configured in step S514.
(ステップS515)端末処理部23は、ステップS514において、リクエストが構成されたか否かを判断する。リクエストが構成された場合はステップS506に行き、リクエストが構成されなかった場合はステップS516に行く。
(Step S515) In step S514, the
(ステップS516)端末処理部23は、ステップS512における入力に対応する情報を送信するか否かを判断する。情報を送信する場合はステップS517に行き、情報を送信しない場合はステップS508に行く。なお、入力に対応する情報は、例えば、ユーザが入力した音声情報、入力後の新しい自アバターの位置や向きに関する情報である。
(Step S516) The
(ステップS517)端末処理部23は、ステップS512における入力に対応する送信情報を構成する。
(Step S517) The
(ステップS518)端末送信部24は、ステップS517で構成された送信情報を、自分のアバター識別子と対にして、アバター出力装置1に送信する。ステップS508に行く。
(Step S518) The
(ステップS519)端末受信部は、アバター出力装置1から情報を受信したか否かを判断する。情報を受信した場合はステップS513に行き、情報を受信しなかった場合はステップS501に戻る。なお、情報とは、例えば、音声情報、他アバターの変更された位置情報、他アバターの変更された向き情報である。
(Step S<b>519 ) The terminal reception unit determines whether information has been received from the
なお、図5のフローチャートにおいて、電源オフや処理終了の割り込みにより処理は終了する。 Note that in the flowchart of FIG. 5, the process ends when the power is turned off or an interrupt to end the process occurs.
次に、ステップS504のスコア取得処理の例について、図6のフローチャートを用いて説明する。 Next, an example of score acquisition processing in step S504 will be described using the flowchart of FIG.
(ステップS601)端末処理部23は、スコアを取得するための1以上の属性値を取得する。ここでの1以上の属性値は、自アバターの位置情報を含む。ここでの1以上の属性値は、例えば、自アバターの向き情報、カメラ位置情報、カメラ向き情報、カメラの画角情報を含む。
(Step S601) The
(ステップS602)端末処理部23は、カウンタiに1を代入する。
(Step S602) The
(ステップS603)端末処理部23は、スコアを取得する対象のi番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS604に行き、存在しない場合は上位処理にリターンする。
(Step S603) The
(ステップS604)端末処理部23は、i番目のアバター識別子と対になる1以上のスコア取得元属性値を取得する。なお、1以上のスコア取得元属性値は、例えば、i番目のアバターの位置情報、向き情報、役割属性値、由来属性値である。
(Step S604) The
(ステップS605)端末処理部23は、自アバターの位置情報と自アバターの向き情報とi番目のアバターの位置情報とを用いて、ユーザ視野属性値を取得する。なお、ユーザ視野属性値は、自アバターの視野の中にi番目のアバターが存在するか否かを示す情報である。
(Step S605) The
(ステップS606)端末処理部23は、カメラ位置情報とカメラ向き情報とカメラの画角情報とi番目のアバターの位置情報とを用いて、カメラ視野属性値を取得する。なお、カメラ視野属性値は、i番目のアバターがカメラの撮影範囲であるか否かを示す情報である。
(Step S606) The
(ステップS607)端末処理部23は、自アバターの位置情報とi番目のアバターの位置情報とを用いて、ユーザ距離属性値を取得する。なお、ユーザ距離属性値は、自アバターとi番目のアバターとの距離を特定する情報である。
(Step S607) The
(ステップS608)端末処理部23は、自アバターの向き情報とi番目のアバターの向き情報とを用いて、ユーザ向き属性値を取得する。なお、ユーザ向き属性値は、自アバターとi番目のアバターとの相対的な向きに関する情報であり、例えば、自アバターとi番目のアバターとの角度に関する情報、自アバターとi番目のアバターとが向き合っているか否かを示す情報である。
(Step S608) The
(ステップS609)端末処理部23は、カメラ位置情報とi番目のアバターの位置情報とを用いて、カメラ距離属性値を取得する。なお、カメラ距離属性値は、カメラとi番目のアバターとの距離を特定する情報である。
(Step S609) The
(ステップS610)端末処理部23は、ステップS605からステップS609で取得した動的属性値のうち、1または2以上の動的属性値を用いて、i番目のアバターのスコアを取得する。
(Step S610) The
(ステップS611)端末処理部23は、i番目のアバターのスコアを用いて、i番目のアバターの判定結果を取得する。なお、判定結果は、ここでは、例えば、種類識別子である。なお、端末処理部23は、通常、スコアが高いほど、大きなデータサイズに対応する判定結果を取得する。
(Step S611) The
(ステップS612)端末処理部23は、i番目のアバター識別子に対応付けて、判定結果を一時蓄積する。なお、端末処理部23は、i番目のアバター識別子に対応付けて、スコアを一時蓄積しても良い。
(Step S612) The
(ステップS613)端末処理部23は、カウンタiに1を1、インクリメントする。ステップS603に戻る。
(Step S613) The
なお、図6のフローチャートにおいて、端末処理部23は、判定結果を取得しなくても良い。かかる場合、端末処理部23は、i番目のアバター識別子に対応付けて、スコアを一時蓄積する。
In addition, in the flowchart of FIG. 6, the
次に、ステップS508の表示情報構成処理の例について、図7のフローチャートを用いて説明する。 Next, an example of display information configuration processing in step S508 will be described using the flowchart of FIG.
(ステップS701)端末処理部23は、ワールド情報を取得する。なお、ワールド情報は、アバター出力装置1から受信された情報、または端末格納部21に格納されている情報である。
(Step S701) The
(ステップS702)端末処理部23は、カウンタiに1を代入する。
(Step S702) The
(ステップS703)端末処理部23は、構成する対象のi番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS704に行き、i番目のアバター識別子が存在しない場合は上位処理にリターンする。
(Step S703) The
(ステップS704)端末処理部23は、i番目のアバター識別子と対になる1以上の属性値等を端末格納部21から取得する。
(Step S704) The
(ステップS705)端末処理部23は、ステップS704で取得した1以上の属性値等を用いて、i番目のアバターを出力するか否かを判断する。i番目のアバターを出力する場合はステップS706に行き、i番目のアバターを出力しない場合はステップS70に行く。端末処理部23は、例えば、カメラに視野に入っていない他アバター、またはユーザの自アバターの視野に入っていない他アバターは、出力しないと判断する。
(Step S705) The
(ステップS706)端末処理部23は、i番目のアバター識別子と対になるモデル情報を取得する。なお、モデル情報は、例えば、各アバターの判定結果に基づいて決定された第一モデル情報または第二モデル情報である。
(Step S706) The
(ステップS707)端末処理部23は、ステップS706で取得したモデル情報を用いて表示するアバターを構成する。
(Step S707) The
(ステップS708)端末処理部23は、i番目のアバター識別子と対になる位置情報を用いて、ステップS707で構成したアバターを、ステップS701で取得したワールド情報により構成されるワールドの中に配置する。
(Step S708) The
(ステップS709)端末処理部23は、カウンタiに1を1、インクリメントする。ステップS703に戻る。
(Step S709) The
次に、ステップS511の音声出力処理の例について、図8のフローチャートを用いて説明する。 Next, an example of the audio output processing in step S511 will be described using the flowchart of FIG.
(ステップS801)端末処理部23は、カウンタiに1を代入する。
(Step S801) The
(ステップS802)端末処理部23は、i番目のアバターのアバター識別子が存在するか否かを判断する。i番目のアバター識別子が存在する場合はステップS803に行き、i番目のアバター識別子が存在しない場合は上位処理にリターンする。
(Step S802) The
(ステップS803)端末処理部23は、i番目のアバター識別子と対になる音声情報が存在するか否かを判断する。当該音声情報が存在する場合はステップS804に行き、存在しない場合はステップS807に行く。なお、i番目のアバター識別子と対になる音声情報は、例えば、アバター出力装置1から受信された情報である。
(Step S803) The
(ステップS804)端末処理部23は、i番目のアバター識別子と対になるスコアまたは判定結果を取得する。
(Step S804) The
(ステップS805)端末処理部23は、ステップS804におけるスコアまたは判定結果に応じた種類の音声情報を取得する。
(Step S805) The
ここで、i番目のアバター識別子と対にして2以上の種類の音声情報が格納されている場合、例えば、端末処理部23は、i番目のアバター識別子と対になる音声情報(例えば、第一音声情報、第二音声情報)のうちの、スコアまたは判定結果に応じた種類の音声情報を取得する。i番目のアバター識別子と対にして一の音声情報が格納されている場合、例えば、端末処理部23は、スコアまたは判定結果に応じて、当該一の音声情報の属性値(例えば、音量、周波数)を変更し、出力する音声情報を取得する。
Here, when two or more types of voice information are stored in pairs with the i-th avatar identifier, for example, the
(ステップS806)端末出力部26は、ステップS805で取得された音声情報を出力する。
(Step S806) The
(ステップS807)端末処理部23は、カウンタiに1を1、インクリメントする。ステップS802に戻る。
(Step S807) The
以下、本実施の形態における情報システムAの具体的な動作例について、図9を用いて説明する。情報システムAは、アバター出力装置1と2以上の端末装置2を有する。ここで、2以上の端末装置2を、端末装置2(1)、・・・、端末装置2(N)とする。
A specific operation example of the information system A according to this embodiment will be described below with reference to FIG. An information system A has an
端末装置2(1)の端末受付部22は、ユーザからモデル情報等を受け付けた、とする。そして、端末処理部23は、受け付けられたモデル情報等を用いて、送信するモデル情報等を構成する。端末送信部24は、当該モデル情報をアバター出力装置1に送信する(901参照)。なお、モデル情報等は、ここで、第一モデル情報、1以上の属性値を有する。1以上の属性値は、ここでは、位置情報、役割属性値、由来属性値、端末属性値を含む、とする。
It is assumed that the
また、同様に、端末装置2(N)も、ユーザから受け付けたモデル情報等をアバター出力装置1に送信する(902参照)。 Similarly, the terminal device 2 (N) also transmits the model information and the like received from the user to the avatar output device 1 (see 902).
次に、アバター出力装置1のアバター受信部121は、端末装置2(1)や端末装置2(N)等からモデル情報等を受信する(901、902参照)。そして、アバター蓄積部132は、各モデル情報等に対して、ユニークなアバター識別子を生成する。次に、アバター蓄積部132は、受信されたモデル情報等を、アバター識別子に対応付けて、アバター格納部112の図10の構造を有するアバター管理表に蓄積した、とする。
Next, the
アバター管理表は、「ID」「アバター識別子」「第一モデル情報」「第二モデル情報」「属性値」を有する。また、「属性値」は、「位置情報」「役割属性値」「由来属性値」「端末属性値」を有する。「端末属性値」は、ここでは「画面サイズ」「動作周波数」を有する。「ID」は、レコードを識別する情報である。「第一モデル情報」は、第一モデル情報のファイル名である。「第二モデル情報」は、第二モデル情報のファイル名である。なお、各ファイルも、アバター格納部112に格納されている。「位置情報」は、三次元空間におけるアバターの位置を特定する情報である。また、ここでは、「役割属性値」は、「主催者」「司会者」「観客」のいずれかを採り得る。「由来属性値」は、「UGC」「デフォルト」のいずれかを採り得る。「UGC」は、ユーザが作成したアバターであることを示す。「デフォルト」は、デフォルトのアバターであることを示す。デフォルトのアバターは、例えば、アバター出力装置1の管理者が予め用意しているアバターである。なお、現段階では、表の「第二モデル情報」には、情報が存在しない。
The avatar management table has "ID", "avatar identifier", "first model information", "second model information", and "attribute value". "Attribute value" has "location information", "role attribute value", "origin attribute value", and "terminal attribute value". "Terminal attribute value" has "screen size" and "operating frequency" here. “ID” is information for identifying a record. "First model information" is the file name of the first model information. "Second model information" is the file name of the second model information. Each file is also stored in the
次に、アバター出力装置1のモデル圧縮部131は、予め決められた条件を満たした(例えば、予め決められた時刻になった)ことを検知し、端末装置2(1)や端末装置2(N)等の第一モデル情報に対して、上述した圧縮処理を行い、第二モデル情報を取得する(903参照)。次に、モデル圧縮部131は、2以上の各第二モデル情報をアバター格納部112に蓄積し、2以上の各第二モデル情報のファイル名を、アバター識別子と対にして、アバター管理表に蓄積する。以上の処理により、図10のアバター管理表が構成された。なお、図10のアバター管理表において、「D1.json」はデフォルトのアバターの第一モデル情報であり、「D2.json」はデフォルトのアバターの第二モデル情報である。
Next, the
次に、処理部13は、全アバターのスコア取得元属性値を、アバター識別子に対応付けて、図10のアバター管理表、または格納部11から取得する。スコア取得元属性値は、ここでは、図10の5つの属性値、およびカメラ属性値(カメラ位置情報、カメラ向き情報、画角情報)である、とする。なお、カメラ属性値は、格納部11に格納されている、とする。
Next, the
次に、位置情報送信部141は、全アバターのスコア取得元属性値を、アバター識別子に対応付けて、端末装置2(1)や端末装置2(N)を含む全ての端末装置2に送信する(904、905参照)。
Next, the location information transmission unit 141 associates the score acquisition source attribute values of all avatars with the avatar identifiers and transmits them to all the
次に、端末装置2(1)の端末受信部25は、全アバターのスコア取得元属性値を受信する(904参照)。また、端末装置2(N)等の端末受信部25も、全アバターのスコア取得元属性値を受信する(904参照)。
Next, the
次に、端末装置2(1)等の端末処理部23は、受信されたスコア取得元属性値が有する各他アバターの位置情報と、カメラ位置情報とカメラ向き情報と画角情報とを用いて、各他アバターの撮影範囲属性値、カメラからの距離を、他アバターごとに、取得する。また、端末装置2(1)等のすべての端末処理部23は、各々の自アバターの位置情報と各他アバターの位置情報とを用いて、自アバターと他アバターとの距離を、他アバターごとに、取得する。
Next, the
次に、端末装置2(1)等の端末処理部23は、各他アバターごとに、他アバターに対応する撮影範囲属性値、カメラからの距離、自アバターと他アバターとの距離、役割属性値、由来属性値等を用いて、スコアを取得する。次に、端末装置2(1)等の端末処理部23は、各他アバターごとに、判定結果「第一」または「第二」を取得する。なお、端末処理部23は、ここでは、スコアが閾値以上の他アバターに対しては、「第一」の判定結果を取得し、スコアが閾値未満の他アバターに対しては、「第二」の判定結果を取得する、とする(906、907参照)。
Next, the
また、ここでの判定結果の概念は、例えば、図11である。図11において、グレーで示された領域1101がカメラの撮影範囲である場合に、カメラの撮影範囲に含まれ、かつ、カメラから近い9つのアバターの判定結果は「第一」であり、他のアバターの判定結果は「第二」である。図11において、判定結果「第一」のアバターは黒く塗りつぶされており、判定結果「第二」のアバターは黒く塗りつぶされていない。また、端末装置2(1)、・・・、端末装置2(N)のうちの各端末装置2によって、判定結果は異なることは好適である。なお、判定結果「第一」に対応する9つのアバターは、図11のA01、A02、A03、A04、A05、A06、A07、A08、A09である。
同様に、図11において、グレーで示された領域1101が特定の端末装置(N)から見た視野とすれば、自アバターの視野を考慮した判定が可能となる。
Also, the concept of the determination result here is, for example, FIG. In FIG. 11, when the
Similarly, in FIG. 11, if the
次に、端末装置2(1)等のすべての端末処理部23は、他アバターのアバター識別子と判定結果との組を、他アバターの数だけ有するリクエストとを構成する。次に、端末装置2(1)、・・・、端末装置2(N)の各端末送信部24は、リクエストをアバター出力装置1に送信する(908、909参照)。
Next, all the
次に、アバター出力装置1の受付部12は、2以上の各端末装置2からリクエストを受信する(908、909参照)。
Next, the
次に、アバター出力装置1の決定部133は、各端末装置2からのリクエストに含まれる各アバター識別子に対応する判定結果を取得する。次に、アバター取得部134は、アバター識別子ごとに、判定結果に応じて、属性値「第一モデル情報」または属性値「第二モデル情報」のファイル名をアバター管理表(図10)から取得し、当該ファイル名で識別される第一モデル情報または第二モデル情報を、アバター識別子に対応付けて、アバター格納部112から取得する。なお、判定結果「第一」に対応するアバター識別子に対して第一モデル情報が取得され、判定結果「第二」に対応するアバター識別子に対して第二モデル情報が取得される。
Next, the
次に、アバター取得部134は、ワールド情報を送付したか否かを示すフラグワールド情報送付フラグがOFF(未送付)であることを検知し、ワールド情報を送信する、と判断する。そして、アバター取得部134は、ワールド情報をワールド格納部111から取得する。決定部133およびアバター取得部134は、端末装置2ごとに、上記の処理を行い、アバター識別子に対応付けられた第一モデル情報または第二モデル情報、およびワールド情報を取得する(910、911参照)。
Next, the
次に、アバター出力部142は、アバター取得部134により取得された情報を、リクエストを送信してきた2以上の各端末装置2に送信する(912、913参照)。なお、処理部13は、ワールド情報の送付により、ワールド情報送付フラグをON(送付済み)とする。
Next, the
次に、2以上の各端末装置2の端末受信部25は、リクエストの送信に応じて、情報を受信する(912、913参照)。ここでの情報は、ワールド情報と、アバター識別子とモデル情報との2以上の組を含む。
Next, the
次に、2以上の各端末装置2の端末処理部23は、受信された情報を用いて、上述した表示情報構成処理を行う(914、915参照)。端末出力部26は、表示情報構成処理により構成された情報を出力する(916、917参照)。出力される情報は、仮想的な三次元空間の中に多数のアバターを有する。なお、かかる出力例は、図12である。図12において、2以上の端末装置2の各ユーザに対応するアバターが、ワールドと共に表示されている。また、端末装置2によって、同じアバターでも、第一モデル情報が使用されたり、第二モデル情報が使用されたりすることは好適である。
また、図12の1201の仮想的なスクリーンにおいて、ワールド内のカメラで取得された映像が表示されることは好適である。かかる場合、例えば、アバター出力装置1は、ワールド内のカメラで取得される映像を構成し、各端末装置2に送信する。そして、各端末装置2の端末受信部25は、カメラで取得される映像を受信する。そして、端末処理部23は、受信された映像をワールド内の仮想的なスクリーンに貼り付ける、次に、端末出力部26は、かかる映像が貼り付けられたスクリーンを含むワールドを、各ユーザに対応するアバターと共に出力する。
Next, the
Also, it is preferable that the
さらに、時間が経過し、ユーザが端末装置2(1)に、自アバターの位置情報を変更する入力を行った、とする(918参照)。 Furthermore, it is assumed that time has passed and the user has made an input to the terminal device 2(1) to change the location information of his/her own avatar (see 918).
次に、端末装置2(1)の端末処理部23は、自アバターの位置情報の変更に応じて、1以上の各他アバターのスコアを、再度、算出する。なお、端末処理部23は、自アバターの位置情報以外の情報(他アバターの情報、カメラ属性値等)は、既に受信し、蓄積されている情報を用いて、1以上の各他アバターのスコアを算出する、とする。
Next, the
次に、端末装置2(1)の端末処理部23は、1以上の各他アバターのスコアに応じた判定結果を取得する(919参照)。
Next, the
次に、端末処理部23は、前回の判定結果と比較して、判定結果に変化があった他アバターのアバター識別子と判定結果との1組以上の組、および変更された自アバターの位置情報を有するリクエストを構成する。
Next, the
次に、端末装置2(1)の端末送信部24は、当該リクエストをアバター出力装置1に送信する(920参照)。
Next, the
次に、アバター出力装置1の受付部12は、端末装置2(1)からリクエストを受信する(920参照)。
Next, the
次に、アバター出力装置1の決定部133は、端末装置2(1)からのリクエストに含まれる1以上の各アバター識別子に対応する判定結果を取得する。次に、アバター取得部134は、アバター識別子ごとに、判定結果に応じて、属性値「第一モデル情報」または属性値「第二モデル情報」のファイル名をアバター管理表(図10)から取得し、当該ファイル名で識別される第一モデル情報または第二モデル情報を、アバター識別子に対応付けて、アバター格納部112から取得する。
Next, the
次に、端末装置2(1)に既にワールド情報を送信しているので、アバター取得部134は、ワールド情報を送信しない、と判断する。
Next, since the world information has already been transmitted to the terminal device 2(1), the
次に、アバター出力部142は、アバター取得部134により取得された情報を、リクエストを送信してきた端末装置2(1)に送信する(921参照)。
Next, the
また、端末装置2(1)の端末処理部23は、自アバターの位置情報の更新に応じて、受信された他アバターのモデル情報をも用いて、変更される表示情報を構成する(922参照)。次に、端末装置2(1)の端末出力部26は、新たに構成された表示情報を出力する(923参照)。なお、端末処理部23は、自アバターの位置情報の更新に応じて、他アバターの位置情報(相対的な位置情報)も変更する。
In addition, the
また、アバター出力部142は、端末装置2(1)のアバターの変更された位置情報と端末装置2(1)のアバターのアバター識別子とを含む他アバターの情報を、端末装置2(N)を含む1以上の端末装置2に送信する(924参照)。
In addition, the
次に、端末装置2(N)等の端末受信部25は、端末装置2(1)の他アバターの情報を受信する。
Next, the
次に、端末装置2(N)等の端末処理部23は、端末装置2(1)のアバターの位置情報の変更による、端末装置2(1)のアバターに対する新たなスコアを取得する。次に、端末装置2(N)等の端末処理部23は、端末装置2(1)のアバターに対する判定結果を取得する(925参照)。
Next, the
そして、端末装置2(N)における端末装置2(1)のアバターの判定結果が、前回の判定結果とは異なる判定結果になった、とする。 Then, it is assumed that the determination result of the avatar of the terminal device 2(1) in the terminal device 2(N) is different from the previous determination result.
次に、端末装置2(N)の端末送信部24は、端末装置2(1)の他アバターのアバター識別子と新たな判定結果とを含むリクエストをアバター出力装置1に送信する(926参照)。なお、端末装置2(1)のアバターの判定結果が、前回の判定結果と同じ端末装置(2)は、リクエストをアバター出力装置1に送信しない、とする。
Next, the
次に、アバター出力装置1の受付部12は、端末装置2(N)からリクエストを受信する(926参照)。
Next, the
次に、アバター出力装置1の決定部133は、端末装置2(N)からのリクエストに含まれるアバター識別子に対応する判定結果を取得する。次に、アバター取得部134は、当該アバター識別子の判定結果に応じて、属性値「第一モデル情報」または属性値「第二モデル情報」のファイル名であり、当該アバター識別子と対になるファイル名を、アバター管理表(図10)から取得し、当該ファイル名で識別される第一モデル情報または第二モデル情報を、アバター識別子に対応付けて、アバター格納部112から取得する。
Next, the
次に、アバター出力部142は、アバター取得部134により取得された情報を、リクエストを送信してきた端末装置2(N)に送信する(927参照)。
Next, the
次に、端末装置2(N)の端末受信部25は、リクエストの送信に応じて、情報を受信する(927参照)。
Next, the
次に、端末装置2(N)の端末処理部23は、受信された情報を用いて、表示情報構成処理を行う(928参照)。端末装置2(N)の端末出力部26は、表示情報構成処理により構成された情報を出力する(929参照)。なお、かかる表示情報構成処理により、端末装置2(N)において、例えば、端末装置2(1)のアバターの位置が移動し、かつ当該アバターの表示に利用されるモデル情報が、第二モデル情報から第一モデル情報に変更される。
Next, the
なお、端末装置2(1)のアバターの位置情報の変更により、端末装置2(N)以外の端末装置2も、アバター出力装置1にリクエストを送信し、端末装置2(N)と同様に、変更された情報を出力しても良い。
In addition, due to the change in the position information of the avatar of the terminal device 2(1), the
以上、本実施の形態によれば、2以上のアバターのうちの少なくとも一部のアバターを、よりデータサイズの小さなアバターとすることにより、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる。 As described above, according to the present embodiment, at least some avatars out of two or more avatars are avatars with a smaller data size, thereby suppressing the processing load when outputting a large number of avatars. In addition, an avatar suitable for the user can be obtained.
また、本実施の形態によれば、アバターに応じた音声情報を使用することにより、2以上のアバターの適切な音声が出力できる。 Moreover, according to the present embodiment, by using the voice information corresponding to the avatars, appropriate voices of two or more avatars can be output.
また、本実施の形態によれば、2以上の各端末装置から、アバターのモデル情報または元情報を受信し、利用できる。つまり、ユーザは自分の好きなアバターを場に表示できる。 Further, according to the present embodiment, it is possible to receive and use avatar model information or original information from two or more terminal devices. In other words, users can display their favorite avatars on the field.
また、本実施の形態によれば、2以上の各端末装置2で他アバターのスコアを取得することにより、アバター出力装置1における負荷が軽減できる。
Further, according to the present embodiment, the load on the
また、本実施の形態によれば、アバターの適切な動的属性値を用いて取得した適切なスコアに基づいて、より小さなデータサイズとするアバターを決定できる。 Also, according to the present embodiment, it is possible to determine an avatar with a smaller data size based on an appropriate score obtained using an appropriate dynamic attribute value of the avatar.
また、本実施の形態によれば、一部の箇所についてのみ小さいサイズとしたアバターを使用できる。
さらに、本実施の形態によれば、2以上の各端末装置2とアバター出力装置1とで処理を適切に分担できる。
In addition, according to the present embodiment, avatars with small sizes can be used only at some locations.
Furthermore, according to the present embodiment, processing can be appropriately shared between two or more
なお、本実施の形態において、アバターが端末装置2に表示されるまでの処理において、2以上の各端末装置2とアバター出力装置1とで、如何様に処理を分担しても良い。上記の具体例において、例えば、各アバターのスコアの取得と判定は、端末装置2が行ったが、例えば、各アバターのスコアの取得は端末装置2が行い、スコアを用いた判定はアバター出力装置1が行っても良い。また、各アバターのスコアの取得と判定は、アバター出力装置1が行っても良い。
In addition, in the present embodiment, in the processing until the avatar is displayed on the
また、本実施の形態における処理は、ソフトウェアで実現しても良い。そして、このソフトウェアをソフトウェアダウンロード等により配布しても良い。また、このソフトウェアをCD-ROMなどの記録媒体に記録して流布しても良い。なお、このことは、本明細書における他の実施の形態においても該当する。なお、本実施の形態におけるアバター出力装置1を実現するソフトウェアは、以下のようなプログラムである。つまり、このプログラムは、2以上の各アバターごとに、アバターを表示するための第一モデル情報を有するアバター情報が格納されるアバター格納部にアクセス可能なコンピュータを、前記2以上のアバターのうち、前記第一モデル情報を用いて表示される1以上の第一アバターと、前記第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する決定部と、前記決定部が決定した前記1以上の各第二アバターについては、前記第二モデル情報を用いたアバターを取得し、前記1以上の各第一アバターについては、前記第一モデル情報を用いたアバターを取得するアバター取得部と、前記アバター取得部が取得した2以上のアバターを出力するアバター出力部として機能させるためのプログラムである。
Also, the processing in the present embodiment may be realized by software. Then, this software may be distributed by software download or the like. Also, this software may be recorded on a recording medium such as a CD-ROM and distributed. Note that this also applies to other embodiments in this specification. The software that realizes the
また、図13は、本明細書で述べたプログラムを実行して、上述した種々の実施の形態のアバター出力装置1等を実現するコンピュータの外観を示す。上述の実施の形態は、コンピュータハードウェア及びその上で実行されるコンピュータプログラムで実現され得る。図13は、このコンピュータシステム300の概観図であり、図14は、システム300のブロック図である。
Also, FIG. 13 shows the appearance of a computer that executes the program described in this specification and realizes the
図13において、コンピュータシステム300は、CD-ROMドライブを含むコンピュータ301と、キーボード302と、マウス303と、モニタ304とを含む。
In FIG. 13,
図14において、コンピュータ301は、CD-ROMドライブ3012に加えて、MPU3013と、CD-ROMドライブ3012等に接続されたバス3014と、ブートアッププログラム等のプログラムを記憶するためのROM3015と、MPU3013に接続され、アプリケーションプログラムの命令を一時的に記憶するとともに一時記憶空間を提供するためのRAM3016と、アプリケーションプログラム、システムプログラム、及びデータを記憶するためのハードディスク3017とを含む。ここでは、図示しないが、コンピュータ301は、さらに、LANへの接続を提供するネットワークカードを含んでも良い。なお、2以上の各端末装置2は、カメラ、スピーカー、マイクを含むことは好適である。
14, a
コンピュータシステム300に、上述した実施の形態のアバター出力装置1等の機能を実行させるプログラムは、CD-ROM3101に記憶されて、CD-ROMドライブ3012に挿入され、さらにハードディスク3017に転送されても良い。これに代えて、プログラムは、図示しないネットワークを介してコンピュータ301に送信され、ハードディスク3017に記憶されても良い。プログラムは実行の際にRAM3016にロードされる。プログラムは、CD-ROM3101またはネットワークから直接、ロードされても良い。
A program that causes the
プログラムは、コンピュータ301に、上述した実施の形態のアバター出力装置1等の機能を実行させるオペレーティングシステム(OS)、またはサードパーティープログラム等は、必ずしも含まなくても良い。プログラムは、制御された態様で適切な機能(モジュール)を呼び出し、所望の結果が得られるようにする命令の部分のみを含んでいれば良い。コンピュータシステム300がどのように動作するかは周知であり、詳細な説明は省略する。
The program does not necessarily include an operating system (OS), a third party program, or the like that causes the
なお、上記プログラムにおいて、情報を送信するステップや、情報を受信するステップなどでは、ハードウェアによって行われる処理、例えば、送信ステップにおけるモデムやインターフェースカードなどで行われる処理(ハードウェアでしか行われない処理)は含まれない。 In the above program, the step of transmitting information, the step of receiving information, etc. are performed by hardware. processing) are not included.
また、上記プログラムを実行するコンピュータは、単数であってもよく、複数であってもよい。すなわち、集中処理を行ってもよく、あるいは分散処理を行ってもよい。 Also, the number of computers that execute the above programs may be singular or plural. That is, centralized processing may be performed, or distributed processing may be performed.
また、上記各実施の形態において、一の装置に存在する2以上の通信手段は、物理的に一の媒体で実現されても良いことは言うまでもない。 Further, in each of the above embodiments, it goes without saying that two or more communication means existing in one device may be physically realized by one medium.
また、上記各実施の形態において、各処理は、単一の装置によって集中処理されることによって実現されてもよく、あるいは、複数の装置によって分散処理されることによって実現されてもよい。 Further, in each of the above embodiments, each process may be implemented by centralized processing by a single device, or may be implemented by distributed processing by a plurality of devices.
本発明は、以上の実施の形態に限定されることなく、種々の変更が可能であり、それらも本発明の範囲内に包含されるものであることは言うまでもない。 It goes without saying that the present invention is not limited to the above-described embodiments, and that various modifications are possible and are also included within the scope of the present invention.
以上のように、本発明にかかるアバター出力装置は、多数のアバターを出力する場合に、処理の負荷を抑制しつつ、ユーザにとって適切なアバターを得ることができる、という効果を有し、アバター出力装置等として有用である。 INDUSTRIAL APPLICABILITY As described above, the avatar output device according to the present invention has the effect of being able to obtain avatars suitable for the user while suppressing the processing load when outputting a large number of avatars. It is useful as a device or the like.
1 アバター出力装置
2 端末装置
11 格納部
12 受付部
13 処理部
14 出力部
21 端末格納部
22 端末受付部
23 端末処理部
24 端末送信部
24 各端末送信部
25 端末受信部
26 端末出力部
111 ワールド格納部
112 アバター格納部
121 アバター受信部
131 モデル圧縮部
132 アバター蓄積部
133 決定部
134 アバター取得部
135 音声取得部
141 位置情報送信部
142 アバター出力部
143 音声出力部
1
Claims (19)
前記2以上のアバターのうち、前記第一モデル情報を用いて表示される1以上の第一アバターと、前記第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する決定部と、
前記決定部が決定した前記1以上の各第二アバターについては、前記第二モデル情報を用いたアバターを取得し、前記1以上の各第一アバターについては、前記第一モデル情報を用いたアバターを取得するアバター取得部と、
前記アバター取得部が取得した2以上のアバターを出力するアバター出力部とを具備するアバター出力装置。 an avatar storage unit storing avatar information having first model information for displaying the avatar for each of the two or more avatars;
Among the two or more avatars, one or more first avatars displayed using the first model information and one or more displayed using the second model information having a data size smaller than the first model information a determination unit that determines the second avatar;
For each of the one or more second avatars determined by the determination unit, an avatar using the second model information is obtained, and for each of the one or more first avatars, an avatar using the first model information an avatar acquisition unit that acquires
and an avatar output unit that outputs two or more avatars acquired by the avatar acquisition unit.
前記決定部は、
前記2以上のアバターのうち、前記第一音声情報に対応するアバターである1以上の第一アバターと、前記第一音声情報より小さいデータサイズの第二音声情報または前記第一音声情報とは異なる属性値を有する第二音声情報に対応するアバターである1以上の第二アバターを決定し、
前記決定部が決定した前記1以上の各第二アバターについては、前記第二音声情報を取得し、前記1以上の各第一アバターについては、前記第一音声情報を取得する音声取得部と、
前記音声取得部が取得した前記第一音声情報、および前記第二音声情報を出力する音声出力部とを具備する請求項1記載のアバター出力装置。 The avatar information also includes first audio information for the avatar to output audio,
The decision unit
Among the two or more avatars, one or more first avatars corresponding to the first audio information are different from the second audio information or the first audio information having a data size smaller than the first audio information. determining one or more second avatars that are avatars corresponding to the second audio information having attribute values;
a voice acquisition unit that acquires the second voice information for each of the one or more second avatars determined by the determination unit, and acquires the first voice information for each of the one or more first avatars;
2. The avatar output device according to claim 1, further comprising a voice output unit for outputting the first voice information and the second voice information acquired by the voice acquisition unit.
前記アバター受信部が受信した前記第一モデル情報、または前記アバター受信部が受信した前記元情報を用いて取得された第一モデル情報を有するアバター情報を前記アバター格納部に蓄積するアバター蓄積部とをさらに具備する請求項1または請求項2記載のアバター出力装置。 an avatar receiving unit that receives the first model information or original information that is the basis of the first model information from each of two or more terminal devices used by the user;
an avatar storage unit configured to store, in the avatar storage unit, the first model information received by the avatar reception unit or avatar information having the first model information acquired using the original information received by the avatar reception unit; 3. The avatar output device according to claim 1 or 2, further comprising:
前記2以上の各端末装置から、各端末装置に対応するアバターの位置を特定する位置情報をも受信し、
前記2以上の各端末装置に対応する2以上の各アバターの位置情報のうち、少なくとも送信先の端末装置に対応する自アバターの位置情報を除く、1以上の他アバターの位置情報を、アバターを識別するアバター識別子に対応付けて、前記2以上の各端末装置に送信する位置情報送信部をさらに具備する請求項3記載のアバター出力装置。 The avatar receiving unit
Also receiving position information specifying the position of the avatar corresponding to each terminal device from each of the two or more terminal devices,
Among the position information of each of the two or more avatars corresponding to each of the two or more terminal devices, at least the position information of one or more other avatars excluding the position information of the own avatar corresponding to the terminal device of the transmission destination is used as the avatar. 4. The avatar output device according to claim 3, further comprising a location information transmitting unit that transmits the location information to each of the two or more terminal devices in association with the avatar identifier to be identified.
前記2以上の各端末装置から、当該各端末装置で取得された1以上の他アバターのスコアまたはスコアに基づく判定結果を、アバター識別子に対応付けて受信し、
前記決定部は、
前記スコアまたは前記判定結果を用いて、前記2以上の各端末装置ごとに、前記2以上のアバターのうち、前記第一モデル情報を用いて表示される1以上の第一アバターと、前記第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する、請求項4記載のアバター出力装置。 The avatar receiving unit
receiving scores of one or more other avatars obtained by the terminal devices or determination results based on the scores from the two or more terminal devices in association with avatar identifiers;
The decision unit
One or more first avatars displayed using the first model information among the two or more avatars for each of the two or more terminal devices using the score or the determination result; 5. The avatar output device according to claim 4, wherein one or more second avatars to be displayed are determined using the second model information having a data size smaller than that of the model information.
前記アバター蓄積部は、
前記第一モデル情報と前記第二モデル情報とを有するアバター情報を前記アバター格納部に蓄積する、請求項3から請求項5いずれか一項に記載のアバター出力装置。 further comprising a model compression unit that acquires second model information having a data size smaller than the first model information using the first model information or the original information;
The avatar storage unit
6. The avatar output device according to any one of claims 3 to 5, wherein avatar information having said first model information and said second model information is stored in said avatar storage unit.
前記2以上の各アバターに対応する1以上の動的属性値を用いて取得されたスコアまたは判定結果に基づいて、前記1以上の第二アバターを決定する請求項1から請求項6いずれか一項に記載のアバター出力装置。 The decision unit
7. The one or more second avatars are determined based on a score or determination result obtained using one or more dynamic attribute values corresponding to each of the two or more avatars. Avatar output device according to the paragraph.
2以上の各端末装置ごとに、前記2以上の各アバターに対応する1以上の動的属性値を用いて取得されたスコアまたは判定結果に基づいて、前記1以上の第二アバターを決定し、
前記1以上の動的属性値を用いてスコアまたは判定結果を取得する処理は前記端末装置が行い、前記第一モデル情報を用いて、前記第二モデル情報を取得する処理はアバター出力装置が行う、請求項10記載のアバター出力装置。 The decision unit
determining the one or more second avatars for each of the two or more terminal devices based on the scores or determination results obtained using the one or more dynamic attribute values corresponding to the two or more avatars;
The terminal device performs the process of obtaining the score or determination result using the one or more dynamic attribute values, and the avatar output device performs the process of obtaining the second model information using the first model information. 11. The avatar output device according to claim 10.
前記アバター取得部は、
前記決定部が決定した前記1以上の第二アバターについては、前記第二モデル情報を読み出し、当該第二モデル情報を用いてアバターを構成し、
前記第一アバターについては、前記第一モデル情報を読み出し、当該第一モデル情報を用いてアバターを構成する、請求項1から請求項11いずれか一項に記載のアバター出力装置。 the avatar information of each of the two or more avatars in the avatar storage includes first model information and second model information;
The avatar acquisition unit
reading the second model information for the one or more second avatars determined by the determination unit, and configuring the avatar using the second model information;
12. The avatar output device according to any one of claims 1 to 11, wherein for the first avatar, the first model information is read and the avatar is configured using the first model information.
前記決定部は、
前記2以上の各アバターに対応する前記1以上の静的属性値に基づく情報を用いて、前記1以上の第二アバターを決定する、請求項1から請求項12いずれか一項に記載のアバター出力装置。 the avatar information for each of the two or more avatars in the avatar storage has one or more static attribute values that do not change dynamically;
The decision unit
An avatar according to any one of claims 1 to 12, wherein information based on said one or more static attribute values corresponding to each of said two or more avatars is used to determine said one or more second avatars. output device.
当該端末装置に対応するアバターの位置情報を含む1以上の端末属性値が格納される端末格納部と、
前記位置情報を前記アバター出力装置に送信する端末送信部と、
前記アバター出力装置から1以上の他の端末装置に対応する他アバターの位置情報を受信する端末受信部と、
前記1以上の他アバターの位置情報と前記位置情報とを用いて、前記1以上の他アバターのスコアを取得する端末処理部とを具備し、
前記端末送信部は、
当該端末装置の端末識別子に対応付けて、前記1以上の他アバターのスコアまたは当該スコアに基づく判定結果を前記アバター出力装置に送信し、
前記端末受信部は、
前記スコアまたは前記判定結果の送信に応じて、前記アバター出力装置から前記他アバターのモデル情報であり、前記スコアまたは前記判定結果に応じた異なるモデル情報を受信し、
前記モデル情報を用いて、前記1以上の他アバターを表示する端末出力部をさらに具備する端末装置。 A terminal device that communicates with the avatar output device according to any one of claims 1 to 16 and displays an avatar,
a terminal storage unit storing one or more terminal attribute values including position information of an avatar corresponding to the terminal device;
a terminal transmission unit that transmits the position information to the avatar output device;
a terminal receiving unit that receives position information of other avatars corresponding to one or more other terminal devices from the avatar output device;
a terminal processing unit that obtains a score of the one or more other avatars using the position information of the one or more other avatars and the position information;
The terminal transmission unit
transmitting the score of the one or more other avatars or a determination result based on the score to the avatar output device in association with the terminal identifier of the terminal device;
The terminal receiving unit
receiving model information of the other avatar from the avatar output device in response to transmission of the score or the determination result, and different model information corresponding to the score or the determination result;
A terminal device further comprising a terminal output unit that displays the one or more other avatars using the model information.
前記決定部が、前記2以上のアバターのうち、前記第一モデル情報を用いて表示される1以上の第一アバターと、前記第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する決定ステップと、
前記アバター取得部が、前記決定ステップで決定された前記1以上の各第二アバターについては、前記第二モデル情報を用いたアバターを取得し、前記1以上の各第一アバターについては、前記第一モデル情報を用いたアバターを取得するアバター取得ステップと、
前記アバター出力部が、前記アバター取得ステップで取得された2以上のアバターを出力するアバター出力ステップとを具備するアバター出力方法。 Avatar output implemented by an avatar storage unit storing avatar information having first model information for displaying the avatar, a determination unit, an avatar acquisition unit, and an avatar output unit for each of two or more avatars a method,
The determining unit displays one or more first avatars displayed using the first model information among the two or more avatars, and second model information having a data size smaller than the first model information. a determining step of determining one or more second avatars to be
The avatar acquisition unit acquires an avatar using the second model information for each of the one or more second avatars determined in the determination step, and obtains an avatar using the second model information for each of the one or more first avatars. an avatar acquisition step of acquiring an avatar using one model information;
and an avatar output step in which the avatar output unit outputs two or more avatars obtained in the avatar obtaining step.
前記2以上のアバターのうち、前記第一モデル情報を用いて表示される1以上の第一アバターと、前記第一モデル情報より小さいデータサイズの第二モデル情報を用いて表示される1以上の第二アバターとを決定する決定部と、
前記決定部が決定した前記1以上の各第二アバターについては、前記第二モデル情報を用いたアバターを取得し、前記1以上の各第一アバターについては、前記第一モデル情報を用いたアバターを取得するアバター取得部と、
前記アバター取得部が取得した2以上のアバターを出力するアバター出力部として機能させるためのプログラム。 for each of the two or more avatars, a computer having access to an avatar store in which avatar information having first model information for displaying the avatar is stored;
Among the two or more avatars, one or more first avatars displayed using the first model information and one or more displayed using the second model information having a data size smaller than the first model information a determination unit that determines the second avatar;
For each of the one or more second avatars determined by the determination unit, an avatar using the second model information is obtained, and for each of the one or more first avatars, an avatar using the first model information an avatar acquisition unit that acquires
A program for functioning as an avatar output unit that outputs two or more avatars acquired by the avatar acquisition unit.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022141130A JP2022188776A (en) | 2021-06-09 | 2022-09-06 | Avatar output device, terminal device, avatar output method and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021096279A JP6995416B1 (en) | 2021-06-09 | 2021-06-09 | Avatar output device, terminal device, avatar output method, and program |
JP2021181573A JP7142392B1 (en) | 2021-06-09 | 2021-11-08 | Avatar output device, terminal device, avatar output method, and program |
JP2022141130A JP2022188776A (en) | 2021-06-09 | 2022-09-06 | Avatar output device, terminal device, avatar output method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021181573A Division JP7142392B1 (en) | 2021-06-09 | 2021-11-08 | Avatar output device, terminal device, avatar output method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022188776A true JP2022188776A (en) | 2022-12-21 |
Family
ID=87852977
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021181573A Active JP7142392B1 (en) | 2021-06-09 | 2021-11-08 | Avatar output device, terminal device, avatar output method, and program |
JP2022141130A Pending JP2022188776A (en) | 2021-06-09 | 2022-09-06 | Avatar output device, terminal device, avatar output method and program |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021181573A Active JP7142392B1 (en) | 2021-06-09 | 2021-11-08 | Avatar output device, terminal device, avatar output method, and program |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7142392B1 (en) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000123195A (en) * | 1998-10-14 | 2000-04-28 | Nippon Telegr & Teleph Corp <Ntt> | Method for generating object in three-dimensional virtual space and recording medium recording program therefor |
JP3452348B2 (en) * | 1999-02-08 | 2003-09-29 | 日本電信電話株式会社 | Speaker identification method in virtual space and recording medium storing the program |
JP2004178036A (en) * | 2002-11-25 | 2004-06-24 | Hitachi Ltd | Device for presenting virtual space accompanied by remote person's picture |
JP3949702B1 (en) * | 2006-03-27 | 2007-07-25 | 株式会社コナミデジタルエンタテインメント | GAME DEVICE, GAME PROCESSING METHOD, AND PROGRAM |
JP4884918B2 (en) * | 2006-10-23 | 2012-02-29 | 株式会社野村総合研究所 | Virtual space providing server, virtual space providing system, and computer program |
US8441486B2 (en) * | 2009-04-27 | 2013-05-14 | Jagex Ltd. | Position tracking in a virtual world |
JP2018028789A (en) * | 2016-08-17 | 2018-02-22 | クラスター株式会社 | Server, information transmission method, and program thereof |
JP2018116537A (en) * | 2017-01-19 | 2018-07-26 | ソニー株式会社 | Information processing apparatus, information processing method, and program |
JP7094216B2 (en) * | 2018-12-28 | 2022-07-01 | グリー株式会社 | A video distribution system, video distribution method, and video distribution program that live-distributes videos containing animations of character objects generated based on the movements of distribution users. |
-
2021
- 2021-11-08 JP JP2021181573A patent/JP7142392B1/en active Active
-
2022
- 2022-09-06 JP JP2022141130A patent/JP2022188776A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP7142392B1 (en) | 2022-09-27 |
JP2022188729A (en) | 2022-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9814979B2 (en) | Data provision system, provision apparatus, execution apparatus, control method, and recording medium | |
US20170195650A1 (en) | Method and system for multi point same screen broadcast of video | |
EP3573026B1 (en) | Information processing apparatus, information processing method, and program | |
US9589063B2 (en) | Two-dimensional code processing method and terminal | |
JP2017056193A (en) | Remote rendering server comprising broadcaster | |
US20220103873A1 (en) | Computer program, method, and server apparatus | |
WO2022257699A1 (en) | Image picture display method and apparatus, device, storage medium and program product | |
JP2022036319A (en) | Image rendering method, device, electronic device, computer readable storage medium, and computer program | |
CN112511849A (en) | Game display method, device, equipment, system and storage medium | |
JP2001160154A (en) | Avatar display device in virtual space communication system, avatar displaying method and storage medium | |
WO2023143217A1 (en) | Special effect prop display method, apparatus, device, and storage medium | |
US20230274495A1 (en) | Avatar output device, terminal device, avatar output method, and program | |
JP2023169282A (en) | Computer program, server device, terminal device, and method | |
JP7142392B1 (en) | Avatar output device, terminal device, avatar output method, and program | |
CN112604279A (en) | Special effect display method and device | |
WO2017119191A1 (en) | Terminal device, information processing method, and recording medium | |
JP7015597B1 (en) | Avatar output device, terminal device, avatar output method, and program | |
JP2020077270A (en) | Method for generating 3D object arranged in virtual reality space | |
US10419671B2 (en) | System, method, and program for displaying omnidirectional camera image | |
CN115279469A (en) | Image processing system, program, and image processing method | |
CN115499673B (en) | Live broadcast method and device | |
US11763528B2 (en) | Avatar mobility between virtual reality spaces | |
JP2010039876A (en) | Content distribution device, content distribution program, and content distribution method | |
KR102090009B1 (en) | Method and program for providing 3d image content | |
KR100413162B1 (en) | Method and system for displaying panoramic videos using server-client configuration |