JP2021009681A - Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method - Google Patents
Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method Download PDFInfo
- Publication number
- JP2021009681A JP2021009681A JP2020060174A JP2020060174A JP2021009681A JP 2021009681 A JP2021009681 A JP 2021009681A JP 2020060174 A JP2020060174 A JP 2020060174A JP 2020060174 A JP2020060174 A JP 2020060174A JP 2021009681 A JP2021009681 A JP 2021009681A
- Authority
- JP
- Japan
- Prior art keywords
- virtual
- trigger
- display control
- control data
- arrangement
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 14
- 238000001514 detection method Methods 0.000 claims abstract description 48
- 230000004044 response Effects 0.000 claims abstract description 35
- 230000009471 action Effects 0.000 claims description 16
- 230000005540 biological transmission Effects 0.000 claims description 9
- 230000006870 function Effects 0.000 claims description 7
- 238000013459 approach Methods 0.000 claims description 5
- 238000002716 delivery method Methods 0.000 claims 1
- 230000033001 locomotion Effects 0.000 abstract description 22
- 238000010586 diagram Methods 0.000 description 27
- 238000004891 communication Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 12
- 230000008859 change Effects 0.000 description 10
- 230000004048 modification Effects 0.000 description 7
- 238000012986 modification Methods 0.000 description 7
- 238000009877 rendering Methods 0.000 description 6
- 238000003825 pressing Methods 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 206010041308 Soliloquy Diseases 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000010079 rubber tapping Methods 0.000 description 1
Landscapes
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- User Interface Of Digital Computer (AREA)
- Information Transfer Between Computers (AREA)
Abstract
Description
本開示は、仮想キャラクタが配置された仮想空間をコンテンツとして配信するコンテン
ツ配信装置、コンテンツ配信プログラム、コンテンツ配信方法に関する。また、コンテン
ツ表示装置、コンテンツ表示プログラムおよびコンテンツ表示方法に関する。
The present disclosure relates to a content distribution device, a content distribution program, and a content distribution method that distribute a virtual space in which virtual characters are arranged as content. It also relates to a content display device, a content display program, and a content display method.
特許文献1には、仮想キャラクタが配置された仮想空間をディスプレイに表示させるコ
ンテンツ配信サーバが開示されている。仮想キャラクタはユーザが動作させるものであり
、通常は、ユーザの動作が仮想キャラクタの動作に忠実に反映されるような表示が行われ
る。そのようにすることで、仮想空間に対する没入感が得られるためである。
Patent Document 1 discloses a content distribution server that displays a virtual space in which virtual characters are arranged on a display. The virtual character is operated by the user, and usually, the display is performed so that the user's operation is faithfully reflected in the virtual character's operation. By doing so, a feeling of immersion in the virtual space can be obtained.
しかしながら、ディスプレイの大きさは有限であるため、ユーザの動作を仮想キャラク
タの動作に忠実に反映させようとすると、仮想キャラクタが見づらくなることがある。
However, since the size of the display is finite, it may be difficult to see the virtual character if the user's movement is faithfully reflected in the movement of the virtual character.
本開示はこのような事情に鑑み、仮想空間に配置される仮想キャラクタをより見やすく
表示させることができるコンテンツ配信サーバ、コンテンツ配信方法およびコンテンツ配
信プログラム、ならびに、コンテンツ表示装置、コンテンツ表示プログラムおよびコンテ
ンツ表示方法を提供することを目的とする。
In view of these circumstances, the present disclosure discloses a content distribution server, a content distribution method and a content distribution program capable of displaying a virtual character arranged in a virtual space in an easy-to-see manner, and a content display device, a content display program and a content display. The purpose is to provide a method.
本開示の一態様によれば、複数の参加者のそれぞれに対応する複数の仮想キャラクタの
それぞれの仮想空間における配置を、対応する参加者の動作に対応して取得する仮想キャ
ラクタ配置取得部と、第1トリガを検知するトリガ検知部と、複数の仮想キャラクタが配
置された前記仮想空間の少なくとも一部を表示させるための表示制御データを生成して配
信する表示制御データ配信部と、を備え、前記表示制御データ配信部は、前記第1トリガ
が検知されるまでは、前記仮想空間における前記複数の仮想キャラクタの配置を、前記仮
想キャラクタ配置取得部によって取得された配置に従った配置とする前記表示制御データ
を生成し、前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのう
ち前記第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変
更された前記表示制御データを生成する、コンテンツ配信装置が提供される。
According to one aspect of the present disclosure, a virtual character arrangement acquisition unit that acquires the arrangement of a plurality of virtual characters corresponding to each of a plurality of participants in their respective virtual spaces in response to the actions of the corresponding participants. A trigger detection unit that detects the first trigger and a display control data distribution unit that generates and distributes display control data for displaying at least a part of the virtual space in which a plurality of virtual characters are arranged are provided. Until the first trigger is detected, the display control data distribution unit arranges the plurality of virtual characters in the virtual space according to the arrangement acquired by the virtual character arrangement acquisition unit. In response to the generation of display control data and the detection of the first trigger, the arrangement of the first virtual character associated with the first trigger among the plurality of virtual characters in the virtual space has been changed. A content distribution device that generates the display control data is provided.
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第
1参加者の端末から送信されたものであり、前記表示制御データ配信部は、前記第1トリ
ガが検知されたことに応答して、前記第1トリガが検知される前と比べて、前記第1仮想
キャラクタが強調表示されるよう、前記仮想空間における前記第1仮想キャラクタの配置
が変更された前記表示制御データであって、前記第2仮想キャラクタから見た前記仮想空
間の少なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
The first trigger is transmitted from the terminal of the first participant corresponding to the second virtual character associated with the first trigger, and the display control data distribution unit detects the first trigger. In response to this, the display control in which the arrangement of the first virtual character in the virtual space is changed so that the first virtual character is highlighted as compared with before the first trigger is detected. It is desirable to generate the display control data for displaying at least a part of the virtual space as seen from the second virtual character.
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
仮想キャラクタが所定位置に近づくよう、前記仮想空間における前記第1仮想キャラクタ
の配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の
少なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
The display control data in which the arrangement of the first virtual character in the virtual space is changed so that the virtual character approaches a predetermined position, and is for displaying at least a part of the virtual space viewed from the predetermined position. It is desirable to generate the display control data.
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
仮想キャラクタが所定位置を向くよう、前記仮想空間における前記第1仮想キャラクタの
配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少
なくとも一部を表示させるための前記表示制御データを生成するのが望ましい。
The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
The display control data in which the arrangement of the first virtual character in the virtual space is changed so that the virtual character faces a predetermined position, for displaying at least a part of the virtual space seen from the predetermined position. It is desirable to generate the display control data.
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第
1参加者の端末から送信されたものであり、前記所定位置は、前記第2仮想キャラクタの
位置であるのが望ましい。
The first trigger is transmitted from the terminal of the first participant corresponding to the second virtual character associated with the first trigger, and the predetermined position is the position of the second virtual character. Is desirable.
前記所定位置は、前記複数の仮想キャラクタのいずれとも異なる位置であるのが望まし
い。
It is desirable that the predetermined position is a position different from any of the plurality of virtual characters.
前記所定位置は、前記複数の仮想キャラクタのうち、前記第1トリガと関連付けられて
いない第3仮想キャラクタの位置であるのが望ましい。
It is desirable that the predetermined position is the position of the third virtual character that is not associated with the first trigger among the plurality of virtual characters.
前記第1トリガは、前記第1トリガに関連付けられた第2仮想キャラクタに対応する第
1参加者の端末から送信されたものであり、前記表示制御データは、前記第2仮想キャラ
クタから見た前記仮想空間の少なくとも一部を表示させるための第1表示制御データと、
前記第1トリガに関連付けられていない第3仮想キャラクタから見た前記仮想空間の少な
くとも一部を表示させるための第2表示制御データと、を含み、前記表示制御データ配信
部は、前記第1トリガが検知されたことに応答して、前記第1トリガが検知される前と比
べて、前記第1仮想キャラクタが強調表示されるよう、前記第1仮想キャラクタの配置が
変更された前記第1表示制御データを生成し、前記第1トリガが検知されるまでも、前記
第1トリガが検知された後も、前記仮想空間における前記複数の仮想キャラクタの配置を
、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする前記第2表
示制御データを生成するのが望ましい。
The first trigger is transmitted from the terminal of the first participant corresponding to the second virtual character associated with the first trigger, and the display control data is the display control data as seen from the second virtual character. The first display control data for displaying at least a part of the virtual space,
The display control data distribution unit includes the second display control data for displaying at least a part of the virtual space as seen from the third virtual character not associated with the first trigger, and the display control data distribution unit uses the first trigger. The first display in which the arrangement of the first virtual character is changed so that the first virtual character is highlighted as compared with before the first trigger was detected in response to the detection of Even after the control data is generated and the first trigger is detected, and after the first trigger is detected, the arrangement of the plurality of virtual characters in the virtual space is acquired by the virtual character arrangement acquisition unit. It is desirable to generate the second display control data which is arranged according to the arrangement.
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
仮想キャラクタおよび前記第1トリガに関連付けられた第2仮想キャラクタが互いに向き
合うよう、前記仮想空間における前記第1仮想キャラクタおよび前記第2仮想キャラクタ
の配置が変更された前記表示制御データを生成するのが望ましい。
The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
The display control data in which the arrangement of the first virtual character and the second virtual character in the virtual space is changed so that the virtual character and the second virtual character associated with the first trigger face each other is generated. desirable.
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
トリガに関連付けられていない第3仮想キャラクタが前記第1仮想キャラクタを向くよう
、前記仮想空間における前記第3仮想キャラクタの配置が変更された前記表示制御データ
を生成するのが望ましい。
The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
It is desirable to generate the display control data in which the arrangement of the third virtual character in the virtual space is changed so that the third virtual character not associated with the trigger faces the first virtual character.
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
仮想キャラクタが発話する際には前記第3仮想キャラクタが前記第1仮想キャラクタを向
くよう、前記第1トリガに関連付けられた第2仮想キャラクタが発話する際には前記第3
仮想キャラクタが前記第2仮想キャラクタを向くよう、前記仮想空間における前記第3仮
想キャラクタの配置が変更された前記表示制御データを生成するのが望ましい。
The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
When the second virtual character associated with the first trigger speaks, the third virtual character faces the first virtual character so that the third virtual character faces the first virtual character when the virtual character speaks.
It is desirable to generate the display control data in which the arrangement of the third virtual character in the virtual space is changed so that the virtual character faces the second virtual character.
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
トリガに関連付けられていない第3仮想キャラクタおよび第4仮想キャラクタの前記仮想
空間における位置を、前記仮想キャラクタ配置取得部によって取得された前記第3仮想キ
ャラクタおよび前記第4仮想キャラクタの相対的な位置関係を考慮して変更された前記表
示制御データを生成するのが望ましい。
The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
The relative positional relationship between the third virtual character and the fourth virtual character acquired by the virtual character placement acquisition unit with respect to the positions of the third virtual character and the fourth virtual character in the virtual space that are not associated with the trigger. It is desirable to generate the modified display control data in consideration of the above.
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
仮想キャラクタの表示態様が変更された前記表示制御データを生成するのが望ましい。
The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
It is desirable to generate the display control data in which the display mode of the virtual character is changed.
前記第1トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1
仮想キャラとの会話開始に対応するのが望ましい。
The first trigger includes a second virtual character associated with the first trigger and the first trigger.
It is desirable to correspond to the start of conversation with a virtual character.
前記トリガ検知部は、前記第1トリガが検知された後に第2トリガを検知し、前記表示
制御データ配信部は、前記第2トリガが検知されたことに応答して、配置が変更されてい
た前記第1仮想キャラクタの前記仮想空間における配置を、前記仮想キャラクタ配置取得
部によって取得された配置に従った配置に戻した前記表示制御データを生成するのが望ま
しい。
The trigger detection unit detects the second trigger after the first trigger is detected, and the display control data distribution unit has been rearranged in response to the detection of the second trigger. It is desirable to generate the display control data in which the arrangement of the first virtual character in the virtual space is returned to the arrangement according to the arrangement acquired by the virtual character arrangement acquisition unit.
前記第2トリガは、前記第1トリガと関連付けられた第2仮想キャラクタと、前記第1
仮想キャラとの会話開始に対応するのが望ましい。
The second trigger includes a second virtual character associated with the first trigger and the first.
It is desirable to correspond to the start of conversation with a virtual character.
本開示の別の態様によれば、コンピュータを、複数の参加者のそれぞれに対応する複数
の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の動作に対応し
て取得する仮想キャラクタ配置取得部と、第1トリガを検知するトリガ検知部と、複数の
仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための表示制御
データを生成して配信する表示制御データ配信部と、として機能させ、前記表示制御デー
タ配信部は、前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想
キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配
置とする前記表示制御データを生成し、前記第1トリガが検知されたことに応答して、前
記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キャラクタの前
記仮想空間における配置が変更された前記表示制御データを生成する、コンテンツ配信プ
ログラムが提供される。
According to another aspect of the present disclosure, a virtual character arrangement in which a computer acquires an arrangement of a plurality of virtual characters corresponding to each of a plurality of participants in their respective virtual spaces in response to the actions of the corresponding participants. An acquisition unit, a trigger detection unit that detects the first trigger, and a display control data distribution unit that generates and distributes display control data for displaying at least a part of the virtual space in which a plurality of virtual characters are arranged. The display control data distribution unit performs the arrangement of the plurality of virtual characters in the virtual space according to the arrangement acquired by the virtual character arrangement acquisition unit until the first trigger is detected. In response to the detection of the first trigger by generating the display control data to be arranged, the first virtual character associated with the first trigger among the plurality of virtual characters is in the virtual space. A content distribution program is provided that generates the display control data whose arrangement has been changed.
本開示の別の態様によれば、仮想キャラクタ配置取得部が、複数の参加者のそれぞれに
対応する複数の仮想キャラクタのそれぞれの仮想空間における配置を、対応する参加者の
動作に対応して取得するステップと、トリガ検知部が、第1トリガを検知するステップと
、表示制御データ配信部が、複数の仮想キャラクタが配置された前記仮想空間の少なくと
も一部を表示させるための表示制御データを生成して配信するステップと、を備え、前記
表示制御データ配信部は、前記第1トリガが検知されるまでは、前記仮想空間における前
記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって取得された配
置に従った配置とする前記表示制御データを生成し、前記第1トリガが検知されたことに
応答して、前記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第1仮想キ
ャラクタの前記仮想空間における配置が変更された前記表示制御データを生成する、コン
テンツ配信方法が提供される。
According to another aspect of the present disclosure, the virtual character placement acquisition unit acquires the placement of the plurality of virtual characters corresponding to each of the plurality of participants in their respective virtual spaces in response to the actions of the corresponding participants. Steps to be performed, a step for the trigger detection unit to detect the first trigger, and a display control data distribution unit to generate display control data for displaying at least a part of the virtual space in which a plurality of virtual characters are arranged. The display control data distribution unit acquires the arrangement of the plurality of virtual characters in the virtual space by the virtual character arrangement acquisition unit until the first trigger is detected. The display control data to be arranged according to the arranged arrangement is generated, and in response to the detection of the first trigger, the first virtual character associated with the first trigger among the plurality of virtual characters. A content distribution method for generating the display control data whose arrangement in the virtual space is changed is provided.
本開示の別の態様によれば、参加者の動作に応じて、前記参加者に対応する第1仮想キ
ャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信する仮想キ
ャラクタ制御部と、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配
信サーバに送信するトリガ生成部と、前記コンテンツ配信サーバから配信される表示制御
データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前
記仮想空間の少なくとも一部を表示させる表示制御部と、を備え、前記表示制御部は、前
記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置を、前
記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置とする
前記表示制御データを受信し、前記第1トリガの送信後は、前記複数の仮想キャラクタの
うち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間における配置が
変更された前記表示制御データを受信する、コンテンツ表示装置が提供される。
According to another aspect of the present disclosure, the virtual character control unit that transmits data indicating the arrangement of the first virtual character corresponding to the participant in the virtual space to the content distribution server according to the operation of the participant, and the above. A plurality of trigger generation units including the first virtual character based on a trigger generation unit that generates a first trigger and transmits the first trigger to the content distribution server according to a participant's instruction and display control data distributed from the content distribution server. The display control unit includes a display control unit that displays at least a part of the virtual space in which the virtual character is arranged, and the display control unit of the plurality of virtual characters in the virtual space before transmission of the first trigger. After receiving the display control data in which the arrangement corresponds to the actions of the plurality of participants corresponding to each of the plurality of virtual characters and transmitting the first trigger, the arrangement is among the plurality of virtual characters. A content display device is provided that receives the display control data whose arrangement of the second virtual character associated with the first trigger in the virtual space has been changed.
本開示の別の態様によれば、コンピュータを、参加者の動作に応じて、前記参加者に対
応する第1仮想キャラクタの仮想空間における配置を示すデータをコンテンツ配信サーバ
に送信する仮想キャラクタ制御部と、前記参加者の指示に応じて、第1トリガを生成して
前記コンテンツ配信サーバに送信するトリガ生成部と、前記コンテンツ配信サーバから配
信される表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラク
タが配置された前記仮想空間の少なくとも一部を表示させる表示制御部と、として機能さ
せ、前記表示制御部は、前記第1トリガの送信前は、前記仮想空間における前記複数の仮
想キャラクタの配置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の
動作に対応した配置とする前記表示制御データを受信し、前記第1トリガの送信後は、前
記複数の仮想キャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前
記仮想空間における配置が変更された前記表示制御データを受信する、コンテンツ表示プ
ログラムが提供される。
According to another aspect of the present disclosure, the virtual character control unit of the computer transmits data indicating the arrangement of the first virtual character corresponding to the participant in the virtual space to the content distribution server according to the operation of the participant. Based on the trigger generation unit that generates the first trigger and transmits it to the content distribution server in response to the instructions of the participants, and the display control data distributed from the content distribution server, the first virtual character. The display control unit functions as a display control unit that displays at least a part of the virtual space in which a plurality of virtual characters including the above are arranged, and the display control unit performs the plurality of display control units in the virtual space before the transmission of the first trigger. After receiving the display control data in which the arrangement of the virtual characters is arranged according to the actions of the plurality of participants corresponding to each of the plurality of virtual characters, and after the transmission of the first trigger, the plurality of virtual characters A content display program is provided that receives the display control data in which the arrangement of the second virtual character associated with the first trigger among the characters is changed in the virtual space.
仮想キャラクタ制御部が、参加者の動作に応じて、前記参加者に対応する第1仮想キャ
ラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信するステップ
と、トリガ生成部が、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ
配信サーバに送信するステップと、表示制御部が、前記コンテンツ配信サーバから配信さ
れる表示制御データに基づいて、前記第1仮想キャラクタを含む複数の仮想キャラクタが
配置された前記仮想空間の少なくとも一部を表示させるステップと、を備え、前記表示制
御部は、前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの
配置を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した
配置とする前記表示制御データを受信し、前記第1トリガの送信後は、前記複数の仮想キ
ャラクタのうち前記第1トリガに関連付けられた第2仮想キャラクタの前記仮想空間にお
ける配置が変更された前記表示制御データを受信する、コンテンツ表示方法が提供される
。
A step in which the virtual character control unit transmits data indicating the arrangement of the first virtual character corresponding to the participant in the virtual space to the content distribution server according to the operation of the participant, and a trigger generation unit are the participants. In response to the instruction of, the step of generating the first trigger and transmitting it to the content distribution server, and the display control unit include the first virtual character based on the display control data distributed from the content distribution server. The display control unit includes a step of displaying at least a part of the virtual space in which a plurality of virtual characters are arranged, and the display control unit arranges the plurality of virtual characters in the virtual space before transmitting the first trigger. Is received, and after the first trigger is transmitted, the display control data is arranged so as to correspond to the actions of a plurality of participants corresponding to each of the plurality of virtual characters. A content display method is provided for receiving the display control data in which the arrangement of the second virtual character associated with one trigger in the virtual space is changed.
仮想空間に配置される仮想キャラクタを見やすくできる。 The virtual characters placed in the virtual space can be easily seen.
以下、本開示の実施形態について図面を参照して説明する。なお、以下に説明する実施
形態は、特許請求の範囲に記載された本開示の内容を不当に限定するものではない。また
、実施形態に示される構成要素のすべてが、本開示の必須の構成要素であるとは限らない
。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. It should be noted that the embodiments described below do not unreasonably limit the contents of the present disclosure described in the claims. In addition, not all of the components shown in the embodiments are essential components of the present disclosure.
図1は、一実施形態に係るコンテンツ配信システムの概略構成を示すブロック図である
。コンテンツ配信システムは、参加者端末1a〜1d、視聴者端末2およびコンテンツ配
信サーバ3などから構成され、これらはWAN(World Area Network)などのネットワー
クを介して通信可能に接続される。なお、便宜上、4つの参加者端末1a〜1dおよび1
つの視聴者端末2を描いているが、これらの数に何ら制限はない。
FIG. 1 is a block diagram showing a schematic configuration of a content distribution system according to an embodiment. The content distribution system is composed of participant terminals 1a to 1d, a viewer terminal 2, a content distribution server 3, and the like, and these are connected communicably via a network such as a WAN (World Area Network). For convenience, the four participant terminals 1a to 1d and 1
It depicts one viewer terminal 2, but there is no limit to the number of these.
このコンテンツ配信システムは、参加者端末1a〜1dのユーザのそれぞれに対応する
アバター(仮想キャラクタ)が所定の仮想空間内で活動する様子(以下「コンテンツ」と
いう)を、参加者端末1a〜1dや視聴者端末2でリアルタイムに視聴できるようにする
ものである。
In this content distribution system, avatars (virtual characters) corresponding to each of the users of the participant terminals 1a to 1d are active in a predetermined virtual space (hereinafter referred to as "contents"), and the participant terminals 1a to 1d and the like. This is intended to enable real-time viewing on the viewer terminal 2.
[参加者端末1a〜1dの構成]
参加者端末1a〜1dはアバターを仮想空間内で活動させるユーザ(以下「参加者」と
いう)が用いるものである。なお、以下では、自身に対応するアバターを仮想空間内で活
動させることを「参加する」ともいう。そして、参加者端末1a〜1dを用いる参加者を
それぞれ参加者A〜Dと呼び、参加者A〜Dに対応するアバターをそれぞれアバターA〜
Dと呼ぶ。参加者端末1a〜1dの構成は共通するため、代表して参加者端末1aについ
て説明する。
[Configuration of participant terminals 1a to 1d]
Participant terminals 1a to 1d are used by users (hereinafter referred to as "participants") who activate the avatar in the virtual space. In the following, activating the avatar corresponding to itself in the virtual space is also referred to as "participating". Participants who use the participant terminals 1a to 1d are called participants A to D, and the avatars corresponding to the participants A to D are avatars A to D, respectively.
Called D. Since the configurations of the participant terminals 1a to 1d are common, the participant terminals 1a will be described as a representative.
図2は、参加者端末1aの概略構成を示すブロック図である。参加者端末1aは、通信
部11、操作部12、動作入力部13、記憶部14、ディスプレイ15および制御部16
などを有する。
FIG. 2 is a block diagram showing a schematic configuration of the participant terminal 1a. The participant terminal 1a includes a communication unit 11, an operation unit 12, an operation input unit 13, a storage unit 14, a display 15, and a control unit 16.
And so on.
通信部11は、有線通信または無線通信を行うためのNIC(Network Interface Card
controller)を有する通信インターフェースであり、ネットワークを介してコンテンツ
配信サーバ3と通信を行う。操作部12は参加者が種々の指示を行うための入力インター
フェースである。動作入力部13はアバターを仮想空間内で活動させるための動作を参加
者から受け付ける入力インターフェースである。記憶部14は、RAM(Random Access
Memory)やROM(Read Only Memory)などから構成され、各種制御処理を実行するため
のプログラムや種々のデータなどを非一時的あるいは一時的に記憶する。ディスプレイ1
5にはコンテンツなどが表示される。
The communication unit 11 is a NIC (Network Interface Card) for performing wired communication or wireless communication.
It is a communication interface having a controller) and communicates with the content distribution server 3 via a network. The operation unit 12 is an input interface for participants to give various instructions. The motion input unit 13 is an input interface that receives from participants the motion for activating the avatar in the virtual space. The storage unit 14 is a RAM (Random Access).
It is composed of Memory), ROM (Read Only Memory), etc., and stores programs for executing various control processes, various data, etc. non-temporarily or temporarily. Display 1
Content and the like are displayed in 5.
制御部16は、アバター制御部161、トリガ生成部162および表示制御部163な
どを有する。これら各部の少なくとも一部は、ハードウェアによって実装されてもよいし
、参加者端末1aの処理回路(プロセッサ)が記憶部14に記憶された所定のプログラム
を実行することによって実現されてもよい。
The control unit 16 includes an avatar control unit 161, a trigger generation unit 162, a display control unit 163, and the like. At least a part of each of these parts may be implemented by hardware, or may be realized by the processing circuit (processor) of the participant terminal 1a executing a predetermined program stored in the storage unit 14.
アバター制御部161は、参加者Aによる動作入力部13に対する動作に応じて、アバ
ターを仮想空間内で活動させるためのデータを生成する。ここでの活動とは、移動などの
動作や会話などである。このデータは通信部11からコンテンツ配信サーバ3に送信され
る。なお、このデータは通信部11から他の参加者端末1b〜1dあるいは視聴者端末2
に送信されてもよい。
The avatar control unit 161 generates data for activating the avatar in the virtual space in response to the operation of the participant A on the operation input unit 13. The activities here are movements such as movement and conversation. This data is transmitted from the communication unit 11 to the content distribution server 3. In addition, this data is from the communication unit 11 to other participant terminals 1b to 1d or the viewer terminal 2.
May be sent to.
トリガ生成部162は、ユーザによる操作部12に対する所定操作あるいは動作入力部
13に対する所定動作に応じて、トリガを生成する。このトリガは通信部11からコンテ
ンツ配信サーバ3に送信される。なお、このトリガは通信部11から他の参加者端末1b
〜1dあるいは視聴者端末2に送信されてもよい。本実施形態では、トリガの例として、
他ユーザに対応するアバターとの会話開始に対応する会話開始トリガと、開始された会話
の終了に対応する会話終了トリガについて述べる。後述するように、トリガに応じて仮想
空間内に配置されたアバターの配置が変更される。
The trigger generation unit 162 generates a trigger in response to a predetermined operation on the operation unit 12 or a predetermined operation on the operation input unit 13 by the user. This trigger is transmitted from the communication unit 11 to the content distribution server 3. In addition, this trigger is from the communication unit 11 to another participant terminal 1b.
It may be transmitted to ~ 1d or the viewer terminal 2. In this embodiment, as an example of a trigger,
A conversation start trigger corresponding to the start of a conversation with an avatar corresponding to another user and a conversation end trigger corresponding to the end of the started conversation will be described. As will be described later, the arrangement of the avatars arranged in the virtual space is changed according to the trigger.
表示制御部163は、コンテンツ配信サーバ3から送信される表示制御データ(後述)
を受信し、この表示制御データに基づいてディスプレイ15にコンテンツを表示させる。
The display control unit 163 is the display control data (described later) transmitted from the content distribution server 3.
Is received, and the content is displayed on the display 15 based on the display control data.
一例として、参加者端末1aはスマートフォン(あるいはタブレット端末)であってよ
い。スマートフォンは、タッチパネルディスプレイや、マイクを有する。タッチパネルデ
ィスプレイは、例えば液晶ディスプレイと透過性のタッチパッドとが重ね合わせて配置さ
れたものであり、液晶ディスプレイがディスプレイ15として機能し、タッチパッドが操
作部12および動作入力部13として機能する。
As an example, the participant terminal 1a may be a smartphone (or tablet terminal). A smartphone has a touch panel display and a microphone. In the touch panel display, for example, a liquid crystal display and a transparent touch pad are arranged so as to overlap each other, the liquid crystal display functions as a display 15, and the touch pad functions as an operation unit 12 and an operation input unit 13.
そして、タッチパッドに対する参加者の操作に応じて、仮想空間内のアバターが活動す
る。例えば、参加者がタッチパッド上で右方向にスワイプすることで、アバターが仮想空
間内で右方向に移動する。また、マイクが動作入力部13として機能し、マイクに対する
参加者の発話に応じて仮想空間内のアバターが活動してもよい。例えば、マイクに対する
ユーザの発言が仮想空間におけるアバターの発言に反映されてもよい。その他、スマート
フォンに設けられた加速度センサ等の各種センサやボタンが操作部12および/または動
作入力部13として機能してもよい。
Then, the avatar in the virtual space is activated according to the participant's operation on the touch pad. For example, when a participant swipes to the right on the touchpad, the avatar moves to the right in the virtual space. Further, the microphone may function as the operation input unit 13, and the avatar in the virtual space may act in response to the participant's utterance to the microphone. For example, the user's remark to the microphone may be reflected in the avatar's remark in the virtual space. In addition, various sensors and buttons such as an acceleration sensor provided on the smartphone may function as the operation unit 12 and / or the operation input unit 13.
別の例として、参加者端末1aの操作部12は、操作ボタン、キーボード、ポインティ
ングデバイスなどから構成されるVR(Virtual Reality)用のスティック型コントロー
ラであってもよい。動作入力部13は参加者の動きを検出するモーションセンサであって
もよい。検出された参加者の動き(モーションデータ)に応じて、仮想空間内のアバター
が動作する。例えば、参加者が右を向くと、仮想空間内でアバターが右を向く。さらに、
ディスプレイ15はHMD(Head Mount Display)であってもよい。
As another example, the operation unit 12 of the participant terminal 1a may be a stick-type controller for VR (Virtual Reality) composed of operation buttons, a keyboard, a pointing device, and the like. The motion input unit 13 may be a motion sensor that detects the movement of the participant. The avatar in the virtual space operates according to the detected movement (motion data) of the participant. For example, when a participant turns to the right, the avatar turns to the right in the virtual space. further,
The display 15 may be an HMD (Head Mount Display).
以上述べたように、参加者端末1aは、スマートフォンのように1つの装置から構成さ
れてもよいし、VR用コントローラ、モーションセンサおよびHMDのように複数の装置
から構成されてもよい。
As described above, the participant terminal 1a may be composed of one device such as a smartphone, or may be composed of a plurality of devices such as a VR controller, a motion sensor, and an HMD.
[視聴者端末2の構成]
視聴者端末2は、コンテンツに参加することなく、コンテンツを視聴するユーザ(以下
「視聴者」という)が用いるものである。
[Configuration of viewer terminal 2]
The viewer terminal 2 is used by a user (hereinafter referred to as "viewer") who views the content without participating in the content.
図3は、視聴者端末2の概略構成を示すブロック図である。視聴者端末2は、参加者端
末1aにおける動作入力部13、アバター制御部161およびトリガ生成部162を省略
したものとなっている。コンテンツの視聴のみであれば、このような簡易な構成の視聴者
端末2で足りる。もちろん、コンテンツに参加することなく、参加者端末1aを用いてコ
ンテンツを視聴できてよい。
FIG. 3 is a block diagram showing a schematic configuration of the viewer terminal 2. In the viewer terminal 2, the operation input unit 13, the avatar control unit 161 and the trigger generation unit 162 in the participant terminal 1a are omitted. For viewing only the content, the viewer terminal 2 having such a simple configuration is sufficient. Of course, the content may be viewed using the participant terminal 1a without participating in the content.
[コンテンツ配信サーバ3の構成]
図4は、コンテンツ配信サーバ3の概略構成を示すブロック図である。コンテンツ配信
サーバ3は、通信部31、記憶部32および制御部33などを有する。なお、コンテンツ
配信サーバ3は1つの装置から構成されてもよいし、複数の装置から構成されてもよい。
[Configuration of content distribution server 3]
FIG. 4 is a block diagram showing a schematic configuration of the content distribution server 3. The content distribution server 3 includes a communication unit 31, a storage unit 32, a control unit 33, and the like. The content distribution server 3 may be composed of one device or a plurality of devices.
通信部31は、有線通信または無線通信を行うためのNICを備える通信インターフェ
ースであり、ネットワークを介して参加者端末1a〜1dおよび視聴者端末2と通信を行
う。記憶部32は、RAMやROMなどから構成され、各種制御処理を実行するためのプ
ログラムや種々のデータなどを非一時的あるいは一時的に記憶する。
The communication unit 31 is a communication interface provided with a NIC for performing wired communication or wireless communication, and communicates with the participant terminals 1a to 1d and the viewer terminal 2 via a network. The storage unit 32 is composed of a RAM, a ROM, and the like, and stores a program for executing various control processes, various data, and the like non-temporarily or temporarily.
制御部33は、アバター配置取得部331、トリガ検知部332、および、表示制御デ
ータ配信部333などを有する。これらの少なくとも一部は、ハードウェアで実装されて
もよいし、コンテンツ配信サーバ3の処理回路(プロセッサ)が記憶部32に記憶された
所定のプログラムを実行することによって実現されてもよい。
The control unit 33 includes an avatar arrangement acquisition unit 331, a trigger detection unit 332, a display control data distribution unit 333, and the like. At least a part of these may be implemented by hardware, or may be realized by the processing circuit (processor) of the content distribution server 3 executing a predetermined program stored in the storage unit 32.
アバター配置取得部331は、各参加者に対応する各アバターの仮想空間における配置
を、参加者端末1a〜1dのアバター制御部161から取得する。例えば、参加者端末1
aの動作入力部13に対する参加者Aの動作に対応して、アバターAの仮想空間における
配置を取得する。取得した配置が一時的に記憶部32に記憶されてもよい。なお、本明細
書における配置とは、仮想空間におけるアバターの位置およびアバターの向きの両方でも
よいし、少なくとも一方でもよい。
The avatar arrangement acquisition unit 331 acquires the arrangement of each avatar corresponding to each participant in the virtual space from the avatar control unit 161 of the participant terminals 1a to 1d. For example, participant terminal 1
The arrangement of the avatar A in the virtual space is acquired in response to the movement of the participant A with respect to the movement input unit 13 of a. The acquired arrangement may be temporarily stored in the storage unit 32. The arrangement in the present specification may be both the position of the avatar and the orientation of the avatar in the virtual space, or at least one of them.
トリガ検知部332は参加者端末1a〜1dのトリガ生成部162によってトリガが生
成されたことを検知する。ここで、会話開始トリガには会話に参加するアバター(以下「
会話アバター」という)が関連付けられている。言い換えると、会話開始トリガに関連付
けられているのが会話アバターであり、関連付けられていないアバターは会話に参加しな
い(以下「非会話アバター」という)。トリガ検知部322は会話開始トリガに関連付け
られている会話アバターの特定も行う。なお、会話アバターは、通常は会話開始トリガを
生成した参加者端末を用いる参加者に対応するアバターを含む複数のアバターであるが、
1つのアバターのみであってもよい。
The trigger detection unit 332 detects that the trigger is generated by the trigger generation unit 162 of the participant terminals 1a to 1d. Here, the conversation start trigger is an avatar that participates in the conversation (hereinafter, ""
"Conversation avatar") is associated. In other words, it is the conversation avatar that is associated with the conversation start trigger, and the avatar that is not associated does not participate in the conversation (hereinafter referred to as "non-conversation avatar"). The trigger detection unit 322 also identifies the conversation avatar associated with the conversation start trigger. The conversation avatar is usually a plurality of avatars including an avatar corresponding to a participant who uses the participant terminal that generated the conversation start trigger.
There may be only one avatar.
表示制御データ配信部333は、アバター配置取得部331によって取得された各アバ
ターの配置およびトリガ検知部332によって検知されたトリガに基づき、表示制御デー
タを生成して参加者端末1a〜1dおよび視聴者端末2に配信する。具体的には、表示制
御データ配信部333は、アバター制御部333aと、表示制御データ生成部333bと
を有する。
The display control data distribution unit 333 generates display control data based on the arrangement of each avatar acquired by the avatar arrangement acquisition unit 331 and the trigger detected by the trigger detection unit 332, and the participant terminals 1a to 1d and the viewer. Deliver to terminal 2. Specifically, the display control data distribution unit 333 has an avatar control unit 333a and a display control data generation unit 333b.
アバター制御部333aは各アバターの仮想空間における配置を制御し、各アバターの
仮想空間における配置を示すアバター配置情報を生成する。アバター制御部333aは各
アバターの表示態様を制御し、アバター配置情報はアバターの表示態様を含んでいてもよ
い。このアバター配置情報は、参加者端末1a〜1dのディスプレイ15や視聴者端末2
のディスプレイ23にコンテンツを表示させるため、すなわち、表示制御データの生成の
ために用いられる。
The avatar control unit 333a controls the arrangement of each avatar in the virtual space, and generates avatar arrangement information indicating the arrangement of each avatar in the virtual space. The avatar control unit 333a controls the display mode of each avatar, and the avatar arrangement information may include the display mode of the avatar. This avatar arrangement information is used on the display 15 of the participant terminals 1a to 1d and the viewer terminal 2.
It is used to display the content on the display 23 of the above, that is, to generate display control data.
具体的には、会話開始トリガが検知されるまでは、アバター制御部333aはアバター
配置取得部331が取得した配置に従ってアバターを仮想空間に配置して、アバター配置
情報を生成する。会話開始トリガが検知されるまでのアバターの配置は、参加者端末1a
〜1dの動作入力部13に対するユーザ動作が忠実に反映されたものといえる。
Specifically, until the conversation start trigger is detected, the avatar control unit 333a arranges the avatar in the virtual space according to the arrangement acquired by the avatar arrangement acquisition unit 331, and generates the avatar arrangement information. The placement of the avatar until the conversation start trigger is detected is the participant terminal 1a.
It can be said that the user's operation with respect to the operation input unit 13 of ~ 1d is faithfully reflected.
また、会話開始トリガが検知されたことに応答して、アバター制御部333aは少なく
とも一部のアバター(例えば、少なくも一部の会話アバター)の仮想空間における配置を
変更して、アバター配置情報を更新する。変更後の配置はアバター配置取得部331が取
得した配置とは必ずしも一致しない。すなわち、会話開始トリガが検知された後のアバタ
ーの配置は、参加者端末1a〜1dの動作入力部13に対する参加者の動作が忠実に反映
されたものにはなっていない。
Further, in response to the detection of the conversation start trigger, the avatar control unit 333a changes the arrangement of at least some avatars (for example, at least some conversation avatars) in the virtual space to obtain the avatar arrangement information. Update. The changed arrangement does not necessarily match the arrangement acquired by the avatar arrangement acquisition unit 331. That is, the arrangement of the avatars after the conversation start trigger is detected does not faithfully reflect the actions of the participants with respect to the action input units 13 of the participant terminals 1a to 1d.
なお、配置の変更とは、仮想空間における位置の変更でもよいし、仮想空間におけるア
バターの向きの変更でもよいし、その両方でもよい。変更の例としては、会話アバターが
強調表示されるような変更、会話アバターが所定位置に近づくような変更、会話アバター
が所定位置を向くような変更である。また、仮想空間の一部のみがディスプレイ15,2
3に表示されない場合に、全ての会話アバターが表示されるよう会話アバターの位置を変
更するものでもよい。あるいは、会話アバターの表示態様を変更(通常は6頭身だが、会
話アバターのみ8頭身にするなど)してもよい。詳細については後述する。
Note that the arrangement change may be a change in the position in the virtual space, a change in the orientation of the avatar in the virtual space, or both. Examples of changes include a change in which the conversation avatar is highlighted, a change in which the conversation avatar approaches a predetermined position, and a change in which the conversation avatar faces a predetermined position. In addition, only a part of the virtual space is displayed 15 and 2.
If it is not displayed in 3, the position of the conversation avatar may be changed so that all the conversation avatars are displayed. Alternatively, the display mode of the conversation avatar may be changed (usually 6 heads, but only the conversation avatar has 8 heads). Details will be described later.
なお、変更前のアバターの配置(アバター配置取得部331によって取得された配置)
が失われないよう、アバター制御部333aは当該変更前のアバターの配置を記憶部32
に記憶しておくのが望ましい。
Arrangement of avatars before change (arrangement acquired by avatar arrangement acquisition unit 331)
The avatar control unit 333a stores the arrangement of the avatar before the change in the storage unit 32 so that the avatar is not lost.
It is desirable to remember it in.
そして、会話開始トリガの後に会話終了トリガが検知されたことに応答して、アバター
制御部333aは配置が変更されていたアバターの配置を、アバター配置取得部331が
取得した配置に戻して、アバター配置情報を更新する。これにより、会話終了トリガが検
知された後のアバターの配置は、参加者端末1a〜1dの動作入力部13に対する参加者
の動作が忠実に反映されたものに戻る。このとき、アバター制御部333aは、記憶部3
2に記憶しておいたアバターの配置を利用してもよい。
Then, in response to the detection of the conversation end trigger after the conversation start trigger, the avatar control unit 333a returns the arrangement of the avatar whose arrangement has been changed to the arrangement acquired by the avatar arrangement acquisition unit 331, and the avatar Update the placement information. As a result, the arrangement of the avatar after the conversation end trigger is detected returns to the one that faithfully reflects the movement of the participant with respect to the movement input unit 13 of the participant terminals 1a to 1d. At this time, the avatar control unit 333a is the storage unit 3.
You may use the arrangement of the avatars stored in 2.
表示制御データ生成部333bは、アバター制御部333aが生成・更新したアバター
配置情報を用い、参加者端末1a〜1dのディスプレイ15および視聴者端末2のディス
プレイ23にコンテンツを表示させるための表示制御データを生成する。表示制御データ
は通信部31から参加者端末1a〜1dおよび視聴者端末2に配信される。
The display control data generation unit 333b uses the avatar arrangement information generated / updated by the avatar control unit 333a to display the content on the displays 15 of the participant terminals 1a to 1d and the display 23 of the viewer terminal 2. To generate. The display control data is distributed from the communication unit 31 to the participant terminals 1a to 1d and the viewer terminal 2.
なお、ディスプレイ15,23に表示される画像のレンダリングは、参加者端末1a〜
1dの表示制御部163および視聴者端末2の表示制御部251が行ってもよいし、コン
テンツ配信サーバ3の表示制御データ生成部333bが行ってもよい。
The images displayed on the displays 15 and 23 are rendered from the participant terminals 1a to
The display control unit 163 of 1d and the display control unit 251 of the viewer terminal 2 may perform the display control unit 163, or the display control data generation unit 333b of the content distribution server 3 may perform the operation.
参加者端末1a〜1dがレンダリングを行う場合、アバター配置情報に基づく仮想空間
における各アバターの配置や表示態様を示すデータが表示制御データとして配信される。
そして、表示制御データに基づき、参加者端末1a〜1dの表示制御部163が仮想空間
に各アバターが配置されたコンテンツの画像を生成して、ディスプレイ15に表示させる
。視聴者端末2がレンダリングを行う場合も同様である。
When the participant terminals 1a to 1d perform rendering, data indicating the arrangement and display mode of each avatar in the virtual space based on the avatar arrangement information is distributed as display control data.
Then, based on the display control data, the display control units 163 of the participant terminals 1a to 1d generate an image of the content in which each avatar is arranged in the virtual space and display it on the display 15. The same applies when the viewer terminal 2 performs rendering.
一方、コンテンツ配信サーバ3の表示制御データ生成部333bがレンダリングを行う
場合、表示制御データ生成部333bは、アバター配置情報に基づいて、仮想空間に各ア
バターが配置されたコンテンツの画像に対応するデータ(画像データ)を生成する。そし
て、生成された画像データが表示制御データとして配信される。そして、この表示制御デ
ータに基づいて、表示制御部163,251がディスプレイ15,23にコンテンツの画
像を表示させる。
On the other hand, when the display control data generation unit 333b of the content distribution server 3 renders, the display control data generation unit 333b is based on the avatar arrangement information, and the data corresponding to the image of the content in which each avatar is arranged in the virtual space. (Image data) is generated. Then, the generated image data is distributed as display control data. Then, based on the display control data, the display control units 163 and 251 display the image of the content on the displays 15 and 23.
以上述べたように、レンダリングは、参加者端末1a〜1dおよび視聴者端末2が行っ
てもよいし、コンテンツ配信サーバ3が行ってもよいが、タイムラグが生じないようにす
るためには前者の方が望ましい。
As described above, the rendering may be performed by the participant terminals 1a to 1d and the viewer terminal 2, or may be performed by the content distribution server 3, but in order to prevent a time lag, the former may be performed. Is preferable.
ここで、参加者端末1a〜1dおよび視聴者端末2に表示されるコンテンツは、参加者
端末1a〜1dおよび視聴者端末2に共通でもよいが、互いに異なるのが望ましい。具体
的には、参加者端末1aにはアバターAを視点とする仮想空間がコンテンツとして表示さ
れる。参加者端末1b〜1dも同様である。また、視聴者端末2には、仮想空間における
任意の位置(例えば仮想空間を俯瞰できる位置)に設定された仮想カメラを視点とする仮
想空間がコンテンツとして表示される。
Here, the contents displayed on the participant terminals 1a to 1d and the viewer terminal 2 may be common to the participant terminals 1a to 1d and the viewer terminal 2, but it is desirable that they are different from each other. Specifically, the participant terminal 1a displays a virtual space with the avatar A as a viewpoint as content. The same applies to the participant terminals 1b to 1d. Further, on the viewer terminal 2, a virtual space with a virtual camera set at an arbitrary position in the virtual space (for example, a position where the virtual space can be overlooked) is displayed as content.
また、視点が切替可能であってもよい。例えば参加者端末1aには、初期設定としてア
バターAから見た仮想空間が表示されるが、操作部12に対する所定の操作に応答して、
他のアバターから見た仮想空間や、仮想カメラから見た仮想空間が表示されてもよい。ま
た、視聴者端末2には、初期設定として仮想カメラから見た仮想空間が表示されるが、操
作部22に対する所定の操作に応答して、特定のアバターから見た仮想空間が表示されて
もよい。また、仮想空間において、設置位置が異なる、あるいは、ズームが異なる複数の
仮想カメラが設定され、いずれの仮想カメラから見た仮想空間を表示するかを切り替え可
能であってもよい。さらに、仮想空間の全体が表示されてもよいし、その一部分のみが表
示されてもよい。
Moreover, the viewpoint may be switchable. For example, the participant terminal 1a displays the virtual space seen from the avatar A as an initial setting, but in response to a predetermined operation on the operation unit 12,
The virtual space seen from another avatar or the virtual space seen from the virtual camera may be displayed. Further, the viewer terminal 2 displays the virtual space seen from the virtual camera as an initial setting, but even if the virtual space seen from a specific avatar is displayed in response to a predetermined operation on the operation unit 22. Good. Further, in the virtual space, a plurality of virtual cameras having different installation positions or different zooms may be set, and it may be possible to switch which virtual camera views the virtual space. Further, the entire virtual space may be displayed, or only a part thereof may be displayed.
[会話開始前のコンテンツ配信システムの処理動作]
図5は、会話開始前のコンテンツ配信システムの処理動作の一例を示すシーケンス図で
ある。なお、以下では参加者端末1aのみを記載するが、他の参加者端末1b〜1dも同
様である。
[Processing operation of the content distribution system before the start of conversation]
FIG. 5 is a sequence diagram showing an example of the processing operation of the content distribution system before the start of the conversation. In the following, only the participant terminals 1a will be described, but the same applies to the other participant terminals 1b to 1d.
参加者Aが参加者端末1aにおける動作入力部13に対して所定の動作を行うと、アバ
ター制御部161は仮想空間内でアバターAを動作させるためのデータを生成し、これを
コンテンツ配信サーバ3に送信する(ステップS1)。ここでのアバターAの動作とは、
仮想空間におけるアバターAの配置であり、具体的には仮想空間内でアバターAを移動さ
せたり、アバターAが特定の方向を向くようにしたりすることである。
When the participant A performs a predetermined operation on the operation input unit 13 in the participant terminal 1a, the avatar control unit 161 generates data for operating the avatar A in the virtual space, and the content distribution server 3 generates data for operating the avatar A. (Step S1). The operation of Avatar A here is
It is the arrangement of the avatar A in the virtual space, specifically, moving the avatar A in the virtual space or making the avatar A face a specific direction.
そして、コンテンツ配信サーバ3は上記データを受信する。このデータに基づいて、ア
バター配置取得部331はアバターAの仮想空間における配置(位置および/または向き
)を取得する(ステップS11)。この配置は参加者Aの動作入力部13に対する動作が
そのまま反映されている。
Then, the content distribution server 3 receives the above data. Based on this data, the avatar placement acquisition unit 331 acquires the placement (position and / or orientation) of the avatar A in the virtual space (step S11). This arrangement directly reflects the movement of the participant A with respect to the movement input unit 13.
続いて、取得された配置に基づいて、アバター制御部333aはアバターAの仮想空間
における配置を設定し、アバター配置情報を生成する(ステップS12)。やはり、この
配置も参加者Aの動作入力部13に対する動作がそのまま反映されたものである。
Subsequently, the avatar control unit 333a sets the arrangement of the avatar A in the virtual space based on the acquired arrangement, and generates the avatar arrangement information (step S12). After all, this arrangement also reflects the operation of the participant A with respect to the operation input unit 13 as it is.
次に、生成されたアバター配置情報に基づいて、表示制御データ生成部333bは表示
制御データを生成する。そして、表示制御データは参加者端末1aに配信される(ステッ
プS13)。また、他の参加者端末1b〜1dおよび視聴者端末2にも表示制御データが
配信される。
Next, the display control data generation unit 333b generates display control data based on the generated avatar arrangement information. Then, the display control data is delivered to the participant terminal 1a (step S13). In addition, the display control data is also distributed to the other participant terminals 1b to 1d and the viewer terminal 2.
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aの表
示制御部165は表示制御データを受信する。この表示制御データは各参加者A〜Dの動
作に対応してアバターA〜Dが仮想空間に配置されたものとなっている。このような表示
制御データに基づいて、表示制御部163はディスプレイ15にコンテンツ(アバターが
配置された仮想空間)を表示させる(ステップS2)。他の参加者端末1b〜1dおよび
視聴者端末2も同様にコンテンツを表示させる。以上の処理が、いずれかの参加者端末1
a〜1dからアバターを動作させるためのデータが送信される度に繰り返される。
Corresponding to the distribution of the display control data from the content distribution server 3, the display control unit 165 of the participant terminal 1a receives the display control data. In this display control data, avatars A to D are arranged in the virtual space corresponding to the actions of the participants A to D. Based on such display control data, the display control unit 163 causes the display 15 to display the content (virtual space in which the avatar is arranged) (step S2). The other participant terminals 1b to 1d and the viewer terminal 2 also display the content in the same manner. The above processing is one of the participant terminals 1
It is repeated every time data for operating the avatar is transmitted from a to 1d.
図6は、アバターA〜Dが仮想空間に配置された状態を模式的に示す図である。図示の
ように、左側から順にアバターA〜Dが配置されているものとする。
FIG. 6 is a diagram schematically showing a state in which avatars A to D are arranged in the virtual space. As shown in the figure, it is assumed that avatars A to D are arranged in order from the left side.
図7Aは、参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す
図であり、図6と対応している。図7Aに示すように、図6のアバターAから見た仮想空
間が参加者端末1aのディスプレイ15に表示される。参加者端末1aがスマートフォン
である場合、通常のディスプレイ15は縦長であるため、横方向に圧縮されて見えるが、
図6におけるアバターA〜Dの位置や向きを忠実に再現したものとなっている。
FIG. 7A is a diagram schematically showing the content displayed on the display 15 of the participant terminal 1a, and corresponds to FIG. As shown in FIG. 7A, the virtual space seen from the avatar A in FIG. 6 is displayed on the display 15 of the participant terminal 1a. When the participant terminal 1a is a smartphone, the normal display 15 is vertically long, so that it appears to be compressed in the horizontal direction.
The positions and orientations of the avatars A to D in FIG. 6 are faithfully reproduced.
図7Bは、参加者端末1dのディスプレイ15に表示されるコンテンツを模式的に示す
図であり、図6と対応している。図7Bに示すように、図6のアバターDから見た仮想空
間が参加者端末1bのディスプレイ15に表示される。
FIG. 7B is a diagram schematically showing the content displayed on the display 15 of the participant terminal 1d, and corresponds to FIG. As shown in FIG. 7B, the virtual space seen from the avatar D of FIG. 6 is displayed on the display 15 of the participant terminal 1b.
図7Cは、視聴者端末2のディスプレイ23に表示されるコンテンツを模式的に示す図
であり、図6と対応している。図7Cでは、仮想空間を手前側上方から見る位置に仮想カ
メラが配置され、仮想空間の全体が仮想カメラの視界に入っていることを想定している。
そして、この仮想カメラから見た仮想空間が視聴者端末2のディスプレイ23に表示され
る。
FIG. 7C is a diagram schematically showing the content displayed on the display 23 of the viewer terminal 2, and corresponds to FIG. In FIG. 7C, it is assumed that the virtual camera is arranged at a position where the virtual space is viewed from above on the front side, and the entire virtual space is in the field of view of the virtual camera.
Then, the virtual space seen from the virtual camera is displayed on the display 23 of the viewer terminal 2.
なお、参加者端末1a〜1dおよび視聴者端末2でレンダリングを行う場合、表示制御
データはアバターA〜Dの仮想空間における配置を示せばよいので、参加者端末1a〜1
dおよび視聴者端末2に送信される表示制御データは共通とすることができる。そして、
参加者端末1a〜1dおよび視聴者端末2のそれぞれが表示制御データを処理し、アバタ
ーA〜Dおよび仮想カメラから見た仮想空間を表示する画像を生成する。
When rendering is performed on the participant terminals 1a to 1d and the viewer terminal 2, the display control data only needs to show the arrangement of the avatars A to D in the virtual space, so that the participant terminals 1a to 1
The display control data transmitted to d and the viewer terminal 2 can be common. And
Each of the participant terminals 1a to 1d and the viewer terminal 2 processes the display control data to generate an image displaying the virtual space seen from the avatars A to D and the virtual camera.
一方、参加者端末1a〜1dおよび視聴者端末2でレンダリングを行う場合、図7A〜
図7Cに示す画像に対応する画像データが表示制御データとして送信される。そのため、
参加者端末1a〜1dおよび視聴者端末2に送信される表示制御データは互いに異なる。
On the other hand, when rendering is performed on the participant terminals 1a to 1d and the viewer terminal 2, FIGS. 7A to 7A.
Image data corresponding to the image shown in FIG. 7C is transmitted as display control data. for that reason,
The display control data transmitted to the participant terminals 1a to 1d and the viewer terminal 2 are different from each other.
[会話開始後のコンテンツ配信システムの処理動作]
図8は、会話開始後のコンテンツ配信システムの処理動作の一例を示すシーケンス図で
あり、図5に引き続いて行われるものである。
[Processing operation of the content distribution system after the conversation starts]
FIG. 8 is a sequence diagram showing an example of the processing operation of the content distribution system after the start of the conversation, and is performed following FIG.
参加者Aが参加者端末1aに対して会話開始の指示を行うと、トリガ生成部162は会
話開始トリガを生成し、これをコンテンツ配信サーバ3に送信する(ステップS21)。
なお、会話開始トリガに関連付けられたアバターすなわち会話アバターを特定するための
情報もコンテンツ配信サーバ3に送信される。会話開始の指示は操作部12および/また
は動作入力部13に対して行われる。
When the participant A gives an instruction to start a conversation to the participant terminal 1a, the trigger generation unit 162 generates a conversation start trigger and transmits it to the content distribution server 3 (step S21).
Information for identifying the avatar associated with the conversation start trigger, that is, the conversation avatar is also transmitted to the content distribution server 3. The instruction to start the conversation is given to the operation unit 12 and / or the operation input unit 13.
参加者端末1aがスマートフォンである場合、会話開始の指示は、例えばマイクへの発
話、タッチパネルディスプレイに表示された文字入力欄に対する特定の文字や単語(例え
ば「!」や「おはよう」等)の入力、ボタンの押下、タッチパネルディスプレイに表示さ
れた所定アイコンのタッチ、スマートフォンを縦向きから横向きに回転させたこと(加速
度センサで検知される)である。
When the participant terminal 1a is a smartphone, the instruction to start the conversation is, for example, utterance to a microphone or input of a specific character or word (for example, "!" Or "Good morning") in the character input field displayed on the touch panel display. , Pressing a button, touching a predetermined icon displayed on the touch panel display, and rotating the smartphone from portrait to landscape (detected by an acceleration sensor).
また、参加者Aは会話アバターを特定してもよい。一例として、タッチパネルディスプ
レイに表示されているアバターの中から任意のアバターをタップすることで、会話アバタ
ーを指定してもよい。あるいは、仮想空間に配置されているアバターの一覧から任意のア
バターを選択してもよい。また、独り言のような場合には、会話アバターを特定しなくて
もよい(この場合、会話アバターはアバターAのみとなる)。
Participant A may also specify the conversation avatar. As an example, a conversation avatar may be specified by tapping an arbitrary avatar from the avatars displayed on the touch panel display. Alternatively, any avatar may be selected from the list of avatars arranged in the virtual space. Further, in the case of soliloquy, it is not necessary to specify the conversation avatar (in this case, the conversation avatar is only avatar A).
また、参加者端末1aがVR用のコントローラを含む場合、会話開始の指示はコントロ
ーラに設けられた所定のボタンの押下であってよい。そして、コントローラの動きに連動
して仮想空間内に表示されるポインタによって、会話アバターを特定してもよい。
Further, when the participant terminal 1a includes a controller for VR, the instruction to start the conversation may be the pressing of a predetermined button provided on the controller. Then, the conversation avatar may be specified by the pointer displayed in the virtual space in conjunction with the movement of the controller.
会話開始トリガが送信されると、コンテンツ配信サーバ3のトリガ検知部332は会話
開始トリガを検知する(ステップS31)。また、トリガ検知部332は当該会話開始ト
リガに関連付けられた会話アバターを特定する(ステップS32)。なお、会話アバター
は必ずしも参加者Aが特定する必要はなく、会話の文脈に応じてトリガ検知部332が自
動的に特定してもよい。
When the conversation start trigger is transmitted, the trigger detection unit 332 of the content distribution server 3 detects the conversation start trigger (step S31). Further, the trigger detection unit 332 identifies the conversation avatar associated with the conversation start trigger (step S32). The conversation avatar does not necessarily have to be specified by the participant A, and the trigger detection unit 332 may automatically specify the conversation avatar according to the context of the conversation.
会話開始トリガの検知に応答して、アバター制御部333aは少なくとも一部のアバタ
ーの仮想空間における配置を変更して、アバター配置情報を更新する(ステップS33)
。このような配置の変更を行う結果、仮想空間におけるアバターの配置は、各参加者の動
作入力部13に対する動作から外れたものとなる。
In response to the detection of the conversation start trigger, the avatar control unit 333a changes the arrangement of at least a part of the avatars in the virtual space and updates the avatar arrangement information (step S33).
.. As a result of making such a change in arrangement, the arrangement of the avatar in the virtual space is different from the operation for the operation input unit 13 of each participant.
なお、ここで更新されるアバター配置情報は参加者端末1a〜1dおよび視聴者端末2
ごとに異なり得る。すなわち、参加者端末1a〜1dおよび視聴者端末2のそれぞれ用に
(言い換えると、各アバター用および仮想カメラ用に)アバター配置情報が生成される。
The avatar placement information updated here is the participant terminals 1a to 1d and the viewer terminal 2.
Can vary from one to another. That is, avatar placement information is generated for each of the participant terminals 1a to 1d and the viewer terminal 2 (in other words, for each avatar and for the virtual camera).
次に、生成されたアバター配置情報に基づいて、表示制御データ生成部333bは表示
制御データを生成する。そして、表示制御データは参加者端末1aに配信される(ステッ
プS34)。また、他の参加者端末1b〜1dおよび視聴者端末2にも表示制御データが
配信される。アバター配置情報が参加者端末1a〜1dおよび視聴者端末2ごとに異なる
場合、参加者端末1a〜1dおよび視聴者端末2でレンダリングを行う場合であっても、
表示制御情報は参加者端末1a〜1dおよび視聴者端末2ごとに異なる。
Next, the display control data generation unit 333b generates display control data based on the generated avatar arrangement information. Then, the display control data is delivered to the participant terminal 1a (step S34). In addition, the display control data is also distributed to the other participant terminals 1b to 1d and the viewer terminal 2. When the avatar arrangement information is different for each of the participant terminals 1a to 1d and the viewer terminal 2, even when rendering is performed on the participant terminals 1a to 1d and the viewer terminal 2.
The display control information differs for each of the participant terminals 1a to 1d and the viewer terminal 2.
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aの表
示制御部165は表示制御データを受信する。この表示制御データは、図5のステップS
2で受信される表示制御データと比較すると、仮想空間における会話アバターの配置が変
更されたものとなっている。このような表示制御データに基づいて、表示制御部163は
ディスプレイ15にコンテンツ(アバターが配置された仮想空間)を表示させる(ステッ
プS22)。他の参加者端末1b〜1dおよび視聴者端末も同様にコンテンツを表示させ
る。
Corresponding to the distribution of the display control data from the content distribution server 3, the display control unit 165 of the participant terminal 1a receives the display control data. This display control data is obtained in step S of FIG.
Compared with the display control data received in 2, the arrangement of conversation avatars in the virtual space has been changed. Based on such display control data, the display control unit 163 causes the display 15 to display the content (virtual space in which the avatar is arranged) (step S22). The other participant terminals 1b to 1d and the viewer terminal also display the content in the same manner.
なお、会話開始トリガが検知された後も、コンテンツ配信サーバ3のアバター配置取得
部331は、各参加者端末1a〜1dのアバター制御部161からアバターの仮想空間に
おける配置を取得し、アバターの配置に反映させたり、必要に応じて記憶部32に記憶し
ておく。
Even after the conversation start trigger is detected, the avatar arrangement acquisition unit 331 of the content distribution server 3 acquires the arrangement of the avatar in the virtual space from the avatar control unit 161 of each participant terminal 1a to 1d, and arranges the avatar. It is reflected in the storage unit 32, or stored in the storage unit 32 as needed.
図9Aは、参加者端末1aのディスプレイ15に表示されるコンテンツを模式的に示す
図である。また、図9Bは、参加者端末1dのディスプレイ15に表示されるコンテンツ
を模式的に示す図である。図9Cは、視聴者端末2のディスプレイ23に表示されるコン
テンツを模式的に示す図である。図9A〜図9Cは、それぞれ図7A〜図7Cと対応して
いる。図6の状態でアバターA,Cを会話アバターとする会話開始トリガが検知されたこ
とを想定しており、図9Aは会話アバターの視点、図9Bは非会話アバターの視点、図9
Cは仮想カメラの視点となっている。
FIG. 9A is a diagram schematically showing the content displayed on the display 15 of the participant terminal 1a. Further, FIG. 9B is a diagram schematically showing the content displayed on the display 15 of the participant terminal 1d. FIG. 9C is a diagram schematically showing the content displayed on the display 23 of the viewer terminal 2. 9A to 9C correspond to FIGS. 7A to 7C, respectively. It is assumed that a conversation start trigger with avatars A and C as conversation avatars is detected in the state of FIG. 6, FIG. 9A is the viewpoint of the conversation avatar, FIG. 9B is the viewpoint of the non-conversation avatar, and FIG.
C is the viewpoint of the virtual camera.
図9Aに示すように、会話アバターAの会話相手である会話アバターCがディスプレイ
15の中央付近に表示される。より詳しくは、図6の状態から会話アバターCが移動して
いない(参加者CがアバターCを移動させるための動作を行っていない)場合であっても
、会話開始トリガに応答して、会話アバターCがディスプレイ15の中央付近に表示され
る。これは、図8のステップS33において、参加者端末1a用に会話アバターCが会話
アバターAに近づくよう変更されたことを意味する。また、会話アバターCが図6より大
きく表示されてもよい。
As shown in FIG. 9A, the conversation avatar C, which is the conversation partner of the conversation avatar A, is displayed near the center of the display 15. More specifically, even if the conversation avatar C has not moved from the state shown in FIG. 6 (participant C has not performed an action for moving the avatar C), the conversation starts in response to the conversation start trigger. Avatar C is displayed near the center of the display 15. This means that in step S33 of FIG. 8, the conversation avatar C was changed to approach the conversation avatar A for the participant terminal 1a. Further, the conversation avatar C may be displayed larger than that in FIG.
このようにすることで、仮に会話相手の会話アバターCが自身(会話アバターA)から
離れている場合であっても、また、ディスプレイ15が小さい場合であっても、会話アバ
ターCが強調されて見やすく表示できる。
By doing so, even if the conversation avatar C of the conversation partner is away from itself (conversation avatar A), or even if the display 15 is small, the conversation avatar C is emphasized. It can be displayed in an easy-to-read manner.
また、会話アバターCが会話アバターAを向くように(ディスプレイ15において正面
を向くように)するのが望ましい。より詳しくは、図6の状態で会話アバターCが会話ア
バターAを向いていない場合であっても、会話開始トリガに応答して、会話アバターCが
会話アバターAを向く。会話アバターA,Cが互いに向かい合うのが自然なためである。
Further, it is desirable that the conversation avatar C faces the conversation avatar A (so that it faces the front on the display 15). More specifically, even when the conversation avatar C does not face the conversation avatar A in the state of FIG. 6, the conversation avatar C faces the conversation avatar A in response to the conversation start trigger. This is because it is natural for conversation avatars A and C to face each other.
さらに、非会話アバターB,Dが会話アバターAまたは会話アバターCを向くようにす
るのが望ましい。より詳しくは、図6の状態で非会話アバターB,Dが会話アバターAま
たは会話アバターCを向いていない場合であっても、会話開始トリガに応答して、非会話
アバターB,Dが会話アバターAまたは会話アバターCを向く。非会話アバターB,Dも
会話アバターAまたは会話アバターCに着目するのが自然であるためである。また、非会
話アバターB,Dは、会話アバターAが発話するタイミングでは会話アバターAを向き(
ディスプレイ15において正面を向き)、会話アバターCが発話するタイミングでは会話
アバターCを向くようにしてもよい。
Further, it is desirable that the non-conversation avatars B and D face the conversation avatar A or the conversation avatar C. More specifically, even when the non-conversation avatars B and D are not facing the conversation avatar A or the conversation avatar C in the state of FIG. 6, the non-conversation avatars B and D respond to the conversation start trigger and the non-conversation avatars B and D are conversation avatars. Face A or conversation avatar C. This is because it is natural for the non-conversation avatars B and D to pay attention to the conversation avatar A or the conversation avatar C. In addition, the non-conversation avatars B and D face the conversation avatar A at the timing when the conversation avatar A speaks (
The display 15 may face the front), and the conversation avatar C may face at the timing when the conversation avatar C speaks.
また、非会話アバターB,Dの配置位置は図6と同じであってもよいし異なっていても
よい。異なる場合でも、図6の配置位置、より具体的には非会話アバターB,Dの相対的
な位置関係を考慮したものであるのが望ましい。例えば、図6では非会話アバターBより
右側に非会話アバターDがいるため、図9Aにおいても、そのような位置関係を維持すべ
く、非会話アバターBより右側に非会話アバターDが配置されるのがよい。いずれにせよ
、会話アバターCに比べて重要度は低いので、非会話アバターB,Dは不自然にならない
ように適宜表示すればよい。
Further, the arrangement positions of the non-conversation avatars B and D may be the same as or different from those in FIG. Even if they are different, it is desirable to consider the arrangement position of FIG. 6, more specifically, the relative positional relationship of the non-conversation avatars B and D. For example, in FIG. 6, since the non-conversation avatar D is on the right side of the non-conversation avatar B, in FIG. 9A, the non-conversation avatar D is arranged on the right side of the non-conversation avatar B in order to maintain such a positional relationship. Is good. In any case, since the importance is lower than that of the conversational avatar C, the non-conversational avatars B and D may be displayed as appropriate so as not to be unnatural.
さらに、アバターの発言を吹き出し内に表示してもよい。他の図では図示していないが
、同様である。
Further, the avatar's remark may be displayed in the balloon. Although not shown in other figures, it is the same.
なお、参加者Aの操作に応じて、ディスプレイ15に表示されるコンテンツを図7Aと
図9Aとで切替可能であってもよい。
The content displayed on the display 15 may be switched between FIGS. 7A and 9A according to the operation of the participant A.
図9Bに示すように、非会話アバターDに対応する参加者端末1dのディスプレイ15
に表示されるコンテンツは図7Aと同じであってもよい。このようなコンテンツは、会話
開始トリガが検知された後も、参加者端末1d用には、図8のステップS33における変
更を行わず、引き続きアバター配置取得部331によって取得された配置に基づいてアバ
ター制御部333aがアバター配置情報を生成すればよい。
As shown in FIG. 9B, the display 15 of the participant terminal 1d corresponding to the non-conversation avatar D.
The content displayed in may be the same as in FIG. 7A. Even after the conversation start trigger is detected, such content does not change in step S33 of FIG. 8 for the participant terminal 1d, and continues to be an avatar based on the arrangement acquired by the avatar arrangement acquisition unit 331. The control unit 333a may generate the avatar arrangement information.
図9Cに示すように、仮想カメラからの視点において、会話アバターA,Cがディスプ
レイ23の中央付近に表示される。これは、図8のステップS33において、視聴者端末
2用に(仮想カメラ用に)会話アバターA,Cが仮想カメラの位置に近づくよう変更され
たことを意味する。
As shown in FIG. 9C, the conversation avatars A and C are displayed near the center of the display 23 from the viewpoint from the virtual camera. This means that in step S33 of FIG. 8, the conversation avatars A and C (for the virtual camera) for the viewer terminal 2 are changed to approach the position of the virtual camera.
このようにすることで、仮に会話アバターA,Cが互いに離れている場合であっても、
また、ディスプレイ23が小さい場合であっても、会話アバターA,Cが強調されて、見
やすく表示できる。
By doing so, even if the conversation avatars A and C are separated from each other,
Further, even when the display 23 is small, the conversation avatars A and C are emphasized and can be displayed in an easy-to-see manner.
また、会話アバターA,Cは仮想カメラの位置を向く(ディスプレイ23において正面
を向く)ようにするのが望ましい。さらに、会話アバターでないアバターB,Dが会話ア
バターA,Cを向くようにするのが望ましい。また、非会話アバターB,Dは、会話アバ
ターAが発話するタイミングでは会話アバターAを向き、会話アバターCが発話するタイ
ミングでは会話アバターCを向くようにしてもよい。
Further, it is desirable that the conversation avatars A and C face the position of the virtual camera (face the front on the display 23). Further, it is desirable that the avatars B and D, which are not conversation avatars, face the conversation avatars A and C. Further, the non-conversation avatars B and D may face the conversation avatar A at the timing when the conversation avatar A speaks, and may face the conversation avatar C at the timing when the conversation avatar C speaks.
さらに、図9Aと同様に、非会話アバターB,Dの配置位置は図6と同じであってもよ
いし異なっていてもよい。
Further, as in FIG. 9A, the arrangement positions of the non-conversation avatars B and D may be the same as or different from those in FIG.
なお、視聴者ユーザの操作に応じて、ディスプレイ23に表示されるコンテンツを図7
Cと図9Cとで切替可能であってもよい。
The content displayed on the display 23 is shown in FIG. 7 according to the operation of the viewer user.
It may be possible to switch between C and FIG. 9C.
図10は、図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコ
ンテンツを模式的に示す図である。図9Bと異なり、会話アバターA,Cが非会話アバタ
ーDの位置を向いている(ディスプレイ15において正面を向いている)。このような表
示によれば、非会話アバターDに対応する参加者Dにとっても、自らを向いているアバタ
ーA,Cが会話アバターであることが分かりやすい。
FIG. 10 is a modification of FIG. 9B, and is a diagram schematically showing the content displayed on the display 15 of the participant terminal 1d. Unlike FIG. 9B, the conversational avatars A and C are facing the position of the non-conversational avatar D (the display 15 is facing the front). According to such a display, it is easy for the participant D corresponding to the non-conversation avatar D to understand that the avatars A and C facing himself / herself are conversation avatars.
図11は、図9Bの変形例であり、参加者端末1dのディスプレイ15に表示されるコ
ンテンツを模式的に示す図である。図10と異なり、会話アバターA,Cが互いに向き合
っている。向き合って会話するような表示が自然であるためである。なお、図9Cにおい
ても同様に、会話アバターA,Cが互いに向き合うようにしてもよい。
FIG. 11 is a modification of FIG. 9B, and is a diagram schematically showing the content displayed on the display 15 of the participant terminal 1d. Unlike FIG. 10, conversation avatars A and C face each other. This is because it is natural to have a display that looks like a face-to-face conversation. Similarly, in FIG. 9C, the conversation avatars A and C may face each other.
図12は、図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示
されるコンテンツを模式的に示す図である。図10および図11と異なり、会話アバター
Aは非会話アバターDと会話アバターCの間の位置を向き、会話アバターCは非会話アバ
ターDと会話アバターAの間の位置を向くようにしてもよい。非会話アバターDに対応す
る参加者DにとってもアバターA,Cが会話アバターであることが分かりやすく、かつ、
会話アバターA、Cが向き合っているようにも見え、自然である。なお、図9Cにおいて
も同様に、会話アバターAが仮想カメラと会話アバターCの間の位置を向き、会話アバタ
ーCが仮想カメラと会話アバターAの間の位置を向くようにしてもよい。
FIG. 12 is another modified example of FIG. 9B, and is a diagram schematically showing the content displayed on the display 15 of the participant terminal 1d. Unlike FIGS. 10 and 11, the conversation avatar A may be oriented between the non-conversation avatar D and the conversation avatar C, and the conversation avatar C may be oriented between the non-conversation avatar D and the conversation avatar A. .. Participant D corresponding to non-conversation avatar D can easily understand that avatars A and C are conversation avatars, and
It seems that conversation avatars A and C are facing each other, which is natural. Similarly, in FIG. 9C, the conversation avatar A may face the position between the virtual camera and the conversation avatar C, and the conversation avatar C may face the position between the virtual camera and the conversation avatar A.
図13は、図9Bのまた別の変形例であり、参加者端末1dのディスプレイ15に表示
されるコンテンツを模式的に示す図である。図9Aと同様、会話アバターA,Cがディス
プレイ15の中央付近に表示されてもよい。このときの会話アバターA,Cの向きは、図
10〜図12のいずれかと同様であってよい。
FIG. 13 is another modified example of FIG. 9B, and is a diagram schematically showing the content displayed on the display 15 of the participant terminal 1d. Similar to FIG. 9A, conversation avatars A and C may be displayed near the center of the display 15. The orientations of the conversation avatars A and C at this time may be the same as any of FIGS. 10 to 12.
なお、会話アバターと非会話アバターの配置に関し、予め複数のテンプレートを定めて
記憶部32に記憶しておいてもよい。そして、アバター制御部333aは、会話開始トリ
ガが検知されると、会話アバターや非会話アバターの数などに応じて定まるルールに基づ
いて適切なテンプレートを選択する。そして、アバター制御部333aは選択したテンプ
レートに各アバターを当て嵌めることによって、仮想空間に各アバターを配置してもよい
。
Regarding the arrangement of the conversational avatar and the non-conversational avatar, a plurality of templates may be determined in advance and stored in the storage unit 32. Then, when the conversation start trigger is detected, the avatar control unit 333a selects an appropriate template based on a rule determined according to the number of conversational avatars and non-conversational avatars. Then, the avatar control unit 333a may arrange each avatar in the virtual space by fitting each avatar to the selected template.
[会話終了後のコンテンツ配信システムの処理動作]
図14は、会話終了後のコンテンツ配信システムの処理動作の一例を示すシーケンス図
であり、図8に引き続いて行われるものである。
[Processing operation of the content distribution system after the conversation ends]
FIG. 14 is a sequence diagram showing an example of the processing operation of the content distribution system after the end of the conversation, which is performed following FIG.
参加者Aが参加者端末1aに対して会話終了の指示を行うと、トリガ生成部162は会
話終了トリガを生成し、これをコンテンツ配信サーバ3に送信する(ステップS41)。
会話終了の指示は操作部12および/または動作入力部13に対して行われる。また、会
話終了の指示は、会話開始の指示と同様であってよい。
When the participant A gives an instruction to end the conversation to the participant terminal 1a, the trigger generation unit 162 generates a conversation end trigger and transmits it to the content distribution server 3 (step S41).
The instruction to end the conversation is given to the operation unit 12 and / or the operation input unit 13. Further, the instruction for ending the conversation may be the same as the instruction for starting the conversation.
例えば、参加者端末1aがスマートフォンである場合、会話終了の指示は、例えばマイ
クへの発話、タッチパネルディスプレイに表示された文字入力欄に対する特定の文字や単
語の入力、ボタンの押下、タッチパネルディスプレイに表示された所定アイコンのタッチ
、スマートフォンを横向きから縦向きに回転させたこと(加速度センサで検知される)で
ある。
For example, when the participant terminal 1a is a smartphone, the instruction to end the conversation is, for example, speaking to the microphone, inputting a specific character or word in the character input field displayed on the touch panel display, pressing a button, or displaying on the touch panel display. Touching the predetermined icon, the smartphone was rotated from landscape to portrait (detected by the acceleration sensor).
また、参加者端末1aがVR用のコントローラを含む場合、会話終了の指示はコントロ
ーラに設けられた所定のボタンの押下であってよい。
When the participant terminal 1a includes a controller for VR, the instruction to end the conversation may be the pressing of a predetermined button provided on the controller.
会話終了トリガが送信されると、コンテンツ配信サーバ3のトリガ検知部332は会話
終了トリガを検知する(ステップS51)。
When the conversation end trigger is transmitted, the trigger detection unit 332 of the content distribution server 3 detects the conversation end trigger (step S51).
会話終了トリガの検知に応答して、アバター制御部333aは図8のステップS33で
変更されていたアバターの配置を元に戻す(ステップS52)。具体的には、アバター制
御部333aは、アバター配置取得部331によって取得されたアバターの配置に基づい
てアバターAの仮想空間における配置を設定して、アバター配置情報を更新する。これに
より、仮想空間における各アバターの配置は参加者の動作入力部13に対する動作がその
まま反映されたものに戻るものである。
In response to the detection of the conversation end trigger, the avatar control unit 333a restores the arrangement of the avatar changed in step S33 of FIG. 8 (step S52). Specifically, the avatar control unit 333a sets the arrangement of the avatar A in the virtual space based on the arrangement of the avatar acquired by the avatar arrangement acquisition unit 331, and updates the avatar arrangement information. As a result, the arrangement of each avatar in the virtual space returns to the one in which the movement of the participant with respect to the movement input unit 13 is reflected as it is.
次に、アバター配置情報に基づいて、表示制御データ生成部333bは表示制御データ
を生成し、参加者端末1aに配信する(ステップS53)。また、他の参加者端末1b〜
1dおよび視聴者端末2にも表示制御データが配信される。
Next, the display control data generation unit 333b generates display control data based on the avatar arrangement information and distributes it to the participant terminal 1a (step S53). In addition, other participant terminals 1b ~
Display control data is also distributed to 1d and the viewer terminal 2.
コンテンツ配信サーバ3からの表示制御データの配信に対応して、参加者端末1aは表
示制御データを受信する。この表示制御データに基づいて、表示制御部163はディスプ
レイ15にコンテンツ(アバターが配置された仮想空間)を表示させる(ステップS42
)。他の参加者端末1b〜1dおよび視聴者端末も同様にコンテンツを表示させる。
The participant terminal 1a receives the display control data in response to the distribution of the display control data from the content distribution server 3. Based on this display control data, the display control unit 163 displays the content (virtual space in which the avatar is arranged) on the display 15 (step S42).
). The other participant terminals 1b to 1d and the viewer terminal also display the content in the same manner.
以上により、会話開始トリガの検知後は図9A〜図9Cのような表示だったものが、会
話終了トリガの検知により、図7A〜図7Cのような表示に戻る。
As described above, the display as shown in FIGS. 9A to 9C after the detection of the conversation start trigger is returned to the display as shown in FIGS. 7A to 7C by the detection of the conversation end trigger.
このように、本実施形態では、会話トリガの開始に応じて仮想空間におけるアバターの
配置を変更する。これにより、仮想空間に配置されるアバターを見やすく表示できる。
As described above, in the present embodiment, the arrangement of the avatar in the virtual space is changed according to the start of the conversation trigger. This makes it possible to easily see the avatars placed in the virtual space.
以上、本開示の好ましい実施形態について説明したが、本開示は係る特定の実施形態に
限定されるものではなく、本開示には、特許請求の範囲に記載された発明とその均等の範
囲が含まれる。また、上記実施形態及び変形例で説明した装置の構成は、技術的な矛盾が
生じない限り、適宜組み合わせ可能である。
Although the preferred embodiments of the present disclosure have been described above, the present disclosure is not limited to such specific embodiments, and the present disclosure includes the inventions described in the claims and the equivalent scope thereof. Is done. Further, the configurations of the devices described in the above-described embodiments and modifications can be appropriately combined as long as there is no technical contradiction.
1a〜1d 参加者端末
11 通信部
12 操作部
13 操作入力部
14 記憶部
15 ディスプレイ
16 制御部
17 アバター制御部
18 トリガ生成部
19 表示制御部
2 視聴者端末
21 通信部
22 操作部
23 ディスプレイ
24 記憶部
25 制御部
26 表示制御部
3 コンテンツ配信サーバ
31 通信部
32 記憶部
33 制御部
331 アバター配置取得部
332 トリガ検知部
333 表示制御データ配信部
333a アバター制御部
333b 表示制御データ生成部
1a to 1d Participant terminal 11 Communication unit 12 Operation unit 13 Operation input unit 14 Storage unit 15 Display 16 Control unit 17 Avatar control unit 18 Trigger generation unit 19 Display control unit 2 Viewer terminal 21 Communication unit 22 Operation unit 23 Display 24 Storage Unit 25 Control unit 26 Display control unit 3 Content distribution server 31 Communication unit 32 Storage unit 33 Control unit 331 Avatar placement acquisition unit 332 Trigger detection unit 333 Display control data distribution unit 333a Avatar control unit 333b Display control data generation unit
Claims (21)
る配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
第1トリガを検知するトリガ検知部と、
複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための
表示制御データを生成して配信する表示制御データ配信部と、を備え、
前記表示制御データ配信部は、
前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラク
タの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする
前記表示制御データを生成し、
前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記
第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更され
た前記表示制御データを生成する、コンテンツ配信装置。 A virtual character placement acquisition unit that acquires the placement of a plurality of virtual characters corresponding to each of a plurality of participants in their respective virtual spaces in response to the actions of the corresponding participants.
A trigger detector that detects the first trigger,
A display control data distribution unit that generates and distributes display control data for displaying at least a part of the virtual space in which a plurality of virtual characters are arranged is provided.
The display control data distribution unit
Until the first trigger is detected, the display control data is generated so that the arrangement of the plurality of virtual characters in the virtual space is arranged according to the arrangement acquired by the virtual character arrangement acquisition unit.
In response to the detection of the first trigger, the display control data in which the arrangement of the first virtual character associated with the first trigger among the plurality of virtual characters in the virtual space is changed is generated. , Content distribution device.
1参加者の端末から送信されたものであり、
前記表示制御データ配信部は、前記第1トリガが検知されたことに応答して、前記第1
トリガが検知される前と比べて、前記第1仮想キャラクタが強調表示されるよう、前記仮
想空間における前記第1仮想キャラクタの配置が変更された前記表示制御データであって
、前記第2仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための前
記表示制御データを生成する、請求項1に記載のコンテンツ配信装置。 The first trigger is transmitted from the terminal of the first participant corresponding to the second virtual character associated with the first trigger.
The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
The display control data in which the arrangement of the first virtual character in the virtual space is changed so that the first virtual character is highlighted as compared with before the trigger is detected, and the second virtual character. The content distribution device according to claim 1, wherein the display control data for displaying at least a part of the virtual space as seen from is generated.
仮想キャラクタが所定位置に近づくよう、前記仮想空間における前記第1仮想キャラクタ
の配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の
少なくとも一部を表示させるための前記表示制御データを生成する、請求項1に記載のコ
ンテンツ配信装置。 The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
The display control data in which the arrangement of the first virtual character in the virtual space is changed so that the virtual character approaches a predetermined position, and is for displaying at least a part of the virtual space viewed from the predetermined position. The content distribution device according to claim 1, which generates the display control data.
仮想キャラクタが所定位置を向くよう、前記仮想空間における前記第1仮想キャラクタの
配置が変更された前記表示制御データであって、前記所定位置から見た前記仮想空間の少
なくとも一部を表示させるための前記表示制御データを生成する、請求項1に記載のコン
テンツ配信装置。 The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
The display control data in which the arrangement of the first virtual character in the virtual space is changed so that the virtual character faces a predetermined position, and is for displaying at least a part of the virtual space viewed from the predetermined position. The content distribution device according to claim 1, which generates the display control data.
1参加者の端末から送信されたものであり、
前記所定位置は、前記第2仮想キャラクタの位置である、請求項3または4に記載のコ
ンテンツ配信装置。 The first trigger is transmitted from the terminal of the first participant corresponding to the second virtual character associated with the first trigger.
The content distribution device according to claim 3 or 4, wherein the predetermined position is the position of the second virtual character.
または4に記載のコンテンツ配信装置。 3. The predetermined position is a position different from any of the plurality of virtual characters.
Or the content distribution device according to 4.
いない第3仮想キャラクタの位置である、請求項3または4に記載のコンテンツ配信装置
。 The content distribution device according to claim 3 or 4, wherein the predetermined position is a position of a third virtual character that is not associated with the first trigger among the plurality of virtual characters.
1参加者の端末から送信されたものであり、
前記表示制御データは、
前記第2仮想キャラクタから見た前記仮想空間の少なくとも一部を表示させるための
第1表示制御データと、
前記第1トリガに関連付けられていない第3仮想キャラクタから見た前記仮想空間の
少なくとも一部を表示させるための第2表示制御データと、を含み、
前記表示制御データ配信部は、
前記第1トリガが検知されたことに応答して、前記第1トリガが検知される前と比べ
て、前記第1仮想キャラクタが強調表示されるよう、前記第1仮想キャラクタの配置が変
更された前記第1表示制御データを生成し、
前記第1トリガが検知されるまでも、前記第1トリガが検知された後も、前記仮想空
間における前記複数の仮想キャラクタの配置を、前記仮想キャラクタ配置取得部によって
取得された配置に従った配置とする前記第2表示制御データを生成する、請求項1に記載
のコンテンツ配信装置。 The first trigger is transmitted from the terminal of the first participant corresponding to the second virtual character associated with the first trigger.
The display control data is
The first display control data for displaying at least a part of the virtual space as seen from the second virtual character, and
Includes second display control data for displaying at least a portion of the virtual space as seen by a third virtual character that is not associated with the first trigger.
The display control data distribution unit
In response to the detection of the first trigger, the arrangement of the first virtual character has been changed so that the first virtual character is highlighted as compared to before the first trigger was detected. The first display control data is generated,
Even after the first trigger is detected, even after the first trigger is detected, the arrangement of the plurality of virtual characters in the virtual space is arranged according to the arrangement acquired by the virtual character arrangement acquisition unit. The content distribution device according to claim 1, which generates the second display control data.
仮想キャラクタおよび前記第1トリガに関連付けられた第2仮想キャラクタが互いに向き
合うよう、前記仮想空間における前記第1仮想キャラクタおよび前記第2仮想キャラクタ
の配置が変更された前記表示制御データを生成する、請求項1に記載のコンテンツ配信装
置。 The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
Claimed to generate the display control data in which the arrangement of the first virtual character and the second virtual character in the virtual space is changed so that the virtual character and the second virtual character associated with the first trigger face each other. Item 1. The content distribution device according to item 1.
トリガに関連付けられていない第3仮想キャラクタが前記第1仮想キャラクタを向くよう
、前記仮想空間における前記第3仮想キャラクタの配置が変更された前記表示制御データ
を生成する、請求項1に記載のコンテンツ配信装置。 The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
The content according to claim 1, wherein the display control data in which the arrangement of the third virtual character in the virtual space is changed so that the third virtual character not associated with the trigger faces the first virtual character. Delivery device.
仮想キャラクタが発話する際には前記第3仮想キャラクタが前記第1仮想キャラクタを向
くよう、前記第1トリガに関連付けられた第2仮想キャラクタが発話する際には前記第3
仮想キャラクタが前記第2仮想キャラクタを向くよう、前記仮想空間における前記第3仮
想キャラクタの配置が変更された前記表示制御データを生成する、請求項10に記載のコ
ンテンツ配信装置。 The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
When the second virtual character associated with the first trigger speaks, the third virtual character faces the first virtual character so that the third virtual character faces the first virtual character when the virtual character speaks.
The content distribution device according to claim 10, wherein the display control data in which the arrangement of the third virtual character is changed in the virtual space is generated so that the virtual character faces the second virtual character.
トリガに関連付けられていない第3仮想キャラクタおよび第4仮想キャラクタの前記仮想
空間における位置を、前記仮想キャラクタ配置取得部によって取得された前記第3仮想キ
ャラクタおよび前記第4仮想キャラクタの相対的な位置関係を考慮して変更された前記表
示制御データを生成する、請求項1に記載のコンテンツ配信装置。 The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
The relative positional relationship between the third virtual character and the fourth virtual character acquired by the virtual character placement acquisition unit with respect to the positions of the third virtual character and the fourth virtual character in the virtual space that are not associated with the trigger. The content distribution device according to claim 1, which generates the display control data modified in consideration of the above.
仮想キャラクタの表示態様が変更された前記表示制御データを生成する、請求項1乃至1
2のいずれかに記載のコンテンツ配信装置。 The display control data distribution unit responds to the detection of the first trigger by the first display control data distribution unit.
Claims 1 to 1 that generate the display control data in which the display mode of the virtual character is changed.
The content distribution device according to any one of 2.
仮想キャラとの会話開始に対応する、請求項1乃至13のいずれかに記載のコンテンツ配
信装置。 The first trigger includes a second virtual character associated with the first trigger and the first trigger.
The content distribution device according to any one of claims 1 to 13, which corresponds to the start of a conversation with a virtual character.
前記表示制御データ配信部は、前記第2トリガが検知されたことに応答して、配置が変
更されていた前記第1仮想キャラクタの前記仮想空間における配置を、前記仮想キャラク
タ配置取得部によって取得された配置に従った配置に戻した前記表示制御データを生成す
る、請求項1乃至14のいずれかに記載のコンテンツ配信装置。 The trigger detection unit detects the second trigger after the first trigger is detected, and then
In response to the detection of the second trigger, the display control data distribution unit acquires the arrangement of the first virtual character whose arrangement has been changed in the virtual space by the virtual character arrangement acquisition unit. The content distribution device according to any one of claims 1 to 14, which generates the display control data returned to the arrangement according to the arrangement.
仮想キャラとの会話開始に対応する、請求項15に記載のコンテンツ配信装置。 The second trigger includes a second virtual character associated with the first trigger and the first.
The content distribution device according to claim 15, which corresponds to the start of a conversation with a virtual character.
複数の参加者のそれぞれに対応する複数の仮想キャラクタのそれぞれの仮想空間におけ
る配置を、対応する参加者の動作に対応して取得する仮想キャラクタ配置取得部と、
第1トリガを検知するトリガ検知部と、
複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示させるための
表示制御データを生成して配信する表示制御データ配信部と、として機能させ、
前記表示制御データ配信部は、
前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラク
タの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする
前記表示制御データを生成し、
前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記
第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更され
た前記表示制御データを生成する、コンテンツ配信プログラム。 Computer,
A virtual character placement acquisition unit that acquires the placement of a plurality of virtual characters corresponding to each of a plurality of participants in their respective virtual spaces in response to the actions of the corresponding participants.
A trigger detector that detects the first trigger,
It functions as a display control data distribution unit that generates and distributes display control data for displaying at least a part of the virtual space in which a plurality of virtual characters are arranged.
The display control data distribution unit
Until the first trigger is detected, the display control data is generated so that the arrangement of the plurality of virtual characters in the virtual space is arranged according to the arrangement acquired by the virtual character arrangement acquisition unit.
In response to the detection of the first trigger, the display control data in which the arrangement of the first virtual character associated with the first trigger among the plurality of virtual characters in the virtual space is changed is generated. , Content distribution program.
タのそれぞれの仮想空間における配置を、対応する参加者の動作に対応して取得するステ
ップと、
トリガ検知部が、第1トリガを検知するステップと、
表示制御データ配信部が、複数の仮想キャラクタが配置された前記仮想空間の少なくと
も一部を表示させるための表示制御データを生成して配信するステップと、を備え、
前記表示制御データ配信部は、
前記第1トリガが検知されるまでは、前記仮想空間における前記複数の仮想キャラク
タの配置を、前記仮想キャラクタ配置取得部によって取得された配置に従った配置とする
前記表示制御データを生成し、
前記第1トリガが検知されたことに応答して、前記複数の仮想キャラクタのうち前記
第1トリガに関連付けられた第1仮想キャラクタの前記仮想空間における配置が変更され
た前記表示制御データを生成する、コンテンツ配信方法。 A step in which the virtual character placement acquisition unit acquires the placement of a plurality of virtual characters corresponding to each of the plurality of participants in their respective virtual spaces according to the actions of the corresponding participants.
The step that the trigger detection unit detects the first trigger,
The display control data distribution unit includes a step of generating and distributing display control data for displaying at least a part of the virtual space in which a plurality of virtual characters are arranged.
The display control data distribution unit
Until the first trigger is detected, the display control data is generated so that the arrangement of the plurality of virtual characters in the virtual space is arranged according to the arrangement acquired by the virtual character arrangement acquisition unit.
In response to the detection of the first trigger, the display control data in which the arrangement of the first virtual character associated with the first trigger among the plurality of virtual characters in the virtual space is changed is generated. , Content delivery method.
配置を示すデータをコンテンツ配信サーバに送信する仮想キャラクタ制御部と、
前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配信サーバに送信す
るトリガ生成部と、
前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キ
ャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示
させる表示制御部と、を備え、
前記表示制御部は、
前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置
を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置
とする前記表示制御データを受信し、
前記第1トリガの送信後は、前記複数の仮想キャラクタのうち前記第1トリガに関連
付けられた第2仮想キャラクタの前記仮想空間における配置が変更された前記表示制御デ
ータを受信する、コンテンツ表示装置。 A virtual character control unit that transmits data indicating the arrangement of the first virtual character corresponding to the participant in the virtual space to the content distribution server according to the operation of the participant.
A trigger generation unit that generates a first trigger and transmits it to the content distribution server in response to the instructions of the participants.
A display control unit that displays at least a part of the virtual space in which a plurality of virtual characters including the first virtual character are arranged based on display control data distributed from the content distribution server is provided.
The display control unit
Prior to the transmission of the first trigger, the display control data is received in which the arrangement of the plurality of virtual characters in the virtual space is arranged according to the actions of a plurality of participants corresponding to each of the plurality of virtual characters. And
After the transmission of the first trigger, the content display device receives the display control data in which the arrangement of the second virtual character associated with the first trigger among the plurality of virtual characters is changed in the virtual space.
参加者の動作に応じて、前記参加者に対応する第1仮想キャラクタの仮想空間における
配置を示すデータをコンテンツ配信サーバに送信する仮想キャラクタ制御部と、
前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配信サーバに送信す
るトリガ生成部と、
前記コンテンツ配信サーバから配信される表示制御データに基づいて、前記第1仮想キ
ャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なくとも一部を表示
させる表示制御部と、として機能させ、
前記表示制御部は、
前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置
を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置
とする前記表示制御データを受信し、
前記第1トリガの送信後は、前記複数の仮想キャラクタのうち前記第1トリガに関連
付けられた第2仮想キャラクタの前記仮想空間における配置が変更された前記表示制御デ
ータを受信する、コンテンツ表示プログラム。 Computer,
A virtual character control unit that transmits data indicating the arrangement of the first virtual character corresponding to the participant in the virtual space to the content distribution server according to the operation of the participant.
A trigger generation unit that generates a first trigger and transmits it to the content distribution server in response to the instructions of the participants.
Based on the display control data distributed from the content distribution server, it functions as a display control unit that displays at least a part of the virtual space in which a plurality of virtual characters including the first virtual character are arranged.
The display control unit
Prior to the transmission of the first trigger, the display control data is received in which the arrangement of the plurality of virtual characters in the virtual space is arranged according to the actions of a plurality of participants corresponding to each of the plurality of virtual characters. And
A content display program that receives the display control data in which the arrangement of the second virtual character associated with the first trigger among the plurality of virtual characters in the virtual space is changed after the transmission of the first trigger.
ラクタの仮想空間における配置を示すデータをコンテンツ配信サーバに送信するステップ
と、
トリガ生成部が、前記参加者の指示に応じて、第1トリガを生成して前記コンテンツ配
信サーバに送信するステップと、
表示制御部が、前記コンテンツ配信サーバから配信される表示制御データに基づいて、
前記第1仮想キャラクタを含む複数の仮想キャラクタが配置された前記仮想空間の少なく
とも一部を表示させるステップと、を備え、
前記表示制御部は、
前記第1トリガの送信前は、前記仮想空間における前記複数の仮想キャラクタの配置
を、前記複数の仮想キャラクタのそれぞれに対応する複数の参加者の動作に対応した配置
とする前記表示制御データを受信し、
前記第1トリガの送信後は、前記複数の仮想キャラクタのうち前記第1トリガに関連
付けられた第2仮想キャラクタの前記仮想空間における配置が変更された前記表示制御デ
ータを受信する、コンテンツ表示方法。 A step in which the virtual character control unit transmits data indicating the arrangement of the first virtual character corresponding to the participant in the virtual space to the content distribution server according to the operation of the participant.
A step in which the trigger generation unit generates a first trigger and transmits it to the content distribution server in response to an instruction from the participant.
The display control unit is based on the display control data distributed from the content distribution server.
A step of displaying at least a part of the virtual space in which a plurality of virtual characters including the first virtual character are arranged is provided.
The display control unit
Prior to the transmission of the first trigger, the display control data is received in which the arrangement of the plurality of virtual characters in the virtual space is arranged according to the actions of a plurality of participants corresponding to each of the plurality of virtual characters. And
A content display method for receiving the display control data in which the arrangement of the second virtual character associated with the first trigger among the plurality of virtual characters in the virtual space is changed after the transmission of the first trigger.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020060174A JP7257986B2 (en) | 2020-03-30 | 2020-03-30 | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method |
JP2023060546A JP7541148B2 (en) | 2020-03-30 | 2023-04-04 | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020060174A JP7257986B2 (en) | 2020-03-30 | 2020-03-30 | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019121972A Division JP6684952B1 (en) | 2019-06-28 | 2019-06-28 | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023060546A Division JP7541148B2 (en) | 2020-03-30 | 2023-04-04 | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021009681A true JP2021009681A (en) | 2021-01-28 |
JP2021009681A5 JP2021009681A5 (en) | 2022-05-19 |
JP7257986B2 JP7257986B2 (en) | 2023-04-14 |
Family
ID=74198664
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020060174A Active JP7257986B2 (en) | 2020-03-30 | 2020-03-30 | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method |
JP2023060546A Active JP7541148B2 (en) | 2020-03-30 | 2023-04-04 | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method |
Family Applications After (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023060546A Active JP7541148B2 (en) | 2020-03-30 | 2023-04-04 | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP7257986B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023115840A (en) * | 2022-02-08 | 2023-08-21 | グリー株式会社 | Information processing system, information processing method and information processing program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000231644A (en) * | 1999-02-08 | 2000-08-22 | Nippon Telegr & Teleph Corp <Ntt> | Speaker, specifying method for virtual space and recording medium where program thereof is recorded |
JP2003150978A (en) * | 2001-11-09 | 2003-05-23 | Sony Corp | Three-dimensional virtual space display method, program, and recording medium storing program |
US6772195B1 (en) * | 1999-10-29 | 2004-08-03 | Electronic Arts, Inc. | Chat clusters for a virtual world application |
US20120131478A1 (en) * | 2010-10-18 | 2012-05-24 | Scene 53 Inc. | Method of controlling avatars |
JP2012120782A (en) * | 2010-12-10 | 2012-06-28 | Konami Digital Entertainment Co Ltd | Game device and game control program |
JP2016034087A (en) * | 2014-07-31 | 2016-03-10 | Front Row Holdings株式会社 | Video display system |
JP2016152521A (en) * | 2015-02-18 | 2016-08-22 | 株式会社 ディー・エヌ・エー | Server, program and method for providing video chat |
JP2018082760A (en) * | 2016-11-21 | 2018-05-31 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6298523B1 (en) | 2016-12-26 | 2018-03-20 | 株式会社コロプラ | Method executed by computer to communicate through virtual space, program for causing computer to execute the method, and computer apparatus |
IL311263A (en) | 2017-12-14 | 2024-05-01 | Magic Leap Inc | Contextual-based rendering of virtual avatars |
-
2020
- 2020-03-30 JP JP2020060174A patent/JP7257986B2/en active Active
-
2023
- 2023-04-04 JP JP2023060546A patent/JP7541148B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000231644A (en) * | 1999-02-08 | 2000-08-22 | Nippon Telegr & Teleph Corp <Ntt> | Speaker, specifying method for virtual space and recording medium where program thereof is recorded |
US6772195B1 (en) * | 1999-10-29 | 2004-08-03 | Electronic Arts, Inc. | Chat clusters for a virtual world application |
JP2003150978A (en) * | 2001-11-09 | 2003-05-23 | Sony Corp | Three-dimensional virtual space display method, program, and recording medium storing program |
US20120131478A1 (en) * | 2010-10-18 | 2012-05-24 | Scene 53 Inc. | Method of controlling avatars |
JP2012120782A (en) * | 2010-12-10 | 2012-06-28 | Konami Digital Entertainment Co Ltd | Game device and game control program |
JP2016034087A (en) * | 2014-07-31 | 2016-03-10 | Front Row Holdings株式会社 | Video display system |
JP2016152521A (en) * | 2015-02-18 | 2016-08-22 | 株式会社 ディー・エヌ・エー | Server, program and method for providing video chat |
JP2018082760A (en) * | 2016-11-21 | 2018-05-31 | 株式会社コナミデジタルエンタテインメント | Game control device, game system, and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023115840A (en) * | 2022-02-08 | 2023-08-21 | グリー株式会社 | Information processing system, information processing method and information processing program |
JP7388665B2 (en) | 2022-02-08 | 2023-11-29 | グリー株式会社 | Information processing system, information processing method, information processing program |
Also Published As
Publication number | Publication date |
---|---|
JP7541148B2 (en) | 2024-08-27 |
JP7257986B2 (en) | 2023-04-14 |
JP2023100616A (en) | 2023-07-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020262420A1 (en) | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method | |
US11315336B2 (en) | Method and device for editing virtual scene, and non-transitory computer-readable storage medium | |
WO2020203999A1 (en) | Communication assistance system, communication assistance method, and image control program | |
WO2015188614A1 (en) | Method and device for operating computer and mobile phone in virtual world, and glasses using same | |
CN108038726B (en) | Article display method and device | |
CN110721467B (en) | Display control method, electronic device, and computer-readable storage medium | |
EP3702925A1 (en) | Conference system | |
JP7541148B2 (en) | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method | |
CN113709022A (en) | Message interaction method, device, equipment and storage medium | |
JP6737942B1 (en) | Content distribution system, content distribution method, and content distribution program | |
CN111126958B (en) | Schedule creation method, schedule creation device, schedule creation equipment and storage medium | |
CN112825048A (en) | Message reminding method and device, electronic equipment and storage medium | |
CN116964544A (en) | Information processing device, information processing terminal, information processing method, and program | |
CN112870697B (en) | Interaction method, device, equipment and medium based on virtual relation maintenance program | |
CN116490249A (en) | Information processing device, information processing system, information processing method, and information processing terminal | |
US20230315246A1 (en) | Computer program, method, and server device | |
CN112023403A (en) | Battle process display method and device based on image-text information | |
CN114546188B (en) | Interaction method, device and equipment based on interaction interface and readable storage medium | |
JP7291106B2 (en) | Content delivery system, content delivery method, and content delivery program | |
JP2024156997A (en) | Content distribution device, content distribution program, content distribution method, content display device, content display program, and content display method | |
CN115193043A (en) | Game information sending method and device, computer equipment and storage medium | |
JP7206481B2 (en) | Information processing device, control method and program for information processing device | |
KR20200099317A (en) | Method and apparatus for providing performance of contents using virtual reality | |
JP3625549B2 (en) | Multipoint video conferencing system | |
JP7549062B2 (en) | Information processing device, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220511 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220511 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230307 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230404 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7257986 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |