JP2023109850A - Video distribution system for distributing video including message from viewing user - Google Patents

Video distribution system for distributing video including message from viewing user Download PDF

Info

Publication number
JP2023109850A
JP2023109850A JP2023078171A JP2023078171A JP2023109850A JP 2023109850 A JP2023109850 A JP 2023109850A JP 2023078171 A JP2023078171 A JP 2023078171A JP 2023078171 A JP2023078171 A JP 2023078171A JP 2023109850 A JP2023109850 A JP 2023109850A
Authority
JP
Japan
Prior art keywords
posted
posted message
displayed
user
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023078171A
Other languages
Japanese (ja)
Inventor
匡志 渡邊
Masashi Watanabe
健悟 栗田
Kengo Kurita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019170275A external-priority patent/JP6951394B2/en
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2023078171A priority Critical patent/JP2023109850A/en
Publication of JP2023109850A publication Critical patent/JP2023109850A/en
Pending legal-status Critical Current

Links

Abstract

To provide a video distribution system which can improve a mode of displaying a posted message, in which a part of a display screen of a video is allocated as a display region, a video reproducing method, and a video reproducing program.SOLUTION: A video distribution system 1 includes a server device comprising: a storage for storing a first posted message posted by a first user included in a first user group, a second posted message posted by a second user included in a second user group, and an object provided by at least one of the first and second users; and at least one computer processor. The video distribution system distributes a video including a first display region in which the first and second posted messages can be displayed and a second display region in which the second posted message can be displayed while the first posted message cannot be displayed. The second user is a user whose parameter related to the object satisfies a predetermined condition.SELECTED DRAWING: Figure 1

Description

本明細書における開示は、視聴ユーザからのメッセージを含む動画を配信する動画配信システムに関する。本明細書における開示は、より具体的には、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及び視聴ユーザからのメッセージを含む動画を配信する動画配信システムに関する。 The disclosure in this specification relates to a moving image distribution system that distributes moving images including messages from viewing users. More specifically, the disclosure in this specification relates to a moving image distribution system that distributes moving images including animations of character objects generated based on movements of actors and messages from viewing users.

従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている。このような動画配信システムは、例えば、特開2015-184689号公報(特許文献1)に開示されている。 2. Description of the Related Art Conventionally, there has been known a video distribution system that generates animation of a character object based on the motion of an actor and distributes a video containing the animation of the character object. Such a moving image delivery system is disclosed, for example, in Japanese Patent Laying-Open No. 2015-184689 (Patent Document 1).

特許文献1には、当該動画配信システムにおいて、チャット機能を実装できることが開示されている。かかるチャット機能においては、動画を視聴する視聴ユーザからメッセージが投稿される。アクターは、この投稿された投稿メッセージを見ることができる。アクターが、メッセージに対してリアクションを行うと、そのリアクションが動画に反映される。このチャット機能により、視聴ユーザ同士の交流や、視聴ユーザとアクターとの交流が実現される。 Patent Literature 1 discloses that a chat function can be implemented in the video distribution system. In such a chat function, a message is posted by a viewing user viewing a moving image. The actor can see this posted post message. When an actor reacts to a message, the reaction is reflected in the video. This chat function enables interaction between viewing users and interaction between viewing users and actors.

特開2015-184689号公報JP 2015-184689 A

従来、動画の表示画面の一部領域が投稿メッセージの表示領域として割り当てられている。表示画面におけるスペースの制約から、投稿メッセージの表示領域がキャラクタオブジェクトと重複することがある。この場合、投稿メッセージとキャラクタオブジェクトとが重複して表示されることによって、視聴ユーザの視聴体験が劣化するおそれがある。例えば、キャラクタオブジェクトの主要部分が投稿メッセージで隠されると、視聴者は動画の視聴を妨げられたと感じるおそれがある。 Conventionally, a partial area of a video display screen is allocated as a posted message display area. Due to space restrictions on the display screen, the display area of the posted message may overlap with the character object. In this case, the posted message and the character object are displayed in duplicate, which may degrade the viewing experience of the viewing user. For example, if the main part of the character object is hidden by the posted message, the viewer may feel that the viewing of the moving image is disturbed.

投稿されたメッセージを表示する表示領域を表示画面の一定の領域に確保し、この表示領域にキャラクタオブジェクトが表示されないようにするための表示制御を行えばキャラクタオブジェクトと投稿メッセージとの重複は回避できる。しかしながら、キャラクタオブジェクトの表示位置が制限されてしまい、この点が動画制作の上で大きな制約となる。 By securing a display area for displaying posted messages in a certain area of the display screen and performing display control so that the character object is not displayed in this display area, it is possible to avoid overlap between the character object and the posted message. . However, the display position of the character object is limited, and this is a major constraint in moving image production.

このように、投稿オブジェクトの表示領域を一定の領域に制限するとユーザに満足のいく視聴体験を提供することが難しくなる。キャラクタオブジェクトのアニメーションを含む動画における投稿メッセージの表示態様について、改善が求められている。 Thus, if the display area of the posted object is limited to a certain area, it becomes difficult to provide the user with a satisfying viewing experience. There is a demand for improvements in the display mode of posted messages in moving images that include animation of character objects.

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。 It is an object of the present disclosure to provide technical improvements that solve or alleviate at least some of the problems in the prior art discussed above.

一態様による動画配信システムは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージ、及び前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備える。前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する。 A video distribution system according to one aspect includes: a first posted message posted by a first user included in a first user group; a second posted message posted by a second user included in a second user group; A storage for storing objects provided by at least one of a user and the second user; and one or more computer processors. The first user does not belong to the second user group, the second user does not belong to the first user group, and the second user has a predetermined parameter related to the object. A user who satisfies the conditions. The one or more computer processors execute computer-readable instructions to display a first display area capable of displaying the first posted message and the second posted message, and a display area capable of displaying the second posted message. and a second display area in which the first posted message is not displayed.

一態様による動画配信システムは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ及び第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージ、を記憶するストレージと、一又は複数のコンピュータプロセッサと、を備える。前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属していない。前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する。前記第2ユーザは、前記動画の視聴状況が所定上面を満たしたユーザである。 A video distribution system according to one aspect includes a storage that stores a first posted message posted by a first user included in a first user group and a second posted message posted by a second user included in a second user group. and one or more computer processors. The first user does not belong to the second user group, and the second user does not belong to the first user group. The one or more computer processors execute computer-readable instructions to display a first display area capable of displaying the first posted message and the second posted message, and a display area capable of displaying the second posted message. and a second display area in which the first posted message is not displayed. The second user is a user whose viewing status of the moving image satisfies a predetermined upper limit.

一態様による動画配信システムにおいて、前記第2ユーザグループは、前記第1ユーザグループよりも少ない数のユーザから構成される。 In the video distribution system according to one aspect, the second user group is composed of fewer users than the first user group.

一態様による動画配信システムにおいて、前記第1投稿メッセージは、前記第1表示領域において第1方向に移動する。 In the video delivery system according to one aspect, the first posted message moves in the first direction in the first display area.

一態様による動画配信システムにおいて、前記第2投稿メッセージは、前記第2表示領域において第2方向に移動する。 In the video distribution system according to one aspect, the second posted message moves in the second direction in the second display area.

一態様による動画配信システムにおいて、前記第2方向は、前記第2投稿メッセージに含まれる第1コマンドに応じて変化する。 In the video distribution system according to one aspect, the second direction changes according to the first command included in the second posted message.

一態様による動画配信システムにおいて、前記第2表示領域における前記第2投稿メッセージの初期表示位置は、前記第2投稿メッセージに含まれる第2コマンドに応じて変化する。 In the video distribution system according to one aspect, an initial display position of the second posted message in the second display area changes according to a second command included in the second posted message.

一態様による動画配信システムにおいて、前記第2投稿メッセージの前記第2表示領域における移動速度は前記第1投稿メッセージの前記第1表示領域における移動速度よりも遅い。 In the moving image distribution system according to one aspect, the moving speed of the second posted message in the second display area is slower than the moving speed of the first posted message in the first display area.

一態様による動画配信システムにおいて、前記第2投稿メッセージが前記第2表示領域に表示されている表示時間は、前記第1投稿メッセージが前記第1表示領域に表示されている表示時間よりも長い。 In the video distribution system according to one aspect, the display time during which the second posted message is displayed in the second display area is longer than the display time during which the first posted message is displayed in the first display area.

一態様による動画配信システムにおいて、前記第1表示領域には、前記第1投稿メッセージ以外の情報も表示される。 In the video distribution system according to one aspect, information other than the first posted message is also displayed in the first display area.

一態様による動画配信システムにおいて、前記ストレージは、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する。 In the video distribution system according to one aspect, the storage stores objects provided by at least one of the first user and the second user.

一態様による動画配信システムにおいて、前記第1投稿メッセージ以外の情報には、前記オブジェクトの提供が行われたことを示す通知が含まれる。 In the video distribution system according to one aspect, the information other than the first posted message includes a notification indicating that the object has been provided.

一態様による動画配信システムにおいて、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。 In the moving image distribution system according to one aspect, the second user is a user whose parameter regarding the object satisfies a predetermined condition.

一態様による動画配信システムにおいて、前記第2ユーザは、前記動画の視聴回数が所定回数を超えたユーザである。 In the video distribution system according to one aspect, the second user is a user whose viewing count of the video has exceeded a predetermined number of times.

一態様による動画配信システムにおいて、前記第1ユーザは、前記第1投稿メッセージの投稿数が所定数を超えると、前記第1ユーザグループから離脱し前記第2ユーザグループに含められる。 In the video distribution system according to one aspect, the first user leaves the first user group and is included in the second user group when the number of posts of the first posted messages exceeds a predetermined number.

一態様による動画配信システムにおいて、前記動画は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む。 In the moving image delivery system according to one aspect, the moving image includes animation of a character object generated based on the movement of an actor.

一態様による動画配信システムにおいて、前記第2表示領域の少なくとも一部は、前記キャラクタオブジェクトの背後に配されている。 In the moving image delivery system according to one aspect, at least part of the second display area is arranged behind the character object.

一態様による動画配信システムにおいて、前記第1表示領域及び前記キャラクタオブジェクトが重複して表示される場合には、前記キャラクタオブジェクトが前記第1表示領域の背後に配される。 In the moving image delivery system according to one aspect, when the first display area and the character object are displayed in an overlapping manner, the character object is arranged behind the first display area.

一態様による動画配信システムは、複数のカメラをさらに備え、前記複数のカメラの中から選択されたアクティブセンサのトラッキング情報に基づいて構成された仮想空間の画像を含む。 A video distribution system according to one aspect further includes a plurality of cameras, and includes images of a virtual space configured based on tracking information of active sensors selected from the plurality of cameras.

一態様による動画配信システムは、前記第2表示領域は、前記仮想空間内の表示用オブジェクトに設けられ、前記第2表示領域の前記仮想空間における位置は、前記アクティブセンサの位置及び向きに応じて変更される。 In one aspect of the video distribution system, the second display area is provided on a display object in the virtual space, and the position of the second display area in the virtual space depends on the position and orientation of the active sensor. Be changed.

一態様による動画配信システムは、前記第2表示領域は、前記仮想空間内に設けられ、前記第2表示領域の前記仮想空間における大きさは、前記アクティブセンサの位置及び向きに応じて変更される。 In one aspect of the video distribution system, the second display area is provided in the virtual space, and the size of the second display area in the virtual space is changed according to the position and orientation of the active sensor. .

一態様による動画配信システムにおいて、前記一又は複数のコンピュータプロセッサの少なくとも一部はサーバ装置に備えられており、前記第1投稿メッセージ以外の情報には、前記サーバ装置からの通知が含まれる。 In the moving image distribution system according to one aspect, at least part of the one or more computer processors is provided in a server device, and the information other than the first posted message includes a notification from the server device.

一態様による動画配信システムにおいて、前記第1表示領域には、前記第1投稿メッセージ及び前記第2投稿メッセージが表示される。 In the video distribution system according to one aspect, the first posted message and the second posted message are displayed in the first display area.

一態様による動画配信システムにおいて、前記第1ユーザはクライアント装置を用いて第1投稿メッセージを投稿し、前記第2配信期間においては、前記クライアント装置は、前記第1投稿メッセージの投稿を行わないように構成される。 In the video distribution system according to one aspect, the first user posts a first posted message using a client device, and the client device does not post the first posted message during the second delivery period. configured to

一態様による動画配信システムにおいて、電子的ギフトは前記仮想空間においてギフトオブジェクトとして表示され、前記第2表示領域は、前記仮想空間内の前記ギフトオブジェクトに設けられる。 In the video distribution system according to one aspect, an electronic gift is displayed as a gift object in the virtual space, and the second display area is provided on the gift object in the virtual space.

一態様による動画配信方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される。当該動画配信方法は、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を備える。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。 A video distribution method according to one aspect is performed by one or more computer processors executing computer readable instructions. The moving image distribution method includes the step of storing a first posted message posted by a first user included in a first user group, and storing a second posted message posted by a second user included in a second user group. storing an object provided by at least one of the first user and the second user; a first display area capable of displaying the first posted message and the second posted message; and a second display area in which two posted messages can be displayed while the first posted message is not displayed. In the embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, the second user does not belong to the A user whose object-related parameter satisfies a predetermined condition.

一態様による動画配信方法は、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を備える。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記動画の視聴状況が所定条件を満たしたユーザである。 A video distribution method according to one aspect comprises the steps of: storing a first posted message posted by a first user included in a first user group; and storing a second posted message posted by a second user included in a second user group. a first display area capable of displaying the first posted message and the second posted message; and a second display capable of displaying the second posted message but not displaying the first posted message. and a step of distributing the video containing the area. In the embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, the second user does not belong to the This is a user whose video viewing status satisfies a predetermined condition.

一態様によるプログラムは、一又は複数のコンピュータプロセッサに実行されるプログラムであって、前記一又は複数のコンピュータプロセッサに、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を実行させる。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。 A program according to one aspect is a program to be executed by one or more computer processors, wherein a first posted message posted by a first user included in a first user group is stored in the one or more computer processors. storing a second posted message posted by a second user included in a second user group; and storing an object provided by at least one of the first user and the second user. , a first display area capable of displaying the first posted message and the second posted message, and a second display area capable of displaying the second posted message but not displaying the first posted message. and a step of distributing moving images. In the embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, the second user does not belong to the A user whose object-related parameter satisfies a predetermined condition.

一態様によるプログラムは、一又は複数のコンピュータプロセッサに実行されるプログラムであって、前記一又は複数のコンピュータプロセッサに、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を実行させる。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記動画の視聴状況が所定条件を満たしたユーザである。 A program according to one aspect is a program to be executed by one or more computer processors, wherein a first posted message posted by a first user included in a first user group is stored in the one or more computer processors. storing a second posted message posted by a second user included in a second user group; a first display area capable of displaying the first posted message and the second posted message; and a second display area in which a second posted message is displayable while the first posted message is not displayed. In the embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, the second user does not belong to the This is a user whose video viewing status satisfies a predetermined condition.

実施形態によれば、動画の視聴ユーザからの投稿メッセージを、当該視聴ユーザが属するユーザグループに応じた表示領域に表示することができる。 According to the embodiment, it is possible to display a posted message from a video viewing user in a display area corresponding to a user group to which the viewing user belongs.

一実施形態による動画配信システムを示すブロック図である。1 is a block diagram illustrating a video distribution system according to one embodiment; FIG. 図1の動画配信システムで配信される動画を制作するスタジオの設備を模式的に示す模式図である。FIG. 2 is a schematic diagram schematically showing facilities of a studio for producing moving images distributed by the moving image distribution system of FIG. 1; 図1の動画配信システムにおいて記憶される保有リストを説明する図である。FIG. 2 is a diagram for explaining a holding list stored in the moving image distribution system of FIG. 1; FIG. 図1の動画配信システムにおいて記憶される候補リストを説明する図である。2 is a diagram explaining a candidate list stored in the moving image delivery system of FIG. 1; FIG. 図1の動画配信システムにおいて記憶される投稿データを説明する図である。FIG. 2 is a diagram illustrating post data stored in the moving image delivery system of FIG. 1; FIG. 図1の動画配信システムにおいて記憶される視聴管理データを説明する図である。2 is a diagram for explaining viewing management data stored in the moving image delivery system of FIG. 1; FIG. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図7には、キャラクタオブジェクトのアニメーションが含まれている。FIG. 4 is a diagram showing an example of a moving image displayed on the client device 10a in one embodiment; FIG. 7 includes an animation of a character object. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図8には、通常オブジェクトが含まれている。FIG. 4 is a diagram showing an example of a moving image displayed on the client device 10a in one embodiment; FIG. 8 contains normal objects. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図9には、装飾オブジェクトが含まれている。FIG. 4 is a diagram showing an example of a moving image displayed on the client device 10a in one embodiment; FIG. 9 includes decoration objects. 候補リストに含まれている装飾オブジェクトの中から所望の選択装飾オブジェクトを選択するための装飾オブジェクト選択画面の例を示す模式図である。FIG. 11 is a schematic diagram showing an example of a decoration object selection screen for selecting a desired selection decoration object from decoration objects included in the candidate list; 一実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。FIG. 10 is a diagram showing an example of a moving image including a first posted message displayed on the client device 10a in one embodiment; FIG. 一実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。FIG. 10 is a diagram showing an example of a moving image including a first posted message displayed on the client device 10a in one embodiment; FIG. 一実施形態においてクライアント装置10aに表示される第2投稿メッセージを含む動画の例を示す図である。FIG. 10 is a diagram showing an example of a moving image including a second posted message displayed on the client device 10a in one embodiment; FIG. 一実施形態においてクライアント装置10aに表示される第2投稿メッセージを含む動画の例を示す図である。FIG. 10 is a diagram showing an example of a moving image including a second posted message displayed on the client device 10a in one embodiment; FIG. 一実施形態における動画配信処理の流れを示すフロー図である。FIG. 4 is a flow diagram showing the flow of video distribution processing in one embodiment. 図1の動画配信システムにおいて配信される動画の配信期間の区分を説明するための図である。FIG. 2 is a diagram for explaining division of distribution periods of moving images distributed in the moving image distribution system of FIG. 1; 別の実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。FIG. 13 is a diagram showing an example of a moving image including a first posted message displayed on the client device 10a in another embodiment; FIG. 別の実施形態における投稿メッセージ表示処理の流れを示すフロー図である。FIG. 11 is a flow chart showing the flow of posted message display processing in another embodiment;

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。 Various embodiments of the present invention will now be described with appropriate reference to the drawings. Identical or similar components are provided with the same reference numerals in several drawings.

図1から図6を参照して、一実施形態による動画配信システムについて説明する。図1は、一実施形態による動画配信システム1を示すブロック図であり、図2は、動画配信システム1で配信される動画の制作が行われるスタジオの設備を模式的に示す模式図であり、図3から図6は、動画配信システム1において記憶される情報を説明するための図である。 A video distribution system according to an embodiment will be described with reference to FIGS. 1 to 6. FIG. FIG. 1 is a block diagram showing a video distribution system 1 according to one embodiment, and FIG. 2 is a schematic diagram schematically showing facilities of a studio where videos distributed by the video distribution system 1 are produced. 3 to 6 are diagrams for explaining information stored in the moving image distribution system 1. FIG.

動画配信システム1は、クライアント装置10a~10cと、サーバ装置20と、スタジオユニット30と、ストレージ60と、を備える。クライアント装置10a~10cと、サーバ装置20と、ストレージ60と、は、ネットワーク50を介して相互に通信可能に接続されている。サーバ装置20は、後述するように、キャラクタのアニメーションを含む動画を配信するように構成される。この動画に含まれるキャラクタは、仮想空間内でモーション制御されてもよい。 The moving image distribution system 1 includes client devices 10 a to 10 c, a server device 20 , a studio unit 30 and a storage 60 . The client devices 10a to 10c, the server device 20, and the storage 60 are connected via a network 50 so as to be able to communicate with each other. The server device 20 is configured to distribute moving images including character animation, as will be described later. A character included in this animation may be motion-controlled in the virtual space.

この動画は、サーバ装置20からクライアント装置10a~10cの各々に配信され得る。クライアント装置10aのユーザである第1視聴ユーザ、クライアント装置10bのユーザである第2視聴ユーザ、及びクライアント装置10cのユーザである第3視聴ユーザは、配信された動画を、各クライアント装置により視聴することができる。動画配信システム1は、3台よりも少ない数のクライアント装置を備えていてもよく、3台よりも多い数のクライアント装置を備えていてもよい。 This moving image can be distributed from the server device 20 to each of the client devices 10a to 10c. A first viewing user who is the user of the client device 10a, a second viewing user who is the user of the client device 10b, and a third viewing user who is the user of the client device 10c view the distributed video using each client device. be able to. The moving image distribution system 1 may have less than three client devices, or more than three client devices.

クライアント装置10a~10cは、スマートフォンなどの情報処理装置である。クライアント装置10a~10cは、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。クライアント装置10a~10cの各々は、コンピュータプロセッサ、メモリ、通信I/F、ディスプレイ、ジャイロセンサ等の各種センサを備えるセンサユニット、マイク等の集音装置、及び各種情報を記憶するストレージを備えていてもよい。 The client devices 10a to 10c are information processing devices such as smart phones. The client devices 10a to 10c may be mobile phones, tablet terminals, personal computers, electronic book readers, wearable computers, game consoles, and other various information processing devices capable of reproducing moving images, in addition to smartphones. Each of the client devices 10a to 10c includes a computer processor, a memory, a communication I/F, a display, a sensor unit including various sensors such as a gyro sensor, a sound collecting device such as a microphone, and a storage for storing various information. good too.

クライアント装置10a~10cのディスプレイは、表示パネルと、タッチパネルと、を有する。タッチパネルは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネルは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。 The displays of the client devices 10a to 10c each have a display panel and a touch panel. The touch panel is configured to be able to detect a player's touch operation (contact operation). The touch panel can detect various touch operations such as tapping, double tapping, and dragging by the player. The touch panel may include a capacitive proximity sensor and be configured to detect non-contact operations by the player.

視聴ユーザは、クライアント装置10a~10cのタッチパネルを介して、配信された動画に関するメッセージ又はそれ以外のメッセージを入力することができる。このメッセージは、例えば、テキスト形式のメッセージ、静止画形式のメッセージ、動画形式のメッセージ、及びこれら以外の任意の形式の電子的なメッセージであってもよい。クライアント装置10a~10cの各々は、視聴ユーザによって入力されたメッセージをサーバ装置20に投稿(送信)するように構成され得る。本明細書においては、配信された動画を視聴するためのクライアント装置10a~10c及び/又はこれら以外のクライアント装置からサーバ装置20に送信されたメッセージを投稿メッセージと呼ぶことがある。例えば、第1視聴ユーザのクライアント装置10aに配信された動画に関して、当該第1視聴ユーザがクライアント装置10aに入力し、このクライアント装置10aからサーバ装置20に対して送信された投稿メッセージは、第1視聴ユーザの投稿メッセージである。 A viewing user can input a message regarding the delivered moving image or other messages via the touch panels of the client devices 10a to 10c. The message may be, for example, a text message, a still image message, a moving image message, or any other electronic message. Each of the client devices 10a-10c can be configured to post (send) messages entered by viewing users to the server device 20. FIG. In this specification, a message sent to the server device 20 from the client devices 10a to 10c and/or other client devices for viewing distributed moving images may be referred to as a posted message. For example, regarding a moving image distributed to the client device 10a of the first viewing user, the first viewing user inputs the message to the client device 10a, and the posting message transmitted from the client device 10a to the server device 20 is This is the message posted by the viewing user.

図示の実施形態において、サーバ装置20は、コンピュータプロセッサ21と、通信I/F22と、ストレージ23と、を備えている。 In the illustrated embodiment, the server device 20 comprises a computer processor 21 , a communication I/F 22 and a storage 23 .

コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。 The computer processor 21 is an arithmetic device that loads an operating system and various programs that implement various functions from the storage 23 or other storage into its memory, and executes instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, MPU, DSP, GPU, various arithmetic units other than these, or a combination thereof. The computer processor 21 may be realized by an integrated circuit such as ASIC, PLD, FPGA, MCU. Although computer processor 21 is illustrated as a single component in FIG. 1, computer processor 21 may be a collection of a plurality of physically separate computer processors. In this specification, a program or instructions included in the program described as being executed by the computer processor 21 may be executed by a single computer processor, or may be executed by a plurality of computer processors in a distributed manner. good too. Also, the program executed by the computer processor 21 or the instructions contained in the program may be executed by multiple virtual computer processors.

通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。 The communication I/F 22 is implemented as hardware, firmware, communication software such as a TCP/IP driver or PPP driver, or a combination thereof. Server device 20 can transmit and receive data to and from other devices via communication I/F 22 .

ストレージ23は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ23は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ23には、様々なプログラムが記憶され得る。ストレージ23に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ装置20とは物理的に別体のストレージ(例えば、ストレージ60)に格納されてもよい。 Storage 23 is a storage device accessed by computer processor 21 . The storage 23 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various other storage devices capable of storing data. Various programs can be stored in the storage 23 . At least part of the programs and various data that can be stored in the storage 23 may be stored in a storage that is physically separate from the server device 20 (for example, the storage 60).

スタジオユニット30の構成要素の多くは、例えば、図2に示されているスタジオルームRに配されている。図示のように、スタジオルームRにおいては、アクターA1及びアクターA2がパフォーマンスを行っている。スタジオユニット30は、アクターA1及びアクターA2の動き及び表情を検出し、検出した情報をサーバ装置20に出力するように構成されている。 Many of the components of studio unit 30 are located, for example, in studio room R shown in FIG. As shown, in studio room R, actor A1 and actor A2 are performing. The studio unit 30 is configured to detect movements and facial expressions of the actors A1 and A2 and output the detected information to the server device 20 .

アクターA1及びアクターA2はいずれも、スタジオユニット30に備えられる後述のセンサ群によって動きや表情がキャプチャされる対象である。図示の実施形態において、アクターA1及びアクターA2は、トーク、パフォーマンス、及びこれら以外の動画として配信される番組を進行するための行動を行う人間である。アクターA1及びアクターA2は、人間以外に、動物またはこれ以外の運動する任意の物体(非生物)であってもよい。アクターA1及びアクターA2は、例えば、自立運動可能なロボットであってもよい。スタジオルームR内のアクターの数は、1であってもよいし、3以上であってもよい。 Both the actor A1 and the actor A2 are subjects whose movements and facial expressions are captured by a group of sensors provided in the studio unit 30, which will be described later. In the illustrated embodiment, Actor A1 and Actor A2 are human beings who conduct talks, performances, and other actions to facilitate programs delivered as video. Actors A1 and A2 may be animals or any other moving objects (non-living objects) other than humans. Actor A1 and actor A2 may be robots capable of autonomous movement, for example. The number of actors in the studio room R may be one, or three or more.

スタジオユニット30は、アクターA1に装着される6つのモーションセンサ31a~31fと、アクターA1の左手に把持されているコントローラ33aと、アクターA1の右手に把持されているコントローラ33bと、装着具37bを介してアクターA1の頭部に取り付けられるカメラ37aと、を有する。スタジオユニット30はまた、アクターA2に装着される6つのモーションセンサ32a~32fと、アクターA2の左手に把持されているコントローラ34aと、アクターA2の右手に把持されているコントローラ34bと、装着具38bを介してアクターA2の頭部に取り付けられるカメラ38aと、を有する。装着具37b及び装着具38bの各々には、音声データを取得するためのマイクが取り付けられてもよい。このマイクは、アクターA1及びアクターA2の発話を音声データとして取得することができる。マイクは、装着具37b及び装着具38bを介してアクターA1及びアクターA2に装着される装着型のマイクであってもよく、スタジオルームRの床、壁、又は天井に設置される設置型のものであってもよい。スタジオユニット30は、上記の構成要素に加えて、ベースステーション35aと、ベースステーション35bと、トラッキングセンサ36aと、トラッキングセンサ36bと、ディスプレイ39と、を有する。スタジオルームRとガラス窓を隔てた隣室には、サポーターコンピュータ40が設置されている。サーバ装置20は、サポーターコンピュータ40が設置されている部屋と同じ部屋に設置されてもよい。 The studio unit 30 includes six motion sensors 31a to 31f attached to the actor A1, a controller 33a held in the left hand of the actor A1, a controller 33b held in the right hand of the actor A1, and a mounting tool 37b. and a camera 37a attached to the head of actor A1 via the camera 37a. The studio unit 30 also includes six motion sensors 32a-32f attached to actor A2, a controller 34a held in the left hand of actor A2, a controller 34b held in the right hand of actor A2, and a mounting fixture 38b. and a camera 38a attached to the head of actor A2 via . A microphone for acquiring audio data may be attached to each of the wearing tool 37b and the wearing tool 38b. This microphone can acquire speech data of actors A1 and A2 as audio data. The microphone may be a wearable microphone that is attached to the actors A1 and A2 via the attachment 37b and the attachment 38b, or an installation type that is installed on the floor, wall, or ceiling of the studio room R. may be The studio unit 30 has a base station 35a, a base station 35b, a tracking sensor 36a, a tracking sensor 36b, and a display 39 in addition to the components described above. A supporter computer 40 is installed in an adjacent room separated from the studio room R by a glass window. The server device 20 may be installed in the same room as the room where the supporter computer 40 is installed.

モーションセンサ31a~31f及びモーションセンサ32a~32fは、ベースステーション35a及びベースステーション35bと協働して、自らの位置及び向きを検出する。一実施形態において、ベースステーション35a及びベースステーション35bは、多軸レーザーエミッターである。ベースステーション35aは、同期用の点滅光を発した後に、例えば鉛直軸の周りでレーザー光を走査する。ベースステーション35bは、例えば水平軸の周りでレーザー光を走査する。モーションセンサ31a~31f及びモーションセンサ32a~32fはそれぞれ、ベースステーション35a及びベースステーション35bからの点滅光及びレーザー光の入射を検知する光センサーを複数備えてもよい。モーションセンサ31a~31f及びモーションセンサ32a~32fはそれぞれ、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサーでの受光時間、各光センサーが検知したレーザー光の入射角度、及び必要に応じてこれら以外の情報に基づいて、自らの位置及び向きを検出してもよい。モーションセンサ31a~31f及びモーションセンサ32a~32fは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよい。ベースステーション35a及びベースステーション35bは、例えば、HTC CORPORATIONから提供されているベースステーションであってもよい。 Motion sensors 31a-31f and motion sensors 32a-32f cooperate with base station 35a and base station 35b to detect their position and orientation. In one embodiment, base station 35a and base station 35b are multi-axis laser emitters. After emitting blinking light for synchronization, the base station 35a scans the laser light, for example, around the vertical axis. The base station 35b scans laser light, for example, around the horizontal axis. Each of the motion sensors 31a-31f and the motion sensors 32a-32f may comprise a plurality of optical sensors that detect the incidence of flashing light and laser light from the base station 35a and base station 35b. The motion sensors 31a to 31f and the motion sensors 32a to 32f respectively detect the time difference between the incident timing of the blinking light and the incident timing of the laser light, the light receiving time at each optical sensor, the incident angle of the laser light detected by each optical sensor, and If necessary, it may detect its own position and orientation based on information other than these. Motion sensors 31a-31f and motion sensors 32a-32f may be, for example, Vive Tracker provided by HTC CORPORATION. Base station 35a and base station 35b may be, for example, base stations provided by HTC CORPORATION.

モーションセンサ31a~31f及びモーションセンサ32a~32fの各々において算出された各モーションセンサの位置及び向きを示す検出情報は、サーバ装置20に送信される。この検出情報は、モーションセンサ31a~31f及びモーションセンサ32a~32fの各々からサーバ装置20に無線送信されてもよい。ベースステーション35a及びベースステーション35bは、一定のインターバルで点滅光の発光及びレーザー光の走査を行うので、各モーションセンサの検出情報は、当該インターバルごとに更新される。なお、ベースステーションは、3つ以上の複数であってもよい。ベースステーションの位置は適宜変更してもよい。例えば、図2に示されているトラッキングセンサの検出対象の空間の上方の隅部に配されているベースステーションに加えて若しくは替えて、上方位置及び床面に近い下方位置に対をなすように配置されたベースステーションが設けられてもよい。例えば、ベースステーションは4つであってもよい。図示の実施形態において、アクターA1は、6つのモーションセンサ31a~31fを装着している。モーションセンサ31a,31b,31c,31d,31e,及び31fはそれぞれ、アクターA1の左手首、右手首、左足甲、右足甲、腰、及び頭頂に装着されている。モーションセンサ31a~31fは、装着具を介してアクターA1に装着されてもよい。アクターA2は、6つのモーションセンサ32a~32fを装着している。モーションセンサ32a~32fは、アクターA2に対してモーションセンサ31a~31fと同様の位置に装着され得る。図2に示されているモーションセンサ31a~31f及びモーションセンサ32a~32fは例示である。モーションセンサ31a~31fは、アクターA1の様々な部位に装着され得るし、モーションセンサ32a~32fは、アクターA2の様々な部位に装着され得る。アクターA1及びアクターA2に装着されるモーションセンサの数は5以下であってもよいし7以上であってもよい。このように、アクターA1及びアクターA2の体の各部に装着されたモーションセンサ31a~31f及びモーションセンサ32a~32fの位置及び向きを検出することにより、アクターA1及びアクターA2の体の動きを検出することができる。 Detection information indicating the position and orientation of each motion sensor calculated in each of the motion sensors 31 a to 31 f and the motion sensors 32 a to 32 f is transmitted to the server device 20 . This detection information may be wirelessly transmitted to the server device 20 from each of the motion sensors 31a to 31f and the motion sensors 32a to 32f. Since the base station 35a and the base station 35b emit blinking light and scan with laser light at regular intervals, the detection information of each motion sensor is updated at each interval. Note that the number of base stations may be three or more. The position of the base station may be changed as appropriate. For example, in addition to or instead of the base stations arranged in the upper corners of the space to be detected by the tracking sensors shown in FIG. A deployed base station may be provided. For example, there may be four base stations. In the illustrated embodiment, actor A1 is equipped with six motion sensors 31a-31f. Motion sensors 31a, 31b, 31c, 31d, 31e, and 31f are attached to the left wrist, right wrist, left instep, right instep, waist, and top of the head, respectively, of actor A1. The motion sensors 31a-31f may be attached to the actor A1 via attachments. Actor A2 is equipped with six motion sensors 32a-32f. Motion sensors 32a-32f may be mounted on actor A2 at similar locations as motion sensors 31a-31f. The motion sensors 31a-31f and motion sensors 32a-32f shown in FIG. 2 are exemplary. Motion sensors 31a-31f may be attached to various parts of actor A1, and motion sensors 32a-32f may be attached to various parts of actor A2. The number of motion sensors attached to actor A1 and actor A2 may be five or less, or may be seven or more. By detecting the positions and orientations of the motion sensors 31a to 31f and the motion sensors 32a to 32f attached to each part of the bodies of the actors A1 and A2, the movements of the bodies of the actors A1 and A2 are detected. be able to.

一実施形態においては、アクターA1及びアクターA2に装着される複数のモーションセンサの各々に多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームRの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの各々の位置及び向きを検出してもよい。赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。このように、アクターに装着される複数のモーションセンサの各々に発光部(例えば、赤外LEDや可視光LED)を設け、この発光部からの光をスタジオルームR内に設けられた受光部(例えば、赤外線カメラや可視光カメラ)で検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。 In one embodiment, multiple infrared LEDs are mounted on each of the plurality of motion sensors attached to the actor A1 and the actor A2, and the light from the infrared LEDs is projected onto the floor and walls of the studio room R. Sensing with an infrared camera may detect the position and orientation of each of the motion sensors. A visible light LED may be used instead of the infrared LED, and the position and orientation of each motion sensor may be detected by detecting light from the visible light LED with a visible light camera. In this way, each of the plurality of motion sensors attached to the actor is provided with a light emitting unit (for example, an infrared LED or a visible light LED), and the light from the light emitting unit is received by a light receiving unit ( For example, an infrared camera or a visible light camera) may detect the position and orientation of each of the motion sensors.

一実施形態においては、モーションセンサ31a~31f及びモーションセンサ32a~32fに代えて、複数の反射マーカーを用いることができる。反射マーカーは、アクターA1及びアクターA2の各々に粘着テープなどにより貼付される。このように反射マーカーが貼付されたアクターA1及びアクターA2を撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出することができる。 In one embodiment, a plurality of reflective markers can be used in place of motion sensors 31a-31f and motion sensors 32a-32f. A reflective marker is attached to each of the actors A1 and A2 with an adhesive tape or the like. By imaging the actors A1 and A2 to which the reflective markers are affixed in this manner to generate imaging data, and performing image processing on the imaging data, the positions and orientations of the reflective markers can be detected.

コントローラ33a及びコントローラ33bは、アクターA1の操作に応じたコントロール信号をサーバ装置20に出力する。同様に、コントローラ34a及びコントローラ34bは、アクターA2の操作に応じたコントロール信号をサーバ装置20に出力する。 The controllers 33a and 33b output control signals to the server device 20 according to the operation of the actor A1. Similarly, the controllers 34a and 34b output control signals to the server device 20 according to the operation of the actor A2.

トラッキングセンサ36a及びトラッキングセンサ36bは、動画に含まれる仮想空間を構築するための仮想カメラの設定情報を定めるためのトラッキング情報を生成する。トラッキングセンサ36a及びトラッキングセンサ36bのトラッキング情報は、各々の三次元直交座標系での位置および各軸回りの角度として算出される。トラッキングセンサ36aの位置および向きは、操作者の操作に応じて変更されえる。トラッキングセンサ36aは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。同様に、トラッキングセンサ36bの位置および向きは、操作者の操作に応じて設定される。トラッキングセンサ36bは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。図示の実施形態において、トラッキングセンサ36aは、アクターA1の左前方に設けられている。トラッキングセンサ36bは、アクターA1及びアクターA2の前方であってアクターA1とアクターA2とのほぼ中間の位置に設けられている。 The tracking sensor 36a and the tracking sensor 36b generate tracking information for determining virtual camera setting information for constructing the virtual space included in the moving image. The tracking information of the tracking sensor 36a and the tracking sensor 36b is calculated as the position in each three-dimensional orthogonal coordinate system and the angle around each axis. The position and orientation of the tracking sensor 36a can be changed according to the operator's operation. The tracking sensor 36 a transmits tracking information indicating its position and orientation to the tracking information server device 20 . Similarly, the position and orientation of the tracking sensor 36b are set according to the operator's operation. The tracking sensor 36 b transmits tracking information indicating its position and orientation to the tracking information server device 20 . In the illustrated embodiment, the tracking sensor 36a is provided to the left front of the actor A1. The tracking sensor 36b is provided in front of the actors A1 and A2 and at a position approximately midway between the actors A1 and A2.

カメラ37aは、上記のように、アクターA1の頭部に取り付けられている。例えば、カメラ37aは、アクターA1の顔を撮像できるように配置されている。カメラ37aは、アクターA1の顔を連続的に撮像し、アクターA1の顔の撮像データを取得する。同様に、カメラ38aは、アクターA2の頭部に取り付けられている。カメラ38aは、アクターA2の顔を撮像できるように配置されており、アクターA2の顔を連続的に撮像し、アクターA2の顔の撮像データを取得する。カメラ37aは、アクターA1の顔の撮像データをサーバ装置20に送信し、カメラ38aは、アクターA1の顔の撮像データをサーバ装置20に送信する。カメラ37a及びカメラ38aは、人物の顔の奥行きを検出可能な3Dカメラであってもよい。 Camera 37a is attached to the head of actor A1 as described above. For example, the camera 37a is arranged so as to capture the face of the actor A1. The camera 37a continuously images the face of the actor A1 and acquires the imaged data of the face of the actor A1. Similarly, a camera 38a is attached to the head of actor A2. The camera 38a is arranged so as to be able to image the face of the actor A2, continuously images the face of the actor A2, and obtains the imaged data of the face of the actor A2. The camera 37 a transmits face image data of the actor A<b>1 to the server device 20 , and the camera 38 a transmits face image data of the actor A<b>1 to the server device 20 . The cameras 37a and 38a may be 3D cameras capable of detecting the depth of a person's face.

ディスプレイ39は、サポートコンピュータ40から受信した情報を表示するように構成される。サポートコンピュータ40からディスプレイ39に送信される情報は、例えば、テキスト情報、画像情報、及びこれら以外の各種情報を含み得る。ディスプレイ39は、アクターA1及びアクターA2によって視認可能な位置に配置される。 Display 39 is configured to display information received from support computer 40 . Information transmitted from the support computer 40 to the display 39 may include, for example, text information, image information, and various other information. The display 39 is placed at a position that can be viewed by actors A1 and A2.

図示の実施形態において、サポーターコンピュータ40は、スタジオルームRの隣室に設置されている。サポーターコンピュータ40が設置されている部屋とスタジオルームRとはガラス窓によって隔てられているため、サポーターコンピュータ40のオペレータ(本明細書では「サポーター」ということがある。)は、アクターA1及びアクターA2を視認できる。図示の実施形態においては、サポーターコンピュータ40のオペレータとして、サポーターB1及びサポーターB2が在室している。 In the illustrated embodiment, the supporter computer 40 is installed in the room next to the studio room R. Since the room in which the supporter computer 40 is installed and the studio room R are separated by a glass window, the operator of the supporter computer 40 (also referred to as "supporter" in this specification) can control actors A1 and A2. can be seen. In the illustrated embodiment, a supporter B1 and a supporter B2 are in the room as operators of the supporter computer 40 .

サポーターコンピュータ40は、サポーターB1及びサポーターB2の操作に応じて、スタジオユニット30の構成要素の設定を変更することができるように構成されてもよい。サポーターコンピュータ40は、例えば、ベースステーション35a及びベースステーション35bによる走査インターバルの設定、トラッキングセンサ36a及びトラッキングセンサ36bの位置または向きの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。後述するアクティブセンサの切り替えは、サポーターB1及びサポーターB2によるサポーターコンピュータ40の操作に基づいて実行され得る。サポーターB1及びサポータB2の少なくとも一方は、サポーターコンピュータ40にメッセージを入力し、当該入力されたメッセージをディスプレイ39に表示することができる。 The supporter computer 40 may be configured to change the settings of the components of the studio unit 30 according to the operations of the supporter B1 and the supporter B2. The supporter computer 40 can, for example, set scanning intervals by the base station 35a and base station 35b, set the positions or orientations of the tracking sensors 36a and 36b, and change various settings of other devices. . Switching of the active sensors, which will be described later, can be executed based on the operation of the supporter computer 40 by the supporter B1 and the supporter B2. At least one of the supporter B1 and the supporter B2 can input a message to the supporter computer 40 and display the input message on the display 39 .

図2に示されているスタジオユニット30の構成要素及び機能は例示である。本発明に適用可能なスタジオユニット30は、図示されていない様々な構成要素を備え得る。例えば、スタジオユニット30は、プロジェクタを備えていてもよい。当該プロジェクタは、クライアント装置10aまたはそれ以外のクライアント装置に配信される動画をスクリーンSに投影することができる。 The components and functions of studio unit 30 shown in FIG. 2 are exemplary. A studio unit 30 applicable to the present invention may comprise various components not shown. For example, studio unit 30 may include a projector. The projector can project on the screen S a moving image distributed to the client device 10a or other client devices.

次に、一態様において、ストレージ23に記憶される情報について説明する。図示の実施形態においては、ストレージ23には、モデルデータ23a、オブジェクトデータ23b、保有リスト23c、候補リスト23d、投稿データ23e、視聴管理データ23f、及び前記以外の配信動画の生成及び配信に必要な様々な情報が記憶される。 Next, in one aspect, the information stored in storage 23 will be described. In the illustrated embodiment, the storage 23 contains model data 23a, object data 23b, possession list 23c, candidate list 23d, post data 23e, viewing management data 23f, and other data necessary for generating and distributing distribution moving images. Various information is stored.

モデルデータ23aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ23aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ23aは、例えば、キャラクタの骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ23aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。図示の実施形態においては、アクターA1に対応するキャラクタオブジェクト及びアクターA2に対応するキャラクタオブジェクトを生成するために、モデルデータ23aは、互いに異なる少なくとも2種類のモデルデータを有する。このアクターA1に対応するキャラクタオブジェクト用のモデルデータとアクターA2に対応するキャラクタオブジェクト用のモデルデータとは、例えば、同じリグデータを有するが、異なる表面データを有していてもよい。 The model data 23a is model data for generating character animation. The model data 23a may be three-dimensional model data for generating a three-dimensional animation, or two-dimensional model data for generating two-dimensional model data. The model data 23a includes, for example, rig data (sometimes referred to as "skeleton data") indicating the skeleton of the character, and surface data indicating the shape and texture of the surface of the character. The model data 23a can include a plurality of different model data. The plurality of model data may have rig data different from each other, or may have the same rig data. The plurality of model data may have surface data different from each other, or may have the same surface data. In the illustrated embodiment, the model data 23a has at least two different types of model data to generate a character object corresponding to actor A1 and a character object corresponding to actor A2. The model data for the character object corresponding to the actor A1 and the model data for the character object corresponding to the actor A2 have, for example, the same rig data, but may have different surface data.

オブジェクトデータ23bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ23bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ23aには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。 The object data 23b includes asset data for constructing a virtual space that constitutes a moving image. The object data 23b includes data for drawing the background of the virtual space that constitutes the moving image, data for drawing various objects displayed in the moving image, and data for drawing various objects displayed in the moving image. Contains data. The object data 23a may include object position information indicating the position of the object in the virtual space.

オブジェクトデータ23bには、上記以外にも、クライアント装置10a~10cの視聴ユーザからの表示要求に基づいて動画に表示されるギフトオブジェクトが含まれ得る。ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。視聴ユーザは、所望のギフトオブジェクトを購入することができる。 In addition to the above, the object data 23b may include gift objects displayed in moving images based on display requests from the viewing users of the client devices 10a to 10c. Gift objects can include effect objects, normal objects, and decoration objects. A viewing user can purchase a desired gift object.

エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトである。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。エフェクトオブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。 The effect object is an object that affects the impression of the entire viewing screen of the distributed moving image, and is an object that imitates confetti, for example. The confetti-like object may be displayed on the entire viewing screen, thereby changing the impression of the entire viewing screen before and after the display. Effect objects may be displayed so as to overlap with character objects, but differ from decoration objects in that they are not displayed in association with specific parts of character objects.

通常オブジェクトは、視聴ユーザからアクター(例えば、アクターA1またはアクターA2)へのデジタル的なギフトとなるオブジェクトであり、例えばぬいぐるみや花束を模したオブジェクトである。一態様において、通常オブジェクトは、キャラクタオブジェクトと接しないように動画の表示画面に表示される。一態様において、通常オブジェクトは、キャラクタオブジェクトと重複しないように動画の表示画面に表示される。通常オブジェクトは、仮想空間においてキャラクタオブジェクト以外のオブジェクトと重複するように表示されてもよい。通常オブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。一態様において、通常オブジェクトをキャラクタオブジェクトと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタオブジェクトの顔を含む頭部以外の部分と重複し、当該キャラクタオブジェクトの頭部とは重複しないように表示される。 A normal object is an object that is a digital gift from a viewing user to an actor (for example, actor A1 or actor A2), such as a stuffed toy or a bouquet of flowers. In one aspect, the normal object is displayed on the moving image display screen so as not to come in contact with the character object. In one aspect, the normal object is displayed on the moving image display screen so as not to overlap with the character object. A normal object may be displayed so as to overlap an object other than the character object in the virtual space. A normal object may be displayed so as to overlap with a character object, but differs from a decoration object in that it is not displayed in association with a specific part of the character object. In one aspect, when the normal object is displayed so as to overlap with the character object, the normal object overlaps a portion of the character object other than the head including the face, and does not overlap the head of the character object. is displayed.

装飾オブジェクトは、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示されるオブジェクトである。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位に接するように表示画面に表示される。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位の一部又は全部を覆うように表示画面に表示される。 A decoration object is an object displayed on the display screen in association with a specific part of the character object. In one aspect, the decoration object displayed on the display screen in association with the specific part of the character object is displayed on the display screen so as to be in contact with the specific part of the character object. In one aspect, the decoration object displayed on the display screen in association with a specific part of the character object is displayed on the display screen so as to cover part or all of the specific part of the character object.

装飾オブジェクトは、例えば、キャラクタオブジェクトに装着されるアクセサリー(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクラオブジェクトが装着可能なオブジェクトである。装飾オブジェクトに対応するオブジェクトデータ23bには、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着位置情報が含まれてもよい。ある装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に装着されるかを示すことができる。例えば、装飾オブジェクトがカチューシャである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「頭部」に装着されることを示してもよい。装飾オブジェクトがTシャツである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「胴部」に装着されることを示してもよい。 Decoration objects are, for example, accessories (headbands, necklaces, earrings, etc.), clothes (T-shirts, etc.), costumes, and other objects that character objects can wear. The object data 23b corresponding to the decoration object may include attachment position information indicating which part of the character object the decoration object is associated with. The mounting position information of a certain decoration object can indicate on which part of the character object the decoration object is mounted. For example, when the decoration object is a headband, the attachment position information of the decoration object may indicate that the decoration object is attached to the "head" of the character object. When the decoration object is a T-shirt, the attachment position information of the decoration object may indicate that the decoration object is attached to the "torso" of the character object.

ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装飾オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装飾オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されてもよい。 A display time corresponding to the type of gift object may be set for each gift object. In one aspect, the display time of the decoration object may be set longer than the display time of the effect object and the display time of the normal object. For example, the display time of the decoration object may be set to 60 seconds, the display time of the effect object may be set to 5 seconds, and the display time of the normal object may be set to 10 seconds.

保有リスト23cは、動画の視聴ユーザが保有しているギフトオブジェクトを示すリストである。保有リスト23cの例が図3に示されている。図示のように、保有リスト23cにおいては、視聴ユーザのアカウント情報(例えば、視聴ユーザのユーザID)と対応づけて、当該視聴ユーザが保有するギフトオブジェクトを特定するオブジェクトIDが記憶されている。この視聴ユーザには、例えば、クライアント装置10a~クライアント装置10cの第1視聴ユーザ~第3視聴ユーザが含まれる。 The possessed list 23c is a list indicating the gift objects possessed by the viewing user of the moving image. An example of holding list 23c is shown in FIG. As shown, in the holding list 23c, an object ID that specifies a gift object owned by the viewing user is stored in association with the viewing user's account information (for example, the viewing user's user ID). The viewing users include, for example, first to third viewing users of the client devices 10a to 10c.

候補リスト23dは、視聴ユーザから表示要求がなされた装飾オブジェクトのリストである。後述するように、装飾オブジェクトを保有している視聴ユーザは、保有している装飾オブジェクトの表示要求を行うことができる。候補リスト23dにおいては、装飾オブジェクトの表示要求を行った視聴ユーザのアカウント情報と対応付けて、当該装飾オブジェクトを特定するオブジェクトIDが記憶される。この候補リスト23dは、配信者ごとに作成されてもよい。候補リスト23dは、例えば、配信者(アクターA1、アクターA2、サポーターB1、及び/又はサポーターB2)を特定する配信者識別情報と対応付けて記憶されてもよい。 The candidate list 23d is a list of decoration objects requested to be displayed by the viewing user. As will be described later, a viewing user who owns a decoration object can make a display request for the owned decoration object. In the candidate list 23d, an object ID specifying the decoration object is stored in association with the account information of the viewing user who requested the display of the decoration object. This candidate list 23d may be created for each distributor. The candidate list 23d may be stored in association with, for example, distributor identification information that identifies distributors (actor A1, actor A2, supporter B1, and/or supporter B2).

投稿データ23eは、視聴ユーザから投稿された投稿メッセージを示すデータである。投稿データ23eは、投稿メッセージを投稿した視聴ユーザのアカウント情報と、当該視聴ユーザが属するユーザグループを示すグループ情報と、当該視聴ユーザによって投稿された投稿メッセージと、を含む。このように、ストレージ23には、視聴ユーザのアカウント情報に対応付けて、当該視聴ユーザが属するユーザグループに関するグループ情報と、当該視聴ユーザによって投稿された投稿メッセージとが記憶され得る。投稿データ23eは、各投稿メッセージが投稿された時刻(例えば、クライアント装置から送信された投稿メッセージがサーバ装置20によって受信された時刻、または、サーバ装置20に受信された投稿メッセージがストレージ23の所定の記憶領域に書き込まれた時刻)を記憶しても良い。 The posted data 23e is data indicating a posted message posted by a viewing user. The posted data 23e includes account information of the viewing user who posted the posted message, group information indicating the user group to which the viewing user belongs, and the posted message posted by the viewing user. In this way, the storage 23 can store group information related to the user group to which the viewing user belongs, and posted messages posted by the viewing user, in association with the account information of the viewing user. The posted data 23 e is the time when each posted message was posted (for example, the time when the posted message sent from the client device was received by the server device 20 , or the time when the posted message received by the server device 20 was stored in the storage 23 . ) may be stored.

視聴ユーザのアカウント情報は、例えば、当該視聴ユーザのユーザ識別情報(ユーザID)である。 The viewing user's account information is, for example, user identification information (user ID) of the viewing user.

グループ情報は、視聴ユーザが属するグループを識別するグループ識別情報(グループID)である。視聴ユーザが属するグループには、例えば、第1ユーザグループと、第2ユーザグループと、が含まれる。例えば、第1ユーザグループは、一般ユーザが属する一般ユーザグループであり、第2ユーザグループは、一般ユーザとは異なるプレミアムユーザが属するプレミアムユーザグループである。 The group information is group identification information (group ID) that identifies the group to which the viewing user belongs. Groups to which viewing users belong include, for example, a first user group and a second user group. For example, the first user group is a general user group to which general users belong, and the second user group is a premium user group to which premium users different from general users belong.

第1ユーザグループと第2ユーザグループとの分類基準として、様々な基準が採用され得る。視聴ユーザのうち動画の視聴回数が所定回数よりも少ないユーザを一般ユーザに分類し、視聴回数が所定回数以上のユーザをプレミアムユーザに分類してもよい。視聴ユーザのうち動画の視聴時間が所定時間よりも少ないユーザを一般ユーザに分類し、視聴時間が所定時間以上のユーザをプレミアムユーザに分類してもよい。ギフトオブジェクトの購入金額が所定金額よりも少ないユーザを一般ユーザに分類し、ギフトオブジェクトの購入金額が所定金額以上のユーザをプレミアムユーザに分類してもよい。ギフトオブジェクトの購入量が所定量よりも少ないユーザを一般ユーザに分類し、ギフトオブジェクトの購入量が所定量以上のユーザをプレミアムユーザに分類してもよい。視聴ユーザのうち投稿メッセージの投稿数が所定数よりも少ないユーザを一般ユーザに分類し、投稿メッセージの投稿数が所定数以上のユーザをプレミアムユーザに分類してもよい。視聴回数、視聴時間、ギフトオブジェクトの購入金額、ギフトオブジェクトの購入量、投稿メッセージの投稿数は、動画配信システム1の利用開始からの累積値であってもよく、所定期間において集計された集計値であってもよい。 Various criteria can be adopted as classification criteria for the first user group and the second user group. Of the viewing users, users who have viewed the video less than a predetermined number of times may be classified as general users, and users who have viewed the video a predetermined number of times or more may be classified as premium users. Of the viewing users, users who have watched videos for less than a predetermined time may be classified as general users, and users who have watched videos for a predetermined time or longer may be classified as premium users. Users who have purchased gift objects for less than a predetermined amount may be classified as general users, and users who have purchased gift objects for a predetermined amount or more may be classified as premium users. Users who have purchased less than a predetermined amount of gift objects may be classified as general users, and users who have purchased more than a predetermined amount of gift objects may be classified as premium users. Of the viewing users, users who have posted fewer than a predetermined number of posted messages may be classified as general users, and users who have posted a predetermined number or more of posted messages may be classified as premium users. The number of views, the viewing time, the purchase amount of gift objects, the amount of gift objects purchased, and the number of posts of posted messages may be cumulative values from the start of use of the video distribution system 1, and aggregate values aggregated over a predetermined period. may be

一態様において、第2ユーザグループは、第1ユーザグループよりも少ない数のユーザから構成される。視聴ユーザは、動画配信システム1への利用登録を行う際には、第1ユーザグループに分類される。視聴ユーザは、動画配信システム1の利用開始後に、第2ユーザグループに分類されるための基準を満たすと、第1ユーザグループを離脱して第2ユーザグループに属する。このように、視聴ユーザは、動画配信システム1の利用態様によって、所属するユーザグループが変更されてもよい。視聴ユーザは、第2ユーザグループに分類されるための基準を満たさなくなった場合には、第2ユーザグループから第1ユーザグループへ所属するユーザグループが変更されてもよい。 In one aspect, the second group of users consists of fewer users than the first group of users. A viewing user is classified into a first user group when performing usage registration for the moving image distribution system 1 . A viewing user, after starting to use the moving picture distribution system 1 , leaves the first user group and belongs to the second user group when he meets the criteria for being classified into the second user group. In this way, the user group to which the viewing user belongs may be changed depending on how the video distribution system 1 is used. The user group belonging to the viewing user may be changed from the second user group to the first user group when the viewing user no longer satisfies the criteria for being classified into the second user group.

一態様において、第1ユーザグループに属する視聴ユーザの数が第2ユーザグループに属する視聴ユーザの数よりも少ない状態が維持されるように、ユーザグループへの分類基準が動的に調整されてもよい。例えば、サーバ装置20は、第1ユーザグループに属する視聴ユーザの数及び第2ユーザグループに属する視聴ユーザの数をモニターし、その差が所定数よりも小さくなった場合には、第2ユーザグループへ分類されるための基準を厳しくしてもよい。例えば、当初は、動画配信システム1を利用した動画の視聴時間が10時間以上の視聴ユーザを第2ユーザグループに分類している場合、第2ユーザグループに属するユーザの数と第1ユーザグループに属する視聴ユーザの数との差が所定の値よりも小さくなった場合には、動画配信システム1を利用した動画の視聴時間が20時間以上の視聴ユーザを第2ユーザグループに分類するように基準を変更しても良い。 In one aspect, even if the user group classification criteria are dynamically adjusted such that the number of viewing users belonging to the first user group is kept smaller than the number of viewing users belonging to the second user group good. For example, the server device 20 monitors the number of viewing users belonging to the first user group and the number of viewing users belonging to the second user group. The criteria for being classified as 2 may be stricter. For example, initially, when viewing users who have viewed videos using the video distribution system 1 for 10 hours or more are classified into the second user group, the number of users belonging to the second user group and the number of users belonging to the first user group When the difference from the number of viewing users belonging to the group becomes smaller than a predetermined value, the viewing users who have watched videos using the video distribution system 1 for 20 hours or more are classified into the second user group. may be changed.

視聴ユーザの分類は、本明細書で具体的に説明するものには限定されない。視聴ユーザは、3つ以上のグループに分類されてもよい。また、各視聴ユーザがどのグループに所属するかを定める分類基準は任意に定められ得る。 The classification of viewing users is not limited to those specifically described herein. Viewing users may be classified into three or more groups. Also, the classification criteria for determining which group each viewing user belongs to can be determined arbitrarily.

投稿メッセージは、視聴ユーザからクライアント装置を介して投稿されたメッセージである。視聴ユーザから投稿されるメッセージには、例えば、テキスト形式のメッセージ、静止画形式のメッセージ、動画形式のメッセージ、及びこれら以外の様々な形式のメッセージが含まれる。本明細書においては、第1ユーザグループに属する視聴ユーザから投稿された投稿メッセージを第1投稿メッセージと呼び、第2ユーザグループに属する視聴ユーザから投稿された投稿メッセージを第2投稿メッセージと呼ぶことがある。 A posted message is a message posted by a viewing user via a client device. Messages posted by viewing users include, for example, text format messages, still image format messages, moving image format messages, and messages in various formats other than these. In this specification, a posted message posted by a viewing user belonging to the first user group is referred to as a first posted message, and a posted message posted by a viewing user belonging to the second user group is referred to as a second posted message. There is

視聴管理データ23fは、視聴ユーザによる動画の視聴を管理するためのデータである。視聴管理データ23fは、視聴ユーザのアカウント情報と、動画配信システム1により配信される動画に関する動画情報と、当該動画の視聴に関する動画視聴情報と、を含む。このように、ストレージ23には、視聴ユーザのアカウント情報に対応付けて、当該視聴ユーザが視聴した動画に関する動画情報と、当該動画の視聴に関する動画視聴情報と、が記憶され得る。動画情報は、例えば、動画を識別する動画識別情報(動画ID)である。動画視聴情報は、視聴ユーザによって視聴された動画の視聴時間、視聴回数、及びこれら以外の動画の視聴に関する様々なデータを含み得る。 The viewing management data 23f is data for managing viewing of moving images by viewing users. The viewing management data 23f includes account information of the viewing user, moving image information related to the moving image distributed by the moving image distribution system 1, and moving image viewing information related to viewing of the moving image. In this way, the storage 23 can store moving image information related to the moving image viewed by the viewing user and moving image viewing information related to viewing of the moving image in association with the account information of the viewing user. The moving image information is, for example, moving image identification information (moving image ID) that identifies a moving image. The video viewing information may include the viewing time of the video viewed by the viewing user, the number of views, and various other data related to viewing of the video.

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、ボディモーションデータ生成部21a、フェイスモーションデータ生成部21b、アニメーション生成部21c、動画生成部21d、動画配信部21e、表示要求処理部21f、装飾オブジェクト選択部21g、オブジェクト購入処理部21h、及び投稿メッセージ処理部21iとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サポーターコンピュータ40に搭載されているコンピュータプロセッサにより実現されてもよい。 Next, functions realized by the computer processor 21 will be described more specifically. By executing computer-readable instructions included in the distribution program, the computer processor 21 generates a body motion data generation unit 21a, a face motion data generation unit 21b, an animation generation unit 21c, a video generation unit 21d, a video distribution unit 21e, It functions as a display request processing unit 21f, a decoration object selection unit 21g, an object purchase processing unit 21h, and a post message processing unit 21i. At least part of the functions implemented by the computer processor 21 may be implemented by a computer processor other than the computer processor 21 of the video distribution system 1 . At least part of the functions implemented by the computer processor 21 may be implemented by a computer processor installed in the supporter computer 40, for example.

ボディモーションデータ生成部21aは、モーションセンサ31a~31fの各々の検出情報に基づいて、アクターA1の体の各部位の第1ボディモーションデータを生成し、また、モーションセンサ32a~32fの各々の検出情報に基づいて、アクターA2の体の各部位の位置及び向きのデジタル表現である第2ボディモーションデータを生成する。本明細書では、第1ボディモーションデータ及び第2ボディモーションデータを総称して単に「ボディモーションデータ」と呼ぶことがある。ボディモーションデータは、時間の経過に伴って随時生成される。例えば、ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、ボディモーションデータは、アクターA1及びアクターA2の体の動きを時系列的にデジタルデータとして表現することができる。図示の実施形態においては、モーションセンサ31a~31f及びモーションセンサ32a~32fは、アクターA1及びアクターA2の各々の左右の手足、腰、及び頭部に装着されているため、モーションセンサ31a~31f及びモーションセンサ32a~32fの検出情報に基づいて、アクターA1及びアクターA2の概ね全身の位置及び向きを経時的にデジタル表現することが可能である。ボディモーションデータは、例えば、モデルデータ23aに含まれるリグデータを構成する骨(ボーン)の位置及び回転角度を規定することができる。 The body motion data generator 21a generates first body motion data for each part of the body of the actor A1 based on the information detected by each of the motion sensors 31a to 31f, and also detects each of the motion sensors 32a to 32f. Based on the information, second body motion data is generated that is a digital representation of the position and orientation of each part of actor A2's body. In this specification, the first body motion data and the second body motion data may be collectively referred to simply as "body motion data". Body motion data is generated as needed over time. For example, body motion data may be generated every predetermined sampling time interval. In this way, the body motion data can represent the body motions of actors A1 and A2 in time series as digital data. In the illustrated embodiment, the motion sensors 31a-31f and the motion sensors 32a-32f are attached to the left and right limbs, waist, and head of each of the actors A1 and A2. Based on the information detected by the motion sensors 32a-32f, it is possible to digitally represent the position and orientation of the entire body of the actor A1 and the actor A2 over time. The body motion data can define, for example, the positions and rotation angles of the bones that make up the rig data included in the model data 23a.

フェイスモーションデータ生成部21bは、カメラ37aの撮像データに基づいて、アクターA1の顔の動きのデジタル表現である第1フェイスモーションデータを生成し、また、カメラ38aの各々の撮像データに基づいて、アクターA2の顔の動きのデジタル表現である第2フェイスモーションデータを生成する。本明細書では、第1フェイスモーションデータ及び第2フェイスモーションデータを総称して単に「フェイスモーションデータ」と呼ぶことがある。フェイスモーションデータは、時間の経過に伴って随時生成される。例えば、フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、フェイスモーションデータは、アクターA2及びアクターA2の顔の動き(表情の変化)を時系列的にデジタル表現することができる。 The face motion data generation unit 21b generates first face motion data, which is a digital representation of the movement of the face of the actor A1, based on the imaging data of the camera 37a, and based on the imaging data of each camera 38a, Generate second face motion data that is a digital representation of the facial movements of actor A2. In this specification, the first face motion data and the second face motion data may be collectively referred to simply as "face motion data". Face motion data is generated as needed over time. For example, face motion data may be generated every predetermined sampling time interval. In this way, the face motion data can digitally express the movement of the actor A2 and the face of the actor A2 (change in facial expression) in chronological order.

アニメーション生成部21cは、ボディモーションデータ生成部21aによって生成されたボディモーションデータ及びフェイスモーションデータ生成部21bによって生成されたフェイスモーションデータを、モデルデータ23aに含まれる所定のモデルデータに適用することにより、仮想空間内で動き、また、表情が変化するキャラクタオブジェクトのアニメーションを生成するように構成される。具体的には、アニメーション生成部21cは、アクターA1に関する第1ボディモーションデータ及び第1フェイスモーションデータに基づいて、アクターA1の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成し、アクターA2に関する第2ボディモーションデータ及び第2フェイスモーションデータに基づいて、アクターA2の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。本明細書においては、アクターA1の動き及び表情に基づいて生成されたキャラクタオブジェクトを「第1キャラクタオブジェクト」といい、アクターA2の動き及び表情に基づいて悪生成されたキャラクタオブジェクトを「第2キャラクタオブジェクト」ということがある。 The animation generator 21c applies the body motion data generated by the body motion data generator 21a and the face motion data generated by the face motion data generator 21b to predetermined model data included in the model data 23a. , is configured to generate an animation of a character object that moves in a virtual space and whose facial expression changes. Specifically, based on the first body motion data and the first face motion data relating to actor A1, the animation generation unit 21c generates animation of the character object that moves in synchronization with the movement of the body and facial expression of actor A1, Based on the second body motion data and the second face motion data relating to actor A2, animation of a character object that moves in synchronization with the movement of the body and facial expression of actor A2 can be generated. In this specification, the character object generated based on the movement and expression of actor A1 will be referred to as a "first character object", and the character object generated based on the movement and expression of actor A2 will be referred to as a "second character object". It is called an object.

動画生成部21dは、オブジェクトデータ23bを用いて仮想空間を構築し、この仮想空間と、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。第1キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA1の位置に合致するように仮想空間内に配置され、第2キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA2の位置に合致するように仮想空間内に配置される。したがって、トラッキングセンサ36aの位置または向きを変更することにより、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向きを変化させることができる。 The moving image generation unit 21d constructs a virtual space using the object data 23b, and generates the virtual space, the animation of the first character object corresponding to the actor A1, and the animation of the second character object corresponding to the actor A2. Generate a video containing The first character object is placed in virtual space to match the position of actor A1 with respect to tracking sensor 36a, and the second character object is placed in virtual space to match the position of actor A2 with respect to tracking sensor 36a. be done. Therefore, by changing the position or orientation of the tracking sensor 36a, the positions and orientations of the first character object and the second character object in the virtual space can be changed.

一態様において、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想空間を構築する。例えば、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想カメラの設定情報(仮想空間内での位置、注視位置、注視方向、及び画角)を定め、この仮想カメラの設定情報に基づいて仮想空間全体のうちの描画領域を定め、この仮想空間の描画領域を表示するための動画情報を生成する。 In one aspect, the video generator 21d builds a virtual space based on tracking information from the tracking sensor 36a. For example, the moving image generation unit 21d determines virtual camera setting information (position in the virtual space, gaze position, gaze direction, and angle of view) based on the tracking information of the tracking sensor 36a, and uses this virtual camera setting information. Based on this, a drawing area in the entire virtual space is determined, and moving image information for displaying the drawing area of the virtual space is generated.

動画生成部21dは、トラッキングセンサ36aのトラッキング情報に代えて、または、トラッキングセンサ36aのトラッキング情報に加えて、トラッキングセンサ36bのトラッキング情報に基づいて、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向き、並びに、仮想カメラの設定情報を定めるように構成されてもよい。動画生成部21dは、トラッキングセンサ36a及びトラッキングセンサ36bのうちから選択されたセンサ(本明細書において、「アクティブセンサ」と呼ぶことがある。)のトラッキング情報に基づいて仮想カメラの設定情報を定めるように構成されてもよい。 Instead of the tracking information of the tracking sensor 36a, or in addition to the tracking information of the tracking sensor 36a, the moving image generation unit 21d generates the first character object and the second character in the virtual space based on the tracking information of the tracking sensor 36b. It may be configured to define the position and orientation of the object, as well as setting information for the virtual camera. The moving image generation unit 21d determines the setting information of the virtual camera based on the tracking information of the sensor selected from the tracking sensor 36a and the tracking sensor 36b (in this specification, may be referred to as "active sensor"). It may be configured as

動画生成部21dは、生成した動画に、スタジオユニット30のマイクから取得したアクターA1及びアクターA2の音声を合成することができる。 The moving image generator 21d can synthesize the voices of the actors A1 and A2 acquired from the microphones of the studio unit 30 with the generated moving image.

以上のようにして、動画生成部21dは、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーション、並びに、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションを生成し、このアニメーションにアクターA1及びアクターA2の音声が合成された配信用の動画を生成することができる。 As described above, the animation generation unit 21d generates animation of the first character object that moves in synchronization with the movement of the body and facial expression of actor A1, and animation of the second character object that moves in synchronization with the movement of the body and facial expression of actor A2. Animation for distribution can be generated by generating an animation of an object and synthesizing the voices of actors A1 and A2 with this animation.

動画配信部21eは、動画生成部21dにおいて生成された動画を配信する。この動画は、ネットワーク50を介してクライアント装置10a~クライアント装置10c及びこれら以外のクライアント装置に配信される。受信された動画は、クライアント装置10a~クライアント装置10cにおいて再生される。 The moving image distribution unit 21e distributes the moving image generated by the moving image generating unit 21d. This moving image is distributed to the client devices 10a to 10c and other client devices via the network 50. FIG. The received moving images are reproduced on the client devices 10a to 10c.

この動画は、スタジオルームR内に設置されているクライアント装置(不図示)に配信され、このクライアント装置から短焦点プロジェクタを介してスクリーンSに投影されてもよい。また、この動画は、サポーターコンピュータ40に配信されてもよい。これにより、サポーターB1及びサポーターB2は、配信されている動画の視聴画面を確認することができる。 This moving image may be distributed to a client device (not shown) installed in the studio room R and projected onto the screen S from this client device via a short-focus projector. Also, this moving image may be distributed to the supporter computer 40 . As a result, the supporter B1 and the supporter B2 can confirm the viewing screen of the distributed video.

サーバ装置20からクライアント装置10aに配信され、このクライアント装置10aにおいて再生されている動画の表示例が図7に示されている。図示のように、サーバ装置20から配信された動画の表示画像70は、クライアント装置10aのディスプレイに表示される。このクライアント装置10aに表示されている表示画像70は、スタジオを模した仮想空間内に、アクターA1に対応するキャラクタオブジェクト71Aと、アクターA2に対応するキャラクタオブジェクト71Bと、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bが立つスタジオフロアに対応するフロアオブジェクト72cと、このフロアオブジェクト72c上に置かれたテーブルを示すテーブルオブジェクト72aと、フロアオブジェクト72c上に置かれたスタジオセットを示すスタジオセットオブジェクト72bと、が含まれている。 FIG. 7 shows a display example of a moving image distributed from the server device 20 to the client device 10a and reproduced in the client device 10a. As shown in the drawing, a moving image display image 70 distributed from the server device 20 is displayed on the display of the client device 10a. A display image 70 displayed on the client device 10a includes a character object 71A corresponding to an actor A1, a character object 71B corresponding to an actor A2, a character object 71A and a character object 71B in a virtual space modeled after a studio. a floor object 72c corresponding to the studio floor on which the floor object 72c stands, a table object 72a representing the table placed on this floor object 72c, and a studio set object 72b representing the studio set placed on the floor object 72c. ing.

テーブルオブジェクト72a、スタジオセットオブジェクト72b、及びフロアオブジェクト72cは、ギフトオブジェクトではなく、オブジェクトデータ23bに含まれている仮想空間を構築するためのオブジェクトである。図示の実施形態において、配信動画に含まれる仮想空間は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bがパフォーマンスを行うステージを模した空間となっている。フロアオブジェクト72cは、このステージのフロアに対応する。フロアオブジェクト72cは、仮想空間における水平方向に延伸している。スタジオセットオブジェクト72bは、このステージにおけるステージセットに対応する。図示の実施形態においては、スタジオセットオブジェクト72bは平面視において円弧状に延伸しており、フロアの外縁を画定している。 The table object 72a, the studio set object 72b, and the floor object 72c are not gift objects, but objects for constructing the virtual space included in the object data 23b. In the illustrated embodiment, the virtual space included in the delivered moving image is a space modeled after a stage where the character objects 71A and 71B perform. Floor object 72c corresponds to the floor of this stage. The floor object 72c extends horizontally in the virtual space. Studio set object 72b corresponds to the stage set in this stage. In the illustrated embodiment, the studio set object 72b extends in an arc in plan view and defines the outer edge of the floor.

キャラクタオブジェクト71Aは、アクターA1の第1ボディモーションデータ及び第1フェイスモーションデータをモデルデータ23aに含まれているアクターA1用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Aは、第1ボディモーションデータ及び第1フェイスモーションデータに基づいてモーション制御される。キャラクタオブジェクト71Bは、アクターA2の第2ボディモーションデータ及び第2フェイスモーションデータを、モデルデータ23aに含まれているアクターA2用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Bは、第2ボディモーションデータ及び第2フェイスモーションデータに基づいてモーション制御される。したがって、キャラクタオブジェクト71Aは、アクターA1の体及び表情の動きに同期して画面内で動くように制御され、キャラクタオブジェクト71Bは、アクターA2の体及び表情の動きに同期して画面内で動くように制御される。 The character object 71A is generated by applying the first body motion data and the first face motion data of the actor A1 to the model data for the actor A1 included in the model data 23a. The character object 71A is motion-controlled based on the first body motion data and the first face motion data. The character object 71B is generated by applying the second body motion data and the second face motion data of the actor A2 to the model data for the actor A2 included in the model data 23a. The character object 71B is motion-controlled based on the second body motion data and the second face motion data. Therefore, the character object 71A is controlled to move within the screen in synchronization with the movement of the body and facial expression of the actor A1, and the character object 71B is controlled to move within the screen in synchronization with the movement of the body and facial expression of the actor A2. controlled by

上記のように、サーバ装置20からの配信動画は、サポーターコンピュータ40に配信されてもよい。サポーターコンピュータ40に配信された動画は、サポーターコンピュータ40において図7と同様に表示される。サポーターB1及びサポーターB2は、サポーターコンピュータ40において再生されている動画を見て、スタジオユニット30の構成要素の設定を変更することができる。一態様において、サポーターB1及びサポーターB2は、配信中の動画においてキャラクタオブジェクト71A及びキャラクタオブジェクト71Bのアングルを変更したい場合には、トラッキングセンサ36aの向きの変更を指示する指示信号をサポーターコンピュータ40からトラッキングセンサ36aに送信することができる。トラッキングセンサ36aは、当該指示信号に応じて、向きを変更することができる。例えば、トラッキングセンサ36aは、スタンドにその軸周りにアクチュエータを内蔵した回動機構を介して回動可能に取り付けられており、トラッキングセンサ36aが向きの変更を指示する指示信号を受信すると、当該指示信号に基づいて当該回動機構のアクチュエータが駆動され、当該指示信号に応じた角度だけトラッキングセンサ36aが回動されてもよい。一態様において、サポーターB1及びサポーターB2は、トラッキングセンサ36aからのトラッキング情報に代えて、トラッキングセンサ36bからのトラッキング情報を用いるための指示をサポーターコンピュータ40からトラッキングセンサ36a及びトラッキングセンサ36bに送信してもよい。 As described above, the distribution video from the server device 20 may be distributed to the supporter computer 40 . The video delivered to the supporter computer 40 is displayed on the supporter computer 40 in the same manner as in FIG. The supporter B1 and the supporter B2 can change the settings of the components of the studio unit 30 by viewing the moving image being reproduced on the supporter computer 40 . In one aspect, when the supporter B1 and the supporter B2 want to change the angle of the character object 71A and the character object 71B in the moving image being distributed, the supporter computer 40 sends an instruction signal to change the direction of the tracking sensor 36a for tracking. It can be sent to sensor 36a. The tracking sensor 36a can change its orientation in accordance with the instruction signal. For example, the tracking sensor 36a is rotatably attached to the stand via a rotation mechanism that incorporates an actuator around its axis, and when the tracking sensor 36a receives an instruction signal instructing a change in orientation, the instruction An actuator of the rotation mechanism may be driven based on the signal, and the tracking sensor 36a may be rotated by an angle corresponding to the instruction signal. In one aspect, the supporter B1 and the supporter B2 send an instruction from the supporter computer 40 to the tracking sensor 36a and the tracking sensor 36b to use the tracking information from the tracking sensor 36b instead of the tracking information from the tracking sensor 36a. good too.

一態様において、サポーターB1及びサポーターB2は、サポーターコンピュータ40にて再生されている動画を見てアクターA1またはアクターA2に対する指示が必要と判断した場合には、その指示を示すメッセージをサポーターコンピュータ40に入力し、このメッセージをディスプレイ39に出力することができる。例えば、サポーターB1及びサポーターB2は、このディスプレイ39に表示されるメッセージを通じて、アクターA1またはアクターA2に対して立ち位置の変更を指示することができる。 In one aspect, when the supporter B1 and the supporter B2 see the moving image being played back on the supporter computer 40 and determine that an instruction to the actor A1 or the actor A2 is necessary, they send a message indicating the instruction to the supporter computer 40. can be entered and this message can be output to the display 39 . For example, supporter B1 and supporter B2 can instruct actor A1 or actor A2 to change the standing position through a message displayed on this display 39 .

表示要求処理部21fは、視聴ユーザのクライアント装置からギフトオブジェクトの表示要求を受け付け、当該表示要求に応じた処理を行う。各視聴ユーザは、自らのクライアント装置を操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。例えば、第1視聴ユーザは、クライアント装置10aを操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。ギフトオブジェクトの表示要求には、視聴ユーザのユーザIDと、表示を要求するオブジェクトを特定する識別情報(オブジェクトID)が含まれてもよい。 The display request processing unit 21f receives a gift object display request from the viewing user's client device, and performs processing according to the display request. Each viewing user can transmit a gift object display request to the server device 20 by operating his/her own client device. For example, the first viewing user can transmit a gift object display request to the server device 20 by operating the client device 10a. The gift object display request may include the user ID of the viewing user and identification information (object ID) that specifies the object requested to be displayed.

上述のように、ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。エフェクトオブジェクト及び通常オブジェクトは、第1オブジェクトの例である。また、エフェクトオブジェクトまたは通常オブジェクトの表示を要求する表示要求は、第1表示要求の例である。 As described above, gift objects can include effect objects, normal objects, and decoration objects. Effect objects and normal objects are examples of first objects. A display request requesting display of an effect object or a normal object is an example of a first display request.

一態様において、表示要求処理部21fは、視聴ユーザから特定のエフェクトオブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求されたエフェクトオブジェクトを動画の表示画像70に表示させるための処理を行う。例えば、紙吹雪に対応するエフェクトオブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図8に示すように、当該表示要求に基づいて紙吹雪を示すエフェクトオブジェクト73を表示画像70に表示させる。 In one aspect, when the display request processing unit 21f receives a display request for a specific effect object from the viewing user, the display request processing unit 21f performs processing for displaying the requested effect object in the display image 70 of the moving image based on the display request. process. For example, when a request is made to display an effect object corresponding to confetti, the display request processing unit 21f displays an effect object 73 representing confetti on the display image 70 based on the display request, as shown in FIG. to display.

一態様において、表示要求処理部21fは、視聴ユーザから特定の通常オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された通常オブジェクトを動画70に表示させるための処理を行う。例えば、熊のぬいぐるみを示す通常オブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図8に示すように、当該表示要求に基づいて熊のぬいぐるみを示す通常オブジェクト74を表示画像70に表示させる。 In one aspect, when the display request processing unit 21f receives a display request for a specific normal object from the viewing user, the display request processing unit 21f performs processing for displaying the requested normal object in the moving image 70 based on the display request. . For example, when a display request for a normal object representing a stuffed bear is made, the display request processing unit 21f displays a normal object 74 representing a stuffed bear as a display image based on the display request, as shown in FIG. 70 to display.

通常オブジェクト74の表示要求には、仮想空間内における当該通常オブジェクト74の表示位置を指定する表示位置指定パラメータが含まれてもよい。この場合、表示要求処理部21fは、仮想空間内の表示位置指定パラメータによって指定された位置に通常オブジェクト74を表示することができる。例えば、表示位置指定パラメータによって、テーブルを示すテーブルオブジェクト72aの上を通常オブジェクト74の表示位置として指定することができる。視聴ユーザは、表示位置指定パラメータを用いることにより、動画70に含まれているキャラクタオブジェクト71A、キャラクタオブジェクト71B、ギフトオブジェクト、及びこれら以外のオブジェクトの表示を見て、通常オブジェクトを表示したい位置を指定することができる。 The display request for the normal object 74 may include a display position designation parameter that designates the display position of the normal object 74 in the virtual space. In this case, the display request processing unit 21f can display the normal object 74 at the position designated by the display position designation parameter in the virtual space. For example, the display position of the normal object 74 can be specified on the table object 72a representing the table by the display position specification parameter. By using the display position specifying parameter, the viewing user sees the display of the character object 71A, the character object 71B, the gift object, and other objects included in the moving image 70, and specifies the position where the normal object is to be displayed. can do.

一態様において、通常オブジェクト74は、動画の表示画像70内で移動するように表示されてもよい。例えば、通常オブジェクト74は、画面の上から下に向かって落下するように表示されてもよい。この場合、通常オブジェクト74は、落下開始から動画70を構成する仮想空間のフロアまで落下している間当該表示画像70内に表示され、フロアに落下した後に当該表示画像70から消滅してもよい。視聴ユーザは、落下する通常オブジェクト74を落下開始時から落下終了時まで見ることができる。通常オブジェクト74の画面内での移動方向は任意に設定され得る。例えば、通常オブジェクト74は、動画70の左から右へ、右から左へ、左上から左下へ、またはこれら以外の方向に移動するように表示画像70において表示されてもよい。通常オブジェクト74は、様々な軌道上を移動することができる。例えば、通常オブジェクト74は、直線軌道上、円軌道上、楕円軌道上、螺旋軌道上、またはこれら以外の軌道上を移動することができる。視聴ユーザは、通常オブジェクトの表示要求に、表示位置指定パラメータに加えてまたは表示位置指定パラメータに代えて、通常オブジェクト74の移動方向を指定する移動方向パラメータ及び通常オブジェクト74が移動する軌道を指定する軌道パラメータの少なくとも一方を含めることができる。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより小さいもの(例えば、エフェクトオブジェクト73の紙吹雪の紙片)は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに、その一部又は全部を重複させて表示してもよい。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクトと重複しない位置に表示される。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクト71Aまたはキャラクタオブジェクト71Bの少なくとも一方と重複する場合には、当該重複して表示されるキャラクタオブジェクトの後ろに表示される。 In one aspect, the regular object 74 may be displayed as moving within the animated display image 70 . For example, the normal object 74 may be displayed as falling from top to bottom of the screen. In this case, the normal object 74 may be displayed in the display image 70 while falling from the start of falling to the floor of the virtual space forming the moving image 70, and disappear from the display image 70 after falling to the floor. . The viewing user can see the falling normal object 74 from the start of falling to the end of falling. The moving direction of the normal object 74 within the screen can be arbitrarily set. For example, the normal object 74 may be displayed in the displayed image 70 moving from left to right, from right to left, from top left to bottom left, or in other directions in the animation 70 . A normal object 74 can move on various trajectories. For example, the normal object 74 may move on a linear trajectory, a circular trajectory, an elliptical trajectory, a helical trajectory, or some other trajectory. In addition to or instead of the display position designation parameter, the viewing user designates a movement direction parameter for designating the movement direction of the normal object 74 and the trajectory along which the normal object 74 moves in addition to or instead of the display position designation parameter in the display request for the normal object. At least one of the trajectory parameters can be included. In one embodiment, an effect object and a normal object whose size in the virtual space is smaller than a reference size (for example, a confetti piece of effect object 73) is assigned to character object 71A and character object 71B. A part or all of them may be overlapped and displayed. In one embodiment, an effect object and a normal object whose size in the virtual space is larger than a reference size (for example, the normal object 74 (stuffed bear)) is displayed at a position that does not overlap with the character object. . In one embodiment, among effect objects and normal objects, an object whose size in virtual space is larger than a reference size (for example, normal object 74 (stuffed bear)) is at least one of character object 71A and character object 71B. , it is displayed behind the overlapping character object.

一態様において、表示要求処理部21fは、視聴ユーザから特定の装飾オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された装飾オブジェクトを候補リスト23dに追加する。装飾オブジェクトの表示要求は、第2表示要求の例である。例えば、表示要求処理部21fは、視聴ユーザから表示要求されている特定の装飾オブジェクトを識別する識別情報(オブジェクトID)を、当該視聴ユーザのユーザIDと対応付けて、候補リスト23dに記憶することができる(図4参照)。装飾オブジェクトの表示要求が複数なされた場合には、当該複数の表示要求の各々について、表示要求を行った視聴ユーザのユーザIDと、当該視聴ユーザによって表示要求されている装飾オブジェクトの装飾オブジェクトIDとが対応付けて候補リスト23dに記憶される。 In one aspect, when the display request processing unit 21f receives a display request for a specific decoration object from the viewing user, the display request processing unit 21f adds the decoration object requested to be displayed to the candidate list 23d based on the display request. A display request for a decoration object is an example of a second display request. For example, the display request processing unit 21f stores identification information (object ID) for identifying a specific decorative object requested by the viewing user to be associated with the user ID of the viewing user in the candidate list 23d. (See Figure 4). When a plurality of decoration object display requests are made, for each of the plurality of display requests, the user ID of the viewing user who made the display request and the decoration object ID of the decoration object requested to be displayed by the viewing user. are associated with each other and stored in the candidate list 23d.

一態様において、装飾オブジェクト選択部21gは、候補リスト23dに含まれている装飾オブジェクトのうちの一又は複数が選択されたことに応じて、当該選択された装飾オブジェクトを動画の表示画像70に表示させるための処理を行う。本明細書では、候補リスト23dから選択された装飾オブジェクトを「選択装飾オブジェクト」と呼ぶことがある。 In one aspect, when one or more of the decoration objects included in the candidate list 23d are selected, the decoration object selection unit 21g displays the selected decoration objects in the moving image display image 70. process to make it work. In this specification, the decoration object selected from the candidate list 23d is sometimes called "selected decoration object".

候補リスト23dからの装飾オブジェクトの選択は、例えば、サポーターB1及びサポーターB2がサポーターコンピュータ40を操作することによってなされる。一態様において、サポーターコンピュータ40には、装飾オブジェクト選択画面が表示される。図10は、一態様における装飾オブジェクト選択画面80の例を示す。この装飾オブジェクト選択画面80は、例えば、サポーターコンピュータ40のディスプレイに表示される。装飾オブジェクト選択画面80は、例えば、表形式で候補リスト23dに含まれている複数の装飾オブジェクトの各々を表示する。図示のように、一態様における装飾オブジェクト選択画面80は、装飾オブジェクトの種類を表示する第1列81と、装飾オブジェクトの画像を表示する第2列82と、装飾オブジェクトが関連付けられているキャラクタオブジェクトの部位を表示する第3列83と、を有する。また、装飾オブジェクト選択画面80には、各装飾オブジェクトを選択するための選択ボタン84a~84cが表示されている。このように、装飾オブジェクト選択画面80には、選択装飾オブジェクトの候補となる装飾オブジェクトが表示される。 A decoration object is selected from the candidate list 23d by operating the supporter computer 40 by the supporter B1 and the supporter B2, for example. In one aspect, the supporter computer 40 displays a decoration object selection screen. FIG. 10 shows an example of a decoration object selection screen 80 in one aspect. This decoration object selection screen 80 is displayed on the display of the supporter computer 40, for example. The decoration object selection screen 80 displays each of the plurality of decoration objects included in the candidate list 23d in tabular form, for example. As shown, the decoration object selection screen 80 in one aspect includes a first column 81 displaying the type of decoration object, a second column 82 displaying the image of the decoration object, and a character object associated with the decoration object. and a third column 83 displaying the parts of the . The decoration object selection screen 80 also displays selection buttons 84a to 84c for selecting each decoration object. In this way, the decoration object selection screen 80 displays decoration objects that are candidates for the selection decoration object.

サポーターB1及びサポーターB2は、この装飾オブジェクト選択画面80に含まれている装飾オブジェクトのうちの一又は複数を選択することができる。例えば、サポーターB1及びサポーターB2は、選択ボタン84aを選択することにより、カチューシャを選択することができる。装飾オブジェクト選択部21gによってカチューシャが選択されたことが検出されると、表示要求処理部21fは、図9に示すように、選択されたカチューシャを示す選択装飾オブジェクト75を動画の表示画面70に表示させる。選択装飾オブジェクト75は、キャラクタオブジェクトの特定の部位と関連付けて、表示画像70に表示される。選択装飾オブジェクト75は、キャラクタオブジェクトのうちの当該特定の部位に接するように表示されてもよい。例えば、カチューシャを示す選択75は、キャラクタオブジェクトの頭部と対応付けられているため、図9に示されているように、キャラクタオブジェクト71Aの頭部に装着される。装飾オブジェクトは、キャラクタオブジェクトの当該特定部位の動きに付随して動くように、表示画面70に表示されてもよい。例えば、カチューシャを装着したキャラクタオブジェクト71Aの頭部が動くと、あたかもカチューシャがキャラクタオブジェクト71Aの頭部に装着されているかのごとく、カチューシャを示す選択装飾オブジェクト75もキャラクタオブジェクト71Aの頭部に付随して動く。 The supporter B1 and the supporter B2 can select one or more decoration objects included in the decoration object selection screen 80. FIG. For example, the supporter B1 and the supporter B2 can select headbands by selecting the selection button 84a. When the decoration object selection unit 21g detects that a headband has been selected, the display request processing unit 21f displays a selected decoration object 75 representing the selected headband on the moving image display screen 70, as shown in FIG. Let The selected decoration object 75 is displayed on the display image 70 in association with a specific part of the character object. The selected decoration object 75 may be displayed so as to be in contact with the specific portion of the character object. For example, the selection 75 indicating a headband is associated with the head of the character object, so it is worn on the head of the character object 71A as shown in FIG. The decoration object may be displayed on the display screen 70 so as to move along with the movement of the specific part of the character object. For example, when the head of the character object 71A wearing the headband moves, the selected decoration object 75 representing the headband is attached to the head of the character object 71A as if the headband were worn on the head of the character object 71A. move.

選択装飾オブジェクト75は、キャラクタオブジェクト71Aではなく、キャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。選択装飾オブジェクト75は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。 The selected decoration object 75 may be displayed on the display screen 70 in association with the character object 71B instead of the character object 71A. The selected decoration object 75 may be displayed on the display screen 70 in association with the character object 71A and the character object 71B.

装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトの表示要求を行ったユーザを特定可能な情報を含まないように構成されてもよい。これにより、装飾オブジェクトの選択の際に、選択者が特定のユーザを優遇することを防止できる。 The decoration object selection screen 80 may be configured so as not to include information that can identify the user who owns each decoration object or the user who has requested the display of each decoration object. This prevents the selector from giving preferential treatment to a particular user when selecting a decoration object.

一実施形態において、装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザに関する情報を表示するようにしてもよい。例えば、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザがこれまでに装飾オブジェクトの表示要求を行った回数と選択された回数(例えば、これまでに装飾オブジェクトの表示要求を5回行ってそのうち2回は選択されたことを示す情報)、当該ユーザがキャラクタオブジェクト71A及びキャラクタオブジェクトBの少なくとも一方の動画を視聴した視聴回数、当該ユーザが動画配信システム1における動画(キャラクタオブジェクト71A及びキャラクタオブジェクトBの出演有無を問わない)の視聴回数、当該ユーザによるギフトオブジェクトの購入金額、当該ユーザによるオブジェクトの購入回数、当該ユーザが保有する動画配信システム1内で使用できるポイント、当該ユーザの動画配信システム1におけるレベル、及びこれら以外の各装飾オブジェクトの表示要求を行ったユーザに関する各種情報を表示してもよい。当該実施形態によれば、装飾オブジェクトの表示要求を行ったユーザのこれまでの動画配信システム1における行動や視聴履歴に基づいて、装飾オブジェクトの選択を行うことができる。 In one embodiment, the decoration object selection screen 80 may display information about the user who owns each decoration object or the user who has requested the display of each decoration object. For example, for each decoration object, the number of times the decoration object has been requested to be displayed and the number of times the decoration object has been selected by the user who requested the display of the decoration object (for example, display requests for the decoration object have been made five times) information indicating that two of them have been selected), the number of times the user has viewed the video of at least one of the character object 71A and the character object B, the number of times the user has viewed the video in the video distribution system 1 (the character object 71A and the character (regardless of whether or not object B appears), the amount of gift objects purchased by the user, the number of times the object was purchased by the user, the points that can be used in the video distribution system 1 owned by the user, and the user's video distribution Various information related to the level in the system 1 and the user who requested the display of each decorative object other than these may be displayed. According to this embodiment, it is possible to select a decoration object based on the past actions and viewing history in the moving image distribution system 1 of the user who requested the display of the decoration object.

一実施形態において、装飾オブジェクトの表示には、重複を排除するための制約が課されてもよい。例えば、キャラクタオブジェクト71Aに関し、その特定の部位に関連付けられた装飾オブジェクトが既に選択されている場合には、当該特定の部位に関連付けられた他の装飾オブジェクトの選択が禁止されてもよい。図7の実施形態に示されているように、キャラクタオブジェクト71Bの「頭部」に関連付けられているカチューシャが既に選択されている場合には、「頭部」に関連付けられているそれ以外の装飾オブジェクト(例えば、頭部に関連付けられている「帽子」を表す装飾オブジェクト)は、装飾オブジェクト選択画面80に表示されないか、または、当該帽子を表す装飾オブジェクトを選択するための選択ボタンが選択画面80において選択不能とされてもよい。当該実施形態によれば、装飾オブジェクトがキャラクタオブジェクトの特定の部位に重複して表示されることを防止できる。 In one embodiment, the display of decoration objects may be constrained to eliminate duplication. For example, regarding the character object 71A, if a decoration object associated with a specific part has already been selected, selection of other decoration objects associated with the specific part may be prohibited. As shown in the embodiment of FIG. 7, if the headband associated with the "head" of the character object 71B has already been selected, other decorations associated with the "head" The object (for example, a decoration object representing a “hat” associated with the head) is not displayed on the decoration object selection screen 80, or the selection button for selecting the decoration object representing the hat is not displayed on the selection screen 80. may be disabled. According to this embodiment, it is possible to prevent the decoration object from being displayed in duplicate on a specific part of the character object.

装飾オブジェクト選択画面80は、サポーターコンピュータ40に代えて、または、サポーターコンピュータ40に加えて、他の装置に表示されてもよい。例えば、装飾オブジェクト選択画面80は、スタジオルームR内のディスプレイ39及びスクリーンSの少なくとも一方に表示されてもよい。この場合、アクターA1及びアクターA2が当該ディスプレイ39又はスクリーンSに表示された装飾オブジェクト選択画面80に基づいて、所望の装飾オブジェクトを選択することができる。アクターA1及びアクターA2による装飾オブジェクトの選択は、例えば、コントローラ33a、コントローラ33b、コントローラ34a、またはコントローラ34bを操作することによりなされ得る。 The decoration object selection screen 80 may be displayed on another device instead of the supporter computer 40 or in addition to the supporter computer 40 . For example, the decoration object selection screen 80 may be displayed on at least one of the display 39 and the screen S in the studio room R. In this case, the actor A1 and the actor A2 can select a desired decoration object based on the decoration object selection screen 80 displayed on the display 39 or screen S. The selection of decoration objects by the actors A1 and A2 can be made by operating the controller 33a, the controller 33b, the controller 34a, or the controller 34b, for example.

一態様において、オブジェクト購入処理部21hは、動画の視聴ユーザからの要求に応じて、当該動画に関連して購入可能な複数のギフトオブジェクトの各々の購入情報を当該視聴ユーザのクライアント装置(例えば、クライアント装置10a)に送信する。各ギフトオブジェクトの購入情報には、当該ギフトオブジェクトの種類(エフェクトオブジェクト、通常オブジェクト、または装飾オブジェクト)、当該ギフトオブジェクトの画像、当該ギフトオブジェクトの価格、及びこれら以外のギフトオブジェクトの購入に必要な情報が含まれ得る。視聴ユーザは、クライアント装置10aに表示されているギフトオブジェクトの購入情報に基づいて、購入するギフトオブジェクトを選択することができる。購入対象のギフトオブジェクトの選択は、クライアント装置10aの操作により行われてもよい。購入対象のギフトオブジェクトが視聴ユーザによって選択されると、当該ギフトオブジェクトの購入要求がサーバ装置20に送信される。オブジェクト購入処理部21hは、当該購入要求に基づいて、決済処理を行う。この決済処理が完了すると、当該購入されたギフトオブジェクトは、当該視聴ユーザによって保有される。この場合、保有リスト23cに、購入した視聴ユーザのユーザIDと対応づけて、購入されたギフトオブジェクトのオブジェクトIDが記憶される。 In one aspect, the object purchase processing unit 21h sends purchase information for each of a plurality of gift objects purchasable in relation to the moving image in response to a request from the viewing user of the moving image. Send to the client device 10a). The purchase information of each gift object includes the type of the gift object (effect object, normal object, or decoration object), the image of the gift object, the price of the gift object, and other information necessary for purchasing the gift object. can be included. The viewing user can select a gift object to purchase based on the purchase information of the gift object displayed on the client device 10a. The selection of the gift object to be purchased may be performed by operating the client device 10a. When a gift object to be purchased is selected by the viewing user, a purchase request for the gift object is transmitted to server device 20 . The object purchase processing unit 21h performs settlement processing based on the purchase request. When this payment processing is completed, the purchased gift object is owned by the viewing user. In this case, the object ID of the purchased gift object is stored in the possession list 23c in association with the user ID of the viewing user who made the purchase.

購入可能なギフトオブジェクトは、動画ごとに異なっていてもよい。購入可能なギフトオブジェクトは、複数の動画において購入可能であってもよい。つまり、購入可能なギフトオブジェクトには、各動画に固有の固有ギフトオブジェクトと、複数の動画において購入可能な共通ギフトオブジェクトと、が含まれてもよい。例えば、紙吹雪を示すエフェクトオブジェクトは、複数の動画において購入可能な共通ギフトオブジェクトであってもよい。 The purchasable gift object may differ from movie to movie. A purchasable gift object may be purchasable in multiple videos. That is, the purchasable gift objects may include unique gift objects specific to each animation and common gift objects purchasable in multiple animations. For example, an effect object showing confetti may be a common gift object that can be purchased in multiple videos.

一態様においては、所定の動画を視聴中にエフェクトオブジェクトを購入した場合、当該エフェクトオブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象のエフェクトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。所定の動画を視聴中に通常オブジェクトを購入した場合、上記と同様に、当該通常オブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象の通常ギフトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。 In one aspect, when an effect object is purchased while watching a predetermined video, the effect object to be purchased is added to the video being watched in response to completion of payment processing for purchasing the effect object. May be displayed automatically. If a normal object is purchased while watching a predetermined video, in the same way as above, upon completion of the payment process for purchasing the normal object, the normal gift object to be purchased will be transferred to the video being watched. may be automatically displayed in

他の態様においては、購入対象のエフェクトオブジェクトについてオブジェクト購入処理部21hにおける決済処理が完了したことに応じて、決済完了通知がクライアント装置10aに送信され、当該クライアント装置10aにおいて、購入されたエフェクトオブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面が表示されてもよい。視聴ユーザが、当該購入されたエフェクトオブジェクトについて表示要求を行うことを選択した場合には、当該購入されたエフェクトオブジェクトの表示を要求する表示要求が、当該視聴ユーザのクライアント装置から表示要求処理部21fに送信され、表示要求処理部21fにおいて、当該購入対象のエフェクトオブジェクトを動画の表示画像70に表示させる処理が行われてもよい。購入対象が通常オブジェクトの場合にも、上記と同様に、購入された通常オブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面がクライアント装置10aに表示されてもよい。 In another aspect, in response to the completion of the payment processing in the object purchase processing unit 21h for the effect object to be purchased, a payment completion notification is sent to the client device 10a, and the purchased effect object is sent to the client device 10a. A confirmation screen may be displayed for asking the viewing user whether or not to request the display of . When the viewing user selects to make a display request for the purchased effect object, the display request requesting display of the purchased effect object is transmitted from the viewing user's client device to the display request processing unit 21f. , and the display request processing unit 21f may perform processing for displaying the effect object to be purchased on the display image 70 of the moving image. Even when the purchase target is a normal object, similarly to the above, a confirmation screen may be displayed on the client device 10a for the viewing user to confirm whether or not to request display of the purchased normal object.

上記のように、クライアント装置10a~10c及びこれら以外のクライアント装置は、配信動画に関する投稿メッセージ及びその他の投稿メッセージをサーバ装置20に送信することができる。投稿メッセージ処理部21iは、クライアント装置10a~10c及びこれら以外のクライアント装置から受信した投稿メッセージを動画に表示させるための処理を行うように構成される。 As described above, the client devices 10 a to 10 c and other client devices can transmit posted messages regarding distribution moving images and other posted messages to the server device 20 . The posted message processing unit 21i is configured to perform processing for displaying posted messages received from the client devices 10a to 10c and other client devices in a moving image.

一態様における投稿メッセージの表示態様について、図11から図16を参照して説明する。図11から図14は、クライアント装置10aにおいて再生されている動画に表示される投稿メッセージの表示例を示している。図15は、一実施形態における動画配信処理の流れを示すフロー図であり、図16は、配信動画における第1配信期間及び第2配信期間を説明するための概略図である。第1配信期間においては、動画内に第1表示領域76が含まれ、第2配信期間においては、動画内に第2表示領域77が含まれる。 A display mode of a posted message in one mode will be described with reference to FIGS. 11 to 16 . FIGS. 11 to 14 show display examples of posted messages displayed in moving images being reproduced on the client device 10a. FIG. 15 is a flow diagram showing the flow of moving image distribution processing in one embodiment, and FIG. 16 is a schematic diagram for explaining a first distribution period and a second distribution period in distributed moving images. The first display area 76 is included in the moving image during the first distribution period, and the second display area 77 is included in the moving image during the second distribution period.

図16に示されているように、一実施形態において、サーバ装置20は、時刻t1から時刻t2の間に動画を配信する。時刻t1が動画の配信開始時刻であり、時刻t2が動画の配信終了時刻である。図示の実施形態においては、動画の全配信期間のうち、時刻t1と時刻t3との間および時刻t4と時刻t2との間が第1配信期間であり、時刻t3と時刻t4との間が第2配信期間である。当該動画の配信開始時刻t1の後は、時刻t3まで第1配信期間161が続き、時刻t3において第1配信期間161から第2配信期間162に切り替えられ、次に、時刻t4において第2配信期間162から第1配信期間163に切り替えられ、第1配信期間163が配信終了時刻t2まで継続する。第1配信期間及び第2配信期間の順序、長さ、出現回数、及びそれ以外の第1配信期間及び第2配信期間に関する設定は任意に定め得る。 As shown in FIG. 16, in one embodiment, the server device 20 distributes moving images between time t1 and time t2. The time t1 is the video distribution start time, and the time t2 is the video distribution end time. In the illustrated embodiment, the first distribution period is between time t1 and time t3 and between time t4 and time t2, and the period between time t3 and time t4 is the first distribution period. 2 delivery period. After the delivery start time t1 of the moving image, the first delivery period 161 continues until time t3, at time t3 the first delivery period 161 is switched to the second delivery period 162, and then at time t4 the second delivery period. 162 is switched to the first distribution period 163, and the first distribution period 163 continues until the distribution end time t2. The order, length, number of appearances of the first distribution period and the second distribution period, and other settings related to the first distribution period and the second distribution period can be determined arbitrarily.

一実施形態において、第1配信期間と第2配信期間とは、所定の時刻が到来したときに切り替えられてもよい。例えば、図示の実施形態では、時刻t3において第1配信期間161から第2配信期間162に切り替えられ、次に、時刻t4において第2配信期間162から第1配信期間163に切り替えられている。一実施形態において、第1配信期間から第2配信期間への切り替え及び第2配信期間から第1配信期間への切り替えは、アクターA1によるコントローラ33aまたはコントローラ33bの操作に応じて行われてもよく、アクターA2によるコントローラ34aまたはコントローラ34bの操作に応じて行われてもよい。一実施形態において、第1配信期間から第2配信期間への切り替え及び第2配信期間から第1配信期間への切り替えは、サポーターB1またはサポーターB2によるサポーターコンピュータ40の操作に応じて行われてもよい。第1配信期間と第2配信期間との切り替えは、本明細書において明示的に説明されていない態様で行われてもよい。 In one embodiment, the first delivery period and the second delivery period may be switched when a predetermined time arrives. For example, in the illustrated embodiment, the first delivery period 161 is switched to the second delivery period 162 at time t3, and then the second delivery period 162 is switched to the first delivery period 163 at time t4. In one embodiment, the switching from the first distribution period to the second distribution period and the switching from the second distribution period to the first distribution period may be performed according to the operation of the controller 33a or the controller 33b by the actor A1. , in response to the operation of controller 34a or controller 34b by actor A2. In one embodiment, the switching from the first distribution period to the second distribution period and the switching from the second distribution period to the first distribution period may be performed according to the operation of the supporter computer 40 by the supporter B1 or B2. good. Switching between the first delivery period and the second delivery period may occur in ways not explicitly described herein.

図11及び図12は、第1配信期間における配信動画の表示画像70を示す。図11に示されている配信動画の表示画像70は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて定められた視点から見た仮想空間の画像を含む。つまり、この表示画像70は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bの位置を仮想的な視点として構築された仮想空間の画像である。このため、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは表示画像70において正面を向いている。 11 and 12 show the display image 70 of the delivered moving image in the first delivery period. The display image 70 of the delivered moving image shown in FIG. 11 includes an image of the virtual space seen from a viewpoint determined based on the tracking information of the tracking sensor 36b in front of the actors A1 and A2. In other words, the display image 70 is an image of a virtual space constructed with the position of the tracking sensor 36b in front of the actors A1 and A2 as a virtual viewpoint. Therefore, the character object 71A and the character object 71B face the front in the display image 70 .

図示の実施形態において、再生動画(またはその表示画像70)には、第1表示領域76が含まれている。 In the illustrated embodiment, the played video (or the displayed image 70 thereof) includes a first display area 76 .

一態様において、第1表示領域76は、動画生成部21dにより生成された動画にスーパーインポーズされる表示領域である。一態様において、第1表示領域76は、二次元の表示領域である。 In one aspect, the first display area 76 is a display area superimposed on the moving image generated by the moving image generating section 21d. In one aspect, the first display area 76 is a two-dimensional display area.

一態様において、第1表示領域76は、動画生成部21dにより生成される仮想空間を構成するオブジェクトではない。この場合、第1表示領域76は、動画生成部21dにより生成される仮想空間を構築するための仮想カメラの設定情報(位置、向き、及び画角)によらず、当該動画の表示画像70の所定の領域に表示される。第1表示領域76は、アクティブセンサが切り替えられても、その切り替えの前後で変わらない位置に表示されてもよい。図示の実施形態では、表示画像70の左下の一定の範囲を占める領域が、第1表示領域76とされている。第1表示領域76の位置は、本明細書で具体的に説明した位置には限られない。図示のように、第1表示領域76は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの少なくとも一方と重複する領域に設けられてもよい。図示の実施形態では、第1表示領域76は、キャラクタオブジェクト71Bの一部と重複している。第1表示領域76とキャラクタオブジェクト71Bとが重複する領域においては、第1表示領域76およびそこに含まれる投稿メッセージが、キャラクタオブジェクト71Bよりも画面の手前に表示されてもよい。この場合、キャラクタオブジェクト71Bの一部が第1表示領域76またはそこに表示される投稿メッセージの背後に隠れて視聴ユーザによって視認できなくなる。 In one aspect, the first display area 76 is not an object that constitutes the virtual space generated by the moving image generator 21d. In this case, the first display area 76 displays the display image 70 of the moving image regardless of the setting information (position, orientation, and angle of view) of the virtual camera for constructing the virtual space generated by the moving image generation unit 21d. Displayed in a predetermined area. The first display area 76 may be displayed at a position that does not change before and after the switching even if the active sensor is switched. In the illustrated embodiment, the first display area 76 occupies a certain range in the lower left corner of the display image 70 . The position of the first display area 76 is not limited to the positions specifically described in this specification. As illustrated, the first display area 76 may be provided in an area overlapping at least one of the character object 71A and the character object 71B. In the illustrated embodiment, the first display area 76 overlaps a portion of the character object 71B. In the area where the first display area 76 and the character object 71B overlap, the first display area 76 and the posted message included therein may be displayed in front of the character object 71B on the screen. In this case, part of the character object 71B is hidden behind the first display area 76 or the posted message displayed there, and cannot be visually recognized by the viewing user.

一態様において、投稿メッセージ処理部21iは、視聴ユーザからクライアント装置10a~10c及びこれら以外のクライアント装置を介して投稿された投稿メッセージを、当該視聴ユーザが属するユーザグループに応じた表示領域に表示するように構成される。視聴ユーザから投稿された投稿メッセージは、ストレージ23に投稿データ23eとして記憶されているので、投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出して、この読み出した投稿メッセージを第1表示領域76又は後述する第2表示領域77に表示することができる。投稿メッセージは、投稿時間が早い順に読み出されてもよい。 In one aspect, the posted message processing unit 21i displays a posted message posted by a viewing user via the client devices 10a to 10c and other client devices in a display area corresponding to the user group to which the viewing user belongs. configured as Since the posted message posted by the viewing user is stored in the storage 23 as the posted data 23e, the posted message processing unit 21i reads the posted message from the storage 23 and displays the read posted message in the first display area 76. Alternatively, it can be displayed in a second display area 77 which will be described later. Posted messages may be read in order of posting time.

図11に示されている実施形態においては、第1表示領域76には、投稿メッセージ76a~76dの4つの投稿メッセージが表示されている。この投稿メッセージ76a~76dは、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)であってもよいし、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)であってもよい。例えば、投稿メッセージ76a、投稿メッセージ76b、投稿メッセージ76c、及び投稿メッセージ76dがこの順にストレージ23から読み出され、この読み出された各第1投稿メッセージが、読み出された順に第1表示領域76に表示される。具体的な表示手順の例は以下のとおりである。第1投稿メッセージ76aが読み出されると、当該投稿メッセージ76aが第1表示領域76の最上部に表示される。次に、投稿メッセージ76bが読み出されると、投稿メッセージ76aは、当初の表示位置から下方に移動し、この移動により空いたスペースに投稿メッセージ76bが表示される。以下、同様に、新しい投稿メッセージが表示される場合には、表示済みの投稿メッセージを下方に移動させ、その移動により空いたスペースに当該新しい投稿メッセージが表示される。 In the embodiment shown in FIG. 11, the first display area 76 displays four posted messages 76a-76d. The posted messages 76a to 76d may be posted messages (first posted messages) from viewing users belonging to the first user group, or posted messages (second posted messages) from viewing users belonging to the second user group. ). For example, posted message 76a, posted message 76b, posted message 76c, and posted message 76d are read from storage 23 in this order, and each read first posted message is displayed in first display area 76 in the read order. to be displayed. An example of a specific display procedure is as follows. When the first posted message 76 a is read, the posted message 76 a is displayed at the top of the first display area 76 . Next, when the posted message 76b is read, the posted message 76a moves downward from the initial display position, and the posted message 76b is displayed in the space vacated by this movement. Similarly, when a new posted message is displayed, the displayed posted message is moved downward, and the new posted message is displayed in the space vacated by the movement.

投稿メッセージ76aが第1表示領域76の下限まで到達した後に新しい投稿メッセージを表示する場合には、下限に到達した投稿メッセージ76aは、第1表示領域76に表示されなくなる。図11の表示画像70においては、投稿メッセージ76aが第1表示領域76の下限に到達したことが想定されている。この時点で、新しい投稿メッセージ76eがストレージ23から第1表示領域76への表示のために読み出されると、図12に示されているように、投稿メッセージ76aは第1表示領域76に表示されなくなり、残りの投稿メッセージ(第1投稿メッセージ76b~76d)が下方に移動した後、この移動により空いたスペースに投稿メッセージ76eが表示される。このように、第1表示領域76に表示された投稿メッセージは、当該第1表示領域76の移動方向の終端に達するまでの間、第1表示領域76に表示され続ける。 When displaying a new posted message after the posted message 76 a reaches the lower limit of the first display area 76 , the posted message 76 a that has reached the lower limit is no longer displayed in the first display area 76 . In the display image 70 of FIG. 11, it is assumed that the posted message 76a has reached the lower limit of the first display area 76. As shown in FIG. At this point, when new posted message 76e is read from storage 23 for display in first display area 76, posted message 76a is no longer displayed in first display area 76, as shown in FIG. , and after the remaining posted messages (first posted messages 76b to 76d) move downward, a posted message 76e is displayed in the space vacated by this movement. Thus, the posted message displayed in the first display area 76 continues to be displayed in the first display area 76 until the end of the first display area 76 in the moving direction is reached.

第1表示領域76には、視聴ユーザから投稿された第1投稿メッセージだけでなく、サーバ装置20からの各種通知が表示されてもよい。例えば、第1視聴ユーザからギフトの表示要求があった場合には、その旨がシステムからのメッセージとして第1表示領域76に表示されてもよい。第1表示領域76に表示され得るサーバ装置20からの通知には、様々な種類の通知が含まれ得る。サーバ装置20からの通知には、例えば、ある視聴ユーザが動画の視聴を開始した場合に当該視聴ユーザが動画の視聴を開始した旨を通知するためのメッセージであってもよい。 In the first display area 76, not only the first posted message posted by the viewing user but also various notifications from the server device 20 may be displayed. For example, if the first viewing user requests to display a gift, a message to that effect may be displayed in the first display area 76 as a message from the system. Notifications from server device 20 that may be displayed in first display area 76 may include various types of notifications. The notification from the server apparatus 20 may be, for example, a message for notifying that a viewing user has started viewing a moving image when the viewing user has started viewing the moving image.

以上のとおり、投稿メッセージ処理部21iは、第1ユーザグループまたは第2ユーザグループに属するユーザの投稿メッセージを、第1表示領域76に表示する処理を行う。第1表示領域76において、第1投稿メッセージは、新しい投稿メッセージを表示するためのスペースを作り出すために、所定の移動方向に移動する。図11及び図12に示した実施形態では、第1投稿メッセージは、上から下へ移動する。第1表示領域76における第1投稿メッセージの移動方向は、上から下には限られない。第1表示領域76における第1投稿メッセージの移動方向は、下から上、左から右、右から左、及びこれら以外の任意の方向であってもよい。 As described above, the posted message processing unit 21i performs processing for displaying posted messages of users belonging to the first user group or the second user group in the first display area 76 . In the first display area 76, the first posted message moves in a predetermined movement direction to make room for displaying the new posted message. In the embodiment shown in Figures 11 and 12, the first posted message moves from top to bottom. The moving direction of the first posted message in the first display area 76 is not limited to top to bottom. The moving direction of the first posted message in the first display area 76 may be bottom to top, left to right, right to left, or any other direction.

続いて、図13及び図14を参照して、第2配信期間に配信される動画について説明する。図13及び図14は、第2配信期間における配信動画の表示画像130の例を示す。図13及び図14に示した実施形態では、第2配信期間において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bがステージの上でパフォーマンスを行う動画が配信されることを想定している。図13に示されている配信動画の表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて定められた視点から見た仮想空間の画像を含む。つまり、この表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bの位置を仮想的な視点として構築された仮想空間の画像である。このため、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、表示画像130において正面を向いている。図14には、トラッキングセンサ36aのトラッキング情報に基づいて生成された動画の表示画像130が示されている。トラッキングセンサ36aは、アクターA1及びアクターA2の左前方にあるため、表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、正面以外の方向(右前方)を向いている。 Next, with reference to FIGS. 13 and 14, moving images distributed during the second distribution period will be described. 13 and 14 show an example of the display image 130 of the delivered moving image in the second delivery period. In the embodiment shown in FIGS. 13 and 14, it is assumed that during the second distribution period, animations in which the character objects 71A and 71B perform on stage are distributed. The display image 130 of the delivered moving image shown in FIG. 13 includes an image of the virtual space seen from the viewpoint determined based on the tracking information of the tracking sensor 36b in front of the actors A1 and A2. In other words, this display image 130 is an image of a virtual space constructed with the position of the tracking sensor 36b in front of the actor A1 and the actor A2 as a virtual viewpoint. Therefore, the character object 71A and the character object 71B face the front in the display image 130 . FIG. 14 shows a moving image display image 130 generated based on the tracking information of the tracking sensor 36a. Since the tracking sensor 36a is located in front left of the actors A1 and A2, the character objects 71A and 71B in the display image 130 face a direction other than the front (front right).

第2表示領域77は、動画生成部21dにより生成される仮想空間に含まれる一又は複数のオブジェクトの表面の一部又は全部に相当する領域である。図示の実施形態においては、スクリーン状のスクリーンオブジェクト131の前面の全体が第2表示領域77とされている。本明細書においては、スクリーンオブジェクト131のように、第2表示領域77が設けられるオブジェクトを「表示用オブジェクト」又は「メッセージ表示用オブジェクト」と呼ぶことがある。配信動画に含まれる仮想空間内の任意のオブジェクトを表示用オブジェクトとすることができる。一態様においては、ギフトオブジェクトを表示用オブジェクトとしてもよい。 The second display area 77 is an area corresponding to part or all of the surface of one or more objects included in the virtual space generated by the moving image generation unit 21d. In the illustrated embodiment, the entire front surface of the screen-shaped screen object 131 serves as the second display area 77 . In this specification, an object in which the second display area 77 is provided, such as the screen object 131, may be called a "display object" or a "message display object." Any object in the virtual space included in the distributed moving image can be used as the display object. In one aspect, the gift object may be the display object.

図13の実施形態においては、第2表示領域77には、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)が表示される。図示の例では、第2表示領域77には、第2投稿メッセージ77a~77eの5つの第2投稿メッセージが表示されている。本明細書において、第2投稿メッセージ77a~77eは、互いから区別される必要がない場合には、単に「第2投稿メッセージ」と呼ばれることがある。図13に示されているように、第2投稿メッセージ77a、第2投稿メッセージ77b、第2投稿メッセージ77c、第2投稿メッセージ77d、及び第2投稿メッセージ77eがこの順にストレージ23から読み出され、この読み出された各第2投稿メッセージが、読み出された順に第2表示領域77に表示される。第2表示領域77には、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)は表示されない。第2配信期間においては、第1ユーザグループに属する視聴ユーザは、クライアント装置にて実装される機能によりメッセージの投稿ができないか、または、メッセージを投稿することができても、当該メッセージは第2表示領域77には表示されない。 In the embodiment of FIG. 13, the second display area 77 displays posted messages (second posted messages) from viewing users belonging to the second user group. In the illustrated example, the second display area 77 displays five second posted messages 77a to 77e. The second posted messages 77a-77e are sometimes simply referred to herein as "second posted messages" when they need not be distinguished from each other. As shown in FIG. 13, second posted message 77a, second posted message 77b, second posted message 77c, second posted message 77d, and second posted message 77e are read from storage 23 in this order, Each read second posted message is displayed in the second display area 77 in the order in which it was read. Posted messages (first posted messages) from viewing users belonging to the first user group are not displayed in the second display area 77 . During the second distribution period, the viewing users belonging to the first user group cannot post messages due to the functions implemented in the client devices, or even if they can post messages, the messages are posted in the second distribution period. It is not displayed in the display area 77.

第2表示領域77に表示される第2投稿メッセージは、第2表示領域77において所定の方向に移動してもよい。図13の実施形態においては、各第2投稿メッセージは、第2表示領域77の上から下に向かって移動する。スクリーンオブジェクト131(第2表示領域77)は、仮想空間において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの後方に配されているため、この第2表示領域77に表示された第2投稿メッセージのうち第2投稿メッセージ77a~77dの各々の一部は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの後ろに隠れている。第2投稿メッセージは、第2表示領域77の移動方向における終端まで移動すると、その後、表示画像70に表示されなくなる。一実施形態において、スクリーンオブジェクト131等の表示用オブジェクトは、仮想空間において、キャラクタオブジェクトよりも後方に配される。これにより、表示用オブジェクト及び当該表示用オブジェクトに表示される第2投稿メッセージの後ろにキャラクタオブジェクトが隠れてしまうことがない。上記のように、第2配信期間においては、キャラクタオブジェクトがパフォーマンスを行うことが想定されている。よって、表示用オブジェクトをキャラクタオブジェクトよりも後方に配すことにより、ユーザは、キャラクタオブジェクトのパフォーマンスを他のオブジェクトによって邪魔されることなく見ることができる。これにより、ユーザの視聴体験の劣化を防ぐことができる。 The second posted message displayed in second display area 77 may move in a predetermined direction in second display area 77 . In the embodiment of FIG. 13, each second posted message moves from top to bottom of second display area 77 . Since the screen object 131 (second display area 77) is arranged behind the character object 71A and the character object 71B in the virtual space, the second posted message displayed in the second display area 77 is the second posted message. A portion of each of the posted messages 77a-77d is hidden behind the character object 71A and the character object 71B. When the second posted message moves to the end of the second display area 77 in the moving direction, it is no longer displayed on the display image 70 . In one embodiment, a display object such as the screen object 131 is arranged behind the character object in the virtual space. This prevents the character object from being hidden behind the display object and the second posted message displayed on the display object. As described above, it is assumed that the character object will perform during the second delivery period. Therefore, by arranging the display object behind the character object, the user can see the performance of the character object without being disturbed by other objects. This can prevent the user's viewing experience from deteriorating.

第2表示領域77における第2投稿メッセージの移動方向は、上から下の方向には限られない。第2表示領域77における第2投稿メッセージの移動方向は、左から右、下から上、右から左、及びこれら以外の任意の方向であってもよい。第2表示領域77における投稿メッセージの移動方向は、第1表示領域76における第1投稿メッセージの移動方向と異なっていても良い。 The moving direction of the second posted message in the second display area 77 is not limited to the top to bottom direction. The moving direction of the second posted message in the second display area 77 may be from left to right, from bottom to top, from right to left, or any other direction. The moving direction of the posted message in the second display area 77 may be different from the moving direction of the first posted message in the first display area 76 .

一態様において、第2表示領域77における投稿メッセージの移動方向は、当該投稿メッセージに含まれる第1コマンドに応じて定められても良い。例えば、視聴ユーザは、クライアント装置を介して投稿メッセージを作成する際に、移動方向を指定する第1コマンドを当該投稿メッセージに含めることができる。この第1コマンドは、例えば、左から右への移動を指定する場合には「L、R」というテキストであってもよい。この第1コマンドは、例えば、投稿メッセージの本体(第2表示領域77に表示されるメッセージ)の後に付加されてもよい。メッセージ本体と第1コマンドとの間は、アットマーク(「@」)、カンマ(「,」)、セミコロン(「;」)、コロン(「:」)などで区切られても良い。このように、視聴ユーザは、第2表示領域77におけるメッセージの移動方向を指定する第1コマンドを含むように投稿メッセージを作成し、当該投稿メッセージをサーバ装置20に送信することができる。第1コマンドは、ストレージ23に投稿データ23eの一部として記憶されてもよい。投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出した際に、当該投稿メッセージが第2ユーザグループから投稿されたものである場合には、当該第1コマンドにより指定された方向に移動するように、当該投稿メッセージを第2表示領域77に表示するように構成されてもよい。上述した第1コマンドの記述形式は、任意に変更することができる。 In one aspect, the moving direction of the posted message in the second display area 77 may be determined according to the first command included in the posted message. For example, when a viewing user creates a posted message via a client device, the posted message can include a first command designating a movement direction. This first command may be, for example, the text "L, R" to specify movement from left to right. This first command may be added, for example, after the body of the posted message (the message displayed in the second display area 77). The message body and the first command may be separated by an at mark (“@”), a comma (“,”), a semicolon (“;”), a colon (“:”), or the like. In this way, the viewing user can create a posted message so as to include the first command specifying the moving direction of the message in second display area 77 and transmit the posted message to server device 20 . The first command may be stored in the storage 23 as part of the posted data 23e. When the posted message is read from the storage 23, and if the posted message is posted by the second user group, the posted message processing unit 21i causes the posted message to move in the direction specified by the first command. Alternatively, the posted message may be displayed in the second display area 77 . The description format of the first command described above can be arbitrarily changed.

一態様において、第2表示領域77における投稿メッセージの初期表示位置は、当該投稿メッセージに含まれる第2コマンドに応じて定められても良い。例えば、視聴ユーザは、クライアント装置を介して投稿メッセージを作成する際に、当該投稿メッセージに第2表示領域77における初期表示位置を指定する第2コマンドを含めることができる。この第2コマンドは、例えば、初期表示位置が第2表示領域の左端である場合には「@L」というテキストであり、初期表示位置が第2表示領域の右端である場合には「@R」というテキストであり、初期表示位置が第2表示領域の中央である場合には「@C」というテキストであってもよい。視聴ユーザは、第2コマンドを含むように投稿メッセージを作成し、当該投稿メッセージをサーバ装置20に送信することができる。投稿メッセージには、第2コマンドに加えて第1コマンドが含められても良い。第2コマンドは、ストレージ23に投稿データ23eの一部として記憶されてもよい。投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出した際に、当該投稿メッセージが第2ユーザグループから投稿されたものである場合には、当該第2コマンドにより指定された初期表示位置に当該投稿メッセージを表示する。当該投稿メッセージが第1コマンドも含む場合には、投稿メッセージ処理部21iは、当該投稿メッセージを当該第2コマンドにより指定された初期表示位置に表示させ、その後に当該第1コマンドで指定された方向に移動させるように構成されてもよい。上述した第2コマンドの記述形式は、任意に変更することができる。 In one aspect, the initial display position of the posted message in the second display area 77 may be determined according to the second command included in the posted message. For example, when the viewing user creates a posted message via the client device, the posted message can include a second command specifying an initial display position in the second display area 77 . This second command is, for example, the text "@L" when the initial display position is the left end of the second display area, and the text "@R" when the initial display position is the right end of the second display area. , and if the initial display position is the center of the second display area, the text may be "@C". The viewing user can create a posted message to include the second command, and transmit the posted message to server device 20 . The posted message may include the first command in addition to the second command. The second command may be stored in the storage 23 as part of the posted data 23e. When the posted message processing unit 21i reads out the posted message from the storage 23, if the posted message is posted by the second user group, the posted message processing unit 21i displays the posted message at the initial display position specified by the second command. View posted messages. When the posted message also includes the first command, the posted message processing unit 21i causes the posted message to be displayed at the initial display position specified by the second command, and then displayed in the direction specified by the first command. may be configured to move to The description format of the second command described above can be arbitrarily changed.

一態様において、投稿メッセージ処理部21iは、第2投稿メッセージの第2表示領域77における移動速度が第1投稿メッセージの第1表示領域76における移動速度よりも遅くなるように、各投稿メッセージの移動速度を調整することができる。 In one aspect, the posted message processing unit 21i moves each posted message such that the moving speed of the second posted message in the second display area 77 is slower than the moving speed of the first posted message in the first display area 76. Speed can be adjusted.

一態様において、投稿メッセージ処理部21iは、第1投稿メッセージが第1表示領域76に表示されている第1表示時間よりも、第2投稿メッセージが第2表示領域77に表示されている第2表示時間が長くなるように、各投稿メッセージの移動速度を調整することができる。第1投稿メッセージの移動方向における第1表示領域76の長さと第2投稿メッセージの移動方向における第2表示領域77の長さとが同じ場合には、上記のように、第2投稿メッセージの移動速度が第1投稿メッセージの移動速度よりも遅くなるようにすることで、第2投稿メッセージの表示時間を第1投稿メッセージの表示時間よりも長くすることができる。第1投稿メッセージと第2投稿メッセージの移動速度が同じ場合には、第2投稿メッセージの移動方向における第2表示領域73の長さを第1投稿メッセージの移動方向における第1表示領域76の長さよりも長くすることにより、第2投稿メッセージの表示時間を第1投稿メッセージの表示時間よりも長くすることができる。 In one aspect, the posted message processing unit 21i performs the second display time during which the second posted message is displayed in the second display area 77 before the first display time during which the first posted message is displayed in the first display area 76 . The moving speed of each posted message can be adjusted so that the display time is longer. When the length of the first display area 76 in the moving direction of the first posted message and the length of the second display area 77 in the moving direction of the second posted message are the same, the moving speed of the second posted message is as described above. is slower than the moving speed of the first posted message, the display time of the second posted message can be made longer than the display time of the first posted message. If the moving speeds of the first posted message and the second posted message are the same, the length of the second display area 73 in the moving direction of the second posted message is equal to the length of the first display area 76 in the moving direction of the first posted message. By making it longer than the length, the display time of the second posted message can be made longer than the display time of the first posted message.

一態様においては、カメラワークにより、配信動画の表示を変更することができる。上記のとおり、図13に示されている配信動画の表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて生成されている。つまり、表示画像130は、トラッキングセンサ36bがアクティブセンサとされているときに生成されている。このため、図13の表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは正面を向いている。アクティブセンサをトラッキングセンサ36bからトラッキングセンサ36aに切り替えることにより、トラッキングセンサ36aのトラッキング情報に基づいて生成された仮想空間を含む動画が生成される。トラッキングセンサ36aのトラッキング情報に基づいて生成された動画の表示画像の例が図14に示されている。トラッキングセンサ36aは、アクターA1及びアクターA2の左前方にあるため、表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、正面以外の方向(右前方)を向いている。また、スクリーンオブジェクト131、当該スクリーンオブジェクト131の表面に設けられている第2表示領域77、及び当該第2表示領域77に表示される第2投稿メッセージも傾いて表示されている。このように、第2表示領域77(またはスクリーンオブジェクト131)の仮想空間における位置及び向きは、いずれのトラッキングセンサがアクティブセンサとして用いられるかによって定められる。また、アクティブセンサの位置又は向きを変更すると、それに応じて、第2表示領域77(またはスクリーンオブジェクト131)の仮想空間における位置又は向きも変更される。図14に示されているトラッキングセンサ36aがアクティブセンサの場合の表示画像130における第2表示領域77(またはスクリーンオブジェクト131)は、図13に示されているトラッキングセンサ36aがアクティブセンサの場合の表示画像における表示画像130における第2表示領域77(またはスクリーンオブジェクト131)よりも、斜め方向から見ている分だけ小さく表示されている。 In one aspect, it is possible to change the display of the distribution video by camerawork. As described above, the display image 130 of the distributed moving image shown in FIG. 13 is generated based on the tracking information of the tracking sensor 36b in front of the actors A1 and A2. In other words, the display image 130 is generated when the tracking sensor 36b is the active sensor. Therefore, in the display image 130 of FIG. 13, the character object 71A and the character object 71B face the front. By switching the active sensor from the tracking sensor 36b to the tracking sensor 36a, a moving image including the virtual space generated based on the tracking information of the tracking sensor 36a is generated. FIG. 14 shows an example of a moving image display image generated based on the tracking information of the tracking sensor 36a. Since the tracking sensor 36a is located in front left of the actors A1 and A2, the character objects 71A and 71B in the display image 130 face a direction other than the front (front right). In addition, the screen object 131, the second display area 77 provided on the surface of the screen object 131, and the second posted message displayed in the second display area 77 are also tilted. Thus, the position and orientation in virtual space of the second display area 77 (or screen object 131) is determined by which tracking sensor is used as the active sensor. Further, when the position or orientation of the active sensor is changed, the position or orientation of the second display area 77 (or screen object 131) in virtual space is also changed accordingly. The second display area 77 (or screen object 131) in the display image 130 when the tracking sensor 36a shown in FIG. 14 is the active sensor is the same as the display when the tracking sensor 36a shown in FIG. 13 is the active sensor. It is displayed smaller than the second display area 77 (or the screen object 131) in the display image 130 in the image as viewed from the oblique direction.

アクティブセンサがトラッキングセンサ36bからトラッキングセンサ36aに切り替えられると、仮想空間における仮想カメラの位置(視点の位置)も変更されるため、第2表示領域77の仮想空間における位置や向きも変更される。例えば、トラッキングセンサ36bがアクティブセンサとされている図13の表示画像においては、第2投稿メッセージ77a~77dの各々の位置がキャラクタオブジェクト71Aまたはキャラクタオブジェクト71Bの後ろに隠れているが、トラッキングセンサ36aがアクティブセンサとされている図14の表示画像130においては、第2投稿メッセージ77cのみがキャラクタオブジェクトの後ろに隠れており、視点の移動によって、第2投稿メッセージ77a,77b,及び77dは、キャラクタオブジェクトの後ろに隠れず、その全体が視認可能になっている。このように、アクティブセンサの切り替えによって、仮想空間における視点を移動させることにより、キャラクタオブジェクトの後ろに隠れていた第2投稿メッセージを視認しやすくすることができる。 When the active sensor is switched from the tracking sensor 36b to the tracking sensor 36a, the position (viewpoint position) of the virtual camera in the virtual space is also changed, so the position and orientation of the second display area 77 in the virtual space are also changed. For example, in the display image of FIG. 13 in which the tracking sensor 36b is the active sensor, the positions of the second posted messages 77a to 77d are hidden behind the character object 71A or the character object 71B, but the tracking sensor 36a is the active sensor, only the second posted message 77c is hidden behind the character object. It is not hidden behind objects, and its entirety is visible. In this way, by moving the viewpoint in the virtual space by switching the active sensor, it is possible to make it easier to see the second posted message hidden behind the character object.

次に、図15を参照して、一態様による動画配信処理について説明する。図15は、一実施形態における動画配信処理の流れを示すフロー図である。動画配信処理においては、スタジオルームRにアクターA1及びアクターA2が在室していることが想定されている。 Next, with reference to FIG. 15, a video distribution process according to one aspect will be described. FIG. 15 is a flowchart showing the flow of moving image distribution processing in one embodiment. In the moving image distribution process, it is assumed that actors A1 and A2 are present in the studio room R.

まず、ステップS11では、アクターA1及びアクターA2の体の動きのデジタル表現であるボディモーションデータと、アクターA1及びアクターA2の顔の動き(表情)のデジタル表現であるフェイスモーションデータと、が生成される。ボディモーションデータの生成は、例えば、上記のボディモーションデータ生成部21aで行われ、フェイスモーションデータの生成は、例えば、上記のフェイスモーションデータ生成部21bで行われる。 First, in step S11, body motion data, which is a digital representation of the body movements of the actors A1 and A2, and face motion data, which is a digital representation of the facial movements (expressions) of the actors A1 and A2, are generated. be. The body motion data is generated by, for example, the body motion data generating section 21a, and the face motion data is generated by, for example, the face motion data generating section 21b.

次に、ステップS12において、アクターA1のボディモーションデータ及びフェイスモーションデータを、アクターA1用のモデルデータに適用することにより、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーションが生成される。同様に、アクターA2のボディモーションデータ及びフェイスモーションデータを、アクターA2用のモデルデータに適用することにより、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションが生成される。このアニメーションの生成は、例えば、上記のアニメーション生成部21cで行われる。 Next, in step S12, by applying the body motion data and face motion data of actor A1 to the model data for actor A1, the animation of the first character object that moves in synchronization with the movement of the body and facial expression of actor A1 is performed. is generated. Similarly, by applying the body motion data and face motion data of actor A2 to the model data for actor A2, animation of a second character object that moves in synchronization with the movement of the body and facial expression of actor A2 is generated. . This animation is generated by, for example, the animation generation unit 21c.

次に、ステップS13において、仮想空間の画像と、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。この動画には、アクターA1及びアクターA2の音声が合成されてもよい。第1キャラクタオブジェクトのアニメーション及び第2キャラクタオブジェクトのアニメーションは、仮想空間内に配置されてもよい。この動画の生成は、例えば、上記の動画生成部21dで行われる。 Next, in step S13, a moving image including an image of the virtual space, animation of the first character object corresponding to actor A1, and animation of the second character object corresponding to actor A2 is generated. The voices of actor A1 and actor A2 may be synthesized in this moving image. The animation of the first character object and the animation of the second character object may be arranged in the virtual space. This moving image is generated by, for example, the moving image generation unit 21d.

次に、ステップS14に移行し、ステップS13にて生成された動画が配信される。この動画は、ネットワーク50を介してクライアント装置10a~クライアント装置10c及びこれら以外のクライアント装置に配信される。この動画は、サポーターコンピュータ40に配信され、また、スタジオルームR内のスクリーンSに投影されてもよい。動画は、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、及びこれら以外の任意の時間に定め得る。 Next, the process proceeds to step S14, and the moving image generated in step S13 is distributed. This moving image is distributed to the client devices 10a to 10c and other client devices via the network 50. FIG. This moving image is distributed to the supporter computer 40 and may be projected on the screen S in the studio room R. The moving images are distributed continuously over a predetermined distribution period. The video distribution period can be set to, for example, 30 seconds, 1 minute, 5 minutes, 10 minutes, 30 minutes, 60 minutes, 120 minutes, and any time other than these.

次に、ステップS15に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したこと、サポーターコンピュータ40により配信を終了するための指示がなされたこと、またはこれら以外の条件である。終了条件が成就していなければステップS11~S14の処理が繰り返し実行され、アクターA1及びアクターA2の動きに同期したアニメーションを含む動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。 Next, proceeding to step S15, it is determined whether or not the end condition for ending the distribution of the moving image is satisfied. The end condition is, for example, that the delivery end time has been reached, that the supporter computer 40 has issued an instruction to end the delivery, or other conditions. If the termination condition is not satisfied, the processes of steps S11 to S14 are repeatedly executed, and the distribution of moving images including animation synchronized with the movements of actors A1 and A2 is continued. When it is determined that the termination condition is satisfied for the moving image, the distribution processing for the moving image is terminated.

次に、図17及び図18を参照して、本発明の他の実施形態について説明する。図17は、本発明の他の実施形態においてクライアント装置10aにおいて再生されている動画に表示される投稿メッセージの表示例を示し、図18は、当該他の実施形態における投稿メッセージ表示処理の流れを示すフロー図である。 Next, another embodiment of the present invention will be described with reference to FIGS. 17 and 18. FIG. FIG. 17 shows a display example of a posted message displayed on a moving image being played on the client device 10a in another embodiment of the present invention, and FIG. 18 shows the flow of posted message display processing in this other embodiment. FIG. 2 is a flow diagram showing;

図17に示されている表示画像170は、第1表示領域176と、第2表示領域177と、を含んでいる。第1表示領域176には、第1投稿メッセージ176a~176dが表示されており、第2表示領域177には、第2投稿メッセージ177aが表示されている。図17に示されている実施形態においては、投稿メッセージ処理部21iは、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)を第1表示領域76に表示し、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)を第2表示領域177に表示するための処理を行う。 Display image 170 shown in FIG. 17 includes first display area 176 and second display area 177 . First posted messages 176 a to 176 d are displayed in first display area 176 , and second posted message 177 a is displayed in second display area 177 . In the embodiment shown in FIG. 17, the posted message processing unit 21i displays posted messages (first posted messages) from viewing users belonging to the first user group in the first display area 76, and displays posted messages from the viewing users belonging to the first user group. A process for displaying a posted message (second posted message) from a viewing user belonging to the group in the second display area 177 is performed.

図18に示されている投稿メッセージの表示処理においては、動画の配信中に当該動画に対する投稿メッセージがクライアント装置から当該動画を配信するサーバ装置20に投稿されることが想定されている。投稿メッセージの表示処理は、図15に示した動画の配信処理と並行して行われる。サーバ装置20において受信された投稿メッセージは、ストレージ23に投稿データ23eとして記憶される。 In the display processing of the posted message shown in FIG. 18, it is assumed that the posted message for the moving image is posted from the client device to the server device 20 that distributes the moving image while the moving image is being distributed. The posted message display processing is performed in parallel with the moving image distribution processing shown in FIG. 15 . The posted message received by server device 20 is stored in storage 23 as posted data 23e.

ステップS21においては、ストレージ23に記憶された投稿メッセージが読み出される。投稿メッセージは、例えば、投稿順に読み出される。 In step S21, the posted message stored in storage 23 is read. Posted messages are read out in order of posting, for example.

次に、ステップS22において、ストレージ23から読み出された投稿メッセージを投稿した視聴ユーザが、いずれのユーザグループに属しているかが判定される。投稿データ23eにおいては、投稿メッセージを投稿した視聴ユーザのアカウント情報及び当該視聴ユーザが属するユーザグループを示すグループ情報と対応付けて当該投稿メッセージが記憶されているので、投稿データ23eを参照することにより、投稿メッセージを投稿したユーザが属するユーザグループを特定することができる。 Next, in step S22, it is determined to which user group the viewing user who posted the posted message read out from the storage 23 belongs. In the posted data 23e, the posted message is stored in association with the account information of the viewing user who posted the posted message and the group information indicating the user group to which the viewing user belongs. , the user group to which the user who posted the posted message belongs.

投稿メッセージを投稿した視聴ユーザが第1ユーザグループに属すると判定された場合には表示処理はステップS23に進み、投稿メッセージを投稿した視聴ユーザが第2ユーザグループに属すると判定された場合には表示処理はステップS24に進む。 When it is determined that the viewing user who posted the posted message belongs to the first user group, the display process proceeds to step S23, and when it is determined that the viewing user who posted the posted message belongs to the second user group. The display process proceeds to step S24.

ステップS23においては、ステップS21において読み出された投稿メッセージが第1表示領域(例えば、第1表示領域76)に表示される。 In step S23, the posted message read out in step S21 is displayed in the first display area (eg, first display area 76).

ステップS24においては、ステップS21において読み出された投稿メッセージが第2表示領域(例えば、第2表示領域77)に表示される。 In step S24, the posted message read in step S21 is displayed in the second display area (eg, second display area 77).

以上のように、ストレージ23から読み出された投稿メッセージが、当該投稿メッセージを投稿したユーザが属するユーザグループに応じた表示領域に表示される。 As described above, the posted message read out from the storage 23 is displayed in the display area corresponding to the user group to which the user who posted the posted message belongs.

上記の一実施形態によれば、第1投稿メッセージが表示される第1表示領域76と、第2投稿メッセージが表示される一方で第1投稿メッセージは表示されない第2表示領域77と、を含む動画が配信される。これにより、投稿メッセージを投稿したユーザが属するユーザグループに応じて、当該投稿メッセージの表示領域を割り当てることができる。従来は、表示画面の所定領域に投稿メッセージ用の表示領域が一つのみ設けられているため、様々なユーザグループのユーザからの投稿メッセージが同じ表示領域に表示されている。これに対して、上記の実施形態によれば、投稿メッセージを投稿したユーザが属するユーザグループに応じて、当該投稿メッセージの表示処理が行われる。これにより、投稿メッセージの表示態様を多様化することができる。 According to one embodiment described above, it includes a first display area 76 in which the first posted message is displayed, and a second display area 77 in which the second posted message is displayed but the first posted message is not displayed. Video is delivered. Thereby, the display area of the posted message can be allocated according to the user group to which the user who posted the posted message belongs. Conventionally, since only one display area for posted messages is provided in a predetermined area of the display screen, posted messages from users of various user groups are displayed in the same display area. In contrast, according to the above-described embodiment, display processing of the posted message is performed according to the user group to which the user who posted the posted message belongs. This makes it possible to diversify the display mode of the posted message.

一実施形態においては、第2表示領域77の一部がキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に配されている。これにより、第2投稿メッセージを他のユーザの注目をより集めやすい領域に表示することができる。 In one embodiment, part of the second display area 77 is arranged behind the character object 71A and the character object 71B. This allows the second posted message to be displayed in an area that more easily attracts the attention of other users.

一実施形態においては、第2表示領域77は、アクターA1及びアクターA2がパフォーマンスを披露する第2配信期間において動画に含められる。第2表示領域77は、このアクターA1及びアクターA2のパフォーマンスに応じてモーション制御されるキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に表示されるので、他のユーザの注目をより集めやすい。また、第2表示領域77は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に配されるので、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bのパフォーマンスの視聴の妨げにもなりにくい。 In one embodiment, the second display area 77 is included in the animation during the second distribution period during which actor A1 and actor A2 perform. Since the second display area 77 is displayed behind the character objects 71A and 71B whose motions are controlled according to the performances of the actors A1 and A2, it is easier to attract the attention of other users. Also, since the second display area 77 is arranged behind the character object 71A and the character object 71B, it is less likely to interfere with viewing of the performance of the character object 71A and the character object 71B.

一実施形態においては、第1表示領域76とキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの少なくとも一方とが重複して表示される場合には、キャラクタオブジェクトが第1表示領域76の背後に配される。これにより、視聴ユーザやアクターA1及びアクターA2による投稿メッセージの表示がより重視される配信期間においては、投稿メッセージがキャラクタオブジェクトの背後に隠されることなく表示される。 In one embodiment, the character object is placed behind the first display area 76 when the first display area 76 and at least one of the character objects 71A and 71B are displayed in an overlapping manner. As a result, the posted message is displayed without being hidden behind the character object during the distribution period when the display of the posted message by the viewing user and the actors A1 and A2 is more important.

このように、上記実施形態によれば、動画の内容(例えば、アクターがパフォーマンスを実施中か否か)に応じて投稿メッセージの表示態様を変更することができる。よって、視聴ユーザによる動画の視聴体験を劣化させることなく、投稿メッセージの表示態様を多様化することができる。 As described above, according to the above embodiment, it is possible to change the display mode of the posted message according to the content of the moving image (for example, whether the actor is performing a performance or not). Therefore, it is possible to diversify the display mode of the posted message without degrading the video viewing experience of the viewing user.

上記の実施形態において、第2ユーザグループに属する視聴ユーザは、投稿メッセージの表示に関して、第1ユーザグループに属する視聴ユーザよりも優遇されたサービスまたは優れた機能の提供を受けることができる。 In the above embodiment, the viewing users belonging to the second user group can receive preferential services or better functions than the viewing users belonging to the first user group in terms of displaying posted messages.

例えば、第2ユーザグループに属する視聴ユーザは、第1コマンドを用いて第2投稿メッセージの移動方向を指定したり、第2コマンドを用いて第2投稿メッセージの表示開始位置を指定することができる。これにより、第2ユーザグループに属する視聴ユーザは、自らの投稿メッセージをより注目を集めやすい方向に移動させたり、より注目を集めやすい位置に表示させたりすることができる。他方、第1ユーザグループに属する視聴ユーザは、投稿メッセージの移動方向の指定や、初期表示位置の指定を行うことができない。 For example, a viewing user belonging to the second user group can use the first command to specify the moving direction of the second posted message, and can use the second command to specify the display start position of the second posted message. . As a result, the viewing users belonging to the second user group can move their posted message in a direction that attracts more attention or display it in a position that attracts more attention. On the other hand, the viewing users belonging to the first user group cannot specify the moving direction of the posted message or the initial display position.

上記の一実施形態において、第2表示領域77における第2投稿メッセージの移動速度は、第1表示領域76における第1投稿メッセージの移動速度よりも遅くなるように、投稿メッセージの表示制御が行われる。これにより、第2ユーザーグループに属する視聴ユーザは、第1ユーザグループに属する視聴ユーザよりも、自らの投稿メッセージを表示画面上に長く表示させることができる。 In the above embodiment, display control of the posted message is performed such that the moving speed of the second posted message in the second display area 77 is slower than the moving speed of the first posted message in the first display area 76. . This allows the viewing users belonging to the second user group to display their posted messages on the display screen longer than the viewing users belonging to the first user group.

上記の一実施形態において、第2ユーザグループに属する視聴ユーザは、第1配信期間161,163及び第2配信期間162のいずれにおいてもメッセージを投稿することができる。これに対して、第1ユーザグループに属するユーザは、第1配信期間161,163においてのみメッセージを投稿することができる。 In one embodiment described above, viewing users belonging to the second user group can post messages during any of the first distribution periods 161 , 163 and the second distribution period 162 . On the other hand, users belonging to the first user group can post messages only during the first delivery periods 161,163.

本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、配信される動画は、スタジオルームR以外で撮影及び生成されてもよい。例えば、配信される動画を生成するための撮影は、アクターやサポーターの自宅で行われてもよい。 Embodiments of the present invention are not limited to the embodiments described above, and various modifications are possible without departing from the scope of the invention. For example, the video to be distributed may be shot and generated outside the studio room R. For example, filming for generating moving images to be distributed may be performed at the actor's or supporter's home.

視聴ユーザから投稿された投稿メッセージは、ストレージ23に記憶されなくてもよい。この場合、投稿メッセージ処理部21iは、クライアント装置から受信した投稿メッセージを解析して当該投稿メッセージを投稿したユーザが属するユーザグループを特定し、この特定されたユーザグループに応じた表示領域に当該投稿メッセージを表示することができる。 Posted messages posted by viewing users may not be stored in the storage 23 . In this case, the posted message processing unit 21i analyzes the posted message received from the client device, identifies the user group to which the user who posted the posted message belongs, and displays the posted message in the display area corresponding to the identified user group. Messages can be displayed.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順
も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。
In the processing procedures described in this specification, especially in the processing procedures described using flow diagrams, some of the steps that make up the processing procedure are omitted, and as a step that makes up the processing procedure It is possible to add steps that are not specified and/or change the order of the steps, and the processing procedures in which such omissions, additions, and order changes do not deviate from the spirit of the present invention. Included within the scope of the invention.

以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
複数の視聴ユーザのうち第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ及び前記複数の視聴ユーザのうち第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
アクターの動きに基づいて仮想空間内で動くように生成されるキャラクタオブジェクトのアニメーションと、前記第1投稿メッセージと、前記第2投稿メッセージと、前記第1ユーザ又は前記第2ユーザから表示要求された電子的ギフトを表すギフトオブジェクトと、を含む動画を前記複数の視聴ユーザの各々によって使用されるクライアント端末に再生させ、
前記ギフトオブジェクトは、前記キャラクタオブジェクトの特定の部位と対応付けて表示される第1ギフトオブジェクトと、前記キャラクタオブジェクトの特定の部位と対応付けずに表示される第2ギフトオブジェクトと、を含み、
前記第2ギフトオブジェクトの表示要求には、移動方向パラメータが含まれており、
前記第2ギフトオブジェクトは、前記動画において前記移動方向パラメータによって指定された移動方向に移動する、
動画再生システム。
[2]
前記第1ギフトオブジェクトは、前記キャラクタオブジェクトの動きに追従して動くように前記動画において表示される、
[1]に記載の動画再生システム。
[3]
前記第2ギフトオブジェクトの表示要求には、表示位置指定パラメータが含まれており、
前記第2ギフトオブジェクトは、前記表示位置指定パラメータによって指定された位置に表示される、
[1]又は[2]に記載の動画再生システム。
[4]
前記第2ギフトオブジェクトは、前記キャラクタオブジェクトと重複しない位置に表示される、
[1]から[3]のいずれか1項に記載の動画再生システム。
[5]
前記第2ギフトオブジェクトの前記仮想空間における大きさが基準大きさよりも大きい場合に、前記第2ギフトオブジェクトは、前記キャラクタオブジェクトと重複しない位置に配置される、
[4]に記載の動画再生システム。
[6]
前記第2ギフトオブジェクトは、前記キャラクタオブジェクトの後ろに表示される、
[1]から[5]のいずれか1項に記載の動画再生システム。
[7]
前記第2ギフトオブジェクトの前記仮想空間における大きさが基準大きさよりも大きい場合に、前記第2ギフトオブジェクトは、前記キャラクタオブジェクトの後ろに表示される、[6]に記載の動画再生システム。
[8]
前記第2ギフトオブジェクトの前記仮想空間における大きさが基準大きさよりも小さい場合に、前記第2ギフトオブジェクトの少なくともその一部が前記キャラクタオブジェクトと重複する位置に配置される、
[1]から[7]のいずれか1項に記載の動画再生システム。
[9]
前記第1ギフトオブジェクトは、前記第2ギフトオブジェクトよりも長い時間表示される、
[1]から[8]のいずれか1項に記載の動画再生システム。
[10]
前記仮想空間は、複数のカメラの中から選択されたアクティブセンサのトラッキング情報に基づいて構築され、
前記複数のカメラのうちの第1カメラが前記アクティブセンサとして選択されている場合には、前記第2投稿メッセージは前記キャラクタオブジェクトの後ろに表示される一方、
前記複数のカメラのうちの第2カメラが前記アクティブセンサとして選択されている場合には、前記第2投稿メッセージは前記キャラクタオブジェクトと重複しないように表示される、
[1]から[9]のいずれか1項に記載の動画再生システム。
[11]
前記仮想空間は、複数のカメラの中から選択されたアクティブセンサのトラッキング情報に基づいて構築され、
前記第1投稿メッセージは、前記複数のカメラのうちの第1カメラが前記アクティブセンサとして選択されている場合と前記複数のカメラのうちの第2カメラが前記アクティブセンサとして選択されている場合とで同じ位置に表示される、
[1]から[10]のいずれか1項に記載の動画再生システム。
[12]
前記第1投稿メッセージ及び前記第2投稿メッセージの少なくとも一方は、前記ギフトオブジェクトに表示される、
[1]から[11]のいずれか1項に記載の動画再生システム。
[13]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画再生方法であって、
アクターの動きに基づいて仮想空間内で動くように生成されるキャラクタオブジェクトのアニメーションと、複数の視聴ユーザのうち第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージと、前記複数の視聴ユーザのうち第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージと、前記第1ユーザ又は前記第2ユーザから表示要求された電子的ギフトを表すギフトオブジェクトと、を含む動画を前記複数の視聴ユーザの各々によって使用されるクライアント端末に再生させる工程を備え、
前記ギフトオブジェクトは、前記キャラクタオブジェクトの特定の部位と対応付けて表示される第1ギフトオブジェクトと、前記キャラクタオブジェクトの特定の部位と対応付けずに表示される第2ギフトオブジェクトと、を含み、
前記第2ギフトオブジェクトは、前記第2ギフトオブジェクトの表示要求に含まれる移動方向パラメータによって指定された移動方向に移動する、
動画再生方法。
[14]
一又は複数のコンピュータプロセッサに実行されるプログラムであって、
前記一又は複数のコンピュータプロセッサに、
アクターの動きに基づいて仮想空間内で動くように生成されるキャラクタオブジェクトのアニメーションと、複数の視聴ユーザのうち第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージと、前記複数の視聴ユーザのうち第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージと、前記第1ユーザ又は前記第2ユーザから表示要求された電子的ギフトを表すギフトオブジェクトと、を含む動画を前記複数の視聴ユーザの各々によって使用されるクライアント端末に再生させる工程を実行させ、
前記ギフトオブジェクトは、前記キャラクタオブジェクトの特定の部位と対応付けて表示される第1ギフトオブジェクトと、前記キャラクタオブジェクトの特定の部位と対応付けずに表示される第2ギフトオブジェクトと、を含み、
前記第2ギフトオブジェクトは、前記第2ギフトオブジェクトの表示要求に含まれる移動方向パラメータによって指定された移動方向に移動する、
動画再生プログラム。
The invention described in the scope of claims as originally filed in the original application of the present application will be additionally described below.
[1]
A first posted message posted by a first user included in a first user group among a plurality of viewing users and a second posted message posted by a second user included in a second user group among the plurality of viewing users and one or more computer processors,
The one or more computer processors, by executing computer readable instructions,
Animation of a character object generated to move in a virtual space based on movement of an actor, the first posted message, the second posted message, and a display request from the first user or the second user a gift object representing an electronic gift; and
The gift objects include a first gift object that is displayed in association with a specific part of the character object, and a second gift object that is displayed without being associated with the specific part of the character object,
the display request for the second gift object includes a movement direction parameter;
the second gift object moves in the movement direction specified by the movement direction parameter in the moving image;
video playback system.
[2]
The first gift object is displayed in the animation so as to follow the movement of the character object.
The moving image reproduction system according to [1].
[3]
The display request for the second gift object includes a display position specification parameter,
the second gift object is displayed at the position designated by the display position designation parameter;
The moving image reproduction system according to [1] or [2].
[4]
the second gift object is displayed at a position that does not overlap with the character object;
The moving image reproduction system according to any one of [1] to [3].
[5]
when the size of the second gift object in the virtual space is larger than a reference size, the second gift object is placed at a position that does not overlap with the character object;
The moving image reproduction system according to [4].
[6]
the second gift object is displayed behind the character object;
The moving image reproduction system according to any one of [1] to [5].
[7]
The moving image reproducing system according to [6], wherein the second gift object is displayed behind the character object when the size of the second gift object in the virtual space is larger than a reference size.
[8]
When the size of the second gift object in the virtual space is smaller than a reference size, at least part of the second gift object is arranged at a position overlapping the character object.
The moving image reproduction system according to any one of [1] to [7].
[9]
the first gift object is displayed for a longer period of time than the second gift object;
The moving image reproduction system according to any one of [1] to [8].
[10]
The virtual space is constructed based on tracking information of active sensors selected from among a plurality of cameras,
When the first camera of the plurality of cameras is selected as the active sensor, the second posted message is displayed behind the character object,
When a second camera among the plurality of cameras is selected as the active sensor, the second posted message is displayed so as not to overlap with the character object.
The moving image reproduction system according to any one of [1] to [9].
[11]
The virtual space is constructed based on tracking information of active sensors selected from among a plurality of cameras,
The first posted message is sent when a first camera among the plurality of cameras is selected as the active sensor and when a second camera among the plurality of cameras is selected as the active sensor. displayed in the same position,
The moving image reproduction system according to any one of [1] to [10].
[12]
at least one of the first posted message and the second posted message is displayed on the gift object;
The moving image reproduction system according to any one of [1] to [11].
[13]
1. A method of playing a video performed by one or more computer processors executing computer readable instructions, comprising:
an animation of a character object generated to move in a virtual space based on the movement of an actor; a first posted message posted by a first user included in a first user group among the plurality of viewing users; a second posted message posted by a second user included in a second user group among the viewing users; and a gift object representing an electronic gift requested to be displayed by the first user or the second user. comprising the step of playing back the video on a client terminal used by each of the plurality of viewing users;
The gift objects include a first gift object that is displayed in association with a specific part of the character object, and a second gift object that is displayed without being associated with the specific part of the character object,
the second gift object moves in a movement direction specified by a movement direction parameter included in the second gift object display request;
Video playback method.
[14]
A program executed by one or more computer processors,
to the one or more computer processors;
an animation of a character object generated to move in a virtual space based on the movement of an actor; a first posted message posted by a first user included in a first user group among the plurality of viewing users; a second posted message posted by a second user included in a second user group among the viewing users; and a gift object representing an electronic gift requested to be displayed by the first user or the second user. causing a client terminal used by each of the plurality of viewing users to reproduce the moving image;
The gift objects include a first gift object that is displayed in association with a specific part of the character object, and a second gift object that is displayed without being associated with the specific part of the character object,
the second gift object moves in a movement direction specified by a movement direction parameter included in the second gift object display request;
Video player program.

符合の説明Code description

1 動画配信システム 1 Video distribution system

Claims (11)

ユーザによって投稿された投稿メッセージを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
アクターの動きに基づいて仮想空間内で動くように生成されるキャラクタオブジェクトのアニメーションと、前記投稿メッセージと、を含む動画を配信し、
前記投稿メッセージは、第1配信区間と前記第1配信区間と異なる第2配信区間とにおいて異なる表示態様で表示され、
前記投稿メッセージは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージと、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージとを含み、
前記第1配信区間においては、前記第1投稿メッセージが表示され、
前記第2配信区間においては、前記第2投稿メッセージが表示され、
前記第2投稿メッセージが表示されている表示時間は、前記第1投稿メッセージが表示されている表示時間よりも長い、
動画配信システム。
a storage for storing posted messages posted by users; and one or more computer processors,
The one or more computer processors, by executing computer readable instructions,
distributing a moving image including an animation of a character object generated to move in a virtual space based on the movement of an actor and the posted message;
The posted message is displayed in different display modes in a first distribution section and a second distribution section different from the first distribution section,
The posted message includes a first posted message posted by a first user included in a first user group and a second posted message posted by a second user included in a second user group,
The first posted message is displayed in the first distribution section,
the second posted message is displayed in the second distribution section,
the display time during which the second posted message is displayed is longer than the display time during which the first posted message is displayed;
video distribution system.
前記第2配信区間は、前記キャラクタオブジェクトがパフォーマンスを実施するための配信区間である、
請求項1に記載の動画配信システム。
The second distribution section is a distribution section for the character object to perform a performance.
The moving picture delivery system according to claim 1.
前記アクター又は前記動画の配信をサポートするサポーターからの指示により前記第1配信区間から前記第2配信区間へ移行する、
請求項1又は2に記載の動画配信システム。
Transition from the first distribution section to the second distribution section according to an instruction from the actor or a supporter who supports the distribution of the video;
3. The moving picture delivery system according to claim 1 or 2.
前記第1投稿メッセージは、前記キャラクタオブジェクトに重複して表示される、
請求項1~3のいずれか1項に記載の動画配信システム。
the first posted message is displayed in duplicate on the character object;
The moving image distribution system according to any one of claims 1 to 3.
前記第1投稿メッセージは、第1方向に移動するように表示される、
請求項1~4のいずれか1項に記載の動画配信システム。
the first posted message is displayed to move in a first direction;
The moving image distribution system according to any one of claims 1 to 4.
前記第2投稿メッセージは、第2方向に移動するように表示される、
請求項1~5のいずれか1項に記載の動画配信システム。
the second posted message is displayed to move in a second direction;
The moving image distribution system according to any one of claims 1 to 5.
前記第2投稿メッセージの移動速度は前記第1投稿メッセージの移動速度よりも遅い
請求項1~6のいずれか1項に記載の動画配信システム。
7. The moving picture distribution system according to claim 1, wherein the moving speed of the second posted message is slower than the moving speed of the first posted message.
前記第2ユーザグループは、前記第1ユーザグループよりも少ない数のユーザから構成される、
請求項1~7のいずれか1項に記載の動画配信システム。
The second user group consists of fewer users than the first user group,
The moving image distribution system according to any one of claims 1 to 7.
前記動画は、前記第1ユーザ又は前記第2ユーザから表示要求された電子的ギフトを表すギフトオブジェクトをさらに含む、
請求項1~8のいずれか1項に記載の動画配信システム。
the animation further includes a gift object representing an electronic gift requested by the first user or the second user for display;
The moving image distribution system according to any one of claims 1 to 8.
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
アクターの動きに基づいて仮想空間内で動くように生成されるキャラクタオブジェクトのアニメーションと、ユーザによって投稿された投稿メッセージと、を含む動画を配信する工程を備え、
前記投稿メッセージは、第1配信区間と前記第1配信区間と異なる第2配信区間とにおいて異なる表示態様で表示され
前記投稿メッセージは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージと、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージとを含み、
前記第1配信区間においては、前記第1投稿メッセージが表示され、
前記第2配信区間においては、前記第2投稿メッセージが表示され、
前記第2投稿メッセージが表示されている表示時間は、前記第1投稿メッセージが表示されている表示時間よりも長い、
動画配信方法。
A video distribution method performed by one or more computer processors executing computer readable instructions, comprising:
a step of distributing a moving image including an animation of a character object generated to move in a virtual space based on the movement of an actor and a posted message posted by a user;
The posted message is displayed in different display modes in a first distribution section and a second distribution section different from the first distribution section, and the posted message is a first user posted by a first user included in a first user group. including a posted message and a second posted message posted by a second user included in a second user group;
The first posted message is displayed in the first distribution section,
the second posted message is displayed in the second distribution section,
the display time during which the second posted message is displayed is longer than the display time during which the first posted message is displayed;
video delivery method.
一又は複数のコンピュータプロセッサに実行されるプログラムであって、
前記一又は複数のコンピュータプロセッサに、
アクターの動きに基づいて仮想空間内で動くように生成されるキャラクタオブジェクトのアニメーションと、ユーザによって投稿された投稿メッセージと、を含む動画を配信する工程を実行させ動画配信プログラムであって、
前記投稿メッセージは、第1配信区間と前記第1配信区間と異なる第2配信区間とにおいて異なる表示態様で表示され、
前記投稿メッセージは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージと、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージとを含み、
前記第1配信区間においては、前記第1投稿メッセージが表示され、
前記第2配信区間においては、前記第2投稿メッセージが表示され、
前記第2投稿メッセージが表示されている表示時間は、前記第1投稿メッセージが表示されている表示時間よりも長い、
動画配信プログラム。
A program executed by one or more computer processors,
to the one or more computer processors;
A moving image distribution program for executing a step of distributing a moving image including an animation of a character object generated to move in a virtual space based on the movement of an actor and a posted message posted by a user,
The posted message is displayed in different display modes in a first distribution section and a second distribution section different from the first distribution section,
The posted message includes a first posted message posted by a first user included in a first user group and a second posted message posted by a second user included in a second user group,
The first posted message is displayed in the first distribution section,
the second posted message is displayed in the second distribution section,
the display time during which the second posted message is displayed is longer than the display time during which the first posted message is displayed;
video distribution program.
JP2023078171A 2019-09-19 2023-05-10 Video distribution system for distributing video including message from viewing user Pending JP2023109850A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023078171A JP2023109850A (en) 2019-09-19 2023-05-10 Video distribution system for distributing video including message from viewing user

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019170275A JP6951394B2 (en) 2019-03-13 2019-09-19 Video distribution system that distributes videos including messages from viewers
JP2021115576A JP7279114B2 (en) 2019-09-19 2021-07-13 A video distribution system that distributes videos containing messages from viewing users
JP2023078171A JP2023109850A (en) 2019-09-19 2023-05-10 Video distribution system for distributing video including message from viewing user

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2021115576A Division JP7279114B2 (en) 2019-09-19 2021-07-13 A video distribution system that distributes videos containing messages from viewing users

Publications (1)

Publication Number Publication Date
JP2023109850A true JP2023109850A (en) 2023-08-08

Family

ID=78409540

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021115576A Active JP7279114B2 (en) 2019-09-19 2021-07-13 A video distribution system that distributes videos containing messages from viewing users
JP2023078171A Pending JP2023109850A (en) 2019-09-19 2023-05-10 Video distribution system for distributing video including message from viewing user

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2021115576A Active JP7279114B2 (en) 2019-09-19 2021-07-13 A video distribution system that distributes videos containing messages from viewing users

Country Status (1)

Country Link
JP (2) JP7279114B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012120098A (en) 2010-12-03 2012-06-21 Linkt Co Ltd Information provision system
JP2015184689A (en) 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
CN105227550B (en) 2015-09-18 2018-09-04 广州酷狗计算机科技有限公司 Scene display methods, apparatus and system
WO2017159383A1 (en) 2016-03-16 2017-09-21 ソニー株式会社 Information processing device, information processing method, program, and moving-image delivery system

Also Published As

Publication number Publication date
JP7279114B2 (en) 2023-05-22
JP2021177409A (en) 2021-11-11

Similar Documents

Publication Publication Date Title
JP6431233B1 (en) Video distribution system that distributes video including messages from viewing users
JP6382468B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
JP6420930B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
KR102481333B1 (en) A moving image distribution system, a moving image distribution method, and a moving image distribution program for distributing a moving image including animation of a character object generated based on the movement of an actor.
JP2022130508A (en) Video distribution system for live-distributing video including animation of character object generated on the basis of motions of distributing user, method for distributing video, and video distribution program
US20210409827A1 (en) Video distribution system distributing video that includes message from viewing user
JP6951394B2 (en) Video distribution system that distributes videos including messages from viewers
JP2024023273A (en) Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors
JP6847138B2 (en) A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors.
JP7460059B2 (en) A video distribution system for live streaming videos including animations of character objects generated based on the movements of actors
JP6498832B1 (en) Video distribution system that distributes video including messages from viewing users
JP2022173211A (en) Moving image distribution system, moving image distribution method, and moving image distribution program
JP7279114B2 (en) A video distribution system that distributes videos containing messages from viewing users
JP2020043578A (en) Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor
JP6592214B1 (en) Video distribution system that distributes video including messages from viewing users
JP6431242B1 (en) Video distribution system that distributes video including messages from viewing users
JP6764442B2 (en) Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors.
JP2020005238A (en) Video distribution system, video distribution method and video distribution program for distributing a video including animation of character object generated based on motion of actor
JP2019198057A (en) Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230511