JP2020017981A - Moving image distribution system distributing moving image including message from viewer user - Google Patents

Moving image distribution system distributing moving image including message from viewer user Download PDF

Info

Publication number
JP2020017981A
JP2020017981A JP2019170275A JP2019170275A JP2020017981A JP 2020017981 A JP2020017981 A JP 2020017981A JP 2019170275 A JP2019170275 A JP 2019170275A JP 2019170275 A JP2019170275 A JP 2019170275A JP 2020017981 A JP2020017981 A JP 2020017981A
Authority
JP
Japan
Prior art keywords
moving image
displayed
posted message
posted
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019170275A
Other languages
Japanese (ja)
Other versions
JP6951394B2 (en
Inventor
匡志 渡邊
Masashi Watanabe
匡志 渡邊
健悟 栗田
Kengo Kurita
健悟 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019045554A external-priority patent/JP6592214B1/en
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2019170275A priority Critical patent/JP6951394B2/en
Publication of JP2020017981A publication Critical patent/JP2020017981A/en
Priority to JP2021115576A priority patent/JP7279114B2/en
Application granted granted Critical
Publication of JP6951394B2 publication Critical patent/JP6951394B2/en
Priority to JP2023078171A priority patent/JP2023109850A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a moving image distribution system improving the display mode of contribution message assigned with a partial region of the moving image as a display space.SOLUTION: A moving image distribution system 1 includes a storage for storing a first contribution message posted by a first user included in a first user group, a second contribution message posted by a second user included in a second user group, and an object provided by at least one of the first and second users, and one or more computer processors. A moving image including a first display space capable of displaying the first and second contribution messages, and a second display space capable of displaying the second contribution message but not displaying the first contribution message is distributed.SELECTED DRAWING: Figure 1

Description

本明細書における開示は、視聴ユーザからのメッセージを含む動画を配信する動画配信システムに関する。本明細書における開示は、より具体的には、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及び視聴ユーザからのメッセージを含む動画を配信する動画配信システムに関する。     The disclosure herein relates to a moving image distribution system that distributes a moving image including a message from a viewing user. More specifically, the disclosure herein relates to a moving image distribution system that distributes a moving image including an animation of a character object generated based on the movement of an actor and a message from a viewing user.

従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている。このような動画配信システムは、例えば、特開2015−184689号公報(特許文献1)に開示されている。     2. Description of the Related Art A moving image distribution system that generates an animation of a character object based on the movement of an actor and distributes a moving image including the animation of the character object has been known. Such a moving image distribution system is disclosed, for example, in Japanese Patent Application Laid-Open No. 2015-184689 (Patent Document 1).

特許文献1には、当該動画配信システムにおいて、チャット機能を実装できることが開示されている。かかるチャット機能においては、動画を視聴する視聴ユーザからメッセージが投稿される。アクターは、この投稿された投稿メッセージを見ることができる。アクターが、メッセージに対してリアクションを行うと、そのリアクションが動画に反映される。このチャット機能により、視聴ユーザ同士の交流や、視聴ユーザとアクターとの交流が実現される。     Patent Document 1 discloses that the chat function can be implemented in the moving image distribution system. In such a chat function, a message is posted from a viewing user who views a moving image. The actor can see this posted message. When the actor reacts to the message, the reaction is reflected in the video. With this chat function, the interaction between the viewing users and the interaction between the viewing user and the actor are realized.

特開2015−184689号公報JP 2015-184689 A

従来、動画の表示画面の一部領域が投稿メッセージの表示領域として割り当てられている。表示画面におけるスペースの制約から、投稿メッセージの表示領域がキャラクタオブジェクトと重複することがある。この場合、投稿メッセージとキャラクタオブジェクトとが重複して表示されることによって、視聴ユーザの視聴体験が劣化するおそれがある。例えば、キャラクタオブジェクトの主要部分が投稿メッセージで隠されると、視聴者は動画の視聴を妨げられたと感じるおそれがある。     Conventionally, a partial area of a display screen of a moving image is allocated as a display area of a posted message. Due to space restrictions on the display screen, the display area of the posted message may overlap the character object. In this case, the posting message and the character object may be displayed in an overlapping manner, which may deteriorate the viewing experience of the viewing user. For example, if the main part of the character object is hidden by the posted message, the viewer may feel that the viewing of the moving image has been hindered.

投稿されたメッセージを表示する表示領域を表示画面の一定の領域に確保し、この表示領域にキャラクタオブジェクトが表示されないようにするための表示制御を行えばキャラクタオブジェクトと投稿メッセージとの重複は回避できる。しかしながら、キャラクタオブジェクトの表示位置が制限されてしまい、この点が動画制作の上で大きな制約となる。     If a display area for displaying the posted message is secured in a certain area of the display screen and display control is performed to prevent the character object from being displayed in this display area, the overlap between the character object and the posted message can be avoided. . However, the display position of the character object is limited, and this point is a great restriction in producing a moving image.

このように、投稿オブジェクトの表示領域を一定の領域に制限するとユーザに満足のいく視聴体験を提供することが難しくなる。キャラクタオブジェクトのアニメーションを含む動画における投稿メッセージの表示態様について、改善が求められている。     Thus, if the display area of the posted object is limited to a certain area, it is difficult to provide a satisfactory viewing experience to the user. There is a need for an improvement in the display mode of a posted message in a moving image including an animation of a character object.

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。     It is an object of the present disclosure to provide a technical improvement that solves or alleviates at least some of the problems of the prior art described above.

一態様による動画配信システムは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージ、及び前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備える。前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する。     The video distribution system according to an aspect includes a first posted message posted by a first user included in a first user group, a second posted message posted by a second user included in a second user group, and the first posted message. A storage for storing an object provided by at least one of a user and the second user; and one or more computer processors. The first user does not belong to the second user group, the second user does not belong to the first user group, and the second user has a predetermined parameter related to the object. A user who meets the conditions. The one or more computer processors execute a computer-readable instruction, so that the first display area that can display the first posted message and the second posted message, and the second posted message can be displayed. On the other hand, a moving image including a second display area in which the first posted message is not displayed is delivered.

一態様による動画配信システムは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ及び第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージ、を記憶するストレージと、一又は複数のコンピュータプロセッサと、を備える。前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属していない。前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する。前記第2ユーザは、前記動画の視聴状況が所定上面を満たしたユーザである。   A moving image distribution system according to one aspect includes a storage that stores a first posted message posted by a first user included in a first user group and a second posted message posted by a second user included in a second user group. And one or more computer processors. The first user does not belong to the second user group, and the second user does not belong to the first user group. The one or more computer processors execute a computer-readable instruction, so that the first display area that can display the first posted message and the second posted message, and the second posted message can be displayed. On the other hand, a moving image including a second display area in which the first posted message is not displayed is delivered. The second user is a user whose viewing condition of the moving image satisfies a predetermined upper surface.

一態様による動画配信システムにおいて、前記第2ユーザグループは、前記第1ユーザグループよりも少ない数のユーザから構成される。     In the moving image distribution system according to one aspect, the second user group includes a smaller number of users than the first user group.

一態様による動画配信システムにおいて、前記第1投稿メッセージは、前記第1表示領域において第1方向に移動する。     In the moving image distribution system according to one aspect, the first posted message moves in a first direction in the first display area.

一態様による動画配信システムにおいて、前記第2投稿メッセージは、前記第2表示領域において第2方向に移動する。     In the moving image distribution system according to an aspect, the second posted message moves in a second direction in the second display area.

一態様による動画配信システムにおいて、前記第2方向は、前記第2投稿メッセージに含まれる第1コマンドに応じて変化する。     In the moving image distribution system according to one aspect, the second direction changes according to a first command included in the second posted message.

一態様による動画配信システムにおいて、前記第2表示領域における前記第2投稿メッセージの初期表示位置は、前記第2投稿メッセージに含まれる第2コマンドに応じて変化する。     In the moving image distribution system according to one aspect, an initial display position of the second posted message in the second display area changes according to a second command included in the second posted message.

一態様による動画配信システムにおいて、前記第2投稿メッセージの前記第2表示領域における移動速度は前記第1投稿メッセージの前記第1表示領域における移動速度よりも遅い。     In the moving image distribution system according to one aspect, a moving speed of the second posted message in the second display area is lower than a moving speed of the first posted message in the first display area.

一態様による動画配信システムにおいて、前記第2投稿メッセージが前記第2表示領域に表示されている表示時間は、前記第1投稿メッセージが前記第1表示領域に表示されている表示時間よりも長い。     In the moving image distribution system according to one aspect, a display time in which the second posted message is displayed in the second display area is longer than a display time in which the first posted message is displayed in the first display area.

一態様による動画配信システムにおいて、前記第1表示領域には、前記第1投稿メッセージ以外の情報も表示される。     In the moving image distribution system according to one aspect, information other than the first posted message is also displayed in the first display area.

一態様による動画配信システムにおいて、前記ストレージは、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する。     In the moving image distribution system according to an aspect, the storage stores an object provided by at least one of the first user and the second user.

一態様による動画配信システムにおいて、前記第1投稿メッセージ以外の情報には、前記オブジェクトの提供が行われたことを示す通知が含まれる。     In the moving image distribution system according to one aspect, the information other than the first posted message includes a notification indicating that the object has been provided.

一態様による動画配信システムにおいて、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。     In the moving image distribution system according to one aspect, the second user is a user whose parameters regarding the object satisfy predetermined conditions.

一態様による動画配信システムにおいて、前記第2ユーザは、前記動画の視聴回数が所定回数を超えたユーザである。     In the moving image distribution system according to one aspect, the second user is a user whose number of times the moving image has been viewed exceeds a predetermined number.

一態様による動画配信システムにおいて、前記第1ユーザは、前記第1投稿メッセージの投稿数が所定数を超えると、前記第1ユーザグループから離脱し前記第2ユーザグループに含められる。     In the moving image distribution system according to one aspect, when the number of posts of the first posted message exceeds a predetermined number, the first user leaves the first user group and is included in the second user group.

一態様による動画配信システムにおいて、前記動画は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む。     In the moving image distribution system according to an aspect, the moving image includes an animation of a character object generated based on a movement of an actor.

一態様による動画配信システムにおいて、前記第2表示領域の少なくとも一部は、前記キャラクタオブジェクトの背後に配されている。     In the moving image distribution system according to one aspect, at least a part of the second display area is arranged behind the character object.

一態様による動画配信システムにおいて、前記第1表示領域及び前記キャラクタオブジェクトが重複して表示される場合には、前記キャラクタオブジェクトが前記第1表示領域の背後に配される。     In the moving image distribution system according to an aspect, when the first display area and the character object are displayed overlapping, the character object is arranged behind the first display area.

一態様による動画配信システムは、複数のカメラをさらに備え、前記複数のカメラの中から選択されたアクティブセンサのトラッキング情報に基づいて構成された仮想空間の画像を含む。     A moving image distribution system according to an aspect further includes a plurality of cameras, and includes an image of a virtual space configured based on tracking information of an active sensor selected from the plurality of cameras.

一態様による動画配信システムは、前記第2表示領域は、前記仮想空間内の表示用オブジェクトに設けられ、前記第2表示領域の前記仮想空間における位置は、前記アクティブセンサの位置及び向きに応じて変更される。     In the moving image distribution system according to an aspect, the second display area is provided in a display object in the virtual space, and a position of the second display area in the virtual space is determined according to a position and an orientation of the active sensor. Be changed.

一態様による動画配信システムは、前記第2表示領域は、前記仮想空間内に設けられ、前記第2表示領域の前記仮想空間における大きさは、前記アクティブセンサの位置及び向きに応じて変更される。     In the moving image distribution system according to an aspect, the second display area is provided in the virtual space, and a size of the second display area in the virtual space is changed according to a position and an orientation of the active sensor. .

一態様による動画配信システムにおいて、前記一又は複数のコンピュータプロセッサの少なくとも一部はサーバ装置に備えられており、前記第1投稿メッセージ以外の情報には、前記サーバ装置からの通知が含まれる。     In the moving image distribution system according to an aspect, at least a part of the one or more computer processors is provided in a server device, and information other than the first posted message includes a notification from the server device.

一態様による動画配信システムにおいて、前記第1表示領域には、前記第1投稿メッセージ及び前記第2投稿メッセージが表示される。     In the moving image distribution system according to one aspect, the first display area displays the first posted message and the second posted message.

一態様による動画配信システムにおいて、前記第1ユーザはクライアント装置を用いて第1投稿メッセージを投稿し、前記第2配信期間においては、前記クライアント装置は、前記第1投稿メッセージの投稿を行わないように構成される。   In the moving image distribution system according to an aspect, the first user posts a first posted message using a client device, and during the second distribution period, the client device does not post the first posted message. It is composed of

一態様による動画配信システムにおいて、電子的ギフトは前記仮想空間においてギフトオブジェクトとして表示され、前記第2表示領域は、前記仮想空間内の前記ギフトオブジェクトに設けられる。   In the moving image distribution system according to an aspect, an electronic gift is displayed as a gift object in the virtual space, and the second display area is provided on the gift object in the virtual space.

一態様による動画配信方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される。当該動画配信方法は、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を備える。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。     A moving image distribution method according to an aspect is executed when one or more computer processors execute computer-readable instructions. The moving image distribution method includes a step of storing a first posted message posted by a first user included in a first user group, and a step of storing a second posted message posted by a second user included in a second user group. Performing an operation, storing an object provided by at least one of the first user and the second user, a first display area capable of displaying the first posted message and the second posted message, And a second display area in which the first posted message is not displayed while the second posted message can be displayed. In this embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, and the second user A user whose parameters relating to the object satisfy predetermined conditions.

一態様による動画配信方法は、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を備える。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記動画の視聴状況が所定条件を満たしたユーザである。   A moving image distribution method according to an aspect includes a step of storing a first posted message posted by a first user included in a first user group, and a second posted message posted by a second user included in a second user group. , A first display area in which the first posted message and the second posted message can be displayed, and a second display in which the second posted message can be displayed while the first posted message is not displayed. And a step of delivering a moving image including the region. In this embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, and the second user A user whose viewing status of a moving image satisfies a predetermined condition.

一態様によるプログラムは、一又は複数のコンピュータプロセッサに実行されるプログラムであって、前記一又は複数のコンピュータプロセッサに、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を実行させる。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。     A program according to an aspect is a program executed by one or more computer processors, and stores a first posted message posted by a first user included in a first user group in the one or more computer processors. And storing a second posted message posted by a second user included in a second user group, and storing an object provided by at least one of the first user and the second user. A first display area in which the first posted message and the second posted message can be displayed, and a second display area in which the second posted message can be displayed but the first posted message is not displayed. And delivering the moving image. In this embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, and the second user A user whose parameters relating to the object satisfy predetermined conditions.

一態様によるプログラムは、一又は複数のコンピュータプロセッサに実行されるプログラムであって、前記一又は複数のコンピュータプロセッサに、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を実行させる。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記動画の視聴状況が所定条件を満たしたユーザである。     A program according to an aspect is a program executed by one or more computer processors, and stores a first posted message posted by a first user included in a first user group in the one or more computer processors. Performing, storing a second posted message posted by a second user included in a second user group, a first display area capable of displaying the first posted message and the second posted message, Distributing a moving image including a second display area in which the second posted message can be displayed while the first posted message is not displayed. In this embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, and the second user A user whose viewing status of a moving image satisfies a predetermined condition.

実施形態によれば、動画の視聴ユーザからの投稿メッセージを、当該視聴ユーザが属するユーザグループに応じた表示領域に表示することができる。     According to the embodiment, a posting message from a user viewing a moving image can be displayed in a display area corresponding to a user group to which the viewing user belongs.

一実施形態による動画配信システムを示すブロック図である。FIG. 1 is a block diagram illustrating a moving image distribution system according to an embodiment. 図1の動画配信システムで配信される動画を制作するスタジオの設備を模式的に示す模式図である。FIG. 2 is a schematic diagram schematically showing facilities of a studio for producing a moving image distributed by the moving image distribution system of FIG. 1. 図1の動画配信システムにおいて記憶される保有リストを説明する図である。FIG. 2 is a diagram illustrating a holding list stored in the moving image distribution system of FIG. 1. 図1の動画配信システムにおいて記憶される候補リストを説明する図である。FIG. 2 is a diagram illustrating a candidate list stored in the moving image distribution system of FIG. 1. 図1の動画配信システムにおいて記憶される投稿データを説明する図である。FIG. 2 is a diagram illustrating posted data stored in the video distribution system of FIG. 1. 図1の動画配信システムにおいて記憶される視聴管理データを説明する図である。FIG. 2 is a diagram illustrating viewing management data stored in the moving image distribution system of FIG. 1. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図7には、キャラクタオブジェクトのアニメーションが含まれている。FIG. 6 is a diagram illustrating an example of a moving image displayed on the client device 10a in one embodiment. FIG. 7 includes an animation of the character object. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図8には、通常オブジェクトが含まれている。FIG. 6 is a diagram illustrating an example of a moving image displayed on the client device 10a in one embodiment. FIG. 8 includes a normal object. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図9には、装飾オブジェクトが含まれている。FIG. 6 is a diagram illustrating an example of a moving image displayed on the client device 10a in one embodiment. FIG. 9 includes a decorative object. 候補リストに含まれている装飾オブジェクトの中から所望の選択装飾オブジェクトを選択するための装飾オブジェクト選択画面の例を示す模式図である。It is a schematic diagram which shows the example of the decoration object selection screen for selecting the desired selection decoration object from the decoration objects contained in the candidate list. 一実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。FIG. 9 is a diagram illustrating an example of a moving image including a first posted message displayed on the client device 10a in one embodiment. 一実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。FIG. 9 is a diagram illustrating an example of a moving image including a first posted message displayed on the client device 10a in one embodiment. 一実施形態においてクライアント装置10aに表示される第2投稿メッセージを含む動画の例を示す図である。FIG. 9 is a diagram illustrating an example of a moving image including a second posted message displayed on the client device 10a according to one embodiment. 一実施形態においてクライアント装置10aに表示される第2投稿メッセージを含む動画の例を示す図である。FIG. 9 is a diagram illustrating an example of a moving image including a second posted message displayed on the client device 10a according to one embodiment. 一実施形態における動画配信処理の流れを示すフロー図である。It is a flowchart which shows the flow of a moving image distribution process in one Embodiment. 図1の動画配信システムにおいて配信される動画の配信期間の区分を説明するための図である。FIG. 2 is a diagram for explaining division of a distribution period of a moving image distributed in the moving image distribution system of FIG. 1. 別の実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。FIG. 14 is a diagram illustrating an example of a moving image including a first posted message displayed on a client device 10a in another embodiment. 別の実施形態における投稿メッセージ表示処理の流れを示すフロー図である。It is a flowchart which shows the flow of the posted message display processing in another embodiment.

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。     Hereinafter, various embodiments of the present invention will be described with reference to the drawings as appropriate. The same reference numerals are given to the same or similar components in a plurality of drawings.

図1から図6を参照して、一実施形態による動画配信システムについて説明する。図1は、一実施形態による動画配信システム1を示すブロック図であり、図2は、動画配信システム1で配信される動画の制作が行われるスタジオの設備を模式的に示す模式図であり、図3から図6は、動画配信システム1において記憶される情報を説明するための図である。     A moving image distribution system according to an embodiment will be described with reference to FIGS. FIG. 1 is a block diagram illustrating a moving image distribution system 1 according to an embodiment, and FIG. 2 is a schematic diagram schematically illustrating facilities of a studio in which a moving image distributed by the moving image distribution system 1 is produced. 3 to 6 are diagrams for explaining information stored in the moving image distribution system 1. FIG.

動画配信システム1は、クライアント装置10a〜10cと、サーバ装置20と、スタジオユニット30と、ストレージ60と、を備える。クライアント装置10a〜10cと、サーバ装置20と、ストレージ60と、は、ネットワーク50を介して相互に通信可能に接続されている。サーバ装置20は、後述するように、キャラクタのアニメーションを含む動画を配信するように構成される。この動画に含まれるキャラクタは、仮想空間内でモーション制御されてもよい。     The moving image distribution system 1 includes client devices 10a to 10c, a server device 20, a studio unit 30, and a storage 60. The client devices 10a to 10c, the server device 20, and the storage 60 are communicably connected to each other via a network 50. The server device 20 is configured to distribute a moving image including a character animation, as described later. The character included in this moving image may be motion-controlled in the virtual space.

この動画は、サーバ装置20からクライアント装置10a〜10cの各々に配信され得る。クライアント装置10aのユーザである第1視聴ユーザ、クライアント装置10bのユーザである第2視聴ユーザ、及びクライアント装置10cのユーザである第3視聴ユーザは、配信された動画を、各クライアント装置により視聴することができる。動画配信システム1は、3台よりも少ない数のクライアント装置を備えていてもよく、3台よりも多い数のクライアント装置を備えていてもよい。     This moving image can be distributed from the server device 20 to each of the client devices 10a to 10c. A first viewing user who is a user of the client device 10a, a second viewing user who is a user of the client device 10b, and a third viewing user who is a user of the client device 10c view the distributed moving image with each client device. be able to. The moving image distribution system 1 may include less than three client devices, or may include more than three client devices.

クライアント装置10a〜10cは、スマートフォンなどの情報処理装置である。クライアント装置10a〜10cは、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。クライアント装置10a〜10cの各々は、コンピュータプロセッサ、メモリ、通信I/F、ディスプレイ、ジャイロセンサ等の各種センサを備えるセンサユニット、マイク等の集音装置、及び各種情報を記憶するストレージを備えていてもよい。     The client devices 10a to 10c are information processing devices such as smartphones. The client devices 10a to 10c may be a mobile phone, a tablet terminal, a personal computer, an electronic book reader, a wearable computer, a game console, and various other information processing devices capable of reproducing moving images in addition to a smartphone. Each of the client devices 10a to 10c includes a computer processor, a memory, a communication I / F, a display, a sensor unit including various sensors such as a gyro sensor, a microphone and other sound collecting devices, and a storage for storing various information. Is also good.

クライアント装置10a〜10cのディスプレイは、表示パネルと、タッチパネルと、を有する。タッチパネルは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネルは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。     The display of each of the client devices 10a to 10c has a display panel and a touch panel. The touch panel is configured to detect a player's touch operation (contact operation). The touch panel can detect various touch operations such as tap, double tap, and drag of the player. The touch panel may include a proximity sensor of a capacitance type, and may be configured to be able to detect a non-contact operation of the player.

視聴ユーザは、クライアント装置10a〜10cのタッチパネルを介して、配信された動画に関するメッセージ又はそれ以外のメッセージを入力することができる。このメッセージは、例えば、テキスト形式のメッセージ、静止画形式のメッセージ、動画形式のメッセージ、及びこれら以外の任意の形式の電子的なメッセージであってもよい。クライアント装置10a〜10cの各々は、視聴ユーザによって入力されたメッセージをサーバ装置20に投稿(送信)するように構成され得る。本明細書においては、配信された動画を視聴するためのクライアント装置10a〜10c及び/又はこれら以外のクライアント装置からサーバ装置20に送信されたメッセージを投稿メッセージと呼ぶことがある。例えば、第1視聴ユーザのクライアント装置10aに配信された動画に関して、当該第1視聴ユーザがクライアント装置10aに入力し、このクライアント装置10aからサーバ装置20に対して送信された投稿メッセージは、第1視聴ユーザの投稿メッセージである。     The viewing user can input a message related to the distributed moving image or other messages via the touch panel of the client devices 10a to 10c. This message may be, for example, a text message, a still image message, a moving image message, or an electronic message of any other format. Each of the client devices 10a to 10c can be configured to post (transmit) a message input by the viewing user to the server device 20. In the present specification, a message transmitted to the server device 20 from the client devices 10a to 10c and / or other client devices for viewing the distributed moving image may be referred to as a posted message. For example, regarding the moving image distributed to the client device 10a of the first viewing user, the first viewing user inputs the moving image to the client device 10a, and the posting message transmitted from the client device 10a to the server device 20 is the first message. This is a posting message of the viewing user.

図示の実施形態において、サーバ装置20は、コンピュータプロセッサ21と、通信I/F22と、ストレージ23と、を備えている。     In the illustrated embodiment, the server device 20 includes a computer processor 21, a communication I / F 22, and a storage 23.

コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。     The computer processor 21 is an arithmetic device that loads an operating system and various programs for realizing various functions from a storage 23 or another storage into a memory, and executes instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, an MPU, a DSP, a GPU, various arithmetic devices other than these, or a combination thereof. The computer processor 21 may be realized by an integrated circuit such as an ASIC, a PLD, an FPGA, and an MCU. Although the computer processor 21 is illustrated as a single component in FIG. 1, the computer processor 21 may be a set of a plurality of physically separate computer processors. In the present specification, a program described as being executed by the computer processor 21 or instructions included in the program may be executed by a single computer processor, or may be executed in a distributed manner by a plurality of computer processors. Is also good. Further, the program executed by the computer processor 21 or the instructions included in the program may be executed by a plurality of virtual computer processors.

通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。     The communication I / F 22 is implemented as hardware, firmware, communication software such as a TCP / IP driver or a PPP driver, or a combination thereof. The server device 20 can transmit and receive data to and from another device via the communication I / F 22.

ストレージ23は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ23は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ23には、様々なプログラムが記憶され得る。ストレージ23に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ装置20とは物理的に別体のストレージ(例えば、ストレージ60)に格納されてもよい。     The storage 23 is a storage device accessed by the computer processor 21. The storage 23 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various other storage devices capable of storing data. Various programs can be stored in the storage 23. At least a part of the programs and various data that can be stored in the storage 23 may be stored in a storage physically separate from the server device 20 (for example, the storage 60).

スタジオユニット30の構成要素の多くは、例えば、図2に示されているスタジオルームRに配されている。図示のように、スタジオルームRにおいては、アクターA1及びアクターA2がパフォーマンスを行っている。スタジオユニット30は、アクターA1及びアクターA2の動き及び表情を検出し、検出した情報をサーバ装置20に出力するように構成されている。     Many of the components of the studio unit 30 are arranged, for example, in the studio room R shown in FIG. As illustrated, in the studio room R, actors A1 and A2 are performing. The studio unit 30 is configured to detect the movement and expression of the actors A1 and A2 and output the detected information to the server device 20.

アクターA1及びアクターA2はいずれも、スタジオユニット30に備えられる後述のセンサ群によって動きや表情がキャプチャされる対象である。図示の実施形態において、アクターA1及びアクターA2は、トーク、パフォーマンス、及びこれら以外の動画として配信される番組を進行するための行動を行う人間である。アクターA1及びアクターA2は、人間以外に、動物またはこれ以外の運動する任意の物体(非生物)であってもよい。アクターA1及びアクターA2は、例えば、自立運動可能なロボットであってもよい。スタジオルームR内のアクターの数は、1であってもよいし、3以上であってもよい。     Each of the actors A1 and A2 is a target whose movement and expression are captured by a sensor group described later provided in the studio unit 30. In the illustrated embodiment, actors A1 and A2 are persons who perform talks, performances, and other actions to advance programs distributed as moving images. The actor A1 and the actor A2 may be animals or any other moving objects (non-living objects) other than humans. The actors A1 and A2 may be, for example, robots capable of independent movement. The number of actors in the studio room R may be one, or may be three or more.

スタジオユニット30は、アクターA1に装着される6つのモーションセンサ31a〜31fと、アクターA1の左手に把持されているコントローラ33aと、アクターA1の右手に把持されているコントローラ33bと、装着具37bを介してアクターA1の頭部に取り付けられるカメラ37aと、を有する。スタジオユニット30はまた、アクターA2に装着される6つのモーションセンサ32a〜32fと、アクターA2の左手に把持されているコントローラ34aと、アクターA2の右手に把持されているコントローラ34bと、装着具38bを介してアクターA2の頭部に取り付けられるカメラ38aと、を有する。装着具37b及び装着具38bの各々には、音声データを取得するためのマイクが取り付けられてもよい。このマイクは、アクターA1及びアクターA2の発話を音声データとして取得することができる。マイクは、装着具37b及び装着具38bを介してアクターA1及びアクターA2に装着される装着型のマイクであってもよく、スタジオルームRの床、壁、又は天井に設置される設置型のものであってもよい。スタジオユニット30は、上記の構成要素に加えて、ベースステーション35aと、ベースステーション35bと、トラッキングセンサ36aと、トラッキングセンサ36bと、ディスプレイ39と、を有する。スタジオルームRとガラス窓を隔てた隣室には、サポーターコンピュータ40が設置されている。サーバ装置20は、サポーターコンピュータ40が設置されている部屋と同じ部屋に設置されてもよい。     The studio unit 30 includes six motion sensors 31a to 31f mounted on the actor A1, a controller 33a held on the left hand of the actor A1, a controller 33b held on the right hand of the actor A1, and a mounting tool 37b. And a camera 37a attached to the head of the actor A1 via the camera 37a. The studio unit 30 also includes six motion sensors 32a to 32f mounted on the actor A2, a controller 34a held on the left hand of the actor A2, a controller 34b held on the right hand of the actor A2, and a mounting tool 38b. And a camera 38a attached to the head of the actor A2 via the camera 38a. A microphone for acquiring audio data may be attached to each of the mounting tool 37b and the mounting tool 38b. This microphone can acquire the utterances of the actors A1 and A2 as audio data. The microphone may be a mounted microphone that is mounted on the actor A1 and the actor A2 via the mounting device 37b and the mounting device 38b, and may be a mounted microphone that is installed on the floor, wall, or ceiling of the studio room R. It may be. The studio unit 30 has a base station 35a, a base station 35b, a tracking sensor 36a, a tracking sensor 36b, and a display 39, in addition to the above components. A supporter computer 40 is installed in an adjacent room separated by a glass window from the studio room R. The server device 20 may be installed in the same room where the supporter computer 40 is installed.

モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、ベースステーション35a及びベースステーション35bと協働して、自らの位置及び向きを検出する。一実施形態において、ベースステーション35a及びベースステーション35bは、多軸レーザーエミッターである。ベースステーション35aは、同期用の点滅光を発した後に、例えば鉛直軸の周りでレーザー光を走査する。ベースステーション35bは、例えば水平軸の周りでレーザー光を走査する。モーションセンサ31a〜31f及びモーションセンサ32a〜32fはそれぞれ、ベースステーション35a及びベースステーション35bからの点滅光及びレーザー光の入射を検知する光センサーを複数備えてもよい。モーションセンサ31a〜31f及びモーションセンサ32a〜32fはそれぞれ、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサーでの受光時間、各光センサーが検知したレーザー光の入射角度、及び必要に応じてこれら以外の情報に基づいて、自らの位置及び向きを検出してもよい。モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよい。ベースステーション35a及びベースステーション35bは、例えば、HTC CORPORATIONから提供されているベースステーションであってもよい。     The motion sensors 31a to 31f and the motion sensors 32a to 32f detect their positions and orientations in cooperation with the base stations 35a and 35b. In one embodiment, base station 35a and base station 35b are multi-axis laser emitters. After emitting the flashing light for synchronization, the base station 35a scans the laser light, for example, around the vertical axis. The base station 35b scans the laser light, for example, around a horizontal axis. Each of the motion sensors 31a to 31f and the motion sensors 32a to 32f may include a plurality of optical sensors for detecting the incidence of blinking light and laser light from the base station 35a and the base station 35b, respectively. The motion sensors 31a to 31f and the motion sensors 32a to 32f respectively include a time difference between the timing of the flashing light and the timing of the laser light, the light receiving time at each optical sensor, the incident angle of the laser light detected by each optical sensor, and If necessary, the own position and orientation may be detected based on other information. The motion sensors 31a to 31f and the motion sensors 32a to 32f may be, for example, a Vive Tracker provided by HTC CORPORATION. The base station 35a and the base station 35b may be, for example, base stations provided by HTC CORPORATION.

モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々において算出された各モーションセンサの位置及び向きを示す検出情報は、サーバ装置20に送信される。この検出情報は、モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々からサーバ装置20に無線送信されてもよい。ベースステーション35a及びベースステーション35bは、一定のインターバルで点滅光の発光及びレーザー光の走査を行うので、各モーションセンサの検出情報は、当該インターバルごとに更新される。なお、ベースステーションは、3つ以上の複数であってもよい。ベースステーションの位置は適宜変更してもよい。例えば、図2に示されているトラッキングセンサの検出対象の空間の上方の隅部に配されているベースステーションに加えて若しくは替えて、上方位置及び床面に近い下方位置に対をなすように配置されたベースステーションが設けられてもよい。例えば、ベースステーションは4つであってもよい
図示の実施形態において、アクターA1は、6つのモーションセンサ31a〜31fを装着している。モーションセンサ31a,31b,31c,31d,31e,及び31fはそれぞれ、アクターA1の左手首、右手首、左足甲、右足甲、腰、及び頭頂に装着されている。モーションセンサ31a〜31fは、装着具を介してアクターA1に装着されてもよい。アクターA2は、6つのモーションセンサ32a〜32fを装着している。モーションセンサ32a〜32fは、アクターA2に対してモーションセンサ31a〜31fと同様の位置に装着され得る。図2に示されているモーションセンサ31a〜31f及びモーションセンサ32a〜32fは例示である。モーションセンサ31a〜31fは、アクターA1の様々な部位に装着され得るし、モーションセンサ32a〜32fは、アクターA2の様々な部位に装着され得る。アクターA1及びアクターA2に装着されるモーションセンサの数は5以下であってもよいし7以上であってもよい。このように、アクターA1及びアクターA2の体の各部に装着されたモーションセンサ31a〜31f及びモーションセンサ32a〜32fの位置及び向きを検出することにより、アクターA1及びアクターA2の体の動きを検出することができる。
The detection information indicating the position and the direction of each motion sensor calculated by each of the motion sensors 31a to 31f and the motion sensors 32a to 32f is transmitted to the server device 20. This detection information may be wirelessly transmitted to the server device 20 from each of the motion sensors 31a to 31f and the motion sensors 32a to 32f. Since the base station 35a and the base station 35b emit the blinking light and scan the laser light at fixed intervals, the detection information of each motion sensor is updated at each interval. The number of base stations may be three or more. The position of the base station may be changed as appropriate. For example, in addition to or in place of a base station arranged at the upper corner of the space to be detected by the tracking sensor shown in FIG. 2, a pair is formed in an upper position and a lower position near the floor. An arranged base station may be provided. For example, there may be four base stations. In the illustrated embodiment, actor A1 is equipped with six motion sensors 31a-31f. The motion sensors 31a, 31b, 31c, 31d, 31e, and 31f are mounted on the left wrist, right wrist, left instep, right instep, waist, and top of actor A1, respectively. The motion sensors 31a to 31f may be mounted on the actor A1 via a mounting tool. Actor A2 is equipped with six motion sensors 32a to 32f. The motion sensors 32a to 32f can be attached to the actor A2 at the same positions as the motion sensors 31a to 31f. The motion sensors 31a to 31f and the motion sensors 32a to 32f shown in FIG. 2 are examples. The motion sensors 31a to 31f can be mounted on various parts of the actor A1, and the motion sensors 32a to 32f can be mounted on various parts of the actor A2. The number of motion sensors mounted on the actors A1 and A2 may be 5 or less, or 7 or more. Thus, by detecting the positions and orientations of the motion sensors 31a to 31f and the motion sensors 32a to 32f attached to each part of the body of the actor A1 and the actor A2, the movement of the body of the actor A1 and the actor A2 is detected. be able to.

一実施形態においては、アクターA1及びアクターA2に装着される複数のモーションセンサの各々に多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームRの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの各々の位置及び向きを検出してもよい。赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。このように、アクターに装着される複数のモーションセンサの各々に発光部(例えば、赤外LEDや可視光LED)を設け、この発光部からの光をスタジオルームR内に設けられた受光部(例えば、赤外線カメラや可視光カメラ)で検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。     In one embodiment, a large number of infrared LEDs are mounted on each of a plurality of motion sensors attached to the actor A1 and the actor A2, and light from the infrared LEDs is provided on the floor or wall of the studio room R. The position and the direction of each of the motion sensors may be detected by detecting with the infrared camera. A position and orientation of each motion sensor may be detected by using a visible light LED instead of the infrared LED and detecting light from the visible light LED with a visible light camera. As described above, a light emitting unit (for example, an infrared LED or a visible light LED) is provided in each of the plurality of motion sensors mounted on the actor, and light from the light emitting unit is received by the light receiving unit ( For example, the position and the direction of each of the motion sensors may be detected by detecting with an infrared camera or a visible light camera).

一実施形態においては、モーションセンサ31a〜31f及びモーションセンサ32a〜32fに代えて、複数の反射マーカーを用いることができる。反射マーカーは、アクターA1及びアクターA2の各々に粘着テープなどにより貼付される。このように反射マーカーが貼付されたアクターA1及びアクターA2を撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出することができる。     In one embodiment, a plurality of reflective markers can be used instead of the motion sensors 31a to 31f and the motion sensors 32a to 32f. The reflection marker is attached to each of the actors A1 and A2 with an adhesive tape or the like. By photographing the actor A1 and the actor A2 to which the reflection marker is attached as described above to generate photographing data, and performing image processing on the photographing data, the position and the direction of the reflection marker can be detected.

コントローラ33a及びコントローラ33bは、アクターA1の操作に応じたコントロール信号をサーバ装置20に出力する。同様に、コントローラ34a及びコントローラ34bは、アクターA2の操作に応じたコントロール信号をサーバ装置20に出力する。     The controller 33a and the controller 33b output a control signal corresponding to the operation of the actor A1 to the server device 20. Similarly, the controller 34a and the controller 34b output a control signal corresponding to the operation of the actor A2 to the server device 20.

トラッキングセンサ36a及びトラッキングセンサ36bは、動画に含まれる仮想空間を構築するための仮想カメラの設定情報を定めるためのトラッキング情報を生成する。トラッキングセンサ36a及びトラッキングセンサ36bのトラッキング情報は、各々の三次元直交座標系での位置および各軸回りの角度として算出される。トラッキングセンサ36aの位置および向きは、操作者の操作に応じて変更されえる。トラッキングセンサ36aは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。同様に、トラッキングセンサ36bの位置および向きは、操作者の操作に応じて設定される。トラッキングセンサ36bは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。図示の実施形態において、トラッキングセンサ36aは、アクターA1の左前方に設けられている。トラッキングセンサ36bは、アクターA1及びアクターA2の前方であってアクターA1とアクターA2とのほぼ中間の位置に設けられている。     The tracking sensor 36a and the tracking sensor 36b generate tracking information for determining setting information of a virtual camera for constructing a virtual space included in a moving image. The tracking information of the tracking sensor 36a and the tracking sensor 36b is calculated as a position in each three-dimensional orthogonal coordinate system and an angle around each axis. The position and orientation of the tracking sensor 36a can be changed according to the operation of the operator. The tracking sensor 36a transmits tracking information indicating the position and the direction to the tracking information server device 20. Similarly, the position and the direction of the tracking sensor 36b are set according to the operation of the operator. The tracking sensor 36b transmits tracking information indicating the position and orientation to the tracking information server device 20. In the illustrated embodiment, the tracking sensor 36a is provided at the front left of the actor A1. The tracking sensor 36b is provided at a position in front of the actors A1 and A2 and substantially in the middle between the actors A1 and A2.

カメラ37aは、上記のように、アクターA1の頭部に取り付けられている。例えば、カメラ37aは、アクターA1の顔を撮像できるように配置されている。カメラ37aは、アクターA1の顔を連続的に撮像し、アクターA1の顔の撮像データを取得する。同様に、カメラ38aは、アクターA2の頭部に取り付けられている。カメラ38aは、アクターA2の顔を撮像できるように配置されており、アクターA2の顔を連続的に撮像し、アクターA2の顔の撮像データを取得する。カメラ37aは、アクターA1の顔の撮像データをサーバ装置20に送信し、カメラ38aは、アクターA1の顔の撮像データをサーバ装置20に送信する。カメラ37a及びカメラ38aは、人物の顔の奥行きを検出可能な3Dカメラであってもよい。     The camera 37a is attached to the head of the actor A1, as described above. For example, the camera 37a is arranged so that the face of the actor A1 can be imaged. The camera 37a continuously captures an image of the face of the actor A1, and acquires image data of the face of the actor A1. Similarly, camera 38a is attached to the head of actor A2. The camera 38a is arranged so as to be able to image the face of the actor A2, continuously images the face of the actor A2, and acquires image data of the face of the actor A2. The camera 37a transmits image data of the face of the actor A1 to the server device 20, and the camera 38a transmits image data of the face of the actor A1 to the server device 20. The cameras 37a and 38a may be 3D cameras capable of detecting the depth of a person's face.

ディスプレイ39は、サポートコンピュータ40から受信した情報を表示するように構成される。サポートコンピュータ40からディスプレイ39に送信される情報は、例えば、テキスト情報、画像情報、及びこれら以外の各種情報を含み得る。ディスプレイ39は、アクターA1及びアクターA2によって視認可能な位置に配置される。     The display 39 is configured to display information received from the support computer 40. The information transmitted from the support computer 40 to the display 39 may include, for example, text information, image information, and various other information. The display 39 is arranged at a position visible by the actors A1 and A2.

図示の実施形態において、サポーターコンピュータ40は、スタジオルームRの隣室に設置されている。サポーターコンピュータ40が設置されている部屋とスタジオルームRとはガラス窓によって隔てられているため、サポーターコンピュータ40のオペレータ(本明細書では「サポーター」ということがある。)は、アクターA1及びアクターA2を視認できる。図示の実施形態においては、サポーターコンピュータ40のオペレータとして、サポーターB1及びサポーターB2が在室している。     In the illustrated embodiment, the supporter computer 40 is installed in a room adjacent to the studio room R. Since the room in which the supporter computer 40 is installed is separated from the studio room R by a glass window, the operator of the supporter computer 40 (hereinafter, sometimes referred to as “supporter” in the present specification) has actors A1 and A2. Can be visually recognized. In the illustrated embodiment, supporters B1 and B2 are present as operators of the supporter computer 40.

サポーターコンピュータ40は、サポーターB1及びサポーターB2の操作に応じて、スタジオユニット30の構成要素の設定を変更することができるように構成されてもよい。サポーターコンピュータ40は、例えば、ベースステーション35a及びベースステーション35bによる走査インターバルの設定、トラッキングセンサ36a及びトラッキングセンサ36bの位置または向きの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。後述するアクティブセンサの切り替えは、サポーターB1及びサポーターB2によるサポーターコンピュータ40の操作に基づいて実行され得る。サポーターB1及びサポータB2の少なくとも一方は、サポーターコンピュータ40にメッセージを入力し、当該入力されたメッセージをディスプレイ39に表示することができる。     The supporter computer 40 may be configured to be able to change the settings of the components of the studio unit 30 according to the operation of the supporters B1 and B2. The supporter computer 40 can set, for example, a scanning interval by the base station 35a and the base station 35b, a position or an orientation of the tracking sensor 36a and the tracking sensor 36b, and change various settings of various devices other than these. . The switching of the active sensor described later can be executed based on the operation of the supporter computer 40 by the supporters B1 and B2. At least one of the supporters B1 and B2 can input a message to the supporter computer 40 and display the input message on the display 39.

図2に示されているスタジオユニット30の構成要素及び機能は例示である。本発明に適用可能なスタジオユニット30は、図示されていない様々な構成要素を備え得る。例えば、スタジオユニット30は、プロジェクタを備えていてもよい。当該プロジェクタは、クライアント装置10aまたはそれ以外のクライアント装置に配信される動画をスクリーンSに投影することができる。     The components and functions of the studio unit 30 shown in FIG. 2 are exemplary. The studio unit 30 applicable to the present invention may include various components not shown. For example, the studio unit 30 may include a projector. The projector can project a moving image distributed to the client device 10a or another client device on the screen S.

次に、一態様において、ストレージ23に記憶される情報について説明する。図示の実施形態においては、ストレージ23には、モデルデータ23a、オブジェクトデータ23b、保有リスト23c、候補リスト23d、投稿データ23e、視聴管理データ23f、及び前記以外の配信動画の生成及び配信に必要な様々な情報が記憶される。     Next, information stored in the storage 23 in one embodiment will be described. In the illustrated embodiment, the storage 23 includes model data 23a, object data 23b, holding list 23c, candidate list 23d, posting data 23e, viewing management data 23f, and other necessary moving images for generation and distribution. Various information is stored.

モデルデータ23aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ23aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ23aは、例えば、キャラクタの骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ23aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。図示の実施形態においては、アクターA1に対応するキャラクタオブジェクト及びアクターA2に対応するキャラクタオブジェクトを生成するために、モデルデータ23aは、互いに異なる少なくとも2種類のモデルデータを有する。このアクターA1に対応するキャラクタオブジェクト用のモデルデータとアクターA2に対応するキャラクタオブジェクト用のモデルデータとは、例えば、同じリグデータを有するが、異なる表面データを有していてもよい。     The model data 23a is model data for generating a character animation. The model data 23a may be three-dimensional model data for generating a three-dimensional animation, or two-dimensional model data for generating two-dimensional model data. The model data 23a includes, for example, rig data (sometimes called “skeleton data”) indicating the skeleton of the character, and surface data indicating the shape and texture of the surface of the character. The model data 23a can include a plurality of different model data. The plurality of model data may have different rig data, or may have the same rig data. The plurality of model data may have different surface data from each other, or may have the same surface data. In the illustrated embodiment, the model data 23a has at least two different types of model data to generate a character object corresponding to the actor A1 and a character object corresponding to the actor A2. The model data for the character object corresponding to the actor A1 and the model data for the character object corresponding to the actor A2 have, for example, the same rig data, but may have different surface data.

オブジェクトデータ23bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ23bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ23aには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。     The object data 23b includes asset data for constructing a virtual space forming a moving image. The object data 23b includes data for drawing the background of the virtual space constituting the moving image, data for drawing various objects displayed in the moving image, and data for drawing various objects displayed in the moving image other than these. Contains data. The object data 23a may include object position information indicating the position of the object in the virtual space.

オブジェクトデータ23bには、上記以外にも、クライアント装置10a〜10cの視聴ユーザからの表示要求に基づいて動画に表示されるギフトオブジェクトが含まれ得る。ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。視聴ユーザは、所望のギフトオブジェクトを購入することができる。     In addition to the above, the object data 23b may include a gift object displayed in a moving image based on a display request from a viewing user of the client devices 10a to 10c. The gift object may include an effect object, a normal object, and a decoration object. The viewing user can purchase a desired gift object.

エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトである。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。エフェクトオブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。     The effect object is an object that affects the impression of the entire viewing screen of the distribution moving image, and is, for example, an object imitating confetti. An object imitating a confetti may be displayed on the entire viewing screen, thereby changing the impression of the entire viewing screen before and after the display. The effect object may be displayed so as to overlap the character object, but is different from the decorative object in that the display associated with a specific part of the character object is not performed.

通常オブジェクトは、視聴ユーザからアクター(例えば、アクターA1またはアクターA2)へのデジタル的なギフトとなるオブジェクトであり、例えばぬいぐるみや花束を模したオブジェクトである。一態様において、通常オブジェクトは、キャラクタオブジェクトと接しないように動画の表示画面に表示される。一態様において、通常オブジェクトは、キャラクタオブジェクトと重複しないように動画の表示画面に表示される。通常オブジェクトは、仮想空間においてキャラクタオブジェクト以外のオブジェクトと重複するように表示されてもよい。通常オブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。一態様において、通常オブジェクトをキャラクタオブジェクトと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタオブジェクトの顔を含む頭部以外の部分と重複し、当該キャラクタオブジェクトの頭部とは重複しないように表示される。     The normal object is an object serving as a digital gift from the viewing user to the actor (for example, the actor A1 or the actor A2), for example, an object imitating a stuffed animal or a bouquet. In one aspect, the normal object is displayed on the moving image display screen so as not to contact the character object. In one aspect, the normal object is displayed on the display screen of the moving image so as not to overlap with the character object. The normal object may be displayed so as to overlap with an object other than the character object in the virtual space. The normal object may be displayed so as to overlap with the character object, but is different from the decorative object in that a display associated with a specific part of the character object is not performed. In one aspect, when the normal object is displayed so as to overlap with the character object, the normal object overlaps with a part other than the head including the face of the character object, and does not overlap with the head of the character object. Is displayed as follows.

装飾オブジェクトは、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示されるオブジェクトである。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位に接するように表示画面に表示される。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位の一部又は全部を覆うように表示画面に表示される。     The decoration object is an object displayed on the display screen in association with a specific part of the character object. In one aspect, the decorative object displayed on the display screen in association with the specific part of the character object is displayed on the display screen so as to be in contact with the specific part of the character object. In one aspect, the decorative object displayed on the display screen in association with the specific part of the character object is displayed on the display screen so as to cover part or all of the specific part of the character object.

装飾オブジェクトは、例えば、キャラクタオブジェクトに装着されるアクセサリー(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクラオブジェクトが装着可能なオブジェクトである。装飾オブジェクトに対応するオブジェクトデータ23bには、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着位置情報が含まれてもよい。ある装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に装着されるかを示すことができる。例えば、装飾オブジェクトがカチューシャである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「頭部」に装着されることを示してもよい。装飾オブジェクトがTシャツである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「胴部」に装着されることを示してもよい。     The decorative object is, for example, an accessory (a headband, a necklace, an earring, or the like), a clothing (a T-shirt, or the like), a costume, or any other object to which a character object can be mounted. The object data 23b corresponding to the decoration object may include mounting position information indicating to which part of the character object the decoration object is associated. The mounting position information of a certain decoration object can indicate to which part of the character object the decoration object is mounted. For example, when the decoration object is a headband, the mounting position information of the decoration object may indicate that the decoration object is mounted on the “head” of the character object. When the decoration object is a T-shirt, the mounting position information of the decoration object may indicate that the decoration object is mounted on the “body” of the character object.

ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装飾オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装飾オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されてもよい。     A display time according to the type of each gift object may be set. In one aspect, the display time of the decoration object may be set longer than the display time of the effect object and the display time of the normal object. For example, the display time of the decoration object may be set to 60 seconds, the display time of the effect object may be set to 5 seconds, and the display time of the normal object may be set to 10 seconds.

保有リスト23cは、動画の視聴ユーザが保有しているギフトオブジェクトを示すリストである。保有リスト23cの例が図3に示されている。図示のように、保有リスト23cにおいては、視聴ユーザのアカウント情報(例えば、視聴ユーザのユーザID)と対応づけて、当該視聴ユーザが保有するギフトオブジェクトを特定するオブジェクトIDが記憶されている。この視聴ユーザには、例えば、クライアント装置10a〜クライアント装置10cの第1視聴ユーザ〜第3視聴ユーザが含まれる。     The holding list 23c is a list indicating the gift objects held by the user viewing the moving image. FIG. 3 shows an example of the holding list 23c. As illustrated, the holding list 23c stores an object ID that specifies a gift object held by the viewing user in association with the account information of the viewing user (for example, the user ID of the viewing user). The viewing users include, for example, first to third viewing users of the client devices 10a to 10c.

候補リスト23dは、視聴ユーザから表示要求がなされた装飾オブジェクトのリストである。後述するように、装飾オブジェクトを保有している視聴ユーザは、保有している装飾オブジェクトの表示要求を行うことができる。候補リスト23dにおいては、装飾オブジェクトの表示要求を行った視聴ユーザのアカウント情報と対応付けて、当該装飾オブジェクトを特定するオブジェクトIDが記憶される。この候補リスト23dは、配信者ごとに作成されてもよい。候補リスト23dは、例えば、配信者(アクターA1、アクターA2、サポーターB1、及び/又はサポーターB2)を特定する配信者識別情報と対応付けて記憶されてもよい。     The candidate list 23d is a list of decorative objects for which a display request has been made by the viewing user. As will be described later, the viewing user holding the decorative object can make a display request for the held decorative object. In the candidate list 23d, an object ID for specifying the decoration object is stored in association with the account information of the viewing user who made the display request of the decoration object. This candidate list 23d may be created for each distributor. The candidate list 23d may be stored, for example, in association with distributor identification information that specifies a distributor (actor A1, actor A2, supporter B1, and / or supporter B2).

投稿データ23eは、視聴ユーザから投稿された投稿メッセージを示すデータである。投稿データ23eは、投稿メッセージを投稿した視聴ユーザのアカウント情報と、当該視聴ユーザが属するユーザグループを示すグループ情報と、当該視聴ユーザによって投稿された投稿メッセージと、を含む。このように、ストレージ23には、視聴ユーザのアカウント情報に対応付けて、当該視聴ユーザが属するユーザグループに関するグループ情報と、当該視聴ユーザによって投稿された投稿メッセージとが記憶され得る。投稿データ23eは、各投稿メッセージが投稿された時刻(例えば、クライアント装置から送信された投稿メッセージがサーバ装置20によって受信された時刻、または、サーバ装置20に受信された投稿メッセージがストレージ23の所定の記憶領域に書き込まれた時刻)を記憶しても良い。     The posted data 23e is data indicating a posted message posted by the viewing user. Post data 23e includes account information of the viewing user who posted the posting message, group information indicating a user group to which the viewing user belongs, and a posting message posted by the viewing user. As described above, the storage 23 can store the group information on the user group to which the viewing user belongs and the posted message posted by the viewing user in association with the account information of the viewing user. The posting data 23e indicates the time at which each posting message was posted (for example, the time at which the posting message transmitted from the client device was received by the server device 20 or the time at which the posting message received by the server device 20 was stored in the storage 23). May be stored in the storage area.

視聴ユーザのアカウント情報は、例えば、当該視聴ユーザのユーザ識別情報(ユーザID)である。     The account information of the viewing user is, for example, user identification information (user ID) of the viewing user.

グループ情報は、視聴ユーザが属するグループを識別するグループ識別情報(グループID)である。視聴ユーザが属するグループには、例えば、第1ユーザグループと、第2ユーザグループと、が含まれる。例えば、第1ユーザグループは、一般ユーザが属する一般ユーザグループであり、第2ユーザグループは、一般ユーザとは異なるプレミアムユーザが属するプレミアムユーザグループである。     The group information is group identification information (group ID) for identifying a group to which the viewing user belongs. The group to which the viewing user belongs includes, for example, a first user group and a second user group. For example, the first user group is a general user group to which a general user belongs, and the second user group is a premium user group to which a premium user different from the general user belongs.

第1ユーザグループと第2ユーザグループとの分類基準として、様々な基準が採用され得る。視聴ユーザのうち動画の視聴回数が所定回数よりも少ないユーザを一般ユーザに分類し、視聴回数が所定回数以上のユーザをプレミアムユーザに分類してもよい。視聴ユーザのうち動画の視聴時間が所定時間よりも少ないユーザを一般ユーザに分類し、視聴時間が所定時間以上のユーザをプレミアムユーザに分類してもよい。ギフトオブジェクトの購入金額が所定金額よりも少ないユーザを一般ユーザに分類し、ギフトオブジェクトの購入金額が所定金額以上のユーザをプレミアムユーザに分類してもよい。ギフトオブジェクトの購入量が所定量よりも少ないユーザを一般ユーザに分類し、ギフトオブジェクトの購入量が所定量以上のユーザをプレミアムユーザに分類してもよい。視聴ユーザのうち投稿メッセージの投稿数が所定数よりも少ないユーザを一般ユーザに分類し、投稿メッセージの投稿数が所定数以上のユーザをプレミアムユーザに分類してもよい。視聴回数、視聴時間、ギフトオブジェクトの購入金額、ギフトオブジェクトの購入量、投稿メッセージの投稿数は、動画配信システム1の利用開始からの累積値であってもよく、所定期間において集計された集計値であってもよい。     Various criteria can be adopted as the classification criteria for the first user group and the second user group. Of the viewing users, users who have viewed the video less than a predetermined number of times may be classified as general users, and users whose viewing times are equal to or more than a predetermined number of times may be classified as premium users. Of the viewing users, users who have watched a video for less than a predetermined time may be classified as general users, and users whose viewing time is not less than a predetermined time may be classified as premium users. A user whose purchase amount of the gift object is smaller than the predetermined amount may be classified as a general user, and a user whose purchase amount of the gift object is equal to or more than the predetermined amount may be classified as a premium user. A user whose purchase amount of a gift object is smaller than a predetermined amount may be classified as a general user, and a user whose purchase amount of a gift object is equal to or more than a predetermined amount may be classified as a premium user. Of the viewing users, the users who posted less than a predetermined number of posted messages may be classified as general users, and the users who posted more than a predetermined number of posted messages may be classified as premium users. The number of times of viewing, the viewing time, the purchase amount of the gift object, the purchase amount of the gift object, and the number of posts of the posted message may be a cumulative value from the start of use of the moving image distribution system 1, and may be a total value calculated in a predetermined period It may be.

一態様において、第2ユーザグループは、第1ユーザグループよりも少ない数のユーザから構成される。視聴ユーザは、動画配信システム1への利用登録を行う際には、第1ユーザグループに分類される。視聴ユーザは、動画配信システム1の利用開始後に、第2ユーザグループに分類されるための基準を満たすと、第1ユーザグループを離脱して第2ユーザグループに属する。このように、視聴ユーザは、動画配信システム1の利用態様によって、所属するユーザグループが変更されてもよい。視聴ユーザは、第2ユーザグループに分類されるための基準を満たさなくなった場合には、第2ユーザグループから第1ユーザグループへ所属するユーザグループが変更されてもよい。     In one aspect, the second user group is composed of a smaller number of users than the first user group. Viewing users are classified into a first user group when registering use of the moving image distribution system 1. If the viewing user satisfies the criteria for being classified into the second user group after starting to use the video distribution system 1, the viewing user leaves the first user group and belongs to the second user group. As described above, the user group to which the viewing user belongs may be changed according to the use mode of the moving image distribution system 1. When the viewing user no longer satisfies the criteria for being classified into the second user group, the user group belonging to the first user group may be changed from the second user group.

一態様において、第1ユーザグループに属する視聴ユーザの数が第2ユーザグループに属する視聴ユーザの数よりも少ない状態が維持されるように、ユーザグループへの分類基準が動的に調整されてもよい。例えば、サーバ装置20は、第1ユーザグループに属する視聴ユーザの数及び第2ユーザグループに属する視聴ユーザの数をモニターし、その差が所定数よりも小さくなった場合には、第2ユーザグループへ分類されるための基準を厳しくしてもよい。例えば、当初は、動画配信システム1を利用した動画の視聴時間が10時間以上の視聴ユーザを第2ユーザグループに分類している場合、第2ユーザグループに属するユーザの数と第1ユーザグループに属する視聴ユーザの数との差が所定の値よりも小さくなった場合には、動画配信システム1を利用した動画の視聴時間が20時間以上の視聴ユーザを第2ユーザグループに分類するように基準を変更しても良い。     In one aspect, even if the classification criteria for the user groups are dynamically adjusted so that the state in which the number of viewing users belonging to the first user group is smaller than the number of viewing users belonging to the second user group is maintained. Good. For example, the server device 20 monitors the number of viewing users belonging to the first user group and the number of viewing users belonging to the second user group, and when the difference is smaller than a predetermined number, the second user group The criteria for classification into may be strict. For example, initially, when the viewing users who watch the video using the video distribution system 1 for 10 hours or more are classified into the second user group, if the number of users belonging to the second user group and the first user group If the difference from the number of viewing users belonging to the video distribution system becomes smaller than a predetermined value, a reference is made to classify the viewing users who use the video distribution system 1 for a viewing time of 20 hours or more into the second user group. May be changed.

視聴ユーザの分類は、本明細書で具体的に説明するものには限定されない。視聴ユーザは、3つ以上のグループに分類されてもよい。また、各視聴ユーザがどのグループに所属するかを定める分類基準は任意に定められ得る。     The classification of the viewing users is not limited to those specifically described in this specification. The viewing users may be classified into three or more groups. Further, the classification criteria for determining which group each viewing user belongs to can be arbitrarily determined.

投稿メッセージは、視聴ユーザからクライアント装置を介して投稿されたメッセージである。視聴ユーザから投稿されるメッセージには、例えば、テキスト形式のメッセージ、静止画形式のメッセージ、動画形式のメッセージ、及びこれら以外の様々な形式のメッセージが含まれる。本明細書においては、第1ユーザグループに属する視聴ユーザから投稿された投稿メッセージを第1投稿メッセージと呼び、第2ユーザグループに属する視聴ユーザから投稿された投稿メッセージを第2投稿メッセージと呼ぶことがある。     The posted message is a message posted from the viewing user via the client device. The message posted by the viewing user includes, for example, a text message, a still image message, a moving image message, and various other messages. In this specification, a posted message posted from a viewing user belonging to a first user group is referred to as a first posted message, and a posted message posted from a viewing user belonging to a second user group is referred to as a second posted message. There is.

視聴管理データ23fは、視聴ユーザによる動画の視聴を管理するためのデータである。視聴管理データ23fは、視聴ユーザのアカウント情報と、動画配信システム1により配信される動画に関する動画情報と、当該動画の視聴に関する動画視聴情報と、を含む。このように、ストレージ23には、視聴ユーザのアカウント情報に対応付けて、当該視聴ユーザが視聴した動画に関する動画情報と、当該動画の視聴に関する動画視聴情報と、が記憶され得る。動画情報は、例えば、動画を識別する動画識別情報(動画ID)である。動画視聴情報は、視聴ユーザによって視聴された動画の視聴時間、視聴回数、及びこれら以外の動画の視聴に関する様々なデータを含み得る。     The viewing management data 23f is data for managing viewing of a moving image by a viewing user. The viewing management data 23f includes account information of the viewing user, moving image information on moving images distributed by the moving image distribution system 1, and moving image viewing information on viewing of the moving images. In this manner, the storage 23 can store, in association with the account information of the viewing user, the moving image information on the moving image viewed by the viewing user and the moving image viewing information on the viewing of the moving image. The moving image information is, for example, moving image identification information (moving image ID) for identifying a moving image. The moving picture viewing information may include viewing time of the moving picture viewed by the viewing user, the number of times of viewing, and various data related to viewing of the other moving pictures.

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、ボディモーションデータ生成部21a、フェイスモーションデータ生成部21b、アニメーション生成部21c、動画生成部21d、動画配信部21e、表示要求処理部21f、装飾オブジェクト選択部21g、オブジェクト購入処理部21h、及び投稿メッセージ処理部21iとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サポーターコンピュータ40に搭載されているコンピュータプロセッサにより実現されてもよい。     Next, functions realized by the computer processor 21 will be described more specifically. The computer processor 21 executes a computer-readable instruction included in the distribution program to execute a body motion data generation unit 21a, a face motion data generation unit 21b, an animation generation unit 21c, a moving image generation unit 21d, a moving image distribution unit 21e, It functions as a display request processing unit 21f, a decoration object selection unit 21g, an object purchase processing unit 21h, and a posted message processing unit 21i. At least a part of the functions realized by the computer processor 21 may be realized by a computer processor other than the computer processor 21 of the moving image distribution system 1. At least a part of the functions realized by the computer processor 21 may be realized by, for example, a computer processor mounted on the supporter computer 40.

ボディモーションデータ生成部21aは、モーションセンサ31a〜31fの各々の検出情報に基づいて、アクターA1の体の各部位の第1ボディモーションデータを生成し、また、モーションセンサ32a〜32fの各々の検出情報に基づいて、アクターA2の体の各部位の位置及び向きのデジタル表現である第2ボディモーションデータを生成する。本明細書では、第1ボディモーションデータ及び第2ボディモーションデータを総称して単に「ボディモーションデータ」と呼ぶことがある。ボディモーションデータは、時間の経過に伴って随時生成される。例えば、ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、ボディモーションデータは、アクターA1及びアクターA2の体の動きを時系列的にデジタルデータとして表現することができる。図示の実施形態においては、モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、アクターA1及びアクターA2の各々の左右の手足、腰、及び頭部に装着されているため、モーションセンサ31a〜31f及びモーションセンサ32a〜32fの検出情報に基づいて、アクターA1及びアクターA2の概ね全身の位置及び向きを経時的にデジタル表現することが可能である。ボディモーションデータは、例えば、モデルデータ23aに含まれるリグデータを構成する骨(ボーン)の位置及び回転角度を規定することができる。     The body motion data generation unit 21a generates first body motion data of each part of the body of the actor A1 based on the detection information of each of the motion sensors 31a to 31f, and detects each of the motion sensors 32a to 32f. Based on the information, it generates second body motion data that is a digital representation of the position and orientation of each part of the body of actor A2. In this specification, the first body motion data and the second body motion data may be simply referred to as “body motion data”. The body motion data is generated as needed with the passage of time. For example, the body motion data may be generated at predetermined sampling time intervals. As described above, the body motion data can represent the body movements of the actors A1 and A2 in a time-series manner as digital data. In the illustrated embodiment, the motion sensors 31a to 31f and the motion sensors 32a to 32f are mounted on the left and right limbs, the waist, and the head of each of the actors A1 and A2. Based on the detection information of the motion sensors 32a to 32f, it is possible to digitally represent the position and orientation of the entire body of the actor A1 and the actor A2 with time. The body motion data can define, for example, a position and a rotation angle of a bone constituting the rig data included in the model data 23a.

フェイスモーションデータ生成部21bは、カメラ37aの撮像データに基づいて、アクターA1の顔の動きのデジタル表現である第1フェイスモーションデータを生成し、また、カメラ38aの各々の撮像データに基づいて、アクターA2の顔の動きのデジタル表現である第2フェイスモーションデータを生成する。本明細書では、第1フェイスモーションデータ及び第2フェイスモーションデータを総称して単に「フェイスモーションデータ」と呼ぶことがある。フェイスモーションデータは、時間の経過に伴って随時生成される。例えば、フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、フェイスモーションデータは、アクターA2及びアクターA2の顔の動き(表情の変化)を時系列的にデジタル表現することができる。     The face motion data generation unit 21b generates first face motion data, which is a digital representation of the movement of the face of the actor A1, based on the imaging data of the camera 37a, and based on the imaging data of each of the cameras 38a, Generate second face motion data that is a digital representation of the face movement of actor A2. In the present specification, the first face motion data and the second face motion data may be collectively simply referred to as “face motion data”. The face motion data is generated as needed with the passage of time. For example, face motion data may be generated at predetermined sampling time intervals. In this manner, the face motion data can digitally represent the actor A2 and the movement of the face of the actor A2 (change in facial expression) in a time-series manner.

アニメーション生成部21cは、ボディモーションデータ生成部21aによって生成されたボディモーションデータ及びフェイスモーションデータ生成部21bによって生成されたフェイスモーションデータを、モデルデータ23aに含まれる所定のモデルデータに適用することにより、仮想空間内で動き、また、表情が変化するキャラクタオブジェクトのアニメーションを生成するように構成される。具体的には、アニメーション生成部21cは、アクターA1に関する第1ボディモーションデータ及び第1フェイスモーションデータに基づいて、アクターA1の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成し、アクターA2に関する第2ボディモーションデータ及び第2フェイスモーションデータに基づいて、アクターA2の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。本明細書においては、アクターA1の動き及び表情に基づいて生成されたキャラクタオブジェクトを「第1キャラクタオブジェクト」といい、アクターA2の動き及び表情に基づいて悪生成されたキャラクタオブジェクトを「第2キャラクタオブジェクト」ということがある。     The animation generation unit 21c applies the body motion data generated by the body motion data generation unit 21a and the face motion data generated by the face motion data generation unit 21b to predetermined model data included in the model data 23a. Is configured to generate an animation of a character object that moves in a virtual space and changes its expression. Specifically, the animation generation unit 21c generates an animation of a character object that moves in synchronization with the movement of the body and expression of the actor A1, based on the first body motion data and the first face motion data related to the actor A1, Based on the second body motion data and the second face motion data related to the actor A2, it is possible to generate an animation of the character object that moves in synchronization with the movement of the body and expression of the actor A2. In the present specification, a character object generated based on the movement and expression of actor A1 is referred to as a “first character object”, and a character object badly generated based on the movement and expression of actor A2 is referred to as “second character object”. Object ".

動画生成部21dは、オブジェクトデータ23bを用いて仮想空間を構築し、この仮想空間と、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。第1キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA1の位置に合致するように仮想空間内に配置され、第2キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA2の位置に合致するように仮想空間内に配置される。したがって、トラッキングセンサ36aの位置または向きを変更することにより、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向きを変化させることができる。     The moving image generation unit 21d constructs a virtual space using the object data 23b, and generates the virtual space, the animation of the first character object corresponding to the actor A1, and the animation of the second character object corresponding to the actor A2. Generate a video that includes The first character object is arranged in the virtual space so as to match the position of the actor A1 with respect to the tracking sensor 36a, and the second character object is arranged in the virtual space so as to match the position of the actor A2 with respect to the tracking sensor 36a. Is done. Therefore, by changing the position or the direction of the tracking sensor 36a, the position and the direction of the first character object and the second character object in the virtual space can be changed.

一態様において、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想空間を構築する。例えば、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想カメラの設定情報(仮想空間内での位置、注視位置、注視方向、及び画角)を定め、この仮想カメラの設定情報に基づいて仮想空間全体のうちの描画領域を定め、この仮想空間の描画領域を表示するための動画情報を生成する。     In one aspect, the moving image generation unit 21d constructs a virtual space based on tracking information of the tracking sensor 36a. For example, the moving image generation unit 21d determines setting information (a position in a virtual space, a gaze position, a gaze direction, and an angle of view) of the virtual camera based on tracking information of the tracking sensor 36a, and Based on this, a drawing area of the entire virtual space is determined, and moving image information for displaying the drawing area in the virtual space is generated.

動画生成部21dは、トラッキングセンサ36aのトラッキング情報に代えて、または、トラッキングセンサ36aのトラッキング情報に加えて、トラッキングセンサ36bのトラッキング情報に基づいて、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向き、並びに、仮想カメラの設定情報を定めるように構成されてもよい。動画生成部21dは、トラッキングセンサ36a及びトラッキングセンサ36bのうちから選択されたセンサ(本明細書において、「アクティブセンサ」と呼ぶことがある。)のトラッキング情報に基づいて仮想カメラの設定情報を定めるように構成されてもよい。     The moving image generation unit 21d replaces the tracking information of the tracking sensor 36a, or in addition to the tracking information of the tracking sensor 36a, based on the tracking information of the tracking sensor 36b, based on the tracking information of the tracking sensor 36b. It may be configured to determine the position and orientation of the object and the setting information of the virtual camera. The moving image generation unit 21d determines the setting information of the virtual camera based on the tracking information of a sensor selected from the tracking sensor 36a and the tracking sensor 36b (which may be referred to as an “active sensor” in this specification). It may be configured as follows.

動画生成部21dは、生成した動画に、スタジオユニット30のマイクから取得したアクターA1及びアクターA2の音声を合成することができる。     The moving image generation unit 21d can synthesize the generated moving image with the sounds of the actors A1 and A2 acquired from the microphone of the studio unit 30.

以上のようにして、動画生成部21dは、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーション、並びに、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションを生成し、このアニメーションにアクターA1及びアクターA2の音声が合成された配信用の動画を生成することができる。     As described above, the moving image generation unit 21d performs the animation of the first character object that moves in synchronization with the movement of the body and expression of the actor A1, and the second character that moves in synchronization with the movement of the body and expression of the actor A2 An animation of the object is generated, and a moving image for distribution in which the sounds of the actors A1 and A2 are synthesized with the animation can be generated.

動画配信部21eは、動画生成部21dにおいて生成された動画を配信する。この動画は、ネットワーク50を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。受信された動画は、クライアント装置10a〜クライアント装置10cにおいて再生される。     The moving image distribution unit 21e distributes the moving image generated by the moving image generation unit 21d. This moving image is distributed to the client devices 10a to 10c and the other client devices via the network 50. The received moving image is reproduced in the client devices 10a to 10c.

この動画は、スタジオルームR内に設置されているクライアント装置(不図示)に配信され、このクライアント装置から短焦点プロジェクタを介してスクリーンSに投影されてもよい。また、この動画は、サポーターコンピュータ40に配信されてもよい。これにより、サポーターB1及びサポーターB2は、配信されている動画の視聴画面を確認することができる。     This moving image may be distributed to a client device (not shown) installed in the studio room R, and may be projected from the client device to the screen S via the short focus projector. This moving image may be distributed to the supporter computer 40. Thereby, the supporters B1 and B2 can check the viewing screen of the distributed moving image.

サーバ装置20からクライアント装置10aに配信され、このクライアント装置10aにおいて再生されている動画の表示例が図7に示されている。図示のように、サーバ装置20から配信された動画の表示画像70は、クライアント装置10aのディスプレイに表示される。このクライアント装置10aに表示されている表示画像70は、スタジオを模した仮想空間内に、アクターA1に対応するキャラクタオブジェクト71Aと、アクターA2に対応するキャラクタオブジェクト71Bと、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bが立つスタジオフロアに対応するフロアオブジェクト72cと、このフロアオブジェクト72c上に置かれたテーブルを示すテーブルオブジェクト72aと、フロアオブジェクト72c上に置かれたスタジオセットを示すスタジオセットオブジェクト72bと、が含まれている。     FIG. 7 shows a display example of a moving image distributed from the server device 20 to the client device 10a and reproduced on the client device 10a. As illustrated, the display image 70 of the moving image distributed from the server device 20 is displayed on the display of the client device 10a. The display image 70 displayed on the client device 10a includes a character object 71A corresponding to the actor A1, a character object 71B corresponding to the actor A2, and a character object 71A and a character object 71B in a virtual space simulating a studio. A floor object 72c corresponding to the studio floor on which the object stands, a table object 72a indicating a table placed on the floor object 72c, and a studio set object 72b indicating a studio set placed on the floor object 72c are included. ing.

テーブルオブジェクト72a、スタジオセットオブジェクト72b、及びフロアオブジェクト72cは、ギフトオブジェクトではなく、オブジェクトデータ23bに含まれている仮想空間を構築するためのオブジェクトである。図示の実施形態において、配信動画に含まれる仮想空間は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bがパフォーマンスを行うステージを模した空間となっている。フロアオブジェクト72cは、このステージのフロアに対応する。フロアオブジェクト72cは、仮想空間における水平方向に延伸している。スタジオセットオブジェクト72bは、このステージにおけるステージセットに対応する。図示の実施形態においては、スタジオセットオブジェクト72bは平面視において円弧状に延伸しており、フロアの外縁を画定している。     The table object 72a, the studio set object 72b, and the floor object 72c are objects for constructing a virtual space included in the object data 23b instead of a gift object. In the illustrated embodiment, the virtual space included in the distribution moving image is a space imitating a stage on which the character objects 71A and 71B perform. The floor object 72c corresponds to the floor of this stage. The floor object 72c extends in the horizontal direction in the virtual space. The studio set object 72b corresponds to a stage set in this stage. In the illustrated embodiment, the studio set object 72b extends in an arc shape in a plan view, and defines the outer edge of the floor.

キャラクタオブジェクト71Aは、アクターA1の第1ボディモーションデータ及び第1フェイスモーションデータをモデルデータ23aに含まれているアクターA1用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Aは、第1ボディモーションデータ及び第1フェイスモーションデータに基づいてモーション制御される。キャラクタオブジェクト71Bは、アクターA2の第2ボディモーションデータ及び第2フェイスモーションデータを、モデルデータ23aに含まれているアクターA2用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Bは、第2ボディモーションデータ及び第2フェイスモーションデータに基づいてモーション制御される。したがって、キャラクタオブジェクト71Aは、アクターA1の体及び表情の動きに同期して画面内で動くように制御され、キャラクタオブジェクト71Bは、アクターA2の体及び表情の動きに同期して画面内で動くように制御される。     The character object 71A is generated by applying the first body motion data and the first face motion data of the actor A1 to the model data for the actor A1 included in the model data 23a. The motion of the character object 71A is controlled based on the first body motion data and the first face motion data. The character object 71B is generated by applying the second body motion data and the second face motion data of the actor A2 to the model data for the actor A2 included in the model data 23a. The motion of the character object 71B is controlled based on the second body motion data and the second face motion data. Therefore, the character object 71A is controlled to move on the screen in synchronization with the movement of the body and expression of the actor A1, and the character object 71B moves on the screen in synchronization with the movement of the body and expression of the actor A2. Is controlled.

上記のように、サーバ装置20からの配信動画は、サポーターコンピュータ40に配信されてもよい。サポーターコンピュータ40に配信された動画は、サポーターコンピュータ40において図7と同様に表示される。サポーターB1及びサポーターB2は、サポーターコンピュータ40において再生されている動画を見て、スタジオユニット30の構成要素の設定を変更することができる。一態様において、サポーターB1及びサポーターB2は、配信中の動画においてキャラクタオブジェクト71A及びキャラクタオブジェクト71Bのアングルを変更したい場合には、トラッキングセンサ36aの向きの変更を指示する指示信号をサポーターコンピュータ40からトラッキングセンサ36aに送信することができる。トラッキングセンサ36aは、当該指示信号に応じて、向きを変更することができる。例えば、トラッキングセンサ36aは、スタンドにその軸周りにアクチュエータを内蔵した回動機構を介して回動可能に取り付けられており、トラッキングセンサ36aが向きの変更を指示する指示信号を受信すると、当該指示信号に基づいて当該回動機構のアクチュエータが駆動され、当該指示信号に応じた角度だけトラッキングセンサ36aが回動されてもよい。一態様において、サポーターB1及びサポーターB2は、トラッキングセンサ36aからのトラッキング情報に代えて、トラッキングセンサ36bからのトラッキング情報を用いるための指示をサポーターコンピュータ40からトラッキングセンサ36a及びトラッキングセンサ36bに送信してもよい。     As described above, the distribution moving image from the server device 20 may be distributed to the supporter computer 40. The moving image distributed to the supporter computer 40 is displayed on the supporter computer 40 in the same manner as in FIG. The supporter B1 and the supporter B2 can change the settings of the components of the studio unit 30 while watching the moving image being reproduced on the supporter computer 40. In one aspect, when the supporter B1 and the supporter B2 want to change the angle of the character object 71A and the character object 71B in the moving image being distributed, the supporter computer 40 sends an instruction signal for instructing a change in the direction of the tracking sensor 36a from the supporter computer 40. It can be transmitted to the sensor 36a. The tracking sensor 36a can change the direction according to the instruction signal. For example, the tracking sensor 36a is rotatably attached to the stand via a rotating mechanism having a built-in actuator around its axis. When the tracking sensor 36a receives an instruction signal for instructing a change in direction, the tracking sensor 36a receives the instruction signal. The actuator of the rotation mechanism may be driven based on the signal, and the tracking sensor 36a may be rotated by an angle corresponding to the instruction signal. In one embodiment, the supporter B1 and the supporter B2 transmit an instruction to use the tracking information from the tracking sensor 36b instead of the tracking information from the tracking sensor 36a from the supporter computer 40 to the tracking sensor 36a and the tracking sensor 36b. Is also good.

一態様において、サポーターB1及びサポーターB2は、サポーターコンピュータ40にて再生されている動画を見てアクターA1またはアクターA2に対する指示が必要と判断した場合には、その指示を示すメッセージをサポーターコンピュータ40に入力し、このメッセージをディスプレイ39に出力することができる。例えば、サポーターB1及びサポーターB2は、このディスプレイ39に表示されるメッセージを通じて、アクターA1またはアクターA2に対して立ち位置の変更を指示することができる。     In one embodiment, when the supporter B1 and the supporter B2 determine that an instruction to the actor A1 or the actor A2 is necessary by watching the moving image being played on the supporter computer 40, the supporter computer 40 sends a message indicating the instruction to the supporter computer 40. The message can be input and output to the display 39. For example, the supporters B1 and B2 can instruct the actor A1 or the actor A2 to change the standing position through the message displayed on the display 39.

表示要求処理部21fは、視聴ユーザのクライアント装置からギフトオブジェクトの表示要求を受け付け、当該表示要求に応じた処理を行う。各視聴ユーザは、自らのクライアント装置を操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。例えば、第1視聴ユーザは、クライアント装置10aを操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。ギフトオブジェクトの表示要求には、視聴ユーザのユーザIDと、表示を要求するオブジェクトを特定する識別情報(オブジェクトID)が含まれてもよい。     The display request processing unit 21f receives a display request for a gift object from the client device of the viewing user, and performs processing according to the display request. Each viewing user can transmit a gift object display request to the server device 20 by operating his / her client device. For example, the first viewing user can transmit a gift object display request to the server device 20 by operating the client device 10a. The display request for the gift object may include the user ID of the viewing user and identification information (object ID) for specifying the object for which display is requested.

上述のように、ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。エフェクトオブジェクト及び通常オブジェクトは、第1オブジェクトの例である。また、エフェクトオブジェクトまたは通常オブジェクトの表示を要求する表示要求は、第1表示要求の例である。     As described above, the gift object may include an effect object, a normal object, and a decoration object. The effect object and the normal object are examples of the first object. A display request for requesting display of an effect object or a normal object is an example of a first display request.

一態様において、表示要求処理部21fは、視聴ユーザから特定のエフェクトオブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求されたエフェクトオブジェクトを動画の表示画像70に表示させるための処理を行う。例えば、紙吹雪に対応するエフェクトオブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図8に示すように、当該表示要求に基づいて紙吹雪を示すエフェクトオブジェクト73を表示画像70に表示させる。     In one aspect, when a display request processing unit 21f receives a display request of a specific effect object from a viewing user, the display request processing unit 21f causes the display image 70 of the moving image to display the effect object requested to be displayed based on the display request. Perform processing. For example, when a display request for an effect object corresponding to confetti is made, the display request processing unit 21f displays an effect object 73 indicating confetti based on the display request as shown in FIG. To be displayed.

一態様において、表示要求処理部21fは、視聴ユーザから特定の通常オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された通常オブジェクトを動画70に表示させるための処理を行う。例えば、熊のぬいぐるみを示す通常オブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図8に示すように、当該表示要求に基づいて熊のぬいぐるみを示す通常オブジェクト74を表示画像70に表示させる。     In one embodiment, when a display request processing unit 21f receives a display request for a specific normal object from a viewing user, the display request processing unit 21f performs a process for displaying the requested normal object on the moving image 70 based on the display request. . For example, when a display request of a normal object indicating a stuffed bear is made, the display request processing unit 21f displays a normal object 74 indicating a stuffed bear based on the display request as shown in FIG. 70 is displayed.

通常オブジェクト74の表示要求には、仮想空間内における当該通常オブジェクト74の表示位置を指定する表示位置指定パラメータが含まれてもよい。この場合、表示要求処理部21fは、仮想空間内の表示位置指定パラメータによって指定された位置に通常オブジェクト74を表示することができる。例えば、表示位置指定パラメータによって、テーブルを示すテーブルオブジェクト72aの上を通常オブジェクト74の表示位置として指定することができる。視聴ユーザは、表示位置指定パラメータを用いることにより、動画70に含まれているキャラクタオブジェクト71A、キャラクタオブジェクト71B、ギフトオブジェクト、及びこれら以外のオブジェクトの表示を見て、通常オブジェクトを表示したい位置を指定することができる。     The display request for the normal object 74 may include a display position specification parameter for specifying the display position of the normal object 74 in the virtual space. In this case, the display request processing unit 21f can display the normal object 74 at a position designated by the display position designation parameter in the virtual space. For example, the display position of the normal object 74 can be specified on the table object 72a indicating the table by the display position specification parameter. The viewing user uses the display position specification parameter to specify the position where the normal object is desired to be displayed by viewing the display of the character object 71A, the character object 71B, the gift object, and other objects included in the moving image 70. can do.

一態様において、通常オブジェクト74は、動画の表示画像70内で移動するように表示されてもよい。例えば、通常オブジェクト74は、画面の上から下に向かって落下するように表示されてもよい。この場合、通常オブジェクト74は、落下開始から動画70を構成する仮想空間のフロアまで落下している間当該表示画像70内に表示され、フロアに落下した後に当該表示画像70から消滅してもよい。視聴ユーザは、落下する通常オブジェクト74を落下開始時から落下終了時まで見ることができる。通常オブジェクト74の画面内での移動方向は任意に設定され得る。例えば、通常オブジェクト74は、動画70の左から右へ、右から左へ、左上から左下へ、またはこれら以外の方向に移動するように表示画像70において表示されてもよい。通常オブジェクト74は、様々な軌道上を移動することができる。例えば、通常オブジェクト74は、直線軌道上、円軌道上、楕円軌道上、螺旋軌道上、またはこれら以外の軌道上を移動することができる。視聴ユーザは、通常オブジェクトの表示要求に、表示位置指定パラメータに加えてまたは表示位置指定パラメータに代えて、通常オブジェクト74の移動方向を指定する移動方向パラメータ及び通常オブジェクト74が移動する軌道を指定する軌道パラメータの少なくとも一方を含めることができる。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより小さいもの(例えば、エフェクトオブジェクト73の紙吹雪の紙片)は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに、その一部又は全部を重複させて表示してもよい。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクトと重複しない位置に表示される。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクト71Aまたはキャラクタオブジェクト71Bの少なくとも一方と重複する場合には、当該重複して表示されるキャラクタオブジェクトの後ろに表示される。     In one aspect, the normal object 74 may be displayed so as to move within the moving image display image 70. For example, the normal object 74 may be displayed so as to fall from the top of the screen to the bottom. In this case, the normal object 74 may be displayed in the display image 70 while falling from the start of the fall to the floor of the virtual space constituting the moving image 70, and may disappear from the display image 70 after dropping on the floor. . The viewing user can see the falling normal object 74 from the start of the fall to the end of the fall. The moving direction of the normal object 74 in the screen can be set arbitrarily. For example, the normal object 74 may be displayed in the display image 70 so as to move from the left to the right, the right to the left, the upper left to the lower left, or the other direction of the moving image 70. The normal object 74 can move on various trajectories. For example, the normal object 74 can move on a linear trajectory, a circular trajectory, an elliptical trajectory, a spiral trajectory, or other trajectories. The viewing user specifies the moving direction parameter for specifying the moving direction of the normal object 74 and the trajectory on which the normal object 74 moves in the display request of the normal object in addition to or instead of the display position specifying parameter. At least one of the trajectory parameters can be included. In one embodiment, among the effect objects and the normal objects, objects whose size in the virtual space is smaller than the reference size (for example, a confetti sheet of the effect object 73) are assigned to the character objects 71A and 71B. Some or all of them may be displayed overlapping. In one embodiment, of the effect object and the normal object, those having a size in the virtual space larger than the reference size (for example, the normal object 74 (a stuffed bear)) are displayed at positions that do not overlap with the character object. . In one embodiment, of the effect object and the normal object, the one in which the size in the virtual space is larger than the reference size (for example, the normal object 74 (a stuffed bear)) is at least one of the character object 71A and the character object 71B. If the character object overlaps with the character object, the character object is displayed after the character object that is overlapped and displayed.

一態様において、表示要求処理部21fは、視聴ユーザから特定の装飾オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された装飾オブジェクトを候補リスト23dに追加する。装飾オブジェクトの表示要求は、第2表示要求の例である。例えば、表示要求処理部21fは、視聴ユーザから表示要求されている特定の装飾オブジェクトを識別する識別情報(オブジェクトID)を、当該視聴ユーザのユーザIDと対応付けて、候補リスト23dに記憶することができる(図4参照)。装飾オブジェクトの表示要求が複数なされた場合には、当該複数の表示要求の各々について、表示要求を行った視聴ユーザのユーザIDと、当該視聴ユーザによって表示要求されている装飾オブジェクトの装飾オブジェクトIDとが対応付けて候補リスト23dに記憶される。     In one aspect, when receiving a display request for a specific decorative object from a viewing user, the display request processing unit 21f adds the decorative object requested to be displayed to the candidate list 23d based on the display request. The display request of the decoration object is an example of the second display request. For example, the display request processing unit 21f stores identification information (object ID) for identifying a specific decorative object requested to be displayed by the viewing user in the candidate list 23d in association with the user ID of the viewing user. (See FIG. 4). When a plurality of decoration object display requests are made, for each of the plurality of display requests, the user ID of the viewing user who made the display request, the decoration object ID of the decoration object requested to be displayed by the viewing user, and Are stored in the candidate list 23d in association with each other.

一態様において、装飾オブジェクト選択部21gは、候補リスト23dに含まれている装飾オブジェクトのうちの一又は複数が選択されたことに応じて、当該選択された装飾オブジェクトを動画の表示画像70に表示させるための処理を行う。本明細書では、候補リスト23dから選択された装飾オブジェクトを「選択装飾オブジェクト」と呼ぶことがある。     In one aspect, in response to selection of one or more of the decorative objects included in the candidate list 23d, the decorative object selecting unit 21g displays the selected decorative object on the moving image display image 70. Perform a process for causing In this specification, the decoration object selected from the candidate list 23d may be referred to as a “selected decoration object”.

候補リスト23dからの装飾オブジェクトの選択は、例えば、サポーターB1及びサポーターB2がサポーターコンピュータ40を操作することによってなされる。一態様において、サポーターコンピュータ40には、装飾オブジェクト選択画面が表示される。図10は、一態様における装飾オブジェクト選択画面80の例を示す。この装飾オブジェクト選択画面80は、例えば、サポーターコンピュータ40のディスプレイに表示される。装飾オブジェクト選択画面80は、例えば、表形式で候補リスト23dに含まれている複数の装飾オブジェクトの各々を表示する。図示のように、一態様における装飾オブジェクト選択画面80は、装飾オブジェクトの種類を表示する第1列81と、装飾オブジェクトの画像を表示する第2列82と、装飾オブジェクトが関連付けられているキャラクタオブジェクトの部位を表示する第3列83と、を有する。また、装飾オブジェクト選択画面80には、各装飾オブジェクトを選択するための選択ボタン84a〜84cが表示されている。このように、装飾オブジェクト選択画面80には、選択装飾オブジェクトの候補となる装飾オブジェクトが表示される。     The selection of the decorative object from the candidate list 23d is performed, for example, by the supporter B1 and the supporter B2 operating the supporter computer 40. In one aspect, the supporter computer 40 displays a decorative object selection screen. FIG. 10 shows an example of a decorative object selection screen 80 according to one embodiment. This decorative object selection screen 80 is displayed on the display of the supporter computer 40, for example. The decoration object selection screen 80 displays each of the plurality of decoration objects included in the candidate list 23d in a table format, for example. As shown in the figure, the decorative object selection screen 80 according to one embodiment includes a first column 81 displaying the type of the decorative object, a second column 82 displaying the image of the decorative object, and a character object associated with the decorative object. And a third column 83 for displaying the part. Further, on the decoration object selection screen 80, selection buttons 84a to 84c for selecting each decoration object are displayed. In this manner, on the decoration object selection screen 80, decoration objects that are candidates for the selected decoration object are displayed.

サポーターB1及びサポーターB2は、この装飾オブジェクト選択画面80に含まれている装飾オブジェクトのうちの一又は複数を選択することができる。例えば、サポーターB1及びサポーターB2は、選択ボタン84aを選択することにより、カチューシャを選択することができる。装飾オブジェクト選択部21gによってカチューシャが選択されたことが検出されると、表示要求処理部21fは、図9に示すように、選択されたカチューシャを示す選択装飾オブジェクト75を動画の表示画面70に表示させる。選択装飾オブジェクト75は、キャラクタオブジェクトの特定の部位と関連付けて、表示画像70に表示される。選択装飾オブジェクト75は、キャラクタオブジェクトのうちの当該特定の部位に接するように表示されてもよい。例えば、カチューシャを示す選択75は、キャラクタオブジェクトの頭部と対応付けられているため、図9に示されているように、キャラクタオブジェクト71Aの頭部に装着される。装飾オブジェクトは、キャラクタオブジェクトの当該特定部位の動きに付随して動くように、表示画面70に表示されてもよい。例えば、カチューシャを装着したキャラクタオブジェクト71Aの頭部が動くと、あたかもカチューシャがキャラクタオブジェクト71Aの頭部に装着されているかのごとく、カチューシャを示す選択装飾オブジェクト75もキャラクタオブジェクト71Aの頭部に付随して動く。     The supporters B1 and B2 can select one or more of the decorative objects included in the decorative object selection screen 80. For example, the supporters B1 and B2 can select a headband by selecting the selection button 84a. When the decoration object selection unit 21g detects that a headband has been selected, the display request processing unit 21f displays a selected decoration object 75 indicating the selected headband on the moving image display screen 70, as shown in FIG. Let it. The selected decoration object 75 is displayed on the display image 70 in association with a specific part of the character object. The selected decoration object 75 may be displayed so as to be in contact with the specific part of the character object. For example, since the selection 75 indicating the headband is associated with the head of the character object, the selection 75 is attached to the head of the character object 71A as shown in FIG. The decorative object may be displayed on the display screen 70 so as to move in accordance with the movement of the specific part of the character object. For example, when the head of the character object 71A wearing the headband moves, the selection decoration object 75 indicating the headband also accompanies the head of the character object 71A as if the headband were mounted on the head of the character object 71A. Move.

選択装飾オブジェクト75は、キャラクタオブジェクト71Aではなく、キャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。選択装飾オブジェクト75は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。     The selected decoration object 75 may be displayed on the display screen 70 in association with the character object 71B instead of the character object 71A. The selected decoration object 75 may be displayed on the display screen 70 in association with the character objects 71A and 71B.

装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトの表示要求を行ったユーザを特定可能な情報を含まないように構成されてもよい。これにより、装飾オブジェクトの選択の際に、選択者が特定のユーザを優遇することを防止できる。 The decoration object selection screen 80 may be configured so as not to include information capable of specifying a user who holds each decoration object or a user who has requested display of each decoration object. This can prevent the selector from giving preferential treatment to a specific user when selecting the decorative object.

一実施形態において、装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザに関する情報を表示するようにしてもよい。例えば、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザがこれまでに装飾オブジェクトの表示要求を行った回数と選択された回数(例えば、これまでに装飾オブジェクトの表示要求を5回行ってそのうち2回は選択されたことを示す情報)、当該ユーザがキャラクタオブジェクト71A及びキャラクタオブジェクトBの少なくとも一方の動画を視聴した視聴回数、当該ユーザが動画配信システム1における動画(キャラクタオブジェクト71A及びキャラクタオブジェクトBの出演有無を問わない)の視聴回数、当該ユーザによるギフトオブジェクトの購入金額、当該ユーザによるオブジェクトの購入回数、当該ユーザが保有する動画配信システム1内で使用できるポイント、当該ユーザの動画配信システム1におけるレベル、及びこれら以外の各装飾オブジェクトの表示要求を行ったユーザに関する各種情報を表示してもよい。当該実施形態によれば、装飾オブジェクトの表示要求を行ったユーザのこれまでの動画配信システム1における行動や視聴履歴に基づいて、装飾オブジェクトの選択を行うことができる。     In one embodiment, the decoration object selection screen 80 may display information about the user who owns each decoration object or, for each decoration object, the user who has made a display request for the decoration object. For example, for each decoration object, the number of times that the user who has requested the display of the decoration object has made the display request of the decoration object and the number of times that the user has made the selection request (for example, five times the display request of the decoration object has been made so far) Information indicating that the user has selected two times), the number of times the user has viewed at least one of the moving images of the character object 71A and the character object B, and the moving image (the character object 71A and the character (Regardless of the appearance of the object B), the number of purchases of the gift object by the user, the number of purchases of the object by the user, points available in the video distribution system 1 owned by the user, video distribution of the user system At level, and it may display various information about the user who made the request for display of the ornamental objects other than these. According to this embodiment, it is possible to select a decoration object based on the behavior and viewing history of the user who has made the display request of the decoration object in the moving image distribution system 1 so far.

一実施形態において、装飾オブジェクトの表示には、重複を排除するための制約が課されてもよい。例えば、キャラクタオブジェクト71Aに関し、その特定の部位に関連付けられた装飾オブジェクトが既に選択されている場合には、当該特定の部位に関連付けられた他の装飾オブジェクトの選択が禁止されてもよい。図7の実施形態に示されているように、キャラクタオブジェクト71Bの「頭部」に関連付けられているカチューシャが既
に選択されている場合には、「頭部」に関連付けられているそれ以外の装飾オブジェクト(例えば、頭部に関連付けられている「帽子」を表す装飾オブジェクト)は、装飾オブジェクト選択画面80に表示されないか、または、当該帽子を表す装飾オブジェクトを選択するための選択ボタンが選択画面80において選択不能とされてもよい。当該実施形態によれば、装飾オブジェクトがキャラクタオブジェクトの特定の部位に重複して表示されることを防止できる。
In one embodiment, the display of the decorative object may be subject to constraints to eliminate duplication. For example, when a decorative object associated with the specific part is already selected with respect to the character object 71A, selection of another decorative object associated with the specific part may be prohibited. As shown in the embodiment of FIG. 7, when the headband associated with the “head” of the character object 71B has already been selected, the other decorations associated with the “head” An object (for example, a decoration object representing a "hat" associated with the head) is not displayed on the decoration object selection screen 80, or a selection button for selecting a decoration object representing the hat is displayed on the selection screen 80. May not be selectable. According to this embodiment, it is possible to prevent the decorative object from being displayed repeatedly on a specific part of the character object.

装飾オブジェクト選択画面80は、サポーターコンピュータ40に代えて、または、サポーターコンピュータ40に加えて、他の装置に表示されてもよい。例えば、装飾オブジェクト選択画面80は、スタジオルームR内のディスプレイ39及びスクリーンSの少なくとも一方に表示されてもよい。この場合、アクターA1及びアクターA2が当該ディスプレイ39又はスクリーンSに表示された装飾オブジェクト選択画面80に基づいて、所望の装飾オブジェクトを選択することができる。アクターA1及びアクターA2による装飾オブジェクトの選択は、例えば、コントローラ33a、コントローラ33b、コントローラ34a、またはコントローラ34bを操作することによりなされ得る。     The decorative object selection screen 80 may be displayed on another device instead of the supporter computer 40 or in addition to the supporter computer 40. For example, the decorative object selection screen 80 may be displayed on at least one of the display 39 and the screen S in the studio room R. In this case, the actor A1 and the actor A2 can select a desired decorative object based on the decorative object selection screen 80 displayed on the display 39 or the screen S. The selection of the decoration object by the actor A1 and the actor A2 can be performed by operating the controller 33a, the controller 33b, the controller 34a, or the controller 34b, for example.

一態様において、オブジェクト購入処理部21hは、動画の視聴ユーザからの要求に応じて、当該動画に関連して購入可能な複数のギフトオブジェクトの各々の購入情報を当該視聴ユーザのクライアント装置(例えば、クライアント装置10a)に送信する。各ギフトオブジェクトの購入情報には、当該ギフトオブジェクトの種類(エフェクトオブジェクト、通常オブジェクト、または装飾オブジェクト)、当該ギフトオブジェクトの画像、当該ギフトオブジェクトの価格、及びこれら以外のギフトオブジェクトの購入に必要な情報が含まれ得る。視聴ユーザは、クライアント装置10aに表示されているギフトオブジェクトの購入情報に基づいて、購入するギフトオブジェクトを選択することができる。購入対象のギフトオブジェクトの選択は、クライアント装置10aの操作により行われてもよい。購入対象のギフトオブジェクトが視聴ユーザによって選択されると、当該ギフトオブジェクトの購入要求がサーバ装置20に送信される。オブジェクト購入処理部21hは、当該購入要求に基づいて、決済処理を行う。この決済処理が完了すると、当該購入されたギフトオブジェクトは、当該視聴ユーザによって保有される。この場合、保有リスト23cに、購入した視聴ユーザのユーザIDと対応づけて、購入されたギフトオブジェクトのオブジェクトIDが記憶される。     In one embodiment, the object purchase processing unit 21h, in response to a request from a user viewing the moving image, transmits purchase information of each of a plurality of gift objects that can be purchased in connection with the moving image to a client device of the viewing user (for example, To the client device 10a). The purchase information of each gift object includes the type of the gift object (effect object, normal object, or decoration object), the image of the gift object, the price of the gift object, and information necessary for purchasing other gift objects. May be included. The viewing user can select a gift object to be purchased based on the gift object purchase information displayed on the client device 10a. The selection of the gift object to be purchased may be performed by operating the client device 10a. When a gift object to be purchased is selected by the viewing user, a purchase request for the gift object is transmitted to the server device 20. The object purchase processing unit 21h performs a payment process based on the purchase request. When the payment process is completed, the purchased gift object is held by the viewing user. In this case, the object ID of the purchased gift object is stored in the holding list 23c in association with the user ID of the purchased viewing user.

購入可能なギフトオブジェクトは、動画ごとに異なっていてもよい。購入可能なギフトオブジェクトは、複数の動画において購入可能であってもよい。つまり、購入可能なギフトオブジェクトには、各動画に固有の固有ギフトオブジェクトと、複数の動画において購入可能な共通ギフトオブジェクトと、が含まれてもよい。例えば、紙吹雪を示すエフェクトオブジェクトは、複数の動画において購入可能な共通ギフトオブジェクトであってもよい。     The gift objects that can be purchased may be different for each moving image. The purchasable gift object may be purchasable in a plurality of videos. That is, the purchasable gift objects may include a unique gift object peculiar to each moving image and a common gift object purchasable in a plurality of moving images. For example, the effect object indicating confetti may be a common gift object that can be purchased in a plurality of moving images.

一態様においては、所定の動画を視聴中にエフェクトオブジェクトを購入した場合、当該エフェクトオブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象のエフェクトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。所定の動画を視聴中に通常オブジェクトを購入した場合、上記と同様に、当該通常オブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象の通常ギフトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。     In one aspect, when an effect object is purchased while viewing a predetermined moving image, the effect object to be purchased is added to the watching moving image in response to completion of the payment processing for purchasing the effect object. It may be displayed automatically. When a normal object is purchased while watching a predetermined moving image, similarly to the above, in response to completion of the payment processing for purchasing the normal object, the normal gift object to be purchased is changed to the moving image being viewed. May be displayed automatically.

他の態様においては、購入対象のエフェクトオブジェクトについてオブジェクト購入処理部21hにおける決済処理が完了したことに応じて、決済完了通知がクライアント装置10aに送信され、当該クライアント装置10aにおいて、購入されたエフェクトオブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面が表示されてもよい。視聴ユーザが、当該購入されたエフェクトオブジェクトについて表示要求を行うことを選択した場合には、当該購入されたエフェクトオブジェクトの表示を要求する表示要求が、当該視聴ユーザのクライアント装置から表示要求処理部21fに送信され、表示要求処理部21fにおいて、当該購入対象のエフェクトオブジェクトを動画の表示画像70に表示させる処理が行われてもよい。購入対象が通常オブジェクトの場合にも、上記と同様に、購入された通常オブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面がクライアント装置10aに表示されてもよい。     In another aspect, in response to the completion of the payment processing in the object purchase processing unit 21h for the effect object to be purchased, a payment completion notification is transmitted to the client device 10a, and the purchased effect object is transmitted to the client device 10a. A confirmation screen for confirming to the viewing user whether or not to make a display request of the above may be displayed. If the viewing user has selected to make a display request for the purchased effect object, a display request for displaying the purchased effect object is sent from the client device of the viewing user to the display request processing unit 21f. The display request processing unit 21f may perform a process of displaying the effect object to be purchased on the display image 70 of the moving image. Even when the purchase target is a normal object, a confirmation screen for confirming to the viewing user whether or not a display request for the purchased normal object is to be made may be displayed on the client device 10a.

上記のように、クライアント装置10a〜10c及びこれら以外のクライアント装置は、配信動画に関する投稿メッセージ及びその他の投稿メッセージをサーバ装置20に送信することができる。投稿メッセージ処理部21iは、クライアント装置10a〜10c及びこれら以外のクライアント装置から受信した投稿メッセージを動画に表示させるための処理を行うように構成される。     As described above, the client devices 10a to 10c and other client devices can transmit the posted message relating to the distribution moving image and other posted messages to the server device 20. The posted message processing unit 21i is configured to perform a process for displaying posted messages received from the client devices 10a to 10c and other client devices in a moving image.

一態様における投稿メッセージの表示態様について、図11から図16を参照して説明する。図11から図14は、クライアント装置10aにおいて再生されている動画に表示される投稿メッセージの表示例を示している。図15は、一実施形態における動画配信処理の流れを示すフロー図であり、図16は、配信動画における第1配信期間及び第2配信期間を説明するための概略図である。第1配信期間においては、動画内に第1表示領域76が含まれ、第2配信期間においては、動画内に第2表示領域77が含まれる。     A display mode of a posted message in one embodiment will be described with reference to FIGS. 11 to 14 show display examples of a posted message displayed on a moving image being reproduced on the client device 10a. FIG. 15 is a flowchart showing the flow of the moving image distribution process in one embodiment, and FIG. 16 is a schematic diagram for explaining a first distribution period and a second distribution period in a distribution moving image. In the first distribution period, the first display area 76 is included in the moving image, and in the second distribution period, the second display area 77 is included in the moving image.

図16に示されているように、一実施形態において、サーバ装置20は、時刻t1から時刻t2の間に動画を配信する。時刻t1が動画の配信開始時刻であり、時刻t2が動画の配信終了時刻である。図示の実施形態においては、動画の全配信期間のうち、時刻t1と時刻t3との間および時刻t4と時刻t2との間が第1配信期間であり、時刻t3と時刻t4との間が第2配信期間である。当該動画の配信開始時刻t1の後は、時刻t3まで第1配信期間161が続き、時刻t3において第1配信期間161から第2配信期間162に切り替えられ、次に、時刻t4において第2配信期間162から第1配信期間163に切り替えられ、第1配信期間163が配信終了時刻t2まで継続する。第1配信期間及び第2配信期間の順序、長さ、出現回数、及びそれ以外の第1配信期間及び第2配信期間に関する設定は任意に定め得る。     As shown in FIG. 16, in one embodiment, the server device 20 distributes a moving image between time t1 and time t2. Time t1 is a moving image distribution start time, and time t2 is a moving image distribution end time. In the illustrated embodiment, of the entire distribution period of the moving image, the first distribution period is between time t1 and time t3 and between time t4 and time t2, and the first distribution period is between time t3 and time t4. Two delivery periods. After the distribution start time t1 of the moving image, the first distribution period 161 continues until time t3, the first distribution period 161 is switched from the first distribution period 161 to the second distribution period 162 at time t3, and then the second distribution period is switched at time t4. 162 is switched to the first distribution period 163, and the first distribution period 163 continues until the distribution end time t2. The order, length and number of appearances of the first distribution period and the second distribution period, and other settings relating to the first distribution period and the second distribution period can be arbitrarily determined.

一実施形態において、第1配信期間と第2配信期間とは、所定の時刻が到来したときに切り替えられてもよい。例えば、図示の実施形態では、時刻t3において第1配信期間161から第2配信期間162に切り替えられ、次に、時刻t4において第2配信期間162から第1配信期間163に切り替えられている。一実施形態において、第1配信期間から第2配信期間への切り替え及び第2配信期間から第1配信期間への切り替えは、アクターA1によるコントローラ33aまたはコントローラ33bの操作に応じて行われてもよく、アクターA2によるコントローラ34aまたはコントローラ34bの操作に応じて行われてもよい。一実施形態において、第1配信期間から第2配信期間への切り替え及び第2配信期間から第1配信期間への切り替えは、サポーターB1またはサポーターB2によるサポーターコンピュータ40の操作に応じて行われてもよい。第1配信期間と第2配信期間との切り替えは、本明細書において明示的に説明されていない態様で行われてもよい。     In one embodiment, the first distribution period and the second distribution period may be switched when a predetermined time has arrived. For example, in the illustrated embodiment, at time t3, the first distribution period 161 is switched to the second distribution period 162, and then at time t4, the second distribution period 162 is switched to the first distribution period 163. In one embodiment, the switching from the first distribution period to the second distribution period and the switching from the second distribution period to the first distribution period may be performed according to an operation of the controller 33a or the controller 33b by the actor A1. May be performed in response to the operation of the controller 34a or 34b by the actor A2. In one embodiment, the switching from the first distribution period to the second distribution period and the switching from the second distribution period to the first distribution period may be performed according to the operation of the supporter computer 40 by the supporter B1 or the supporter B2. Good. Switching between the first distribution period and the second distribution period may be performed in a manner not explicitly described in the present specification.

図11及び図12は、第1配信期間における配信動画の表示画像70を示す。図11に示されている配信動画の表示画像70は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて定められた視点から見た仮想空間の画像を含む。つまり、この表示画像70は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bの位置を仮想的な視点として構築された仮想空間の画像である。このため、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは表示画像70において正面を向いている。     FIG. 11 and FIG. 12 show a display image 70 of the distribution moving image in the first distribution period. The display image 70 of the distribution moving image illustrated in FIG. 11 includes an image of a virtual space viewed from a viewpoint determined based on tracking information of the tracking sensor 36b in front of the actor A1 and the actor A2. That is, the display image 70 is an image of a virtual space constructed using the position of the tracking sensor 36b in front of the actor A1 and the actor A2 as a virtual viewpoint. Therefore, the character object 71A and the character object 71B face the front in the display image 70.

図示の実施形態において、再生動画(またはその表示画像70)には、第1表示領域76が含まれている。     In the illustrated embodiment, the reproduced moving image (or its display image 70) includes the first display area 76.

一態様において、第1表示領域76は、動画生成部21dにより生成された動画にスーパーインポーズされる表示領域である。一態様において、第1表示領域76は、二次元の表示領域である。     In one aspect, the first display area 76 is a display area that is superimposed on the moving image generated by the moving image generation unit 21d. In one aspect, the first display area 76 is a two-dimensional display area.

一態様において、第1表示領域76は、動画生成部21dにより生成される仮想空間を構成するオブジェクトではない。この場合、第1表示領域76は、動画生成部21dにより生成される仮想空間を構築するための仮想カメラの設定情報(位置、向き、及び画角)によらず、当該動画の表示画像70の所定の領域に表示される。第1表示領域76は、アクティブセンサが切り替えられても、その切り替えの前後で変わらない位置に表示されてもよい。図示の実施形態では、表示画像70の左下の一定の範囲を占める領域が、第1表示領域76とされている。第1表示領域76の位置は、本明細書で具体的に説明した位置には限られない。図示のように、第1表示領域76は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの少なくとも一方と重複する領域に設けられてもよい。図示の実施形態では、第1表示領域76は、キャラクタオブジェクト71Bの一部と重複している。第1表示領域76とキャラクタオブジェクト71Bとが重複する領域においては、第1表示領域76およびそこに含まれる投稿メッセージが、キャラクタオブジェクト71Bよりも画面の手前に表示されてもよい。この場合、キャラクタオブジェクト71Bの一部が第1表示領域76またはそこに表示される投稿メッセージの背後に隠れて視聴ユーザによって視認できなくなる。     In one aspect, the first display area 76 is not an object forming the virtual space generated by the moving image generation unit 21d. In this case, the first display area 76 displays the display image 70 of the moving image regardless of the setting information (position, orientation, and angle of view) of the virtual camera for constructing the virtual space generated by the moving image generating unit 21d. It is displayed in a predetermined area. Even if the active sensor is switched, the first display area 76 may be displayed at a position that does not change before and after the switching. In the illustrated embodiment, an area occupying a certain range at the lower left of the display image 70 is the first display area 76. The position of the first display area 76 is not limited to the position specifically described in this specification. As illustrated, the first display area 76 may be provided in an area overlapping at least one of the character object 71A and the character object 71B. In the illustrated embodiment, the first display area 76 overlaps a part of the character object 71B. In an area where the first display area 76 and the character object 71B overlap, the first display area 76 and the posted message included therein may be displayed on the front of the screen than the character object 71B. In this case, a part of the character object 71B is hidden behind the first display area 76 or the posted message displayed there, and cannot be visually recognized by the viewing user.

一態様において、投稿メッセージ処理部21iは、視聴ユーザからクライアント装置10a〜10c及びこれら以外のクライアント装置を介して投稿された投稿メッセージを、当該視聴ユーザが属するユーザグループに応じた表示領域に表示するように構成される。視聴ユーザから投稿された投稿メッセージは、ストレージ23に投稿データ23eとして記憶されているので、投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出して、この読み出した投稿メッセージを第1表示領域76又は後述する第2表示領域77に表示することができる。投稿メッセージは、投稿時間が早い順に読み出されてもよい。     In one aspect, the posted message processing unit 21i displays a posted message posted from a viewing user via the client devices 10a to 10c and other client devices in a display area corresponding to a user group to which the viewing user belongs. It is configured as follows. Since the posted message posted by the viewing user is stored in the storage 23 as the posted data 23e, the posted message processing unit 21i reads the posted message from the storage 23 and displays the read posted message in the first display area 76. Alternatively, it can be displayed in a second display area 77 described later. The posted message may be read in order of earlier posting time.

図11に示されている実施形態においては、第1表示領域76には、投稿メッセージ76a〜76dの4つの投稿メッセージが表示されている。この投稿メッセージ76a〜76dは、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)であってもよいし、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)であってもよい。例えば、投稿メッセージ76a、投稿メッセージ76b、投稿メッセージ76c、及び投稿メッセージ76dがこの順にストレージ23から読み出され、この読み出された各第1投稿メッセージが、読み出された順に第1表示領域76に表示される。具体的な表示手順の例は以下のとおりである。第1投稿メッセージ76aが読み出されると、当該投稿メッセージ76aが第1表示領域76の最上部に表示される。次に、投稿メッセージ76bが読み出されると、投稿メッセージ76aは、当初の表示位置から下方に移動し、この移動により空いたスペースに投稿メッセージ76bが表示される。以下、同様に、新しい投稿メッセージが表示される場合には、表示済みの投稿メッセージを下方に移動させ、その移動により空いたスペースに当該新しい投稿メッセージが表示される。     In the embodiment shown in FIG. 11, the first display area 76 displays four posted messages 76a to 76d. The posted messages 76a to 76d may be posted messages (first posted messages) from viewing users belonging to the first user group, or may be posted messages (second posted messages) from viewing users belonging to the second user group. ). For example, the posted message 76a, the posted message 76b, the posted message 76c, and the posted message 76d are read from the storage 23 in this order, and each of the read first posted messages is displayed in the first display area 76 in the order in which they were read. Will be displayed. An example of a specific display procedure is as follows. When the first posted message 76a is read, the posted message 76a is displayed at the top of the first display area 76. Next, when the posted message 76b is read, the posted message 76a moves downward from the initial display position, and the posted message 76b is displayed in a space vacated by this movement. Hereinafter, similarly, when a new posted message is displayed, the displayed posted message is moved downward, and the new posted message is displayed in a space vacated by the movement.

投稿メッセージ76aが第1表示領域76の下限まで到達した後に新しい投稿メッセージを表示する場合には、下限に到達した投稿メッセージ76aは、第1表示領域76に表示されなくなる。図11の表示画像70においては、投稿メッセージ76aが第1表示領域76の下限に到達したことが想定されている。この時点で、新しい投稿メッセージ76eがストレージ23から第1表示領域76への表示のために読み出されると、図12に示されているように、投稿メッセージ76aは第1表示領域76に表示されなくなり、残りの投稿メッセージ(第1投稿メッセージ76b〜76d)が下方に移動した後、この移動により空いたスペースに投稿メッセージ76eが表示される。このように、第1表示領域76に表示された投稿メッセージは、当該第1表示領域76の移動方向の終端に達するまでの間、第1表示領域76に表示され続ける。     When a new posted message is displayed after the posted message 76a reaches the lower limit of the first display area 76, the posted message 76a that has reached the lower limit is not displayed in the first display area 76. In the display image 70 of FIG. 11, it is assumed that the posted message 76a has reached the lower limit of the first display area 76. At this point, when a new posted message 76e is read from the storage 23 for display in the first display area 76, the posted message 76a is no longer displayed in the first display area 76 as shown in FIG. After the remaining posted messages (the first posted messages 76b to 76d) have moved downward, the posted message 76e is displayed in the space vacated by this movement. As described above, the posted message displayed in the first display area 76 is continuously displayed in the first display area 76 until the post message reaches the end of the movement direction of the first display area 76.

第1表示領域76には、視聴ユーザから投稿された第1投稿メッセージだけでなく、サーバ装置20からの各種通知が表示されてもよい。例えば、第1視聴ユーザからギフトの表示要求があった場合には、その旨がシステムからのメッセージとして第1表示領域76に表示されてもよい。第1表示領域76に表示され得るサーバ装置20からの通知には、様々な種類の通知が含まれ得る。サーバ装置20からの通知には、例えば、ある視聴ユーザが動画の視聴を開始した場合に当該視聴ユーザが動画の視聴を開始した旨を通知するためのメッセージであってもよい。     In the first display area 76, not only the first posted message posted by the viewing user, but also various notifications from the server device 20 may be displayed. For example, when there is a display request for a gift from the first viewing user, that effect may be displayed in the first display area 76 as a message from the system. Notifications from the server device 20 that can be displayed in the first display area 76 can include various types of notifications. The notification from the server device 20 may be, for example, a message for notifying that the viewing user has started viewing the moving image when a certain viewing user starts viewing the moving image.

以上のとおり、投稿メッセージ処理部21iは、第1ユーザグループまたは第2ユーザグループに属するユーザの投稿メッセージを、第1表示領域76に表示する処理を行う。第1表示領域76において、第1投稿メッセージは、新しい投稿メッセージを表示するためのスペースを作り出すために、所定の移動方向に移動する。図11及び図12に示した実施形態では、第1投稿メッセージは、上から下へ移動する。第1表示領域76における第1投稿メッセージの移動方向は、上から下には限られない。第1表示領域76における第1投稿メッセージの移動方向は、下から上、左から右、右から左、及びこれら以外の任意の方向であってもよい。     As described above, the posted message processing unit 21i performs a process of displaying a posted message of a user belonging to the first user group or the second user group in the first display area 76. In the first display area 76, the first posted message moves in a predetermined moving direction to create a space for displaying a new posted message. In the embodiment shown in FIGS. 11 and 12, the first posted message moves from top to bottom. The moving direction of the first posted message in the first display area 76 is not limited to the direction from top to bottom. The moving direction of the first posted message in the first display area 76 may be from bottom to top, left to right, right to left, or any other direction.

続いて、図13及び図14を参照して、第2配信期間に配信される動画について説明する。図13及び図14は、第2配信期間における配信動画の表示画像130の例を示す。図13及び図14に示した実施形態では、第2配信期間において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bがステージの上でパフォーマンスを行う動画が配信されることを想定している。図13に示されている配信動画の表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて定められた視点から見た仮想空間の画像を含む。つまり、この表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bの位置を仮想的な視点として構築された仮想空間の画像である。このため、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、表示画像130において正面を向いている。図14には、トラッキングセンサ36aのトラッキング情報に基づいて生成された動画の表示画像130が示されている。トラッキングセンサ36aは、アクターA1及びアクターA2の左前方にあるため、表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、正面以外の方向(右前方)を向いている。     Subsequently, a moving image distributed in the second distribution period will be described with reference to FIGS. FIGS. 13 and 14 show examples of the display image 130 of the distribution moving image in the second distribution period. In the embodiment shown in FIGS. 13 and 14, it is assumed that a moving image in which the character objects 71A and 71B perform on the stage is distributed in the second distribution period. The display image 130 of the distribution moving image illustrated in FIG. 13 includes an image of the virtual space viewed from a viewpoint determined based on the tracking information of the tracking sensor 36b in front of the actor A1 and the actor A2. That is, the display image 130 is an image of a virtual space constructed using the position of the tracking sensor 36b in front of the actor A1 and the actor A2 as a virtual viewpoint. Therefore, the character object 71A and the character object 71B face the front in the display image 130. FIG. 14 shows a moving image display image 130 generated based on the tracking information of the tracking sensor 36a. Since the tracking sensor 36a is located on the left front of the actors A1 and A2, the character objects 71A and 71B in the display image 130 are oriented in directions other than the front (front right).

第2表示領域77は、動画生成部21dにより生成される仮想空間に含まれる一又は複数のオブジェクトの表面の一部又は全部に相当する領域である。図示の実施形態においては、スクリーン状のスクリーンオブジェクト131の前面の全体が第2表示領域77とされている。本明細書においては、スクリーンオブジェクト131のように、第2表示領域77が設けられるオブジェクトを「表示用オブジェクト」又は「メッセージ表示用オブジェクト」と呼ぶことがある。配信動画に含まれる仮想空間内の任意のオブジェクトを表示用オブジェクトとすることができる。一態様においては、ギフトオブジェクトを表示用オブジェクトとしてもよい。     The second display area 77 is an area corresponding to a part or all of the surface of one or a plurality of objects included in the virtual space generated by the moving image generation unit 21d. In the illustrated embodiment, the entire front surface of the screen-shaped screen object 131 is the second display area 77. In this specification, an object in which the second display area 77 is provided, such as the screen object 131, may be referred to as a “display object” or a “message display object”. Any object in the virtual space included in the distribution moving image can be used as a display object. In one embodiment, the gift object may be the display object.

図13の実施形態においては、第2表示領域77には、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)が表示される。図示の例では、第2表示領域77には、第2投稿メッセージ77a〜77eの5つの第2投稿メッセージが表示されている。本明細書において、第2投稿メッセージ77a〜77eは、互いから区別される必要がない場合には、単に「第2投稿メッセージ」と呼ばれることがある。図13に示されているように、第2投稿メッセージ77a、第2投稿メッセージ77b、第2投稿メッセージ77c、第2投稿メッセージ77d、及び第2投稿メッセージ77eがこの順にストレージ23から読み出され、この読み出された各第2投稿メッセージが、読み出された順に第2表示領域77に表示される。第2表示領域77には、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)は表示されない。第2配信期間においては、第1ユーザグループに属する視聴ユーザは、クライアント装置にて実装される機能によりメッセージの投稿ができないか、または、メッセージを投稿することができても、当該メッセージは第2表示領域77には表示されない。     In the embodiment of FIG. 13, the second display area 77 displays a posted message (second posted message) from a viewing user belonging to the second user group. In the illustrated example, five second posted messages of second posted messages 77a to 77e are displayed in the second display area 77. In the present specification, the second posted messages 77a to 77e may be simply referred to as “second posted messages” if they do not need to be distinguished from each other. As shown in FIG. 13, the second posted message 77a, the second posted message 77b, the second posted message 77c, the second posted message 77d, and the second posted message 77e are read from the storage 23 in this order, The read second posted messages are displayed in the second display area 77 in the order in which they were read. In the second display area 77, a posted message (first posted message) from a viewing user belonging to the first user group is not displayed. In the second distribution period, the viewing user belonging to the first user group cannot post a message due to a function implemented in the client device or can post a message, but the message remains in the second user group. It is not displayed in the display area 77.

第2表示領域77に表示される第2投稿メッセージは、第2表示領域77において所定の方向に移動してもよい。図13の実施形態においては、各第2投稿メッセージは、第2表示領域77の上から下に向かって移動する。スクリーンオブジェクト131(第2表示領域77)は、仮想空間において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの後方に配されているため、この第2表示領域77に表示された第2投稿メッセージのうち第2投稿メッセージ77a〜77dの各々の一部は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの後ろに隠れている。第2投稿メッセージは、第2表示領域77の移動方向における終端まで移動すると、その後、表示画像70に表示されなくなる。一実施形態において、スクリーンオブジェクト131等の表示用オブジェクトは、仮想空間において、キャラクタオブジェクトよりも後方に配される。これにより、表示用オブジェクト及び当該表示用オブジェクトに表示される第2投稿メッセージの後ろにキャラクタオブジェクトが隠れてしまうことがない。上記のように、第2配信期間においては、キャラクタオブジェクトがパフォーマンスを行うことが想定されている。よって、表示用オブジェクトをキャラクタオブジェクトよりも後方に配すことにより、ユーザは、キャラクタオブジェクトのパフォーマンスを他のオブジェクトによって邪魔されることなく見ることができる。これにより、ユーザの視聴体験の劣化を防ぐことができる。     The second posted message displayed in the second display area 77 may move in a predetermined direction in the second display area 77. In the embodiment of FIG. 13, each second posted message moves from the top to the bottom of the second display area 77. Since the screen object 131 (the second display area 77) is arranged behind the character object 71A and the character object 71B in the virtual space, the second posted message among the second posted messages displayed in the second display area 77 is displayed. A part of each of the posted messages 77a to 77d is hidden behind the character objects 71A and 71B. When the second posted message moves to the end in the moving direction of the second display area 77, it is no longer displayed on the display image 70. In one embodiment, display objects such as the screen object 131 are arranged behind the character object in the virtual space. This prevents the character object from being hidden behind the display object and the second posted message displayed on the display object. As described above, it is assumed that the character object performs in the second distribution period. Therefore, by arranging the display object behind the character object, the user can see the performance of the character object without being disturbed by other objects. This can prevent the user's viewing experience from deteriorating.

第2表示領域77における第2投稿メッセージの移動方向は、上から下の方向には限られない。第2表示領域77における第2投稿メッセージの移動方向は、左から右、下から上、右から左、及びこれら以外の任意の方向であってもよい。第2表示領域77における投稿メッセージの移動方向は、第1表示領域76における第1投稿メッセージの移動方向と異なっていても良い。     The moving direction of the second posted message in the second display area 77 is not limited to the direction from top to bottom. The moving direction of the second posted message in the second display area 77 may be left to right, bottom to top, right to left, or any other direction. The moving direction of the posted message in the second display area 77 may be different from the moving direction of the first posted message in the first display area 76.

一態様において、第2表示領域77における投稿メッセージの移動方向は、当該投稿メッセージに含まれる第1コマンドに応じて定められても良い。例えば、視聴ユーザは、クライアント装置を介して投稿メッセージを作成する際に、移動方向を指定する第1コマンドを当該投稿メッセージに含めることができる。この第1コマンドは、例えば、左から右への移動を指定する場合には「L、R」というテキストであってもよい。この第1コマンドは、例えば、投稿メッセージの本体(第2表示領域77に表示されるメッセージ)の後に付加されてもよい。メッセージ本体と第1コマンドとの間は、アットマーク(「@」)、カンマ(「,」)、セミコロン(「;」)、コロン(「:」)などで区切られても良い。このように、視聴ユーザは、第2表示領域77におけるメッセージの移動方向を指定する第1コマンドを含むように投稿メッセージを作成し、当該投稿メッセージをサーバ装置20に送信することができる。第1コマンドは、ストレージ23に投稿データ23eの一部として記憶されてもよい。投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出した際に、当該投稿メッセージが第2ユーザグループから投稿されたものである場合には、当該第1コマンドにより指定された方向に移動するように、当該投稿メッセージを第2表示領域77に表示するように構成されてもよい。上述した第1コマンドの記述形式は、任意に変更することができる。     In one aspect, the moving direction of the posted message in the second display area 77 may be determined according to a first command included in the posted message. For example, when creating a posted message via the client device, the viewing user can include a first command specifying the moving direction in the posted message. This first command may be, for example, text “L, R” when specifying movement from left to right. The first command may be added, for example, after the main body of the posted message (the message displayed in the second display area 77). The message body and the first command may be separated by an at mark (“@”), a comma (“,”), a semicolon (“;”), a colon (“:”), or the like. As described above, the viewing user can create a posted message so as to include the first command for specifying the moving direction of the message in the second display area 77, and transmit the posted message to the server device 20. The first command may be stored in the storage 23 as a part of the post data 23e. When the posted message is read from the storage 23, if the posted message is posted from the second user group, the posted message processing unit 21i moves in the direction specified by the first command. Alternatively, the posted message may be displayed in the second display area 77. The description format of the first command described above can be arbitrarily changed.

一態様において、第2表示領域77における投稿メッセージの初期表示位置は、当該投稿メッセージに含まれる第2コマンドに応じて定められても良い。例えば、視聴ユーザは、クライアント装置を介して投稿メッセージを作成する際に、当該投稿メッセージに第2表示領域77における初期表示位置を指定する第2コマンドを含めることができる。この第2コマンドは、例えば、初期表示位置が第2表示領域の左端である場合には「@L」というテキストであり、初期表示位置が第2表示領域の右端である場合には「@R」というテキストであり、初期表示位置が第2表示領域の中央である場合には「@C」というテキストであってもよい。視聴ユーザは、第2コマンドを含むように投稿メッセージを作成し、当該投稿メッセージをサーバ装置20に送信することができる。投稿メッセージには、第2コマンドに加えて第1コマンドが含められても良い。第2コマンドは、ストレージ23に投稿データ23eの一部として記憶されてもよい。投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出した際に、当該投稿メッセージが第2ユーザグループから投稿されたものである場合には、当該第2コマンドにより指定された初期表示位置に当該投稿メッセージを表示する。当該投稿メッセージが第1コマンドも含む場合には、投稿メッセージ処理部21iは、当該投稿メッセージを当該第2コマンドにより指定された初期表示位置に表示させ、その後に当該第1コマンドで指定された方向に移動させるように構成されてもよい。上述した第2コマンドの記述形式は、任意に変更することができる。     In one aspect, the initial display position of the posted message in second display area 77 may be determined according to a second command included in the posted message. For example, when the viewing user creates a posted message via the client device, the posted message can include a second command specifying the initial display position in the second display area 77. The second command is, for example, text "@L" when the initial display position is at the left end of the second display area, and "@R" when the initial display position is at the right end of the second display area. ", And may be the text" $ C "when the initial display position is at the center of the second display area. The viewing user can create a posted message so as to include the second command, and transmit the posted message to the server device 20. The posted message may include the first command in addition to the second command. The second command may be stored in the storage 23 as a part of the post data 23e. When the posted message processing unit 21i reads the posted message from the storage 23 and finds that the posted message has been posted from the second user group, the posted message processing unit 21i moves the post message to the initial display position specified by the second command. Display post messages. When the posted message also includes the first command, the posted message processing unit 21i causes the posted message to be displayed at the initial display position specified by the second command, and then displays the post message in the direction specified by the first command. May be configured to be moved. The description format of the above-mentioned second command can be arbitrarily changed.

一態様において、投稿メッセージ処理部21iは、第2投稿メッセージの第2表示領域77における移動速度が第1投稿メッセージの第1表示領域76における移動速度よりも遅くなるように、各投稿メッセージの移動速度を調整することができる。     In one aspect, the posted message processing unit 21i moves each posted message such that the moving speed of the second posted message in the second display area 77 is lower than the moving speed of the first posted message in the first display area 76. Speed can be adjusted.

一態様において、投稿メッセージ処理部21iは、第1投稿メッセージが第1表示領域76に表示されている第1表示時間よりも、第2投稿メッセージが第2表示領域77に表示されている第2表示時間が長くなるように、各投稿メッセージの移動速度を調整することができる。第1投稿メッセージの移動方向における第1表示領域76の長さと第2投稿メッセージの移動方向における第2表示領域77の長さとが同じ場合には、上記のように、第2投稿メッセージの移動速度が第1投稿メッセージの移動速度よりも遅くなるようにすることで、第2投稿メッセージの表示時間を第1投稿メッセージの表示時間よりも長くすることができる。第1投稿メッセージと第2投稿メッセージの移動速度が同じ場合には、第2投稿メッセージの移動方向における第2表示領域73の長さを第1投稿メッセージの移動方向における第1表示領域76の長さよりも長くすることにより、第2投稿メッセージの表示時間を第1投稿メッセージの表示時間よりも長くすることができる。     In one aspect, the posted message processing unit 21i determines that the second posted message is displayed in the second display area 77 longer than the first display time in which the first posted message is displayed in the first display area 76. The moving speed of each posted message can be adjusted so that the display time becomes longer. When the length of the first display area 76 in the moving direction of the first posted message is the same as the length of the second display area 77 in the moving direction of the second posted message, as described above, the moving speed of the second posted message Is made slower than the moving speed of the first posted message, the display time of the second posted message can be made longer than the display time of the first posted message. When the moving speed of the first posted message is the same as the moving speed of the second posted message, the length of the second display area 73 in the moving direction of the second posted message is changed to the length of the first display area 76 in the moving direction of the first posted message. By making the display time longer, the display time of the second posted message can be made longer than the display time of the first posted message.

一態様においては、カメラワークにより、配信動画の表示を変更することができる。上記のとおり、図13に示されている配信動画の表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて生成されている。つまり、表示画像130は、トラッキングセンサ36bがアクティブセンサとされているときに生成されている。このため、図13の表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは正面を向いている。アクティブセンサをトラッキングセンサ36bからトラッキングセンサ36aに切り替えることにより、トラッキングセンサ36aのトラッキング情報に基づいて生成された仮想空間を含む動画が生成される。トラッキングセンサ36aのトラッキング情報に基づいて生成された動画の表示画像の例が図14に示されている。トラッキングセンサ36aは、アクターA1及びアクターA2の左前方にあるため、表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、正面以外の方向(右前方)を向いている。また、スクリーンオブジェクト131、当該スクリーンオブジェクト131の表面に設けられている第2表示領域77、及び当該第2表示領域77に表示される第2投稿メッセージも傾いて表示されている。このように、第2表示領域77(またはスクリーンオブジェクト131)の仮想空間における位置及び向きは、いずれのトラッキングセンサがアクティブセンサとして用いられるかによって定められる。また、アクティブセンサの位置又は向きを変更すると、それに応じて、第2表示領域77(またはスクリーンオブジェクト131)の仮想空間における位置又は向きも変更される。図14に示されているトラッキングセンサ36aがアクティブセンサの場合の表示画像130における第2表示領域77(またはスクリーンオブジェクト131)は、図13に示されているトラッキングセンサ36aがアクティブセンサの場合の表示画像における表示画像130における第2表示領域77(またはスクリーンオブジェクト131)よりも、斜め方向から見ている分だけ小さく表示されている。     In one aspect, the display of the distribution moving image can be changed by camerawork. As described above, the display image 130 of the distribution moving image shown in FIG. 13 is generated based on the tracking information of the tracking sensor 36b in front of the actors A1 and A2. That is, the display image 130 is generated when the tracking sensor 36b is an active sensor. For this reason, in the display image 130 of FIG. 13, the character object 71A and the character object 71B face the front. By switching the active sensor from the tracking sensor 36b to the tracking sensor 36a, a moving image including the virtual space generated based on the tracking information of the tracking sensor 36a is generated. FIG. 14 shows an example of a display image of a moving image generated based on the tracking information of the tracking sensor 36a. Since the tracking sensor 36a is located on the left front of the actors A1 and A2, the character objects 71A and 71B in the display image 130 are oriented in directions other than the front (front right). In addition, the screen object 131, the second display area 77 provided on the surface of the screen object 131, and the second posted message displayed in the second display area 77 are also displayed at an angle. As described above, the position and the orientation of the second display area 77 (or the screen object 131) in the virtual space are determined by which tracking sensor is used as the active sensor. Further, when the position or the direction of the active sensor is changed, the position or the direction of the second display area 77 (or the screen object 131) in the virtual space is changed accordingly. The second display area 77 (or the screen object 131) in the display image 130 when the tracking sensor 36a shown in FIG. 14 is the active sensor is a display when the tracking sensor 36a shown in FIG. 13 is the active sensor. The image is displayed smaller than the second display area 77 (or the screen object 131) in the display image 130 in the image by an amount viewed from an oblique direction.

アクティブセンサがトラッキングセンサ36bからトラッキングセンサ36aに切り替えられると、仮想空間における仮想カメラの位置(視点の位置)も変更されるため、第2表示領域77の仮想空間における位置や向きも変更される。例えば、トラッキングセンサ36bがアクティブセンサとされている図13の表示画像においては、第2投稿メッセージ77a〜77dの各々の位置がキャラクタオブジェクト71Aまたはキャラクタオブジェクト71Bの後ろに隠れているが、トラッキングセンサ36aがアクティブセンサとされている図14の表示画像130においては、第2投稿メッセージ77cのみがキャラクタオブジェクトの後ろに隠れており、視点の移動によって、第2投稿メッセージ77a,77b,及び77dは、キャラクタオブジェクトの後ろに隠れず、その全体が視認可能になっている。このように、アクティブセンサの切り替えによって、仮想空間における視点を移動させることにより、キャラクタオブジェクトの後ろに隠れていた第2投稿メッセージを視認しやすくすることができる。     When the active sensor is switched from the tracking sensor 36b to the tracking sensor 36a, the position (viewpoint position) of the virtual camera in the virtual space is also changed, so that the position and orientation of the second display area 77 in the virtual space are also changed. For example, in the display image of FIG. 13 in which the tracking sensor 36b is an active sensor, the position of each of the second posted messages 77a to 77d is hidden behind the character object 71A or the character object 71B. In the display image 130 of FIG. 14 in which is the active sensor, only the second posted message 77c is hidden behind the character object, and the second posted messages 77a, 77b, and 77d become The whole object is not visible behind the object. As described above, by moving the viewpoint in the virtual space by switching the active sensor, the second posted message hidden behind the character object can be easily recognized.

次に、図15を参照して、一態様による動画配信処理について説明する。図15は、一実施形態における動画配信処理の流れを示すフロー図である。動画配信処理においては、スタジオルームRにアクターA1及びアクターA2が在室していることが想定されている。     Next, a moving image distribution process according to one embodiment will be described with reference to FIG. FIG. 15 is a flowchart illustrating the flow of the moving image distribution process according to the embodiment. In the moving image distribution process, it is assumed that actor A1 and actor A2 are present in studio R.

まず、ステップS11では、アクターA1及びアクターA2の体の動きのデジタル表現であるボディモーションデータと、アクターA1及びアクターA2の顔の動き(表情)のデジタル表現であるフェイスモーションデータと、が生成される。ボディモーションデータの生成は、例えば、上記のボディモーションデータ生成部21aで行われ、フェイスモーションデータの生成は、例えば、上記のフェイスモーションデータ生成部21bで行われる。     First, in step S11, body motion data that is a digital representation of the body movements of the actors A1 and A2 and face motion data that is a digital representation of the face movements (expressions) of the actors A1 and A2 are generated. You. The generation of the body motion data is performed, for example, by the above-described body motion data generation unit 21a, and the generation of the face motion data is performed, for example, by the above-described face motion data generation unit 21b.

次に、ステップS12において、アクターA1のボディモーションデータ及びフェイスモーションデータを、アクターA1用のモデルデータに適用することにより、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーションが生成される。同様に、アクターA2のボディモーションデータ及びフェイスモーションデータを、アクターA2用のモデルデータに適用することにより、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションが生成される。このアニメーションの生成は、例えば、上記のアニメーション生成部21cで行われる。     Next, in step S12, by applying the body motion data and the face motion data of the actor A1 to the model data for the actor A1, the animation of the first character object that moves in synchronization with the movement of the body and expression of the actor A1 Is generated. Similarly, by applying the body motion data and the face motion data of the actor A2 to the model data for the actor A2, an animation of the second character object that moves in synchronization with the movement of the body and expression of the actor A2 is generated. . The generation of the animation is performed by, for example, the above-described animation generation unit 21c.

次に、ステップS13において、仮想空間の画像と、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。この動画には、アクターA1及びアクターA2の音声が合成されてもよい。第1キャラクタオブジェクトのアニメーション及び第2キャラクタオブジェクトのアニメーションは、仮想空間内に配置されてもよい。この動画の生成は、例えば、上記の動画生成部21dで行われる。     Next, in step S13, a moving image including an image of the virtual space, animation of the first character object corresponding to actor A1, and animation of the second character object corresponding to actor A2 is generated. The voice of actor A1 and actor A2 may be synthesized with this moving image. The animation of the first character object and the animation of the second character object may be arranged in a virtual space. The generation of the moving image is performed by, for example, the moving image generation unit 21d.

次に、ステップS14に移行し、ステップS13にて生成された動画が配信される。この動画は、ネットワーク50を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。この動画は、サポーターコンピュータ40に配信され、また、スタジオルームR内のスクリーンSに投影されてもよい。動画は、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、及びこれら以外の任意の時間に定め得る。     Next, the process proceeds to step S14, and the moving image generated in step S13 is distributed. This moving image is distributed to the client devices 10a to 10c and the other client devices via the network 50. This moving image may be distributed to the supporter computer 40 and projected on the screen S in the studio room R. The moving image is continuously distributed over a predetermined distribution period. The distribution period of the moving image may be set to, for example, 30 seconds, 1 minute, 5 minutes, 10 minutes, 30 minutes, 60 minutes, 120 minutes, and any other time.

次に、ステップS15に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したこと、サポーターコンピュータ40により配信を終了するための指示がなされたこと、またはこれら以外の条件である。終了条件が成就していなければステップS11〜S14の処理が繰り返し実行され、アクターA1及びアクターA2の動きに同期したアニメーションを含む動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。     Next, the process proceeds to step S15, and it is determined whether or not a termination condition for terminating the distribution of the moving image is satisfied. The end condition is, for example, that the end time of the distribution has been reached, that the supporter computer 40 has given an instruction to end the distribution, or other conditions. If the end condition is not satisfied, the processing of steps S11 to S14 is repeatedly executed, and the distribution of the moving image including the animation synchronized with the movement of the actors A1 and A2 is continued. If it is determined that the end condition is satisfied for the moving image, the distribution process of the moving image ends.

次に、図17及び図18を参照して、本発明の他の実施形態について説明する。図17は、本発明の他の実施形態においてクライアント装置10aにおいて再生されている動画に表示される投稿メッセージの表示例を示し、図18は、当該他の実施形態における投稿メッセージ表示処理の流れを示すフロー図である。     Next, another embodiment of the present invention will be described with reference to FIGS. FIG. 17 shows a display example of a posted message displayed on a moving image being reproduced on the client device 10a in another embodiment of the present invention. FIG. 18 shows a flow of a posted message display process in the other embodiment. It is a flowchart which shows.

図17に示されている表示画像170は、第1表示領域176と、第2表示領域177と、を含んでいる。第1表示領域176には、第1投稿メッセージ176a〜176dが表示されており、第2表示領域177には、第2投稿メッセージ177aが表示されている。図17に示されている実施形態においては、投稿メッセージ処理部21iは、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)を第1表示領域76に表示し、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)を第2表示領域177に表示するための処理を行う。     The display image 170 shown in FIG. 17 includes a first display area 176 and a second display area 177. In the first display area 176, first posted messages 176a to 176d are displayed, and in the second display area 177, the second posted message 177a is displayed. In the embodiment shown in FIG. 17, the posted message processing unit 21i displays a posted message (first posted message) from a viewing user belonging to the first user group in the first display area 76, and the second user A process for displaying a posted message (second posted message) from a viewing user belonging to the group in the second display area 177 is performed.

図18に示されている投稿メッセージの表示処理においては、動画の配信中に当該動画に対する投稿メッセージがクライアント装置から当該動画を配信するサーバ装置20に投稿されることが想定されている。投稿メッセージの表示処理は、図15に示した動画の配信処理と並行して行われる。サーバ装置20において受信された投稿メッセージは、ストレージ23に投稿データ23eとして記憶される。     In the posted message display process shown in FIG. 18, it is assumed that a posted message for the moving image is posted from the client device to the server device 20 that distributes the moving image during distribution of the moving image. The posted message display process is performed in parallel with the moving image distribution process shown in FIG. The posted message received by server device 20 is stored in storage 23 as posted data 23e.

ステップS21においては、ストレージ23に記憶された投稿メッセージが読み出される。投稿メッセージは、例えば、投稿順に読み出される。     In step S21, the posted message stored in storage 23 is read. Post messages are read, for example, in the order of posting.

次に、ステップS22において、ストレージ23から読み出された投稿メッセージを投稿した視聴ユーザが、いずれのユーザグループに属しているかが判定される。投稿データ23eにおいては、投稿メッセージを投稿した視聴ユーザのアカウント情報及び当該視聴ユーザが属するユーザグループを示すグループ情報と対応付けて当該投稿メッセージが記憶されているので、投稿データ23eを参照することにより、投稿メッセージを投稿したユーザが属するユーザグループを特定することができる。 Next, in step S22, it is determined to which user group the viewing user who posted the posted message read from the storage 23 belongs. In the posted data 23e, since the posted message is stored in association with the account information of the viewing user who posted the posted message and the group information indicating the user group to which the viewed user belongs, the posted data 23e is referred to. The user group to which the user who posted the posted message belongs can be specified.

投稿メッセージを投稿した視聴ユーザが第1ユーザグループに属すると判定された場合には表示処理はステップS23に進み、投稿メッセージを投稿した視聴ユーザが第2ユーザグループに属すると判定された場合には表示処理はステップS24に進む。     If it is determined that the viewing user who posted the posted message belongs to the first user group, the display process proceeds to step S23, and if it is determined that the viewing user who posted the posted message belongs to the second user group, The display process proceeds to step S24.

ステップS23においては、ステップS21において読み出された投稿メッセージが第1表示領域(例えば、第1表示領域76)に表示される。     In step S23, the posted message read in step S21 is displayed in a first display area (for example, first display area 76).

ステップS24においては、ステップS21において読み出された投稿メッセージが第2表示領域(例えば、第2表示領域77)に表示される。     In step S24, the posted message read in step S21 is displayed in the second display area (for example, second display area 77).

以上のように、ストレージ23から読み出された投稿メッセージが、当該投稿メッセージを投稿したユーザが属するユーザグループに応じた表示領域に表示される。     As described above, the posted message read from the storage 23 is displayed in the display area corresponding to the user group to which the user who posted the posted message belongs.

上記の一実施形態によれば、第1投稿メッセージが表示される第1表示領域76と、第2投稿メッセージが表示される一方で第1投稿メッセージは表示されない第2表示領域77と、を含む動画が配信される。これにより、投稿メッセージを投稿したユーザが属するユーザグループに応じて、当該投稿メッセージの表示領域を割り当てることができる。従来は、表示画面の所定領域に投稿メッセージ用の表示領域が一つのみ設けられているため、様々なユーザグループのユーザからの投稿メッセージが同じ表示領域に表示されている。これに対して、上記の実施形態によれば、投稿メッセージを投稿したユーザが属するユーザグループに応じて、当該投稿メッセージの表示処理が行われる。これにより、投稿メッセージの表示態様を多様化することができる。     According to the above embodiment, the display device includes the first display area 76 where the first posted message is displayed, and the second display area 77 where the second posted message is displayed but the first posted message is not displayed. Video is delivered. Thereby, the display area of the posted message can be allocated according to the user group to which the user who posted the posted message belongs. Conventionally, since only one display area for a posted message is provided in a predetermined area of the display screen, posted messages from users of various user groups are displayed in the same display area. On the other hand, according to the above embodiment, display processing of the posted message is performed according to the user group to which the user who posted the posted message belongs. Thereby, the display mode of the posted message can be diversified.

一実施形態においては、第2表示領域77の一部がキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に配されている。これにより、第2投稿メッセージを他のユーザの注目をより集めやすい領域に表示することができる。     In one embodiment, a part of the second display area 77 is arranged behind the character objects 71A and 71B. Thereby, the second posted message can be displayed in an area where it is easier to attract the attention of another user.

一実施形態においては、第2表示領域77は、アクターA1及びアクターA2がパフォーマンスを披露する第2配信期間において動画に含められる。第2表示領域77は、このアクターA1及びアクターA2のパフォーマンスに応じてモーション制御されるキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に表示されるので、他のユーザの注目をより集めやすい。また、第2表示領域77は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に配されるので、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bのパフォーマンスの視聴の妨げにもなりにくい。 In one embodiment, the second display area 77 is included in the moving image during the second distribution period during which the actors A1 and A2 perform. Since the second display area 77 is displayed behind the character objects 71A and 71B that are motion-controlled in accordance with the performance of the actors A1 and A2, it is easier to attract the attention of other users. Further, since the second display area 77 is disposed behind the character objects 71A and 71B, it is difficult to hinder the viewing of the performance of the character objects 71A and 71B.

一実施形態においては、第1表示領域76とキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの少なくとも一方とが重複して表示される場合には、キャラクタオブジェクトが第1表示領域76の背後に配される。これにより、視聴ユーザやアクターA1及びアクターA2による投稿メッセージの表示がより重視される配信期間においては、投稿メッセージがキャラクタオブジェクトの背後に隠されることなく表示される。     In one embodiment, when the first display area 76 and at least one of the character object 71A and the character object 71B are displayed in an overlapping manner, the character object is arranged behind the first display area 76. Thereby, in the distribution period in which the display of the posted message by the viewing user or the actors A1 and A2 is more important, the posted message is displayed without being hidden behind the character object.

このように、上記実施形態によれば、動画の内容(例えば、アクターがパフォーマンスを実施中か否か)に応じて投稿メッセージの表示態様を変更することができる。よって、視聴ユーザによる動画の視聴体験を劣化させることなく、投稿メッセージの表示態様を多様化することができる。     As described above, according to the embodiment, the display mode of the posted message can be changed according to the content of the moving image (for example, whether or not the actor is performing the performance). Therefore, the display mode of the posted message can be diversified without deteriorating the viewing experience of the video by the viewing user.

上記の実施形態において、第2ユーザグループに属する視聴ユーザは、投稿メッセージの表示に関して、第1ユーザグループに属する視聴ユーザよりも優遇されたサービスまたは優れた機能の提供を受けることができる。     In the above embodiment, the viewing user belonging to the second user group can receive a service or a superior function which is more preferential than the viewing user belonging to the first user group with respect to the display of the posted message.

例えば、第2ユーザグループに属する視聴ユーザは、第1コマンドを用いて第2投稿メッセージの移動方向を指定したり、第2コマンドを用いて第2投稿メッセージの表示開始位置を指定することができる。これにより、第2ユーザグループに属する視聴ユーザは、自らの投稿メッセージをより注目を集めやすい方向に移動させたり、より注目を集めやすい位置に表示させたりすることができる。他方、第1ユーザグループに属する視聴ユーザは、投稿メッセージの移動方向の指定や、初期表示位置の指定を行うことができない。     For example, the viewing user belonging to the second user group can specify the moving direction of the second posted message using the first command, and can specify the display start position of the second posted message using the second command. . This allows the viewing user belonging to the second user group to move his or her posted message in a direction that more easily attracts attention, or to display the message at a position where attention is more easily gathered. On the other hand, the viewing user belonging to the first user group cannot specify the moving direction of the posted message or the initial display position.

上記の一実施形態において、第2表示領域77における第2投稿メッセージの移動速度は、第1表示領域76における第1投稿メッセージの移動速度よりも遅くなるように、投稿メッセージの表示制御が行われる。これにより、第2ユーザーグループに属する視聴ユーザは、第1ユーザグループに属する視聴ユーザよりも、自らの投稿メッセージを表示画面上に長く表示させることができる。     In the above embodiment, the display control of the posted message is performed such that the moving speed of the second posted message in the second display area 77 is lower than the moving speed of the first posted message in the first display area 76. . Thereby, the viewing users belonging to the second user group can display their own posted messages on the display screen longer than the viewing users belonging to the first user group.

上記の一実施形態において、第2ユーザグループに属する視聴ユーザは、第1配信期間161,163及び第2配信期間162のいずれにおいてもメッセージを投稿することができる。これに対して、第1ユーザグループに属するユーザは、第1配信期間161,163においてのみメッセージを投稿することができる。   In the above embodiment, the viewing user belonging to the second user group can post a message in any of the first distribution periods 161 and 163 and the second distribution period 162. On the other hand, a user belonging to the first user group can post a message only in the first distribution periods 161 and 163.

本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、配信される動画は、スタジオルームR以外で撮影及び生成されてもよい。例えば、配信される動画を生成するための撮影は、アクターやサポーターの自宅で行われてもよい。     Embodiments of the present invention are not limited to the above-described embodiments, and various changes can be made without departing from the spirit of the present invention. For example, a moving image to be distributed may be captured and generated outside of the studio room R. For example, shooting for generating a moving image to be distributed may be performed at the actor's or supporter's home.

視聴ユーザから投稿された投稿メッセージは、ストレージ23に記憶されなくてもよい。この場合、投稿メッセージ処理部21iは、クライアント装置から受信した投稿メッセージを解析して当該投稿メッセージを投稿したユーザが属するユーザグループを特定し、この特定されたユーザグループに応じた表示領域に当該投稿メッセージを表示することができる。     The posted message posted by the viewing user may not be stored in the storage 23. In this case, the posted message processing unit 21i analyzes the posted message received from the client device, specifies the user group to which the user who posted the posted message belongs, and displays the posted message in a display area corresponding to the specified user group. Messages can be displayed.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。     In the processing procedure described in this specification, in particular, in the processing procedure described using a flowchart, some of the steps (steps) configuring the processing procedure are omitted, and the steps configuring the processing procedure are omitted. Unspecified steps can be added and / or the order of the steps can be changed. The processing procedures in which such omissions, additions, and changes in order are made do not depart from the spirit of the present invention. Included in the scope of the invention.

以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
調整可能な分類基準に従って第1ユーザグループに分類された第1ユーザによって投稿された第1投稿メッセージ及び前記分類基準に従って第2ユーザグループに分類された第2ユーザによって投稿された第2投稿メッセージを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する、
動画配信システム。
[2]
前記一又は複数のコンピュータプロセッサは、前記第1ユーザグループに属する第1視聴ユーザの数が前記第2ユーザグループに属する第2視聴ユーザの数よりも少なくなるように前記分類基準を調整する、
[1]に記載の動画配信システム。
[3]
前記一又は複数のコンピュータプロセッサは、前記第2ユーザグループに属する第2視聴ユーザの数と前記第1ユーザグループに属する第1視聴ユーザの数との差が所定数よりも小さくなった場合に、前記分類基準を調整する、
[1]又は[2]に記載の動画配信システム。
[4]
前記一又は複数のコンピュータプロセッサは、前記視聴ユーザによる前記動画の視聴時間及び前記分類基準に基づいて、前記視聴ユーザを前記第1ユーザグループ又は前記第2ユーザグループのいずれかに分類する、
[1]から[3]のいずれか1項に記載の動画配信システム。
[5]
前記一又は複数のコンピュータプロセッサは、前記視聴ユーザによる前記動画の視聴回数及び前記分類基準に基づいて、前記視聴ユーザを前記第1ユーザグループ又は前記第2ユーザグループのいずれかに分類する、
[1]から[4]のいずれか1項に記載の動画配信システム。
[6]
前記一又は複数のコンピュータプロセッサは、前記視聴ユーザによる電子的ギフトの購入量又は購入金額及び前記分類基準に基づいて、前記視聴ユーザを前記第1ユーザグループ又は前記第2ユーザグループのいずれかに分類する、
[1]から[5]のいずれか1項に記載の動画配信システム。
[7]
前記一又は複数のコンピュータプロセッサは、前記視聴ユーザによって投稿された投稿メッセージの投稿数及び前記分類基準に基づいて、前記視聴ユーザを前記第1ユーザグループ又は前記第2ユーザグループのいずれかに分類する、
[1]から[6]のいずれか1項に記載の動画配信システム。
[8]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画を配信するための動画配信方法であって、
調整可能な分類基準に従って第1ユーザグループに分類された第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、
前記分類基準に従って第2ユーザグループに分類された第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、
を備える動画配信方法。
[9]
一又は複数のコンピュータプロセッサに実行される動画を配信するためのプログラムであって、
前記一又は複数のコンピュータプロセッサに、
調整可能な分類基準に従って第1ユーザグループに分類された第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、
前記分類基準に従って第2ユーザグループに分類された第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む前記動画を配信する工程と、
を実行させる動画配信プログラム。
Hereinafter, the inventions described in the claims at the time of filing the original application of the present application are additionally described.
[1]
A first posted message posted by a first user classified into a first user group according to the adjustable classification criteria and a second posted message posted by a second user classified into a second user group according to the classified criteria Comprising storage for storing, one or more computer processors,
The one or more computer processors execute computer-readable instructions,
A moving image including a first display area capable of displaying the first posted message and the second posted message, and a second display area capable of displaying the second posted message but not displaying the first posted message. To deliver the
Video distribution system.
[2]
The one or more computer processors adjust the classification criterion such that the number of first viewing users belonging to the first user group is less than the number of second viewing users belonging to the second user group.
The moving image distribution system according to [1].
[3]
The one or more computer processors, when a difference between the number of second viewing users belonging to the second user group and the number of first viewing users belonging to the first user group is smaller than a predetermined number, Adjusting the classification criteria,
The moving image distribution system according to [1] or [2].
[4]
The one or more computer processors classify the viewing user into one of the first user group or the second user group based on the viewing time of the video by the viewing user and the classification criterion,
The moving image distribution system according to any one of [1] to [3].
[5]
The one or more computer processors classify the viewing user into one of the first user group or the second user group based on the number of times the video is viewed by the viewing user and the classification criterion,
The moving image distribution system according to any one of [1] to [4].
[6]
The one or more computer processors classify the viewing user into either the first user group or the second user group based on the purchase amount or purchase amount of the electronic gift by the viewing user and the classification criterion. Do
The moving image distribution system according to any one of [1] to [5].
[7]
The one or more computer processors classify the viewing user into one of the first user group or the second user group based on the number of posted messages posted by the viewing user and the classification criterion. ,
The moving image distribution system according to any one of [1] to [6].
[8]
A video distribution method for distributing a video executed by one or more computer processors executing computer-readable instructions,
Storing a first posted message posted by a first user classified into a first user group according to an adjustable classification criterion;
Storing a second posted message posted by a second user classified into a second user group according to the classification criteria;
A moving image including a first display area capable of displaying the first posted message and the second posted message, and a second display area capable of displaying the second posted message but not displaying the first posted message. Delivering the
A video distribution method comprising:
[9]
A program for delivering a moving image executed to one or more computer processors,
The one or more computer processors,
Storing a first posted message posted by a first user classified into a first user group according to an adjustable classification criterion;
Storing a second posted message posted by a second user classified into a second user group according to the classification criteria;
A first display area in which the first posted message and the second posted message can be displayed, and a second display area in which the second posted message can be displayed, but the first posted message is not displayed. The process of delivering the video,
A video distribution program that runs

符合の説明Explanation of sign

1 動画配信システム     1. Video distribution system

Claims (27)

ユーザによって投稿された投稿メッセージを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
アクターの動きに基づいて仮想空間内で動くように生成されるキャラクタオブジェクトのアニメーションと、前記投稿メッセージと、を含む動画を配信し、
前記投稿メッセージは、第1配信区間と前記第1配信区間と異なる第2配信区間とにおいて異なる表示態様で表示される、
動画配信システム。
A storage for storing a posted message posted by the user, and one or more computer processors,
The one or more computer processors execute computer-readable instructions,
An animation of a character object generated to move in the virtual space based on the movement of the actor, and the posted message, and deliver a moving image including
The post message is displayed in different display modes in a first distribution section and a second distribution section different from the first distribution section,
Video distribution system.
前記第2配信区間において、前記投稿メッセージは、前記仮想空間内に配置された表示用オブジェクトの一部又は全部に相当する表示領域に表示される、
請求項1に記載の動画配信システム。
In the second distribution section, the posted message is displayed in a display area corresponding to a part or all of the display objects arranged in the virtual space.
The moving image distribution system according to claim 1.
前記表示用オブジェクトは、前記動画において前記キャラクタオブジェクトの後方に表示される、
請求項2に記載の動画配信システム。
The display object is displayed behind the character object in the video.
The moving image distribution system according to claim 2.
前記第1区間において、前記投稿メッセージは、前記動画にスーパーインポーズされることで表示される、
請求項1〜3のいずれか1項に記載の動画配信システム。
In the first section, the posted message is displayed by being superimposed on the video.
The moving image distribution system according to claim 1.
前記第2配信区間は、前記キャラクタオブジェクトがパフォーマンスを実施するための配信区間である、
請求項1〜4のいずれか1項に記載の動画配信システム。
The second distribution section is a distribution section in which the character object performs a performance.
The moving picture distribution system according to claim 1.
前記アクター又は前記動画の配信をサポートするサポーターからの指示により前記第1配信区間から前記第2配信区間へ移行する、
請求項1〜5のいずれか1項に記載の動画配信システム。
Transition from the first distribution section to the second distribution section according to an instruction from the actor or a supporter supporting distribution of the moving image;
The moving image distribution system according to claim 1.
前記投稿メッセージは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージと、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージとを含み、
前記第1配信区間においては、前記第1投稿メッセージが表示され、
前記第2配信区間においては、前記第2投稿メッセージが表示される、
請求項1〜6のいずれか1項に記載の動画配信システム。
The posted message includes a first posted message posted by a first user included in a first user group, and a second posted message posted by a second user included in a second user group,
In the first distribution section, the first posted message is displayed,
In the second distribution section, the second posted message is displayed.
The moving image distribution system according to claim 1.
前記第1投稿メッセージは、前記キャラクタオブジェクトに重複して表示される、
請求項7に記載の動画配信システム。
The first post message is displayed overlapping with the character object,
The moving image distribution system according to claim 7.
前記第1投稿メッセージは、第1方向に移動するように表示される、
請求項7又は8に記載の動画配信システム。
The first posted message is displayed so as to move in a first direction.
The moving image distribution system according to claim 7.
前記第2投稿メッセージは、前記第2表示領域において第2方向に移動するように表示される、
請求項7〜9のいずれか1項に記載の動画配信システム。
The second posted message is displayed in the second display area so as to move in a second direction,
The moving image distribution system according to any one of claims 7 to 9.
前記第2投稿メッセージの移動速度は前記第1投稿メッセージの移動速度よりも遅い
請求項9又は10に記載の動画配信システム。
The moving image distribution system according to claim 9, wherein the moving speed of the second posted message is lower than the moving speed of the first posted message.
前記第2投稿メッセージが前記第2表示領域に表示されている表示時間は、前記第1投稿メッセージが前記第1表示領域に表示されている表示時間よりも長い、
請求項1〜11のいずれか1項に記載の動画配信システム。
The display time in which the second posted message is displayed in the second display area is longer than the display time in which the first posted message is displayed in the first display area,
The moving image distribution system according to claim 1.
前記仮想空間は、複数のカメラの中から選択されたアクティブセンサのトラッキング情報に基づいて構築され、
前記複数のカメラのうちの第1カメラが前記アクティブセンサとして選択されている場合には、前記第2投稿メッセージは前記キャラクタオブジェクトの後ろに表示される一方、前記複数のカメラのうちの第2カメラが前記アクティブセンサとして選択されている場合には、前記第2投稿メッセージは前記キャラクタオブジェクトと重複しないように表示される、
請求項7〜13のいずれか1項に記載の動画配信システム。
The virtual space is constructed based on tracking information of an active sensor selected from a plurality of cameras,
When a first camera of the plurality of cameras is selected as the active sensor, the second posted message is displayed behind the character object, while a second camera of the plurality of cameras is displayed. Is selected as the active sensor, the second posted message is displayed so as not to overlap with the character object,
The moving image distribution system according to any one of claims 7 to 13.
前記仮想空間は、複数のカメラの中から選択されたアクティブセンサのトラッキング情報に基づいて構築され、
前記第1投稿メッセージは、前記複数のカメラのうちの第1カメラが前記アクティブセンサとして選択されている場合と前記複数のカメラのうちの第2カメラが前記アクティブセンサとして選択されている場合とで同じ位置に表示される、
請求項1〜13のいずれか1項に記載の動画配信システム。
The virtual space is constructed based on tracking information of an active sensor selected from a plurality of cameras,
The first posted message is generated when the first camera of the plurality of cameras is selected as the active sensor and when the second camera of the plurality of cameras is selected as the active sensor. Displayed in the same position,
The moving image distribution system according to any one of claims 1 to 13.
前記動画は、前記第1ユーザ又は前記第2ユーザから表示要求された電子的ギフトを表すギフトオブジェクトをさらに含む、
動画配信システム。
The moving image further includes a gift object representing an electronic gift requested to be displayed by the first user or the second user,
Video distribution system.
前記ギフトオブジェクトは、前記キャラクタオブジェクトの特定の部位と対応付けて表示される第1ギフトオブジェクトと、前記キャラクタオブジェクトの特定の部位と対応付けずに表示される第2ギフトオブジェクトと、を含む、
請求項15に記載の動画配信システム。
The gift object includes: a first gift object displayed in association with a specific part of the character object; and a second gift object displayed without being associated with a specific part of the character object.
The moving image distribution system according to claim 15.
前記第1ギフトオブジェクトは、前記キャラクタオブジェクトの動きに追従して動くように前記動画において表示される、
請求項16に記載の動画配信システム。
The first gift object is displayed in the moving image so as to move following the movement of the character object.
The moving image distribution system according to claim 16.
前記第2ギフトオブジェクトの表示要求には、表示位置指定パラメータが含まれており、
前記第2ギフトオブジェクトは、前記表示位置指定パラメータによって指定された位置に表示される、
請求項16又は17に記載の動画配信システム。
The display request for the second gift object includes a display position designation parameter,
The second gift object is displayed at a position specified by the display position specification parameter.
The moving image distribution system according to claim 16.
前記第2ギフトオブジェクトの表示要求には、移動方向パラメータが含まれており、
前記第2ギフトオブジェクトは、前記動画において前記移動方向パラメータによって指定された移動方向に移動する、
請求項16〜18のいずれか1項に記載の動画配信システム。
The display request of the second gift object includes a moving direction parameter,
The second gift object moves in the moving direction specified by the moving direction parameter in the moving image;
The moving image distribution system according to any one of claims 16 to 18.
前記第2ギフトオブジェクトは、前記キャラクタオブジェクトと重複しない位置に表示される、
請求項16〜19のいずれか1項に記載の動画配信システム。
The second gift object is displayed at a position that does not overlap with the character object.
The moving image distribution system according to any one of claims 16 to 19.
前記第2ギフトオブジェクトの前記仮想空間における大きさが基準大きさよりも大きい場合に、前記第2ギフトオブジェクトは、前記キャラクタオブジェクトと重複しない位置に配置される、
請求項16〜20のいずれか1項に記載の動画配信システム。
When the size of the second gift object in the virtual space is larger than a reference size, the second gift object is arranged at a position that does not overlap with the character object.
The moving image distribution system according to any one of claims 16 to 20.
前記第2ギフトオブジェクトは、前記キャラクタオブジェクトの後ろに表示される、
請求項16〜21のいずれか1項に記載の動画配信システム。
The second gift object is displayed behind the character object;
The moving image distribution system according to any one of claims 16 to 21.
前記第2ギフトオブジェクトの前記仮想空間における大きさが基準大きさよりも大きい場合に、前記第2ギフトオブジェクトは、前記キャラクタオブジェクトの後ろに表示される、請求項22に記載の動画配信システム。   23. The video distribution system according to claim 22, wherein when the size of the second gift object in the virtual space is larger than a reference size, the second gift object is displayed behind the character object. 前記第2ギフトオブジェクトの前記仮想空間における大きさが基準大きさよりも小さい場合に、前記第2ギフトオブジェクトの少なくともその一部が前記キャラクタオブジェクトと重複する位置に配置される、
請求項16〜23のいずれか1項に記載の動画配信システム。
When the size of the second gift object in the virtual space is smaller than a reference size, at least a part of the second gift object is arranged at a position overlapping the character object.
The moving image distribution system according to any one of claims 16 to 23.
前記第2配信区間において、前記投稿メッセージは、前記仮想空間内に配置された表示用オブジェクトの一部又は全部に相当する表示領域に表示され、
前記ギフトオブジェクトは、前記表示用オブジェクトを含む、
請求項2〜24のいずれか1項に記載の動画配信システム。
In the second distribution section, the posted message is displayed in a display area corresponding to a part or all of display objects arranged in the virtual space,
The gift object includes the display object.
The moving image distribution system according to any one of claims 2 to 24.
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
アクターの動きに基づいて仮想空間内で動くように生成されるキャラクタオブジェクトのアニメーションと、ユーザによって投稿された投稿メッセージと、を含む動画を配信する工程を備え、
前記投稿メッセージは、第1配信区間と前記第1配信区間と異なる第2配信区間とにおいて異なる表示態様で表示される、
動画配信方法。
A moving image distribution method executed by one or more computer processors executing computer-readable instructions,
Comprising a step of delivering a video including an animation of a character object generated to move in the virtual space based on the movement of the actor, and a posted message posted by the user,
The post message is displayed in different display modes in a first distribution section and a second distribution section different from the first distribution section,
Video distribution method.
一又は複数のコンピュータプロセッサに実行されるプログラムであって、
前記一又は複数のコンピュータプロセッサに、
アクターの動きに基づいて仮想空間内で動くように生成されるキャラクタオブジェクトのアニメーションと、ユーザによって投稿された投稿メッセージと、を含む動画を配信する工程を実行させ動画配信プログラムであって、
前記投稿メッセージは、第1配信区間と前記第1配信区間と異なる第2配信区間とにおいて異なる表示態様で表示される、動画配信プログラム。
A program executed by one or more computer processors,
The one or more computer processors,
An animation of a character object generated to move in the virtual space based on the movement of the actor, and a posted message posted by the user, and a video distribution program that executes a step of distributing a video including the
The moving image distribution program, wherein the posted message is displayed in different display modes in a first distribution section and a second distribution section different from the first distribution section.
JP2019170275A 2019-03-13 2019-09-19 Video distribution system that distributes videos including messages from viewers Active JP6951394B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019170275A JP6951394B2 (en) 2019-03-13 2019-09-19 Video distribution system that distributes videos including messages from viewers
JP2021115576A JP7279114B2 (en) 2019-09-19 2021-07-13 A video distribution system that distributes videos containing messages from viewing users
JP2023078171A JP2023109850A (en) 2019-09-19 2023-05-10 Video distribution system for distributing video including message from viewing user

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019045554A JP6592214B1 (en) 2019-03-13 2019-03-13 Video distribution system that distributes video including messages from viewing users
JP2019170275A JP6951394B2 (en) 2019-03-13 2019-09-19 Video distribution system that distributes videos including messages from viewers

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019045554A Division JP6592214B1 (en) 2018-05-08 2019-03-13 Video distribution system that distributes video including messages from viewing users

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021115576A Division JP7279114B2 (en) 2019-09-19 2021-07-13 A video distribution system that distributes videos containing messages from viewing users

Publications (2)

Publication Number Publication Date
JP2020017981A true JP2020017981A (en) 2020-01-30
JP6951394B2 JP6951394B2 (en) 2021-10-20

Family

ID=69581663

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019170275A Active JP6951394B2 (en) 2019-03-13 2019-09-19 Video distribution system that distributes videos including messages from viewers

Country Status (1)

Country Link
JP (1) JP6951394B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021159307A (en) * 2020-03-31 2021-10-11 株式会社コナミデジタルエンタテインメント Information processing system, information processing method, and program
JP2022009108A (en) * 2020-03-31 2022-01-14 株式会社コナミデジタルエンタテインメント Information processing system, information processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP2017121036A (en) * 2016-09-01 2017-07-06 株式会社 ディー・エヌ・エー System, method and program for distributing digital content

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP2017121036A (en) * 2016-09-01 2017-07-06 株式会社 ディー・エヌ・エー System, method and program for distributing digital content

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ヴァーチャルアイドルとコール&レスポンス!? UNITYを活用したリアルタイムLIVE「PROJEC, JPN6021014287, 12 October 2017 (2017-10-12), ISSN: 0004488151 *
安藤 幸央: "MOCAP+Unityで実現する「ライブコミュニケーティングアニメ」", CG WORLD, vol. 第190巻, JPN6018022810, 10 June 2014 (2014-06-10), JP, pages 48 - 49, ISSN: 0004488149 *
長谷川 雄介: "ヴァーチャルアイドル新時代の幕開け PROJECT MariA", CG WORLD, vol. 第231巻, JPN6018022808, 10 November 2017 (2017-11-10), JP, pages 74 - 79, ISSN: 0004488150 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021159307A (en) * 2020-03-31 2021-10-11 株式会社コナミデジタルエンタテインメント Information processing system, information processing method, and program
JP2022009108A (en) * 2020-03-31 2022-01-14 株式会社コナミデジタルエンタテインメント Information processing system, information processing method, and program
JP7290226B2 (en) 2020-03-31 2023-06-13 株式会社コナミデジタルエンタテインメント Information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP6951394B2 (en) 2021-10-20

Similar Documents

Publication Publication Date Title
JP6431233B1 (en) Video distribution system that distributes video including messages from viewing users
JP6382468B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
JP6420930B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
KR102481333B1 (en) A moving image distribution system, a moving image distribution method, and a moving image distribution program for distributing a moving image including animation of a character object generated based on the movement of an actor.
JP2022130508A (en) Video distribution system for live-distributing video including animation of character object generated on the basis of motions of distributing user, method for distributing video, and video distribution program
US20210409827A1 (en) Video distribution system distributing video that includes message from viewing user
JP6951394B2 (en) Video distribution system that distributes videos including messages from viewers
JP2024023273A (en) Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors
JP6847138B2 (en) A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors.
JP6498832B1 (en) Video distribution system that distributes video including messages from viewing users
JP2023015139A (en) Moving image distribution system for live distribution of moving image including animation of character object generated on the basis of motion of actor
JP2020043578A (en) Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor
JP6592214B1 (en) Video distribution system that distributes video including messages from viewing users
JP7279114B2 (en) A video distribution system that distributes videos containing messages from viewing users
JP6431242B1 (en) Video distribution system that distributes video including messages from viewing users
JP2020103685A (en) Moving image distribution system, moving image distribution method, and moving image distribution program
JP6764442B2 (en) Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors.
JP2020005238A (en) Video distribution system, video distribution method and video distribution program for distributing a video including animation of character object generated based on motion of actor
JP2019198057A (en) Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201013

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201125

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210420

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210713

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210713

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210713

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210728

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210803

C272 Notice of ex officio correction

Free format text: JAPANESE INTERMEDIATE CODE: C272

Effective date: 20210803

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210914

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210924

R150 Certificate of patent or registration of utility model

Ref document number: 6951394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150