JP6592214B1 - Video distribution system that distributes video including messages from viewing users - Google Patents

Video distribution system that distributes video including messages from viewing users

Info

Publication number
JP6592214B1
JP6592214B1 JP2019045554A JP2019045554A JP6592214B1 JP 6592214 B1 JP6592214 B1 JP 6592214B1 JP 2019045554 A JP2019045554 A JP 2019045554A JP 2019045554 A JP2019045554 A JP 2019045554A JP 6592214 B1 JP6592214 B1 JP 6592214B1
Authority
JP
Japan
Prior art keywords
user
moving image
posted
posted message
viewing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019045554A
Other languages
Japanese (ja)
Other versions
JP2019198065A (en
Inventor
匡志 渡邊
匡志 渡邊
健悟 栗田
健悟 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2019045554A priority Critical patent/JP6592214B1/en
Priority to CN201910374844.5A priority patent/CN110460893B/en
Priority to CN202210548253.7A priority patent/CN115086736A/en
Priority to CN202210559306.5A priority patent/CN114915827A/en
Priority to US16/406,494 priority patent/US11190848B2/en
Priority to JP2019170275A priority patent/JP6951394B2/en
Application granted granted Critical
Publication of JP6592214B1 publication Critical patent/JP6592214B1/en
Publication of JP2019198065A publication Critical patent/JP2019198065A/en
Priority to US17/474,982 priority patent/US12137274B2/en
Priority to US18/530,400 priority patent/US20240114214A1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

【課題】視聴ユーザからのメッセージを含む動画配信システムにおいて満足のいく視聴体験を提供する。【解決手段】動画配信システム1のサーバ装置は、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージ及び第1ユーザ及び第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備える。第1ユーザは、第2ユーザグループには所属しておらず、第2ユーザは、第1ユーザグループには所属していない。第2ユーザは、オブジェクトに関するパラメータが所定条件を満たしたユーザである。第1投稿メッセージ及び第2投稿メッセージを表示可能な第1表示領域と、第2投稿メッセージを表示可能とする一方で第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する。【選択図】図1The present invention provides a satisfactory viewing experience in a moving image distribution system including a message from a viewing user. A server device of a moving image distribution system 1 includes a first posted message posted by a first user included in a first user group and a second posted message posted by a second user included in a second user group. And a storage for storing an object provided by at least one of the first user and the second user, and one or more computer processors. The first user does not belong to the second user group, and the second user does not belong to the first user group. The second user is a user whose parameters related to the object satisfy a predetermined condition. A moving image including a first display area capable of displaying the first posted message and the second posted message and a second display area capable of displaying the second posted message but not displaying the first posted message is distributed. [Selection] Figure 1

Description

本明細書における開示は、視聴ユーザからのメッセージを含む動画を配信する動画配信システムに関する。本明細書における開示は、より具体的には、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーション及び視聴ユーザからのメッセージを含む動画を配信する動画配信システムに関する。     The disclosure in this specification relates to a moving image distribution system that distributes a moving image including a message from a viewing user. More specifically, the disclosure in the present specification relates to a moving image distribution system that distributes a moving image including an animation of a character object generated based on an actor's movement and a message from a viewing user.

従来から、アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画を配信する動画配信システムが知られている。このような動画配信システムは、例えば、特開2015−184689号公報(特許文献1)に開示されている。     2. Description of the Related Art Conventionally, a moving image distribution system that generates animation of a character object based on the movement of an actor and distributes a moving image including the animation of the character object is known. Such a moving image distribution system is disclosed in, for example, Japanese Patent Application Laid-Open No. 2015-184689 (Patent Document 1).

特許文献1には、当該動画配信システムにおいて、チャット機能を実装できることが開示されている。かかるチャット機能においては、動画を視聴する視聴ユーザからメッセージが投稿される。アクターは、この投稿された投稿メッセージを見ることができる。アクターが、メッセージに対してリアクションを行うと、そのリアクションが動画に反映される。このチャット機能により、視聴ユーザ同士の交流や、視聴ユーザとアクターとの交流が実現される。     Patent Document 1 discloses that a chat function can be implemented in the moving image distribution system. In such a chat function, a message is posted from a viewing user who views a moving image. The actor can see this posted message. When an actor reacts to a message, the reaction is reflected in the video. This chat function realizes exchange between viewing users and exchange between viewing users and actors.

特開2015−184689号公報Japanese Patent Laying-Open No. 2015-18489

従来、動画の表示画面の一部領域が投稿メッセージの表示領域として割り当てられている。表示画面におけるスペースの制約から、投稿メッセージの表示領域がキャラクタオブジェクトと重複することがある。この場合、投稿メッセージとキャラクタオブジェクトとが重複して表示されることによって、視聴ユーザの視聴体験が劣化するおそれがある。例えば、キャラクタオブジェクトの主要部分が投稿メッセージで隠されると、視聴者は動画の視聴を妨げられたと感じるおそれがある。     Conventionally, a partial area of a moving image display screen is allocated as a display area for a posted message. Due to space restrictions on the display screen, the posted message display area may overlap with the character object. In this case, the posted message and the character object are displayed in an overlapping manner, so that the viewing experience of the viewing user may be deteriorated. For example, if the main part of the character object is hidden by a posted message, the viewer may feel that viewing of the moving image has been hindered.

投稿されたメッセージを表示する表示領域を表示画面の一定の領域に確保し、この表示領域にキャラクタオブジェクトが表示されないようにするための表示制御を行えばキャラクタオブジェクトと投稿メッセージとの重複は回避できる。しかしながら、キャラクタオブジェクトの表示位置が制限されてしまい、この点が動画制作の上で大きな制約となる。     If a display area for displaying posted messages is secured in a certain area of the display screen and display control is performed so that character objects are not displayed in this display area, duplication of character objects and posted messages can be avoided. . However, the display position of the character object is limited, and this is a major limitation in moving image production.

このように、投稿オブジェクトの表示領域を一定の領域に制限するとユーザに満足のいく視聴体験を提供することが難しくなる。キャラクタオブジェクトのアニメーションを含む動画における投稿メッセージの表示態様について、改善が求められている。     Thus, if the display area of the posting object is limited to a certain area, it is difficult to provide a satisfactory viewing experience for the user. There is a need for improvement in the display mode of posted messages in moving images including animation of character objects.

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。     The purpose of the present disclosure is to provide technical improvements that solve or mitigate at least some of the problems of the prior art described above.

一態様による動画配信システムは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージ、及び前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備える。前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する。     The moving image distribution system according to one aspect includes a first posted message posted by a first user included in a first user group, a second posted message posted by a second user included in a second user group, and the first A storage for storing an object provided by at least one of the user and the second user; and one or more computer processors. The first user does not belong to the second user group, the second user does not belong to the first user group, and the second user has a predetermined parameter related to the object A user who satisfies the conditions. The one or more computer processors execute a computer-readable instruction to display the first posted message and the second posted message, and the second posted message can be displayed. On the other hand, the moving image including the second display area in which the first posted message is not displayed is distributed.

一態様による動画配信システムは、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ及び第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージ、を記憶するストレージと、一又は複数のコンピュータプロセッサと、を備える。前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属していない。前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する。前記第2ユーザは、前記動画の視聴状況が所定上面を満たしたユーザである。   The moving image distribution system according to one aspect stores a first posted message posted by a first user included in the first user group and a second posted message posted by a second user included in the second user group. And one or more computer processors. The first user does not belong to the second user group, and the second user does not belong to the first user group. The one or more computer processors execute a computer-readable instruction to display the first posted message and the second posted message, and the second posted message can be displayed. On the other hand, the moving image including the second display area in which the first posted message is not displayed is distributed. The second user is a user whose viewing situation of the moving image satisfies a predetermined upper surface.

一態様による動画配信システムにおいて、前記第2ユーザグループは、前記第1ユーザグループよりも少ない数のユーザから構成される。     In the moving image distribution system according to an aspect, the second user group is configured by a smaller number of users than the first user group.

一態様による動画配信システムにおいて、前記第1投稿メッセージは、前記第1表示領域において第1方向に移動する。     In the moving image distribution system according to one aspect, the first posted message moves in the first direction in the first display area.

一態様による動画配信システムにおいて、前記第2投稿メッセージは、前記第2表示領域において第2方向に移動する。     In the moving image distribution system according to one aspect, the second posted message moves in the second direction in the second display area.

一態様による動画配信システムにおいて、前記第2方向は、前記第2投稿メッセージに含まれる第1コマンドに応じて変化する。     In the moving image distribution system according to one aspect, the second direction changes according to a first command included in the second posted message.

一態様による動画配信システムにおいて、前記第2表示領域における前記第2投稿メッセージの初期表示位置は、前記第2投稿メッセージに含まれる第2コマンドに応じて変化する。     In the moving image distribution system according to one aspect, an initial display position of the second posted message in the second display area changes according to a second command included in the second posted message.

一態様による動画配信システムにおいて、前記第2投稿メッセージの前記第2表示領域における移動速度は前記第1投稿メッセージの前記第1表示領域における移動速度よりも遅い。     In the moving image distribution system according to one aspect, the moving speed of the second posted message in the second display area is slower than the moving speed of the first posted message in the first display area.

一態様による動画配信システムにおいて、前記第2投稿メッセージが前記第2表示領域に表示されている表示時間は、前記第1投稿メッセージが前記第1表示領域に表示されている表示時間よりも長い。     In the moving image distribution system according to one aspect, the display time during which the second posted message is displayed in the second display area is longer than the display time during which the first posted message is displayed in the first display area.

一態様による動画配信システムにおいて、前記第1表示領域には、前記第1投稿メッセージ以外の情報も表示される。     In the moving image distribution system according to an aspect, information other than the first posted message is also displayed in the first display area.

一態様による動画配信システムにおいて、前記ストレージは、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する。     In the video delivery system according to one aspect, the storage stores an object provided by at least one of the first user and the second user.

一態様による動画配信システムにおいて、前記第1投稿メッセージ以外の情報には、前記オブジェクトの提供が行われたことを示す通知が含まれる。     In the moving image distribution system according to one aspect, the information other than the first posted message includes a notification indicating that the object has been provided.

一態様による動画配信システムにおいて、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。     In the moving image distribution system according to one aspect, the second user is a user whose parameters related to the object satisfy a predetermined condition.

一態様による動画配信システムにおいて、前記第2ユーザは、前記動画の視聴回数が所定回数を超えたユーザである。     In the moving image distribution system according to one aspect, the second user is a user whose number of viewing of the moving image exceeds a predetermined number.

一態様による動画配信システムにおいて、前記第1ユーザは、前記第1投稿メッセージの投稿数が所定数を超えると、前記第1ユーザグループから離脱し前記第2ユーザグループに含められる。     In the moving image distribution system according to one aspect, the first user leaves the first user group and is included in the second user group when the number of postings of the first posted message exceeds a predetermined number.

一態様による動画配信システムにおいて、前記動画は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む。     In the moving image distribution system according to one aspect, the moving image includes an animation of a character object generated based on an actor's movement.

一態様による動画配信システムにおいて、前記第2表示領域の少なくとも一部は、前記キャラクタオブジェクトの背後に配されている。     In the moving image distribution system according to one aspect, at least a part of the second display area is arranged behind the character object.

一態様による動画配信システムにおいて、前記第1表示領域及び前記キャラクタオブジェクトが重複して表示される場合には、前記キャラクタオブジェクトが前記第1表示領域の背後に配される。     In the moving image distribution system according to an aspect, when the first display area and the character object are displayed in an overlapping manner, the character object is arranged behind the first display area.

一態様による動画配信システムは、複数のカメラをさらに備え、前記複数のカメラの中から選択されたアクティブセンサのトラッキング情報に基づいて構成された仮想空間の画像を含む。     The moving image distribution system according to an aspect further includes a plurality of cameras, and includes an image of a virtual space configured based on tracking information of an active sensor selected from the plurality of cameras.

一態様による動画配信システムは、前記第2表示領域は、前記仮想空間内の表示用オブジェクトに設けられ、前記第2表示領域の前記仮想空間における位置は、前記アクティブセンサの位置及び向きに応じて変更される。     In the moving image distribution system according to one aspect, the second display area is provided in a display object in the virtual space, and the position of the second display area in the virtual space depends on the position and orientation of the active sensor. Be changed.

一態様による動画配信システムは、前記第2表示領域は、前記仮想空間内に設けられ、前記第2表示領域の前記仮想空間における大きさは、前記アクティブセンサの位置及び向きに応じて変更される。     In the moving image distribution system according to one aspect, the second display area is provided in the virtual space, and the size of the second display area in the virtual space is changed according to the position and orientation of the active sensor. .

一態様による動画配信システムにおいて、前記一又は複数のコンピュータプロセッサの少なくとも一部はサーバ装置に備えられており、前記第1投稿メッセージ以外の情報には、前記サーバ装置からの通知が含まれる。     In the moving image distribution system according to one aspect, at least a part of the one or more computer processors is provided in a server device, and information other than the first posted message includes a notification from the server device.

一態様による動画配信システムにおいて、前記第1表示領域には、前記第1投稿メッセージ及び前記第2投稿メッセージが表示される。     In the moving image distribution system according to one aspect, the first posted message and the second posted message are displayed in the first display area.

一態様による動画配信システムにおいて、前記第1ユーザはクライアント装置を用いて第1投稿メッセージを投稿し、前記第2配信期間においては、前記クライアント装置は、前記第1投稿メッセージの投稿を行わないように構成される。   In the moving image distribution system according to one aspect, the first user posts a first posted message using a client device, and the client device does not post the first posted message during the second distribution period. Configured.

一態様による動画配信システムにおいて、電子的ギフトは前記仮想空間においてギフトオブジェクトとして表示され、前記第2表示領域は、前記仮想空間内の前記ギフトオブジェクトに設けられる。   In the moving image distribution system according to one aspect, an electronic gift is displayed as a gift object in the virtual space, and the second display area is provided in the gift object in the virtual space.

一態様による動画配信方法は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される。当該動画配信方法は、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を備える。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。     The moving image delivery method according to one aspect is executed by one or more computer processors executing computer-readable instructions. The moving image distribution method stores a first posted message posted by a first user included in a first user group and a second posted message posted by a second user included in a second user group. A step of storing an object provided by at least one of the first user and the second user, a first display area capable of displaying the first posted message and the second posted message, and the first And a second display area in which the first posted message is not displayed while allowing two posted messages to be displayed. In the embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, and the second user It is a user whose parameters related to the object satisfy a predetermined condition.

一態様による動画配信方法は、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を備える。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記動画の視聴状況が所定条件を満たしたユーザである。   The moving image distribution method according to one aspect includes a step of storing a first posted message posted by a first user included in a first user group, and a second posted message posted by a second user included in a second user group. A first display area in which the first posted message and the second posted message can be displayed, and a second display in which the second posted message can be displayed while the first posted message is not displayed. And a step of delivering a moving image including the region. In the embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, and the second user It is a user whose viewing situation of a movie satisfies a predetermined condition.

一態様によるプログラムは、一又は複数のコンピュータプロセッサに実行されるプログラムであって、前記一又は複数のコンピュータプロセッサに、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を実行させる。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである。     A program according to an aspect is a program executed by one or more computer processors, and stores a first posted message posted by a first user included in a first user group in the one or more computer processors. A step of storing, a step of storing a second posted message posted by a second user included in the second user group, a step of storing an object provided by at least one of the first user and the second user, A first display area capable of displaying the first posted message and the second posted message; and a second display area capable of displaying the second posted message but not displaying the first posted message. And a step of delivering a video. In the embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, and the second user It is a user whose parameters regarding the object satisfy a predetermined condition.

一態様によるプログラムは、一又は複数のコンピュータプロセッサに実行されるプログラムであって、前記一又は複数のコンピュータプロセッサに、第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、を実行させる。当該実施形態において、前記第1ユーザは、前記第2ユーザグループには所属しておらず、前記第2ユーザは、前記第1ユーザグループには所属しておらず、前記第2ユーザは、前記動画の視聴状況が所定条件を満たしたユーザである。     A program according to an aspect is a program executed by one or more computer processors, and stores a first posted message posted by a first user included in a first user group in the one or more computer processors. A step of storing, a step of storing a second posted message posted by a second user included in a second user group, a first display area capable of displaying the first posted message and the second posted message, A step of delivering a moving image including a second display area in which the second posted message can be displayed while the first posted message is not displayed. In the embodiment, the first user does not belong to the second user group, the second user does not belong to the first user group, and the second user It is a user whose viewing situation of a movie satisfies a predetermined condition.

実施形態によれば、動画の視聴ユーザからの投稿メッセージを、当該視聴ユーザが属するユーザグループに応じた表示領域に表示することができる。     According to the embodiment, a post message from a moving image viewing user can be displayed in a display area corresponding to a user group to which the viewing user belongs.

一実施形態による動画配信システムを示すブロック図である。It is a block diagram which shows the moving image delivery system by one Embodiment. 図1の動画配信システムで配信される動画を制作するスタジオの設備を模式的に示す模式図である。It is a schematic diagram which shows typically the installation of the studio which produces the moving image delivered with the moving image delivery system of FIG. 図1の動画配信システムにおいて記憶される保有リストを説明する図である。It is a figure explaining the possession list memorize | stored in the moving image delivery system of FIG. 図1の動画配信システムにおいて記憶される候補リストを説明する図である。It is a figure explaining the candidate list memorize | stored in the moving image delivery system of FIG. 図1の動画配信システムにおいて記憶される投稿データを説明する図である。It is a figure explaining the posting data memorize | stored in the moving image delivery system of FIG. 図1の動画配信システムにおいて記憶される視聴管理データを説明する図である。It is a figure explaining the viewing management data memorize | stored in the moving image delivery system of FIG. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図7には、キャラクタオブジェクトのアニメーションが含まれている。It is a figure which shows the example of the moving image displayed on the client apparatus 10a in one Embodiment. FIG. 7 includes animation of a character object. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図8には、通常オブジェクトが含まれている。It is a figure which shows the example of the moving image displayed on the client apparatus 10a in one Embodiment. FIG. 8 includes a normal object. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図9には、装飾オブジェクトが含まれている。It is a figure which shows the example of the moving image displayed on the client apparatus 10a in one Embodiment. FIG. 9 includes decoration objects. 候補リストに含まれている装飾オブジェクトの中から所望の選択装飾オブジェクトを選択するための装飾オブジェクト選択画面の例を示す模式図である。It is a schematic diagram which shows the example of the decoration object selection screen for selecting a desired selection decoration object from the decoration objects contained in the candidate list. 一実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。It is a figure which shows the example of the moving image containing the 1st contribution message displayed on the client apparatus 10a in one Embodiment. 一実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。It is a figure which shows the example of the moving image containing the 1st contribution message displayed on the client apparatus 10a in one Embodiment. 一実施形態においてクライアント装置10aに表示される第2投稿メッセージを含む動画の例を示す図である。It is a figure which shows the example of the moving image containing the 2nd posting message displayed on the client apparatus 10a in one Embodiment. 一実施形態においてクライアント装置10aに表示される第2投稿メッセージを含む動画の例を示す図である。It is a figure which shows the example of the moving image containing the 2nd posting message displayed on the client apparatus 10a in one Embodiment. 一実施形態における動画配信処理の流れを示すフロー図である。It is a flowchart which shows the flow of the moving image delivery process in one Embodiment. 図1の動画配信システムにおいて配信される動画の配信期間の区分を説明するための図である。It is a figure for demonstrating the division | segmentation of the delivery period of the moving image delivered in the moving image delivery system of FIG. 別の実施形態においてクライアント装置10aに表示される第1投稿メッセージを含む動画の例を示す図である。It is a figure which shows the example of the moving image containing the 1st contribution message displayed on the client apparatus 10a in another embodiment. 別の実施形態における投稿メッセージ表示処理の流れを示すフロー図である。It is a flowchart which shows the flow of the posting message display process in another embodiment.

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。     Hereinafter, various embodiments of the present invention will be described with reference to the drawings as appropriate. In the drawings, the same or similar components are denoted by the same reference numerals.

図1から図6を参照して、一実施形態による動画配信システムについて説明する。図1は、一実施形態による動画配信システム1を示すブロック図であり、図2は、動画配信システム1で配信される動画の制作が行われるスタジオの設備を模式的に示す模式図であり、図3から図6は、動画配信システム1において記憶される情報を説明するための図である。     With reference to FIGS. 1 to 6, a moving image distribution system according to an embodiment will be described. FIG. 1 is a block diagram showing a video distribution system 1 according to an embodiment, and FIG. 2 is a schematic diagram schematically showing facilities of a studio where a video distributed by the video distribution system 1 is produced. 3 to 6 are diagrams for explaining information stored in the moving image distribution system 1.

動画配信システム1は、クライアント装置10a〜10cと、サーバ装置20と、スタジオユニット30と、ストレージ60と、を備える。クライアント装置10a〜10cと、サーバ装置20と、ストレージ60と、は、ネットワーク50を介して相互に通信可能に接続されている。サーバ装置20は、後述するように、キャラクタのアニメーションを含む動画を配信するように構成される。この動画に含まれるキャラクタは、仮想空間内でモーション制御されてもよい。     The moving image distribution system 1 includes client devices 10a to 10c, a server device 20, a studio unit 30, and a storage 60. The client devices 10 a to 10 c, the server device 20, and the storage 60 are connected via a network 50 so that they can communicate with each other. As will be described later, the server device 20 is configured to distribute a moving image including animation of a character. The characters included in the moving image may be motion controlled in the virtual space.

この動画は、サーバ装置20からクライアント装置10a〜10cの各々に配信され得る。クライアント装置10aのユーザである第1視聴ユーザ、クライアント装置10bのユーザである第2視聴ユーザ、及びクライアント装置10cのユーザである第3視聴ユーザは、配信された動画を、各クライアント装置により視聴することができる。動画配信システム1は、3台よりも少ない数のクライアント装置を備えていてもよく、3台よりも多い数のクライアント装置を備えていてもよい。     This moving image can be distributed from the server device 20 to each of the client devices 10a to 10c. The first viewing user who is the user of the client device 10a, the second viewing user who is the user of the client device 10b, and the third viewing user who is the user of the client device 10c view the distributed video by each client device. be able to. The moving image distribution system 1 may include a smaller number of client devices than three or may include a larger number of client devices than three.

クライアント装置10a〜10cは、スマートフォンなどの情報処理装置である。クライアント装置10a〜10cは、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。クライアント装置10a〜10cの各々は、コンピュータプロセッサ、メモリ、通信I/F、ディスプレイ、ジャイロセンサ等の各種センサを備えるセンサユニット、マイク等の集音装置、及び各種情報を記憶するストレージを備えていてもよい。     The client devices 10a to 10c are information processing devices such as smartphones. In addition to the smartphone, the client devices 10a to 10c may be mobile phones, tablet terminals, personal computers, electronic book readers, wearable computers, game consoles, and various information processing devices that can reproduce moving images. Each of the client devices 10a to 10c includes a computer processor, a memory, a communication I / F, a sensor unit including various sensors such as a display and a gyro sensor, a sound collecting device such as a microphone, and a storage for storing various information. Also good.

クライアント装置10a〜10cのディスプレイは、表示パネルと、タッチパネルと、を有する。タッチパネルは、プレイヤのタッチ操作(接触操作)を検出することができるように構成されている。タッチパネルは、プレイヤのタップ、ダブルタップ、ドラッグ等の各種タッチ操作を検出することができる。タッチパネルは、静電容量式の近接センサを備え、プレイヤの非接触操作を検出可能に構成されてもよい。     The displays of the client devices 10a to 10c have a display panel and a touch panel. The touch panel is configured to detect a player's touch operation (contact operation). The touch panel can detect various touch operations such as a player's tap, double tap, and drag. The touch panel may include a capacitive proximity sensor and be configured to detect a non-contact operation of the player.

視聴ユーザは、クライアント装置10a〜10cのタッチパネルを介して、配信された動画に関するメッセージ又はそれ以外のメッセージを入力することができる。このメッセージは、例えば、テキスト形式のメッセージ、静止画形式のメッセージ、動画形式のメッセージ、及びこれら以外の任意の形式の電子的なメッセージであってもよい。クライアント装置10a〜10cの各々は、視聴ユーザによって入力されたメッセージをサーバ装置20に投稿(送信)するように構成され得る。本明細書においては、配信された動画を視聴するためのクライアント装置10a〜10c及び/又はこれら以外のクライアント装置からサーバ装置20に送信されたメッセージを投稿メッセージと呼ぶことがある。例えば、第1視聴ユーザのクライアント装置10aに配信された動画に関して、当該第1視聴ユーザがクライアント装置10aに入力し、このクライアント装置10aからサーバ装置20に対して送信された投稿メッセージは、第1視聴ユーザの投稿メッセージである。     The viewing user can input a message related to the distributed video or other messages via the touch panel of the client devices 10a to 10c. This message may be, for example, a text message, a still image message, a moving image message, and an electronic message of any other format. Each of the client devices 10a to 10c may be configured to post (send) a message input by the viewing user to the server device 20. In this specification, a message transmitted to the server device 20 from the client devices 10a to 10c and / or other client devices for viewing the distributed moving image may be referred to as a posted message. For example, regarding the moving image distributed to the client device 10a of the first viewing user, the posted message transmitted from the client device 10a to the server device 20 by the first viewing user is input to the client device 10a. This is a posted message of the viewing user.

図示の実施形態において、サーバ装置20は、コンピュータプロセッサ21と、通信I/F22と、ストレージ23と、を備えている。     In the illustrated embodiment, the server device 20 includes a computer processor 21, a communication I / F 22, and a storage 23.

コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。     The computer processor 21 is an arithmetic device that loads an operating system and various programs for realizing various functions from the storage 23 or other storages into a memory and executes instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, MPU, DSP, GPU, various arithmetic devices other than these, or a combination thereof. The computer processor 21 may be realized by an integrated circuit such as an ASIC, PLD, FPGA, or MCU. In FIG. 1, the computer processor 21 is illustrated as a single component, but the computer processor 21 may be a collection of a plurality of physically separate computer processors. In this specification, the program described as being executed by the computer processor 21 or the instructions included in the program may be executed by a single computer processor or distributedly executed by a plurality of computer processors. Also good. Further, a program executed by the computer processor 21 or an instruction included in the program may be executed by a plurality of virtual computer processors.

通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。     The communication I / F 22 is implemented as hardware, firmware, communication software such as a TCP / IP driver or a PPP driver, or a combination thereof. The server device 20 can transmit / receive data to / from other devices via the communication I / F 22.

ストレージ23は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ23は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ23には、様々なプログラムが記憶され得る。ストレージ23に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ装置20とは物理的に別体のストレージ(例えば、ストレージ60)に格納されてもよい。     The storage 23 is a storage device accessed by the computer processor 21. The storage 23 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various other storage devices that can store data. Various programs can be stored in the storage 23. At least a part of the programs and various data that can be stored in the storage 23 may be stored in a storage physically separate from the server device 20 (for example, the storage 60).

スタジオユニット30の構成要素の多くは、例えば、図2に示されているスタジオルームRに配されている。図示のように、スタジオルームRにおいては、アクターA1及びアクターA2がパフォーマンスを行っている。スタジオユニット30は、アクターA1及びアクターA2の動き及び表情を検出し、検出した情報をサーバ装置20に出力するように構成されている。     Many of the components of the studio unit 30 are, for example, arranged in the studio room R shown in FIG. As shown in the drawing, in the studio room R, the actor A1 and the actor A2 perform. The studio unit 30 is configured to detect the movements and facial expressions of the actor A1 and the actor A2, and output the detected information to the server device 20.

アクターA1及びアクターA2はいずれも、スタジオユニット30に備えられる後述のセンサ群によって動きや表情がキャプチャされる対象である。図示の実施形態において、アクターA1及びアクターA2は、トーク、パフォーマンス、及びこれら以外の動画として配信される番組を進行するための行動を行う人間である。アクターA1及びアクターA2は、人間以外に、動物またはこれ以外の運動する任意の物体(非生物)であってもよい。アクターA1及びアクターA2は、例えば、自立運動可能なロボットであってもよい。スタジオルームR内のアクターの数は、1であってもよいし、3以上であってもよい。     Both the actor A1 and the actor A2 are objects whose movements and facial expressions are captured by a later-described sensor group provided in the studio unit 30. In the illustrated embodiment, the actor A1 and the actor A2 are humans who perform actions for proceeding with a program that is distributed as a talk, performance, and other moving images. The actor A1 and the actor A2 may be an animal or any other moving object (non-living) other than a human. The actor A1 and the actor A2 may be, for example, robots that can move independently. The number of actors in the studio room R may be 1 or 3 or more.

スタジオユニット30は、アクターA1に装着される6つのモーションセンサ31a〜31fと、アクターA1の左手に把持されているコントローラ33aと、アクターA1の右手に把持されているコントローラ33bと、装着具37bを介してアクターA1の頭部に取り付けられるカメラ37aと、を有する。スタジオユニット30はまた、アクターA2に装着される6つのモーションセンサ32a〜32fと、アクターA2の左手に把持されているコントローラ34aと、アクターA2の右手に把持されているコントローラ34bと、装着具38bを介してアクターA2の頭部に取り付けられるカメラ38aと、を有する。装着具37b及び装着具38bの各々には、音声データを取得するためのマイクが取り付けられてもよい。このマイクは、アクターA1及びアクターA2の発話を音声データとして取得することができる。マイクは、装着具37b及び装着具38bを介してアクターA1及びアクターA2に装着される装着型のマイクであってもよく、スタジオルームRの床、壁、又は天井に設置される設置型のものであってもよい。スタジオユニット30は、上記の構成要素に加えて、ベースステーション35aと、ベースステーション35bと、トラッキングセンサ36aと、トラッキングセンサ36bと、ディスプレイ39と、を有する。スタジオルームRとガラス窓を隔てた隣室には、サポーターコンピュータ40が設置されている。サーバ装置20は、サポーターコンピュータ40が設置されている部屋と同じ部屋に設置されてもよい。     The studio unit 30 includes six motion sensors 31a to 31f attached to the actor A1, a controller 33a held by the left hand of the actor A1, a controller 33b held by the right hand of the actor A1, and a wearing tool 37b. And a camera 37a attached to the head of the actor A1. The studio unit 30 also includes six motion sensors 32a to 32f attached to the actor A2, a controller 34a held by the left hand of the actor A2, a controller 34b held by the right hand of the actor A2, and a mounting tool 38b. And a camera 38a attached to the head of the actor A2. A microphone for acquiring audio data may be attached to each of the mounting tool 37b and the mounting tool 38b. This microphone can acquire the speech of actor A1 and actor A2 as voice data. The microphone may be a mounting type microphone that is mounted on the actor A1 and the actor A2 via the mounting tool 37b and the mounting tool 38b. The microphone may be installed on the floor, wall, or ceiling of the studio room R. It may be. The studio unit 30 includes a base station 35a, a base station 35b, a tracking sensor 36a, a tracking sensor 36b, and a display 39 in addition to the above-described components. A supporter computer 40 is installed in a room adjacent to the studio room R and the glass window. The server device 20 may be installed in the same room as the room in which the supporter computer 40 is installed.

モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、ベースステーション35a及びベースステーション35bと協働して、自らの位置及び向きを検出する。一実施形態において、ベースステーション35a及びベースステーション35bは、多軸レーザーエミッターである。ベースステーション35aは、同期用の点滅光を発した後に、例えば鉛直軸の周りでレーザー光を走査する。ベースステーション35bは、例えば水平軸の周りでレーザー光を走査する。モーションセンサ31a〜31f及びモーションセンサ32a〜32fはそれぞれ、ベースステーション35a及びベースステーション35bからの点滅光及びレーザー光の入射を検知する光センサーを複数備えてもよい。モーションセンサ31a〜31f及びモーションセンサ32a〜32fはそれぞれ、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサーでの受光時間、各光センサーが検知したレーザー光の入射角度、及び必要に応じてこれら以外の情報に基づいて、自らの位置及び向きを検出してもよい。モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよい。ベースステーション35a及びベースステーション35bは、例えば、HTC CORPORATIONから提供されているベースステーションであってもよい。     The motion sensors 31a to 31f and the motion sensors 32a to 32f detect their positions and orientations in cooperation with the base station 35a and the base station 35b. In one embodiment, base station 35a and base station 35b are multi-axis laser emitters. The base station 35a scans the laser beam, for example, around the vertical axis after emitting the flashing light for synchronization. The base station 35b scans the laser beam around a horizontal axis, for example. Each of the motion sensors 31a to 31f and the motion sensors 32a to 32f may include a plurality of optical sensors that detect incident flashing light and laser light from the base station 35a and the base station 35b. Each of the motion sensors 31a to 31f and the motion sensors 32a to 32f has a time difference between the incident timing of the flashing light and the incident timing of the laser light, the light reception time of each optical sensor, the incident angle of the laser light detected by each optical sensor, and If necessary, its position and orientation may be detected based on information other than these. The motion sensors 31a to 31f and the motion sensors 32a to 32f may be, for example, a Vive Tracker provided by HTC Corporation. The base station 35a and the base station 35b may be, for example, a base station provided by HTC Corporation.

モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々において算出された各モーションセンサの位置及び向きを示す検出情報は、サーバ装置20に送信される。この検出情報は、モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々からサーバ装置20に無線送信されてもよい。ベースステーション35a及びベースステーション35bは、一定のインターバルで点滅光の発光及びレーザー光の走査を行うので、各モーションセンサの検出情報は、当該インターバルごとに更新される。なお、ベースステーションは、3つ以上の複数であってもよい。ベースステーションの位置は適宜変更してもよい。例えば、図2に示されているトラッキングセンサの検出対象の空間の上方の隅部に配されているベースステーションに加えて若しくは替えて、上方位置及び床面に近い下方位置に対をなすように配置されたベースステーションが設けられてもよい。例えば、ベースステーションは4つであってもよい
図示の実施形態において、アクターA1は、6つのモーションセンサ31a〜31fを装着している。モーションセンサ31a,31b,31c,31d,31e,及び31fはそれぞれ、アクターA1の左手首、右手首、左足甲、右足甲、腰、及び頭頂に装着されている。モーションセンサ31a〜31fは、装着具を介してアクターA1に装着されてもよい。アクターA2は、6つのモーションセンサ32a〜32fを装着している。モーションセンサ32a〜32fは、アクターA2に対してモーションセンサ31a〜31fと同様の位置に装着され得る。図2に示されているモーションセンサ31a〜31f及びモーションセンサ32a〜32fは例示である。モーションセンサ31a〜31fは、アクターA1の様々な部位に装着され得るし、モーションセンサ32a〜32fは、アクターA2の様々な部位に装着され得る。アクターA1及びアクターA2に装着されるモーションセンサの数は5以下であってもよいし7以上であってもよい。このように、アクターA1及びアクターA2の体の各部に装着されたモーションセンサ31a〜31f及びモーションセンサ32a〜32fの位置及び向きを検出することにより、アクターA1及びアクターA2の体の動きを検出することができる。
Detection information indicating the position and orientation of each motion sensor calculated in each of the motion sensors 31 a to 31 f and the motion sensors 32 a to 32 f is transmitted to the server device 20. This detection information may be wirelessly transmitted to the server device 20 from each of the motion sensors 31a to 31f and the motion sensors 32a to 32f. Since the base station 35a and the base station 35b emit flashing light and scan with laser light at regular intervals, the detection information of each motion sensor is updated at each interval. Note that the number of base stations may be three or more. The position of the base station may be changed as appropriate. For example, in addition to or instead of the base station arranged in the upper corner of the space to be detected by the tracking sensor shown in FIG. 2, a pair is formed at an upper position and a lower position close to the floor surface. A deployed base station may be provided. For example, the number of base stations may be four. In the illustrated embodiment, the actor A1 is equipped with six motion sensors 31a to 31f. The motion sensors 31a, 31b, 31c, 31d, 31e, and 31f are mounted on the left wrist, right wrist, left instep, right instep, waist, and top of the actor A1, respectively. The motion sensors 31a to 31f may be mounted on the actor A1 via a mounting tool. The actor A2 is equipped with six motion sensors 32a to 32f. The motion sensors 32a to 32f can be attached to the actor A2 at the same positions as the motion sensors 31a to 31f. The motion sensors 31a to 31f and the motion sensors 32a to 32f shown in FIG. 2 are examples. The motion sensors 31a to 31f can be attached to various parts of the actor A1, and the motion sensors 32a to 32f can be attached to various parts of the actor A2. The number of motion sensors attached to the actor A1 and the actor A2 may be 5 or less, or 7 or more. In this way, the movements of the bodies of the actor A1 and the actor A2 are detected by detecting the positions and orientations of the motion sensors 31a to 31f and the motion sensors 32a to 32f attached to the respective parts of the bodies of the actor A1 and the actor A2. be able to.

一実施形態においては、アクターA1及びアクターA2に装着される複数のモーションセンサの各々に多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームRの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの各々の位置及び向きを検出してもよい。赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。このように、アクターに装着される複数のモーションセンサの各々に発光部(例えば、赤外LEDや可視光LED)を設け、この発光部からの光をスタジオルームR内に設けられた受光部(例えば、赤外線カメラや可視光カメラ)で検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。     In one embodiment, each of the plurality of motion sensors attached to the actor A1 and the actor A2 includes a large number of infrared LEDs, and light from the infrared LEDs is provided on the floor or wall of the studio room R. You may detect each position and direction of the said motion sensor by detecting with an infrared camera. Instead of the infrared LED, a visible light LED may be used, and the position and orientation of each motion sensor may be detected by detecting light from the visible light LED with a visible light camera. In this way, each of the plurality of motion sensors attached to the actor is provided with a light emitting unit (for example, an infrared LED or a visible light LED), and light from this light emitting unit is provided in the studio room R ( For example, the position and orientation of each motion sensor may be detected by detecting with an infrared camera or visible light camera.

一実施形態においては、モーションセンサ31a〜31f及びモーションセンサ32a〜32fに代えて、複数の反射マーカーを用いることができる。反射マーカーは、アクターA1及びアクターA2の各々に粘着テープなどにより貼付される。このように反射マーカーが貼付されたアクターA1及びアクターA2を撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出することができる。     In one embodiment, a plurality of reflective markers can be used instead of the motion sensors 31a to 31f and the motion sensors 32a to 32f. The reflective marker is attached to each of the actor A1 and the actor A2 with an adhesive tape or the like. Thus, the actor A1 and the actor A2 to which the reflective marker is attached are photographed to generate photographing data, and the photographing data is subjected to image processing, whereby the position and orientation of the reflective marker can be detected.

コントローラ33a及びコントローラ33bは、アクターA1の操作に応じたコントロール信号をサーバ装置20に出力する。同様に、コントローラ34a及びコントローラ34bは、アクターA2の操作に応じたコントロール信号をサーバ装置20に出力する。     The controller 33a and the controller 33b output a control signal corresponding to the operation of the actor A1 to the server device 20. Similarly, the controller 34a and the controller 34b output a control signal corresponding to the operation of the actor A2 to the server device 20.

トラッキングセンサ36a及びトラッキングセンサ36bは、動画に含まれる仮想空間を構築するための仮想カメラの設定情報を定めるためのトラッキング情報を生成する。トラッキングセンサ36a及びトラッキングセンサ36bのトラッキング情報は、各々の三次元直交座標系での位置および各軸回りの角度として算出される。トラッキングセンサ36aの位置および向きは、操作者の操作に応じて変更されえる。トラッキングセンサ36aは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。同様に、トラッキングセンサ36bの位置および向きは、操作者の操作に応じて設定される。トラッキングセンサ36bは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。図示の実施形態において、トラッキングセンサ36aは、アクターA1の左前方に設けられている。トラッキングセンサ36bは、アクターA1及びアクターA2の前方であってアクターA1とアクターA2とのほぼ中間の位置に設けられている。     The tracking sensor 36a and the tracking sensor 36b generate tracking information for determining virtual camera setting information for constructing a virtual space included in the moving image. The tracking information of the tracking sensor 36a and the tracking sensor 36b is calculated as a position in each three-dimensional orthogonal coordinate system and an angle around each axis. The position and orientation of the tracking sensor 36a can be changed according to the operation of the operator. The tracking sensor 36 a transmits tracking information indicating its position and orientation to the tracking information server device 20. Similarly, the position and orientation of the tracking sensor 36b are set according to the operation of the operator. The tracking sensor 36b transmits tracking information indicating the position and orientation to the tracking information server device 20. In the illustrated embodiment, the tracking sensor 36a is provided on the left front side of the actor A1. The tracking sensor 36b is provided in front of the actor A1 and the actor A2 and at a substantially middle position between the actor A1 and the actor A2.

カメラ37aは、上記のように、アクターA1の頭部に取り付けられている。例えば、カメラ37aは、アクターA1の顔を撮像できるように配置されている。カメラ37aは、アクターA1の顔を連続的に撮像し、アクターA1の顔の撮像データを取得する。同様に、カメラ38aは、アクターA2の頭部に取り付けられている。カメラ38aは、アクターA2の顔を撮像できるように配置されており、アクターA2の顔を連続的に撮像し、アクターA2の顔の撮像データを取得する。カメラ37aは、アクターA1の顔の撮像データをサーバ装置20に送信し、カメラ38aは、アクターA1の顔の撮像データをサーバ装置20に送信する。カメラ37a及びカメラ38aは、人物の顔の奥行きを検出可能な3Dカメラであってもよい。     The camera 37a is attached to the head of the actor A1 as described above. For example, the camera 37a is arranged so as to capture the face of the actor A1. The camera 37a continuously captures the face of the actor A1 and acquires image data of the face of the actor A1. Similarly, the camera 38a is attached to the head of the actor A2. The camera 38a is arranged so as to be able to image the face of the actor A2, and continuously captures the face of the actor A2, and acquires the imaging data of the face of the actor A2. The camera 37a transmits imaging data of the face of the actor A1 to the server apparatus 20, and the camera 38a transmits imaging data of the face of the actor A1 to the server apparatus 20. The camera 37a and the camera 38a may be 3D cameras capable of detecting the depth of a human face.

ディスプレイ39は、サポートコンピュータ40から受信した情報を表示するように構成される。サポートコンピュータ40からディスプレイ39に送信される情報は、例えば、テキスト情報、画像情報、及びこれら以外の各種情報を含み得る。ディスプレイ39は、アクターA1及びアクターA2によって視認可能な位置に配置される。     The display 39 is configured to display information received from the support computer 40. The information transmitted from the support computer 40 to the display 39 can include, for example, text information, image information, and various other information. The display 39 is disposed at a position that can be viewed by the actor A1 and the actor A2.

図示の実施形態において、サポーターコンピュータ40は、スタジオルームRの隣室に設置されている。サポーターコンピュータ40が設置されている部屋とスタジオルームRとはガラス窓によって隔てられているため、サポーターコンピュータ40のオペレータ(本明細書では「サポーター」ということがある。)は、アクターA1及びアクターA2を視認できる。図示の実施形態においては、サポーターコンピュータ40のオペレータとして、サポーターB1及びサポーターB2が在室している。     In the illustrated embodiment, the supporter computer 40 is installed in a room adjacent to the studio room R. Since the room in which the supporter computer 40 is installed and the studio room R are separated by a glass window, the operator of the supporter computer 40 (sometimes referred to as “supporter” in this specification) acts as an actor A1 and an actor A2. Can be visually recognized. In the illustrated embodiment, a supporter B1 and a supporter B2 are present as operators of the supporter computer 40.

サポーターコンピュータ40は、サポーターB1及びサポーターB2の操作に応じて、スタジオユニット30の構成要素の設定を変更することができるように構成されてもよい。サポーターコンピュータ40は、例えば、ベースステーション35a及びベースステーション35bによる走査インターバルの設定、トラッキングセンサ36a及びトラッキングセンサ36bの位置または向きの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。後述するアクティブセンサの切り替えは、サポーターB1及びサポーターB2によるサポーターコンピュータ40の操作に基づいて実行され得る。サポーターB1及びサポータB2の少なくとも一方は、サポーターコンピュータ40にメッセージを入力し、当該入力されたメッセージをディスプレイ39に表示することができる。     The supporter computer 40 may be configured to be able to change the setting of the components of the studio unit 30 in accordance with the operation of the supporter B1 and the supporter B2. The supporter computer 40 can change, for example, the setting of the scanning interval by the base station 35a and the base station 35b, the setting of the position or orientation of the tracking sensor 36a and the tracking sensor 36b, and various settings of various other devices. . Switching of the active sensor described later can be executed based on the operation of the supporter computer 40 by the supporter B1 and the supporter B2. At least one of the supporter B1 and the supporter B2 can input a message to the supporter computer 40 and display the input message on the display 39.

図2に示されているスタジオユニット30の構成要素及び機能は例示である。本発明に適用可能なスタジオユニット30は、図示されていない様々な構成要素を備え得る。例えば、スタジオユニット30は、プロジェクタを備えていてもよい。当該プロジェクタは、クライアント装置10aまたはそれ以外のクライアント装置に配信される動画をスクリーンSに投影することができる。     The components and functions of the studio unit 30 shown in FIG. 2 are exemplary. The studio unit 30 applicable to the present invention may include various components not shown. For example, the studio unit 30 may include a projector. The projector can project a moving image distributed to the client device 10a or another client device on the screen S.

次に、一態様において、ストレージ23に記憶される情報について説明する。図示の実施形態においては、ストレージ23には、モデルデータ23a、オブジェクトデータ23b、保有リスト23c、候補リスト23d、投稿データ23e、視聴管理データ23f、及び前記以外の配信動画の生成及び配信に必要な様々な情報が記憶される。     Next, in one aspect, information stored in the storage 23 will be described. In the illustrated embodiment, the storage 23 is required for generating and distributing model data 23a, object data 23b, possession list 23c, candidate list 23d, post data 23e, viewing management data 23f, and other distribution videos. Various information is stored.

モデルデータ23aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ23aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ23aは、例えば、キャラクタの骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ23aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。図示の実施形態においては、アクターA1に対応するキャラクタオブジェクト及びアクターA2に対応するキャラクタオブジェクトを生成するために、モデルデータ23aは、互いに異なる少なくとも2種類のモデルデータを有する。このアクターA1に対応するキャラクタオブジェクト用のモデルデータとアクターA2に対応するキャラクタオブジェクト用のモデルデータとは、例えば、同じリグデータを有するが、異なる表面データを有していてもよい。     The model data 23a is model data for generating a character animation. The model data 23a may be 3D model data for generating a 3D animation, or may be 2D model data for generating 2D model data. The model data 23a includes, for example, rig data indicating the character's skeleton (sometimes referred to as “skeleton data”) and surface data indicating the surface shape and texture of the character. The model data 23a can include a plurality of different model data. The plurality of model data may have different rig data, or may have the same rig data. The plurality of model data may have surface data different from each other, or may have the same surface data. In the illustrated embodiment, in order to generate a character object corresponding to the actor A1 and a character object corresponding to the actor A2, the model data 23a includes at least two types of model data different from each other. The model data for the character object corresponding to the actor A1 and the model data for the character object corresponding to the actor A2 have, for example, the same rig data, but may have different surface data.

オブジェクトデータ23bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ23bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ23aには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。     The object data 23b includes asset data for constructing a virtual space that constitutes a moving image. The object data 23b is data for drawing the background of the virtual space constituting the moving image, data for drawing various objects displayed in the moving image, and for drawing various objects displayed in other moving images. Contains data. The object data 23a may include object position information indicating the position of the object in the virtual space.

オブジェクトデータ23bには、上記以外にも、クライアント装置10a〜10cの視聴ユーザからの表示要求に基づいて動画に表示されるギフトオブジェクトが含まれ得る。ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。視聴ユーザは、所望のギフトオブジェクトを購入することができる。     In addition to the above, the object data 23b may include gift objects that are displayed on a moving image based on display requests from viewing users of the client devices 10a to 10c. The gift object can include an effect object, a normal object, and a decoration object. The viewing user can purchase a desired gift object.

エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトである。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。エフェクトオブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。     The effect object is an object that affects the impression of the entire viewing screen of the distribution video, for example, an object that imitates a confetti. An object that imitates a confetti may be displayed on the entire viewing screen, thereby changing the impression of the entire viewing screen before and after display. Although the effect object may be displayed so as to overlap the character object, the effect object is different from the decoration object in that it is not displayed in association with a specific part of the character object.

通常オブジェクトは、視聴ユーザからアクター(例えば、アクターA1またはアクターA2)へのデジタル的なギフトとなるオブジェクトであり、例えばぬいぐるみや花束を模したオブジェクトである。一態様において、通常オブジェクトは、キャラクタオブジェクトと接しないように動画の表示画面に表示される。一態様において、通常オブジェクトは、キャラクタオブジェクトと重複しないように動画の表示画面に表示される。通常オブジェクトは、仮想空間においてキャラクタオブジェクト以外のオブジェクトと重複するように表示されてもよい。通常オブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。一態様において、通常オブジェクトをキャラクタオブジェクトと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタオブジェクトの顔を含む頭部以外の部分と重複し、当該キャラクタオブジェクトの頭部とは重複しないように表示される。     The normal object is an object that becomes a digital gift from the viewing user to the actor (for example, the actor A1 or the actor A2), for example, an object that imitates a stuffed animal or a bouquet. In one aspect, the normal object is displayed on the moving image display screen so as not to contact the character object. In one aspect, the normal object is displayed on the moving image display screen so as not to overlap with the character object. The normal object may be displayed so as to overlap with an object other than the character object in the virtual space. The normal object may be displayed so as to overlap with the character object, but is different from the decoration object in that it is not displayed in association with a specific part of the character object. In one aspect, when a normal object is displayed overlapping with a character object, the normal object overlaps with a portion other than the head including the face of the character object, and does not overlap with the head of the character object. Is displayed.

装飾オブジェクトは、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示されるオブジェクトである。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位に接するように表示画面に表示される。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位の一部又は全部を覆うように表示画面に表示される。     The decoration object is an object displayed on the display screen in association with a specific part of the character object. In one aspect, the decoration object displayed on the display screen in association with a specific part of the character object is displayed on the display screen so as to be in contact with the specific part of the character object. In one aspect, the decoration object displayed on the display screen in association with a specific part of the character object is displayed on the display screen so as to cover a part or all of the specific part of the character object.

装飾オブジェクトは、例えば、キャラクタオブジェクトに装着されるアクセサリー(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクラオブジェクトが装着可能なオブジェクトである。装飾オブジェクトに対応するオブジェクトデータ23bには、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着位置情報が含まれてもよい。ある装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に装着されるかを示すことができる。例えば、装飾オブジェクトがカチューシャである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「頭部」に装着されることを示してもよい。装飾オブジェクトがTシャツである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「胴部」に装着されることを示してもよい。     The decoration object is an object on which an accessory (headband, necklace, earring, etc.), clothes (T-shirt, etc.), a costume, and other character objects other than these can be attached to the character object. The object data 23b corresponding to the decoration object may include mounting position information indicating which part of the character object the decoration object is associated with. The mounting position information of a certain decorative object can indicate to which part of the character object the decorative object is mounted. For example, when the decoration object is a headband, the attachment position information of the decoration object may indicate that the decoration object is attached to the “head” of the character object. When the decoration object is a T-shirt, the attachment position information of the decoration object may indicate that the decoration object is attached to the “body” of the character object.

ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装飾オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装飾オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されてもよい。     A display time corresponding to the type of each gift object may be set. In one aspect, the display time of the decoration object may be set longer than the display time of the effect object and the display time of the normal object. For example, the display time of the decoration object may be set to 60 seconds, the display time of the effect object may be set to 5 seconds, and the display time of the normal object may be set to 10 seconds.

保有リスト23cは、動画の視聴ユーザが保有しているギフトオブジェクトを示すリストである。保有リスト23cの例が図3に示されている。図示のように、保有リスト23cにおいては、視聴ユーザのアカウント情報(例えば、視聴ユーザのユーザID)と対応づけて、当該視聴ユーザが保有するギフトオブジェクトを特定するオブジェクトIDが記憶されている。この視聴ユーザには、例えば、クライアント装置10a〜クライアント装置10cの第1視聴ユーザ〜第3視聴ユーザが含まれる。     The possession list 23c is a list indicating gift objects possessed by the viewing user of the moving image. An example of the possession list 23c is shown in FIG. As illustrated, in the possession list 23c, an object ID for specifying a gift object possessed by the viewing user is stored in association with the viewing user's account information (for example, the viewing user's user ID). The viewing users include, for example, the first viewing user to the third viewing user of the client device 10a to the client device 10c.

候補リスト23dは、視聴ユーザから表示要求がなされた装飾オブジェクトのリストである。後述するように、装飾オブジェクトを保有している視聴ユーザは、保有している装飾オブジェクトの表示要求を行うことができる。候補リスト23dにおいては、装飾オブジェクトの表示要求を行った視聴ユーザのアカウント情報と対応付けて、当該装飾オブジェクトを特定するオブジェクトIDが記憶される。この候補リスト23dは、配信者ごとに作成されてもよい。候補リスト23dは、例えば、配信者(アクターA1、アクターA2、サポーターB1、及び/又はサポーターB2)を特定する配信者識別情報と対応付けて記憶されてもよい。     The candidate list 23d is a list of decoration objects requested to be displayed by the viewing user. As will be described later, a viewing user who owns a decoration object can make a display request for the decoration object held. In the candidate list 23d, an object ID for specifying the decoration object is stored in association with the account information of the viewing user who has requested display of the decoration object. This candidate list 23d may be created for each distributor. The candidate list 23d may be stored in association with distributor identification information that identifies a distributor (actor A1, actor A2, supporter B1, and / or supporter B2), for example.

投稿データ23eは、視聴ユーザから投稿された投稿メッセージを示すデータである。投稿データ23eは、投稿メッセージを投稿した視聴ユーザのアカウント情報と、当該視聴ユーザが属するユーザグループを示すグループ情報と、当該視聴ユーザによって投稿された投稿メッセージと、を含む。このように、ストレージ23には、視聴ユーザのアカウント情報に対応付けて、当該視聴ユーザが属するユーザグループに関するグループ情報と、当該視聴ユーザによって投稿された投稿メッセージとが記憶され得る。投稿データ23eは、各投稿メッセージが投稿された時刻(例えば、クライアント装置から送信された投稿メッセージがサーバ装置20によって受信された時刻、または、サーバ装置20に受信された投稿メッセージがストレージ23の所定の記憶領域に書き込まれた時刻)を記憶しても良い。     The posted data 23e is data indicating a posted message posted by the viewing user. The posted data 23e includes account information of the viewing user who posted the posted message, group information indicating a user group to which the viewing user belongs, and a posted message posted by the viewing user. Thus, the storage 23 can store the group information related to the user group to which the viewing user belongs and the posted message posted by the viewing user in association with the viewing user's account information. The posted data 23e includes a time when each posted message is posted (for example, a time when a posted message transmitted from a client device is received by the server device 20 or a time when a posted message received by the server device 20 is stored in the storage 23 (The time of writing in the storage area) may be stored.

視聴ユーザのアカウント情報は、例えば、当該視聴ユーザのユーザ識別情報(ユーザID)である。     The viewing user account information is, for example, user identification information (user ID) of the viewing user.

グループ情報は、視聴ユーザが属するグループを識別するグループ識別情報(グループID)である。視聴ユーザが属するグループには、例えば、第1ユーザグループと、第2ユーザグループと、が含まれる。例えば、第1ユーザグループは、一般ユーザが属する一般ユーザグループであり、第2ユーザグループは、一般ユーザとは異なるプレミアムユーザが属するプレミアムユーザグループである。     The group information is group identification information (group ID) that identifies a group to which the viewing user belongs. The group to which the viewing user belongs includes, for example, a first user group and a second user group. For example, the first user group is a general user group to which a general user belongs, and the second user group is a premium user group to which a premium user different from the general user belongs.

第1ユーザグループと第2ユーザグループとの分類基準として、様々な基準が採用され得る。視聴ユーザのうち動画の視聴回数が所定回数よりも少ないユーザを一般ユーザに分類し、視聴回数が所定回数以上のユーザをプレミアムユーザに分類してもよい。視聴ユーザのうち動画の視聴時間が所定時間よりも少ないユーザを一般ユーザに分類し、視聴時間が所定時間以上のユーザをプレミアムユーザに分類してもよい。ギフトオブジェクトの購入金額が所定金額よりも少ないユーザを一般ユーザに分類し、ギフトオブジェクトの購入金額が所定金額以上のユーザをプレミアムユーザに分類してもよい。ギフトオブジェクトの購入量が所定量よりも少ないユーザを一般ユーザに分類し、ギフトオブジェクトの購入量が所定量以上のユーザをプレミアムユーザに分類してもよい。視聴ユーザのうち投稿メッセージの投稿数が所定数よりも少ないユーザを一般ユーザに分類し、投稿メッセージの投稿数が所定数以上のユーザをプレミアムユーザに分類してもよい。視聴回数、視聴時間、ギフトオブジェクトの購入金額、ギフトオブジェクトの購入量、投稿メッセージの投稿数は、動画配信システム1の利用開始からの累積値であってもよく、所定期間において集計された集計値であってもよい。     Various criteria can be adopted as classification criteria for the first user group and the second user group. Of the viewing users, a user who has less than the predetermined number of times of viewing the moving image may be classified as a general user, and a user whose number of viewing times is a predetermined number or more may be classified as a premium user. Among viewing users, a user whose viewing time of a moving image is shorter than a predetermined time may be classified as a general user, and a user whose viewing time is longer than a predetermined time may be classified as a premium user. A user with a gift object purchase amount less than a predetermined amount may be classified as a general user, and a user with a gift object purchase amount greater than or equal to a predetermined amount may be classified as a premium user. A user whose purchase amount of gift objects is less than a predetermined amount may be classified as a general user, and a user whose purchase amount of gift objects is a predetermined amount or more may be classified as a premium user. Of the viewing users, a user who has less than a predetermined number of posted messages may be classified as a general user, and a user who has a predetermined number of posted messages or more may be classified as a premium user. The number of viewing times, viewing time, gift object purchase amount, gift object purchase amount, and number of posted messages may be cumulative values from the start of use of the video distribution system 1, and are aggregated values for a predetermined period. It may be.

一態様において、第2ユーザグループは、第1ユーザグループよりも少ない数のユーザから構成される。視聴ユーザは、動画配信システム1への利用登録を行う際には、第1ユーザグループに分類される。視聴ユーザは、動画配信システム1の利用開始後に、第2ユーザグループに分類されるための基準を満たすと、第1ユーザグループを離脱して第2ユーザグループに属する。このように、視聴ユーザは、動画配信システム1の利用態様によって、所属するユーザグループが変更されてもよい。視聴ユーザは、第2ユーザグループに分類されるための基準を満たさなくなった場合には、第2ユーザグループから第1ユーザグループへ所属するユーザグループが変更されてもよい。     In one aspect, the second user group is composed of a smaller number of users than the first user group. The viewing user is classified into the first user group when performing use registration in the moving image distribution system 1. The viewing user leaves the first user group and belongs to the second user group if the criteria for classification into the second user group are satisfied after the use of the video distribution system 1 is started. As described above, the user group to which the viewing user belongs may be changed depending on the usage mode of the video distribution system 1. When the viewing user does not satisfy the criteria for classification into the second user group, the user group belonging to the first user group may be changed from the second user group.

一態様において、第1ユーザグループに属する視聴ユーザの数が第2ユーザグループに属する視聴ユーザの数よりも少ない状態が維持されるように、ユーザグループへの分類基準が動的に調整されてもよい。例えば、サーバ装置20は、第1ユーザグループに属する視聴ユーザの数及び第2ユーザグループに属する視聴ユーザの数をモニターし、その差が所定数よりも小さくなった場合には、第2ユーザグループへ分類されるための基準を厳しくしてもよい。例えば、当初は、動画配信システム1を利用した動画の視聴時間が10時間以上の視聴ユーザを第2ユーザグループに分類している場合、第2ユーザグループに属するユーザの数と第1ユーザグループに属する視聴ユーザの数との差が所定の値よりも小さくなった場合には、動画配信システム1を利用した動画の視聴時間が20時間以上の視聴ユーザを第2ユーザグループに分類するように基準を変更しても良い。     In one aspect, even if the classification criteria for the user group is dynamically adjusted so that the number of viewing users belonging to the first user group is maintained smaller than the number of viewing users belonging to the second user group. Good. For example, the server device 20 monitors the number of viewing users belonging to the first user group and the number of viewing users belonging to the second user group, and if the difference becomes smaller than a predetermined number, the second user group The criteria for categorizing can be strict. For example, initially, when viewing users who use the moving image distribution system 1 for viewing videos of 10 hours or more are classified into the second user group, the number of users belonging to the second user group and the first user group When the difference from the number of viewing users belonging to the video data becomes smaller than a predetermined value, the standard is set so that viewing users who use the moving image distribution system 1 for a viewing time of 20 hours or more are classified into the second user group. May be changed.

視聴ユーザの分類は、本明細書で具体的に説明するものには限定されない。視聴ユーザは、3つ以上のグループに分類されてもよい。また、各視聴ユーザがどのグループに所属するかを定める分類基準は任意に定められ得る。     The classification of viewing users is not limited to what is specifically described in this specification. The viewing user may be classified into three or more groups. Further, a classification criterion for determining which group each viewing user belongs to may be arbitrarily determined.

投稿メッセージは、視聴ユーザからクライアント装置を介して投稿されたメッセージである。視聴ユーザから投稿されるメッセージには、例えば、テキスト形式のメッセージ、静止画形式のメッセージ、動画形式のメッセージ、及びこれら以外の様々な形式のメッセージが含まれる。本明細書においては、第1ユーザグループに属する視聴ユーザから投稿された投稿メッセージを第1投稿メッセージと呼び、第2ユーザグループに属する視聴ユーザから投稿された投稿メッセージを第2投稿メッセージと呼ぶことがある。     The posted message is a message posted from the viewing user via the client device. The message posted by the viewing user includes, for example, a text message, a still image message, a moving image message, and various other messages. In this specification, a posted message posted from a viewing user belonging to the first user group is referred to as a first posted message, and a posted message posted from a viewing user belonging to the second user group is referred to as a second posted message. There is.

視聴管理データ23fは、視聴ユーザによる動画の視聴を管理するためのデータである。視聴管理データ23fは、視聴ユーザのアカウント情報と、動画配信システム1により配信される動画に関する動画情報と、当該動画の視聴に関する動画視聴情報と、を含む。このように、ストレージ23には、視聴ユーザのアカウント情報に対応付けて、当該視聴ユーザが視聴した動画に関する動画情報と、当該動画の視聴に関する動画視聴情報と、が記憶され得る。動画情報は、例えば、動画を識別する動画識別情報(動画ID)である。動画視聴情報は、視聴ユーザによって視聴された動画の視聴時間、視聴回数、及びこれら以外の動画の視聴に関する様々なデータを含み得る。     The viewing management data 23f is data for managing viewing of moving images by viewing users. The viewing management data 23f includes viewing user account information, moving image information related to a moving image distributed by the moving image distribution system 1, and moving image viewing information related to viewing the moving image. As described above, the storage 23 can store the video information regarding the video viewed by the viewing user and the video viewing information regarding the viewing of the video in association with the account information of the viewing user. The moving image information is, for example, moving image identification information (moving image ID) for identifying a moving image. The moving image viewing information may include various data relating to the viewing time of the moving image viewed by the viewing user, the number of times of viewing, and viewing of other moving images.

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、ボディモーションデータ生成部21a、フェイスモーションデータ生成部21b、アニメーション生成部21c、動画生成部21d、動画配信部21e、表示要求処理部21f、装飾オブジェクト選択部21g、オブジェクト購入処理部21h、及び投稿メッセージ処理部21iとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サポーターコンピュータ40に搭載されているコンピュータプロセッサにより実現されてもよい。     Next, functions implemented by the computer processor 21 will be described more specifically. The computer processor 21 executes a computer-readable instruction included in the distribution program, whereby a body motion data generation unit 21a, a face motion data generation unit 21b, an animation generation unit 21c, a moving image generation unit 21d, a moving image distribution unit 21e, It functions as a display request processing unit 21f, a decorative object selection unit 21g, an object purchase processing unit 21h, and a posted message processing unit 21i. At least a part of the functions realized by the computer processor 21 may be realized by a computer processor other than the computer processor 21 of the moving image distribution system 1. At least a part of the functions realized by the computer processor 21 may be realized by a computer processor mounted on the supporter computer 40, for example.

ボディモーションデータ生成部21aは、モーションセンサ31a〜31fの各々の検出情報に基づいて、アクターA1の体の各部位の第1ボディモーションデータを生成し、また、モーションセンサ32a〜32fの各々の検出情報に基づいて、アクターA2の体の各部位の位置及び向きのデジタル表現である第2ボディモーションデータを生成する。本明細書では、第1ボディモーションデータ及び第2ボディモーションデータを総称して単に「ボディモーションデータ」と呼ぶことがある。ボディモーションデータは、時間の経過に伴って随時生成される。例えば、ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、ボディモーションデータは、アクター

A1及びアクターA2の体の動きを時系列的にデジタルデータとして表現することができる。図示の実施形態においては、モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、アクターA1及びアクターA2の各々の左右の手足、腰、及び頭部に装着されているため、モーションセンサ31a〜31f及びモーションセンサ32a〜32fの検出情報に基づいて、アクターA1及びアクターA2の概ね全身の位置及び向きを経時的にデジタル表現することが可能である。ボディモーションデータは、例えば、モデルデータ23aに含まれるリグデータを構成する骨(ボーン)の位置及び回転角度を規定することができる。
The body motion data generation unit 21a generates first body motion data of each part of the body of the actor A1 based on the detection information of each of the motion sensors 31a to 31f, and detects each of the motion sensors 32a to 32f. Based on the information, second body motion data that is a digital representation of the position and orientation of each part of the body of the actor A2 is generated. In the present specification, the first body motion data and the second body motion data may be simply referred to as “body motion data”. The body motion data is generated as needed over time. For example, the body motion data may be generated every predetermined sampling time interval. In this way, body motion data

The body movements of A1 and Actor A2 can be expressed as digital data in time series. In the illustrated embodiment, since the motion sensors 31a to 31f and the motion sensors 32a to 32f are attached to the left and right limbs, waist, and head of each of the actor A1 and the actor A2, the motion sensors 31a to 31f and Based on the detection information of the motion sensors 32a to 32f, it is possible to digitally represent the positions and orientations of the whole body of the actor A1 and the actor A2 over time. The body motion data can define, for example, the positions and rotation angles of bones that constitute the rig data included in the model data 23a.

フェイスモーションデータ生成部21bは、カメラ37aの撮像データに基づいて、アクターA1の顔の動きのデジタル表現である第1フェイスモーションデータを生成し、また、カメラ38aの各々の撮像データに基づいて、アクターA2の顔の動きのデジタル表現である第2フェイスモーションデータを生成する。本明細書では、第1フェイスモーションデータ及び第2フェイスモーションデータを総称して単に「フェイスモーションデータ」と呼ぶことがある。フェイスモーションデータは、時間の経過に伴って随時生成される。例えば、フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、フェイスモーションデータは、アクターA2及びアクターA2の顔の動き(表情の変化)を時系列的にデジタル表現することができる。     The face motion data generation unit 21b generates first face motion data that is a digital representation of the movement of the face of the actor A1 based on the imaging data of the camera 37a, and based on the imaging data of each camera 38a, Second face motion data, which is a digital representation of the movement of the face of actor A2, is generated. In the present specification, the first face motion data and the second face motion data may be collectively referred to simply as “face motion data”. The face motion data is generated as needed over time. For example, the face motion data may be generated every predetermined sampling time interval. As described above, the face motion data can digitally represent the actor A2 and the movement of the face of the actor A2 (change in facial expression) in time series.

アニメーション生成部21cは、ボディモーションデータ生成部21aによって生成されたボディモーションデータ及びフェイスモーションデータ生成部21bによって生成されたフェイスモーションデータを、モデルデータ23aに含まれる所定のモデルデータに適用することにより、仮想空間内で動き、また、表情が変化するキャラクタオブジェクトのアニメーションを生成するように構成される。具体的には、アニメーション生成部21cは、アクターA1に関する第1ボディモーションデータ及び第1フェイスモーションデータに基づいて、アクターA1の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成し、アクターA2に関する第2ボディモーションデータ及び第2フェイスモーションデータに基づいて、アクターA2の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。本明細書においては、アクターA1の動き及び表情に基づいて生成されたキャラクタオブジェクトを「第1キャラクタオブジェクト」といい、アクターA2の動き及び表情に基づいて悪生成されたキャラクタオブジェクトを「第2キャラクタオブジェクト」ということがある。     The animation generation unit 21c applies the body motion data generated by the body motion data generation unit 21a and the face motion data generated by the face motion data generation unit 21b to predetermined model data included in the model data 23a. And an animation of a character object that moves in the virtual space and changes its facial expression. Specifically, the animation generation unit 21c generates an animation of a character object that moves in synchronization with the movement of the body and facial expression of the actor A1, based on the first body motion data and the first face motion data regarding the actor A1, Based on the second body motion data and the second face motion data related to the actor A2, an animation of a character object that moves in synchronization with the movement of the body and expression of the actor A2 can be generated. In this specification, the character object generated based on the movement and expression of the actor A1 is referred to as “first character object”, and the character object generated based on the movement and expression of the actor A2 is referred to as “second character. Sometimes called an "object."

動画生成部21dは、オブジェクトデータ23bを用いて仮想空間を構築し、この仮想空間と、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。第1キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA1の位置に合致するように仮想空間内に配置され、第2キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA2の位置に合致するように仮想空間内に配置される。したがって、トラッキングセンサ36aの位置または向きを変更することにより、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向きを変化させることができる。     The moving image generating unit 21d constructs a virtual space using the object data 23b, and includes the virtual space, the animation of the first character object corresponding to the actor A1, and the animation of the second character object corresponding to the actor A2. Generate a video that contains it. The first character object is arranged in the virtual space so as to match the position of the actor A1 with respect to the tracking sensor 36a, and the second character object is arranged in the virtual space so as to match the position of the actor A2 with respect to the tracking sensor 36a. Is done. Therefore, the position and orientation of the first character object and the second character object in the virtual space can be changed by changing the position or orientation of the tracking sensor 36a.

一態様において、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想空間を構築する。例えば、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想カメラの設定情報(仮想空間内での位置、注視位置、注視方向、及び画角)を定め、この仮想カメラの設定情報に基づいて仮想空間全体のうちの描画領域を定め、この仮想空間の描画領域を表示するための動画情報を生成する。     In one aspect, the moving image generating unit 21d constructs a virtual space based on the tracking information of the tracking sensor 36a. For example, the moving image generating unit 21d determines virtual camera setting information (position in the virtual space, gaze position, gaze direction, and angle of view) based on the tracking information of the tracking sensor 36a, and uses the virtual camera setting information as the virtual camera setting information. Based on this, a drawing area in the entire virtual space is determined, and moving image information for displaying the drawing area of the virtual space is generated.

動画生成部21dは、トラッキングセンサ36aのトラッキング情報に代えて、または、トラッキングセンサ36aのトラッキング情報に加えて、トラッキングセンサ36bのトラッキング情報に基づいて、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向き、並びに、仮想カメラの設定情報を定めるように構成されてもよい。動画生成部21dは、トラッキングセンサ36a及びトラッキングセンサ36bのうちから選択されたセンサ(本明細書において、「アクティブセンサ」と呼ぶことがある。)のトラッキング情報に基づいて仮想カメラの設定情報を定めるように構成されてもよい。     The moving image generating unit 21d replaces the tracking information of the tracking sensor 36a or, in addition to the tracking information of the tracking sensor 36a, based on the tracking information of the tracking sensor 36b, the first character object and the second character in the virtual space. It may be configured to determine the position and orientation of the object and the setting information of the virtual camera. The moving image generation unit 21d determines virtual camera setting information based on tracking information of a sensor selected from the tracking sensor 36a and the tracking sensor 36b (sometimes referred to as an “active sensor” in this specification). It may be configured as follows.

動画生成部21dは、生成した動画に、スタジオユニット30のマイクから取得したアクターA1及びアクターA2の音声を合成することができる。     The moving image generation unit 21d can synthesize the voices of the actor A1 and the actor A2 acquired from the microphone of the studio unit 30 with the generated moving image.

以上のようにして、動画生成部21dは、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーション、並びに、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションを生成し、このアニメーションにアクターA1及びアクターA2の音声が合成された配信用の動画を生成することができる。     As described above, the moving image generating unit 21d performs the animation of the first character object that moves in synchronization with the movement of the body and expression of the actor A1, and the second character that moves in synchronization with the movement of the body and expression of the actor A2. An animation of the object can be generated, and a moving image for distribution in which the voices of the actor A1 and the actor A2 are synthesized can be generated.

動画配信部21eは、動画生成部21dにおいて生成された動画を配信する。この動画は、ネットワーク50を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。受信された動画は、クライアント装置10a〜クライアント装置10cにおいて再生される。     The moving image distribution unit 21e distributes the moving image generated by the moving image generation unit 21d. This moving image is distributed via the network 50 to the client devices 10a to 10c and other client devices. The received moving image is reproduced in the client device 10a to the client device 10c.

この動画は、スタジオルームR内に設置されているクライアント装置(不図示)に配信され、このクライアント装置から短焦点プロジェクタを介してスクリーンSに投影されてもよい。また、この動画は、サポーターコンピュータ40に配信されてもよい。これにより、サポーターB1及びサポーターB2は、配信されている動画の視聴画面を確認することができる。     This moving image may be distributed to a client device (not shown) installed in the studio room R, and projected from the client device onto the screen S via a short focus projector. The moving image may be distributed to the supporter computer 40. Thereby, supporter B1 and supporter B2 can confirm the viewing-and-listening screen of the moving image currently delivered.

サーバ装置20からクライアント装置10aに配信され、このクライアント装置10aにおいて再生されている動画の表示例が図7に示されている。図示のように、サーバ装置20から配信された動画の表示画像70は、クライアント装置10aのディスプレイに表示される。このクライアント装置10aに表示されている表示画像70は、スタジオを模した仮想空間内に、アクターA1に対応するキャラクタオブジェクト71Aと、アクターA2に対応するキャラクタオブジェクト71Bと、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bが立つスタジオフロアに対応するフロアオブジェクト72cと、このフロアオブジェクト72c上に置かれたテーブルを示すテーブルオブジェクト72aと、フロアオブジェクト72c上に置かれたスタジオセットを示すスタジオセットオブジェクト72bと、が含まれている。     A display example of a moving image distributed from the server device 20 to the client device 10a and reproduced on the client device 10a is shown in FIG. As illustrated, the display image 70 of the moving image distributed from the server device 20 is displayed on the display of the client device 10a. The display image 70 displayed on the client device 10a includes a character object 71A corresponding to the actor A1, a character object 71B corresponding to the actor A2, a character object 71A and a character object 71B in a virtual space imitating a studio. A floor object 72c corresponding to the studio floor on which the player stands, a table object 72a indicating a table placed on the floor object 72c, and a studio set object 72b indicating a studio set placed on the floor object 72c. ing.

テーブルオブジェクト72a、スタジオセットオブジェクト72b、及びフロアオブジェクト72cは、ギフトオブジェクトではなく、オブジェクトデータ23bに含まれている仮想空間を構築するためのオブジェクトである。図示の実施形態において、配信動画に含まれる仮想空間は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bがパフォーマンスを行うステージを模した空間となっている。フロアオブジェクト72cは、このステージのフロアに対応する。フロアオブジェクト72cは、仮想空間における水平方向に延伸している。スタジオセットオブジェクト72bは、このステージにおけるステージセットに対応する。図示の実施形態においては、スタジオセットオブジェクト72bは平面視において円弧状に延伸しており、フロアの外縁を画定している。     The table object 72a, the studio set object 72b, and the floor object 72c are not gift objects, but are objects for constructing a virtual space included in the object data 23b. In the illustrated embodiment, the virtual space included in the distribution video is a space imitating a stage on which the character object 71A and the character object 71B perform. The floor object 72c corresponds to the floor of this stage. The floor object 72c extends in the horizontal direction in the virtual space. The studio set object 72b corresponds to the stage set in this stage. In the illustrated embodiment, the studio set object 72b extends in an arc shape in plan view, and defines the outer edge of the floor.

キャラクタオブジェクト71Aは、アクターA1の第1ボディモーションデータ及び第1フェイスモーションデータをモデルデータ23aに含まれているアクターA1用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Aは、第1ボディモーションデータ及び第1フェイスモーションデータに基づいてモーション制御される。キャラクタオブジェクト71Bは、アクターA2の第2ボディモーションデータ及び第2フェイスモーションデータを、モデルデータ23aに含まれているアクターA2用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Bは、第2ボディモーションデータ及び第2フェイスモーションデータに基づいてモーション制御される。したがって、キャラクタオブジェクト71Aは、アクターA1の体及び表情の動きに同期して画面内で動くように制御され、キャラクタオブジェクト71Bは、アクターA2の体及び表情の動きに同期して画面内で動くように制御される。     The character object 71A is generated by applying the first body motion data and the first face motion data of the actor A1 to the model data for the actor A1 included in the model data 23a. The character object 71A is motion-controlled based on the first body motion data and the first face motion data. The character object 71B is generated by applying the second body motion data and the second face motion data of the actor A2 to the model data for the actor A2 included in the model data 23a. The character object 71B is motion-controlled based on the second body motion data and the second face motion data. Therefore, the character object 71A is controlled to move in the screen in synchronization with the movement of the body and expression of the actor A1, and the character object 71B is moved in the screen in synchronization with the movement of the body and expression of the actor A2. Controlled.

上記のように、サーバ装置20からの配信動画は、サポーターコンピュータ40に配信されてもよい。サポーターコンピュータ40に配信された動画は、サポーターコンピュータ40において図7と同様に表示される。サポーターB1及びサポーターB2は、サポーターコンピュータ40において再生されている動画を見て、スタジオユニット30の構成要素の設定を変更することができる。一態様において、サポーターB1及びサポーターB2は、配信中の動画においてキャラクタオブジェクト71A及びキャラクタオブジェクト71Bのアングルを変更したい場合には、トラッキングセンサ36aの向きの変更を指示する指示信号をサポーターコンピュータ40からトラッキングセンサ36aに送信することができる。トラッキングセンサ36aは、当該指示信号に応じて、向きを変更することができる。例えば、トラッキングセンサ36aは、スタンドにその軸周りにアクチュエータを内蔵した回動機構を介して回動可能に取り付けられており、トラッキングセンサ36aが向きの変更を指示する指示信号を受信すると、当該指示信号に基づいて当該回動機構のアクチュエータが駆動され、当該指示信号に応じた角度だけトラッキングセンサ36aが回動されてもよい。一態様において、サポーターB1及びサポーターB2は、トラッキングセンサ36aからのトラッキング情報に代えて、トラッキングセンサ36bからのトラッキング情報を用いるための指示をサポーターコンピュータ40からトラッキングセンサ36a及びトラッキングセンサ36bに送信してもよい。     As described above, the distribution video from the server device 20 may be distributed to the supporter computer 40. The moving image distributed to the supporter computer 40 is displayed on the supporter computer 40 as in FIG. The supporter B1 and the supporter B2 can change the settings of the components of the studio unit 30 by watching the moving image being played back on the supporter computer 40. In one aspect, the supporter B1 and the supporter B2 track the instruction signal for instructing the change of the direction of the tracking sensor 36a from the supporter computer 40 when the angle of the character object 71A and the character object 71B is to be changed in the moving image being distributed. It can be transmitted to the sensor 36a. The tracking sensor 36a can change the direction according to the instruction signal. For example, the tracking sensor 36a is rotatably attached to the stand via a turning mechanism having an actuator built around its axis. When the tracking sensor 36a receives an instruction signal for instructing a change in direction, The actuator of the rotation mechanism may be driven based on the signal, and the tracking sensor 36a may be rotated by an angle corresponding to the instruction signal. In one aspect, the supporter B1 and the supporter B2 transmit an instruction to use the tracking information from the tracking sensor 36b to the tracking sensor 36a and the tracking sensor 36b instead of the tracking information from the tracking sensor 36a. Also good.

一態様において、サポーターB1及びサポーターB2は、サポーターコンピュータ40にて再生されている動画を見てアクターA1またはアクターA2に対する指示が必要と判断した場合には、その指示を示すメッセージをサポーターコンピュータ40に入力し、このメッセージをディスプレイ39に出力することができる。例えば、サポーターB1及びサポーターB2は、このディスプレイ39に表示されるメッセージを通じて、アクターA1またはアクターA2に対して立ち位置の変更を指示することができる。     In one aspect, when the supporter B1 and the supporter B2 determine that an instruction to the actor A1 or the actor A2 is necessary by watching the moving image reproduced on the supporter computer 40, a message indicating the instruction is sent to the supporter computer 40. This message can be input and output to the display 39. For example, the supporter B1 and the supporter B2 can instruct the actor A1 or the actor A2 to change the standing position through a message displayed on the display 39.

表示要求処理部21fは、視聴ユーザのクライアント装置からギフトオブジェクトの表示要求を受け付け、当該表示要求に応じた処理を行う。各視聴ユーザは、自らのクライアント装置を操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。例えば、第1視聴ユーザは、クライアント装置10aを操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。ギフトオブジェクトの表示要求には、視聴ユーザのユーザIDと、表示を要求するオブジェクトを特定する識別情報(オブジェクトID)が含まれてもよい。     The display request processing unit 21f receives a gift object display request from the viewing user's client device, and performs a process according to the display request. Each viewing user can transmit a gift object display request to the server device 20 by operating his client device. For example, the first viewing user can transmit a gift object display request to the server device 20 by operating the client device 10a. The display request for the gift object may include the user ID of the viewing user and identification information (object ID) that identifies the object for which display is requested.

上述のように、ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。エフェクトオブジェクト及び通常オブジェクトは、第1オブジェクトの例である。また、エフェクトオブジェクトまたは通常オブジェクトの表示を要求する表示要求は、第1表示要求の例である。     As described above, the gift object can include an effect object, a normal object, and a decoration object. The effect object and the normal object are examples of the first object. A display request for requesting display of an effect object or a normal object is an example of a first display request.

一態様において、表示要求処理部21fは、視聴ユーザから特定のエフェクトオブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求されたエフェクトオブジェクトを動画の表示画像70に表示させるための処理を行う。例えば、紙吹雪に対応するエフェクトオブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図8に示すように、当該表示要求に基づいて紙吹雪を示すエフェクトオブジェクト73を表示画像70に表示させる。     In one aspect, when the display request processing unit 21f receives a display request for a specific effect object from the viewing user, the display request processing unit 21f displays the effect object requested to be displayed on the moving image display image 70 based on the display request. Process. For example, when a display request for an effect object corresponding to confetti is made, the display request processing unit 21f displays an effect object 73 indicating confetti based on the display request as shown in FIG. To display.

一態様において、表示要求処理部21fは、視聴ユーザから特定の通常オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された通常オブジェクトを動画70に表示させるための処理を行う。例えば、熊のぬいぐるみを示す通常オブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図8に示すように、当該表示要求に基づいて熊のぬいぐるみを示す通常オブジェクト74を表示画像70に表示させる。     In one aspect, when receiving a display request for a specific normal object from the viewing user, the display request processing unit 21f performs a process for causing the moving image 70 to display the normal object requested to be displayed based on the display request. . For example, when a display request for a normal object indicating a teddy bear is made, the display request processing unit 21f displays a normal object 74 indicating a stuffed bear based on the display request as shown in FIG. 70.

通常オブジェクト74の表示要求には、仮想空間内における当該通常オブジェクト74の表示位置を指定する表示位置指定パラメータが含まれてもよい。この場合、表示要求処理部21fは、仮想空間内の表示位置指定パラメータによって指定された位置に通常オブジェクト74を表示することができる。例えば、表示位置指定パラメータによって、テーブルを示すテーブルオブジェクト72aの上を通常オブジェクト74の表示位置として指定することができる。視聴ユーザは、表示位置指定パラメータを用いることにより、動画70に含まれているキャラクタオブジェクト71A、キャラクタオブジェクト71B、ギフトオブジェクト、及びこれら以外のオブジェクトの表示を見て、通常オブジェクトを表示したい位置を指定することができる。     The display request for the normal object 74 may include a display position specifying parameter for specifying the display position of the normal object 74 in the virtual space. In this case, the display request processing unit 21f can display the normal object 74 at the position specified by the display position specifying parameter in the virtual space. For example, the display position specifying parameter can specify the display position of the normal object 74 above the table object 72a indicating the table. The viewing user uses the display position specifying parameter to specify the position where the normal object is to be displayed by looking at the display of the character object 71A, the character object 71B, the gift object, and other objects included in the moving image 70. can do.

一態様において、通常オブジェクト74は、動画の表示画像70内で移動するように表示されてもよい。例えば、通常オブジェクト74は、画面の上から下に向かって落下するように表示されてもよい。この場合、通常オブジェクト74は、落下開始から動画70を構成する仮想空間のフロアまで落下している間当該表示画像70内に表示され、フロアに落下した後に当該表示画像70から消滅してもよい。視聴ユーザは、落下する通常オブジェクト74を落下開始時から落下終了時まで見ることができる。通常オブジェクト74の画面内での移動方向は任意に設定され得る。例えば、通常オブジェクト74は、動画70の左から右へ、右から左へ、左上から左下へ、またはこれら以外の方向に移動するように表示画像70において表示されてもよい。通常オブジェクト74は、様々な軌道上を移動することができる。例えば、通常オブジェクト74は、直線軌道上、円軌道上、楕円軌道上、螺旋軌道上、またはこれら以外の軌道上を移動することができる。視聴ユーザは、通常オブジェクトの表示要求に、表示位置指定パラメータに加えてまたは表示位置指定パラメータに代えて、通常オブジェクト74の移動方向を指定する移動方向パラメータ及び通常オブジェクト74が移動する軌道を指定する軌道パラメータの少なくとも一方を含めることができる。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより小さいもの(例えば、エフェクトオブジェクト73の紙吹雪の紙片)は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに、その一部又は全部を重複させて表示してもよい。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクトと重複しない位置に表示される。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクト71Aまたはキャラクタオブジェクト71Bの少なくとも一方と重複する場合には、当該重複して表示されるキャラクタオブジェクトの後ろに表示される。     In one embodiment, the normal object 74 may be displayed so as to move within the moving image display image 70. For example, the normal object 74 may be displayed so as to drop from the top to the bottom of the screen. In this case, the normal object 74 may be displayed in the display image 70 while falling from the start of falling to the floor of the virtual space constituting the moving image 70 and disappear from the display image 70 after falling on the floor. . The viewing user can view the falling normal object 74 from the start of the fall to the end of the fall. The moving direction of the normal object 74 in the screen can be arbitrarily set. For example, the normal object 74 may be displayed on the display image 70 so as to move from the left to the right of the moving image 70, from right to left, from the upper left to the lower left, or in other directions. The normal object 74 can move on various trajectories. For example, the normal object 74 can move on a linear trajectory, a circular trajectory, an elliptical trajectory, a spiral trajectory, or other trajectories. The viewing user specifies a movement direction parameter for specifying the movement direction of the normal object 74 and a trajectory along which the normal object 74 moves in addition to or instead of the display position specification parameter in the display request for the normal object. At least one of the trajectory parameters can be included. In one embodiment, an effect object and a normal object whose size in the virtual space is smaller than a reference size (for example, a piece of confetti of the effect object 73) are transferred to the character object 71A and the character object 71B. A part or all of them may be displayed overlapping each other. In one embodiment, an effect object and a normal object whose size in the virtual space is larger than a reference size (for example, the normal object 74 (a bear stuffed animal)) are displayed at positions that do not overlap with the character object. . In one embodiment, among the effect object and the normal object, the object whose size in the virtual space is larger than the reference size (for example, the normal object 74 (the stuffed bear)) is at least one of the character object 71A and the character object 71B. Is displayed behind the character object displayed in duplicate.

一態様において、表示要求処理部21fは、視聴ユーザから特定の装飾オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された装飾オブジェクトを候補リスト23dに追加する。装飾オブジェクトの表示要求は、第2表示要求の例である。例えば、表示要求処理部21fは、視聴ユーザから表示要求されている特定の装飾オブジェクトを識別する識別情報(オブジェクトID)を、当該視聴ユーザのユーザIDと対応付けて、候補リスト23dに記憶することができる(図4参照)。装飾オブジェクトの表示要求が複数なされた場合には、当該複数の表示要求の各々について、表示要求を行った視聴ユーザのユーザIDと、当該視聴ユーザによって表示要求されている装飾オブジェクトの装飾オブジェクトIDとが対応付けて候補リスト23dに記憶される。     In one aspect, when receiving a display request for a specific decoration object from the viewing user, the display request processing unit 21f adds the decoration object requested to be displayed to the candidate list 23d based on the display request. The display request for the decoration object is an example of a second display request. For example, the display request processing unit 21f stores identification information (object ID) identifying a specific decoration object requested to be displayed by the viewing user in the candidate list 23d in association with the user ID of the viewing user. (See FIG. 4). When a plurality of decoration object display requests are made, for each of the plurality of display requests, the user ID of the viewing user who made the display request, and the decoration object ID of the decoration object requested to be displayed by the viewing user, Are stored in the candidate list 23d in association with each other.

一態様において、装飾オブジェクト選択部21gは、候補リスト23dに含まれている装飾オブジェクトのうちの一又は複数が選択されたことに応じて、当該選択された装飾オブジェクトを動画の表示画像70に表示させるための処理を行う。本明細書では、候補リスト23dから選択された装飾オブジェクトを「選択装飾オブジェクト」と呼ぶことがある。     In one aspect, the decoration object selection unit 21g displays the selected decoration object on the moving image display image 70 in response to selection of one or more decoration objects included in the candidate list 23d. To perform the process. In this specification, a decoration object selected from the candidate list 23d may be referred to as a “selected decoration object”.

候補リスト23dからの装飾オブジェクトの選択は、例えば、サポーターB1及びサポーターB2がサポーターコンピュータ40を操作することによってなされる。一態様において、サポーターコンピュータ40には、装飾オブジェクト選択画面が表示される。図10は、一態様における装飾オブジェクト選択画面80の例を示す。この装飾オブジェクト選択画面80は、例えば、サポーターコンピュータ40のディスプレイに表示される。装飾オブジェクト選択画面80は、例えば、表形式で候補リスト23dに含まれている複数の装飾オブジェクトの各々を表示する。図示のように、一態様における装飾オブジェクト選択画面80は、装飾オブジェクトの種類を表示する第1列81と、装飾オブジェクトの画像を表示する第2列82と、装飾オブジェクトが関連付けられているキャラクタオブジェクトの部位を表示する第3列83と、を有する。また、装飾オブジェクト選択画面80には、各装飾オブジェクトを選択するための選択ボタン84a〜84cが表示されている。このように、装飾オブジェクト選択画面80には、選択装飾オブジェクトの候補となる装飾オブジェクトが表示される。     The decoration object is selected from the candidate list 23d by, for example, operating the supporter computer 40 by the supporter B1 and the supporter B2. In one aspect, a decoration object selection screen is displayed on the supporter computer 40. FIG. 10 shows an example of the decoration object selection screen 80 in one aspect. This decoration object selection screen 80 is displayed on the display of the supporter computer 40, for example. The decoration object selection screen 80 displays, for example, each of a plurality of decoration objects included in the candidate list 23d in a table format. As illustrated, the decoration object selection screen 80 according to one aspect includes a first column 81 that displays the type of the decoration object, a second column 82 that displays an image of the decoration object, and a character object associated with the decoration object. And a third column 83 for displaying the part. The decoration object selection screen 80 displays selection buttons 84a to 84c for selecting each decoration object. As described above, the decoration object that is a candidate for the selected decoration object is displayed on the decoration object selection screen 80.

サポーターB1及びサポーターB2は、この装飾オブジェクト選択画面80に含まれている装飾オブジェクトのうちの一又は複数を選択することができる。例えば、サポーターB1及びサポーターB2は、選択ボタン84aを選択することにより、カチューシャを選択することができる。装飾オブジェクト選択部21gによってカチューシャが選択されたことが検出されると、表示要求処理部21fは、図9に示すように、選択されたカチューシャを示す選択装飾オブジェクト75を動画の表示画面70に表示させる。選択装飾オブジェクト75は、キャラクタオブジェクトの特定の部位と関連付けて、表示画像70に表示される。選択装飾オブジェクト75は、キャラクタオブジェクトのうちの当該特定の部位に接するように表示されてもよい。例えば、カチューシャを示す選択75は、キャラクタオブジェクトの頭部と対応付けられているため、図9に示されているように、キャラクタオブジェクト71Aの頭部に装着される。装飾オブジェクトは、キャラクタオブジェクトの当該特定部位の動きに付随して動くように、表示画面70に表示されてもよい。例えば、カチューシャを装着したキャラクタオブジェクト71Aの頭部が動くと、あたかもカチューシャがキャラクタオブジェクト71Aの頭部に装着されているかのごとく、カチューシャを示す選択装飾オブジェクト75もキャラクタオブジェクト71Aの頭部に付随して動く。     The supporter B1 and the supporter B2 can select one or a plurality of decoration objects included in the decoration object selection screen 80. For example, the supporter B1 and the supporter B2 can select the headband by selecting the selection button 84a. When the decoration object selection unit 21g detects that the headband has been selected, the display request processing unit 21f displays the selected decoration object 75 indicating the selected headband on the moving image display screen 70, as shown in FIG. Let The selected decoration object 75 is displayed on the display image 70 in association with a specific part of the character object. The selected decoration object 75 may be displayed so as to contact the specific part of the character object. For example, since the selection 75 indicating the headband is associated with the head of the character object, it is attached to the head of the character object 71A as shown in FIG. The decoration object may be displayed on the display screen 70 so as to move accompanying the movement of the specific part of the character object. For example, when the head of the character object 71A wearing the headband moves, the selected decoration object 75 indicating the headband is attached to the head of the character object 71A as if the headband is attached to the head of the character object 71A. Move.

選択装飾オブジェクト75は、キャラクタオブジェクト71Aではなく、キャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。選択装飾オブジェクト75は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。     The selected decoration object 75 may be displayed on the display screen 70 in association with the character object 71B instead of the character object 71A. The selected decoration object 75 may be displayed on the display screen 70 in association with the character object 71A and the character object 71B.

装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトの表示要求を行ったユーザを特定可能な情報を含まないように構成されてもよい。これにより、装飾オブジェクトの選択の際に、選択者が特定のユーザを優遇することを防止できる。 The decoration object selection screen 80 may be configured not to include information that can identify a user who owns each decoration object or a user who has requested display of each decoration object. Thereby, it is possible to prevent the selector from preferentially treating a specific user when selecting a decoration object.

一実施形態において、装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザに関する情報を表示するようにしてもよい。例えば、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザがこれまでに装飾オブジェクトの表示要求を行った回数と選択された回数(例えば、これまでに装飾オブジェクトの表示要求を5回行ってそのうち2回は選択されたことを示す情報)、当該ユーザがキャラクタオブジェクト71A及びキャラクタオブジェクトBの少なくとも一方の動画を視聴した視聴回数、当該ユーザが動画配信システム1における動画(キャラクタオブジェクト71A及びキャラクタオブジェクトBの出演有無を問わない)の視聴回数、当該ユーザによるギフトオブジェクトの購入金額、当該ユーザによるオブジェクトの購入回数、当該ユーザが保有する動画配信システム1内で使用できるポイント、当該ユーザの動画配信システム1におけるレベル、及びこれら以外の各装飾オブジェクトの表示要求を行ったユーザに関する各種情報を表示してもよい。当該実施形態によれば、装飾オブジェクトの表示要求を行ったユーザのこれまでの動画配信システム1における行動や視聴履歴に基づいて、装飾オブジェクトの選択を行うことができる。     In one embodiment, the decoration object selection screen 80 may display information about a user who owns each decoration object or a user who has requested display of the decoration object for each decoration object. For example, for each decoration object, the number of times the user who has made a display request for the decoration object has made a display request for the decoration object so far and the number of times it has been selected (for example, display requests for the decoration object have been made five times so far) Information indicating that it has been selected twice), the number of times the user has viewed at least one of the moving images of the character object 71A and the character object B, and the moving image (the character object 71A and the character in the moving image distribution system 1). The number of times the object B appears or not), the purchase amount of the gift object by the user, the number of purchases of the object by the user, the points that can be used in the video distribution system 1 owned by the user, the video distribution of the user system At level, and it may display various information about the user who made the request for display of the ornamental objects other than these. According to the embodiment, the decoration object can be selected based on the behavior and viewing history of the user who has requested display of the decoration object in the moving image distribution system 1 so far.

一実施形態において、装飾オブジェクトの表示には、重複を排除するための制約が課されてもよい。例えば、キャラクタオブジェクト71Aに関し、その特定の部位に関連付けられた装飾オブジェクトが既に選択されている場合には、当該特定の部位に関連付けられた他の装飾オブジェクトの選択が禁止されてもよい。図7の実施形態に示されているように、キャラクタオブジェクト71Bの「頭部」に関連付けられているカチューシャが既
に選択されている場合には、「頭部」に関連付けられているそれ以外の装飾オブジェクト(例えば、頭部に関連付けられている「帽子」を表す装飾オブジェクト)は、装飾オブジェクト選択画面80に表示されないか、または、当該帽子を表す装飾オブジェクトを選択するための選択ボタンが選択画面80において選択不能とされてもよい。当該実施形態によれば、装飾オブジェクトがキャラクタオブジェクトの特定の部位に重複して表示されることを防止できる。
In one embodiment, restrictions may be imposed on the display of decoration objects to eliminate duplication. For example, regarding the character object 71A, when a decoration object associated with the specific part has already been selected, selection of another decoration object associated with the specific part may be prohibited. As shown in the embodiment of FIG. 7, when the headband associated with the “head” of the character object 71 </ b> B has already been selected, other decorations associated with the “head” An object (for example, a decoration object representing “hat” associated with the head) is not displayed on the decoration object selection screen 80 or a selection button for selecting a decoration object representing the hat is selected on the selection screen 80. In this case, the selection may be disabled. According to the embodiment, it is possible to prevent the decoration object from being displayed on a specific part of the character object.

装飾オブジェクト選択画面80は、サポーターコンピュータ40に代えて、または、サポーターコンピュータ40に加えて、他の装置に表示されてもよい。例えば、装飾オブジェクト選択画面80は、スタジオルームR内のディスプレイ39及びスクリーンSの少なくとも一方に表示されてもよい。この場合、アクターA1及びアクターA2が当該ディスプレイ39又はスクリーンSに表示された装飾オブジェクト選択画面80に基づいて、所望の装飾オブジェクトを選択することができる。アクターA1及びアクターA2による装飾オブジェクトの選択は、例えば、コントローラ33a、コントローラ33b、コントローラ34a、またはコントローラ34bを操作することによりなされ得る。     The decoration object selection screen 80 may be displayed on another device instead of the supporter computer 40 or in addition to the supporter computer 40. For example, the decoration object selection screen 80 may be displayed on at least one of the display 39 and the screen S in the studio room R. In this case, the actor A1 and the actor A2 can select a desired decoration object based on the decoration object selection screen 80 displayed on the display 39 or the screen S. The selection of the decoration object by the actor A1 and the actor A2 can be performed by operating the controller 33a, the controller 33b, the controller 34a, or the controller 34b, for example.

一態様において、オブジェクト購入処理部21hは、動画の視聴ユーザからの要求に応じて、当該動画に関連して購入可能な複数のギフトオブジェクトの各々の購入情報を当該視聴ユーザのクライアント装置(例えば、クライアント装置10a)に送信する。各ギフトオブジェクトの購入情報には、当該ギフトオブジェクトの種類(エフェクトオブジェクト、通常オブジェクト、または装飾オブジェクト)、当該ギフトオブジェクトの画像、当該ギフトオブジェクトの価格、及びこれら以外のギフトオブジェクトの購入に必要な情報が含まれ得る。視聴ユーザは、クライアント装置10aに表示されているギフトオブジェクトの購入情報に基づいて、購入するギフトオブジェクトを選択することができる。購入対象のギフトオブジェクトの選択は、クライアント装置10aの操作により行われてもよい。購入対象のギフトオブジェクトが視聴ユーザによって選択されると、当該ギフトオブジェクトの購入要求がサーバ装置20に送信される。オブジェクト購入処理部21hは、当該購入要求に基づいて、決済処理を行う。この決済処理が完了すると、当該購入されたギフトオブジェクトは、当該視聴ユーザによって保有される。この場合、保有リスト23cに、購入した視聴ユーザのユーザIDと対応づけて、購入されたギフトオブジェクトのオブジェクトIDが記憶される。     In one aspect, in response to a request from a video viewing user, the object purchase processing unit 21h sends purchase information of each of a plurality of gift objects that can be purchased in relation to the video to the client device of the viewing user (for example, To the client device 10a). The purchase information of each gift object includes the type of the gift object (effect object, normal object, or decoration object), the image of the gift object, the price of the gift object, and information necessary for purchasing other gift objects. Can be included. The viewing user can select a gift object to purchase based on the purchase information of the gift object displayed on the client device 10a. Selection of a gift object to be purchased may be performed by operating the client device 10a. When a gift object to be purchased is selected by the viewing user, a purchase request for the gift object is transmitted to the server device 20. The object purchase processing unit 21h performs a settlement process based on the purchase request. When this settlement process is completed, the purchased gift object is held by the viewing user. In this case, the object ID of the purchased gift object is stored in the possession list 23c in association with the user ID of the purchased viewing user.

購入可能なギフトオブジェクトは、動画ごとに異なっていてもよい。購入可能なギフトオブジェクトは、複数の動画において購入可能であってもよい。つまり、購入可能なギフトオブジェクトには、各動画に固有の固有ギフトオブジェクトと、複数の動画において購入可能な共通ギフトオブジェクトと、が含まれてもよい。例えば、紙吹雪を示すエフェクトオブジェクトは、複数の動画において購入可能な共通ギフトオブジェクトであってもよい。     Gift objects that can be purchased may be different for each video. Purchaseable gift objects may be available for purchase in multiple videos. In other words, the gift object that can be purchased may include a unique gift object unique to each moving image and a common gift object that can be purchased in a plurality of moving images. For example, the effect object indicating the confetti may be a common gift object that can be purchased in a plurality of moving images.

一態様においては、所定の動画を視聴中にエフェクトオブジェクトを購入した場合、当該エフェクトオブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象のエフェクトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。所定の動画を視聴中に通常オブジェクトを購入した場合、上記と同様に、当該通常オブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象の通常ギフトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。     In one aspect, when an effect object is purchased while viewing a predetermined video, the effect object to be purchased is changed to the currently viewed video in response to the completion of the payment process for purchasing the effect object. It may be displayed automatically. When a normal object is purchased while viewing a predetermined video, the video that the normal gift object to be purchased is being viewed in response to the completion of the payment process for purchasing the normal object, as described above. May be automatically displayed.

他の態様においては、購入対象のエフェクトオブジェクトについてオブジェクト購入処理部21hにおける決済処理が完了したことに応じて、決済完了通知がクライアント装置10aに送信され、当該クライアント装置10aにおいて、購入されたエフェクトオブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面が表示されてもよい。視聴ユーザが、当該購入されたエフェクトオブジェクトについて表示要求を行うことを選択した場合には、当該購入されたエフェクトオブジェクトの表示を要求する表示要求が、当該視聴ユーザのクライアント装置から表示要求処理部21fに送信され、表示要求処理部21fにおいて、当該購入対象のエフェクトオブジェクトを動画の表示画像70に表示させる処理が行われてもよい。購入対象が通常オブジェクトの場合にも、上記と同様に、購入された通常オブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面がクライアント装置10aに表示されてもよい。     In another aspect, a payment completion notification is transmitted to the client device 10a in response to the completion of the payment processing in the object purchase processing unit 21h for the effect object to be purchased, and the effect object purchased in the client device 10a. A confirmation screen for confirming with the viewing user whether or not to make a display request may be displayed. When the viewing user selects to display the purchased effect object, a display request for displaying the purchased effect object is sent from the viewing user's client device to the display request processing unit 21f. In the display request processing unit 21f, processing for displaying the effect object to be purchased on the moving image display image 70 may be performed. Even when the purchase target is a normal object, a confirmation screen for confirming with the viewing user whether or not to make a display request for the purchased normal object may be displayed on the client device 10a as described above.

上記のように、クライアント装置10a〜10c及びこれら以外のクライアント装置は、配信動画に関する投稿メッセージ及びその他の投稿メッセージをサーバ装置20に送信することができる。投稿メッセージ処理部21iは、クライアント装置10a〜10c及びこれら以外のクライアント装置から受信した投稿メッセージを動画に表示させるための処理を行うように構成される。     As described above, the client devices 10 a to 10 c and other client devices can transmit a posted message related to the distribution video and other posted messages to the server device 20. The posted message processing unit 21i is configured to perform processing for displaying posted messages received from the client devices 10a to 10c and other client devices on a moving image.

一態様における投稿メッセージの表示態様について、図11から図16を参照して説明する。図11から図14は、クライアント装置10aにおいて再生されている動画に表示される投稿メッセージの表示例を示している。図15は、一実施形態における動画配信処理の流れを示すフロー図であり、図16は、配信動画における第1配信期間及び第2配信期間を説明するための概略図である。第1配信期間においては、動画内に第1表示領域76が含まれ、第2配信期間においては、動画内に第2表示領域77が含まれる。     The display mode of the posted message in one mode will be described with reference to FIGS. FIGS. 11 to 14 show display examples of posted messages displayed on the moving image being played back on the client device 10a. FIG. 15 is a flowchart showing the flow of the moving image distribution process in one embodiment, and FIG. 16 is a schematic diagram for explaining the first distribution period and the second distribution period in the distributed moving image. In the first distribution period, the first display area 76 is included in the moving image, and in the second distribution period, the second display area 77 is included in the moving image.

図16に示されているように、一実施形態において、サーバ装置20は、時刻t1から時刻t2の間に動画を配信する。時刻t1が動画の配信開始時刻であり、時刻t2が動画の配信終了時刻である。図示の実施形態においては、動画の全配信期間のうち、時刻t1と時刻t3との間および時刻t4と時刻t2との間が第1配信期間であり、時刻t3と時刻t4との間が第2配信期間である。当該動画の配信開始時刻t1の後は、時刻t3まで第1配信期間161が続き、時刻t3において第1配信期間161から第2配信期間162に切り替えられ、次に、時刻t4において第2配信期間162から第1配信期間163に切り替えられ、第1配信期間163が配信終了時刻t2まで継続する。第1配信期間及び第2配信期間の順序、長さ、出現回数、及びそれ以外の第1配信期間及び第2配信期間に関する設定は任意に定め得る。     As illustrated in FIG. 16, in one embodiment, the server device 20 delivers a moving image between time t1 and time t2. Time t1 is a moving image distribution start time, and time t2 is a moving image distribution end time. In the illustrated embodiment, of all the video distribution periods, the period between time t1 and time t3 and the period between time t4 and time t2 is the first distribution period, and the period between time t3 and time t4 is the first. 2 delivery period. After the distribution start time t1 of the moving image, the first distribution period 161 continues until time t3, the first distribution period 161 is switched to the second distribution period 162 at time t3, and then the second distribution period at time t4. 162 is switched to the first distribution period 163, and the first distribution period 163 continues until the distribution end time t2. The order of the first distribution period and the second distribution period, the length, the number of appearances, and other settings related to the first distribution period and the second distribution period can be arbitrarily determined.

一実施形態において、第1配信期間と第2配信期間とは、所定の時刻が到来したときに切り替えられてもよい。例えば、図示の実施形態では、時刻t3において第1配信期間161から第2配信期間162に切り替えられ、次に、時刻t4において第2配信期間162から第1配信期間163に切り替えられている。一実施形態において、第1配信期間から第2配信期間への切り替え及び第2配信期間から第1配信期間への切り替えは、アクターA1によるコントローラ33aまたはコントローラ33bの操作に応じて行われてもよく、アクターA2によるコントローラ34aまたはコントローラ34bの操作に応じて行われてもよい。一実施形態において、第1配信期間から第2配信期間への切り替え及び第2配信期間から第1配信期間への切り替えは、サポーターB1またはサポーターB2によるサポーターコンピュータ40の操作に応じて行われてもよい。第1配信期間と第2配信期間との切り替えは、本明細書において明示的に説明されていない態様で行われてもよい。     In one embodiment, the first distribution period and the second distribution period may be switched when a predetermined time arrives. For example, in the illustrated embodiment, the first distribution period 161 is switched to the second distribution period 162 at time t3, and then the second distribution period 162 is switched to the first distribution period 163 at time t4. In one embodiment, switching from the first distribution period to the second distribution period and switching from the second distribution period to the first distribution period may be performed according to an operation of the controller 33a or the controller 33b by the actor A1. The operation may be performed in accordance with the operation of the controller 34a or the controller 34b by the actor A2. In one embodiment, switching from the first distribution period to the second distribution period and switching from the second distribution period to the first distribution period may be performed according to the operation of the supporter computer 40 by the supporter B1 or the supporter B2. Good. Switching between the first distribution period and the second distribution period may be performed in a manner not explicitly described in the present specification.

図11及び図12は、第1配信期間における配信動画の表示画像70を示す。図11に示されている配信動画の表示画像70は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて定められた視点から見た仮想空間の画像を含む。つまり、この表示画像70は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bの位置を仮想的な視点として構築された仮想空間の画像である。このため、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは表示画像70において正面を向いている。     11 and 12 show a display image 70 of a distribution video during the first distribution period. The distribution moving image display image 70 shown in FIG. 11 includes a virtual space image viewed from a viewpoint determined based on the tracking information of the tracking sensor 36b in front of the actor A1 and the actor A2. In other words, the display image 70 is an image of a virtual space constructed with the position of the tracking sensor 36b in front of the actor A1 and the actor A2 as a virtual viewpoint. For this reason, the character object 71A and the character object 71B face the front in the display image 70.

図示の実施形態において、再生動画(またはその表示画像70)には、第1表示領域76が含まれている。     In the illustrated embodiment, the reproduced moving image (or its display image 70) includes a first display area 76.

一態様において、第1表示領域76は、動画生成部21dにより生成された動画にスーパーインポーズされる表示領域である。一態様において、第1表示領域76は、二次元の表示領域である。     In one aspect, the first display area 76 is a display area that is superimposed on the moving image generated by the moving image generating unit 21d. In one aspect, the first display area 76 is a two-dimensional display area.

一態様において、第1表示領域76は、動画生成部21dにより生成される仮想空間を構成するオブジェクトではない。この場合、第1表示領域76は、動画生成部21dにより生成される仮想空間を構築するための仮想カメラの設定情報(位置、向き、及び画角)によらず、当該動画の表示画像70の所定の領域に表示される。第1表示領域76は、アクティブセンサが切り替えられても、その切り替えの前後で変わらない位置に表示されてもよい。図示の実施形態では、表示画像70の左下の一定の範囲を占める領域が、第1表示領域76とされている。第1表示領域76の位置は、本明細書で具体的に説明した位置には限られない。図示のように、第1表示領域76は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの少なくとも一方と重複する領域に設けられてもよい。図示の実施形態では、第1表示領域76は、キャラクタオブジェクト71Bの一部と重複している。第1表示領域76とキャラクタオブジェクト71Bとが重複する領域においては、第1表示領域76およびそこに含まれる投稿メッセージが、キャラクタオブジェクト71Bよりも画面の手前に表示されてもよい。この場合、キャラクタオブジェクト71Bの一部が第1表示領域76またはそこに表示される投稿メッセージの背後に隠れて視聴ユーザによって視認できなくなる。     In one aspect, the first display area 76 is not an object constituting the virtual space generated by the moving image generating unit 21d. In this case, the first display area 76 does not depend on the setting information (position, orientation, and angle of view) of the virtual camera for constructing the virtual space generated by the moving image generating unit 21d. It is displayed in a predetermined area. Even if the active sensor is switched, the first display area 76 may be displayed at a position that does not change before and after the switching. In the illustrated embodiment, a region occupying a certain range at the lower left of the display image 70 is a first display region 76. The position of the first display area 76 is not limited to the position specifically described in this specification. As illustrated, the first display area 76 may be provided in an area overlapping with at least one of the character object 71A and the character object 71B. In the illustrated embodiment, the first display area 76 overlaps a part of the character object 71B. In the area where the first display area 76 and the character object 71B overlap, the first display area 76 and the posted message included therein may be displayed in front of the screen than the character object 71B. In this case, a part of the character object 71B is hidden behind the first display area 76 or the posted message displayed there and cannot be viewed by the viewing user.

一態様において、投稿メッセージ処理部21iは、視聴ユーザからクライアント装置10a〜10c及びこれら以外のクライアント装置を介して投稿された投稿メッセージを、当該視聴ユーザが属するユーザグループに応じた表示領域に表示するように構成される。視聴ユーザから投稿された投稿メッセージは、ストレージ23に投稿データ23eとして記憶されているので、投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出して、この読み出した投稿メッセージを第1表示領域76又は後述する第2表示領域77に表示することができる。投稿メッセージは、投稿時間が早い順に読み出されてもよい。     In one aspect, the posted message processing unit 21i displays a posted message posted from the viewing user via the client devices 10a to 10c and other client devices in a display area corresponding to the user group to which the viewing user belongs. Configured as follows. Since the posted message posted by the viewing user is stored as the posted data 23e in the storage 23, the posted message processing unit 21i reads the posted message from the storage 23 and displays the read posted message in the first display area 76. Or it can display on the 2nd display area 77 mentioned later. The posted messages may be read in order of the posting time.

図11に示されている実施形態においては、第1表示領域76には、投稿メッセージ76a〜76dの4つの投稿メッセージが表示されている。この投稿メッセージ76a〜76dは、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)であってもよいし、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)であってもよい。例えば、投稿メッセージ76a、投稿メッセージ76b、投稿メッセージ76c、及び投稿メッセージ76dがこの順にストレージ23から読み出され、この読み出された各第1投稿メッセージが、読み出された順に第1表示領域76に表示される。具体的な表示手順の例は以下のとおりである。第1投稿メッセージ76aが読み出されると、当該投稿メッセージ76aが第1表示領域76の最上部に表示される。次に、投稿メッセージ76bが読み出されると、投稿メッセージ76aは、当初の表示位置から下方に移動し、この移動により空いたスペースに投稿メッセージ76bが表示される。以下、同様に、新しい投稿メッセージが表示される場合には、表示済みの投稿メッセージを下方に移動させ、その移動により空いたスペースに当該新しい投稿メッセージが表示される。     In the embodiment shown in FIG. 11, four posted messages 76 a to 76 d are displayed in the first display area 76. The posted messages 76a to 76d may be posted messages (first posted messages) from viewing users belonging to the first user group, or posted messages (second posted messages) from viewing users belonging to the second user group. ). For example, a posted message 76a, a posted message 76b, a posted message 76c, and a posted message 76d are read from the storage 23 in this order, and each read first posted message is read in the first display area 76 in the order of reading. Is displayed. A specific example of the display procedure is as follows. When the first posted message 76a is read, the posted message 76a is displayed at the top of the first display area 76. Next, when the posted message 76b is read, the posted message 76a moves downward from the initial display position, and the posted message 76b is displayed in a space vacated by this movement. Hereinafter, similarly, when a new posted message is displayed, the displayed posted message is moved downward, and the new posted message is displayed in a space vacated by the movement.

投稿メッセージ76aが第1表示領域76の下限まで到達した後に新しい投稿メッセージを表示する場合には、下限に到達した投稿メッセージ76aは、第1表示領域76に表示されなくなる。図11の表示画像70においては、投稿メッセージ76aが第1表示領域76の下限に到達したことが想定されている。この時点で、新しい投稿メッセージ76eがストレージ23から第1表示領域76への表示のために読み出されると、図12に示されているように、投稿メッセージ76aは第1表示領域76に表示されなくなり、残りの投稿メッセージ(第1投稿メッセージ76b〜76d)が下方に移動した後、この移動により空いたスペースに投稿メッセージ76eが表示される。このように、第1表示領域76に表示された投稿メッセージは、当該第1表示領域76の移動方向の終端に達するまでの間、第1表示領域76に表示され続ける。     When a new posted message is displayed after the posted message 76 a reaches the lower limit of the first display area 76, the posted message 76 a that has reached the lower limit is not displayed in the first display area 76. In the display image 70 of FIG. 11, it is assumed that the posted message 76 a has reached the lower limit of the first display area 76. At this point, when a new posted message 76e is read out from the storage 23 for display in the first display area 76, the posted message 76a is not displayed in the first display area 76, as shown in FIG. After the remaining posted messages (first posted messages 76b to 76d) move downward, the posted message 76e is displayed in a space freed by this movement. Thus, the posted message displayed in the first display area 76 continues to be displayed in the first display area 76 until the end of the movement direction of the first display area 76 is reached.

第1表示領域76には、視聴ユーザから投稿された第1投稿メッセージだけでなく、サーバ装置20からの各種通知が表示されてもよい。例えば、第1視聴ユーザからギフトの表示要求があった場合には、その旨がシステムからのメッセージとして第1表示領域76に表示されてもよい。第1表示領域76に表示され得るサーバ装置20からの通知には、様々な種類の通知が含まれ得る。サーバ装置20からの通知には、例えば、ある視聴ユーザが動画の視聴を開始した場合に当該視聴ユーザが動画の視聴を開始した旨を通知するためのメッセージであってもよい。     In the first display area 76, not only the first posted message posted by the viewing user but also various notifications from the server device 20 may be displayed. For example, when there is a gift display request from the first viewing user, a message to that effect may be displayed in the first display area 76. The notification from the server device 20 that can be displayed in the first display area 76 can include various types of notifications. The notification from the server device 20 may be, for example, a message for notifying that the viewing user has started viewing the moving image when a certain viewing user starts viewing the moving image.

以上のとおり、投稿メッセージ処理部21iは、第1ユーザグループまたは第2ユーザグループに属するユーザの投稿メッセージを、第1表示領域76に表示する処理を行う。第1表示領域76において、第1投稿メッセージは、新しい投稿メッセージを表示するためのスペースを作り出すために、所定の移動方向に移動する。図11及び図12に示した実施形態では、第1投稿メッセージは、上から下へ移動する。第1表示領域76における第1投稿メッセージの移動方向は、上から下には限られない。第1表示領域76における第1投稿メッセージの移動方向は、下から上、左から右、右から左、及びこれら以外の任意の方向であってもよい。     As described above, the posted message processing unit 21 i performs a process of displaying the posted messages of users belonging to the first user group or the second user group in the first display area 76. In the first display area 76, the first posted message moves in a predetermined moving direction in order to create a space for displaying a new posted message. In the embodiment shown in FIGS. 11 and 12, the first posted message moves from top to bottom. The moving direction of the first posted message in the first display area 76 is not limited from top to bottom. The moving direction of the first posted message in the first display area 76 may be from bottom to top, left to right, right to left, and any other direction.

続いて、図13及び図14を参照して、第2配信期間に配信される動画について説明する。図13及び図14は、第2配信期間における配信動画の表示画像130の例を示す。図13及び図14に示した実施形態では、第2配信期間において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bがステージの上でパフォーマンスを行う動画が配信されることを想定している。図13に示されている配信動画の表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて定められた視点から見た仮想空間の画像を含む。つまり、この表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bの位置を仮想的な視点として構築された仮想空間の画像である。このため、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、表示画像130において正面を向いている。図14には、トラッキングセンサ36aのトラッキング情報に基づいて生成された動画の表示画像130が示されている。トラッキングセンサ36aは、アクターA1及びアクターA2の左前方にあるため、表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、正面以外の方向(右前方)を向いている。     Subsequently, with reference to FIG. 13 and FIG. 14, a moving image distributed in the second distribution period will be described. 13 and 14 show an example of a display image 130 of a distribution video during the second distribution period. In the embodiment shown in FIGS. 13 and 14, it is assumed that a moving image in which the character object 71A and the character object 71B perform on the stage is distributed in the second distribution period. The distribution moving image display image 130 shown in FIG. 13 includes an image of the virtual space viewed from the viewpoint determined based on the tracking information of the tracking sensor 36b in front of the actor A1 and the actor A2. That is, this display image 130 is an image of a virtual space constructed with the position of the tracking sensor 36b in front of the actor A1 and the actor A2 as a virtual viewpoint. For this reason, the character object 71A and the character object 71B face the front in the display image 130. FIG. 14 shows a moving image display image 130 generated based on the tracking information of the tracking sensor 36a. Since the tracking sensor 36a is on the left front of the actor A1 and the actor A2, in the display image 130, the character object 71A and the character object 71B face in directions other than the front (front right).

第2表示領域77は、動画生成部21dにより生成される仮想空間に含まれる一又は複数のオブジェクトの表面の一部又は全部に相当する領域である。図示の実施形態においては、スクリーン状のスクリーンオブジェクト131の前面の全体が第2表示領域77とされている。本明細書においては、スクリーンオブジェクト131のように、第2表示領域77が設けられるオブジェクトを「表示用オブジェクト」又は「メッセージ表示用オブジェクト」と呼ぶことがある。配信動画に含まれる仮想空間内の任意のオブジェクトを表示用オブジェクトとすることができる。一態様においては、ギフトオブジェクトを表示用オブジェクトとしてもよい。     The second display area 77 is an area corresponding to part or all of the surface of one or more objects included in the virtual space generated by the moving image generating unit 21d. In the illustrated embodiment, the entire front surface of the screen-like screen object 131 is the second display area 77. In the present specification, an object provided with the second display area 77, such as the screen object 131, may be referred to as a “display object” or a “message display object”. Any object in the virtual space included in the distribution video can be used as a display object. In one aspect, the gift object may be a display object.

図13の実施形態においては、第2表示領域77には、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)が表示される。図示の例では、第2表示領域77には、第2投稿メッセージ77a〜77eの5つの第2投稿メッセージが表示されている。本明細書において、第2投稿メッセージ77a〜77eは、互いから区別される必要がない場合には、単に「第2投稿メッセージ」と呼ばれることがある。図13に示されているように、第2投稿メッセージ77a、第2投稿メッセージ77b、第2投稿メッセージ77c、第2投稿メッセージ77d、及び第2投稿メッセージ77eがこの順にストレージ23から読み出され、この読み出された各第2投稿メッセージが、読み出された順に第2表示領域77に表示される。第2表示領域77には、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)は表示されない。第2配信期間においては、第1ユーザグループに属する視聴ユーザは、クライアント装置にて実装される機能によりメッセージの投稿ができないか、または、メッセージを投稿することができても、当該メッセージは第2表示領域77には表示されない。     In the embodiment of FIG. 13, a posted message (second posted message) from a viewing user belonging to the second user group is displayed in the second display area 77. In the illustrated example, the second display area 77 displays five second posted messages of the second posted messages 77a to 77e. In the present specification, the second posted messages 77a to 77e may be simply referred to as “second posted messages” when it is not necessary to distinguish them from each other. As shown in FIG. 13, the second posted message 77a, the second posted message 77b, the second posted message 77c, the second posted message 77d, and the second posted message 77e are read from the storage 23 in this order, The read second posted messages are displayed in the second display area 77 in the order of reading. In the second display area 77, posted messages (first posted messages) from viewing users belonging to the first user group are not displayed. In the second distribution period, even if a viewing user belonging to the first user group cannot post a message or can post a message by the function implemented in the client device, It is not displayed in the display area 77.

第2表示領域77に表示される第2投稿メッセージは、第2表示領域77において所定の方向に移動してもよい。図13の実施形態においては、各第2投稿メッセージは、第2表示領域77の上から下に向かって移動する。スクリーンオブジェクト131(第2表示領域77)は、仮想空間において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの後方に配されているため、この第2表示領域77に表示された第2投稿メッセージのうち第2投稿メッセージ77a〜77dの各々の一部は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの後ろに隠れている。第2投稿メッセージは、第2表示領域77の移動方向における終端まで移動すると、その後、表示画像70に表示されなくなる。一実施形態において、スクリーンオブジェクト131等の表示用オブジェクトは、仮想空間において、キャラクタオブジェクトよりも後方に配される。これにより、表示用オブジェクト及び当該表示用オブジェクトに表示される第2投稿メッセージの後ろにキャラクタオブジェクトが隠れてしまうことがない。上記のように、第2配信期間においては、キャラクタオブジェクトがパフォーマンスを行うことが想定されている。よって、表示用オブジェクトをキャラクタオブジェクトよりも後方に配すことにより、ユーザは、キャラクタオブジェクトのパフォーマンスを他のオブジェクトによって邪魔されることなく見ることができる。これにより、ユーザの視聴体験の劣化を防ぐことができる。     The second posted message displayed in the second display area 77 may move in a predetermined direction in the second display area 77. In the embodiment of FIG. 13, each second posted message moves from the top to the bottom of the second display area 77. Since the screen object 131 (second display area 77) is arranged behind the character object 71A and the character object 71B in the virtual space, the second posted message displayed in the second display area 77 is the second post message. A part of each of the posted messages 77a to 77d is hidden behind the character object 71A and the character object 71B. When the second posted message moves to the end in the moving direction of the second display area 77, it is not displayed on the display image 70 thereafter. In one embodiment, the display object such as the screen object 131 is arranged behind the character object in the virtual space. Accordingly, the character object is not hidden behind the display object and the second posted message displayed on the display object. As described above, it is assumed that the character object performs performance in the second distribution period. Therefore, by arranging the display object behind the character object, the user can see the performance of the character object without being disturbed by other objects. Thereby, deterioration of a user's viewing experience can be prevented.

第2表示領域77における第2投稿メッセージの移動方向は、上から下の方向には限られない。第2表示領域77における第2投稿メッセージの移動方向は、左から右、下から上、右から左、及びこれら以外の任意の方向であってもよい。第2表示領域77における投稿メッセージの移動方向は、第1表示領域76における第1投稿メッセージの移動方向と異なっていても良い。     The moving direction of the second posted message in the second display area 77 is not limited to the top to bottom direction. The moving direction of the second posted message in the second display area 77 may be left to right, bottom to top, right to left, and any other direction. The moving direction of the posted message in the second display area 77 may be different from the moving direction of the first posted message in the first display area 76.

一態様において、第2表示領域77における投稿メッセージの移動方向は、当該投稿メッセージに含まれる第1コマンドに応じて定められても良い。例えば、視聴ユーザは、クライアント装置を介して投稿メッセージを作成する際に、移動方向を指定する第1コマンドを当該投稿メッセージに含めることができる。この第1コマンドは、例えば、左から右への移動を指定する場合には「L、R」というテキストであってもよい。この第1コマンドは、例えば、投稿メッセージの本体(第2表示領域77に表示されるメッセージ)の後に付加されてもよい。メッセージ本体と第1コマンドとの間は、アットマーク(「@」)、カンマ(「,」)、セミコロン(「;」)、コロン(「:」)などで区切られても良い。このように、視聴ユーザは、第2表示領域77におけるメッセージの移動方向を指定する第1コマンドを含むように投稿メッセージを作成し、当該投稿メッセージをサーバ装置20に送信することができる。第1コマンドは、ストレージ23に投稿データ23eの一部として記憶されてもよい。投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出した際に、当該投稿メッセージが第2ユーザグループから投稿されたものである場合には、当該第1コマンドにより指定された方向に移動するように、当該投稿メッセージを第2表示領域77に表示するように構成されてもよい。上述した第1コマンドの記述形式は、任意に変更することができる。     In one aspect, the moving direction of the posted message in the second display area 77 may be determined according to the first command included in the posted message. For example, when a viewing user creates a posted message via a client device, the viewing user can include a first command for designating a moving direction in the posted message. This first command may be, for example, the text “L, R” when designating the movement from left to right. This first command may be added after the main body of the posted message (message displayed in the second display area 77), for example. The message body and the first command may be separated by an at sign (“@”), a comma (“,”), a semicolon (“;”), a colon (“:”), or the like. In this manner, the viewing user can create a posted message so as to include the first command for designating the moving direction of the message in the second display area 77, and can transmit the posted message to the server device 20. The first command may be stored in the storage 23 as part of the post data 23e. When the posted message processing unit 21i reads the posted message from the storage 23 and the posted message is posted from the second user group, the posted message processing unit 21i moves in the direction specified by the first command. In addition, the posted message may be displayed in the second display area 77. The description format of the first command described above can be arbitrarily changed.

一態様において、第2表示領域77における投稿メッセージの初期表示位置は、当該投稿メッセージに含まれる第2コマンドに応じて定められても良い。例えば、視聴ユーザは、クライアント装置を介して投稿メッセージを作成する際に、当該投稿メッセージに第2表示領域77における初期表示位置を指定する第2コマンドを含めることができる。この第2コマンドは、例えば、初期表示位置が第2表示領域の左端である場合には「@L」というテキストであり、初期表示位置が第2表示領域の右端である場合には「@R」というテキストであり、初期表示位置が第2表示領域の中央である場合には「@C」というテキストであってもよい。視聴ユーザは、第2コマンドを含むように投稿メッセージを作成し、当該投稿メッセージをサーバ装置20に送信することができる。投稿メッセージには、第2コマンドに加えて第1コマンドが含められても良い。第2コマンドは、ストレージ23に投稿データ23eの一部として記憶されてもよい。投稿メッセージ処理部21iは、ストレージ23から投稿メッセージを読み出した際に、当該投稿メッセージが第2ユーザグループから投稿されたものである場合には、当該第2コマンドにより指定された初期表示位置に当該投稿メッセージを表示する。当該投稿メッセージが第1コマンドも含む場合には、投稿メッセージ処理部21iは、当該投稿メッセージを当該第2コマンドにより指定された初期表示位置に表示させ、その後に当該第1コマンドで指定された方向に移動させるように構成されてもよい。上述した第2コマンドの記述形式は、任意に変更することができる。     In one aspect, the initial display position of the posted message in the second display area 77 may be determined according to the second command included in the posted message. For example, when creating a posted message via the client device, the viewing user can include a second command for designating an initial display position in the second display area 77 in the posted message. This second command is, for example, the text “@L” when the initial display position is the left end of the second display area, and “@R when the initial display position is the right end of the second display area. ”And the text“ @C ”may be used when the initial display position is the center of the second display area. The viewing user can create a posted message so as to include the second command and transmit the posted message to the server device 20. The posted message may include the first command in addition to the second command. The second command may be stored in the storage 23 as part of the posted data 23e. When the posted message processing unit 21i reads the posted message from the storage 23 and the posted message is posted from the second user group, the posted message processing unit 21i displays the posted message at the initial display position designated by the second command. Display a posted message. When the posted message also includes the first command, the posted message processing unit 21i displays the posted message at the initial display position specified by the second command, and then the direction specified by the first command. You may be comprised so that it may move. The description format of the second command described above can be arbitrarily changed.

一態様において、投稿メッセージ処理部21iは、第2投稿メッセージの第2表示領域77における移動速度が第1投稿メッセージの第1表示領域76における移動速度よりも遅くなるように、各投稿メッセージの移動速度を調整することができる。     In one aspect, the posted message processing unit 21i moves each posted message so that the moving speed of the second posted message in the second display area 77 is slower than the moving speed of the first posted message in the first display area 76. The speed can be adjusted.

一態様において、投稿メッセージ処理部21iは、第1投稿メッセージが第1表示領域76に表示されている第1表示時間よりも、第2投稿メッセージが第2表示領域77に表示されている第2表示時間が長くなるように、各投稿メッセージの移動速度を調整することができる。第1投稿メッセージの移動方向における第1表示領域76の長さと第2投稿メッセージの移動方向における第2表示領域77の長さとが同じ場合には、上記のように、第2投稿メッセージの移動速度が第1投稿メッセージの移動速度よりも遅くなるようにすることで、第2投稿メッセージの表示時間を第1投稿メッセージの表示時間よりも長くすることができる。第1投稿メッセージと第2投稿メッセージの移動速度が同じ場合には、第2投稿メッセージの移動方向における第2表示領域73の長さを第1投稿メッセージの移動方向における第1表示領域76の長さよりも長くすることにより、第2投稿メッセージの表示時間を第1投稿メッセージの表示時間よりも長くすることができる。     In one aspect, the posted message processing unit 21 i is configured such that the second posted message is displayed in the second display area 77 than the first display time in which the first posted message is displayed in the first display area 76. The moving speed of each posted message can be adjusted so that the display time becomes longer. When the length of the first display area 76 in the moving direction of the first posted message is the same as the length of the second display area 77 in the moving direction of the second posted message, the moving speed of the second posted message is as described above. Is slower than the moving speed of the first posted message, the display time of the second posted message can be made longer than the display time of the first posted message. When the moving speeds of the first posted message and the second posted message are the same, the length of the second display area 73 in the moving direction of the second posted message is set to the length of the first displayed area 76 in the moving direction of the first posted message. By making it longer than this, the display time of the second posted message can be made longer than the display time of the first posted message.

一態様においては、カメラワークにより、配信動画の表示を変更することができる。上記のとおり、図13に示されている配信動画の表示画像130は、アクターA1及びアクターA2の正面にあるトラッキングセンサ36bのトラッキング情報に基づいて生成されている。つまり、表示画像130は、トラッキングセンサ36bがアクティブセンサとされているときに生成されている。このため、図13の表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは正面を向いている。アクティブセンサをトラッキングセンサ36bからトラッキングセンサ36aに切り替えることにより、トラッキングセンサ36aのトラッキング情報に基づいて生成された仮想空間を含む動画が生成される。トラッキングセンサ36aのトラッキング情報に基づいて生成された動画の表示画像の例が図14に示されている。トラッキングセンサ36aは、アクターA1及びアクターA2の左前方にあるため、表示画像130において、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bは、正面以外の方向(右前方)を向いている。また、スクリーンオブジェクト131、当該スクリーンオブジェクト131の表面に設けられている第2表示領域77、及び当該第2表示領域77に表示される第2投稿メッセージも傾いて表示されている。このように、第2表示領域77(またはスクリーンオブジェクト131)の仮想空間における位置及び向きは、いずれのトラッキングセンサがアクティブセンサとして用いられるかによって定められる。また、アクティブセンサの位置又は向きを変更すると、それに応じて、第2表示領域77(またはスクリーンオブジェクト131)の仮想空間における位置又は向きも変更される。図14に示されているトラッキングセンサ36aがアクティブセンサの場合の表示画像130における第2表示領域77(またはスクリーンオブジェクト131)は、図13に示されているトラッキングセンサ36aがアクティブセンサの場合の表示画像における表示画像130における第2表示領域77(またはスクリーンオブジェクト131)よりも、斜め方向から見ている分だけ小さく表示されている。     In one mode, display of a distribution animation can be changed by camera work. As described above, the distribution moving image display image 130 illustrated in FIG. 13 is generated based on the tracking information of the tracking sensor 36b in front of the actor A1 and the actor A2. That is, the display image 130 is generated when the tracking sensor 36b is an active sensor. For this reason, in the display image 130 of FIG. 13, the character object 71A and the character object 71B are facing the front. By switching the active sensor from the tracking sensor 36b to the tracking sensor 36a, a moving image including the virtual space generated based on the tracking information of the tracking sensor 36a is generated. An example of a moving image display image generated based on the tracking information of the tracking sensor 36a is shown in FIG. Since the tracking sensor 36a is on the left front of the actor A1 and the actor A2, in the display image 130, the character object 71A and the character object 71B face in directions other than the front (front right). Further, the screen object 131, the second display area 77 provided on the surface of the screen object 131, and the second posted message displayed in the second display area 77 are also tilted and displayed. As described above, the position and orientation of the second display region 77 (or the screen object 131) in the virtual space are determined depending on which tracking sensor is used as the active sensor. Further, when the position or orientation of the active sensor is changed, the position or orientation of the second display area 77 (or screen object 131) in the virtual space is also changed accordingly. The second display region 77 (or screen object 131) in the display image 130 when the tracking sensor 36a shown in FIG. 14 is an active sensor is displayed when the tracking sensor 36a shown in FIG. 13 is an active sensor. The image is displayed smaller than the second display area 77 (or the screen object 131) in the display image 130 by an amount viewed from an oblique direction.

アクティブセンサがトラッキングセンサ36bからトラッキングセンサ36aに切り替えられると、仮想空間における仮想カメラの位置(視点の位置)も変更されるため、第2表示領域77の仮想空間における位置や向きも変更される。例えば、トラッキングセンサ36bがアクティブセンサとされている図13の表示画像においては、第2投稿メッセージ77a〜77dの各々の位置がキャラクタオブジェクト71Aまたはキャラクタオブジェクト71Bの後ろに隠れているが、トラッキングセンサ36aがアクティブセンサとされている図14の表示画像130においては、第2投稿メッセージ77cのみがキャラクタオブジェクトの後ろに隠れており、視点の移動によって、第2投稿メッセージ77a,77b,及び77dは、キャラクタオブジェクトの後ろに隠れず、その全体が視認可能になっている。このように、アクティブセンサの切り替えによって、仮想空間における視点を移動させることにより、キャラクタオブジェクトの後ろに隠れていた第2投稿メッセージを視認しやすくすることができる。     When the active sensor is switched from the tracking sensor 36b to the tracking sensor 36a, the position (viewpoint position) of the virtual camera in the virtual space is also changed, so the position and orientation of the second display area 77 in the virtual space are also changed. For example, in the display image of FIG. 13 in which the tracking sensor 36b is an active sensor, the positions of the second posted messages 77a to 77d are hidden behind the character object 71A or the character object 71B. 14, only the second posted message 77c is hidden behind the character object, and the second posted messages 77a, 77b, and 77d are displayed as characters by moving the viewpoint. The entire object is visible without being hidden behind the object. In this way, by moving the viewpoint in the virtual space by switching the active sensor, it is possible to make the second posted message hidden behind the character object easily visible.

次に、図15を参照して、一態様による動画配信処理について説明する。図15は、一実施形態における動画配信処理の流れを示すフロー図である。動画配信処理においては、スタジオルームRにアクターA1及びアクターA2が在室していることが想定されている。     Next, with reference to FIG. 15, a moving image distribution process according to an aspect will be described. FIG. 15 is a flowchart showing the flow of the moving image distribution process in the embodiment. In the moving image distribution process, it is assumed that the actor A1 and the actor A2 are present in the studio room R.

まず、ステップS11では、アクターA1及びアクターA2の体の動きのデジタル表現であるボディモーションデータと、アクターA1及びアクターA2の顔の動き(表情)のデジタル表現であるフェイスモーションデータと、が生成される。ボディモーションデータの生成は、例えば、上記のボディモーションデータ生成部21aで行われ、フェイスモーションデータの生成は、例えば、上記のフェイスモーションデータ生成部21bで行われる。     First, in step S11, body motion data that is a digital representation of the body movements of the actors A1 and A2 and face motion data that is a digital representation of the facial movements (expressions) of the actors A1 and A2 are generated. The For example, the body motion data is generated by the body motion data generation unit 21a, and the face motion data is generated by the face motion data generation unit 21b.

次に、ステップS12において、アクターA1のボディモーションデータ及びフェイスモーションデータを、アクターA1用のモデルデータに適用することにより、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーションが生成される。同様に、アクターA2のボディモーションデータ及びフェイスモーションデータを、アクターA2用のモデルデータに適用することにより、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションが生成される。このアニメーションの生成は、例えば、上記のアニメーション生成部21cで行われる。     Next, in step S12, by applying the body motion data and face motion data of the actor A1 to the model data for the actor A1, the animation of the first character object that moves in synchronization with the movement of the body and expression of the actor A1. Is generated. Similarly, by applying the body motion data and face motion data of the actor A2 to the model data for the actor A2, an animation of the second character object that moves in synchronization with the movement of the body and expression of the actor A2 is generated. . For example, the animation generation unit 21c generates the animation.

次に、ステップS13において、仮想空間の画像と、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。この動画には、アクターA1及びアクターA2の音声が合成されてもよい。第1キャラクタオブジェクトのアニメーション及び第2キャラクタオブジェクトのアニメーションは、仮想空間内に配置されてもよい。この動画の生成は、例えば、上記の動画生成部21dで行われる。     Next, in step S13, a moving image including a virtual space image, an animation of the first character object corresponding to the actor A1, and an animation of the second character object corresponding to the actor A2 is generated. The voices of the actor A1 and the actor A2 may be synthesized with this moving image. The animation of the first character object and the animation of the second character object may be arranged in the virtual space. For example, the moving image generation unit 21d generates the moving image.

次に、ステップS14に移行し、ステップS13にて生成された動画が配信される。この動画は、ネットワーク50を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。この動画は、サポーターコンピュータ40に配信され、また、スタジオルームR内のスクリーンSに投影されてもよい。動画は、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、及びこれら以外の任意の時間に定め得る。     Next, it transfers to step S14 and the moving image produced | generated in step S13 is delivered. This moving image is distributed via the network 50 to the client devices 10a to 10c and other client devices. This moving image may be distributed to the supporter computer 40 and projected onto the screen S in the studio room R. The moving image is continuously distributed over a predetermined distribution period. The distribution period of the moving image can be set to, for example, 30 seconds, 1 minute, 5 minutes, 10 minutes, 30 minutes, 60 minutes, 120 minutes, and any other time.

次に、ステップS15に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したこと、サポーターコンピュータ40により配信を終了するための指示がなされたこと、またはこれら以外の条件である。終了条件が成就していなければステップS11〜S14の処理が繰り返し実行され、アクターA1及びアクターA2の動きに同期したアニメーションを含む動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。     Next, it progresses to step S15 and it is determined whether the completion | finish conditions for ending the delivery of a moving image were fulfilled. The end condition is, for example, that the end time of distribution has been reached, that the support computer 40 has instructed to end the distribution, or other conditions. If the end condition is not fulfilled, the processes of steps S11 to S14 are repeatedly executed, and the distribution of the moving image including the animation synchronized with the movement of the actor A1 and the actor A2 is continued. When it is determined that the end condition is satisfied for the moving image, the moving image distribution process is ended.

次に、図17及び図18を参照して、本発明の他の実施形態について説明する。図17は、本発明の他の実施形態においてクライアント装置10aにおいて再生されている動画に表示される投稿メッセージの表示例を示し、図18は、当該他の実施形態における投稿メッセージ表示処理の流れを示すフロー図である。     Next, another embodiment of the present invention will be described with reference to FIGS. 17 and 18. FIG. 17 shows a display example of a posted message displayed on a moving image being played back on the client device 10a in another embodiment of the present invention, and FIG. 18 shows a flow of posted message display processing in the other embodiment. FIG.

図17に示されている表示画像170は、第1表示領域176と、第2表示領域177と、を含んでいる。第1表示領域176には、第1投稿メッセージ176a〜176dが表示されており、第2表示領域177には、第2投稿メッセージ177aが表示されている。図17に示されている実施形態においては、投稿メッセージ処理部21iは、第1ユーザグループに属する視聴ユーザからの投稿メッセージ(第1投稿メッセージ)を第1表示領域76に表示し、第2ユーザグループに属する視聴ユーザからの投稿メッセージ(第2投稿メッセージ)を第2表示領域177に表示するための処理を行う。     A display image 170 shown in FIG. 17 includes a first display area 176 and a second display area 177. First posted messages 176a to 176d are displayed in the first display area 176, and second posted messages 177a are displayed in the second display area 177. In the embodiment shown in FIG. 17, the posted message processing unit 21i displays a posted message (first posted message) from a viewing user belonging to the first user group in the first display area 76, and the second user. Processing for displaying a posted message (second posted message) from a viewing user belonging to the group in the second display area 177 is performed.

図18に示されている投稿メッセージの表示処理においては、動画の配信中に当該動画に対する投稿メッセージがクライアント装置から当該動画を配信するサーバ装置20に投稿されることが想定されている。投稿メッセージの表示処理は、図15に示した動画の配信処理と並行して行われる。サーバ装置20において受信された投稿メッセージは、ストレージ23に投稿データ23eとして記憶される。     In the posted message display process shown in FIG. 18, it is assumed that a posted message for the moving image is posted from the client device to the server device 20 that distributes the moving image during distribution of the moving image. The posted message display process is performed in parallel with the moving image distribution process shown in FIG. The posted message received by the server device 20 is stored in the storage 23 as posted data 23e.

ステップS21においては、ストレージ23に記憶された投稿メッセージが読み出される。投稿メッセージは、例えば、投稿順に読み出される。     In step S21, the posted message stored in the storage 23 is read. The posted messages are read out in the order of posting, for example.

次に、ステップS22において、ストレージ23から読み出された投稿メッセージを投稿した視聴ユーザが、いずれのユーザグループに属しているかが判定される。投稿データ23eにおいては、投稿メッセージを投稿した視聴ユーザのアカウント情報及び当該視聴ユーザが属するユーザグループを示すグループ情報と対応付けて当該投稿メッセージが記憶されているので、投稿データ23eを参照することにより、投稿メッセージを投稿したユーザが属するユーザグループを特定することができる。 Next, in step S22, it is determined to which user group the viewing user who has posted the posted message read from the storage 23 belongs. In the posted data 23e, since the posted message is stored in association with the account information of the viewing user who posted the posted message and the group information indicating the user group to which the viewing user belongs, by referring to the posted data 23e The user group to which the user who posted the posted message belongs can be specified.

投稿メッセージを投稿した視聴ユーザが第1ユーザグループに属すると判定された場合には表示処理はステップS23に進み、投稿メッセージを投稿した視聴ユーザが第2ユーザグループに属すると判定された場合には表示処理はステップS24に進む。     When it is determined that the viewing user who posted the posted message belongs to the first user group, the display process proceeds to step S23, and when it is determined that the viewing user who posted the posted message belongs to the second user group. The display process proceeds to step S24.

ステップS23においては、ステップS21において読み出された投稿メッセージが第1表示領域(例えば、第1表示領域76)に表示される。     In step S23, the posted message read in step S21 is displayed in the first display area (for example, the first display area 76).

ステップS24においては、ステップS21において読み出された投稿メッセージが第2表示領域(例えば、第2表示領域77)に表示される。     In step S24, the posted message read in step S21 is displayed in the second display area (for example, second display area 77).

以上のように、ストレージ23から読み出された投稿メッセージが、当該投稿メッセージを投稿したユーザが属するユーザグループに応じた表示領域に表示される。     As described above, the posted message read from the storage 23 is displayed in the display area corresponding to the user group to which the user who posted the posted message belongs.

上記の一実施形態によれば、第1投稿メッセージが表示される第1表示領域76と、第2投稿メッセージが表示される一方で第1投稿メッセージは表示されない第2表示領域77と、を含む動画が配信される。これにより、投稿メッセージを投稿したユーザが属するユーザグループに応じて、当該投稿メッセージの表示領域を割り当てることができる。従来は、表示画面の所定領域に投稿メッセージ用の表示領域が一つのみ設けられているため、様々なユーザグループのユーザからの投稿メッセージが同じ表示領域に表示されている。これに対して、上記の実施形態によれば、投稿メッセージを投稿したユーザが属するユーザグループに応じて、当該投稿メッセージの表示処理が行われる。これにより、投稿メッセージの表示態様を多様化することができる。     According to the above embodiment, the first display area 76 in which the first posted message is displayed and the second display area 77 in which the second posted message is displayed but the first posted message is not displayed are included. A video is delivered. Thereby, according to the user group to which the user who posted the posted message belongs, the display area of the posted message can be allocated. Conventionally, since only one display area for posted messages is provided in a predetermined area of the display screen, posted messages from users in various user groups are displayed in the same display area. On the other hand, according to said embodiment, the display process of the said posting message is performed according to the user group to which the user who posted the posting message belongs. Thereby, the display mode of a contribution message can be diversified.

一実施形態においては、第2表示領域77の一部がキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に配されている。これにより、第2投稿メッセージを他のユーザの注目をより集めやすい領域に表示することができる。     In one embodiment, a part of the second display area 77 is arranged behind the character object 71A and the character object 71B. As a result, the second posted message can be displayed in an area where it is easier to collect the attention of other users.

一実施形態においては、第2表示領域77は、アクターA1及びアクターA2がパフォーマンスを披露する第2配信期間において動画に含められる。第2表示領域77は、このアクターA1及びアクターA2のパフォーマンスに応じてモーション制御されるキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に表示されるので、他のユーザの注目をより集めやすい。また、第2表示領域77は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bの背後に配されるので、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bのパフォーマンスの視聴の妨げにもなりにくい。 In one embodiment, the second display area 77 is included in the moving image during the second distribution period in which the actor A1 and the actor A2 perform. Since the second display area 77 is displayed behind the character object 71A and the character object 71B that are motion-controlled according to the performance of the actor A1 and the actor A2, it is easier to attract the attention of other users. In addition, since the second display area 77 is arranged behind the character object 71A and the character object 71B, it is difficult to prevent the performance of the character object 71A and the character object 71B from being viewed.

一実施形態においては、第1表示領域76とキャラクタオブジェクト71A及びキャラクタオブジェクト71Bの少なくとも一方とが重複して表示される場合には、キャラクタオブジェクトが第1表示領域76の背後に配される。これにより、視聴ユーザやアクターA1及びアクターA2による投稿メッセージの表示がより重視される配信期間においては、投稿メッセージがキャラクタオブジェクトの背後に隠されることなく表示される。     In one embodiment, when the first display area 76 and at least one of the character object 71 </ b> A and the character object 71 </ b> B are displayed overlappingly, the character object is arranged behind the first display area 76. Thereby, in the distribution period in which display of posted messages by the viewing user or actor A1 and actor A2 is more important, the posted message is displayed without being hidden behind the character object.

このように、上記実施形態によれば、動画の内容(例えば、アクターがパフォーマンスを実施中か否か)に応じて投稿メッセージの表示態様を変更することができる。よって、視聴ユーザによる動画の視聴体験を劣化させることなく、投稿メッセージの表示態様を多様化することができる。     Thus, according to the above embodiment, the display mode of the posted message can be changed according to the content of the moving image (for example, whether or not the actor is performing a performance). Therefore, the display mode of the posted message can be diversified without deteriorating the viewing experience of the moving image by the viewing user.

上記の実施形態において、第2ユーザグループに属する視聴ユーザは、投稿メッセージの表示に関して、第1ユーザグループに属する視聴ユーザよりも優遇されたサービスまたは優れた機能の提供を受けることができる。     In the above-described embodiment, the viewing user belonging to the second user group can receive a preferential service or a superior function than the viewing user belonging to the first user group regarding the display of the posted message.

例えば、第2ユーザグループに属する視聴ユーザは、第1コマンドを用いて第2投稿メッセージの移動方向を指定したり、第2コマンドを用いて第2投稿メッセージの表示開始位置を指定することができる。これにより、第2ユーザグループに属する視聴ユーザは、自らの投稿メッセージをより注目を集めやすい方向に移動させたり、より注目を集めやすい位置に表示させたりすることができる。他方、第1ユーザグループに属する視聴ユーザは、投稿メッセージの移動方向の指定や、初期表示位置の指定を行うことができない。     For example, a viewing user belonging to the second user group can specify the moving direction of the second posted message using the first command, or can specify the display start position of the second posted message using the second command. . Thereby, the viewing user belonging to the second user group can move his / her post message in a direction in which attention is more easily collected or displayed at a position where attention is more easily collected. On the other hand, viewing users belonging to the first user group cannot specify the moving direction of the posted message or the initial display position.

上記の一実施形態において、第2表示領域77における第2投稿メッセージの移動速度は、第1表示領域76における第1投稿メッセージの移動速度よりも遅くなるように、投稿メッセージの表示制御が行われる。これにより、第2ユーザーグループに属する視聴ユーザは、第1ユーザグループに属する視聴ユーザよりも、自らの投稿メッセージを表示画面上に長く表示させることができる。     In the above embodiment, posted message display control is performed so that the moving speed of the second posted message in the second display area 77 is slower than the moving speed of the first posted message in the first display area 76. . Thereby, the viewing user belonging to the second user group can display his / her post message on the display screen longer than the viewing user belonging to the first user group.

上記の一実施形態において、第2ユーザグループに属する視聴ユーザは、第1配信期間161,163及び第2配信期間162のいずれにおいてもメッセージを投稿することができる。これに対して、第1ユーザグループに属するユーザは、第1配信期間161,163においてのみメッセージを投稿することができる。   In the above embodiment, a viewing user belonging to the second user group can post a message in any of the first distribution periods 161 and 163 and the second distribution period 162. On the other hand, users belonging to the first user group can post messages only during the first distribution periods 161 and 163.

本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、配信される動画は、スタジオルームR以外で撮影及び生成されてもよい。例えば、配信される動画を生成するための撮影は、アクターやサポーターの自宅で行われてもよい。     The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the scope of the invention. For example, the distributed video may be shot and generated outside the studio room R. For example, shooting for generating a moving image to be distributed may be performed at the home of an actor or supporter.

視聴ユーザから投稿された投稿メッセージは、ストレージ23に記憶されなくてもよい。この場合、投稿メッセージ処理部21iは、クライアント装置から受信した投稿メッセージを解析して当該投稿メッセージを投稿したユーザが属するユーザグループを特定し、この特定されたユーザグループに応じた表示領域に当該投稿メッセージを表示することができる。     The posted message posted by the viewing user may not be stored in the storage 23. In this case, the posted message processing unit 21i analyzes the posted message received from the client device, identifies the user group to which the user who posted the posted message belongs, and displays the posted message in the display area corresponding to the identified user group. A message can be displayed.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。     In the processing procedure described in this specification, particularly in the processing procedure described with reference to the flowchart, a part of the steps (steps) constituting the processing procedure is omitted, and the steps constituting the processing procedure are as follows. It is possible to add a process that is not explicitly specified and / or change the order of the process, and the processing procedure in which such omission, addition, or change of the order is made does not depart from the spirit of the present invention. It is included in the scope of the invention.

以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ、第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージ、及び前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、
前記第1ユーザは、前記第2ユーザグループには所属しておらず、
前記第2ユーザは、前記第1ユーザグループには所属しておらず、
前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザであり、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する、
動画配信システム。
[2]
第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージ及び第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージ、を記憶するストレージと、一又は複数のコンピュータプロセッサと、を備え、
前記第1ユーザは、前記第2ユーザグループには所属しておらず、
前記第2ユーザは、前記第1ユーザグループには所属しておらず、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行することにより、
前記第1投稿メッセージ及び及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信し、
前記第2ユーザは、前記動画の視聴状況が所定条件を満たしたユーザである、
動画配信システム。
[3]
前記第2ユーザグループは、前記第1ユーザグループよりも少ない数のユーザから構成される、
[1]又は[2]に記載の動画配信システム。
[4]
前記第1投稿メッセージは、前記第1表示領域において第1方向に移動する、
[1]から[3]のいずれか1項に記載の動画配信システム。
[5]
前記第2投稿メッセージは、前記第2表示領域において第2方向に移動する、
[1]から[4]のいずれか1項に記載の動画配信システム。
[6]
前記第2方向は、前記第2投稿メッセージに含まれる第1コマンドに応じて変化する、
[5]に記載の動画配信システム。
[7]
前記第2表示領域における前記第2投稿メッセージの初期表示位置は、前記第2投稿メッセージに含まれる第2コマンドに応じて変化する、
[5]又は[6]に記載の動画配信システム。
[8]
前記第2投稿メッセージの前記第2表示領域における移動速度は前記第1投稿メッセージの前記第1表示領域における移動速度よりも遅い、
[1]から[7]のいずれか1項に記載の動画配信システム。
[9]
前記第2投稿メッセージが前記第2表示領域に表示されている表示時間は、前記第1投稿メッセージが前記第1表示領域に表示されている表示時間よりも長い、
[1]から[8]のいずれか1項に記載の動画配信システム。
[10]
前記第1表示領域には、前記第1投稿メッセージ以外の情報も表示される、
[1]から[9]のいずれか1項に記載の動画配信システム。
[11]
前記第1投稿メッセージ以外の情報には、前記オブジェクトの提供が行われたことを示す通知が含まれる、
[10]に記載の動画配信システム。
[12]
前記一又は複数のコンピュータプロセッサの少なくとも一部はサーバ装置に備えられており、
前記第1投稿メッセージ以外の情報には、前記サーバ装置からの通知が含まれる、
[10]又は[11]に記載の動画配信システム。
[13]
前記オブジェクトは、電子的ギフトである[1]から[12]のいずれか1項に記載の動画配信システム。
[14]
前記動画は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む、
[1]から[13]のいずれか1項に記載の動画配信システム。
[15]
前記第2表示領域の少なくとも一部は、前記キャラクタオブジェクトの背後に配されている、[14]に記載の動画配信システム。
[16]
前記第1表示領域及び前記キャラクタオブジェクトが重複して表示される場合には、前記キャラクタオブジェクトが前記第1表示領域の背後に配される、
[14]または[15]に記載の動画配信システム。
[17]
複数のカメラをさらに備え、
前記複数のカメラの中から選択されたアクティブセンサのトラッキング情報に基づいて構成された仮想空間の画像を含む、
[1]から[16]のいずれか1項に記載の動画配信システム。
[18]
前記第2表示領域は、前記仮想空間内の表示用オブジェクトに設けられ、
前記第2表示領域の前記仮想空間における位置及び向きは、前記アクティブセンサのトラッキング情報に応じて変更される、
[17]に記載の動画配信システム。
[19]
前記第2表示領域は、前記仮想空間内に設けられ、
前記第2表示領域の前記仮想空間における大きさは、前記アクティブセンサの位置及び向きに応じて変更される、
[17]又は[18]に記載の動画配信システム。
[20]
前記第1表示領域は、第1配信期間において前記動画に含まれており、前記第2表示領域は、第2配信期間において前記動画に含まれている、[1]から[19]のいずれか1項に記載の動画配信システム。
[21]
前記第1ユーザはクライアント装置を用いて第1投稿メッセージを投稿し、
前記第2配信期間においては、前記クライアント装置は、前記第1投稿メッセージの投稿を行わないように構成される、
[1]から[20]のいずれか1項に記載の動画配信システム。
[22]
前記電子的ギフトは前記仮想空間においてギフトオブジェクトとして表示され、
前記第2表示領域は、前記仮想空間内の前記ギフトオブジェクトに設けられる、
[13]に記載の動画配信システム。
[23]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、
第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、
前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する工程と、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、
を備え、
前記第1ユーザは、前記第2ユーザグループには所属しておらず、
前記第2ユーザは、前記第1ユーザグループには所属しておらず、
前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである、
動画配信方法。
[24]
一又は複数のコンピュータプロセッサに実行されるプログラムであって、
前記一又は複数のコンピュータプロセッサに、
第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、
第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、
前記第1ユーザ及び前記第2ユーザの少なくとも一方によって提供されたオブジェクトを記憶する工程と、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、
を実行させ、
前記第1ユーザは、前記第2ユーザグループには所属しておらず、
前記第2ユーザは、前記第1ユーザグループには所属しておらず、
前記第2ユーザは、前記オブジェクトに関するパラメータが所定条件を満たしたユーザである、
動画配信プログラム。
[25]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、
第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、
を備え、
前記第1ユーザは、前記第2ユーザグループには所属しておらず、
前記第2ユーザは、前記第1ユーザグループには所属しておらず、
前記第2ユーザは、前記動画の視聴状況が所定条件を満たしたユーザである、
動画配信方法。
[26]
一又は複数のコンピュータプロセッサに実行されるプログラムであって、
前記一又は複数のコンピュータプロセッサに、
第1ユーザグループに含まれる第1ユーザによって投稿された第1投稿メッセージを記憶する工程と、
第2ユーザグループに含まれる第2ユーザによって投稿された第2投稿メッセージを記憶する工程と、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第2表示領域と、を含む動画を配信する工程と、
を実行させ、
前記第1ユーザは、前記第2ユーザグループには所属しておらず、
前記第2ユーザは、前記第1ユーザグループには所属しておらず、
前記第2ユーザは、前記動画の視聴状況が所定条件を満たしたユーザである、
動画配信プログラム。
The invention described in the scope of claims at the beginning of application of the original application of the present application will be appended below.
[1]
A first posted message posted by a first user included in the first user group, a second posted message posted by a second user included in the second user group, and at least one of the first user and the second user A storage for storing an object provided by one and one or more computer processors;
The first user does not belong to the second user group,
The second user does not belong to the first user group,
The second user is a user whose parameters related to the object satisfy a predetermined condition,
The one or more computer processors execute computer-readable instructions,
A moving image including: a first display area capable of displaying the first posted message and the second posted message; and a second display area capable of displaying the second posted message but not displaying the first posted message. Deliver,
Video distribution system.
[2]
A storage for storing a first posted message posted by a first user included in the first user group and a second posted message posted by a second user included in the second user group; and one or more computer processors And comprising
The first user does not belong to the second user group,
The second user does not belong to the first user group,
The one or more computer processors execute computer-readable instructions,
A first display area capable of displaying the first posted message and the second posted message; and a second display area capable of displaying the second posted message but not displaying the first posted message. Deliver video,
The second user is a user whose viewing condition of the moving image satisfies a predetermined condition.
Video distribution system.
[3]
The second user group is composed of a smaller number of users than the first user group.
The moving image distribution system according to [1] or [2].
[4]
The first posted message moves in the first direction in the first display area.
The moving image distribution system according to any one of [1] to [3].
[5]
The second posted message moves in the second direction in the second display area.
The moving image distribution system according to any one of [1] to [4].
[6]
The second direction changes according to a first command included in the second posted message.
The moving image distribution system according to [5].
[7]
The initial display position of the second posted message in the second display area changes according to a second command included in the second posted message.
The moving image distribution system according to [5] or [6].
[8]
The moving speed of the second posted message in the second display area is slower than the moving speed of the first posted message in the first display area;
The moving image distribution system according to any one of [1] to [7].
[9]
The display time during which the second posted message is displayed in the second display area is longer than the display time during which the first posted message is displayed in the first display area.
The moving image distribution system according to any one of [1] to [8].
[10]
Information other than the first posted message is also displayed in the first display area.
The moving image distribution system according to any one of [1] to [9].
[11]
The information other than the first posted message includes a notification indicating that the object has been provided.
[10] The moving picture distribution system according to [10].
[12]
At least a part of the one or more computer processors is provided in a server device,
Information other than the first posted message includes a notification from the server device,
The moving image distribution system according to [10] or [11].
[13]
The moving image distribution system according to any one of [1] to [12], wherein the object is an electronic gift.
[14]
The animation includes an animation of a character object generated based on an actor's movement.
The moving image distribution system according to any one of [1] to [13].
[15]
The moving image distribution system according to [14], wherein at least a part of the second display area is arranged behind the character object.
[16]
When the first display area and the character object are displayed in an overlapping manner, the character object is arranged behind the first display area.
[14] The moving image distribution system according to [15].
[17]
A plurality of cameras,
Including an image of a virtual space configured based on tracking information of an active sensor selected from the plurality of cameras;
The moving image distribution system according to any one of [1] to [16].
[18]
The second display area is provided in a display object in the virtual space,
The position and orientation of the second display area in the virtual space are changed according to tracking information of the active sensor.
[17] The moving image distribution system according to [17].
[19]
The second display area is provided in the virtual space,
The size of the second display area in the virtual space is changed according to the position and orientation of the active sensor.
[17] or the video distribution system according to [18].
[20]
Any one of [1] to [19], wherein the first display area is included in the video during the first distribution period, and the second display area is included in the video during the second distribution period. The moving image distribution system according to item 1.
[21]
The first user posts a first posted message using a client device,
In the second distribution period, the client device is configured not to post the first posted message.
The moving image distribution system according to any one of [1] to [20].
[22]
The electronic gift is displayed as a gift object in the virtual space,
The second display area is provided in the gift object in the virtual space;
The moving image distribution system according to [13].
[23]
A video distribution method executed by one or more computer processors executing computer-readable instructions,
Storing a first posted message posted by a first user included in the first user group;
Storing a second posted message posted by a second user included in the second user group;
Storing an object provided by at least one of the first user and the second user;
A moving image including: a first display area capable of displaying the first posted message and the second posted message; and a second display area capable of displaying the second posted message but not displaying the first posted message. And the process of delivering
With
The first user does not belong to the second user group,
The second user does not belong to the first user group,
The second user is a user whose parameters related to the object satisfy a predetermined condition.
Video delivery method.
[24]
A program executed on one or more computer processors,
The one or more computer processors;
Storing a first posted message posted by a first user included in the first user group;
Storing a second posted message posted by a second user included in the second user group;
Storing an object provided by at least one of the first user and the second user;
A moving image including: a first display area capable of displaying the first posted message and the second posted message; and a second display area capable of displaying the second posted message but not displaying the first posted message. And the process of delivering
And execute
The first user does not belong to the second user group,
The second user does not belong to the first user group,
The second user is a user whose parameters related to the object satisfy a predetermined condition.
Video distribution program.
[25]
A video distribution method executed by one or more computer processors executing computer-readable instructions,
Storing a first posted message posted by a first user included in the first user group;
Storing a second posted message posted by a second user included in the second user group;
A moving image including: a first display area capable of displaying the first posted message and the second posted message; and a second display area capable of displaying the second posted message but not displaying the first posted message. And the process of delivering
With
The first user does not belong to the second user group,
The second user does not belong to the first user group,
The second user is a user whose viewing condition of the moving image satisfies a predetermined condition.
Video delivery method.
[26]
A program executed on one or more computer processors,
The one or more computer processors;
Storing a first posted message posted by a first user included in the first user group;
Storing a second posted message posted by a second user included in the second user group;
A moving image including: a first display area capable of displaying the first posted message and the second posted message; and a second display area capable of displaying the second posted message but not displaying the first posted message. And the process of delivering
And execute
The first user does not belong to the second user group,
The second user does not belong to the first user group,
The second user is a user whose viewing condition of the moving image satisfies a predetermined condition.
Video distribution program.

符合の説明Explanation of sign

1 動画配信システム     1 Video distribution system

Claims (9)

調整可能な分類基準に従って第1ユーザグループに分類された第1ユーザによって投稿
された第1投稿メッセージ及び前記分類基準に従って第2ユーザグループに分類された第
2ユーザによって投稿された第2投稿メッセージを記憶するストレージと、一又は複数の
コンピュータプロセッサと、を備え、
前記一又は複数のコンピュータプロセッサは、コンピュータ読み取り可能な命令を実行
することにより、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前
記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第
2表示領域と、を含む動画を配信する、
動画配信システム。
A first posted message posted by a first user classified into a first user group according to an adjustable classification criterion and a second posted message posted by a second user classified into a second user group according to the classification criterion A storage for storing, and one or more computer processors,
The one or more computer processors execute computer-readable instructions,
A moving image including: a first display area capable of displaying the first posted message and the second posted message; and a second display area capable of displaying the second posted message but not displaying the first posted message. Deliver,
Video distribution system.
前記一又は複数のコンピュータプロセッサは、前記第1ユーザグループに属する第1視
聴ユーザの数が前記第2ユーザグループに属する第2視聴ユーザの数よりも少なくなるよ
うに前記分類基準を調整する、
請求項1に記載の動画配信システム。
The one or more computer processors adjust the classification criteria so that the number of first viewing users belonging to the first user group is less than the number of second viewing users belonging to the second user group;
The moving image distribution system according to claim 1.
前記一又は複数のコンピュータプロセッサは、前記第2ユーザグループに属する第2視
聴ユーザの数と前記第1ユーザグループに属する第1視聴ユーザの数との差が所定数より
も小さくなった場合に、前記分類基準を調整する、
請求項1又は請求項2に記載の動画配信システム。
The one or more computer processors, when the difference between the number of second viewing users belonging to the second user group and the number of first viewing users belonging to the first user group is smaller than a predetermined number, Adjusting the classification criteria;
The moving image distribution system according to claim 1 or 2.
前記一又は複数のコンピュータプロセッサは、前記動画を視聴する視聴ユーザによる前記動画の視聴時間及び前記分類基準に基づいて、前記視聴ユーザを前記第1ユーザグループ又は前記第2ユーザグループのいずれかに分類する、
請求項1から請求項3のいずれか1項に記載の動画配信システム。
The one or more computer processors classify the viewing user into either the first user group or the second user group based on the viewing time of the moving image by the viewing user who views the moving image and the classification criteria. To
The moving image distribution system according to any one of claims 1 to 3.
前記一又は複数のコンピュータプロセッサは、前記動画を視聴する視聴ユーザによる前記動画の視聴回数及び前記分類基準に基づいて、前記視聴ユーザを前記第1ユーザグループ又は前記第2ユーザグループのいずれかに分類する、
請求項1から請求項4のいずれか1項に記載の動画配信システム。
The one or more computer processors classify the viewing user into either the first user group or the second user group based on the number of times the moving image is viewed by the viewing user who views the moving image and the classification criterion. To
The moving image distribution system according to any one of claims 1 to 4.
前記一又は複数のコンピュータプロセッサは、前記動画を視聴する視聴ユーザによる電子的ギフトの購入量又は購入金額及び前記分類基準に基づいて、前記視聴ユーザを前記第1ユーザグループ又は前記第2ユーザグループのいずれかに分類する、
請求項1から請求項5のいずれか1項に記載の動画配信システム。
The one or more computer processors determine the viewing user of the first user group or the second user group based on the purchase amount or purchase price of the electronic gift by the viewing user who views the moving image and the classification criteria. Classify either
The moving image distribution system according to any one of claims 1 to 5.
前記一又は複数のコンピュータプロセッサは、前記動画を視聴する視聴ユーザによって投稿された投稿メッセージの投稿数及び前記分類基準に基づいて、前記視聴ユーザを前記第1ユーザグループ又は前記第2ユーザグループのいずれかに分類する、
請求項1から請求項6のいずれか1項に記載の動画配信システム。
The one or more computer processors may select the viewing user as the first user group or the second user group based on the number of posted messages posted by the viewing user who views the moving image and the classification criteria. Classify
The moving image distribution system according to any one of claims 1 to 6.
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行するこ
とにより実行される動画を配信するための動画配信方法であって、
調整可能な分類基準に従って第1ユーザグループに分類された第1ユーザによって投稿
された第1投稿メッセージを記憶する工程と、
前記分類基準に従って第2ユーザグループに分類された第2ユーザによって投稿された
第2投稿メッセージを記憶する工程と、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前
記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第
2表示領域と、を含む動画を配信する工程と、
を備える動画配信方法。
A moving image distribution method for distributing a moving image executed by one or more computer processors executing computer-readable instructions,
Storing a first posted message posted by a first user classified into a first user group according to an adjustable classification criterion;
Storing a second posted message posted by a second user classified into a second user group according to the classification criteria;
A moving image including: a first display area capable of displaying the first posted message and the second posted message; and a second display area capable of displaying the second posted message but not displaying the first posted message. And the process of delivering
A video delivery method comprising:
一又は複数のコンピュータプロセッサに実行される動画を配信するためのプログラムで
あって、
前記一又は複数のコンピュータプロセッサに、
調整可能な分類基準に従って第1ユーザグループに分類された第1ユーザによって投稿
された第1投稿メッセージを記憶する工程と、
前記分類基準に従って第2ユーザグループに分類された第2ユーザによって投稿された
第2投稿メッセージを記憶する工程と、
前記第1投稿メッセージ及び前記第2投稿メッセージを表示可能な第1表示領域と、前
記第2投稿メッセージを表示可能とする一方で前記第1投稿メッセージは表示されない第
2表示領域と、を含む前記動画を配信する工程と、
を実行させる動画配信プログラム。
A program for delivering a moving image to be executed by one or more computer processors,
The one or more computer processors;
Storing a first posted message posted by a first user classified into a first user group according to an adjustable classification criterion;
Storing a second posted message posted by a second user classified into a second user group according to the classification criteria;
A first display area capable of displaying the first posted message and the second posted message; and a second display area capable of displaying the second posted message but not displaying the first posted message. The process of delivering videos,
A video distribution program that runs
JP2019045554A 2018-05-08 2019-03-13 Video distribution system that distributes video including messages from viewing users Active JP6592214B1 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2019045554A JP6592214B1 (en) 2019-03-13 2019-03-13 Video distribution system that distributes video including messages from viewing users
CN202210548253.7A CN115086736A (en) 2018-05-08 2019-05-07 Moving image distribution system, method thereof, and recording medium
CN202210559306.5A CN114915827A (en) 2018-05-08 2019-05-07 Moving image distribution system, method thereof, and recording medium
CN201910374844.5A CN110460893B (en) 2018-05-08 2019-05-07 Moving image distribution system, method thereof, and recording medium
US16/406,494 US11190848B2 (en) 2018-05-08 2019-05-08 Video distribution system distributing video that includes message from viewing user
JP2019170275A JP6951394B2 (en) 2019-03-13 2019-09-19 Video distribution system that distributes videos including messages from viewers
US17/474,982 US12137274B2 (en) 2018-05-08 2021-09-14 Video distribution system distributing video that includes message from viewing user
US18/530,400 US20240114214A1 (en) 2018-05-08 2023-12-06 Video distribution system distributing video that includes message from viewing user

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019045554A JP6592214B1 (en) 2019-03-13 2019-03-13 Video distribution system that distributes video including messages from viewing users

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018206760A Division JP6498832B1 (en) 2018-05-08 2018-11-01 Video distribution system that distributes video including messages from viewing users

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019170275A Division JP6951394B2 (en) 2019-03-13 2019-09-19 Video distribution system that distributes videos including messages from viewers

Publications (2)

Publication Number Publication Date
JP6592214B1 true JP6592214B1 (en) 2019-10-16
JP2019198065A JP2019198065A (en) 2019-11-14

Family

ID=68234873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019045554A Active JP6592214B1 (en) 2018-05-08 2019-03-13 Video distribution system that distributes video including messages from viewing users

Country Status (1)

Country Link
JP (1) JP6592214B1 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013222989A (en) * 2012-04-12 2013-10-28 Dowango:Kk Video display system, reproduction region designation server device, terminal device and program
CN106034068A (en) * 2015-03-20 2016-10-19 阿里巴巴集团控股有限公司 Method and device for private chat in group chat, client-side, server and system
JP6546886B2 (en) * 2016-09-01 2019-07-17 株式会社 ディー・エヌ・エー System, method, and program for distributing digital content

Also Published As

Publication number Publication date
JP2019198065A (en) 2019-11-14

Similar Documents

Publication Publication Date Title
JP6431233B1 (en) Video distribution system that distributes video including messages from viewing users
JP6382468B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
JP6420930B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
KR102481333B1 (en) A moving image distribution system, a moving image distribution method, and a moving image distribution program for distributing a moving image including animation of a character object generated based on the movement of an actor.
US20240114214A1 (en) Video distribution system distributing video that includes message from viewing user
JP6446154B1 (en) Video distribution system for live distribution of animation including animation of character objects generated based on actor movement
JP2023015139A (en) Moving image distribution system for live distribution of moving image including animation of character object generated on the basis of motion of actor
JP6951394B2 (en) Video distribution system that distributes videos including messages from viewers
JP7509389B2 (en) Video distribution system for distributing videos including messages from viewers
JP2024023273A (en) Video distribution system for distributing video including animation of character object generated based on motion of actor, video distribution method and video distribution program
JP6847138B2 (en) A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors.
JP6498832B1 (en) Video distribution system that distributes video including messages from viewing users
JP2019198059A (en) Video distribution system for live distribution of video including animation of character objects generated on the basis of actor&#39;s movement
JP6592214B1 (en) Video distribution system that distributes video including messages from viewing users
JP6431242B1 (en) Video distribution system that distributes video including messages from viewing users
JP2020043578A (en) Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor
US12137274B2 (en) Video distribution system distributing video that includes message from viewing user
JP6764442B2 (en) Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors.
JP2019198057A (en) Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement
JP2020005238A (en) Video distribution system, video distribution method and video distribution program for distributing a video including animation of character object generated based on motion of actor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190516

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190516

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20190516

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190530

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190717

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190919

R150 Certificate of patent or registration of utility model

Ref document number: 6592214

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250