JP2021132393A - Moving image distribution system for live distribution of moving image including animation of character object generated on the basis of motion of actor - Google Patents

Moving image distribution system for live distribution of moving image including animation of character object generated on the basis of motion of actor Download PDF

Info

Publication number
JP2021132393A
JP2021132393A JP2021082016A JP2021082016A JP2021132393A JP 2021132393 A JP2021132393 A JP 2021132393A JP 2021082016 A JP2021082016 A JP 2021082016A JP 2021082016 A JP2021082016 A JP 2021082016A JP 2021132393 A JP2021132393 A JP 2021132393A
Authority
JP
Japan
Prior art keywords
moving image
display
actor
video
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021082016A
Other languages
Japanese (ja)
Other versions
JP7167242B2 (en
Inventor
匡志 渡邊
Masashi Watanabe
匡志 渡邊
健悟 栗田
Kengo Kurita
健悟 栗田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GREE Inc
Original Assignee
GREE Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GREE Inc filed Critical GREE Inc
Priority to JP2021082016A priority Critical patent/JP7167242B2/en
Publication of JP2021132393A publication Critical patent/JP2021132393A/en
Priority to JP2022171851A priority patent/JP7460059B2/en
Application granted granted Critical
Publication of JP7167242B2 publication Critical patent/JP7167242B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)

Abstract

To provide a moving image distribution system, method, and program which facilitate coping with an unexpected situation occurring during live distribution.SOLUTION: A moving image distribution system 1 comprises: a server device 20 which performs live distribution of a moving image including an animation of a character object generated on the basis of actor's motion to a first client device used by a first user; and a supporter computer 40 which prohibits posting a message to a moving image to the first user based on fifth operation input.SELECTED DRAWING: Figure 1

Description

本明細書における開示は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システムに関する。 The disclosure in the present specification relates to a video distribution system for live distribution of a video including an animation of a character object generated based on the movement of an actor.

アクターの動きに基づいてキャラクタオブジェクトのアニメーションを生成し、かかるキャラクタオブジェクトのアニメーションを含む動画をライブ配信する動画配信システムが知られている。このような動画配信システムは、例えば、特開2015−184689号公報(特許文献1)に開示されている。 A video distribution system is known that generates an animation of a character object based on the movement of an actor and delivers a video including the animation of the character object live. Such a moving image distribution system is disclosed in, for example, Japanese Patent Application Laid-Open No. 2015-184689 (Patent Document 1).

特開2015−184689号公報JP 2015-184689

動画のライブ配信中には、アニメーションの生成に用いられる機器の不具合などの不測の事態が発生することがある。上記の従来の動画配信システムでは、アクターとカメラの操作者のみでライブ配信が行われている。アクターやカメラの操作者が不測の事態への対処を行うと、その対処のための動きがキャラクタオブジェクトの動きに反映されてしまったり、カメラワークが不適当になってしまうおそれがある。この結果、配信動画のクオリティに望ましくない影響が現れるおそれがある。 During live video distribution, unforeseen circumstances such as malfunctions in the equipment used to generate the animation may occur. In the above-mentioned conventional video distribution system, live distribution is performed only by the actor and the operator of the camera. When an actor or a camera operator deals with an unexpected situation, the movement for dealing with the unexpected situation may be reflected in the movement of the character object, or the camera work may become inappropriate. As a result, there may be an undesired effect on the quality of the delivered video.

本開示の目的は、上述した従来技術の問題の少なくとも一部を解決又は緩和する技術的な改善を提供することである。本開示のより具体的な目的の一つは、ライブ配信中に起こる不測の事態への対処を容易にする動画配信システムを提供することである。 An object of the present disclosure is to provide technical improvements that solve or alleviate at least some of the problems of the prior art described above. One of the more specific purposes of the present disclosure is to provide a video distribution system that facilitates coping with unforeseen circumstances that occur during live distribution.

一態様による動画配信システムは、一態様による動画配信システムは、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を第1表示装置及び第1ユーザが使用する第1クライアント装置にライブ配信するように構成された配信サーバ装置と、前記第1表示装置に表示されている前記動画に第1付加情報を表示させる一方で前記第1クライアント装置には前記第1付加情報を表示させないように構成されたサポーターコンピュータと、を備える。当該前記第1表示装置は、前記アクターによって使用されるものであってもよい。当該第1表示装置は、前記アクターが選択可能なオブジェクトを表示してもよい。 The video distribution system according to one aspect is a video distribution system according to one aspect, in which a moving image including an animation of a character object generated based on the movement of an actor is live on a first display device and a first client device used by a first user. The first additional information is displayed on the distribution server device configured for distribution and the moving image displayed on the first display device, while the first additional information is not displayed on the first client device. It is equipped with a supporter computer configured in. The first display device may be used by the actor. The first display device may display an object that can be selected by the actor.

一態様において、前記サポーターコンピュータは、第2操作入力に基づいて前記第1表示装置に表示されている前記動画及び前記第1クライアント装置に表示されている前記動画に第2付加情報を表示させるように構成される。 In one aspect, the supporter computer causes the moving image displayed on the first display device and the moving image displayed on the first client device to display the second additional information based on the second operation input. It is composed of.

一態様において、前記サポーターコンピュータは、第3操作入力に基づいて前記キャラクタオブジェクトの少なくとも一部を修正した修正キャラクタオブジェクトを生成させ、前記動画に前記修正キャラクタオブジェクトを含めるように構成される。 In one aspect, the supporter computer is configured to generate a modified character object that modifies at least a part of the character object based on a third operation input, and includes the modified character object in the moving image.

一態様において、前記キャラクタオブジェクトは、前記アクターの顔の動きを示すフェイスモーションデータに基づいて動くように生成されるフェイス部を有し、前記配信サーバ装置は、前記第3操作入力に基づいて、前記フェイス部に第3付加情報を表示するように構成される。 In one aspect, the character object has a face portion that is generated to move based on face motion data indicating the movement of the face of the actor, and the distribution server device is based on the third operation input. It is configured to display the third additional information on the face portion.

一態様において、前記キャラクタオブジェクトに関連づけて表示される装飾オブジェクトを記憶するストレージをさらに備え、前記サポーターコンピュータは、第4操作入力に基づいて前記装飾オブジェクトを前記動画に表示する際に前記キャラクタオブジェクトの少なくとも一部を隠すためのブラインドオブジェクトを表示するように構成される。 In one aspect, the supporter computer further includes a storage for storing a decoration object displayed in association with the character object, and the supporter computer displays the decoration object in the moving image based on the fourth operation input. It is configured to display a blind object to hide at least part of it.

一態様において、前記配信サーバ装置は、前記第1クライアント装置に加えて第2ユーザが使用する第2クライアント装置に前記動画をライブ配信するように構成され、前記第1クライアント装置は、第1タイプの装置であり、前記第2クライアント装置は、前記第1タイプの装置と異なる第2タイプの装置であり、前記サポータコンピュータは、前記第1クライアント装置において表示される前記動画の表示画像、及び、前記第2クライアント装置において表示される前記動画の表示画像を表示する第2表示装置を備える。 In one aspect, the distribution server device is configured to live deliver the video to a second client device used by a second user in addition to the first client device, the first client device being a first type. The second client device is a second type device different from the first type device, and the supporter computer is a display image of the moving image displayed on the first client device and a display image of the moving image. A second display device for displaying a display image of the moving image displayed on the second client device is provided.

一態様において、前記サポータコンピュータは、第5操作入力に基づいて前記第1ユーザへの前記動画の配信を禁止するように構成される。 In one aspect, the supporter computer is configured to prohibit the distribution of the moving image to the first user based on the fifth operation input.

一態様は、一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法に関する。当該動画配信方法は、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を第1表示装置及び第1ユーザが使用する第1クライアント装置にライブ配信する工程と、前記第1表示装置に表示されている前記動画に第1付加情報を表示させる一方で前記第1クライアント装置には前記第1付加情報を表示させない工程と、を備える。 One aspect relates to a video distribution method executed by one or more computer processors executing computer-readable instructions. The video distribution method includes a step of live distribution of a video including an animation of a character object generated based on the movement of an actor to a first display device and a first client device used by a first user, and the first display device. The first client device is provided with a step of displaying the first additional information on the moving image displayed on the screen and not displaying the first additional information on the first client device.

一態様による配信プログラムは、一又は複数のコンピュータプロセッサに、アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を第1表示装置及び第1ユーザが使用する第1クライアント装置にライブ配信する工程と、前記第1表示装置に表示されている前記動画に第1付加情報を表示させる一方で前記第1クライアント装置には前記第1付加情報を表示させない工程と、を実行させる。 The distribution program according to one aspect is a live distribution of a moving image including an animation of a character object generated based on the movement of an actor to one or more computer processors to a first display device and a first client device used by a first user. And the step of displaying the first additional information on the moving image displayed on the first display device while not displaying the first additional information on the first client device.

本発明の実施形態によれば、ライブ配信中に起こる不測の事態への対処を容易にする動画配信システムを提供できる。 According to an embodiment of the present invention, it is possible to provide a moving image distribution system that facilitates coping with an unexpected situation that occurs during live distribution.

一実施形態による動画配信システムを示すブロック図である。It is a block diagram which shows the moving image distribution system by one Embodiment. 図1の動画配信システムで配信される動画を制作するスタジオの設備を模式的に示す模式図である。It is a schematic diagram which shows typically the equipment of the studio which produces the moving image distributed by the moving image distribution system of FIG. 図1の動画配信システムにおいて記憶される保有リストを説明する図である。It is a figure explaining the possession list stored in the moving image distribution system of FIG. 図1の動画配信システムにおいて記憶される候補リストを説明する図である。It is a figure explaining the candidate list stored in the moving image distribution system of FIG. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図5には、キャラクタオブジェクトのアニメーションが含まれている。It is a figure which shows the example of the moving image which is displayed on the client apparatus 10a in one Embodiment. FIG. 5 includes an animation of the character object. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図6には、通常オブジェクトが含まれている。It is a figure which shows the example of the moving image which is displayed on the client apparatus 10a in one Embodiment. FIG. 6 usually includes an object. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図7には、装飾オブジェクトが含まれている。It is a figure which shows the example of the moving image which is displayed on the client apparatus 10a in one Embodiment. FIG. 7 includes decorative objects. 候補リストに含まれている装飾オブジェクトの中から所望の選択装飾オブジェクトを選択するための装飾オブジェクト選択画面の例を示す模式図である。It is a schematic diagram which shows the example of the decoration object selection screen for selecting a desired selection decoration object from the decoration objects included in a candidate list. 一実施形態においてサポーターコンピュータ40のディスプレイ44に表示される画像の例を示す図である。It is a figure which shows the example of the image displayed on the display 44 of the supporter computer 40 in one embodiment. 一実施形態においてディスプレイ39に表示される動画の例を示す図である。図10には、第1付加情報の例が示されている。It is a figure which shows the example of the moving image which is displayed on the display 39 in one Embodiment. FIG. 10 shows an example of the first additional information. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図11aには、第2付加情報が含まれている。It is a figure which shows the example of the moving image which is displayed on the client apparatus 10a in one Embodiment. FIG. 11a contains the second additional information. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図11bには、第2付加情報が含まれている。It is a figure which shows the example of the moving image which is displayed on the client apparatus 10a in one Embodiment. FIG. 11b contains the second additional information. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図12aには、第3付加情報が含まれている。It is a figure which shows the example of the moving image which is displayed on the client apparatus 10a in one Embodiment. FIG. 12a contains a third additional information. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図12bには、第3付加情報が含まれている。It is a figure which shows the example of the moving image which is displayed on the client apparatus 10a in one Embodiment. FIG. 12b contains a third additional piece of information. 一実施形態においてクライアント装置10aに表示される動画の例を示す図である。図13には、ブラインドオブジェクトが含まれている。It is a figure which shows the example of the moving image which is displayed on the client apparatus 10a in one Embodiment. FIG. 13 includes a blind object. 一実施形態における動画配信処理の流れを示すフロー図である。It is a flow figure which shows the flow of the moving image distribution processing in one Embodiment. 一実施形態において第1付加情報を表示する処理の流れを示すフロー図である。It is a flow chart which shows the flow of the process which displays the 1st additional information in one Embodiment. 一実施形態において第2付加情報を表示する処理の流れを示すフロー図である。It is a flow chart which shows the flow of the process which displays the 2nd additional information in one Embodiment. 一実施形態において第3付加情報を表示する処理の流れを示すフロー図である。It is a flow chart which shows the flow of the process which displays the 3rd additional information in one Embodiment. 一実施形態においてブラインドオブジェクトを表示する処理の流れを示すフロー図である。It is a flow chart which shows the flow of the process of displaying a blind object in one Embodiment. 一実施形態において配信禁止ユーザへの動画配信を禁止する処理の流れを示すフロー図である。It is a flow diagram which shows the flow of the process which prohibits the distribution of a moving image to the distribution prohibition user in one Embodiment.

以下、図面を適宜参照し、本発明の様々な実施形態を説明する。複数の図面において同一の又は類似する構成要素には同じ参照符号が付される。 Hereinafter, various embodiments of the present invention will be described with reference to the drawings as appropriate. The same or similar components are designated by the same reference numerals in a plurality of drawings.

図1から図4を参照して、一実施形態による動画配信システムについて説明する。図1は、一実施形態による動画配信システム1を示すブロック図であり、図2は、動画配信システム1で配信される動画の制作が行われるスタジオの設備を模式的に示す模式図であり、図3及び図4は、動画配信システム1において記憶される情報を説明するための図である。 A moving image distribution system according to an embodiment will be described with reference to FIGS. 1 to 4. FIG. 1 is a block diagram showing a video distribution system 1 according to an embodiment, and FIG. 2 is a schematic diagram schematically showing equipment of a studio in which a video distributed by the video distribution system 1 is produced. 3 and 4 are diagrams for explaining information stored in the moving image distribution system 1.

動画配信システム1は、クライアント装置10a〜10cと、サーバ装置20と、スタジオユニット30と、ストレージ60と、を備える。クライアント装置10a〜10cと、サーバ装置20と、ストレージ60とは、ネットワーク50を介して相互に通信可能に接続されている。サーバ装置20は、後述するように、キャラクタのアニメーションを含む動画を配信するように構成される。この動画に含まれるキャラクタは、仮想空間内でモーション制御されてもよい。 The video distribution system 1 includes client devices 10a to 10c, a server device 20, a studio unit 30, and a storage 60. The client devices 10a to 10c, the server device 20, and the storage 60 are connected to each other so as to be able to communicate with each other via the network 50. The server device 20 is configured to deliver a moving image including a character animation, as will be described later. The characters included in this moving image may be motion-controlled in the virtual space.

この動画は、サーバ装置20からクライアント装置10a〜10cの各々に配信され得る。クライアント装置10aのユーザである第1視聴ユーザ、クライアント装置10bのユーザである第2視聴ユーザ、及びクライアント装置10cのユーザである第3視聴ユーザは、配信された動画を、各クライアント装置により視聴することができる。動画配信システム1は、3台よりも少ない数のクライアント装置を備えていてもよく、3台よりも多い数のクライアント装置を備えていてもよい。本明細書において、クライアント装置10a〜10c及びこれら以外のクライアント装置を互いから区別する必要がない場合には、これらを「クライアント装置」と総称することがある。 This moving image can be distributed from the server device 20 to each of the client devices 10a to 10c. The first viewing user who is the user of the client device 10a, the second viewing user who is the user of the client device 10b, and the third viewing user who is the user of the client device 10c view the delivered moving image by each client device. be able to. The video distribution system 1 may include a number of client devices less than three, or may include more than three client devices. In the present specification, when it is not necessary to distinguish the client devices 10a to 10c and the client devices other than these from each other, these may be collectively referred to as "client devices".

クライアント装置10a〜10cは、スマートフォンなどの情報処理装置である。クライアント装置10a〜10cは、スマートフォン以外に、携帯電話機、タブレット端末、パーソナルコンピュータ、電子書籍リーダー、ウェアラブルコンピュータ、ゲーム用コンソール、及びこれら以外の動画を再生可能な各種情報処理装置であってもよい。クライアント装置10a〜10cの各々は、コンピュータプロセッサ、メモリ、通信I/F、ディスプレイ、ジャイロセンサ等の各種センサを備えるセンサユニット、マイク等の集音装置、及び各種情報を記憶するストレージを備えていてもよい。 The client devices 10a to 10c are information processing devices such as smartphones. In addition to smartphones, the client devices 10a to 10c may be mobile phones, tablet terminals, personal computers, electronic book readers, wearable computers, game consoles, and various information processing devices capable of reproducing moving images other than these. Each of the client devices 10a to 10c includes a computer processor, a memory, a communication I / F, a display, a sensor unit having various sensors such as a gyro sensor, a sound collecting device such as a microphone, and a storage for storing various information. May be good.

視聴ユーザは、クライアント装置10a〜10cの入力インタフェースを介して、配信された動画に関するメッセージを入力し、このメッセージをサーバ装置20に投稿することができる。各視聴ユーザから投稿されたメッセージは、動画に重畳して表示されてもよい。これにより、視聴ユーザ間の交流が図られる。 The viewing user can input a message regarding the delivered moving image via the input interface of the client devices 10a to 10c and post this message to the server device 20. The message posted by each viewing user may be superimposed on the moving image and displayed. As a result, interaction between viewing users is achieved.

図示の実施形態において、サーバ装置20は、コンピュータプロセッサ21と、通信I/F22と、ストレージ23と、を備えている。 In the illustrated embodiment, the server device 20 includes a computer processor 21, a communication I / F 22, and a storage 23.

コンピュータプロセッサ21は、ストレージ23又はそれ以外のストレージからオペレーティングシステムや様々な機能を実現する様々なプログラムをメモリにロードし、ロードしたプログラムに含まれる命令を実行する演算装置である。コンピュータプロセッサ21は、例えば、CPU、MPU、DSP、GPU、これら以外の各種演算装置、又はこれらの組み合わせである。コンピュータプロセッサ21は、ASIC、PLD、FPGA、MCU等の集積回路により実現されてもよい。図1においては、コンピュータプロセッサ21が単一の構成要素として図示されているが、コンピュータプロセッサ21は複数の物理的に別体のコンピュータプロセッサの集合であってもよい。本明細書において、コンピュータプロセッサ21によって実行されるとして説明されるプログラム又は当該プログラムに含まれる命令は、単一のコンピュータプロセッサで実行されてもよいし、複数のコンピュータプロセッサにより分散して実行されてもよい。また、コンピュータプロセッサ21によって実行されるプログラム又は当該プログラムに含まれる命令は、複数の仮想コンピュータプロセッサにより実行されてもよい。 The computer processor 21 is an arithmetic unit that loads various programs that realize an operating system and various functions from the storage 23 or other storage into a memory and executes instructions included in the loaded programs. The computer processor 21 is, for example, a CPU, an MPU, a DSP, a GPU, various arithmetic units other than these, or a combination thereof. The computer processor 21 may be realized by an integrated circuit such as an ASIC, PLD, FPGA, or MCU. Although the computer processor 21 is illustrated as a single component in FIG. 1, the computer processor 21 may be a collection of a plurality of physically separate computer processors. In the present specification, the program described as being executed by the computer processor 21 or the instructions contained in the program may be executed by a single computer processor or may be executed by a plurality of computer processors in a distributed manner. May be good. Further, the program executed by the computer processor 21 or the instructions included in the program may be executed by a plurality of virtual computer processors.

通信I/F22は、ハードウェア、ファームウェア、又はTCP/IPドライバやPPPドライバ等の通信用ソフトウェア又はこれらの組み合わせとして実装される。サーバ装置20は、通信I/F22を介して、他の装置とデータを送受信することができる。 The communication I / F 22 is implemented as hardware, firmware, communication software such as a TCP / IP driver or PPP driver, or a combination thereof. The server device 20 can send and receive data to and from other devices via the communication I / F 22.

ストレージ23は、コンピュータプロセッサ21によりアクセスされる記憶装置である。ストレージ23は、例えば、磁気ディスク、光ディスク、半導体メモリ、又はデータを記憶可能な前記以外の各種記憶装置である。ストレージ23には、様々なプログラムが記憶され得る。ストレージ23に記憶され得るプログラム及び各種データの少なくとも一部は、サーバ装置20とは物理的に別体のストレージ(例えば、ストレージ60)に格納されてもよい。 The storage 23 is a storage device accessed by the computer processor 21. The storage 23 is, for example, a magnetic disk, an optical disk, a semiconductor memory, or various storage devices other than those capable of storing data. Various programs can be stored in the storage 23. At least a part of the program and various data that can be stored in the storage 23 may be stored in a storage (for example, a storage 60) that is physically separate from the server device 20.

スタジオユニット30の構成要素の多くは、例えば、図2に示されているスタジオルームRに配されている。図示のように、スタジオルームRにおいては、アクターA1及びアクターA2がパフォーマンスを行っている。スタジオユニット30は、アクターA1及びアクターA2の動き及び表情を検出し、検出した情報をサーバ装置20に出力するように構成されている。 Many of the components of the studio unit 30 are arranged in, for example, the studio room R shown in FIG. As shown in the figure, in the studio room R, actors A1 and A2 are performing. The studio unit 30 is configured to detect the movements and facial expressions of the actors A1 and A2 and output the detected information to the server device 20.

アクターA1及びアクターA2はいずれも、スタジオユニット30に備えられる後述のセンサ群によって動きや表情がキャプチャされる対象である。アクターA1及びアクターA2は、例えば、パフォーマンスを行う人間、動物、または運動する物体である。アクターA1及びアクターA2は、例えば、自立運動可能なロボットであってもよい。スタジオルームR内のアクターの数は、1であってもよいし、3以上であってもよい。 Both the actor A1 and the actor A2 are objects whose movements and facial expressions are captured by a group of sensors described later provided in the studio unit 30. Actor A1 and Actor A2 are, for example, humans, animals, or moving objects performing. The actor A1 and the actor A2 may be, for example, robots capable of independent movement. The number of actors in the studio room R may be 1 or 3 or more.

スタジオユニット30は、アクターA1に装着される6つのモーションセンサ31a〜31fと、アクターA1の左手に把持されているコントローラ33aと、アクターA1の右手に把持されているコントローラ33bと、装着具37bを介してアクターA1の頭部に取り付けられるカメラ37aと、を有する。スタジオユニット30はまた、アクターA2に装着される6つのモーションセンサ32a〜32fと、アクターA2の左手に把持されているコントローラ34aと、アクターA2の右手に把持されているコントローラ34bと、装着具38bを介してアクターA2の頭部に取り付けられるカメラ38aと、を有する。装着具37b及び装着具38bの各々には、音声データを取得するためのマイクが取り付けられてもよい。このマイクは、アクターA1及びアクターA2の発話を音声データとして取得することができる。マイクは、装着具37b及び装着具38bを介してアクターA1及びアクターA2に装着される装着型のマイクであってもよく、スタジオルームRの床、壁、又は天井に設置される設置型のものであってもよい。スタジオユニット30は、上記の構成要素に加えて、ベースステーション35aと、ベースステーション35bと、トラッキングセンサ36aと、トラッキングセンサ36bと、ディスプレイ39と、を有する。スタジオルームRとガラス窓を隔てた隣室には、サポーターコンピュータ40が設置されている。サーバ装置20は、サポーターコンピュータ40が設置されている部屋と同じ部屋に設置されてもよい。 The studio unit 30 includes six motion sensors 31a to 31f mounted on the actor A1, a controller 33a held by the left hand of the actor A1, a controller 33b held by the right hand of the actor A1, and a fitting 37b. It has a camera 37a attached to the head of the actor A1 via the camera 37a. The studio unit 30 also includes six motion sensors 32a to 32f mounted on the actor A2, a controller 34a held on the left hand of the actor A2, a controller 34b held on the right hand of the actor A2, and a fitting 38b. It has a camera 38a attached to the head of the actor A2 via the camera 38a. A microphone for acquiring audio data may be attached to each of the fittings 37b and the fittings 38b. This microphone can acquire the utterances of the actor A1 and the actor A2 as voice data. The microphone may be a wearable microphone mounted on the actors A1 and A2 via the fittings 37b and 38b, and may be a mounting type microphone installed on the floor, wall, or ceiling of the studio room R. It may be. In addition to the above components, the studio unit 30 has a base station 35a, a base station 35b, a tracking sensor 36a, a tracking sensor 36b, and a display 39. A supporter computer 40 is installed in the adjacent room separated from the studio room R by a glass window. The server device 20 may be installed in the same room where the supporter computer 40 is installed.

モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、ベースステーション35a及びベースステーション35bと協働して、自らの位置及び向きを検出する。一実施形態において、ベースステーション35a及びベースステーション35bは、多軸レーザーエミッターである。ベースステーション35aは、同期用の点滅光を発した後に、例えば鉛直軸の周りでレーザー光を走査する。ベースステーション35bは、例えば水平軸の周りでレーザー光を走査する。モーションセンサ31a〜31f及びモーションセンサ32a〜32fはそれぞれ、ベースステーション35a及びベースステーション35bからの点滅光及びレーザー光の入射を検知する光センサーを複数備えてもよい。モーションセンサ31a〜31f及びモーションセンサ32a〜32fはそれぞれ、点滅光の入射タイミングとレーザー光の入射タイミングとの時間差、各光センサーでの受光時間、各光センサーが検知したレーザー光の入射角度、及び必要に応じてこれら以外の情報を検出してもよい。モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、例えば、HTC CORPORATIONから提供されているVive Trackerであってもよい。ベースステーション35a及びベースステーション35bは、例えば、HTC CORPORATIONから提供されているベースステーションであってもよい。ベースステーションは3つ以上設けられてもよい。ベースステーションの位置は適宜変更してもよい。例えば、図2に示されているトラッキングセンサの検出対象の空間の上方の隅部に配されているベースステーションに加えて若しくは替えて、上方位置及び床面に近い下方位置に対をなすように配置されたベースステーションが設けられてもよい。 The motion sensors 31a to 31f and the motion sensors 32a to 32f cooperate with the base station 35a and the base station 35b to detect their own positions and orientations. In one embodiment, the base station 35a and the base station 35b are multi-axis laser emitters. After emitting the flashing light for synchronization, the base station 35a scans the laser light, for example, around the vertical axis. The base station 35b scans the laser beam, for example, around a horizontal axis. The motion sensors 31a to 31f and the motion sensors 32a to 32f may each include a plurality of optical sensors that detect the incident of blinking light and laser light from the base station 35a and the base station 35b, respectively. The motion sensors 31a to 31f and the motion sensors 32a to 32f have the time difference between the incident timing of the blinking light and the incident timing of the laser light, the light receiving time at each optical sensor, the incident angle of the laser light detected by each optical sensor, and the incident angle of the laser light detected by each optical sensor, respectively. Information other than these may be detected if necessary. The motion sensors 31a to 31f and the motion sensors 32a to 32f may be, for example, a Vive Tracker provided by HTC CORPORATION. The base station 35a and the base station 35b may be, for example, a base station provided by HTC CORPORATION. Three or more base stations may be provided. The position of the base station may be changed as appropriate. For example, in addition to or in place of the base station located in the upper corner of the space to be detected by the tracking sensor shown in FIG. 2, the upper position and the lower position near the floor surface are paired. An arranged base station may be provided.

モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々において検出された検出情報(以下、「トラッキング情報」ということがある。)は、サーバ装置20に送信される。この検出情報は、モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々からサーバ装置20に無線送信されてもよい。ベースステーション35a及びベースステーション35bは、一定のインターバルで点滅光の発光及びレーザー光の走査を行うので、各モーションセンサのトラッキング情報は、当該インターバルごとに更新される。このモーションセンサ31a〜31f及びモーションセンサ32a〜32fによって検出されたトラッキング情報に基づいて、モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々の位置及び向きが算出され得る。モーションセンサ31a〜31f及びモーションセンサ32a〜32fの各々の位置及び向きは、例えば、サーバ装置20において当該トラッキング情報に基づいて算出されてもよい。 The detection information (hereinafter, may be referred to as “tracking information”) detected by each of the motion sensors 31a to 31f and the motion sensors 32a to 32f is transmitted to the server device 20. This detection information may be wirelessly transmitted to the server device 20 from each of the motion sensors 31a to 31f and the motion sensors 32a to 32f. Since the base station 35a and the base station 35b emit flashing light and scan the laser light at regular intervals, the tracking information of each motion sensor is updated at each interval. Based on the tracking information detected by the motion sensors 31a to 31f and the motion sensors 32a to 32f, the positions and orientations of the motion sensors 31a to 31f and the motion sensors 32a to 32f can be calculated. The positions and orientations of the motion sensors 31a to 31f and the motion sensors 32a to 32f may be calculated, for example, in the server device 20 based on the tracking information.

図示の実施形態において、アクターA1は、6つのモーションセンサ31a〜31fを装着している。モーションセンサ31a,31b,31c,31d,31e,及び31fはそれぞれ、アクターA1の左手首、右手首、左足甲、右足甲、腰、及び頭頂に装着されている。モーションセンサ31a〜31fは、装着具を介してアクターA1に装着されてもよい。アクターA2は、6つのモーションセンサ32a〜32fを装着している。モーションセンサ32a〜32fは、アクターA2に対してモーションセンサ31a〜31fと同様の位置に装着され得る。図2に示されているモーションセンサ31a〜31f及びモーションセンサ32a〜32fは例示である。モーションセンサ31a〜31fは、アクターA1の様々な部位に装着され得るし、モーションセンサ32a〜32fは、アクターA2の様々な部位に装着され得る。アクターA1及びアクターA2に装着されるモーションセンサの数は5以下であってもよいし7以上であってもよい。このように、アクターA1及びアクターA2の体の各部に装着されたモーションセンサ31a〜31f及びモーションセンサ32a〜32fの位置及び向きを検出することにより、アクターA1及びアクターA2の体の動きを検出することができる。 In the illustrated embodiment, the actor A1 is equipped with six motion sensors 31a to 31f. The motion sensors 31a, 31b, 31c, 31d, 31e, and 31f are attached to the left wrist, right wrist, left instep, right instep, waist, and crown of the actor A1, respectively. The motion sensors 31a to 31f may be attached to the actor A1 via an attachment. The actor A2 is equipped with six motion sensors 32a to 32f. The motion sensors 32a to 32f can be mounted on the actor A2 at the same positions as the motion sensors 31a to 31f. The motion sensors 31a to 31f and the motion sensors 32a to 32f shown in FIG. 2 are examples. The motion sensors 31a to 31f can be attached to various parts of the actor A1, and the motion sensors 32a to 32f can be attached to various parts of the actor A2. The number of motion sensors mounted on the actors A1 and A2 may be 5 or less, or 7 or more. In this way, by detecting the positions and orientations of the motion sensors 31a to 31f and the motion sensors 32a to 32f mounted on each part of the body of the actor A1 and the actor A2, the movement of the body of the actor A1 and the actor A2 is detected. be able to.

一実施形態においては、アクターA1及びアクターA2に装着される複数のモーションセンサの各々に多数の赤外LEDを搭載し、この赤外LEDからの光を、スタジオルームRの床や壁に設けられた赤外線カメラで検知することで、当該モーションセンサの各々の位置及び向きを検出してもよい。赤外LEDに代えて可視光LEDを使用し、この可視光LEDからの光を可視光カメラで検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。このように、アクターに装着される複数のモーションセンサの各々に発光部(例えば、赤外LEDや可視光LED)を設け、この発光部からの光をスタジオルームR内に設けられた受光部(例えば、赤外線カメラや可視光カメラ)で検出することで、当該モーションセンサの各々の位置及び向きを検出してもよい。 In one embodiment, a large number of infrared LEDs are mounted on each of the plurality of motion sensors mounted on the actor A1 and the actor A2, and the light from the infrared LEDs is provided on the floor or wall of the studio room R. The position and orientation of each of the motion sensors may be detected by detecting with an infrared camera. A visible light LED may be used instead of the infrared LED, and the position and orientation of each of the motion sensors may be detected by detecting the light from the visible light LED with a visible light camera. In this way, each of the plurality of motion sensors mounted on the actor is provided with a light emitting unit (for example, an infrared LED or a visible light LED), and the light from the light emitting unit is provided in the studio room R as a light receiving unit (for example). For example, the position and orientation of each of the motion sensors may be detected by detecting with an infrared camera or a visible light camera).

一実施形態においては、モーションセンサ31a〜31f及びモーションセンサ32a〜32fに代えて、複数の反射マーカーを用いることができる。反射マーカーは、アクターA1及びアクターA2の各々に粘着テープなどにより貼付される。このように反射マーカーが貼付されたアクターA1及びアクターA2を撮影して撮影データを生成し、この撮影データを画像処理することにより、反射マーカーの位置及び向きを検出することができる。 In one embodiment, a plurality of reflection markers can be used instead of the motion sensors 31a to 31f and the motion sensors 32a to 32f. The reflection marker is attached to each of the actor A1 and the actor A2 with an adhesive tape or the like. The position and orientation of the reflection marker can be detected by photographing the actors A1 and A2 to which the reflection marker is attached in this way to generate shooting data, and performing image processing on the shooting data.

コントローラ33a及びコントローラ33bは、アクターA1の操作に応じたコントロール信号をサーバ装置20に出力する。同様に、コントローラ34a及びコントローラ34bは、アクターA2の操作に応じたコントロール信号をサーバ装置20に出力する。 The controller 33a and the controller 33b output a control signal corresponding to the operation of the actor A1 to the server device 20. Similarly, the controller 34a and the controller 34b output a control signal corresponding to the operation of the actor A2 to the server device 20.

トラッキングセンサ36a及びトラッキングセンサ36bは、動画に含まれる仮想空間を構築するための仮想カメラの設定情報を定めるためのトラッキング情報を生成する。トラッキングセンサ36a及びトラッキングセンサ36bのトラッキング情報は、各々の三次元直交座標系での位置および各軸回りの角度として算出される。トラッキングセンサ36aの位置および向きは、操作者の操作に応じて変更されえる。トラッキングセンサ36aは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。同様に、トラッキングセンサ36bの位置および向きは、操作者の操作に応じて設定される。トラッキングセンサ36bは、その位置および向きを示すトラッキング情報をトラッキング情報サーバ装置20に送信する。トラッキングセンサ36a,36bは、ジンバル又はスタビライザーによって支持されてもよい。ジンバルは、アクターやサポーターによって把持可能な形状に構成されてもよい。トラッキングセンサ36a,36bをジンバルまたはスタビライザーで支持することにより、手ぶれを抑制することが可能となる。 The tracking sensor 36a and the tracking sensor 36b generate tracking information for determining the setting information of the virtual camera for constructing the virtual space included in the moving image. The tracking information of the tracking sensor 36a and the tracking sensor 36b is calculated as a position in each three-dimensional Cartesian coordinate system and an angle around each axis. The position and orientation of the tracking sensor 36a can be changed according to the operation of the operator. The tracking sensor 36a transmits tracking information indicating its position and orientation to the tracking information server device 20. Similarly, the position and orientation of the tracking sensor 36b are set according to the operation of the operator. The tracking sensor 36b transmits tracking information indicating its position and orientation to the tracking information server device 20. The tracking sensors 36a, 36b may be supported by a gimbal or stabilizer. The gimbal may be configured in a shape that can be grasped by an actor or a supporter. By supporting the tracking sensors 36a and 36b with a gimbal or a stabilizer, it is possible to suppress camera shake.

カメラ37aは、上記のように、アクターA1の頭部に取り付けられている。例えば、カメラ37aは、アクターA1の顔を撮像できるように配置されている。カメラ37aは、アクターA1の顔を連続的に撮像し、アクターA1の顔の撮像データを取得する。同様に、カメラ38aは、アクターA2の頭部に取り付けられている。カメラ38aは、アクターA2の顔を撮像できるように配置されており、アクターA2の顔を連続的に撮像し、アクターA2の顔の撮像データを取得する。カメラ37aは、アクターA1の顔の撮像データをサーバ装置20に送信し、カメラ38aは、アクターA1の顔の撮像データをサーバ装置20に送信する。カメラ37a及びカメラ38aは、人物の顔の奥行きを検出可能な3Dカメラであってもよい。 The camera 37a is attached to the head of the actor A1 as described above. For example, the camera 37a is arranged so that the face of the actor A1 can be imaged. The camera 37a continuously images the face of the actor A1 and acquires the image data of the face of the actor A1. Similarly, the camera 38a is attached to the head of the actor A2. The camera 38a is arranged so that the face of the actor A2 can be imaged, the face of the actor A2 is continuously imaged, and the imaging data of the face of the actor A2 is acquired. The camera 37a transmits the image capturing data of the face of the actor A1 to the server device 20, and the camera 38a transmits the imaging data of the face of the actor A1 to the server device 20. The camera 37a and the camera 38a may be 3D cameras capable of detecting the depth of a person's face.

ディスプレイ39は、サポーターコンピュータ40から受信した情報を表示するように構成される。サポーターコンピュータ40からディスプレイ39に送信される情報は、例えば、テキスト情報、画像情報、及びこれら以外の各種情報を含み得る。ディスプレイ39は、アクターA1及びアクターA2によって視認可能な位置に配置される。ディスプレイ39は、第1表示装置の例である。 The display 39 is configured to display information received from the supporter computer 40. The information transmitted from the supporter computer 40 to the display 39 may include, for example, text information, image information, and various other information. The display 39 is arranged at a position visible to the actors A1 and A2. The display 39 is an example of the first display device.

図示の実施形態において、サポーターコンピュータ40は、スタジオルームRの隣室に設置されている。サポーターコンピュータ40が設置されている部屋とスタジオルームRとはガラス窓によって隔てられているため、サポーターコンピュータ40のオペレータ(本明細書では「サポーター」ということがある。)は、アクターA1及びアクターA2を視認できる。図示の実施形態においては、サポーターコンピュータ40のオペレータとして、サポーターB1及びサポーターB2が在室している。本明細書においては、サポーターB1とサポーターB2とを互いに区別する必要がない場合には、サポーターB1及びサポーターB2「サポーター」と総称することがある。 In the illustrated embodiment, the supporter computer 40 is installed in a room adjacent to the studio room R. Since the room in which the supporter computer 40 is installed and the studio room R are separated by a glass window, the operator of the supporter computer 40 (sometimes referred to as "supporter" in the present specification) is the actor A1 and the actor A2. Can be visually recognized. In the illustrated embodiment, the supporter B1 and the supporter B2 are present as operators of the supporter computer 40. In the present specification, when it is not necessary to distinguish between supporter B1 and supporter B2, they may be collectively referred to as supporter B1 and supporter B2 "supporter".

サポーターコンピュータ40は、サポーターB1及びサポーターB2の操作に応じて、スタジオユニット30の構成要素の設定を変更することができるように構成されてもよい。サポーターコンピュータ40は、例えば、ベースステーション35a及びベースステーション35bによる走査インターバルの設定、トラッキングセンサ36a及びトラッキングセンサ36bの位置または向きの設定、及びこれら以外の各種機器の各種設定の変更を行うことができる。サポーターB1及びサポータB2の少なくとも一方は、サポーターコンピュータ40にメッセージを入力し、当該入力されたメッセージをディスプレイ39に表示することができる。 The supporter computer 40 may be configured so that the settings of the components of the studio unit 30 can be changed according to the operations of the supporter B1 and the supporter B2. The supporter computer 40 can, for example, set the scanning interval by the base station 35a and the base station 35b, set the position or orientation of the tracking sensor 36a and the tracking sensor 36b, and change various settings of various other devices. .. At least one of the supporter B1 and the supporter B2 can input a message to the supporter computer 40 and display the input message on the display 39.

図2に示されているスタジオユニット30の構成要素及び機能は例示である。本発明に適用可能なスタジオユニット30は、図示されていない様々な構成要素を備え得る。例えば、スタジオユニット30は、プロジェクタを備えていてもよい。当該プロジェクタは、クライアント装置10aまたはそれ以外のクライアント装置に配信される動画をスクリーンSに投影することができる。 The components and functions of the studio unit 30 shown in FIG. 2 are exemplary. The studio unit 30 applicable to the present invention may include various components (not shown). For example, the studio unit 30 may include a projector. The projector can project a moving image delivered to the client device 10a or other client devices onto the screen S.

次に、一態様において、ストレージ23に記憶される情報について説明する。図示の実施形態においては、ストレージ23には、モデルデータ23a、オブジェクトデータ23b、保有リスト23c、候補リスト23d、及び前記以外の配信動画の生成及び配信に必要な様々な情報が記憶される。 Next, in one embodiment, the information stored in the storage 23 will be described. In the illustrated embodiment, the storage 23 stores model data 23a, object data 23b, possession list 23c, candidate list 23d, and various information necessary for generation and distribution of distribution moving images other than the above.

モデルデータ23aは、キャラクタのアニメーションを生成するためのモデルデータである。モデルデータ23aは、3次元のアニメーションを生成するための3次元モデルデータであってもよいし、2次元のモデルデータを生成するための2次元モデルデータであってもよい。モデルデータ23aは、例えば、キャラクタの骨格を示すリグデータ(「スケルトンデータ」と呼ばれることもある。)と、キャラクタの表面の形状や質感を示す表面データと、を含む。モデルデータ23aには、互いに異なる複数のモデルデータを含むことができる。この複数のモデルデータは、互いに異なるリグデータを有していてもよいし、同じリグデータを有していてもよい。この複数のモデルデータは、互いと異なる表面データを有していてもよいし、同じ表面データを有していてもよい。図示の実施形態においては、アクターA1に対応するキャラクタオブジェクト及びアクターA2に対応するキャラクタオブジェクトを生成するために、モデルデータ23aは、互いに異なる少なくとも2種類のモデルデータを有する。このアクターA1に対応するキャラクタオブジェクト用のモデルデータとアクターA2に対応するキャラクタオブジェクト用のモデルデータとは、例えば、同じリグデータを有するが、異なる表面データを有していてもよい。 The model data 23a is model data for generating a character animation. The model data 23a may be three-dimensional model data for generating a three-dimensional animation, or may be two-dimensional model data for generating two-dimensional model data. The model data 23a includes, for example, rig data indicating the skeleton of the character (sometimes referred to as “skeleton data”) and surface data indicating the shape and texture of the surface of the character. The model data 23a can include a plurality of model data different from each other. The plurality of model data may have different rig data from each other, or may have the same rig data. The plurality of model data may have different surface data from each other, or may have the same surface data. In the illustrated embodiment, the model data 23a has at least two types of model data that are different from each other in order to generate the character object corresponding to the actor A1 and the character object corresponding to the actor A2. The model data for the character object corresponding to the actor A1 and the model data for the character object corresponding to the actor A2 have, for example, the same rig data, but may have different surface data.

オブジェクトデータ23bは、動画を構成する仮想空間を構築するためのアセットデータを含む。オブジェクトデータ23bは、動画を構成する仮想空間の背景を描画するためのデータ、動画に表示される各種物体を描画するためのデータ、及びこれら以外の動画に表示される各種オブジェクトを描画するためのデータが含まれる。オブジェクトデータ23aには、仮想空間におけるオブジェクトの位置を示すオブジェクト位置情報を含んでもよい。 The object data 23b includes asset data for constructing a virtual space constituting a moving image. The object data 23b is data for drawing the background of the virtual space constituting the moving image, data for drawing various objects displayed in the moving image, and various objects displayed in the moving image other than these. Contains data. The object data 23a may include object position information indicating the position of the object in the virtual space.

オブジェクトデータ23bには、上記以外にも、クライアント装置10a〜10cの視聴ユーザからの表示要求に基づいて動画に表示されるギフトオブジェクトが含まれ得る。ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。視聴ユーザは、所望のギフトオブジェクトを購入することができる。購入可能なオブジェクトの数またはオブジェクトの購入金額に上限が設定されていてもよい。 In addition to the above, the object data 23b may include a gift object to be displayed in the moving image based on a display request from the viewing user of the client devices 10a to 10c. Gift objects can include effect objects, regular objects, and decoration objects. The viewing user can purchase the desired gift object. There may be an upper limit on the number of objects that can be purchased or the purchase price of the objects.

エフェクトオブジェクトは、配信動画の視聴画面全体の印象に影響を与えるオブジェクトであり、例えば紙吹雪を模したオブジェクトである。紙吹雪を模したオブジェクトは、視聴画面全体に表示されてもよく、これにより表示の前後における視聴画面全体の印象を変えることができる。エフェクトオブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。 The effect object is an object that affects the impression of the entire viewing screen of the distributed moving image, and is, for example, an object that imitates confetti. The object imitating confetti may be displayed on the entire viewing screen, whereby the impression of the entire viewing screen before and after the display can be changed. Effect objects may appear to overlap with character objects, but differ from decorative objects in that they are not displayed in association with a particular part of the character object.

通常オブジェクトは、視聴ユーザからアクター(例えば、アクターA1またはアクターA2)へのデジタル的なギフトとなるオブジェクトであり、例えばぬいぐるみや花束を模したオブジェクトである。一態様において、通常オブジェクトは、キャラクタオブジェクトと接しないように動画の表示画面に表示される。一態様において、通常オブジェクトは、キャラクタオブジェクトと重複しないように動画の表示画面に表示される。通常オブジェクトは、仮想空間においてキャラクタオブジェクト以外のオブジェクトと重複するように表示されてもよい。通常オブジェクトは、キャラクタオブジェクトと重複するように表示されることもあるが、キャラクタオブジェクトの特定の部位と関連付けられた表示はなされない点で装飾オブジェクトと異なっている。一態様において、通常オブジェクトをキャラクタオブジェクトと重複して表示させる場合には、当該通常オブジェクトは、当該キャラクタオブジェクトの顔を含む頭部以外の部分と重複し、当該キャラクタオブジェクトの頭部とは重複しないように表示される。 A normal object is an object that becomes a digital gift from a viewing user to an actor (for example, actor A1 or actor A2), for example, an object that imitates a stuffed animal or a bouquet. In one aspect, the normal object is displayed on the moving image display screen so as not to come into contact with the character object. In one aspect, the normal object is displayed on the moving image display screen so as not to overlap with the character object. Ordinary objects may appear to overlap objects other than character objects in virtual space. Ordinary objects may appear to overlap with character objects, but differ from decorative objects in that they are not displayed in association with a particular part of the character object. In one aspect, when the normal object is displayed overlapping with the character object, the normal object overlaps with a part other than the head including the face of the character object and does not overlap with the head of the character object. Is displayed.

装飾オブジェクトは、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示されるオブジェクトである。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位に接するように表示画面に表示される。一態様において、キャラクタオブジェクトの特定の部位と関連付けて表示画面に表示される装飾オブジェクトは、当該キャラクタオブジェクトの当該特定の部位の一部又は全部を覆うように表示画面に表示される。 A decoration object is an object displayed on a display screen in association with a specific part of a character object. In one aspect, the decorative object displayed on the display screen in association with a specific part of the character object is displayed on the display screen so as to be in contact with the specific part of the character object. In one aspect, the decorative object displayed on the display screen in association with a specific part of the character object is displayed on the display screen so as to cover a part or all of the specific part of the character object.

装飾オブジェクトは、例えば、キャラクタオブジェクトに装着されるアクセサリー(カチューシャ、ネックレス、イヤリングなど)、衣服(Tシャツなど)、コスチューム、及びこれら以外のキャラクラオブジェクトに装着可能なオブジェクトである。装飾オブジェクトに対応するオブジェクトデータ23bには、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に関連付けられるかを示す装着位置情報が含まれてもよい。ある装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトのどの部位に装着されるかを示すことができる。例えば、装飾オブジェクトがカチューシャである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「頭部」に装着されることを示してもよい。装飾オブジェクトがTシャツである場合には、当該装飾オブジェクトの装着位置情報は、当該装飾オブジェクトがキャラクタオブジェクトの「胴部」に装着されることを示してもよい。 The decorative object is, for example, an accessory (catucher, necklace, earring, etc.) attached to the character object, clothes (T-shirt, etc.), a costume, and an object that can be attached to other character objects. The object data 23b corresponding to the decoration object may include mounting position information indicating which part of the character object the decoration object is associated with. The mounting position information of a certain decorative object can indicate to which part of the character object the decorative object is mounted. For example, when the decoration object is a Katyusha, the mounting position information of the decoration object may indicate that the decoration object is mounted on the "head" of the character object. When the decorative object is a T-shirt, the mounting position information of the decorative object may indicate that the decorative object is mounted on the "body" of the character object.

ギフトオブジェクトの各々には、その種類に応じた表示時間が設定されていてもよい。一態様において、装飾オブジェクトの表示時間は、エフェクトオブジェクトの表示時間及び通常オブジェクトの表示時間よりも長く設定されていてもよい。例えば、装飾オブジェクトの表示時間は60秒間に設定され、エフェクトオブジェクトの表示時間は5秒間に設定され、通常オブジェクトの表示時間は10秒間に設定されてもよい。 A display time may be set for each of the gift objects according to the type of the gift object. In one aspect, the display time of the decorative object may be set longer than the display time of the effect object and the display time of the normal object. For example, the display time of the decorative object may be set to 60 seconds, the display time of the effect object may be set to 5 seconds, and the display time of the normal object may be set to 10 seconds.

保有リスト23cは、動画の視聴ユーザが保有しているギフトオブジェクトを示すリストである。保有リスト23cの例が図3に示されている。図示のように、保有リスト23cにおいては、視聴ユーザのアカウント情報(例えば、視聴ユーザのユーザID)と対応づけて、当該視聴ユーザが保有するギフトオブジェクトを特定するオブジェクトIDが記憶されている。この視聴ユーザは、例えば、クライアント装置10a〜クライアント装置10cの第1視聴ユーザ〜第3視聴ユーザが含まれる。 The possession list 23c is a list showing the gift objects possessed by the viewing user of the moving image. An example of the holding list 23c is shown in FIG. As shown in the figure, in the possession list 23c, an object ID that identifies a gift object possessed by the viewing user is stored in association with the account information of the viewing user (for example, the user ID of the viewing user). The viewing users include, for example, first viewing users to third viewing users of the client devices 10a to 10c.

候補リスト23dは、視聴ユーザから表示要求がなされた装飾オブジェクトのリストである。後述するように、装飾オブジェクトを保有している視聴ユーザは、保有している装飾オブジェクトの表示要求を行うことができる。候補リスト23dにおいては、装飾オブジェクトの表示要求を行った視聴ユーザのアカウント情報と対応付けて、当該装飾オブジェクトを特定するオブジェクトIDが記憶される。この候補リスト23dは、配信者ごとに作成されてもよい。候補リスト23dは、例えば、配信者(アクターA1、アクターA2、サポーターB1、及び/又はサポーターB2)を特定する配信者識別情報と対応付けて記憶されてもよい。 The candidate list 23d is a list of decorative objects for which a display request has been made by the viewing user. As will be described later, the viewing user who owns the decorative object can make a display request for the decorative object. In the candidate list 23d, the object ID that identifies the decoration object is stored in association with the account information of the viewing user who has requested the display of the decoration object. The candidate list 23d may be created for each distributor. The candidate list 23d may be stored, for example, in association with the distributor identification information that identifies the distributor (actor A1, actor A2, supporter B1, and / or supporter B2).

次に、コンピュータプロセッサ21により実現される機能についてより具体的に説明する。コンピュータプロセッサ21は、配信プログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、ボディモーションデータ生成部21a、フェイスモーションデータ生成部21b、アニメーション生成部21c、動画生成部21d、動画配信部21e、表示要求処理部21f、装飾オブジェクト選択部21g、及びオブジェクト購入処理部21hとして機能する。コンピュータプロセッサ21により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ21以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ21により実現される機能の少なくとも一部は、例えば、サポーターコンピュータ40に搭載されているコンピュータプロセッサにより実現されてもよい。 Next, the functions realized by the computer processor 21 will be described more specifically. The computer processor 21 executes a computer-readable instruction included in the distribution program to execute the body motion data generation unit 21a, the face motion data generation unit 21b, the animation generation unit 21c, the video generation unit 21d, the video distribution unit 21e, and the like. It functions as a display request processing unit 21f, a decorative object selection unit 21g, and an object purchase processing unit 21h. At least a part of the functions realized by the computer processor 21 may be realized by a computer processor other than the computer processor 21 of the moving image distribution system 1. At least a part of the functions realized by the computer processor 21 may be realized by, for example, the computer processor mounted on the supporter computer 40.

ボディモーションデータ生成部21aは、モーションセンサ31a〜31fの各々により検出されたトラッキング情報に基づいて、アクターA1の体の各部位の第1ボディモーションデータを生成し、また、モーションセンサ32a〜32fの各々により検出されたトラッキング情報に基づいて、アクターA2の体の各部位の位置及び向きのデジタル表現である第2ボディモーションデータを生成する。本明細書では、第1ボディモーションデータ及び第2ボディモーションデータを総称して単に「ボディモーションデータ」と呼ぶことがある。ボディモーションデータは、時間の経過に伴って随時生成される。例えば、ボディモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、ボディモーションデータは、アクターA1及びアクターA2の体の動きを時系列的にデジタルデータとして表現することができる。図示の実施形態においては、モーションセンサ31a〜31f及びモーションセンサ32a〜32fは、アクターA1及びアクターA2の各々の左右の手足、腰、及び頭部に装着されているため、モーションセンサ31a〜31f及びモーションセンサ32a〜32fにより検出されたトラッキング情報に基づいて、アクターA1及びアクターA2の概ね全身の位置及び向きを経時的にデジタル表現することが可能である。ボディモーションデータは、例えば、モデルデータ23aに含まれるリグデータを構成する骨(ボーン)の位置及び回転角度を規定することができる。 The body motion data generation unit 21a generates first body motion data of each part of the body of the actor A1 based on the tracking information detected by each of the motion sensors 31a to 31f, and also generates the first body motion data of the motion sensors 32a to 32f. Based on the tracking information detected by each, the second body motion data which is a digital representation of the position and orientation of each part of the body of the actor A2 is generated. In the present specification, the first body motion data and the second body motion data may be collectively referred to simply as "body motion data". Body motion data is generated at any time over time. For example, body motion data may be generated at predetermined sampling time intervals. In this way, the body motion data can represent the body movements of the actors A1 and A2 as digital data in chronological order. In the illustrated embodiment, since the motion sensors 31a to 31f and the motion sensors 32a to 32f are attached to the left and right limbs, hips, and head of each of the actors A1 and A2, the motion sensors 31a to 31f and the motion sensors 31a to 31f Based on the tracking information detected by the motion sensors 32a to 32f, it is possible to digitally represent the positions and orientations of the actors A1 and the actors A2 over time. The body motion data can define, for example, the position and rotation angle of the bones constituting the rig data included in the model data 23a.

フェイスモーションデータ生成部21bは、カメラ37aの撮像データに基づいて、アクターA1の顔の動きのデジタル表現である第1フェイスモーションデータを生成し、また、カメラ38aの各々の撮像データに基づいて、アクターA2の顔の動きのデジタル表現である第2フェイスモーションデータを生成する。本明細書では、第1フェイスモーションデータ及び第2フェイスモーションデータを総称して単に「フェイスモーションデータ」と呼ぶことがある。フェイスモーションデータは、時間の経過に伴って随時生成される。例えば、フェイスモーションデータは、所定のサンプリング時間間隔ごとに生成されてもよい。このように、フェイスモーションデータは、アクターA2及びアクターA2の顔の動き(表情の変化)を時系列的にデジタル表現することができる。 The face motion data generation unit 21b generates first face motion data which is a digital representation of the face movement of the actor A1 based on the image data of the camera 37a, and also based on each image data of the camera 38a. Generates second face motion data, which is a digital representation of the face movement of actor A2. In the present specification, the first face motion data and the second face motion data may be collectively referred to simply as "face motion data". Face motion data is generated at any time with the passage of time. For example, face motion data may be generated at predetermined sampling time intervals. In this way, the face motion data can digitally represent the facial movements (changes in facial expressions) of the actor A2 and the actor A2 in chronological order.

アニメーション生成部21cは、ボディモーションデータ生成部21aによって生成されたボディモーションデータ及びフェイスモーションデータ生成部21bによって生成されたフェイスモーションデータを、モデルデータ23aに含まれる所定のモデルデータに適用することにより、仮想空間内で動き、また、表情が変化するキャラクタオブジェクトのアニメーションを生成するように構成される。具体的には、アニメーション生成部21cは、アクターA1に関する第1ボディモーションデータ及び第1フェイスモーションデータに基づいて、アクターA1の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成し、アクターA2に関する第2ボディモーションデータ及び第2フェイスモーションデータに基づいて、アクターA2の体及び表情の動きに同期して動くキャラクタオブジェクトのアニメーションを生成することができる。本明細書においては、アクターA1の動き及び表情に基づいて生成されたキャラクタオブジェクトを「第1キャラクタオブジェクト」といい、アクターA2の動き及び表情に基づいて生成されたキャラクタオブジェクトを「第2キャラクタオブジェクト」ということがある。 The animation generation unit 21c applies the body motion data generated by the body motion data generation unit 21a and the face motion data generated by the face motion data generation unit 21b to predetermined model data included in the model data 23a. It is configured to generate animations for character objects that move in virtual space and have changing facial expressions. Specifically, the animation generation unit 21c generates an animation of a character object that moves in synchronization with the movement of the body and facial expression of the actor A1 based on the first body motion data and the first face motion data related to the actor A1. Based on the second body motion data and the second face motion data related to the actor A2, it is possible to generate an animation of a character object that moves in synchronization with the movement of the body and facial expression of the actor A2. In the present specification, the character object generated based on the movement and facial expression of actor A1 is referred to as "first character object", and the character object generated based on the movement and facial expression of actor A2 is referred to as "second character object". There is a case.

動画生成部21dは、オブジェクトデータ23bを用いて仮想空間を構築し、この仮想空間と、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。第1キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA1の位置に合致するように仮想空間内に配置され、第2キャラクタオブジェクトは、トラッキングセンサ36aに対するアクターA2の位置に合致するように仮想空間内に配置される。したがって、トラッキングセンサ36aの位置または向きを変更することにより、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向きを変化させることができる。 The moving image generation unit 21d constructs a virtual space using the object data 23b, and creates the virtual space, the animation of the first character object corresponding to the actor A1, and the animation of the second character object corresponding to the actor A2. Generate a video that contains. The first character object is arranged in the virtual space so as to match the position of the actor A1 with respect to the tracking sensor 36a, and the second character object is arranged in the virtual space so as to match the position of the actor A2 with respect to the tracking sensor 36a. Will be done. Therefore, by changing the position or orientation of the tracking sensor 36a, the positions and orientations of the first character object and the second character object in the virtual space can be changed.

一態様において、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想空間を構築する。例えば、動画生成部21dは、トラッキングセンサ36aのトラッキング情報に基づいて仮想カメラの設定情報(仮想空間内における位置、注視位置、注視方向、及び画角)を定め、この仮想カメラの設定情報に基づいて仮想空間全体のうちの描画領域を定め、この仮想空間の描画領域を表示するための動画情報を生成する。 In one aspect, the moving image generation unit 21d constructs a virtual space based on the tracking information of the tracking sensor 36a. For example, the moving image generation unit 21d determines the setting information of the virtual camera (position in the virtual space, gaze position, gaze direction, and angle of view) based on the tracking information of the tracking sensor 36a, and is based on the setting information of the virtual camera. The drawing area of the entire virtual space is defined, and moving image information for displaying the drawing area of this virtual space is generated.

動画生成部21dは、トラッキングセンサ36aのトラッキング情報に代えて、または、トラッキングセンサ36aのトラッキング情報に加えて、トラッキングセンサ36bのトラッキング情報に基づいて、仮想空間内における第1キャラクタオブジェクト及び第2キャラクタオブジェクトの位置及び向き、並びに、仮想カメラの設定情報を定めるように構成されてもよい。 The moving image generation unit 21d replaces the tracking information of the tracking sensor 36a, or based on the tracking information of the tracking sensor 36b in addition to the tracking information of the tracking sensor 36a, the first character object and the second character in the virtual space. It may be configured to determine the position and orientation of the object and the setting information of the virtual camera.

動画生成部21dは、生成した動画に、スタジオユニット30のマイクから取得したアクターA1及びアクターA2の音声を合成することができる。 The moving image generation unit 21d can synthesize the sound of the actor A1 and the actor A2 acquired from the microphone of the studio unit 30 with the generated moving image.

以上のようにして、動画生成部21dは、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーション、並びに、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションを生成し、このアニメーションにアクターA1及びアクターA2の音声が合成された配信用の動画を生成することができる。 As described above, the moving image generation unit 21d has the animation of the first character object that moves in synchronization with the movement of the body and facial expression of the actor A1, and the second character that moves in synchronization with the movement of the body and facial expression of the actor A2. It is possible to generate an animation of an object and generate a moving image for distribution in which the voices of actors A1 and A2 are combined with this animation.

動画配信部21eは、動画生成部21dにおいて生成された動画を配信する。この動画は、ネットワーク50を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。動画配信部21eは、動画の配信を要求したユーザのリスト(配信先リスト)を参照し、当該リストに含まれているユーザのクライアント装置に対して当該動画を配信する。後述するように、サポーターコンピュータ40からの指示により、特定のユーザに対して特定の動画の配信が禁止されることがある。この場合には、動画の配信が禁止されたユーザ以外のユーザに対して当該動画が配信される。受信された動画は、クライアント装置10a〜クライアント装置10cにおいて再生される。 The video distribution unit 21e distributes the video generated by the video generation unit 21d. This moving image is distributed to the client devices 10a to 10c and other client devices via the network 50. The video distribution unit 21e refers to a list of users who have requested distribution of the video (distribution destination list), and distributes the video to the client devices of the users included in the list. As will be described later, the distribution of a specific moving image to a specific user may be prohibited by an instruction from the supporter computer 40. In this case, the video is distributed to users other than the users whose distribution of the video is prohibited. The received moving image is reproduced in the client device 10a to the client device 10c.

この動画は、スタジオルームR内に設置されているクライアント装置(不図示)に配信され、このクライアント装置から短焦点プロジェクタを介してスクリーンSに投影されてもよい。また、この動画は、サポーターコンピュータ40に配信されてもよい。これにより、サポーターB1及びサポーターB2は、配信されている動画の視聴画面を確認することができる。 This moving image may be distributed to a client device (not shown) installed in the studio room R, and may be projected onto the screen S from this client device via a short focus projector. Further, this moving image may be distributed to the supporter computer 40. As a result, the supporter B1 and the supporter B2 can confirm the viewing screen of the distributed moving image.

サーバ装置20からクライアント装置10aに配信され、このクライアント装置10aにおいて再生されている動画の表示例が図5に示されている。図示のように、サーバ装置20から配信された動画の表示画像70は、クライアント装置10aのディスプレイに表示される。このクライアント装置10aに表示されている表示画像70は、仮想空間内に、アクターA1に対応するキャラクタオブジェクト71Aと、アクターA2に対応するキャラクタオブジェクト71Bと、テーブルを示すオブジェクト72と、が含まれている。オブジェクト72は、ギフトオブジェクトではなく、オブジェクトデータ23bに含まれている仮想空間を構築するためのオブジェクトの一つである。キャラクタオブジェクト71Aは、アクターA1の第1ボディモーションデータ及び第1フェイスモーションデータをモデルデータ23aに含まれているアクターA1用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Aは、第1ボディモーションデータ及び第1フェイスモーションデータに基づいてモーション制御される。キャラクタオブジェクト71Bは、アクターA2の第2ボディモーションデータ及び第2フェイスモーションデータを、モデルデータ23aに含まれているアクターA2用のモデルデータに適用することにより生成される。キャラクタオブジェクト71Bは、第2ボディモーションデータ及び第2フェイスモーションデータに基づいてモーション制御される。したがって、キャラクタオブジェクト71Aは、アクターA1の体及び表情の動きに同期して画面内で動くように制御され、キャラクタオブジェクト71Bは、アクターA2の体及び表情の動きに同期して画面内で動くように制御される。 FIG. 5 shows a display example of a moving image distributed from the server device 20 to the client device 10a and reproduced in the client device 10a. As shown in the figure, the display image 70 of the moving image delivered from the server device 20 is displayed on the display of the client device 10a. The display image 70 displayed on the client device 10a includes a character object 71A corresponding to the actor A1, a character object 71B corresponding to the actor A2, and an object 72 indicating a table in the virtual space. There is. The object 72 is not a gift object, but one of the objects for constructing the virtual space included in the object data 23b. The character object 71A is generated by applying the first body motion data and the first face motion data of the actor A1 to the model data for the actor A1 included in the model data 23a. The character object 71A is motion-controlled based on the first body motion data and the first face motion data. The character object 71B is generated by applying the second body motion data and the second face motion data of the actor A2 to the model data for the actor A2 included in the model data 23a. The character object 71B is motion-controlled based on the second body motion data and the second face motion data. Therefore, the character object 71A is controlled to move in the screen in synchronization with the movement of the body and facial expression of the actor A1, and the character object 71B is controlled to move in the screen in synchronization with the movement of the body and facial expression of the actor A2. Is controlled by.

上記のように、サーバ装置20からの配信動画は、サポーターコンピュータ40に配信されてもよい。サポーターコンピュータ40に配信された動画は、サポーターコンピュータ40において図5と同様に表示される。サポーターB1及びサポーターB2は、サポーターコンピュータ40において再生されている動画を見て、スタジオユニット30の構成要素の設定を変更することができる。一態様において、サポーターB1及びサポーターB2は、配信中の動画においてキャラクタオブジェクト71A及びキャラクタオブジェクト71Bのアングルを変更したい場合には、トラッキングセンサ36aの向きの変更を指示する指示信号をサポーターコンピュータ40からトラッキングセンサ36aに送信することができる。トラッキングセンサ36aは、当該指示信号に応じて、その向きを変更することができる。例えば、トラッキングセンサ36aは、スタンドにその軸周りにアクチュエータを内蔵した回動機構を介して回動可能に取り付けられており、トラッキングセンサ36aがその向きの変更を指示する指示信号を受信すると、当該指示信号に基づいて当該回動機構のアクチュエータが駆動され、当該指示信号に応じた角度だけトラッキングセンサ36aが回動されてもよい。一態様において、サポーターB1及びサポーターB2は、トラッキングセンサ36aからのトラッキング情報に代えて、トラッキングセンサ36bからのトラッキング情報を用いるための指示をサポーターコンピュータ40からトラッキングセンサ36a及びトラッキングセンサ36bに送信してもよい。トラッキングセンサ36a及びトラッキングセンサ36bは、アクターやサポーターによって移動可能に構成及び設置されてもよい。これにより、アクターまたはサポーターは、トラッキングセンサ36a及びトラッキングセンサ36bを手に持って移動させることができる。 As described above, the distribution moving image from the server device 20 may be distributed to the supporter computer 40. The moving image delivered to the supporter computer 40 is displayed on the supporter computer 40 in the same manner as in FIG. The supporter B1 and the supporter B2 can change the settings of the components of the studio unit 30 by watching the moving image being played on the supporter computer 40. In one aspect, when the supporter B1 and the supporter B2 want to change the angles of the character object 71A and the character object 71B in the moving image being distributed, the supporter computer 40 tracks an instruction signal instructing the change of the orientation of the tracking sensor 36a. It can be transmitted to the sensor 36a. The direction of the tracking sensor 36a can be changed according to the instruction signal. For example, the tracking sensor 36a is rotatably attached to a stand via a rotation mechanism having an actuator built around its axis, and when the tracking sensor 36a receives an instruction signal instructing the change of its orientation, the tracking sensor 36a is said to be rotatably attached. The actuator of the rotation mechanism may be driven based on the instruction signal, and the tracking sensor 36a may be rotated by an angle corresponding to the instruction signal. In one aspect, the supporter B1 and the supporter B2 transmit an instruction for using the tracking information from the tracking sensor 36b from the supporter computer 40 to the tracking sensor 36a and the tracking sensor 36b instead of the tracking information from the tracking sensor 36a. May be good. The tracking sensor 36a and the tracking sensor 36b may be configured and installed so as to be movable by an actor or a supporter. As a result, the actor or supporter can move the tracking sensor 36a and the tracking sensor 36b by holding them in their hands.

一態様において、サポーターB1及びサポーターB2は、サポーターコンピュータ40にて再生されている動画を見てアクターA1またはアクターA2に対する指示が必要と判断した場合には、その指示を示すメッセージをサポーターコンピュータ40に入力し、このメッセージをディスプレイ39に出力することができる。例えば、サポーターB1及びサポーターB2は、このディスプレイ39に表示されるメッセージを通じて、アクターA1またはアクターA2に対して立ち位置の変更を指示することができる。 In one aspect, when the supporter B1 and the supporter B2 see the moving image being played on the supporter computer 40 and determine that an instruction to the actor A1 or the actor A2 is necessary, the supporter B1 and the supporter B2 send a message indicating the instruction to the supporter computer 40. This message can be input and output to the display 39. For example, the supporter B1 and the supporter B2 can instruct the actor A1 or the actor A2 to change the standing position through the message displayed on the display 39.

表示要求処理部21fは、視聴ユーザのクライアント装置からギフトオブジェクトの表示要求を受け付け、当該表示要求に応じた処理を行う。各視聴ユーザは、自らのクライアント装置を操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。例えば、第1視聴ユーザは、クライアント装置10aを操作することにより、ギフトオブジェクトの表示要求をサーバ装置20に送信することができる。ギフトオブジェクトの表示要求には、視聴ユーザのユーザIDと、表示を要求するオブジェクトを特定する識別情報(オブジェクトID)が含まれてもよい。 The display request processing unit 21f receives a display request for the gift object from the client device of the viewing user, and performs processing according to the display request. Each viewing user can send a gift object display request to the server device 20 by operating his / her own client device. For example, the first viewing user can send a gift object display request to the server device 20 by operating the client device 10a. The display request of the gift object may include the user ID of the viewing user and the identification information (object ID) that identifies the object for which the display is requested.

上述のように、ギフトオブジェクトには、エフェクトオブジェクトと、通常オブジェクトと、装飾オブジェクトと、が含まれ得る。エフェクトオブジェクト及び通常オブジェクトは、第1オブジェクトの例である。また、エフェクトオブジェクトまたは通常オブジェクトの表示を要求する表示要求は、第2表示要求の例である。 As mentioned above, the gift object may include an effect object, a normal object, and a decoration object. The effect object and the normal object are examples of the first object. A display request that requests the display of an effect object or a normal object is an example of a second display request.

一態様において、表示要求処理部21fは、視聴ユーザから特定のエフェクトオブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求されたエフェクトオブジェクトを動画の表示画像70に表示させるための処理を行う。例えば、紙吹雪に対応するエフェクトオブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図6に示すように、当該表示要求に基づいて紙吹雪を示すエフェクトオブジェクト73を表示画像70に表示させる。 In one aspect, when the display request processing unit 21f receives a display request for a specific effect object from the viewing user, the display request processing unit 21f displays the effect object for which the display is requested on the display image 70 of the moving image based on the display request. Perform processing. For example, when a display request for an effect object corresponding to confetti is made, the display request processing unit 21f displays an effect object 73 indicating confetti based on the display request as shown in FIG. 6. Image 70 To display.

一態様において、表示要求処理部21fは、視聴ユーザから特定の通常オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された通常オブジェクトを動画70に表示させるための処理を行う。例えば、熊のぬいぐるみを示す通常オブジェクトの表示要求がなされた場合には、表示要求処理部21fは、図6に示すように、当該表示要求に基づいて熊のぬいぐるみを示す通常オブジェクト74を表示画像70に表示させる。 In one aspect, when the display request processing unit 21f receives a display request for a specific normal object from the viewing user, the display request processing unit 21f performs a process for displaying the normal object requested to be displayed on the moving image 70 based on the display request. .. For example, when a display request for a normal object showing a teddy bear is made, the display request processing unit 21f displays a display image of the normal object 74 showing the stuffed bear based on the display request, as shown in FIG. Display on 70.

通常オブジェクト74の表示要求には、仮想空間内における当該通常オブジェクト74の表示位置を指定する表示位置指定パラメータが含まれてもよい。この場合、表示要求処理部21fは、仮想空間内の表示位置指定パラメータによって指定された位置に通常オブジェクト74を表示することができる。例えば、表示位置指定パラメータによって、テーブルを示すオブジェクト72の上を通常オブジェクト74の表示位置として指定することができる。視聴ユーザは、表示位置指定パラメータを用いることにより、動画70に含まれているキャラクタオブジェクト71A、キャラクタオブジェクト71B、ギフトオブジェクト、及びこれら以外のオブジェクトの表示を見て、通常オブジェクトを表示したい位置を指定することができる。 The display request of the normal object 74 may include a display position specification parameter that specifies the display position of the normal object 74 in the virtual space. In this case, the display request processing unit 21f can display the normal object 74 at the position specified by the display position designation parameter in the virtual space. For example, the display position specification parameter can specify the display position of the normal object 74 above the object 72 indicating the table. By using the display position specification parameter, the viewing user sees the display of the character object 71A, the character object 71B, the gift object, and other objects included in the moving image 70, and specifies the position where the normal object is to be displayed. can do.

一態様において、通常オブジェクト74は、動画の表示画像70内で移動するように表示されてもよい。例えば、通常オブジェクト74は、画面の上から下に向かって落下するように表示されてもよい。この場合、通常オブジェクト74は、落下開始から動画70を構成する仮想空間のフロアまで落下している間当該表示画像70内に表示され、フロアに落下した後に当該表示画像70から消滅してもよい。視聴ユーザは、落下する通常オブジェクト74を落下開始時から落下終了時まで見ることができる。通常オブジェクト74の画面内での移動方向は任意に設定され得る。例えば、通常オブジェクト74は、動画70の左から右へ、右から左へ、左上から左下へ、またはこれら以外の方向に移動するように表示画像70において表示されてもよい。通常オブジェクト74は、様々な軌道上を移動することができる。例えば、通常オブジェクト74は、直線軌道上、円軌道上、楕円軌道上、螺旋軌道上、またはこれら以外の軌道上を移動することができる。視聴ユーザは、通常オブジェクトの表示要求に、表示位置指定パラメータに加えてまたは表示位置指定パラメータに代えて、通常オブジェクト74の移動方向を指定する移動方向パラメータ及び通常オブジェクト74が移動する軌道を指定する軌道パラメータの少なくとも一方を含めることができる。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより小さいもの(例えば、エフェクトオブジェクト73の紙吹雪の紙片)は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに、その一部又は全部を重複させて表示してもよい。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクトと重複しない位置に表示される。一実施形態において、エフェクトオブジェクト及び通常オブジェクトのうち、仮想空間における大きさが基準となる大きさより大きいもの(例えば、通常オブジェクト74(くまのぬいぐるみ))は、キャラクタオブジェクト71Aまたはキャラクタオブジェクト71Bの少なくとも一方と重複する場合には、当該重複して表示されるキャラクタオブジェクトの後ろに表示される。 In one aspect, the normal object 74 may be displayed to move within the moving image display image 70. For example, the normal object 74 may be displayed so as to fall from the top to the bottom of the screen. In this case, the normal object 74 may be displayed in the display image 70 while falling from the start of the fall to the floor of the virtual space constituting the moving image 70, and may disappear from the display image 70 after falling on the floor. .. The viewing user can see the falling normal object 74 from the start of the fall to the end of the fall. The moving direction of the normal object 74 in the screen can be set arbitrarily. For example, the normal object 74 may be displayed in the display image 70 so as to move from left to right, right to left, upper left to lower left, or other directions of the moving image 70. The normal object 74 can move in various orbits. For example, the normal object 74 can move on a linear orbit, a circular orbit, an elliptical orbit, a spiral orbit, or any other orbit. In the display request of the normal object, the viewing user specifies a movement direction parameter that specifies the movement direction of the normal object 74 and a trajectory in which the normal object 74 moves, in addition to the display position specification parameter or instead of the display position specification parameter. At least one of the orbital parameters can be included. In one embodiment, among the effect object and the normal object, those whose size in the virtual space is smaller than the reference size (for example, a piece of confetti of the effect object 73) are attached to the character object 71A and the character object 71B. Part or all of them may be duplicated and displayed. In one embodiment, among the effect object and the normal object, the one whose size in the virtual space is larger than the reference size (for example, the normal object 74 (a stuffed bear)) is displayed at a position that does not overlap with the character object. .. In one embodiment, the effect object and the normal object whose size in the virtual space is larger than the reference size (for example, the normal object 74 (plush bear)) is at least one of the character object 71A and the character object 71B. If it overlaps with, it is displayed after the character object that is displayed in duplicate.

一態様において、表示要求処理部21fは、視聴ユーザから特定の装飾オブジェクトの表示要求を受け付けると、当該表示要求に基づいて、表示が要求された装飾オブジェクトを候補リスト23dに追加する。装飾オブジェクトの表示要求は、第1表示要求の例である。例えば、表示要求処理部21fは、視聴ユーザから表示要求されている特定の装飾オブジェクトを識別する識別情報(オブジェクトID)を、当該視聴ユーザのユーザIDと対応付けて、候補リスト23dに記憶することができる(図4参照)。装飾オブジェクトの表示要求が複数なされた場合には、当該複数の表示要求の各々について、表示要求を行った視聴ユーザのユーザIDと、当該視聴ユーザによって表示要求されている装飾オブジェクトの装飾オブジェクトIDとが対応付けて候補リスト23dに記憶される。 In one aspect, when the display request processing unit 21f receives a display request for a specific decorative object from the viewing user, the display request processing unit 21f adds the decorative object for which the display is requested to the candidate list 23d based on the display request. The display request for the decorative object is an example of the first display request. For example, the display request processing unit 21f stores the identification information (object ID) for identifying a specific decorative object requested to be displayed by the viewing user in the candidate list 23d in association with the user ID of the viewing user. (See Fig. 4). When a plurality of display requests for the decoration object are made, the user ID of the viewing user who made the display request and the decoration object ID of the decoration object whose display request is requested by the viewing user are used for each of the plurality of display requests. Are associated with each other and stored in the candidate list 23d.

一態様において、装飾オブジェクト選択部21gは、候補リスト23dに含まれている装飾オブジェクトのうちの一又は複数が選択されたことに応じて、当該選択された装飾オブジェクトを動画の表示画像70に表示させるための処理を行う。本明細書では、候補リスト23dから選択された装飾オブジェクトを「選択装飾オブジェクト」と呼ぶことがある。 In one aspect, the decoration object selection unit 21g displays the selected decoration object on the moving image display image 70 in response to the selection of one or more of the decoration objects included in the candidate list 23d. Perform the process to make it. In the present specification, the decoration object selected from the candidate list 23d may be referred to as a "selected decoration object".

候補リスト23dからの装飾オブジェクトの選択は、例えば、サポーターB1及びサポーターB2がサポーターコンピュータ40を操作することによってなされる。一態様において、サポーターコンピュータ40には、装飾オブジェクト選択画面が表示される。図8は、一態様における装飾オブジェクト選択画面80の例を示す。この装飾オブジェクト選択画面80は、例えば、サポーターコンピュータ40のディスプレイに表示される。装飾オブジェクト選択画面80は、例えば、表形式で候補リスト23dに含まれている複数の装飾オブジェクトの各々を表示する。図示のように、一態様における装飾オブジェクト選択画面80は、装飾オブジェクトの種類を表示する第1列81と、装飾オブジェクトの画像を表示する第2列82と、装飾オブジェクトが関連付けられているキャラクタオブジェクトの部位を表示する第3列83と、を有する。また、装飾オブジェクト選択画面80には、各装飾オブジェクトを選択するための選択ボタン84a〜84cが表示されている。このように、装飾オブジェクト選択画面80には、選択装飾オブジェクトの候補となる装飾オブジェクトが表示される。 The selection of the decorative object from the candidate list 23d is made, for example, by the supporter B1 and the supporter B2 operating the supporter computer 40. In one aspect, the supporter computer 40 displays a decorative object selection screen. FIG. 8 shows an example of the decorative object selection screen 80 in one aspect. The decorative object selection screen 80 is displayed, for example, on the display of the supporter computer 40. The decoration object selection screen 80 displays each of the plurality of decoration objects included in the candidate list 23d in a table format, for example. As shown in the figure, in the decoration object selection screen 80 in one embodiment, the first column 81 for displaying the type of the decoration object, the second column 82 for displaying the image of the decoration object, and the character object to which the decoration object is associated. It has a third column 83, and a third column 83, which displays the parts of the above. Further, on the decoration object selection screen 80, selection buttons 84a to 84c for selecting each decoration object are displayed. In this way, the decoration object selection screen 80 displays the decoration objects that are candidates for the selection decoration object.

サポーターB1及びサポーターB2は、この装飾オブジェクト選択画面80に含まれている装飾オブジェクトのうちの一又は複数を選択することができる。例えば、サポーターB1及びサポーターB2は、選択ボタン84aを選択することにより、カチューシャを選択することができる。装飾オブジェクト選択部21gによってカチューシャが選択されたことが検出されると、表示要求処理部21fは、図7に示すように、選択されたカチューシャを示す選択装飾オブジェクト75を動画の表示画面70に表示させる。選択装飾オブジェクト75は、キャラクタオブジェクトの特定の部位と関連付けて、表示画像70に表示される。選択装飾オブジェクト75は、キャラクタオブジェクトのうちの当該特定の部位に接するように表示されてもよい。例えば、カチューシャを示す選択75は、キャラクタオブジェクトの頭部と対応付けられているため、図7に示されているように、キャラクタオブジェクト71Aの頭部に装着される。装飾オブジェクトは、キャラクタオブジェクトの当該特定部位の動きに付随して動くように、表示画面70に表示されてもよい。例えば、カチューシャを装着したキャラクタオブジェクト71Aの頭部が動くと、あたかもカチューシャがキャラクタオブジェクト71Aの頭部に装着されているかのごとく、カチューシャを示す選択装飾オブジェクト75もキャラクタオブジェクト71Aの頭部に付随して動く。 Supporter B1 and supporter B2 can select one or more of the decorative objects included in the decorative object selection screen 80. For example, the supporter B1 and the supporter B2 can select the Katyusha by selecting the selection button 84a. When it is detected by the decoration object selection unit 21g that the cutie is selected, the display request processing unit 21f displays the selection decoration object 75 indicating the selected cutie on the moving image display screen 70 as shown in FIG. Let me. The selection decoration object 75 is displayed on the display image 70 in association with a specific part of the character object. The selection decoration object 75 may be displayed so as to be in contact with the specific part of the character object. For example, since the selection 75 indicating the Katyusha is associated with the head of the character object, it is attached to the head of the character object 71A as shown in FIG. The decorative object may be displayed on the display screen 70 so as to move along with the movement of the specific portion of the character object. For example, when the head of the character object 71A equipped with the Katyusha moves, the selective decoration object 75 indicating the Katyusha is also attached to the head of the character object 71A as if the Katyusha is attached to the head of the character object 71A. Moves.

選択装飾オブジェクト75は、キャラクタオブジェクト71Aではなく、キャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。選択装飾オブジェクト75は、キャラクタオブジェクト71A及びキャラクタオブジェクト71Bに関連付けられて表示画面70に表示されてもよい。 The selection decoration object 75 may be displayed on the display screen 70 in association with the character object 71B instead of the character object 71A. The selection decoration object 75 may be displayed on the display screen 70 in association with the character object 71A and the character object 71B.

一実施形態において、装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトの表示要求を行ったユーザを特定可能な情報を含まないように構成されてもよい。これにより、装飾オブジェクトの選択の際に、選択者が特定のユーザを優遇することを防止できる。 In one embodiment, the decoration object selection screen 80 may be configured not to include information that can identify the user who owns each decoration object or the user who has made a display request for each decoration object. This makes it possible to prevent the chooser from giving preferential treatment to a specific user when selecting a decorative object.

一実施形態において、装飾オブジェクト選択画面80は、各装飾オブジェクトを保有するユーザ、又は、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザに関する情報を表示するようにしてもよい。例えば、各装飾オブジェクトについて、当該装飾オブジェクトの表示要求を行ったユーザがこれまでに装飾オブジェクトの表示要求を行った回数と選択された回数(例えば、これまでに装飾オブジェクトの表示要求を5回行ってそのうち2回は選択されたことを示す情報)、当該ユーザがキャラクタオブジェクト71A及びキャラクタオブジェクトBの少なくとも一方の動画を視聴した視聴回数、当該ユーザが動画配信システム1における動画(キャラクタオブジェクト71A及びキャラクタオブジェクトBの出演有無を問わない)の視聴回数、当該ユーザによるギフトオブジェクトの購入金額、当該ユーザによるオブジェクトの購入回数、当該ユーザが保有する動画配信システム1内で使用できるポイント、当該ユーザの動画配信システム1におけるレベル、及びこれら以外の各装飾オブジェクトの表示要求を行ったユーザに関する各種情報を表示してもよい。当該実施形態によれば、装飾オブジェクトの表示要求を行ったユーザのこれまでの動画配信システム1における行動や視聴履歴に基づいて、装飾オブジェクトの選択を行うことができる。 In one embodiment, the decoration object selection screen 80 may display information about the user who owns each decoration object or, for each decoration object, the user who has made a display request for the decoration object. For example, for each decoration object, the number of times the user who made the display request of the decoration object has made the display request of the decoration object and the number of times selected (for example, the number of times the decoration object display request has been made 5 times so far). Information indicating that two of them have been selected), the number of times the user has viewed at least one of the moving images of the character object 71A and the character object B, and the moving image (character object 71A and the character) in the moving image distribution system 1 by the user. Number of views (regardless of whether object B appears), amount of purchase of gift object by the user, number of purchases of the object by the user, points that can be used in the video distribution system 1 owned by the user, video distribution of the user Various information about the level in the system 1 and the user who requested the display of each decoration object other than these may be displayed. According to the embodiment, the decoration object can be selected based on the behavior and viewing history of the user who has requested the display of the decoration object in the video distribution system 1 so far.

一実施形態において、装飾オブジェクトの表示には、重複を排除するための制約が課されてもよい。例えば、キャラクタオブジェクト71Aに関し、その特定の部位に関連付けられた装飾オブジェクトが既に選択されている場合には、当該特定の部位に関連付けられた他の装飾オブジェクトの選択が禁止されてもよい。図7の実施形態に示されているように、キャラクタオブジェクト71Bの「頭部」に関連付けられているカチューシャが既に
選択されている場合には、「頭部」に関連付けられているそれ以外の装飾オブジェクト(例えば、頭部に関連付けられている「帽子」を表す装飾オブジェクト)は、装飾オブジェクト選択画面80に表示されないか、または、当該帽子を表す装飾オブジェクトを選択するための選択ボタンが選択画面80において選択不能とされてもよい。当該実施形態によれば、装飾オブジェクトがキャラクタオブジェクトの特定の部位に重複して表示されることを防止できる。
In one embodiment, the display of decorative objects may be constrained to eliminate duplication. For example, with respect to the character object 71A, if the decoration object associated with the specific part is already selected, the selection of another decoration object associated with the specific part may be prohibited. As shown in the embodiment of FIG. 7, if the Katyusha associated with the "head" of the character object 71B is already selected, the other decorations associated with the "head". The object (for example, the decorative object representing the "hat" associated with the head) is not displayed on the decorative object selection screen 80, or the selection button for selecting the decorative object representing the hat is selected on the selection screen 80. It may be made unselectable in. According to the embodiment, it is possible to prevent the decorative object from being duplicated in a specific part of the character object.

装飾オブジェクト選択画面80は、サポーターコンピュータ40に代えて、または、サポーターコンピュータ40に加えて、他の装置に表示されてもよい。例えば、装飾オブジェクト選択画面80は、スタジオルームR内のディスプレイ39及びスクリーンSの少なくとも一方に表示されてもよい。この場合、アクターA1及びアクターA2が当該ディスプレイ39又はスクリーンSに表示された装飾オブジェクト選択画面80に基づいて、所望の装飾オブジェクトを選択することができる。アクターA1及びアクターA2による装飾オブジェクトの選択は、例えば、コントローラ33a、コントローラ33b、コントローラ34a、またはコントローラ34bを操作することによりなされ得る。 The decorative object selection screen 80 may be displayed on another device in place of the supporter computer 40 or in addition to the supporter computer 40. For example, the decorative object selection screen 80 may be displayed on at least one of the display 39 and the screen S in the studio room R. In this case, the actor A1 and the actor A2 can select a desired decorative object based on the decorative object selection screen 80 displayed on the display 39 or the screen S. The selection of the decorative object by the actors A1 and A2 can be made, for example, by operating the controller 33a, the controller 33b, the controller 34a, or the controller 34b.

一態様において、オブジェクト購入処理部21hは、動画の視聴ユーザからの要求に応じて、当該動画に関連して購入可能な複数のギフトオブジェクトの各々の購入情報を当該視聴ユーザのクライアント装置(例えば、クライアント装置10a)に送信する。各ギフトオブジェクトの購入情報には、当該ギフトオブジェクトの種類(エフェクトオブジェクト、通常オブジェクト、または装飾オブジェクト)、当該ギフトオブジェクトの画像、当該ギフトオブジェクトの価格、及びこれら以外のギフトオブジェクトの購入に必要な情報が含まれ得る。視聴ユーザは、クライアント装置10aに表示されているギフトオブジェクトの購入情報に基づいて、購入するギフトオブジェクトを選択することができる。購入対象のギフトオブジェクトの選択は、クライアント装置10aの操作により行われてもよい。購入対象のギフトオブジェクトが視聴ユーザによって選択されると、当該ギフトオブジェクトの購入要求がサーバ装置20に送信される。オブジェクト購入処理部21hは、当該購入要求に基づいて、決済処理を行う。この決済処理が完了すると、当該購入されたギフトオブジェクトは、当該視聴ユーザによって保有される。この場合、保有リスト23cに、購入した視聴ユーザのユーザIDと対応づけて、購入されたギフトオブジェクトのオブジェクトIDが記憶される。 In one aspect, the object purchase processing unit 21h receives the purchase information of each of the plurality of gift objects that can be purchased in connection with the video in response to the request from the viewing user of the video, and the client device (for example, the viewing user) of the viewing user. It is transmitted to the client device 10a). The purchase information for each gift object includes the type of gift object (effect object, regular object, or decoration object), the image of the gift object, the price of the gift object, and the information required to purchase other gift objects. Can be included. The viewing user can select the gift object to be purchased based on the purchase information of the gift object displayed on the client device 10a. The gift object to be purchased may be selected by operating the client device 10a. When the gift object to be purchased is selected by the viewing user, a purchase request for the gift object is transmitted to the server device 20. The object purchase processing unit 21h performs payment processing based on the purchase request. When this payment process is completed, the purchased gift object is held by the viewing user. In this case, the object ID of the purchased gift object is stored in the possession list 23c in association with the user ID of the purchased viewing user.

購入可能なギフトオブジェクトは、動画ごとに異なっていてもよい。購入可能なギフトオブジェクトは、複数の動画において購入可能であってもよい。つまり、購入可能なギフトオブジェクトには、各動画に固有の固有ギフトオブジェクトと、複数の動画において購入可能な共通ギフトオブジェクトと、が含まれてもよい。例えば、紙吹雪を示すエフェクトオブジェクトは、複数の動画において購入可能な共通ギフトオブジェクトであってもよい。 The gift objects that can be purchased may vary from video to video. The gift objects that can be purchased may be available for purchase in a plurality of videos. That is, the gift objects that can be purchased may include a unique gift object that is unique to each video and a common gift object that can be purchased in a plurality of videos. For example, the effect object indicating confetti may be a common gift object that can be purchased in a plurality of videos.

一態様においては、所定の動画を視聴中にエフェクトオブジェクトを購入した場合、当該エフェクトオブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象のエフェクトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。所定の動画を視聴中に通常オブジェクトを購入した場合、上記と同様に、当該通常オブジェクトを購入するための決済処理が完了したことに応じて、当該購入対象の通常ギフトオブジェクトが当該視聴中の動画に自動的に表示されてもよい。 In one aspect, when an effect object is purchased while watching a predetermined video, the effect object to be purchased becomes the video being viewed in response to the completion of the payment process for purchasing the effect object. It may be displayed automatically. If a normal object is purchased while watching a predetermined video, the normal gift object to be purchased is the video being watched in response to the completion of the payment process for purchasing the normal object, as described above. May be displayed automatically.

他の態様においては、購入対象のエフェクトオブジェクトについてオブジェクト購入処理部21hにおける決済処理が完了したことに応じて、決済完了通知がクライアント装置10aに送信され、当該クライアント装置10aにおいて、購入されたエフェクトオブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面が表示されてもよい。視聴ユーザが、当該購入されたエフェクトオブジェクトについて表示要求を行うことを選択した場合には、当該購入されたエフェクトオブジェクトの表示を要求する表示要求が、当該視聴ユーザのクライアント装置から表示要求処理部21fに送信され、表示要求処理部21fにおいて、当該購入対象のエフェクトオブジェクトを動画70に表示させる処理が行われてもよい。購入対象が通常オブジェクトの場合にも、上記と同様に、購入された通常オブジェクトの表示要求を行うか否かを視聴ユーザに確認するための確認画面がクライアント装置10aに表示されてもよい。 In another aspect, a payment completion notification is transmitted to the client device 10a in response to the completion of the payment process in the object purchase processing unit 21h for the effect object to be purchased, and the effect object purchased in the client device 10a. A confirmation screen may be displayed for confirming with the viewing user whether or not to request the display of. When the viewing user chooses to make a display request for the purchased effect object, the display request requesting the display of the purchased effect object is sent from the viewing user's client device to the display request processing unit 21f. The display request processing unit 21f may perform a process of displaying the effect object to be purchased on the moving image 70. Even when the purchase target is a normal object, a confirmation screen for confirming with the viewing user whether or not to request the display of the purchased normal object may be displayed on the client device 10a in the same manner as described above.

次に、一実施形態におけるサポーターコンピュータ40について説明する。一実施形態において、サポーターコンピュータ40は、コンピュータプロセッサ41と、通信I/F42と、ストレージ43と、ディスプレイ44と、入力インタフェース45と、を備える。 Next, the supporter computer 40 in one embodiment will be described. In one embodiment, the supporter computer 40 includes a computer processor 41, a communication I / F 42, a storage 43, a display 44, and an input interface 45.

コンピュータプロセッサ41は、コンピュータプロセッサ21と同様に、CPU等の各種演算装置である。通信I/F42は、通信I/F22と同様に、他の装置と通信を行うための各種ドライバ、ソフトウェア、またはこれらの組み合わせである。ストレージ43は、ストレージ23と同様に、磁気ディスク等のデータを記憶可能な各種記憶装置である。ディスプレイ44は、液晶ディスプレイ、有機ELディスプレイ、無機ELディスプレイ、又はこれら以外の画像を表示可能な任意の表示装置である。入力インタフェース45は、マウス、キーボード等のサポーターからの入力を受け付ける任意の入力インタフェースである。ディスプレイ44は、第2表示装置の例である。 The computer processor 41 is various arithmetic units such as a CPU, like the computer processor 21. The communication I / F 42, like the communication I / F 22, is various drivers, software, or a combination thereof for communicating with other devices. Similar to the storage 23, the storage 43 is various storage devices capable of storing data such as a magnetic disk. The display 44 is a liquid crystal display, an organic EL display, an inorganic EL display, or any display device capable of displaying an image other than these. The input interface 45 is an arbitrary input interface that accepts input from supporters such as a mouse and a keyboard. The display 44 is an example of the second display device.

図9は、サポーターコンピュータ40のディスプレイ44に表示される画像の例を示す。図示の実施形態において、ディスプレイ44に表示されている表示画像46は、第1のタイプのクライアント装置(例えば、パーソナルコンピュータ)における動画の表示画面を表示する第1表示領域47aと、第2のタイプのクライアント装置(例えば、パーソナルコンピュータ)における動画の表示画面を表示する第2表示領域47bと、複数の操作用アイコン48と、を含んでいる。 FIG. 9 shows an example of an image displayed on the display 44 of the supporter computer 40. In the illustrated embodiment, the display image 46 displayed on the display 44 has a first display area 47a for displaying a moving image display screen on a first type client device (for example, a personal computer) and a second type. A second display area 47b for displaying a moving image display screen on the client device (for example, a personal computer), and a plurality of operation icons 48 are included.

サポーターは、第1表示領域47aに表示されている動画をモニターすることにより、第1のタイプのクライアント装置に配信された動画が正常に表示されているかを確認することができ、同様に、第2表示領域47bに表示されている動画をモニターすることにより、第2のタイプのクライアント装置に配信された動画が正常に表示されているかを確認することができる。 By monitoring the video displayed in the first display area 47a, the supporter can confirm whether the video delivered to the first type client device is normally displayed, and similarly, the first display area 47a. By monitoring the moving image displayed in the 2 display area 47b, it is possible to confirm whether or not the moving image delivered to the second type client device is normally displayed.

操作用アイコン48は、図示の実施形態においては、第1操作用アイコン48a、第2操作用アイコン48b、第3操作用アイコン48c、第4操作用アイコン48d、及び第5操作用アイコン48eを含む。サポーターは、入力インタフェース45を介して、所望の操作用アイコンを選択することができる。サポーターによって第1操作用アイコン48a、第2操作用アイコン48b、第3操作用アイコン48c、第4操作用アイコン48d、及び第5操作用アイコン48eが選択されると、サポータコンピュータ40によって第1操作入力、第2操作入力、第3操作入力、第4操作入力、及び第5操作入力がそれぞれ受け付けられる。 In the illustrated embodiment, the operation icon 48 includes a first operation icon 48a, a second operation icon 48b, a third operation icon 48c, a fourth operation icon 48d, and a fifth operation icon 48e. .. The supporter can select a desired operation icon via the input interface 45. When the supporter selects the first operation icon 48a, the second operation icon 48b, the third operation icon 48c, the fourth operation icon 48d, and the fifth operation icon 48e, the supporter computer 40 performs the first operation. Input, second operation input, third operation input, fourth operation input, and fifth operation input are accepted, respectively.

次に、コンピュータプロセッサ41により実現される機能についてより具体的に説明する。コンピュータプロセッサ41は、所定のプログラムに含まれるコンピュータ読み取り可能な命令を実行することにより、付加情報表示部41a及び配信管理部41bとして機能する。コンピュータプロセッサ41により実現される機能の少なくとも一部は、動画配信システム1のコンピュータプロセッサ41以外のコンピュータプロセッサにより実現されてもよい。コンピュータプロセッサ41により実現される機能の少なくとも一部は、例えば、コンピュータプロセッサ21により実現されてもよい。 Next, the functions realized by the computer processor 41 will be described more specifically. The computer processor 41 functions as an additional information display unit 41a and a distribution management unit 41b by executing a computer-readable instruction included in a predetermined program. At least a part of the functions realized by the computer processor 41 may be realized by a computer processor other than the computer processor 41 of the moving image distribution system 1. At least a part of the functions realized by the computer processor 41 may be realized by, for example, the computer processor 21.

付加情報表示部41aは、サポーターからの入力インタフェース45を介した様々な操作入力に応じて、配信動画に様々な付加情報を付加するように構成される。 The additional information display unit 41a is configured to add various additional information to the distributed moving image in response to various operation inputs from the supporter via the input interface 45.

一実施形態において、付加情報表示部41aは、第1操作用アイコン48aの選択によりサポーターコンピュータ40において第1操作入力が受け付けられると、当該第1操作入力に基づいてディスプレイ39に表示されている動画にメッセージ101を表示させる一方でクライアント装置にはメッセージ101を表示させないように構成される。メッセージ101は、第1付加情報の例である。 In one embodiment, when the supporter computer 40 receives the first operation input by selecting the first operation icon 48a, the additional information display unit 41a displays the moving image on the display 39 based on the first operation input. Is configured to display the message 101 while not displaying the message 101 on the client device. Message 101 is an example of the first additional information.

図10に、ディスプレイ39に表示された動画の表示画像の例が示されている。図10に示されている表示画像100は、メッセージ101を含んでいる。表示画像100は、メッセージ101を含む点以外は、同じタイミングで視聴ユーザのクライアント装置に配信及び表示されている動画の表示画像70(図5参照)と、同じである。つまり、ディスプレイ39に表示されている表示画像100は、配信されている動画に、メッセージ101を付加することで構成されている。 FIG. 10 shows an example of a display image of the moving image displayed on the display 39. The display image 100 shown in FIG. 10 includes a message 101. The display image 100 is the same as the display image 70 (see FIG. 5) of the moving image distributed and displayed on the client device of the viewing user at the same timing except that the message 101 is included. That is, the display image 100 displayed on the display 39 is configured by adding the message 101 to the delivered moving image.

メッセージ101は、例えば、サポーターによって入力されたテキスト形式のメッセージである。メッセージ101は、テキスト形式情報に加えて、または、テキスト形式の情報に加えて画像情報を含んでもよい。メッセージ101は、アクターのパフォーマンスに関する指示、アクターの発言に関する指示、アクターの立ち位置に関する指示、及び前記以外の配信中の動画に関連する様々な指示や連絡事項を含むことができる。 The message 101 is, for example, a text-format message input by the supporter. The message 101 may include image information in addition to the text format information or in addition to the text format information. The message 101 can include instructions regarding the performance of the actor, instructions regarding the remarks of the actor, instructions regarding the standing position of the actor, and various instructions and communication matters related to the video being distributed other than the above.

一実施形態においては、サポーターがサポーターコンピュータ40において第1操作用アイコン48aを選択すると、メッセージ入力用のウィンドウがサポーターコンピュータ40のディスプレイ44に表示される。当該サポーターは、入力インタフェース45を操作することにより、当該ウィンドウ内のメッセージ入力領域にメッセージを入力することができる。入力されたメッセージは、サポーターコンピュータ40からディスプレイ39に送信される。ディスプレイ39及びクライアント装置10a〜10cには、動画配信部21eにより配信されている動画が表示されている。ディスプレイ39には、図10に示されているように、動画配信部21eから配信されている動画の所定領域に、サポーターコンピュータ40から受信したメッセージがメッセージ101として表示される。他方、クライアント装置10a〜10cにおいて表示される動画には、メッセージ101またはこれに相当する情報は表示されない。当該実施形態によれば、クライアント装置の視聴ユーザによって視聴される動画に影響を与えずに、アクターまたはそれ以外のディスプレイ39を視認可能な配信側のスタッフに対して、配信中の動画に関連する指示や連絡事項を伝達することができる。 In one embodiment, when the supporter selects the first operation icon 48a on the supporter computer 40, a window for inputting a message is displayed on the display 44 of the supporter computer 40. The supporter can input a message in the message input area in the window by operating the input interface 45. The input message is transmitted from the supporter computer 40 to the display 39. The moving image distributed by the moving image distribution unit 21e is displayed on the display 39 and the client devices 10a to 10c. As shown in FIG. 10, the message received from the supporter computer 40 is displayed as a message 101 on the display 39 in a predetermined area of the moving image distributed from the moving image distribution unit 21e. On the other hand, the moving image displayed on the client devices 10a to 10c does not display the message 101 or the information corresponding thereto. According to the embodiment, it is related to the video being distributed to the distribution side staff who can see the actor or other display 39 without affecting the video viewed by the viewing user of the client device. Can convey instructions and communications.

続いて、図11a及び図11bを参照して第2付加情報の表示について説明する。一実施形態において、付加情報表示部41aは、第2操作用アイコン48bの選択によりサポーターコンピュータ40において第2操作入力が受け付けられると、当該第2操作入力に基づいて、ディスプレイ39に表示されている動画及びクライアント装置に表示されている動画に割り込み画像を表示させるように構成される。割り込み画像は、第2付加情報の例である。第2操作入力は、アクターA1のコントローラ33aもしくは33bの操作に応じて、または、アクターA2のコントローラ34aもしくは34bの操作に応じてサーバ装置20またはサポーターコンピュータ40に入力されてもよい。 Subsequently, the display of the second additional information will be described with reference to FIGS. 11a and 11b. In one embodiment, when the supporter computer 40 accepts the second operation input by selecting the second operation icon 48b, the additional information display unit 41a is displayed on the display 39 based on the second operation input. It is configured to display an interrupt image on the moving image and the moving image displayed on the client device. The interrupt image is an example of the second additional information. The second operation input may be input to the server device 20 or the supporter computer 40 in response to the operation of the controller 33a or 33b of the actor A1 or in response to the operation of the controller 34a or 34b of the actor A2.

図11aには、第2操作入力が受け付けられた際にクライアント装置10aに表示される表示画像110aの例が示されており、図11bには、第2操作入力が受け付けられた際にディスプレイ39に表示される表示画像110bの例が示されている。表示画像110a及び表示画像110bはいずれも、割り込み画像111を含んでいる。割り込み画像111は、配信中の動画の 上層のレイヤに設定される。これにより、動画を再生中のク
ライアント装置及びディスプレイ39においては、割り込み画像111が画面表示される。クライアント装置に表示される割り込み画像111とディスプレイ39に表示される割り込み画像111との間には、表示される機器の性能に応じて視覚上若干の差異が存在する可能性があるが、両者は実質的に同じ画像である。
FIG. 11a shows an example of the display image 110a displayed on the client device 10a when the second operation input is received, and FIG. 11b shows the display 39 when the second operation input is received. An example of the display image 110b displayed in is shown. Both the display image 110a and the display image 110b include the interrupt image 111. The interrupt image 111 is set in the upper layer of the moving image being distributed. As a result, the interrupt image 111 is displayed on the screen of the client device and the display 39 during playback of the moving image. There may be a slight visual difference between the interrupt image 111 displayed on the client device and the interrupt image 111 displayed on the display 39, depending on the performance of the displayed device. It is a substantially the same image.

図示の実施形態において、割り込み画像111は、動画配信中に不測の事態が発生した際に、通常の仮想空間及びキャラクタオブジェクトを含む動画に代えて表示するための緊急表示用の画像である。サポーターは、例えば、スタジオルームRで使用している機器の故障によりキャラクタオブジェクトのモーション制御に支障が発生した場合に、サポーターコンピュータ40において第2操作用アイコン48bを選択することができる。付加情報表示部41aは、第2操作用アイコン48bが選択されたことに応じて、各クライアント装置及びディスプレイ39に割り込み画像111を表示するための処理を行う。 In the illustrated embodiment, the interrupt image 111 is an image for emergency display for displaying in place of the normal virtual space and the moving image including the character object when an unexpected situation occurs during the moving image distribution. The supporter can select the second operation icon 48b on the supporter computer 40, for example, when the motion control of the character object is hindered due to a failure of the equipment used in the studio room R. The additional information display unit 41a performs a process for displaying the interrupt image 111 on each client device and the display 39 in response to the selection of the second operation icon 48b.

ディスプレイ39に割り込み画像111が表示されている間に第1操作用アイコン48aの選択により第1操作入力が受け付けられると、付加情報表示部41aは、ディスプレイ39において、割り込み画像111に重畳させてメッセージ101を表示させてもよい。 When the first operation input is received by selecting the first operation icon 48a while the interrupt image 111 is displayed on the display 39, the additional information display unit 41a superimposes the message on the interrupt image 111 on the display 39. 101 may be displayed.

上記実施形態によれば、動画の配信中に不測の事態が発生した場合に、通常の動画をそのまま配信し続けるのではなく、緊急表示用の割り込み画像111をクライアント装置及びディスプレイ39に配信することができる。配信者側は、この割り込み画像111が表示されている間に、事態の収拾を図ることができる。 According to the above embodiment, when an unexpected situation occurs during the distribution of the moving image, the interrupt image 111 for emergency display is delivered to the client device and the display 39 instead of continuing to deliver the normal moving image as it is. Can be done. The distributor side can try to control the situation while the interrupt image 111 is displayed.

続いて、図12a及び図12bを参照して第3付加情報の表示及び修正キャラクタオブジェクトの生成について説明する。一実施形態において、付加情報表示部41aは、第3操作用アイコン48cの選択によりサポーターコンピュータ40において第3操作入力が受け付けられると、修正キャラクタオブジェクトを生成し、当該修正キャラクタオブジェクトを含む動画を配信するための処理を行うように構成される。この第3操作入力は、アクターA1のコントローラ33aもしくは33bの操作に応じて、または、アクターA2のコントローラ34aもしくは34bの操作に応じてサーバ装置20またはサポーターコンピュータ40に入力されてもよい。 Subsequently, the display of the third additional information and the generation of the modified character object will be described with reference to FIGS. 12a and 12b. In one embodiment, when the supporter computer 40 receives the third operation input by selecting the third operation icon 48c, the additional information display unit 41a generates a modified character object and distributes a moving image including the modified character object. It is configured to perform processing to do so. This third operation input may be input to the server device 20 or the supporter computer 40 in response to the operation of the controller 33a or 33b of the actor A1 or in response to the operation of the controller 34a or 34b of the actor A2.

図12aには、クライアント装置10aに表示されている表示画像120aの別の例が示されており、図12bには、クライアント装置10aに表示されている表示画像120bの例が示されている。図12aの表示画像120aは、キャラクタオブジェクト71Bを含んでおり、図12bの表示画像120aは、後述する修正キャラクタオブジェクト171Bを含んでいる。上記のように、キャラクタオブジェクト71Bの表情は、アクターA2のフェイスモーションデータに基づいて、アクターA2の表情の動きに同期して変化するように制御される。本明細書においては、キャラクタオブジェクトのうち、フェイスモーションデータに基づいて変化する部位の全部または一部を「フェイス部」と呼ぶことがある。図示の実施形態においては、キャラクタオブジェクト71Bの目の動きは、アクターA2の目の動きに同期して動くようにモーション制御が行われるので、キャラクタオブジェクト71Bの両目を含む位置にフェイス部121が設定されている。フェイス部121は、キャラクタオブジェクト71Bの顔全体を含むように設定されてもよい。 FIG. 12a shows another example of the display image 120a displayed on the client device 10a, and FIG. 12b shows an example of the display image 120b displayed on the client device 10a. The display image 120a of FIG. 12a includes a character object 71B, and the display image 120a of FIG. 12b includes a modified character object 171B described later. As described above, the facial expression of the character object 71B is controlled to change in synchronization with the movement of the facial expression of the actor A2 based on the face motion data of the actor A2. In the present specification, all or a part of the character object that changes based on the face motion data may be referred to as a "face portion". In the illustrated embodiment, the motion of the eyes of the character object 71B is controlled so as to move in synchronization with the movement of the eyes of the actor A2, so that the face portion 121 is set at a position including both eyes of the character object 71B. Has been done. The face portion 121 may be set to include the entire face of the character object 71B.

図12aに示されている表示画像120aにおいては、フェイス部121内に表示されているキャラクタオブジェクト71Bの目の画像は、フェイスモーションデータをモデルデータに適用することにより生成されたものである。これに対して、図12bに示されている表示画像120bにおいては、フェイス部121内に表示されている目の画像は、動画配信開始前から予め準備されていた嵌め込み画像122bである。嵌め込み画像122bは、ストレージ23に記憶されていてもよい。嵌め込み画像122bは、第3付加情報の例である。 In the display image 120a shown in FIG. 12a, the eye image of the character object 71B displayed in the face portion 121 is generated by applying the face motion data to the model data. On the other hand, in the display image 120b shown in FIG. 12b, the eye image displayed in the face portion 121 is an inset image 122b prepared in advance before the start of moving image distribution. The fitted image 122b may be stored in the storage 23. The inset image 122b is an example of the third additional information.

一実施形態において、付加情報表示部41aは、第3操作入力が受け付けられると、キャラクタオブジェクト71Bのフェイス部121に、嵌め込み画像122bを表示するように構成される。例えば、付加情報表示部41aは、第3操作入力が受け付けられると、アニメーション生成部21cに対して修正指示を送信し、アニメーション生成部21cは、付加情報表示部41aからの修正指示に基づいて、キャラクタオブジェクト71Bのフェイス部121に、フェイスモーションデータに基づいて生成される画像ではなく嵌め込み画像122bを嵌め込むことで、修正キャラクタオブジェクト171Bのアニメーションを生成するように構成される。本明細書では、フェイス部121に、フェイスモーションデータに基づいて生成された画像ではなく、嵌め込み画像122bが嵌め込まれたキャラクタオブジェクトを修正キャラクタオブジェクトと呼ぶことがある。修正キャラクタオブジェクトは、アニメーション生成部21cによって生成されたキャラクタオブジェクトの一部が修正されたオブジェクトである。上記の例では、アニメーション生成部21cによって生成されたキャラクタオブジェクトの71Bのフェイス部121に嵌め込み画像122bを嵌め込み表示することによって、修正キャラクタオブジェクト171Bのアニメーションが生成されている。 In one embodiment, the additional information display unit 41a is configured to display the fitted image 122b on the face unit 121 of the character object 71B when the third operation input is received. For example, when the third operation input is received, the additional information display unit 41a transmits a correction instruction to the animation generation unit 21c, and the animation generation unit 21c is based on the correction instruction from the additional information display unit 41a. By fitting the fitted image 122b instead of the image generated based on the face motion data into the face portion 121 of the character object 71B, the animation of the modified character object 171B is generated. In the present specification, the character object in which the fitted image 122b is fitted to the face portion 121 instead of the image generated based on the face motion data may be referred to as a modified character object. The modified character object is an object in which a part of the character object generated by the animation generation unit 21c is modified. In the above example, the animation of the modified character object 171B is generated by fitting and displaying the fitted image 122b in the face portion 121 of the character object 71B generated by the animation generation unit 21c.

フェイスモーションデータをモデルデータに適用してキャラクタオブジェクトの表情を変化させる処理は、プロセッサにとって処理負荷が高い。このため、キャラクタオブジェクトの表情がアクターの表情にタイムリーに追従できないことがある。音声や表情以外の動きは、アクターの発声や体の動きにタイムリーに追従できるため、キャラクタオブジェクトの表情がアクターの表情にタイムリーに追従できないと、視聴ユーザに違和感を与えてしまう。上記実施形態によれば、キャラクタオブジェクトの表情がアクターの表情にタイムリーに追従できない場合に、予め準備されている嵌め込み画像122bを組み込んだ修正キャラクタオブジェクトを生成し、この修正キャラクタオブジェクトを含む動画を配信することにより、キャラクタオブジェクトの表情がアクターの表情に追従できないことによる動画の品質の低下を防ぐことができる。 The process of applying face motion data to model data to change the facial expression of a character object is a heavy processing load for the processor. Therefore, the facial expression of the character object may not follow the facial expression of the actor in a timely manner. Since movements other than voice and facial expressions can timely follow the utterances and body movements of the actor, if the facial expressions of the character object cannot follow the facial expressions of the actor in a timely manner, the viewer will feel uncomfortable. According to the above embodiment, when the facial expression of the character object cannot follow the facial expression of the actor in a timely manner, a modified character object incorporating the inset image 122b prepared in advance is generated, and a moving image including the modified character object is generated. By delivering, it is possible to prevent deterioration of the quality of the moving image due to the facial expression of the character object not being able to follow the facial expression of the actor.

ストレージ23には、嵌め込み画像122bの候補として、複数の異なる種類の画像が記憶されていてもよい。サポーターコンピュータ40のディスプレイ44にこの嵌め込み画像122bの候補が表示され、この候補の中からサポーターによって選択された画像を嵌め込み画像122bとしてもよい。 A plurality of different types of images may be stored in the storage 23 as candidates for the fitted image 122b. Candidates for the fitted image 122b are displayed on the display 44 of the supporter computer 40, and an image selected by the supporter from these candidates may be used as the fitted image 122b.

続いて、図13を参照してブラインドオブジェクトの表示について説明する。一実施形態において、付加情報表示部41aは、第4操作用アイコン48dの選択により第4操作入力が受け付けられると、装飾オブジェクトを装着するキャラクタオブジェクトの少なくとも一部を隠すためのブラインドオブジェクトを表示するように構成される。この第4操作入力は、アクターA1のコントローラ33aもしくは33bの操作に応じて、または、アクターA2のコントローラ34aもしくは34bの操作に応じてサーバ装置20またはサポーターコンピュータ40に入力されてもよい。 Subsequently, the display of the blind object will be described with reference to FIG. In one embodiment, when the fourth operation input is received by selecting the fourth operation icon 48d, the additional information display unit 41a displays a blind object for hiding at least a part of the character object to which the decoration object is attached. It is configured as follows. This fourth operation input may be input to the server device 20 or the supporter computer 40 in response to the operation of the controller 33a or 33b of the actor A1 or in response to the operation of the controller 34a or 34b of the actor A2.

図13の実施形態では、選択画面80においてキャラクタオブジェクト71Bに装着させる装飾オブジェクトとしてTシャツが選択されたことが想定されている。付加情報表示部41aは、キャラクタオブジェクト71Bのうち、選択された装飾オブジェクトと対応づけられている部位を隠すようにブラインドオブジェクトを表示させることができる。図13の表示画像130においては、キャラクタオブジェクト71Bのうち、選択装飾オブジェクトであるTシャツに対応づけられた胴部が少なくとも隠されるようにブラインドオブジェクト131が表示されている。 In the embodiment of FIG. 13, it is assumed that the T-shirt is selected as the decorative object to be attached to the character object 71B on the selection screen 80. The additional information display unit 41a can display the blind object so as to hide the portion of the character object 71B associated with the selected decorative object. In the display image 130 of FIG. 13, the blind object 131 of the character object 71B is displayed so that at least the body portion associated with the T-shirt, which is the selected decoration object, is hidden.

続いて、配信禁止ユーザへの動画の配信禁止処理について説明する。一実施形態において、配信管理部41bは、第5操作用アイコン48eの選択により第5操作入力が受け付けられると、特定の視聴ユーザまたは特定のクライアント装置への動画の配信を禁止するための処理を行うように構成される。一実施形態において、動画の配信中に第5操作用アイコン48eが選択されると、当該動画を視聴中のユーザの一覧が表示される。配信管理部41bは、この一覧の中からサポーター又はアクターにより選択されたユーザに対する当該動画の配信を中止するための処理を行う。例えば、配信管理部41bは、動画の配信先リストに、選択されたユーザ(配信禁止ユーザ)を識別するためのフラグを書き込むことができる。動画配信部21eは、動画の配信先リストに含まれるユーザのうち、配信禁止ユーザを識別するフラグが付与されていないユーザに対して、当該動画を配信することができる。これにより、配信禁止ユーザに対する当該動画の配信が中止される。他の実施形態において、配信管理部41bは、配信中の動画を視聴中のユーザの一覧の中からサポーター又はアクターにより選択されたユーザに対し、ユーザが通常利用できる機能の一部を利用不可能にするように構成されてもよい。例えば、配信管理部41bは、不適切なメッセージを投稿したユーザに対して、メッセージの投稿を禁止するように構成されてもよい。メッセージの投稿を禁止されたユーザは、その禁止後も動画を継続して視聴することはできるが、当該動画に関するメッセージの投稿は行うことができなくなる。 Subsequently, the process of prohibiting the distribution of the moving image to the distribution prohibited user will be described. In one embodiment, the distribution management unit 41b performs a process for prohibiting distribution of a moving image to a specific viewing user or a specific client device when the fifth operation input is received by selecting the fifth operation icon 48e. Configured to do. In one embodiment, when the fifth operation icon 48e is selected during the distribution of the moving image, a list of users who are watching the moving image is displayed. The distribution management unit 41b performs a process for canceling the distribution of the moving image to the user selected by the supporter or the actor from this list. For example, the distribution management unit 41b can write a flag for identifying the selected user (distribution prohibited user) in the distribution destination list of the moving image. The video distribution unit 21e can distribute the video to the users included in the video distribution destination list that are not given the flag for identifying the distribution prohibited user. As a result, the distribution of the video to the distribution prohibited user is stopped. In another embodiment, the distribution management unit 41b cannot use some of the functions normally available to the user selected by the supporter or actor from the list of users who are watching the video being distributed. It may be configured to. For example, the distribution management unit 41b may be configured to prohibit posting of a message to a user who has posted an inappropriate message. A user who is prohibited from posting a message can continue to watch the video even after the prohibition, but cannot post a message related to the video.

次に、図14〜図19を参照して、一態様による動画配信処理について説明する。図14は、一実施形態における動画配信処理の流れを示すフロー図であり、図15は、一実施形態における第1付加情報を表示する処理の流れを示すフロー図であり、図16は、一実施形態における第2付加情報を表示する処理の流れを示すフロー図であり、図17は、一実施形態における第3付加情報を表示する処理の流れを示すフロー図であり、図18は、一実施形態におけるブラインドオブジェクトを表示する処理の流れを示すフロー図であり、図19は、一実施形態において配信禁止ユーザへの動画配信を禁止する処理の流れを示すフロー図である。 Next, with reference to FIGS. 14 to 19, the moving image distribution process according to one aspect will be described. FIG. 14 is a flow chart showing a flow of video distribution processing in one embodiment, FIG. 15 is a flow chart showing a flow of processing for displaying the first additional information in one embodiment, and FIG. 16 is a flow chart showing one. FIG. 17 is a flow chart showing a flow of processing for displaying the second additional information in the embodiment, FIG. 17 is a flow chart showing the flow of processing for displaying the third additional information in one embodiment, and FIG. 18 is a flow chart showing one. FIG. 19 is a flow chart showing a flow of processing for displaying a blind object in the embodiment, and FIG. 19 is a flow chart showing a flow of processing for prohibiting distribution of a moving image to a distribution prohibited user in one embodiment.

まず、図14を参照して、一実施形態における動画配信処理について説明する。当該動画配信処理においては、スタジオルームRにおいてアクターA1及びアクターA2がパフォーマンスを行っていることが想定されている。まず、ステップS11では、アクターA1及びアクターA2の体の動きのデジタル表現であるボディモーションデータと、アクターA1及びアクターA2の顔の動き(表情)のデジタル表現であるフェイスモーションデータと、が生成される。ボディモーションデータの生成は、例えば、上記のボディモーションデータ生成部21aで行われ、フェイスモーションデータの生成は、例えば、上記のフェイスモーションデータ生成部21bで行われる。 First, with reference to FIG. 14, the moving image distribution process in one embodiment will be described. In the video distribution process, it is assumed that actors A1 and A2 are performing in the studio room R. First, in step S11, body motion data which is a digital representation of the body movements of the actors A1 and A2 and face motion data which is a digital representation of the facial movements (facial expressions) of the actors A1 and A2 are generated. NS. The body motion data is generated by, for example, the body motion data generation unit 21a, and the face motion data is generated by the face motion data generation unit 21b, for example.

次に、ステップS12において、アクターA1のボディモーションデータ及びフェイスモーションデータを、アクターA1用のモデルデータに適用することにより、アクターA1の体及び表情の動きに同期して動く第1キャラクタオブジェクトのアニメーションが生成される。同様に、アクターA2のボディモーションデータ及びフェイスモーションデータを、アクターA2用のモデルデータに適用することにより、アクターA2の体及び表情の動きに同期して動く第2キャラクタオブジェクトのアニメーションが生成される。このアニメーションの生成は、例えば、上記のアニメーション生成部21cで行われる。 Next, in step S12, by applying the body motion data and face motion data of the actor A1 to the model data for the actor A1, the animation of the first character object that moves in synchronization with the movement of the body and facial expression of the actor A1. Is generated. Similarly, by applying the body motion data and face motion data of the actor A2 to the model data for the actor A2, an animation of the second character object that moves in synchronization with the movement of the body and facial expression of the actor A2 is generated. .. This animation is generated, for example, by the animation generation unit 21c described above.

次に、ステップS13において、アクターA1に対応する第1キャラクタオブジェクトのアニメーションと、アクターA2に対応する第2キャラクタオブジェクトのアニメーションと、を含む動画を生成する。この動画には、アクターA1及びアクターA2の音声が合成されてもよい。第1キャラクタオブジェクトのアニメーション及び第2キャラクタオブジェクトのアニメーションは、仮想空間内に配置されてもよい。この動画の生成は、例えば、上記の動画生成部21dで行われる。 Next, in step S13, a moving image including the animation of the first character object corresponding to the actor A1 and the animation of the second character object corresponding to the actor A2 is generated. The audio of actor A1 and actor A2 may be combined with this moving image. The animation of the first character object and the animation of the second character object may be arranged in the virtual space. This moving image is generated, for example, by the moving image generation unit 21d described above.

次に、ステップS14に移行し、ステップS13にて生成された動画が配信される。この動画は、ネットワーク50を介してクライアント装置10a〜クライアント装置10c及びこれら以外のクライアント装置に配信される。この動画は、サポーターコンピュータ40に配信され、また、スタジオルームR内のスクリーンSに投影されてもよい。動画は、所定の配信期間にわたって継続して配信される。動画の配信期間は、例えば、30秒間、1分間、5分間、10分、30分間、60分間、120分間、及びこれら以外の任意の時間に定め得る。 Next, the process proceeds to step S14, and the moving image generated in step S13 is distributed. This moving image is distributed to the client devices 10a to 10c and other client devices via the network 50. This moving image may be distributed to the supporter computer 40 and projected on the screen S in the studio room R. The video is continuously distributed over a predetermined distribution period. The video distribution period can be set to, for example, 30 seconds, 1 minute, 5 minutes, 10 minutes, 30 minutes, 60 minutes, 120 minutes, and any other time.

次に、ステップS15に進み、動画の配信を終了させるための終了条件が成就したか否かが判定される。終了条件は、例えば、配信の終了時刻に達したこと、サポーターコンピュータ40により配信を終了するための指示がなされたこと、またはこれら以外の条件である。終了条件が成就していなければステップS11〜S14の処理が繰り返し実行され、アクターA1及びアクターA2の動きに同期したアニメーションを含む動画の配信が継続される。動画について終了条件が成就していると判定された場合には、当該動画の配信処理を終了する。 Next, the process proceeds to step S15, and it is determined whether or not the termination condition for terminating the distribution of the moving image is satisfied. The end condition is, for example, that the end time of the distribution has been reached, that the supporter computer 40 has given an instruction to end the distribution, or other conditions. If the end condition is not satisfied, the processes of steps S11 to S14 are repeatedly executed, and the distribution of the moving image including the animation synchronized with the movements of the actors A1 and A2 is continued. If it is determined that the end condition for the video is satisfied, the distribution process of the video is terminated.

次に、図15をさらに参照して、動画の配信中に行われる第1付加情報の表示処理について説明する。動画の配信中に、ステップS21において、第1操作入力がなされたか否かが判定される。例えば、サポーターコンピュータ40において第1操作用アイコン48aが選択されると、第1操作入力がなされたと判断される。第1操作入力がなされた場合には、第1付加情報の表示処理はステップS22へ進む。ステップS22では、ディスプレイ39に表示されている動画に第1付加情報の例であるメッセージ101が表示され、第1付加情報の表示処理は終了する。このとき、クライアント装置にはメッセージ101は表示されない。 Next, with reference to FIG. 15, the display processing of the first additional information performed during the distribution of the moving image will be described. During the distribution of the moving image, it is determined in step S21 whether or not the first operation input has been made. For example, when the first operation icon 48a is selected in the supporter computer 40, it is determined that the first operation input has been made. When the first operation input is made, the display process of the first additional information proceeds to step S22. In step S22, a message 101, which is an example of the first additional information, is displayed on the moving image displayed on the display 39, and the display process of the first additional information ends. At this time, the message 101 is not displayed on the client device.

次に、図16をさらに参照して、動画の配信中に行われる第2付加情報の表示処理について説明する。動画の配信中に、ステップS31において、第2操作入力がなされたか否かが判定される。例えば、サポーターコンピュータ40において第2操作用アイコン48bが選択されると、第2操作入力がなされたと判断される。第2操作入力がなされた場合には、第2付加情報の表示処理はステップS32へ進む。ステップS32では、第2付加情報の例である割り込み画像111が、クライアント装置及びディスプレイ39にそれぞれ表示され、第2付加情報の表示処理は終了する。 Next, with reference to FIG. 16, the display processing of the second additional information performed during the distribution of the moving image will be described. During the distribution of the moving image, it is determined in step S31 whether or not the second operation input has been made. For example, when the second operation icon 48b is selected in the supporter computer 40, it is determined that the second operation input has been made. When the second operation input is made, the display process of the second additional information proceeds to step S32. In step S32, the interrupt image 111, which is an example of the second additional information, is displayed on the client device and the display 39, respectively, and the display process of the second additional information ends.

次に、図17をさらに参照して、動画の配信中に行われる第3付加情報の表示処理について説明する。動画の配信中に、ステップS41において、第3操作入力がなされたか否かが判定される。例えば、サポーターコンピュータ40において第3操作用アイコン48cが選択されると、第3操作入力がなされたと判断される。第3操作入力がなされた場合には、第3付加情報の表示処理はステップS42へ進む。ステップS42では、第3付加情報の例である嵌め込み画像122bが、キャラクタオブジェクトのフェイス部に表示され、第3付加情報の表示処理は終了する。 Next, with reference to FIG. 17, a third additional information display process performed during the distribution of the moving image will be described. During the distribution of the moving image, it is determined in step S41 whether or not the third operation input has been made. For example, when the third operation icon 48c is selected on the supporter computer 40, it is determined that the third operation input has been made. When the third operation input is made, the display process of the third additional information proceeds to step S42. In step S42, the fitted image 122b, which is an example of the third additional information, is displayed on the face portion of the character object, and the display process of the third additional information ends.

次に、図18をさらに参照して、動画の配信中に行われるブラインドオブジェクトの表示処理について説明する。動画の配信中に、ステップS51において、当該動画に登場するキャラクタオブジェクトに装着させる装飾オブジェクトの選択がなされたか否かが判定される。上記のように、キャラクタオブジェクトに装着される装飾オブジェクトは、候補リスト23dに含まれている装飾オブジェクトの候補の中から選択され得る。装飾オブジェクトの選択処理は、例えば、上記の装飾オブジェクト選択部21gにより実行される。 Next, with reference to FIG. 18, a blind object display process performed during the distribution of the moving image will be described. During the distribution of the moving image, it is determined in step S51 whether or not the decoration object to be attached to the character object appearing in the moving image has been selected. As described above, the decoration object attached to the character object can be selected from the decoration object candidates included in the candidate list 23d. The decoration object selection process is executed by, for example, the decoration object selection unit 21g described above.

ステップS51において装飾オブジェクトが選択されたと判定された場合には、処理はステップS52へ進む。ステップS52では、第4操作入力がなされたか否かが判定される。例えば、サポーターコンピュータ40において第4操作用アイコン48dが選択されると、第4操作入力がなされたと判断される。第4操作入力がなされた場合には、ブラインドオブジェクトの表示処理はステップS53へ進む。他の実施形態においては、候補リスト23dから装飾オブジェクトの選択がなされたことをもって第4操作入力がなされたと判断してもよい。この場合、ステップS52は省略され、ブラインドオブジェクトの表示処理はステップS51からステップS53に進む。 If it is determined in step S51 that the decorative object is selected, the process proceeds to step S52. In step S52, it is determined whether or not the fourth operation input has been made. For example, when the fourth operation icon 48d is selected in the supporter computer 40, it is determined that the fourth operation input has been made. When the fourth operation input is made, the blind object display process proceeds to step S53. In another embodiment, it may be determined that the fourth operation input has been made when the decoration object is selected from the candidate list 23d. In this case, step S52 is omitted, and the blind object display process proceeds from step S51 to step S53.

ステップS53では、ブラインドオブジェクト131が、キャラクタオブジェクトの少なくとも一部を隠すように表示される。例えば、ステップS51で選択された装飾オブジェクトがTシャツである場合には、このTシャツと対応づけられているキャラクタオブジェクトの胴部を隠すようにブラインドオブジェクト131が動画に付加される。 In step S53, the blind object 131 is displayed so as to hide at least a part of the character object. For example, when the decorative object selected in step S51 is a T-shirt, a blind object 131 is added to the moving image so as to hide the body of the character object associated with the T-shirt.

次に、図19をさらに参照して、特定のユーザへ動画の配信を禁止するための配信禁止処理について説明する。動画の配信中に、ステップS61において、第5操作入力がなされたか否かが判定される。例えば、サポーターコンピュータ40において第5操作用アイコン48eが選択されると、第5操作入力がなされたと判断される。 Next, with reference to FIG. 19, a distribution prohibition process for prohibiting the distribution of the moving image to a specific user will be described. During the distribution of the moving image, it is determined in step S61 whether or not the fifth operation input has been made. For example, when the fifth operation icon 48e is selected in the supporter computer 40, it is determined that the fifth operation input has been made.

第5操作入力がなされた場合には、配信禁止処理はステップS62へ進む。ステップS62では、当該動画の配信を禁止するユーザ(配信禁止ユーザ)が指定される。例えば、サポーターコンピュータ40のディスプレイ44に当該動画を視聴中のユーザのリストが表示され、このリストの中からサポーターにより選択されたユーザが配信禁止ユーザとして指定される。配信禁止ユーザを指定するための処理は、例えば、上記の配信管理部41bにより実行される。 When the fifth operation input is made, the distribution prohibition process proceeds to step S62. In step S62, a user (delivery prohibited user) who prohibits the distribution of the moving image is designated. For example, a list of users who are watching the moving image is displayed on the display 44 of the supporter computer 40, and a user selected by the supporter from this list is designated as a distribution prohibited user. The process for designating the distribution prohibited user is executed, for example, by the distribution management unit 41b described above.

次に、配信禁止処理はステップS63へ進む。ステップS63では、動画の配信先リストに含まれるユーザのうち配信禁止ユーザとして指定されていないユーザに対してのみ当該動画が配信される。この動画の配信処理は、例えば、上記の動画配信部21eにより実行される。 Next, the distribution prohibition process proceeds to step S63. In step S63, the video is distributed only to the users included in the video distribution destination list that are not designated as the distribution prohibited users. This moving image distribution process is executed by, for example, the above-mentioned moving image distribution unit 21e.

上記の実施形態における動画配信システム1によれば、ライブ配信中に起こる不測の事態への対処が容易になる。例えば、メッセージ101をクライアント装置には表示させずにディスプレイ39に表示させることにより、視聴ユーザによって視聴される動画に影響を与えずに、アクターまたはそれ以外のディスプレイ39を視認可能な配信側のスタッフに対して、配信中の動画に関連する指示や連絡事項を伝達することができる。 According to the video distribution system 1 in the above embodiment, it becomes easy to deal with an unexpected situation that occurs during live distribution. For example, by displaying the message 101 on the display 39 without displaying it on the client device, the staff on the distribution side who can see the actor or other display 39 without affecting the moving image viewed by the viewing user. It is possible to convey instructions and communication matters related to the video being distributed to the client.

他の実施形態によれば、動画の配信中に不測の事態が発生した場合に、通常の動画をそのまま配信し続けるのではなく、緊急表示用の割り込み画像111をクライアント装置及びディスプレイ39に配信することができる。 According to another embodiment, when an unexpected situation occurs during the distribution of the video, the interrupt image 111 for emergency display is distributed to the client device and the display 39 instead of continuing to distribute the normal video as it is. be able to.

他の一実施形態によれば、キャラクタオブジェクトの表情がアクターの表情にタイムリーに追従できない場合であっても、予め準備されている嵌め込み画像122bを組み込んだ修正キャラクタオブジェクトを生成し、この修正キャラクタオブジェクトを含む動画を配信することにより、キャラクタオブジェクトの表情がアクターの表情に追従できないことによる動画の品質の低下を防ぐことができる。 According to another embodiment, even when the facial expression of the character object cannot follow the facial expression of the actor in a timely manner, a modified character object incorporating the inset image 122b prepared in advance is generated, and the modified character is generated. By distributing the moving image including the object, it is possible to prevent the deterioration of the quality of the moving image due to the facial expression of the character object not being able to follow the facial expression of the actor.

他の一実施形態によれば、一部の視聴ユーザが不適切なメッセージを投稿するなどの不適切な行動をとった場合でも、当該視聴ユーザへの動画の配信を中止することができる。 According to another embodiment, even if some viewing users take inappropriate actions such as posting an inappropriate message, the distribution of the moving image to the viewing user can be stopped.

本発明の実施形態は、上述した実施形態に限定されるものではなく、その要旨を逸脱しない範囲内で様々な変更が可能である。例えば、配信される動画は、スタジオルームR以外で撮影及び生成されてもよい。例えば、配信される動画を生成するための撮影は、アクターやサポーターの自宅で行われてもよい。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist thereof. For example, the delivered moving image may be shot and generated in a place other than the studio room R. For example, the shooting for generating the delivered video may be performed at the home of the actor or supporter.

本明細書において説明された処理手順、特にフロー図を用いて説明された処理手順においては、その処理手順を構成する工程(ステップ)の一部を省略すること、その処理手順を構成する工程として明示されていない工程を追加すること、及び/又は当該工程の順序を入れ替えることが可能であり、このような省略、追加、順序の変更がなされた処理手順も本発明の趣旨を逸脱しない限り本発明の範囲に含まれる。 In the processing procedure described in the present specification, particularly the processing procedure described using the flow chart, a part of the steps (steps) constituting the processing procedure is omitted, as a step constituting the processing procedure. It is possible to add steps that are not specified and / or to change the order of the steps, and the processing procedure in which such omissions, additions, and changes in order are made does not deviate from the gist of the present invention. It is included in the scope of the invention.

以下に、本願の原出願の出願当初の特許請求の範囲に記載された発明を付記する。
[1]
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を第1ユーザが使用する第1クライアント装置にライブ配信するように構成された配信サーバ装置と、
前記アクターから視認可能な位置に配置され、前記動画を表示するように構成された第1表示装置と、
前記アクターからの第2操作入力に基づいて前記第1表示装置に表示されている前記動画及び前記第1クライアント装置に表示されている前記動画に第2付加情報を表示させるように構成されたサポータコンピュータと、
を備える動画配信システム。
[2]
前記サポーターコンピュータは、第3操作入力に基づいて前記キャラクタオブジェクトの少なくとも一部を修正した修正キャラクタオブジェクトを生成させ、前記動画に前記修正キャラクタオブジェクトを含めるように構成される、
[1]に記載の動画配信システム。
[3]
前記キャラクタオブジェクトは、前記アクターの顔の動きを示すフェイスモーションデータに基づいて動くように生成されるフェイス部を有し、
前記配信サーバ装置は、前記第3操作入力に基づいて
、前記フェイス部に第3付加情報を表示するように構成される、
[2]に記載の動画配信システム。
[4]
前記キャラクタオブジェクトに関連づけて表示される装飾オブジェクトを記憶するストレージをさらに備え、
前記サポーターコンピュータは、第4操作入力に基づいて前記装飾オブジェクトを前記動画に表示する際に前記キャラクタオブジェクトの少なくとも一部を隠すためのブラインドオブジェクトを表示するように構成される、
[1]から[3]のいずれか1項に記載の動画配信システム。
[5]
前記配信サーバ装置は、前記第1クライアント装置に加えて第2ユーザが使用する第2クライアント装置に前記動画をライブ配信するように構成され、
前記第1クライアント装置は、第1タイプの装置であり、
前記第2クライアント装置は、前記第1タイプの装置と異なる第2タイプの装置であり、
前記サポータコンピュータは、前記第1クライアント装置において表示される前記動画の表示画像、及び、前記第2クライアント装置において表示される前記動画の表示画像を表示する第2表示装置を備える、
[1]から[4]のいずれか1項に記載の動画配信システム。
[6]
前記サポータコンピュータは、第5操作入力に基づいて前記第1ユーザへの前記動画の配信を禁止するように構成される、
[1]から[5]のいずれか1項に記載の動画配信システム。
[7]
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を第1ユーザが使用する第1クライアント装置にライブ配信する工程と、
前記アクターから視認可能な位置に配置された第1表示装置において前記動画を表示する工程と、
前記アクターからの第2操作入力に基づいて前記第1表示装置に表示されている前記動画及び前記第1クライアント装置に表示されている前記動画に第2付加情報を表示させる工程と、
を備える動画配信方法。
[8]
一又は複数のコンピュータプロセッサに、
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を第1ユーザが使用する第1クライアント装置にライブ配信する工程と、
前記アクターから視認可能な位置に配置された第1表示装置において前記動画を表示する工程と、
前記アクターからの第2操作入力に基づいて前記第1表示装置に表示されている前記動画及び前記第1クライアント装置に表示されている前記動画に第2付加情報を表示させる工程と、
を実行させる配信プログラム。
The inventions described in the claims at the time of filing the original application of the present application are added below.
[1]
A distribution server device configured to live stream a video containing an animation of a character object generated based on the movement of an actor to a first client device used by the first user.
A first display device arranged at a position visible to the actor and configured to display the moving image, and a first display device.
A supporter configured to display the second additional information on the moving image displayed on the first display device and the moving image displayed on the first client device based on the second operation input from the actor. With a computer
Video distribution system equipped with.
[2]
The supporter computer is configured to generate a modified character object in which at least a part of the character object is modified based on a third operation input, and include the modified character object in the moving image.
The video distribution system described in [1].
[3]
The character object has a face portion generated to move based on face motion data indicating the movement of the face of the actor.
The distribution server device is configured to display a third additional information on the face portion based on the third operation input.
The video distribution system described in [2].
[4]
It also has storage for storing decorative objects that are displayed in association with the character object.
The supporter computer is configured to display a blind object for hiding at least a part of the character object when displaying the decorative object in the moving image based on the fourth operation input.
The video distribution system according to any one of [1] to [3].
[5]
The distribution server device is configured to live-distribute the moving image to a second client device used by a second user in addition to the first client device.
The first client device is a first type device.
The second client device is a second type device different from the first type device, and is a device of the second type.
The supporter computer includes a display image of the moving image displayed on the first client device and a second display device displaying the displayed image of the moving image displayed on the second client device.
The video distribution system according to any one of [1] to [4].
[6]
The supporter computer is configured to prohibit the distribution of the moving image to the first user based on the fifth operation input.
The video distribution system according to any one of [1] to [5].
[7]
A video distribution method executed by one or more computer processors executing computer-readable instructions.
A process of live-streaming a video including an animation of a character object generated based on the movement of an actor to a first client device used by the first user, and
A step of displaying the moving image on the first display device arranged at a position visible from the actor, and
A step of displaying the second additional information on the moving image displayed on the first display device and the moving image displayed on the first client device based on the second operation input from the actor.
Video distribution method with.
[8]
For one or more computer processors
A process of live-streaming a video including an animation of a character object generated based on the movement of an actor to a first client device used by the first user, and
A step of displaying the moving image on the first display device arranged at a position visible from the actor, and
A step of displaying the second additional information on the moving image displayed on the first display device and the moving image displayed on the first client device based on the second operation input from the actor.
Delivery program to execute.

1 動画配信システム 1 Video distribution system

Claims (11)

アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を第1ユーザが使用する第1クライアント装置にライブ配信するように構成された配信サーバ装置と、
第5操作入力に基づいて前記第1ユーザへの前記動画へのメッセージの投稿を禁止するように構成されたサポーターコンピュータと、
を備える動画配信システム。
A distribution server device configured to live stream a video containing an animation of a character object generated based on the movement of an actor to a first client device used by the first user.
A supporter computer configured to prohibit posting of a message to the video to the first user based on the fifth operation input, and
Video distribution system equipped with.
前記サポーターコンピュータは、前記第5操作入力に応じて、前記動画を視聴中のユーザを示す配信先リストを表示し、
前記配信先リストから前記第1ユーザが選択された場合に、前記第1ユーザへの前記動画へのメッセージの投稿を禁止する、
請求項1に記載の動画配信システム。
The supporter computer displays a distribution destination list indicating a user who is watching the moving image in response to the fifth operation input.
When the first user is selected from the delivery destination list, posting of a message to the video to the first user is prohibited.
The video distribution system according to claim 1.
前記第1ユーザは、前記動画へのメッセージの投稿が禁止された後に前記動画を視聴することができる、
請求項1又は2に記載の動画配信システム。
The first user can watch the video after the posting of a message to the video is prohibited.
The video distribution system according to claim 1 or 2.
前記サポーターコンピュータは、前記第5操作入力に応じて、前記動画を視聴中のユーザを示す配信先リストを表示し、
前記配信先リストから前記第1ユーザが選択された場合に、前記第1ユーザへの前記動画の配信を中止する、
請求項1又は2に記載の動画配信システム。
The supporter computer displays a distribution destination list indicating a user who is watching the moving image in response to the fifth operation input.
When the first user is selected from the distribution destination list, the distribution of the moving image to the first user is stopped.
The video distribution system according to claim 1 or 2.
前記サポーターコンピュータは、第3操作入力に基づいて前記キャラクタオブジェクトの少なくとも一部を修正した修正キャラクタオブジェクトを生成させ、前記動画に前記修正キャラクタオブジェクトを含めるように構成される、
請求項1から4のいずれか1項に記載の動画配信システム。
The supporter computer is configured to generate a modified character object in which at least a part of the character object is modified based on a third operation input, and include the modified character object in the moving image.
The video distribution system according to any one of claims 1 to 4.
前記キャラクタオブジェクトは、前記アクターの顔の動きを示すフェイスモーションデータに基づいて動くように生成されるフェイス部を有し、
前記配信サーバ装置は、前記第3操作入力に基づいて、前記フェイス部に第3付加情報を表示するように構成される、
請求項5に記載の動画配信システム。
The character object has a face portion generated to move based on face motion data indicating the movement of the face of the actor.
The distribution server device is configured to display a third additional information on the face portion based on the third operation input.
The video distribution system according to claim 5.
前記キャラクタオブジェクトに関連づけて表示される装飾オブジェクトを記憶するストレージをさらに備え、
前記サポーターコンピュータは、第4操作入力に基づいて前記装飾オブジェクトを前記動画に表示する際に前記キャラクタオブジェクトの少なくとも一部を隠すためのブラインドオブジェクトを表示するように構成される、
請求項1から請求項6のいずれか1項に記載の動画配信システム。
It also has storage for storing decorative objects that are displayed in association with the character object.
The supporter computer is configured to display a blind object for hiding at least a part of the character object when displaying the decorative object in the moving image based on the fourth operation input.
The video distribution system according to any one of claims 1 to 6.
前記配信サーバ装置は、前記第1クライアント装置に加えて第2ユーザが使用する第2クライアント装置に前記動画をライブ配信するように構成され、
前記第1クライアント装置は、第1タイプの装置であり、
前記第2クライアント装置は、前記第1タイプの装置と異なる第2タイプの装置であり、
前記サポーターコンピュータは、前記第1クライアント装置において表示される前記動画の表示画像、及び、前記第2クライアント装置において表示される前記動画の表示画像を表示する第2表示装置を備える、
請求項1から請求項7のいずれか1項に記載の動画配信システム。
The distribution server device is configured to live-distribute the moving image to a second client device used by a second user in addition to the first client device.
The first client device is a first type device.
The second client device is a second type device different from the first type device, and is a device of the second type.
The supporter computer includes a display image of the moving image displayed on the first client device and a second display device displaying the displayed image of the moving image displayed on the second client device.
The video distribution system according to any one of claims 1 to 7.
前記サポーターコンピュータは、第5操作入力に基づいて前記第1ユーザへの前記動画の配信を禁止するように構成される、
請求項1から請求項8のいずれか1項に記載の動画配信システム。
The supporter computer is configured to prohibit the distribution of the moving image to the first user based on the fifth operation input.
The video distribution system according to any one of claims 1 to 8.
一又は複数のコンピュータプロセッサがコンピュータ読み取り可能な命令を実行することにより実行される動画配信方法であって、
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を第1ユーザが使用する第1クライアント装置にライブ配信する工程と、
サポーターコンピュータへの第5操作入力に基づいて前記第1ユーザへの前記動画へのメッセージの投稿を禁止する工程と、
を備える動画配信方法。
A video distribution method executed by one or more computer processors executing computer-readable instructions.
A process of live-streaming a video including an animation of a character object generated based on the movement of an actor to a first client device used by the first user, and
A process of prohibiting the posting of a message to the video to the first user based on the fifth operation input to the supporter computer, and
Video distribution method with.
一又は複数のコンピュータプロセッサに、
アクターの動きに基づいて生成されるキャラクタオブジェクトのアニメーションを含む動画を第1ユーザが使用する第1クライアント装置にライブ配信する工程と、
サポーターコンピュータへの第5操作入力に基づいて前記第1ユーザへの前記動画へのメッセージの投稿を禁止する工程と、
を実行させる配信プログラム。
For one or more computer processors
A process of live-streaming a video including an animation of a character object generated based on the movement of an actor to a first client device used by the first user, and
A process of prohibiting the posting of a message to the video to the first user based on the fifth operation input to the supporter computer, and
Delivery program to execute.
JP2021082016A 2019-06-25 2021-05-14 A video delivery system that delivers live videos containing animations of character objects generated based on the movements of actors Active JP7167242B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2021082016A JP7167242B2 (en) 2019-06-25 2021-05-14 A video delivery system that delivers live videos containing animations of character objects generated based on the movements of actors
JP2022171851A JP7460059B2 (en) 2019-06-25 2022-10-26 A video distribution system for live streaming videos including animations of character objects generated based on the movements of actors

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019117684A JP7098575B2 (en) 2019-06-25 2019-06-25 A video distribution system that delivers live video containing animations of character objects generated based on the movement of actors.
JP2021082016A JP7167242B2 (en) 2019-06-25 2021-05-14 A video delivery system that delivers live videos containing animations of character objects generated based on the movements of actors

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019117684A Division JP7098575B2 (en) 2019-06-25 2019-06-25 A video distribution system that delivers live video containing animations of character objects generated based on the movement of actors.

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2022171851A Division JP7460059B2 (en) 2019-06-25 2022-10-26 A video distribution system for live streaming videos including animations of character objects generated based on the movements of actors

Publications (2)

Publication Number Publication Date
JP2021132393A true JP2021132393A (en) 2021-09-09
JP7167242B2 JP7167242B2 (en) 2022-11-08

Family

ID=68727475

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019117684A Active JP7098575B2 (en) 2019-06-25 2019-06-25 A video distribution system that delivers live video containing animations of character objects generated based on the movement of actors.
JP2021082016A Active JP7167242B2 (en) 2019-06-25 2021-05-14 A video delivery system that delivers live videos containing animations of character objects generated based on the movements of actors
JP2022171851A Active JP7460059B2 (en) 2019-06-25 2022-10-26 A video distribution system for live streaming videos including animations of character objects generated based on the movements of actors

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2019117684A Active JP7098575B2 (en) 2019-06-25 2019-06-25 A video distribution system that delivers live video containing animations of character objects generated based on the movement of actors.

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2022171851A Active JP7460059B2 (en) 2019-06-25 2022-10-26 A video distribution system for live streaming videos including animations of character objects generated based on the movements of actors

Country Status (1)

Country Link
JP (3) JP7098575B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7134197B2 (en) * 2020-05-01 2022-09-09 グリー株式会社 Video distribution system, information processing method and computer program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004343189A (en) * 2003-05-13 2004-12-02 Nippon Telegr & Teleph Corp <Ntt> Content distribution method and content distribution apparatus
JP2008158735A (en) * 2006-12-22 2008-07-10 Media Magic Co Ltd Electronic bulletin board monitoring system and electronic bulletin board monitoring program
JP2013178706A (en) * 2012-02-29 2013-09-09 Hitachi Information & Telecommunication Engineering Ltd Management system for inadequate posting
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP2017021799A (en) * 2015-07-07 2017-01-26 学校法人幾徳学園 Information presentation system, information presentation device and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000135377A (en) * 1998-10-30 2000-05-16 Namco Ltd Game system and information memorizing medium
JP2003091345A (en) * 2001-09-18 2003-03-28 Sony Corp Information processor, guidance presenting method, guidance presenting program and recording medium recording the guidance presenting program
JP5962200B2 (en) 2012-05-21 2016-08-03 カシオ計算機株式会社 Imaging apparatus and imaging processing method
EP2916558B1 (en) * 2012-11-05 2022-03-09 Sony Interactive Entertainment Inc. Information processing device
JP2015084478A (en) * 2013-10-25 2015-04-30 株式会社コスミックエンジニアリング Distribution device for return video
JP6809830B2 (en) * 2016-07-13 2021-01-06 株式会社バンダイナムコエンターテインメント Programs and electronics

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004343189A (en) * 2003-05-13 2004-12-02 Nippon Telegr & Teleph Corp <Ntt> Content distribution method and content distribution apparatus
JP2008158735A (en) * 2006-12-22 2008-07-10 Media Magic Co Ltd Electronic bulletin board monitoring system and electronic bulletin board monitoring program
JP2013178706A (en) * 2012-02-29 2013-09-09 Hitachi Information & Telecommunication Engineering Ltd Management system for inadequate posting
JP2015184689A (en) * 2014-03-20 2015-10-22 株式会社Mugenup Moving image generation device and program
JP2017021799A (en) * 2015-07-07 2017-01-26 学校法人幾徳学園 Information presentation system, information presentation device and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
長谷川 雄介: "ヴァーチャルアイドル新時代の幕開け PROJECT MariA", CG WORLD, vol. 第231巻, JPN6022020617, 10 November 2017 (2017-11-10), JP, pages 74 - 79, ISSN: 0004787570 *

Also Published As

Publication number Publication date
JP7460059B2 (en) 2024-04-02
JP7098575B2 (en) 2022-07-11
JP2019205176A (en) 2019-11-28
JP2023015139A (en) 2023-01-31
JP7167242B2 (en) 2022-11-08

Similar Documents

Publication Publication Date Title
JP6382468B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
JP6431233B1 (en) Video distribution system that distributes video including messages from viewing users
JP6420930B1 (en) Movie distribution system, movie distribution method, and movie distribution program for distributing movie including animation of character object generated based on movement of actor
KR102585051B1 (en) Moving picture delivery system for delivering moving picture including animation of character object generated based on motions of actor, moving picture delivery method, and moving picture delivery program
JP6446154B1 (en) Video distribution system for live distribution of animation including animation of character objects generated based on actor movement
US11778283B2 (en) Video distribution system for live distributing video containing animation of character object generated based on motion of actors
JP7460059B2 (en) A video distribution system for live streaming videos including animations of character objects generated based on the movements of actors
JP6951394B2 (en) Video distribution system that distributes videos including messages from viewers
JP6847138B2 (en) A video distribution system, video distribution method, and video distribution program that distributes videos containing animations of character objects generated based on the movements of actors.
JP6548802B1 (en) A video distribution system that delivers live video including animation of character objects generated based on the movement of actors
JP2022088365A (en) Video distribution system distributing videos including animations of character objects generated based on motion of actors, video distribution method, and video distribution program
JP6498832B1 (en) Video distribution system that distributes video including messages from viewing users
JP2020043578A (en) Moving image distribution system, moving image distribution method, and moving image distribution program, for distributing moving image including animation of character object generated on the basis of movement of actor
JP6764442B2 (en) Video distribution system, video distribution method, and video distribution program that distributes videos including animations of character objects generated based on the movements of actors.
JP6592214B1 (en) Video distribution system that distributes video including messages from viewing users
JP6431242B1 (en) Video distribution system that distributes video including messages from viewing users
JP7279114B2 (en) A video distribution system that distributes videos containing messages from viewing users
JP7379427B2 (en) Video distribution system, video distribution method, and video distribution program for live distribution of videos including character object animations generated based on the movements of distribution users
JP2019198057A (en) Moving image distribution system, moving image distribution method and moving image distribution program distributing moving image including animation of character object generated based on actor movement
JP2020005238A (en) Video distribution system, video distribution method and video distribution program for distributing a video including animation of character object generated based on motion of actor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210514

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221026

R150 Certificate of patent or registration of utility model

Ref document number: 7167242

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150